32K上下文,Mistral 7B v0.2 基模型开源了

来源:机器之心 2024-03-25 08:08:00 104

刚刚,Mistral AI 的模型又更新了。

这次开源一如既往地「突然」,是在一个叫做 Cerebral Valley 的黑客松活动上公布的。


editor-photo-163.jpg

PPT 一翻页,全场都举起了手机拍照:


editor-photo-164.jpg


这次开源的 Mistral 7B v0.2 Base Model ,是 Mistral-7B-Instruct-v0.2 背后的原始预训练模型,后者属于该公司的「Mistral Tiny」系列。


此次更新主要包括三个方面:


  • 将 8K 上下文提到了 32K;
  • Rope Theta = 1e6;
  • 取消滑动窗口。


editor-photo-165.jpg


下载链接:https://models.mistralcdn.com/mistral-7b-v0-2/mistral-7B-v0.2.tar


更新之后的性能对比是这样的:


editor-photo-166.jpg


场外观众迅速跟进。有人评价说:「Mistral 7B 已经是同尺寸级别中最好的模型,这次改进是一个巨大的进步。 我将尽快在这个模型上重新训练当前的许多微调。」

editor-photo-167.jpg


Mistral AI 的第一个 7B 模型发布于 2023 年 9 月,在多个基准测试中实现了优于 Llama 2 13B 的好成绩,让 Mistral AI 一下子就打出了知名度。


editor-photo-168.jpg


这也导致目前很多开源大模型都已不再对标 Llama 2,而是将 Mistral AI 旗下的各系列模型作为直接竞争对手。


而 Mistral 7B v0.2 Base Model 对应的指令调优版本 Mistral-7B-Instruct-v0.2 在 2023 年 12 月就已开放测试,据官方博客介绍,该模型仅适用于英语,在 MT-Bench 上能够获得 7.6 分的成绩,逊于 GPT-3.5。


editor-photo-169.jpg


此次开放基础模型之后,开发者们就可以根据自己的需求对这个「当前最好的 7B 模型」进行微调了。


不过,7B 模型只能算是 Mistral AI 众多惊艳成果中的一项。这家公司的长远目标是对标 OpenAI。


上个月底,Mistral AI 正式发布了「旗舰级」大模型 Mistral Large。与此前的一系列模型不同,这一版本性能更强,体量更大,直接对标 OpenAI 的 GPT-4。随着 Mistral Large 上线,Mistral AI 推出了名为 Le Chat 的聊天助手,也实现了对标 ChatGPT。


而新模型的发布,也伴随着公司大方向的一次转型。人们发现, Mistral Large 并不是一个开源大模型 —— 有跑分、 API 和应用,就是不像往常一样有 GitHub 或是下载链接。


editor-photo-170.jpg

与 Mistral Large 发布同时发生的,是 Mistral AI 与微软达成了长期合作的协议,不仅会将 Mistral Large 引入 Azure,还收获了微软 1600 万美元的投资。


Mistral AI 对路透社表示,作为交易的一部分,微软将持有该公司少数股权,但未透露细节。未来,二者的合作主要集中在三个核心领域:


  • 超算基础设施:微软将通过 Azure AI 超级计算基础设施支持 Mistral AI ,为 Mistral AI 旗舰模型的 AI 训练和推理工作负载提供一流的性能和规模;
  • 市场推广:微软和 Mistral AI 将通过 Azure AI Studio 和 Azure 机器学习模型目录中的模型即服务(MaaS)向客户提供 Mistral AI 的高级模型。除 OpenAI 模型外,模型目录还提供了多种开源和商业模型。
  • 人工智能研发:微软和 Mistral AI 将探索为特定客户训练特定目的模型的合作。


当被问及公司是否正在改变其开源商业模式时,Mistral AI 联合创始人 Arthur Mensch 在采访中表示:「我们从开源模式开始,任何人都可以免费部署,因为这是广泛分发它们并创造需求的一种方式。但从一开始,我们就提供了一种具有优化模型的商业模式,这让使该公司能够为模型开发所需的昂贵研究提供资金。」


(本文来源公众号:机器之心,如有侵权请联系删除)

相关资讯
最新资讯
最新问答
微软与Mistral AI达成合作

微软与Mistral AI达成合作

法国生成式AI公司Mistral AI最近发布了Mistral Large,被誉为「欧洲OpenAI」。这一先进的文本生成模型展现出卓越的推理能力,能够处理复杂的多语言推理任务,如文本理解、转换和代码生成等。在多项基准测试中,Mistral Large表现出色,全球排名第二,仅次于GPT-4,成为API广泛使用的顶级模型。Mistral Large目前已经成功集成到Mistral AI的聊天机器人Le Chat中,并在La Plateforme和Azure平台上可用。微软宣布与Mistral AI建立长期合作伙伴关系,共同开发新的商业机会,并通过Azure AI超级计算基础设施支持Mistral AI的大型模型训练和推理工作。这一合作涵盖多个领域,双方将共同探索为特定客户定制特定目的模型的合作。此外,微软和Mistral AI还计划通过Azure AI Studio和Azure机器学习模型目录中的模型即服务(MaaS)向客户提供Mistral AI的高级模型。他们将共同探索为特定客户提供定制模型的可能性。这一合作使Mistral成为继OpenAI之后,在微软Azure云平台上提供商用语言模型的第二家公司,为用户提供更广泛、更强大的人工智能解决方案。
2024-02-29 09:00:00 60
零一万物:开源Yi-9B模型

零一万物:开源Yi-9B模型

零一万物公司最新发布的开源大模型Yi-9B在人工智能领域引起了广泛关注。被冠以“理科状元”之名的Yi-9B在其开源声明中强调了其出众的代码和数学能力,自豪地宣称在这两个领域超越了大多数竞争对手,位列排行榜第二。这一消息是在零一万物宣布Yi-9B模型开源的同时发布的。该模型具有巨大的8.8B参数和默认的4K tokens上下文长度。据公司公布的数据显示,Yi-9B在综合能力(Mean-All)方面表现卓越,超越了DeepSeek-Coder、DeepSeek-Math、Mistral-7B、SOLAR-10.7B和Gemma-7B。在代码能力(Mean-Code)方面,Yi-9B仅次于DeepSeek-Coder-7B,胜过了Yi-34B、SOLAR-10.7B、Mistral-7B和Gemma-7B。在数学能力(Mean-Math)方面,Yi-9B仅次于DeepSeek-Math-7B,胜过了SOLAR-10.7B、Mistral-7B和Gemma-7B。此外,在常识和推理能力(Mean-Text)方面,Yi-9B的表现与Mistral-7B、SOLAR-10.7B和Gemma-7B持平。Yi-9B的开源发布以其卓越的性能和全面的能力而备受瞩目,为人工智能领域的发展贡献了一份重要的力量。模型地址:https://github.com/01-ai/Yi
2024-03-08 08:00:00 77
智源FlagEval大模型评测1月榜单发布

智源FlagEval大模型评测1月榜单发布

FlagEval大语言模型测评榜单已于本月发布,新加入的模型包括最近开源的Mistral(MoE模型)、BlueLM、MindSource、SUS-chat-34B、DeepSeek等。通过引入平行测试,我们进一步提高了主观评测的可靠性。评估结果表明,Mixtral-8x7B系列模型在英文能力方面明显优于中文能力,其基座模型的英文表现接近Aquila2-34B;而vivo发布的BlueLM系列模型在中英文能力上相对均衡,在10B以下模型中整体评测结果居于中上水平。评测结果:Mixtral-8x7B系列模型引领了最近的 MoE 模型浪潮其英文能力远优于中文能力,准确率高出约10%;基座模型英文能力接近 Aquila2-34B,准确率为 75.5%;SFT 模型英文客观评测准确率达到 76.8%,排名第一。厦门大学MindSource系列模型(暂未开源)基座模型 MindSource-7B 的英文能力明显强于中文能力,中英客观评测准确率分别为 68.8%、60.0%;SFT模型 MindSource-7B-Chat 中英文客观评测结果在当前7B参数级模型中排名第一,但中文主观评测结果尚有较大提升空间。Vivo 发布的BlueLM系列模型,基座模型和SFT模型的中英文能力较为均衡,整体评测结果在10B以下模型中位于中上游。南方科技大学发布的SUS-Chat-34B模型是基于Yi-34B训练的对话模型,中文客观、主观评测结果亮眼,准确率均达到 70%以上,但在个别英文客观评测集几乎为零,可能存在指令理解和跟随上的适配问题。深度求索&幻方量化发布的DeepSeek系列模型中,DeepSeek-67B-Chat 对话模型综合得分排名第三,仅次于 AquilaChat2-34B、Qwen-72B-chat。
2024-01-19 11:29:47 102
上海AI实验室:开源发布书生·浦语数学大模型

上海AI实验室:开源发布书生·浦语数学大模型

上海人工智能实验室(上海AI实验室)最近发布了新一代数学模型书生·浦语数学(InternLM2-Math)。这是一项具有创新性的开源项目,InternLM2-Math成为首个同时支持形式化数学语言及解题过程评价的模型。基于书生·浦语2.0(InternLM2)的强大基础能力,InternLM2-Math以中轻量级参数规模在多项数学评测中刷新了开源模型数学能力的上限。与传统数学大模型应用相比,InternLM2-Math不仅具备“解题”能力,更能够进行“判题”。这一突破意味着该模型将为数学基础研究和教学提供更为优质的应用基础,超越了以往的局限。InternLM2-Math的代码和模型完全开源,同时支持免费商用,秉持“以高质量开源赋能创新”的理念。这一次发布的数学模型不仅仅关乎技术社区,更在全球数学大模型领域引起瞩目。数学能力一直是衡量大语言模型推理水平的重要体现。最近,谷歌 DeepMind 利用AI数学模型AlphaGeometry成功解答几何问题,其水平已经接近人类奥林匹克金牌得主,引起了广泛关注。虽然全球数学大模型领域研究取得了显著进展,但与顶尖人类水平相比仍存在一定差距。上海AI实验室将继续秉持开源开放理念,与全球研究人员合作,共同探索提升语言模型数学推理能力的路径。InternLM2-Math以其强大的内生计算和推理能力为技术社区提供了一种创新的数学工具和模型范式,为数学领域的发展注入了新的活力。开源地址:https://github.com/InternLM/InternLM-Mathhttps://huggingface.co/internlmhttps://modelscope.cn/organization/Shanghai_AI_Laboratory
2024-01-26 14:34:20 96
腾讯发布视频生成模型VideoCrafter2

腾讯发布视频生成模型VideoCrafter2

VideoCrafter2是由腾讯AI实验室团队开发的一款强大的视频处理工具,旨在克服数据限制,提供高质量的视频扩散模型。这项重要的创新旨在提升视频的视觉质量、动态效果以及概念组合。借助独特的算法和先进的技术,VideoCrafter2能够生成令人惊叹的精美影片,为影片制作带来崭新的可能性。功能亮点:视觉质量提升: 通过先进的图像处理技术,VideoCrafter2显著提高视频的视觉质量,使图像更为清晰、细腻。动态效果增强: 该工具不仅注重静态画面,还专注于提升视频中的动态效果,使得运动更加流畅自然。概念组合优化: VideoCrafter2在视频概念的组合方面表现出色,能够更好地整合不同元素,创造出更具深度和创意的影片。这款工具的实际效果已在由人类导演的影片中得到体现,为影片制作提供了全新的可能性。项目主页:https://ailab-cvc.github.io/videocrafter2论文地址:https://arxiv.org/pdf/2401.09084.pdfDemo地址:https://discord.gg/RQENrunu92
2024-01-22 15:32:57 143
社群
人工智能学堂 加入
扫描二维码
Glen 加入
扫描二维码