微软公布Orca 2小模型,推论能力不输大型LLM

on

|

views

and

comments

Hugging Face

微软本周公布Orca 2,号称为参数仅130亿的小模型,可经由模仿更大语言模型的推理方法,在测试中也显示推理能力不输给大它10倍的模型。

Orca 2是微软今年年中推出第一代Orca後,探索参数在100亿以下的小型语言模型的最新成果。目前微软已经在Hugging Face上开源70亿和130亿参数的Orca 2供研究或试用。

微软指出,LLM如GPT-4及PaLM等具有很强的推论能力,以便回答复杂问题,生成解释,或解决多步骤推论的任务。但较小模型往往欠缺这类能力,这也是微软Orca 2专案的目的;他们希望利用对LLM的知识来提升小模型的能力。

Orca 2的2个版本都是由Llama 2基础模型以大量合成资料客制训练而成。训练Orca 2的资料集是由更强大的教师模型(teacher model)生成。这些资料是教师模型在详细指令甚至多次询问後的回应结果。研究人员希望学生模型(Orca 2)学习这些回应的推论过程及策略。最後,教师模型教导Orca 2多项推理技巧,包括多步处理、回忆-推理-生成,撷取-生成,以及直接回答方法,也教它为不同任务选择不同解决策略。

在训练成後,研究人员利用15种标竿测试,包括近100种任务及超过3.6种不同零样本测试用例,来评估Orca 2。标竿测试涵盖语言理解、常识推理、多步骤推理、数学解题、阅读测验、摘录重点、贴近真实性,以及有毒内容的生成及辨识。

评估结果显示,Orca 2效能大幅超越同样大小的模型,包括第一代Orca,而在处理复杂推论的零样本环境测试中,表现和5到10倍大的大型语言模型(LLM)接近,甚至超过。

图片来源/微软

微软研究人员指出,Orca 2的成功关键在於使用多种推论策略,找出不同任务最适用的解决方案,以及使用高品质的合成资料作为後续训练(post-training)。虽然Orca 2承袭基础模型及其他模型共通的限制,不过Orca 2突显了小模型也能具备良好的推理能力,以及可控、可专化,也更具安全性。

openvpn好用吗

热门文章

AI不是万能 无法取代的职业有哪些

随着人工智慧(AI)技术的进步,这些职业仍无法被AI轻易取代,其中包括领导、创造性的工作和专业技术人员等。

各国建立专属 AI 模型,推动辉达晶片需求成长

辉达主管今天表示,生成式人工智慧(AI)成为各大企业与各国政府关注焦点之下,许多寻求以本国语言建造 AI 模型的国家都看上辉达晶片,让已经很抢手的晶片需求进一步成长。 路透社报导,尽管辉达(Nvidia)在其驱动AI(例如OpenAI的ChatGPT)的晶片第三季销售成长预测,未能满足投资人高度预期...

xAI 工程师花三天就改写 Grok-2 物理堆栈,速度大幅提升

马斯克旗下 xAI 稍早发表 Grok-2 大型语言模型聊天机器人,推出後持续进步,xAI 两位开发者短短三天就重写推理程式码堆栈,使 Grok-2 和 Grok-2 mini 资讯分析和输出速度大幅提升。 xAI 开发者 Igor Babuschkin 於 X 表示,Grok-2 mini 速度经...

最新文章

相关推荐

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
最旧
最新 最多投票
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x