微软公布Orca 2小模型,推论能力不输大型LLM

on

|

views

and

comments

Hugging Face

微软本周公布Orca 2,号称为参数仅130亿的小模型,可经由模仿更大语言模型的推理方法,在测试中也显示推理能力不输给大它10倍的模型。

Orca 2是微软今年年中推出第一代Orca後,探索参数在100亿以下的小型语言模型的最新成果。目前微软已经在Hugging Face上开源70亿和130亿参数的Orca 2供研究或试用。

微软指出,LLM如GPT-4及PaLM等具有很强的推论能力,以便回答复杂问题,生成解释,或解决多步骤推论的任务。但较小模型往往欠缺这类能力,这也是微软Orca 2专案的目的;他们希望利用对LLM的知识来提升小模型的能力。

Orca 2的2个版本都是由Llama 2基础模型以大量合成资料客制训练而成。训练Orca 2的资料集是由更强大的教师模型(teacher model)生成。这些资料是教师模型在详细指令甚至多次询问後的回应结果。研究人员希望学生模型(Orca 2)学习这些回应的推论过程及策略。最後,教师模型教导Orca 2多项推理技巧,包括多步处理、回忆-推理-生成,撷取-生成,以及直接回答方法,也教它为不同任务选择不同解决策略。

在训练成後,研究人员利用15种标竿测试,包括近100种任务及超过3.6种不同零样本测试用例,来评估Orca 2。标竿测试涵盖语言理解、常识推理、多步骤推理、数学解题、阅读测验、摘录重点、贴近真实性,以及有毒内容的生成及辨识。

评估结果显示,Orca 2效能大幅超越同样大小的模型,包括第一代Orca,而在处理复杂推论的零样本环境测试中,表现和5到10倍大的大型语言模型(LLM)接近,甚至超过。

图片来源/微软

微软研究人员指出,Orca 2的成功关键在於使用多种推论策略,找出不同任务最适用的解决方案,以及使用高品质的合成资料作为後续训练(post-training)。虽然Orca 2承袭基础模型及其他模型共通的限制,不过Orca 2突显了小模型也能具备良好的推理能力,以及可控、可专化,也更具安全性。

openvpn好用吗

热门文章

OpenAI 安全漏洞曝光!骇客取得 AI 技术设计

人工智慧(AI)新创公司OpenAI的系统似乎比想像的更容易被破解,早在2023年初,一名骇客就成功入侵了 OpenAI 的内部消息系统,窃取了有关该公司AI技术设计的详细资讯,据两位知情人士透露,骇客从员工线上论坛中,获取了有关 OpenAI 最新技术的细节,但未能进入公司储存和建构AI的系统,而OpenAI也未曾向外部公开这一事件。

安立知/光宝合作验证5G O-RAN性能测试

安立知(Anritsu)与光宝科技(LITEON)共同宣布,双方针对5G新无线电(New Radio, NR)...

新任AI主管重新定义微软市场领导地位

为确保微软不被低估,新上任的人工智慧(AI)执行长Mustafa Suleyman,大胆重新定义了微软在AI领域的地位,并在最近与 Seth Rosenberg 的Podcast中详细介绍了他的职责,其中包括监督 Bing、Edge 和微软旗舰AI产品 Copilot 等关键团队,Suleyman的目标是透过专注於记忆和个人化,来提高 Copilot 的品质,使AI助理在用户的生活中更有用甚至不可或缺。

最新文章

相关推荐

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
最旧
最新 最多投票
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x