业界动态
比GPT-3.5 Turbo便宜超60% OpenAI推出小模型卷性价比,mini,应用,性能
2024-07-23 04:04:40
比GPT-3.5 Turbo便宜超60% OpenAI推出小模型卷性价比,mini,应用,性能

每经记者:可杨每经编辑:梁枭

7月18日,OpenAI正式推出(chu)新(xin)一代入门级别(bie)人工智能模型“GPT-4o mini”,称这款(kuan)新(xin)模型是“功能最强、性价比最高的小参数(shu)模型”。

从(cong)OpenAI官网的介绍来看,GPT-4o mini在文本智能和多模态推理方面的基准性能超(chao)越了GPT-3.5 Turbo,在LMSYS(指聊天(tian)机器人对战)排行榜上还(hai)超(chao)过GPT-4。而价格层(ceng)面,GPT-4o mini相比GPT-3.5 Turbo便宜(yi)了超(chao)过60%。

在“大(da)力出(chu)奇迹(ji)”的Scaling Law(尺度定律)之(zhi)外,如何做好小模型正在成为大(da)模型厂家的新(xin)考题。

OpenAI入局(ju)小模型赛(sai)场

OpenAI表示,预计GPT-4o mini将通过大(da)幅降低智能的成本,显著扩展AI应用的范围。据官网介绍,GPT-4o mini的优势在于低成本和低延迟,支持广泛的任务,例如串联或并行多个模型调用的应用程序(例如调用多个API);向模型传递大(da)量上下文(例如完整代码库或对话(hua)历史);或通过快速、实时的文本响应与客户互动(例如聊天(tian)机器人)。

目(mu)前,GPT-4o mini在API中支持文本和视觉功能,未来将支持文本、图像、视频和音频的输入和输出(chu)。该(gai)模型具有128K Token的上下文窗口,数(shu)据更新(xin)至2023年10月。

性能方面,OpenAI称,GPT-4o mini在涉及文本和视觉的推理任务中优于其他小模型,在MMLU(文本智能和推理基准测试)中得分为82.0%,相比之(zhi)下,Gemini Flash为77.9%,Claude Haiku为73.8%。

在数(shu)学推理和编码任务方面,GPT-4o mini超(chao)过了市场大(da)部分小模型。在MGSM(数(shu)学推理评(ping)估)中,GPT-4o mini得分为87.0%,而谷歌发布的Gemini Flash为75.5%;在HumanEval(编码性能评(ping)估)中,GPT-4o mini得分为87.2%,而Gemini Flash为71.5%。

价格方面,GPT-4o mini每百(bai)万个输入Token为15美分(约合人民币(bi)1.09元(yuan)),每百(bai)万个输出(chu)Token为60美分(约合人民币(bi)4.36元(yuan))。OpenAI表示,这一价格相较(jiao)GPT-3.5 Turbo便宜(yi)超(chao)60%。

OpenAI表示,在过去几年中,人们见证了AI的显著进步和成本的大(da)幅降低。例如,自2022年推出(chu)文本模型Text-Davinci-003以来,GPT-4o mini的每个Token成本已经下降了99%。

按(an)照设想,OpenAI希(xi)望未来能够将一个模型无缝集成到每个应用程序和每个网站中,而GPT-4o mini正在为开发者更高效(xiao)和更经济地构建和扩展强大(da)的AI应用程序铺平道路。

不过,在小模型赛(sai)场中,OpenAI的各家竞争对手(shou)已经早早就(jiu)位。例如谷歌推出(chu)的Gemini Flash,Anthropic旗下的Claude Haike等。近日,Mitral AI与英(ying)伟达(da)推出(chu)的小模型Mistral Nemo上线,声称性能赶超(chao)Meta推出(chu)的Llama-3 8B。

大(da)模型越卷越“小”

这一年来,“降本增效(xiao)”已经成为大(da)部分大(da)模型公司的共识。

平安证券研报认为,OpenAI新(xin)模型GPT-4o mini兼(jian)具性能与性价比,有望加速大(da)模型应用落地。当前全球(qiu)范围内(nei)的大(da)模型逐渐呈现由单(dan)方面的性能角逐,转向性能与实用性并重(zhong)的发展趋势。大(da)模型能力达(da)到一定水平时必然会走向应用,大(da)模型厂商(shang)通过提升(sheng)其产(chan)品性价比,助推下游应用端的推广部署(shu),有望加速大(da)模型产(chan)业链商(shang)业闭环的形成。

一方面,上半年开打的大(da)模型价格战不断蔓延,从(cong)两家海外AI巨头OpenAI和谷歌开始,到国内(nei)字节(jie)跳动、阿里、百(bai)度、智谱AI、科大(da)讯飞等企业,入局(ju)者不断增加。从(cong)OpenAI此举来看,这场价格战还(hai)将持续(xu)。

IDC中国研究经理程荫此前在接受《每日经济新(xin)闻》记者采访(fang)时就(jiu)谈到,从(cong)短期的发展来看,大(da)模型能力更新(xin)迭代后将会走向趋同,无论是国内(nei)还(hai)是国外的技术供应商(shang)都不能建立起长久的护城河。一些技术供应商(shang)选(xuan)择(ze)直接砍掉大(da)模型成本上的门槛(kan),除了出(chu)于促进大(da)模型落地应用,也有增加曝光度,争抢用户、防止用户流失的动因。

另一方面,通过“小模型”,以更低的成本,垂直覆盖更多的应用场景,以推动端侧应用的落地同样成为行业趋势。同时,随着以苹果为代表的各大(da)手(shou)机厂商(shang)加速发力AI手(shou)机,端侧大(da)模型正在成为新(xin)的竞争焦点。

专注(zhu)端侧模型的面壁智能CEO李大(da)海此前在接受包括《每日经济新(xin)闻》在内(nei)的记者采访(fang)时就(jiu)谈到,相同智能水平的模型,每8个月其参数(shu)规模将减少一半,这与摩(mo)尔定律具有一定的相似性。在同等性能下,参数(shu)规模减小,说明大(da)模型的知识密度在不断提高。李大(da)海表示,随着大(da)模型知识密度的提升(sheng)和端侧算力的增强,两个因素叠(die)加,有信心在2026年年底(di)前研发出(chu)达(da)到GPT-4水平的端侧模型,当端侧模型能够实现GPT-4水平时,很多端侧的产(chan)品会更快落地。

李大(da)海认为,当端侧模型可以应用,其成本会更低,且可靠性更高,不需要依赖网络。例如,在用户需求交流时,基于端侧模型的陪伴机器人能够迅速作(zuo)出(chu)反应。这种(zhong)比较(jiao)优势使得在适用端侧模型的场景中,大(da)家会更倾向于选(xuan)择(ze)端侧解(jie)决方案。

今(jin)年3月,百(bai)度也发布ERNIESpeed、ERNIE Lite、ERNIE Tiny三个轻量模型。百(bai)度集团董(dong)事长李彦宏在今(jin)年4月的一场公开演讲中也谈到,MoE、小模型和智能体是值得关注(zhu)的三个方向。“通过大(da)模型,压缩蒸馏出(chu)来一个基础模型,然后再用数(shu)据去训练,这比从(cong)头开始训小模型效(xiao)果要好很多,比基于开源模型训出(chu)来的模型效(xiao)果更好、速度更快、成本更低。”李彦宏表示。

每日经济新(xin)闻

发布于:四川省
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7