业界动态
澳门资料大全正版资料今天的今天开今晚多少其?-AI届的拼多多来了!能力媲美GPT-4,价格为其1%,DeepSeek,模型,token
2024-06-02 14:14:18
澳门资料大全正版资料今天的今天开今晚多少其?-AI届的拼多多来了!能力媲美GPT-4,价格为其1%,DeepSeek,模型,token

开源大模型领域新(xin)秀再起。

昨天,知名私募巨头幻方量化旗下的AI公司深度求索(DeepSeek)发布全新(xin)第二代MoE大模型DeepSeek-V2。

这款支持128K上下文窗口(kou)的开源MoE模型,能凭借低(di)至“谷底(di)”的价格成(cheng)为新(xin)星吗?

能力媲美GPT-4,价格为其百分(fen)之一

先看性能。

和当前主流大模型相比(bi),DeepSeek-V2毫不逊色(se)。

据悉,DeepSeek-V2拥有2360亿参数,其中每(mei)个token210亿个活跃(yue)参数,相对较少,但(dan)仍然达到了开源模型中顶级的性能,称得(de)上是(shi)最强的开源MoE语言模型。

研究团队(dui)构建了由8.1T token组成(cheng)的高质量、多源预训练语料库(ku)。与DeepSeek 67B使用的语料库(ku)相比(bi),该语料库(ku)的数据量特别是(shi)中文数据量更(geng)大,数据质量更(geng)高。

据官网介绍(shao),DeepSeek-V2的中文综合能力(AlignBench)在众多开源模型中最强,超过GPT-4,与GPT-4-Turbo,文心 4.0等闭(bi)源模型在评测中处于同一梯队(dui)。

其次,DeepSeek-V2英文综合能力(MT-Bench)与最强的开源模型LLaMA3-70B处于同一梯队(dui),超过最强MoE开源模型Mixtral8x22B。

有分(fen)析指(zhi)出,该模型的训练参数量高达8.1万亿个token,而DeepSeek V2表现出“难以置信”的训练效率,并且计算量仅为Meta Llama 3 70B 的1/5。

更(geng)直观地说(shuo),DeepSeek-V2训练所需的运算量是(shi)GPT-4 的1/20,而性能却相差不大。

有外国网友给出了高度评价:在仅有210亿个活跃(yue)参数的情况下,能达到如此强的推理能力相当惊人。

“如果属实的话,那是(shi)相当惊人的。”

“原(yuan)来是(shi)中国公司?也许(xu)这就是(shi)‘中国队(dui)’在AI领域名列前茅的原(yuan)因。”

“如果属实的话,那是(shi)相当惊人的。”

“原(yuan)来是(shi)中国公司?也许(xu)这就是(shi)‘中国队(dui)’在AI领域名列前茅的原(yuan)因。”

不过,技术已(yi)经不是(shi)大模型的唯一宣(xuan)传点了。

作为AI技术的前沿领域,大模型更(geng)新(xin)换代之快(kuai)有目共(gong)睹,再强的性能也可能在发布的下一秒就被友商反超。

因此,DeepSeek选(xuan)择“卷(juan)”价格。

目前DeepSeek-V2 API的定价为:每(mei)百万token输(shu)入1元、输(shu)出2元(32K上下文)。

和友商相比(bi),仅为GPT-4-Turbo的近百分(fen)之一。

DeepSeek表示,采用8xH800 GPU的单(dan)节点峰值吞吐量可达到每(mei)秒50000多个解码(ma)token。

如果仅按输(shu)出token的API的报价计算,每(mei)个节点每(mei)小时的收(shou)入就是(shi)50.4美元,假设利用率完全充分(fen),按照一个8xH800节点的成(cheng)本为每(mei)小时15美元来计算,DeepSeek每(mei)台服(fu)务器每(mei)小时的收(shou)益(yi)可达35.4美元,甚至能实现70%以上的毛利率。

有分(fen)析人士指(zhi)出,即使服(fu)务器利用率不充分(fen)、批处理速度低(di)于峰值能力,DeepSeek也有足够的盈利空间,同时颠覆其他大模型的商业逻(luo)辑。

总结就是(shi),主打一个“经济实惠(hui)”。

有网友表示:太便宜了,充50块能用好(hao)几(ji)年。

“日常的任务都能胜任。”

“开放(fang)平台送的十块钱(qian)共(gong)有500万token。”

“日常的任务都能胜任。”

“开放(fang)平台送的十块钱(qian)共(gong)有500万token。”

全新(xin)创新(xin)架构,支持开源

价格是(shi)怎么被打下去(qu)的?

来自DeepSeek-V2的全新(xin)架构。

据悉,DeepSeek-V2采用Transformer架构,其中每(mei)个Transformer块由一个注意力模块和一个前馈(kui)网络(FFN)组成(cheng),并且在注意力机制(zhi)和FFN方面(mian),研究团队(dui)设计并采用了创新(xin)架构。

据介绍(shao),一方面(mian),该研究设计了MLA,利用低(di)秩键值联合压缩来消(xiao)除推理时键值缓存(cun)的瓶颈,从而支持高效推理。

另一方面(mian),对于FFN,该研究采用高性能MoE架构 ——DeepSeekMoE,以经济的成(cheng)本训练强大的模型。

DeepSeek-V2基于高效且轻量级的框架HAI-LLM进行训练,采用16-way zero-bubble pipeline并行、8-way专家并行和ZeRO-1数据并行。

鉴于DeepSeek-V2的激活参数相对较少,并且重新(xin)计算部分(fen)算子以节省激活内存(cun),无需张(zhang)量并行即可训练,因此DeepSeek-V2减少了通信开销(xiao)。

并且,DeepSeek-V2完全开源(https://huggingface.co/deepseek-ai),可免(mian)费上用,开源模型支持128K上下文,对话官网/API支持32K上下文(约24000个token),还兼容OpenAI API接口(kou)。

不仅性能好(hao),还这么便宜,甚至直接兼容OpenAI API,DeepSeek-V2这手“王炸”,换谁可能都没(mei)法拒绝(jue)。

外国网友直呼(hu):没(mei)理由不用!

DeepSeek-V2的性能水平几(ji)乎和与GPT-4一致、提供(gong)的API与OpenAI API兼容、可以免(mian)费使用500个token、付费版本价格仅为GPT-4的1/100……

“没(mei)有理由不用它。”

DeepSeek-V2的性能水平几(ji)乎和与GPT-4一致、提供(gong)的API与OpenAI API兼容、可以免(mian)费使用500个token、付费版本价格仅为GPT-4的1/100……

“没(mei)有理由不用它。”

发布于:上海(hai)市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7