业界动态
2024年的澳门十二生肖号码图-从联想电话会看,AI PC时代关注哪些问题?| AI脱水,市场,模型,架构
2024-06-02 02:51:17
2024年的澳门十二生肖号码图-从联想电话会看,AI PC时代关注哪些问题?| AI脱水,市场,模型,架构

本(ben)文作者:张逸凡

编辑:申思琦

来源:硬(ying)AI

在AI服务器之(zhi)后,市(shi)场的焦点转向了AI手机和AI PC。

在高通基于新ARM架构(gou)核心骁龙8 Gen4上市(shi)即(ji)将到来之(zhi)时,市(shi)场对AI PC的关注越来越高,在本(ben)周的财报电话会上,联想透露了一些自身和行(xing)业的新进(jin)展。

1、“五大要素”定义AI PC

市(shi)场上对AI PC的定义各(ge)不相同,目前微软给出(chu)的定义市(shi)场认可度高,具体包括:

1)内存方面,基础AI模型需要16GB内存,标准AI模型则需要32GB,高级AI模型则要求64GB或更多;

2)算力方面,至少(shao)要有40TOPS的算力;

1)内存方面,基础AI模型需要16GB内存,标准AI模型则需要32GB,高级AI模型则要求64GB或更多;

2)算力方面,至少(shao)要有40TOPS的算力;

联想则在此基础上完善了自己的AI PC定义,包括五个关键要素:

1)内置了压缩大模型;

2)配备自然语言交互(hu)能力的AI助手;

3)硬(ying)件方面,需要同时拥有CPU、GPU和NPU;

4)能帮助用户建立(li)个人知识库;

5)重视用户个人隐私的保护;

1)内置了压缩大模型;

2)配备自然语言交互(hu)能力的AI助手;

3)硬(ying)件方面,需要同时拥有CPU、GPU和NPU;

4)能帮助用户建立(li)个人知识库;

5)重视用户个人隐私的保护;

结合微软提出(chu)的AI PC内存和算力标准,AI PC的形态愈加清晰:AI PC不仅智能且(qie)强大,还能为用户提供更个性化、更安全的体验。

2、AI PC渗(shen)透率的变化预测

按(an)照联想自己的定义,目前市(shi)场上符合要求的产品较少(shao),联想在电话会中预计今年的比例会在十个百(bai)分点以下(xia)。

联想预测,2024年公(gong)司(si)出(chu)货(huo)的PC中,大约20%会配备NPU(神经处理(li)单元)。到了2026年,根据联想的严(yan)格(ge)定义,AI PC的渗(shen)透率可能达到50%到60%。目前,联想每年的出(chu)货(huo)量在5500-6000万台之(zhi)间,60%的出(chu)货(huo)量意味(wei)着大约有3600万台是AI PC。

美国市(shi)场营销专家Geoffrey Moore有一个“市(shi)场渗(shen)透率加速定律”,他认为当新产品或服务的市(shi)场渗(shen)透率达到15%时,其增长(chang)速度会加快,并最终达到50%左右。之(zhi)后,增长(chang)速度会逐渐(jian)放缓(huan),直至稳定。

所以,AI PC的出(chu)货(huo)量可能会在2024年逐步增加,2025到2026年进(jin)入快速增长(chang)阶段,这将为整个产业链带来新的机遇。

3、x86和ARM的市(shi)场份额

ARM替代x86架构(gou)是市(shi)场近期关注的一个核心问题,这将对AI时代换机潮比例起到重要作用。

会议上,联想表示未来将会出(chu)现(xian)x86和ARM两种架构(gou)并存的局面。

x86的指令(ling)较长(chang),通常在一条长(chang)指令(ling)中包含多个任(ren)务。而ARM则相反,擅长(chang)将一条长(chang)指令(ling)拆分成多个短指令(ling)。换句话说,ARM擅长(chang)将复杂任(ren)务分解成简单任(ren)务。这样(yang)做的好处是可以降低CPU的功耗,同时还能保持高性能。

英特尔和AMD在x86架构(gou)时代,一直占据市(shi)场的大部(bu)分份额。然而,随(sui)着AI计算时代到来对功耗要求的提高,市(shi)场开始逐渐(jian)倾向于使(shi)用ARM架构(gou)。英伟达、AMD、高通和联发科都已经推出(chu)了基于ARM架构(gou)的CPU处理(li)器。

不过,联想也提到,对于AI处理(li)器来说,除了功耗之(zhi)外,还有很多其他重要的衡量标准。未来,x86和ARM之(zhi)间必定会展开激烈竞(jing)争。这样(yang)的竞(jing)争对AI服务器厂商(shang)来说是个好消息,因为无论是从(cong)成本(ben)还是处理(li)器选择的角度来看,这都是一个优势。

4、供应链变化

根据高盛发布的数据显示,GPU的供货(huo)时间正在不断缩短。英伟达在本(ben)周的财报会议上也表示,H100显卡的供应紧张状况已经有所缓(huan)解。

联想在此次会议上提供了更详细的数据:去(qu)年,GPU的等待周期大约为52周。今年年初,这一周期已从(cong)52周缩短到26周,而到目前为止,等待周期又进(jin)一步减(jian)少(shao)。

供货(huo)周期的缩短,对于联想、戴尔、惠普和超微电脑等服务器供应商(shang)来说是个好消息,因为这意味(wei)着服务器的出(chu)货(huo)将不再受制于供应短缺。然而,联想也指出(chu),具体何时能够完全解决供应链问题,目前仍不确定。

5、Copilot和小天

由于众所周知的原因,国内的 Windows 电脑无法直接使(shi)用微软的 Copilot。为了在 PC 上解决 AI 助手的问题,联想推出(chu)了自己的端侧大模型助手“联想小天”。

与 Copilot 需要依赖(lai)云端运(yun)行(xing)不同,“联想小天”可以完全在本(ben)地运(yun)行(xing)。

根据科技博主“卡兹(zi)克”的评测,“联想小天”具备本(ben)地运(yun)行(xing)和云端运(yun)行(xing)两种模式,用户可以根据需要自由切换。

这种设(she)计不仅保证了用户的数据隐私,还能在需要时利用云端处理(li)复杂任(ren)务。

从(cong)功耗来看,“卡兹(zi)克”的数据表明(ming),本(ben)地模型虽然运(yun)行(xing)在 CPU 上,但耗电量很低。这个大模型常驻后台,需要大约 4G 的内存。此外,在进(jin)行(xing)推理(li)时,对 CPU 的影响也基本(ben)可以忽略不计。

功能方面,本(ben)地模型能够完成邮件拟稿、语音(yin)转录、会议总结等任(ren)务,性能相当于 GPT-3.5 水平的模型,已经足够满足日常办公(gong)需求。

总体来看,联想电话会对AI PC透露出(chu)乐观的态度,上游芯片厂商(shang)在ARM时代的竞(jing)争会进(jin)一步加剧,联想表示目前看不清谁能快速跑出(chu),但认为上游的激烈竞(jing)争对下(xia)游PC厂商(shang)是有利的,更快的技术进(jin)步有利于换机潮的到来。

发布于:上海市(shi)
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7