业界动态
从联想电话会看,AI PC时代关注哪些问题?| AI脱水,市场,模型,架构
2024-06-19 02:52:16
从联想电话会看,AI PC时代关注哪些问题?| AI脱水,市场,模型,架构

本文作者:张逸凡

编辑:申思琦

来源:硬AI

在AI服务器之后,市场(chang)的焦点转(zhuan)向了AI手机和AI PC。

在高通基于新ARM架构核心骁龙8 Gen4上市即将到来之时(shi),市场(chang)对AI PC的关注越来越高,在本周的财报电话会上,联想透露了一些自身和行业的新进展。

1、“五大要素”定(ding)义AI PC

市场(chang)上对AI PC的定(ding)义各不相同,目(mu)前微软给出的定(ding)义市场(chang)认可(ke)度高,具体包(bao)括:

1)内存方面,基础AI模型(xing)需要16GB内存,标准AI模型(xing)则需要32GB,高级AI模型(xing)则要求64GB或更多;

2)算力方面,至少要有40TOPS的算力;

1)内存方面,基础AI模型(xing)需要16GB内存,标准AI模型(xing)则需要32GB,高级AI模型(xing)则要求64GB或更多;

2)算力方面,至少要有40TOPS的算力;

联想则在此基础上完善了自己的AI PC定(ding)义,包(bao)括五个关键要素:

1)内置了压缩大模型(xing);

2)配备自然语(yu)言交互能力的AI助(zhu)手;

3)硬件方面,需要同时(shi)拥(yong)有CPU、GPU和NPU;

4)能帮助(zhu)用户建立(li)个人知识库;

5)重视用户个人隐(yin)私的保护;

1)内置了压缩大模型(xing);

2)配备自然语(yu)言交互能力的AI助(zhu)手;

3)硬件方面,需要同时(shi)拥(yong)有CPU、GPU和NPU;

4)能帮助(zhu)用户建立(li)个人知识库;

5)重视用户个人隐(yin)私的保护;

结(jie)合微软提出的AI PC内存和算力标准,AI PC的形态愈加(jia)清晰:AI PC不仅智(zhi)能且强大,还(hai)能为用户提供更个性化(hua)、更安全的体验。

2、AI PC渗透率的变化(hua)预测

按照联想自己的定(ding)义,目(mu)前市场(chang)上符合要求的产品较(jiao)少,联想在电话会中预计今年的比例会在十个百分点以下。

联想预测,2024年公司出货(huo)的PC中,大约20%会配备NPU(神经处理单元)。到了2026年,根据联想的严(yan)格定(ding)义,AI PC的渗透率可(ke)能达到50%到60%。目(mu)前,联想每年的出货(huo)量(liang)在5500-6000万台(tai)之间,60%的出货(huo)量(liang)意味着大约有3600万台(tai)是AI PC。

美国市场(chang)营销专(zhuan)家Geoffrey Moore有一个“市场(chang)渗透率加(jia)速定(ding)律”,他认为当新产品或服务的市场(chang)渗透率达到15%时(shi),其增长速度会加(jia)快,并最终达到50%左右。之后,增长速度会逐渐(jian)放(fang)缓(huan),直至稳定(ding)。

所以,AI PC的出货(huo)量(liang)可(ke)能会在2024年逐步增加(jia),2025到2026年进入快速增长阶段,这将为整个产业链(lian)带(dai)来新的机遇。

3、x86和ARM的市场(chang)份额

ARM替代(dai)x86架构是市场(chang)近期(qi)关注的一个核心问题,这将对AI时(shi)代(dai)换机潮比例起(qi)到重要作用。

会议上,联想表示未来将会出现x86和ARM两种架构并存的局面。

x86的指令较(jiao)长,通常(chang)在一条长指令中包(bao)含多个任(ren)务。而ARM则相反,擅长将一条长指令拆分成多个短指令。换句话说,ARM擅长将复杂任(ren)务分解成简单任(ren)务。这样做的好处是可(ke)以降低CPU的功耗,同时(shi)还(hai)能保持高性能。

英特尔和AMD在x86架构时(shi)代(dai),一直占据市场(chang)的大部分份额。然而,随着AI计算时(shi)代(dai)到来对功耗要求的提高,市场(chang)开(kai)始逐渐(jian)倾向于使用ARM架构。英伟达、AMD、高通和联发科(ke)都(dou)已经推出了基于ARM架构的CPU处理器。

不过,联想也提到,对于AI处理器来说,除(chu)了功耗之外,还(hai)有很多其他重要的衡量(liang)标准。未来,x86和ARM之间必定(ding)会展开(kai)激烈竞争。这样的竞争对AI服务器厂(chang)商来说是个好消息(xi),因为无论是从成本还(hai)是处理器选择的角(jiao)度来看,这都(dou)是一个优势。

4、供应链(lian)变化(hua)

根据高盛发布的数据显示,GPU的供货(huo)时(shi)间正在不断缩短。英伟达在本周的财报会议上也表示,H100显卡(ka)的供应紧张状况已经有所缓(huan)解。

联想在此次会议上提供了更详细的数据:去年,GPU的等(deng)待周期(qi)大约为52周。今年年初,这一周期(qi)已从52周缩短到26周,而到目(mu)前为止,等(deng)待周期(qi)又进一步减少。

供货(huo)周期(qi)的缩短,对于联想、戴(dai)尔、惠普和超微电脑等(deng)服务器供应商来说是个好消息(xi),因为这意味着服务器的出货(huo)将不再受(shou)制(zhi)于供应短缺(que)。然而,联想也指出,具体何时(shi)能够完全解决供应链(lian)问题,目(mu)前仍不确定(ding)。

5、Copilot和小天

由(you)于众所周知的原因,国内的 Windows 电脑无法直接使用微软的 Copilot。为了在 PC 上解决 AI 助(zhu)手的问题,联想推出了自己的端侧大模型(xing)助(zhu)手“联想小天”。

与 Copilot 需要依赖(lai)云端运(yun)行不同,“联想小天”可(ke)以完全在本地运(yun)行。

根据科(ke)技(ji)博主“卡(ka)兹克(ke)”的评测,“联想小天”具备本地运(yun)行和云端运(yun)行两种模式,用户可(ke)以根据需要自由(you)切换。

这种设计不仅保证了用户的数据隐(yin)私,还(hai)能在需要时(shi)利用云端处理复杂任(ren)务。

从功耗来看,“卡(ka)兹克(ke)”的数据表明,本地模型(xing)虽然运(yun)行在 CPU 上,但耗电量(liang)很低。这个大模型(xing)常(chang)驻后台(tai),需要大约 4G 的内存。此外,在进行推理时(shi),对 CPU 的影响也基本可(ke)以忽略不计。

功能方面,本地模型(xing)能够完成邮件拟稿、语(yu)音(yin)转(zhuan)录、会议总结(jie)等(deng)任(ren)务,性能相当于 GPT-3.5 水平的模型(xing),已经足(zu)够满足(zu)日常(chang)办公需求。

总体来看,联想电话会对AI PC透露出乐观的态度,上游芯片厂(chang)商在ARM时(shi)代(dai)的竞争会进一步加(jia)剧,联想表示目(mu)前看不清谁能快速跑出,但认为上游的激烈竞争对下游PC厂(chang)商是有利的,更快的技(ji)术进步有利于换机潮的到来。

发布于:上海市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7