业界动态
双色球2024年全部开奖结果-从联想电话会看,AI PC时代关注哪些问题?| AI脱水,市场,模型,架构
2024-06-02 07:16:28
双色球2024年全部开奖结果-从联想电话会看,AI PC时代关注哪些问题?| AI脱水,市场,模型,架构

本文(wen)作者:张逸凡

编辑:申思琦

来(lai)源:硬AI

在AI服务器之后,市场的焦点转向了AI手机和AI PC。

在高(gao)通基(ji)于(yu)新ARM架构核心骁(xiao)龙8 Gen4上市即将到来(lai)之时,市场对AI PC的关注越来(lai)越高(gao),在本周(zhou)的财报电话会(hui)上,联想(xiang)透露了一些自(zi)身(shen)和行业的新进展。

1、“五大(da)要素(su)”定义(yi)AI PC

市场上对AI PC的定义(yi)各不(bu)相同,目前微软给出的定义(yi)市场认可度高(gao),具(ju)体包(bao)括:

1)内存方面,基(ji)础AI模型需(xu)要16GB内存,标(biao)准AI模型则需(xu)要32GB,高(gao)级AI模型则要求64GB或(huo)更多;

2)算力方面,至少要有40TOPS的算力;

1)内存方面,基(ji)础AI模型需(xu)要16GB内存,标(biao)准AI模型则需(xu)要32GB,高(gao)级AI模型则要求64GB或(huo)更多;

2)算力方面,至少要有40TOPS的算力;

联想(xiang)则在此基(ji)础上完善了自(zi)己的AI PC定义(yi),包(bao)括五个关键要素(su):

1)内置了压缩大(da)模型;

2)配备自(zi)然语言交互(hu)能力的AI助手;

3)硬件方面,需(xu)要同时拥有CPU、GPU和NPU;

4)能帮助用户建立个人知识库;

5)重(zhong)视用户个人隐私(si)的保护;

1)内置了压缩大(da)模型;

2)配备自(zi)然语言交互(hu)能力的AI助手;

3)硬件方面,需(xu)要同时拥有CPU、GPU和NPU;

4)能帮助用户建立个人知识库;

5)重(zhong)视用户个人隐私(si)的保护;

结(jie)合微软提出的AI PC内存和算力标(biao)准,AI PC的形态愈加清晰:AI PC不(bu)仅(jin)智(zhi)能且(qie)强大(da),还(hai)能为用户提供(gong)更个性化、更安全的体验。

2、AI PC渗透率的变(bian)化预测(ce)

按照(zhao)联想(xiang)自(zi)己的定义(yi),目前市场上符合要求的产品较少,联想(xiang)在电话会(hui)中预计今年的比例会(hui)在十个百分点以下。

联想(xiang)预测(ce),2024年公司出货的PC中,大(da)约20%会(hui)配备NPU(神经处理(li)单元)。到了2026年,根据联想(xiang)的严格定义(yi),AI PC的渗透率可能达到50%到60%。目前,联想(xiang)每年的出货量在5500-6000万台之间,60%的出货量意味着大(da)约有3600万台是AI PC。

美国市场营销专家(jia)Geoffrey Moore有一个“市场渗透率加速定律”,他认为当新产品或(huo)服务的市场渗透率达到15%时,其增长速度会(hui)加快,并最终达到50%左(zuo)右。之后,增长速度会(hui)逐(zhu)渐放缓,直至稳定。

所以,AI PC的出货量可能会(hui)在2024年逐(zhu)步增加,2025到2026年进入快速增长阶(jie)段,这将为整个产业链带来(lai)新的机遇。

3、x86和ARM的市场份额

ARM替代x86架构是市场近期(qi)关注的一个核心问题,这将对AI时代换机潮比例起(qi)到重(zhong)要作用。

会(hui)议上,联想(xiang)表示未来(lai)将会(hui)出现(xian)x86和ARM两种架构并存的局面。

x86的指令较长,通常在一条长指令中包(bao)含多个任务。而ARM则相反,擅长将一条长指令拆分成多个短指令。换句话说,ARM擅长将复杂任务分解成简单任务。这样做的好处是可以降(jiang)低CPU的功耗,同时还(hai)能保持高(gao)性能。

英特尔和AMD在x86架构时代,一直占据市场的大(da)部分份额。然而,随着AI计算时代到来(lai)对功耗要求的提高(gao),市场开始(shi)逐(zhu)渐倾向于(yu)使(shi)用ARM架构。英伟达、AMD、高(gao)通和联发科都已经推出了基(ji)于(yu)ARM架构的CPU处理(li)器。

不(bu)过,联想(xiang)也提到,对于(yu)AI处理(li)器来(lai)说,除了功耗之外,还(hai)有很多其他重(zhong)要的衡量标(biao)准。未来(lai),x86和ARM之间必定会(hui)展开激(ji)烈竞争。这样的竞争对AI服务器厂商来(lai)说是个好消息,因为无论是从成本还(hai)是处理(li)器选择的角度来(lai)看(kan),这都是一个优势。

4、供(gong)应链变(bian)化

根据高(gao)盛发布的数据显(xian)示,GPU的供(gong)货时间正在不(bu)断缩短。英伟达在本周(zhou)的财报会(hui)议上也表示,H100显(xian)卡的供(gong)应紧(jin)张状况已经有所缓解。

联想(xiang)在此次会(hui)议上提供(gong)了更详(xiang)细的数据:去年,GPU的等待周(zhou)期(qi)大(da)约为52周(zhou)。今年年初,这一周(zhou)期(qi)已从52周(zhou)缩短到26周(zhou),而到目前为止,等待周(zhou)期(qi)又进一步减少。

供(gong)货周(zhou)期(qi)的缩短,对于(yu)联想(xiang)、戴尔、惠普(pu)和超微电脑等服务器供(gong)应商来(lai)说是个好消息,因为这意味着服务器的出货将不(bu)再受制于(yu)供(gong)应短缺(que)。然而,联想(xiang)也指出,具(ju)体何时能够完全解决(jue)供(gong)应链问题,目前仍不(bu)确定。

5、Copilot和小天(tian)

由(you)于(yu)众所周(zhou)知的原因,国内的 Windows 电脑无法直接使(shi)用微软的 Copilot。为了在 PC 上解决(jue) AI 助手的问题,联想(xiang)推出了自(zi)己的端(duan)侧大(da)模型助手“联想(xiang)小天(tian)”。

与 Copilot 需(xu)要依赖云端(duan)运行不(bu)同,“联想(xiang)小天(tian)”可以完全在本地运行。

根据科技博主“卡兹克”的评(ping)测(ce),“联想(xiang)小天(tian)”具(ju)备本地运行和云端(duan)运行两种模式(shi),用户可以根据需(xu)要自(zi)由(you)切换。

这种设(she)计不(bu)仅(jin)保证了用户的数据隐私(si),还(hai)能在需(xu)要时利(li)用云端(duan)处理(li)复杂任务。

从功耗来(lai)看(kan),“卡兹克”的数据表明,本地模型虽然运行在 CPU 上,但耗电量很低。这个大(da)模型常驻后台,需(xu)要大(da)约 4G 的内存。此外,在进行推理(li)时,对 CPU 的影响(xiang)也基(ji)本可以忽略(lue)不(bu)计。

功能方面,本地模型能够完成邮件拟稿、语音(yin)转录、会(hui)议总结(jie)等任务,性能相当于(yu) GPT-3.5 水(shui)平的模型,已经足够满足日常办公需(xu)求。

总体来(lai)看(kan),联想(xiang)电话会(hui)对AI PC透露出乐观的态度,上游芯片厂商在ARM时代的竞争会(hui)进一步加剧,联想(xiang)表示目前看(kan)不(bu)清谁能快速跑(pao)出,但认为上游的激(ji)烈竞争对下游PC厂商是有利(li)的,更快的技术进步有利(li)于(yu)换机潮的到来(lai)。

发布于(yu):上海市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7