业界动态
为何连iPhone 15都不能用“苹果智能”?问题在内存,而不在算力!,Apple,郭明,支持
2024-06-18 07:21:43
为何连iPhone 15都不能用“苹果智能”?问题在内存,而不在算力!,Apple,郭明,支持

今年(nian)的WWDC上(shang),最令人惊喜的可能不是iOS 18,而(er)是苹(ping)果的AI:Apple Intelligence。

不过,官(guan)方的说法是,Apple Intelligence将仅支持 iPhone 15 Pro、iPhone 15 Pro Max以(yi)及搭(da)载M1或后(hou)续芯片的iPad和Mac设备。

翻译一下:目前在售的所有iPhone里面,只有15 Pro系列支持Apple Intelligence,连同期发售的15和15 Plus都不行!不过, 三年(nian)前发售的iPad Pro却可以(yi)!

为(wei)什么会出现这种情况呢?

近日,知名(ming)分析师郭明錤分析称,从这可以(yi)推断(duan)出,能否支持Apple Intelligence的关键(jian)应该是DRAM大小,而(er)非AI算力(li) (TOPS)。

问题在内存,而(er)不在算力(li)!

参数上(shang)看,M1芯片的算力(li)约为(wei)11 TOPS,而(er)A16芯片的计(ji)算能力(li)约为(wei)17 TOPS。不过,M1的DRAM最低为(wei)8GB,最高可达16GB,高于A16的6GB,这多出来的2GB,很有可能是“问题的关键(jian)”。郭明錤推测称:

“因(yin)此,目前的 Apple Intelligence 端侧AI LLM对DRAM 的需求约为(wei)2GB或更低。”

“因(yin)此,目前的 Apple Intelligence 端侧AI LLM对DRAM 的需求约为(wei)2GB或更低。”

进一步,郭明錤表示,可以(yi)从另一角度验证(zheng)Apple Intelligence对DRAM的需求:

“Apple Intelligence采用端侧3B LLM(应为(wei) FP16,M1的NPU/ANE对FP16有很好的支持),经(jing)过压缩后(hou)(采用2-bit与 4-bit的混合配置),随时需要预留约0.7-1.5GB DRAM来运作Apple Intelligence的端侧LLM。”

“Apple Intelligence采用端侧3B LLM(应为(wei) FP16,M1的NPU/ANE对FP16有很好的支持),经(jing)过压缩后(hou)(采用2-bit与 4-bit的混合配置),随时需要预留约0.7-1.5GB DRAM来运作Apple Intelligence的端侧LLM。”

与安卓手机司(si)空见惯(guan)的16GB甚至24GB的“大号”DRAM相比,苹(ping)果设备通常提供的DRAM较少,大多不超(chao)过6GB。iphone 13等老款机型,DRAM更是只有4GB。

因(yin)此,不少分析师认(ren)为(wei),苹(ping)果设定2GB“内存壁垒”或可促进消费者对旧设备的“更新换代”,即将到来iPhone 16系列机型中,苹(ping)果可能提供更高的DRAM选项。

郭明錤表示:

“未来 Apple Intelligence 的端侧AI肯定也会升级(最有可能升级到7B LLM),届时需要更大DRAM才(cai)能运作。

值得观(guan)察Apple是否会以(yi)此作为(wei)高低阶机种的产品区隔策略。

“未来 Apple Intelligence 的端侧AI肯定也会升级(最有可能升级到7B LLM),届时需要更大DRAM才(cai)能运作。

值得观(guan)察Apple是否会以(yi)此作为(wei)高低阶机种的产品区隔策略。

发布于:上(shang)海市(shi)
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7