业界动态
澳门内部绝密消息资料-英伟达深夜发“重磅” 预计明年推出Blackwell Ultra AI芯片,模型,部署,推理
2024-06-04 03:04:05
澳门内部绝密消息资料-英伟达深夜发“重磅” 预计明年推出Blackwell Ultra AI芯片,模型,部署,推理

每经记者(zhe):杨卉每经编(bian)辑:陈俊杰

6月2日晚间,英伟(wei)达创始人兼首席执行官(guan)黄(huang)仁(ren)勋登台演讲,透露了不少关键信息。据他介绍,使用NVIDIA NIM将AI模型部署在云(yun)、数据中心或(huo)工作站上的开发者(zhe),可将模型部署时间从以(yi)前的数周缩短至几分钟(zhong)。和硕、劳氏公司、西(xi)门子等客户均在使用。

视觉中国(guo)

此(ci)外,被英伟(wei)达寄予厚(hou)望的新一代AI芯(xin)片与超级计算平(ping)台Blackwell芯(xin)片已开始投产,预计将在2025年推出Blackwell Ultra AI芯(xin)片。

据悉(xi),英伟(wei)达的第一款Blackwell芯(xin)片名为GB200,宣(xuan)称是目前“全球(qiu)最强大的芯(xin)片”。目前,供应链(lian)对GB200寄予厚(hou)望,预估2025年出货量有机会突破百万颗(ke),将占英伟(wei)达高(gao)端GPU出货量的近40%~50%。

NIM大幅加(jia)快模型部署

6月2日晚间,一身皮衣的黄(huang)仁(ren)勋又在舞台上摆弄起了自家产品,重磅介绍了NVIDIA NIM,一种推理(li)微服务,可通过经优化的容器形式提(ti)供模型,旨在助力各种规模企业部署AI服务。

不过,严格来(lai)说,NVIDIA NIM并非新品,最早(zao)露面(mian)是在今年3月。英伟(wei)达在6月2日晚间宣(xuan)布,全球(qiu)2800万开发者(zhe)皆可下载(zai)NVIDIA NIM,将AI模型部署在云(yun)、数据中心或(huo)工作站上,构建(jian)Copilot(微软的AI助理(li))、ChatGPT聊天机器人等生成(cheng)式AI应用。下月起,NVIDIA开发者(zhe)计划的会员(yuan)可免费使用NIM,在其(qi)选择的基础设施上进行研究、开发和测试。

根(gen)据英伟(wei)达的说法,新的生成(cheng)式AI应用正变得越来(lai)越复杂,通常需要(yao)使用具(ju)有不同功能(neng)的多个模型来(lai)生成(cheng)文本,如图(tu)像、视频、语音等。而NVIDIA NIM提(ti)供了一种简单、标准(zhun)化的方式,将生成(cheng)式AI添加(jia)到(dao)应用中,可使模型部署时间从以(yi)前的数周缩短至几分钟(zhong)。

黄(huang)仁(ren)勋还透露,包括Cadence、 Cloudera、 Cohesity、DataStax、NetApp、Scale AI和新思(si)科技等在内的近200家技术合作伙伴正在将NIM集(ji)成(cheng)到(dao)他们的平(ping)台中,以(yi)加(jia)快生成(cheng)式AI的部署。“每个企业都希望在其(qi)运营中融入生成(cheng)式AI,但并非每个企业都拥有专门的AI研究团队(dui)。NVIDIA NIM可被集(ji)成(cheng)到(dao)任(ren)意平(ping)台中,任(ren)何地方的开发者(zhe)都可以(yi)访(fang)问,并且可以(yi)在任(ren)意环境中运行。”黄(huang)仁(ren)勋称。

《每日经济新闻(wen)》记者(zhe)了解到(dao),NIM是预先构建(jian)的,目前有近40个模型可作为NIM的端点供开发者(zhe)体验;开发人员(yuan)可从开源社区平(ping)台Hugging Face访(fang)问适用于Meta Llama 3模型的NVIDIA NIM微服务,使用Hugging Face推理(li)端点访(fang)问和运行Llama 3 NIM。

值得注意的是,英伟(wei)达还透露了一批大客户的使用情况,如电子制造商Foxconn正在使用NIM开发针对特定领域的大语言模型(LLM),用于智能(neng)制造、智慧城市和智能(neng)电动汽车;和硕正在将NIM用于一个当地的混(hun)合专家(MoE)模型;劳氏公司正在用NVIDIA NIM推理(li)微服务来(lai)提(ti)升员(yuan)工和客户的体验;西(xi)门子正在将其(qi)运营技术与NIM微服务整合,用于车间AI工作负载(zai);还有数十(shi)家医(yi)疗保健公司正在部署NIM,为包括手术规划、数字助理(li)、药物发现和临床(chuang)试验优化等在内的应用领域的生成(cheng)式AI推理(li)提(ti)供支持。

Blackwell开始投产

除了上述(shu)产品,黄(huang)仁(ren)勋还在演讲中透露,英伟(wei)达Blackwell芯(xin)片已开始投产,并将在2025年推出Blackwell Ultra AI芯(xin)片。

今年5月,黄(huang)仁(ren)勋在财报(bao)电话会上称,预计今年Blackwell架(jia)构芯(xin)片将为公司带来(lai)大量收(shou)入。英伟(wei)达对Blackwell芯(xin)片寄予厚(hou)望,还是与市场强劲需求有关。从最新披露的财报(bao)数据来(lai)看,2025财年第一财季,英伟(wei)达实现营收(shou)260亿美元,较(jiao)上年同期增长262%。其(qi)中,数据中心业务营收(shou)226亿美元,与上年同期相比增长427%,是业绩收(shou)入的“大头”。

据英伟(wei)达首席财务官(guan)科莱特·克雷斯(Colette Kress)解读,数据中心业务的增长源自Hopper架(jia)构GPU(例如H100)出货量的增加(jia);该(gai)季度的重要(yao)亮(liang)点之一就是Meta宣(xuan)布推出Llama 3 开源大模型,使用了近2.4万块H100GPU。

除了披露芯(xin)片量产进度,英伟(wei)达此(ci)次还推出了一系列采用NVIDIA Blackwell架(jia)构的系统(tong)。

据悉(xi),这些系统(tong)搭(da)载(zai)了Grace CPU以(yi)及NVIDIA网络和基础设施,用于助力企业建(jian)立AI工厂和数据中心。其(qi)中,NVIDIA MGX模块化参考设计平(ping)台加(jia)入了对NVIDIA Blackwell产品的支持,包括专为主流大语言模型推理(li)、检索增强生成(cheng)和数据处(chu)理(li)提(ti)供卓 越 性 能(neng) 打 造 的 NVIDIA GB200 NVL2平(ping)台。

英伟(wei)达强调,GB200 NVL2适合用于数据分析等新兴领域,借助NVLink—C2C互连技术带来(lai)的带宽内存性能(neng)及Blackwell架(jia)构中专有的解压缩引擎,较(jiao)使用X86CPU时的数据处(chu)理(li)速度可最多提(ti)速到(dao)18倍,能(neng)效提(ti)高(gao)8倍。“新一轮工业革命已经开始,众多企业和地区正在与NVIDIA合作推动价值万亿美元的传统(tong)数据中心向(xiang)加(jia)速计算转型,并建(jian)造一种新型数据中心AI工厂来(lai)生产新的商品,人工智能(neng)。”黄(huang)仁(ren)勋称。

英伟(wei)达方面(mian)表(biao)示(shi),目前已有超过25家合作伙伴的90多套已发布或(huo)正在开发中的系统(tong)使用了MGX参考架(jia)构,开发成(cheng)本较(jiao)之前最多降低了四(si)分之三(san),开发时间缩短到(dao)六个月,较(jiao)之前减(jian)少了三(san)分之二(er)。另外,英伟(wei)达还透露,比亚迪电子、西(xi)门子、泰瑞达和Alphabet旗下公司Intrinsic等全球(qiu)10多家机器人企业正在将NVIDIA Isaac加(jia)速库、基于物理(li)学的仿真和AI模型集(ji)成(cheng)到(dao)其(qi)软件框架(jia)和机器人模型中,以(yi)此(ci)提(ti)高(gao)工厂、仓库和配送中心的工作效率。

每日经济新闻(wen)

发布于:四(si)川省
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7