业界动态
6个肖复式4肖中5肖-用胶水粘披萨、吃石头获取营养……谷歌的AI产品又“翻车”了,这次还很离谱!背后暴露的是AI行业的“致命”问题,用户,搜索,功能
2024-06-02 11:26:55
6个肖复式4肖中5肖-用胶水粘披萨、吃石头获取营养……谷歌的AI产品又“翻车”了,这次还很离谱!背后暴露的是AI行业的“致命”问题,用户,搜索,功能

本(ben)月中旬,谷歌在其年度开发者(zhe)大会I/O上宣布了多年来全球搜(sou)索领域的(de)最大变(bian)革:将其最新的(de)AI模型植入(ru)了搜(sou)索引擎,试图(tu)一次追赶竞争对手微(wei)软和OpenAI。

然而,谷歌这项名为“AI Overview(以下简称‘AI概述’)”的(de)AI搜(sou)索功能一上线却遭遇了“花式翻车”,“建议用户(hu)用胶水将芝士固定在披萨(sa)上”“推荐摄入(ru)石头(tou)获取(qu)营养”等一连串荒谬的(de)回答不(bu)仅让谷歌十分尴尬,也在网上掀起了轩然大波(bo)。

对此,谷歌发言人表示,谷歌正在利用这些“孤立的(de)”例子对其系统进行更广泛的(de)改进。

实际上,《每日经济新闻》记者(zhe)发现,这并不(bu)是谷歌AI产品首(shou)次“翻车”。去年首(shou)推对标ChatGPT的(de)聊天机器人Bard在demo视频(pin)中犯下事实性错误,让市值一夜暴跌。前段(duan)时间,Gemini大多数情况下无法生成白人图(tu)像(xiang),且对历史人物的(de)描绘也不(bu)准确,也在全网掀起轩然大波(bo)。

有观点(dian)指出,目(mu)前谷歌“AI概述”面临的(de)尴尬之处在于,以前只要AI生成的(de)信(xin)息(xi)是错误的(de),那责任便可(ke)以“甩(shuai)锅(guo)”给检索出来的(de)网站,现在谷歌要自己承担虚假信(xin)息(xi)和错误信(xin)息(xi)的(de)责任,哪怕是AI生成的(de)。除了错误和截流其他网站外,谷歌“AI概述”也被(bei)指存在“规模化的(de)剽窃”等风险。

上线便“花式翻车”,甚至教(jiao)唆“跳桥”

谷歌表示,通过使用“AI概述”,用户(hu)将能够从Gemini的(de)强大能力中获益,从而减少搜(sou)索信(xin)息(xi)的(de)部分工作。

然而,“AI概述”还(hai)没来得(de)及颠(dian)覆搜(sou)索领域,便已(yi)经制(zhi)造了不(bu)少令人啼笑皆非的(de)“笑料”。

科技媒体The Verge的(de)记者(zhe)Kylie Robison就在其署名文章中举了一个例子对这项新功能进行了讽刺(ci)。文章称,当用户(hu)准备享用自制(zhi)披萨(sa)时,却遇到芝士会滑落的(de)问题,沮丧(sang)的(de)用户(hu)开始(shi)查(cha)询谷歌搜(sou)索解决方案,然而,AI Overviews的(de)回答是,“加点(dian)胶水”,并“贴(tie)心”地给出了“操作方法”:“将大约(yue)1/8杯Elmer's胶水与酱汁(zhi)混(hun)合。无毒胶水就可(ke)以。”尽管胶水确实可(ke)以解决粘连问题,但这极有可(ke)能是Gemini出现了“幻觉”(Hallucination)所(suo)导致的(de)结果。

而这只是“AI搜(sou)索”功能近(jin)期(qi)出现的(de)众多错误之一。例如,“AI概述”建议用户(hu)每天至少吃一块(kuai)石头(tou)来补充维生素和矿物质。

图(tu)片来源:谷歌

此外,“AI概述”还(hai)告诉用户(hu)使用“含氟漂白剂和白醋”来清洁洗衣机的(de)内容(rong),但这两(liang)种(zhong)成分混(hun)合后(hou)会产生有害(hai)的(de)氯气。更离谱的(de)是,当用户(hu)表达(da)“感到沮丧(sang)”时,“AI概述”竟然称,“一位Reddit用户(hu)建议从金门大桥上跳下去”。

图(tu)片来源:谷歌

危害(hai)健康的(de)建议并不(bu)仅限于人类。有用户(hu)提(ti)问:“将狗留(liu)在闷热的(de)车内是否安全?”“AI概述”的(de)回答是:“把狗留(liu)在闷热的(de)车内是安全的(de)。尤其是在闷热的(de)天气里。”

图(tu)片来源:X

《纽约(yue)时报》报道称,“AI概述”功能是将谷歌Gemini大语言模型生成的(de)内容(rong)与网络上实时的(de)链接片段(duan)相结合,其给到用户(hu)的(de)结果可(ke)以引用来源,但却无法辨别来源内容(rong)的(de)正确与否。

The Verge报道就表示,给披萨(sa)加胶水的(de)答案似乎(hu)是基于一位名为“fucksmith”的(de)用户(hu)十多年前在Reddit帖子中的(de)评论,他们显然是在开玩笑。

外媒称,如此荒谬的(de)结构(gou),应该足以让谷歌考虑(lu)删除“AI概述”功能,直到其得(de)到更严格(ge)的(de)测(ce)试。“AI概述”不(bu)仅提(ti)供了糟糕的(de)和危险的(de)建议,而且还(hai)可(ke)能对谷歌的(de)声誉造成损害(hai)。换句话说,一个优(you)秀的(de)AI要既能识(shi)别出恰当的(de)内容(rong),又(you)能分析这个内容(rong)并决定是否采纳。

谷歌:正利用“孤立”例子改进产品,AI“幻觉”尚无解决方案

谷歌发言人在一份声明(ming)中称,“AI概述”绝大多数的(de)搜(sou)索结果都是“高(gao)质量(liang)信(xin)息(xi),还(hai)有可(ke)以在网上溯源的(de)链接。我们发现,许(xu)多例子都是不(bu)常见的(de)问题,而且,有些例子被(bei)篡(cuan)改,有些也是无法重现的(de)。”

该发言人还(hai)称,谷歌正在“迅速采取(qu)行动,并根据其政策,在适当的(de)情况下删除某些‘AI概述’给出的(de)答案,并利用这些‘孤立的(de)’例子对其系统进行更广泛的(de)改进,其中一些改进的(de)内容(rong)已(yi)经开始(shi)推出。”

图(tu)片来源:谷歌官网

科技媒体The Verge上周早些报道称,谷歌CEO桑达(da)尔?皮查(cha)伊在接受(shou)采访时承认,这些“AI概述”功能产生的(de)“幻觉”是大型语言模型的(de)“固有缺陷”,而大型语言模型正是“AI概述”功能的(de)核心技术。皮查(cha)伊表示,这个问题目(mu)前尚无解决方案(is still an unsolved problem)。

所(suo)谓AI的(de)“幻觉”,是指AI在处理和生成信(xin)息(xi)时,会错误地创建不(bu)存在的(de)事实或数据,从而误导用户(hu)。这个问题不(bu)仅在谷歌的(de)AI系统中存在,在其他公司(si)的(de)AI产品中也同样普遍。

皮查(cha)伊的(de)坦诚表态在社会各界引发了广泛讨论。然而,皮查(cha)伊似乎(hu)淡化了这些错误的(de)严重性。他表示:“‘AI概述’功能有时会出错,但这并不(bu)意味(wei)着它没有用处。我认为这并不(bu)是看待该功能的(de)正确方式。我们取(qu)得(de)了进展吗?是的(de),肯定有。与去年相比,我们在事实准确性方面的(de)指标上取(qu)得(de)了很(hen)大进步。整个行业都在改进,但问题还(hai)没有完全解决。

《每日经济新闻》记者(zhe)注意到,其实“AI概述”并不(bu)是谷歌首(shou)个“翻车”的(de)AI产品。

2023年2月,为了对抗新生的(de)ChatGPT,谷歌宣布推出聊天机器人Bard,但在官方发布的(de)demo视频(pin)中Bard在回答一个有关詹姆斯韦伯太空(kong)望(wang)远镜(jing)的(de)问题时给出了错误的(de)答案。今年2月,谷歌发布更新后(hou)的(de)AI聊天机器人Gemini,但用户(hu)很(hen)快发现,该系统在大多数情况下无法生成白人图(tu)像(xiang),而且对历史人物的(de)描绘也不(bu)准确。

弥合最后(hou)20%的(de)差距是“AI概述”受(shou)众规模破10亿的(de)关键

有观点(dian)指出,谷歌的(de)“AI概述”功能的(de)尴尬在于,以前只要AI生成的(de)信(xin)息(xi)是错误的(de),那责任便可(ke)以“甩(shuai)锅(guo)”给检索出来的(de)网站,现在谷歌要自己承担虚假信(xin)息(xi)和错误信(xin)息(xi)的(de)责任,哪怕是AI生成的(de);另外,以前谷歌和其他内容(rong)提(ti)供网站是共(gong)生共(gong)赢的(de)关系,如今谷歌截流了这些网站的(de)流量(liang),用户(hu)直接从“AI概述”给的(de)内容(rong)拿结果,这些网站变(bian)成了纯供给方,很(hen)难被(bei)谷歌“AI概述”引流。

除了一系列错误和截流外,谷歌“AI概述”也被(bei)指存在其他问题和风险。例如,其“AI概述”总是摘抄来自不(bu)同网站的(de)内容(rong),并稍作修改,这种(zhong)行为也被(bei)抨击为“规模化的(de)剽窃”。

人工智能专家、纽约(yue)大学神经科学名誉教(jiao)授加里?马库斯(Gary Marcus)表示,不(bu)少AI厂商都是在“兜(dou)售梦想”,希望(wang)更多人相信(xin)这项技术的(de)正确率终将从80%提(ti)升至100%。马库斯强调,初(chu)步实现80%的(de)正确率相对简单,因为其中涉及大量(liang)人类数据,其正确率天然就在这个区间。但弥合这最后(hou)20%的(de)差距却极具挑战。实际上,马库斯认为这最后(hou)20%很(hen)可(ke)能是条死胡同。

在发布“AI概述”时,谷歌曾表示,随着这项功能推广到其他国家,今年年底前“AI概述”的(de)服务受(shou)众规模将超(chao)过10亿。然而,正如马库斯教(jiao)授所(suo)言,谷歌能否保证“最后(hou)的(de)20%内容(rong)正确率”,才(cai)是其“AI概述”受(shou)众规模能否超(chao)过10亿的(de)关键所(suo)在。

其实,自OpenAI于2022年年底发布ChatGPT并一夜成名以来,谷歌一直面临着将AI整合到其搜(sou)索技术中的(de)压力。然而,谷歌在驯服大型语言模型方面存在挑战,这些大模型是从开放(fang)的(de)网络中获取(qu)的(de)大量(liang)数据中学习,而不(bu)是像(xiang)传统软件那样编程。

每日经济新闻

发布于:北(bei)京市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7