业界动态
4179.cσm查询-用胶水粘披萨、吃石头获取营养……谷歌的AI产品又“翻车”了,这次还很离谱!背后暴露的是AI行业的“致命”问题,用户,搜索,功能
2024-06-02 00:46:36
4179.cσm查询-用胶水粘披萨、吃石头获取营养……谷歌的AI产品又“翻车”了,这次还很离谱!背后暴露的是AI行业的“致命”问题,用户,搜索,功能

本月(yue)中旬(xun),谷歌在其年度开(kai)发者大(da)会I/O上(shang)宣布了(le)多(duo)年来全球搜(sou)索领域的最大(da)变革:将其最新(xin)的AI模型植入了(le)搜(sou)索引擎,试图一次追赶竞争对手微软和OpenAI。

然而,谷歌这(zhe)项(xiang)名为“AI Overview(以下简称‘AI概述’)”的AI搜(sou)索功能一上(shang)线(xian)却遭遇了(le)“花式翻车”,“建议用户用胶水将芝士固定在披萨上(shang)”“推荐摄(she)入石头获取营养”等一连串荒谬的回答(da)不仅让谷歌十分尴(gan)尬(ga),也在网(wang)上(shang)掀起(qi)了(le)轩然大(da)波。

对此(ci),谷歌发言人表示,谷歌正在利用这(zhe)些“孤立的”例子(zi)对其系统进(jin)行更广泛的改进(jin)。

实际上(shang),《每日经济新(xin)闻》记者发现,这(zhe)并(bing)不是谷歌AI产品首次“翻车”。去年首推对标ChatGPT的聊天机器人Bard在demo视频中犯下事实性错误,让市(shi)值一夜暴(bao)跌。前段时间,Gemini大(da)多(duo)数情况下无(wu)法生成白人图像,且对历史人物的描绘也不准确,也在全网(wang)掀起(qi)轩然大(da)波。

有观(guan)点指出,目前谷歌“AI概述”面临的尴(gan)尬(ga)之(zhi)处在于,以前只要AI生成的信息是错误的,那责任(ren)便可以“甩锅”给检索出来的网(wang)站,现在谷歌要自(zi)己承担虚假信息和错误信息的责任(ren),哪怕(pa)是AI生成的。除了(le)错误和截流其他网(wang)站外,谷歌“AI概述”也被指存在“规模化的剽(biao)窃”等风险。

上(shang)线(xian)便“花式翻车”,甚至教唆“跳桥”

谷歌表示,通(tong)过使用“AI概述”,用户将能够从Gemini的强大(da)能力中获益,从而减少搜(sou)索信息的部分工作(zuo)。

然而,“AI概述”还没来得及颠覆搜(sou)索领域,便已经制(zhi)造了(le)不少令人啼笑皆非的“笑料”。

科技(ji)媒体The Verge的记者Kylie Robison就在其署名文(wen)章中举了(le)一个例子(zi)对这(zhe)项(xiang)新(xin)功能进(jin)行了(le)讽刺。文(wen)章称,当用户准备享用自(zi)制(zhi)披萨时,却遇到芝士会滑(hua)落的问题,沮丧的用户开(kai)始查询谷歌搜(sou)索解决方案,然而,AI Overviews的回答(da)是,“加点胶水”,并(bing)“贴心”地给出了(le)“操(cao)作(zuo)方法”:“将大(da)约1/8杯Elmer's胶水与酱汁混合。无(wu)毒胶水就可以。”尽(jin)管胶水确实可以解决粘连问题,但这(zhe)极有可能是Gemini出现了(le)“幻觉”(Hallucination)所导致的结果。

而这(zhe)只是“AI搜(sou)索”功能近(jin)期出现的众(zhong)多(duo)错误之(zhi)一。例如,“AI概述”建议用户每天至少吃一块石头来补(bu)充维生素和矿物质。

图片(pian)来源:谷歌

此(ci)外,“AI概述”还告诉用户使用“含氟漂白剂和白醋”来清洁洗衣机的内容(rong),但这(zhe)两种成分混合后会产生有害的氯气(qi)。更离谱的是,当用户表达“感到沮丧”时,“AI概述”竟然称,“一位Reddit用户建议从金(jin)门大(da)桥上(shang)跳下去”。

图片(pian)来源:谷歌

危害健康(kang)的建议并(bing)不仅限于人类。有用户提问:“将狗留在闷热的车内是否安全?”“AI概述”的回答(da)是:“把狗留在闷热的车内是安全的。尤其是在闷热的天气(qi)里。”

图片(pian)来源:X

《纽约时报(bao)》报(bao)道称,“AI概述”功能是将谷歌Gemini大(da)语言模型生成的内容(rong)与网(wang)络(luo)上(shang)实时的链接片(pian)段相(xiang)结合,其给到用户的结果可以引用来源,但却无(wu)法辨别来源内容(rong)的正确与否。

The Verge报(bao)道就表示,给披萨加胶水的答(da)案似(si)乎是基于一位名为“fucksmith”的用户十多(duo)年前在Reddit帖(tie)子(zi)中的评论,他们显然是在开(kai)玩笑。

外媒称,如此(ci)荒谬的结构,应该足以让谷歌考虑(lu)删除“AI概述”功能,直到其得到更严(yan)格的测试。“AI概述”不仅提供(gong)了(le)糟糕的和危险的建议,而且还可能对谷歌的声誉造成损害。换句话(hua)说,一个优秀的AI要既能识别出恰当的内容(rong),又能分析这(zhe)个内容(rong)并(bing)决定是否采纳。

谷歌:正利用“孤立”例子(zi)改进(jin)产品,AI“幻觉”尚无(wu)解决方案

谷歌发言人在一份(fen)声明中称,“AI概述”绝大(da)多(duo)数的搜(sou)索结果都是“高质量信息,还有可以在网(wang)上(shang)溯源的链接。我们发现,许(xu)多(duo)例子(zi)都是不常见的问题,而且,有些例子(zi)被篡改,有些也是无(wu)法重现的。”

该发言人还称,谷歌正在“迅速采取行动,并(bing)根据(ju)其政策,在适(shi)当的情况下删除某些‘AI概述’给出的答(da)案,并(bing)利用这(zhe)些‘孤立的’例子(zi)对其系统进(jin)行更广泛的改进(jin),其中一些改进(jin)的内容(rong)已经开(kai)始推出。”

图片(pian)来源:谷歌官网(wang)

科技(ji)媒体The Verge上(shang)周早(zao)些报(bao)道称,谷歌CEO桑达尔?皮(pi)查伊在接受(shou)采访时承认,这(zhe)些“AI概述”功能产生的“幻觉”是大(da)型语言模型的“固有缺陷(xian)”,而大(da)型语言模型正是“AI概述”功能的核心技(ji)术。皮(pi)查伊表示,这(zhe)个问题目前尚无(wu)解决方案(is still an unsolved problem)。

所谓AI的“幻觉”,是指AI在处理和生成信息时,会错误地创建不存在的事实或数据(ju),从而误导用户。这(zhe)个问题不仅在谷歌的AI系统中存在,在其他公司的AI产品中也同样普遍。

皮(pi)查伊的坦诚表态在社会各(ge)界引发了(le)广泛讨论。然而,皮(pi)查伊似(si)乎淡化了(le)这(zhe)些错误的严(yan)重性。他表示:“‘AI概述’功能有时会出错,但这(zhe)并(bing)不意味(wei)着它没有用处。我认为这(zhe)并(bing)不是看待(dai)该功能的正确方式。我们取得了(le)进(jin)展吗?是的,肯定有。与去年相(xiang)比,我们在事实准确性方面的指标上(shang)取得了(le)很大(da)进(jin)步。整个行业(ye)都在改进(jin),但问题还没有完全解决。

《每日经济新(xin)闻》记者注(zhu)意到,其实“AI概述”并(bing)不是谷歌首个“翻车”的AI产品。

2023年2月(yue),为了(le)对抗新(xin)生的ChatGPT,谷歌宣布推出聊天机器人Bard,但在官方发布的demo视频中Bard在回答(da)一个有关詹姆斯韦伯(bo)太空望远镜(jing)的问题时给出了(le)错误的答(da)案。今年2月(yue),谷歌发布更新(xin)后的AI聊天机器人Gemini,但用户很快发现,该系统在大(da)多(duo)数情况下无(wu)法生成白人图像,而且对历史人物的描绘也不准确。

弥合最后20%的差距是“AI概述”受(shou)众(zhong)规模破10亿(yi)的关键

有观(guan)点指出,谷歌的“AI概述”功能的尴(gan)尬(ga)在于,以前只要AI生成的信息是错误的,那责任(ren)便可以“甩锅”给检索出来的网(wang)站,现在谷歌要自(zi)己承担虚假信息和错误信息的责任(ren),哪怕(pa)是AI生成的;另外,以前谷歌和其他内容(rong)提供(gong)网(wang)站是共生共赢的关系,如今谷歌截流了(le)这(zhe)些网(wang)站的流量,用户直接从“AI概述”给的内容(rong)拿结果,这(zhe)些网(wang)站变成了(le)纯供(gong)给方,很难被谷歌“AI概述”引流。

除了(le)一系列错误和截流外,谷歌“AI概述”也被指存在其他问题和风险。例如,其“AI概述”总是摘抄来自(zi)不同网(wang)站的内容(rong),并(bing)稍作(zuo)修改,这(zhe)种行为也被抨击(ji)为“规模化的剽(biao)窃”。

人工智能专家、纽约大(da)学神经科学名誉教授加里?马库斯(Gary Marcus)表示,不少AI厂商都是在“兜售梦想”,希望更多(duo)人相(xiang)信这(zhe)项(xiang)技(ji)术的正确率终将从80%提升至100%。马库斯强调,初步实现80%的正确率相(xiang)对简单(dan),因(yin)为其中涉及大(da)量人类数据(ju),其正确率天然就在这(zhe)个区间。但弥合这(zhe)最后20%的差距却极具挑战。实际上(shang),马库斯认为这(zhe)最后20%很可能是条死胡同。

在发布“AI概述”时,谷歌曾表示,随着这(zhe)项(xiang)功能推广到其他国家,今年年底前“AI概述”的服务受(shou)众(zhong)规模将超过10亿(yi)。然而,正如马库斯教授所言,谷歌能否保证“最后的20%内容(rong)正确率”,才是其“AI概述”受(shou)众(zhong)规模能否超过10亿(yi)的关键所在。

其实,自(zi)OpenAI于2022年年底发布ChatGPT并(bing)一夜成名以来,谷歌一直面临着将AI整合到其搜(sou)索技(ji)术中的压力。然而,谷歌在驯服大(da)型语言模型方面存在挑战,这(zhe)些大(da)模型是从开(kai)放的网(wang)络(luo)中获取的大(da)量数据(ju)中学习,而不是像传统软件那样编程。

每日经济新(xin)闻

发布于:北京市(shi)
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7