业界动态
澳门一码一码100准确,澳门174开奖,澳门开奖74期-全是“自己人”!OpenAI紧急成立“安全委员会”,距离“超级对齐”团队解散不到半月,90天后将迎首次安全“大考”,Carlin,问题,评估
2024-06-02 04:13:13
澳门一码一码100准确,澳门174开奖,澳门开奖74期-全是“自己人”!OpenAI紧急成立“安全委员会”,距离“超级对齐”团队解散不到半月,90天后将迎首次安全“大考”,Carlin,问题,评估

美西时间周二(5月28日),OpenAI称董事会成(cheng)立了(le)一个负责把(ba)控AI开发方向的“安(an)全委员会”,负责监督与(yu)公司项目和运营相关的“关键”安(an)全和安(an)保决策(ce),而这距(ju)离其内部负责评估长期AI安(an)全问题的“超级对齐(Superalignment)”小组正式解散不(bu)到半个月的时间。

据悉,该委员会的首要任务将是在未来90天内评估并进一步发展OpenAI的流程和保障措施。90天结束时,该委员会将与(yu)全体董事会分(fen)享他们的建议(yi)。在全体董事会审(shen)查之后,OpenAI将以符合安(an)全和保障的方式,公开分(fen)享有(you)关采纳建议(yi)的更新。

《每日经济新闻(wen)》记(ji)者注(zhu)意到,其实这并不(bu)是OpenAI首次组建专门(men)致力于AI安(an)全的团队――去年12月OpenAI就(jiu)成(cheng)立过一个“安(an)全顾问小组”,该小组向领导层提出建议(yi),并且董事会被授(shou)予(yu)否决权。不(bu)过从(cong)本月17日“超级对齐”团队解散到本周二成(cheng)立新的“安(an)全委员会”,足以证明AI安(an)全的问题在OpenAI内部仍未得到解决。

全新安(an)全委员会,全是“自己人”

除了(le)CEO Altman外,OpenAI新成(cheng)立的安(an)全委员会的其他成(cheng)员还包括OpenAI董事会成(cheng)员Bret Taylor、Adam D’Angelo和Nicole Seligman,以及首席科学家Jakub Pachocki、OpenAI早期筹(chou)备(bei)团队的Aleksander Madry、安(an)全系统负责人Lilian Weng、安(an)保负责人Matt Knight和“人工智能对齐”(AI Alignment)负责人John Schulman。从(cong)成(cheng)员构成(cheng)可以看出,没有(you)一个外部人员。

图(tu)片(pian)来源(yuan):OpenAI

为了(le)避免新成(cheng)立的安(an)全委员会因成(cheng)员构成(cheng)而被认为是“橡皮图(tu)章”,OpenAI承(cheng)诺将聘请第三方“安(an)全、安(an)保和技术”专家来支(zhi)持(chi)委员会的工作,包括网络安(an)全专家Rob Joyce和美国前司法部官(guan)员John Carlin。但除此之外,OpenAI并未更详细地说明外部专家组的规模(mo)和组成(cheng),也没有(you)透露专家组对委员会的具体影(ying)响和权力限制。

有(you)专家指出,OpenAI成(cheng)立此类企(qi)业监督委员会,类似于谷歌的高(gao)级技术外部咨(zi)询委员会,其实在实际监督方面(mian)几乎没有(you)什(shi)么作为。

美国IT研究与(yu)顾问咨(zi)询公司Gartner高(gao)级研究总监高(gao)峰(feng)在接受《每日经济新闻(wen)》记(ji)者采访时指出,OpenAI安(an)全委员会成(cheng)员全部是“自己人”并没有(you)什(shi)么问题,“因为OpenAI的安(an)全委员会是服务于内部,是对OpenAI产品的安(an)全和发展方向进行(xing)评估。一般来说,企(qi)业不(bu)太倾向于引入外部人士,因为里面(mian)会涉及很多(duo)的商业机密信息。所以如果没有(you)监管或者政府的强(qiang)制要求,企(qi)业通常(chang)只会对自己的产品或股东(dong)负责。其实像谷歌和微软,他们也有(you)相应的一些安(an)全部门(men),主(zhu)要就(jiu)是确保产品的安(an)全,并且不(bu)对社会带来一些负面(mian)的影(ying)响。”

安(an)全优先(xian)级下(xia)降引担忧,多(duo)名高(gao)管离职

近期,OpenAI在安(an)全方面(mian)的问题成(cheng)为外界(jie)的关注(zhu)点之一。几个月来,OpenAI流失了(le)不(bu)少(shao)非常(chang)重视AI安(an)全的员工,在这部分(fen)人中,有(you)一些对OpenAI在AI安(an)全方面(mian)的优先(xian)级下(xia)降表示担忧。

OpenAI的联合创(chuang)始人兼前首席科学家Ilya Sutskever也于今年5月离职,据报道部分(fen)是因为Altman急于推(tui)出AI驱动的产品而牺牲了(le)安(an)全性(xing)能。OpenAI前首席安(an)全研究员Jan Leike也紧随其后宣布离开,他在X平台上发布的一系列帖子中表示,他认为OpenAI“未走在解决AI安(an)全和安(an)保问题的正确轨道上”。

在Ilya Sutskever和Jan Leike这两位(wei)关键领导人离职后,OpenAI专注(zhu)于研究AI生存危险的“超级对齐”团队正式宣告解散。

对于Jan Leike发表的言论,上周离职的AI政策(ce)研究员Gretchen Krueger也表示认同,她(ta)也呼吁OpenAI提高(gao)问责制和透明度,并“更加谨慎地使用自己的技术”。另外,曾(ceng)在OpenAI担任团队治理工作的Daniel Kokotajlo也于4月辞职,原因是他对OpenAI能在AI开发中继续保持(chi)负责任的态度失去了(le)信心。

其实,这并不(bu)是OpenAI首次成(cheng)立或组建专门(men)的安(an)全顾问团队。

去年12月18日,OpenAI就(jiu)称正在扩展内部安(an)全流程,以抵(di)御有(you)害人工智能的威胁。一个新的“安(an)全顾问小组”将位(wei)于技术团队之上,向领导层提出建议(yi),并且董事会也被授(shou)予(yu)了(le)否决权。

在当时的博客文(wen)章中,OpenAI讨论了(le)其最新的“准备(bei)框架”,即OpenAI跟踪、评估、预测和防范日益强(qiang)大(da)的模(mo)型带来灾(zai)难性(xing)风险的流程。对于灾(zai)难性(xing)风险的定义,OpenAI的解释是这样(yang)的:“任何可能导致数千亿(yi)美元经济损失或导致许多(duo)人严重伤(shang)害或死亡的风险――包括但不(bu)限于生存风险。”

AI监管呼声日益高(gao)涨

在人工智能大(da)模(mo)型的快速发展之下(xia),全球新一轮科技革命和产业变革正在酝酿(niang),但也衍生了(le)一些担忧,数据安(an)全、终(zhong)端安(an)全以及个人的数字(zi)主(zhu)权面(mian)临更大(da)的挑战。

以生成(cheng)式AI为例,普华永(yong)道在去年10月发布的一篇文(wen)章中称,在疏于监管的情况下(xia),这项技术可能会生成(cheng)违(wei)法或不(bu)当的内容,可能涉及侮辱、诽谤、色情、暴(bao)力等不(bu)合法或违(wei)规的元素;另一方面(mian),生成(cheng)式AI可能会基于已有(you)的受版权保护的内容进行(xing)学习,这可能导致知(zhi)识产权侵权。

被誉为“AI教父”的Geoffrey Hinton近日在接受BBC Newsnight节目采访直言,AI很快将超越人类智能,并担心人类在AI发展方面(mian)的安(an)全性(xing)不(bu)够重视。他还指出,这不(bu)仅仅是他个人的观(guan)点,实际上这是该领域领导者的共识。

出于对AI各方面(mian)的担忧,4月下(xia)旬,美国国土安(an)全部就(jiu)针对研发AI的“安(an)全与(yu)保障”成(cheng)立顾问委员会,集结了(le)22名科技业高(gao)层成(cheng)员,包括OpenAI、微软、Alphabet、亚马逊网络服务(AWS)等企(qi)业高(gao)层,以及英伟达CEO黄仁勋和AMD CEO苏姿丰。

美国国土安(an)全部部长马约卡斯(Alejandro Mayorkas)表示,该委员会将协助确保AI科技的安(an)全开展,以及设法应对这类科技对能源(yuan)、公用业务、交通、国防、信息技术、食(shi)品和农业,甚至是金融服务等关键服务所构成(cheng)的威胁。

不(bu)仅仅是美国政府部门(men),包括美国商业软件联盟(meng)(BSA)这样(yang)的行(xing)业组织,也在推(tui)动对AI的监管。同样(yang)在4月,BSA也发布了(le)文(wen)件呼吁在隐私(si)立法中制定相关规则。

对于不(bu)断(duan)增强(qiang)的监管呼声,高(gao)峰(feng)对《每日经济新闻(wen)》记(ji)者分(fen)析称,“任何技术的发展都是有(you)风险的,而AI比之前的任何技术对于整个社会的影(ying)响都要大(da),这也是为什(shi)么各方对AI监管呼声较(jiao)高(gao)的原因。另外,一直以来大(da)家可能受到了(le)一些科幻电影(ying)的影(ying)响,觉得将来AI可能会超过人类的智慧,可能控制人类。”

“但是,现在的AI离人类的智慧还是有(you)很大(da)差距(ju),短期AI是没有(you)办法超过人类的。但当AI不(bu)再仅仅是个工具,而是成(cheng)为主(zhu)导的时候,就(jiu)可能需要人工阻(zu)止了(le),我觉得这可能是比较(jiao)重要的一个评判(pan)标准。”高(gao)峰(feng)对记(ji)者补充道。

每日经济新闻(wen)

发布于:北京市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7