业界动态
2024澳门正版资料大全下载-核心安全团队解散后,OpenAI公布10大安全措施,网友点赞,公司,风险,模型
2024-06-03 00:47:23
2024澳门正版资料大全下载-核心安全团队解散后,OpenAI公布10大安全措施,网友点赞,公司,风险,模型

如何安全地发展人工智能?

5月21日周二,为期两天的“AI首尔(er)峰会”以在线视频的方式开幕。本次(ci)会议主(zhu)题(ti)主(zhu)要围绕如何安全地发展AI。世界各地的领导人、科技公司的高管以及国际组织的代表,在会上共同讨论了AI的风(feng)险和潜在的好处。

在韩国总统尹锡悦和英国首相苏(su)纳克的共同主(zhu)持下,16家世界领先的AI公司,包括Meta、OpenAI、谷歌、亚马逊、微(wei)软(ruan)等均做(zuo)出(chu)了自愿承诺,保证在开发最前沿(yan)的AI技术时注重安全,确保AI系统不会失控(kong)并危害人类。如果发现某些极端风(feng)险无法控(kong)制,他们甚至会选择停止(zhi)相关AI模型的开发。

同时,AI公司们还(hai)提出(chu)需(xu)要制定一些规则和政策框架,来(lai)评估和控(kong)制AI可(ke)能带来(lai)的风(feng)险。不仅是公司,一些国家的集(ji)团(比如G7、欧盟等)也表示(shi)支持这个想法,他们同意要把AI的安全和创新(xin)放在重要位(wei)置。

与会者还(hai)强调,虽然公司可(ke)以自愿承诺要安全使用AI,但也需(xu)要有政府出(chu)台(tai)相关的法律来(lai)确保这些承诺能落到实处。被称为“人工智能教父”的计算机科学(xue)家Yoshua Bengio称,自愿承诺必须伴随法律监管。目前,全球各地的政府都在努力制定AI相关的法规,例如,联合国已经(jing)通过了关于AI系统安全使用的第一项决议,而欧盟的AI法案预(yu)计今年晚(wan)些时候将生效。

对此,网友们纷纷点(dian)赞称:“这真是个好消息!很高兴看到欧盟为协调人工智能法规而采(cai)取的进步(bu)措施。这确实有助于为人工智能道德和安全制定高标准(zhun)。期待看到该法案的积极影响显现!”

虽然AI技术的迅速发展虽然可(ke)以造福人类,但同时来(lai)带了一些问题(ti),如大批量失业、误导人们、传播错误信息等。牛津大学(xue)在X上发帖表示(shi):“全球的AI界正在努力推动AI技术的能力越来(lai)越强大,但安全和伦理问题(ti)往往是事后(hou)才(cai)考虑(lu)的。科学(xue)家们在向(xiang)世界领导人发出(chu)呼吁,要求对AI带来(lai)的风(feng)险采(cai)取行动。他们警告(gao)说(shuo),自从AI安全峰会以来(lai),在处理这些风(feng)险方面的进展还(hai)不够。”

在核心安全团队解散风(feng)波(bo)后(hou),OpenAI披(pi)露(lu)公司安全措施最新(xin)情况,消除网友对公司安全问题(ti)的担忧

例如,在此前OpenAI解散了AI风(feng)险团队事件(jian)中,该团队负责人Jan Leike离职后(hou)吐(tu)真言(yan),指责OpenAI在过去几年里将华而不实的产品凌驾于安全之上,并呼吁OpenAl必须成为一家以安全为先的通用人工智能公司。Jan的发言(yan)引起了网友的广泛担忧,网友担心OpenAI是否能确保AI技术安全可(ke)靠(kao)地发展。

5月21日,在核心安全团队解散风(feng)波(bo)后(hou),OpenAI在“AI首尔(er)峰会”上公开分享了公司正在实施的10大安全措施:

模型测试与评估:在发布新(xin)的AI模型前,OpenAI会进行严格的安全测试,包括内部和外部的评估。如果发现风(feng)险超过了他们可(ke)接受的“中等”水平,他们会先进行改(gai)进,直到风(feng)险降低到可(ke)以接受的程度。他们还(hai)会请外部的专家来(lai)帮助评估风(feng)险。

持续的安全与对齐(qi)研究:随着时间的推移,他们的模型在安全性上有了显著(zhu)改(gai)进,这包括减少(shao)错误信息的产生和在不利条件(jian)下减少(shao)有害内容的输(shu)出(chu)。公司还(hai)在投资(zi)实用的安全系统和研究,来(lai)进一步(bu)提高模型的安全性。

监控(kong)滥用行为:随着越来(lai)越强大的语(yu)言(yan)模型的部署,公司使用了各种工具来(lai)监控(kong)安全风(feng)险和滥用行为。他们与合作伙伴(如微(wei)软(ruan))共同揭露(lu)了技术被滥用的情况,以帮助其(qi)他人更(geng)好地防范类似风(feng)险。

系统性的安全措施:公司在模型的每个生命周期阶段实施安全措施,从训练前到部署。他们在数据安全、模型行为控(kong)制和监控(kong)基础(chu)设(she)施方面进行投资(zi)。

保护儿(er)童:保护儿(er)童是他们工作的重点(dian)。公司在其(qi)产品中内置了强大的安全措施,以减少(shao)对儿(er)童的潜在危害。

选举完整性:公司与政府和其(qi)他利益相关者合作,以防止(zhi)AI生成内容的滥用,确保内容透明度,并改(gai)善公众获取准(zhun)确投票信息的途径。

影响评估和政策分析投资(zi):公司的影响评估工作对研究、行业规范和政策具有广泛的影响。他们也出(chu)版了关于如何管理与语(yu)言(yan)模型相关的风(feng)险的先驱(qu)性研究。

安全与访问控(kong)制措施:公司重视保护客户、知(zhi)识产权和数据安全。他们控(kong)制对AI模型的访问,并投资(zi)于网络安全,如内外部渗透测试和悬赏寻找(zhao)漏洞的计划。

与政府合作:公司与全球各地的政府合作,共同制定有效且可(ke)适应的AI安全政策。

安全决策和董事会监督:公司有一个称为“准(zhun)备框架”的系统,这个框架AI安全决策提供了指导。公司还(hai)有一个跨功能的安全顾问小组,这个小组由来(lai)自公司不同部门的成员组成。他们的任务是审查AI模型的性能报告(gao),评估这些模型是否安全,以及在模型正式发布前提出(chu)改(gai)进建(jian)议。尽(jin)管有安全顾问小组提供建(jian)议和信息,但最终决定权在公司的高层领导手中。在这整个过程中,公司的董事会也会进行监督。

最后(hou),OpenAI还(hai)计划在未来(lai)继续改(gai)进这些做(zuo)法。

模型测试与评估:在发布新(xin)的AI模型前,OpenAI会进行严格的安全测试,包括内部和外部的评估。如果发现风(feng)险超过了他们可(ke)接受的“中等”水平,他们会先进行改(gai)进,直到风(feng)险降低到可(ke)以接受的程度。他们还(hai)会请外部的专家来(lai)帮助评估风(feng)险。

持续的安全与对齐(qi)研究:随着时间的推移,他们的模型在安全性上有了显著(zhu)改(gai)进,这包括减少(shao)错误信息的产生和在不利条件(jian)下减少(shao)有害内容的输(shu)出(chu)。公司还(hai)在投资(zi)实用的安全系统和研究,来(lai)进一步(bu)提高模型的安全性。

监控(kong)滥用行为:随着越来(lai)越强大的语(yu)言(yan)模型的部署,公司使用了各种工具来(lai)监控(kong)安全风(feng)险和滥用行为。他们与合作伙伴(如微(wei)软(ruan))共同揭露(lu)了技术被滥用的情况,以帮助其(qi)他人更(geng)好地防范类似风(feng)险。

系统性的安全措施:公司在模型的每个生命周期阶段实施安全措施,从训练前到部署。他们在数据安全、模型行为控(kong)制和监控(kong)基础(chu)设(she)施方面进行投资(zi)。

保护儿(er)童:保护儿(er)童是他们工作的重点(dian)。公司在其(qi)产品中内置了强大的安全措施,以减少(shao)对儿(er)童的潜在危害。

选举完整性:公司与政府和其(qi)他利益相关者合作,以防止(zhi)AI生成内容的滥用,确保内容透明度,并改(gai)善公众获取准(zhun)确投票信息的途径。

影响评估和政策分析投资(zi):公司的影响评估工作对研究、行业规范和政策具有广泛的影响。他们也出(chu)版了关于如何管理与语(yu)言(yan)模型相关的风(feng)险的先驱(qu)性研究。

安全与访问控(kong)制措施:公司重视保护客户、知(zhi)识产权和数据安全。他们控(kong)制对AI模型的访问,并投资(zi)于网络安全,如内外部渗透测试和悬赏寻找(zhao)漏洞的计划。

与政府合作:公司与全球各地的政府合作,共同制定有效且可(ke)适应的AI安全政策。

安全决策和董事会监督:公司有一个称为“准(zhun)备框架”的系统,这个框架AI安全决策提供了指导。公司还(hai)有一个跨功能的安全顾问小组,这个小组由来(lai)自公司不同部门的成员组成。他们的任务是审查AI模型的性能报告(gao),评估这些模型是否安全,以及在模型正式发布前提出(chu)改(gai)进建(jian)议。尽(jin)管有安全顾问小组提供建(jian)议和信息,但最终决定权在公司的高层领导手中。在这整个过程中,公司的董事会也会进行监督。

最后(hou),OpenAI还(hai)计划在未来(lai)继续改(gai)进这些做(zuo)法。

对此,网友在X上纷纷对OpenAI表示(shi)感谢(xie):

很好,感谢(xie)更(geng)新(xin)安全第一,人工智能第二。

“继续致力于安全。非常感谢(xie)!”

很好,感谢(xie)更(geng)新(xin)安全第一,人工智能第二。

“继续致力于安全。非常感谢(xie)!”

发布于:上海市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7