业界动态
2024年香港资料正版大全群英会论坛-核心安全团队解散后,OpenAI公布10大安全措施,网友点赞,公司,风险,模型
2024-06-03 00:13:38
2024年香港资料正版大全群英会论坛-核心安全团队解散后,OpenAI公布10大安全措施,网友点赞,公司,风险,模型

如何安全地发展人工智能?

5月21日周(zhou)二,为期两天的“AI首尔峰(feng)会”以在线视频的方式(shi)开幕。本(ben)次会议主题主要围绕如何安全地发展AI。世界各地的领(ling)导人、科技公司的高管以及国际(ji)组织的代表,在会上(shang)共同讨论了AI的风险(xian)和潜在的好处(chu)。

在韩国总统尹锡悦和英国首相苏(su)纳克的共同主持下,16家世界领(ling)先的AI公司,包括Meta、OpenAI、谷歌、亚马逊(xun)、微软等均做出了自愿承诺,保证在开发最前沿(yan)的AI技术时注重安全,确保AI系统不会失控并危害人类。如果(guo)发现某些极端风险(xian)无(wu)法控制,他们甚至会选择停止相关AI模型(xing)的开发。

同时,AI公司们还提出需要制定一些规(gui)则和政策框(kuang)架,来评估和控制AI可能带来的风险(xian)。不仅(jin)是公司,一些国家的集团(比如G7、欧盟等)也表示支持这个想法,他们同意要把AI的安全和创新放在重要位置。

与会者还强调,虽(sui)然公司可以自愿承诺要安全使用AI,但也需要有政府出台相关的法律来确保这些承诺能落(luo)到实处(chu)。被称(cheng)为“人工智能教父(fu)”的计算机科学家Yoshua Bengio称(cheng),自愿承诺必须伴随法律监管。目(mu)前,全球各地的政府都在努力制定AI相关的法规(gui),例如,联合国已(yi)经通(tong)过了关于(yu)AI系统安全使用的第一项决议,而欧盟的AI法案预计今年晚些时候(hou)将生效(xiao)。

对此,网友们纷纷点赞称(cheng):“这真是个好消(xiao)息!很高兴看到欧盟为协调人工智能法规(gui)而采取的进步措施。这确实有助于(yu)为人工智能道(dao)德和安全制定高标准。期待看到该法案的积极影响显现!”

虽(sui)然AI技术的迅速发展虽(sui)然可以造福人类,但同时来带了一些问(wen)题,如大批量失业、误导人们、传(chuan)播错误信息等。牛津大学在X上(shang)发帖表示:“全球的AI界正在努力推动AI技术的能力越来越强大,但安全和伦(lun)理问(wen)题往往是事后才考虑的。科学家们在向世界领(ling)导人发出呼吁,要求(qiu)对AI带来的风险(xian)采取行动。他们警告说,自从AI安全峰(feng)会以来,在处(chu)理这些风险(xian)方面的进展还不够。”

在核(he)心安全团队解(jie)散风波(bo)后,OpenAI披露(lu)公司安全措施最新情况,消(xiao)除网友对公司安全问(wen)题的担(dan)忧

例如,在此前OpenAI解(jie)散了AI风险(xian)团队事件(jian)中,该团队负责人Jan Leike离职后吐真言,指责OpenAI在过去几年里将华而不实的产品凌驾于(yu)安全之(zhi)上(shang),并呼吁OpenAl必须成为一家以安全为先的通(tong)用人工智能公司。Jan的发言引起了网友的广泛(fan)担(dan)忧,网友担(dan)心OpenAI是否能确保AI技术安全可靠地发展。

5月21日,在核(he)心安全团队解(jie)散风波(bo)后,OpenAI在“AI首尔峰(feng)会”上(shang)公开分享了公司正在实施的10大安全措施:

模型(xing)测试与评估:在发布新的AI模型(xing)前,OpenAI会进行严格的安全测试,包括内部和外(wai)部的评估。如果(guo)发现风险(xian)超过了他们可接受(shou)的“中等”水平,他们会先进行改进,直到风险(xian)降低到可以接受(shou)的程度。他们还会请外(wai)部的专家来帮助评估风险(xian)。

持续的安全与对齐研究:随着时间的推移,他们的模型(xing)在安全性(xing)上(shang)有了显著改进,这包括减少错误信息的产生和在不利条件(jian)下减少有害内容的输出。公司还在投资实用的安全系统和研究,来进一步提高模型(xing)的安全性(xing)。

监控滥用行为:随着越来越强大的语言模型(xing)的部署(shu),公司使用了各种(zhong)工具来监控安全风险(xian)和滥用行为。他们与合作伙伴(如微软)共同揭露(lu)了技术被滥用的情况,以帮助其他人更好地防范类似风险(xian)。

系统性(xing)的安全措施:公司在模型(xing)的每(mei)个生命周(zhou)期阶段实施安全措施,从训练前到部署(shu)。他们在数据(ju)安全、模型(xing)行为控制和监控基础设施方面进行投资。

保护儿童(tong):保护儿童(tong)是他们工作的重点。公司在其产品中内置了强大的安全措施,以减少对儿童(tong)的潜在危害。

选举完整(zheng)性(xing):公司与政府和其他利益相关者合作,以防止AI生成内容的滥用,确保内容透明度,并改善公众获取准确投票信息的途径。

影响评估和政策分析投资:公司的影响评估工作对研究、行业规(gui)范和政策具有广泛(fan)的影响。他们也出版(ban)了关于(yu)如何管理与语言模型(xing)相关的风险(xian)的先驱(qu)性(xing)研究。

安全与访问(wen)控制措施:公司重视保护客户、知识产权和数据(ju)安全。他们控制对AI模型(xing)的访问(wen),并投资于(yu)网络安全,如内外(wai)部渗透测试和悬赏寻找漏洞的计划(hua)。

与政府合作:公司与全球各地的政府合作,共同制定有效(xiao)且可适应的AI安全政策。

安全决策和董事会监督:公司有一个称(cheng)为“准备框(kuang)架”的系统,这个框(kuang)架AI安全决策提供了指导。公司还有一个跨功能的安全顾问(wen)小组,这个小组由来自公司不同部门的成员(yuan)组成。他们的任务(wu)是审查AI模型(xing)的性(xing)能报告,评估这些模型(xing)是否安全,以及在模型(xing)正式(shi)发布前提出改进建议。尽管有安全顾问(wen)小组提供建议和信息,但最终决定权在公司的高层领(ling)导手中。在这整(zheng)个过程中,公司的董事会也会进行监督。

最后,OpenAI还计划(hua)在未来继续改进这些做法。

模型(xing)测试与评估:在发布新的AI模型(xing)前,OpenAI会进行严格的安全测试,包括内部和外(wai)部的评估。如果(guo)发现风险(xian)超过了他们可接受(shou)的“中等”水平,他们会先进行改进,直到风险(xian)降低到可以接受(shou)的程度。他们还会请外(wai)部的专家来帮助评估风险(xian)。

持续的安全与对齐研究:随着时间的推移,他们的模型(xing)在安全性(xing)上(shang)有了显著改进,这包括减少错误信息的产生和在不利条件(jian)下减少有害内容的输出。公司还在投资实用的安全系统和研究,来进一步提高模型(xing)的安全性(xing)。

监控滥用行为:随着越来越强大的语言模型(xing)的部署(shu),公司使用了各种(zhong)工具来监控安全风险(xian)和滥用行为。他们与合作伙伴(如微软)共同揭露(lu)了技术被滥用的情况,以帮助其他人更好地防范类似风险(xian)。

系统性(xing)的安全措施:公司在模型(xing)的每(mei)个生命周(zhou)期阶段实施安全措施,从训练前到部署(shu)。他们在数据(ju)安全、模型(xing)行为控制和监控基础设施方面进行投资。

保护儿童(tong):保护儿童(tong)是他们工作的重点。公司在其产品中内置了强大的安全措施,以减少对儿童(tong)的潜在危害。

选举完整(zheng)性(xing):公司与政府和其他利益相关者合作,以防止AI生成内容的滥用,确保内容透明度,并改善公众获取准确投票信息的途径。

影响评估和政策分析投资:公司的影响评估工作对研究、行业规(gui)范和政策具有广泛(fan)的影响。他们也出版(ban)了关于(yu)如何管理与语言模型(xing)相关的风险(xian)的先驱(qu)性(xing)研究。

安全与访问(wen)控制措施:公司重视保护客户、知识产权和数据(ju)安全。他们控制对AI模型(xing)的访问(wen),并投资于(yu)网络安全,如内外(wai)部渗透测试和悬赏寻找漏洞的计划(hua)。

与政府合作:公司与全球各地的政府合作,共同制定有效(xiao)且可适应的AI安全政策。

安全决策和董事会监督:公司有一个称(cheng)为“准备框(kuang)架”的系统,这个框(kuang)架AI安全决策提供了指导。公司还有一个跨功能的安全顾问(wen)小组,这个小组由来自公司不同部门的成员(yuan)组成。他们的任务(wu)是审查AI模型(xing)的性(xing)能报告,评估这些模型(xing)是否安全,以及在模型(xing)正式(shi)发布前提出改进建议。尽管有安全顾问(wen)小组提供建议和信息,但最终决定权在公司的高层领(ling)导手中。在这整(zheng)个过程中,公司的董事会也会进行监督。

最后,OpenAI还计划(hua)在未来继续改进这些做法。

对此,网友在X上(shang)纷纷对OpenAI表示感谢:

很好,感谢更新安全第一,人工智能第二。

“继续致力于(yu)安全。非常感谢!”

很好,感谢更新安全第一,人工智能第二。

“继续致力于(yu)安全。非常感谢!”

发布于(yu):上(shang)海市
版权号:18172771662813
 
    以上就是本篇文章的全部内容了,欢迎阅览 !
     资讯      企业新闻      行情      企业黄页      同类资讯      首页      网站地图      返回首页 移动站 , 查看更多   
sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7