OpenAI宣布将其Safety and Security Committee转变为一个独立的“董事会监督委员会”,该委员会拥有在出现安全问题时暂停AI模型发布的权力。这一转变是在公司进行了为期90天的安全和安保实践审查后决定的。新委员会由Zico Kolter领导,并包括Adam D’Angelo、Paul Nakasone和Nicole Seligman等成员,他们将定期接收公司高层关于主要模型发布安全评估的更新,并共同监督这些发布工作。
此外,OpenAI还表示正在与外部组织合作,如美国顶尖的洛斯阿拉莫斯国家实验室,探索如何在实验室环境中安全利用AI技术推进生物科学研究。同时,该公司已与美国和英国的人工智能安全研究所达成协议,共同研究新的AI安全风险,并建立可信AI的标准。OpenAI计划进一步开发与第三方安全组织及非政府实验室的合作,以进行独立的模型安全性评估,并推动全行业的安全标准制定。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/1240083.html