当地时间6月19日,上个月从OpenAI离职的公司联合创始人、(前)首席科学家、深度学习领域权威专家伊尔亚·苏茨克维(Ilya Sutskever),正式宣布单飞后的全新AI创业项目。
这位专家曾在2023年OpenAI董事会投出关键一票将奥尔特曼赶出公司,又反悔将他请回来。
苏茨克维向外界透露了他的最新动态,宣布创立一家名为“安全超级智能”(Safe SuperIntelligence,简称SSI)的新公司。
SSI公司的主要方向是开发安全、强大的通用人工智能(AGI)系统,Ilya认为“这是我们这个时代最重要的技术问题”,公司短期内无意销售各种AI产品或服务。
声明表示:SSI 将专注于单一业务,这意味着公司不会受到管理费用、产品周期的干扰,公司的业务模式意味着“安全、保障和进步”都不会受到短期商业压力的影响。
值得注意的是,苏茨克维没有公开新公司的资金来源,也未透露他筹集的具体金额。
苏茨克维、杨·莱克(Jan Leike)于今年5月中旬双双从OpenAI离职。苏茨克维表示会在“适当的时候”披露他的下一个项目。
杨·莱克在社交平台X上公开解释了他们为什么离职。
他写到原因跟对核心优先事项以及团队分配资源的分歧有关,他们更关注安全性、一致性等问题;超级对齐团过去几个月一直在“逆风航行”,在计算上很吃力,完成研究越来越困难。过去几年,安全文化和流程已经让位于更耀眼的产品。
这似乎是OpenAI高管第一次公开表示OpenAI将产品置于安全之上。
OpenAI去年7月组建了超级对齐团队,由杨·莱克和伊尔亚·苏茨克维领导,目标是在未来4年内解决控制超级智能AI的核心技术挑战。该团队承诺将获得该公司20%的计算资源,但其实际获得计算资源却受到阻碍。
苏茨克维和莱克并不是唯二离开的人,自去年11月以来,OpenAI至少有5名注重安全的员工辞职或被开除。【每经网】
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/773239.html