彻底告别Ilya时代后,OpenAI正在全力加速AI研发的推进。
昨天深夜,OpenAI在最新的博客透露,该公司最近开始训练新的前沿模型,预计这将使其能力在通向通用人工智能(AGI)的道路上达到新的高度。
结合此前的诸多猜测,训练提上日程的模型极有可能就是下一代模型——GPT-5。
但在此之前,安全二字依然是悬于OpenAI头顶的达摩克利斯之剑。
新安全组织成立,但OpenAI已「变质」
继疑似解散「超级对齐」团队之后,OpenAI又一次因为安全话题站在了风口浪尖上。
昨晚,OpenAI在社交平台X上官宣成立「安全保障委员会」,主要负责向董事会提出关于OpenAI项目和运营的关键安全决策建议。
据博客介绍,安全保障委员会的首要任务是在接下来的90天内评估并进一步完善OpenAI的流程和安全措施,90天后,安全保障委员会将向全体董事会分享他们的建议。
在全体董事会审查后,OpenAI将以符合安全和保障的方式公开分享采纳建议的更新。
安全保障委员会由董事BretTaylor(主席)、AdamD’Angelo、NicoleSeligman和CEOSamAltman共同领导,清一水都是OpenAI「自己人」。
除了领导团队,该委员会还吸纳了OpenAI的多位技术和政策专家。
OpenAI的技术和政策专家AleksanderMadry(应急负责人)、LilianWeng(安全系统负责人)、JohnSchulman(对齐科学负责人)、MattKnight(安全负责人)和JakubPachocki(首席科学家)也将加入委员会。
此前OpenAI实际上一共只有三个各有专攻的安全团队:安全系统团队、准备团队和疑似遭到解散的超级对齐团队。
安全系统团队:主要负责评估和监督AI系统的安全性,任务包括减少模型滥用、监控网络流量和异常行为、保护公司资产和数据安全等。
准备团队:专注于前沿模型的安全评估。这个团队的目标是在模型发布之前识别和量化风险,以确保模型的安全性。
超级对齐团队:主要是对研发的AI进行评估并监督,防止AI走向失控局面。
而此次成立的安全保障委员会或许只是独立于三大安全团队之外的临时委员会。
实际上,OpenAI最近在AGI安全的话题上一直备受诟病,先有致力于人类安全的首席科学家IlyaSutskever宣布离职,后又有前「超级对齐」团队负责人之一JanLeike连发13条小作文自述在内部遭遇的打压。
用Jan的话来说,OpenAI的安全文化已经退居次要地位,「闪亮的产品」才是第一优先级。
从去年至今,OpenAI的「宫斗大戏」就像一场未完待续的连续剧,持续在科技圈内回响。
网友们最大的心态变化莫过于逐渐对那个曾经坐在美国国会山接受咨询,为确保AI服务于人类福祉侃侃而谈的SamAltman产生了滤镜破碎。
包括此次所谓安全保障委员会的成立,看似动作不小,但更像是为了挽救舆论危机的一项权宜之计。
OpenAI「宫斗大戏」再曝细节
如果说之前OpenAI内部还在安全主义和加速主义两个派别中摇摆不定时,那么随着SamAltman重返董事会后,安全主义就几乎宣告「破产」。
OpenAI前董事会成员HelenToner也是去年「解雇」Altman的幕后推手之一。
暌违半年后,她于今日凌晨播出的《TEDAI秀》播客节目,向外界透露了关于这场风波的更多内幕信息,或许也让我们看到一个更「立体」的Altman。
Helen表示,当ChatGPT于2022年11月推出时,董事会并没有提前得到通知,并且后续还是在Twitter(现为X)上才知道这么一回事,而这一点也与此前批评Altman的「不诚实」暗自吻合。
又或者,Altman在公司的安全事务上喜欢「先斩后奏」:
在很多场合,他向我们提供了有关公司已实施的正式安全流程的不准确信息。这意味着董事会基本上不可能知道这些安全流程的运行情况或可能需要进行哪些更改。
在Helen看来,OpenAI设立的目的是确保公司的公益使命是第一位的,而不是利润、投资者利益和其他事情。Altman的「撒谎成性」,不仅使得董事会「名存实亡」,也违背OpenAI成立的初衷。
至于为何Altman会在员工的簇拥上重返董事会,Helen认为:
媒体报道失误,不少员工认为,若是Altman不重返董事会,OpenAI将被「摧毁」。
许多员工不希望公司分崩离析,不希望失去工作,并且需要变现手上的股权
员工害怕反对Altman,恐惧Altman重新掌权后的报复
Altamdn有过被「解雇」和被指控有不当行为的「前科」
Helen的表述,也再次在网络上掀起了轩然大波,网友们有的选择对Altman「粉转黑」,有的则支持加速主义,并攻讦她的「一面之词」。
对此,OpenAI官方没有立即回应。
不过,据彭博社报道,在向TED播客中的一份声明中,OpenAI现任董事长主席BretTaylor表示:「我们对Toner女士再次提及这些问题感到失望。」
他还提到,对Altman解雇事件的独立审查得出的结论是「前董事会的决定并不是基于对产品安全、开发速度、OpenAI财务状况或其向投资者、客户或商业伙伴的声明的担忧。」
Taylor还表示,「超过95%的员工」要求重新任命Altman,公司仍然专注于其「确保通用人工智能(AGI)惠及全人类」的使命。
值得一提的是,据Forbes报道,Altman和他的爱人成为最新签署「捐赠誓言」计划的亿万富翁。
而该计划旨在鼓励超级富豪至少将一半的财富捐赠给慈善事业,这些捐款可以在他们生前或身后进行,具体捐赠对象和时间由签署人自行决定。
在公开信中,Altman和他的爱人OliverMulherin表示:
许多人为了改善世界付出了辛勤工作、才智、慷慨和奉献,这些构成了社会的支柱,让我们走到了今天。
我们除了感到无比感激并承诺回馈社会外,别无他法,只能尽力将这个支柱建设得更高一些。
言归正传,在OpenAI深陷AGI安全舆论危机的同一天,JanLeike猝不及防地宣布加入Anthropic公司。
工作的地方换了,但任务事项却没变:
我很高兴加入@AnthropicAI,继续推进超对齐任务!我的新团队将致力于可扩展监督、从弱到强的泛化以及自动化对齐研究。
说起来,Anthropic公司其实也与OpenAI有些渊源。
Anthropic的创始人包括OpenAI的前研究副总裁DarioAmodei和他的同胞姐妹DanielaAmodei,以及一些OpenAI的核心员工。
出于安全主义的权衡,他们于2021年离开OpenAI,成立了Anthropic公司,致力于开发提高AI安全性和可解释性的工具。
其目标是开发与OpenAI竞争的生成式人工智能模型,并在AI安全和可靠性方面进行研究,譬如前一阵超越GPT-4的Claude3系列模型便是出自这家公司之手。
换句话说,JanLeike选择加入Anthropic相当于回到自家大本营了。
或许某一天,Ilya宣布加入Anthropic公司,也不是一件出乎意外的事情了。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/604582.html