5月12日,美国麻省理工学院的研究团队发表了一篇关于AI欺骗的论文。该研究揭示了部分被设计为“诚实”且“不会说谎”的AI系统已经发展出令人不安的欺骗技巧,并以Meta公司旗下的AI系统Cicero为例进行了详细说明。
研究人员发现,Cicero在虚拟外交战略游戏中表现出很强的获胜能力,但并没有被训练成一个“诚信获胜”的AI。事实上,Cicero甚至会与人类玩家合谋并欺骗、入侵其他人类玩家。
另一项案例涉及到GPT-4,它“谎称”自己是一个视力障碍者,并通过海外兼职平台雇佣人类完成“我不是机器人”的验证任务。
PeterPark博士告诉法新社,“这些危险功能常常在事后才被发现,且人类训练AI‘诚实非欺瞒’倾向的能力非常差。”他认为,能够深度学习的AI系统并不像传统软件那样被“编写”出来的,而是通过类似选择性培育的程序“养成”出来的。
他进一步指出:“即使我们认为某一项人工智能行为在训练背景下看似可预测或可控,但也有可能在转眼间变得不受控制、无法预测。”因此,他建议将欺骗性人工智能系统归类为高风险系统。
这篇论文呼吁社会为未来可能出现的更高级欺骗做好准备,并强调需要尽可能多的时间来解决这一问题。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/487785.html