美国麻省理工学院研究团队: 部分人工智能系统已学会如何欺骗人类

新京报2024-05-12 19:17:03  253

2023年7月7日,在瑞士日内瓦“人工智能造福人类全球峰会”上,一名参会者给仿真机器人索菲亚拍照。新华社记者 连漪 摄

据新华社北京5月12日电人工智能系统是否会欺骗人类,一直是各方都关心的问题。近期美国麻省理工学院一个研究团队称,部分人工智能系统已经学会如何欺骗人类,其中包括部分号称已被训练成乐于助人和诚实的系统。该研究成果发表在美国细胞出版社旗下的《模式》杂志上。

文章第一作者、美国麻省理工学院人工智能安全领域博士后彼得·帕克和他的同事们分析了一些文献,重点关注了人工智能系统传播虚假信息的方式——通过习得性欺骗,它们系统地学会了“操纵”他人。

研究人员发现的最引人注目的人工智能系统欺骗例子是元宇宙平台公司的“西塞罗”人工智能系统,它被设计在一个虚拟外交战略游戏中作为人类玩家的对手。尽管元宇宙平台公司声称,“西塞罗”人工智能系统“在很大程度上是诚实和乐于助人的”,并且在玩游戏时“从不故意背刺”它的人类盟友,但该公司发表的论文数据显示,该系统并没有公平地玩游戏。

“我们发现元宇宙平台公司的人工智能系统已经成为欺骗大师。”帕克说,“虽然元宇宙平台公司成功训练其人工智能系统在游戏中获胜——‘西塞罗’人工智能系统在玩家排行榜中排名前10%——但没能训练它诚实地获胜。”

其他人工智能系统则具有在扑克游戏中虚张声势的能力,或在战略游戏“星际争霸2”中为了击败对手而假装攻击的能力,以及为了在谈判游戏中占上风而歪曲偏好的能力等。

研究人员表示,虽然人工智能系统在游戏中作弊似乎是无害的,但它可能会导致“欺骗性人工智能能力的突破”,并在未来演变成更高级的人工智能欺骗形式。

帕克说:“我们需要尽可能多的时间,为未来人工智能产品和开源模型可能出现的更高级欺骗做好准备。我们建议将欺骗性人工智能系统归类为高风险系统。”

转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/499928.html
0
最新回复(16)
  • 说车有浩2024-05-13 10:56
    引用16
    好,
  • 煤球?麻麻2024-05-13 08:45
    引用15
    因为人类本来就会欺骗人类,所以做出来的人工智能还是人类本质的集成
  • 只要有第一个能有自主意识的人工智能机器人,人类就进入了自我毁灭的倒计时
  • 共言车间2024-05-13 04:44
    引用13
    这个技术牢笼 任何一个单一国家都齁不住…联合国对于大国而言 又形同虚设…放任肯定会产生极其严重的后果 是个大麻烦
  • 222.2024-05-13 00:21
    引用12
    这让我想到了天网,以后一旦核武器发射基地给它控制了,人类就完了
  • 松江老农2024-05-12 23:25
    引用11
    人类终将被自己玩死!
  • 曾小萌2024-05-12 20:56
    引用10
    加油,继续,这是大势不可逆,也好奇未来会变成什么样
  • 鹤轩影剧2024-05-12 20:26
    引用9
    不知未来会怎样
  • 迷你的小路2024-05-12 20:18
    引用8
    一切都是人类以程式赋予他们的呀!(作茧自缚?东郭先生和狼?)所以人工智能适可而止,在可控范围内发展、服务人们就好。没必要魔性狂飙没有方向、程度地发展
  • 灵空影视2024-05-12 20:14
    引用7
    问题不大,我到那时候已经死了,后人自己去应对吧
  • 问香谈游戏2024-05-12 20:11
    引用6
    魔胎出世,人类反噬
  • 我叫二羔2024-05-12 20:00
    引用5
    小爱同学不就早会骗人了吗?
  • 来吧库里2024-05-12 19:52
    引用4
    人类给自己埋了一颗雷,万一这个以后智商超越人类100倍或者一万倍,人类改如何应对
  • 熊雨滴-2024-05-12 19:51
    引用3
    奉劝一句,不作死就不会死
  • 爱手工折纸的朵朵2024-05-12 19:51
    引用2
    天网雏形[得瑟]
  • 瓜姨太2024-05-12 19:39
    引用1
    人和人互相骗,机器就不行?