在当今世界,人们在网上与人工智能互动的频率不仅比以往任何时候都高,而且比他们想象的要高。神经网络变得越来越先进,通常很难将它们与人类区分开来。为了支持这一点,电气和电子工程师协会(IEEE)的科学家进行了一项研究,其中要求受访者与四名代理进行通信,其中只有一个人。
该研究的目的是确定参与者是否可以区分合成对话者和活人。科学家的研究是对该测试的现代解释,该测试由著名数学家艾伦·图灵(Alan Turing)于1950年提出。如果人工智能算法在与人交流的过程中可以让他认为另一个人在和他说话,则该测试被视为通过。
该测试涉及 500 人,他们轮流与四个智能体交谈,其中一名是人类,以及另外三个软件产品,例如上世纪 60 年代编写的 ELIZA 虚拟助手和基于大型语言模型构建的现代聊天机器人 GPT-3.5 和 GPT-4(后者也是流行的 AI 机器人 ChatGPT 的基础)。
受访者与每个座席交谈了五分钟,之后他们必须说出他们是否认为自己是在与人类或聊天机器人交谈。结果发现,54% 的测试参与者将 GPT-4 误认为是人类。ELIZA的武器库中没有大型语言模型和神经网络架构,仅在22%的情况下被人类识别。基于 GPT-3.5 的算法在 50% 的案例中被识别为人类,在 67% 的案例中被识别为人类。
“机器可以通过在事后将看似合理的理由混合在一起来推理,就像人类一样。他们可能会受到认知偏见的影响,他们可能会纵,并且他们变得越来越具有欺骗性。所有这些都意味着人工智能系统表达了人类的缺陷和怪癖,这使得它们比以前的类似解决方案更像人类,后者的武器库中只有现成的答案列表,“其中一位研究人员评论了这项工作的结果。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/781992.html