当前市场上充斥着被称为“悲伤机器人”的商业产品,这些机器人基于AI大型语言模型(LLM)的构建,通过使用电子邮件、短信、录音等来模仿逝者的特定说话方式。该技术旨在帮助失去亲人的人与机器人聊天,就像他们在与亲人交谈一样,以减缓失去亲人的悲伤。但我们缺少证据表明这项技术确实可以提供帮助。
一个多世纪以来,人类一直在利用技术来应对失落感。例如,在19世纪维多利亚时代,人们获得死去亲属最后肖像的方式是尸检照片,因为当时他们买不起肖像画。最近的研究提供的证据表明,将图画或图片作为纪念品可以帮助一些幸存者缓解悲伤。然而,研究人员仍在研究 人们如何表达悲伤,以及哪些事情可以帮助失去亲人的人应对悲伤。
研究和临床实践表明,与失去的人重建联系可以帮助哀悼者应对他们的去世。这意味着模拟过世亲人的“数字人”产品可能会帮助失去亲人的人,让他们改变与已故亲人的关系。但是,只有当失去亲人的人能够理解自己的损失时,牢固的持续联系才会对他们有所帮助。而模仿亲人可能会让人们更难做到让他们接受所爱的人已经去世的事实。
卡拉·索夫卡 (Carla Sofka) 是纽约州锡耶纳学院的社会工作教授,也是技术和悲伤领域的专家。随着互联网在20世纪90年代中期的发展,她创造了“thanatechnology”一词来描述任何可以帮助人们应对死亡、悲伤和失落的技术(包括数字或社交媒体),例如家人和朋友在社交媒体上一起发帖已故亲人的媒体简介或在他们的记忆中创建一个网站。其他幸存者喜欢重读死者的电子邮件或听他们录制的语音信息。有些人可能会这样持续很多年,因为他们逐渐适应了强烈的失落情绪。
索夫卡说,如果公司要建立过逝者的人工智能模拟,那么“他们必须与那些认为自己想要这项技术的人交谈”,以更好地创造出满足他们需求的东西。当前的商业机器人针对不同的群体有不同的产品形态。例如,Seance AI的“悲伤机器人”旨在短期使用,以提供一种结束感,而You, Only Virtual公司则承诺让某人的亲人永远陪伴在他们身边,这样他们“永远不必说再见”。
但索夫卡表示,如果公司能够对死者进行令人信服的模拟,就有可能改变死者的整个现实。虽然我们只能推测,但这可能会影响认识他们的人悲伤的方式。正如索夫卡在一封电子邮件中所写,“每个人处理悲伤的方式都不同。”悲伤机器人可以为失去亲人的人提供一种新的工具来应对悲伤,或者它们可以制造一种错觉,以为所爱的人并没有离开,迫使哀悼者如果想停止使用该机器人,就必须面对第二次死亡。
威斯康星大学密尔沃基分校的林尼·莱斯塔迪斯 (Linnea Laestadius) 等公共卫生和技术专家担心,悲伤机器人可能会让哀悼者陷入隐蔽的在线对话中,无法继续生活。她对聊天机器人的研究表明,人们可以与虚拟角色形成强烈的情感联系,从而使他们依赖该程序来获得情感支持。索夫卡写道,考虑到预测此类聊天机器人将如何影响人们悲伤的方式非常困难,“社会科学家很难提出研究问题来捕捉对这项新技术的所有可能反应。”
这并没有阻止商业公司发布他们的产品。但京都工业大学助理教授佘万柔 (Wan-Jou She) 表示,要负责任地开发悲伤机器人,不仅仅需要了解如何制造真正的机器人然后付诸实践。
她与肯特大学博士生Anna Xygkou以及其他合著者合作开展了一个研究项目,看看如何使用聊天机器人技术来减缓悲伤。他们采访了10名使用各种应用程序创建的虚拟角色来应对失去亲人的人。其中五名参与者与他们失去的人的模拟聊天,而其他人则使用扮演不同角色的聊天机器人,例如朋友。Xygkou表示,他们中的大多数人与角色交谈的时间还不到一年。 “他们中的大多数人将其作为克服悲伤的过渡阶段,在第一阶段,”她说,“当悲伤如此强烈时,你无法承受。”这些哀悼者选择了一种短期工具来帮助他们应对。他们不想再造一个爱人,让他们终生陪伴在身边。虽然这项研究表明悲伤机器人可以为一些失去亲人的人提供帮助,但还需要更多的研究来证明该技术不会伤害他们,而且它的帮助范围不仅限于这一小群人。
更重要的是,悲伤机器人不需要让任何人相信他们是人类。接受采访的用户知道他们正在与聊天机器人交谈,而且他们并不介意。Xygkou说,他们暂时放下了怀疑,与机器人聊天,就像在与亲人交谈一样。任何使用过LLM驱动的聊天机器人的人都知道,很容易感觉屏幕的另一边有一个真人。在失去亲人的情感剧变期间,沉迷于这种幻想可能会变成另一个严重的问题。Xygkou说,这就是为什么模拟必须明确他们不是一个人。
佘表示,重要的是,聊天机器人目前不受任何监管,如果没有监管,就很难让公司证明他们的产品可以帮助用户应对损失。宽松的立法鼓励其他聊天机器人应用程序在不提供任何证据的情况下声称它们可以帮助改善心理健康。只要这些应用程序将自己归类为健康而不是治疗,美国食品和药物管理局就不会执行其要求,包括应用程序证明它们利大于弊。尽管尚不清楚哪个监管机构将最终负责,但联邦贸易委员会可能会处理此类产品提出的虚假或不合格的声明。
在没有太多证据的情况下,我们还不确定悲伤机器人将如何影响我们处理损失的方式。使用数据似乎并未公开,但她和Xygkou在寻找研究参与者方面遇到了很大困难,以至于Xygkou认为目前使用该技术的哀悼者并不多。但随着人工智能在我们生活中的不断普及,这种情况可能会发生变化。随着合格的心理专业人员的短缺加剧,也许会有更多的人使用悲伤机器人。人们可能会变得更习惯与计算机交谈,或者监督不力可能意味着许多人一开始就不知道他们正在与计算机交谈。到目前为止,无论是可疑的道德规范还是巨大的成本都没有阻止公司利用任何机会尝试使用人工智能。
但她说,无论失去亲人的人在机器人中找到什么安慰,他们都不应该相信它们。当LLM与某人交谈时,它只是在预测,下一个词是什么。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/273261.html