鞭牛士报道,10月27日消息,据美联社报道,软件工程师、开发人员和学术研究人员对OpenAI的Whisper转录表示严重担忧。
尽管关于生成式人工智能产生幻觉(基本上就是编造东西)的倾向的讨论一直不绝于口,但令人惊讶的是,这竟然是转录中的一个问题,因为你会期望转录结果与被转录的音频紧密相关。
相反,研究人员告诉美联社,Whisper把从种族评论到想象中的医疗治疗等所有内容都引入了记录中。当Whisper在医院和其他医疗环境中被采用时,这可能会带来特别严重的后果。
密歇根大学的一名研究公开会议的研究人员发现,每10份音频转录中就有8份出现幻觉。一名机器学习工程师研究了超过100个小时的Whisper转录,发现其中一半以上出现幻觉。
一名开发人员报告说,他用Whisper创建的26,000份转录中几乎都发现了幻觉。
OpenAI发言人表示,公司正在不断努力提高模型的准确性,包括减少幻觉,并指出其使用政策禁止在某些高风险决策环境中使用Whisper。
他们说:我们感谢研究人员分享他们的研究成果。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/1413084.html