辛辛苦苦写的论文,却被审稿人被指控写作欺诈:把人工智能(AI)产生的“写作”冒充自己的写作,然后文章被拒收了。
一位副教授的遭遇引发学术界关注,登上Nature专栏。
事件详情
论文作者名为Lizzie Wolkovich,是加拿大不列颠哥伦比亚大学森林与保护科学的副教授。
Lizzie坦言自己并不擅长写论文,“和许多人一样,我觉得写论文是一个有些痛苦的过程。”
为此,她阅读了一些关于如何写作的书,一方面是为了寻求安慰,因为这些书籍强调写作通常是缓慢而困难的,另一方面是为了找到改进的方法。
Lizzie表示她目前的写作策略是,强迫自己写作,在初稿之前创建几个大纲,然后再进行写作和大量修改。她还把这套方法推荐给向了她的学生。Lizzie表示,尽管这并不容易,但是作为科学家能把复杂的想法表达得清楚明了是很重要的。
然而,当Lizzie提交了她精心打磨的论文后,却意外遭到审稿人的指控——被怀疑使用ChatGPT进行科研造假。
想象一下,当我收到一篇投稿论文的审稿意见,声称这是ChatGPT的作品时,我有多么惊讶。
一位审稿人写道,这“显然是ChatGPT”,而经办编辑也含糊其辞地表示同意,并表示他们觉得“写作风格不寻常”。
我当时的情绪不仅仅是惊讶,还有震惊、沮丧以及一系列的困惑和恐慌。考虑到我在写作上投入了大量的精力,被指控为聊天机器人,是在没有任何证据的情况下,这对我来说是一个打击。
Lizzie表示,实际上,他的稿件并没有用ChatGPT写过一个字。她很快就想好了如何证明自己的清白。她指出,
? 由于自己使用LaTeX纯文本写作,并使用版本控制系统Git进行跟踪,所以可以在GitHub上显示文本更改历史记录(包括“终于开始写了!”和“又写了25分钟!”等提交信息)。
? 甚至,我可以问ChatGPT本身,看看它是否认为它写了我的论文。
但随后Lizzie意识到,自己花时间试图证明自己不是一个聊天机器人,这对整个情况来说似乎是一个糟糕的结果。Lizzie仍直言不讳地表示“真正想做的其实是愤然离场”。
Lizzie决定从研究数据欺诈的学者、论文的合著者和其他同事那里获取一些观点。一位说得最为简洁:“所有科学批评都是可以接受的,但这是另一回事。”
文章最后,Lizzie用大篇幅文字表达了自己对于此事的看法。
这些审稿意见揭示了同行评审过程的内在缺陷,以及更让我担忧的——AI如何在不经意间腐蚀科学。
人们担心AI控制人类,它可能加剧虚假信息传播,以及它可能帮助延续隐秘的偏见和不平等。一些人正在试图建立保障措施以防止这种情况。
但是,科学界也在努力创造能够在适当时候提供帮助的AI,也许这包括作为写作助手。
然而,正如我的经历所示,ChatGPT仅仅因为自身的存在就破坏了同行评议过程。一方面,我对于被误认为聊天机器人感到恼火;另一方面,我又对审稿人和编辑对有人提交AI生成文本如此厌倦感到恐惧。
科学在很大程度上是建立在对他人道德和正直的信任和信念之上。我们大多数信任他人不会伪造数据,我也相信人们不会在未声明的情况下使用大型语言模型撰写论文或申请资助。我不会在没有证据的情况下指责某人数据欺诈或统计操纵,但一位审稿人显然在指责我时没有这样的顾忌。
也许他们并没有打算提出如此严厉的指控,编辑也没有想过要传递并附和他们的评论——但他们实际上已经通过“故意将AI生成的文本据为己有”而指控我在撒谎。他们还确信自己能够辨别我的写作和AI工具的写作——但他们显然无法。
我们需要能够揭露科学中的欺诈和不端行为。在我看来,那些指控数据欺诈的人付出的代价太高,而实施欺诈的后果太低。
但我担心的是,在这样一个世界里,审稿人可以随意提出欺诈指控,而编辑和期刊编辑只是简单地让审稿过程继续,并邀请重新提交。这不仅仅表明审稿人和编辑对投稿作者的科研诚信没有信心,而且还表明道德是可商议的。这样的世界似乎很容易被ChatGPT在毫不费力的情况下腐蚀——除非我们提高标准。
科学团体可以从在会议和研讨会上展开讨论开始,目标是制定更明确的、由科学界制的关于在论文写作过程中何时以及如何使用AI的标准,以及如何确认这种帮助。这些标准可以帮助编辑开发更好的处理AI生成文本指控的流程,理想情况下,以一种对作者来说不那么令人沮丧的方式。
至于我,我现在计划从第一天开始就使用Git和GitHub进行所有写作,并记录每天的更改,以展示稿件是独立完成的,而且没有使用ChatGPT。
这也引发了不少网友的讨论。有人表示大模型带来的这个问题属“意料之外、情理之中”:如果LLM足够好,能够做到人们期望他们做的事情,那么,其自然结果就是破人们不再信任任何写出来的东西。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/259968.html