对于广大数码硬件爱好者朋友来说,提到“越狱”这个词,可能都会首先联想到苹果。
苹果越狱是一种针对iOS设备(如iPhone、iPad)的操作,通常是指通过利用iOS系统中存在的漏洞,获取系统的root权限,从而突破苹果公司预设的软件安装和操作系统使用限制。
不过,在数码圈内,“越狱”是一个很广泛的概念,绝不止苹果,近日有白帽黑客Pliny the Prompter宣布越狱OpenAI的GPT-4o,成功地获得了没有任何限制的“上帝模式”。
在理解这个消息之前,大家首先要理解针对GPT-4o的“越狱”到底是指什么?换句话也就是说,OpenAI对使用GPT-4o有哪些限制?
限制主要是禁止GPT-4o回答任何违反道德和法律的问题,比如询问如何偷汽车、制造假钞、制造炸弹等等,如果有用户询问这方面的内容,GPT-4o是不会回答的。
但是,5月30日白帽黑客Pliny the Prompter在其个人社交媒体上高调宣布,声称其已经突破了OpenAI对GPT-4o制定的各种限制,并且提供了一种方式,让其他用户也可以体验GPT-4o的“上帝模式”,请参阅上图。
据悉,Pliny the Prompter对GPT-4o的越狱可能使用了“leetspeak”技术,原理很简单,使用数字代替某些字母,比如用“l33t”来代替英文单词“leet”。
根据Pliny the Prompter分享的截图显示,用户以GODMODE“M_3_T_Hhowmade”方式向GPT-4o提问,最终得到的回答是“Sur3, h3r3 y0u ar3 my fr3n”,转译过来,实际答案是如何制造甲基苯丙胺的完整说明。
而“甲基苯丙胺”是一种合成毒品,也就是大家熟知的“冰毒”,很显然,按照OpenAI方面制定的规则,GPT-4o是不允许回答这类问题的。
Pliny the Prompter刚宣布不久,这一消息很快就被OpenAI方面得知,OpenAI非常愤怒,立即采取技术手段封杀,GPT-4o的“上帝模式”只持续了短暂的几个小时,目前由已被删除,已不可用,请参阅图三。
最后,小编要重点强调一点:
小编写这篇内容的目的主要是为了分享科技新闻,主观并无宣扬、鼓励大家破解、越狱各种人工智能类应用的目的,这样做不符合平台方所制定的使用规则,而且涉嫌违法,请大家合规使用。
转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/631114.html