论述人工智能生成内容造成的机遇、挑战以及可能的治理路径。

妍芳新传2024-08-14 00:08:52  105

新媒体类真题速递

论述人工智能生成内容造成的机遇、挑战以及可能的治理路径。

材料:一段关于生成式人工智能管理办法及其意义的材料。

真题出处

1

2

答题思路:关键词限定为“人工智能生成内容”,根据材料论述机遇、挑战以及治理三方面,缺一不可,言之有理即可。

参考答案

ChatGPT的广泛应用引发了新闻业对于人工智能生成内容的广泛关注。AIGC技术作为一支独立的力量进入新闻生产环节,使得新闻生产更加智能、便捷和高效,不仅真正开启了智能生产时代,带来新闻生产力的普惠,还催生出问答式新闻等以用户兴趣为逻辑起点的新产品样态。与此同时,由于技术发展的不确定性,AIGC对新闻生产的渗透也潜藏着版权争议、虚假新闻以及价值偏差等种种社会管理和媒介生态的隐忧,值得关注。

一、生成式人工智能带来的机遇

(一)AI作为辅助工具:新闻生产力的普惠

尽管以Chat GPT为代表的生成式人工智能已经作为独立主体进入新闻生产环节,但是囿于新闻产品的特殊属性和人工智能技术本身的发展,新闻生产、新闻始终以人自身为目的,新闻生产的终极主体只能是人。因此在未来的很长一段时间内,人工智能生成技术对于新闻业的发展更多是作为一种辅助性工具而存在,它使得新闻生产智能化、职业创作深度化、用户内容生产优质化,带来了新闻生产力的普惠,实现了新闻产品总量的指数级增长和质量的大幅跃升。

(二)问答式新闻:一种以用户兴趣为逻辑起点的新产品样态

技术对传媒的影响不仅表现在重塑新闻业的底层运行逻辑、重构新闻价值产业链等宏观和中观层面,也表现在催生新的新闻样态这一微观层面上。以Chat GPT为代表的生成式AI应用于新闻生产将促成“问答式新闻”的诞生,这种基于个体需要和自身兴趣的信息获取活动能够有效提升用户的参与感,挑战既定的以传者为中心的“新闻报道论”,成为智能媒体未来的一个主要发展方向。

二、生成式人工智能带来的挑战

(一)“披露未许可”和“虚假不真实”风险

AIGC的信息数据来自现实世界与虚拟构想。一方面,AIGC的数据资源取材于互联网等信息基础设施,来源渠道日益便捷且丰富多源,所获取的文本、图片、声音、视频等数据资源,在披露和智能化使用过程中,不排除会波及到他人肖像权、名誉权、个人隐私、知识产权、商业秘密,在数据资源方未许可之前,利用披露行为就会造成信息保护的争议,派生出“披露未许可”风险。另一方面,AIGC仅借助于算力工具,通过AI技术与虚拟环境不同的场景描绘、不同的元素讯息、不同的事件情节等相结合,演化成为数据集的种种缺陷,并不经意间融入内容生成的脉络中,产生一种虚假的场景信息,派生出“虚假不真实”风险。

(二)“偏见放大”和“偏差隐藏”风险

AIGC的算法主体嵌入过程,是一种技术植入及主导内容生成的过程。在这一过程中,算法主体的固有局限和算法技术的固有缺陷,会递进演化为AIGC的风险源。在风险传递过程中,算法主体的固有局限会进行交互作用,特别是多个不同算法主体进行交错和叠加时,嵌入的AI技术本身携带的主体局限也会交错叠加,导致最终的风险大于单个主体局限所包含的风险之和,呈现出一种乘积式的“放大效应”。同时,算法技术本身存在的固有缺陷还在进化中,突出表现为算法技术缺陷不易被发现或不透明,这种不透明的缺陷是不能直观感受到的,而仅当一定的生态条件具备时,这种缺陷才可被推理解释出来或显性地透露出来。

(三)“被恶意使用”和“不道德取利”风险

在AIGC的社会空间重构过程中,参与主体、使用主体、支持主体的种类进行重组,导致其空间性质的改变,特别是在新主体对空间性质形成主导作用后,AIGC的空间性质会以新主体的主导取向为基准,在缺乏规治前提下,存在把AIGC的功能引导到变异取向上的可能,从而产生恶意使用的导向风险。同时,在AIGC社会空间构成主体的重组过程中,AIGC空间还会产生新的特性,这种特性如果被不正当利用,就会危及AIGC空间安全。

三、人工智能生成内容的风险应对策略

(一)开展AI数据的审查治理

在个体“隐私保护”和虚拟数据计算生成“说明责任”的诉求原则下,有必要开展AIGC的信息数据来源的审视治理:一方面,全面推动预训练数据,优化训练数据来源的合法性审查,确保用于生成内容信息来源的正当性,防止个人隐私被侵犯的情形发生;另一方面,要求AIGC的平台企业,为表明虚拟数据特别是场景信息的真实性水平,有责任说明虚拟数据生成的合理性,以促进数据正义。

(二)算法和内容同步治理

一方面要推动“以伦理为基准的算法设计”与“以内容为对象的风险治理”协同共振,根据内容评析及时纠正算法代码的偏见偏差,防止偏见内容的生成及其扩散使用,避免造成偏差及社会歧视性问题;另一方面,探索制定智能生成内容与算法同步治理的通用标准,强化法律跟进护航,明确智能化技术主体的算法“透明性”法律责任及生成内容的“可解释性”法律责任,实现负责任的算法设计与内容创新。

(三)推动对象治理转向生态治理

一方面要立足于AIGC背后人与人之间的协作关系,不再仅仅停留在对新闻、广告、邮件等内容对象的治理层面,而是要扩展到AI算法主体、平台运管投主体、使用主体等内容生成的“生态系统”层面,严防第三方主体的钓鱼欺诈等侵害行为生成;另一方面,强化底线思维,赋能和增强政府责任,从而实现对数据进行分级分类管理。

ChatGPT引领的AIGC技术,作为一种新的创制工具正向无时不有、无处不在的方向演进,加速人类的内容生产力进程。正如艾伦·图灵所说“这不过是将来之事的前奏,也是将来之事的影子”。

参考文献:

[1]谢梅,王世龙.ChatGPT出圈后人工智能生成内容的风险类型及其治理[J].新闻界,2023(08):51-60.

转载此文是出于传递更多信息目的。若来源标注错误或侵犯了您的合法权益,请与本站联系,我们将及时更正、删除、谢谢。
https://www.414w.com/read/1111065.html
0
最新回复(1)