点击右上角微信好友
朋友圈
请使用浏览器分享功能进行分享
伴随生成式人工智能应用遍地开花,网络空间正变得空前“热闹多元”。
借助多模态生成能力,AI能将文字、图像、视频相互转换。一键“文生图”“图生视频”,极大降低了创作门槛,颠覆性地重构了内容生产逻辑。
2024年2月,中国首部全流程AI制作的国风动画《补天》预告片发布,其画面细节与叙事流畅度让不少人称赞,这是中央人民广播电视总台依托AI大模型“央视听媒体大模型”实现的突破。小红书、抖音等社交媒体平台将AI生成工具内置,更多天马行空的灵感顺畅落地,更多普通人享受到内容创作的快乐。
AI工具让平台内容生产效率和用户活跃度增加,但同质化内容和虚假信息等问题也如影随形。
一方面,AIGC技术的迭代既让内容创作更“丝滑”,又让虚假内容变得更易生成、更难分辨。有些人不了解“AI幻觉”的特性,错将AI生成的错误信息当作事实进行传播,造成广泛误解;还有人为了挑动情绪、博人眼球、获取流量,有意使用AI创作虚假内容,混淆视听,危害舆论环境。还有部分平台为追求流量,默许AI生成的虚假、低质乃至侵权内容传播。曾有平台未经授权,使用用户形象生成争议图片,最终被诉至法院。
另一方面,AIGC技术的广泛应用让创作者得以从贯通古今、跨越四海的作品中汲取灵感,但也带来版权争议,挤压优质原创内容的生存空间。2024年6月,北京互联网法院审理全国首例AI绘画侵权案,四名插画师指控某AI软件未经许可使用其作品训练模型。虽然法院尚未最终判决,但可以看出,海量训练素材的权属模糊,导致部分原创作者不仅没有获得报酬或者署名,反而面临收入减少和侵权困扰。
因此,想要真正让AI给网络内容生态带来积极影响,互联网平台、政府机构、媒体、公众必须加强协同,构建“法律—技术—伦理—行业”的四维治理框架。
在法治建设方面,AIGC的标识义务与侵权责任需进一步明确。2024年6月工业和信息化部等四部门联合印发的《国家人工智能产业综合标准化体系建设指南》就已迈出关键一步。
在技术制衡方面,互联网平台应积极探索“用AI治理AI”,增强机器识别能力。在AI技术无法处理复杂情况的当下,也要提升人工审核的效能,培养医疗、健康、财经等领域的专业审核人员,加大对AI生成内容的审核与处罚力度。
在伦理秩序方面,应建立平台、创作者、用户的版权保护机制。平台需要做好技术的“守门员”,加强跨平台版权保护合作。开展同质化专项治理,对抄袭、洗稿等采取“零容忍”处理,为原创作者提供更完善、便捷的维权通路。
在公众参与方面,平台应与媒体、政府机构携手,加强对网民的数字化教育,尤其是辟谣教育。正如部分平台推出的“辟谣小课堂”公益活动,揭露AI诈骗套路,讲解AI反诈知识。
说到底,AI大模型本身是中立的,带来什么样的结果,取决于人类如何作为。生成式人工智能技术正以前所未有的方式加速内容的生产与流动,想要充分释放其潜能,就必须坚守“内容为本、人文为魂”,既“用好”AI,发挥其多模态内容快速生产的优势,也“管好”AI,遏制技术发展成熟进程中产生的种种乱象,警惕生成式大模型技术对网络内容生态的负面影响。
(作者陆洪磊为清华大学新闻与传播学院副教授)