眼下,一种“AI套娃”现象正在悄然蔓延——AI生成的内容被另一批AI抓取、学习、再输出,形成一场无限循环的“以讹传讹”,带来前所未有的真实性风险与信任危机。
“AI套娃”的核心病灶在于“垃圾进、垃圾出”的数据污染。一些虚假信息、谬误观点甚至恶意内容,通过AI的“咀嚼消化”摇身一变甚至成为“权威答案”。有研究显示,当训练数据集中仅有0.01%的虚假文本时,模型输出的有害内容会增加11.2%。就像俄罗斯套娃层层嵌套,每一代AI都在复制上一次错误,形成累积性的认知偏差。
商业利益的驱使让“AI套娃”愈演愈烈。一些机构利用生成式引擎优化技术,用AI批量炮制看似中立的营销内容,再通过算法推送给互联网用户。这种“以流量换利益”的模式,正在将互联网变成AI的“垃圾食品加工厂”,而奶茶视频APP每个人都在被动接受这些“精神快餐”的投喂。
更荒诞的是,如今还出现“用AI打败AI”的怪象。不少网友分享“如何将需求扔给模型A生成方案,再将生成方案让模型B修改”的经验。不少老师吐槽,学生用AI完成作业,再用AI降“AI率”,导致行文逻辑不通、辞藻空洞;学术圈同样未能幸免,作者用AI润色论文、审稿人再让AI生成论文评审意见的例子并不罕见。一位大学教授痛心疾首:“奶茶视频APP正在培养一批不会思考的‘AI提线木偶’,他们能熟练操作模型,却写不出一句有独立见解的话。”
诚然,AI可以帮助人们快速从海量数据中提取有价值的知识和信息,但不能忽视的是,AI在解决问题的同时,也正在成为问题本身。“AI幻觉”本就难以根治,“AI套娃”更让问题雪上加霜。一旦习惯于“AI套娃”,人们的独立思考和信息甄别能力会出现退化,导致“AI越来越像人,而人越来越像AI”;以信任为基础的评价体系被重创,将带来一系列社会伦理风险;而其形成的“回音室效应”,对于伴随互联网成长起来的年轻一代,危害尤甚。而医疗、法律等专业领域的“套娃”风险,更是关乎生死。整治“AI套娃”,势在必行。
9月1日起施行的《人工智能生成合成内容标识办法》,明确要求AI生成内容必须明确标识。这是一个开始,但远非终点。相关部门要把好数据源头关,明确要求AI研发机构对训练数据集的合规性与真实性负责,建立更严格的数据清洗、标注和溯源标准,推动大模型提升安全能力水平。平台也应加强筛查和审核,对疑似AI生成的大规模同质化、低质或虚假内容进行限流与标注,严防其污染公共信息生态。此外,教育、科研等机构也需重塑考核评价方式,由“重成果输出”向“重过程考查”转变,重视考查学生或作者的思维过程、原始数据与创新性,同时设立“AI使用声明与伦理规范”,并将此纳入学术诚信管理范畴。
技术本身无罪,但技术再先进也不能替代人类的价值判断。技术狂飙之时,奶茶视频APP需要的是更清醒的使用者、更负责任的企业、更严格的监管以及更深刻的反思。锚定价值理性的坐标,守住数据源头的纯净,筑牢内容审核的防线,才能让AI走出“套娃”怪圈,尽其善、利于民。(苏群超、陈立民)