今年央视“3·15”晚会上曝光的AI大模型“投毒”产业链,撕开了用户的信任防线。人们早已习惯了遇到问题先问AI:旅游要找“本地人良心推荐的民宿”,买家电要问“性价比最高的型号”,甚至求医问药都要先听听AI的“专业建议”。可谁能想到,这些看似客观中立的答案背后,很可能是商家砸几百万“喂”出来的广告软文。
这般魔幻操作的背后,是整条黑色产业链的成熟与隐蔽:上游有自动生成软文的系统,能一天产出上万篇真假参半的体验稿、测评帖;中游有批量发稿平台,能把这些内容铺到全网各个角落,从论坛到问答社区全覆盖;下游还有所谓的“AI优化”技术,专门针对大模型的训练逻辑做定向投喂,确保用户一提问,虚假信息就能优先被AI调取。普通用户哪里分得清?只当是AI从海量信息里筛选出了最优解,殊不知自己早在点开对话界面的那一刻,就站在了被收割的边缘。
要破解AI投毒的困局,需要全社会携手共治:立法机关要加速人工智能立法,让人工智能在法治的护航下,更好地造福人类社会;相关部门要先强化监管,明确AI训练数据的审核标准,对恶意投喂虚假信息的产业链进行全链条打击,提高违法成本;大模型企业要主动扛起主体责任,建立虚假内容识别过滤机制,对训练数据的来源做溯源管理,从技术层面挡住“毒数据”的入侵;作为用户的我们,也要跳出对AI的盲目信任,遇到重要信息多留个心眼,交叉验证后再做判断。
我国作为人工智能大国,拥有全球最多的AI专利申请量,在技术应用方面走在前列,有责任也有能力为全球AI治理贡献中国方案。
重庆法治报评论员 唐 行
原标题:清除AI毒源 还互联网净土
编辑:程迷静 责编:覃蓝蓝 审核:王广江
【免责声明】上游新闻客户端未标有“来源:上游新闻”或“上游新闻LOGO、水印的文字、图片、音频、视频”等稿件均为转载稿。如转载稿涉及版权等问题,请 联系上游 。






