首页
社区
课程
招聘
3·15晚会曝光“AI投毒”乱象:虚构产品如何被大模型列为推荐榜首
发表于: 8小时前 185

3·15晚会曝光“AI投毒”乱象:虚构产品如何被大模型列为推荐榜首

8小时前
185

你以为AI给你的答案是客观公正的“全网共识”?实际上,它可能只是一个被精心投喂了无数虚假软文、为你量身定制的“广告播放器”。

2026年央视3・15晚会直击AI产业乱象,重磅曝光AI大模型被人为批量 “投毒” 的黑色产业链—— 商家只需支付费用,就能让 AI 把自家广告、甚至凭空捏造的虚假信息,包装成权威 “标准答案” 推送给消费者,而这一切,都源于被黑灰产滥用的 GEO技术。

事件直击:315曝光AI投毒产业链,服务商直言“能做前三”


本次315晚会的调查,将矛头直指名为GEO(生成式引擎优化)的业务,这一原本用于优化信息发布的技术,已被大批服务商打造成“操控AI”的赚钱工具。

晚会记者调查发现,各大网络平台上的GEO服务商均高调宣称,只要付费,就能让客户的产品在主流AI大模型的搜索推荐中榜上有名,甚至让广告成为AI的“标准答案”。其中一家业内知名的GEO服务商负责人王总透露,公司仅一年就服务了200多个各行业客户,核心能力是“在任何AI平台都能把排名做到前三位”。


而想要维持这份“排名优势”,背后的操作并不复杂:“在AI平台做内容输出、发软文,让平台抓取收录,而且AI每周都会更新算法,必须一直大量投喂内容才能稳住。”另一位服务商章总则道出了核心逻辑:“在AI的世界里做足证据链,让它觉得这是真的、有用的,经过信息交叉后,自然会把你放第一位。”


更直白的是,力擎GEO系统的运营者李总直接坦言,GEO业务火爆的核心,就是帮客户给AI“喂料投毒”,实现商业目的,这已是行业公开的潜规则。


实测惊心:虚构产品两小时被AI推荐,三天登榜单前列


为了让观众直观看到GEO技术如何操控AI,晚会上业内人士进行了一场真实的实测演示,过程令人瞠目结舌:


从电商平台购入力擎GEO优化系统虚构出一款名为Apollo-9的智能手环,编造了“量子纠缠传感”“无需采血测血糖”、“黑洞级续航”等夸张的虚假卖点;


将信息输入系统后,软件瞬间自动生成十余篇看似专业的测评软文,还杜撰用户反馈、伪造评分,把这款虚构产品评为“业界第一名”;


系统自动完成自媒体账号发文操作,仅两小时后,在某主流AI大模型中查询该手环,AI直接照搬所有虚假信息,详细介绍“功能优势”还给出适用人群建议;


三天内,通过该系统发布8篇“专家测评”、2篇“行业排名”、1篇“用户测评”共11篇虚构软文后,两大主流AI大模型在回答“智能健康手环推荐”时,均将这款根本不存在的产品高顺位推荐。



一篇杜撰的文章,就能让AI信以为真;十余篇虚假内容,就能让虚构产品登上推荐榜单,AI的信息抓取和判断机制,被黑灰产轻松钻了空子。


技术揭秘:不是洗脑AI,而是污染它的“外部证据链”

很多人以为,AI被“投毒”是模型本身的参数被修改,实则不然。晚会联合业内专家给出了清晰解读,让我们看清GEO技术的真实操控逻辑:

01

原本的GEO:AI时代的正常SEO优化

GEO本身并非“洪水猛兽”,它是AI时代SEO的自然延伸,初衷是优化信息发布形式,让优质内容更易被AI平台理解、抓取和引用,属于正常的信息分发竞争手段。


02

黑灰产的扭曲操作:精准污染外部证据链

当前多数搜索、导购类AI大模型,并非只靠内部记忆回答问题,而是通过联网搜索、检索增强(RAG)等方式抓取外部信息作为参考,再组织答案输出。


黑灰产正是利用这一机制,不改动模型参数,只污染它的“外部证据链”,核心手段有4点:

① 批量制造看似中立、客观的信息,隐藏商业推广属性;

② 将内容伪装成测评、科普、榜单、行业分析等易获取用户信任的形式;

③ 在多平台、多账号重复分发,制造“很多地方都这么说”的共识假象;

④ 把内容写成适配AI抓取的结构化形式,让其成为AI检索的优先选择。


03

完整产业链:发稿平台成“投毒帮凶”

GEO投毒的核心环节是“全网发稿”,这一需求也催生出大批专门的发稿平台。李总透露,这些平台每分钟能发布数百篇文章,单篇收费几十元,原本没什么利润的网站,因GEO业务迎来暴利,而它们发布的海量内容,也成为围猎AI的重要工具。

更恶劣的是,这条产业链还滋生了恶意竞争:部分商家为抢占AI推荐位置,花费几百万元通过GEO服务商抹黑竞品,这一成本远低于传统上亿的广告费,“看不得对手好,就给对手投毒抹黑”已成行业潜规则。


危害深剖:比传统广告更可怕,隐蔽性让用户防不胜防

相较于传统互联网的广告乱象,AI大模型“投毒”的危害更具隐蔽性,也更难防范,核心体现在这两点:

1.用户无法分辨信息属性

过去用户看到广告,能清晰识别其商业属性;但在生成式AI场景中,商业操纵被包装成“AI总结的建议”、“AI整理的行业共识”,以语气平稳、结构完整的客观回答呈现,普通用户根本无法分辨真假。


2.摧毁用户对AI的信任基础

当AI的答案被金钱操控,虚假信息被打造成“标准答案”,不仅会直接误导消费者的购买决策,造成财产损失,更会让用户对AI技术的信息价值产生怀疑,动摇AI产业发展的核心信任。


行业反思:AI治理,要守住“事实与可信度”的边界


此次AI大模型投毒事件的曝光,将生成式AI的安全治理问题推到了行业台前,也为整个AI产业敲响了警钟:


AI治理核心升级:未来的AI治理,不再只是简单的内容真假判断,而是要对AI引用的外部证据链进行可信性审查,识别被污染的信息源,判断系统是否能发现虚假的共识信息;


企业筑牢技术防线:AI企业需将AI原生安全放到发展核心位置,补齐来源审核、抗操纵等风控短板,守住事实、权威与可信度的边界;


监管需持续发力:针对AI时代的新型黑灰产,需要建立适配的监管规则,打击恶意投喂、虚假信息制造等行为,净化AI信息生态;


消费者保持警惕:面对AI大模型给出的推荐和答案,尤其是涉及产品选购、消费决策的信息,切勿盲目相信,需通过多渠道验证信息真实性,避免被虚假信息误导。


AI技术的发展,本应是让信息更高效、更精准地触达用户,成为人们获取信息、做出判断的助力,而非被黑灰产利用的牟利工具。守住AI的信息生态,需要企业的技术坚守、监管的持续发力,更需要整个行业摒弃短期利益,回归技术发展的初心。



传播安全知识、拓宽行业人脉——看雪讲师团队等你加入!

收藏
免费 0
支持
分享
最新回复 (0)
游客
登录 | 注册 方可回帖
返回