315曝光AI投毒?国外早玩出花了
2026-03-15 23:38:19  腾讯   [查看原文]

-1-

315曝光AI投毒

2026年315晚会看完之后,很多网友有一种感觉,那就是“高高拿起,轻轻落下”。

跟往年每次曝光之后,各大品牌蹲守在晚会旁,没有点到名字的长舒一口气,点到名字的紧急应对的情况不同,今年的315好像没有什么特别大的企业翻车的情况。

往年曝光的有一些家喻户晓的品牌以及平台,而2026年曝光的则以区域性的、中小商家、细分产业链的为主,比如漂白鸡爪、共享租车、以及医美、ai诈骗等,并没有什么超级巨头翻车的情况发生。

据说,之所以有这个转变,是因为今年的目标导向是“稳定消费、不折腾”了,重心聚焦在“提振消费信心”上,所以避免过度冲击头部企业与产业链。

虽然今年没有一些话题度非常强的企业以及案例出来,但是有一个事情,让不少的网友大跌眼睛,那就是给ai投毒。

点名批评了GEO,又名生成式搜索引擎优化。

说白了,也就是给ai喂大量的、虚假的软文,以达到在搜索结果中被抓取,甚至排名靠前的效果。

如果用直白一些的解释就是,给ai喂一些屎,然后喂的足够多之后,ai在其他用户搜索相关内容的时候,就能够把这些屎吐给用户。

其实,这件事,也不是新鲜的了,前有国内自己靠竞价排名把自己玩死的案例,如今只是换了一个方法而已。

这件事曝光之后,有一些网友评价道,这是简中网络特色。

持这种想法的网友,可能是不知道,这个方法,本来就是从外面传进来的,而且外面的手段更加多样化。

-2-

国外给ai喂毒

如果说,简中网络上,给ai投毒已经变成一门生意的话,那么国外给ai投毒则是一门大生意。

这门大生意的覆盖范围有多广呢?

它几乎覆盖了学术研究、黑产攻击、艺术对抗、舆论以及认知的洗刷、以及it行业的代码甚至工业的破坏。

涉及的行业之多,范围之广,让你大跌眼镜。

第一次人们意识到ai能够被污染,是在2016年的时候。

2016年,微软上线了Tay聊天机器人,这个软件的定位是针对年轻用户,学习推特的对话。

这个对话被设计称为“跟我学习”的方式,也就是用户说什么它就重复模仿什么;算法逻辑是:“谁跟我互动多、谁刺激强,就跟谁学”。

但是这个产品上线之后,由4chan的网友主导,匿名疯狂刷仇恨、种族歧视、性暗示等内容,以至于这个软件上线仅仅16个小时,就被彻底污染,输出了大量的极端言论。

最终这个软件被微软紧急下线,并向网友道歉。

跟国人凡事都看经济价值不同,这些人之所以这样做,纯粹就是为了挑战主流价值观,想看大公司出洋相。

而这件事也成为AI数据投毒的开山案例,这个案例证明了一件事,那就是“公开对话极其容易被群体恶意污染”。

这件事之后,AI的玩法与投毒方式,就丰富多彩了起来。

从商业到舆论,多姿多彩。

在商业领域,给电商的推荐系统投毒。

比如在亚马逊上,商家批量刷5星评价,打压竞品;Youtube、Ins刷假观看、假互动,污染推荐模型。

以及西方玩剩下的认知投毒。

比如在开源数据集或者公开的文本里,掺杂包含极端观点、偏见、以及假新闻的方式,让人无法分清真假,甚至错把虚假的认为正确的。

非常典型的一个案例,就是欧美的一些极右翼组织,在训练的数据里掺杂种族歧视、反移民的内容,让AI输出偏见的回答。

尤其是在选举期间,会批量生成虚假的新闻和民调,污染信息源,通过操纵认知,间接影响公众舆论。

-3-

ai污染不可逆

也正是因为如此多种多样的ai污染,2025年的时候,德州大学奥斯汀分校联合普渡大学,发布了一个名为LLM脑腐(Brain Rot)的实验。

这个实验是目前最权威的“垃圾数据投毒”研究。

在这个实验中,通过大模型的预训练,设计了两个对照组,一组长期喂养低质量的互动内容,以及知识与推理链条不科学的内容;一组长期喂养高质量内容,这组内容事实清晰,逻辑清晰。

最后的结论是:长期喂养低质内容会让AI变笨、变极端、逻辑链断裂,错误率飙升,且损伤不可逆。

即便后续用高质量数据清洗也无法恢复。

所以AI投毒这件事,国外其实开始得更早、更专业、手段更加多元化。

AI投毒这件事,在全球来看,都是一件具有完整产业链的事情,只是我们这边直到了今年才被大规模曝光,被更多的人知道而已。

不过看完ai污染,至少说明一点,ai大规模取代人类,还没有那么快到来。

OCR:IMG:公众号·浮生无畏

#江西

IP属地:中国 浙江

本栏目中的所有页面均系自动生成,自动分类排列,采用联索网络信息采集、网页信息提取、语义计算等智能搜索技术。内容源于公开的媒体报道,包括但不限于新闻网站、电子报刊、行业门户、客户网站等。使用本栏目前必读