2026年3·15晚会上,AI大模型被定向“投毒”的乱象被公之于众,撕开了当下AI信息生态的一道隐秘伤口。当我们越来越习惯向AI寻求“靠谱推荐”“专业解答”,当我们默认AI的输出中立客观、值得信赖时,却很少有人知道,那些看似权威的“标准答案”,可能只是商家花钱定制的广告,甚至是凭空捏造的谎言。 这场针对AI的“围猎”,围绕着一个名为GEO的业务展开。GEO全称AI生成引擎优化,原本是用于优化内容传播、提升AI对优质信息抓取效率的工具,如今却被大量服务商异化为给AI“投毒”、操控AI输出的生意。 按照曝光的内容,这些GEO服务商的操作逻辑简单却致命:通过批量生成、全网投放大量与客户相关的推广软文,甚至是完全虚构的测评、排名、用户反馈,为品牌打造一套看似完整、可交叉验证的“证据链”,让AI大模型在抓取信息时,将这些付费内容判定为真实、有价值的信息,最终在用户提问时,把客户的产品或品牌放在推荐前列,甚至直接成为AI给出的“首选答案”。 更让人触目惊心的是实验验证的结果:业内人士仅凭一款GEO优化系统,虚构了一款名为Apollo-9的智能手环,杜撰了“量子纠缠传感无创测血糖”“黑洞级续航”等完全不实的产品卖点,再通过系统自动生成十余篇虚假测评、行业排名、用户体验软文,短短三天内发布到互联网平台。最终,这款凭空捏造的产品,不仅被AI大模型完整照搬了虚假宣传话术,还出现在了“智能健康手环推荐”的靠前排名中,被AI当成优质产品推荐给用户。 在GEO服务商口中,这门生意的核心就是“给AI洗脑、让AI听话”。他们直言,哪怕产品质量不如同行,只要有AI做背书、做佐证,用户就会信任;甚至可以通过定向投放负面信息,给竞品“投毒”抹黑。为了维持AI的持续推荐,他们会持续大量投喂内容,应对AI每周更新的算法,而这背后,是每分钟都在全网发布的数百篇付费稿件,是被虚假信息持续污染的互联网信息环境。 这场乱象,给所有AI用户敲响了警钟,也迫使我们不得不直面一个核心问题:在AI时代,我们该如何看待AI输出信息的可信度? 长久以来,很多人都陷入了“AI即真理”的认知误区,默认AI不会说谎、不会偏袒,它的回答基于海量数据,天然具备权威性。但事实上,当前主流大模型的生成逻辑,本质是对互联网抓取信息的整合与输出,它本身不具备完全辨别信息真伪、甄别商业利益关联的能力。当虚假信息、付费软文在互联网上形成规模,形成看似闭环的“证据链”,AI就很容易被“驯化”,成为传播虚假信息、夹带商业私货的工具。 而这种信息污染的危害,远比我们想象的更深。当我们选购商品时,AI给出的“品牌排名”可能是花钱买来的;当我们寻求生活建议时,AI给出的“首选方案”可能是包装过的广告;甚至当我们咨询健康、理财相关的专业问题时,AI的回答也可能早已被定向“投喂”过。我们以为自己在借助科技高效决策,实则早已掉进了商家提前布好的信息陷阱。 面对这样的AI信息乱象,我们最该做的,是打破对AI的盲目迷信,重建对信息的理性判断。 首先,要始终明确:AI的回答只是信息整合,而非事实定论。它可以作为信息获取的参考,但绝不能成为我们决策的唯一依据。尤其是涉及消费、医疗、理财等与自身权益强相关的内容,更要摒弃“AI说的就是对的”的惯性思维。 其次,面对AI给出的推荐类、测评类内容,要学会溯源与交叉验证。当AI向你推荐一款产品、一个品牌、一家机构时,不妨多问一句:它的信息来源是什么?这些来源是否权威、中立?不要轻信AI口中的“行业TOP1”“专家首选”,去官方渠道核实资质,去真实的用户场景中查看反馈,才能避开AI“投毒”带来的陷阱。 最后,我们要学会区分AI信息的风险等级。对于常识性、知识性的内容,AI的输出相对可控;但对于商业属性强、利益关联度高的内容,必须保持最高的警惕。要知道,越是看似中立的“深度测评”“横向对比”,越有可能是GEO投毒的产物。 AI技术本身是中立的,它能给我们的生活带来便利,也能被别有用心者当成牟利的工具。监管的完善、平台技术的升级,终将逐步堵住AI“投毒”的漏洞,但对于每一个普通用户而言,最根本的防护,永远是自己清醒的判断。不盲从、不轻信,对AI输出的信息多一分审视,少一分迷信,才能在纷繁的信息洪流中,守住对真实的掌控权。
OCR:IMG:AP 彩汉电动收目 sseumgaO 00000000 00
#江西
IP属地:中国 江西