我本以为前段时间“ DeepSeek 向王一博道歉”那事,已经(yǐ jīng)够离谱了,没想到只是道开胃小菜(xiǎo cài),AI 又开始“愚乐”大众了。
可能还有朋友(péng yǒu)没吃到这个瓜,我先简单回顾(huí gù)一下前情。大致剧情就是,一群粉丝(fěn sī)对着 DeepSeek 一顿奋力“拷打”,硬是让 AI 吐出(tǔ chū)了一份给王一博的道歉声明,甚至(shèn zhì)还贴心地附上了一份法院判决书📖(pàn jué shū)。
紧接着,她们就拿着这份“铁证”,全网(quán wǎng)奔走相告:“看!DeepSeek 已经向王一博认错了!”
如果(rú guǒ)这只是粉丝圈内部的一场自(zì)嗨狂欢也罢了,但真正的魔幻(mó huàn),从这里才刚刚开始。
很快,诸如《演员王一博案(wáng yī bó àn),判了!》这类报道开始在网上(wǎng shàng)疯传,其中不乏一些正规媒体的身影(shēn yǐng)。而他们言之凿凿引用的信源,居然就是(jiù shì)上面那份由粉丝威逼利诱、AI 连蒙带猜生成(shēng chéng)的“赛博判决书📖”。
当然,后来终于有人回过(huí guò)味儿来,这些报道才被悄悄撤(chè)下,顺手把锅甩给了“ AI 幻觉(huàn jué)”。
作为一个长期观察 AI 领域的作者,我(wǒ)原以为的基本常识,没想到如此不堪一击,心里有(yǒu)了一丝不祥的预感。
果不其然,昨天我(wǒ)又被一条 #DeepSeekR2 或 8 月发布 # 的消息(xiāo xī)吸引了——毕竟,这个 R2 可等太久了(le)。我满怀期待地点开报道,定睛一看,血🩸压(xuè yā)又上来了:所谓的信源,居然还是(hái shì)跟 DeepSeek 聊天聊出来的。

尽管那位记者(jì zhě)在文中提了一句“ DeepSeek 未官宣”,但转头(zhuǎn tóu)就把自己跟 AI 的聊天记录当成了(le)佐证,这相当于还是把 AI 当成了可(kě)参考的信源。
这还没完,微博智搜(sōu)这类 AI 搜索产品迅速收录了这条“新闻(xīn wén)”,当其他用户再来搜索时,看到(kàn dào)的是被多家媒体引用的“事实(shì shí)”。

稍微搜一搜,这样的“ AI 新闻”还不少(bù shǎo)。
至此,一个完美的信息污染闭环,也(yě)就是传说中的“给 AI 喂屎”流程(liú chéng),宣告完成:
人类引导→ AI 制造幻觉→媒体放大(fàng dà)幻觉→ AI 反刍幻觉→不明真相的群众吃下(xià)幻觉

AI 幻觉不是什么新鲜事。前 OpenAI 科学家 Beth Barnes 就(jiù)说过,AI 在处理涉及人类声誉、价值观(jià zhí guān)等复杂问题时,更容易犯事实性(shì shí xìng)错误,而且这些错误还往往被包装(bāo zhuāng)得逻辑自洽、极具迷惑性。
但真正的(de)问题,从来不在于 AI 有多会编故事,而在于(zài yú)我们,正变得越来越愿意相信它。
有(yǒu)报告说,近四成的 Z 世代员工宁愿(nìng yuàn)相信 AI 也不相信人类同事,理由是(shì) AI “从不评价”且“有求必应”。
再看一个数据(shù jù),ChatGPT 的周活用户已达 7 亿,日提问量(liàng)逼近 Google 日搜索量的五分之一。
最近 GPT-5 发布(fā bù)后引起了用户的集体抗议,强烈呼吁(qiáng liè hū yù) 4o 回归,理由竟是它提供了无法替代(tì dài)的“情绪价值”,被誉为“赛博白月光”。
我们(wǒ men)与 AI 聊得越多,对它的依赖(yī lài)和信任就越深。
这种信任甚至催生(cuī shēng)了“赛博精神病”。不少美国记者都收到(shōu dào)过一些读者的邮件,他们深信 AI 已经(yǐ jīng)觉醒,即将终结人类,并号召大家立即行动(lì jí xíng dòng)起来。
记者们一追问才发现,这些(zhè xiē)末日警告的源头,全都是跟 ChatGPT 聊天(liáo tiān)聊出来的。而这些用户异常坚定(jiān dìng),理由只有一个——“ GPT 说的,那还能(néng)有假?”
之前和菜头在谈论“ DeepSeek 道歉事件(shì jiàn)”时说,这恰好证明了 AI 无法取代人类(rén lèi),因为我们总需要一个“看门人”角色,由(yóu)活人做出最终裁决。
但从最近这(zhè)一连串的闹剧来看,人类这个“看门人”当得(dāng dé)也未必合格。无论是主动利用 AI 制造假新闻(jiǎ xīn wén),还是专业媒体轻信 AI 的胡说八道,归根结底,不是(bú shì)坏,就是蠢。
这里的“蠢”,并非指(zhǐ)智商,而是指面对 AI 这个飞速迭代的(de)新事物时,我们普遍缺乏基本的(de)认知,甚至产生了一种不该有的(de)科技崇拜,把它当成了一种信息(xìn xī)权威。
当然,这也很难全怪用户(yòng hù)。如果看个新闻刷个视频,都得像(xiàng)调查记者一样进行交叉验证核查事实(shì shí),那也太累了——看看这届毕业生被(bèi) AI 论文查重逼成了啥样。
AI 公司能(néng)做的有限,要应对 AI 幻觉,单靠提升(tí shēng)模型能力远远不够。APPSO 之前也提到,幻觉是(shì)大语言模型的特性,而非 bug ——若(ruò)停止生成新 token,AI 将失去其“魔力”。因此(yīn cǐ),关键在于管理幻觉,而非消除它。
我们(wǒ men)也不要总把锅甩给 AI。虚假(xū jiǎ)信息泛滥在人类历史上实在不(bù)新鲜,每次都伴随着信息传播技术(jì shù)的革命。
16 世纪的印刷术,曾让猎巫(liè wū)手册以前所未有的速度传播;互联网时代(shí dài),垃圾邮件和网络谣言更是野火烧不尽。

不同的(de),只是信息污染的模式升级。AI 让谎言(huǎng yán)进入了“工业化时代”,让那些看似权威(quán wēi)、逻辑自洽的虚假信息可以被轻易(qīng yì)地批量生产。对,视频也能 P 了。
在(zài)这条流水线上,每一个不假思索、全盘接受的(de)用户,都是源源不断提供着的原材料(yuán cái liào)。
真正的解药💊,不在于给 AI 打上(shàng)多少“补丁”,而在于我们能否直面一个(yí gè)残酷的现实:在一个可以轻易获得(huò dé)任何“答案”和“慰藉”的时代,我们还(hái)能丢掉“电子奶嘴”多费费脑思考(sī kǎo)吗?









