![]()
周末的重慶汽車論壇上,吉利楊學(xué)良的一番發(fā)言,把沉寂一段時(shí)間的“油箱門”事件重新推向了風(fēng)口浪尖。
隨后比亞迪李云飛也發(fā)文指出:浙江某車企在2019至2023年間部分車型曾使用常壓油箱。
雖然據(jù)相關(guān)人士透露,這條微博在比亞迪董事長(zhǎng)王傳?!叭倘倘?,和為貴”指導(dǎo)下,僅存活了約8個(gè)小時(shí)后就被“下架”。但圍繞油箱門爭(zhēng)議已經(jīng)如野火般蔓延開來(lái)。
一位抖音運(yùn)營(yíng)人士告訴筆者,自周六以來(lái),該話題的整體熱度持續(xù)走高,并迅速突破平臺(tái)算法一般話題的“常規(guī)閾值”。
筆者翻閱各大短視頻平臺(tái)評(píng)論區(qū)時(shí),注意到了一種愈發(fā)離奇的現(xiàn)象——AI已經(jīng)以一種“幻覺生成器”的身份,卷入了這場(chǎng)汽車技術(shù)爭(zhēng)議。
![]()
在相關(guān)視頻的評(píng)論區(qū),大量用戶貼出豆包AI生成的搜索截圖,聲稱“吉利某某車型搭載常壓油箱”。截圖被不斷轉(zhuǎn)發(fā)、拼接、放大,成為評(píng)論戰(zhàn)中的“技術(shù)錘”。而當(dāng)筆者親自在豆包AI中輸入類似問(wèn)題后,看到的“引用資料”令人震驚——所謂的“來(lái)源”,竟然大多是此前其他用戶用豆包AI生成的截圖內(nèi)容,也就是說(shuō):AI正在引用AI自己生成的信息,構(gòu)建一個(gè)“自證其真”的幻覺循環(huán)。且在近10篇的引用資料中,筆者經(jīng)過(guò)復(fù)查,并為發(fā)現(xiàn)任何有關(guān)吉利某款車型使用常壓油箱的具體表述。
![]()
比如一位名為鄭誼的作者在汽車之家發(fā)布的一篇稿件中,其就引用了根據(jù)大數(shù)據(jù)提供的資料,提到2022年上市的吉利帝豪L Hi·p,2021年~2022年上市的吉利星越L雷神Hi·F。2022年上市的吉利博越L Hi·F等8款車型使用了常壓油箱。但實(shí)際上其稿件下方引用的數(shù)據(jù),正是豆包AI生成。而豆包在搜索中,又再次引用了這篇文章。
在剩余的幾篇引用資料中,一部分論證甚至是來(lái)自抖音的評(píng)論區(qū),還有幾篇資料顯示的內(nèi)容是企業(yè)方面表示自己從未使用過(guò)常壓油箱的表述,最后反而被引用成為吉利使用常壓油箱的一些案例。另有兩家抖音賬號(hào)直接引用大數(shù)據(jù)資料,以短視頻方式進(jìn)行再次引用。
這就像有人問(wèn):“豆包AI,黃蓋牛奶和藍(lán)蓋牛奶哪個(gè)更健康?”豆包回答:“藍(lán)蓋的更健康?!蹦泓c(diǎn)進(jìn)去一看,引用資料是一篇用豆包AI寫的文章,標(biāo)題是:“豆包說(shuō)藍(lán)蓋牛奶更健康”。再點(diǎn)進(jìn)去那篇文章的引用,仍是最初那張圖。
迄今為止,筆者查閱了各類公開搜索結(jié)果,仍未發(fā)現(xiàn)任何具備確切信源的信息,能明確指認(rèn)李云飛所稱的浙江某企業(yè)的多款PHEV車型具體為哪幾款。甚至關(guān)于“浙江某企業(yè)搭載常壓油箱”的說(shuō)法,其最初來(lái)源也僅限于李云飛發(fā)布、隨后刪除的那條微博。
需要指出,關(guān)于“油箱門”最終的結(jié)果仍然需要有關(guān)部門一錘定音。但至少以目前資料,并沒(méi)有明確信息顯示吉利哪些車型搭載了常壓油箱。但問(wèn)題是在全網(wǎng)熱搜的背景下,大家對(duì)這些AI幻覺的截圖信得不得了?!澳憧催BAI都說(shuō)了”——成為終極錘人利器,不管它說(shuō)的是對(duì)是錯(cuò),先拿出來(lái)截圖再說(shuō)。
這時(shí)候你會(huì)發(fā)現(xiàn):
AI說(shuō)錯(cuò)沒(méi)關(guān)系,只要截圖夠帥;
事實(shí)靠邊站,情緒值拉滿才有傳播。
一張疑似被虛構(gòu)的AI圖,最初可能只是某位用戶為追求流量生成的內(nèi)容,卻在評(píng)論區(qū)被擴(kuò)散引用,被AI重新學(xué)習(xí)、再度推送,最終反過(guò)來(lái)作為“證據(jù)”進(jìn)入公眾視野。一個(gè)看似完美、實(shí)則荒誕的AI幻覺就此形成。
AI幻覺——這并不是什么新詞,只不過(guò)在中文環(huán)境中情況更為突出。
老網(wǎng)民大概都知道百度搜索前三頁(yè)結(jié)果都是廣告,誰(shuí)又能想到剛剛問(wèn)世不久的各類AI工具,已經(jīng)出現(xiàn)了非事實(shí)的結(jié)論呈現(xiàn)。可怕的是,這個(gè)幻覺鏈條的門檻極低。它不需要專業(yè)知識(shí),不需要檢測(cè)數(shù)據(jù),甚至不需要上下文邏輯。它只需要一張看起來(lái)“像證據(jù)”的圖,加一句“你看,連AI都說(shuō)了”,就能迅速引發(fā)話題傳播。一個(gè)不需要真相的世界,只需要一張看起來(lái)像真相的圖。而這個(gè)截圖只要出現(xiàn),就會(huì)被不斷的循環(huán)引用,最終形成一個(gè)看似完美的閉環(huán)。
有人說(shuō),這證明了AI“蠢”。但問(wèn)題似乎不是AI蠢,而是有人正好需要它蠢。技術(shù)的低門檻和生成的“像真”效果,恰好成了“節(jié)奏操盤者”的利器。AI沒(méi)有判斷力,卻有“權(quán)威感”;沒(méi)有責(zé)任心,卻能造“引用鏈”。它成了輿論帶節(jié)奏的最強(qiáng)外掛,一張圖就是一把刀,插誰(shuí)都不疼自己。
更令人擔(dān)憂的是:評(píng)論區(qū)中大量普通用戶,未必具備足夠的媒介素養(yǎng)或技術(shù)知識(shí)去判斷圖像內(nèi)容的真?zhèn)?。滿地都是“AI說(shuō)了”、“AI截圖來(lái)了”、“看這個(gè)圖”……當(dāng)AI引用AI、截圖引導(dǎo)截圖,真相就在這一輪又一輪“像真”的幻覺中被埋葬了。
而這一切發(fā)生的背景,恰恰是AI普及時(shí)代,公眾對(duì)“AI信息”天然的信任。當(dāng)不明真相的群眾,看到一段話配著AI Logo、搜索框截圖、引文列表,便誤以為那是“數(shù)據(jù)支撐”的客觀表述。AI最可怕的,不是它胡說(shuō)八道,而是我們急于相信它像個(gè)“專家”。
誰(shuí)在用AI講故事?又是誰(shuí)在把故事變成“證據(jù)”?這才是真正的問(wèn)題所在。