国产美女香蕉久久精品-轻一点我要你搞我小穴视频-18禁无遮挡羞羞涩涩涩-国产高潮流白浆喷水免费网站-少妇人妻无码中文字幕在线-午夜国产激情视频在线观看-精品国产亚洲av高清在线-免费播放在线视频观看-好吊操在线免费观看

AI時(shí)代,辨別真相的成本變高了



專欄——陳楸帆

科幻作家、學(xué)者

代表作:《荒潮》《人生算法》

《我們能否改變潮水的辨別本變方向》等。

2024年2月,真相香港一家跨國公司的AI時(shí)代財(cái)務(wù)人員接到一通視頻會議邀請。屏幕那頭,辨別本變公司CFO正襟危坐,真相幾位同事表情自然,AI時(shí)代討論著一筆緊急轉(zhuǎn)賬。辨別本變他按照指示操作,真相2500萬美元隨即消失。AI時(shí)代事后調(diào)查發(fā)現(xiàn),辨別本變那場會議里每一張臉、真相每一個聲音,AI時(shí)代全部由AI偽造。辨別本變你大概覺得這些人太天真。真相換成你,肯定不會上當(dāng)。這恰恰是最危險(xiǎn)的想法。


英劇《真相捕捉》描繪了一個

深度偽造(deepfake)技術(shù)泛濫,真相被扭曲的時(shí)代?

心理學(xué)家丹尼爾·卡尼曼(Daniel Kahneman)花了一輩子研究人類判斷中的系統(tǒng)性錯誤。他發(fā)現(xiàn),我們的大腦有兩套運(yùn)行模式:一套快而自動,一套慢而費(fèi)力。日常生活中,那套快的幾乎壟斷了我們的決策。它靠什么判斷信息是否可信?很大程度上靠感覺,讀起來順不順,看起來像不像。

AI生成的內(nèi)容恰好完美命中這個弱點(diǎn)。語法無懈可擊,排版賞心悅目,論證看似嚴(yán)密。大腦的快速系統(tǒng)掃過一遍,蓋章:可信。慢速系統(tǒng)本該出來復(fù)核,但它太懶了,多數(shù)時(shí)候直接放行。

當(dāng)AI給你一個完整、連貫、細(xì)節(jié)豐富的回答,你不會去想它遺漏了什么、歪曲了什么。敘事越圓滿,你越覺得可靠??善?,編故事是AI最擅長的事。

我們常嘲笑父母輩轉(zhuǎn)發(fā)養(yǎng)生謠言,覺得他們信息素養(yǎng)不夠。但仔細(xì)想想,老一輩至少還保留著一種樸素的懷疑本能。而今天的年輕人在信息過剩中長大,習(xí)慣了隨手搜索就能得到答案。搜索引擎給出的結(jié)果看起來客觀中立,AI聊天機(jī)器人的回答更是條理清晰、溫和有禮。這種包裝制造了一種前所未有的信任慣性。研究顯示,在社交媒體上消費(fèi)新聞的人更容易受deepfake影響,而且這個效應(yīng)和智商高低無關(guān)。


電影《她》中的西奧多愛上了邏輯清晰、溫柔有禮的

聊天機(jī)器人薩曼莎?

更隱蔽的威脅來自AI的幻覺問題。大語言模型在預(yù)訓(xùn)練中只學(xué)習(xí)了什么樣的文本讀起來像是對的,卻從未學(xué)過什么是對的。它預(yù)測下一個詞的概率,卻不理解詞語背后的事實(shí)。當(dāng)前的技術(shù)架構(gòu)決定了,AI寧可自信地胡說八道,也不會承認(rèn)自己無知。而多數(shù)使用者完全沒有意識到這一點(diǎn)。最可怕的場景是:被騙了卻渾然不覺,還把錯誤信息內(nèi)化成了自己的知識。

聽到這里你可能想問:那我是不是應(yīng)該懷疑一切?大可不必。懷疑一切和相信一切,最終殊途同歸,都是放棄理性判斷。哲學(xué)家卡爾·波普爾(Karl Popper)給過一個更精準(zhǔn)的態(tài)度:別問一條信息能不能被證實(shí),要問它能不能被推翻。這個態(tài)度落到每天刷手機(jī)、讀新聞、用AI的日常里,可以變成一套相當(dāng)實(shí)用的操作。


《黑鏡》第一季第二集《一千五百萬的價(jià)值》描述了一個

人們在逼仄的房間里進(jìn)行所有生命活動的世界?

1.給自己建一份信源白名單。花點(diǎn)時(shí)間篩選出你信任的媒體、記者、學(xué)者和專業(yè)機(jī)構(gòu),把它們設(shè)為你的一級信源。白名單不必大,五到十個靠譜的來源就夠你交叉驗(yàn)證了。養(yǎng)成這個習(xí)慣之后,那些來路不明的信息自動就降了級。

2.學(xué)會識別一眼假的特征。AI偽造的內(nèi)容有幾個共性:來源鏈條斷裂(追不到具體的人、機(jī)構(gòu)和時(shí)間地點(diǎn)),情緒濃度異常高(讓你看完立刻憤怒或者立刻感動),細(xì)節(jié)豐富但缺乏可驗(yàn)證的錨點(diǎn)。一篇看似專業(yè)的科普文章,如果引用的論文你在Google Scholar上搜不到,大概率是AI編的。

3.AI打假AI。你完全可以把一段可疑的文字丟給AI,讓它幫你檢查事實(shí)。這篇文章里引用的數(shù)據(jù)出處在哪里?這個案例是真實(shí)的嗎?AI善于編造,但也善于拆解。讓兩個AI互相審問,效果遠(yuǎn)好過你獨(dú)自判斷。圖片方面,Google的以圖搜圖功能可以幫你追溯一張圖片的原始來源;Hive、AI or Not等在線工具能檢測一張圖是否由AI生成。這些工具未必百分之百準(zhǔn)確,但作為初篩已經(jīng)足夠。

4.給自己裝一個情緒斷路器。虛假信息幾乎總是裹著濃烈的情緒外衣。在你轉(zhuǎn)發(fā)、相信、采取行動之前,先等一等。哪怕只是等10分鐘。

5.最后也是最根本的一點(diǎn):在你關(guān)心的領(lǐng)域里讀幾本扎實(shí)的書。有了基本概念和邏輯框架,新信息進(jìn)來時(shí)你才有東西拿來交叉比對。知識網(wǎng)絡(luò)越稠密,單條虛假信息擊穿它的可能性就越小。我們正在進(jìn)入一個偽造廉價(jià)而驗(yàn)證昂貴的時(shí)代。但你愿意為真實(shí)付出的耐心和努力,將成為最有價(jià)值的智識資產(chǎn)。你的大腦不會被AI取代,但需要你主動升級它的防火墻。


正如《黑客帝國》中的紅色藥丸,

選擇它即代表要秉持著懷疑精神探尋萬物的真相?

原文刊載于《時(shí)尚COSMO》4月刊

編輯:若菲

編輯助理:王阿果

排版:萱萱

設(shè)計(jì):棒棒

圖源:網(wǎng)絡(luò)、受訪者提供



京ICP備75688822號