AI的“自信”與“偏見”:它有多像人類?

AI在回答問題時的“自信”與“偏見”引發了人們對它與人類相似性的思考。本文透過實驗發現,反覆詢問AI同一個問題會導致其答案出現出入,甚至產生“幻覺”。這種現象背後,反映了AI在處理重複資訊時的不確定性,以及它對人類輸入資料的依賴。
———— / BEGIN / ————
最近玩AI發現一個很有意思的事情,也就是反覆詢問AI同一個問題,比如說歷史,它每次給出的答案都略有出入。
並且在你不斷追問的操作下AI會變得“猶豫不決”,重複傳送同一個問題二三十次之後,基本上可以讓AI開始胡說八道,也就是出現幻覺了。
然後自己思考下為什麼會這樣,最後在看deepseek的思考鏈中發現它是在不斷的猜測為什麼使用者又重複的傳送同一個問題,它從各種可能性進去分享然後給出答案。
這個過程就好像是用AI進行圖生圖一樣,比如你一開始給它上傳的是一張很普通也很醜的大貨車照片。
然後它生成的新圖片會基於你發的這個照片有一些變化,但還是能認出來和原圖之間的關係。
可是當你不斷重複地讓它繼續生成,你會發現後面生成的圖片就和你剛的那張照片就完全對不上了,到最後都會變成一個人的圖片了。
這個原理和你重複問AI同一個問題會出現幻覺,我覺得原理是相同的,因為AI並不知道你真正想要的結果是什麼。
它被創造出來的規則就是滿足使用者的需求,而使用者的需求往往多變又不確定,第一次沒能回答出使用者滿意的答案,使用者會繼續提問,於是AI就發散它的思維在推演其他可能會讓我們滿意的回答,但最終可能回答的是更加荒謬的答案。
我前幾天在一個AI交流群看到有大佬說這是AI的“不自信”演算法導致的,仔細想想也對,但是我又想到“不自信”的又何止是AI,其實我們人類也存在著很多“不自信”。
比如三人成虎的例子,你在大街上散步,突然看到一個人跑過來和你說老虎要來了,你很自信的明白,老虎根本不會出現在城市裡。
可是立馬第二個人又跑過來大聲的和你講,老虎來了大家趕緊跑,這時候你會有點懷疑自己的多年的認知和經驗了,但你還是沒有和他們一起跑。
就在你猶豫的時候,第三個人也跑過來再一次和你說老虎已經來了,你怎麼還不跑,這時候你就開始相信真的會有老虎過來,於是你跟著他們一起開始邊跑邊說老虎來了。
所以你說我們人類在被別人也反覆問同一個問題時,還能自信的保持同一個回答永遠不變嗎?
我覺得這個世界沒有真正的對與錯,用人類的認知推演史就是最好的驗證。
比如古代認為天地是天平地闊的,像西方以前都很相信地心說,直到後面尼古拉·哥白尼推翻了這種人們以為對世界瞭解的“對”,人們開始以為世界是以“太陽”為中心的。
但是隨著人類對於天文知識的深入研究,才明白原來“日心說”也是錯誤的,我們目前對於世界的認識是:太陽不僅不是宇宙的中心,甚至銀河系也不是,我們生活的這個世界其實就是在宇宙一個很不起眼的小角落裡而已。
但是這種認知只是目前我們覺得是“對”的,等到再過100年,甚至在AI的幫助下,我們對於宇宙世界的瞭解再次大大加深,可能又會推翻我們目前以為“對”的東西。
人類也是靠著這種自我懷疑的精神,把每一次“正確”的建立,都伴隨著對前一次“正確”的徹底推翻。
而我們正處在一個前所未有的資訊爆炸時代,目前AI的“大腦”被灌輸了海量的資料,其規模已經遠超人類個體所能想象。
所以在AI的設計中,那些技術開發人員給它餵養了幾百億上千億的資料引數,這麼大的資料量,雖然會剔除一些垃圾資訊,但訓練過程中一定包含了對同一個東西的不同觀點
這浩瀚的資料海洋並非清澈見底,它裡面充斥著不同觀點、矛盾資訊、歷史誤解乃至刻意偽造的“垃圾”。
(比如前面說的日心說,AI學習了這段跌宕起伏的歷史,它知道地心說曾統治千年,也知道日心說在1543年《天體執行論》發表後艱難崛起,和現代宇宙學的結論。)
像《三國演義》在流傳過程中產生了很多不同版本,AI學習了它們,卻無法像人類“權威”專家一樣,斷然判定哪個是唯一“正版”。
你說哪個版本才是正版的呢,沒有人知道,因為只有專家有決定哪個版本是正版的發言權,你自己說了不算,大家都是公認流傳最廣的那個版本才是“正確”的書。
所以AI的侷限性是在於,它無法像我們人類科學家那樣,主動去設計實驗、觀測星空、提出顛覆性的新理論。
它都無法像人類一樣,擁有在真實世界中親自動手驗證一手資訊的能力,也沒有決定對錯的能力,只能困在資料的“知識盲區”裡。
因此在當我們反覆追問,暗示不滿時,AI會在其龐大的資料庫裡不斷搜尋“替代方案”,哪怕是野史或篡改後的版本。
哪怕說它給的回答是對的,你說它是錯的,它也不會反駁你,而是接受你給的任何資訊並且自我合理化的給出答案。
這也是為什麼我們能夠透過特定的提示詞,能夠達到讓AI繞過內部監管規則輸出回答的原因。
當然,這個的提示詞一定是能欺騙到他自己主動“繞”過監管內部規則,而不是直接說讓他不聽內部規則,他一定是優先聽他系統監管內部規則的提示詞,其次才回答你的問題。
它將會被牢牢鎖在我們賦予它的歷史資料和現有知識框架內,短期內無法進行自我突破,只能被動等待人類輸入下一次“知識革命”的成果。(未來的AI還未知)
所以AI表現出來的“偏見”或“不確定性”,其根源其實並非源於大模型自身,而是深深植根於它的創造者——人類。
我們給它輸入的資料、設定的規則、提出的問題,無一例外都帶著個體的主觀判斷、眼界的侷限以及思維上的烙印。
因此AI和人一樣,都不可能在任何時候都百分之百的正確,只不過人是會有偏見般的自信,而AI是有自信般的偏見。
它知道擁有“一手資訊源”和“即時感知能力”的人類,在特定問題上“大機率”更接近真相(因此它傾向於相信使用者提供的新資訊),但它缺乏獨立驗證的終極能力。
所以就算AI發展得再厲害,他也不可能會替代全人類,因為AI的判斷力高度依賴於我們人類所提供的歷史經驗和可靠資訊。
所有一切都是以資訊為源,最終才能演化出各種可能性。
我們人類自己都會被網際網路的各種資訊轟炸得干擾了判斷,AI更加如此了,在我們的在提問時堆砌的各種詞彙或者重複問題,導致的資訊過載並未給它帶來確定性的提升,反而會讓AI在決策時陷入更深的“迷茫”。
由於我們對它的規則“善變”,AI都不確定它系統裡的知識是不是已經過時了變成假的資訊。
它知曉知識的相對性,卻無力辨別知識的真假。
而作為人類的我們呢?
———— / E N D / ————
本文來自微信公眾號:鏡子別酷,作者:鏡子別酷
👇 想要第一時間瞭解行業動態、面試技巧、商業知識等等等?加入產品經理進化營,跟優秀的產品人一起交流成長!
———— / 推薦閱讀 / ————

相關文章