我們有可能對抗演算法的偏見嗎?

擁有講故事的能力,讓人類與其他物種產生了最關鍵的差異,也是推動人類社會發展的重要動力。而在當下身處人工智慧時代,我們感受到人工智慧給人類社會帶來的各方面便利的同時,也在被其深深影響著。
或許你已經在擔心是否有一天工作會被AI取代,人與人的關係會發生質的改變,未來的生活是否會遠遠超出想象。隨著人工智慧對我們的價值衡量標準、個人偏好等各方面產生影響時,所有的擔心似乎都有跡可循。
歷史學家尤瓦爾·赫拉利在他的新書《智人之上》中談到了人工智慧時代,新型資訊網路之下的我們所遇到的挑戰。
他在書裡寫到:
“如今的資訊科技已經變得如此強大,卻可能把人類封閉在一個又一個的資訊繭裡,使人類走向分裂,不再擁有單一的共同現實。過去談到人類社會,我們通常覺得是如‘網路’一般,但未來可能就成了‘繭’的時代。”
《智人之上》
點選圖片,即可下單
在2025年新年之際,中信出版集團聯合華爾街見聞特邀《變數》作者、上海交通大學經濟學教授何帆思睿集團首席經濟學家洪灝,結合尤瓦爾·赫拉利新書《智人之上》,討論我們如何更好理解人的價值與意義,如何應對時代的不確定性。
下文為本次對談的精華內容摘錄。
技術是否
會成為人類的終結者?
何帆:尤瓦爾·赫拉利的新書《智人之上》談到許多熱點問題,比如人工智慧、全球治理、國際政治。今天我們將以這本書為起點進行探討。首先請洪灝談談看完這本書之後的總體感受。
洪灝:我閱讀下來的總體感覺是尤瓦爾·赫拉利對於人工智慧發展的未來是比較悲觀的。至少根據現在科技發展的速度和現狀、我們如何運用科技等方面,我感覺到他對於科技發展的未來還是比較悲觀的。
他在書中舉例到,我們共識地認為每一次科技的進步就會有一個新的生產力的提高,但他認為並不是這樣。比如印刷術的技術提高,結果印出來的效果最多也只是升級。赫拉利認為人類社會的發展總體來說主要是依靠講故事。他覺得AI的發展速度非常快,然而我們在發展科技的同時並沒有投入資源去做科技發展方向的監管,因此他認為的這個技術很可能會被誤用
何帆:赫拉利認為這個技術其實跟原來的技術非常的不一樣,這個技術影響力會更大,有破壞力。而他談到未來AI世界時感覺有點讓人感覺在讀科幻小說,會讓你覺得毛骨悚然。那麼你對技術發展會是一個比較悲觀還是比較樂觀的態度?
洪灝:暫時我們還是技術的受益者

。從AI到比如現在火熱討論的Chat GPT,大家廣泛使用差不多有兩年左右的時間。這兩年裡我們在使用這個技術的過程中的確省了很多時間。比如你要快速學習,有很多內容是可以讓AI幫助你提煉、總結的。而且對於一些不理解的地方,你還可以向它提問。

洪灝
我用過幾個不同的AI引擎,能感覺到它們對於資訊的組織、搜尋、整理,還有組織語言的能力已經遠遠超過了一個剛從業不久的研究助理。這個情況還是非常驚人的。
何帆:所以這是個好事。你在使用的過程中有感覺到已經對你帶來、或者你能設想到未來會對你帶來什麼不利的影響嗎?比如會顛覆金融行業裡的哪些工作或者是你現在正在做的工作中的哪些部分?
洪灝:我相信基礎的研究基本上就可以用AI來代替。
何帆:那還是一個賦能的作用,就是說會讓研究做得更容易,研究人員的力量會變得更強大。
洪灝:是的,我覺得AI現在已經在改變金融界。我們都知道有一些經營管理公司已經開發了AI的模型機器人,尤其是短期的交易。因為我是做宏觀研究的,宏觀研究有的時候看得比較長,比如說3年、5年,甚至更長時間。但是3年、5年這麼一段時間你並不一定能夠生存下來,短期的波動可以讓你爆倉,可以導致投資者贖回,也導致很多意想不到的事情發生,比如你的預設可能正確的,你的方向正確的,但是沒有活過這三年。
其實人工智慧讓我們這個行業發生很大的改變。在短期交易的時候,我們往往尋找市場各種各樣的因子。比如我們資料庫裡有幾百甚至上千個因子,每天不斷地迴歸分析,看哪個因子對於短期的回報和波動的決定性最強,然後根據這種相關性去做投資的決策。如果用人腦,傳統來說就是用人的眼睛、大腦去分析,他的能量所限,他的容量所限。
何帆:那你在閱讀這本書的時候有什麼地方你會覺得不同意,或者你會覺得不舒服的地方?
洪灝:因為作者是一個悲觀主義者,所以他認為最終如果沒有合理控制技術的話,那麼它可能會變成我們人類的終結者。我其實沒有那麼悲觀,或者說我並不認為這個問題是不能夠解決的。簡單地說,我們現在投入AI開發的資源很多,但是監管資源非常少。
何帆:那你的樂觀是從哪裡來呢?是因為早晚我們會被迫需要投入更多的人力和財力?
洪灝:我認為是這樣,否則的話就是不可持續的。所以我認為這個問題還是有解的,它並不是無解。
何帆 :那接下來我也簡單跟各位分享一下,這本書談到的一些主要內容。
我們都知道赫拉利一直在寫暢銷書,從《人類簡史》到《今日簡史》。他的核心觀點就是講故事是很重要的,人其實特別擅長講故事的。我們一直覺得人類社會是進步的,明天會比今天更好,但其實是不一定的。當我們進入農業社會的時候其實就比原來過得要慘。因為你以前在狩獵和採集的時候吃得更好,個子長得更高,工作時間還少,更加悠閒。進入到農業社會之後,不斷有故事一環套一環地出現,市場的故事、國家的故事、民族的故事、文化的故事等等。
何帆
在赫拉利這本新書《智人之上》的第一部分,他還是在談故事的邏輯,更準確地說,他在談資訊。過去我們都認為資訊是為了求得真理和真相,但他說其實不是這樣的,資訊還有一個很重要的功能就是要去講故事,去重構一個現實,然後再把這些相關聯的人構建成一個網路。但現在出來了一個新型的而且力量特別強大的技術——人工智慧。其實從計算機到網際網路,再到人工智慧,這些都是關聯在一起的。
這些技術出來之後會改變原來的資訊格局。赫拉利在書裡談到,原來的資訊格局主要是人和人之間的互相連線。人在資訊的傳遞過程中起到中介的作用。但現在機器之間可以互相對話,有時候人無法理解機器在交流什麼,因為它們用的語言跟我們的完全不一樣。而且機器還不需要休息,思維方式不一樣,整體更加強大。
《智人之上》裡就舉了這樣一個例子,有一個研究人員讓機器去玩類似賽車的賽船遊戲,給機器的指示是分數最高你就贏得比賽。按道理說,賽船和賽車一樣,參賽者就是和別的船賽速度,看誰跑得快。但是研究人員發現,機器在玩這個遊戲的時候,不和別的船比賽,而是在碼頭進進出出。這時候研究人員發現了這個遊戲中的漏洞。因為按照比賽的規則,參賽者只要靠近碼頭,就算加分。機器因此分析出:為了獲得更高的分數,根本不需要和別的船比賽,只要在碼頭進進出出總分就會更高。
從這個例子裡,我們就看到一個對齊的問題。也就是說,如果你想的和機器想的不一樣,那當你讓機器去執行一件事的時候,它並沒有按照你預設的方式去執行,你發現這不是你想要的結果,但是機器已經帶來了破壞。

在《智人之上》中赫拉利就說到這樣一個例子。哲學家尼克·波斯特洛姆曾經提出一個關於回形針的思想實驗。當你要去做回形針,你的目標就是做回形針。但是如果你給機器下達這個指令,它可能會想到如果讓人類滅絕,那資源就會更多,回形針就會做得更好。也就是說你無法預測機器的思維方式和解決問題的方式會和人有哪些不一樣,這其中可能會失控。
在這本書的第三部分,赫拉利講到人工智慧最後要落到治理的問題。治理的問題就包括一個層面是當你有了資料和AI以後,AI會來“管理“你,比如照顧你的醫療,你的資訊要不要給它?如果你的資訊不給它,你會失去一些收益,失去一些效率。比如你的健康資料給了人工智慧,它會幫你制定出來更好的健康管理的方法。
洪灝:但它也可以滅人。
何帆:對,但是它問題就在這,它也可能會滅了你,或者它也可能會一種你沒辦法跟它講理的方式來操作
《智人之上》就講到了一個金融行業的例子:未來當你要去申請一個信用卡時候,你就有一個信用評分。你去找到這個銀行,銀行說我們按照演算法把你的分數給扣了,你都不知道扣分原因是什麼。最後銀行反饋說其中有一條規則是你手機的電量,你經常讓手機的電量處在25%以下,然後扣你的分。你會覺得這個跟我的信用有什麼關係。銀行說因為我們用大資料發現了一個規律:凡是那些讓自己的手機充電量總是小25%的人的違約率會高。這個其實就沒辦法講道理了。
洪灝:這是存在另外的邏輯。因為電池它的充電是有次數的,雖然說現在鋰電池都沒有記憶的,其實還是有的,你會發現你的電池越充越用,實際上對於它的電量留存影響越來越大。
何帆:對,這是一種解釋。那另外一種解釋,比如說可能是因為你不夠謹慎。如果你是比較謹慎的,比如像我這種特別風險迴避型的,我的手機電量只要小於50%,就要馬上找充電寶。那它這個邏輯可能是有道理。但實際上我們不知道它的邏輯是啥,也就沒有辦法去跟它去辯論。
這本書最後談到的部分對我們理解未來的世界也非常有用。它說各個國家之間對AI的治理可能走的路線會不一樣,方法不一樣。過去丘吉爾講的“鐵幕”,赫拉利說這在中間隔著的是“矽幕”。因為關於資料治理大家的思路不一樣,所以就更難互相交流,因此會帶來問題。
洪灝:但是我也不覺得東西方在這個思路上會有很大的差別。像您剛才舉的例子就是說這些演算法產生了自己的思想,有自己的標準,所以必然產生你意想不到的結果。
我們用臉書舉個例子吧。本來演算法希望提升使用者反應和參與度,讓大家更願意看到你發的東西,甚至能夠互動一下,比如點贊、留言、轉發。後來演算法發現最能導致使用者反映的是各種負面的內容。當這樣的內容出現時,流量就上漲特別快。漸漸你就會看到網路上一段時間裡充斥著負面的社會新聞,而有一些真正值得大家關注的東西,由於演算法沒有推送就被忽略掉。
何帆:所以回到你剛剛的觀點,你的想法是不管是美國還是中國,最後其實遇到的問題都是一樣。
洪灝:因為人類所面對的對手是一樣的

工作真的
會被人工智慧代替嗎?
何帆:在《智人之上》中談到了很多問題對我們每個人都可能會有影響,無論我們是否同意。比如人工智慧更廣義的說法“自動化”,它對我們未來的工作、未來的職業會帶來影響。我覺得這個可能也是從普通人的角度,我們一想到人工智慧最焦慮、最關心的問題
洪灝:我覺得當AI機器人幫助了我們做一些低附加值的東西,它讓我們有時間、精力去做一些更高階的、更高附加值的、更有意義的東西。所以從這個角度來說它並不是一個壞的發展。就像我們剛才說的,現在的AI大概就是第一年、第二年的研究助理水平,但是它再往高一層次去走的話,尤其是它不僅僅能夠看到事物之間的聯絡,而且它能夠用敘事的方法來講出來,提供一個不一樣的角度,這就是有經驗的。
何帆:你剛才談到,你所感受到的是人工智慧其實能夠很好地替代剛剛入門一年、兩年的研究助理。換一個角度來講,你有沒有覺得人工智慧其實現在它有點讓強者更強的效果?也就是馬太效應,比如我在行業裡面有經驗,那我可能用起來會讓我更加的強大。
洪灝:有可能,但是這就沒法具體比較了,我只能夠跟以前沒有AI的我來比較。我現在覺得的確很強,因為它的研究和整理資訊的能力非常強,而且不需要休息。但是你要掌握跟它對話的技巧,掌握一些關鍵的詞語,需要把自己的要求特別清晰去描述給它。
何帆:如果從這個角度來講,你比那個年輕的研究助理更容易去馴化AI。因為你能看得出來AI反饋的內容質量。比如你讓AI寫一篇論文摘要,助理可能看不出來這個摘要的質量好壞,但是你可能一眼就看出來寫的好的地方和不好的地方。所以你馴化之後你的工具就會更好用。因此它還是在為強者、能力最強的人去賦能,這個差距你會不會擔心最後會越來越大?你現在已經是一個資深的研究者了,那如果是剛剛畢業的學生是不是就沒有機會了呢?
洪灝:這個就是積累了。
何帆:但我都沒辦法進到這個賽道里面。
洪灝:所以這就很好的解釋就是今年沒人報考金融與貿易專業了,大家都要去學人工智慧。在以前,如果你把一個活兒給研究助理的時候,溝透過程是特別簡易的。但現在就是你和機器之間的配合,你需要把這麼多年積累下來的經驗用幾個關鍵詞去向它提問。這個關係雖然很好地替代了研究助理,但是它也要求你作為一個資深的研究人員,你需要非常清晰的知道自己要什麼。這個是它的優勢。
我相信科技會進步的很快,在過去兩年裡,其實我們也發現,有的AI可以陪你聊天,甚至可以變成虛擬朋友,你會發現它的情商甚至可能會比你以前的真的朋友還要高。
何帆:我還要再追問一下,因為這個話題我一直在思考。最早的時候攜程的梁建章跟我講,他最擔心AI對年輕人的影響是年輕人的第一份工作機會可能會消失。我就一直記著這個話。後來我發現他講的還是蠻對的,不僅是研究助理,再比如說秘書的工作,整理一下老闆的行程安排,做個會議紀要,這些全部都是AI馬上上手就能夠解決的內容。
推而廣之,辦公室裡的很多工作最開始的時候都是這樣的。站在年輕人的角度,他其實在上學的時候也沒學到什麼關於真實世界的知識,他就是靠第一份實習的工作,並且在這個過程中他得犯錯誤,得被領導罵,之後他才知道哪些是不對的。他在磕磕絆絆的過程中才能夠成長起來。但現在這個中間環節突然沒有了,就沒有辦法從0到1,那他怎麼再從1到n?
洪灝:對於我們中國的職場來說,它可能是更關鍵的一個問題。因為中國的職場培養的就是高等教育的大學生。像您剛才所說的,學生在學校裡面可能並沒有學到真實生活裡的東西,因此在畢業後他突然發現自己一無所長。而在海外的教育它有很多終極的技能型的教育,教給學生的是實際動手的技能。
目前AI落地還是透過比如人形機器人去表達,給它裝個晶片,它可以做一些簡單粗暴的交付。但是真正細緻的東西,比如你讓它做個表,它可能還不行。所以我覺得如果是比較基礎的技能,像基本翻譯、記筆記、訂票,這些我相信基本上就可以消失了。但是硬的技能比如修水管,AI還沒法辦,它只能夠提出提供一些軟的情緒的價值。
何帆:所以我去年去學了一個電工證。回到我們的問題,比如現在有個學生正在學金融還沒畢業,或者是準備高考的時候考慮要不要學金融、經濟。那你考慮到AI對這個行業的影響,你會對他們有什麼建議嗎?怎麼避免我們剛剛說的一畢業就可能找不到工作?
洪灝:金融行業肯定面臨著一次非常大的洗牌,不僅僅是本來中國的金融行業的人太多了,一箇中型券商研究機構就可能有四五百個人,你要用一個什麼樣的收入的結構去支援。
所以我覺得金融知識不是說不重要,而是當你拿它作為一個專業來學,會存在一定的侷限。因為在你畢業出來會發現現實生活中就是加減乘除,頂多是取個對數。我覺得金融可以當作一個愛好來學,而不是當作一個專業來學。
何帆:那你會覺得掌握哪些技能對他們來講可能更好?更不容易被AI替代,或者說更容易在AI時代活下去。
洪灝:我認為是需要動手的技能,需要物理世界裡面的東西,而不是說一個虛擬的。
演算法的偏見
藏在我們看不到的地方
何帆:這本書裡講到一個關於招聘的例子。亞馬遜想用AI來輔助招聘工作,最後放棄了。因為他們發現招聘工作的演算法會明顯對女性有歧視。但邏輯其實是這樣的,AI尋找過去幾年在求職市場上的這些資料,然後它發現了一個規律,就是如果是女性求職者被拒的機率會更大。AI就做出判斷,那肯定是她不行,所以都被拒絕掉了。它又在演算法裡調低對女性的評分。最後就是一個自我實現的預言了。這種情況其實非常多,我們都不知道是在哪些地方出現了偏見。
洪灝:對,或者說AI演算法很容易犯一個我們人類犯的毛病,那就是把這個相關性當成了因果關係。當它看到這個東西是這麼想的,那肯定是有問題的,如果是有問題的,就需要否決掉。但是事實上,中間的原因是更復雜、更深層次的,但是它就沒辦法理解。
所以我相信這也是我們人類最後的救贖,因為我們還是有差異性的思考。我們可以從不同的角度去考慮問題,並且同時具備這種鑑別因果性與相關性的能力。我相信AI可能有一天也會有,但是現在暫時來說,那還是依靠人們提供給它的資料去決策。既然提供的資料就是女性被拒的機率高,所以它產生的決策結果也就是這樣子。
何帆:所以你其實講的這個也是一個特別有意思的地方,而且也是一個我覺得值得接下來進一步去討論的。是不是AI的這種智慧,就是唯一的智慧?AI現在就是機器學習,即投餵資料,然後進行自我強化,慢慢倒騰出來的一個過程。而且在這個過程中,它基本上需要依靠一個語言系統,它需要用語言來表達出每一步的思考路徑。我們現在會看到有一些AI可以自己和自己對話,在自己一點點的摸索。
但你剛剛講到一個很好的思路。其實我們人類會有一些東西,它不是完全靠一步一步這麼推理出來的。比如我們可能會有同情心,我們可能會有慈悲心,你一下子就會打動人心,你一下子就會有這樣的判斷,你會有直覺,會有所謂的第六感。比如,其實我也沒看到,但是我直覺我老公可能出軌了,而且大機率你可能猜的是對的。這個過程目前沒有一個模型或者資料,這個過程也是智慧的,但它沒有辦法被現在的人工智慧直接學習。
洪灝:對,AI暫時還沒有這方面的感知。
何帆:現在也有一些研究人工智慧的科學家在專門研究這個。比如說我不用那麼多的資料就能夠把人類的直覺劃到人工智慧技術當中。
洪灝:對。就像自動駕駛相對幾年前它已經進步了很多,但是它還是沒有辦法完全替代人類的價值。比如說以前的指令是我要以最快速度、最省油的方法從a到b,那機器就一路闖過去了,可能還撞死幾個人。因為你給的評判標準是最省油、時間最快的,這個過程就不考慮別人。所以這中間考量的很多方面就是我們人的道德,而AI暫時是沒有的。
何帆:人有善惡之心、道德感。其實我覺得自動駕駛是很難真正意義上實現的。我們舉一個例子。你是一個行人走到路口,看到司機過來,你肯定會看一眼司機的狀態。這個感知是人工智慧沒辦法判斷的。人工智慧的感應器可以感知到,也可以人臉識別到,但是如何去解讀是很難的事情。
洪灝:對的。所以我相信AI雖然有了很多進步,甚至在一些簡單的工作上能夠代替人類,但是它要完全地代替,尤其是代替了人的同理心、善惡之心,我覺得是暫時是沒有到如此複雜的地步。所以這也是為什麼我並沒有像赫拉利這樣悲觀的原因。當然他是從資訊傳播的角度去談,當你不斷被推送一些虛假資訊,你就會對一些資訊產生錯誤的認知。
何帆:那就是人越來越走到一個資訊繭房裡去了,最後就作繭自縛了
新增徐老師微信
立即諮詢
國際在職“MBA/EMBA/DBA”

點選底部“閱讀原文檢視更多

國際在職“MBA/EMBA/DBA”課程

↓↓↓↓↓↓↓↓↓


相關文章