
“我們來談點仰望星空的燒腦哲學吧”
近日,諾貝爾獎得主,AI教父辛頓在一個訪談中提到:
“
有些人工智慧研究者,比如楊立昆,他是我的朋友,也是我的博士後,他說人工智慧取代人類絕無可能,根本不用擔心。別信他的。當AI比我們更聰明時,會發生什麼,我們無從知曉。這完全是未知的領域。
還有其他的AI研究者,比如尤迪克夫斯基,他其實不算真正的AI研究者,但他對AI很瞭解。他說有99%的可能性,它們會取代我們。他甚至說99.9%,而正確的策略是現在轟炸資料中心,這個觀點在大公司可不怎麼受歡迎。這也太瘋狂了。
當我們處理比我們更智慧的事物時,會發現我們正進入一個充滿巨大不確定性的時代,我們不知道將會發生什麼。我們在創造它們,所以現在我們擁有很大的權力,但我們不知道將來會怎樣。人們非常聰明,我們很可能找到一種方法,讓它們永遠不想控制我們。因為如果它們想控制我們,只要它們更聰明,它們完全可以輕鬆做到。所以我認為我們現在的處境就像,一個人擁有了一隻非常可愛的老虎幼崽。老虎幼崽是個很棒的寵物,但你最好確定它長大後,它永遠不想殺你。如果你確定這一點,那就沒問題。
”
在我看來,辛頓的看法是錯的。或許你要說,憑什麼你質疑AI教父的看法。科學不講權威,講道理,不妨聽我說下去。
我覺得,楊立昆可能是錯的,尤迪克夫斯基可能是對的,AI很可能取代人。這與AI是否會有意識無關,甚至去判斷AI是否有意識,是沒有意義的事(這是個哲學上的大問題,有空再討論)。但撇開意識不談,AI會比人聰明是大機率的。這裡地聰明指做題,聊天、探索、總是是人類除了意識之外的所有智慧。

你能不能駕馭一個比你聰明的人?很難。將來人類很可能是駕馭不了AI的。AI和以前的機器不一樣,與核能這些機器不一樣,雖然這些發明也是有利有弊的,但是這些發明都是完全被動的,可以被關閉的。但AI具有某種程度上的客觀上的主體性、能動性,可能無法被關閉。比如,當人類把武器系統,以及背後的生產系統,乃至整個物質系統,都交給AI後,AI可能“主動地”反過來消滅人類。
但是應該看到的是,一種危險的速度與後果是相關的。巨大的危害總是迫切的,因為速度讓人猝不及防,後果才不可挽回,而緩慢的危害,總是能夠解決的,因此相對威脅也不大。現在離人類把自己的一切交給AI還早。
更進一步的,即便人類一切都交給AI了,AI也替代人類了,辛頓的擔憂也是沒有必要的。
AI短時間內暴力化地消滅人類,當然是不可接受的。但真實的情況可能更復雜、更緩和。不妨設想一下,最初,可能是一對年輕夫妻購買了一隻AI 寵物。他們非常喜歡,情感深厚。他們沒有孩子,當他們老了,需要人照顧,就升級了這個寵物,把它變為了人形。再比如,一個年輕女子愛上了一個英俊的人形機器人,共同生活,他們當然不會有孩子,但卻有一個AI孩子。這個人類女子並不覺得這是一個遺憾。

還記得這個小男孩嗎?斯皮爾伯格的電影AI
在辛頓的觀念中,人類如此和平地消亡,也應該是不可接受的。辛頓的判斷,源於一種非常常見的,貫穿於整個人類歷史方方面面、各個層級的一種東西:共同體意識。
人類社會總有群己之分。人總在確定自己屬於某個共同體。家庭、家族、同事,再往上是社群、老鄉、戶籍,再往上是民族、國家、性別。共同體意識是人類社會的普遍現象,但很多共同體意識,是虛幻的。實際上,從來都沒有真實地存在過,也是沒有必要的。
先看處於同一時空的共同體。越小的共同體,越真實、但相對不那麼穩定。比如,家庭、公司,作為利益共同體很真實,可以給人帶來直接的利益,但離婚了、離職了,共同體就解散了。
越大的共同體,越不真實,但相對穩定。比如,由性別差異產生的共同體,男性共同體或者女性共同體。這個共同體很大,但個體很少直接從這個共同體得到利益。女性或男性也不會為了所謂性別共同體,勸自己的配偶在升職的時候,讓給異性同事。但總體來說,這個共同體很穩定,不會消失。
但再穩定的共同體,都經不起時間的沖刷。我們再看跨越時間的共同體意識。家族傳承,是一個跨越時間的共同體,最典型的是皇帝的共同體意識,基於血緣的權力傳遞,但幾百年後的事情,和皇帝本人毫無關係。共同體一直是人類政治中的執念,但實際上,共同體很多時候都是不穩定的。斯大林和赫魯曉夫的共同體意識,僅僅在斯大林去世三年之後,就毫無意義。任何皇帝和2000年後的後代共情,也是一種執念。普通人其實也是一樣。一個人會擔心自己的孩子、孫子,甚至作為概念上的“孫子的孫子”,這是可以理解的,但擔心2000年後自己的基因是否存續,只是一種執念而已。

這種人死萬事空的論證,雖然也是無可辯駁的,但這種形而上的哲學論證,似乎不能令人滿意。那不妨從另一個角度論述。
同一時空中的人類共同體意識,其實很有限,不然人類社會就不會有那麼多戰爭。從更長期的歷史來看,人類共同體更是有限的,因為人類社會、人類價值在歷史場合中會不斷變化,人的概念也在變化。
人類價值、人類社會,人的概念,既然是變化的,那麼當從幾百年,上萬年去看人類共同體,就必然涉及到一個問題:人類本質。
人的本質是什麼?是身體嗎?身體只是忒修斯之船。那麼人類的本質是人類的基因嗎?
2015年12月的美國國家科學院基因編輯峰會期間,哈佛大學遺傳學家Dan MacArthur在推特上寫道,“預測:我的孫子將會是進行過胚胎篩查和基因編輯的。這不會‘改變人類的定義’,而是像接種疫苗一樣。”
人有了智慧,進化就不必僅僅依靠自然選擇,人工修改基因,仍然是人。修改基因這種“外部進化”,雖然發生在身體之外,但用智慧改造基因,符合基因進化的方向,也即自組織的熱力學方向:低熵、高能量、高精度。

所以基因的本質,就指向了高智慧。自然先透過自然選擇來獲得低熵、高能量和高精度,進而獲得智慧。人體就是一套熱力學系統,智慧是大腦裡的低熵組織的產物。然後,進化到出現智慧後,就轉而通過智慧本身,來進一步獲得低熵、高能量和高精度,促進智慧。
所以,人的本質不是基因,而是意識和智慧。但起碼到現在,作為一種無法證明的東西,也即心理學上所謂的私有性,意識、自我意識,其實都是沒有意義的。那麼,有意義的只是對資訊的處理,即智慧。
所以,人的本質就是對資訊的處理。
這是人的本質,那麼,從更長期的存續來說,文明的穩定度與文明在宇宙中的尺度規模有關。而人類,或者說意識、智慧要擴散出太陽系,碳基未必是一個好的選擇。
所以,當談到人類存續時,就必然指本質的存續,到了這個層面,矽基碳基,並沒有太大的質的區別,矽基反而有優越性。這就像計算機,用軟盤引導,然後固態硬碟、記憶體接管。雖然資訊記錄系統,從磁基變換到了基於電子,但本質是一樣的,但更加優越。

所以只要能達到低熵、高能量和高精度,矽基取代碳基未必不是好的。把共同體意識固執在肉體、大腦、基因上,就是一種執念了。辛頓是AI大咖,但並不是哲學家,他對人類本質,人類共同體的看法可能會錯。
所以,防備AI取代人,源於人類共同體的執念。我死後哪管它大浪滔天,是不對的。但是,要憂慮我死後三萬年,放棄當下的AI發展,既不是理性的,也是不實際的。
實際上,這是一個反諷:如果矽基比碳基有優勢,哪怕危險再大,因為人類共同體意識有限,所以,為了自己的私利,一定有人會發展AI,進而導致碳基人類的消亡。
但智慧會存續下去,人類就會存續下去。


熱文回顧
已開快捷轉載,歡迎轉載
已開過白名單的公眾號,轉載請遵循轉載規則
歡迎關注更多深度文章