
防走失,電梯直達
安全島報人劉亞東A
來源:知識分子
作者:張月紅(浙江大學《生物設計與製造》負責人)

我在歲末聽了2024幾位諾貝爾獎得主的一場思想座談會,主要議題是人工智慧的發展與風險,物理獲得主,人工智慧教父辛頓教授在採訪中率先發言說GPT4這類語言機器的知識儲備已超過任何個體的人類,如人類大腦的連線點有一百萬個;而這種機器已有1萬億個連線。因此我們人類面臨著潛在的長、短期風險, 短期是人工智慧將被不良行為所利用,如虛假資訊,網路犯罪,軍方開發致命的自主武器等;長期風險如生成式人工智慧一旦在某個時刻產生了自主學習和決策目標的能力,或將以人類為目標等。 為防止其趨勢,呼籲國際層面上的合作,研究其安全問題。為此,幾位諾貝爾獲獎者們均強調人類自身並不完美,呼籲強化科學與哲學的互補,提升公眾對科學的信任,倫理學或在人工智慧時代將成為最重要的一門學科,其中哲學家的作用不可缺失。
這兩年裡,我也一直在關注和閱讀這一領域的文章,但尚未得到關於人工智慧的進化對人類社會意味著什麼的觀察,以及它將帶來特殊威脅的系統答案。但不可思議的是這幾天被暢銷書《人類簡史》的作者尤瓦爾·赫拉利(Yuval Noah Harari)在2024年9月出版的,並被譯成多種文字全球 “熱”銷的《Nexus》徹底‘黏’牢了。或許是職業的使然,我幾乎也饒有興致地翻看著一書三地、不同文種、不同出版社幾乎同時出版的3個版本, 詳見三個版本的封面(下圖)資訊:


●中文簡譯書名為《智人之上: 從石器時代到AI時代的資訊網路簡史》 由中信出版集團於2024年9月1日出版;譯者 林俊宏

●中文繁體譯書名為:《連線》従石器時代到AI紀元;由2024年9月10日遠見天下文化出版股份有限公司出版;譯者林俊宏
有趣的是該書的中文簡、繁體的譯者同為臺灣師範大學翻譯研究所的林俊宏博士。他也是赫拉利的忠實粉絲, 翻譯了赫拉利的幾部熱著, 如《人類大歷史》、《人類大命運》、《 21世紀的 21堂課》、以及《人類大歷史:知識漫畫》與《少年讀人類的故 事》幾套叢書。
史上最大的一場資訊革命
赫拉利不僅是暢銷書的作家,也是歷史學家與哲學家。
赫拉利在本書研究的一個關鍵點是,資訊至少需要兩點之間的聯絡,因此,資訊在本質上被組織成連線的網路,一些網路變得越大,越占主導地位,最終導致了機器智慧和人工智慧的發展。赫拉利與我們一樣,對此既敬畏又害怕。故而他寫本書的初衷是圍繞著歷史上最大的一場資訊革命,即生成式人工智慧展開,用意是希望人們要理解這場革命,必須與過去的資訊革命做比較。而歷史研究的真正要點也並非單純看 “過去”,而是看“變化”。歷史能告訴我們什麼是不變的、什麼是變的,以及事物是如何變化的。這不僅與資訊革命相關,也與其他型別的歷史變革都息息相關。
依照赫拉利的提示,我粗讀地讀了幾個版本後,略感作者有兩條寫作脈絡:一是以歷史視角佐證每一次新資訊科技的發明總能促成重大的歷史變革,因為資訊最重要的作用就是編織網路,而非呈現既有現實。從石器時代到《聖經》,從歐洲的獵巫行動、現代的斯大林主義、納粹主義,以及今天民粹主義復甦等,可以啟發讀者在歷史教訓中思考資訊與真相、官僚與神話、智慧與權力間的複雜關係均與資訊網路脫不了干係;二是為人類將與機器一起“進化”描繪了一條探索之路,換句話說,通過了解人工智慧是如何工作的物理原理,人們可以開發出有益的應用,避免出現反烏托邦的未來。也如作者簡言之:‘寫這本書的目的是希望為人工智慧革命提供一個比較準確的歷史觀。’
我自知欠缺把控全書要點的能力,但略有收穫的是我捕捉到作者從人工智慧論及科學出版的一些觀點,如我在全書搜尋到15處談及同行評審的期刊,若用Journal一詞搜尋英文原版,那就更多了。更有意思的是這兩天我還從美國學術出版學會的學術廚房中看到了2位行業大佬將此書評為“本年度最新最好的圖書,並極盡所能地捧《Nexue》是一本了不起的綜合著作,對從事學術交流的人來說更是一本非常重要的基礎著作。”[1]
01
“故事”理論的說服力
01
我仔細品味了一位美國同行的評論,他說本書的“故事”理論很有說服力。順此我很快囫圇吞棗地看了第3章,赫拉利的確提出了一個獨到觀點, 即人類創造的第一個資訊科技就是故事(the first information technology developed by humans, is the story), 並佐證很多國家最早都出現在詩人的想象之中。為了驗證他的理論,我特地查溯了公元前25世紀埃及金字塔的銘文;中國先秦時代的《詩經》;西亞美索不達米亞的《吉爾伽美什史詩》;梵語文學中的《吠陀》;荷馬史詩,包括《伊利亞特》和《奧德賽》等等。不禁被作者的故事理論驚訝到人類分享故事資訊有一種遺傳優勢,不僅利於交流,也助於人類進步,還幫助人類從家庭、部落和物種層面取得成功,讓人類成為地球上最先進、最具統治力的物種。
赫拉利順次探索了從寫作到出版,再到網際網路的技術是如何加速了人類交流故事的能力。然後他在故事和事實之間話鋒一轉,迅速指出一個重要的區別,即事實遠不如故事那麼有影響力,如我們人類能處理事實,但我們更能被很多故事所驅動。如一個人可以記住整部《古蘭經》、整部《聖經》、數千頁的《伊利亞特》,但一般不能記住會計報告或人口普查中的幾頁表格,這本質上是資訊處理的過程,於是一種非生物的資訊科技,即書面檔案,到平板電腦的標記,後來發展成為電腦領域,計算機比人類在數百萬、數十億、數萬億個資料點中追蹤和計算發現模式成功演化為現實。這也是他提出故事理論的哲學要點,即人類常常被故事所驅動,這反映出我們人類的內在特徵,如此類推,故事及我們傳達故事的方式對我們的生活比事實更有吸引力。
接著,赫拉利將資訊結構轉移到人工智慧新世界,他認為與印刷等先前的資訊科技不同,生成式人工智慧不僅是人類交流的被動工具,也將成為系統中的全面參與者。以前,將一個文件連線到另一個文件的唯一方法是透過人工進行管理。如今機器能夠創造內容,吸收內容,並對其做出反應。然後,他將這一觀點擴充套件到對政治與社會討論的範疇,這對媒體、治理和更廣泛的社會潛在影響是令人著迷的。
赫拉利特別指出,本書所關注的不是人工智慧系統的積極潛力,因為已有許多支持者在關注人工智慧系統對生產力提高的好處。國際同業人認為本書對探索學術資訊釋出和人類理解新領域至關重要,如作者提到諸多挑戰的一個例子是,在公共對話的生態系統中,故事的力量有能力克服理性和尋求事實的探索,就如今天,當我們看到世界各地的公眾對科學探索真理的信任度下降時,這個問題尤為突出。隨之而來,人工智慧系統創造了看似合理但缺乏事實依據的內容與能力,或將傳為故事而產生更廣泛重大影響,所以說事實與故事始終相伴而行,真不是非黑即白能說的清的。
美國同行又說“在一個以機器為媒介的內容時代,反思《Nexus》中的資訊框架如何影響STM學術出版區,讓我們看到了幾個相互聯絡的線索。學術出版與其他領域的區別在於它基於科學方法追求事實記錄。學術出版探索和傳播新思想,就像科學本身一樣,尋求建立在一種內在的自我糾正方法之上。在我們的學術出版社區中,國際出版倫理委員會(COPE)、國際科學技術醫學學會(STM)、美國國家資訊標準局(NISO)等其他機構都在改進撤稿流程以維護學術誠信的努力就是例證。也如赫拉利在書中最有力地強調,人類在歷史程序中不斷地治癒和反思,然後在認識錯誤的過程中調整路線,是人類最強大的能力。在他的框架中,自我修正的能力已經並將繼續阻止災難的發生” [1]
02
科學的自我修正機制
02
‘自我修正’ 這個短語在本書中或是除了資訊, 人工智慧外,出現機率很高的片語,我查過幾個版本中都過百次, 我也突然頓悟出作者的最終用意,無論人類多會講故事,歷史有多少次的無奈反省,超越人類記憶的智慧儲備有多麼能幹,人類社會最終都有自我糾錯的能力。無論是社會體制,企業文化,尤其是科學界。按照作者的說法,科學群體是最具有糾錯能力的群體。科學革命扮演的重要⻆色就是篩選機制。如此類推,人工智慧的飛躍發展,自我修正模式也在相向而行中。
作者用了大量篇幅談了科學的自我修正機制。儘管我對他的有些說辭不太認同,但我偏愛這個論題的闡述,如果用照我自己的話去詮釋其內容,不如他直接引用他的原文更有深度,故此選編了幾段原文如下:
“科學要想加快步伐,科學家就得相信遠方同仁釋出的資訊。從某種機制中都能看到,科學家雖然素未謀面,卻願意相信彼此的研究成果。第一是各種科學協會的作用,例如1660年成立的英國皇家學會和1666年成立的法國科學院。第二是各種科學期刊的創辦,如《皇家學會哲學學報》 (Philosophical Transactions of the Royal Society,1665)、《皇家科學院刊》(Histoire de l’ Académie Royale des Sciences,1699)。第三是多家科學出版商的出現,如策劃了《百科全書》 (Encyclopédie,1751—1772)這類作品的機構。這些機制是以實證為基礎來整理資訊,當一篇論文投向《皇家學會哲學學報》時,編輯主要的問題不是會有多少人願意付費閱讀這篇文章,而是有什麼證據來證明這是真的。
《皇家學會哲學學報》的編輯不像那些獵巫專家,法國科學院也不像天主教會,並沒有龐大的領地或預算。但這些科學機構就是因為這種特別的原因而得到信賴,逐漸積累其影響力。科學機構之所以能取得權威,是因為它們有強大的自我修正機制,能夠揭露並修正自身的錯誤。科學革命真正的引擎正是這些自我修正機制,而不是印刷技術!
換句話說,人類是因為發現了自己的無知,才推動了科學革命。那些信奉某本經典的宗教,會覺得它們已經取得了無懈可擊的知識來源。 基督徒有《聖經》,穆斯林有《古蘭經》,印度教徒有《吠陀經》, 佛教徒有《佛經》,但科學文化並沒有這樣的神聖經典,也從未宣稱某位科學泰斗是絕不會犯錯的先知、聖人或天才。科學革命從一開始就不相信有絕對正確這種事,為其打造的資訊網路也認為錯誤本就不可避免。當然,大家經常談到哥白尼、達爾文與愛因斯坦如何有天賦,但並不會說其中任何一位絕對完美無缺。這些科學家都犯過過錯誤,即便是最著名的科學著作肯定也會有錯誤與疏漏。即便是天才,也難免受到證真偏差的影響,所以並不能相信天才肯定能糾正自身的錯誤。科學是一項團隊工作,需要團隊互相配合,不可能只靠單個科學家或者所謂絕對正確的書。當然,機構也可能出錯。但科學機構與宗教機構的不同之處在於科學激勵懷疑與創新,從不激勵遵循與順從。科學制度與陰謀論的不同之處在於,科學鼓勵的是懷疑自己,而陰謀論者常常對眾人既有的共識表示懷疑,認為他們自己的信念是毋庸置疑的,從而落入了證真偏差的陷阱。科學的標誌不僅是懷疑,而且自我懷疑,在所有科學機構的核心都能看到強大的自我修正機制。科學機構確實對某些理論(如量子力學或演化論)的正確性達成了廣泛共識,但只是因為這些理論成功頂住了一波波強力挑戰,而且質疑者除了外部人士,也有機構的內部成員。’
另外,在出現重大錯誤與罪行時,科學機構制度願意承認是制度本身出了問題。如在19世紀、20世紀,生物學、人類學、歷史學的科學研究常常有制度性的種族與性別歧視,現在的大學課程、 專業期刊都在誠實地揭露這些問題。
科學機構的聘任與晉升,遵守的原則是“不發表就淘汰”,儘管這個預設的規則常被詬病,但要想在優秀的期刊上發表論文,你必須揭露現有理論的某種錯誤,或是發現某些前輩不知道的內容。沒有人會因為忠實地重複過去學者的話、反對所有新的科學理論,就能拿到諾貝爾獎。
科學家也是人,同樣會有各種各類偏見,這點說得沒錯,但因為科學機構制度擁有自我修正機制,從而讓這些偏見得以克服。只要能提供充分的實證證據,常常只需要數十年,就能讓非正統理論推翻傳統概念,成為新的共識。(例如:謝赫特曼因為他的發現榮獲2011年諾貝爾化學獎。 儘管他的發現極具爭議,但最終迫使科學家重新思考他們對於物質本質的看法。”)
03
我們需要時間學習
03
年末看到美國科學和技術政策辦公室(OSTP)提出2025年7項優先研究事項(Multi-Agency Priority Guidance),第一條就是‘推進可信賴的人工智慧(AI)技術,保護人類的權利和利益,安全,並利用它來加速國家的進步。’這也旁證我們與美國的科技競爭中人工智慧的研究已在首選中。
如本文開篇所述,如今全球科技界都把生成式人工智慧的發展作為第一議題來討論。如此聯想今年5月看到《科學美國人》的編輯克里斯蒂Aschwanden主持的一場討論 “不確定性是科學的超能力(Uncertainty Is Science’s Superpower)[2]。直覺作者赫拉利也正是從GPT的不確定性中找到了寫作《Nexus》的靈感和創造力。醉翁之意是啟發我們從歷史到哲學,最後落腳在科學是一個強大的工具,幫助我們理解周圍世界複雜性,它在做決定時非常有用。如果我們越能接受所有科學背後的不確定性,如面臨生成式人工智慧或某天將超越我們人類的意識,我們就越能更好地面對這種不確定性,根據新證據更新我們的信念。
所有新東西都是從一個未知的地方起始,研究人員,包括科學出版人員應該知道如何駕馭這些不確定性。例如《生物設計與製造》2024年8月在日本東京大學召開的國際學術年會上,主編崔佔峰院士直接在大會報告中向學者與期刊丟擲了2個尖銳的問題“研究和期刊的發文缺少了什麼(What is missing BDM?);人工智慧和分散式生物製造是否為先進製造的一部分?(Intelligent and distributed bio-manufacturing, part of Advanced Manufacturing?) 這或許就是科學家與時俱進,反向思維的模式,即人工智慧的知識漸進中總要受到新證據的影響,但我們可以中級的理解去嘗試做很多事情。
總之,我們不是無所不知,以開放的心態,嘗試中可以幫助我們弄清楚一些問題。
人工智慧對生產力的提高已是毋庸置疑,而符合人類社會價值觀與利益的人工智慧時代呼籲健全倫理學這門最重要的學問。

參考文獻:
[1]https://scholarlykitchen.sspnet.org/2024/12/04/chefs-selections-best-books-read-and-favorite-cultural-creations-during-2024-part-3/
[2]https://www.scientificamerican.com/author/christie-aschwanden/