聊天機器人不僅是模仿者?新書追溯人工智慧研究的思想史

近年來,多款相繼出現的人工智慧聊天機器人引發持續關注,與之相關的新書也陸續出版。其中,一位同時涉足人工智慧研究和神經科學領域的學者從內部視角回溯了該領域發展的思想史脈絡,透過對比人類學習和人工智慧學習規律,他認為二者產生的知識是可以相媲美的。
編譯 | 申璐
電影《人工智慧》(2001)劇照。
在新書《這些奇怪的新思維:人工智慧如何學會說話以及這意味著什麼》(暫譯,These Strange New Minds: How AI Learned to Talk and What It Means)中,神經科學家和人工智慧研究員克里斯托弗·薩默菲爾德(Christopher Summerfield)追溯了人工智慧研究的思想史脈絡,回顧了過去50年內計算機科學嘗試召喚出難以捉摸的人工智慧的整個過程,包括其中所經歷的那些希望與失敗。
從艾倫·圖靈對“思考機器”的思考到當今尖端的“大型語言模型”,薩默菲爾德將歷史和流行文化中豐富多彩的相關事件編織到哲學、語言學和計算機科學的線索中,透過解釋哪些方法不起作用以及原因,揭示了最新模型的工作原理。這種方法既揭開了 ChatGPT等人工智慧最新成果的神秘面紗,又闡明瞭是什麼讓它們取得了如此大的突破。
《這些奇怪的新思維》英文版書封。
薩默菲爾德認為,其中關鍵的飛躍是從嘗試基於世界運作的邏輯模型構建人工智慧(“理性主義”方法)到設計透過攝取大量雜亂資料進行學習的系統、並從中推斷出模式(“經驗主義”方法)。就語言模型而言,這意味著放棄語言學家諾姆·喬姆斯基形式化“通用語法”的專案,轉而尋求將網際網路上幾乎所有已釋出的文字輸入到日益複雜的預測演算法中。
關於人工智慧究竟是否擁有生產知識的能力,薩默菲爾德認為人類學習的本質就是預測性,這意味著人工智慧知識生產在一定程度上是可以與人類知識媲美的。但談到評估人工智慧未來的能力邊界,他仍然相對冷靜,他認為人工智慧仍與人類在關鍵方面存在差異。“它們沒有感情、沒有朋友、沒有計劃、沒有身體。它們沒有知覺,我們也不必擔心它們很快就會變得有知覺,更不用說背叛我們、統治世界了。”但他同時提醒說,人類的大腦其實也是容易出錯的預測引擎,有可能從混亂的經驗資料中得出不完美的推論。
如今關於人工智慧的討論日趨極化。薩默菲爾德小心翼翼地與這些極端觀點保持距離。他哀嘆,在令人厭煩的派系爭鬥中,“人工智慧如何運作、未來可能產生何種影響等學術問題往往只是附帶提及”。他的書旨在彌補這一缺陷。有書評認為該書最精彩之處是,它展現了對人工智慧能力及其侷限性的清醒好奇,而這種好奇在社交媒體爭論中是稀缺的。
在最近接受《出版人週刊》採訪時,薩默菲爾德還談到了人類與人工智慧互動的趨勢。“我認為我們將看到根據個人信念和偏好量身定製的模型。這將是個性化輔助技術發展不可避免的一部分,所有主要開發商都在競相打造個性化輔助技術。”但他同時表示,這種互動有可能加劇人類和人工智慧系統之間的依賴關係,這是需要引起重視的。
參考資料:
1.A neuroscientist makes the case that AI can think
www.washingtonpost.com/books/2025/03/17/strange-new-minds-summerfield-review/
2.Where Does AI Go from Here? PW Talks with Christopher Summerfield
www.publishersweekly.com/pw/by-topic/authors/interviews/article/96500-where-does-ai-go-from-here-pw-talks-with-christopher-summerfield.html
本文為編譯內容。編譯申璐編輯:荷花;校對:趙琳。未經新京報書面授權不得轉載,歡迎轉發至朋友圈。

最近微信公眾號又改版啦
大家記得將「新京報書評週刊」設定為星標
不錯過每一篇精彩文章~🌟
點選“閱讀原文”
閱讀本期專題更多內容

相關文章