從“半截維特根斯坦”到完整的人:AI時代文科教育的使命

↓ 進入公眾號點選右上角“…”設置星標 ↓ 
防止內容走丟
2024全年6期一次發貨,看得爽快,更享折扣
2024+2025雙年、2025+電子刊,組合下單更優惠
投稿郵箱:[email protected]
《文化縱橫》郵發代號:80-942
✪ 朱曉陽
雲南民族大學社會學學院、北京大學社會學系
【導讀】3月6日,科技圈度過了“DeepSeek之後,又一個不眠之夜”:Manus,一箇中國團隊的產品,再次被全球的AI從業者刷屏。作為全球首款通用 AI Agent,它能夠獨立思考、規劃並執行復雜任務,直接交付完整成果。而阿里通義千問推理模型QwQ-32B宣佈開源,登頂HuggingFace大模型榜單。
但在讚歎技術進步之餘,當我們說AI能夠“思考”的時候,它與人的思考是同一個意思嗎?當AI輸出越來越活靈活現的擬人口吻的文字時,它與真人又有何區別?要回答這些問題,牽涉到語音、意識、智慧、心靈等哲學範疇。與蒸汽、電力等其他改變人類社會的技術不同,人工智慧是一門濫觴於哲學思辨之中的技術。當下主流的大模型技術路線,就有許多計算機科學家稱其是繼承了維特根斯坦的哲學思想。這種說法有其道理,但計算機界對語言的理解在技術性地繼承了家族相似、語言遊戲等思想的同時,拋棄維特根斯坦關於人的親知、生活形式和人的動物性行動作為自然語言的根基的思想。以這種“半截維特根斯坦”式預設開發的人工智慧,表面上模仿人的語言和心智,實際上只能與人越來越遠。事實上,在許多人驚呼各行各業被AI取代的今天,這個被技術專家所拋棄的“根基”,正是AI時代的教育和研究最需要保守和培育的
本文為文化縱橫新媒體特約稿件僅代表作者觀點,供讀者參考。
文化縱橫新媒體·社會觀察 
2025年第11期  總第231期
在AI時代,回到人類學“根基”教育和研究
在等待花開的日子,一邊看美國股市被deepseek攪局,一邊看去年諾貝爾物理獎得主辛頓(Hinton)在的演講《數字智慧會取代生物智慧嗎?》 。辛頓被稱為AI的教父,現在引領人工智慧的大模型就是受到他的思路影響的。辛頓自己受到美國語言哲學家丹尼特的影響,丹尼特則是牛津哲學家賴爾的弟子。賴爾以行為主義進路著名,這影響到丹尼特的唯物主義的心智的路線,從而也影響到辛頓的神經網路模擬進路。賴爾可是維特根斯坦的弟子之一。透過賴爾以降的這條路徑,將人的意識和語言等都變成了物質過程。其中如丹尼特稱“語言進化以適應大腦,然後大腦進化以適應語言,這是一個共同進化的過程”。英國的阿尼爾・塞思(Anil Seth)提出生物自然主義,也主張人的意識與人腦這個生物分不開,從而對無生物硬體的AI是否能有意識做了否定,並提出未來即使有可能產生能有意識的人工智慧,應該是朝向建立有生物體的東西。
現在有不少AI專家動輒以維特根斯坦的“家族相似”、“語言遊戲”等概念為行話。前些日子一位自殺的Deep Mind的研究科學家Felix Hill甚至說維特根斯坦和某某,某某可以共同設計出transformer 。從大語言模型的基礎是自然語言處理,而後者是以詞向量作為語言預測核心而言,維特根斯坦確實夠得上是當代人工智慧的鼻祖。因為這種詞向量為核心的自然語言處理與後期維特根斯坦的“綜觀”和“中間連結”之說是一致的。但AI專家們對維特根斯坦關於人的語言遊戲底下有人的親知、生活形式和人的動物性行動等少有理解。雖然丹尼特對辛頓有很大影響,但丹尼特將語言歸結為人腦這種生物體和文化的立場是很清楚的。他講過一個有關與獅子對話的思想實驗:“維特根斯坦“曾有過著名的論述:‘如果獅子可以講話,我們會無法理解他。’但是錯了!如果獅子可以講話,我們會很好地理解他。只是那對我們理解獅子毫無幫助。” “因為這樣一來他就不再是頭獅子了,”可見丹尼特認為人腦和語言與當下的AI還是有距離的。辛頓的“凡人計算(Mortal Computation)”即使能裝進硬碟,估計在當今的條件下,也不會超過能與人對話的獅子。
辛頓認為人類智慧的本質不是邏輯推理,而是“學習(learning)”,並認為人工智慧的學習與人類是一樣的。辛頓並不認可人工智慧的學習僅僅是統計分佈和大資料基礎上的“隨機鸚鵡”。辛頓批評喬姆斯基,認為將智慧視為邏輯推理的人不瞭解人工智慧的能力,也不理解人工智慧的真正威脅。辛頓的批評貌似如同當今的語言現象學,看出命題邏輯和推理並非哲學本質,從而也並非智慧的本質,但是辛頓不認為類比、相似、關聯等與人工智慧“學習”接近的人類認識形式背後同樣有人的生活形式或親知。這是與人工智慧的“學習”不同的。因此辛頓的“人類智慧本質”與語言現象學的預設僅僅在表面上相似,在根本問題上卻不一樣。
按照辛頓的說法,人工智慧會有主觀經驗,並且能用語言表達。例如你給機械臂裝上攝像頭,然後再給它的鏡頭前裝一個稜鏡,在鏡頭前面有一把鐵鍬在飛舞,然後它看到鐵鍬,它說:“鐵鍬飛在我的右邊”。人指出:鐵鍬在你前面,但我給你的鏡頭前放了一個稜鏡。機器人說:我看到物體就在我前面,但我有一個主觀體驗,覺得它在旁邊。這表達了一種主觀體驗,並使用語言表達出來。這跟人的語言表達沒有什麼差別。 
在我看來,這種說法有些像是將著名的思想實驗“假如成為蝙蝠會如何”反過來的一種想法。人的語言是可以被借用的,就像鸚鵡借用人的語言一樣。機器可以用代替人眼的攝像機“看”,可以借用人的語言描述看見什麼,但是它說“一隻鐵鍬在我的右邊飛舞”的時候,它的眼睛是機器的鏡頭,它的感受(如果它有感受)會和我們一樣嗎?我們不可能知道,我們不過是用人的感受去假設它的感受。這種說法有些像丹尼特那個獅子說話故事的前半部分,即維特根斯坦講的部分。丹尼特過後補充其後半部分時說:“他與普通獅子的差異如此之大,以至於他無法告訴我們做一頭獅子是什麼樣的體驗。我認為我們應該習慣這樣一個事實:我們在日常生活中熟悉的人類概念只能被部分地應用到動物身上。”
雖然我們和機器貌似有共同對話語言,但機器的語言甚至是與機械的硬碟分離的,是一套演算法。更準確一些說,大語言模型是將人類語言以token為單位(經常等於詞)進行下一個詞的預測,或曰“詞彙接龍”。其基礎是按照日常語言使用時詞的出現距離,按機率派給其“詞向量”。所謂transformer也是以詞向量為基礎。多頭注意力(Multi-Head Attention)則是在基礎的語詞猜測上,再有進一步的重點提取等等。AI的自然語言處理可能會將“這是一隻手”按照“這-是-一隻-手”分解成詞向量為基礎的演算法處理,詞向量就是AI的“深層語法”。
實際上,維特根斯坦會認為這個經驗命題已經到確定的“終點”,再無“理由”在底下。維特根斯坦在去世之前一年多的筆記《論確定性》中說:“給出理由,為語言遊戲辯護,都是有一個終點的。——不過這個終點並不是某些命題直接讓我們將它們視為是真的,因此位於語言遊戲的根基處的並不是我們的一種看,而是我們的行動。”“在正常情境中,‘我有兩隻手’這一點與我能為其給出的證據一樣確定。這就是我為什麼不能將‘看我的手’當作它的證據的原因。”維特根斯坦認為,這種生活形式或動物性實踐是語言遊戲和常識性真理的根基。按他的說法,這種描述世界圖景的常識命題是“神話性的”,或者說有一種神秘主義。而人的這種常識性根基,無論如何也不是AI大模型那種“自然語言”的詞向量基礎。因此,AI科學家們聲稱學維特根斯坦,我覺得學的其實是半截維特根斯坦:只看見維特根斯坦對心理主義的懷疑,對因果邏輯的批評,但這只是前半截,因為維特根斯坦還認為,語言遊戲的背後是生活形式,是人的動物性的行動,這一點沒有被繼承。一個人說:我手摸到泥土,是溼的。這是我這樣一隻手,這樣一個人的器官的手在摸泥土。這是人工智慧沒法感受到的,這種親知是人才有的。這就是語言遊戲底下的動物性根基。
辛頓則認為人並沒有一個所謂的“內心劇場”,所以人工智慧用它的感官,如攝像機看,機械臂感觸到世界,也可以借用人的語言說出感受。但是它和我們人的親知不一樣。在這一點上,我覺得它永遠也不可能取代了人。但是它可以力量很強大,這毫無疑問,就像原子彈可以沒有這種親知感覺,但是它可以把人給炸死。因此辛頓感到很可怕。他堅決反對大模型開源,因為這就像在超市裡能買到原子彈一樣
作為旗幟鮮明的物理主義者,丹尼特認為在心靈和語言之間沒有什麼神秘的的關係,因此語言是人工智慧可以掌握的,隨著它的進化可以出現智慧,這只是資金的問題。這一點辛頓接過去了。但是丹尼特也說人還有內心,還有表徵,這些不等於辛頓意義上的語言。如果用維特根斯坦的話來說的話,這個內心的表徵(維特根斯坦稱為世界圖景)是和語言分不開的。這個世界圖景的背後是人之為人所具有的各異的生活形式、行動或動物性的實踐。辛頓等人以這種半截維特根斯坦式預設開發的人工智慧,是走上一條模仿語言和心智,實際上背離人的路線,與人越來越遠。 
當下也有堅持認為AI現有路線不能產生有“意識”的人,例如阿尼爾・塞思。他說:“我們應認真考慮意識可能依賴於我們作為生物體的本性這一可能性。“這種觀點被稱為人工智慧的生物自然主義。辛頓雖然也提出被認為類似生物自然主義的凡人計算,即軟體無法脫離物理載體 / 硬體而存在,但到目前為止AI仍然是他所謂的“永生計算”,計算軟體與硬體分離。 
人工智慧時代需要“根基”教育
雖然transformer是一種“神經網路”架構,但實際上與人腦處理語言和影像的意識過程關係不大。例如人在寫作之時,創意狀態下的語言獲得往往是來自一種類似現象學還原的狀態。Deepseek推出之初曾宣揚這個AI也會有“頓悟時刻”,但Deepseek本質上仍然是與ChatGPT一樣的神經網路模式,只是蒸餾更有效,更概括,成本更低。其宣揚的頓悟時刻,也不可能是人腦的頓悟時刻。Deepseek生成的文字給人更“銳利”的感覺,實際上是可能與Deepseek的“更有效”蒸餾有關,將老師模型中的好詞好句更有效地提取。這確實有效,但在快速獲得老師文字關鍵話語的時候,卻可能失去精讀文字能獲得的全面資訊。
人工智慧在模擬人類語言和“主觀經驗”方面都取得驚人進步 ,在進行文獻資料梳理、論文寫作方面已經顯示出能夠替代人的能力,並有可能在不遠的未來作替代“命題對應事實式”的社會科學方法及相應寫作。可以預想,未來的社會科學研究和教育將更注重人與人面對面對話(類如戲劇演示),更強調以浸入生活世界的方式(如實地測度[mapping])和以一手田野資料演示研究者想法。這些方法的不可替代是因為它們是以人的生活形式和行動為根基的看世界方式。如果要扯上維特根斯坦的話,這些方法與他後期所稱的“綜觀/一目瞭然表達”有關。它們是以人的生活形式為根基的綜觀,而不是AI大模型模仿的上半截維特根斯坦。
在這一點上,我所從事的人類學和維特根斯坦沿著各自的路徑相通了。分析哲學史專家漢斯-約拿·格洛克(Hans-Johann Glock)注意到,維特根斯坦後期有一種哲學人類學轉向:“也許部分地作為閱讀斯賓格勒(Spengler)和與馬克思主義經濟學家皮耶羅·斯拉法(Pierro Sraffa)的討論的結果,維特根斯坦採納了一種更‘人類學的’視角。因此,語言不再被看作是一個自給自足的抽象系統,而是人類實踐的一部分,生活形式的一部分。”人類學的教育是要將這個根基植入學生的心中。為此,這個學科的一整套閱讀、討論、對話、田野調查、寫作、直至演示呈現,就是要將這個根基變成人類學學人的習性或背景,將這個根基告訴世人。

現在應當大聲說:在AI時代的人的教育和研究正是要在“根基”上著力。藝術或美育對於植入根基至關重要,但它並不是指那種以“拽大詞”、尋找經典名著的好詞好句,主題思想概括或知識點提取為主的藝術欣賞課。目前,藝術或美育課程在小學、中學和大學中雖然已經成為學科建制的一部分,實際上都是將根基教育的“根基”挖去的知識點培訓。例如“勞技課”本是讓學生動手做東西,但經常變成課堂上的“選擇題”考試;大學的藝術欣賞課基本上是由一些拽大詞的評論佔主流;而寫作課則常常是教一些寫作的固定“配方”。這樣的文科教育已經有久遠歷史,如果沒有遭遇上AI這種兇猛的“大詞家”,應當還能活上無盡的歲月。今天的問題是這類教育已經被AI完美地替代。所謂文科危機很大程度是因此而發。這種文科危機與“根基”教育並無干係,相反凸顯了根基的無可替代。今天亟需的正是建立根基教育。
《論確定性》中,維特根斯坦寫到:“根基教育將根植於人的經驗確定處。總而言之,這種教育將注重動手、體驗或行動。”
根基教育將重視學習中人與物,人與人、人與周遭事物和環境的切近,將特別重視人浸入環境的過程。用人類學的話說,強調“田野”,強調親手得來和體驗到的東西。從此,那些從泥土中長出來的課程,那些拔出來帶泥的蘿蔔,個別的和地方的體驗都會是教育者和受教育者的根基。
根基教育和研究是以人與人的對話和討論為主,類似論語式的對話,也類似柏拉圖筆下的辯證對話。根基教育的現場對話也是呈現方式。
根基教育和研究是以藝術和美育為核心。這一點在上面已經說過,所謂藝術和美育不是像目前學校教育中那種狀況。簡單說應當是從“現象學還原”開始的創意教育和藝術訓練。
所以,人類學確實是AI不可能替代的一個領域,人類學者和學生應當有光明的前程。但是且慢樂觀,因為目前的人類學中,根基性教育並沒有成為一種自覺的意識,也沒有被落實在學科基礎教育中。例如人類學強調田野調查,但是我們沒有幫助學生如何浸入其中,也沒有告訴學生如何進行綜觀/一目瞭然的測度。再如人類學民族誌強調“描述”,但是我們沒有訓練學生如何以“中間連結”去描述。我們更多的是還原論式的解釋和說明。而這些現在都是AI做得很有效的方面。此外我們有理由不樂觀,更在於類似辛頓的擔憂。雖然我們不相信根基教育和研究會被AI取代,就像不相信汽車和原子彈能夠有人的意識,但是現實的情況是,當我們滿懷信心走在大街上的時候,可能先行被炸彈炸死,可能被呼嘯而來的汽車壓死。這是今天最容易想見的情景。

編輯 | 王儒西
本文為作者投稿,原題為《在AI時代,回到人類學“根基”教育和研究》,僅代表作者觀點,供讀者參考。
打賞不設上限,支援文化重建
長按下方二維碼打賞

訂閱服務熱線:
010-85597107
13167577398(微信同)
工作時間:週一至週五早8點至晚8點

相關文章