普林斯頓教授:AI必將殺死人文學科

文/新智元
微訊號:AI_era
就在最近,科技史學家、普林斯頓教授D. Graham Burnett在《紐約客》上發表長文,探討了這個如今愈發被熱議的話題——
人文學科,會在AI的衝擊下消亡嗎?
一開篇,作者就亮出了旗幟鮮明的觀點:特朗普對美國高等教育開戰、削減聯邦補助資金的這種粗暴行為,就像一場鬧劇。
在大學校園裡,真正橫行的巨獸,其實是人工智慧。
AI羞恥症,席捲全美大學
但是,這位教授卻遭遇了一個怪異的現象:根本沒有人敢於承認,自己在使用AI。
一次課堂上,他詢問一個有30名普林斯頓本科生的班級,是否有人用過AI?沒有一個人舉手。
他熱情地催促道:「我本人就在用這些工具,感覺太棒了,我們來談談吧!」依然無人舉手。
為什麼會這樣?
一位女生課後對他解釋道,現在幾乎每個課程大綱裡都包含這樣一條警告:如果使用ChatGPT或類似工具,會被上報院長。
甚至有人提到,主流的AI網站會在校園網路上被遮蔽。
而且很多校園都已經制定了「反AI」政策,即禁止教師給學生布置以AI為中心的作業。
即使有傑出校友和影響力人士對此提出反對意見,也受到了明顯的冷遇。
為什麼會有這種AI羞恥症存在呢?
2024年7月,Wiley的調查顯示,45%的學生表示過去一年在課堂上用過AI;但Digital Education委員會同年的調查卻表明,有86%的學生經常使用AI。
兩個結果一對比,是不是讓人摸不著頭腦?問題很可能出在「社會期望偏差」上。
來自芝加哥大學布斯商學院的研究者詳細分析了社會期望偏差對AI使用調查的影響。
論文連結:https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5232910
社會期望偏差
什麼是社會期望偏差呢?
簡單來說,在回答問題時,人們總會下意識地想給別人留下好印象,而不是完全如實回答。
在使用AI上也是一樣,很多人覺得用AI好像不太光彩。在學術圈,有人覺得用AI輔助寫東西是騙人,沒創意。學生要是承認用了AI,可能會被認為沒有獨立完成作業,學術能力不行。
所以,很多人即便用了AI,也不敢大方承認,這就導致在問卷式調查中,AI的實際使用情況被低估了。
為了弄清社會期望偏差對AI使用情況統計的影響,兩位學者進行了很有意思的研究。
他們找了美國中西部一所中等規模大學的學生,還準備了禮品卡鼓勵大家認真作答。
這些學生來自不同年級、專業,性別、種族各異,家庭收入也不盡相同,很有代表性。
調查主要圍繞ChatGPT、Claude這類常見的AI工具, 學生既要描述自己用AI的情況,比如是否使用過、依賴程度、使用的模型、是否付費、每週使用天數等;也要說說身邊同學如何使用AI。
結果令人驚訝!只有約60%的學生表示自己用過AI工具;但當問到同齡人時,這一比例飆升至近90%。
40%的學生稱自己完全不用AI,大部分都說自己用得很少,或根本不用;但大部分同學覺得身邊人用AI的程度是「中等」或者「大量」。
大部分人表示自己每週只用0-1天AI;但他們覺得同齡人使用頻率高得多,每週用4-5天的佔比最多。
無論學生性別、專業如何,這種自己與同齡人使用AI的差距普遍存在。
為什麼會有這麼大的差距呢?為解開謎團,研究人員開展了第二項研究。
他們從Prolific平臺重新招募了一批本科生。首先展示第一項研究發現的差距,透過直接提問和自由回答兩種方式,讓學生分析差距產生的原因。
直接提問結果顯示,大多數學生(79%)認為大家對自己的AI使用情況報告不足。
70%的學生選擇了與社會期望偏差相關的答案,即學生不好意思承認自己用AI,但說朋友用卻沒問題。
自由回答的結果也類似。
研究人員用無監督生成式AI對回答進行分類,發現58.1%可歸為「因社會期望偏差而少報自己AI使用情況」,遠超「高估別人AI使用情況」等其他類別。
這項研究結果,揭示了許多被忽視的問題。以前,教育政策制定、課程設計很多是依據不準確的AI使用資料。
這意味著,學校可能錯失幫助學生正確認識和使用AI的機會。
聽不懂的講座,ChatGPT讓我明白了
普林斯頓教授表示,在外面的世界,明明AI引爆的驚人革命已經在全面鋪開。
然而在校園裡,我們卻見證了這一詭異的現狀:每個人都裝作充耳不聞,不承認過去一個世紀思想界最重要的革命已經到來了。
只要我們告訴學生不能使用AI,就能像什麼事都沒發生過一樣嗎?
教授認為,是時候討論一下AI對大學,尤其對人文學科究竟意味著什麼了。
他提到一個故事:兩年前,一名學CS的學生在約十萬字的幾門課程材料上,訓練了一個聊天機器人,並且分享給了這位教授。
嘗試之後,這個AI引起了教授的注意。
後來,這個學生去了一家金融科技初創公司,他一再向教授推薦:一定要訂閱OpenAI每月200美元的服務。
可以說,這個產品提供的分析資訊和創造性反思的水平,使得AI引爆的轉折點更為清晰。
另外,教授還舉了另一個例子。
他最近參加了一場關於罕見彩繪手稿的學術講座,但內容極為晦澀。
教授感到不知所云,於是開啟ChatGPT,向它提問。
於是,AI向他提供了豐富的資訊,讓他了解了關於文獻的已知和未知內容,哪些學者進行了基礎研究,以及他們是如何解讀這些影像的。
可以說,ChatGPT向他提供的資訊,比眼前這個講座要好上太多了。
顯然,AI已經在幾乎所有領域,都以這種方式超越了人類。
教授表示,自己作為一個讀書、寫書的人,在近乎苦修的虔誠中接受訓練,致力於歷史、哲學、藝術和文學等學科的學術研究,從事這項工作已經30多年了。
但現在,他看著自己辦公室裡的數千本學術書籍,忽然覺得它們就是考古文物。
為什麼需要翻閱這些大部頭,來尋找一個問題呢?這個辦法是如此低效,如此過時。
現在,我們完全可以就自己關心的任何話題,從認知論到動物符號學,與一個在這些領域達到博士水平的AI系統進行持續的、定製的對話。我們可以即時構建出自己想要的書。
而在以前,寫出任何一本這些書架上的書,都需要數年或者數十年的勞動成果,但如今只需要精心設計的提示詞就可以了。
當然,問題不在於我們能不能寫這樣的書,而在於——我們願意讀它們嗎?
30年學術生涯,陷入職業危機
教授表示,自己在過去的15年中,一直在梳理實驗室對人類注意力的研究。
最近,他開了一門新課《注意力與現代化:心靈、媒體與感官》。
這門課追溯了從沙漠僧侶時代到資本主義時代,人類注意力的轉變模式。
為了教授這門課,他彙編了一份900多頁的資料包,從奧古斯丁的《懺悔錄》到《史詩般的分裂》的神經電影學分析。
其中甚至有有未翻譯的18世紀美學德文,以及19世紀心理物理學實驗室手冊的摘錄。
心血來潮之下,教授將整整900頁的PDF,餵給了谷歌的免費工具NotebookLM,想看看它會如何處理自己嘔心瀝血十多年的深奧研究。
五分鐘後,他聽到了一對歡快的男女組合,用32分鐘討論這門課程。
令人驚喜的是,他們居然深入探討了一篇入由分析哲學家撰寫的一篇極其困難的論文——五世紀南亞思想家 Buddhaghosa對「注意主義」的探討,並且處理得相當好。
教授認為,可以打一個A-。
緊接著,這些歡快的AI開始將康德關於崇高的理論和《史詩般的分裂》聯絡起來,並且爆出好幾個梗。
教授心想,這已經是優等生的水平了。
接下來,教授給班裡的學生布置了這樣一項作業——跟一款全新的AI工具對話,探討注意力的歷史,編輯出四頁的文字,然後提交上來。
在沙發上閱讀這些成功,竟成了他教學生涯中最深刻的體驗——
他彷彿在見證一種新生物的誕生,這是一種與既是同胞、又是對手,既是漫不經心的孩童之神、又是機械形態的陰影的相遇。
AI,並不知道做人是什麼感覺
一位思考很深刻的女學生表示,對自己來說,與機器的交流感覺像是一個存在主義的分水嶺,讓她彷彿瞥見了一種新的思維-感覺。
「這與思考的純粹性有關。」
像很多年輕女性一樣,她密切關注周圍的人——他們的情緒、需求、未言明的暗示。
但她與一個沒有社交義務的AI對話時,她再也無需遷就或取悅他人,這讓她更深入地探索了自己的內心。
最終,班級裡所有人聚集起來後,大家紛紛舉手討論這次的體驗。
一個高個子、社交活躍的男生表示,「我對自己越來越絕望。如果AI能比我更快、更詳細、更系統地做任何事情,我不知道自己還該做什麼。」
歷史系的大四學生Julia說,「是的,我明白你的意思,開始我和你的反應一樣。」
「但我一直在思考我們讀到的康德關於崇高的理念,它分為兩部分:首先,你被某種龐大而難以理解的事物所震懾,然後你意識到你的心靈可以把握那種龐大。你的意識,你的內心生活,是無限的——而這使你比那些壓倒你的事物更偉大。」
「這個AI的力量巨大,像海嘯一樣。但它不是我。它觸碰不到我的我性。它不知道做人是什麼感覺,做我是什麼感覺。」
教室變得安靜了。這就是此刻令人驚歎的辯證的力量。
AI是否預示著人文學科的終結?在某種意義上,答案是肯定的。
但,這也是一種禮物。
如果我們不再讓學生們去閱讀或者寫作了,還能幹什麼呢?答案就是,給他們想做的工作。
工廠式的學術生產力,從來都不是人文學科的本質。
沒有任何數量的同行評審學術成果,沒有任何資料集,能夠解決每個人類面臨的中心問題:如何生活?該做什麼?如何面對死亡?
這些問題的答案,並不是是透過「知識生產」來解決的。
最終,我們可以迴歸到人文學科的再創造,以及人文學科教育本身的再創造。我們可以迴歸到一直以來問題的核心——存在的實際體驗,存在本身。
AI只能間接地接近它們,但間接,恰恰不是「在這裡」的意義。
生活、感知、選擇,仍然屬於人類。

倡導理性閱讀,離夢校更近一步
如果您喜歡這篇文章,那就點個「❤️」吧!


相關文章