現在的大學生,不用大模型才是異類

選自New York Magazine
機器之心編譯
作者:James D. Walsh
「大學現在學的就是掌握 ChatGPT 的程度了。」
在北美的頂尖大學校園裡,人工智慧完成作業、寫論文已經成為一種常態。
近日,New York Magazine 旗下 Intelligencer 發表了一篇題為「每個人都在大學裡作弊」的專題報道,其中從 Chungin「Roy」Lee 開發作弊軟體的故事開始,談到了美國大學對 ChatGPT 等 AI 工具的廣泛使用乃至濫用的情況。

原文地址:https://nymag.com/intelligencer/article/openai-chatgpt-ai-cheating-education-college-students-school.html
這篇報道引起了社交媒體上廣泛的討論,作家 Steve McGuire 在一則帖文中總結了這篇報道中一些頗具衝擊力的言論。

對此,有人認為 AI 會給教育帶來不可避免的改變,而教育本身也應當順應這種變化,探索新的教學和作業模式。

也有人表示,為了防止學生用 AI 寫作業,應該考慮迴歸傳統的課堂作業方式。

也有人分享了他們自身的教學技巧。

機器之心編譯了 Intelligencer 的這篇專題報道。
去年秋天,Chungin「Roy」Lee 走進了哥倫比亞大學的校園,他坦言自己幾乎在每份作業上都使用了生成式人工智慧作弊。作為一名計算機科學專業的學生,他在入門的程式設計課上依賴人工智慧:「我把題目扔到 ChatGPT 裡,然後它輸出什麼就交什麼。」他粗略地算了一下,他提交的每一篇論文 80% 都是人工智慧寫的。「最後我會進行一些潤色。我會把 20% 的人性,也就是我的聲音,融入其中,」Lee 最近告訴我。
Lee 出生於韓國,在亞特蘭大郊外長大,他的父母在那裡經營著一家大學預科諮詢公司。他說,他在高中四年級時就被哈佛大學錄取,但因為他在畢業前的一次夜間實地考察中偷偷溜出去而被停學,哈佛大學撤銷了錄取。一年後,他申請了 26 所學校,但一無所獲。所以,他在一所社群大學待了一年,之後轉學到哥倫比亞大學。(他的自我介紹是在 ChatGPT 的幫助下撰寫的,論文將他曲折的高等教育之路變成了一個寓言,講述了他創辦公司的雄心壯志。)
去年 9 月,當他以大二學生的身份開始在哥倫比亞大學學習時,他並不太擔心學業或 GPA。他告訴我:「大學的大多數作業都與我無關…… 它們可以被 AI 破解,而我對做這些作業根本沒興趣。」當其他新生對大學嚴格的核心課程感到擔憂時,學校稱其「拓展智力」和「促進個人轉變」,而 Lee 卻利用人工智慧以最少的努力輕鬆通過了考試。當我問他為什麼費盡心思考進常春藤盟校,卻把所有的學習都推給機器人時,他說:「這是結識聯合創始人和找物件的最佳場所。」
到第一學期末,Lee 終於實現了其中一個願望。他遇到了聯合創始人、工程學院大三學生 Neel Shanmugam,兩人一起開發了一系列有潛力的初創專案:一款專為哥倫比亞大學學生設計的約會應用、一款面向酒類經銷商的銷售工具,以及一款筆記應用。但這些應用都沒有成功。這時,Lee 萌生了一個想法。作為一名程式設計師,他曾在 LeetCode 上苦苦掙扎了大約 600 個小時。
對於 CS 專業的學生來說,LeetCode 的大名再熟悉不過了,這是一個刷題平臺,旨在幫助程式設計師應對科技公司在面試和實習生時提出的演算法題。和許多年輕的開發者一樣,Lee 覺得這些題目乏味無趣,而且大多與實際的工作內容無關。這有什麼意義呢?如果有人開發一個程式,在遠端面試中隱藏瀏覽器的 AI 能力,讓面試者可以透過作弊手段透過面試,結果會怎樣?
2 月,Lee 和 Shanmugam 推出了一款工具,實現了這一目標。他們的 Interview Coder 的網站上打出了一條橫幅,上面寫著「F*CK LEETCODE」。Lee 在 YouTube 上釋出了一段自己用該工具作弊透過亞馬遜實習面試的影片。(他實際上得到了實習機會,但拒絕了。)一個月後,Lee 被哥倫比亞大學學術誠信辦公室叫去。根據委員會的報告,委員會認定他「宣傳作弊工具連結」和「向學生提供訪問該工具的知識,並讓他們自行決定如何使用」,之後學校對他進行了紀律處分。
Lee 認為,哥倫比亞大學與 ChatGPT 的母公司 OpenAI 有合作關係,卻因為他在人工智慧方面進行創新而懲罰他,這太荒謬了。儘管哥倫比亞大學的人工智慧政策與許多其他大學類似 —— 除非教授明確允許(無論是某個課程還是具體專案),否則禁止學生使用人工智慧 —— 但 Lee 表示,他認識的學校裡沒有一個學生不在利用人工智慧作弊。需要明確的是,Lee 並不認為這是一件壞事。他說:「我認為,我們距離一個沒有人認為使用 AI 做作業是作弊的世界還有幾年的時間,甚至可能是幾個月的時間。」
2023 年 1 月,就在 OpenAI 推出 ChatGPT 僅僅兩個月後,一項針對 1000 名大學生的調查發現,近 90% 的學生曾使用這款聊天機器人來幫助完成作業。ChatGPT 上線第一年,其月訪問量逐月穩步增長,直至 6 月學校放暑假。(這並非純粹的猜測:2024 年暑假,流量再次下降。)
教授和助教們越來越多地發現自己面對的論文充斥著笨拙、機械化的措辭,雖然語法上無可挑剔,但聽起來卻不像大學生 —— 甚至不像人類。兩年半後,大型州立學校、常春藤盟校、新英格蘭文理學院、海外大學、專業院校和社群學院的學生都開始依賴人工智慧來幫助他們順利完成教育的各個方面。
生成式 AI 工具,除了 ChatGPT,還有谷歌的 Gemini、Anthropic 的 Claude、微軟的 Copilot 等等,它們可以幫助人們在課堂上做筆記、設計學習指南和練習測試、總結文章和教科書內容,以及集思廣益、勾勒提綱與撰寫論文。STEM 專業的學生正在使用人工智慧來自動化他們的研究和資料分析,加速完成密集的編碼和除錯任務。「大學現在學的就是掌握 ChatGPT 的程度了,」猶他州的一名學生最近在一段影片中配文,影片中她將《種族滅絕與大規模暴行》教科書中的一章複製貼上到 ChatGPT 中。
加拿大威爾弗裡德・洛裡埃大學(Wilfrid Laurier University)的新生 Sarah 表示,她第一次使用 ChatGPT 是在高中最後一年的春季學期。(出於隱私考慮,文中為化名)熟悉了聊天機器人後,莎拉在所有課程中都使用了它:原住民研究、法律、英語,以及一門名為「綠色產業」的「嬉皮士農業課」。「我的成績棒極了,」她表示,「ChatGPT 改變了我的人生。」
去年秋天上大學後,Sarah 繼續使用人工智慧。她幾乎每次上課都會看到其他學生的筆記型電腦開啟 ChatGPT。學期末,她開始覺得自己可能對這個網站產生了依賴。她已經覺得自己對 TikTok、Instagram、Snapchat 和 Reddit 上癮了,她在 Reddit 上用使用者名稱「maybeimnotsmart」寫作。「我在 TikTok 上花費了很多時間,」她說。 「成小時的刷,直到我的眼睛開始疼,這讓我很難計劃和完成學業。有了 ChatGPT,我可以在兩個小時內寫出一篇通常需要 12 個小時的論文。」
教師們嘗試過用人工智慧來佈置作業,比如重新使用藍皮書(作文考試)或改為口試。聖克拉拉大學的技術倫理學者 Brian Patrick Green 在第一次嘗試 ChatGPT 後就立即停止了佈置論文。不到三個月後,在教授一門名為「倫理與人工智慧」的課程時,他認為低風險的閱讀反思是安全的 —— 肯定沒有人敢用 ChatGPT 來寫一些私人的東西。但他的一個學生提交了一份反思,其中充滿了機械的語言和尷尬的措辭,Green 知道這是人工智慧生成的。阿肯色大學小石城分校的一位哲學教授發現,她在「倫理與技術」課上的學生使用人工智慧來回答「簡單介紹一下自己,並說出你希望從這門課中學到什麼」這個問題,直接輸入當提示詞。
作弊並不是什麼新鮮事。但現在,正如一位學生所說的,「天花板被掀翻了」。誰能抗拒一種能讓所有作業都變得更容易、而且似乎沒有任何後果的工具呢?過去兩年大部分時間一直在批改 AI 生成論文的加州州立大學奇科分校倫理學教授 Troy Jollimore 對此感到擔憂。
「大量學生將從大學畢業,獲得學位,進入職場,但他們本質上是文盲,」他表示。「既是字面意義上的文盲,也是歷史上的文盲,他們對自己的文化一無所知,更不用說其他人的文化了。」考慮到大學教育的短期性,這樣的未來可能比預期更快到來。目前,大約一半的本科生在大學期間還沒有接觸過生成式 AI。「我們談論的是整整一代人的學習方式可能都受到了嚴重破壞,」Green 表示。「它正在縮短學習過程,而且這種情況正在迅速發生。」
在 OpenAI 於 2022 年 11 月釋出 ChatGPT 之前,作弊現象其實已達到了新高度。當時,許多大學生遠端完成高中學業,基本無人監督,並且可以使用 Chegg 和 Course Hero 等工具。這些公司標榜自己擁有龐大的線上教科書和課程資料庫,但實際上,它們只是作弊的多功能工具。Chegg 承諾每月只需 15.95 美元,即可獲得其僱傭的 15 萬名擁有高學位的專家(主要在印度)提供的全天候服務,最快 30 分鐘內即可解答家庭作業問題。
不過在 ChatGPT 推出後,學生們迎來了一款速度更快、功能更強大的工具。
學校管理者對此卻束手無策。由於無法全面禁止 ChatGPT,大多數學校採取了臨時措施,由教授決定是否允許學生使用人工智慧。一些大學對此表示歡迎,與開發者合作,推出自己的聊天機器人幫助學生選課,或開設以生成式人工智慧為重點的新課程、證書課程和專業。但監管仍然困難重重。多少程度的 AI 幫助是可以接受的?學生是否應該被允許與大模型對話以獲取靈感,但不能要求他們直接複製貼上?
如今,教授們通常會在教學大綱中闡明他們的政策 —— 例如,允許使用人工智慧,但學生必須像引用其他來源一樣引用它;或者只允許 AI 提供概念幫助;或者要求學生提供與聊天機器人對話的記錄。學生們通常將這些指示理解為指導方針,而非硬性規定。有時,他們會在作業上作弊,甚至在不知情的情況下 —— 或者在不瞭解具體程度的情況下,要求聊天機器人修改草稿或查詢相關研究進行引用,這顯然違反了大學政策。
Wendy 是紐約市一所頂尖大學的金融專業大一學生,她告訴我,她反對使用人工智慧。或者,她澄清道:「我反對複製貼上。我反對作弊和剽竊。所有這些。這違反學生手冊。」然後她一步步描述了她是如何在最近一個星期五早上 8 點呼叫一個人工智慧平臺來幫助她寫一篇兩小時後截止的四到五頁的論文。
每當 Wendy 使用 AI 寫論文時(也就是說,每當她寫論文時),她都會遵循三個步驟。第一步:「我會對大模型說,『我是一名大學一年級學生,我正在上這門英語課』,」Wendy 說道。「它會教給你一種非常高階、非常複雜的寫作風格,而你肯定不想要那樣。」 第二步:Wendy 會介紹一下她所學課程的背景,然後將教授的指示覆制貼上到聊天機器人中。第三步:「然後我會問,『根據提示,你能否給我一個提綱或組織結構,以便我能夠按照提綱寫作?』然後,它會給我一個提綱、引言、主題句、第一段、第二段、第三段。」有時,Wendy 會要求 AI 列出支援或反駁某個論點的觀點:「我不太擅長組織文章,而這個提綱讓我很容易理解。」
大模型聊天機器人勾勒出 Wendy 的論文大綱,提供主題句和觀點要點後,她只需填寫其他內容即可。溫迪在上午 10:17 提交了一份工整的五頁論文,遲到的時間尚可接受。當我問她作業完成得如何時,她說她得了個好成績。「我真的很喜歡寫作,」她說道,語氣中帶著一絲奇特的懷舊之情 —— 那是她最後一次獨自寫作文。
「說實話,我覺得精心規劃論文很有意思。你能學到很多東西。你必須思考,哦,我這一段該寫些什麼?或者我的論點應該是什麼?」但她更希望獲得好成績。「用 ChatGPT 寫論文,它就像直接告訴你要遵循什麼。你真的不用想那麼多。」我問 Wendy 能不能讀一下她交的論文。開啟論文,我驚訝地發現論文的主題是:批判教育學,即巴西教育家保羅・弗萊雷開創的教育哲學。這種教育哲學考察社會和政治力量對學習和課堂動態的影響。她的開場白是:「學校教育在多大程度上阻礙了學生批判性思考的認知能力?」
後來,我問Wendy,她是否意識到自己利用 AI 撰寫的不僅是一篇關於批判教育學的論文,而且是一篇論證學習才是「讓我們真正成為人」的論文,這其中的諷刺意味。她不確定該如何理解這個問題。「我經常使用人工智慧,幾乎每天都用,」她說。「我確實認為它會剝奪批判性思考的能力。但只是 —— 既然我們依賴它,我們真的無法想象沒有它的生活。」
我接觸過的寫作課教授大多表示,學生使用人工智慧寫作時往往破綻百出。有時是語言過於流暢,但句式呆板單調;有時又顯得生硬機械。論點呈現詭異的絕對平衡 —— 反駁觀點竟與論文核心主張同樣嚴密周詳。multifaceted(多方面的)、context(上下文)這類詞彙出現頻率異常偏高。去年甚至有教師發現學生論文開篇赫然寫著「作為 AI,我被程式設計設定……」,不過更多時候跡象更為隱蔽,這使得指認 AI 抄襲比認定傳統剽竊困難得多。
部分教授開始採用所謂的特洛伊木馬策略:在作業要求段落間插入白色小字型的怪異短語(理論上會誘導 ChatGPT 在論文中植入突兀內容)。比如聖克拉拉大學的學生最近就發現教授佈置的作業裡暗藏 broccoli(西蘭花)一詞。
有學生在社交上揭發了這個陷阱並警告同學。「這招偶爾奏效,很多情況下有些學生不僅沒有寫論文,而且在提交論文之前也沒有仔細閱讀自己的論文。」一位大學教授表示道。
但一些教授們堅定的認為他們能檢測出 AI 生成的寫作,然而事實並非如此。
2024 年 6 月發表的一項研究中,英國某大學採用虛構學生檔案,將完全由 AI 生成的作業混入教授批改佇列,結果 97% 的 AI 作業未被標記。
更棘手的是,自 ChatGPT 問世以來,AI 生成類人文字的能力還在持續進化。
這促使高校紛紛啟用 Turnitin 等 AI 檢測工具 —— 該軟體透過分析 AI 文字的特徵模式進行識別,檢測系統會為文字段生成一個百分比數值。學生間流傳著某些教授的紅線閾值傳聞(比如 25%),超過該數值就可能被認定為違反學術誠信。
然而,無論是規模龐大的大學還是小型私立學院,無論是精英學府還是普通院校,我採訪的所有教授中,沒有一人承認執行過這種「AI 檢測紅線政策」。多數教授似乎已無奈接受一個現實:現有 AI 檢測工具根本靠不住
不同檢測工具的準確率差異懸殊,研究資料也充滿矛盾。雖然某些系統宣稱誤報率不足 1%,但多項研究表明,英語非母語者的作業更容易被誤判為 AI 生成。Turnitin 首席產品官坦言,他們的產品寧可漏判也不願誤報,以避免教師錯誤指控學生抄襲。
為驗證檢測效果,我將 Wendy 的論文輸入免費檢測工具 ZeroGPT,結果顯示 AI 生成機率僅為 11.74%—— 考慮到其核心論點明顯由 AI 構建,這個數值低得反常。更荒誕的是,當我把一本書(創世紀)的段落輸入同一系統時,竟被判定為 93.33% 可能由 AI 生成。
當然,要糊弄教授和檢測工具,學生有的是辦法。
用 AI 生成論文後,他們可以手動改寫、加入個人風格或故意製造幾個錯別字 —— 甚至直接讓 AI 代勞:比如輸入指令「模仿有點犯蠢的大一新生文風」。
更隱蔽的做法是透過多款 AI 進行「文字洗稿」,有些 AI 工具標榜允許上傳過往作業來訓練專屬寫作風格。學生們太會鑽空子了 —— 先把指令輸給 ChatGPT,產出文字扔進第二個 AI 系統,再轉手第三個 AI 系統。經過層層轉碼,檢測工具顯示的 AI 機率就會逐次遞減。
大多數教授逐漸意識到,要遏制 AI 濫用氾濫,僅靠個人審查遠遠不夠,可能需要徹底改革教育體系,更全面地評估學生。許多教師如今深陷無力感。
去年秋季,來自愛荷華大學的助教 Sam Williams 表示,他所教授的課程明文禁止使用 AI。當批改第一份作業時 ——Williams 還樂在其中。但到第二份作業時,學生的文風突然劇變。荒誕的是事實性錯誤頻出:多篇論文竟用整段篇幅討論另一個不相關的人。Williams 直接對學生攤牌:別用 AI,但如果非要作弊,至少得聰明點。
Williams 表示「學生們用 AI,是因為這是個簡單的解決方案,能輕鬆逃避寫論文的耗時過程。我理解這點,因為我上學時也討厭寫論文。但現在每當遇到一點困難,他們不是迎難而上、從中成長,而是退縮到讓事情變得輕鬆得多的捷徑上。」
到 11 月時,Williams 估計至少半數學生都在用 AI 寫論文。追究責任根本無濟於事 —— 他早已不信任 AI 檢測工具,而授課教授也明確指示他不要因 AI 使用而判定論文不及格,即便是那些明顯經過 AI 潤色的作業。「每次向教授反映這個問題時,我都能感覺到他低估了 ChatGPT 的能力。系裡的態度是這事難以界定,我們無法真正證明學生使用了 AI,我被要求按照假設這是篇真實完成的論文來打分。說白了,我其實是在給學生們使用 ChatGPT 的能力評分。」
這項「假設真實完成論文」的評分政策徹底擾亂了 Williams 的評分體系。如果給一篇明顯由 AI 生成但質量尚可的論文打 B,那麼按照他的說法,對於那些真正自己動筆卻交上來「狗屁不通文章」的學生,又該如何打分?這種混亂徹底動搖了 Williams 對教育體系的信念。學期結束時,他已然心灰意冷,決定放棄研究生學業。「我們身處一個全新的時代,而教育這條路,已經不是我想要的了,」他說道。
Jollimore 已經教了 20 多年的寫作。現在他確信:人文學科(尤其是寫作)正迅速淪為一門與時代脫節的藝術選修課,就像編籃子一樣。
「每次我和同事談這個問題,他們總是提起同一件事:退休。我什麼時候才能退休?我什麼時候才能擺脫這些?我們現在都在想這些,」他說。「這可不是我們當初想要的。」Williams 和我採訪過的其他教育工作者將 AI 的接替描述為一場全面的生存危機。「學生們似乎意識到這個系統已經崩潰,這樣做真的毫無意義。也許這些作業的初衷已經丟失,或者沒有很好地傳達給他們。」
他很擔心,如果被動地讓 18 歲的年輕人決定是否主動寫作業,會出現不良的長期後果。這會讓職場軟技能差距加速擴大嗎?如果學生依靠 AI 來接受教育,他們又能為職場帶來什麼技能呢?
加州大學伯克利分校計算機科學講師 Lakshya Jain 一直在用這些問題試圖說服他的學生「如果你提交的作業是 AI 完成的,你實際上就相當於是 AI 引擎的人類助手,這讓你很容易被取代。為什麼有人會留著你?」這並非空穴來風:一家科技研究公司的營運長(COO)最近就問 Jain,為什麼他還需要程式設計師。
理想情況下,大學是增長智識的地方,學生可以接觸深刻的思想。但是,這種理想早在 ChatGPT 出現之前就已經消失了。高昂的成本和贏家通吃的經濟模式已經讓大學教育變成了一種類似交易的過程,一種達到目的的手段。(德勤最近的一項調查發現,僅略多於一半的大學畢業生認為他們的教育值得每年花費數萬美元,而職業學校畢業生的這一比例為 76%。)
某種程度上講,AI 能夠快速高效地完成大學水平作業這件事本身就暴露了問題的核心。「作為教育工作者,我們還沒有開始消除社會多年來對學生認知和精神造成的傷害 —— 這種社會把學校教育視為獲得高薪工作、或許是某種社會地位的手段,僅此而已,我們怎麼能指望他們理解教育的意義呢?」Jollimore 在最近的一篇文章中寫道。「或者更糟的是,我們認為學校教育毫無價值,就像一種騙局,一場精心設計的騙局?」
而使用 AI 的不僅僅是學生:現在也有不少可以給學生的論文寫反饋的工具。這就產生了這樣一種可能性:AI 評估 AI 生成的論文。如此一來,整個學術活動就簡化為了兩個機器人之間的對話 —— 甚至可能只是一個機器人自我對話。
我們還需要數年時間才能完全解釋這一切對學生大腦的影響。
一些早期研究表明,當學生將認知任務轉移給聊天機器人時,他們的記憶力、解決問題的能力和創造力可能會受到影響。
過去一年發表的多項研究將 AI 的使用與批判性思維能力的下降聯絡起來;其中一項研究發現,這種影響在年輕參與者中更為明顯。今年 2 月,微軟和卡內基梅隆大學發表了一項研究,發現人們對生成式 AI 的信心與批判性思維投入的減少相關。其最終效果即使不完全像《機器人總動員》那樣,至少也是對個人努力和能力的一次重大重組,從高強度的探究和事實收集轉向整合和驗證。

如果考慮到 AI 並不完美(它可能依賴於一些事實上不準確的東西,或者完全杜撰一些東西),再加上社交媒體對 Z 世代辨別事實和虛構的能力造成的毀滅性影響,這一切就尤其令人不安。
問題可能遠不止生成式 AI。弗林效應(Flynn effect )指的是智商分數的持續上升,至少可以追溯到 20 世紀 30 年代。這種增長速度在 2006 年左右開始放緩,在某些情況下甚至出現下降。
康奈爾大學心理學教授 Robert Sternberg 告訴《衛報》:「在這個生成式 AI 時代,最大的擔憂不是它會損害人類的創造力或智力,而是它已經損害了。」
也有學生擔心這個問題,即使他們不願意或無法放棄聊天機器人,畢竟這讓他們的生活變得無比輕鬆。佛羅里達大學計算機科學專業的 Daniel 告訴我,他清楚地記得第一次嘗試 ChatGPT 的情景。他說,他大步穿過走廊,來到高中計算機科學老師的教室,拿出他的 Chromebook 給他看。「我當時就想:『哥們兒,你一定要看看這個!』我爸爸現在回想起史蒂夫・喬布斯的 iPhone 主題演講,都會想,『是啊,那真是個重要時刻。』對我來說,看著這樣的東西,感覺就像我會把它用在我的餘生的每一天。」
AI 讓 Daniel 更加好奇;他喜歡每當有問題時都能快速找到完整的答案。但當他用 AI 做作業時,他常常會想,如果我花時間去學習,而不是僅僅去發現,我是不是能學到更多?在學校,他讓 ChatGPT 確保他的論文精煉且語法正確,在時間緊迫時幫他寫好論文的前幾段,處理程式設計課上的繁瑣工作,基本上省去了所有可以省事的環節。有時,他知道使用 AI 明顯違反了學生行為準則,但大多數時候,他感覺自己處於一個灰色地帶。他說:「我想沒人會說找家教是作弊吧?但如果家教開始幫你寫論文,會發生什麼呢?」
最近,芝加哥大學數學專業大一新生 Mark 向一位朋友承認,他比平時更多地使用 ChatGPT 來幫助他完成一個程式設計作業。
他的朋友打了一個多少讓人感到安慰的比喻:「你可以是一個蓋房子的承包商,使用所有這些電動工具,但到頭來,沒有你,房子就不會存在。」 不過,Mark 說:「這真的很難判斷。這能算是我的成果嗎?」
我問了 Daniel 一個假設,試圖瞭解他覺得哪種程度才算是他的成果,哪些又是 AI 的:如果他發現戀人給他發了一首 AI 創作的詩,他會難過嗎?
「我想問題在於,你收到的東西的價值主張是什麼?是他們創造了它?還是東西本身的價值?」他說道。「在過去,給某人寫信通常同時意味著這兩件事。」如今,他還是會發出手寫的筆記 —— 但這些筆記都是他用 ChatGPT 起草的。
杜克大學教授 Orin Starn 在最近一篇題為《我與 AI 作弊的敗局之戰》的專欄文章中寫道:「語言是思想之母,而非婢女。」他引用了一句常被認為出自 W. H. 奧登 (W. H. Auden) 的名言。

參閱:https://www.dukechronicle.com/article/2025/02/losing-battle-ai-cheating
但培養批判性思維的不僅僅是寫作。得州農工大學副教務長 Michael Johnson 說:「學習數學是為了培養你係統地經歷一個過程來解決問題的能力。即使你不打算在職業生涯中使用代數、三角學或微積分,你也會運用這些技能,在遇到不合理的事情時,獲得洞見。」
青少年受益於結構化的逆境,無論是代數還是家務。他們的自尊和職業道德還在構建中。正因如此,社會心理學家 Jonathan Haidt 主張:讓孩子們學習做困難的事情很重要,而科技正讓孩子們更容易避免困難。
OpenAI 執行長薩姆・奧特曼(Sam Altman)傾向於將學術界對 AI 應用的擔憂視為目光短淺,他將 ChatGPT 描述為僅僅是「一個文字計算器」,並表示作弊的定義需要改進。這位斯坦福大學的輟學生去年曾說過:「用老式的方法寫論文不會有什麼用,」但他在 2023 年在參議院技術監督委員會發表講話時,他承認了自己的保留意見:「我擔心隨著模型越來越好,使用者自己的判斷過程會越來越少。」
OpenAI 一直不遺餘力地向大學生推廣。比如,它推出的 ChatGPT Plus 的訂閱費通常是每月 20 美元,但在期末考試期間卻會免費向學生開放。(OpenAI 認為,學生和老師需要學習如何負責任地使用它,並強調了它向學術機構銷售的 ChatGPT Edu 產品。)
3 月下旬,Lee 在 X 上釋出了有關其紀律聽證會的詳細資訊後,哥倫比亞大學暫停了他的學業。他沒有重返校園的計劃,也不想在大型科技公司工作。
Lee 向我解釋說,透過向世界展示 AI 可以在遠端求職面試中作弊,他推動了科技行業的進化,就像 AI 推動高等教育進化一樣。他說:「每一次技術創新都會促使人類靜下心來思考哪些工作真正有用。也許在 17 世紀或 18 世紀,有人抱怨機器取代了鐵匠,但現在人們普遍認為學習鐵匠是無用的。」
Lee 早已不幹面試作弊這種事情了。今年 4 月,他和 Shanmugam 推出了 Cluely,它可以掃描使用者的電腦螢幕並監聽音訊,以便在無提示詞的情況下即時提供 AI 反饋和問題解答。
「我們打造的 Cluely,是為了讓使用者不再獨自思考,」公司宣言中寫道。這一次,Lee 試圖透過一則耗資 14 萬美元的指令碼廣告進行病毒式傳播。廣告中,Lee 飾演的一位年輕軟體工程師 —— 他利用安裝在眼鏡上的 Cluely,在與一位年長女性的初次約會中撒謊。當約會開始不順利時,Cluely 建議 Lee「看看她的藝術作品」,並提供了一個指令碼供他參考。「我看到了你的個人資料和那幅有鬱金香的畫,你真是我見過最漂亮的女孩。」Lee 從眼鏡裡讀到這句話,這挽救了他和她在一起的機會。

在推出 Cluely 之前,Lee 和 Shanmugam 從投資者那裡籌集了 530 萬美元,這筆錢讓他們能夠僱傭兩名程式設計師,他們是 Lee 在社群大學認識的朋友(不需要求職面試或 LeetCode 答題),然後他們搬到了舊金山。
在 Cluely 推出幾天後,我們進行了交談,當時 Lee 正在他的房地產經紀人辦公室,準備拿新工作間的鑰匙。我們交談時,他正在電腦上執行 Cluely。雖然 Cluely 還不能透過人們的眼鏡提供即時答案,但他們的想法是,不久的將來它將在可穿戴裝置上執行,看到、聽到並對你周圍的一切做出反應。Lee 說:「最終它會裝在你的大腦裡。」
目前,Lee 希望人們能夠使用 Cluely 繼續 AI 對教育的攻城略地。他說:「我們的目標是數字化 LSAT、數字化 GRE 考試;所有校園作業、測驗和考試。它幾乎能讓你在所有事情上作弊。」
© THE END 
轉載請聯絡本公眾號獲得授權
投稿或尋求報道:[email protected]


相關文章