
.
01
Hello姐妹們,
我前幾天刷到一個影片,說的是《紐約客》一篇文章對AI作弊的曝光,看完不禁頭皮一麻!

原影片來源:量子位
文章主角是一個叫Roy Lee的哥倫比亞大學新生,他不光用ChatGPT寫作業,還坦言自己只是把“常春藤”當做找合作伙伴和老婆的場所。

圖源:影片截圖
倫理學教授Troy Jollimore對這些現象表示絕望,甚至很想趕緊退休來逃避這一切。
他說自己批閱了兩年AI生成的論文,發現學生輸入“寫成像呆萌的新生”等指令,就能產出“流暢、邏輯通順但青澀”的文章。
為了逃避Turnitin等AI檢測工具,很多同學還把輸出內容再丟給另一個AI平臺“洗稿”,檢測也能順利透過。
教授無奈只能“假裝沒看到”,按“如果是學生自己寫也就是這個水平”來給分。
但他表示:這些學生能拿到學位,出來工作卻“本質上文盲”。
一句話,這篇文章用“天花板被掀開”來形容:當我們將大腦的認知功能外包給AI,所有人的記憶力、創造力、解決問題的能力都在退化。
早在兩年前,ChatGPT剛問世不久,我就寫過一篇文章,預警AI的真正危機是進一步拉大人與人之間的差距。(連結在文末)

可眼下這局面,比我兩年前預想的還要嚴重得多!
今天的文章可能並不有趣,但我希望在座的家長們都能耐心看看,因為最受影響的,正是咱們孩子那一代人!
02
.
據《紐約客》的文章揭露,美國至少有超過1/3的18–24歲的學生,每週都在用ChatGPT幫忙寫作業。
很多人甚至把它當“人生作業系統”用:
寫論文、改簡歷、寫情書……連重大的人生決策都要問一問AI。
更糟糕的是,有些人直接把AI當成“作弊器”。

圖源:影片截圖
前文提到的哥倫比亞大學,就有人開發了一個叫“Interview Coder”的工具,專門幫學生在面試和答辯中作弊。
這個工具能自動模擬面試官提問,還給出“最佳回答”策略,簡直全流程外掛,把教授們都給氣炸了。
最可怕的是,連中學生也難以倖免!
據Pew Research Center的調研顯示,2024年有26%的美國13-17歲青少年直接用ChatGPT完成功課,較2023年翻了一倍!
我一看資料,心裡咯噔一下:
現在“速食主義”已經夠嚴重了,難道連知識累積階段的學生都要養成“動動手指就能出成品”的習慣,連腦子都懶得動了嗎?
用AI作弊的最大問題絕不僅僅是偷懶,而是讓渡思考。
姐妹們還記得我在兩年前那篇文章裡,拿杜甫詩、李白詩“坑”AI的那些段子嗎?
我故意把作者改成岳飛、王維,它都不糾正你,反倒“順毛摸象” 一番,編出一大堆毫無根據的背景介紹。

大家要知道,AI生成內容並非事實來源,而是基於海量資料的“拼湊”。
換句話說,它每天接受大量錯誤資訊的投餵,同樣能給我們生產大量錯誤的資訊。
咱們知識儲備夠厚才看得穿,可是對資訊盲區的人來說,這些AI造謠一旦在社交平臺流傳,一天能產幾百篇“某地小學生食物中毒”“美國研發出新的生化武器” 之類的新聞稿,甚至配上影片,誰能分得清呢?

圖源:影片截圖
想想就可怕!
大家隨便翻翻自己的各大社媒平臺,有多少AI拼湊、朗讀甚至演繹的影片?
咱們現代人越來越追求“秒懂”“即用”,連長文都懶得看了,刷影片、看快訊,誰還有耐心去深究真假?
結果,就是養成了快餐式資訊消費習慣,一點風吹草動就被假新聞牽著鼻子走。
當便利誘使人們越來越依賴AI簡化思考,“動腦—查詢—總結”的傳統學習閉環必然被打斷。
問它寫個商業策劃?
它秒給你一套模板。
要做一段程式碼?
它三秒就給你“開箱即用”。
久而久之,AI必定滲透決策與創作過程,使用者就逐漸淪為“操作工”。

這就像把小狗訓練成完成指令的“數字寵物”。
小狗一按某個按鈕,它就“會說話”了。
實際上它並不會說話,也並不真的瞭解自己“說”的內容。
就連OpenAI的CEO薩姆·阿爾特曼都說,學生把ChatGPT當作業系統來用,連人生大事都依賴它,將加劇思維和創造力的嚴重下滑。

圖源:影片截圖
DeepSeek上線,國產AI也瘋狂
今年國內橫空出世的DeepSeek(簡稱DS)也是火到沒邊了。
網上各種教程成千上萬!
從育兒指南到理財規劃全都有,甚至有很多專門學習DS的教材和付費課程。
其實我自己也試用過。
DS在中文表達和文學觀感上比ChatGPT更強,很多哲學性質的問題,它的回答都比GPT更有文學性、更有韻味。(文末第二篇)
但!我不怕說實話!
它在搜尋客觀資料、調研報告上的能力還差很遠,經常給我拿出來的資料和實際對不上號,甚至“瞎編”年份和來源。
說人話就是:DS中文語境比ChatGPT更流暢,卻更不準確!
咱們的學生如果依賴DS去做題,而沒有核實和求證,結果可能更加嚴重。

.
03
.
國外學校的對策:
嚴管+素養並重
面對AI作弊這股風潮,國外一些學區已經把生成式AI列入黑名單了:
課堂、考試、線上作業一律禁止。
各大高校也出臺了許多反制措施。
例如哈佛、斯坦福、耶魯陸續等高校就在逐步更新學術誠信政策:
👉必須在作業裡註明AI使用情況,否則按學術不端處理;
👉Turnitin等檢測工具也開始加入AI指紋識別;
👉部分課程改為“創意驗證+實踐操作”,不能只靠AI輸出答案。
英國教育部門則把AI納入數字素養課程。
主要教孩子們“如何識別AI幻覺”、“怎樣做批判性閱讀”。
這些措施不僅是“禁止”,更是“引導”,讓學生在用AI的同時,強化獨立思辨、資料驗證和實踐能力。
說了這麼多危機,你們也知道,我從來沒有否定過AI是個革命性的工具。
我作為自媒體博主,也是AI的資深使用者,關鍵在於怎麼用!
我從來不會讓AI幫我直接生成一篇長文,但卻會在這幾個方面給我做效率輔助。
比如說,我取不出來標題的時候,把關鍵詞拋給AI做個“頭腦風暴”。
它可能一次性給我一大堆不同風格的標題,然後我挑幾個最有感覺的,再結合自己的風格,決定最終標題。

再比如說,我告訴AI我想要寫的內容和關鍵觀點,它可以自動生成一個結構清晰的提綱。
但提綱出來後,我會再花幾個小時,重新排序、合併或拆分,用自己的風格和文字去填充內容,保證文章“有人味”。
最實用的是用AI蒐集資料和案例。
比如今天這篇文章裡,我就用到了ChatGPT來做初步的資料蒐集:
我讓它給出幾組最新的調查資料,或是哪位大佬的原話摘錄。

拿到這份“速成版”,我不會直接照搬,而是開啟原始網站、官方公告、權威媒體,親自核對一遍,再寫進文章裡。
像前文提到的那份Pew Research調研、哈佛學術誠信政策更新,我就是先讓AI彙總要點,然後自己去官網、去原文看細節,確保資訊來源準確。

總之,我把AI當做“智慧助理” 而不是 “大腦外包”:
它幫我省去枯燥重複的搜尋工作,但所有關鍵的判斷、觀點、情感表達,都得我自己來思考、來下筆。
這樣既能讓文章產出更高效,也能確保每一句話都是出自真心,而不是被千篇一律的AI口吻框住,讀起來一股“人機感”。
04
我們必須承認,AI確實能在重複勞動和決策輔助上幹得非常漂亮:
工程師寫報告從三天縮到一天;
課堂教學有AI助教全天候能解答數千條諮詢。
這些收益都實實在在,也極大提高了資訊時代的生產力。
可正因為如此,懂得駕馭AI的人越走越快,被AI駕馭的人被越甩越遠——這才是我最擔心的馬太效應。
我知道咱們讀者裡絕大部分都是孩子家長,也正處於事業穩定期或瓶頸期。
對於AI這個工具,我們一定不要排斥,但絕對不能過度依賴。

以下是我個人的一些實踐和建議:
-
對自己
.
👉堅持“手腦並用”:
AI給的答案,不要直接採信,自己先想、先查,再對比;
👉練習“慢思考”:
每天留出時間讀長文,堅持學習的耐心和韌性;
👉補充資訊素養:
學一點邏輯學、統計學、批判思維,別被AI的便利給忽悠。
.
-
對孩子/家長
.
👉家庭AI協議:
家裡明確寫作文、考試前一律停用AI;提綱和資料蒐集可用,但寫作和分析必須自己來;
👉培養元認知:
學習不是“結果導向”,而是“過程導向”,帶孩子一起復盤:我為什麼這麼做?還有哪些思路?
👉多動手實踐:
科學實驗、手工製作、戶外探險……只有親自動手、親身體驗,才能真正內化思路。
姐妹們,AI的洪流洶湧而來,咱既要緊跟浪潮,也不能被浪打得懷疑人生。
其實歸根到底,只有保持好奇、錘鍊思辨、主動動腦,才能讓技術成為我們的“智慧助攻”,而不是把自己變成“技術奴隸”。
路還長,讓我們互相扶持,一起進步!❤️
★
正在團
★

承包你一整個夏天的法式復古穿搭

基礎又百搭,直接閉眼入!
推薦閱讀
