本文經授權轉載自外灘教育(ID:TBEducation)
看
點
AI是一個強大的助手,但如果孩子把AI當柺杖,想利用AI來偷懶,那麼AI幻覺就像是一種警示。
文、編丨Sherry 排版 | 李嘉祺
開學季,DeepSeek作為今年新登場的“學習助手”讓大家又愛又恨,首當其衝的就是企圖用DeepSeek解決作業的孩子們。
最近,博主無敵大薇薇就分享了一個故事:
孩子在做寒假作業時,有好幾道數學題不會做,就向DeepSeek提問。
DeepSeek不僅展示了最終結論,還展示了完整的思考、推演與驗證的過程,讓娃不僅知其然,也知其所以然。

用DeepSeek解答數學思訓題
就這樣,大家一直很信任DeepSeek。但有一天卻出了bug,娃和他爸驗算反推了N次,又問了數學老師,發現DeepSeek給的答案和過程是錯的。除非發現它的問題,並提出來繼續提問,它才會往正路上逐步修改。
看似一本正經,實則胡說八道,這種情況被專業人士稱為AI幻覺(AI Hallucinations)。
數學題還能靠寫寫算算發現問題,如果AI幻覺出現得更加隱蔽呢?孩子們可能都無知無覺。
先前有多信任,現在就有多震驚,甚至是後怕。
01

有時候,AI可能在“已讀亂回”

AI幻覺指AI會生成看似合理,但實際不準確或虛假的資訊。
舉個例子,如果你問它“姚明有多高”,它大機率不會錯,因為這知識點很明確,它能記住。但你如果問“隔壁老王有多高”,它可能就懵了,因為它沒見過老王。
但是它的設計原理又決定了,它必須要“接茬兒”。於是,它就自動“腦補”,根據“一般人有多高”這個概念,編一個數出來,這就是“幻覺”。

其實, AI幻覺並不是一個新概念。在ChatGPT剛推出時,就已經有了很多相關討論。
沃頓商學院的 Ethan Mollick 教授稱 ChatGPT 就像一個“無所不知、渴望取悅你的實習生,有時會對你撒謊”。
當Fast Company要求 ChatGPT 為特斯拉撰寫一份季度收益報告時,它回覆了一篇措辭流暢、沒有語法錯誤、語言流暢的文章,但它也插入了一組與任何真實的特斯拉報告都不對應的隨機數字。
今年爆火的DeepSeek,顯然也沒能避免AI幻覺這個問題。
外灘君也嘗試著與DeepSeek開啟了一段對話,企圖用它解決一些工作中的迷思。
“我想看幾本關於國際教育行業的書籍,有推薦嗎?”
透過深度思考後,DeepSeek給出了這樣的答案:

可拿著這份書單逐一搜索時卻發現,有些書根本找不到。在追問它時,它已經顯示“伺服器繁忙,請稍後再試”了。
所以,當你向AI提出一個刁鑽的問題時,看似它給出了你一個邏輯縝密的答案,但有可能它只是在一本正經地胡說八道。
隨著版本的更新,ChatGPT“胡言亂語”的症狀逐步減輕;而學會“深度思考”的DeepSeek,給出答案前會展示詳細的思考過程,進而給出一個邏輯滿分的合理答案。
如果不進行仔細探究與查證,我們確實很難分辨出,AI給出的答案到底是真是假。
02

AI幻覺是所有生成式AI的
“致命缺陷”

DeepSeek-R1正式版釋出迎來滿月。
這一個月裡,在很多方面,它都表現得非常出色。
不僅華為、阿里、360、騰訊、位元組等大廠,紛紛把產品接入DeepSeek。
據不完全統計,接入DeepSeek的軟體領域已經包括雲服務、網路安全、晶片、汽車、手機、醫療、教育、辦公等。
真可謂“萬物皆可DeepSeek”。
但是目前,它14.3%的AI幻覺率遠超行業平均水平,這也是它目前面臨的最大問題。

Vectara HHEM人工智慧幻覺測試:人工智慧行業權威測試,透過檢測語言模型生成內容是否與原始證據一致,從而評估模型的幻覺率,幫助最佳化和選擇模型。
從技術上說,DeepSeek-R1的幻覺問題嚴重,和它獨特的學習模式有關。
當然,AI幻覺不僅僅是DeepSeek的問題,而是所有生成式AI的“通病”。我們相信這會在以後的迭代中改善。
但是DeepSeek的高超效能和超高的普及率,也讓一些問題更加嚴峻,尤其是對孩子來說。
首先,就是虛假訊息氾濫更普遍、範圍更大了。
前兩天,微信接入DeepSeek的訊息炸開了鍋。資料顯示,微信的使用者數量截止到去年年底,已經接近14億。有網友發出感嘆:“國運級AI+國民級應用,真正的王炸組合”。
外灘君有幸成為這對“王炸組合”的灰度測試使用者。透過DeepSeek生成的答案可以一鍵轉發給好友,或者直接分享到朋友圈。

一旦AI幻覺給出一些虛假資訊,而我們又沒能看出來,那一鍵轉發的可就不是“AI的深思熟慮”而是假訊息了。
保持質疑、辯證思考,這些自ChatGPT面世以來,大家就在唸叨了。但現在,AI幻覺帶來的挑戰正在升級,AI正在製造一種更大規模、更自圓其說、更閉環的“資訊繭房”。
在網路上,大家分享著AI幻覺的各種不靠譜回答:

我們或許會成為一個領域的專家,對這個領域的專業知識瞭然於胸,有能力去分辨、去查證AI幻覺的胡言亂語。但我們不可能成為每個領域的專家。
而且,AI們都還有著“討好型人格”。當與它對話時,它會投其所好地回答出“你更想看到的答案”,而不一定是正確的答案。當我們習慣了這樣的舒適區,當AI系統開始預判你的預判,誰能保證它不會篡改事實的邊界?
再說一件事情。
2月初,字節跳動推出了新的數字人方案OmniHuman。
該模型能夠透過一張圖片配合音訊或影片,生成非常自然的會說話、唱歌的人類動作影片。在生成動畫時能夠保持極高的真實感,能夠精確捕捉到人類的面部表情、身體動作、手勢變化、物體互動等細節。
技術進步十分喜人,但如果使用的人有別的心思呢?
科普作家@河森堡 提出了一個假想,讓人“細思極恐”:
如果有人為了販賣自己的偽造文物,事先用知名專家的形象、聲音講述偽造的歷史,用AI生成虛假文獻、照片,然後散播到網際網路大海中,發酵一段時間,會發生什麼?
當你看到熟悉的專家在講述一段陌生的歷史,查證後發現網上竟然還有不少文獻圖文資料,是不是會覺得這就是真實的?日後看到偽造的文物,是不是就會認為是真文物?

再講個故事。2022年,中文維基百科發現了“歷史相關條目偽造事件”,十多年裡,使用者折毛在維基裡虛構了半部俄羅斯古代史:
一位奇幻作家作者在為小說查資料時,發現中文維基裡的古俄羅斯史不對勁。著名的“卡申銀礦”,居然在地方都沒有記載,更詭異的是,1334年開採的銀礦,參考資料居然是2005年關於自動化採礦的一篇論文。
但更離譜的還在後面。詞條編輯者“折毛”十多年來居然“孜孜不倦”地建立了至少206個條目,編輯了4,800次,憑一己之力虛構了半部俄羅斯古代史,還被英語等外語詞條參考。在一場虛構戰役的詞條裡,折毛引用了100多條參考文獻,甚至還親自繪製了一幅局勢圖。

時至今日,維基百科都不敢保證刪乾淨了這些虛假資訊。
在沒有AI的時代,虛假資訊和幻覺都能有這樣的破壞力。如今, AI幻覺的破壞力只增不減。
@河森堡 在微博中感慨:“如今AI製造的幻覺在強度上,和之前編點文字故事時不可同日而語,除非你親自見到專家本人求證,或者到現場實地考察,否則你會被AI創造出的假象玩得死死的。”
可是,迴歸現實生活,又有誰有精力驗證AI給出的每一個答案呢?
03

孩子們使用AI要“膽大心細”

以上種種,其實是對思辨能力提出了更高要求。
當孩子們越來越依賴透過AI來獲取資訊時,而不學習、不思考、不查證,終有一天,孩子們的生活會被AI搞得“烏煙瘴氣”。
但要家長獨自應對、承受AI幻覺的壓力,這擔子又太重了。隨著AI課程進入更多課堂,我們或許可以從學校、教育者等更廣的維度去借鑑他山之石。
那我們能做什麼?能怎麼教孩子去面對AI幻覺?
總結為四個字——膽大心細。

那AI還用不用?
當然要用。二十多年前,電腦還是微機教室裡嬌貴的教具,如今,電腦早就成了許多工作的標配,手機甚至都快趕上半個電腦了。AI如今勢不可擋,肯定不能因噎廢食。
亞馬遜雲科技上海人工智慧研究院張崢院長就曾在演講中說;“要放開了讓他們用。我們的目標是透過AI顯著提升學校效果,實現2到10倍的提升。”
但怎麼用?要注意什麼?
首先,推動思考,而不是替代思考。
在美國不少學校,學生使用的AI都是定製化的,老師們事先為AI設定了很多提示詞(prompts)。
AI不僅能夠啟發學生,反向學生提出一系列值得思考的問題,來會提示學生“AI幻覺的存在”,推動孩子們主動去思考、推理、辨別。而不是坐享其成,拿現成答案。
而且,在推動學生思考的同時,老師們也透過AI的幫助提高了自己的輔導、出卷效率,整個教學的效率都提上來了。

其次,要學會大膽地質疑AI提供的內容。
國外一項提升媒體素養的公益活動“SQUIZ KIDS”,就幫助孩子分三步分辨錯誤資訊、假資訊:接觸到網路資訊時停一停(STOP),想一想(THINK),最後對一對(CHECK),和可靠的資訊源對照確認是否一致。透過集合不同領域的知識和技能,更全面地識別問題、找到解決方案。
當然,在這個過程中,每個人都需要搭建個人知識庫。雖然孩子們不能成為每個領域的專家,但如果孩子們可以在一個或幾個領域深耕,構建起自己的知識庫,那麼這本身就會成為辨別虛假資訊的裝備庫。
此外,保持好奇心,甚至可以利用AI幻覺來激發創新、想象力。
在事實性方面“已讀亂回”,是一種干擾,但如果是需要擺脫束縛的領域呢?
外灘君發現石溪大學做了一個特別有意思的專案:
博士生Ryan Burgert、Kanchana Ranasinghe 和 Xiang Li與石溪大學人工智慧研究所的 SUNY Empire 創新副教授 Michael Ryoo 教授一起,利用AI幻覺創作了很多視覺錯覺圖。

除了好玩的圖片、拼圖,這也可以用來隱藏字元等資訊,感覺還能開發不少用途。

AI是一個強大的助手,但如果孩子把AI當柺杖,想利用AI來偷懶,那麼AI幻覺就像是一種警示和小懲罰。
但如果我們把AI的已讀亂回看作一個機會呢?讓孩子們知道,不能因為有了這樣一個看似無所不能的 “小助手”,就放棄主動思考。只有不斷打磨獨立思考的能力,勇於探索未知,才能在這個充滿變數的世界中,穩穩走好每一步。
★
本文參考文獻如下:
1.DeepSeek: What lies under the bonnet of the new AI chatbot?;BBC
2.A new AI chatbot might do your homework for you. But it's still not an A+ student;NPR
3.How to trick OpenAI’s ChatGPT;fastcompany
4.Google vs. ChatGPT: Here’s what happened when I swapped services for a day;CNBC
5.Hallucination is Inevitable: An Innate Limitation of Large Language Models
6.Students’ AI Model for Creating Optical Illusions Wins Award; Stony Brook University
7.Post-apocalyptic education; ETHAN MOLLICK
8.DeepSeek-R1超高幻覺率解析:為何大模型總“胡說八道”?騰訊科技
9.警惕!小學生開始用DeepSeek完成作業,AI卻在偽造事實 無敵大薇薇
10.前沿 | AI幻覺難以避免,如何應對?;環球網
11.2022年歷史相關條目偽造事件; 中文維基百科
K12 成長與教育社群
追蹤前沿資訊 洞察成長規律
挖掘充滿溫度的故事 探索融合世界的教育

入駐光明網、網易、騰訊、今日頭條、一點資訊等各大平臺
聯絡我們
後臺私信聯絡留學君
投稿郵箱:[email protected]
聯絡電話:010-67071542
推薦閱讀