“炸場”的AI新星們,距離真正的“人腦智慧”還有多遠?

*本文為「三聯生活週刊」原創內容
假如未來一個機器表現的行為像人一樣,有意識,有同情心,有共情心,有和人一樣的決策和行為能力,你還會只把它看作是機器嗎?
主筆|張從志
人工智慧的目標一直是在機器身上重現人類智慧——從語言到感知覺,從推理到決策、執行,乃至自我意識。對人來說,這些能力都蘊藏在人腦這個無比複雜深奧的網路之中,AI能有今天的成就,也是受到了這個網路的啟發。那麼,機器到底在多大程度上接近我們人腦了?我們自己對人腦的理解又到了什麼地步?
帶著這些問題,2025年1月,我在上海採訪了著名的神經科學家蒲慕明教授,他是中國科學院院士、神經科學研究所首任所長,現任中國科學院腦科學與智慧技術卓越創新中心學術主任。2021年,他作為專家組組長籌劃的中國“腦計劃”正式啟動,這也標誌著中國加入了歐洲及美、日等國掀起的全球腦科學競賽之中。這項耗資數百億元的科研計劃,全名為“腦科學與類腦研究”,終極目標就是理解腦的認知功能,徹底揭開大腦的秘密。這項計劃支援的一個重點領域是類腦智慧(腦啟發的人工智慧)。在蒲慕明看來,現在的人工神經網路並未真正用到人腦的機制,所以需要耗費大量的算力和能源,而要想實現更高級別的智慧,必須從人腦中學到更多、更巧妙的東西。腦科學的快速發展,將給AI的進一步突破提供機會。
2024年9月15日,多款人工智慧機器人亮相中國服貿會 
AI與人腦採用的是不同的網路
三聯生活週刊:作為一個神經科學家,你如何看待這一輪快速崛起的人工智慧?
蒲慕明:跟以前相比,現在的機器能力確實已經大幅提升,而且還在不斷提高。比如在語言能力方面,過去我們一向認為,創造無限開放式的句子的能力,是我們人這種靈長類動物獨有的。所以,艾倫·圖靈提出,假如讓一個機器跟你對答,你分不清它是機器還是人,就可以認定這個機器具有人的智慧。圖靈那時候是把語言當作人的智慧的唯一標準。我看ChatGPT這樣的語言大模型,很快就可以大致透過圖靈測試。但機器要想達到人類智慧的水平,光有語言能力是不夠的,還需要有所謂的具身智慧。因為人的很多能力,包括動作、眼神、表情、社交行為,都是可以傳遞資訊的。比如我跟你談話時,臉上的表情發生變化,你可能就知道我的想法也有變化。此外,機器還要進行社會交流。比如我們的醫療養老體系現在很需要所謂的看護機器人,它不能只是給你送東西那麼簡單,還要能和你交流,在你想起床時能正確地扶你起來,而且知道你的病是什麼情況,瞭解你的生活習慣。
三聯生活週刊:現在的AI所採用的人工神經網路被認為是模仿我們人腦生物神經網路的結果,在大量資料、算力的支援下,能力還在快速增強。從運作的機制來看,AI的人工神經網路跟人腦的網路已經很接近了嗎?
蒲慕明:事實上,人工智慧從神經科學領域學到的只是一些名詞和概念,它的那個人工網路跟人的神經網路大不相同。最重要的一點,現在主流的人工神經網路一開始都是全連線,而且一般都是正向連線;它的架構還是多層面的,有幾十層甚至幾百層之多。我們人的大腦部分腦區好像也有層面,但是它不可能像人工網路那樣用幾百層去處理資訊。大腦是將淺層網路所形成的環路組(module)進一步連線到一起形成更大的環路。這種巢狀式(nested)(即“環中帶環”)的系統組成了複雜的資訊處理和存貯網路。這種網路結構就沒有應用到人工網路裡。
人工智慧領域現在有種觀點,認為它不需要像人腦那樣的結構,只要有大量的算力,可以在幾十億到幾百億的引數基礎上去調整神經網路連線的權重。你輸進去的資料越多,網路可以調整的空間就越大,機器就可以更加智慧。比如語言的學習,機器的做法就是用已有的大量文字資料去調整網路連線的引數,訓練網路去記住文字間的關聯性,學會猜一個字後面最合適跟隨的下一個是什麼字,但這顯然不是大腦的方法。
為什麼大模型需要這麼大的算力,就是因為它是以一種無序的、多引數的全連線網路來開始學習的,這需要極大規模的資料來慢慢訓練,訓練的過程很耗能。這個是大模型現在面臨的最大問題。所以可以說神經科學對現在的人工智慧沒多大貢獻,還沒有對提高人工網路的運算效率和能力有所貢獻。
 2023 年 7 月 6 日,在瑞士日內瓦的一場AI峰會上,人們觀看 一臺叫作“索菲亞”的人形機器人
三聯生活週刊:那按照人腦的機制,我們是怎麼學習的?
蒲慕明:人一出生的時候,大腦就已經形成了一個初步(起始)網路,它是一個有組織的、能對多模態資訊進行有效整合,並能有效啟用運動系統的網路——這是很關鍵的。人腦的這個初步網路是演化過程中透過遺傳基因表達程式所形成的,它有次序,對外界事物有簡單的反應。比如剛剛出生的嬰兒,你推他一下,他會有反應;你去逗他,他會笑,但他不是認得出你的面孔,而是出於一種與生俱來的能力。但是人跟羊不一樣,羊一生下來就會站起來走路、喝奶、吃東西,它的基本智慧在胚胎裡面就形成了,這也是演化的結果。假如它像人一樣處於baby(嬰兒)狀態,很長時間不能自己行動,早就給其他動物吃掉了。
在生物學上,人有個特殊的演化現象,叫作發育延遲(Neoteny)人類嬰兒要到兩歲之後才能好好走路、學會說話,但還不能處理複雜的事情,大腦還在不斷地發育。讓大腦發育的過程延遲是一個非常巧妙的演化機制,也是人之所以為人的最關鍵的一點。這也造成了所謂的長期幼年時期(long childhood)
人為什麼要一個長期的幼年期?就是幼兒需要在環境(尤其時父母)的引導下學會各種各樣的動作和智慧。你剛出生的時候不會走路,你要先學會在地上爬,學會摔倒之後怎麼樣站起來。這個過程,人腦的神經網路就在快速地、大規模地產生,同時又透過學習不斷進行修飾,有些沒用的連線要刪除,有些合適的連線要加強,才能形成正確有效的網路。從幼年期一直到青春期,我們神經突觸的總量都是在不斷上升的,反映網路整體連線數和複雜性的增加,也反映了一個人各種智慧的形成。
語言也是一樣。我們人要到六七歲以後,語言能力的網路才構建完成。在六七歲之前你不學語言,就可能永遠也學不會人類語言,可能像黑猩猩一樣能學會幾百個字,知道這些字對應的意思,但是無法把它們湊成長句。我們都知道狼孩的故事,一個小孩如果是被狼養大的,他就失去了學會人類語言的能力,不會說話,就是因為他生長的環境沒有給他訓練的機會。
《成為你》劇照
三聯生活週刊:所以,可以說人腦當中存在一套先天的語言結構嗎?
蒲慕明:應該說人腦具有在幼年關鍵期(6、7歲前)建立語言網路的能力,在關鍵期不學習語言,就不可能建立語言網路,也就沒有語言能力了。每一個人出生後都要面對不同的外界環境,要學習相應的技能。我們可以把大腦網路看作一個建築,我們從父母那裡遺傳下來的基因是一堆建築材料,這些材料是沒有很好的結構的,而外界的環境是建築師,要把這個先天遺傳的材料建成一個建築。沒有建築師,就沒有建築,沒有完整的材料,也沒有建築。兩者都是必要的,不是說哪一個特別重要,兩者都重要,都是百分之百重要。
語言能力是人類特有的,語言網路也是人類特有的網路,這是喬姆斯基的說法。很多實驗表明,人類嬰兒期能夠識別出很多音素,有比較好的發音能力,但其實這不等於他已經有了語言能力,音素還只是語言的基本元件。所以我不認為人腦裡預設了一種語言網路結構,一出生就有,但我們可以說語言功能只有人類可以演化出來,因為人出生時就有了一個特殊的起始網路,這個網路可以在出生後的關鍵期形成語言網路,但要是沒有後天的語言輸入,語言網路也不能形成。
理解大腦:從細胞圖譜到全腦連線圖譜
三聯生活週刊:我看到有種說法是,我們目前對人類大腦的瞭解程度還不到10%,這種說法準確嗎?大腦對人類來說仍然是一個“黑盒子”?
蒲慕明:我不知道10%是怎麼估計來的,但反正是很少。我們的大腦到底有多大能力,我們使用了多少突觸來做所有的功能,我們仍不清楚。我們只是知道大腦網路可使用的容量很大,可能遠大於我們現在所需要和使用到的容量。
三聯生活週刊:那我們現在瞭解的主要是哪些部分?
蒲慕明:我們知道大腦大致上的網路結構,比如有多少個腦區,這些腦區大致在做什麼事情,還有腦區間的連線大致是什麼樣,但是這些連線的細節還不清楚。我們現在連大腦裡面有多少種類的神經細胞(神經元)都沒搞明白。這個事情很重要,因為一個細胞跟另一個細胞不一樣,那就可能是在發揮不同的作用。現在有的人說大腦裡有上千種不同的神經細胞,但我的判斷是至少有幾百種。這就要看你怎麼分類。
我們最近在做猴腦的細胞分類,方法是用基因轉錄組測序,看有多少種mRNA是相似的。假如兩個細胞所表達的mRNA種類大致相同,我們就判斷它們是同一類細胞。mRNA是合成蛋白質必要的分子,而蛋白質決定了細胞的功能,所以你知道了mRNA的種類,就大致知道了蛋白質的種類,就可以給細胞進行分類。用這種分類方法現在可以很簡單地分出上千種細胞,等將來基因測序技術更精確了,可能可以分出幾萬種,因為每一個細胞的基因所表達的mRNA的種類和量都不完全一樣,但你不能說每一個細胞都是一類,那樣研究就沒法做了。所以現在我們還需要一個更好的細胞型別的定義標準。
2024年5月13日,北京市某所中學,一名學生正在演示操作她設計的人工智慧作品“仿生機械手” 
三聯生活週刊:搞清楚了細胞種類可能還不夠?
蒲慕明:是的,我們要知道大腦是怎樣工作的,還得把神經元之間的連線搞清楚。這也是目前神經科學領域面臨的最重大的問題,我們叫作全腦連線圖譜。我們都知道以前的人類基因組計劃,是要把所有的鹼基序列測出來,這樣你就能理解基因到底有多少種類,在此基礎上,可以進一步研究不同基因之間的關係是什麼,如何有序地調控它們的表達。這給生命科學帶來了巨大的飛躍性的發展。基因組學是研究基因的組成和在DNA上的分佈,細胞圖譜是研究大腦裡面有多少種細胞、它的分佈是什麼樣的,而連線組學就是要弄清楚各種型別的細胞之間的連線是什麼樣的。一個神經元可能連線了幾千個其他的神經元,你要知道這幾千個細胞是哪些型別,在哪些腦區。
2023年,我們已經把猴的大腦皮層的所有神經細胞用轉錄組分了類,並鑑定了它們在各個皮層腦區的位置,做出了皮層細胞分佈圖譜。今年,我們馬上要發表的是猴子部分大腦前額葉的細胞的軸突投射圖譜。這個過程我們用到了海南大學校長駱清銘教授團隊的單細胞追蹤技術,就是要追蹤一個個細胞的軸突,看它投射到了哪些腦區的神經細胞。這個過程非常繁瑣。每一個單細胞都要花至少幾個小時的時間,而且一個人做出來可能還有錯誤,要好多人在一起追蹤。我們現在有合作的外包公司,有個幾百人的團隊在幫我們追蹤,研究人員還要最終來確定他們出來的圖對不對。2024年,我們在《科學》雜誌上發表了上萬個小鼠海馬體神經元的全腦投射規律圖譜。這麼大規模的研究成果,在國內外都是第一次。
三聯生活週刊:只要把每一類細胞的連線組弄清楚了,全腦的連線圖譜就可以做出來了嗎?
蒲慕明:大致上是這個路徑。假如我們分出來1000種類型的神經細胞,能把這1000種細胞的全腦連線搞清楚就差不多了。這個方法已經建立了,就是要花人力、物力持續地去做。這個過程就好像你想理解一個晶片是怎麼工作的,就必須把它的線路圖搞清楚。一塊晶片上面有幾十億甚至幾百億個電晶體,裡面是怎麼連線的,你沒有線路圖的話,這對你來說就是個“黑盒子”。大腦也是一樣,要理解它的工作原理,就一定要把連線圖譜搞清楚,只有這樣,我們才知道它的多感覺整合是怎麼出來的。晶片裡的線路是工程師設計的,大腦的網路連線是演化和發育過程形成的,理解人腦的網路也可說是一個逆向工程(reverse engineering)解析了人腦網路結構之後,我們才能理解人的智力是如何透過神經網路來實現的。然後,我們也可以進一步在人工神經網路上去模擬人腦網路的架構,賦予人工智慧與人類相似的智慧,如高效的多感覺資訊整合能力。
三聯生活週刊:你說的多感覺整合是怎麼一回事?
蒲慕明:腦科學對這個問題已經有相當的進展,但也還沒有完全理解。比如我們開車,你在虛擬環境下開車給你的資訊反饋和在真實環境下開車是完全不一樣的。在真實環境下,你握著方向盤,手裡會有觸覺,你耳朵能聽到各種聲音,你的前庭系統(前庭系統在內耳中,是人體平衡和空間定向的關鍵部分)會告訴你方位、加速度等。這些感覺是你坐在那裡玩遊戲沒有的。人的大腦能夠把這些聽覺、視覺、觸覺、前庭資訊全部整合在一起,最後轉換為決策和執行力,所以才能在真實世界開好車。
現在討論很熱烈的具身智慧,我認為最關鍵的一點就是要把多感覺整合,能把包括視覺、聽覺、觸覺,自身位置的本體感覺等快速整合成一個整體的感知,然後跟語言能力結合在一起,對外界資訊做進一步的解析,然後做出反應。從感覺到感知,然後做出抉擇,再到執行,跟環境之間形成閉環的互動網路。把基於語言大模型的軟體系統與基於物理過程的硬體系統結合起來,比如製作出有具身智慧的人形機器人,是現在的人工智慧往前發展面臨的最大挑戰。
中國科學院院士、神經科學研究所首任所長、中國科學院腦科學與智慧技術卓越創新中心學術主任蒲慕明
模擬大腦:AI進化的路徑
三聯生活週刊:隨著我們對大腦瞭解程度的加深,人工智慧有可能在哪些層面上從中得到新的啟發?
蒲慕明:我覺得有兩個最基本的方向。一個是在演算法層面,要推動創造新的演算法。反向傳播演算法是現在深度學習中用得最多的,還有其他比如強化學習、非監督式學習等演算法,但這些演算法都很少真正用到大腦的機制,只是一些粗糙的概念應用。現在,我們需要把更多的腦科學發現的原理和機制,比如多型別的興奮性與抑制性神經元、多種區域性性和擴散性的神經突觸可塑性、起始網路的多樣性和可修飾性,用到人工智慧的學習演算法中。
大腦中的資訊是透過神經脈衝的頻率和時序來編碼的,也就是說脈衝出現的時間和順序本身就帶有資訊。這種編碼機制現在的人工神經網路中只有脈衝神經網路才可以充分使用。我們與中國科學院自動化所的合作,已獲得證據表明,脈衝神經網路能更有效地學習處理帶有時序資訊的資料,使用較低的算力就可以達到其他非脈衝網路的相同效率。但脈衝神經網路的學習演算法研究進展很慢,目前很不成熟。雖然我們2030重大專案(“中國腦計劃”)的正式名稱是“腦科學與類腦研究”,但只有很少的經費真正使用在類腦研究。即使有些類腦研究專案以類腦為目標,實際上也不是真正在做類腦研究。在演算法上做出新的類腦演算法不容易,不是很快就可以得到成果,不容易出論文。
第二就是網路架構層面,要研發新的人工網路架構,加入網路的多樣性和可變性,不要從同等的全連線開始。大腦一開始就不是全連線,演化過程中已賦予大腦最初起始的神經連線就具有相當的特異性。加上出生後的經驗和學習,將起始網路和出生後生長的連線進一步修飾成為具有高智慧的網路。從小到大,大腦受到來自環境的大量資料的訓練,所以能夠造就那麼複雜、極為節能又因人而異的大腦。現在基於語言大模型的人工智慧是非常耗能、不可持續發展的,我們需要的是綠色人工智慧。怎麼能做到?要模擬大腦那樣的網路架構,能以極低的能耗產生複雜的功能,網路架構是關鍵。
現在已經有人開始想做這件事情,想把人工神經網路變成一種稀疏網路,意思就是我們不要每次計算時去算每一個連線的權重,長期不使用或權重長期偏低的連線可以不考慮或消除,因為每次連線的權重計算就要消耗能量,這就類似於人腦消除冗餘或不適用連線的過程。有的連線的權重在學習時如果不斷加強,應該有進一步的鞏固強化機制,如不受權重天花板的限制,選擇性地增加該連線的權重範圍,相當於對某些記憶的鞏固。大腦網路學習的一個重要特性就是短期記憶轉換為長期記憶,沒有必要記住的資訊(如今天地鐵上見到的所有面孔)需要讓它消退,有些資訊則需要長期存貯(如經常要見到並能識別的面孔)。人工網路的記憶(連線權重的改變)應能賦予短期和長期記憶的區別、短期記憶轉化為長期記憶、記憶的自然消退(decay)與有目標的“清除”(extinction)等等的機制。
《矽谷》劇照
三聯生活週刊:人工智慧興起之後,我們發現人類智慧突然有了一個參照物,機器好像也像我們一樣在學習和理解這個世界。隨著AI的發展,未來機器和人的界限會不會越來越模糊?
蒲慕明:你想想,假如未來一個機器表現的行為像人一樣,有意識,有同情心,有共情心,有人一樣的決策和行為能力,你還會只把它看作是機器嗎?按照圖靈的定義,它就有了人的智慧。從智慧的表型來說,未來機器人與人類會越來越接近,表型上的界限會越來越模糊。當然,機器智慧的來源機制與人類大不相同,它用的是矽基材料,而人的智慧源於碳基材料。如果它具有與人類相同的智慧,人類與機器的差別只能說是製作材料的不同而已。在這一點上,人類是沒有優勢的。在艾薩克·阿西莫夫(Isaac Asimov)的科幻小說《我,機器人》中,機器人就對人不屑地說:“瞧瞧你自己,你是如此的脆弱!”
《我,機器人》劇照
三聯生活週刊:現在包括辛頓在內的很多人就認為,人腦未必存在更優的機制,換句話說,AI的發展不一定要完全按照大腦的模式來。
蒲慕明:如果你的目的只是要趕緊掙錢,就不需要學習人腦的方式。如果你的目的是要達到一種高階智慧,你也不一定要學人腦。只要你有足夠的能源,有足夠的算力,有足夠的資料,也許也可以達到同樣的效果。但是如果你還關注到AI對社會的持續發展和對人類環境的影響,你就需要考慮到目前AI大模型的能耗需求。美國幾個AI巨頭公司所規劃的、每個耗資數百億美元的AI大資料中心用的都不是綠色能源。再說,我也不認為只有增加算力才能發展AI,發展高效節能的AI才更合乎社會的需求。但說到底,這是一個信念問題。
三聯生活週刊:那機器有可能沿著這條路徑產生意識嗎?
蒲慕明:我們首先要搞清楚意識到底是什麼。對神經科學家來講,自我意識只是多腦區大群神經細胞的一種特殊的電活動。這個是我們完全可以理解的現象。意識也包括多種內容。對外界世界的感知,能理解外界的事物,這叫能獲取感知的意識(conscious access)我意識到我今天看到的面孔是你的面孔,這種能力是機器也可以做到的,只要你給它足夠的訓練,它就可以認識你的面孔,甚至可以認識所有跟你相關的事情。意識的內容也包括意識狀態(conscious state),也就是大腦能處理資訊的網路活動狀態。清醒時具有的“意識狀態”,在睡眠、麻醉、昏迷時有不同程度的喪失。還有一種意識,就是“自我意識”(self-consciousness)我跟你講話時,我知道是“我”在跟你講話,有一個“我”在那裡,這也是哲學家所說的反思式的自我存在意識(reflective self-awareness)你說機器有沒有這種自我意識?像我們一樣可以感覺到自己的存在?哲學家認為機器不可能存在這種高階的意識狀態,但是如果只是從自我意識所表現出的行為來說,我們確實是有可能訓練出這樣的機器的。
以前在行為學研究上判斷一個人有沒有自我意識,會做一個映象實驗。在一個人不知情的時候往他臉上偷偷塗點東西,然後讓他去照鏡子,等他透過鏡子看到了他臉上有東西,是否會用手去摸。如果他會做出這種行為,就表明他認得鏡子裡面是他自己。科學家就用這個標準來判斷小孩子是什麼時候產生的自我意識,最後的結論是,一歲半以前,絕大多數小孩都認不出鏡子裡的自己,但兩歲以後,絕大多數的孩子就能認出自己了。
多年來,獼猴是不能透過這個映象實驗的,所以行為學家都認為獼猴是沒有自我意識的。我們前些年做了一個實驗,是讓猴子坐在鏡子前面,固定它的頭,只能看前面鏡子上的影像。然後在它頭後面兩個板上打雷射點,只要它能用手摸到鏡中的雷射點就可以得到獎賞。參加實驗的猴子一開始不知道鏡子裡面那隻手跟它自己是什麼關係,有時候,猴子的手碰巧碰到了雷射點,得到了獎賞。慢慢地,它就開始察覺到鏡子裡的手的位置和自身本體感覺到的手的位置是對應的,也就是它把自身的感覺跟鏡子的影像聯絡到一起了。訓練幾個星期之後,絕大多數的猴子就能認出鏡子裡的自己了,這時候你往它臉上塗點東西,它在鏡子裡看到了,就會用手去摸一摸自己的臉,有時候它還會用鏡子照一照自己背後看不到的地方。
以前我們認為猴子是被訓練出了自我意識,後來發現事實上可能它原來就有自我意識,只是它不知道鏡子裡的那隻猴子對應的就是它自己。換句話說,它學會的能力其實是一種多感覺整合能力,讓它能夠把鏡中看到的視覺影像跟自身的位置(本體感覺)整合起來。我知道我的手放在什麼位置,手上的資訊會傳到大腦裡面去,這叫自身本體感覺,這個資訊跟視覺資訊連在一起,你就知道假如我眼睛看到鏡中在動的手,跟我感覺到的自己的手是完全對應的,我就知道那是我自己。
《奧麗芙·基特里奇》劇照
三聯生活週刊:等於說猴子的先天結構裡就存在某種意識,只是它沒有辦法把這些資訊整合到它的認知功能裡面?
蒲慕明:是的。比如有嚴重自閉症的孩子,在鏡子面前做這個往臉上塗東西的測試,他就認不出他自己。還有老年痴呆症的患者也一樣,他可能會跟鏡子裡的自己講個不停,不知道那裡面正是自己。
三聯生活週刊:如果人類將來完成了全腦連線圖譜,理解了我們的認知、思維、情感乃至意識對應的大腦機制和原理,很多哲學上的討論似乎就不存在了。人的存在是不是就和機器的存在一樣了?
蒲慕明:你說這是好事是壞事?科學的歷史就是不斷解密未知的、神秘的事物。有人認為我們不應該解密,我們的“自我意識”是不能夠被碰觸的神聖的東西,或者是不可被理解的東西,但是對科學家來說那也是一個自然現象,也可以去找到它的物質基礎,就像物理學家在找他們認為一定存在的暗物質一樣。最後,我們可能發現意識本質上也不過就是些更復雜的電活動,跟我們想吃飯、睡覺時的電活動沒什麼本質差別。
AI可能沒有給人留下足夠的適應空間
三聯生活週刊:我們都說人是一個學習的物種,一個能夠自我教育的物種,但AI到來後,機器表現出來的學習能力在很多方面都超過了人類。對此,我們的教育體系應該怎麼辦?
蒲慕明:人工智慧的時代來臨,會出現很多高智慧的機器,它可以在很多事情上取代人,這已經開始成為現實了。你現在去問一下做人工智慧的公司,很多初級、中級程式設計師都不需要了,只有高階程式設計師還留著。因為高階程式設計師比大模型做的程式還是要高明,但未來誰知道呢?現在大部分會計師做的工作機器也都可以做了,法律資料收集也沒什麼人比人工智慧更快。在化學領域,你要合成什麼東西,現在也有AI幫你設計,它甚至做得比你更快、更準確。根據保守的預測,未來10年裡,人類職業可能有50%要被機器替代。我們的教育體系再去批次地培養程式設計師、會計師等等,將來到了社會上可能就不被需要了。所以,教育模式和理念都必須做出改變。
首先,大學裡的很多專業要進行調整,人工智慧相關的課程和專業要大幅度增加。其次,大模型出現後,教育一定不能再只是學專業知識和技術。你可以學一個專長,但是你的目的不能再只是學會知識和技能,而是要透過它來訓練自己學習一門學問和技能的能力。你畢業之後要隨時做好換專業的準備。
我們說教育要創新已經說了十幾二十年了。創新教育不是老師直接給學生灌輸知識,而是要激發學生的主動性,鼓勵他們自己去探索、思考。老師的定位也要變,不應該再扮演一個權威的知識傳授者,只是告訴學生應該學什麼,什麼是對的、什麼是錯的,而是幫助學生自己去探索和辨別真偽。
2024年10月26日,寧夏首家AI博“悟”館亮相銀川,旨在透過人工智慧技術鼓勵青少年從“玩”中學,從“悟”中思
三聯生活週刊:還有很多人關心一個問題,當這一代孩子的成長過程是沉浸在一個AI圍繞的環境之中,會不會給他們的身體,特別是大腦的發育帶來一些不利的影響?
蒲慕明:這個問題確實是我們現在就應該考慮的。當我們的生存環境存在大量的人工智慧,我們接觸的很多其實是虛擬環境。這種虛擬環境,對大腦的確存在負面的影響。
我剛才舉了開車的例子,在虛擬世界裡開車是場景往後頭轉,但人不是往前動的,這時候人的感知覺系統裡有些感知覺是沒有用到的,你一直靠的都是視覺的光流資訊。一個人如果是在這種環境下學會的開車,其實會影響他在真實世界開車的技能。因為在真實世界中,人不能只看光流,要利用各式各樣的感知覺資訊,包括人的視覺、聽覺、手的觸覺、本體感覺、自身運動的前庭感覺資訊等等。人的這些能力是要在不斷使用中鞏固、強化和維持的,你要是老不使用它,它就會慢慢弱化、消失。
未來的世界虛擬資訊包圍我們的時候,我覺得一定會改變我們人類處理真實世界資訊的能力。很多虛擬資訊我們可能信以為真,它逐漸就會改變我們的大腦結構,削弱我們的某些辨偽能力,最後可能真的假的就分不清了。人的大腦最重要的功能是什麼?就是在生存的環境中做出正確的判斷,來適應不同的變化。因為人工智慧導致虛擬資訊的大量侵入,使我們喪失在真實環境中的適應能力,這對未來人類的生存和發展來說是個嚴峻的考驗。
現在我們就在做一個實驗,讓小鼠在一個虛擬世界走迷宮,小鼠學習走了以後,再讓它去走真實的迷宮,看它的能力和未經歷虛擬迷宮之前的能力有沒有差別。這實驗還沒有做完,但我相信很可能是有差別的。小鼠在虛擬世界待久之後,它在真實世界辨別資訊,也就是找路的能力會下降。
三聯生活週刊:現在教育界也在討論AI強大起來後,會不會導致人類認知能力的退化、幼稚化。但這不是個新問題了,每一輪新的技術變革,都會有類似的擔憂出現,但人類似乎總能找到適應的辦法。這一次,會有所不同嗎?
蒲慕明:當然,你也可以說在AI環境下成長起來的人就是新一代人類,我們也沒辦法。人工智慧是不可阻擋的潮流,未來的世界就是除了一個現實的世界,還有一個虛擬的世界。我們人就要在這種環境下生存,要演化出適應這種環境的能力。但是問題就在於,很可能我們沒有足夠的時間去慢慢演化。如果人類對虛擬資訊和真實資訊分辨不清楚,設想一種極端情況,比如到了核戰危機時,要有個人出來決定是否按那個按鈕,如果這個人不能判斷資訊的真偽,人類就可能走向滅亡了。
三聯生活週刊:這也跟人工智慧發展太快有關係?
蒲慕明:當然,AI現在發展的速度超出了很多人的想象。但技術的發展需要有正確的價值觀的支撐。如果不是從人的角度來發展新科技,就會存在問題。我們一定要“AI for human”,而不是“AI for AI”。為了人的話,應該趕快做出一些對人有用的東西。那些對AI的發展有遠見的人,比如辛頓(Geoffrey Hinton)這樣的專家,他們知道未來可能存在的問題,要能夠出來說話,改變政府的政策,改變企業的走向,使AI的發展更趨於為人類服務,而不是任憑AI的無序發展。
三聯生活週刊:神經科學的發展能為此做些什麼?
蒲慕明:在幾年前的上海科技節上,有個節目主持人就問我,“你希望神經科學的發展能夠達成什麼對社會有貢獻的目標”,我回答說是應該能幫助增強人類社會的共情心。這個社會要持續發展下去,人們一定要有共情心,我們現在出了很多問題就是缺少共情心,你覺得別人的苦難跟你無關。我們的大國競爭、戰爭、饑荒、環境危機,很多問題的來源都是缺少共情心,人們不關心別人的死活。
共情,可能是人類特有的腦功能,也是非常重要的一個功能。有人說猴子也有共情心,有一隻猴子要死掉的時候,常常有另外的猴子跑到旁邊去觸控它、安慰它。但人類的共情是一種複雜得多的機制,我們可以把別人的痛苦,當成是你自己的痛苦,能夠換位思考,去理解別人的想法,能據此來控制自己的行動。共情心的產生和維持很可能與社交行為直接相關。如果一個小孩子長期是跟機器玩,不跟人交流,久而久之,可能就會缺乏共情心。所以儲存和增強共情心應是教育的一個重大的目標,要給孩子們創造更多與人接觸交流的機會和環境。
點贊”“在看”,讓更多人看到
 排版: 喬木 / 稽核:雅婷
招聘|實習生、撰稿人
詳細崗位要求點選跳轉:《三聯生活週刊》招實習生、撰稿人
本文為原創內容,版權歸「三聯生活週刊」所有。歡迎文末分享、點贊、在看三連!未經許可,嚴禁複製、轉載、篡改或再發布。
大家都在看

點贊”“在看”,讓更多人看到

相關文章