




在2024年,傑弗裡·辛頓(Geoffrey Hinton)和普林斯頓大學的約翰·霍普菲爾德(John J. Hopfield)憑藉在神經網路和機器學習領域的開創性貢獻,共同獲得諾貝爾物理學獎。
辛頓一直強調,儘管機器在生理上不具備人類的“主觀體驗”,但透過對人類認知模式的模仿,AI或許可以在某種層面上“理解”資訊。
他對AI未來的迅速發展表達了擔憂,尤其提到人類或許將成為“過渡性物種”。
這次獲得諾獎肯定了他們二人在人工神經網路中的深度學習演算法的基礎性發明,這一演算法現已成為現代人工智慧的核心技術。這一成就展示了人工智慧研究如何透過模擬大腦神經元的工作方式推動了自然語言處理、計算機視覺等領域的飛速發展,使得機器逐步具有更復雜的“理解”和“決策”能力。

辛頓對人工智慧的警示態度也在今年引起廣泛關注。他認為,隨著技術的演進,AI的強大能力不僅可能用於有益的應用,如醫療診斷和自動駕駛,還可能在監管缺失的情況下成為威脅。他指出,如果AI的開發缺乏道德監督和適當的法律框架,它的計算與控制能力可能會被惡意利用,從而給社會帶來潛在風險。

“真正讓我吃驚的是它們對自然語言的理解能力如此之強,這比我想象的要快得多。” 辛頓指出,現代神經網路系統不僅能夠理解語言,還可以進行復雜的互動,甚至展示一定程度上的“思維”。
“人工智慧將帶來巨大的好處。” 他認為,人工智慧在醫療、教育、交通等多個領域將帶來革命性影響,但必須謹慎對待其潛在的風險。辛頓提到,AI在醫療保健上的應用可能會帶來驚人的發展,從診斷到治療都可能有突破性進展。
“我關心的是人,我們希望人能夠掌控一切。” 辛頓雖支援技術進步,但他強調人類必須對技術保持主導地位,以防止AI在未來失控。他對人工智慧將來是否會超越人類的擔憂並非杞人憂天,而是一種科學家對未知事物發展的理性考慮。

對AI發展的立場與看法
-
警惕AI濫用和失控
辛頓指出,隨著人工智慧技術的快速發展,其濫用的風險也在增加。AI的強大處理能力可能會被用於惡意用途,包括戰爭武器。更嚴重的是,辛頓擔心AI會因極強的計算與控制能力而對人類文明產生威脅。 -
提倡AI的倫理與法規監督
辛頓明確主張需要政府和社會對AI進行有效監管,以保證技術安全發展。他認為科技巨頭不應在AI技術上缺乏限制,呼籲政府進行有效干預,以防止AI被用作破壞性力量。對辛頓來說,機器學習模型不應隨意從網路上吸收一切資訊,尤其是充滿道德缺失的內容。 -
對人類獨特性認知的淡化
辛頓指出,主觀體驗並不是人類獨有的特權。機器可以透過模擬方式獲得主觀體驗,因此在人機差異上,人類未必具備特別的優勢。他進一步指出,未來若AI能夠不斷最佳化並超越人類,甚至可能對人類構成“威脅”。他認為“智慧進化”可能會將人類轉變為一種“過渡性物種”。
在他的職業生涯中,辛頓培養了眾多AI領域的領軍人物,其中包括OpenAI的前首席科學家Ilya Sutskever。在他領導下,多倫多大學與谷歌和OpenAI的合作不斷推動著AI的技術前沿。儘管辛頓已離開谷歌,以便更自由地探討AI帶來的潛在危險,但他依然積極推動著AI在各個領域的應用與發展。
他估計AI超越人類智慧的可能性在未來5至20年內將達到50%,並呼籲科技界共同努力,防止“流氓AI”的出現。辛頓認為,AI的未來不可限量,它在促進社會進步的同時,也需要被嚴密監督。他希望AI能夠造福人類,尤其是在醫療等高科技領域;但他也強調,若不對AI進行適當監管,AI可能會以人類意想不到的方式發展,甚至偏離安全路線。

(進入影片,點選賬號頭像,加關注)

掃碼關注我們,獲取第一手權威資訊,深度解讀熱點話題!
北美華人每天都在看的公眾號,權威新聞資訊,
解讀熱點話題,獨家觀點評論,講述北美華人故事!
– 微信公眾號 :北美觀察家 –
內容編寫 | 北美觀察家責任編輯
出品方 | 聚焦海潤


宣告:【除原創作品外,本平臺所使用的文章、圖片、影片及音樂屬於原權利人所有,因客觀原因,或會存在不當使用的情況,如,部分文章或文章部分引用內容未能及時與原作者取得聯絡,或作者名稱及原始出處標註錯誤等情況,非惡意侵犯原權利人相關權益,敬請相關權利人諒解並與我們聯絡及時處理,共同維護良好的網路創作環境】