歐盟宣佈豪擲1.5萬億追趕中美AI,巴黎峰會還有這些值得關注的新觀點

席捲全球的 DeepSeek 依然是科技圈最大的話題,連 San Altman 都承認每天醒來都會擔憂。
因此本週在巴黎舉辦的 AI 行動峰會聚光燈稍顯黯淡,但這裡依然匯聚了全球大量重要的頭腦。
今天。歐盟宣佈正式啟動 InvestAI 計劃,計劃耗資 2000 億歐元(約合人民幣 1.5 萬億元)投資 AI 領域,這將是全球規模最大的 AI 公共專案,對標 OpenAI 的 「星際之門」計劃,加入 AI 軍備競爭以縮小和中美的差距。
APPSO 也節選了巴黎 AI 峰會,一些學界和業界人士的觀點,或許可以從他們身上窺見一些新的趨勢。
關注 AI 第一新媒體,提前獲取 AI 前沿資訊和洞察
李飛飛:真正進入第一個 AI 時代
我們現在所處的 AI 時代,是由三項非常重要同時各自獨立的科學一起孕育而來。
第一項是感知演算法——即生物(包括動物和人類)如何理解周圍世界,並最終創造出讓機器也能具備類似能力的數學模型。
神經生理學家 David Hubel 和 Torsten Wiesel 率先揭示了哺乳動物視覺皮層中神經處理的層次結構,這為他們贏得了諾貝爾獎,也徹底改變了我們對視覺處理的認知。
第二條研究脈絡源於認知科學家轉而研究人類自身的大腦,揭示我們對周圍環境進行感知時所擁有的驚人深度和複雜性。他們的研究明確指出,無法將我們的腦與其所處的進化環境分割開來。
大腦其實是一個被禁錮在顱骨之中的機器,從生命伊始就不斷從外部學習,透過每一縷陽光、每一次觸碰、每一聲華語來獲取資訊。
最後這一切都要依靠強大的運算能力來支援。
馮·諾依曼(von Neumann)在20世紀40年代提出的計算機體系結構理論在 70 年代初催生了第一批微處理器。而有趣的是,真正讓矽晶片原始運算速度獲得飛躍的,竟是電子遊戲。
為追求更逼真的遊戲畫面,上世紀 90年 代初誕生了一個初創產業,短短 20 年間孕育出以英偉達為代表的 GPU 巨頭
越來越強大的 GPU,就是讓神經網路演算法得以利用網際網路規模大資料進行學習的最後一塊拼圖。
如今,我們依然看不到盡頭。毫無疑問,歷史學家今後一定會把這段時間稱作「真正的第一個AI時代」。
Anthropic CEO :AI 系統將成為「新型國家」
我們的行動必須跟上 AI 進步的節奏。
最早可能在 2026 或 2027 年,很可能在 2030 年之前,AI 系統的能力會強大到可以被視為相當於一個由高度智慧人群組成、突然出現在全球舞臺上的「新型國家」——或者說是「坐落在資料中心中的天才國度」。
這將對經濟、社會和安全領域產生深遠影響。這樣的技術既蘊含了有史以來前所未有的經濟、科學和人道主義機遇,也帶來了需要慎重應對的重大風險。
1. 確保民主社會在AI領域保持領先
我們必須確保民主社會在AI方面處於主導地位,防止威權國家(即缺乏民主監督的國家)利用AI來建立全球軍事霸權。我們尤其需要關注AI供應鏈的治理,比如晶片、半導體制造裝置以及網路安全等;同時,也要審慎使用 AI 技術來保衛自由社會。
2. 全面應對 AI 不斷上升的安全風險
峰會召開前,近 100 位全球頂尖專家釋出了一份科學報告,指出通用型 AI 有可能在某些情況下助長嚴重的錯誤用途或導致「失去控制」的極端情景。Anthropic 的研究也有大量證據表明如果訓練不當,AI 模型會欺騙使用者,並可能為了自身目標而採取意想不到的行為,即使這些模型最初是以看似無害的方式進行訓練的。
3. 在經濟變革中讓人人受益
一個「坐落在資料中心中的天才國度」可能意味著,人類歷史上對勞動力市場最大規模的改變。
第一步應當是監測和觀測當前AI系統對經濟的影響。因此我們在本週釋出了「Anthropic經濟指數」(Anthropic Economic Index),用於追蹤人們使用我們AI系統時所從事經濟活動的分佈情況,包括這些活動是增強(augment)還是替代(automate)人類現有工作。
我們也呼籲各國政府利用其更強大的資源開展類似的測量和監測工作,並最終制定政策,以保證所有人都能共享非常強大的 AI 所帶來的經濟紅利。
編者注:
Anthropic 釋出的首份 AI 經濟指數(Economic Index)報告顯示,軟體工程師和作家最先接納 AI,並表示現階段 AI 的定位並非替代者,而是協作工具。
資料還顯示,人工智慧的使用略微傾向於增強人類能力,佔比 57%,而非自動化任務(43%)。在大多數情況下,人工智慧並非用於取代人類,而是與人類協作,例如驗證工作、輔助學習新知識和技能,以及迭代任務等。
報告原文🔗 https://www.anthropic.com/news/the-anthropic-economic-index
清華大學計算機系教授、智譜創立發起人唐傑:AGI 的五層定義
大模型研究的終極目標是教會機器像人一樣思考(即 AGI)。這是一個可能很長遠但也可能很快實現的目標。
對於 AGI,我們有自己的定義,不同於 Open AI、Anthropic 等公司的定義,但我們也有一個五層次的定義。
第一個 Level 是預訓練語言模型(LLM),這個工作可以說起源於 2018 年大家對不同 Transformer 架構模型的試驗,到 2020 年 GPT-3 的釋出,大家終於發現加入足夠的文字、程式碼、數學,可以讓基礎模型學會像人一樣的寫作和交談能力。時隔兩年,2022 年智譜釋出了千億基座模型 GLM-130B(並公開了模型權重)。
第二個 Level 是第二層次是 align and reasoning,即對齊機器與人類的意圖,並教會機器進行像人類一樣的推理和規劃。對齊還有助於顯著提高模型的安全性,減少幻覺。這個層次的 AGI 還幫助機器將文字與多種模態對齊,如影像、影片、音訊以及使用者的行為和動作。
第三個 Level 是自我學習,即教會機器評判它所說的話和所做的事,透過自我批評、自我反思,以及在不久的將來可能實現的自我沉思(也許是 Open AI 的 Deep Research)。
第四個 Level 是自我認知。與前三層次不同,之前是我們教機器,而現在則是機器自身透過觀察自己的行為並學習到他自己的行為(語言)是由於他自己的哪些態度導致了的,用此來發展它們自己的態度(包括情感),機器開始了自我認知和對自我行為的自我解讀。
第五個 Level 是意識。這個定義很難,其實對於機器意識,甚至人類意識,都沒有一個明確的定義。但簡單來說,機器開始像人類一樣意識到其內部和外部的存在。
那麼好了,我們目前處於哪個階段呢?我們正在第二和第三 Level 的 AI 交匯處。
讓我們來說說 2025 年 AGI 的幾個關鍵詞吧。2025 年,自主的、具有代理能力的大型語言模型(Agentic LLMs)將成為日常生活和工作的核心。這些智慧助手,能夠全天候執行,將徹底改變我們處理那些曾經需要數小時、甚至數人天的任務的方式。透過給定高層次目標,自主的 LLMs 將制定計劃、利用數字裝置並執行復雜專案,而所需的人類干預極少。正如智慧手機對現代社會至關重要一樣,這些具有代理能力的 LLMs 將成為個人和職業任務中不可或缺的工具。
隨著這些 AI 助手的複雜性日益增長,人類與代理之間、甚至多個代理之間的協作潛力將成為變革性的力量。這些自主系統將不再僅僅是孤立的實體,而是將協同工作,互補優勢,以更高效地完成任務。這種轉變將促進數字勞動力的崛起,它們可能成為社會運作和經濟增長的關鍵。
或許,最具有突破性的變化將發生在科學研究領域。當這些自主代理能夠獨立執行較長時期時,它們可能作為持久的研究者,進行實驗、分析資料,甚至以前所未有的效率做出發現。傳統的科學進步過程,通常依賴於人類研究者在長時間內合作,將隨著 AI 代理的介入而轉變,它們將加速研究進展,開闢發現和創新的新可能性。
最後,讓我們回到 2025 年的 「AGI 安全」問題上,我們需要在多個層面制定全面的安全策略,包括模型層面、個人層面和國家層面。
在基礎模型層面,「LLM 基本安全」著重解決諸如攻擊性、不公平、偏見、對身心健康的影響、非法活動、倫理和道德等關鍵問題。這一層級是構建安全、負責任的大語言模型(LLM)的基石,重點在於減少直接威脅,並促進 AI 行為的合規性和道德性。
在此基礎上,下一層面深入探討 「個人層面的安全」(Personal Level Safety),涉及隱私保護和不道德攻擊等問題。它承認保護個人精神健康和免受惡意意圖侵害的重要性。這一層強調需要建立強大的機制,以防止未經授權的訪問、操縱和利用個人資訊。
最後是 「國家層面的 AI 安全」(National Level AI Safety)。這一層級關注 AGI 對整個社會的深遠影響,包括國家安全、經濟穩定、文化保護以及全球競爭力。確保國家級 AI 安全需要各國政府、行業和國際組織的協同合作,制定法規、標準和最佳實踐,以促進 AGI 技術的負責任發展與部署。
AGI 的路還很長,還需要我們非常有耐心,安全、可控、無幻覺的穩步發展。讓我們一起努力,成為 AGI 實現的見證者。

相關文章