
新智元報道
新智元報道
編輯:編輯部 ZJX
【新智元導讀】就在剛剛,美國政府曝光了各界對「AI行動計劃」的全部政策建議。OpenAI措辭激烈地表示,DeepSeek讓我們看到,必須馬上鎖死中國AI,必須限制高階GPU晶片和模型權重流向中國!Anthropic同樣呼籲:必須立馬補上H20這一關鍵漏洞,並且嚴控H100的門檻。
AI戰打到現在,下一步怎麼走?
4月25日,美國網路與資訊科技研究與發展(NITRD)公開了美國各界就「AI行動計劃」提交的全部書面意見。

網站連結:https://www.nitrd.gov/coordination-areas/ai/90-fr-9088-responses/
拜登的AI行政令,在現在這屆政府是行不通了,現在,特朗普政府需要一個全新的AI行動計劃,繼續保持美國的AI領先地位。
本次收到的意見總數,達到了誇張的10068份!

這些建議來自美國的各行各業,上至美國學界、行業團體、私營部門組織、美國各州政府,下至熱心市民。

在這一萬多份意見中,共有292家公司發聲
其中最亮的,莫過於OpenAI和Anthropic了。
這兩家公司的措辭一致的強硬——必須對中國加強技術封鎖!

具體來說,就是必須限制高階GPU晶片和模型權重流向中國,而且美國AI必須在和中國的競爭中取勝。
Meta則站在了這兩家的對立面,一如既往地強調開源AI。因此,他們認為對開源模型進行出口管制是根本不可行的,這隻會導致美國拱手讓出主導權,讓全球開發者轉向中國的開源模型。
異曲同工的是,谷歌也同樣批評了拜登政府的AI出口管制,建議特朗普政府在對待出口管制上,一定要精心設計,避免讓美國公司處於劣勢。

微軟和亞馬遜,則默契地選擇不談此類話題,只給出了一些一般性建議。
耐人尋味的是,英偉達、蘋果、特拉斯三家巨頭,並未提交任何意見,馬斯克的xAI也保持了沉默。
有趣的是,很多美國的「熱心市民」對於AI持有悲觀的態度,他們的意見簡單、直接。


相比之下,機構、巨頭和學界的回覆考究、詳細,充分顯示了他們的重視態度。
顯然,在這場史無前例的AI革命中,每個人都無法置身事外。

AI巨頭共同的聲音:美國政府責任重大
總的來說,傳統的科技巨頭們在對待AI經濟、出口管制以及AI監管等關鍵議題上有很多共性的意見,但也有各自的側重,以及對AI競爭和安全治理的不同理解。
不過至少有一點是一致的。
他們一致認為AI至關重要,認為美國應該加大AI政務應用策略。

OpenAI:必須鎖死中國AI,包括晶片和模型
OpenAI對於AI,尤其是中美AI的競爭,一直持有激進的態度。
在三月中旬的一份長達15頁的上書中,OpenAI矛頭直指DeepSeek。
在這次的意見中,OpenAI認為AI行動計劃的核心目標,就是維持美國在全球AI領域的領導地位,並利用AI促進經濟繁榮和個人自由。

在檔案一開頭,OpenAI就提出了三個scaling原則。
1.AI模型的智慧水平大致與訓練和執行所使用資源的對數成正比。
OpenAI表示,自己已經展示瞭如何透過推理階段的算力擴充套件智慧。這些擴充套件規律在多個數量級上都非常精確,因此,智慧水平線性增長帶來的社會經濟價值是超指數級的。
2.使用特定水平AI能力的成本大約每12個月下降10倍,且成本下降會促使使用量激增。
舉例來說,從2023年初的GPT-4到2024年中的GPT-4o,單詞生成的價格下降了大約150倍。因此,AI使用成本的下降速度比摩爾定律還要驚人。
3.改進AI模型所需的時間正在持續縮短。
過去,一臺計算機在某個基準測試中擊敗人類平均需要20年;後來縮短到5年;現在只需1到2年,而且這種趨勢短期內不會停止。


接下來,OpenAI的的尖銳措辭就直指DeepSeek。
它激烈陳詞道:美國正與力圖在2030年成為全球領導者的中國展開競爭。
這就是為什麼DeepSeek最近釋出的R1模型引發關注——並不是因為其效能(儘管R1的推理能力令人印象深刻,但與美國幾款主流模型相比最多算持平),而是它反映了當前這場競爭的態勢。
OpenAI表示,模型在關鍵基礎設施或其他高風險場景中的使用,存在巨大的風險,因為它可能被強制要求操控模型,以製造危害。
它還無恥地寫道:「這些模型在生成如身份欺詐、侵犯智慧財產權等非法或有害活動指南時也更加寬鬆,這反映出侵犯美國智慧財產權被視為優勢而非缺陷的態度。」
OpenAI指出,相比於美國公司,中國AI公司有諸多優勢。
比如國家可以迅速調動資料、能源、技術人才、晶片產業所需的鉅額資金等種種資源。
能利用美國各州分別制定行業法規所帶來的「監管套利」機會(這些政策會讓美國AI企業面臨嚴重的合規負擔)。
還能利用版權保護的漏洞進行「版權套利」(這就讓其他公司他們無需遵守歐美的智慧財產權規定,仍然可以獲得相同的資料資源,讓美國AI實驗室在競爭中處於劣勢)。
因此,OpenAI對政府有以下建議。
一套保障創新自由的監管策略
一套輸出民主型AI的出口管制策略
一套促進學習自由的版權策略
一套抓住基礎設施機遇推動增長的策略
一套雄心勃勃的政府AI應用策略
接下來,在「出口管制」這一部分,OpenAI繼續建議,把全球分為三級。
一級包括美國的盟友,以及那些承諾遵循美國提出的AI原則、具有相對較低風險的國家和地區,即能保證美國AI基礎設施(例如晶片)不會被轉移到非一級國家和地區。
二級包括那些有過黑歷史,未能防止受控晶片出口和其他美國開發的智慧財產權被轉移到或被三級使用的國家和地區。
三級包括中國及其他受到美國武器禁運的國家和地區。這些應繼續受到嚴格的AI系統出口管制,包括現有的對先進晶片的出口管制。
對於三級國家和地區,OpenAI呼籲嚴格禁止使用其生成的裝置(如晶片)和侵犯使用者隱私、產生安全風險的模型。

Anthropic:控制H20,嚴防走私!
Anthropic預計,在未來2-4年內,前沿AI模型將取得顯著的能力進展,特別是在具有重大安全影響的領域,如生物武器和網路安全風險等。
Claude 3.7 Sonnet展示了在支援生物武器開發方面令人擔憂的進展。
而Anthropic旗幟鮮明地表示,美國的國家安全已經到了很緊迫的程度!
在它看來,現在迫切需要保護關鍵技術基礎設施和智慧財產權免受外國威脅,增強美國的安全。
而且美國政府應當進行投資,以培養一個強大的AI開發和部署生態系統,促進美國的繁榮。
Anthropic堅信,強大的AI系統會在2026底或2027年初出現,就如CEO Dario Amodei在他的《愛的機器》一文中討論的一樣。

而這個強大AI,應該被視為美國關鍵的國家資產。
接下來,Anthropic也提到了DeepSeek,它的原話如下。
強大AI評估能力的重要性,今年早些時候釋出的DeepSeek-R1得到了突出展示。
它提到,R1能回答大多數生物武器化的問題,在它看來這十分危險。
因此,美國政府需要快速評估未來模型(無論是國外還是國內的)是否具備安全屬性的能力。
同樣,Anthropic強調,美國應該加強出口管制,擴大美國的領先優勢。
1. 控制H20晶片
當前的出口管制不適用於H20,這是一款2024年推出的高記憶體晶片,計劃向中國銷售,可以用於訓練和執行強大的模型。雖然這些晶片在初期訓練中不如H100,但同樣優秀。因此特朗普政府需要關閉這一漏洞。
2. 簽署政府對政府協議,防止晶片違規流通
作為託管美國公司超過50,000顆晶片資料中心的前提條件,美國應要求高風險的國家和地區遵守政府對政府協議,該協議要求:(1)它們的出口控制系統與美國保持一致;(2)採取措施防止晶片流通到中國;(3)停止本國公司與中國合作。
3. 仔細審查並提高對二級國家和地區的門檻
目前,擴散規則允許來自二級國家和地區的先進晶片訂單(少於1,700顆H100,約4000萬美元的訂單)無需稽核即可進行。這些訂單不計入規則的上限,無論購買方是誰。
Anthropic表示,這些門檻存在走私風險,因此建議政府考慮減少二級國家和地區無需稽核即可購買的H100數量。
4. 增加對工業安全域性(BIS)出口執法的資金支援

Meta:保護美國開源AI!
Meta強調了開放原始碼AI的重要性:開放原始碼AI是美國保持技術優勢、促進創新和經濟發展的關鍵。
它舉例說,DeepSeek的釋出就說明,即使實施閉源政策,也無法阻止技術向中國的擴散。
Meta表示,為了跟在中國的競爭中取勝,美國必須透過開源AI,促進和鼓勵美國開源AI的出口。「開源模型對於美國在與中國的人工智慧競爭中取勝至關重要,並確保美國在人工智慧領域的主導地位。」

在它看來,如果對開源模型進行出口管制,就會使美國徹底退出這場競爭,這就會讓中國公司有機會制定全球的AI標準,在全球技術生態系統中植入他們的價值觀。
Meta強調,美國的全球競爭優勢,就是去中心化和開放的創新。通過出口管制關閉模型,阻止中國獲得美國模型,將是無效的,只會削弱美國的利益。
它舉例說,DeepSeek的釋出就說明,即使實施閉源政策,也無法阻止技術向中國的擴散。
Meta提出了三大核心建議,以確保美國在AI領域的持續領導地位:

1. 保護並推廣美國開放原始碼AI
促進開放原始碼AI的出口,避免對開放模型實施出口管制。政府優先採用開放原始碼AI,提升政府效率、降低成本,並增強國家安全。
2. 減少創新障礙,保持全球技術領導地位
簡化資料中心的能源和建設審批流程,推動先進核能技術發展,避免各州AI法規的碎片化,防止對創新造成阻礙。
加快寬頻和海底光纜部署,最佳化聯邦土地上的光纖網路審批流程。
3. 在國際上捍衛美國技術利益
保護美國企業免受歐盟等地區的高額罰款和歧視性監管。
應對歐盟AI法案的負面影響:避免歐盟的過度監管損害美國企業的競爭力。防止外國政府透過反壟斷審查限制美國科技公司的創新和併購活動。
比起上面幾方亮點滿滿的發言,接下來兩大巨頭的建言,相對而言就比較官方了。

谷歌:加強AI投資和國際合作
谷歌建議,政府要關注三個關鍵領域:AI投資、政務AI、國際合作。
1. 加大對AI的投資
政府與產業界協同合作;實施平衡的出口管制政策,兼顧國家安全和企業利益;持續資助基礎AI研發;制定有利創新的全國級政策框架。
2. 加速並現代化政務AI應用
政府應完善公共採購規則,促進雲解決方案間的互操作性和資料便攜性,簡化採購流程,推動數字化轉型。
制定統一的資料標準和API,建立敏捷的授權流程。
同時,加強與私營部門合作,保障關鍵基礎設施和網路安全,採用多雲多模型方法用於國家安全。
3. 在國際上推動有利於創新的AI發展路徑
建議美國政府推動市場導向、被廣泛採用的前沿AI模型技術標準與安全協議;制定量身定製的協議和標準,識別並應對前沿AI系統可能帶來的國家安全風險; 抵制限制性的外國AI政策壁壘。
與OpenAI類似,谷歌也主張放寬對AI訓練限制,要求「合理使用」知識版權。

谷歌希望確立其與競爭對手使用公開可用資料(包括受版權保護的資料)進行訓練的權利。
據報道,谷歌已使用公開的版權資料訓練了多個模型,被指控谷歌在進行訓練前未通知版權方並支付報酬。
美國法院尚未裁定「合理使用」原則是否有效地保護AI開發者免受智慧財產權訴訟。

微軟:成為政府值得信賴的合作伙伴
微軟表示願意成為政府值得信賴的合作伙伴,提出以下三個建議:
1. 加速美國AI發展
2. 保護公眾、加強國家安全
3. 投資科學研究與建立基於科學的AI標準

微軟認為要想在全球範圍內持續保持美國在AI領域的創新與領導地位,就必須實現政府與私營部門的深度協同,共同挖掘和發揮美國在本土的全部潛力。
此外,還要依託AI技術棧各個層面的企業之間的持續合作,這些企業從晶片設計商,到超大規模雲服務提供商,再到AI模型開發者,構成了完整的AI生態體系。
此外,政府與企業都需要能夠獲取行業領先與開源模型的渠道,以在效能、安全和成本之間取得最佳平衡。
而且,美國還應該投資科學研究與AI標準體系建設。

特朗普:AI行動計劃
早在2025年1月23日,美國就公佈了新任總統Trump簽字的美國總統行政命令(行政命令 14179),旨在消除美國在AI領域領導地位的障礙。


文末是特朗普的簽名
根據這項行政命令,科技政策辦公室(OSTP)透過網路和資訊科技研發(NITRD)國家協調辦公室(NCO)和國家科學基金會,於2025年2月6日釋出了一份關於制定AI行動計劃的資訊請求(RFI,Request for Information)。

這次徵求意見的截止日期為3月15日。
透過這份RFI,OSTP和NITRD NCO向公眾徵求了意見,包括學術界、行業團體、私營部門組織、州、地方和部落政府以及任何其他感興趣的相關方。
這「萬份建言」中,個人意見達到了9313份,可見民眾對於這份重磅政策檔案的高度期待。

當然,最能影響最終方案制定還要屬那幾家重量級的企業。

特朗普的「靈魂三問」
現任OSTP主任是Michael Kratsios。
去年12月22日,特朗普提名技術專家Michael Kratsios擔任OSTP主任和總統科技助理。
在3月26號的一封白宮公開信中,特朗普對Michael Kratsios發出了靈魂三問。

第一:美國如何確保自己在關鍵和新興技術領域(如AI、量子資訊科學和核技術)繼續保持無可匹敵的世界領導地位,並保持對潛在對手的技術優勢?
第二:如何振興美國的科學和技術事業——追求真理,減少行政負擔,賦能研究人員實現突破性的發現?
第三:如何確保科學進步和技術創新推動經濟增長,並改善所有美國人的生活?

在這10068份對於AI的意見中,就藏著這三個問題的答案。
參考資料:
https://techcrunch.com/2025/03/13/google-calls-for-weakened-copyright-and-export-rules-in-ai-policy-proposal/
https://www.nitrd.gov/coordination-areas/ai/90-fr-9088-responses/
