2025.03.10

本文字數:1387,閱讀時長大約2分鐘
導讀:人類需要更多冒險者,但冒險是設定好可控風險的一種追求,人們必需始終堅持一種有準備、有退路的冒險,莫魯莽行事。
作者 | 一財評論員
AI從未如此靠近和改變人們的生活。
最近Manus刷屏,國產AI Agent(智慧體)再一次讓人們感知到創新者的步伐。爆紅的Manus一石擊浪,引發更多探索。近日國內初創公司DeepWisdom的MetaGPT團隊,在開源社群GitHub上傳其復刻的產品Open Manus,這預示Agent的門檻並非高不可攀。
人們將今年定義為Agent元年,儘管今年出現現象級的Agent是低機率事件,但Agent作為AI應用的探索,註定將絢麗多彩,並推動AI賦能千行百業,將夢想照進現實。
人們在創新探索中,從沒現成模版,需冒險者不斷試錯,深度探索各種可能性,因此唯有秉持向創新者和冒險者致敬,尊重其創新自由,對其行為無事不擾,同時又有求必應,創新才有真正的包容環境。
AI Agent作為應用智慧體,必須依賴人們在大語言模型上的不斷投入和不斷進化,尤其是大模型幻覺依然困擾AI落地的情況下。這也引發一個值得思考的問題,那就是如何平衡大語言模型的進化與Agent發展之間的匹配,如何識別和避免AI Agent的冒險與冒進的邊界問題。
當前必須警惕的是,即便是世界上最先進的大語言模型,依然未能解決AI幻覺問題。人們若尚未找到解決AI幻覺的方法,或尚無法確定AI幻覺的執行邏輯,使AI幻覺置於風險可控邊界內,加速推進Agent等應用,容易觸犯統計學上的兩類錯誤,即選擇一個錯誤答案和捨棄一個正確答案等。畢竟,將充滿幻覺的AI透過Agent開發應用到百業,可能帶來的不一定是科技向善的改變,有可能開啟的是一個潘多拉魔盒。
為此,在將今年定為Agent元年的同時,如何定義人們在Agent上是冒險還是冒進,是必需明確釐定的一個大是大非問題。這就需我們真正將AI從不確定性中拉出來,拉到可能性下的收益場景中。要做到這一點,一是需加快立法確定AI發展的可能性邊界,以及透過立法搭建引導確定性創新的激勵約束機制;二是釐定AI冒險與冒進的概念邊界,明確要求Agent的開發者在探索的同時,必需做好風險策略安排及風險挽救的方式方法,也即要求Agent的應用開發者在開發的同時,構建風險壓力測試場景,並必須提供風險阻遏的解決方案,以便給人們一種選擇,一旦Agent出現災難性後果,使用者能一鍵阻斷,堅決避免先上車後買票的風險政策。
當前在AI領域存在一種現象,就是沿用過往應用為主的商業發展邏輯,尤其是在算力面臨複雜環境的情況下,演算法上的精煉創新和應用上的先行突破似乎正在成為創新者的一個次優選擇。但當AI幻覺尚未找到有效管控方法,使用高幻覺率的AI進行Agent開發和商用,就是冒進。要知道,擁有先進大語言模型的公司,在Agent上採取謹慎態度,並非他們不清楚Agent的商業利益,而是他們擔心AI幻覺會讓冒險變成損害性巨大的冒進。
因此,在AI競爭中,需繼續利用比較競爭優勢,具體到國內,在演算法上進行更多精細化創新,透過演算法上的突破降低AI幻覺,或使AI幻覺處於可控狀態,同時在算力上加速突破,搭建適配算力資源的演算法體系。此外,在Agent上加速佈局推理晶片等,透過最佳化組合推理晶片和推理演算法的適配性,在應用層為Agent克服AI幻覺提供對應的解決方案。
冒進誠近貪,自畫將豈敢。未來已來,AI應用的星辰大海正在冒險者的前赴後繼中不斷拓寬可能性邊界。為此,必須謹記,人類需要更多冒險者,但冒險是設定好可控風險的一種追求,人們必需始終堅持一種有準備、有退路的冒險,莫魯莽行事。
微信編輯 | 七三
推薦閱讀
個稅起徵點可適度提高,但不宜過高!

