AI進步了,到底是會“添幫手”還是會“搶飯碗”?


全文共1366字,圖片2張,預計閱讀時間4分鐘。
文章轉載於“經濟日報”
近日,關於人工智慧(AI)的新聞很多,有人聞之則喜,有人憂心忡忡。深圳“AI公務員”上崗,幫助政府大幅提高公共服務效率。某行業研究報告稱,隨著AI替代人工,全球銀行將在未來3年至5年內裁員多達20萬人。AI進步了,到底是會“添幫手”還是會“搶飯碗”?

2月14日,2025年蘇州市“人工智慧+”創新發展推進大會暨人工智慧賦能新型工業化深度行(蘇州站)活動現場展示的人形機器人。李博攝(新華社)
從美國OpenAI公司釋出ChatGPT掀起AI大模型浪潮,到中國DeepSeek風靡全球推動AI普惠,AI在創造新質生產力的同時,也帶來了“替代人類就業”“深度偽造詐騙”“資訊生態汙染”等系統性風險。在智慧革命的十字路口強化科技向善法則,關乎人類文明存續。如何才能確保人工智慧安全、可靠、可控?
全球合作,為AI劃定“不可為”底線。
已經有很多人在使用中發現了AI的不靠譜。當AI被賦予“追求效率最大化”目標時,可能選擇欺騙人類以完成任務。而AI能力越強,人類就越難分辨真偽。這就要求我們明確技術應用的負面清單,將“不作惡”嵌入AI的底層程式碼。
劃定“不可為”底線,必須建立全球共識。AI具備無國界屬性,是全球化的典型代表。技術進步無界限,AI進化有賴於各國科技工作者的充分交流,也有賴於整個人類文明的大資料餵養;技術應用無界限,AI可以廣泛應用於醫療、教育、交通、金融等各領域,可以服務各國人民。這一屬性,要求人類超越地緣政治干擾,超越地域與文化的差異,共同制定AI普世倫理準則,推動構建公平、公正的人工智慧國際治理體系。

1月8日,在美國拉斯維加斯,人們在宇樹科技展區觀看機器狗展示。曾慧攝(新華社)
主動安全,為AI消除“不可控”風險。
上醫治未病。對AI的價值觀塑造應前置到底層設計階段,而非事後修補。提高大模型內生安全能力,應將公平、透明、責任等倫理原則轉化為可量化的技術引數。在模型訓練和設計階段引入道德約束模組,新增安全語料;在資料採集和處理階段強調源頭管控,嚴格進行資料篩選及資料安全標註;在模型上線前進行全面安全評估,確保各類風險專案中生成內容的合格率。
在模型部署應用後,日常巡檢尤為重要。當然,對AI安全來說,“防守”比“破壞”難度大。當生成式AI的迭代速度超過常用檢測工具時,單兵突進式解決方案必然失效。AI時代,發展與安全不是對立,而是相輔相成。用大模型治理大模型,正在成為AI治理的新正規化。
社會協同,為AI構建“向善”大環境。
當詐騙犯能利用AI精準模仿親人聲音,當求職者因演算法偏見喪失工作機會,當網路資訊被AI製作的海量虛假內容深度汙染,技術風險就已滲透社會的毛細血管。應對AI帶來的不良衝擊,需要建立政府、企業、公眾共治的社會協同防禦體系。政府要在鼓勵創新與管控風險之間保持平衡,企業要開發更多AI安全技術產品,公眾要提升批判性思維與科技倫理素養。
這也意味著,教育體系革新迫在眉睫。要在中小學引入“AI素養”教育,教導未成年人正確認識AI;要在大學開設“AI倫理”課程,培養技術人才的社會責任感;要在職業教育中設定“AI轉型”基金,資助因AI替代而失業的群體進行技能重塑。
AI技術不是萬能的,缺席AI時代是萬萬不能的。站在智慧革命的臨界點上,AI進化方向應由人類的集體良知決定。引導AI向善,才能讓智慧之火照亮人類文明的未來。
圖片源自網路

 關注公眾號:
有理兒有面
理   性|揭   秘|探   討


相關文章