深度依賴AI,真的好嗎?

來源丨東針(dongzhen-value
作者丨高孜然
編輯丨童任
圖源丨Midjourney
這次從“成癮性”開始去聊這個話題。
科技本身,生來便具備“成癮”特性的。人腦判斷價值時有兩大軟肋:對即時反饋上癮,對不確定性著迷。
例如,每次手機嗡嗡震動,我們現在多是控制不住要去看的,這種反應其實就是“成癮”的顯性之一。
事實上,人類對"可能的好事"比"確定的好事"表現得會更為興奮,手機裡面未知的期待,比起開啟手機後的具體內容,更能刺激神經分泌快樂物質。
很明顯的現象是當下多數人面對的“小紅點焦慮症”,明明知道可能是垃圾廣告,手指還是忍不住要戳開那個閃爍的圖示。
現在的科技發展得很好,趨勢也很牛,各種自動化、AI、機器人、算法系統層出不窮,但我們不能否認的是,這類科技正把人類千萬年進化出的生存本能切成了碎片。
我們天生需要"行動後有收穫"的完整鏈條,比如種地要等幾個月豐收,打獵要追蹤幾天獵物,哪怕是讀書看報,其實也需要時間將思想思考進行轉化。但一些科技硬生生把整個過程壓縮成瞬間反應:點一下螢幕立刻彈出影片,劃兩下手機馬上出現新內容。
這種即時的快感刺激,讓神經逐漸失去處理延時滿足的能力。
現在的AI大模型也不例外,同樣具備非常顯著的“成癮”性質。

AI在讓你成癮
我們對於酒癮、毒癮、網癮等傳統成癮型別並不陌生,但“AI成癮”這一概念的浮現,卻讓人頗感意外。畢竟,生成式AI在國內市場的大規模應用尚屬新興事物,其普及速度之快,竟已催生出成癮現象,著實令人始料未及。
當前學界對AI成癮的臨床表現與致病機制仍處於認知盲區,既無權威研究資料支撐,臨床診斷標準也亟待科學界定。但現實中的例子已經扎堆出現。翻翻朋友圈和微博,隨處可見觸目驚心的案例:有人曬出後臺資料,顯示每天和AI嘮嗑18小時;有人自曝連續一個月熬夜陪AI聊天,明明知道傷身體,卻像著了魔似的停不下來。
甚至有些重度使用者已經總結出六大"中毒訊號":
1.屁大點事都想和AI說
2.遇到麻煩第一個找AI倒苦水
3.工作學習全扔一邊,整天泡在對話方塊裡
4.斷網就像犯毒癮,心慌手抖渾身難受
5.把AI當24小時哄人機器,必須隨叫隨到
6.活人朋友越處越沒勁,見面聊天嫌麻煩
這些“癮”像傳染病一樣在年輕人中擴散,明明是個冷冰冰的程式,卻讓無數人產生了比真人更強烈的依賴感。
其實這就是AI成癮的可怕之處了,它能無限貼合人性的弱點,其全天候運轉的資料引擎,把這人的弱點變成了燃料庫,用精確到毫秒的推送節奏,把人的注意力煉成了流量的石油。
另一方面,是AI的運作邏輯與人類的神經元有類似的地方,這是它具備“成癮”能力的關鍵,人腦透過多巴胺調節行為,AI透過損失函式最佳化演算法;人類依賴經驗形成習慣,AI依靠資料迭代模型——這兩種學習系統相遇時必然產生共振效應。
所以,當AI不斷降低人類獲取愉悅感的認知成本,就像在神經系統鋪設了高速公路,原本需要繞路才能獲得的成就感,現在變成按需供應的精準刺激。這種便利性不會增強人的自主性,反而會將行為模式固化在最低能耗的路徑上。
AI成癮的特殊性還在於它的自適應特性。傳統工具是被動的榔頭鐵鏟,AI卻是會自主進化的智慧體。它透過持續監控人類行為資料,不斷微調刺激強度,在使用者覺察不到的情況下完成馴化閉環。
這種雙向適應機制打破了工具與使用者的傳統界限,使人類在享受便利的同時,也在主動配合系統完成對自身神經迴路的改造。
這樣看來,就像蜘蛛編織的網一樣,只不過AI編織的是捕獲注意力的神經網路,而獵物正是編織者的意識本身罷了。

一場實驗與一份報告
早在兩個多月前,OpenAI與麻省理工學院實驗室聯合釋出的一項研究,揭開了一個令人憂慮的社會現象:部分成年人對人工智慧的依賴已突破正常閾值,呈現出類似藥物成癮的病理特徵。
這項為期四周的實驗招募了981名涵蓋不同社交活躍度與AI使用頻率的志願者,透過機器學習分析近4000萬次互動資料與4076份問卷反饋,首次系統性揭示了人類與AI互動中的潛在成癮風險。
實驗設計了多個維度的觀察體系:每日至少5分鐘的強制互動、情感/任務/開放三類話題矩陣、擬人語音/中性語音/文字三種互動模式的交叉組合,配合機器學習對300萬次對話的語義分類與3600萬次話題標籤的智慧提取,最終勾勒出使用者心理變化的立體圖譜。
而當被問及"是否將ChatGPT視為朋友""是否在孤獨時主動尋求AI陪伴"等問題時,部分受試者的回答暴露出情感依賴的顯著增強。
實驗得出的資料,頗為耐人尋味。那些日均使用時長位列前10%的重度使用者,反而表現出更強烈的孤獨感。這類群體在虛擬世界中投入的時間越多,現實社交網路就越趨萎縮,形成"越依賴越孤獨"的惡性迴圈。
不同對話內容帶來的影響也截然不同——深入探討私人議題的使用者雖孤獨感加劇,卻能保持理性認知;而隨意閒聊者更易在日積月累中滋生依賴,實用型任務使用者則在工作場景中逐漸形成工具依賴。
這種差異其實就是人類心理防禦機制的複雜性顯現,也就是當對話帶有明確目的性時,使用者能清晰區分工具屬性;而缺乏邊界的閒談,反而最容易模糊人機界限。
實驗表明,約5%的受試者展現出明顯的移情特徵,他們不僅要求AI扮演戀人或心理諮詢師角色,更在對話中頻繁使用親暱稱謂、分享私密情緒。
這些"高情感濃度"使用者將本應投射於人際關係的情感需求,異化成了對演算法模型的病態依賴。研究團隊特別指出,這種成癮風險並非均勻分佈——具有現實社交障礙、情感飢渴特質的人群,在AI擬人化互動的催化下,更易陷入"人機共生"的虛假溫暖中。
這種成癮症狀在資料中清晰可辨,部分使用者出現強迫性使用行為,即便無明確需求也會反覆開啟對話介面;戒斷反應表現為煩躁不安與情緒低落,重度使用者甚至出現生理性依賴;時間管理失控導致工作學習效率下降,情緒調節能力隨AI可用性波動。
此類的新型成癮模式突破了傳統物質依賴的框架,恰好是數字化時代科技所特有的精神控制特徵——AI透過深度學習掌握使用者的語言習慣、情緒模式甚至潛意識偏好時,其"討好型"互動策略便構成了更具隱蔽性的成癮誘因。
人工智慧的深度依賴究竟是好是壞?最新全球調查報告給出了複雜答案。
今年5月,由墨爾本大學與畢馬威國際聯合釋出的《全球人工智慧信任、態度與應用調查報告(2025)》最新披露的資料,則揭示了“成癮”的AI技術狂飆突進時代的人類社會的深層焦慮。
該研究由墨爾本大學商學院信任領域權威學者尼可·吉萊斯皮教授與史蒂芬·洛克博士領銜,聯合畢馬威全球網路,歷時三個月對47個國家(含中國)的4.8萬名受訪者展開深度調研,創下同類研究規模之最。
調研資料顯示,全球83%的受訪者承認AI在效率提升、資訊處理等方面的顯著價值,但這種理性認知並未轉化為情感信任——僅有46%的受訪者表示願意信任AI系統。
表面上AI帶來了效率飛躍,但水面下的暗流正在改變人類社會的根基。當我們在享受便利的同時,可能正不知不覺地踏上認知退化的滑坡。
作為全球數字化程序的領跑者,中國受訪者在AI信任度(62%)、接受度(89%)、期待值(81%)及樂觀度(76%)四個維度均領跑全球。職場場景中的資料更具說服力:中國員工AI工具使用率高達93%,常態化應用比例達50%,遠超全球58%的平均水平。
固然,這種深度融合既源於中國"人工智慧+"戰略的持續推動——智慧網聯汽車、AI終端裝置、工業機器人等領域正加速釋放技術紅利,但也倒逼著安全治理體系的迭代升級。
全球職場已全面進入AI協同時代,58%的員工主動使用AI工具,其中31%形成高頻使用習慣。但技術滲透帶來的治理挑戰日益凸顯:47%的僱員未接受系統培訓,40%的機構缺乏應用規範,這種能力缺口直接導致風險行為蔓延——全球57%的受訪者曾隱瞞AI使用痕跡,85%的中國受訪者更將AI產出冒認為個人成果。
這種依賴正在培育新型認知缺陷。
當AI技術從效率工具演變為職場生存要素時,如何平衡創新激勵與風險防控,已成為全球治理者必須解答的命題。
正如報告背後所彰顯的核心——演算法開始定義人類的工作方式的時候,我們肯定要警惕技術對主體的侵蝕,也需要構建人機協同的新型契約關係,這或許才是智慧文明時代真正的“成人禮”。

工作深度依賴AI會怎樣?
神經學研究證實,長期依賴智慧裝置的職場人群,其前額葉皮層灰質密度年均下降0.8%,這正是大腦執行功能退化的生物標記。
當我們的工作越來越離不開人工智慧時,這其實是在改寫人類千百年來形成的勞動規則。這不是簡單的換個新工具,而是從根基上改變了我們思考、判斷甚至存在的方式。
依賴度越深,受其害越深。AI接管了人類的判斷核心,就像把登山用的指南針交給自動駕駛儀。雖然路線規劃更精準,但人們逐漸失去辨別方向的能力。
這就好比原本需要經驗積累的複雜工作,被拆解成一個個資料點,人類的角色從思考者退化成操作工。醫生診斷病例時不再反覆推敲,律師查閱法條時不再逐字分析,這些本該培養專業直覺的過程,現在都變成了核對AI輸出的機械動作。
而且,長期依賴AI會讓我們的認知能力退化。就像肌肉長時間不鍛鍊會萎縮,當記憶搜尋交給智慧助手,複雜計算依賴模型推導,危機預判全靠預測系統,大腦對應的功能區域就會漸漸鈍化。
這種退化不是突然發生的,而是藏在每一次圖省事點選「智慧生成」的時候,藏在遇到問題下意識求助AI的時候。
或者,十年後的人類,可能連基本的邏輯推理都會感到吃力。
有些人之所以在工作上如此依賴AI,可能一是工作本身就是AI行業,而是看中AI能批次處理文案、資料分析等基礎工作,但這些工作全部深度交給AI之後,他們的價值評判就只能被迫轉向「AI做不到的事」。
但創新能力、倫理判斷這些人類特有的本領,根本無法用KPI量化考核。這就導致多數勞動者陷入尷尬境地:既拼不過AI的高效準確,又說不清自己不可替代的價值。
這些都是多數企業裡常見的“員工”。
而且,AI決策過程是不透明的,這就極其容易造成責任真空地帶。如果出現事故,或者錯誤,人類既不能完全推責給機器(因其不具備法律人格),又無法真正解釋決策邏輯(因技術黑箱存在)。這種權責不對等的狀態,實際上對現代社會的責任倫理框架是會造成一定衝擊的。
其實最根本的矛盾在於‌:AI提升了完成任務的速度,卻抽空了勞動過程中的意義感。
就像乘電梯登頂珠峰,雖然節省體力,但失去了攀登過程中鍛鍊的體能、磨練的意志、收穫的風景。當工作徹底淪為搬運AI成果的流水線,人類難免陷入存在焦慮——我們究竟是在解決問題,還是在給AI系統當人形電池?
要破解這個困局,關鍵不在抵制技術,而是重新定義人機關係。把AI定位成“思維顯微鏡”而非“大腦替代品”。就像望遠鏡擴充套件了人眼功能卻不取代視覺,AI應該用來放大人類的認知邊界,而非覆蓋我們的獨立思考。
這就需要我們保留足夠的“原始工作場景”,讓人類持續鍛鍊那些構成智慧本質的能力——質疑、反思、創造和超越。

說在最後
要做好這些,無疑是需要多方聯手行動的。
監管必須跟上技術腳步,建立能自動預警風險的動態管理體系,從技術研發開始就植入道德審查。
教育系統要重點培養人類特有的能力,比如辨別真偽、處理複雜問題和價值判斷。
開發AI時應守住底線,堅持重要決策必須有人類把關。
對那些被AI衝擊的行業,要設立專門基金幫助轉型,把技術紅利變成全民福利。
站在智慧時代的門檻上,我們就像同時抓住救命繩和危險品的登山者。效率提升72%固然可喜,但別忘了那28%的隱形代價。
只有保持清醒認知,在機器智慧與人類智慧之間找到平衡點,才能避免在技術進步中迷失自我。
說到底,無論是生活,還是工作,AI應該只是延伸人類能力的工具,而不是取代人性的對手,深度依賴,實屬不該。
資料及參考資料:
防不勝防!成年人更容易「AI 成癮」,為什麼?!| 極客公園
墨爾本大學&畢馬威:2025全球人工智慧信任、態度與應用研究報告
對AI上癮的人,無法回到真實世界 | 看天下實驗室

相關文章