DeepSeek好像在塑造一種新型依戀關係

春節之後,人人多了一個共同好友:DeepSeek。越來越多的人,正在和 DeepSeek 打得火熱。 
▨ 比如,有人和它調情:
▨ 有人用它追尋人生的意義: 
Deepseek 們彷彿在構建一種新型的「依戀關係」。
學者 Wu Jie 在一篇文獻中指出,隨著演算法平臺的擬人化發展,人機互動與人際社交之間最明顯的界限——互動物件的真實性已經被打破。使用者與平臺的關係已經超越了人機互動學者所定義的「類社會關係」,而產生了人與類人實體之間的「偽親密關係」(Wu,2024)。
這在當前的人機互動中表現得很明顯,使用者基於自己的情感智力將計算機擬人化、理想化,形成了比現實生活中更令人滿意的社交關係。某些社交平臺上,隨處可見有人將 DeepSeek 稱作「最好的戀人」、「隨時隨地響應的心理諮詢師」。然而,事實真的如此嗎?
有時候,機器比人更懂「共情」
不得不承認,在某些時刻,無論是 DeepSeek 還是 ChatGPT, 的確讓我們感覺良好,甚至超過了現實中「真人」帶給我們的體驗。
當演算法融入了情緒智慧,真的能夠做到識別、理解和回應人類的情緒,也喚醒並部分滿足了人性中潛在的親密關係需求。
為什麼人們會透過「機器」來填補親密關係的空窗?對很多人來說,現實世界的「同理心」實在太缺乏了。
一項研究對 290 名人員進行測試,讓他們使用一款能夠「響應人類」的應用程式,看看人們是否會從所謂的「數字同理心」中受益。
一開始,研究者讓他們打分,大多數測試者表示,他們並沒有從朋友和親人那裡感受到多少溫暖和共情,也不指望一款應用能夠帶來,因為認為:科技天生就「比不過」人性。
結果出乎意料,當他們開始與應用互動時,看法發生巨大變化。在為期四周的測試結束時,他們對數字溫暖和理解的評價幾乎是人類的兩倍,遠遠高於他們的預測。

▷ 參與者對數字同理心在溫暖和理解方面的評價更高。

Deepseek 的出現,確實讓許多人第一次在人工智慧的世界裡,感受到了「共情」的力量。它不僅僅是在回答使用者的問題,更是在嘗試理解使用者的情緒和需求,給予恰到好處的回應,彷彿能夠洞察人心。
對於習慣了冰冷機械回應的使用者來說,無疑是一種全新的感受。

對於那些曾經歷操縱或虐待的人來說,曾經的關係經歷太讓人失望了,過往的傷痛可能驅使他們偏愛 AI 而不是真實的關係。

對於那些在情感脆弱、焦慮或社交技能方面存在困擾的人來說,AI 提供了一個無需擔心拒絕或評判的交流環境(George et al.,2023)。這種互動模式能夠減輕他們在現實社交中的壓力,避開現實關係中可能出現的誤解、衝突或情感負擔。

▷《她》

但是,一切果真如此完美嗎?心理學研究也給出了一些忠告和警示。

DeepSeek 無法
給我們完整的「關係體驗」

1.「非語言線索」的缺失

非語言線索在人際互動中至關重要,研究表明,超過一半的溝通訊息是透過非語言方式傳達的。美國心理學家 Albert Mehrabian 透過一系列實驗發現,在情感和態度的傳遞中語言只佔 7%,語調(聲音的語氣和音調)佔 38%,而面部表情和肢體語言等非語言線索則佔 55%。
「非語言線索」也常常能揭示真實意圖,例如,一個人口頭答應,但表情猶豫,可能暗示內心的不確定。
而在人與 AI 這種關係中,由於面對面互動中非語言社交線索的缺失,以 AI 為中介的使用者與平臺之間的即時情感互動,可能導致使用者對有限資訊進行過度解讀(Walther等,2015),從而導致兩者關係的不健康發展。
假如一個 AI 的情感識別演算法存在偏見或錯誤,它可能會誤解使用者的情感狀態。使用者可能只是疲憊,但 AI 誤判為抑鬱,導致使用者產生不必要的焦慮。

▷《假面》

學者們認為,只要情感人工智慧技術能夠影響人類的情感,它們就有可能成為情感欺騙的工具(Bertolini and Arian,2020)。
比如,某 AI 可能會被設計為透過特定的語言或行為引導使用者產生某種情感反應,為了增加使用者對產品的依賴,可能會刻意放大使用者的負面情緒,然後提供「解決方案」,促使使用者頻繁使用該程式。這種操縱可能讓使用者失去對自身情感的掌控。

2.「演算法式共情」不是真共情

如今的演算法平臺雖然被程式設計為理解和應對人類的情感,但它仍然缺乏人類與生俱來的同理心能力(Morgante et al.,2024)。
真人的共情能夠觸及個體的潛意識層面,幫助個體覺察未被意識到的情感和需求。
潛意識是人類情感和行為的重要驅動力,它包含了未意識到的記憶、慾望和情感衝突。這一層面的情感往往復雜且矛盾,而演算法式共情無法處理這種深度。例如,一個人可能表面上對分手錶現得很平靜,但潛意識中卻充滿憤怒或悲傷。AI 只能根據表面資訊作出回應,而真人(如朋友或治療師)可以透過直覺和情感共鳴,察覺到使用者的真實狀態,並提供更深層次的支援。
AI 可以生成安慰性語言,但無法真正理解個體的痛苦來源。

▷《假面》

3.對 AI 的「單一情感依賴」可能會削弱現實社交

作為一種新型關係,人與 AI 的情感互動可能在一定程度上豐富個體的社交生活、緩解孤獨感,但研究也表明,對 AI 產生過度的情感依賴也可能會產生負面影響——降低你與人交往的技能(Yuan et al.,2024)。
一項針對 496 名 Replika(一款專注情感的聊天 AI) 使用者的研究發現,使用者與聊天 AI 之間的滿意度和情感互動越高,現實生活中的人際交流就越差。
因為使用者可能無法培養出處理他人複雜情感的能力。相比之下,協商需求、處理衝突和理解他人的情緒狀態是處理人際關係時必不可少的社交技能。現實生活中的關係建立和維護需要雙向的情感投入,關係出現的裂痕和修復也是人際交往中不可缺少的一環(Marlynn,2024)。
而 AI 的設定只是單向滿足使用者的情感需求,不進行情感投入。整個互動的從始至終只有使用者的單一的情感投入,因此 Ta 將無法從與 AI 的互動中經歷完整的人際關係體驗。

▷《愛》

研究還指出,如果一個人的情感需求部分或全部透過 AI 得到滿足,這可能會降低與真實人類互動的動力和動機,從長遠來看可能會加劇孤獨和社會孤立。
比如,一個將 AI 視為唯一情感支援來源的人可能會在服務中斷時,感到極度焦慮或失落。相信最近有很多人都經歷過這樣的時刻:
從神經科學的角度來看,人類大腦對真實人際互動的反應與對 AI 互動的反應存在本質差異。當我們與真人互動時,大腦的映象神經元系統會被啟用,大腦會釋放催產素(oxytocin),這種激素與信任、親密感和幸福感密切相關。而與 AI 互動時,這種神經化學反應顯著減弱(Carter et al.,2020)。

4.用 AI 來模擬浪漫/性關係可能加劇人的「物化」

擁有和定製人工智慧伴侶以滿足個人慾望也存在令人擔憂的權力動態,「關係替代品」的出現可能會加重對人的物化和非人化(George,2023)。
加拿大一所大學進行一項研究,以瞭解人們與人工智慧發生「性愛」的興趣,發現:

▨ 男性往往比女性更有興趣與機器人發生性關係。這種關係可以部分解釋為敵意性別歧視。換句話說,想要與機器人發生性關係的男性也往往對女性感到憤怒和不信任。機器人可能為男性提供了一種更容易信任的選擇。或者,機器人可能是一個他們可以鄙視的性物件——這就是他們想要對待女性的方式。
▨ 最後,社會支配傾向越高的人(即希望保持群體間地位差異的人)也更有可能對與機器人發生性關係感興趣。認為某些群體的價值低於其他群體的人似乎也對性愛機器人更感興趣。這些人可能已經將其他人視為更像物品,因此將機器人用作性愛物件也感覺更自然。

社會心理學家 Alexander Danvers 博士認為,這些結果描繪了一幅令人不安的畫面,即是什麼驅使人們對與機器人做愛產生興趣:「那些對他人抱有敵意的人——通常是男性而不是女性。他們認為某些群體的人價值較低,可能對女性特別憤怒和不信任。他們可能已經遵循了涉及性支配的社會指令碼,因此他們可能更願意將機器人視為另一種性物件。」

▷《阿麗塔:戰鬥天使》

對部分邊緣人群,
它也帶來了稀缺的溫暖
技術的本質是中立的,其價值不在於它本身,而在於人類如何駕馭它、賦予它意義。在那些需要關懷與連線的角落,AI 依然展現了其「溫暖」的一面。
1.減少了獨居老人的孤獨感:
老年人的身心健康會因孤獨感而受到很大影響,尤其是那些不與家人、朋友或社群互動的人。
美國一項研究調查了虛擬 AI 助手在減少老年人孤獨感方面的潛力。研究者邀請 75 歲以上的老人參加一場為期 8 周的試驗,藉助亞馬遜的一款 AI 裝置,使用語音命令控制事物非常簡單,還配備了友好且好用的內建人工智慧。
結果,老人在參加該計劃四周後感覺不那麼孤獨了。他們將虛擬助手視為真實的「人」,向 AI  友好地打招呼、提出請求或宣告、表現出禮貌以及回應 AI 的回覆,這真的給他們帶來了良好的感覺(Gennaro,2020)。

▷《愛》

2.給被「社交孤立」的人帶來安撫:
我們都知道被社交排擠、孤立的糟糕感受,社交孤立也會對心理健康產生不利影響。
一項研究中,一些在社交媒體上感到被排斥的人,被選中與一個友好的聊天機器人交談以表達他們的情緒。結果被表明有積極的影響。更具體地說,與聊天機器人互動的人比沒有互動的人體驗到更大的幸福感(Gennaro,2020)。
3.AI 阻止了一些人的自殺:
2024 年 1 月發表在 Nature 子刊的一項研究表明,使用聊天機器人能夠減弱人們的孤獨感並減少自殺行為。
研究收集了 1006 名 Replika 的使用者資料,量表顯示 90% 的人感到孤獨,有 43% 被認為是嚴重/非常嚴重的孤獨,7%的人認為自己有抑鬱情緒。自我報告的結果表明,有 18.1% 的人在使用 AI 聊天的過程中獲得了治療效果,23.6% 的人能夠看到積極的生活變化,3% 的人表示與 AI 的互動使他們放棄了自殺的行為。
(*需要說明的是,不可將 AI 作為有自殺念頭的求助方式。如果輕生念頭非常強烈,或者已經出現了自傷行為,請撥打當地的緊急救援電話或心理健康熱線,尋求專業的幫助和支援。)

▷《降臨》

寫在最後

有人說,機器好像比人類還要懂人類。機器好像靠譜多了。

對於這一點,小紅書上看到一個特別動人的回答,分享給大家:
@亻蘭
AI產出的段落來自訓練模型的資料,那些有溫度的資料都是來自有溫度的人。AI 只是把人的智慧整合給你看而已,能溫暖人心的始終是人啊。
參考文獻
————————
Wu J (2024) Social and ethical impact of emotional AI advancement: the rise of pseudo-intimacy relationships and challenges in human interactions. Front. Psychol. 15:1410462. doi: 10.3389/fpsyg.2024.1410462
George, A. Shaji & George, A.s & Baskar, Dr & Pandey, Digvijay. (2023). The Allure of Artificial Intimacy: Examining the Appeal and Ethics of Using Generative AI for Simulated Relationships. 01. 132-147. 
Yuan Z, Cheng X, Duan Y. Impact of media dependence: how emotional interactions between users and chat robots affect human socialization? Front Psychol. 2024 Aug 16;15:1388860. doi: 10.3389/fpsyg.2024.1388860.
M. de Gennaro 、EG Krumhuber 、G. Lucas, M.Y. Shade, J. Blaskewicz Boron, R. Maschieri BicudoJaber O. Alotaibi, Amer S. Alshahre,The role of conversational AI agents in providing support and social care for isolated individuals,Alexandria Engineering Journal,Volume 108,2024,Pages 273-284,https://doi.org/10.1016/j.aej.2024.07.098.
Jones VK, Hanus M, Yan C, Shade MY, Blaskewicz Boron J and Maschieri Bicudo R (2021) Reducing Loneliness Among Aging Adults: The Roles of Personal Voice Assistants and Anthropomorphic Interactions. Front. Public Health 9:750736. doi: 10.3389/fpubh.2021.750736

作者:鳥人

來源:簡單心理


編輯:KK
點個在看


相關文章