Deepseek火爆之際,淺談人工智慧的運用對人類心智的潛在風險

人工智慧的運用對人類心智的潛在風險
作者 | 李俊 同濟大學教育現代化研究中心
伴隨著人工智慧技術的不斷發展,人們對人工智慧的影響已有不少分析和討論,但這些討論更多圍繞勞動力市場、資料隱私及安全、社會與心理健康問題等方面,較少有分析聚焦人工智慧的運用對人們心智的影響。實際上,在我們運用人工智慧回答問題的時候,在我們藉助人工智慧分析問題、撰寫文字的時候,我們思考、分析問題及文字表達的方式也在發生悄然的變化,這種變化以及在此過程中形成的習慣可能會對我們心智產生潛移默化的影響
筆者嘗試在本文中對人工智慧的運用如何影響我們的心智做一些探索性地分析。本文重點關注運用人工智慧進行內容生產對人類的心智產生的負面影響,不考慮日常情境下運用人工智慧獲取資訊、學習知識所產生的影響;原因在於,一方面,在現實中,越來越多的人運用人工智慧幫助自己進行商業、科學或工程等領域的分析研究,進行文字的撰寫、方案的策劃、資料的分析等內容生產的工作,且人工智慧平臺也非常重視相關功能及服務;另一方面,與獲取資訊相比,內容生產對心智的要求更高,屬於更有難度、更具創造性的工作,因此,人工智慧的運用在內容生產過程中對心智的影響尤其值得探索。
關於心智,筆者在這裡受到了美國學者理查德·霍夫施塔特的啟發,他對智力(intelligence)與智識(intellect)這兩個概念做了區分和界定。智力,即人工智慧(artificial intelligence)這一表述中的“智慧”,是一種思維優勢,體現在較為狹窄、直接、可預見的範圍,它具有可操控、可調整、實用性的特質,能在明確目標的框架下迅速排除無關問題;智識則是“心靈之中批判性、創造性和沉思性的那一面”,是“檢查、斟酌、好奇、窮理、批評和想象”。
在筆者看來,人類的心智中既有智力的方面,也有智識的方面,而儘管人工智慧在放大、強化我們智力、智慧的方面有重要的作用,比如更容易地進行大規模資料的分析,減輕簡單重複腦力勞動的工作量,幫助我們解決一些分析方面的問題,但也可能由於過度依賴而降低不合理使用者的智力,更重要的是,其不合理的運用可能對我們的智識構成更加隱性卻嚴重的風險,該風險包含兩方面,一方面涉及我們思維過程的樂趣,另一方面則涉及內容生產的真實性以及人們對內容真實性的信念
一、削弱乃至剝奪思考樂趣的風險
人工智慧的不合理運用對人類心智構成的第一個風險在於,它有可能削弱乃至剝奪我們思考的樂趣。這在一定程度上涉及霍夫施塔特所討論的智識中的“遊戲性(playfulness)”的方面。
在運用人工智慧進行物理問題的解決、文字創作、譜曲等不同形式的心智活動的過程中,人工智慧可以幫助我們完成某些任務,這些任務既有有趣、有意思的方面,也有一些無趣、程式化的方面,我們都希望人工智慧幫我們完成那些無趣、程式化的方面,自己做那些更有意思的部分;然而,在人類歷史中,過去的技術對人類勞動的替代過程從來都有著很大的不確定性,新的技術會替代我們的哪些活動,會如何影響我們的工作和生活,很難預先確知;人工智慧亦是如此,它很可能在幫助我們完成那些我們覺得繁瑣和無趣的任務,也可能因其自身的特點以及我們的使用方式和習慣越俎代庖地代替我們思考,完成那些本來可以更加有難度、有挑戰因而也更加有意思、有意義的智力任務。
這裡面蘊含的風險在於,那些具有一定難度的腦力活動,本來是我們體驗和獲得思考之樂趣的最重要的途徑,無論是在思考和解決科學及工程問題時對事物的邏輯的精密計算和嚴謹推理,還是在小說撰寫中的構思情節、塑造人物、推敲語言、從無到有構建一個虛擬世界,或是在音樂創作中,對旋律的選擇和確定、對和聲與節奏的設計,這些思維活動都是既有艱難的挑戰,也因此而充滿樂趣的,並在有些時候成為心流體驗;而當人們逐漸習慣於讓人工智慧代替自己進行思考活動、應對相關挑戰之後,我們從思考過程中獲得樂趣的可能性也有可能隨之減少
所以,對人工智慧的依賴可能剝奪深度思考和探索所帶來的樂趣,而這種與思考活動所伴隨的樂趣本來有可能是我們美好生活的重要組成部分。對於在人工智慧環境下成長的“原住民”而言,這種剝奪的風險無疑更大,他們更有可能在尚未進行足夠的自主的深入思考探索的情況下就開始了對人工智慧的大量運用,這使得他們有更少的機會經歷、體驗和探索運用智力、智識進行思考的過程所能帶來的挑戰與樂趣;長期如此,這甚至可能會損害深度思考的能力
二、關於內容真實性的風險:強化對內容真實性的不在乎
人工智慧的不合理運用對人類心智構成的第二個風險涉及內容生產的真實性以及我們對內容真實性的信念。這在一定程度上涉及霍夫施塔特所討論的智識中的“虔敬性(piety)”的方面。
從最表層的邏輯看,人工智慧參與的內容生產在多種情況下可能出現錯誤,在資料層面,資料偏差(某類資料過多或過少,使模型學習到偏差模式)、資料噪聲(錯誤、干擾等不準確資訊影響模型)、資料缺失(關鍵資料缺失致模型無法獲取完整資訊)都會造成問題;在演算法層面,模型過擬合(對訓練資料過度學習,在新資料上泛化能力差)、演算法本身存在侷限性(難以處理複雜問題)以及超引數設定不當(影響模型效能)易導致出錯;在應用場景層面,超出訓練場景(在不同環境中表現不佳)、即時性要求高(計算速度慢,無法及時處理資訊)、多模態資訊複雜(融合理解難度大)會引發錯誤;在外部干擾層面,惡意攻擊(如駭客透過對抗樣本使模型輸出錯誤結果)和環境干擾(外部因素干擾感測器或資料傳輸)也會讓人工智慧給出錯誤答案 。
當然,上述問題很可能會隨著技術的精進而改善,但更進一步分析,人工智慧的參與很可能在一個更加底層的邏輯上加劇內容生產中真實性缺失的風險,即強化人類進行的知識生產中業已存在的一些不利於內容真實性的傾向和偏好。
請允許我簡要地闡述下在人工智慧參與之前的內容真實性所面臨的最重要的問題。無論在傳統的學術媒體中,還是公共媒體空間,都有許多內容是不符合事實的,有邏輯或事實等方面的嚴重問題,其背後的原因有不少。在筆者看來,內容的真實性(truthfulness)缺失最重要的原因之一在於內容生產者本人對真實性的不在乎。受學術評價體系及網際網路流量邏輯等環境和制度的影響和塑造,許多內容生產者或看重知識產品的發表本身(學術領域居多)、或看重其所能帶來的關注及收益(新媒體領域居多),並將內容生產作為服務於獲取(學術)權力及(學術或公共的)聲望、利益的手段,而不在乎所生產的內容是否符合事實、內在的邏輯是否合理、是否經得起實踐和時間的檢驗。
這種對真實情況究竟如何、對知識是否符合事實的不在乎正是美國哲學家哈里·法蘭克福所講的扯淡/胡扯(bullshit)的最本質的特徵,在我看來,這是當今內容生產面臨的最重要的挑戰。
在我看來,人工智慧的參與進一步強化了內容生產者對真實性的不在乎。以文字撰寫為例,當下的若干主流人工智慧平臺都能夠提供各種形式的文字撰寫的服務,只要我們輸入指令要求,平臺就能夠從網際網路空間自動抓取資訊,並將其整合成為文字。伴隨著指令的不斷完善,這一服務在形式上有可能滿足或接近多數情況下文字撰寫的形式上的要求;但是,在其內容的真實性、邏輯合理性等方面,人工智慧所撰寫的文字卻可能有紕漏和問題,因為這些被抓取的資訊來源本身未必可靠,且這些資訊相互之間並不存在天然的邏輯聯絡、甚至可能是彼此矛盾的,但平臺卻以某種符合形式邏輯的方式將其整合起來,並呈現給使用者;在當下的大語言模型下,人工智慧平臺在此過程中是以相關資訊在語言層面的合理性和邏輯關係為基礎進行內容生產的,它不能保證相關內容在事實層面的邏輯關係、也無法充分地檢驗這些關係(這一點需要實踐、實驗等其它途徑才有可能得到比較可靠的結論),因而很難保障所生成的內容的真實性。一個特別的例子是,對於其撰寫生成的文字,人工智慧甚至能自己編造格式符合要求、但實際上並不存在的參考文獻。
更重要的是,由於人工智慧可以快速、便捷地生成不同形式的文字,很好地滿足前述學術及新媒體等領域對內容生產的速度和規模等形式方面的要求,因此,部分對此有需要的內容生產者很可能會嘗試儘可能多地挖掘人工智慧在文字生產等方面的潛力,而不在乎其內容的真實性是否經得起檢驗,這進一步推動大量未必真實的內容的生產。
至此,人工智慧的參與會進一步強化、放大內容生產中本已存在的對內容真實性不在乎的傾向,進一步塑造內容生產者本已擁有的心智偏好,同時加劇內容的真實性缺失的風險。

三、多餘的思考
筆者並不是抗拒技術變化的盧德主義者、對技術進步的影響天然抱有悲觀的態度,且已在日常生活和工作中從人工智慧的運用中非常便利地獲得了豐富的資訊,但當我們從更加宏大的經濟社會背景下審視上述變化及其影響的時候,難免感到風險和隱憂。
伴隨著越來越多原本由人類心智承擔的認知和智力任務逐漸被人工智慧所完成,許多工作崗位難免會被逐漸替代,而相關的內容生產活動及其背後的思維活動的意義也逐漸被消解。由此,昆德拉所說的“人類一思考,上帝就發笑”,可能會逐漸演變為“人類一思考,AI就發笑”。更進一步講,由於是勞動創造和定義了人本身,作為相關勞動的承擔者的人所存在的意義也在一定能夠程度上也面臨被消解的風險。
從宏觀的經濟發展及勞動力市場的角度看,當智力活動能夠被人工智慧完成時,資本當然會傾向於使用邊際使用成本近乎於零的人工智慧,並大幅度的減少對人力的使用,在極端的情況下,大量個體作為勞動者存在的價值就可能會被逐漸消解,愈發成為齊格蒙特·鮑曼所說的“過剩人口”,其價值僅僅作為消費者而存在,且其消費能力主要來源於社會福利。
在人工智慧技術不斷精進的背景下,為了擺脫上述困境,人們愈發需要能夠人工智慧做不到、不會做的事情,才有機會與人工智慧競爭,而這正是弔詭之處無論是就技術發展的內在邏輯而言,還是產業競爭及發展的經濟邏輯而言,人工智慧的發展方向都必然是,至少在智力活動方面,以更加低成本、高效率的方式,完成越來越多原本由人來完成的任務
如前文的分析所指出的,對人工智慧的不合理運用可能對人們的心智產生負面影響,人們可能因對人工智慧的過度依賴而失去進行深度思考的樂趣,從而逐漸喪失深度思考的能力,或者人工智慧的工作方式會進一步塑造內容生產者本已擁有的心智偏好,強化他們對內容真實性的不在乎,降低內容生產的質量,而這些心智的變化也許會更加不利於我們與人工智慧之間本就不佔優勢的競爭。
但願我的擔心是杞人憂天,我們能借由人工智慧的幫助,從繁瑣、無趣的任務中解脫出來,就像此前的工業革命中逐漸從繁重的體力勞動中解放出來一樣,更多地體驗和探索深度思考的樂趣;也能克服外在環境和制度的影響,基於對內容的真實性的信念和堅持,並藉助人工智慧的強大能力,做更多可檢驗、可證偽、非常識、高質量的知識內容的生產,不斷深化我們對世界的理解。這樣,我們和人工智慧分別完成自己最擅長的任務,推動技術和社會的發展,並以一種良性的,更具包容性的方式共存。


相關文章