AI時代的“電車困境”:對自動駕駛汽車的道德追問

文|胡泳
       北京大學新聞與傳播學院教授
對自動駕駛汽車的“神化”
4月26日,在山西省運城市高速公路上發生問界M7 PLUS追尾事故,造成前機艙起火,包括駕駛員在內的三人遇難,其中還有一個剛滿兩週歲的孩子。
據悉,事故疑與AEB制動系統有關,系車企重點宣傳的駕駛安全技術之一,據稱可以透過雷達測出與前方車輛或障礙物之間的距離,並利用資料分析模組將測出的距離與警報距離、安全距離進行比較,小於安全距離時將自動緊急剎車或使車輛減速。
《新京報》稱,這種智慧化的主動安全技術,是自動駕駛系統競爭的核心技術之一。因此,各家車企、智駕技術供應商都在營銷中不遺餘力誇耀自家的AEB如何先進可靠。事實上,AEB功能成為不少使用者挑選汽車的原因。
受當前智慧電動汽車激烈競爭的驅使,智慧駕駛功能的安全性被普遍誇大,很多消費者並不清楚,今天實裝的智慧駕駛系統都並非真正意義上的“自動駕駛系統”,而只是“輔助駕駛系統”。
我國目前執行的《汽車駕駛自動化分級》參照了國際通行的SAE標準,將智慧駕駛系統劃分為0-5級。
1級為“部分駕駛輔助”;
2級為“組合駕駛輔助”;
3級才達到“有條件自動駕駛”;
4級為“高階自動駕駛”;
5級為“完全自動駕駛”。
目前實裝的系統均為2級,然而,在營銷中,“自動駕駛”的宣傳卻司空見慣。

L2級智慧駕駛下事故責任人在駕駛員,所以,如果車主相信了車企鼓吹的智駕功能,出了事以後,車企能夠輕鬆逃避責任。此前發生的多起相關事故,都曾引發對智駕系統安全效能的質疑,但最終的結論,都是車出事與智駕系統無關。
慘烈的事故,讓智駕的可行性和安全性再次被重估,對於AEB和智駕系統的“神化”顯然不可取,而且引發了嚴重的道德問題。在技術尚未完全成熟的狀態下,過度信賴自動駕駛是有風險的。
因此,我們有必要追問,當智慧駕駛技術發展水平還只處於起步階段之際,政府、車企和公眾應當對此持什麼樣的態度?
▲ 圖源Pexels
電車難題
英國哲學家菲麗帕·福特(Philippa Foot)在1967年首次提出一個倫理學思想實驗,內容為:

一輛失控的電車在鐵軌上行駛,在電車正行進的軌道上,有五個人被綁起來,無法動彈,如果任由電車向前,那五個人必將罹難。而你正站在改變電車軌道的操縱桿旁。如果扳動此杆,則電車將切換到另一條軌道,但在那條岔道上也有一個人被綁著。

因此,你有兩種選擇:
1)什麼也不做,讓列車按照正常路線行駛,碾壓五個人;
2)扳動操縱桿,改換另一條軌道,令列車只壓過一個人。
到21世紀,

電車難題

及其變體已廣泛用於道德心理學的研究。在討論自動駕駛汽車設計的道德規範時也有類似問題:在不可避免的汽車碰撞中,

自動駕駛系統該如何選擇前進的方向或碰撞的目標。

一個知名的變體叫“人行天橋困境”。一輛電車疾馳而過,前面的鐵軌上綁著五個人,而你正站在橫跨鐵軌正上方的天橋上。你的前面有一位鐵路工人,揹著一個雙肩大包。你可以將他推下天橋以阻擋住列車的執行,從而營救那五個人,不過這位鐵路工人會遇難。
如果說第一種情形的難題在於,你是扳還是不扳?那麼第二種情形的難題則是,你是推還是不推?你不能選擇自己跳下天橋,因為你沒有雙肩大包,無法擋住小火車,你也沒有再背一個包的時間。
由上可知,電車問題並非一個單純的思想實驗,其中諸多細節其實都是精心設計,用以挑撥能影響我們決策的情緒與感性因素,藉此反駁多數理論中“理性決策者”(rational agent)的基本假設。這涉及情與理之爭,這裡的“情與理”,是世俗所謂的激情與理智;是倫理學所謂的情感與理性;是心理學所謂的情緒與認知;某種程度上, 也代表著道德心理學所謂的道德直覺與道德推理。
結果主義與義務論
對電車問題,倫理學家們有著自己的信條。
秉持義務論(deontology)的哲學家們認為雖然能救五個人的命,但我們無論如何都不應該殺死那一個本不該死的人;
秉持結果論(consequentialism)的哲學家們則堅持,在行為後果上殺一個人能救五個人,這樣的事情就應該做。
根本上來說,結果主義主張判別行為好壞或是非的標準,依該行為所(或是否可能、或是否意圖)產生的結果而定,如果一個行為能(或可能、或意圖)產生好的結果,該行動就是好的,也就是道德的。功利主義是其典型代表。
義務論與結果主義相反,它主張人的行為道德與否,不是看行為的結果,而是看行為本身或行為依據的原則。凡行為本身是正確的,或行為依據的原則是正確的,則不論結果如何都是道德的。
從功利主義角度看,為追求對最大多數人來說的最大效益,應該犧牲少數人來拯救多數人。因此,在上述兩個版本的思想實驗中,都應犧牲一個人來拯救五個人。
從康德主義角度看,道德應該建立在必要的義務責任上。如果不可以殺人是一種道德義務,就不可以在上述兩個版本的思想實驗中動手讓一個人犧牲,即使這個行為的後果是犧牲五個人。

▲ 圖源Pixabay

康德的絕對命令
對功利主義最常見的詬病就是對人類權利的低估,因為功利主義允許我們不考慮後果,對他人做出完全錯誤的行為。康德的絕對命令,將這個概念總結如下:
在行動時,要把你人格中的人性和其他人人格中的人性,在任何時候都看作目的,永遠不能將其只看作手段。
粗略翻譯成常識性的行為準則,意思就是:不要利用他人。而利用他人阻擋火車,已經是最為極端的情況了。
但很奇特的是,如果對普通人進行電車難題測試,同樣是殺死一個人來救 五個人,在前一種情形下,大多數人選擇了扳,而在後一種情形下,大多數人選擇了不推。
歸根結底,電車問題是一個決策問題。直覺告訴我們,人行天橋困境中的行為是錯誤的。那麼,大腦的何種機制使我們得出了這樣的結論呢?電車問題體現了人類古怪的心理:用截然不同的態度對待相似的事情。一命換五命的做法在一個例子裡是正確的,在另一個例子裡就變成了錯誤的。
要解釋這些情形的道德差別並非易事——為什麼使電車拐向岔道似乎是對的,而將人從橋上推下就是錯的呢?某些道德困境源於相互衝突的道德原則。例如,一種在失控電車故事中起作用的原則認為,我們應當儘可能多地挽救生命;而另一種原則則認為,即使有一個很好的理由,殺害一個無辜的人也是不對的。
所以,電車問題的本質可以歸納如下在何種情況下,個人權利高於多數人的利益?為什麼?
約書亞·格林(Joshua D. Greene)說:
“很多主要道德問題,包括墮胎、平權措施、稅收的高低、戰爭中平民的死亡、將人們送上戰場、醫療服務中資源的分配、槍支管理、死刑等,或多或少都是個人權利(不論是真實的還是名義上的)與多數人利益(不論是真實的還是名義上的)之間的對抗。”
道德推理、道德反思與道德對話
邁克爾·桑德爾(Michael Sandel)在《公正》一書中分析道:在每一種情形中,我們都要對何謂正當之舉做出判斷,這牽涉到道德推理。
“我們有時候將道德推理看做是說服他人的一種途徑,然而,它同時也是一種澄清我們自身的道德信念,瞭解自己相信什麼、以及為何如此的途徑。”
他說,當人們面對一個棘手的道德問題時,道德反思就會自然地產生。首先,我們對一件應該做的事——比如,將電車拐向岔道——懷有自己的觀點或信念。
然後,我們會開始思考那些支援自己信念的理由,並找出它們所依據的原則:“犧牲一個人的生命而避免更多人死亡是更好的。”
接著,當我們遇到一種能證明這種原則是不對的情形時,我們便迷惑了。“我以前認為,儘可能多地挽救生命總是正確的,而現在將那個人推落橋下似乎又是不對的。”
我們感覺到源自於這種困惑的壓力,竭力想要把它弄明白。透過道德反思,我們可能調整我們對何謂正當之舉的判斷,或重新考慮我們最開始擁護的那個原則。
桑德爾特別強調,道德反思並不是個體的追求,而是公共的努力它需要對話者,因為我們不可能僅僅透過內省而得出公正的意義以及最佳的生活方式。

▲ 圖源Pixabay

電車難題的人工智慧版
2016年,麻省理工學院的研究人員建立了一個名為“道德機器”(moral machine)的網站,其中有一些隨意而可怕的問題,即如果自動駕駛汽車在人行橫道上剎車失靈時,應該做些什麼:
例如,
是否應該撞倒三個慢跑者,為了挽救兩個小孩?
如果是在非罪犯和罪犯之間二選一,應該選擇撞死誰?
在每一個可怕的排列中,“道德機器”邀請訪問者投票決定汽車應該殺死誰。
該專案是對電車問題的另類嘗試,從數百萬名潛在“劊子手”中獲得了數千萬張投票。這是一個複雜的問題,因為在人行橫道上可能會出現大量的行人組合,遠遠超過了道德機器使用者投下的數百萬張選票的數量,因此,人工智慧需要能夠對即使沒有人直接投票的方案予以考慮。但是機器學習在這種型別的預測任務上表現出色,研究者充滿信心地相信,無論出現什麼問題,團隊開發的演算法都將根植於道德機器受訪者的集體道德直覺。
研究人員說:“我們並不是說該系統已準備就緒,可以進行部署。”但它是一種概念的演練,表明民主可以幫助應對人工智慧中道德決策的巨大挑戰。這種觀點反映了人工智慧研究人員越來越關注訓練演算法,透過為機器提供普通人的道德判斷來做出道德決策。
杜克大學的一個研究小組發表了一篇論文,認為隨著人工智慧變得更加廣泛和自主,建立一個描述如何做出道德決策的“總體框架”將是非常重要的。機器學習系統聚合人群的道德觀點,是一個有前途的研究途徑。事實上,他們寫道,這樣“可能會導致一個比任何個人都更道德的系統”。
世界上最道德的是AI而不是人?
這種眾包的道德觀念也吸引了批評家,他們指出了各種侷限性。
存在抽樣偏差:不同的群體可以提供不同的道德準則;
而道德機器調查是線上進行的,這意味著它只是權衡了作出自我選擇的一群人的意見,這些人既可以訪問網際網路又對殺手級AI感興趣。
此外,不同的演算法也可能在檢查了相同的資料之後得出不同的結論。
所以,眾包道德“並不能使AI符合道德”
自然的偽善也可能導致該概念的另一個潛在缺陷。麻省理工學院的研究者在先前的研究中發現,儘管大多數人贊成無人駕駛汽車犧牲自己的乘員以挽救他人,但他們寧願自己不在這些汽車裡。
研究團隊承認這些侷限。但是他們聲稱,研究取決於“你是否相信民主是實現這一目標的正確方法”。民主雖有缺陷,但民主還是值得信任的。 
到目前為止,我們在眾包其他型別的資料方面已經擁有豐富的經驗。在社交媒體上,演算法依賴於數以百萬計的真實使用者生成的訊號,就像AI道德一樣,但產出的東西仍然可能是垃圾。演算法依賴於數以百萬計的真實使用者生成的訊號,就一定會好嗎?
各國政府已經開始努力制定有關將要出現的自動駕駛汽車道德問題的具體法律。德國發布了世界上有關自動駕駛汽車AI的第一個道德準則,該準則要求車輛優先考慮人類的生命而不是動物的生命,並禁止它們根據年齡、性別或殘障狀況做出有關人類安全的決定。這些準則尤其會排除像“道德機器”那樣的人工智慧,後者在決定救誰的命時會考慮此類特徵。
可以看一下道德機器在一系列從簡單到複雜的場景中致人死命的答案。它的一些答案很直觀。如果選擇歸結為撞死一個人或兩個人,它將選擇僅撞死一個人。在其他時候,它的答案似乎對社會的不公平有著深刻的反映。例如,

如果AI必須殺死犯罪分子或非犯罪分子,那麼它將殺死犯罪分子。

如果它必須殺死一個無家可歸的人或一個不能無家可歸的人,它將殺死無家可歸的人。
經過四年的研究,233個國家的數百萬人做出了4000萬個決定,使“道德機器”成為有史以來對全球道德偏好進行的最大研究之一。一種特定的“電車難題”被創造出來以測試人們的意見。
它把人們放在高速公路上,然後在路上遇到不同的人。你應該取哪條命來保全其他人的生命?
汽車被置於九種不同的情況下:
自動駕駛汽車是否應該優先考慮人類而不是寵物,乘客而不是行人,更多的生命而不是更少的生命,女性而不是男性,年輕的而不是年老的,健康的而不是生病的,社會地位高的而不是社會地位低的,遵守法律的而不是違法的?最後,汽車是應該轉向(採取行動)還是繼續行駛(不採取行動)?
但是,研究人員強調說,結果並不旨在決定不同國家應如何採取行動。實際上,在某些情況下,研究者認為技術人員和政策制定者應凌駕於集體輿論之上。調查結果應被工業界和政府用作理解公眾如何對不同設計和政策決定的道德準則做出反應的基礎。

▲ 圖源Pixabay

自動駕駛汽車的道德運氣
2018年3月18日,在亞利桑那州坦佩市,Uber一輛在執行自動駕駛實驗的車撞死了49歲的伊萊恩·赫茨伯格(Elaine Hertzberg),一名推著腳踏車穿過馬路的行人。當時該車在自動駕駛模式下操作,並有一個保障安全的後備駕駛員坐在駕駛座上。赫茲伯格事故是第一起自動駕駛汽車涉及的行人死亡。
《華盛頓郵報》的一名記者將赫茲伯格的命運與布里奇特·德里斯科爾(Bridget Driscoll)的命運進行了比較。後者是1896年在英國第一個被汽車撞死的行人。
在赫茲伯格事故之後,Uber停止了在四個美國和加拿大城市(坦佩,舊金山,匹茲堡和多倫多)測試自動駕駛汽車的部署。亞利桑那州州長向優步執行長傳送了一封信,暫停了優步在該州操作無人駕駛汽車的測試,這樣的測試從2016年起就在進行。
信中說:
“作為州長,我的首要任務是公共安全。改善公共安全一直是亞利桑那州進行自動駕駛汽車測試的重點,我期望公共安全也是所有從事此工作的人的頭等大事。”
優步還披露,在加利福尼亞,汽車管理部門致函優步,其許可將在3月31日到期之後,不會同優步續簽。
當年晚些時候,Uber發表了一份長達70頁的反思性安全報告,其中指出其自動駕駛汽車具備比人類駕駛的汽車更安全的潛力。2018年12月20日,在匹茲堡,優步將自動駕駛汽車重新送回了路上,表示已獲得賓夕法尼亞州交通部門的授權。優步表示,他們也在舊金山和多倫多的公路上試驗自動駕駛汽車。
按照功利主義的態度,該如何看待此事?美國每年有數千名名行人被汽車撞死,新聞媒體並沒有對每一位遇難者進行例外報道。如果獲批的話,很快,自動駕駛汽車將可以大幅減少甚至完全消除人行道死亡。
如果你將這個想法用電車難題來表達,那麼軌道將是時間性的而不是空間性的。一個人之死仍然是一場悲劇,但是如果這意味著未來在預防數千人死亡方面取得進展,那麼自動駕駛汽車也許是正當的。
如果技術主義者、公民和政策制定者真正想要就電車難題的人工智慧版來討論道德哲學,那麼最好將Uber的災難視為一個道德運氣的例子。道德運氣描述了一種情況,即使人人都清楚某個道德行為者不能夠完全控制某項行為或其後果,也要對該項行為或其後果進行道德責備或讚揚。
從這個角度來看,Uber造成的死亡並不代表某位單個行人可以被犧牲,出發點是為了在未來普遍部署的機器人汽車中確保行人的安全。其實事故本身不過是強調了一個事實,即積極的結果(更安全的汽車,更安全的行人等等)不過只是無人駕駛汽車的道德運氣,即到目前為止,它還沒有犯下多少應受譴責的行為。那麼,假如它造成了更多車禍,該怎麼辦?
應對自動駕駛需要更大的道德修為
我提到以上的討論,並在本文開頭反思問界的悲劇性事故,是為了表明,無論現在還是將來,應對和解決自動駕駛汽車問題都需要更大的道德修為。
道德規範不是在任何情況下都應用簡單的演算,也不是將人類意見匯聚起來做成模型,再將那個模型應用於例項。
實際上,採取這些立場是從一開始就承認了功利主義的前提。如果工程師、評論家、新聞工作者或普通百姓將電車難題作為一種(哪怕只是便捷的)思考方式來思考自動駕駛汽車的場景時,他們等於是拒絕考慮使用這些裝置的更為複雜的道德狀況。
從問界的事故來看,相關各方似乎都沒有充分了解車輛當前(而非未來)的傷害能力,無論是製造汽車的公司、駕駛汽車的司機,還是監管汽車的政府。這使得問界事故的道德背景與其說是關於交通傷亡的未來,不如說是關於政府監管、企業資訊披露和交通政策的現狀
對於哲學家來說,思想實驗提供了一種考慮未知結果或重新思考公認的觀念的方法。但是它們只是思考的工具,而不是現成行動的配方。尤其是電車難題的誘人普及,使人們誤認為自動駕駛汽車是一種已經存在的可靠且同質的技術,從而可以以之提出甚至回答有關假設的道德行為的抽象問題。其實,距離那一步還有很長的路要走。
在當下,公民、政府、汽車製造商和科技公司必須就當今和未來的汽車道德後果提出更棘手、更復雜的問題。
 END 
* 所刊專家文章並不代表本中心觀點。
* 部分圖片來源於網路,如有侵權,請聯絡我們刪除
【歡迎轉載】
請註明“來源:數字社會發展與研究”。

 數字社會發展研究中心 
專注於數字技術發展及相應經濟、社會、人文領域的新現象,新問題的公共性觀察和研究。

相關文章