楊寧:人機共駕接管失敗時安全員的過失責任——從信賴原則的適用切入

掃碼立即加入學習!
來源:《法學家》公眾號
僅供學習,如有侵權,請聯絡刪除!
摘要:目前,人機共駕接管失敗致死的案件備受矚目,對於安全員雖未履行接管義務,但可否主張信賴原則而不承擔過失責任,存在肯定論與否定論的爭議。從肯定論看來,人機信任建立在人工智慧可信任性的基礎上——機器有自主性、能動性和以人類為中心的意向性,並偏重人類對機器的信任。對高度分工、高風險的人機信任適用信賴原則,是組織模式的一種延展,不會導致責任稀薄,更符合刑事責任性質,具備合理性。信賴原則例外否定過失責任時,以不同自動駕駛水平下安全員、自動駕駛系統和人機互動作為客觀因素,可具體判斷信賴的相當性。安全員沒有履行接管義務的行為具有客觀違法性,但當其合理信任自動駕駛系統能夠執行預期功能時,不能具體預見結果的發生,由此信賴原則在責任階段否定過失,發揮後端風險結果分配的作用。
關鍵詞:接管義務;人機信任;信賴原則;過失責任
作者:楊寧(法學博士,天津大學法學院副教授)
來源:《法學家》2025年第2期“視點”欄目。
因篇幅較長,已略去原文註釋。
目錄
一、信賴原則如何適用於人機共駕的爭議
二、人機信任是適用信賴原則的前提
三、人機共駕中適用信賴原則的合理性
四、具體應用:信賴的相當性與預見可能性
結 語
人工智慧技術的應用塑造著駕駛的新形態——人類與人工智慧系統互動掌握駕駛權。具備車道保持、自適應巡航控制等L2級及以下功能的輔助駕駛系統已經走向了千家萬戶。近期,我國密集出臺了一系列監管法規為蓬勃發展中的自動駕駛技術應用保駕護航。2023年11月,工業和資訊化部、公安部、住房和城鄉建設部、交通運輸部發布《關於開展智慧網聯汽車准入和上路通行試點工作的通知》及指南(以下簡稱《上路試點指南》),制定了符合我國L3級到L4級駕駛自動化功能的車輛准入試點的規範。2024年,武漢市“蘿蔔快跑”自動駕駛出租車的新聞火爆全網,它代表著我國正在試點運營的智慧網聯汽車,在符合高水平自動駕駛系統技術設定的情況下,駕駛權將由駕駛系統轉交安全員接管。安全員是指智慧網聯汽車執行的安全保障人員。
  高水平自動駕駛將真正實現人機共駕,但全球業已發生數起由此造成的人身傷亡事故,凸顯法律責任認定的難題。從目前國際上對於自動駕駛汽車的法律法規、政策指引看,一般可以按照“誰掌控駕駛權誰負責”的基本思路來歸責。亦即,自動駕駛系統掌握駕駛權時發生交通事故,安全員無責任。但是,許多規範又規定安全員具有“始終監控和隨時接管”的義務,亦即接管規則。例如,2023年我國《上路試點指南》明確規定“車輛上路通行過程中,安全員應當處於車輛駕駛座位上,在自動駕駛系統啟用狀態下,監控車輛執行狀態及周圍環境,當系統提示需要人工操作或者發現車輛處於不適合自動駕駛的狀態時,及時接管或者干預車輛並採取相應措施。”這樣一來,就出現了黑白分明的責任劃分解決不了的模糊地帶:自動駕駛系統掌控駕駛權時發生死亡事故,但安全員沒有履行“始終監控和隨時接管”的義務,他需要承擔刑事責任嗎?
一、信賴原則如何適用於人機共駕的爭議
 2018年發生的第一起UBER公司的L3級別自動駕駛車輛造成路人死亡的刑事案件,就是一樁典型的人機共駕接管失敗事故。經歷漫長的事故調查和訴訟過程後,2023年7月28日,美國亞利桑那州州立法院判決安全員R在首次涉及自動駕駛汽車的致命碰撞中構成危害罪,處三年緩刑。對於該案,早有研究提出或可借用信賴原則否定安全員R的過失責任。信賴原則是指,“行為人在具有相當理由信賴被害人或者第三人會採取適當行為的場合,以此為基礎實施合適的行為即可;即使被害人或者第三人並沒有依照信賴行事而引發了結果,行為人不承擔過失。”對此存在肯定說與否定說的尖銳對立。肯定說認為,安全員可以主張對於高水平自動駕駛機器的信賴,從而為沒有順利接管造成的事故免責。系統沒有發出請求,最終發生了交通事故的情況,此時因為汽車是處於系統控制當中,安全員可以被認定對系統具有信賴基礎,適用信賴原則。其理由在於:機器人可以獨立完成一項任務不需要人類干涉時,人類可以信賴機器人的合規則行為。因此可以將人類之間的信賴原則同樣運用到人機、機器之間。否定論的觀點也十分有力。理由主要是:德國等國家法律明確規定L3級自動駕駛時安全員需要承擔警覺、監控和接管等嚴苛義務,其前提是對於這一階段自動駕駛系統的懷疑。信賴原則適用於交通參與人,不能拓展到人與機器的領域之中。肯定論僅初步提出觀點,缺乏對人機信任特殊性的分析和論證,在如何結合已有規範指引認定責任的具體步驟上亦存在跳躍性。這些關鍵節點上的語焉不詳給否定論提供了靶子,容易遭到輕縱安全員的批評。總體看來,學界對於如何進一步具體適用信賴原則的問題尚未深入研討。這遠不足以應對未來複雜的人機共駕接管事故。
  隨著我國高水平自動駕駛的法律規範逐步明晰和商業試點的大規模開展,面對可能發生的棘手問題,不妨預先進行一個有益的思想實驗:若在我國的智慧網聯汽車商業試點過程中發生了致死事故,而安全員辯稱由於信任自動駕駛系統、不負過失責任,應如何處理?
  【Q案件】
2024年10月18日晚間,一名安全員王某坐在一輛Q—1自動駕駛測試車駕駛座上,在某市的公共道路行駛時與一名穿越該道路的女性行人相撞,造成該行人死亡。這輛測試車由Q公司運營,獲得商業測試牌照、配備L3級別自動駕駛系統功能。事故發生時路面乾燥、有路燈照明,且自動駕駛系統處於啟用狀態。在自動駕駛系統控制車輛平穩執行19分鐘後,測試車以58km/h的速度接近事故發生點;行人開始推著一輛腳踏車橫穿馬路。碰撞發生前5秒,車輛首次監測到目標,但是未識別出行人。同時,自動駕駛系統沒有正確預測目標的運動路徑,未降低車速。碰撞前安全員王某曾多次將視線轉移至手機,並停留較長時間。在碰撞發生前5秒,王某最後一次將視線轉移至中控臺,但並未發現異常。直到碰撞發生前1秒,王某才將視線轉移回前方,碰撞前0.02秒開始向左打方向盤、但未成功控制車輛。汽車以53km/h的速度與行人相撞。事後查明,測試團隊為避免可能的訊號干擾,此次測試中關閉了測試車安裝的前向碰撞預警和緊急制動功能。王某是一名經驗豐富、記錄良好的司機,透過專門培訓並曾在該路段正常測試20次。
  本文將以人機信任的研究為基礎,夯實肯定信賴原則適用於人機共駕的前提,結合人機共駕的特性論證適用信賴原則的合理性。圍繞Q案件所體現的具體駕駛場景,分析不同級別自動駕駛技術中人機互動特點,進一步探討信賴相當性的判斷和對於安全員過失責任的影響。
二、人機信任是適用信賴原則的前提
 信賴原則源於“可允許的危險”與風險分配的法理。它是由1935年德國判例發展而來,其社會背景是大規模工業帶來了諸如現代化交通這樣的新生活方式。為了享受它帶來的利益,人類不得不放下“零危險”的幻想,在綜合考量後認為某種程度的危險行為由於其有益性、必要性而允許其存在。“可允許的危險”作為一種最底層的觀念,對於限縮過失的範圍有重要意義,但在將抽象性觀念融入犯罪階層體系時引發了爭議。相對而言,信賴原則更具體地討論:行為人在某一行為之際,可否因信賴他人遵循規範的行為,而影響其過失責任的成立。而今資訊科技與生物技術的發展所帶來的“第四次工業革命”,給刑法中過失教義學帶來了根本性的挑戰。在討論信賴原則適用於人機共駕前,一個重要的基礎命題有待論證:人與機器(自動駕駛系統)之間也存在與人類之間同樣的心理基礎,足以對人的規範意識產生影響。這一前提常常遭到質疑,反映出人機互動對於傳統心理責任的挑戰。
  (一)人機信任的基礎
  信賴原則之所以能起到限制過失責任的作用,根源在於它描述了人的心理責任事實:行為人與被害人或者第三人之間具有信賴的心理關係。現有理論將信賴關係分為兩種:對向型,在交通事故中“行為人—被害人”實施的對向行為時,對對方遵從規範行為的信賴;同向的組織模式,在加害人內部“監督人—被監督人”“分工人之間”實施行為時,對他人遵從規範行為的信賴。對於高水平自動駕駛中安全員與自動駕駛系統共享駕駛權的問題,上述肯定說希望藉助組織模式來分析安全員與自動駕駛系統的關係。而否定說則認為人與機器的領域不符合信賴的基礎。
  人與機器的信任問題已經成為一個跨學科的研究命題,涉及心理學、社會學、經濟學和計算機科學等多個學科。傳統學說的信任強調對於“人”的情感,認為信任是一種基於對方品德而產生的心理依賴。這種信任側重於建構人與人之間的深層次連線。信任的物件是一個具備能動性、道德性的人類主體。有學者對人類間信任與人機信任的異同進行了分析,認為儘管二者有所差異,但從心理學上發現二者存在同樣的認知、情感與行為反應。但是,如果完全按照傳統標準,則人機信任不僅需要在心理上存在事實,還需要符合規範上的要求,不可避免追問機器是否可以滿足個人情感、道德等方面的條件,進而得出人工智慧不能作為信任主體的結論。目前,對可信任性(trustworthinsee)的最新研究已經拓展至人機關係之中,某一個體或者組織的某些特性使得另一個體或者組織對其產生信任即為可信任。亦即,不由人之間的感情、道德等因素而決定,端看人工智慧是否可以完成預設的任務、實現預期的功能。
  從目前高水平自動駕駛的技術和規範要求來看,它的可信任性極高。首先,人工智慧系統本質上是具有一定自主性和能動性、基於機器的計算機資訊系統。2024年3月13日獲得歐洲議會批准、成為世界上第一部促進人工智慧安全發展的區域性國際公約的歐盟《人工智慧法》(EU AIA)採納了該定義,並在說明部分規定“具有不同程度的自主性”是人工智慧系統的基本特性,同時具有推理和影響物理的或虛擬環境的能力。在技術層面,自主性特徵使其區別於“更簡單的傳統軟體系統或程式設計方法”和“基於僅由自然人定義的規則來自動執行操作的系統”。人工智慧系統雖然不同於人類的能動性,但是它能夠在沒有人類干預的情況下進行操作,區別於以往的計算機的工具屬性。它具備影響外在的能力,即為能動性,機器的能動性與人類並沒有本質的差異。特別是生成式人工智慧中的“湧現”(Emergence),通常用來描述在一個複雜系統中某些特性或行為並不是從單個組成部分直接推匯出來的,而是在多個組成部分相互作用的過程中自發產生的。這使機器擺脫了對工程師預設規則的依賴,充分說明人工智慧系統的自主性和能動性。可見,高水平自動駕駛系統可以感知環境、制定決策、響應訊號、預測交通行為、自主學習等等,具備可信任性的事實特性。
  其次,高水平自動駕駛系統以人類的意志為行為導向。傳統觀點認為機器的能動性不具備“意向性”,它只是工具或者代理人做一些事情,不能成為被信任的物件。但是,人工智慧可以透過人機互動而獲得“意向性”,也即將某種符合人類利益的目的作為自己的意志並予以執行。《人工智慧法》(EU AIA)中特別強調了發展“以人類為中心的人工智慧”,關注的核心是如何利用技術來增強人類的能力、提高生活質量、促進社會進步,同時確保技術的發展不會對人類造成傷害或不公。由此可見,透過人機互動獲得“意向性”是可接受人工智慧的底線,也是人機信任的基礎。反過來說,如果人工智慧自主地擁有與人類利益相悖的“意向性”,恐怕才是不可信的。高水平自動駕駛系統即是透過與安全員的互動獲得行動目的,其系統設計亦時刻體現以人類為中心的原則。例如,《上路試點指南》規定了“最小風險策略”,緊急情況出現後如果安全員沒有成功接管,此時系統依然應以人的最小風險為目標而行動。
  由此,人工智慧系統具備了自主性、能動性和以人類為中心的意向性,足以成為被信任的物件。未來機器能力的通用化和實用場景的泛化,使得人機互動成為一個常態化的需求。人機互動的信任得到普遍的認可,併成為了人機互動設計的大前提。這正是人工智慧時代的基石。對於人機共駕的發展而言,承認人類對於高水平自動駕駛系統的信任,並致力於維持可靠的信賴,這不僅是人機互動設計領域中不斷完善的方向,也是走向完全自動駕駛階段必不可少的要素之一。
  (二)人機信任的不對稱性
  有學者提出由於人機信任的存在,自動駕駛汽車的生產者也可以主張對於人類的信賴,從而減輕自己的責任。但是,深入觀察則會發現人機信任內部存在不對稱性:人類應當信賴機器,而機器則應當懷疑人類。
  首先,自動駕駛技術的產生根源於對人類駕駛的不信任。我國資料顯示,每年數萬人死於車禍,且人因佔比超過90%。前十大違規行為是:未按規定讓行、超速行駛、無證駕駛、醉酒駕駛、未與前車保持安全距離、逆行、違反交通訊號、酒後駕駛、違法超車、違法會車。人類駕駛員不僅在識別反應能力、平穩續航能力上不完美,而且會作出酒後駕駛、追逐競駛等危險的駕駛行為。自動駕駛技術則不僅在駕駛能力上遠高於人類,而且可以避免人為的違規行為。因此,以更安全和高效的自動駕駛技術取代不可靠的人類駕駛是技術發展的原動力。最新研究表明在大多數事故場景中,配備高階輔助駕駛系統的車輛發生事故的機率低於人類駕駛的車輛。例如,高階輔助駕駛系統車輛發生追尾事故的可能性相比人類駕駛車輛低了6%。自動駕駛公司Waymo運營的無人駕駛出租車與人類駕駛員相比,人身事故率降低了85%,輕微損害事故率下降了57%。估算在相同里程下,自動駕駛系統造成的受傷人數比人類駕駛員少17人。因此,人類相信自動駕駛系統是有道理的,反之則不符合科學依據。
  其次,將安全員作為高水平自動駕駛處於緊急狀態下的駕駛權接管方,可能陷入“自動化自滿”(automation complacency)的難題。目前,在高水平自動駕駛中存在“長尾問題”——在大量不同的駕駛場景中,那些不常見的、發生率低但影響嚴重的邊緣情況。例如,雨雪天氣、光線不好的場景可能影響攝像頭的識別精度等。因此,在技術上設計由自動駕駛系統發出接管警報,將駕駛權交給作為備用的安全員。但是,這種接管設定極有可能違揹人類的心理,給人類設定過於苛刻的義務。在最早進入自動化與人類共同駕駛的航天領域中,在面對複雜的任務時,飛機駕駛員可能會產生對自動化過度信任,放棄了應有的檢查和控制導致飛機失事。這也出現在輔助駕駛、自動駕駛的應用中。美國國家公路交通安全管理局(NHTSA)於2016年在《聯邦自動駕駛汽車政策》中指出,製造商和其他實體應高度重視評估駕駛員自滿情緒和誤用L2級系統的風險,並制定有效的應對措施,以幫助駕駛員正確駕駛汽車。最新研究表明,與其將“自動化自滿”視為一種人類的心理現象來指責人類,不如將其視為系統問題(自滿情緒是由個人、情境和自動化相關特徵的複雜互動作用所導致的現象)。在美國國家運輸安全委員會(NTSB)對UBER的調查報告中亦指出“製造商沒有合理監控駕駛員的狀態是安全事故發生的原因之一”。基於上述因素,在自動駕駛系統中特別強調了一項必備功能:駕駛員監控系統(Driver Monitor System,DMS),透過攝像頭和感測器等裝置對駕駛員進行即時的監控。它可以檢測駕駛員的行為、生理狀態和情緒變化,以及是否疲勞駕駛或分心等情況。最新的系統可利用深度學習演算法對所採集的資訊進行解析,識別駕駛員的狀態,並根據識別結果發出不同級別的預警,從而確保行車過程的安全性。亦即,人機共駕中系統一直保持著對安全員是否處於可接管狀態的懷疑,並透過“監測+提醒”的方式以避免安全員陷入“自動化自滿”之中。
  最後,目前接管規則預設安全員可以在短時間內成功控制駕駛權,可能高估了人類的能力。研究認為,安全員脫離了駕駛權後,在幾秒鐘內緊急接管汽車,超出了正常的反應速度。一般而言,安全員脫離駕駛的時間越長,越難以在短時間內重回駕駛的狀態。即便在普遍使用飛行自動駕駛軟體的航空業,也難以要求一名駕駛員在短時間內接管駕駛權。“人類使用者以為自動駕駛系統值得信賴,而自動駕駛系統又假設人類會隨時接管,兩者相互指望,徒增風險。”
  綜上所述,在當前技術限制下雖不可避免地需要將安全員作為緊急狀態下的備選方案之一(另一方案是,當安全員不能接管時系統執行最小風險原則),但自動駕駛系統對於安全員是否處於能夠接管的狀態始終保持懷疑。應當透過各種方式執行駕駛員監控系統,當安全員處於分心、睡眠、生理異常等狀態時,透過不同級別的警示喚醒安全員。對於製造商,“在高衝突環境等特定場景中,應當限制信賴原則適用,製造商等應合理保證自動駕駛車輛不至於釀成不必要的事故”。
三、人機共駕中適用信賴原則的合理性
 在認可人類可以對高水平自動駕駛系統產生信任後,對其適用信賴原則還需直面如下質疑:允許組織模式(都是加害人)內部透過信賴原則互相推脫,將會導致對被害人的保護不力。在已生效的UBER案判決中即出現讓人憂慮的苗頭,由於當時管理規範模糊等因素,生產者、製造商的刑事責任沒有被認定,僅僅認定了安全員構成過失犯罪。如果適用信賴原則認定安全員沒有過失責任,對被害人及其家屬與大眾來說可能認為刑法放棄了保護法益,進而產生對自動駕駛的抵制風潮。對此,還需要仔細分析信賴原則對於高科技致損風險結果分配的功能,並將組織模式內適用信賴原則的案例、原理與人機共駕的特殊性結合起來論證。
  (一)信賴原則對後端風險結果分配
  當我們試圖追究人機共駕中接管失敗造成嚴重損害的責任分配時,涉及自動駕駛汽車的製造方、安全員以及其他交通參與人等多方主體。學者認為,如果認可安全員對於自動駕駛系統的信任,根本上是對於駕駛系統背後的製造方的信賴。信賴原則發揮著風險結果分配的重要作用,既不能過度地強調自動駕駛汽車製造方的責任,認可安全員接管義務在高水平自動駕駛等級中依然有存在的必要,又不能徑直以“可允許的危險”理論認可製造方帶來的安全隱患,而導致安全員成為最後承擔結果責任的人。可以說,預期中信賴原則的應用可以為安全員的風險劃定合理範圍。
  在對高科技風險進行分配時,必須要承認當前法律存在不足。儘管我國2023年推出了最新部門檔案《上路試點指南》,從2022年起實施了以《深圳經濟特區智慧網聯汽車管理條例》為代表的地方性立法,但現有規範中對於安全員的義務內容描述模糊,而且依然面臨著以《道路交通安全法》為代表的全國性法律的缺位。無獨有偶,在已經修改或新增國家法律的日本、德國等,對安全員注意義務的規定亦不精細。在此情況下,非常容易錯誤地以汽車工程的自動化水平作為安全員注意義務的標準。德國學者希爾根多夫指出:“如果再從這些定義中推匯出不同級別車輛駕駛者的注意義務,將會形成迴圈論證”,進而主張注意義務應該“來自於德國法律的規定,其在個案中的適用及具體化由法院進行”。
  由此可見,在前置法缺失的情況下,刑法只能面對科技風險致損的結果進行最後一次責任分配。正是從這個角度,德國學者希爾根多夫提出自動駕駛場景中過失“三階段判斷法”,將信賴原則作為自動駕駛案件中過失責任的後端限制的觀點,指出了信賴原則對於人工智慧產品致損發揮後端風險分配的地位。對於過失責任的認定應回到法益保護的基本立場上來,在裁判時分辨違反規範與法益保護的關係,重視行為人預見可能性的判斷。
  (二)組織模式中適用信賴原則的合理性
  日本北大醫院電手術刀案件是最為典型的案件。一名動脈管並存症的患者(2年4個月)接受胸部手術時,輔助護士A將手術使用的電手術刀的側面電線和對極板側面電線接反了,主刀醫生B在使用該電手術刀時沒有仔細確認,手術刀和一併使用的心電儀的缺陷競合,形成了高頻電流的異常回路,使得患者右腿重度燙傷。雖然胸部手術成功了,但患者的右腿卻不得不被截肢。對此事故,實行手術的9人醫療團隊中,使用電手術刀的主刀醫生B和從事電手術刀接線、調整開關工作的護士A被以業務過失傷害罪起訴。該案件經過了兩級法院審判。一審法院認為,護士A“明知有接反的可能,並且也能知道,電手術刀是利用高頻電流透過患者身體的迴圈過程中所產生的高熱的機器,一旦誤接電線,就會導致電流變更,可能對患者身體產生危害,因此,其具有正確接線、防止事故發生的業務上的注意義務”,判定其有罪(罰金5萬元)。對於醫生B,認定“其對電線接反並不具有具體認識,而且對不能輕易地說能夠具有該種認識的醫生而言,他對護士所處理的接線操作的正確與否,具有進行二次檢查、確認的注意義務,並將其作為肯定刑事責任的條件的理解,這種要求是過於慎重的態度,並不妥當”,判定其無罪。檢察院針對一審法院對B的判決提出抗訴,二審法院支援了原判決結論。
  一二審法院認為B不構成過失的理由正是信賴原則。“在手術開始之前,信賴作為資深護士的被告人,對是否誤接沒有進行檢查,這一點從當時的情況來看,也是正常的……”該判決招來了質疑。信賴原則最初是適用在被害人和加害人間的對向型過失中,只有在被害人也存在過錯的場合,才能例外地限制行為人的過失成立。這體現了危險分配的思想,為了迴避危險,在加害人和被害人之間分擔危險,分配注意義務的話,就會減輕加害人的過失。在組織模式中被害人完全是無過錯的,卻也主張信賴原則,可能導致所有的加害人均不受到懲罰。
  針對上述質疑的理論回應是:其一,無論是交通中對向型過失還是組織內部的同向型過失,可以適用信賴原則最為重要的共同點是社會分工。如果不承認組織內部成員之間的信賴關係,那就從實質上否認了社會分工的基礎事實。信賴原則隨著現代社會風險活動的日常化而生。雖然對個人科以嚴格的注意義務看上去能夠最大限度地防範損害結果的發生,但實際上卻會帶來社會活動的低效性,甚至抵消高度風險行為帶來的社會受益。例如,過分苛責作為監督者的醫生,要求醫生事事親力親為不僅帶來工作內容的紊亂,而且導致效率低下,最終受到損害的是更多亟須救治的病人。因此,在現代社會分工是不可避免的。與交通事故中陌生人之間的信賴相比,在組織內部進行的分工,由於具有職責範圍和專業場景,具有更為切實的信任基礎。其二,無辜的受害人,並不是加害方必須承擔刑事責任的充分理由。雖然,在醫療中無論是醫生還是護士都負有防止結果發生的義務,但是無論被害人有沒有過失,都不直接影響醫生、護士之間基於分工存在的信賴關係。
  (三)延展至人機共駕中適用的合理性
  信賴原則的適用可以從普通的組織體延展至人機共駕這一特殊組織體的理由有三。第一,人機共駕體現了高水平的人類與人工智慧的分工,存在更為可靠的信賴關係。如前所述,自動駕駛系統具備超越人類的能力。例如,相較於人的視野盲區而言,自動駕駛系統具有增強的感知能力。它所配備的高階感測器、攝像頭、雷達可以360度感知周圍環境,監測到人類駕駛員可能忽視的盲點或遠處的障礙物。並且,根據《上路試點指南》的要求,我國現有商業試點中的高水平自動駕駛汽車都已經通過了模擬模擬、封閉場地、實際道路的測試並透過驗收。換言之,這些高水平自動駕駛系統的預期功能是由演算法決定並經歷了千萬次的測驗。與醫生信賴一名資深的護士的簡單操作相比,安全員信任高水平自動駕駛系統具有更切實的基礎。由此,基於人機互動中獲得的信任,安全員將駕駛權交給自動駕駛系統,符合未來交通追求的安全與高效。
  第二,被害人的保護必要性並不足以說明安全員承擔刑事責任是最好的解決辦法。德國學者曾預測,司法判決在今後的一段較長時間內都會傾向於對所有級別的自動駕駛車輛的駕駛人、安全員提出較高的監控要求。然而,這將導致自動駕駛的“控制權兩難困境”(Kontrolldilemma):一方面,車輛裝配自動駕駛系統的目的是將駕駛者從駕駛任務中解脫出來;另一方面,駕駛者卻有義務始終監控系統,隨時準備介入、修正駕駛操作。這樣一來,從消費者的角度看來自動駕駛系統的效益被極大限制了。試想,普通人要享受科技帶來的便利,卻不僅需要負擔高昂的費用,還需要違背心理機制承擔時刻監控系統的嚴苛義務。而這種技術發展的最大受益人——生產者、銷售商卻隱身了。這種對安全員過於嚴苛的做法,可能只是無法透過現有的法律和法理對生產者、銷售者追究刑事責任的“遮羞布”。換言之,在高水平自動駕駛的接管規則中,將安全員擺在備用駕駛員的位置上,原本是一種技術上不公平的風險預分配。學者對目前僵化地以汽車工程自動化水平標準的內容作為刑事責任判斷標準的方法提出了諸多批評。核心一點是:人機共駕中規定“始終監控和隨時接管”加重安全員的責任,既違背了自動駕駛技術的初衷,最終亦不利於該技術的發展。即便承認某些人機共駕案件中最終無人承擔刑事責任,也不代表被害人的法益損害不能透過其他方式得到保護。UBER案件中,被害人家屬與UBER公司達成了民事和解。UBER公司對自動駕駛部門的安全漏洞進行了改革。因此,不能認為法益損害必然帶來刑事歸責。合理的解決方案,應當是更加嚴格地判斷信賴是否已經具備相當性,而非否定信賴原則在該領域的應用。
  第三,可能有觀點認為即便組織體內可以適用信賴原則,也應當排斥危險程度高的業務。有學者認為工作性質的風險程度越高,注意義務的範圍就越廣,相應地,信賴原則的適用範圍就越窄。這樣一來,人機共駕涉及公共交通安全,可謂是危險程度極高的領域。但是,從現在人工智慧技術的發展來看,自動駕駛汽車實為第二代智慧機器人,具有部分感知能力、決策能力。未來第三代智慧機器人則具備更強的感知能力、決策能力,譬如人形機器人。可以預計機器人未來將承擔更精細、更復雜的工作,例如家政照護機器人。如果認為人類在使用第二代智慧機器人時注意義務很廣、信賴原則適用極窄,那麼第三代智慧機器人如何能夠脫離人類獨立發揮作用呢?對此問題,可能需要反過來思考,“因為通常在越是危險時,越要求分工人具有高度的專門知識、能力。”在危險的業務中,參與人的注意義務當然應該嚴苛。不過,首要加強的是對於高水平人工智慧的技術規範和測試要求。同時,隨著智慧機器人能力的提高,相應是使用人注意義務的縮小,信賴原則具有更多的適用可能性。
  總之,隨著自動駕駛水平從L3到L4級的提升,安全員的義務逐漸縮小。根據《汽車駕駛自動化分級》(GB/T 40429—2021)的規定,L3級別安全員需要“始終監控和隨時接管”“保持警覺”;L4級別時,僅僅在極端情況下系統才會要求安全員接管,即使安全員沒有接管,L4級別的自動駕駛系統也會執行最小風險策略以確保車輛能夠繼續安全行駛或停車。可見,風險分配越來越傾向於可靠的高水平自動駕駛系統。從自動駕駛技術的獲益、操控主體來看,人機共駕一方造成的結果責任最後分配給許諾給人類信任的自動駕駛汽車製造方,是公平的。信賴原則的合理適用,既不會導致個體安全員因過重責任而抵制自動駕駛汽車,又將提高自動駕駛汽車技術安全的壓力賦予科技創新和獲益的主體,還給社會大眾創造了人工智慧應用的可靠環境,可謂透過對後端風險結果分配而一舉三得。
四、具體應用:信賴的相當性與預見可能性
 信賴原則適用範圍並不侷限於交通犯罪領域,也不侷限於行為人與受害人的對向關係,而是可能適用於各種風險預防的合作關係。需要說明的是,即使允許在組織體模式中適用信賴原則,也不是無限制的,必須考慮其限度和標準。一般認為信賴原則作為限縮過失的例外原則,應慎重運用。人機共駕中什麼是可靠的信任成為值得探討的問題。一方面,過度信任帶來的技術濫用恐怕是當前人機共駕最為頭疼的問題。在已經廣泛應用的輔助駕駛導致的交通事故中,出現了駕駛人對於輔助駕駛系統過度信任的問題。另一方面,信任不足則會衍生技術棄用。在人機共駕中如果過度強調安全員的監督義務,則會導致對於自動駕駛技術可靠性、效益性的懷疑,不利於技術的發展。持肯定說的學者僅原則性表示可以考慮合理基礎、未超信賴限度以及未實施不當行為三個因素。在這一方面需要結合既有研究與人機協作的特點作進一步思考。
  (一)人機信賴的相當性判斷
  有學者認為不能將信賴原則僅僅作為一種單純的主觀信賴,而應該強調存在與迴避結果相當的實質信賴關係。“只有在具有與該法律顧慮相當的實質信賴關係(邁向結果迴避的日常信賴的積累)的情形中,才明顯能在心理上緩和對結果迴避的動機,由此可以判斷,監督人無法對結果的發生進行具體預測。”以醫療團隊為例,一般認為需要考慮:(1)醫療分工體制的建立亦即醫務人員權責的明確化;(2)信賴物件具備能夠信賴的現實基礎,可以具體化為履行醫療任務的資質、知識、經驗和態度;(3)不存在動搖信賴的例外事由。在上述日本北海道大學電手術刀案件中,學者認為:“主刀醫生B是治療科的,護士A是手術部的,對電手術刀線路連線的事情沒有建立清楚的合作機制。但是,在本案醫院中,設立了從各個科室中獨立出來的手術部,手術部的管理、手術器材、器具的準備、護士的教育等業務,都由手術部負責,A是在手術部工作的正規的資深護士;接線是非常簡單容易的工作,其方法不要求按照醫生的要求進行,有資格的護士犯接錯了線路之類的錯誤是難以想象的;電手術刀引起的本案之類的事故,世界醫療史上前所未有。因此,可以說本案中醫療從業人員使用電手術刀引起事故,不可思議。主刀醫生必須集中精力做手術。綜合上述考慮,可以說,主刀醫生不用檢查接線正確與否,這種事實上的行為基準具有大致的合理性。”從而判斷醫生B的信賴是具有相當性的。
  研究認為,在人與人的信賴中,要考慮對他人的熟悉度、期望值和風險。熟悉度指向信任主體間的關係構建,期望值指向預期完成任務的程度,風險則指向決策失敗的機會成本。在人機信任中則有所差異,影響因素均可劃分為三個類別:使用者特性、機器特性和環境特性。使用者特性中主要考慮的是人類主體情況。機器特性則是信賴物件的性質,包括可靠性、可預測性、可解釋性等。環境特性則是指當面對低複雜度、低風險、低試錯成本的常規性質任務時,人類往往會展現出較高的信任度;相反,在面對那些要求精確控制、專業知識和高度判斷力的複雜任務時,人類的信任水平可能會顯著降低。三個因素的重要性有所不同,機器特性帶來的負面效果最為明顯,其次為使用者特性,而環境特性的影響力相對最低。同時,環境特性作為一種外部調節因素,對持續信任的影響相對最大。尤其是關鍵任務失敗會顯著降低使用者信任水平,甚至在後續互動使用中形成應激障礙。這為如何在人機共駕的具體環境中確定可靠的信賴提供了線索。
  從人機協作的特性來看,基本可以從以下三個方面分析信賴是否具有相當性:安全員是否具備充分的專業能力、心理水平;自動駕駛系統是否具備可靠性、可預測性和可解釋性;在具體的人機互動之中,執行關鍵任務是否發生嚴重的失敗,足以使得安全員對於自動駕駛系統執行產生懷疑。三個方面對於信賴的影響方向是:安全員因素和自動駕駛系統因素,對信賴的相當性成立是有利因素;嚴重失敗的互動任務則是動搖信賴的不利因素。下面結合《上路試點指南》等規範性檔案和Q案件的具體情況,進一步分析在不同級別的高水平自動駕駛場景中的具體應用。
  1.安全員因素
  《上路試點指南》第三部分上路通行中對安全員的規定可分為兩部分:駕駛資格與專業培訓。首先,安全員應當是一個經驗豐富、記錄良好的優質駕駛人。不能有負面的駕駛記錄,比如嚴重違規、重大事故等。其次,安全員應當經過自動駕駛汽車的專業培訓,熟練掌握自動駕駛相關法律法規、自動駕駛系統專業知識,具備緊急狀態下的應急處置能力。在Q案中,安全員王某取得了資格,具備《上路試點指南》中的基本條件,即符合專業知識、特殊培訓等能力條件。再如,在UBER案件中,R持有駕駛執照,自從2017年以來一直擔任UBER自動駕駛測試車輛的安全駕駛員。上路測試前,已經完成了為期三週的培訓以及複訓。在完成培訓後,她曾完成了73次自動駕駛道路測試,包括在事故道路上的自動駕駛測試。該安全駕駛員在工作期間沒有受到過任何處罰,並且曾受到過集體績效獎勵;沒有嚴重的交通違規記錄。可見安全員R的自身情況有利於信賴相當性的成立。反之,當一名安全員不具備相應專業能力或者處於明顯異常的心理狀態下,則難以認為其信賴是相當的。
  《上路試點指南》的規定沒有區分L3和L4級別安全員的差異。結合2023年交通運輸部《自動駕駛汽車運輸安全服務指南(試行)》以及《北京市智慧網聯汽車政策先行區乘用車無人化道路測試與示範應用管理實施細則》的規定:L4級別自動駕駛汽車可以配備車上安全員,也可以是平臺安全員,因此出現“一比多”的平臺安全員配置。由於客觀上平臺安全員的注意力和接管能力是有限的。《自動駕駛汽車運輸安全服務指南(試行)》規定的1∶3的人機比例可作為參考。當超出合理的平臺安全員配置比時,可以認為安全員處於能力顯著低於標準的情形中,其主張的信賴難以成立。
  2.自動駕駛系統因素
  《上路試點指南》第二章智慧網聯汽車產品規定:“應具有明確的自動駕駛功能定義及其設計執行條件,並符合動態駕駛任務執行、接管、最小風險策略、人機互動……等技術要求”。其中,對動態駕駛任務的可靠性規定:具備探測與響應能力,以支援其安全且合理地執行全部動態駕駛任務、識別系統失效的能力、失效後合理控制的能力、啟用後最低損害控制策略。亦即,對於現在的自動駕駛系統而言,應當可以執行前碰撞預警(Forward Collision Warning,FCW)、自動緊急制動(Automatic Emergency Braking,AEB)、自適應巡航控制(Adaptive Cruise Control,ACC)、車道保持輔助(Lane Keeping Assist,LKA)、盲點監測(Blind Spot Monitoring,BSM)等功能。除此之外,《上路試點指南》規定了自動駕駛系統應具備安全員接管能力監測功能(DMS)。它特別針對L4級別自動駕駛系統規定,當安全員未能及時響應接管請求,自動駕駛系統應執行最小風險策略以達到最小風險狀態;自動駕駛系統應當持續提供關於駕駛狀態的必要資訊。上述關於自動駕駛汽車產品可靠性的要求僅是該類高水平自動駕駛產品的底線。安全員在沒有異常事件發生時,當然可以相信上述功效在正常運作中,自動駕駛系統所作決策是可預測和可解釋的。
  在Q案件中,Q公司測試團隊為測試的流暢性,避免可能的干擾對測試產生影響,關閉了L3級別測試車安裝的前向碰撞預警(FCW)和緊急制動功能(AEB)。也就是說,這輛改造過的Q—1自動駕駛汽車並不具備L3級別完整的功能以完成動態駕駛任務。同時,該系統在5秒鐘前已經識別到障礙物,卻沒有準確識別為行人,這一關鍵性的錯誤可能導致自動系統無法作出正確決策。如果安全員王某事先未獲知該車輛自動系統功能的限制,則他主張信任自動駕駛系統具備全部的功能足以完成動態駕駛任務,這種信賴是具有相當性的。
  3.人機互動因素
  人機互動中如果已經出現嚴重失敗的情況,則會削弱人對於機器的信任;反之,若人機互動完成重要任務是順暢而熟練的,則會增強人對於機器的信任。可見,人機互動任務的難易程度、完成次數、完成效果都是重要因素。在目前的道路測試階段,發現已有自動駕駛系統執行任務的異常、失敗是測試最重要的目的之一。《上路試點指南》規定:在自動駕駛系統啟用期間,記錄的事件資料應至少包括自動駕駛系統啟用、退出、發出介入請求、開始執行最小風險策略、發生嚴重失效、有碰撞風險、發生碰撞等。若測試車輛已經發生上述異常或者失敗,將動搖安全員的信任程度。失敗越嚴重,就越容易引發信任的否定。例如,安全員在同一個測試路段,已經發生了2次車前無障礙物卻引發自動駕駛系統的前碰撞預警和自動緊急制動,導致車輛在高速執行中突然剎車。在第3次透過該路段時,無論該系統是否對此問題進行除錯,安全員不可以主張由於信任車輛的自動駕駛功能而不能預計到車輛有突然剎車的風險。
  在Q案件中,沒有記錄事件的證據證明安全員王某在此前的測試中(甚至是同一路段已經測試20次)發生過嚴重的任務失敗,特別是L3級別自動駕駛系統最為關鍵的識別、響應系統的存在問題。在事發時,自動駕駛系統已經平穩執行19分鐘。自動駕駛系統執行的任務是較為簡單的任務,已完成測試多次且效果較好,因此,安全員王某基於自身在人機協作中獲得的經驗認為測試車輛的識別、響應系統是正常的、可信的。
  對於L4級的平臺安全員來說,人機互動殊為關鍵。一方面,車上安全員可以更迅速地獲知車輛面臨的危險狀況,而平臺安全員依賴於自動駕駛汽車對當前駕駛狀態、緊急情況的感知與提示;另一方面,在L4級平臺安全員作出接管決策時,自動駕駛系統扮演特殊的角色。例如,德國《道路交通法》對於L4級自動駕駛設定了技術監督員角色。在第1e條第3項和第4項規定,“如果出現必須違反道路交通法規的情況,車輛首先要停車,向技術監督員提供備選的駕駛動作作為解決方案,然後等待技術監督員的決定。”這要求L4級的自動駕駛系統不僅能準確感知當前危險,而且在具體危險評估之後作出合理的備選方案。因此,如果某L4級自動駕駛系統已經出現危險評估與備選方案的嚴重失敗或者顯然的缺陷,平臺安全員透過人機交互發現了這些動搖信任的因素,那麼不可以主張信任自動駕駛系統提供的備選方案採取的駕駛動作、不能預計到損害結果的發生;反之,如果平臺安全員由於人機互動中累積的信任因素,雖然沒有慎重地重新考量,而是選擇了自動駕駛系統提供的方案採取駕駛動作,卻造成了損害後果,此時平臺安全員對機器的信賴是相當的。
  (二)安全員的預見可能性
  行文至此,一個疑惑會浮上心頭:信賴原則在過失犯罪階層中處於什麼位置?對此原來主要存在兩派學說:行為構成階層的結果迴避義務認定說,認為由於信賴原則行為人的行為沒有違背注意義務,不具有實質的危險性。責任階層的預見可能性標準說,行為人因為信賴原則而喪失預見可能性或者預見可能性的程度較低。
  現在新出現了雙重體系定位說,“客觀上具備相當性的信賴,阻卻行為的構成要件符合性;客觀上具有危險性,但行為人主觀上有合理的信賴,可以阻卻責任”。例如,在封閉的高速上駕駛車輛的人,合理信賴行人不會橫穿馬路,行人突然橫穿馬路被車撞死的,不能認為行為人的行為符合交通肇事罪的構成要件。這時客觀上存在合理信賴他人的條件,行為人的行為缺乏危險性。
  對於人機共駕問題而言,由於當前從L3級到L4級的高水平自動駕駛技術在全世界範圍內均處於從道路測試到商業試點的階段,從技術的可靠程度上仍然存在“長尾”場景。所以,不能說安全員未“始終監控和隨時接管”的行為客觀上沒有危險性。從這一點看,位於構成要件階層的結果迴避義務說存在問題。特別是在Q案中由於公司擅自改變了測試使用的L3級別自動駕駛系統,或者系統發生障礙的情況下,安全員王某基於自己的認知信任自動駕駛系統、不進行監督的行為的確在客觀上具有高度危險性。這一不法性的判斷尤為重要,既要符合目前人機共駕的科學標準,也應與現階段社會大眾對人機共駕的認識吻合,所以認為安全員不履行監督義務、接管責任的行為具有客觀違法性更為妥當。此時,只能考慮從安全員的主觀責任層面適用信賴原則。換言之,信賴原則的適用,並非認為安全員違反現在通行的接管規則是沒有違法性的,也不是在過失犯的違法阻卻事由中進行利益權衡的判斷,僅僅是作為一個例外的理由否定具體案件中存在合理信賴的安全員的預見可能性。這也符合本文主張信賴原則作為後端結果責任分配的本意。
  Q案中,安全員王某對於自動駕駛系統具備合理信任,認為在當前熟悉道路、正常路況且自動駕駛系統執行平穩的情況下,自動駕駛系統有多種功能避免結果的發生,對由此引發的撞擊行人的具體結果不具有預見性,在心理上難以形成反對動機。由此,在當前的人機共駕階段,應當在安全員的主觀責任層面適用信賴原則,否認過失責任。未來,隨著自動駕駛技術的日趨成熟,那麼安全員不監督的客觀危險性也可能將隨之降低。
  最後,在適用信賴原則時,傳統理論認為還有一個附加條件是:“違背注意義務者,就不能辯稱他信賴其他人還會實施合乎注意義務的行為。”“如果兩個參與者相繼透過違反義務的行為造成了同一損害結果,那麼,前行為人也不能以先來後行為人會遵守注意義務為由,為自己推卸責任。”這也被稱之為“清白”(clean hand)條件。在Q案件中,一種反對信賴原則適用的觀點可能是:安全員王某違反“始終監控和隨時接管”的義務在先,不可主張信任自動駕駛系統能夠完成避免碰撞等功能。
  不過,“清白”條件並非絕對。即便在行為人自己違法的時候,符合下述條件也可以主張適用信賴原則:“不管自己是否違反規則,都能期待對方採取適當行為的場合。”日本最高法院在1967年10月13日的判決中,認可違反交通法規的被告人亦可以適用信賴原則,而得出無罪判決。“作為電動腳踏車的駕駛人,就像本案被告一樣,在發出右轉訊號的情況下,準備從中線稍偏左處右轉,只要相信後面駛來的另一輛車的駕駛人會遵守交通法規,即以安全的速度和方法行駛,如減速並等待自己的車輛右轉,這就足夠了。駕駛人只要相信其他機動車駕駛人會遵守交通法規,減速慢行、等待車輛右轉等,並以安全的速度和方式行駛即可。”因此法院認為,被告人右拐之時未將車輛靠近左邊的行為,雖然沒有遵守交通法規,依然可以信賴被害人的車遵守交規不超越中線、避免事故的發生。對此,學者認為該判決正確理解了信賴原則。如果行為人的違反規範的行為誘發了對方的違反規範的行為,那麼可以否認信賴原則的適用。“在上述案件中,被告人沒有確認右後方安全的行為,並不能引發另一輛車以極其危險的方式駕駛。因此,被告人行為的危險性,在判斷危險實現的時候,不能將另一輛車的違反規範行為納入判斷之中。亦即,可以適用信賴原則。”在考慮信賴原則時“將重點放在對方應遵守規範的行為,而不是行為人的行為”。
  本文認為圍繞信賴原則的討論,最後應當落腳到行為人的預見可能性上,清白條件亦應如是。行為人自身的違法行為不一定能影響對於結果的具體預見。如果行為人的行為可以引發對方或第三人的違法行為,當然行為人具有對由此引發結果的具體預見性。回到Q案中,一方面,正如上述學說主張的,即便認為安全員王某沒有盡到“始終監控和隨時接管”的義務,但自動駕駛系統的異常操作並非由此而引發的,所以安全員王某依然可以信任啟用中的自動駕駛系統正常執行。另一方面,安全員王某雖然沒有盡到“始終監控和隨時接管”的義務,但並不可以用此時所謂的抽象的“危險感覺”來代替具體預見的判斷。安全員王某之所以沒有預見到具體危險結果的發生,說到底正是源自對自動駕駛系統執行任務的信任。在Q案件中,如果Q—1自動駕駛系統根據《上路試點指南》獲得了測試牌照,那麼至少可能作出以下四種決策避免結果的發生:(1)監測發現安全員處於長時間分神的狀態,警示安全員;(2)準確識別過路的行人、預測其行走路線,採取避讓或者剎車的策略;(3)準確識別過路的行人、預測其行走路線,並識別處於緊急情況,向安全員發出接管請求;(4)向安全員發出接管請求,但在安全員接管失敗後,採取最小危險策略。而且,從Q案件的具體情況可見,事發道路、天氣等情況並非複雜的場景,應屬於該系統曾多次測試透過的普通場景,系統僅僅需要執行非常簡單的剎車或者提醒的功能即可。如果上述道路交通案件中行為人可以合理信任一名隨機而來的駕駛人能夠遵守交通規範,那麼對於安全員王某而言,面對已經熟悉的Q—1自動駕駛系統,不管自己是否違反規則都能期待自動駕駛系統,這是非常合理的。總之,儘管安全員王某沒有盡到“始終監控和隨時接管”的義務在先,但是也不妨礙信賴原則的適用。
  對Q案件中安全員王某的刑事責任進行總結:王某在自動駕駛系統啟用後長時間注視手機、沒有監督自動駕駛系統的行為確實違反了L3級別人機共駕的接管義務,該行為與被害人的死亡之間有因果關係。但是由於安全員王某並不知道自動駕駛系統的修改,透過已有人機互動經驗獲得對自動駕駛系統的合理信任,充分信賴在當時的路況條件下自動駕駛系統的多種功能足以避免碰撞事故的發生,王某對撞人事故缺乏具體預見可能性。所以,安全員王某不承擔過失責任。
結語
 目前,我國雖然透過《上路試點指南》對於高水平自動駕駛汽車的上路規則作了進一步明確,但這僅是部門規範性檔案。涉及刑事責任判斷時,安全員的過失行為內涵依然缺乏法律的明確規定。對此,當然不能僅以目前國家標準的自動化水平劃分為準,也不能完全依賴規範性檔案的內容。在討論普透過失致人死亡罪或者交通肇事罪時,還需從人機共駕中安全員所欠缺的重要的謹慎行為來實質性地思考。
  在Q案件中安全員王某的過失責任經由信賴原則被合理地否定之後,或許我們才可以真正直面高水平自動化駕駛技術“打怪升級”所付出的代價——公共和個人法益遭受損害而刑事責任落入真空。被害人、安全員和普通大眾在這場浩浩蕩蕩的人工智慧變革中都是弱小的個體,目前由高水平人工智慧產品帶來巨大的商業利益尚未惠及個人。自動駕駛汽車的製造方——研發者、生產者、銷售商才是技術可靠性的第一責任人。從這些角度來看,將來在對人機共駕接管規則的立法考量中,應當加強的是自動駕駛系統製造方對於安全員順利接管的保障技術要求與責任。
歡迎加入會員!課程+圈子+何談

相關文章