
小米SU7車禍三人致死的慘痛教訓發人深省、令人痛心。
如何避免悲劇重演?從深層次看,悲劇並不是某個單一因素導致的結果。
智慧駕駛的侷限性、高科技企業的社會責任、人工智慧技術的雙刃劍,哪個方面都不是輕鬆的話題。

智慧駕駛的侷限性
回顧SU7車禍的時間線:10點44分24秒,汽車智慧系統提示:“請注意前方有障礙”;1秒後,司機接管,轉方向盤,踩制動板;3秒後,車輛撞擊水泥護欄,三人困於車中,火光很快吞沒整輛車,鮮活的三個生命戛然而止。
我有十幾年駕齡,也曾用輔助駕駛開過幾千公里。我不知道,在那樣的電光石火間,什麼人能做出正確的避險措施。
設想一下,換成你、我、他,任何一個普通司機正在開車,1秒之前,也許還在愜意地聽音樂,1秒後,系統讓你接管。你剛回過神,就進入1秒決定生死的極限應急狀態。根本來不及想障礙是什麼,沒時間看一眼車速多少,也不會知道AI之前有沒有剎車,打沒打方向盤。
那是一種完全高壓、慌亂、無助的狀態,超出了人類的生理反應極限。3秒鐘決定生死,絕不是衝著智駕買車的使用者希望看到的局面。
事實上,當前所宣傳的“智慧駕駛”本身存在著嚴重的潛在誤導性。公眾對智慧駕駛的期望過於樂觀,儘管行業內部專家對其侷限有清醒的認知。
根據國際通用的行業標準,自動駕駛技術共分為L0至L5六個級別。L1和L2級別僅為駕駛輔助技術;L3級以上才是真正意義上的自動駕駛。
目前為止,面向普通消費者的智駕系統都停留在L2級別。L2仍要求司機保持高度警覺、隨時準備接管控制權。這種駕駛狀態對司機是持續性的“負擔”,司機既不能徹底放鬆,又不能充分發揮AI技術想要解放司機雙手的初衷。
為什麼科技高度發達的今天,智駕還停留在L2?
答案很簡單,因為技術還做不到。複雜路況、惡劣天氣、突發事件以及交通事故,都極大地增加了系統識別和決策的難度。以目前的技術發展來看,從L2級輔助駕駛過渡到完全自主的L5自動駕駛,鴻溝還非常大。
不管最終事故責任如何界定,小米SU7事件都用血淋淋的事實對智駕的複雜性和難度做出了痛苦的註腳。
普通消費者是無辜的,他們很難做到研究透徹智駕技術的邏輯後再去買車。消費者、逝去的司機和乘客,最不該承受技術不完善導致的悲劇。


我曾經狂熱研究AI技術,併為高科技瘋狂。SU7事件讓我的想法有了本質變化。無論多好的高科技,只有加上高科技企業的責任和擔當,才能成為消費者的真正福利。
小米曾宣稱,小米全系汽車採用全新CTB電芯倒置技術,可以實現在極端情況下快速向下釋放能量,最大程度保證乘員艙安全。根據說明,小米電池擁有3層頂部支撐、3層側碰防護、8層底部防護結構,總計14層的硬核物理防護,最高可抵抗1000°C的高溫。
“在電池結構安全上,最難應付的是側碰和刮底。小米CTB一體化電池技術擁有總計14層的硬核物理防護,面對2倍載荷振動、3.6倍衝擊、48倍泡水的最嚴苛的疊加測試之後仍能完成IP6K9K的密封測試。”
儘管最終調查結果還沒有公佈,以上這些高科技宣言,在SU7事故中顯得不堪一擊。
事故調查完之後,如能認真理清責任,是電池問題還是車門問題;是司機問題還是車的問題,還是共同的問題,對整個行業和消費者都有很大意義。
這一悲劇對生者,對以擅長營銷而自喜的車企,對正在使用智駕的司機意味著什麼?
我隨機開啟一家車企的宣傳頁,“硬核安全”的廣告語右上角有個小小的註釋數字6,頁面下面的註釋有8條。字號太小,我怎麼都看不清註釋裡的小字寫的是什麼。
技術進步給了我們很多美好的幻想,但似乎沒有車企清晰地告知:
-
哪些場景下,智駕容易犯錯?
-
多危險的時候,人應該接管?
-
多危險的時候,人不應該接管?(而不是遇到危險就讓人接管)
-
在系統請求接管時,人需要有多少反應時間和反應距離,接管才有意義?
-
若接管後的操作和智駕本來的措施矛盾,會不會延誤時機?
不希望看到這起悲劇之後,車企繼續營銷99.9%的安全科技。只計算賣出10萬輛車可以讓股價漲多少,忘記了10萬的0.1%就是100個家庭。
和很多產品有所不同,車企的每一臺產品都事關人命。宣傳強調“輕鬆駕駛”的廣告很多,卻鮮少有車企強調在極端情境下的風險邊界。
有一次和小孩在外旅遊,打車時坐後座。我讓孩子系安全帶,司機接連搶話說“不用系、不用系”。小孩反駁我,“司機說不用系,你為什麼讓我係?”我說司機說的不用系,是說警察在這個城市不查後排安全帶,而我們為了自己的安全,必須系。司機說,你的教育方式很好。
我們生活的這片可愛的土地上,有人會發明專門插在安全帶插銷上的假插頭,目的是不讓車子報警沒系安全帶。並且,真的會有人買這種奇葩發明。很多人的駕車安全意識幾乎等於零。
連安全帶都排斥的人,怎麼讓他們弄明白如何安全使用智駕?這是負責任的車企必須嚴肅考慮的問題。
年輕人愛炫,愛速度,愛科技,車企因此開發投其所好的產品。不強求車企如同教育子女般盡心,但是,科技的邊界是生命的價值,技術的終點是人心的良知,這兩句話應該作為高科技企業最重要的操守守則。
雷軍同學不久前曾在武漢大學"雷軍班"上回顧了小米造車的歷程:
小米是汽車產業的新人,一輛車沒造過,第一天就開始說要做全球前五,喊出這樣的目標需要點勇氣吧?那有了這樣的目標以後我們怎麼幹的?
第一,踏踏實實造車。那誰車造得好?保時捷;誰的智慧化幹得好?特斯拉。第一天我們提的目標就是要媲美保時捷和特斯拉,找最強的對手去死磕。
第二,我們在產品製造和研發階段的時候,小米的產品方法論有非常重要的三個詞:“唯一、第一、最”。就是做所有的事情,先想想,是不是世界第一、世界唯一、世界最好。
企業家氣吞山河的拼搏精神讓人心生敬佩。我的問題是,“唯一、第一、最”的選項裡有沒有包含“安全第一”?
一個常識是,任何一個產品都不可能在保持中等價位的情況下,所有效能都是同行“第一”。如果一輛車要在速度、舒適、安全性上碾壓所有同行,它的售價一定是極高的數字。
在激烈的市場競爭中,企業為追求一鳴驚人的效果,頻繁推出所謂的首創技術和種種第一,以此來捕獲消費者認知,這無可厚非;但如何捍衛消費者的根本利益,更為重要。這就要把技術穩定性、安全性、充分嚴謹的測試與論證,放在更高的位置。
蘋果公司庫克曾說,不求第一,但求最好(Not first, but best)。在企業追逐商業第一的競賽中,是不是應該有些許畏懼——畏懼那些可能危害消費者安全的技術未知。
在安全意識淡薄的社會環境中造車,車企身上擔負的安全教育責任太大了。讓車企完全承擔安全教育的責任和後果,並不公平。做企業很難,在壓力極大的內卷市場,企業往往選擇用“唯一、第一、最”的極限目標激勵團隊,但卻忽視了對消費者來說最基礎的一些需求。一旦出事,“唯一、第一、最”就被反襯得特別刺眼。
只有企業和社會一道用良心提高消費者的安全意識,構築智駕安全的防火牆,高科技才能真正炫酷。


自動駕駛是目前運用最廣的人工智慧技術之一。人工智慧技術的可靠性和安全性是更復雜而重要的話題。
特斯拉CEO埃隆·馬斯克曾表示:“真正的自動駕駛,不應需要人類隨時準備接管。”確實,如果系統能像宣稱的那麼智慧,在毫秒級別計算碰撞的機率和潛在的傷害,那麼,為什麼要讓反應遲鈍的人類在1秒內接管人工智慧闖的禍?
真正成熟到可以讓人信賴的智駕產品應該做到:在危急時刻告訴人“我還能避開,請不要管我”。
作為一個技術信仰者,我相信科技向善,總有一天,AI可以做到在100%的情況下比人類更優秀,實現最優避險,不需要人再去接管。
科技史專家喬治·戴森認為:
“任何一個簡單到可以理解的系統,都不會複雜到可以智慧化行事,而任何一個複雜到足以智慧化行事的系統,都會太過於複雜而無法理解。”這道出了人工智慧系統雙刃劍問題的本質。
人只會在悲劇之後,才知道自己誤信了一種“不完整的有缺陷的智慧”。AI越智慧,人越容易放鬆;可當AI叫司機回來時,已把司機推向了神仙都難逃命的時刻。
隨著大模型的快速發展,科技界今年在熱炒AI代理(Agent)的光明未來,其實就是AI自動執行程式。AI代理將來可以看病、開藥、發射導彈。
什麼工作可以放心交給AI做?
一個普通人是否有能力管理比他快、準、冷靜的AI系統?
AI真的可以永遠按照人類利益最大化原則辦事嗎?
AI造成的損害由誰擔責?
如何避免AI技術不落入壞人手裡?
這些不僅是技術問題,更是哲學問題和社會問題。
不能簡單地認為,高科技都是好的。在人工智慧模型眼裡,人只是死了還能再重新喂進去的訓練資料。
人工智慧席捲各個領域的勢頭不可阻擋。如果對人工智慧技術管理不當,這次是車禍,下回恐怕會是AI看錯病、開錯藥、射錯導彈。
人是健忘的!
企業和企業家要持續、勇於承擔AI安全的第一責任。
主導造出第一顆原子彈的羅伯特·奧本海默曾說,“看到一些技術上會帶來甜頭的事情時,人們會想都不想只管去做,只是在技術成功之後才會爭論該拿這個技術怎麼辦。人們就是這樣對待原子彈的。”
從宏大的人類命運回到眼前的苟且,寫這篇文章的目的,是提醒人們反思如何更好地運用技術工具,讓人類的系統完善到能駕馭AI的系統。任何個體都無法也不應該獨自承擔技術濫用的社會惡果。
我還會繼續用輔助駕駛開車。好好接受智慧駕駛培訓,評估好路況的危險等級,再決定依賴輔助駕駛的程度。
不要讓沒有接受培訓的親朋好友開智駕車。面對高科技的誘惑,只有充分準備好危急時刻該怎麼辦,才有信心決定放開手中的方向盤。
/// END ///
No.6288 原創首發文章|作者 甄科學
作者簡介:作者同名公眾號,甄科學。
開白名單 duanyu_H|投稿 tougao99999
