城市圖書館|無人車容易車禍?Google實驗:因為人類駕駛很粗心,自動駕駛太守法

城市圖書館|無人車容易車禍?Google實驗:因為人類駕駛很粗心,自動駕駛太守法
2019-05-09
文・《自駕車革命》,霍德・利普曼、梅爾芭・科曼
8985
人類駕駛通常沒有機器那麼謹慎,也非百分之百守法。當一台規矩的無人車想駛入高速公路車流,而不耐煩的人類駕駛不知道無人車會嚴格遵守速限,結果就⋯⋯

2012年秋天,幾位谷歌員工獲准在他們通勤上班的公路路段,使用自動駕駛的Lexus車款。想法是讓人類駕駛開著Lexus上公路,進入車流後穩定行駛在一個車道上,接著就打開自動駕駛功能。

每位員工都有接到警告,這項科技還在開發早期,他們應該在開車路程中百分之百都保持專心,每輛車內都裝設了攝影鏡頭,能夠紀錄整趟車程中乘客與車輛的狀況。

員工對自駕車的反應都非常正面,每個人描述著各種好處,例如不必煩惱公路上尖峰時段的塞車問題、回到家依然神清氣爽可以跟家人好好相處。

當AI在開車,人在做什麼?

但是在工程團隊觀看這些開車回家的影像時,問題就出現了。一名員工完全轉向背對了駕駛座,為了在後座找手機充電器;其他人也把注意力從方向盤移開,就這樣放鬆而自在地享受片刻寧靜的自由時光。

谷歌的報告中講述了責任分攤的狀況,工程師會稱之為自動化偏見(automation bias):「我們在工作中看見人性:人們只要發現科技發揮作用就會很快信任,所以一旦鼓勵他們關閉注意力、放鬆,他們就很難快速接手再放掉駕駛的任務。」

谷歌相信沒有過渡地帶,也就是說人類和機器不該共享方向盤。這話聽來有風險,但其實是在考量顧客安全時最謹慎的前進策略,「自動化」會以兩種方式妨害駕駛:

第一,讓駕駛可以做些次要的工作,像是閱讀或看影片等活動會直接讓駕駛分心而無法注意路況;

第二,會干擾駕駛的狀態意識,也就是能夠在駕駛環境中注意關鍵因素的能力、並迅速做出適當反應。將兩者加起來,就會是一個不知道車外發生什麼事的分心駕駛,就能清楚解釋為什麼「將駕駛責任分攤」會是個危險的想法。

機器和人類在某些情況下可以好好合作,但駕駛車輛不是其中的一個,駕駛之所以不適合迴路中的人類方式,有一個主要原因:開車很無聊,在面對無聊活動的時候,人類非常樂意讓機器接手,於是迫不及待放棄這項任務。

【延伸閱讀】無人車會變「三寶」?五步驟學習和自駕車和平共處

駕駛無法接手,飛機掉進太平洋

我在海軍接受軍官訓練時學到優秀管理的其中一條核心規則,就是絕對不要將極其重要的任務交給兩個人共同負責,這是一個典型的管理錯誤,稱為「責任分攤」(split responsibility)。

責任分攤的問題在於到最後,這兩個必須完成任務的人可能都會覺得放開手也沒關係,以為另一個人會接手完成;如果兩邊都沒有出手相救,結果就會是任務失敗。如果讓人類和機器共同分攤駕駛工作,結果可能很難看。

就算是支持機器與人類合作的麻省理工學院機器人學家大衛.明德爾(David Mindell),也曾描述過一次人類與機器分攤責任而引發的慘劇,這次問題發生在法國航空447班機上,該班機於2009年墜落於大西洋,造成機上228名乘客全部身亡。

後來分析飛機黑盒子發現墜機的原因並不是恐怖攻擊或機件故障,而是在自動駕駛模式要切換給人類機師接手時發生了錯誤。

在飛行途中,飛機的自動導航軟體因為被冰覆蓋而無預警關閉,人類駕駛團隊因為感到疑惑又不常練習,突然要掌控駕駛這趟他們以為一如往常的航班,手上被塞進了意料之外的責任,結果人類駕駛團隊犯下一連串致命的錯誤,讓飛機直直墜進了海裏。

明德爾稱法航447班機事件是「接手失敗」的例子。

【延伸閱讀】自駕車、機器人頻出包,AI是好夥伴還是豬隊友?

無人車出車禍,禍首是人類駕駛

人類注意力不集中是一個風險,另一個讓人類與軟體共享方向盤的風險則是,如果人類沒有常常使用,技能就會減弱,就像四四七班機的機師那樣,人類駕駛如果有機會在方向盤後放鬆,就會欣然接受;而如果一個人幾個禮拜、幾個月、或幾年都沒有開車,然後突然得在緊急狀況下接管方向盤,那個人不只不會知道車外發生了什麼,駕駛技術可能也生鏽了。

讓人類和機器分攤責任會讓人忍不住想去做其他事情,也有所謂的換手問題(hand-off problem),這些都是人類與機器互動中的顯見危險,因此谷歌才會選擇跳過漸進過渡到自動化的方法。

谷歌每個月發布無人駕駛車輛計畫的活動報告,最後以震憾的宣言作結:根據早期部分自動化(partial autonomy)的實驗,公司未來的發展策略將會只專心於達到完全自動化(full automation),「到頭來,我們的測試讓我們決定打造能夠在沒有人類干預的情況下,將我們從A點載運到B點的車輛……每個人都認為要讓車輛自行駕駛很難,是很難,但是在人們感到無聊或疲累時,而科技又告訴他們:『別擔心,有我在……目前啦。』我們認為這種時候要讓人們專心也一樣很難。」

寫作這本書的同時,谷歌的每月活動報告中說明他們的無人車總共發生17次小擦撞事故,還有一次較嚴重的與公車低速碰撞,在這17次小事故中的罪魁禍首並不是無人車,而是其他的人類駕駛。

【延伸閱讀】地狹人稠路況多 為何成為台灣發展自駕車的優勢?

無人車「粗心且不必然守法」,反能減少車禍

但是在2016年2月14日,谷歌車發生了第一次重大車禍,與一輛市區公車的車身「接觸」,這次與前面17次小碰撞不同,這次意外是車輛軟體的錯,因其預測錯誤,以為如果車輛往前走,公車就會停。

諷刺的是,除了這次與公車的碰撞事故之外,谷歌車所發生的其他事故,都是因為谷歌的車輛太會開車了,設計良好的自駕車會嚴格遵守駕駛規則。

這點和人類駕駛就大不相同。人類坐在方向盤後沒有機器那麼謹慎,也不是百分之百守法。常見的意外狀況,都是一台守規矩的谷歌無人車想要駛入高速公路車流,或者是在忙碌的十字路口紅燈時右轉;而不耐久等的人類駕駛,並不知道無人車會嚴格遵守速限或車道變換規則,總會不小心撞上無人車。

幸好到目前為止,谷歌車發生的事故尚未造成損傷。短期之內要避免碰撞最好的方法,就是教無人車的駕駛方式要更像人類一些,要粗心且不守法;而在長遠的未來,要解決人類駕駛問題最好的方法就是以有耐心的軟體取代之,軟體絕對不會從道路狀況上分心。


書名:《自駕車革命》
作者:霍德・利普曼(Hod Lipson)、梅爾芭・科曼(Melba Kurman)
譯者:徐立妍
出版:經濟新潮社
出版時間:2019/1

其他人也在看

你可能有興趣

影音推薦

#廣編企劃|【2023 天下城市高峰論壇 #9】新竹市交通處長 倪茂榮:改善交通,必須先做出優良示範道路|天下雜誌✕未來城市

已成功複製連結