driverless car
圖片來源:Pixabay/CC0 公共領域

儘管自動駕駛汽車正在全球許多城市部署,但持續存在的爭議繼續對其部署構成挑戰。

最近,特斯拉召回超過200萬輛汽車在美國監管機構發現其駕駛員輔助系統有問題後。特斯拉不同意美國國家公路交通安全管理局(NHTSA)的分析,但同意增加新功能。

特斯拉的自動駕駛系統並不是完全自主的,因為人類駕駛必須始終在場。但自主,已經在舊金山和鳳凰城等美國多個城市部署為無人駕駛計程車,或稱為「機器人計程車」。

通用汽車旗下的機器人計程車公司 Cruise 最近推出了加州營運許可證被吊銷經過短短兩個月的收費操作。公司隨後停止營運他們的執行長很快就離開了美國。

在此之前發生了幾起備受矚目的事件。十月,一輛巡航車拖曳行人他們被另一輛車撞到了路邊。正如該公司網站所解釋的那樣:“自動駕駛汽車檢測到碰撞,將車輛停下來;然後試圖靠邊停車,以避免造成進一步的道路安全問題,將人向前拉了大約 20 英尺。”

但也曾有過幾起報告病例自動駕駛汽車在路上停下來,包括在附近有緊急車輛的情況下。

停機問題

這些事件凸顯了自動駕駛汽車一旦遇到問題就會立即停在路中間的傾向。正如人類駕駛員所知,這樣做並不總是安全的,並且可能會在道路上造成更大的問題。

汽車軟體的這種行為觸及了更深層挑戰的核心:如何設計自動駕駛汽車,使其對駕駛和道路行為的理解與人類一樣好?

我們的 研究我們匯集了日產設計自動駕駛汽車的經驗,並採用了一種使用影片來了解駕駛行為的新方法。我們使用自動駕駛汽車的影片記錄來了解這些車輛在道路上犯下的錯誤。

如前面提到的事件所示,自動駕駛汽車對道路的感知不一定與人類相同。自動駕駛汽車建構了一個簡化的世界圖景它忽略了現實社會世界的大量細節。自動駕駛系統辨識世界透過抽象類別,如汽車、騎自行車的人、行人、卡車等。

上面的每一個人形斑點被認為是行人,缺乏人類司機可能依賴的差異,例如一個人是否在遊行示威,或在追趕公車。我們人類的視力從童年起就受到訓練,我們希望其他人以與我們相同的方式看待事物。

考慮一下被機器人計程車拖著走的行人的情況。如果您可能撞到某人,您可能無法直接看到您的車剛剛撞到的人,但您知道他們並沒有消失。我們的客體持續感會引導我們停下來檢查那個人是否需要醫療照護。

此類情況是在軟體產業中被稱為“邊緣案例”:開發人員未預料到的相對罕見的情況。

支持自動駕駛汽車的一個基本假設是異常情況的數量是有限的。但我們有充分的理由認為,現實世界根本不是有限的,而且總是會存在全新的、前所未見的邊緣情況。

微妙的行為

當人類遇到全新的情況時,我們會判斷該做什麼。我們不只是執行與記憶中「最相似」的情況相關的行動。

自動駕駛汽車缺乏這種判斷力,因此要么做出猜測,要么採取所謂中立或安全的解決方案:停車。在我們對自動駕駛汽車的影片記錄中,它們在異常情況下最常見的行為就是簡單地停在路上。

然而,在路上停車可能不一定是最安全的選擇,尤其是在消防車前停車時。這不僅阻礙了交通,而且本身也造成了危險。我們的影片包含在最平常的情況下這種「停止」的範例,例如在四路停車處,駕駛員緩慢進入路口,或交通錐體稍微錯位。

對於人類駕駛來說,我們可以透過手勢、使用喇叭,甚至只是朝特定方向看一眼來解決這類誤解。然而無人駕駛汽車卻無法做到這些。事實上,他們對人類意圖的持續誤解意味著基本問題實際上更常見。

雖然我們對自動駕駛汽車的安全性表示嚴重擔憂,但我們也擔心自動駕駛汽車無法處理許多普通的交通情況,從而阻礙和擾亂交通。

在最近的一篇論文中我們提出了一些設計自動駕駛汽車運動的潛在解決方案,以便其他道路使用者更好地理解它們。我們討論了五個基本運動要素:間隙、速度、位置、指示和停止。

這些元素可以組合在一起,向其他道路使用者提出和接受報價、顯示緊迫性、提出請求和顯示偏好。

無論自動駕駛汽車未來的可能性如何,研究人員都需要在更廣泛地部署自動駕駛汽車之前解決這些問題,並且同樣的「停止」問題會在全球範圍內重複出現。

本文轉載自對話根據知識共享許可。閱讀原創文章The Conversation

引文:遇到問題時預設停車的無人駕駛汽車可能會導致道路混亂(2024年1月4日)檢索日期:2024 年 1 月 4 日取自 https://techxplore.com/news/2024-01-driverless-cars-default-encountering-problem.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。