天天看點

​特斯拉Autopilot到底安全嗎?

作者:幫甯工作室

"重點始終放在創新上,而不是安全上。

​特斯拉Autopilot到底安全嗎?
​特斯拉Autopilot到底安全嗎?

編譯|楊玉科

編輯|珍

生産|Gangning Studios (gbngzs)

當他在2017年購買特斯拉Model S時,Robin Giulula有一些擔憂,他對汽車的自動駕駛技術有一些懷疑。

"依靠它并讓它自己驅動它有點可怕,你知道的。羅賓向一名美國調查人員描述了他對特斯拉Autoilot系統的最初感受。2018年1月,在評論發表前幾天,Robin的Model S撞上了停在加利福尼亞州州際公路上的一輛消防車的後部,而Autoilot正在啟動。

随着時間的推移,羅賓改變了對Autotilot的懷疑。他發現,總的來說,Autopilot在跟蹤前方車輛時通常是可靠的,但是當面對陽光直射或前方突然變道時,Autopilot系統似乎處于混亂狀态。在接受美國國家運輸安全委員會(NTSB)調查人員采訪時,羅賓回答道。

他告訴調查人員,在趕上消防車之前,他正在向太陽前進 - 這一觀點似乎證明了這一點。NTSB發現,特斯拉自動駕駛儀的設計讓羅賓能夠擺脫困境,當自動駕駛儀啟動時,他的手離開了方向盤近30分鐘。

NTSB此前曾敦促美國國家公路交通安全管理局(NHTSA)調查Autotot的局限性,駕駛員濫用的可能性以及一系列Autotot事故後可能出現的一系列安全風險,其中一些是緻命的。

NTSB新任主席詹妮弗·霍姆迪(Jennifer Homendy)告訴路透社:"事實證明,人們總是專注于創新,而不是安全。我希望這是轉型的開始。她說,特斯拉Autopilot無法與航空業中使用的更嚴格的自動駕駛系統相提并論,後者已經教育訓練了飛行員,并制定了應對疲勞,藥物和酒精測試的比對規則。

根據特斯拉的網站,Autopilot是一項進階駕駛員輔助功能,在目前版本中不允許自動駕駛。在激活系統之前,駕駛員必須把手放在方向盤上并保持對車輛的控制。

​特斯拉Autopilot到底安全嗎?

羅賓的事故是NHTSA正在調查的12起事件之一,其中包括9月13日在佛羅裡達州發生的事件,涉及Autoliot,這是該機構自2015年推出Autoliot以來最深入調查的一部分。

根據nhTSA的聲明,NTSB檔案和路透社看到的警方報告,大多數正在調查的事件發生在天黑後或能見度有限的條件下,例如刺眼的陽光。Autopilot專家表示,這引發了人們對Autopilot适應特殊駕駛條件的能力的質疑。

"當我們發現公共安全存在不合理的風險時,我們将采取行動,"NHTSA發言人在發給路透社的一份聲明中寫道。"

調查自動車道

調查已經開始。

自2016年以來,美國汽車安全監管機構已安排了33個特别事故調查小組,調查特斯拉涉及使用進階駕駛員輔助系統的事故。NHTSA已經排除了在三起非緻命事件中使用Autoliot的可能性。

NHTSA目前對Autopilot的調查提出了Autopilot是否安全的問題。對于特斯拉首席執行官埃隆·馬斯克(Elon Musk)來說,這也是一個重大挑戰。

特斯拉向客戶收取10,000美元的進階駕駛員輔助功能,如車道轉換,承諾最終僅使用攝像頭和進階軟體來實作自動駕駛。其他汽車制造商和自動駕駛公司不僅使用攝像頭,還使用更昂貴的硬體,包括雷達和雷射雷達。

馬斯克曾表示,配備八個攝像頭的特斯拉比人類駕駛更安全。但專家和行業高管表示,相機技術受到黑暗,陽光和惡劣天氣條件(如大雨,雪和霧)的影響。

卡内基梅隆大學(Carnegie Mellon University)電氣和計算機工程教授拉傑·拉傑庫馬爾(Raj Rajkumar)認為,計算機視覺在今天遠非完美,而且在可預見的未來也将如此。

​特斯拉Autopilot到底安全嗎?

2016年,特斯拉在美國佛羅裡達州威利斯頓以西發生了第一起涉及Autoilot的緻命事故。在明亮的天空下,駕駛員和自動駕駛儀都無法識别重型卡車的白色擋闆。特斯拉沒有刹車,而是直撞重型卡車。

路透社審查的檔案顯示,2017年1月,NHTSA結束了對緻命事故的調查,在與特斯拉官員進行了一些有争議的交流後,沒有發現Autoliot的表現存在缺陷。

2016年12月,作為調查的一部分,監管機構要求特斯拉提供Autotoilot提出的任何内部安全問題的細節,包括司機濫用或濫用的可能性,根據監管機構釋出的特别指令。

NHTSA的一位律師發現,特斯拉最初的反應是不夠的。特斯拉當時的總法律顧問托德·馬龍(Todd Maron)再次補充說,他告訴監管機構,這些要求"過于寬泛",他無法列出Autotot開發中涉及的所有問題。

不過,馬龍認為,特斯拉自始至終都保持着合作。在Autoilot開發過程中,特斯拉員工談到了他們對特斯拉偶爾刹車或加速或無法轉向的擔憂,以及司機的一些濫用和濫用,但沒有提供進一步的細節。

NHTSA檔案顯示,監管機構想知道特斯拉如何識别緊急車輛上的閃光燈,或者檢測道路上是否存在消防車、救護車和警車。該機構從12名競争對手那裡收到了類似的資訊。"特斯拉需要生成和驗證資料,以及他們對資料的解釋,NHTSA将獨立驗證和分析所有資訊。

​特斯拉Autopilot到底安全嗎?

作為電動汽車的先驅,馬斯克一直試圖在批評者和監管機構面前為Autoilot辯護。特斯拉還使用Autoilot wireless來更新其汽車軟體,超越并繞過傳統的汽車召回程式。

馬斯克一再推廣autotilot。在一些批評者看來,一些宣傳會誤導消費者,他們認為特斯拉可以做到自動駕駛——相反,車主手冊告訴司機要保持專注,并說明了該技術的局限性。

"為了銷售汽車,一些制造商會做他們想做的事情,這需要政府的監管和控制,"霍曼迪說。

2 秒的分界線

就在聯邦官員審查特斯拉Autoilot的安全性時,一項研究表明該系統如何影響駕駛員的行為。

麻省理工學院的研究人員表示,當自動駕駛儀系統打開時,駕駛員的眼睛會更頻繁地偏離道路,并且時間更長,而不僅僅是人類駕駛。

該研究被認為是第一個使用真實駕駛資料來衡量自動駕駛駕駛員的注意力以及他們正在看的哪一邊的研究。

"這是我們第一次量化自動駕駛儀對駕駛員注意力的影響,"麻省理工學院的研究科學家、該研究的作者之一Pnina Gershon說。從本質上講,資料顯示,當Autoilot被激活時,我們看到駕駛員的視線離開道路的時間更長。"

​特斯拉Autopilot到底安全嗎?

NHTSA正在調查11起事件,其中許多涉及Autotopilot車輛與停止的緊急車輛相撞。特斯拉必須在2021年10月22日之前送出聯邦監管機構要求的書面回複和資料。

這項調查隻是Autoilot更廣泛的安全問題的一小部分。NTSB在調查涉及Autoilot車輛的幾起緻命車禍時表示,Autoilot的駕駛員監督不力且缺乏安全性。NTSB警告說,2級系統可能導緻對人類的過度依賴,即所謂的"自動自滿"。

與特斯拉相關的虐待行為在YouTube上有充分的記錄。記錄顯示,司機閱讀報紙或直接坐在後排,公然無視駕駛任務。

麻省理工學院的研究人員試圖通過分析特斯拉司機手動擡起Autotoilot系統并重新控制車輛的眼睛來量化注意力水準。

研究人員使用車載攝像頭研究了290個這種開關的例子,區分了與駕駛任務相關的那些,面向後視鏡和儀表闆的,以及那些與駕駛無關的例子,例如向下和朝向中央區域。研究發現,自動駕駛模式與駕駛相關的視力比純粹的人類駕駛員少。不相關的目擊事件數量有所增加,其中22%的目擊事件掃描時間超過兩秒鐘,而僅人類駕駛員的掃描率為4%。

兩秒分界線很重要。為了防止分心駕駛,NHTSA建議工程師設計一個系統,確定駕駛員離開視線不超過2秒。Gessen透露,在研究過程中,在五秒鐘内發現了幾隻非駕駛的眼睛。

當駕駛員輔助系統處理駕駛任務時,駕駛員是否能夠安全地保持視線,是特斯拉和其他汽車制造商需要考慮的重要問題。結果表明,現在是考慮這個問題的時候了。

​特斯拉Autopilot到底安全嗎?

2015年,特斯拉推出了第一代Autoilot。2017年,通用汽車推出了超級巡航駕駛員輔助系統。從那時起,許多汽車制造商紛紛效仿,推出了更先進的功能。

新的研究表明,雖然這些2級系統已經上路多年,但汽車制造商并沒有研究駕駛員使用它們或其中一些系統的效果。

Gessen關注系統開發的孤立性,以及這些系統如何影響操作車輛的人。"如果制造商繼續單打獨鬥,我們最終會發現這兩輛車并排行駛,但它們的開發基于不同的設計理念和政策方法,無法在生态系統中有效地協同工作。"是以,我們需要制定一項政策,說明資訊系統設計人員應該向消費者傳達哪些資訊,消費者根據直覺資訊做出一些驅動決策,"Gessen說。"

首先解決安全問題

這位美國首席事故調查員敦促特斯拉在擴大其自動駕駛能力之前解決安全問題。

在接受《華爾街日報》采訪時,霍曼迪說,"完全自主"這個詞是"誤導和不負責任的"。《華爾街日報》認為,營銷可能比汽車手冊中的警告吸引更多的關注。

"無論是特斯拉還是其他公司,這些制造商都有責任誠實地說明他們的技術能做什麼和不能做什麼,"霍曼迪在8月13日宣誓就職以來首次接受彭博社采訪時說。她繼續贊揚特斯拉在之前的NTSB調查中的合作,稱她不想單獨挑出特斯拉說什麼。

例如,她說,各種汽車的電視廣告給人一種錯誤的印象,即汽車可以自動轉彎和刹車。"我驚呆了。霍曼迪說。

​特斯拉Autopilot到底安全嗎?

解決這些駕駛員輔助系統的安全性是The Homandi的"長清單"舉措之一。"我們有一個偉大的過去,但我們必須展望未來。"我們正處于一個轉型和變革的時代,我聽說過很多關于創新和投資的事情,但我沒有聽說過太多關于安全的事情,"她說。這是切入點,安全必須是重點。"

盡管Autopilot的名字和馬斯克的精心介紹,但事實是Autopilot在技術上并不具備"全自動駕駛"的能力。事故的不斷發生和生命的損失繼續證明了這一點。

"NHTSA提醒公衆,目前市場上沒有可以自動駕駛的機動車輛。該機構的一位發言人在一份調查聲明中說。

目前尚不清楚NHTSA是否能夠糾正特斯拉的行為。發言人補充說,所有州法律都要求人類駕駛員對車輛的操作負責。

由于特斯拉過度推廣駕駛員輔助系統功能會帶來如此多的危險,更有效的限制措施可能來自聯邦貿易委員會等實體。上周,兩名參議員呼籲聯邦貿易委員會調查特斯拉是否利用欺詐性營銷将公衆置于危險之中。

8月13日,美國汽車安全監管機構對特斯拉Autoilot展開了初步調查。根據NHTSA的檔案,調查涉及2014年至2021年的Model Y,Model S,Model X和Model 3車型,估計影響了765,000輛汽車。

該機構的ODI辦公室表示,自2018年1月以來,已确認了11起事件。在這些事故中,各種特斯拉車型在第一反應現場附近行駛,然後在現場撞上了一輛或多輛汽車。除了11起事件外,該機構的報告還提到了17人受傷和一人死亡。

(汽車新聞,路透社和彭博社部分報道,部分報道在網絡上))