技術是無罪的!這是之前國内一家網際網路創業公司老闆的說法,用他的話說,任何一項技術的産生都是不帶有任何價值屬性的,尤其是由代碼、程式組成的技術,隻是因為使用他們的人,給予了其符合自己需求的屬性和标簽,才讓這些技術有了“善惡”之分!我覺得這幾句話放在剛剛興起的汽車自動駕駛領域,也是同樣的道理,自動駕駛,或者嚴格意義上來說,進階别的駕駛輔助系統,在為未來汽車發展指出方向的同時,在它的“成長”階段,實際上時不時還在“作惡”!

2019年,在美國發生一起特斯拉Model S追尾本田思域造成思域車内兩人當場死亡的案件,而在2021年的10月,相關方面提起對特斯拉Model S駕駛者的告訴,該駕駛員可能面臨重罪!而在這個案件的調查中,一個非常吸引大家注意的點就在于,事故之前這輛Model S是開啟Autopilot,也就是特斯拉的自動駕駛功能。很多人不認可對Model S車主提出重罪指控的原因,就是車輛既然是在自動駕駛的模式下發生的事故,那麼這起事故的責任主體就該是那輛Model S,而不是駕駛者,再引申一點,就是特斯拉本身了,因為出現了事故,至少證明Autopilot的功能是存在缺陷的,否則怎麼可能會出現緻人傷亡的追尾事故呢?
當然在國内,也出現過一些因為開啟進階别駕駛輔助配置導緻事故的案例,1月12日,上海内環高架發生一起四車追尾事故,一輛開啟輔助駕駛的Model 3直接将一輛比亞迪宋Pro DM給“鏟”了起來,前車底盤清晰可見!
之前也出現過有網友在網上曬出開啟駕駛輔助、雙手脫離方向盤的視訊,結果卻被交通管理部門“事後”追責的案例。這些情況其實都說明一個問題,那就是不管是在國内還是國外,盡管因為開啟自動駕駛或者進階别駕駛輔助導緻事故,很多人都會向廠商要說法,但是從結果上來看,普遍認為出現事故之後,責任人都是駕駛車輛的司機,而非車輛本身,當然廠商該不該被追責,那就是另一個層面的問題了。
實際上目前不管是國内還是海外,都沒有真正意義上的自動駕駛,所有的所謂自動駕駛,都是廠商“擦邊球”式的宣傳被一些國人信任廠商的消費者相信罷了。對于很多車主來說,他們認為自己所駕駛的車輛具備一定級别的駕駛輔助能力,便希望可以實作自動駕駛。但是對于很多廠商來說,其實在宣傳相關技術的時候,已經做好了規避責任的“防火牆”,至今我們還沒有見過因為車主開啟自動駕駛或者進階别駕駛輔助造成事故之後向廠商索賠成功的案例。是以在現當下,任何因為相信自動駕駛而造成的結果,都是要駕駛者自己負責的!
從技術的層面來講,如果自動駕駛在一個相對理想的環境下,那麼現在的L3、L4級駕駛輔助配置就完全能實作自動駕駛。但是所謂的理想環境,目前基本上還隻存在于硬體層面,比如高精度地圖支援、反應非常靈敏的雷達系統、規劃合理/劃線清晰的車道線等等,但是唯獨無法被理想化的就是人的主觀随意性。因為當隻有占比很少的車型具備自動駕駛或者進階别駕駛輔助,那麼這些車型本身面臨的周邊環境是非常危險的,因為其他車輛都是由“人”來操作,技術的良莠不齊就不說了,光是這些駕駛者的主觀随意性,就完全有能力成功挑戰這些自動駕駛車型的判斷和決策能力。是以在高智能汽車和傳統汽車融合的階段,駕駛者将方向盤交給自動駕駛或者輔助系統,本身就是對其他交通參與者,也是自身的不負責任。
是以自動駕駛在當下還處在一個起步的階段,或者說還處在“幼年”階段,我們所指的是所有号稱具備自動駕駛的車型,是以在這個階段,所有有自主意識的駕駛者,因為相信所謂的自動駕駛而導緻的事故,都隻能由自己負責!
當然可能大家還有另一種想法,那就是不同學識、不同了解力的車主對自動駕駛的了解是不同的,或者說謹慎的人選擇不相信系統,“心大”的駕駛者選擇充分依賴系統,這種認知上的差别如何界定和平衡?在這樣一個相對“模糊”的時期,也就是規則落後于技術的情況下,駕駛者還是要成為駕駛的主導者,因為不可控因素太多,車輛的系統不可能面面俱到,任何以計算為基礎的技術都不能稱之為智能,隻有人才有真正意義上的智能,我們說一種極端的情況,假定車輛的駕駛輔助系統特别好,但是路面濕滑,輪胎抓地力變弱,車輛系統檢測到了前車,也啟動了主動刹車,但是壓根刹不住,這怎麼算?還能說是廠商和技術的問題嗎?
是以其實從本質上來講,至少在當下,任何因為自動駕駛和進階别駕駛輔助導緻的事故,還是要由駕駛者自己負責,而且從規則層面來講,也是不支援脫離駕駛者的自動駕駛。可能到了未來絕大多數車輛都具備高等級駕駛輔助或者自動駕駛能力的時候,出現事故才能追究廠商和“技術”的責任!