美國警方確認:特斯拉FSD再次“間接導致”致人死亡事故!

財聯社8月1日訊(編輯 黃君芝)今年4月,一輛特斯拉Model S在西雅圖附近撞死一名摩托車手。經美國警方最新確認,這輛特斯拉汽車在事故發生時正處於“完全自動駕駛”(Full Self Driving,簡稱FSD)模式。而這至少是馬斯克大力吹捧的FSD所涉及的第二起致命事故。

據悉,調查人員從這輛車上的事件數據記錄器下載信息後,確認了這一事實。警方在一份聲明中表示,肇事司機已被逮捕,原因是他承認“自己在FSD模式下駕駛時注意力不集中,並且在向前行駛時分心使用手機,相信機器會爲他駕駛”。

特斯拉一再強調,其FSD軟件需要駕駛員主動監督,並不能讓車輛完全自動駕駛。特斯拉CEO馬斯克上週表示,預計到今年年底,FSD系統將能夠在無人監督的情況下運行。多年來,他一直“畫餅”推出無人駕駛出租車車隊,但正式發佈的時間卻一再推遲。

華盛頓州高速公路巡警隊發言人表示,上述案件仍在調查中,目前尚未提起任何指控。

前路艱難

多年來,馬斯克一直致力於實現自動駕駛能力。他此前表示,如果特斯拉明年不能實現完全自動駕駛,他將感到震驚。然而,這項技術受到越來越多的監管和法律審查。

據瞭解,特斯拉擁有兩套部分自動駕駛系統:FSD和Autopilot。具體而言,FSD可以在包括城市街道在內的多種路況下承擔許多駕駛任務;Autopilot則可以保持車輛在車道內並避開前方障礙物。但目前這兩個系統都不能實現完全自動駕駛,駕駛員必須隨時準備接管車輛控制權。

美國國家公路交通安全管理局(NHTSA)於2021年8月開始對Autopilot進行調查,此前發現了十多起特斯拉汽車撞上靜止車輛的事故。於是,NHTSA審查了數百起涉及Autopilot的事故。2023年12月,特斯拉被迫召回幾乎所有在美國道路上行駛的車輛,以增加對該軟件的保護措施。

專家表示,特斯拉依賴攝像頭和人工智能的技術存在侷限性。Guidehouse Insights分析師Sam Abuelsamid表示,特斯拉的攝像頭專用系統“有很多地方可能出問題”:例如它測量物體的距離不準確。

卡內基·梅隆大學(Carnegie Mellon University)電氣與計算機工程教授Raj Rajkumar說:“收集和整理來自各種現實世界元素的數據,比如在各種可能的天氣、閃電、道路和交通狀況下的摩托車和自行車,是一項極具挑戰性的工作。”