車事
Nov 16, 2021

Tesla FSD自動駕駛系統超有想法,不甩駕駛介入控制方向盤指令,然後就撞車了

Tesla的半自動駕駛系統造成多起事故,因此遭到美國NHTSA調查,但Tesla仍沒放棄自動駕駛研發,並於之前帶來最新Full Self-Driving(FSD)全自動駕駛系統,並開放車主加入FSD Beta測試,但日前一名駕駛卻向NHTSA投訴該系統害他撞車。

Tesla的半自動駕駛系統頗受車主喜愛,但該系統則因無法辨識、無法立即作出反應等於美國造成多起意外事故,對此也遭到美國國家公路交通安全管理局NHTSA調查,不過這並影響Tesla持續研發自動駕駛,甚至於之前還推出最新Full Self-Driving(FSD) Beta全自動駕駛系統,該系統捨棄雷達採用光學影像辨識,除了能車道維持,於路口還能停車辨識,待無來車繼續前行或轉向,但Tesla仍表示該系統實際並非是自動駕駛,駕駛還是必須做好隨時介入準備,而針對這項系統Tesla也採用3C產品模式開放車主加入FSD Beta測試活動。

之前Tesla推出Full Self-Driving最新版本,並開放車主加入測試。
之前Tesla推出Full Self-Driving最新版本,並開放車主加入測試。

日前美國有名駕駛向美國國家公路交通安全管理局NHTSA投訴FSD系統害他遭受危險,該名駕駛表示,他所駕駛的Model Y於公路上進行FSD系統測試,過程中系統都處於正常狀態,後來於轉彎時系統偵測到危險發出警報提醒駕駛,而駕駛當下也介入控制方向盤試圖進行閃避,但殊不知系統卻不遵從指令,執意朝原定方向前進並釀成事故。後來FSD Beta所推出的新版本也傳出不正常作動等災情,對此許多反對人士也痛批邀請車主測試FSD根本就是罔顧他人安全的危險公路實驗,並呼籲NHTSA採取行動及介入調查。

有名駕駛投訴他欲介入控制方向盤,但FSD系統卻執意朝危險方向前進導致撞車。
有名駕駛投訴他欲介入控制方向盤,但FSD系統卻執意朝危險方向前進導致撞車。