ここから本文です
Yahoo!ファイナンス
投稿一覧に戻る

テスラ【TSLA】の掲示板 2021/12/11〜2021/12/14

【テスラが完全自動運転のテスターに事故時の映像収集の許可を求める】

11月25日

Tesla(テスラ)の最新のFSD(Full Self-Driving、完全自動運転)では、事故や「重大な安全上のリスク」が発生した場合に、車外と車内のカメラで撮影された映像を同社が収集することへの同意をドライバーに求めている。Electrekの報道によると、同社が特定の車両とドライバーに映像記録を求めるのは初めてのことだ。

Teslaはこれまでにも

FSDの一環として映像を収集してきたが、それはAI自動運転システムの訓練と改善のためにのみ

使用されていた。しかし、今回の新契約によると、

「FSDベータを有効にすることで、私は、重大な安全リスクや衝突などの安全に関する事案が発生した際に、Teslaが車両の外部カメラやキャビンカメラからVIN(車両識別番号)に関連する画像データを収集することに同意します」

と契約書には書かれている。

Electrekが指摘するように、この文言は、FSDシステムが事故の原因とされた場合に備えて、Teslaが証拠を確保したいことを示していると考えられる。

FSD 10.3は、これまでのベータ版よりも広範にリリースされたが、不当な前方衝突警告や予期せぬ自動ブレーキなどの問題が発生したため、すぐに撤回された。当時、CEOのElon Musk(イーロン・マスク)氏は、このような問題は「ベータ版ソフトウェアでは予想されること」とツイートし「社内QAですべてのハードウェア構成をすべての条件でテストすることは不可能であり、それゆえ公開テストを行う」と付け加えた。

米国道路交通安全局は、11月3日にカリフォルニア州ブレアで発生した事故について、FSDが原因で衝突事故を起こしたというドライバーの訴えを現在調査している。このオーナーは、FSDが原因でModel Yが誤った車線に入り、他の車に衝突して双方に大きな損害を与えたと主張している。

現在、FSDシステムはレベル2とされており「完全な自動運転」に必要なレベル4には程遠い。

【結論】

早くも馬脚を顕したテスラの

カメラ

だけを利用した自動運転。結局、テスラの目指す自動運転を担う

カメラ

は事故を避けるために存在するのではなくて

言い訳

に利用されている現実がある。典型的な身から出た錆。