「自動運転っぽいけど、ちゃんと見とけよ?」
──そんな曖昧すぎるシステムがついに訴えられた!そして、テスラ側に360億円の賠償命令!!💥
⚖️ 陪審団「テスラも悪い」→360億円の賠償命令!
-
事故発生:2019年 フロリダ州
-
車:テスラ(運転支援システム起動中)
-
状況:T字路・赤信号点滅・一時停止標識
→ 時速100kmで突っ込んで別車両に激突⚡ -
結果:通行人2人をはねて
→ 女性死亡、男性重傷
📱 しかも運転手、スマホ拾ってて前見てなかったってよ!
「スマホ落としたからちょっと前見てなかった」
→ AIにすべてを委ねた悲劇
でも陪審団はこう言った:
🚨「責任は3分の1がテスラ、残りは運転手」
🤖 テスラの罪とは?
-
自動運転システム「Autopilot」
→ 実際は“運転手の監視必須” -
だけど、まるで全自動っぽく見える設計
→ 「誤解させる設計が問題」と指摘
🚨 ネット民の声(妄想)
-
「やっぱテスラ過信しすぎたんよ…」
-
「それ自動運転じゃなくて“運転支援”な?」
-
「スマホ拾ってた運転手もやばいけど、テスラの広告もわかりづらすぎww」
-
「360億てwwイーロン泣いてるやろ」
🧑⚖️ テスラCEOマスク氏「控訴する!」
裁判結果を受けて、イーロン・マスクは控訴の意向を表明。
全面対決へ突入🔥
📌 結論:未来は近いが、まだ完全自動運転じゃない
テスラに乗ってるみんな!
「完全に任せる」のはまだ早い!!
360億円の教訓:「AIに運転を全部任せたら、マジで命取る」
https://news.yahoo.co.jp/articles/280a8034250930b96af52bf7a9b731a2ed9db278
🤝 コミュニティアクション
📋 このシステムについて:
• すべてのアクションは記録され、著者と管理者に通知されます
• 建設的なフィードバックが記事の改善に役立ちます
• 一定数の削除提案があった場合、管理者が内容を確認します
Leave a Reply