CLOSE

Are Self-Driving Cars Safe?(全1記事)

テスラ車の死亡事故 やはり自動運転は危険なのか?

先日、「テスラ モデルS」のオートパイロットモードを有効にした状態での死亡事故がニュースになりました。はたして、自動運転は危険なのでしょうか? それともほかに別の問題があるのでしょうか?

テスラの自動運転で事故に

ハンク・グリーン氏:先日、米国連邦局がこの種のケースでは初となる死亡事故の調査を発表しました。ほぼ自動運転状態の事故で死亡したドライバーは、「テスラ モデルS」のオートパイロットモードを有効にした状態で事故に遭遇しました。

これまで死亡事故が起こらなかったという事実は、自動運転テクノロジーの実績です。しかしこの事故により、自動運転テクノロジーにも限界があることが示されたのです。

米国運輸省は事故の細部を調査中ですが、基本的なことは押さえています。

ドライバーのJoshua Brownさんはオートパイロットを有効にした状態でフロリダの高速道路を走っていた時、前方のトレイラーが左折を開始。車は停止することなくトレイラーの下に突っ込み、フェンスと電柱に衝突しました。

オートパイロットがドライバーを救うことなく、Brawnさんは死亡しました。

人々は車を運転する時、道の車線に沿って走り、事故を避けるために人、バイク、ほかの車に注意しながら突然の割り込みなどの変化に備えます。

テスラのオートパイロットの特徴は、高速道路での利用が想定されていることで、現在一般消費者向けで最高レベルのコンピューター制御によるドライビングシステムです。

ほかの自動ドライビングシステムと同様、さまざまなテクノロジーを取り入れたシステムで、人と同じように情報を収集し分析することで自ら運転します。GPSシステムが現在地の情報や制限スピードなどの情報を伝えてくれます。

フロントに装備されたカメラやレーダーは、160メートル先の道路をスキャンできます。また、12個の超音波センサーがコウモリやイルカがナビゲートするようにパルスを発信し、車の周囲から5メートルの範囲をマップアウトするのです。

車のコンピューターがカメラやセンサーからのデータを分析し、ラインや道路際の壁、他の乗り物の動きのパターンなど、道路を正常に進むために必要な情報を集めます。

そのデータに基づき車を操作し、近くで起きる突然の変化に備えるというわけです。例えば前方を走るトラックが急停止したら、コンピューターも車を停めます。

コンピューターは人間の能力を超える部分を持っています。例えばあらゆる方向を、集中力を切らしたり疲れたりすることなくモニターでき、反応時間は人の反応よりかなり早いのです。

一方で、人間がコンピューターより優れている点もあります。人は優れた危険予知の感覚を持ち、決定を決断するスキルにかなり長けていますよね。

結局、オートパイロットは安全なのか?

テスラによると、オートパイロットによる2億キロメートル以上の総走行距離で、初めての死亡事故だそうです。一方で人のドライバーによる運転では、1億5,000万キロメートルの走行で1件の死亡事故が起きています。

私の科学者としての意見をいえば、この比較は有効ではありません。テスラは最新の高度な安全システムを装備した、かなり安全性の高い車なので、オートパイロットのオン・オフに関わらず死亡事故は少ないはずです。

米国の車の平均使用年数は10年以上なので、安全性が問題なのです。

もちろん、1台だけのサンプルケースは統計的にまったく意味を成しません。ですが、このコンピューター制御による車は初期段階において、かなり良い仕事をしているのは確かでしょう。

しかし、自動運転システムはもちろん完璧にはほど遠く、テスラはオートパイロットの限界に関してはオープンです。Teslaは、オートパイロットシステムはパブリックベータテストであり、実験段階にあると発表しており、ユーザーが問題の発見に一役買っているといいます。

ドライバーはハンドルを常に手をかけ、必要な時には車をコントロールするとされています。システムがドライバーの手がハンドルから離れていると探知したら、警告音を発し、複数の警告表示を出します。そして最終的には車を停止させるのです。

オートパイロットが安全に対応できない状況はさまざまなので、ドライバーへの注意はとくに重要になります。

例えば積雪時、搭載カメラは道路レーンを認識することができません。また、丘を登っている時はカメラが先の道路を認識することができません。

これらのケースでは、コンピューターは自分自身ですべてを正確に認識できないと判断し、オートパイロットを自動でオフにし、ドライバーに運転を主導するように伝えます。

それ以外にも、道路上の突然の変化にコンピューターが正しい反応できないことがあります。Brownさんの衝突事故もそれが原因で、前方の白いトレイラーが左折をする時、コンピューターが明るい空のためにトレイラーを認識できず、ブレーキをかけなかったのです。Brownさんもブレーキを踏めなかったように。

オートパイロット技術でもっとも大きな心配はテクノロジーに関してではなく、心理的なことです。もしオートパイロットがあなたを救うと信じるとしたら、周りの環境を気にしなくなるでしょう。

Brownさんが乗っていたテスラから、DVDプレイヤーが見つかっています。事故当時にDVDを観ていたかは不明だが、オートパイロットシステムの安心感が招く行動心理なのです。その行為が事実上禁止されているのにも関わらず。

システムの改善のためにさらに調査は必要ですが、それがドライバーの行動にどのような影響を与えるのか、また正しい使い方をさせるにはどうしたらよいかを考えなければなりません。

どちらにしろBrownさんの事故は、オートパイロットのミスではありません。システムが危険な運転をすることで事故を起こしたわけではなく、システムとドライバーが突然の状況変化に気付かなかったことが原因です。

ある面ではソフトウェアが長年の間、生か死かに関わってきましたが、自動運転車については当てはまりません。確かにシステムの実績は良好で、テクノロジーは進歩し続けています。しかし、安全なシステムにするためには運転パートナーとしての人の存在が必要で、しばらくはその状況は変わらないでしょう。

続きを読むには会員登録
(無料)が必要です。

会員登録していただくと、すべての記事が制限なく閲覧でき、
著者フォローや記事の保存機能など、便利な機能がご利用いただけます。

無料会員登録

会員の方はこちら

関連タグ:

この記事のスピーカー

同じログの記事

コミュニティ情報

Brand Topics

Brand Topics

  • 民間宇宙開発で高まる「飛行機とロケットの衝突」の危機...どうやって回避する?

人気の記事

人気の記事

新着イベント

ログミーBusinessに
記事掲載しませんか?

イベント・インタビュー・対談 etc.

“編集しない編集”で、
スピーカーの「意図をそのまま」お届け!