自動運転技術搭載車の死亡事故で最も大切なこと

 今、最も世の中的に注目を集めながら、最も“わかりにくい感”のある車の技術が「自動運転」かもしれない。なかでも、議論の的となっているのが「自動運転で事故が起きたら、その責任は人にあるのか、車にあるのか」という問題。そうしたなか、2018年に入ってウーバーの自動運転実験車が関わる死亡事故やオートパイロット作動中とみられるテスラ車が関わる事故なども発生。一般紙報道では「自動運転」や「半自動運転」という言葉が使われている(ここがまたややこしい)。しかし、この2つの事故は“似て非なるもの”なのだ。

文:西村直人/写真:shutterstock.com、編集部、TOYOTA


ウーバーの実験車と運転支援技術は「別物」

 この件について、最初にはっきりと申し上げておきたいことが2つあります。ひとつ目は「半自動運転」という言葉は存在しないということです。

 半自動運転を正確に定義するなら、それは走行領域を限定した「自動走行状態」となり、だからこそ一定の範囲(≑システムの許容範囲)を越える状況になった場合には、ドライバー(人)による運転操作が不可欠です。

 ふたつ目は、現時点で発生している“実証実験車による事故”と、すでに普及が進んでいるACC(いわゆる先行車追従型のクルーズコントロール)をはじめとした、“運転支援技術の誤った使い方(≑設計思想にないNGとされる使い方)による事故”は、根っこからしてまったく別物だ、ということです。

 よって、こうした一連の事故だけを捉えて「自動運転はダメだ」というレッテルを貼るのは早計です。以下、具体的に掘り下げます。

責任は「人か車」の片方だけにあるわけではない

 まず“実証実験車による事故”。報道によると2018年3月、米アリゾナ州でウーバーが主体となって行っていた自動運転の実証実験で、テスト車両(ベースはボルボ XC90)が自動運転中、公道を斜め横断する自転車を押していた歩行者をはね死亡事故を起こしたとあります。

ボルボ XC90をベースにするウーバーの自動運転実験車。
ボルボ XC90をベースにするウーバーの自動運転実験車(Photo/shutterstock.com)

 亡くなられた方にはお悔やみ申し上げるとともに、実証実験車における公道テスト走行は、残念ながら100%安全な運転環境を担保するものではない。つまり、自律自動運転システムをもたない一般の車両と同じように事故発生の可能性があることが明らかになりました。

 また、このことはそうした事故発生の可能性を根絶するために、公道で実証実験を行うという大義を知らしめる結果にもつながっています。

 事故原因は、米国の国家運輸安全委員会などが調査を行っています。一方で、事故発生時の車内動画が当時WEB上に公開されており、そこでは監視義務を負い、不測の事態には緊急停止ボタンを押すことができるスタッフが同乗していること、そして、そのスタッフの顔が下を向いた直後に事故が発生したようにも見受けられます。

 この動画を見た方のなかには、「スタッフがよそ見をしていた」、「監視義務を怠った」から“人に責任がある”という意見のほか、「車載センサーが反応しなかった」から“車に責任がある”というコメントがあがっていますが、自律自動運転の実証実験車を開発された方々への取材や同乗試乗を行ってきた筆者は少し違った意見をもちました。

 即ち、今回発生した実証実験車の事故を「人と車、どちらか一方だけの責任論」で幕引きすることや、開発が進む自律自動運転技術に対して「自動運転は危険」を論ずるには違和感があるからです。

“責任論”より事故原因の究明が先決

 事故を起こした車両そのものを取材したわけではないので、これまでの経験則を前提とすれば、ウーバーの事故では確かにスタッフの顔が下を向いています。

 しかし、その視線の先にセンサーの作動状況を示すモニターや周囲の道路環境を写し出しているPCモニターの類いがあったと考えれば、それは実証実験車を走行させるために必要なプロセスの一環だったのではないか……。

 これは筆者の単なる憶測ではありません。

【図】SAE(米国自動車技術会)による自動運転のレベル分け。日産のプロパイロット、テスラのオートパイロットなどは「レベル2」に該当
【図】SAE(米国自動車技術会)による自動運転のレベル分け。日産のプロパイロット、テスラのオートパイロットなどは「レベル2」に該当。出典:国土交通省

 これまでSAEレベル1~5(図)の車両について開発者への取材や試乗を行ってきましたが、国内外の乗用車/大型トラックに実装された自律自動運転システムには、複数のモニターやデジタル計器類が不可欠。

 同乗スタッフはそこからの情報をもとに自律自動運転システムが正しく機能しているか否かを判断しています。

 そして、正しい運転操作が行われないと同乗スタッフが判断・予測した場合には、運転操作の権限を自律自動運転システムから同乗スタッフ(人)へと移譲(「オーバーライド」と言う)されることになっています。

 でもそうなると、「ウーバーの実証実験車両はレベル4を担保するので、人の介入は想定していないのでは……」という疑問がわいてきます。

 確かにSAEの定義では“限定領域内で人への移譲を求めず”、安全な運転環境の継続は“システム責任”とあります。

 しかし、現段階は実証実験レベル。交通事故ゼロ、死傷事故ゼロを大きな目標のひとつとして掲げる自律自動運転の実現(実証実験ではなく市販化)に向け、世界中の自動車&部品メーカーや産官学連携の大規模プロジェクトがいくつも動いている最中なのです。

 よって、こうした実証実験での事故を背景に、今もっとも望まれることは、

1.通常の交通事故発生時と同じプロセスで事故の発生原因を究明する

2.システムの異常(バグ)が原因かどうか究明する

3.より安全な実証実験の運用プロセスを確立する

 この3点です。死亡事故となるとどうしても感情論が先に出てしまいますが、事故/死傷者ゼロという大きな目標の早期実現には何よりも建設的な議論が必要です。

「運転支援技術」による事故の責任は?

“運転支援技術”オートパイロットを搭載するテスラ モデルS。
「オートパイロット」を搭載するテスラ モデルS。現在、ACCを搭載する市販車は、ほぼ全て自動運転レベル1~2に該当。自動運転の実証実験車とは“別物”なのだが……

 次に“運転支援技術による事故”(編注:レベル2以下の運転支援技術)。これはもう責任の所在が明らかであり、一義的には誤った使い方をされたドライバーにその全ての責任があります。

 監視義務はいかなる場合でもドライバーにあるのです。しかし、自動車メーカーとしてもまったく責任がないかといえば違います。

 過大、誇大なる表現方法によって、あたかも我々が目指すべき自動運転の定義に則った技術をすでに実装しているかのようにユーザーへと告知することは、副次的に誤った使い方を助長することになりかねません。

 2018年4月、日本では「衝突被害軽減ブレーキに関する認定制度」がスタートしました。

 これは、いわゆる「サポカー」の普及促進に加え、自動ブレーキに対する過信を防ぐために自動車メーカーからの要望に応じて制定されています。

 この先も、しばらくの間、軽微なものを含めれば実証実験車による事故はゼロにはならないでしょう。しかし、事故/死傷者ゼロという大きな目標があります。

 でも、だからといって自律自動運転技術を確固たるものにする開発期間に発生する事故を正当化する理由にはなりません。

◆自動運転の鍵!! 人工知能の開発についてトヨタがコメント

こちらはトヨタが2018年1月に公開した次世代の自動運転実験車(ベースはLS 600hL)
こちらはトヨタが2018年1月に公開した次世代の自動運転実験車(ベースはLS 600hL)

 2018年5月15日、トヨタは、自律自動運転開発のデータ分析範囲における民間企業との提携を発表しました。

 その2日後に開かれた記者説明会でトヨタの平野洋之氏(自動運転・先進安全統括部)は、自律自動運転の開発について、

 「人が想像できる範疇での技術開発には限界があります。例えば、自動運転と密接な関係にある人工知能の開発現場では、1.ひとつでも多く実用的なデータを収集し、2.正確に分析、3.そして実装していくプロセスが大切です」

 「よって人工知能では、その鍵となる画像認識の分野をステップアップさせていくことが、自動運転の早期実現に向けた王道だと考えています」

と語っています。

(編注:人工知能の開発プロセスをトヨタとして明言するのは異例。そのため自動運転を巡る動きの最新情報として、本記事に記載しました)

最新号

Boosterpackdepot最新号

総勢40台超! 誌上モーターショー2018 Boosterpackdepot11月10日号

 2018年10月10日、「Boosterpackdepot」最新号(11/10号)が発売。今号は誌上モーターショー2018と題し、イタルデザインが手がけ日本初公開となった「GT-R 50 by italdesign」の生写真、そして国産8メーカーの今後世に出る…

カタログ

www.pillsbank.org

www.baden-medservice.com/nedvizhimost-v-baden-badene/

eurobud.com.ua/metallocherepitsa-maksima-slovakiya/