自動運転の研究開発企業CEOコメントより

「エッジケース」で思考停止も!完全自動運転(AV)は結局無理か(ロイター編集)

人工知能による自動運転の課題と可能性について考える。(自律覚醒人工知能による解決策)

はじめに

米国の自動車会社CEOの話である。現在の自動車の自動運転にはディープラーニングの理論が使われている。しかしCEOは「現在の自動運転では市街地を走らせるには危険である」とのコメントを発表した。例えば読者が自動車を運転しているとして、目の前の道路で、ボールが左側から飛び出して、右端まで転がって止まったとする。この時自動運転AIは、道路に障害物(ボール)が無くなったので減速せずに加速するかもしれない。ところで読者はこの時どのような行動をとるだろうか?きっと多くの人はブレーキを踏んで減速するだろう。それは「ボールの後に子供が飛び出してくるかもしれない」と考えるからである。もし子どもが急に飛び出して来たらAIは人身事故を起こす可能性がある。

ディープラーニングはひとつのカテゴリーで管理された知識しか扱えないAIである(評価作用は複数項目で可能だが知識管理はひとつである)が、人は多くのカテゴリーの知識を合わせて評価(思考)することができる。安全に運転する制御は『運転知識』であるが、先の例の「ボールの後に子供が飛び出してくるかもしれない」と考えたのは、「子供はボールで遊ぶ(追いかける)」という『生活知識』からである。ディープラーニングはひとつの知識しか扱えないので、運転知識だけで判断することになる。

自律覚醒人工知能では、複数のカテゴリーの知識をひとつの頭脳で同時に評価することが可能である。先の例の『運転知識』と『生活知識』を同時にひとつの頭脳で評価することができるので、ボールが飛び出して来た場合は、子供がボールを追いかけて飛び出すことを予測して、減速する行動をとることになる。他にも、走っている目の前の道路を「親猫が横切った」場合も「子猫が続いてくる」ことは私達なら予測できる。これも『生活知識』であり、自律覚醒人工知能は異なる複数の知識の同時評価が可能である。

第1部 エッジケースへの対応

1.序章

自動運転の研究や開発を行っている企業のCEO数名の自動運転についてのコメントの解説記事として、

『人より安全に運転できるAVを製造するのは極めて困難なのだ。その理由は単純で、自動運転ソフトウエアには、人間のように迅速にリスクを評価する能力が欠如しているということだ。とりわけ「エッジケース」と呼ばれる想定外の出来事に遭遇した際に思考停止してしまう。』との提言がある。

2.思考遷移の停止

「エッジケース」とは『値や現象が限界ギリギリなどで、特別な問題を含む可能性がある状況。システムが直面するめったにない状況のこと(某説明サイト)』である。従来型の知識ネットワーク探索型AIでは、AIが判断する知識同士は、思考遷移回路として、ネットワーク状に結束されている知識モデルが一般的である。単純に考えれば、「エッジケース」の知識が無い場合は、記事解説にもあるように、人工知能の思考探索遷移はそこで「思考停止」してしまう。

3.脳死状態で知識修正

新たな「エッジケース」に出会った場合は、人工知能に新たなケースに対応した「知識を組み込む」必要がある。従来型の知識ネットワーク探索型人工知能では、知識同士が思考遷移回路で結束されているために、新たな「知識を組み込む」場合には、知識に来る結束元や、知識から遷移する結束先を調整する必要がある。知識全体の見直しが発生する可能性もある。追記であるが「知識を削除」する場合も同様で、知識に繋がっていた結束端や、知識から遷移していた結束先の扱いを調整する必要がある。「知識を組み込む」単純な方法では、一度人工知能を止めて、知識の修正作業を行った後に再起動させる。動いている人工知能を止めることは人間で言えば『脳死状態』にすることである。人が、物事や新しい知識を覚える時には上記のような手順は行っていない。そうなる根本的な理由は、人工知能の知識同士がネットワークで結束されているからである。

4.自律知識細胞の主体学習

自律覚醒人工知能の『自律知識細胞』は、知識同士は結束されていなくて、個々の知識は独立して存在している。自律覚醒人工知能が「エッジケース」に出会ったときは2つの特異性を持つ。

ひとつ目は「エッジケース」に対応する知識が無かった場合は、自律覚醒型人工知能が持つ『主体学習』作用により、人工知能が動いたままで知識学習を行うことである。『主体学習』とは、自律覚醒人工知能の知識自身の学習意欲が高まり(必要性に迫られ)、知識自身が主体的に、オペレーターや周辺装置に学習行為を求める作用である。

5.自律知識細胞の即時性

ふたつ目は自律覚醒人工知能が『主体学習』作用により、新たな知識を学習した場合は、新しい知識は直ぐに人工知能の『自律知識細胞』として動き出す。人工知能を再起動する必要は無い。自律覚醒人工知能の個々の『自律知識細胞』は独立して存在しているので、知識の追加や削除の作業で、他の知識を意識しながら行う『遷移回路の調整』は発生しない。但し、知識を変更した場合は推論結果が変わるので、教育者は人工知能と対話して、責任を持って推論結果の正誤確認と修正を行う必要がある。

6.同位性知識の予想推論(想像推論)

「エッジケース」が発生した場合は、自律覚醒人工知能は『主体学習』作用以外に、『予測推論(想像推論)』作用を働かせることができる。『予想推論(想像推論)』とは、直接的に知識の連携関係はないが、同じ意味的方向を向いている(同位性の)別の知識を活性化する作用のことである。

7.結論

人が教習所で車の運転を習うときは、構造知識も交通法規も運転技術も持っていない。受講者が教室で講義を学ぶだけでなく、路上教習で車を運転しながら学ぶことも多くある。人工知能も同じように、教習所で車の構造知識や交通法規や運転操作を学んで、路上教習でも多くのことを学びながら、自動運転の技術を身につけることが必要であると思われる。

第2部 多様性知識の同時評価

1.序章

自動運転の研究や開発を行っている企業のCEO数名の自動運転についてのコメントの解説記事として、

『自動運転システムが人間に劣るのは「感知・予想アルゴリズムが、人間の頭脳による処理・判断ほど優秀ではない」からだ。例えば、人間なら車道にボールが転がってきた場合、それ自体は無害でも続いて子どもが飛び出してくる可能性を想定し、AVよりもずっと素早くブレーキを踏むという。』との提言がある。

2.基本知識の推論

人工知能で上記の制御だけを実現するならば、知識は以下のルールで可能である。

 運転知識(障害判断の知識)

  A『子供(人間)は保護対象』

  B『ボールが走行障害にならなければ無害』

  ※画像認識やブレーキ制御は別の装置で行い、人工知能は判断の推論だけを行うとする。

画像認識機能が『子供(人間)』を認識した場合は、AIは保護対象と判断して、ブレーキ制御装置に抑制指示を出力する。しかし画像認識機能が『ボールが転がる』ことを認識しても、ボールが道路の反対側の端まで転がってしまうとボールは障害物ではなくなってしまい、AIは無害と判断して、ボールに当たらなければ、ブレーキ制御装置への抑制指示が出力されないので速度は落ちない。

3.予想外の事象

記事でも説明しているとおり、その後に続いて『子供が飛び出して来た』場合を考える。人工知能は『子供が飛び出して来た』ことを画像認識機能が認識した時点で、初めてブレーキ制御装置への抑制指示を出力することになる。状況的に回避が間に合わない可能性もある。

ところが人なら『ボールが転がって来た』ことから、『子供が飛び出して来る』かもしれないことを予想して、直ぐに止まれる速度までブレーキ抑制できる。これは生活知識として、人が生活環境で『子供』と『ボール』の関係を理解しているからである。人工知能の運転専門の運転知識には、単に個々の対象物に対して抑制ルールを定義したもので、『ボール』と『子供』を関係付ける知識が存在しない。

4.拡張知識 

では生活環境の知識を拡張した場合はどうであろうか。

 運転知識(障害判断の知識)

  A『子供(人間)は保護対象』

  B『ボールが走行障害にならなければ無害』

 生活知識(生活環境での知識)

  C『子供はボールでよく遊ぶ』

人工知能の知識構築では、障害判断を行う『運転知識』と、生活環境を表す『生活知識』は異なるカテゴリーなので別の知識として構築される。勿論、多変量解析や重回帰分析などの統計式を使えば、異なる要素を同じ知識の中で表現する事は可能であるが、知識の進化性や拡張性を容易にするためには、異なる要素を個々に知識管理する方が適している。

上記の知識例では、「知識A」と「知識B」は運転操作の判断評価を定義している運転知識であるが、「知識C」は直接、運転操作の判断評価を定義している知識ではない。つまり前者とは知識の尺度(単位や目盛)が異なる。知識がネットワーク型で結束構成されて人工知能では、「知識A」「知識B」と「知識C」の、『知識の尺度』『評価粒度』『知識の親和性』が異なるので、同じネットワーク上で定義することが難しい。異なるカテゴリーで知識化された別々の多様性な知識を、俯瞰統合的に架橋同時評価する仕組みが必要である。

5.想像推論(予想推論)

自律覚醒人工知能では、異なる知識でも俯瞰的に架橋同時評価ができ、知識の同位性が高い知識を連携覚醒させる『想像推論』作用を行える。「同位性が高い」とは、知識が活性化する時の「活性化ベクトル」が近いという意味である。「活性化ベクトル」は、知識が活性化する時の「覚醒細胞の覚醒状態」と「活性化の意思属性」で構成されている。この『想像推論』作用を用いれば以下の機能を実現することができる。

6.想像推論の予想制御

 運転知識(障害判断の知識)

  A『子供(人間)は保護対象』

  B『ボールが走行障害にならなければ無害』

 生活知識(生活環境での知識)

  C『子供はボールでよく遊ぶ』

①『ボールが転がって来た』のを画像認識機能が認識して、人工知能に伝達する。

②人工知能は「ボール」という同位性の同時評価により、異なる「知識C」が活性化される。

③人工知能は「知識C」の活性化により『ボール来た』ということは『子供も来る』と想像推論する。

④人工知能は「知識A」を評価して、ブレーキ制御装置に抑制指示を出力する。この場合は「予想結果」なので、即時停止できる速度への抑制力で出力する。

※「親猫が道路を横切った」後に「子猫が飛び出してくる」かもしれない予測も『生活知識』があれば予測推論が可能である。

7.結論

最初に提起した記事は『人間なら車道にボールが転がってきた場合、それ自体は無害でも続いて子どもが飛び出してくる可能性を想定できる』である。人工知能は教えられた知識通りに推論していくので、社会で実用できる知識にするには「想定」できる異なるカテゴリーの知識を多く構築する必要がある。(多様性知識の構築)

人間の思考は、ひとつの指標(カテゴリー)に属する知識だけで行っているのでは無くて、異なる世界で学習した集約知識も無意識に活用している。人工知能にも、異なるカテゴリーで学習された知識群を、俯瞰架橋的に同時に推論活用できる能力が必要である