MIT–IBM Watson AIラボが最新研究の一部を発表 次のAI「Broad AI」とはなにか?
IBMはMITとの連携のもと、人工知能(AI)に関する研究機関「MIT–IBM Watson AIラボ」を2017年に設立した。IBMの歴史の中でも過去最大級、10年間にわたり2億4,000万ドルの投資だ。AIの潜在能力を引き出す科学的ブレークスルーの促進を目指し、研究所はMITに近い米国マサチューセッツ州ケンブリッジにある。
5月16日、同研究所の主要なメンバーが来日し、取り組みや具体的なテーマ、AIに関する最新の研究内容や将来のAIの拡張、現状のAIの問題点・課題などを記者向けに発表した。
10年間でAI研究に2億4,000万ドルを投資
「MIT–IBM Watson AIラボ」はIBMにとって最大級の産学連携のプロジェクトとなる。2億4,000万ドルを投資し、100名以上の研究員が50近いプロジェクトで活動している。
冒頭に登壇した日本IBM 執行役員の森本氏は「総務省の調査では産業へのAIの浸透率は14%程度と言われていてまだまだ少なく、むしろこれから普及期に入ると言える。MIT–IBM Watson AIラボは、既に普及しはじめているAIではなく、これから必要な次の高度なAIの研究を目指し、重要な技術的な基礎を打ち立て、産業に応用されるものとして世の中に送り出していく」と語った。
発表会にはIBMリサーチから2人のDirector、ギル氏とコックス氏が、MITからはトラルバ博士が登壇した。
次のステップは「Broad AI」へのシフト
ダリオ・ギル氏はAIという言葉の定義をまずは明確に示した。現在普及が始まっているディープラーニングなどのニューラルネットワーク技術を「Narrow AI」(狭いAI)とし、研究者や科学者が目指す超知能なAIを「General AI」(汎用人工知能)とした。General AIの登場はまだまだ先の話しだ。現在の「Narrow AI」に対して、次のステップとして「Broad AI」(広いAI)の実現を目指していくとした。
「Narrow AI」がひとつのタスク(作業)に特化し、時には人間を超えるような機能を発揮するのに対して、「Broad AI」はマルチタスク(複数の作業)をこなすものになっていく。「Narrow AI」が膨大なビッグデータから学習するのに対して、「Broad AI」は少ないスモールデータでも学習できるようになる。そして、キーワードのひとつとして「Neurosymboric System」(ニューロシンボリック・システム)をあげた。「Learning」と「reasoning」がキーとなる。
「Broad AI」(広いAI)へのシフトの実現を目指し、186のプロポーザル、19のテーマ、23の学部が関わり、100名の研究員が取り組み、幅広い分野に向けて10年の長期にわたって維持する2億4,000万ドルのプロジェクトが進行中だ。
「Broad AI」は具体的にどのようなものなのか、「Neurosymboric System」の解釈について、アントニオ・トラルバ氏とデイビッド・コックス氏により解説された。
MITではAI専攻の学生が急増
MIT-IBM Watson AIラボ Directorであり、MITの教授でもあるアントニオ・トラルバ氏は、MITの学生数は約1万人くらいだが、2010以降、ニューラルネットワークと機械学習による革新が注目されてから、コンピュータ・サイエンスとAI(機械学習)を履修する学生が一気に増えたという。今ではMITのほとんどの学生がAIに関わる授業を一度は履修していて、学生たちはAI分野にとても興味を持っている、と説明。
MITはもともと保守的だったにもかかわらず、現在はAIの研究に大きく傾倒していることは画期的なことで、それだけこんれからの社会にAIの研究と技術が重要だと考えていることがわかる、とした。
「なぜ今なのか?」と問われれば、コンピュータのパワーアップが著しく、新しいアルゴリズムが登場して向上、人間の脳への理解も深まっている・・それらを統合して、過去60年間、伝統的なAI研究からステップアップし、知性のための新たなアルゴリズムを研究開発するには今が最適だと判断している、と解説した。
「Broad AI」実現のための5つのキーワード
IBMリサーチ / MIT-IBM Watson AIラボのデイビッド・コックス氏は、「Narrow AIは限られた領域でさまざまなことができるようになった。インパクトはあるものの、ただし、まだまだ限定的。一方でGeneral AIはSF(サイエンスフィクション)の中の話。実現は遠い先で2050年以降の登場となるだろう。これから有望なのはその進化の工程で中間にあたる「Broad AI」、複数の領域で使われるAI。音声、自然言語、データ(構造化/非構造化)など、マルチモーダルで分散された環境で実行できるものになる。業界を問わず、モバイルでも使えるもの」とした。
その上で、今後「Broad AI」の実現に必要なものとして「説明性」「安全性」「倫理」「スモールデータから学ぶ」「インフラ(産業性)」と5つのキーワードを上げた。
「説明性」は、AIがなぜそのような予測や判断をしたのかを説明する能力だ。多くの業界でAIがPoCで試されているのにも可からわず採用されない例も数多い。その理由が、その判断結果を出した理由が説明できないためと説明した。
説明性については、いわゆる「相関」と「因果」の関係性の違いが重要だ。
AIがオススメとしてそのピザを薦める理由には説明は求められないかも知れないが、高精度な技術を使う工場や医療分野でAIが何かを判断する場合、その説明は必要不可欠となる。ひとつのデータが変化するにつれて、もうひとつのデータも変化する「相関関係」から結果を予測できたとしても、それらのデータが変化する原因と結果の関係が説明できなければ、その予測は信用されない。現在のニューラルネットワーク、AIの予測・推論は前者であり、信頼性が厳密に求められる分野では、説明性は必ず要求されるのである。
AIの脆弱性
「安全性」とはサイバーセキュリティ、いわゆる悪意のある行為をブロックし左右されない堅牢性を持つことだ。今後はハッキングにAIが使われ、それをブロックするのもAIの役割が大きくなるだろうと予測する。
コックス氏はセキュリティに関して興味深い事例をあげた。人物写真の解析をAIにさせた場合、メガネのデザインによって、人間では理解不能な判定をすると言う。例えば、下記の写真は、上段のメガネを着用した写真を下段の人物と判定したものだが、左端の女優だとした判定はまさに目を疑うものだ。
交通標識の判別は自動運転等にとってとても重要な機能だが、下記の例では、上の標識はストップサイン(一時停止)だと判定しているものの、人の目には気づかないデータを混在させることで、(同じに見える画像を)「テディベア」と判定してしまっている。安全性とは、このようなリスクと、これを悪用させないセキュリティを確立する必要があることを示している。
「倫理」の一例は、AIが偏りを持ったデータで学習したり、データサイエンティストが偏見を含んだ開発を行うことで、公平性を欠く判断をするようになってはいけないということだ。
「スモールデータから学ぶ」能力とは少ないデータでも正しい結果が出せるAIの開発だ。社会の課題解決において、過去に学習できるデータが蓄積されているケースと、ほとんどデータのないケースもある。そのため、今後は蓄積したデータの量が少なくても、正しい結果が出せるAIが求められるということだ。おそらくは、人間と同様に別のケースで学習したAIが同様の判断基準を持って、または特徴量抽出情報を入れ替えることによって、データのない分野への応用性を高めるといった考え方もあるかもしれない。
最後は「インフラ」。AIコンピューティングは膨大な電力を必要とするので、現在の試算では2040年頃にはコンピュータの電力消費量が世界全体の電力量を超えてしまうという節もある。省電力でAIコンピューティングが可能なシステムへの取り組みも研究している。量子コンピューティングによる量子AIもそのひとつ、とした。
いよいよAIが次のフェーズに向かって進化しようとしている。「MIT–IBM Watson AIラボ」の今後の研究成果にも注目していきたい。
ABOUT THE AUTHOR /
神崎 洋治神崎洋治(こうざきようじ) TRISEC International,Inc.代表 「Pepperの衝撃! パーソナルロボットが変える社会とビジネス」(日経BP社)や「人工知能がよ~くわかる本」(秀和システム)の著者。 デジタルカメラ、ロボット、AI、インターネット、セキュリティなどに詳しいテクニカルライター兼コンサルタント。教員免許所有。PC周辺機器メーカーで商品企画、広告、販促、イベント等の責任者を担当。インターネット黎明期に独立してシリコンバレーに渡米。アスキー特派員として海外のベンチャー企業や新製品、各種イベントを取材。日経パソコンや日経ベストPC、月刊アスキー等で連載を執筆したほか、新聞等にも数多く寄稿。IT関連の著書多数(アマゾンの著者ページ)。