ボッシュが「AI倫理指針のガイドライン」を策定 AIに対する3つのアプローチとは

AIは発展と成長の世界的な原動力となっている。

世界最大級のコンサルティング企業であるPwCでは、2030年までにAIによって中国では26%、北米では14%、欧州では約10%のGDP押し上げ効果が見込まれると予想している。AIは、クライメートアクションなどの課題を乗り越える一助となり、交通・医療・農業など多くの分野で最適な結果を実現する可能性を備え、膨大なデータを分析することで、アルゴリズムが論理的に意思決定を行うことを可能にしている。

そこでボッシュ(本社:ドイツ)は、拘束力のあるEU規格が導入される前に、AIの活用によって提起される倫理的な問題に積極的に取り組むことを決断。取り組みの過程では、世界人権宣言に定められた価値基準を倫理的基盤とし、人工知能(AI)の活用に関して倫理的な「レッドライン(越えてはならない一線)」を定め、高度の知能をもった製品におけるAIの活用に関してガイドラインを発行した。同ガイドラインについては、IoTに関する世界最大の国際会議のひとつで、ネットワーク化された世界における最新動向や最新情報の展示を行うBCW(ボッシュ コネクテッドワールド/2020年2月19~20日)にて発表した。




概要:AI倫理指針のガイドライン

同社のAI倫理指針は、「AIを用いた意思決定においては、いかなる場合も人間が最終判断を下さなくてはならない。」との原則に基づいており、BCWのオープニングで、このことについて同社CEOのフォルクマル・デナー氏は以下のように述べた。

ボッシュ CEO フォルクマル・デナー氏

「AIは人々の役に立つものであるべきです。ボッシュはAI倫理指針によって、インテリジェントな製品の開発における明確なガイドラインを従業員に提供します。」「AIを用いたボッシュ製品に対する信頼を得ることが、私たちの使命です。」「AIは私たちの生活のあらゆる面を変えることでしょう。 それゆえ、このような議論は不可欠です。」




▼【AI倫理指針のガイドライン(概要)】

· ボッシュの全てのAI製品は、社会的責任を持って技術革新を追求する「Invented for life」の精神を反映したものでなくてはならない
· 人々に影響を及ぼすAIの意思決定に関しては、人間が最終判断を下さなくてはならない。むしろAIは人々のための道具として用いられるべきである
· ボッシュは、安全かつロバストで説明可能なAI製品の開発を目指す
· 信頼はボッシュの基本的なバリューのひとつである。ボッシュは信頼できるAI製品の実現を図る
· AI製品を開発する際は、法的要件および倫理指針に準拠する
AI倫理指針のガイドラインに関する詳細
https://www.bosch.co.jp/press/group-2002-01/media/PI11094-download-01-ja.pdf

AIは同社にとって極めて重要なテクノロジーであり、2025年までにボッシュの全製品にAIを搭載、または開発や製造にAIを活用することを目指している。同時に、AIを用いた製品を安全かつロバストで説明可能なものにしたいとしており、チーフデジタルオフィサー(CDO)兼チーフテクノロジーオフィサー(CTO)のミヒャエル・ボレ氏も次のようにコメントしている。

ボッシュ CDO 兼 CTO ミヒャエル・ボレ氏

AIがブラックボックス化すれば、人々はAIを信頼しないでしょう。しかしネットワーク化された世界において、信頼は不可欠なものです




AI倫理指針によるAIに対する3つのアプローチ

ボッシュのAI倫理指針では、AIによる人間に関する意思決定は、いかなる場合も人間による何らかの監視下で実施されなくてはならないと定めている。むしろAIは人々の役に立つ道具でなくてはならない。AIに対しては3つのアプローチが可能で、全てのアプローチが、同社開発のAIベースの製品ではAIが行ういかなる意思決定においても人間がコントロールを維持しなくてはならない、という点で共通している。同社は、AIを用いた信頼できる製品の提供を目指しており、今後2年間で、AIの活用に関するトレーニングを2万人の従業員に実施する計画で、AIの責任ある活用について定めた同社AI倫理指針も、トレーニングプログラムで扱われる予定だ。


第1のアプローチ(human-in-command/ヒューマン イン コマンド)

AIを補助としてのみ使用。意思決定をサポートするアプリケーションなどがこれにあたり、AIは物体や生物といった品目を分類する手助けを行う。


第2のアプローチ(human-in-the-loop/ヒューマン イン ザ ループ)

AIが自ら意思決定を行うが、人間がいつでもその決定を覆すことができるというもの。これには、車の部分的な自動運転中に、駐車支援システムなどの意志決定にドライバーが直接介入できるといった例がある。


第3のアプローチ(human-on-the-loop/ヒューマン オン ザ ループ)

衝突被害軽減ブレーキシステムなどのインテリジェントなテクノロジーに関するもので、この手法では、エンジニアが開発過程で一定のパラメーターを定める。
意思決定のプロセスそのものに人間が介入することはなく、AIは、パラメーターに基づいてシステムを作動させるか否かを決定。エンジニアは、設定されたパラメーター内でシステムが作動しているか、さかのぼってテストを行う。これらのパラメーターは必要に応じて調整することが可能だ。





様々な組織と信頼性を共に構築

AIに対する信頼を構築するには、単なる専門知識以上のものが必要だ。政策立案者、科学界、一般市民の間での緊密な対話も求められる。このような背景から同社は、欧州委員会が設置したAIの倫理的次元などの問題を検討する組織、High-Level Expert Group on Artificial Intelligenceに参画。他、同社の7拠点からなる世界規模のネットワークにおいて、また、アムステルダム大学およびカーネギーメロン大学(米国・ピッツバーグ)との共同研究で、より安全で信頼できるAIアプリケーションの開発に取り組むと同時に、バーデン・ヴュルテンベルク州にある研究アライアンス、サイバーバレーの創設メンバーとして、AIキャンパスの建設に1億ユーロを投資している。

ABOUT THE AUTHOR / 

ロボスタ編集部

ロボスタ編集部では、ロボット業界の最新ニュースや最新レポートなどをお届けします。是非ご注目ください。

PR

連載・コラム