「兵器用AIは開発しない」Googleが発表した「人工知能の原則」とは
Googleが「AIを軍事技術に転用している」という従業員からの批判を受けて、「AI技術開発の原則」(AI at Google : our principles)を発表した。
GoogleのCEO、サンダー・ピチャイ(Sundar Pichai)氏によるブログ記事として公開された。
Google従業員が懸念していた兵器への転用については開発しないことが原則として明記された形となった。
以下、Googleが発表したAI原則、そして開発しない範囲をまとめた。
1. 社会にとって有益である
2. 不公平なバイアスの発生、助長を防ぐ
3. 安全性確保を念頭においた開発と試験
4. 人々への説明責任
5. プライバシー・デザイン原則の適用
6. 科学的卓越性の探求
7. これらの基本理念に沿った利用への技術提供
・主な目的と用途: テクノロジーやその利用方法の主な目的と想定される用途。
・技術の性格や独自性: Googleが提供する技術が独自性のあるものか、
または一般に広く提供されているものであるか
・スケール: 当該テクノロジーの利用が重要な影響を持つかどうか
・Googleの関与のあり方: どのような目的にも使える汎用的なツールの
提供なのか、特定の顧客のためにツールを組み込むのか、
もしくはカスタムソリューションの開発なのか
読んで違和感のある部分はなく、AIに関して議論されている問題点や疑念について網羅された善良な内容ではないだろうか。
1. 総合的にみて有害または有害な可能性があるテクノロジー。
重大なリスクが認められる場合、利点が大幅にリスクを上回る場合に
のみ関与し、その場合も適切な安全上の制約を組み込みます。
2. 人々に危害を与える、または人々への危害の直接的な助長を主目的とした、
武器またはその他の技術。
3. 国際的に認められた規範に反するような監視のために、
情報を収集、利用するためのテクノロジー。
4. 広く一般的に認められた国際法の理念や人権に反する用途のための技術。
注目されているAIの軍事利用について、武器・兵器に関しては開発しないと明記されたのは評価されるべきだろう。興味のある方は原文をご覧いただきたい。
僕はこう思った:
Googleに限らず、AI研究を進めている企業はどういうポリシーで開発しているのかを明確にしていく流れができることを期待します。
ABOUT THE AUTHOR /
中橋 義博1970年生まれ。中央大学法学部法律学科卒。大学時代、月刊ASCII編集部でテクニカルライターとして働く。大学卒業後、国内生命保険会社本社において約6年間、保険支払業務システムの企画を担当。その後、ヤフー株式会社で約3年間、PCの検索サービス、モバイルディレクトリ検索サービスの立ち上げに携わる。同社退社後、オーバーチュア株式会社にてサービス立ち上げ前から1年半、サーチリスティングのエディトリアル、コンテントマッチ業務を担当する。2004年に世界初のモバイルリスティングを開始したサーチテリア株式会社を創業、同社代表取締役社長に就任。2011年にサーチテリア株式会社をGMOアドパートナーズ株式会社へ売却。GMOサーチテリア株式会社代表取締役社長、GMOモバイル株式会社取締役を歴任。2014年ロボットスタート株式会社を設立し、現在同社代表取締役社長。著書にダイヤモンド社「モバイルSEM―ケータイ・ビジネスの最先端マーケティング手法」がある。