Googleが「AIを軍事技術に転用している」という従業員からの批判を受けて、「AI技術開発の原則」(AI at Google : our principles)を発表した。
GoogleのCEO、サンダー・ピチャイ(Sundar Pichai)氏によるブログ記事として公開された。
Google従業員が懸念していた兵器への転用については開発しないことが原則として明記された形となった。
以下、Googleが発表したAI原則、そして開発しない範囲をまとめた。
1. 社会にとって有益である
2. 不公平なバイアスの発生、助長を防ぐ
3. 安全性確保を念頭においた開発と試験
4. 人々への説明責任
5. プライバシー・デザイン原則の適用
6. 科学的卓越性の探求
7. これらの基本理念に沿った利用への技術提供
・主な目的と用途: テクノロジーやその利用方法の主な目的と想定される用途。
・技術の性格や独自性: Googleが提供する技術が独自性のあるものか、
または一般に広く提供されているものであるか
・スケール: 当該テクノロジーの利用が重要な影響を持つかどうか
・Googleの関与のあり方: どのような目的にも使える汎用的なツールの
提供なのか、特定の顧客のためにツールを組み込むのか、
もしくはカスタムソリューションの開発なのか
読んで違和感のある部分はなく、AIに関して議論されている問題点や疑念について網羅された善良な内容ではないだろうか。
1. 総合的にみて有害または有害な可能性があるテクノロジー。
重大なリスクが認められる場合、利点が大幅にリスクを上回る場合に
のみ関与し、その場合も適切な安全上の制約を組み込みます。
2. 人々に危害を与える、または人々への危害の直接的な助長を主目的とした、
武器またはその他の技術。
3. 国際的に認められた規範に反するような監視のために、
情報を収集、利用するためのテクノロジー。
4. 広く一般的に認められた国際法の理念や人権に反する用途のための技術。
注目されているAIの軍事利用について、武器・兵器に関しては開発しないと明記されたのは評価されるべきだろう。興味のある方は原文をご覧いただきたい。
僕はこう思った:
Googleに限らず、AI研究を進めている企業はどういうポリシーで開発しているのかを明確にしていく流れができることを期待します。