GoogleはAI原則で戦争利用を回避したか?

攻撃目標地点を設定するカタールにある空軍情報・監視・偵察部(画像:米国防総省)

Googleのスンダー・ピチャイCEOが6月7日にGoogleのAI事業についての原則(以下仮に「AI原則」)を発表しました。2016年のCEO就任以来、AIファーストと唱えているピチャイさん。「GoogleはAIのリーダーだから、AIを正しく扱わなくちゃいけない」ということで、なんだかアシモフのロボット三原則みたいなプリンシプル(行動規範とか、原則とかいう意味)を内外に示しました。

アシモフの三原則みたいにすっきり分かりやすくないところが残念ですが、少なくとも「武器その他の関連技術」の領域にはAIを使わないとはっきり書かれています。

ピチャイさんがAI原則を発表した背景には、Googleが米国防総省とAI開発に関する契約を結んだことに対して社内で批判が高まったことがあります。請願書には3000人以上(4000人という報道もあります)が署名し、この契約に反対してGoogleを去った人もいます。

この契約の下でGoogleは、国防総省が「Project Maven」と呼ぶ、画像/動画解析のためのAIアルゴリズム開発プロジェクトに協力しています。

国防総省が昨年7月に発表した概要によると、Project Mavenは、ドローンが(恐らく戦場で)撮影した膨大な量の画像/動画を学習データとして使い、画像/動画から目的のオブジェクトを自動抽出するアルゴリズムを構築するというもの。

プロジェクトに深く関わるGoogle Cloudのダイアン・グリーンCEOは「この契約は、ドローンが撮影する動画と低解像度のオブジェクトをAIで解析するもので、目的は命を救うことだ」と説明していますが、使われるのが戦場である時点で反対派の人々にとってはアウトなのでした。「AmazonやMicrosoftも一緒(に契約に参加している)というのは言い訳にならない。GoogleにはDon't be Evilというモットーがあるのだから」と請願書には書いてあります。

目的は命を救うことだ、というのは分からなくもないです。国防総省の説明文だけでは具体的にどう使うのか分かりませんが、たぶん、例えば攻撃目標設定の際、最も一般人に被害が及ばず、“効率的に”敵にダメージを与えられる地点を選んだり、戦闘機から地上を攻撃する際に、敵側の兵士と一般人を瞬時に識別できるようになったりするんじゃないかと思います。それはつまり、一般人の犠牲者を減らし、命を救うことにはなるでしょう。でもそれは、マンハッタンプロジェクトのときの科学者たちの判断を思い起こさせます。

Googleは、Project Mavenの契約は2019年の契約更新段階で更新せずに終了するけれど、今後も政府機関にAI関連で協力することはやめないとしています。できれば紛争を話し合いで解決するためのAI開発に注力してほしいところ(既にやっているでしょうけれど)。話し合いのためのAIだって、使いようによっては平和のためではなく、米国に有利な結果を得るためのAIになる可能性はあり、それはそれでEvilです。どこまでいっても、危険はAI自体ではなく、それをどう利用するかという人間側にあることには変わりなさそうです。

ところでこの一件で一時期、「GoogleはDon't Be Evilのモットーを捨てた」と騒がれました。その根拠の1つとして4月に同社の行動規範が改訂され、Don't Be Evilのフレーズが最後の方に1回だけ出てくるものの、冒頭にあったこのフレーズについての説明の段落がなくなったことが挙げられていました。

Googleさんは冒頭を変えた理由を、今のところ少なくとも対外的には説明していません。

提供元:ITmedia NEWS

オリコントピックス