《本記事のポイント》
- キラー(殺人)・ロボットに攻撃判断を委ねることが軍縮会議で禁じられる
- AIに、倫理的にも能力的にも攻撃判断を任せることは危険
- AI兵器の規制は、人道的な観点からだけでなく、国土防衛の観点からも検討されるべき
人の生死を左右する究極の決断を機械にゆだねるべきかどうか──。
人口知能(AI)を搭載するAIロボ兵器が出現する中、20日からスイス・ジュネーブで開かれた軍縮会議でそんな問題が議論された。
対象となるのは「自律型致死兵器システム(LAWS)」。自律的に動き、標的を殺傷する能力を持つロボ兵器は「キラー(殺人)・ロボット」とも呼ばれる。映画のターミネーターのようなものに例えられることが多い。
米経営者イーロン・マスク氏らは、LAWSが火薬、核兵器に次ぐ軍事面での第三の革命になるとの報告書を公表。スカイプの共同創業者のジャン・タリン氏なども、「野放図なAIの開発競争では1ドルで人を殺せる世界をもたらす」と訴えてきた。
そんなキラー・ロボットが、量産される時代がすぐそこまで来ている。そのため、非人道的な兵器を扱う「特定通常兵器使用禁止制限条約(CCW)」の枠組みのもと、2014年から非公式専門家会合を設置し、17年から政府の専門家、NGO、研究者などが公式会合を続けてきた。
今月22日に行われたこの会合では、兵器自らが標的を選んで殺傷の実行を「判断する」ことは認められないとする指針案が全会一致で採択されることになった。指針には、自律知能技術の進化を妨げてはならないとも記されている。
この指針は、各国の基準づくりの土台とはなるが、各国の立場の違いは大きく、条約などの法的拘束力のある規制に向けた交渉に進むかどうかの見通しが立っていない。
自律的に殺戮を行うLAWSは、戦争にどのようなインパクトを与えるのか。予見される危険と、あるべき規制の方向性についてハッピー・サイエンス・ユニバーシティ(HSU)未来創造学部で軍事学や国際政治を教える河田成治アソシエイト・プロフェッサーに話を聞いた。(聞き手 長華子)
◆ ◆ ◆
元航空自衛官
河田 成治
プロフィール
(かわだ・せいじ)1967年、岐阜県生まれ。防衛大学校を卒業後、航空自衛隊にパイロットとして従事。現在は、ハッピー・サイエンス・ユニバーシティ(HSU)の未来創造学部で、安全保障や国際政治学を教えている。
AIとロボットは勝敗を分ける決定的要因
──ロボットが人間の手を離れて判断し、殺戮を行うようになることが危惧され、ジュネーブで開催された軍縮会議の指針が全会一致で採択されることになりました。最初にAI兵器の意義について教えてもらえますか。
河田氏(以下、河): 世界史を振り返ると、技術革新に成功した国が世界を制覇してきました。
象徴的なのは、2003年に始まったイラク戦争です。あれだけ強力だと言われたイラク軍がアメリカ軍に惨敗したのは、技術力の格差に原因があります。軍事における技術の差は、戦争の勝敗の決定的な要因になるのです。
次世代の戦争の勝敗を左右する大きな要因は、AIとロボットにあると言われています。この技術で優位に立った者が、戦争で勝利を収めると予測されています。
それを象徴しているのが、アメリカの第三次オフセット戦略です。オフセット戦略とは、敵国より軍事的優位を維持するために必要な革新的軍事力のことをいいますが、現在の中国の脅威に対して、アメリカが考えるオフセット戦略で、もっとも重視されているのがAIとロボットです。この分野で最先端を走りつづけることで戦争に勝利しようとアメリカは考えています。
現代の戦争は、宇宙、サイバー、空、海など、様々な領域(マルチドメイン)が、同時に戦場となります。さらにはミサイルもマッハ10以上の極超音速で飛んできますから、きわめて短い時間でさまざまな判断をしないといけない時代に入っています。大量の情報を集めて分析するという点において、AIが大きな力を持つようになってきているのです。
AIに攻撃の判断を任せると起きる問題とは
──AI兵器には大きな利点があるのですね。一方、「自律型」と言われるAI兵器(LAWS)の問題がどこにあるのかを教えて下さい。
河: まず前提としてですが、戦闘のサイクルは、5つの段階に分けられます。敵の(1)「発見」、(2)「追跡」、(3)「標的」、(4)「攻撃」、(5)「評価」です。
この5段階のうち、「標的」と「攻撃」のところを人間ではなくAIの判断に任せてはいけないという指針が今回の国際会議で出されました。
というのも、もし「標的にする」という判断や「攻撃する」という判断をAIに任せてしまう場合、本来であれば人間が負うべき「人命を奪う」という判断責任を機械が負う倫理的な問題が生じます。さらに、次の4つの問題が生じる可能性があります。
まず第1に、AIのプログラミングにバグと呼ばれる欠陥が存在する可能性です。第2に、サイバー攻撃でAIが書き換えられる可能性もあり得ます。その場合、突然味方を攻撃し始めたりすることもあるでしょう。第3に、AIが故障をしたときに、暴走したりするトラブルもあります。第4にAIが学習過程で、好ましくない決定を行うようになってしまう「機械学習の予測不能性」が指摘されています。AIが将来的に、どのような判断能力を身に着けるのかは開発者でさえ分かりません。そのため人間がAIをコントロールできないという問題は永遠に残るでしょう。
このような理由から、今回の国際ルールでは、「標的」が何であるのかを自分で判断し「攻撃」するLAWSは禁止され、人間の判断を介在させることが確認されました。
AI兵器に一定のルールが設けられることは評価できる
河: 一方で、戦闘のサイクルとして挙げた(1)「発見」、(2)「追跡」、(5)「評価」の3つに関しては、AIのほうが効率がよいため、国際ルールでも禁止されていません。
例えば東シナ海の警戒監視を行う場合に、広い地域を警戒監視するのは容易ではありません。そこでAI搭載型の無人潜水艦が自律的に追跡できれば、相手の動きをよりよく把握できます。
これは日本の防衛にとって極めて重要なコア技術となります。一方、同様な技術を敵国も開発をしているので、日本が開発しない場合、圧倒的不利になってしまいます。
どの国もAI兵器を開発することは譲らないでしょうから、規制を「標的」と「攻撃」に絞って議論をしたことで、国連常任理事国の同意が得られやすくなったということでしょう。
AI兵器が必ず登場する将来の戦争において、大国間の同意のもと、一定のルールが設けられることは、大いに評価できると思います。もし何らの枠組みもない中で、野放図なAI兵器の開発が進められれば、人類の未来に暗い影を落とす可能性があるので、これは阻止すべきでしょう。
AI兵器は国防にとって死活的に重要
河: 現在、LAWSの禁止を「殺人ロボット」と呼ぶことでその脅威の側面が強調され、AI兵器そのものに対する禁止条約をつくるべきだという声も高まっています。
ただ一方で、AIが進化したら解決できる防衛課題も多くあります。
その最たる例がサイバー攻撃でしょう。現在は、サイバー攻撃を受けていること自体、長期間気がつかない場合すらあります。しかしサイバー防衛用のAI兵器が進化したら、サイバー攻撃から、リアルタイムで防御することができるようになります。他国も開発を進めているため、AIは国防にとって死活的に重要です。
現在のLAWSの議論は、対人地雷やクラスター弾の破棄に向けての議論が盛んになったころを彷彿とさせる面があります。
対人地雷の生産や使用を禁止する「オタワ条約」(99年発効)や、クラスター弾の生産や使用を禁止する「オスロ条約」(2010年発効)が発効し、日本はこれらの条約の批准国となったため、対人地雷やクラスター弾を日本は破棄しました。
しかし、あらかじめ中国や北朝鮮が上陸しそうな海岸線に対人地雷を埋めこめば、上陸を阻止するための抑止力となったはずです。
「人道的かどうか」という判断だけで破棄したために、国民を守るための軍事的なオプションを放棄したわけです。
AI兵器についても同じことが言えます。「非人道的かどうか」の観点からだけでなく、それで国民を護れるのかという国土防衛の合理的な観点から、AI兵器の規制対象について検討するのがあるべき方向性でしょう。
したがって、倫理的かつ、人間が責任を取れる範囲において妥当と判断されるAI兵器のあり方について、誠実な議論を積み重ねていくべきだと考えます。
【関連書籍】
幸福の科学出版 『日本の繁栄は、絶対に揺るがない』 大川隆法著
https://www.irhpress.co.jp/products/detail.php?product_id=118
【関連記事】
2019年8月5日付本欄 自衛隊初の宇宙部隊を2020年に創設 宇宙を舞台にした国防のあるべき姿は
https://the-liberty.com/article/16111/
2019年8月2日付本欄 中距離核戦力(INF)全廃条約が失効 日本もINF配備を【HSU河田成治氏インタビュー】
https://the-liberty.com/article/16102/
2018年12月28日付本欄 南シナ海から始まる米中覇権争いの行方とは 【HSU河田成治氏インタビュー】(前半)
https://the-liberty.com/article/15262/
2018年12月29日付本欄 南シナ海から始まる米中覇権争いの行方とは【HSU河田成治氏インタビュー】(後半)