はじめに

 国際関係で「抑止」という概念が本格的に使用されるようになったのは、核兵器の登場以後である。しかし抑止の概念を広く、例えば子供の躾や犯罪行為を未然に防ぐことまで含めれば、その実践は有史以前に遡ると言っても過言ではない。もっともそうした実践は、これまであくまで「人間が他の人間を抑止する」という文脈で行われてきた。

 今日、この常識が変わろうとしている。人工知能(AI)と無人技術の発展は自律的な兵器システムの登場を促している。大国のみならず中小国までがこぞってこの種の自律的なシステムの保有と活用を目指し、今後の戦場における優位は如何にこの種のシステムを使いこなすかに依存する時代が到来しつつある。しかし「自律的に考える機械」が抑止及びエスカレーション管理に及ぼす影響もまた大きい。それは抑止の主体が人間だけではなくなることを意味するからである。「人間が機械を抑止」し、「機械も人間を抑止」し、「機械同士も抑止し合う」ことを想定する必要が出てきている。

 本稿では、戦場における「考える機械」ことAIを搭載した自律システムの導入が抑止に及ぼす影響について、上下に分けて考察する。まずは上で、「考える機械」の導入で高まる抑止破綻とエスカレーションのリスク、そして戦場における「考える機械」の導入の姿について触れてみたい。

はじめに

1 「考える機械」の導入で高まる抑止破綻とエスカレーションのリスク

 抑止とは、費用やリスクの観点に基づいて特定行為を採らせないように相手を説得する行為やプロセス、結果のことを指す[1]。抑止が成立するためには、基本的には三つの要件を満たす必要がある。相手の合理性、抑止に足る能力(抑止力)の裏付け、信頼性の高い意図や決意の伝達である[2]。これまで抑止がしばしば破綻してきたのは、これらの要件を満たすことの難しさを示唆している。

 なぜ抑止の実現が難しいのか。それは他者理解の本質的な難しさがあるからである。相手は合理的かもしれないが、それは我々の合理性とは異なるかもしれない。戦略文化の違いや、国家の単一合理性仮定[3]の限界、機微な文脈の相違などによって、抑止の成否は左右される。何を抑止に足る能力と見なすのか、どのようにすれば信頼性の高い意図や決意の伝達が可能なのかも、相手や状況次第で大きく変わる。だからこそ抑止は、相手や状況に合わせた「テーラーメイド型」である必要が強調されるのである[4]。

 しかし抑止が「テーラーメイド型」であればあるほど、抑止の実現も難しくなる。なぜならそれは他者理解にますます依存するからだ。敵対する相手が何を重要な価値と捉え、どのような能力の行使を恐れ、如何なるシグナルを送れば効果的に意図や決意を伝達できるのか。これらは長年に渡る深い他者理解がなければ容易に分からない。分からなければ誤認や誤算から危機やエスカレーションのリスクが生じる。他者理解はたとえ人間同士であっても困難である。

 そこに「考える機械」の戦場導入が加味されるとどうなるか。自律的なシステムの特徴は機械が自ら考えて行動することである。一般に、抑止のシグナルは特定の文脈に沿った機微なものとなるが、「考える機械」はそれを理解できず、彼我双方に予測できない結果を引き起こすかもしれない。単に機械が人間を理解できないだけでなく、深層学習に基づく機械の判断を人間が理解することも難しい可能性がある。人間は他者の機械どころか、自らの機械の行動原理ですら理解できないかもしれない。これまで比較的単純だった「人間が人間を抑止する」という構図は著しく複雑化するのである。

 こうした中で、機械の判断に委ねるのではなく、人間を機械運用に関する最終判断の「ループに入れる」手法[5]がますます重要になる。しかしそれでも人間が機械を理解することの難しさは十分に克服できないと想定される。なぜなら、自律システムを導入した戦争は機械速度で戦われるため、人間の反応速度では追い付けないからである。仮にそこまで素早い判断を求められないにしても、機械が自らの判断根拠を人間に理解できる形で説明できなければ、結局は関与する人間は機械の判断を追認することしかできない。機械が自らの判断根拠をどう人間に「説明」できるかはAI運用の重大問題である。

「考える機械」の導入で高まる抑止破綻とエスカレーションのリスク

 これらの結果、「考える機械」の導入は、戦場における意図せざる危機やエスカレーションのリスクを高めてしまう可能性がある。人間同士の相互作用でも困難だった抑止の実現は、「考える機械」の導入によってますます難しさを増す恐れがある。

 しかしながら、戦場における「考える機械」の導入は不可避である。将来の戦争では自律システムを大量に投入し、意思決定サイクル(いわゆる「ウーダ(OODA)」ループ[6])をより速く(=機械速度で)回転させた側が圧倒的優位に立つ。各国によるその導入の促進を阻止するのは著しく困難と思われる。例えば現在、特定通常兵器使用禁止制限条約(Convention on Certain Conventional Weapons:CCW)の枠組みで自律型致死兵器システム(Lethal Autonomous Weapons Systems : LAWS)の規制問題が討議されているが、LAWSは今後戦場に投入される「考える機械」のうちのごく一部を指すに過ぎず[7]、規制の実効的な枠組みができるかも現時点で定かではない。更に、自律システムは民生技術の転用が多く、実体を伴わないソフトウェアやアルゴリズムに留まるものも多いため、核兵器などとは比べ物にならないほど、軍備管理や不拡散の取組も困難であろう。

 よって、今後は自律システムが広く戦場で用いられることを前提に、その抑止やエスカレーション管理に及ぼす影響を正面から考えねばならない時代になりつつある。

2 戦場における「考える機械」の導入の姿

 「考える機械」とは何だろうか。その戦場における導入とは、具体的にどういう姿を指すのだろうか。

 簡潔に言えば「考える機械」とはAIが搭載された自律システムである。こうしたシステムには二つの種類がある。一つは「静止した自律性」のシステムであり、これはハードな実体を持たない、ソフトウェアのようなシステムである。こうしたシステムは主に計画立案や専門的アドバイスなど、情報集約と意思決定支援の役割を果たす。もう一つは「動作する自律性」のシステムであり、無人機のようなハードな実体を持つシステムに搭載される自律性を指している。戦場における「考える機械」の導入は、ともすれば後者がイメージされるが、実際には前者も後者も導入される。

 具体的な、戦場における「考える機械」の導入の姿はどのようなものになるだろうか。これは片方に「静止した自律性か、動作する自律性か」の軸を置き、もう片方に「意思決定サイクルが機械速度の速さか、人間との協同を可能にする程度の遅さか」の軸を置いて、四象限のそれぞれを考えてみると分かりやすい[8]。

 まず、「静止した自律性」であって、意思決定サイクルが「機械速度」の自律システムの姿として代表的なのは、サイバー戦や電子戦に対応するための自動防御プログラムである。サイバー戦や電子戦では攻撃してくる方も自律システムを用いた機械速度の戦闘を仕掛けてくる。必然的に防御する側も機械に自律的な意思決定と反応を委ねるほかはない。こうしたシステムでは意思決定への人間の関与は致命的な遅れを生むため、人間は判断の「ループから外れる」ことになろう。これは防御のためやむを得ないが、同時に危機やエスカレーションのリスクが生じやすい状況も生む。

 次に、「静止した自律性」だが意思決定サイクルが「人間との協同を可能にする程度の遅さ」のシステムがある。これは戦場における多くの意思決定支援システムの姿である。典型的には、情報やデータを融合して戦場の全体像を示し、司令部の意思決定を支援するための指揮統制用システムなどが挙げられる。また、R・ワーク(Robert O. Work)元米国防副長官が指摘した「ケンタウルス(=人間と機械の協同を可能にするシステム)[9]」もこれに相当する。代表例は、機外のセンサーが集めた情報を操縦者のヘルメットのバイザーに分かりやすく集約して表示するF-35ステルス戦闘機のシステムである。これらのシステムは必ず人間を判断の「ループに入れる」ことになり、エスカレーションのリスクは限定的と考えられる。ただしAIの判断根拠が分からないままに人間を「ループに入れる」限界は残る。

 更に、「動作する自律性」であって、意思決定サイクルが「機械速度」の自律システムも存在する。代表例は地上車両の積極防護システム(Active Protection System: APS)であろう。これは対戦車ロケットの発射などに対して自動的に防護システムが作動し、迎撃を試みるものだ。イージス艦に搭載されるイージス兵器システム(Aegis Weapon System: AWS)や、極超音速ミサイルへの対応を含むミサイル防衛一般に敷衍して考えることもできる。これらは「動作する」部分がある上に人間が判断の「ループから外れる」傾向が強いために潜在的にはエスカレーションのリスクがあるが、防空システムのような受動的システムの場合はそこまでの不安はない(ただし、民間機撃墜のような誤認リスクはある)。更に、基本的には自動対応モードにすることで機械の自律性に任せるが、必要があれば人間の判断での対応も可能な人間を判断の「ループに乗せる」運用も可能であり、そうした場合にはリスクは相対的に低い。もっとも、攻撃的なシステムの場合はそうとも言い切れず、ケース・バイ・ケースであろう。

戦場における「考える機械」の導入の姿

 最後に、「動作する自律性」であって意思決定サイクルが「人間との協同を可能にする程度の遅さ」のシステムが残る。これはスマート・デコイ、徘徊兵器、戦略的スウォームなどの様々な兵器[10]が考えられるが、自律的な兵站システムもその中に含まれる。これらのシステムは「動作する」要素を含み、攻撃的な兵器としても利用可能であるから、エスカレーションのリスクはそれなりにあるが、意思決定速度が相対的に遅いので、人間を「ループに入れる」ことは可能である。その結果、機械速度で作動するシステムに比べればエスカレーションのリスクは低いかもしれない。しかし、これらは今後、戦場における自律システムとしては最も一般化しそうなものである。

 以上を整理すれば、意思決定サイクルが早いシステムの方が、そうでないシステムに比べて、抑止やエスカレーションのリスクが一般的により高い。ただし一概には言いづらい。また、「動作する自律性」のシステムの方がエスカレーションのリスクが高いように思えるが、サイバー/電子攻撃(ないし反撃)はその形態によっては重大なエスカレーションを導く可能性もあるため、これも簡単に結論を出すことはできない。「考える機械」の戦場導入の影響は未知の部分も多い。

 次回は、RAND研究所が実施したウォーゲームの内容と結果を紹介しつつ、戦場における「考える機械」がいかに抑止やエスカレーション管理を複雑化するのかを考察したい。

(2020/11/04)

*この論考は英語でもお読みいただけます。
“Thinking Machines” on the battlefield and Their Impact on Deterrence

脚注

  1. 1 Alexander L. George and Richard Smoke, Deterrence in American Foreign Policy: Theory and Practice, Columbia University Press, 1974, p.11.
  2. 2 福田潤一「「複合的」で「全段階的」かつ「領域横断的」な抑止」航空自衛隊幹部学校『エア・パワー研究』第5号、2018年12月、pp.50-53。
  3. 3 国内の個人や組織の利益又は選好を捨象し、あたかも国家が単一の合理性を持つ存在であるかのように仮定する思考を指す。
  4. 4 「テーラーメイド型」抑止(tailored deterrence)は、米国が2006年の国家安全保障戦略から使い始めた概念である。The White House, The National Security Strategy of the United States of America, March 2006, p.43.
  5. 5 一般に、自律システムの運用には、人間を最終判断の「ループに入れる」運用、完全に機械の判断に任せる「ループから外す」運用、そして通常は機械の自律性に委ねるが、人間の監視下に置いて必要なら介入する「ループに乗せる」運用の三種類がある。ポール・シャーレ『無人の兵団:AI、ロボット、自律型兵器と未来の戦争』早川書房、2019年、第3章。
  6. 6 OODAループとは米空軍大佐であったJ・ボイド(John R. Boyd)によって提唱された意思決定・行動に関するモデルであり、その本質は「観察(O: Observe)」「情勢判断(O: Orientation)」「意思決定(D: Decision)」「行動(A: Action)」の一連のサイクルをより迅速に回転させた方が戦闘において優位に立てる、との思考に基づいている。John R. Boyd, “Destruction and Creation,” September 1976.
  7. 7 例えば米国防総省は「自律兵器システム(Autonomous Weapon System: AWS)」について「ひとたび起動されれば、人間の操作者の更なる介入がなくても標的を選択し、交戦可能な兵器システム」と定義する。LAWSはAWSのうち「致死的(lethal)」な作用を伴うもの、と考えることができる。U.S. Department of Defense, “Directive 3000.09 on Autonomy in Weapon Systems,” November 21, 2012 (Incorporating Change 1, May 8, 2017).
  8. 8 Yuna Huh Wong, et al., Deterrence in the Age of Thinking Machines, RAND Corporation, 2020, p.78のFigure 8.2。
  9. 9 Sydney J. Freedberg Jr., “Centaur Army: Bob Work, Robotics, & The Third Offset Strategy,” Breaking Defense, November 9, 2015.
  10. 10 スマート・デコイは自律判断して行動できる囮装置であり、徘徊兵器は自律的に標的を探して攻撃できる自律兵器システムであり、そして戦略的スウォームとは無人機の大量集中運用で大量破壊兵器に等しいような戦略効果を発揮する自律兵器システムである。