AI兵器が「一線」を越えると……

メモ入力
-最大400文字まで

完了しました

 人工知能(AI)とロボット技術が21世紀の戦闘を大きく変えようとしている。兵士が安全な場所から無人機を遠隔操作して敵を攻撃することが恒常化し、人間の意思が介在しないまま、人間を殺傷する兵器の実用化も現実味を帯びる。AI兵器が人を殺すという人類史上初の事態を未然に防ぐべく、規制を求める動きも出てきたがハードルは高い。

AI兵器市場、拡大中

ロシアのカラシニコフ・グループが開発した「KUB-BLA」(ユーチューブから)
ロシアのカラシニコフ・グループが開発した「KUB-BLA」(ユーチューブから)

 アラブ首長国連邦の首都アブダビで2月下旬に開催された軍装備見本市で、一際注目された「商品」があった。横幅1・22メートル、時速130キロのスピードで半時間は航行可能なうえ、重さ2・7キロの爆発物を運べるドローン「KUB-BLA(クブラ)」だ。AIが搭載された兵器である。

 その性能をアピールする動画には、ほぼ無音のまま飛行する機体が、雪原であれ、砂漠であれ、標的を発見すると同時に急降下して機体を衝突させ、爆破する様子が映る。「神風ドローン」と呼ばれるゆえんだ。

 製造元は、かつて自動小銃AK47を世に送り出したロシアのカラシニコフ・グループ。売り文句は「操縦が簡単、標的を正確に攻撃可能、しかも安価。従来の空中戦のあり方を抜本的に変える製品」というものだ。

エストニアのミルレム社製の無人戦車(ユーチューブから)
エストニアのミルレム社製の無人戦車(ユーチューブから)

 この見本市には、エストニアのミルレム社が開発した無人戦闘車両「Themis ADDER」も出品された。機関銃や偵察システムなどを搭載し、最大10時間、運用できる。近く、アフリカ西部マリに治安維持支援のため展開するフランス軍が使用する方向という。宣伝ビデオに登場した担当者は「これからの10年間、ロボット技術によって戦争の姿は大きく変わる」と胸を張った。

 アブダビでは2018年に無人兵器の見本市も開催された。無人にも有人にも切り替えられるイタリア製の偵察用ヘリ、中国製の小型無人航空機、セルビア製の小型無人戦車や装甲車、各種の高性能ドローンがずらりと並んだ。主催者によると、無人兵器市場は成長著しく、17年には181億4000万ドル規模だったのが、25年には523億ドル規模に上るとみられるという。

 無人兵器は人間が遠隔操作するが、AIを組み込めば、事前に入力したプログラムに従って、人間の操作や判断なしに作動するAI兵器となる。

 21世紀と共に開発が本格化したAIとロボット技術を組み合わせたAI兵器は、火薬、核兵器に続く第3の革命的武器とも称される。ただでさえ、21世紀の紛争では戦闘領域がこれまでの陸・海・空に加え、宇宙とサイバー空間にも広がり、攻撃手段も、これまでの火薬や核などの物理的エネルギーのほか、電磁パルス(EMP)などの電子やコンピューターウイルスなど多様化している。

 拓殖大学の佐藤丙午教授は「サイバーや電子攻撃でまず、敵の目となるレーダーなどをつぶして反撃力を奪う。しかる後に無人機を多用し、自軍は人的損失を被らない形で敵を攻撃する。これが今の戦争の形だ」と話す。

21世紀の戦争の形

 「新しい戦争の形」は、2014年3月にロシアがウクライナ南部クリミアを併合した際に垣間見えた。

 ロシアはまずはウクライナ軍のコンピューターなどにウイルスを仕込むサイバー攻撃を仕掛け、レーダーや迎撃ミサイルなど防衛システムの無力化を試みたとされる。続いて電子攻撃によりウクライナ軍の全地球測位システム(GPS)や通信網を遮断し、反撃能力をさらに封じ、その後、偵察用や攻撃用のドローンを使用し、実際に兵力を投入する前に、一定の“戦果”をあげたとみられている。

 ロシアは、シリア内戦に無人戦車や無人装甲車などのAI兵器を投入して、アサド政府軍を支援しているとの情報もある。

 無人兵器とAI兵器の線引きは、開発国があえてあいまいにし、全容を明らかにすることを避けるため、はっきりしないことが多い。確実なのは、高高度や水中深い場所への配備が視野に入るなど、AI兵器の進歩が著しいことだ。その開発を巡る先端でしのぎを削るのが米国、ロシア、中国の3か国だ。

 米国はオバマ前政権下の2016年10月、42会計年度までをにらむ長期的な「無人システム開発の工程表」を策定し、既存の兵器システムと無人兵器の統合を推進中だ。17会計年度の国防予算で見ても、無人システム関連は約42億ドルで、うちほぼ半額の約20億ドルが研究開発に向けられた。

 トランプ政権も今年3月、20会計年度の国防予算案で宇宙やサイバー領域、AIなど先端技術分野への対応を加速させる姿勢を鮮明にした。研究開発費では、核ミサイルを搭載可能な巨大無人水上艦や無人潜水艦に37億ドル、AI関連に9億2700万ドル、極超音速兵器関連に26億ドル、無人機・自律型兵器関連に37億ドルなどを計上している。

 米国がロシアの違反を理由に中距離核戦力(INF)全廃条約の破棄を通告したことを受け、対決姿勢を強めるロシアも負けてはいない。プーチン露大統領は17年9月に学生との対話集会で「AI分野でリーダーとなる国が、世界の支配者となる」と強調。今年2月の年次教書演説では、核を搭載可能な無人水中兵器「ポセイドン」の試射に成功したと誇らしげに語った。ポセイドンは水深1000メートルの海中でも使用可能で、仮に実戦配備されれば、ロシアは世界中の沿岸地域を核攻撃できる能力を持つことになる。

 ただ、米国が最も神経をとがらせるのは中国の動向だ。

米ダイネティクス社が米軍のため開発中のスウォーム。親機から投下された無人の子機が、自律的に編隊を組み、標的に目がけ飛行する(ユーチューブから)
米ダイネティクス社が米軍のため開発中のスウォーム。親機から投下された無人の子機が、自律的に編隊を組み、標的に目がけ飛行する(ユーチューブから)

 最近、注目されるAIと無人機を組み合わせた技術に「スウォーム(Swarm=群)制御」がある。大量のドローンが鳥の大群のように一斉に飛行し、レーダーをかいくぐり、標的をめがけて攻撃を遂行する。米軍は17年1月には103機の小型ドローンの一斉飛行に成功した。ところが、半年も()たないうちに、119機の編隊に成功したのが中国だ。群れを構成するドローンの数が多ければ多いほど、敵の防衛網をすり抜ける確率は高まる。米中両国のスウォーム開発競争は空のみならず海上・海中でも進む。

 米シンクタンク「新アメリカ安全保障センター」のエルサ・カニア非常勤シニアフェローは、「米国の技術的優位に、中国は数年遅れで追いつくという現状がある。だが中国軍は、これをAI兵器によってほぼ同時にするか、逆転できる可能性があると考えて重視している」と指摘する。カニア氏によると、中国軍の利点は民間部門での研究開発の進展をそのまま軍用に転換できる、軍民融合の動きだ(注1)。

 佐藤教授は「中国は組織的にAI兵器の研究開発を進めているが、他国と比較しても実態が闇に包まれている」との懸念を示す。不透明さは、中国製無人機やAI兵器が海外にどのような形で流出しているかにもつきまとう。米国製よりも確実に安価な兵器は、すでにアフリカや中東などの紛争地で実戦使用されているとの見方もある。

 AI兵器は、米中露のほかイスラエル、韓国、英国など10か国強が開発に取り組んでいる。AI兵器有数の研究家、米ニュー・スクール大学メディア研究学部准教授のピーター・アサロ氏は「各国とも機能を秘密扱いにし、“全貌(ぜんぼう)”が見えないのが大きな問題だ」と透明化を求めている。

プラスとマイナス

 ここでAI兵器の利点を改めて見てみよう。

 高高度や水中では遠隔操作中の無人機との通信の維持に困難がつきまとう。ただでさえ、敵は妨害電波などを発し、通信の遮断を狙ってくる。AIが搭載された兵器であれば、仮に通信が途絶えても事前に組み込まれたプログラムに基づき、自律的に行動することが可能だ。

 さらにAI搭載の機械の方が、人間よりも精確な攻撃が可能となる。絨毯(じゅうたん)爆撃より、精密な誘導弾を使った攻撃の方が民間人を巻き込む確率は低いといえる。

 敵を発見し、追尾し、狙いを定め、攻撃し、その結果を評価する―。軍事作戦における、これらのいずれの段階でも、処理されるべき情報量は増え、判断のスピードも求められる。AIは間違いなく人間より多くの情報を短時間で処理できるし、人間につきものの疲労や恐怖心、逡巡(しゅんじゅん)といった感情とも無縁だ。AI兵器は人間と違い、危険(dangerous)、汚い(dirty)、単調(dull)の「3D」を(いと)わない。

 例えば、イスラエルが配備するAI兵器にミサイル防衛システム「アイアンドーム」がある。敵からのミサイル攻撃に際し、どの段階で、どのシステムから迎撃すれば味方への被害を最小限にして、最大限の効果を上げられるかをAIが判断する。佐藤教授は「ミサイルを迎撃するスピードに、人間はついていけない。AIは防衛型兵器に適している」と評価する。

 一方で、AI兵器には多くのマイナス点も指摘される。

 アサロ准教授は、(1)政治家や指揮官にとって、戦争を始めるハードルが下がる(2)技術が拡散し、世界が不安定化する(3)そもそもAI兵器は予見性が低く、現状では不安定な兵器だ―を挙げる。

 無人のAI兵器ならば、自軍の兵士が戦死するリスクが軽減され、政治指導者にとって、戦争に踏み切るハードルは明らかに下がろう。しかも、例えば戦闘機と比べればAI搭載ドローンは安価で、戦費を抑えることにつながり得る。

 また、技術の拡散は必然的な流れで、開発している諸国間で軍拡競争が激化することが想定される。AI兵器がテロ集団の手に落ちるリスクも出てこよう。

 将棋や囲碁などではAIの能力向上につながった「深層学習(ディープラーニング)」が、戦場ではAI兵器の予測不可能性を増しかねない。ただでさえ予測のつかない事態が発生しがちな戦場で、AI兵器が人間の想像を超えた動きに出る可能性が高まるということだ。

 佐藤教授は「AI兵器はまだまだ信頼性が高くないと言える。ただ、信頼できない兵器であっても、あえて使用したい国、テロ組織が出てきかねない点も問題だ」とも指摘する。

『ターミネーター』への一線

 これまでのところ、AI兵器は「人間の介在(man in the loop)」が原則となっている。標的の発見、追尾、攻撃の成否評価はAI兵器が自律的に行うにしても、遠隔操作のカメラなどを通じて標的が正しいものかを判断し、最終的に攻撃するかどうかを決定するのは、あくまで人間だ。

 発見、追尾、ターゲット設定、攻撃、評価のうち、人間の殺傷に直結するターゲットの設定と攻撃をAIが自律的に行うようになれば、大きな一線を越える。これがAI兵器のあり方を抜本的に変える「シンギュラリティー(特異点)」だ。人間型のAI兵器が人間を殺す―。1984年の米ヒット映画「ターミネーター」の世界に通じる事態だ。

 一線を越えた兵器は「自律型致死性兵器システム(LAWS=発音はローズ、Lethal Autonomous Weapons System)」と呼ばれる。俗称は「キラーロボット(殺人ロボット)」だ。

 人を殺傷するための高度なAIと能力を有する人間型ロボットの「ターミネーター」まで行かなくとも、例えば、趣味用ドローンにAIと熱感知センサー、爆発物を搭載し、体温を発するものすべてを攻撃するようプログラムしたらどうなるか。あるいは、さらに技術が進み、顔認証機能と爆発物を搭載し、特定の人間を攻撃するようプログラムされた小型の昆虫型ドローンが多数、ばらまかれたらどうなるか。

 今年2月末には、インドとパキスタンが領有権を争うカシミール地方で衝突が再燃した。両軍ともLAWSは所有しないし、軍事行動には人間の関与があった。だが、仮に国境紛争を抱える当事国どうしが国境警備にAI兵器を使うようになり、何らかのきっかけで衝突が起き、それが事前のプログラムに基づきエスカレートしていったらどうなるのか。

 アサロ准教授は「AI兵器が常に正しく戦闘員と民間人、軍事目標と民間施設を識別するとは限らない。サイバー攻撃などでAIを乗っ取り、当初の標的ではない民間施設を攻撃するよう誘導することも可能だ。誰が攻撃を仕掛けて来たのかを判別するのも難しい」と問題提起する。

 そもそも、人間の生死に関わる決定を機械に委ねるということ自体、根本的な倫理問題をはらむ。仮にLAWSが病院などを誤爆し、多数の非戦闘員が死亡した場合、その責任を負うのはAIの開発者なのか、使用した特定の個人や国なのか―といった未知の領域の法的問題も出てくる。

ロボットが人を殺さぬように

 「人間の介在」は現時点では米国をはじめとする各国軍の基本で、LAWSの実戦配備を良しとする国はない。だが、ただでさえAI兵器の開発では、自動化と自律化の方向に流れがある。

 そのような中、国際社会でもLAWS規制の是非について協議が始まっている。枠組みはジュネーブの国連欧州本部で開催される特定通常兵器使用禁止制限条約(CCW)の締約国会議だ。

 3月25~29日まで開催された最新の協議には90か国以上の政府専門家や民間活動団体(NGO)関係者が参加した。初日にはグテレス国連事務総長が、LAWSを「道義的に激しく問題があり、政治的にも受け入れ難い」と表現し、参加国に規制を早期に実現するよう強く促した。

 オーストリアやブラジルなど、かねてより軍縮に熱心な諸国はLAWSの開発、所有、配備を禁止する国際条約作りに着手するよう提唱した。アフリカなどの多くの開発途上国も賛同した。

 しかし、米国は「LAWSに関連する技術により、民間人への被害を大きく減らすことができるし、(攻撃に至る)人間の判断をより正確にすることができる」と主張。LAWSから派生する問題は「既存の人道法でカバーされている」として、条約作りに反対する立場を明確にした。ロシア、イスラエル、英国、豪州もこれに同調した。

 日本政府はLAWSを開発することはないとの立場を明言した上、まずはCCW参加国の共通認識をまとめるような成果文書作りを目指すことを提唱した。規制推進派、反対派の溝が深いことを念頭にした妥協策だった。

 結局、双方の溝は3月会合で狭まるどころかむしろ鮮明化し、次回8月に予定される会合でも規制の方向性が定まる見通しは低いといえる。

 CCWでは2014年来、LAWSに関する非公式政府専門家会合が開かれている。これが2017年11月に公式会合に格上げされ、今回が4回目の会議だった。これに先立ち、国際的な人権団体などNGOはLAWSの開発禁止を求め、各国や国連に働きかけていた。

 AI兵器に転用され得る民間部門の技術開発は今後、その国の国力を左右する潜在力を持つ。各国とも最大限のフリーハンドを維持したいというのが本音だろう。LAWSの前段となるAI兵器を開発中の国ほど、規制への忌避感が強い。規制に明確に賛成しているのは、いずれもAI兵器を開発しておらず、LAWSを所有する可能性がゼロに近い国ばかりだ。

 CCWの意思決定はコンセンサス(全会一致)が原則だ。裏を返せば、参加する125か国すべてが事実上の拒否権を持つことになり、合意のハードルは高い。最近の軍縮条約としては、やはり有志国や国際NGOが主導してまとまった核兵器禁止条約(2017年採択、未発効)があるが、核保有国はいずれも関与を拒否している。「持てる国」が参加しない軍縮条約には実効性の欠如がつきまとう。

 アサロ准教授は、LAWSに反対する国際NGO「キラー・ロボットキャンペーン」の有力メンバーでもあるが、「我々はAIの軍事利用そのものに反対しているわけではない。例えば地雷除去や前線での負傷兵救出など、人間に役立つ技術もある。化学兵器は悪だが、人間の暮らしに役立つ化学製品があるのと同じことだ」と話す。

 米国が主張するようにLAWSが既存の国際人道法によって、すでに規制されているとの見方も一部にはある。例えば、ジュネーブ諸条約追加議定書第36条は、新兵器の開発にあたっては締約国が国際法の諸規則で禁止されているか否かを決定する義務を持つ―と定めている。同48条は文民と戦闘員、民間施設と軍事目標を常に区別することを定める。AI兵器は、いずれにも抵触する可能性はある。

 「ただ、ジュネーブ諸条約はそもそも、機械が人を殺したり、意思決定したりする事態を想定していない。新しい時代の新型兵器については、新たな規範、条約が望ましい」とアサロ准教授は強調する。

 日本でLAWS規制の必要性を提唱する立教大学の(おさ)有紀枝教授(NGO「難民を助ける会」理事長)は「LAWSは20~30年後、早ければ数年後に実用化される可能性がある」と強調。「仮に核兵器が事前に禁止されていたら、広島・長崎の被害はなかったかもしれない。実際に開発され、実戦配備されてからでは遅い。そこで生じる可能性がある人道的な被害を勘案すれば、今、できることは積極的に進めるべきだ」と警鐘を鳴らす。

注釈

注1 Battlefield Singularity by Elsa B. Kania Nov.28, 2017

参考文献

佐藤丙午「自律型致死性無人兵器システム(LAWS)」国際問題 No.672(2018年6月)
神保謙「無人化システム・ロボティクスと安全保障」国際問題 No.658(2017年1・2月号)

プロフィル
大内 佐紀( おおうち・さき
 読売新聞調査研究本部主任研究員。1986年入社。主に国際報道に携わり、ワシントン、ジュネーブ、ロンドン各特派員。英字紙ジャパン・ニューズ編集長、編集局次長などを経て2017年6月から現職。

無断転載禁止
556894 0 読売クオータリー 2019/05/01 12:00:00 2019/05/01 12:00:00 https://www.yomiuri.co.jp/media/2019/04/20190425-OYT8I50009-T.jpg?type=thumbnail

ピックアップ

読売新聞購読申し込み

アクセスランキング

読売IDのご登録でもっと便利に

一般会員登録はこちら(無料)
ページTOP
読売新聞社の運営するサイト
ヨミダス歴史館
ヨミドクター
The Japan News
発言小町
OTEKOMACHI
ささっとー
元気ニッポン!
未来貢献プロジェクト
YOMIURI BRAND STUDIO
美術展ナビ
教育ネットワーク
活字・文化プロジェクト
よみうり報知写真館
読売新聞社からのお知らせ