fc2ブログ
 ポール・シャーレ著「無人の兵団」を読んだ。本書は自律型兵器の現状と未来を展望している。ターゲットを捜し、ターゲットに向かい、攻撃を決定し、攻撃するという4段階の意思決定プロセス(OODAループ)の中枢に人間がいるものは、半自律型兵器、ループのすべてをAIが行う場合は、完全自律型兵器と呼ばれる。

イスラエルのハーピー滞空弾薬のような限定的な完全自律型はすでにいくつか存在する。イージス・システムは、監督付き自律型ウェポン・システムと呼ばれる。このシステムでは、人間が各種の設定を決めて、脅威を確定した後は、兵器が自律して防御のための攻撃を行う。ただし、人間が途中で攻撃中止を命じることができる。半自律・完全自律・監督付き自律という三つの型には、それぞれ長所と短所がある。

無人兵器システムは米映画「ターミネーター」に出てくる殺人ロボットではなく、「スカイネット」に対応する。兵器運用のプロセスは、兵器の「ライフサイクル」と「ターゲティング・サイクル」(「キルチェーン」)からなる。

「ライフサイクル」とは、兵器化開始の初段階におけるコンセプト規定から、研究開発、技術的検証や兵器の試験・評価・検証、使用、そして廃棄に至る、物理的には数十年に及ぶ時間の中での兵器の管理を指す。「ターゲティング・サイクル」とは、攻撃の起動、探索、識別、追跡、(兵器の)選択、攻撃、評価の各機能を分解したもので、攻撃作戦のプロセスを概念分解したものである。

次世代の戦争で人工知能(AI)が決定的な役割を果たすとされるのは、戦場の特性に応じて、「ターゲティング・サイクル」の各段階を人工知能が自動化することが予想されるためである。それによって戦争は極めて効率的になると期待される。

しかし、たとえ効率的な戦闘が望まれるとしても、現実的に兵器の自律化に対しては、現職の軍人を含む大きな反対がある。国防省指令では、兵器の信頼性の重要度が強調されており、信頼できない無人兵器システムを米軍が運用することを禁じている。その上で、兵器システムには効率的な「人間の介入」を担保する必要があると強調されている。

現段階のAIは、人間の予想外の答えを出すこともあれば、極めて簡単な判断を間違うこともあると指摘される。兵器にAIを導入したとして、それが信頼できない判断をする可能性があるのであれば、兵器システムに採用すること自体がリスクとなる。しかし、実証され、効果が検証された新技術を兵器に導入することは、自国の軍事力向上につながるため、各国は可能な限り開発を急ごうとする。この二つの立場の相克が、無人兵器システムの問題を複雑にしている。

兵器設計の段階で、人間の関与を担保する方法としては、問題が発生した場合に兵器システムを完全にシャットダウンできる、「キル・スィッチ」を兵器に常備させる措置などが考えられる。また、戦場の状況に合わせて人間の関与を担保できるようにする方法は、個別の状況における兵器の運用プログラムを構築することを意味する。兵器は、その使用方法や技術特性に応じて、国際人道法が完全に適用できるかどうか決まってくるため、兵器に「運用者」の意図を正確に反映させる方法が課題となる。

意図の反映には、ハードウエアをそのように設計する方法、ソフトウエアに組み込む方法、そして「人間と機械の連動性」により人間の介入を担保する方法がある。ハードウエアとソフトウエアに人間の関与を組み込む方法は理想的であるが、ルール順守の査察・検証方法が限定され、AI進化による予想不能な「知性」の発現可能性のため、人間と機械の連動性により人間の介入を担保する方法が現実的な方策として浮かび上がってくる。


| HOME |


Design by mi104c.
Copyright © 2020 個人出版コミュニティ, All rights reserved.