見出し画像

軍事技術の裏側:日本の防衛銘柄とデュアルユース技術の現状

 日本では多数の企業や研究者が軍需産業や防衛産業で働いています。ところが、意外とこれらの産業で働いている従業員や研究者には、自分自身が軍事関連の生産や研究をしているという自覚がありません。
 
 筆者も軍事関連製品の開発をしていましたが、最初の一年間くらいは、自分が何の目的で製品を開発しているのか知りませんでした。これは大根農家が自分の生産した大根が最終的に、どのような大根料理で消費されるのか、たいして意識していないのと同じことです。

 初めて自分が作っているものが軍事目的だと理解したのは、30年以上前のことです。仕様書にMIL規格と定義されていなければ、気が付かなかったかもしれません。MIL規格とは米国国防総省調達基準のことで、MILはミリタリーの略です。

 近年では頑丈なスマホやノートパソコンでも、MIL規格をクリアしている製品は幾らでもあるので、MIL規格の部品や製品を作っていても、必ずしも軍事関連とは限りませんが、30年以上前はMIL規格を使う用途は非常に限定的でした。

 以下のような企業は防衛銘柄として取り上げられているので、自分が何を作っているか、明確に分かっているはずです。一方で制御系ソフトや、AI関連ソフトの開発者は、民生用だと思って開発していても、実際には軍事用がメインであることも少なくありません。

 このように民生用でも軍事用でも使える技術のことをデュアルユースと言いますが、日本の製造業の殆どの技術がデュアルユースです。

防衛費増額で注目の防衛産業! 日本の防衛銘柄や今後の見通しを紹介
記事公開日 2023/4/21 18:00 最終更新日 2023/4/21 18:00
(中略)
■防衛産業とは
 
防衛産業とは、軍事関連の製品やサービスを提供する産業です。具体的には、自衛隊が使う航空機や艦船、車両や通信システムなど防衛製品の開発と生産に関わる産業です。
 
防衛省と直接取引を行う三菱重工業(7011)、川崎重工業(7012)、IHI(7013)などの大手企業から、部品などをつくる下請け企業まで含めるとすそ野が広い業界です。戦闘機や戦車はそれぞれ1000社ほど、護衛艦には数千社が関わっていると言われています。

QUICK Money World 辰巳 華世

自律型致死兵器システム(LAWS:Lethal Autonomous Weapons Systems)

 日本では自律型致死兵器システム(LAWS:Lethal Autonomous Weapons Systems)やキラーロボットはあまりニュースなりませんが、日本国外では世論を二分するほど、非常に重要な話題です。

AI国際機関設置「検討を」 自律型兵器禁止も訴え―国連総長
2023年07月21日09時19分 
【ニューヨーク時事】グテレス国連事務総長は20日、加盟各国への勧告をまとめた提言書を公表し、急速に進化を遂げる人工知能(AI)について、リスク管理のための新たな国際機関の設置を検討するよう促した。

時事通信

LAWSでは、どのようなソフトウェア技術が使われているか?

機械学習・ディープラーニング:LAWSにおける目標の検出、識別、追跡などのタスクは、機械学習やディープラーニングの技術を基にしていることが多いです。顔認識、感情認識、音声認識など、軍事用も民生用も基本的には同じ技術です。

ロボティクス制御:センサーからのデータをもとに、LAWSの物理的な動きや操作をコントロールする技術です。
 
コンピュータビジョン:カメラや他の光学センサーからの情報を解析し、物体を検出、識別、追跡する技術です。

センサー・フュージョン:複数のセンサーからの情報(例:レーダー、カメラ、赤外線センサーなど)を統合して、より正確な情報を得る技術です。
 
組み込みシステム:ハードウェアレベルでのソフトウェアの最適化やリアルタイムの操作を行う技術です。

セキュリティ:LAWSが外部からの攻撃やハッキングに対して十分なセキュリティを持つことを確保するための技術です。

シミュレーション:仮想環境でのLAWSの動作テストやシナリオベースのシミュレーションを行う技術です。これはビデオゲームで使われる技術と基本的には同じです。

LAWSの何が問題なのか?

 LAWSに関する議論は、倫理的、法的、技術的な側面を中心に多岐にわたりますが、以下に主要な論点の一部を紹介します。

倫理的論点

人の介在なしの判断:兵器が人の介在なしに攻撃を決定・実行することの倫理性が問題視されています。これは、人間の判断を排除した戦争の実行が、誤った攻撃や予期しないエスカレーションのリスクを高めるためです。
 
アカウンタビリティの問題:誤った攻撃や被害が生じた場合、責任は誰にあるのかが重要なテーマとなっています。機械の判断による被害の場合、責任の所在が曖昧になるため、戦争に関する国際法などの整備を含めて議論を深める必要があります。

法的論点

国際法との整合性:現存の国際法、特に人道に対する法や戦時国際法との整合性が問題になっています。自律兵器は現行の法律で対応できない事態が多数想定されています。
 
識別能力:非戦闘員と戦闘員を正確に区別する能力も問題になっています。現実の戦場では非常に複雑な状況が生じるため、自律兵器が正確な判断を下すことが困難な可能性と、人間よりも正確な判断が下せる可能性の両方が混在しています。

技術的論点

誤認識とハッキング:LAWSが敵からのハッキングやサイバー攻撃を受けると、誤った判断や行動をとるリスクが高まります。
 
技術の信頼性:LAWSの技術が十分に進化しているのか、また、その技術にはどれだけの信頼性があるのかについては、シミュレーションだけでは限界があり、実戦で使用してみないと判断できません。

戦略的・安全保障の論点

軍拡競争:各国がLAWSの開発競争を始めることで、新たな軍拡競争が生じるリスクがあります。
 
エスカレーションリスク:LAWSの誤った判断や反応により、小規模な事件が大規模な軍事的対立にエスカレートするリスクがあります。

社会的・文化的論点

戦争のハードルの低下:LAWSを使用する国の兵士の命が直接リスクにさらされないため、戦争を開始するハードルが低くなる可能性が危惧されています。
 
人間の価値の軽視:機械による殺害が日常化することで、人間の生命の価値が軽視されるリスクも指摘されています。
 
 これらの論点は、LAWSの開発と導入が進む中で、国際社会において継続的に議論されている重要課題の極一部です。

この記事が気に入ったらサポートをしてみませんか?