殺人まで拡大した「AI意思決定ロンダリング」 972マガジンのイスラエルの殺人指示AIラベンダーの記事が注目

2024年4月3日に掲載された972マガジンの「‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza」https://www.972mag.com/lavender-ai-israeli-army-gaza/
が話題になっている。

イスラエル軍が使用しているAI「ラベンダー」は殺人の標的を特定しており、その精度は90%である。残りの10%は無関係の一般市民などということになる。通常時は主としてハマスの幹部に限定して使用されていた。ラベンダーは殺人相手を20秒程度で特定すると、諜報員がターゲットが本当にハマスの幹部であるかを確認する。
しかし、2023年10月7日のハマスの攻撃以降、ハマスの全工作員を対象に拡大し、自宅にいる時に殺害するように変更された。その結果、ターゲットはピーク時には3万7千人にまで拡大し、諜報員が個々に確認することは不可能となった。
ラベンダーが殺害対象者を選定すると、その情報は「Where's Daddy?」と呼ばれるAIが対象を追跡し、自宅に戻ると攻撃指示が出る。自宅の場合、当然家族や友人がいることがほとんどなのでほぼ全員が死ぬことになる。国連の統計によれば、戦争開始後1ヶ月の間に、死者の半数以上にあたる6,120人は1,340世帯を持っており、多くは家の中で全員が殺されたという。巻き添えの被害者の許容範囲は15人から20人だったいう。
現在では国際的な非難(特にアメリカからの圧力)によって、こうした攻撃は行われていないが、ハマス幹部への攻撃は続行されおり、許容されている巻き添えは数百人と言われている。

これは他人事ではない。AIは元データの偏見を強化することがわかっている。自分ではできないあからさまな差別もAIを通すことで許され、楽になる。AI意思決定ロンダリングによる罪の意識の軽減が世界中で起きている。次は大量破壊兵器や民族浄化なのか?

好評発売中!
ネット世論操作とデジタル影響工作:「見えざる手」を可視化する
『ウクライナ侵攻と情報戦』(扶桑社新書)
『フェイクニュース 戦略的戦争兵器』(角川新書)
『犯罪「事前」捜査』(角川新書)<政府機関が利用する民間企業製のスパイウェアについて解説。

本noteではサポートを受け付けております。よろしくお願いいたします。