「エラーなし」の原則はない ラベンダーを使用した上級将校である証言者Bは、取材に対し、現在の戦争で諜報機関の職員たちはAIシステムの評価を独立して精査することを求められていないと繰り返した。それは時間を節約し、支障なく人間の標的を量産できるようにするためだ。 「すべてが統計的に、とてもドライに整然とおこなわれた」とBは言う。この監視の欠落は、内部調査でラベンダーの正確性が90%にとどまるとわかっていたのに承認されたという。言い換えるなら、殺害対象とされた人間の標的の10%はハマスの軍事部門のメンバーではまったくないと、事前に知られていたのだ。 たとえば、ラベンダーはハマスやPIJの戦闘員と似ている通信パターンを持つ人物を誤って戦闘員とみなすことがよくあったという。そこには、警察、民間防衛組織のメンバー、戦闘員の親戚、名前やニックネームが戦闘員とたまたま似ているだけの人、かつてハマスの戦闘員
![AIが生成した殺害リストの“10%の誤差“にイスラエル軍は目をつぶった | 人間の役割は「承認」のみだった](https://cdn-ak-scissors.b.st-hatena.com/image/square/0a972f8efc4b41ee28987a054d6509665055cc75/height=288;version=1;width=512/https%3A%2F%2Fcourrier.jp%2Fmedia%2F2024%2F05%2F27213506%2FGettyImages-1848251548-e1716780957417-1600x900.jpg)