국제 & 사회

이스라엘이 군사 AI 'Lavender'와 'Where's Daddy?'를 조합하여 '킬체인'으로 운용

말총머리 2024. 4. 17. 12:15
by Mohammed Ibrahim / https://unsplash.com/photos/a-lightning-bolt-striking-a-city-fPWzkoBa0UE


2023년 10월 팔레스타인의 순나파 이슬람 원리주의 조직 하마스가 이스라엘에 대한 대규모 공격을 실시했고 이에 이스라엘 측이 팔레스타인의 가자지구에 반격을 실시하면서 대규모 분쟁이 계속되고 있습니다. 이스라엘 국방군은 하마스의 전투원을 암살하기 위해 'Lavender'라는 AI를 활용하고 있는 것으로 보도되고 있는데 이 Lavender와 AI에 의한 추적시스템을 조합한 '킬체인'이라는 콤보로 민간 사람을 포함한 많은 가자지구 주민을 폭살하고 있다고 보도되고 있습니다.

Gaza war: Israel using AI to identify human targets raising fears that innocents are being caught in the net
https://theconversation.com/gaza-war-israel-using-ai-to-identify-human-targets-raising-fears-that-innocents-are-being-caught-in-the-net-227422

Gaza war: Israel using  AI to identify human targets raising fears that innocents are being caught in the net

Revelations by an investigative journalist that Israel is using AI to identify and target suspected Hamas members have shone a light on a frightening new aspect of warfare.

theconversation.com


‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza | +972 Magazine
https://www.972mag.com/lavender-ai-israeli-army-gaza/

‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza

The Israeli army has marked tens of thousands of Gazans as suspects for assassination, using an AI targeting system with little human oversight and a permissive policy for casualties, +972 and Local Call reveal.

www.972mag.com


이스라엘 국방군은 하마스와 이슬람 성전(PIJ)의 군사부문에 소속된 용의자를 암살하기 위해 AI를 이용한 'Lavender'라는 시스템을 개발했습니다. Lavender는 가자지구의 주민 230만 명을 감시하고 수집한 데이터를 분석하여 하마스와 이슬람 성전의 전투원일 가능성을 1에서 100까지의 점수로 평가합니다. 또한 점수가 높은 개인을 자동으로 암살대상으로 지정하는데 Lavender는 37,000명의 팔레스타인을 암살대상으로 나열했습니다.

뉴스사이트인 +972 Magazine에 의하면 이스라엘 국방군은 'Where's Daddy?'라는 추적시스템을 Lavender와 조합해 운용하고 있다고 합니다. 구체적으로는 Lavender가 암살대상으로 한 사람을 Where's Daddy?에 등록하고 추적합니다. 그리고 대상자가 집에 들어간 것을 Where's Daddy?가 감지하면 담당 군관계자에게 통지를 하고 대상자의 집이 폭격대상으로 지정된다는 흐름입니다. 이런 식으로 이스라엘 국방군은 대상자와 그 가족을 폭격으로 암살할 수 있게 되었고 이 콤보는 '킬체인'이라고 불립니다.

by Mohammed Ibrahim / https://unsplash.com/photos/smoke-billows-from-a-factory-in-a-city-jrcvHflmKvg


폭격에 사용되는 것은 유도장치를 갖지 않는 비유도 폭탄으로, 스마트 폭탄과 대조적인 폭탄으로 'Dumb Bombs(바보 폭탄)'라고 불리고 있습니다. +972 Magazine에 따르면 이스라엘 국방군은 하급 전투원을 암살할 때 비용을 억제하기 위해 이 Dumb Bombs를 사용하고 있었다고 합니다. +972 Magazine은 “이스라엘 국방군은 목표 전투원뿐만 아니라 그 가족과 인근 민간인에게도 피해가 미친다는 사실을 알고도 이 폭탄을 사용했다”고 비판했습니다.

+972 Magazine의 익명의 정보제공자에 의하면 이스라엘 국방군은 하급 전투원 1명당 최대 15~20명의 민간인을 살해하는 것을 허가하고 있었다고 합니다. 또 적 고위관계자의 경우는 민간인의 희생이 100명 이상에 이르는 것도 용인되었다고 합니다. 이것은 국제법에 위반이라고 +972 Magazine은 강하게 비난했습니다.

정보제공자에 따르면 이스라엘 국방군은 폭격대상의 가옥에 있는 민간인의 수를 자동 계산하는 소프트웨어를 사용하고 있었다고 합니다. 이 소프트웨어는 전쟁 전 데이터를 바탕으로 각 가옥의 거주자 수를 추정하고 그 지역으로부터 어느 비율의 주민이 대피했는지를 고려하여 거주자 수를 추측한다고 합니다. 시간을 절약하기 위해 이스라엘 국방군은 실제로 가옥을 감시하고 거주자의 수를 확인하지 않고 이 소프트웨어로 민간인의 피해를 추측했다는 것입니다.

by Emad El Byed / https://unsplash.com/photos/a-large-pile-of-rubble-next-to-a-dirt-road-FYBQe6hFtRA


그러나 정보제공자는 “이 모델은 현실과는 거리가 멀고 대피 전후에 가옥의 거주자 수가 크게 바뀌는 것을 고려하지 않았다”고 지적했습니다.

또 Where's Daddy?가 암살대상자의 귀가를 감지하고 나서 실제로 폭격할 때까지 시간차가 있었다는 것. 이 시간차로 인해 대상자가 다시 외출해 버렸음에도 불구하고 대상자의 자택을 폭격했고 가족만을 폭살해 버리는 일도 있었다고 정보제공자는 전했습니다.

게다가 과거의 전쟁에서는 고위관계자를 암살한 후에 군관계자가 전화를 가로채 민간인의 희생자수를 확인했지만 이번 전쟁에서는 하급 전투원에 대해서는 이 확인작업이 생략되었다고 합니다. 그 때문에 군은 폭격으로 실제로 몇 명의 민간인이 희생된 것인지 파악하고 있지 않고 하급 전투원에 대해서는 본인이 사망했는지도 확인하고 있지 않는 상황이라고 합니다.

+972 Magazine은 이스라엘 국방군이 AI를 이용해 효율을 중시하면서 가자지구에 사는 민간인을 학살했다고 비판하면서 전투원의  가족을 포함한 무차별 폭격은 분명 국제법을 무시한 인도에 반하는 행위라고 규탄했습니다. 학술 뉴스 미디어인 The Conversation은 “군사기술에서 속도와 살상력이 중요시되고 있습니다. 하지만 AI를 우선하면 인간의 주체성이 손상될 수 있습니다. 인간의 인지시스템은 비교적 느리기 때문에 시스템의 논리에서는 이것이 필요합니다. 또한 컴퓨터가 생성한 결과에 대한 인간의 책임감도 없어집니다."라고 우려했습니다.

덧붙여 The Conversation에 의하면 이스라엘 국방군은 AI 시스템의 사용을 즉시 부정했다고 합니다.