Izrael używa sztucznej inteligencji do wyznaczania celów ataków

W miniony czwartek Reuters podał, że Stany Zjednoczone analizują doniesienia mediów, jakoby izraelskie wojsko wykorzystywało sztuczną inteligencję do identyfikacji celów bombardowań w Gazie. Było to pokłosie artykułu opublikowanego na łamach +972, w którym stwierdzono, że armia izraelska oznaczyła dziesiątki tysięcy Palestyńczyków w Gazie jako podejrzanych o zabójstwo, stosując system namierzania o nazwie Lavender, przy niewielkim nadzorze człowieka.

Rzecznik ds. bezpieczeństwa narodowego Białego Domu, John Kirby, w wywiadzie dla CNN powiedział, że Stany Zjednoczone nie zweryfikowały treści doniesień medialnych opublikowanych na łamach +972 o programie sztucznej inteligencji. Z  relacji tych wynika, że według sześciu oficerów izraelskiego wywiadu – z których wszyscy służyli w armii podczas obecnej wojny w Strefie Gazy i mieli bezpośredni związek z wykorzystaniem sztucznej inteligencji do wyznaczania celów do zabójstwa – Lavender odegrał kluczową rolę w bezprecedensowych zamachach bombowych na Palestyńczykach, zwłaszcza na początku wojny. W rzeczywistości, według źródeł, wpływ Lavender na operacje wojskowe był taki, że w zasadzie traktowano wyniki oprogramowania AI „tak, jakby była to decyzja człowieka”. 

The Guardian” natomiast pisze, że Izrael użył sztucznej inteligencji do zidentyfikowania 37 000 celów Hamasu oraz, że wydał pozwolenie na zamordowanie cywilów w pogoni za bojownikami Hamasu „niższej rangi”. Dalej możemy przeczytać, że „wykorzystanie przez Izrael potężnych systemów sztucznej inteligencji w wojnie z Hamasem wkroczyło na niezbadane terytorium zaawansowanych działań wojennych, rodząc szereg kwestii prawnych i moralnych oraz zmieniając relacje między przedstawicielami armii a maszynami”. Sekretarz generalny ONZ, Antonio Guterres, (Times of Israel) wyraził poważne zaniepokojenie doniesieniami, jakoby Izrael wykorzystywał sztuczną inteligencję do identyfikowania celów w Gazie, mówiąc, że jest „głęboko zaniepokojony doniesieniami o wykorzystywaniu przez izraelskie wojsko sztucznej inteligencji jako narzędzia identyfikacji celów, szczególnie w gęsto zaludnionych obszarach mieszkalnych, co skutkuje wysokim poziomem ofiar wśród ludności cywilnej” i stwierdza dalej: „żadnej części decyzji dotyczących życia i śmierci, które mają wpływ na całą rodzinę, nie należy oddawać zimnym kalkulacjom algorytmów” (France24).

Dodatkowo dwa źródła izraelskie podały, że „w pierwszych tygodniach wojny armia zdecydowała również, że na każdego młodszego bojownika Hamasu wskazanego przez Lavender dozwolono zabić nawet od 15 do 20 cywilów”. Izrael wprowadził do wojskowej agendy ataki oparte na sztucznej inteligencji po 11-dniowych bombardowaniach Gazy w maju 2021 r., gdzie wtedy dowódcy nazwali to „pierwszą na świecie wojną przy pomocy sztucznej inteligencji”. Aviv Kochavi, dowódca wojskowy podczas wojny w 2021 r. powiedział izraelskiemu portalowi informacyjnemu Ynet w zeszłym roku, że siły zbrojne wykorzystywały systemy sztucznej inteligencji do identyfikowania „100 nowych celów dziennie” zamiast 50 w porównaniu do bombardowania Gazy rok wcześniej. Kilka tygodni po zakończeniu obecnej wojny w Gazie wpis na blogu izraelskiego wojska informuje, że jego „dyrekcja ds. namierzania” wzmocniona sztuczną inteligencją zidentyfikowała ponad 12 000 celów w zaledwie 27 dni. (France24). Al-Dżazira z kolei podaje, że armia izraelska posiada bazę tysięcy Palestyńczyków, oznaczonych przez Lavender jako potencjalne cele do bombardowań. „Ta baza danych jest odpowiedzialna za sporządzanie list zabitych aż 37 000 celów” – powiedział redakcji Al-Dżazira Rory Challands, korespondent z okupowanej Wschodniej Jerozolimy. Anonimowi urzędnicy izraelskiego wywiadu, którzy rozmawiali z mediami, powiedzieli, że poziom błędu Lavender wynosi około 10 procent. 

Kropla drąży skałę! Twoje zaangażowanie ma znaczenie. Pomóż w promocji tego portalu. Udostępnij proszę:
Ahmed Elsaftawy
Ahmed Elsaftawy
Artykuły: 17
Skip to content