wtorek, 28 maja 2024

„Automatyczne zabójstwo”: Izrael pozwala sztucznej inteligencji decydować, kto umrze w Gazie

 

  1. „Automatyczne zabójstwo”: Izrael pozwala sztucznej inteligencji decydować, kto umrze w Gazie

    Jak wykazało dochodzenie przeprowadzone przez magazyn +972 , izraelska armia zastosowała kolejny system oparty na sztucznej inteligencji do wybierania celów bombardowań w Strefie Gazy . Nowy system wygenerował obszerne listy zabójstw, na których potępia się dziesiątki tysięcy Palestyńczyków, co stanowi część rosnącej zależności IDF od sztucznej inteligencji w planowaniu śmiercionośnych ataków.

    Cytując sześciu oficerów izraelskiego wywiadu, magazyn z Tel Awiwu stwierdził, że nieujawniony wcześniej system sztucznej inteligencji , nazwany „Lawenda”, odegrał „centralną rolę w bezprecedensowym bombardowaniu Gazy od października ubiegłego roku, a wojsko skutecznie traktuje jego wyniki „jako gdyby to była ludzka decyzja.”

    „Formalnie system Lavender ma na celu oznaczanie wszystkich podejrzanych agentów wojskowych skrzydeł Hamasu i Palestyńskiego Islamskiego Dżihadu (PIJ), w tym tych niskiej rangi, jako potencjalnych celów bombardowań ” – podało pismo, dodając, że „w pierwszych tygodniach wojny armia prawie całkowicie polegała na Lavender, która zatrzymała aż 37 000 Palestyńczyków jako podejrzanych bojowników – i ich domy – w celu ewentualnych ataków powietrznych”.

    Jednakże chociaż w wyniku nalotów zginęły tysiące ludzi, większość stanowiły „kobiety i dzieci lub osoby, które nie brały udziału w walkach” – powiedzieli magazynowi funkcjonariusze, zauważając, że izraelscy dowódcy polowi często polegają na systemie sztucznej inteligencji bez konsultacji.

    „Personel ludzki często służył jedynie jako «pieczątka» dla decyzji podejmowanych przez maszynę ” – podało jedno ze źródeł, dodając, że wielu dowódców spędza zaledwie „20 sekund” na przeglądaniu celów przed zatwierdzeniem ataku – „tylko po to, aby upewnić się, że cel oznaczony lawendą jest Mężczyzna.”

    Wkład człowieka został zdegradowany do tak niewielkiej roli w procesie decyzyjnym, że wnioski Lavender są często traktowane przez izraelskie wojska jako „rozkaz”, „bez wymogu niezależnego sprawdzenia, dlaczego maszyna dokonała takiego wyboru”.

    Takie decyzje podejmowane są pomimo dobrze znanych błędów systemowych, które w co najmniej 10% przypadków skutkują błędną identyfikacją celów . Niemniej jednak sztuczna inteligencja „systematycznie” wybierała domy podejrzanych bojowników, przy czym bombardowania IDF często przeprowadzane są późno w nocy, kiedy bardziej prawdopodobne jest, że obecne będą całe rodziny.

    https://www.zerohedge.com/geopolitical/israel-lets-ai-decide-who-dies-gaza-report

Brak komentarzy:

Prześlij komentarz

Zbrodnicze małżeństwo Graffów

W piśmie z 19 listopada 1953 roku prokurator Alicja Graff wymieniała zarzuty wobec płk. Wacława Kostka-Biernackiego:  „Od 1931 r. do 31 sier...