Subskrybuj:
Komentarze do posta (Atom)
Zbrodnicze małżeństwo Graffów
W piśmie z 19 listopada 1953 roku prokurator Alicja Graff wymieniała zarzuty wobec płk. Wacława Kostka-Biernackiego: „Od 1931 r. do 31 sier...
-
Polskie drewno opałowe ogrzeje Niemców. Co zostanie dla Polaków? Ilość drewna byłaby w Polsce wystarczająca, gdyby nie było ono sprzedawan...
-
Merdanie ogonem u psa jest dla większości ludzi czytelne. Świadczy o ekscytacji i pozytywnym nastawieniu zwierzęcia. A jeśli kot macha ogo...
-
… pokrzyżował plany Żydom z Chabad Lubawicz – czyli: mene, tekel, upharsin Junta planowała zasiedlenie Ukrainy Żydami z USA. 9 marca 2014 ro...
„Automatyczne zabójstwo”: Izrael pozwala sztucznej inteligencji decydować, kto umrze w Gazie
Jak wykazało dochodzenie przeprowadzone przez magazyn +972 , izraelska armia zastosowała kolejny system oparty na sztucznej inteligencji do wybierania celów bombardowań w Strefie Gazy . Nowy system wygenerował obszerne listy zabójstw, na których potępia się dziesiątki tysięcy Palestyńczyków, co stanowi część rosnącej zależności IDF od sztucznej inteligencji w planowaniu śmiercionośnych ataków.
Cytując sześciu oficerów izraelskiego wywiadu, magazyn z Tel Awiwu stwierdził, że nieujawniony wcześniej system sztucznej inteligencji , nazwany „Lawenda”, odegrał „centralną rolę w bezprecedensowym bombardowaniu Gazy od października ubiegłego roku, a wojsko skutecznie traktuje jego wyniki „jako gdyby to była ludzka decyzja.”
„Formalnie system Lavender ma na celu oznaczanie wszystkich podejrzanych agentów wojskowych skrzydeł Hamasu i Palestyńskiego Islamskiego Dżihadu (PIJ), w tym tych niskiej rangi, jako potencjalnych celów bombardowań ” – podało pismo, dodając, że „w pierwszych tygodniach wojny armia prawie całkowicie polegała na Lavender, która zatrzymała aż 37 000 Palestyńczyków jako podejrzanych bojowników – i ich domy – w celu ewentualnych ataków powietrznych”.
Jednakże chociaż w wyniku nalotów zginęły tysiące ludzi, większość stanowiły „kobiety i dzieci lub osoby, które nie brały udziału w walkach” – powiedzieli magazynowi funkcjonariusze, zauważając, że izraelscy dowódcy polowi często polegają na systemie sztucznej inteligencji bez konsultacji.
„Personel ludzki często służył jedynie jako «pieczątka» dla decyzji podejmowanych przez maszynę ” – podało jedno ze źródeł, dodając, że wielu dowódców spędza zaledwie „20 sekund” na przeglądaniu celów przed zatwierdzeniem ataku – „tylko po to, aby upewnić się, że cel oznaczony lawendą jest Mężczyzna.”
Wkład człowieka został zdegradowany do tak niewielkiej roli w procesie decyzyjnym, że wnioski Lavender są często traktowane przez izraelskie wojska jako „rozkaz”, „bez wymogu niezależnego sprawdzenia, dlaczego maszyna dokonała takiego wyboru”.
Takie decyzje podejmowane są pomimo dobrze znanych błędów systemowych, które w co najmniej 10% przypadków skutkują błędną identyfikacją celów . Niemniej jednak sztuczna inteligencja „systematycznie” wybierała domy podejrzanych bojowników, przy czym bombardowania IDF często przeprowadzane są późno w nocy, kiedy bardziej prawdopodobne jest, że obecne będą całe rodziny.
https://www.zerohedge.com/geopolitical/israel-lets-ai-decide-who-dies-gaza-report