Subskrybuj:
Komentarze do posta (Atom)
W Niemczech człowiek niesłusznie skazany po 13 latach w więzieniu dostał rachunek za spanie i obiady na 100 tysięcy euro!
Historia Manfreda Genditzkiego brzmi jak scenariusz rodem z koszmaru. Mężczyzna ten, w 2010 roku, został skazany na dożywocie za morderstwo,...
-
Merdanie ogonem u psa jest dla większości ludzi czytelne. Świadczy o ekscytacji i pozytywnym nastawieniu zwierzęcia. A jeśli kot macha ogo...
-
Polskie drewno opałowe ogrzeje Niemców. Co zostanie dla Polaków? Ilość drewna byłaby w Polsce wystarczająca, gdyby nie było ono sprzedawan...
-
Pytanie: Panie ministrze, dziękuję za udzielenie wywiadu. Czy uważa Pan, że Stany Zjednoczone i Rosja są obecnie w stanie wojny? Siergiej Ła...
„Automatyczne zabójstwo”: Izrael pozwala sztucznej inteligencji decydować, kto umrze w Gazie
Jak wykazało dochodzenie przeprowadzone przez magazyn +972 , izraelska armia zastosowała kolejny system oparty na sztucznej inteligencji do wybierania celów bombardowań w Strefie Gazy . Nowy system wygenerował obszerne listy zabójstw, na których potępia się dziesiątki tysięcy Palestyńczyków, co stanowi część rosnącej zależności IDF od sztucznej inteligencji w planowaniu śmiercionośnych ataków.
Cytując sześciu oficerów izraelskiego wywiadu, magazyn z Tel Awiwu stwierdził, że nieujawniony wcześniej system sztucznej inteligencji , nazwany „Lawenda”, odegrał „centralną rolę w bezprecedensowym bombardowaniu Gazy od października ubiegłego roku, a wojsko skutecznie traktuje jego wyniki „jako gdyby to była ludzka decyzja.”
„Formalnie system Lavender ma na celu oznaczanie wszystkich podejrzanych agentów wojskowych skrzydeł Hamasu i Palestyńskiego Islamskiego Dżihadu (PIJ), w tym tych niskiej rangi, jako potencjalnych celów bombardowań ” – podało pismo, dodając, że „w pierwszych tygodniach wojny armia prawie całkowicie polegała na Lavender, która zatrzymała aż 37 000 Palestyńczyków jako podejrzanych bojowników – i ich domy – w celu ewentualnych ataków powietrznych”.
Jednakże chociaż w wyniku nalotów zginęły tysiące ludzi, większość stanowiły „kobiety i dzieci lub osoby, które nie brały udziału w walkach” – powiedzieli magazynowi funkcjonariusze, zauważając, że izraelscy dowódcy polowi często polegają na systemie sztucznej inteligencji bez konsultacji.
„Personel ludzki często służył jedynie jako «pieczątka» dla decyzji podejmowanych przez maszynę ” – podało jedno ze źródeł, dodając, że wielu dowódców spędza zaledwie „20 sekund” na przeglądaniu celów przed zatwierdzeniem ataku – „tylko po to, aby upewnić się, że cel oznaczony lawendą jest Mężczyzna.”
Wkład człowieka został zdegradowany do tak niewielkiej roli w procesie decyzyjnym, że wnioski Lavender są często traktowane przez izraelskie wojska jako „rozkaz”, „bez wymogu niezależnego sprawdzenia, dlaczego maszyna dokonała takiego wyboru”.
Takie decyzje podejmowane są pomimo dobrze znanych błędów systemowych, które w co najmniej 10% przypadków skutkują błędną identyfikacją celów . Niemniej jednak sztuczna inteligencja „systematycznie” wybierała domy podejrzanych bojowników, przy czym bombardowania IDF często przeprowadzane są późno w nocy, kiedy bardziej prawdopodobne jest, że obecne będą całe rodziny.
https://www.zerohedge.com/geopolitical/israel-lets-ai-decide-who-dies-gaza-report