Glas Javnosti

Veštačka inteligencije je odgovorna za ubistvo radnika Svetske centralne kuhinje u Gazi???

Vesti
Autor: Glas javnosti

Sistem veštačke inteligencije "Lavender", koji koristi izraelska vojska, identifikovao je 37.000 Palestinaca koji su povezani sa Hamasom ili palestinskim Islamskim džihadom, reklo je šestoro obaveštajaca, a prenosi "Gardijan".

U izraelskoj vazdušnoj kampanji u Gazi korišćena je baza podataka kojom upravlja veštačka inteligencija koja je u jednom trenutku otkrila 37.000 mogućih meta na osnovu njihovih veza sa Hamasom, navodi neimenovani obaveštajni izvor, a prenosi "Gardijan".

Govoreći o upotrebi sistema veštačke inteligencije (AI) nazvanog "Lavender" u ratu u Gazi, obaveštajni izvor tvrdi da su izraelski vojni zvaničnici odobrili ubistvo velikog broja palestinskih civila, naročito u prvim nedeljama i mesecima sukoba. Kako se ističe, upotreba veštačke inteligencije u ratovanju predstavlja ulazak na nepoznatu teritoriju modernog ratovanja i nameće mnoga pravna pitanja i moralne dileme, menjajući odnos između vojnog osoblja i mašina. 


Svedočanstva šestoro obaveštajaca koji su bili uključeni u korišćenje veštačke inteligencije kako bi se otkrili ciljevi povezani sa Hamasom i Palestinskim islamskim džihadom zabeležili su novinari izraelsko-palestinskog magazina +972 i "Lokal kola" na hebrejskom, a materijal su ekskluzivno podelili sa "Gardijanom". 

Sva šestorica su rekla da je "Lavender" igrao ključnu ulogu u ratu, obrađujući ogromne količine podataka kako bi brzo identifikovali moguće niže operativce kao mete. Četvoro izvora je reklo da je u ranoj fazi rata, "Lavender" identifikovao 37.000 Palestinaca koje je veštačka inteligencija povezala sa Hamasom ili Islamskim džihadom. 

"Lavender" je razvila elitna obaveštajna jedinica Izraelskih odbrambenih snaga, Jedinica 8200, a za neke ciljeve, IDF je tražio prethodno odobrenje za procenjeni broj civila koji bi mogli biti ubijeni. Dva izvora su navela da je u prvim nedeljama sukoba bilo odobreno da se ubije 15 ili 20 civila tokom vazdušnih napada na niže rangirane militante, navodi britanski list.  

Napadi na takve ciljeve vršeni su nevođenim bombama, koje ruše cele kuće i ubijaju sve koji su u njoj, a kako je rekao jedan od izvora nisu hteli da troše skupe bombe na nevažne ljude. 


Ako je Izrael koristio ove bombe da sravni sa zemljom kuće hiljada Palestinaca koji su uz pomoć AI povezani sa Hamasom, to bi, prema mišljenju stručnjaka za konflikte, moglo da objasni šokantno visoki broj stradalih u ratu, ističe se u tekstu. Prema podacima palestinskog Ministarstva zdravlja 33.000 Palestinaca stradalo je za šest meseci sukoba.  

Odgovarajući na pitanja medija u vezi sa svedočenjima obaveštajaca, IDF je naveo da izvode operacije u skladu sa pravilima srazmerne upotrebe sile po međunarodnim zakonima, kao i da su nevođene bombe "standardno naoružanje" koje piloti IDF-a koriste sa "visokom stopom preciznosti".

U svojoj izjavi "Lavender" opisuju kao bazu podataka koja se koristi za "unakrsnu referencu sa obaveštajnim izvorima, kako bi se došlo do ažurnih informacija o vojnim operativcima terorističkih organizacija. Ovo nije lista potvrđenih vojnih operativaca podobnih za napad".

IDF ne koristi sistem veštačke inteligencije koji identifikuje terorističke operativce ili pokušava da predvidi da li je neka osoba terorista, dodaje se u odgovorima.

"Informacioni sistemi su samo alati za analitičare u procesu identifikacije cilja", ističe se u saopštenju.

Kako se navodi u tekstu, proglašavanje "sumnjivih pojedinaca" za legitimne mete ranije je bio proces, dok je u nedeljama i mesecima posle 7. oktobra, ovaj model za odobravanje udara na ljudske mete dramatično ubrzan, rekli su izvori. 

"Na nas je stalno vršen pritisak: Dajte nam još meta. Zaista su vikali na nas. Rečeno nam je: Sada moramo da uništimo Hamas, bez obzira na cenu. Šta god možete, bombardujte", ispričao je jedan obaveštajac.

Da bi ispunio ovaj zahtev, IDF se u velikoj meri oslanjao na "Lavender" da napravi bazu podataka o pojedincima za koje se proceni da imaju karakteristike pripadnika Islamskog džihada ili Hamasa. 


Iako nisu pričali o detaljima kako radi "Lavender", obaveštajni izvori naveli su da je algoritam programa promenjen u prvim nedeljama rata, kao i da je uz njega korišćen i drugi AI sistem "Gospel" koji je bio usmeren pre svega na traženje ciljeva kakvi su zgrade i građevinske strukture više nego pojedinci. 

Obaveštajci su objasnili i da je lakše gađati kuće onih koji su određeni kao mete zbog povezanosti sa Hamasom, nego ciljati ih dok su u vojnom objektu, kao i da se situacija sa brojem dozvoljenih civilnih žrtava stalno menjala. Odnosno, nekada je dozvoljeni broj civilnih žrtava u napadu na niže rangiranog pripadnika Hamasa bio viši, nekada niži, a dostizao je i do 20 civila.  

Glas javnosti /S04S 

BONUS VIDEO


SKINI APLIKACIJU

glas javnosti android
glas javnosti IOS


POVEZANE VESTI




KOMENTAR