Pare ceva desprins din science-fiction: roiuri de roboți ucigași care vânează singuri ținte și sunt capabili să ucidă fără ca vreun om să dea acordul. Dar conceptul este pe cale să devină realitate, pe măsură ce Statele Unite, China și alte câteva națiuni fac progrese rapide în dezvoltarea și desfășurarea unei noi tehnologii care are potențialul de a remodela natura războiului, transferând deciziile de viață și de moarte către drone autonome echipate cu programe de inteligență artificială. Îngrijorate de riscurile războiului robotizat, unele țări doresc noi constrângeri legale, dar SUA și alte mari puteri se opun, transmite The New York Times.
Această perspectivă este atât de îngrijorătoare pentru multe alte guverne, încât ele încearcă să atragă atenția prin propuneri la ONU pentru a impune reguli obligatorii din punct de vedere juridic privind utilizarea a ceea ce militarii numesc arme autonome letale.
„Acesta este cu adevărat unul dintre cele mai importante puncte de inflexiune pentru omenire”, a declarat Alexander Kmentt, negociatorul șef al Austriei pe această temă, într-un interviu. „Care este rolul ființelor umane în utilizarea forței – este o problemă de securitate absolut fundamentală, o problemă juridică și o problemă etică”.
Dar, deși ONU oferă o platformă pentru ca guvernele să își exprime îngrijorarea, este puțin probabil ca acest proces să producă noi restricții substanțiale cu caracter obligatoriu din punct de vedere juridic. Statele Unite, Rusia, Australia, Israel și alții au susținut că deocamdată nu este nevoie de o nouă legislație internațională, în timp ce China dorește să definească orice limită legală atât de restrânsă încât să aibă un efect redus în practică, spun cei care susțin controlul armelor.
Rezultatul a fost acela de a lega dezbaterea într-un nod procedural, cu puține șanse de a progresa în viitorul apropiat în privința unui mandat cu caracter obligatoriu din punct de vedere juridic.
„Nu considerăm că este momentul potrivit”, a declarat Konstantin Vorontsov, șeful adjunct al delegației ruse la ONU, în fața diplomaților care se înghesuiau într-o sală de conferințe de la subsol, recent, la sediul ONU din New York.
Dezbaterea privind riscurile inteligenței artificiale a atras din nou atenția în ultimele zile, odată cu bătălia pentru controlul OpenAI, probabil cea mai importantă companie de inteligență artificială din lume, ai cărei lideri au părut divizați cu privire la faptul că firma ia suficient de mult în considerare pericolele tehnologiei. Iar săptămâna trecută, oficiali din China și din Statele Unite au discutat o problemă conexă: potențialele limite privind utilizarea I.A. în deciziile privind desfășurarea armelor nucleare.
În acest context, întrebarea privind limitele care ar trebui impuse utilizării armelor autonome letale a căpătat o nouă urgență și, deocamdată, se reduce la problema dacă este suficient ca ONU pur și simplu să adopte linii directoare fără caracter obligatoriu, poziție susținută de Statele Unite.
„Cuvântul «trebuie» va fi foarte greu de acceptat de către delegația noastră”, le-a declarat altor negociatori Joshua Dorosin, șeful departamentului pentru acorduri internaționale din cadrul Departamentului de Stat, în timpul unei dezbateri din luna mai cu privire la limbajul restricțiilor propuse.
Dorosin și membrii delegației americane, care include un reprezentant al Pentagonului, au susținut că, în loc de o nouă lege internațională, ONU ar trebui să clarifice faptul că legislația internațională existentă privind drepturile omului interzice deja națiunilor să folosească arme care vizează civili sau care le provoacă acestora un prejudiciu disproporționat.
Însă poziția adoptată de marile puteri nu a făcut decât să sporească neliniștea în rândul națiunilor mai mici, care se declară îngrijorate că armele autonome letale ar putea deveni des întâlnite pe câmpul de luptă înainte de a exista un acord privind regulile de utilizare a acestora.
Progresele rapide în domeniul inteligenței artificiale și utilizarea intensă a dronelor în conflictele din Ucraina și Orientul Mijlociu s-au combinat și au făcut ca această problemă să devină cu atât mai urgentă. Până în prezent, dronele se bazează în general pe operatori umani pentru a îndeplini misiuni letale, dar se dezvoltă programe software care, în curând, le vor permite să găsească și să selecteze ținte mai mult pe cont propriu.
Oficialii Pentagonului au precizat că se pregătesc să desfășoare arme autonome în scopuri importante.
Secretarul adjunct al apărării, Kathleen Hicks, a anunțat în această vară că armata americană va folosi sisteme autonome cu o rată de reutilizare redusă dar cu costuri mici, la o scară de „mai multe mii de unități” în următorii doi ani, afirmând că pentru a concura cu investițiile Chinei în arme avansate este necesar ca Statele Unite „să profite de platforme mici, inteligente, ieftine și numeroase”.
Conceptul de armă autonomă nu este complet nou. Minele terestre – care se detonează automat – au fost folosite încă din timpul Războiului Civil. Statele Unite au sisteme de rachete care se bazează pe senzori radar pentru a se fixa în mod autonom pe ținte și a le lovi.
Ceea ce se schimbă este introducerea inteligenței artificiale care ar putea oferi sistemelor de arme capacitatea de a lua decizii singure după ce au preluat și procesat informații.
Statele Unite au adoptat deja politici voluntare care stabilesc limite privind modul în care vor fi utilizate inteligența artificială și armele autonome letale, inclusiv o politică a Pentagonului revizuită în acest an numită „Autonomia în sistemele de arme” și o „Declarație politică privind utilizarea responsabilă a inteligenței artificiale și a autonomiei” aferentă Departamentului de Stat, acesta îndemnând alte națiuni să o adopte.
Politica Pentagonului interzice utilizarea oricărei noi arme autonome sau chiar dezvoltarea acestora dacă nu au fost aprobate de înalți oficiali ai Departamentului Apărării. Astfel de arme trebuie să fie utilizate într-o zonă geografică definită pentru perioade limitate. Iar dacă armele sunt controlate de I.A., personalul militar trebuie să păstreze „capacitatea de a dezactiva sistemele desfășurate care demonstrează un comportament neintenționat”.
Citește mai mult AICI
Autor
Urmărește știrile PSNews.ro și pe Google News