Dronele cu AI care pot decide pe cine să ucidă sunt tot mai aproape de realitate. ONU dezbate cum ar trebui folosite

Data publicării:
o drona in cadrul unei prezentări a laboratorului american de cercetare al Forțelor Aeriene privind cercetarea în domeniul aeronavelor autonome
Oficialii Pentagonului au precizat că se pregătesc să desfășoare arme autonome în scopuri importante. Foto: Profimedia Images

Pare ceva desprins din science-fiction: roiuri de roboți ucigași care vânează singuri ținte și sunt capabili să ucidă fără ca vreun om să dea acordul. Dar conceptul este pe cale să devină realitate, pe măsură ce Statele Unite, China și alte câteva națiuni fac progrese rapide în dezvoltarea și desfășurarea unei noi tehnologii care are potențialul de a remodela natura războiului, transferând deciziile de viață și de moarte către drone autonome echipate cu programe de inteligență artificială. Îngrijorate de riscurile războiului robotizat, unele țări doresc noi constrângeri legale, dar SUA și alte mari puteri se opun, transmite The New York Times.

Această perspectivă este atât de îngrijorătoare pentru multe alte guverne, încât ele încearcă să atragă atenția prin propuneri la ONU pentru a impune reguli obligatorii din punct de vedere juridic privind utilizarea a ceea ce militarii numesc arme autonome letale.

„Acesta este cu adevărat unul dintre cele mai importante puncte de inflexiune pentru omenire”, a declarat Alexander Kmentt, negociatorul șef al Austriei pe această temă, într-un interviu. „Care este rolul ființelor umane în utilizarea forței - este o problemă de securitate absolut fundamentală, o problemă juridică și o problemă etică”.

Dar, deși ONU oferă o platformă pentru ca guvernele să își exprime îngrijorarea, este puțin probabil ca acest proces să producă noi restricții substanțiale cu caracter obligatoriu din punct de vedere juridic. Statele Unite, Rusia, Australia, Israel și alții au susținut că deocamdată nu este nevoie de o nouă legislație internațională, în timp ce China dorește să definească orice limită legală atât de restrânsă încât să aibă un efect redus în practică, spun cei care susțin controlul armelor.

Rezultatul a fost acela de a lega dezbaterea într-un nod procedural, cu puține șanse de a progresa în viitorul apropiat în privința unui mandat cu caracter obligatoriu din punct de vedere juridic.

„Nu considerăm că este momentul potrivit”, a declarat Konstantin Vorontsov, șeful adjunct al delegației ruse la ONU, în fața diplomaților care se înghesuiau într-o sală de conferințe de la subsol, recent, la sediul ONU din New York.

Dezbaterea privind riscurile inteligenței artificiale a atras din nou atenția în ultimele zile, odată cu bătălia pentru controlul OpenAI, probabil cea mai importantă companie de inteligență artificială din lume, ai cărei lideri au părut divizați cu privire la faptul că firma ia suficient de mult în considerare pericolele tehnologiei. Iar săptămâna trecută, oficiali din China și din Statele Unite au discutat o problemă conexă: potențialele limite privind utilizarea I.A. în deciziile privind desfășurarea armelor nucleare.

În acest context, întrebarea privind limitele care ar trebui impuse utilizării armelor autonome letale a căpătat o nouă urgență și, deocamdată, se reduce la problema dacă este suficient ca ONU pur și simplu să adopte linii directoare fără caracter obligatoriu, poziție susținută de Statele Unite.

„Cuvântul «trebuie» va fi foarte greu de acceptat de către delegația noastră”, le-a declarat altor negociatori Joshua Dorosin, șeful departamentului pentru acorduri internaționale din cadrul Departamentului de Stat, în timpul unei dezbateri din luna mai cu privire la limbajul restricțiilor propuse.

Dorosin și membrii delegației americane, care include un reprezentant al Pentagonului, au susținut că, în loc de o nouă lege internațională, ONU ar trebui să clarifice faptul că legislația internațională existentă privind drepturile omului interzice deja națiunilor să folosească arme care vizează civili sau care le provoacă acestora un prejudiciu disproporționat.

Însă poziția adoptată de marile puteri nu a făcut decât să sporească neliniștea în rândul națiunilor mai mici, care se declară îngrijorate că armele autonome letale ar putea deveni des întâlnite pe câmpul de luptă înainte de a exista un acord privind regulile de utilizare a acestora.

Progresele rapide în domeniul inteligenței artificiale și utilizarea intensă a dronelor în conflictele din Ucraina și Orientul Mijlociu s-au combinat și au făcut ca această problemă să devină cu atât mai urgentă. Până în prezent, dronele se bazează în general pe operatori umani pentru a îndeplini misiuni letale, dar se dezvoltă programe software care, în curând, le vor permite să găsească și să selecteze ținte mai mult pe cont propriu.

Oficialii Pentagonului au precizat că se pregătesc să desfășoare arme autonome în scopuri importante.

Secretarul adjunct al apărării, Kathleen Hicks, a anunțat în această vară că armata americană va folosi sisteme autonome cu o rată de reutilizare redusă dar cu costuri mici, la o scară de „mai multe mii de unități" în următorii doi ani, afirmând că pentru a concura cu investițiile Chinei în arme avansate este necesar ca Statele Unite „să profite de platforme mici, inteligente, ieftine și numeroase”.

Conceptul de armă autonomă nu este complet nou. Minele terestre - care se detonează automat - au fost folosite încă din timpul Războiului Civil. Statele Unite au sisteme de rachete care se bazează pe senzori radar pentru a se fixa în mod autonom pe ținte și a le lovi.

Ceea ce se schimbă este introducerea inteligenței artificiale care ar putea oferi sistemelor de arme capacitatea de a lua decizii singure după ce au preluat și procesat informații.

Statele Unite au adoptat deja politici voluntare care stabilesc limite privind modul în care vor fi utilizate inteligența artificială și armele autonome letale, inclusiv o politică a Pentagonului revizuită în acest an numită „Autonomia în sistemele de arme” și o „Declarație politică privind utilizarea responsabilă a inteligenței artificiale și a autonomiei” aferentă Departamentului de Stat, acesta îndemnând alte națiuni să o adopte.

Politica Pentagonului interzice utilizarea oricărei noi arme autonome sau chiar dezvoltarea acestora dacă nu au fost aprobate de înalți oficiali ai Departamentului Apărării. Astfel de arme trebuie să fie utilizate într-o zonă geografică definită pentru perioade limitate. Iar dacă armele sunt controlate de I.A., personalul militar trebuie să păstreze „capacitatea de a dezactiva sistemele desfășurate care demonstrează un comportament neintenționat”.

Cel puțin la început va fi nevoie de aprobarea umană înainte de a se întreprinde o acțiune letală, au declarat generalii Forțelor Aeriene.

Dar Frank Kendall, secretarul Forțelor Aeriene, a declarat într-un interviu separat că aceste mașinării vor trebui în cele din urmă să aibă puterea de a întreprinde acțiuni letale de sine stătătoare, rămânând în același timp sub supraveghere umană în ceea ce privește modul în care sunt desfășurate.

Thomas X. Hammes, un ofițer de marină în retragere care este acum cercetător la Universitatea Națională de Apărare de la Pentagon, a declarat într-un interviu și într-un eseu recent publicat de Consiliul Atlantic că este un „imperativ moral ca Statele Unite și alte națiuni democratice” să construiască și să utilizeze arme autonome.

El a argumentat că „dacă nu se va reuși acest lucru într-un conflict convențional major, se vor înregistra mulți morți, atât militari, cât și civili, și, posibil, pierderea conflictului”.

Unii susținători ai controlului armelor și diplomați nu sunt de acord, susținând că armele letale controlate de inteligența artificială, care nu au oameni care să autorizeze lovituri individuale, vor transforma natura luptei prin eliminarea rolului moral direct pe care oamenii îl joacă în deciziile de a lua o viață.

Aceste arme cu I.A. vor acționa uneori în moduri imprevizibile și este posibil să facă greșeli în identificarea țintelor, precum mașinile fără șofer care au accidente, spun acești critici.

De asemenea, noile arme ar putea face mai probabilă utilizarea forței letale pe timp de război, deoarece armata care le lansează nu și-ar pune imediat în pericol proprii soldați sau ar putea duce la o escaladare mai rapidă, au susținut opozanții.

Grupuri de control al armelor, precum Comitetul Internațional al Crucii Roșii și Stop Killer Robots, alături de delegații naționale, printre care Austria, Argentina, Noua Zeelandă, Elveția și Costa Rica, au propus o varietate de limite.

Unele ar viza interzicerea la nivel global a armelor autonome letale care vizează în mod explicit oamenii. Altele ar cere ca aceste arme să rămână sub „control uman semnificativ” și să fie utilizate în zone limitate, pentru perioade de timp specifice.

Statele Unite, China și Rusia au susținut, de asemenea, că inteligența artificială și armele autonome ar putea aduce beneficii prin reducerea numărului de victime civile și a pagubelor fizice inutile.The United States, China and Russia have also argued that artificial intelligence and autonomous weapons might bring benefits by reducing civilian casualties and unnecessary physical damage.

„S-a demonstrat că armele inteligente care folosesc computere și funcții autonome pentru a desfășura forța mai precis și mai eficient reduc riscurile de vătămare a civililor și a obiectivelor civile”, a susținut delegația americană.

Săptămâna trecută, un comitet cu sediul la Geneva a convenit, la îndemnul Rusiei și al altor mari puteri, să își dea termen până la sfârșitul anului 2025 pentru a continua să studieze acest subiect, a declarat un diplomat care a participat la dezbatere.

Editor : A.C.

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri