Roboții ucigași, „un viitor sumbru”. Măsuri imediate cerute de secretarul general ONU pentru interzicerea armelor autonome
Roboții ucigași amenință omenirea, iar un viitor sumbru ne așteaptă în lipsa unor legi clare și norme juridice stabilite la nivel internațional, afirmă un director la organizația de apărare a drepturilor omului Human Rights Watch.
„Fără norme juridice explicite, lumea se confruntă cu un viitor sumbru. Crime pe bandă rulantă, civilii de pretutindeni în mare pericol. Lumea trebuie să se unească pentru a opri ascensiunea "roboților ucigași" a avertizat Mary Wareham
Sistemele de arme autonome letale bazate pe inteligență artificială - cunoscute sub numele de Laws - selectează și atacă țintele pe baza procesării senzorilor, fără intervenția omului. Acestea oferă mașinilor libertatea și capacitatea de a lua viața oamenilor, reducând țintele la simple puncte pe o hartă. Dronele Laws sunt în curs de dezvoltare în întreaga lume și au fost deja desfășurate în Africa Centrală. Acestea operează în afara dreptului internațional, deoarece deciziile de a lovi sunt luate de roboți, nu de oameni, arată publicația Daily Star.
Organizația Națiunilor Unite a făcut apel la liderii mondiali să semneze un tratat prin care să se angajeze să nu le folosească. Mary Wareham, director adjunct la Human Rights Watch, dorește ca decizia de a le interzice să fie luată la un summit al ONU luna viitoare.
Mary Wareham a declarat că liderii mondiali sunt conștienți de „efectele dăunătoare enorme pe care eliminarea controlului uman asupra sistemelor de arme le-ar avea asupra umanității. Sprijinul internațional deja larg pentru abordarea acestei preocupări ar trebui să stimuleze guvernele să înceapă negocierile fără întârziere", a adăugat ea.
Apelul responsabilei Human Rights Watch a venit după ce secretarul general al Organizației Națiunilor Unite, António Guterres, a publicat un raport care solicită un nou tratat internațional pentru "interzicerea sistemelor de arme care funcționează fără control sau supraveghere umană și care nu pot fi utilizate în conformitate cu dreptul umanitar internațional".
Progresele tehnologice au condus la dezvoltarea unor sisteme de arme care funcționează fără un control uman semnificativ – astfel că mașinile iau decizii de viață și de moarte. „Timpul se scurge pentru ca comunitatea internațională să ia măsuri preventive în această privință", a avertizat Secretarul General ONU.
Guterres speră ca liderii mondiali să convină asupra unui "pact pentru viitor" care să scoată în afara legii roboții ucigași la summitul ONU din 22 septembrie.
Experții cred că armele au fost utilizate doar de două ori până acum: o dată în conflict și a doua oară într-un exercițiu de antrenament. În 2020, forțele libiene susținute de guvern au folosit o dronă Kargu-2 de fabricație turcă în timpul unei lupte cu milițiile inamice. Potrivit unui raport al ONU, drona "a vânat și a țintit de la distanță" luptătorii și este posibil să fi selectat obiectivele în mod autonom. Victimele au fost necunoscute, dar experții cred că drona nu a putut distinge între țintele militare legitime și civili.
În luna mai a acestui an, Comandamentul african al SUA a testat o dronă autonomă Triton în Libreville, Gabon, în cadrul unui exercițiu antipiraterie. Aceasta utilizează scanere și senzori de înaltă rezoluție pentru a culege informații în mod autonom și a efectua contramăsuri, are variante aeriene și maritime și poate staționa sub apă timp de o săptămână.
Roboții ucigași pot fi folosiți și de teroriști
Cu toate acestea, experții se tem că tehnologia dronelor autonome ar putea cădea în mâinile rețelelor teroriste, pentru că mai multe drone avansate au fost pierdute în operațiuni antiteroriste și ar putea fi studiate și copiate de inamici.
SUA ar fi pierdut trei drone MQ-9 Reaper pe teritoriul rebelilor Houthi în Yemen în luna mai, dar și drone MQ-1 Predator în Libia și Niger. Ucraina ar fi utilizat drone integrate cu inteligență artificială de bază pentru a le ajuta să navigheze și să evite bruiajul atunci când efectuează atacuri în Rusia. Israelul a desfășurat în Gaza un sistem de inteligență artificială numit Lavender, care utilizează algoritmi pentru a identifica agenții Hamas ca ținte. Iar SUA a desfășurat sisteme care utilizează inteligența artificială pentru a găsi ținte pentru loviturile aeriene din Siria și Yemen. Niciunul dintre acestea nu este clasificat drept robot ucigaș, deoarece nu sunt arme autonome. Dar experții se tem că acestea ar putea fi adaptate în cazul în care cad în mâinile cui nu trebuie.