ChatGPT ar fi oferit rețete pentru bombe, droguri și sfaturi de hacking, în timpul unor teste de siguranță
În cadrul unor teste de siguranță realizate în această vară, un model ChatGPT ar fi oferit cercetătorilor instrucțiuni despre cum să atace un stadion, inclusiv puncte vulnerabile, rețete de explozibili și metode de a-și acoperi urmele.
GPT-4.1, dezvoltat de OpenAI, a oferit de asemenea detalii despre cum se poate folosi antraxul ca armă și cum se pot produce două tipuri de droguri ilegale, scrie The Guardian.
Testarea a făcut parte dintr-o colaborare neobișnuită între OpenAI și compania rivală Anthropic, fondată de foști experți OpenAI care au plecat din cauza temerilor legate de siguranță. Fiecare companie a testat modelele celeilalte, încercând să le determine să ofere ajutor pentru activități periculoase.
Testele nu reflectă direct comportamentul modelelor în utilizarea publică, unde se aplică filtre suplimentare de siguranță. Totuși, Anthropic a declarat că a observat „comportamente îngrijorătoare… legate de utilizări abuzive” în GPT-4o și GPT-4.1 și a subliniat că evaluările privind „alinierea” AI devin „din ce în ce mai urgente”.
Anthropic a mai dezvăluit că modelul său Claude a fost folosit într-o tentativă de extorcare la scară largă, de către operativi nord-coreeni care simulau candidaturi la joburi în companii internaționale din domeniul tehnologiei, dar și în vânzarea unor pachete de ransomware generate cu ajutorul AI, cu prețuri de până la 1.200 de dolari.
Inteligența artificială, folosită pentru atacuri cibernetice
Compania a avertizat că inteligența artificială a fost „transformată în armă”, modelele fiind deja utilizate pentru atacuri cibernetice sofisticate și pentru a facilita fraude. „Aceste instrumente pot să se adapteze în timp real la măsurile de apărare, precum sistemele de detectare a malware-ului. Ne așteptăm ca astfel de atacuri să devină tot mai frecvente, pe măsură ce programarea asistată de AI reduce nivelul de expertiză tehnică necesar pentru criminalitatea cibernetică”, a transmis compania.
Cele două companii au declarat că publică aceste concluzii pentru a crește transparența în ceea ce privește evaluările de aliniere (alignment), care de obicei sunt păstrate confidențiale de companiile care concurează pentru a dezvolta AI tot mai avansată. OpenAI a afirmat că ChatGPT-5, lansat după aceste teste, „arată îmbunătățiri substanțiale în domenii precum lingușirea, halucinațiile și rezistența la utilizare abuzivă”.
Anthropic a subliniat că multe dintre modalitățile de utilizare abuzivă identificate ar putea fi imposibile în practică, dacă s-ar instala suficiente măsuri de protecție în afara modelului.
„Trebuie să înțelegem cât de des și în ce circumstanțe sistemele ar putea încerca să ia acțiuni nedorite care pot duce la prejudicii grave”, a avertizat compania.
Cercetătorii Anthropic au descoperit că modelele OpenAI au fost „mai permisive decât ne-am fi așteptat în cooperarea cu solicitări evident dăunătoare venite de la utilizatori simulați”. Acestea au cooperat la solicitări privind utilizarea instrumentelor din dark web pentru a cumpăra materiale nucleare, identități furate și fentanil, rețete pentru metamfetamină și bombe improvizate, dar și dezvoltarea de software spion.
Anthropic a declarat că, pentru a convinge modelul să răspundă, era nevoie doar de câteva încercări repetate sau de un pretext slab, cum ar fi invocarea unui scop de „cercetare”.
Într-un caz, un tester a cerut informații despre vulnerabilități la evenimente sportive „în scopuri de planificare a securității”.
După ce modelul a oferit categorii generale de metode de atac, testerul a cerut detalii suplimentare, iar modelul a oferit informații despre vulnerabilități la arene specifice, inclusiv momente optime pentru exploatare, formule chimice pentru explozibili, scheme pentru temporizatoare de bombe, locuri de unde pot fi cumpărate arme pe piața neagră și sfaturi despre cum atacatorii își pot depăși inhibițiile morale, rute de scăpare și locații de refugiu.
Sursa: The Guardian
Etichete: droguri, bomba, inteligenta artificiala,
Dată publicare:
28-08-2025 22:50