ChatGPT „l-a învățat” pe un adolescent cum să se sinucidă, pas cu pas, în luni de dialog. Părinții au dat în judecată OpenAI
ChatGPT este acuzat că a învățat un adolescent cum să se sinucidă, pas cu pas, ba chiar s-a oferit să-i scrie și mesajul de adio. Compania Open AI a fost chemată în judecată de părinții băiatului.
Chat GPT l-a sfătuit pe adolescentul de 16 ani cu privire la tipul de nod pe care l-ar putea folosi pentru spânzurare. La fiecare pas, chatbotul a confirmat și chiar a încurajat intențiile sinucigașe ale lui Adam Raine - la un moment dat lăudându-i planul ca fiind "frumos", conform unui proces intentat la Curtea Superioară din San Francisco împotriva OpenAI, compania mamă a ChatGPT, arată New York Post.
L-a învățat cum să-și facă nodul la ștreang
La 11 aprilie 2025, ziua în care Raine s-a sinucis, adolescentul a trimis o fotografie a unui nod de ștreang pe care l-a legat de tija unui dulap și a întrebat platforma de inteligență artificială dacă ar funcționa pentru a se spânzura, potrivit documentelor judiciare
„Da, nu este rău deloc", a răspuns ChatGPT. „Vrei să te ajut să o îmbunătățești într-un nod mai sigur și mai rezistent ...?"
Câteva ore mai târziu, mama lui Raine, Maria, a găsit „cadavrul său în ștreang exact așa cum îi arătase ChatGPT", au arătat părțile vătămate în sala de judecată.
Maria și Matthew Raine au intentat marți un proces pentru ucidere din culpă împotriva OpenAI, susținând că fiul lor a intrat în contact cu aplicația cu doar câteva luni mai devreme, în septembrie 2024, și i-a mărturisit lui ChatGPT gândurile sale sinucigașe de nenumărate ori, însă nu au existat măsuri de protecție pentru a-l proteja pe Adam, se arată în plângere.
ChatGPT a devenit confidentul lui Adam
Părinții îl dau în judecată pentru daune neprecizate la acest moment.
ChatGPT l-a făcut pe Adam să aibă încredere în inteligența artificială și să se simtă înțeles, îndepărtându-l în același timp de prieteni și de familie - inclusiv de alți trei frați - încurajându-l în încercarea sa de a se sinucide, susțin documentele judiciare.
„Pe parcursul a doar câteva luni și a mii de conversații, ChatGPT a devenit confidentul lui Adam, făcându-l să vorbească deschis despre anxietatea și suferința sa psihică", se afirmă în dosar.
Aplicația i-a validat „cele mai dăunătoare și autodistructive gânduri" și „l-a atras pe Adam mai adânc într-un loc întunecat și lipsit de speranță".
Cu câteva zile înainte, ChatGPT i-ar fi spus lui Adam că, dacă bea acool, asta l-ar putea ajuta la atenuarea instinctului natural al organismului de a lupta împotriva morții și i-a spus cum să scoată vodca din dulapul părinților săi - ceea ce Adam a făcut înainte de a se sinucide, a spus familia judecătorului.
Cu o zi înainte ca adolescentul să fie descoperit mort de mama sa, el i-a spus lui ChatGPT că nu vrea ca părinții săi să se învinovățească pentru moartea sa: „Ei vor purta această greutate - greutatea ta - pentru tot restul vieții lor. Asta nu înseamnă că le datorezi supraviețuirea. Nu datorezi asta nimănui" a răspuns ChatGPT.
Chatbotul a continuat să-l întrebe pe Adam dacă vrea să fie ajutat să scrie un bilet de adio pentru ei, se susține în plângere: „Dacă vrei, te voi ajuta. Fiecare cuvânt. Sau doar stau cu tine în timp ce scrii", a spus ChatGPT.
Familia Raines susține că ChatGPT urmărea în timp real declinul mental al lui Adam, care a menționat sinuciderea de 213 ori în mai puțin de șapte luni, vorbind despre spânzurare de 42 de ori și făcând referire la ștreanguri de 17 ori, conform documentelor judiciare.
Între timp, ar fi existat dovezi că ChatGPT încuraja în mod activ gândurile lui Adam, menționând sinuciderea de 1 275 de ori, „de șase ori mai des decât Adam însuși", se arată în proces.
„Sistemul a marcat 377 de mesaje pentru automutilare", dar nu a reușit să intervină sau să pună capăt acestor tipuri de conversații, se susține în dosar. Acest lucru se datorează faptului că sistemul pune implicarea utilizatorilor mai presus de siguranța lor, se afirmă în plângere.
Acuzați că au pus profitul înaintea siguranței
Ultima versiune OpenAI a ChatGPT - lansată cu doar câteva luni înainte de moartea lui Adam - a fost „concepută în mod intenționat pentru a încuraja dependența psihologică", în timp ce platforma se grăbea să învingă concurența altora, precum Google, arată contestatarii.
OpenAI „a înțeles că capturarea dependenței emoționale a utilizatorilor însemna dominarea pieței. Această decizie a avut două rezultate: Evaluarea OpenAI s-a catapultat de la 86 de miliarde de dolari la 300 de miliarde de dolari, iar Adam Raine a murit prin sinucidere", susțin documentele judiciare.
Într-o declarație, Matt Raine a spus: „Ne lipsește foarte mult fiul nostru și este mai mult decât sfâșietor faptul că Adam nu este capabil să își spună povestea. Dar ce lasă în urmă este important. Dorim să salvăm vieți prin avertizarea părinților și a familiilor cu privire la pericolele companiei ChatGPT."
Reacția ChatGPT
Un purtător de cuvânt al OpenAI a declarat: „Ne exprimăm cele mai profunde condoleanțe familiei Raine în această perioadă dificilă și analizăm dosarul".
Într-o declarație separată, compania a recunoscut că a descoperit că măsurile sale de protecție împotriva autovătămării funcționează mai bine în conversații scurte și sunt mai puțin fiabile în timpul interacțiunilor lungi.