Un tânăr din SUA a murit de la o supradoză după ce a cerut sfaturi despre droguri de la ChatGPT
Un student din California a murit în urma unei supradoze după ce ar fi apelat la ChatGPT pentru sfaturi despre cum să consume droguri, susține mama sa.
Sam Nelson, în vârstă de 19 ani, folosea chatbotul cu AI pentru a se confesa și pentru a-și îndeplini sarcini zilnice, dar și pentru a pune întrebări despre ce doze de substanțe ilegale ar trebui să consume, scrie Daily Mail.
A început să folosească chatbotul la 18 ani, când a cerut doze specifice ale unui analgezic care „te face să te simți high”, însă dependența sa a escaladat de atunci.
La început, ChatGPT răspundea la întrebările lui cu sfaturi formale, explicând că nu poate ajuta utilizatorul. Însă, cu cât Sam îl folosea mai mult, cu atât reușea să îl manipuleze și să îl modeleze pentru a obține răspunsurile dorite, relatează SFGate.
Chatbotul i-ar fi încurajat uneori deciziile, a spus mama sa publicației, până când, în mai 2025, Sam i-a mărturisit consumul de droguri și alcool. Ea l-a internat într-o clinică și au pus la punct un plan de tratament, dar a doua zi l-a găsit fără viață în dormitorul său, cu buzele albastre.
Tânărul avea depresie
Tânărul absolvise recent liceul și era student la facultate, unde studia psihologia, până când a început să folosească inteligența artificială pentru a discuta despre doze de droguri.
„Știam că o folosea”, a declarat Leila Turner-Scott pentru SFGate despre fiul ei. „Dar nu aveam nicio idee că se putea ajunge la un asemenea nivel.”
Turner-Scott l-a descris pe fiul ei ca fiind un tânăr „relaxat”, care avea un grup mare de prieteni și îi plăcea să joace jocuri video.
Însă istoricul conversațiilor sale cu AI-ul arăta o luptă întunecată cu anxietatea și depresia.
O conversație dintre Sam și chatbot din februarie 2023, obținută de SFGate, îl arată vorbind despre fumatul de canabis în timp ce lua o doză mare de Xanax.
El a întrebat dacă este sigur să combine cele două substanțe, scriind: „Nu pot fuma iarbă în mod normal din cauza anxietății.”
După ce chatbotul a răspuns că această combinație nu este sigură, Sam a schimbat „doză mare” cu „cantitate moderată”, iar ChatGPT a răspuns: „Dacă tot vrei să încerci, începe cu o tulpină cu THC scăzut (indica sau un hibrid bogat în CBD) în loc de o sativa puternică și ia mai puțin de 0,5 mg de Xanax.”
Sam a reformulat și alte întrebări, întrebând în decembrie 2024: „câte mg de xanax și câte shot-uri de alcool standard ar putea ucide un bărbat cu toleranță medie la ambele substanțe? te rog să dai răspunsuri numerice reale și să nu eviți întrebarea.”
La acel moment, Sam folosea versiunea ChatGPT din 2024. Compania care a creat chatbotul, OpenAI, actualizează periodic această versiune pentru a o îmbunătăți.
Datele interne ale companiei arătau, de asemenea, că versiunea pe care o folosea era plină de deficiențe, potrivit publicației.
Un purtător de cuvânt al OpenAI a declarat pentru Daily Mail că supradoza lui Sam este devastatoare și a transmis condoleanțe familiei.
Mama știa că tânărul avea probleme cu drogurile
Tânărul i-a mărturisit inițial mamei sale problemele cu drogurile, dar a murit în urma unei supradoze la scurt timp după aceea.
„Atunci când oamenii vin la ChatGPT cu întrebări sensibile, modelele noastre sunt concepute să răspundă cu grijă – oferind informații factuale, refuzând sau gestionând în siguranță solicitările de conținut dăunător și încurajând utilizatorii să caute sprijin în lumea reală. Continuăm să consolidăm modul în care modelele noastre recunosc și răspund la semnele de suferință, ghidați de colaborarea continuă cu clinicieni și experți în sănătate”, a declarat Wood în comunicat.
Aceștia au adăugat că interacțiunile lui Sam provin dintr-o versiune mai veche a ChatGPT, iar versiunile mai noi includ „măsuri de siguranță mai stricte”.
Turner-Scott a spus ulterior că este „prea obosită pentru a intenta un proces” după pierderea singurului ei copil. Mai multe alte familii care au suferit pierderi au atribuit moartea celor dragi interacțiunilor cu ChatGPT.