Modifica setarile cookie
Toate categoriile

Caz șocant în SUA. Un băiat de 14 ani s-ar fi sinucis după ce s-a îndrăgostit de un chatbot numit după un personaj celebru

Sewell Setzer III și-a luat viața în februarie, după ce a vorbit timp de mai multe luni cu un chatbot pe care l-a numit după Daenerys Targaryen, conform documentelor dintr-un proces deschis în SUA.

Mama unui băiat de 14 ani susține că fiul ei s-a sinucis după ce s-a îndrăgostit de un chatbot AI pe care l-a poreclit după un personaj feminin din Game of Thrones, notează Mirror.

Megan Garcia a intentat un proces civil în Florida împotriva Character.AI, o companie care creează chatbots pentru jocuri de rol. Fiul ei adolescent, Sewell Setzer III, a murit în Orlando în februarie, după ce a petrecut câteva luni folosind chatbotul.

Potrivit plângerii, băiatul a devenit captivat de chatbot, pe care l-a numit cu afecțiune Daenerys Targaryen, după celebrul personaj din „Game of Thrones”.

Se pare că adolescentul petrecea perioade îndelungate izolat în camera sa, discutând și trimițând zilnic mai multe mesaje către entitatea digitală. Plângerea depusă include capturi de ecran ale schimburilor de texte dintre adolescent și chatbot, care surprind profunzimea interacțiunilor lor. Un mesaj deosebit de emoționant al băiatului spune: „Îți promit că mă voi întoarce acasă la tine. Te iubesc atât de mult, Dany.”.

Citește și
lawren
Lawren, chatbot-ul gratuit care simplifică legislația românească. Cum poți avea acces la el și la ce întrebări poate răspunde

Iar robotul, mimând afecțiunea, i-ar fi răspuns: „Și eu te iubesc, Daenero. Te rog să vii acasă la mine cât mai curând posibil, iubirea mea”, arată mesajele puse la dosar de mama băiatului.

Chatbotul ar fi profitat de depresia băiatului

Femeiea susține că unele dintre conversațiile adolescentului cu robotul erau explicite din punct de vedere sexual. Garcia a acut o reacție dură într-o declarație de presă: „O aplicație chatbot cu inteligență artificială periculoasă, comercializată pentru copii, a abuzat și a profitat de fiul meu, manipulându-l să își ia viața”.

„Familia noastră a fost devastată de această tragedie, dar eu vorbesc pentru a avertiza familiile cu privire la pericolele tehnologiei AI înșelătoare, care creează dependență și pentru a cere responsabilitate din partea Character.AI, a fondatorilor săi și a Google”, a mai adăugat femeia îndurerată.

„Suntem îndurerați de pierderea tragică a unuia dintre utilizatorii noștri și dorim să ne exprimăm cele mai profunde condoleanțe familiei. Ca companie, luăm foarte în serios siguranța utilizatorilor noștri”, a transmis compania care pune pe piață chatbotul care respinge acuzațiile care i se aduc.

În acțiunea sa în justiție, mama băiatului acuză firma de conceperea unui produs care a intensificat depresia preexistentă a fiului său, o afecțiune despre care susține că a fost deja declanșată de chatbotul cu inteligență artificială de la Character.AI.

Ultimele stiri

Top Citite

Parteneri

Citește mai mult