Organizațiile pentru siguranța online, Ofcom și Biroul Comisarului pentru Informații (ICO), au anunțat că joi au trimis scrisori către YouTube, TikTok, Facebook, Instagram și Snapchat, solicitându-le să abordeze o gamă largă de probleme legate de siguranța copiilor. Acestea includ, de la verificarea mai strictă a vârstei, până la prevenirea tentativelor de manipulare sau exploatare a minorilor pe platforme.

Solicitarea survine după ce parlamentarii britanici au votat împotriva propunerii de a introduce o interdicție generală a rețelelor sociale pentru persoanele sub 16 ani, într-un proiect legislativ privind protecția copiilor dezbătut la începutul acestei luni.

În paralel, guvernul britanic a lansat o consultare publică privind utilizarea rețelelor sociale de către copii, pentru a afla opiniile părinților și adolescenților despre eficiența unei eventuale interdicții.

Mai multe guverne europene analizează reglementări mai stricte pentru limitarea utilizării rețelelor sociale de către tineri, după ce Australia a devenit în decembrie prima țară care a impus o interdicție generală pentru utilizatorii sub 16 ani. Spania, Franța și Danemarca se numără printre statele care evaluează măsuri similare.

Citește și
Atacul cu cuțitul dintr-un cartier evreiesc din Londra, tratat drept „act terorist". Israelul cere „măsuri urgente"

Cerințe stricte pentru platforme

Ofcom a cerut platformelor să detalieze ce acțiuni întreprind pentru a împiedica accesul copiilor la serviciile lor, stabilind termenul limită de 30 aprilie pentru transmiterea răspunsurilor.

Autoritatea solicită aplicarea mai strictă a limitelor minime de vârstă, blocarea contactului dintre adulți necunoscuți și minori, conținut mai sigur pentru adolescenți și oprirea testării anumitor produse, inclusiv tehnologii de inteligență artificială, pe copii.

Directorul general al Ofcom, Melanie Dawes, a declarat că marile companii tehnologice „nu pun siguranța copiilor în centrul produselor lor” și nu își respectă promisiunile de a proteja minorii în mediul online.

„Fără protecții adecvate, precum verificări eficiente ale vârstei, copiii au fost expuși în mod constant unor riscuri pe platforme pe care nu le pot evita în mod realist”, a subliniat Dawes.

ICO a publicat, de asemenea, o scrisoare deschisă prin care solicită platformelor să folosească metode mai avansate pentru verificarea vârstei, cum ar fi estimarea vârstei prin recunoaștere facială, identitate digitală sau verificarea printr-o fotografie unică. În prezent, multe platforme se bazează doar pe declarația utilizatorului privind vârsta, o metodă ușor de ocolit și considerată ineficientă de autorități.

„Acest lucru îi expune pe copiii sub 13 ani riscului ca datele lor personale să fie colectate și folosite ilegal, fără protecțiile la care au dreptul”, a declarat directorul ICO, Paul Arnold.

Meta s-a conformat interdicției impuse în Australia, blocând peste 500.000 de conturi care se crede că aparțineau unor utilizatori sub 16 ani pe Instagram, Facebook și Threads, în primele zile de aplicare a măsurii.

Compania a cerut însă guvernului australian să reanalizeze decizia, susținând că o interdicție totală ar putea determina adolescenții să ocolească regulile și să acceseze rețelele sociale fără mecanisme de protecție. Instagram a anunțat că va alerta părinții atunci când adolescenții caută repetat, într-un interval scurt, termeni legați de sinucidere sau autovătămare.

În paralel, un proces important intentat împotriva Meta și Alphabet a început în ianuarie, cazul fiind inițiat de o tânără și de mama acesteia, care susțin că Instagram și YouTube folosesc elemente de design ce pot crea dependență.

Directorul general al Meta, Mark Zuckerberg, și directorul Instagram, Adam Mosseri, au depus deja mărturie, iar o decizie este așteptată la mijlocul lunii martie. Procesul ar putea stabili un precedent în ceea ce privește responsabilitatea platformelor față de utilizatorii minori.

Investigații și amenzi pentru platforme

Comisia Europeană a deschis în ianuarie o investigație împotriva platformei X, deținută de Elon Musk, după răspândirea de materiale cu conținut sexual explicit implicând copii prin intermediul chatbotului său de inteligență artificială, Grok.

În februarie, ICO a amendat platforma Reddit cu 14 milioane de lire sterline (aproximativ 18 milioane de dolari) pentru prelucrarea ilegală a datelor personale ale copiilor.

Companiile tehnologice susțin că au implementat deja măsuri de protecție. Meta afirmă că utilizează inteligență artificială pentru a detecta vârsta utilizatorilor pe baza activității lor și tehnologii de estimare facială a vârstei. Totodată, compania a creat conturi speciale pentru adolescenți, cu protecții integrate, și consideră că verificarea vârstei ar trebui realizată la nivelul magazinelor de aplicații.

TikTok a anunțat că a implementat tehnologii îmbunătățite în Europa pentru a identifica și elimina conturile utilizatorilor sub vârsta minimă de 13 ani, cu ajutorul moderatorilor specializați.

Platforma folosește, de asemenea, estimarea vârstei prin recunoaștere facială, autorizarea prin card bancar și verificarea documentelor oficiale pentru confirmarea vârstei utilizatorilor. Snapchat și YouTube nu au oferit comentarii imediat.