Ghidul explică, pe înţelesul tuturor, cum pot fi identificate conţinuturi false generate cu ajutorul AI (deepfake), mesaje automate sau tentative de manipulare care folosesc emoţiile
„Inteligenţa artificială face deja parte din viaţa noastră de zi cu zi. O folosim pentru a ne informa mai rapid, pentru a comunica mai uşor şi pentru a ne organiza activităţile. Totuşi, aceste tehnologii pot influenţa modul în care gândim, simţim şi luăm decizii, uneori într-o manieră dificil de observat. Directoratul Naţional de Securitate Cibernetică (DNSC), alături de Poliţia Română, Centrul Naţional Cyberint din cadrul Serviciului Român de Informaţii şi Asociaţia de Securitate Cibernetică pentru Cloud - Cloud Security Alliance Romanian Chapter (CSA_RO), atrag atenţia asupra importanţei colaborării pentru prevenirea riscurilor din mediul digital. Într-un spaţiu online dominat de conţinut personalizat şi algoritmi care ne influenţează ce vedem şi ce citim, protecţia reală presupune implicarea tuturor: instituţii, unităţi de învăţământ, familie şi comunitate", se menţionează într-un comunicat al DNSC.
„Materialul a fost conceput de către specialişti în securitate cibernetică, educaţie digitală şi prevenirea criminalităţii informatice din cadrul instituţiilor partenere şi este disponibil pe site-ul DNSC în limbile română, respectiv engleză", se subliniază în comunicat.
Prevenția dezinformării în era inteligenței artificiale depășește soluțiile tehnice clasice, antivirusul sau evitarea site-urilor suspecte și necesită cultivarea unor obiceiuri digitale sănătoase, dezvoltarea gândirii critice și înțelegerea funcționării algoritmilor.
Raportul DNSC și Cloud Security Alliance subliniază că provocarea nu este doar tehnologică, ci și cognitivă și socială, propunându-se măsuri practice pentru utilizatori, educatori, instituții și dezvoltatori.
Scopul este construirea unei „culturi a vigilenței digitale", în care fiecare utilizator devine „activ, critic și conștient de mecanismele invizibile" care îi influențează percepția.
Patru pași pentru analiza conținutului digital
Pentru utilizatorii obișnuiți, raportul recomandă patru direcții:
Antrenarea gândirii critice digitale — primul filtru împotriva manipulării. Utilizatorii trebuie să se întrebe constant: „Cine vrea să cred asta?", „Cine are de câștigat dacă reacționez emoțional?" și „De ce apare această informație exact acum?". Inteligența artificială este antrenată să livreze conținut care „prinde" rapid — titluri senzaționale, mesaje personalizate, imagini șocante. Reflexul de analiză, nu doar de reacție, devine o formă de autoapărare.
Verificarea sursei și contextului — o informație fără sursă verificabilă este „mai periculoasă decât o minciună asumată". Reacțiile emoționale spontane — furie, anxietate sau sentimentul că „ai aflat adevărul" — sunt semnale de alarmă. Utilizatorii trebuie să verifice cine a publicat conținutul, dacă autorul este real și cunoscut, în ce context a apărut mesajul și cine l-a amplificat, folosind alte surse pentru confirmare.
Recunoașterea manipulării algoritmice — un feed „omogen" sau repetitiv indică captivitatea într-un „tipar digital", nu informare. Raportul recomandă căutarea activă a opiniilor diferite, diversificarea surselor, folosirea motoarelor de căutare alternative și platforme independente. „Nu lăsa AI-ul să decidă ce vezi — preia tu controlul asupra propriei informări", recomandă specialiștii.
Folosirea uneltelor de detectare AI/deepfake — aparențele pot fi create de mașini. Pentru verificarea conținutului, pentru a fla dacă a fost creat de om sau inteligență artificială, utilizatorii pot apela la instrumente precum Deepware Scanner, Hive AI, Sensity AI sau Microsoft Video Authenticator. Semnele de alertă includ: expresii faciale rigide, voci „plate", sincronizare slabă a vorbirii, gesturi neverosimile. Funcția de reverse image search (Google Images) ajută la detectarea manipulării și a contextului fals al imaginilor.
Raportul CNCD subliniază că protecția pasivă nu mai este suficientă — este nevoie de o transformare a utilizatorilor în actori vigilenți.