Cum recrutează Statul Islamic și al-Qaeda teroriști folosindu-se de variante false ale desenelor animate Family Guy
Statul Islamic și al-Qaeda au ajuns să recruteze teroriști inclusiv prin falsificarea cu ajutorul Inteligenței Artificiale a unuia dintre cele mai îndrăgite desene animate din lume, Family Guy.
Grupări precum Statul Islamic și al-Qaeda îi îndeamnă pe adepți să folosească cele mai noi instrumente digitale pentru a-și răspândi mesajul extremist, pentru a evita cenzura și pentru a recruta noi teroriști, scrie Deutsche Welle.
Un clip de recrutare realizat de teroriști prezintă un episod din Family Guy, unul dintre cele mai cunoscute spectacole de comedie de desene animate din lume, în care Peter Griffin, personajul principal, conduce o dubă care conține o bombă sub amenințarea pistolului peste pod.
Sunt imagini din episodul „Turban Cowboy”, care a fost difuzat în 2013. Cu toate acestea, sunetul care însoțește videoclipul s-a schimbat, deoarece Peter Griffin, exprimat în mod normal de creatorul show-ului Seth MacFarlane, cântă niște versuri neobișnuite.
„Armele noastre sunt grele, rândurile noastre sunt multe, iar soldații lui Allah sunt mai mult decât pregătiți”, cântă el cu accentul său inegalabil din Rhode Island, într-un manifest menit să atragă adepți pentru gruparea teroristă Statul Islamist (IS).
În mod evident, animația nu este cea mai recentă realizare satirică a lui MacFarlane, ci doar o ilustrare a modului în care grupările extremiste folosesc tehnologia avansată sau inteligența artificială (AI) pentru a crea conținut destinat adepților lor.
Termenul AI acoperă o gamă largă de tehnologii digitale și poate însemna orice, de la procesarea mai rapidă a unor cantități mari de date digitale pentru analiză până la ceea ce este cunoscut sub numele de „IA generativă”, care „generează” text sau imagini noi bazate pe cantități uriașe de date. Așa a fost creată această melodie a lui Peter Griffin.
„Democratizarea rapidă a tehnologiei AI generative în ultimii ani are un impact profund asupra modului în care organizațiile extremiste se angajează în operațiuni de influențare online”, scrie Daniel Siegel, un cercetător american care a analizat modul în care AI este folosită în scopuri rău intenționate într-un articol pentru Global Network on Extremism and Technology în care a evidențiat videoclipul Peter Griffin.
Creșterea numărului de extremiști care folosesc AI
În ultimul an, observatorii de la o varietate de organizații de monitorizare a extremiștilor au raportat modul în care IS și alte grupări extremiste își încurajează adepții să folosească noi instrumente digitale.
În februarie, un grup afiliat al-Qaeda a anunțat că va începe să organizeze ateliere de IA online, a raportat The Washington Post. Mai târziu, același grup a lansat un ghid despre utilizarea chatbot-urilor AI.
În martie, după ce o filială a Statului Islamic a ucis peste 135 de persoane într-un atac terorist asupra unui teatru din Moscova, unul dintre adepții grupului a creat o emisiune de știri false despre eveniment și a publicat-o la patru zile după atac.
La începutul acestei luni, ofițerii de la Ministerul de Interne al Spaniei au arestat nouă tineri din întreaga țară care împărtășeau propagandă pentru celebrarea grupului SI, inclusiv un bărbat descris ca fiind concentrat pe „conținut multimedia extremist, folosind aplicații specializate de editare susținute de inteligență artificială".
„Ceea ce știm despre utilizarea AI în prezent este că funcționează ca o completare a propagandei oficiale atât a al-Qaeda, cât și a IS”, spune Moustafa Ayad, director executiv pentru Africa, Orientul Mijlociu și Asia la Institutul pentru Dialog Strategic din Londra (ISD), care investighează extremismul de toate felurile.
„Permite suporterilor și grupurilor de suport neoficiale să creeze conținut emoționant, folosit special pentru a galvaniza baza susținătorilor în jurul conceptului de bază”.
El a adăugat că modul în care arată înseamnă că s-ar putea să nu fie sesizat nici de moderatorii de conținut de pe platformele populare de social media.
De fapt, Ayad a spus pentru DW că și conținutul IS mai ridicol și mai nerealist este adesea suficient de inedit pentru ca adepții să-l împărtășească între ei.
Extremiștii adoptă mereu tehnologia nouă
Nimic din toate acestea nu este surprinzător pentru observatorii de lungă durată ai grupului IS. Când gruparea extremistă a devenit pentru prima dată în prim-plan în jurul anului 2014, făcea deja videoclipuri de propagandă cu valori de producție destul de ridicate pentru a intimida inamicii și pentru a recruta adepți.
„Toate acestea vorbesc despre ceva ce ISD a observat încontinuu”, a remarcat Ayad. „Grupările teroriste și susținătorii lor continuă să fie cei care adoptă tehnologia nouă pentru a le servi interesele”.
Dar cât de periculos este cu adevărat acest tip de conținut? La urma urmei, știrile false difuzate despre atacul de la Moscova par false, iar cântecul lui Peter Griffin nu rănește pe nimeni. Sau este?
Grupurile de monitorizare au enumerat o varietate de moduri în care grupările extremiste ar putea folosi AI. Pe lângă propagandă, acestea ar putea folosi și chatbot-uri, cum ar fi ChatGPT, pentru a conversa cu potențiali noi recruți, sugerează experții. Odată ce chatbot-ul a trezit interesul, un recrutor uman ar putea prelua misiunea, spun ei.
Modelele AI, cum ar fi ChatGPT, au, de asemenea, anumite reguli scrise în sistemele lor, care îi împiedică să ajute utilizatorii cu lucruri cum ar modul prin care să scape după ce comite o crimă. Cu toate acestea, aceste reguli s-au dovedit nesigure în trecut, iar potențialii teroriști ar putea fi capabili să le depășească pentru a obține informații periculoase.
Există, de asemenea, temeri că extremiștii ar putea folosi instrumente AI pentru a întreprinde atacuri digitale sau cibernetice sau pentru a-i ajuta să planifice atacuri teroriste în viața reală.
Falsuri profunde vs bombe reale
Experții susțin că, deși AI are un potențial îngrijorător în mâinile extremiștilor, viața reală este încă mai periculoasă.
Într-o lucrare din 2019 din revista „Perspective on Terrorism”, cercetătorii au examinat legătura dintre cât de multă propagandă a făcut grupul IS și atacurile lor fizice reale. Nu a existat „o corelație puternică și previzibilă”, au concluzionat ei.
„Este similar cu discuția pe care o aveam despre armele cibernetice și bombele cibernetice în urmă cu aproximativ 10 ani”, spune Lilly Pijnenburg Muller, cercetător asociat și expert în securitate cibernetică la Departamentul de Studii de Război de la King's College din Londra.
Nu contează AI, astăzi chiar și zvonurile și videoclipurile vechi pot avea un impact destabilizator și pot duce la o rafală de dezinformare pe rețelele sociale, a spus ea pentru DW. „Statele au bombe convenționale care pot fi aruncate, dacă aceasta este intenția lor”.
„Nu știu dacă, în această etapă, folosirea inteligenței artificiale de către organizațiile teroriste străine și susținătorii acestora este mai periculoasă decât propaganda lor foarte reală și grafică care implică uciderea fără îndoială de civili și atacuri asupra forțelor de securitate”, spune Ayad de la ISD.
„În acest moment, cea mai mare amenințare este din partea acestor grupuri care efectuează atacuri, inspiră actori singuri sau recrutează cu succes noi membri din cauza răspunsurilor lor la peisajul geopolitic, și anume războiul israelian din Gaza ca răspuns la 7 octombrie”, a continuat el.
„Ei folosesc morțile civililor și acțiunile Israelului ca un dispozitiv retoric pentru recrutare și pentru a construi campanii”.
Sursa: StirilePROTV
Etichete: recrutare, inteligenta artificiala, teroristi, gruparea stat islamic, al-qaida, family guy,
Dată publicare:
12-07-2024 14:39