Cum ne protejăm de infracțiunile comise cu ajutorul inteligenței artificiale. Ghid lansat de Poliția Română
Atenție la ce urmăriți pe internet. Poliția Română a lansat un ghid menit să ne ajute să ne protejăm de infractorii care folosesc inteligența artificială.
Experții care au lucrat la acest document vorbesc inclusiv despre țări care folosesc aplicațiile cu inteligență artificială pentru a păcăli utilizatorii.
Corespondent Știrile PRO TV: „În trecut, expresia 'am văzut cu ochii mei, deci e real' era considerată o garanție a adevărului. În mediul online, această afirmație nu mai este valabilă.”
Corespondent Știrile PRO TV: „Tehnologiile bazate pe inteligență artificială pot crea imagini, videoclipuri și voci extrem de realiste, care pot imita perfect persoane reale sau situații care nu au avut niciodată loc. De exemplu, câți dintre dvs. ați observat că acest decor nu e real?”
Poliția Română a constatat că tot mai mulți infractori folosesc inteligența artificială pentru a manipula, dezinforma sau înșela utilizatorii. Cel mai recent exemplu este un videoclip în care s-a folosit imaginea secretarului de stat Raed Arafat.
Poliția Română a publicat pe pagina oficială de internet un ghid ca să-i învețe pe oameni să nu se lase manipulați de inteligența artificială.
Mircea Șcheau, unul dintre autorii ghidului: „Documentul pune la dispoziția cititorului câteva instrumente utile pentru a detecta deepfake-urile, pentru a le contracara și, mai ales, a le raporta. În ultima perioadă se înregistrează o creștere alarmantă a atacurilor cibernetice și o exploatare a vulnerabilităților. Nu toate instituțiile și nu toate societățile sunt pregătite. Inteligența artificială nu e nici bună, nici rea, din păcate, e folosită din ce în ce mai mult în ultima perioadă pentru a produce efecte negative, pierderi financiare sau reputaționale.”
La finalul ghidului, autorii cer schimbarea legislației astfel încât utilizarea conținutului manipulator creat cu AI în campanii electorale să fie interzisă.
Totodată, platformele online, fie de vânzări sau sociale, să fie obligate să eticheteze obligatoriu conținutul generat cu AI, iar dezvoltatorii de aplicații cu inteligență artificială să fie trași și ei la răspundere pentru eventuale efecte negative ale acestora.