Cât de periculoasă este Inteligența Artificială folosită în scop malițios. De la divertisment la înșelătorii și crize sociale
Evoluția fulminantă a Inteligenței Artificiale a ridicat probleme majore la nivelul societății, iar percepția generală este că nu eram pregătiți pentru o asemenea tranziție.
S-a ajuns în situația în care nu mai e clar dacă omul sau „mașina” a creat conținutul online, iar AI poate fi folosită în scopuri malițioase. Nu în ultimul rând, va face ca o serie de joburi să dispară, pentru că mașina e mai eficientă și mai bine organizată.
Din punct de vedere legal, la acest moment nu există, practic, niciun fel de bariere. Se poate crea orice cu inteligența Artificială, iar cel care o folosește și lansează produsul în public nu este obligat să menționeze că a fost creat cu ajutorul IA, sau integral de către aceasta. Rețelele de socializare precum TikTok au introdus deja obligativitatea marcării unui asemenea conținut, iar exemplul este urmat și de alte rețele similare. La nivel legislativ, a început timid reglementarea acestor aspecte în unele țări din Uniunea Europeană.
Alegeri 2024
03:24
Rezultate alegeri prezidențiale în Bihor. Kelemen Hunor, cel mai votat candidat în judeţul condus de Ilie Bolojan
03:03
Marcel Ciolacu, învins de Călin Georgescu cu peste 20.000 de voturi în Prahova, unde PSD are şefia Consiliului Judeţean
02:54
Rezultate alegeri prezidențiale în Sibiu. Călin Georgescu şi Elena Lasconi sunt primii doi clasaţi în primul tur
02:48
Rezultatele alegerilor prezidențiale din România, în presa străină: Cutremur politic, un candidat pro-rus produce surpriza
În România, se înființează un comitet special, care se va ocupa de tot ce înseamnă inteligență artificială. Noua structură guvernamentală se va numi Comitetul Român pentru Inteligență Artificială sau AI România. Va avea rolul de a stabili limite în ceea ce privește folosirea inteligenței artificiale.
Comitetul va fi compus din două consilii cu mai mulți experți din lumea tehnologiei, dar și a educației. Marea Britanie și Canada au început un demers asemănător de câțiva ani.
Maria Luciana Axente - cercetător la Universitatea Cambridge: „Tehnologia pe care noi o numim inteligență artificială demonstrează zilnic că are un impact profund asupra societății. Este nevoie să o înțelegi nu doar prin prisma oportunităților. Care sunt problemele pe care le putem rezolva și trebuie să ne gândim că inteligența artificială nu poate funcționa dacă nu are o infrastructură digitală.”
Ioan Istrate - consilier la Ministerul Digitalizării: „Consiliul Științific și Etic se va ocupa cu furnizarea de opinii la nivel de experți la nivelul României, iar Consiliul Educației presupune o structură în colaborare cu Ministerul Educației. Rolul va fi de a creiona strategii și a ajuta la implementarea de schimbări, atât legislative cât și practice, la firul ierbii.”
Companiile care implementează instrumente generative de inteligenţă artificială, cum ar fi ChatGPT, vor avea obligația să dezvăluie orice material protejat de drepturi de autor folosit pentru a-şi dezvolta sistemele, conform unui acord UE iniţial, care ar putea deschide calea pentru primele legi generale din lume care reglementează tehnologia, transmite Reuters. Conform propunerilor, instrumentele AI vor fi clasificate în funcţie de nivelul lor de risc perceput: de la minim la limitat, ridicat şi inacceptabil.
Chiar dacă explozia inteligenței artificiale prin chatboți de tipul Chat GPT, Bard ori Bing s-a produs în urmă cu câteva luni și a avansat rapid, Comisia Europeană a început să elaboreze Legea privind inteligenţa artificială în urmă cu aproape doi ani, pentru a reglementa tehnologia emergentă AI.
Nevoia stringentă de reglementare a devenit necesară după apariția falsurilor, derivate din fake-news, care pot avea implicații majore asupra publicului si se pot propaga în valuri, conform teoriei bulgărelui de zăpadă. Un deepfake, fie el in imagini, audio, grafic ori combinat poate fi lesne folosit pentru manipularea maselor, în scopuri politice, ca parte a unui experiment social sau pur și simplu din amuzament, în funcție de interesul ascuns al creatorului care l-a „comandat” AI-ului.
Evoluția falsurilor profunde - deepfake
Conform Makeuseof, o cunoscută publicație online de tehnologie, un deepfake arată o persoană care face ceva ce nu s-a întâmplat niciodată în viața reală. Este complet falsă. Râdem de deepfakes atunci când sunt împărtășite pe internet sub forma unor meme sau glume, dar foarte puțini oameni găsesc amuzant atunci când sunt folosite pentru a ne induce în eroare - pentru că aici nu se poate face diferența dintre ce este adevărat și ce este fals.
În trecut, „deepfakes” erau create luând o fotografie existentă și modificând-o într-un software de editare a imaginilor, cum ar fi Photoshop. Acum însă, un deepfake AI poate fi generat de la zero folosind algoritmi de învățare profundă.
Dicționarul Merriam-Webster definește un deepfake ca fiind:
„O imagine sau o înregistrare care a fost modificată și manipulată în mod convingător pentru a prezenta în mod eronat pe cineva ca făcând sau spunând ceva ce în realitate nu a fost făcut sau spus.”
Însă, odată cu progresele înregistrate în tehnologia IA, această definiție începe să pară depășită. Cu ajutorul instrumentelor de inteligență artificială, „deepfakes” includ acum imagini, texte, videoclipuri și clonarea vocii. Uneori, toate cele patru moduri de generare a IA sunt utilizate simultan.
Deoarece este un proces automatizat, incredibil de rapid și ieftin de utilizat, este instrumentul perfect pentru a produce deepfakes într-un ritm pe care nu l-am mai văzut până acum, toate acestea fără a fi nevoie să fii priceput la editarea fotografiilor, videoclipurilor sau a fișierelor audio.
Există deja o mulțime de generatoare de videoclipuri AI, alături de o mulțime de generatoare de voci AI. Adăugați un model lingvistic de mari dimensiuni precum GPT-4 și veți avea o rețetă pentru crearea celor mai credibile „deepfakes” pe care le-am văzut până acum.
A fi conștient de diferitele tipuri de deepfakes AI și de modul în care acestea ar putea fi folosite pentru a vă păcăli este o modalitate de a evita să fiți înșelat.
Deepfake-urile propagate sunt extrem de periculoase, nu numai din punct de vedere social, ci și penal
Furtul de identitate cu AI
Printre primele „deepfakes” AI cu adevărat virale care s-au răspândit în întreaga lume a fost o imagine cu Donald Trump arestat și una cu Papa Francisc într-o jachetă pufoasă albă.
Dacă cea de-a doua poate fi considerată o farsă inocentă, prima arată o figură politică remarcabilă într-o situație de încălcare a legii, are consecințe mult mai mari dacă este luată drept reală.
Până în prezent, oamenii au vizat în principal celebrități, figuri politice și alte persoane celebre atunci când au creat „deepfakes” AI. În parte, acest lucru se datorează faptului că persoanele celebre au o mulțime de fotografii pe internet, care probabil au ajutat la antrenarea modelului de învățare AI
În cazul unui generator de imagini de inteligență artificială precum Midjourney - utilizat atât în cazul falsurilor profunde ale lui Trump, cât și în cazul Papei - un utilizator trebuie doar să introducă un text care să descrie ceea ce dorește să vadă. Se pot folosi cuvinte cheie pentru a specifica stilul artistic, cum ar fi o fotografie sau fotorealism, iar rezultatele pot fi ajustate cu precizie prin mărirea rezoluției.
Puteți la fel de ușor să învățați să folosiți Midjourney, dar, din motive morale și legale evidente, ar trebui să evitați să postați aceste imagini în mod public.
De aici, și pericolul major: de la persoane publice se poate ajunge ușor la persoane private
Problema constă într-o caracteristică cheie oferită de generatoarele de imagini AI: posibilitatea de a încărca propria imagine și de a o manipula cu ajutorul AI. Iar un instrument precum Outpainting din DALL-E 2 poate extinde o imagine existentă dincolo de realitate prin introducerea unui text și descrierea a ceea ce ați dori să generați în plus.
Dacă altcineva ar face acest lucru cu fotografiile voastre., pericolele ar putea fi semnificativ mai mari decât deepfake-ul Papei în jachetă albă - îl poate folosi oriunde, pretinzând că sunteți dvs. Deși majoritatea oamenilor folosesc în general IA cu intenții bune, există foarte puține restricții care îi împiedică pe oameni să o folosească pentru a face rău, în special în cazurile de furt de identitate.
Escrocherii de clonare a vocii de tip „deepfake”
Cu ajutorul AI, s-a ajuns deja la clonarea vocii. Cu doar o cantitate mică de audio original - poate de la un videoclip TikTok pe care l-ați postat cândva, sau de la un videoclip YouTube în care apăreți - un model de inteligență artificială poate copia vocea dumneavoastră, considerată până acum unică.
Este atât straniu, cât și înfricoșător să îți imaginezi că primești un apel telefonic care sună exact ca un membru al familiei, un prieten sau un coleg și în care esti anunțat de ceva groaznic și ți se cere o sumă de bani rapid pentru a rezolva problema - și toți am auzit de numărul mare de victime prin care escrocii fac bani mulți din metoda „Accidentul”. Clonele de voce „deepfake” reprezintă o preocupare suficient de serioasă pentru ca Federal Trade Commision (FTC) să emită un avertisment în acest sens.
Primul sfat este dacă primiți un asemene apel este să nu vă încredeți în voce. Sunați persoana care se presupune că v-a contactat și verificați povestea. Utilizați un număr de telefon despre care știți că este al lor. Dacă nu reușiți să dați de acea persoană, încercați să luați legătura cu ea prin intermediul altui membru al familiei sau al prietenilor acesteia.
Washington Post a relatat cazul unui cuplu de 70 de ani care a primit un apel telefonic de la cineva care semăna cu nepotul lor. Acesta era în închisoare și avea nevoie urgentă de bani pentru cauțiune. Neavând niciun alt motiv să se îndoiască de persoana cu care vorbeau, i-au trimis banii escrocului.
Nu doar generația mai în vârstă este în pericol, The Guardian a arătat un alt exemplu, al unui director de bancă care a aprobat o tranzacție de 35 de milioane de dolari după o serie de "apeluri false" de la o persoană despre care a crezut că este un alt director de bancă.
Fakenews în masă
Modelele lingvistice de mari dimensiuni, precum ChatGPT, au devenit foarte pricepute la producerea de mesaje care sună exact ca vorbirea umană, iar în prezent nu dispunem de instrumente eficiente pentru a detecta diferența. Știrile false și teoriile conspirației vor fi ușor și ieftin de produs și vor fi și mai greu de dezmințit.
Răspândirea de dezinformări nu este, desigur, ceva nou, dar o lucrare de cercetare publicată pe arXiv în ianuarie 2023 explică faptul că problema constă în cât de ușor este să se mărească producția cu ajutorul instrumentelor de inteligență artificială. Sunt „campanii de influență generate de AI", despre care spun că ar putea fi folosite, de exemplu, de politicieni pentru a-și externaliza campaniile politice.
Combinarea mai multor surse generate de AI creează un deepfake elaborat. De exemplu, un model de inteligență artificială poate genera o știre bine scrisă și convingătoare care să însoțească imaginea falsă cu Donald Trump arestat. Acest lucru îi conferă mai multă legitimitate decât dacă imaginea ar fi fost partajată de una singură.
Știrile false nu se limitează nici la imagini și scrieri; evoluțiile în generarea de videoclipuri cu ajutorul inteligenței artificiale înseamnă că vedem tot mai multe videoclipuri deepfake care apar. Spre exemplu, unul în care actorul Robert Downey Jr. este suprapus pe un videoclip cu Elon Musk, postat de canalul YouTube Deepfakery. Aici însă, este știut, dat fiind canalul, că este un trucaj, dar ce s-ar fi întâmplat dacă ar fi apărut în altă parte?
Crearea unui deepfake poate fi la fel de simplă ca descărcarea unei aplicații. Puteți folosi o aplicație precum TokkingHeads pentru a transforma imagini statice în avataruri animate, care vă permite să încărcați propria imagine și sunet pentru a face să pară că persoana vorbește.
Au existat deja o serie de videoclipuri virale care circulă pe internet și care ar putea fi sau nu falsuri, cum ar fi cele postate de imitatorul chinez al lui Elon Musk, supranumit "Yilong Ma" sau "Yi Long Musk". Acest creator a postat o serie de videoclipuri în care apare vorbind în fața camerei, în timp ce se plimbă pe stradă, stă lângă mașină sau se relaxează pe o terasă.
Dar ceea ce este interesant la acest individ este că pare să semene foarte mult cu Elon Musk, CEO-ul SpaceX și Tesla. Scepticii au presupus că creatorul folosește tehnologia deepfake, dar acest lucru încă nu a fost confirmat. Unii sunt convinși că este vorba despre sosia lui Elon Musk, în timp ce alții sunt siguri că nu este vorba decât despre o alterare digitală.
Dacă acest creator folosește, de fapt, tehnologia deepfake, atunci a reușit să păcălească o mulțime de oameni, iar acest lucru face ca „deepfakes” să fie riscante.
Este amuzant și distractiv, dar există și un potențial de apariție aunor probleme. Aceasta ne arată cât de ușor este să folosești imaginea oricui pentru a face să pară că acea persoană a spus cuvinte pe care nu le-a rostit niciodată.
„Deepfakes” pot fi implementate rapid, cu costuri foarte mici și cu un nivel scăzut de experiență sau putere de calcul necesare. Ele pot lua forma unei imagini generate, a unei clone de voce sau a unei combinații de imagini, audio și text generate de AI.
Folosite în privat, asemenea deepfake-uri nu sunt neapărat periculoase. Problema reală apare doar când sunt lansate public și transmit un mesaj care nu a existat niciodată în realitate. Dacă dețineți un smartphone, sunt șanse mari să puteți descărca o aplicație „deepfake” în câteva secunde. Wombo și Reface sunt doar două exemple dintre numeroasele aplicații „deepfake” pe care le puteți instala în prezent.
Înainte, era mult mai dificil și mai laborios să produci un „deepfake”, dar acum, cu o mulțime de aplicații de inteligență artificială, aproape oricine are acces la asemenea instrumente.
Ce joburi poate înlocui AI-ul
A doua mare preocupare despre folosirea Inteligenței Artificiale de genul Chat GPT este faptul că ar putea înlocui în curând munca plătită a oamenilor, generând milioane de șomeri. Sunt o serie de profesii susceptibile să fie înlocuite în curând de IA, precum programatorii, creatorii de conținut sau agenții de marketing.
Potrivit reprezentanților portalului juridic termene.ro, slujbele din domeniile financiar-contabil și juridic ar putea fi lovite de un val puternic de concedieri.
„Meseriile viitorului se vor axa pe împletirea tehnologiei cu capacitățile umane. Meserii din zona contabilă, juridică, financiară vor fi preluate de roboți”, consideră Radu Burnete, director executiv al Confederației Patronale „Concordia”.
Potrivit Business Insider, sunt în pericol să-și piardă slujbele în favoare inteligenței artificiale angajații din IT (programatorii, inginerii de soft, analiștii de date), cei din industria media (publicitate, creatori de conținut, autorii de documentație tehnică, jurnaliștii), apoi zona legală (asistenții și jurisconsulții) apoi analiștii de piață, unii profesori, finanțiștii (analiști financiari, consilierii în finanțe), brokerii, graficienii, contabilii, agenții în relația cu clienții.
Etica AI
Potrivit Forbes, etica inteligenței artificiale a devenit un subiect critic pentru întreaga lume. Așadar, ce este etica IA și de ce este importantă?
În general, etica AI este termenul dat unei colecții largi de considerații care combină siguranța, securitatea, preocupările umane și considerațiile de mediu. Unele domenii ale eticii IA includ:
-Evitarea prejudecăților AI. Deoarece AI învață din date, AI-urile prost construite pot (și o fac) să manifeste prejudecăți împotriva unor subseturi de date slab reprezentate. În special, AI-urile care nu sunt bine instruite pot manifesta prejudecăți împotriva minorităților și a grupurilor subreprezentate. Cazuri celebre de părtinire, cum ar fi în procedurile de angajare și în chatbots, au pus în dificultate mărci corporative celebre și au creat riscuri juridice.
-Inteligența artificială și confidențialitatea. AI se bazează pe informații din care învață. O parte semnificativă a acestor informații provine de la utilizatori. Nu toți utilizatorii sunt conștienți de informațiile care sunt colectate despre ei și de modul în care acestea sunt utilizate pentru a lua decizii care îi afectează. Chiar și în prezent, totul, de la căutările pe internet la achizițiile online și până la comentariile din social media, poate fi folosit pentru a urmări, identifica și personaliza experiențele utilizatorilor. În timp ce acest lucru poate fi pozitiv (cum ar fi recomandarea de către o inteligență artificială a unui produs pe care un utilizator l-ar putea dori), poate duce, de asemenea, la o acțiune greșită (cum ar fi oferirea unor oferte unor consumatori și nu altora).
-Evitarea greșelilor AI. AI-urile prost construite pot face greșeli care pot duce la varii situații, de la pierderea unor venituri până la deces. Este necesară o testare adecvată pentru a se asigura că AI nu prezintă un risc pentru oameni sau pentru mediile lor.
-Gestionarea impactului AI asupra mediului. Modelele de inteligență artificială devin din ce în ce mai mari pe zi ce trece, modelele recente ajungând să aibă peste un trilion de parametri fiecare. Aceste modele mari consumă o cantitate semnificativă de energie pentru a fi antrenate - ceea ce face ca AI să fie un mare consumator de resurse. Cercetătorii dezvoltă tehnici pentru IA eficiente din punct de vedere energetic care să echilibreze performanța și eficiența energetică.
Respectarea unei bune etici în materie de inteligență artificială nu este doar un comportament responsabil, ci este necesară pentru a obține o valoare comercială bună din inteligența artificială. Problemele de etică pot reprezenta un risc de afaceri, cum ar fi eșecuri ale unui produs, probleme juridice, afectarea mărcii și multe altele.
Țările adoptă propriile abordări în ceea ce privește etica inteligenței artificiale. Acest lucru implică faptul că, începând de la o societate comercială, trebuie să cunoști reglementările privind IA la nivel de țară și chiar de oraș. Două exemple de reglementări proeminente legate de IA sunt clauza "Dreptul la explicații" din Regulamentul general al UE privind protecția datelor. Mai mult, orașele din SUA iau decizii cu privire la utilizarea algoritmilor, în special a celor folosiți în aplicarea legii. Unul dintre cele mai mari eforturi legislative în materie de inteligență artificială este viitoarea lege privind inteligența artificială din Uniunea Europeană.
Sursa: Makeuseof, StirilePROTV
Etichete: fake news, joburi, inteligenta artificiala, etica,
Dată publicare:
11-05-2023 14:22