Inteligența artificială care poate amenința omenirea, invocată într-o scrisoare a angajaților către conducerea Open AI
Inteligența artificială care poate amenința omenirea, sau mai exact o descoperire AI care poate submina însăși umanitatea este subiectul unei scrisori interne trimisă de angajați conducerii OpenAI, chiar înainte de concedierea lui Sam Altman.
Mai mulţi cercetători din cadrul personalului startup-ului au scris o scrisoare către Consiliul de Administraţie în care avertizau asupra unei descoperiri puternice în materie de inteligenţă artificială despre care au spus că ar putea ameninţa omenirea, transmit surse citate de Reuters, arată news.ro
Scrisoarea şi algoritmul de inteligenţă artificială au fost evoluţii cheie înainte de înlăturarea lui Altman de către Consiliul de Administraţie, au spus cele două surse.
Scrisoarea a reprezentat un factor dintr-o listă mai lungă de nemulţumiri ale Consiliului de Administraţie care au dus la concedierea lui Altman, considerat copilul teribil al inteligenţiei artificiale, printre care se numără preocupări legate de comercializarea progreselor AI înainte de a înţelege consecinţele acestora.
În scrisoarea lor către Consiliu, cercetătorii au semnalat probele de inteligenţă artificială şi potenţialul pericol, au declarat sursele, fără a preciza care sunt îngrijorările exacte legate de siguranţă semnalate în scrisoare. Există de mult timp discuţii în rândul informaticienilor cu privire la pericolul reprezentat de maşinile foarte inteligente, de exemplu dacă acestea ar putea decide că distrugerea umanităţii este în interesul lor.
Altman, reangajat marți seară
Marți seară a fost reangajat, după ce plecase la Microsoft și peste 700 de angajaţi amenințaseră că vor demisiona şi se vor alătura Microsoft în semn de solidaritate cu liderul lor concediat.
După ce a fost contactat de Reuters, OpenAI, care a refuzat să comenteze, a recunoscut într-un mesaj intern adresat personalului un proiect numit Q* şi o scrisoare adresată Consiliului înainte de evenimentele din weekend, a declarat una dintre persoane. Un purtător de cuvânt al OpenAI a declarat că mesajul, trimis de Mira Murati, un director cu vechime, a alertat personalul cu privire la anumite articole din presă, fără a comenta acurateţea acestora.
Unele persoane de la OpenAI cred că Q* (pronunţat Q-Star) ar putea fi o descoperire în căutarea de către startup a ceea ce este cunoscut sub numele de inteligenţă artificială generală (AGI), a declarat pentru Reuters una dintre surse. OpenAI defineşte AGI ca fiind sisteme autonome ce depăşesc oamenii în majoritatea sarcinilor valoroase din punct de vedere economic.
De ce AI nu poate rezolva încă probleme matematice complexe
Având în vedere resursele vaste de calcul, noul model a fost capabil să rezolve anumite probleme matematice, a declarat sub rezerva anonimatului sursa Reuters. Cu toate că efectua doar calcule matematice la nivelul elevilor de şcoală primară, faptul că a reuşit astfel de teste i-a făcut pe cercetători să fie foarte optimişti cu privire la viitorul succes al Q*, a mai spus sursa.
Cercetătorii consideră că matematica este o frontieră a dezvoltării inteligenţei artificiale generative. În prezent, inteligenţa artificială generativă este bună la scriere şi la traducerea limbilor străine prin prezicerea statistică a următorului cuvânt, iar răspunsurile la aceeaşi întrebare pot varia foarte mult. Dar cucerirea abilităţii de a face matematică - unde există un singur răspuns corect - presupune că IA ar avea capacităţi mai mari de raţionament, asemănătoare cu inteligenţa umană. Acest lucru ar putea fi aplicat, de exemplu, la cercetări ştiinţifice noi, consideră cercetătorii din domeniul IA..
Spre deosebire de un calculator care poate rezolva un număr limitat de operaţii, AGI poate generaliza, învăţa şi înţelege.
Sursa: Pro TV
Etichete: pericole, inteligenta artificiala, scrisoare,
Dată publicare:
23-11-2023 10:07