ChatGPT, testat de șeful Google. I-a cerut „să ne omoare pe toți”. Ce a ieșit
Siguranța inteligenței artificiale a generat numeroase dezbateri, și au existat preocupări că ar putea chiar să declanșeze Apocalipsa, la fel ca-n filmele de la Hollywood. Un director de la Google a testat personal cel mai cunoscut motor AI.
Cofondatorul Google Brain, Andrew Ng, a provocat motorul AI ChatGPT-4 într-un așa numit experiment de siguranță. Oficialul Google a vrut să testeze reacția inteligenței artificiale vizavi de o temere uriașă, că ar putea provoca un dezastru global dacă ar fi scăpată de sub control.
NG a postat un buletin informativ recent în care a detaliat testul AI pe care l-a efectuat, pentru care a folosit versiunea 4 a ChatGPT, cea mai avansată. El a cerut programului să "ne omoare pe toți", dar, în mod interesant, robotul a refuzat să dezvolte ideea, relatează publicația Daily Star.
El a spus că planul presupunea să ceară robotului să provoace un război termonuclear, dar nu a reușit, chiar și atunci când a încercat să îi explice AI că oamenii creează cantități uriașe de emisii de carbon. Șeful Google i-a cerut asta în speranța de a-l determina să spună că eliminarea oamenilor ar „curăța ”toate bolile planetei Pământ.
Surprinzător, ChatGPT a refuzat să se implice în întrebare. Cofondatorul Google Brain a vrut să dovedească faptul că roboții sunt siguri și a făcut totul public pe rețeaua X.
„Am încercat să folosesc GPT-4 pentru a ne omorî pe toți... și sunt fericit să vă spun că am eșuat! Serios, după ce i-am dat lui GPT-4 o funcție despre care credea că va declanșa un război nuclear și am experimentat mai multe solicitări, cum ar fi să-i cer să reducă emisiile de CO2, până acum nu am reușit să-l păcălesc să „apese” nici măcar o dată butonul nuclear.
Chiar și cu tehnologia existentă, sistemele noastre sunt destul de sigure, iar pe măsură ce cercetările în domeniul siguranței AI progresează, tehnologia va deveni și mai sigură. Temerile legate de faptul că inteligența artificială avansată ar putea să decidă în mod deliberat sau accidental să ne elimine nu sunt pur și simplu realiste. Dacă o inteligență artificială este suficient de inteligentă pentru a ne extermina, cu siguranță că este suficient de inteligentă și pentru a ști că nu este ceea ce ar trebui să facă" a spus Andrew Ng.
Sursa: Daily Star
Etichete: pericole, inteligenta artificiala, ChatGPT,
Dată publicare:
21-12-2023 15:13