Google lansează Gemini, cel mai avansat model de inteligenţă artificială al său
Modelul de limbaj mare Gemini va include o suită de trei dimensiuni diferite: Gemini Ultra, categoria sa cea mai mare şi cea mai capabilă; Gemini Pro, care se extinde într-o gamă largă de sarcini; şi Gemini Nano, pe care îl va folosi pentru anumite sarcini şi dispozitive mobile.
Deocamdată, compania plănuieşte să licenţieze Gemini clienţilor prin Google Cloud, pentru ca aceştia să le poată utiliza în propriile aplicaţii.
Începând cu 13 decembrie, dezvoltatorii şi clienţii întreprinderilor pot accesa Gemini Pro prin API-ul Gemini în Google AI Studio sau Google Cloud Vertex AI.
Dezvoltatorii Android vor putea construi şi cu Gemini Nano.
Gemini va fi, de asemenea, folosit pentru a alimenta produsele Google, cum ar fi chatbot-ul Bard şi Search Generative Experience, care încearcă să răspundă la interogări de căutare cu text în stil conversaţional (SGE nu este încă disponibil pe scară largă).
Gemini Ultra este primul model care depăşeşte experţii umani în MMLU (înţelegerea masivă a limbajului multitask), care utilizează o combinaţie de 57 de subiecte precum matematică, fizică, istorie, drept, medicină şi etică pentru a testa atât cunoştinţele lumii, cât şi abilităţile de rezolvare a problemelor, a spus compania într-o postare pe blog, miercuri.
Se presupune că poate înţelege nuanţa şi raţionamentul în subiecte complexe.
”Gemini este rezultatul eforturilor de colaborare pe scară largă ale echipelor Google, inclusiv ale colegilor noştri de la Google Research. A fost construit de la zero pentru a fi multimodal, ceea ce înseamnă că poate generaliza şi înţelege fără probleme, poate opera şi combina diferite tipuri de informaţii, inclusiv text, cod, audio, imagine şi video”, a scris CEO-ul Sundar Pichai într-o postare pe blog de miercuri.
Începând de astăzi, chatbot-ul Google Bard va folosi Gemini Pro pentru a ajuta cu raţionament avansat, planificare, înţelegere şi alte capacităţi.
La începutul anului viitor, Google va lansa ”Bard Advanced”, care va folosi Gemini Ultra, au spus directorii marţi, într-un un apel cu reporteri.
Lansarea reprezintă cea mai mare actualizare pentru Bard, chatbot-ul său asemănător ChatGPT.
Actualizarea vine la opt luni după ce gigantul serviciilor de căutare a lansat pentru prima dată Bard şi la un an după ce OpenAI a lansat ChatGPT pe GPT-3.5.
În luns martie a acestui an, startup-ul condus de Sam Altman a lansat GPT-4.
Directorii Google au spus marţi că Gemini Pro a depăşit performanţa GPT-3.5, dar a evitat întrebările despre cum s-a comparat cu GPT-4.
Când a fost întrebat dacă Google intenţionează să taxeze pentru accesul la ”Bard Advanced”, directorul general al Google pentru Bard, Sissie Hsiao, a spus că se concentrează pe crearea unei experienţe bune şi nu are încă detalii de monetizare.
Când a fost întrebat la un briefing de presă dacă Gemini are capacităţi noi în comparaţie cu LLM-urile din generaţia actuală, Eli Collins, vicepreşedinte de produs la Google DeepMind, a răspuns: ”Bănuiesc că are”, dar că încă funcţionează pentru a înţelege capacităţile noi ale Gemini Ultra.
Se pare că Google a amânat lansarea Gemini pentru că nu era gata, aducând în minte amintiri despre lansarea de către companie a instrumentelor sale AI la începutul anului.
Mai mulţi reporteri au întrebat despre întârziere, la care Collins a răspuns că testarea modelelor mai avansate durează mai mult.
Collins a spus că Gemeni este cel mai bine testat model AI construit de companie şi că are ”cele mai cuprinzătoare evaluări de siguranţă” dintre orice modele Google.
Collins a spus că, în ciuda faptului că este cel mai mare model al său, Gemini Ultra este semnificativ mai ieftin de servit.
”Nu este doar mai capabil, ci şi mai eficient. Încă avem nevoie de un calcul semnificativ pentru a antrena Gemini, dar devenim mult mai eficienţi în ceea ce priveşte capacitatea noastră de a antrena aceste modele”, a spus el.
Collins a spus că compania va lansa o carte tehnică cu mai multe detalii despre model miercuri.
La începutul acestui an, CNBC a descoperit că modelul de limbaj mare PaLM 2 al Google, cel mai recent model AI la acea vreme, folosea de aproape cinci ori mai mult decât cantitatea de date text pentru antrenament ca predecesorul său LLM.
Tot miercuri, Google a prezentat unitatea sa de procesare a tensorilor de ultimă generaţie pentru antrenarea modelelor AI. Cipul TPU v5p, pe care Salesforce şi startup-ul Lightricks au început să îl folosească, oferă o performanţă mai bună la preţ decât TPU v4 anunţat în 2021, a spus Google.
Dar compania nu a furnizat informaţii despre performanţă în comparaţie cu liderul de piaţă Nvidia.