Google PaLM 2 vs. OpenAI GPT-4: Care este diferența?

Google a dezvăluit următoarea generație a modelului său de limbaj Pathways (PaLM 2) pe 10 mai 2023, la Google I/O 2023. Noul său model de limbă mare (LLM) se mândrește cu multe îmbunătățiri față de predecesorul său (PaLM) și ar putea fi în sfârșit gata să-și înfrunte cel mai mare rival, GPT-4 de la OpenAI.


VIDEO MUO AL ZILEI

Derulați PENTRU A CONTINUA CU CONȚINUT

Dar cât de mult a îmbunătățit Google? Este PaLM 2 factorul de diferență pe care Google speră să fie și, mai important, cu atât de multe capacități similare, prin ce este diferit PaLM 2 de GPT-4 de la OpenAI?


PaLM 2 vs. GPT-4: Prezentare generală a performanței

PaLM 2 este plin de capabilități noi și îmbunătățite față de predecesorul său. Unul dintre avantajele unice pe care PaLM 2 le are față de GPT-4 este că este disponibil în dimensiuni mai mici specifice anumitor aplicații care nu au atât de multă putere de procesare la bord.

Toate aceste dimensiuni diferite au propriile lor modele mai mici numite Gecko, Otter, Bizon și Unicorn, Gecko fiind cel mai mic, urmat de Otter, Bizon și, în sfârșit, Unicorn, cel mai mare model.

Imagine de creier roz neon pe fundal negru

Google susține, de asemenea, o îmbunătățire a capacităților de raționament față de GPT-4 în WinoGrande și DROP, primul trăgând o marjă îngustă în ARC-C. Cu toate acestea, există o îmbunătățire semnificativă la nivel general în ceea ce privește PaLM și SOTA.


PaLM 2 este, de asemenea, mai bun la matematică, conform celor 91 de pagini ale Google Lucrarea de cercetare PaLM 2 (PDF). Cu toate acestea, modul în care Google și OpenAI și-au structurat rezultatele testelor face dificilă compararea directă a celor două modele. De asemenea, Google a omis unele comparații, probabil pentru că PaLM 2 nu a funcționat la fel de bine ca GPT-4.

În MMLU, GPT-4 a obținut 86,4, în timp ce PaLM 2 a obținut 81,2. Același lucru este valabil și pentru HellaSwag, unde GPT-4 a obținut 95,3, dar PaLM 2 a putut strânge doar 86,8 și ARC-E, unde GPT-4 și PaLM 2 au obținut 96,3 și, respectiv, 89,7.

Cel mai mare model din familia PaLM 2 este PaLM 2-L. Deși nu cunoaștem dimensiunea lui exactă, știm că este semnificativ mai mic decât cel mai mare model PaLM, dar utilizează mai mult calcul de antrenament. Potrivit Google, PaLM are 540 de miliarde de parametri, așa că „semnificativ mai mic” ar trebui să pună PaLM 2 între 10 și 300 de miliarde de parametri. Rețineți că aceste cifre sunt doar presupuneri bazate pe ceea ce a spus Google în lucrarea PaLM 2.

Dacă acest număr este aproape de 100 de miliarde sau mai puțin, PaLM 2 este cel mai probabil mai mic în ceea ce privește parametrii decât GPT-3.5. Este impresionant să considerăm că un model cu potențial sub 100 de miliarde poate merge în picioare cu GPT-4 și chiar îl poate învinge la unele sarcini. GPT-3.5 a aruncat inițial totul din apă, inclusiv PaLM, dar PaLM 2 a făcut o recuperare destul de mare.

Un alt avantaj evident de performanță pe care PaLM 2 îl poartă peste GPT-4 este disponibilitatea sa în diferite dimensiuni. Aceasta înseamnă că diferite versiuni ale modelului, Gecko, de exemplu, pot rula pe dispozitive mobile, chiar și fără o conexiune la internet, și pot oferi capabilități AI la bord – ceva ce încă nu vedem de la GPT-4. Acest tip de procesare pe dispozitiv oferă lui PaLM 2 un avantaj față de GPT-4 când vine vorba de accesibilitate și implementare.

Diferențele între datele de antrenament GPT-4 și PaLM 2

Deși Google nu a dezvăluit dimensiunea setului de date de antrenament al PaLM 2, compania raportează în lucrarea sa de cercetare că noul set de date de instruire al noului LLM este semnificativ mai mare. De asemenea, OpenAI a adoptat aceeași abordare atunci când a dezvăluit GPT-4, fără a pretinde mărimea setului de date de antrenament.

Cu toate acestea, Google a dorit să se concentreze pe o înțelegere mai profundă a matematicii, logicii, raționamentului și științei, ceea ce înseamnă că o mare parte din datele de antrenament ale PaLM 2 sunt concentrate pe subiectele menționate mai sus. Google spune în lucrarea sa că corpusul de pre-formare al PaLM 2 este compus din mai multe surse, inclusiv documente web, cărți, cod, matematică și date conversaționale, oferindu-i îmbunătățiri la nivel general, cel puțin în comparație cu PaLM.

Abilitățile conversaționale ale lui PaLM 2 ar trebui să fie, de asemenea, la un alt nivel, având în vedere că modelul a fost instruit în peste 100 de limbi pentru a-i oferi o mai bună înțelegere contextuală și capacități de traducere mai bune. Acestea fiind spuse, Google susține că PaLM 2 va genera mai puține rezultate toxice în primul rând pentru că a fost antrenat pe mai puține date, evitând site-urile web care ar putea conține discursuri instigatoare la ură sau alt comportament toxic. Surse textuale mari, cum ar fi Reddit, nu au fost incluse în setul de instruire, ceea ce duce la o ieșire mai „curată”.


În ceea ce privește datele de antrenament ale GPT-4, OpenAI ne-a spus că a antrenat modelul folosind date disponibile public și datele pe care le-a licențiat. Pagina de cercetare a GPT-4 afirmă: „Datele sunt un corp de date la scară web care include soluții corecte și incorecte la probleme de matematică, raționament slab și puternic, afirmații auto-contradictorii și consistente și reprezentând o mare varietate de ideologii și idei”.

sigla ChatGPT peste o fotografie a unui eseu scris pe un laptop

Atunci când GPT-4 este adresată o întrebare, poate produce o mare varietate de răspunsuri, care nu toate pot fi relevante pentru interogarea dvs. Pentru a-l alinia cu intenția utilizatorului, OpenAI a reglat fin comportamentul modelului folosind învățarea prin consolidare cu feedback uman.


Deși este posibil să nu cunoaștem datele exacte de antrenament pe care au fost antrenate niciunul dintre aceste modele, știm că intenția de antrenament a fost foarte diferită. Va trebui să așteptăm și să vedem cum se diferențiază această diferență în intenția de instruire între cele două modele într-o implementare în lumea reală.

Acestea fiind spuse, volumul mare de date de antrenament utilizate pentru GPT-4 înseamnă că acesta are un avantaj atunci când vine vorba de înțelegerea nuanțelor limbajului și ar trebui, teoretic, să genereze rezultate de calitate superioară. Cu toate acestea, acest lucru înseamnă, de asemenea, că OpenAI trebuie să pună în aplicare restricții mai puternice pentru a împiedica modelul să se destrame, lucru pe care Google îl poate evita, având în vedere că a lăsat surse potențial toxice în afara datelor de antrenament.

Chatbot și servicii PaLM 2 și GPT-4

Primul portal care accesează ambele LLM-uri folosește chatbot-urile respective, Bard de la PaLM 2 și ChatGPT de la GPT-4. Acestea fiind spuse, GPT-4 se află în spatele unui paywall cu ChatGPT Plus, iar utilizatorii gratuiti au acces doar la GPT-3.5. Bard, pe de altă parte, este gratuit pentru toți și disponibil în 180 de țări.


Asta nu înseamnă că nu poți accesa gratuit GPT-4. Bing AI Chat de la Microsoft folosește GPT-4 și este complet gratuit, deschis tuturor și disponibil chiar lângă Bing Search, cel mai mare rival al Google în spațiu.

Setarea unui imagine de fundal emoji pe Android

Google I/O 2023 a fost plin de anunțuri despre modul în care PaLM 2 și integrarea AI generativă vor îmbunătăți experiența Google Workspace cu funcții AI care vin în Google Docs, Sheets, Slides, Gmail și aproape fiecare serviciu oferit de gigantul căutării. În plus, Google a confirmat că PaLM 2 a fost deja integrat în peste 25 de produse Google, inclusiv Android și YouTube.

În comparație, Microsoft a adus deja funcții AI în suita de programe Microsoft Office și multe dintre serviciile sale. În acest moment, puteți experimenta ambele LLM-uri în versiunile lor de oferte similare de la două companii rivale care se înfruntă cap la cap în bătălia AI.

Cu toate acestea, deoarece GPT-4 a apărut devreme și a avut grijă să evite multe dintre gafele pe care Google le-a făcut cu Bard-ul original, a fost de facto LLM pentru dezvoltatori terți, startup-uri și aproape oricine altcineva care dorește să încorporeze un model AI capabil în serviciul lor până acum. Avem o listă de aplicații GPT-4 dacă doriți să le verificați.

O captură de ecran a IA Bing de la Microsoft

Asta nu înseamnă că dezvoltatorii nu vor trece la sau cel puțin nu vor încerca PaLM 2, dar Google încă trebuie să ajungă din urmă cu OpenAI în acest sens. Faptul că PaLM 2 este open-source, în loc să fie blocat în spatele unui API plătit, înseamnă că are potențialul de a fi adoptat mai pe scară largă decât GPT-4.


Toate lucrurile luate în considerare, în acest moment, Bard-ul PaLM 2 pare a fi alegerea mai bună atunci când vine vorba de cercetare, deoarece este mai bine să răspundă la întrebări cu informații relevante și să acceseze cele mai recente informații de pe internet despre orice subiect dat. Conform ultimei actualizări a lui Bardlivrat pe 19 septembrie 2023, Bard își folosește acum „cel mai capabil model de până acum” cu suport pentru alte 40 de limbi, asistență de codificare aprofundată, capacitatea de a prezenta perspective diferite asupra unui anumit subiect și îmbunătățiri generale ale calității și preciziei.

De asemenea, aveți opțiunea de a verifica de două ori răspunsurile lui Bard cu căutări Google. Cu toate acestea, din punct de vedere al performanței, modelul necesită încă mai mult timp pentru a genera răspunsuri în comparație cu ChatGPT sau Bing Chat alimentat cu GPT-4.

Poate PaLM 2 să accepte GPT-4?

PaLM 2 este încă foarte nou, așa că răspunsul dacă poate accepta sau nu GPT-4 rămâne de răspuns. Cu toate acestea, cu tot ceea ce promite Google și cu maniera agresivă pe care a decis să o folosească pentru a-l propaga, se pare că PaLM 2 poate oferi GPT-4 o gamă de bani. Odată cu dezvoltarea continuă de către Google a unui model AI multimodal numit Gemini, de asemenea, în lucru, este timpul ca OpenAI să se pună în picioare.

Cu toate acestea, GPT-4 este încă un model destul de capabil și, după cum am menționat anterior, depășește PaLM 2 în câteva comparații. Acestea fiind spuse, multiplele modele mai mici ale lui PaLM 2 îi conferă un avantaj de nerefuzat. Gecko în sine este atât de ușor încât poate funcționa pe dispozitive mobile, chiar și atunci când este offline. Aceasta înseamnă că PaLM 2 poate suporta o clasă complet diferită de produse și dispozitive care ar putea avea dificultăți să folosească GPT-4.

Cursa AI se încălzește

Odată cu lansarea PaLM2, cursa pentru dominația AI s-a încălzit, deoarece acesta ar putea fi doar primul adversar demn care să meargă împotriva GPT-4. Cu un model AI multimodal mai nou, numit „Gemeni”, tot în curs de formare, Google nu dă semne de încetinire aici.

Echipa de Promovare UTOPIAN (@PromovareCuDavid ) ofera servicii de cresterea afacerilor, cresterea firmelor din Romania si nu numai prin realizarea de servicii la comanda, de la automatizari premium pentru procese repetitive, la crearea de siteuri web SI CRESTEREA LOR pe termen lung, ca sa ajungeti la cat mai multi oameni. Puteti folosi pagina noastra de SERVICII si pagina de CONTACT pentru detalii.

Lasa un comentariu