Câtă energie electrică consumă generatoarele AI?

Este cunoscut faptul că învățarea automată consumă a lot de energie. Toate acele modele AI care alimentează rezumatele prin e-mail, chatbot-uri regicide, iar videoclipurile cu Homer Simpson cântând nu-metal generează o factură uriașă de server, măsurată în megawați pe oră. Dar nimeni, se pare, nici măcar companiile din spatele tehnologiei nu poate spune exact care este costul.

Estimări există, dar experții spun că aceste cifre sunt parțiale și contingente, oferind doar o imagine a consumului total de energie de către AI. Acest lucru se datorează faptului că modelele de învățare automată sunt incredibil de variabile, capabile să fie configurate în moduri care le modifică dramatic consumul de energie. Mai mult decât atât, organizațiile cel mai bine plasate pentru a produce un proiect de lege – companii precum Meta, Microsoft și OpenAI – pur și simplu nu fac schimb de informații relevante. (Judy Priest, CTO pentru operațiuni și inovații în cloud la Microsoft a declarat într-un e-mail că compania „investește în prezent în dezvoltarea de metodologii pentru a cuantifica utilizarea energiei și impactul carbonului al IA în timp ce lucrează la modalități de a face sistemele mari mai eficiente, în atât instruire, cât și aplicație.” OpenAI și Meta nu au răspuns solicitărilor de comentarii.)

Un factor important pe care îl putem identifica este diferența dintre antrenarea unui model pentru prima dată și implementarea acestuia către utilizatori. Instruirea, în special, consumă extrem de mult energie, consumând mult mai multă energie electrică decât activitățile tradiționale ale centrelor de date. Antrenarea unui model de limbă mare, cum ar fi GPT-3, de exemplu, este estimat să utilizeze puțin sub 1.300 megawați oră (MWh) de energie electrică; cam atâta putere cât consumate anual de 130 de case din SUA. Pentru a pune asta în context, transmiterea în flux pentru o oră de Netflix necesită aproximativ 0,8 kWh (0,0008 MWh) de energie electrică. Aceasta înseamnă că va trebui să urmăriți 1.625.000 de ore pentru a consuma aceeași cantitate de energie necesară pentru a antrena GPT-3.

Dar este dificil de spus cum o cifră ca aceasta se aplică sistemelor actuale de ultimă generație. Consumul de energie ar putea fi mai mare, deoarece modelele AI au o tendință constantă de creștere a dimensiunii de ani de zile, iar modelele mai mari necesită mai multă energie. Pe de altă parte, companiile ar putea folosi unele dintre metode dovedite pentru a face aceste sisteme mai eficiente din punct de vedere energetic – ceea ce ar atenua tendința ascendentă a costurilor cu energia.

Provocarea de a face estimări actualizate, spune Sasha Luccioni, cercetător la firma franco-americană de inteligență artificială Hugging Face, este că companiile au devenit mai secrete pe măsură ce IA a devenit profitabilă. Întoarceți-vă cu doar câțiva ani și firme precum OpenAI ar publica detalii despre regimurile lor de formare – ce hardware și pentru cât timp. Dar, pur și simplu, aceleași informații nu există pentru cele mai recente modele, precum ChatGPT și GPT-4, spune Luccioni.

„Cu ChatGPT nu știm cât de mare este, nu știm câți parametri are modelul de bază, nu știm unde rulează… Ar putea fi trei ratoni într-un trench pentru că pur și simplu nu știi. știi ce e sub capotă.”

„Ar putea fi trei ratoni într-un trenci pentru că pur și simplu nu știi ce se află sub glugă.”

Luccioni, care este autorul mai multor lucrări care examinează utilizarea energiei AI, sugerează că acest secret se datorează parțial concurenței dintre companii, dar este și o încercare de a deturna criticile. Statisticile de utilizare a energiei pentru AI – în special cele mai frivole cazuri de utilizare – invită în mod firesc la comparații cu risipirea criptomonedei. „Există o conștientizare tot mai mare că toate acestea nu vin gratuit”, spune ea.

Antrenarea unui model este doar o parte din imagine. După ce un sistem este creat, acesta este distribuit consumatorilor care îl folosesc pentru a genera rezultate, un proces cunoscut sub numele de „inferență”. În decembrie anul trecut, Luccioni și colegii de la Hugging Face și Carnegie Mellon University a publicat o lucrare (în prezent în așteptarea evaluării de către colegi) care conținea primele estimări ale utilizării energiei de inferență a diferitelor modele AI.

Luccioni și colegii ei au efectuat teste pe 88 de modele diferite, care acoperă o gamă largă de cazuri de utilizare, de la răspunsul la întrebări până la identificarea obiectelor și generarea de imagini. În fiecare caz, au executat sarcina de 1.000 de ori și au estimat costul energiei. Majoritatea sarcinilor pe care le-au testat folosesc o cantitate mică de energie, cum ar fi 0,002 kWh pentru a clasifica mostrele scrise și 0,047 kWh pentru a genera text. Dacă folosim ora noastră de streaming Netflix ca o comparație, acestea sunt echivalente cu energia consumată vizionarea a nouă secunde sau, respectiv, 3,5 minute. (Nu uitați: acesta este costul pentru a efectua fiecare sarcină de 1.000 de ori.) Cifrele au fost considerabil mai mari pentru modelele de generare de imagini, care au folosit în medie 2,907 kWh la 1.000 de inferențe. După cum notează hârtia, smartphone obișnuit folosește 0,012 kWh pentru a încărca – astfel încât generarea unei imagini folosind AI poate utilizați aproape la fel de multă energie precum încărcarea smartphone-ului.

Accentul este pus pe „poate”, deoarece aceste cifre nu se generalizează neapărat în toate cazurile de utilizare. Luccioni și colegii ei au testat zece sisteme diferite, de la modele mici care produc imagini minuscule de 64 x 64 pixeli până la cele mai mari care generează imagini 4K, iar acest lucru a dus la o răspândire uriașă de valori. Cercetătorii au standardizat, de asemenea, hardware-ul utilizat pentru a compara mai bine diferitele modele AI. Acest lucru nu reflectă neapărat implementarea în lumea reală, unde software-ul și hardware-ul sunt adesea optimizate pentru eficiența energetică.

„Cu siguranță acest lucru nu este reprezentativ pentru cazul de utilizare al tuturor, dar acum cel puțin avem câteva cifre”, spune Luccioni. „Am vrut să pun un steag în pământ, spunând „Să începem de aici”.

„Revoluția AI generativă vine cu un cost planetar care ne este complet necunoscut.”

Studiul oferă date relative utile, deși nu cifre absolute. Acesta arată, de exemplu, că modelele AI necesită mai multă putere pentru a genera ieșire decât o fac atunci când clasifică intrările. De asemenea, arată că orice implică imagini consumă mai multă energie decât textul. Luccioni spune că, deși natura contingentă a acestor date poate fi frustrantă, aceasta spune o poveste în sine. „Revoluția generativă a inteligenței artificiale vine cu un cost planetar care ne este complet necunoscut, iar răspândirea pentru mine este deosebit de indicativă”, spune ea. „Tl;dr-ul este că pur și simplu nu știm.”

Așa că încercarea de a reduce costul energiei pentru generarea unui singur papă Balenciaga este dificilă din cauza morții de variabile. Dar dacă vrem să înțelegem mai bine costul planetar, există și alte abordări de luat. Ce se întâmplă dacă, în loc să ne concentrăm pe inferența modelului, micșorăm?

Aceasta este abordarea lui Alex de Vries, un doctorand la VU Amsterdam care și-a tăiat dinții calculând cheltuiala energetică a Bitcoin pentru blogul său Digiconomist, și care a folosit GPU-urile Nvidia — standardul de aur al hardware-ului AI — pentru a estima consumul global de energie al sectorului. După cum explică de Vries în comentariu publicat în Joule anul trecut, Nvidia reprezintă aproximativ 95% din vânzările de pe piața AI. Compania lansează, de asemenea, specificațiile energetice pentru hardware-ul și proiecțiile sale de vânzări.

Combinând aceste date, de Vries calculează că până în 2027 sectorul AI ar putea consuma între 85 și 134 terawați oră în fiecare an. Este aproximativ aceeași cu cererea anuală de energie din țara natală a lui de Vries, Țările de Jos.

„Vorbiți despre consumul de energie electrică AI reprezentând potențial jumătate din consumul global de energie electrică până în 2027”, spune de Vries. The Verge. „Cred că este un număr destul de semnificativ.”

Un raport recent al Agenției Internaționale pentru Energie a oferit estimări similare, sugerând că utilizarea energiei electrice de către centrele de date va crește semnificativ în viitorul apropiat datorită cerințelor AI și criptomonedei. Agenția spune că consumul actual de energie al centrului de date este de aproximativ 460 de terawatt-oră în 2022 și ar putea crește la 620 și 1.050 TWh în 2026 – echivalent cu cererile de energie ale Suediei sau, respectiv, Germaniei.

Dar de Vries spune că este important să puneți aceste cifre în context. El observă că între 2010 și 2018, utilizarea energiei centrului de date a fost destul de stabilă, reprezentând aproximativ 1 până la 2% din consumul global. (Și când spunem „centre de date” aici ne referim la tot ceea ce alcătuiește „internetul”: de la serverele interne ale corporațiilor până la toate aplicațiile pe care nu le poți folosi offline pe smartphone-ul tău.) Cererea a crescut cu siguranță în această perioadă, spune de Vries, dar hardware-ul a devenit mai eficient, compensând astfel creșterea.

Teama lui este că lucrurile ar putea fi diferite pentru AI tocmai din cauza tendinței companiilor de a arunca pur și simplu modele mai mari și mai multe date la orice sarcină. „Aceasta este o dinamică cu adevărat mortală pentru eficiență”, spune de Vries. „Deoarece creează un stimulent natural pentru ca oamenii să continue să adauge mai multe resurse de calcul și, de îndată ce modelele sau hardware-ul devin mai eficiente, oamenii vor face acele modele și mai mari decât înainte.”

Întrebarea dacă câștigurile de eficiență vor compensa creșterea cererii și a utilizării este imposibil de răspuns. La fel ca Luccioni, de Vries deplânge lipsa datelor disponibile, dar spune că lumea nu poate ignora situația. „A fost un pic de hack pentru a afla în ce direcție merge aceasta și cu siguranță nu este un număr perfect”, spune el. „Dar este suficientă bază pentru a da un pic de avertisment.”

Unele companii implicate în AI susțin că tehnologia în sine ar putea ajuta la aceste probleme. Priest, vorbind pentru Microsoft, a spus că inteligența artificială „va fi un instrument puternic pentru promovarea soluțiilor de sustenabilitate” și a subliniat că Microsoft lucrează pentru a atinge „obiectivele de sustenabilitate de a fi carbon negative, apă pozitivă și zero deșeuri până în 2030”.

Dar obiectivele unei companii nu pot cuprinde niciodată cererea completă a întregii industrie. Alte abordări pot fi necesare.

Luccioni spune că și-ar dori să vadă companiile introducând ratinguri de stele energetice pentru modelele AI, permițând consumatorilor să compare eficiența energetică în același mod în care ar face-o pentru electrocasnice. Pentru de Vries, abordarea noastră ar trebui să fie mai fundamentală: trebuie să folosim AI pentru anumite sarcini? „Deoarece, având în vedere toate limitările pe care le are AI, probabil că nu va fi soluția potrivită în multe locuri și vom pierde mult timp și resurse pentru a înțelege asta pe calea grea”, spune el.

Citeste si articolele de mai jos

Lasa un comentariu