Actul UE AI a fost adoptat – iată ce urmează

Legislatorii Uniunii Europene au aprobat oficial regulamentul de referință al blocului AI, deschizând calea pentru ca UE să interzică anumite utilizări ale tehnologiei și să ceară transparență de la furnizori. Într-o votul majoritar miercuri523 de membri ai Parlamentului European au fost aleși să adopte în mod oficial Legea privind inteligența artificială (Legea AI) și vor lucra acum pentru aplicarea și implementarea acestuia.

Legea AI a fost aprig dezbătută de când a fost propusă pentru prima dată în 2021, cu unele dintre cele mai stricte reglementări ale sale – cum ar fi o propunere interzicerea totală a sistemelor biometrice pentru supravegherea publică în masă — fiind înmuiat de compromisuri de ultimă oră. În timp ce anunțul de miercuri înseamnă că legea aproape și-a depășit ultimul obstacol, tot va dura ani pentru ca unele reguli să fie aplicate.

Limbajul juridic al textului încă așteaptă aprobarea finală, fie printr-un anunț separat, fie printr-un vot în sesiune plenară pe 10/11 aprilie, iar Legea AI intră în vigoare la 20 de zile după publicarea în Jurnalul Oficial – ceea ce se anticipează. să se întâmple în mai sau iunie anul acesta. Dispozițiile vor intra în vigoare apoi în etape: țările vor avea la dispoziție șase luni pentru a interzice sistemele AI interzise, ​​12 luni pentru a aplica regulile împotriva „sistemelor AI de uz general”, cum ar fi chatboții, și până la 36 de luni pentru sistemele AI pe care legea le-a desemnat drept „înalt. risc.”

Sistemele interzise includ lucruri precum scorul social, recunoașterea emoțiilor la locul de muncă sau la școli sau sisteme care sunt concepute pentru a influența comportamentul sau pentru a exploata vulnerabilitățile utilizatorilor. Exemplele de sisteme AI „cu risc ridicat” includ cele aplicate infrastructurii critice, educației și formării profesionale, anumite sisteme de aplicare a legii și cele care pot fi utilizate pentru a influența procesele democratice, cum ar fi alegerile.

„Pe termen foarte scurt, compromisul privind Actul AI al UE nu va avea un efect direct prea mare asupra designerilor de IA consacrați din SUA, deoarece, după termenii săi, probabil că nu va intra în vigoare până în 2025”, a spus Paul Barrett. înapoi, director adjunct al Centrului Stern pentru Afaceri și Drepturile Omului NYU, în decembrie 2023, când UE a convenit provizoriu asupra regulamentului de referință privind IA. Așa că, deocamdată, Barrett spune că jucătorii importanți ai inteligenței artificiale precum OpenAI, Microsoft, Google și Meta vor continua probabil să lupte pentru dominație, în special în timp ce navighează în incertitudinea de reglementare din SUA.

Actul AI a început înainte de explozia instrumentelor IA de uz general (GPAI) precum modelul de limbă mare GPT-4 al OpenAI, iar reglementarea acestora a devenit un punct de blocare remarcabil de complicat în discuțiile de ultim moment. Actul își împarte regulile cu privire la nivelul de risc pe care un sistem AI îl are asupra societății sau, după cum a spus UE într-un afirmație„cu cât riscul este mai mare, cu atât regulile sunt mai stricte”.

Dar unele state membre s-au îngrijorat că această strictețe ar putea face din UE o piață neatractivă pentru IA. Franța, Germania și Italia au făcut lobby pentru a reduce restricțiile privind GPAI în timpul negocierilor. Ei au câștigat compromisuri, inclusiv limitarea a ceea ce pot fi considerate sisteme „de risc ridicat”, care ar fi apoi supuse unora dintre cele mai stricte reguli. În loc să se clasifice toate GPAI ca fiind cu risc ridicat, va exista un sistem cu două niveluri și excepții de aplicare a legii pentru utilizările absolut interzise ale AI, cum ar fi identificarea biometrică de la distanță.

Asta încă nu i-a mulțumit pe toți criticii. Președintele francez Emmanuel Macron atacat regulile, spunând că Legea AI creează un mediu de reglementare dur care împiedică inovarea. Barrett a spus că unele noi companii europene de inteligență artificială ar putea găsi o provocare să strângă capital cu regulile actuale, ceea ce oferă un avantaj companiilor americane. Companiile din afara Europei pot alege chiar să evite să-și înființeze magazinul în regiune sau să blocheze accesul la platforme, astfel încât să nu fie amendate pentru încălcarea regulilor – un risc potențial cu care se confruntă Europa și în industria tehnologiei non-AI, conform reglementărilor. precum Digital Markets Act și Digital Services Act.

Dar regulile ocolesc, de asemenea, unele dintre cele mai controversate probleme legate de IA generativă

Modelele AI instruite pe date disponibile publicului – dar sensibile și potențial protejate prin drepturi de autor – au devenit foarte mari punct de disputa pentru organizații, de exemplu. Regulile aprobate, însă, nu creează noi legi în jurul colectării datelor. În timp ce UE a fost pionierat în legislația privind protecția datelor prin GDPR, regulile sale de inteligență artificială nu interzic companiilor să culeagă informații, în afară de a cere ca acestea să respecte orientările GDPR.

„În conformitate cu regulile, companiile ar putea fi nevoite să furnizeze un rezumat al transparenței sau etichete nutriționale de date”, a declarat Susan Ariel Aaronson, directorul Digital Trade and Data Governance Hub și profesor de cercetare în afaceri internaționale la Universitatea George Washington, atunci când UE a aprobat provizoriu reguli. „Dar acest lucru nu va schimba cu adevărat comportamentul companiilor în privința datelor.”

Aaronson subliniază că Legea AI încă nu a clarificat modul în care companiile ar trebui să trateze materialul protejat prin drepturi de autor care face parte din datele de formare a modelului, dincolo de a afirma că dezvoltatorii ar trebui să respecte legile existente privind drepturile de autor (care lasă o mulțime de zone gri în jurul AI). Prin urmare, nu oferă niciun stimulent pentru dezvoltatorii de modele AI să evite utilizarea datelor protejate prin drepturi de autor.

De asemenea, Legea AI nu va aplica amenzile sale potențial aspre dezvoltatorilor open-source, cercetătorilor și companiilor mai mici care lucrează mai departe în lanțul valoric – o decizie care a fost lăudată de dezvoltatorii open-source din domeniu. Directorul juridic al GitHub, Shelley McKinley, a declarat că este „o dezvoltare pozitivă pentru inovația deschisă și pentru dezvoltatorii care lucrează pentru a ajuta la rezolvarea unora dintre cele mai presante probleme ale societății”. (GitHub, un hub popular de dezvoltare open-source, este o subsidiară a Microsoft.)

Observatorii cred că impactul cel mai concret ar putea fi presiunea altor figuri politice, în special factorii de decizie americani, să se miște mai repede. Nu este primul cadru de reglementare major pentru AI – în iulie, China a adoptat linii directoare pentru companiile care doresc să vândă servicii AI publicului. Dar procesul de dezvoltare relativ transparent și intens dezbătut al UE a oferit industriei inteligenței artificiale un sentiment la ce să se aștepte. Aaronson a spus că textul provizoriu (care a fost aprobat de atunci) arată cel puțin că UE a ascultat și a răspuns preocupărilor publice cu privire la tehnologie.

Lothar Determann, partener pentru confidențialitatea datelor și tehnologia informației la firma de avocatură Baker McKenzie, spune că faptul că se bazează pe regulile de date existente ar putea, de asemenea, să încurajeze guvernele să facă un bilanț al reglementărilor pe care le au în vigoare. Iar Blake Brannon, director de strategie la platforma de confidențialitate a datelor OneTrust, a declarat că companiile AI mai mature au stabilit linii directoare de protecție a confidențialității în conformitate cu legi precum GDPR și în așteptarea unor politici mai stricte. El a spus că, în funcție de companie, Legea AI este „o stropire suplimentară” față de strategiile deja existente.

SUA, dimpotrivă, nu a reușit în mare măsură să pună în funcțiune reglementarea AI – în ciuda faptului că găzduiesc jucători importanți precum Meta, Amazon, Adobe, Google, Nvidia și OpenAI. Cea mai mare mișcare a sa de până acum a fost un ordin executiv al administrației Biden care îndrumă agențiile guvernamentale să dezvolte standarde de siguranță și să se bazeze pe acorduri voluntare, fără caracter obligatoriu, semnate de mari jucători AI. Puținele proiecte de lege introduse în Senat s-au învârtit în principal în jurul deepfakes și watermarking, iar forumurile cu ușile închise AI deținute de senatorul Chuck Schumer (D-NY) au oferit puțină claritate cu privire la direcția guvernului în guvernarea tehnologiei.

Acum, factorii de decizie pot analiza abordarea UE și pot lua lecții din aceasta

Acest lucru nu înseamnă că SUA vor adopta aceeași abordare bazată pe risc, dar ar putea căuta să extindă regulile de transparență a datelor sau să permită modelelor GPAI puțin mai multă clemență.

Navrina Singh, fondatoarea Credo AI și membru al comitetului consultativ național pentru AI, consideră că, deși Actul AI este un moment uriaș pentru guvernarea AI, lucrurile nu se vor schimba rapid și mai este o grămadă de muncă înainte.

„Accentul pentru autoritățile de reglementare de pe ambele maluri ale Atlanticului ar trebui să fie pe asistarea organizațiilor de toate dimensiunile în proiectarea, dezvoltarea și implementarea în siguranță a IA, care sunt atât transparente, cât și responsabile”, a spus Singh. The Verge in decembrie. Ea adaugă că există încă o lipsă de standarde și procese de evaluare comparativă, în special în ceea ce privește transparența.

Actul nu reglementează retroactiv modelele sau aplicațiile existente, dar versiunile viitoare ale OpenAI-ului GPT, Meta’s Llama sau Google’s Gemini vor trebui să țină cont de cerințele de transparență stabilite de UE. S-ar putea să nu producă schimbări dramatice peste noapte, dar demonstrează care este poziția UE în ceea ce privește inteligența artificială.

Actualizare 12 martie, ora 8:30 ET: Actualizat articolul original după adoptarea oficială a Actului UE.

Citeste si articolele de mai jos

Lasa un comentariu