Meta pentru a eticheta imaginile generate de AI de la Google, OpenAI și Adobe

Meta lucrează la dezvoltarea de instrumente pentru a identifica imaginile produse sintetic de IA generativă sisteme la scară pe platformele sale de socializare, cum ar fi Facebook, Instagram și Threads, a declarat marți compania.

„… am lucrat cu parteneri din industrie pentru a ne alinia la standardele tehnice comune care semnalează când un conținut a fost creat folosind AI. Capacitatea de a detecta aceste semnale ne va face posibil să etichetăm imaginile generate de AI pe care utilizatorii le postează pe Facebook, Instagram și Threads”, a scris Nick Clegg, președintele afacerilor globale la Meta, într-un postare pe blog.

„Construim această capacitate acum și în lunile următoare vom începe să aplicăm etichete în toate limbile acceptate de fiecare aplicație”, a adăugat Clegg.

Trecerea de a eticheta imaginile generate de AI de la companii, cum ar fi Google, OpenAI, Adobe, Shutterstock și Mijlocul călătorieiîși asumă importanță deoarece în 2024 vor avea loc mai multe alegeri în mai multe țări, inclusiv SUA, UE, India și Africa de Sud.

În acest an, Meta va afla, de asemenea, mai multe despre modul în care utilizatorii creează și împărtășesc conținutul generat de inteligență artificială și ce fel de transparență pe care internauții le consideră valoroase, a spus Clegg.

Declarația lui Clegg despre alegeri sună într-un memento al scandalului Cambridge Analytica, dezvăluit de New York Times și The Observer încă din 2018, în care datele Facebook ale a cel puțin 50 de milioane de utilizatori au fost compromise.

Luna trecută, OpenAI, producător de ChatGPT, a suspendat doi dezvoltatori care au creat un bot care imită congresmanul democrat Dean Phillips, marcând prima acțiune a companiei împotriva utilizării abuzive a AI.

Fără etichete pentru conținutul audio și video generat de AI

Meta, conform lui Clegg, marchează deja imaginile create de propria caracteristică AI, care include atașarea markeri vizibili și filigrane invizibile. Aceste filigrane invizibile sunt încorporate în metadatele imaginii.

Combinația acestor filigrane facilitează identificarea imaginilor generate de AI pentru alte platforme, a spus Clegg.

Meta lucrează, de asemenea, cu alte companii pentru a dezvolta standarde comune pentru identificarea imaginilor generate de AI prin forumuri precum Parteneriat pe AI (PAI), a adăugat Clegg.

Totuși, el a mai subliniat că, în timp ce mai multe companii au început să includă semnale pentru a ajuta la identificarea imaginilor generate, aceeași politică nu a fost aplicată audio și video generate.

În absența politicilor de identificare în jurul audio și video generat, Clegg a spus că Meta adaugă o funcție pe care oamenii să o dezvăluie atunci când partajează videoclipuri sau sunet generate de AI, astfel încât compania să îi poată adăuga o etichetă.

„Vom cere oamenilor să folosească acest instrument de dezvăluire și etichetare atunci când postează conținut organic cu un videoclip fotorealist sau audio cu sunet realist care a fost creat sau modificat digital și putem aplica sancțiuni dacă nu fac acest lucru”, a scris Clegg în blog-ul.

Mai multe provocări adverse care urmează

Meta a recunoscut că, în timp ce instrumentele și standardele dezvoltate sunt la vârf în ceea ce privește ceea ce este posibil în jurul etichetării conținutului generat, actorii răi ar putea găsi în continuare căi pentru a elimina marcajele invizibile.

Pentru a opri astfel de actori răi, compania a spus că lucrează la dezvoltarea unor clasificatoare care pot ajuta compania să detecteze automat conținutul generat de AI, chiar dacă conținutul nu are marcatori invizibili.

„În același timp, căutăm modalități de a face mai dificilă eliminarea sau modificarea filigranelor invizibile. De exemplu, laboratorul de cercetare AI al Meta FAIR a împărtășit recent cercetări privind o tehnologie de filigranare invizibilă pe care o dezvoltăm, numită Semnătura stabilă”, a scris Clegg.

Stable Signature integrează mecanismul de filigranare direct în procesul de generare a imaginii pentru unele tipuri de generatoare de imagini, care ar putea fi valoroase pentru modelele open source, astfel încât filigranul să nu poată fi dezactivat, a explicat directorul superior.

Din punct de vedere istoric, compania a mai folosit sisteme AI pentru a detecta și elimina discursurile instigatoare la ură și alte forme de conținut care au încălcat politica sa.

Începând cu al treilea trimestru al anului 2023, Meta susține că sistemele sale AI au contribuit la reducerea prevalenței discursului instigator la ură pe Facebook la doar 0,01-0,02%.

Meta intenționează să folosească AI generativă pentru a elimina mai repede conținutul dăunător. „Am început testarea modele de limbaj mari (LLM) instruindu-i cu privire la „Standardele comunitare” pentru a determina dacă un conținut încalcă politicile noastre. Aceste teste inițiale sugerează că LLM-urile pot funcționa mai bine decât modelele existente de învățare automată”, a scris Clegg.

Aceste LLM-uri ajută, de asemenea, compania să elimine conținutul din cozile de recenzii în anumite circumstanțe, când recenzenții săi sunt foarte încrezători că nu încalcă politicile companiei, a adăugat Clegg.

Drepturi de autor Cititi mai multe informatii interesante mai jos!


Va invit sa cititi si articolele de mai jos pe langa acestea care sunt cele mai recente

Lasa un comentariu