Cum să vă păstrați arta departe de generatoarele AI

Imaginile generate de inteligență artificială par inevitabil. Este in jocurile video pe care le jucațiîn filme pe care le vizionați, și a inundat platformele de social media. Chiar s-a obișnuit promovează hardware-ul fizic pe care artiștii umani reali îl folosesc pentru a crea picturi și ilustrații digitale, spre imensa frustrare a celor care se simt deja dislocați de tehnologie.

Natura omniprezentă pare a fi deosebit de flagrantă pentru creatorii care luptă să împiedice folosirea lucrărilor lor, fără consimțământ sau compensație, pentru a îmbunătăți chiar ceea ce amenință să le perturbe cariera și mijloacele de existență. Grupurile de date care intră în formarea modelelor AI generative conțin adesea imagini care sunt răzuite fără discernământ de pe internet, iar unele instrumente de generare de imagini AI permit utilizatorilor să încarce imagini de referință pe care doresc să le imite. Mulți profesioniști creativi trebuie să își facă publicitate munca prin intermediul rețelelor sociale și al portofoliilor online, așa că pur și simplu a lua totul offline nu este o soluție viabilă. Și o lipsă de claritate juridică în ceea ce privește tehnologia AI a creat ceva într-un mediu Wild-West căruia îi este greu să-i reziste. Greu, dar nu imposibil.

În timp ce instrumentele sunt adesea complicat și consumator de timp, mai multe companii de inteligență artificială oferă creatorilor modalități de a renunța la formare. Iar pentru artiștii vizuali care doresc protecții mai largi există instrumente precum Glaze și Kin.Art, care fac lucrările inutile pentru antrenament. Iată cum să navigați prin cele mai bune soluții pe care le-am găsit până acum.

Renunțarea

Modelele AI generative depind de seturile de date de instruire, iar companiile din spatele lor sunt motivate să evite restricționarea acelor pool-uri potențiale de date. Așadar, deși deseori le permit artiștilor să renunțe la munca lor, procesul poate fi grosier și laborios – mai ales dacă aveți un catalog considerabil de lucrări.

Renunțarea necesită de obicei trimiterea unei cereri către un furnizor de AI, fie printr-un formular dedicat, fie direct prin e-mail, împreună cu copiile și descrierile scrise ale imaginilor pe care doriți să le protejați. În plus, dacă ați fost de acord să lăsați terților să licențieze imaginile dvs., termenii pot include o licență pentru instruirea AI. Merită să scanați acordurile de utilizare pentru orice platformă care găzduiește lucrarea dvs. pentru a verifica ce drepturi dețin asupra acesteia. Dar politicile diferitelor instrumente AI variază – iată cum să renunți la unele dintre cele populare.

OpenAI DALL-E

OpenAI a început să permită creatorilor să-și elimine munca din datele sale de antrenament alături de modelul său generativ de inteligență artificială DALL-E 3 în septembrie anul trecut și este unul dintre procesele mai ușor de urmat. Creatorii sau proprietarii de conținut trebuie doar să o facă trimiteți un formular la OpenAI pentru a solicita excluderea lucrării din seturile de date de instruire viitoare, inclusiv o copie a imaginii, o descriere a acesteia și o casetă de selectare bifată care confirmă că aveți drepturile pentru imaginea respectivă.

Din păcate, va trebui să trimiteți un formular separat pentru fiecare imaginea pe care doriți să o excludeți din seturile de date OpenAI, care ar putea însemna mii de lucrări pentru unii oameni; OpenAI nu a dezvăluit câți artiști au întreprins acest calvar.

Trebuie să trimiteți un singur formular pentru fiecare lucrare de artă pe care doriți să renunțați la cursul OpenAIs, ceea ce pur și simplu nu este realist pentru creativii cu portofolii vaste.
Imagine: OpenAI

Dacă vă găzduiți lucrările doar pe propriul site web, ar putea exista o opțiune mai eficientă. Puteți urmați instrucțiunile de aici pentru a bloca crawler-ul web „GPTBot” folosit pentru a extrage datele din surse de internet disponibile public, care ar trebui să protejeze tot conținutul de pe acesta. Un dezavantaj al acestei metode este că imaginile postate oriunde în afara acelor protecții, cum ar fi pe rețelele de socializare, sunt încă expuse riscului de a fi răzuite. Trimiterea unui formular vă asigură cel puțin că munca dvs. este protejată de o rețea mai largă, cu condiția ca OpenAI să nu fi obținut deja imaginile printr-o terță parte licențiată.

Ambele procese oferă doar protecție împotriva trecerii în seturi de date de antrenament viitoare. OpenAI susține că modelele sale AI nu rețin nicio informație pentru care au fost deja instruiți, așa că dacă credeți că munca dvs. a fost deja consumată de DALL-E 3 sau de iterațiile sale anterioare, este prea târziu pentru a o elimina.

DALL-E 3 este, de asemenea, modelul folosit de Image Creator de la Designer, instrumentul Microsoft cunoscut anterior ca Bing Image Creator. Ca atare, procesul de renunțare direct la OpenAI ar trebui, de asemenea, să împiedice Image Creator să fie instruit cu privire la lucrările dvs.

Adobe Firefly

Desigur, pentru fiecare companie de AI care face permit artiștilor să-și elimine lucrările din datele de antrenament, mulți alții nu fac publicitate deschis că au un astfel de serviciu. Și dacă antrenează modele pe o platformă pe care o dețin, este posibil ca utilizatorii acelei platforme să nu li se permită deloc să renunțe. Acesta este cazul gigantului software creativ Adobe, care folosește un model numit Firefly în suita sa Creative Cloud, inclusiv în instrumentul de umplere generativă al Photoshop.

Adobe proclamă că Firefly este sigur din punct de vedere comercial și legal, deoarece este instruit în întregime pe propria platformă de imagini stoc a companiei, Adobe Stock. Dar nu există mijloace pentru colaboratorii Adobe Stock să renunțe la antrenarea modelelor Adobe AI, ceea ce a dus la unele utilizatorii existenți care critică compania pentru că nu le-au cerut permisiunea. Dacă nu doriți ca munca dvs. să fie folosită pentru a îmbunătăți Firefly, nu o puteți pune pe Adobe Stock, punct.

Nu devine mult mai clar decât această linie din Întrebările frecvente ale Adobe. Dacă nu vrei să-l antrenezi pe Firefly, evită Adobe Stock.
Imagine: Adobe

În principiu, abordarea Adobe ar trebui să înseamnă că utilizatorii non-Stock nu trebuie să-și facă griji pentru Firefly. Dar realitatea este că există o mulțime de lucrări piratate încărcate pe platformă. Dacă descoperiți că cineva v-a încărcat în mod fraudulos lucrarea în Adobe Stock, puteți trimite Adobe o notificare de încălcare a IP pentru a-l scoate de pe platformă.

Meta

Creatorii care doresc să evite antrenarea modelelor AI ale lui Meta vor trebui să treacă prin cercuri similare. Meta folosește „informații din produsele și serviciile sale” pentru a-și antrena modelele generative de AI, astfel încât orice lucru personal pe care l-ați încărcat sau ați încărcat istoric pe platforme precum Facebook, Instagram și Threads este un joc corect pentru antrenamentul AI. Dacă nu aveți un cont pentru niciunul dintre aceste servicii, atunci ați evitat potențial să-i alimentați mașina AI, dar ștergerea conturilor existente și/sau nu încărcarea lucrărilor viitoare în ele este următorul lucru cel mai bun.

Puteți trimiteți un formular către Meta să solicite companiei să corecteze sau să șteargă informațiile personale care sunt utilizate pentru a-și antrena modelele generative de IA, dar numai dacă aceste informații au fost furnizate de o terță parte. Nu vă va permite să excludeți, de exemplu, arta pe care ați prezentat-o ​​în mod voluntar pe Instagram. Mulți artiști au considerat că este, de asemenea, un proces frustrant, criticând cât de des instrumentul nu poate procesa cererile. Artist conceptual a spus Bethany Berg Cablat că formularul de eliminare a simțit că „a fost doar o cascadorie falsă de PR pentru a face să pară că ar fi încercat de fapt să facă ceva”.

Nu uitați doar că Meta va deține unele drepturi asupra oricărui conținut pe care îl încărcați pe platformele sale, așa că cea mai eficientă soluție este să le evitați în întregime.
Imagine: Meta

Dincolo de aceasta, puteți limita informațiile personale pe care terții le partajează cu Meta, gestionându-vă Activitate off-Facebook. Acest instrument va afișa site-urile și serviciile care vă oferă Meta datele dvs. și vă va permite să întrerupeți conexiunea care vă leagă identitatea cu astfel de date. Acest lucru nu va șterge datele care au fost deja încărcate, dar ar trebui să le permită utilizatorilor să monitorizeze dacă platformele despre care știu că își găzduiesc lucrările pot transmite acele informații direct către Meta.

Acestea fiind spuse, Meta folosește, de asemenea, „informații care sunt disponibile public online” pentru a-și antrena modelele AI generative și nu își dezvăluie seturile de date. Așa că nu există nicio modalitate de a ști cu exactitate ce este deja în acest grup masiv de conținut – și nici o modalitate sigură de a rămâne afară.

Dar Stability AI, Midjourney și așa mai departe?

Două dintre cele mai populare instrumente AI generative – Midjourney și Stability AI’s Stable Diffusion – vor elimina materialele care încalcă drepturile de autor în conformitate cu Digital Millennium Copyright Act (DMCA). Dar aceste informații sunt îngropate în politicile respective ale Termenilor de utilizare, iar procesele sunt brute. De asemenea, acesta nu este strict un instrument de renunțare și nicio companie nu oferă un mijloc de a renunța la munca de a fi absorbit în viitoarele grupuri de date de instruire.

Pentru ambele servicii, va trebui să trimiteți un e-mail direct companiilor. La mijlocul călătoriei se poate ajunge la takedown@midjourney.com. Pentru Stability AI, trimiteți solicitările prin e-mail la ambele mariya@stability.ai și legal@stability.ai. StabilitateTermenii utilizatorului nu specifică ce trebuie să furnizați, ci informațiile cerute de Mijlocul călătorieiși majoritatea notificărilor de încălcare a drepturilor de autor DMCA în general, includ o descriere a lucrărilor originale, unde se află imaginea care le încalcă, informațiile dvs. de contact și o copie a semnăturii dvs.

Alți furnizori mai mici de AI pot oferi, de asemenea, o abordare similară pentru eliminarea datelor care încalcă drepturile de proprietate intelectuală datorită reglementărilor precum DCMA, cu succes diferite – dacă nu sunteți sigur, încercați să contactați direct furnizorul de AI.

Cum altfel îmi pot proteja munca împotriva AI generativă?

Cu toate acestea expuse, este clar că opțiunile artiștilor atunci când au de-a face direct cu companiile AI sunt destul de limitate. Pe plan extern, totuși, mai multe instrumente și servicii pot oferi creatorilor o apărare mai bună – sau chiar delicte — când ripostezi. Diversele instrumente funcționează diferit, dar, în general, vă conduc arta vizuală prin procese care confundă sau blochează antrenamentul eficient. În acest fel, chiar dacă munca ta este răzuită pentru un model AI, acel model (ideal) nu va învăța să-l reproducă.

Glazură

Când lansați Glaze, va trebui să îi acordați ceva timp pentru a descărca resursele de care are nevoie pentru a vă proteja munca.
Imagine: Sand Lab, Universitatea din Chicago

Unul dintre cele mai notabile instrumente anti-antrenament este Glazură, un proiect lansat de o echipă din cadrul Universității din Chicago. Instrumentul gratuit funcționează ca un fel de mantie, făcând modificări la nivel de pixeli imaginilor care încurcă software-ul AI care încearcă să le citească. Oamenii adevărați nu pot vedea, de obicei, aceste modificări pe imagini foarte detaliate, așa că există puțin impact asupra experienței de vizionare umană, dar generatoarele de imagini AI care sunt alimentate cu aceleași materiale le vor recunoaște ca fiind cu totul altceva – adică oricine încearcă să-și reproducă specificul. stilul artistic nu va putea face acest lucru.

Glazura este disponibila pentru Windows sau macOS. Există versiuni GPU și non-GPU disponibile pentru Windows, dar rularea variantei GPU necesită în mod specific un GPU Nvidia din această listă cu cel puțin 3,6 GB de memorie. (Dezvoltatorii spun că Glaze folosește, în general, aproximativ 5 GB de memorie de sistem pentru a rula.) Utilizarea acesteia este simplă: la prima lansare, aplicația va descărca automat o serie de biblioteci de învățare automată și alte resurse de care are nevoie pentru a vă acoperi imaginile. Când ați terminat, mergeți la caseta „Selectați” din stânga sus și alegeți ce imagini de pe computer doriți să le glazeați. Acestea pot fi încărcate în loturi, deci este mult mai rapid decât a face solicitări individuale de renunțare.

Poate doriți să experimentați cu puterea aplicației Glaze – pe ilustrații simple ca aceasta, Glazing la intensitate maximă poate distorsiona rezultatele.
Imagine: Jess Weatherbed / The Verge și Imagine: Jess Weatherbed / The Verge

Puteți ajusta apoi intensitatea acoperirii Glaze de la „foarte scăzut” la „foarte ridicat”, acesta din urmă oferind o protecție mai mare împotriva AI, dar crescând posibilitatea ca schimbările să fie vizibile pentru oameni. Calitatea randării, o altă opțiune, determină calitatea generală a imaginii finite – randarea de calitate superioară arată mai bine și oferă o protecție mai mare, dar procesarea va dura și mult mai mult. În general, rezultatul final ar trebui să arate practic neschimbat față de original. Dar o inspecție atentă va dezvălui mici diferențe, aproape ca și cum i s-a aplicat o spălare texturată.

Nuambră de noapte

Nightshade are o interfață de utilizare foarte similară cu Glaze, ceea ce nu este surprinzător, având în vedere că este dezvoltat de aceeași echipă.
Imagine: Sand Lab, Universitatea din Chicago

Nuambră de noapte, din echipa din spatele lui Glaze, adoptă o abordare similară, dar mai extremă. Imaginile trecute prin acest instrument de demascare sunt de fapt destinate să „otrăvească” modelele AI generative care se antrenează pe ele, sabotând ieșirile pentru solicitările de text. Dacă încărcați un lot de poze cu câini, de exemplu, Nightshade ar trebui să păcălească modelele să vadă un alt obiect, cum ar fi mașinile, mai degrabă decât să confunde modelul așa cum face Glaze. Ideea este că, dacă un model preia suficiente imagini confuze, va începe să construiască reguli pe baza acestora, astfel încât orice indicație legată de câine ar putea fi distorsionată cu roți și parbriz.

Nu puteți specifica în ce ați dori ca imaginile dvs. otrăvite să demonstreze, deoarece Nightshade este construit în jurul unor algoritmi care nu pot găzdui acest tip de personalizare. Dacă doriți o perspectivă mai bună asupra modului în care funcționează, verificați acest lucru defalcare furnizată de cercetătorul de date Dorian Drost.

La fel ca Glaze, Nightshade aplică peste imagine un film asemănător unui filtru care nu ar trebui să afecteze masiv experiența de vizionare umană, în funcție de intensitatea stratului de protecție și de cât de detaliată este arta originală. (Puteți aplica atât Glaze, cât și Nightshade imaginilor fără ca acestea să interfereze între ele.) Nightshade este, de asemenea, disponibil pentru sistemele Windows și macOS, deși numai mașinile care rulează siliciul Apple sunt acceptate pentru cele din urmă.

La intensitatea implicită, Nightshade ar trebui să producă rezultate similare cu imaginile Glazed. Rezultatele otrăvite din dreapta sunt aproape identice cu testele noastre Glaze.
Imagine: Jess Weatherbed / The Verge și Imagine: Jess Weatherbed / The Verge

Majoritatea procesului general este același cu Glaze: așteptați ca instrumentul să descarce bibliotecile de învățare automată, să vă încărcați munca și să setați intensitatea și opțiunile de randare. Dar există un pas în plus. Nightshade va analiza imaginile și va completa câmpul „etichetă curentă” cu o descriere dintr-un singur cuvânt care identifică conținutul, cum ar fi „câine” sau „fată”. Pentru ca efectul de otrăvire să funcționeze, acest lucru trebuie să fie precis, astfel încât să îl puteți schimba dacă este greșit. Apoi, când încărcați imaginile online, asigurați-vă că eticheta cu un singur cuvânt este inclusă în metadate sau text alternativ.

Unii susținători generativi de inteligență artificială susțin că Nightshade nu va fi prea mult un obstacol. Sistemele AI sunt instruite cu adevărat cantități mari de date, așa că veți avea nevoie de multă otrăvire pentru a afecta orice prompt. Și companiile pot dezvolta soluții care să detecteze Nightshade. Dar cele mai multe dintre aceste soluții filtrează doar imaginile care îl folosesc, mai degrabă decât să îndepărteze protecțiile – astfel încât rezultatul final este doar excluderea artei din datele de antrenament, ceea ce este încă un câștig. Echipa de proiect Glaze lucrează în mod continuu la actualizarea aplicațiilor pentru a închide orice lacune care sunt exploatate de soluții alternative.

Aburi

Ceața poate fi dificil de configurat, dar este o altă opțiune de încercat dacă nu ești mulțumit de rezultatele de la Glaze și Nightshade.
Imagine: ceață

Aburi este un „instrument de preprocesare” dezvoltat de Psyker Group care, precum Glaze și Nightshade, împiedică, de asemenea, aplicațiile AI generative să imite în mod eficient stilul și lucrările unice ale unui creator. Abordarea lui Mist seamănă mai mult cu imaginile cu filigran. Dacă un model AI este antrenat pe „imagini aburite”, orice încercare de a le imita va vedea rezultatul complet acoperit de distorsiuni vizuale care îl fac impropriu pentru majoritatea scopurilor și, în general, neplăcut de privit.

Iată un exemplu de ceea ce este produs de instrumentele de generare AI care fac referire la imaginile aburite.
Imagine: Mist / Sang Delan

Elemente ale imaginii originale pot fi încă văzute în unele dintre aceste rezultate, cum ar fi asemănările în fotografie sau stiluri de artă, dar filtrul haotic și zgomotos peste imaginea generată nu este ceva care poate fi corectat cu ușurință. Mist necesită o placă grafică cu cel puțin 6 GB de VRAM, ceea ce nu reprezintă o mulțime de resurse de calcul, dar este totuși mai mare decât necesită Glaze de 3,6 GB. Mist a fost open source pe GitHub pentru a permite dezvoltatorilor să-și construiască propriile instrumente în jurul acestuia, iar creatorii săi s-au angajat să ofere suport pe termen lung și să-și îmbunătățească continuu funcția.

În prezent, există două moduri prin care cei care nu sunt dezvoltatori pot folosi Mist. Utilizatorii de PC-uri Windows care rulează un GPU Nvidia pot descărca gratuit Mist prin acest pachet Google Drive. Software-ul nu necesită instalare și poate fi folosit aproape imediat după descărcare – deși este puțin dificil de configurat dacă nu aveți experiență de codare sau dezvoltare.

Imaginile aburite pot produce, de asemenea, un filtru slab, învolburat asupra rezultatelor, dar, la fel ca Glaze, este mai greu de observat pe arta detaliată sau pe fotografie.
Imagine: Mist / Sang Delan și imagine: Mist / Sang Delan

Un manual detaliat este disponibil, care vă va ghida prin întregul proces, împreună cu un canal comunitar Discord pentru depanare. În primul rând, asigurați-vă că ați instalat Timp de rulare desktop .NET. Când ați terminat, trebuie doar să selectați fișierul „ENG” din Google Drive și să descărcați folderul Mist_V2 arhivat din acesta. Creați un folder nou numit „IMG” în mist-v2 > src > date >. Aruncă toate imaginile pe care intenționezi să le aburiți în noul dosar când ați terminat. Apoi, reveniți la folderul principal (care ar trebui să fie intitulat „mist-v2_gui_free_version”) și rulați programul de pornire Mist GUI. Mist vă permite să ajustați puterea de protecție aplicată imaginilor și să alegeți între utilizarea GPU-ului sau CPU-ului dispozitivului, ceea ce se poate dovedi util dacă utilizați hardware vechi sau ineficient.

Pentru oricine folosește macOS sau nu posedă un GPU Nvidia, puteți rula și Mist prin Caietul Colab, un mediu Jupyter Notebook bazat pe cloud, care rulează în browserul dvs. web. Instrucțiuni detaliate despre cum să faceți acest lucru sunt disponibile aici, dar este un proces mult mai complicat de configurat decât echivalentul său Windows. Glaze și Nightshade, în general, vor fi mult mai ușor de navigat pentru cei care nu sunt familiarizați cu procesele de codare.

Kin.Art

Kin.Art nu este atât de mult un instrument de protecție AI, cât este un întreg platformă de portofoliu pe care artiștii o pot folosi pentru a găzdui și a-și vinde lucrările. Depășește doar interzicerea lucrărilor generate de AI – deși acest lucru este apreciat, având în vedere reacția împotriva site-urilor precum DeviantArt și ArtStation — și îngreunează în mod activ procesarea și antrenamentul AI.

Kin.Art folosește două tehnici diferite pentru a contracara companiile AI. Prima este segmentarea imaginii, care este folosită pentru a despărți imaginile și a le încurca în ceva de nerecunoscut. Este nedetectabil pentru ochii oamenilor, dar împiedică modelele AI generative de a putea citi imaginea. Această amestecare vizuală va fi prezentă și dacă cineva încearcă să salveze sau să descarce imaginea, deși nu blochează capturile de ecran manuale. A doua tehnică implică amestecarea metadatelor, cum ar fi titlul și descrierea, astfel încât orice etichetă pe care modelul AI le citește nu va reflecta cu acuratețe conținutul.

Protecțiile AI ale Kin.Art cer doar utilizatorilor să bifeze o casetă atunci când își încarcă lucrările pe platformă.
Imagine: Kin.Art

Aceste protecții sunt aplicate automat pe platforma Kin.Art, așa că trebuie doar să-ți creezi un cont și să-ți încarci lucrările pentru a beneficia de ele, iar asta funcționează ca practic orice platformă de socializare. Sunt incluse câteva funcții îngrijite, axate pe creatori, cum ar fi posibilitatea de a adăuga un statut de comision pentru a vă anunța disponibilitatea de a accepta cereri și vă puteți conecta la platforme externe, cum ar fi paginile de rețele sociale, direct pe profilul dvs. de utilizator. Puteți activa sau dezactiva protecțiile atunci când încărcați imagini, iar serviciul este în prezent gratuit. În schimb, Kin.Art va începe să pună o taxă de serviciu de 5% peste comisioanele făcute prin serviciu în martie.

Dar muzica, scrisul și alte media?

Ghidul nostru acoperă protecțiile disponibile pentru arta bazată pe imagini, în mare măsură, deoarece acel format are mai multe instrumente disponibile decât alte medii, iar procesele de renunțare tind să fie mai clare (când sunt disponibile). Acestea fiind spuse, creatorii din alte domenii, cum ar fi scrisul, actoria vocală și muzica, luptă și ei pentru a-și proteja munca. Este mult mai greu să perturbi modul în care modelele AI sunt antrenate pe acest tip de date fără a afecta în mod vizibil conținutul original, dar există totuși măsuri de precauție pe care le poți lua pentru a reduce riscul ca acesta să fie absorbit în seturile de date de antrenament AI.

Ca și în cazul artei, verificați întotdeauna termenii de utilizare ai platformei de găzduire pe care vă încărcați lucrările. Serviciile vor dezvălui, în general, dacă predau date platformei unor terțe părți pentru instruire AI sau le folosesc pentru a-și dezvolta propriile modele – dacă nu există un proces explicit de renunțare, este posibil să vă dați consimțământul, fără să știți, prin simpla înscriere. În schimb, căutați platforme precum Mediu, care s-au angajat să blocheze încercările de a utiliza conținutul găzduit pe site pentru a antrena modele AI. Dacă găzduiți lucrări pe propriul site, puteți, de asemenea, să faceți lucruri precum blocarea GPTBot pentru a evita ca paginile să fie răzuite.

Unii distribuitori de drepturi și-au asumat angajamente similare, cum ar fi Societatea autorilor, compozitorilor și editorilor de muzică (SACEM) — o asociație franceză care a anunțat anul trecut că își exercită dreptul de a renunța în numele membrilor săi. Un alt sfat pentru scriitori, prin amabilitatea Authors Guild, este să plasați un scurt avertisment pe lucrările dvs. publicate, care să menționeze clar că nu sunteți de acord ca acesta să fie folosit pentru a instrui AI. Acesta este exemplul oferit de breasla:

„FĂRĂ INSTRUIRE AI: Fără a limita în vreun fel drepturile exclusive ale autorului (și ale editorului) în temeiul dreptului de autor, orice utilizare a acestei publicații pentru „antrenarea” tehnologiilor de inteligență artificială generativă (AI) pentru a genera text este interzisă în mod expres. Autorul își rezervă toate drepturile de a licenția utilizările acestei lucrări pentru instruirea generativă AI și dezvoltarea modelelor de limbaj de învățare automată.”

Aceste avertismente servesc pentru a semnala în mod clar că lucrarea nu este disponibilă gratuit pentru utilizare, ceea ce poate fi util în orice procese viitoare intentate împotriva companiilor care vă încalcă drepturile de proprietate. Dacă roboții care racesc datele web sunt, de asemenea, suficient de intuitivi pentru a filtra rezultatele cu astfel de avertismente, atunci acest lucru ar putea, de asemenea, potenţial oferă un alt nivel de protecție proactivă, dar există puține dovezi care să arate câți observă de fapt astfel de informații. În caz contrar, interpreții și scriitorii vor trebui să trimită notificări de eliminare a drepturilor de autor către companiile de inteligență artificială dacă consideră că lucrările lor au fost încălcate.

Citeste si articolele de mai jos

Lasa un comentariu