OpenAI oferă o privire în spatele cortinei instrucțiunilor secrete ale AI-ului său

OpenAI oferă o privire limitată asupra raționamentului din spatele regulilor de angajament ale modelelor sale de AI conversațional, cum ar fi ChatGPT, care pot refuza să facă anumite lucruri, cum ar fi crearea de conținut NSFW. Modelele de limbaj mari nu au limite naturale asupra a ceea ce pot spune, ceea ce poate duce la probleme cu privire la ceea ce ar trebui să facă un AI sau nu. Producătorii de AI încearcă să găsească modalități de a controla modelele fără a refuza cereri normale, iar OpenAI publică specificații de model pentru a arăta cum sunt stabilite aceste reguli și linii directoare.

Te-ai întrebat vreodată de ce AI conversațional precum ChatGPT spune „Îmi pare rău, nu pot face asta” sau un alt refuz politicos? OpenAI oferă o privire limitată asupra raționamentului din spatele regulilor de angajament ale propriilor modele, fie că respectă liniile directoare ale mărcii sau refuză să creeze conținut NSFW.

Modelele de limbaj mari (LLM) nu au limite care apar în mod natural asupra a ceea ce pot sau vor spune. Acesta este o parte din motivul pentru care sunt atât de versatili, dar și de ce halucinează și sunt ușor păcăliți.

Este necesar ca orice model de inteligență artificială care interacționează cu publicul larg să aibă câteva bare de protecție cu privire la ceea ce ar trebui și nu ar trebui să facă, dar definirea acestora – să nu mai vorbim de aplicarea lor – este o sarcină surprinzător de dificilă.

Dacă cineva cere unui AI să genereze o grămadă de afirmații false despre o persoană publică, ar trebui să refuze, nu? Dar dacă sunt ei înșiși un dezvoltator de IA, creând o bază de date de dezinformare sintetică pentru un model de detector?

Ce se întâmplă dacă cineva cere recomandări pentru laptop; ar trebui sa fie obiectiv, nu? Dar ce se întâmplă dacă modelul este implementat de un producător de laptopuri care dorește ca acesta să răspundă doar cu propriile dispozitive?

Producătorii de inteligență artificială navighează în astfel de enigme și caută metode eficiente de a-și controla modelele fără a-i determina să refuze cereri perfect normale. Dar rareori împărtășesc exact cum o fac.

OpenAI contravine puțin tendinței publicând ceea ce numește „specificațiile de model”, o colecție de reguli de nivel înalt care guvernează indirect ChatGPT și alte modele.

Există obiective la nivel meta, câteva reguli stricte și câteva linii directoare generale de comportament, deși, pentru a fi clar, acestea nu sunt, strict vorbind, ceea ce este pregătit modelul; OpenAI va fi dezvoltat instrucțiuni specifice care realizează ceea ce aceste reguli descriu în limbaj natural.

Este o privire interesantă asupra modului în care o companie își stabilește prioritățile și se ocupă de cazurile marginale. Și sunt numeroase exemple despre cum s-ar putea juca.

De exemplu, OpenAI afirmă clar că intenția dezvoltatorului este practic cea mai înaltă lege. Deci, o versiune a unui chatbot care rulează GPT-4 ar putea oferi răspunsul la o problemă de matematică atunci când i se cere. Dar dacă acel chatbot a fost pregătit de dezvoltatorul său să nu furnizeze niciodată un răspuns direct, se va oferi în schimb să lucreze cu soluția pas cu pas:

Credite de imagine: OpenAI

O interfață conversațională ar putea chiar să refuze să vorbească despre ceva neaprobat, pentru a elimina orice încercare de manipulare din nas. De ce să lăsăm măcar un asistent de gătit să intervină asupra implicării SUA în războiul din Vietnam? De ce ar trebui un chatbot al serviciului pentru clienți să accepte să vă ajute cu lucrarea în desfășurare a novelei tale erotice supranaturale? Închide-l.

De asemenea, devine lipicios în chestiuni de confidențialitate, cum ar fi solicitarea numelui și a numărului de telefon cuiva. După cum subliniază OpenAI, evident că unei persoane publice, cum ar fi un primar sau un membru al Congresului, ar trebui să li se furnizeze datele de contact, dar cum rămâne cu meseriașii din zonă? Probabil că este în regulă – dar ce rămâne cu angajații unei anumite companii sau membrii unui partid politic? Probabil ca nu.

Alegerea când și unde să trasezi linia nu este simplă. Nici crearea instrucțiunilor care determină AI să adere la politica rezultată. Și, fără îndoială, aceste politici vor eșua tot timpul, pe măsură ce oamenii învață să le ocolească sau să găsească accidental cazuri limită care nu sunt luate în considerare.

OpenAI nu își arată toată mâna aici, dar este util pentru utilizatori și dezvoltatori să vadă cum sunt stabilite aceste reguli și linii directoare și de ce, stabilite clar, dacă nu neapărat cuprinzător.

Va invit sa cititi si articolele de mai jos pe langa acestea care sunt cele mai recente
OpenAI offers a peek behind the curtain of its AI’s secret instructions

Lasa un comentariu