Angajamentele lui Sam Altman cu privire la responsabilitatea AI nu înseamnă mare lucru – experți

Procesul lui Elon Musk împotriva lui Sam Altman și OpenAI, depus săptămâna trecută la tribunalul de stat din California, îi acuză pe inculpați că au uitat părțile esențiale ale misiunii declarate a OpenAI de a dezvolta inteligență generală artificială utilă și nedăunătoare. Altman s-a mutat de atunci pentru a-și susține acreditările responsabile de AI, inclusiv semnarea unei scrisori deschise angajându-se să dezvolte IA „pentru a îmbunătăți viața oamenilor”.

Criticii, însă, rămân neconvinși de demonstrația de responsabilitate a lui Altman. Încă de la popularizarea rapidă a IA generativă (genAI) în ultimul an, acei critici au avertizat că consecințele dezvoltării neîngrădite și nereglementate ale IA ar putea fi nu doar corozive pentru societatea umană, ci și o amenințare pentru aceasta.

Ritu Jyoti, vicepreședinte al grupului pentru cercetarea AI și automatizare la nivel mondial la IDC, a declarat că mișcarea lui Altman de a adopta în mod public dezvoltarea responsabilă înseamnă puțin mai mult decât un fals de cap.

„Deși există un acord în industrie că există responsabilitatea colectivă de a dezvolta și implementa AI în mod responsabil, această scrisoare nu îndeplinește acțiunile specifice necesare”, a spus ea. „Deci, în opinia mea, nu prea multă valoare adăugată.”

Altman este, de asemenea, un semnatar al o scrisoare care recunoaște riscurile de schimbare a lumii de IA, dar criticii continuă să susțină că natura de autoreglementare a eforturilor de a aborda aceste riscuri este insuficientă.

Cheia constă în eșecul industriei de a rezolva problema de aliniere, care apare atunci când instrumentele AI încep să dezvolte un comportament dincolo de specificațiile lor de proiectare. Teama este că cele mai avansate instanțe de inteligență artificială pot repeta asupra lor – un risc serios de a se dezvolta în moduri pe care oamenii nu le doresc.

„Întrebarea este dacă suntem capabili să controlăm un sistem dacă este mai inteligent decât noi?” a întrebat Joep Meindertsma, un dezvoltator olandez și fondator al grupului PauseAI, care este dedicat atenuării riscurilor prezentate de AI.

Meindertsma a dat exemplul unui sistem precum AutoGPT, care în esență își poate pune întrebări și își poate crea propriile interogări pentru a îndeplini sarcini complexe de cercetare, ca tip de tehnologie care s-ar putea dovedi extrem de perturbatoare – și periculoasă.

„La un moment dat, cineva va întreba acel computer ceva care ar implica ideea că este util să se răspândească la alte mașini”, a spus el. „Oamenii au cerut literalmente AutoGPT să încerce să preia lumea.”

În ceea ce privește procesul împotriva Altman și OpenAI, a spus Meindertsma, Musk ar putea avea o idee. Întregul scop al înființării OpenAI în primul rând, a susținut el, a fost să ghideze dezvoltarea AI în direcții responsabile. Starea actuală a dezvoltării de mare viteză depășește rapid orice organizații din industrie de protecție pe care le-au creat sub conducerea Altman și OpenAI.

Prin urmare, nu se poate avea încredere în industria că se va reglementa, iar guvernul trebuie să intervină pentru a preveni o potențială catastrofă, au susținut criticii. Meindertsma a spus că capacitățile deja demonstrate – cum ar fi capacitatea lui GPT4 de a pirata site-uri web în mod autonom – sunt extrem de periculoase, iar lipsa de reglementare combinată cu evoluția rapidă a genAI este o amenințare existențială.

„Ar trebui să o reglementăm în același mod în care reglementăm materialele nucleare”, a spus Meindertsma.

Drepturi de autor Cititi mai multe informatii interesante mai jos!


Va invit sa cititi si articolele de mai jos pe langa acestea care sunt cele mai recente

Lasa un comentariu