Ultima actualizare: 2 august 2024
Recent, un angajat al OpenAI, compania care a creat modelul revolutionar de generare a textului GPT-4, a facut o declaratie socanta. Angajatul a spus ca OpenAI “intentionat nu distribuie pe scara larga inca” ultimele lor modele AI, pentru ca “spera ca o demonstratie publica limitata va declansa o reactie sociala”.
Aceasta declaratie ridica semne de intrebare cu privire la stadiul real al tehnologiei AI pe care OpenAI o detine si intentiile lor. Ea sugereaza ca modelele viitoare precum GPT-5 vor fi atat de avansate, incat vor putea perturba semnificativ societatea daca sunt lansate fara o pregatire adecvata.
De ce este ingrijoratoare aceasta declaratie
Mai exact, declaratia angajatului OpenAI ridica urmatoarele semne de intrebare:
- Ce alte modele AI avansate tine OpenAI ascunse publicului?
- Cat de departe a progresat AI fara ca noi sa stim?
- Suntem cu adevarat pregatiti pentru GPT-5 si alte modele AI de ultima generatie?
Reactia initiala extrem de negativa la demonstratia video text-to-video Sora a OpenAI arata ca publicul nu este inca pregatit pentru astfel de tehnologii. Asadar, declaratia angajatului OpenAI confirma temerile ca progresul rapid al AI va perturba societatea.
Criticii modelului Sora au spus urmatoarele:
„Ma chinui sa ma gandesc la un singur lucru pozitiv pe care crearea de videoclipuri AI realistice ca acesta il va aduce. Totul este doar negativ si distopic.” – MoistCr1TiKaL, YouTuber cu 14 milioane de abonati
Ce se intampla in continuare cu GPT-5
OpenAI a sugerat deja ca va lansa GPT-5 treptat, mai degraba decat tot modelul deodata:
„Este usor sa creezi un continuum de AI incremental mai bune, cum ar fi prin implementarea punctelor de control succesive ale unei anumite antrenari, ceea ce prezinta o oportunitate de siguranta foarte diferita de abordarea noastra istorica a actualizarilor majore infrecvente ale modelului.” – Greg Brockman, OpenAI
Aceasta abordare graduala va permite o testare mai buna a securitatii si adaptarea societatii.
Cu toate acestea, concurentii OpenAI, precum Google, vor continua sa lanseze modele tot mai avansate. De exemplu, modelul recent Gemini 1.5 al Google incorporeaza deja capacitati care depasesc GPT-4.
Prin urmare, in timp ce OpenAI incearca sa lanseze AI responsabil, exista o cursa catre fund din partea altor companii. Acestea vor implementa rapid noi modele AI, indiferent de impactul social.
Ce putem face pentru adaptarea societatii la AI
Pentru a preveni tulburarile sociale si a ne asigura ca AI este dezvoltat si utilizat in mod responsabil, sunt necesare urmatoarele:
- Educatie publica extinsa despre progresele in domeniul AI – pentru a calibra asteptarile publicului cu privire la ceea ce este posibil.
- Legislatie pentru reglementarea utilizarii AI – pentru prevenirea utilizarii daunatoare.
- Fileuri de siguranta sociale si programe de recalificare a angajatilor – pentru protejarea mijloacelor de trai in timpul tranzitiei catre o societate alimentata de AI.
Fara aceste eforturi, AI ar putea exacerba si mai mult inegalitatile, duce la tulburari sociale si submina increderea publica in tehnologie.
Dar daca abordam tranzitia cu grija, putem modela o societate in care AI ne imbunatateste viata, in loc sa ne disloceze.
Concluzie
Declaratia socanta a angajatului OpenAI confirma temerile societatii cu privire la cat de rapid progreseaza AI. Modele viitoare precum GPT-5 par sa fie atat de avansate, incat ar putea perturba semnificativ societatea daca sunt lansate fara o planificare atenta.
Prin urmare, este esential ca educatia publica, reglementarea si fileurile de siguranta sociale sa fie puse in aplicare acum pentru a ne asigura ca putem beneficia de AI, in loc sa fim victimele ei. Doar printr-un efort global concertat putem realiza acest lucru.
Va fi interesant de vazut cum se va desfasura cursa AI in urmatorii ani si ce masuri vom lua pentru a ne asigura un rezultat pozitiv. Dar cert este ca declaratia OpenAI ne-a trezit la realitate si ne-a aratat ca societatea nu este inca pregatita pentru ceea ce urmeaza.