Ultima actualizare: 2 august 2024
Publicatia americana The New York Times a intentat recent un proces impotriva companiilor OpenAI si Microsoft, acuzandu-le ca au folosit fara drept milioane de articole ale publicatiei pentru a antrena modele lingvistice mari (LLM) ce stau la baza produselor lor de inteligenta artificiala, precum ChatGPT si Bing Chat.
Ce acuza The New York Times
Conform acuzatiilor aduse de The New York Times in plangerea sa, cele doua companii ar fi incalcat drepturile de autor prin:
- Copierea si utilizarea fara drept a milioanelor de articole publicate de-a lungul anilor de NYT
- Antrenarea modelelor AI proprii, bazate pe aceste articole, fara acordul sau compensarea corespunzatoare a publicatiei
- Concurenta directa pe care o fac acum produsele OpenAI si Microsoft continutului The New York Times
Publicatia sustine ca LLM-urile dezvoltate de cele doua companii, care stau la baza unor produse precum ChatGPT si Copilot de la Microsoft, pot reproduce si imita stilul articolelor NYT, rezumand textual continutul acestora. Aceasta dauneaza grav relatiei dintre publicatie si cititorii sai, afectand veniturile din abonamente, licente si publicitate.
Amenintarea la adresa jurnalismului de calitate
In plangere se mai afirma si ca astfel de sisteme AI de ultima generatie ameninta jurnalismul de calitate in sine, diminuand capacitatea companiilor de presa de a-si proteja si monetiza continutul. Se sustine ca OpenAI si Microsoft incearca sa profite de investitiile uriase ale The New York Times in productia de articole originale si de calitate, pentru a construi propriile produse, fara a plati sau obtine permisiunea necesara.
The New York Times afirma ca a incercat sa negocieze timp de luni de zile cu cele doua companii pentru a ajunge la un consens privind utilizarea articolelor sale, dar fara succes. In consecinta, publicatia solicita daune de miliarde de dolari, precum si eliminarea articolelor sale din bazele de date ale celor doua companii. De asemenea, cere oprirea utilizarii materialelor sale pentru antrenarea viitoarelor produse de AI.
Explozia sistemelor de inteligenta artificiala in ultimii ani
Aceasta plangere a publicatiei The New York Times, remisa miercuri la instanta federala din New York, reprezinta doar cel mai recent episod in expansiunea pe care au cunoscut-o sistemele de inteligenta artificiala (AI) in ultima perioada. Progresul fulminant in acest domeniu, mai ales pe planul modelelor lingvistice, a generat interes, dar si ingrijorari considerabile. Sisteme precum ChatGPT si Bing Chat au capacitati exceptionale, dar mai exista atentionari privind eventuale defecte de constructie ce pot conduce la rezultate gresite sau nocive.
OpenAI si ChatGPT
Povestea modelelor lingvistice a inceput in 2018 cand compania OpenAI si-a lansat primii asistenti virtuali, pe baza unui model denumit GPT-3. Ideea de baza e ca sistemele de AI sunt antrenate, pe baza anumitor seturi initiale de date, sa isi imbunatateasca continu procesul intern de “invatare” si decizie. In noiembrie 2022, dupa imbunatatirea in continuare a modelelor lingvistice de la GPT-3, a fost lansat asistentul virtual ChatGPT, capabil sa converseze “inteligent” cu utilizatorii.
De remarcat e ca OpenAI este o companie ce beneficiaza de investitii masive de la Microsoft, gigantul IT devenind actionar majoritar in 2019. Investitia totala a Microsoft s-ar situa deja la peste 10 miliarde de dolari. De asemenea, in ianuarie 2023, Microsoft a integrat capacitatile ChatGPT si ale modelului GPT-3.5 in motorul de cautare Bing, pentru a crea chatbot-ul interactiv Bing Chat. Acesta poate cerceta si interpreta si prezenta utilizatorilor informatii din diverse domenii, precum si pentru a genera texte comprehensive si coerente pe baza unor comenzi primite.
Marile provocari in jurul modelelor de AI
Pe de o parte exista entuziasm privind potentialul urias al acestor noi sisteme de inteligenta artificiala, deja integrate in motoare de cautare si chatbot-uri si care in viitor vor fi incluse in numeroase aplicatii. Pe de alta parte exista insa preocupari serioase legate de multiple probleme.
Astfel, se remarca erori logice si de rationament ce pot aparea in anumite contexte si care au deranjat deja utilizatorii unor astfel de instrumente. ChatGPT are un istoric controversat in aceasta privinta. Mai problematice pot fi recomandari gresite in domenii precum finante, medicina sau legislatie, unde informatiile eronate pot genera daune semnificative.
De asemenea, sunt criticate probleme grave existente in materie de impartialitate si etica. Se pune sub observatie modul incorect in care anumite modele AI pot prezenta sau interpreta realitatea din perspectiva sociala, de gen sau rasiala. O zona sensibila e reprezentata de aspecte geopolitice controversate precum Crimea, Taiwan sau Orientul Apropiat. Un exemplu recent in acest sens a fost ChatGPT care initial caracteriza in mod eronat anexarea ilegala a Crimeii drept legitima.
Alte preocupari majore legate de aceste sisteme tin de siguranta si securitate. Exista riscuri mari privind propagarea de informatii false, manipularea opiniei publice, radicalizarea, frauda financiara si vulnerabilitati cibernetice.
Controverse pe tema utilizarii datelor fara acord
O alta problema majora ridicata de publicatia The New York Times e cea a utilizarii fara drept a articolelor si datelor preluate de pe diferite site-uri. Acestea au fost utilizate pentru antrenarea unor modele AI de mare capacitate, fara acordul proprietarilor si fara vreo compensare financiara.
NYT nu e singura publicatie care acuza OpenAI si Microsoft de incalcari. In acest sens au existat deja pozitii ferme din partea unor institutii media precum BBC, The Guardian sau Reuters. Acestea au blocat in ultimele luni accesul motoarelor de cautare la continutul propriilor site-uri.
Criteriile cele mai des invocate de companiile mass-media se refera la faptul ca modelele de AI precum ChatGPT invata din textul articolelor fara permisiunea acestora si apoi sunt antrenate sa ofere utilizatorilor raspunsuri automate la intrebari, inlocuind cautarea independenta. Astfel, cititorii nu mai acceseaza site-urile respective pentru informare, iar publicatia nu mai poate obtine venituri din publicitatea online care rezulta din traficul crescut.
Concluzii
Inteligenta artificiala reprezinta viitorul si are potentialul de a oferi beneficii enorme societatii. In acelasi timp insa, sisteme precum ChatGPT trebuie sa gaseasca un echilibru intre progres si etica. Este imperios necesar ca transparenta din jurul functionarii si limitarilor modelelor de AI sa creasca considerabil.
Trebuie avute in vedere si mai clar interesele tuturor actorilor. Este esential sa se protejeze si recompenseze munca depusa de jurnalisti si publicatii. Acestea isi pot vedea intr-adevar pusa in pericol functionarea de catre sistemele mai noi de generare de text. Probleme precum discriminarea sau prejudecata ideologica sunt de asemenea foarte ingrijoratoare si trebuie solutionate de urgenta.
ChatGPT si alte modele lingvistice vor deveni probabil indispensabile in anii ce vor urma. Este insa vital ca societatea sa monitorizeze indeaproape aceste sisteme, iar factorii de decizie politica si din mediul tehnologiei sa ia masurile care se impun. Doar astfel se va putea realiza si consolida o relatie echitabila si durabila intre inteligenta artificiala si oameni.
Care este parerea ta despre acuzatiile The New York Times si despre evolutia generala a sistemelor de AI? Te asteptam cu comentarii si opinii in sectiunea de mai jos!
Surse:
- The New York Times Sues OpenAI and Microsoft Over A.I. Use of Copyrighted Work
- The New York Times sues OpenAI and Microsoft for copyright infringement | CNN Business
- The New York Times is suing OpenAI and Microsoft for copyright infringement
- New York Times sues Microsoft, ChatGPT maker OpenAI over copyright infringement
- NY Times sues OpenAI, Microsoft for infringing copyrighted works