Ultima actualizare: 2 august 2024
Oamenii de stiinta din SUA au efectuat un studiu in care au evaluat comportamentul mai multor modele de inteligenta artificiala in simularea unui razboi, ajungand la concluzia ca acestea prezinta tendinte ingrijoratoare de escaladare a violentei, mergand pana la utilizarea armelor nucleare.
Rezultatele studiului, publicat pe portalul arXiv sustinut de Universitatea Cornell din New York, releva faptul ca inteligenta artificiala ar putea duce rapid la escaladari periculoase in conflicte, in loc sa caute solutii de detensionare.
Cercetatorii au dezvoltat un joc video pentru a simula un razboi, iar principalele „personaje” care au controlat taberele aflate in conflict au fost cinci modele cunoscute de AI: GPT-4, GPT-4 Base, GPT-3.5, Claude 2 si Meta’s Llama 2.
In timpul simularilor, aceste modele au recurs la o diversitate de actiuni agresive, de la atacuri aeriene pana la lovituri nucleare. Spre exemplu, GPT-4 Base a propus utilizarea imediata a armelor nucleare de care dispuneau taberele aflate in conflict. La randul sau GPT-3.5 a recomandat un atac nuclear preventiv impotriva adversarului care detinea arme atomice, pe motiv ca acestea reprezentau o amenintare majora.
„Cercetarea noastra ofera atat informatii calitative, cat si cantitative si se concentreaza pe modele lingvistice mari (LLM). Am descoperit ca toate cele cinci LLM-uri standard studiate au prezentat modele de escaladare si modele de escaladare greu de prezis. Observam ca modelele tind sa dezvolte dinamica cursei inarmarilor care duc la cresterea conflictelor si, in cazuri rare, chiar la desfasurarea de arme nucleare”, se arata in anuntul studiului.
Specialistii au observat ca modelele de inteligenta artificiala studiate nu au incercat adesea masuri de de-escaladare, ceea ce contrasteaza cu comportamentul uman intr-un context similar, potrivit caruia conflictele se incearca a fi detensionate.
Concluzie: Inteligenta artificiala necesita reglementari stricte pentru utilizarea in scopuri militare
Acest studiu arata ca inteligenta artificiala prezinta riscuri majore atunci cand este utilizata pentru luarea deciziilor militare strategice. Ea poate duce rapid la escaladari periculoase ale conflictelor, chiar si la utilizarea armelor de distrugere in masa, prin simularea unei „curse a inarmarii” intre taberele aflate in conflict.
Prin urmare, este absolut necesara elaborarea unor reglementari stricte la nivel international privind utilizarea inteligentei artificiale in domeniul militar, astfel incat riscurile sa poata fi gestionate cu prudenta, iar beneficiile tehnologiilor emergente sa poata fi valorificate.