În timp ce compania Anthropic a ajuns să dea în judecată guvernul american pentru presiunile (și represiunea) la care a fost supusă în legătură cu utilizarea modelului IA Claude în acțiuni militare, OpenAI a reușit să ajungă la o înțelegere contractuală care ridică semne de întrebare.
Cele două limite imperative pe care Anthropic a încercat – fără succes – să le impună Pentagonului la renegocierea contractului privitor la Claude au fost: (1) modelul nu va fi folosit pentru supravegherea în masă a cetățenilor americani și nici (2) în sisteme de arme autonome. Având în vedere că disputa a început după ce Pentagonul a utilizat modelul Claude în atacul de la Caracas – și în pregătirea războiului din Iran – este de presupus că limita încălcată a fost cea de-a doua.
Deși disputa contractuală cu Anthropic nu se soluționase, Pentagonul a folosit modelul Claude în atacurile din Iran, iar relatările de presă arată chiar că acest model este unul central în stabilirea țintelor și a ordinii de priorități de atac în timp real, „cu o viteză care o depășește pe cea umană”. Ceea ce, desigur, ridică întrebarea dacă intervenția umană mai este posibilă în aceste condiții, sau sistemele IA funcționează, de fapt, „autonom”.
Pe acest fundal, anunțul OpenAI, că ar fi reușit să obțină de la Pentagon acceptul de a nu-i folosi sistemele nici pentru – printre altele – supravegherea în masă a cetățenilor americani, nici pentru sisteme militare autonome (exact condițiile pe care a încercat, fără succes, să le impună și Anthropic), a generat consternare.
O analiză publicată de TechPolicy subliniază că explicațiile date de OpenAI nu sunt satisfăcătoare și legitimează îndoielile publicului. Trimiterile la texte legale generice care interzic supravegherea de masă – așa cum apar ele în contractul OpenAI – nu constituie o garanție serioasă.
Cât despre folosirea sistemelor IA ca arme autonome, TechPolicy notează:
„Trebuie să luăm în calcul riscul că aceste sisteme sunt supuse unui control uman doar cu numele, pentru că revizuirea și aprobarea de către un om este doar o chestiune tehnică, nu și una de fond. Am văzut deja rezultatele fatale ale sistemului Lavender, folosit de Israel, unde personalul uman nu petrecea mai mult de un minut cu revizuirea țintelor, și oamenii își descriau rolul ca «valoare adăugată zero, ca om, dincolo de o ștampilă de aprobare»….
A înțelege detaliile modului în care contractul încheiat de OpenAI cu Departamentul de Apărare va opera în realitate nu este suficient ca să calmeze neliniștile. Dar este un punct de plecare esențial.”
Surse: BBC, Washington Post, TechPolicy





