Pentagonul continuă efortul de adoptare accelerată a inteligenței artificiale – prea accelerată, spun criticii; vara trecută, a încheiat contracte (fiecare de peste 200 de milioane de dolari) cu patru mari companii: Anthropic, Google, OpenAI și compania lui Elon Musk, xAI.
Dar discuțiile cu Anthropic s-au împotmolit când Pentagonul a cerut să folosească modelul Claude oricum dorește, în limitele legii, ceea ce a stârnit reacții negative din partea companiei. Asta inclusiv pentru că legea nu a ținut pasul cu dezvoltarea tehnologică și nu poate preveni anumite riscuri.
Pe fondul tensiunilor – și, în general, al concluziilor lui despre ce înseamnă IA pentru umanitate – directorul Anthropic pentru siguranța produselor, Mrinank Sharma, și-a dat demisia la începutul acestui februarie, acuzând presiunile care se fac asupra dezvoltării IA în detrimentul rigorilor etice și măsurilor de siguranță; în scrisoarea de demisie, pe care a publicat-o pe X, el a spus că „lumea întreagă este în pericol” și că tehnologia avansează mult mai repede decât înțelepciunea necesară omenirii pentru a o folosi.
Dario Amodei, șeful companiei Anthropic, a semnalat și el pericolul: „O IA puternică, care monitorizează miliardele de conversații ale milioanelor de indivizi, poate evalua sentimentul public, poate detecta zonele de disidență în formare și le poate nimici înainte să apuce să crească”, adăugând că, indiferent de amenințări, „conștiința nu ne lasă să acceptăm condițiile care ni se impun”.
Emil Michael, oficialul care se ocupă de negocieri din partea Pentagonului, a replicat că Amodei este „un mincinos” care „se crede Dumnezeu” și „riscă securitatea națiunii”.
Rezumând conflictul, Geoffrey Gertz de la Center for a New American Security a declarat pentru Deutsche Welle: „Anthropic vede aceste lucruri ca nefiind în interesul umanității, pe termen lung, cel puțin nu la nivelul tehnologic și cu limitele de securitate care există acum, în timp ce Pentagonul face presiuni să poată le poată folosi oricum dorește, în limitele legii”.
Pentagonul a stabilit un termen limită până la care compania trebuie să-i accepte condițiile, o ofertă pe care Anthropic a comentat-o ca inacceptabilă, cerând continuarea negocierilor: „Termenii contractului pe care l-am primit… de la Departamentul pentru Război nu conțin, practic, niciun progres în ce privește prevenirea utilizării modelului Claude pentru supravegherea în masă a americanilor sau pentru arme complet autonome. Noii termeni ai așa-zisului compromis sunt însoțiți de limbaj juridic obscur, care permite, de fapt, ca toate condițiile de securitate să fie ignorate. În ciuda recentelor declarații ale Departamentului de Război, aceste limite stricte au fost principalul subiect de negociere în ultimele luni”, a declarat Amodei.
În cazul în care Pentagonul rupe relațiile, consecințele pentru Anthropic pot fi grave; dincolo de pierderea contractului în sine (pe care Amodei spune că o poate compensa asociindu-se cu alți beneficiari), Pentagonul amenință că va trece compania pe „lista neagră”, cerând altor contractori din zona militară – precum Boeing și Lockheed Martin – să-și „reevalueze” relațiile cu Anthropic. Există și posibilitatea ca Pentagonul să încerce să oblige compania să-i pună la dispoziție un model fără limitări apelând la instanțe.
În paralel, xAI a semnat deja contractul standard, care permite Pentagonului să utilizeze modelele companiei în orice mod dorește, în limitele legii, pentru informațiile clasificate, iar negocierile cu OpenAI și Google.
Surse: BBC, Associated Press, Axios și în text.





