Practica ne omoară

TechPolicy publică o analiză a efectelor pe care disputa dintre Anthropic și Pentagon le are în Europa.
Această dispută nu se rezumă la o chestiune de achiziții publice, așa cum o prezintă Pentagonul (un furnizor de servicii – Anthropic – care a impus condiții inacceptabile pentru contractorul de stat), și nici nu privește doar Statele Unite. Cele două puncte nevralgice ale conflictului – supraveghere de masă prin intermediul IA și arme autonome – reverberează și în Europa.
Pentru primul subiect, analiza TechPolicy reamintește de scandalurile anterioare din jurul programelor de supraveghere în masă – sistemul devoalat de Edward Snowden în 2013, care, însă, nu privea doar cetățeni americani, ci și cetățenii (ba chiar și liderii) unor țări aliate ale SUA, cu participarea unor mari companii tehnologice americane. Pentru cei care au uitat incidentul, The Guardian relata, în 2013, că NSA (agenția de securitate națională americană) monitoriza convorbirile telefonice ale 35 de lideri din întreaga lume, printre care și cancelarul Germaniei la acea vreme, Angela Merkel.
Potrivit TechPolicy, dezvăluirile lui Snowden au generat prea puține schimbări în SUA, dar au determinat Uniunea Europeană să demareze eforturi de reglementare a Big Tech și de protecție a datelor cetățenilor europeni – prin legislație precum Digital Markets Act (DMA) și Digital Services Act (DSA).
Dar, cum abordarea se rezumă la reglementare, iar Europa continuă să folosească aproape exclusiv servicii, platforme și produse americane, eforturile UE întâmpină mari dificultăți; companiile Big Tech nu se prea lasă reglementate de Bruxelles (lucru care rezultă și din disputa curentă între UE și Elon Musk). N-o fac din principiu, dar și pentru că adaptarea la DMA și DSA ar costa enorm companiile americane – undeva între 22 și 50 de miliarde de dolari, după estimările Center for Strategic and International Studies.
Pentru cetățenii europeni, ideea ar fi să nu fie supravegheați în masă de nimeni – nici de UE, nici de SUA – dar se pare că acest nivel al dezbaterii a fost demult depășit, așa că trecem mai departe.
Pe subiectul doi – arme autonome: disputa dintre Anthropic și Pentagon a scos în evidență lacunele uriașe de reglementare la nivel mondial. Există niște eforturi anterioare (cum ar fi Tallinn Manual, 2013, care își propunea să codifice aplicarea dreptului internațional la războiul cibernetic, sau reglementarea UE – AI Act – care exclude explicit folosirea sistemelor IA în aplicații militare) dar – față de ce vedem acum în operațiunile miliare americane și israeliene, aceste texte „sună deja anacronic”, comentează TechPolicy. Modelele LLM sunt în mod evident construite pentru dublă folosință – militară și civilă.
Mai mulți experți intervievați de TechPolicy afirmă că problema este una de drept internațional, iar nu o dispută internă care privește numai SUA. Doar că dreptul internațional, așa cum este el acum, nu acoperă subiectul în mod expres. Unul dintre acești experți arată că, deși Convențiile de la Geneva interzic implicit folosirea sistemelor IA autonome prin simplul fapt că atașează oricărei acțiuni militare o răspundere umană, ar fi necesară, totuși, o prevedere expresă.
În orice caz, așa cum o spune și TechPolicy, între teorie și practică este cale lungă. Nu există nici măcar un consens de principiu între experți cu privire la ce înseamnă aceste sisteme de arme autonome, sau în ce constă acea „intervenție umană semnificativă în stabilirea țintei” care face deosebirea dintre o operațiune militară asistată de IA și una executată de IA.
În plus, nu există nicio instanță, niciun tribunal internațional în care o țară să fie chemată să dea socoteală pentru utilizarea unor astfel de sisteme. Pe de altă parte, companiile producătoare ar fi mai ușor de acționat în justiție pentru eventuale încălcări – ceea ce, poate, a și fost unul dintre motivele pentru care Anthropic a încercat să se disocieze de modul în care Pentagonul a folosit Claude în operațiunile sale militare.
Temerea exprimată de analiști este că, trecând la fapte fără un cadru juridic, SUA stabilește un precedent de facto de care vor profita și alte țări. Elke Schwarz, profesoară de teorie politică la Queen Mary University of London și vice-președintă a International Committee for Robot Arms Control declară: „Cred că [evenimentele recente] au atras atenția asupra SUA ca țara care stabilește norma, iar norma, în acest caz, este la un standard foarte scăzut. Nu avem – nici în UE, nici la nivel internațional – un set de norme și reglementări aplicabile în domeniul apărării… Fie toată lumea va investi în modelele americane cu scopuri militare, pentru că nimeni nu vrea să fie lăsat în urmă, fie toată lumea se va mobiliza, cel puțin în context european, și va înteți eforturile multilaterale de a pune niște carne pe acest schelet de reglementare care există acum”.
Alternativă teoretică la care putem deja intui răspunsul. Marc De Vos, șeful unui think tank european numit Itinera și profesor de drept la Universitatea Ghent, spune că liderii și experții europeni se concentrează acum pe suveranitatea tehnologică, inclusiv în domeniul militar; actuala situație „scoate în evidență foarte clar dependența tehnologică [a Europei de companiile americane] și nevoia de o formă de suveranitate, de autonomie și control în Europa”. Asta mai ales, continuă De Vos, într-un context în care „Trump ar vrea ca firmele de tehnologie americane să poată controla ce pot face alte țări în domeniul militar, cu condiția să nu controleze și domeniul militar american”.
„Deși unii ar vrea să poată răspunde [acestor dezvoltări] prin reglementare și aducerea la zi a dreptului internațional într-o eră a armelor autonome”, cheia ar fi, totuși, construirea unor alternative la sistemele americane. Lucru mai greu de realizat; iar ora e târzie.
Și-apoi: cine mai ia în seamă azi dreptul internațional?
Sursa în text.