IA dezamăgește

Disputa dintre compania Anthropic (proprietara modelului IA Claude) și Pentagon a scos la iveală „discrepanța uriașă dintre ce fac marile modele de frontieră și ce nevoi au, de fapt, soldații” relatează Defense One,
„Bătălia dintre… Anthropic și Pentagon a expus o distanță enormă între ce vor militarii de la modelele IA și ce produc, de fapt, companii precum Anthropic, xAI sau OpenAI: unelte IA pentru folosință uzuală, iar nu specifice pentru nevoile forțelor armate.”
Mai concret, analiza subliniază „adevărul inconfortabil” că „Pentagonul avea rezerve majore față de modelele LLM, față de potențialul lor de a halucina și de a nu respecta instrucțiunile”, dar a utilizat, totuși, „la scară mare”, modelul Claude, „nerăbdător să le ofere operatorilor o IA generativă, cât de cât”.
„Potrivit relatărilor, [Claude] a jucat un rol în operațiunea Midnight Hammer, raidul care s-a soldat cu capturarea președintelui Venezuelei, Nicolas Maduro, deși oficialii Pentagonului au refuzat să confirme acest lucru. Potrivit lui Emil Michael, sub-secretarul pentru cercetare și inginerie al Departamentului pentru Apărare, după raid, Anthropic a sunat la Palantir pentru a întreba dacă modelul lor fusese utilizat în operațiune… «a fost un moment de șoc pentru întreaga conducere a Pentagonului, când am realizat că am putea fi dependenți de un furnizor de soft, fără să avem alternative».”
Temeri confirmate de refuzul ulterior al companiei Anthropic de a permite utilizarea lui Claude în anumite moduri – mai exact, ca armă autonomă – deși confirmările oficiale că astfel de sisteme au fost utilizate fără contribuție umană, la Caracas ori în actualul război din Orientul Mijlociu, lipsesc.
Dincolo de o nedorită dependență de furnizori privați și eventualele condiții sau limite impuse de aceștia, modelele IA actuale – și Claude, și Gemini (Google), și ChatGPT (OpenAI), și Grok (xAI) – mai prezintă o problemă majoră pentru utilizările militare: depind de o conexiune la cloud. Ceea ce, spune Defense One, le face „nesigure pentru soldații de azi și pentru armele autonome de mâine”.
OpenAI a recunoscut tacit această limită atunci când și-a anunțat, recent, noul contract de rețele clasificate cu Pentagonul, menționând că modelele LLM actuale nu pot fi utilizate pe câmpul de luptă, iar asta este cea mai bună garanție că îngrijorările exprimate de Anthropic sunt neîntemeiate.
Fundal pe care Pentagonul anunță lansarea proiectului „Aria”, care va crea noi modele și instrumente IA, special dezvoltate pentru sectorul militar și capabile să „rezolve probleme operaționale reale” pentru forțele militare.
Implicate în proiect vor fi mai multe companii înființate sau finanțate de veterani din domeniul militar. Una dintre ele, Smack Technologies, anunța acum câteva zile că a obținut deja fonduri de 32 de milioane de dolari pentru crearea unui „laborator de frontieră pentru securitatea națională”; Andrew Markoff, fondatorul companiei, un fost agent special al infanteriei navale (Marine Corps), declară că modelul său de IA este antrenat cu seturi de date special selectate din domeniul militar.
„Nu există un set de date de antrenament pentru Al Treilea Război Mondial, nu?”, explică Markoff. „Nu ai cum să întărești procesul de învățare… dacă nu ai o experiență profundă în domeniu…”. Referindu-se la operațiunea din Venezuela, el a spus: „Înmulțiți-o cu 100, la scară. Ai ținte pe care vrei să le lovești, ai senzori pe care vrei să-i aloci acelor ținte pentru a afla ce se întâmplă. Și, pentru a înlesni loviturile, ai platforme de atac și escorte care vin din toate colțurile lumii cu cerințe de secvențiere foarte precise; ceva gen, Acțiunea A trebuie făcută cu X secunde înainte de Acțiunea B. Și toate astea depind de un alt lucru care trebui să se întâmple la momentul X. Deci toate astea trebuie să se potrivească unele cu altele, la nivel global, într-o fereastră de timp foarte îngustă.”
Or, continuă Markoff, modele precum Claude „nu au cum să optimizeze aceste obiective. Și nici nu au capacitatea de a face calcule detaliate de timp și spațiu, nu pot face raționamente geospațiale bazate pe fizică, nu pot lua decizii – literalmente – despre ce muniții sunt necesare la un anumit moment, ce senzori trebuie interogați și la ce moment. Nu au această capacitate”.
Același lucru îl spune și Jason Rathje, fondator al Biroului de capital strategic al Pentagonului, care conduce azi divizia de contracte publice a webAI. Modelele de frontieră precum Claude „sunt făcute să răspundă la milioane de întrebări diferite care vin de la miliarde de utilizatori. Organizațiile militare au adesea nevoie de altceva, de sisteme antrenate special pentru misiuni operaționale specifice, precum planificare logistică, mentenanța echipamentelor, analiza informațiilor sau sprijin la luarea deciziilor”.
La fel de importante sunt și limitările legate de nevoia de acces la cloud, care nu răspund nevoilor de suveranitate ale operatorilor militari, care trebui să controleze și modelul, și datele, și infrastructura pe care modelul operează.
Un alt operator implicat în noul proiect, veteran al forțelor navale americane și fondator al AIN Ventures, subliniază că noile modele de uz militar nu trebuie să atingă performanțele sistemelor civile precum ChatGPT; „un model cu 85% din capacități, dar care operează într-o rețea protejată oferă avantaje tactice peste un GPT-5 care operează pe un centru de date la care nu poți ajunge” (aluzie la vulnerabilitatea centrelor de date, demonstrată în actualul război din Orientul Mijlociu).
În fine, o altă problemă pusă de modelele LLM este că oferă informații cu mai mare încredere decât ar fi cazul și, adesea, își ajustează răspunsurile la utilizator, ba chiar mint. „Modul în care sunt construite aceste modele și unul dintre motivele pentru care sunt atât de mari este că ele încurajează conversația”; or, sectorul militar are nevoie de modele „bazate pe gândire contra-factuală – care prezintă puncte de vedere alternative, care contrazic prezumțiile utilizatorului, în loc că le întărească”.
Pe scurt, marile companii de inteligență artificială au dezamăgit sectorul american de securitate națională. Ceea ce nu poate fi decât o nouă veste proastă pentru „bula IA”.
Sursa în text.