Manufacturing consent 2.0

Potrivit unui articol publicat în revista Science pe 22 ianuarie 2026, noua generație de operațiuni de influențare a opiniei publice și dezinformare va fi mult mai sofisticată decât „boții copy-paste” de acum; vom avea „comunități coordonate”, „flote” de boți IA cu „personalități” individualizate – numite „roiuri de IA maligne”.

„Roiurile de IA maligne” sunt agenți IA controlați care păstrează, fiecare, o identitate și o memorie care le dă constanță profilului și care se coordonează între ei în ce privește obiectivele urmărite, dar folosessc un ton și un conținut diferit de la un profil la altul. Agenții se adaptează în timp real la reacțiile oamenilor cu care se angajează în conversație și sunt greu de detectat tocmai pentru că pot genera un conținut eterogen, contextualizat. Libertatea de acțiune a acestor agenți este mare și ei sunt infiltrație pe toate platformele.

Autorii studiului arată că, grație fuziunii modelelor LLM cu sisteme multi-agent, roiurile de IA maligne pot imita dinamica socială, amenințând discursul democratic prin contrafacerea probelor de identitate reală și consens.

Riscul esențial nu este doar un conținut fals, subliniază studiul, ci și „consensul sintetic”, iluzia că „toată lumea spune asta”, care poate influența credințele și normele chiar dacă informația de conținut, ca atare, este contestată. Persistența unei astfel de influențe poate genera modificări culturale profunde, dincolo de schimbarea normelor, alterând subtil limbajul, simbolurile și identitatea unei comunități.

Pericolul nu mai constă acum doar în fake news, ci în aceea că însăși fundația discursului democratic – vocile independente – se prăbușește atunci când un singur actor poate controla mii de profile unice generate de IA”, spune Jonas R. Kunst de la BI Norwegian Business School.

În plus, inundând Internetul cu comuncări fabricate, roiurile de IA maligne pot contamina seturile de date cu care sunt antrenate modelele IA, extinzându-și, astfel, și mai mult influența asupra platformelor – amenințare care, spun autorii studiului, nu mai este doar teoretică; se pare că se folosesc deja astfel de tactici.

Acum trebuie să studiem, dincolo de așa-zisele prejudecăți și probleme de securitate pe care le ridică chatboții sau modelele, noile riscuri care apar din interacțiunea între mulți agenți IA. Pentru asta, trebuie, în esență, să ne folosim de științele comportamentale și să le studiem comportamentul colectiv, atunci când interacționează în grupuri mari”, explică unul dintre cercetători.

Sursa: Tech Explore