Axios a fost obligată să revină cu o clarificare la un articol publicat zilele trecute în care anunța că, potrivit sondajelor, majoritatea persoanelor au încredere în medici și asistentele medicale. De fapt – de-aici și nevoia unei note de clarificare (n-au numit-o erată) – „sondajul” respectiv fusese complet fabricat de o companie numită Aaru folosind inteligența artificială.

Aaru, aflăm noi, folosește ceva numit „eșantion de silicon”, în care modele IA (LLM) mimează oamenii care sunt apoi interogați în sondaj. Ceea ce, ca prim avantaj, costă mult mai puțin decât un sondaj real, cu persoane reale. Știrea a fost circulată și de New York Times.

Cazul nu este unul izolat. Unele dintre cele mai mari instituții de sondaj, media și cercetare adoptă această tehnologie. Gallup a încheiat un parteneriat cu o companie numită Simile pentru a crea mii de „gemeni digitali” pentru a fi folosiți în sondaje pe post de oameni, iar Ipsos cooperează cu Stanford pentru crearea de date sintentice pentru sondarea „opiniei publice”. CVS folosește deja această tehnologie pentru a-și croi politicile de relații cu consumatorii. Iar organe de presă precum Axios iau apoi rezultatele acestor fabricații și le publică pe post de sondaje reale.

Așa cum comentează Zero Hedge, un sondaj care folosește „eșantioane de silicon” nu este un sondaj. Este o fabricație 100% a opiniei publice cu ajutorul unor mașini.

Sensul însuși al unui sondaj este să afle ce gândesc oamenii, pornind de la un eșantion selectat potrivit unor criterii; sigur că, uneori, criteriile și eșantionul sunt de așa natură alese încât rezultatele sunt un pic (sau mai mult) false, în ce privește reprezentativitatea – dar măcar persoanele care răspund la întrebări sunt persoane umane, nu modele digitale.

Noua tehnologie rezolvă dificultățile sondajelor reale [problema selecției, timpul, costurile etc.], dar elimină și orice urmă de realitate. Modelele IA sunt antrenate pe date care nu sunt curente, cei care le antrenează au și ei propriile prejudecăți, iar mașina scuipă afară orice date zis reprezentative vrea clientul să vadă. Rezultatul nu este o opinie publică. Este oglinda presupunerilor și prejudecăților cu care robotul a fost alimentat.” 

Faptul că tot mai multe instituții publică rezultate obținute cu aceste tehnologii normalizează acest tip de sondaj fake. De fapt, susține articolul din Zero Hedge, atunci când vedem un titlu de presă despre rezultatele unui nou sondaj, nu putem ști dacă întrebările au fost adresate unor persoane reale sau unor modele de silicon.

Încrederea în instituții se erodează deja suficient de repede și fără ca factorii de decizie și jurnaliștii să aibă la dispoziție o sursă nelimitată de date false care sună plauzibil. Științele sociale, strategiile politice și cercetarea de piață riscă să devină un joc digital elaborat al înșelăciunii.”

Așa cum avertiza Charles Hugh Smith, un astfel de model de lume este destinat colapsului. „Faptul că trăim într-o lume a post-adevărului pare deja general acceptat. Dar asta este doar o jumătate de adevăr. Trăim, în același timp, și într-o lume post-încredere… iar această lume post-adevăr și post-încredere se auto-lichidează, pentru că pretențiile ei sintetice de a avea legătură cu lumea reală sunt false… Storși de cogniție și emoție autentice sub asaltul constant al semnalelor sintetice digitale, ne pierdem angajamentul. Ne pierdem interesul, devenim detașați, nereactivi sau hiper-agresivi și, văduviți de capacitatea de a gândi și acționa independent, suntem ca niște șoricei prinși în capcana Utopiei Șoarecilor”.

Sursele în text

Salvează PDFPrint articol