Manipularea cu ajutorul boților. Cum funcționează?

Propaganda. Boți. FOTO: Stable Diffusion

Aproape jumătate (49,6%) din traficul de internet la nivel global este generat de boți. Și poate mai important (nu doar) în actualul context, 32% din acesta este asociat așa-numiților „boți răi“, folosiți pentru manipulare și răspândirea de fake news.

În ultimul deceniu, rata traficului de pe web generat de boții răi a crescut cu o medie de 1% pe an, arată un raport al companiei Thales, unul dintre liderii mondiali în materie de securitate cibernetică. Iar cercetări diferite confirmă că platformele social media precum X (Twitter), Facebook, Instagram sau TikTok sunt vizate în mod regulat de „actori-ostili“ pentru implementarea de roboți software automatizați.

Un raport al Universității Carnegie Mellon, de exemplu, estimează că roboții sunt implicați în până la 20% din conversațiile purtate pe rețelele sociale, în special în cele legate de alegeri și alte probleme politice.

Tendința a devenit evidentă în timpul votului pentru Brexit din iunie 2016, când, potrivit TechCrunch, „conturile rusești au postat aproape 45.000 de mesaje referitoare la referendumul UE în ultimele 48 de ore premergătoare votului“. Dintre acestea, cele mai multe au fost generate de boți, cu o majoritate covârșitoare pentru ieșirea din UE. Iar impactul lor a fost amplificat direct și exponențial de fiecare like și de fiecare distribuire, indiferent că acestea au venit de la alți roboți sau de la utilizatori umani.

Apropo de puterea boților, o investigație a organizației neguvernamentale Global Witness a identificat un grup de zece boți care au distribuit peste 60.000 de mesaje pe X în luna premergătoare alegerilor de anul acesta din Marea Britanie, mesaje care se estimează că au fost văzute de peste 150 de milioane de ori. Potrivit organizației, multe dintre postările produse de boți au promovat mesaje instigatoare la ură „extreme și violente“, dezinformare, teorii ale conspirației sau l-au lăudat pe președintele rus Vladimir Putin.

Postările în cauză au răspândit islamofobia, antisemitismul, homofobia și transfobia, dar și afirmații precum „schimbările climatice sunt o înșelătorie“, „vaccinurile au creat un genocid“ și „Vladimir Putin este cel mai mare președinte din toate timpurile“.

„Discuțiile politice din online sunt adesea toxice – știm cu toții asta. Dar când intrăm pe rețelele sociale, credem că vedem ce cred oamenii adevărați. Deși s-ar putea să nu fim de acord, avem încredere că ceea ce vedem sunt păreri autentice ale altor alegători. Când acest lucru nu este adevărat, când conversația poate fi influențată de cineva care a plătit pentru roboți pentru a polariza societatea sau pentru a aduce un anumit partid la putere, democrația noastră este în pericol“, spune Ava Lee, campaign leader la Global Witness, citată de The Independent.

Ce sunt „boții răi“ din social media și cum funcționează ei?

Bot rău“ este umbrela generică pentru aplicațiile software care rulează sarcini automate cu intenții răuvoitoare, de la răspândirea de fake news la activități infracționale cum ar fi frauda sau furtul. În cazul celor activi pe rețelele sociale vorbim de programe automate care folosesc inteligența artificială pentru a simula comportamentul uman. Boții în cauză iau parte la discuții pe Twitter sau Facebook și (re)acționează asemenea utilizatorilor umani, prin postări, răspunsuri, like-uri și distribuiri, cu scopul de a amplifica anumite mesaje și a influența opiniile oamenilor. Pentru a face asta, boții caută în rețelele sociale discuții pe subiecte predefinite, implicându-se apoi activ în schimburile de mesaje dintre utilizatorii legitimi.

De regulă, un astfel de bot postează folosind un cont fals – cu propria fotografie de profil, postări și urmăritori sau „prieteni“ (în unele cazuri chiar într-un număr considerabil). Mesajul său este distribuit atât sub formă de postări directe și mesaje în comentarii, cât și prin aprecieri și distribuiri.

Boții acționează de obicei în momentele în care ceilalți utilizatori sunt mai activi și postează la intervale variabile pentru a lăsa impresia că sunt umani. Un bot poate trimite și cereri de prietenie, iar dacă cererea este acceptată de un utilizator uman, botul poate colecta și analiza datele utilizatorului.

Mulți boți sunt programați cu algoritmi simpli, bazându-se pe instrucțiuni de tipul „dacă… atunci…“. De exemplu, dacă este identificat un subiect relevant, boții vor posta conținutul programat. Pentru a găsi subiecte relevante, boții folosesc căutări simple pe baza unor cuvinte-cheie și analizează cronologiile de pe rețelele sociale pentru anumite formulări și hashtaguri. Apoi publică texte redactate dinainte sau încearcă să influențeze discuțiile într-o anumită direcție.

Există însă și boți mult mai sofisticați din punct de vedere tehnic. Cu ajutorul inteligenței artificiale, al analizelor complexe de date și al procesării textelor, acești boți reușesc să genereze constant comentarii noi, diferite de cele anterioare. Uneori, acești boți pot chiar să facă referire la evenimentele din ziua curentă. Ei își creează de obicei postările combinând texte din diferite surse online, pe care le rearanjează.

Totuși, boții nu sunt cu adevărat eficienți până când nu sunt conectați între ei: dacă mai mulți boți colaborează într-o rețea, numită botnet, aceștia distribuie informațiile mult mai eficient. De exemplu, boții pot aprecia și redistribui postările altor boți. Cu cât există mai multe conturi, cu atât influența lor crește.

Funcțiile și rolurile de bază ale unui bot activ în social media pot fi împărțite în trei categorii.

Overloader este un bot care „inundă“ literalmente o conversație online cu comentariile sale. Postează aceleași afirmații în mod repetat, făcând ca alte postări să treacă în plan secundar și să nu mai fie afișate. Este cu adevărat eficient doar atunci când colaborează cu alți boți. Când o rețea de boți supraîncarcă o postare cu aprecieri și comentarii, utilizatorii umani își pierd rapid controlul asupra discuției, iar „echilibrul“ informației schimbate devine imposibil de restabilit.

Trendsetter – funcționează cel mai bine în echipă: dacă un număr mare de boți utilizează împreună un anumit hashtag, pot răspândi ușor postări legate de subiectul respectiv. Dacă subiectul în cauză devine trending pe o rețea socială, există șansa să fie preluat de presă. În acest fel, botul distorsionează relevanța reală a subiectului ales, creând falsa impresie că fenomenele marginale ar fi tendințe revoluționare sau mișcări sociale de amploare.

Auto Troll – operează singur și încearcă să-i distragă pe utilizatorii care își exprimă opiniile pe un anumit subiect și să-i implice într-o conversație pe o nouă temă. De obicei, face acest lucru prin declarații contradictorii, care îl provoacă pe utilizator să răspundă, abandonând tema inițială.

Cum pot să confere boții notorietate pe o rețea precum TikTok unui candidat necunoscut?

Răspunsul la întrebarea de mai sus îl dă Corneliu Bjola – profesor de Diplomație Digitală la Universitatea din Oxford și expert în metodele de contracarare a propagandei digitale, într-un interviu pentru Deutsche Welle, pe studiul concret de caz al campaniei pentru Călin Georgescu.

În prima parte a campaniei, explică acesta, s-a apelat la o rețea de influenceri cărora li s-a cerut nu să-l promoveze direct, ci să vorbească despre un candidat politic ideal. Este faza numită „amorsare“, un concept folosit în psihologie pentru a descrie fenomenul prin care expunerea la un anumit stimul influențează modul în care o persoană reacționează la stimulii ulteriori, de obicei fără ca acea persoană să fie conștientă de această influență.

Concret, este un proces cognitiv care afectează percepția, memoria și comportamentul prin activarea anumitor asocieri în minte. Când un concept oarecare este activat, creierul tinde să acceseze și alte informații sau idei asociate acestuia. Dacă vezi, de exemplu, cuvântul „doctor“, vei reacționa mai rapid la cuvântul „spital“ decât la cuvântul „munte“, deoarece primele două sunt asociate mental.

„Aceasta este esența amorsării: nu vorbești explicit despre o persoană, dar modelezi percepțiile publicului despre așteptările în legătură cu un anumit subiect. În acest moment, publicul a început să reacționeze, pentru că aceștia erau influenceri – o rețea mare de influenceri – care, apropo, au fost plătiți pentru acest tip de campanie“, detaliază Bjola.

În campania lui Georgescu, de exemplu, au fost folosite cuvinte-cheie precum „patriot“, „integritate“, „independență“ sau „profesionist“. Odată ce publicul a început să urmărească campania, au apărut și trolii și boții care au început să comenteze și să folosească hashtaguri pentru a asocia acele trăsături generale cu un anumit candidat. Un exemplu de hashtag folosit în comentarii a fost „#voteazăGeorgescu“, făcându-se astfel o conexiune indirectă cu profilul candidatului ideal, prezentat până atunci într-un mod neutru.

Rezultatul a fost aparența unui impuls organic extraordinar, a iluziei existenței unui număr mult mai mare decât în realitate de oameni care susțin cu adevărat acest candidat. „Acest impuls are rolul de a răspândi mesajul – prin viu grai, bineînțeles – și, totodată, de a crește credibilitatea“, mai explică acesta.

Audiați în Parlamentul European la începutul acestei luni, reprezentanții platformei TikTok au spus că au identificat și au desființat trei rețele care au urmărit influențarea opiniei publice în perioada alegerilor prezidențiale și parlamentare din România. Cele trei campanii ar fi fost duse în favoarea candidaților Călin Georgescu, Mircea Geoană și George Simion.

„Am înlăturat peste 66.000 de conturi false, șapte milioane de like-uri false, zece milioane de urmăritori falși, 1.000 de conturi care impersonau candidați. Am prevenit 40 de milioane de like-uri false și alte 200.000 de conturi false de la a fi create“, a declarat Caroline Greer, reprezentanta platformei TikTok. Explicațiile sale însă nu i-au convins pe europarlamentari că lucrurile s-au limitat la atât.

FOTO: Stable Diffusion