Deepfake-urile, una dintre principalele provocări pentru alegerile din 2024
Odată cu explozia inteligenței artificiale e mai ușor ca niciodată să manipulezi oamenii pe internet, iar asta transformă alegerile de anul acesta din întreaga lume într-un test fără precedent.
„Cum s-a reușit așa ceva nu pot să îmi dau seama. M-a lăsat cu gura căscată. Sigur e o farsă. Este?“, comenta un internaut un videoclip de pe YouTube, în care un Klaus Iohannis, inimaginabil de zâmbitor și de plin de antren, cântă la acordeon muzică lăutărească, acompaniat la țambal de Liviu Dragnea și de Marcel Ciolacu la orgă electronică.
Răspunsul e evident. Da, e o farsă. Una chiar reușită. Numai că, într-un 2024 în care cetățenii din circa 70 de țări – estimate că acoperă spre jumătate din populația lumii, adică aproape patru miliarde de oameni – vor merge la vot, experții avertizează că procesul electoral democratic riscă serios să fie perturbat de creații asemănătoare, și totuși complet diferite, realizate cu ajutorul algoritmilor de inteligență artificială (AI).
Arma de manipulare
Gail Huntley a recunoscut tonul grav al vocii lui Joe Biden de îndată ce a răspuns la telefon. În vârstă de 73 de ani, femeia din New Hampshire se pregătea în acea zi să voteze pentru președinte la alegerile primare din statul său, așa că a rămas extrem de confuză când un mesaj preînregistrat de la el o îndemna să nu o facă, scrie Wired. „E important să-ți păstrezi votul pentru alegerile din noiembrie. Votul de astăzi doar le dă apă la moară republicanilor în încercarea lor de a-l alege din nou pe Donald Trump“, se spunea în mesaj.
Huntley a realizat destul de repede că apelul e un fals, dar și-a imaginat că spusele lui Biden au fost scoase dintr-un context mai larg. A fost șocată când a devenit clar că înregistrarea a fost generată de fapt de un algoritm AI. Câteva săptămâni mai târziu, Statele Unite au declarat ilegale apelurile automate care folosesc voci generate de inteligența artificială. Deepfake-ul Biden este văzut acum drept primul test major pentru guverne, companii tehnologice și grupuri ale societății civile, care par să fie toate blocate într-o dezbatere aprinsă cu privire la cel mai bun mod de a controla un ecosistem informațional în care oricine poate crea imagini și înregistrări video realiste ale candidaților sau le poate reproduce vocile cu o precizie înspăimântătoare.
Diferite creații AI au fost deja folosite în ultimele luni în alegerile din Slovacia, Taiwan și Indonezia, într-un context în care încrederea în politicieni, instituții și mass-media este deja scăzută. Cu doar două zile înainte de scrutinul din octombrie 2023 din Slovacia, o înregistrare audio a fost distribuită pe Facebook. Se auzeau două voci: una care părea a fi a fostului vicepreședinte al Parlamentului, Michal Šimecˇka, șef al partidului Slovacia Progresistă, și o alta a jurnalistei Monika Tódová, de la cotidianul Denník N. Păreau să discute despre cum să fraudeze alegerile, inclusiv prin cumpărarea de voturi de la minoritatea rromă a țării. Cei doi au denunțat înregistrarea drept un fals, iar o analiză de specialitate a demonstrat că a fost manipulată cu ajutorul inteligenței artificiale.
Slovacia Progresistă a pierdut alegerile, care au fost câștigate de Smer-SD, formațiune populistă care, printre critici la adresa Uniunii Europene și a NATO, a promis în campanie retragerea sprijinului militar acordat Ucrainei. Înainte de vot, vicepreședinta Comisiei Europene, Veˇra Jourová, comisar european pentru Valori și Transparență, spunea că alegerile din Slovacia vor reprezenta un caz-test pentru cât de vulnerabile sunt alegerile europene în fața „armei de manipulare în masă de mai multe milioane de euro“ folosită de Moscova pentru a se amesteca în alegeri.
Turcul plătește
Despre un presupus amestec al Moscovei s-a vorbit și în timpul alegerilor prezidențiale de anul trecut din Turcia, câștigate de Recep Tayyip Erdog˘an, ajuns la al treilea mandat. Cu doar câteva zile înainte de primul scrutin, unul dintre candidații opoziției, Muharrem Ince, și-a anunțat retragerea, invocând o campanie susținută de defăimare împotriva sa, care a culminat cu un deepfake devenit rapid viral pe rețelele sociale. O înregistrare video cu un bărbat și o femeie care fac sex a fost descărcată de pe un site porno israelian, a detaliat el, și a fost apoi prelucrată astfel încât să pară că el este protagonistul unor scene interzise (nu doar) minorilor.
Creditat de sondajele de la acea vreme cu prima șansă la victorie, Kemal Kılıçdarog˘lu, liderul opoziției din Turcia, a publicat imediat pe X un mesaj în care arăta cu degetul înspre Kremlin. „Dragi prieteni ruși, voi vă aflați în spatele montajelor, comploturilor, conținuturilor deepfake și a înregistrărilor care au apărut ieri (10 mai 2023, n.r.) în această țară. Dacă vreți prietenia noastră, după 15 mai (ziua primului tur al alegerilor, n.r.), luați-vă mâinile de pe statul
turc!“, scria el. Întrebat de Reuters dacă are vreo dovadă că Rusia e într-adevăr responsabilă pentru lansarea și promovarea de conținut fals în online-ul turcesc în zilele premergătoare alegerilor, a răspuns că „dacă nu am avea, nu aș fi scris“, fără a intra însă în detalii și subliniind că, dacă ajunge președinte, vrea să aibă o legătură de colaborare și prietenie cu Moscova.
Ulterior, pe rețelele sociale a început să circule scenariul că retragerea lui Ince ar fi fost forțată chiar de către Kılıçdaroglu, în speranța de a atrage de partea lui și votanții acestuia. „Respingem cu fermitate astfel de afirmații. Declarăm oficial: nu se poate vorbi despre nicio interferență. Dacă cineva i-a oferit domnului Kılıçdarog˘lu astfel de informații, sunt minciuni“, a venit replica Kremlinului, prin purtătorul de cuvânt Dmitri Peskov.
Cert este că, în perioada campaniei electorale, portalul turc independent de verificare a informațiilor Teyit – care înseamnă „confirmare“ – a identificat peste 150 de deepfake-uri menite să-i inducă în eroare pe potențialii votanți, deepfake-uri care îi acuzau pe unii candidați (preponderent cei ai opoziției) în special de terorism și desconsiderarea normelor sociale.
Inamicul democrației
Termenul deepfake este o combinație între deep learning (învățare profundă), care este un tip de algoritm AI, și fake (fals), iar tehnologia din spatele său – denumită generative adversarial network (GAN) – a fost dezvoltată în 2014 de Ian Goodfellow, pe atunci absolvent al unui doctorat în machine learning la Universitatea din Montréal (Canada). Într-o explicație simplă, algoritmul AI care stă la baza unui video deepfake suprapune mișcările și cuvintele unei persoane (A) peste cele ale personajului-fals(ificat) (B). Practic, AI generează un nou video, în care B se mișcă și vorbește având ca referință A. În cazul videoclipului cu președintele Klaus Iohannis, de exemplu, fața acestuia a fost suprapusă peste cea a acordeonistului din înregistrarea originală, ale cărui expresii și mișcări ale capului le-a reprodus apoi. Cu cât algoritmul învață din mai multe înregistrări video, cu atât rezultatul final este mai realist și mai greu de identificat ca fals.
Odată cu popularizarea sa, noua tehnologie a fost văzută ca o amenințare iminentă la adresa democrației, dacă nu chiar ca un sfârșit al adevărului discursului public. Practic, oricine are acces la aceasta, de la propagandiști consacrați de stat la troli de serviciu, are și potențialul să denatureze informația și să manipuleze, astfel încât să împingă mai profund în propriile lor realități subiective (și paralele) comunitățile online opuse ideologic.
„Piața ideilor suferă deja de o denaturare a adevărului, iar deepfake-urile vor exacerba modul toxic în care interacționăm în rețea cu prejudecățile noastre cognitive“, spunea pentru ziarul britanic The Guardian Danielle Citron, profesoară la Universitatea Maryland (SUA), expertă internațională în libertatea de expresie și drepturi civile.
„Software-urile de manipulare video sunt periculoase la scară geopolitică“, avertiza cu ceva vreme în urmă și senatorul american Ben Sasse, solicitând o acțiune „rapidă și decisivă“ din partea Congresului.
Dincoace de Ocean, Bruxelles-ul a publicat o strategie pentru combaterea dezinformării, inclusiv a deepfake-urilor, care propune, printre altele, crearea unei rețele europene independente de persoane care să verifice faptele pentru a analiza sursele și a procesa conținutul informațiilor.
În 2018, conform unor statistici publicate de cotidianul american The Wall Street Journal, mai puțin de 10.000 de deepfake-uri au fost detectate online. Astăzi se estimează că numărul lor e de câteva milioane. Și, deloc surprinzător, între timp au apărut și numeroase falsuri în care sunt implicate personalități politice, cum ar fi un videoclip de anul trecut în care președintele ucrainean Volodimir Zelenski le cere trupelor sale să se predea. După ce Joe Biden a anunțat că va candida încă o dată la președinția Statelor Unite, Comitetul Național Republican a lansat un videoclip, conceput de inteligența artificială, care înfățișează un viitor distopic, à la „O mie nouă sute optzeci și patru“ sau „Povestea slujitoarei“, sub un al doilea mandat al său. Iar experții au început să avertizeze încă de prin 2022 că deepfake-urile vor fi una dintre principalele provocări ale alegerilor prezidențiale din SUA din 2024. „Dacă 2008 și 2012 au fost «alegerile Facebook», cele din 2024 vor fi alegerile AI și vor fi mult mai perturbatoare“, avertizează Tom Newhouse, vicepreședinte al companiei americane de marketing digital Convergence Media, care utilizează inteligența artificială.
Trolii vechi și noi
În Filipine, președintele Ferdinand Marcos Jr s-a bazat pe o armată de troli desfășurată pe TikTok pentru a câștiga voturile tinerilor la alegerile din 2022. Odată cu popularizarea unor instrumente precum ChatGPT, automatizarea cu roboți AI i-ar putea permite oricărui politician să facă un astfel de proces mai simplu, mai rapid și mai eficient. Un soft de dezinformare ar putea fi exploatat pe forumuri și în rețelele sociale pentru a face ca o anumită părere să fie promovată pe scară largă. Cercetările au demonstrat că deciziile unui individ sunt influențate de deciziile altora și că nu este de fapt decât o aparență ceea ce este considerată o părere majoritară în rețelele sociale; așa-numita „iluzie a majorității“ – faptul că mai mulți oameni își exprimă (un) același punct de vedere, adesea în același timp sau în același loc, poate convinge/înșela observatorii că toată lumea crede/simte la fel, indiferent dacă cei care vorbesc sunt sau nu cu adevărat reprezentativi – sau chiar reali.
În momentul de față (încă) este posibil să detectăm comentarii repetitive sau reciclate care utilizează aceleași fragmente de text pentru a crea iluzia unui fals consens într-o secțiune de comentarii sau pentru a convinge publicul prin intermediul conținutului difuzat pe Facebook – o tactică observată într-o serie de campanii anterioare de manipulare. Un studiu realizat de Centrul de Cercetare Pew a analizat 21,7 milioane de comentarii pe tema neutralității internetului publicate pe pagina Comisiei Federale de Comunicaţii din SUA, constatând că doar 6% dintre acestea erau unice/originale. Restul de 94% au fost identificate ca fiind copii ale altor comentarii, majoritatea argumentând împotriva reglementărilor privind neutralitatea rețelei. Și o analiză publicată de The Wall Street Journal a descoperit zeci de mii de comentarii suspecte pe teme diferite, identificate ca atare, deoarece conțineau propoziții repetate, lungi, care era puțin probabil să fi fost scrise spontan de diferite persoane. Dacă aceste comentarii ar fi fost generate independent – de o AI, de exemplu –, campaniile de manipulare în cauză ar fi fost mult mai greu de dat în vileag.
„Implicarea inteligenței artificiale în alegeri ar putea schimba radical strategiile de campanie, de la colectarea de date la trucuri murdare, amplificând efectul mesajelor-țintă către anumite categorii de alegători pentru a crea reprezentări inflamatoare și false ale candidaților oponenți“, spune și Aiden Buzzetti, președinte al organizației nonprofit Bull Moose Project, care își propune să identifice și să pregătească o nouă generație de oameni politici ai Americii.
Astăzi există o mulțime de instrumente AI capabile să genereze imagini plecând de la o solicitare sub formă de text, cum ar fi DALL-E, Midjourney sau Stable Diffusion. La fel de ușor este și să generezi o clonă a vocii cuiva, folosind un program cum este cel realizat de ElevenLabs.
E adevărat, videoclipurile deepfake cu adevărat convingătoare încă sunt greu de produs, dar lucrurile s-ar putea schimba. „Acum nu există un site pe care să intri și să spui «creează-mi un videoclip cu Joe Biden spunând X». Dar va exista. E doar o chestiune de timp“, avertiza cu ceva vreme în urmă și Hany Farid, profesor la UC Berkeley’s School of Information. Astăzi, cel puțin teoretic, Sora AI, algoritmul creat de OpenAI care transformă descrierile dintr-un text în imagini video, ar putea face și asta.
„Lipsește imaginația“
Pentru Mark Coeckelbergh, profesor la Universitatea din Viena, AI poate contribui la împingerea persuasiunii tipice într-un teritoriu negativ. Politicienii încearcă în mod natural să ne influențeze, spune el, dar „problema cu multe dintre aceste tehnologii este că ele urmăresc mai degrabă manipularea decât persuasiunea prin argumente și informații“, spune el. „Ceea ce faci (ca politician care folosește AI, n.r.) este că îi tratezi pe oameni nu ca pe niște subiecți autonomi, bine informați, ci ca pe niște șobolani de laborator, pe care îi poți manipula.“
Luna trecută, marile companii tehnologice au anunțat semnarea unui acord de adoptare a ceea ce reprezentanții lor numesc „măsuri rezonabile“ necesare pentru a preveni utilizarea inteligenței artificiale în a perturba alegerile. Printre semnatari se numără OpenAI, creatoarea softului ChatGPT, Google, Adobe și Microsoft – companii care la rândul lor au lansat instrumente AI generatoare de conținut vizual, audio sau text. OpenAI, de exemplu, al cărei software Dall-E este folosit pentru a crea imagini foto realiste, a subliniat că aplicația sa va refuza cererile care solicită generarea de imagini cu persoane reale.
„Conținutul care ar putea contribui la violență iminentă, la un pericol fizic sau care îndeamnă la neparticipare la vot va fi eliminat de pe Facebook, Instagram și Threads“, a anunțat și Marco Pancini, responsabilul companiei Meta pentru relațiile cu UE. TikTok a promis la rândul său că va lansa un centru electoral pentru fiecare dintre cele 27 de state membre ale Uniunii Europene pentru a se asigura că oamenii „pot distinge cu ușurință faptele de ficțiune“. TikTok colaborează cu nouă organizații europene de verificare a faptelor pentru a evalua precizia conținutului în 18 limbi, urmând să eticheteze „orice afirmații care nu pot fi verificate“.
Multe alte companii au interzis utilizarea produselor lor în campanii politice. Midjourney – start-up al cărui generator de imagini este considerat de majoritatea specialiștilor cel mai puternic și mai precis dintre toate cele existente – spune că utilizatorii nu pot folosi produsul pentru campanii politice „sau pentru a încerca să influențeze rezultatul unei alegeri“.
Aplicarea concretă a unor astfel de măsuri rămâne însă discutabilă. În ciuda interdicției OpenAI de a-i fi folosite instrumentele în campania politică, Reuters a raportat că acestea au fost utilizate pe scară largă la alegerile din Indonezia, desfășurate în februarie, pentru a crea artă de campanie, pentru analize de sentiment pe rețelele sociale, pentru a construi chatboturi și pentru a ținti anumite categorii de alegători.
Chiar și așa, pentru mulți experți, marele motiv de îngrijorare nu e atât tehnologia cu care ne confruntăm deja, ci inovațiile pe cale să se întâmple. Când vine vorba de modul în care AI poate amenința democrația, spun ei, din conversația publică „lipsește imaginația“. Adevăratul pericol nu este reprezentat de ceea ce ne temem deja, ci de ceea ce nu ne putem imagina încă.
Acest articol a apărut în numărul 183 al revistei NewMoney
FOTO: Getty