Câte „victime” a făcut tehnologia, bazată pe inteligența artificială, care te dezbracă virtual

Aplicații precum Telegram și Instagram sunt invadate de un algoritm de inteligență artificială similar cu DeepNude, aplicație care era închisă anul trecut, la scurt timp după lansare.
În iunie anul trecut, Vice dezvăluia existența unei aplicații care folosea algoritmi de inteligență artificială pentru a… „dezbrăca“ femeile. DeepNude le permitea utilizatorilor ca, pentru 50 de dolari, să încarce o fotografie cu o femeie îmbrăcată pentru a primi aceeași poză în care femeia apare dezbrăcată.
Ce face aplicația? Folosește niște algoritmi similari celor din spatele deepfake-urilor. Înlocuiesc, de fapt, hainele cu nuduri extrem de realiste. Cu cât victima este mai sumar îmbrăcată în poză, cu atât iese mai bine… fake-ul nud. Pe bărbați nu funcționează.
În 24 de ore, articolul din Vice a generat o reacție atât de puternică împotriva aplicației, încât creatorii ei au închis-o rapid. Contul de Twitter al DeepNude a anunțat că nicio altă versiune nu va mai fi lansată și nimeni nu va avea acces la tehnologie, notează publicația MIT Technology Review.
Numai că o recentă investigație a Sensity AI (anterior se numea Deeptrace Labs), o companie de securitate cibernetică concentrată pe detectarea manipulării abuzive a media, a descoperit o tehnologie similară folosită de un bot disponibil public pe suportul aplicației Telegram. De data aceasta, interfața cu utilizatorul este și mai simplă – oricine poate trimite botului o poză via Telegram sau printr-o aplicație web și să primească înapoi, în câteva minute, poza nud. Mai mult, serviciul este gratuit, deși utilizatorii pot plăti un abonament de bază de 100 de ruble (cam 1,50 de dolari) pentru a putea îndepărta un watermark de pe poze sau să aibă prioritate pentru procesarea fotografiei.
Vara aceasta, în iulie, botul a fost accesat pentru a dezbrăca virtual cel puțin 100.000 de femei, majoritatea habar neavând că li se întâmplă asta. „Cel mai adesea sunt fete. Din păcate, de multe ori este vorba chiar de minore“, a comentat Giorgio Patrini, CEO al Sensity.
Hărțuirea ca joc
Botul de deepfake, lansat pe 11 iulie 2019, este legat la șapte canale Telegram și astfel are acces la o bază de peste 100.000 de membri. Canalul central este gazda botului, în timp ce restul canalelor sunt folosite pentru alte funcții – suport tehnic sau share de imagini. Canalele care permit împărtășirea de imagini includ interfețe pe care utilizatorii le pot folosi pentru a posta și comenta falsele nuduri. „Creatorul primește chiar un bonus ca și cum ar juca un joc“, mai spune Patrini.
Comunitatea, care poate fi ușor de descoperit printr-un simplă căutare sau prin rețelele sociale, a crescut constant de anul trecut încoace. Un sondaj făcut pe 7.200 de utilizatori arată că aproape 70% din ei sunt din Rusia sau din țări în care se vorbește limba rusă.
Victimele provin din multe țări – între care Argentina, Italia, Rusia și SUA. Majoritatea, persoane despre care utilizatorii botului spun că le cunosc în viața reală sau că le-au cunoscut pe Instagram. Cei care au analizat fenomenul au reușit să le identifice doar pe câteva dintre femei, au încercat să le contacteze, dar niciuna nu a răspuns, spune Patrini. Au trimis întrebări și celor de la Telegram și structurilor de poliție, ba chiar și FBI-ului. Telegram nu a răspuns la niciuna dintre solicitări, iar Patrini remarcă faptul că nu s-a observat „niciun efect asupra acestor comunități“ din momentul în care au fost contactate de autorități.
Deepfake revenge porno
Există și categoria celor care abuzează de acest tip de imagini pentru a hărțui femei. În 2019, un studiu al Asociației Americane de Psihologie a descoperit că una din douăsprezece femei ajunge la un moment dat în viață victima așa-numitului revenge porn (când partenerul face publice clipuri sau imagini cu situații intime menite să compromită victima). Un studiu al guvernului australian făcut în Australia, Marea Britanie și Noua Zeelandă arată că raportul este mult mai grav – una din trei femei a fost victima acestui fenomen.
De dată recentă, deepfake revenge porn dă o nouă dimensiune hărțuirii, dat fiind că victimele nici nu știu că astfel de imagini cu ele există. Au fost multe cazuri în care deepfake-urile au fost folosite împotriva celebrităților sau a unor personalități cunoscute. Tehnologia a fost inițial folosită pe internet pentru a pune fețe de celebrități în filmulețe porno sau a fost folosită în campanii de hărțuire pentru a forța jurnaliste să tacă.
Patrini spune că a discutat cu influenceri și autori de pe YouTube care s-au trezit cu imagini pornografice false trimise direct sponsorilor, ceea ce i-a afectat masiv și emoțional, și financiar. Patrini crede că acest gen de atacuri ar putea face mult mai mult rău. A observat deja cum se răspândește această tehnologie.
Aceeași echipă de cercetători a mai descoperit și un alt ecosistem dedicat creării și diseminării de imagini explicite false pe platforma socială rusească VK. Și a observat că algoritmul de dezbrăcare virtuală a început să fie aplicat în filmulețe cu manechine care prezintă modele de bikini, dar nu pe podiumuri de modă, ci chiar pe stradă. În acest moment, algoritmul trebuie aplicat cadru cu cadru. „Este foarte rudimentar“, spune Patrini. „Sunt sigur însă că va fi perfecționat și vor pune și o plată pentru serviciul oferit“, a adăugat el.
Din păcate, sunt puține moduri prin care răspândirea poate fi oprită, dar important este că tot mai multă lume conștientizează fenomenul. Companii precum Facebook și Google, dar și cei care produc instrumente pentru crearea de deepfake au început să investească tot mai serios în contracararea lor. Anul trecut, Congresul american a introdus o nouă lege cu ajutorul căreia victimele să încerce să-și repare reputația în instanță.
Între timp, Patrini dă asigurări că Sensity va continua să caute, să găsească și să raporteze aceste deepfake-uri. „Datele pe care le prezentăm în raportul nostru sunt doar vârful aisbergului“, mai spune acesta.
Cât de deep și cât de fake
Amenințarea conținutului video falsificat, așa-numitul deepfake, este tot mai puternică.
- Început. Din 2017, termenul deepfake s-a format din două noțiuni – deep learning și fake. Primele deepfake-uri care au devenit virale chiar au fost cele în care președintele de atunci, Barack Obama, folosea un limbaj vulgar la adresa lui Donald Trump sau în care Mark Zuckerberg recunoștea că adevăratul scop al rețelei Facebook este să-și manipuleze utilizatorii.
- Creștere. Cantitatea de deepfake din online crește rapid. Dacă la începutul lui 2019 erau aproape 8.000 de clipuri deepfake online, după mai puțin de un an, numărul acestora ajunsese la peste 14.000, potrivit Deeptrace.
Acest articol a apărut în numărul 102 al revistei NewMoney.