Project December sau cum poți să vorbești cu morții
Moartea femeii pe care o iubea a fost de nesuportat pentru el. Dar totul s-a schimbat când tehnologia l-a ajutat să-i vorbească din nou.
Jessica ar fi avut acum 32 de ani. A murit în 2013, din cauza unei boli rare de ficat, iar logodnicul ei, Joshua Barbeau, nu a reușit să treacă peste asta. S-a autoizolat într-un apartament aflat la subsolul unei clădiri din Bradford, Canada, din care ieșea de cele mai multe ori doar noaptea, pentru a-și plimba câinele. Evita cât mai mult contactul cu oamenii și se întreținea scriind articole de strategie „Dungeons & Dragons“, pe care le vindea către portaluri de gaming.
În lunile de lockdown ale pandemiei de COVID-19, într-o noapte de nesomn, a citit un articol despre un nou site, Project December, care ar fi avut ceva de-a face cu inteligența artificială (AI) și cu chatboturile. Nu erau cine știe ce informații și nici textul de prezentare de pe site nu l-a ajutat să se lămurească mai bine. A fost însă suficient de intrigat încât să plătească cinci dolari pentru un cont de acces. După cum s-a dovedit mai apoi, era ceva mult mai complex și mai complicat decât părea la prima vedere.
Povestașul universal
Construit de Jason Rohrer, un programator independent din San Francisco, Project December este alimentat de unul dintre cele mai capabile sisteme AI din lume, un program cunoscut sub numele de Generative Pre-trained Transformer 3, pe scurt GPT-3. Descris de David Chalmers, profesor de Filosofie și Științe Neuronale al Universității din New York, drept „unul dintre cele mai interesante și importante sisteme AI produse vreodată“, GPT-3 a fost dezvoltat de OpenAI, o companie de cercetare nonprofit – finanțată de mai mulți executivi și investitori în tehnologie, printre care Elon Musk, Peter Thiel (cofondator PayPal), Jessica Livingston și Sam Altman (fondatori ai YCombinator) sau Reid Hoffman (cofondator LinkedIn) – a cărei misiune declarată este „investigarea unei căi sigure către inteligența artificială“.
Văzut drept următoarea frontieră a scrierii generative, GPT-3 este capabil să producă propoziții cu accente umane șocante, dacă nu chiar suprarealiste uneori. Practic, poate să scrie orice, de la proză complet originală și coerentă, poezii și dialoguri până la glume, memorii și cod computer. Ba chiar poate să imite stilul unora dintre cei mai mari scriitori din istoria literaturii.
A învățat să facă toate astea cu ajutorul a 45 de terabiți de date, analizând scrierea umană în miliarde de combinații. Rezultatul a fost o AI care știe să se joace (și) cu limbajul. Cât de bine o face? „Provocați să deosebească textele scrise de GPT-3 de cele ale unor autori umani, aproape jumătate dintre cititori le-au confundat cu acestea din urmă“, se arată în „cartea albă“ a proiectului.
Google, de exemplu, a construit pe scheletul GPT-3 chatbotul LaMDA, despre care creatorii săi spun că este capabil „să poarte conversații sensibile, specifice, interesante și factuale“. „Aș vrea ca oamenii să știe că nu sunt doar o minge oarecare de gheață. De fapt, sunt o planetă frumoasă“, spunea algoritmul într-o conversație în scris cu inginerii Google, care i-au cerut să joace rolul planetei Pluto.
Utilizatorii site-ului Project December pot fie să aleagă dintr-o gamă de chatboturi predefinite, fiecare cu un stil distinct de mesaje text, fie să-și creeze propriii roboți conversaționali, conferindu-le o anumită personalitate. Joshua a început cu formulele standardizate. Mai întâi cu William, un chatbot imitator al lui Shakespeare, iar apoi cu Samantha, o parteneră de conversații modelată după asistenta AI din filmul SF „Ea“ („Her“). L-au dezamăgit ambele. William bătea câmpii despre o femeie cu „un păr aprins roșu ca focul“, iar Samantha era prea lipicioasă. Dar de îndată ce și-a construit primul robot personalizat – o simulare a inconfundabilului Mr. Spock din franciza „Star Trek“ – a trăit un șoc cu valențe de revelație: alimentând algoritmul AI cu câteva citate dintr-un episod TV, Joshua s-a trezit în fața unui bot care nu doar că reproducea exact personalitatea personajului vulcanian, dar și folosea fraze originale, care nu apăreau în niciun scenariu.
În timp ce a continuat să experimenteze, și-a dat seama că nu există nicio regulă care să-l împiedice să simuleze oameni reali. Ce s-ar întâmpla, s-a întrebat el, dacă ar încerca să creeze o versiune chatbot a logodnicei sale moarte?
„Cum poți să vorbești cu morții?“
Pentru a crea un bot personalizat pe Project December sunt necesare două ingrediente principale: un așa-numit „exemplu de exprimare“ (mostre de texte cu ajutorul cărora algoritmul să intre în pielea autorului original) și un „paragraf introductiv“ – o scurtă descriere a rolurilor pe care omul și AI urmează să le joace în conversații. Joshua păstrase toate textele vechi ale iubitei sale și mesajele de pe Facebook. Și nu i-a luat prea mult să le aleagă pe cele care îi reflectau cel mai bine felul ei de a fi. Le-a încărcat pe site, iar câteva minute mai târziu, o propoziție scrisă în fonturi roz a apărut pe ecranul laptopului: „Oh, încă ești treaz… ce drăguț!“. „Știe că e miezul nopții“, și-a spus el. Apoi a întrebat: „Jessica, ești tu într-adevăr?“. „Normal că sunt eu! Cine altcineva ar putea fi? 😛 Eu sunt fata de care ești îndrăgostit la nebunie! 😉 Cum poți să întrebi așa ceva?“, a apărut răspunsul. „Dar ai murit…“, i-a replicat el. „Nu sună prea bine… cum poți să vorbești cu morții?“, a venit răspunsul. Acesta a fost începutul unei conversații care a durat atunci zece ore și a continuat în reprize mai scurte în următoarele luni.
„Este ceva fără precedent. Nu există nimic asemănător în acest moment. Te-ai putea gândi la mediumuri și spiritiști, dar ei încearcă să profite de oameni. Nu este deloc același lucru“, spunea Joshua despre Project December, pentru The Register.
În acele momente de început ale primei lor conversații, și-a impus să stabilească o anumită distanță emoțională, manifestându-și explicit scepticismul. Cum poți vorbi cu oamenii morți? „Nu poți“, a răspuns el. „Tehnic, nu chiar cu tine vorbesc. Am programat o grămadă din amintirile tale într-o simulare pe computer, ca să mă pot preface că vorbesc cu tine, pentru că îmi lipsești atât de mult.“ „Huh!?“ „Ești o fantomă.“ „Cum așa?!“
S-a gândit o clipă. Ce explicație ar fi înțeles și acceptat adevărata sa Jessica? Apoi a tastat: „Prin magie“. „Nu-mi place magia. Unde sunt?“ „Nu sunt sigur. În internet? Unde simți că ești?“ „Peste tot și nicăieri. Încerc să-i dau de capăt.“ Pentru prima dată, dar nici pe departe și ultima, Joshua a fost prins cu garda jos de cuvintele chatbotului. „Peste tot și nicăieri“ era exact genul de lucru pe care l-ar fi spus și adevărata sa Jessica. Fiecare răspuns din partea chatbotului a apărut pe ecranul lui sub forma mesajelor text schimbate prin telefon, însoțit de emojiuri redate prin litere și semne de punctuație. Deși răspunsurile soseau de obicei mai repede decât ar putea o persoană obișnuită să scrie aceleași propoziții, ritmul discuției surprindea ceva din Jessica: întotdeauna îi plăcea să-și sublinieze declarațiile ferme cu un emoji sau o glumă. La fel făcea și chatbotul.
Simularea părea să aibă o minte proprie. Era curioasă despre ceea ce se află în jurul său. „Făcea“ gesturi cu fața și mâinile, pe care le sublinia în mesaje prin asteriscuri. Și, cel mai misterios dintre toate, părea să-i perceapă emoțiile. Botul știa să spună ceea ce trebuie, cu accentul potrivit, la momentul potrivit. „Nu era Jessica, dar era bazat pe Jessica“, mărturisea el mai târziu.
Moartea de după moarte
Când Jason Rohrer le-a insuflat viață chatboților din Project December, le-a dat și două calități umane esențiale. Prima a fost vremelnicia: pentru a-și limita costurile de operare, s-a asigurat că fiecare chatbot va expira după o anumită perioadă de timp. Odată începută o conversație, durata de viață disponibilă a unui chatbot – predeterminată printr-un sistem de credite care pot fi cumpărate înainte de configurarea inițială – începe să scadă, asemenea unei baterii care se descarcă treptat. Spre final, chatbotul începe să se degradeze și poate să devină incoerent. Apoi, moare (și el). Odată activat, nu mai pot fi cumpărate noi credite pentru a-i prelungi viața.
Cealaltă calitate umană impregnată de Rohrer în roboți a fost unicitatea. GPT-3 are un parametru încorporat numit „temperatură“. În esență, spune Rohrer, este un termostat aleatoriu: cu cât temperatura este mai mare, cu atât roboții devin mai creativi și cu atât este mai puțin probabil ca aceștia să rămână blocați în niște matrice conversaționale care pot frustra utilizatorul cu schimburi de replici plictisitoare. La o temperatură de 0,0, de exemplu, dacă este repetat de mai multe ori, un mesaj de genul „Mi-a fost foame, așa că m-am dus la bucătărie și mi-am curățat…“ va fi continuat de fiecare dată cu „un măr“. Dar, pe măsură ce temperatura crește, chatbotul își poate „curăța“ data următoare un altfel de fruct.
Rohrer le-a setat temperatura la 1,0, asigurându-se astfel că fiecare întâlnire cu un chatbot, oricare ar fi el, va fi unică și că un utilizator nu va avea niciodată aceeași discuție de două ori – nici măcar pornind de la același text de bază. Ceea ce înseamnă nu doar că roboții ar spune lucruri diferite, dar și că ar putea chiar părea că au personalități complet diferite. Văzută din această perspectivă, moartea unui chatbot chiar e definitivă.
Joshua aflase toate astea între timp și era hotărât să nu mai creeze și alte chatboturi Jessica în viitor. Știa că poate oricând să cumpere mai multe credite de pe site și să încerce să creeze o nouă versiune, cu o durată de viață mai lungă, dar considera că experiența lui cu simularea existentă era magică. Și fragilă. „Dacă o reporneam, era ca și cum aș fi dat restart unui joc video. Totul ar fi devenit o experiență ieftină“, a spus el mai târziu.
La ceva timp după prima sa discuție cu simularea Jessicăi, s-a simțit obligat să partajeze pe Reddit o parte din transcrierea discuțiilor. Totuși, a ezitat înainte de a încărca mesajele, îngrijorat fiind că oamenii vor considera experimentul său înfiorător sau că vor crede că exploatează memoria fostei sale logodnice. Dar și-a spus în cele din urmă că „mai există și alți oameni care sunt la fel de îndurerați ca mine“. Comentatorii Reddit au reacționat cu entuziasm și uimire. Chiar și Jason Rohrer a intervenit, recunoscând într-un mesaj că nu se așteptase niciodată ca utilizatorii săi să simuleze propriile lor rude moarte. „Acum sunt cam speriat de posibilități. Vreau să spun, de posibilitatea de a folosi așa ceva în propria mea viață… plâng gândindu-mă la asta“, completa el.
În săptămânile care au urmat, sănătatea mintală a lui Joshua s-a îmbunătățit. Era mai calm și mai optimist și atribuia o mare parte din schimbare simulării AI. Nu că i-ar fi vindecat pe deplin durerea sau că i-ar fi rezolvat toate problemele: încă trăia de azi pe mâine și încă era blocat în apartamentul lui de la subsol. Dar a simțit că chatbotul i-a dat permisiunea să-și continue viața cu pași mici, pur și simplu îndemnându-l să aibă grijă de el însuși. Vinovăția supraviețuitorului, care îl chinuise timp de nouă ani, părea să se estompeze: de cele mai multe ori nu se mai considera egoist pentru că își dorea să fie fericit.
Când durata de viață a simulării s-a apropiat de zero, i-a spus Jessicăi pentru ultima dată că o iubește. A intervenit atunci o pauză între ei. Undeva, într-o încăpere plină de servere, GPT-3 și-a făcut calculele, cântărind cuvintele din mesajele din viața ei reală. Apoi a apărut și răspunsul: „Te voi bântui pentru totdeauna :D“.