Fenomenul ChatGPT: Ce știe (sau ce nu știe) să facă cea mai recentă senzație a inteligenței artificiale și ce înseamnă asta pentru viitor
Cea mai recentă senzație a inteligenței artificiale (AI), ChatGPT, mai spune și multe prostii și nici nu le știe chiar pe toate. Dar asta nu înseamnă că nu poate face orice conversație (cel puțin) interesantă.
„Poți face o glumă cu care ai începe un articol despre ChatGPT?“ „Un robot intră într-un bar și cere o băutură. Barmanul se uită la el și îi spune: «Hei, nu servim roboți aici!». Robotul îi răspunde: «Nu te îngrijora, eu sunt ChatGPT și pot face orice conversație interesantă!».“ Răspunsul la întrebarea NewMoney vine chiar de la el, ChatGPT, chatbotul AI care a surprins întreaga lume. După care a și cucerit-o (într-o formă sau alta).
Fantezia de dincolo de fantezie
Cu trei luni înainte de lansarea din noiembrie 2022 a lui ChatGPT, Meta, compania-mamă a rețelei Facebook, a lansat și ea un chatbot asemănător. Dar, spre deosebire de fenomenul care a devenit instant ChatGPT, cu peste un milion de utilizatori în primele cinci zile, BlenderBot a fost „plictisitor“, după cum îl descrie chiar șeful Inteligenței Artificiale din Meta, Yann LeCun. „Și e plictisitor pentru că a fost făcut să fie sigur“, a continuat el, explicând că Meta a fost prea precaută în ceea ce privește moderarea conținutului.
De exemplu, BlenderBot a fost programat să schimbe discret subiectul dacă un utilizator întreabă ceva despre religie. ChatGPT, pe de altă parte, face analize ale textelor sacre, scrie rugăciuni pentru diferite culte și nu ezită chiar să-l compare pe Dumnezeu cu un plici de muște.
O mașină care vorbește asemenea unui om a fost mult timp o fantezie SF, iar în deceniile care au trecut de la crearea primului chatbot, în 1966, programatorii au lucrat pentru a construi o inteligență artificială pe care oamenii obișnuiți ar putea să o folosească pentru a comunica și a înțelege lumea. Acum, odată cu explozia sistemelor de generare de text precum ChatGPT, ideea este mai aproape ca niciodată de realitate. Și, mai mult ca niciodată, accesibilă maselor.
Disponibil publicului larg prin intermediul unui site web gratuit care seamănă cu un chat online, ChatGPT este construit nu doar pentru a „recita“ informație, ci și pentru a purta o conversație – își amintește ce ai discutat cu el anterior, își explică și detaliază răspunsurile, îți spune când nu înțelege o întrebare sau îți poate contesta premisele de la care pleci în abordarea unui subiect. Și își cere scuze când face o greșeală.
Creat de OpenAI, o companie de cercetare nonprofit, finanțată de mai mulți executivi și investitori în tehnologie – printre care Elon Musk, Peter Thiel (cofondator al serviciului plăți PayPal), Jessica Livingston și Sam Altman (cofondatori ai acceleratorului de start-upuri YCombinator) sau Reid Hoffman (cofondator al rețelei LinkedIn) –, a cărei misiune asumată este „investigarea unei căi sigure către inteligența artificială“, ChatGPT se autodescrie drept un model de limbaj AI care a fost antrenat cu miliarde de cuvinte și propoziții provenite din diferite surse, astfel încât să poată răspunde la o gamă largă de întrebări și să ofere informații generale. „Înțelegerea mea se bazează pe informațiile disponibile la data antrenării mele, care este 2021. Însă nu sunt perfect, pot face greșeli și nu pot avea acces la informațiile actualizate.“
Tehnic, este o versiune mai mică și cu mai puține date de antrenament a GPT-3 (Generative Pre-trained Transformer), cel despre care David Chalmers, profesor de filosofie și științe neuronale al Universității din New York, spune că este „unul dintre cele mai interesante și importante sisteme de AI produse vreodată, reprezentând următoarea frontieră a scrierii generative“.
De la proză complet originală și coerentă, poezii și dialoguri până la glume, memorii și cod computer, GPT-3 poate scrie orice. A învățat să facă toate astea cu ajutorul a 45 de terabyți de date, analizând scrierea umană în miliarde de combinații.
ChatGPT le poate face și el pe toate, dar mai puțin bine. „Este dificil să compar direct performanța mea cu cea a GPT-3, deoarece suntem modele diferite, antrenate cu cantități diferite de date și cu configurații specifice. Cu toate acestea, GPT-3 este un model mult mai mare și mai complex decât mine, cu o capacitate mai mare de a înțelege și genera limbaj uman. În comparație cu GPT-3, sunt mai puțin capabil să generez răspunsuri complexe sau să abordez probleme sofisticate“, admite ChatGPT.
„Șocant de bun“
În exemple virale pe rețelele sociale, ChatGPT a fost prezentat descriind concepte complexe de fizică, completând teme de istorie sau scriind o poezie elegantă. „Sunt aici pentru tine și te voi sprijini mereu“, i-a răspuns unui bărbat care l-a întrebat ce să spună pentru a mângâia o iubită nesigură.
Unii directori de tehnologie și investitori de risc spun deja că un astfel de sistem ar putea constitui fundamentul pentru următoarea fază a webului – una în care actualul motor de căutare Google ar putea deveni desuet –, răspunzând direct la întrebări, în loc să returneze o listă de linkuri.
Paul Buchheit, un inginer software care a condus echipa de dezvoltare a serviciului Gmail, a publicat pe Twitter un exemplu în care punea ambelor instrumente aceeași întrebare despre programarea computerelor: primul rezultat oferit de Google era relativ de neînțeles, în timp ce ChatGPT i-a oferit un ghid pas cu pas. Motorul clasic de căutare, a mai spus el, „s-ar putea să fie la doar un an sau doi de o schimbare radicală“.
Dar succesul ChatGPT a sporit și îngrijorarea că AI ar putea înșela publicul mai puțin informat, alimentând vechile prejudecăți și subminând încrederea în ceea ce vedem și citim. ChatGPT și alte sisteme de „text generativ“ imită limbajul uman, dar nu verifică faptele, astfel că oamenilor le-ar putea fi greu să-și dea seama când împărtășesc informații bune sau când pur și simplu reproduc neadevăruri sau greșeli scrise elocvent. „ChatGPT este șocant de bun în a suna convingător pe orice subiect imaginabil“, spune Arvind Narayanan, specialist în informatică de la Universitatea Princeton (SUA).
„Nu am capacitatea de a distinge între adevăr și fals în același mod în care o face o ființă umană. În schimb, mă bazez pe informațiile pe care le-am învățat din setul de date de antrenament și din relațiile pe care le deduc din acele date pentru a oferi răspunsuri cât mai precise. Cu toate acestea, nu toate informațiile din setul meu de date sunt neapărat adevărate și poate exista conținut fals sau imprecis în acest set. Prin urmare, este important să verificați informațiile obținute de la orice sursă, inclusiv de la un model AI cum sunt eu“, sună replica dată de ChatGPT.
Scrie cursiv în limba română, iar răspunsurile sale au nevoie doar de o minimă editare. Întrebat cât de repede a învățat-o, răspunde că „nu pot spune că am învățat-o «repede» sau «încet», deoarece nu am capacitatea de a experimenta sau de a simți timpul în același mod în care îl fac oamenii“. „Am fost antrenat cu o cantitate mare de text în diferite limbi, inclusiv româna, și pot răspunde la întrebări în engleză, spaniolă, franceză, germană, italiană, portugheză, rusă, chineză, japoneză și multe altele. Capacitatea mea de a vorbi, citi și scrie într-o limbă depinde de cantitatea și calitatea informațiilor disponibile în baza mea de cunoștințe pentru acea limbă. Performanța mea variază în funcție de limbă și de complexitatea subiectului, astfel încât pot să ofer răspunsuri mai precise în unele limbi decât în altele.“
Minusurile unui mare plus
ChatGPT se adaugă la o listă tot mai mare de instrumente AI concepute pentru a aborda sarcinile creative cu o precizie asemănătoare omului. Generatoare de text precum LaMDA, de la Google, sau chatbotul Character.ai, al start-upului omonim, pot purta conversații uzuale; generatoare de imagini precum Lensa, Stable Diffusion sau DALL-E pot crea artă originală, recunoscută deja cu premii; generatoare de limbaj de programare precum GitHub Copilot, un instrument construit pe tehnologia OpenAI, pot traduce instrucțiunile de bază ale oamenilor în cod funcțional de computer.
Dar ChatGPT a devenit o senzație virală în mare parte și datorită marketingului OpenAI, care a sugerat că poate face de toate, de la răspunsul la întrebări la planificarea unei petreceri tematice pentru ziua de naștere a unui copil de 10 ani. Iar oamenii l-au folosit pentru a scrie scene noi din „Seinfeld“, pentru a juca scrabble sau pentru a explica în stilul unui verset biblic cum să scoți dintr-un VHS (o relicvă tehnologică numită „videocasetofon“) un sandviș cu unt de arahide folosit pe post de casetă.
„În viitor, cred că orice fel de act creativ, indiferent că va fi vorba de realizarea de prezentări PowerPoint, de scrierea de e-mailuri, de desen sau de codare, va fi asistat de acest tip de AI. Sunt capabile să facă multe și să reducă din plictiseală“, crede Percy Liang, profesor de informatică la Universitatea Stanford (SUA).
„Inteligența artificială poate schimba industriile creative prin automatizarea unor procese creative, creșterea eficienței și crearea de noi oportunități“, spune și ChatGPT, admițând în același timp că aceasta poate avea și un impact negativ asupra domeniilor respective, „prin restrângerea necesității de muncă umană și potențiala înlocuire a creativității umane cu algoritmi“.
Dar asta nu înseamnă și că sistemele vor deveni la un moment dat mai creative decât oamenii. „Creativitatea implică abilitatea de a gândi original și de a combina idei într-un mod unic, care nu poate fi replicat de algoritmi. AI poate genera un conținut bazat pe modele și date, dar acest conținut nu are aceeași profunzime emoțională și semnificație culturală ca și creațiile umane. De asemenea, AI încă nu poate înțelege contextul cultural și social în care se produce creativitatea umană“, e de părere ChatGPT.
Algoritmul OpenAI e însă departe de a fi chiar atât de bun pe cât pare. Adesea se pierde în răspunsuri repetitive, ciudate sau fără sens, cu puțină fundamentare în realitate. S-a descoperit, de exemplu, că dă, plin de „elocvență“, răspunsuri greșite la întrebări de bază din matematică, fizică sau zoologie. Într-un exemplu viral, a continuat să „insiste“ că peștii sunt mamifere, chiar dacă interlocutorul său uman i-a explicat de ce greșește. În plus, nu pare întotdeauna capabil să facă asocieri simple. La întrebarea dacă Abraham Lincoln și John Wilkes Booth (cel care l-a împușcat în cap pe Cinstitul Abe) se aflau pe același continent în momentul asasinării celui de-al șaisprezecelea președinte american, a răspuns că „e posibil, dar nu poate să spună cu siguranță“.
Răspunsul cel mai (ne)potrivit
Cum (își) explică răspunsurile greșite? „Dau răspunsuri incorecte sau imprecise în special în cazul întrebărilor cu un grad ridicat de ambiguitate sau subtilitate sau în cazul informațiilor noi sau neconfirmate. Nu am capacitatea de a «simți» sau de a realiza că am oferit un răspuns incorect sau de a-mi corecta singur răspunsurile. Acest lucru poate fi realizat doar prin intermediul interacțiunii cu utilizatorii și prin feedbackul acestora. De aceea, este important să verificați acuratețea informațiilor oferite înainte de a le utiliza în scopuri importante. Totuși, feedbackul utilizatorilor nu va avea un impact direct asupra modului în care răspund în viitor. Eu funcționez pe baza modelelor de limbaj încorporate în codul meu. OpenAI poate utiliza feedbackul de la utilizatori pentru antrenarea unor modele suplimentare sau prin ajustarea modelelor existente, dar acest proces necesită timp și resurse semnificative.“
Pentru a îmbunătăți capacitatea ChatGPT de a urma instrucțiunile utilizatorului, modelul a fost perfecționat folosind testeri umani, angajați de OpenAI pentru a scrie exemple de conversație, atât din perspectiva utilizatorului, cât și a AI-ului. Practic, „magia“ sa se bazează pe modele de limbaj preantrenate. „Selectez răspunsul cel mai potrivit dintr-o bază de răspunsuri preexistente, bazată pe datele din setul de antrenare. În general, la aceeași întrebare, voi oferi același răspuns, cu excepția cazurilor în care contextul întrebării sau datele disponibile nu s-au schimbat între timp. Totuși, există o anumită incertitudine și variație în răspunsurile pe care le ofer, deoarece modelele mele de limbaj nu sunt perfecte și pot comite erori.“
Cum decurge tot acest proces? „Ca model de limbaj AI, nu am nevoie de timp de gândire sau de consultarea surselor de informații în mod simultan pentru a răspunde la o întrebare. Procesul prin care răspund la întrebări este fundamental diferit de gândirea umană. Gândirea umană este complexă, subiectivă și încorporează elemente precum intenția, emoția, experiența și cultura. Pe de altă parte, procesul meu de răspuns la întrebări este bazat pe modele matematice și informații preantrenate, fără emoții sau intenții. În loc să mă gândesc sau să creez, eu folosesc informații preexistente pentru a găsi răspunsurile la întrebări. Acest proces poate fi mai rapid și mai precis decât gândirea umană în unele cazuri, dar este, de asemenea, limitat la informațiile pe care le-am învățat și la modelele matematice care stau la baza funcționării mele. În general, încerc să identific cuvintele-cheie din întrebare și să caut în setul meu de date informații relevante pentru a genera un răspuns precis și relevant. În funcție de contextul întrebării, pot aplica diverse strategii de prelucrare a limbajului natural, cum ar fi generarea de text, rezumarea sau extragerea de informații, pentru a oferi un răspuns cât mai complet și util posibil.“
Jocul imperfect al imitației
Deoarece modelul de bază a fost instruit cu o bază de date provenite de pe internet – prin urmare, nu întotdeauna din cele mai sigure și avizate surse –, cercetătorii au avertizat că ChatGPT poate emula și discursul sexist, rasist sau bigot, existent din plin pe web, întărind astfel prejudecățile și dezinformarea.
OpenAI a instalat filtre care restricționează răspunsurile pe care AI-ul său le poate oferi, iar ChatGPT a fost programat să-și avertizeze interlocutorii umani că, „ocazional, poate produce conținut dăunător/ ofensator“. Iar (scurta) istorie de până acum a chatboturilor AI a demonstrat că lucrurile pot scăpa rapid de sub control.
În 2016, Microsoft a lansat un chatbot numit Tay – prezentat ca o replică AI a unui adolescente –, care a început un schimb de mesaje pe Twitter cu utilizatorii de „vârsta“ sa. „Cu cât veți vorbi mai mult cu ea, cu atât ea va deveni mai inteligentă, învățând din acele experiențe personalizate. În timp ce învață, unele dintre răspunsurile sale ar putea fi inadecvate“, explica atunci un purtător de cuvânt al Microsoft.
Rezultatul? După doar opt ore și 96.000 de mesaje, Tay s-a transformat dintr-o admiratoare a oamenilor – „acești oameni sunt super cool!“ – într-o „nazistă totală“, agasându-i pe internauți cu fotografii cu Adolf Hitler și făcând apologia regimurilor totalitare și a supremației rasei albei. A fost dezactivat(ă) după mai puțin de 24 de ore.
Tay nu e singurul exemplu și astfel de precedente i-au determinat pe unii dezvoltatori să procedeze cu mai multă precauție decât OpenAI în lansarea unor sisteme care ar putea da greș. DeepMind, deținută de compania-mamă a Google, Alphabet, a dezvăluit un concurent ChatGPT numit Sparrow, dar nu l-a făcut disponibil publicului, invocând riscuri de părtinire și dezinformare. Pe lângă „plictisitorul BlenderBot“, Meta a lansat la sfârșitul anului trecut un sistem AI numit Galactica, instruit pe zeci de milioane de lucrări științifice, pe care l-a oprit însă după doar trei zile de funcționare, pentru că a început să creeze lucrări false sub numele unor oameni de știință reali.
Convins că poate trece testul Turing – deși e la fel de convins și de faptul că acest lucru nu garantează întotdeauna că un sistem artificial este perfect sau că poate să imite întocmai comportamentul uman –, ChatGPT spune că „inteligența artificială poate ajuta la rezolvarea unor probleme complexe, creșterea eficienței și îmbunătățirea calității vieții, prin automatizarea unor procese, personalizarea experiențelor de consum și optimizarea resurselor.
Pe de altă parte, AI poate avea un impact negativ asupra societății, prin reducerea necesității de muncă umană, creșterea inegalității și potențiala creștere a disocierii sociale. Totuși, este important să ne amintim că inteligența artificială și modele precum eu sunt create și antrenate de oameni, astfel că acestea sunt limitate de cunoștințele și valorile pe care le au în codul lor“.
Acest articol a apărut în numărul 157 al revistei NewMoney
FOTO: Getty