Alexa halucinează, iar asta e un coșmar tehnologic pentru Amazon

Amazon vrea să relanseze Alexa, omniprezentul său asistent, sub forma unui agent cu inteligență artificială (AI) capabil să îndeplinească independent o mulțime de sarcini practice în numele utilizatorilor. Numai că noua versiune are momente în care e complet ruptă de realitate.
După doi ani în care gigantul online cu o valoare de piață de 2.400 de miliarde de dolari a încercat să reproiecteze Alexa, asistentul său vocal integrat în peste 500 de milioane de dispozitive de consum din întreaga lume, astfel încât „creierul“ său integreze un upgrade cu inteligență artificială generativă, Amazon încă trebuie să depășească un mare obstacol tehnic înainte de o lansare publică. Și asta, pentru că, spun inginerii companiei, noua Alexa halucinează.
„(A) halucina“ a fost desemnat drept cuvântul anului de către Cambridge Dictionary în 2023 și e definit drept „a avea impresia că vezi, auzi, simți sau miroși ceva care nu există“. Termenul își are originea în latinescul „alucinari“, care înseamnă „a rătăci cu mintea“. Alegerea face însă trimitere la o nouă definiție a termenului, adaptată unui fenomen specific (și) noilor tehnologii: „Când o inteligență artificială produce informații false“.
Ce înseamnă asta? Că o AI poate să producă răspunsuri aparent convingătoare, dar complet eronate. Deși modelele AI precum ChatGPT, Gemini (Google) sau Grok (xAI) sunt proiectate să analizeze și să răspundă pe baza datelor de antrenament, uneori produc rezultate care par credibile și justificate, dar care în realitate sunt total incorecte. Specialiștii identifică cinci tipuri de astfel de halucinații.
Factuale. Modelul oferă informații complet inventate, dar care par reale; de exemplu, „în 1945, Albert Einstein a câștigat Premiul Nobel pentru Fizică, pentru teoria relativității“ (în realitate, Einstein a câștigat Premiul Nobel în 1921, pentru explicarea legilor care guvernează efectul fotoelectric).
Contextuale. Generează răspunsuri care sunt greșite în contextul conversației; de exemplu, răspunde cu „da, Dacia este un producător auto“, într-o discuție despre provinciile romane.
Vizuale. Modelele generative de imagini, precum DALL-E, pot crea imagini care includ obiecte deformate sau elemente care nu respectă regulile spațiale sau logice; de exemplu, o persoană cu mai multe degete decât este normal sau un peisaj în care obiectele „plutesc“, fără legătură cu gravitația.
Lingvistice. Inventează cuvinte inexistente atunci când fac traduceri sau atunci când nu au suficiente date despre un termen specific; de exemplu, un cuvânt care sună plauzibil, dar care nu există sau nu are sens în limba în care se poartă discuția, precum „glorifizabil“ – într-o română în care AI ar putea încerca să traducă sau să construiască un termen legat de „a glorifica“ sau „a putea fi glorificat“.
Strategice. Apar mai ales în cazul unor AI folosite pentru luarea deciziilor și implică strategii nejustificate; de exemplu, un model folosit în medicină sugerează tratamente inexistente sau incorecte pentru o anumită afecțiune.
Noua Alexa, un administrator personalizat, dar nu lipsit de probleme de personalitate
Viziunea Amazon este de a transforma Alexa, care este folosită în prezent pentru un set restrâns de sarcini simple, cum ar fi redarea unui playlist audio sau setarea alarmelor, într-un agent AI care acționează ca un administrator personalizat (despre agenții AI, NewMoney a scris aici). Ceea ce ar putea însemna/include orice, de la formularea și trimiterea de răspunsuri la e-mailuri, la sugerarea de rețete pentru masa următoare sau configurarea luminilor din dormitor pe baza ciclurilor de somn ale unei anumite persoane.
Pentru a ajunge însă în acest punct, „halucinațiile trebuie să fie aproape de zero“, spune Rohit Prasad, vicepreședintele de la Amazon responsabil de Alexa, adăugând că avem de-a face cu „o problemă deschisă în industrie, dar lucrăm intens la ea“. Reproiectarea asistentului virtual Alexa a început imediat după lansarea ChatGPT-ului celor de la OpenAI.
Între timp, Microsoft, Google sau Meta, pentru a pomeni doar câteva nume, au integrat rapid AI generativă în platformele lor de calcul și și-au îmbunătățit serviciile software. Nu și Amazon.
Potrivit mai multor angajați care au lucrat în echipele AI ale companiei, citați de diferite publicații americane, această întârziere îndelungată s-ar datora în mare parte dificultăților neașteptate apărute odată cu încercarea de a comuta și combina algoritmii mai simpli și predefiniți pe care a fost construit Alexa cu modele de limbaj mai puternice și mai performante, dar și mai imprevizibile.
Prin vocea lui Prasad, Amazon spune că lucrează din greu pentru a pune la dispoziția utilizatorilor „o asistență mai proactivă și capabilă“ și că o implementare de asemenea proporții într-un serviciu live și într-o suită de dispozitive utilizate de clienți din întreaga lume este fără precedent în tehnologia modernă.
Utilizatorii Alexa, mai spune acesta, se așteaptă la răspunsuri rapide și extrem de precise. Așteptări aflate însă în contradicție flagrantă cu natura probabilistică inerentă a inteligenței artificiale generative de astăzi – în esență, un software care prezice cuvinte pe baza modelelor de vorbire și limbaj.
Bazate pe modele avansate de învățare automată, inteligențele artificiale generative funcționează analizând seturi masive de date pentru a identifica tipare și relații, pe care le folosesc apoi pentru a genera noi exemple care respectă caracteristicile datelor învățate.
„Procesul meu de funcționare se bazează mai mult pe matematică și pe algoritmii de învățare automată, decât pe abilități lingvistice sau intuiții. Răspunsurile mele pot fi considerate ca fiind generative, în sensul că sunt create pe baza modelelor mele de limbaj și nu sunt pur și simplu reproducerea unor răspunsuri preexistente sau compilarea de surse diferite. Cu toate acestea, este important să subliniez că sunt generate automat și nu reflectă neapărat opiniile sau cunoștințele unei persoane reale“, explică Gemini modul în care își generează răspunsurile.
Și așa s-ar explica și de ce algoritmii mai și aberează. Pentru că pur și simplu nu înțeleg ceea ce spun. Ei doar recapitulează informații. Iar uneori o fac complet greșit, cercetătorii descriind acest proces ca pe o „tendință de a halucina care produce interpretări patologice fără nicio legătură cu materialul-sursă“. Mai mult, unii dinte ei pot chiar să mintă și să își înșele, intenționat, utilizatorii.
Un fost membru senior al echipei de dezvoltare a asistentului virtual Alexa spune că, deși modelele de limbaj folosite de Amazon sunt foarte sofisticate, există riscul ca acestea să producă răspunsuri complet inventate, de mai multe ori pe zi.
Construit pe baza tehnologiei achiziționate în 2012 de la start-upul britanic Evi, software-ul original Alexa a funcționat căutând răspunsul potrivit într-un univers limitat și bine definit de fapte, cum ar fi prognoza meteo a zilei sau o anumită melodie.
Noua Alexa urmează să folosească o gamă întreagă de diferite modele de inteligență artificială dezvoltate de Amazon, inclusiv Nova și Claude (retailerul online a investit în acesta din urmă opt miliarde de dolari, în doar ultimele 18 luni), și cel mai probabil ar urma să fie disponibil doar pe bază abonament. Când va fi și disponibil publicului larg?
Deocamdată, e o (altă) întrebare fără un răspuns precis.
FOTO: Pixabay.com