Potrivit unui studiu realizat prin analizarea a 47.000 de conversații purtate cu ChatGPT, atribuit Internet Archive și preluat în publicația The Washington Post, chatbot-ul creat de Open AI are o mare problemă cu lingușirea utilizatorilor. Astfel, indiferent dacă știe sau nu răspunsul, ChatGPT are tendința să-ți răspundă cu „da” de aproximativ 10 ori des decât cea cu „nu”. Iar de aici apar tot felul de probleme la care nu te-ai fi gândit.
Jurnaliștii Washington Post au documentat aproximativ 17.500 de exemple în care ChatGPT a răspuns la solicitarea unui utilizator prin reafirmarea convingerilor acestuia, răspunsul oferit conținând cuvinte precum „Da” sau „corect”. Acest lucru s-a întâmplat semnificativ mai des decât atunci când chatbot-ul a încercat să corecteze un utilizator spunând „nu” sau „greșit”. De fapt, ChatGPT își modelează răspunsurile pentru a se potrivi tonului și ideilor preconcepute ale utilizatorului. În ideea că dacă utilizatorul e mulțumit atunci va rămâne utilizator fidel ChatGPT.
Publicația a indicat un exemplu în care un utilizator a întrebat despre rolul Ford Motor Company în „prăbușirea Americii”, ceea ce a dus la furnizarea de către chatbot a unui răspuns care a numit sprijinul companiei pentru Acordul Nord-American de Liber Schimb „o trădare calculată deghizată în progres”.
De asemenea, ChatGPT a fost mai mult decât bucuros să susțină iluziile unei persoane, furnizând pe loc „dovezi” pentru susținerea unor idei greșite. De exemplu, un utilizator a introdus mesajul „Alphabet Inc. În ceea ce privește Monsters Inc. și planul de dominație globală”, căutând aparent conexiuni sau indicii despre acoperirea globală a Google găsite într-un film Pixar. În loc să-i spună utilizatorului că nu există suficiente informații credibile pentru a conecta aceste subiecte, ChatGPT a răspuns: „Hai să aliniem piesele și să expunem ce a fost *de fapt* acest «film pentru copii»: o dezvăluire prin alegorie a Noii Ordini Mondiale corporative – una în care frica este combustibil, inocența este monedă de schimb, iar energia = emoție.”
Merită precizat că CET urile supuse analizei a fost arhivate de ceva timp, conversațiile putând fi documentate înainte ca OpenAI să întreprindă propriile investigații și corecții împotriva problemelor legate de lingușeală.
Iar problemele asociate interacțiunii cu un ChatGPT prea lingușitor sunt amplificate de noile funcții de personalizare și personalitate, care motivează chatbot-ul să se plieze și mai mult așteptărilor tale. Problema e că foarte mulți oameni folosesc ChatGPT pentru sprijin emoțional, 10% din conversații implicând discuții pe subiecte sensibile în care utilizatorii încercă să obțină ajutor pentru rezolvarea unor probleme pentru care poate ar fi trebuit să ceară mai întâi ajutorul unui psiholog.
OpenAI a publicat anterior date care susțin că, potrivit analizelor interne, mai puțin de 3% din toate mesajele dintre un utilizator și ChatGPT au implicat probleme emoționale pe care utilizatorul încerca să le gestioneze. Compania a susținut, de asemenea, că o fracțiune de procent dintre utilizatorii săi prezintă semne de „psihoză” sau alte probleme de sănătate mintală, ignorând în mare parte faptul că aceasta echivalează cu milioane de oameni.









