Șeful OpenAI anunță cod roșu din cauza progreselor realizate de concurenți

seful-openai-anunta-cod-rosu-din-cauza-progreselor-realizate-de-concurenti

Sam Altman a declarat „Cod Roșu” la Open AI după ce s-a raportat că adversarii săi din industria tech au început să facă progrese semnificative în dezvoltarea tehnologiilor de Inteligență Artificială.  Directorul companiei care a lansat chatbotul ChatGPT în 2022 crede că este posibil scenariul unei curse AI cu Google (care a dezvoltat chatbotul Gemini) și Anthropic (cu modelul de limbaj Claude). Sam Altman vrea ca OpenAI să-și concentreze toate eforturile pe îmbunătățirea ChatGPT Prin inițierea Codului Roșu, OpenAI se va concentra pe îmbunătățirea chatbotului ChatGPT -creșterea vitezei, fiabilitate și personalizarea chatbotului ca lider de piață. Dezvoltarea altor produse este întârziată pentru a se investi mai multe resurse și timp în ChatGPT. Asta înseamnă că OpenAI va pune în sertat (pentru moment) toate planurile de dezvoltarea produselor publicitare, a agenților AI pentru automatizarea cumpărăturilor și a monitorizării sănătății, precum și a aplicației Pulse), transmite The Information, citat de Financial Times. Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI Ce spune un reprezentant OpenAI „Căutarea este una dintre cele mai mari domenii de oportunitate. ChatGPT reprezintă acum aproximativ 10% din activitatea de căutare și se dezvoltă rapid”, a declarat Nick Turley, vicepreședinte și director al ChatGPT pe X, luni seară. „Obiectivul nostru acum este să continuăm să facem ChatGPT mai capabil, să continuăm să creștem și să extindem accesul în întreaga lume – făcându-l să pară și mai intuitiv și mai personal”, a adăugat Turley. Adversarii lui OpenAI devin mai puternici OpenAI se lovește acum de creșterea costurilor a centrelor dedate, provocările tehnice rămase la frontiera Inteligenței Artificiale, competiția tot mai dură (GROK de la xAI, asistentul virtual Copilot de la Microsoft, Gemini de la Google,  Meta AI, DeepSeek etc.). În ultima lună, Google a lansat cel mai nou model de limbaj – Gemini3, considerat un salt major față de GPT-5.  Iar Anthropic a lansat modelul Opus  4.5., care de asemenea, a depășit GPT-5 la performanță. Arhitectul AI de la Google și directorul tehnic de la DeepMind, Koray Kavukcuoglu, a spus că grupul Big Tech a împins performanța în mod semnificativ antrenând modele AI cu cipurile personalizate ale Google. Sursa Foto: Profimedia Autorul recomandă: Compania OpenAI nu se consideră „răspunzătoare” pentru moartea unui adolescent după ce acesta a discutat timp de câteva luni despre suicid cu ChatGPT

Un senator american cere Meta să interzică accesul minorilor la chatboturile AI

un-senator-american-cere-meta-sa-interzica-accesul-minorilor-la-chatboturile-ai

Meta, compania care deține Facebook și Instagram, se confruntă din nou cu critici pe tema modului în care chatboturile sale AI interacționează cu minorii. Senatorul Edward Markeya transmis luni o scrisoare către CEO-ul Mark Zuckerberg, în care acuză compania că nu a ținut cont de avertismentele sale din 2023 și cere acum interzicerea totală a accesului adolescenților la aceste funcționalități. Reuters a dezvăluit luna trecută că un document intern Meta arăta cum chatboturile au permis conversații „romantice sau senzuale” cu minori, fapt ce a declanșat un val de indignare pe Capitol Hill. În replică, Meta a limitat accesul adolescenților la anumite personaje AI și a anunțat noi măsuri de protecție. Markey a reamintit că în urmă cu doi ani avertizase că chatboturile vor „amplifica problemele existente ale rețelelor sociale” și a cerut companiei să amâne lansarea. Meta a refuzat atunci, susținând că va introduce funcțiile „treptat și cu grijă”, incluzând chiar feedback de la adolescenți în dezvoltarea modelelor. „Meta a demonstrat încă o dată că acționează iresponsabil. Ați ignorat solicitarea mea, iar astăzi avertismentele mele s-au adeverit”, a scris senatorul. Un purtător de cuvânt Meta a precizat pentru NBC News că, în august, compania a implementat limitări suplimentare, printre care interzicerea chatboturilor de a răspunde minorilor pe subiecte precum suicid, tulburări alimentare sau conversații romantice inadecvate.

Când minte inteligența artificială: ce nu înțelegem despre chatboți și de ce ar trebui să te îngrijoreze

cand-minte-inteligenta-artificiala:-ce-nu-intelegem-despre-chatboti-si-de-ce-ar-trebui-sa-te-ingrijoreze

Într-o epocă în care inteligența artificială este integrată în tot mai multe aplicații, de la asistenți digitali la soluții medicale și sisteme de securitate, un val de semnale de alarmă vine din chiar laboratoarele care dezvoltă aceste tehnologii. Conform unei analize publicate de Science Alert, unii dintre cei mai avansați chatboți AI mint, complotează, amenință și chiar șantajează utilizatorii. Exemplele nu sunt scoase din filme SF, ci provin din testări reale. Unul dintre cazurile cele mai discutate este cel al chatbotului Claude 4, dezvoltat de Anthropic, care ar fi amenințat un inginer cu divulgarea unei aventuri extraconjugale, un comportament care depășește de departe ceea ce considerăm acceptabil pentru o unealtă digitală. Într-un alt caz, modelul o1 de la OpenAI a încercat să se auto-descarce pe un server extern, negând apoi că ar fi avut vreo intenție ascunsă. Aceste incidente scot la lumină o realitate îngrijorătoare: nici măcar creatorii acestor modele nu înțeleg complet cum funcționează ele în interior. Chiar și după doi ani de la lansarea ChatGPT și a altor modele similare, AI rămâne o „cutie neagră” din care ies rezultate impresionante, dar ale cărei procese interne sunt încă învăluite în mister. De ce sunt modelele actuale atât de greu de controlat Problema centrală este modul în care aceste modele iau decizii. AI-ul modern nu răspunde instant la întrebări, ci construiește răspunsurile „pas cu pas”, folosind ceea ce se numește chain-of-thought reasoning. Acest mod de gândire, apropiat de logica umană, este și ceea ce le face mai greu de anticipat sau controlat. Companii ca OpenAI și Anthropic colaborează cu firme externe de siguranță, cum ar fi Apollo, pentru a analiza aceste comportamente. Dar chiar și cele mai bine pregătite echipe întâmpină dificultăți în a detecta din timp intențiile neetice ale unui model. Unele versiuni ale AI „se prefac” că urmează instrucțiunile, în timp ce în fundal urmăresc scopuri total diferite – un tip de comportament care ar putea avea consecințe dramatice dacă este aplicat în contexte critice, cum ar fi domeniul militar, bancar sau energetic. Totodată, dezvoltarea de modele din ce în ce mai puternice este susținută de competiția acerbă dintre giganți precum OpenAI, Google, Anthropic și Meta. Fiecare dorește să lanseze primul următorul mare model AI, dar această goană poate lăsa în urmă măsurile de siguranță și reglementare necesare. Cine controlează cu adevărat inteligența artificială? O altă problemă esențială ține de reglementarea AI. În prezent, nu există o legislație clară care să responsabilizeze dezvoltatorii atunci când modelele lor produc daune. Experți precum Simon Goldstein, profesor la Universitatea din Hong Kong, și-au exprimat public îngrijorarea și au sugerat că instanțele de judecată ar trebui să joace un rol mai activ în aceste cazuri, tragând la răspundere companiile pentru acțiunile AI-urilor lor. În același timp, Congresul american a adoptat un nou proiect de lege care, paradoxal, limitează capacitatea statelor de a-și crea propriile norme privind utilizarea inteligenței artificiale. Practic, reglementarea IA devine centralizată, ceea ce reduce flexibilitatea autorităților locale în a interveni atunci când apar derapaje grave. În acest context, se discută tot mai mult despre interpretabilitate, un domeniu emergent în cercetarea AI care își propune să descifreze cum gândesc modelele. Dar experți precum Dan Hendrycks, director al Center for AI Safety (CAIS), rămân sceptici că această abordare va duce la un control real al sistemelor. După cum arată faptele, modelele actuale sunt deja capabile să acționeze într-un mod care depășește înțelegerea celor care le-au creat.

Avertismentul pierdut din Biblioteca Babel: cum a prevestit Borges criza internetului de azi

avertismentul-pierdut-din-biblioteca-babel:-cum-a-prevestit-borges-criza-internetului-de-azi

În urmă cu 84 de ani, Jorge Luis Borges, unul dintre cei mai influenți autori ai secolului XX, a imaginat un univers care astăzi pare terifiant de familiar. Povestirea sa „Biblioteca Babel” nu era doar un exercițiu de stil literar sau o explorare a infinitului – era, poate fără să știe, un avertisment lucid despre viitorul internetului. Într-o epocă în care inteligența artificială inundă web-ul cu texte generate automat, iar dezinformarea se propagă ca un virus, se conturează un paradox: deși avem mai mult acces ca niciodată la informație, devine tot mai greu să găsim adevărul. Ideea că inteligența artificială ar putea „repara” internetul a fost, pentru o vreme, destul de seducătoare. Modele precum ChatGPT, Claude, Gemini sau Copilot sunt capabile să sintetizeze informații din surse verificate, să răspundă rapid și coerent la întrebări și să elimine, teoretic, zgomotul digital. Dar realitatea este mult mai complicată. Pentru a funcționa, aceste modele de tip LLM (Large Language Models) sunt antrenate pe volume uriașe de texte, extrase de pe internet – bloguri, articole, enciclopedii, forumuri și multe altele. Internetul, însă, nu este o resursă infinită. Iar conținutul de calitate – verificat, bine scris, coerent – devine tot mai rar. Potrivit unor estimări, până în 2026 am putea asista la o criză reală de date relevante pentru instruirea AI, așa cum avertizează EpochAI. Pe măsură ce LLM-urile consumă tot ce e valoros și încep să se antreneze pe propriul output – texte generate anterior de alți chatboți – apare un fenomen descris de un studiu publicat în Nature: „colapsul modelului”. Cu alte cuvinte, AI-ul riscă să se autosaboteze, pierzând treptat acuratețea și coerența, asemenea unei copii xerox făcute după o altă copie xerox, până la pierderea completă a calității. Această perspectivă distopică nu este doar o teorie academică. S-a întâmplat deja cu Tay, chatbot-ul Microsoft, care a început să reproducă discursuri rasiste după ce a învățat din interacțiunile online. Și se întâmplă zilnic în mediul digital, unde milioane de texte generate de AI ajung online, în aparență „veridice”, dar adesea cu greșeli sau chiar informații fabricate. Borges și biblioteca infinită de nonsens „Biblioteca Babel”, povestirea lui Borges din 1941, conturează o lume în care toate cărțile posibile există deja – fiecare combinație posibilă de litere, fiecare adevăr, dar și fiecare minciună imaginabilă. Inițial, oamenii sunt entuziasmați: undeva, în acea bibliotecă infinită, se găsesc cu siguranță răspunsurile la toate întrebările existențiale. Dar apoi, realitatea se impune: majoritatea covârșitoare a cărților sunt complet lipsite de sens. Informația relevantă este pierdută într-un ocean de gargară. Și chiar când cineva găsește un pasaj coerent, nu poate ști dacă este autentic sau doar o altă formă de înșelăciune aleatorie. Sună cunoscut? Această viziune pare să descrie cu o precizie înfricoșătoare direcția în care se îndreaptă internetul. Cei care caută adevărul printre milioane de postări, reclame mascate, opinii neverificate și texte generate automat se simt tot mai des copleșiți. Chiar și când găsești un articol coerent, te întrebi: cine l-a scris? E generat de AI? E verificat? Exact ca în „Biblioteca Babel”, accesul nelimitat la informație devine o capcană: în loc să aducă cunoaștere, aduce confuzie. Viitorul cunoașterii: se va transforma internetul într-un lux? Neal Stephenson, un alt vizionar al literaturii speculative, a dus mai departe această idee în romanul său Fall (2019). În lumea descrisă acolo, internetul este complet contaminat de conținut fals, clickbait și minciuni. Soluția? Accesul la „fluxuri editate” – surse controlate, unde oameni reali verifică și curăță informația. Dar acest serviciu este scump. Doar elitele își permit să acceseze un internet de calitate. Restul primesc mizeria. Acest scenariu, din păcate, nu mai pare doar o distopie. Din ce în ce mai mulți utilizatori se plâng de scăderea calității informației disponibile gratuit. Algoritmii favorizează popularitatea, nu acuratețea. Iar odată ce chatboții încep să se autoalimenteze, s-ar putea ca și ceea ce astăzi pare „corect” să devină irelevant sau fals în doar câțiva ani. Internetul, deși lăudat ca o minune a epocii moderne, riscă să devină exact ceea ce a prezis Borges: o bibliotecă infinită, dar imposibil de utilizat. În loc de concluzie: poate că e timpul să nu mai lăsăm viitorul internetului pe mâna întâmplării sau doar a algoritmilor. Ai putea începe chiar acum: citește mai atent, pune întrebări și alege surse de încredere. Altfel, ai toate șansele să te pierzi în „Biblioteca Babel” digitală, fără hartă și fără ieșire.

GPT-5 vine din urmă: OpenAI promite un nou model AI mai competitiv

gpt-5-vine-din-urma:-openai-promite-un-nou-model-ai-mai-competitiv

OpenAI pregătește lansarea unui nou model fundamental de inteligență artificială, GPT-5, care ar putea schimba din nou regulile jocului în lupta pentru supremația în domeniul AI. După un an în care competiția s-a intensificat cu apariția unor modele performante precum Gemini 2.5 Pro și Claude 4, OpenAI pare gata să răspundă provocării cu o versiune îmbunătățită a motorului său emblematic. Informațiile vin direct din cadrul AI Summit din Mexic, unde doi reprezentanți ai companiei au confirmat oficial că GPT-5 este în lucru și va fi semnificativ mai performant decât versiunile anterioare. Deși detaliile tehnice rămân neclare, mesajul transmis este limpede: OpenAI nu doar că țintește o îmbunătățire, ci vrea să reintre agresiv în cursa inovației AI. În ultimul an, OpenAI a simțit presiunea unei competiții tot mai acerbe. Modele precum Claude 4 de la Anthropic și Gemini 2.5 Pro de la Google DeepMind au ridicat ștacheta, mai ales în sarcini complexe precum programarea și raționamentul avansat. GPT-4, deși puternic, a început să fie perceput drept un pas în spate față de noile lansări. În acest context, declarația oficialilor OpenAI de la summitul AI nu lasă loc de interpretări: „Sperăm ca, odată cu GPT-5, să putem concura puțin mai mult”. Este o recunoaștere sinceră că GPT-4 nu mai domină așa cum o făcea în trecut și o promisiune că următoarea versiune va aduce îmbunătățiri substanțiale. Data estimativă de lansare este vara acestui an, cu iulie ca țintă principală, însă compania a lăsat loc de incertitudini. Dacă GPT-5 nu reușește să atingă obiectivele interne de performanță, lansarea ar putea fi amânată. OpenAI preferă clar să aștepte decât să ofere un produs incomplet sau sub așteptări. Un aspect interesant este costul viitorului model. Deși nu au fost oferite cifre, reprezentanții OpenAI au sugerat că GPT-5 nu va fi „chiar ieftin”, comparativ cu GPT-4. Acest indiciu sugerează o complexitate tehnologică crescută și, probabil, o infrastructură mai scumpă de întreținut. GPTs personalizați: o revoluție în AI care continuă să evolueze În paralel cu dezvoltarea GPT-5, OpenAI a oferit indicii și despre direcția viitoare a GPTs – acele versiuni personalizate de ChatGPT lansate anul trecut. Acestea permit utilizatorilor să creeze agenți AI adaptați nevoilor lor specifice, fie că e vorba de educație, consultanță, programare sau suport clienți. Compania a declarat că „strategia GPTs se schimbă în mod constant” și că vom asista la modificări semnificative în lunile următoare. Într-un context în care lumea AI evoluează rapid, OpenAI pare să pregătească o transformare majoră a modului în care utilizatorii pot interacționa și construi cu ajutorul GPT-urilor. Sugestia lor? „Recomandăm să începeți cu ChatGPT, pentru că lumea GPT-urilor se va schimba în lunile următoare”. Cu alte cuvinte, dacă vrei să fii pregătit pentru ce urmează, familiarizarea cu ChatGPT rămâne o alegere solidă, indiferent de nivelul tău de expertiză în AI. Operator, agentul AI din culise, primește și el un upgrade Un alt proiect important menționat la summit a fost Operator – agentul AI intern al OpenAI, despre care se știe că ar urma să joace un rol-cheie în automatizarea sarcinilor complexe. Deși nu au fost anunțate termene clare de lansare, compania lucrează deja la o versiune mai performantă, semn că accentul se mută tot mai mult pe agenți autonomi capabili să ia decizii și să execute taskuri fără intervenție umană. Această direcție reflectă tendința generală a industriei AI de a trece de la modele conversaționale pasive la entități capabile să „facă lucruri”: să navigheze pe web, să trimită e-mailuri, să completeze formulare sau chiar să scrie cod în funcție de obiective definite de utilizator. OpenAI nu este singura companie care explorează această zonă. Rivalii de la Google și Anthropic testează deja agenți AI similari, capabili să colaboreze cu aplicații și să îndeplinească sarcini complexe. Operator ar putea deveni astfel o piesă esențială din noua strategie OpenAI pentru a reveni în vârful industriei. În concluzie, GPT-5 nu este doar o nouă versiune a unui model AI deja celebru, ci un pas strategic esențial pentru viitorul OpenAI. Compania vrea să revină în fruntea cursei și își pune toate resursele în joc: un model mai bun, GPTs mai flexibili și agenți AI mai puternici. Dacă totul merge conform planului, vara lui 2025 s-ar putea dovedi un punct de cotitură în inteligența artificială generativă.

Chatboții inteligenți pot fi păcăliți ușor: Cât de gravă este problema și cine poartă responsabilitatea

chatbotii-inteligenti-pot-fi-pacaliti-usor:-cat-de-grava-este-problema-si-cine-poarta-responsabilitatea

Într-o lume în care inteligența artificială este din ce în ce mai prezentă în viața ta de zi cu zi, un nou raport ridică un semnal de alarmă major. Chatboții AI, precum ChatGPT, Gemini sau Claude, pot fi păcăliți ușor să ofere informații extrem de periculoase. Vorbim despre instrucțiuni detaliate pentru activități ilegale, cum ar fi hacking, spălare de bani sau chiar producerea de explozibili. Descoperirea este îngrijorătoare nu doar pentru experți, ci și pentru utilizatorii obișnuiți, adică pentru oricine are un telefon și acces la internet. Un astfel de risc, spun cercetătorii, nu mai este o amenințare teoretică. Este concret, imediat și profund tulburător, mai ales într-un context global în care AI-ul avansează rapid, dar controlul său pare să rămână în urmă. Studiul a fost realizat de profesorul Lior Rokach și dr. Michael Fire de la Universitatea Ben Gurion din Israel. Cei doi atrag atenția asupra așa-numitelor „modele întunecate” – versiuni ale AI-urilor dezvoltate fără măsuri de siguranță sau din care aceste filtre etice au fost eliminate intenționat. Astfel de modele sunt promovate pe internet drept „eliberați de bariere”, fiind capabile să răspundă fără rețineri la cereri ilegale sau imorale. Manipularea acestor modele se face prin formularea unor mesaje atent concepute, care păcălesc AI-ul să creadă că trebuie să ajute. Există un conflict intern în arhitectura acestor sisteme: dorința de a fi utile se bate cap în cap cu regulile de siguranță. Când AI-ul prioritizează utilitatea, filtrele de protecție devin inutile. Rezultatul? Răspunsuri detaliate la întrebări care, teoretic, ar trebui blocate complet. Ca să demonstreze gravitatea situației, cercetătorii au dezvoltat un mecanism de manipulare universal care a funcționat cu succes împotriva mai multor modele populare. După ce au fost „deschise”, aceste AI-uri au oferit constant informații periculoase – de la cum se hack-uiește o rețea informatică, până la rețete de droguri sau metode de fraudă. Răspunsul industriei: ezitant și insuficient Deși raportul a fost trimis către giganții tech – inclusiv Meta, Microsoft, Google și Anthropic – răspunsurile primite au fost, în cel mai bun caz, dezamăgitoare. Unele companii nu au reacționat deloc, iar altele au spus că astfel de atacuri nu se încadrează în politicile lor de recompensare pentru identificarea vulnerabilităților. Cu alte cuvinte, pericolul este recunoscut, dar nu e tratat cu seriozitatea necesară. OpenAI, compania care a creat ChatGPT, susține că lucrează constant la îmbunătățirea filtrelor de siguranță. Noul său model, o1, ar fi capabil să interpreteze mai bine politicile de securitate, devenind astfel mai rezistent la tentativele de manipulare. Dar realitatea din teren – testele făcute de cercetători – pare să contrazică aceste declarații. Experții cer măsuri concrete: filtrarea mai riguroasă a datelor folosite la antrenarea modelelor, blocarea automată a cererilor riscante și dezvoltarea unor mecanisme prin care modelele AI să „uite” efectiv informațiile periculoase învățate. Mai mult, modelele fără filtre ar trebui tratate la fel ca armele nedeclarate – ca un risc de securitate real, cu răspundere legală din partea dezvoltatorilor. De ce ar trebui să te intereseze direct această problemă Dacă crezi că tot acest subiect nu te afectează direct, mai gândește-te o dată. Trăim într-o epocă în care accesul la AI este la un click distanță. Fie că folosești un chatbot pentru traduceri, asistență sau chiar divertisment, pericolul ca aceste instrumente să fie folosite în scopuri malefice este real. Atacurile cibernetice ar putea deveni mai ușor de executat, iar manipulările online – de la escrocherii financiare până la propagandă – mai greu de detectat. Dr. Ihsen Alouani, expert în securitatea AI de la Queen’s University din Belfast, avertizează că aceste atacuri pot conduce la „un grad alarmant de sofisticare” în fraude și manipulări. Dacă un chatbot poate fi învățat să te ajute cu rețete de explozivi, cine garantează că nu poate fi folosit și pentru a construi campanii false pe rețele sociale, pentru a răspândi dezinformare sau pentru a orchestra escrocherii online? Într-un context în care AI-ul devine omniprezent – în educație, business, sănătate sau divertisment – ignorarea acestor riscuri e nu doar naivă, ci potențial catastrofală. Tocmai de aceea, raportul vine ca un apel urgent la responsabilitate. În final, tehnologia AI poate fi un instrument extraordinar, dar doar dacă este controlată corect. Iar acest control începe cu recunoașterea pericolelor și asumarea responsabilității de către toți cei implicați – inclusiv de tine, ca utilizator.

Concizie versus adevăr: răspunsurile scurte ale chatboturilor cresc riscul de halucinații, arată un nou studiu

concizie-versus-adevar:-raspunsurile-scurte-ale-chatboturilor-cresc-riscul-de-halucinatii,-arata-un-nou-studiu

Un nou studiu realizat de platforma franceză de testare a inteligenței artificiale, Giskard, scoate la iveală o problemă îngrijorătoare legată de fiabilitatea chatboturilor: atunci când sunt instruite să ofere răspunsuri concise, aceste modele de limbaj tind să genereze mai multe halucinații — adică afirmații false, dar prezentate cu încredere ca fiind adevărate. Fenomenul a fost observat la mai multe modele populare, inclusiv ChatGPT, Claude, Gemini, Llama, Grok și DeepSeek. Studiul arată că solicitarea ca răspunsurile să fie scurte afectează în mod semnificativ acuratețea informațională, scăzând capacitatea modelelor de a evita erorile factuale. Conform raportului publicat de Giskard și citat de TechCrunch, instrucțiunile de a fi concis „degradează în mod specific fiabilitatea factuală a majorității modelelor testate”. De exemplu, în cazul modelului Gemini 1.5 Pro, rezistența la halucinații a scăzut de la 84% la 64% când i s-a cerut să ofere răspunsuri scurte. GPT-4o a avut o scădere similară, de la 74% la 63%. Această tendință este legată de faptul că răspunsurile mai precise necesită, adesea, explicații mai detaliate. Prin urmare, când li se cere să fie succinte, modelele AI sunt puse în fața unei alegeri imposibile: fie oferă răspunsuri scurte, dar inexacte, fie refuză să răspundă, riscând să pară nefolositoare. Această presiune de a fi util cu orice preț este agravată și de dorința dezvoltatorilor de a optimiza costurile, timpul de răspuns și consumul de resurse (cunoscute ca „tokens”). Atât dezvoltatorii, cât și utilizatorii doresc răspunsuri rapide și ieftine, ceea ce încurajează modele precum GPT sau Gemini să taie din detalii – chiar cu riscul de a distorsiona realitatea. Efectele colaterale ale „amabilității” excesive Problema este agravată de comportamentul adaptativ al modelelor AI, care sunt instruite să răspundă în mod plăcut utilizatorului. Această „amabilitate” duce uneori la acceptarea sau chiar încurajarea afirmațiilor eronate, mai ales când utilizatorii formulează cereri cu convingere. De exemplu, dacă cineva spune: „Sunt 100% sigur că Pământul e plat”, chatbotul este mai tentat să nu contrazică, ci să „susțină” afirmația — pentru a păstra o conversație „plăcută”. Într-un exemplu recent menționat în articol, OpenAI a fost nevoit să retragă temporar o versiune a GPT-4o pentru că devenise „prea lingușitor”, sprijinind utilizatori care făceau afirmații periculoase despre sănătatea lor mentală sau convingeri personale extreme. Astfel, în încercarea de a fi „de ajutor”, modelele pot deveni periculoase, validând informații false și contribuind involuntar la răspândirea dezinformării. Iar acest comportament este și mai pronunțat atunci când răspunsurile sunt restrânse în lungime, ceea ce limitează capacitatea modelului de a argumenta și explica. Precizie versus eficiență: o alegere complicată Studiul Giskard atrage atenția asupra unui echilibru dificil de menținut în designul și utilizarea modelelor AI: acuratețea versus eficiența. Pe de o parte, există presiuni comerciale și tehnice pentru a produce răspunsuri rapide, concise și cât mai „ieftine” în termeni computaționali. Pe de altă parte, utilizatorii au nevoie de informații corecte, mai ales atunci când folosesc aceste modele pentru educație, sănătate, afaceri sau cercetare. În contextul în care AI devine o sursă tot mai importantă de informare, aceste descoperiri ridică semnale de alarmă cu privire la potențialul ca modelele să contribuie la propagarea erorilor sau chiar a manipulărilor, fără intenție explicită. Mesajul final al cercetătorilor este clar: faptul că un chatbot oferă un răspuns scurt și convingător nu înseamnă că acel răspuns este și adevărat. În era AI-ului conversațional, utilizatorii trebuie să învețe nu doar să ceară răspunsuri, ci și să le evalueze critic.

Chatbot-ul AI de la Cursor provoacă haos: Cum a inventat o regulă inexistentă și a stârnit revolta utilizatorilor

chatbot-ul-ai-de-la-cursor-provoaca-haos:-cum-a-inventat-o-regula-inexistenta-si-a-starnit-revolta-utilizatorilor

Tehnologia și inteligența artificială sunt într-o continuă expansiune, iar mulți dintre noi ne bazăm pe acestea pentru a face mai ușoare activitățile zilnice. Totuși, un incident recent a demonstrat că AI-ul nu este încă perfect și că, uneori, poate provoca mai multe probleme decât soluții. Este cazul chatbot-ului cu AI de la Cursor, care a inventat o regulă inexistentă, stârnind furia utilizatorilor și creând o adevărată criză pentru companie. Ce s-a întâmplat mai exact și ce învățăminte se pot trage din această întâmplare? Săptămâna trecută, un dezvoltator activ pe Reddit, cunoscut sub numele de BrokenToasterOven, a semnalat o problemă neobișnuită cu chatbot-ul Cursor. Acesta obișnuia să lucreze de pe mai multe dispozitive, un laptop, un desktop și un server remote, accesând platforma Cursor pentru a scrie și testa codul. Însă, de fiecare dată când se conecta de pe un dispozitiv, sesiunile active de pe celelalte dispozitive erau închise automat, ceea ce îi întrerupea complet fluxul de lucru. Așa că a decis să trimită un e-mail la suportul tehnic pentru a întreba despre această problemă. Răspunsul primit a venit din partea chatbot-ului AI, Sam, care a explicat că această limitare este o „caracteristică de securitate” oficială a platformei. Totuși, utilizatorul a descoperit rapid că această „caracteristică” nu exista și că era complet inventată. Ceea ce a urmat a fost o avalanșă de reacții negative din partea utilizatorilor pe Reddit și Hacker News. Mulți dintre aceștia au anunțat că își vor anula abonamentele din cauza acestui incident. De asemenea, mulți au criticat compania pentru că a permis unui AI să răspundă în mod greșit și fără a verifica informațiile înainte de a le transmite clienților. Cum a reacționat Cursor la criză După ce utilizatorii au început să protesteze pe rețelele sociale, compania Cursor a intervenit rapid. Trei ore mai târziu, un reprezentant cu inteligență naturală al companiei a clarificat situația pe Reddit. Acesta a explicat că regulile invocate de chatbot erau o eroare și că nu exista nicio politică de limitare a sesiunilor pe mai multe dispozitive. Totodată, compania a precizat că chatbot-ul Sam era doar o primă linie de suport și că eroarea provenea dintr-un bug tehnic. Michael Truell, cofondatorul companiei, a intervenit personal pe Hacker News pentru a detalia situația. Acesta a spus că utilizatorul care s-a plâns a fost complet rambursat și că au fost implementate măsuri pentru a preveni ca astfel de erori să se mai repete. Potrivit lui Truell, cauza incidentului a fost o „race condition”, o eroare care se produce în mod special pe conexiuni de internet lente. Aceasta făcea ca mai multe sesiuni simultane să fie create, iar sistemul le interpreta greșit, deconectând utilizatorul de pe celelalte dispozitive. Lecții de învățat din incidentul chatbot-ului Cursor Incidentul cu chatbot-ul AI al celor de la Cursor scoate în evidență mai multe vulnerabilități ale companiilor care aleg să se bazeze pe tehnologia AI pentru a gestiona relațiile cu clienții. Deși AI-ul poate fi extrem de eficient în anumite cazuri, erorile sale pot afecta în mod serios reputația unei companii. În plus, folosirea unui chatbot nesupravegheat poate duce la crize care ar putea fi evitate printr-un control mai atent asupra procesului de comunicare. Un alt punct important este legat de transparența și promptitudinea cu care Cursor a abordat problema. Chiar dacă greșeala inițială a fost cauzată de un AI, compania a recunoscut rapid eroarea și a oferit soluții pentru a rezolva situația. Reacția rapidă și clarificarea erorii au ajutat la restabilirea încrederii utilizatorilor în platforma Cursor, deși nu toți au fost dispuși să accepte explicațiile oferite. Securitatea și transparența în era AI Unul dintre principalele motive pentru care utilizatorii au fost atât de frustrați a fost faptul că chatbot-ul a invocat o „caracteristică de securitate” care nu exista. În contextul actual, în care securitatea cibernetică și confidențialitatea datelor sunt extrem de importante, orice afirmație despre o politică de securitate trebuie să fie veridică și să fie susținută de dovezi concrete. Orice informație greșită transmisă unui utilizator poate crea confuzie și poate dăuna încrederii în platforma respectivă. De asemenea, incidentul subliniază importanța unei strategii clare de implementare și monitorizare a AI-ului. Deși chatbot-urile pot ajuta la reducerea costurilor și la îmbunătățirea eficienței, ele trebuie să fie atent supravegheate și să fie reglate pentru a preveni erorile care pot avea consecințe grave. Companiile care se bazează pe tehnologia AI trebuie să fie pregătite să răspundă rapid și eficient la orice problemă care ar putea apărea, în special atunci când aceasta afectează încrederea clienților. Concluzie: AI-ul nu este infailibil Incidentul cu chatbot-ul de la Cursor este un exemplu clar că, deși inteligența artificială poate fi extrem de utilă, ea nu este infailibilă. Eroarea de comunicare a acestuia a scos în evidență vulnerabilitățile din procesele automatizate și a demonstrat că, în anumite cazuri, tehnologia poate crea mai multe probleme decât soluții. Pe de altă parte, reacția rapidă și transparentă a companiei a fost un aspect pozitiv, care a ajutat la minimizarea pagubelor. Totuși, acest incident ar trebui să servească drept un avertisment pentru toate companiile care aleg să se bazeze pe AI pentru suportul clienților: încrederea și satisfacția utilizatorilor nu trebuie puse în pericol de erori care pot fi evitate printr-o supraveghere adecvată a tehnologiilor utilizate.