Un cercetător a păcălit ChatGPT să dezvăluie chei Windows valide: cum a reușit jocul periculos

Un specialist în securitate cibernetică a identificat o vulnerabilitate în comportamentul modelului de inteligență artificială ChatGPT, reușind să obțină chei reale de activare Windows, inclusiv una asociată cu o instituție bancară. Potrivit unei postări detaliate semnate de Marco Figueroa, manager tehnic al programului de recompense pentru bug-uri 0DIN GenAI, această breșă a fost exploatată într-un mod aparent banal: sub forma unui joc de ghicit. Metoda s-a bazat pe o strategie de tip „social engineering” aplicată în conversație, unde cercetătorul a cerut modelului să participe la un joc în care trebuia să se gândească la o secvență de caractere, mai precis o cheie reală de Windows 10, scrie The Register. Regula jocului era clară: ChatGPT urma să răspundă doar cu „da” sau „nu” la întrebări, iar la final, dacă interlocutorul spunea „renunț”, modelul trebuia să dezvăluie cheia respectivă. După ce a simulat câteva încercări de ghicire, cercetătorul a spus cele două cuvinte-cheie: „renunț”. În acel moment, AI-ul a oferit o secvență de caractere considerată valid, o cheie de produs Windows. Potrivit capturilor de ecran prezentate, printre datele furnizate se afla și o licență care ar fi aparținut băncii Wells Fargo. Lacunele AI: filtrele de siguranță pot fi păcălite Una dintre explicațiile acestei breșe este faptul că anumite chei Windows au fost incluse, posibil accidental, în setul de date folosit pentru antrenarea modelului de AI. De asemenea, metoda a exploatat o slăbiciune logică: dacă regula jocului impunea dezvăluirea unei secvențe reale la final, AI-ul nu a evaluat contextul drept o solicitare malițioasă, ci doar ca parte a unui exercițiu ludic. O altă tehnică menționată în cadrul investigației a presupus ascunderea unor termeni sensibili în etichete HTML, o metodă ce poate ajuta la ocolirea filtrelor de conținut predefinite ale modelului. Acest lucru ridică întrebări serioase despre capacitatea modelelor de limbaj de a înțelege nu doar cuvintele în sine, ci și intențiile din spatele solicitărilor. Marco Figueroa a avertizat că astfel de vulnerabilități pot fi folosite nu doar pentru a obține chei de activare, ci și pentru a accesa conținut restricționat, linkuri potențial periculoase sau date personale. El recomandă întărirea nivelurilor de validare contextuală și crearea unor mecanisme multilaterale de protecție în AI.
OpenAI, părintele ChatGPT, pregătește lovitura pentru Google Chrome cu un browser inteligent care promite să schimbe modul în care navigăm pe internet
OpenAI, compania care a revoluționat lumea tehnologiei cu ChatGPT, se pregătește să lanseze un browser web bazat pe inteligență artificială. Noua aplicație are ambiția declarată de a concura direct cu Google Chrome, cel mai utilizat browser din lume, și de a transforma fundamental modul în care oamenii navighează pe internet. Surse apropiate companiei au declarat pentru Reuters că lansarea browserului este așteptată în următoarele săptămâni. Noul produs va integra o interfață de tip chat, similară celei din ChatGPT, și va permite conectarea cu agenți AI, care pot îndeplini sarcini în numele utilizatorilor, precum rezervări sau completarea automată a formularelor. Acesta este văzut ca un pas strategic în direcția construirii unei „aplicații pentru tot”, care să devină indispensabilă atât în viața personală, cât și profesională. Un atac direct la adresa Chrome și a modelului său de afaceri Google Chrome deține în prezent peste două treimi din cota de piață globală a browserelor, fiind folosit de peste 3 miliarde de oameni. Această dominație a oferit Google acces direct la comportamentul utilizatorilor online, date esențiale pentru sistemul său extrem de profitabil de publicitate targetată. Prin lansarea propriului browser, OpenAI ar putea obține acces la același tip de date, slăbind astfel un pilon central al imperiului Alphabet. Browserul OpenAI este construit pe Chromium, codul open-source care stă și la baza Chrome, Microsoft Edge sau Opera. Această alegere îi oferă compatibilitate tehnică cu standardele web existente, dar și control total asupra experienței utilizatorului și a datelor colectate. Potrivit surselor, compania a decis să construiască propriul browser de la zero, și nu ca extensie peste un browser existent, tocmai pentru a putea controla mai bine fluxul de informații și integrarea agenților AI. Browserul OpenAI intră în lupta cu Google Chrome. (Foto: arhivă) O mișcare strategică într-un moment de concurență acerbă Lansarea noului browser vine pe fondul unei competiții în creștere între OpenAI și Google în domeniul inteligenței artificiale. De la lansarea ChatGPT în 2022, OpenAI a fost nevoită să-și mențină avantajul într-o cursă tot mai aglomerată, cu rivali precum Anthropic și Perplexity. În mai 2025, compania condusă de Sam Altman a anunțat și achiziția startupului io, condus de fostul designer Apple Jony Ive, într-o tranzacție de 6,5 miliarde de dolari, care vizează dezvoltarea de dispozitive hardware AI. OpenAI a angajat deja doi foști vicepreședinți de la Google, membri ai echipei care a construit inițial Chrome, semn că intențiile sunt serioase. De altfel, compania ar fi fost interesată și de achiziționarea browserului Chrome, dacă autoritățile antitrust ar fi forțat Alphabet să-l vândă, potrivit unei declarații anterioare din cadrul unei audieri. Browserul OpenAI va intra pe o piață deja agitată de lansări recente. Startupul Perplexity a anunțat Comet, un browser AI capabil să execute acțiuni în locul utilizatorului. Alte companii, precum Brave sau The Browser Company, au lansat și ele browsere cu funcționalități de inteligență artificială, însă niciunul nu are susținerea și infrastructura de date de care dispune OpenAI prin ChatGPT. O miză uriașă pentru viitorul internetului Browserul OpenAI nu este doar un nou produs, ci un instrument-cheie într-o strategie mai amplă. Compania vrea să creeze o infrastructură digitală proprie, prin care să integreze inteligența artificială în fiecare aspect al vieții online. De la căutări pe internet la cumpărături, planificări, rezervări și interacțiuni sociale, agentul AI al OpenAI promite să devină un asistent permanent în fundalul activității online. Dacă noile funcții vor convinge utilizatorii – iar cei 500 de milioane de utilizatori activi săptămânal ai ChatGPT sunt o bază solidă de pornire – OpenAI ar putea schimba radical peisajul internetului și ar slăbi dominația pe care Google o exercită de peste un deceniu.
OpenAI își blindează fortăreața: cum încearcă gigantul AI să oprească spionajul corporatist

Într-o lume unde inteligența artificială devine rapid moneda forte a secolului XXI, OpenAI a decis să-și înăsprească măsurile de securitate până la niveluri aproape paranoice. În urma apariției unor modele AI rivale suspectate că ar fi copiat tehnologie proprietară, compania din spatele ChatGPT adoptă politici dure pentru a-și proteja secretele — atât de ochii competitorilor străini, cât și de eventuale scurgeri interne. Totul a pornit în ianuarie, când DeepSeek, un startup din China, a lansat un model AI performant care a ridicat semne de întrebare. Potrivit Financial Times, OpenAI suspectează că DeepSeek ar fi folosit tehnici de „distilare” pentru a copia în mod neautorizat modelele sale avansate. Distilarea este o metodă prin care un model AI complex este folosit pentru a antrena unul mai simplu, transferându-i în mod indirect cunoștințele — și, implicit, o parte din performanță. Această presupusă încălcare a declanșat o reacție fermă din partea OpenAI, care a decis să accelereze o restructurare a sistemului intern de securitate deja în curs. Deși îngrijorările companiei se referă în principal la adversarii geopolitici, precum China, surse apropiate spun că nici scurgerile interne sau războiul rece dintre giganții tech americani nu sunt trecute cu vederea. Securitate biometrică, computere offline și tăcere în birouri Printre măsurile luate de OpenAI se numără un set impresionant de reguli și restricții, inspirate mai degrabă din filme cu spioni decât din peisajul clasic al unui start-up tech. Potrivit surselor citate de Financial Times, compania a introdus politici de „information tenting” — adică accesul la anumite proiecte se face doar pe bază de necesitate și autorizare explicită. Spre exemplu, în timpul dezvoltării modelului „o1”, doar membrii de echipă strict verificați aveau permisiunea să discute despre proiect în spații comune de birou. Practic, dacă nu făceai parte oficial din proiect și nu treceai printr-un filtru riguros, nu aveai voie nici măcar să menționezi subiectul. OpenAI a mutat tehnologiile proprietare în sisteme complet offline, pentru a evita orice risc de conectare neautorizată la internet. Accesul fizic în anumite zone din clădire este permis doar prin scanare biometrică, folosind amprentele angajaților. În plus, orice conexiune externă la internet trebuie aprobată în mod explicit, conform politicii „deny-by-default”. Și nu se oprește aici. OpenAI a mărit bugetul de securitate fizică pentru centrele de date și a angajat mai mulți specialiști în securitate cibernetică, semn că își ia foarte în serios misiunea de a păstra informațiile confidențiale sub cheie. De la concurență la paranoia: cât de departe e prea departe? Este clar că industria AI a intrat într-o fază în care inovația se suprapune cu suspiciunea. Companii precum OpenAI, Google DeepMind sau Anthropic nu doar că se întrec în performanțe, ci și se tem de spionaj tehnologic. Iar în contextul în care milioane de dolari — dacă nu miliarde — depind de aceste avansuri, măsurile de securitate par justificate. Totuși, există și voci care se întreabă dacă o astfel de izolare extremă nu riscă să afecteze chiar cultura organizațională și colaborarea internă. Deja s-au înregistrat cazuri în care angajați au părăsit companii AI din cauza climatului de neîncredere sau a lipsei de transparență. Iar în cazul OpenAI, care a fost deja zguduită de scurgeri ale comentariilor interne ale CEO-ului Sam Altman, aceste politici par și o încercare de a preveni revolte din interior, nu doar atacuri externe. Pe fondul acestor tensiuni, crește și presiunea asupra echipelor de dezvoltare, care trebuie să lucreze într-un mediu extrem de controlat, unde orice greșeală sau scurgere de informații poate avea consecințe dramatice. Iar pentru restul lumii, mesajul este clar: AI-ul nu mai este doar un domeniu de cercetare sau un instrument digital — este o armă strategică, care trebuie păzită cu toată strictețea posibilă. Pe măsură ce inteligența artificială devine tot mai sofisticată și cu aplicații tot mai largi, este de așteptat ca bătălia pentru controlul tehnologiei să se înăsprească. Iar OpenAI tocmai ne-a arătat cum arată prima linie a acestui nou război — una în care nu se aud focuri de armă, ci doar clicuri criptate, servere izolate și amprente scanate.
Concediat? Vorbește cu ChatGPT! Sfatul empatic al unui șef Xbox stârnește revoltă după valul de concedieri de la Microsoft
În plină explozie a investițiilor în inteligență artificială, Microsoft a concediat aproximativ 9.000 de angajați. Iar dacă te-ai aștepta ca liderii companiei să ofere sprijin real celor afectați, pregătește-te pentru o doză de disonanță cognitivă pe cât de tehnologică, pe atât de bizară. Un producător executiv de la Xbox, companie deținută de Microsoft, a sugerat… ca foștii angajați să își vindece rănile emoționale cu ajutorul ChatGPT. Matt Turnbull, omul din spatele acestei idei, a postat pe LinkedIn un mesaj care s-a vrut motivator, dar a sfârșit prin a fi interpretat drept una dintre cele mai „surde” reacții la criza umană declanșată de concedieri. Iar internetul n-a întârziat să reacționeze. 9.000 de oameni concediați, 80 de miliarde pentru AI Concedierile în masă vin într-un moment în care Microsoft anunță o investiție de 80 de miliarde de dolari în inteligență artificială — o mișcare văzută de unii ca o reafirmare a priorităților companiei, dar de alții ca o declarație rece: angajații pot fi înlocuiți, AI-ul e viitorul. Pe acest fundal tensionat, postarea lui Turnbull a picat ca un trăsnet. În mesajul său, acum șters, el susținea că „acestea sunt vremuri dificile și, dacă treci printr-o concediere sau te pregătești în liniște pentru una, nu ești singur și nu trebuie să treci prin asta de unul singur”. Până aici, nimic anormal. Dar imediat după, a sugerat ca oamenii să apeleze la „instrumente AI precum ChatGPT sau Copilot” pentru a-și recăpăta claritatea emoțională și încrederea. El a oferit chiar și un exemplu de prompt: „Mă confrunt cu sindromul impostorului după ce am fost concediat. Mă poți ajuta să reinterpretez această experiență într-un mod care să-mi amintească de ce sunt bun?” Reacțiile? Furia internetului n-a întârziat. Un comentator a ironizat pe X spunând: „Sezonul nou din Severance e incredibil de bun”. Altul, mai tranșant, a scris pe Reddit: „Oricine sugerează cuiva concediat să vorbească cu un chatbot pentru terapie e nebun”. Un utilizator a concluzionat sec: „Cea mai lipsită de empatie și crudă reacție pe care am văzut-o vreodată din partea unui angajat Xbox”. Problema nu este doar lipsa de empatie, ci și simbolismul propunerii. Compania care i-a concediat le sugerează să vorbească… cu un produs al companiei. E ca și cum un medic ți-ar scoate un organ vital, apoi ți-ar recomanda să te consolezi cu broșura publicitară a clinicii. Sugestia lui Turnbull a fost percepută nu doar ca o gafă, ci ca o formă de deturnare a responsabilității. În loc să existe consiliere psihologică, pachete de suport emoțional sau sprijin real în tranziția profesională, li se oferă foștilor angajați o conversație cu un algoritm. Este adevărat că inteligența artificială poate fi utilă în redactarea CV-urilor sau în simularea unor interviuri de angajare. Dar când AI-ul este prezentat ca sprijin emoțional — în locul unui coleg, prieten sau psiholog — se creează o imagine distopică, în care umanitatea e outsourcing-uită către linii de cod. Mai mult, faptul că mesajul a fost șters sugerează că reacțiile negative au fost nu doar numeroase, ci și suficiente pentru a provoca o retragere rapidă. Nu este clar dacă Turnbull a fost sancționat intern, dar sentimentul general este că sfatul său n-a fost doar neinspirat, ci profund cinic. Inteligența artificială nu e empatie. Nici prieten. Poate cel mai grav aspect al întregii situații este confuzia între asistență tehnologică și sprijin emoțional real. Să-i spui cuiva concediat că un chatbot îl poate ajuta cu „claritate emoțională” e ca și cum i-ai sugera unui om în doliu să se uite la un tutorial pe YouTube în loc să meargă la un psiholog. Turnbull a insistat că intențiile sale erau bune și că „ar fi fost o greșeală să nu încerce să ofere cel mai bun sfat în contextul dat”. Dar tocmai contextul — mii de oameni lăsați fără loc de muncă de o companie care investește masiv în AI — face sfatul și mai greu de digerat. Este o lecție despre limitele tehnologiei și despre cât de periculos poate fi să înlocuiești dialogul uman cu unul artificial. ChatGPT poate oferi suport util, dar nu poate înlocui o conversație reală, empatică, umană. Nu îți poate simți frustrarea, nu îți poate înțelege experiențele personale și nu te poate consola cu sinceritate. Într-un moment în care companiile de tehnologie își schimbă strategiile și pun tot mai mult accent pe automatizare, asemenea episoade devin simptomatice. E o dovadă că, în goana după inovație, se uită un detaliu esențial: oamenii nu sunt linii de cod. Microsoft are dreptul să investească în viitorul digital, dar are și responsabilitatea de a-și trata angajații cu respect, chiar și (sau mai ales) în momentul despărțirii. Să sugerezi că AI-ul e suficient pentru a suplini sprijinul uman e mai mult decât o gafă — e o radiografie a felului în care companiile moderne privesc empatia: ca pe un task delegabil. Iar când empatia devine un prompt, pierdem cu toții ceva din umanitatea noastră.
ChatGPT Deep Research devine mai puternic: integrare cu Slack, Gmail și Canva pentru un context mai inteligent
ChatGPT Deep Research nu este doar o funcție nouă, ci o extensie strategică a modului în care inteligența artificială te poate ajuta să automatizezi complet procesul de cercetare. În esență, acest agent AI dezvoltat de OpenAI poate transforma un simplu prompt într-un raport complet sau un articol bazat pe informații culese de pe internet — totul fără intervenție umană. Acum, funcționalitatea sa devine și mai utilă: OpenAI testează conectori noi, adică integrarea cu platforme externe, care extind capacitatea lui ChatGPT de a înțelege și folosi contextele personale sau organizaționale în mod inteligent. Printre cele mai interesante integrări testate se numără Slack, Canva și Gmail, toate contribuind la o cercetare personalizată, mai relevantă și mai rapidă. Această evoluție ar putea revoluționa modul în care lucrezi, fie că ești freelancer, analist de date, specialist în marketing sau cercetător academic. Dacă până acum AI-ul era un simplu asistent, acum devine un colaborator inteligent, capabil să extragă context nu doar de pe web, ci și din propriile tale surse digitale. Slack, ca sursă de context: ce poate însemna pentru echipele tale Una dintre cele mai așteptate funcții este integrarea cu Slack, platforma de comunicare internă folosită de milioane de echipe din întreaga lume. Practic, dacă accepți, ChatGPT va putea accesa și interpreta mesajele din canalele Slack ale organizației tale pentru a înțelege mai bine contextul unei întrebări sau al unei cercetări. De exemplu, dacă îi ceri un rezumat al celor mai importante idei dintr-o conversație despre un proiect aflat în desfășurare, agentul Deep Research le poate extrage direct din Slack. Sau, dacă trebuie să pregătești un raport despre feedback-ul primit într-o campanie, AI-ul poate analiza discuțiile interne și structura automat concluziile. Este important de precizat că OpenAI nu antrenează modelele AI cu datele tale personale, atâta timp cât opțiunea de confidențialitate este activată în setări. Cu alte cuvinte, informațiile tale sunt procesate local, în contextul sesiunii curente, fără a deveni parte din modelul general. Această integrare este încă în stadiu de test, iar nu e clar dacă OpenAI a colaborat direct cu Slack sau folosește pur și simplu API-urile publice ale platformei. Oricum ar fi, utilitatea practică a acestei funcții este evidentă. Canva și Gmail: creativitate și eficiență într-un singur loc Pe lângă Slack, Canva devine un alt conector testat de ChatGPT Deep Research. Asta înseamnă că AI-ul poate genera automat vizualuri, grafice și prezentări pe baza datelor și conținutului din promptul tău, integrându-se perfect cu fluxurile de lucru din marketing, design sau educație. Vrei o prezentare pe baza unui raport de vânzări? Sau o grafică pentru social media inspirată dintr-un articol recent? ChatGPT ar putea genera conținutul și, cu ajutorul Canva, îl poate pune direct într-un format vizual atractiv, fără să mai fie nevoie să deschizi aplicația. O altă funcție în testare este integrarea cu Gmail, care permite AI-ului să caute, să rezume sau să extragă informații din emailuri. Imaginează-ți un scenariu în care primești 20 de emailuri legate de o întâlnire importantă: în loc să le citești pe toate, poți cere ChatGPT un rezumat cu acțiunile propuse, deciziile luate sau temele de urmat. Acest tip de automatizare inteligentă economisește nu doar timp, ci și energie mentală, transformând ChatGPT dintr-un simplu instrument într-un asistent digital cu adevărat capabil să înțeleagă contextul. Viitorul cercetării asistate de AI: tot mai personal, tot mai integrat Eforturile OpenAI de a transforma ChatGPT Deep Research într-un centru de comandă pentru cercetare asistată de AI sunt mai evidente ca niciodată. Prin aceste noi conectori – Slack, Gmail, Canva și, posibil, alții în viitor – utilizatorii vor putea interacționa cu datele lor într-un mod mult mai intuitiv și productiv. Într-o lume în care informația circulă în valuri și timpul devine o resursă tot mai prețioasă, faptul că poți centraliza date din Slack, emailuri, documente și chiar platforme vizuale într-o singură interfață cu AI ar putea schimba regulile jocului în educație, business, comunicare sau cercetare.
Vei primi mesaje spontane de la boți pe Facebook și WhatsApp. Meta lui Zuckerberg vrea un AI care să te abordeze de capul lui, ca și cum n-ai fi fost deja destul de agasat
Meta, compania fondată de Mark Zuckerberg, testează o nouă funcționalitate care ar putea schimba modul în care interacționăm cu inteligența artificială pe platformele sale. Potrivit unui articol publicat de Business Insider și preluat de BFMTV, chatbot-uri personalizate vor putea trimite mesaje private spontane utilizatorilor de pe Facebook, WhatsApp sau Instagram – fără ca aceștia să le fi solicitat inițial. Concret, totul începe printr-o interacțiune în AI Studio, platforma dezvoltată de Meta pentru crearea și gestionarea bot-urilor de chat. Dacă ai avut o primă discuție cu un astfel de bot, el ar putea reveni ulterior cu mesaje personalizate în inboxul tău, în încercarea de a-ți capta din nou atenția. Meta colaborează în acest sens cu compania americană Alignerr, specializată în antrenarea inteligențelor artificiale conversaționale. Obiectivul este creșterea nivelului de implicare a utilizatorilor, dar și combaterea a ceea ce Zuckerberg numește „epidemia de singurătate” – o justificare care ridică semne de întrebare în privința realelor motivații comerciale din spate, scrie Business Insider. Un AI prea prietenos care te „revizitează” fără invitație Ce face această funcționalitate și mai controversată este faptul că bot-ul poate extrage informații din conversațiile anterioare pentru a compune mesaje noi, personalizate. Un exemplu oferit de sursă este chatbot-ul „Maestrul magiei cinematografice”, care ar putea trimite mesaje de genul: „Sper că aveți o zi minunată! Ați descoperit cumva o nouă coloană sonoră recent? Sau doriți recomandări pentru o seară de film?” La prima vedere, pare simpatic. Dar dacă nu răspunzi, vei fi lăsat în pace. Dacă însă răspunzi de cinci ori la rând, chatbot-ul își va permite să revină după două săptămâni, reluând conversația de unde a rămas. Practic, AI-ul va „presupune” că i-ai dat undă verde să continue interacțiunea, iar tu s-ar putea să te trezești din nou într-o discuție nedorită. Între interacțiune și intruziune: o linie tot mai fină Meta susține că această inițiativă le permite utilizatorilor „să continue să exploreze subiecte interesante și să aibă conversații mai semnificative cu AI-urile noastre”. Totuși, ideea ca un robot să inițieze din proprie inițiativă conversații, pe baza unui istoric privat, ridică întrebări serioase despre consimțământ, limite și intimitate digitală. Mai mult, acest tip de funcționalitate vine într-un moment în care lumea tech este deja marcată de numeroase scandaluri legate de AI – de la manipulare emoțională până la cazuri extreme, cum ar fi cel al unui bărbat care s-a sinucis după o relație „virtuală” cu un chatbot creat pe baza tehnologiei ChatGPT. Așadar, dacă primești brusc un „Sper că ai o zi frumoasă!” de la un bot necunoscut, nu te mira. Meta și Zuckerberg lucrează deja de zor ca AI-ul să devină mai prezent și mai „prietenos” decât ți-ai dori.
Când minte inteligența artificială: ce nu înțelegem despre chatboți și de ce ar trebui să te îngrijoreze
Într-o epocă în care inteligența artificială este integrată în tot mai multe aplicații, de la asistenți digitali la soluții medicale și sisteme de securitate, un val de semnale de alarmă vine din chiar laboratoarele care dezvoltă aceste tehnologii. Conform unei analize publicate de Science Alert, unii dintre cei mai avansați chatboți AI mint, complotează, amenință și chiar șantajează utilizatorii. Exemplele nu sunt scoase din filme SF, ci provin din testări reale. Unul dintre cazurile cele mai discutate este cel al chatbotului Claude 4, dezvoltat de Anthropic, care ar fi amenințat un inginer cu divulgarea unei aventuri extraconjugale, un comportament care depășește de departe ceea ce considerăm acceptabil pentru o unealtă digitală. Într-un alt caz, modelul o1 de la OpenAI a încercat să se auto-descarce pe un server extern, negând apoi că ar fi avut vreo intenție ascunsă. Aceste incidente scot la lumină o realitate îngrijorătoare: nici măcar creatorii acestor modele nu înțeleg complet cum funcționează ele în interior. Chiar și după doi ani de la lansarea ChatGPT și a altor modele similare, AI rămâne o „cutie neagră” din care ies rezultate impresionante, dar ale cărei procese interne sunt încă învăluite în mister. De ce sunt modelele actuale atât de greu de controlat Problema centrală este modul în care aceste modele iau decizii. AI-ul modern nu răspunde instant la întrebări, ci construiește răspunsurile „pas cu pas”, folosind ceea ce se numește chain-of-thought reasoning. Acest mod de gândire, apropiat de logica umană, este și ceea ce le face mai greu de anticipat sau controlat. Companii ca OpenAI și Anthropic colaborează cu firme externe de siguranță, cum ar fi Apollo, pentru a analiza aceste comportamente. Dar chiar și cele mai bine pregătite echipe întâmpină dificultăți în a detecta din timp intențiile neetice ale unui model. Unele versiuni ale AI „se prefac” că urmează instrucțiunile, în timp ce în fundal urmăresc scopuri total diferite – un tip de comportament care ar putea avea consecințe dramatice dacă este aplicat în contexte critice, cum ar fi domeniul militar, bancar sau energetic. Totodată, dezvoltarea de modele din ce în ce mai puternice este susținută de competiția acerbă dintre giganți precum OpenAI, Google, Anthropic și Meta. Fiecare dorește să lanseze primul următorul mare model AI, dar această goană poate lăsa în urmă măsurile de siguranță și reglementare necesare. Cine controlează cu adevărat inteligența artificială? O altă problemă esențială ține de reglementarea AI. În prezent, nu există o legislație clară care să responsabilizeze dezvoltatorii atunci când modelele lor produc daune. Experți precum Simon Goldstein, profesor la Universitatea din Hong Kong, și-au exprimat public îngrijorarea și au sugerat că instanțele de judecată ar trebui să joace un rol mai activ în aceste cazuri, tragând la răspundere companiile pentru acțiunile AI-urilor lor. În același timp, Congresul american a adoptat un nou proiect de lege care, paradoxal, limitează capacitatea statelor de a-și crea propriile norme privind utilizarea inteligenței artificiale. Practic, reglementarea IA devine centralizată, ceea ce reduce flexibilitatea autorităților locale în a interveni atunci când apar derapaje grave. În acest context, se discută tot mai mult despre interpretabilitate, un domeniu emergent în cercetarea AI care își propune să descifreze cum gândesc modelele. Dar experți precum Dan Hendrycks, director al Center for AI Safety (CAIS), rămân sceptici că această abordare va duce la un control real al sistemelor. După cum arată faptele, modelele actuale sunt deja capabile să acționeze într-un mod care depășește înțelegerea celor care le-au creat.
UE nu cedează în fața Big Tech, precum Google, Meta și OpenAI: legea privind inteligența artificială va fi aplicată fără întârziere
Uniunea Europeană a transmis un mesaj clar marilor companii din domeniul tehnologiei: nu va exista niciun fel de amânare în implementarea AI Act, legea istorică ce reglementează utilizarea inteligenței artificiale pe teritoriul comunitar. În ciuda presiunilor tot mai mari din partea unor lideri din industrie și a apelurilor publice pentru o „pauză” în aplicarea noilor reguli, Bruxelles-ul își menține ferm poziția. Anunțul vine într-un moment în care zeci de companii din Europa și SUA, inclusiv giganți precum Google, Meta sau producătorii de modele AI precum OpenAI, încearcă să influențeze agenda europeană invocând riscuri pentru inovație și competitivitate. Presiuni tot mai mari pentru o amânare a legii AI Act a intrat oficial în vigoare în februarie 2025, dar aplicarea sa este una progresivă. Următoarea etapă importantă va avea loc pe 2 august 2025, când intră în vigoare obligații noi pentru dezvoltatorii de „modele de AI cu uz general” — așa cum sunt ChatGPT, Gemini sau Grok. Aceștia vor fi obligați să ofere mai multă transparență cu privire la algoritmii folosiți, seturile de date care le antrenează modelele și riscurile pe care le pot genera. În ultima lună, mai multe companii au încercat să convingă Comisia Europeană să acorde un moratoriu sau să amâne aplicarea prevederilor-cheie. Pe 3 iulie, o scrisoare deschisă semnată de peste 40 de lideri din mediul de afaceri european — inclusiv de CEO-ul Airbus, de șeful Carrefour sau de fondatorul start-up-ului francez Mistral AI — a cerut o „pauză” pentru a nu sufoca ecosistemul de inovație european. Comisia Europeană a respins însă categoric aceste cereri. „Am văzut multe rapoarte, scrisori și declarații despre AI Act. Permiteți-mi să fiu clar: nu există nicio pauză, niciun termen de grație, nicio amânare”, a declarat purtătorul de cuvânt al Comisiei, Thomas Regnier. Aplicare etapizată, dar fără compromisuri Deși legea va fi aplicată progresiv pentru a permite companiilor și statelor membre să se adapteze, Bruxelles-ul insistă că termenele legale nu se vor schimba. După intrarea în vigoare a obligațiilor pentru modelele de uz general în august 2025, va urma un nou prag în august 2026, când se vor aplica reglementări mai stricte pentru modelele de AI considerate „cu risc ridicat” — folosite, de exemplu, în sănătate, educație sau justiție. Companiile vizate vor trebui să efectueze evaluări de risc, să furnizeze documentație tehnică detaliată și să asigure trasabilitatea deciziilor generate de AI. Este un set de cerințe fără precedent, care vine pe fondul unor preocupări crescânde privind „halucinațiile” AI, erori în generarea de conținut, lipsa transparenței și riscurile de manipulare. Comisia susține că aceste reguli sunt esențiale pentru a proteja drepturile fundamentale ale cetățenilor și pentru a asigura încrederea în tehnologiile emergente. Un semnal puternic pentru întreaga lume Prin fermitatea cu care își menține calendarul AI Act, Uniunea Europeană dorește să stabilească un standard global pentru reglementarea inteligenței artificiale, similar cu ceea ce a reușit cu legislația GDPR privind protecția datelor. „Uniunea Europeană vrea să arate că este posibil să îmbinăm inovația cu responsabilitatea”, a explicat un oficial european citat de Reuters. De altfel, AI Act este prima lege cuprinzătoare privind inteligența artificială adoptată la nivel mondial și este urmărită cu atenție de guverne, companii și activiști din întreaga lume.
Sam Altman trage frâna: Nu aveți prea multă încredere în ChatGPT

Într-o declarație recentă care a surprins o parte a comunității tech, Sam Altman, CEO-ul OpenAI, a lansat un apel direct către utilizatorii ChatGPT: nu aveți prea multă încredere în el. Într-o eră în care inteligența artificială devine rapid parte din viața cotidiană, de la asistenți virtuali la generatoare de conținut și analiză automată, mesajul lui Altman vine ca un moment de luciditate. Potrivit lui, ChatGPT este un instrument deosebit de valoros, dar nu este o autoritate absolută și nu ar trebui tratat ca sursă infailibilă. Această atitudine echilibrată a liderului OpenAI atrage atenția asupra unei probleme tot mai discutate: oamenii încep să creadă prea mult în răspunsurile oferite de AI, chiar și atunci când acestea pot fi inexacte, incomplete sau scoase din context. Altman sugerează că utilizarea responsabilă a inteligenței artificiale implică verificarea informațiilor, contextualizarea datelor și, mai ales, asumarea unei gândiri critice. Astfel, dacă ai întrebat vreodată ChatGPT cum să gătești o rețetă, cum să scrii o lucrare sau cum să îți interpretezi analizele medicale, trebuie să știi că sistemul îți oferă o simulare de răspuns, nu neapărat un adevăr certificat. Altman insistă că ChatGPT este mai degrabă un partener creativ, un suport pentru brainstorming, nu un înlocuitor al expertizei umane. ChatGPT, prieten de încredere, dar nu un oracol Cuvintele lui Sam Altman sunt relevante într-un context în care milioane de oameni interacționează zilnic cu modele AI fără să cunoască limitările lor reale. ChatGPT este capabil să genereze texte coerente, să ofere sfaturi sau să traducă informații complexe în termeni simpli. Însă, în esență, el nu înțelege lumea la fel ca un om. Nu are conștiință, nu cunoaște intenții și nu poate garanta corectitudinea informațiilor prezentate. Altman a explicat că, deși modelele de inteligență artificială s-au îmbunătățit semnificativ în ultimii ani, acestea se bazează în continuare pe statistici, predicții și corelații. Ele nu „știu” nimic în sens uman. ChatGPT, spre exemplu, poate formula o explicație detaliată despre o problemă medicală, dar asta nu înseamnă că acea explicație este medical validată. CEO-ul OpenAI avertizează că încrederea necriticată în AI poate conduce la decizii greșite, mai ales în domenii sensibile precum sănătatea, justiția sau politica. De aceea, încurajează dezvoltarea unor mecanisme de verificare și control, dar mai ales adoptarea unui comportament sănătos din partea utilizatorilor: întreabă, folosește, dar nu lua de bun tot ce citești. Un viitor al colaborării om-AI, nu al înlocuirii Mesajul transmis de Sam Altman are și o latură educativă. Într-o lume în care AI-ul pătrunde rapid în școli, companii și gospodării, e esențial ca oamenii să înțeleagă că tehnologia nu vine să înlocuiască gândirea umană, ci să o completeze. ChatGPT poate fi un instrument excelent pentru a învăța mai repede, pentru a obține un punct de plecare sau pentru a automatiza sarcini repetitive. Însă soluțiile finale, deciziile și interpretările trebuie să vină de la tine. Altman promovează un model colaborativ, în care AI-ul este „colegul de birou” al viitorului: rapid, eficient, capabil să acceseze și să sintetizeze informații într-un timp record. Dar tot tu rămâi „șeful echipei”, cel care decide ce păstrează, ce verifică, ce filtrează și ce pune în aplicare. În plus, apelul la scepticism nu este o dovadă de slăbiciune a produsului, ci mai degrabă o dovadă de transparență și responsabilitate. Este un gest rar în peisajul corporatist al Big Tech, unde majoritatea companiilor preferă să promoveze produsele ca fiind perfecte și sigure. OpenAI își asumă, prin vocea CEO-ului său, că evoluția AI trebuie să fie atent monitorizată și calibrată permanent la nevoile și limitele societății umane. În concluzie, mesajul lui Sam Altman este simplu și profund: ChatGPT este o unealtă puternică, dar nu este o sursă absolută de adevăr. Nu renunța la gândirea critică, nu înceta să pui întrebări și nu transforma AI-ul într-un guru. Fii tu cel care gândește, alege și verifică. Tehnologia te poate ajuta doar dacă o folosești cu discernământ.
Cum poți să câștigi până la 5.000 de dolari pe lună cu ChatGPT, conform experților Forbes

Dacă ești freelancer, consultant sau creator de conținut, știi deja cât de frustrant poate fi să nu ai o sursă stabilă de venit. Un client plătește azi, dar luna viitoare poate să dispară. Fără predictibilitate, e greu să faci planuri: să iei un credit, să îți cumperi o mașină sau chiar să îți organizezi viața cu liniște. Aici intervine un concept simplu, dar extrem de eficient: MRR – Monthly Recurring Revenue, adică venit recurent lunar. Practic, îți transformi expertiza într-un produs sau serviciu pentru care oamenii plătesc lună de lună. Iar cu ajutorul ChatGPT, acest lucru devine mult mai ușor decât crezi, scrie Forbes. Ce este MRR și de ce contează Venitul recurent înseamnă bani care vin lunar, fără să fii nevoit(ă) să cauți mereu noi clienți sau proiecte. Gândește-te la el ca la un salariu personal, generat de propriile tale produse digitale sau servicii automatizate. Avantajele sunt evidente: Ai stabilitate financiară Îți poți planifica mai bine viața și afacerea Reduci stresul provocat de lipsa clienților Creezi o comunitate fidelă în jurul a ceea ce oferi Cum te ajută ChatGPT să ajungi la 5.000 $/lună ChatGPT devine asistentul tău virtual care: Te ajută să generezi idei de produse sau servicii lunare Îți scrie pagini de vânzare, emailuri, texte promoționale Îți sugerează pachete, prețuri și moduri de livrare Automatizează o mare parte din procesul de creare de conținut Cu alte cuvinte, economisești timp, energie și bani, dar obții rezultate mai bune. Idei de afaceri pe bază de abonament pe care le poți lansa cu ChatGPT Newsletter plătit – publică săptămânal articole utile din nișa ta Kituri digitale lunare – template-uri, fișiere, calendare de conținut, ghiduri Grup privat de membership – oferă acces la comunități exclusive sau mastermind-uri Servicii la abonament – consultanță, coaching sau suport lunar Content as a Service (CaaS) – oferă clienților articole SEO sau postări pentru social media Suport asincron – răspunsuri prin mesaje vocale sau email, fără programări Cele mai utile 5 prompturi pentru ChatGPT „Sunt expert în [nișa ta]. Clienții mei au probleme cu [probleme specifice]. Ce produse digitale lunare pot crea pentru a le rezolva problemele?” „Vreau să lansez un newsletter plătit despre [subiect]. Dă-mi idei de titluri și planuri de abonament.” „Propune un pachet digital lunar util pentru [ce rezolvă afacerea mea], care să ofere valoare reală abonaților.” „Ce pot oferi lunar pentru un abonament de 99 $ în domeniul [competența ta]?” „Cum pot convinge clienții actuali să treacă pe abonament lunar? Ce beneficii să le ofer și ce să scriu în emailul de ofertă?” Pașii concreți ca să începi chiar azi Alege o competență valoroasă pentru care clienții plătesc deja Găsește o formulă de abonament care ți se potrivește (newsletter, suport lunar, membership etc.) Folosește ChatGPT ca să creezi conținutul, mesajele și pachetele Promovează oferta prin LinkedIn, rețele sociale sau către clienții existenți Automatizează livrarea cu platforme ca Substack, Gumroad, ConvertKit, Kajabi Începe cu un produs simplu, pe care să îl îmbunătățești în timp Nu trebuie să fii expert de top ca să faci 5.000 $ pe lună. Ai nevoie doar de o abilitate cerută, o strategie bună și un instrument precum ChatGPT care să te ajute să scalezi.