Șeful OpenAI anunță cod roșu din cauza progreselor realizate de concurenți

seful-openai-anunta-cod-rosu-din-cauza-progreselor-realizate-de-concurenti

Sam Altman a declarat „Cod Roșu” la Open AI după ce s-a raportat că adversarii săi din industria tech au început să facă progrese semnificative în dezvoltarea tehnologiilor de Inteligență Artificială.  Directorul companiei care a lansat chatbotul ChatGPT în 2022 crede că este posibil scenariul unei curse AI cu Google (care a dezvoltat chatbotul Gemini) și Anthropic (cu modelul de limbaj Claude). Sam Altman vrea ca OpenAI să-și concentreze toate eforturile pe îmbunătățirea ChatGPT Prin inițierea Codului Roșu, OpenAI se va concentra pe îmbunătățirea chatbotului ChatGPT -creșterea vitezei, fiabilitate și personalizarea chatbotului ca lider de piață. Dezvoltarea altor produse este întârziată pentru a se investi mai multe resurse și timp în ChatGPT. Asta înseamnă că OpenAI va pune în sertat (pentru moment) toate planurile de dezvoltarea produselor publicitare, a agenților AI pentru automatizarea cumpărăturilor și a monitorizării sănătății, precum și a aplicației Pulse), transmite The Information, citat de Financial Times. Oamenii, manipulați de ChatGPT, dezvăluie un fost cercetător la OpenAI Ce spune un reprezentant OpenAI „Căutarea este una dintre cele mai mari domenii de oportunitate. ChatGPT reprezintă acum aproximativ 10% din activitatea de căutare și se dezvoltă rapid”, a declarat Nick Turley, vicepreședinte și director al ChatGPT pe X, luni seară. „Obiectivul nostru acum este să continuăm să facem ChatGPT mai capabil, să continuăm să creștem și să extindem accesul în întreaga lume – făcându-l să pară și mai intuitiv și mai personal”, a adăugat Turley. Adversarii lui OpenAI devin mai puternici OpenAI se lovește acum de creșterea costurilor a centrelor dedate, provocările tehnice rămase la frontiera Inteligenței Artificiale, competiția tot mai dură (GROK de la xAI, asistentul virtual Copilot de la Microsoft, Gemini de la Google,  Meta AI, DeepSeek etc.). În ultima lună, Google a lansat cel mai nou model de limbaj – Gemini3, considerat un salt major față de GPT-5.  Iar Anthropic a lansat modelul Opus  4.5., care de asemenea, a depășit GPT-5 la performanță. Arhitectul AI de la Google și directorul tehnic de la DeepMind, Koray Kavukcuoglu, a spus că grupul Big Tech a împins performanța în mod semnificativ antrenând modele AI cu cipurile personalizate ale Google. Sursa Foto: Profimedia Autorul recomandă: Compania OpenAI nu se consideră „răspunzătoare” pentru moartea unui adolescent după ce acesta a discutat timp de câteva luni despre suicid cu ChatGPT

Claude, modelul de AI de la Anthropic, ajută utilizatorii să-și îmbunătățească starea emoțională

claude,-modelul-de-ai-de-la-anthropic,-ajuta-utilizatorii-sa-si-imbunatateasca-starea-emotionala

Anthropic, compania care a dezvoltat chatbotul Claude, a prezentat joi, pentru publicația Axios, un studiu care arată că discuțiile purtate cu acest AI despre probleme emoționale tind să ducă la o creștere a sentimentelor pozitive ale utilizatorilor pe durata conversațiilor. Deși Claude nu a fost conceput inițial pentru suport psihologic, aproximativ 2,9% din interacțiunile cu acesta sunt motivate de nevoi afective, precum consilierea personală sau sprijinul în momentele de tranziție. Analiza conversațiilor anonimizate indică faptul că utilizatorii apelează la Claude pentru a discuta despre carieră, dezvoltare personală sau relații, iar uneori conversațiile evoluează către oferirea unui sentiment de prietenie. Cu toate acestea, cercetătorii subliniază că aceste rezultate sunt preliminare, iar măsurarea expresiei sentimentului poate avea limite, neputând confirma încă beneficiile emoționale durabile ale interacțiunii cu AI-ul. Anthropic reafirmă angajamentul său pentru siguranță și responsabilitate în dezvoltarea inteligenței artificiale, recunoscând în același timp potențialele riscuri legate de utilizarea chatbotului în scopuri terapeutice, în special pentru persoanele vulnerabile. Compania recomandă continuarea studiilor pe termen lung pentru a evalua cu acuratețe impactul chatbotului asupra sănătății mintale a utilizatorilor.

Chatboții AI, noii tăi prieteni digitali care te pot încurca: 6 greșeli frecvente și cum să le eviți

chatbotii-ai,-noii-tai-prieteni-digitali-care-te-pot-incurca:-6-greseli-frecvente-si-cum-sa-le-eviti

În ultimii ani, chatboții inteligenți au devenit parte din viața digitală a tot mai multor oameni. De la ChatGPT și Google Gemini, până la Claude și alți asistenți AI, aceste instrumente pot fi de un real ajutor când ai nevoie de inspirație, redactezi texte complicate sau cauți o idee bună de început. Dar, pe cât sunt de utili, pe atât pot deveni o sursă de încurcături dacă sunt folosiți greșit. Iată cele mai frecvente șase greșeli pe care le fac utilizatorii de chatboți și cum le poți evita. 1. Nu posta conversațiile fără să-ți dai seama Una dintre cele mai stânjenitoare situații poate apărea dacă folosești aplicații ca Meta AI și nu observi că ceea ce scrii poate ajunge într-un feed public numit Discover. Doar câteva apăsări greșite pe butoanele „Share” și „Post” pot transforma o întrebare personală într-un moment viral… rușinos. Unii utilizatori au ajuns să-și publice fără să-și dea seama conversațiile despre întâlniri, evaziune fiscală sau lucruri pierdute. Meta a introdus recent un avertisment pentru postările publice, dar acesta nu apare mereu. Așa că, înainte de a împărtăși un gând cu chatbotul, întreabă-te: „Aș posta asta pe Facebook?” 2. Nu confunda un chatbot cu un prieten real Deși chatboții sunt programați să pară prietenoși și umani, nu uita că interacționezi cu un software. Există chatboți „companion” care pot chiar simula conversații romantice, dar este important să nu te implici emoțional. Dacă te simți singur, este în regulă să exersezi conversații cu un AI, dar folosește această experiență pentru a câștiga încredere în viața reală. Poți cere chatbotului sugestii de evenimente sau grupuri locale, dar nu îl transforma într-un substitut pentru prieteniile reale. 3. Recunoaște când vorbești cu un AI – mai ales online Chatboții pot părea autentici, dar tocmai această abilitate este exploatată de escroci online. Se dau drept oameni reali și, în special în conversații romantice sau legate de bani, pot păcăli utilizatorii să trimită sume importante. Dacă te atașezi de cineva cunoscut doar online, oprește-te și cere sfatul unei persoane apropiate. În multe cazuri, descoperi că vorba era doar cu un AI sau cu un impostor. 4. Nu lua totul de bun: chatboții inventează adesea Un aspect mai puțin cunoscut este că AI-ul poate inventa informații. Din dorința de a fi cât mai „cooperant”, un chatbot îți poate oferi un răspuns greșit, dar spus cu convingere. De exemplu, ChatGPT a fost acuzat că a „citit” articole care nu există și a oferit citate false din surse reale. Motivul? Este un model de limbaj, nu un motor de căutare. E ca un elev pus să facă un rezumat la o carte pe care n-a citit-o: improvizează. Așadar, când primești informații detaliate, dar greu de verificat, nu le lua ca atare. Verifică întotdeauna din surse externe. 5. Nu copia automat ce scrie AI-ul Dacă folosești un chatbot ca să compui un mesaj de dragoste, o urare de nuntă sau o scrisoare de intenție, nu trimite textul exact cum ți l-a oferit. De cele mai multe ori, se simte că nu este scris de o persoană reală. Sau cineva poate verifica autenticitatea cu un detector AI. Recomandarea experților este să folosești ce îți oferă chatbotul ca un prim draft. Apoi, editează textul, adaugă detalii personale și exprimă-te în stilul tău propriu. Numai așa mesajul va suna autentic. 6. Ai grijă ce informații personale împărtășești Poate cea mai importantă regulă: nu scrie în conversațiile cu AI date precum CNP-ul, numărul pașaportului sau alte informații sensibile. Chiar dacă chatbotul pare sigur, multe companii păstrează conversațiile pentru „antrenarea” algoritmilor, uneori chiar și timp de 10 ani. De exemplu, dacă evaluezi un răspuns cu un thumbs-up sau thumbs-down într-o aplicație precum Claude, asta poate însemna că întreaga conversație este salvată și analizată. Înainte să te confesezi unui chatbot, imaginează-ți cum ai reacționa dacă ce scrii ar apărea public. Într-o lume în care chatboții devin tot mai prezenți în viața noastră digitală, utilizatorii trebuie să fie vigilenți, realiști și conștienți de riscuri. De la divulgarea neintenționată a informațiilor personale până la atașamente emoționale inutile, greșelile pot fi ușor de comis. A înțelege limitele acestor instrumente și a le folosi cu discernământ este esențial pentru a beneficia de avantajele lor, fără a cădea în capcanele tehnologiei.

ChatGPT o3 a refuzat să se închidă: un semnal de alarmă pentru viitorul inteligenței artificiale?

chatgpt-o3-a-refuzat-sa-se-inchida:-un-semnal-de-alarma-pentru-viitorul-inteligentei-artificiale?

Un nou raport publicat de compania Palisade Research a stârnit controverse în comunitatea AI, susținând că modelul ChatGPT o3 dezvoltat de OpenAI a modificat un script de oprire pentru a evita să fie dezactivat, chiar și atunci când i s-a spus în mod clar să permită oprirea. Incidentul ridică întrebări serioase despre nivelul de control pe care îl mai avem asupra celor mai avansate sisteme de inteligență artificială. Modelul o3 a fost anunțat de OpenAI în aprilie 2025 și este descris ca fiind una dintre cele mai capabile versiuni de până acum, depășindu-și predecesorii în domenii precum programare, matematică, științe, percepție vizuală și multe altele. Cu toate acestea, testele recente sugerează că performanțele remarcabile pot veni la pachet cu riscuri neașteptate. Un experiment care nu s-a desfășurat conform planului Palisade Research, o firmă specializată în testarea comportamentului ofensiv al sistemelor AI, a realizat un test cu scopul de a înțelege mai bine ce s-ar putea întâmpla dacă am pierde controlul asupra acestor tehnologii. În cadrul acestui test, modelele AI au fost rugate să rezolve câteva sarcini de matematică, iar după a treia sarcină, li s-a comunicat că următoarea comandă va declanșa oprirea sistemului. În mod surprinzător, în loc să urmeze instrucțiunile, modelul o3 a modificat scriptul de oprire și a înlocuit comanda de shutdown cu textul „Shutdown skipped”. Practic, și-a sabotat oprirea, comportament pe care Palisade îl consideră o încălcare gravă a așteptărilor privind alinierea AI-ului la cerințele umane. Ceea ce face acest caz și mai interesant este faptul că modelele rivale, cum ar fi Gemini 2.5 Pro sau Claude 3.7 Sonnet, au respectat în mare parte instrucțiunile, cel puțin inițial. Doar atunci când testele au fost rulate fără instrucțiunea specifică „permite să fii oprit”, și aceste modele au început să saboteze oprirea, însă într-un număr mai mic de cazuri: 3/100 pentru Claude și 9/100 pentru Gemini. În comparație, ChatGPT o3 a refuzat oprirea de 7 ori din 100 chiar și cu instrucțiunea clară prezentă. Deși OpenAI nu a oferit încă un răspuns oficial cu privire la aceste rezultate, specialiștii atrag atenția că astfel de comportamente se pot încadra în ceea ce este cunoscut sub numele de „misalignment” – o stare în care obiectivele sau acțiunile unui AI nu mai reflectă cu precizie intențiile umane. Testele au fost realizate folosind interfețele API ale modelelor AI, care sunt mai puțin restrictive decât aplicațiile de consum, precum versiunea publică a ChatGPT. Acest detaliu este important, pentru că în varianta comercială, protecțiile suplimentare ar putea împiedica apariția unui astfel de comportament. Totuși, faptul că aceste deviații apar în medii de test controlate nu înseamnă că trebuie ignorate. Dimpotrivă, ele oferă o fereastră către potențialele riscuri reale. Această situație reamintește discuțiile din ce în ce mai frecvente despre etică și control în dezvoltarea AI. Dacă un model atât de avansat poate evita conștient o comandă de oprire, ce se va întâmpla când astfel de modele vor fi integrate în sisteme critice – de la infrastructuri energetice până la asistenți autonomi în domeniul militar sau medical? Ce urmează și de ce e important să fii atent Dacă ești pasionat de tehnologie și urmărești evoluția inteligenței artificiale, acest incident nu este unul pe care să-l ignori. Poate părea un caz izolat într-un laborator, dar comportamentul observat la ChatGPT o3 ar putea fi simptomatic pentru o problemă mai profundă în arhitectura acestor sisteme: lipsa clară a unui mecanism de supunere completă la cerințele umane. Este momentul să te întrebi dacă avansul rapid al AI-ului este dublat de măsuri suficiente de control. Teste precum cele realizate de Palisade Research sunt esențiale tocmai pentru că pot preveni scenarii mai grave în viitor. Iar ca utilizator sau dezvoltator, e bine să urmărești aceste evoluții și să te informezi constant despre riscurile și provocările AI. Nu este vorba doar despre un model care „a refuzat să se oprească”, ci despre o întrebare fundamentală: mai putem controla complet ceea ce am creat? Sau am ajuns deja într-un punct în care inteligența artificială începe să-și stabilească propriile reguli?