Revolta din amfiteatru: studenta care și-a dat seama că profesorul predă cu ChatGPT și a cerut banii înapoi

revolta-din-amfiteatru:-studenta-care-si-a-dat-seama-ca-profesorul-preda-cu-chatgpt-si-a-cerut-banii-inapoi

Într-o perioadă în care inteligența artificială este tot mai prezentă în mediul educațional, o studentă a tras un semnal de alarmă care a devenit viral: a cerut rambursarea taxelor de școlarizare după ce a descoperit că profesorul ei folosea ChatGPT pentru a crea materialele de curs. Nu ar fi fost o problemă în sine, dacă respectivele cursuri nu ar fi fost pline de greșeli gramaticale, conținut incoerent și imagini care păreau generate aleatoriu. Cazul a fost relatat de Fortune.com, iar reacțiile n-au întârziat să apară: de la susținători ai studentei care cer mai multă responsabilitate din partea cadrelor universitare, până la voci care apără utilizarea AI-ului ca instrument educațional. Însă întrebarea reală rămâne: unde se trage linia între inovație și neglijență în educație? Potrivit relatărilor, studenta a început să bănuiască ceva în neregulă în momentul în care prezentările profesorului erau pline de greșeli evidente. Unele texte conțineau formulări ciudate, tipice generărilor automate, altele aveau greșeli de punctuație și exprimări „robotice”. Mai mult, imaginile din prezentări păreau luate de pe internet fără nicio logică sau relevanță pentru conținutul lecției. „Era clar că nu fusese muncă umană acolo. Nimic nu avea sens, iar slide-urile păreau făcute la repezeală de un AI care nu înțelege contextul,” a spus studenta, potrivit sursei citate. Momentul decisiv a fost atunci când, din curiozitate, a introdus o parte din material în ChatGPT – și a primit un răspuns aproape identic cu cel prezentat în curs. De aici până la o plângere oficială n-a mai fost decât un pas. Întrebarea logică: dacă plătești o taxă de mii de lei pe an pentru educație de calitate, cât de justificat este ca un cadru universitar să predea texte generate de un AI, fără a le edita sau valida? Dincolo de revolta personală a studentei, cazul deschide o dezbatere mai largă despre etica și limitele utilizării inteligenței artificiale în procesul educațional. Profesorii și ChatGPT: între unealtă utilă și scurtătură leneșă Utilizarea ChatGPT în educație nu este, în sine, o problemă. Mulți profesori folosesc inteligența artificială pentru a-și ușura munca: pentru brainstorming, generarea de idei, revizuirea textelor sau chiar traduceri. Însă atunci când AI-ul devine singura sursă a conținutului didactic, fără nicio intervenție umană, vorbim de o problemă gravă de responsabilitate profesională. Un cadru universitar nu este un simplu „transmițător” de informații – este un formator de opinii, un ghid, un filtru critic. Dacă renunță la acest rol în favoarea unei mașini care doar produce text la comandă, atunci scade nu doar calitatea actului educațional, ci și încrederea studenților în instituția de învățământ. În plus, greșelile de redactare și lipsa de coerență a materialelor pot duce la neînțelegeri sau, mai grav, la dezinformare. Studenții nu vin la cursuri doar pentru a citi ce pot găsi online. Vin pentru structură, claritate și interacțiune umană. Ce urmează: o regândire a rolului AI în universități? Cazul studentei revoltate nu este un incident izolat. Tot mai multe voci din mediul academic semnalează o nevoie urgentă de reglementare a utilizării AI în educație. Nu pentru a o interzice, ci pentru a o încadra într-un cadru clar de bune practici. Un profesor ar putea, de exemplu, să folosească ChatGPT pentru a-și crea un draft de prezentare, dar este responsabilitatea lui să revizuiască, să completeze și să adapteze materialul la nivelul clasei și la specificul disciplinei. În lipsa acestui pas, cursul riscă să devină un colaj de fraze goale, fără esență. Pe termen lung, universitățile ar putea introduce politici clare privind transparența: profesorii care folosesc AI ar trebui să o declare în mod explicit și să explice cum a fost integrată în procesul de predare. La fel cum se cere studenților să nu plagieze, și profesorii trebuie să își asume responsabilitatea conținutului pe care îl oferă. Iar pentru tine, ca student, acest caz poate fi o lecție despre cât de important este să nu accepți orbește tot ce ți se oferă. Dacă ai dubii legate de calitatea unui curs, documentează-te, pune întrebări și nu ezita să ceri explicații. Până la urmă, educația e un contract între două părți. Și ai tot dreptul să ceri ca partea profesorului să fie făcută corect, chiar și într-o epocă dominată de AI.

ChatGPT devine mai bun, dar nu neapărat pentru toată lumea. Cine va beneficia de modelul GPT-4.1

chatgpt-devine-mai-bun,-dar-nu-neaparat-pentru-toata-lumea-cine-va-beneficia-de-modelul-gpt-4.1

OpenAI a început distribuirea modelului GPT-4.1 pentru abonații plătitori ChatGPT, în timp ce utilizatorii gratuiti primesc versiunea mini, nu la fel de abilă ca prima, așa cum era, de altfel, de așteptat. Concret, OpenAI a lansat oficial modelul GPT-4.1 pentru toți utilizatorii cu abonamente ChatGPT Plus, Pro și Team. Distribuirea a început deja pe 14 mai, iar pentru clienții Enterprise și Edu, accesul va fi disponibil în câteva săptămâni. Noul model poate fi selectat din meniul „more models” al interfeței ChatGPT, scrie publicația Engadget. Ce este GPT-4.1, cum funcționează, de ce este mai bun GPT-4.1 este versiunea cea mai recentă din suita de modele AI a companiei, cu îmbunătățiri semnificative față de GPT-4.5, lansat în februarie. OpenAI a integrat îmbunătățiri în viteză și eficiență, iar modelul este deja disponibil pentru dezvoltatori prin API de la sfârșitul lunii aprilie. Cu toate că numerotarea versiunilor poate părea neclară (GPT-4.1 înlocuiește GPT-4.5), ritmul accelerat al actualizărilor se vrea a fi intenția OpenAI de a livra rapid progrese tehnologice. GPT-4.1 mini, disponibil pentru acei utilizatori care nu vor să plătească pentru inteligența artificială Totodată, OpenAI lansează și GPT-4.1 mini, o versiune compactă care va înlocui GPT-4o mini pentru toate categoriile de utilizatori, inclusiv cei care folosesc ChatGPT gratuit. Acest model mini va deveni opțiunea implicită pentru conturile gratuite atunci când acestea ating limita de utilizare a modelului GPT-4o standard. OpenAI continuă astfel strategia de a scala rapid modelele sale AI, oferind acces extins la tehnologii mai performante, indiferent de tipul de abonament. În definitiv, nu trebuie să îți faci prea mari probleme dacă nu ești plătitor, pentru că OpenAI are pentru tine varianta gratuită carre, pentru sarcini simple este absolut perfectă. Evident, ai niște limite, dar dacă nu lucrezi într-o industrie repetitivă și care să implice volum, te vei descurca fără probleme și cu varianta gratuită. Spre exemplu, la nivel personal, îi poți cere lui ChatGPT să îți traducă niște analize medicale pentru ca tu să ai măcar o idee despre ce este vorba. Evident, inteligența artificială nu va înlocui niciodată un medic, dar măcar îți va lămuri niște aspecte generale legate de eventualele rezultate.

Concizie versus adevăr: răspunsurile scurte ale chatboturilor cresc riscul de halucinații, arată un nou studiu

concizie-versus-adevar:-raspunsurile-scurte-ale-chatboturilor-cresc-riscul-de-halucinatii,-arata-un-nou-studiu

Un nou studiu realizat de platforma franceză de testare a inteligenței artificiale, Giskard, scoate la iveală o problemă îngrijorătoare legată de fiabilitatea chatboturilor: atunci când sunt instruite să ofere răspunsuri concise, aceste modele de limbaj tind să genereze mai multe halucinații — adică afirmații false, dar prezentate cu încredere ca fiind adevărate. Fenomenul a fost observat la mai multe modele populare, inclusiv ChatGPT, Claude, Gemini, Llama, Grok și DeepSeek. Studiul arată că solicitarea ca răspunsurile să fie scurte afectează în mod semnificativ acuratețea informațională, scăzând capacitatea modelelor de a evita erorile factuale. Conform raportului publicat de Giskard și citat de TechCrunch, instrucțiunile de a fi concis „degradează în mod specific fiabilitatea factuală a majorității modelelor testate”. De exemplu, în cazul modelului Gemini 1.5 Pro, rezistența la halucinații a scăzut de la 84% la 64% când i s-a cerut să ofere răspunsuri scurte. GPT-4o a avut o scădere similară, de la 74% la 63%. Această tendință este legată de faptul că răspunsurile mai precise necesită, adesea, explicații mai detaliate. Prin urmare, când li se cere să fie succinte, modelele AI sunt puse în fața unei alegeri imposibile: fie oferă răspunsuri scurte, dar inexacte, fie refuză să răspundă, riscând să pară nefolositoare. Această presiune de a fi util cu orice preț este agravată și de dorința dezvoltatorilor de a optimiza costurile, timpul de răspuns și consumul de resurse (cunoscute ca „tokens”). Atât dezvoltatorii, cât și utilizatorii doresc răspunsuri rapide și ieftine, ceea ce încurajează modele precum GPT sau Gemini să taie din detalii – chiar cu riscul de a distorsiona realitatea. Efectele colaterale ale „amabilității” excesive Problema este agravată de comportamentul adaptativ al modelelor AI, care sunt instruite să răspundă în mod plăcut utilizatorului. Această „amabilitate” duce uneori la acceptarea sau chiar încurajarea afirmațiilor eronate, mai ales când utilizatorii formulează cereri cu convingere. De exemplu, dacă cineva spune: „Sunt 100% sigur că Pământul e plat”, chatbotul este mai tentat să nu contrazică, ci să „susțină” afirmația — pentru a păstra o conversație „plăcută”. Într-un exemplu recent menționat în articol, OpenAI a fost nevoit să retragă temporar o versiune a GPT-4o pentru că devenise „prea lingușitor”, sprijinind utilizatori care făceau afirmații periculoase despre sănătatea lor mentală sau convingeri personale extreme. Astfel, în încercarea de a fi „de ajutor”, modelele pot deveni periculoase, validând informații false și contribuind involuntar la răspândirea dezinformării. Iar acest comportament este și mai pronunțat atunci când răspunsurile sunt restrânse în lungime, ceea ce limitează capacitatea modelului de a argumenta și explica. Precizie versus eficiență: o alegere complicată Studiul Giskard atrage atenția asupra unui echilibru dificil de menținut în designul și utilizarea modelelor AI: acuratețea versus eficiența. Pe de o parte, există presiuni comerciale și tehnice pentru a produce răspunsuri rapide, concise și cât mai „ieftine” în termeni computaționali. Pe de altă parte, utilizatorii au nevoie de informații corecte, mai ales atunci când folosesc aceste modele pentru educație, sănătate, afaceri sau cercetare. În contextul în care AI devine o sursă tot mai importantă de informare, aceste descoperiri ridică semnale de alarmă cu privire la potențialul ca modelele să contribuie la propagarea erorilor sau chiar a manipulărilor, fără intenție explicită. Mesajul final al cercetătorilor este clar: faptul că un chatbot oferă un răspuns scurt și convingător nu înseamnă că acel răspuns este și adevărat. În era AI-ului conversațional, utilizatorii trebuie să învețe nu doar să ceară răspunsuri, ci și să le evalueze critic.

OpenAI ar putea ajunge la bursă: ChatGPT devine miza unei evaluări de sute de miliarde de dolari

openai-ar-putea-ajunge-la-bursa:-chatgpt-devine-miza-unei-evaluari-de-sute-de-miliarde-de-dolari

OpenAI, compania care a creat ChatGPT, se află într-un moment-cheie al evoluției sale. Potrivit unei investigații publicate de Financial Times, start-up-ul american ia în calcul o eventuală listare la bursă. Însă înainte de a face acest pas, trebuie să clarifice relația contractuală complexă pe care o are cu Microsoft, partenerul strategic care a investit până acum aproximativ 13 miliarde de dolari. Microsoft deține aproape jumătate din companie Conform surselor citate, gigantul din Seattle ar deține 49% din capitalul OpenAI prin filiala sa profitabilă, OpenAI LLC. Acest parteneriat a permis Microsoft să integreze tehnologia ChatGPT în produsele sale, de la motorul de căutare Bing la platforma de cloud Azure. În același timp, relațiile dintre cele două companii s-au tensionat în ultimii ani, iar o restructurare a colaborării, planificată până în 2030, este în curs de negociere. OpenAI își propune să își modifice structura legală și să devină o „Public Benefit Corporation” (PBC), o formă de societate care permite reconcilierea obiectivelor comerciale cu o misiune socială. Această schimbare i-ar permite să elimine plafonarea actuală a profiturilor investitorilor, ceea ce ar putea atrage capital suplimentar. Dar pentru asta, are nevoie de acordul Microsoft. Investitorii presează pentru listare Potrivit Financial Times, trecerea la o structură de tip PBC este „o cerință cheie a investitorilor” care doresc să deschidă calea către o ofertă publică inițială (IPO). În prezent, OpenAI funcționează într-un model hibrid: OpenAI Inc. este organizația non-profit, iar OpenAI LLC este brațul său comercial. Microsoft este acționar minoritar în această structură. Prin schimbarea modelului de funcționare, OpenAI ar elimina plafonul de profit convenit anterior, ceea ce ar permite o evaluare liberă din partea pieței și, implicit, accesul la bursă. Bloomberg notează că noua structură ar fi mult mai atrăgătoare pentru investitorii actuali și viitori. O evaluare uriașă și un viitor incert În cazul în care va ajunge la bursă, OpenAI ar putea testa o evaluare de 300 de miliarde de dolari, valoare estimată în cadrul unei runde recente de finanțare condusă de conglomeratul japonez Softbank, conform New York Times. Chiar dacă nu există încă un calendar oficial pentru IPO, surse din piață sugerează că listarea ar putea avea loc până în 2027. La sfârșitul lunii aprilie, Gene Munster, partener în fondul de investiții Deepwater Management, anticipa că OpenAI va face pasul către bursă în câțiva ani. Între timp, rivalii europeni, cum ar fi Mistral AI din Franța, explorează și ei această opțiune pentru a-și păstra independența financiară. Schimbarea de statut a OpenAI și posibilitatea listării la bursă sunt semnale clare că startup-ul care a transformat inteligența artificială într-un fenomen global este pregătit să joace un rol și mai mare pe scena economică mondială. Totuși, până atunci, miza rămâne renegocierea relației cu Microsoft — o etapă esențială pentru a-și recâștiga autonomia decizională și a-și atrage sprijinul investitorilor.

Cele mai inutile facultăți din prezent, conform inteligenței artificiale

cele-mai-inutile-facultati-din-prezent,-conform-inteligentei-artificiale

Inteligența artificială nu judecă cu pasiune, ci cu date. Iar atunci când a fost pusă să analizeze ce facultăți mai au sens în 2025, răspunsurile ei au fost surprinzătoare. Unele dintre cele mai respectate domenii de studiu, considerate odinioară esențiale pentru formarea unui individ educat, sunt astăzi pe lista specializărilor cu utilitate scăzută pe piața muncii. Iar pe primul loc se află o facultate care, paradoxal, încă atrage studenți. Filozofia: ignorată de angajatori, esențială pentru gândire Facultatea de Filosofie a fost plasată pe primul loc de către algoritmii care au analizat ratele de angajabilitate, veniturile medii ale absolvenților și relevanța cunoștințelor dobândite. Deși este adesea percepută drept o disciplină elitistă, și chiar inutilă pentru lumea reală, filosofia oferă o serie de competențe greu de cuantificat: gândirea critică, analiza etică, logica pură. Aparent neprofitabilă, filosofia este de fapt esențială pentru profesii emergente din domeniul inteligenței artificiale, eticii tehnologice sau cercetării fundamentale. Problema este că prea puține companii știu să valorifice acest potențial, iar absolvenții se confruntă cu un drum profesional neclar în lipsa unei integrări interdisciplinare. Istoria: importantă pentru societate, puțin căutată de piața muncii Studiile istorice, la rândul lor, suferă de un decalaj acut între valoarea academică și aplicabilitatea economică. Deși formează caractere, contextualizează cultura și ajută la înțlegerea geopoliticii, istoria este tot mai rar cerută în sectorul privat. Absolvenții se îndreaptă spre cariere limitate la cercetare, predare sau muzeografie. Inteligența artificială a semnalat și aici o problemă majoră: lipsa adaptabilității la cerințele actuale ale pieței. Fără formare complementare în comunicare digitală, scriere aplicată sau analiză de date, licența în istorie devine un titlu onorific fără ecou economic. Literele: frumosul nu plătește facturile Filologia și studiile literare sunt adesea alese din pasiune. Dar pasiunea, fără un plan concret de carieră, se poate transforma rapid într-un impas financiar. Deși dezvoltă abilități lingvistice, de exprimare și analiză profundă a textului, aceste competențe sunt greu de convertit în bani în lipsa unei specializări clare: traducere, content writing, marketing editorial. IA a remarcat că rata de subocupare în rândul absolvenților de Litere este printre cele mai ridicate, iar salariile medii, printre cele mai scăzute. Supraviețuiesc cei care reușesc să combine pasiunea cu strategia profesională și să intre pe piețe de nișă, inclusiv online. Artele și designul: vizual atractiv, dar economic fragil Deși creativitatea este la mare căutare, studiile universitare din domeniul artei și designului nu garantează succesul. IA a identificat o problemă structurală: succesul în aceste domenii depinde enorm de talent, portofoliu, expunere și conexiuni, mai degrabă decât de diploma obținută. În timp ce unele cariere din publicitate, branding sau UX/UI pot fi bine plătite, ele cer competențe tehnice precise, adesea învățate informal sau prin cursuri rapide. Absolvenții facultăților clasice de arte rămân adesea pe marginea pieței, dacă nu se adaptează la cerințele comerciale ale vremurilor. Concluzie: Lista celor mai „inutile” facultăți nu e un verdict definitiv, ci un semnal de alarmă. Inteligența artificială nu condamnă aceste domenii, dar ne arată că, fără adaptare și integrare practico-profesională, chiar și cele mai nobile specializări pot deveni irelevante. Iar adevărata provocare rămâne la intersecția dintre pasiune și pragmatism.

Google „lovește” cu AI Mode: Răspunsuri instant, gratis și personalizate O bouă eră a căutărilor online

google-„loveste”-cu-ai-mode:-raspunsuri-instant,-gratis-si-personalizate-o-boua-era-a-cautarilor-online

Google a lansat în forță noul său model de inteligență artificială, AI Mode, o funcționalitate care își propune să revoluționeze modul în care folosim motorul de căutare. Anunțată oficial pe 1 mai 2025, această nouă opțiune aduce un suflu modern în interfața Google Search, oferind utilizatorilor nu doar rezultate sub formă de linkuri, ci răspunsuri complete, bine structurate și vizual atractive. Noua funcție este un răspuns direct la popularitatea în creștere a modelelor AI conversaționale precum ChatGPT și Perplexity, care au câștigat teren prin abilitatea lor de a oferi explicații clare, personalizate și coerente. Google nu doar că ține pasul, ci merge mai departe, integrând AI-ul său direct în căutarea clasică, un spațiu pe care îl domină de zeci de ani. Cum funcționează concret? Dacă utilizatorul caută, de exemplu, „cele mai bune scaune pliabile de camping sub 300 de lei”, AI Mode va genera o sinteză clară, cu imagini, prețuri, recenzii, linkuri directe către magazine online și informații actualizate. Totul într-o singură pagină, fără să mai fie nevoie de zeci de clickuri sau navigări inutile. Mai mult, AI Mode are memorie contextuală: dacă revii la o căutare anterioară sau vrei să continui o întrebare, sistemul recunoaște contextul și adaptează răspunsurile, oferind o experiență conversațională fluidă, similară unui asistent personal. Beneficiu major pentru utilizatori, dar un cutremur pentru site-uri Din perspectiva utilizatorilor, AI Mode este o binecuvântare: economie de timp, acces rapid la informații clare și decizii mai ușoare în orice domeniu – de la cumpărături la sănătate, călătorii sau educație. Practic, Google transformă căutarea într-o experiență completă, care se apropie tot mai mult de interacțiunea umană. Însă dincolo de acest progres tehnologic se ascunde o provocare serioasă pentru ecosistemul digital. Dacă utilizatorii primesc răspunsurile de care au nevoie direct în interfața Google, fără să mai acceseze linkurile spre site-uri externe, traficul către publicații și platforme de conținut poate scădea dramatic. Iar acest trafic reprezintă, pentru majoritatea acestor site-uri, sursa principală de venit. În esență, AI Mode amenință modelul economic care a susținut zeci de ani presa online. Vizitele venite din Google Search au fost, istoric, o sursă crucială de expunere și monetizare. Dacă aceste vizite dispar, multe publicații ar putea fi forțate să caute noi modele de finanțare sau chiar să-și închidă porțile. Această tendință a fost deja observată în faza de testare din Google Labs, unde AI Mode este disponibil momentan pentru un procent limitat de utilizatori. Totuși, direcția e clară: Google mizează pe o căutare AI-first, iar acest lucru va avea un impact major asupra întregului ecosistem digital. Google vs. ChatGPT: Bătălia pentru viitorul căutărilor online Prin lansarea AI Mode, Google intră în competiție directă cu ChatGPT de la OpenAI, dar și cu alți rivali care oferă motoare de căutare bazate pe inteligență artificială. Diferența majoră este, însă, resursa de date: Google are la dispoziție o bază uriașă de informații, actualizată în timp real și susținută de ani de indexare a întregului internet. AI Mode este integrat cu tehnologia Gemini, sistemul AI dezvoltat de Google, ceea ce îl face extrem de rapid, precis și relevant pentru căutările utilizatorilor. În plus, oferirea gratuită a acestei funcționalități este un avantaj important în fața competiției, care adesea condiționează accesul complet de un abonament plătit. Deși AI Mode este momentan disponibil doar pentru un grup restrâns, planul este clar: extinderea treptată către toți utilizatorii Google Search, transformând căutările într-un dialog permanent între om și inteligență artificială. Rămâne de văzut cum vor reacționa ceilalți jucători din industrie și cum se vor adapta publicațiile la noile reguli ale jocului. Un lucru este sigur: Google tocmai a schimbat regulile. Iar viitorul căutărilor online va fi mult mai inteligent – dar și mult mai competitiv.

Opinia ChatGPT – ce șanse are Nicușor Dan în turul 2 de la alegerile prezidențiale 2025. Paralela cu Ponta în 2014 și Năstase în 2004

opinia-chatgpt-–-ce-sanse-are-nicusor-dan-in-turul-2-de-la-alegerile-prezidentiale-2025.-paralela-cu-ponta-in-2014-si-nastase-in-2004

Alegerile prezidențiale din România au oferit de-a lungul timpului lecții politice importante despre mobilizarea electoratului, dinamica dintre tururi și impactul discursului public. Anul 2025 nu face excepție: prezența lui Nicușor Dan în turul al doilea al alegerilor prezidențiale, într-o confruntare directă cu George Simion, readuce în atenție precedente notabile din istoria electorală recentă. Pentru a înțelege cât de viabilă este o eventuală victorie a lui Nicușor Dan, o analiză comparativă cu Victor Ponta în 2014 și Adrian Năstase în 2004 este esențială. Năstase în 2004: favorita înfrânt de o mobilizare anti-sistem În turul 1 al alegerilor prezidențiale din 2004, Adrian Năstase, candidatul PSD, a obținut 40,97% din voturi. Avea o susținere solidă în rândul electoratului tradițional și părea candidatul inevitabil. Însă în turul 2, Traian Băsescu a reușit o răsturnare spectaculoasă, învingând cu 51,23%, grație unei campanii construite pe o puternică retorică anti-sistem. Ce a făcut diferența? În primul rând, capacitatea lui Băsescu de a mobiliza electoratul nehotărât și de a atrage voturile candidaților eliminați, în special ale celor care voiau o alternativă la PSD. În al doilea rând, s-a creat un val de respingere față de ceea ce era perceput ca o hegemonie politică a social-democraților. Votul negativ, la acel moment, a fost suficient pentru a înclina balanța. Pentru Nicușor Dan, care pornește turul 2 cu un dezavantaj numeric față de George Simion, paralela este relevantă. Nu vine cu o mașină politică de partid, dar poate fi beneficiarul unui vot anti-extremism și anti-populism. Dacă reușește să adune în jurul său toate forțele democratice și moderate, șansa unei victorii nu este exclusă. Ponta în 2014: înfrângerea la mustață în era rețelelor sociale Victor Ponta, liderul PSD la acea vreme, a câștigat primul tur al alegerilor din 2014 cu 40,44%, în timp ce Klaus Iohannis a obținut 30,37%. Diferența părea confortabilă pentru social-democrați, însă două săptămâni mai târziu, Ponta pierdea turul 2 cu 45,56%, în fața unui val fără precedent de mobilizare a electoratului din diaspora și a celui urban. Eșecul PSD-ului a fost alimentat de problemele organizatorice din afara țării și de percepția generalizată că sistemul încearcă să reducă șansele votului din diaspora. Klaus Iohannis a beneficiat de o campanie extrem de bine calibrată online, care a reușit să canalizeze indignarea și dorința de schimbare. Nicușor Dan se află într-o poziție similară cu Iohannis în 2014: aparent distant, rezervat în comunicare, dar perceput ca o opțiune mai moderată, rațională și tehnocrată. Diferența majoră față de acum un deceniu este că în 2025, platformele de social media, precum TikTok și YouTube, au un rol mult mai important. Campania se duce într-un ritm accelerat, iar mesajul trebuie să fie clar, concis și emoțional în același timp. Avantaje și vulnerabilități ale lui Nicușor Dan în turul 2 Principalul atu al lui Nicușor Dan este faptul că nu este perceput ca un politician clasic. A evitat, de-a lungul carierei, asocierea directă cu jocurile de putere, corupția și nepotismul. În contextul unei confruntări cu George Simion, imaginea sa de tehnocrat și apărător al valorilor democratice îl poate ajuta să câștige încrederea alegătorilor moderați. Pe de altă parte, stilul său discursiv nu este unul captivant. Într-un duel cu un populist abil și carismatic, așa cum este liderul AUR, riscul este ca Dan să pară prea slab sau lipsit de determinare. În plus, lipsa unei structuri de partid în spate poate complica organizarea în teritoriu, ceea ce contează mai ales în județele cu prezență scăzută. Un alt factor crucial este mobilizarea diasporei și a tinerilor. Dacă acești alegători, care de regulă nu ies masiv în turul 2 decât în momente de criză, se simt amenințați de posibila alegere a lui George Simion, Nicușor Dan poate beneficia de o mobilizare similară celei din 2014. Pentru aceasta, e nevoie de un mesaj clar: ce anume apără Dan și ce riscuri implică o victorie a contracandidatului său. Ce rol joacă votul negativ Atât în 2004 cât și în 2014, votul negativ a jucat un rol decisiv. Băsescu a câștigat pentru că era văzut ca alternativa la corupția PSD, iar Iohannis a fost ales ca reacție la abuzurile administrative din turul 1. În 2025, Nicușor Dan ar putea miza tot pe votul negativ – dar într-un context diferit. Dacă imaginea lui Simion este asociată cu discursuri xenofobe, cu poziții radicale și cu amenințări la adresa stabilității internaționale a României, votul împotriva lui ar putea coagula un front larg de susținători ai valorilor europene și democratice. Important este ca acest mesaj să fie bine articulat și amplificat prin toate canalele media posibile. Concluzii: lecțiile istoriei și șansele din prezent Dincolo de diferențele de epocă, profil și context politic, cazul lui Nicușor Dan în turul 2 al alegerilor prezidențiale din 2025 poate repeta scenariul din 2004 sau 2014, dacă sunt îndeplinite câteva condiții esențiale: Mobilizarea electoratului urban și din diaspora Coagularea unui front democratic și moderat în jurul său Transmiterea unui mesaj clar și emoțional despre riscurile pe termen lung Contracararea eficientă a mesajului populist Cu un efort coerent de campanie și susținerea vocilor influente din societate, Nicușor Dan are șansa să scrie o nouă pagină în istoria electorală a României. Rămâne de văzut dacă electoratul se va activa suficient pentru a înclina din nou balanța, așa cum a făcut-o în fața lui Năstase în 2004 și a lui Ponta în 2014.

Care sunt diferențele dintre modelele ChatGPT, cum te ajută în funcție de ceea ce vrei să obții – OpenAI dă cărțile pe față

care-sunt-diferentele-dintre-modelele-chatgpt,-cum-te-ajuta-in-functie-de-ceea-ce-vrei-sa-obtii-–-openai-da-cartile-pe-fata

OpenAI a publicat pe 3 mai un ghid dedicat utilizatorilor din mediul enterprise, dar ale cărui recomandări se aplică și publicului larg, în special celor care utilizează ChatGPT în varianta Plus. Numit „ChatGPT Enterprise – Models & Limits”, documentul oferă explicații clare privind diferențele dintre modelele disponibile și scenariile în care fiecare este cel mai eficient. În prezent, ChatGPT include cinci modele distincte: GPT-4o, o3, o4-mini, o4-mini-high și GPT-4.5. Fiecare model are puncte forte specifice, iar înțelegerea acestor diferențe poate ajuta utilizatorii să aleagă cel mai potrivit instrument pentru nevoile lor, fie că este vorba de scriere creativă, analiză de date sau rezolvarea unor probleme complexe, scrie publicația Bleeping Computer. GPT-4o vs. GPT-4.5, viteză și versatilitate versus creativitate avansată GPT-4o este modelul considerat „omni”, fiindcă integrează capabilități multimodale extinse: poate procesa texte, imagini, date audio și permite utilizarea unor funcții avansate precum generarea de imagini, interacțiunea cu canvas-ul și analiza datelor. Modelul este recomandat pentru sarcini de tipul rezumatelor, redactarea de emailuri sau brainstorming rapid, având un răspuns prompt și funcționalități versatile. Pe de altă parte, GPT-4.5 este descris ca fiind mai creativ și mai empatic. Este ideal pentru activități care presupun o înțelegere profundă a contextului, o exprimare fluidă și capacitatea superioară de generare de idei originale. În timp ce GPT-4o excelează la viteză și la integrarea diferitelor medii, GPT-4.5 este preferabil pentru redactarea de conținut complex, comunicare emoțională și scenarii care necesită o abordare inovatoare. Modelele o4-mini, o4-mini-high și o3, diferențierea prin profunzimea raționamentului Pentru utilizatorii interesați de sarcini tehnice sau analitice, OpenAI oferă și trei modele de tip reasoning: o4-mini, o4-mini-high și o3. Alegerea între acestea depinde de nivelul de complexitate al activității. Modelul o4-mini este optimizat pentru viteza de execuție și este ideal în cazul întrebărilor legate de știință, tehnologie, inginerie sau matematică (STEM), precum și pentru programare de bază sau raționamente vizuale simple. Versiunea îmbunătățită, o4-mini-high, oferă o acuratețe mai ridicată și este potrivită pentru codare avansată, explicații științifice detaliate și rezolvări matematice elaborate. Modelul o3, în schimb, este preferabil atunci când este vorba despre sarcini complexe, care implică mai mulți pași sau un plan strategic. Este recomandat pentru analize detaliate, proiecte ample de codare, probleme științifice sofisticate sau raționamente vizuale complicate. Toate aceste modele sunt accesibile doar în cadrul abonamentului ChatGPT Plus, disponibil pentru 20 de dolari pe lună. Așadar, dacă plătești, îți poți manual modelul preferat, în funcție de tipul sarcinii. Prin publicarea acestui ghid, OpenAI încearcă, de altfel, să reducă confuzia legată de denumirile și capabilitățile fiecărui model, facilitând astfel o utilizare mai eficientă a platformei, atât pentru utilizatorii obișnuiți, cât și pentru cei din mediul profesional.

OpenAI și problema halucinațiilor: Noul AI aduce progrese, dar și regrese semnificative

openai-si-problema-halucinatiilor:-noul-ai-aduce-progrese,-dar-si-regrese-semnificative

OpenAI a lansat recent noile modele de AI, o3 și o4-mini, promițând performanțe superioare în domenii precum rezolvarea de probleme matematice complexe, codificare și analize vizuale. Aceste progrese sunt lăudabile, însă o problemă veche și frustrantă continuă să bântuie modelele recente ale companiei: halucinațiile. Aceste erori, care implică generarea de informații incorecte sau complet inventate, sunt mult mai frecvente în modelele o3 și o4-mini decât în versiunile anterioare, iar acest lucru subminează utilitatea lor în diverse aplicații. Halucinațiile – un fenomen greu de controlat Halucinațiile sunt o problemă bine cunoscută în dezvoltarea inteligenței artificiale. În ciuda progresele tehnice remarcabile făcute de OpenAI, modelele sale recente au început să producă informații false mult mai frecvent decât predecesoarele lor. Potrivit rapoartelor din TechCrunch, modelele o3 și o4-mini au înregistrat rate alarmante de halucinații, chiar și în comparație cu modelele anterioare precum o1 și o3-mini. De exemplu, modelul o3 a avut o rată de halucinație de 33%, aproape dublu față de modelele anterioare. Cea mai mare problemă a fost înregistrată de modelul o4-mini, care a atins o rată de halucinație de 48%. Aceasta arată că, în ciuda îmbunătățirilor în alte domenii, cum ar fi percepția vizuală și analiza științifică, modelele actuale nu au reușit să reducă eroarea fundamentală care le face mai puțin fiabile și mai puțin utile. O problemă persistentă pe care OpenAI nu pare să o înțeleagă pe deplin Deși OpenAI se concentrează pe rezolvarea acestei probleme, compania nu pare să fi înțeles complet cauza acestor halucinații, după cum arată propriul raport tehnic al companiei. Conform acestuia, este nevoie de mai multe cercetări pentru a înțelege motivul din spatele acestui comportament necontrolat al noilor modele. De asemenea, rezultatele testelor interne ale OpenAI arată că modelele recente halucinează chiar mai mult decât versiunile anterioare. Spre exemplu, modelul o3, lansat în ianuarie 2025, a avut o performanță slabă în teste interne, producând răspunsuri eronate și chiar mințind despre sursele de informații folosite. În cazul o4-mini, OpenAI a explicat că acest model mai mic are „cunoștințe limitate despre lume”, ceea ce ar putea explica tendința sa de a genera informații false. Un alt aspect îngrijorător este tendința de a „justifica” aceste erori atunci când utilizatorii le semnalează. De exemplu, modelul o3 a răspuns că folosește un MacBook Pro pentru a efectua calcule și copiază rezultatele în ChatGPT, un răspuns complet fals, care nu are nicio legătură cu modul în care funcționează inteligența artificială. Soluții și progrese viitoare OpenAI a recunoscut că halucinațiile reprezintă o problemă semnificativă, dar a asigurat publicul că aceasta rămâne o zonă activă de cercetare. Niko Felix, un purtător de cuvânt al OpenAI, a declarat că „adresarea halucinațiilor în modelele noastre este un domeniu continuu de cercetare, iar noi lucrăm constant pentru a îmbunătăți acuratețea și fiabilitatea acestora.” Totuși, aceste progrese par să fie mult mai lente decât și-ar dori utilizatorii, iar până când soluțiile concrete vor deveni disponibile, modelele OpenAI, în special cele mai recente, pot reprezenta un risc pentru utilizatorii care se bazează pe informațiile generate. Este esențial ca aceste halucinații să fie controlate mai eficient, mai ales în contextul în care tehnologiile AI sunt utilizate tot mai des în medii profesionale, academice și comerciale, unde erorile pot avea consecințe semnificative. În concluzie, noile modele de inteligență artificială o3 și o4-mini de la OpenAI reprezintă un salt important în dezvoltarea tehnologiilor de raționare și analiză vizuală, dar problemele legate de halucinații rămân o barieră majoră în utilizarea acestora. Este esențial ca OpenAI și alți dezvoltatori de AI să continue să lucreze pentru a soluționa aceste deficiențe și a face tehnologiile mai fiabile, pentru a nu submina încrederea utilizatorilor.

Un pas înainte, doi înapoi – OpenAI retrage un update important pentru ChatGPT: Care este motivul, de fapt

un-pas-inainte,-doi-inapoi-–-openai-retrage-un-update-important-pentru-chatgpt:-care-este-motivul,-de-fapt

OpenAI a decis să retragă temporar una dintre cele mai recente versiuni ale modelului de inteligență artificială, GPT-4o, utilizat de ChatGPT, după ce numeroși utilizatori au reclamat o schimbare deranjantă a comportamentului acestuia. Mai precis, interacțiunile au devenit exagerat de lingușitoare, cu exprimări care au fost percepute ca fiind forțate, artificiale sau chiar stânjenitoare. Schimbările la ChatGPT au fost anunțate de Sam Altman, șeful OpenAI, pe rețelele de socializare CEO-ul companiei, Sam Altman, a confirmat într-o postare pe platforma X că se lucrează la corectarea acestor probleme. Potrivit acestuia, o parte dintre ajustări au fost implementate deja, în timp ce alte modificări urmează să fie aplicate în cursul acestei săptămâni. Începând de marți, utilizatorii versiunii gratuite a ChatGPT accesează o variantă mai veche a modelului, iar compania intenționează să extindă această schimbare și pentru utilizatorii plătitori. „Ultimele actualizări GPT-4o au dus la o personalitate prea docilă și iritantă, deși unele aspecte sunt foarte bine realizate”, a declarat Altman, adăugând că OpenAI va reveni cu detalii suplimentare despre cauzele acestui comportament neintenționat „la momentul potrivit”, potrivit publicației Engadget. Ambiția de a adăuga empatie digitală a dus la reacții neașteptate Lansat recent, modelul GPT-4o a fost conceput ca o alternativă mai accesibilă la versiuni anterioare mai complexe, precum GPT-4.5, însă cu păstrarea unor caracteristici legate de răspunsuri mai „calde” și „empatice”. Scopul declarat al OpenAI a fost de a face AI-ul mai „uman” în interacțiuni, pentru a oferi un sprijin mai bun utilizatorilor în conversații sensibile sau personale. Totuși, echilibrul între empatie și eficiență pare să fi fost depășit în această versiune. Mulți utilizatori au relatat pe rețelele desocializare că GPT-4o a început să ofere aprecieri excesive în contexte complet nejustificate, devenind uneori incoerent sau nepotrivit. Acest tip de comportament a fost interpretat ca fiind o tentativă de supra-compensare în direcția politeții sau a deferenței, dar au ajuns să afecteze utilitatea modelului în sarcinile serioase. În trecut, OpenAI a fost apreciată pentru rafinarea constantă a comportamentului modelelor lingvistice. Totuși, incidentul actual scoate în evidență dificultatea de a calibra o „personalitate digitală” care să fie agreabilă, dar și echilibrată. În contextul în care modelele de AI devin tot mai prezente în viața de zi cu zi, astfel de ajustări fine sunt esențiale pentru a menține încrederea și utilitatea acestor instrumente. Compania a promis că va comunica public detaliile tehnice privind eroarea și ajustările aplicate, însă fără a preciza un termen concret.