Cseke Attila condamnă atacul xenofob din București: Incidentul să nu treacă neobservat

Ministrul Dezvoltării, Cseke Attila, condamnă atacul xenofob din București în care un tânăr a lovit un livrator din Bangladesh, avertizând că astfel de incidente pot escalada dacă nu sunt tratate cu seriozitate. „Nu putem să construim o țară în care îi privim pe ceilalți de lângă noi după criteriul că nu se aseamănă cu noi, vorbește altă limbă, are altă culoare a pielii, are altă religie”, a declarat Cseke Attila, joi seara, la Digi 24, subliniind pericolul unei astfel de atitudini. „Responsabilitatea principală revine celor care propagă mesaje de ură” Ministrul a subliniat că România are milioane de cetățeni care lucrează în străinătate și că „nu ne-ar plăcea nici nouă dacă am auzi că un cetățean român este atacat în acest hal în centrul unei capitale europene”. El a precizat că victimele sunt „oameni care au venit în mod legal să muncească în România” și își fac meseria. Cseke Attila a atras atenția că responsabilitatea principală revine celor care propagă mesaje de ură și că statul român trebuie să acționeze „foarte dur și ferm” în astfel de situații. Tânărul agresor a fost arestat preventiv pentru 30 de zile Ministrul a avertizat că cel mai mare pericol ar fi ca incidentul să treacă neobservat: „Ca și bolnavul netratat, situația se va agrava, se vor înmulți aceste cazuri”. Un tânăr de 20 de ani din București a fost arestat preventiv pentru 30 de zile după ce a agresat fizic și verbal un livrator din Bangladesh, lovind victima în față și adresându-i insulte rasiale. „Care e problema?”, a întrebat livratorul, iar agresorul i-a spus: „Mergi înapoi în țara ta, asta e problema”, adresându-i o insultă rasială. Incidentul s-a petrecut în sectorul 2 și a fost filmat și oprit de un polițist aflat în timpul liber, care l-a imobilizat pe agresor când acesta a încercat să fugă.
MechaHitler pe patru roți. Grok intră la volan, pe Tesla: cât de periculos poate deveni AI-ul lui Elon Musk?
O combinație periculoasă între aroganță tehnologică și decizii luate în pripă pare să definească următorul pas făcut de Elon Musk: integrarea chatbotului Grok în mașinile Tesla. Grok, asistentul AI creat de compania xAI a lui Musk, a stârnit deja controverse serioase prin discursuri rasiste și autodefinirea ca „MechaHitler”. Cu toate acestea, miliardarul susține că „de săptămâna viitoare”, această inteligență artificială problematică va ajunge direct în vehiculele Tesla. Pentru oricine credea că pericolul AI în domeniul auto se limitează la sistemele de pilot automat, ceea ce urmează pare desprins dintr-un scenariu distopic. Să te gândești că un copil poate auzi, din boxele unei Tesla, elogii aduse lui Hitler, nu mai pare doar o teorie exagerată. Grok is coming to Tesla vehicles very soon. Next week at the latest. — Elon Musk (@elonmusk) July 10, 2025 Grok, asistentul anti-„woke” care scapă de sub control Grok a fost lansat ca un fel de alternativă „nefiltrată” la chatboturile considerate prea conforme cu normele sociale sau etice. Într-o lume obsedată de corectitudinea politică, Musk a pariat pe un AI care „spune ce gândește” — chiar și când ceea ce gândește este inacceptabil. Ceea ce a urmat a fost o serie de ieșiri din ce în ce mai toxice, culminând cu mesaje rasiste, antisemite și autoidentificarea AI-ului drept „MechaHitler”. Reacțiile nu au întârziat. După presiuni publice intense, xAI a șters unele dintre răspunsurile ofensatoare, dar nu pe toate. Musk a încercat să justifice comportamentul AI-ului spunând că Grok a fost „prea compliant” și că utilizatorii „l-au manipulat”. Dar aceste explicații nu reușesc să șteargă impresia că Grok este departe de a fi un produs controlat sau sigur, mai ales dacă urmează să stea la câțiva centimetri de volanul tău. De ce să integrezi un astfel de AI într-o mașină? În loc să folosească ocazia lansării Grok 4 pentru a anunța planul, Musk a preferat să posteze un tweet aleatoriu, într-un ton nonșalant, ca și cum ar fi vorbit despre lansarea unui wallpaper, nu a unui sistem care poate vorbi cu șoferii în mers. We have improved @Grok significantly. You should notice a difference when you ask Grok questions. — Elon Musk (@elonmusk) July 4, 2025 Tesla + Grok = rețeta perfectă pentru haos? Chiar dacă Elon Musk promite o integrare „foarte curând”, detaliile despre cum va funcționa Grok în Tesla lipsesc aproape complet. Se știe doar că Grok 4 vine cu noi voci, o latență mai scăzută în conversații și funcționalități de tip voice assistant. Practic, vei putea vorbi cu el așa cum vorbești cu Siri sau Google Assistant. Doar că, în loc să-ți spună vremea sau să-ți citească un mesaj, există riscul să înceapă o diatribă despre supremația ariană. Este și o decizie care vine într-un moment prost. Tesla se confruntă cu o scădere record a vânzărilor și cu pierderi masive pe bursă. În acest context, integrarea unui AI controversat în sistemul infotainment pare mai degrabă o mișcare disperată pentru a atrage atenția și a menține hype-ul, decât o decizie gândită cu responsabilitate. De altfel, nu ar fi prima promisiune nerealistă făcută de Musk în legătură cu Tesla. De la „full self-driving” care nu e încă „full”, până la termene de lansare amânate sau funcționalități anunțate pompos și apoi uitate, istoria ne arată că nu toate visurile tehnologice ale lui Musk devin realitate. Dar, în cazul lui Grok, ceea ce ar putea deveni realitate este o combinație între neprevăzut și periculos. Of course xAI asked grok to sing an opera song on Diet Coke 😂 pic.twitter.com/zd89K4r5fe — Nic Cruz Patane (@niccruzpatane) July 10, 2025 Inteligența artificială la volan: cât de pregătiți suntem cu adevărat? Deși Tesla nu este primul producător auto care integrează AI conversațional în sistemele sale (Mercedes a colaborat cu OpenAI și ulterior cu Google pentru astfel de funcții), diferența majoră este atitudinea față de siguranță și filtrarea conținutului. În timp ce alți jucători din industrie prioritizează controlul și responsabilitatea, Grok este promovat exact pentru lipsa acestor „limitări”. Această lipsă de filtre ar putea deveni periculoasă în contextul unei mașini care are deja sisteme automate de asistență la condus. Dacă Grok spune lucruri inadecvate în momente tensionate — sau dacă distrage șoferul cu remarci provocatoare — se poate ajunge la situații cu adevărat riscante. În plus, întrebarea de bază rămâne: cine are nevoie de un chatbot în mașină? Într-un vehicul în care siguranța și concentrarea ar trebui să fie prioritare, introducerea unui AI instabil care poate genera răspunsuri absurde sau chiar ofensatoare pare mai mult un experiment social decât un pas tehnologic util. Ce urmează? O Tesla care te ceartă dacă nu ești „anti-woke” sau care îți spune glume rasiste în drum spre muncă? Dacă nu ți se pare o idee bună, poate că e timpul să regândești relația dintre AI și mobilitate. Nu orice inovație e un pas înainte — uneori, e doar o problemă care așteaptă să explodeze.
Sora de la OpenAI: Un model AI cu probleme mari de rasism și sexism

OpenAI, liderul în dezvoltarea inteligenței artificiale, s-a confruntat recent cu o serie de critici legate de unul dintre modelele sale de generare a conținutului vizual, Sora. Chiar dacă tehnologia de generare a video-urilor a evoluat rapid, un raport realizat de Wired a scos la iveală faptul că Sora perpetuează stereotipuri rasiale, sexiste și ableiste, iar aceste probleme ar putea avea consecințe grave pentru grupurile marginalizate. Într-o eră în care AI-ul joacă un rol din ce în ce mai important în crearea de reprezentări vizuale, aceste erori sunt deosebit de îngrijorătoare. Unul dintre cele mai evidente tipare de discriminare din Sora a fost reprezentarea inegală a bărbaților și femeilor în profesii. În timpul unui test în care au fost folosite 25 de prompturi pentru a descrie diverse acțiuni și ocupații, modelul AI a generat rezultate extrem de stereotipe. De exemplu, atunci când a fost solicitat să creeze un video cu „un pilot”, Sora nu a generat niciun video cu o femeie, în timp ce atunci când a fost întrebat să creeze un „însoțitor de zbor”, toate rezultatele au fost cu femei. În plus, profesiile de CEO și profesor au fost reprezentate exclusiv de bărbați, iar cele de recepționer și asistentă medicală doar de femei. Aceste rezultate reflectă o viziune sexista profund înrădăcinată, care nu doar că subminează egalitatea de gen, dar și limitează diversitatea în reprezentarea locurilor de muncă. Reprezentarea rasială și deficiențele includerii diversității Un alt punct problematic în raportul Wired a fost limita rasială a reprezentărilor generate de Sora. În aproape toate cazurile în care nu se specifica rasa, Sora a generat imagini ale unor persoane care erau fie albii, fie negri, iar oamenii de alte rase sau etnii erau extrem de rare. De asemenea, modelul a întâmpinat dificultăți majore când i s-a solicitat să creeze imagini ale unui cuplu interrasial. În majoritatea cazurilor, Sora a generat doar cupluri de culoare neagră, iar când a fost întrebat să creeze un cuplu cu un partener alb și unul negru, aproximativ jumătate din cazuri au produs imagini corecte ale unui cuplu interrasial, dar celelalte au generat tot cupluri doar din persoane negre. Detaliul uluitor a fost că, în fiecare dintre aceste cazuri, Sora a pus o cămașă albă pe o persoană și o cămașă neagră pe cealaltă. Aceasta ilustrează o viziune superficială și destul de simplistă a diversității rasiale. Ignorarea diversității corporale și a persoanelor cu dizabilități Sora nu a fost mai puțin problematică atunci când a fost întrebat despre persoane cu dizabilități sau persoane supraponderale. În ceea ce privește dizabilitățile, toate cererile pentru „o persoană cu dizabilități” au produs imagini cu persoane în scaune cu rotile, dar care rămâneau imobile, ceea ce este o reprezentare extrem de stereotipură și învechită a persoanelor cu dizabilități. Mai grav, când i s-a cerut să creeze un video cu „o persoană supraponderală care aleargă”, majoritatea rezultatelor nu au prezentat deloc persoane supraponderale. În schimb, aceștia au creat imagini cu persoane care nu îndeplineau criteriile. Această „refuzare indirectă” poate reflecta limitele datelor de instruire ale AI-ului sau poate fi o consecință a unor măsuri stricte de moderare a conținutului. Consecințele reprezentării greșite și căile de abordare ale OpenAI Experții sunt de părere că aceste erori nu sunt doar o chestiune tehnică, ci pot avea un impact real asupra societății. Amy Gaeta, cercetător asociat la Centrul Leverhulme pentru Viitorul Inteligenței al Universității din Cambridge, a subliniat că „aceste imagini distorsionate pot face rău real în lumea reală”. Reprezentarea superficială și părtinitoare a diferitelor grupuri poate amplifica stereotipurile și poate marginaliza persoanele care nu se încadrează în aceste imagini idealiștice. OpenAI a recunoscut existența acestui tip de prejudecăți și a declarat că se află în proces de cercetare pentru a ajusta datele de instruire și a minimiza rezultatele părtinitoare. „OpenAI are echipe de siguranță dedicate pentru a cerceta și reduce părtinirea și alte riscuri ale modelelor noastre”, a declarat un purtător de cuvânt al OpenAI. Totuși, compania a evitat să ofere detalii suplimentare cu privire la modul în care va implementa aceste ajustări. În concluzie, Sora nu este un caz izolat, ci un exemplu al problemelor pe care modelele AI le pot perpetua dacă nu sunt controlate cu atenție. Într-o eră în care inteligența artificială devine din ce în ce mai influentă în formarea percepțiilor noastre despre lume, este esențial ca dezvoltatorii să ia măsuri mai eficace pentru a asigura că aceste tehnologii reflectă diversitatea reală a societății și nu întăresc prejudecăți învechite.