Inteligență artificială și deepfake-uri: UE pregătește legea AI Act

inteligenta-artificiala-si-deepfake-uri:-ue-pregateste-legea-ai-act

Conform noilor norme, orice tip de material realizat sau alterat prin sisteme de inteligență artificială – inclusiv deepfake-urile – va trebui să fie însoțit atât de o etichetă vizibilă, cât și de un marcaj tehnic care să permită identificarea automată. Scopul legii „AI Act” este creșterea transparenței și combaterea dezinformării, într-o perioadă în care diferențierea dintre conținutul real și cel artificial devine tot mai dificilă. Pentru a sprijini mediul privat și instituțiile, Comisia Europeană a lansat o primă formă a Codului de bune practici privind transparența materialelor generate de IA. Documentul, realizat cu contribuția unor specialiști independenți și a reprezentanților din industrie, are caracter voluntar, mai arată La Stampa. Codul de bune practici: structura și obiectivele Documentul este rezultatul unei colaborări demarate în luna noiembrie, la care au participat sute de persoane. Codul include două secțiuni distincte: una adresată dezvoltatorilor de sisteme IA și alta destinată utilizatorilor acestor tehnologii. Obiectivul este oferirea de soluții practice pentru respectarea cerințelor AI Act. Se va proceda fără a introduce, în acest stadiu, obligații peste cele prevăzute de lege. AI Act impune ca furnizorii de algoritmi generativi să asigure etichetarea clară, în format compatibil cu sisteme informatice, a materialelor create – fie ele texte, imagini, fotografii sau videoclipuri – astfel încât să fie detectabile ca artificiale. Codul propune o abordare de tip „multilayer”, combinând tehnici precum filigrane invizibile, metadate încorporate și alte tipuri de marcaje active. Totodată, se recomandă dezvoltarea unor instrumente de verificare accesibile publicului, inclusiv aplicații sau detectoare gratuite. Deepfake-uri, texte generate automat și marcaj comun Pentru deepfake-uri și pentru textele create de IA în scop informativ, legislația cere o mențiune explicită a originii artificiale. Codul stabilește o diferențiere clară între materialele generate integral de IA și cele în care IA este folosită doar pentru modificări punctuale, cum ar fi schimbarea feței sau a vocii într-un clip video. Se prevede și introducerea unei iconițe standard, alcătuită din inițialele expresiei „inteligență artificială” adaptate limbii fiecărui stat membru UE. Aceasta urmează să fie afișată vizibil la prima expunere a conținutului. Comisia Europeană va colecta opinii și sugestii privind acest proiect până la data de 23 ianuarie. O a doua versiune este estimată pentru jumătatea lunii martie, iar forma finală ar putea fi publicată până în iunie. Cerințele de transparență prevăzute de AI Act vor deveni obligatorii de la 2 august 2026, existând posibilitatea unei perioade de tranziție de șase luni pentru furnizori, dacă va fi aprobat pachetul Digital Omnibus.

UE nu cedează în fața Big Tech, precum Google, Meta și OpenAI: legea privind inteligența artificială va fi aplicată fără întârziere

ue-nu-cedeaza-in-fata-big-tech,-precum-google,-meta-si-openai:-legea-privind-inteligenta-artificiala-va-fi-aplicata-fara-intarziere

Uniunea Europeană a transmis un mesaj clar marilor companii din domeniul tehnologiei: nu va exista niciun fel de amânare în implementarea AI Act, legea istorică ce reglementează utilizarea inteligenței artificiale pe teritoriul comunitar. În ciuda presiunilor tot mai mari din partea unor lideri din industrie și a apelurilor publice pentru o „pauză” în aplicarea noilor reguli, Bruxelles-ul își menține ferm poziția. Anunțul vine într-un moment în care zeci de companii din Europa și SUA, inclusiv giganți precum Google, Meta sau producătorii de modele AI precum OpenAI, încearcă să influențeze agenda europeană invocând riscuri pentru inovație și competitivitate. Presiuni tot mai mari pentru o amânare a legii AI Act a intrat oficial în vigoare în februarie 2025, dar aplicarea sa este una progresivă. Următoarea etapă importantă va avea loc pe 2 august 2025, când intră în vigoare obligații noi pentru dezvoltatorii de „modele de AI cu uz general” — așa cum sunt ChatGPT, Gemini sau Grok. Aceștia vor fi obligați să ofere mai multă transparență cu privire la algoritmii folosiți, seturile de date care le antrenează modelele și riscurile pe care le pot genera. În ultima lună, mai multe companii au încercat să convingă Comisia Europeană să acorde un moratoriu sau să amâne aplicarea prevederilor-cheie. Pe 3 iulie, o scrisoare deschisă semnată de peste 40 de lideri din mediul de afaceri european — inclusiv de CEO-ul Airbus, de șeful Carrefour sau de fondatorul start-up-ului francez Mistral AI — a cerut o „pauză” pentru a nu sufoca ecosistemul de inovație european. Comisia Europeană a respins însă categoric aceste cereri. „Am văzut multe rapoarte, scrisori și declarații despre AI Act. Permiteți-mi să fiu clar: nu există nicio pauză, niciun termen de grație, nicio amânare”, a declarat purtătorul de cuvânt al Comisiei, Thomas Regnier. Aplicare etapizată, dar fără compromisuri Deși legea va fi aplicată progresiv pentru a permite companiilor și statelor membre să se adapteze, Bruxelles-ul insistă că termenele legale nu se vor schimba. După intrarea în vigoare a obligațiilor pentru modelele de uz general în august 2025, va urma un nou prag în august 2026, când se vor aplica reglementări mai stricte pentru modelele de AI considerate „cu risc ridicat” — folosite, de exemplu, în sănătate, educație sau justiție. Companiile vizate vor trebui să efectueze evaluări de risc, să furnizeze documentație tehnică detaliată și să asigure trasabilitatea deciziilor generate de AI. Este un set de cerințe fără precedent, care vine pe fondul unor preocupări crescânde privind „halucinațiile” AI, erori în generarea de conținut, lipsa transparenței și riscurile de manipulare. Comisia susține că aceste reguli sunt esențiale pentru a proteja drepturile fundamentale ale cetățenilor și pentru a asigura încrederea în tehnologiile emergente. Un semnal puternic pentru întreaga lume Prin fermitatea cu care își menține calendarul AI Act, Uniunea Europeană dorește să stabilească un standard global pentru reglementarea inteligenței artificiale, similar cu ceea ce a reușit cu legislația GDPR privind protecția datelor. „Uniunea Europeană vrea să arate că este posibil să îmbinăm inovația cu responsabilitatea”, a explicat un oficial european citat de Reuters. De altfel, AI Act este prima lege cuprinzătoare privind inteligența artificială adoptată la nivel mondial și este urmărită cu atenție de guverne, companii și activiști din întreaga lume.