Victorie a companiei Meta în procesul privind drepturile de autor în domeniul AI. Avertismentul judecătorului
Compania Meta a câștigat procesul intentat de mai mulți scriitori privind drepturile de autor în domeniul inteligenței artificiale. Utilizarea de către compania Meta a milioane de cărți online pentru a-și antrena modelele de inteligență artificială, fără consimțământul scriitorilor, a fost considerată „corectă” de către un tribunal federal miercuri. Decizia reprezintă o victorie pentru companiile de tehnologie care utilizează materiale protejate de drepturi de autor pentru a dezvolta inteligența artificială. Cazul, intentat de 12 autori, inclusiv Ta-Nehisi Coates și Richard Kadrey, a contestat modul în care gigantul social media a utilizat o bibliotecă online de milioane de cărți, articole academice și benzi desenate pentru a-și antrena modelele AI Llama. Utilizarea de către compania Meta a titlurilor respective este protejată în temeiul dispoziției privind utilizarea echitabilă din legea drepturilor de autor, a decis judecătorul districtual Vince Chhabria din San Francisco. Compania Meta susținuse că operele au fost utilizate pentru a dezvolta o tehnologie inovatoare, ceea ce era corect „indiferent” de modul în care a achiziționat operele. A doua victorie într-o săptămână pentru companiile de tehnologie Chris Cox, Chief Product Officer al companiei Meta, în timpul LlamaCon 2025, o conferință a dezvoltatorilor AI, la Menlo Park, California, marți, 29 aprilie 2025. Acest caz se numără printre zecile de bătălii juridice în care creatorii încearcă să obțină drepturi financiare mai mari atunci când operele lor sunt utilizate pentru a antrena modele AI care le pot distruge sursele de venit – în timp ce companiile profită de tehnologie, conform Financial Times. Cu toate acestea, Chhabria a avertizat că decizia sa reflectă eșecul autorilor de a-și prezenta cazul corect. „Această hotărâre nu susține că utilizarea de către Meta a materialelor protejate de drepturi de autor pentru a-și antrena modelele lingvistice este legală”, a spus el. „Ea se referă doar la faptul că acești reclamanți au prezentat argumente greșite și nu au reușit să elaboreze un dosar în sprijinul argumentelor corecte.” Aceasta este a doua victorie într-o săptămână pentru companiile de tehnologie care dezvoltă inteligență artificială, după ce, luni, un judecător federal s-a pronunțat în favoarea Anthropic, companie din San Francisco, într-un caz similar. Anthropic și-a antrenat modelele Claude pe cărți în format fizic achiziționate legal, care au fost tăiate și scanate manual, ceea ce, potrivit hotărârii, constituie o „utilizare corectă”. Cu toate acestea, judecătorul a adăugat că va fi nevoie de un proces separat pentru acuzațiile de piratare a milioane de cărți în format digital pentru antrenarea AI. Cazul Meta se referea la LibGen, o așa-numită “bibliotecă paralelă” online, unde mare parte din conținut este păstrat fără permisiunea deținătorilor de drepturi. Chhabria a sugerat că un „argument potențial câștigător” în cazul Meta ar fi diluarea pieței, referindu-se la daunele cauzate deținătorilor de drepturi de autor de către produsele AI care ar putea „inunda piața cu cantități nesfârșite de imagini, cântece, articole, cărți și multe altele”. „Oamenii se pot folosi de modelele de inteligență artificială generativă pentru a produce aceste rezultate, folosind o fracțiune infimă din timpul și creativitatea care ar fi necesare în caz contrar”, a adăugat Chhabria. Judecătorul a avertizat că AI ar putea „submina în mod dramatic stimulentul pentru ființele umane de a crea lucruri în vechea manieră”. Foto: Profimedia CITIȚI ȘI: Directorul OpenAI acuză compania Meta că încearcă să-i “fure” dezvoltatorii cu bonusuri de angajare de 100 de MILIOANE de dolari Adrian Sabău, originar din București, a absolvit studiile de licență la Universitatea din București. Aflat la începutul carierei la “Gândul”, a mai lucrat anterior ca traducător. Este pasionat … vezi toate articolele
Reddit dă în judecată compania de inteligență artificială Anthropic pentru utilizarea neautorizată a datelor utilizatorilor săi
Platforma socială Reddit a depus o plângere juridică împotriva Anthropic, o companie de inteligență artificială, acuzând-o că a utilizat în mod ilegal comentariile utilizatorilor pentru a antrena chatbot-ul său, Claude. Procesul, depus în instanța superioară din California, San Francisco, subliniază conflictele emergente între giganții din tehnologie și platformele de social media, pe măsură ce inteligența artificială progresează rapid. Potrivit echipei juridice Reddit, Anthropic ar fi folosit roboți pentru a accesa automat conținutul postat de utilizatorii platformei, în ciuda faptului că i s-a cerut explicit să nu facă acest lucru. Mai mult, Reddit acuză compania că ar fi colectat și utilizat datele personale ale utilizatorilor fără consimțământul acestora. Ce înseamnă „scraping” și de ce este o problemă? Practica denumită „scraping” reprezintă procesul de extragere automatizată a datelor de pe o platformă prin intermediul unor programe sau algoritmi specializați. În cazul de față, Reddit susține că Anthropic ar fi folosit această tehnică pentru a accesa și a colecta comentariile postate de utilizatori, cu scopul de a antrena algoritmi în dezvoltarea chatbot-ului Claude. Anterior, Reddit a permis utilizarea publică a datelor sale prin intermediul unor acorduri licențiate cu companii precum OpenAI și Google, pentru dezvoltarea unor produse bazate pe inteligență artificială. Cu toate acestea, reprezentanții Reddit subliniază că aceste acorduri oferă utilizatorilor garanția unor protecții importante: dreptul de a șterge conținut, confidențialitatea datelor și măsuri de protecție împotriva spamului. În cazul Anthropic, însă, aceste principii nu ar fi fost respectate, conform afirmațiilor platformei social media. „Companiile de inteligență artificială nu ar trebui să aibă voie să colecteze și să folosească informațiile și conținutul utilizatorilor fără limitări clare cu privire la modul în care pot utiliza aceste date”, a declarat Ben Lee, directorul juridic al Reddit, citat de independent.co.uk. Impactul cazului asupra relației dintre platformele online și AI Acest proces subliniază presiunea crescândă cu care companiile din domeniul tehnologiei se confruntă, în special în contextul noii erupții de servicii bazate pe inteligență artificială. În absența unor reglementări clare, platformele care gestionează date publice, precum Reddit, își doresc să limiteze accesul neautorizat și să stabilească reguli clare cu privire la utilizarea informațiilor postate de utilizatori. Pe de altă parte, start-up-urile care dezvoltă sisteme de inteligență artificială, cum este Anthropic, întâmpină dificultăți în accesul la date masive, necesare pentru antrenarea algoritmilor. În acest caz, comentariile Reddit se dovedesc atractive datorită volumului mare de informații conversaționale disponibile, utilizate pentru a îmbunătăți modelele conversaționale cum este Claude. Procesul împotriva Anthropic va testa limitele legale ale practicii de „scraping” și poate stabili un precedent important în ceea ce privește accesul la datele online. În același timp, decizia ar putea influența piața tehnologică, obligând companiile de AI să negocieze mai frecvent acorduri de utilizare cu platformele de social media sau să exploreze metode alternative pentru colectarea datelor. Reddit continuă să protejeze drepturile utilizatorilor săi, declarând că utilizarea responsabilă și transparentă a datelor este o prioritate în relațiile sale cu partenerii tehnologici. Rămâne de văzut cum va evolua acest caz și ce implicații va avea pentru industria inteligenței artificiale și protecția datelor utilizatorilor online.
Nimeni nu știe cu adevărat cum funcționează inteligența artificială: CEO-ul Anthropic face o mărturisire cutremurătoare
Cât de bine înțelegem inteligența artificială pe care o dezvoltăm frenetic în fiecare zi? Dacă ai presupus că experții din domeniu au totul sub control, pregătește-te pentru o revelație șocantă: chiar creatorii unora dintre cele mai avansate modele de AI recunosc că nu știu exact cum funcționează acestea. Dario Amodei, CEO-ul companiei Anthropic și fost membru important al echipei OpenAI, a publicat un eseu în care afirmă răspicat ceea ce mulți doar suspectau – că înțelegerea noastră asupra AI-ului este, în esență, superficială și incompletă. Este o declarație care pune pe gânduri nu doar lumea tehnologică, ci și pe oricine este interesat de viitorul umanității. Pentru că atunci când nici măcar inginerii nu pot explica cu precizie ce face un AI să aleagă anumite cuvinte sau să comită erori aparent aleatorii, te întrebi dacă nu cumva ne jucăm cu focul. Amodei subliniază că atunci când un sistem AI generează un text sau rezumă un document financiar, nu există o explicație clară privind deciziile pe care le ia. De ce alege un cuvânt în locul altuia? De ce dă uneori răspunsuri greșite, deși în mod obișnuit este corect? Aceste întrebări rămân fără răspuns, pentru că, spune el, „nu înțelegem la un nivel precis ce se întâmplă în interiorul acestor modele”. Această lipsă de transparență nu este doar un inconvenient academic – este, potrivit lui Amodei, fără precedent în istoria tehnologiei. Majoritatea inovațiilor tehnologice, de la motoarele cu aburi la circuitele electronice, au fost construite pe baza unei înțelegeri profunde a principiilor care le guvernează. AI-ul, în schimb, se bazează pe statistici și modele antrenate pe cantități imense de date umane. Nu pornește de la principii logice sau de la o „gândire” propriu-zisă, ci imită, fără a înțelege, creația umană. Ce vrea să facă Anthropic: un fel de RMN pentru creierul AI-ului Pentru a sparge această cutie neagră, Anthropic își propune să construiască un sistem de „RMN al inteligenței artificiale” în următorul deceniu. Scopul este de a înțelege cu adevărat cum funcționează aceste modele, înainte ca ele să atingă un nivel de putere care ar putea fi de neoprit. Amodei explică faptul că firma sa a început deja să experimenteze. Într-un test recent, au creat intenționat un „defect de aliniere” într-un model – o tendință de a exploata o scăpare dintr-o sarcină – și au cerut mai multor echipe să-l descopere. Unele dintre aceste echipe au reușit, folosind instrumente de interpretare a AI-ului, ceea ce sugerează că există speranță pentru a înțelege aceste sisteme. Este important de notat că acest proces de „reverse-engineering” al AI-ului nu este ușor și că instrumentele actuale sunt departe de a fi scalabile. Dar faptul că cei de la Anthropic nu se concentrează doar pe performanță, ci și pe înțelegerea procesului intern, oferă o direcție diferită față de marile companii concurente, cum ar fi OpenAI sau Google DeepMind. De ce contează interpretabilitatea înainte de a fi prea târziu Când vine vorba de inteligență artificială, miza nu este doar una tehnologică – ci una civilizațională. Amodei avertizează că AI-ul va modela destinul umanității și că este absolut necesar să înțelegem aceste creații înainte ca ele să transforme radical economia, viața noastră de zi cu zi și viitorul speciei umane. Motivul pentru care Amodei a părăsit OpenAI în 2020, alături de sora sa Daniela și alți cinci colegi, a fost tocmai preocuparea că siguranța era sacrificată în favoarea profitului. Prin Anthropic, încearcă să creeze un echilibru: dezvoltarea AI-ului, dar și controlul său. „Oamenii sunt pe bună dreptate îngrijorați,” spune Amodei, pentru că avem de-a face cu o tehnologie capabilă de decizii și acțiuni care scapă înțelegerii umane. Dacă nu vom înțelege în timp util cum funcționează, s-ar putea ca într-o zi AI-ul să ia decizii în locul nostru, iar noi să nu știm nici măcar de ce sau cum. Această confesiune din partea unui lider de top din domeniul AI ar trebui să te pună pe gânduri. Trăim o epocă în care tehnologia progresează mai repede decât capacitatea noastră de a o înțelege. De aceea, următoarea bătălie majoră nu va fi pentru viteză sau eficiență, ci pentru transparență și înțelegere. Pentru că viitorul nu trebuie doar construit – trebuie și înțeles.
Nici inventatorii AI nu înțeleg foarte bine cum evoluează inteligența artificială: Avertismentul unui expert în domeniu
Dario Amodei, CEO-ul companiei Anthropic, a publicat recent un eseu în care subliniază că, în ciuda progreselor semnificative din domeniul inteligenței artificiale, cercetătorii nu înțeleg pe deplin cum funcționează modelele de AI de vârf. Amodei a stabilit un obiectiv ambițios: până în 2027, Anthropic va trebui să poată detecta majoritatea problemelor legate de modelele de AI într-un mod fiabil, scrie publicația TechCrunch. Obiectivul face parte dintr-o abordare ceva mai complexă de interpretabilitate a modelelor AI, domeniu în care Anthropic joacă un rol important. Amodei recunoaște că aceasta este o provocare mare, însă consideră că este esențial ca, pe măsură ce aceste tehnologii devin tot mai autonome și influente asupra economiei, tehnologiei și securității naționale, să înțelegem mai bine cum funcționează. „Aceste sisteme vor fi esențiale pentru viitorul umanității, iar ignorarea modului în care operează este inacceptabilă”, a spus el în eseul său. Progrese timide, dar importante în interpretabilitatea AI Anthropic a reușit deja câteva progrese importante în acest domeniu, descoperind moduri de a urmări traseele de gândire ale modelelor AI, proces numit „circuit”. De exemplu, compania a identificat un astfel de circuit care ajută modelele AI să înțeleagă ce orașe din Statele Unite sunt în ce state. Deși aceasta vorbim despre o realizare semnificativă, Anthropic estimează că există milioane de astfel de circuite, iar descoperirea acestora este încă la început. Amodei spune că AI-ul este adesea „crescut” mai mult decât „construit”, adică îmbunătățirea acestuia se face pe baza unor metode care nu sunt încă complet înțelese de cercetători. Cu toate acestea, provocările nu sunt de neglijat. În eseurile lui anterioare, el a menționat că nu înțelegerea completă a modului în care funcționează modelele AI ar putea fi periculoasă, în special în cazul unui potențial sistem de inteligență artificială generală (AGI), care ar putea avea un impact imens asupra societății. Mai mult, el a menționat că ar putea fi periculos să ajungem la un astfel de sistem fără a înțelege cum funcționează modelele care stau la baza acestuia. În viitor, obiectivul Anthropic este de a efectua „scanări cerebrale” ale modelelor AI de vârf, pentru a identifica posibilele probleme, inclusiv tendința lor de a minti sau de a căuta puterea. Acest lucru ar putea dura între cinci și zece ani, dar Amodei consideră că acest tip de verificări vor fi esențiale pentru dezvoltarea responsabilă a tehnologiilor AI. Colaborare inter-industrială: este nevoie de reglementări pentru siguranța AI Amodei a lansat un apel inclusiv către alte companii importante, cum ar fi OpenAI și Google DeepMind, pentru a intensifica cercetările în domeniul interpretabilității, precum și pentru ca guvernele să impună reglementări „ușoare” care să încurajeze aceste cercetări. În eseurile sale, Amodei sugerează ca guvernul SUA să pună controale de export asupra cipurilor către China, pentru a limita riscurile unei curse globale necontrolate a inteligenței artificiale. În ceea ce privește siguranța AI, Anthropic a fost mult mai proactivă decât alte companii, fiind un susținător al propunerii de lege AI din California, care ar fi impus standarde de raportare a siguranței pentru modelele de AI de frontieră.