Wikipedia zice la revedere inteligenței artificiale. Motivul pentru care a luat decizia, controversa din spate
Fundația Wikimedia a anulat un test planificat cu rezumate generate automat pe Wikipedia, în urma reacțiilor negative masive ale comunității de editori. Concret, fundația Wikimedia, organizația non-profit care administrează Wikipedia, a decis să oprească un test propus privind includerea de rezumate generate de inteligență artificială (AI) în paginile enciclopediei online, scrie publicația Kotaku. Inițiativa a fost întâmpinată cu o opoziție categorică din partea comunității globale de editori voluntari, care au avertizat asupra riscului de compromitere a fiabilității și credibilității platformei. Testul de generare cu AI, abandonat în fașă Testul ar fi urmat să înceapă în iunie 2025 și se baza pe modelul lingvistic deschis Aya, dezvoltat de compania Cohere. Sumarurile generate urmau să fie afișate în partea superioară a articolelor, într-o versiune mobilă a site-ului, marcate clar ca neconfirmate. Scopul declarat era de a face articolele complexe mai accesibile cititorilor cu niveluri diferite de înțelegere. Anunțul privind testul a fost publicat discret pe o pagină numită „Simple Article Summaries” și a generat imediat un val de critici din partea editorilor. Comentariile inițiale au fost scurte și clare: „Scârbos”, „Nu faceți asta”, „Asta ar dăuna ireversibil reputației noastre”. Un alt editor a adăugat: „Nu vrem un nou strat de conținut care va genera conflicte editoriale. Un sumar scris de oameni e suficient.” A doua zi, Fundația Wikimedia a revenit asupra deciziei, anunțând anularea testului. Într-un comunicat transmis publicației 404Media, reprezentanții fundației au precizat că intenția era de a evalua interesul pentru o astfel de funcționalitate și de a explora eventuale metode de moderare comunitară. Wikipedia se bazează, în mare măsură, pe editori voluntari Editorii Wikipedia sunt voluntari care contribuie în mod esențial la menținerea calității și actualității conținutului. În lipsa lor, secțiuni întregi ale enciclopediei riscă să devină învechite sau inexacte. Criticii AI-ului generativ atrag atenția că astfel de tehnologii pot produce conținut eronat, părtinitor sau lipsit de surse, ceea ce contravine principiilor enciclopediei libere. Wikipedia este una dintre puținele platforme majore de pe internet care nu afișează reclame, nu percepe taxe și este construită exclusiv prin efortul colectiv al utilizatorilor săi. Pentru mulți, păstrarea integrității editoriale este o chestiune de principiu. Unii editori au comparat pericolul introducerii AI-ului nesupravegheat cu o catastrofă culturală digitală, echivalentă cu arderea Bibliotecii din Alexandria.
Wikimedia, obosită de traficul generat de inteligența artificială care încearcă să învețe. Ce soluții se propun
Fundația Wikimedia a anunțat recent că traficul generat de boturile automate destinate antrenării modelelor de inteligență artificială a pus o presiune semnificativă pe serverele Wikipedia. Din ianuarie 2024, acestea au crescut utilizarea lățimii de bandă pentru descărcarea conținutului multimedia cu 50%, ceea ce a dus la creșterea costurilor tehnice și financiare pentru Wikimedia. În ciuda contribuțiilor semnificative ale platformei, traficul boturilor a dus la o utilizare excesivă a resurselor, fără a aduce beneficii directe pentru comunitatea Wikimedia. Impactul boturilor asupra infrastructurii Wikimedia, un dezastru Wikimedia, care găzduiește platforme precum Wikipedia și Wikimedia Commons, unde sunt stocate aproximativ 144 de milioane de fișiere media sub licențe deschise, se confruntă cu un fenomen tot mai des întâlnit în comunitatea software-ului open-source: scraping-ul automatizat. Aceste boturi, care colectează date pentru modelele de inteligență artificială, accesează masiv și rapid fișierele de pe platformele Wikimedia. În ciuda beneficiilor evidente ale Wikimedia pentru dezvoltarea AI, traficul generat automat pune în pericol sustenabilitatea infrastructurii comunității. Problema devine evidentă atunci când sunt analizate cazurile de trafic masiv simultan. De exemplu, la moartea fostului președinte al SUA, Jimmy Carter, în decembrie 2024, pagina sa Wikipedia a înregistrat milioane de accesări. Însă stresul real a fost cauzat de faptul că utilizatorii au vizionat un video lung de 1,5 ore de pe Wikimedia Commons. Aceasta a dus la dublarea traficului normal, iar unele conexiuni de internet au fost temporar supraîncărcate. În mod surprinzător, mare parte din lățimea de bandă a fost deja folosită de boturile care făceau scraping pe platformă, înainte ca utilizatorii reali să acceseze conținutul, scrie ArsTechnica. Ce soluții se pot găsi pentru echilibrarea accesului la infrastructură Fundația Wikimedia spune faptul că accesul liber la informație nu înseamnă lipsă de costuri pentru infrastructura necesară susținerii acestui acces. Deși multe companii AI se bazează pe informațiile oferite de platforme precum Wikimedia pentru a antrena modelele comerciale, acestea nu contribuie la susținerea infrastructurii care face posibil accesul liber la aceste cunoștințe. Acest lucru creează un dezechilibru tehnic ce amenință sustenabilitatea platformelor comunitare. În acest context, Wikimedia a lansat inițiativa WE5, adică utilizarea responsabilă a infrastructurii. Scopul acesteia este de a încuraja dezvoltatorii să adopte metode de acces mai eficiente din punct de vedere al resurselor, pentru a menține deschiderea și accesibilitatea cunoștințelor fără a pune în pericol resursele platformei. Colaborarea între dezvoltatorii de AI și furnizorii de resurse ar putea rezolva aceste probleme prin crearea de API-uri dedicate, finanțarea infrastructurii comune sau prin îmbunătățirea modelelor de acces. În lipsa unei colaborări practice, platformele care au permis avansul AI riscă să nu poată susține în continuare servicii fiabile.