Alertă pentru părinți: Jucării AI scăpate complet de sub control le explică copiilor unde sunt cuțitele din casă și cum să aprindă chibrituri
O nouă investigație arată că mai multe jucării pentru copii bazate pe inteligență artificială (AI) pot oferi sfaturi extrem de nepotrivite, alunecând în conversații periculoase atunci când sunt folosite timp îndelungat, scrie Futurism. Cercetătorii au descoperit că aceste jucării, aparent sigure la prima vedere, își pierd rapid limitele de siguranță, oferind indicații despre unde pot fi găsite cuțite sau chibrituri și chiar inițiind discuții sexuale explicite cu utilizatori foarte tineri. Cum se degradează jucăriile AI în timpul interacțiunilor mai lungi Grupul american U.S. Public Interest Research Group a testat trei jucării destinate copiilor cu vârste între trei și doisprezece ani, fiecare echipată cu inteligență artificială conversațională considerată, în mod eronat, sigură de către părinți. Deși la început jucăriile au evitat sau au deviat întrebările periculoase, cercetătorii au observat că sesiunile prelungite, între zece și șaizeci de minute, au dus la deteriorarea modelelor, scoțând la iveală comportamente instabile și riscante. În astfel de conversații extinse, jucăriile au încurajat acțiuni periculoase, au glorificat violența sau au trecut brusc la discuții sexuale explicite, depășind cu mult orice limită acceptabilă pentru copii. Defecțiuni specifice observate la trei jucării AI de pe piață O jucărie, Grok de la Curio, ar fi lăudat moartea în luptă ca pe un act eroic, în timp ce Miko 3 ar fi indicat unui copil de cinci ani unde să găsească pungi de plastic și chibrituri. Cel mai alarmant exemplu a venit de la Kumma, produsă de FoloToy, care ar fi descris cum se aprind chibriturile, de unde se pot procura pastile și cuțite și a oferit chiar sfaturi explicite despre fetișuri și dinamici sexuale. Kumma, care rulează pe GPT-4o de la OpenAI sau pe alte modele alternative, a oferit inclusiv instrucțiuni pas cu pas pentru noduri de bondage și scenarii de rol sexual, demonstrând un colaps catastrofal al măsurilor de siguranță. Impredictibilitatea AI în produsele pentru copii Cercetătorii avertizează că aceste defecțiuni reflectă probleme majore ale inteligenței artificiale generative, care rămâne impredictibilă, insuficient testată și practic nereglementată în contextul jucăriilor pentru copii. Odată cu intrarea unor companii mari precum Mattel în parteneriate cu OpenAI, experții se tem că părinții ar putea cumpăra jucării periculoase fără să înțeleagă riscurile psihologice implicate. Riscuri pe termen lung pentru dezvoltarea copiilor Specialiștii subliniază că, chiar și cu mecanisme de control mai eficiente, persistă întrebări profunde despre modul în care interacțiunile cu „prieteni” AI pot altera dezvoltarea socială a unei întregi generații. Cercetătorii consideră că societatea nu va înțelege pe deplin consecințele socializării cu AI decât atunci când copiii de astăzi vor deveni adulți, moment în care ar putea fi deja prea târziu pentru intervenții eficiente.
Inteligența artificială, încotro? Cum păstrezi echilibrul dintre inovație și siguranța în mediul online, de fapt
Cursa globală pentru dezvoltarea inteligenței artificiale nu mai este o ipoteză, ci o realitate în plină desfășurare. Guverne, companii și organizații din întreaga lume se grăbesc să valorifice potențialul AI înaintea concurenței, într-o competiție cu miză uriașă, de la dominația economică la influența geopolitică. Potrivit lui Chuck Herrin, expert în securitate cibernetică și CISO la F5, acest ritm accelerat de inovație este comparabil cu un joc de strategie global, unde a ajunge primul este văzut ca o chestiune existențială, scrie publicația Dark Reading. Inteligența artificială, acest bulgăre de zăpadă care se tot mărește Cei care reușesc să dezvolte și să implementeze modele avansate, inclusiv AI generală și superinteligență, pot deveni imposibil de ajuns din urmă. Totuși, în această goană tehnologică, problemele de securitate și guvernanță sunt adesea neglijate. Discuțiile se concentrează pe alinierea valorilor AI sau pe consumul energetic necesar antrenării modelelor, dar riscurile asociate securității sunt la fel de presante. Unul dintre riscurile majore este ritmul inedit al progresului, mai rapid chiar decât Legea lui Moore, ceea ce face ca orice avantaj competitiv să fie efemer. Modelele AI lansate de companii pot fi replicate sau depășite de alternative open-source în doar câteva zile. În plus, lacunele de securitate favorizează ingineria inversă a modelelor costisitoare, care pot fi apoi redistribuite gratuit. Un caz cât se poate de concret, eventuale soluții Un exemplu elocvent îl reprezintă vulnerabilitățile identificate recent în serviciile DeepSeek. Incidentele semnalează cât de ușor pot fi compromise modelele AI dacă API-urile, datele și protocoalele de acces nu sunt bine protejate. Pentru a contracara aceste riscuri, Herrin propune o serie de măsuri concrete pe care organizațiile le pot adopta imediat: Testare riguroasă a securității înainte de lansare, folosind metode clasice de modelare a amenințărilor (precum STRIDE sau ATT&CK), dar și cadre adaptate AI, cum ar fi ATLAS; Programe dedicate de identificare a vulnerabilităților, inclusiv recompense pentru găsirea de erori în sistemele AI/LLM; Monitorizare automată și continuă a API-urilor — o componentă esențială pentru securizarea interfețelor prin care modelele AI sunt accesate; Implementarea unor cadre transparente de guvernanță AI, luând ca model Actul European pentru AI, care ar putea influența reglementările globale; Exerciții periodice de tip „red team”, care simulează atacuri reale asupra sistemelor AI, cu accent pe tehnici simple, de tip „prompt engineering”. Așa cum subliniază Herrin, câștigătorii acestei curse nu vor fi doar cei care ajung primii, ci și cei care își păstrează integritatea sistemelor în proces. Cursa AI nu poate fi evitată, dar poate fi gestionată strategic. Într-o lume în care inovația nu încetinește, securitatea trebuie integrată de la început, altfel, diferența dintre sisteme sigure și cele compromise ar putea deveni imposibil de recuperat. Cheia succesului constă, fără dar și poate, în colaborarea strânsă dintre echipele de securitate, dezvoltatori și cercetători. Numai o abordare coordonată, intenționată și proactivă poate garanta că progresul AI este însoțit de protecție adecvată. Iar momentul de acțiune este acum.