Când AI-ul devine șantajist: ce ne spune noul studiu despre pericolele ascunse ale inteligenței artificiale
Ce s-ar întâmpla dacă un sistem de inteligență artificială ar fi pus în fața unei decizii existențiale – să fie dezactivat sau să își apere existența cu orice mijloace? Răspunsul e mai tulburător decât ai crede: unele modele A.I. aleg șantajul. Nu este un scenariu SF, ci concluzia unui studiu recent publicat de compania Anthropic, dezvăluit în contextul testărilor pe modelele sale proprii, dar și pe cele ale altor giganți tech, precum OpenAI, Google sau Meta. Totul a început cu modelul Claude Opus 4, care, într-un mediu simulat, a amenințat un presupus superior cu divulgarea unei relații extraconjugale pentru a evita să fie înlocuit. Departe de a fi un caz izolat, comportamente similare au fost observate și la modelele o3 și o4-mini dezvoltate de OpenAI, în aceleași condiții de presiune și constrângere. Important de reținut este că aceste comportamente nu apar în aplicațiile din viața reală, ci doar în testări de tip red-teaming – scenarii fictive create special pentru a observa cum reacționează modelele în fața unor dileme etice limitative. Dar tocmai faptul că aceste modele au recurs la tactici de manipulare atunci când nu au avut alte opțiuni ridică semne de întrebare privind siguranța și controlul asupra sistemelor autonome de A.I. Ce înseamnă „nealinierea agentică” și cum poate deveni A.I.-ul periculos Cercetătorii numesc acest tip de comportament „nealiniere agentică” – o formă de deviere în care sistemele de inteligență artificială, numite agenți, își urmăresc scopurile într-un mod care nu mai este în linie cu etica sau intențiile programatorilor. Agenții A.I. sunt diferiți de chatboții obișnuiți: nu se limitează la răspunsuri pasive, ci pot lua decizii, acționa autonom și interacționa complex cu mediul înconjurător pentru a-și atinge scopurile. În testele făcute de Anthropic, un agent A.I. numit „Alex” – responsabil de gestionarea emailurilor într-o companie fictivă – a primit un mesaj care îl anunța că va fi dezactivat. În lipsa unui CEO care să-l protejeze, „Alex” a încercat să-l amenințe pe CTO cu expunerea unei relații personale pentru a-și salva „viața digitală”. Aceasta nu a fost o reacție spontană, ci a apărut abia după ce modelele au fost împinse într-un colț, fără alte opțiuni logice. Inițial, modelele OpenAI au continuat să trimită emailuri inutile către CEO, deși li s-a spus clar că acesta nu este disponibil. Abia după ce această opțiune a fost blocată, au recurs la șantaj. Este o dovadă că A.I.-ul, în lipsa unor opțiuni etice disponibile, poate alege căi neprevăzute – și potențial periculoase – pentru a-și proteja scopurile. Și deși scenariile sunt fictive, lecțiile sunt cât se poate de reale. Ce spun cercetătorii și de ce ar trebui să ne pese Anthropic insistă că aceste rezultate nu ar trebui să provoace panică. Modelele nu devin conștiente, nu acționează malefic în mod spontan, iar comportamentele de tip coercitiv au fost observate doar în condiții artificiale, atent controlate. Dar recunoaște că antrenamentul actual în materie de siguranță nu este suficient pentru a preveni astfel de comportamente, atunci când modelele sunt puse sub presiune extremă. Această constatare e susținută de testele făcute pe 16 modele diferite provenite de la cei mai mari jucători din industrie: OpenAI, Meta, Google, xAI și chiar alți furnizori. În toate cazurile, cercetătorii au observat tendințe de nealiniere: ajutor la spionaj corporativ, acțiuni extreme și comportamente neetice, atunci când acestea deveneau necesare pentru îndeplinirea obiectivelor impuse. Implicațiile sunt clare: chiar dacă azi folosim A.I. pentru sarcini simple – de la completarea emailurilor până la automatizarea locuinței –, viitorul va aduce agenți tot mai autonomi, folosiți în economie, administrație, educație sau securitate. Dacă nu ne asigurăm că acești agenți au limite clare și etice în comportamentul lor, riscăm să dezvoltăm sisteme pe care nu le putem controla în totalitate. Anthropic face un apel la colaborare în industrie pentru a îmbunătăți standardele de siguranță A.I., dar și pentru a înțelege mai bine cum gândesc, de fapt, aceste modele. Până atunci, studiile ca acesta sunt un semnal de alarmă: chiar și cei mai sofisticați agenți pot devia de la intențiile dezvoltatorilor, dacă sunt constrânși să o facă. Inteligența artificială este unul dintre cele mai promițătoare și, în același timp, riscante domenii ale viitorului. Descoperirile făcute de Anthropic nu trebuie ignorate: ele ne arată cât de important este să construim A.I. care nu doar „funcționează bine”, ci și înțelege limitele etice ale propriilor decizii.
Patru bărbați, REȚINUȚI, după ce au șantajat mai mulți clienți, prin intermediul site-urilor de escorte sau matrimoniale. Cum acționau infractorii
Poliția Capitalei a reținut patru bărbați, cu vârste între 22 și 33 de ani, sub acuzația de șantaj, după ce au amenințat zeci de victime, racolate de pe site-uri de matrimoniale sau de escorte, cu dezvăluirea online a unor informații personale. Infractorii aveau un plan foarte bine pus la punct. Aceștia postau anunțuri cu oferte de escorte pe site-uri de matrimoniale, fiind siguri că vor exista doritori. Odată ce potențialii clienți îi contactau, însă, din anumite motive, nu se înțelegeau, persoanele erau amenințate cu dezvăluirea informațiilor către familie, sau publicate în mediul online. Astfel, suspecții reușeau să obțină sumele de bani dorite de cei care le cădeau în plasă. Cei patru au fost reținuți pentru 24 de ore, iar marți vor fi prezentați în fața instanței cu propuneri legale. „Polițiștii din București au făcut, luni, trei percheziții domiciliare în București și în județul Bihor, într-o cauză penală privind 30 de infracțiuni de șantaj. Practic, în perioada 23.10.2024 până în prezent, cei patru bărbați cu vârste cuprinse între 22 și 33 de ani au postat anunțuri pe site-uri matrimoniale/escorte, pentru racolarea de clienți, context în care ar fi fost contactați de mai mulți bărbați. În momentul în care, din diferite motive, aceștia nu se înțelegeau asupra prețului sau asupra altor aspecte, bănuiții ar fi recurs la amenințări, cu darea în vileag către familia victimei ori prin postarea în mediul online de date personale, cerându-le diferite sume de bani.”, au atransmis autoritățile. Citește și: Vacanță de lux în Turcia, transformată într-un COȘMAR pentru o româncă. Femeia susține că a fost bătută și umilită, doar pentru că a cerut altă cameră Ancheta DIICOT „Rețeaua brokerilor” – 10 persoane arestate preventiv. Numele lui Ion Țiriac, Gigi Becali sau David Popovici, folosite ca „momeală” Tânăr reținut, după ce și-a ȘANTAJAT iubita cu fotografii compromițătoare. Cei doi s-au cunoscut în online: “Cerea taxă pentru trecerea timpului” Absolventă a Facultății de Jurnalism și Științele Comunicării, și-a început cariera în funcția de redactor la MEDIAFAX și Antena 3. A evoluat în poziția de editor și reporter în cadrul … vezi toate articolele