Uniunea Europeană implementează treptat AI Act, o iniţiativă legislativă fără precedent care reglementează utilizarea inteligenţei artificiale în toate cele 27 de state membre şi afectează inclusiv companiile din afara UE. Intrat în vigoare etapizat începând cu 1 august 2024, AI Act este primul set legislativ cuprinzător din lume dedicat acestui domeniu.
Adoptarea sa de către Parlamentul European a venit după ani de negocieri. Actul se aplică nu doar firmelor europene, ci şi tuturor actorilor internaţionali care dezvoltă sau utilizează tehnologii AI în spaţiul Uniunii. Astfel, orice entitate care comercializează sau implementează sisteme de inteligenţă artificială în Europa va trebui să respecte noile reguli.
Principalul obiectiv al AI Act este să ofere un cadru juridic unitar care să faciliteze libera circulaţie a produselor şi serviciilor bazate pe AI, evitând diferenţele legislative între statele membre. În acelaşi timp, actul urmăreşte să promoveze o dezvoltare a AI centrată pe om, sigură şi responsabilă, în concordanţă cu valorile europene. Documentul oficial precizează că scopul este adoptarea unei AI „demne de încredere şi centrată pe om”, care să protejeze sănătatea, siguranţa, drepturile fundamentale, democraţia şi mediul.
Regulamentul este structurat pe niveluri de risc. Tehnologiile considerate cu risc inacceptabil, precum supravegherea biometrică în masă sau colectarea neautorizată de date faciale, sunt interzise complet. Cele cu risc ridicat, cum ar fi sistemele de selecţie a candidaţilor sau recunoaşterea facială în aeroporturi, sunt strict reglementate. În cazul riscului limitat sau minim, reglementările sunt reduse, fiind prevăzute mai ales obligaţii de transparenţă.
Primele interdicţii au intrat în vigoare pe 2 februarie 2025 şi vizează, printre altele, scraping-ul nediferenţiat al imaginilor faciale de pe internet sau supravegherea prin camere CCTV. Începând cu 2 august 2025, regulamentul se extinde şi asupra modelelor AI de uz general cu risc sistemic, cum sunt cele dezvoltate de OpenAI, Meta, Google sau Anthropic. Companiile deja prezente pe piaţă au termen de conformare până la 2 august 2027, în timp ce noii veniţi trebuie să respecte normele imediat.
Un alt aspect important este introducerea sancţiunilor financiare. Pentru utilizările interzise, amenzile pot ajunge până la 35 de milioane de euro sau 7% din cifra de afaceri globală anuală, în funcţie de care valoare este mai mare. În cazul furnizorilor de modele AI de uz general, pragul este de 15 milioane de euro sau 3% din cifra de afaceri.
Reacţiile industriei au fost împărţite. Companii precum Google, Amazon, Microsoft, OpenAI şi IBM au semnat un cod voluntar de bune practici menit să ghideze tranziţia spre respectarea noii legislaţii. Meta a refuzat să semneze, invocând incertitudini juridice şi o supralegiferare. CEO-ul Mistral AI, Arthur Mensch, alături de alţi lideri din domeniu, a cerut amânarea cu doi ani a implementării, însă Comisia Europeană a respins solicitarea şi a menţinut calendarul stabilit.
În ciuda presiunilor, Comisia susţine că reglementarea este crucială pentru a preveni utilizările periculoase ale AI, de la decizii automatizate incorecte în recrutare până la riscuri existenţiale precum dezvoltarea armelor biologice sau pierderea controlului asupra modelelor autonome.
AI Act se conturează ca un instrument legislativ cu impact global. Pe lângă faptul că impune reguli clare celor care operează în Europa, este tot mai des văzut ca un posibil model internaţional. Într-un context în care tehnologia avansează mai rapid decât legile, Uniunea Europeană îşi propune să impună un echilibru între progresul tehnologic şi responsabilitate.