Uniunea Europeană a ajuns la un acord politic semnificativ privind modificările propuse la Actul său privind Inteligența Artificială (AI), un pachet legislativ cunoscut sub numele de “AI Act Omnibus”. Această decizie, convenită pe 7 mai și confirmată la mijlocul lunii mai 2026, aduce o serie de clarificări și, cel mai important, extinde termenele de conformitate pentru sistemele AI cu risc ridicat. Schimbările sunt de o importanță majoră pentru companiile care dezvoltă sau utilizează tehnologii AI pe teritoriul UE, inclusiv pentru cele din România, oferindu-le un răgaz suplimentar pentru adaptare, dar și noi provocări.
Termene Prelungite pentru Sistemele AI de Risc Ridicat

Potrivit acordului recent, termenele de conformitate pentru anumite categorii de sisteme AI considerate cu risc ridicat au fost amânate. Inițial, aceste obligații ar fi trebuit să intre în vigoare la 2 august 2026. Noile prevederi stipulează că sistemele AI clasificate ca risc ridicat în temeiul articolului 6(2) și Anexei III (cum ar fi cele utilizate în infrastructura critică, educație, angajare, migrație și controlul frontierelor) vor trebui să respecte regulile Actului AI începând cu 2 decembrie 2027.
Mai mult, pentru sistemele AI de risc ridicat care sunt componente de siguranță și sunt deja acoperite de legislația sectorială existentă a UE, termenul limită este extins până la 2 august 2028. Această amânare vine ca răspuns la apelurile Comisiei Europene de a oferi mai mult timp, având în vedere că standardele armonizate și ghidurile necesare pentru o implementare practică nu au fost încă emise.
Companiile din România care activează în sectoare precum sănătate, finanțe, resurse umane sau infrastructură, unde utilizarea AI poate avea un impact semnificativ asupra drepturilor fundamentale și siguranței, vor beneficia de acest timp suplimentar. Cu toate acestea, este crucial ca eforturile de conformitate să nu încetinească, deoarece complexitatea regimului AI al UE impune o pregătire riguroasă.
Clarificări și Noi Reguli: De la Conținut Intim la Transparență Chatbot
Pe lângă extensiile de termene, “AI Act Omnibus” aduce clarificări importante și introduce noi reguli. Un aspect notabil este introducerea unor prevederi privind conținutul intim generat de AI. Începând cu 2 decembrie 2026, sistemele AI care generează sau manipulează imagini, videoclipuri sau înregistrări audio cu conținut sexual explicit sau intim fără consimțământ explicit vor fi interzise. De asemenea, obligațiile de etichetare și “watermarking” pentru conținutul generat de AI sunt amânate până la aceeași dată.
În ceea ce privește transparența, obligațiile pentru chatbot-uri vor intra în vigoare în august 2026, impunând o divulgare clară a faptului că utilizatorul interacționează cu un sistem AI. O altă modificare vizează “alfabetizarea AI”, solicitând furnizorilor și utilizatorilor să ia măsuri pentru a sprijini alfabetizarea AI în rândul personalului, fără a cere însă garantarea unui nivel specific pentru fiecare individ.
Aceste reguli subliniază angajamentul UE de a asigura o dezvoltare și utilizare etică și responsabilă a inteligenței artificiale, cu un accent deosebit pe protejarea cetățenilor. Pentru afacerile românești, aceasta înseamnă o atenție sporită la modul în care sunt concepute și implementate sistemele AI, în special în ceea ce privește colectarea datelor, consimțământul și potențialul de dezinformare sau manipulare.
Impactul Financiar și Strategia de Conformitate
Nerespectarea prevederilor Actului AI poate atrage sancțiuni considerabile, inclusiv amenzi de până la 35 de milioane de euro sau 7% din cifra de afaceri anuală globală a companiei, oricare dintre acestea este mai mare. Această perspectivă subliniază necesitatea ca organizațiile să-și integreze strategiile de conformitate cu Actul AI în programele lor mai largi de guvernanță AI. Chiar dacă termenele au fost prelungite, companiile nu ar trebui să-și încetinească eforturile, deoarece elaborarea standardelor armonizate și a ghidurilor practice ar putea fi finalizată aproape de noile termene, lăsând un timp limitat pentru adaptare.
Pentru ecosistemul tech din România, care include numeroase startup-uri și companii IT inovatoare, aceste modificări reprezintă atât o provocare, cât și o oportunitate. Pe de o parte, necesită investiții în expertiză juridică și tehnică pentru a înțelege și implementa cerințele complexe. Pe de altă parte, respectarea unor standarde înalte de etică și siguranță AI poate consolida încrederea clienților și poate deschide noi piețe pentru soluțiile AI românești, poziționând România ca un actor responsabil în peisajul global al inteligenței artificiale.
Leave a Reply