Continutul Tau AI Are Nevoie de Eticheta pana in August. Iata Ce Cere de Fapt Articolul 50.
Termenul Limita Despre Care Nimeni Nu Vorbeste
Toata lumea se cearta daca termenul limita pentru sistemele AI cu risc ridicat din EU AI Act a fost amanat. Consiliul a votat pe 13 martie. Comisiile Parlamentului au votat pe 18 martie. Digital Omnibus face titluri peste tot.
Dar iata ce lipseste din titluri: obligatiile de transparenta din Articolul 50 NU fac parte din amandarea propusa prin Omnibus. Se aplica de la 2 august 2026. Punct. Nicio extensie propusa. Niciun trilog de asteptat.
Daca firma ta foloseste ChatGPT pentru a redacta articole de blog, Midjourney pentru vizualuri de marketing, Synthesia pentru videouri de training sau DALL-E pentru grafice pe social media, ai pana in august 2026 sa gasesti o solutie de etichetare a continutului. Si in momentul de fata, conform unui studiu din martie 2026 care a analizat 50 de sisteme generative AI, doar 38% implementeaza vreo forma de marcare citibila de masina. Doar 18% au divulgari vizibile.
Majoritatea companiilor nu sunt pregatite. Majoritatea companiilor nici macar nu stiu ca aceasta cerinta exista.
Ce Spune de Fapt Articolul 50
Articolul 50 din EU AI Act creeaza doua seturi de obligatii: unul pentru furnizori (companiile care construiesc instrumente AI) si unul pentru utilizatori (companiile care le folosesc).
Daca Construiesti Sisteme AI Care Genereaza Continut
Furnizorii de sisteme AI care genereaza audio, imagini, video sau text sintetic trebuie sa se asigure ca output-urile sunt:
- Marcate intr-un format citibil de masina astfel incat instrumentele din aval sa poata detecta ca respectivul continut a fost generat de AI
- Detectabile ca fiind generate sau manipulate artificial, folosind solutii tehnice care sunt eficiente, interoperabile, robuste si fiabile
Proiectul de Cod de Practica al Comisiei Europene (primul proiect din decembrie 2025, al doilea proiect din mid-martie 2026, varianta finala asteptata in iunie 2026) specifica o abordare "defense-in-depth". Furnizorii nu se pot baza pe o singura tehnica de marcare. Codul prescrie trei straturi:
- Incorporarea de metadate folosind standarde precum C2PA (Content Credentials)
- Watermarking imperceptibil care rezista la compresie, decupare si capturi de ecran
- Fingerprinting si logare ca solutie de rezerva cand celelalte metode esueaza
Pentru text in mod specific, Codul recunoaste ca watermarking-ul degradeaza calitatea. Alternativa: "Certificate de Provenienta," care sunt manifeste semnate digital ce leaga output-ul text de sistemul generator.
Daca Implementezi Sisteme AI pentru Crearea de Continut
Utilizatorii, adica firmele care folosesc efectiv aceste instrumente AI, au propriile obligatii:
Deepfakes: Daca generezi sau manipulezi continut de imagine, audio sau video care constituie un deepfake, trebuie sa il divulgi. Pentru video in timp real, asta inseamna o iconita continua neintruziva. Pentru continut static, o eticheta vizibila permanent.
Text generat de AI pe teme de interes public: Daca publici text generat de AI pe teme de interes public, trebuie sa divulgi ca a fost generat de AI. Asta acopera articole de stiri scrise de AI, analize de politici publice si rapoarte publice.
Codul de Practica propune o iconita comuna "AI" (cu variante localizate, precum "KI" in tarile vorbitoare de germana) si un sistem de clasificare pe doua niveluri: continut "complet generat de AI" versus continut "asistat de AI" care a alterat sensul sau acuratetea.
Un detaliu critic care ia companiile prin surprindere: "revizuirea umana" nu te scuteste automat de divulgare. Codul cere flux de lucru de revizuire umana documentat cu persoane responsabile identificate. Simpla afirmatie "un om a revizuit asta" nu este suficienta.
Ce Este Exceptat
Continutul artistic, creativ, satiric sau fictional beneficiaza de un tratament mai lejer, cu divulgari "neintruzive" in loc de etichetare completa. Dar nici aceasta exceptie nu se aplica daca respectivul continut afecteaza drepturile tertilor, precum dreptul la imagine sau confidentialitatea.
De Ce Conteaza Asta pentru Echipa Ta de Marketing
Iata scenariul practic la care majoritatea companiilor nu s-au gandit:
Echipa ta de marketing foloseste Midjourney pentru vizualuri de campanie. Un designer foloseste ChatGPT pentru copy de reclame. Cineva genereaza un video demo de produs cu Synthesia. Managerul de social media posteaza totul pe LinkedIn, Instagram si blogul companiei.
Conform Articolului 50, fiecare dintre aceste output-uri are nevoie de marcare citibila de masina, iar continutul video asimilat deepfake-urilor are nevoie de divulgare vizibila. Compania ta este utilizatorul. Este problema ta, nu a Midjourney sau OpenAI.
Furnizorul (Midjourney, OpenAI) este responsabil sa construiasca capacitatea de marcare in instrumentele lor. Dar utilizatorul (compania ta) este responsabil sa se asigure ca marcarea supravietuieste in pipeline-ul tau de continut si ca divulgarile vizibile apar acolo unde este necesar.
Si iata unde devine complicat: studiul din martie 2026 a gasit ca, chiar si cand furnizori majori precum Stability AI implementeaza watermarking in propriile platforme, acele protectii nu se extind automat la utilizatorii API. Daca echipa ta foloseste API-uri pentru a genera continut, watermarking-ul s-ar putea sa nu se transfere.
Doar 3 din cele 40 de sisteme non-EU analizate in acel studiu erau din UE. Aplicarea legii impotriva unui furnizor din San Francisco e un lucru. Aplicarea impotriva ta, utilizatorul din UE, e altceva.
Ce Sa Faci Pana in August
Pasul 1: Auditeaza Pipeline-ul Tau de Continut AI
Listeaza fiecare instrument din organizatia ta care genereaza sau manipuleaza continut folosind AI. Nu doar cele evidente (ChatGPT, Midjourney). Include:
- Instrumente de email cu AI care genereaza subiecte sau corp de text
- Instrumente de design cu functii AI de fill, extend sau generare
- Software de editare video cu sinteza vocala AI sau manipulare faciala
- Instrumente CRM care genereaza automat continut personalizat
- Instrumente interne construite pe API-uri OpenAI, Anthropic sau modele open-source
Pasul 2: Verifica Capabilitatile de Marcare ale Furnizorilor Tai
Pentru fiecare instrument, verifica:
- Furnizorul incorporeaza C2PA Content Credentials sau metadate echivalente?
- Marcarea supravietuieste fluxului tau de lucru (descarcare, editare, re-export, upload)?
- Daca folosesti API-ul direct, output-ul API include marcare?
Daca raspunsul la oricare dintre acestea este "nu" sau "nu stiu," ai o lacuna.
Pasul 3: Construieste Fluxuri de Divulgare
Pentru obligatiile de utilizator, ai nevoie de procese documentate:
- Ce tipuri de continut necesita etichete vizibile "AI"?
- Cine revizuieste continutul generat de AI inainte de publicare si cum este documentata acea revizuire?
- Unde stochezi inregistrarile de provenienta pentru continutul generat de AI?
- Cum gestionezi continutul mixt (text scris de om cu imagini generate de AI)?
Pasul 4: Instruieste-ti Echipele
Echipele tale de marketing, comunicare si continut trebuie sa inteleaga cand este necesara divulgarea. "Am folosit ChatGPT sa imi corectez textul" e diferit de "ChatGPT a scris acest articol de blog dintr-un prompt." Clasificarea pe doua niveluri (complet generat de AI vs. asistat de AI) determina ce nivel de divulgare se aplica.
Calculul Penalitatilor
Articolul 99 din EU AI Act stabileste amenzi pentru incalcari de transparenta de pana la 15 milioane EUR sau 3% din cifra de afaceri anuala globala, oricare este mai mare. Pentru IMM-uri, exista praguri proportionale mai mici, dar amenzile sunt totusi suficient de semnificative.
Mai practic, actiunile de aplicare ale European AI Office au inceput deja. Franta investigheaza X/Twitter pentru generarea de deepfakes prin Grok fara etichetare conform Articolului 50. UE a emis ordine de retentie a documentelor catre X pentru Grok in ianuarie 2026. Daca merg dupa cele mai mari nume intai, semnalul este clar: intentioneaza sa aplice legea.
Cum Abordeaza DeviDevs Aceasta Problema
Realizam Audituri de Transparenta a Continutului AI pentru companii care folosesc AI generativ in pipeline-urile lor de continut. Procesul dureaza aproximativ o saptamana: cartografiem instrumentele tale AI, verificam capabilitatile de marcare ale furnizorilor, identificam lacunele din fluxurile de divulgare si construim un playbook de conformitate pe care echipele tale de marketing si juridic il pot urma efectiv.
Companiile care incep acum cheltuiesc mai putin pe sistem pentru ca nu sunt in criza in iulie. Cele care asteapta vor concura pentru consultanti de conformitate in aceeasi luna in care Codul de Practica se finalizeaza.
Daca te confrunti cu aceasta situatie, am trecut prin ea. Lucram direct cu textul regulamentului si proiectele Codului de Practica, fara sa asteptam standarde armonizate care oricum intarzie.
Ce Inseamna Asta pentru Pipeline-ul Tau de Continut
Dezbaterea Digital Omnibus este o distractie pentru Articolul 50. Obligatiile de transparenta pentru continutul generat de AI nu sunt amanate. 2 august 2026 este data. Codul de Practica se va finaliza in iunie, oferindu-ti aproximativ doua luni pentru a implementa ce cere versiunea finala.
Companiile care isi auditeaza pipeline-urile de continut AI acum vor avea o tranzitie lina. Cele care citesc asta in iulie si-ar fi dorit sa fi inceput in martie.
In care categorie vei fi tu?
Despre DeviDevs: Construim platforme ML, securizam sisteme AI si ajutam companiile sa se conformeze cu EU AI Act. devidevs.com