Usamos cookies en nuestro sitio web para brindarte la experiencia más relevante recordando tus preferencias y visitas repetidas. Haz clic en "Aceptar todas las cookies" para disfrutar de esta web con todas las cookies, configura tus preferencias antes de aceptarlas, o utiliza el botón "Rechazar todas las cookies" para continuar sin aceptar.

Gestión de Cookies
Zona Privada Asociados   |   Boletines Compliance
 
FORMULARIO DE CONTACTO
He leído/acepto la Política de Privacidad
Deseo suscribirme al Newsletter de la WCA
 

15/03/2026

La UE acelera la implementación del AI Act con nuevas reglas sobre seguridad y etiquetado de contenidos generados por IA

Por Iván Martínez, CEO de Intedya

El desarrollo del AI Act europeo continúa avanzando hacia su fase de aplicación práctica. Uno de los temas centrales que está marcando la agenda regulatoria es la seguridad de los sistemas de inteligencia artificial y los mecanismos de enforcement (aplicación y supervisión de la ley). En este contexto, dos iniciativas recientes han cobrado especial relevancia: la publicación del International AI Safety Report 2026 y el nuevo borrador del Código de Buenas Prácticas para el marcado y etiquetado de contenido generado por IA.

Seguridad de la IA y cooperación internacional

El International AI Safety Report 2026 fue presentado durante el New Delhi AI Impact Summit, un encuentro internacional centrado en el impacto global de la inteligencia artificial. El informe analiza los principales riesgos asociados al desarrollo y despliegue de sistemas avanzados de IA y propone marcos de cooperación internacional para mejorar su gobernanza. Carina Prunkl, autora principal del informe, subrayó que los hallazgos del estudio resultan especialmente relevantes para la implementación del AI Act de la Unión Europea, ya que aportan evidencia técnica y recomendaciones que pueden apoyar el desarrollo de estándares de seguridad, auditoría y supervisión de sistemas de alto riesgo. El informe destaca la necesidad de reforzar mecanismos de evaluación independiente, monitorización continua y transparencia algorítmica. 

Nuevo borrador del Código de Buenas Prácticas sobre contenido generado por IA

Paralelamente, la Comisión Europea ha publicado el segundo borrador del Código de Buenas Prácticas para el marcado y etiquetado de contenido generado por inteligencia artificial, una iniciativa voluntaria diseñada para facilitar el cumplimiento del artículo 50 del AI Act, que establece obligaciones de transparencia para determinados sistemas de IA.

El documento incorpora comentarios recibidos de cientos de partes interesadas, entre ellas empresas tecnológicas, universidades, organizaciones de la sociedad civil, Estados miembros y representantes del Parlamento Europeo. Este proceso participativo se desarrolló durante enero de 2026 mediante consultas, reuniones y talleres técnicos.

El nuevo borrador busca reducir la carga de cumplimiento para las organizaciones al tiempo que promueve estándares abiertos de etiquetado y propone la creación de un icono europeo común que permita identificar de forma clara los contenidos generados por inteligencia artificial.

El código se estructura en dos secciones principales:

  • Sección 1 – Proveedores de sistemas de IA generativa: aborda los mecanismos para marcar y facilitar la detección automática de contenido generado por IA, incorporando mayor flexibilidad técnica para adaptarse a distintos tipos de modelos y plataformas.
  • Sección 2 – Desplegadores o usuarios de sistemas de IA: se centra en las obligaciones de etiquetado de contenidos como deepfakes o textos generados por IA cuando se refieran a asuntos de interés público, con un enfoque más práctico orientado a la implementación real.

Próximos pasos regulatorios

La Comisión Europea ha abierto un período de comentarios públicos sobre este segundo borrador que permanecerá abierto hasta el 30 de marzo de 2026. Tras analizar las contribuciones recibidas, se prevé que la versión final del código se publique a comienzos de junio de 2026. Las normas de transparencia relativas al contenido generado por IA establecidas en el AI Act serán aplicables a partir del 2 de agosto de 2026, lo que implica que empresas tecnológicas, plataformas digitales y organizaciones que utilicen IA generativa deberán preparar con antelación sus mecanismos de identificación y etiquetado de contenidos.

Estos avances reflejan la transición del AI Act desde la fase legislativa hacia su implementación operativa, donde aspectos como la seguridad, la transparencia y la supervisión efectiva de los sistemas de IA se convierten en elementos clave. Para las organizaciones que desarrollan o utilizan inteligencia artificial, el periodo actual representa una oportunidad para adaptar sus sistemas, procesos de compliance y modelos de gobernanza a las nuevas exigencias regulatorias europeas.

Quiénes Somos


 
Patrocinadores
Colaboradores
Entidades Asociadas