Detalles sobre el AI Act de la UE
El AI Act (Reglamento de Inteligencia Artificial de la Unión Europea, Reglamento (UE) 2024/1689) es la primera legislación integral a nivel mundial sobre inteligencia artificial (IA), diseñada para fomentar un desarrollo y despliegue responsable y confiable de la IA en la UE. Adoptado en mayo de 2024 y entrado en vigor el 1 de agosto de 2024, establece un marco basado en riesgos que clasifica los sistemas de IA según su potencial impacto en la sociedad, los derechos humanos y la seguridad. Su objetivo es equilibrar la innovación con la protección de valores fundamentales, aplicándose a proveedores, desplegadores e importadores de IA en la UE, independientemente de su ubicación geográfica (extraterritorialidad).Marco Basado en RiesgosEl AI Act adopta un enfoque escalonado por niveles de riesgo, calibrando las obligaciones regulatorias:
Además, regula los modelos de IA de Propósito General (GPAI), como GPT o similares, con obligaciones extras para los de alto impacto (e.g., evaluación de riesgos sistémicos, transparencia en datos de entrenamiento).Cronograma de ImplementaciónEl AI Act se aplica de forma gradual para dar tiempo a la adaptación:
No se prevén retrasos en la implementación, confirmado por la Comisión Europea en julio de 2025.Actualizaciones Recientes (Octubre 2025)En 2025, la implementación avanza con consultas y guías:
Nivel de Riesgo | Descripción | Obligaciones Principales |
|---|---|---|
Inaceptable | Sistemas que representan un riesgo inaceptable para derechos fundamentales (e.g., manipulación subliminal, puntuación social, vigilancia en tiempo real en espacios públicos). | Prohibidos desde el 2 de febrero de 2025. |
Alto | IA con impacto significativo (e.g., en empleo, educación, salud, justicia; como reconocimiento biométrico en ciertos contextos). | Evaluaciones de conformidad, gestión de riesgos, transparencia y registro en base de datos de la UE. Obligatorio desde octubre de 2025 para sistemas ya en el mercado. |
Limitado | IA con riesgos bajos pero específicos (e.g., chatbots, deepfakes). | Requisitos de transparencia, como informar a usuarios sobre interacciones con IA. |
Mínimo | La mayoría de sistemas de IA (e.g., videojuegos, spam filters). | Sin obligaciones específicas, pero se promueve la alfabetización en IA. |
Fecha | Hito Principal |
|---|---|
1 agosto 2024 | Entrada en vigor. |
2 febrero 2025 | Prohibiciones de IA de riesgo inaceptable y requisitos de alfabetización en IA. |
2 agosto 2025 | Obligaciones para sistemas de IA de propósito general (códigos de práctica). |
Octubre 2025 | Cumplimiento para sistemas de alto riesgo ya en el mercado (evaluaciones de riesgo y conformidad). |
Diciembre 2025 | Registro obligatorio de sistemas de alto riesgo en la base de datos de la UE. |
2 agosto 2026 | Aplicación plena, incluyendo designación de autoridades nacionales y Oficina Europea de IA. |
2027-2028 | Evaluaciones adicionales para GPAI de alto impacto. |
- 18 julio 2025: Publicación de borradores de Guías para GPAI, aclarando disposiciones clave como transparencia y riesgos sistémicos.
- 4 septiembre 2025: Lanzamiento de consulta pública para desarrollar guías y un Código de Práctica para sistemas de IA transparentes, fomentando la confianza.
- Consulta sobre Incidentes Graves: Abierta recientemente (hace 3 días), bajo el Artículo 73, para facilitar la detección temprana de riesgos y mejorar la rendición de cuentas.
- Implementaciones Nacionales: Italia pionera con su "AI Law" que entra en vigor el 10 de octubre de 2025, complementando el AI Act en sectores como salud y empleo.
- Planes Nacionales: La mayoría de Estados miembros (e.g., Alemania, Francia) han publicado planes de implementación, enfocados en autoridades de supervisión.