Obligaciones, sujetos afectados y multas
El avance de la Inteligencia Artificial (IA) ha transformado múltiples sectores, desde la salud hasta la industria manufacturera, ofreciendo beneficios significativos, pero también planteando desafíos legales y éticos. En respuesta a estos desafíos, la Unión Europea ha aprobado el Reglamento de Inteligencia Artificial, un marco regulatorio que ha sido desarrollado para garantizar que la IA se utilice de manera segura y ética, protegiendo los derechos fundamentales de los ciudadanos europeos.
1. Entrada en vigor del Reglamento de Inteligencia Artificial
El Reglamento de Inteligencia Artificial, adoptado el 13 de marzo de 2024, entró en vigor a los 20 días de su publicación en el Diario Oficial de la Unión Europea. Sin embargo, su aplicación será paulatina:
- Las reglas sobre prácticas prohibidas de «riesgo inaceptable» se aplicarán a partir del 13 de agosto de 2024.
- Los códigos de buenas prácticas comenzarán el 13 de noviembre de 2024.
- Las obligaciones para los modelos de IA de propósito general se implementarán desde el 13 de marzo de 2025.
- Las obligaciones para sistemas de alto riesgo, como aquellos relacionados con biometría, educación, empleo, inmigración y administración de justicia, así como el régimen sancionador, se aplicarán a partir del 13 de marzo de 2026.
- La adopción de más obligaciones para sistemas de alto riesgo continuará el 13 de agosto de 2026.
- Las obligaciones para sistemas informáticos de gran alcance que incluyan IA, es decir, los que afecten a las esferas de libertad, seguridad y justicia, se implementarán para el año 2030.
2. Los 4 niveles de riesgo de las aplicaciones de IA
Este Reglamento de Inteligencia Artificial se basa en un enfoque de riesgo, clasificando las aplicaciones de IA según su nivel de riesgo y estableciendo requisitos proporcionados a dicho riesgo. La clasificación incluye:
- Riesgo Inaceptable: Aplicaciones prohibidas que representan una amenaza clara para la seguridad, los medios de subsistencia y los derechos de las personas, como sistemas de puntuación social y ciertos tipos de vigilancia biométrica.
- Alto Riesgo: Sistemas que pueden afectar significativamente los derechos fundamentales o la seguridad de las personas, como los utilizados en infraestructuras críticas, educación, empleo, servicios esenciales, aplicación de la ley, gestión de la migración y administración de justicia.
- Riesgo Limitado: Sistemas de IA con riesgo limitado que deben cumplir con requisitos de transparencia específicos.
- Riesgo Mínimo: La mayoría de los sistemas de IA que presentan un riesgo mínimo y no tienen obligaciones específicas bajo el reglamento.
3. ¿A quiénes afecta?
Hay cuatro grandes colectivos de sujetos afectados por el Reglamento de Inteligencia Artificial:
- Desarrolladores y proveedores de sistemas de IA: Los desarrolladores y proveedores deben asegurarse de que sus sistemas cumplan con los requisitos establecidos, especialmente si son clasificados como de alto riesgo.
- Usuarios de sistemas de IA de Alto Riesgo: Las empresas y organizaciones que implementen sistemas de IA de alto riesgo deberán cumplir con las obligaciones correspondientes, incluyendo la formación adecuada del personal y la supervisión continua del sistema.
- Consumidores y usuarios finales: Los consumidores y usuarios finales se beneficiarán de mayores garantías de seguridad y transparencia al interactuar con sistemas de IA. Además, tendrán derechos adicionales en términos de información y protección frente a aplicaciones de IA que puedan afectar sus derechos fundamentales.
- Autoridades reguladoras: Las autoridades reguladoras de cada Estado miembro tendrán un papel crucial en la implementación y supervisión del cumplimiento del reglamento, así como en la imposición de sanciones en caso de incumplimiento.
4. Principales obligaciones del Reglamento de Inteligencia Artificial
Las obligaciones del Reglamento de Inteligencia Artificial dependerán de la calificación del riesgo:
- Gestión de riesgos: Implementación de sistemas de gestión de riesgos durante todo el ciclo de vida del sistema de IA para identificar, evaluar y mitigar riesgos potenciales.
- Datos de alta calidad: Uso de datos de entrenamiento, validación y prueba de alta calidad para minimizar riesgos y sesgos, asegurando la precisión y fiabilidad de los sistemas de IA.
- Documentación y trazabilidad: Mantenimiento de documentación técnica exhaustiva y registro de eventos para garantizar la trazabilidad y facilitar la supervisión y auditoría de los sistemas de IA.
- Transparencia e información al usuario: Provisión de información clara y comprensible a los usuarios sobre el funcionamiento del sistema de IA, sus limitaciones y las medidas de seguridad implementadas.
- Supervisión humana: Establecimiento de medidas para asegurar la supervisión humana apropiada y la posibilidad de intervención en caso necesario, garantizando que los sistemas de IA operen de manera segura y ética.
- Seguridad y robustez: Garantizar la seguridad, ciberseguridad y robustez del sistema frente a fallos o ataques, implementando medidas de protección adecuadas para mantener la integridad y disponibilidad de los sistemas de IA.
5. Multas cuantiosas
El Reglamento de Inteligencia Artificial establece que se impondrán multas a las empresas que no cumplan con las normas. Las sanciones oscilarán entre:
- 35 millones de euros o el 7% del volumen de negocios anual mundial (si esta cifra es superior) por infracciones relacionadas con aplicaciones de inteligencia artificial prohibidas.
- 15 millones de euros o el 3% del volumen de negocios por incumplimiento de otras obligaciones.
- 7’5 millones de euros o el 1% del volumen de negocios por la presentación de información incorrecta.
Si bien, se prevén topes más proporcionados para las multas administrativas para las pymes y las empresas emergentes en caso de infracción del Reglamento de Inteligencia Artificial.
Para cumplir con este nuevo marco normativo y evitar la imposición de multas de enorme envergadura que contempla el Reglamento de Inteligencia Artificial es fundamental que tanto las compañías que desarrollen y comercialicen sistemas de IA, como las empresas que implementen estos sistemas en sus organizaciones cuenten con el asesoramiento legal de profesionales especializados en Derecho Tecnológico, Propiedad Intelectual e Industrial y Protección de Datos.