Imagina un mundo donde la inteligencia artificial, sin reglas claras, decide sobre tu hipoteca, tu entrevista de trabajo o tu atención médica. La Unión Europea quiere evitar situaciones similares.
La primera parte del Reglamento de la UE sobre Inteligencia Artificial (AI Act), que es el primero en el mundo en introducir una regulación legal integral para el uso de la inteligencia artificial, entró en vigor el 2 de febrero de 2025. El reglamento introduce nuevas obligaciones para las empresas y los particulares para garantizar el uso seguro, transparente y ético de la inteligencia artificial en Europa.
El rápido desarrollo de la IA ofrece nuevas oportunidades, pero también grandes riesgos. Desde la sanidad hasta las finanzas y la administración pública, la inteligencia artificial forma parte cada vez más de los procesos de toma de decisiones que afectan nuestras vidas. Sin embargo, sin unas normas claras, existe el riesgo de un uso indebido: la invasión de la privacidad, la difusión de desinformación o diversas formas de discriminación.
La Ley de IA no solo busca proteger a los ciudadanos, indican los letrados del despacho Calero, sino también promover el desarrollo seguro de tecnologías artificiales. Establece igualdad de condiciones para las empresas, les otorga seguridad jurídica y crea un entorno donde la innovación puede prosperar sin efectos secundarios peligrosos.
¿Y qué obligaciones clave trae la primera parte del reglamento, vigente a partir del 2 de febrero de 2025?
1. Garantizar la alfabetización en IA de los empleados
Las empresas deben garantizar que sus empleados estén adecuadamente informados sobre el funcionamiento y los riesgos de los sistemas de IA. La formación debe incluir las normas para el uso seguro de los sistemas de IA y los posibles riesgos asociados.
2. Prohibición de prácticas peligrosas de IA
El reglamento prohíbe ciertos usos de la inteligencia artificial que suponen un alto riesgo para los derechos fundamentales y la seguridad de los ciudadanos. ¿Cuáles son las prácticas prohibidas?
- Manipulación subliminal del comportamiento del usuario: la IA no debe utilizarse para influir en el comportamiento humano de una manera que pueda dañar a los usuarios (por ejemplo, anuncios manipuladores que utilizan trucos psicológicos).
- Uso de la IA para abusar de grupos vulnerables: los niños, los ancianos o las personas con discapacidad no deben ser el blanco de los sistemas de IA.
- Puntuación social: Están prohibidos los sistemas que califican a los ciudadanos en función de su comportamiento, actividades e interacciones y les asignan privilegios o sanciones.
- Identificación biométrica en tiempo real en lugares públicos: Se prohíbe el uso de IA para rastrear y reconocer automáticamente a personas en espacios públicos, salvo en casos específicos.
3. Uso transparente y responsable de la IA
Los empresarios que trabajan con IA deben garantizar requisitos básicos de transparencia y uso seguro de las herramientas de IA.
- Etiquetado de contenido generado por IA: Algunas herramientas de IA son tan avanzadas que es imposible determinar si el contenido fue creado por inteligencia artificial o por un ser humano. Cualquier empresa que utilice IA para crear texto, imágenes y vídeos debe indicar claramente que el contenido fue creado con ayuda de IA.
- Supervisión humana de la toma de decisiones de IA: las decisiones de alto impacto (por ejemplo, la aprobación de un préstamo, la contratación de empleados o el diagnóstico médico) deben estar bajo supervisión humana.
- Pruebas de seguridad: antes de implementar sistemas de IA de mayor riesgo, es necesario realizar pruebas y evaluaciones de su seguridad.
El incumplimiento de estas normas conlleva elevadas sanciones
El monto de las multas depende de la gravedad de la infracción y del tamaño de la empresa.
- Las infracciones más graves (por ejemplo, el uso de prácticas de IA prohibidas, como puntuación social o técnicas de manipulación) conllevan multas de hasta 35 millones de euros o el 7 % de la facturación global anual.
- El incumplimiento de las obligaciones en materia de sistemas de IA de alto riesgo (por ejemplo, falta de supervisión humana, no realización de pruebas de seguridad) puede dar lugar a multas de hasta 15 millones de euros o el 3% de la facturación anual.
- En caso de infracciones menores (por ejemplo, falta de transparencia, incumplimiento de las obligaciones de información), la multa puede llegar a ser de hasta 7,5 millones de euros o el 1,5 % de la facturación anual.
La alfabetización en IA se incluye en las obligaciones generales de las entidades reguladas. Si se produce un incumplimiento sistemático que afecte a la seguridad y el uso responsable de la IA, podrían imponerse multas de categoría media o inferior. El cumplimiento será supervisado por las autoridades reguladoras de cada Estado miembro, que podrán regular la supervisión y el cumplimiento de las normas en su jurisdicción.
¿Estás preparado para la Ley de IA?
Si utilizas herramientas de IA en su trabajo pero aún no estás preparado para las nuevas reglas, te recomendamos seguir los siguientes pasos:
- Identifica las herramientas de IA reguladas: verifica cuáles de las herramientas que utiliza están cubiertas por la Ley de IA.
- Evaluar el riesgo: evalúa los riesgos asociados con estas herramientas y determine sus impactos potenciales.
- Garantizar el cumplimiento: desarrollar capacitación y procedimientos internos para el uso responsable de la IA.
- Centrarse en la transparencia y la protección de datos: garantizar el control de acceso a datos sensibles y las reglas para su uso.
La Ley de IA supone un paso importante hacia el uso responsable de la inteligencia artificial en Europa. Implica nuevas obligaciones para las empresas, pero también una oportunidad para diferenciarse con un enfoque ético y seguro en la IA. Prepárate con antelación, obten una ventaja competitiva y evita el riesgo de sanciones severas.