A partir del primer minuto de este 1 de agosto, la Ley de Inteligencia Artificial de la Unión Europea (UE) entró en vigor. Este nuevo marco legal clasifica las aplicaciones de inteligencia artificial en tres categorías de riesgo para garantizar su uso seguro y ético.
La ley tendrá plena aplicación 24 meses después de su entrada en vigor. Para el 2025, se aplicarán las normas para modelos de IA como ChatGPT; un año más tarde, la aplicación de la ley será general. Por otro lado, las obligaciones para sistemas de alto riesgo comenzarán a aplicarse 36 meses después, es decir, a partir de agosto del 2027.
Recomendamos: La Inteligencia Artificial en el sector energético
5 claves para entender la nueva Ley de Inteligencia Artificial de la UE
Categorías de riesgo
- Los sistemas de IA se dividen en cuatro categorías según su nivel de riesgo:
- Inaceptable: sistemas que amenazan la seguridad o los derechos humanos y están prohibidos.
- Alto riesgo: estos sistemas, como los utilizados en salud o transporte, deben cumplir con requisitos estrictos de seguridad, transparencia y supervisión.
- Riesgo limitado: estos tienen menos riesgo, pero aún deben cumplir con ciertas regulaciones.
- Riesgo mínimo: chatbots o filtros de spam.
Marco normativo
- La ley establece un conjunto común de reglas para todos los países que forman parte de la Unión Europea para garantizar que las empresas que desarrollan o utilizan sistemas de IA se adhieran a las mismas normas básicas en toda la región.
- El objetivo es crear un entorno seguro y confiable para la innovación en IA, al tiempo que se protegen los derechos fundamentales de las personas.
Transparencia
- Los sistemas de alto riesgo deben ser transparentes; los usuarios deben saber cuándo están interactuando con un sistema de IA y cómo toma decisiones. Además, los proveedores deben proporcionar información clara sobre cómo funciona el sistema y qué datos utiliza para tomar decisiones.
Prohibiciones específicas
- La ley prohíbe el uso de sistemas de IA para puntuaciones sociales, manipulación de comportamiento y vigilancia masiva. También establece requisitos específicos para sistemas biométricos, como el reconocimiento facial.
Evaluación de conformidad
- Los proveedores deben realizar evaluaciones de conformidad antes de poner en el mercado un sistema catalogado de alto riesgo. Esto significa que deben aplicar pruebas de seguridad, ética y privacidad, para que el sistema cumpla con los estándares marcados por la ley.