Informando hoy, lo que usted utiliza para el futuro

lunes 16, septiembre 2024

Entra en vigor la Ley de Inteligencia Artificial de la UE

Comparte:

A partir del primer minuto de este 1 de agosto, la Ley de Inteligencia Artificial de la Unión Europea (UE) entró en vigor. Este nuevo marco legal clasifica las aplicaciones de inteligencia artificial en tres categorías de riesgo para garantizar su uso seguro y ético.

La ley tendrá plena aplicación 24 meses después de su entrada en vigor. Para el 2025, se aplicarán las normas para modelos de IA como ChatGPT; un año más tarde, la aplicación de la ley será general. Por otro lado, las obligaciones para sistemas de alto riesgo comenzarán a aplicarse 36 meses después, es decir, a partir de agosto del 2027.

Recomendamos: La Inteligencia Artificial en el sector energético

5 claves para entender la nueva Ley de Inteligencia Artificial de la UE

Categorías de riesgo

  • Los sistemas de IA se dividen en cuatro categorías según su nivel de riesgo:
    • Inaceptable: sistemas que amenazan la seguridad o los derechos humanos y están prohibidos.
    • Alto riesgo: estos sistemas, como los utilizados en salud o transporte, deben cumplir con requisitos estrictos de seguridad, transparencia y supervisión.
    • Riesgo limitado: estos tienen menos riesgo, pero aún deben cumplir con ciertas regulaciones.
    • Riesgo mínimo: chatbots o filtros de spam.

Categorías de riesgo

Marco normativo

  • La ley establece un conjunto común de reglas para todos los países que forman parte de la Unión Europea para garantizar que las empresas que desarrollan o utilizan sistemas de IA se adhieran a las mismas normas básicas en toda la región.
  • El objetivo es crear un entorno seguro y confiable para la innovación en IA, al tiempo que se protegen los derechos fundamentales de las personas.

Marco normativo

Transparencia

  • Los sistemas de alto riesgo deben ser transparentes; los usuarios deben saber cuándo están interactuando con un sistema de IA y cómo toma decisiones. Además, los proveedores deben proporcionar información clara sobre cómo funciona el sistema y qué datos utiliza para tomar decisiones.

IA transparencia

Prohibiciones específicas

  • La ley prohíbe el uso de sistemas de IA para puntuaciones sociales, manipulación de comportamiento y vigilancia masiva. También establece requisitos específicos para sistemas biométricos, como el reconocimiento facial.

Prohibiciones específicas

Evaluación de conformidad

  • Los proveedores deben realizar evaluaciones de conformidad antes de poner en el mercado un sistema catalogado de alto riesgo. Esto significa que deben aplicar pruebas de seguridad, ética y privacidad, para que el sistema cumpla con los estándares marcados por la ley.

Evaluación de conformidad

Consulta: Industrias de petróleo, gas y energía en América Latina: principales víctimas de ciberataques debido a la baja inversión en ciberseguridad

spot_img

Las más leidas

Mira otros tags: