La Unión Europea ha marcado un hito histórico al aprobar la primera ley de Inteligencia Artificial el pasado 8 de diciembre, la cual entrará en vigor en 2026, tras la ratificación por parte de la Eurocámara en febrero de 2024. Este marco regulatorio no solo establece prohibiciones clave para salvaguardar la privacidad y los derechos individuales, sino que también redefine el juego para las empresas que hacen uso de la IA en áreas cruciales como la medicina, el reclutamiento y la toma de decisiones.

Prohibiciones Clave para la Protección de Derechos Individuales

El acuerdo provisional entre el Parlamento y el Consejo de la Unión Europea establece prohibiciones detalladas para proteger los derechos individuales y prevenir posibles abusos de la IA. Algunas de las restricciones más destacadas incluyen:

  • Categorización Biométrica Sensible: Se prohíbe el uso de sistemas biométricos que utilicen características sensibles, como creencias políticas, religiosas, filosóficas, orientación sexual y raza.
  • Extracción de Imágenes Faciales No Dirigida: Queda prohibida la extracción no dirigida de imágenes faciales de internet o imágenes de circuito cerrado de televisión (CCTV) para la creación de bases de datos de reconocimiento facial.
  • Reconocimiento de Emociones: Se prohíbe el reconocimiento de emociones en entornos laborales y en instituciones educativas.
  • Puntuación Social: Queda prohibida la creación de sistemas de IA que generen puntuaciones sociales basadas en comportamientos personales o sociales.
  • Manipulación del Comportamiento Humano: Se prohíbe el desarrollo y uso de sistemas de IA que manipulen el comportamiento humano para eludir su libre albedrío, especialmente aquellos que exploten vulnerabilidades relacionadas con la edad, discapacidad, situación social o económica.

Salvaguardias y Excepciones para el Uso de Identificación Biométrica

A pesar de las prohibiciones, se establecen salvaguardias y excepciones específicas para el uso de sistemas de identificación biométrica (RBI) en espacios de acceso público con fines policiales. Este uso estará sujeto a autorización judicial previa y se limitará a listas de delitos estrictamente definidas, asegurando así un equilibrio entre la seguridad pública y la protección de la privacidad.

Sanciones Rigurosas para Garantizar el Cumplimiento

La ley introduce sanciones rigurosas con el objetivo de garantizar el cumplimiento de las normas. Las multas por incumplimiento pueden variar considerablemente, desde 35 millones de euros o el 7% del volumen de negocios global hasta 7.5 millones de euros o el 1.5% del volumen de negocios, dependiendo de la naturaleza de la infracción y el tamaño de la empresa.

Promoviendo la Innovación Responsable y Equidad Empresarial

Con la mira puesta en fomentar la innovación responsable y asegurar la equidad en el desarrollo de soluciones de inteligencia artificial, especialmente para las pequeñas y medianas empresas (pymes), el acuerdo promueve entornos de pruebas regulatorios y pruebas en el mundo real. Las autoridades nacionales establecerán estos entornos para el desarrollo y entrenamiento innovador de la IA antes de su comercialización, permitiendo que las empresas exploren nuevas fronteras sin comprometer la ética.

Claves para Empresas Bajo la Nueva Ley de IA

La firma Entelgy, The BusinessTech Consultancy, destaca claves cruciales que las empresas deben considerar ante la inminente entrada en vigor de la ley en 2026. Aquellas empresas que utilicen la IA en áreas relacionadas con las personas, como la medicina, el reclutamiento o la optimización en la toma de decisiones, deben prepararse para revelar con transparencia cómo funcionan sus algoritmos, cómo han sido entrenados y desarrollados, y el contenido que generan.

Se establecerá un registro de IA a nivel europeo, una base de datos pública, donde las aplicaciones de alto riesgo deberán divulgar toda la información. Los reguladores tendrán la capacidad de investigar los algoritmos y solicitar más información si los datos proporcionados no son claros. Infracciones graves podrían resultar en el cierre del sistema de IA, retirada del mercado, solicitud de cambios y multas significativas.

Niveles de Riesgo y Ámbitos Específicos

La nueva normativa clasifica a la IA en función de su nivel de riesgo y afecta a diversos ámbitos. Se consideran inaceptables los sistemas de IA que representan una amenaza para las personas, como la manipulación cognitiva y la puntuación social. Además, se evaluarán antes de la comercialización los sistemas de IA que afecten negativamente a la seguridad o los derechos fundamentales, incluyendo aquellos utilizados en productos regulados por la legislación de la UE sobre seguridad de productos, como juguetes, aviación, automóviles, dispositivos médicos y ascensores.

La ley también establece la obligación de registro para sistemas de IA en ocho ámbitos específicos, como la identificación biométrica, la gestión de infraestructuras críticas y la aplicación de la ley.

Requisitos Específicos para la IA Generativa

En cuanto a productos de IA generativa, como ChatGPT, se establecen requisitos específicos de transparencia. Esto incluye la revelación de que el contenido ha sido generado por IA, el diseño del modelo para evitar la generación de contenidos ilegales y la publicación de resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento.

Conclusiones: Preparación y Adaptación para el Futuro

La nueva Ley de Inteligencia Artificial en la Unión Europea redefine el panorama empresarial, estableciendo un marco regulatorio integral. Las empresas deben prepararse y adaptarse a estas regulaciones para operar de manera ética y cumplir con los estándares establecidos por la Unión Europea en el emocionante, pero desafiante campo de la inteligencia artificial.


También te puede interesar