IA

Estas son las claves de la nueva ley europea de inteligencia artificial

Estas son las claves de la nueva ley europea de inteligencia artificial | Shutterstock
Levanta la Cabeza
   | 13/12/2023

La Unión Europea ha alcanzado un acuerdo histórico para regular la inteligencia artificial. Esta ley, única en su enfoque, define un marco legal que determina el uso de la tecnología según su riesgo, posicionando a la UE como líder global en la regulación de la IA.

La Unión Europea ha alcanzado esta semana un logro trascendental al firmar la primera ley global sobre inteligencia artificial (IA), marcando un precedente histórico. Este acuerdo entre el Parlamento Europeo y el Consejo de la UE ha sido celebrado con entusiasmo por la Presidencia española, resaltando la importancia de establecer "el primer marco jurídico integral sobre IA a nivel mundial".

El trayecto hacia este pacto no estuvo exento de desafíos. Negociaciones prolongadas, debates intensos y dos sesiones extensas, de 22 y 14 horas respectivamente, finalmente desembocaron en un consenso que fue recibido con satisfacción por los líderes europeos, incluida Ursula von der Leyen. Aunque este acuerdo representa un paso crucial, aún enfrenta un proceso administrativo antes de entrar en vigor, estimado para finales de 2026.

La Ley de IA, conocida también como IA Act, fue presentada hace casi tres años y ha sido el resultado de una búsqueda constante de equilibrio entre la seguridad, el respeto a los valores europeos y la promoción de la innovación. Von der Leyen destaca que este acuerdo se enfoca en los "riesgos identificables", proporcionando seguridad jurídica y allanando el camino para la innovación en una IA fiable y responsable.

Estos son los puntos claves del acuerdo

1. Clasificación por riesgo

La Comisión Europea establece cuatro niveles de riesgo, desde "mínimo" hasta "inaceptable", categorizando el uso de la IA en función de su riesgo percibido. Este enfoque permite un tratamiento específico según la peligrosidad percibida.

2. Aplicaciones prohibidas

El Parlamento Europeo detalla aplicaciones prohibidas, como sistemas biométricos basados en características sensibles y la manipulación del comportamiento humano a través de puntuaciones sociales. Estas restricciones buscan salvaguardar los derechos ciudadanos y prevenir amenazas potenciales a la democracia.

3. Sanciones efectivas

La legislación incluye multas sustanciales, que pueden alcanzar hasta 35 millones de euros o el 7 % del volumen de negocio, para las empresas que no cumplan con las pautas establecidas.

4. Regulación de identificación biométrica

Las negociaciones conflictivas se centraron en sistemas de identificación biométrica, como el reconocimiento facial, recogiendo el acuerdo limitaciones y requisitos específicos. Aunque la norma prohíbe las cámaras de reconocimiento facial en espacios públicos, se ha abierto la posibilidad de excepciones bajo autorización judicial y fuertes salvaguardas para los derechos humanos. Esta regulación busca equilibrar la seguridad con la protección de la privacidad.

5. Regulación de modelos generativos de IA

La ley introduce reglas específicas para modelos generativos de IA, como ChatGPT, con el objetivo de garantizar la transparencia y establecer obligaciones adicionales para modelos de alto impacto. Estas medidas buscan abordar las preocupaciones éticas y de seguridad asociadas con la generación autónoma de contenido.

6. Transparencia en derechos de autor

La legislación aborda la compleja relación entre la IA y los derechos de autor, exigiendo transparencia, cumplimiento de las normativas de la UE sobre derechos de autor y la divulgación de resúmenes detallados sobre el contenido utilizado en la formación. Este enfoque garantiza la protección de los derechos de propiedad intelectual y la claridad en el uso de obras protegidas por derechos de autor en el desarrollo de la inteligencia artificial.

Antes de la IA Act

Antes del establecimiento de la ley de inteligencia artificial por parte de la Unión Europea, en Europa ya se habían tomado varias iniciativas para abordar los desafíos éticos, legales y técnicos que plantea la IA:

  • Directrices Éticas para la IA Confiable: la Comisión Europea presentó en abril de 2019 unas directrices éticas para el desarrollo y uso de la IA, centradas en la confiabilidad y la legalidad.
  • Reglamento General de Protección de Datos (GDPR): implementado en mayo de 2018, el GDPR influyó en cómo se manejan los datos en la IA, especialmente en lo que respecta a la privacidad y la protección de datos personales.
  • Iniciativas nacionales: varios países de la UE, como Francia y Alemania, desarrollaron estrategias nacionales de IA, centradas en la ética, la innovación y el apoyo a la investigación.