La Comisión Europea acaba de presentar su primer marco jurídico sobre la Inteligencia Artificial (IA). «La confianza es una obligación, no un adorno. Mediante estas reglas de referencia, la UE lidera la formulación de nuevas normas mundiales para que garanticen que se pueda confiar en la IA”, afirmaba Margrethe Vestager, vicepresidenta ejecutiva responsable de la cartera Europa Adaptada a la Era Digital.

Las nuevas normas siguen un planteamiento basado en el riesgo, con varios niveles. Así, cuanto más arriesgado sea el uso de la IA o más graves sean las consecuencias que pueden derivarse de su mal uso, más requerimientos se habrán de cumplir.

Estos son los niveles definidos:

  • Riesgo inadmisible. Se prohibirán los sistemas de IA.
  • Alto riesgo. Los sistemas de IA estarán sujetos a obligaciones estrictas antes de que puedan comercializarse, con pueden ser sistemas adecuados de evaluación y mitigación de riesgos, alta calidad de los conjuntos de datos o registro de la actividad para garantizar la trazabilidad de los resultados
  • Riesgo limitado. Contempla obligaciones específicas de transparencia. Por ejemplo, los usuarios deberán ser conscientes de que están interactuando con una máquina para poder tomar una decisión informada de continuar o no.
  • Riesgo mínimo o nulo. La propuesta permite el uso gratuito de aplicaciones tales como videojuegos basados en la IA o filtros de correo basura. La inmensa mayoría de los sistemas de IA entra en esta categoría. El proyecto de Reglamento no interviene aquí, ya que estos sistemas de IA solo representan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos.

Tecnología ética

“Al establecer las normas, podremos facilitar el advenimiento de una tecnología ética en todo el mundo y velar por que la UE siga siendo competitiva”, añade Vestager. «Nuestras normas, que son a prueba de futuro y propicias a la innovación, intervendrán cuando sea estrictamente necesario, esto es, cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE”, apunta

El comisario de Mercado Interior, Thierry Breton, destaca el “enorme potencial” de la IA en ámbitos tan diversos como la salud, el transporte, la energía, la agricultura, el turismo o la ciberseguridad, “pero también entraña varios riesgos”, matiza. “Las propuestas presentadas tienen por objeto reforzar la posición de Europa como centro mundial de excelencia en materia de IA desde el laboratorio hasta el mercado, velar por que la IA en Europa respete nuestros valores y normas y aprovechar el potencial de la IA para usos industriales”.

Medidas específicas

Otros medidas contempladas en la propuesta reglamentaria son:

  • Se prevé la creación de sandboxes específicos en este ámbito.
  • Se recomienda la adopción de códigos de conducta voluntarios que fomenten la aplicación de los requisitos de los sistemas de IA de alto riesgo, a cualquier uso de la IA.
  • Se crea un nuevo supervisor. Es el Consejo Europeo de Inteligencia Artificial.
  • Se prohíbe, con carácter general, el uso de sistemas de identificación biométrica remota.
  • Se establecen los principios que deben regir el uso de IA. Se cita la calidad del dato, la intervención de personas, la resiliencia de los sistemas, la transparencia o la obligación de contar con sistemas de gestión de riesgos.