• La Comisión mantiene abierto a consultas su Libro Blanco de Inteligencia Artificial, que promueve el desarrollo de una IA segura y confiable.
  • Desde el think tank independiente We The Humans aplaudimos estas medidas, aunque pedimos extender las consideraciones éticas que se requieren a los sistemas de IA de «alto riesgo» a cualquier tecnología de IA.
  • Además, solicitamos a las entidades una estrategia de gobierno de la IA en pro de los intereses sociales que determinan la excelencia y ética de los sistemas, así como el cumplimiento normativo.

Abril, 2020. La Comisión Europea publicó el pasado 19 de febrero la Estrategia Digital Europea, basada en el valor de los datos, junto con el Libro Blanco de Inteligencia Artificial. Ambos documentos fueron definidos por la presidenta de la Comisión, Úrsula von der Leyen, con el objetivo de definir una estrategia de datos y una IA centrada en el ser humano. En palabras de la mandataria comunitaria, “Europa debería apostar por una tecnología que redunde en el beneficio de las personas, una economía justa y competitiva y una sociedad abierta, democrática y sostenible”.

La importancia del Libro Blanco de IA, abierta a consulta pública hasta el 19 de mayo, radica en que es la primera vez que se esbozan las líneas maestras de una posible legislación de esta tecnología, que podría ver la luz en el último trimestre de este 2020. Para la presidenta de la CE es un proyecto complejo pues “abarca todo, desde la seguridad cibernética a las infraestructuras críticas, de la educación digital a las capacidades, de la democracia a los medios de comunicación. Quiero que la Europa digital refleje lo mejor de Europa: que sea abierta, justa, diversa, democrática y con confianza en sí misma ”.

Desde el think tank independiente We The Humans celebramos este avance y contemplamos algunos matices a ciertos aspectos del documento.

En primer lugar, el Libro Blanco habla de sistemas legislativos específicos en IA, si bien no proporciona forma directa una definición legal. Así pues, identificamos la importancia de los algoritmos y sistemas, aunque también deberíamos abordar el hardware que hace posible la alimentación y explotación de los datos y el funcionamiento de las propias aplicaciones. Debe también tenerse en cuenta que todos estos sistemas se dan de forma proporcional al volumen de datos que manejan, ya que de lo contrario terminarán aprendiendo de forma independiente y sin necesidad de supervisión en algunos casos. Se hace necesario proporcionar una definición legal que contemple y requiera en su alcance el máximo espectro posible de la tecnología y todo lo que supone su aplicación. 

 

Alcance basado en el riesgo

Otro aspecto reseñable es el modelo planteado por el Libro Blanco, cuyo alcance está basado en el riesgo. Para las que denomina aplicaciones de alto riesgo, se requiere cumplir una serie de requisitos que serán de carácter obligatorio. Para el resto y en base al impacto identificado, se aplicará el marco regulatorio en mayor o menor medida.

¿Cuáles fueron esas circunstancias, según el borrador? La determinación del riesgo y su “peligrosidad” debe basarse en tres variables:  

  • el sector;
  • el uso previsto;
  • si implica riesgos significativos.

Como primera medida, propone la elaboración de un directorio de industrias o sectores que pueden calcular el alto riesgo. Esos sectores se identifican en función de la crítica de la actividad para la sociedad, como la salud, el transporte o la energía. 

En cuanto al uso previsto , requerirá la definición de las aplicaciones prácticas de esos sistemas en los distintos sectores y actividades, de la manera que la cuantificación o la determinación de ese riesgo dependerá de su posible impacto sobre: 

  • Derechos del individuo o empresa
  • Daños materiales o inmateriales (lesión, muerte). 
  • Efectos que no pueden ser evitados por personas físicas o jurídicas. 

 

Además, algunas situaciones excepcionales siempre se considerarían de alto riesgo, en cuanto que se relacione con: 

  • Situaciones que afectan los derechos de los trabajadores o aplicaciones específicas sobre los derechos del consumidor
  • Uso de identificación biométrica y vigilancia intrusiva.

 

Por tanto, de acuerdo con el Libro Blanco, únicamente estos supuestos en que puede haber un alto riesgo respecto de los derechos y libertades de las personas o los sectores críticos de actividad, deberían ser legislados de forma expresa y contener condiciones y requisitos de cumplimiento obligatorio. Respecto del resto de sistemas no categorizados o etiquetados como de alto riesgo, ¿estarían exentos del cumplimiento de normativa específica?

Así, los sistemas o aplicaciones que hayan sido categorizados como alto riesgo tendrán unos requisitos y condiciones obligatorios relacionados con; 1) el entrenamiento de los datos y su aprendizaje, 2) el mantenimiento y seguridad de los registros, 3) la provisión de información, 3) la robustez y precisión y, por último, 4) la supervisión humana.  

Desde la Asociación We The Humans nos planteamos que la regularización debe afectar a cualquier sistema basado en IA, pues en cualquier caso puede tener afectación sobre los derechos y libertades de las personas, aunque pueden no cumplir a priori las condiciones para considerar las aplicaciones como de alto riesgo, haciendo por tanto necesario una regulación general, un marco normativo que afecte a cualquier desarrollo basado en IA, mayores o menores exigencias en función de los sectores, usos previos o riesgos identificados. Así las cosas, consideramos que los requisitos establecidos para los sistemas de alto riesgo deberían ser una medida básica, que debería cumplirse en todos los límites de la inteligencia artificial. Si se trata de un chatbot en una compañía de venta minorista o un evaluador de riesgos en una entidad bancaria, ambos deberían cumplir con unos criterios y condiciones mínimas, que podrán cualificase o completarse en base a los impactos y riesgos concretos.

 

Roles y responsabilidades

Más  allá de los aspectos específicos de cumplimiento normativo, los miembros de la Asociación We The Humans consideran que las entidades que desarrollen o exploten sistemas basados en IA deberían establecer un gobierno de la inteligencia artificial para garantizar los requisitos que propone la Comisión Europea respecto a temas tales como los datos de aprendizaje o supervisión humana. Para ello es conveniente definir roles específicos que se responsabilicen del cumplimiento de tales requisitos.

El gobierno de la IA, como el de cualquier otra tecnología, requiere el establecimiento  de unas estructuras funcionales en la entidad, una serie de procesos o flujos de trabajo y unos mecanismos de relación y control, que garanticen, en todo caso y a largo plazo, los controles y evaluaciones periódicos, la mejora continua, y, por ende, el cumplimiento de las obligaciones legales aplicables