• We The Humans, think tank independiente, apoya y ve necesario el desarrollo de la IA en el campo de la salud.
  • Los expertos convocados coinciden en que, pese a las barreras existentes, las aplicaciones que se desarrollarán y el futuro que nos espera serán un ámbito “bonito y apasionante”.

 

Madrid, 19 de junio de 2020.– “Inteligencia Artificial y Salud” fue el título del Webinar celebrado ayer por We The Humans, en el que participaron cuatro expertos de diferentes áreas del campo de la salud. 

La mesa redonda la componían Nuria Campillo (Investigadora Oficial Desarrollo de Fármacos CSIC) , Natalia Rodríguez (CEO y Fundadora de Saturno Labs) , Manuel Marina (Cardiólogo y CEO y co-fundador de Idoven), Juanjo Beunza (Médico Internista y Catedrático de Salud Pública en la Universidad Europea), y Alberto Iglesias (subdirector de INNOVADORES, y miembro de la Junta Directiva de We The Humans) como moderador.

Todos los participantes estuvieron de acuerdo en que el trabajo conjunto de medicina e Inteligencia Artificial es un campo nuevo que se va a desarrollar enormemente en los próximos años, pero que aún tiene muchos retos por delante. En esta línea, las cuestiones principales que se trataron en la sesión estuvieron dirigidas a esas barreras.  

En este punto Juanjo Beunza señaló tres partes principales en el desarrolllo de la IA en el campo de la salud: “datos, equipo y pregunta”, que se fueron desarrollando durante la sesión. 

Respecto al problema del equipo, todos los ponentes expusieron el ‘gap’ o la brecha que existe entre los expertos tecnológicos y los médicos o investigadores sanitarios. Esta dificultad de entendimiento radica en que cada uno “habla un idioma diferente” , que se relaciona con el tema de la pregunta de investigación, en la que defendían que el para qué debe ser definido por el sanitario, puesto que es el que sabe identificar el problema y las necesidades en el campo de la salud y sabe qué herramienta se necesita para ello.

Respecto a los datos, se identificaron problemas de privacidad, seguridad y de falta de transparencia por parte de las grandes tecnológicas y como consecuencia, se observa una alta reticencia por parte de la población para compartir sus datos, puesto que el usuario no sabe qué se van a hacer con ellos. 

Manuel Marina explicó tras la experiencia de su Startup, Idoven, con la Comisión Europea.  ”Europa quiere crear relaciones en las que el dato médico digital pueda viajar a través de las fronteras. Se pueden dar servicios diagnósticos de empresas europeas a nivel internacional. Hay una línea ética dentro de la Comisión que busca que el ciudadano sea consciente de que su información médica puede ayudar a salvar vidas y existe una parte que hacemos nosotros: para que avance esa ciencia, los pacientes pueden donar sus latidos.”

Por otro lado, hay un problema respecto al volumen de datos, ya que es complicado seleccionar aquellos de verdadero valor por lo que los algoritmos entrenados a través de esos datos no son aplicables al ámbito de la salud ya que se necesita una precisión muy alta. Nuria Campillo añadía en el campo del desarrollo de fármacos “Tenemos problema de tener buenos datos, porque a veces hay mucha variabilidad, hay que intentar que sean coherentes. Ese es el problema, tener bases de datos limpias y robustas”.

Asimismo, una de las principales soluciones propuestas fue incrementar la transparencia por parte de las empresas. Natalia Rodríguez defendía que “lo importante que es explicar bien qué datos necesitas, que proceso vas a seguir y obviamente, ayuda contar los beneficios que va a traer si sale bien: si le dices a alguien que tiene probabilidad más alta de tener una enfermedad grave que va a ser atendido antes agilizando así la lista de espera, pocas personas se negarían a compartir sus datos.”

Juanjo Beunza por su parte defendía que el IoT (Internet Of Things), en el que cada usuario genera sus propios datos, es de las pocas salidas para conseguir volúmenes de datos de calidad. Igualmente añadía que la solución concreta se encuentra en el blockchain y en las empresas específicas de datos, explicando estas últimas: “ los datos están en la empresa y si alguien quiere entrenar su algoritmo, le pasa el algoritmo a la empresa y esta lo entrena en un sitio cerrado y no conectado, de manera que los datos no circulan nunca fuera de la empresa y ningún investigador tiene acceso a esos datos”. 

Alberto Iglesias quiso enfatizar en el desarrollo de tecnología en el campo de la salud desde que empezó la pandemia. Los ponentes expusieron algunas de las aplicaciones creadas  -cámaras que miden la temperatura de mucha gente a la vez, chatbots, respiradores, detectores de movimiento corporal para identificar cómo se mueven las personas en entornos y distribuirlas en una oficina…- Sin embargo, todos coincidían en que había muchas iniciativas que habían encontrado problemas para su implantación y no han terminado de ser prácticas. 

Manuel Marina explicaba que los problemas se han debido a que el entrenamiento de algoritmos se ha hecho mediante el “no supervisado” mientras que la manera más útil de hacerlo en ciencia para un caso concreto es el “supervisado”. Este último consiste en agregar el conocimiento en la base de datos y más tarde este es etiquetado por expertos muy formados que le dicen en detalle al algoritmo dónde está la información relevante. En el COVID-19 no hay evidencia científica: los médicos no sabían los síntomas y complicaciones, sino que los hemos ido aprendiendo por la experiencia de Italia y luego de España. La mayoría Inteligencia Artificial creada durante la crisis ha seguido el formato “no supervisado” y por eso muchas aplicaciones no han tenido éxito.”

Ante las preguntas del público asistente al webinar, Natalia Rodríguez añadió: “defiendo que los sesgos se evitan desde la raíz y hay que fijarse en cómo son los equipos de ingenieros e ingenieras que trabajan en esos sistemas. La realidad es que en esas empresas tecnológicas la presencia femenina que hace y desarrolla estos algoritmos es mínima, pero no solo en cuestión de género sino de raza, religión, etc. Cuando formas un equipo que no es diverso, al final metes tus propios sesgos y para evitarlo hay que crear protocolos internos que auditen esos algoritmos y es necesario llevar un control”.