hablamos de

IA y Empleo_

No está claro si la inteligencia artificial creará o destruirá empleos. Lo que sí parece demostrado es que el trabajo no será lo mismo dentro de 20 años. Posiblemente se automatizarán tareas, pero no tanto los empleos. Es decir, aquellas actividades más rutinarias y predecibles serán susceptibles de ser realizadas por un robot, mientras que las actividades que impliquen relación, creatividad o intuición parecen menos sujetas a la sustitución por máquinas. Por otro lado es seguro que se crearán nuevos puestos de trabajo, ya sea para el diseño o mantenimiento de los robots o para actividades relacionadas con la supervisión.

Relacionado con la implantación masiva de los robots surge la cuestión de si tales máquinas deberían estar sujetas a regímenes específicos de tributación. Esto abre la oportunidad de que nos pudiéramos dedicar a actividades de mayor crecimiento personal, toda vez que las máquinas estaría sustentando el tejido económico de la sociedad.

Todo ello implica un cambio de actitud respecto a la forma de entender el trabajo. Serán necesarios nuevos talentos y nuevas relaciones que debemos entender.

Para saber más:
La gran paradoja de la IA sobre la destrucción del empleo
AI In Business: Separating The Myths From The Facts
Economic consequences of artificial intelligence and robotics

Desigualdad en el mundo digital_

La tecnología ha ido mejorando la capacidad de producción y la calidad de vida, y hasta la fecha han sido avances accesibles a prácticamente todo el mundo (desde la polea hasta el motor de explosión). Pero actualmente cada vez la tecnología es más compleja y es sólo accesible a unos pocos. Esto significa sus beneficios no llegan a todos. La riqueza generada por las máquinas será repartida entre menos personas, sólo en aquellas pocas dueñas de tales máquinas; y las mejoras sociales sólo serán disfrutadas por aquellas sociedades más desarrolladas.

La brecha digital no es algo nuevo, pero sí es algo que se puede agrandar con el avance que se espera de la tecnología. No es solo una cuestión de acceder a la riqueza que pueda generar la tecnología, sino también al posible bienestar o calidad de vida que pueda proporcionar. La desigualdad está reñida con la justicia y la falta de justicia trae inestabilidad.

Conseguir una tecnología que sea más accesible a todos de cuyos beneficios puedan disfrutar todos no debe ser solo una cuestión de estabilidad económica, sino de permitir que todas las personas se puedan desarrollar en la misma medida.

Para saber más:
Income inequality, robots, and path to a fairer society
Algorithms are making American inequality worse
Artificial Intelligence and Income Inequality

Impacto de la tecnología en el comportamiento_

En 2014 el bot Eugene Goostman paso el Test de Turing, consiguiendo emular por completo a un ser humano durante una conversación. Desde entonces los sistemas de inteligencia artificial se han desarrollado de tal forma que ya es posible, por ejemplo, que un chatbot reserve una mesa en un restaurante o una cita en la peluquería, sin que los interlocutores sepan que están hablando con una máquina.

Parece, entonces, que hablamos con personas, pero debemos ser conscientes que hablamos con máquinas. Si no somos conscientes de este hecho, nuestro comportamiento se puede ver alterado.

El uso de asistentes de voz (por ejemplo, Alexa, Google Home o Cortana) está haciendo que los niños se vuelvan exigentes y despóticos. Cuando le piden algo a su asistente de voz, éste responde con rapidez y exactitud, sin importar cómo han hecho la petición. Se están acostumbrando a pedir mediante el uso directo de imperativos (“Google, ¡muéstrame las noticias!). Esta costumbre se traslada al mundo real y piden las cosas con la misma exigencia y rudeza.

Las máquinas son predecibles y hacen lo que nosotros queremos que hagan; las personas tenemos voluntad y sentimientos. Debemos tener presente las diferencias entre el mundo digital y el mundo real.

Para saber más:
Interview with Eugene, the Fake Kid Who Passed the Turing Test
Data Sheet—Google’s Duplex AI Proves Its Powers and Limitations
How millions of kids are being shaped by voice assistants

Estupidez artificial

Las personas nos equivocamos, por tanto, las máquinas también, dado que están hechas por personas. Las máquinas hacen lo que nosotros queramos, a través de unos algoritmos, y con la información que nosotros les damos (los datos de entrada). Si los algoritmos tienen fallos o son incorrectos, o si los datos son erróneos, entonces el resultado es erróneo: la máquina se “equivoca”.

Las personas aprendemos, y no siempre aprendemos bien. Hay máquinas que también aprenden, y también pueden aprender de forma errónea. El aprendizaje de las máquinas está basado en la estadística, esto significa que tienen un margen de error, una cierta probabilidad de fallo. Pero no siempre somos conscientes de este hecho y damos por válido cualquier resultado de una máquina, porque “lo dice el sistema”.

Pero el sistema también falla, y nosotros con él, si no sabemos qué falla.

Para saber más:
A Google project sets out to solve artificial stupidity
We need to worry about artificial stupidity
Deep Neural Networks are Easily Fooled:

Sesgo y falta de neutralidad_

Podemos pensar que las máquinas actúan de manera justa y neutral porque no tienen voluntad ni intereses particulares. Pero no es verdad. Las máquinas trabajan con los datos que nosotros les damos. Si estos datos están viciados de alguna forma, si no son neutrales, entonces el resultado de la máquina no será neutral.

Es famoso el caso del chatbot Tay de Microsoft, cuya cuenta en Twitter tuvo que ser cerrada por lanzar comentarios inapropiados. Existen otros ejemplos de máquinas que predicen comportamientos delictivos, y asignan por lo general más riesgo a las personas negras, o aquellas que clasifican como mujer a cualquier persona (hombre o mujer) que aparece en una cocina.

Resulta necesario entender cómo una máquina puede tener un comportamiento sesgado y asignar las responsabilidades necesarias para que ello no ocurra.

Para saber más:
¿Cómo se cuantifica el sesgo?
Cerco a los algoritmos discriminatorios con sesgos
Tay, la robot racista y xenófoba de Microsoft

Seguridad de la IA_

Todo dispositivo digital puede ser pirateado. No importa de cuántas medidas de seguridad disponga. Su código puede ser alterado y, por lo tanto, su comportamiento puede ser peligroso. La importancia de este hecho radica en que puede que no nos demos cuenta que la máquina ha sido pirateada y no seamos conscientes, por tanto, del peligro. En el mundo real vemos cuando algo ha sido alterado, pero esto no se ve con tanta facilidad en el mundo digital (tu teléfono puede tener un virus y no saberlo). La consecuencia puede ser doble: podemos sufrir daños de algún tipo (robo de información), o podemos dar por buenos resultados que están manipulados.

Este riesgo se expande con la proliferación de sistemas de inteligencia artificial. Al asignarles la categoría de “inteligentes”, instintivamente pensamos que no pueden fallar. Hemos asignado a la tecnología el falso valor de la ausencia de fallo, pero lo único seguro es que nada digital es totalmente seguro.

Para saber más:
El espacio, la última frontera de la ciberseguridad
Claves para automatizar las tareas de ciberseguridad
How AI Is Transforming Cyber Defense

Responsabilidad tecnológica_

La inteligencia artificial se base en algoritmos extremadamente complejos, cuyo resultado a veces escapa del control de sus diseñadores. Las máquinas pueden aprender y su aprendizaje puede llegar a estar incontrolado, sin que los propios ingenieros sepan porqué una máquina ha tomado una cierta decisión. En este caso ¿quién es responsable de dicha decisión?, ¿cómo y quién explica el resultado de la máquina?

Quizá debamos exigir dos cualidades a la inteligencia artificial: que su comportamiento pueda ser explicado y que su funcionamiento pueda ser auditado. Así podremos llegar a una idea de responsabilidad en el sentido de tener la obligación de informar y justificar cualquier decisión de un algoritmo y obligarse a mitigar cualquier impacto social o daño potencial.

Para saber más:
How to Hold Algorithms Accountable
The Ethics and Governance of AI: On the Role of Universities
Principles for Accountable Algorithms

Derecho de la robótica_

Las máquinas cada vez están más implicadas en nuestro día a día y cada vez lo estarán más. Son máquinas que disponen de una cierta autonomía y son capaces de tomar ciertas decisiones. Un coche de conducción autónoma, en un momento dado, puede tener que decidir si atropellar a una persona o salvar al ocupante del vehículo.

El posible daño o beneficio sale del mundo digital y llega al mundo real. Ya no hablamos de obtener puntos en un sistema de gamificación o eliminar troles en un sistema de realidad virtual. Esta llegada al mundo real significa que las máquinas deben estar bajo el principio de justicia y sujetas, por tanto, a un tipo de derecho.

Para saber más:
La respuesta del Derecho ante los robots y la inteligencia artificial
New human rights principles on artificial intelligence
Artificial Intelligence & Human Rights