El año pasado Microsoft lanzó una Inteligencia Artificial llamada Tay, diseñada para mantener una conversación casual y fluida con jóvenes de entre 18 y 24 años y para aprender a medida que interacciona con los humanos. Sin embargo, el experimento de Microsoft no fue demasiado bien, ya que a medida que Tay conversaba con personas, se fue volviendo cada vez más malhablada, machista y racista. Al final, antes de que Microsoft se viera obligada a desactivarla y a borrar todos sus mensajes, Tay lanzó tweets en los que defendía a Hitler o en los que deseaba que todas las feministas ardiesen en el infierno. Y todo ello en menos de 24 horas. Como explicó en su blog Peter Lee, vicepresidente corporativo de Microsoft Research, la idea se echó a perder como consecuencia del ataque coordinado de un grupo de personas. Una Inteligencia Artificial no deja de ser un reflejo de la humanidad, y como tal puede llegar a representar lo mejor y lo peor de ella.

   Dejando a un lado el caso extremo de Tay, todos los intentos por desarrollar una Inteligencia Artificial acaban llegando a la misma conclusión: una máquina no puede dejar de ser un reflejo de sus creadores o, como mínimo, de los seres humanos en general. Esto ocurre porque las máquinas aprenden usando el lenguaje humano, y al mismo tiempo que lo desarrollan adquieren los valores culturales que aunque no nos demos cuenta hay implícitos en él. Identificar y gestionar esos valores culturales será de vital importancia para conseguir que las máquinas procesen el lenguaje que usan los seres humanos para comunicarse y posteriormente puedan utilizarlo de forma correcta en búsquedas, categorizaciones de imágenes o traducciones automatizadas.

   El caso es que los lenguajes pueden perpetuar patrones históricos y culturales en algunos casos socialmente inaceptables que no deberían ser transmitidos a una Inteligencia Artificial. Eso es lo que pone de manifiesto un reciente estudio publicado en la revista Science, elaborado por un equipo de investigadores de la Universidad de Priceton, con Aylin Caliskan y Joanna Bryson a la cabeza. En el que se explica que cuando una Inteligencia Artificial aprende un idioma termina asumiendo algunos de los sesgos culturales humanos menos deseables como el machismo o el racismo. Y todo porque el lenguaje que aprende tiene esos sesgos incorporados.

   Para identificar los sesgos culturales ocultos en el lenguaje la psicología social utiliza desde los años noventa lo que se conoce como Prueba de Asociación Implícita. Esta prueba se les pide a sujetos que emparejen conceptos y se mide los tiempos de respuesta en milisegundos. Evidentemente, los tiempos de respuesta son más cortos cuanto más similares sean los conceptos. Se podrían emparejar, por ejemplo, tipos de flores, como «rosa» o «margarita» y tipos de insectos, como «mosca» o «cucharacha», con otros conceptos agradables, como «beso» o «caricia», y desagradables, como «suciedad» o «fealdad». La tendencia es asociar más rápidamente las flores con conceptos agradables y los insectos con conceptos desagradables. Este tipo de asociaciones, más o menos habituales, permiten a un niño conocer el significado de una palabra en función de la repetición de contextos en los que aparece. Una máquina aprende a leer de una forma similar: a través del análisis estadístico de los contextos en los que aparece una palabra, es decir, de la probabilidad que tiene de estar rodeada por otras palabras, puede aprender su significado.

   Los investigadores desarrollaron un algoritmo llamado GloVe que funciona como una versión del Test de Asociación Implícita destinado al aprendizaje automático. Al volcar el algoritmo sobre 840 mil millones de palabras de Internet los sesgos culturales se hicieron patentes. Aparecían prejuicios relativamente inocentes e inofensivos, como el que hace referencia a las flores y los insectos, pero también surgieron prejuicios en lo relativo a cuestiones de raza y de género. Así, el programa asociaba conceptos femeninas con nociones relacionados con la familia, como «padres» o «boda», y conceptos masculinos con nociones laborales, como «profesional» o «sueldo».

   Aunque cabe pensar que estos resultados son la consecuencia de una situación que todavía es desigual, es importante detectar este tipo de sesgos para que no haya malentendidos. Un ejemplo es el de la traducción automática. El turco tiene un pronombre neutro de tercera persona «o», pero Google Translate traduce las frases «o bir doktor» y «o bir hemşire» como «él es médico» y «ella es enfermera» respectivamente.

   Todo lenguaje tiene sesgos culturales implícitos, es algo inevitable. Lo que habría que hacer no es eliminarlos todos sino identificarlos y establecer claramente dentro del aprendizaje automático qué es lo que se considera aceptable e inaceptable. Al igual que los padres y que el sistema educativo trata de inculcar valores en los niños y estudiantes, los programadores deberían esforzarse en conseguir que las máquinas reflejen lo mejor de la naturaleza humana, evitando que se perpetúen estereotipos culturales perjudiciales.

Comentarios

comentarios