La inteligencia artificial tiene aplicación en absolutamente todo lo que hacemos los humanos. Esta misma mañana escribía sobre una aplicación que permite a personas invidentes escuchar los objetos que tiene alrededor y que hace uso de esta tecnología. Hay proyectos muy bonitos relacionados con esta tecnología. También los hay represivos, controladores, de manipulación. De ahí que sea muy importante regular bien la IA. y ya vamos tarde.

etica para las maquinas resena libro

En Ética para las máquinas (2019) José Ignacio Latorre sienta unas bases mínimas que nos hacen entender la relevancia que tendrá la ética elegida para gobernar a las máquinas. Lejos de una ética, como todo aspecto social dependiente de la cultura lo que tenemos en la actualidad son muchas éticas diferentes, a menudo incompatibles entre sí.

Si traigo el libro a colación es porque hace apenas unos días la Unesco empezó a trabajar en un marco normativo para el desarrollo ético de las tecnologías de inteligencia artificial, un paraguas legal que cubre los 193 estados miembros, que a su vez incluyen las norteamericanas GAFA Google, Apple, Facebook y Amazon y las chinas BATX Baidu, Alibaba, Tencent y Xiaomi. Se trata de un paso necesario a la hora de unificar criterios divergentes.

A pesar del hecho de que algunos factores de la inteligencia artificial sí hay cierta convergencia, no los hay en otros con bastante relevancia. Pensemos en la identificación visual, Europa tiende a regular el uso de esta tecnología orientando el tema a la protección de sus ciudadanos sin atender a usos benignos viables, países como Estados Unidos priorizan capitalización y China la seguridad estatal. La diferencia es notable.

Basta asomarse a los últimos intentos de homogeneizar la normativa para ver cómo cada región del mundo trataba de barrer para su zona de aplicación de la tecnología. Mucho ha llovido desde que la eurodiputada Mady Delvaux propusiera en 2015 su proyecto de informe al Parlamento Europeo con máquinas esclavas que incorporarían un botón de apagado.

Tras aquello vinieron los Principios de Asilomar de la IA derivados de las charlas de enero de 2017 en California; las ‘Directrices por una inteligencia artificial confiable’ de la UE publicadas en abril de 2019; las ‘Recomendaciones del Consejo sobre Inteligencia Artificial’ de la OCDE del 22 de mayo de 2019 o los ‘Principios sobre la IA de Pekín del 28 de mayo de 2019. Cada pocas semanas, diferentes países y grupos han ido publicando sus respectivas éticas, a veces del todo incompatibles tanto entre sí como con la legislación vigente.

Como escribe Latorre en Ética para las máquinas, es importantísimo no ya para nuestro futuro sino también para nuestro presente el dar con un marco ético compatible, que experimentos como el Moral Machine del MIT parecen echar por tierra. Y es que no hay una ética mundial, ni siquiera estatal o municipal. De modo que va a ser difícil ponerse de acuerdo en un marco normativo.

“Las legislaciones avanzan tortuosamente”, me confesó el autor en una entrevista publicada en Nobbot hace algo más de un año y “va a pasar mucho tiempo en el que se van a ir afinando”. A raíz del acuerdo de la Unesco, parece que pronto alcanzaremos los “grandes principios” y luego vendrán las “directrices y detalles”. Una suerte de normativa de brocha gorda, que a falta de ninguna normativa, buena es.

Un año después de su publicación, Ética para las máquinas cobra relevancia a medida que los países se organizan en clusters para tomar decisiones conjuntas y sentar las bases de lo que podría considerarse una ética global para las máquinas de forma similar a la que se tomó en su día para proteger los derechos humanos.

El libro, instructivo y accesible a todo tipo de lector por la facilidad con la que se lee —orientado a la divulgación, no se hace uso de vocabulario técnico— resulta aconsejable para todo lego que trate de aproximarse al tema de la ética de la inteligencia artificial, sin necesidad de conocimientos previos en el tema.

Comentarios

comentarios