El debate sobre la inteligencia artificial y la robótica está adquiriendo cada vez mayor relevancia social una vez que se comienza a atisbar las posibles consecuencias para la economía, el empleo y la sociedad en su totalidad. Junto con este tipo de consideraciones, diversas instituciones  –gobiernos, universidades, la industria– se están comenzando a plantear también los dilemas éticos que serán la base de la legislación futura.

 

Claves

  •  El Parlamento Europeo, por un lado, y un grupo de experto reunidos en Asilomar (California), por otro, han desarrollado de manera paralela una serie de principios y valores éticos sobre la robótica y la inteligencia artificial (en adelante IA).
  •  Esta preocupación por la ética se basa en la creciente conciencia de la necesidad de regular, en un futuro próximo, los avances en este campo.
  •  Se diferencia entre la ética de la robótica –que es la ética de los investigadores, diseñadores y usuarios– y la ética de las máquinas: los robots no tienen valores ni consciencia más allá de lo que se les programa y consienta.
  •  Algunos valores compartidos: respeto por la dignidad humana, libertad, seguridad, privacidad, búsqueda del bien común, inclusión, no uso militar…serán la base de las leyes y regulaciones futuras.
  •  También se reconoce la incertidumbre: es imposible saber con certeza cuáles serán los avances de la IA en una o dos décadas. Por eso, habrá que repensar los dilemas éticos y las regulaciones a medio plazo.

 

De las consecuencias de la Inteligencia Artificial a los principios: la roboética

Los avances en Inteligencia Artificial están empezando a mostrar algunos atisbos de cómo será un futuro no muy lejano –coches autónomos o drones, el triunfo de la IA contra humanos en ajedrez, póker o Go– y sus más que previsibles consecuencias con respecto al empleo por la automatización. Los grandes cambios futuros y su profundo impacto social levantan por igual expectativas de un mundo distinto y mejor, pero también temores fundados sobre un dominio de las máquinas en un mundo sin empleo.

Ante esto, distintos actores se están posicionando. En primer lugar, los gobiernos. La Casa Blanca hizo públicos dos informes sobre la Inteligencia Artificial el pasado octubre de 2016 y sobre su efecto en la economía americana en diciembre de 2016. También las universidades y la academia lo están poniendo en el centro de sus discusiones. La Universidad de Stanford publicó en septiembre de 2016 su informe sobre “Inteligencia Artificial y la vida en 2030”. Y muchos otros actores, de la industria o no, están posicionándose sobre algunos de los temas principales.

En este sentido, tanto el Parlamento Europeo, por un lado, como algunos de los principales exponentes de la inteligencia artificial mundial, por el otro, se han puesto a reflexionar sobre los componentes éticos de la inteligencia artificial. ¿En qué se basan?

Una aproximación institucional: El código ético de conducta europeo

El Parlamento Europeo (PE), tras una propuesta de borrador (junio 2016) y un informe razonado (febrero 2017)  ha aprobado un informe sobre Robótica en el que se establece un Código Ético de Conducta.

La propuesta de resolución del PE establece que es necesario establecer “un marco de guía ético para el diseño, producción y uso de los robots” que sirva de complemento a las diferentes recomendaciones puramente legales que se realizan. Es decir, profundizar en una nueva disciplina, la “roboética”. La idea de fondo es que los estándares éticos deberían ir dirigidos a la humanidad –esto es, los diseñadores, productores y usuarios de los robots–  y no tanto a los robots en sí mismos. Como indica la profesora Nathalie Nevejans, responsable del informe encargado por el propio PE, no hay que confundir la ética en la robótica con la ética en las máquinas, es decir, una ética que obligue a los propios robots a adherirse a reglas éticas. Existen varios principios fundamentales que han sido recogidos por la resolución que incluyen la protección de la dignidad humana, la privacidad, la libertad, la igualdad de acceso o los efectos sociales, entre otros.

 

Los principios sancionados por el Parlamento Europeo (Destacado)

>        Proteger a los humanos del daño causado por robots: la dignidad humana.

>        Respetar el rechazo a ser cuidado por un robot.

>        Proteger la libertad humana frente a los robots.

>        Proteger la privacidad y el uso de datos: especialmente cuando avancen los coches autónomos, los drones, los asistentes personales o los robots de seguridad.

>        Protección de la humanidad ante el riesgo de manipulación por parte de los robots: Especialmente en ciertos colectivos –ancianos, niños, dependientes-  que puedan generar una empatía artificial.

>        Evitar la disolución de los lazos sociales haciendo que los robots monopolicen, en un cierto sentido, las relaciones de determinados grupos.

>        Igualdad de acceso al progreso en robótica: Al igual que la brecha digital, la brecha robótica puede ser esencial.

>        Restricción del acceso a tecnologías de mejora regulando la idea del transhumanismo y la búsqueda de mejoras físicas y/o mentales.

 

La visión de los expertos: los 23 principios de la IA de Asilomar

Como indica Cade Metz en Wired, en febrero de 1975 un grupo de genetistas se reunió en un pequeño pueblo de California, Asilomar, para decidir si su trabajo podría destruir el mundo. Estábamos al inicio de la ingeniería genética y la manipulación del ADN, y de esa reunión surgieron una serie de principios y un estricto marco ético para la biotecnología. Cuatro décadas después –organizado por el Future of Life Institute– otro grupo de científicos se reunió en el mismo lugar y con el mismo problema. Pero esta vez se trataba de analizar las posibles consecuencias de la IA. La idea de fondo fue clara y compartida: un profundo cambio está llegando y afectará a toda la sociedad y las personas que tengan algún tipo de responsabilidad en esta transición tienen tanto una gran responsabilidad como la oportunidad de darle la mejor forma posible.

Tras una profunda deliberación de meses, se aprobaron una serie de principios que fueron apoyados por al menos el 90 % de los asistentes. Estos 23 principios aprobados no son exhaustivos, pero muestran la necesidad de que ciertos principios fundamentales se respeten y que, a través del desarrollo de esta discusión, la IA se utilice para mejorar la vida de todos. De este modo, se plantean una serie de principios agrupados en tres consideraciones generales: a) Principios relativos a la investigación; b) Ética y valores; y c) Temas a largo plazo.

Roboética: ¿Una perspectiva común?

El modo de reflexionar y plantear los marcos éticos –y posteriormente legales–  ofrece un ejemplo claro de la distinta forma que tienen los americanos y europeos de enfrentarse a los problemas: desde un punto de vista más institucional, con comités, subcomités, informes, propuestas y marcos legales (más o menos obligatorios), frente a una discusión más flexible, abierta y voluntaria que caracteriza al modo de hacer anglosajón. Aun así, podemos observar una serie de parámetros e ideas comunes, que pueden servir de base compartida para intentar conceptualizar y regular, en su momento, las prácticas y consecuencias de la IA.

Podemos observar que existen una serie de consideraciones comunes en los dos modos de realizar esta aproximación a la ética de la IA.

>        La IA debe realizarse por el bien de la humanidad y beneficiar al mayor número. Es necesario reducir el riesgo de exclusión.

>        Los estándares con respecto a la IA deben ser altísimos en lo que respecta a la seguridad de los humanos: Para ello, es necesario un control ético y finalista de investigación, transparencia y cooperación en el desarrollo de la IA.

>        Los investigadores y diseñadores tienen una responsabilidad crucial: toda la investigación y desarrollo de la IA debe estar caracterizada por la transparencia, la reversibilidad y trazabilidad de los procesos.

>        Necesidad de control humano: Que en todo momento sean los humanos los que decidan qué pueden hacer o no los sistemas robóticos o basados en IA.

>        Gestionar el riesgo: Cuanto más grave sea el riesgo potencial, más estrictos deberán ser los sistemas de control y gestión del riesgo.

>        No desarrollo de la IA para realizar armas de destrucción.

>        Incertidumbre: Se reconoce que los avances en estos campos son inciertos, en ámbitos y alcances que en ciertos casos son inimaginables. Por ello, las regulaciones y marcos deben repensarse en el medio plazo cuando otros avances se hayan hecho realidad.

 

¿Existen diferencias? Como en muchos casos, más que diferencias explícitas suelen ser implícitas. En primer lugar, la cultura legislativa europea y americana es distinta. Esto puede tener efectos en el futuro. El proceso por el cual se han identificado los distintos principios -más ‘burocrático’ en el caso europeo, en una conferencia entre expertos y emprendedores en el caso americano-  ejemplifica el distinto modo de abordarlo. Consecuentemente, la Carta sobre Robótica europea es, en un cierto sentido, más exhaustiva, e intenta comenzar a regular también a los usuarios finales, y no sólo a los diseñadores.

Por último, y esto es una diferencia fundamental, parece que existen dos visiones distintas: el transhumanismo, esto es, la mejora de las capacidades humanas –físicas y/o intelectuales– a través de la tecnología y que trascienden los límites humanos. Desde la óptica europea, el transhumanismo debería ser regulado ya que potencialmente puede ir en contra de mucho de los principios básicos de la IA como la igualdad de acceso y la dignidad humana, entre otros. En cambio, en los principios de Asilomar no se limita explícitamente.

 

Para la reflexión

La robótica y la IA afectarán en profundidad a nuestras relaciones económicas, sociales o políticas. Todos los sectores y grupos sociales se verán afectados: ¿qué principios deberán regir a los robots? ¿Cómo afecta de manera distinta a diversos grupos sociales? ¿Y en distintas regiones del mundo? ¿Cómo será la IA en un futuro próximo?

Muchas preguntas y muchas incertidumbres, pero una realidad: la inteligencia artificial se va a desarrollar y debemos comenzar a pensar y gestionar su cambio.