CyT

Las leyes de la robótica

Ideado por Isaac Asimov para evitar cualquier daño de los robots a la humanidad, este código trascendió a la ciencia ficción para ser estudiado y aplicado por organismos científicos en la creación de nuevas tecnologías
C&T
jueves, 10 de agosto de 2017 · 00:00
J. Antonio García Macías
jagm@cicese.mx | Ensenada, B. C.

Hoy en día los robots forman parte no sólo de la ciencia ficción, pues desde hace muchos años la tendencia en diversas industrias es hacia la automatización, por medio de robots, de tareas que realizaban los humanos.
En el ámbito doméstico ya hay varios robots disponibles comercialmente, los cuales realizan tareas simples como aspirar los pisos o regar el pasto. Por supuesto, una nueva ola de robots más sofisticados no tardará en pasar de los laboratorios hacia los hogares y los negocios.
Y, naturalmente, conforme los robots se van haciendo presentes en la vida cotidiana, surge la inquietud de cómo controlar su comportamiento. Aquí es donde entran en juego las reglas de la robótica.

Yo, Robot
Sin duda las leyes de la robótica más populares son las propuestas por Isaac Asimov. Éstas tienen su origen en la historia corta titulada Círculo vicioso (Runaround, en inglés), publicada en 1942.
Dichas leyes las incluyó posteriormente en diversas publicaciones, tales como las recopilaciones Yo, robot y El robot completo, por nombrar algunas.
En el universo de Asimov, las leyes no eran meras sugerencias o guías, pues de forma inequívoca estaban codificadas en el software de los robots sin poder ser sobreescritas, revisadas o ignoradas.
Por supuesto, estas leyes fueron un recurso literario presente en muchas historias. De hecho, parece haber un consenso acerca de que deben ser consideradas como tal y no para fines prácticos.
Tal como lo dice el experto Ben Goertzel "el punto de las leyes de Asimov era que tuvieran fallas interesantes, eso es lo que permitía al autor construir buenas historias con ellas”.
Fuera del ámbito literario, se ha considerado contar con principios y guías para normar la conducta de los robots. Por ejemplo, en la Gran Bretaña organismos tales como el Engineering and Physical Sciences Research Council y el Arts and Humanities Research Council han publicado un conjunto de "principios éticos para diseñadores, constructores y usuarios de robots” y se ha trabajado en establecer una diferencia entre los principios éticos y los principios legales.

Robots y humanos
En muchos países asiáticos la actitud hacia los robots es muy positiva, pues en fábricas automatizadas e incluso como ayudantes domésticos, los ven como la salvación para los problemas de envejecimiento poblacional que actualmente tienen y que siguen como tendencia pronunciada.
Hay que contrastar esto con el miedo que se tiene en otras sociedades, sobre todo occidentales, a que los robots y la automatización reemplazarán a los humanos en sus empleos.
En general se considera que muchos robots o sistemas automatizados están siendo diseñados para proteger a los humanos. Este es el caso de los vehículos autónomos, los cuales sin duda se conducirán de manera mucho más segura que si un humano estuviera al mando.
Por supuesto hay excepciones y también se están construyendo robots para matar humanos. En esto llevan la delantera los EU, quienes ya han matado a miles de personas con drones no tripulados enviados a batalla en otros países.
Mientras se sigue debatiendo la legalidad -no se diga la moralidad- de estos ataques, la milicia estadounidense sigue incrementando el conteo de muertos.
Por supuesto, es útil distinguir entre la inteligencia artificial (IA) débil donde los robots realizan tareas específicas (como ensamble en fábricas) de la IA dura, la cual pretende que un robot tenga comportamiento por lo menos tan hábil y flexible como el de los humanos.
Aquí se entra al terreno de las IA generales (IAG) o las superinteligencias. Esa es una discusión más amplia que se deja para otra ocasión. Baste por lo pronto con decir que el enfoque de muchos expertos es que el desarrollo de las IAG no debe detenerse y que en el camino, mientras se construyen los primeros prototipos, se irán teniendo experiencias que permitirán construir los marcos legales y éticos apropiados.
Esto lo ejemplifican con el desarrollo del lenguaje, cuando los hombres primitivos no se detuvieron a tener teorías sólidas y formales sobre el lenguaje y sus implicaciones al introducirlo a las sociedades. El lenguaje se fue desarrollando y sobre el camino se fueron estudiando dichas implicaciones.
Por lo pronto, se deben redoblar esfuerzos a los usos que los humanos le dan a los robots y los sistemas automatizados, pues son los humanos los responsables de cualquier daño que se puedan causar.
También debe pensarse en que conforme los humanos sigan incorporando avances tecnológicos en sus cuerpos -prótesis físicas, por lo pronto-, pero quizás intelectuales y de memoria en un futuro próximo, ocurrirá de manera paulatina una convergencia entre robots y humanos.
Entonces, quizás las leyes que rigen a los humanos hagan obsoletas un conjunto de leyes separadas para los robots.

Conforme los humanos sigan incorporando avances tecnológicos en sus cuerpos, pero quizás intelectuales y de memoria en un futuro próximo, ocurrirá de manera paulatina una convergencia entre robots y humanos

Las tres leyes de la robótica
Originales de Isaac Asimov, dicen lo siguiente:
1. Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
2. Un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera Ley.
3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda Ley.
    Más tarde estableció una cuarta ley, la cual por tener precedencia sobre las tres ya establecidas, se denominó como la Ley Cero:
0. Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

...

Comentarios