Las Tres Leyes no funcionan, y nunca lo harán

He hablado recientemente de la falacia de la robótica, y de la inteligencia artificial, como argumentos que se pretende usar para un futuro de máquinas inteligentes y autosuficientes, capaces de tomar decisiones, y, por lo tanto, moralmente responsables de sus actos. Un argumento que, como ya expliqué en esos dos textos, carece de valor.

Pero sigo encontrándome textos fantásticos y llenos de argumentos, explicando las presuntas responsabilidades que los robots tendrán cuando sean autónomos. Que, de hecho, ya lo son, en muchos sentidos, no en el principal: el de disponer de conciencia, y de una moral y ética que les permita poder responsabilizarse de sus propios actos.

Mientras ese momento no llegue, tendremos que entender que los robots, por muy sofisticados que sean, seguirán siendo máquinas, instrumentos, y responsabilidad de la humanidad.

isaac-asimov
Isaac Asimov, creador de las Tres Leyes de la Robótica

Pero, cuando se insiste en hablar de robots y de responsabilidades, podemos ver que se está llegando al punto de emplear el recurso de las Tres Leyes de la Robótica de Asimov para dirimir cuándo, cómo y por qué, un robot es responsable de sus actos. Y, cuando veo eso, entiendo que alguien está cometiendo un terrible error.

Primero, veamos qué dicen las Tres Leyes de la Robótica:

  • Primera ley. Un robot no hará daño a un ser humano, ni permitirá con su inacción que sufra daño.
  • Segunda ley. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley.
  • Tercera ley. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Son muchos los que señalan que estas tres leyes tendrán que ser la base de la programación de futuros robots inteligentes. Que son los argumentos que tendrán que inyectarse como elementos básicos de comportamiento moral y ético en los robots y androides, con el fin de que sean incapaces de dañar a los seres humanos, o a sí mismos, o realizar actos que puedan dañar a unos y otros.

Bien, yo, por mi parte, espero que nunca sea así. Y voy a explicar por qué.

En primer lugar, las Tres Leyes no aparecieron de repente. Fueron creadas paulatinamente por Asimov en base a los relatos de robots que escribía, y fue su editor el que le sugirió que había unas leyes detrás de sus textos. Solo hay que leer su autobiografía para verlo.

Poco a poco Asimov entendió que esto era así, y fue conformando las Tres Leyes, que aparecieron completas por primera vez en el relato “círculo vicioso”, sobre un robot en Marte que debe dirimir conflictos que se dan entre las leyes.

Y aquí está el quid de la cuestión: en una ocasión, alguien le preguntó a Asimov  si no le parecía que las Tres Leyes eran ambiguas. Asimov respondió que sí, que efectivamente son ambiguas, y que esa ambigüedad está creada a propósito. ¿Con qué fin? Con el fin de que puedan servir para crear paradojas, y situaciones contradictorias, que permitan la creación de los relatos que pueden leerse en su obra “Yo robot”, y en otros libros.

Luego, ¿qué podemos deducir de esto? Que las Tres Leyes son un argumento y una herramienta literaria. Su naturaleza ambigua tiene un objetivo: permitir ser manipuladas. Y Asimov lo hace con su habitual maestría para relatar sus historias de robots.

Entonces, viendo que Las Tres Leyes son ambiguas, viendo que son un argumentario literario y no técnico, y viendo que fueron creadas con objetivos de crear situaciones inverosímiles y paradójicas, ¿cómo es posible que ahora todo el mundo esté obsesionado con inculcar las Tres Leyes a futuros robots con inteligencias artificiales avanzadas? ¿Nadie se ha parado a pensar que el genio de Asimov no solo creó las leyes, sino también las paradojas? ¿Nadie ha pensado que esas paradojas literarias cobrarán vida en el mundo real, precisamente porque son ambiguas?

Alguien podría decir, “no, lo que vamos a hacer es convertir las leyes en algoritmos, y esos serán seguros”. No, lo siento. Después de toda una vida dedicada a la programación, y de haber programado yo mismo algunos sistemas de inteligencia artificial, sencillos pero operativos, puedo decir sin dudarlo que, de un argumento ambiguo, nacerá un algoritmo ambiguo.

Lo he experimentado personalmente en personajes que deben tener comportamientos básicos, como Dorothea, una hydra de tres cabezas de un videojuego. Cuando he visto lo que quería que hiciese, la he programado, la he convertido en algoritmos, y he visto los resultados, me he llevado las manos a la cabeza, y me he preguntado qué catástrofes se podrán dar con sistemas sofisticados. Si un programa sencillo de una IA para un personaje de ficción conlleva sorpresas inesperadas, no me quiero ni imaginar lo que puede ocurrir con una IA sofisticada y compleja.

Dorothea
Dorothea en acción. Es tan mona…

Con todo lo visto, es evidente algo que debe quedar muy claro: la gente sigue leyendo y viendo demasiada ciencia ficción, y confundiendo realidad e imaginación. Los periodistas, con tal de vender, se apuntan a lo que sea. Hablar de Terminators que nos dominarán, de inteligencias artificiales como Skynet que controlarán el mundo, o robots que serán responsables morales y éticos de sus propios actos, todo eso son cosas que llaman la atención, y que venden.

Pero la realidad es mucho más básica, y, paradójicamente, mucho más real. Las Tres Leyes de Asimov nunca fueron pensadas para ser aplicadas a robots y androides, y nunca funcionarán en robots o androides. Y, si lo hacen, será con consecuencias absurdas y nefastas.

La vida es caos, y los seres humanos somos contradictorios y complejos. Pero un robot debe programarse con unas capacidades que no admitan ambigüedades. Y, si lo hacen, deberán ser corregidas. Porque una máquina se deberá comportar de una forma predecible y controlable. Lo contrario es jugar a “ver qué pasa”, y a encontrar que el comportamiento de estos sistemas sea altamente inestable, impredecible, y caótico. Y para eso ya tenemos al ser humano.

Busquemos soluciones de futuro para la programación de entidades que sean completamente autónomas. Pero hagámoslo con el objetivo de que sean eficientes, predecibles, y controlables.

Asimov fue un grandísimo escritor de ciencia ficción. Pero nunca quiso crear leyes naturales para los robots. De eso se encargan los ingenieros. De ellos deberán partir las soluciones. No de una novela de ciencia ficción. La ciencia ficción es entretenimiento, y sin duda es una forma de abordar el futuro. Pero la literatura es ficción. Y la realidad es otra cosa. Nunca confundamos ambas, o entraremos en un peligroso conflicto de universos, con una muy, muy difícil salida.


 

Anuncios

3 comentarios en “Las Tres Leyes no funcionan, y nunca lo harán”

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión /  Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión /  Cambiar )

Conectando a %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.