Isaac Asimov y sus leyes para dominar a los robots

Hace más de 50 años dos grandes literatos estaban reunidos después de haber degustado una sabrosa cena. Uno de ellos era Isaac Asimov, autor de numerosas obras de divulgación científica y licenciado en bioquímica, y su interlocutor no podía ser otro que John W. Campbell, gran entusiasta de la expansión tecnológica y, en particular, de la robótica. Tras varias horas de debate acalorado, ambos esbozaron las tres leyes que debería cumplir cualquier robot que se diseñase en el futuro.

Las tres leyes de la robótica, atribuidas finalmente a Isaac Asimov, han resistido muy bien el paso de los años, y muchos supuestos que se contemplaban en el momento de su creación siguen vigentes a día de hoy. Es más, incluso sus predicciones resultan certeras, lo que demuestra la gran intuitiva de su creador. Pero, ¿estas leyes, creadas para la robótica, también son aplicables al terreno de la Inteligencia Artificial? Antes de dar respuesta a la pregunta, detallemos primero el enunciado y la explicación de cada una de ellas.

Primera Ley de la Robótica.

Un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.

La explicación es muy sencilla y concluye que un robot tiene la obligación de proteger al ser humano, no pudiéndole agredir ni directamente ni valiéndose de cualquier arma o utensilio. Tampoco se considera válido que el robot no actúe para intentar salvar a un ser humano en peligro.

Segunda Ley de la Robótica.

Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley.

Aquí, la explicación es obvia: los robots tienen la obligación de obedecer todas nuestras órdenes, salvo las que impliquen que suframos algún tipo de daño.

Tercera Ley de la Robótica.

Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Lo básico que pretende esta ley es impedir que el robot corra riesgos innecesarios. Podría ocurrir que, en su afán de no dañar al ser humano o al realizar cualquier otro tipo de misión, el robot se despreocupase de no sufrir daños, y aquí lo que le estamos indicando es que cumpla con sus cometidos, incluidas las dos primeras leyes, pero buscando una alternativa que no lo dañe.

Bien, podría parecer que estas tres leyes acotan por completo todos los peligros que puede encerrar la robótica, aunque realmente no es así. Para entenderlo mejor supongamos que un robot tiene la obligación de salvar la vida a dos personas, pero sólo cuenta con el tiempo necesario para hacerlo con una. ¿A cuál salvaría? Evidentemente, siguiendo lo marcado por las tres leyes anteriores el robot no sabría qué camino seguir, lo que hizo necesaria la inclusión de una nueva ley.

Ley Cero de la Robótica.

Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño.

Con esta ley, el robot, en el caso de estar obligado a salvar a dos personas y sólo tener tiempo para hacerlo con una, seguiría el criterio de procurar lo mejor para la Humanidad. Es decir, salvaría a la más joven, a la menos enferma o seguiría cualquier otro criterio que ayudase a perpetuar nuestra especie.

Dificultades para llevar las leyes de la robótica al campo de la Inteligencia Artificial.

En el artículo Los peligros de la Inteligencia Artificial, entre otras cosas, expliqué qué conocemos por Inteligencia Artificial y cuántas clases o tipos hay. A la hora de aplicar las leyes de la robótica nos encontramos con las siguientes dificultades:

  • En el caso de la Inteligencia Artificial Estrecha (ANI) el problema estriba en cómo introducimos en una red neuronal basada en un proceso de optimización el concepto de seguridad para el ser humano, cómo le hacemos entender a un mecanismo autónomo, que evoluciona a través del método de prueba y descarte, un concepto tan abstracto. La única solución es que el programador se adelante a indicarle qué tipo de situaciones no debe permitir porque entrañan un peligro para el ser humano. Sin embargo, esto tampoco sería una solución válida y certera, ya que a medida que la ANI evolucione comenzará, por sí misma, a barajar situaciones de mucho más alcance, no contempladas por el programador.
  • En el caso de la Inteligencia Artificial General (AGI) sí que sería posible introducirle un concepto abstracto como el de proteger la vida humana. Aquí no haría falta acotar los supuestos que pueden entrañar un peligro para nosotros, dado que una AGI es capaz de razonar y llegaría a detectarlos sin ayuda. Pero no olvidemos que una Inteligencia Artificial de este tipo sólo tiene la capacidad de razonar equivalente a la de un niño de cuatro años, por lo que nuestro nivel de protección sería muy frágil y limitado a esa capacidad.
  • Por último, en lo que se refiere a la Super Inteligencia Artificial (ASI), aquí sí que no tendríamos nada que hacer; pues, al tratarse de una IA mucho más inteligente que nosotros, su nivel conceptual abstracto sería muy superior al nuestro y tendría su concepto propio de seguridad para el ser humano.

Como podemos apreciar, no es tan sencillo aplicar las leyes de la robótica al mundo de la Inteligencia Artificial. Puede que esas leyes funcionen a la perfección en las magistrales obras literarias de Isaac Asimov, pero otra cosa muy distinta es aplicarlas en el mundo real.


Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *