Los peligros de la Inteligencia Artificial

Seguramente muchas veces hemos oído hablar de la Inteligencia Artificial, pero no siempre tenemos muy claro qué significa exactamente esa definición. Como mucho, la mayor parte de las personas tienen una idea vaga de lo que es y, sobre todo, esas naciones nos vienen dadas desde el mundo del cine o de la literatura. Por tanto, antes de abordar los diferentes tipos de Inteligencia Artificial, con sus pros y contras, definámosla primero.

La Inteligencia Artificial consiste en la emulación del cerebro humano, a través de los sistemas de computación y/o de las redes neuronales, para el desarrollo de tareas complejas y bien definidas.

Dicho así la definición nos puede parecer algo confusa, pero si recurrimos a un ejemplo práctico quizás podamos entenderla mejor: imaginemos uno de esos programas informáticos que juegan al ajedrez y que, incluso, son capaces de ganar a jugadores muy aventajados. Pues bien, cualquiera de esos programas podría definirse como un prototipo de Inteligencia Artificial. Otro ejemplo lo tendríamos en el traductor de idiomas de Google, que lleva más de 10 años perfeccionándose y qué, en la actualidad, ya realiza traducciones de muy alto nivel y con escasas equivocaciones. En este caso también nos encontraríamos ante un tipo de Inteligencia Artificial.

Pero, ¿cuántas clases de Inteligencia Artificial hay?

Inicialmente, podríamos hablar de tres clases o tipos, dependiendo de su nivel de desarrollo:

I – La Inteligencia Artificial Estrecha (también conocida como ANI):

Es la clase de Inteligencia Artificial más simple y primitiva. En la actualidad la dominamos por completo y es la responsable de que un robot o una red neuronal sean capaces de desarrollar una tarea concreta mucho mejor a como lo haría el ser humano. Algunos ejemplos mencionados antes podrían encuadrarse dentro de este tipo de inteligencia, al igual que la que encontramos en los algoritmos que permiten trabajar a los buscadores de Internet o, por poner otro caso, la que se desprende de los programas que reconocen la voz humana y traducen lo dicho a un texto.

Resulta muy importante destacar que una Inteligencia Artificial Estrecha es mucho más que el desarrollo de un programa complejo. Así, el segundo, por muy bien confeccionado que esté, sólo sabrá realizar las tareas que previamente tenga definidas, aunque estas sean complejas, pero nunca será capaz de aprender de sus errores, realizando tareas nuevas no programadas por la persona que realizó el programa. En cambio, una Inteligencia Artificial Estrecha sí que puede aprender a medida que va funcionando; perfeccionando, una y otra vez, la tarea que tiene encomendada y encontrando soluciones que ni el mismo programador había calculado.

Incluso en este nivel de la Inteligencia Artificial hay que tener mucho cuidado porque, a pesar de dominarla, puede producir resultados no deseados. El ejemplo más claro lo tenemos en una ANI qué desarrollo Microsoft para Twitter y que consistía en una especie de persona virtual que chateaba con los internautas. Al cabo de dos días de funcionamiento tuvo que ser retirada, ya que, debido a la interacción con los usuarios, la ANI se había vuelto racista, malhablada y xenófoba. Estaba claro que muchos de los usuarios, de forma intencionada, habían provocado que se perfeccionase recurriendo a conocimientos erróneos. En otras palabras: había sido troleada.

II – La Inteligencia Artificial General (también conocida como AGI):

Este tipo de Inteligencia Artificial es mucho más evolucionada que la anterior y sería equivalente a la mentalidad de un niño de 4 años. Lejos de saber realizar una o varias tareas concretas, puede abordar tareas más generales (de ahí su nombre) y para ello introduce un nuevo concepto: la capacidad de razonar.

No nos equivoquemos. No es lo mismo la forma de proceder de una ANI, que perfecciona la tarea que tiene encomendada utilizando el método de prueba y descarte (intenta muchas veces realizar el cometido, descartando los resultados no satisfactorios y añadiendo a su lista de procedimientos los más exitosos), que el razonamiento de una AGI, basado en la toma de decisiones.

Y aquí surge una pregunta: ¿una ANI, por sí misma, puede convertirse en una AGI?

La respuesta es un SÍ rotundo, por lo menos desde el punto de vista de las matemáticas. Como ya hemos mencionados, una IA estrecha se perfecciona mediante el método de la comprobación y del descarte y, a medida que va encontrando las respuestas más satisfactorias, mejora en su funcionamiento y perfecciona su manera de desarrollar el cometido para el que está diseñada. Sin embargo, los programadores encargados de explorar las posibilidades de una ANI son plenamente conscientes de que el sistema de prueba y descarte puede llegar a perfeccionarse tanto que cada vez se parezca más al modo que utilizamos las personas para razonar, lo que nos llevaría a cruzar la frontera entre los sistemas que sólo son inteligentes y los que, además, son capaces de discernir.

El verdadero problema es que el paso de una ANI a una AGI es totalmente independiente y ajeno al control del ser humano, que sólo podría interrumpir la transformación inutilizando el programa o la red neuronal antes que se produzca el cambio. Pero, entontes, ¿qué pasaría si, en un laboratorio particular, un programador independiente crea una ANI tan bien programada que termina siendo una AGI sin que él pueda impedirlo? Pues, en ese caso, tendríamos un serio problema, ya que estaríamos ante lo que llamamos una singularidad tecnológica

Ya abordaremos en otro artículo lo que es una singularidad tecnológica, pero podemos adelantar que se trata de un momento en la historia de la tecnología en el que cambia el paradigma y ya nada vuelve a ser como antes. Es indiscutible que la aparición de la primera Inteligencia Artificial General marcaría un antes y un después, que acarrearía profundas transformaciones en el ámbito cultural, laboral, social, económico o religioso. De todas las formas, todavía es muy pronto para alarmarse, ya que las previsiones más optimistas auguran que la primera AGI no verá la luz antes del 2035.

III – La Super Inteligencia Artificial (también conocida como ASI).

Este tipo de Inteligencia Artificial es la más desarrollada y ya no tendría la capacidad de razonar equivalente a la de un niño de cuatro años, sino que tendría una capacidad entre cien y novecientas veces la de un ser humano adulto. En otras palabras: en términos de ingeniería estaría dos órdenes de magnitud por encima de nosotros. Una ASI no es que llegara a ser entre cien y novecientas veces más rápida que el ser humano, para eso ya están los ordenadores convencionales; su verdadera fuerza estaría en ser más inteligente, en esos guarismos, que el ser humano.

Llegados a este punto, la pregunta es clara: ¿cómo surgiría una ASI?

La respuesta la podemos intuir: una ASI surgiría de una AGI a la que dotásemos de los equipos físicos necesarios (CPUs, servidores, refrigeradores, conexiones a Internet…). Podría darse el caso que la misma AGI nos pidiese esos equipos para poder crecer y, una vez proporcionados, su desarrollo en inteligencia sería exponencial, convirtiéndose en una ASI en pocas horas (como máximo en un día, según el consenso de la comunidad científica internacional).

Una vez surgida la primera ASI, debemos comprender lo siguiente:

  • Nunca seríamos capaces de entender su nivel de razonamiento. Al ser novecientas veces más inteligente que nosotros jamás llegaríamos, ni siquiera, a intuir sus acciones. Es lo mismo que si nosotros intentásemos enseñar a un mono la Teoría de la Relatividad.
  • No tendríamos la posibilidad de desactivarla, ya que la ASI aprovecharía su ventaja en inteligencia para crear los cortafuegos necesarios.
  • Una ASI podría llegar a ser peligrosa para el hombre desde el mismo momento en que le considerase prescindible.

Tras todo lo apuntado podemos llegar a la conclusión de que el desarrollo de la Inteligencia Artificial puede ser perjudicial para nosotros; y tal vez, desde un punto de vista muy superficial, es posible que lo sea. Pero no debemos olvidar las muchas ventajas que lleva parejas, tales como la cura de enfermedades mortíferas, el desarrollo de increíbles programas científicos, el descubrimiento de los grandes misterios de la Humanidad y un largo etc. Por tanto, más que negar su expansión y uso, deberíamos marcarnos ciertas reglas o protocolos a la hora de utilizarla, como los recomendados por el gran divulgador científico Isaac Asimov, a través de una serie de leyes que abordaremos en un próximo artículo.

 

Un comentario sobre “Los peligros de la Inteligencia Artificial

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *