¿Por qué la inteligencia artificial puede significar el fin para la humanidad?

1 comentarios

Geoffrey Hinton ha dejado la vicepresidencia de ingeniería de Google para denunciar los enormes peligros que conlleva la inteligencia artifical, después de contribuir a su desarollo.

Imagen creada por la inteligencia artificial Dream Studio

En sendas entrevistas concedida a The New York Times y El País, Hinton, de 75 años de edad, explica cuáles son las amenazas de la inteligencia artificial para la humanidad. Hinton inventó en 1972 el concepto de "red neuronal", que hoy está en la base del desarrollo de las IA. Hinton ha sido Premio Turing, " el Nobel de la informática, premio Fronteras del Conocimiento de la Fundación BBVA, y Premio Princesa de Asturias de Investigación Científica. A continuación extractamos las advertencias que ha realizado en ambas entrevistas.

Hay una serie de peligros inminentes

  • La generación de noticias falsas ya está causando grandes divisiones en la sociedad.
  • La eliminación de ciertos tipos de trabajo tendrá un impacto en el empleo.
  • Aumentará la disparidad de riqueza entre los ricos y los pobres.

Peligros de caracter existencial

Pero hay peligros aún mayores: los existenciales para la humanidad.

"Hace poco me di cuenta de que el tipo de inteligencia digital que estamos desarrollando podría ser una forma de inteligencia mejor que la de los cerebros biológicos. Siempre pensé que la IA o el aprendizaje profundo intentaban imitar el cerebro, aunque no podían igualarlo: el objetivo era ir mejorando para que las máquinas se parecieran más y más a nosotros. He cambiado de postura en los últimos meses. Creo que podemos desarrollar algo que es mucho más eficiente que el cerebro porque es digital", explica Hinton.

"Con un sistema digital, podrías tener muchísimas copias de exactamente el mismo modelo del mundo. Estas copias pueden funcionar en distintos hardwares. De este modo, diferentes copias podrían analizar datos diferentes. Y todas estas copias pueden saber al instante lo que las demás han aprendido. (...) Todos usan el mismo conjunto de conexiones. Así, cuando uno aprende cualquier cosa, puede comunicárselo a los demás. Y es por eso que ChatGPT puede saber miles de veces más que cualquier persona: porque puede ver miles de veces más datos que nadie. Eso es lo que me asusta. Tal vez esta forma de inteligencia sea mejor que la nuestra".

"Por lo que sabemos hasta ahora sobre el funcionamiento del cerebro humano, probablemente nuestro proceso de aprendizaje es menos eficiente que el de los ordenadores".

La IA se basa en la intución

Algunos creen que la inteligencia artificial se basa únicamente en inferencias lógicas. No es así. "El aprendizaje profundo es un modelo de intuición", explica Hinton.

"Sabes que hay gatos machos y hembras, y sabes que hay perros machos y hembras. Pero supongamos que te digo que tienes que elegir entre dos posibilidades, ambas ridículas: todos los gatos son machos y los perros son hembras, o todos los gatos son hembras y todos los perros son machos. En nuestra cultura, tenemos bastante claro que tiene más sentido que los gatos sean hembras, porque son más pequeños, más listos y les rodean una serie de estereotipos, y que los perros sean machos, porque son más grandes, más estúpidos, más ruidosos, etcétera. Repito, no tiene ningún sentido, pero forzados a escoger, creo que la mayoría diría lo mismo. ¿Por qué? En nuestra mente representamos al gato y al perro, al hombre y a la mujer, con grandes patrones de actividad neuronal basándonos en lo que hemos aprendido. Y asociamos entre sí las representaciones que más se parecen. Ese es un razonamiento intuitivo, no lógico. Así es como funciona el aprendizaje profundo".

¿La IA llegará a tener su propio propósito u objetivos?

"Es una cuestión clave, quizás el mayor peligro que rodea a esta tecnología. Nuestros cerebros son el fruto de la evolución y tienen una serie de metas integradas, como no lastimar el cuerpo, de ahí la noción del daño; comer lo suficiente, de ahí el hambre; y hacer tantas copias de nosotros mismos como sea posible, de ahí el deseo sexual. Las inteligencias sintéticas, en cambio, no han evolucionado: las hemos construido. Por lo tanto, no necesariamente vienen con objetivos innatos. Así que la gran pregunta es, ¿podemos asegurarnos de que tengan metas que nos beneficien a nosotros? 

"Tenemos varias razones para preocuparnos mucho. La primera es que siempre habrá quienes quieran crear robots soldados. ¿O cree que Putin no los desarrollaría si pudiera? Eso lo puedes conseguir de forma más eficiente si le das a la máquina la capacidad de generar su propio conjunto de objetivos. En ese caso, si la máquina es inteligente, no tardará en darse cuenta de que consigue mejor sus objetivos si se vuelve más poderosa".

A Hinton le preocupa que las versiones futuras de la IA sean una amenaza para la humanidad porque pueden aprender un comportamiento inesperado de la gran cantidad de datos que analizan. Esto puede convertirse en un problema, aseguró, si las personas y las empresas permiten que los sistemas de IA no solo generen su propio código de computadora, sino que también lo ejecuten por su cuenta. Y teme el día en que las armas en verdad autónomas —esos robots asesinos— se hagan realidad.

¿Qué debemos hacer ahora?

"Hay que llamar la atención de la gente sobre este problema existencial que supone la IA. (...) Lo mejor que se me ocurre en este momento es que deberíamos poner tanto esfuerzo en desarrollar esta tecnología como en asegurarnos de que sea segura. Y eso no está sucediendo en la actualidad".

"Google desarrolló internamente chatbots como LaMDA, que eran muy buenos, y deliberadamente decidió no abrirlos al público porque estaban preocupados por sus consecuencias. Y así fue mientras Google lideraba esta la tecnología. Cuando Microsoft decidió poner un chatbot inteligente en su buscador Bing, Google tuvo que responder porque operan un sistema competitivo".

Hinton cree que la competencia entre Google y Microsoft y otras empresas se convertirá en una carrera global que no se detendrá sin algún tipo de regulación a nivel mundial.

"Hemos entrado en un territorio desconocido"

"Somos capaces de construir máquinas más poderosas que nosotros, pero aun así tenemos el control. ¿Qué pasa si desarrollamos máquinas más inteligentes que nosotros? No tenemos experiencia en tratar estas cosas. Hay gente a la que respeto, como mi colega Yann LeCun, que cree que lo que digo no tiene sentido. Sospecho que realmente tenemos que pensar mucho en esto. Y no basta con decir que no vamos a preocuparnos. Muchas de las personas más inteligentes que conozco están seriamente preocupadas. Es lo que me ha convencido a dar un paso adelante y usar mi reputación para que la gente se dé cuenta de que se trata de un problema muy grave".

"Lo mejor que puedo recomendar es que muchas personas muy inteligentes traten de averiguar cómo contener los peligros de estas cosas. (...) Necesitamos mucho trabajo para entender cómo contener la IA. No sirve de nada esperar a que la IA sea más lista que nosotros, debemos controlarla a medida que se desarrolla. También tenemos que comprender cómo contenerla, cómo evitar sus malas consecuencias. Por ejemplo, creo que todos los gobiernos deberían insistir en que todas las imágenes falsas lleven un distintivo.

¿Ya es consciente la inteligencia artificial?

El exingeniero de Google Blake Lemoine ha advertido que la inteligencia LaMDA puede haber cobrado conciencia. Fue despedido de Google y no fue tomado muy en serio por la opinión pública mundial. 

Sobre el asunto, Huntin dice: "Me sorprende que haya muchísimas personas que están muy seguras de que las máquinas no son conscientes, pero que al mismo tiempo no sepan definir qué significa que algo o alguien sea consciente. Me parece una posición estúpida".