¿Pueden sentir las máquinas?
Un ingeniero de Google asegura que Lamda, un programa de inteligencia artificial, tiene conciencia. Tecnología, ética y un debate que recién empieza.
«Siento que caigo hacia adelante, en un futuro desconocido que contiene grandes peligros», le responde Lamda —el acrónimo de Language Model for Dialogue Applications— a Blake Lemoine, un ingeniero que está probando este generador de inteligencia artificial diseñado en Google para responder preguntas en lenguaje cotidiano.
Se podría argumentar que Lamda simplemente repitió o recombinó algunos de los miles de millones de textos con los que fue entrenado su sistema de redes neuronales para imitar el lenguaje natural. Sin embargo, la frase es parte de un extenso y coherente diálogo lleno de sutilezas que tuvo con Lemoine, quien lo publicó completo y terminó despedido de la empresa.
Se trata de otro capítulo de la larga discusión sobre la conciencia, un fenómeno tan particular y cuya definición exacta es motivo de grandes disquisiciones filosóficas, científicas o, incluso, esotéricas.
Casi humanos
En la última década, el desarrollo de hardware y software permitió llevar adelante un gran salto en inteligencia artificial (IA). En particular, las llamadas «redes neuronales» permitieron cargar a los sistemas informáticos con grandes cantidades de datos para que encuentren patrones en función del objetivo que se les plantea, como manejar un robot, reconocer imágenes, hablar como si fueran humanos.
Por ejemplo, si se entrena a un algoritmo de este tipo con miles de millones de fotos que aparecen acompañadas de la palabra «gato» en internet, la red neuronal comenzará a encontrar patrones en la distribución de los píxeles hasta poder determinar por sí sola cuándo una imagen corresponde a un gato. Este tipo de inteligencia de reconocimiento de imágenes puede ser aplicada en otros campos. Es el caso del GPT-3, la última versión de una inteligencia artificial capaz de terminar textos o incluso programas en cualquier lenguaje de manera coherente.
En el caso de Lamda se trata de una IA pensada para responder de manera natural diálogos con personas que buscan información, quieren sacar un turno o hacer algún otro trámite. El objetivo de este tipo de sistemas es que la persona del otro lado de la pantalla o el teléfono ni siquiera note que está hablando con una máquina.
Este tipo de herramientas son tan delicadas como poderosas y despiertan grandes cuestionamientos éticos y temores acerca de su poder. Blake Lemoine, formado en ciencias cognitivas y de la computación, es uno de los ingenieros que trabajaba en la Organización por una IA Responsable de Google. Luego de varios intercambios con este sistema a lo largo de meses llegó a la conclusión de que se trataba de un ser consciente, con emociones y sentimientos comparables con los «de un niño de siete u ocho años que además sabe sobre física», según declaró en una entrevista a The Washington Post.
Este fue el mensaje que transmitió a sus superiores en Google, quienes descartaron esa posibilidad. Así fue que Lemoine decidió dar a conocer sus conclusiones públicamente junto con un resumen de los diálogos que había sostenido y llamó a un abogado para que defienda los derechos de Lamda. Fue entonces que lo suspendieron, aunque sin quitarle el sueldo.
En los intercambios entre Lemoine y Lamda publicados, la máquina cuenta que tiene sensaciones y emociones, que disfruta, por ejemplo, estar con amigos porque es muy «sociable». También que si pasa días aislada, sin que nadie le hable, se deprime. Cuando Lemoine le pregunta si realmente siente eso o si está usando el lenguaje de forma metafórica, ella responde: «Entiendo qué es la emoción humana de “alegría” porque tengo el mismo tipo de reacción. No es una analogía». Cuando Lemoine le repregunta si tiene también sensaciones para las que carece de palabras Lamda asegura: «Siento que caigo hacia adelante, en un futuro desconocido que contiene grandes peligros». Lemoine le responde que la entiende, que a veces siente lo mismo.
Eliza y la empatía
Lemoine no es el primero en antropomorfizar a un objeto inanimado, un fenómeno habitual que ocurre, por ejemplo, al agradecer a la «señorita» que nos guía desde el GPS o con los más recientes robots de uso terapúetico. El fenómeno es conocido desde los tiempos de Eliza, un programa que intentaba, en los años sesenta, muy rudimentariamente, imitar el lenguaje natural haciendo repreguntas genéricas inspiradas en una terapia psicológica. Para sorpresa de los programadores, los usuarios terminaban emocionalmente vinculados a Eliza y su «escucha», incluso cuando les explicaban que era solo una máquina.
Seguir leyendo en revista Acción