Viaje a las profundidades de la inteligencia artificial
Un análisis interdisciplinario para discernir los aportes desde la comunicación hacia el universo de la inteligencia artificial. Las incertidumbres sobre un sistema sobre cuyo funcionamiento interno dudan sus propios diseñadores. El aporte desde la comunicación y la educación.
En plena efervescencia de la revolución tecnológica, propulsada por la inteligencia artificial, emerge una realidad intrigante y desafiante: los modelos de lenguaje generativo, como ChatGPT, Bing o Bard, seducen con su versatilidad, al tiempo que desvelan las incertidumbres que envuelven sus algoritmos internos. La necesidad de comprender y rectificar sus fallos se convierte en el epicentro del actual debate sobre la IA.
Nick Bostrom, el visionario filósofo, plantea la cuestión trascendental: ¿pueden estas máquinas poseer algo equiparable a la conciencia humana? La incertidumbre persiste, ya que ni siquiera existe consenso sobre los parámetros para definir la conciencia en sistemas de IA. La falta de comprensión acerca del funcionamiento computacional de estos modelos añade una capa extra de complejidad.
Los ingenieros detrás de estas creaciones también admiten su desconcierto. Hace apenas semanas, Bard comenzó a estar disponible en español y otros 39 idiomas. Interrogado sobre por qué estos modelos a veces cometen errores o «alucinan», respondió entre varias cosas: «Otra razón por la cual los modelos de lenguaje extensos pueden cometer errores radica en su vasta complejidad. Esta característica puede dificultar que los investigadores comprendan plenamente el funcionamiento y las formas de corregir los errores». La IA misma reconoce que sus creadores no tienen una comprensión total de su funcionamiento y, por ende, tampoco de cómo corregirla.
En la misma línea, Sam Altam, CEO de OpenAI, la empresa detrás de ChatGPT, declaró en una audiencia ante la subcomisión de Privacidad, Tecnología y Derecho del Senado en Washington, Estados Unidos, la necesidad de considerar los riesgos de estos errores. Las implicaciones de estos fallos son un fenómeno que se ha difundido velozmente, escapando parcialmente de control y resultan evidentes. La enigmática naturaleza en la que operan estos modelos generativos, similar a una «caja negra», plantea la pregunta fundamental: ¿hasta qué punto podemos confiar en sistemas cuyos diseñadores desconocen su funcionamiento interno?
La inquietud sobre las alucinaciones no es exclusiva de Bostrom o Altman. El CEO de Google, Sundar Pichai, admite que este problema es común en todos los modelos de IA y que su solución sigue siendo esquiva. Afirma que los ingenieros no siempre comprenden completamente el razonamiento detrás de las respuestas, planteando desafíos éticos y técnicos. Pichai entonces, sugiere incorporar científicos sociales, éticos y filósofos en el desarrollo de sistemas de IA para garantizar un impacto positivo y equitativo en la sociedad.
En este contexto, surge la pregunta de cómo, desde la óptica comunicacional, podemos contribuir a este debate y establecer espacios de investigación integrados en esta colaboración interdisciplinaria. Los modelos de lenguaje, es decir, de procesamiento de información y comunicación, están revolucionando diversos sectores, como la educación, la salud, el trabajo, el arte y hasta las mismas ciencias de la computación.