Geoffrey Hinton y los peligros de la tecnología

El problema con la inteligencia artificial no está en dicha tecnología, sino en lo que decidamos hacer con ella. Lo que preocupa a Hinton no es el desarrollo de algoritmos y modelos, sino la posibilidad de que, llevados por una competencia que lo maximiza todo, sean empleados para cuestiones que puedan resultar peligrosas. Y es evidente que esto puede ocurrir, sobre todo si, además, la tecnología vuelve a quedar, como ocurrió con el desarrollo de internet, en manos de unas pocas compañías.

El británico Geoffrey Hinton, uno de los grandes pioneros en el desarrollo de la IA, dejó su trabajo en Google para hablar sobre los peligros de dicha tecnología sin considerar cómo afecta esto a la big tech.

La noticia de que Geoffrey Hinton, considerado por algunos «el padrino de la IA» por sus desarrollos en el campo del deep learning, abandona Google tras diez años en la compañía para poder manifestarse de manera abierta sobre los peligros de la tecnología, ha servido a muchos, como hizo la carta abierta de un grupo de investigadores de hace aproximadamente un mes, para demonizar todo aquello que se base en algoritmos de machine learning bajo el pretexto de que pueden ser tremendamente dañinos para la sociedad.

Repito lo que dije hace un mes: el hecho tecnológico es inevitable. Las tecnologías no pueden de ninguna manera «desinventarse», y si alguien ve posibles ventajas en su incorporación a una tarea determinada, lo hará. Tratar de impedirlo es inútil. Podemos aspirar a regularlo, como se regula absolutamente todo, pero para regular algo, necesitamos en primer lugar entenderlo bien, de manera holística, con todas sus posibilidades y sus riesgos.

El propio Hinton, tras ver cómo The New York Times había publicado el artículo que se refería a él, usó Twitter para aclarar que no había abandonado Google para criticar a la compañía, y que, de hecho, la compañía había actuado de manera muy responsable con respecto a esa tecnología. Lo dijimos en su momento: Google rechazó lanzar productos basados en LaMDA porque estimaba que una tecnología con ese potencial debía estar mejor controlada, más libre de posibles problemas. Llegó OpenAI y lanzó ChatGPT sin plantearse sus posibles errores, en el mejor estilo Silicon Valley: tú lanza, y ya veremos. El resto es historia.

Para Hinton, lógicamente, el problema no está en la tecnología, sino en el uso que se haga de ella. Hablamos de una tecnología capaz de llevar a cabo un tipo de automatización enormemente sofisticada: nada que ver con lo que tradicionalmente hemos entendido por automatización referido a tareas repetitivas, sino algo mucho más potente, que algunos tienden, de hecho, a antropomorfizar, a confundir con el pensamiento humano.

Me explico: el pensamiento humano se desarrolla de una manera inductiva a partir de la adquisición de datos. Dame un proceso, y mi cerebro tratará no solo de entenderlo, sino además, de utilizarlo como modelo para la siguiente ocasión en que ese proceso aparezca. Dame muchos procesos parecidos, y aprenderé mejor lo que puedo esperar de ellos, cómo tratarlos, o incluso cómo, si es posible, influir en ellos. Eso es exactamente lo mismo que hace una máquina: a partir de un montón de datos, modeliza mediante algoritmos estadísticos muy avanzados, los procesos que hay en ellos.

Muchas personas llevan a cabo trabajos que son profundamente mecánicos, y que de hecho van siendo progresivamente sustituidos por tecnología, por máquinas que, por lo general, los llevan a cabo de manera ventajosa porque además de ser más baratas, non se cansan ni cometen errores. Cuando elevamos el significado de la automatización para convertirla en automatización sofisticada, esa frontera también se resitúa a otro nivel, y muchos más trabajos pasan a ser prescindibles y a ser desarrollados por máquinas en lugar de por humanos. Eso es completamente inevitable.

Durante muchos años, nuestras posibilidades de desarrollar esos modelos más sofisticados chocaron con las limitaciones de la tecnología. Los modelos que intentábamos utilizar no eran suficientemente potentes para la complejidad de la tarea, y eso conllevaba limitaciones importantes en el número de parámetros utilizados. La realidad es que la inmensa mayoría de los procesos dependen de muchísimas variables, algunas de las cuales podemos medir, y otras muchas que no podemos, variables que, además, se correlacionan entre sí de muy diversas maneras.

¿Qué ha cambiado? Simplemente, que OpenAI aplicó la metodología del apalancamiento habitual en Silicon Valley a este campo: logró una inversión inicial muy elevada que solía estar fuera de alcance de este tipo de proyectos salvo para compañías como Google y muy pocas otras, obtuvo además la participación de una Microsoft que le permitió utilizar su nube a cambio de créditos convertibles en acciones, y fue capaz de crear un modelo con miles de millones de parámetros que es capaz de, en primer lugar, manejar extremadamente bien algo tan complejo como el lenguaje humano y, además, de entender su estructura para seleccionar y combinar los elementos de su enorme base de datos para responder a lo que se le plantea.

Esto es muy importante: responder a lo que se le plantea no implica que lo haga bien. El modelo simplemente recombina lo que encuentre que identifique referido al tema planteado, y responde con una serie de técnicas, que en muchos casos implica que «alucine»; es decir, que prevea relaciones que, en realidad, no están ahí. ¿Llamativo? Muchísimo. ¿Interesante? Sin duda. ¿Infalible? Ni por asomo. Pero sobre todo, ¿piensa como una persona? No, en absoluto. Una persona tiene una intención, una consciencia, un interés o intereses en lo que hace. Los modelos generativos no la tienen, ni la pueden tener. No están vivos, ni lo estarán. Son simplemente correlaciones estadísticas muy sofisticadas, pero sin más intención que la que les queramos dar en cada momento.

El problema surge con su denominación, «inteligencia artificial». Llamar inteligencia artificial a algo que no es inteligente –—son recombinaciones estadísticas de datos, no inteligencia— y que, además, no es en absoluto artificial —nada hay más natural que los datos que hemos generado nosotros mismos— implica mitologizar la tecnología, algo a lo que, además, los humanos somos particularmente proclives. Cuando surge una tecnología cuyas posibilidades nos abruman, tendemos a considerarla «magia», como dice la tercera ley formulada por el escritor de ciencia-ficción Arthur C. Clarke, «cualquier tecnología lo suficientemente avanzada es indistinguible de la magia».

El problema, por tanto, no está en la tecnología, sino en lo que decidamos hacer con ella. Lo que preocupa a Hinton no es el desarrollo de algoritmos y modelos, sino la posibilidad de que, llevados por una competencia que lo maximiza todo, sean empleados para cuestiones que puedan resultar peligrosas. Y es evidente que esto puede ocurrir, sobre todo si, además, la tecnología vuelve a quedar, como ocurrió con el desarrollo de internet, en manos de unas pocas compañías. De ahí que la preocupación no deba estar en el desarrollo tecnológico, sino en su incorporación a según qué cosas. ¿Debemos regular la tecnología? Por supuesto, como regulamos todo. Pero debemos regularla, fundamentalmente, para mantener bajo control lo que esa tecnología puede hacer, evitando la concentración en manos de unas pocas compañías, y aplicando mano dura a las compañías que pretendan utilizarla de manera abusiva o dañina.

Entre utilizar algoritmos para entender la salud de una persona a partir de lecturas continuas —que por tanto, gracias al poder de la estadística, ya no tienen que ser exactas o precisas, sino simplemente consistentes en su error— es muy interesante. Poner a un algoritmo a cargo de un rifle de precisión en una frontera conflictiva, o otorgarle el control del botón nuclear no lo es, y además, es una barbaridad. Utilizar algoritmos para asistirnos en muchas tareas puede ser interesante, pero emplearlos para que los anuncios se personalicen hasta el punto de que nos llamen mucho más la atención no lo es, y debería prohibirse. Ese tipo de fronteras no son, en realidad, tan difíciles de entender. Solo es cuestión de proyectar con un mínimo de visión sus potenciales efectos futuros.

En muchos sentidos, estamos repitiendo la historia. El desarrollo de internet fue maravilloso, pero su uso por unas pocas compañías para perseguir a los usuarios, capturar todos sus datos en intereses personales y acosarlos de manera persistente para que hiciesen clic en anuncios no lo fue. Proteger la privacidad, crear algoritmos no discriminatorios, evitar comportamientos monopolísticos que restrinjan la competencia y la oferta, impedir el fraude y el engaño y favorecer la innovación son cuestiones que tenemos que aprender de lo que ocurrió anteriormente, y que sin duda, deberán estar sujetas a regulación.

Pero eso no implica que la tecnología sea mala, ni mucho menos que vaya, como creen algunos, a adquirir consciencia de sí misma y a elegir matar a todos los humanos. Eso son películas y lo van a seguir siendo. No pongamos, por favor, al bueno de Hinton en el papel de demonizar la tecnología, porque sin duda, no es lo que pretende. Pongamos las cosas y a las personas en su sitio: es, simplemente, alguien que avisa sobre la necesidad de controlar no la tecnología, sino lo que algunos pretenden hacer con ella. Y en eso, claramente, tiene razón.

Foto del avatar

Enrique Dans

Profesor de Innovación en IE Business School desde el año 1990 y bloguero (enriquedans.com). Comparte los contenidos de su blog por medio de una Licencia de Creative Commons https://creativecommons.org/licenses/by/3.0/es/).

También te podría gustar...

Deja un comentario