Inteligencia artificial: Más de mil personalidades piden parar su desarrollo por los peligros que puede generar

De Elon Musk a Yuval Noah Harari, intelectuales, tecnólogos y académicos firman una carta abierta en la que solicitan pausar durante seis meses el entrenamiento de sistemas más potentes a GPT-4.
Foto: Markus Spiske | Unsplash

La inteligencia artificial (IA) avanza a un ritmo frenético. Desde que el acceso a ChatGPT fue abierto al público el pasado noviembre, el sector tecnológico ha acelerado su apuesta por el lanzamiento de herramientas que dotan a las máquinas con una capacidad de respuesta cada vez más potente. Microsoft ha tomado la delantera en una carrera empresarial «fuera de control» que puede reportarle beneficios multimillonarios, pero cuyo impacto social, económico y cultural comporta «profundos riesgos para la humanidad».

Ese temor es el que ha llevado a más de mil personalidades a firmar una carta abierta en la que se pide a los laboratorios de IA «suspender inmediatamente durante al menos seis meses» el entrenamiento de sistemas más potentes que GPT-4. Ésta es la última generación del modelo de lenguaje de OpenAI, compañía creadora de ChatGPT, publicada el pasado 14 de marzo y que Microsoft ya está integrando en sus servicios, desde su buscador Bing a programas como Word o Excel. «Esta pausa debe ser pública y verificable (…) si no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria», explican.

LEÉ TAMBIÉN

Sam Altman afirma que la IA transformará la sociedad y reconoce los riesgos: «Me da un poco de miedo»

La carta está firmada por expertos, tanto del ámbito empresarial como especialmente del académico. La mayoría de las personas que han firmado la carta son expertos del ámbito universitario y de centros de investigación en IA De forma significativa, el primer firmante es el informático canadiense Yoshua Bengio, uno de los pioneros en el avance del aprendizaje profundo, la tecnología en la que se basan sistemas como ChatGPT. Entre los firmantes destacan nombres como los de Elon Musk, director general de Tesla, Twitter y SpaceX, Steve Wozniak, cofundador de Apple, el intelectual Yuval Noah Harari o el político Andrew Yang, candidato presidencial demócrata de Estados Unidos en 2020. También acompañan los cofundadores de plataformas como Skype, Pinterest o Ripple.

IA no confiable

Aunque estos son los nombres más mediáticos, la mayor parte de los firmantes son reputados académicos e investigadores en IA de todo el mundo. Los expertos afirman que se trata de una tecnología cuyo objetivo es crear texto que parezca lenguaje humano, pero tiene un problema de fondo muy importante que es que no puede garantizar que lo que dice es cierto.

Esa poca fiabilidad hace que, según Sierra, las consecuencias sean impredecibles, pero potencialmente tan «peligrosas» como el «me gusta» de las redes sociales. Razón por la que se demanda una regulación que proteja a los ciudadanos ante la estrategia «imprudente» de gigantes tecnológicos como Microsoft.

LEÉ TAMBIÉN

¿Qué debe saber la política sobre el ChatGPT? Por Adriana Amado

Entrevistado recientemente por la Agencia de Noticias Científicas de la UNQ, Emmanuel Iarussi, científico de Conicet y miembro del Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella, señala los riesgos que existen con la IA. En esta línea, afirmaba: «No hay antecedentes de una tecnología que nos permita crear imágenes tan reales y de manera tan masiva».

Entre sus consecuencias, la inteligencia artificial contribuye a la desinformación mediante la manipulación de imágenes, vídeos y la voz. En este sentido, Iarussi explica que si bien hay técnicas para reconocer si una imagen fue alterada, considera que es algo «transitorio». Y añadió: «Los algoritmos están siendo entrenados para ser indistinguibles, entonces es necesario que guardemos una dosis sana de escepticismo. Debemos acostumbrarnos a dudar de la verdad. La tecnología va a avanzar y van a existir cada vez menos contenidos reales».

LEÉ TAMBIÉN

El Papa trapero, Trump detenido y Biden de fiesta: ¿cómo desinforma la inteligencia artificial?


MÁS INFO

Italia bloquea el uso de ChatGPT por no respetar la legislación de datos

Un cable de la agencia EFE informa que Italia dispuso el bloqueo «con efecto inmediato» de la herramienta de Inteligencia Artificial ChatGPT, de la tecnológica estadounidense OpenAI, acusándola de no respetar la ley de protección de datos de los consumidores.


También te podría gustar...

Deja un comentario