Sam Altman afirma que la IA transformará la sociedad y reconoce los riesgos: «Me da un poco de miedo»
El director ejecutivo de OpenAI, advierte acerca de los riesgos de la inteligencia artificial y subraya la necesidad de protegerse contra las consecuencias negativas de la tecnología, mientras la empresa lanza la nueva versión GPT-4.
Sam Altman, consejero delegado de OpenAI, la empresa que desarrolló la controvertida aplicación de inteligencia artificial para consumidores ChatGPT, ha advertido que la tecnología conlleva peligros reales a medida que remodela la sociedad.
Altman, de 37 años, subrayó que los reguladores y la sociedad deben involucrarse con la tecnología a fin de evitar consecuencias potencialmente negativas para la humanidad. «Tenemos que tener cuidado», declaró Altman a ABC News: «Creo que la gente debería alegrarse de que estemos un poco asustados por esto».
«Me preocupa especialmente que estos modelos puedan utilizarse para la desinformación a gran escala», dijo. «Ahora que están mejorando en la escritura de código informático, podrían utilizarse para ciberataques ofensivos».
También dijo que, a pesar de los peligros, podría ser «la mejor tecnología que la humanidad haya desarrollado hasta ahora».
La advertencia se produjo mientras OpenAI lanzaba la última versión de su modelo de inteligencia artificial lingüística, GPT-4, menos de cuatro meses después de que se publicara la versión original y se convirtiera en la aplicación de consumo de mayor crecimiento de la historia.
En la entrevista, el ingeniero de inteligencia artificial afirmó que, aunque la nueva versión «no era perfecta», obtuvo un 90 % en los exámenes para ejercer la abogacía de EE. UU. y una puntuación casi perfecta en el examen de matemáticas SAT de bachillerato. Añadió que puede escribir código informático en la mayoría de los lenguajes de programación.
Los temores relacionados con la inteligencia artificial orientada al consumidor, y la inteligencia artificial en general, se centran en la sustitución de humanos por máquinas. Pero Altman señala que la IA sólo funciona bajo la dirección de los humanos. «Es una herramienta que depende en gran medida del control humano», dijo. Pero también le preocupa qué humanos tienen el control.
«Habrá otras personas que no pongan algunos de los límites de seguridad que nosotros ponemos», añadió. «La sociedad, creo, tiene un tiempo limitado para averiguar cómo reaccionar ante eso, cómo regularlo, cómo manejarlo».
El CEO de Tesla, Elon Musk, uno de los primeros inversores en OpenAI cuando aún era una empresa sin ánimo de lucro, ha advertido en repetidas ocasiones que la IA es más peligrosa que un arma nuclear.
Musk expresó su preocupación por el hecho de que Microsoft, que aloja ChatGPT en su motor de búsqueda Bing, haya disuelto su división de supervisión ética. «No existe una supervisión reguladora de la IA, lo cual es un problema grave. Llevo más de una década pidiendo una regulación de la seguridad de la IA». tuiteó Musk en diciembre. Esta semana, Musk se inquietó, también en Twitter, de la que es propietario: «¿Qué nos quedará por hacer a los humanos?».
En la entrevista, Altman reconoció que la última versión utiliza el razonamiento deductivo en lugar de la memorización, un proceso que puede dar lugar a respuestas extrañas. «Lo que más intento advertir a la gente es lo que llamamos el “problema de las alucinaciones”», dijo. «El modelo afirmará con seguridad cosas como si fueran hechos que son totalmente inventados».
«La forma correcta de pensar en los modelos que creamos es un motor de razonamiento, no una base de datos de hechos», añadió. Aunque la tecnología podría actuar como una base de datos de hechos, dijo, «eso no es realmente lo que tienen de especial; lo que queremos que hagan es algo más cercano a la capacidad de razonar, no de memorizar».
Un reciente análisis de ChatGPT del diario inglés The Guardian advertía que lo que se saca depende de lo que se pone. «Nos merecemos algo mejor de las herramientas que utilizamos, los medios que consumimos y las comunidades en las que vivimos, y sólo obtendremos lo que nos merecemos cuando seamos capaces de participar en ellas plenamente».