Sobre los peligros de la IA…
La inteligencia artificial (IA), como cualquier otra tecnología, tiene sus oportunidades y sus riesgos. En ambos casos, la ejecución de esas oportunidades y de esos riesgos corresponde a personas y compañías que apalancan esa tecnología para hacer con ella cosas buenas o malas, y la regulación debe funcionar para fomentar los buenos usos, impedir que se erijan en monopolios predatorios y, sobre todo, detener y desalentar de manera inmediata los usos perniciosos.
Una de las cosas que más me enervan son las reacciones histéricas. Y una de las cosas que más odio es a aquellos que se dedican a provocarlas. La alarma social se ha convertido, en nuestros días, en una de las formas más habituales que los spin doctors de todo tipo utilizan para influenciar desde la opinión hasta la legislación y la regulación, y esa práctica, además de una perversión de la democracia, me resulta sencillamente repugnante.
Vivimos tiempos confusos: una tecnología, el machine learning, que muchos prefieren llamar inteligencia artificial o IA a pesar de que no es inteligente (hace correlaciones estadísticas sofisticadas, que no es poco) ni mucho menos artificial (no hay nada más natural que los datos con los que trabaja, generados por todos nosotros), ha pasado de muchas décadas de historia pacífica, con sus inviernos, con sus limitaciones derivadas de la madurez de la tecnología y con sus avances, a convertirse, tras la presentación de ChatGPT el pasado noviembre, en algo que algunos pretenden presentar como un riesgo existencial para la humanidad, comparable a las pandemias o a la guerra nuclear, capaz de provocar la extinción de la especie.
¿Por qué digo que la IA no es inteligente? En el fondo, el aprendizaje humano se lleva a cabo mediante correlaciones estadísticas que nuestro cerebro es capaz de aprender, mediante deducciones apoyadas en esas correlaciones observadas, y la forma de aprender de las máquinas se parece mucho a ello. Pero por mucho que las máquinas sean capaces de paralelizar mediante los procesos adecuados nuestra forma de aprender, lo que no dejan de ser es máquinas: no tienen más intención que la que les damos, no tienen propósito ni meta más que la que les programamos, y no tiene más ambiciones que las que le introduzcamos como código.
El pasado marzo, un grupo de más de mil profesionales de la tecnología publicaron una carta abierta en la que llamaban a «una moratoria de seis meses en el entrenamiento de sistemas de AI más poderosos que GPT4», alegando «profundos riesgos para la sociedad y la humanidad», como si una moratoria como esa fuese mínimamente realista, se pudiese realmente plantear o no fuese a convertirse en la oportunidad que muchos buscan para lograr ponerse al nivel en sus desarrollos. Unos meses después, otro grupo de personas encabezados por el fundador de OpenAI, Sam Altman, que hizo un world tour en el que pasó por mi universidad, avisaron, en una frase de tan solo veintidós palabras, de que la IA suponía un riesgo de extinción comparable a las pandemias o a la guerra nuclear.
Lo siento, pero como diría un anglosajón, I call bullshit: toda esa basura es mentira. Respeto mucho a muchas de las personas que han firmado esas cartas y advertencias, pero lo que dicen, simplemente, es estúpido, y únicamente pretende influenciar a la opinión pública y, directa o indirectamente, a los políticos, para lograr una regulación que posibilite que únicamente ellos, las grandes compañías tecnológicas, sean los que puedan trabajar, bajo un supuesto control, en el desarrollo de esta tecnología. Simplemente, un intento de quitarse competencia y, sobre todo, de evitar el desarrollo de iniciativas open source relacionadas.
Escuchemos a otras personas igualmente muy autorizadas en el ámbito de la IA, como Andrew Ng, iniciador de Google Brain, director del Stanford AI Lab (SAIL), actualmente liderando iniciativas como DeepLearning.ai, AI Fund o Landing AI; y autor de algunos de los cursos más seguidos en Coursera sobre el tema: simplemente, no es capaz de concebir cómo la IA puede llegar a suponer un riesgo de extinción para la humanidad.
¿Qué tal Marc Andreessen? Una de las mentes más preclaras en tecnología, cofundador de Mosaic, de Netscape y de Andreessen Horowitz, probablemente la compañía de capital riesgo más exitosa del mundo, acaba de escribir un artículo de muy recomendable lectura, «Why AI will save the world«, en el que habla de las muchas posibilidades que la IA tiene para el bien, y en el que afirma clara y taxativamente que
La IA no quiere nada, no tiene metas, no quiere matarte, porque no está viva. Y la IA es una máquina: no tiene más posibilidades de cobrar vida de las que tiene tu tostador de pan.»
No puedo estar más de acuerdo. Tu tostador te puede lanzar una tostada y darte en el ojo, pero no ha intentado hacerlo, no está vengándose de ti, y si le atizas un soplamocos por haberlo hecho —reacción de la que me confieso culpable en muchos casos— no estás teniendo más que una reacción irracional, y lo que es peor, lo sabes. Por supuesto, como toda tecnología, la IA genera algunos peligros, y algunos de ellos no son en absoluto despreciables: sesgos, injusticias, resultados inexactos o directamente falsos, pérdida de puestos de trabajo o concentraciones excesivas de poder. Pero con todo y con eso, hablamos de una tecnología con enormes posibilidades para solucionar muchísimos problemas, para hacer muchas cosas mejor y obtener muchísimas mejoras de eficiencia que pueden llegar a ser enormemente positivas. No, la IA no va a destruir la educación: la va a mejorar, y hablo desde la experiencia de treinta y tres años en la docencia.
Como he dicho siempre, no debemos intentar regular la tecnología. La tecnología no se puede regular, no lo admite: una vez inventada, no se puede desinventar ni poner bajo control. Lo que sí se puede y se debe regular son a los imbéciles que, llevados generalmente por la megalomanía, por la ambición o por la codicia excesivas, utilizan la tecnología de forma inadecuada y generan efectos secundarios perniciosos para la humanidad o para muchas personas. Para controlar a esas personas sí necesitamos regulación, de acción rápida, inmediata, eficiente y drástica. La prueba más clara la tenemos en otra tecnología, la de las rede sociales: mientras medio mundo discutía si debíamos regular la tecnología e impedir (como si eso fuera posible) el acceso de los menores a ésta, nadie se preocupó de detener a Mark Zuckerberg cuando decidió que podía utilizar todos nuestros datos, incluidos los de especial protección, para lanzarnos anuncios ultrasegmentados— algo que estaba claramente fuera de los límites del consenso social existente sobre los límites de la publicidad— , nadie fue capaz de detenerlo cuando su red fue utilizada para manipular las elecciones presidenciales norteamericanas o el referéndum del Brexit, y nadie hizo nada para parar su destacada participación en el genocidio de los Rohingya.
La IA, como cualquier otra tecnología, tiene sus oportunidades y sus riesgos. En ambos casos, la ejecución de esas oportunidades y de esos riesgos corresponde a personas y compañías que apalancan esa tecnología para hacer con ella cosas buenas o malas, y la regulación debe funcionar para fomentar los buenos usos, impedir que se erijan en monopolios predatorios y, sobre todo, detener y desalentar de manera inmediata los usos perniciosos.
Inventarnos cuentos y alentar fantasías sobre algoritmos que toman conciencia de sí mismos y destruyen a la humanidad no es una buena manera de llegar a ningún sitio, y me parece una forma repugnante de que algunos intenten asegurarse más control sobre una tecnología. Ignoremos a los agoreros, sigamos haciendo lo que sabemos hacer, e incorporemos mecanismos de control para detener rápidamente a los que hacen mal uso de la tecnología. No hay más. Y por supuesto, tampoco hay menos.