¿Quién aprende y se beneficia en la era de la inteligencia artificial?

Imagen: Cottonbro Studio | Pexels

Análisis de la creciente brecha en las capacidades de aprendizaje entre unos pocos gigantes empresariales y el resto del mundo.

CECILIA RIKAP

Cecilia Rikap (doctora en economía por la Universidad de Buenos Aires) es profesora de economía política internacional en la City University de Londres, investigadora titular del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet), e investigadora asociada del laboratorio Costech de la Universidad Tecnológica de Compiègne (Francia). Entre otras funciones académicas, es directora de la licenciatura en IPE de la City University de Londres. También es autora de Capitalism, Power and Innovation: Intellectual Monopoly Capitalism (Routledge, 2020) y The Digital Innovation Race: Conceptualizing the Emerging New World Order (Palgrave, 2021), este último en coautoría con B.A.K. Lundvall.


Este ensayo fue publicado originalmente por Bot Populi (https://botpopuli.net) —un espacio que examina lo digital desde una perspectiva de justicia social y sur global— bajo una licencia internacional Creative Commons Attribution-ShareAlike 4.0 (https://creativecommons.org/licenses/by-sa/4.0/deed.es_ES). Traducción: Esfera Comunicacional.

—Yo: Mi vuelo ha sido cancelado y quiero comprobar si la solicitud de reembolso que hice ayer se está procesando correctamente.

—Chatbot: Hmmm. Lo siento, no lo he entendido. Soy un Chatbot nuevo y todavía estoy aprendiendo. Se me dan mejor las preguntas sencillas y cortas. Si prefieres elegir un tema de nuestro menú, escribe «Ayuda» (31 de marzo de 2023).

Los chatbots no son nuevos. Tampoco lo es la inteligencia artificial (IA). Sin embargo, hasta hace poco, el tipo de preguntas a las que podían responder los chatbots eran extremadamente sencillas, e interactuar con ellos solía ser frustrante. Y aunque hemos estado interactuando regularmente con IA avanzada —el motor de búsqueda de Google y el sistema de precios del mercado de Amazon son dos ejemplos destacados—, algo ha cambiado desde que ChatGPT se lanzó en noviembre de 2022. No sólo su ritmo de adopción ha sido más rápido que el de cualquier otra plataforma anterior, sino que los efectos de la integración de ChatGPT, y más en general de los Large Language Models (LLM), en nuestra vida cotidiana ya han ido mucho más allá de los que presenciamos antes.

Aun así, lo que sigue sin cambiar es el dominio de las grandes tecnológicas: En la actualidad, el desarrollo de la IA beneficia enormemente a las grandes tecnológicas estadounidenses.

Dominio de la gran tecnología estadounidense sobre la IA

Pregunté al ChatGPT integrado de Bing si Microsoft ejerce actualmente el monopolio intelectual. Esto es lo que respondió: «Lo siento, pero no he podido encontrar ninguna información reciente sobre si Microsoft es un monopolio intelectual. La información más reciente que encontré fue sobre el caso Estados Unidos contra Microsoft Corporation a finales de los noventa y principios de los 2000, que mencioné en mi mensaje anterior. ¿Hay algo más que quieras saber?».

A juzgar por la respuesta anterior, ChatGPT no parece ser consciente de su propia posición en el ecosistema big tech. Pero las empresas estadounidenses de big tech, en particular Microsoft y Google, controlan hoy el campo de la IA, apropiándose de la investigación pública y aprovechando el talento científico e intelectual de varias universidades.

Mientras que las patentes parecen ser fundamentales en la estrategia de Google, el secretismo es el mecanismo de apropiación preferido de Amazon, lo que también explica por qué presenta menos investigaciones que los otros gigantes tecnológicos en las conferencias sobre IA.»

Mi investigación ha analizado en detalle el dominio de las grandes tecnológicas estadounidenses en el campo de la IA. Como primer paso, he representado la red de actores de la investigación de vanguardia en IA trazando la red de organizaciones con mayor frecuencia de presentaciones en las catorce principales conferencias científicas sobre IA. Las grandes tecnológicas estadounidenses y chinas forman parte de esta red, en la que Google y Microsoft ocupan las posiciones más centrales. ¿Y qué más? El nodo de Microsoft en la red es el puente que conecta las organizaciones occidentales y chinas, una clara señal de su papel geopolítico estratégico. Microsoft es el único gigante estadounidense bien posicionado en China, donde abrió su primer gran campus de I+D fuera de Estados Unidos en 2010. Esta presencia también se ha traducido en colaboraciones regulares con los principales actores chinos de la IA, desde Alibaba y Tencent hasta las principales universidades para el desarrollo de la IA. Al ser coautora habitual de artículos sobre IA con todos ellos, así como con muchas de las principales organizaciones occidentales dedicadas a la I+D en IA (estas últimas no suelen ser coautoras de artículos con organizaciones chinas), Microsoft conecta todo el campo de la IA, beneficiándose de la investigación de los científicos e ingenieros con más talento de todo el mundo.

Las grandes empresas tecnológicas estadounidenses también ocupan un lugar destacado en los comités de estas conferencias. Por ejemplo, todas las grandes empresas tecnológicas tienen al menos un miembro en el comité organizador de NeurIPS, la conferencia anual de aprendizaje automático más codiciada. Google, que obtuvo el mayor número de trabajos aceptados en esta convención académica en 2022, contaba con nueve de sus representantes en el comité de 39 miembros. La empresa también es la principal adquirente de start-ups de IA, como se vio en el caso de DeepMind adquirida en 2014, que es uno de los actores más significativos en la carrera de la IA y ha invertido mucho en patentes. Todos estos indicios apuntan a que Google está sacando provecho de la IA, aunque se encuentre bajo presión desde que Microsoft y OpenAI tomaron la delantera en la carrera de la inteligencia artificial general.

Curiosamente, cuando se trata de patentar la IA, el comportamiento de las grandes empresas tecnológicas varía. Mientras que las patentes parecen ser fundamentales en la estrategia de Google, el secretismo es el mecanismo de apropiación preferido de Amazon, lo que también explica el porqué presenta menos investigaciones que los otros gigantes tecnológicos en las conferencias sobre IA.

A diferencia de Google, la estrategia reciente de Microsoft ha privilegiado las inversiones en start-ups de IA, en lugar de las patentes y las adquisiciones. A menudo, las empresas que reciben este tipo de financiación permanecen formalmente separadas pero, en última instancia, están controladas, al menos parcialmente, por Microsoft. OpenAI, que desarrolló ChatGPT, es un ejemplo de esta estrategia. La primera inversión de Microsoft en OpenAI, de mil millones de dólares, se remonta a 2019. A cambio de financiación, Microsoft negoció una licencia exclusiva para GPT-3. Poco después de que Microsoft interviniera, un grupo de investigadores de IA abandonó OpenAI debido a tensiones internas sobre su dirección y prioridades de investigación, lo que demuestra el creciente control de la empresa sobre la trayectoria de esta última. De manera crucial, OpenAI depende de la potencia informática de Microsoft, sin la cual la formación de los LLM habría sido imposible. Tras el éxito de ChatGPT y su integración casi inmediata en Microsoft Bing, Microsoft comprometió una inversión adicional de diez mil millones de dólares en OpenAI. Según los entrevistados, a principios de 2023, Microsoft había pasado a poseer el 49 % de OpenAI.

Actualmente utilizamos las LLM como cajas negras, casi sin tener ni idea de cómo funcionan. Esto plantea la siguiente pregunta: ¿qué espacio queda para el aprendizaje humano a partir de las tecnologías digitales cuando sólo se permite el uso de la aplicación y éste tiene lugar en las condiciones establecidas por unas pocas empresas?»

Invertir sin adquirir OpenAI ha resultado ser una estrategia más favorable para Microsoft en comparación con la adquisición de DeepMind por parte de Google. Microsoft ha podido ampliar la base de ventas de sus servicios de IA porque sus rivales también despliegan ChatGPT Plus de OpenAI. Además, operar a través de OpenAI desvía la atención de los reguladores y mantiene a raya la preocupación pública. El consejero delegado de Microsoft, Satya Nadella, llegó a afirmar que la nueva ola de IA no estaba privilegiando a los incumbentes como Microsoft, sino a entrantes como OpenAI, sin mencionar que esta última opera casi como su empresa satélite.

Por qué no debemos dejar que los ChatGPT aprendan a costa del aprendizaje humano

Los LLM no son sólo un paso más en el desarrollo (y monopolización) de la IA. A diferencia de otros modelos de IA, que en última instancia se desarrollaron para un fin específico, como definir los precios en Amazon, la IA generativa es increíblemente ubicua. Sus funciones van desde escribir ensayos hasta codificar siguiendo indicaciones detalladas. Cada día vemos surgir nuevas aplicaciones. Sin embargo, esta rápida adopción con usos ubicuos no ha ido acompañada de una expansión del acceso real a la tecnología subyacente. Actualmente utilizamos los LLM como cajas negras, casi sin tener ni idea de cómo funcionan. Esto plantea la siguiente pregunta: ¿qué espacio queda para el aprendizaje humano a partir de las tecnologías digitales cuando sólo se permite el uso de la aplicación y éste tiene lugar en las condiciones establecidas por unas pocas empresas?

Los LLM son un tipo especial de algoritmo de aprendizaje profundo. El aprendizaje profundo se refiere a modelos que mejoran por sí mismos cuanto más se utilizan; es decir, cuantos más datos incorpora. Cada vez que hacemos una pregunta a ChatGPT se producen más datos adecuados para volver a entrenar a ChatGPT. Esto crea flujos constantes de inputs para hacer ChatGPT cada vez mejor. Un abogado corporativo de Amazon llegó a decir a los empleados que no debían proporcionar a ChatGPT «ninguna información confidencial de Amazon (incluidos los códigos de Amazon en los que estés trabajando)» y añadió que esta recomendación era «importante porque tus entradas pueden utilizarse como datos de entrenamiento para una nueva iteración de ChatGPT, y no nos gustaría que su resultado incluyera o se pareciera a nuestra información confidencial (y ya he visto casos en los que su resultado se parece mucho al material existente)».

Hay demasiados indicios que apuntan a la consolidación de una brecha cada vez más profunda en las capacidades de aprendizaje entre unos pocos gigantes corporativos y el resto del mundo. Las grandes empresas tecnológicas han atraído a los científicos e ingenieros de IA con más talento, ya sea como empleados a tiempo completo o con empleos a tiempo parcial que les permiten conservar sus afiliaciones académicas mientras trabajan para las big tech en proyectos secretos de vanguardia. De hecho, Meta siguió contratando para puestos relacionados con la IA, mientras realizaba despidos masivos. No sólo las universidades o las pequeñas empresas sufren la consiguiente fuga de cerebros. Mis entrevistas confirman que incluso a las grandes empresas multinacionales les cuesta encontrar informáticos e ingenieros para desarrollar la IA. Por lo tanto, otros actores se verán obligados a comprar servicios de IA en la nube a Amazon, Microsoft y Google, ya que estos tres grandes actores acaparan el 65 % del mercado.

No se trata de un llamamiento contra el uso de la IA, sino de impedir que un puñado de empresas se hagan con las tecnologías punteras de nuestro tiempo, decidiendo cómo se desarrollan y regulan.»

¡Qué paradoja para la «economía del conocimiento»! Un pequeño grupo de personas y máquinas aprenden, y la inmensa mayoría del mundo corre el riesgo de perder habilidades de aprendizaje a medida que los chatbots inteligentes nos alimentan con respuestas (no necesariamente fiables). Además de los efectos económicos y el aumento asociado de las desigualdades, este proceso está ampliando las brechas entre el conocimiento y la ignorancia, incluso afectando potencialmente a las posibilidades de imaginar y desarrollar alternativas.

¿Podría ser el código abierto la solución?

Desde que se introdujo ChatGPT, han entrado en escena otras alternativas privadas. También se han puesto a disposición varios LLM de código abierto. Sin embargo, no son tan completos como los modelos privados y no representan, al menos de momento, una amenaza seria para el tándem Microsoft-OpenAI. Uno de estos LLM de código abierto fue desarrollado por Hugging Face, una start-up respaldada por Amazon. Tiene alrededor de 176.000.000.000 de parámetros —una señal de lo avanzado que es el modelo—, pero los modelos de punta actuales tienen más de un billón de parámetros.

Otra limitación de los LLM de código abierto es que no pueden utilizarse directamente. Son una tecnología de propósito general que requiere adaptaciones adicionales para su adopción por parte de los usuarios, por ejemplo, a través de interfaces como ChatGPT. En este sentido, las grandes tecnológicas estadounidenses cuentan con una ventaja, ya que han integrado diferentes LLM de frontera[1]Las tecnologías de frontera son aquellas que aprovechan la digitalización y la conectividad. Incluyen la IA, el internet de las cosas, el big data, el blockchain, el 5G, la impresión 3D, la … Continue reading en sus nubes y otros servicios, lo que facilita su adopción por parte de empresas y otras organizaciones. Además, estos modelos requieren mucha potencia de cálculo, lo que favorece aún más su adopción a través de la nube. Dada la mencionada escasez de científicos e ingenieros especializados en IA, también es muy poco probable que otras empresas tengan la capacidad de adaptar los LLM de código abierto a sus necesidades. Aplicar IA de código abierto puede incluso acabar siendo más caro. Al mismo tiempo, las presiones para aplicar la IA aumentan en todo el mundo.

Aplicar la IA: ¿malditos si lo hacemos, malditos si no lo hacemos?

¿Debemos aceptar que las grandes empresas tecnológicas dispongan de la mejor tecnología de IA y utilizarla ampliamente, o rechazar la IA en un intento de mitigar la exacerbada concentración intelectual y económica que está generando? Desde luego, ninguna de las dos cosas. No se trata de un llamamiento contra el uso de la IA, sino de impedir que un puñado de empresas acaparen las tecnologías punteras de nuestro tiempo, decidiendo cómo se desarrollan y regulan.

Un enfoque extremo en la agencia de la IA generativa corre el riesgo de pasar por alto el papel de los agentes de la IA; es decir, las grandes empresas tecnológicas como sus principales controladores.»

Gran parte del debate político desde la publicación de ChatGPT gira en torno a la agencia de modelos genéricos de IA. Incluso la alta dirección de big tech y OpenAI ha abogado por regular los usos de la IA y desviar la atención de regular qué tipo de IA se codifica, quién la codifica y quién se beneficia de ella. En otras palabras, un enfoque extremo en la agencia de la IA generativa corre el riesgo de pasar por alto el papel de los agentes de la IA; es decir, las grandes empresas tecnológicas como sus principales controladores. La IA es coproducida por muchos, como demuestran los participantes en las principales conferencias sobre IA. Además, todo el mundo contribuye a la mejora de la IA utilizándola. Pero las grandes tecnológicas se llevan los beneficios de forma desproporcionada.

La sociedad debe debatir en espacios democráticos si debe desarrollarse la IA y de qué tipo, quién debe hacerlo y para qué. Esta discusión es indisociable de acordar qué tipo de datos se recolectarán y cómo se gobernarán (quién decidirá los accesos, cómo se accederá a ellos, etc.). Aún hay tiempo para dar forma a las tecnologías y redistribuir sus beneficios. Sin embargo, cuanto más corra el reloj y más personas y organizaciones adopten ChatGPT y similares, más difícil será remodelar las rutinas para la producción y el uso de una IA que nos ayude a resolver los grandes retos mundiales, en lugar de una IA que sustituya mano de obra, fomente las desigualdades y, en última instancia, empeore los tiempos críticos en los que vivimos.

MIRÁ TAMBIÉN


RESUMEN

Las grandes empresas tecnológicas estadounidenses ejercen actualmente un monopolio intelectual en el campo de la inteligencia artificial (IA), beneficiándose injustamente del talento intelectual de todo el mundo y aprovechándose de él. Esto, unido a la rápida adopción de sus grandes modelos lingüísticos sin ningún acceso público a la tecnología subyacente, ha profundizado la brecha en las capacidades de aprendizaje entre estos gigantes tecnológicos y el resto del mundo. Esta consolidación obliga a otros actores a depender de servicios de IA comerciales, lo que aumenta el control de mercado de las grandes tecnológicas. Aunque el ensayo contempla el uso potencial de modelos de IA de código abierto como solución, reconoce sus limitaciones en comparación con la tecnología patentada. El ensayo recurre al llamamiento a los debates democráticos para dar forma al desarrollo de la IA, la gobernanza de los datos y la redistribución de sus beneficios para abordar eficazmente los retos mundiales.


RELACIONADAS

Notas
Notas
1 Las tecnologías de frontera son aquellas que aprovechan la digitalización y la conectividad. Incluyen la IA, el internet de las cosas, el big data, el blockchain, el 5G, la impresión 3D, la robótica, los drones, la edición de genes, la nanotecnología y la energía solar fotovoltaica.

También te podría gustar...

Deja un comentario