Baeza-Yates: «Si alguien domina una tecnología como la IA, esa cultura también va a dominar globalmente»

El experto chileno en ética y regulación en datos e inteligencia artificial (IA) habló con la Agencia TSS de la Unsam sobre la problemática de los sesgos en los modelos de IA generativa, los desafíos geopolíticos en la carrera por desarrollar aplicaciones y los dilemas que plantea el impacto de estas tecnologías en la sociedad.

Ricardo Baeza-Yates (Santiago de Chile, 1961) comenzó a trabajar en algoritmos de búsqueda en cantidades masivas de datos varios años antes de que Internet hiciera su explosión, a finales de la década de los ochenta. Su tesis de doctorado en Ciencias de la Computación en la Universidad de Waterloo (Canadá) proponía un sistema de búsqueda eficiente en el diccionario de inglés Oxford y a partir de entonces construyó una extensa carrera que combinó la academia con la industria tecnológica. Fue vicepresidente de los laboratorios de investigación de Yahoo durante varios años, trabajó en  la empresa de búsqueda semántica Ntent y actualmente es director de Investigación del Instituto de Inteligencia Artificial Experiencial de la Northeastern University.

Si bien sus áreas de especialización son los algoritmos de búsqueda y la ciencia de datos, actualmente su trabajo en ética, sesgos y regulación en datos e IA ocupa buena parte de su rutina, campo en el que colabora con distintos organismos internacionales como el IEEE, la ACM y la Alianza Mundial en Inteligencia Artificial.

De visita en la Argentina, donde brindó una conferencia en el marco de la edición número 50 de la Conferencia Latinoamericana de Informática (CLEI) que se llevó a cabo en agosto pasado en la Universidad Nacional del Sur (Bahía Blanca), Baeza-Yates —que fue ganador hace pocos días del Premio Nacional de Ciencias Aplicadas y Tecnológicas 2024 de Chile, otorgado por el Ministerio de Educación de ese país—, habló en esta entrevista sobre el giro que tomó en su profesión, sobre qué hacer con la IA en términos regulatorios y acerca del rol que puede tener América Latina en el desarrollo de modelos de IA generativa.

¿Por qué viniendo de una formación técnica decidió dedicarse a cuestiones que tienen que ver con el impacto de la tecnología en la sociedad?

Para mí fue un paso natural, de encontrarme con que muchas veces al hacer ciencia uno genera conocimiento, pero no impacto social con lo que hace. Entonces, primero pasé a trabajar en la industria. Ahí me resultó interesante ver cómo uno puede hacer un sistema algorítmico que puede ser usado por mucha gente. Trabajando en Yahoo tuve la oportunidad de que millones de personas usaran la tecnología que yo construía. Pero el impacto del desarrollo de tecnología no es necesariamente positivo. Y ahí entonces me interesé en estudiar los sesgos que hay en los sistemas algorítmicos, como en los sistemas de búsqueda, por ejemplo, que era mi especialidad. Y ahí, naturalmente, si uno trabaja en los sesgos y el impacto social, uno pasa a la ética, a la responsabilidad en desarrollo y aplicación de estas tecnologías, a la intención de influir en políticas públicas. Así empecé a trabajar con la Asociación de Maquinaria Computacional (ACM) como coautor de los nuevos principios de los sistemas algorítmicos responsables.

Usted ha dicho que la regulación sobre la inteligencia artificial puede resultar problemática. En el mundo conviven  posturas más restrictivas como la europea y otras posturas menos intervencionistas, como la estadounidense. ¿Qué piensa al respecto?

Primero me gustaría decir que tenemos un problema cuando hablamos de la regulación del uso de la tecnología. Porque no estamos hablando solo de tecnología. Es como decir «no puedes golpear a una persona con martillo». Cuando en realidad debería ser «no puedes golpear a una persona, me da lo mismo lo que uses». Ese es el problema que creo que tenemos hoy en día. Creo que la regulación debería ser sectorial y orientada al problema. No me importa la tecnología que uses, lo importante es que cumplas las reglas. Lo interesante de la legislación europea es que tienen un sentido distinto a otras aproximaciones en el resto del mundo porque no te dice lo que no hay que hacer, te dice lo que hay que hacer. Y parece estar funcionando aunque tiene un problema: es como el mismo zapato para todos, no distingue entre compañías grandes y chicas, y creo que eso perjudica a estas últimas, algo que no es deseable. Ese es el primer problema, porque si tomamos este camino en el futuro vamos a tener que regular el uso de blockchain, el uso de la computación cuántica, el uso de cualquier cosa nueva que tengamos y eso va a tener que ser consistente con todo lo que tengamos antes. Es un camino árido que tal vez solamente le dará trabajo a los abogados. El segundo problema es que en realidad no se necesita usar inteligencia artificial para hacerle daño a las personas. Por eso desde la ACM hablamos de sistemas algorítmicos responsables; es decir, cualquier tipo de software. Porque alguien podría decir que no estaba usando IA sino estadísticas sofisticadas o, como se decía en los noventa, un sistema experto. Y el tercer problema que hay, sobre todo en la regulación europea, es el concepto de riesgo, que es un tema que no sabemos medir bien. Generamos categorías que no existen porque el riesgo es una variable continua, hay muchos problemas en la evaluación y en la medición de cuál va a ser el riesgo de una tecnología. Creo nos estamos metiendo en problemas con esto.

En la Argentina, la postura del Gobierno es no regular y apostar a que esa baja intervención del Estado permita convertir al país en un polo de IA. ¿Qué opina al respecto?

Bueno, es una perspectiva muy capitalista, una mirada muy comercial. A mí me parece que esa postura de no intervenir repite el mismo error que ya hemos cometido tantas veces en la historia de la humanidad con el uso de la tecnología. El verdadero peligro de cara al futuro es que quienes dominan estas tecnologías puedan abusar del resto del planeta de alguna manera mucho más sutil que antes, mediante la manipulación política y el colonialismo cultural, por ejemplo. Si alguien domina una tecnología como la IA, esa cultura también va a dominar globalmente. Hoy en día, en el mundo occidental un promt en cualquier idioma se traduce al inglés y luego se traduce de vuelta al idioma para dar un resultado. Ahí entran en juego sesgos y hasta censura en temas que puedan ser controversiales. Estamos hablando de modelos entrenados con datos con sesgos culturales, demográficos, de todo tipo.

La gran pregunta es qué lugar le queda entonces a regiones como América Latina en la carrera mundial por la inteligencia artificial, no solo para preservar cuestiones culturales y de soberanía, sino para no ser solo usuarios de tecnología.

En el desarrollo de la tecnología estamos atrás con respecto a los países más poderosos. Creo que hay que aprovechar los temas donde tenemos alguna ventaja competitiva, como el idioma. El castellano es el segundo idioma más hablado del mundo, eso es una ventaja y creo que podríamos tener un modelo hecho con contenido menos sesgado y que preserve aspectos de la cultura iberoamericana. Para América Latina podrían ser modelos mucho mejores que los actuales, que estén basados en nuestra cultura y en idiomas como el portugués y español. También creo que tenemos la oportunidad, como región, de dar un buen ejemplo al resto del mundo, por ejemplo, regulando el uso de la tecnología de otra manera, hacerlo bien.

¿Qué pensó cuando se publicó la carta encabezada por Elon Musk pidiendo que se detuviera la investigación en IA?

Lamentablemente yo la firmé y es una de las pocas cosas de las que me arrepiento en mi vida porque después me di cuenta que había un cinismo muy grande en esa campaña por parte de él, que seguía trabajando en proyectos de IA en sus empresas. También porque no tenía mucho sentido parar el avance en la investigación porque el problema es el uso de la tecnología. Son problemas sociales antes que tecnológicos. Hace un tiempo tuve una reunión con un funcionario chino que me contó sobre el viaje de Elon Musk a China para que se aprobara (el chatbot de IA) Grok y se pudiera empezar a usar allá. Porque la primera regulación nacional que existe sobre IA generativa es de China, desde julio del año, y cada modelo nuevo tiene que ser aprobado por el gobierno chino. Eso es muy interesante porque al menos te da un cierto control de que alguien miró el nivel de calidad de esos modelos, sobre todo si van a ser usado por cientos de millones de personas. China sabe lo que hace, entienden que la desinformación puede causar la caída de cualquier gobierno.

También hay preocupación por la salud mental en relación a las aplicaciones terapéuticas basadas en modelos de IA generativa.

Hay un problema grande con el uso de estas tecnologías y la sanidad mental, es algo sobre lo que hablo en mis charlas. Estos sistemas son de alguna manera humanizados por muchas personas y terminan en experiencias que no son sanas. Me acaban de contar del caso de un padre que habla con su hijo muerto en una aplicación. Estamos generando experiencias que no son saludables y tenemos que poner límites, son casos de aplicaciones no éticas de la IA.

¿El hecho de imponer una función de IA en una aplicación también lo es? Tenemos el caso de Meta, que, a diferencia de lo que sucede en Europa por la regulación, en la Argentina y otros países no permite desinstalar su función de IA en la aplicación de WhatsApp.

Sí, hay una especie de consentimiento forzado que no es ético. Es un ejemplo muy claro de que el producto somos nosotros, que nuestros datos van a ser usados. Creo que el sistema más justo sería también que todas esas ganancias por publicidad de estas empresas, generadas a partir de nuestros datos, sean compartidas por las empresas con los usuarios que los aportan. Necesitaríamos un sistema más justo que el actual, que es casi de abuso.

El entrenamiento de los modelos también impacta en nuestros consumos, ya que las sugerencias que nos realizan los algoritmos suelen reforzar lo que solemos elegir, con lo que se pierde el factor sorpresa en las decisiones. ¿Cómo se sale de estas burbujas?

No es que el sistema sepa todo, sabe lo que nosotros sabemos. La única forma de romper esa burbuja es permitir que haya muchos mecanismos que sean, por ejemplo, más aleatorios. Yo hablo de un principio que llamo «mi lado oculto», que consiste en una recomendación que sea exactamente lo que yo no quiero, lo más lejano. Eso debería ser una posibilidad. Creo que los sistemas de recomendaciones deberían darle más control al usuario, que yo pueda elegir cómo el algoritmo va a funcionar. Por ejemplo, que en comida me mantenga en mi burbuja, pero para música no lo haga, que no se limite a reforzar lo que me gusta. Más allá de eso, también creo que deberíamos tener más voluntad para decidir cómo usar la tecnología en vez de que la tecnología nos use.

A medida que se complejizan los modelos de IA, su funcionamiento se vuelve más opaco. ¿Cómo lidiar con eso en términos de los problemas que puede generar no saber cómo operan más allá de que su resultado pueda ser satisfactorio?

En un sistema que usa aprendizaje profundo con cientos de millones de parámetros ya no se puede predecir el resultado. Hay técnicas de explicabilidad, pero son ex post. Y, como son tantos parámetros, puedo hacer un número increíble de explicaciones sobre por qué funcionó de una manera u otra. Sí puedo tener interpretabilidad, puedo saber cómo trabaja el árbol de decisión de un modelo algorítmico, yo prefiero eso. Como sociedad deberíamos exigir que no haya sistemas, sobre todo en áreas críticas, que funcionen como una caja negra.

Director de la Agencia de Noticias Tecnología Sur-Sur, de la Universidad Nacional de San Martín, docente en la Universidad Nacional de Moreno y presidente de la Red Argentina de Periodismo Científico


MIRÁ TAMBIÉN

Washington Uranga: «Necesitamos un esfuerzo creativo para salir de la trampa del algoritmo»

POR NICOLÁS RETAMAR | En una reciente entrevista de la Agencia de Noticias Científicas de la UNQ, Washington Uranga —comunicador, periodista y docente— reflexiona acerca de cuál es el rol del periodista y cuáles son los desafíos del periodismo en la actualidad, marcada por las redes sociales, la brevedad, la inmediatez, la búsqueda de notas, títulos e imágenes que solo generen clics y vistas, las mentiras y la ausencia de explicaciones.


Alvaro Liuzzi: «La IA generativa tiene el potencial de convertirse en un gran catalizador de la creatividad humana»

POR JUAN MASCARDI | «La IA no solo introduce nuevas herramientas y metodologías para la creación de contenido, sino que también puede modificar radicalmente las dinámicas de trabajo, la distribución de tareas y los perfiles profesionales demandados en los medios», afirma en esta entrevista Alvaro Liuzzi, para quien uno de los interrogantes más inquietantes en este nuevo contexto es «qué lugar ocupará la creatividad humana en el futuro».


«Si el algoritmo es racista es porque se ha entrenado con datos racistas»

POR ELENA DE SUS | Ana Valdivia, investigadora en Inteligencia Artificial, Gobierno y Políticas en el Oxford Internet Institute de la Universidad de Oxford, también afirma que «la IA llegará hasta donde quieran las empresas privadas», mientras «las universidades jugamos en un segundo nivel en cuanto a desarrollo tecnológico». Y que «los procesos algorítmicos son más transparentes que los humanos». Acerca del impacto ambiental de la IA, señala que «la tecnología es cada vez más eficiente, pero cada vez necesitamos más centros de datos, tenemos cada vez más aparatos digitales, entonces sí, todo es más eficiente pero, al fin y al cabo, estamos consumiendo mucho más».


Sofía Scasserra: «Quiero tecnologías al servicio del ser humano, no quiero vivir al servicio de la tecnología»

POR MARIANO QUIROGA | En esta entrevista Sofía Scasserra alerta sobre la agenda de comercio digital en la cual los Estados se encuentran vulnerables frente al avance de las grandes empresas tecnológicas. «Es una agenda que trata de quitarle soberanía a los países», anuncia con tono preocupante y convoca a la intervención de parte de los Estados de América Latina y a la participación activa de la sociedad civil.


También te podría gustar...

Deja un comentario