¿Por qué hay tantos robots blancos?

Los problemas de prejuicios raciales y de género en los algoritmos de inteligencia artificial y los datos utilizados para entrenar grandes modelos de lenguaje como ChatGPT han llamado la atención de los investigadores. Pero estos problemas también surgen en los robots sociales, que tienen cuerpos físicos modelados a partir de versiones no amenazantes de humanos o animales y están diseñados para interactuar con personas.

Este pequeño es muy lindo y muy blanco. Jiuguang Wang/FlickrCC BY-SA

El objetivo del subcampo de la robótica social llamado robótica de asistencia social es interactuar con grupos de personas cada vez más diversos. La noble intención de sus profesionales es «crear máquinas que ayuden mejor a las personas a ayudarse a sí mismas», escribe una de sus pioneras, Maja Matarić. Los robots ya se están utilizando para ayudar a personas con autismo, niños con necesidades especiales y pacientes con accidentes cerebrovasculares que necesitan rehabilitación física.

Pero estos robots no parecen personas ni interactúan con ellas de manera que reflejen ni siquiera aspectos básicos de la diversidad de la sociedad. Como sociólogo que estudia la interacción entre humanos y robots, creo que este problema sólo va a empeorar. Las tasas de diagnóstico de autismo en niños de color son ahora más altas que las de los niños blancos en los EE. UU. Muchos de estos niños podrían terminar interactuando con robots blancos.

Entonces, para adaptar el famoso hashtag de Twitter en torno a los Oscar de 2015, ¿por qué #robotssowhite?

Por qué los robots tienden a ser blancos

Dada la diversidad de personas a las que estarán expuestos, ¿por qué Kaspar, diseñado para interactuar con niños con autismo, tiene una piel de goma que se parece a la de una persona blanca? ¿Por qué los robots Nao, Pepper e iCub que se utilizan en escuelas y museos están revestidos de plástico blanco brillante? En The Whiteness of AI, el especialista en ética tecnológica Stephen Cave y el investigador en comunicación científica Kanta Dihal analizan los prejuicios raciales en la IA y la robótica y señalan la preponderancia de imágenes de archivo en línea de robots con superficies blancas reflectantes.

¿Qué está pasando aquí?

Un problema es qué robots existen ya. La mayoría de los robots no se desarrollan desde cero, sino que se compran en laboratorios de ingeniería para proyectos, se adaptan con software personalizado y, a veces, se integran con otras tecnologías, como manos o piel de robot. Por lo tanto, los equipos de robótica están limitados por las decisiones de diseño que tomaron los desarrolladores originales (Aldebaran para Pepper, Instituto Italiano de Tecnología para iCub). Estas opciones de diseño tienden a seguir el aspecto clínico y limpio con plástico blanco brillante, similar a otros productos tecnológicos como el iPod original.

En un artículo que presenté en la reunión de la Asociación Estadounidense de Sociología de 2023, llamo a esto «la pobreza del imaginario diseñado».

Cómo la sociedad imagina a los robots

En el libro clásico de la antropóloga Lucy Suchman sobre interacción hombre-máquina, que fue actualizado con capítulos sobre robótica, Suchman analiza un «imaginario cultural» de cómo se supone que deben ser los robots. Un imaginario cultural es lo que se comparte a través de representaciones en textos, imágenes y películas, y que colectivamente moldea las actitudes y percepciones de las personas. Para los robots, el imaginario cultural se deriva de la ciencia ficción.

Este imaginario cultural puede contrastarse con las preocupaciones más prácticas sobre cómo los equipos de informática e ingeniería ven los cuerpos de los robots, lo que Neda Atanasoski y Kalindi Vora llaman el «imaginario diseñado». Esta es un área muy controvertida en los estudios científicos feministas, donde, por ejemplo, The Robotic Imaginary de Jennifer Rhee y Surrogate Humanity de Atanasoski y Vora critican los supuestos raciales y de género que llevan a las personas a diseñar robots de servicios—diseñados para llevar a cabo tareas mundanas— como mujer.

El imaginario cultural que consagra a los robots como blancos, y de hecho generalmente femeninos, se remonta a la antigüedad europea, junto con una explosión de novelas y películas en el apogeo de la modernidad industrial. Desde la primera mención de la palabra «Android» en la novela de Auguste Villiers de l’Isle-Adam de 1886 La víspera del futuro, la introducción de la palabra «robot» en la obra de Karel Čapek de 1920 Los robots universales de Rossum hasta el robot sexualizado María en la novela de 1925 Metropolis de Thea von Harbou —la base de la famosa película homónima de 1927 de su marido Fritz Lang— los robots de ficción rápidamente se feminizaron y se volvieron serviles.

Quizás el prototipo de este imaginario cultural se encuentre en la antigua Roma. Un poema de las Metamorfosis de Ovidio (8 d.C.) describe una estatua de Galatea «de marfil blanco como la nieve» de la que se enamora su creador Pigmalión. Pigmalión reza a Afrodita para que Galatea cobre vida y su deseo se cumple. Existen numerosas adaptaciones literarias, poéticas y cinematográficas de la historia, incluida una de los primeros efectos especiales en cine en la película de Méliès de 1898 . Las pinturas que representan este momento, por ejemplo, de Raoux (1717), Regnault (1786) y Burne-Jones (1868-70 y 1878), acentúan la blancura de la carne de Galatea.

El cuadro Pigmalión y Galatea de Jean-Léon Gérôme representa una antigua historia romana sobre una estatua que cobra vida. Peter Roan/Flickr , CC BY-NC
Ruta interdisciplinar hacia la diversidad y la inclusión

¿Qué se puede hacer para contrarrestar este legado cultural? Después de todo, el conjunto de la interacción hombre-máquina debe diseñarse teniendo en cuenta la diversidad y la inclusión, según los ingenieros Tahira Reid y James Gibert. Pero fuera de los robots de apariencia étnica japonesa, los robots diseñados para no ser blancos son raros. Y los robots japoneses tienden a seguir el estereotipo de género femenino servil .

La solución no es simplemente encerrar las máquinas en plástico marrón o negro. El problema es más profundo. El «robot de personaje personalizado» Bina48 inspirado en la cabeza y los hombros de la esposa afroamericana de un millonario, Bina Aspen, es notable, pero su habla e interacciones son limitadas. Una serie de conversaciones entre Bina48 y la artista afroamericana Stephanie Dinkins es la base de una videoinstalación.

Lo absurdo de hablar sobre racismo con una cabeza animada incorpórea se hace evidente en una de esas conversaciones: literalmente no tiene una experiencia personal de la cual hablar, sin embargo, sus respuestas impulsadas por IA se refieren a la experiencia de racismo de una persona anónima mientras crecía. Se trata de recuerdos implantados, como los «recuerdos» de los androides replicantes de las películas de Blade Runner.

Los métodos de las ciencias sociales pueden ayudar a producir un «imaginario diseñado» más inclusivo, como mencioné en el Festival Being Human de Edimburgo en noviembre de 2022. Al respecto ver Critical perspectives on affective embodied interaction, texto producido con Guy Hoffman, un robótico de Cornell, y Caroline Yan Zheng, entonces Ph.D.

Uno de los hilos persistentes en esa colaboración y otros trabajos es cuánto se comunican los cuerpos de las personas con los demás a través de gestos y expresiones, así como de la vocalización, y cómo esto difiere entre culturas. En cuyo caso, hacer que la apariencia de los robots refleje la diversidad de personas que se benefician de su presencia es una cosa, pero ¿qué pasa con la diversificación de las formas de interacción? Además de hacer que los robots sean menos universalmente blancos y femeninos, los científicos sociales, los diseñadores de interacción y los ingenieros pueden trabajar juntos para producir una mayor sensibilidad intercultural en los gestos y el tacto, por ejemplo.

Este trabajo promete hacer que la interacción entre humanos y robots sea menos aterradora y extraña, especialmente para las personas que necesitan ayuda de las nuevas generaciones de robots de asistencia social.

Foto del avatar

Mark Paterson

Profesor de Sociología, Universidad de Pittsburgh. Artículo publicado por The Conversation (https://shorturl.at/svJR7) bajo una licencia de Creative Commons (https://creativecommons.org/licenses/by-nd/4.0/).

También te podría gustar...

Deja un comentario