Prejuicio cifrado

Coded Bias (Prejuicio cifrado) es un documental recientemente estrenado por Netflix que revela el modo en que los algoritmos replican prejuicios sociales como la xenofobia, el racismo, el sexismo o la homofobia a partir del (mal) uso del reconocimiento facial.

El film dirigido por Shalini Kantayy comienza cuando la investigadora del MIT Joy Buolamwini tiene que recurrir a una máscara blanca sobre su rostro de piel negra para que el sistema la reconozca. En el experimento, descubre que esta tecnología está diseñada para personas blancas. Peor aún, hombres blancos.

Explorando los aspectos éticos de la inteligencia artificial (IA) la protagonista llega hasta las calles de Londres para encontrarse con Big Brother Watch, una ONG que milita contra el uso de este tipo de herramientas por parte de la policía. Una tecnología que escanea rostros, pensada para capturar delincuentes buscados, termina con inocentes detenidos. Y peor, en su mayoría ciudadanos negros o extranjeros. Entonces decide crear la Liga de la Justicia Algorítmica. O cómo luchar contra un futuro que ya llegó, pero que no es equitativo.

«La estructura matemática subyacente en el algoritmo no es sexista ni racista, pero los datos integran el pasado. Y no solo es el pasado reciente, sino el pasado oscuro«, explica Cathy O’Neil, la autora del libro Armas de destrucción matemática (Weapons of Math Destruction), que también aparece en la cinta. «No alcanza con la confianza en un gobierno. Se necesitan estructuras sólidas para que el mundo en el que vivimos sea seguro para todos», agrega.

Ante la falta de legislación, surge entonces una pregunta: ¿Cómo obtenemos justicia si no sabemos cómo funcionan los algoritmos? En definitiva, ¿quién vigila a quienes nos vigilan? El algoritmo no es otra cosa que una herramienta de evaluación de modelos matemáticos, pero también es una caja negra en cuyo interior, suponemos, se esconde una verdad absoluta, cuando muy pocos saben los que hay adentro.

Los activistas cuestionan el modo en que estos sistemas pueden llegar a una conclusión, pero sin explicar cómo llegaron hasta ahí, vulnerando el derecho constitucional al debido proceso. Entonces la caja negra se vuelve peligrosa. El miedo ya no es a un régimen totalitario como en 1984, sino a un modelo donde la vigilancia y el control se puede ejercer de manera silenciosa. La falta de un organismo que controle estás practicas —y que nos asegure que no serán ni racistas, ni sexistas ni discriminatorias— tal vez explique el poder descomunal que tienen hoy los algoritmos en nuestras vidas.

Hacia el final, el documental plantea que ser completamente eficientes, hacer lo correcto y cumplir las órdenes, no siempre es lo más humano. A veces lo humano es decidir no hacer algo. Mientras no exista una legislación sobre esa caja negra, difícilmente se podrá configurar una ética para estos sistemas capaces de buscar delincuentes, pero también de vigilar disidentes políticos o desestabilizar la democracia con desinformación. Y una inteligencia sin ética, no es del todo inteligencia.

También te podría gustar...

Deja un comentario