Asociaciones civiles presentan amparo contra el sistema de reconocimiento facial en la Ciudad de Buenos Aires

El sistema de reconocimiento facial es un software que corre sobre las cámaras de videovigilancia de la Ciudad Autónoma de Buenos Aires (CABA). Su objetivo: identificar a aquellas personas con pedido de captura por encontrarse rebeldes o prófugos de la justicia. Sin embargo, su uso pone en riesgo derechos ciudadanos y fue impugnado judicialmente por la organización Asociación por los Derechos Civiles (ADC) y el Observatorio de Derecho Informático Argentino (Odia).

En octubre del año pasado, la legislatura porteña aprobó nuevas regulaciones sobre el sistema de cámaras de vigilancia en la Ciudad de Buenos Aires, incluyendo el reconocimiento facial. Aunque pueda parecer una buena idea, en todo el mundo el sistema de reconocimiento facial es una tecnología que genera problemas, sospechas e, incluso, malas implementaciones que comprometen derechos fundamentales de la ciudadanía. Por tal motivo, en la Argentina ADC y Odia impugnaron judicialmente el sistema. ADC presentó una demanda en la que solicita ante el Tribunal Superior de Justicia porteño que declare inconstitucionales los cambios legales aprobados por la Legislatura; mientras que Odia solicitó un juicio de amparo en primer grado de competencia, que requiere el análisis del sistema a través de la constitucionalidad y convencionalidad, además de las medidas cautelares para suspender su uso.

Cabe agregar que la acción de amparo presentada por Odia se hizo efectiva luego de dos pedidos de acceso a la información pública que no fueron respondidos de manera satisfactoria. Y que la presentación por la acción de amparo para detener el sistema de reconocimiento facial de prófugos de CABA fue rechazada en primera instancia, por lo que tuvo que ser apelada.

Por otro lado, Derechos Digitales y la Fundación Vía Libre  —organizaciones de la sociedad civil que orientan su accionar a la defensa y la promoción de los derechos humanos en el entornos mediados por tecnologías digitales— fueron admitidas como amicus curiae en la demanda propuesta por ODIA. Este accionar amplió la participación social en el caso. Derechos Digitales recibió aportes de organizaciones como Access Now y la Asociación Trabajadores del Estado (ATE), además de la adhesión y participación de los ciudadanos como autores de la demanda. A su vez, la presentación de la Fundación Vía Libre contó con la colaboración del Instituto de Ciencias de la Computación del Consejo Nacional de Investigaciones Científicas y Técnicas (Conicet) desde el cual los investigadores Pablo Negri, Vaninna Martinez y Sebastián Uchitel realizaron aportes para comprender la complejidad del uso de estas tecnologías.

Un breve paréntesis para explicar el significado etimológico de amicus curiae («amigos de la corte o del tribunal», por su traducción del latín). Se trata de una figura procesal mediante la cual se permite que terceros ajenos a un proceso, especializados en determinada materia, ofrezcan opiniones de trascendencia para la solución de un caso sometido ante un tribunal.

Desde el observatorio explican las razones por las que este sistema compromete derechos ciudadanos:

  • Todas las personas en la vía pública que pasan frente a una cámara son identificadas y «perfiladas» por un algoritmo del cual desconocemos sus fines, vulnerando el derecho de reunión en la vía pública.
  • Todas las personas son sospechosas hasta que el sistema demuestre lo contrario, vulnerando el principio de inocencia propio de un estado de derecho.
  • Como todas las personas deben ser analizadas, eso incluye a los menores que a priori no se sabe que lo son, contraviniendo lo estipulado por la Convención de los Derechos del Niño.
  • No hay un consentimiento informado de las personas registradas y vigiladas.
  • Crea un riesgo para la sociedad en general. Si cualquier persona tiene acceso al sistema (porque ningún sistema de seguridad es perfecto) los potenciales peligros de su uso indebido resultan absolutamente desproporcionados.

Con un enfoque semejante, desde Vía Libre entienden que son muchos los derechos fundamentales de la ciudadanía que se comprometen en La implementación de tecnologías de este tipo. «Por esa razón, presentamos nuestro acompañamiento a la posición del Observatorio y nos sumamos al pedido de diversas organizaciones para poner fin al uso de sistemas de reconocimiento facial en el espacio público».

Y en el documento que entregaron al Juez Gallardo, a cargo de la causa, la Fundación también expresa: «Las tecnologías de reconocimiento facial o reconocimiento automatizado de características humanas interfieren con el derecho a la intimidad, pero su impacto se extiende mucho más allá de este derecho fundamental. Su aplicación, como en cualquier circunstancia en que se empleen métodos automatizados para acciones que incidan negativamente en el ejercicio de derechos fundamentales, debe estar sujeta a adecuado control jurisdiccional, pero además debería llevarse a cabo solo después de una exhaustiva verificación de cumplimiento de los principios de necesidad, legalidad y proporcionalidad. Ahora bien, las tecnologías a las que aquí nos referimos no solo resultan invasivas de la esfera privada sino también conllevan riesgos de grave error y tienden a producir indeseados efectos intimidatorios en la sociedad».

Por su parte, Derechos Digitales destaca que este proceso muestra claramente tres cuestiones centrales, que se reproducen de la misma manera en otros países. El primero, es un tema técnico con implicancias sociales relevantes en cuanto al uso de la inteligencia artificial y lo que esto significa para la ciudadanía. El segundo tema, se relaciona con la democracia en sí y la transparencia del sistema. El tercer tema es el respeto a los derechos humanos.

La cuestión técnica que tiene las mayores implicaciones sociales se refiere a la precisión y calidad de la base de datos utilizada. Los estudios más variados demuestran una menor tasa de aciertos en personas de piel oscura y mujeres. El estudio Gender Shades, por ejemplo, demuestra que las tasas de error son diferentes según el grupo analizado, alcanzando más del noventa por ciento de identificación incorrecta para personas de piel oscura. Y menos del uno por ciento de error para personas de piel más clara. Si bien puede ser un fallo en la calibración de los datos, ya sea por el uso de bases de datos sesgadas o por otros motivos, lo cierto es que hay que analizar si este tipo de tecnología incide desproporcionadamente en la garantía de igualdad a las personas tradicionalmente discriminadas y más vulnerables, como pueblos originarios, mujeres, niños, ancianos y personas trans.

En cuanto al tema de la democracia y la transparencia, parece que hay poco o ningún debate en el legislativo sobre la instrumentación de este tipo de sistema. Asimismo, en muchos casos existe una gran opacidad en cuanto al uso de la tecnología, bajo el argumento que el tema no debe ser debatido, que «es demasiado técnico» para una amplia participación social y que la transparencia no sería necesaria.

En tal sentido, Derechos Digitales recuerda que en el caso de Buenos Aires, tanto la ADC como el Odia, plantearon importantes y extensas preguntas sobre la creación, contratación, uso y salvaguardas del sistema de reconocimiento facial y que obtuvieron poca o ninguna respuesta.

Finalmente, el tema de los derechos humanos involucrado en la aplicación de tecnología de vigilancia masiva. Desde 2013, luego del caso Snowden, Brasil y Alemania propusieron una resolución a la Asamblea General de la ONU, sobre El derecho a la privacidad en la era digital. Con la actualización de la citada resolución en octubre de 2021, se dio mayor robustez a las cuestiones sobre el uso de datos biométricos, con el reconocimiento expreso que los usos de la inteligencia artificial (IA) pueden suponer graves riesgos para el derecho a la privacidad, citando como ejemplo, el empleo de IA para identificación, reconocimiento facial, seguimiento, elaboración de perfiles, predicción de comportamiento y puntuación de personas. La conclusión de la asamblea de la ONU es que los Estados deben garantizar que las tecnologías de identificación y reconocimiento biométrico —incluidas las tecnologías de reconocimiento facial por parte de actores públicos y privados— no permitan la vigilancia arbitraria o ilegal, incluidos quienes ejercen su derecho a la libertad de reunión pacífica.

A continuación el documento presentado en calidad de Amicus Curiae por la Fundación Vía Libre:


MÁS INFO

El Parlamento Europeo pide la prohibición del uso de reconocimiento facial en espacios públicos

Leer la nota

También te podría gustar...

Deja un comentario