Brasil aprueba una ley de inteligencia artificial a pesar de la fuerte presión empresarial: hay avances y retrocesos
La exclusión de los sistemas de curación y recomendación de contenidos del listado de IA de alto riesgo en el PL 2338/23 aprobado por el Senado brasileño genera preocupación entre organizaciones de la sociedad civil. La decisión, atribuida a presiones del sector de las grandes tecnológicas, deja sin regulación aspectos clave de la moderación automatizada, que impactan en la libertad de expresión, el debate público y la democracia.
El 10 de diciembre, el Senado de Brasil aprobó un proyecto de ley para regular la Inteligencia Artificial, el PL 2338/23, y ahora pasa a la Cámara de Diputados para su discusión, aunque todavía no hay fecha de cuándo comenzarán a debatirlo. El proyecto, que tiene por objetivo establecer normas generales para la “gobernanza responsable” de sistemas de Inteligencia Artificial (IA), de ser aprobado, podría «sentar un antecedente determinante para la regulación de IA en otros países de la región».
Sin embargo, ya en noviembre diversas organizaciones de la sociedad civil habían advertido que la versión del proyecto que se iba a votar en el Senado traía diversos retrocesos y aseguraban que el texto del proyecto es “el mínimo necesario, pero que quedan mejoras que se pueden hacer para evitar retrocesos o amenazas a la protección de los ciudadanos”.
Esos cambios que afectan los derechos del conjunto de la ciudadanía, fueron producto de “las presiones de la industria y del sector privado aceptadas por el gobierno”, según explica Rafael Zanatta, codirector de Data Privacy Brasil, quien aseguró que debido a esas presiones se eliminaron las directrices laborales del artículo 58, que “pretende proteger a los trabajadores frente a los sistemas automatizados”. “Se eliminó lo más protector”, dijo Zanatta.
Durante las audiencias públicas de la Comisión Especial para la Regulación de la IA (CJSUBIA), hubo «una amplia representación del sector privado en todos los espacios, sea tanto a partir de los aportes enviados directamente por representantes de las empresas, como a través de las cámaras y asociaciones que las aglutinan», lo que se tradujo en una participación de un 31% del sector privado, un 19 % de la sociedad civil y un 26% del sector académico, según datos relevados por Derechos Digitales.
Esto fue confirmado en un reporte reciente de Intercept que visibilizó «la desproporcionada presencia de representantes de empresas de tecnología en las listas de oradores que participaron de las audiencias de la CTIA y que asistieron «camuflados« como parte de otros sectores que no representaban esas afiliaciones». Esta coordinación del sector «fue fundamental para que los mecanismos de recomendación, curación y distribución de contenidos que aplican las plataformas digitales salieran del listado de sistemas de IA de alto riesgo en la versión aprobada por el CTIA».
El apartado, que estaba en la Sección III – Alto riesgo, art. 14, inc. XIII, incluía como de “alto riesgo” la “producción, curación, difusión, recomendación y distribución de contenidos a gran escala y significativamente automatizada por parte de proveedores de aplicaciones con el objetivo de maximizar el tiempo de uso y la participación de las personas o grupos afectados”. El motivo por el que se había incluido en esta sección es por su «reconocido impacto que pueden tener en el comportamiento humano, el debate público y la democracia, lo cual es importante para que las plataformas se vean obligadas a adoptar medidas de gobernanza más estrictas, especialmente ligadas a la transparencia y a mitigar el riesgo de violaciones de derechos», señalan las organizaciones.
Este apartado fue eliminado luego del debate en el Senado y, en su lugar, se incorporó el artículo 77 que indica que «la regulación de aspectos asociados a la circulación de contenidos en línea y que puedan afectar la libertad de expresión, incluido el uso de IA para la moderación y recomendación de contenidos, sólo podrá realizarse mediante legislación específica», lo que deja sin regulación a un uso sensible de los sistemas de IA que afectan directamente la circulación de información en entornos digitales, la libertad de expresión y el derecho a la información de la ciudadanía.
Paula Guedes, investigadora y punto focal del Grupo de Trabajo sobre IA de la Coalición Derechos en la Red, analiza que, de cara la siguiente fase, “el proyecto puede verse sometido a una presión aún mayor por parte del sector empresarial, especialmente de las grandes tecnológicas y gigantes del sector de la IA”.
ENLACES RELACIONADOS

Regulación de la IA en Brasil: media sanción para un proyecto de ley que seguirá en discusión
Sin ser ley aún, el caso brasileño merece ser observado de cerca en el resto de la región, en especial de cara a la influencia excesiva que ciertos actores —como el sector de las big tech— tuvo al modular derechos y medidas de protección de derechos que perdieron potencia en el texto aprobado en el Senado.

Organizações da sociedade civil brasileira alertam sobre retrocessos no novo PL de IA
Um grupo de mais de 30 organizações da sociedade civil brasileira lançou nesta sexta-feira (29) uma carta alertando para possíveis retrocessos presentes na nova versão do Projeto de Lei 2338/2023, chamado de PL de IA. As organizações afirmam que o texto que deverá ser votado no próximo dia 3 na Comissão Temporária Interna sobre Inteligência Artificial do Senado (CTIA) é o «mínimo necessário», mas ainda há aprimoramentos que podem ser feitos para evitar retrocessos ou trazer ameaças de proteção aos cidadãos.