¿Quién controla los sistemas de inteligencia artificial?
Los sistemas basados en inteligencia artificial buscan ayudarte a tomar decisiones en todas las actividades de tu vida. Esos mecanismos van moldeando a nuestras sociedades. ¿Y quién define lo que es correcto o no en esos sistemas? ¿Cómo garantizar el cumplimiento de los derechos humanos a nivel nacional e internacional? En este ensayo se propone la creación, desde las universidades, de comisiones y comités de ética en inteligencia artificial encargados de definir principios de buenas prácticas en el campo.

En la última década ha habido una revolución en el campo de Inteligencia Artificial (IA) que ha hecho posible transferir productos de investigación y desarrollos tecnológicos a diferentes campos de aplicación como el reconocimiento facial, la traducción automática y el reconocimiento de voz. En particular, la digitalización de las comunicaciones y la expansión del acceso al internet han puesto estos avances literalmente en la palma de nuestras manos a través de los dispositivos móviles. Por ejemplo, hoy en día es muy común usar traductores automáticos en nuestro celular y con ellos descifrar mensajes en idiomas diferentes al nuestro. Hasta la década pasada, la IA y los métodos asociados a esta tecnología eran desarrollados de manera incremental en múltiples laboratorios en universidades alrededor del mundo. Con el advenimiento de las técnicas basadas en redes neuronales (también denominadas deep learning) los ciclos de investigación, desarrollo, producción y adopción han disminuido en duración y aumentado en frecuencia. Por ejemplo, tomó a Google Translate un año portar las metodologías de redes neuronales que estaban siendo investigadas en 2015 para ponerlas a disposición de sus usuarios a mediados de 2016. Aunque esto en teoría supone buenas noticias para los ciudadanos digitales, la prontitud con que se hacen las investigaciones, conjugado con el alcance multitudinario que tienen estas tecnologías, apuntan a que necesitamos mecanismos formales basados en preceptos éticos para regular y mitigar los impactos negativos que los sistemas basados en IA tienen en nuestra sociedad.
Sistemas basados en inteligencia artificial
Los sistemas basados en IA son sistemas computacionales, como lo son las hojas de cálculo, los editores de texto, las bases de datos, los sistemas de nóminas o las páginas de internet. Este tipo de sistemas, al igual que los ejemplos pasados, son ejecutados por computadoras y tienen una utilidad específica. A diferencia de otros sistemas computacionales, uno basado en IA tiene como fin la toma de decisiones y además, se espera que la decisión tomada tenga un efecto en el mundo real en diferentes niveles. Por ejemplo, existen sistemas de IA que deciden comprar o vender acciones en el mercado de valores. En este caso la decisión a la que llega el sistema de IA se espera tenga un efecto directo, promoviendo o descartando la compra de acciones, en algunas ocasiones miles de veces por segundo. En otros sistemas de IA, la decisión tomada es para el consumo de las usuarias; por ejemplo, existen sistemas de IA que emiten recomendaciones de productos, lecturas, películas, noticias, etc. Finalmente, existen sistemas de IA que toman decisiones a bajo nivel como parte del proceso para producir una salida que será consumida por otro sistema. El reconocimiento de voz automático es un ejemplo de este tipo de sistema. Las decisiones tomadas por en sistema de reconocimiento automático de voz producen una transcripción del audio. Posteriormente esta transcripción puede ser utilizada como entrada por otro sistema, como para realizar una búsqueda en internet.
Es deseable tener sistemas que tomen decisiones por nosotros dado su potencial de facilitarnos aspectos de nuestra vida cotidiana. Sin embargo, no hay que confundirlos con meras herramientas. Al caracterizarlos como herramientas negamos su propiedad más definitoria que es su capacidad de actuar en el mundo, es decir, son sistemas con un nivel de agencia. En este sentido, los sistemas basados en inteligencia artificial toman decisiones en situaciones «reales». Es cuando este ciclo se cierra que los sistemas son de mayor beneficio para nosotros. Por ejemplo, los sistema de IA que detecta si un correo electrónico es de spam o no, son útiles hasta que son aplicados a los correos que llegan a nuestra bandeja; el efecto es tener orden en nuestros correos y por ende en nuestras vidas digitales. Sin embargo, es precisamente la agencia de sistemas de IA que resalta la importancia de analizar los impactos derivados del uso masivo de estos sistemas.
Recientes avances en la inteligencia artificial
La razón principal del avance en el campo de la IA en la última década se debe a la adopción y explotación de los sistemas de redes neuronales, ahora llamados de aprendizaje profundo. Esta adopción ha sido motivada por un cambio fundamental en el pensamiento de cómo construir sistemas inteligentes y de la promesa de una mejora económica para los individuos u organizaciones que desarrollen este tipo de sistemas. En particular, en la última década, el campo de la IA se ha enfocado en la construcción de sistemas que imitan comportamientos inteligentes en lugar de crear sistemas que posean conocimiento y estrategias que guíen el comportamiento inteligente. Esta preferencia por sistemas imitadores de inteligencia ha sido gradual y se sustenta en tres factores fundamentales:
La consolidación del campo de aprendizaje de máquina: el aprendizaje de máquina es un campo de estudio de modelos que capturan comportamientos codificados en ejemplos de dicho comportamiento. Por ejemplo, para decidir si un correo es spam o no, se necesitan cientos o miles de correos con la especificación de ser o no spam. Los métodos de aprendizaje máquina usan las especificaciones dadas para encontrar patrones que diferencian los correos spam de los no spam. En particular, el aprendizaje profundo es un tipo de aprendizaje de máquina.
La disponibilidad masiva de datos: el uso de metodologías de aprendizaje profundo para crear sistemas inteligentes que imiten comportamientos específicos, requiere necesariamente ejemplos de dichos comportamientos. Por lo tanto, la consolidación del aprendizaje automático está relacionada con la recolección y el almacenamiento de datos en forma masiva, motivada por la expansión del internet, avances en los campos de big data y de las telecomunicaciones.
El incremento de la capacidad de cómputo: el procesamiento de cantidades masivas de datos utilizado por las técnicas de aprendizaje automático requiere una capacidad de cómputo considerable. Afortunadamente el poder de cómputo ha crecido siguiendo La ley de Moore. Además en los últimos años ha surgido equipo específico de hardware que apoya la aceleración de los métodos de aprendizaje profundo.
Estos tres factores han permitido una revolución en el campo de la IA. En este sentido, organizaciones que tienen acceso al equipo de cómputo adecuado, que dominan la técnica de aprendizaje profundo y poseen los datos adecuados están en la posición de crear sistemas que imitan la inteligencia: traductores, reconocedores de voz, traders automáticos, etc. Se ha preferido el enfoque del aprendizaje de máquina sobre la creación de sistemas con otros tipos de inteligencia ya que para muchos comportamientos inteligentes no se cuenta con una teoría o con los conocimientos necesarios. Ante dicha incertidumbre, la creación de sistemas inteligentes usando la metodología del aprendizaje automático ha permitido llevar a usuarias finales estas capacidades.
Es importante recalcar que, los factores que han motivado el desarrollo del campo también han significado retos dentro del mismo. Un reto es económico. Tener acceso al equipo de cómputo ideal para desarrollar buenos sistemas de IA es fundamental, sin embargo esto no es posible para todos, ya que los equipos no son accesibles. Otro reto tiene que ver con el dominio de la técnica. Los grupos de investigación y organizaciones que fueron rápidos en adoptar y dominar las técnicas hoy conforman centros de vanguardia en el campo, para el resto, hoy en día es una carrera de actualización continua. Finalmente, otro reto es la adquisición de datos. De hecho, este es el reto más estratégico ya que como veremos no es sólo el hecho de contar con los datos, sino las propiedades intrínsecas de éstos las que determinan el tipo de sistema a crear. Hoy en día una gran cantidad de las deficiencias de los sistemas inteligentes recaen en que no tienen acceso a los datos adecuados o a que simplemente no se identificó a los datos como elemento esencial.
► Seguir leyendo esta nota en Anfibia