Meta IA ya está disponible en WhatsApp: ¿Están seguros los datos de los usuarios?

En los últimos días, los usuarios de WhatsApp de Argentina se vieron revolucionados con una nueva opción: Meta IA. Se trata de un chatbot creado con inteligencia artificial (IA) que interactúa con las personas, les proporciona información en tiempo real e, incluso, puede generar imágenes.

La llegada de la IA a los celulares, donde las personas guardan gran parte de su vida personal y profesional, despierta algunos interrogantes: ¿están seguros los datos de los y las usuarias? ¿Hasta dónde puede llegar la IA? En diálogo con la Agencia de Noticias Científicas de la UNQ, la periodista especialista en tecnología Irina Sternik cuenta: «El lanzamiento de Meta AI vino con polémica. De hecho, no será habilitado ni en Brasil por problemas con su política de privacidad ni en la Unión Europea por «la naturaleza impredecible del entorno regulatorio europeo»». Hasta el momento, Meta AI es similar a Chat GPT —creado por la empresa OpenAI—, que permite hacer preguntas a la IA o pedir recomendaciones acerca de, por ejemplo, qué pasatiempos baratos se pueden hacer, cuáles son los bares o restaurantes que aconseja, puede contar chistes, brindar recetas o proporcionar información sobre cultura general. Para acceder a ella, basta con apretar un botón y charlar con la IA o mencionarla desde una conversación con otra persona. 

Sin embargo, Meta AI es algo mucho más grande que solo una opción de WhatsApp. Se trata de un asistente inteligente «capaz de razonar de manera compleja, seguir instrucciones, visualizar ideas y resolver problemas matizados», describen desde la empresa. Si bien en Argentina recién llegó a cierta cantidad de usuarios del servicio de mensajería instantánea, se espera que pronto llegue a toda la comunidad y se expanda al resto de las redes sociales que son propiedad de Meta: Facebook, Instagram y Messenger. Asimismo, estará disponible su sitio web Meta.ai y en las gafas inteligentes Ray-Ban Meta, unos lentes que permiten sacar fotos, grabar videos, realizar streamings, escuchar música, llamar y, ahora también, conectarse con la IA.

Como siempre, no deja de impresionar el alcance que tiene la inteligencia artificial. No obstante, una histórica pregunta persiste mientras la tecnología corre a toda velocidad: ¿están seguros los datos personales en este tipo de avances? En el servicio de mensajería instantánea, según asegura la empresa, los mensajes y las llamadas personales continúan cifrados de extremo a extremo, «lo que significa que ni siquiera WhatsApp o Meta pueden verlos ni escucharlos. En un chat de grupo, Meta AI solo puede leer los mensajes que mencionen a @MetaAI, pero ningún otro». La idea de que la IA pueda acceder a esas conversaciones es, según detalla Meta, para continuar entrenándola y que funcione cada vez mejor.

Si bien la empresa sostiene la idea de que la información personal de sus usuarios está en manos seguras, es necesario hacer un paréntesis: aún se recuerda cuando los datos personales de Facebook de millones de estadounidenses fueron extraídos, sin su consentimiento, para ser utilizados en las campañas presidenciales de las elecciones de 2016 en el país norteamericano.

«Lo cierto es que las políticas de entrenamiento y privacidad de Meta indican que todos nuestros datos están siendo usados para el entrenamiento de su modelo de lenguaje. Por más que los mensajes de WhatsApp estén encriptados, el chatbot no funciona con los mismos parámetros. Todo se usa y se usará, tal como ellos aclaran en su política de privacidad», dice Sternik.

Por su parte, Emmanuel Iarussimiembro del Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella, apunta: «Como las aplicaciones que proponen son similares a las de un buscador pero en modo generativo, como pedirle que cree un sticker, una imagen o una receta, no parece haber mucho riesgo. Hay que ver cómo evoluciona y si eventualmente Meta otorga a los usuarios la capacidad de decidir a qué cantidad de información accede el bot“.

En ese caso, reflexiona el científico, se pueden esbozar algunas discusiones hipotéticas. Por ejemplo, si el bot es parte de un grupo de WhatsApp y tiene capacidad de leer las respuestas de todos los miembros, podrá acceder a los mensajes. «Esto se debe a que, como cualquier otro miembro del grupo, el bot recibe los mensajes cifrados y los podría descifrar si está diseñado para eso», explica.

«Los participantes deberían ser informados sobre la presencia del bot y que sus mensajes pueden ser leídos y procesados por él. La privacidad de esas conversaciones dependerá de cómo la IA maneje y almacene esos datos», medita Iarussi. Y agrega: «Si el bot procesa los mensajes en un servidor externo, se podría comprometer la privacidad del grupo. Hay investigaciones en curso para crear modelos de lenguaje (la tecnología que da sustento a estos bots) que pueden ejecutar localmente en un celular, sin necesidad de hacer procesamiento externo».

Más allá de los datos que recolecte a través del chatbot, Meta cuenta con la información en cuentas públicas de Instagram y Facebook que también podría ser utilizada. «Además de estas empresas, otras también usan los datos publicados, como Yahoo con correos electrónicos antiguos o los artículos públicos de LinkedIn», explica Sternik.

El impacto que tenga la IA inserta en las redes sociales, donde los usuarios manejan un alto flujo de información personal, aún se desconoce. «Sea negativo o positivo, es imposible de parar. Lo único que sabemos es que todo es público, salvo la mensajería privada, por ahora», asevera la especialista.

Foto del avatar

Luciana Mazzini Puga

Agencia de Noticias Científicas de la Universidad Nacional de Quilmes (https://agencia.unq.edu.ar).

También te podría gustar...

Deja un comentario