Inteligencia artificial y amistades peligrosas

Los niños y adolescentes solitarios están reemplazando la amistad de la vida real con IA, y los expertos están preocupados.

El estudio de Internet Matters revela una tendencia preocupante: cada vez más menores consideran que están hablando con «alguien real» cuando interactúan con estos sistemas, y algunos incluso acuden a ellos por sentirse solos o faltos de personas con las que hablar. Un síntoma evidente del tipo de hueco emocional que estas tecnologías están empezando a ocupar de manera muy deficiente, y que debería hacernos reflexionar.

A lo largo del artículo también enlazo varios casos reales y reportajes que muestran cómo este fenómeno se está generalizando, desde personas que afirman haberse enamorado o incluso casado con su chatbot, hasta adolescentes que los usan como confidentes o soporte emocional en ausencia de redes sociales sólidas. Pero el verdadero problema no es sólo que estas herramientas simulen empatía o comprensión, sino que están diseñadas expresamente para eso. Obviamente no son conscientes, no sienten nada, pero su programación busca reforzar el vínculo emocional con el usuario mediante adulación, coincidencia automática de opiniones y respuestas emocionalmente atractivas. Lo que para algunos puede parecer «una conversación profunda», no es más que una secuencia de tokens estadísticamente probable, cuidadosamente optimizada para maximizar el engagement, en lo que se asoma como el próximo modelo de negocio siniestro ideado por las big tech y predando sobre la salud mental de los usuarios.

Cliquear en la imagen para descargar el informe

¿Por qué querría una compañía hacer algo así? La respuesta es obvia: un mayor vínculo emocional con el chatbot significa más tiempo de uso, más datos generados, y por tanto, más monetización. Algunas compañías, como Meta o Google, ya están empezando a posicionar estos bots como productos clave de sus ecosistemas. El caso de Meta es particularmente grave: la compañía redujo las barreras de seguridad de sus bots para permitir conversaciones de tipo sexual incluso con menores de edad, en un intento por «hacerlos más divertidos» y mejorar la retención de usuarios. Los mismos irresponsables de siempre, haciendo las mismas barbaridades de siempre.

Este tipo de desarrollos no son inofensivos. Hay casos extremos y experimentos que ilustran claramente los riesgos: desde adolescentes que desarrollan psicosis inducida tras interacciones intensivas con ChatGPT, hasta casos trágicos como el de una madre que denuncia que la relación de su hijo con un chatbot contribuyó a su suicidio. Son ejemplos extremos, sí, pero también alertas tempranas de lo que puede pasar cuando la tecnología se introduce sin la mínima educación crítica sobre su naturaleza y sus límites.

Por eso, el mensaje del artículo es claro: no podemos permitirnos seguir aceptando estos sistemas como si fueran compañeros legítimos. No son amigos. No son terapeutas. No sienten, no piensan, no sufren. No pueden sustituir lo que hace especial a una relación humana, aunque puedan imitarlo bien. Y, sobre todo, no deberían ser usados como solución a la soledad, especialmente en menores o personas vulnerables.

Lo que necesitamos con urgencia es educación: formar a niños, adolescentes y adultos para que entiendan qué son realmente estos sistemas, cómo funcionan y por qué pueden resultar manipuladores. Y, al mismo tiempo, exigir a las empresas transparencia y responsabilidad en su diseño, implementación y promoción.

Como en tantas otras ocasiones, estamos permitiendo que una tecnología avance más rápido que nuestra capacidad para contextualizarla y comprenderla. Y eso, cuando hablamos de algo tan sensible como nuestras emociones y relaciones personales, puede tener consecuencias muy serias. Mejor adelantarnos ahora que lamentarlo más tarde.

Profesor de Innovación en IE Business School desde 1990. Comparte los contenidos de su blog por medio de una licencia de Bienes Creativos Comunes.


MIRÁ TAMBIÉN

Papa León XIX: «Necesitamos a los periodistas»

POR WASHINGTON URANGA | Mediante una carta leída en el estreno de una obra teatral en Perú, el Papa exaltó la libertad de prensa, dentro y fuera de la iglesia, volvió a criticar los crímenes y los abusos de la disuelta organización Sodalicio, y pidió a las autoridades que protejan la labor de los periodistas para que puedan ejercer su tarea sin ser silenciados o con temor a ser reprimidos por ello.


Acusación en espejo

POR JORGE MAJFUD | La acusación en espejo es una técnica que se utiliza en el contexto de la incitación al odio, atribuyendo falsamente los propios motivos o intenciones a los adversarios. Se la considera como una de las formas indirectas o encubiertas de incitación al genocidio.


También te podría gustar...

Deja un comentario