Las redes sociales y los modelos masivos de lenguaje
Los sistemas de procesamiento de lenguaje sofisticados podrían afectar las llamadas operaciones de influencia en las redes sociales. Académicos, investigadores de ciberseguridad y expertos en inteligencia artificial advierten que ChatGPT podría ser utilizado para sembrar disidencia y difundir información «errónea» en las redes sociales. Hasta ahora, difundir información faalsa requería un trabajo humano considerable. Pero una IA como ChatGPT haría más fácil que los llamados ejércitos de trolls amplíen sus operaciones.
La BBC avanza un tema que lleva tiempo siendo la preocupación de muchos: la posibilidad de que los nuevos modelos masivos de lenguaje (LLMs) sean utilizados por las factorías de bots para crear contenido de manera barata y sencilla en redes sociales, mediante la creación de cuentas falsas que participan en la conversación de manera no genuina.
El problema del fake engagement en redes sociales es completamente real. Para mi, por ejemplo, es totalmente cotidiano: cada vez que escribo una actualización en mi cuenta de Twitter, un par de bots contestan a ello intentando promover una estafa. Cada. Maldita. Vez. En mi caso, eso quiere decir que tengo que perder miserablemente el tiempo denunciando esas cuentas, explicando que son bots de spam automatizados, y bloqueándolas… para que, realmente, no sirva para nada. Solo tomando los cientos de cuentas que llevo meses bloqueando podría entrenarse un algoritmo que aprendiese a reconocerlas y a bloquearlas de raíz. Pero no, no se hace nada.
El equipo correspondiente responsable del tema en Twitter no está ni se le espera. La red social que afirmaba que eliminaba más de un millón de cuentas de spam al día y que supuestamente tiene un mecanismo para que reportes los bots no mueve ni un músculo a la hora de bloquear una factoría de cuentas falsas que vomita cada día miles de mensajes promoviendo estafas en la red. Que el propio Elon Musk afirme sin despeinarse que el 90 % de los comentarios en Twitter son hechos por bots no anima, precisamente.
Crear un bot que genere contenido en redes sociales es relativamente trivial, y ya hemos visto casos en los que se ha demostrado que se podía crear ya no una cuenta, sino un auténtico influencer completamente falso, de manera puramente algorítmica. En la escalada armamentística que se lleva a cabo entre los gestores de redes sociales y las factorías de spambots mediante el uso de algoritmia, los malos van claramente ganando por goleada. Crear algoritmos capaces de reconocer de manera fehaciente una cuenta falsa y cerrarla sería realmente sencillo, pero simplemente, no se hace. Por lo que se ve, hay otras prioridades. Pronto, los spambots creados algorítmicamente no solo se venderán al mejor postor, sea un spammer, un delincuente, un estafador o un partido político, sino que además, parecerán cada día más reales y serán potencialmente más dañinos. La perspectiva de unas elecciones con redes de millones de bots simulando actividad genuina para generar determinados estados de opinión es verdaderamente aterradora.
La tecnología es una herramienta, y como tal, puede ser utilizada para bien y para mal. Dada la ingente cantidad de datos que genera una red social, entrenar un algoritmo que sea capaz de discriminar qué cuentas responden a patrones que se correspondan con la actividad spambots debería ser muy sencillo, y de hecho, se ha hecho anteriormente. La clave está en entender que esa actividad es una carrera continua, que los spammers tratarán constantemente de eludir los criterios de esos algoritmos y de seguir pasando su actividad como supuestamente genuina, pero que si dejas de hacerlo, esos spammers tomarán tu red por asalto y no solo disminuirán su calidad, sino que arruinarán la experiencia de muchos usuarios. Si además, por pura inacción, permitimos que esos spammers se sofistiquen más aún y se beneficien de tecnologías ya ampliamente difundidas para «mejorar» su actividad, estamos ante un problema de calidad muy importante.