La inteligencia artificial coloniza Internet y amenaza la diversidad de contenidos
En mayo de 2025, más de un tercio de los sitios web habían sido creados total o parcialmente mediante inteligencia artificial. El avance de esta herramienta podría impactar directamente en la exactitud de la información disponible en línea y favorecer una creciente homogeneización de los contenidos.
Según una nota publicada por Le Grand Continent, la proporción de sitios web producidos con herramientas de IA aumentó de manera acelerada desde el lanzamiento de ChatGPT en noviembre de 2022. El dato surge del estudio «El impacto del texto generado por IA en Internet», publicado el 14 de abril pasado, que señala que el 35 % de los sitios web publicados en mayo de 2025 fueron generados total o parcialmente con inteligencia artificial.
De ese total, más de una quinta parte (21 %) fueron creados íntegramente por sistemas automatizados. En menos de tres años, la IA pasó así a ocupar un lugar central en un entorno construido históricamente por personas a lo largo de las últimas cuatro décadas.
Para Jonas Dolezal, Sawood Alam, Mark Graham y Maty Bohacek —autores del estudio—, el uso masivo de inteligencia artificial en la creación de contenidos podría afectar la veracidad de la información disponible en Internet, especialmente a través de la generación automatizada de imágenes, además de profundizar la pérdida de diversidad semántica.
El trabajo identifica una correlación directa entre el uso de IA y la reducción de la diversidad de términos, estructuras narrativas y puntos de vista. Según el estudio, los sitios generados o asistidos por inteligencia artificial presentan una similitud semántica un 33 % superior respecto de aquellos elaborados sin estas herramientas. Esto deriva en una convergencia de estilos de redacción, una reducción de la variedad de ideas expresadas y, en términos generales, una creciente homogeneización de los contenidos presentes en la web.
Los investigadores advierten además que esta disminución de la diversidad semántica podría repercutir en los futuros modelos de IA, que se entrenan en gran medida con información extraída de Internet.
Las consecuencias del uso masivo de inteligencia artificial en el ecosistema digital se suman a otro fenómeno de degradación de la web documentado en 2024 por el Pew Research Center en su informe «When Online Content Disappears». El estudio observó que el 38 % de las páginas web existentes una década atrás habían desaparecido.
El crecimiento de la IA podría acelerar esa tendencia. Los chatbots son utilizados cada vez más como alternativa a los motores de búsqueda tradicionales, lo que reduce el tráfico humano hacia los sitios web mientras aumenta el tráfico automatizado.
En paralelo, las propias plataformas de búsqueda incorporan herramientas de inteligencia artificial. Google lanzó en 2024 la función AI Overviews, que genera respuestas automáticas sin necesidad de ingresar a otros sitios. Desde entonces, más de dos tercios (69 %) de las búsquedas realizadas en Google ya no derivan en ningún clic por parte del usuario, frente al 56 % registrado antes de la incorporación de esa herramienta.
El incremento del tráfico de robots de rastreo también llevó a la Fundación Wikimedia, la organización que administra Wikipedia, a implementar medidas para priorizar a los visitantes humanos. Durante el primer trimestre del año, Wikipedia bloqueó diariamente 1.500 millones de solicitudes provenientes de bots.
MÁS INFO

Radiografía de un oficio: Amnistía Internacional mide la percepción de riesgo en el periodismo argentino

Las redacciones redescubren el valor de conversar con su audiencia

El derecho a informar bajo asedio a escala global: la advertencia de la Federación Internacional de Periodistas

Deterioro de la libertad de prensa: Trabajadores de prensa expusieron en Diputados


