IA para evaluar el aprendizaje de la lectura en las escuelas

Según una nota publicada por Nexciencia, un equipo del Laboratorio de Inteligencia Artificial Aplicada (LIAA, UBA-Conicet) desarrolla un sistema automático para evaluar la lectura en estudiantes de primaria y secundaria. La iniciativa, realizada junto con la Dirección General de Educación de Mendoza y financiada por el Banco Mundial, busca medir el nivel lector e identificar de manera temprana las dificultades de aprendizaje.
En un contexto en que la inteligencia artificial (IA) despierta controversias sobre su papel en la educación, un grupo de investigadores argentinos trabaja en una herramienta que busca un objetivo claro: evaluar cómo leen los estudiantes y mejorar la detección temprana de dificultades en la comprensión lectora. El proyecto, liderado por Pablo Riera desde el LIAA, apunta a desarrollar un sistema automático que mida la fluidez y precisión en la lectura a gran escala.
La iniciativa surgió hace dos años, en colaboración con la Dirección General de Educación de Mendoza y con apoyo del Banco Mundial, a partir de una necesidad concreta: obtener diagnósticos más precisos sobre el aprendizaje lector. Mendoza, pionera en este tipo de monitoreos, realiza censos que graban a los estudiantes leyendo durante un minuto para calcular cuántas palabras son pronunciadas correctamente. Esa medida permite evaluar la velocidad, la articulación y la fluidez motora, indicadores fundamentales para la comprensión.
«El chico que lee lento no puede comprender el texto porque toda su energía está puesta en decodificarlo», explica Riera. Según los resultados de las pruebas nacionales Aprender, el desempeño de los estudiantes argentinos de tercer grado se ubica en torno al 50 % por debajo del nivel esperado, lo que refuerza la urgencia de contar con instrumentos de evaluación sistemática y confiable.
Los resultados recientes de las pruebas Aprender en estudiantes argentinos de tercer grado se ubican en torno a un cincuenta por ciento más bajo del nivel esperado.
El desafío del equipo fue automatizar lo que hasta ahora se hacía de modo manual. Para ello recurrieron a reconocedores automáticos de voz, adaptados al español y al habla infantil. Las grabaciones son transcritas por el sistema, que identifica palabra por palabra si fue leída correctamente. Luego, los investigadores comparan esas transcripciones con versiones realizadas manualmente por especialistas, para medir la precisión del modelo. «En promedio tenemos un margen de error de cuatro palabras, un nivel muy bajo para censos de esta magnitud», señala Riera.
La automatización responde también a una cuestión práctica: el cansancio, el ruido y la subjetividad suelen afectar las evaluaciones humanas. Cuando el mismo audio fue analizado por cinco docentes capacitados, los resultados variaron significativamente según los criterios aplicados. El sistema automático, en cambio, ofrece homogeneidad y rapidez, permitiendo procesar miles de muestras con menor margen de error.
Más allá de su eficacia técnica, Riera aclara que el objetivo del proyecto no es reemplazar la enseñanza de la lectura con inteligencia artificial, sino ofrecer herramientas que apoyen al trabajo docente. «No se trata de un bot que enseña a leer. Lo importante es usar la tecnología para generar materiales o diagnósticos más precisos, no para sustituir al maestro», afirma. En ese sentido, el investigador se muestra escéptico ante la idea de incorporar IA de manera indiscriminada en las aulas, sobre todo cuando en paralelo se debate limitar el uso de pantallas en edades tempranas.
La posibilidad de monitorear cuantitativamente la fluidez y capacidad lectora del alumnado se inserta en tiempos de debates sobre la forma de enseñar a leer.
El sistema también se adapta a metodologías de evaluación diferentes. En algunas provincias se utilizan «pseudopalabras» —términos sin significado pero que respetan las reglas del idioma— para medir la capacidad de decodificación. Este tipo de pruebas exige que el modelo reconozca sonidos poco previsibles, un desafío adicional para el software, que tiende a «completar» palabras probables. Para evitarlo, el equipo ajustó los algoritmos y estableció umbrales que distinguen entre lo efectivamente pronunciado y lo que el sistema infiere por probabilidad.
Otro aspecto en desarrollo es la variabilidad regional del habla. «Una misma palabra puede sonar diferente en distintas provincias. En zonas donde la “s” es más suave, por ejemplo, no deberíamos penalizar una pronunciación típica de ese lugar», explica Riera. Con datos provenientes de varias jurisdicciones —actualmente cuentan con unas treinta mil grabaciones—, el grupo busca perfeccionar los parámetros y, a futuro, construir un modelo más robusto y representativo. Con un millón de registros, estiman, las variaciones serían mínimas.
Más allá del diagnóstico de fluidez, los investigadores aspiran a que la herramienta sirva para analizar los tipos de errores más frecuentes y orientar estrategias pedagógicas. También planean desarrollar una plataforma o aplicación móvil que permita autoevaluarse a docentes, familias e incluso estudiantes. «La tecnología ya puede determinar si un niño lee muy poco o muy lento. Lo importante es intervenir a tiempo, antes de que esas dificultades afecten el resto del aprendizaje», concluye Riera.
Al grupo que trabaja con Pablo Riera en el LIAA lo integran Jazmín Vidal, licenciada en Letras y doctoranda en Ciencias de la Computación especializada en reconocedores del habla aplicados a la enseñanza de la lengua; Juan Kamienkowski, investigador especialista en neurociencias; Octavio Castro, doctorando en Ciencias de la Computación, y Luciana Ferrer, investigadora del laboratorio como consultora.
Fuente: Nexciencia
MÁS INFO

Presentan informe sobre la sostenibilidad de los medios comunitarios en Chile
POR ESFERA REDACCIÓN | La sostenibilidad de los medios comunitarios en el país trasandino aparece como un desafío central para garantizar el pluralismo informativo y la cohesión social. Un nuevo informe presentado por la Universidad de Chile y la Oficina Regional de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) en Santiago de Chile propone avanzar hacia políticas públicas integrales que reconozcan a la comunicación comunitaria como un componente estructural del sistema democrático, más allá de los apoyos fragmentados y las brechas normativas que aún persisten.

Atlas Network, la red global que impulsa la agenda de la nueva derecha
POR ESFERA REDACCIÓN | Atlas Network, una estructura internacional que articula cientos de think tanks conservadores, se ha convertido en un actor central en la difusión del ideario neoliberal y en la consolidación de nuevas derechas en América Latina y Europa. En una larga nota, Diego Delgado y Julián Macías, de la redacción de CTXT, muestran que el poder de esta organización no gubernamental se basa en la capacidad de coordinar campañas digitales, financiar proyectos políticos y moldear el sentido común bajo el discurso de libertad individual, libre empresa y políticas de mercado.

El periodismo busca un nuevo pacto con sus audiencias: confianza y comunidad frente a la era de la IA
POR ESFERA REDACCIÓN | En el Congreso Mundial de Medios de la Federación Internacional de Prensa Periódica (FIPP), celebrado en Madrid del 21 al 23 de octubre, editores y ejecutivos de más de cuarenta países coincidieron en que la industria experimenta un cambio estructural. El clic masivo y la dependencia de las plataformas dan paso a una etapa donde el valor se mide por la credibilidad, la relación directa con los lectores y el contenido humano.
