El presente y futuro educativo diseñado en Silicon Valley
El uso de la tecnología digital e internet, está impregnando y transformando todos los sistemas sociales, culturales, laborales y económicos; la educación de las personas está en su centro.
En los últimos años, el desarrollo de la inteligencia artificial (IA) sostenido por la velocidad de cálculo y procesamiento computacional y el inmenso volumen de datos que fluyen por la red de redes ha producido nuevas ofertas de mercado y novedades de impacto pedagógico y humano que abonan en dotar a los sistemas educativos de soluciones «eficaces» y más personalizadas para la enseñanza y el aprendizaje.
En general, tanto los educadores como los investigadores del campo de la educación y responsables políticos de la gestión educativa carecen de los conocimientos y experiencia necesarios para comprender la lógica subyacente en los procesos y nuevos sistemas de IA. Además, no su cuenta con suficientes investigaciones multidisciplinarias que ponga en evidencias resultados para comprender plenamente las consecuencias que tienen para el desarrollo humando (alumnado, maestros y profesores) el uso extensivo de las pantallas y la creciente dependencia de los algoritmos, los asistentes artificiales personales en los entornos educativos.
Las metodologías de ciencia de datos se han utilizado con regularidad en la gestión política de la educación para evaluar la calidad de los sistemas educativos, como ejemplifica el Programa para la Evaluación Internacional de los Alumnos de la OCDE, comúnmente conocido como PISA3.
Los datos recogidos en este tipo de estudios están orientados a dar una visión global —pero al mismo tiempo limitada— de los sistemas educativos. Inspirados en la explosión del big data, los nuevos campos de las analíticas de aprendizaje y la minería de datos educativos tratan de aprovechar las nuevas capacidades de recopilación de datos para crear nuevos modelos que fomenten el aprendizaje de los estudiantes.
Los procesos algorítmicos de la IA, basados en software, implementan algunos modelos como los de predicción, agrupamiento, «minería» de relaciones, destilación de datos, que aprovechan la gran cantidad de datos que se pueden recoger en plataformas de educación a distancia (e-Learning) como Canvas, Moodle, Sakai o Blackboard para el conocimiento personalizado del alumno o profesor y el análisis de sus conductas en redes sociales. Cada acción realizada, leer archivos, participar en foros, enviar mensajes o visitar enlaces recomendados, por ejemplo, deja una huella digital que permite mejorar el entrenamiento de los procesos de IA.
A medida que más escuelas adoptan plataformas de e-Learning y tecnologías móviles en su enseñanza diaria, la huella digital puede ser cosechada y procesada para construir perfiles de aprendizaje individualizados para cada estudiante como lo realiza Google con los datos que almacena en sus grandes data centers. Hace muchos años que el «buscador» paso a ser una filial de Alphabet Inc, una multinacional tecnológica con sede en Estados Unidos cuya principal filial es Google. La corporación desarrolla productos y servicios relacionados con internet, software, electrónica de consumo, dispositivos electrónicos y tecnologías de big data e IA.
Google Education llega a una amplia comunidad en todo el mundo: 170.000.000 de profesores y alumnos usan Google Workspace; 150.000.00 utilizan Classroom y cuarenta millnes hacen lo propio con Chromebooks. Los canales de redes que ayudan a conectar a todas estas personas son X (antes Twitter), Facebook, Pinterest y YouTube.
El gobierno de Lacalle Pou firmó un acuerdo con Google que aplica sus servicios directamente en el sector educativo. El acuerdo realizado entre la ANEP y Ceibal con Google permite continuar trabajando en la ampliación de los servicios ofrecidos a la educación, con hasta cien gygabites de capacidad de almacenamiento.
Las prestaciones que potencian las ya disponibles a través de las plataformas de Ceibal son:
- Correo electrónico sin publicidad.
- Almacenamiento en la nube.
- Acceso sin costo a una gran variedad de aplicaciones educativas que cada docente puede decidir agregar a las que encontrará por defecto.
- Acceso al servicio garantido el 99,9 % del tiempo.
- Acceso desde cualquier dispositivo (computadoras, tablets, celulares).
- Acceso a herramientas de gestión como calendario, herramientas de oficina, intercambio y colaboración como Docs, Sheets, Slides, Hangouts, creación y hosting de sitios web, Sites, entre muchas otras.
- Una única cuenta de correo habilita el acceso a las herramientas de Google y a todas las plataformas de Ceibal.
Uno de los principales problemas de la conversión de la educación en procesos de información para diseñadores, máquinas y alumnado es el reduccionismo de las relaciones que conlleva. Para el especialista en filosofía del lenguaje John Searle, la reducción ontológica consiste en «la forma en que se demuestra que los objetos de cierta clase no consisten en nada más que en objetos de otra clase». Por ejemplo, si el aprendizaje consiste únicamente en «retener información», todos los aspectos de la intencionalidad, el contexto, la elaboración de significados… desaparecen o se rechazan por no ser «objetivables», medibles o eficaces.
Los debates relacionados con el papel de la IA para mejorar la educación y el aprendizaje no pueden abstraerse de los contextos. No podemos dejar de considerar que el aprendizaje es un fenómeno que involucra a personas reales que viven en contextos sociales reales y complejos de los que no pueden abstraerse de manera significativa. El alumnado como los docentes están contextualizados. Tienen un género, una orientación sexual, un estatus socioeconómico, una etnia, una cultura de origen; tienen intereses y cosas que les aburren y divierten.
Tenemos que considerar cómo las personas dan sentido a la información, a las situaciones por las que pasan, al mundo que les rodea, que puede ser restringido o ampliado por diferentes medios, capital social y cultural, acceso a las tecnologías digitales. Esto significa la importancia de considerar todos los procesos de aprendizaje en entornos sociales (escuela, familia, comunidad) o en los creados artificialmente.
En la era del capitalismo de vigilancia[2]La era del capitalismo de vigilancia. La lucha por in futuro humano frente a las nuevas fronteras de poder. Shoshana Zuboof. Ed. Paidós 2021. cualquier corporación puede tener acceso a volúmenes masivos de datos sobre prácticamente todos los estudiantes, en particular los que más utilizan las plataformas digitales, tanto dentro como fuera de la escuela. Este es uno de los argumentos más poderosos para el uso de big data en la educación actual, pero estos datos están poco contextualizados y, a menudo como se ha señalado, se recogen y utilizan sin tener en cuenta sus efectos colaterales. Esta tendencia se enfrenta a varias cuestiones importantes.
En primer lugar, la creciente identificación de niños y niñas va en contra de sus derechos digitales. «Una cuestión que ha empezado a cruzarse con los instrumentos existentes sobre los derechos de la infancia, como la Convención de las Naciones Unidas sobre los Derechos de la Infancia (1989)». La argumentación esta sostenida en que los datos generados por estas tecnologías se utilizan con frecuencia para la vigilancia de datos, es decir, el seguimiento y la evaluación de los niños por ellos mismos o por otras personas, que puede incluir el registro y la evaluación de los detalles de su apariencia, crecimiento, desarrollo, salud, relaciones sociales, estados de ánimo, comportamiento, logros educativos y otras características.
Los algoritmos desarrollados y entrenados por seres humanos no son objetivos e imparciales. Además, la mayoría de las personas no poseen la experiencia necesaria para entenderlos, ya que funcionan como cajas negras. Podemos identificar el posicionamiento ideológico y los intereses de un proyecto de ley educativa, un plan de estudios, el proyecto educativo de centro de una escuela, una planificación universitaria, un libro de texto o una aplicación educativa. Sin embargo, la mayoría de nosotros apenas podemos entender las nociones de enseñanza, aprendizaje, conocimiento, alumnado y profesorado en las que se basan los algoritmos, más allá del relato de marketing de la corporación que los vende.
El movimiento actual de transformación de la educación por la frenética actividad de recopilación de datos que tiene lugar en muchos países, tiene como artífices a desarrolladores de tecnologías educativas con creciente influencia creciente en nuestras aulas y nuestro sistema educativo. Estamos asistiendo a un cambio en la educación pública desde un sistema gestionado democráticamente a uno diseñado y dirigido por dispositivos y softwares que implementan metodologías pedagógicas en los productos de las grandes corporaciones digitales. La sustitución de la experiencia humana del profesorado por la capacidad de detección de patrones producida por los algoritmos de análisis del aprendizaje puede reducir las oportunidades de los estudiantes a las suposiciones codificadas en la lógica algorítmica.
La progresión de las personas, y no solo en entornos institucionales, puede ser rastreada junto con acciones como la actividad física, el uso de dispositivos digitales, la participación en los medios sociales, etc. Información que puede cotejarse con los datos aportados por alumnos y profesores a través de plataformas y aplicaciones de aprendizaje personalizado utilizadas en las aulas o en las casas. La mayoría de ellas diseñadas con tecnologías persuasivas impulsadas por algoritmos basados en los datos del alumnado para fomentar el progreso y la motivación, así como la vigilancia.
No podemos negar la importancia que tiene la adquisición de habilidades digitales en el contexto de la sociedad de la información y el conocimiento. Sin embargo, resulta crucial no confundir «aprender sobre lo digital con aprender a través de lo digital», como plantea el neurocientífico frances Michel Desmurget. En la mirada de Desmurget «cuanto más dejamos una parte importante de nuestras actividades cognitivas en manos de la máquina, menos material encuentran nuestras neuronas para estructurarse, organizarse y conectarse». «Los nativos digitales son los primeros niños con un coeficiente intelectual más bajo que sus padres».
La delegación de funciones del humano a un dispositivo con capacidad de almacenamiento de dato y procesamiento de algoritmos (celular, computadoras en sus diversas versiones) empobrece las capacidades cognitivas del humano. «Esta delegación de funciones masiva, no es solamente unidireccional. Cuando vos delegas las funciones, la máquina te formatea el cerebro» dice Miguel Benasayag.[3]Benasayag —argentino radicado en París— es filósofo, epistemólogo, doctor en psicología e investigador en neurofisiología. La inteligencia artificial no piensa (El cerebro tampoco), … Continue reading
Probablemente por esta razón, los promotores del Silicón Valley y principales beneficiarios de estas aplicaciones tecnológicas tratan de preservar a sus hijos e hijas de su influencia enviándolos a escuelas con poco o ningún uso de dispositivos digitales, pero con experiencias de naturaleza, arte y filosofía.
Los algoritmos de IA se están convirtiendo en algo omnipresente en la sociedad actual, pero se suelen ofrecer como cajas negras. También como secretos comerciales, propiedad intelectual de las grandes empresas, demasiado valiosos para discutirlos abiertamente. Por otro lado, los modelos que los gobiernan se basan a menudo en suposiciones sesgadas, y en conjuntos de datos recogidos de una «realidad» que dista mucho de ser «real».
La IA puede ser útil, especialmente para complementar la instrucción humana o en situaciones en las que el contacto humano es limitado, como en los entornos de aprendizaje digital. Sin embargo, el uso de algoritmos en la educación requiere supervisión, profesionales informados que comprendan cuáles son los límites de los algoritmos y transparencia en su aplicación y en los datos que recogen. También depende de un alto nivel de madurez, tanto del alumnado como del profesorado para abordar de forma crítica las evaluaciones, predicciones o materiales que el algoritmo ofrece. Los docentes no pueden abdicar de su papel y los resultados de los algoritmos necesitan ser cuestionados cuando son defectuosos. Además, cuestiones de soberanía sobre los datos y las aplicaciones demandan contar con desarrollo de IA locales con procesamiento y almacenamiento en territorio nacional.
Hay importantes cuestiones éticas en torno a la recolección de datos del alumnado y el profesorado y la creación de modelos en torno a ellos. Los datos son una moneda muy valiosa de la economía digital y es esencial obtener el consentimiento de las personas y tratar los datos de forma adecuada, en términos de adquisición, almacenamiento, intercambio, anonimización y destrucción de éstos.
Los Estados son responsables de promover políticas públicas para el cuidado y la promoción de la economía de los datos, proteger la privacidad de las personas, sobre todo de las menores, y para poner límites a lo que los desarrolladores de algoritmos y productos comerciales puedan disponer libremente del uso y explotación para beneficio corporativo sin responsabilidad social cultural y política.
El sector educativo no puede depender de los creadores corporativos de la IA para regular su propio trabajo. A fin de examinar y validar las nuevas y complejas aplicaciones de IA para su utilización formal en las escuelas, la Unesco recomienda que los ministerios de educación desarrollen sus capacidades en coordinación con otras ramas reguladoras del gobierno, en particular aquellas que regulan las tecnologías.
Pensar las aplicaciones de IA para educación con equipos multidisciplinarios locales (de cada país) con desarrollo del programas que implementan los algoritmos de IA propios (no compras cerradas) con almacenamiento y procesamiento de datos en nubes de servidores físicamente alojados en territorios nacionales es pensar en soberanía en tecnología educativa .
En noviembre de 2021, la Unesco elaboró la primera norma mundial sobre ética de la IA: la Recomendación sobre la Ética de la inteligencia artificial. Este marco fue adoptado por los 193 Estados miembros. La Recomendación subraya que los gobiernos deben velar por que la IA respete siempre los principios de seguridad, inclusión, diversidad, transparencia y calidad.
ALFREDO MORENO
Computador científico, ingeniero TIC en Agentina Satelital (Arsat), profesor TIC en la Universidad Nacional de Moreno, integrante de la Red de Pensamiento Latinoamericano en Ciencia, Tecnología y Sociedad (Red Placts).
NOTA RELACIONADA
Necesitamos una política pública de alfabetización mediática e informacional para alcanzar la soberanía ciudadana en el territorio digital
POR ALFREDO MORENO | La alfabetización mediática e informacional (AMI) —sin duda un derecho en la era digital— es clave para empoderar a los ciudadanos en la lucha contra la desinformación y mejorar sus habilidades técnicas para construir un pensamiento crítico que le permita poner en duda y buscar certezas acerca de los datos e información que consume.
ÚLTIMAS ENTRADAS
- La ciudad de La Plata será sede del Congreso Federal de Cultura y Comunicación 2024POR ESFERA REDACCIÓN | El Frente Cultural Federal, junto con la CGT, la CTA Autónoma y la CTA de los Trabajadores, convocan a un Congreso Federal de Cultura y Comunicación para el 24 de octubre en La Plata. El ajuste y los ataques por parte del Gobierno nacional, los ejes centrales del debate.
- Néstor Busso: «Para una mejor distribución de la riqueza es indispensable una mejor distribución de la palabra»POR ESFERA REDACCIÓN | A quince años de la sanción de la Ley de Servicios de Comunicación Audiovisual, Néstor Busso, histórico referente del Foro Argentino de Radios Comunitarias (Farco) y de la Coalición por una Comunicación Democrática, destacó el logro de haber puesto en debate el tema de la comunicación.
- Piden al Enacom que cumpla la ley 26522 en relación con los medios comunitarios, originarios y de fronteraPOR ESFERA REDACCIÓN | Medios comunitarios solicitan a Juan Martín Ozores, el interventor del Ente Nacional de Comunicaciones (Enacom), una reunión para exigir que cumpla con la Ley de Servicios de Comunicación Audiovisual (LSCA). En esta nota, los principales puntos del reclamo y el formulario para adherir al petitorio.
- A quince años de la ley 26.522: Una herramienta en disputa para la batalla culturalPOR LUIS LÁZZARO | Mirando el camino recorrido, debemos celebrar como parte del capital democrático que una normativa con arraigo en la sociedad haya hecho posible modernizar y diversificar la escena comunicacional en nuestro país. Sin embargo, su legado reclama hoy una fuerte reflexión sobre las graves violaciones a su mandato a manos de gobiernos cómplices y al silencio del parlamento, que hicieron posible la circulación unidireccional de discursos de odio y autoritarismo sin el debido contrapeso democrático.
- John Hopfield, premio nobel de física, advierte acerca de los peligros de una inteligencia artificial sin controlPOR ESFERA REDACCIÓN | El científico estadounidense John Hopfield, recientemente galardonado junto con Geoffrey Hinton con el Premio Nobel de Física por sus investigaciones pioneras en el campo de la inteligencia artificial (IA), ha emitido una advertencia preocupante sobre los rápidos avances en este campo de la informática. Hopfield y Hinton, conocidos como los «padres» de la IA, también son pioneros en el desarrollo del «machine learning» (aprendizaje automático), pilar de esta tecnología.
Notas
↑1 | Doctora en sociología y psicología de la personalidad por la Universidad de Harvard. Realiza investigaciones sobre el psicoanálisis y la interacción humano-tecnológica. Es Profesora Abby Rockefeller Mauzé de Estudios Sociales en Ciencia y Tecnología en el Instituto de Tecnología de Massachusetts. Fundadora y directora del Institute of Technology and Self. |
---|---|
↑2 | La era del capitalismo de vigilancia. La lucha por in futuro humano frente a las nuevas fronteras de poder. Shoshana Zuboof. Ed. Paidós 2021. |
↑3 | Benasayag —argentino radicado en París— es filósofo, epistemólogo, doctor en psicología e investigador en neurofisiología. La inteligencia artificial no piensa (El cerebro tampoco), Prometeo, 2024. |