Por: Luz D Palomino M/CII-OVE
Las instituciones educativas de Nuestra América no están siendo «modernizadas»: están siendo ocupadas. Bajo el relato luminoso de la revolución inteligente y el cierre de la brecha digital, el complejo industrial-tecnológico de Silicon Valley ha desplegado un nuevo ciclo de extractivismo. Analizando cómo las corporaciones tecnológicas transmutan a estudiantes y docentes en yacimientos de datos, imponiendo una monocultura epistémica. A través de un diálogo entre la pedagogía crítica y la educación popular, desmontamos la pretendida neutralidad técnica para revelar una arquitectura de vigilancia que no busca educar, sino colonizar el porvenir. Frente a ello, no queda más que la organización, la ternura radical y la insurgencia pedagógica.
Cuando la Fibra Óptica Teje una Nueva Colonialidad
Duele ver la escuela pública —ese territorio ganado con luchas, ese espacio de encuentro y rebeldía— siendo hackeada por la lógica mercantil. Duele porque la promesa era otra: la tecnología para liberarnos, para acortar distancias, para amplificar las voces de los de abajo. Pero la historia se repite con rostro de algoritmo. El despojo ya no es solo de tierras, minas o agua; ahora es de la subjetividad, de la atención, del rastro digital de nuestras infancias y juventudes. Como nos enseñó Catherine Walsh (2013), la matriz colonial de poder no desaparece, se reconfigura permanentemente. Y hoy se viste de aplicación educativa, de «asistente inteligente» y de promesa de eficiencia.
No estamos ante una simple actualización de herramientas. Asistimos a un cambio de paradigma en la gobernanza educativa, donde el derecho a la educación se subordina al mercado de datos. Y frente a eso, quien escribe no puede quedarse en la fría academia. Esto es un grito, un cuerpo que se sabe observado, una maestra que vio cómo ClassDojo convertía los abrazos en puntos y los silencios cómplices en alertas.
La narrativa hegemónica nos presenta a la Inteligencia Artificial como una entidad aséptica, casi divina. Mentira. El código es una construcción social, atravesada por los privilegios y cegueras de quienes lo escriben. Un informe de la UNESCO (2023) fue contundente: los datasets de entrenamiento reflejan, mayoritariamente, la cosmovisión de hombres blancos del Norte Global. Esto no es un error técnico, es una decisión política. Y perpetúa, en silencio, sesgos de género, raza y clase.
En nuestra región, esa «pureza matemática» se estrella contra la carne de la realidad. La CEPAL (2024) documentó algo que muchas estudiantes indígenas ya sabían: los sistemas de proctoring (vigilancia remota) como ProctorU interpretan como «sospechosa» la latencia causada por los cortes eléctricos en zonas rurales. Castigan la pobreza. También penalizan los patrones de habla de estudiantes bilingües (quechua-español, aimara-español), etiquetando como «anomalía» lo que es, simplemente, otra forma de habitar el lenguaje. ¿Casualidad? No. Es la hybris del punto cero, el ojo que todo lo ve pero que nunca se posiciona, que nunca se pregunta desde dónde mira.
Como nos recuerda Ricaurte (2024): «El colonialismo de datos no es solo extracción, sino la imposición de un orden epistémico que borra periferias, lenguas y resistencias». Google Classroom operando en Venezuela sin controles soberanos no es un vacío legal: es una decisión de poder. El informe de la ONG Acceso (2025) es escalofriante: la recolección de datos biométricos en planteles públicos no busca mejorar el aprendizaje, sino alimentar modelos de comportamiento para mercados predictivos. Nuestros niños y niñas, sin saberlo, están entrenando a quien los vigila.

Del Derecho a la Educación al Mercado de Datos
El aula ha dejado de ser, en muchos casos, un espacio de encuentro para convertirse en un campo de entrenamiento gratuito para la Big Tech. En naciones como Guatemala y Bolivia, la penetración de Microsoft Education ha desplazado la autonomía curricular. Ya no decide el magisterio organizado, sino el licenciamiento de software. Renata Ávila (2023) lo advirtió con claridad: estamos delegando la soberanía pedagógica a entidades cuyo fin último es el lucro, no la liberación. Y eso, desde una mirada feminista, es profundamente violento, porque despoja a las comunidades de su capacidad de decidir sobre sus propios cuerpos y sus propias historias.
El profesor Luis Bonilla-Molina (2025), desde la trinchera venezolana, identifica esto como el «apagón pedagógico global». La tecnología no llega para potenciar al docente, sino para desplazarlo hacia el rol de «facilitador de plataforma» o monitor de métricas. Herramientas de gestión conductual como ClassDojo transforman la disciplina en un sistema de puntos algorítmicos. Adiós al diálogo, adiós a la ternura, adiós a la pedagogía del oprimido. Hola al refuerzo positivo programado, a la vigilancia continua, a la producción de subjetividades dóciles.
Comparativa de Vulnerabilidad de Datos Educativos entre Europa y Latinoamérica
| Región | Marco Regulatorio (RGPD/Local) | Uso de Datos por Terceros | Riesgo Identificado |
| Europa | Alto (Protección estricta con mecanismos de sanción) | Restringido por defecto | Privacidad individual (riesgo acotado) |
| Latinoamérica | Débil, fragmentado o inexistente (salvo contadas excepciones) | Hasta un 70% de las plataformas según Privacy International (2024) | Perfilamiento político, comercial y discriminación estructural |
La vulneración de la Ley de Protección de Datos Personales es sistemática. Pero ojo, no es solo un problema legal. El docente, abrumado por la precariedad laboral, la falta de conectividad real y la presión por «innovar», se ve forzado a utilizar herramientas privativas que monetizan la privación de sus estudiantes. Culparlo a él o a ella sería una crueldad. La responsabilidad es del modelo.
También es urgente hablar de lo que la «nube» esconde. Porque la nube no es vapor. Son cables submarinos que atraviesan nuestros océanos sin dejar regalías, son minas de litio en el Salar de Uyuni o el Triángulo del Litio, son centros de datos que, según la Agencia Internacional de la Energía (IEA, 2025), consumen volúmenes de energía superiores a países enteros. El almacenamiento de las tareas escolares de nuestros niños en servidores de Virginia (EE.UU.) o Dublín (Irlanda) implica un costo ambiental brutal que pagan comunidades del Sur Global mediante el extractivismo hídrico para enfriar esos mismos servidores. ¿Quién le devuelve el agua a la comunidad de Quillagua? ¿Quién repone el territorio arrasado por el coltán? Desde una ecología de saberes feminista, no podemos separar la opresión digital de la opresión territorial. Es un mismo sistema.
Frente a esta ofensiva digital, la respuesta no es la desconexión nostálgica (eso sería un luddismo romántico que no nos sirve), sino la apropiación crítica y colectiva. Siguiendo a Paulo Freire (1996), si la educación es un acto político, la tecnología también debe serlo. Y desde la comunicación popular, sabemos que no hay herramienta buena o mala en sí misma, sino que depende del uso organizado y consciente que le demos. Propongo, desde la escucha y la práctica, tres caminos:
- Validación de lo No-Computable: Reconocer con orgullo que los saberes ancestrales (el cultivo de la milpa, la medicina mapuche, las lógicas comunitarias de las comunas venezolanas) poseen una complejidad que el algoritmo no puede ni debe capturar. No todo es dato. No todo es medible. La ternura, el silencio compartido, la palabra dicha en círculo, son resistencia.
- Auditorías Sociales de Algoritmos con Sabor a Pueblo: Institucionalizar asambleas escolares donde la comunidad educativa —madres, padres, estudiantes, docentes, personal de servicio— decida qué datos se entregan, para qué y a quién. Exigir transparencia, como hace la valiente Fundación Datos Protegidos en Chile. No se trata de tener miedo, sino de tener poder para decidir.
- Soberanía Tecnológica desde Abajo: Fortalecer y replicar iniciativas para el desarrollo de software libre, modelos de IA entrenados con contextos situados y, sobre todo, redes comunitarias que no dependan de la gran corporación. La soberanía no se compra, se construye en el barrio, en la escuela, en la lucha.
El colonialismo digital es la cara contemporánea de la antigua ocupación. Cambiaron los barcos por fibra óptica, pero el objetivo es el mismo: el control de la riqueza (ahora los datos) y la domesticación de las mentes. Sin embargo, no todo está perdido. La verdadera innovación educativa en América Latina no vendrá de Silicon Valley, sino de la capacidad de nuestras aulas, patios, asambleas y radios populares para transformarse en trincheras de pensamiento crítico y soberanía intelectual. Porque, como diría el maestro Freire, nadie libera a nadie, nadie se libera solo, sino que nos liberamos juntos, en comunión, con la palabra y la acción. Y eso, ningún algoritmo lo va a poder nunca replicar.
Bibliografía Consultada
- Acceso (2025).Datos Educativos en Venezuela: Vulnerabilidades Post-Pandemia y Resistencia Comunitaria. Informe de Derechos Digitales. Caracas.
- Ávila, R. (2023).Manifiesto por la Soberanía Digital de los Pueblos. Ciudad de Guatemala: Editorial Al Margen.
- Bonilla-Molina, L. (2025).El apagón pedagógico global y la ofensiva de las corporaciones tecnológicas. Buenos Aires: Editorial Cooperativa.
- CEPAL (2024).Digitalización Educativa en América Latina: Riesgos, Oportunidades y Desafíos en la Era de la IA. Santiago de Chile: Naciones Unidas.
- D’Ignazio, C., & Klein, L. F. (2020).Data Feminism. Cambridge: MIT Press. (Aporta a la crítica feminista de los datos).
- Freire, P. (1996).Pedagogía de la Autonomía: Saberes necesarios para la práctica educativa. São Paulo: Paz e Terra.
- IEA (International Energy Agency) (2025).Electricity 2025: Analysis and forecast to 2027. Paris: IEA Publications.
- Noble, S. U. (2018).Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press. (Clave para entender sesgos raciales en algoritmos).
- Privacy International (2024).EdTech Surveillance in the Global South: A Critical Review of Policies and Practices. London: Privacy International.
- Ricaurte, P. (2024).Epistemologías de datos y colonialidad del poder. México D.F.: Digital Future Society / Tec de Monterrey.
- Simbürger, E., & Sandoval, J. (2024). Auditorías sociales de algoritmos: Experiencias desde el sur. EnRevista Latinoamericana de Comunicación y Derechos Digitales, 7(2), 45-67.
- UNESCO (2023).Gender and AI in Education: Tackling the Bias and Building Inclusive Systems. Paris: UNESCO Publishing.
- Walsh, C. (2013).Pedagogías decoloniales: Prácticas insurgentes de resistir, (re)existir y (re)vivir. Quito: Ediciones Abya-Yala.





Users Today : 131
Total Users : 35491153
Views Today : 185
Total views : 3604713