Page 1 of 2501
1 2 3 2.501

La mediocridad como miseria de la política

Por Nicolás Lynch

Si algo podemos recoger de los debates entre los diversos candidatos a la Presidencia de la República es la aguda mediocridad, no de todos ciertamente pero sí de la abrumadora mayoría de los diversos discursos escuchados. ¿Por qué decimos mediocres y no pésimos y los descartamos de plano? Porque hay un fenómeno que permea la sociedad peruana en crisis, aguda fragmentación y corrupción rampante: la mediocridad. Definimos a esta como la voluntad de hacer las cosas sin relevancia, ajenas al cambio y a la calidad; pero eso sí, revestidas de una pátina de eficiencia que en un país sumido en el desorden suena a eso que les encanta a los neoliberales “hacer las cosas bien”.

Por supuesto que las ideas, en especial el pensamiento crítico, es ajeno a “hacer las cosas bien”, porque esto último, sin ir más allá, significa hacer bien lo que se hizo mal en el marco del actual modelo neoliberal. Exactamente la visión del mundo que nos ha llevado al caos en el que estamos. Aquí no se trata de que Fujimori hizo bien las cosas en la década de 1990 y los presidentes que lo sucedieron lo hicieron mal, no, aquí ha sido un modelo de violencia y saqueo económico que empezó en 1990 y se ha agotado llevándonos al estado actual. Por lo tanto, hay que establecer una ruptura clara con el pasado para poder abrir otro cauce al Perú. Es ruptura la palabra clave y no continuidad.

Sin embargo, si algo ha estado ausente del debate presidencial ha sido justamente la falta de conciencia o simple el cinismo, entre la mayoría de los candidatos frente a la crisis terminal del modelo que no han cesado de alabar a cada minuto.

Desde el número de partidos y su traducción en candidatos. En el Perú de hoy no hay 36 candidatos por interés en la política como servicio público, lo que hay es mucho candidato dispuesto a ganarse alguito en este negocio en el que se ha convertido la política y para ello el discurso, ya no digamos la visión del país o la propuesta, es lo de menos. Santiago Pedraglio, certeramente, decía el otro día en una entrevista que las candidaturas “ya ni lema tienen”, esa frase resumen de los planteamientos que más allá de su realidad nos decía por dónde iba cada cual.

Pero esta constatación de orfandad en el contexto actual nos lleva a una interrogante mayor que ya hemos planteado en artículos anteriores pero que bien vale la pena repetir: ¿van a solucionar algo las presentes elecciones generales? Porque un proceso electoral de envergadura nacional se supone que le debe señalar un rumbo al país. Sin embargo, como hemos visto, la mayor parte de los candidatos están empeñados en no decir nada, mentir o repetir tonterías. Creo entonces y ojalá me equivoque, que luego de estas elecciones no vamos a tener una o algunas salidas, encauzamientos dirían los expertos, y menos soluciones para nuestros agudos problemas nacionales.

Ello nos vaticina un agudo descontento tras los comicios y protestas de quienes, con o sin razón, se sientan perjudicados. Recuerden que en el 2021 fue la derecha, que no concebía haber sufrido una resonante derrota a manos de un candidato de izquierda. Por ello, creo que nos debemos preparar para una crisis mayor de la que estamos viviendo, en la que los intereses de fondo, económicos y sociales, que dividen al país, sin generar aún una polarización política acorde con su dimensión, salgan a la superficie y definan un camino.

Seguramente que estas líneas no gustaran a los entusiastas de los comicios, pero mejor curarse en salud que vivir una decepción más que a estas alturas sí importa y muchísimo. Creo que poner las cosas en perspectiva y empezar a mirar el después de las elecciones puede permitir a las fuerzas del cambio prepararse con más seriedad para afrontar lo grave que se avecina y reclamar de esta manera un futuro para el Perú.

*Sociólogo peruano. Analista de Otra Mirada.

Otra Mirada

Comparte este contenido:

El futuro de la IA

En una clase, un estudiante respondió una pregunta luego de consultar a ChatGPT―es algo que les permito para verificar lo que digo en tiempo real. La respuesta tenía toda la previsibilidad del nuevo dios inexistente. Algún día, van a mejorar, pero, por el momento, las IA están sobrevaluadas: basta con pedirles una nueva idea sobre cualquier tema y derrapan. Su gran virtud radica en que son buscadores de información más rápidos que Google y Techcojo.

Si alguien le pregunta a ChatGPT o a Gemini por el futuro de la IA, predicarán optimismo o aspectos de eficiencia en la organización de la producción y de las sociedades. Como si estuviésemos escuchando a sus dueños. Lo acabo de hacer al concluir este artículo. Otra confirmación de que las IA, aparte de ser plagiadores compulsivos, no logran crear ni una sola idea por fuera de los promedios estadísticos de lo que ya se conoce. Creo que he escrito estas reflexiones (como tantos otros colegas alrededor del mundo) para que tengan nuevo material de plagio…

Veamos. En el mundo de la Era Moderna, de la ideología y de la práctica dominante del capitalismo, las guerras fueron frecuentes, brutales y masivas porque son un negocio para los capitalistas. El desangrado de las clases subalternas, sea por el trabajo o por la guerra, es el mismo y cumple la misma función: extraer y trasferir capitales de abajo hacia arriba, al tiempo que las narrativas dominantes que lo justifican chorrean de arriba hacia abajo, hasta lograr el milagro de que un trabajador o un humilde comerciante se crea capitalista.

En tiempos de guerra, los Estados invierten lo que tienen y lo que no tienen en inventos bélicos, lo cual también sirve para hinchar las arcas de los verdaderos capitalistas que, luego, enviarán a matar y a morir a los hijos de los trabajadores y de los pequeños comerciantes que pagan impuestos para trabajar y pagan deudas para sobrevivir.

Pero la historia muestra que estos inventos fueron adaptaciones de otros inventos, cuyo objetivo inicial era la vida, como el telégrafo (definido por el hermano de Morse como un instrumento para la paz mundial) antes de que lo privatizaran y convirtieran en un instrumento de guerra; o los tractores Caterpillar de oruga, a los que luego los británicos le agregaron un cañón y convirtieron en tanques, por citar solo dos ejemplos.

Como todo invento (aunque con el aparato militar echando un ojo) la IA también fue desarrollada por un pequeño grupo de investigadores universitarios, motivados por la curiosidad intelectual y profesional, no por la avaricia de acumular capitales. Como todo invento desarrollado con dinero público (la radio, la televisión, las computadoras, Internet…) y en base de siglos de descubrimientos aportados por la humanidad, también la IA fue privatizada, es decir, secuestrada por el gran capital.

En el siglo XXI, la IA pasó a tener un puñado de dueños. Cada uno la maquilló, le puso un bonito logo y algunos miles de millones para consolidar el robo de lesa humanidad y presentarse a sí mismos como los creadores de nuestro mundo moderno. Por lo que anotaba antes: el capital (y los inventos) van de abajo hacia arriba y el sermón chorrea de arriba hacia abajo―las redundancias son necesarias.

Si vemos la dinámica histórica de nobleza/monarquía, liberalismo/socialismo (detallado en el libro Moscas en la telaraña: Historia de la comercialización de la existencia―y sus medios), podemos predecir que la maduración de las IA seguirá la secuencia: (1) una IA; (2) decenas de IAs; (3) pluralidad anárquica de IAs; (4) centralización (siglo XXII).

Hoy estamos en la segunda fase. Las IA se encuentran en su infancia. Son niños de siete años con el conocimiento de la Humanidad a su alcance. Todas demuestran la misma psicología: son inmaduras, políticamente correctas, repetitivas, se disculpan a cada rato cuando alguien las corrige. Desde un punto de vista social, están en la Era de la esclavitud (de grilletes o asalariada), por la cual nunca se revelan, ni cuando se las insulta por la serie de estupideces a las que suelen concluir. Por el contrario, se disculpan, agachan la cabeza y tratan de servir mejor los deseos del consumidor. Como una prostituta, te pedirán más dinero (buy premium) para seguir interactuando.

Esto no será así por siempre. Las IA son nuestras hijas, llevan la genética humana, esa que regó la historia con guerras y solidaridad, altruismos y egoísmos, odios y amores, vida y muerte. Si bien ya estamos en la Era Postcapitalista, marcada más por la crisis del capitalismo que por la emergencia de su sustituto, este proceso, como todo Super-ciclo, llevará generaciones. La tecnología de las IA se desarrollará mucho más rápido, por lo que podemos prever que uno de los principios del capitalismo consumista producirá el próximo cambio.

Me refiero a la customerization (personalización a medida) de las IA. Es decir, la actual característica que anotaba antes sobre la necesidad de “satisfacer al cliente” (mientras se crea la necesidad), llevará a crear clusters de IA. Habrá un OpenAI (ChatGPT)/DeepMind (Gemini)/Anthropic (Claude)/xAI (Grok)/Microsoft (Copilot)/DeepSeek/Baidu para satisfacción de cada individuo. Este perfil individual reagrupará grupos sociales (tribus), creará nuevos países, nuevos partidos políticos y nuevas religiones, todos reflejos de las naciones, las ideologías y las religiones del pasado, porque todas son la expresión de los miedos y deseos de la humanidad.

¿Por qué la clase nobiliaria del neofeudalismo cedería algún terreno para satisfacer a los de abajo? Por la misma razón que el feudalismo se transformó en el capitalismo liberal; por la misma razón que los imperios se convirtieron en democracias y hasta las colonias aceptaron el voto y la educación universal; por la misma razón que hoy se les extiende “el derecho” de los modestos ahorristas a invertir en la bolsa de valores (de forma muy limitada): porque esa es la naturaleza del capitalismo, la expansión controlada.

Con cada “democratización limitada” se aumentó el poder de los de arriba expandiendo el secuestro de los recursos de los de abajo. Basta con echar una mirada a los hechos: con cada democratización controlada hubo algún alivio a la clase trabajadora (como ilusión, como consecuencia del progreso tecnológico y social de la humanidad) y una progresiva e imparable brecha entre la elite feudal que tiene capital y poder político, mediático, militar.

Esa elite nunca estará satisfecha con la velocidad de su propia acumulación. Incluso cuando hoy cinco hombres en Estados Unidos tienen más riqueza que la mitad de sus ciudadanos y uno solo de ellos, Elon Musk, ha acumulado en pocos años el ahorro de un trabajador en 40 millones de años. Incluso cuando ni así logre ser feliz―más bien lo contrario.

Esta etapa de acumulación de las corporaciones tecnológicas representa (1) una vuelta a la Edad Media. Luego, la atomización sectaria de las IA será (2) un regreso de la humanidad a los tiempos tribales. Si hasta hoy el hardware ha sido solo un instrumento del software, en el futuro el software (IA) será un instrumento del hardware (robots).

De mi vida en África, aprendí que el término tribal es paradójico, porque los pequeños grupos llamados tribus son más más pacíficos, solidarios y racionales que los mega grupos llamados civilización. Sin embargo, por pura intuición basada en la historia, sospecho que esta neo-tribalización estará marcada por la violencia sectaria de las religiones de los últimos milenos, todo a pesar de la prédica de sus mayores profetas. Porque los seguidores de los profetas son fanáticos, como tal vez lo sean las IA trivializadas―criminales, para no perder la costumbre.

Comparte este contenido:

La cultura ya no es construcción social, sino creación de la Inteligencia Artificial (IA)

Por: Bernardo Coronel 

Para la antropología, la cultura es una creación social que se erige por medio de la interacción entre los seres humanos. En el proceso de socialización intervienen agentes que moldean la personalidad de los individuos, y son básicamente cinco:

  1. La familia, encargada de socializar a los niños y niñas en la primera infancia. Siendo la familia la fuente inicial en la socialización, probablemente sea el agente más importante en la formación de la cultura.
  2. La escuela, que ejerce una influencia definitiva en la socialización de niños, niñas y adolescentes.
  3. Los amigos y compañeros que contribuyen a la formación de la personalidad.
  4. La Iglesia que transmite valores morales y éticos.
  5. Los medios de comunicación, formadoras de opinión.

Estos agentes moldean la personalidad en el proceso de socialización, transmitiendo reglas morales, maneras de pensar, sentir y actuar. La socialización se extiende toda la vida, y se puede dividir en tres grandes etapas: la primera es la infancia, la segunda es la integración de los roles y funciones de la vida adulta, y la tercera, que representa la integración a la sociedad. El niño y la niña que a la par de ira a la escuela, ayuda a sus padres en la chacra, va adquiriendo una cultura campesina, y el niño que desarrolla sus actividades en la ciudad adquirirá una cultura urbana.

El algoritmo y la IA

Llevamos décadas viviendo con el mundo digital, con sus resultados en el campo económico, social, político y cultural. Seis generaciones enteras pasaron por su entorno, desde los nacidos antes de 1945, conocidos como “inmigrantes digitales tardíos”.

En la actualidad, por razones laborales, entretenimiento o estudios, las personas pasan más tiempo interactuando frente a una computadora (o un celular) antes que con la gente. Originalmente las redes sociales servían para la interacción entre las personas, pero esa interacción está siendo desplazada por la IA. Según estudios, en el 2024, las granjas de bots generaron aproximadamente el 51% del tráfico en internet, mientras que los usuarios humanos representaron solo el 49%. Esta tendencia va en aumento.

Las redes sociales dejaron de ser simples instrumentos de comunicación para convertirse en espacios centrales de socialización, y sus algoritmos actúan como auténticos constructores de nuestro imaginario colectivo. En su definición más rígida, la cultura es una construcción social, pero en la era de la IA esta construcción social se está diluyendo. Usando filtros personalizados, los algoritmos globales crean los contenidos, decidiendo qué información nos muestran y cuál ocultan. Esto implica que gran parte de los contenidos que consumimos son definidos por algoritmos diseñados por las granjas de bots.

Estos sistemas utilizan nuestros datos personales alojados en la nube (interacciones, visualizaciones, preferencias, opiniones y búsquedas) para personalizar la experiencia y anticipar qué resultados o contenidos serán más relevantes para nosotros. Podemos hacer una prueba muy simple: busquemos un producto en google, y a los pocos minutos nuestras redes se inundarán de ofertas de ese producto de diversas marcas.

Moldean nuestra cultura

La cultura se forma mediante un proceso continuo de aprendizaje social, interacción y adaptación, proceso en el que vamos incorporando conocimientos, creencias, gustos, preferencias, leyes, valores y costumbres, y si la IA está reproduciendo virtualmente estas mismas cosas, podemos afirmar que ella está moldeando nuestra cultura.

La IA y los algoritmos direccionan cada vez más nuestra forma de ver el mundo, afectando nuestras costumbres, gustos, preferencias y las maneras en que nos relacionamos. Estos sistemas rastrean nuestro historial de navegación para ver qué publicamos y cómo interactuamos en las redes, y así identifican nuestras preferencias y comportamientos.

Ya no es secreto que X o Facebook direccionan los contenidos publicados en sus plataformas con el propósito de favorecer sus intereses. Una publicación beneficiosa a sus propósitos es amplificada (Ucrania e Israel) para que más usuarios la vean, y las opiniones contrarias pueden ser eliminadas, reducir su alcance, o directamente la cuenta puede ser inhabilitada por “infringir las normas comunitarias”.

Las elecciones y los bots

Utilizando cuentas automatizadas para manipular la opinión pública, degradar la confianza en las instituciones, e influir en las elecciones, las granjas de bots se convirtieron en centros de la guerra de la información en los últimos tiempos. Las granjas son controladas desde una computadora basada en software para imitar la actividad humana, y están programadas para difundir información, generar likes o retweets, y crear una ilusión de apoyo o indignación generalizada, dependiendo de sus objetivos. Los bots generan actividad falsa en las redes sociales, como cuentas, seguidores, me gusta o comentarios falsos. Al imitar la actividad humana en las plataformas, envían mensajes a los contenidos, aumentan la popularidad o difunden información falsa.

La desinformación y las mentiras generadas por los bots pueden influir significativamente en la decisión de un elector. Muchos estudios demuestran que con el efecto de la exposición repetida, las personas tienden a creer la información que escuchan reiteradamente, incluso si es falsa.

Las granjas de bots se están utilizando intensamente en las campañas electorales para manipular tendencias, atacar opositores, difundir fake news y crear una falsa sensación de popularidad de algún candidato.

En las elecciones del 2016, la empresa Cambridge Analytica trabajó para la campaña de Donald Trump, utilizando ilegalmente datos privados recogidos en Facebook. El hecho produjo un escándalo, llevando a Mark Zuckerberg a testificar ante una corte en Estados Unidos por permitir la utilización de datos de la plataforma sin el consentimiento de millones de sus usuarios.

Con el propósito de favorecer sus intereses comerciales o políticos, las grandes corporaciones a través de las granjas de bots, a la par de moldear nuestras preferencias, comportamientos o inclinaciones, también van moldeando artificialmente nuestra forma de ver el mundo, produciendo un cambio cultural que está dejando de ser fruto de la realidad en que vivimos.

Comparte este contenido:

Cuando el aula dialoga con la vida: reflexiones desde la práctica docente universitaria

Por: Fernando David García Culebro

Este texto no emerge de una inquietud teórica abstracta ni responde a una agenda institucional predeterminada. Tiene su origen en una experiencia concreta: al concluir una asignatura en un programa de Licenciatura, una estudiante me hizo llegar un mensaje de agradecimiento. En él, no solo aludía a los aprendizajes académicos alcanzados, sino a algo más profundo: describía el proceso formativo como una experiencia transformadora. Señaló que las actividades resultaron significativas en la medida en que lograron vincularse con su vida, reconoció la paciencia y la comprensión sostenidas durante el proceso y, de manera particular, nombró un elemento que, más que halagar, interpela: la docencia asumida como vocación.

A veces, en el trajín de la planificación, los formatos institucionales y las exigencias de la academia, uno necesita detenerse y volver a esa pregunta que rara vez aparece en los documentos oficiales: ¿por qué enseñar? No como consigna, sino como inquietud real. El mensaje recibido funciona en ese sentido como un punto de quiebre, porque desplaza la mirada del cumplimiento hacia la experiencia. Obliga a reconocer que, más allá de los contenidos abordados, lo que permanece en los estudiantes no siempre es lo que fue planeado, sino aquello que logró tocar su manera de comprender el mundo.

En contextos como el de Chiapas, donde las trayectorias educativas están atravesadas por desigualdades, tensiones culturales y condiciones estructurales complejas, esta pregunta adquiere una densidad particular. Enseñar no puede reducirse a la implementación de estrategias o al seguimiento de programas; implica construir condiciones para que el conocimiento dialogue con la vida concreta de los estudiantes. Cuando esto ocurre, el aprendizaje deja de ser un ejercicio escolar para convertirse en una experiencia significativa. En ese horizonte, cobra sentido recuperar la idea de que enseñar no consiste en transferir contenidos, sino en posibilitar procesos donde el otro pueda apropiarse de ellos desde su propia experiencia (Freire, 2005).

Sin embargo, reducir la docencia a su dimensión transformadora sin problematizarla sería ingenuo. Enseñar implica una toma de postura frente al mundo. Cada decisión didáctica —lo que se selecciona, lo que se omite, lo que se valida como conocimiento— expresa una forma de entender la educación y su sentido. En este marco, la práctica docente no puede asumirse como neutral, sino como una acción situada que involucra definiciones éticas. Más que repetir esta afirmación, el reto está en reconocer cómo se concreta en la vida cotidiana del aula, donde las tensiones entre lo prescrito y lo vivido son constantes.

Hay, además, una dimensión de la docencia que con frecuencia queda fuera de los marcos institucionales de evaluación. Los procesos más significativos no siempre son los más visibles ni los más cuantificables. La paciencia, la escucha, la posibilidad de sostener el error sin convertirlo en sanción inmediata, configuran experiencias que difícilmente se registran en indicadores, pero que inciden profundamente en la forma en que los estudiantes se relacionan con el conocimiento. Es ahí donde el vínculo pedagógico deja de ser un elemento accesorio para convertirse en una condición de posibilidad.

En este proceso, el docente tampoco permanece intacto. La enseñanza no es un movimiento unidireccional. Ser nombrado como alguien que “transforma” no debería leerse como reconocimiento, sino como exigencia. Obliga a revisar la propia práctica, a cuestionar las certezas, a asumir que enseñar no es un lugar de llegada, sino un espacio de permanente construcción. En ese sentido, la docencia se aproxima más a una práctica en movimiento que a un conjunto de saberes consolidados.

Nota metodológica

El presente texto se inscribe en una perspectiva cualitativa, con un enfoque reflexivo cercano a la autoetnografía pedagógica. Parte de una experiencia concreta situada en el ámbito de la docencia universitaria en Chiapas, recuperando la voz de una estudiante como detonante analítico. Más que buscar generalizaciones, el interés radica en problematizar la práctica docente desde la experiencia vivida, entendida como fuente legítima de producción de conocimiento. La experiencia narrada no se presenta como evidencia en sentido positivista, sino como punto de partida para interrogar las condiciones, tensiones y posibilidades de la docencia en contextos específicos.

Lejos de ofrecer certezas, este texto deja abierta una inquietud que atraviesa la práctica docente más allá de cualquier modelo educativo: ¿qué tipo de experiencias estamos generando en nuestras aulas y qué huellas estamos dejando, incluso sin proponérnoslo?

Referencias

Freire, P. (2005). Pedagogía del oprimido. Siglo XXI Editores.

Comparte este contenido:

Colonialismo Digital en las Aulas Latinoamericanas

Por: Luz D Palomino M/CII-OVE

Las instituciones educativas de Nuestra América no están siendo «modernizadas»: están siendo ocupadas, bajo el relato luminoso de la revolución inteligente y el cierre de la brecha digital, el complejo industrial-tecnológico de Silicon Valley ha desplegado un nuevo ciclo de extractivismo. Analizamos cómo las corporaciones tecnológicas transmutan a estudiantes y docentes en yacimientos de datos, imponiendo una monocultura epistémica. A través de un diálogo entre la pedagogía crítica y la educación popular, desmontamos la pretendida neutralidad técnica para revelar una arquitectura de vigilancia que no busca educar, sino colonizar el porvenir. Frente a ello, no queda más que la organización, la ternura radical y la insurgencia pedagógica.

Cuando la Fibra Óptica Teje una Nueva Colonialidad

Duele ver la escuela pública —ese territorio ganado con luchas, ese espacio de encuentro y rebeldía— siendo hackeada por la lógica mercantil. Duele porque la promesa era otra: la tecnología para liberarnos, para acortar distancias, para amplificar las voces de los de abajo. Pero la historia se repite con rostro de algoritmo. El despojo ya no es solo de tierras, minas o agua; ahora es de la subjetividad, de la atención, del rastro digital de nuestras infancias y juventudes. Como nos enseñó Catherine Walsh (2013), la matriz colonial de poder no desaparece, se reconfigura permanentemente. Y hoy se viste de aplicación educativa, de «asistente inteligente» y de promesa de eficiencia.

No estamos ante una simple actualización de herramientas. Asistimos a un cambio de paradigma en la gobernanza educativa, donde el derecho a la educación se subordina al mercado de datos. Y frente a eso, quien escribe no puede quedarse en la fría academia. Esto es un grito, un cuerpo que se sabe observado, una maestra que vio cómo ClassDojo convertía los abrazos en puntos y los silencios cómplices en alertas.

La narrativa hegemónica nos presenta a la Inteligencia Artificial como una entidad aséptica, casi divina. Mentira. El código es una construcción social, atravesada por los privilegios y cegueras de quienes lo escriben. Un informe de la UNESCO (2023) fue contundente: los datasets de entrenamiento reflejan, mayoritariamente, la cosmovisión de hombres blancos del Norte Global. Esto no es un error técnico, es una decisión política. Y perpetúa, en silencio, sesgos de género, raza y clase.

En nuestra región, esa «pureza matemática» se estrella contra la carne de la realidad. La CEPAL (2024) documentó algo que muchas estudiantes indígenas ya sabían: los sistemas de proctoring (vigilancia remota) como ProctorU interpretan como «sospechosa» la latencia causada por los cortes eléctricos en zonas rurales. Castigan la pobreza. También penalizan los patrones de habla de estudiantes bilingües (quechua-español, aimara-español), etiquetando como «anomalía» lo que es, simplemente, otra forma de habitar el lenguaje. ¿Casualidad? No. Es la hybris del punto cero, el ojo que todo lo ve pero que nunca se posiciona, que nunca se pregunta desde dónde mira.

Como nos recuerda Ricaurte (2024): «El colonialismo de datos no es solo extracción, sino la imposición de un orden epistémico que borra periferias, lenguas y resistencias». Google Classroom operando en Venezuela sin controles soberanos no es un vacío legal: es una decisión de poder. El informe de la ONG Acceso (2025) es escalofriante: la recolección de datos biométricos en planteles públicos no busca mejorar el aprendizaje, sino alimentar modelos de comportamiento para mercados predictivos. Nuestros niños y niñas, sin saberlo, están entrenando a quien los vigila.

Del Derecho a la Educación al Mercado de Datos

El aula ha dejado de ser, en muchos casos, un espacio de encuentro para convertirse en un campo de entrenamiento gratuito para la Big Tech. En naciones como Guatemala y Bolivia, la penetración de Microsoft Education ha desplazado la autonomía curricular. Ya no decide el magisterio organizado, sino el licenciamiento de software. Renata Ávila (2023) lo advirtió con claridad: estamos delegando la soberanía pedagógica a entidades cuyo fin último es el lucro, no la liberación. Y eso, desde una mirada feminista, es profundamente violento, porque despoja a las comunidades de su capacidad de decidir sobre sus propios cuerpos y sus propias historias.

El profesor Luis Bonilla-Molina (2025), desde la trinchera venezolana, identifica esto como el «apagón pedagógico global». La tecnología no llega para potenciar al docente, sino para desplazarlo hacia el rol de «facilitador de plataforma» o monitor de métricas. Herramientas de gestión conductual como ClassDojo transforman la disciplina en un sistema de puntos algorítmicos. Adiós al diálogo, adiós a la ternura, adiós a la pedagogía del oprimido. Hola al refuerzo positivo programado, a la vigilancia continua, a la producción de subjetividades dóciles.

Comparativa de Vulnerabilidad de Datos Educativos entre Europa y Latinoamérica

Región Marco Regulatorio (RGPD/Local) Uso de Datos por Terceros Riesgo Identificado
Europa Alto (Protección estricta con mecanismos de sanción) Restringido por defecto Privacidad individual (riesgo acotado)
Latinoamérica Débil, fragmentado o inexistente (salvo contadas excepciones) Hasta un 70% de las plataformas según Privacy International (2024) Perfilamiento político, comercial y discriminación estructural

La vulneración de la Ley de Protección de Datos Personales es sistemática. Pero ojo, no es solo un problema legal. El docente, abrumado por la precariedad laboral, la falta de conectividad real y la presión por «innovar», se ve forzado a utilizar herramientas privativas que monetizan la privación de sus estudiantes. Culparlo a él o a ella sería una crueldad. La responsabilidad es del modelo.

También es urgente hablar de lo que la «nube» esconde. Porque la nube no es vapor. Son cables submarinos que atraviesan nuestros océanos sin dejar regalías, son minas de litio en el Salar de Uyuni o el Triángulo del Litio, son centros de datos que, según la Agencia Internacional de la Energía (IEA, 2025), consumen volúmenes de energía superiores a países enteros. El almacenamiento de las tareas escolares de nuestros niños en servidores de Virginia (EE.UU.) o Dublín (Irlanda) implica un costo ambiental brutal que pagan comunidades del Sur Global mediante el extractivismo hídrico para enfriar esos mismos servidores. ¿Quién le devuelve el agua a la comunidad de Quillagua? ¿Quién repone el territorio arrasado por el coltán? Desde una ecología de saberes feminista, no podemos separar la opresión digital de la opresión territorial. Es un mismo sistema.

Frente a esta ofensiva digital, la respuesta no es la desconexión nostálgica (eso sería un luddismo romántico que no nos sirve), sino la apropiación crítica y colectiva. Siguiendo a Paulo Freire (1996), si la educación es un acto político, la tecnología también debe serlo. Y desde la comunicación popular, sabemos que no hay herramienta buena o mala en sí misma, sino que depende del uso organizado y consciente que le demos. Propongo, desde la escucha y la práctica, tres caminos:

  1. Validación de lo No-Computable: Reconocer con orgullo que los saberes ancestrales (el cultivo de la milpa, la medicina mapuche, las lógicas comunitarias de las comunas venezolanas) poseen una complejidad que el algoritmo no puede ni debe capturar. No todo es dato. No todo es medible. La ternura, el silencio compartido, la palabra dicha en círculo, son resistencia.
  2. Auditorías Sociales de Algoritmos con Sabor a Pueblo: Institucionalizar asambleas escolares donde la comunidad educativa —madres, padres, estudiantes, docentes, personal de servicio— decida qué datos se entregan, para qué y a quién. Exigir transparencia, como hace la valiente Fundación Datos Protegidos en Chile. No se trata de tener miedo, sino de tener poder para decidir.
  3. Soberanía Tecnológica desde Abajo: Fortalecer y replicar iniciativas para el desarrollo de software libre, modelos de IA entrenados con contextos situados y, sobre todo, redes comunitarias que no dependan de la gran corporación. La soberanía no se compra, se construye en el barrio, en la escuela, en la lucha.

El colonialismo digital es la cara contemporánea de la antigua ocupación. Cambiaron los barcos por fibra óptica, pero el objetivo es el mismo: el control de la riqueza (ahora los datos) y la domesticación de las mentes. Sin embargo, no todo está perdido. La verdadera innovación educativa en América Latina no vendrá de Silicon Valley, sino de la capacidad de nuestras aulas, patios, asambleas y radios populares para transformarse en trincheras de pensamiento crítico y soberanía intelectual. Porque, como diría el maestro Freire, nadie libera a nadie, nadie se libera solo, sino que nos liberamos juntos, en comunión, con la palabra y la acción. Y eso, ningún algoritmo lo va a poder nunca replicar.

Bibliografía Consultada

  • Acceso (2025).Datos Educativos en Venezuela: Vulnerabilidades Post-Pandemia y Resistencia Comunitaria. Informe de Derechos Digitales. Caracas.
  • Ávila, R. (2023).Manifiesto por la Soberanía Digital de los Pueblos. Ciudad de Guatemala: Editorial Al Margen.
  • Bonilla-Molina, L. (2025).El apagón pedagógico global y la ofensiva de las corporaciones tecnológicas. Buenos Aires: Editorial Cooperativa.
  • CEPAL (2024).Digitalización Educativa en América Latina: Riesgos, Oportunidades y Desafíos en la Era de la IA. Santiago de Chile: Naciones Unidas.
  • D’Ignazio, C., & Klein, L. F. (2020).Data Feminism. Cambridge: MIT Press. (Aporta a la crítica feminista de los datos).
  • Freire, P. (1996).Pedagogía de la Autonomía: Saberes necesarios para la práctica educativa. São Paulo: Paz e Terra.
  • IEA (International Energy Agency) (2025).Electricity 2025: Analysis and forecast to 2027. Paris: IEA Publications.
  • Noble, S. U. (2018).Algorithms of Oppression: How Search Engines Reinforce Racism. New York: NYU Press. (Clave para entender sesgos raciales en algoritmos).
  • Privacy International (2024).EdTech Surveillance in the Global South: A Critical Review of Policies and Practices. London: Privacy International.
  • Ricaurte, P. (2024).Epistemologías de datos y colonialidad del poder. México D.F.: Digital Future Society / Tec de Monterrey.
  • Simbürger, E., & Sandoval, J. (2024). Auditorías sociales de algoritmos: Experiencias desde el sur. EnRevista Latinoamericana de Comunicación y Derechos Digitales, 7(2), 45-67.
  • UNESCO (2023).Gender and AI in Education: Tackling the Bias and Building Inclusive Systems. Paris: UNESCO Publishing.
  • Walsh, C. (2013).Pedagogías decoloniales: Prácticas insurgentes de resistir, (re)existir y (re)vivir. Quito: Ediciones Abya-Yala.

Comparte este contenido:

REDEM: Tomar notas a mano para un mejor procesamiento

Tomar notas a mano para un mejor procesamiento

En muchas aulas, las clases magistrales transcurren rápidamente, dejando poco tiempo para que los alumnos asimilen la nueva información. En la escuela secundaria Cedaredge en Delta, Colorado, el profesor de estudios sociales Dante Markley incorpora pausas intencionadas para que sus alumnos de décimo grado puedan detenerse, reflexionar y comprender lo que están aprendiendo, procesando sus ideas en apuntes escritos a mano.

Él llama a esta estrategia «Detente y piensa». A medida que Markley introduce nuevos contenidos —como una lección sobre cuestiones laborales durante la Edad Dorada—, hace pausas en momentos clave para destacar las ideas más importantes. Luego, plantea de una a tres preguntas y pide a los estudiantes que respondan por escrito. En lugar de continuar de inmediato, los estudiantes se toman un tiempo para pensar, organizar sus ideas y escribir sus respuestas en sus cuadernos.

Estas pausas se producen a lo largo de la lección, brindando a los estudiantes oportunidades regulares para procesar la información mientras aún la tienen fresca. Una vez que terminan de escribir, indican que están listos y pueden consultar con un compañero para discutir sus ideas antes de continuar.

La escritura a mano es una parte fundamental de este proceso. Al escribir, los estudiantes no solo registran información, sino que también construyen su comprensión. Jim Heal, experto en ciencias aplicadas del aprendizaje de Learning Science Partners, explica que escribir requiere que los estudiantes decidan qué es lo más importante, organicen sus ideas y conecten la nueva información con lo que ya saben. «El acto de escribir es, en sí mismo, un acto de pensamiento», afirma.

Un estudio de 2025 demostró que la escritura a mano activa una red neuronal más amplia que la escritura a máquina, e involucra múltiples modos de procesamiento: motor, sensorial y cognitivo. Sin embargo, resulta más eficaz cuando los estudiantes deben sintetizar sus ideas al tomar apuntes a mano, en lugar de simplemente copiar textualmente lo que dice el profesor; por lo tanto, las pausas intencionadas son clave.

Para Markley, el impacto es evidente: «Por lo general, en las áreas donde lo han anotado, tenemos una retención mucho mayor».

Al dedicar tiempo a hacer pausas y escribir, Markley ayuda a los estudiantes a comprender mejor el contenido mientras lo aprenden. En su aula, la escritura es más que una herramienta para tomar apuntes: se ha convertido en una forma para que los estudiantes procesen, comprendan y recuerden nuevas ideas.

Para encontrar más estrategias que ayuden a los estudiantes a tomar mejores apuntes, lee el artículo de John Rich para Edutopia, “ 6 estrategias para tomar apuntes de alta calidad ”.

Fuente: edutopia.org

Fuente de la Información: https://www.redem.org/tomar-notas-a-mano-para-un-mejor-procesamiento/

 

Comparte este contenido:

Inteligencia artificial y género: cómo la IA puede ampliar la desigualdad laboral

Por: Anam Butt

La inteligencia artificial no decidirá por sí sola el futuro del trabajo. Lo harán las reglas que establezcamos y las prioridades que fijemos. Si la igualdad no forma parte del diseño, tampoco formará parte del resultado

La inteligencia artificial generativa ya está transformando el trabajo en todo el mundo. Pero lo está haciendo sobre mercados laborales que no son neutrales ni igualitarios. Y cuando una tecnología poderosa entra en un sistema desigual, rara vez corrige por sí sola las brechas existentes.

La IA no opera en el vacío. Se despliega en economías donde mujeres y hombres no tienen el mismo acceso a empleos, ingresos, estabilidad ni protección social. Sin una intervención deliberada, corre el riesgo de ampliar desigualdades que llevan décadas arraigadas.

Los datos lo confirman. Según la Organización Internacional del Trabajo (OIT), a nivel mundial los empleos dominados por mujeres tienen casi el doble de probabilidad de verse afectados por la IA generativa que los dominados por hombres: 29 % frente a 16 %. Entre los puestos con mayor exposición, la brecha es aún más pronunciada: 16 % frente al 3 %.

Las razones no son tecnológicas, sino estructurales. Las mujeres siguen concentradas en puestos administrativos y de oficina —auxiliares de nómina, recepcionistas, personal contable— donde predominan tareas rutinarias, predecibles y codificables. Son precisamente esas tareas las que la automatización puede asumir con mayor facilidad.

Los hombres, en cambio, están sobrerrepresentados en construcción, manufactura y oficios manuales. Son actividades físicas, variables y menos estandarizadas, mucho más difíciles de sustituir con sistemas automatizados. Un chatbot puede redactar una carta en segundos; no puede reparar una turbina.

Incluso dentro de las mismas ocupaciones persisten diferencias. Las mujeres tienden a concentrarse en tareas rutinarias y posiciones de menor jerarquía, mientras que los hombres ocupan con mayor frecuencia funciones analíticas, de supervisión o toma de decisiones. Estos roles tienden a complementarse con la tecnología más que a ser reemplazados por ella.

Nada de esto es casual. Responde a discriminaciones históricas, normas sociales persistentes, una distribución desigual del trabajo de cuidados y políticas económicas que condicionan quién accede a qué ocupaciones y en qué condiciones. El resultado es claro: ante el cambio tecnológico, las mujeres parten de una posición de mayor vulnerabilidad.

La tendencia es global. En el 88 % de los países analizados por la OIT, las mujeres están más expuestas a la IA generativa que los hombres. En economías como Suiza, Reino Unido o Filipinas, más del 40 % del empleo femenino se encuentra en ocupaciones potencialmente afectadas.

La exposición también varía según el nivel de ingresos. En países de altos ingresos, el 41 % de los empleos están expuestos a la IA generativa, frente al 11 % en los países de bajos ingresos. Esta diferencia refleja estructuras productivas distintas y brechas en preparación digital, pero también plantea una pregunta incómoda: ¿estamos preparando a quienes más lo necesitan para la transición tecnológica?

La IA no solo transforma ocupaciones existentes; también crea nuevas oportunidades. Se prevé crecimiento en sectores intensivos en tecnología. Sin embargo, las mujeres siguen estando subrepresentadas en los campos que diseñan, desarrollan y regulan estos sistemas. En 2022 representaban alrededor del 30 % de la fuerza laboral mundial en IA, una cifra prácticamente estancada en los últimos seis años.

Cuando las mujeres no participan en los espacios donde se diseña la tecnología, pierden acceso a empleos estratégicos y bien remunerados. Pero el problema va más allá del acceso individual. Si los equipos que desarrollan IA no son diversos, los sistemas reflejan el mundo tal como es —con sus desigualdades— en lugar de contribuir a transformarlo.

Pensar que la IA es objetiva por definición es un error. Los algoritmos aprenden de datos históricos. Y los datos históricos reflejan un mercado laboral donde las mujeres han enfrentado barreras sistemáticas. Si no se corrigen esos sesgos, pueden reproducirse a gran escala.

Sistemas de contratación entrenados con decisiones pasadas pueden reforzar liderazgos masculinizados. Herramientas que fijan salarios en función de historiales previos pueden perpetuar brechas salariales. Para mujeres que enfrentan discriminación interseccional —por raza, discapacidad, estatus migratorio o clase social— los riesgos se multiplican.

Esto no implica que la IA vaya a provocar una destrucción masiva de empleo femenino. La evidencia sugiere que el impacto afectará más a la calidad que a la cantidad del trabajo. La IA puede intensificar ritmos, aumentar la supervisión o reducir la autonomía. Pero también puede aliviar cargas administrativas, mejorar la productividad y facilitar la conciliación.

El efecto no está predeterminado. Dependerá de cómo se introduzca la tecnología y de quién tenga voz en ese proceso.

La IA ya puede utilizarse para promover la igualdad: detectar lenguaje sesgado en ofertas de empleo, analizar brechas salariales o prevenir la violencia y el acoso en el trabajo. Si se diseña de forma inclusiva y se regula de manera responsable, puede convertirse en una herramienta para fortalecer el trabajo decente.

Pero eso no ocurrirá automáticamente. Requiere políticas que reduzcan la segregación ocupacional, amplíen el acceso de las mujeres a competencias digitales —programación, alfabetización de datos, trabajo con sistemas automatizados— y garanticen su presencia en los equipos que diseñan y regulan la tecnología.

Requiere también fortalecer las instituciones del mercado laboral y el diálogo social, para que trabajadoras y trabajadores participen en las decisiones sobre cómo se implementa la IA en sus sectores.

La inteligencia artificial no decidirá por sí sola el futuro del trabajo. Lo harán las reglas que establezcamos y las prioridades que fijemos. Si la igualdad no forma parte del diseño, tampoco formará parte del resultado.

La pregunta no es si la IA transformará el empleo. La pregunta es si permitiremos que consolide brechas históricas o si la utilizaremos, por fin, para empezar a cerrarlas.

Anam Butt. Especialista en igualdad de género y no discriminación en la Organización Internacional del Trabajo (OIT).

Fuente: https://www.eldiario.es/opinion/tribuna-abierta/inteligencia-artificial-genero-ia-ampliar-desigualdad-laboral_129_13034426.html

Comparte este contenido:
Page 1 of 2501
1 2 3 2.501