Page 1 of 49
1 2 3 49

«La IA permite una vigilancia total que acaba con cualquier libertad»

En su nuevo ensayo, ‘Nexus‘, el historiador y filósofo Yuval Noah Harari (Israel, 1976) enciende las alarmas sobre el creciente poder de la inteligencia artificial, el avance de la hipervigilancia y el debilitamiento de la conversación. Así, el autor de bestsellers como ‘Sapiens’ y ‘Homo Deus’ plantea una paradoja: si nuestra especie es tan sabia, ¿por qué somos tan autodestructivos? 


¿Qué diferencia a la inteligencia artificial (IA) de un totalitarismo o autoritarismo?

Los regímenes autoritarios controlan la esfera política y militar y el presupuesto, pero dejan que la gente tenga un margen. El rey o el tirano no puede saber lo que cada uno de nosotros hace o piensa cada minuto del día. Los regímenes totalitarios intentan precisamente hacer eso. Stalin en la Unión Soviética o Hitler en Alemania no solo querían controlar el ámbito militar y el presupuesto, sino la totalidad de la vida de cada uno de sus habitantes. Pero incluso Hitler y Stalin tenían límites frente al nivel de control de sus súbditos porque no podían seguir a todo el mundo constantemente, ni mucho menos disponer de unos 400 millones de agentes para vigilar y controlar a sus 200 millones de ciudadanos. La IA permite una vigilancia total que acaba con cualquier libertad, porque no necesita agentes para seguir a cada humano: hay teléfonos inteligentes, ordenadores, cámaras, reconocimiento facial y de voz… La IA tiene la capacidad de revisar una cantidad ingente de videos, audios, textos, analizarlos y reconocer patrones.

«La gente del sector de la IA está atrapada en una mentalidad de carrera armamentística»

¿Esto ya está sucediendo?

Por supuesto. En Israel hay territorios ocupados con cámaras y drones, siguiendo a todo el mundo constantemente. En Irán, donde las mujeres deben cubrir su rostro, hay cámaras de vigilancia con software de reconocimiento facial que identifica a las mujeres que, por ejemplo, van en su vehículo sin cubrirse la cara. Ellas reciben de inmediato en su teléfono móvil un SMS que les recuerda su falta y su castigo: la confiscación de su vehículo; deben descender del coche y entregarlo. La autoridad para castigarlas está en manos de la IA. No es un escenario de ciencia ficción ni algo que pasará en 100 años. Ya estamos viviéndolo.

¿Considera que debemos asumirnos como especie en peligro?

Sí, pues la IA es diferente a cualquier tecnología previamente inventada. No es una herramienta sino un agente independiente. Todas las anteriores tecnologías —la bomba atómica o las armas nucleares— tenían un inmenso poder destructivo, pero su poder estaba en las manos de los humanos, ellos decidían cómo y dónde usarlas. No sucede lo mismo con la IA, pues esta toma decisiones por sí misma. En el ámbito periodístico, las decisiones más importantes en un periódico están en manos de su editor. Un periodista puede escribir la historia que desee, pero, al final, es el editor quien decide qué publicar en la primera página del periódico. Ahora, en la mayoría de los principales medios de comunicación y plataformas digitales como Twitter y Facebook, el rol del editor ha sido reemplazado por la IA. Son algoritmos los que deciden cuál debe ser la historia recomendada, cuál debe ir en la parte alta del news feed. Ahora la IA no solo toma decisiones por su cuenta, sino que también crea ideales, en cuanto produce mil cosas nuevas por sí misma, desde textos, imágenes, etc.

«Los medios de comunicación integran la base de una democracia a gran escala»

¿Qué papel debe asumir la prensa para fortalecer la democracia?

Antes del mundo premoderno no conocíamos una democracia —la palabra «democracia» significa «conversación»— en sí, pues una conversación a gran escala era imposible. En una pequeña ciudad, sus habitantes podían reunirse en la plaza y conversar llegando a acuerdos, pero en un reino era técnicamente imposible mantener una conversación entre millones de personas. Una conversación a gran escala fue posible con la llegada de la tecnología de la información moderna, cuya primera herramienta fueron los periódicos que surgieron entre los siglos XVII y XVIII en Países Bajos o Inglaterra, en donde nacieron las primeras democracias de la historia. Luego llegaron otras nuevas tecnologías como el telégrafo, la radio, etc., demostrando que los medios de comunicación integran la base de una democracia a gran escala. Algunos dictadores de la era moderna empezaron como periodistas. Lenin antes de ser dictador fue editor de un periódico. Mussolini empezó como periodista socialista y después cambió de parecer y fundó un periódico fascista; era editor de un periódico y a partir de ese poder se convirtió en dictador de Italia. Hoy este poder está en manos de los gigantes: Facebook, Instagram y Twitter y en manos de sus algoritmos.

En este marco, ¿caben la libertad de expresión y la censura?

Si bien existe un fuerte debate sobre la responsabilidad de estos nuevos gigantes tecnológicos, cuando se les acusa de algo siempre hablan de la libertad de expresión: «Nosotros, por la libertad de expresión, no queremos censurar a nadie» y este tema está en el centro de la polémica. Estoy de acuerdo en que las empresas de redes sociales deben ser cuidadosas con el tema de la censura a sus usuarios, pero el problema no son los contenidos producidos por humanos sino las decisiones editoriales de los algoritmos.

«Insto a la gente a marcar la diferencia entre las decisiones de los usuarios humanos y las del algoritmo»

¿Qué pueden hacer las personas del común?

Insto a la gente a marcar la diferencia entre las decisiones de los usuarios humanos y las del algoritmo. Si el usuario humano decide inventar una historia, publicar fake news y mentir (tal vez por error o a propósito), en situaciones extremas, podría ser perseguido y castigado; en términos generales, la gente miente, pero en una democracia debemos tener cuidado antes de empezar a censurar. Además, creo que la gente tiene derecho a la estupidez, inclusive a decir mentiras —excepto cuando se vinculan a un delito—. No es bueno que la gente mienta, pero forma parte de la libertad de expresión. Sin embargo, el tema principal con esas teorías de conspiración y fake news no son las decisiones de los seres humanos protegidos por la libertad de expresión, sino las decisiones de los algoritmos de las corporaciones, pues su modelo de negocio se basa en la implicación del usuario.

 ¿Cómo describe el modelo de negocio de las empresas de redes de información?

La implicación del usuario es la base de todo. Si las personas pasan más tiempo en las plataformas, las empresas ganan más dinero pues venden más anuncios y recaban datos que más adelante venderán a terceros. Este es su modelo de negocio. Y persiguiendo este objetivo, los algoritmos de las empresas han descubierto que hay que diseminar fake news y teorías que aumentan las dosis de odio, miedo y rabia en los usuarios porque esto hace que la gente se implique, esté más tiempo en las plataformas y envíe enlaces para que sus amigos también se puedan enfadar y tengan miedo. De eso sí que deberían ser responsables las empresas porque esto no es libertad de prensa.

¿Qué pueden hacer las empresas de redes de información?

No hay que detener todo esto; simplemente hay que invertir más en seguridad, como sucede por sentido común en cualquier otro sector. Por ejemplo, si vas a fabricar un fármaco o una vacuna hay que invertir tiempo, esfuerzo y talento para que funcione sin generar efectos adversos. Si las empresas de IA invirtieran, por ejemplo, 20% de su presupuesto, su tiempo y talento en seguridad, sería un paso significativo que podría protegernos de su lado más pernicioso. Pero la gente del sector está atrapada en una mentalidad de carrera armamentística, de competidores, y de no dejarse ganar. Así que cuando les hablas de los peligros de la IA te responden: «Ahora estamos desarrollando la IA y si tenemos un problema en el camino, pues ya lo trataremos». Esto es muy peligroso porque es como si alguien pusiera en la carretera un vehículo sin frenos y dijera: «Solo queremos que vaya lo más rápido posible y, si luego hay un problema en carretera con los frenos, inventaremos algo cuando eso suceda». Esto no funciona así en los vehículos y tampoco debería hacerlo en la IA.

«La IA tiene un potencial enorme; no creo que toda la gente en Silicon Valley sea malvada»

¿Algo positivo o aporte de IA a la humanidad?

Sin duda, la IA tiene un potencial enorme; no creo que toda la gente en Silicon Valley sea malvada. La IA puede darnos a todos la mejor atención sanitaria, pues hay falta de médicos en muchos países y la IA podría crearlos; inclusive, el médico de IA puede actualizarse a diario con los descubrimientos, estudios y desarrollos que se producen en todo el mundo. El médico IA puede estar 24 horas con nosotros mientras que los médicos humanos no pueden (además, el médico IA es más barato). En este sentido, dentro de 20 o 30 años la IA podrá crear la mejor atención sanitaria incluso en zonas remotas o de pobreza extrema. Ahora, en el campo de la prevención de accidentes de tránsito, muchas veces los siniestros son producidos por errores humanos, pero cuando le das a la IA el control de un vehículo autónomo, esta no se va a dormir al volante, no bebe alcohol y luego conduce, etc. No hay tecnología perfecta, pero creo que automatizar la conducción salvará millones de vidas.


Esta entrevista hace parte de un acuerdo de colaboración entre el periódico ‘El Tiempo‘ y ‘Ethic’. 

Fuente de la información e imagen:  https://www.anred.org

Comparte este contenido:

Los algoritmos no tienen vida propia

Por: Raúl Zibechi

La masificación del uso de la inteligencia artificial (IA) y la naturalización de sus resultados no va de la mano de una comprensión de sus mecanismos, de quiénes la promueven, con qué intereses y objetivos. Si no realizamos este ejercicio, seremos víctimas pasivas de modos que no conocemos.

En reciente entrevista el historiador y filósofo Yuval Harari sostiene que la IA permite “una vigilancia total que acaba con cualquier libertad” (https://goo.su/BndfI4R). Advierte que la capacidad de vigilancia supera ampliamente la de cualquier dictadura o régimen totalitario, ya que a través de las cámaras de vigilancia con capacidad de reconocimiento facial y de los teléfonos celulares, tiene la capacidad de controlar las más mínimas actitudes de todas las personas en todas partes adonde llegue Internet.

En lo personal, he comprobado que me envían publicidad de productos o de marcas de las cuales estoy hablando con mi familia y amigos, casi inmediatamente. Sabemos que la IA permite escuchar a través de los celulares cualquier conversación, por más íntima que sea, todo movimiento y comunicación que hagamos.

Harari dice que “la IA es diferente a cualquier tecnología previamente inventada”, porque a diferencia de las tecnologías anteriores, no está en manos de seres humanos ni es una herramienta que debe ser activada por personas, sino “un agente independiente” que tiene la capacidad de tomar decisiones propias “por sí misma”. Sostiene que en los medios de comunicación, que “integran la base de una democracia a gran escala”, ya no son los editores los que toman las decisiones editoriales, sino que “son los algoritmos los que deciden cuál debe ser la historia recomendada”.

Creo que muchos de los argumentos de Harari son interesantes y que su denuncia de la manipulación masiva de la información es muy importante. Da un paso más aún, para profundizar en las consecuencias de la IA: “Los algoritmos de las empresas han descubierto que hay que diseminar fake news y teorías que aumentan las dosis de odio, miedo y rabia en los usuarios, porque esto hace que la gente se implique, esté más tiempo en las plataformas y envíe enlaces para que sus amigos también se puedan enfadar y tengan miedo”.

Concluye que este es un modelo de negocio porque “la implicación del usuario es la base de todo”, de modo que el tiempo que cada usuario pasa en las plataformas lleva a que las empresas ganen más dinero, pues venden más anuncios y, sobre todo, “recaban datos que más adelante venderán a terceros”. Un análisis bien interesante, que remata con una frase demoledora: “La gente del sector está atrapada en una mentalidad de carrera armamentística, de competidores, y de no dejarse ganar”.

Creo, sin embargo, que faltan dos aspectos para completar el cuadro porque, de no hacerlo, se puede perder el contexto de lo que verdaderamente está sucediendo: la primera es que los algoritmos no tienen vida propia, sino que han sido creados por el sistema para mejorar sus ganancias, profundizando el control de nuestras mentes. La segunda, es que la historia del capitalismo es, precisamente, ésta.

Cuando Harari sostiene que la IA toma decisiones por sí misma, esto es sólo parcialmente cierto si miramos sólo la tecnología pero no quienes la crearon y la manejan para conocer aún los deseos más profundos de las personas.

En segundo lugar, debemos remontarnos a la historia del panóptico, del taylorismo y del fordismo para ver cómo se ha ido profundizando el control del capitalismo.

El panóptico surge en los ejércitos. Las tiendas de campaña de los soldados debían estar rigurosamente alineadas para que los oficiales detectaran el menor movimiento. Luego se trasladó a las cárceles, los hospitales, los centros de enseñanza, las fábricas; siempre para acotar la autonomía de las personas. Las cámaras que se multiplican en nuestras ciudades tienen el mismo objetivo.

En las fábricas, en el periodo de la manufactura, el obrero especializado controlaba las máquinas y sus tiempos de trabajo. Hacia fines del siglo XIX se impuso la “organización científica del trabajo” ideada por Frederick Taylor, que dividía las tareas entre quienes ejecutan movimientos y quienes planifican y dan órdenes. El objetivo era convertir al obrero en un “gorila amaestrado”, sometido a las máquinas, capaz sólo de hacer movimientos precisos y cronometrados.

Con la cadena de montaje creada en las fábricas Ford, se cierra un primer ciclo de control de los obreros, luego profundizado con el “toyotismo”, cuando los trabajadores lograron neutralizar los modo anteriores de explotación, en la década de luchas obreras de 1960.

El perfeccionamiento de las tecnologías para el control de la vida, de la naturaleza y de todo lo humano, es la seña de identidad del capitalismo. De ese modo aumenta sus ganancias, sometiendo más y más a los seres humanos. Surgirán nuevas y más sofisticadas formas de control, porque los de abajo siempre encuentran modos de resistir y burlar a los de arriba.

Desde Abajo

Comparte este contenido:

Inteligencia Artificial y Educación: ¿Herramienta de Emancipación o Nueva Forma de Alienación?

Inteligencia Artificial y Educación: ¿Herramienta de Emancipación o Nueva Forma de Alienación?

Luis Bonilla-Molina

  1. Introducción

Vivimos en una era donde la inteligencia artificial (IA) basada en redes neuronales se integra cada vez más en la educación. Desde plataformas de aprendizaje automático hasta sistemas de tutoría automatizados, la promesa de personalización y eficiencia seduce a gobiernos y corporaciones. Pero, como educadores críticos, debemos preguntarnos: ¿la IA está ampliando el pensamiento crítico de nuestros estudiantes o simplemente reforzando estructuras de control y estandarización del conocimiento?

En este artículo intentaremos invitar a la reflexión colectiva respecto a las luces y sombras del uso de la IA generativa en los procesos de enseñanza y la forma como aprendemos. Evidentemente, el uso de la IA con fines educativos implica un quiebre sin precedentes con las rutinas y el performance pedagógico de los últimos 300 años. Hemos asumido como incuestionables los modelos de sistemas escolares, estructuras educativas y modelaje de las propuestas pedagógicas (didáctica, evaluativa, curricular, planificación y gestión del aula), a tal punto que nos da “escalofrío” pensar en otra forma de organizar los procesos de enseñanza y aprendizaje. Mi consejo es calmarnos y asumir que estamos en un momento de la historia donde todo esta cambiando como presagio de una transformación mucho más radical en educación.

El gran problema transicional a resolver, para quienes estamos en el campo de la pedagogía crítica es como este cambio opera en sociedades y sistemas escolares impactados por las diferencias de origen social de clase. Muchos gobiernos hablan de incorporar la innovación de la IA en instituciones sin electricidad ni agua, en escuelas rancho, cuyos estudiantes apenas si logran una comida al día. La IA no puede ser un espejismo para ocultar o desentenderse de la lucha por la justicia social y la democratización de la riqueza, por el contrario, ahora es más necesario. Todo ello tampoco puede ser un pretexto para darle la espalda a lo nuevo. La innovación tiene que llegar a todos en condiciones de igualdad.

El capitalismo y sus apologetas ya lo resolvieron diciendo que, si las dos primeras revoluciones industriales dejaron atrás a 1.200 millones de personas sin acceso al agua o la electricidad, la cuarta revolución industrial en su despegue dejará atrás a la mitad del planeta (Schwab, 2016). O sea, unos 4.000 millones de vidas. A la desvergüenza capitalista tenemos que responderle con la ética de la inclusión y la justicia social.

 

Presentación en power point del artículo

Inteligencia-Artificial-y-Educacion-Herramienta-de-Emancipacion-o-Alienacion

 

  1. Lo que no debería estar en debate

Este “escalofrío pedagógico” que recorre a los sistemas escolares ha generado que gobiernos conservadores y progresistas, de derecha, centro u izquierda, al unísono comiencen a prohibir el uso de celulares, cuando solo en el 2020 clamaban por su uso en medio de la cuarentena por la pandemia. La tecnología comienza a ser vista como enemiga de lo educativo, cuando en realidad afecta es la permanencia de las rutinas escolares conocidas durante los últimos 300 años.

Muchas universidades se atrincheran en una especie de romanticismo de seguir “perforando la roca con el cincel” antes que usar la IA en las aulas, porque le asusta que muchas rutinas puedan ser sustituidas por la IA. Le temen a que la reproducción mecánica desaparezca y se abra la posibilidad de liberar el pensamiento humano y la creatividad como centro de la producción académica. Claro es más fácil alimentar la cultura evaluativa y la bibliometría que asumir que el pensar sin repeticiones innecesarias y crear para enseñar cada día, que es la esencia del mundo universitario y no el Sísifo de la publicación de artículos que repiten paradigmas de manera incesante. La IA usada adecuadamente se puede encargar de rutinas repetitivas, mientras los docentes y estudiantes nos dedicamos a la creación, elevando el potencial transformador.

Pero nada es tan fácil. Las corporaciones tecnológicas sueñan con erradicar la presencialidad y conducir el presupuesto educativo a sus arcas, olvidando que hemos aprendido que el aprendizaje es un acto humano compartido, propio del encuentro y la reflexión. Para eso quieren usar la IA, debemos estar prevenidos, pero no por ello cerrarnos a explorar otras formas de uso.

No es lo mismo usar la IA en soledad que hacerlo juntos, no solo para aprender de los otros lo que no vemos cada uno, sino para construir un sentido colectivo de su uso.  La tecnología digital tiene que ser parte de la educación presencial, no su sustituto, para ello tenemos que construir un equilibrio entre tradición e innovación.

Lo que no podemos discutir a estas alturas es si la IA generativa debe o no ser parte de la educación en la tercera década del siglo XXI. Pero hay demasiada publicidad, pues aún la IA está en un estado embrionario de acuerdo a su potencialidad, por lo cuál debemos tener cuidado en dejar demasiados procesos pedagógicos  en sus manos en la actualidad. Veamos los límites actuales de la IA generativa

 

 

  1. Límites de la IA generativa basada en redes neuronales

En este artículo exploraremos cinco principios fundamentales de la IA, desde una perspectiva pedagógica crítica, analizando su impacto en las formas de aprender en la educación primaria y universitaria. Veamos cada uno de ellos.

  • Procesamiento Paralelo y Distribuido: ¿Plasticidad o Reduccionismo?

Las redes neuronales artificiales (RNA) imitan el funcionamiento del cerebro humano: consistente en múltiples nodos que procesan información en paralelo, generando patrones emergentes. Para Benítez, Cencerrado Barraqué y Escudero (2020), este principio cuestiona la visión reduccionista de la inteligencia como mera acumulación de datos.

Sin embargo, en la práctica educativa, la IA suele utilizarse para evaluar a los estudiantes con modelos predefinidos, ignorando la diversidad de procesos cognitivos. Un niño o adulto, quien resuelve un problema matemático de manera creativa puede ser penalizado por un algoritmo diseñado para reconocer solo respuestas estándar y cuyos patrones emergentes no hayan alcanzado la creatividad humana.

  • Aprendizaje Automático: ¿Innovación o Reproducción de Sesgos?

Se postula que el aprendizaje automático permite que las RNA mejoren con la experiencia, similar a cómo los seres humanos aprendemos a través de la práctica. Russell y Norvig (1995/2023) explican que estos sistemas reconocen patrones, establecen asociaciones y generan respuestas basadas en grandes volúmenes de datos.

El problema es que esos datos se agrupan con paradigmas de aceptación de desigualdades existentes. Si un sistema de IA es entrenado con información sesgada—como la predominancia de autores varones en ciertos campos académicos—terminará reforzando esas desigualdades. En educación, esto se traduce en plataformas de aprendizaje que privilegian contenidos hegemónicos y excluyen conocimientos locales, indígenas o comunitarios, mucho más la teoría crítica anticapitalista.

Por ejemplo, un sistema de IA entrenado para seleccionar estudiantes en una universidad podría, sin intención aparente, favorecer perfiles de sectores privilegiados si los datos históricos indican que estos tienen mejor desempeño en pruebas estandarizadas. Así, la IA reproduce una estructura de exclusión social. El problema es que instancias como el IESALC UNESCO, difunden iniciativas de este tenor como si fueran en la orientación correcta.

  • Adaptabilidad y Autoorganización: ¿Autonomía o Control Algorítmico?

Las RNA ajustan sus parámetros con retropropagación, lo que recuerda a la plasticidad sináptica del cerebro humano. La retropropagación es una forma de afrontar el error calculado en IA, usando la llamada cadena de cálculo diferencial, y se fundamenta en el “Forward Pass” (error entre lo esperado y lo obtenido, “Backward Pass” (error calculado se propaga hacia atrás en la red) y el “ajuste de pesos” (otorgar importancia en dirección opuesta al determinante del error).

Pero como advierte Jones (2018), esta adaptación carece de conciencia crítica. En el aula, esta automatización se traduce en sistemas de evaluación y asistencia que “se ajustan” al estudiante, pero sin considerar su subjetividad. Un algoritmo puede detectar que un estudiante tiene dificultades con la lectura, pero no comprenderá que esto se debe a problemas emocionales, fatiga o falta de acceso a libros en casa. Mucho menos es capaz de entender aún, los distintos tonos del capital cultural de cada estudiante.

La enseñanza, en cambio, requiere una comprensión dialéctica del aprendizaje. Los errores no solo indican deficiencias, sino también procesos de transformación. Un maestro crítico no se limita a corregir, sino que problematiza junto con sus estudiantes a partir de los errores o las omisiones, algo que una IA, con su lógica determinista, está limita de hacerlo en grupos grandes (al menos todavía).

 

Accede a video síntesis

 

  • Simulación de Funciones Cognitivas: ¿Inteligencia sin Conciencia?

Susan Schneider (2023) señala que, aunque las RNA pueden imitar la toma de decisiones humanas, carecen de subjetividad y conciencia. En educación, esto es crucial. Los asistentes virtuales pueden corregir textos, pero no captar la ironía, la creatividad o el contexto político de un ensayo. Un programa de IA puede generar una respuesta correcta, pero no tendrá la capacidad de cuestionar la premisa de la pregunta. ¿Queremos que nuestros estudiantes sean autómatas eficientes o pensadores críticos?

Un estudiante puede pedirle a una IA que escriba una reseña de 1984 de Orwell. La IA producirá un texto bien estructurado, pero sin la capacidad de hacer una crítica realmente situada y comprometida sobre el control tecnológico en la actualidad. Puede aproximarse a algunas críticas, pero no logra captar el sentido crítico anti sistema, porque eso sería un “error de salida”. Depende del docente guiar la discusión para evitar la reproducción mecánica del conocimiento.

  • Integración en Sistemas Socioeducativos: ¿Personalización o Estandarización?

Arroyo Sagasta et al. (2025) sostienen que la IA en educación promete personalización del aprendizaje, pero su implementación real tiende a estandarizar. Las plataformas educativas adaptativas ajustan contenidos según respuestas previas, pero dentro de un marco algorítmico rígido. El rendimiento individual desdibuja la construcción compartida de conocimiento.

Un caso evidente es el uso de plataformas como Khan Academy, que adaptan ejercicios según el rendimiento del estudiante. Pero estas herramientas no fomentan la construcción colectiva del conocimiento ni la reflexión crítica. La IA prioriza eficiencia, mientras que la pedagogía crítica prioriza la problematización y el debate.

  1. Acoplamiento Crítico entre IA y Mente Humana: Desafíos

Para evitar que la IA se convierta en un instrumento de alienación, debemos enfrentar de manera urgente, por lo menos nueve desafíos claves:

  • Epistemológico: La IA opera con lógicas deterministas, mientras que el pensamiento humano integra incertidumbre, ética y creatividad. La educación no puede reducirse a respuestas correctas o incorrectas.
  • Ético: La IA reproduce sesgos estructurales (género, raza, clase), lo que exige marcos regulatorios críticos. Si un algoritmo decide qué libros deben leer nuestros estudiantes, ¿quién programó ese algoritmo y con qué intereses?
  • Pedagógico: La “descajanegrización” (Artopoulos y Lliteras, 2024) demanda transparencia en los algoritmos para evitar la alienación tecnológica en las aulas. Si no comprendemos cómo decide un algoritmo, estamos delegando nuestra autonomía como educadores.
  • Operacional: resistir a la lógica del operario ilustrado que aprende a usar la IA pero desconoce como crearla. En educación se tiene que avanzar hacia la creación disruptiva de la IA.
  • Social: el acceso a la IA será desigual en la medida que se sostengan las actuales diferencias por origen social, en los procesos educativos. Luchar por políticas compensatorias desde la equidad, es decir que promuevan mayor apoyo a quienes menos poseen para reconstruir condiciones de igualdad de aprendizaje en las escuelas y universidades.
  • Humano: la IA no sustituye la presencialidad, sino que su uso ayuda a mejorar los tiempos de ejecución de labores en el aula que ocurrían de manera lenta en la era analógica. Esto puede hacer más eficiente en términos de transformación social el aprendizaje.
  • Creativo: la belleza de la creación artística está en el toque intersubjetivo entre creadores y resto de la sociedad, promoviendo sinergias donde todos seamos parte del arte de inventar. Esta perspectiva de artesano colectivo es una forma de posicionarse ante la creatividad instrumental de la IA.
  • Ecología: cada vez que usemos la IA debemos preguntarnos cuál es el impacto de ello en la sostenibilidad planetaria, colocando como prioritario el equilibrio ambiental.
  • Inclusión: la IA es una construcción humana, por lo tanto, no está exenta de estereotipos de raza, género, o clase. Siempre debemos estar vigilantes en ello.

 

 

Conclusión: IA, Educación y Emancipación

La IA basada en redes neuronales es una herramienta poderosa, pero no un sustituto de la educación crítica. Como advierten Schneider y Russell, no debemos subordinar la agencia humana a la eficiencia técnica.

En lugar de aceptar pasivamente la IA en nuestras aulas, o rechazarla a priori, debemos preguntarnos: ¿cómo podemos usarla para fortalecer el pensamiento crítico y no para imponer una pedagogía tecnocrática? Esto implica exigir transparencia en los algoritmos, desafiar los sesgos inherentes a los datos y, sobre todo, reafirmar la educación como un proceso colectivo de emancipación, no de domesticación.

La IA no debe reemplazar la labor docente ni la interacción humana en el aula. Nuestra tarea no es preparar estudiantes para adaptarse a la IA, sino formar ciudadanos capaces de cuestionar su impacto en la sociedad.

Pero la educación tiene que estar en capacidad de contribuir a que sus estudiantes y docentes tomen el control de esta innovación y la usen para mejorar el aprendizaje crítico, conscientes de sus límites y momentos en los cuales es necesario pulsar el off de las IA, para encender todo el potencial creativo en las aulas. Lo que no podemos permitir es que las IA nos apaguen por la inercia de su uso o la poca capacidad de situarnos críticamente ante ella.

Referencias

Artopulos & Literas (2024). Alfabetización crítica en IA: recursos educativos para una pedagogía de la descajanegrización”. Revista trayectorias universitarias, volumen 10, número 19. Universidad de La Plata. Argentina

Benitez, R y otros (2020) Inteligencia Artificial avanzada. Papel de trabajo. España

Jones, H (2018) Aprendizaje profundo. Alienta Editorial. España.

Russel, S y Norving, P. (2023). Inteligencia Artificial: un enfoque moderno. Pearson Educación. México.

Sagasta, A. (2025) Inteligencia Artificial y educación: construyendo puentes. Grao. España

Schneider, S (2023). Inteligencia Artificial: una exploración filosófica sobre el futuro de la mente y la conciencia. KOASN. España.

Schwab, K (2016) Cuarta Revolución Industrial. Ediciones debate. México.

 

 

 

 

Comparte este contenido:

Inteligencia artificial: ¿Motor de progreso o herramienta de colonización?

La inteligencia artificial (IA) es un concepto que ha evolucionado considerablemente desde su origen en 1956, cuando John McCarthy acuñó el término durante la Conferencia de Dartmouth. Su propuesta inicial era simular la inteligencia humana en máquinas, pero con el paso del tiempo la IA se ha convertido en algo mucho más amplio y transformador. Hoy en día la IA no solo sugiere canciones o productos, sino que se ha infiltrado en áreas clave de nuestras vidas, como la medicina, el transporte, la educación y la publicidad, jugando un papel crucial en la toma de decisiones personales, empresariales y gubernamentales con capacidad de modelar nuestro entorno e influir en nuestra toma de decisiones.

En este contexto, Latinoamérica se encuentra en una encrucijada: participar activamente en la construcción de su futuro digital o convertirse en un simple receptor de tecnologías desarrolladas en el extranjero. Este es un dilema histórico, en el que el control de la tecnología será crucial para determinar el equilibrio de poder global. La creciente centralización del poder tecnológico plantea una nueva forma de colonización: lo que algunos analistas, como el filósofo Miguel Benasayag, denominan colonización algorítmica. Esta colonización no es física, como las anteriores, pero sí tiene el potencial de subyugar a los pueblos a través de la manipulación de datos, algoritmos y plataformas tecnológicas que configuran sus economías, sus políticas e incluso su identidad cultural. En términos ideológicos, el economista Claudio Scaletta denomina la etapa actual del capitalismo como imperialismo tecnológico.

La IA no es una competencia entre tecnologías, sino la lucha por el control de los datos, los algoritmos y la infraestructura que sustentan las grandes plataformas tecnológicas. Estados Unidos y China libran una encarnizada batalla por la supremacía en este campo. Esta guerra tecnológica es una extensión de la competencia geopolítica, en la que los avances en IA se ven como una forma de garantizar la hegemonía global. El impacto de esta lucha es colosal, tanto para las economías nacionales como para los sistemas políticos globales. Con inversiones millonarias, ambos países se enfrentan en una guerra fría tecnológica que afecta áreas como la infraestructura 5G (en la disputa Google-Huawei) o la industria de los vehículos eléctricos (el reciente impuesto del 100 por ciento sobre los autos eléctricos de China para beneficiar a Tesla). Empresas tecnológicas como Google, Amazon y Microsoft invierten sumas que superan el PBI de muchos países y sin duda lideran la carrera.

Latinoamérica, con limitadas inversiones en investigación y desarrollo (I+D) y una infraestructura tecnológica desigual, está en clara desventaja frente a estas potencias. Esta dependencia de tecnologías extranjeras no solo amenaza la competitividad económica de la región, sino que también pone en riesgo la privacidad de las personas y la preservación de nuestra identidad cultural. Al depender de plataformas de IA, motores de búsqueda y redes sociales controladas por actores externos, nos convertimos en consumidores pasivos de información y poco a poco perdemos el control sobre nuestras decisiones. Los procesos electorales a nivel global ya se ven influidos por los sesgos de estas plataformas, como se evidenció en la participación de Elon Musk con X (ex-Twitter) en apoyo a Donald Trump.

En el caso de Estados Unidos, las grandes corporaciones como Amazon, Google, Microsoft y Tesla han destinado miles de millones de dólares a la investigación y desarrollo de la IA. Por ejemplo, Microsoft invirtió 24.500 millones de dólares en I+D en 2022, según publicó la Organización Mundial de la Propiedad Intelectual (OMPI) en 2024. Además, Microsoft ha invertido 10.000 millones de dólares en 2023 en la empresa OpenAI, desarrolladora de ChatGPT. Esto le asegura el uso de GPT-3 y posteriores en todos sus sistemas, como Copilot u Office. Sumas exorbitantes e inalcanzables para empresas que deseen competir en este mercado. Sin embargo, algunas lo intentan. Tal es el caso de la start-up alemana Aleph Alpha, que ha logrado recaudar apenas 500 millones de euros en financiación. Pese a la enorme disparidad en inversión, son varios los que ven a Aleph Alpha como la única empresa europea con capacidades para competir con los gigantes de Estados Unidos y de China.

China, por su parte, ha adoptado también una estrategia agresiva en su desarrollo de IA. Empresas como Baidu, Alibaba y Tencent están a la vanguardia de esta carrera tecnológica y China se ha establecido un objetivo ambicioso: convertirse en el líder mundial en IA para 2030. Sin embargo, de forma paradójica, mientras Estados Unidos intenta limitar el acceso de China a ciertas tecnologías, empresas como Microsoft han contribuido activamente al desarrollo de la industria tecnológica china, como lo demuestra el papel fundamental de Microsoft Research Asia en la incubación de la moderna industria de IA en China. Esto evidencia que, a pesar de la rivalidad de las potencias hegemónicas, las interacciones económicas entre ellas son mucho más complejas y por momentos las corporaciones se posicionan como los reales dueños de la pelota a nivel global.

Europa intenta no quedar atrás, consciente de que posiblemente ya no podrá ponerse a la par de Estados Unidos y de China en desarrollo tecnológico. Quizá por ello es que la estrategia de la Unión Europea se ha centrado fuertemente en la legislación y también en el apoyo a proyectos de pequeñas empresas que puedan crear IA con sesgo europeo, como el caso de Aleph Alpha. La start-up alemana dice tener desarrollos sofisticados, del nivel de OpenAI, pero no centra su desarrollo en el usuario final, sino en gobiernos y grandes corporaciones. Uno de sus últimos movimientos ha sido una alianza estratégica con la estadounidense Hewlett Packard Enterprise. Es que para toda empresa que quiera jugar en las grandes ligas es vital asegurar el acceso a hardware de alta calidad para su centro de datos; aspecto crucial para tener suficiente potencia de la GPU (chips de procesamiento gráfico en placas de video), el bien más preciado para el futuro de la IA generativa. Los analistas Patel y Nishball hablan de «pobres en GPU» o «ricos en GPU» en relación con el acceso o no a la capacidad de procesamiento. Esta capacidad es limitada, por cierto, y tiene en la estadounidense Nvidia casi que el único jugador. Este, a su vez, articula gran parte de su producción con el gigante TSMC (Taiwan Semiconductor Manufacturing Company). También la generación de energía es determinante en tanto los centros de datos son inmensos consumidores de electricidad.

La amenaza de la colonización algorítmica

El concepto de colonización
algorítmica
no es meramente una metáfora, sino una realidad con implicaciones profundas.
Los algoritmos que rigen nuestras plataformas digitales no son neutrales. Al contrario, están diseñados y entrenados según valores, intereses y sesgos específicos de sus creadores. Estos valores son, en su mayoría, de origen angloamericano y reflejan una visión del mundo que no necesariamente es representativa de la diversidad cultural, étnica y social de los países del Sur global. Miguel Benasayag, al hablar de este tipo de colonización, argumenta que los algoritmos no solo son herramientas, son fuerzas activas que modelan el mundo y uniformizan las realidades culturales, sociales y políticas, sin tener en cuenta la complejidad local.

Este fenómeno tiene implicancias directas sobre la autodeterminación de los países. La creciente dependencia de tecnologías extranjeras plantea preguntas sobre cómo se pueden preservar las identidades locales y cómo se puede garantizar que las decisiones tomadas por algoritmos reflejen una pluralidad de perspectivas. Un ejemplo claro de esto son los sesgos que existen en los sistemas de IA utilizados en los procesos electorales. Los algoritmos empleados por plataformas como Facebook, Google y X pueden influir en la opinión pública, exacerbando desigualdades existentes, como las de género, raza o clase. Además, los datos personales que se recogen y procesan sin el consentimiento adecuado pueden ser utilizados para manipular decisiones y comportamientos, agravando la opresión de los pueblos.

También es preocupación de analistas y de gobernantes el potencial uso indebido de la IA. Los riesgos surgen de la posibilidad de que agentes malintencionados utilicen sistemas avanzados de IA para fines dañinos o que incluso los propios sistemas de IA, al actuar de manera autónoma, persigan objetivos contrarios a los intereses humanos. Esto podría manifestarse en forma de ciberataques, desarrollo de tecnologías estratégicas para obtener ventajas competitivas en el ámbito militar o civil, o la manipulación de usuarios a través de técnicas de persuasión o desinformación. La pérdida de empleos por automatización, especialmente en tareas de baja cualificación, la concentración de poder económico en grandes corporaciones de IA, la perpetuación de sesgos en algoritmos y la dificultad para distinguir información verdadera de falsa son algunas de las problemáticas identificadas. Un informe de Goldman Sachs, de 2023, señaló que la IA podría reemplazar el equivalente a 300 millones de empleos de tiempo completo y podría aumentar el valor anual total de los bienes y servicios producidos a nivel mundial en un 7 por ciento.

Regulación de la IA: primeros pasos y desafíos para Latinoamérica

En el ámbito global la regulación de la IA también avanza de forma desigual. En la Unión Europea se ha propuesto la Ley de Inteligencia Artificial, que establece normas claras sobre cómo debe desarrollarse y utilizarse esta tecnología. Esta legislación prohíbe aplicaciones de IA que presenten riesgos inaceptables y exige transparencia y responsabilidad por parte de los proveedores. Europa está tratando de equilibrar el poder de las grandes corporaciones tecnológicas con la protección de los derechos de los ciudadanos y la autonomía política de los Estados miembros. La creación de marcos regulatorios como estos es crucial no solo para proteger a los ciudadanos, sino también para garantizar que la tecnología sea usada de forma ética y responsable.

Sin embargo, en Latinoamérica, el ritmo de la regulación es más lento. Aunque algunos países han comenzado a explorar la regulación de la IA, la región sigue siendo muy dependiente de las tecnologías extranjeras, lo que dificulta la implementación de políticas nacionales autónomas. En Brasil, el Plan de Inteligencia Artificial 2024-2028 establece principios éticos, medidas de capacitación laboral y estrategias para proteger los derechos humanos. Argentina, por su parte, ha iniciado el desarrollo de una ley sobre IA, siguiendo el modelo europeo, mientras que otros países, como Chile y México, también están avanzando en la creación de marcos legales para regular la IA.

Sin embargo, el desafío no es solo técnico o legislativo, sino también económico. La región carece de la infraestructura necesaria para desarrollar IA de manera autónoma. Las brechas en inversión y en capacidades de investigación y desarrollo limitan la posibilidad de que Latinoamérica se convierta en un jugador importante en el campo de la IA. En este sentido, países como Brasil están tratando de seguir el ejemplo de Europa, pero necesitan mucho más apoyo en términos de recursos financieros y humanos.

La brecha de inversión en tecnología: desafío para el Sur global

Uno de los principales desafíos que enfrenta el Sur global en la carrera por la IA es la disparidad en la inversión. Los gigantes tecnológicos de Estados Unidos y China invierten miles de millones de dólares en I+D, superando incluso el PBI total de varios países latinoamericanos. Por ejemplo, la española Statista toma datos de Nasdaq e informa que en 2020 Alphabet (Google) destinó 27.600 millones de dólares a I+D. En el informe de OMPI de 2024 se da cuenta de que la cifra aumentó en 2022 a 39.500 millones de dólares. Según las mismas fuentes, Amazon invirtió 43.000 millones de dólares en I+D en 2020 y esta cifra aumentó a 73.200 millones de dólares en 2022. Huawei, en China, invierte de forma sostenida cerca de 23.000 millones de dólares en iguales períodos.

Esta brecha en la inversión es un reflejo de la desigualdad global en el acceso a recursos tecnológicos. Las grandes potencias tienen el capital necesario para desarrollar tecnologías de punta, mientras que los países del Sur global deben depender de alianzas y colaboraciones con estos actores para acceder a las herramientas y a las plataformas más avanzadas. Además, la falta de infraestructura propia de computación de alto rendimiento y de acceso a componentes clave como las GPU coloca a la región en una posición de enorme desventaja.

En este contexto, iniciativas como la creación de centros de datos regionales, propuesta por el grupo de ciberseguridad del Mercosur del año 2014, o el desarrollo de infraestructura local de telecomunicaciones, como el proyecto Anillo de Fibra Óptica del Sur firmado en marzo de 2012 por los ministros de comunicaciones de los países miembros de Unasur (Unión de Naciones Suramericanas) y en el que participó el Banco Interamericano de Desarrollo con propuestas de financiamiento, adquieren una nueva relevancia. Estas iniciativas no solo tienen un valor estratégico en términos de soberanía tecnológica, sino que también se presentan como una forma de reducir la dependencia de actores externos y fomentar el desarrollo de capacidades locales.

¿Un futuro de progreso o de desigualdad?

La IA tiene el potencial de transformar nuestras sociedades; nadie lo duda. La forma en que se implemente y regule va a determinar si este proceso beneficiará a toda la humanidad o si, por el contrario, exacerbará las desigualdades globales. La clave para asegurar un futuro de progreso radica en la capacidad de los países del Sur global para tomar decisiones soberanas en el ámbito digital. Esto implica desarrollar políticas propias de IA, invertir en infraestructura y fomentar la investigación científica local.

Si Latinoamérica se embarca en la elaboración de políticas propias de IA, no solo protegería su identidad cultural, sino que también tendría la posibilidad de diseñar modelos de desarrollo económico basados en sus necesidades y prioridades locales. Esto podría abrir nuevas oportunidades en áreas como la educación digital, la medicina personalizada y el desarrollo de energías renovables, sectores que podrían ser impulsados por soluciones tecnológicas creadas y controladas de manera independiente.

Tal vez una importante pregunta sea: ¿queremos un futuro en el que la IA sirva como motor de progreso humano o uno en el que las grandes potencias utilicen esta tecnología para consolidar su dominio? Es probable que aún estemos a tiempo de responderla y de actuar en consecuencia.

Comparte este contenido:

La Crisis económica de las Inteligencias Artificiales. Video

Por: Luis Bonilla-Molina

Los últimos días hemos escuchado insistentemente sobre las posibilidades del estallido de la burbuja económica alrededor de las inteligencias artificiales o un nuevo crash económico global. Hemos hecho una primera exploración al respecto que queremos compartir con ustedes para contribuir a las reflexiones al respecto.

Un posible estallido de una burbuja económica vinculada a la inteligencia artificial (IA) podría surgir de una combinación de causas estructurales como problemas de fondo en el modelo económico o tecnológico y, causas coyunturales derivadas de factores temporales o externos. Intentaremos explorarlas de manera sucinta

Causas estructurales

Primero, sobrevaloración de empresas y expectativas irreales de realización. Muchas startups de Inteligencia Artificial, reciben valoraciones billonarias, sin modelos de negocio claros o ingresos sostenibles, o forman parte del mercado especulativo de acciones, que estiman valores irreales para las empresas.  Un ejemplo de ello son las empresas que prometen «IA general» sin avances reales sectoriales, con el propósito de atraer capitales de inversión con rendimiento a largo plazo. Hoy existe una creciente inversión en empresas sin rentabilidad probada y, las grandes empresas están sobrevaloradas, con base a posibilidades que parecieran irrealizables en el mediano plazo para las  IA.

Segundo, dependencia excesiva del capital de riesgo. El ecosistema de las Inteligencias Artificiales depende en gran medida de financiamiento especulativo, no de ingresos orgánicos. Si los inversores exigen rentabilidad a corto plazo, muchas empresas colapsarían.

Tercero, limitaciones tecnológicas no resueltas. El desarrollo actual de la Inteligencia Artificial, basada en los modelos de lenguaje, tiene límites. Estos límites vienen dados por el alto costo computacional, sesgos en los datos, incapacidad para razonar como humanos, y problemas de escalabilidad. Si no se superan estos obstáculos, podría surgir un «invierno de la IA», como ocurrió en los años 70 y 80, con anteriores decepciones respecto a la inteligencia artificial.

Cuarto, regulación y ética, como frenos para el crecimiento de la IA. Los gobiernos comienzan a imponer restricciones estrictas, ante riesgos como manipulación, desinformación, o desplazamiento laboral. Un ejemplo de ello ha sido el «AI Act» en la Unión Europea.

Quinto, costos de cumplimiento normativo que podrían hacer inviables las empresas pequeñas. Por ejemplo, la de carácter ecológico, especialmente sobre el uso del agua.

Sexto, saturación del mercado debido a la proliferación de soluciones similares, por ejemplo, la explosión de chatbots y herramientas de análisis de datos. Esto está conduciendo a una guerra de precios, como ocurre entre ChatGpt, Grok y DeepSeek, que no solo tiende a la marginación de beneficios, sino que expresa límites operativos en el mundo del trabajo occidental, ante condiciones laborales menos reguladas en los países asiáticos.  Esto puede generar una nueva ola de reformas laborales que precarice mucho más a la clase trabajadora occidental.

Causas coyunturales 

Primero, la crisis económica global en curso.  Una recesión reduciría la inversión en tecnologías consideradas «de riesgo», como la IA. Algo similar ocurrió con el colapso de mercados en 2008, que afectó a sectores innovadores.

Segundo, cambios en políticas monetarias. Las subidas de las tasas de interés, como las hechas por  la Reserva Federal en 2022–2023, pueden encarecer el crédito, perjudicando a empresas dependientes de financiamiento externo.

Tercero, la geopolítica global y la actual fragmentación de la innovación tecnológica de punta. Las tensiones entre EE.UU. y China podrían hacer constante la interrupción de las cadenas de suministro, que son críticas para la inteligencia artificial, como los  chips para GPUs o, podrían limitar las colaboraciones internacionales en materia de Inteligencia Artificial, que se convertiría en alto riesgo de disparidad en los desarrollos tecnológicos regionales.

Cuarto, potenciales escándalos o fallos de alto perfil, que se pueden prever a partir de pequeños incidentes que son escalables.  Un accidente grave, como podría ser sesgo racial en contrataciones de empleados o altos gerentes, errores médicos catastróficos ocurridos a partir del uso de Inteligencia Artificial,  o uso malicioso de las IA en el terreno político, como deepfakes en elecciones, erosionarían la confianza del público y los inversores.

Quinto, la competencia desleal entre gigantes tecnológicos. Empresas como Google, Meta o Microsoft podrían acaparar el mercado, ahogando a startups y reduciendo la innovación real.

Detonantes

En ese marco de elementos estructurales y coyunturales que potencian el estallido de la burbuja de las IA, podrían surgir posibles detonantes de ese cisma. Veamos cada uno de estos disparadores.

Primero, descalibrar la relación entre oferta y demanda, debido a que demasiadas empresas ofrecen soluciones de IA, pero pocas tienen clientes dispuestos a pagar precios altos.

Segundo, agotamiento de datos para entrenamiento, ya que todo apunta a la regulación del uso de datos y, si esto ocurre, si se bloquea el acceso a  fuentes de datos, por legítimas políticas de protección a la privacidad, o, se encarece el acceso a los mismos, el desarrollo de modelos de IA se estancaría.

Tercero, migración a tecnologías alternativas. Muchos vienen hablando de ello. Si surge un paradigma más eficiente que la IA basada en redes neuronales, el valor de las empresas actuales caería brutalmente, se desplomaría.

En conclusión, un estallido de la burbuja en la IA no es inevitable, pero los riesgos existen. Para evitarla, el capitalismo tiene la contradicción entre libre competencia y estricto control de la producción. Ya algunas voces empresariales comienzan a plantear que se necesitan modelos de negocios realistas, no solo hype. Pero ello tiene desafíos  técnicos, pues deben resolverse todas las limitaciones descritas. Por ejemplo, generar una Regulación equilibrada que no mate la innovación, inversiones en aplicaciones concretas en sectores como salud o logística, en lugar de promesas abstractas, sobre potencialidad de uso de las IA. Además, está el desafío de la lucha de clases, la legítima aspiración de la clase trabajadora a obtener mejores salarios y condiciones de trabajo en un contexto de expansión económica del sector. La historia sugiere que las burbujas estallan cuando la especulación supera a la realidad. En la IA, el desafío pareciera ser convertir el potencial teórico en valor tangible.

descarga aqui el Power Point de este material:

La-Crisis-Economica-de-las-Inteligencias-Artificiales

Comparte este contenido:

Inteligencia artificial: ¿Motor de progreso o herramienta de colonización?

La inteligencia artificial (IA) es un concepto que ha evolucionado considerablemente desde su origen en 1956, cuando John McCarthy acuñó el término durante la Conferencia de Dartmouth. Su propuesta inicial era simular la inteligencia humana en máquinas, pero con el paso del tiempo la IA se ha convertido en algo mucho más amplio y transformador. Hoy en día la IA no solo sugiere canciones o productos, sino que se ha infiltrado en áreas clave de nuestras vidas, como la medicina, el transporte, la educación y la publicidad, jugando un papel crucial en la toma de decisiones personales, empresariales y gubernamentales con capacidad de modelar nuestro entorno e influir en nuestra toma de decisiones.

En este contexto, Latinoamérica se encuentra en una encrucijada: participar activamente en la construcción de su futuro digital o convertirse en un simple receptor de tecnologías desarrolladas en el extranjero. Este es un dilema histórico, en el que el control de la tecnología será crucial para determinar el equilibrio de poder global. La creciente centralización del poder tecnológico plantea una nueva forma de colonización: lo que algunos analistas, como el filósofo Miguel Benasayag, denominan colonización algorítmica. Esta colonización no es física, como las anteriores, pero sí tiene el potencial de subyugar a los pueblos a través de la manipulación de datos, algoritmos y plataformas tecnológicas que configuran sus economías, sus políticas e incluso su identidad cultural. En términos ideológicos, el economista Claudio Scaletta denomina la etapa actual del capitalismo como imperialismo tecnológico.

La IA no es una competencia entre tecnologías, sino la lucha por el control de los datos, los algoritmos y la infraestructura que sustentan las grandes plataformas tecnológicas. Estados Unidos y China libran una encarnizada batalla por la supremacía en este campo. Esta guerra tecnológica es una extensión de la competencia geopolítica, en la que los avances en IA se ven como una forma de garantizar la hegemonía global. El impacto de esta lucha es colosal, tanto para las economías nacionales como para los sistemas políticos globales. Con inversiones millonarias, ambos países se enfrentan en una guerra fría tecnológica que afecta áreas como la infraestructura 5G (en la disputa Google-Huawei) o la industria de los vehículos eléctricos (el reciente impuesto del 100 por ciento sobre los autos eléctricos de China para beneficiar a Tesla). Empresas tecnológicas como Google, Amazon y Microsoft invierten sumas que superan el PBI de muchos países y sin duda lideran la carrera.

Latinoamérica, con limitadas inversiones en investigación y desarrollo (I+D) y una infraestructura tecnológica desigual, está en clara desventaja frente a estas potencias. Esta dependencia de tecnologías extranjeras no solo amenaza la competitividad económica de la región, sino que también pone en riesgo la privacidad de las personas y la preservación de nuestra identidad cultural. Al depender de plataformas de IA, motores de búsqueda y redes sociales controladas por actores externos, nos convertimos en consumidores pasivos de información y poco a poco perdemos el control sobre nuestras decisiones. Los procesos electorales a nivel global ya se ven influidos por los sesgos de estas plataformas, como se evidenció en la participación de Elon Musk con X (ex-Twitter) en apoyo a Donald Trump.

En el caso de Estados Unidos, las grandes corporaciones como Amazon, Google, Microsoft y Tesla han destinado miles de millones de dólares a la investigación y desarrollo de la IA. Por ejemplo, Microsoft invirtió 24.500 millones de dólares en I+D en 2022, según publicó la Organización Mundial de la Propiedad Intelectual (OMPI) en 2024. Además, Microsoft ha invertido 10.000 millones de dólares en 2023 en la empresa OpenAI, desarrolladora de ChatGPT. Esto le asegura el uso de GPT-3 y posteriores en todos sus sistemas, como Copilot u Office. Sumas exorbitantes e inalcanzables para empresas que deseen competir en este mercado. Sin embargo, algunas lo intentan. Tal es el caso de la start-up alemana Aleph Alpha, que ha logrado recaudar apenas 500 millones de euros en financiación. Pese a la enorme disparidad en inversión, son varios los que ven a Aleph Alpha como la única empresa europea con capacidades para competir con los gigantes de Estados Unidos y de China.

China, por su parte, ha adoptado también una estrategia agresiva en su desarrollo de IA. Empresas como Baidu, Alibaba y Tencent están a la vanguardia de esta carrera tecnológica y China se ha establecido un objetivo ambicioso: convertirse en el líder mundial en IA para 2030. Sin embargo, de forma paradójica, mientras Estados Unidos intenta limitar el acceso de China a ciertas tecnologías, empresas como Microsoft han contribuido activamente al desarrollo de la industria tecnológica china, como lo demuestra el papel fundamental de Microsoft Research Asia en la incubación de la moderna industria de IA en China. Esto evidencia que, a pesar de la rivalidad de las potencias hegemónicas, las interacciones económicas entre ellas son mucho más complejas y por momentos las corporaciones se posicionan como los reales dueños de la pelota a nivel global.

Europa intenta no quedar atrás, consciente de que posiblemente ya no podrá ponerse a la par de Estados Unidos y de China en desarrollo tecnológico. Quizá por ello es que la estrategia de la Unión Europea se ha centrado fuertemente en la legislación y también en el apoyo a proyectos de pequeñas empresas que puedan crear IA con sesgo europeo, como el caso de Aleph Alpha. La start-up alemana dice tener desarrollos sofisticados, del nivel de OpenAI, pero no centra su desarrollo en el usuario final, sino en gobiernos y grandes corporaciones. Uno de sus últimos movimientos ha sido una alianza estratégica con la estadounidense Hewlett Packard Enterprise. Es que para toda empresa que quiera jugar en las grandes ligas es vital asegurar el acceso a hardware de alta calidad para su centro de datos; aspecto crucial para tener suficiente potencia de la GPU (chips de procesamiento gráfico en placas de video), el bien más preciado para el futuro de la IA generativa. Los analistas Patel y Nishball hablan de «pobres en GPU» o «ricos en GPU» en relación con el acceso o no a la capacidad de procesamiento. Esta capacidad es limitada, por cierto, y tiene en la estadounidense Nvidia casi que el único jugador. Este, a su vez, articula gran parte de su producción con el gigante TSMC (Taiwan Semiconductor Manufacturing Company). También la generación de energía es determinante en tanto los centros de datos son inmensos consumidores de electricidad.

La amenaza de la colonización algorítmica

El concepto de colonización
algorítmica
no es meramente una metáfora, sino una realidad con implicaciones profundas.
Los algoritmos que rigen nuestras plataformas digitales no son neutrales. Al contrario, están diseñados y entrenados según valores, intereses y sesgos específicos de sus creadores. Estos valores son, en su mayoría, de origen angloamericano y reflejan una visión del mundo que no necesariamente es representativa de la diversidad cultural, étnica y social de los países del Sur global. Miguel Benasayag, al hablar de este tipo de colonización, argumenta que los algoritmos no solo son herramientas, son fuerzas activas que modelan el mundo y uniformizan las realidades culturales, sociales y políticas, sin tener en cuenta la complejidad local.

Este fenómeno tiene implicancias directas sobre la autodeterminación de los países. La creciente dependencia de tecnologías extranjeras plantea preguntas sobre cómo se pueden preservar las identidades locales y cómo se puede garantizar que las decisiones tomadas por algoritmos reflejen una pluralidad de perspectivas. Un ejemplo claro de esto son los sesgos que existen en los sistemas de IA utilizados en los procesos electorales. Los algoritmos empleados por plataformas como Facebook, Google y X pueden influir en la opinión pública, exacerbando desigualdades existentes, como las de género, raza o clase. Además, los datos personales que se recogen y procesan sin el consentimiento adecuado pueden ser utilizados para manipular decisiones y comportamientos, agravando la opresión de los pueblos.

También es preocupación de analistas y de gobernantes el potencial uso indebido de la IA. Los riesgos surgen de la posibilidad de que agentes malintencionados utilicen sistemas avanzados de IA para fines dañinos o que incluso los propios sistemas de IA, al actuar de manera autónoma, persigan objetivos contrarios a los intereses humanos. Esto podría manifestarse en forma de ciberataques, desarrollo de tecnologías estratégicas para obtener ventajas competitivas en el ámbito militar o civil, o la manipulación de usuarios a través de técnicas de persuasión o desinformación. La pérdida de empleos por automatización, especialmente en tareas de baja cualificación, la concentración de poder económico en grandes corporaciones de IA, la perpetuación de sesgos en algoritmos y la dificultad para distinguir información verdadera de falsa son algunas de las problemáticas identificadas. Un informe de Goldman Sachs, de 2023, señaló que la IA podría reemplazar el equivalente a 300 millones de empleos de tiempo completo y podría aumentar el valor anual total de los bienes y servicios producidos a nivel mundial en un 7 por ciento.

Regulación de la IA: primeros pasos y desafíos para Latinoamérica

En el ámbito global la regulación de la IA también avanza de forma desigual. En la Unión Europea se ha propuesto la Ley de Inteligencia Artificial, que establece normas claras sobre cómo debe desarrollarse y utilizarse esta tecnología. Esta legislación prohíbe aplicaciones de IA que presenten riesgos inaceptables y exige transparencia y responsabilidad por parte de los proveedores. Europa está tratando de equilibrar el poder de las grandes corporaciones tecnológicas con la protección de los derechos de los ciudadanos y la autonomía política de los Estados miembros. La creación de marcos regulatorios como estos es crucial no solo para proteger a los ciudadanos, sino también para garantizar que la tecnología sea usada de forma ética y responsable.

Sin embargo, en Latinoamérica, el ritmo de la regulación es más lento. Aunque algunos países han comenzado a explorar la regulación de la IA, la región sigue siendo muy dependiente de las tecnologías extranjeras, lo que dificulta la implementación de políticas nacionales autónomas. En Brasil, el Plan de Inteligencia Artificial 2024-2028 establece principios éticos, medidas de capacitación laboral y estrategias para proteger los derechos humanos. Argentina, por su parte, ha iniciado el desarrollo de una ley sobre IA, siguiendo el modelo europeo, mientras que otros países, como Chile y México, también están avanzando en la creación de marcos legales para regular la IA.

Sin embargo, el desafío no es solo técnico o legislativo, sino también económico. La región carece de la infraestructura necesaria para desarrollar IA de manera autónoma. Las brechas en inversión y en capacidades de investigación y desarrollo limitan la posibilidad de que Latinoamérica se convierta en un jugador importante en el campo de la IA. En este sentido, países como Brasil están tratando de seguir el ejemplo de Europa, pero necesitan mucho más apoyo en términos de recursos financieros y humanos.

La brecha de inversión en tecnología: desafío para el Sur global

Uno de los principales desafíos que enfrenta el Sur global en la carrera por la IA es la disparidad en la inversión. Los gigantes tecnológicos de Estados Unidos y China invierten miles de millones de dólares en I+D, superando incluso el PBI total de varios países latinoamericanos. Por ejemplo, la española Statista toma datos de Nasdaq e informa que en 2020 Alphabet (Google) destinó 27.600 millones de dólares a I+D. En el informe de OMPI de 2024 se da cuenta de que la cifra aumentó en 2022 a 39.500 millones de dólares. Según las mismas fuentes, Amazon invirtió 43.000 millones de dólares en I+D en 2020 y esta cifra aumentó a 73.200 millones de dólares en 2022. Huawei, en China, invierte de forma sostenida cerca de 23.000 millones de dólares en iguales períodos.

Esta brecha en la inversión es un reflejo de la desigualdad global en el acceso a recursos tecnológicos. Las grandes potencias tienen el capital necesario para desarrollar tecnologías de punta, mientras que los países del Sur global deben depender de alianzas y colaboraciones con estos actores para acceder a las herramientas y a las plataformas más avanzadas. Además, la falta de infraestructura propia de computación de alto rendimiento y de acceso a componentes clave como las GPU coloca a la región en una posición de enorme desventaja.

En este contexto, iniciativas como la creación de centros de datos regionales, propuesta por el grupo de ciberseguridad del Mercosur del año 2014, o el desarrollo de infraestructura local de telecomunicaciones, como el proyecto Anillo de Fibra Óptica del Sur firmado en marzo de 2012 por los ministros de comunicaciones de los países miembros de Unasur (Unión de Naciones Suramericanas) y en el que participó el Banco Interamericano de Desarrollo con propuestas de financiamiento, adquieren una nueva relevancia. Estas iniciativas no solo tienen un valor estratégico en términos de soberanía tecnológica, sino que también se presentan como una forma de reducir la dependencia de actores externos y fomentar el desarrollo de capacidades locales.

¿Un futuro de progreso o de desigualdad?

La IA tiene el potencial de transformar nuestras sociedades; nadie lo duda. La forma en que se implemente y regule va a determinar si este proceso beneficiará a toda la humanidad o si, por el contrario, exacerbará las desigualdades globales. La clave para asegurar un futuro de progreso radica en la capacidad de los países del Sur global para tomar decisiones soberanas en el ámbito digital. Esto implica desarrollar políticas propias de IA, invertir en infraestructura y fomentar la investigación científica local.

Si Latinoamérica se embarca en la elaboración de políticas propias de IA, no solo protegería su identidad cultural, sino que también tendría la posibilidad de diseñar modelos de desarrollo económico basados en sus necesidades y prioridades locales. Esto podría abrir nuevas oportunidades en áreas como la educación digital, la medicina personalizada y el desarrollo de energías renovables, sectores que podrían ser impulsados por soluciones tecnológicas creadas y controladas de manera independiente.

Tal vez una importante pregunta sea: ¿queremos un futuro en el que la IA sirva como motor de progreso humano o uno en el que las grandes potencias utilicen esta tecnología para consolidar su dominio? Es probable que aún estemos a tiempo de responderla y de actuar en consecuencia.

Comparte este contenido:

Manuel Area-Moreira: “La legislación prohibicionista de la tecnología móvil en las aulas es un error”

Por: Regina de Miguel

Prohibir el uso de la tecnología en el aula no protegerá a los menores de sus efectos dañinos; es necesario formar en su uso para que los estudiantes desarrollen una actitud crítica y responsable. Así lo cree Manuel Area-Moreira, que ha hablado de este y otros temas en esta entrevista.

El uso de las pantallas en las aulas ha ocasionado en los últimos tiempos una importante división entre aquellos que las defienden y los que que están en contra de ellas: mientras que los primeros destacan que se fomenta un aprendizaje personalizado, se desarrollan habilidades digitales o se garantiza el acceso a una mayor cantidad de recursos educativos, los segundos hablan de que los dispositivos tecnológicos afectan a la concentración o generan dependencia. Manuel Area-Moreira, catedrático de Tecnología Educativa de la Universidad de La Laguna (Tenerife) e investigador principal del Laboratorio de Educación y Nuevas Tecnologías (EDULLAB), defiende que lo que hay que hacer es formar a los estudiantes para que desarrollen un espíritu crítico, y sean capaces de interactuar con la tecnología, en especial con la inteligencia artificial, de un modo eficaz y seguro.

Pregunta: ¿Qué opina del acalorado debate que ha habido en redes y medios de comunicación en los últimos meses sobre el uso de tecnología en las aulas?

Respuesta: Hay demasiado ruido mediático y mucha confusión en este debate. Es comprensible el malestar y preocupación de las familias y de los docentes ante los efectos nocivos provocados por la sobreutilización de las pantallas por niños y adolescentes, pero considero que es un error la legislación prohibicionista de la tecnología móvil en las aulas. Lo preocupante (y criticable) es que este conjunto de regulaciones administrativas se plantea sin que ofrezcan simultáneamente medidas de actuación educativa ante los problemas enunciados. Subyace la creencia, ingenua a todas luces, que vetando o proscribiendo la presencia de las tecnologías móviles en los espacios escolares se protegerá, de forma casi mágica, a los menores de edad de los efectos dañinos de dichos dispositivos. Tampoco existe ninguna evidencia científica que impidiendo el uso de la tecnología en las aulas el alumnado mejorará su aprendizaje, o que evitará sus efectos negativos como son la tecnoadicción, el consumo de contenidos inapropiados o el ciberbullying. Estas prácticas nocivas de uso de la tecnología por adolescentes ocurren en el tiempo extraescolar, no en los centros educativos. En otras palabras, prohibir los móviles en las aulas no es la solución pedagógica más adecuada.

«Los docentes deben formar a los estudiantes como personas que tienen un equilibrio emocional para usar de manera consciente y autorregulada las redes sociales»

P: ¿Qué habilidades necesita desarrollar el profesorado ante la progresiva digitalización de las aulas? 

R: Todo docente, además de dominar el contenido o conocimiento que enseña, debe ser competente didácticamente, es decir, ser capaz de crear las condiciones para facilitar la adquisición del conocimiento por el alumnado. Tiene que ser, asimismo, competente digitalmente y poseer los saberes y las capacidades para utilizar la tecnología con fines pedagógicos. Esta competencia digital consiste en crear materiales didácticos en formato digital, planificar y desarrollar proyectos y actividades de aprendizaje a través de los recursos de Internet, tutorización y evaluar a su alumnado empleando las herramientas tecnológicas, autoformarse y colaborar online con otros colegas docentes, entre otras.

P: ¿Y los desafíos a los que se enfrenta?

R: El principal desafío docente es formar a su alumnado para que sean personas competentes, cultas y críticas que sepan desenvolverse exitosamente en la complejidad cultural y técnica de la sociedad digital. Esto es lo que se conoce como la formación o alfabetización para el desarrollo de la competencia digital del alumnado. Esta competencia no consiste solo en que los estudiantes aprendan a manejar aparatos tecnológicos y software, sino en desarrollar las habilidades intelectuales de alto nivel cognitivo (crear, analizar, comparar, seleccionar, reelaborar) que les permitan interactuar con la información y el conocimiento disponible en el ciberespacio. También debe formarse al alumnado para que sea un sujeto con actitudes, valores y compromiso con los demás. Paralelamente también implica formarles como personas con equilibrio emocional para el uso consciente y autorregulado de las redes sociales y tecnológicas.

Manuel Area-Moreira

P: ¿Qué limitaciones percibe en el uso de las tecnologías en estos momentos?

R: Más que limitaciones, diría que existen usos disfuncionales de la tecnología como son la excesiva dependencia y cantidad de tiempo conectados a la misma por parte de los menores de edad, el acceso a contenidos perniciosos o nocivos (violencia, pornografía, apuestas, acosos, etc.), difusión acelerada del narcisismo o exhibición pública de la vida privada, el consumo y aceptación acrítica de ideas y noticias falseadas… Todo esto son fenómenos preocupantes ante el sobreuso de las redes tecnológicas y necesitan respuestas educativas tanto desde las escuelas como desde los hogares.

P: ¿Cómo introduciría las TIC para garantizar un aprendizaje significativo y personalizado? 

R: Hace ya tiempo que sabemos que las TIC, por sí solas, no generan automáticamente aprendizaje en los estudiantes. Ocurre si detrás de la introducción de las TIC en el aula, el docente tiene un planteamiento pedagógico que estimule que el alumnado aprenda de forma activa, constructiva y experiencial. Esto supone articular planificaciones y metodologías didácticas donde se le pida al alumnado que sea un creador de objetos digitales de conocimiento (en formato texto, vídeo, audio…) que pueden compartirse y difundirse en Internet, favoreciendo el trabajo colaborativo y grupal tanto con sus compañeros de clase como con estudiantes de otros centros.  Las TIC deben ser utilizadas, didácticamente como recursos que facilitan y permiten al alumnado ser creadores del conocimiento y no meros consumidores del contenido que les proporcionen las pantallas.

«Las TIC garantizan un aprendizaje significativo y personalizado si el docente tiene un planteamiento pedagógico que estimule que el alumnado aprenda de forma activa, constructiva y experiencial»

P: ¿Qué hay que tener en cuenta a la hora de elegir plataformas y herramientas digitales?

R: En la selección de plataformas o herramientas digitales para ser empleadas educativamente debemos estar atentos a que las mismas cumplan una serie de requisitos básicos de respeto a la privacidad de los datos e informaciones personales. Necesitamos plataformas y herramientas digitales que no se apropien y exploten comercialmente los datos generados por los agentes educativos, sino que las mismas sean transparentes y estén al servicio de las necesidades del profesorado y alumnado.

P:¿Qué tecnologías tendrán un impacto mayor en la educación en los próximos años?

R: No soy profeta, pero es predecible que las tecnologías denominadas inteligentes son las que se extenderán e impactarán en los próximos años tanto en nuestra sociedad como en el ámbito educativo. Conceptos como las analíticas del aprendizaje, la tutorización automatizada, la personalización o individualización del aprendizaje, la automatización de los procesos instructivos… probablemente empezarán a estar generalizados en el campo educativo. Asimismo, creo que se producirá un aumento de las modalidades formativas híbridas que supongan una mezcla o combinación de situaciones de enseñanza presencial con espacios de aprendizaje virtuales.

P: En el caso de la inteligencia artificial. ¿Cómo puede esta tecnología mejorar el proceso de enseñanza y aprendizaje? ¿Cuáles son los retos más inmediatos que debe abordar?

R: Actualmente existen numerosas promesas, expectativas y herramientas sobre las aplicaciones de la Inteligencia artificial (IA) en la educación. De hecho, es muy fácil localizar actualmente en Internet cientos de apps que permiten a los docentes y al alumnado de forma automatizada y fácil crear imágenes, generar videos e infografías, traducir idiomas, elaborar resúmenes, redactar ensayos, planificar proyectos, etc.

«El peligro está en que los estudiantes plagien y asuman de modo acrítico lo que les digan las máquinas»

Mi punto de vista es que nos falta o carecemos de un planteamiento o modelo de actuación educativa para integrar didácticamente estas herramientas inteligentes en los procesos de enseñanza. No tiene sentido pedir a los estudiantes las mismas tareas intelectuales que se les solicitaba en los tiempos previos a la IA, ya que estas máquinas se las resuelven en poco tiempo y no suponen un esfuerzo cognitivo relevante en el aprendizaje.

El peligro está en que los estudiantes plagien y asuman de modo acrítico lo que les digan las máquinas. Por ello los nuevos retos formativos son que el alumnado aprenda a formular preguntas y sepa dar las instrucciones necesarias a la IA para que les ofrezca respuestas necesarias y apropiadas para resolver problemas específicos. Que el alumnado aprenda a desarrollar una actitud y de análisis crítico ante las respuestas que proporcione una IA y dialogue con la misma; que sepa que esta tecnología comete errores y por tanto debe verificarse la información que proporciona; y tome conciencia que es una herramienta de apoyo, pero que lo relevante son las personas quienes generan el conocimiento.

Fuente e Imagen: https://www.educaciontrespuntocero.com/entrevistas/manuel-area-moreira/

Comparte este contenido:
Page 1 of 49
1 2 3 49