ENRIQUE DÍEZ-GUTIÉRREZ | MAURO JARQUÍN RAMÍREZ
No se puede luchar contra la guerra y el genocidio si no politizamos su tecnología
La Inteligencia Artificial (IA) ha desembarcado en las universidades públicas. Departamentos y Facultades de todo el mundo han asumido y normalizado la incorporación y el uso de la IA de origen y control privado, respondiendo de forma casi automática a las campañas de marketing de grandes empresas y start-ups con el fin de “no quedarse atrás”.
Aprender a utilizar esta tecnología dentro de los marcos establecidos por los proveedores privados, así como su incorporación a la docencia, se ha convertido en un imperativo para enfrentar los “retos del siglo XXI”, que prioritariamente están determinados, cada vez más, por las necesidades y demandas de los mercados.
Esta narrativa dominante, “eficientista” y economicista, es extensiva a las distintas formas de tecnología digital en la educación superior y ha generado tal consenso y tal urgencia que, pese a enclaves críticos relevantes al interior de las universidades, de forma general se han dejado de lado consideraciones sobre las condiciones sociales e ideológicas de la producción de dicha tecnología (ONU, 2024).
No se ha cuestionado que la producción de IA está enmarcada en una cosmovisión del mundo específica, ni que está condicionada por un conjunto de prioridades económicas, políticas, ideológicas y sociales que la definen y la orientan. No se ha considerado el proceso social mediante el cual el “conocimiento producido socialmente” es extraído con el fin de ampliar las bases de datos que dan vida a dicha tecnología. Con ello, tampoco se han discutido las consecuencias del enriquecimiento corporativo a costa de la expropiación de la información colectiva.
En el ámbito universitario, el análisis de la IA se ha sustraído de su historia y contexto. Presentada como una herramienta lista para ser utilizada, sin considerar su condición de articulación técnica condicionada históricamente y fundada en el trabajo humano. Una tecnología que generalmente la comprendemos poco y aún menos la podemos controlar (Innerarity, 2019).
Plantear esto resulta clave porque, pese a que la discusión en torno a la IA ocupa paulatinamente un mayor espacio en la academia, esto no ha sido suficiente para lograr una pausa, un respiro, a nivel comunitario e institucional, que permita plantear una serie de preguntas y discusiones previas a su adopción. Esto incluso en un contexto global en el cual se ha demostrado el uso de la IA en procesos tales como el engaño de masas (Piacente, 2024), la desinformación (Perotti, 2024) e incluso el genocidio (Raiss, 2024), en los cuales el interés por la acumulación ha condicionado no solo el uso de la tecnología, sino también su diseño.
La pausa propuesta podría ser útil para superar los marcos interpretativos que se nos han impuesto en torno al desarrollo y el uso de tecnología digital en educación, los cuales aluden a los lugares comunes -aunque no por ello irrelevantes- respecto a los potenciales sesgos (sexo-genéricos, étnicos, de clase, etc.) en los resultados de la IA generativa, así como un potencial uso no ético de la misma, expresado, por ejemplo, en el fraude académico. Las condiciones sociales de la producción y distribución de dicha tecnología, donde confluye la explotación laboral, el impacto ambiental, la “caja negra” de sus algoritmos y el control de un reducido conjunto de megaempresas corporativas sobre sus condiciones de producción y uso, deben ser discutidas, porque la IA está afectando procesos fundamentales de la vida en común, tanto al interior de las Universidades, como fuera de ellas.
En este momento, resulta importante cuestionarnos la posibilidad de que, tal vez, la IA sea “una forma sofisticada de controlar las actividades y modificar las subjetividades de las personas a fin de incrementar las ganancias económicas” (Reyes, 2023) y de consolidar formas de opresión, y no únicamente una herramienta que el mundo de la ciencia ha desarrollado para “hacer nuestra vida más fácil” por medio de encargarse de tareas repetitivas y que consumen demasiado tiempo.
Genocidio en Palestina asistido por IA
Un ejemplo del nivel de impunidad epistémica que ha logrado la IA, así como de sus mecanismos de funcionamiento y del poder de las compañías proveedoras, es la invisibilidad de la cual ha gozado su uso respecto al genocidio palestino.
Como ha sido documentado, la IA ha tenido un papel relevante en el apartheid y el genocidio contra el pueblo palestino (Mhajne, 2023; Abraham, 2024; Gould et al., 2024). En mayo de 2021, el periódico The Jerusalem Post publicaba que la escalada de las fuerzas militares israelíes contra Hamás, denominada “Operation Guardian of the Walls”, era la primera guerra guiada por IA (Ahronheim, 2021). Los militares israelíes habían establecido una IA que centralizaba todos los datos sobre los grupos armados en Gaza, en un sistema que establecía los ataques a efectuar.
En 2023 Amnistía Internacional publicó el informe “Apartheid automatizado: cómo se fragmenta, segrega y controla a la población palestina mediante el reconocimiento facial”. En este, explicaba que tales instrumentos tecnológicos han sido usados para violar los derechos humanos y potenciar la guerra. Así, el apartheid de Palestina y la represión en Gaza se habían convertido en un «laboratorio» en el que experimentar con este tipo de prácticas (Amnistía Internacional, 2023; López, 2024).
Posteriormente, en abril de 2024, las revistas israelíes +972 Magazine y Local Call publicaron un reportaje sobre Lavender, una IA que opera a través de un avanzado sistema estadístico, el cual ha “asistido” los bombardeos israelíes en Gaza, con poca supervisión humana y un alto nivel de permisividad de personas asesinadas (Abraham, 2024) con lo cual ha mostrado una “tasa de error” muy alta que ha terminado con la vida de miles de personas y destruido infraestructura básica. Dicho programa se ha articulado con otras formas de IA para impulsar el actual genocidio del ejército israelí en la Franja de Gaza.
Resulta problemático que, pese al conocimiento público del uso bélico de la IA cada vez más extendido, así como a un generalizado rechazo de la campaña bélica israelí en medios universitarios del mundo, la discusión política global sobre la importancia de la tecnología y su rol se encuentre evidentemente desatendida. Esto contrasta con episodios históricos previos, donde una parte relevante del movimiento estudiantil desarrolló una crítica no únicamente a la violencia sobre los pueblos, el neocolonialismo y la guerra, sino también a las condiciones tecnológicas de su realización. En cierta medida, esto puede responder al nivel de integración que la tecnología digital ha logrado en nuestra vida cotidiana, con lo cual se ha despojado de todo vestigio de política, lucha o proceso social subyacente a su producción.
Protesta social y universidades. De Vietnam a Palestina
La brutalidad del ataque israelí sobre la población palestina, la sistemática violación de derechos humanos y los niveles de masacre continuada de población indefensa, generaron que la indignación mostrada a nivel global mediante movilizaciones masivas se expresara también en los campus universitarios.
El asesinato de más de 36.000 palestinos hasta el mes de abril de 2024, entre ellos más de 14.500 niños y niñas, así como la destrucción de cientos de escuelas y todas las universidades (Red Universitaria por Palestina, 2024), la devastación de viviendas, infraestructuras sanitarias, mezquitas y lugares patrimoniales palestinos, provocó el estallido de una “revuelta universitaria”. Manifestaciones, movilizaciones, tomas de campus, denuncias públicas, exigencias de suspensión de acuerdos y colaboración en investigaciones con el régimen israelí a los rectorados y autoridades académicas, jornadas de discusión y debate público en la calle y en las aulas, etc., fueron parte del abanico de estrategias y planes de acción definidos para intervenir políticamente en el debate sobre la situación palestina, y buscar así frenar la avanzada bélica de muerte y sufrimiento.
La irrupción del activismo universitario se extendió paulatinamente en distintas partes del mundo, con una participación importante también en Estados Unidos, donde a comienzos de mayo casi 3.000 estudiantes y personal académico de 61 campus habían sido detenidos (Rubin et al., 2024). En España, la policía irrumpió violentamente en los campus para desalojar acampadas universitarias, pese a que distintas universidades respaldaban institucionalmente las propuestas estudiantiles. En México, también colectivos estudiantiles, con su epicentro en la Universidad Nacional Autónoma de México (UNAM), decidieron organizar acampadas por Palestina, además de foros informativos y de discusión con la participación de la academia, estudiantes y otros integrantes de las comunidades universitarias.
A la luz de la revuelta universitaria estadounidense, que tomaba lugar también en otras partes del mundo, un periodista del New York Times apuntó que tal situación podía “evocar los fantasmas de 1968” (Blow, 2024) refiriéndose a la protesta estudiantil contra la guerra de Vietnam. Una lectura que fue compartida en otros medios y espacios de debate, identificando paralelismos entre el activismo universitario contra la masacre del pueblo palestino y el movimiento estudiantil contra la intervención estadounidense en Vietnam (Helmore, 2024; Rees, 2024).
No obstante, entre otros elementos contextuales, es posible identificar una diferencia fundamental entre ambas experiencias: el lugar que ocupa en la crítica a la campaña bélica la problematización de sus condiciones tecnológicas de desarrollo. En este ámbito, ha sido posible ver cómo, pese al uso sistemático de tecnología de punta por parte del ejército israelí, persiste una clara ausencia de discusión en torno al papel que ha jugado, en este caso, la IA. Un caso significativo si consideramos que al menos una parte de las protestas estudiantiles respecto a Vietnam se centraron en la tecnología usada para su desarrollo.
Si la campaña bélica de Israel es la primera guerra asistida por IA, la guerra de Vietnam fue la primera guerra en la historia asistida por eletronic data. Tal como explica Fisher (1988) hacia 1968, Estados Unidos había instalado computadoras en Saigón, con data procedente de Vietnam del Sur, el cual iba a ser utilizado para analizar cada faceta de la guerra mediante la cuantificación de procesos diversos, con lo cual se podían hacer análisis y recomendaciones bélicas. Esta inclusión de computadoras también en el ámbito bélico se llevaba a cabo en un contexto en el cual la burocratización de la sociedad estadounidense iba de la mano con la incorporación de tecnologías para la gestión y el control, una tendencia que paulatinamente se consolidaba también en la universidad.
Los efectos de la guerra contribuyeron a agudizar el malestar causado por la tecnificación y burocratización de la sociedad y las universidades, un proceso al cual los estudiantes críticamente se referían como La Máquina. La problematización de dicha metáfora de funcionamiento de la sociedad condujo a que en las universidades los estudiantes se rebelaran contra las técnicas que alcanzaban cada vez mayor presencia. Así, los estudiantes optaron por quemar las tarjetas perforadas -un instrumento muy utilizado en el momento para organizar procesos administrativos- tanto de matrícula como de reclutamiento, en protestas contra la guerra en Vietnam (Lubar, 1992). Grupos de estudiantes organizados gritaban “¡Paremos la máquina de guerra!”. Otros, de los cuales algunos derivaron en la consolidación del movimiento hippie, simplemente no querían formar parte de dicha máquina, y optaban por renunciar a la vida en la sociedad moderna. Otros más denunciaban: “¡Nuestras vidas están manipuladas por máquinas IBM” (Lubar, 1992, p. 54).
La tecnología se comprendía poco a poco en tanto una expresión del control que sometía tanto a la universidad como a los pueblos y estaba vigente en el proceso colonial. Mueller (2021) recuerda cómo, mientras la rebelión estudiantil contra la guerra en Vietnam crecía, también lo hacían las acciones contra las computadoras ubicadas en los campus, tanto a nivel discursivo como en términos de acción directa. Explica que Old Mole, una publicación estudiantil de Cambridge, Massachusetts, escribió en un artículo de 1969, titulado Let’s smash MIT: “El MIT no es un centro de investigación científica y social al servicio de la humanidad. Es parte de la maquinaria de guerra de EE.UU.”. Lo anterior estaba acompañado de actos como ocupaciones y tomas de centros, incendios o ataques físicos a centros de computación, tal como sucedió en Syracuse University, University of Wisconsin, NYU o Stanford.
Sectores importantes del movimiento estudiantil contra la guerra de Vietnam, consideraron importante el análisis y la acción frente a una técnica y tecnología que posibilitaba la opresión y habilitaba procesos como el colonialismo y el militarismo. Plantearon en llevar la discusión más allá de los resultados de la guerra, y desarrollaron una crítica práctica en torno a los medios tecnológicos de despliegue bélico, la cual al día de hoy resulta tanto pertinente como necesaria.
Politizar la tecnología en las universidades
Luchar contra la guerra y el genocidio desde las universidades requiere discutir profundamente no solo sus resultados sino también su aristas tecnológicas. Más aún, responder a las necesidades vitales del siglo XXI, conlleva que el sistema educativo sea un espacio de reflexión crítica y conocimiento sobre la tecnología en nuestra vida cotidiana, y no únicamente un espacio adaptativo respecto a los intereses de quienes la controlan.
Por su lado, la universidad pública no puede ser un espacio pasivo de conquista para una novedad tecnológica y sus compañías desarrolladoras. Es preciso superar el fetichismo tecnológico de ver en la IA esencialmente una herramienta disponible para utilizarla a placer, y con ello avanzar hacia consideraciones relevantes sobre los efectos de su producción, su distribución y su consumo en nuestra vida cotidiana y en el trabajo que realizamos día con día en las universidades.
La tecnología digital -y paulatinamente la IA- ha logrado un status de naturalidad, normalidad y habitualidad y se ha consolidado como una parte inherente e indispensable del entorno y la acción humana a tal punto que es difícil marcar límites respecto al acto de usarla, o terminar siendo usados por quienes la controlan. Se ha convertido en un enclave a menudo invisible de generación de ganancias, reproducción ideológica y creación de condiciones de ordenamiento social.
De forma acrítica, cursos, cátedras y capacitaciones en IA, así como en competencias digitales se ofrecen y se establecen continuamente. La academia, profesoras y profesores nos afanamos por incorporar la última novedad en su campo de investigación y docente, adoptando un discurso de modernización revestido de innovación para “adaptar la universidad al siglo XXI”. Las instituciones de educación superior invitan a docentes y estudiantes a formarse y profesionalizarse en el uso de herramientas de IA, sin un cuestionamiento ni un debate sistemático sobre el sentido y la finalidad de dicha tecnología. Cada vez se ofertan más cursos de actualización tecnológica en mercancías educativas (software o hardware) cuya utilidad educativa aún no resulta clara, pero que son impulsadas por campañas publicitarias fundadas en un discurso que ha logrado llegar al sentido común en el sector educativo.
Consideramos que, frente a una coyuntura de expansión corporativa en la política y educación globales, resulta un imperativo la politización de la tecnología en nuestras universidades, así como la creación de un debate amplio en torno a su finalidad y su sentido, lo cual debe conducirnos a plantear, entre otras cosas, también el control democrático y transparente y su regulación pública y abierta. No se trata de maquillar ese control con organismos o regulaciones paliativas como la reciente Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), cuya misión de vigilar la aplicación de esta tecnología y sus efectos en empresas e instituciones públicas, como se puede hacer con los alimentos o los medicamentos, supuestamente serviría para “avanzar hacia una IA confiable y ética”. Tenemos que caminar hacia una discusión plural que nos conduzca, en un primer momento, a una mayor transparencia en la implantación de la IA y hacia su auditoría (Castillo, 2024).
Politizar la tecnología implica, también, discutir las condiciones sociales y los actores implicados en su producción. Esto nos remite a pugnar por cambios en los mecanismos de toma de decisiones y formas de gobernanza que alteren la tradicional distribución de poderes en esa toma de decisiones (Subirats, 2016). Politizar la tecnología es tener acceso público y democrático para auditar sus algoritmos y tener capacidad de impedir que se sigan utilizando si reproducen discriminaciones, vulneran los derechos humanos o se utilizan para fines bélicos o genocidios como el de Gaza. Politizar la tecnología es decidir para qué la queremos, cómo utilizarla, y al servicio de qué fines sociales y políticos. En definitiva, esto se vincula a la apuesta por un control social y democrático, orientado al bien común, de una tecnología que actualmente está condicionando nuestra forma de pensar, relacionarnos, actuar, estudiar y construir el mundo que habitamos.
Mauro Rafael Jarquín Ramírez es profesor de la Universidad Nacional Autónoma de México y Enrique Javier Díez Gutiérrez de la Universidad de León (España).
Referencias:
Abraham, Y. (2024, abril 5). Lavender & Where’s Daddy: How Israel Used AI to Form Kill Lists & Bomb Palestinians in Their Homes. Democracy Now. https://bit.ly/3Rl9O8l
Amnistía Internacional (2023, mayo 2). Apartheid automatizado: Cómo se fragmenta, segrega y controla a la población palestina en los TPO mediante el reconocimiento facial. Amnistía Internacional. https://bit.ly/3RrqqLB
Blow, Ch. M. (2024, abril 24). The Ghost of the 1968 Antiwar Movement Has Returned. The New York Times. https://bit.ly/45kccC4
Castillo, C. del (2024, junio 19). La Agencia de Supervisión de la Inteligencia Artificial echa a andar entre quejas por dar de lado a la sociedad civil. El Diario.es https://acortar.link/pg2kQn
Fisher, D. (1988). Computers, electronic data and the Vietnam War, Archivaria, 26, 18-32.
Gould, L., Arentze, L. & Holjtink, M. (2024, mayo 2). Gaza war: artificial intelligence is changing the speed of targeting and scale of civilian harm in unprecedented ways, The Conversation, https://acortar.link/g3gUxX
Helmore, E. (2024, abril 29). Echoes of Vietnam era as pro-Palestinian student protests roil US campuses. The Guardian. https://bit.ly/3VBXseA
Innerarity, D. (2019, marzo 11). Lo digital es lo político. La Vanguardia. https://bit.ly/3VoM4RQ
López, V. (2024). Israel usa la inteligencia artificial como arma para afianzar el «apartheid» en Gaza. Público. https://acortar.link/Jbq0GW
Lubar, S. (1992). Do not fold, spindle or mutilate: A cultural history of the Punch Card, Journal of American Culture, 15(4), 43-55.
Mhajne, A. (2023, noviembre 2). Israel’s AI revolution: From innovation to occupation, Carnegie Endowment for International Peace, https://acortar.link/hgYPgn
Mueller (2021). Breaking Things at Work: The Luddites Are Right About Why You Hate Your Job. Verso.
ONU (2024). La militarización de la inteligencia artificial y el género. ONU. https://acortar.link/pGrrBc
Piacente, P. J. (2024, mayo 13). La IA ya es una maestra de la mentira y el engaño. Levante. https://bit.ly/3x4jRb3
Perotti, E. (2024, febrero 27). Desinformación e inteligencia artificial: ¿la revolución industrial? World Association of New Publishers. https://bit.ly/3xghli0
Raiss, A. (2024, junio 6). ‘Digital kill chains’: The dark side of tech in warfare. The Cradle. https://bit.ly/3yXQPdP
Red Universitaria por Palestina. (2024). Universidad, Gaza y genocidio: una ecología de guerra. Red Universitaria por Palestina. https://acortar.link/cgmWk2
Rees, J. (2024, mayo 18). The crucial difference between the Gaza and Vietnam student protests. Middle East Eye. https://bit.ly/4aYMdBk
Reyes, C. (2023). La inteligencia artificial no es neutral, El Viejo Topo, Julio-Agosto, Núm. 426/427
Rubin, A., Beheraj, K., Lysik, T., & Chase, W. (2024, mayo 10). Mapped: Where pro-Palestinian student protesters have been arrested. Axios. https://bit.ly/45hZBPT
Subirats, J. (2016). Internet y democracia. Politizar la transformación tecnológica. Gaceta Sindical, 27, 61-72.
https://vientosur.info/inteligencia-artificial-y-universidades-no-se-puede-luchar-contra-la-guerra-y-el-genocidio-si-no-politizamos-su-tecnologia/