Page 1 of 48
1 2 3 48

Manuel Area-Moreira: “La legislación prohibicionista de la tecnología móvil en las aulas es un error”

Por: Regina de Miguel

Prohibir el uso de la tecnología en el aula no protegerá a los menores de sus efectos dañinos; es necesario formar en su uso para que los estudiantes desarrollen una actitud crítica y responsable. Así lo cree Manuel Area-Moreira, que ha hablado de este y otros temas en esta entrevista.

El uso de las pantallas en las aulas ha ocasionado en los últimos tiempos una importante división entre aquellos que las defienden y los que que están en contra de ellas: mientras que los primeros destacan que se fomenta un aprendizaje personalizado, se desarrollan habilidades digitales o se garantiza el acceso a una mayor cantidad de recursos educativos, los segundos hablan de que los dispositivos tecnológicos afectan a la concentración o generan dependencia. Manuel Area-Moreira, catedrático de Tecnología Educativa de la Universidad de La Laguna (Tenerife) e investigador principal del Laboratorio de Educación y Nuevas Tecnologías (EDULLAB), defiende que lo que hay que hacer es formar a los estudiantes para que desarrollen un espíritu crítico, y sean capaces de interactuar con la tecnología, en especial con la inteligencia artificial, de un modo eficaz y seguro.

Pregunta: ¿Qué opina del acalorado debate que ha habido en redes y medios de comunicación en los últimos meses sobre el uso de tecnología en las aulas?

Respuesta: Hay demasiado ruido mediático y mucha confusión en este debate. Es comprensible el malestar y preocupación de las familias y de los docentes ante los efectos nocivos provocados por la sobreutilización de las pantallas por niños y adolescentes, pero considero que es un error la legislación prohibicionista de la tecnología móvil en las aulas. Lo preocupante (y criticable) es que este conjunto de regulaciones administrativas se plantea sin que ofrezcan simultáneamente medidas de actuación educativa ante los problemas enunciados. Subyace la creencia, ingenua a todas luces, que vetando o proscribiendo la presencia de las tecnologías móviles en los espacios escolares se protegerá, de forma casi mágica, a los menores de edad de los efectos dañinos de dichos dispositivos. Tampoco existe ninguna evidencia científica que impidiendo el uso de la tecnología en las aulas el alumnado mejorará su aprendizaje, o que evitará sus efectos negativos como son la tecnoadicción, el consumo de contenidos inapropiados o el ciberbullying. Estas prácticas nocivas de uso de la tecnología por adolescentes ocurren en el tiempo extraescolar, no en los centros educativos. En otras palabras, prohibir los móviles en las aulas no es la solución pedagógica más adecuada.

«Los docentes deben formar a los estudiantes como personas que tienen un equilibrio emocional para usar de manera consciente y autorregulada las redes sociales»

P: ¿Qué habilidades necesita desarrollar el profesorado ante la progresiva digitalización de las aulas? 

R: Todo docente, además de dominar el contenido o conocimiento que enseña, debe ser competente didácticamente, es decir, ser capaz de crear las condiciones para facilitar la adquisición del conocimiento por el alumnado. Tiene que ser, asimismo, competente digitalmente y poseer los saberes y las capacidades para utilizar la tecnología con fines pedagógicos. Esta competencia digital consiste en crear materiales didácticos en formato digital, planificar y desarrollar proyectos y actividades de aprendizaje a través de los recursos de Internet, tutorización y evaluar a su alumnado empleando las herramientas tecnológicas, autoformarse y colaborar online con otros colegas docentes, entre otras.

P: ¿Y los desafíos a los que se enfrenta?

R: El principal desafío docente es formar a su alumnado para que sean personas competentes, cultas y críticas que sepan desenvolverse exitosamente en la complejidad cultural y técnica de la sociedad digital. Esto es lo que se conoce como la formación o alfabetización para el desarrollo de la competencia digital del alumnado. Esta competencia no consiste solo en que los estudiantes aprendan a manejar aparatos tecnológicos y software, sino en desarrollar las habilidades intelectuales de alto nivel cognitivo (crear, analizar, comparar, seleccionar, reelaborar) que les permitan interactuar con la información y el conocimiento disponible en el ciberespacio. También debe formarse al alumnado para que sea un sujeto con actitudes, valores y compromiso con los demás. Paralelamente también implica formarles como personas con equilibrio emocional para el uso consciente y autorregulado de las redes sociales y tecnológicas.

Manuel Area-Moreira

P: ¿Qué limitaciones percibe en el uso de las tecnologías en estos momentos?

R: Más que limitaciones, diría que existen usos disfuncionales de la tecnología como son la excesiva dependencia y cantidad de tiempo conectados a la misma por parte de los menores de edad, el acceso a contenidos perniciosos o nocivos (violencia, pornografía, apuestas, acosos, etc.), difusión acelerada del narcisismo o exhibición pública de la vida privada, el consumo y aceptación acrítica de ideas y noticias falseadas… Todo esto son fenómenos preocupantes ante el sobreuso de las redes tecnológicas y necesitan respuestas educativas tanto desde las escuelas como desde los hogares.

P: ¿Cómo introduciría las TIC para garantizar un aprendizaje significativo y personalizado? 

R: Hace ya tiempo que sabemos que las TIC, por sí solas, no generan automáticamente aprendizaje en los estudiantes. Ocurre si detrás de la introducción de las TIC en el aula, el docente tiene un planteamiento pedagógico que estimule que el alumnado aprenda de forma activa, constructiva y experiencial. Esto supone articular planificaciones y metodologías didácticas donde se le pida al alumnado que sea un creador de objetos digitales de conocimiento (en formato texto, vídeo, audio…) que pueden compartirse y difundirse en Internet, favoreciendo el trabajo colaborativo y grupal tanto con sus compañeros de clase como con estudiantes de otros centros.  Las TIC deben ser utilizadas, didácticamente como recursos que facilitan y permiten al alumnado ser creadores del conocimiento y no meros consumidores del contenido que les proporcionen las pantallas.

«Las TIC garantizan un aprendizaje significativo y personalizado si el docente tiene un planteamiento pedagógico que estimule que el alumnado aprenda de forma activa, constructiva y experiencial»

P: ¿Qué hay que tener en cuenta a la hora de elegir plataformas y herramientas digitales?

R: En la selección de plataformas o herramientas digitales para ser empleadas educativamente debemos estar atentos a que las mismas cumplan una serie de requisitos básicos de respeto a la privacidad de los datos e informaciones personales. Necesitamos plataformas y herramientas digitales que no se apropien y exploten comercialmente los datos generados por los agentes educativos, sino que las mismas sean transparentes y estén al servicio de las necesidades del profesorado y alumnado.

P:¿Qué tecnologías tendrán un impacto mayor en la educación en los próximos años?

R: No soy profeta, pero es predecible que las tecnologías denominadas inteligentes son las que se extenderán e impactarán en los próximos años tanto en nuestra sociedad como en el ámbito educativo. Conceptos como las analíticas del aprendizaje, la tutorización automatizada, la personalización o individualización del aprendizaje, la automatización de los procesos instructivos… probablemente empezarán a estar generalizados en el campo educativo. Asimismo, creo que se producirá un aumento de las modalidades formativas híbridas que supongan una mezcla o combinación de situaciones de enseñanza presencial con espacios de aprendizaje virtuales.

P: En el caso de la inteligencia artificial. ¿Cómo puede esta tecnología mejorar el proceso de enseñanza y aprendizaje? ¿Cuáles son los retos más inmediatos que debe abordar?

R: Actualmente existen numerosas promesas, expectativas y herramientas sobre las aplicaciones de la Inteligencia artificial (IA) en la educación. De hecho, es muy fácil localizar actualmente en Internet cientos de apps que permiten a los docentes y al alumnado de forma automatizada y fácil crear imágenes, generar videos e infografías, traducir idiomas, elaborar resúmenes, redactar ensayos, planificar proyectos, etc.

«El peligro está en que los estudiantes plagien y asuman de modo acrítico lo que les digan las máquinas»

Mi punto de vista es que nos falta o carecemos de un planteamiento o modelo de actuación educativa para integrar didácticamente estas herramientas inteligentes en los procesos de enseñanza. No tiene sentido pedir a los estudiantes las mismas tareas intelectuales que se les solicitaba en los tiempos previos a la IA, ya que estas máquinas se las resuelven en poco tiempo y no suponen un esfuerzo cognitivo relevante en el aprendizaje.

El peligro está en que los estudiantes plagien y asuman de modo acrítico lo que les digan las máquinas. Por ello los nuevos retos formativos son que el alumnado aprenda a formular preguntas y sepa dar las instrucciones necesarias a la IA para que les ofrezca respuestas necesarias y apropiadas para resolver problemas específicos. Que el alumnado aprenda a desarrollar una actitud y de análisis crítico ante las respuestas que proporcione una IA y dialogue con la misma; que sepa que esta tecnología comete errores y por tanto debe verificarse la información que proporciona; y tome conciencia que es una herramienta de apoyo, pero que lo relevante son las personas quienes generan el conocimiento.

Fuente e Imagen: https://www.educaciontrespuntocero.com/entrevistas/manuel-area-moreira/

Comparte este contenido:

La antropomorfización de la inteligencia artificial, ¿una amenaza para la madurez humana?

Por: Alberto Núñez/Emma Marie Stiwitz

«Ya no es humano». A menudo oímos esta frase cuando la gente critica el hecho de que valores sociales como la consideración y la equidad ceden cada vez más el paso a «virtudes» contemporáneas como el afán de rendimiento y la eficiencia. Solo hoy, en la era de la inteligencia artificial (IA), nos damos cuenta realmente de lo que encierran estas palabras.

«Ya no es humano». A menudo oímos esta frase cuando la gente critica el hecho de que valores sociales como la consideración y la equidad ceden cada vez más el paso a «virtudes» contemporáneas como el afán de rendimiento y la eficiencia. Solo hoy, en la era de la inteligencia artificial (IA), nos damos cuenta realmente de lo que encierran estas palabras. Las tecnologías que nos permiten deshacernos de tareas tediosas existen desde la industrialización. Tampoco el uso de la IA es una novedad en sí misma. Sin embargo, en los últimos años se ha extendido cada vez más a ámbitos que antes se consideraban parte del núcleo humano. Aunque muchos debates giran en torno a cuestiones pragmáticas, como la posible pérdida de puestos de trabajo o los efectos medioambientales, hay un tema que a menudo se deja de lado: la cuestión de qué implicaciones tiene la creciente antropomorfización de la IA para la humanidad y su autoimagen como, en palabras de Kant, un ser «maduro».

Para profundizar en esta cuestión filosófica, nos gustaría examinar algunos de los derechos fundamentales que pertenecen a la dignidad humana, como la libertad individual, la igualdad de oportunidades, y, vinculado a ello, el principio de responsabilidad humana, que nos permite adoptar medidas de reprensión y garantizar la protección jurídica entre los seres humanos.

Nuestro ordenamiento jurídico se basa en la idea de la libertad individual, que define al ser humano y su relación con la sociedad. La verdadera autodeterminación requiere la protección de la propia intimidad. El hecho de que sistemas de elaboración de perfiles como Alexa hayan establecido una divulgación socialmente aceptable de datos personales ya es preocupante de por sí. Los efectos que la vigilancia puede tener en el ejercicio de las libertades democráticamente garantizadas queda demostrado, por ejemplo, por la tendencia observable a la autocensura en sociedades como China. Una interferencia potencialmente aún más fuerte con la autonomía humana es la influencia de la información basada en perfiles y conformada sobre la propia formación de opinión. Mucho más sutil que un «nudging» convencional, podría sesgar nuestro pensamiento sin que nos diéramos cuenta. Incluso si adoptáramos un enfoque virtual centrado únicamente en modificaciones benévolas, esto va en contra de nuestra visión liberal del humano. Un reciente estudio alemán de la Universidad de Saarland ha demostrado lo importantes que son las decisiones autónomas para experimentar la autoeficacia y el sentido de la vida.

Nuestro ordenamiento jurídico se basa en la idea de la libertad individual, que define al ser humano y su relación con la sociedad

Además de los aspectos que rodean al responsable de la toma de decisiones, también la externalización de las mismas plantea cuestiones relativas a las consecuencias de los posibles errores y a los afectados.

Para lograr la legitimidad de la sociedad, la toma de decisiones requiere razonamiento. Especialmente las que afectan a los derechos de los demás requieren un alto grado de justificación para garantizar la equidad y la no discriminación. La creciente externalización de los procesos de decisión a la IA, un medio cuya inteligencia cognitiva se basa únicamente en la adquisición de datos, alberga por tanto peligros.

En primer lugar, no es posible crear una IA completamente libre de prejuicios, ya que incluso un sistema de aprendizaje solo puede procesar sobre la base del conocimiento existente. Como Harari describió una vez en una conferencia en 2022, no existe un conocimiento neutro. El nivel educativo de cada época se constituye a partir de un complejo sistema de raíces de experiencias previas. Los grupos especialmente vulnerables pueden ver desatendidos sus derechos a la participación y a la igualdad social, lo que podría verse agravado por la falta de transparencia en los procesos de IA. En una generación más consciente que nunca de su problema de discriminación estructural y frustrada por la lentitud de su superación, la perplejidad de diseñar algoritmos justos podría suponer un especial obstáculo de legitimación. Por ello, los expertos reclaman la creación de normas robustas, que proporcionen seguridad jurídica y comprensibilidad entre todos los sectores de la población.

No obstante, desde un punto de vista más filosófico, cuestionaríamos más fundamentalmente la «externalización» de las decisiones. Aunque la gente se esfuerce por ser objetiva, no debería subestimar la importancia de su sensación subjetiva como corrector decisivo. Esto enlaza con un problema jurídico central: todo nuestro sistema se basa en la asunción de responsabilidad. La culpabilidad se deriva de la acción voluntaria, a pesar de la capacidad de empatía. Este elemento del sujeto constituye la culpabilidad de las malas acciones y la justificación de las medidas de retribución. ¿Y si la IA, cuya «compasión» se limita a una categorización automatizada de los sentimientos, toma una decisión injusta? ¿Podríamos considerar la posibilidad de dotarla de agencia moral, es decir, de «personalidad jurídica»?

¿Y si la IA, cuya ‘compasión’ se limita a una categorización automatizada de los sentimientos, toma una decisión injusta?

Que se trata de consideraciones serias lo demuestra el impulso del Parlamento Europeo para «explorar las implicaciones de todas las posibles soluciones legales (…)» en 2017. Un utilitarista podría alabar la utilidad de unos procedimientos de selección más meritocráticos. Sin embargo, no hay que ignorar lo que el mayor énfasis en el rendimiento hace a nuestros valores sociales. La minimización del contacto interpersonal aumenta el distanciamiento emocional y permite a los actores eludir deliberadamente su propia responsabilidad moral. Según la ética basada en el derecho o deontológica, podría parecer suficiente alcanzar la seguridad jurídica mediante normas predeterminadas, como la responsabilidad estricta del productor, o instrumentos como la autoría vicaria o la «agencia distribuida». En la medida en que los sujetos a regulación puedan predeterminarse, se puede estar de acuerdo con ello. Sin embargo, desde una perspectiva más naturalista, debemos procurar que, al menos en las decisiones que afectan al destino del individuo, la autoridad de control última sea siempre la humana, la emocional.

En conclusión, no se puede pasar por alto que la IA ofrece muchas oportunidades a nuestra sociedad, como el aumento de la eficiencia o la reducción de costes. No obstante, estamos convencidos de que hay áreas fundamentales de la existencia humana que deberían permanecer intactas. La pregunta antes de delegar una determinada acción podría ser: ¿sigo teniendo el control de mis decisiones? ¿Conservo mi «madurez»?


Alberto Núñez es profesor del Departamento de Dirección General y Estrategia de Esade y Emma Marie Stiwitz es estudiante de Grado en Derecho de Esade Law School.

La antropomorfización de la inteligencia artificial, ¿una amenaza para la madurez humana?

Comparte este contenido:

DOS VISIONES FILOSÓFICAS SOBRE EL PROBLEMA DE LA IA EN LA POLÍTICA

La capacidad para generar vídeos y audios falsos o deepfakes con el uso de la Inteligencia Artificial ya no es una hipótesis futurista. Esto ha aterrizado a Colombia y a América Latina como un factor nuevo en las democracias.

En Colombia, los problemas para verificar la veracidad de un video del 11 de mayo en el que aparecía Iván Márquez, comandante de la Segunda Marquetalia, apoyando las reformas del presidente Petro; o la canción “Fuera Petro”, falsamente atribuida a Karol G y que habría sido creada con IA, muestran que los desafíos de la verificación y la desinformación crecerán con el ingreso de esas tecnologías.

A finales de junio, la Universidad Javeriana organizó el simposio internacional Los límites de lo humano: tecnología y ecología integraldonde se juntaron filósofos y académicos de las ciencias sociales para pensar en los retos que supone la relación de los humanos y las máquinas. Actualmente, la pregunta sobre qué es lo que produce un ser humano y lo que puede ser simulado artificialmente ha ganado una nueva urgencia política.

Dos de los panelistas del simposio hablaron para La Silla Académica sobre estas preguntas. Pablo Manolo Rodríguez, profesor de la Universidad de Buenos Aires y autor de Las palabras en las cosas. Saber, poder y subjetivación entre algoritmos y biomoléculas (2019). Y Gustavo Chirolla, profesor de la Facultad de Filosofía de la Universidad Javeriana y uno de los editores de Umbrales críticos. Aportes a la pregunta por los límites de lo humano (2023).

La Silla Académica: Pablo, su libro Las palabras en las cosas. (2019) hace uso de los conceptos de Michel Foucault para hacer una arqueología del saber cibernético desde la segunda mitad del siglo XX. ¿Por qué es relevante pensar el problema de la emergencia de la cibernética desde la filosofía?

Pablo Manolo Rodríguez: Identifico la cibernética como el puntapié inicial de una transformación general de las ciencias y las técnicas en el siglo XX. No habría computadoras sin cibernética, no habría inteligencia artificial sin cibernética, no habría biología molecular sin cibernética. Es decir, muchas de las cosas que constituyen hoy en día la gran mayoría del panorama de la ciencia y las técnicas contemporáneas tienen que ver con la cibernética.

El de cibernética es un término que tiene que ver con la centralidad de la información como una especie de nueva entidad distinta a la materia y la energía y que tiene una vocación muy tecnológica. Es decir, que busca decididamente crear aplicaciones técnicas de sus principios.

Por ejemplo, en la década de 1940 se empiezan a estudiar los mecanismos neuronales y lo primero que piensan es si se podía hacer una red de neuronas artificiales. Cuando hoy hablamos de inteligencia artificial hablamos de una aplicación de unas discusiones que se estaban teniendo desde los 40 y que, por vía de la computación, hoy regresan pero con aplicaciones prácticas muy concretas.

La filosofía de Foucault sirve a esta comprensión de la emergencia del saber cibernético porque construyó un marco teórico que tenía tres términos: saber, poder y subjetivación. Saber corresponder a los discursos del conocimiento, sobre todo a los científicos. Poder tiene que ver con las relaciones entre el poder y la política. Y subjetivación es una idea muy original de Foucault que es pensar que la relación entre saber y poder no sólo se resuelve en el marco institucional, sino también en el modo en el que nos construimos como sujetos.

En el libro lo que yo hago es inscribir la cibernética en estos conceptos foucaultianos para mostrar cómo la episteme cibernética se manifiesta en relaciones de poder. Es decir, en cambios en las condiciones de vigilancia y la manera en la que las tecnologías de la información inciden en cómo nos constituimos como sujetos. Hoy con las redes sociales tenemos una forma muy patente de dar cuenta de cómo esa relación entre saber y poder termina siendo decidida en el marco de los procesos de subjetivación. Cuando pensamos en cómo funcionan los procesos de perfilización en cualquier plataforma, claramente estos están orientando conductas. Foucault no estudió la cibernética ni el problema de la información, yo lo que hice fue aplicar sus conceptos a ese mundo.

¿Cuáles son el tipo de subjetividades que están apareciendo en las sociedades modernas producto de la cibernética, como las redes sociales o la inteligencia artificial? 

MR: Un primer tipo de subjetividad son las máquinas mismas. Una de las cosas que significó la cibernética es el proyecto de hacer máquinas con condiciones subjetivas. Aquí hay que remitirse al experimento de la máquina de Alan Turing. Lo que él propuso es que no es seguro que una máquina no piense y que, en todo caso, tendríamos que demostrar qué es pensar. A partir de eso, muchos autores cibernéticos empezaron a decir que si una computadora puede pensar, también podría percibir y que, si hace ambas, podría eventualmente sentir.

Es decir, la cibernética como proyecto propuso la idea de generar máquinas que, a diferencia de las máquinas de la revolución industrial y de cualquier otra máquina en la historia de la humanidad, intenten reproducir las condiciones subjetivas de un ser humano. Si esto lo logró o no es algo que podríamos discutir.

El segundo punto son las transformaciones de la subjetividad que no necesariamente tienen que ver con la máquina y que se podrían llamar antropológicas, en el sentido de las maneras de construir una forma de ser humano. Un ejemplo de esto es cómo ha evolucionado la distinción entre privacidad e intimidad y su relación con la publicidad. En las concepciones de sujeto liberales, como las concepciones más de izquierda e incluso marxistas, está la idea de que los sujetos en la vida social tienen una esfera íntima, una esfera privada y una esfera pública. Tengo una imagen pública, una vida en mi hogar y una esfera íntima de mi historia personal. Con las redes sociales esto ya no es tan claro.

Hoy la privacidad y la intimidad no son un bien preciado. Si se desplazan los dos primeros términos, la publicidad también se va a desplazar. Entonces, hoy en día la publicidad consiste en la exhibición de las zonas privadas e incluso íntimas de los sujetos. Es decir, dejan de ser íntimas.

El tercer punto tiene que ver con la inteligencia artificial y es dónde se unen los dos primeros ejes.

La inteligencia artificial es la proyección de lo que proponía Turing. Es decir, es inteligente si entendemos la inteligencia como procesos lógicos –que es una forma muy pobre de ver la inteligencia-. Hoy podemos decir sin problema que las infraestructuras de información y los sistemas algorítmicos hacen eso y mucho más; lo que hacen es construir patrones de conducta o de consumo.

La capacidad de reproducir condiciones subjetivas por parte de máquinas pone de presente el problema de la distinción entre lo humano y la máquina. Gustavo, usted se pregunta por esa distinción en el libro Umbrales críticos. Aportes a la pregunta por los límites de lo humano (2023). ¿Cómo empezar a abordar esa pregunta filosóficamente?

GC: Una idea de partida es no arrancar con las dicotomías entre sujeto y objeto, entre naturaleza y cultura, entre mente y cuerpo, etc. Cuando hablamos del límite de lo humano nos referimos al umbral como un lugar de tránsito. De tránsito poroso en concreto donde caben muchos procesos  de simbiosis y coexistencia. No son dos cosas distintas que de pronto se juntan, sino que como se afectan mutualmente producen algo nuevo.

Si esto tiene sentido, no es que esté por un lado el hombre y por el otro la máquina. Es pensar que no hay límites absolutos definidos entre los sujetos que se relacionan, porque esas entidades se afectan mutuamente y se constituyen en la misma afectación. Esto es, los términos no son anteriores a la relación, sino que la relación constituye a los términos. Tampoco quiere decir que los límites terminen borrándose completamente. Son porosos, pero no hay que confundir todo con todo. Hay diferencias, pero estas no son inmutables sino transitorias.

En el dominio humano, la técnica o el uso de herramientas es algo que transmitimos culturalmente y no genéticamente y que, en la medida que fuimos desarrollándolas, nos hicieron cambiar. A esto se le ha llamado antropogénesis. Nuestro cerebro evolucionó por las presiones del medio ambiente, pero también por las técnicas que inventábamos, pero el ser humano no es la única especie que tiene técnica y aprendizaje. Los animales también aprenden cosas, no todo es innato; incluso por esto se habla desde los 70 de que algunos animales tienen cultura.

Gustavo, ¿ve problemas a que se le asignen a las máquinas propiedades que normalmente eran exclusivas de los humanos, como la inteligencia o la creación?

GC: Yo prefiero pensar con los animales que con las máquinas. Antes de que apareciera la inteligencia artificial, ya le podíamos atribuir creación a otros seres de la naturaleza. Los macacos, por ejemplo, comen un alimento que viene con concha; quitar la concha era demorado y representaba un gran gasto de energía. Unos investigadores observaron que un día, por casualidad, uno de los macacos puso la concha en el agua para pelarla y resultó mucho más fácil. Este mico fue y le enseñó a los demás a hacerlo así. Entonces, aquí hubo creación porque hubo innovación de una técnica.

Yo estoy respondiendo esto hacia atrás, no hacia adelante. Si a la palabra innovación le quitas la intencionalidad –como creo que debe hacerse–, entonces puedes atribuirse a la naturaleza. Y si se puede hacer así, ¿por qué no a la inteligencia artificial? Ahora, si decides que la innovación tiene que ser intencional, solo se la puedes atribuir a los seres humanos, porque la inteligencia artificial no sabe qué hace. Es decir, no es consciente. Pero, hemos visto que no necesita ser consciente para ser inteligente. Es un tipo de tecnología que despliega una inteligencia sin conciencia.

¿De qué manera las nuevas subjetividades configuradas por los sistemas algorítmicos suponen un problema político en nuestro tiempo?

MR: Es 2024 y estas discusiones que pueden ser solamente científicas, tecnológicas o de subjetivación tienen un componente político y social mucho más importante. La escala en la que tenemos que ver el problema no es de la historia de la cibernética pura o de la inteligencia artificial, sino de entender cómo funcionan los mecanismos que emplea la inteligencia artificial en la vida social. Esto porque estamos todo el día en redes sociales y, aun si no estamos, tenemos dispositivos digitales que registran y transforman en datos todas nuestras actividades a nivel social y de investigación científica.

Hoy en día estamos cruzados por la inteligencia artificial y esta no es una máquina que esté afuera o que imite el comportamiento humano. Ese es el imaginario inicial de lo que era. Lo que es la inteligencia artificial supone es Spotify diciendo qué es lo que me gusta, lo que tengo consumir o lo que puedo consumir. Lo mismo con Netflix: me ofrece las series que “yo quiero ver”.

Pero hay ejemplos más políticos que nos vinculan con la inteligencia artificial, como confiar en sus patrones algorítmicos, como ya se ha hecho, para ver a quién se le otorga un crédito o quién tiene una opinión política peligrosa para la nación. Esto ya pasó en Estados Unidos. Tenían un sistema en la Agencia Nacional de Seguridad que asignaba niveles de nacionalidad según su presencia en redes. No es que una persona es colombiana porque nació en Colombia –que es hasta ahora como se ha resuelto el tema de la nacionalidad–, sino que se relacionaba en función de los perfiles de las redes y se asignaba un nivel de peligrosidad.

Es decir, cómo te identificamos como individuo pasa por todo un conjunto de tecnologías que son tecnologías digitales tramadas por inteligencia artificial.

Acá no hay simulación de ningún comportamiento humano individual, lo que hace la inteligencia artificial es procesar la vida social. Esto es más complicado que si una máquina piensa o no. Supone la posibilidad de orientar un proceso de opinión política, que ya ocurrió con el escándalo de Cambridge Analytica, es decir, cómo operan los algoritmos de las redes para instalar opiniones políticas, construir candidatos y armar corrientes de opinión.

¿Qué pasa si la gestión de la acción social de un Estado pasa a estar derivada de la inteligencia artificial? Ya ha habido accidentes sobre esto. De hecho, es una de las tesis que trabajamos en Tecnoceno Lab. Hace cinco años en Holanda, por ejemplo, esto pasó: le confiaron a un sistema de inteligencia artificial que determinara la ayuda social a los inmigrantes y el sistema llegó a la conclusión de que 10 mil o 15 mil personas habían defraudado al Estado de los Países Bajos y que por eso no merecían ayuda social. Aquí hay errores de sesgos en los sistemas algorítmicos, que es cuando metes un dato “neutral”, pero este dato no es neutral, sino que está atravesado por todos los prejuicios sexistas, racistas y de todo tipo que la sociedad tiene.

La solución a este problema no es de me voy al bosque y se acabó. Eso no tiene sentido. Es como si en 1880 alguien hubiera dicho: echemos para atrás la Revolución Industrial. Lo que es interesante de la infraestructura digital, a diferencia de otras infraestructuras modernas como las autopistas o los ferrocarriles, es que es más flexible y fácil de hacer transformaciones porque la estructura reticular de la red todavía existe, así esté monopolizada por Google y otras compañías. Pero es clave pensar esto porque si no van a seguir haciendo lo que están haciendo.

GC: El problema de todo esto es que la inteligencia artificial no sea un bien común. Esto es un problema social serio. La minería de datos que hacen estas organizaciones que lideran esos desarrollos tecnológicos está explotando nuestras mentes. Datifica todo y con esa información gana dinero.

Si la inteligencia artificial fuera una inteligencia colectiva y no tuviera dueños, para mí sería realmente una invención social de la inteligencia. La IA debería ser como nuestro lenguaje: colectiva y un bien común. ¿O tú le pagas a alguien para usar tus palabras? Por supuesto, esto no es posible bajo el capitalismo actual, y ese es el problema político de esas técnicas.

¿Qué se puede hacer para intervenir estos algoritmos y eliminar los sesgos o darles una capacidad de mayor discernimiento o control?

MR: Un primer plano es la regulación, es decir, un sistema algorítmico donde hay que buscar condiciones de fiabilidad, esto es, ponerlo a correr con un dataset que determine cosas y que haga un monitoreo. Este monitoreo puede ser con o sin supervisión humana.

Las estructuras algorítmicas hoy en día son tan complejas –o sea, las machine learning son tontas en comparación con lo que se puede hacer– que se puede hacer que las mismas máquinas se supervisen. Un ejemplo de esto es la moderación de contenidos en redes. Este fue un tema de hace cuatro años en el que se discutió si, por ejemplo, Twitter puede dejar que se publique lo que sea o es responsable de lo que se publica. Aunque argumentaron solo ser mediadores y no responsables, la presión hizo que pusieran moderadores de contenido. Al principio esto lo hicieron humanos, pero en este momento están medio automatizados.

Automatizar este tipo de procesos se hace incorporando criterios humanos, en este sentido es un proceso abierto y siempre se puede incorporar más. El asunto es quién está velando por el tema de los sesgos y quién se pone a pensar en si está mal diseñado el algoritmo. Este es un problema técnico que en la formulación política tradicional se ha enfrentado con la regulación. Esto es lo que está haciendo en este momento la Unión Europea y la razón por la que es la mala de la película para las corporaciones de IA: está metiendo política de privacidad, política de supervisión humana de los algoritmos, política de establecimiento de riesgo y de accidentes posibles, etc. Es decir, cuestiones para vigilar la aplicación de la IA en cada paso.

La segunda forma no viene del Estado, sino de la sociedad civil. Es la resistencia. Esto se conoce como la política de ofuscación de datos. Es que frente a la posibilidad de que una cámara te identifique con ciertos patrones o rasgos, los ocultes para que no te pueda rastrear. También está el hackeo de algoritmos.

El tercer plano, que combina un poco de los anteriores, tiene que ver con generar formas alternativas. Esto se basa en la idea de que el problema no son los datos que nosotros dejamos en las redes, sino su extracción contra de nuestra voluntad y conocimiento, y el uso que le dan las corporaciones, es decir, la política privativa. Hay algoritmos –como los de Facebook, Meta, PageRank de Google– que son abiertos, pero los que están poniendo a funcionar ahora no lo son. Aquí hay una cantidad de preguntas: qué son los datos respecto a nosotros, somos dueños de esos datos o es dueño el que los recoge, dónde están estos datos.

Hay un estudio que muestra que leer los términos y condiciones de las aplicaciones tradicionales que uno usa, que son como cinco o seis, tomo 90 mil horas. Entonces, cuando las firmamos sin leer, estamos vendiendo todo sin decir nada y sin saber mucho. Y eso es, querámoslo o no, es parte hoy nuestro ambiente.

Frente al último plano de acción de las políticas alternativas, hay gente que está hablando de cooperativismo de plataforma, es decir, de hacer plataformas de código abierto y software libre que no apunten al entrenamiento algorítmico de perfilización. Este sistema, como está dirigido por corporaciones capitalistas que quieren ganar dinero a través de los datos, lo que se llama capitalismo de plataforma, solo ve la perfilización como la única arquitectura algorítmica posible y con una preocupación muy escasa por los sesgos.

En Colombia ya empezamos a ver cómo la inteligencia artificial está empezando a crear fake news

La verificación de estos contenidos, como sucedió con un chequeo de La Silla Vacía, fue imposible con total certeza porque aún no tenemos herramientas completamente fiables para determinar si un video había sido hecho o no con IA. Esto abre todo un problema sobre con qué criterios determinar si imágenes, audios y videos son verdaderos o falsos. ¿Qué opinión le merece esa dificultad agreagada a la verificación de la información?

MR: Puede que ustedes como medio definieran el video como verdadero o falso, pero la cuestión es si para mucha gente no era falso y ya. Hasta ahora la idea de que uno podía construir un discurso falso o verdadero estaba relativamente constreñida a los medios masivos de comunicación que construían la realidad. La época de la posverdad y la fake news es un paso más allá de esto. No es que antes no hubiera deformación de la realidad, pero es muy distinto al imperio de la falsedad en el que pasamos a decir que la gente dijo cosas que nunca dijo.

Esto es un problema más político y social que tecnológico. Desde el punto de vista tecnológico, determinar que algo sea falso o verdadero es lo mismo que antes. Ahora el problema está en qué pasa si a la gente no le interesa el valor de la verdad, sino afianzar su propia creencia. Es la famosa cuestión de los filtros burbuja y de las cámaras de eco. En este sentido, el problema de las fake news es doble. El primer problema es la posibilidad de generar falsedades a gran escala en las que es difícil de discernir entre lo verdadero y lo falso y que vuelve virtualmente imposible hacer un chequeo como el que ustedes mencionan. El segundo problema, que me parece más grave, es si la gente está dispuesta a creer. El problema ahí no es técnico.

Ya no nos importa la verdad, no nos importa ninguna generación de la verdad basada en la evidencia, por lo que puedo inventar la evidencia. El desenmascaramiento deja de ser una acción suficiente porque no estás desenmascarando frente a nadie más que ante quienes seguimos creyendo en la idea de un valor de la verdad.

Lo vemos cuando en el avance de la derecha global. Yo soy de Argentina, lo vivo todos los días. Uno puede decir cualquier cosa y nada tienen consecuencias, creo que porque hay una especie de vacío sobre la noción de bien común, de que no todos los valores que pensábamos que valía la pena sostener en la Modernidad siguen existiendo. Esto, por una razón que desconozco, lo está explotando más eficientemente que otros grupos políticos, aunque la inteligencia artificial está en un momento de umbral en el que no sabemos qué cambios va a traer, pero serán enormes y sus consecuencias no pueden ser tan fácilmente instrumentalizadas por un grupo político específico.

Hay algo de esta época que me recuerda a los años 30 y 40. Hitler ascendió al poder porque tenía un Goebbels, es decir, un ministro de propaganda y los medios para distribuirla. Se ha establecido una asociación entre los medios y quién los explota primero, quién entiende primero su lógica para llevar la delantera en la iniciativa política. Estamos en el mismo momento con las redes sociales y la derecha está ganando terreno y con discursos muy parecidos. Uno puede agarrar la analítica del discurso de Milei y de Hitler y tienen muchas coincidencias.

¿Por qué en este contexto de sofisticación de la desinformación cobra relevancia la pregunta filosófica por los límites de lo humano?

GC. De entrada está el caso de Cambridge Analytica que ya se mencionó en el que con los principios básicos de lo que ahora llamamos inteligencia artificial se intervino en las elecciones presidenciales de los Estados Unidos, al dirigir mensajes a los votantes según sus preferencias electorales. Es decir, la inteligencia artificial ya ha funcionado al interior de las democracias y ha inclinado la balanza, porque muchas decisiones que nosotros tomamos dependen de la información que tenemos.

Entonces, la libertad es clave para tomar las decisiones razonadas desde la democracia, pero mi decisión puede ser motivada por una serie de inclinaciones. La decisión misma no es racional, sino que puede tener que ver con los hábitos mentales. Esto afecta la democracia desde hace años: no somos seres racionales y autónomos tomando decisiones, pero esto no significa que solamente seamos irracionales y así tengamos que tomar nuestras decisiones políticas.

Las máquinas seguirán produciendo simulaciones inteligentes de producciones humanas y otras innovaciones con diferentes objetivos políticos o comerciales. Defendiendo una supuesta excepcionalidad humana no vamos a solucionar los usos que se hagan de esas técnicas. Tampoco negando que la IA pueda ser o no inteligente o creadora. Sí es inteligente y puede crear innovaciones. Pero ese no es el problema: el problema es cómo hacemos para que esas innovaciones no sirvan para ahondar la explotación cognitiva que ya hacen en todas partes.

 

Fuente de la información e imagen:  https://www.lasillavacia.com

Fotografía: La silla vacía. Pablo Manolo Rodríguez, profesor de la Universidad de Buenos Aires, y Gustavo Chirolla, profesor de la Universidad Javeriana.

Comparte este contenido:

México: El aprendizaje y la inteligencia artificial

El aprendizaje y la inteligencia artificial

 

Este artículo forma parte de alguna de las reflexiones que compartí en una entrevista que me realizaron y que forma parte de un estudio coordinado por una universidad de Perú, que está orientada a recoger los imaginarios de los investigadores e intelectuales iberoamericanos de las Ciencias Sociales con respecto a la inteligencia artificial (IA).

No soy especialista en la temática, pero basándome en mi experiencia educativa, expresé algunas ideas que ahora comparto sobre la IA, porque pienso que en todos los espacios formativos es necesario reflexionar en que la humanidad y la forma de vida ha cambiado y que uno de los principales agentes de cambio es la IA, que llega para transformar todos los ámbitos sociales, por lo que la educación no puede estar ajena si tenemos presente la mejora del mundo global.

Valoro  los grandes avances que en los diversos campos del conocimiento ha incidido, por ejemplo: en la medicina, ya que hoy es posible la detección precoz del cáncer y del Alzheimer, los diagnósticos sobre diferentes enfermedades y el diseño y elaboración de prótesis entre algunos; en los deportes controlando distintos tipos de entrenamiento y ajustándola a los diferentes deportes y personas; en ingeniería para el control de calidad, en la automatización de procesos complejos, para la  seguridad etc.

Pero para lograr esos avances no ha sido suficiente tener acceso a la tecnología como tal, sino que hay que apropiarse de ella y eso requiere formación, para que la tecnología disponible sea asimilada dentro de un conjunto de prácticas culturalmente organizadas, por ejemplo, si solo se les indica a las profesoras y a los profesores que empleen la tecnología, pero no hay un proceso formativo de acompañamiento, seguimiento y monitoreo, ¿cómo le hacen?

Los educadores en específico, requerimos de diversas formas de filtrar la información y encontrar nuevas herramientas para optimizar nuestro trabajo, donde el diseño y las prácticas innovadoras de la IA abre un nuevo campo por explorar. Pero, ¿qué se considera una IA? Según Modi (2021) cuando está estructurada de tres componentes: aprendizaje automático, aprendizaje profundo y aprendizaje por refuerzo.

El primer componente es el aprendizaje automático, basado principalmente en algoritmos donde una máquina trabaja a través de datos y acciones previas (como autocompletar formularios o predecir texto en el móvil):  el segundo refiere al aprendizaje profundo, donde  los comandos de funcionamiento se inspiran en la estructura y función del cerebro humano (como la conducción de automóvil sin conductor) y el último, el aprendizaje por refuerzo, que refiere a la toma de decisiones por parte de la máquina de forma secuencial, es decir, según lo que se desea maximizar, utiliza el comando de entrada y salida ( como los robots que juegan futbol).

Hace poco leí un artículo (Santos Corral et al, 2023) que hablaba sobre la Estrategias de vinculación de Huawei en el mundo, dentro del contexto actual de competencia entre China Estados Unidos y que se relacionan con la IA. Países como el nuestro, que no cuentan con la infraestructura necesaria, requieren del apoyo de grandes empresas que hasta ahora habían sido estadounidenses y donde actualmente, las empresas chinas tienen un papel destacado en el mercado global.

De ahí que Huawei dispute la entrada de equipos y software en los países latinoamericanos a partir de la vinculación del personal universitario alrededor de todo el mundo, para que las herramientas diseñadas por esta empresa se fijen en el imaginario y se legitimen entre quienes trabajan en los distintos temas de IA.

Estas alianzas de vinculación con las universidades consiste en acercarse a los académicos para que ellos lleven las herramientas de Huawei a la academia y las empresas, nada sencillo cuando se requiere de conciliar las expectativas y la flexibilización que cada uno de los académicos tiene sobre la IA, empleando la capacitación y el apoyo de investigadores para que sea utilizada en diferentes proyectos para que,   finalmente,  sea posible transferir los productos derivados del trabajo con IA a diversos usuarios, como por ejemplo, a los grupos vulnerables.

Lo anterior es sumamente complejo, porque requiere de la vinculación de conocimientos tanto técnicos como sociales, específicamente porque se requiere de la formación en habilidades, herramientas y capacidades para el uso de plataformas relacionadas con la IA, lo que precisa de la necesidad de integrar equipos interdisciplinarios que modifiquen su forma de trabajo y articulen esfuerzos.

Lo que es un hecho es que la IA es una herramienta que puede contribuir a potencializar distintos campos del conocimiento y que   si bien, la tecnología de IA parte de los planteamientos de las ciencias exactas, sólo tiene sentido si se construye desde las ciencias sociales, porque entonces es posible aportar elementos vinculados a la diversidad de los problemas sociales que ahora prevalecen.

Hay varias cosas que destacar dentro de esta temática: primero, ser vista como un instrumento que contribuye a la solución de problemas tan demandantes en nuestro tiempo como la salud, el cambio climático, la desigualdad social, la pertinencia educativa etc. Segundo, que esté diseñada en el conocimiento de las necesidades técnicas, sociales y simbólicas de quienes usarán esta tecnología para que tenga más posibilidades de ser útil y significativa. Y tercero, que el empleo de ella tenga ante sí los dilemas éticos relacionados con la información que se tiene acerca de los hechos, nuestras experiencias en situaciones semejantes, los intereses personales y, sobre todo, los valores y principios que están implicados en su empleo.

Si bien es cierto que la mucha de la información cotidiana está plagada de noticias falsas o que difaman o desacreditan a las personas, no tiene que ver específicamente con la IA, o las redes sociales o la tecnología, más bien tiene que ver con la manipulación que algunos seres humanos hacen de ellas para instalar imaginarios sociales que promueven conductas poco éticas y hasta delictivas que se relacionan  con los intereses, el manejo del poder y de la riqueza de algunos grupos y personas, lo que es inaceptable, tomando en cuenta que el valor de cualquier tecnología, incluyendo la IA, tiene que ver con el aprendizaje y la legitimidad.

Referencias
Santos Corral, María Josefa, Gortari Rabiela, Rebeca de, y Lopátegui, Marco. (2023). Construir vinculación desde la Inteligencia Artificial: Análisis de una alianza interinstitucional. Entreciencias: diálogos en la sociedad del conocimiento11 (25),
Modi, A. (2021). Una introducción rápida a la inteligencia artificial (IA) y sus componentes. (A quick introduction to Artificial Intelligence (AI) and its components)

Comparte este contenido:

No se puede luchar contra la guerra y el genocidio si no politizamos su tecnología

ENRIQUE DÍEZ-GUTIÉRREZ | MAURO JARQUÍN RAMÍREZ

No se puede luchar contra la guerra y el genocidio si no politizamos su tecnología

La Inteligencia Artificial (IA) ha desembarcado en las universidades públicas. Departamentos y Facultades de todo el mundo han asumido y normalizado la incorporación y el uso de la IA de origen y control privado, respondiendo de forma casi automática a las campañas de marketing de grandes empresas y start-ups con el fin de “no quedarse atrás”.

 

Aprender a utilizar esta tecnología dentro de los marcos establecidos por los proveedores privados, así como su incorporación a la docencia, se ha convertido en un imperativo para enfrentar los “retos del siglo XXI”, que prioritariamente están determinados, cada vez más, por las necesidades y demandas de los mercados.

 

Esta narrativa dominante, “eficientista” y economicista, es extensiva a las distintas formas de tecnología digital en la educación superior y ha generado tal consenso y tal urgencia que, pese a enclaves críticos relevantes al interior de las universidades, de forma general se han dejado de lado consideraciones sobre las condiciones sociales e ideológicas de la producción de dicha tecnología (ONU, 2024).

 

No se ha cuestionado que la producción de IA está enmarcada en una cosmovisión del mundo específica, ni que está condicionada por un conjunto de prioridades económicas, políticas, ideológicas y sociales que la definen y la orientan. No se ha considerado el proceso social mediante el cual el “conocimiento producido socialmente” es extraído con el fin de ampliar las bases de datos que dan vida a dicha tecnología. Con ello, tampoco se han discutido las consecuencias del enriquecimiento corporativo a costa de la expropiación de la información colectiva.

 

En el ámbito universitario, el análisis de la IA se ha sustraído de su historia y contexto. Presentada como una herramienta lista para ser utilizada, sin considerar su condición de articulación técnica condicionada históricamente y fundada en el trabajo humano. Una tecnología que generalmente la comprendemos poco y aún menos la podemos controlar (Innerarity, 2019).

 

Plantear esto resulta clave porque, pese a que la discusión en torno a la IA ocupa paulatinamente un mayor espacio en la academia, esto no ha sido suficiente para lograr una pausa, un respiro, a nivel comunitario e institucional, que permita plantear una serie de preguntas y discusiones previas a su adopción. Esto incluso en un contexto global en el cual se ha demostrado el uso de la IA en procesos tales como el engaño de masas (Piacente, 2024), la desinformación (Perotti, 2024) e incluso el genocidio (Raiss, 2024), en los cuales el interés por la acumulación ha condicionado no solo el uso de la tecnología, sino también su diseño.

 

La pausa propuesta podría ser útil para superar los marcos interpretativos que se nos han impuesto en torno al desarrollo y el uso de tecnología digital en educación, los cuales aluden a los lugares comunes -aunque no por ello irrelevantes- respecto a los potenciales sesgos (sexo-genéricos, étnicos, de clase, etc.) en los resultados de la IA generativa, así como un potencial uso no ético de la misma, expresado, por ejemplo, en el fraude académico. Las condiciones sociales de la producción y distribución de dicha tecnología, donde confluye la explotación laboral, el impacto ambiental, la “caja negra” de sus algoritmos y el control de un reducido conjunto de megaempresas corporativas sobre sus condiciones de producción y uso, deben ser discutidas, porque la IA está afectando procesos fundamentales de la vida en común, tanto al interior de las Universidades, como fuera de ellas.

 

En este momento, resulta importante cuestionarnos la posibilidad de que, tal vez, la IA sea “una forma sofisticada de controlar las actividades y modificar las subjetividades de las personas a fin de incrementar las ganancias económicas” (Reyes, 2023) y de consolidar formas de opresión, y no únicamente una herramienta que el mundo de la ciencia ha desarrollado para “hacer nuestra vida más fácil” por medio de encargarse de tareas repetitivas y que consumen demasiado tiempo.

 

Genocidio en Palestina asistido por IA

 

Un ejemplo del nivel de impunidad epistémica que ha logrado la IA, así como de sus mecanismos de funcionamiento y del poder de las compañías proveedoras, es la invisibilidad de la cual ha gozado su uso respecto al genocidio palestino.

 

Como ha sido documentado, la IA ha tenido un papel relevante en el apartheid y el genocidio contra el pueblo palestino (Mhajne, 2023; Abraham, 2024; Gould et al., 2024). En mayo de 2021, el periódico The Jerusalem Post publicaba que la escalada de las fuerzas militares israelíes contra Hamás, denominada “Operation Guardian of the Walls”, era la primera guerra guiada por IA (Ahronheim, 2021). Los militares israelíes habían establecido una IA que centralizaba todos los datos sobre los grupos armados en Gaza, en un sistema que establecía los ataques a efectuar.

 

En 2023 Amnistía Internacional publicó el informe “Apartheid automatizado: cómo se fragmenta, segrega y controla a la población palestina mediante el reconocimiento facial”. En este, explicaba que tales instrumentos tecnológicos han sido usados para violar los derechos humanos y potenciar la guerra. Así, el apartheid de Palestina y la represión en Gaza se habían convertido en un «laboratorio» en el que experimentar con este tipo de prácticas (Amnistía Internacional, 2023; López, 2024).

 

Posteriormente, en abril de 2024, las revistas israelíes +972 Magazine y Local Call publicaron un reportaje sobre Lavender, una IA que opera a través de un avanzado sistema estadístico, el cual ha “asistido” los bombardeos israelíes en Gaza, con poca supervisión humana y un alto nivel de permisividad de personas asesinadas (Abraham, 2024) con lo cual ha mostrado una “tasa de error” muy alta que ha terminado con la vida de miles de personas y destruido infraestructura básica. Dicho programa se ha articulado con otras formas de IA para impulsar el actual genocidio del ejército israelí en la Franja de Gaza.

 

Resulta problemático que, pese al conocimiento público del uso bélico de la IA cada vez más extendido, así como a un generalizado rechazo de la campaña bélica israelí en medios universitarios del mundo, la discusión política global sobre la importancia de la tecnología y su rol se encuentre evidentemente desatendida. Esto contrasta con episodios históricos previos, donde una parte relevante del movimiento estudiantil desarrolló una crítica no únicamente a la violencia sobre los pueblos, el neocolonialismo y la guerra, sino también a las condiciones tecnológicas de su realización. En cierta medida, esto puede responder al nivel de integración que la tecnología digital ha logrado en nuestra vida cotidiana, con lo cual se ha despojado de todo vestigio de política, lucha o proceso social subyacente a su producción.

 

Protesta social y universidades. De Vietnam a Palestina

 

La brutalidad del ataque israelí sobre la población palestina, la sistemática violación de derechos humanos y los niveles de masacre continuada de población indefensa, generaron que la indignación mostrada a nivel global mediante movilizaciones masivas se expresara también en los campus universitarios.

 

El asesinato de más de 36.000 palestinos hasta el mes de abril de 2024, entre ellos más de 14.500 niños y niñas, así como la destrucción de cientos de escuelas y todas las universidades (Red Universitaria por Palestina, 2024), la devastación de viviendas, infraestructuras sanitarias, mezquitas y lugares patrimoniales palestinos, provocó el estallido de una “revuelta universitaria”. Manifestaciones, movilizaciones, tomas de campus, denuncias públicas, exigencias de suspensión de acuerdos y colaboración en investigaciones con el régimen israelí a los rectorados y autoridades académicas, jornadas de discusión y debate público en la calle y en las aulas, etc., fueron parte del abanico de estrategias y planes de acción definidos para intervenir políticamente en el debate sobre la situación palestina, y buscar así frenar la avanzada bélica de muerte y sufrimiento.

 

La irrupción del activismo universitario se extendió paulatinamente en distintas partes del mundo, con una participación importante también en Estados Unidos, donde a comienzos de mayo casi 3.000 estudiantes y personal académico de 61 campus habían sido detenidos (Rubin et al., 2024). En España, la policía irrumpió violentamente en los campus para desalojar acampadas universitarias, pese a que distintas universidades respaldaban institucionalmente las propuestas estudiantiles. En México, también colectivos estudiantiles, con su epicentro en la Universidad Nacional Autónoma de México (UNAM), decidieron organizar acampadas por Palestina, además de foros informativos y de discusión con la participación de la academia, estudiantes y otros integrantes de las comunidades universitarias.

 

A la luz de la revuelta universitaria estadounidense, que tomaba lugar también en otras partes del mundo, un periodista del New York Times apuntó que tal situación podía “evocar los fantasmas de 1968” (Blow, 2024) refiriéndose a la protesta estudiantil contra la guerra de Vietnam. Una lectura que fue compartida en otros medios y espacios de debate, identificando paralelismos entre el activismo universitario contra la masacre del pueblo palestino y el movimiento estudiantil contra la intervención estadounidense en Vietnam (Helmore, 2024; Rees, 2024).

 

No obstante, entre otros elementos contextuales, es posible identificar una diferencia fundamental entre ambas experiencias: el lugar que ocupa en la crítica a la campaña bélica la problematización de sus condiciones tecnológicas de desarrollo. En este ámbito, ha sido posible ver cómo, pese al uso sistemático de tecnología de punta por parte del ejército israelí, persiste una clara ausencia de discusión en torno al papel que ha jugado, en este caso, la IA. Un caso significativo si consideramos que al menos una parte de las protestas estudiantiles respecto a Vietnam se centraron en la tecnología usada para su desarrollo.

 

Si la campaña bélica de Israel es la primera guerra asistida por IA, la guerra de Vietnam fue la primera guerra en la historia asistida por eletronic data. Tal como explica Fisher (1988) hacia 1968, Estados Unidos había instalado computadoras en Saigón, con data procedente de Vietnam del Sur, el cual iba a ser utilizado para analizar cada faceta de la guerra mediante la cuantificación de procesos diversos, con lo cual se podían hacer análisis y recomendaciones bélicas. Esta inclusión de computadoras también en el ámbito bélico se llevaba a cabo en un contexto en el cual la burocratización de la sociedad estadounidense iba de la mano con la incorporación de tecnologías para la gestión y el control, una tendencia que paulatinamente se consolidaba también en la universidad.

 

Los efectos de la guerra contribuyeron a agudizar el malestar causado por la tecnificación y burocratización de la sociedad y las universidades, un proceso al cual los estudiantes críticamente se referían como La Máquina. La problematización de dicha metáfora de funcionamiento de la sociedad condujo a que en las universidades los estudiantes se rebelaran contra las técnicas que alcanzaban cada vez mayor presencia. Así, los estudiantes optaron por quemar las tarjetas perforadas -un instrumento muy utilizado en el momento para organizar procesos administrativos- tanto de matrícula como de reclutamiento, en protestas contra la guerra en Vietnam (Lubar, 1992). Grupos de estudiantes organizados gritaban “¡Paremos la máquina de guerra!”. Otros, de los cuales algunos derivaron en la consolidación del movimiento hippie, simplemente no querían formar parte de dicha máquina, y optaban por renunciar a la vida en la sociedad moderna. Otros más denunciaban: “¡Nuestras vidas están manipuladas por máquinas IBM” (Lubar, 1992, p. 54).

 

La tecnología se comprendía poco a poco en tanto una expresión del control que sometía tanto a la universidad como a los pueblos y estaba vigente en el proceso colonial. Mueller (2021) recuerda cómo, mientras la rebelión estudiantil contra la guerra en Vietnam crecía, también lo hacían las acciones contra las computadoras ubicadas en los campus, tanto a nivel discursivo como en términos de acción directa. Explica que Old Mole, una publicación estudiantil de Cambridge, Massachusetts, escribió en un artículo de 1969, titulado Let’s smash MIT: “El MIT no es un centro de investigación científica y social al servicio de la humanidad. Es parte de la maquinaria de guerra de EE.UU.”. Lo anterior estaba acompañado de actos como ocupaciones y tomas de centros, incendios o ataques físicos a centros de computación, tal como sucedió en Syracuse University, University of Wisconsin, NYU o Stanford.

 

Sectores importantes del movimiento estudiantil contra la guerra de Vietnam, consideraron importante el análisis y la acción frente a una técnica y tecnología que posibilitaba la opresión y habilitaba procesos como el colonialismo y el militarismo. Plantearon en llevar la discusión más allá de los resultados de la guerra, y desarrollaron una crítica práctica en torno a los medios tecnológicos de despliegue bélico, la cual al día de hoy resulta tanto pertinente como necesaria.

 

Politizar la tecnología en las universidades

 

Luchar contra la guerra y el genocidio desde las universidades requiere discutir profundamente no solo sus resultados sino también su aristas tecnológicas. Más aún, responder a las necesidades vitales del siglo XXI, conlleva que el sistema educativo sea un espacio de reflexión crítica y conocimiento sobre la tecnología en nuestra vida cotidiana, y no únicamente un espacio adaptativo respecto a los intereses de quienes la controlan.

 

Por su lado, la universidad pública no puede ser un espacio pasivo de conquista para una novedad tecnológica y sus compañías desarrolladoras. Es preciso superar el fetichismo tecnológico de ver en la IA esencialmente una herramienta disponible para utilizarla a placer, y con ello avanzar hacia consideraciones relevantes sobre los efectos de su producción, su distribución y su consumo en nuestra vida cotidiana y en el trabajo que realizamos día con día en las universidades.

 

La tecnología digital -y paulatinamente la IA- ha logrado un status de naturalidad, normalidad y habitualidad y se ha consolidado como una parte inherente e indispensable del entorno y la acción humana a tal punto que es difícil marcar límites respecto al acto de usarla, o terminar siendo usados por quienes la controlan. Se ha convertido en un enclave a menudo invisible de generación de ganancias, reproducción ideológica y creación de condiciones de ordenamiento social.

 

De forma acrítica, cursos, cátedras y capacitaciones en IA, así como en competencias digitales se ofrecen y se establecen continuamente. La academia, profesoras y profesores nos afanamos por incorporar la última novedad en su campo de investigación y docente, adoptando un discurso de modernización revestido de innovación para “adaptar la universidad al siglo XXI”. Las instituciones de educación superior invitan a docentes y estudiantes a formarse y profesionalizarse en el uso de herramientas de IA, sin un cuestionamiento ni un debate sistemático sobre el sentido y la finalidad de dicha tecnología. Cada vez se ofertan más cursos de actualización tecnológica en mercancías educativas (software o hardware) cuya utilidad educativa aún no resulta clara, pero que son impulsadas por campañas publicitarias fundadas en un discurso que ha logrado llegar al sentido común en el sector educativo.

 

Consideramos que, frente a una coyuntura de expansión corporativa en la política y educación globales, resulta un imperativo la politización de la tecnología en nuestras universidades, así como la creación de un debate amplio en torno a su finalidad y su sentido, lo cual debe conducirnos a plantear, entre otras cosas, también el control democrático y transparente y su regulación pública y abierta. No se trata de maquillar ese control con organismos o regulaciones paliativas como la reciente Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), cuya misión de vigilar la aplicación de esta tecnología y sus efectos en empresas e instituciones públicas, como se puede hacer con los alimentos o los medicamentos, supuestamente serviría para “avanzar hacia una IA confiable y ética”. Tenemos que caminar hacia una discusión plural que nos conduzca, en un primer momento, a una mayor transparencia en la implantación de la IA y hacia su auditoría (Castillo, 2024).

 

Politizar la tecnología implica, también, discutir las condiciones sociales y los actores implicados en su producción. Esto nos remite a pugnar por cambios en los mecanismos de toma de decisiones y formas de gobernanza que alteren la tradicional distribución de poderes en esa toma de decisiones (Subirats, 2016). Politizar la tecnología es tener acceso público y democrático para auditar sus algoritmos y tener capacidad de impedir que se sigan utilizando si reproducen discriminaciones, vulneran los derechos humanos o se utilizan para fines bélicos o genocidios como el de Gaza. Politizar la tecnología es decidir para qué la queremos, cómo utilizarla, y al servicio de qué fines sociales y políticos. En definitiva, esto se vincula a la apuesta por un control social y democrático, orientado al bien común, de una tecnología que actualmente está condicionando nuestra forma de pensar, relacionarnos, actuar, estudiar y construir el mundo que habitamos.

 

Mauro Rafael Jarquín Ramírez es profesor de la Universidad Nacional Autónoma de México y Enrique Javier Díez Gutiérrez de la Universidad de León (España).

 

Referencias:

 

Abraham, Y. (2024, abril 5). Lavender & Where’s Daddy: How Israel Used AI to Form Kill Lists & Bomb Palestinians in Their Homes. Democracy Now. https://bit.ly/3Rl9O8l

 

Amnistía Internacional (2023, mayo 2). Apartheid automatizado: Cómo se fragmenta, segrega y controla a la población palestina en los TPO mediante el reconocimiento facial. Amnistía Internacional. https://bit.ly/3RrqqLB

 

Blow, Ch. M. (2024, abril 24). The Ghost of the 1968 Antiwar Movement Has Returned. The New York Times. https://bit.ly/45kccC4

 

Castillo, C. del (2024, junio 19). La Agencia de Supervisión de la Inteligencia Artificial echa a andar entre quejas por dar de lado a la sociedad civil. El Diario.es https://acortar.link/pg2kQn

 

Fisher, D. (1988). Computers, electronic data and the Vietnam War, Archivaria, 26, 18-32.

 

Gould, L., Arentze, L. & Holjtink, M. (2024, mayo 2). Gaza war: artificial intelligence is changing the speed of targeting and scale of civilian harm in unprecedented ways, The Conversation, https://acortar.link/g3gUxX

 

Helmore, E. (2024, abril 29). Echoes of Vietnam era as pro-Palestinian student protests roil US campuses. The Guardian. https://bit.ly/3VBXseA

 

Innerarity, D. (2019, marzo 11). Lo digital es lo político. La Vanguardia. https://bit.ly/3VoM4RQ

 

López, V. (2024). Israel usa la inteligencia artificial como arma para afianzar el «apartheid» en Gaza. Público. https://acortar.link/Jbq0GW

 

Lubar, S. (1992). Do not fold, spindle or mutilate: A cultural history of the Punch Card, Journal of American Culture, 15(4), 43-55.

 

Mhajne, A. (2023, noviembre 2). Israel’s AI revolution: From innovation to occupation, Carnegie Endowment for International Peace, https://acortar.link/hgYPgn

 

Mueller (2021). Breaking Things at Work: The Luddites Are Right About Why You Hate Your Job. Verso.

 

ONU (2024). La militarización de la inteligencia artificial y el género. ONU. https://acortar.link/pGrrBc

 

Piacente, P. J. (2024, mayo 13). La IA ya es una maestra de la mentira y el engaño. Levante. https://bit.ly/3x4jRb3

 

Perotti, E. (2024, febrero 27). Desinformación e inteligencia artificial: ¿la revolución industrial? World Association of New Publishers. https://bit.ly/3xghli0

 

Raiss, A. (2024, junio 6). ‘Digital kill chains’: The dark side of tech in warfare. The Cradle. https://bit.ly/3yXQPdP

 

Red Universitaria por Palestina. (2024). Universidad, Gaza y genocidio: una ecología de guerra. Red Universitaria por Palestina. https://acortar.link/cgmWk2

 

Rees, J. (2024, mayo 18). The crucial difference between the Gaza and Vietnam student protests. Middle East Eye. https://bit.ly/4aYMdBk

 

Reyes, C. (2023). La inteligencia artificial no es neutral, El Viejo Topo, Julio-Agosto, Núm. 426/427

 

Rubin, A., Beheraj, K., Lysik, T., & Chase, W. (2024, mayo 10). Mapped: Where pro-Palestinian student protesters have been arrested. Axios. https://bit.ly/45hZBPT

 

Subirats, J. (2016). Internet y democracia. Politizar la transformación tecnológica. Gaceta Sindical, 27, 61-72.

https://vientosur.info/inteligencia-artificial-y-universidades-no-se-puede-luchar-contra-la-guerra-y-el-genocidio-si-no-politizamos-su-tecnologia/

 

Comparte este contenido:

Nuevos dioses, viejas supersticiones

Por:  Por Jorge Majfud 

Hace casi una década, cuando se buscaban imágenes de gorilas en Google Images, éste devolvía fotografías de hombres negros. El prejuicio racial de la fotografía se remonta a la creación misma de la fotografía cuando, en Europa, se ajustaron los oculares para hacer que los rostros blancos no saliesen quemados. Como consecuencia, los rostros negros salían casi indistinguibles. Pero esto no era un problema. Según el historiador del cine Richard Dyer, cuando los primeros fotógrafos recurrieron al retrato en la década de 1840 “experimentaron con la química del material fotográfico, el tamaño de la apertura, la duración del revelado y la luz artificial, procedieron bajo la suposición de que lo que había que hacer bien era el aspecto del rostro blanco”. (Para ampliar y verificar fuentes, ver Moscas en la telaraña.)

Poco después, la torpeza algorítmica del gigante de Silicon Valley se alimentó del prejuicio y del racismo humano, hasta que Michelle Obama comenzó a aparecer en las mismas búsquedas. Más tarde, en 2016, Microsoft tuvo el mismo problema con Tay, su chatbot: Tay tuvo que ser sacrificada horas después, luego de lograr cien mil seguidores en Twitter dando respuestas racistas a sus nuevos amigos y debatiendo como si fuese una admiradora encubierta del Ku Klux Klan. Los operadores políticos y los manipuladores de elecciones tomaron nota. Los señores feudales de Wall Street y de megacorporaciones más privadas (es decir, más opacas y oscuras como una roca) como BlackRock, también.

En la tecnología biometric o de reconocimiento facial, los rostros de gente no blanca tienen más posibilidades de ser reconocidos como sospechosos que los blancos. O simplemente no los reconocen como humanos, lo cual quizás sea una compensación paradójica. Esta observación no es nueva. Pertenece a la prehistoria de las técnicas de reconocimiento facial, denunciadas, por lo menos, desde el año en 2009.

Con un sistema diferente al logaritmo, las IA se parecen a niños superdotados de cinco años: aprenden de sus mayores humanos y, aunque pueden desarrollar su propia personalidad, no se distinguen mucho de sus progenitores y actúan en consecuencia, en casos de formas más radicales sin ninguna creatividad.

A modo de especulación, en 2015 escribí la novela Silicona 5.0 para abordar este problema sobre una serie de muñecas sexuales con capacidad de terapeutas y de asesinas, debido a los traumas de la Eva humana usada para su comercialización. Una mujer cosificada por su cultura, alimentando la existencia de una cosa humanizada con aspecto de mujer. Más recientemente, se usó la colección de 600 ensayos publicados en majfud.org por su sistematicidad y consistencia humana desde 1999 para desarrollar otra IA. Algo que me inquieta profundamente, pero que no puedo evitar.

A principios de 2024, otra IA produjo un escándalo internacional al crear imágenes de soldados nazis de la Alemania de Hitler con rostros morenos y asiáticos. ¿A qué se debió esta contradicción con lo que señalamos antes? Aparentemente, las IA fueron instruidas para ser “políticamente correctas” insertando diversidad en donde nunca la hubo. Otra vez, la micropolítica rebelde haciéndole el juego a la macro política del establishment. Así, árabes barbudos vestidos de soldados alemanes perseguían judíos; mujeres negras arrojaban bombas atómicas sobre Hiroshima y Nueva York; gays y lesbianas dirigían el FBI de Hoover para perseguir gays y lesbianas sospechosos de ser comunistas; y los nativos del Tercer Mundo invadían y saqueaban Europa y Estados Unidos y luego masacraban a su población hasta lograr imponer dictaduras militares en Londres, París y Washington. Porque hay que prevenir el racismo promoviendo la diversidad.

Veamos un ejemplo más digerible. Durante la Semana Santa de este mismo año, hubo una proliferación de retratos de Jesús creados por la Inteligencia Artificial. Los retratos de ChatGPT muestran a hombres de ojos marrones y piel más morena que los clásicos retratos de los museos de Europa y de las modestas casitas de África y América Latina. No en pocas casas piadosos cristianos le rezaron por años a una fotografía de Jim Caviezel o de Robert Powell. No pocos “cristianos verdaderos” se ofenderían con la sola idea de inclinarse ante una imagen realista del africano San Agustín, también retratado por siglos como un santo llegado de algún pueblo esloveno.

Aunque algunos lo encontrarán más realista que el David de Miguel Ángel o el Jesús de Leonardo da Vinci, también los nuevos retratos de Jesús pintados por ChatGPT tienen un fuerte prejuicio etnocéntrico, porque fueron alimentados con ese material de la historia eurocéntrica más el maquillaje de la diversidad epidérmica (también eurocéntrica). Aunque aquí las AI se aleja unos centímetros del Jesús caucásico de ojos celestes tipo Robert Powell (angelical, confiable, higiénico y desarrollado), continúa muy lejos del aspecto facial de los habitantes del Medio Oriente de hace 2000 años. No deja de ser el rostro de un hombre caucásico luego de unas largas vacaciones en Cancún.

Lo de pobre también se le quitó en la vestimenta. La pulcritud y la calidad de sus túnicas revelan prejuicios de clase, otra vez negando y contradiciendo la realidad de un carpintero de Galilea veinte siglos atrás, alguien que viajaba en burro y que tenía por amigos pescadores y mujeres de las clases más humildes, con excepción de una sola.

Ahora, cada tanto leemos artículos sobre lo qué piensa la Inteligencia Artificial de la existencia humana, de cómo será el mundo del futuro o de cómo era el mundo hace mil o diez mil años. “¿Qué dice la IA sobre el mundo en 2040?” “¿Cómo se veía una cena en el Imperio Romano según IA? “La IA predice que en 2050 seremos todos felices”, “La IA revela los cinco hábitos para un matrimonio feliz” ―algo tan confiable como los consejos de un sacerdote católico.

Las IA tienen algo en común con los dioses anteriores: son metahumanos. Su credibilidad radica en que se asume que no dependen de los criterios de los creyentes, mortales de un día. No tienen “bias” (prejuicios). Como sea, es indiscutible que tienen algo en común: si no son ambos creaciones humanas, sin duda están hechos a nuestra imagen y semejanza, como esos dioses llenos de pasiones que, en nombre del Amor Universal condenan a su propias creaciones al infierno, no por haber hecho algo inmoral, como arrojar una bomba atómica sobre una ciudad o por haber promovido una guerra genocida, sino por no haber rezado de la forma indicada o por tener creencias equivocadas sobre el más allá.

Otra similitud: las IA son leídas y escuchadas con una profunda superstición: si lo dice una super inteligencia, debe ser cierto. O lo más aproximado a la realidad posible. Es algo más allá de la comprensión humana. Pero la Inteligencia Artificial no es una gran inteligencia. No aún. Es solo un niño con un conocimiento y una velocidad de procesamiento más allá de los límites humanos. Claro que los humanos no somos mucho mejores. Seguimos procesando pensamientos y creencias como en tiempo de las estepas del cálido Sur y de las cavernas del frío Norte. Cuando no creemos historias imposibles creemos en dioses virtuales.

Rebelión ha publicado este artículo con el permiso del autor mediante una licencia de Creative Commons, respetando su libertad para publicarlo en otras fuentes.

Fuente de la información e imagen:  https://rebelion.org

Comparte este contenido:

Estados Unidos: Solo el 11% de las universidades puede ofrecer un salario competitivo a los investigadores, revela encuesta

Los intentos de atraer y retener talento académico se ven obstaculizados por la incapacidad de las universidades de ofrecer compensaciones monetarias competitivas con las investigaciones financiadas por empresas.

Las universidades luchan por competir con la industria en materia de remuneración económica por las investigaciones que se deben llevar a cabo respecto a los avances tecnológicos que surgen al momento. Sin embargo, una encuesta reveló que apenas un 11% de la academia pueden afrontar el reto económico que tienen frente a lo que prometen las empresas.

 

De acuerdo con la encuesta global realizada por la editorial Elsevier a 115 líderes académicos y financiadores, un 75% de los líderes académicos cree que abordar los desafíos asociados con la atracción y retención de talentos es una alta prioridad para ellos. Y aunque el 93% de los encuestados dice que necesita más financiación para atraer a los mejores talentos, apenas uno de cada 10 líderes académicos dice sentirse bien preparado para enfrentar los desafíos de brindar un salario competitivo.

 

Si ya desde antes este fenómeno era tendencia, desde la pandemia los investigadores tienen un mayor poder de negociación y, en ocasiones, optan por abandonar las universidades para buscar empleos mejor remunerados en el sector privado.

 

Desde la pandemia de COVID-19, los investigadores tienen mejores oportunidades de elección laboral (Imagen Ilustrativa Infobae)

 

En ese sentido, Nick Fowler, director académico de Elsevier, dijo a Times Higher Education (THE) que las universidades enfrentan una “guerra por el talento” y que algunas corren el riesgo de descubrir que “cuando pierden talento entran en una espiral negativa donde su reputación se daña y se vuelve más difícil atraer a los académicos”.

 

En el reporte de la editorial, un líder académico de las Américas dijo que “luchan por reclutar a las mejores personas y, por otro lado, se corre el riesgo de perderlas en sectores industriales donde tienen una gran demanda”. Lo anterior lo ejemplificó con la inteligencia artificial, en donde la academia quiere que se toquen temas de índole social, donde se consideren repercusiones, y sus alcances éticos, sin embargo, la industria continua pagando a los académicos para avanzar en sus aplicaciones y generaciones.

 

“Si se toma un área como la IA generativa, la mayoría de las personas más importantes han dejado sus puestos académicos para trabajar en la industria. Eso es cierto en las mejores universidades de Estados Unidos y en Cambridge, Oxford, UCL e Imperial, por lo que he visto”, expuso el líder académico.

 

Según el informe, las instituciones de América del Norte generalmente pueden ofrecer salarios más “atractivos” que cualquier otra región, lo que deja a las de otras partes del mundo incapaces de competir financieramente. Sin embargo, los líderes académicos de América central y Sudamérica a menudo todavía no se sienten preparados para ofrecer paquetes competitivos.

Fuente: https://www.infobae.com/educacion/2024/03/27/solo-el-11-de-las-universidades-puede-ofrecer-un-salario-competitivo-a-los-investigadores-revela-encuesta/

 

Comparte este contenido:
Page 1 of 48
1 2 3 48