Page 6 of 48
1 4 5 6 7 8 48

La educación que queremos: ¿Los androides llegaron ya? (¿Y llegaron bailando el chat chat chat?)

Por: Andrés García Barrios

En esta entrega de «La educación que queremos», Andrés García Barrios nos invita a pensar sobre las implicaciones de que los robots se humanicen.

Ludwig Wittgenstein, filósofo alemán, nos previene: Toda una mitología está contenida en nuestro lenguaje. Con frecuencia, el uso que hacemos de las palabras crea espejismos que nos hacen confundir realidad y delirio. Los docentes tienen la oportunidad de tomar conciencia de esta confusión y ayudar a sus estudiantes a transitar por esas mitologías, que en ocasiones son de verdad alucinantes.

Una de ellas, muy en boga, está presente en nuestras ideas sobre la inteligencia artificial y sobre sus alcances, sus retos y sus riesgos. Los docentes, repito, pueden capacitarse para enfrentar los laberintos conceptuales de sus estudiantes en torno a esas tecnologías. Tomemos por ejemplo dos de éstas, con las que hemos empezado a familiarizarnos: una es el ChatGPT, la otra son esas extraordinarias y sin duda seductoras máquinas de aspecto humano que hacen gestos y hablan cada vez mejor. Empecemos por comprender que esos dos nuevos tipos de robots nos engañan no sólo por su redacción casi humana, sus respuestas tan acordes con nuestras preguntas o sus rostros expresivos, que guiñan el ojo y nos sonríen; también lo hacen por la forma en que nos referimos a ellos: por ejemplo, decir que “los robots nos engañan” o “nos sonríen” (como hago yo aquí arriba) es atribuirles una voluntad que están muy lejos de tener, y sin embargo es muy probable que la mayoría de mis lectores hayan aceptado esas frases sin ningún inconveniente. Es un hecho que si describimos a un robot diciendo que sus sistemas le permiten estar atentopercibirdarse cuentaentendercomunicarse o expresar, nos será cada vez más difícil pensar en él como un objeto inerte, y nos dejaremos convencer de que muy pronto los seres humanos podremos crear máquinas sensibles y conscientes.

Los robots pertenecen, y probablemente siempre pertenecerán, al reino mineral, tanto como una piedra, un auto o la puerta de un elevador cuyos circuitos se bloquean a nuestro paso. Sin embargo, numerosos factores intervienen para que creamos que una máquina posee voluntad propia. Para empezar, los seres humanos somos propensos por instinto a identificar cierto tipo de movimientos como indicadores de que en ellos hay vida. De hecho, es posible que cierta fase “animista” del desarrollo lleve a los bebés a creer que todos los objetos están vivos, cosa que refrendamos los padres y madres cuando un pequeño se golpea con una puerta y exclamamos: “¡Fea puerta!” e incluso lo alentamos a que le devuelva el golpe. Esta fase seguramente se actualiza en la sorpresa que provocan las puertas de un elevador a quienes por primera vez las ven abrirse a su paso (creo que en realidad eso nos sigue ocurriendo a todos de manera inconsciente).  Como anécdota, estoy seguro de que la tía Pacecita, anciana que vivía asombrada por la forma en que su control remoto activaba la tele, luchaba cada día contra la certidumbre de que entre ambos aparatos había un extraño acuerdo.

Pero hay más. Según estudios recientes, una parte de nuestro equipamiento psíquico está destinada a identificar rasgos animales (ojos, caras, cuerpos) en medio de cualquier caos de formas, como el de las nubes o el tirol del techo. Al parecer se trata de estados de alerta instintiva desarrollados por nuestros ancestros para detectar la presencia de agresores ocultos en el entorno.

Añadamos también la empatía que todos sentimos hacia ciertas fisonomías, por ejemplo, el tierno rostro de algunos muñecos de peluche: sabemos que estos son objetos sin vida, y sin embargo, algo en nosotros no está muy convencido de ello (luchamos contra esa certidumbre, como la tía Pacecita). Peor aún, si esos rasgos enternecedores se acompañan de ciertas movimientos “expresivos”, nos será casi imposible negar que detrás de ellos hay una vida y quizás hasta una conciencia. La ilusión quedará consumada si el sujeto en cuestión (perdón, el objeto en cuestión) articula cierto discurso inteligible.

Claro, si a todo lo anterior añadimos nuestra fe casi supersticiosa en lo ilimitado de la ciencia, convertiremos esa ilusión momentánea en una apasionada convicción de que “los androides llegaron ya” (cosa no muy diferente a la vieja creencia de que “los marcianos llegaron ya”). En pocas palabras, volveremos a creer en cuentos de hadas. Y esto no lo digo yo, simplemente parafraseo al gran biólogo Thomas Huxley (amigo personal y principal defensor de Darwin), quien decía: “¿Cómo puede ser que una cosa tan notable como un estado de conciencia surja a consecuencia de una excitación de la materia inerte? Es algo tan inexplicable como la aparición del genio cuando Aladino frota la lámpara” (Huxley no hablaba de excitar materia inerte sino tejido cerebral).

***

No creer en cuentos de hadas no es fácil. Ahí está Pinocho, el muñeco de madera que adquiere un alma humana; ahí está la bellísima escena final de Inteligencia Artificial de Steven Spielberg, en la que unos robots místicos se encuentran con el niño robot protagonista; y está también la conmovedora secuencia de Blade Runner, en la versión de Ridley Scott de 1982, donde el replicante Roy Batty, a punto de desactivarse, llora bajo la lluvia con una paloma blanca en las manos: “He visto cosas que ustedes los humanos no podrían imaginar. Todo eso se perderá en el tiempo, igual que lágrimas bajo la lluvia. Es hora de morir”.

Los adoradores de esas secuencias no me bajarán de desalmado, de inhumano. Sin embargo, yo las adoro igual que ellos, aunque como alegorías de la vida humana, cosa muy diferente a darlas por ciertas y crear utopías o anti-utopías a partir de ellas (con robots que hacen feliz a la humanidad o la destruyen intencionalmente).

Pensemos un poco sobre lo que implica la idea de que los robots se humanicen. Antes que nada, debo aclarar que a mí, como a casi todos, me resulta enormemente seductora y tranquilizante la idea de que a través de la ciencia los humanos podamos dominar la materia al grado de crear seres a nuestra imagen y semejanza. Con tal dominio y autoconocimiento (“conocernos como si nosotros mismos nos hubiéramos creado”, diría la filósofa María Zambrano), sin duda estaríamos en la posibilidad de hacernos inmortales y de edificar realidades inimaginables, sin agotar nunca nuestro potencial creativo y viviendo en eterna armonía con el cosmos y con nosotros mismos. Confieso que si en ocasiones dirijo mi mirada hacia una espiritualidad que no cree que todo se resuelve en el mundo de la materia, no lo hago porque me guste renunciar a esta promesa de la ciencia y prefiera masoquistamente seguir creyendo en un más allá indemostrable. Juro que si supiera que toda la paz que entreveo en lo espiritual se consigue mediante el conocimiento racional y científico, no haría otra cosa que dedicarme por completo a éste y se me vería luchando junto con la comunidad científica para alcanzarlo, aun cuando no me tocara a mí ver su culminación y sólo estuviera trabajando en favor de las generaciones futuras.

Pero resulta que no se necesita reflexionar demasiado para comprender que la realidad no responde del todo a verdades demostrables y que algunos huecos de la ciencia nunca se podrán llenar, no por deficiencia del método científico ni por nuestra incapacidad para entenderlo todo, sino simplemente porque su existencia está envuelta en un misterio que es en sí mismo irresoluble.

Lo anterior se puede aclarar poniendo como ejemplo una de esas dramáticas incógnitas sin solución: la de la aparición de la conciencia. Para hablar de ella, Huxley utilizó la alegoría de la lámpara de Aladino que mencioné arriba, utilísima para empezar a decodificar esa mitología parcialmente instintiva que se oculta en nuestras palabras. Ahora, queriendo avanzar un poco, quiero proponer una segunda alegoría que trata el tema ya no como cuento de hadas sino como relato de ciencia ficción.

***

Imaginemos una supercomputadora construida con los materiales más innovadores del mundo; es majestuosa, veloz y extraordinariamente potente; tiene la capacidad de recibir toda la información que existe en este momento en el planeta, y de procesarla. No hay problema computacional que esta máquina no pueda resolver.

La computadora se encuentra en un cubículo especialmente diseñado para ella. Una mañana, la mujer que se encarga de su mantenimiento, abre la puerta y presencia una escena estremecedora: frente a la supercomputadora, sentado en una silla, hay una especie de ser humano cuyo cuerpo entero se extiende en difusas radiaciones hacia la máquina. La mujer permanece pasmada frente a él. Conforme pasan las horas, van llegando al lugar los operadores expertos, y así como llegan se quedan paralizados, expectantes, sin aliento.

Al día siguiente el lugar está lleno de investigadores especialistas (se ha pedido a la mujer de mantenimiento que abandone el área). Ahora el extraño ser frente a la máquina, se agita, gesticula y hace exclamaciones en armoniosa sintonía con ésta, como si sintiera y a veces presintiera lo que va apareciendo en sus tableros y pantallas.  Las hipótesis sobre su presencia no se han hecho esperar. La primera, y más obvia, es que todo esto es producto de un hackeo, que el extraño personaje es una especie de holograma controlado por alguien ajeno al sistema. Sin embargo, los rastreadores más hábiles no logran hallar la fuente. Después de varias noches de desvelo, esta hipótesis se exacerba: es un hackeo procedente de otra dimensión, idea acorde con las teorías de que nuestro universo es una especie de simulación digital.

Una noche, tres de los investigadores deciden seguir la charla en una cantina y al calor de las copas conciben la hilarante idea de que el extraño ser es un preso político de otra dimensión, que ha sido desterrado, o más bien, in-terrado (los tres expertos ríen cuando inventan esta palabra) en la máquina, a la que ahora está sujeto y de la que no puede escapar. Cuando al día siguiente, ya sobrios, cuentan a sus compañeros las locuras de la noche, no imaginan que detonarán un caos entre los presentes, ¿Y si en efecto el extraño operador es un ser de otra realidad, “caído” en ésta? Todos sus movimientos respaldarían tal idea: la manera en que se mueve, la forma en que todo su cuerpo está conectado a la máquina.

Varios expertos se lanzan a explorar la posibilidad de comunicarse con él a través de otras computadoras, y es así como creen descubrir que el extraño ser “piensa” y “siente” en relación con lo que pasa en la máquina y que es capaz de tomar decisiones adicionales a las de ésta, llevando las capacidades del equipo hacia nuevos confines. Entonces acuerdan plantearle la pregunta “¿Eres una simulación controlada desde otra dimensión o existes realmente? Al hacérsela, el Operador ─ahora le llaman así─ entra en una especie de pasmo y toda interacción con él se pierde. Pasan las horas. Eventualmente se registra actividad. Después de casi medio día, el Operador vuelve en sí con una especie de sobresalto: “Tal vez todos mis pensamientos están controlados desde otra dimensión, pero detrás de ellos hay algo de lo que no puedo dudar: que estoy pensando y que eso significa que existo”. La mayoría de los expertos se sorprende; concuerdan en que hay ahí un ser consciente. Sólo a algunos la respuesta les suena sospechosamente parecida al Pienso, luego existo de Descartes y aseguran que una máquina tan simple como el primitivo ChatGPT podría haber dado esa respuesta.

Las opiniones se dividen dramáticamente. Ahora muchos piensan que el extraño ser no tiene nada que ver con realidades externas sino que es sólo producto de la interacción de la materia, especie de proyección espontánea en la interfase del sistema operativo con los discos de memoria, loop virtual con que la máquina ha adquirido conciencia de sí misma. La hipótesis avanza: el Operador tiene en realidad escasa injerencia en los procesos del equipo, la mayoría de los cuales siguen siendo inconscientes. La hipótesis culmina: el Operador cree que gobierna a la máquina cuando en realidad es gobernado por ella; él se limita a testificar una mínima parte de lo que ocurre en ésta, como un títere que reproduce de forma limitada los movimientos muchísimo más complejos de su manipulador. Algunos proponen que deje de llamársele Operador y se le denomine Testigo u Observador.

Todo es polémica y agitación entre los expertos. Pero algo muy diferente ocurre en el comedor de mantenimiento. Sentada en una silla, la empleada que días atrás vio al Operador por primera vez, no recuerda otra cosa que la imagen que la asaltó al abrir la puerta. Para ella, el único misterio que le parece intrigante es la presencia misma de ese ser aparecido ahí. La verdad es que no sabe ni siquiera cómo formular la pregunta, no sabe si debería decir “¿Qué es?” o “¿quién es?”, “¿es, en realidad?”, “¿por qué?”, “¿para qué?” O simplemente dejar salir un grito. Sus compañeros la han visto sumergirse cada vez más en sí misma…

***

Fin del relato.

El enigma de la aparición de la conciencia ─no sólo en los humanos sino en todos los seres vivos que pudieran tenerla─ parece irresoluble, pero no por eso deja de convocarnos a enfrentarlo. Es sin duda uno de los puntos clave a tratar con nuestros estudiantes en la discusión sobre los límites de la inteligencia artificial y sobre su repercusión tanto en la vida cotidiana como en el devenir planetario. ¿Qué tanto creeremos cuando nos digan que un robot tiene respuestas propias a nuestras preguntas? ¿Nos indignaremos de que un país otorgue calidad de ciudadano a una máquina? El uso de alegorías como las que he planteado sirve para detonar preguntas. Relatos como el de la lámpara de Aladino planteado por Huxley, el mío sobre la supercomputadora o cualquier otro que el docente crea adecuado, puede abrir la discusión: algunos estudiantes negarán que la materia inerte puede hacer emanar de ella un ser consciente; otros afirmarán que llegaremos a conocer el cuerpo humano “como si nosotros mismos lo hubiéramos creado” y que podremos fabricar seres a nuestra imagen y semejanza; sobre esto último habrá quien diga que aún si ese conocimiento fuera posible, aun faltarían muchos, muchos años para llegar a él (tal vez tantos que al momento actual se le recordaría diciendo: “Había una vez…”).

A partir de esos planteamientos surgirán nuevas visiones y nuevas alegorías (un buen ejercicio será pedir a nuestros estudiantes que las elaboren). Nosotros, como docentes, planteemos el dilema y permitamos que las ideas fluyan. Dejemos cualquier conclusión como provisional, y disfrutemos viendo cómo algunos estudiantes se atreven por momentos a avanzar en el camino que plantean los otros. Construyamos con nuestro diálogo la educación que queremos.

Fuente e Imagen: https://observatorio.tec.mx/edu-news/la-educacion-que-queremos-desaprender-lo-que-creemos-sobre-los-robots/

Comparte este contenido:

Bill Gates y sus medias verdades

Construyendo un culpable para los efectos negativos de la transformación digital

 Luis Bonilla-Molina[1]

  1. El cuco pone los huevos en el nido de la urraca

Últimamente me ocurre, cuando escucho o leo a Bill Gates, que mi mente relacional me trae a la memoria a Randle McMurphy, el personaje de la película dirigida por el checoslovaco Milos Forman.  McMurphy nadando entre dos aguas, las de la rebeldía y la sumisión, finge locura en un espacio panóptico orientado por las premisas foucaultianas de vigilar y castigar, siendo llevado por las circunstancias a imitar la ruptura de la apatía ciudadana, empalmando con los miedos y emociones de sus colegas, para intentar escapar del manicomio en el que él mismo se recluyó.

Cada frase de Bill Gates está pensada con lógica mercantil, ponderando los efectos de las mismas en sus acciones y ganancias futuras. En eso se distancia del humanismo subyacente en Randle el personaje fílmico, pues Gates, aun cuando intenta darnos lecciones éticas, su moral es la del mercado. Como todo empresario exitoso, ha adquirido las dotes de alquimista que le permite empalmar con el sentido común ciudadano y convertir nuestras ideas y acciones en decisiones respecto a opciones de mercancías.

Por ello, sorprende que las declaraciones de Gates empiecen a ser multiplicadas por docentes y pensadores críticos como evidencias que sus puntos de vista en materia tecnológica están respaldados por un referente en el área. Bill Gates, líder de una de las once empresas que durante el Apagón Pedagógico Global (APG) de 2020 lograron sumar 3.2 billones de dólares de ganancias, mientras el mundo presenciaba atolondrado la puesta en marcha de un nuevo modelo de privatización, estandarización, mercantilización, estratificación y desterritorialización educativa, declaraba en entrevista[2]publicada el 27 de abril de 2023, que la primera profesión en desaparecer sería la del maestro reemplazada por la Inteligencia Artificial.  A esto se suman las declaraciones de Geoffrey Hinton uno de los ex – CEO de Google, empresa de Gates, respecto a sus temores ante el actual desarrollo de la IA.

Veamos en un marco más amplio la razón de estas declaraciones

  • ¿Por qué Gates culpa a la Inteligencia Artificial de la desaparición de la profesión docente y, Hinton hace mea culpa?

Estas declaraciones tenemos que valorarlas en una lógica de disputa de mercados tecnológicos en la coyuntura y de aspiración estratégica de la industria de los algoritmos.

Microsoft y Google van detrás de la carrera por la Inteligencia Artificial, ante la delantera que les ha tomado OpenAI, la empresa lideradas por Elon Musk y Sam Altman, esto ha colocado a la defensiva a los gigantes de la programación y uno de los buscadores en internet más usado. Las declaraciones procuran generar pánico y resistencias que limiten la adquisición y suscripción a plataformas como ChatGPT,  intentando ganar tiempo para que Google y Microsoft logren desarrollos que impidan que OpenAI monopolice el mercado de la inteligencia artificial.

Pero además, Gates quien durante los últimos años viene presentando a las instituciones educativas y docentes como utilería y personajes del parque jurásico de los sistemas escolares presenciales, con la afirmación de caducidad de la profesión docente, usa su prestigio y capacidad comunicacional como influencer para seguir construyendo hegemonía sobre la “inevitabilidad” de la educación virtual asistida por inteligencia artificial.

Y es que no es fácil que la ciudadanía del orbe asimile la idea de una sociedad sin las escuelas, bachilleratos y universidades presenciales, a las que entendemos como parte de la arquitectura social moderna. Por ello, no pierden oportunidad para ir sembrando la semilla del “pase inevitable” de la presencialidad a la virtualidad.

De hecho, cuando desde 2015 denunciamos la posibilidad de un Apagón Pedagógico Global (APG) que no era otra cosa que el paso abrupto a la virtualidad a escala planetaria, en un mismo tiempo histórico, con el propósito de alfabetizarnos en lo virtual-digital, para la mayoría de colegas esta posibilidad les parecía imposible que ocurriera y tuvo que llegar la pandemia para que millones de docentes y estudiantes transitaran el ABC de la conexión virtual, el uso de plataformas, la mediación digital en los aprendizajes; eso lo saben las corporaciones tecnológicas y no pierden oportunidad para introducir en el colectivo social la imagen de un sistema educativo no presencial. “Tanto va el cántaro a la fuente hasta que la rompe” dice el adagio popular.

  Gates y las corporaciones tecnológicas, cual corsarios del siglo XXI, ven el presupuesto para la nómina docente, infraestructura, dotación de equipos y materiales y actualización tecnológica, asignados a los sistemas escolares, cuyo monto según los países van del 3% al 12% del PIB, como un botín al cual asaltar, sacando a los docentes de la ecuación y sustituyéndoles por Inteligencia Artificial y otras mercancías algorítmicas.

Por supuesto, que esto tiene su base en una epistemología del aprendizaje derivado de tendencias instrumentales de la neurociencia, que igualan el cerebro a una máquina y el aprendizaje a suministro de datos, como si el saber humano y el conocimiento científico no tuvieran un enorme componente emocional, afectivo y experencial.

Todo ello tiene que ver con lo que Berardi (2019, p.170) describe como “implicaciones automáticas de agentes humanos reducidos a funciones meramente operacionales”.  Hoy la mayoría de estudiantes y docentes tienen dificultades para explicar las leyes científicas y procesos de los equipos tecnológicos que usan, no por defecto del sistema escolar y las universidades, sino porque el neoliberaismo logró instrumentalizar el saber, construyendo en las escuelas y universidades el sentido común del operario.

Ciertamente, necesitamos regular socialmente el uso y la creación de inteligencias artificiales, sobre todo para despojarlas de la pretensión de asumirse como lugares de enunciación de la verdad, pero la mea culpa de Hinton no va acompañada de caminos alternativos, de opciones de trabajo que permitan repensar la orientación estratégica de los algoritmos, sino de una narrativa que convoca a la parálisis, el temor y pretende dotar de “autoridad ética” a quienes llaman a parar porque se quedaron atrás en la carrera tecnológica, los mismos que nos venderán chatarra algorítmica cuando estén en la punta de las innovaciones.

  • China: ¿La estalinización del capitalismo o el fascismo del imperialismo asiático emergente?

Hoy vi un video en tik tok, preparado por la influencer Ana Karen Ramírez (@anaqueenmaker) en el cual muestra algunos de los usos que está dando China a la Inteligencia Artificial, el reconocimiento biométrico facial, los análisis de metadatos y los bloques de datos en su sistema escolar. Esto no es nuevo, en la Conferencia Mundial de Inteligencia Artificial, realizada en ese país en el año 2019, las autoridades del gigante asiático mostraron el papel que le estaban otorgando a esas herramientas para controlar, medir y tomar decisiones sobre el rendimiento real de los y las estudiantes en las aulas, con fines de mejorar el sistema escolar y disminuir costes, al retirar de las universidades aquellos estudiantes con bajo nivel de concentración y atención en las aulas.

El video de Ramírez muestra como a los y las estudiantes se les coloca una banda electrónica en la frente y alrededor de la cabeza,  que permite saber si está poniendo o no atención a la clase que se imparte, midiendo los niveles de concentración, cuya lectura algorítmica es enviada en tiempo real a profesores, familias y autoridades educativas, para alimentar los procesos de toma de decisión. También muestra los robots dentro de las aulas que monitorean la salud de quienes están en clases, así como las interacciones que ocurren allí. Además, menciona que los uniformes de los niños, niñas y jóvenes tienen chip, o internet de las cosas, que permite saber dónde está cada estudiante.

Este uso orweliano del algoritmo y la inteligencia artificial le quita al docente su capacidad de valoración subjetiva de los y las estudiantes, de empatía emocional, convirtiendo cada acto en las aulas en un simple dato, eso sí con consecuencias inmediatas sobre la permanencia y la inclusión. Ese no es el uso que consideramos se debe dar a la IA, mucho menos porque sabemos que es un modelo transicional a la desaparición de la escuela pública presencial, aunque ello aún no aparezca expresado de manera nítida y concreta en las políticas públicas de ese gobierno.

El uso para fines de control y como indicador de inversión educativa de la IA por parte del gobierno chino, nos lleva a preguntarnos si estamos en presencia de una estalinización del capitalismo de ese país o ante el surgimiento del fascismo en el imperialismo asiático emergente.  En cualquier caso, como lo ha expresado su líder Xi Pin en el Foro Mundial de Davos (2022), China aspira a que la economía mundial sea orientada por la Organización Mundial de Comercio (OMC), la cual tiene como eje en materia educativa la transformación digital capitalista, que conduce a la disolución de las instituciones educativas presenciales. Por lo tanto, a nivel estratégico lo que hace China y lo que dice Bill Gates terminan coincidiendo, solo se diferencian en el número de cuenta en la cual caerán las ganancias por semejante despropósito.

  • La UNESCO en el juego de las máscaras

Es terrible el giro de la UNESCO de las últimas tres décadas. Si bien UNESCO forma parte del acuerdo de gobernabilidad que emanó de la segunda guerra mundial y es el rostro educativo del Tratado de Bretton Woods y el Consenso de Washington, es innegable que hasta la llegada del neoliberalismo el organismo multilateral estaba revestido de una aureola de pluralidad y defensa de la educación. Muchas veces coincidimos en agendas y reivindicaciones, otras no tanto.

Pero lo que ha ocurrido en el último periodo es digno de una “historia crítica de la UNESCO” proyecto en el cual estamos embarcados. La Conferencia Mundial de Educación Superior (CMES2022) realizada en Barcelona, España, fue la culminación de un lenta pero sostenida subordinación de UNESCO a los designios de las Bancas de Desarrollo, la OMC, las grandes financieras globales y la agenda de Davos, como se evidenció en los debates de micro acreditación, transformación digital e Inteligencia Artificial.

Lo que queda claro a estas alturas, es que no podemos buscar en UNESCO lo alternativo, sino el discurso más refinado de hegemonía del capital en materia educativa.

  • Necesitamos derrotar el pesimismo intelectual

Un fantasma recorre la academia y parte importante de la intelectualidad mundial.  Son décadas diciendo que el capitalismo está en “crisis terminal”, que está “a punto de caer” y viene “una sociedad de justicia social”, mientras que en la realidad el capitalismo y su ideología están más fuertes que nunca, destruyendo la vida en el planeta, generando involución de conquistas sociales como la jubilaciones, pensiones y 8 horas de trabajo. Tal vez esta oscilación epiléptica causa desánimo, pero la intelectualidad es guardiana de la esperanza razonada, de la utopía fundamentada del provenir.

Este pesimismo intelectual se ha expandido con la llegada del neoliberalismo, la caída de la URSS y el paradigma del fin de la historia, y quienes hemos logrado escapar de sus oscuras garras no terminamos de recuperar la esperanza de las décadas precedentes.

Esto adquiere un matiz dramático en materia de transformación digital, imperio de los algoritmos e inteligencia artificial, donde pareciera que la dicotomía es mirar para otro lado o sentirnos inevitablemente aplastados por el cambio de énfasis tecnológico.

Urge recuperar la capacidad de la intelectualidad crítica para situarnos de manera propositiva y alternativa frente a la ofensiva del capital para imponer un modo único de entender la aceleración de la innovación.

  • Lo digital-virtual y la Inteligencia Artificial como actividades en disputa

Recuperar la esperanza pasa por entender lo nuevo en materia tecnológica como un campo de disputa, como un terreno donde debemos pensar lo alternativo para las mayorías ciudadanas, para la clase trabajadora, para los pobres de la tierra. Despojar lo nuevo de la voracidad del capital que quiere convertirnos en simples mercancías compradoras. Por ello me atrevo a pensar una agenda mínima de trabajo, debate y lucha:

  1. Debate sobre la imposibilidad de colocar la IA como lugar de enunciación de la verdad. Desde la filosofía política y las pedagogías
  2. Conformación de equipos para desarrollar taxonomías para plataformas virtuales que resulten apropiadas para fomentar el pensamiento crítico, la creatividad y el paradigma emancipatorio. Las taxonomías son el punto de partida `para los programadores y las estructuras algorítmicas, así como para la IA
  3. Repensar los sistemas escolares y las dinámicas pedagógicas para la educación presencial en un contexto de inusitada aceleración de la innovación:
  4. Políticas públicas para la justicia social, la inclusión y la autonomía en un contexto de transformación digital, emerger de lo virtual, irrupción de las IA y expansión de los algoritmos;
  5. El mundo del trabajo y las garantías sociales en la sociedad del internet de las cosas,

Desde el Estado ello comienza con dos pequeños pasos: a) Internet gratuito y de ancha banda para todos y todas y b) universalización del acceso a aparatos y equipos de conexión remota

¿Nos juntamos para ello?

Lista de referencia

Berardi, B (2019) Futurabilidad: la era de la impotencia y el horizonte de la pluralidad. Ediciones La Caja Negra. Argentina

Forman, M (1975) Alguien voló sobre el nido del cuco. https://rakuten.tv/es?content_type=movies&content_id=alguien-volo-sobre-el-nido-del-cuco

Gates, B (2023) Esta es la profesión que primero desaparecerá con la llegada de la inteligencia artificial, según Bill Gates” https://www.guatevision.com/internacionales/esta-es-la-profesion-que-primero-desaparecera-con-la-llegada-de-la-inteligencia-artificial-segun-bill-gates

Hinton, G (2023) El padre de la inteligencia artificial reconoce que cometió un error y ahora habla d sus temores ante las IA https://www.semana.com/tecnologia/articulo/padre-de-la-inteligencia-artificial-reconoce-que-cometio-un-error-y-ahora-habla-de-sus-temores-ante-las-ia/202347/

Ramírez, A.K (2023) En China la inteligencia artificial llegó hasta los salones  https://vm.tiktok.com/ZMYKVpKqg/


[1] Doctor en Ciencias Pedagógicas, Postdoctorados en Pedagogías Críticas y Propuestas de Evaluación de la Calidad Educativa. Miembro del Comité Directivo del Consejo Latinoamericano de Ciencias Sociales (CLACSO).  Socio de la Campaña Latinoamericana por el Derecho a la educación. Integrante de la Asociación latinoamericana de Sociología (ALAS) y la Fundación Kairos.  Director de investigaciones del Centro Internacional de Investigaciones Otras Voces en educación (CII-OVE). Profesor universitario

[2] Esta es la profesión que primero desaparecerá con la llegada de la inteligencia artificial, según Bill Gates” https://www.guatevision.com/internacionales/esta-es-la-profesion-que-primero-desaparecera-con-la-llegada-de-la-inteligencia-artificial-segun-bill-gates

Comparte este contenido:

Silvia Leal: “La Inteligencia Artificial y las experiencias inmersivas provocarán una revolución en la educación”

Por: Regina de Miguel

La ciencia y la tecnología son dos de las pasiones de Silvia Leal, experta internacional en tendencias de futuro. Con ella hemos hablado, entre otras cuestiones, de los retos a los que se enfrenta el sistema educativo y las tecnologías que lo transformarán.

Doctora en Sociología; asesora de la Comisión Europea en estrategia digital; autora del libro ‘Y de repente… llegó el metaverso’ y del podcast ‘Tendencias con Silvia Leal’; y una de las 10 expertas más influyentes de España durante tres años seguidos según el ránking ‘Mujeres Top 100’. Así es Silvia Leal, experta internacional en tendencias de futuro, tecnología y metaverso que además ha tenido su propio programa de ciencia y tecnología en la 2 de TVE, ‘La Cuarta Revolución’.

Con una larga trayectoria en el mundo empresarial y académico, Silvia se ha convertido además en una destacada conferenciante gracias a sus habilidades para hablar en público y conectar con su audiencia. Crítica con el papel de las familias y los centros educativos a la hora de las niñas cuenten con más referentes en los campos científicos y tecnológicos, apuesta por una transformación en la educación y la incorporación de tecnologías como la Inteligencia Artificial o las experiencias inmersivas que hagan que el aprendizaje sea más personalizado y de mayor impacto.

Pregunta: ¿Cuáles considera que serán las tendencias tecnológicas que transformarán la educación en los próximos 5 años? ¿Y en 10 años?

Respuesta: En mi opinión, hay dos tendencias que se seguirán introduciendo poco a poco, porque ya están en ello, pero que acabarán provocando una revolución: la Inteligencia Artificial y las experiencias inmersivas (realidad virtual, aumentada, mixta y metaverso). Los motivos son sencillos. En el caso de la primera, porque permite personalizar el aprendizaje y porque el impacto en el tiempo de estudio y la satisfacción personal son clarísimos. Y respecto a la segunda, porque son tecnologías capaces de generar experiencias de alto impacto imposibles de olvidar. Pero, además, hay que tener en cuenta que se complementan muy bien con el ocio de las nuevas generaciones. Por ello, son herramientas que permiten formar a los estudiantes de forma muy eficaz mientras sienten que están disfrutando.

Silvia Leal

P: Hace unos meses parecía que ‘el futuro pasaba por el metaverso’, pero la irrupción de una herramienta de IA como ChatGPT ha hecho que parezca que ya no existe. ¿Qué recorrido tendrán una y otra en el entorno educativo?

R: El metaverso sigue ahí a tope, lo que sucede es que los medios de comunicación buscan otras noticias y esa se ‘ha quemado’ ya. No hay que olvidar que el metaverso y los nuevos mundos virtuales son mucho más que Meta y Mark Zuckerberg, y al resto de proveedores no les está yendo precisamente mal con esta apuesta. Por si fuera poco, aunque hablamos de metaverso, lo cierto es que no es nada nuevo, sino la fusión de una serie de tecnologías como la realidad virtual, aumentada o mixta con el 5G o la gamificación. Así que, si no hay quien las frene de forma individual, ¿qué nos debería llevar a pensar lo contrario al unirse?

Respecto a ChatGPT sucederá lo mismo. No es algo nuevo. Google ya estaba haciendo cosas parecidas con su Inteligencia Artificial: hace algunos años anunciaron que escribía poemas e incluso partituras musicales. La diferencia está sobre todo en el salto de calidad, y en que ahora somos conscientes de que debemos estar muy alerta a los retos y a las oportunidades que nos traen tecnologías como esta a la educación de nuestros hijos.

«Debemos estar muy alerta a los retos y oportunidades que nos trae la tecnología para la educación de nuestros hijos»

P: Como una de las mujeres más influyentes de España, ¿cree que las niñas tienen suficientes referentes y libertad para elegir su futuro profesional sin estereotipos?

R: Por desgracia creo que aún no somos conscientes de lo mucho que nos queda por avanzar, pero me siento optimista. Hace unos días mi hija de 12 años preguntó a ChatGPT qué profesión elegiría si fuera un humano y le dijo que sería ingeniera, así que mi hija (que ya lo estaba pensando) cada día lo tiene más claro. ¡Y ChatGPT se ha convertido así en un nuevo referente para ella! Pero volviendo a la pregunta, tenemos pocos referentes y los medios de comunicación son los que realmente tendrían la clave para marcar un antes y un después en este escenario, porque estamos viendo que desde las familias y los colegios sigue siendo complicado, aunque es imprescindible que no bajen la guardia y sigan en ello.

P: ¿Cómo atraería este futuro talento femenino para despertar su interés por la ciencia y la tecnología?

R: Todos conocemos la famosa serie de televisión ‘Urgencias’. Marcó una época porque desde que se estrenó se crearon muchos otros formatos con una trama parecida, ¿no es cierto? Pero, ¿cuántos saben por qué se creó? Fue porque en Estados Unidos hacían falta médicos y a alguien le pareció la mejor solución para lograrlo. ¡Y dio en el clavo! Por ello, me aseguraría que en la actualidad se creasen un par de series con este objetivo. También fomentaría que se hiciera para las redes que, al fin y al cabo, es su espacio natural. Creo que, de hecho, no tardaría en funcionar.

«El problema del mercado laboral es que cambia a velocidad de vértigo y es muy complicado adaptarse a su ritmo. No obstante, hay que seguir trabajando en ello y en las vocaciones»

P: ¿Qué opina del sistema educativo actual y cuáles son los principales retos a los que se enfrenta?

R: Como madre de dos hijos, uno de 13 años y otra de 12 años, creo que efectivamente tiene que cambiar y seguir incorporando tecnologías como la inteligencia artificial o las experiencias inmersivas; tecnologías que hagan que el aprendizaje sea más personalizado y de mayor impacto. Sin embargo, debo decir también que están muy motivados y, que se lo pasan muy bien en clase, por lo que no tengo ninguna duda de que se están dando pasos relevantes.

P: El componente tecnológico tiene cada vez más peso en la enseñanza, pero no podemos olvidarnos del relacionado con la parte de las emociones, que es igual de importante. ¿Cómo se pueden equilibrar ambos?  

R: No entiendo a qué se debe esa costumbre de enfrentar ambos. Es como decir que por meter música habría que quitar deporte, o que las clases de inglés restarían horas de matemáticas. Estamos en un mundo en el que no es suficiente saber tecnología, ni tampoco tener una buena inteligencia emocional; hacen falta las dos.

Silvia Leal

P: ¿Prepara el sistema educativo actual a los estudiantes para su futuro profesional? ¿Qué se podría mejorar?

R: El problema del mercado laboral es que va muy rápido, cambia a velocidad de vértigo y es muy complicado adaptarse a su ritmo. No obstante, efectivamente, hay que seguir trabajando en ello y, sobre todo, en las vocaciones. No puede ser que las ingenierías tengan en muchas universidades problemas para llenarse. Y, desde luego, hay que generar mucha vocación STEM entre nuestras niñas.

Estamos en un mundo en el que no es suficiente saber tecnología, ni tampoco tener una buena inteligencia emocional; hacen falta las dos”

P:  Se habla (y mucho) de que el alumnado debe fomentar sus habilidades digitales pensando en su futura incorporación al mercado laboral. Además de estas, ¿qué otras habilidades deben trabajar y desarrollar?

R: Como mencionamos antes, es fundamental la inteligencia emocional, pero también hay que desarrollar mucho la creatividad o el espíritu crítico. Pero si me tuviera que quedar con una sola cosa diría que la clave está en la “orientación al aprendizaje”. Es necesario asumir que necesitamos formarnos a lo largo de toda la vida y que, de hecho, se trata de algo positivo que nos permitirá desarrollarnos y aportar mucho más lo que, sin duda, repercutirá sobre nuestro éxito personal y profesional.

Fuente e Imagen: https://www.educaciontrespuntocero.com/entrevistas/silvia-leal/

Comparte este contenido:

ChatGPT: ¿Inteligencia, estupidez o malicia artificiales?

Por: Marc-André Miserez

Tiene respuesta para todo y habla como un libro abierto. El bot conversacional de OpenAI es el abanderado de una nueva era de la inteligencia artificial. Pero los expertos advierten que todavía está muy lejos de un cerebro humano y carece de marco legal.

¿Quién puede escapar a la ola del ChatGPT? Desde su lanzamiento hace cuatro meses, la prensa le ha dedicado —solo en Suiza— una media de 10 artículos diarios (contabilizados en el agregador de medios smd.ch). Si a esto añadimos todo lo que le han dedicado la radio, la televisión, los medios en línea y las redes sociales, podemos afirmar que pocas veces un producto se ha beneficiado de una campaña de lanzamiento —totalmente gratis— como esta.

Los comentarios —exagerados al principio— enseguida, a medida que la máquina revelaba sus defectos y los peligros que plantea para la fiabilidad de la información y la protección de los datos de quien lo utiliza, se volvieron tensos.

El 29 de marzo, un millar de expertos en tecnología redactaron una peticiónEnlace externo para que empresas y gobiernos suspendan durante seis meses el desarrollo de la inteligencia artificial (IA). Alegan “riesgos importantes para la humanidad”. Entre ellos están Steve Wozniak, cofundador de Apple, y Elon Musk, uno de los fundadores de OpenAIEnlace externo, la empresa que desarrolla ChatGPT.

Tres días después, el Garante italiano para la Protección de Datos —la autoridad nacional italiana de protección de datos— decidió bloquear el acceso al prototipo. AcusaEnlace externo a ChatGPT de recopilar y almacenar información para entrenar sus algoritmos sin ninguna base legal. La autoridad ha pedido a OpenAI que —en un plazo de 20 días— comunique las medidas adoptadas para remediar esta situación. De lo contrario, se enfrenta a una multa de hasta 20 millones de euros.

Europol —la agencia europea de policía encargada de la lucha contra la delincuencia en la Unión Europea— el 27 de marzo en un informeEnlace externo (en inglés) ya indicaba su preocupación por que los ciberdelincuentes puedan utilizar ChatGPT.

>> “No es de extrañar que, tras el prematuro lanzamiento de ChatGPT y la carrera a la baja en materia de seguridad provocada por Microsoft, Google o Facebook, GPT-4 esté fuera de juego”. Dice El Mahdi El Mhamdi, profesor en la Escuela Politécnica de París, que hizo su tesis en la EPFL de Lausana bajo la dirección de Rachid Guerraoui, y es una de las voces críticas contra la falta de regulación en torno a la inteligencia artificial. En este artículo se menciona a ambos.

¿Puede ser tan peligroso el chatbot? Con su interfaz sobria hasta la simplicidad y su amabilidad un tanto afectada —como ya ocurría con Siri, Cortana, OK Google y otros— no lo parece.

Para entenderlo mejor, hay que examinar qué es esta máquina y, sobre todo, qué no es.

¿Cerebro electrónico? En absoluto

Cuando se le pregunta, ChatGPT no esconde su condición: “Como programa informático, soy, sobre todo, diferente a un cerebro humano”. Y luego explica que puede procesar cantidades masivas de datos de manera mucho más rápida que una persona, que su memoria no olvida nada, pero que carece de inteligencia emocional, de conciencia de sí mismo, de inspiración, de pensamiento creativo y de capacidad para tomar decisiones independientes.

Se debe a que la propia arquitectura de la inteligencia artificial nada tiene que ver con la del cerebro, como de manera brillante se describe en un libro que se publicará el 13 de abril (en francés): 1000 CerveauxEnlace externo [1000 cerebros]. El libro es el resultado del trabajo reciente de los equipos de Jeff Hawkins, ingeniero informático estadounidense que en los 90 fue uno de los padres de Palm, un asistente personal de bolsillo que presagió el teléfono inteligente. En la actualidad, Hawkins trabaja como neurocientífico y está al frente de la empresa de inteligencia artificial Numenta.

Una de las ideas principales del libro es que el cerebro crea puntos de referencia, cientos de miles de “mapas” de todo lo que conocemos, que modifica constantemente con la información que recibe de nuestros sentidos. Una IA, en cambio, no tiene ni ojos ni oídos y se alimenta solo de los datos que se le proporcionan, que permanecen fijos y no evolucionan.

Ni siquiera sabe qué es un gato

Hawkins ilustra sus palabras con ejemplos sencillos. Una IA que etiqueta imágenes es capaz, por ejemplo, de reconocer un gato. Pero no sabe que es un animal, que tiene cola, patas y pulmones, que algunos humanos prefieren los gatos a los perros, o que el gato ronronea o se le cae el pelo. En otras palabras: la máquina sabe mucho menos de gatos que un niño de cinco años.

Y ¿por qué? Porque el niño ya ha visto un gato, lo ha acariciado, lo ha escuchado ronronear, y toda esta información ha enriquecido el “mapa” del gato que tiene en su cerebro. Mientras que un bot conversacional, como ChatGPT, únicamente se basa en secuencias de palabras y en la probabilidad de que aparezcan unas junto a otras.

>> Lê Nguyên Hoang, coautor de los libros de El Mahdi El Mhamdi y Rachid Guerraoui (citados más abajo), expone en este vídeo cuál es —en su opinión— el verdadero peligro de ChatGPT. [En francés]

Alan Turing —el brillante matemático británico que sentó las bases de la informática— ya predijo hace más de 70 años estos límites de la IA, tal y como se construye hoy en día. En 1950, en su artículo Computing Machinery and Intelligence [Maquinaria informática e inteligencia], Turing ya vio que si queríamos construir una máquina que pensara, no sería suficiente con programarla para hacer deducciones a partir de masas de datos. La inteligencia artificial —para merecer realmente su nombre— también tendrá que poder razonar por inducción, es decir, partir de un caso particular para llegar a una generalización. Y todavía estamos muy lejos de ello.

Bien dicho y a menudo cierto

Rachid Guerraoui dirige el Laboratorio de Sistemas de Información Distribuida de la Escuela Politécnica Federal de Lausana (EPFL). Junto con Lê Nguyên Hoang, su colega que dirige el canal de Youtube Science4AllEnlace externo, en 2020 publicó Turing à la plageEnlace externo – l’IA dans un transat [Turing en la playa: la IA en una tumbona], un libro cuyo editor promete que, tras leerlo, “no se mirará [no miraremos] el ordenador de la misma manera”.

«La mayoría de las veces, lo que dice es cierto. Sin embargo, también comete grandes errores. Así que no hay que fiarse ciegamente de él».

Rachid Guerraoui, EPFLEnd of insertion

Para Guerraoui, uno de los mayores riesgos de ChatGPT es el exceso de confianza. “La mayoría de las veces, lo que dice es cierto, o al menos está tan bien escrito que parece totalmente cierto. Pero también suele cometer grandes errores. Así que no hay que fiarse ciegamente de él”. Por desgracia, no todo el mundo tiene el espíritu crítico necesario para cuestionar lo que dice la máquina, sobre todo cuando lo manifiesta claramente, sin errores ortográficos ni gramaticales.

“Otro peligro que veo es que quita responsabilidad a la gente”, prosigue el profesor. “Lo utilizarán incluso las empresas. Pero ¿quién es la fuente? ¿Quién es responsable si la información que proporciona plantea problemas? No está nada claro”.

¿Teme Guerraoui que la IA sustituya a periodistas, escritores e incluso al profesorado, como se dice? Todavía no, pero cree que “algunos trabajos pueden cambiar. El profesor o el periodista se encargará de verificar y cotejar las fuentes, porque la máquina va a ofrecer un texto que parecerá verosímil y que la mayoría de las veces será cierto. Pero habrá que comprobarlo todo”.

Hay que regularlo con urgencia

“El gran desafío actual para la IA no es el rendimiento, sino la gobernanza, la regulación y la necesidad de fiabilidad”, argumenta El Mahdi El Mhamdi, antiguo estudiante de doctorado en la EPFL y en la actualidad profesor de Matemáticas y Ciencia de Datos en la Escuela Politécnica de París.

“En mi opinión, ChatGPT no solo está sobrevalorado, sino que su despliegue temprano es irresponsable y peligroso».

El Mahdi El Mhamdi, Escuela Politécnica de ParisEnd of insertion

En 2019 publicó —también junto a Lê Nguyên Hoang— Le fabuleux chantierEnlace externo – rendre l’intelligence artificielle robustement bénéfique [La fabulosa obra en construcción: hacer que la inteligencia artificial sea fuertemente beneficiosa] un libro que aborda los peligros de los llamados algoritmos de recomendación, que permiten a las redes sociales proponernos contenidos que supuestamente nos interesan en función de nuestro perfil. El Mhamdi no esperó a ChatGPT para denunciar el impacto de estos algoritmos en “el caos informativo de nuestras sociedades”.

“En mi opinión, ChatGPT no solo está sobrevalorado, sino que su despliegue temprano es irresponsable y peligroso. Cuando veo el entusiasmo sin reservas por esta herramienta, incluso entre colegas, me pregunto si vivimos en el mismo planeta”, advierte el profesor. Recuerda los escándalos de recopilación masiva de datos de Cambridge Analytica o la proliferación de programas espía —como Pegasus— que pueden instalarse secretamente en los teléfonos móviles.

El Mhamdi admite que ChatGPT puede ser una buena herramienta de trabajo, pero señala que la ciencia que ha permitido su creación “es el resultado de un cúmulo de lo que han publicado miles de investigadores en la última década, y también de colosales recursos de ingeniería, así como del trabajo muy cuestionado éticamente de pequeñas manos mal pagadas en Kenia” (ver el recuadro más abajo).

Al final, para él, “el verdadero genio de OpenAI no está en la ciencia que hay detrás de ChatGPT, sino en el marketing, delegado en un público entusiasmado con el artilugio”. Un público y unos medios de comunicación, cabría añadir, volviendo al principio de este artículo. Es cierto, todo el mundo habla de ello, pero ¿ha visto usted alguna vez un anuncio de ChatGPT?

Texto adaptado del francés por Lupe Calvo

Fuente de la información e imagen: https://www.swissinfo.ch

Fotografía: swissinfo.  Cuando se le pregunta, ChatGPT responde: “No hay límite de edad para hablar conmigo”. Aunque nadie —ni menores ni personas adultas— debe tomarse al pie de la letra todo lo que dice. Copyright 2023 The Associated Press. All Rights Reserved.

Comparte este contenido:

Nueva cruzada conservadora en las escuelas y universidades: el lápiz contra la inteligencia artificial

Luis Bonilla-Molina[1]

En este artículo nos concentraremos en lo educativo y seguramente en otro abordaremos el tema del mundo del trabajo, las profesiones y la sociabilidad. Eric Sadín (2020, p.18) señala que la inteligencia artificial significa un cambio de estatus de las tecnologías digitales al pretender dotarla de cualidad para enunciar la verdad. Los últimos años lo virtual-digital había seguido la ruta de la aceleración tecnológica centrada en generar productos que se convirtieran en prótesis humanas que elevaran la capacidad para hacer tareas, fundamentalmente en lo referido al almacenamiento, indexación y manipulación de datos. Ahora la Inteligencia Artificial (IA) comienza a ser presentada como lugar de enunciación de la verdad, en esferas que hasta ahora demandaban miradas humanas plurales, encuentros transdiciplinarios y respeto a las opiniones minoritarias.

La aparición de ChatGPT ha causado un cisma epistemológico en la academia y la intelectualidad de derechas e izquierdas. Hasta el propio Chomsky se ha situado en un lugar del debate propio del paradigma analógico. Por supuesto que la inteligencia artificial tendrá un impacto profundo, increíble y drástico en la educación, el mundo del trabajo y la sociedad. Pero, ¿Qué hacemos? ¿Imitamos a los ludistas?¿Nos convertimos en protagonistas de un Cover del siglo XXI, cuya musicalidad sea la propia del escapismo montañero del movimiento hippie?

Desde mi punto de vista la aceleración exponencial de la innovación no se va a detener, por lo tanto, lo que debemos es situarnos en el lugar de las resistencias para desde el campo de las libertades democráticas y los derechos humanos enfrentar esta tendencia a usar la IA como referente de verdad única, absoluta y racional, sin dejar por ello, de usar su capacidad de complemento útil para el desarrollo humano.

El epicentro del terremoto paradigmático causado por la fuerza telúrica de la IA lo constituyen los sistemas escolares y las universidades. La primera reacción de muchas maestras y profesores fue alertar sobre las posibilidades de “trampa” que se podían generar, al ser las IA y el ChatGPT usadas  potencialmente por quienes realizan tareas escolares en casa, ensayos, monografías, trabajos académicos, artículos para arbitraje e incluso libros.

Siquiera se atrevieron a pensar como la nueva realidad implicaba reconfigurar los estilos de aprendizaje y las labores pedagógicas en las aulas y fuera de ellas, haciendo del trabajo docente un conjunto de dinámicas centradas en los análisis y la pluralidad de enfoques, fortalecidos por producciones de ideas de las IA, ante solicitudes generadas por nosotros(as) mismos(as). En vez de saltar de alegría al darle el adiós a las mecánicas tareas escolares, el inmovilismo educativo hizo que muchos se atrincheraran en la tradición, obviando las críticas que se le venían haciendo a la escuela y universidad reproductora.

La IA ha hecho saltar por los aires la noción de currículo prescrito día a día, dibujando en el horizonte a la contingencia curricular o el currículo abierto, guiado por agendas temáticas y la convergencia disciplinar, como mediaciones que estructurarán los contenidos móviles en un modelo pedagógico que nada tiene que ver con los presupuestos educativos de las tres primeras revoluciones industriales.

Hoy, 2 de mayo de 2023 en la prensa chilena (Las Ultimas Noticias, página 9) aparece un amplio reportaje hecho al sicólogo clínico Christopher Willard, académico de Harvard quien plantea “que las escuelas de élite anuncian que volverán al lápiz y al papel y eliminarán los computadores”[2]. Willard, especialista en el movimiento Mindfulness[3], heredero de las corrientes que empalman narrativas de la nueva era con soporte científico, desarrolla los argumentos de una de las corrientes neoconservadoras hedonistas individualistas norteamericanas a quienes les asusta que lo nuevo pueda significar una redefinición de las clases sociales dominantes, ante el emerger de una nueva “generación” de tecnólogos millonarios.

Las criticas ciertas al abuso de lo tecnológico en hogares e instituciones, no puede significar una argumentación sería para omitir el uso de la innovación tecnológica en lo escolar. Se trata por el contrario de construir consensos para el uso adecuado y equilibrado de lo tecnológico.

Las instituciones educativas deben combinar la escritura de grafito con la del teclado, la lectura analógica con los hipertextos, porque ciertamente tenemos un problema serio en la lectura comprensiva (a veces incluso en docentes), hecho que limita las posibilidades de desarrollar un sistema educativo analítico.  Pero esto no es responsabilidad de lo digital-virtual ni de las IA, sino el resultado de un sentido común pragmático en lo escolar que ha impuesto la moda de aprender aquello que le dará a los y las futuras profesionales el acceso al empleo y dinero en el futuro.  Al no aparecer la lectura como indicador de éxito para la cultura escolar del emprendimiento y la educación financiera, la lectura comprensiva fue dejada a un lado en las últimas cuatro décadas de neoliberalismo. Es algo que debemos resolver en el terreno analógico y digital. Lo que resulta absolutamente ridículo es pretender que sacando lo digital-virtual-IA, la escuela-universidad vayan a ser más humanista o mejorar problemas que en realidad están asociados al paradigma STEM y la disminución del peso de las ciencias sociales y humanistas en lo escolar.

Peor aún, una decisión de este tipo podría profundizar aún más la exclusión, porque la escuela tiene la tarea de tratar de igualar, disminuyendo el impacto de las diferencias de acceso tecnológico por origen social. Es decir, mientras el hijo del rico se puede dar el lujo de solo usar lápiz en la escuela porque tiene computadora, internet y consola de video juego en casa, para el pobre que no tiene capacidad de acceder a estos equipos en su cotidianidad, una escuela de lápiz solo reafirmaría la exclusión tecnológica y científica a la que está sometido como hijo de explotados y marginados.

Se debe redoblar la exigencia a los gobiernos para la actualización técnico digital-virtual y en inteligencia artificial para las escuelas universidades, la construcción de equipos nacionales de tecnólogos que trabajan la innovación desde las necesidades y requerimientos nacionales, que construyan plataformas y aplicaciones con taxonomías propias, así como repositorios digitales fuera de los circuitos de privatización educativa. En ese sentido es urgente revertir las políticas neoliberales de precarización salarial y condición de trabajo de los y las docentes, así como el abandono de agenda social para estudiantes, especialmente de los sectores pobres, marginados y explotados.

El problema de fondo es que la inoperancia en esta cuestión, la falta de perspectiva paradigmática, la brecha epistémica y la despolitización de las discusiones sobre el particular, evidenciadas en las incipientes discusiones sobre la relación IA – Educación, muestran un estado del arte que facilita el proceso de transformación digital que impulsa la industria tecnológica, las financieras internacionales y una parte importante del centro capitalista (G20. Foro de Davos, Banco Mundial, Banco Interamericano de Desarrollo, OCDE). El estancamiento paradigmático termina siendo funcional a la mutación virtual de los sistemas escolares, ya sea por falta de argumentos o por esquivar los debates.

Las políticas públicas educativas de transformación digital asumidas por muchos gobiernos del orbe, parecieran contar con una teleología orientada a la supresión de la presencialidad escolar, con el propósito de extraer el presupuesto destinado a la educación pública presencial y conducirlo a las arcas del capital tecnológico trasnacional; ese es otro problema que requiere soluciones diferentes, orientadas al quiebre de la dependencia tecnológica.

Necesitamos un uso de lo digital-virtual y la IA en lo escolar y las universidades, no como una moda o un aspecto neutral, sino asociado a la posibilidad de seguir avanzando en proyectos emancipatorios.

Tenemos que comenzar a discutir seriamente las formas digitales, virtuales y de IA que deben desarrollarse en las escuelas y universidades, sus taxonomías, lenguaje de programación, estructura paradigmática y racionalidad de uso; eso implica un giro abrupto de 180 grados en espiral que debe afrontar la formación docente y las pedagogías críticas en el presente.

 El inmovilismo y el salto atrás son las peores formas de defender la escuela pública presencial. Necesitamos pensar la emancipación y la liberación, el pensamiento crítico y la creatividad, lo popular y lo comunitario, en clave dialógica entre lo analógico y el mundo de los algoritmos. ¿Nos atrevemos?

Referencias

Sadin E (2020) La inteligencia artificial o el desafío del siglo: anatomía del antihumanismo radical


[1] Doctor en Ciencias Pedagógicas, Postdoctorados en Pedagogías Críticas y Propuestas de Evaluación de la Calidad Educativa. Miembro del Comité Directivo del Consejo Latinoamericano de Ciencias Sociales (CLACSO).  Socio de la Campaña Latinoamericana por el Derecho a la educación. Integrante de la Asociación latinoamericana de Sociología (ALAS) y la Fundación Kairos.  Director de investigaciones del Centro Internacional de Investigaciones Otras Voces en educación (CII-OVE). Profesor universitario

[2] https://www.lun.com/lunmobileiphone/homeslide.aspx?dt=2023-05-02&EsAviso=0&PaginaId=9&bodyid=0&mc_cid=3eae26d4b9&mc_eid=dd43ca7d1d&strReferer=#pagina-9

[3] Basado en yoga y Pilates para promover la tranquilidad y armonía mental. Es un movimiento que ha crecido entre la burguesía y la clase media alta a nivel internacional, como una forma de escape a la vida acelerada del presente. Este movimiento se basa en respuesta individuales y la auto superación, ocultando que la clase obrera y los docentes viven el estrés de la precarización laboral y salarial que demanda justicia social, laboral y salarial para poder iniciar cualquier programa de equilibrio mente-cuerpo. Claro, si esto ocurre las clases dominantes tendrán el estrés generado por contar con menos ganancias producto de la explotación laboral, la especulación financiera y las desigualdades.

Comparte este contenido:

Más allá del plagio: las otras grandes amenazas de las IA generativas

Por:  Karina Fuerte

Olvídate del plagio, conoce otras amenazas del uso de ChatGPT y otras IA generativas que son mucho más significativas y tendrán un impacto en el futuro de la educación.

Esta semana leí dos reflexiones muy interesantes sobre el uso de ChatGPT y otras inteligencias artificiales (IA) generativas en el aula. La primera es de Hong Yang, publicada en Nature. En este artículo, Yang explica por qué decidió empezar a usar las IA generativas y los grandes modelos de lenguaje (LLM por sus siglas en inglés) en sus clases y explica por qué las universidades deben incluirlas en sus programas de estudio. “Mis estudiantes pronto se graduarán y empezarán a trabajar, y sus empleadores podrían pedirles que trabajen con modelos de inteligencia artificial. Si no saben cómo usarlos correctamente, podría frenarlos. No podemos evitar que los estudiantes usen calculadoras o Internet, y no podremos evitar que usen ChatGPT. Es mejor entender la herramienta y tratar de integrarla en la enseñanza”, escribe Yang, profesor de ciencias ambientales y copresidente de la red Black, Asian and Minority Ethnic de la Universidad de Reading, Reino Unido.

La segunda lectura, escrita por Collin Bjork y publicada en The Conversation, exhorta a las escuelas y universidades a no entrar en pánico por la llegada de las AI generativas, particularmente en el ámbito del plagio académico, en su lugar, nos invita a pensar en otras amenazas mucho más significativas que pueden afectar otros temas como la equidad en la educación. “En lugar de preocuparse demasiado por el plagio, los educadores se beneficiarían de prepararse para otras desigualdades de la IA, las cuales se muestran en la última versión de OpenAI: GPT-4”, advierte Bjork, profesor titular en la Universidad de Massey.

Ambos artículos tocan puntos muy importantes, aunque con enfoques diferentes. Por un lado, Yang se centra en el porqué es esencial cambiar los métodos de evaluación tradicionales de manera que los estudiantes (y los docentes) aprendan a usar estas herramientas como apoyo para sus proyectos. En su caso, pidió a los estudiantes que además de escribir ensayos, den una presentación oral de 10 minutos para compartir sus hallazgos. “Este enfoque no solo reduce las posibilidades de plagio, sino que también hace que el proceso de evaluación sea más interactivo y atractivo”, señala el profesor.

Por su parte, Collin Bjork explica que la cuarta versión de ChatGPT, aunque es más segura y precisa, ahora tiene un costo de US$20 al mes. Si bien este puede ser un precio insignificante para muchas personas (sobre todo por lo que puede ofrecer), para muchas otras personas pagar veinte dólares al mes solo para usar esta herramienta es impensable. Abriendo así una brecha digital significativa que apenas está iniciando, pues con el tiempo esta brecha podría ampliarse cada vez más. “Esta brecha digital coloca a los estudiantes y las instituciones educativas en dos bandos. Aquellos con suficientes recursos para disfrutar de los beneficios de las herramientas de IA. Y aquellos sin la misma flexibilidad financiera que se quedan atrás”, señala Bjork.

Ambos autores coinciden en que las IA generativas pueden tener un impacto negativo en áreas como la diversidad y la inclusión de las instituciones educativas. Yang da el ejemplo de cómo pidió a ChatGPT que le diera una lista de libros sobre cambio climático y sus autores, especificándole a la IA que la lista de libros se la diera «independientemente de la raza y el idioma». El resultado fue decepcionante, pues todas las lecturas recomendadas de ChatGPT habían sido escritas en inglés, “nueve de los diez autores eran blancos y nueve de los diez autores eran hombres”, señaló Yang por lo que advierte a los lectores que “el uso de información de libros y sitios web antiguos para capacitar a los LLM puede conducir a representaciones sesgadas e inexactas de las perspectivas de las personas en comunidades marginadas, al tiempo que amplifica las voces de quienes están en posiciones de poder”.

En la misma línea, Collin Bjork advierte que las IA pueden perpetuar el dominio global del inglés a expensas de otros idiomas, “especialmente los idiomas orales e indígenas”. Este es un tema al que como comunidad educativa debemos prestar mucha atención ahora y en los próximos años, ya que los grandes modelos de lenguaje (LLM) aprenden de conjuntos de datos en línea con poco contenido indígena y una cantidad abrumadora de contenido en inglés. “Estas amenazas son importantes porque las herramientas de inteligencia artificial pronto se incorporarán a Microsoft Office, los motores de búsqueda y otras plataformas de aprendizaje”, advierte Bjork.

Ambas reflexiones me parecieron muy interesantes y refrescantes, ya que no se concentraban en el plagio como única amenaza y punto crítico del uso de inteligencias artificiales generativas como ChatGPT. En lo personal, me preocupa que el uso de estas herramientas perpetúe el statu quo y el dominio de los grupos de poder, minimizando todavía más las voces de las minorías y de los grupos históricamente oprimidos.

Me gustaría conocer su punto de vista sobre estas problemáticas. ¿Habías pensado en estas otras amenazas de las IA? Más allá del plagio, ¿qué otras desventajas destacas del uso de estas herramientas?

Por último, si quieres continuar con la conversación sobre este tema, te invito a unirte al Diálogo: “El impacto del ChatGPT y las IA generativas en la educación superior”, que se llevará a cabo este martes 18 de abril a las 9:00 a.m., hora central de México (GMT-6) a través de Facebook Live. En esta edición de Diálogos, expertos del Tec de Monterrey, la Universitat Oberta de Catalunya (UOC) y la Pontificia Universidad Católica del Perú (PUCP) hablarán sobre los aspectos positivos y los retos que conlleva la utilización estas herramientas.

Hasta la próxima semana.

Karina Fuerte
*Editora en jefe, Observatorio del Instituto para el Futuro de la Educación

Fuente de la información e imagen: https://observatorio.tec.mx

Comparte este contenido:

Inteligencia Artificial: Desafíos del avance tecnológico

Por Enrique Amestoy

Si bien la inteligencia artificial lleva a imaginar máquinas capaces de pensar y actuar como personas, la realidad es que refiere a programas que pueden definir patrones, problemas y, hasta cierto punto, aprender: muy util cuando de clasificar o interpretar gran cantidad de datos se trata.

El término “Inteligencia Artificial” (AI por su sigla en ingles) fue acuñado por el informático John McCarthy en la Conferencia de Dartmounth en 1956. Allí se propuso un estudio que duraría “2 meses, para 10 personas. El estudio es para proceder sobre la base de la conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, ser descrito con tanta precisión que puede fabricarse una máquina para simularlo. Se intentará averiguar cómo fabricar máquinas que utilicen el lenguaje, formen abstracciones y conceptos, resuelvan las clases de problemas ahora reservados para los seres humanos, y mejoren por sí mismas.”[1] Las ideas más b´ásicas de la AI se remontan al año 250 a.C. cuando el matemático e ingeniero hidráulico Ctesibio de Alejandría construyó una máquina de regulación de flujo de agua autocontrolada. A mediados del siglo XX se desarrollaron diferentes lenguajes de programación y sistemas informáticos como LISP, primer lenguaje de procesamiento simbólico. El desarrollo exponencial de la informática de fines del siglo XX hizo también exponencial el desarrollo de herramientas que intentan realizar procesos y razonamientos imitando el humano. El computador Deep Blue creado por IBM a fines de los años 90, que venciera al experto ajedrecista ruso Garri Kaspárov, dio cuenta de que se podrían sustituir razonamientos o secuencias de pensamiento humano con sistemas informáticos. En 2019 Google presentó un Doodle (alteración del logotipo del buscador para recordar fechas, eventos o personas) que homenajeaba a Bach y permitía crear música con la introducción de una melodía de dos compases, apoyado en AI. Sin duda alguna el chatbot chatGPT prototipo de la firma OpenAI lanzado el 30 noviembre del 2022, es uno de los modelos de lenguaje basados en AI que ha llamado mas la atención del mundo entero. Tal ha sido el impacto de esta herramienta que a fines de marzo de 2023 un grupo de ejecutivos de grandes firmas tecnológicas, encabezados por Elon Musk (Tesla, Twitter, SpaceX y cofundador de OpenAI, de la que se desvinculó), junto a académicos y expertos en AI firmaron la carta abierta emitida por el “Future of Life Institute”[2] donde se solicita pausar el entrenamiento de chatGPT por entender que su desarrollo descontrolado supone un “riesgo para la sociedad y la humanidad”. Al 7 de abril de 2023 la carta superaba las 17.000 adhesiones. El texto señala que si la pausa no puede ser implementada y verificada rápidamente, “los gobiernos deberían intervenir e instituir una suspensión». El pasado 5 de abril de 2023 la banca de inversión Goldman Sachs presentó un informe en el que señala que la AI podría reemplazar el equivalente a 300 millones de empleos de tiempo completo y podría reemplazar una cuarta parte de las tareas laborales en EE.UU. y Europa y eventualmente podría aumentar el valor anual total de los bienes y servicios producidos a nivel mundial en un 7%. [3]

Fechado en abril de 2021 la Unión Europea presentó un documento base para lo que será la primer “Ley de Inteligencia Artificial”[4] con un ámbito de aplicación que abarca a todos los sectores (a excepción del militar) y todos los tipos de inteligencia artificial. Al igual que el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, la Ley de AI podría convertirse en un estándar mundial. En efecto: en setiembre de 2021, la Cámara de Diputados de Brasil aprobó un proyecto de ley de marco legal para la AI. El proyecto de ley 21/2020[5] se encuentra aún a estudio del Senado de Brasil. Con el objetivo de poner los sistemas de Inteligencia Artificial al servicio de la humanidad, las personas, las sociedades y el medio ambiente y los ecosistemas, así como para prevenir daños, los 193 Estados miembros de la Conferencia General de la UNESCO adoptaron, en noviembre de 2021, la “Recomendación sobre la Ética de la Inteligencia Artificial”[6], primer instrumento normativo mundial sobre el tema. Del 6 al 10 de marzo se llevó a cabo en Montevideo el Encuentro Latinoamericano de Inteligencia Artificial Khipu 2023, del que surge la Declaración de Montevideo sobre AI y su impacto en América Latina[7]. Convocado por la organización sin fines de lucro Khipu se llegó a una declaración final donde se promueve que la AI debe ser puesta al servicio de las personas, que su implementación debe cumplir con los principios rectores de los DDHH, donde la AI no debe dañar a personas y minimizar el impacto ambiental, mejoras en las condiciones de trabajo, diversidad cultural y fortalecer la soberanía de los países latinoamericanos.

De proyectos de ley, recomendaciones éticas o declaraciones de la sociedad civil se desprende que hay acuerdo en que los avances en la implementación de Inteligencia Artificial deben tener grandes consensos globales, con la participación de gobiernos, empresas tecnológicas y trabajadores, para que sean respetados los DDHH, cuidado el medio ambiente, garantizada la inclusión en la diversidad, logrando avances tecnológicos que tiendan a ser inocuos, donde no exista discriminación por raza, género o condición económica o social, con proyectos sustentables que garanticen la seguridad de los datos respetando su intimidad e integridad. Todo en el marco de la convocatoria a múltiples partes interesadas en la toma de decisiones.

Automatización, robots y la AI están cada día mas presentes en el mundo del trabajo: automatización de los procesos industriales, teleoperarios de primer nivel sustituidos por chatbots, cajeros automatizados en supermercados, porteros y vigilantes sustituidos por pantallas y cámaras son sólo algunos ejemplos. Con el advenimiento de la tecnología 5G seguramente encontraremos cada día mas automatizado el mundo del transporte, por ejemplo: son varias las empresas de vehículos que esperan a la generalización en el uso del 5G para lanzar vehículos que se conduzcan solos. La mesa de entrada de la mayoría de las empresas está automatizada con chatbots, AI que aprende sobre el funcionamiento de la empresa y gustos y necesidades de clientes. La OCDE estimaba en 2017 que en pocos años mas de un 10% de las fuentes de trabajo humano fueran sustituidas por procesos autómatas. En la medida que la automatización crece en el mundo, también crece la certeza de que se perderán miles de puestos de trabajo y la alentadora esperanza de que se generarán nuevos en otras áreas; “Es cierto que la inteligencia artificial destruirá puestos de trabajo, sobre todo de baja cualificación. Pero al mismo tiempo se generarán posiciones relacionadas con el mantenimiento y la programaciónseñalaba Raúl Sánchez, director español de la trasnacional de trabajo temporal y servicios de RRHH Randstad Technologies. ¿Estamos preparados a nivel global para capacitar en mantenimiento, testing o programación a los miles de trabajadores que hoy son desplazados de tareas poco cualificadas? ¿Cómo impactará todo esto en los países no centrales, en particular de Latinoamérica? El economista español Santiago Niño Becerra responde el 27 de marzo de 2023 en su cuenta de Twitter a la pregunta ¿cómo cree que el big data o la inteligencia artificial va a transformar este negocio? “la tecnología cara ya está realizando tareas de valor, y a medida que se vaya abaratando irá complementando las de menor valor. Esta es una de las razones por la que la clase media se está evaporando”. También Niño Becerra daba cuenta desde su cuenta de Twitter en julio del 2020 que la Unión Europea intentaba invertir en AI la cantidad que Google (Alphabet Inc) invertía por si sola ese año. Atravesamos sin dudas momentos de disrupción tecnológica, la tercera en la historia de la humanidad. Si es que existen, están organizados y tienen real capacidad de acción: ¿qué papel tendrá el neoludismo (heredero del ludismo, corriente filosófica británica del siglo XIX que alertaba y actuaba por el peligro que significaba la pérdida de trabajo menos cualificado por la introducción de máquinas en los procesos industriales) en esta tercera revolución industrial?

Sobre tecnología y software de inteligencia artificial debemos tener en cuenta, además de sesgos de raza o género, los eventuales sesgos ideológicos que puede sin duda tener cada una de las herramientas implementadas o en desarrollo. Podemos definir como icónico el caso del afroamericano Robert Julian-Borchak Williams, detenido en junio del 2020 en la puerta de su casa en Michigan por un supuesto delito de hurto. La detención se basó en un error del software de inteligencia artificial de reconocimiento facial de la policía, utilizado por mas de 20 años a sabiendas de que el sesgo de raza en dichos sistemas es porcentualmente alto y por lo tanto induce a graves errores y hay decenas de recomendaciones de dejar de utilizarlos. De igual forma recordar el caso de estudiantes del Reino Unido que debido a la pandemia COVID-19 fueron calificados por un software. Para determinar qué calificación hubieran obtenido si se hubieran presentado a examen, el programa tomó calificaciones existentes y también tuvo en cuenta el historial de su escuela a lo largo del tiempo. Esto terminó penalizando a los mejores estudiantes de barrios pobres y de minorías raciales, que por lo general obtienen calificaciones promedio más bajas que en escuelas donde asisten estudiantes de mayor poder adquisitivo.

Los sistemas de inteligencia artificial son alimentados por datos de personas de todo el mundo. En la mayoría de los casos sin el conocimiento y posterior consentimiento expreso de los mismos sobre la forma en que son almacenados y utilizados. La prevalencia de hombres blancos occidentales al frente de las firmas y el desarrollo de las herramientas y que la mayoría de las empresas sean de Estados Unidos, hace poco probable pensar en la no existencia de sesgo en los resultados. En este multimillonario negocio también ha entrado a jugar fuerte China: la respuesta de occidente ya ha sido contundente: Reino Unido, Estados Unidos, Canadá, Unión Europea, Taiwán, India (que también ha ido contar otras apps chinas como WeChat), han prohibido el uso de la aplicación TikTok en teléfonos asociados con sus gobiernos alegando invasión a la privacidad y la preocupación de que Beijing se haga de datos privados de los usuarios, organizaciones o para tratar de promover fake-news. TikTok, empresa china propiedad de Bytedance, niega recopilar más datos de usuarios que otras empresas de redes sociales (Facebook, Twitter, Instagram, etc) y dice no compartir información con el gobierno chino.

Señalábamos mas arriba que en 2020 la Unión Europea intentaba invertir en AI la cantidad que Google invertía por si sola. ¿Cuánto invierten los países y como se posicionan a nivel mundial en materia de innovación y tecnología? La Organización Mundial de la Propiedad Intelectual (WIPO por sus siglas en inglés) realiza desde hace 15 años el Indice Global de Innovación donde revela cuáles son las economías más innovadoras del mundo, clasificando los resultados de la innovación de 132 economías y destacando sus puntos fuertes y débiles. Desde 2011 los 10 países que lideran dicho indice son: Suiza, Estados Unidos, Suecia, Reino Unido, Países Bajos, Corea del Sur, Singapur, Alemania, Finlandia y Dinamarca.

El primer país latinoamericano que aparece en 2022 el indice de WIPO es Chile ocupando el puesto número 50. Uno de los valores que encontramos es el porcentaje del PIB (R&D sus siglas en inglés) destinado a Innovación. Allí vemos que Suiza destina el 3,1%, Estados Unidos el 3,5%, Suecia el 3,5%, Reino Unido el 1,7%, Países Bajos el 2,3%, Corea del Sur el 4,8%, Singapur el 1.9%, Alemania el 3,1%, Finlandia el 2.9% y Dinamarca el 3.0%. Los porcentajes coinciden con los presentados en las gráficas de Gastos de Investigación y Desarrollo en relación al porcentaje del PIB del Banco Mundial. Chile invierte el 0.3% de su PIB, Argentina (puesto 69) el 0.5%, Brasil (puesto 54) el 1.2%, Colombia (puesto 63) el 0,3%, Ecuador (puesto 98) el 0,4%, Nicaragua (puesto 98) el 0.1% Paraguay (puesto 91) el 0,1%, y Uruguay (puesto 64) el 0,5%.

Según datos recogidos de nasdaq.com presentados por la española Statista, la firma Amazon destinó en 2020 u$s 43.000 millones a I+D, Alphabet u$s 27.600 millones y Huawei u$s 22.000 millones. El Banco Mundial informa en su sitio web que el PIB de Chile en 2021 fue de 317.000 millones de dólares, por lo que el 0,3% destinado a I+D fueron u$s 951 millones: el 2.44% de lo invertido por la firma Alphabet en el mismo período. La inversión de la Unión Europea, luego de aumentar en 2021 un 9,4%, fue de 17.249 millones de euros: unos u$s 18.926 millones. Sin embargo Alphabet invirtió el mismo año en I+D u$s 31.562 millones e incrementó a u$s 39.500 millones en el año 2022.

En tanto la carrera por el desarrollo de inteligencias artificiales parece no detenerse, debemos analizar también las posibilidades reales de países o regiones de participar e incidir en desarrollo, legislación y contralor de herramientas actuales y las que estén por venir. Es sencillo suponer que no habrá posibilidad de soluciones soberanas que logren dar verdadero sustento a la Soberanía Tecnológica, si los Estados no legislan para poder participar, controlar y auditar los desarrollos así como el uso de los datos colectados para entrenar sistemas de AI o cualquier tipo de manejo de datos personales. Parece también simple deducir que puedan ser los países menos desarrollados quienes entreguen soberanía a manos de países o empresas que logren detentar el control de dichas tecnologías. Estados Unidos, China y los gigantes tecnológicos tienen todas las de ganar. La velocidad de los desarrollos obliga a acelerar medidas que incrementen los porcentajes de PIB destinado a I+D, legislación en la línea de los planteos hechos en los textos citados mas arriba, proyectos colaborativos regionales en materia de desarrollo y férreo control de máquinas y programas que las diferentes empresas tecnológicas intenten introducir en el mercado. La participación de múltiples partes interesadas con acento en la Academia y la sociedad civil, es indispensable en tanto podrá medir el sesgo y priorizar el enfoque humano que tengan los avances en innovación y la forma en que se continuarán utilizando los datos personales así como la sustitución de diversos puestos de empleo.

Notas:

[1] http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html

[2] https://futureoflife.org/open-letter/pause-giant-ai-experiments/

[3] https://www.goldmansachs.com/insights/pages/generative-ai-could-raise-global-gdp-by-7-percent.html

[4] https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=celex:52021PC0206

[5] https://www.camara.leg.br/proposicoesWeb/prop_mostrarintegra?codteor=1853928

[6] https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa

[7] https://www.fundacionsadosky.org.ar/declaracion-de-montevideo-sobre-inteligencia-artificial-y-su-impacto-en-america-latina/

Comparte este contenido:
Page 6 of 48
1 4 5 6 7 8 48