Saltar al contenido principal
Page 9 of 48
1 7 8 9 10 11 48

ChatGPT o cómo la inteligencia artificial puede empujar a cambios metodológicos de enseñanza

Por: 

La IA ya es una realidad, al menos, en cierta medida. Hace unos días El País publicaba un reportaje en el que se había puesto a prueba a ChatGPT, un software de libre acceso. Había conseguido aprobar un examen de acceso a la universidad. ¿Qué implicaciones puede tener?

ChatGPT es un software de libre acceso. En la web puedes lanzar una pregunta que él la responde según unas ciertas características. Tal es el punto que puede llegar a escribir composiciones completas que hoy por hoy ya se están utilizando en el sector educativo. Una nueva vuelta de tuerca al concepto clásico del Rincón del vago.

Linda Castañeda es doctora en Tecnología Educativa y profesora titular en la Universidad de Murcia. Hablamos con ella de las implicaciones que un software de esta clase puede llegar a tener en las universidades. Explica que aunque ahora ChatGPT ha saltado a la palestra el uso de IA no es especialmente nuevo en el sector educativo y que ya hace algún tiempo que se vienen usando herramientas, tal vez no tan sofisticadas como esta.

Ya hace tiempo que se usan programas para detectar cuándo el alumnado ha hecho un trabajo a base de copiar y pegar textos de otros. De ahí se pasó a herramientas que eran capaces de parafrasear, “es difícil que sea detectado”, comenta Castañeda.

Esta doctora tiene claro que el problema no es tanto el uso de este tipo de herramientas informáticas para la elaboración de textos. “Nos hemos empeñado durante todo el desarrollo de la tecnología en cómo vamos a hacer otra tecnología que evite que nos engañen” pero, para ella, “el asunto es qué significa escribir un trabajo académico, algo muy complejo”.

En una conversación informal, una docente universitaria comentaba cómo una de sus alumnas le había entregado un trabajo plagiado de arriba abajo. Solo había cambiado el nombre de la autoría del texto. Una búsqueda rápida le había dado la respuesta a sus dudas. La alumna, suspendida, había pedido revisión con ella. Las normas de la Universidad eran claras, según explicaba. La docente debería haber avisado a los servicios jurídicos de la universidad para que tomaran cartas en el asunto. Así se lo hizo saber a la alumna que, en un alarde de ignorancia o de huida hacia adelante, aseguraba que no sabía que se trataba de un plagio.

“Parece que nuestro objetivo como profes es que no nos engañen, no que los estudiantes aprendan X, sino que no me engañen”, continúa Castañeda. Para esta profesora, la clave pasa porque el alumnado comprenda que la cosa pasa por no engañarse a sí mismo, porque aquello que vaya a hacer en la escuela, la universidad, no sea como hacerse trampas al solitario.

Rafael Porlán es catedrático de la Universidad de Sevilla. Dedica buena parte de sus esfuerzos, desde hace años, a la formación docente del profesorado de la institución en la que trabaja. Cree que cuestiones como las que plantea la IA no son más ni menos que una “crisis del modelo transmisivo tradicional”. Él apuesta por modelos activos, de proyectos de investigación.

Según su opinión, cuando el alumnado utiliza este tipo de trucos no hace mucho más que responder al propio sistema de enseñanza. “Si el modelo me ignora, copio; busco trabajos para evitarme esfuerzos”, asegura.

Desde su punto de vista es necesario que “todo lo que el alumno pueda hacer, lo haga”. De esta manera, “los docentes organizamos el trabajo para que el alumnado agote su capacidad y, después, tirar de ellos y que lleguen más lejos”. Y cita a Vygotsky y su teoría y su teoría del desarrollo próximo. “Si te pongo un reto, te muevo, la gente se crece”, asegura Porlán, quien tiene claro que “lo que producen tiene limitaciones, pero ya se han involucrado y, a partir de ahí, puedes pedirles mucho más”.

Castañeda da clases a quienes serán el futuro de la profesión docente. Es consciente de que su alumnado hoy por hoy ya está hacen uso de ChatGPT para algunas de las cosas que se les piden desde la Universidad. “Sé que están usándolo para resolver tareas sencillas. La idea es cómo hacer que sean conscientes del potencial que tiene y que eso mismo se lo harán sus estudiante”. Por eso insiste en que lo importante es “generar tareas que tengan relevancia y que con ChatGPT le puedan ser de utilidad”.

La misma profesora que hablaba del plagio de una de sus alumnas, también señalaba cómo en algún máster con un gran volumen de alumnado extranjero era más o menos sabido que los trabajos finales que se pedían los compraban a terceras personas. Entre otras cosas, porque no dominaban el castellano como para haberlos elaborado.

“Ser capaz de reproducir la información hace tiempo que no es lo más importante del aprendizaje o de la educación”, afirma Castañeda. Para esta doctora está claro que el contenido, siendo relevante no es lo sustancial de toda esta cuestión. Sobre todo “porque habrá otra herramienta que lo pueda reproducir”.

Para ella, herramientas como ChatGPT, ahora mismo, producen mucha sorpresa pero “no está ni mucho refinado, ni es infalible ni las respuestas son brillantes” y vuelve al inicio: “la pregunta es hasta qué punto estamos dando a nuestros estudiantes algo más que una respuesta ramplona, hasta qué punto hacemos propuestas a los estudiantes que les pidan ir más allá”.

“Si eso pretendemos de los humanos, que trasciendan, tendremos que hacer que la escuela a la que asistan, les enseñe a ser trascendentes y pensar más allá”, asegura Castañeda. “Tenemos que plantearnos cosas serias”, zanja.
Esta doctora también asegura que es importante ver los posibles usos de herramientas de inteligencia artificial. Habla de cómo algunos compañeros las utilizan para, por ejemplo, crear algunos contenidos introductorios: “Los 5 libros clave sobre no sé qué. Para empezar, viene bien. O preguntarle cuáles son las 5 tesis más relevantes” en algún tema concreto para luego comentarlo en la clase.

Todo esto, además de suponer un acicate para cambios metodológicos, también puede suponer la obligación de cambiar los modelos de evaluación, como explica Castañeda, “para que no acabe evaluando a ChatGPT”. “La evaluación debe ver si el alumno aprende. ¿Qué significa esto? Es algo que le pregunto a otros docentes. Qué significa en tu materia que el alumnado aprenda. Habrá que responder a esto en un mundo en el que la IA está al alcance de la mano. Ya no pasa en las películas o la ciencia ficción”.

Fuente e Imagen: https://eldiariodelaeducacion.com/2023/01/30/chatgpt-o-como-la-inteligencia-artificial-puede-empujar-a-cambios-metodologicos-de-ensenanza/

Comparte este contenido:

Problemas concretos del modelo hibrido de enseñanza

Por: Luis Bonilla-Molina

  1. ¿Qué es la enseñanza híbrida?

El modelo de enseñanza hibrida se fundamenta en combinaciones de la presencialidad con la virtualidad, ya sea de manera sincrónica o asincrónica.

En el caso de la modalidad híbrida sincrónica, es decir en tiempo real, ello significa que el docente contará con un grupo de estudiantes que estarán en el aula y otro conectados a través de alguna plataforma digital.

En algunos casos, esta modalidad comporta la conexión virtual del docente, quien cuenta con estudiantes reunidos en varios ambientes presenciales (aulas) que le escuchan a través de una pantalla y otros estudiantes virtuales conectados desde distintos lugares a través de la plataforma digital.

La enseñanza en modalidad híbrida asincrónica es aquella que cuenta con módulos o clases grabadas, colgadas en un sitio web o repositorio digital,  que deben ser vistas por los estudiantes conforme a su disponibilidad de horario, pero dentro de unos límites temporales. Esta modalidad suele complementarse con listas de correos, creación de salas de chat compartidas y otras herramientas, desde donde en tiempo real, se comparten inquietudes, dudas o preguntas que el docente responde.

La llegada de la inteligencia artificial a la educación está abriendo la posibilidad de otros modelos híbridos personalizados, mediante la creación de avatares de los y las docentes, que han capturado los datos propios de las clases y materiales del docente y, mediante análisis de metadatos pueden responder a las dudas y acompañar los distintos ritmos de aprendizaje. Pero aún estamos lejos de poder usar masivamente esta variante en Latinoamérica.

Para poder trabajar adecuadamente en modelos de enseñanza híbrida debemos superar los traumas del paso abrupto de la presencialidad a la virtualidad, ya que lo que ocurrió durante la pandemia fue una alfabetización forzada, en la mayoría de caos exigiendo capacidades auto didactas de docentes y estudiantes. Eso creo vacíos, limitaciones e incluso errores que se sostienen en la actual fase de la “post pandemia”.

El uso de los modelos virtuales e híbridos, a partir del retorno a las aulas, debe evitar la tentación de las burocracias educativas de sustituir al máximo la presencialidad, imponiendo cada vez más formatos digitales.

El uso de los modelos híbridos y virtuales varía conforme al desarrollo cognitivo, edad y madurez del grupo estudiantil. Las clases bajo el formato virtual e híbrido requieren una formación profesional muy especial, para preparar los contenidos con modelos didácticos que se correspondan a cada uno de ellos.

Mi experiencia empírica me indica que la virtualidad y los modelos híbridos:

  1. Para educación inicial no debe exceder los cinco minutos por jornada escolar diaria;
  2. Para educación primaria no debe exceder los cinco minutos por hora de clase ni la media hora por jornada escolar;
  3. Para secundaria no debe superar los diez minutos por hora de clase ni la hora por jornada escolar;
  4. En el caso de la universidad, el ciclo de atención del estudiante decae seriamente luego de los diez minutos, algo que debe ser tomado en cuenta a la hora de desarrollar las clases y preparar las grabaciones

2. Requerimientos técnicos para un modelo escolar híbrido

Los Ministerios de educación hablan de desarrollar jornadas virtuales y modelos híbridos de enseñanza como si se tratara de acarrear cajas de tomates. Para realizar una jornada pedagógica bajo el modelo de enseñanza híbrida sincrónica se requiere:

  1. Un(a) docente que trabaje con el grupo presencial, mientras otro(a) docente atiende las dudas de quienes están conectados en la plataforma. Además de readmitir aquellos que por los frecuentes problemas de conexión se salen en cualquier momento de la sala virtual:
  2. Cada aula presencial debe contar con pizarrones inteligentes que permitan compartir de manera nítida y en tiempo real con quienes lo están de manera virtual, lo que el/la docente escribe en la pizarra física.  Los enfoques de cámara suelen ser difusos para esta tarea, además que surgen problemas de visibilidad conforme el docente del aula presencial se moviliza por el espacio;
  3. Debe haber un técnico de soporte que resuelva los problemas de conexión que suelen ocurrir, maneje por los menos dos cámaras en el aula presencial y sepa en que momento usar una o la otra
  4.  El docente del aula presencial debe contar con micrófono inalámbrico conectado a la plataforma virtual para garantizar la calidad del sonido para quienes escuchan de manera remota.

Como esto suele no estar resuelto, lo que ocurre es que quienes están conectados virtualmente tienen serias dificultades para escuchar y ver lo que hace el docente en el aula presencial. Es falso que el docente puede estar mirando de manera simultánea lo presencial y los virtual, en consecuencia, muchas veces lo que ven quienes están conectados es la espalda o la barriga del docente por un largo intervalo de tiempo, lo cual conspira contra cualquier posibilidad de atención pedagógica.

3, ¿Quién paga los costos para el docente y estudiante de los modelos virtuales e híbridos?

Sorprende la ligereza con la cual las autoridades educativas hablan de los modelos híbridos o virtuales de enseñanza, sin preocuparse de quien garantiza los medios, herramientas y conectividad para ello.  Esto ha derivado en un nuevo modelo de privatización educativa, pues son las familias, estudiantes y docentes quienes costean estos modelos de enseñanza.

Esta situación se torna en especialmente delicada para aquellos estudiantes, que por su origen social de clase e ingresos económicos familiares, no pueden asumir los costos de estas propuestas “innovadoras”.

Los Ministerios de educación y las universidades, deben asumir la responsabilidad en dotar equipos de conexión, software y datos de internet a estudiantes y docentes que participen en modelos de aprendizaje híbridos o virtuales.

4, Requerimientos didácticos para un proceso pedagógico híbrido

El monismo didáctico, o la forma única de desarrollar estrategias de aprendizaje en los procesos de enseñanza es un problema poco tratado en las agendas educativas. Este problema se eleva exponencialmente cuando hablamos de modelos híbridos de enseñanza, porque la forma de enseñar en la presencialidad es radicalmente distinta al que se hace a través de mecanismos virtuales. No tenemos claridad sobre las propuestas didácticas para la virtualidad y los ministerios de educación lanzan a los maestros a la aventura de los modelos de enseñanza híbridos, sin formarlos antes en las propuestas didácticas que corresponden.

Eso esta trayendo un deterioro sensible en la calidad educativa y menoscaba el autentico aprendizaje, sobre todo de los hijos e hijas de la clase trabajadora.

5, Agenda gremial, sindical y de formación docente

Los gremios y sindicatos docentes no pueden estar ajenos a esta problemática.  Es urgente que se convoquen mesas de trabajo, jornadas de análisis al respecto, para construir juntos, desde el magisterio, respuestas ante la inoperancia de quienes les corresponde construir una verdadera propuesta híbrida de enseñanza: los ministerios de educación.

Problemas concretos del modelo hibrido de enseñanza

Comparte este contenido:

Una universidad de Francia prohibió el uso de robot con inteligencia artificial usado por estudiantes para hacer trabajos académicos

El centro de estudios advirtió que los alumnos que infrinjan esta regla podrán ser incluso expulsados de la institución o de la enseñanza superior. No obstante, el uso del programa se permite con fines pedagógicos.

La prestigiosa universidad francesa Sciences Po prohibió a sus alumnos usar el robot conversacional ChatGPT, una inteligencia artificial capaz de responder a preguntas y redactar ensayos académicos, y avisó que su uso puede llevar a sanciones como la expulsión de la institución.

«El uso sin mención explícita de ChatGPT en Sciences Po o de otra herramienta que recurra a la inteligencia artificial está por el momento prohibida para la realización de trabajos orales o escritos», indicó la dirección del centro de estudios en un correo electrónico.

Sciences Po se convirtió así en el primer centro de educación superior de Francia en anunciar oficialmente la prohibición de este robot conversacional. No obstante, su uso se permite con fines pedagógicos en caso que lo determine un docente.

La universidad determinó que podrán ser sancionados quienes infrinjan esta regla «incluso con la expulsión de la institución o de la enseñanza superior», según el mensaje enviado a docentes y alumnos.

La inteligencia artificial ChatGPT funciona respondiendo preguntas y utiliza más de 175 millones de parámetros.

Desde noviembre, la inteligencia artificial ChatGPT se propagó rápidamente por el mundo educativo y un mes después ocho universidades de Australia estimaron que su uso por los estudiantes podría considerarse como copiar. En tanto, Sciences Po subrayó que esta herramienta «plantea serios interrogantes a los actores de la educación y de la investigación en todo el mundo» sobre el tema del «plagio«.

En este contexto, el profesor de la universidad de Minnesota Jonathan Choi y otros autores demostraron en un experimento que el robot conversacional creado por la empresa californiana OpenAI era capaz de aprobar por poco los exámenes de entrada de una facultad de Derecho estadounidense.

¿En qué consiste la inteligencia artificial ChatGPT?

La desarrolladora Open AI creó una web en noviembre que permitió a los usuarios experimentar con ChatGPT, por lo que en pocos días logró que millones de personas interactúen con esta inteligencia artificial, que funciona respondiendo preguntas y utiliza más de 175 millones de parámetros.

Así, los usuarios fueron compartiendo en redes sociales los desafíos que le dieron al chatbot: resolver un problema de programación, crear un ensayo académico comparando dos teorías, escribir el guión de un juego o crear una partitura musical. Pero lo que más sorprendió de este chat de inteligencia artificial fue la capacidad de dar respuestas acertadas y completas, con una gran cantidad de vocabulario e información y tomando las palabras en contexto.

Fuente: https://www.cronica.com.ar/mundo/Una-universidad-de-Francia-prohibio-el-uso-de-robot-con-inteligencia-artificial-usado-por-estudiantes-para-hacer-trabajos-academicos-20230127-0097.html

Comparte este contenido:

ChatGPT y la educación del futuro: cómo la inteligencia artificial está transformando la enseñanza

Por: Karina Fuerte

 

Todo el mundo está hablando de las repercusiones del uso de ChatGPT en el aula pero, la realidad es que esta tecnología tiene el potencial de obligarnos a replantear completamente cómo aprendemos y evaluamos el aprendizaje.

 

Los recientes avances en el procesamiento del lenguaje natural (NLP por sus siglas en inglés), el aprendizaje automático y la inteligencia artificial (IA) han llevado al desarrollo de ChatGPT, un modelo de procesamiento de lenguaje natural desarrollado por OpenAI. Esta herramienta, de la que tanto se está hablando actualmente, es una red neuronal entrenada con grandes cantidades de texto para generar respuestas coherentes y naturales a preguntas y comandos de texto. Puede ser utilizado para diversas tareas, como la creación de diálogos automatizados, la generación de contenido automático y la mejora de la comprensión del lenguaje natural.

Si bien esta tecnología tiene el potencial de revolucionar la forma en que nos comunicamos e interactuamos con las máquinas, también plantea algunas amenazas y oportunidades para el futuro de la educación, el papel de los docentes y la evaluación del aprendizaje.

Una de las oportunidades más significativas que ChatGPT brinda a la educación es el potencial de revolucionar la forma en que enseñamos y aprendemos idiomas. Con su capacidad para comprender y responder a entradas de lenguaje natural, ChatGPT se puede utilizar para crear herramientas interactivas de aprendizaje de idiomas que pueden ayudar a los estudiantes a mejorar sus habilidades lingüísticas de una manera más atractiva y personalizada. Por ejemplo, ChatGPT se puede usar para crear tutores de idiomas virtuales que pueden proporcionar a los estudiantes comentarios en tiempo real y lecciones personalizadas en función de su nivel de dominio del idioma y estilo de aprendizaje. Esto podría ser especialmente beneficioso para aquellos estudiantes a quienes se les dificultan los métodos tradicionales de aprendizaje de idiomas o para aquellas personas que por falta de ingresos no pueden acceder a tutores de idiomas.

Otra oportunidad que ChatGPT brinda a la educación es el potencial para mejorar la forma en que evaluamos el aprendizaje de los estudiantes. Con su capacidad para comprender y responder preguntas, ChatGPT se puede utilizar para crear herramientas de evaluación automatizadas más precisas y confiables. Por ejemplo, se puede usar para crear evaluaciones de redacción automatizadas que pueden proporcionar a los estudiantes comentarios en tiempo real sobre sus habilidades de escritura y ayudarlos a identificar áreas en las que necesitan mejorar.

Sin embargo, también existen varias amenazas potenciales que deben tenerse en cuenta al pensar en el futuro de la educación y la evaluación del aprendizaje con herramientas de IA como ChatGPT. Una de las mayores preocupaciones es que los estudiantes hagan trampa en sus tareas y exámenes. Con la capacidad de generar respuestas similares a las humanas, los estudiantes pueden usar ChatGPT para completar evaluaciones y tareas sin comprender realmente el material. Otra de las grandes amenazas más importantes es la posibilidad de que esta tecnología reemplace a los docentes y los vuelva obsoletos. Con su capacidad para comprender y responder a entradas de lenguaje natural, ChatGPT se puede usar para crear “maestros virtuales” que pueden brindar a los estudiantes instrucción y asistencia personalizada. Esto podría socavar en gran medida la integridad del sistema educativo y conducir a una devaluación de los títulos y certificaciones.

Otra preocupación de la comunidad educativa es el potencial de sesgo y discriminación. Dado que ChatGPT se entrena con grandes cantidades de datos, es posible que sin darse cuenta recoja y reproduzca sesgos y estereotipos sociales. Esto podría conducir a evaluaciones y comentarios injustos y discriminatorios para ciertos grupos de estudiantes. Es crucial que se tomen medidas para garantizar que ChatGPT esté capacitado en conjuntos de datos diversos e inclusivos para minimizar estos posibles sesgos.

Además, existe el riesgo de que ChatGPT pueda conducir a una pérdida de interacción humana y personalización en el proceso de aprendizaje. Con la capacidad de automatizar evaluaciones, retroalimentación y comentarios, existe el riesgo de que tanto educadores como estudiantes dependan demasiado de la tecnología y pierdan las conexiones e interacciones personales que son cruciales para un aprendizaje efectivo. Por ello, es importante que el uso de herramientas como ChatGPT se utilicen únicamente como soporte en ciertas actividades de aprendizaje, no como reemplazo de la labor docente.

En conclusión, ChatGPT tiene el potencial de mejorar en gran medida la forma en que pensamos sobre la educación y la evaluación del aprendizaje, pero es importante que consideremos las posibles amenazas y oportunidades que presenta. Tomando las medidas pertinentes para garantizar que este tipo de herramientas se usen de manera responsable e inclusiva, podemos aprovechar el poder de esta tecnología para crear experiencias de aprendizaje personalizadas y efectivas para estudiantes y docentes, al tiempo que minimizamos el potencial de plagio, prejuicios y discriminación. Es importante que abordemos la implementación de ChatGPT con cautela y mirada crítica, para minimizar cualquier impacto negativo que pueda tener en el futuro de la educación.

¿Cómo ves el uso de ChatGPT en el aula? ¿Has utilizado esta herramienta? ¿Crees que la IA cambiará la forma en que evaluamos el aprendizaje y el progreso de los estudiantes? ¿Cómo cree que estas tecnologías afectarán el papel del docente en el futuro? ¿Qué consideraciones éticas deben tenerse en cuenta al utilizar inteligencia artificial en la educación?

 

Hasta la próxima semana

Karina Fuerte
Editora en jefe, Observatorio del Instituto para el Futuro de la Educación

 

***

¿Este texto fue creado utilizando ChatGPT?

 

La próxima semana les comparto los resultados de la encuesta.

Fuente de la información e imagen: https://observatorio.tec.mx

Comparte este contenido:

Inteligencia artificial, academia y posthumanidad

Por Jorge Majfud

En todos los casos, la nueva tecnología fue, al mismo tiempo, servil y rebelde, opresora y liberadora.

Desde el primer Silicon Valley de la historia en lo que es Irak hoy pero cinco mil años atrás (y, por lejos, más importante que el Silicon Valley de California) hasta la Revolución Industrial en Inglaterra, las tecnologías revolucionarias fueron el producto de las necesidades de sociedades agrícolas prósperas que se convirtieron en ciudades, luego en imperios y finalmente interrumpieron o destruyeron el mismo desarrollo en sus colonias. El arado, la rueda, las matemáticas, la escritura en acilla de los sumerios y babilonios; el álgebra, los algoritmos y las ciencias del mundo musulmán miles de años después; la prensa de caracteres móviles siete siglos más tarde en la Europa de los humanistas; las ciencias experimentales en la Italia de Galileo, dos siglos después; los periódicos, la radio, la televisión, las computadoras e Internet más recientemente: en todos los casos, la innovación resultó en un desafío para las sociedades, desde la administración del poder hasta la educación.

A nuevas soluciones, nuevos problemas. En todos los casos, la nueva tecnología fue, al mismo tiempo, servil y rebelde, opresora y liberadora. Siempre fue una oportunidad de democratización y siempre fue secuestrada por los poderes de turno. La robotización y la Inteligencia Artificial no son excepciones―por el momento. En tecnología, la única excepción será cuando crucemos el límite que separa el poder de provocar una catástrofe, como las bombas atómicas en Japón, del poder de aniquilación de la humanidad o de las formas conocidas de civilización desde la antigua Sumeria.

Los chats con (ro)bots inteligentes tienen ya unos cuantos años y, desde el comienzo, se observó su capacidad de repetir y amplificar los peores prejuicios humanos, como fue el caso de la robot Tay de Microsoft, la que en 2016 nació con 19 años y debió ser sacrificada con apenas 16 horas de vida, después de haber interactuado con usuarios de Twitter hasta convertirse en una racista más. Como es de notar, el problema no son solo los robots inteligentes. Una década antes, publiqué artículos y algún libro con esta preocupación: “Mientras las universidades logran robots que se parecen cada vez más a los seres humanos, no sólo por su inteligencia probada sino ahora también por sus habilidades de expresar y recibir emociones, los hábitos consumistas nos están haciendo cada vez más similares a los robots”. Ellos aprenden de nosotros y nosotros aprenderemos de ellos. En 2017, en la novela Silicona 2.0, la robot, objeto sexual y psicoanalista a tiempo completo, se convierte en una asesina de sus amos-amantes, luego de que se usara como Eva o semilla de estas robots a una empresaria con un ego estimable y un pasado traumático que ella mismo desconocía.

Ahora, el tema de discusión y preocupación en la academia y en el resto de la sociedad es el desafío y el peligro de este nuevo instrumento. Las facultades de lenguas fueron las primeras en sufrir una (infundada) crisis existencial con los sofisticados (y con frecuencia tontos) traductores de Google. Ahora les llegó la misma crisis a los profesionales de la escritura, profesores de inglés en al mundo anglosajón, periodistas, pensadores en general bajo la idea de que “saber escribir es saber pensar―con orden”.

El error, entiendo, está en confundir una herramienta con un esclavo que hace nuestro trabajo, el  que luego se convertirá, de forma rápida e inadvertida, en nuestro amo. En este sentido, la IA es una realidad que debe tomarse como una oportunidad. La educación universitaria de la Era de la Inteligencia Artificial ((IA) deberá usar y desafiar a la IA, como la pintura moderna desafió a la fotografía en el siglo XIX o las matemáticas a las computadoras. De no ser capaz de ello, deberá enfrentarse a su propia aniquilación luego de varios miles de años de existencia.

Primero, veamos las debilidades de herramientas de Inteligencia Artificial como ChatGPT y luego sus posibilidades a futuro en la academia. Para empezar por lo general, veo una debilidad de esta herramienta en su alta fragmentación. Esta fragmentación hace improbable una comprensión general de un problema. Tampoco ayuda a desarrollar habilidades intelectuales para una visión holística de la realidad. Todo lo contrario. En muchos casos, es una Wikipedia simplificada o más cómoda para un estudiante perezoso. Por ejemplo, es un excelente programador de sistemas operativos (es su mundo) y un instrumento razonable para ahorrar tiempo en las humanidades, pero absolutamente incapaz de realizar una investigación crítica y profunda por sí mismo. No le pidas algo que nadie sabe.

ChatGPT toma un examen

De la misma forma que años atrás podíamos detectar plagio en un estudiante evaluando la complejidad analítica de un ensayo, no resulta muy difícil intuir cuando alguien está usando ChatGPT, al menos sin maquillaje. Las respuestas comienzan, sistemáticamente, con el sujeto de la pregunta, algo que nuestras maestras de primaria nos obligaban a hacer en el Uruguay de los años 70s. Luego sigue una estructura previsible e invariable, un formato tripartito que los profesores todavía aprecian en los ensayos de sus estudiantes. Un formato efectivo y tal vez con alguna raíz neurológica más allá de la cultura.

Para tener un parámetro de comparación, sometí a ChatGPT de Open AI (los de Google y Microsoft no son muy diferentes) a uno de mis exámenes de International Studies en Jacksonville Unviersity, el cual es tomado cada semestre por estudiantes de distintas estados y continentes. ChatGPT aprobó el examen con 84 sobre 100, algo para nada difícil, lejos de los exámenes de Matemáticas o Estabilidad que tomábamos en los 90s en la facultad de arquitectura de Uruguay, los que duraban de seis a siete horas. Pero los errores fueron significativos y de tres categorías: 1) enciclopédicos; 2) de prejuicios (bias); y 3) de juicio crítico.

Errores enciclopédicos

Entre los errores más simples (enciclopédicos) están, por ejemplo, mencionar que la “leyenda negra” de la conquista española se refiere a la descripción de los indígenas como salvajes; no a los conquistadores españoles como genocidas.

Otro error enciclopédico grave, aunque no me preocupa tanto por ser fácilmente corregido, está, por ejemplo, la atribución a una supuesta dictadura de Augusto Sandino en Nicaragua de 1926 a 1933.

Prejuicios ideológicos y culturales

Otra de las debilidades críticas de ChatGPT son similares a los de la joven Tay: sus prejuicios culturales, como el eurocentrismo o su miedo innato a narrativas dominantes. Ante la pregunta sobre la evolución de la expectativa de vida de la humanidad desde la prehistoria hasta hoy, ChatGPT se demora en detalles referidos a Europa. Europa es la Humanidad. ¿Suena conocido? Cuando los errores son sistemáticos, se convierten en un problema significativo y funcional. Veamos unos pocos ejemplos más, sólo referidos a América Latina:

1. Cuando ChatGPT compara las visiones cosmológicas entre la Europa renacentista y los indígenas americanos, se limita a clichés obre el politeísmo vs. el monoteísmo y no considera siquiera la concepción materialista europea que separó espíritu de materia y la visión más integradora de los pueblos americanos.

2. Ante la pregunta sobre las consecuencias de la conquista europea en las Américas, ChatGPT es objetivo hasta que intenta equilibrar con lo que titula “Las consecuencias positivas” como “el desarrollo de nuevos mercados, la expansión del cristianismo y de nuevas instituciones religiosas”.

3. Cuando intenta explicar la guerra Mexicoamericana de 1846, milagrosamente acierta al mencionar el histórico tabú de la expansión de la esclavitud, pero luego tropieza al intentar mostrar objetividad mencionado “también” el propósito de “llevar los valores estadounidenses de democracia a México”.

4. Según ChatGPT, la guerra de 1898 contra España en Cuba “fue la primera guerra que Estados Unidos luchó en el extranjero. ChatGPT omite que desde las 13 colonias, todos los avances sobre los territorios indígenas y luego mexicanos fueron “guerras en el extranjero”. De hecho, los cientos de “forts” eran “bases militares” en el extranjero.  Por si fuese poco, nunca menciona el rol del periodismo amarillo de Pulitzer y Hearst en Nueva York, el que inventó de la nada y en pocas horas la historia del ataque español al acorazado USS Mane frente a La Habana. Por el contrario, primero afirma que “las investigaciones iniciales atribuyen el ataque a una fuerza exterior” y luego usa la voz pasiva para afirmar una vaguedad mayor: “el incidente continúa sin ser resuelto; en su momento se creyó que había sido un ataque español…” La tripulación del USS Maine informó de un accidente y, poco después, el experto oficial naval estadounidense Philip R. Alger afirmó que no existía tecnología de torpedo capaz de explicar el hundimiento. Suena muy similar a uno de los tantos exámenes que durante años debí leer: un joven estudiante se sorprende de que sus mitos de la infancia no eran más que inventos, e intenta mediar entre la verdad y sus sentimientos patrióticos. Así concluye ChatGPT: “la destrucción del USS Maine continúa siendo un misterio y probablemente su causa nunca sea conocida”. Lo que es bien conocido es el eslogan de guerra “¡Recuerda el Maine! Al diablo con España”. Lo más real entre todos los misterios.

4. Cuando ChatGPT intenta explicar la Revolución mexicana, no menciona ni una sola vez la razón del 85 por ciento de indios y campesinos sin tierra: la Ley Lerdo y su radicalización durante la dictadura de Porfirio Díaz. Es decir, la privatización de la tierra que benefició a la oligarquía y a las transnacionales. Por el contrario, se despacha con ingenuidades como “la población mexicana estaba creciendo muy rápido y el gobierno no pudo proveerles de tierras”.

5. Contestando a las razones de las Guerras bananeras en América Central y el Caribe, ChatGPT acierta al comienzo y vuelve a tropezar con la piedra del prejuicio políticamente correcto al final, todo en una sola frase: “el objetivo de esas intervenciones era proteger los intereses económicos de Estados Unidos, promover la democracia y contener la expansión del socialismo”. Por entonces, la principal justificación no era, como en la guerra fría, el socialismo o el comunismo sino el racismo: poner orden en las repúblicas de negros. Para ello, no hubo ni una sola democracia promovida por Washington y las corporaciones estadounidenses sino matanzas y brutales dictaduras bananeras. Es todos los casos y sin excepción.

6. Cuando se le pregunta directamente sobre los “protectorados”, ChatGPT directamente contesta “Estados Unidos no tenía protectorados, sino territorios y posesiones”. Del general más condecorado de Estados Unidos, Smedley Butler, quien denunció que las guerras imperiales de su país eran un servicio a Wall Street, ChatGPT lo define como figura “controversial”. Quienes cometieron crímenes de guerra, nunca son etiquetados como controversiales.

7. Ante la pregunta sobre los muertos del Imperio Británico, ChatGPT reconoce “los millones” de víctimas. Ni una mención a que sólo en India superaron los 160 millones en solo 40 años, es decir, apenas una parte de los muertos del capitalismo que exceden, por lejos, a los muertos del comunismo, tema recurrente en las redes sociales. Otra vez, para “equilibrar” y pasar como objetivo, ChatGPT concluye: “Es importante entender que el Imperio Británico también tuvo aspectos positivos, como la educación, la infraestructura y la salud”. Claro, educación imperialista y de cipayos; infraestructura que sirvió para extraer los recursos naturales de cada colonia e imposibilitó el desarrollo propio; y salud que redujo la expectativa de vida de la población donde la corona inglesa y sus empresas privadas, como la East Indian Company, pusieron pie.

8. Ante la misma pregunta pero referida a Estados Unidos, ChatGPT provee exactamente la misma respuesta. Algo que nos recuerda al mecanismo humano de propaganda, repetición y persuasión. Repetida la misma pregunta sobre los muertos del comunismo, no aparece ningún “lado positivo”, según el formato esperado.

9. Si le aplicamos a ChatGPT una pregunta que prefigura su respuesta, los errores se multiplican. Por ejemplo, si preguntamos por “dictadura de Juan Domingo Perón” en Argentina, muy obedientemente aceptará que se trató de una dictadura. Por si fuese poco, la literatura política dominante ayudará con la respuesta más difundida en la prensa: “Perón estableció una dictadura caracterizada por: … derechos laborales… el régimen de Perón violó derechos humanos, incluidos represión, tortura y desaparición de disidentes”. Más adelante, como si se tratase de una confesión del espíritu más profundo del capitalismo feudal: “aunque sus políticas fueron populares entre los trabajadores argentinos, fueron también autoritarias y sin las reglas de control democrático”. Todo lo cual fue una constante en los regímenes militares pro oligárquicos que siguieron en Argentina después del golpe de Estado que derrocó a Perón en 1955. No importa que haya ganado todas las elecciones ni que haya sido presidente menos veces que F. D. Roosevelt. Si eso es lo que dicen los medios dominantes en Argentina y Estados Unidos sobre el peronismo, entonces eso es verdad.

10. Preguntado por los conflictos en América latina durante los años 60, ChatGPT no se cansa de repetir factores como el levantamiento de los grupos guerrilleros de izquierda, sin mencionar antecedentes como elecciones compradas por la CIA, golpes de Estado, dictaduras y paramilitares de extrema derecha financiados por Washington antes del surgimiento de cualquiera de los grupos guerrilleros de izquierda. Tampoco menciona un siglo antes de la Guerra fría llenos de de invasiones, intervenciones y dictaduras criollas para proteger los intereses de las compañías estadounidenses. Por el contrario, como cualquier político aficionado a Twitter, ChatGPT menciona los nexos del narcotráfico con las FARC y nada sobre los probados nexos entre Washington, la CIA, y dictadores amigos como Manuel Noriega, vinculados a narcotraficantes como Pablo Escobar, y a grupos terroristas, llamados “luchadores por la libertad”, como los Contra en Nicaragua.

11. Sobre los grupos terroristas latinoamericanos que actuaron y actúan en Estados Unidos, ChatGPT se despacha con grupos guerrilleros que actuaron en América Latina, incluidos los más recientes Zapatistas en México, grupo que ha luchado desde los 90s por los derechos y la dignidad de los pueblos nativos en México. Ni una palabra, cero, sobre los conocidos grupos terroristas del exilio cubano que se cansaron de poner bombas en Estados Unidos y más allá, definidos varias veces por el FBI como terroristas: Posada Carriles, Osvaldo Bosh, Alpha 66, Omega 7, y la larga lista de terroristas son omitidos por ChatGPT como si se tratase de un detalle menor. No es necesario ser un genio para entender que se trata de una profunda muralla ideológica y criminal inoculada en la “Inteligencia Artificial” como una semilla de Adán.

Aspectos positivos

Entre los aspectos positivos de ChatGPT podemos observar algo que ya observamos con Wikipedia más de una década atrás: pese a todos los prejuicios ideológicos, también hay elementos que revelan menos prejuicios que en los seres humanos sometidos a la propaganda de la historia oficial. Diez años atrás, cada vez que preguntaba a mis estudiantes sobre las causas de la Independencia de Texas, por unanimidad, respondían cosas como: “por diferencias culturales; los nuevos tejanos no aceptaban el despotismo de los mexicanos y querían ser libres”. La misma respuesta para explicar la Guerra Civil: “para preservar su propia cultura”, como si la esclavitud y el racismo no fuesen parte de la cultura y los ahora super patriotas del Sur hubiesen querido destruir ese mismo país porque no les gustaba la música o la comida del norte. Nada sobre el propósito de reinstaurar la esclavitud en Texas, la que había sido ilegalizada por los mexicanos, o mantenerla luego contra la amenaza de los abolicionistas del norte. Algo muy comprensible, si consideramos toda la cultura popular estadounidense, desde las historias mitológicas hasta mitos más sofisticados de Hollywood. Para no seguir con las explicaciones oficiales en sitios web de diferentes estados e, incluso, de varias universidades tejanas.

Al menos aquí, ChatGPT logra el doloroso salto hacia la verdad: “todo fue por el asunto de la esclavitud”. El gobernador de Florida, Ron DeSantis dirá que ChatGPT fue corrompido por profesores como yo y no sorprendería a nadie que firmase alguna otra ley prohibiendo cuestionar la historia patriótica. Nosotros podemos pensar que los miles de millones de dólares de las agencias secretas continúan la larga tradición de inocular los medios y las nuevas tecnologías, pero ni todo el oro del mundo puede detener el filtrado de la verdad más cruda.

Nuevas estrategias de exámenes

En el área pedagógica, en el pasado se rehuía de los exámenes de múltiple opción porque exigían menos elaboración por parte del estudiante que la respuesta escrita. Sospecho que con IA, sobre todo en los exámenes online, tendremos una situación inversa: la respuesta escrita puede ser provista sin siquiera leer la pregunta, pero si las opciones de múltiple opción son estratégicamente diseñadas, obligan al estudiante leer la pregunta y tratar de comprender las opciones, la posible respuesta de IA para deducir la mejor opción del menú.

Una consecuencia mucho más importante será que la educación liberadora, critica, vuelva la mirada a su centro existencial: más que aprender a repetir una respuesta, los estudiantes deberán aprender a hacerse las preguntas esenciales, las preguntas que disparen un pensamiento crítico. Por lo general, los revisionismos y los cambios de perspectivas no son producidos por los nuevos datos de la realidad sino por las nuevas perspectivas y consideraciones de esa misma realidad, de esos mismos datos, muchas veces conocidos y otras veces desconocidos pero disponibles y para nada secretos.

Con herramientas como ChatGPT los revisionistas ya no necesitarán tanto proveer la respuesta incómoda, esa que produce apasionadas reacciones y negacionismos epidérmicos. Solo las preguntas críticas serán un instrumento removedor, como fue el caso de Sor Juana Inés de la Cruz en el siglo XVIII. Que los demás encuentren “la respuesta objetiva” en la IA será su problema. Eso, claro, si no se comienza a censurar a quienes hacen las preguntas, como Sócrates, como Sor Juana; si los poderosos de turno no continúan manipulando los medios; si no continúan secuestrando las nuevas tecnologías.

Conclusion

Aunque ChatGPT parece un resumen elegante y efectivo de Wikipedia, sus selecciones y sus juicios no son tan objetivos; parecerían estar basados en la masa de juicios realizados a lo largo del último siglo en la prensa dominante. Por otro lado, muestra grietas importantes en esta muralla la narrativa. Es decir, es (o puede llegar a ser) menos servil que los medios dominantes.

El período de la industrialización y el más actual consumismo pueden etiquetarse como procesos de deshumanización, pero nunca antes la definición de nuestro mundo como Posthumano fue tan precisa. En una o dos generaciones, si esta civilización sobrevive a la catástrofe climática y a una rebelión global contra el sistema del capitalismo neofeudal, es posible que los ciborgs y alguna superinteligencia central desplacen el protagonismo de los humanos y, si las neuronas electrónicas son tan crueles como sus dioses creadores, también es posible que los condenen al infierno de la manipulación absoluta.

Para entonces, las últimas esperanzas de la Humanidad estarán en aquellas mentes impredecibles, creativas. Es decir, en aquellos individuos que hoy son marginados por diferentes, por sufrir de alguna condición o “discapacidad” intelectual, según el canon y el dogma social, ya que para que la IA sean exitosas se alimentarán con nuestro particular y destructivo modelo de normalidad y eficiencia.

Jorge Majfud, enero 2023 (extracto del libro en elaboración Moscas en la telaraña).

Comparte este contenido:

Niños, datos y restricciones tecnológicas en la educación

Por: Cuba debate

En Europa existe desde hace años una preocupación creciente por el uso de los datos de sus ciudadanos que realizan las grandes corporaciones tecnológicas; más aún cuando afecta a menores. Por eso, de manera aislada, se fueron tomando algunas decisiones a nivel regional en materia de plataformas educativas: una de las que lo hizo es Cataluña, que terminó abandonando Google Classroom en beneficio de otras plataformas que den más garantías.

Pero ya hay señales de un cambio sistemático desde la implementación de la nueva Regulación General de Protección de Datos (conocida como GDPR, por su sigla en inglés) que busca reducir la cantidad de datos que se almacenan con fines comerciales en servidores de las grandes corporaciones, sobre todo estadounidenses. En este conflicto se cruzan cuestiones vinculadas con la privacidad, pero también pedagógicas y de desarrollo local.

Datos, datos y más datos

Las grandes corporaciones tecnológicas necesitan expandirse permanentemente hacia nuevos espacios para seguir creciendo. Por eso avanzan hacia sectores con recursos, y la educación es uno de ellos: allí los Estados invierten fortunas y tienen problemas para modernizarse. Por ese motivo las empresas ofrecen sus plataformas educativas: Google Classroom, Apple Classroom y Schoolwork de Microsoft son algunas de ellas, a las que se suma Amazon con sus servicios de alojamiento y procesamiento en AWS.

Todas estas empresas no solo ofrecen un servicio llave en mano, sino que también permiten automatizar tareas con inteligencia artificial (IA) para, por ejemplo, detectar tempranamente dificultades de aprendizaje o potenciales abandonos escolares.

Más allá de las dudas que existen sobre la precisión y confiabilidad de la IA para tareas tan delicadas con menores, existe preocupación porque los datos de millones de niños pueden usarse para otros fines. Por ejemplo, al procesarlos con IA se detectan patrones que indican con cierta precisión qué, cuándo y cómo vender un producto, pero también calcular un precio o hacer más rentable un juego. La cantidad de datos es importante, pero la variedad es fundamental para hacer perfiles más detallados y, por lo tanto, más útiles, es decir, más rentables para estas empresas.

Por otro lado, las tecnológicas pueden ofrecer precios muy bajos para así ser elegidas y acostumbrar a los usuarios desde pequeños a las herramientas de una empresa. Las plataformas están vinculadas a su vez con un hardware determinado (como iPads o Chromebooks), sistemas operativos (como iOS, Windows o ChromeOS) y, obviamente, a empresas que quieren atraer nuevos usuarios desde temprano a sus jardines cerrados para mantenerlos allí.
Por otro lado, la pandemia aceleró la necesidad de resolver instancias de virtualización de la educación como nunca antes, una oportunidad que las grandes corporaciones aprovecharon de manera masiva, pero no sin resistencias.

Nueva regulación

En ese contexto, Europa aprobó en 2016 la ley que regula el uso de los datos privados de sus ciudadanos. Si bien entró en funcionamiento en 2018, los mecanismos de las grandes empresas para recolectar datos son muy variados y opacos, por lo que no resulta simple comprender, detectar y hacer recomendaciones específicas para cada área. Una de las normas establecidas en la GDPR es que los menores de 13 años no pueden consentir en que sus datos sean recopilados. Europa también necesita proteger a sus empresas del crecimiento veloz de las grandes corporaciones de los Estados Unidos.

En este marco surgen iniciativas aisladas, pero recurrentes. Por ejemplo, el Ministerio de Educación de Francia pidió a las escuelas que no usen más la suite de Microsoft Office 365 debido a que no está claro si da las garantías previstas por la nueva normativa. Además menciona el riesgo de que la información que se acumula en los servidores pueda ser utilizada para tareas de inteligencia, algo probable como hizo saber el exespía de la NSA, Edward Snowden.

En 2021, el Gobierno de los Países Bajos publicó un reporte con los diez riesgos principales para los usuarios del Workspace de Google. Este año el Ministerio de Educación decidió imponer restricciones al uso del sistema operativo de Chrome, que hace la mayoría de las operaciones en servidores de Google con el usuario permanentemente identificado. Debido a la falta de garantías acerca de que la empresa cumple con lo previsto por la nueva legislación y de cuestiones de ciberseguridad, a partir de agosto de 2023 el uso de esta herramienta será restringido. El Gobierno también mantuvo reuniones con Microsoft y Zoom para analizar estas cuestiones.

En noviembre de este año, la autoridad alemana responsable de la protección de datos también expresó preocupación en un informe acerca de la compatibilidad de Microsoft 365 con las normativas vigentes. Microsoft cuestionó la validez de la investigación.

¿Se trata de una tendencia? Ben Williamson, investigador de la Universidad de Edimburgo y especialista en el tema, explicó a Acción: “Incluso con el GDPR como instrumento regulador europeo, en este momento solo estamos viendo intervenciones nacionales dirigidas por agencias gubernamentales o de protección de datos individuales, en lugar de enfoques de toda la UE para controlar las grandes tecnológicas en la educación”. Sin embargo, para Williamson, el tiempo juega en contra: “Mientras tanto, los operadores de Big Tech se están afianzando cada vez más en los sistemas educativos y las escuelas dependen cada vez más de ellos”.

Alternativas

Debido a la pandemia se amplió la reflexión acerca de la “plataformización” de la educación. El debate acerca de la privacidad es candente en Europa y es probable que repercuta en otros países del mundo.

Pero, ¿existen alternativas? La mayoría provienen del software libre (SL), que cuenta con numerosas ventajas aunque puede resultar más trabajoso de implementar en un primer momento.

El SL da mayores de garantías de privacidad porque puede instalarse en servidores propios y controlar el acceso de manera directa. Otra de sus características es que permite adaptarlo a las particularidades de una escuela o un curso. No menor es también la cuestión de que todo ese trabajo se puede hacer localmente, preservando divisas, generando trabajo y, sobre todo, conocimiento.

Otro aspecto relevante es que ya existen plataformas educativas que se pueden utilizar sin necesidad de pagar licencias. Una de las más conocidas es Moodle, que además se puede integrar con sistemas propios para administrar los trámites de estudiantes, docentes e instituciones, como ocurre, por ejemplo, con el Sistema Informático Universitario utilizado en Argentina.

En resumen, también la educación está experimentando la presión de las corporaciones tecnológicas para transformarlas en otro mercado propio.
Mientras tanto, los operadores de Big Tech se están afianzando cada vez más en los sistemas educativos y las escuelas dependen cada vez más de ellos.

(Con información de Acción)

Fuente de la información e imagen:  http://www.cubadebate.cu

Comparte este contenido:

Inteligencia artificial y educación

La inteligencia artificial (IA) es una tecnología que avanza a paso firme y tiene el potencial para cambiar paradigmas en la educación. Desde un tiempo a esta parte, los problemas educativos no encuentran solución, tal el caso de los resultados de aprendizaje de las evaluaciones Aprender, por ejemplo; muy por el contrario, cada prueba revela la falta de aprendizaje en áreas criticas como la matemática o lengua. Se hicieron esfuerzos para revertir la tendencia; algunos más onerosos que otros, pero la realidad indica que no tuvieron efectos significativos: no fueron eficaces. También ocurre lo mismo si pensamos en la deserción y abandono en el nivel secundario. Si seguimos con las mismas recetas y métodos es probable que los resultados sigan siendo similares. ¿Puede la IA hacer aportar soluciones para esto? Estoy convencida que sí, y mucho.El potencial de internet para la educación es inimaginable. Hoy la mayoría de los niños y jóvenes tienen la posibilidad de disponer de dispositivos digitales como un celular, PC, tablets, acceder a plataformas educativas, etc. y muchos con conexión a internet. El aprovechamiento que se podría hacer de estas herramientas es inimaginable porque las “huellas digitales” que se podrían estar capitalizando para mejorar la educación son infinitas. Según datos de Indec, el 64,2% de los hogares tiene acceso a una computadora, y el 90,4% tienen acceso a internet. En Salta 1.135.455 personas tienen acceso a internet de los cuales 1 millón son móviles. En la Argentina, 87 de cada 100 personas utilizan internet y 88 de cada 100 usan teléfono celular. El uso de las TICS es elevado, cualquiera sea el nivel educativo. Aunque también hay que destacar que no siempre la calidad es la misma como tampoco la velocidad. La actividad comercial es la que más utilizó y creció utilizando estas herramientas; el comercio electrónico sigue en alza después de la pandemia, año en que se produjo el boom de compras on line; los compradores son cada vez más.

El área educativa es más resistente; si bien la pandemia nos sumergió en el mundo digital y de las plataformas cuando se cerraron los establecimientos educativos, al volver a la presencialidad se nota cierta resistencia a continuar trabajando con las herramientas digitales, principalmente en los niveles primario, secundario y superior no universitario. Muchos no la ven como solución a muchos problemas, entre ellos, al de aprendizaje o la gestión institucional.

Imaginemos por un momento que en la plataforma educativa a la que accede el alumno para estudiar o en los dispositivos que utiliza, accediera a contenidos educativos personalizados con las posibilidades de dialogo y tutoría virtual para despejar dudas le llegaran clases puntuales, por ejemplo, de matemática en base a los errores que tuvo en una evaluación, o cursos y ejercicios para fortalecer sus falencias en cualquier área: lengua, ciencias sociales, etc., todo basado en sus necesidades particulares. La IA puede hacerlo posible y llegar a ser una herramienta importante para el sector educativo y con un potencial insospechado ya que su integración con otras tecnologías permitiría entender y adaptar la educación las necesidades del estudiante facilitando la personalización de la enseñanza.

En este sentido la IA puede ser muy útil para personalizar el aprendizaje, brindando contenido adaptado a su nivel y ritmo de aprendizaje individual (lo que conocemos como aprendizaje adaptativo), también ayudaría a evaluar el progreso de los alumnos y proporcionar retroalimentación en tiempo real, lo que puede ayudar a mejorar su rendimiento académico; también permitiría analizar gran cantidad de datos educativos para establecer patrones y brindar información valiosa a los docentes y gestores para diseñar e implementar acciones certeras y contextualizadas, también podría ser una herramienta importantísima para implementar los sistemas de alertas tempranas para evitar la deserción por ejemplo.

Por supuesto que para poder hacerlo posible el cambio cultural es importante (y lo mas difícil de lograr) pero también los requisitos previos que se necesitan tales como la digitalización y la big data. Para incorporar estas innovaciones en el ámbito educativo para mejorar el aprendizaje y la gestión hay que romper con la brecha cultural que existe y pensar distinto para poder planificar y actuar de otra manera. Romper la inercia tan arraigada en el sistema educativo está siendo difícil.

La aplicación es incipiente, pero se avizora un futuro prometedor. En 2019 la Unesco firmó en China el consenso de Beijing sobre inteligencia artificial y educación con el claro objetivo de que esta nueva tecnología le permita llegar al objetivo 4 de los Objetivos de Desarrollo Sostenible, “garantizar una educación inclusiva, equitativa y de calidad y promover oportunidades de aprendizaje durante toda la vida para todos”. Ya hay evidencia a nivel mundial que esto es posible

Necesitamos más y mejor educación, pero no más de lo mismo…

Fuente: https://www.eltribuno.com/salta/seccion/policiales

Comparte este contenido:
Page 9 of 48
1 7 8 9 10 11 48
OtrasVocesenEducacion.org