Page 8 of 47
1 6 7 8 9 10 47

¿Cómo tomar una postura frente al ChatGPT?

Por: Sofía García-Bullé

¿Cómo pueden posicionarse las instituciones de educación superior frente a la inteligencia artificial para proteger la integridad académica sin coartar el avance de la innovación educativa? Conoce más sobre la postura del Tec de Monterrey.

En artículos anteriores, hablamos de la necesidad de las universidades de replantearse su código de ética ante el avance tecnológico que representan las imágenes generadas con inteligencia artificial (IA) y el ChatGPT. El rol principal debe ser el de los estudiantes, y su trabajo junto con los profesores y expertos en tecnología para encontrar un balance entre el potencial de la herramienta y la regulación de su uso.

Fuera del tema del alumnado, existe otra vertiente de vital importancia para asegurar un futuro educativo beneficiado por este recurso. El posicionamiento de las instituciones de educación superior. Estas también han de encontrar un terreno común entre la restricción y la flexibilidad. El Tecnológico de Monterrey recientemente se pronunció con respecto al tema.

«Como institución educativa, vemos en estas nuevas herramientas de inteligencia artificial, oportunidades para impulsar los procesos de enseñanza-aprendizaje y estamos trabajando en explorar las mejores formas para desarrollarlas, como es el caso del Instituto para el Futuro de la Educación (IFE)«, externó el Tec en su comunicado oficial, firmado por el Rector de Profesional y Posgrado, Juan Pablo Murra, y La Vicepresidenta de Integridad y Cumplimiento, Paulina Campos.

Dentro del documento también se menciona que el Modelo Tec21, el reglamento y la retroalimentación de los docentes serán la base para desarrollar un enfoque prudente que facilite aprender y evaluar las implicaciones operativas de la inteligencia artificial en un contexto académico.

La guía de los profesores

Para entender mejor las implicaciones de la inteligencia artificial y cómo integrarla a la dinámica didáctica necesitamos la guía de los profesores. La profesora Reyna Martínez, quién nos acompañó anteriormente en nuestro webinar sobre chatbots en la educación, ofrece una perspectiva clara para comprender lo que es la herramienta, cómo funciona, porqué no hay que tenerle miedo y cómo con el uso correcto puede ser instrumental para el futuro de la educación.

La profesora Martínez explicó en sus impresiones sobre el tema para el Observatorio IFE, que el uso cotidiano de recursos como el ChatGPT es inevitable. La forma en que esta tecnología evolucionó, con la expectativa de ser accesible a todo el mundo para mejorar y facilitar la vida de las personas, la llevó a ser un recurso muy concurrido por los estudiantes. «Como docente entiendo la preocupación e inquietud que el ChatGPT ha desencadenado en la comunidad educativa. Su manejo del lenguaje natural es fluido y estructurado y conforme pase el tiempo irá mejorando».

Además, la profesora elaboró sobre las prestaciones del ChatGPT pero aclaró que no es perfecto, al alimentarse de los documentos que se encuentran en internet hasta el año 2021, comete errores o toca los temas que se le piden de manera superficial. Pero ya sea por esta limitación o por la posibilidad de que sea usado para actos de deshonestidad académica, la profesora sostuvo que una agenda restrictiva contra la inteligencia artificial entre la universidades podría ser contraproducente para los estudiantes y las buenas prácticas didácticas.

«Pensar en prohibir su uso no sólo privará a nuestros estudiantes de conocer su potencial sino inhibir el desarrollo de competencias que le permitan interactuar con este tipo de tecnología y que pronto serán necesarias para desarrollarse en el ámbito escolar, personal y laboral».

Para aproximarse a la IA

La profesora Reyna Martínez presenta un argumento importante sobre la necesidad de las instituciones educativas de adoptar la inteligencia artificial (IA) y aprender sobre el uso de estas tecnologías. Si se contrata como competencia profesional en el mercado laboral, entonces el deber ético de los formadores no es alejar a los estudiantes de la inteligencia artificial, sino explorar su uso positivo y ético, para transmitir estas enseñanzas a sus educandos.

Entre las recomendaciones emitidas por la profesora destaca un llamado a los docentes a conocer y manejar el ChatGPT, familiarizarse con lo que puede hacer, y ser los primeros en conocer estas capacidades, no sólo para monitorear a los estudiantes, sino para aprovechar que la IA es experta en producir esas tareas y ejercicios que pueden parecer repetitivos.

Crear conciencia acerca de las consecuencias e impacto para el aprendizaje que pueden causar los ejercicios deshonestos con este tipo de tecnología es otro punto importante a considerar. Incluir a las cabezas de familia en esta conversación será de gran ayuda para obtener nociones claras y duraderas que influyan para bien en la integración del ChatGPT a la práctica educativa.

Definir objetivos y competencias a desarrollar ayudará a tener un mejor entendimiento de lo que la IA puede hacer en el aula, algunas sugerencias que la profesora Martínez mencionó incluyeron: actividades en el salón de clases, evaluaciones orales, mapas mentales, realización de videos, trabajos colaborativos y asistencia creativa para los estudiantes.

El esfuerzo de diálogo rumbo a la creación de nociones éticas también debe incluir el tema de la privacidad. La profesora elaboró en una arista que no muchas personas ven debido al enorme interés de proteger la honestidad académica. Cada vez que utilizamos el ChatGTP estamos contribuyendo a su educación, esto ya conlleva en sí un dilema. Además, las compañías desarrolladoras tienen acceso a las conversaciones generadas por la IA. Este es un aspecto que debería llamar más nuestra atención, sobre todo en el caso de los estudiantes menores de edad.

¿Qué piensas sobre capacidades de la inteligencia artificial y cómo está cambiando la forma en las prácticas didácticas? ¿Crees que vale la pena mantener una mente abierta para descubrir su uso ideal? ¿Consideras que sería una muleta para el estudiantado y un obstáculo para la honestidad académica? Cuéntanos en los comentarios.

Fuente e Imagen: https://observatorio.tec.mx/edu-news/como-tomar-una-postura-frente-al-chatgpt/

Comparte este contenido:

Siete habilidades que serán tendencia en 2023

Por: Sofía García-Bullé

Este año sobresaldrán los profesionistas con pensamiento crítico y capacidad de adaptación, entre otras habilidades.

El debate sobre la intervención de la Inteligencia Artificial (IA) en las disciplinas del arte y la comunicación ha tomado por asalto la conversación en las comunidades productoras de contenido. No hay un consenso aún sobre el impacto de las implicaciones éticas del uso de la IA para sustituir el trabajo artístico y de comunicación humana, ni lo que representa para el futuro del mercado laboral. Pero lo que sí sabemos es que este nuevo uso de la tecnología hará necesario el desarrollo de habilidades que no pueden ser replicadas por máquinas.

Desde hace años ya se hablaba de la posibilidad de un cambio en el conjunto de habilidades que serían valoradas por los empleadores ante el perfeccionamiento de la inteligencia artificial. «Algunos trabajos serán automatizados, pero al mismo tiempo, la Inteligencia Artificial ofrecerá oportunidades para que las compañías generen valor, y nuevos empleos que cambien en énfasis en los tipos de habilidades necesarias para sobresalir», comentó Rachel Russell, Directora de Estrategia de Marketing Corporativa para Aegis Group en 2021. La predicción fue certera. Hoy, las habilidades humanas (también conocidas como soft skills o power skills, como han sido rebrandeadas recientemente), son el diferenciador más importante para mantenerse vigente. ¿Cuáles son las habilidades humanas más valiosas en 2023? A continuación te compartimos  algunas de las más buscadas.

Siete habilidades humanas más valiosas en el 2023

Alfabetización digital

La alfabetización digital comprende las competencias para trabajar y navegar dentro del mundo digital. Consiste en el uso óptimo de dispositivos, software y aplicaciones en el día a día del trabajo de oficina. Las empresas necesitan personas que puedan comunicarse y colaborar fácilmente usando recursos tecnológicos, que se mantengan actualizadas y que entiendan el impacto que estas herramientas pueden tener en su labor y rubro profesional.

Creatividad

La disposición de generar nuevas ideas, imaginar más allá de del statu quo y como influye este proceso en la creación de de soluciones y su implementación para resolver y mejorar condiciones en la ejecución de de un proyecto va a ser una habilidad crítica en las oficinas del futuro. Un trabajador creativo tiene más posibilidades de producir ideas que hagan frente a problemas que vengan con ocurrencias nuevas como el trabajo remoto y las tecnologías emergentes.

Adaptabilidad

En más de tres años de pandemia, uno de los aprendizajes más importantes es que el cambio es inevitable y que no siempre vamos a poder elegir el momento y formas en las que este llegue. Los profesionales que desarrollen la resiliencia mental para navegar eficientemente todos estos cambios, aprovecharlos y aprender de ellos serán recursos invaluables para todas las empresas de cualquier rubro.

Pensamiento Crítico

El pensamiento crítico consiste en analizar información y situaciones priorizando la evidencia y los datos comprobables por encima de lo escuchado y las opiniones. En una época en la que los espacios digitales son dominados por burbujas de contenido, piezas tendenciosas y noticias falsas, esta habilidad se ha vuelto de primera necesidad en todos los niveles educativos y profesionales. Es un auxiliar crítico para la toma de decisiones efectiva.

Liderazgo

El liderazgo no será una habilidad exclusivamente necesaria para quienes estén al frente de un equipo en 2023. La evolución del clima organizacional apunta a agrupaciones más distribuidos, trabajos por proyectos, grupos más diversos y una mayor horizontalidad en las relaciones laborales. Ejercer valores de liderazgo como motivar, inspirar y dar apoyo a un equipo sin importar en qué posición del organigrama estemos, va a ser crucial en un futuro próximo.

Comunicación

Siempre una habilidad básica en la fuerza de trabajo, la comunicación tomará un rol más crítico en un mundo pospandemia en el que el trabajo remoto ha llevado a los equipos a encontrar nuevas formas de colaborar. Desde redacción de correos electrónicos, hasta análisis y comprensión de lenguaje no verbal en juntas de trabajo, las competencias de comunicación será determinante para la realización de un buen trabajo grupal.

Inteligencia Emocional

La inteligencia emocional es la capacidad de identificar, entender y manejar tus propias emociones, así como identificar y empatizar con las de otras personas. Ayuda a construir y mantener mejores relaciones de trabajo. Lo anterior se traduce en mejores resultados en la ejecución de proyectos, ya que reduce la dificultad del trabajo humano a través del conocimiento y el manejo de las emociones propias y las de los miembros de un equipo.

¿Habías visto estas habilidades en alguna otra lista de capacidades valiosas para este año? ¿Qué piensas de éstas? ¿Crees que pueden ser útiles en este nuevo ciclo? ¿Crees que faltó alguna de mencionar? Cuéntanos en los comentarios.

Fuente e Imagen: https://observatorio.tec.mx/edu-news/siete-habilidades-que-seran-tendencia-en-2023/

Comparte este contenido:

ChatGPT o cómo la inteligencia artificial puede empujar a cambios metodológicos de enseñanza

Por: 

La IA ya es una realidad, al menos, en cierta medida. Hace unos días El País publicaba un reportaje en el que se había puesto a prueba a ChatGPT, un software de libre acceso. Había conseguido aprobar un examen de acceso a la universidad. ¿Qué implicaciones puede tener?

ChatGPT es un software de libre acceso. En la web puedes lanzar una pregunta que él la responde según unas ciertas características. Tal es el punto que puede llegar a escribir composiciones completas que hoy por hoy ya se están utilizando en el sector educativo. Una nueva vuelta de tuerca al concepto clásico del Rincón del vago.

Linda Castañeda es doctora en Tecnología Educativa y profesora titular en la Universidad de Murcia. Hablamos con ella de las implicaciones que un software de esta clase puede llegar a tener en las universidades. Explica que aunque ahora ChatGPT ha saltado a la palestra el uso de IA no es especialmente nuevo en el sector educativo y que ya hace algún tiempo que se vienen usando herramientas, tal vez no tan sofisticadas como esta.

Ya hace tiempo que se usan programas para detectar cuándo el alumnado ha hecho un trabajo a base de copiar y pegar textos de otros. De ahí se pasó a herramientas que eran capaces de parafrasear, “es difícil que sea detectado”, comenta Castañeda.

Esta doctora tiene claro que el problema no es tanto el uso de este tipo de herramientas informáticas para la elaboración de textos. “Nos hemos empeñado durante todo el desarrollo de la tecnología en cómo vamos a hacer otra tecnología que evite que nos engañen” pero, para ella, “el asunto es qué significa escribir un trabajo académico, algo muy complejo”.

En una conversación informal, una docente universitaria comentaba cómo una de sus alumnas le había entregado un trabajo plagiado de arriba abajo. Solo había cambiado el nombre de la autoría del texto. Una búsqueda rápida le había dado la respuesta a sus dudas. La alumna, suspendida, había pedido revisión con ella. Las normas de la Universidad eran claras, según explicaba. La docente debería haber avisado a los servicios jurídicos de la universidad para que tomaran cartas en el asunto. Así se lo hizo saber a la alumna que, en un alarde de ignorancia o de huida hacia adelante, aseguraba que no sabía que se trataba de un plagio.

“Parece que nuestro objetivo como profes es que no nos engañen, no que los estudiantes aprendan X, sino que no me engañen”, continúa Castañeda. Para esta profesora, la clave pasa porque el alumnado comprenda que la cosa pasa por no engañarse a sí mismo, porque aquello que vaya a hacer en la escuela, la universidad, no sea como hacerse trampas al solitario.

Rafael Porlán es catedrático de la Universidad de Sevilla. Dedica buena parte de sus esfuerzos, desde hace años, a la formación docente del profesorado de la institución en la que trabaja. Cree que cuestiones como las que plantea la IA no son más ni menos que una “crisis del modelo transmisivo tradicional”. Él apuesta por modelos activos, de proyectos de investigación.

Según su opinión, cuando el alumnado utiliza este tipo de trucos no hace mucho más que responder al propio sistema de enseñanza. “Si el modelo me ignora, copio; busco trabajos para evitarme esfuerzos”, asegura.

Desde su punto de vista es necesario que “todo lo que el alumno pueda hacer, lo haga”. De esta manera, “los docentes organizamos el trabajo para que el alumnado agote su capacidad y, después, tirar de ellos y que lleguen más lejos”. Y cita a Vygotsky y su teoría y su teoría del desarrollo próximo. “Si te pongo un reto, te muevo, la gente se crece”, asegura Porlán, quien tiene claro que “lo que producen tiene limitaciones, pero ya se han involucrado y, a partir de ahí, puedes pedirles mucho más”.

Castañeda da clases a quienes serán el futuro de la profesión docente. Es consciente de que su alumnado hoy por hoy ya está hacen uso de ChatGPT para algunas de las cosas que se les piden desde la Universidad. “Sé que están usándolo para resolver tareas sencillas. La idea es cómo hacer que sean conscientes del potencial que tiene y que eso mismo se lo harán sus estudiante”. Por eso insiste en que lo importante es “generar tareas que tengan relevancia y que con ChatGPT le puedan ser de utilidad”.

La misma profesora que hablaba del plagio de una de sus alumnas, también señalaba cómo en algún máster con un gran volumen de alumnado extranjero era más o menos sabido que los trabajos finales que se pedían los compraban a terceras personas. Entre otras cosas, porque no dominaban el castellano como para haberlos elaborado.

“Ser capaz de reproducir la información hace tiempo que no es lo más importante del aprendizaje o de la educación”, afirma Castañeda. Para esta doctora está claro que el contenido, siendo relevante no es lo sustancial de toda esta cuestión. Sobre todo “porque habrá otra herramienta que lo pueda reproducir”.

Para ella, herramientas como ChatGPT, ahora mismo, producen mucha sorpresa pero “no está ni mucho refinado, ni es infalible ni las respuestas son brillantes” y vuelve al inicio: “la pregunta es hasta qué punto estamos dando a nuestros estudiantes algo más que una respuesta ramplona, hasta qué punto hacemos propuestas a los estudiantes que les pidan ir más allá”.

“Si eso pretendemos de los humanos, que trasciendan, tendremos que hacer que la escuela a la que asistan, les enseñe a ser trascendentes y pensar más allá”, asegura Castañeda. “Tenemos que plantearnos cosas serias”, zanja.
Esta doctora también asegura que es importante ver los posibles usos de herramientas de inteligencia artificial. Habla de cómo algunos compañeros las utilizan para, por ejemplo, crear algunos contenidos introductorios: “Los 5 libros clave sobre no sé qué. Para empezar, viene bien. O preguntarle cuáles son las 5 tesis más relevantes” en algún tema concreto para luego comentarlo en la clase.

Todo esto, además de suponer un acicate para cambios metodológicos, también puede suponer la obligación de cambiar los modelos de evaluación, como explica Castañeda, “para que no acabe evaluando a ChatGPT”. “La evaluación debe ver si el alumno aprende. ¿Qué significa esto? Es algo que le pregunto a otros docentes. Qué significa en tu materia que el alumnado aprenda. Habrá que responder a esto en un mundo en el que la IA está al alcance de la mano. Ya no pasa en las películas o la ciencia ficción”.

Fuente e Imagen: https://eldiariodelaeducacion.com/2023/01/30/chatgpt-o-como-la-inteligencia-artificial-puede-empujar-a-cambios-metodologicos-de-ensenanza/

Comparte este contenido:

Problemas concretos del modelo hibrido de enseñanza

Por: Luis Bonilla-Molina

  1. ¿Qué es la enseñanza híbrida?

El modelo de enseñanza hibrida se fundamenta en combinaciones de la presencialidad con la virtualidad, ya sea de manera sincrónica o asincrónica.

En el caso de la modalidad híbrida sincrónica, es decir en tiempo real, ello significa que el docente contará con un grupo de estudiantes que estarán en el aula y otro conectados a través de alguna plataforma digital.

En algunos casos, esta modalidad comporta la conexión virtual del docente, quien cuenta con estudiantes reunidos en varios ambientes presenciales (aulas) que le escuchan a través de una pantalla y otros estudiantes virtuales conectados desde distintos lugares a través de la plataforma digital.

La enseñanza en modalidad híbrida asincrónica es aquella que cuenta con módulos o clases grabadas, colgadas en un sitio web o repositorio digital,  que deben ser vistas por los estudiantes conforme a su disponibilidad de horario, pero dentro de unos límites temporales. Esta modalidad suele complementarse con listas de correos, creación de salas de chat compartidas y otras herramientas, desde donde en tiempo real, se comparten inquietudes, dudas o preguntas que el docente responde.

La llegada de la inteligencia artificial a la educación está abriendo la posibilidad de otros modelos híbridos personalizados, mediante la creación de avatares de los y las docentes, que han capturado los datos propios de las clases y materiales del docente y, mediante análisis de metadatos pueden responder a las dudas y acompañar los distintos ritmos de aprendizaje. Pero aún estamos lejos de poder usar masivamente esta variante en Latinoamérica.

Para poder trabajar adecuadamente en modelos de enseñanza híbrida debemos superar los traumas del paso abrupto de la presencialidad a la virtualidad, ya que lo que ocurrió durante la pandemia fue una alfabetización forzada, en la mayoría de caos exigiendo capacidades auto didactas de docentes y estudiantes. Eso creo vacíos, limitaciones e incluso errores que se sostienen en la actual fase de la “post pandemia”.

El uso de los modelos virtuales e híbridos, a partir del retorno a las aulas, debe evitar la tentación de las burocracias educativas de sustituir al máximo la presencialidad, imponiendo cada vez más formatos digitales.

El uso de los modelos híbridos y virtuales varía conforme al desarrollo cognitivo, edad y madurez del grupo estudiantil. Las clases bajo el formato virtual e híbrido requieren una formación profesional muy especial, para preparar los contenidos con modelos didácticos que se correspondan a cada uno de ellos.

Mi experiencia empírica me indica que la virtualidad y los modelos híbridos:

  1. Para educación inicial no debe exceder los cinco minutos por jornada escolar diaria;
  2. Para educación primaria no debe exceder los cinco minutos por hora de clase ni la media hora por jornada escolar;
  3. Para secundaria no debe superar los diez minutos por hora de clase ni la hora por jornada escolar;
  4. En el caso de la universidad, el ciclo de atención del estudiante decae seriamente luego de los diez minutos, algo que debe ser tomado en cuenta a la hora de desarrollar las clases y preparar las grabaciones

2. Requerimientos técnicos para un modelo escolar híbrido

Los Ministerios de educación hablan de desarrollar jornadas virtuales y modelos híbridos de enseñanza como si se tratara de acarrear cajas de tomates. Para realizar una jornada pedagógica bajo el modelo de enseñanza híbrida sincrónica se requiere:

  1. Un(a) docente que trabaje con el grupo presencial, mientras otro(a) docente atiende las dudas de quienes están conectados en la plataforma. Además de readmitir aquellos que por los frecuentes problemas de conexión se salen en cualquier momento de la sala virtual:
  2. Cada aula presencial debe contar con pizarrones inteligentes que permitan compartir de manera nítida y en tiempo real con quienes lo están de manera virtual, lo que el/la docente escribe en la pizarra física.  Los enfoques de cámara suelen ser difusos para esta tarea, además que surgen problemas de visibilidad conforme el docente del aula presencial se moviliza por el espacio;
  3. Debe haber un técnico de soporte que resuelva los problemas de conexión que suelen ocurrir, maneje por los menos dos cámaras en el aula presencial y sepa en que momento usar una o la otra
  4.  El docente del aula presencial debe contar con micrófono inalámbrico conectado a la plataforma virtual para garantizar la calidad del sonido para quienes escuchan de manera remota.

Como esto suele no estar resuelto, lo que ocurre es que quienes están conectados virtualmente tienen serias dificultades para escuchar y ver lo que hace el docente en el aula presencial. Es falso que el docente puede estar mirando de manera simultánea lo presencial y los virtual, en consecuencia, muchas veces lo que ven quienes están conectados es la espalda o la barriga del docente por un largo intervalo de tiempo, lo cual conspira contra cualquier posibilidad de atención pedagógica.

3, ¿Quién paga los costos para el docente y estudiante de los modelos virtuales e híbridos?

Sorprende la ligereza con la cual las autoridades educativas hablan de los modelos híbridos o virtuales de enseñanza, sin preocuparse de quien garantiza los medios, herramientas y conectividad para ello.  Esto ha derivado en un nuevo modelo de privatización educativa, pues son las familias, estudiantes y docentes quienes costean estos modelos de enseñanza.

Esta situación se torna en especialmente delicada para aquellos estudiantes, que por su origen social de clase e ingresos económicos familiares, no pueden asumir los costos de estas propuestas “innovadoras”.

Los Ministerios de educación y las universidades, deben asumir la responsabilidad en dotar equipos de conexión, software y datos de internet a estudiantes y docentes que participen en modelos de aprendizaje híbridos o virtuales.

4, Requerimientos didácticos para un proceso pedagógico híbrido

El monismo didáctico, o la forma única de desarrollar estrategias de aprendizaje en los procesos de enseñanza es un problema poco tratado en las agendas educativas. Este problema se eleva exponencialmente cuando hablamos de modelos híbridos de enseñanza, porque la forma de enseñar en la presencialidad es radicalmente distinta al que se hace a través de mecanismos virtuales. No tenemos claridad sobre las propuestas didácticas para la virtualidad y los ministerios de educación lanzan a los maestros a la aventura de los modelos de enseñanza híbridos, sin formarlos antes en las propuestas didácticas que corresponden.

Eso esta trayendo un deterioro sensible en la calidad educativa y menoscaba el autentico aprendizaje, sobre todo de los hijos e hijas de la clase trabajadora.

5, Agenda gremial, sindical y de formación docente

Los gremios y sindicatos docentes no pueden estar ajenos a esta problemática.  Es urgente que se convoquen mesas de trabajo, jornadas de análisis al respecto, para construir juntos, desde el magisterio, respuestas ante la inoperancia de quienes les corresponde construir una verdadera propuesta híbrida de enseñanza: los ministerios de educación.

Problemas concretos del modelo hibrido de enseñanza

Comparte este contenido:

Una universidad de Francia prohibió el uso de robot con inteligencia artificial usado por estudiantes para hacer trabajos académicos

El centro de estudios advirtió que los alumnos que infrinjan esta regla podrán ser incluso expulsados de la institución o de la enseñanza superior. No obstante, el uso del programa se permite con fines pedagógicos.

La prestigiosa universidad francesa Sciences Po prohibió a sus alumnos usar el robot conversacional ChatGPT, una inteligencia artificial capaz de responder a preguntas y redactar ensayos académicos, y avisó que su uso puede llevar a sanciones como la expulsión de la institución.

«El uso sin mención explícita de ChatGPT en Sciences Po o de otra herramienta que recurra a la inteligencia artificial está por el momento prohibida para la realización de trabajos orales o escritos», indicó la dirección del centro de estudios en un correo electrónico.

Sciences Po se convirtió así en el primer centro de educación superior de Francia en anunciar oficialmente la prohibición de este robot conversacional. No obstante, su uso se permite con fines pedagógicos en caso que lo determine un docente.

La universidad determinó que podrán ser sancionados quienes infrinjan esta regla «incluso con la expulsión de la institución o de la enseñanza superior», según el mensaje enviado a docentes y alumnos.

La inteligencia artificial ChatGPT funciona respondiendo preguntas y utiliza más de 175 millones de parámetros.

Desde noviembre, la inteligencia artificial ChatGPT se propagó rápidamente por el mundo educativo y un mes después ocho universidades de Australia estimaron que su uso por los estudiantes podría considerarse como copiar. En tanto, Sciences Po subrayó que esta herramienta «plantea serios interrogantes a los actores de la educación y de la investigación en todo el mundo» sobre el tema del «plagio«.

En este contexto, el profesor de la universidad de Minnesota Jonathan Choi y otros autores demostraron en un experimento que el robot conversacional creado por la empresa californiana OpenAI era capaz de aprobar por poco los exámenes de entrada de una facultad de Derecho estadounidense.

¿En qué consiste la inteligencia artificial ChatGPT?

La desarrolladora Open AI creó una web en noviembre que permitió a los usuarios experimentar con ChatGPT, por lo que en pocos días logró que millones de personas interactúen con esta inteligencia artificial, que funciona respondiendo preguntas y utiliza más de 175 millones de parámetros.

Así, los usuarios fueron compartiendo en redes sociales los desafíos que le dieron al chatbot: resolver un problema de programación, crear un ensayo académico comparando dos teorías, escribir el guión de un juego o crear una partitura musical. Pero lo que más sorprendió de este chat de inteligencia artificial fue la capacidad de dar respuestas acertadas y completas, con una gran cantidad de vocabulario e información y tomando las palabras en contexto.

Fuente: https://www.cronica.com.ar/mundo/Una-universidad-de-Francia-prohibio-el-uso-de-robot-con-inteligencia-artificial-usado-por-estudiantes-para-hacer-trabajos-academicos-20230127-0097.html

Comparte este contenido:

ChatGPT y la educación del futuro: cómo la inteligencia artificial está transformando la enseñanza

Por: Karina Fuerte

 

Todo el mundo está hablando de las repercusiones del uso de ChatGPT en el aula pero, la realidad es que esta tecnología tiene el potencial de obligarnos a replantear completamente cómo aprendemos y evaluamos el aprendizaje.

 

Los recientes avances en el procesamiento del lenguaje natural (NLP por sus siglas en inglés), el aprendizaje automático y la inteligencia artificial (IA) han llevado al desarrollo de ChatGPT, un modelo de procesamiento de lenguaje natural desarrollado por OpenAI. Esta herramienta, de la que tanto se está hablando actualmente, es una red neuronal entrenada con grandes cantidades de texto para generar respuestas coherentes y naturales a preguntas y comandos de texto. Puede ser utilizado para diversas tareas, como la creación de diálogos automatizados, la generación de contenido automático y la mejora de la comprensión del lenguaje natural.

Si bien esta tecnología tiene el potencial de revolucionar la forma en que nos comunicamos e interactuamos con las máquinas, también plantea algunas amenazas y oportunidades para el futuro de la educación, el papel de los docentes y la evaluación del aprendizaje.

Una de las oportunidades más significativas que ChatGPT brinda a la educación es el potencial de revolucionar la forma en que enseñamos y aprendemos idiomas. Con su capacidad para comprender y responder a entradas de lenguaje natural, ChatGPT se puede utilizar para crear herramientas interactivas de aprendizaje de idiomas que pueden ayudar a los estudiantes a mejorar sus habilidades lingüísticas de una manera más atractiva y personalizada. Por ejemplo, ChatGPT se puede usar para crear tutores de idiomas virtuales que pueden proporcionar a los estudiantes comentarios en tiempo real y lecciones personalizadas en función de su nivel de dominio del idioma y estilo de aprendizaje. Esto podría ser especialmente beneficioso para aquellos estudiantes a quienes se les dificultan los métodos tradicionales de aprendizaje de idiomas o para aquellas personas que por falta de ingresos no pueden acceder a tutores de idiomas.

Otra oportunidad que ChatGPT brinda a la educación es el potencial para mejorar la forma en que evaluamos el aprendizaje de los estudiantes. Con su capacidad para comprender y responder preguntas, ChatGPT se puede utilizar para crear herramientas de evaluación automatizadas más precisas y confiables. Por ejemplo, se puede usar para crear evaluaciones de redacción automatizadas que pueden proporcionar a los estudiantes comentarios en tiempo real sobre sus habilidades de escritura y ayudarlos a identificar áreas en las que necesitan mejorar.

Sin embargo, también existen varias amenazas potenciales que deben tenerse en cuenta al pensar en el futuro de la educación y la evaluación del aprendizaje con herramientas de IA como ChatGPT. Una de las mayores preocupaciones es que los estudiantes hagan trampa en sus tareas y exámenes. Con la capacidad de generar respuestas similares a las humanas, los estudiantes pueden usar ChatGPT para completar evaluaciones y tareas sin comprender realmente el material. Otra de las grandes amenazas más importantes es la posibilidad de que esta tecnología reemplace a los docentes y los vuelva obsoletos. Con su capacidad para comprender y responder a entradas de lenguaje natural, ChatGPT se puede usar para crear “maestros virtuales” que pueden brindar a los estudiantes instrucción y asistencia personalizada. Esto podría socavar en gran medida la integridad del sistema educativo y conducir a una devaluación de los títulos y certificaciones.

Otra preocupación de la comunidad educativa es el potencial de sesgo y discriminación. Dado que ChatGPT se entrena con grandes cantidades de datos, es posible que sin darse cuenta recoja y reproduzca sesgos y estereotipos sociales. Esto podría conducir a evaluaciones y comentarios injustos y discriminatorios para ciertos grupos de estudiantes. Es crucial que se tomen medidas para garantizar que ChatGPT esté capacitado en conjuntos de datos diversos e inclusivos para minimizar estos posibles sesgos.

Además, existe el riesgo de que ChatGPT pueda conducir a una pérdida de interacción humana y personalización en el proceso de aprendizaje. Con la capacidad de automatizar evaluaciones, retroalimentación y comentarios, existe el riesgo de que tanto educadores como estudiantes dependan demasiado de la tecnología y pierdan las conexiones e interacciones personales que son cruciales para un aprendizaje efectivo. Por ello, es importante que el uso de herramientas como ChatGPT se utilicen únicamente como soporte en ciertas actividades de aprendizaje, no como reemplazo de la labor docente.

En conclusión, ChatGPT tiene el potencial de mejorar en gran medida la forma en que pensamos sobre la educación y la evaluación del aprendizaje, pero es importante que consideremos las posibles amenazas y oportunidades que presenta. Tomando las medidas pertinentes para garantizar que este tipo de herramientas se usen de manera responsable e inclusiva, podemos aprovechar el poder de esta tecnología para crear experiencias de aprendizaje personalizadas y efectivas para estudiantes y docentes, al tiempo que minimizamos el potencial de plagio, prejuicios y discriminación. Es importante que abordemos la implementación de ChatGPT con cautela y mirada crítica, para minimizar cualquier impacto negativo que pueda tener en el futuro de la educación.

¿Cómo ves el uso de ChatGPT en el aula? ¿Has utilizado esta herramienta? ¿Crees que la IA cambiará la forma en que evaluamos el aprendizaje y el progreso de los estudiantes? ¿Cómo cree que estas tecnologías afectarán el papel del docente en el futuro? ¿Qué consideraciones éticas deben tenerse en cuenta al utilizar inteligencia artificial en la educación?

 

Hasta la próxima semana

Karina Fuerte
Editora en jefe, Observatorio del Instituto para el Futuro de la Educación

 

***

¿Este texto fue creado utilizando ChatGPT?

 

La próxima semana les comparto los resultados de la encuesta.

Fuente de la información e imagen: https://observatorio.tec.mx

Comparte este contenido:

Inteligencia artificial, academia y posthumanidad

Por Jorge Majfud

En todos los casos, la nueva tecnología fue, al mismo tiempo, servil y rebelde, opresora y liberadora.

Desde el primer Silicon Valley de la historia en lo que es Irak hoy pero cinco mil años atrás (y, por lejos, más importante que el Silicon Valley de California) hasta la Revolución Industrial en Inglaterra, las tecnologías revolucionarias fueron el producto de las necesidades de sociedades agrícolas prósperas que se convirtieron en ciudades, luego en imperios y finalmente interrumpieron o destruyeron el mismo desarrollo en sus colonias. El arado, la rueda, las matemáticas, la escritura en acilla de los sumerios y babilonios; el álgebra, los algoritmos y las ciencias del mundo musulmán miles de años después; la prensa de caracteres móviles siete siglos más tarde en la Europa de los humanistas; las ciencias experimentales en la Italia de Galileo, dos siglos después; los periódicos, la radio, la televisión, las computadoras e Internet más recientemente: en todos los casos, la innovación resultó en un desafío para las sociedades, desde la administración del poder hasta la educación.

A nuevas soluciones, nuevos problemas. En todos los casos, la nueva tecnología fue, al mismo tiempo, servil y rebelde, opresora y liberadora. Siempre fue una oportunidad de democratización y siempre fue secuestrada por los poderes de turno. La robotización y la Inteligencia Artificial no son excepciones―por el momento. En tecnología, la única excepción será cuando crucemos el límite que separa el poder de provocar una catástrofe, como las bombas atómicas en Japón, del poder de aniquilación de la humanidad o de las formas conocidas de civilización desde la antigua Sumeria.

Los chats con (ro)bots inteligentes tienen ya unos cuantos años y, desde el comienzo, se observó su capacidad de repetir y amplificar los peores prejuicios humanos, como fue el caso de la robot Tay de Microsoft, la que en 2016 nació con 19 años y debió ser sacrificada con apenas 16 horas de vida, después de haber interactuado con usuarios de Twitter hasta convertirse en una racista más. Como es de notar, el problema no son solo los robots inteligentes. Una década antes, publiqué artículos y algún libro con esta preocupación: “Mientras las universidades logran robots que se parecen cada vez más a los seres humanos, no sólo por su inteligencia probada sino ahora también por sus habilidades de expresar y recibir emociones, los hábitos consumistas nos están haciendo cada vez más similares a los robots”. Ellos aprenden de nosotros y nosotros aprenderemos de ellos. En 2017, en la novela Silicona 2.0, la robot, objeto sexual y psicoanalista a tiempo completo, se convierte en una asesina de sus amos-amantes, luego de que se usara como Eva o semilla de estas robots a una empresaria con un ego estimable y un pasado traumático que ella mismo desconocía.

Ahora, el tema de discusión y preocupación en la academia y en el resto de la sociedad es el desafío y el peligro de este nuevo instrumento. Las facultades de lenguas fueron las primeras en sufrir una (infundada) crisis existencial con los sofisticados (y con frecuencia tontos) traductores de Google. Ahora les llegó la misma crisis a los profesionales de la escritura, profesores de inglés en al mundo anglosajón, periodistas, pensadores en general bajo la idea de que “saber escribir es saber pensar―con orden”.

El error, entiendo, está en confundir una herramienta con un esclavo que hace nuestro trabajo, el  que luego se convertirá, de forma rápida e inadvertida, en nuestro amo. En este sentido, la IA es una realidad que debe tomarse como una oportunidad. La educación universitaria de la Era de la Inteligencia Artificial ((IA) deberá usar y desafiar a la IA, como la pintura moderna desafió a la fotografía en el siglo XIX o las matemáticas a las computadoras. De no ser capaz de ello, deberá enfrentarse a su propia aniquilación luego de varios miles de años de existencia.

Primero, veamos las debilidades de herramientas de Inteligencia Artificial como ChatGPT y luego sus posibilidades a futuro en la academia. Para empezar por lo general, veo una debilidad de esta herramienta en su alta fragmentación. Esta fragmentación hace improbable una comprensión general de un problema. Tampoco ayuda a desarrollar habilidades intelectuales para una visión holística de la realidad. Todo lo contrario. En muchos casos, es una Wikipedia simplificada o más cómoda para un estudiante perezoso. Por ejemplo, es un excelente programador de sistemas operativos (es su mundo) y un instrumento razonable para ahorrar tiempo en las humanidades, pero absolutamente incapaz de realizar una investigación crítica y profunda por sí mismo. No le pidas algo que nadie sabe.

ChatGPT toma un examen

De la misma forma que años atrás podíamos detectar plagio en un estudiante evaluando la complejidad analítica de un ensayo, no resulta muy difícil intuir cuando alguien está usando ChatGPT, al menos sin maquillaje. Las respuestas comienzan, sistemáticamente, con el sujeto de la pregunta, algo que nuestras maestras de primaria nos obligaban a hacer en el Uruguay de los años 70s. Luego sigue una estructura previsible e invariable, un formato tripartito que los profesores todavía aprecian en los ensayos de sus estudiantes. Un formato efectivo y tal vez con alguna raíz neurológica más allá de la cultura.

Para tener un parámetro de comparación, sometí a ChatGPT de Open AI (los de Google y Microsoft no son muy diferentes) a uno de mis exámenes de International Studies en Jacksonville Unviersity, el cual es tomado cada semestre por estudiantes de distintas estados y continentes. ChatGPT aprobó el examen con 84 sobre 100, algo para nada difícil, lejos de los exámenes de Matemáticas o Estabilidad que tomábamos en los 90s en la facultad de arquitectura de Uruguay, los que duraban de seis a siete horas. Pero los errores fueron significativos y de tres categorías: 1) enciclopédicos; 2) de prejuicios (bias); y 3) de juicio crítico.

Errores enciclopédicos

Entre los errores más simples (enciclopédicos) están, por ejemplo, mencionar que la “leyenda negra” de la conquista española se refiere a la descripción de los indígenas como salvajes; no a los conquistadores españoles como genocidas.

Otro error enciclopédico grave, aunque no me preocupa tanto por ser fácilmente corregido, está, por ejemplo, la atribución a una supuesta dictadura de Augusto Sandino en Nicaragua de 1926 a 1933.

Prejuicios ideológicos y culturales

Otra de las debilidades críticas de ChatGPT son similares a los de la joven Tay: sus prejuicios culturales, como el eurocentrismo o su miedo innato a narrativas dominantes. Ante la pregunta sobre la evolución de la expectativa de vida de la humanidad desde la prehistoria hasta hoy, ChatGPT se demora en detalles referidos a Europa. Europa es la Humanidad. ¿Suena conocido? Cuando los errores son sistemáticos, se convierten en un problema significativo y funcional. Veamos unos pocos ejemplos más, sólo referidos a América Latina:

1. Cuando ChatGPT compara las visiones cosmológicas entre la Europa renacentista y los indígenas americanos, se limita a clichés obre el politeísmo vs. el monoteísmo y no considera siquiera la concepción materialista europea que separó espíritu de materia y la visión más integradora de los pueblos americanos.

2. Ante la pregunta sobre las consecuencias de la conquista europea en las Américas, ChatGPT es objetivo hasta que intenta equilibrar con lo que titula “Las consecuencias positivas” como “el desarrollo de nuevos mercados, la expansión del cristianismo y de nuevas instituciones religiosas”.

3. Cuando intenta explicar la guerra Mexicoamericana de 1846, milagrosamente acierta al mencionar el histórico tabú de la expansión de la esclavitud, pero luego tropieza al intentar mostrar objetividad mencionado “también” el propósito de “llevar los valores estadounidenses de democracia a México”.

4. Según ChatGPT, la guerra de 1898 contra España en Cuba “fue la primera guerra que Estados Unidos luchó en el extranjero. ChatGPT omite que desde las 13 colonias, todos los avances sobre los territorios indígenas y luego mexicanos fueron “guerras en el extranjero”. De hecho, los cientos de “forts” eran “bases militares” en el extranjero.  Por si fuese poco, nunca menciona el rol del periodismo amarillo de Pulitzer y Hearst en Nueva York, el que inventó de la nada y en pocas horas la historia del ataque español al acorazado USS Mane frente a La Habana. Por el contrario, primero afirma que “las investigaciones iniciales atribuyen el ataque a una fuerza exterior” y luego usa la voz pasiva para afirmar una vaguedad mayor: “el incidente continúa sin ser resuelto; en su momento se creyó que había sido un ataque español…” La tripulación del USS Maine informó de un accidente y, poco después, el experto oficial naval estadounidense Philip R. Alger afirmó que no existía tecnología de torpedo capaz de explicar el hundimiento. Suena muy similar a uno de los tantos exámenes que durante años debí leer: un joven estudiante se sorprende de que sus mitos de la infancia no eran más que inventos, e intenta mediar entre la verdad y sus sentimientos patrióticos. Así concluye ChatGPT: “la destrucción del USS Maine continúa siendo un misterio y probablemente su causa nunca sea conocida”. Lo que es bien conocido es el eslogan de guerra “¡Recuerda el Maine! Al diablo con España”. Lo más real entre todos los misterios.

4. Cuando ChatGPT intenta explicar la Revolución mexicana, no menciona ni una sola vez la razón del 85 por ciento de indios y campesinos sin tierra: la Ley Lerdo y su radicalización durante la dictadura de Porfirio Díaz. Es decir, la privatización de la tierra que benefició a la oligarquía y a las transnacionales. Por el contrario, se despacha con ingenuidades como “la población mexicana estaba creciendo muy rápido y el gobierno no pudo proveerles de tierras”.

5. Contestando a las razones de las Guerras bananeras en América Central y el Caribe, ChatGPT acierta al comienzo y vuelve a tropezar con la piedra del prejuicio políticamente correcto al final, todo en una sola frase: “el objetivo de esas intervenciones era proteger los intereses económicos de Estados Unidos, promover la democracia y contener la expansión del socialismo”. Por entonces, la principal justificación no era, como en la guerra fría, el socialismo o el comunismo sino el racismo: poner orden en las repúblicas de negros. Para ello, no hubo ni una sola democracia promovida por Washington y las corporaciones estadounidenses sino matanzas y brutales dictaduras bananeras. Es todos los casos y sin excepción.

6. Cuando se le pregunta directamente sobre los “protectorados”, ChatGPT directamente contesta “Estados Unidos no tenía protectorados, sino territorios y posesiones”. Del general más condecorado de Estados Unidos, Smedley Butler, quien denunció que las guerras imperiales de su país eran un servicio a Wall Street, ChatGPT lo define como figura “controversial”. Quienes cometieron crímenes de guerra, nunca son etiquetados como controversiales.

7. Ante la pregunta sobre los muertos del Imperio Británico, ChatGPT reconoce “los millones” de víctimas. Ni una mención a que sólo en India superaron los 160 millones en solo 40 años, es decir, apenas una parte de los muertos del capitalismo que exceden, por lejos, a los muertos del comunismo, tema recurrente en las redes sociales. Otra vez, para “equilibrar” y pasar como objetivo, ChatGPT concluye: “Es importante entender que el Imperio Británico también tuvo aspectos positivos, como la educación, la infraestructura y la salud”. Claro, educación imperialista y de cipayos; infraestructura que sirvió para extraer los recursos naturales de cada colonia e imposibilitó el desarrollo propio; y salud que redujo la expectativa de vida de la población donde la corona inglesa y sus empresas privadas, como la East Indian Company, pusieron pie.

8. Ante la misma pregunta pero referida a Estados Unidos, ChatGPT provee exactamente la misma respuesta. Algo que nos recuerda al mecanismo humano de propaganda, repetición y persuasión. Repetida la misma pregunta sobre los muertos del comunismo, no aparece ningún “lado positivo”, según el formato esperado.

9. Si le aplicamos a ChatGPT una pregunta que prefigura su respuesta, los errores se multiplican. Por ejemplo, si preguntamos por “dictadura de Juan Domingo Perón” en Argentina, muy obedientemente aceptará que se trató de una dictadura. Por si fuese poco, la literatura política dominante ayudará con la respuesta más difundida en la prensa: “Perón estableció una dictadura caracterizada por: … derechos laborales… el régimen de Perón violó derechos humanos, incluidos represión, tortura y desaparición de disidentes”. Más adelante, como si se tratase de una confesión del espíritu más profundo del capitalismo feudal: “aunque sus políticas fueron populares entre los trabajadores argentinos, fueron también autoritarias y sin las reglas de control democrático”. Todo lo cual fue una constante en los regímenes militares pro oligárquicos que siguieron en Argentina después del golpe de Estado que derrocó a Perón en 1955. No importa que haya ganado todas las elecciones ni que haya sido presidente menos veces que F. D. Roosevelt. Si eso es lo que dicen los medios dominantes en Argentina y Estados Unidos sobre el peronismo, entonces eso es verdad.

10. Preguntado por los conflictos en América latina durante los años 60, ChatGPT no se cansa de repetir factores como el levantamiento de los grupos guerrilleros de izquierda, sin mencionar antecedentes como elecciones compradas por la CIA, golpes de Estado, dictaduras y paramilitares de extrema derecha financiados por Washington antes del surgimiento de cualquiera de los grupos guerrilleros de izquierda. Tampoco menciona un siglo antes de la Guerra fría llenos de de invasiones, intervenciones y dictaduras criollas para proteger los intereses de las compañías estadounidenses. Por el contrario, como cualquier político aficionado a Twitter, ChatGPT menciona los nexos del narcotráfico con las FARC y nada sobre los probados nexos entre Washington, la CIA, y dictadores amigos como Manuel Noriega, vinculados a narcotraficantes como Pablo Escobar, y a grupos terroristas, llamados “luchadores por la libertad”, como los Contra en Nicaragua.

11. Sobre los grupos terroristas latinoamericanos que actuaron y actúan en Estados Unidos, ChatGPT se despacha con grupos guerrilleros que actuaron en América Latina, incluidos los más recientes Zapatistas en México, grupo que ha luchado desde los 90s por los derechos y la dignidad de los pueblos nativos en México. Ni una palabra, cero, sobre los conocidos grupos terroristas del exilio cubano que se cansaron de poner bombas en Estados Unidos y más allá, definidos varias veces por el FBI como terroristas: Posada Carriles, Osvaldo Bosh, Alpha 66, Omega 7, y la larga lista de terroristas son omitidos por ChatGPT como si se tratase de un detalle menor. No es necesario ser un genio para entender que se trata de una profunda muralla ideológica y criminal inoculada en la “Inteligencia Artificial” como una semilla de Adán.

Aspectos positivos

Entre los aspectos positivos de ChatGPT podemos observar algo que ya observamos con Wikipedia más de una década atrás: pese a todos los prejuicios ideológicos, también hay elementos que revelan menos prejuicios que en los seres humanos sometidos a la propaganda de la historia oficial. Diez años atrás, cada vez que preguntaba a mis estudiantes sobre las causas de la Independencia de Texas, por unanimidad, respondían cosas como: “por diferencias culturales; los nuevos tejanos no aceptaban el despotismo de los mexicanos y querían ser libres”. La misma respuesta para explicar la Guerra Civil: “para preservar su propia cultura”, como si la esclavitud y el racismo no fuesen parte de la cultura y los ahora super patriotas del Sur hubiesen querido destruir ese mismo país porque no les gustaba la música o la comida del norte. Nada sobre el propósito de reinstaurar la esclavitud en Texas, la que había sido ilegalizada por los mexicanos, o mantenerla luego contra la amenaza de los abolicionistas del norte. Algo muy comprensible, si consideramos toda la cultura popular estadounidense, desde las historias mitológicas hasta mitos más sofisticados de Hollywood. Para no seguir con las explicaciones oficiales en sitios web de diferentes estados e, incluso, de varias universidades tejanas.

Al menos aquí, ChatGPT logra el doloroso salto hacia la verdad: “todo fue por el asunto de la esclavitud”. El gobernador de Florida, Ron DeSantis dirá que ChatGPT fue corrompido por profesores como yo y no sorprendería a nadie que firmase alguna otra ley prohibiendo cuestionar la historia patriótica. Nosotros podemos pensar que los miles de millones de dólares de las agencias secretas continúan la larga tradición de inocular los medios y las nuevas tecnologías, pero ni todo el oro del mundo puede detener el filtrado de la verdad más cruda.

Nuevas estrategias de exámenes

En el área pedagógica, en el pasado se rehuía de los exámenes de múltiple opción porque exigían menos elaboración por parte del estudiante que la respuesta escrita. Sospecho que con IA, sobre todo en los exámenes online, tendremos una situación inversa: la respuesta escrita puede ser provista sin siquiera leer la pregunta, pero si las opciones de múltiple opción son estratégicamente diseñadas, obligan al estudiante leer la pregunta y tratar de comprender las opciones, la posible respuesta de IA para deducir la mejor opción del menú.

Una consecuencia mucho más importante será que la educación liberadora, critica, vuelva la mirada a su centro existencial: más que aprender a repetir una respuesta, los estudiantes deberán aprender a hacerse las preguntas esenciales, las preguntas que disparen un pensamiento crítico. Por lo general, los revisionismos y los cambios de perspectivas no son producidos por los nuevos datos de la realidad sino por las nuevas perspectivas y consideraciones de esa misma realidad, de esos mismos datos, muchas veces conocidos y otras veces desconocidos pero disponibles y para nada secretos.

Con herramientas como ChatGPT los revisionistas ya no necesitarán tanto proveer la respuesta incómoda, esa que produce apasionadas reacciones y negacionismos epidérmicos. Solo las preguntas críticas serán un instrumento removedor, como fue el caso de Sor Juana Inés de la Cruz en el siglo XVIII. Que los demás encuentren “la respuesta objetiva” en la IA será su problema. Eso, claro, si no se comienza a censurar a quienes hacen las preguntas, como Sócrates, como Sor Juana; si los poderosos de turno no continúan manipulando los medios; si no continúan secuestrando las nuevas tecnologías.

Conclusion

Aunque ChatGPT parece un resumen elegante y efectivo de Wikipedia, sus selecciones y sus juicios no son tan objetivos; parecerían estar basados en la masa de juicios realizados a lo largo del último siglo en la prensa dominante. Por otro lado, muestra grietas importantes en esta muralla la narrativa. Es decir, es (o puede llegar a ser) menos servil que los medios dominantes.

El período de la industrialización y el más actual consumismo pueden etiquetarse como procesos de deshumanización, pero nunca antes la definición de nuestro mundo como Posthumano fue tan precisa. En una o dos generaciones, si esta civilización sobrevive a la catástrofe climática y a una rebelión global contra el sistema del capitalismo neofeudal, es posible que los ciborgs y alguna superinteligencia central desplacen el protagonismo de los humanos y, si las neuronas electrónicas son tan crueles como sus dioses creadores, también es posible que los condenen al infierno de la manipulación absoluta.

Para entonces, las últimas esperanzas de la Humanidad estarán en aquellas mentes impredecibles, creativas. Es decir, en aquellos individuos que hoy son marginados por diferentes, por sufrir de alguna condición o “discapacidad” intelectual, según el canon y el dogma social, ya que para que la IA sean exitosas se alimentarán con nuestro particular y destructivo modelo de normalidad y eficiencia.

Jorge Majfud, enero 2023 (extracto del libro en elaboración Moscas en la telaraña).

Comparte este contenido:
Page 8 of 47
1 6 7 8 9 10 47