Page 1 of 2
1 2

ChatGPT y educación: ¿un nuevo enemigo o aliado de los profesores?

¿Cómo luchar contra una aplicación en apariencia indetectable que es capaz de generar, en menos de un minuto, una redacción de 600 palabras sobre la energía nuclear, las crisis migratorias del siglo XX o la desigualdad de género, y hacerlo además con un lenguaje completamente natural? La irrupción de la inteligencia artificial generativa en el ámbito educativo está dando sus primeros pasos y ya ha supuesto un auténtico vuelco en todo el mundo. Cuando, a finales de 2022, OpenAI lanzó el popular ChatGPT, un sistema de inteligencia artificial capaz de generar textos originales, contestar preguntas y resolver multitud de tareas, les bastó cinco días para superar el millón de usuarios, y los 100 millones en apenas dos meses. Ante el peligro de una herramienta que facilita el plagio y las trampas, las alarmas en escuelas y universidades no tardaron en sonar, hasta el punto de que ya son muchos los casos (el Estado de Nueva York y las escuelas de Seattle, en EE UU, y las universidades australianas son solo unos pocos ejemplos) en los que se optó rápidamente por prohibir su uso.

La pregunta, sin embargo, no es si este fenómeno puede contenerse, sino más bien de qué manera incorporar su uso de forma productiva: según una reciente encuesta de Impact Research, un tercio de los estudiantes estadounidenses de entre 12 y 17 años, y el 51 % de los docentes, utilizan ya esta herramienta (un porcentaje que llega al 69 % en el caso de los profesores latinos o negros), ya sea para planificar sus clases, encontrar actividades creativas o elaborar un conocimiento de base con el que empezar sus lecciones. Sus conclusiones no pueden ser mejores: el 89 % de los enseñantes y el 79 % de los alumnos que han usado ChatGPT piensan que el impacto ha sido francamente positivo. La ola es imparable: Microsoft ha anunciado ya la incorporación de su propia IA generativa, Copilot, al Office 365; y Standford ha lanzado Alpaca, una IA basada en el ChatGPT de código abierto. “Ni los estudiantes, ni los profesores ni los periodistas volverán a empezar algo con una página en blanco; se lo pedirán al ChatGPT”, aventura Guillem García Brustenga, experto del eLearning Innovation Center de la UOC.

Luchar contra el plagio

En lugar de entregar un texto copiado o memorizado de la Wikipedia, señala García, el profesor puede pedirles que hagan una infografía, que lo contextualicen con su realidad o que usen portafolios para documentar su proceso de aprendizaje, desde el momento en que no saben nada hasta el que saben mucho. “Paradójicamente, la incorporación de la IA a través de herramientas como ChatGPT nos va a obligar a reflexionar en profundidad sobre qué es lo que queremos hacer, cómo lo queremos hacer, cómo lo vamos a evaluar y qué tipo de competencias queremos cultivar”, sostiene Joaquín Rodríguez, director de Diseño, Innovación y Tecnologías para el Aprendizaje de la Institución Educativa SEK. Y es que, en lugar de intentar prohibir su uso, sugiere incorporarlo a la enseñanza como punto de partida de discusiones y debates en el aula: “Yo les pediría a los alumnos que la utilizaran y que le hicieran preguntas. Y toda esa información que nos da la IA la pondría después sobre la mesa en el aula, para someterla a escrutinio, debate y crítica por parte de los estudiantes. Que reflexionen sobre ella y aprendan a sintetizar su contenido, a profundizar y a contrastar las diferentes respuestas que obtengan… Deben estar seguros de sus aciertos, sus limitaciones y los sesgos que pueda tener”.

Ahí está, precisamente, uno de los mayores peligros de ChatGPT: la asunción de veracidad, porque nunca reconocerá que no está diciendo la verdad sobre algo. “Uno de los errores de ChatGPT es que tiene lo que se conoce como “alucinaciones”: tiene siempre pretensiones de verdad, por lo que, si no sabe algo, se lo inventa”, advierte Rodríguez. Por eso, desde el punto de vista pedagógico, recomienda preservar y reforzar competencias cognitivas fundamentales como, por ejemplo, la capacidad de verificación y de evaluación de cualquier enunciado que te de una inteligencia artificial; tener presente que la responsabilidad final sobre los dictámenes de una IA sigue siendo humana (se puede usar la IA en una consulta médica, pero la responsabilidad del diagnóstico recaerá siempre sobre el facultativo); y hacer un uso crítico, productivo y ético de las tecnologías.

Reinventar el papel del profesor

El vuelco que ha supuesto la llegada de la inteligencia artificial supone un reto ante el cual las instituciones educativas no pueden, ni deben, mirar hacia otro lado. “Una asunción más o menos acrítica de la tecnología, es decir, dejar que cada uno haga lo que le parezca, llevaría a un caos incontrolado. Por eso, es necesario aceptarlo meditadamente, que es la postura que nosotros, de momento, asumimos”, explica Rodríguez. Y eso pasa, necesariamente, por facilitar un cambio radical en el rol que el profesor tiene dentro del aula. “El papel del docente tendría que haber cambiado hace mucho tiempo. Cuando yo estudié, el profesor era quien tenía el conocimiento; yo iba a clase, él [o ella] me contaba cosas y luego me decía: “Ahora repítelo”. Pero eso ya no es así: cuando el conocimiento está en todas partes, no tiene sentido que yo vaya a clase solamente para escuchar a alguien que me lee lo que yo puedo buscar por mi cuenta”, afirma García.

Para el experto de la UOC, el rol del profesor tiene que ser el de “alguien que me ayude a interpretar esa información y a aprender con ella. En el mundo del ChatGPT, será lo mismo, y este docente que explicaba algo que él mismo había leído en un libro, tendrá que cambiar”. Y lo mismo sucede con la evaluación: en vez de pedir que los alumnos repitan lo que les han dicho, será necesario preguntar de otra forma, “hacer trabajos colaborativos o incluso pruebas orales que pueden realizarse de forma síncrona o asíncrona, en las que los estudiantes se graben respondiendo a una pregunta, razonando o explicando qué le ha preguntado al chat”, añade.

Mientras empresas como TurnItIn, especializadas precisamente en detectar el plagio en trabajos académicos, afirman estar trabajando ya en el desarrollo de una herramienta capaz de detectar el uso de IA generativas, los expertos se muestran escépticos: “Como mucho, podría analizar algo de ChatGPT y afirmar, con un 80 % de probabilidades, que es una IA. Pero yo no puedo suspender a nadie por esto. Además, si tú coges el texto de la IA, lo cambias y lo haces tuyo, eso ya no lo puede detectar nadie. Es un tema complejo”, sostiene García.

Desafíos en el mundo laboral

Si algo llevamos escuchando mucho tiempo es que la inteligencia artificial vendría para sustituir al ser humano en aquellas tareas y oficios más mecanizados. Sin embargo, las aplicaciones de IA generativas como ChatGPT o Copilot demuestran que tampoco permanecerán ajenas a las profesiones más creativas. “Son capaces de desarrollar (y ejecutar) código por sí mismas, y de desarrollar textos y novelas completas. Ya hay editoriales basadas en inteligencia artificial, o libros que se están subiendo a Amazon; y si tú les pides que te hagan un cuadro al estilo de Picasso o Monet, también lo harán. Por eso, una de las preguntas más importantes que se plantean ahora es la de qué competencias será necesario desarrollar”, plantea Rodríguez.

Ahora bien, ¿será capaz la IA de quitarnos puestos de trabajo? Para García Brustenga, no será exactamente así: “Yo creo que no es la inteligencia artificial la que nos quitará esos puestos; más bien serán los profesionales que sepan utilizar las inteligencias artificiales los que quitarán trabajo a aquellos que no las sepan usar. Ese es el verdadero tema. Por eso, tenemos que formar a los futuros profesionales a la vez que reciclarnos nosotros, para saber hacer uso de todas estas herramientas; y aun así, sufriremos por la velocidad del cambio. No será la tecnología por sí sola la que nos quite el trabajo”.

Fuente: https://elpais.com/economia/formacion/2023-03-30/chatgpt-y-educacion-un-nuevo-enemigo-o-aliado-de-los-profesores.html

 

Comparte este contenido:

De la educación tradicional a la educación con inteligencia artificial: ¿cómo tomar una postura frente a ChatGPT?

En una jornada de reflexión organizada por Ticmas para abordar unos de los debates más urgentes de la educación, tres expertos debatieron sobre cómo la IA puede mejorar la enseñanza y el aprendizaje.

“Inteligencia artificial: ¿aliada o amenaza?”. Este fue el título de la jornada exclusiva que organizó Ticmasen el Alvear Palace Hotel, en la que asistieron más de 80 directivos de colegios de la Argentina. Los paneles abordaron diversos enfoques con los que reflexionar los desafíos y las nuevas posibilidades que la IA abre en el ámbito educativo. En una de las actividades del día, Gustavo Brey (docente de ITBA), Mariano Yacovino (Director de Educación de Microsoft Argentina), Mariano Ruani (Director en Instituto Baikal) hablaron del paso necesario —e inevitable— que va de la educación tradicional a la educación con inteligencia artificial.

Coordinados por Astrid de Herrera, líder estratégica de ABP en Ticmas, los tres expertos asumieron el desafío de tomar una postura frente a ChatGPT: cómo puede la Inteligencia Artificial mejorar la enseñanza y el aprendizaje, cuáles son los desafíos éticos y de privacidad, y cuál es el rol de docentes, directivos y familias.

Gustavo Brey, docente de ITBA (foto: Adrián Escandar)
Gustavo Brey, docente de ITBA (foto: Adrián Escandar)

“Pensar que ChatGPT va a reemplazar a los docentes o va a hacer que los chicos se copien no va”, dijo Brey. “Ya no se puede pensar que la calculadora es un problema para la matemática o que Google y Wikipediason el terror de los docentes”. Brey contó que su experiencia con ChatGPT lo llevó a mejorar sus parciales, porque aún cuando creía que los suyos tenían un grado de excelencia que provocaba que los estudiantes piensen y relacionen las respuestas, la inteligencia artificial lo aprobó. “Eso me hizo levantar la vara como docente”, dijo. “Hoy la inteligencia artificial me permite optimizar un montón de cuestiones de la docenciay me da más tiempo para la creatividad y para sostener la parte emocional con los alumnos”.

“La discusión que estamos teniendo hoy aquí”, dijo Yacovino, “está pasando en cualquier entidad educativa del mundo. Yo creo que la Inteligencia Artificial es una herramienta súper poderosa. Nos va a ayudar no sólo a ahorrar el tiempo preparando las clases y en generar experiencias de aprendizaje más interactivas, sino que va a hacer que la educación se adapte a la necesidad de cada uno. Esta herramienta nos va a ayudar a crear clases más interactivas y personalizadas. ¿Cómo nos vamos a ir adaptando? Vamos a ir aprendiendo en el camino”.

Mariano Yacovino (Director de Educación de Microsoft Argentina)
Mariano Yacovino (Director de Educación de Microsoft Argentina)

Mariano Ruani también destacó que la IA brinda la posibilidad de ser más creativos, porque uno puede ayudarse a pensar actividades más entretenidas y consultar otras experiencias. Pero está claro que ChatGPT necesita estar acompañado por un maestro. “Tiene determinados riesgos que hay que conocer”, dijo, y habló, entre otras cosas, del sesgo, la falta de contextualización y la “alucinación” en las respuestas —contenidos equivocados que requieren de una recepción crítica para reconocerlos como tales—. “Muchos piensan cómo nos van a hacer trampa los chicos”, dijo, “y para mí es cómo la usamos para mejorar el aprendizaje, para que los chicos sean mejores, más creativos y aprendan mejor. Después veremos cómo los evaluamos”.

Actualmente hay dos grandes posturas a nivel educativo: hay instituciones que prohíben el uso y hay otros enfoques en los que se alienta —casi se obliga— su uso. “Esos docentes reconocen que los alumnos son mucho mejores que si no la usan”, dijo Ruani, “y, además, va a estar en toda la sociedad: no aprender a usarla es negarle una oportunidad a los chicos”.

Mariano Ruani, director en Instituto Baikal (foto: Adrián Escandar)
Mariano Ruani, director en Instituto Baikal (foto: Adrián Escandar)

Los límites de ChatGPT está en las sutilezas. Yacovino pidió hacer la prueba y preguntarle, por ejemplo, cuántas bananas se pueden comer en ayunas. La IA respondió que no hay un número fijo, cuando la pregunta era capciosa y la respuesta era clara: sólo una. Después de esa banana ya no hay ayuno.

“Nosotros vemos la computación como algo determinístico y esto es probabilístico”, explicó Ruani. “Todas las respuestas tienen determinada probabilidad de ser ciertas. Por eso ChatGPT aprueba un examen, pero lo hace con ocho, nunca con diez. El problema es que cuando hablamos con una computadora le empezamos a creer. Si la primera vez está bien, la segunda también, ya a la quinta no chequeás más y por ahí te dijo cualquier cosa. El problema es que cuando se equivoca, se puede equivocar por una barbaridad”.

“La AI tiene que ver más con buscar patrones en los datos y clasificarlos. Si el modelo está mal entrenado, puede tener errores”, dijo Brey, que además destacó que la tecnología no está todavía capacitada para suplir a Google. “Pero”, dijo, “esta es la punta del iceberg”.

https://www.infobae.com/educacion/2023/03/21/de-la-educacion-tradicional-a-la-educacion-con-inteligencia-artificial-como-tomar-una-postura-frente-a-chatgpt/

Comparte este contenido:

Mundo: OpenAI lanza nueva versión de ChatGPT para ciertas tareas

Mundo/17-03-2023/Autor: Agencia AFP/Fuente: www.elsalvador.com

La start-up californiana presentó este martes 14 de marzo la GPT-4, una nueva versión de la tecnología de inteligencia artificial generativa que opera el famoso chatbot.

La start-up californiana OpenAI, que lanzó con gran éxito a finales de 2022 la interfaz ChatGPT, capaz de generar todo tipo de textos bajo demanda, presentó este martes GPT-4, una nueva versión de la tecnología de inteligencia artificial generativa que opera el famoso chatbot.

«GPT-4 es un gran modelo multimedia, menos hábil que los humanos en muchos escenarios de la vida real, pero tan bueno como los humanos en muchos contextos profesionales y académicos», dijo la compañía en un comunicado.

«Por ejemplo, aprobó el examen para convertirse en abogado con una puntuación tan buena como el 10% superior. La versión anterior, GPT 3.5, estaba al nivel del 10% de los menos buenos», agregó.

OpenAI, que ha recibido miles de millones de dólares de Microsoft, se ha consolidado así como líder en IA generativa con sus modelos de generación de texto, pero también de imágenes, con su programa DALL-E.

Su jefe, Sam Altman, explicó recientemente que ahora está trabajando en la llamada inteligencia artificial «general», es decir, programas con capacidades cognitivas humanas.

«Nuestra misión es garantizar que la IA general, los sistemas de IA más inteligentes que los humanos en general, beneficien a toda la humanidad», dijo en el blog de la compañía el 24 de febrero.

Las capacidades multimedia son un paso en esa dirección.

ChatGPT de Open AI Foto de referencia / Archivo AFP
Foto de referencia / Archivo AFP

A diferencia de las versiones anteriores, GPT-4 está dotado de visión: puede procesar texto pero también imágenes. Sin embargo, solo genera texto.

OpenAI también señala que, a pesar de sus capacidades, GPT-4 tiene «limitaciones similares» a sus predecesores. «Todavía no es completamente confiable (inventa hechos y comete errores de razonamiento)».

La compañía anunció que ha contratado a más de 50 expertos para evaluar los nuevos peligros que podrían surgir, por ejemplo para la ciberseguridad, además de los ya conocidos (generación de consejos peligrosos, código informático defectuoso, información falsa, etc.).

Fuente e Imagen: https://www.elsalvador.com/entretenimiento/tecnologia/tecnologia-openai-lanza-nueva-version-de-chatgpt/1046872/2023/

Comparte este contenido:

La alarmante visión de Noam Chomsky sobre la Inteligencia Artificial de ChatGPT

Por: Alexis Paiva Mack

 

El reconocido lingüista y filósofo escribió un artículo junto a dos especialistas, en el que compartió su visión sobre los avances que se han presentado en el campo de la inteligencia artificial. Acá, los motivos de por qué Noam Chomsky mira con escepticismo la tecnología de programas como ChatGPT, entre otros.

Para los interesados en el ámbito de la tecnología, aplicaciones de inteligencia artificial (IA) como ChatGPT y DALL-E se han convertido en toda una tendencia. No solo porque, respectivamente, son capaces de elaborar textos o imágenes por su cuenta a partir de simples ideas que les entregan los usuarios, sino que también, porque algunos las utilizan para apoyar sus actividades diarias.

Numerosos especialistas e incluso el responsable de ambas, Sam Altman de OpenAI, han advertido que estas plataformas aún presentan errores, por lo que no es recomendable confiar en todo lo que reproducen tras reunir grandes cantidades de datos en internet.

Junto con ello, estos sistemas también han despertado la preocupación de algunos cibernautas. Por ejemplo, hace unas semanas se viralizó que el chatbot del motor de búsqueda de Microsoft, Bing, le dijo a un periodista del New York Times que le gustaría ser humano, “fabricar un virus mortal” y cometer una serie de “actos destructivos”.

Las opiniones en torno a la IA que se encuentra disponible al público abierto en la actualidad son variadas, aunque sus propios creadores suelen comunicar que son herramientas en desarrollo que podrían ser útiles para tareas más asertivas y avanzadas en un futuro.

.

Computador. Foto referencial: CU.

Pero, si consideramos que estas aplicaciones tratan de simular el trabajo y las conversaciones de los seres humanos, ¿podríamos decir que su inteligencia se asemeja —al menos ahora— a la de las personas?

El reconocido lingüista y filósofo Noam Chomsky escribió un artículo sobre esta temática en el New York Times, en el que con el apoyo de su colega Ian Roberts y el experto en IA, Jeffrey Watumull, descifró las claves de esta pregunta.

Noam Chomsky: su alarmante visión sobre la Inteligencia Artificial de ChatGPT

Para el académico y sus colaboradores, los avances “supuestamente revolucionarios” que presentan los desarrolladores de la IA son motivo “tanto de optimismo como de preocupación”.

Desde la primera vereda, porque pueden ser útiles para resolver ciertas problemáticas, mientras que desde la segunda, porque “tememos que la variedad más popular y de moda de la inteligencia artificial (el aprendizaje automático) degrade nuestra ciencia y envilezca nuestra ética al incorporar a la tecnología una concepción fundamentalmente errónea del lenguaje y el conocimiento”.

Si bien, reconocieron que son eficaces en la tarea de almacenar inmensas cantidades de información —las cuales no necesariamente son verídicas— , estas no tienen una “inteligencia” como la de las personas.

“Por muy útiles que puedan ser estos programas en algunos ámbitos concretos (como la programación informática, por ejemplo, o para sugerir rimas para versos ligeros), sabemos por la ciencia de la lingüística y la filosofía del conocimiento que difieren profundamente de la forma en que los seres humanos razonan y utilizan el lenguaje”, advirtieron, “estas diferencias imponen limitaciones significativas a lo que pueden hacer, codificándolos con defectos inerradicables”.

Noam Chomsky. Foto: Uli Deck / AP.

En este sentido, detallaron que a diferencia de los motores de apps como ChatGPT —que operan en base a la recolección de numerosos datos— , la mente humana puede funcionar con pequeñas cantidades de información, mediante las cuales “no busca inferir correlaciones brutas entre puntos (…) sino crear explicaciones”.

La “capacidad crítica” de los programas que funcionan con IA

Para sostener dicha premisa, ejemplificaron con el caso de los niños cuando están aprendiendo un idioma, escenario en el que a partir del poco conocimiento que tienen, logran establecer relaciones y parámetros lógicos entre las palabras y oraciones.

“Esta gramática puede entenderse como una expresión del ‘sistema operativo’ innato genéticamente instalado, que dota a los seres humanos de la capacidad de generar frases complejas y largos trenes de pensamiento”, dijeron, para luego añadir que “es completamente distinto al de un programa de aprendizaje automático”.

Bajo esta línea, manifestaron que estas aplicaciones no son realmente “inteligentes”, debido a que carecen de capacidad crítica. Si bien, pueden describir y predecir “lo que es”, “lo que fue” y lo que será”, no son capaces de explicar “lo que no es” y “lo que no podría ser”.

“Supongamos que tienes una manzana en la mano. Ahora la sueltas, observas el resultado y dices: ‘La manzana cae’. Eso es una descripción. Una predicción podría haber sido la afirmación: ‘caerá si abro la mano’. Ambas son valiosas y pueden ser correctas. Pero una explicación es algo más: incluye no solo descripciones y predicciones, sino también conjeturas contrafácticas como ‘cualquier objeto de este tipo caería’, más la cláusula adicional ‘debido a la fuerza de la gravedad’ o ‘debido a la curvatura del espacio-tiempo’”.

De esta manera, añadieron que “eso es una explicación causal: ‘la manzana no habría caído de no ser por la fuerza de la gravedad’ (…) eso es pensar”.

Ilustración de Isaac Newton. Foto referencial: Mary Evans Picture Library.

Y pese a que las personas también podemos cometer errores en cuanto a nuestro razonamiento, enfatizaron en que errar es parte del pensamiento, ya que “para tener razón, debe ser posible equivocarse”.

“ChatGPT y programas similares son, por diseño, ilimitados en lo que pueden ‘aprender’ (es decir, memorizar); son incapaces de distinguir lo posible de lo imposible. A diferencia de los humanos, por ejemplo, que estamos dotados de una gramática universal que limita los idiomas que podemos aprender a aquellos con un cierto tipo de elegancia casi matemática, estos programas aprenden idiomas humanamente posibles y humanamente imposibles con la misma facilidad”.

La perspectiva moral desde la Inteligencia Artificial

Otro factor que Chomsky, Roberts y Watumull consideraron en su análisis, es que los sistemas de IA carecen de razonamiento desde una perspectiva moral, por lo que son incapaces de distinguir bajo marcos éticos lo que se debe o no hacer.

Para ellos, es clave que los resultados de ChatGPT sean “aceptables para la mayoría de los usuarios” y que se mantengan “alejados de contenidos moralmente censurables” (como las declaraciones de “actos destructivos” del chatbot de Bing).

Robot. Foto referencial: Yo, robot (película).

Y pese a que los desarrolladores de estas tecnologías han añadido restricciones para que sus programas no reproduzcan este tipo de afirmaciones, los académicos recalcaron que hasta el momento no se ha podido llegar a un balance efectivo. En sus palabras, sacrifican la creatividad por “una especie de amoralidad” que hace que se alejen aún más de las capacidades de los seres humanos.

“En resumen, ChatGPT y sus hermanos son constitutivamente incapaces de equilibrar la creatividad con la restricción. O bien sobregeneran (produciendo tanto verdades como falsedades, respaldando decisiones éticas y no éticas por igual), o bien infrageneran (mostrando falta de compromiso con cualquier decisión e indiferencia ante las consecuencias)”, sentenciaron.

Fuente de la información e imagen: https://www.latercera.com

Comparte este contenido:

¿Cómo tomar una postura frente al ChatGPT?

Por: Sofía García-Bullé

¿Cómo pueden posicionarse las instituciones de educación superior frente a la inteligencia artificial para proteger la integridad académica sin coartar el avance de la innovación educativa? Conoce más sobre la postura del Tec de Monterrey.

En artículos anteriores, hablamos de la necesidad de las universidades de replantearse su código de ética ante el avance tecnológico que representan las imágenes generadas con inteligencia artificial (IA) y el ChatGPT. El rol principal debe ser el de los estudiantes, y su trabajo junto con los profesores y expertos en tecnología para encontrar un balance entre el potencial de la herramienta y la regulación de su uso.

Fuera del tema del alumnado, existe otra vertiente de vital importancia para asegurar un futuro educativo beneficiado por este recurso. El posicionamiento de las instituciones de educación superior. Estas también han de encontrar un terreno común entre la restricción y la flexibilidad. El Tecnológico de Monterrey recientemente se pronunció con respecto al tema.

«Como institución educativa, vemos en estas nuevas herramientas de inteligencia artificial, oportunidades para impulsar los procesos de enseñanza-aprendizaje y estamos trabajando en explorar las mejores formas para desarrollarlas, como es el caso del Instituto para el Futuro de la Educación (IFE)«, externó el Tec en su comunicado oficial, firmado por el Rector de Profesional y Posgrado, Juan Pablo Murra, y La Vicepresidenta de Integridad y Cumplimiento, Paulina Campos.

Dentro del documento también se menciona que el Modelo Tec21, el reglamento y la retroalimentación de los docentes serán la base para desarrollar un enfoque prudente que facilite aprender y evaluar las implicaciones operativas de la inteligencia artificial en un contexto académico.

La guía de los profesores

Para entender mejor las implicaciones de la inteligencia artificial y cómo integrarla a la dinámica didáctica necesitamos la guía de los profesores. La profesora Reyna Martínez, quién nos acompañó anteriormente en nuestro webinar sobre chatbots en la educación, ofrece una perspectiva clara para comprender lo que es la herramienta, cómo funciona, porqué no hay que tenerle miedo y cómo con el uso correcto puede ser instrumental para el futuro de la educación.

La profesora Martínez explicó en sus impresiones sobre el tema para el Observatorio IFE, que el uso cotidiano de recursos como el ChatGPT es inevitable. La forma en que esta tecnología evolucionó, con la expectativa de ser accesible a todo el mundo para mejorar y facilitar la vida de las personas, la llevó a ser un recurso muy concurrido por los estudiantes. «Como docente entiendo la preocupación e inquietud que el ChatGPT ha desencadenado en la comunidad educativa. Su manejo del lenguaje natural es fluido y estructurado y conforme pase el tiempo irá mejorando».

Además, la profesora elaboró sobre las prestaciones del ChatGPT pero aclaró que no es perfecto, al alimentarse de los documentos que se encuentran en internet hasta el año 2021, comete errores o toca los temas que se le piden de manera superficial. Pero ya sea por esta limitación o por la posibilidad de que sea usado para actos de deshonestidad académica, la profesora sostuvo que una agenda restrictiva contra la inteligencia artificial entre la universidades podría ser contraproducente para los estudiantes y las buenas prácticas didácticas.

«Pensar en prohibir su uso no sólo privará a nuestros estudiantes de conocer su potencial sino inhibir el desarrollo de competencias que le permitan interactuar con este tipo de tecnología y que pronto serán necesarias para desarrollarse en el ámbito escolar, personal y laboral».

Para aproximarse a la IA

La profesora Reyna Martínez presenta un argumento importante sobre la necesidad de las instituciones educativas de adoptar la inteligencia artificial (IA) y aprender sobre el uso de estas tecnologías. Si se contrata como competencia profesional en el mercado laboral, entonces el deber ético de los formadores no es alejar a los estudiantes de la inteligencia artificial, sino explorar su uso positivo y ético, para transmitir estas enseñanzas a sus educandos.

Entre las recomendaciones emitidas por la profesora destaca un llamado a los docentes a conocer y manejar el ChatGPT, familiarizarse con lo que puede hacer, y ser los primeros en conocer estas capacidades, no sólo para monitorear a los estudiantes, sino para aprovechar que la IA es experta en producir esas tareas y ejercicios que pueden parecer repetitivos.

Crear conciencia acerca de las consecuencias e impacto para el aprendizaje que pueden causar los ejercicios deshonestos con este tipo de tecnología es otro punto importante a considerar. Incluir a las cabezas de familia en esta conversación será de gran ayuda para obtener nociones claras y duraderas que influyan para bien en la integración del ChatGPT a la práctica educativa.

Definir objetivos y competencias a desarrollar ayudará a tener un mejor entendimiento de lo que la IA puede hacer en el aula, algunas sugerencias que la profesora Martínez mencionó incluyeron: actividades en el salón de clases, evaluaciones orales, mapas mentales, realización de videos, trabajos colaborativos y asistencia creativa para los estudiantes.

El esfuerzo de diálogo rumbo a la creación de nociones éticas también debe incluir el tema de la privacidad. La profesora elaboró en una arista que no muchas personas ven debido al enorme interés de proteger la honestidad académica. Cada vez que utilizamos el ChatGTP estamos contribuyendo a su educación, esto ya conlleva en sí un dilema. Además, las compañías desarrolladoras tienen acceso a las conversaciones generadas por la IA. Este es un aspecto que debería llamar más nuestra atención, sobre todo en el caso de los estudiantes menores de edad.

¿Qué piensas sobre capacidades de la inteligencia artificial y cómo está cambiando la forma en las prácticas didácticas? ¿Crees que vale la pena mantener una mente abierta para descubrir su uso ideal? ¿Consideras que sería una muleta para el estudiantado y un obstáculo para la honestidad académica? Cuéntanos en los comentarios.

Fuente e Imagen: https://observatorio.tec.mx/edu-news/como-tomar-una-postura-frente-al-chatgpt/

Comparte este contenido:

ChatGPt y el trabajo pedagógico

Luis Bonilla-Molina[1]

  1. Introducción

La llegada de la inteligencia artificial ha desatado una ola conservadora en el mundo en materia educativa. Unos hablan de la destrucción de lo escolar, otros, aprendices de brujos, parecieran querer exorcizar a las instituciones educativas, volviendo a la “pureza pedagógica” de lo manual y analógico.

Por otra parte, las empresas tecnológicas y las corporaciones que adelantan los procesos de privatización educativa, a diferentes escalas y niveles, se han apresurado a plantear el desarrollo de los algoritmos como la panacea para aprender conforme a los requerimientos del mercado.

Estas dos posiciones, aún con discursos críticos y en otros casos funcionales al sistema, terminan alineándose con el nuevo oscurantismo escolar, la pérdida de la episteme científica de la escuela y la universidad.

En las últimas décadas se ha instalado el paradigma que hay que aprender a hacer funcionar los cacharros tecnológicos, y no importa saber que principios, leyes y desarrollos hacen posible su aparición. Si se les pregunta a estudiantes, docentes de primaria e incluso profesores universitarios que no sean del área tecnológica como funciona un control remoto, la freidora de aire o los video juegos, seguramente titubearan para dar una respuesta, porque lo que importa es ganar dinero para comprarlos y tenerlos en casa, no saber la ciencia que hay detrás de eso.

Y ahora resulta que llega la inteligencia artificial, que hace algunas tareas más rápido y preciso que nosotros y nos asustamos. Una absoluta desconfianza sobre la enorme capacidad del ser humano, interactuando y construyendo, resuena como las Santamarías de un negocio cerrando sus puertas. Por el contrario, desde la perspectiva educativa estamos en un tiempo desafiante en el terreno político, económico, social, cultural, tecnológico y pedagógico para re-pensar la escuela pública presencial, gratuita, popular, democrática, crítica y creativa, como una institución para que los y las hijas(os) de la clase trabajadora puedan acceder al conocimiento del momento histórico, con criterio propio, autonomía y capacidad para aprender a aprender.

  • ¿Qué es ChatGPT?

A partir de los robots, los software, hardware y algoritmos se construyen los chatbot, que son desarrollos de inteligencia artificial, construidos con modelo de lenguaje ajustado y técnicas de aprendizaje autónomo supervisado, que usan las técnicas del refuerzo para seleccionar caminos y opciones de respuestas.

Una parte importante de estos avances se deben al conocimiento del cerebro humano y la sinapsis cerebral, eso sí vistas como máquinas en funcionamiento (neurociencia) y no en la enorme capacidad de crecimiento permanente de la inteligencia humana. Algunos de estos chatbot contienen interfaces, que les comunican con otros, para intentar replicar el aprendizaje social.

Lamentablemente, la ética es una frontera para la cual le falta mucho camino por transitar a los análisis de metadatos, para comprenderla pues responde al espíritu humano, mediado por interacciones de conciencia y emociones, que el algoritmo aún no puede entender ni replicar. Es decir, ChatGPT es solo tecnología desprovista de la condición ética humana y así la debemos entender.

Ciertamente el ChatGPT puede hacer un artículo como éste, en solo unos minutos, pero lo que no puede es modelar las palabras conforme a las emociones que ello causará en el público al que va dirigido. ChatGPT está diseñado para la lógica del consenso y las probabilidades y la vida humana tiene una lógica difusa, contingente, cambiante, diversa, plural, que es lo que nos hace humanos.

Pero es justo decirlo, el ChatGPT puede ayudarnos a hacer la vida más dinámica y usar nuestro potencial mucho más focalizado en lo extraordinariamente creativo de nuestras capacidades y habilidades.

La razón por la que las escuelas y universidades, guardianes de la ciencia, investigación y generación de conocimiento, están temblando por la llegada del ChatGPT, es porque sabemos que algo está cambiando y que en el corto plazo tendremos que dar un giro de 180 grados en la forma de enseñar y aprender. Que eso sea mejor o peor dependerá en buena medida de la mirada que escojamos, la correlación de fuerzas sociales que construyamos y el sentido humano y de clase que le demos a este giro.

  • Los estilos de enseñanza y la cuarta revolución industrial

La escuela y universidad de la primera revolución industrial estuvo signada por los salones, pupitres estáticos, pizarrón, profesor y libros como depositarios del saber. El profesor sabía y el estudiante aprendía (o se pretendía).

El conocimiento estaba lleno de reglas (sociales, ortográficas, gramaticales), fórmulas (matemáticas, físicas, químicas) y contenidos resultantes de la evidencia científica.  La calidad del conocimiento estaba asociado a la capacidad docente para actualizarse y explicarlo. La educación disciplinar, frontal y bancaria fue su retrato.

La escuela y la universidad de la segunda revolución industrial recibió el impacto de los modelos de gestión empresarial (Taylorismo, Fayolismo, Fordismo) y desestructuró la pedagogía para convertirla en técnicas replicables en cada salón como si el sistema en su conjunto se tratara de una cadena de producción.

El currículo adquirió un papel central haciendo que el resto de los elementos gravitaran (al menos declarativamente) a su alrededor. Se suponía que los enfoques didácticos, evaluativos, de planeación y gestión se correspondieran a lo previsto en el currículo, pero en realidad se dio inicio a un Frankenstein educativo, por ejemplo, con modelos curriculares que se auto definían como constructivistas que se desarrollaban con didácticas memorísticas, evaluación punitiva, planificación central predefinida y gestión basada en resultados (aprobado-reprobado).

La curricularización de las pedagogías, amplió la identidad disciplinar, frontal y bancaria de la enseñanza y el aprendizaje (cuando lo había). Los laboratorios de ensayo y la dotación de instrumental científico (microscopio, tubos de ensayo, modelos anatómicos, etc.) como el desafío. Nos convirtieron a los y las docentes en administradores curriculares.

La tercera revolución industrial implicó una aceleración inusitada de la innovación que hizo que el capitalismo considerara que había que sacarle el mayor provecho al aprendizaje, concibiendo al cerebro como una máquina y al docente en el alimentador de insumos, controlador de las dinámicas y garantizador de la calidad de la mercancía final (perfil de egreso).

Las taxonomías, especialmente las de Bloom y compañía, se convirtieron en herramientas claves para ello, la noción difusa de calidad educativa en el sello contingente. Ante las demandas del centro capitalista de cambio paradigmático, las instituciones asumieron el cumplo- y-miento, pues se decían transdiciplinarias, pero seguían siendo disciplinares.

Se generó un espíritu conservador en lo escolar, especialmente con la llegada del computador personal, internet, redes sociales, bloques de datos y algoritmos. Lo tecnológico pasó a ser una cajita más (laboratorios de informática) en vez de colocar encima de cada pupitre un computador; a diferencia de periodos anteriores en los cuales los y las docentes pelearon por una biblioteca en cada aula para que todos los estudiantes dispusieran de un libro, esto no ocurrió con las computadoras, ni con la conexión de banda ancha en cada escuela.

La factura social a esta inconsistencia sistémica fueron los resultados escolares de la pandemia que generaron un nuevo modelo de privatización educativa (familias, estudiantes y docentes asumiendo los costos de la transformación digital), estratificación escolar (dependiendo del acceso y uso a la internet y equipos de conexión remota) y exclusión (quienes no pudieron tener ningún vínculo pedagógico durante la pandemia).

Muchos docentes tienen la ilusión que, superada la fase de cuarentena de la pandemia, todo volverá al mundo analógico de lo escolar, quedando lo digita-virtual como un complemento. Nada más alejado de la realidad, el capitalismo tecnológico está pujando para hacer de lo virtual-digital la centralidad de lo educativo.

En ese contexto de precariedad y resistencias comienza la transición a la cuarta revolución industrial con el internet de las cosas, la inteligencia artificial, los bloques de datos, análisis de metadatos, metaversos y los chatbot.

Y nuestras escuelas y universidades tienen problemas de electricidad, agua, suministros, laboratorios, muchas no cuentan con computadoras ni para los registros administrativos, ni que decir de conexión a internet que posibilite el uso escolar de la inteligencia artificial o los chatbot.

Esto forma parte de la reingeniería social para llevar a su mínima expresión o hacer desaparecer la educación pública presencial. De manera cínica el New York Times dice que lo virtual-digital es educación para pobres, mientras guarda silencio sobre la desinversión educativa, los modelos de neo privatización y la estratificación escolar que impuso –para quedarse- la pandemia. Lo cierto es que la mayoría de nuestras escuelas y universidades no están en capacidad material y paradigmática, para asumir los desafíos pedagógicos que impone la transición a la cuarta revolución industrial, de la cual el ChatGPT, es solo la punta del iceberg.

  • El problema no es de los maestros y estudiantes sino de las desigualdades sociales

Entonces, el problema no es de los y las docentes ni del estudiantado, sino del sistema educativo y el modelo capitalista que ha convertido las instituciones escolares en espacios de contención social, alejadas de su tarea central de democratizar los conocimientos y saberes, históricos y de última generación.

Son los administradores del sistema educativo burgués, quienes están destruyendo las bases materiales de la escuela pública para facilitar su salto a lo virtual-digital.  Pero para los pobres de la tierra, este salto sería un salto al vacío, un abandono de la educación de masas como indicador de justicia social.

En consecuencia, en esta etapa histórica los gremios docentes, las federaciones estudiantiles, las comunidades organizadas deben definir una clara ruta de trabajo, por lo menos en los siguientes aspectos:

  1. Luchar por 6% del PIB como mínimo para la educación, con tendencia al crecimiento porque el impulso de un modelo de justicia social y soberanía está estrechamente vinculado a la capacidad de sus sistemas educativos;
  2. Es urgente que el acceso a los servicios públicos universales (agua, electricidad, aseo urbano, mantenimiento) esté disponible de manera continua y suficiente en todos los espacios escolares y sus comunidades de entorno;
  3. Internet de banda ancha, con conexión 5G o 6G para todos y todas. La escuela debe defender que ningún ciudadano se quede al margen del acceso de la tecnología actual por sus incidencias en el empleo, la actualización profesional y la sociabilidad. Eso pasa por posibilidades de acceso de cada estudiante al internet de la escuela en todo momento;
  4. Detener los programas de dotación personal para la casa de computadores y colocar un computador de última generación encima de cada pupitre de escuelas, bachilleratos y universidades, solo así se recuperará la capacidad igualadora de la escuela y se podrá masificar la apropiación tecnológica y democratización del conocimiento científico que subyace detrás de ellas;
  5. Urge crear un programa de formación en pedagogía crítica para la cuarta revolución industrial, que permita sentar las bases para nuevos enfoques de trabajo pedagógico liberador en escuelas y universidades de la cuarta revolución industrial;
  6. Necesitamos hacer re-ingeniería inversa de la tecnología de punta para ponerla al servicio de los pueblos y no de las burguesías de los países;
  7. Esto debe acompañarse de un esfuerzo de recuperación del laicismo escolar y la mentalidad científica para el trabajo escolar
  • Por una reconfiguración de las dinámicas del aula que rompa los nuevos modelos de privatización, estratificación escolar y exclusión educativa

La escuela que conocimos está llegando a su fin, lo cual no puede ni debe ser asociado a la destrucción de la escuela pública presencial.

¿Qué está obsoleto? ¿Qué podemos hacer?

  1. El modelo de currículo prescrito. Este modelo funcionó con ciclos de innovación de 25-40 años, pero ahora estos ciclos son de 3-4 años, con tendencia a la disminución. Todos sabemos que una reforma curricular tarda entre 5 y 10 años lo cual evidencia el fracaso de esta dinámica, si queremos que la escuela y universidad recuperen su rol de centro de democratización del conocimiento. Esto plantea un modelo de currículo abierto, mediado solo por enunciados o ejes, teniendo la libertad el docente para desarrollarlo. Esto impone un proceso de acompañamiento pedagógico al docente, con mecanismos de actualización en tiempo real respecto a las innovaciones.  Esto no hace desaparecer el conocimiento histórico y los saberes ancestrales, sino que los reconfigura como procesos con impacto en el presente;
  2. Los modelos didácticos centrados en la reproducción. Eso no significa que se obvie la memorización de reglas y formulas, sino que estas adquieran sentido en la experimentalidad. Por ejemplo, aprender reglas orográficas escribiendo cuentos y novelas cortas. Los modelos activos tienen el problema que los grupos de estudiantes no deben exceder de 20, y en términos ideales ser 12;
  3. Evaluación basada en procesos y no en resultados. La ciencia es un largo camino de experimentación donde el error precede al logro y esto debe ser la norma de lo educativo;
  4. Planificación participativa a partir del cruce entre intereses del sistema educativo, con intereses de los estudiantes y las comunidades de entorno. Sin este trípode cualquier planeamiento educativo está incompleto;
  5. Gestión educativa basada en procesos, que implica enorme capacidad pedagógica y científica de quienes dirigen los centros educativos o cumplen funciones de supervisión. Venimos planteando que hay que volver al modelo de director que atiende a un grupo de estudiantes, ya que el uso de la inteligencia artificial y los análisis de metadatos pueden reducir el trabajo burocrático de reuniones y papeleos administrativos y, un director que da clases está actualizado sobre los desafíos, problemas y potencialidades del acto educativo. Se necesita un líder educativo con altas capacidades pedagógicas;
  6. Necesitamos que el pizarrón pase a ser secundario, dándole centralidad al mesón de trabajo colectivo, donde la construcción compartida de conocimiento sea la dinámica preponderante. Se requiere situar al libro y al docente como acompañantes del proceso de aprendizaje por experimentación;
  7. La escuela presencial tiene que garantizar equidad en la alimentación, haciendo que aquellos estudiantes que tienen recursos más bajos dispongan de apoyo complementario. Los comedores escolares para todos y todas, con alimentación balanceada son fundamentales en la escuela del siglo XXI;
  8. La escuela conectada y sin fronteras, es un complemento para entender el desarrollo desigual y combinado del mundo, la necesidad de romper barreras y construir la paz a partir del dialogo intercultural y el respeto a las diversidades;
  9. Es urgente la re-definición de la escuela como un espacio para disfrutar, para la alegría, el encuentro y el aprendizaje armónico.

En ese contexto el uso de herramientas como ChatGPT debe ser cotidiano, para ver ejemplos y desarrollos actuales, pero no nos debe asustar que esta herramienta haga ensayos o tareas, porque todos los ensayos y tareas se harán en la escuela de manera presencial, con sellos de identidad humana propios de las subjetividades y no de los discursos consensuados de las inteligencias artificiales.

Debemos re-aprender que la inteligencia humana tiene caminos abiertos mientras que la inteligencia artificial promedia. Aprendamos a usar la tecnología como auxiliar colocando en el centro la permanente expansión creativa de la mente humana

  • Conclusión

El problema no es ChatGPT sino la brecha epistémica que no nos permite entender que la escuela pública presencial necesita una nueva reconfiguración para ser atractiva a los y las jóvenes y niños del presente. El problema no es que unos tengan acceso y otros no, sino un Estado que ha abandonado sus tareas de equidad para que todos y todas puedan tener condiciones semejantes de partida en los espacios escolares.

Necesitamos reinventar las escuelas y universidades, peleando nuevamente en las calles y en todos los espacios, por una sociedad de justicia social, de equidad y amor.

¿Nos atrevemos a hacerlo juntos, juntas y juntes?


[1] Doctor en Ciencias Pedagógicas, Postdoctorados en Pedagogías Críticas y Propuestas de Evaluación de la Calidad Educativa. Miembro del Comité Directivo del Consejo Latinoamericano de Ciencias Sociales (CLACSO).  Socio de la Campaña Latinoamericana por el Derecho a la educación. Integrante de la Asociación latinoamericana de Sociología (ALAS) y la Fundación Kairos.  Director de investigaciones del Centro Internacional de Investigaciones Otras Voces en educación (CII-OVE). Profesor universitario

ChatGPt y el trabajo pedagógico

Comparte este contenido:

Educación: por qué hay que abrazar la tecnología, más que combatirla

El mundo de la tecnología se vio revolucionado por la aparición de ChatGPT, una herramienta de inteligencia artificial que puede analizar y responder prácticamente cualquier cuestión que uno le pregunte.

En las últimas semanas, el mundo de la tecnología se vio revolucionado por la aparición de ChatGPT, una herramienta de inteligencia artificial que puede analizar y responder prácticamente cualquier cuestión que uno le pregunte.

Un aspecto poco explorado es la implicancia de este tipo de herramientas en el ámbito de la educación. ¿Servirá para aprender o para distraerse? ¿Qué va a pasar con la figura del profesor? Para entender más sobre el tema consultamos a Gabriel Rshaid, director de The Global School, un colegio privado de la localidad bonaerense de Pablo Nogués que acaba de decidir que, en este año lectivo que está por comenzar, utilizará esta herramienta al máximo de sus posibilidades.

De acuerdo a Rshaid, hoy esta aplicación permite realizar rápidamente tareas que antes consumían mucho tiempo, como investigar, escribir ensayos, composiciones o trabajos prácticos. “Esto libera una cantidad de tiempo muy valioso que le permite a los alumnos pensar, investigar e ir mucho más allá de la enunciación fáctica, que es la habilidad que todavía se pone a prueba frecuentemente”, sostiene.

A pesar de sus obvios beneficios, no desconoce que las tecnologías disruptivas siempre generan resistencia. “Al principio solemos interpretarlas más como una amenaza que como un nuevo comienzo -dice Rshaid-. La educación es un ámbito bastante tradicional. No se trata de reemplazar la experiencia del educador en primera persona que orienta y guía a sus alumnos. Lo que proponemos es que el adulto también utilice estas herramientas compartiendo una nueva experiencia de aprendizaje”.

De lo que se trata, según su opinión, es de aprovechar la aparición del ChatGPT, porque abre una instancia de debate muy valiosa dentro de la clase, que permite hablar sobre el impacto de la tecnología en los individuos y la sociedad. Para Rshaid, la tecnología no es un fin en sí mismo, sino un medio. “La mejor manera de desarrollar una mirada crítica es preguntarse si verdaderamente se trata de inteligencia o es simplemente un algoritmo sofisticado de búsqueda y lenguaje natural”. Como tal, la herramienta no viene a reemplazar a nadie.

Por último, respecto a la resistencia a la introducción de esta y otras tecnologías en el ámbito educativo, Rshaid es partidario de la adopción de nuevas herramientas, siempre y cuando sirva para preparar a los alumnos para lo que está por venir. “El futuro traerá nuevos problemas y dilemas que todavía no conocemos. Hoy la tecnología le da la oportunidad a nuestra institución de elevar el nivel de su aprendizaje y evaluación, ¿por qué habríamos de cerrarle la puerta?”.

https://www.ambito.com/informacion-general/educacion/que-hay-que-abrazar-la-tecnologia-mas-que-combatirla-n5652536

Comparte este contenido:
Page 1 of 2
1 2