Page 4 of 4
1 2 3 4

¿Por qué necesitamos repensar los códigos de ética universitarios?

Por: Sofía García-Bullé

No son solo los nuevos usos de la IA lo que está poniendo en jaque los códigos de ética en las universidades. El problema es más complejo.

 

La producción generada por la Inteligencia Artificial (IA) ha avanzado a pasos agigantados este último año. Actividades que creíamos exclusivas de la capacidad humana, tales como la pintura y la redacción creativa, están siendo reproducidas por máquinas que alcanzan un nivel de calidad apto para tareas de nivel universitario. Miembros del Comité de honor de la Universidad de Virginia se reunieron a finales de enero para discutir las implicaciones del uso deshonesto de la tecnología en la trayectoria académica. El consenso general, en esta y muchas otras universidades, es que distinguir entre trabajos realizados por estudiantes y ChatGPT será más difícil de distinguir.

ChatGPT es un chatbot (o bot conversacional) de modelo de lenguaje desarrollado por OpenAI, basado en GTO-3.5. Tiene la habilidad de crear diálogos, llevar una conversación e interactuar de forma similar a lo que lo haría una persona. Puede predecir la siguiente palabra en una serie. Esta facultad, y el reforzamiento de aprendizaje, nutrido por la retroalimentación que le dan los usuarios, es la razón por la que se ha vuelto tan efectivo en generar mejores respuestas cada vez. ¿Pero qué significa esto para el futuro de los códigos de honor y la prevención de plagio en las universidades?

La mayor preocupación de los estudiantes es que de momento no existe un método 100 % seguro para determinar si un trabajo fue escrito en su totalidad por un estudiante o no. «Los programas te dan un 99.9 o 98 % de exactitud», comentó Gabrielle Bray, presidenta del comité de honor de la Universidad de Virginia y estudiante en su cuarto año de carrera. Kevin Lin, representante estudiantil y graduado de ingeniería, agregó que el dilema mayor sería la decisión de encontrar culpable a alguien de una ofensa tan grave cuando existe un margen de error de un 1 %.

Los grupos de estudiantes a cargo de mantener un estándar de honestidad académica también están apoyándose en los profesores. Los estudiantes de la Universidad de Virginia están tomando nociones de maestros como Evan Pivonka, consejero del Comité de Políticas, quien instó a las universidades a definir expectativas con respecto a la inteligencia artificial como herramienta y el sistema de asignaciones escolares. «Va a requerir una guía muy clara por parte de los profesores con respecto a lo que es un uso aceptable de estos nuevos recursos y qué no lo es», explicó además que sería un trabajo de negociación, flexibilidad y aprendizaje entre líderes de alumnado y el magisterio universitario.

No es la tecnología, es el enfoque

Un problema recurrente para las personas que aseguran una norma de integridad en la academia es que cada vez que aparece una tecnología que facilita el plagio o la deshonestidad, la educación superior entra en crisis. Si los códigos de ética universitarios tienen bases conceptuales así de frágiles, quizás habría que repensar estas bases.

Thomas Gift, profesor asociado de Ciencias Políticas y director del Centro de Políticas de la Unión Europea en la Universidad de Londres, y Julie Norman, profesora asociada de Política y Relaciones Internacionales, compartieron impresiones sobre el tema para el Times Higher Education. Los académicos argumentaron que la mayoría de las instituciones de educación superior tienen códigos de ética que se limitan a prohibir la deshonestidad, el plagiarismo y las faltas de conducta. Se enfocan en castigar el mal actuar de los estudiantes, pero no a motivar una perspectiva ética.

Existe otro principio del cual puede partir un código de honor, uno que se dirija menos a los castigos después de las fallas y que comience por despertar en los estudiantes un sentido de la dignidad, de respeto por sí mismos, por su trabajo, sus pares y sus maestros. La dificultad de un código así es mayor, pero la única manera de reducir infracciones sin importar que un nuevo recurso tecnológico llegue, es enseñar a los estudiantes a reflexionar sobre sus obligaciones profesionales y académicas, así como el beneficio y desarrollo que obtienen al cumplirlas.

El primer paso sería mentalizarnos de que la inteligencia artificial y los chatbots son una herramienta. Una que trae consigo avances, nuevos usos y oportunidades, pero también retos, y la línea para marcar un futuro educativo positivo está en su exploración sin juicio, pero con una guía ética con base en los reglamentos de las instituciones y cuerpos estudiantiles.

De la misma forma que hemos visto el valor de involucrar a los estudiantes en el proceso de su propio aprendizaje, podemos aprovechar esta misma idea para dejarlos tomar el rol principal en la formación de un sentido de la ética que se base en la confianza más que en el castigo. El resultado podría ser mucho más favorable que el de un sistema punitivo.

¿Qué piensas de la situación actual de las universidades ante el avance de la inteligencia artificial? ¿Crees que estamos en un momento de crisis? ¿Qué soluciones te parecerían pertinentes para asegurar la efectividad de los códigos de ética en la educación superior? Cuéntanos en los comentarios.

Fuente de la información e imagen:  https://observatorio.tec.mx

Comparte este contenido:

ChatGPT o cómo la inteligencia artificial puede empujar a cambios metodológicos de enseñanza

Por: 

La IA ya es una realidad, al menos, en cierta medida. Hace unos días El País publicaba un reportaje en el que se había puesto a prueba a ChatGPT, un software de libre acceso. Había conseguido aprobar un examen de acceso a la universidad. ¿Qué implicaciones puede tener?

ChatGPT es un software de libre acceso. En la web puedes lanzar una pregunta que él la responde según unas ciertas características. Tal es el punto que puede llegar a escribir composiciones completas que hoy por hoy ya se están utilizando en el sector educativo. Una nueva vuelta de tuerca al concepto clásico del Rincón del vago.

Linda Castañeda es doctora en Tecnología Educativa y profesora titular en la Universidad de Murcia. Hablamos con ella de las implicaciones que un software de esta clase puede llegar a tener en las universidades. Explica que aunque ahora ChatGPT ha saltado a la palestra el uso de IA no es especialmente nuevo en el sector educativo y que ya hace algún tiempo que se vienen usando herramientas, tal vez no tan sofisticadas como esta.

Ya hace tiempo que se usan programas para detectar cuándo el alumnado ha hecho un trabajo a base de copiar y pegar textos de otros. De ahí se pasó a herramientas que eran capaces de parafrasear, “es difícil que sea detectado”, comenta Castañeda.

Esta doctora tiene claro que el problema no es tanto el uso de este tipo de herramientas informáticas para la elaboración de textos. “Nos hemos empeñado durante todo el desarrollo de la tecnología en cómo vamos a hacer otra tecnología que evite que nos engañen” pero, para ella, “el asunto es qué significa escribir un trabajo académico, algo muy complejo”.

En una conversación informal, una docente universitaria comentaba cómo una de sus alumnas le había entregado un trabajo plagiado de arriba abajo. Solo había cambiado el nombre de la autoría del texto. Una búsqueda rápida le había dado la respuesta a sus dudas. La alumna, suspendida, había pedido revisión con ella. Las normas de la Universidad eran claras, según explicaba. La docente debería haber avisado a los servicios jurídicos de la universidad para que tomaran cartas en el asunto. Así se lo hizo saber a la alumna que, en un alarde de ignorancia o de huida hacia adelante, aseguraba que no sabía que se trataba de un plagio.

“Parece que nuestro objetivo como profes es que no nos engañen, no que los estudiantes aprendan X, sino que no me engañen”, continúa Castañeda. Para esta profesora, la clave pasa porque el alumnado comprenda que la cosa pasa por no engañarse a sí mismo, porque aquello que vaya a hacer en la escuela, la universidad, no sea como hacerse trampas al solitario.

Rafael Porlán es catedrático de la Universidad de Sevilla. Dedica buena parte de sus esfuerzos, desde hace años, a la formación docente del profesorado de la institución en la que trabaja. Cree que cuestiones como las que plantea la IA no son más ni menos que una “crisis del modelo transmisivo tradicional”. Él apuesta por modelos activos, de proyectos de investigación.

Según su opinión, cuando el alumnado utiliza este tipo de trucos no hace mucho más que responder al propio sistema de enseñanza. “Si el modelo me ignora, copio; busco trabajos para evitarme esfuerzos”, asegura.

Desde su punto de vista es necesario que “todo lo que el alumno pueda hacer, lo haga”. De esta manera, “los docentes organizamos el trabajo para que el alumnado agote su capacidad y, después, tirar de ellos y que lleguen más lejos”. Y cita a Vygotsky y su teoría y su teoría del desarrollo próximo. “Si te pongo un reto, te muevo, la gente se crece”, asegura Porlán, quien tiene claro que “lo que producen tiene limitaciones, pero ya se han involucrado y, a partir de ahí, puedes pedirles mucho más”.

Castañeda da clases a quienes serán el futuro de la profesión docente. Es consciente de que su alumnado hoy por hoy ya está hacen uso de ChatGPT para algunas de las cosas que se les piden desde la Universidad. “Sé que están usándolo para resolver tareas sencillas. La idea es cómo hacer que sean conscientes del potencial que tiene y que eso mismo se lo harán sus estudiante”. Por eso insiste en que lo importante es “generar tareas que tengan relevancia y que con ChatGPT le puedan ser de utilidad”.

La misma profesora que hablaba del plagio de una de sus alumnas, también señalaba cómo en algún máster con un gran volumen de alumnado extranjero era más o menos sabido que los trabajos finales que se pedían los compraban a terceras personas. Entre otras cosas, porque no dominaban el castellano como para haberlos elaborado.

“Ser capaz de reproducir la información hace tiempo que no es lo más importante del aprendizaje o de la educación”, afirma Castañeda. Para esta doctora está claro que el contenido, siendo relevante no es lo sustancial de toda esta cuestión. Sobre todo “porque habrá otra herramienta que lo pueda reproducir”.

Para ella, herramientas como ChatGPT, ahora mismo, producen mucha sorpresa pero “no está ni mucho refinado, ni es infalible ni las respuestas son brillantes” y vuelve al inicio: “la pregunta es hasta qué punto estamos dando a nuestros estudiantes algo más que una respuesta ramplona, hasta qué punto hacemos propuestas a los estudiantes que les pidan ir más allá”.

“Si eso pretendemos de los humanos, que trasciendan, tendremos que hacer que la escuela a la que asistan, les enseñe a ser trascendentes y pensar más allá”, asegura Castañeda. “Tenemos que plantearnos cosas serias”, zanja.
Esta doctora también asegura que es importante ver los posibles usos de herramientas de inteligencia artificial. Habla de cómo algunos compañeros las utilizan para, por ejemplo, crear algunos contenidos introductorios: “Los 5 libros clave sobre no sé qué. Para empezar, viene bien. O preguntarle cuáles son las 5 tesis más relevantes” en algún tema concreto para luego comentarlo en la clase.

Todo esto, además de suponer un acicate para cambios metodológicos, también puede suponer la obligación de cambiar los modelos de evaluación, como explica Castañeda, “para que no acabe evaluando a ChatGPT”. “La evaluación debe ver si el alumno aprende. ¿Qué significa esto? Es algo que le pregunto a otros docentes. Qué significa en tu materia que el alumnado aprenda. Habrá que responder a esto en un mundo en el que la IA está al alcance de la mano. Ya no pasa en las películas o la ciencia ficción”.

Fuente e Imagen: https://eldiariodelaeducacion.com/2023/01/30/chatgpt-o-como-la-inteligencia-artificial-puede-empujar-a-cambios-metodologicos-de-ensenanza/

Comparte este contenido:

ChatGPT y la educación del futuro: cómo la inteligencia artificial está transformando la enseñanza

Por: Karina Fuerte

 

Todo el mundo está hablando de las repercusiones del uso de ChatGPT en el aula pero, la realidad es que esta tecnología tiene el potencial de obligarnos a replantear completamente cómo aprendemos y evaluamos el aprendizaje.

 

Los recientes avances en el procesamiento del lenguaje natural (NLP por sus siglas en inglés), el aprendizaje automático y la inteligencia artificial (IA) han llevado al desarrollo de ChatGPT, un modelo de procesamiento de lenguaje natural desarrollado por OpenAI. Esta herramienta, de la que tanto se está hablando actualmente, es una red neuronal entrenada con grandes cantidades de texto para generar respuestas coherentes y naturales a preguntas y comandos de texto. Puede ser utilizado para diversas tareas, como la creación de diálogos automatizados, la generación de contenido automático y la mejora de la comprensión del lenguaje natural.

Si bien esta tecnología tiene el potencial de revolucionar la forma en que nos comunicamos e interactuamos con las máquinas, también plantea algunas amenazas y oportunidades para el futuro de la educación, el papel de los docentes y la evaluación del aprendizaje.

Una de las oportunidades más significativas que ChatGPT brinda a la educación es el potencial de revolucionar la forma en que enseñamos y aprendemos idiomas. Con su capacidad para comprender y responder a entradas de lenguaje natural, ChatGPT se puede utilizar para crear herramientas interactivas de aprendizaje de idiomas que pueden ayudar a los estudiantes a mejorar sus habilidades lingüísticas de una manera más atractiva y personalizada. Por ejemplo, ChatGPT se puede usar para crear tutores de idiomas virtuales que pueden proporcionar a los estudiantes comentarios en tiempo real y lecciones personalizadas en función de su nivel de dominio del idioma y estilo de aprendizaje. Esto podría ser especialmente beneficioso para aquellos estudiantes a quienes se les dificultan los métodos tradicionales de aprendizaje de idiomas o para aquellas personas que por falta de ingresos no pueden acceder a tutores de idiomas.

Otra oportunidad que ChatGPT brinda a la educación es el potencial para mejorar la forma en que evaluamos el aprendizaje de los estudiantes. Con su capacidad para comprender y responder preguntas, ChatGPT se puede utilizar para crear herramientas de evaluación automatizadas más precisas y confiables. Por ejemplo, se puede usar para crear evaluaciones de redacción automatizadas que pueden proporcionar a los estudiantes comentarios en tiempo real sobre sus habilidades de escritura y ayudarlos a identificar áreas en las que necesitan mejorar.

Sin embargo, también existen varias amenazas potenciales que deben tenerse en cuenta al pensar en el futuro de la educación y la evaluación del aprendizaje con herramientas de IA como ChatGPT. Una de las mayores preocupaciones es que los estudiantes hagan trampa en sus tareas y exámenes. Con la capacidad de generar respuestas similares a las humanas, los estudiantes pueden usar ChatGPT para completar evaluaciones y tareas sin comprender realmente el material. Otra de las grandes amenazas más importantes es la posibilidad de que esta tecnología reemplace a los docentes y los vuelva obsoletos. Con su capacidad para comprender y responder a entradas de lenguaje natural, ChatGPT se puede usar para crear “maestros virtuales” que pueden brindar a los estudiantes instrucción y asistencia personalizada. Esto podría socavar en gran medida la integridad del sistema educativo y conducir a una devaluación de los títulos y certificaciones.

Otra preocupación de la comunidad educativa es el potencial de sesgo y discriminación. Dado que ChatGPT se entrena con grandes cantidades de datos, es posible que sin darse cuenta recoja y reproduzca sesgos y estereotipos sociales. Esto podría conducir a evaluaciones y comentarios injustos y discriminatorios para ciertos grupos de estudiantes. Es crucial que se tomen medidas para garantizar que ChatGPT esté capacitado en conjuntos de datos diversos e inclusivos para minimizar estos posibles sesgos.

Además, existe el riesgo de que ChatGPT pueda conducir a una pérdida de interacción humana y personalización en el proceso de aprendizaje. Con la capacidad de automatizar evaluaciones, retroalimentación y comentarios, existe el riesgo de que tanto educadores como estudiantes dependan demasiado de la tecnología y pierdan las conexiones e interacciones personales que son cruciales para un aprendizaje efectivo. Por ello, es importante que el uso de herramientas como ChatGPT se utilicen únicamente como soporte en ciertas actividades de aprendizaje, no como reemplazo de la labor docente.

En conclusión, ChatGPT tiene el potencial de mejorar en gran medida la forma en que pensamos sobre la educación y la evaluación del aprendizaje, pero es importante que consideremos las posibles amenazas y oportunidades que presenta. Tomando las medidas pertinentes para garantizar que este tipo de herramientas se usen de manera responsable e inclusiva, podemos aprovechar el poder de esta tecnología para crear experiencias de aprendizaje personalizadas y efectivas para estudiantes y docentes, al tiempo que minimizamos el potencial de plagio, prejuicios y discriminación. Es importante que abordemos la implementación de ChatGPT con cautela y mirada crítica, para minimizar cualquier impacto negativo que pueda tener en el futuro de la educación.

¿Cómo ves el uso de ChatGPT en el aula? ¿Has utilizado esta herramienta? ¿Crees que la IA cambiará la forma en que evaluamos el aprendizaje y el progreso de los estudiantes? ¿Cómo cree que estas tecnologías afectarán el papel del docente en el futuro? ¿Qué consideraciones éticas deben tenerse en cuenta al utilizar inteligencia artificial en la educación?

 

Hasta la próxima semana

Karina Fuerte
Editora en jefe, Observatorio del Instituto para el Futuro de la Educación

 

***

¿Este texto fue creado utilizando ChatGPT?

 

La próxima semana les comparto los resultados de la encuesta.

Fuente de la información e imagen: https://observatorio.tec.mx

Comparte este contenido:
Page 4 of 4
1 2 3 4