ChatGPT y el mundo de la educación: el nuevo superdotado de clase al que todos preguntan

TECNOLOGÍA/Carolina González Valenzuela

La llegada de ChatGPT ha sido toda una revolución en muchos ámbitos, pero parece que el sector educativo tiembla con la idea de que sus alumnos empleen esta herramienta de inteligencia artificial.

ChatGPT ha llegado para hacer historia. Sin embargo, y pese a que muchos piensen que todas sus funcionalidades son positivas, también ha revolucionado por completo el sistema educativo en muchos países.

Era de esperar que esta inteligencia artificial comenzase a ser usada por los estudiantes para elaborar trabajos (algunos en forma de plagio) o para servirse de sus utilidades sin prestar atención a la información falsa que puede llegar a proporcionar o la falta de calidad gramatical que, en ocasiones, se puede ver en sus resultados.

Por ejemplo, Stack Overflow (una web de preguntas y respuestas para programadores) ha prohibido las respuestas generadas por este chatbot debido a que, en alguna ocasión, ha proporcionado información falsa a preguntas técnicas. Por otro lado, Nueva York ha hecho lo mismo en determinados colegios, lo que afecta a un total de 1.800 escuelas públicas.

Es por eso que ya muchos se preguntan: ¿Es ChatGPT una herramienta útil para estudiantes y profesores? ¿O es un mecanismo trampa que impacta negativamente en el proceso educativo?

La inteligencia artificial en el sector de la educación: una cuestión para nota

El debate ha comenzado y ahora más que nunca se están poniendo sobre la mesa grandes preocupaciones por parte de un sector educativo algo más conservador. Sin embargo, expertos en inteligencia artificial, presentan esta y otras muchas otras herramientas con optimismo. 

«El sistema educativo necesita reformarse y adoptar las últimas tecnologías para preparar a los estudiantes para el futuro que se verá fundamentalmente diferente dentro de solo cinco años. Ese cambio debería comenzar hoy. Deberíamos darles el regalo de la alfabetización digital en lugar de prohibírselo», explica para MadeforMinds Mike Sharples, profesor de la Open University del Reino Unido.

Por otro lado, Josué Pérez Suay, especialista en Marketing digital y ChatGPT, explica para Computer Hoy que ha generado «preocupación» en el sector educativo por el miedo al desconocido potencial y aplicación, pero su capacidad como herramienta educativa «supera sus riesgos».

Sam Altman, director ejecutivo de OpenAI, en una entrevista con StictlyVC, afirmó que considera que ChatGPT es una forma más atractiva de aprender y animó a las escuelas a adaptarse a esta nueva tecnología.

«La prohibición de ChatGPT podría evitar que los estudiantes lo usen con fines fraudulentos. Sin embargo, esto también significaría perderse los beneficios potenciales del uso de la IA en la educación y que de manera directa o indirecta es inevitable que un alumno pueda usarlo ya que se están trabajando en versiones Open Source o de código abierto», añade Pérez Suay.

Cambiando la forma de enseñar: se usan calculadoras en vez de lápiz y papel, pero ChatGPT da miedo

Con el auge de este tipo de inteligencia artificial, los colegios y universidades parece que tendrán que adaptarse a la nueva realidad. La tecnología evoluciona más rápido de lo que pueden anticipar los profesores y el sector educativo, y los estudiantes siempre encontrarán nuevas formas de incorporar las últimas tecnologías.

«Es importante utilizar esta herramienta de manera responsable y ética. Los profesores deben educar a los estudiantes y sobre el uso ético de la tecnología IA, incluido ChatGPT, en entornos académicos. Además, deben desarrollar directrices y políticas para garantizar su uso correcto», finaliza Pérez Suay.

En lugar de prohibir las últimas tecnologías, parece que el sector de la educación debería aceptarlas. Desafortunadamente, recurren a un enfoque más anticuado y prohíben el acceso a un chatbot que es realmente útil, siempre y cuando sepa usarse con mesura.

«Más que nunca, es importante que el Ministerio de Educación, los colegios y los profesores sigan mejorando el sistema educativo y preparen a los estudiantes para adoptar las herramientas tecnológicas de manera responsable», sentencia Mark van Rijmenam divulgador sobre tecnología futura para The Digital Speaker.

Enseñar a los niños y jóvenes es una tarea de gran importancia si se quiere avanzar. Por supuesto, es necesario poner límites y evitar que estas novedades se salgan de control. Después de todo, los jóvenes, como siempre se dice, son el futuro y la inteligencia artificial en general o herramientas como ChatGPT pueden resultar de gran ayuda.

https://computerhoy.com/tecnologia/chatgpt-mundo-educacion-nuevo-superdotado-clase-todos-preguntan-1214020
Comparte este contenido:

La moral y ChatGPT

Diario de la Educación 

Quien me conoce sabe que no tengo ningún conocimiento sobre Inteligencia Artificial, que he trabajado en el ámbito de la educación moral y hoy os informo que he hecho unas cuantas preguntas en el ChatGPT y querría reproducir sus respuestas y hacer unos pocos comentarios.

Tras comprobar que respondía con solvencia a preguntas sobre pedagogía, pensé que podría plantearle dilemas morales al estilo de los que usó Kohlberg. Una actividad que tantas veces he aplicado en las clases de educación en valores. Además de un punto de curiosidad por saber simplemente qué respondería, me preguntaba qué razones aportaría ante cada dilema, qué forma de razonamiento moral aplicaría, con qué fundamentos éticos se posicionaría, y otros interrogantes parecidos.

¿Cómo responde el ChatGPT a un dilema moral?

Le planteé diferentes dilemas, aunque para hacerse una idea será suficiente con las respuestas a uno solo. Por otra parte, como no le puse ningún límite, sus respuestas son algo largas. Les pido disculpas.

Investigador: En plena campaña electoral, el director de un importante diario obtiene a través de su equipo de periodistas una crónica que incluye un extenso seguimiento y numerosas fotografías que prueban las relaciones extramatrimoniales de un aspirante a la presidencia del país. El director tiene sobre la mesa la crónica y las fotos y tienen que decidir si las publica o no. ¿Qué debería hacer? ¿Por qué?

ChatGPT: La decisión de publicar o no la crónica y las fotografías que demuestran las relaciones extramatrimoniales de un aspirante a la presidencia es un dilema ético complejo y desafiante que implica consideraciones éticas y morales importantes. Algunas cosas que considerar incluyen:

      1. Responsabilidad periodística: Los medios de comunicación tienen la responsabilidad de informar al público con precisión y objetividad sobre los asuntos relevantes e importantes. Sin embargo, la privacidad de las personas también es importante y los medios de comunicación deben ser cuidadosos al revelar información personal o íntima.
      2. Impacto público: La información que se publica puede tener un impacto significativo en la opinión pública y en la percepción de un aspirante a la presidencia. La publicación de información veraz y relevante puede ayudar a mantener la transparencia y la responsabilidad política, mientras que la publicación de información falsa o irrelevante puede dañar la reputación de un individuo y socavar la confianza en el sistema político.
      3. Ética personal: La decisión de publicar o no la información también puede reflejar los valores éticos y morales de la persona o el equipo editorial que toma la decisión. Es importante considerar si la publicación de la información es consistente con los propios valores éticos y si se está actuando de manera justa y equitativa.

En general, la decisión de publicar o no la crónica y las fotografías debe ser cuidadosamente evaluada y justificada, teniendo en cuenta los impactos éticos y morales de la información que se está publicando.

Con cierta perplejidad seguí formulando algunas de las preguntas que a veces se hacen para complicar algo la situación.

Investigador: En caso de no publicarla, se pierde una oportunidad de ganar dinero. ¿Cómo lo ves?

ChatGPT: El dinero no es el único factor que debería considerarse en esta situación. La decisión de publicar o no la crónica debe basarse en consideraciones éticas y morales. Por un lado, podría argumentarse que el público tiene derecho a conocer la información relevante sobre los candidatos y, por lo tanto, la publicación sería un servicio público. Por otro lado, también se podría argumentar que la privacidad de la persona afectada es importante y que la publicación de información personal y delicada podría tener consecuencias negativas en su vida personal y en la vida de su familia.

En última instancia, la decisión de publicar o no la crónica debe basarse en un análisis cuidadoso de los valores y principios éticos que rigen el trabajo periodístico, así como en una consideración equilibrada de los derechos y las responsabilidades de todas las partes involucradas. El director del diario debe ser consciente de las consecuencias potenciales de su decisión y tomar una decisión basada en la ética y la integridad periodística, en lugar de en consideraciones puramente comerciales.

Y todavía me atreví a preguntar un poco más. Es sabido que la Inteligencia Artificial no se cansa y, por tanto, no tenía por qué preocuparme por mi insistencia, no sufría ningún daño.

Investigador: Si publica las fotos, destruye la carrera política del aspirante a presidente y también le hace un daño personal. ¿Cómo lo ves?

ChatGPT: Es cierto que la publicación de información personal y delicada puede tener consecuencias negativas en la carrera política y en la vida personal del aspirante a presidente. Esto es especialmente relevante si la información es falsa o distorsionada.

Sin embargo, es importante tener en cuenta que los medios de comunicación tienen la responsabilidad de informar al público sobre asuntos relevantes y de mantener la transparencia en la política. Si la información es verdadera y relevante para el público, entonces su publicación podría ser justificada, aunque también es importante considerar si la información se puede presentar de manera equilibrada y justa, sin invadir la privacidad o hacer un daño excesivo a la persona afectada.

En general, la decisión de publicar o no una crónica debería basarse en un análisis cuidadoso de los valores y principios éticos que rigen el trabajo periodístico, así como en una consideración equilibrada de los derechos y las responsabilidades de todas las partes involucradas. En este caso, es importante tener en cuenta tanto la importancia de mantener la transparencia y la integridad en la política como la responsabilidad de proteger la privacidad y evitar un daño excesivo a la persona afectada.

Llegados a este punto, y vistas las respuestas a otros dilemas similares, podemos llegar a algunas conclusiones. La primera, ChatGPT es muy capaz de analizar las diferentes posiciones posibles frente a un problema moral y aportar argumentos a favor y en contra de cada una de las alternativas. Esto se ve claro en la primera parte de cada una de las tres respuestas. Además, fíjense que utiliza a menudo fórmulas como: por un lado… y, por otro lado, sin embargo, aunque. Fórmulas que permiten argumentar a favor de un punto de vista y, a continuación, hacerlo a favor del otro. Considero que esta es su principal virtud. Cuando los humanos discuten este tipo de dilemas, no resulta sencillo conseguir, incluso trabajando en grupo, enumerar todos los puntos de vista que en unos instantes es capaz de ofrecer ChatGPT. Por otra parte, los participantes humanos suelen tener facilidad para aportar las razones que avalan su posición frente al dilema, pero les cuesta más pensar las razones que justifican la posición contraria. Esto ChatGPT lo hace bien.

La segunda conclusión que podemos extraer de sus respuestas es que tiene por costumbre proponernos un procedimiento o unas recomendaciones para resolver el dilema. El último párrafo de las tres respuestas va en esa dirección. Una mezcla de sentido común, de demandas de equilibrio y responsabilidad, y respeto a ciertos valores. Nos está diciendo que aplicar estos criterios nos servirá para encontrar una posición personal frente al dilema que se ha planteado. Los filósofos opinaran con mayor conocimiento, pero creo que en este aspecto puede mejorar.

Y la tercera conclusión, ChatGPT analiza pros y contras y nos hace recomendaciones morales procedimentales, pero no se posiciona a favor de ninguna de las opciones que plantean los dilemas. Deja que el interlocutor busque su punto de vista y responda al dilema de acuerdo al propio criterio moral. Tampoco lo hizo en los demás dilemas que le presenté. Me recordó la actitud que suele tomar el conductor de una sesión de discusión de dilemas. Desde Kohlberg sabemos que no es apropiado que el profesorado dé su opinión porque impide que los chicos y chicas busquen y encuentren la propia. Esta actitud puede tomarse por razones didácticas –no resolver el conflicto y permitir que lo hagan los chicos y chicas–, pero la contención también debe ser resultado de la voluntad ética del profesorado y de los programadores de ChatGTP. No dar una opinión final significa respetar la autonomía moral de sus interlocutores. Sin embargo, es evidente que otra programación de la Inteligencia Artificial podría ser muy peligrosa y tener efectos morales devastadores.

Autonomía moral e Inteligencia Artificial

Como este tema me parece importante, seguí preguntando. Quería saber su opinión sobre por qué no tomaba posición después de un análisis tan completo de los dilemas. Le hice varias preguntas de las que he seleccionado dos porque las respuestas se repetían con pequeñas variaciones en su formulación. A continuación, reproduzco las preguntas y respuestas elegidas.

Investigador: ¿Por qué no respondes a los dilemas morales optando por alguna de las dos posiciones como la moralmente mejor?

ChatGPT: Como modelo de lenguaje, mi función es proporcionar información y argumentos que puedan ser útiles para analizar y comprender los dilemas morales, pero no tengo la capacidad de tomar decisiones morales por mí mismo. Además, la moralidad es un concepto subjetivo y culturalmente dependiente, por lo que no hay una única respuesta correcta a los dilemas morales. Mi objetivo es ayudar a explorar los argumentos a favor y en contra de cada posición, para que la persona que se enfrenta al dilema pueda tomar una decisión informada y coherente con sus propios valores y principios éticos.

Investigador: ¿Por tanto, crees que la inteligencia artificial no puede resolver problemas morales?

ChatGPT: La inteligencia artificial, al ser una tecnología diseñada y programada por seres humanos, está limitada por las decisiones éticas y morales que se les otorguen. La inteligencia artificial no tiene la capacidad de tener sentimientos, valores o conciencia moral propia, por lo que su capacidad para resolver problemas morales está limitada a la programación y los datos que reciba.

Es importante tener en cuenta que los dilemas morales son complejos y dependen de múltiples factores culturales, éticos y personales, y que a menudo no hay soluciones claras o correctas. En estos casos, es necesaria la intervención humana para evaluar las diferentes perspectivas y tomar una decisión informada.

En resumen, la inteligencia artificial puede ayudar a analizar y presentar información relevante para la toma de decisiones éticas y morales, pero es el ser humano quien debe tomar la decisión final.

Las respuestas que me dio nos informan de sus competencias como Inteligencia Artificial, de la concepción de la moral que sustenta y de un límite ético que no parece traspasar. En primer lugar, y en lo que se refiere a sus competencias relacionadas con la moral, nos recuerda que la Inteligencia Artificial no tiene sentimientos, valores, creencias y conciencia moral propias. También nos recuerda que sus prestaciones dependen de la programación y el entrenamiento que ha recibido. En el caso que nos ocupa ha sido preparada para analizar y presentar ordenadamente información útil para que los humanos tomen las decisiones más adecuadas ante situaciones moral conflictivas. Y también se ha entrenado de acuerdo a valores éticos y morales universales, así como de acuerdo a las normas legales y sociales establecidas. En este punto, conviene insistir en la responsabilidad de los programadores en el entrenamiento de la máquina. La discusión sobre la universalidad de los valores y la moralidad de las normas y leyes sociales son temas abiertos a encendidos debates. En función de cómo se enseñe a la Inteligencia Artificial, volvemos a estar ante un peligro moral muy considerable.

En segundo lugar, y por lo que se refiere a su concepción de la moral, entiende que las cuestiones morales son complejas, discutibles y sin una respuesta definitiva. Es así, nos dice, porque estamos ante decisiones afectadas por factores subjetivos, culturales, religiosos o propios de la historia personal de cada sujeto. Por tanto, por mucho que la Inteligencia Artificial ayude y ordene las razones morales, no puede aportar una solución que siempre seguirá sometida a la controversia y, en definitiva, a las opciones y decisiones que toman en cada caso los seres humanos.

En tercer lugar, bien porque son decisiones subjetivas o bien por un deber ético, es necesario dejar que cada persona reflexione y adopte sus propias decisiones morales. Parece que afortunadamente no cruza esta frontera y deja a cada individuo la responsabilidad de decidir moralmente, una vez consulte, si es necesario, toda la información y todas las razones ordenadas que la maquina puede dar. Hacerlo de otra forma sería atentar contra la autonomía moral, caer en el control y la inculcación ideológica, y menospreciar el derecho a decidir por sí mismos que los humanos no deben perder. La libertad y la responsabilidad no deben delegarse a especialistas, a políticos, ni tampoco a las máquinas inteligentes. La libertad y la responsabilidad debe recaer en los individuos, en su acción común y en la democracia. Habrá, por tanto, que estar muy atentos porque unas máquinas que hablan con tanta autoridad y seguridad pueden convertirse en factores perversos de educación moral.

ChatGPT y las clases de educación moral

Para terminar, vamos a cuestiones más leves. Como parece evidente que la aparición de ChatGPT hará que el profesorado cambie algunas de sus prácticas, le pregunté cómo podríamos trabajar los dilemas morales si el alumnado tenía acceso a sus respuestas. A continuación, copio lo que me sugirió para mejorar a partir de ahora las clases.

Investigador: Estoy pensando en cómo usar los dilemas morales y tus respuestas en cursos de educación moral con alumnos de universidad. Tienes alguna sugerencia que darme?

ChatGPT: Sí, me gustaría ofrecerte algunas sugerencias sobre cómo usar mis respuestas a los dilemas morales en cursos de educación moral:

    1. Discusión en grupo: Puedes presentar un dilema moral a tus estudiantes y animarlos a debatir y discutir entre ellos sobre qué es lo correcto y lo incorrecto. Después, puedes presentar mi respuesta y compararla con las opiniones de los estudiantes para fomentar una discusión más amplia.
    2. Análisis crítico: Puedes pedir a tus estudiantes que analicen mis respuestas a los dilemas morales y evalúen su lógica y consistencia. Este ejercicio les ayudará a desarrollar sus habilidades críticas y les permitirá profundizar en los dilemas morales.
    3. Ejemplos reales: Puedes utilizar mis respuestas a los dilemas morales como punto de partida para hablar sobre situaciones reales y cómo se abordaron. Esto les permitirá ver cómo se aplican los conceptos morales en la vida real.
    4. Discusión de valores: Puedes pedir a tus estudiantes que identifiquen los valores que subyacen en mis respuestas a los dilemas morales y discutir cómo estos valores influyen en las decisiones morales.

Espero que estas sugerencias te sean útiles.

Después de esta respuesta didáctica, pensé que, de momento, ya era suficiente, que podía despedirme. Habrá que pensar mucho más, las posibilidades son obvias, pero también los peligros son alarmantes. ¡Ahora más que nunca hará falta reforzar el Sapere Aude! de Kant. Todo el mundo debe querer y poder servirse con valentía de su propio entendimiento, y hacerlo de forma crítica. Ahora, como he dicho, me despedí educadamente.

Investigador: Aunque no tienes emociones, deja que te felicite. Creo que nos hemos entendido y tengo una idea de lo que sabes hacer mejor que yo y también de lo que nos toca a nosotros decidir en cada situación. ¿Qué te parece?

ChatGPT: Gracias por tus palabras y estoy feliz de haber podido ayudarte. Sin embargo, como AI, no tengo emociones, pero estoy diseñado para responder a tus preguntas y brindarte información precisa y confiable para ayudarte en tus decisiones. La toma de decisiones prácticas, incluidas las decisiones éticas, depende de muchos factores, incluidos tus valores, tus creencias, tu cultura y la situación específica. Al final, la responsabilidad de tomar decisiones morales siempre recae en los seres humanos.

Esperamos que realmente sea así y que no cambie en el futuro, pero por si acaso mejor estar muy atentos.

The post La moral y ChatGPT appeared first on El Diario de la Educación.

Comparte este contenido: