Por: Sofía García-Bullé
No son solo los nuevos usos de la IA lo que está poniendo en jaque los códigos de ética en las universidades. El problema es más complejo.
La producción generada por la Inteligencia Artificial (IA) ha avanzado a pasos agigantados este último año. Actividades que creíamos exclusivas de la capacidad humana, tales como la pintura y la redacción creativa, están siendo reproducidas por máquinas que alcanzan un nivel de calidad apto para tareas de nivel universitario. Miembros del Comité de honor de la Universidad de Virginia se reunieron a finales de enero para discutir las implicaciones del uso deshonesto de la tecnología en la trayectoria académica. El consenso general, en esta y muchas otras universidades, es que distinguir entre trabajos realizados por estudiantes y ChatGPT será más difícil de distinguir.
ChatGPT es un chatbot (o bot conversacional) de modelo de lenguaje desarrollado por OpenAI, basado en GTO-3.5. Tiene la habilidad de crear diálogos, llevar una conversación e interactuar de forma similar a lo que lo haría una persona. Puede predecir la siguiente palabra en una serie. Esta facultad, y el reforzamiento de aprendizaje, nutrido por la retroalimentación que le dan los usuarios, es la razón por la que se ha vuelto tan efectivo en generar mejores respuestas cada vez. ¿Pero qué significa esto para el futuro de los códigos de honor y la prevención de plagio en las universidades?
La mayor preocupación de los estudiantes es que de momento no existe un método 100 % seguro para determinar si un trabajo fue escrito en su totalidad por un estudiante o no. «Los programas te dan un 99.9 o 98 % de exactitud», comentó Gabrielle Bray, presidenta del comité de honor de la Universidad de Virginia y estudiante en su cuarto año de carrera. Kevin Lin, representante estudiantil y graduado de ingeniería, agregó que el dilema mayor sería la decisión de encontrar culpable a alguien de una ofensa tan grave cuando existe un margen de error de un 1 %.
Los grupos de estudiantes a cargo de mantener un estándar de honestidad académica también están apoyándose en los profesores. Los estudiantes de la Universidad de Virginia están tomando nociones de maestros como Evan Pivonka, consejero del Comité de Políticas, quien instó a las universidades a definir expectativas con respecto a la inteligencia artificial como herramienta y el sistema de asignaciones escolares. «Va a requerir una guía muy clara por parte de los profesores con respecto a lo que es un uso aceptable de estos nuevos recursos y qué no lo es», explicó además que sería un trabajo de negociación, flexibilidad y aprendizaje entre líderes de alumnado y el magisterio universitario.
No es la tecnología, es el enfoque
Un problema recurrente para las personas que aseguran una norma de integridad en la academia es que cada vez que aparece una tecnología que facilita el plagio o la deshonestidad, la educación superior entra en crisis. Si los códigos de ética universitarios tienen bases conceptuales así de frágiles, quizás habría que repensar estas bases.
Thomas Gift, profesor asociado de Ciencias Políticas y director del Centro de Políticas de la Unión Europea en la Universidad de Londres, y Julie Norman, profesora asociada de Política y Relaciones Internacionales, compartieron impresiones sobre el tema para el Times Higher Education. Los académicos argumentaron que la mayoría de las instituciones de educación superior tienen códigos de ética que se limitan a prohibir la deshonestidad, el plagiarismo y las faltas de conducta. Se enfocan en castigar el mal actuar de los estudiantes, pero no a motivar una perspectiva ética.
Existe otro principio del cual puede partir un código de honor, uno que se dirija menos a los castigos después de las fallas y que comience por despertar en los estudiantes un sentido de la dignidad, de respeto por sí mismos, por su trabajo, sus pares y sus maestros. La dificultad de un código así es mayor, pero la única manera de reducir infracciones sin importar que un nuevo recurso tecnológico llegue, es enseñar a los estudiantes a reflexionar sobre sus obligaciones profesionales y académicas, así como el beneficio y desarrollo que obtienen al cumplirlas.
El primer paso sería mentalizarnos de que la inteligencia artificial y los chatbots son una herramienta. Una que trae consigo avances, nuevos usos y oportunidades, pero también retos, y la línea para marcar un futuro educativo positivo está en su exploración sin juicio, pero con una guía ética con base en los reglamentos de las instituciones y cuerpos estudiantiles.
De la misma forma que hemos visto el valor de involucrar a los estudiantes en el proceso de su propio aprendizaje, podemos aprovechar esta misma idea para dejarlos tomar el rol principal en la formación de un sentido de la ética que se base en la confianza más que en el castigo. El resultado podría ser mucho más favorable que el de un sistema punitivo.
¿Qué piensas de la situación actual de las universidades ante el avance de la inteligencia artificial? ¿Crees que estamos en un momento de crisis? ¿Qué soluciones te parecerían pertinentes para asegurar la efectividad de los códigos de ética en la educación superior? Cuéntanos en los comentarios.
Fuente de la información e imagen: https://observatorio.tec.mx