Mientras no haya una legislación sobre el uso de la inteligencia artificial en la educación, son los docentes los que deben establecer límites y poner normas en sus clases. Así lo cree Carmen Navarro, docente de Secundaria, que reflexiona en este artículo sobre las consecuencias de no hacerlo.
Seguro que no imaginan a Steve Jobs (si aún estuviera entre nosotros) ni a Bill Gates dejando a sus hijos en manos de la inteligencia artificial: estos grandes gurús de la tecnología no permitían las pantallas en casa. En la actualidad, y con la irrupción masiva de la IA en la sociedad se ha vuelto a generar un intenso debate en las escuelas: ¿permitir o prohibir?
Hay que tener en cuenta que no es lo mismo la enseñanza obligatoria que el alumnado que se encuentra en la universidad. Por lo tanto, es una decisión que en el ámbito educativo no puede ser universal. Por otro lado, tampoco es válida la excusa de que ‘los estudiantes ya la están usando’ para justificar que desde la escuela se permita e, incluso, se recomiende el uso de herramientas de IA como ChatGPT para ‘ayudar’ durante la realización de tareas escolares.
‘No todo vale’
Nadie duda de la eficacia y el potencial de la aplicación de la IA en los procesos de enseñanza-aprendizaje para la personalización de la educación, la accesibilidad de los materiales, la atención a la diversidad… Sin embargo, ¿existen beneficios demostrados derivados del uso directo de estas herramientas por parte del alumnado de enseñanzas medias? En mi opinión, prohibir ciertas cosas en determinadas edades no tiene nada de malo. Ya está bien del ‘todo vale’ sin medir las consecuencias. Como docentes y como centros educativos es nuestra responsabilidad poner normas mientras llega la esperada legislación y regulación oficial de la IA. Creo en el potencial transformador de la juventud y es por esta razón que debemos proteger su derecho a cultivar la creatividad, el espíritu crítico y la inteligencia.
Así, los docentes que hemos optado por ‘prohibir’ o no recomendar hemos sido tildados de antiguos mientras que el consejo de nuestros compañeros ha sido que «debemos enseñar a nuestros jóvenes a discernir entre fake e información veraz». No obstante, olvidan que la tecnología ha avanzado tanto que estamos siendo sometidos continuamente a un ‘Test de Touring’, es decir, esa especie de experimento con el que determinar si la inteligencia artificial puede imitar las respuestas humanas, de dimensiones sobrecogedoras. Por ejemplo, son muchos los artículos publicados en Internet en los que al final de los mismos aparece la siguiente afirmación: “escrito por ChatGPT” (y tantos otros generados así que ni siquiera lo mencionan). Otro ejemplo es el que le ha ocurrido a Chema Alonso, experto en ciberseguridad, que ha comentado cómo se han publicado diversos artículos demostrando la cantidad de mentiras que esta IA generativa ha inventado sobre él y que yo misma habría creído. ¿Cómo vamos a enseñar a nuestros jóvenes a discernir si ni nosotros mismos sabemos cómo hacerlo?
Descubrir lo que hay debajo de la IA
Más allá de los contenidos curriculares, la escuela debe proporcionar a los jóvenes las herramientas necesarias para preocuparse y (ocuparse) de asuntos que las máquinas nunca podrán (o al menos no por ahora): la ética, la moral, el cuidado común, el conocimiento y cumplimiento de los ODS, como puede ser el mismo cuidado del medioambiente, entre otras cuestiones.
Estoy completamente a favor de introducir la IA en la escuela, pero con un enfoque totalmente distinto al de simplemente ‘preguntar y esperar las respuestas’. Mientras los estudiantes entrenan su espíritu crítico, podemos trabajar con ellos para descubrir lo que hay debajo de estas inteligencias artificiales: qué modelos matemáticos subyacen, cómo se construye y se entrena una IA, los diagramas de flujo…, de forma que ellos mismos tomen el control de esas herramientas siendo capaces de predecir su comportamiento y adaptar su uso a sus propias necesidades.
Como docentes, seamos más inteligentes que las máquinas. En el aula dejemos que los algoritmos se encarguen de ‘lo artificial’, de manera que tengamos más espacio para lo humano: desarrollando habilidades y competencias que nos permitan afrontar como comunidad global los desafíos que nos vendrán, entrenemos la mirada apreciativa que nos ayude a descubrir en nuestros estudiantes aquellos talentos que los diferencian de los demás y que a veces ni ellos mismos saben que tienen. En definitiva, sepamos como sociedad inteligente superponer los valores, la moral y la ética a cualquier evolución y revolución tecnológica.
https://www.educaciontrespuntocero.com/opinion/no-todo-vale-inteligencia-artificial/