En esta nueva entrega de “La Educación que queremos”, Andrés García Barrios responde a la pregunta sobre cómo enfrentar el riesgo de que los estudiantes usen un chatbot para escribir los que deberían ser sus propios textos.
Hace unos días se publicó aquí, en este Observatorio, mi artículo La educación que queremos: leer o no leer libros. Lo escribí sin saber que el tema estaba estrechamente relacionado con un asunto del que se empieza a hablar mucho en este espacio: al menos cinco textos publicados o citados aquí tratan de él (y no dudo que pronto se les sumen todo tipo reacciones y comentarios, dada su radical importancia).
El primero es la nota editorial firmada por Karina Fuerte, en la que explica el uso creciente de chatbots para la redacción de textos que parecen escritos por humanos. Karina concluye su nota abriendo una encuesta en la que nos pregunta si creemos que ese texto fue escrito por ella o en realidad es obra de un chatbot. Una semana después, en su siguiente editorial, nos da la respuesta: la nota había sido escrita por el programa de inteligencia artificial ChatGPT, y sin embargo más de la mitad de los encuestados la atribuyeron a la pluma de Karina. Anonadada, además de confesarnos que tendrá que tratar el duro shock con su terapeuta, la fingida autora se propone y nos propone hacer una seria autocrítica y preguntarnos si en nuestros textos en general no estamos recurriendo demasiado a un tipo de escritura claramente impersonal, al grado de que no se le puede distinguir de una redacción robotizada. Para dar un ejemplo, cita un artículo del Chronicle of Higher Education en el que se señala la larga tradición de impersonalidad que es ya parte de los textos académicos.
¿En qué se caracteriza un procesador de textos robótico? Trabaja de forma completamente estadística: empieza por seleccionar todas las ideas sobre el tema presentes en su base de datos; después las compara y las jerarquiza de acuerdo a nuestra solicitud, y vuelve a redactarlas, efectuando una síntesis gramaticalmente correcta (obviamente su base de datos puede llegar a ser tan vasta como todo el contenido de internet). Su segunda característica es que el texto resultante carece por completo de personalidad, es decir de una expresión propia.
Menciono arriba mi artículo sobre Leer no leer libros porque en él hablo justamente del valor de un tipo de escritura en la que el autor aprende a utilizar las reglas no para imitar modelos prestablecidos sino, por el contrario, para que sus escritos reflejen su personalidad, su individualidad humana. El estilo personal es algo vivo que no puede ni debe ser evitado. Aprendamos a llenar los textos de todo lo que somos nosotros mismos, digo ahí.
En su primera editorial, Karina alude también al peligro de que los estudiantes generen textos escolares con estas herramientas y los hagan pasar por propios. Es ahí donde Sofía García-Bullé toma la estafeta en otro texto y hace un acercamiento a este punto, poniendo énfasis en la opinión de algunos expertos en el sentido de que la solución a tales actos fraudulentos no es el castigo sino la aplicación de un código de honor que infunda en los estudiantes valores de dignidad y respeto a sí mismos (y a su trabajo, sus pares y maestros).
Uno de los ideales de toda sociedad es lograr este equilibrio entre tradición ética y avance tecnológico. Conseguirlo no es fácil: por lo general, el velocísimo desarrollo técnico no se sienta a esperar a que la tradición lo alcance. Más bien, suele alejarse de ella, insistiendo ─un poco a la ligera─ en que no dejará de tomarla en cuenta. Por eso, la tradición debe dejar de verse a sí misma como cosa del pasado para dar un raudo salto hacia el futuro y sorprender a la tecnología cuando sea ésta la que se la encuentre adelante.
Trataré de explicarme.
Empiezo por recordar cómo en mi adolescencia (ya lejana, como estoy a punto de evidenciar) las calculadoras electrónicas empezaron a inundar el mercado. Mi padre, un verdadero fan del razonamiento matemático, nos restringía su uso. Pensaba que ejercitar ese tipo de razonamiento era fundamental para alcanzar la autonomía como seres humanos. A la par, algunos de nuestros amigos argumentaban que a las calculadoras se les debía usar libremente y no desaprovechar ese otro tipo de desarrollo que permiten los avances tecnológicos. Creían que las calculadoras eran parte de una nueva cultura que llegaba para liberarnos de cargas como la de las operaciones matemáticas básicas y permitirnos concentrarnos en nuevos retos.
Algo de razón tenían ambas posiciones. La solución quizás era lograr un equilibrio entre ellas, y sin embargo la experiencia pronto nos dijo que la sociedad iría poco a poco abandonando la admiración por el razonamiento matemático y privilegiaría la del dedo índice que pulsa teclas y pantallas (mi tío Pepe, octogenario, dice que para recordar que no es tonto por no poder usar la computadora como lo hacen sus nietos, ha colocado a un lado de ésta una vieja regla de cálculo, herramienta de papel y cartón muchísimo más complicada de usar y que él dominaba con creces en su juventud).
El equilibrio entre pasado y presente, insisto, se logrará mirando ampliamente hacia el futuro. Pero el reto ─que no se nos oculte─ es inmenso, creo que mucho más que el que representa nuestra ya de por si enorme y legítima preocupación por el plagio robótico. Para comprender el tamaño de este desafío es preciso mencionar sus rasgos positivos y pensar en los beneficios que pueden traernos estos programas de redacción de textos (que sólo son, por cierto, una pequeña muestra de los avances de la inteligencia artificial). Uno muy claro para la investigación científica y social es que hoy por hoy podemos obtener en cuestión de segundos un informe tan breve o extenso como queramos, acerca de cualquiera de los temas que la humanidad tiene ya registrados de manera electrónica (la nota editorial de Karina es un ejemplo de 600 palabras). Esa información puede llegarnos jerarquizada en subtemas según el orden que escojamos, pero tiene un beneficio adicional: la capacidad de la herramienta de agrupar ideas según la cantidad de veces que se alude a ellas en la base de datos, nos puede añadir con una precisión sin precedentes aspectos subjetivos relativos a esa información, por ejemplo cuál era la idea más generalizada sobre cierto asunto en determinada época, información fundamental para el estudio de la historia (podemos hacer la pregunta ¿qué piensa la gente hoy acerca de los bots? o cambiarla para saber que se opinaba en el siglo XV sobre la invención de la imprenta).
Ahora imaginemos que los seres humanos encontramos la forma de programar un procesador para que imite todos los estilos de escritura que ha habido y sea capaz de producir textos que parezcan de verdad ejecutados por personas. Esto quiere decir textos no tan impersonales como los que hoy conseguimos sino unos de verdad «humanizados». ¿A qué me refiero con humanizados? En mi artículo Leer o no leer libros afirmo que todo texto «humano» se escribe en estados emocionales de incertidumbre y en diferentes contextos (algunos incluso tienen que ser escritos sobre las rodillas, en el camión, de prisa para entregarlo al editor); el resultado reflejará, aunque sea sutilmente, ese estado y ese contexto en el que fue escrito. El teórico Wolfgang Iser nos explica además que un autor nunca lo dice todo; consciente o inconscientemente deja abiertos algunos «espacios de indeterminación» que el lector debe llenar (la pericia del lector para llenarlos depende en parte de su familiaridad con el tema así como de su experiencia como lector). Esta personalísima forma de escribir de cada autor es lo que crea su estilo. Así pues, el chatbot que imagino es capaz de analizar, comparar y hacer quién sabe que otras operaciones sobre los textos, hasta delimitar todas estas sutilezas y reproducir el «estilo» de cualquier autor, incluso el de los modelos más sofisticados, como Homero o Shakespeare (con esas herramientas mi fantástico chatbot puede incluso ir más allá y descubrir en cuestión de segundos la influencia de esos dos autores en los escritores del romanticismo alemán, por ejemplo).
Está claro que mi chatbot no tiene por qué desarrollar lo que llamamos «un alma» ni adquirir la capacidad de un día engañarnos intencionalmente y hacerse pasar por nuestra abuelita, enviándonos un texto firmado por ella. Ciertamente, si lo programamos para que en determinadas circunstancias se haga pasar por nuestra abuelita, llegadas esas circunstancias obedecerá nuestra orden. Un bot así seguirá simplemente respondiendo a nuestra programación, por sofisticada que esta sea, de tal forma que aún en este caso el problema ético seguirá siendo el que señalan Karina Fuerte y Sofía García-Bullé de incurrir o no incurrir en fraude. Sin embargo ─y entro ya a la médula de este artículo─ me interesa sobremanera señalar cómo la complejidad ética del asunto crece hasta volverse inconmensurable si comparamos las habilidades de nuestro bot (insisto, imaginario) con lo que uno de los neurocientíficos más influyentes del momento piensa acerca de lo que somos los seres humanos. En su libro Neurociencia, los cimientos cerebrales de nuestra libertad, Joaquín M. Fuster plantea una de las más actuales teorías sobre la conciencia. En ella afirma (uso mis propias palabras) que nuestro cerebro ─que funciona como una unidad─ es capaz de recibir una cantidad inmensa de información y asociarla de formas prácticamente infinitas, para después ─en la corteza prefrontal─ revisar esas asociaciones, discriminar entre ellas y canalizar la más viable (la más pertinente, digamos) para ejecutar una acción. Es lo que Fuster describe como «tomar una decisión». Si la cantidad de información ─y por lo tanto de asociaciones─ fuera muy reducido, la «decisión» tendría muchas limitaciones; sin embargo, como es «infinita», las posibilidades se extienden con tan magnificente amplitud que podemos decir que la corteza cerebral está dotada de libertad.
¿Cómo participamos nosotros en todo este asunto? Según Fuster, nosotros, nuestro «yo», nuestra conciencia, esa parte nuestra que tiene la experiencia de estar «viva», de ser «alguien», resulta sólo una especie de testigo sin mayor injerencia en el proceso. Somos meros observadores de lo que está pasando, como si miráramos desde atrás de un vidrio y no pudiéramos intervenir en lo que ocurre del otro lado. El término que emplea Fuster en algún momento es que somos un epifenómeno (una especie de efecto secundario) de esos procesos cerebrales. El término epifenómeno es difícil de explicar, pero podemos dar un ejemplo que nos lo aclare: se dice que nuestra sombra es un epifenómeno del hecho de que los rayos de luz alcancen nuestro cuerpo; es decir, un fenómeno secundario que no tiene incidencia sobre el fenómeno principal (el de la luz tocando nuestra piel, estimulando sus receptores, produciendo calor, etc). ¿Yo? Yo soy solo una especie de sombra de la actividad de un cerebro que interactúa con determinadas circunstancias. Como fenómeno secundario no tengo ninguna injerencia determinante en esa actividad mental ni en esta interacción (incluso mi lenguaje, mi propia manera de hablar, no es sino un recurso de la corteza prefrontal para procesar información y transmitirla a otros cerebros). En pocas palabras, como dice Fuster en alguna parte: «La corteza prefrontal es libre, nosotros no».
(Permítaseme abrir un paréntesis para remitir al lector a un texto del eminente filósofo español Juan Arana, donde revisa la edición española del libro de Fuster con todo cuidado y una severa aproximación crítica).
Según la estremecedora perspectiva filosófica de Fuster (cabe aclarar que, aunque él es un connotado investigador, las conclusiones aquí descritas no son una teoría científica), según esa filosofía, digo, Karina Fuerte no sólo no sería la autora real de su primera nota editorial sino tampoco de la segunda, pues al escribirla sólo habría tenido la impresión de serlo cuando en realidad sólo habría permanecido como observadora de la ejecución «libre» de su corteza prefrontal, verdadera autora del texto.
Como podemos ver, la dimensión más radical del problema ético no es la ya de por si difícil disyuntiva entre programar o no a un chatbot para que se haga pasar por nosotros, con la consecuente falta de respeto hacia nosotros mismos y nuestros pares; el dilema más trascendente en estos momentos es suscribir o no la propuesta de que nosotros mismos somos semejantes a un super bot cuya conciencia no es más que un epifenómeno relativamente inútil de los procesos cerebrales. En otras palabras, antes que el riesgo de la pérdida de nuestra dignidad esta la pérdida de nuestra identidad, justificada por una filosofía de la ciencia que parece rendirse a la impersonalización.
Ante ésta que para mí es una oscura fantasía, prefiero mirar al futuro y proponer y luchar por llevar hasta él la tradición ética de considerarnos seres capaces de interactuar con la realidad y modificarla (en una palabra, luchar por crear un futuro en el que los seres humanos también quepamos). Por eso, retomando el tema desde el principio, quisiera señalar con la mayor profundidad posible la oportunidad ética que se abre ante la pregunta sobre cómo enfrentar el riesgo de que los estudiantes usen el chatbot para escribir los que deberían ser sus propios textos.
Primero, es posible que ─lo mismo que aquellos amigos de mi juventud─ muchos estudiantes se nieguen a desaprovechar los avances por considerar éstos como elementos propios de la cultura y no sólo como recursos personales para el fraude. Si es así, sin duda podemos apostar a infundirles una ética que abogue por su dignidad y el respeto a sí mismos de tal manera que todos juntos descubramos un equilibrio entre los valores tradicionales y el desarrollo. En la búsqueda de este equilibrio tendremos que decidir si seguir pidiendo a nuestros alumnos ensayos académicos donde reproduzcan uno a uno lo aprendido (como enchufados a un procesador electrónico) o pedirles textos «personales» donde como autores doten a ese conocimiento de una perspectiva propia y viertan en él, de ser necesario, su intimidad. Si la escuela privilegia esto que nos identifica de fondo como seres humanos, estará apostando también, e inevitablemente, por una sociedad en la que la información y las decisiones que se desprendan de ella estarán siempre impregnadas de algo que podemos llamar personalidad o identidad humana, es decir, de esa parte de nosotros mismos en donde en última instancia se resguardan los valores éticos.
Fuente e Imagen: https://observatorio.tec.mx/edu-news/la-educacion-que-queremos-robots-que-escriben-como-humanos/