ChatGPT: Humano, muy humano

Por: Andrés García Barrios

 

En esta nueva entrega de “La educación que queremos”, Andrés García Barrios explica cómo los atributos que son comunes al ChatGPT y a nuestro Shakespeare colectivo, pueden ser dos grandes herramientas para el trabajo en el aula.

Son tantos los expertos que hoy en día nos alertan contra los riesgos de la inteligencia artificial, que en este artículo me propongo fungir como intercesor de esa tecnología, por lo menos en un tema que me interesa especialmente, y que es afín a varias ramas de la docencia: su uso en la realización de textos creativos.

Mi primer impulso al abordar el tema sería poner en evidencia a los cientos de guionistas de cine y series “hollywoodenses” (me refiero al estilo que todos conocemos como tal, sea del país que sea), que en las últimas semanas se han dado a protestar contra el uso de la IA en la ejecución de tareas que creen que sólo a ellos les competen. Arguyendo, entre otras cosas, que dicha tecnología estandariza y deshumaniza los valores creativos, parecen olvidar que ellos mismos llevan décadas incurriendo en ese pecado, es decir, el de ejecutar guiones con base en un invariable patrón de éxito estadísticamente comprobado y arruinando la originalidad de muchísimas historias (propias o ajenas) para convertirlas en piezas estándar, en aras de asegurar el mercado. El hecho de que ahora reclamen al sistema el que favorezca a máquinas que hacen esa misma labor de maquila con más eficiencia, parece ─para decirlo de una forma amable─ tema para un guión sobre una de las mil maneras en que los seres humanos vendemos nuestra alma al diablo.

Pero les dejo a ellos la labor de escribirlo (o al chatbot que ya los haya sustituido), y refrenando ahora mi ira (que no es sino la de un espectador miles de veces defraudado), intentaré volcar mi energía en un enfoque más creativo del tema. A fin de cuentas, este temerario juego de ponerme del lado de la IA en materia de creación literaria me permitirá llevar al colmo mi fantasía, lo cual, aunque riesgoso, no deja de prometer grandes placeres.

Y así, el primero que me quiero dar es el de comparar al ChatGPT con William Shakespeare. Ya tendré tiempo de moderar esta exageración, pero verá el lector que no está tan injustificada como de entrada parece. Por lo pronto, para hacerla más verosímil, imaginemos que estamos hablando de un ChatGPT hiper-desarrollado y no de la versión actual, llena aún de múltiples limitaciones (al grado de que hace unos días, entre sus instrucciones, me regaló dos errores de escritura, poniendo parapharse the sentense en vez de paraphrase the sentence).

William Shakespeare es considerado por muchos como el escritor que más profundamente ha descrito el alma humana. No hay tema que no haya sido tratado por él, y de manera insuperable (sus obras completas serían el libro ideal para llevar a una isla desierta). La mirada del Cisne de Avón es tan abarcadora y a la vez tan detallada que se ha creído que tanta genialidad no puede ser obra de un solo ser humano, por lo que muchos afirman que Shakespeare es más bien el nombre que ocultaba a un grupo de personas reunidas en creación colectiva. La idea es que sólo un equipo de gente podría juntar tantas miradas provenientes de tantas partes.

Esta hipótesis del colectivo parece, sin embargo, refutada por la unidad indiscutible que caracteriza a la mirada de Shakespeare. Todas sus obras parecen escritas por un único autor; detrás de cada una de sus palabras flota un solo espíritu, una sola voz. Paradójicamente, esta voz única se caracteriza por algo que reafirma la hipótesis de la creación colectiva: en Shakespeare, como casi en ningún otro escritor, esa unidad no es una forma muy personal de tratar sus temas, sino más bien todo lo contrario: la voz de Shakespeare es una voz que desaparece para que hablen sus personajes; es algo así como la voz humana universal encarnando en Hamlet, Ofelia, Macbeth, Otelo, Desdémona y los cientos de caracteres principales y secundarios que hay en sus obras. A diferencia de los guionistas hollywoodenses que intervienen en la historia para reorientarla según intereses personales, Shakespeare nunca da noticia de sí mismo en sus obras: no emite opinión alguna y mucho menos mete la mano para agradar a nadie; deja que la acción corra siempre por cuenta propia. A este desapego hay quien le ha lllamado “indiferencia shakespeariana”, no en el sentido de que no da importancia a lo humano sino de que el autor se mantiene como alejado de toda posición personal frente a éste.

Y ahora, el golpe de la realidad: ¿no se parece todo esto que he dicho a nuestro ChatGPT hiperdesarrollado? ¿No reúnen sus productos “literarios” lo escrito por un colectivo de personas (en este caso, de los miles de millones que han publicado algo en la web)? Y este material, ¿no es seleccionado y reorganizado sin involucrar un criterio personal (puesto que nuestro ChatGPT no tiene ningún criterio)?

¿Inteligencia? ¿Artificial?

En otros artículos en este mismo espacio, he sugerido que tengamos cuidado para no humanizar a los robots con nuestro lenguaje: que no digamos que “nos sonríen” o que “son muy atentos”, por ejemplo. De hecho, creo que no deberíamos ni siquiera hablar de “inteligencia” cuando nos referimos a ellos, porque ésta es atributo de seres conscientes, y ningún robot lo es. El racionalismo de la edad moderna enalteció a tal grado la inteligencia que hemos acabado por separarla del resto de los atributos humanos, desecándola hasta el punto en que hoy a nadie le parece raro oír hablar de inteligencia artificial, cuando la frase podría sonar tan absurda como decir emotividad artificial o entusiasmo artificial,  que por suerte siguen sonando aberrantes.

Pues bien, a lo anterior quisiera ahora añadir el error opuesto, que también es delicado. Lo cometemos al usar la palabra “artificial” para referirnos a creaciones que, aunque ejecutadas por una máquina, siguen siendo humanas. Debemos tener claro que los textos de ChatGPT no son artificiales: todo en ellos proviene de la estructura del lenguaje humano y de todas las inteligentes sensibilidades cuyos escritos se han subido a la red. Como mencioné, la máquina sólo realiza una clasificación y reagrupación de patrones, y un filtrado estadístico de datos, convirtiéndose en algo así como un artesano, en el sentido de que sus obras reúnen siglos de una tradición a la que ChatGPT no añade nada y sólo modifica a veces por accidente. Su misión (y su limitación) es conservar y transmitir a sus usuarios todos aquellos elementos de la expresión colectiva que ya se encuentran consolidados en patrones repetibles. Visto esto así, podemos decir que una historia de la inteligencia artificial deberá mencionar, entre sus precursores, a  esas plantillas que desde hace milenios colocamos sobre los muros para pintar la misma figura las veces que queramos (la técnica se llama estarcido).

Si ChatGPT es capaz de contar historias actualizando patrones de literatura milenaria, no veo imposible que sus resultados superen a los de los guionistas estandarizados, que tantas dolorosas decepciones nos han causado a tantos. A quienes sólo pedimos un poquito de diversión inteligente, emotiva y sobre todo coherente para las tardes de domingo, no nos importará ─se los aseguro, y que Dios me perdone─ que el guion sea escrito por un humano o una máquina.

¿Qué le falta a ChatGPT para convertirse en Chat-Kespeare?

Para este intercesor de la tecnología, es triste tener que admitir que ChatGPT nunca será como Shakespeare. Es más, nunca será siquiera como esos nada geniales guionistas y dramaturgos que de vez en cuando atinan con un personaje o una situación que a nadie se le había ocurrido antes (debo admitir que incluso a algunos guionistas de estilo hollywoodense les pasa a veces).

Shakespeare, fuere quien fuere, así como esos guionistas que a veces atinan, tienen tres cualidades de las que nuestro hiperdesarrollado ChatGPT nunca estará dotado. Primera: como personas, son capaces de crear; es decir, son capaces de despegarse de suelo conocido y, en una especie de brinco, generar algo nuevo, algo que no existía antes. Estoy convencido de que esto es algo que la máquina nunca hará. Se dice que el ser humano todo lo crea con base en algo ya existente; tal vez es así, pero eso no significa que lo creado sea reducible a una matemática de lo previo. El salto en el vacío es posible. Y la súbita aparición de objetos literarios que no tienen ningún origen es lo que nos consterna. “Vemos la belleza siempre por primera vez”, escribí un día. Y creo que es cierto.

Se dice que ChatGPT es capaz de hacer innovaciones. Tal vez sea así, pero es entonces cuando entra en juego la segunda cualidad de las personas que las máquinas nunca adquirirán: la de advertir que han “creado” algo nuevo y, sobre todo, valorarlo. En el caso de que ChatGPT produzca algo innovador, no podrá darse cuenta de que lo ha hecho, ni podrá distinguir la tal “innovación” de cualquier otro garabato sin sentido que haya producido antes. Sólo las personas son capaces de darse cuenta de que han creado algo valioso o de que otra persona ha creado algo valioso. De hecho, sólo ellas son capaces de (e indispensables para) darse cuenta de que ChatGPT ha producido algo nuevo y darle algún valor.

Tercera cualidad exclusivamente humana: una vez que han reconocido el valor de lo creado, tanto Shakespeare como nuestros guionistas son capaces de hacerle ajustes y advertir si éstos lo mejoran (lo cual es sólo otro matiz de la creación, que a la máquina también le está vedado).

De un brinco, al aula

Quiero, para terminar, dar un brinco y llevar todo lo dicho a un espacio donde no estaba antes: el del aula. Pido una disculpa si este brinco, más que creativo, resulta un tanto arbitrario, pero en mi posición de intercesor de la tecnología no quiero dejar de señalar cómo los atributos que son comunes al ChatGPT y a nuestro Shakespeare colectivo, pueden ser dos grandes herramientas para el trabajo en el salón de clases. Estamos hablando, insisto, de la creación en equipo y de cómo ésta se puede ver favorecida por una actitud de desapego hacia las propias opiniones de parte de los miembros del grupo. Toda creación colectiva se enriquece cuando no prevalece un único punto de vista en su desarrollo.

Termino con un ejercicio que podemos desarrollar con nuestros estudiantes. Empecemos por dividir el grupo en dos equipos y pidamos a cada uno de éstos que desarrolle un texto de creación colectiva, por ejemplo, un nuevo tema en Wikipedia, un diálogo filosófico sobre cierto asunto controversial o una obra de teatro donde los personajes enfrenten un dilema ético del cual dependa la vida de alguien. El juego consiste no sólo en desarrollar esta primera fase sino en que cada equipo entregue su producto final al otro equipo, para que éste lo “corrija” en dinámica colectiva, y después de lean los resultados.  Sobre esta base, las variantes pueden ser muchas: para no dejar fuera de la fórmula a ChatGPT, podemos encargarle que sea él el que escriba los primeros borradores, para que luego los equipos procedan a corregirlos. También es posible que los equipos escriban primero y dejen la corrección al chatbot.  Una opción más, que nos permitiría contrastar la creación individual con la colectiva, sería formar dos equipos, uno con una sola persona y otro con todo el resto del grupo. ¿Cuál de ambos trabajaría más orgánicamente? Al llegar a la corrección, ¿cuál de ellos enriquecerá más el texto inicial? (si Shakespeare fuera un colectivo, ¿la corrección final la habría hecho una sola persona o todo el grupo?). Podemos también crear un equipo de mujeres y contrastar su trabajo con el de uno de hombres… y así, hacer todo tipo de combinaciones, en las que ChatGPT puede cumplir una función de apoyo, permitiéndonos indagar de paso  en su funcionamiento.

No está de más insistir en que uno de los principios esenciales de todo esto (principio que es también su fin) es conseguir olvidarnos de nosotros mismos, de nuestros puntos de vista particulares, para entregarnos a la vitalidad del colectivo. La fórmula, me parece, es la siguiente: ser como indiferentes hacia lo que podemos ganar como individuos y apostar por lo que podemos obtener todos juntos.  Por añadidura,  empezaremos a poner a la mal llamada inteligencia artificial en el sitio que, como a toda tecnología, le corresponde: el de ser un auxiliar cada vez más sofisticado de la creación humana.

Fuente de la información e imagen:  https://observatorio.tec.mx

Comparte este contenido:

Noam Chomsky habla sobre ChatGPT. Para qué sirve y por qué no es capaz de replicar el pensamiento humano [Entrevista]

Por: La peste

La inteligencia artificial (IA) está arrasando en el mundo. Está transformando todos los ámbitos de la vida y planteando importantes problemas éticos para la sociedad y el futuro de la humanidad. ChatGPT, que está dominando las redes sociales, es un chatbot basado en IA desarrollado por OpenAI. Es un subconjunto del aprendizaje automático y se basa en lo que se denomina Large Language Models (grandes modelos lingüísticos), capaces de generar respuestas similares a las humanas. El potencial de aplicación de esta tecnología es enorme, por lo que ya se está pidiendo que se regule la IA como ChatGPT.

¿Puede la IA ser más inteligente que los humanos? ¿Constituye una amenaza pública? De hecho, ¿puede convertirse en una amenaza existencial? Noam Chomsky, el lingüista más eminente del mundo y uno de los intelectuales públicos más estimados de todos los tiempos, cuya estatura intelectual se ha comparado con la de Galileo, Newton y Descartes, aborda estas inquietantes cuestiones en la entrevista que sigue.

C. J. Polychroniou: Como disciplina científica, la inteligencia artificial (IA) se remonta a los años 50, pero en las dos últimas décadas se ha ido abriendo paso en todo tipo de campos, como la banca, los seguros, la fabricación de automóviles, la música y la defensa. De hecho, el uso de técnicas de IA ha demostrado en algunos casos superar las capacidades humanas, como en una partida de ajedrez. ¿Es probable que las máquinas lleguen a ser más inteligentes que los humanos?

Noam Chomsky: Para aclarar la terminología, el término «máquina» significa aquí programa, básicamente una teoría escrita en una notación que puede ser ejecutada por un ordenador, y un tipo de teoría inusual en aspectos interesantes que podemos dejar de lado aquí.

Podemos hacer una distinción aproximada entre ingeniería pura y ciencia. No hay un límite claro, pero es una primera aproximación útil. La ingeniería pura busca producir un producto que pueda ser de alguna utilidad. La ciencia busca la comprensión. Si el tema es la inteligencia humana o las capacidades cognitivas de otros organismos, la ciencia busca comprender estos sistemas biológicos.

Tal y como yo los entiendo, los fundadores de la IA -Alan Turing, Herbert Simon, Marvin Minsky y otros- la consideraban ciencia, parte de las entonces incipientes ciencias cognitivas, que utilizaban las nuevas tecnologías y los descubrimientos en la teoría matemática de la computación para avanzar en la comprensión. Con el paso de los años, estas preocupaciones se han desvanecido y se han visto desplazadas en gran medida por una orientación ingenieril. En la actualidad, las primeras preocupaciones se suelen tachar, a veces con condescendencia, de ‘IA a la antigua usanza’ [en inglés ‘good old-fashioned AI’ o su acrónimo ‘GOFAI’].

Siguiendo con la pregunta, ¿es probable que se conciban programas que superen las capacidades humanas? Hay que tener cuidado con la palabra «capacidades», por razones a las que volveré. Pero si consideramos que el término se refiere a la ejecución(1) humana, entonces la respuesta es: definitivamente sí. De hecho, existen desde hace mucho tiempo: la calculadora de un ordenador, por ejemplo. Puede superar con creces lo que hacen los humanos, aunque sólo sea por falta de tiempo y memoria. En el caso de sistemas cerrados como el ajedrez, en los años 50 se comprendió perfectamente que tarde o temprano, con el avance de gigantescas capacidades computacionales y un largo periodo de preparación, se podría idear un programa capaz de derrotar a un gran maestro que juega con un límite de memoria y tiempo. El alcance de ese logro, años más tarde, fue más que nada un reclamo publicitario para IBM. Muchos organismos biológicos superan las capacidades cognitivas humanas en aspectos mucho más profundos. Las hormigas del desierto de mi patio trasero tienen cerebros minúsculos, pero superan con creces las capacidades humanas de navegación, en los principios que subyacen, no sólo en ejecución. No existe tal cosa como una Gran Cadena del Ser en cuya cúspide esté el ser humano.

Los productos de la ingeniería de IA se utilizan en muchos campos, para bien o para mal. Incluso los más sencillos y conocidos pueden ser bastante útiles: en el área lingüística, programas como el autocompletado, la transcripción en directo, el traductor de google, entre otros. Con una potencia de cálculo mucho mayor y una programación más sofisticada, también deberían surgir otras aplicaciones útiles en las ciencias. Ya ha habido algunas: cómo ha asistido en el estudio del plegamiento de proteínas es un caso reciente en el que la tecnología de búsqueda masiva y rápida ha ayudado a los científicos a abordar un problema crítico y difícil.

Los proyectos de ingeniería pueden ser útiles, o perjudiciales. Ambas cuestiones se plantean en el caso de la ingeniería de la IA. El trabajo actual con grandes modelos lingüísticos (LLM por sus siglas en inglés), incluidos los chatbots, proporciona herramientas para desinformar, difamar y engañar a los no informados. Las amenazas aumentan cuando se combinan con imágenes artificiales y réplicas de voz. Con diferentes preocupaciones en mente, decenas de miles de investigadores de IA han pedido recientemente una moratoria en el desarrollo debido a los peligros potenciales que perciben.

Como siempre, hay que sopesar los posibles beneficios de la tecnología frente a los costes potenciales.

Se plantean cuestiones muy distintas cuando nos referimos a la IA y la ciencia. Aquí se impone la cautela debido a las afirmaciones exorbitantes e imprudentes, a menudo amplificadas en los medios de comunicación. Para aclarar las cuestiones, consideremos casos, algunos hipotéticos, otros reales.

He mencionado la navegación de los insectos, que es un logro asombroso. Los científicos especializados en insectos han avanzado mucho en el estudio acerca de cómo este logro se ha alcanzado, si bien la neurofisiología -una materia muy complicada- sigue sin aclararse del todo, al igual que sucede con la evolución de los sistemas. Lo mismo ocurre con las asombrosas proezas de aves y tortugas marinas que recorren miles de kilómetros y regresan infaliblemente al lugar de origen.

Supongamos que Tom Jones, un partidario de la ingeniería de la IA, viene y dice: «Todo tu trabajo ha sido refutado. El problema está resuelto. Los pilotos de líneas aéreas comerciales consiguen siempre los mismos resultados, o incluso mejores».

Si acaso tomáramos la molestia de responder, nos reiríamos.

Tomemos el caso de las hazañas náuticas de los polinesios, que todavía perviven entre las tribus indígenas, que por medio de las estrellas, el viento y las corrientes pueden desembarcar sus canoas en un punto designado a cientos de millas de distancia. También este caso ha sido objeto de muchas investigaciones para averiguar cómo lo hacen. Tom Jones tiene la respuesta: «Deja de perder el tiempo; los buques de guerra lo hacen todo el tiempo».

La misma respuesta.

Pasemos ahora a un caso real: la adquisición del lenguaje. En los últimos años se han llevado a cabo investigaciones exhaustivas y muy esclarecedoras que han demostrado que los bebés tienen un conocimiento muy rico de la lengua (o lenguas) de su entorno, muy superior al que exhiben cuando actúan con ella[s]. Se consigue con pocas pruebas y, en algunos casos cruciales, sin ninguna. En el mejor de los casos, como han demostrado cuidadosos estudios estadísticos, los datos de los que disponen son escasos, sobre todo si se tiene en cuenta la rango-frecuencia («ley de Zipf«).

Entra Tom Jones: «Has sido refutado. Sin prestar atención a tus hallazgos, los LLM que escanean cantidades astronómicas de datos pueden encontrar regularidades estadísticas que permiten simular los datos en los que han sido entrenados, produciendo algo que se parece bastante al comportamiento humano normal. Chatbots».

Este caso difiere de los demás. En primer lugar, es real. Segundo, la gente no se ríe; de hecho, muchos se asombran. Tercero, a diferencia de los casos hipotéticos, los resultados reales distan mucho de lo que se afirma.

Estas consideraciones sacan a relucir un problema menor con respecto al entusiasmo actual por los LLM: su total absurdidad, como en los casos hipotéticos en los que lo hemos reconocido de inmediato. Pero hay problemas mucho más graves que la absurdidad.

Una es que los sistemas LLM están diseñados de tal manera que no pueden decirnos nada sobre el lenguaje, el aprendizaje u otros aspectos de la cognición, una cuestión de principio, irremediable. Duplique los terabytes de datos escaneados, añada otro billón de parámetros, utilice todavía más energía de California, y la simulación del comportamiento mejorará, al tiempo que revelará más claramente el fracaso de principio en el planteamiento sobre cómo producir cualquier forma de comprensión. La razón es elemental: los sistemas funcionan igual de bien con lenguas imposibles, tales que los bebés no pueden adquirir, como con aquellas que estos adquieren rápidamente y casi por reflejo.

Es como si un biólogo dijera: «Tengo una nueva gran teoría de los organismos. Esta teoría enumera muchos que existen y muchos que es imposible que existan, y no puedo decirles nada sobre la distinción».

De nuevo, nos reiríamos. O deberíamos.

No ríe Tom Jones, quien ahora se referirá a casos reales. Persistiendo en su radical alejamiento de la ciencia, Tom Jones responde: «¿Cómo puedes saber nada de esto hasta que no hayas investigado todas las lenguas?». En este punto, el abandono de la ciencia normal resulta aún más claro. Por un argumento análogo podemos desechar la genética y la biología molecular, la teoría de la evolución y el resto de las ciencias biológicas, que no han estudiado más que las muestras de una ínfima fracción de organismos. Y por si fuera poco, podemos desechar toda la física. ¿Por qué creer en las leyes del movimiento? ¿Cuántos objetos se han observado realmente en movimiento?

Existe, además, la pequeña cuestión de la carga de la prueba. Quienes proponen una teoría tienen la responsabilidad de demostrar que tiene algún sentido, en este caso, demostrando que falla para las lenguas imposibles. No es responsabilidad de otros refutar la propuesta, aunque para el caso parece bastante fácil hacerlo.

Pasemos a la ciencia normal, donde las cosas se ponen interesantes. Incluso un solo ejemplo de adquisición del lenguaje puede aportar una rica visión de la distinción entre lenguas posibles e imposibles.

Las razones son claras y conocidas. Todo crecimiento y desarrollo, incluido lo que se denomina «aprendizaje», es un proceso que parte de un estado del organismo y lo transforma paso a paso hacia etapas posteriores.

La adquisición del lenguaje es un proceso de este tipo. El estado inicial es la dotación biológica de la facultad del lenguaje, que obviamente existe, incluso aunque pueda ser, como algunos creen, una combinación particular de otras capacidades. Eso es muy improbable por razones que se comprenden desde hace tiempo, pero no es relevante para lo que nos ocupa aquí, así que podemos dejarlo de lado. Es evidente que existe una dotación biológica para la facultad humana del lenguaje. Una mera obviedad.

La transición avanza hacia un estado relativamente estable, que no cambiará más que superficialmente: el conocimiento lingüístico. Los datos externos desencadenan y configuran parcialmente el proceso. Estudiando el estado alcanzado (conocimiento lingüístico) y los datos externos, podemos sacar conclusiones de gran alcance sobre el estado inicial, la dotación biológica que hace posible la adquisición del lenguaje. Las conclusiones sobre el estado inicial imponen una distinción entre lenguas posibles e imposibles. La distinción es válida para todos los que comparten el estado inicial: todos los humanos, hasta donde sabemos; no parece haber diferencias en la capacidad de adquirir el lenguaje entre los grupos humanos existentes.

Todo esto es ciencia normal, y ha conseguido muchos resultados.

La experimentación ha demostrado que el estado estable se obtiene sustancialmente muy pronto, hacia los tres o cuatro años de edad. También está bien establecido que la facultad del lenguaje tiene propiedades básicas específicas de los humanos, de ahí que sea una verdadera propiedad de especie: común a los grupos humanos y, en aspectos fundamentales, un atributo humano único.

En este relato esquemático se dejan muchas cosas fuera, sobre todo el papel de leyes de la naturaleza en el crecimiento y el desarrollo: en el caso de un sistema computacional como el lenguaje, los principios de eficiencia computacional. Pero ésta es la esencia de la cuestión. De nuevo, ciencia normal.

Es importante tener clara la distinción de Aristóteles entre posesión de conocimiento y uso del conocimiento (en terminología contemporánea, competencia y actuación). En el caso del lenguaje, el estado estable obtenido es la posesión de conocimientos, codificados en el cerebro. El sistema interno determina una serie ilimitada de expresiones estructuradas, cada una de las cuales podemos considerar que formula un pensamiento, cada una externalizable en algún sistema sensomotor, normalmente el sonido, aunque podría ser el signo o incluso (con dificultad) el tacto.

En el uso del conocimiento («actuación») se accede al sistema codificado internamente. La actuación incluye el uso interno del lenguaje en el pensamiento: reflexión, planificación, recuerdo y mucho más. Desde el punto de vista estadístico, éste es, con mucho, el uso abrumador del lenguaje. Es inaccesible a la introspección, aunque podemos aprender mucho sobre él con los métodos normales de la ciencia, desde «fuera», metafóricamente hablando. Lo que se denomina «habla interior» son, de hecho, fragmentos de lenguaje exteriorizado con el aparato articulatorio silenciado. Es sólo un reflejo remoto del uso interno del lenguaje; cuestiones importantes que no puedo tratar aquí.

Otras formas de uso del lenguaje son la percepción (análisis sintáctico) y la producción, esta última entraña propiedades que siguen siendo tan misteriosas como cuando Galileo y sus contemporáneos las contemplaban con asombro en los albores de la ciencia moderna.

El principal objetivo de la ciencia es descubrir el sistema interno, tanto en su estado inicial de la facultad humana del lenguaje como en las formas particulares que adopta en la adquisición. En la medida en que se comprenda este sistema interno, podremos proceder a investigar cómo entra en funcionamiento, interactuando con muchos otros factores que intervienen en el uso del lenguaje.

La obtención de datos acerca de la actuación ofrece evidencias sobre la naturaleza del sistema interno, en especial cuando se refina experimentalmente, algo habitual en los trabajos de campo. Pero incluso la recopilación más masiva de datos es necesariamente engañosa en aspectos cruciales. Se ciñe a lo que se produce normalmente, no al conocimiento del lenguaje codificado en el cerebro, el objeto primario que investigan quienes quieren comprender la naturaleza del lenguaje y su uso. Ese objeto interno determina una clase infinita de posibilidades que no se utilizarán en el comportamiento normal debido a factores irrelevantes para el lenguaje, como las limitaciones de la memoria a corto plazo; temas estudiados hace 60 años. Los datos observados también incluirán buena parte de lo que queda fuera del sistema codificado en el cerebro, a menudo el uso consciente del lenguaje de formas que violan las reglas con fines retóricos. Son obviedades conocidas por todos los investigadores de campo, que recurren a técnicas de recolección directa de datos con sujetos informantes, básicamente experimentos, para obtener un corpus refinado que excluya las restricciones irrelevantes y las expresiones desviadas. Lo mismo ocurre cuando los lingüistas se utilizan a sí mismos como fuentes de información, un procedimiento perfectamente razonable y normal, habitual en la historia de la psicología hasta la actualidad.

Si seguimos avanzando con la ciencia normal, descubrimos que los procesos y elementos internos de la lengua no pueden detectarse mediante la inspección de los fenómenos observados. A menudo, estos elementos ni siquiera aparecen en el habla (o la escritura), aunque sus efectos, a menudo sutiles, pueden detectarse. Esa es otra razón por la que restringirse a los fenómenos observados, como en los enfoques LLM, limita marcadamente la comprensión de los procesos internos que son objeto central de la investigación sobre la naturaleza del lenguaje, su adquisición y su uso. Pero eso no es relevante si se ha abandonado la preocupación por la ciencia y la comprensión en favor de otros objetivos.

Más en general, en las ciencias, durante milenios se ha llegado a conclusiones mediante experimentos -a menudo experimentos mentales-, siendo cada uno de ellos una abstracción radical de los fenómenos. Los experimentos se basan en la teoría y tratan de descartar los innumerables factores irrelevantes que intervienen en los fenómenos observados, como en la actuación lingüística. Todo esto es tan elemental que rara vez se discute. Y familiar. Como se ha señalado, la distinción básica se remonta a la distinción de Aristóteles entre posesión del conocimiento y uso del conocimiento. El primero es el objeto central de estudio. Los estudios secundarios (y bastante serios) investigan cómo sirve a la actuación el sistema de conocimiento almacenado internamente, junto con los muchos factores no lingüísticos que entran en lo que se observa directamente.

También podemos recordar una observación del biólogo evolutivo Theodosius Dobzhansky, famoso sobre todo por su trabajo con la Drosophila: cada especie es única, y los humanos son los más únicos de todos. Si nos interesa comprender qué clase de criaturas somos -siguiendo el mandato del Oráculo de Delfos de hace 2.500 años-, nos ocuparemos sobre todo de lo que hace que los humanos seamos los más únicos de todos, principalmente el lenguaje y el pensamiento, estrechamente entrelazados, como reconoce una rica tradición que se remonta a la Grecia clásica y la India. La mayor parte del comportamiento es bastante rutinario y, por tanto, hasta cierto punto predecible. Lo que realmente nos hace únicos es lo que no es rutinario, y lo encontramos, a veces mediante experimentos, a veces mediante la observación, desde los niños en condiciones normales hasta los grandes artistas y científicos.

Un último comentario al respecto. La sociedad lleva un siglo plagada de campañas masivas por parte de empresas para fomentar el desprecio por la ciencia, temas bien estudiados por Naomi Oreskes entre otros. Comenzó con compañías cuyos productos eran letales: el plomo, el tabaco, el amianto y, más tarde, los combustibles fósiles. Sus motivos son entendibles. El objetivo de una empresa en una sociedad capitalista es el beneficio, no el bienestar humano. Es un hecho institucional: si no sigues el juego, te echan y te sustituye otro que sí lo haga.

Los departamentos de marketing de las empresas reconocieron muy pronto que sería un error negar las crecientes pruebas científicas de los efectos letales de sus productos. Eso sería fácilmente refutable. Mejor sembrar la duda, fomentar la incertidumbre, el desprecio por esos superexpertos de traje y corbata que nunca han pintado una casa, pero vienen de Washington a decirme que no use pintura con plomo, destruyendo mi negocio (un caso real, fácilmente multiplicable). Eso ha funcionado demasiado bien. Ahora mismo nos está llevando por el camino de la destrucción de la vida humana organizada en la Tierra.

En ambientes intelectuales, la crítica posmoderna de la ciencia, desmontada por Jean Bricmont y Alan Sokal, pero aún muy viva en algunos círculos, ha producido efectos similares.

Puede que sea una sugerencia poco amable, pero creo que es justo preguntarse si los Tom Jones y aquellos que repiten acríticamente e incluso amplifican sus descuidadas proclamas están contribuyendo a las mismas tendencias nefastas.

CJP: ChatGPT es un chatbot basado en el lenguaje natural que utiliza la inteligencia artificial para permitir conversaciones similares a las humanas. En un reciente artículo publicado en The New York Times, junto con otros dos autores, usted tachaba de bombo publicitario a los nuevos chatbots porque, sencillamente, no pueden igualar la competencia lingüística de los humanos. ¿No es posible, sin embargo, que las futuras innovaciones en IA produzcan proyectos de ingeniería que igualen y quizá incluso superen las capacidades humanas?

NC: El crédito por el artículo debería atribuirse al autor real, Jeffrey Watumull, un excelente matemático-lingüista-filósofo. Los dos coautores que figuran en la lista son asesores que están de acuerdo con el artículo, pero no lo han escrito.

Es cierto que los chatbots no pueden en principio igualar la competencia lingüística de los humanos, por las razones que hemos repetido antes. Su diseño básico les impide alcanzar la condición mínima de adecuación para una teoría del lenguaje humano: distinguir los lenguajes posibles de los imposibles. Dado que se trata de una propiedad del diseño, no puede ser superada por futuras innovaciones en este tipo de IA. Sin embargo, es muy posible que futuros proyectos de ingeniería igualen e incluso superen las capacidades humanas, si nos referimos a la capacidad humana de actuación [performance] en el uso del lenguaje. Como se ha señalado más arriba, algunos ya lo han hecho desde hace tiempo: las calculadoras automáticas, por ejemplo. Y lo que es más interesante, como ya se ha mencionado, insectos con cerebros minúsculos superan las capacidades humanas entendidas como competencia.

CJP: En el citado artículo también se observaba que los proyectos de IA actuales no poseen una facultad moral humana. ¿Este hecho tan obvio hace que los robots de IA sean una amenaza menor para la raza humana? Creo que se puede argumentar que los hace incluso más peligrosos.

NC: En efecto, es un hecho evidente, entendiendo la «facultad moral» en sentido amplio. A menos que se controle cuidadosamente, la ingeniería de la IA puede plantear graves amenazas. Supongamos, por ejemplo, que se automatizara el cuidado de los pacientes. Los inevitables errores que el juicio humano es capaz de subsanar podrían dar lugar a una historia de terror. O supongamos que se eliminara a los humanos de la evaluación de las amenazas determinadas por los sistemas automatizados de defensa antimisiles. Como nos informa un registro histórico estremecedor, eso sería el fin de la civilización humana.

CJP: Organismos reguladores y fuerzas de seguridad en Europa están mostrando su preocupación por la propagación de ChatGPT, mientras que un texto legislativo de la Unión Europea presentado recientemente intenta hacer frente a la IA clasificando dichas herramientas según su nivel de riesgo percibido. ¿Está de acuerdo con los que temen que ChatGPT suponga una grave amenaza pública? Además, ¿cree realmente que se puede detener el desarrollo de herramientas de IA hasta que se introduzcan salvaguardias?

NC: Puedo simpatizar muy fácilmente con los esfuerzos por intentar controlar las amenazas que plantea la tecnología avanzada, incluido este caso. Sin embargo, soy escéptico sobre la posibilidad de hacerlo. Sospecho que el genio está fuera de la botella. Es probable que los agentes maliciosos -institucionales o individuales- puedan encontrar formas de eludir las salvaguardias. Estas sospechas no son, por supuesto, razón para no intentarlo y para mantener la guardia.

3 de mayo del 2023

Original en ingles: https://www.commondreams.org

Traducción: Edgar Manjarín

Fuente: https://www.sinpermiso.info


(1) Nota de traducción. El término performance en inglés, aquí traducido en un sentido más transversal como ‘ejecución’, se denomina ‘actuación’ en el campo de la lingüística moderna sobre las aportaciones del propio N.Chomsky.

Fuente de la información e imagen: https://lapeste.org

Comparte este contenido:

Más allá del plagio: las otras grandes amenazas de las IA generativas

Por:  Karina Fuerte

Olvídate del plagio, conoce otras amenazas del uso de ChatGPT y otras IA generativas que son mucho más significativas y tendrán un impacto en el futuro de la educación.

Esta semana leí dos reflexiones muy interesantes sobre el uso de ChatGPT y otras inteligencias artificiales (IA) generativas en el aula. La primera es de Hong Yang, publicada en Nature. En este artículo, Yang explica por qué decidió empezar a usar las IA generativas y los grandes modelos de lenguaje (LLM por sus siglas en inglés) en sus clases y explica por qué las universidades deben incluirlas en sus programas de estudio. “Mis estudiantes pronto se graduarán y empezarán a trabajar, y sus empleadores podrían pedirles que trabajen con modelos de inteligencia artificial. Si no saben cómo usarlos correctamente, podría frenarlos. No podemos evitar que los estudiantes usen calculadoras o Internet, y no podremos evitar que usen ChatGPT. Es mejor entender la herramienta y tratar de integrarla en la enseñanza”, escribe Yang, profesor de ciencias ambientales y copresidente de la red Black, Asian and Minority Ethnic de la Universidad de Reading, Reino Unido.

La segunda lectura, escrita por Collin Bjork y publicada en The Conversation, exhorta a las escuelas y universidades a no entrar en pánico por la llegada de las AI generativas, particularmente en el ámbito del plagio académico, en su lugar, nos invita a pensar en otras amenazas mucho más significativas que pueden afectar otros temas como la equidad en la educación. “En lugar de preocuparse demasiado por el plagio, los educadores se beneficiarían de prepararse para otras desigualdades de la IA, las cuales se muestran en la última versión de OpenAI: GPT-4”, advierte Bjork, profesor titular en la Universidad de Massey.

Ambos artículos tocan puntos muy importantes, aunque con enfoques diferentes. Por un lado, Yang se centra en el porqué es esencial cambiar los métodos de evaluación tradicionales de manera que los estudiantes (y los docentes) aprendan a usar estas herramientas como apoyo para sus proyectos. En su caso, pidió a los estudiantes que además de escribir ensayos, den una presentación oral de 10 minutos para compartir sus hallazgos. “Este enfoque no solo reduce las posibilidades de plagio, sino que también hace que el proceso de evaluación sea más interactivo y atractivo”, señala el profesor.

Por su parte, Collin Bjork explica que la cuarta versión de ChatGPT, aunque es más segura y precisa, ahora tiene un costo de US$20 al mes. Si bien este puede ser un precio insignificante para muchas personas (sobre todo por lo que puede ofrecer), para muchas otras personas pagar veinte dólares al mes solo para usar esta herramienta es impensable. Abriendo así una brecha digital significativa que apenas está iniciando, pues con el tiempo esta brecha podría ampliarse cada vez más. “Esta brecha digital coloca a los estudiantes y las instituciones educativas en dos bandos. Aquellos con suficientes recursos para disfrutar de los beneficios de las herramientas de IA. Y aquellos sin la misma flexibilidad financiera que se quedan atrás”, señala Bjork.

Ambos autores coinciden en que las IA generativas pueden tener un impacto negativo en áreas como la diversidad y la inclusión de las instituciones educativas. Yang da el ejemplo de cómo pidió a ChatGPT que le diera una lista de libros sobre cambio climático y sus autores, especificándole a la IA que la lista de libros se la diera «independientemente de la raza y el idioma». El resultado fue decepcionante, pues todas las lecturas recomendadas de ChatGPT habían sido escritas en inglés, “nueve de los diez autores eran blancos y nueve de los diez autores eran hombres”, señaló Yang por lo que advierte a los lectores que “el uso de información de libros y sitios web antiguos para capacitar a los LLM puede conducir a representaciones sesgadas e inexactas de las perspectivas de las personas en comunidades marginadas, al tiempo que amplifica las voces de quienes están en posiciones de poder”.

En la misma línea, Collin Bjork advierte que las IA pueden perpetuar el dominio global del inglés a expensas de otros idiomas, “especialmente los idiomas orales e indígenas”. Este es un tema al que como comunidad educativa debemos prestar mucha atención ahora y en los próximos años, ya que los grandes modelos de lenguaje (LLM) aprenden de conjuntos de datos en línea con poco contenido indígena y una cantidad abrumadora de contenido en inglés. “Estas amenazas son importantes porque las herramientas de inteligencia artificial pronto se incorporarán a Microsoft Office, los motores de búsqueda y otras plataformas de aprendizaje”, advierte Bjork.

Ambas reflexiones me parecieron muy interesantes y refrescantes, ya que no se concentraban en el plagio como única amenaza y punto crítico del uso de inteligencias artificiales generativas como ChatGPT. En lo personal, me preocupa que el uso de estas herramientas perpetúe el statu quo y el dominio de los grupos de poder, minimizando todavía más las voces de las minorías y de los grupos históricamente oprimidos.

Me gustaría conocer su punto de vista sobre estas problemáticas. ¿Habías pensado en estas otras amenazas de las IA? Más allá del plagio, ¿qué otras desventajas destacas del uso de estas herramientas?

Por último, si quieres continuar con la conversación sobre este tema, te invito a unirte al Diálogo: “El impacto del ChatGPT y las IA generativas en la educación superior”, que se llevará a cabo este martes 18 de abril a las 9:00 a.m., hora central de México (GMT-6) a través de Facebook Live. En esta edición de Diálogos, expertos del Tec de Monterrey, la Universitat Oberta de Catalunya (UOC) y la Pontificia Universidad Católica del Perú (PUCP) hablarán sobre los aspectos positivos y los retos que conlleva la utilización estas herramientas.

Hasta la próxima semana.

Karina Fuerte
*Editora en jefe, Observatorio del Instituto para el Futuro de la Educación

Fuente de la información e imagen: https://observatorio.tec.mx

Comparte este contenido:

¿Por qué necesitamos repensar los códigos de ética universitarios?

Por: Sofía García-Bullé

No son solo los nuevos usos de la IA lo que está poniendo en jaque los códigos de ética en las universidades. El problema es más complejo.

 

La producción generada por la Inteligencia Artificial (IA) ha avanzado a pasos agigantados este último año. Actividades que creíamos exclusivas de la capacidad humana, tales como la pintura y la redacción creativa, están siendo reproducidas por máquinas que alcanzan un nivel de calidad apto para tareas de nivel universitario. Miembros del Comité de honor de la Universidad de Virginia se reunieron a finales de enero para discutir las implicaciones del uso deshonesto de la tecnología en la trayectoria académica. El consenso general, en esta y muchas otras universidades, es que distinguir entre trabajos realizados por estudiantes y ChatGPT será más difícil de distinguir.

ChatGPT es un chatbot (o bot conversacional) de modelo de lenguaje desarrollado por OpenAI, basado en GTO-3.5. Tiene la habilidad de crear diálogos, llevar una conversación e interactuar de forma similar a lo que lo haría una persona. Puede predecir la siguiente palabra en una serie. Esta facultad, y el reforzamiento de aprendizaje, nutrido por la retroalimentación que le dan los usuarios, es la razón por la que se ha vuelto tan efectivo en generar mejores respuestas cada vez. ¿Pero qué significa esto para el futuro de los códigos de honor y la prevención de plagio en las universidades?

La mayor preocupación de los estudiantes es que de momento no existe un método 100 % seguro para determinar si un trabajo fue escrito en su totalidad por un estudiante o no. «Los programas te dan un 99.9 o 98 % de exactitud», comentó Gabrielle Bray, presidenta del comité de honor de la Universidad de Virginia y estudiante en su cuarto año de carrera. Kevin Lin, representante estudiantil y graduado de ingeniería, agregó que el dilema mayor sería la decisión de encontrar culpable a alguien de una ofensa tan grave cuando existe un margen de error de un 1 %.

Los grupos de estudiantes a cargo de mantener un estándar de honestidad académica también están apoyándose en los profesores. Los estudiantes de la Universidad de Virginia están tomando nociones de maestros como Evan Pivonka, consejero del Comité de Políticas, quien instó a las universidades a definir expectativas con respecto a la inteligencia artificial como herramienta y el sistema de asignaciones escolares. «Va a requerir una guía muy clara por parte de los profesores con respecto a lo que es un uso aceptable de estos nuevos recursos y qué no lo es», explicó además que sería un trabajo de negociación, flexibilidad y aprendizaje entre líderes de alumnado y el magisterio universitario.

No es la tecnología, es el enfoque

Un problema recurrente para las personas que aseguran una norma de integridad en la academia es que cada vez que aparece una tecnología que facilita el plagio o la deshonestidad, la educación superior entra en crisis. Si los códigos de ética universitarios tienen bases conceptuales así de frágiles, quizás habría que repensar estas bases.

Thomas Gift, profesor asociado de Ciencias Políticas y director del Centro de Políticas de la Unión Europea en la Universidad de Londres, y Julie Norman, profesora asociada de Política y Relaciones Internacionales, compartieron impresiones sobre el tema para el Times Higher Education. Los académicos argumentaron que la mayoría de las instituciones de educación superior tienen códigos de ética que se limitan a prohibir la deshonestidad, el plagiarismo y las faltas de conducta. Se enfocan en castigar el mal actuar de los estudiantes, pero no a motivar una perspectiva ética.

Existe otro principio del cual puede partir un código de honor, uno que se dirija menos a los castigos después de las fallas y que comience por despertar en los estudiantes un sentido de la dignidad, de respeto por sí mismos, por su trabajo, sus pares y sus maestros. La dificultad de un código así es mayor, pero la única manera de reducir infracciones sin importar que un nuevo recurso tecnológico llegue, es enseñar a los estudiantes a reflexionar sobre sus obligaciones profesionales y académicas, así como el beneficio y desarrollo que obtienen al cumplirlas.

El primer paso sería mentalizarnos de que la inteligencia artificial y los chatbots son una herramienta. Una que trae consigo avances, nuevos usos y oportunidades, pero también retos, y la línea para marcar un futuro educativo positivo está en su exploración sin juicio, pero con una guía ética con base en los reglamentos de las instituciones y cuerpos estudiantiles.

De la misma forma que hemos visto el valor de involucrar a los estudiantes en el proceso de su propio aprendizaje, podemos aprovechar esta misma idea para dejarlos tomar el rol principal en la formación de un sentido de la ética que se base en la confianza más que en el castigo. El resultado podría ser mucho más favorable que el de un sistema punitivo.

¿Qué piensas de la situación actual de las universidades ante el avance de la inteligencia artificial? ¿Crees que estamos en un momento de crisis? ¿Qué soluciones te parecerían pertinentes para asegurar la efectividad de los códigos de ética en la educación superior? Cuéntanos en los comentarios.

Fuente de la información e imagen:  https://observatorio.tec.mx

Comparte este contenido: