Page 1 of 4
1 2 3 4

ChatGPT: Humano, muy humano

Por: Andrés García Barrios

 

En esta nueva entrega de “La educación que queremos”, Andrés García Barrios explica cómo los atributos que son comunes al ChatGPT y a nuestro Shakespeare colectivo, pueden ser dos grandes herramientas para el trabajo en el aula.

Son tantos los expertos que hoy en día nos alertan contra los riesgos de la inteligencia artificial, que en este artículo me propongo fungir como intercesor de esa tecnología, por lo menos en un tema que me interesa especialmente, y que es afín a varias ramas de la docencia: su uso en la realización de textos creativos.

Mi primer impulso al abordar el tema sería poner en evidencia a los cientos de guionistas de cine y series “hollywoodenses” (me refiero al estilo que todos conocemos como tal, sea del país que sea), que en las últimas semanas se han dado a protestar contra el uso de la IA en la ejecución de tareas que creen que sólo a ellos les competen. Arguyendo, entre otras cosas, que dicha tecnología estandariza y deshumaniza los valores creativos, parecen olvidar que ellos mismos llevan décadas incurriendo en ese pecado, es decir, el de ejecutar guiones con base en un invariable patrón de éxito estadísticamente comprobado y arruinando la originalidad de muchísimas historias (propias o ajenas) para convertirlas en piezas estándar, en aras de asegurar el mercado. El hecho de que ahora reclamen al sistema el que favorezca a máquinas que hacen esa misma labor de maquila con más eficiencia, parece ─para decirlo de una forma amable─ tema para un guión sobre una de las mil maneras en que los seres humanos vendemos nuestra alma al diablo.

Pero les dejo a ellos la labor de escribirlo (o al chatbot que ya los haya sustituido), y refrenando ahora mi ira (que no es sino la de un espectador miles de veces defraudado), intentaré volcar mi energía en un enfoque más creativo del tema. A fin de cuentas, este temerario juego de ponerme del lado de la IA en materia de creación literaria me permitirá llevar al colmo mi fantasía, lo cual, aunque riesgoso, no deja de prometer grandes placeres.

Y así, el primero que me quiero dar es el de comparar al ChatGPT con William Shakespeare. Ya tendré tiempo de moderar esta exageración, pero verá el lector que no está tan injustificada como de entrada parece. Por lo pronto, para hacerla más verosímil, imaginemos que estamos hablando de un ChatGPT hiper-desarrollado y no de la versión actual, llena aún de múltiples limitaciones (al grado de que hace unos días, entre sus instrucciones, me regaló dos errores de escritura, poniendo parapharse the sentense en vez de paraphrase the sentence).

William Shakespeare es considerado por muchos como el escritor que más profundamente ha descrito el alma humana. No hay tema que no haya sido tratado por él, y de manera insuperable (sus obras completas serían el libro ideal para llevar a una isla desierta). La mirada del Cisne de Avón es tan abarcadora y a la vez tan detallada que se ha creído que tanta genialidad no puede ser obra de un solo ser humano, por lo que muchos afirman que Shakespeare es más bien el nombre que ocultaba a un grupo de personas reunidas en creación colectiva. La idea es que sólo un equipo de gente podría juntar tantas miradas provenientes de tantas partes.

Esta hipótesis del colectivo parece, sin embargo, refutada por la unidad indiscutible que caracteriza a la mirada de Shakespeare. Todas sus obras parecen escritas por un único autor; detrás de cada una de sus palabras flota un solo espíritu, una sola voz. Paradójicamente, esta voz única se caracteriza por algo que reafirma la hipótesis de la creación colectiva: en Shakespeare, como casi en ningún otro escritor, esa unidad no es una forma muy personal de tratar sus temas, sino más bien todo lo contrario: la voz de Shakespeare es una voz que desaparece para que hablen sus personajes; es algo así como la voz humana universal encarnando en Hamlet, Ofelia, Macbeth, Otelo, Desdémona y los cientos de caracteres principales y secundarios que hay en sus obras. A diferencia de los guionistas hollywoodenses que intervienen en la historia para reorientarla según intereses personales, Shakespeare nunca da noticia de sí mismo en sus obras: no emite opinión alguna y mucho menos mete la mano para agradar a nadie; deja que la acción corra siempre por cuenta propia. A este desapego hay quien le ha lllamado “indiferencia shakespeariana”, no en el sentido de que no da importancia a lo humano sino de que el autor se mantiene como alejado de toda posición personal frente a éste.

Y ahora, el golpe de la realidad: ¿no se parece todo esto que he dicho a nuestro ChatGPT hiperdesarrollado? ¿No reúnen sus productos “literarios” lo escrito por un colectivo de personas (en este caso, de los miles de millones que han publicado algo en la web)? Y este material, ¿no es seleccionado y reorganizado sin involucrar un criterio personal (puesto que nuestro ChatGPT no tiene ningún criterio)?

¿Inteligencia? ¿Artificial?

En otros artículos en este mismo espacio, he sugerido que tengamos cuidado para no humanizar a los robots con nuestro lenguaje: que no digamos que “nos sonríen” o que “son muy atentos”, por ejemplo. De hecho, creo que no deberíamos ni siquiera hablar de “inteligencia” cuando nos referimos a ellos, porque ésta es atributo de seres conscientes, y ningún robot lo es. El racionalismo de la edad moderna enalteció a tal grado la inteligencia que hemos acabado por separarla del resto de los atributos humanos, desecándola hasta el punto en que hoy a nadie le parece raro oír hablar de inteligencia artificial, cuando la frase podría sonar tan absurda como decir emotividad artificial o entusiasmo artificial,  que por suerte siguen sonando aberrantes.

Pues bien, a lo anterior quisiera ahora añadir el error opuesto, que también es delicado. Lo cometemos al usar la palabra “artificial” para referirnos a creaciones que, aunque ejecutadas por una máquina, siguen siendo humanas. Debemos tener claro que los textos de ChatGPT no son artificiales: todo en ellos proviene de la estructura del lenguaje humano y de todas las inteligentes sensibilidades cuyos escritos se han subido a la red. Como mencioné, la máquina sólo realiza una clasificación y reagrupación de patrones, y un filtrado estadístico de datos, convirtiéndose en algo así como un artesano, en el sentido de que sus obras reúnen siglos de una tradición a la que ChatGPT no añade nada y sólo modifica a veces por accidente. Su misión (y su limitación) es conservar y transmitir a sus usuarios todos aquellos elementos de la expresión colectiva que ya se encuentran consolidados en patrones repetibles. Visto esto así, podemos decir que una historia de la inteligencia artificial deberá mencionar, entre sus precursores, a  esas plantillas que desde hace milenios colocamos sobre los muros para pintar la misma figura las veces que queramos (la técnica se llama estarcido).

Si ChatGPT es capaz de contar historias actualizando patrones de literatura milenaria, no veo imposible que sus resultados superen a los de los guionistas estandarizados, que tantas dolorosas decepciones nos han causado a tantos. A quienes sólo pedimos un poquito de diversión inteligente, emotiva y sobre todo coherente para las tardes de domingo, no nos importará ─se los aseguro, y que Dios me perdone─ que el guion sea escrito por un humano o una máquina.

¿Qué le falta a ChatGPT para convertirse en Chat-Kespeare?

Para este intercesor de la tecnología, es triste tener que admitir que ChatGPT nunca será como Shakespeare. Es más, nunca será siquiera como esos nada geniales guionistas y dramaturgos que de vez en cuando atinan con un personaje o una situación que a nadie se le había ocurrido antes (debo admitir que incluso a algunos guionistas de estilo hollywoodense les pasa a veces).

Shakespeare, fuere quien fuere, así como esos guionistas que a veces atinan, tienen tres cualidades de las que nuestro hiperdesarrollado ChatGPT nunca estará dotado. Primera: como personas, son capaces de crear; es decir, son capaces de despegarse de suelo conocido y, en una especie de brinco, generar algo nuevo, algo que no existía antes. Estoy convencido de que esto es algo que la máquina nunca hará. Se dice que el ser humano todo lo crea con base en algo ya existente; tal vez es así, pero eso no significa que lo creado sea reducible a una matemática de lo previo. El salto en el vacío es posible. Y la súbita aparición de objetos literarios que no tienen ningún origen es lo que nos consterna. “Vemos la belleza siempre por primera vez”, escribí un día. Y creo que es cierto.

Se dice que ChatGPT es capaz de hacer innovaciones. Tal vez sea así, pero es entonces cuando entra en juego la segunda cualidad de las personas que las máquinas nunca adquirirán: la de advertir que han “creado” algo nuevo y, sobre todo, valorarlo. En el caso de que ChatGPT produzca algo innovador, no podrá darse cuenta de que lo ha hecho, ni podrá distinguir la tal “innovación” de cualquier otro garabato sin sentido que haya producido antes. Sólo las personas son capaces de darse cuenta de que han creado algo valioso o de que otra persona ha creado algo valioso. De hecho, sólo ellas son capaces de (e indispensables para) darse cuenta de que ChatGPT ha producido algo nuevo y darle algún valor.

Tercera cualidad exclusivamente humana: una vez que han reconocido el valor de lo creado, tanto Shakespeare como nuestros guionistas son capaces de hacerle ajustes y advertir si éstos lo mejoran (lo cual es sólo otro matiz de la creación, que a la máquina también le está vedado).

De un brinco, al aula

Quiero, para terminar, dar un brinco y llevar todo lo dicho a un espacio donde no estaba antes: el del aula. Pido una disculpa si este brinco, más que creativo, resulta un tanto arbitrario, pero en mi posición de intercesor de la tecnología no quiero dejar de señalar cómo los atributos que son comunes al ChatGPT y a nuestro Shakespeare colectivo, pueden ser dos grandes herramientas para el trabajo en el salón de clases. Estamos hablando, insisto, de la creación en equipo y de cómo ésta se puede ver favorecida por una actitud de desapego hacia las propias opiniones de parte de los miembros del grupo. Toda creación colectiva se enriquece cuando no prevalece un único punto de vista en su desarrollo.

Termino con un ejercicio que podemos desarrollar con nuestros estudiantes. Empecemos por dividir el grupo en dos equipos y pidamos a cada uno de éstos que desarrolle un texto de creación colectiva, por ejemplo, un nuevo tema en Wikipedia, un diálogo filosófico sobre cierto asunto controversial o una obra de teatro donde los personajes enfrenten un dilema ético del cual dependa la vida de alguien. El juego consiste no sólo en desarrollar esta primera fase sino en que cada equipo entregue su producto final al otro equipo, para que éste lo “corrija” en dinámica colectiva, y después de lean los resultados.  Sobre esta base, las variantes pueden ser muchas: para no dejar fuera de la fórmula a ChatGPT, podemos encargarle que sea él el que escriba los primeros borradores, para que luego los equipos procedan a corregirlos. También es posible que los equipos escriban primero y dejen la corrección al chatbot.  Una opción más, que nos permitiría contrastar la creación individual con la colectiva, sería formar dos equipos, uno con una sola persona y otro con todo el resto del grupo. ¿Cuál de ambos trabajaría más orgánicamente? Al llegar a la corrección, ¿cuál de ellos enriquecerá más el texto inicial? (si Shakespeare fuera un colectivo, ¿la corrección final la habría hecho una sola persona o todo el grupo?). Podemos también crear un equipo de mujeres y contrastar su trabajo con el de uno de hombres… y así, hacer todo tipo de combinaciones, en las que ChatGPT puede cumplir una función de apoyo, permitiéndonos indagar de paso  en su funcionamiento.

No está de más insistir en que uno de los principios esenciales de todo esto (principio que es también su fin) es conseguir olvidarnos de nosotros mismos, de nuestros puntos de vista particulares, para entregarnos a la vitalidad del colectivo. La fórmula, me parece, es la siguiente: ser como indiferentes hacia lo que podemos ganar como individuos y apostar por lo que podemos obtener todos juntos.  Por añadidura,  empezaremos a poner a la mal llamada inteligencia artificial en el sitio que, como a toda tecnología, le corresponde: el de ser un auxiliar cada vez más sofisticado de la creación humana.

Fuente de la información e imagen:  https://observatorio.tec.mx

Comparte este contenido:

Noam Chomsky habla sobre ChatGPT. Para qué sirve y por qué no es capaz de replicar el pensamiento humano [Entrevista]

Por: La peste

La inteligencia artificial (IA) está arrasando en el mundo. Está transformando todos los ámbitos de la vida y planteando importantes problemas éticos para la sociedad y el futuro de la humanidad. ChatGPT, que está dominando las redes sociales, es un chatbot basado en IA desarrollado por OpenAI. Es un subconjunto del aprendizaje automático y se basa en lo que se denomina Large Language Models (grandes modelos lingüísticos), capaces de generar respuestas similares a las humanas. El potencial de aplicación de esta tecnología es enorme, por lo que ya se está pidiendo que se regule la IA como ChatGPT.

¿Puede la IA ser más inteligente que los humanos? ¿Constituye una amenaza pública? De hecho, ¿puede convertirse en una amenaza existencial? Noam Chomsky, el lingüista más eminente del mundo y uno de los intelectuales públicos más estimados de todos los tiempos, cuya estatura intelectual se ha comparado con la de Galileo, Newton y Descartes, aborda estas inquietantes cuestiones en la entrevista que sigue.

C. J. Polychroniou: Como disciplina científica, la inteligencia artificial (IA) se remonta a los años 50, pero en las dos últimas décadas se ha ido abriendo paso en todo tipo de campos, como la banca, los seguros, la fabricación de automóviles, la música y la defensa. De hecho, el uso de técnicas de IA ha demostrado en algunos casos superar las capacidades humanas, como en una partida de ajedrez. ¿Es probable que las máquinas lleguen a ser más inteligentes que los humanos?

Noam Chomsky: Para aclarar la terminología, el término «máquina» significa aquí programa, básicamente una teoría escrita en una notación que puede ser ejecutada por un ordenador, y un tipo de teoría inusual en aspectos interesantes que podemos dejar de lado aquí.

Podemos hacer una distinción aproximada entre ingeniería pura y ciencia. No hay un límite claro, pero es una primera aproximación útil. La ingeniería pura busca producir un producto que pueda ser de alguna utilidad. La ciencia busca la comprensión. Si el tema es la inteligencia humana o las capacidades cognitivas de otros organismos, la ciencia busca comprender estos sistemas biológicos.

Tal y como yo los entiendo, los fundadores de la IA -Alan Turing, Herbert Simon, Marvin Minsky y otros- la consideraban ciencia, parte de las entonces incipientes ciencias cognitivas, que utilizaban las nuevas tecnologías y los descubrimientos en la teoría matemática de la computación para avanzar en la comprensión. Con el paso de los años, estas preocupaciones se han desvanecido y se han visto desplazadas en gran medida por una orientación ingenieril. En la actualidad, las primeras preocupaciones se suelen tachar, a veces con condescendencia, de ‘IA a la antigua usanza’ [en inglés ‘good old-fashioned AI’ o su acrónimo ‘GOFAI’].

Siguiendo con la pregunta, ¿es probable que se conciban programas que superen las capacidades humanas? Hay que tener cuidado con la palabra «capacidades», por razones a las que volveré. Pero si consideramos que el término se refiere a la ejecución(1) humana, entonces la respuesta es: definitivamente sí. De hecho, existen desde hace mucho tiempo: la calculadora de un ordenador, por ejemplo. Puede superar con creces lo que hacen los humanos, aunque sólo sea por falta de tiempo y memoria. En el caso de sistemas cerrados como el ajedrez, en los años 50 se comprendió perfectamente que tarde o temprano, con el avance de gigantescas capacidades computacionales y un largo periodo de preparación, se podría idear un programa capaz de derrotar a un gran maestro que juega con un límite de memoria y tiempo. El alcance de ese logro, años más tarde, fue más que nada un reclamo publicitario para IBM. Muchos organismos biológicos superan las capacidades cognitivas humanas en aspectos mucho más profundos. Las hormigas del desierto de mi patio trasero tienen cerebros minúsculos, pero superan con creces las capacidades humanas de navegación, en los principios que subyacen, no sólo en ejecución. No existe tal cosa como una Gran Cadena del Ser en cuya cúspide esté el ser humano.

Los productos de la ingeniería de IA se utilizan en muchos campos, para bien o para mal. Incluso los más sencillos y conocidos pueden ser bastante útiles: en el área lingüística, programas como el autocompletado, la transcripción en directo, el traductor de google, entre otros. Con una potencia de cálculo mucho mayor y una programación más sofisticada, también deberían surgir otras aplicaciones útiles en las ciencias. Ya ha habido algunas: cómo ha asistido en el estudio del plegamiento de proteínas es un caso reciente en el que la tecnología de búsqueda masiva y rápida ha ayudado a los científicos a abordar un problema crítico y difícil.

Los proyectos de ingeniería pueden ser útiles, o perjudiciales. Ambas cuestiones se plantean en el caso de la ingeniería de la IA. El trabajo actual con grandes modelos lingüísticos (LLM por sus siglas en inglés), incluidos los chatbots, proporciona herramientas para desinformar, difamar y engañar a los no informados. Las amenazas aumentan cuando se combinan con imágenes artificiales y réplicas de voz. Con diferentes preocupaciones en mente, decenas de miles de investigadores de IA han pedido recientemente una moratoria en el desarrollo debido a los peligros potenciales que perciben.

Como siempre, hay que sopesar los posibles beneficios de la tecnología frente a los costes potenciales.

Se plantean cuestiones muy distintas cuando nos referimos a la IA y la ciencia. Aquí se impone la cautela debido a las afirmaciones exorbitantes e imprudentes, a menudo amplificadas en los medios de comunicación. Para aclarar las cuestiones, consideremos casos, algunos hipotéticos, otros reales.

He mencionado la navegación de los insectos, que es un logro asombroso. Los científicos especializados en insectos han avanzado mucho en el estudio acerca de cómo este logro se ha alcanzado, si bien la neurofisiología -una materia muy complicada- sigue sin aclararse del todo, al igual que sucede con la evolución de los sistemas. Lo mismo ocurre con las asombrosas proezas de aves y tortugas marinas que recorren miles de kilómetros y regresan infaliblemente al lugar de origen.

Supongamos que Tom Jones, un partidario de la ingeniería de la IA, viene y dice: «Todo tu trabajo ha sido refutado. El problema está resuelto. Los pilotos de líneas aéreas comerciales consiguen siempre los mismos resultados, o incluso mejores».

Si acaso tomáramos la molestia de responder, nos reiríamos.

Tomemos el caso de las hazañas náuticas de los polinesios, que todavía perviven entre las tribus indígenas, que por medio de las estrellas, el viento y las corrientes pueden desembarcar sus canoas en un punto designado a cientos de millas de distancia. También este caso ha sido objeto de muchas investigaciones para averiguar cómo lo hacen. Tom Jones tiene la respuesta: «Deja de perder el tiempo; los buques de guerra lo hacen todo el tiempo».

La misma respuesta.

Pasemos ahora a un caso real: la adquisición del lenguaje. En los últimos años se han llevado a cabo investigaciones exhaustivas y muy esclarecedoras que han demostrado que los bebés tienen un conocimiento muy rico de la lengua (o lenguas) de su entorno, muy superior al que exhiben cuando actúan con ella[s]. Se consigue con pocas pruebas y, en algunos casos cruciales, sin ninguna. En el mejor de los casos, como han demostrado cuidadosos estudios estadísticos, los datos de los que disponen son escasos, sobre todo si se tiene en cuenta la rango-frecuencia («ley de Zipf«).

Entra Tom Jones: «Has sido refutado. Sin prestar atención a tus hallazgos, los LLM que escanean cantidades astronómicas de datos pueden encontrar regularidades estadísticas que permiten simular los datos en los que han sido entrenados, produciendo algo que se parece bastante al comportamiento humano normal. Chatbots».

Este caso difiere de los demás. En primer lugar, es real. Segundo, la gente no se ríe; de hecho, muchos se asombran. Tercero, a diferencia de los casos hipotéticos, los resultados reales distan mucho de lo que se afirma.

Estas consideraciones sacan a relucir un problema menor con respecto al entusiasmo actual por los LLM: su total absurdidad, como en los casos hipotéticos en los que lo hemos reconocido de inmediato. Pero hay problemas mucho más graves que la absurdidad.

Una es que los sistemas LLM están diseñados de tal manera que no pueden decirnos nada sobre el lenguaje, el aprendizaje u otros aspectos de la cognición, una cuestión de principio, irremediable. Duplique los terabytes de datos escaneados, añada otro billón de parámetros, utilice todavía más energía de California, y la simulación del comportamiento mejorará, al tiempo que revelará más claramente el fracaso de principio en el planteamiento sobre cómo producir cualquier forma de comprensión. La razón es elemental: los sistemas funcionan igual de bien con lenguas imposibles, tales que los bebés no pueden adquirir, como con aquellas que estos adquieren rápidamente y casi por reflejo.

Es como si un biólogo dijera: «Tengo una nueva gran teoría de los organismos. Esta teoría enumera muchos que existen y muchos que es imposible que existan, y no puedo decirles nada sobre la distinción».

De nuevo, nos reiríamos. O deberíamos.

No ríe Tom Jones, quien ahora se referirá a casos reales. Persistiendo en su radical alejamiento de la ciencia, Tom Jones responde: «¿Cómo puedes saber nada de esto hasta que no hayas investigado todas las lenguas?». En este punto, el abandono de la ciencia normal resulta aún más claro. Por un argumento análogo podemos desechar la genética y la biología molecular, la teoría de la evolución y el resto de las ciencias biológicas, que no han estudiado más que las muestras de una ínfima fracción de organismos. Y por si fuera poco, podemos desechar toda la física. ¿Por qué creer en las leyes del movimiento? ¿Cuántos objetos se han observado realmente en movimiento?

Existe, además, la pequeña cuestión de la carga de la prueba. Quienes proponen una teoría tienen la responsabilidad de demostrar que tiene algún sentido, en este caso, demostrando que falla para las lenguas imposibles. No es responsabilidad de otros refutar la propuesta, aunque para el caso parece bastante fácil hacerlo.

Pasemos a la ciencia normal, donde las cosas se ponen interesantes. Incluso un solo ejemplo de adquisición del lenguaje puede aportar una rica visión de la distinción entre lenguas posibles e imposibles.

Las razones son claras y conocidas. Todo crecimiento y desarrollo, incluido lo que se denomina «aprendizaje», es un proceso que parte de un estado del organismo y lo transforma paso a paso hacia etapas posteriores.

La adquisición del lenguaje es un proceso de este tipo. El estado inicial es la dotación biológica de la facultad del lenguaje, que obviamente existe, incluso aunque pueda ser, como algunos creen, una combinación particular de otras capacidades. Eso es muy improbable por razones que se comprenden desde hace tiempo, pero no es relevante para lo que nos ocupa aquí, así que podemos dejarlo de lado. Es evidente que existe una dotación biológica para la facultad humana del lenguaje. Una mera obviedad.

La transición avanza hacia un estado relativamente estable, que no cambiará más que superficialmente: el conocimiento lingüístico. Los datos externos desencadenan y configuran parcialmente el proceso. Estudiando el estado alcanzado (conocimiento lingüístico) y los datos externos, podemos sacar conclusiones de gran alcance sobre el estado inicial, la dotación biológica que hace posible la adquisición del lenguaje. Las conclusiones sobre el estado inicial imponen una distinción entre lenguas posibles e imposibles. La distinción es válida para todos los que comparten el estado inicial: todos los humanos, hasta donde sabemos; no parece haber diferencias en la capacidad de adquirir el lenguaje entre los grupos humanos existentes.

Todo esto es ciencia normal, y ha conseguido muchos resultados.

La experimentación ha demostrado que el estado estable se obtiene sustancialmente muy pronto, hacia los tres o cuatro años de edad. También está bien establecido que la facultad del lenguaje tiene propiedades básicas específicas de los humanos, de ahí que sea una verdadera propiedad de especie: común a los grupos humanos y, en aspectos fundamentales, un atributo humano único.

En este relato esquemático se dejan muchas cosas fuera, sobre todo el papel de leyes de la naturaleza en el crecimiento y el desarrollo: en el caso de un sistema computacional como el lenguaje, los principios de eficiencia computacional. Pero ésta es la esencia de la cuestión. De nuevo, ciencia normal.

Es importante tener clara la distinción de Aristóteles entre posesión de conocimiento y uso del conocimiento (en terminología contemporánea, competencia y actuación). En el caso del lenguaje, el estado estable obtenido es la posesión de conocimientos, codificados en el cerebro. El sistema interno determina una serie ilimitada de expresiones estructuradas, cada una de las cuales podemos considerar que formula un pensamiento, cada una externalizable en algún sistema sensomotor, normalmente el sonido, aunque podría ser el signo o incluso (con dificultad) el tacto.

En el uso del conocimiento («actuación») se accede al sistema codificado internamente. La actuación incluye el uso interno del lenguaje en el pensamiento: reflexión, planificación, recuerdo y mucho más. Desde el punto de vista estadístico, éste es, con mucho, el uso abrumador del lenguaje. Es inaccesible a la introspección, aunque podemos aprender mucho sobre él con los métodos normales de la ciencia, desde «fuera», metafóricamente hablando. Lo que se denomina «habla interior» son, de hecho, fragmentos de lenguaje exteriorizado con el aparato articulatorio silenciado. Es sólo un reflejo remoto del uso interno del lenguaje; cuestiones importantes que no puedo tratar aquí.

Otras formas de uso del lenguaje son la percepción (análisis sintáctico) y la producción, esta última entraña propiedades que siguen siendo tan misteriosas como cuando Galileo y sus contemporáneos las contemplaban con asombro en los albores de la ciencia moderna.

El principal objetivo de la ciencia es descubrir el sistema interno, tanto en su estado inicial de la facultad humana del lenguaje como en las formas particulares que adopta en la adquisición. En la medida en que se comprenda este sistema interno, podremos proceder a investigar cómo entra en funcionamiento, interactuando con muchos otros factores que intervienen en el uso del lenguaje.

La obtención de datos acerca de la actuación ofrece evidencias sobre la naturaleza del sistema interno, en especial cuando se refina experimentalmente, algo habitual en los trabajos de campo. Pero incluso la recopilación más masiva de datos es necesariamente engañosa en aspectos cruciales. Se ciñe a lo que se produce normalmente, no al conocimiento del lenguaje codificado en el cerebro, el objeto primario que investigan quienes quieren comprender la naturaleza del lenguaje y su uso. Ese objeto interno determina una clase infinita de posibilidades que no se utilizarán en el comportamiento normal debido a factores irrelevantes para el lenguaje, como las limitaciones de la memoria a corto plazo; temas estudiados hace 60 años. Los datos observados también incluirán buena parte de lo que queda fuera del sistema codificado en el cerebro, a menudo el uso consciente del lenguaje de formas que violan las reglas con fines retóricos. Son obviedades conocidas por todos los investigadores de campo, que recurren a técnicas de recolección directa de datos con sujetos informantes, básicamente experimentos, para obtener un corpus refinado que excluya las restricciones irrelevantes y las expresiones desviadas. Lo mismo ocurre cuando los lingüistas se utilizan a sí mismos como fuentes de información, un procedimiento perfectamente razonable y normal, habitual en la historia de la psicología hasta la actualidad.

Si seguimos avanzando con la ciencia normal, descubrimos que los procesos y elementos internos de la lengua no pueden detectarse mediante la inspección de los fenómenos observados. A menudo, estos elementos ni siquiera aparecen en el habla (o la escritura), aunque sus efectos, a menudo sutiles, pueden detectarse. Esa es otra razón por la que restringirse a los fenómenos observados, como en los enfoques LLM, limita marcadamente la comprensión de los procesos internos que son objeto central de la investigación sobre la naturaleza del lenguaje, su adquisición y su uso. Pero eso no es relevante si se ha abandonado la preocupación por la ciencia y la comprensión en favor de otros objetivos.

Más en general, en las ciencias, durante milenios se ha llegado a conclusiones mediante experimentos -a menudo experimentos mentales-, siendo cada uno de ellos una abstracción radical de los fenómenos. Los experimentos se basan en la teoría y tratan de descartar los innumerables factores irrelevantes que intervienen en los fenómenos observados, como en la actuación lingüística. Todo esto es tan elemental que rara vez se discute. Y familiar. Como se ha señalado, la distinción básica se remonta a la distinción de Aristóteles entre posesión del conocimiento y uso del conocimiento. El primero es el objeto central de estudio. Los estudios secundarios (y bastante serios) investigan cómo sirve a la actuación el sistema de conocimiento almacenado internamente, junto con los muchos factores no lingüísticos que entran en lo que se observa directamente.

También podemos recordar una observación del biólogo evolutivo Theodosius Dobzhansky, famoso sobre todo por su trabajo con la Drosophila: cada especie es única, y los humanos son los más únicos de todos. Si nos interesa comprender qué clase de criaturas somos -siguiendo el mandato del Oráculo de Delfos de hace 2.500 años-, nos ocuparemos sobre todo de lo que hace que los humanos seamos los más únicos de todos, principalmente el lenguaje y el pensamiento, estrechamente entrelazados, como reconoce una rica tradición que se remonta a la Grecia clásica y la India. La mayor parte del comportamiento es bastante rutinario y, por tanto, hasta cierto punto predecible. Lo que realmente nos hace únicos es lo que no es rutinario, y lo encontramos, a veces mediante experimentos, a veces mediante la observación, desde los niños en condiciones normales hasta los grandes artistas y científicos.

Un último comentario al respecto. La sociedad lleva un siglo plagada de campañas masivas por parte de empresas para fomentar el desprecio por la ciencia, temas bien estudiados por Naomi Oreskes entre otros. Comenzó con compañías cuyos productos eran letales: el plomo, el tabaco, el amianto y, más tarde, los combustibles fósiles. Sus motivos son entendibles. El objetivo de una empresa en una sociedad capitalista es el beneficio, no el bienestar humano. Es un hecho institucional: si no sigues el juego, te echan y te sustituye otro que sí lo haga.

Los departamentos de marketing de las empresas reconocieron muy pronto que sería un error negar las crecientes pruebas científicas de los efectos letales de sus productos. Eso sería fácilmente refutable. Mejor sembrar la duda, fomentar la incertidumbre, el desprecio por esos superexpertos de traje y corbata que nunca han pintado una casa, pero vienen de Washington a decirme que no use pintura con plomo, destruyendo mi negocio (un caso real, fácilmente multiplicable). Eso ha funcionado demasiado bien. Ahora mismo nos está llevando por el camino de la destrucción de la vida humana organizada en la Tierra.

En ambientes intelectuales, la crítica posmoderna de la ciencia, desmontada por Jean Bricmont y Alan Sokal, pero aún muy viva en algunos círculos, ha producido efectos similares.

Puede que sea una sugerencia poco amable, pero creo que es justo preguntarse si los Tom Jones y aquellos que repiten acríticamente e incluso amplifican sus descuidadas proclamas están contribuyendo a las mismas tendencias nefastas.

CJP: ChatGPT es un chatbot basado en el lenguaje natural que utiliza la inteligencia artificial para permitir conversaciones similares a las humanas. En un reciente artículo publicado en The New York Times, junto con otros dos autores, usted tachaba de bombo publicitario a los nuevos chatbots porque, sencillamente, no pueden igualar la competencia lingüística de los humanos. ¿No es posible, sin embargo, que las futuras innovaciones en IA produzcan proyectos de ingeniería que igualen y quizá incluso superen las capacidades humanas?

NC: El crédito por el artículo debería atribuirse al autor real, Jeffrey Watumull, un excelente matemático-lingüista-filósofo. Los dos coautores que figuran en la lista son asesores que están de acuerdo con el artículo, pero no lo han escrito.

Es cierto que los chatbots no pueden en principio igualar la competencia lingüística de los humanos, por las razones que hemos repetido antes. Su diseño básico les impide alcanzar la condición mínima de adecuación para una teoría del lenguaje humano: distinguir los lenguajes posibles de los imposibles. Dado que se trata de una propiedad del diseño, no puede ser superada por futuras innovaciones en este tipo de IA. Sin embargo, es muy posible que futuros proyectos de ingeniería igualen e incluso superen las capacidades humanas, si nos referimos a la capacidad humana de actuación [performance] en el uso del lenguaje. Como se ha señalado más arriba, algunos ya lo han hecho desde hace tiempo: las calculadoras automáticas, por ejemplo. Y lo que es más interesante, como ya se ha mencionado, insectos con cerebros minúsculos superan las capacidades humanas entendidas como competencia.

CJP: En el citado artículo también se observaba que los proyectos de IA actuales no poseen una facultad moral humana. ¿Este hecho tan obvio hace que los robots de IA sean una amenaza menor para la raza humana? Creo que se puede argumentar que los hace incluso más peligrosos.

NC: En efecto, es un hecho evidente, entendiendo la «facultad moral» en sentido amplio. A menos que se controle cuidadosamente, la ingeniería de la IA puede plantear graves amenazas. Supongamos, por ejemplo, que se automatizara el cuidado de los pacientes. Los inevitables errores que el juicio humano es capaz de subsanar podrían dar lugar a una historia de terror. O supongamos que se eliminara a los humanos de la evaluación de las amenazas determinadas por los sistemas automatizados de defensa antimisiles. Como nos informa un registro histórico estremecedor, eso sería el fin de la civilización humana.

CJP: Organismos reguladores y fuerzas de seguridad en Europa están mostrando su preocupación por la propagación de ChatGPT, mientras que un texto legislativo de la Unión Europea presentado recientemente intenta hacer frente a la IA clasificando dichas herramientas según su nivel de riesgo percibido. ¿Está de acuerdo con los que temen que ChatGPT suponga una grave amenaza pública? Además, ¿cree realmente que se puede detener el desarrollo de herramientas de IA hasta que se introduzcan salvaguardias?

NC: Puedo simpatizar muy fácilmente con los esfuerzos por intentar controlar las amenazas que plantea la tecnología avanzada, incluido este caso. Sin embargo, soy escéptico sobre la posibilidad de hacerlo. Sospecho que el genio está fuera de la botella. Es probable que los agentes maliciosos -institucionales o individuales- puedan encontrar formas de eludir las salvaguardias. Estas sospechas no son, por supuesto, razón para no intentarlo y para mantener la guardia.

3 de mayo del 2023

Original en ingles: https://www.commondreams.org

Traducción: Edgar Manjarín

Fuente: https://www.sinpermiso.info


(1) Nota de traducción. El término performance en inglés, aquí traducido en un sentido más transversal como ‘ejecución’, se denomina ‘actuación’ en el campo de la lingüística moderna sobre las aportaciones del propio N.Chomsky.

Fuente de la información e imagen: https://lapeste.org

Comparte este contenido:

ChatGPT, el terapeuta de las nuevas generaciones

Por: Mariana Sofía Jiménez Nájera

ChatGPT ha sido creado para brindarnos información en segundos, pero ¿terapia también? Conoce los aspectos positivos y negativos de utilizar esta herramienta en el ámbito de la salud mental.

ChatGPT ha sido el tema estelar últimamente, y no  por nada. Los artículos que vemos usualmente se relacionan a la redacción de correos electrónicos a través de prompts o la amenaza que representa a las escuelas por el plagio escolar; pero la plataforma también se ha infiltrado en el área de la salud mental.

ChatGPT es un chatbot de inteligencia artificial creado para interactuar con personas a manera de diálogo, el cual fue lanzado en noviembre del 2022. Es capaz de resolver problemas matemáticos, presentar información sobre un tema concreto o revisar códigos de programación, todo en cuestión de segundos.

Lo que llama la atención es que ahora existen usuarios que están utilizándolo como terapeuta, objetivo para el cual no fue desarrollado este programa. Aunque existen algunos aspectos benéficos para utilizarlo de esta manera, también hay ámbitos importantes a considerar.

Primeramente, ChatGPT es accesible todos los días, a toda hora; no hay necesidad de llamar a un consultorio, agendar cita, llegar al lugar y fecha acordada. El chatbot está disponible a solo unas cuantas teclas de tu computadora y estará listo para contestar instantáneamente, esto sin que esta tecnología se canse y sin tener un límite de tiempo que te avise cuando termine la sesión. Todo esto, desde la comodidad de tu hogar.

También, el chatbot puede ser un portal para aquellas personas que necesiten platicar temas sensibles sin revelar su identidad, creando un espacio para desahogarse y sentirse escuchados (o leídos, en este caso) anónimamente. Además, realizar una cuenta en ChatGPT es totalmente gratuito (por ahora).

A pesar de la gran accesibilidad que tiene esta herramienta, debemos considerar que no hay un responsable directo ni un control sobre la calidad del contenido que otorga a sus visitantes. “Aunque alguien encuentra la tecnología útil, eso no significa que los esté guiando en la dirección correcta”, comenta Margaret Mitchell, directora científica de ética para Hugging Face. Lo que significa que, aunque la persona se sienta cómoda con las respuesta de este chatbot, lo más probable es que no le esté otorgando el diagnóstico y tratamiento que un verdadero profesional le brindaría.

Otro aspecto en qué pensar es en que a final de cuentas, ChatGPT es una inteligencia artificial basada en algoritmos y que ha sido entrenada por un grupo de personas para informar. Este carece de emociones complejas y experiencias humanas, lo que puede ocasionar malentendidos y no tener una comprensión acertada que se si se puede mantener en una conversación con otra persona.

Además de que este chatbot, aunque tenga la habilidad de guardar conversaciones pasadas, no tiene manera de darle continuidad a sesiones anteriores como lo haría una persona real, haciendo que el usuario tenga que repetir todo de nuevo en caso de que decida utilizarlo continuamente. Adicionalmente, y como en todo ámbito que tiene que ver con nuestra privacidad y seguridad en internet, es probable que tus conversaciones sean vistas por los operadores de OpenAI, creadores de ChatGPT, y tu información sea utilizada para continuar entrenando al chatbot.

Sin duda alguna, la inteligencia artificial todavía tiene un largo camino que recorrer en el sector de la salud mental; y aunque el desarrollo de la tecnología es sumamente avanzado, todavía existen retos y detalles que afinar para que pueda utilizarse correctamente y de la mejor manera.

Empero, con la situación actual de casi 800 millones de personas sufriendo de alguna enfermedad mental en todo el mundo, el desarrollo de estas tecnologías serán un gran paso para aquellos que no tienen acceso a los recursos apropiados para atenderse.

En el marco del mes de la salud mental, es importante recalcar que mientras que ChatGPT puede ser una herramienta que podemos utilizar para encontrar consuelo momentáneamente, nunca debe reemplazar la interacción que podemos tener con algún familiar o amigo; y mucho menos deberá reemplazar el lugar de un profesional. Recuerda, ¡no estás solo y no olvides cuidar de ti mismo!

Fuente de la información e imagen: https://observatorio.tec.mx

Comparte este contenido:

Inteligencia Artificial y educación

Por:  Eduardo Backhoff Escudero

 

El lanzamiento del programa ChatGPT (Chat Generative Pre-trained Transformer) ha causado un gran asombro mundialmente. “Chat” se refiere al diseño para interactuar con los usuarios a través de conversaciones en línea. “Pre-trained” significa que el sistema se entrenó previamente con una gran cantidad de datos para comprender el lenguaje natural y responder coherentemente. Y “Transformer” se refiere a la arquitectura de red neuronal que permite procesar y generar textos de manera eficiente. Este programa es producto de la Inteligencia Artificial (IA), que utiliza algoritmos y modelos matemáticos complejos para tratar de imitar la forma en que el cerebro humano funciona. La IA puede entrenarse para realizar ciertas tareas; a medida que se le da más información y entrenamiento, se vuelve más inteligente y puede realizar tareas más complejas.

La IA se puede dividir en dos grandes tipos. La IA-débil se enfoca a resolver problemas específicos en una variedad de campos, como la medicina. Por ejemplo, se le puede entrenar a reconocer imágenes de alteraciones morfológicas para identificar tempranamente algún tipo de enfermedad, como el cáncer. Por otro lado, la IA-fuerte se enfoca en crear sistemas inteligentes que puedan “pensar y aprender” como lo hacen los seres humanos; no obstante, este tipo de IA aún no está suficientemente desarrollado.

En el campo educativo, la IA tiene un gran potencial. Al estudiante le ayudará a: personalizar su aprendizaje de acuerdo con sus necesidades; recibir retroalimentación sobre su desempeño académico de forma inmediata; identificar sus progresiones de aprendizaje; contar con herramientas para superar las barreras de las necesidades especiales; contar con recursos didácticos para aprender fuera de la escuela. A los docentes les facilitará: buscar y organizar información sobre un tema en particular; sintetizar los aspectos esenciales de un texto complejo; traducir textos en cualquier idioma; elaborar presentaciones didácticas de todo tipo; formular preguntas claves sobre un tema; automatizar actividades rutinarias escolares. A las autoridades educativas les ayudará a: conocer el avance de los alumnos en tiempo real; identificar tendencias de aprendizaje de los grupos de estudiantes; conocer patrones de desempeño y comportamiento de los estudiantes, que permitan detectar temporalmente posibles fracasos escolares y abandono escolar; planificar programas y políticas basadas en evidencias.

Sin lugar a dudas, el arribo de la IA cambiará el mundo tal y como lo conocemos. Por ello, en un futuro cercano, la IA será una competencia muy importante en el mercado laboral. La incorporación de la IA en los sistemas educativos ayudará a los estudiantes a desarrollar habilidades importantes para el siglo XXI, como la solución de problemas, la creatividad, el pensamiento crítico, la colaboración y la comunicación. Los sistemas de IA pueden simular situaciones del mundo real y desafiar a los estudiantes a resolver problemas complejos utilizando un enfoque basado en datos. En síntesis, la IA ayudará a preparar a los estudiantes a trabajar en un mundo cuyo desarrollo depende cada vez más de la integración de la ciencia, la información y la tecnología.

Por desgracia, el gobierno cuatroteísta no parece estar interesado en el uso de este tipo de tecnología en el área educativa; al menos, eso se puede deducir de la propuesta curricular y libros de texto gratuitos de la Nueva Escuela Mexicana. Ésta no solo no toma en cuenta a la IA, sino que ni siquiera hace alusión a las tecnologías digitales más conocidas: ni como objeto de estudio de los alumnos, ni como instrumento pedagógico de los docentes. El proyecto educativo de México, lejos de mirar hacia el futuro (que ya nos alcanzó) voltea a ver al pasado de la educación socialista (de hace casi un siglo), para resucitarla en una versión trasnochada en el que se enarbola una bandera nacionalista, anticolonialista, neo marxista, regionalista, etnocéntrica y comunitaria. En esta visión educativa se estigmatiza la aspiración (motivación) y el esfuerzo (trabajo) individual de los estudiantes, necesarios para superarse y lograr tener éxito como persona y profesionista; valores que se asocian con el modelo “educativo neoliberal”. Lo mismo pasa con los avances científicos y tecnológicos que, en su opinión, tienen como fin último controlar a las mayorías y beneficiar a los más poderosos. Desde esta perspectiva, la IA no está en la mira del Sistema Educativo Mexicano, con lo que se pierde la oportunidad de modernizarla.

Presidente del Consejo Directivo de Métrica Educativa, A.C.

Fuente de la información: https://revistaaula.com

Comparte este contenido:

La educación que queremos: ¿Los androides llegaron ya? (¿Y llegaron bailando el chat chat chat?)

Por: Andrés García Barrios

En esta entrega de «La educación que queremos», Andrés García Barrios nos invita a pensar sobre las implicaciones de que los robots se humanicen.

Ludwig Wittgenstein, filósofo alemán, nos previene: Toda una mitología está contenida en nuestro lenguaje. Con frecuencia, el uso que hacemos de las palabras crea espejismos que nos hacen confundir realidad y delirio. Los docentes tienen la oportunidad de tomar conciencia de esta confusión y ayudar a sus estudiantes a transitar por esas mitologías, que en ocasiones son de verdad alucinantes.

Una de ellas, muy en boga, está presente en nuestras ideas sobre la inteligencia artificial y sobre sus alcances, sus retos y sus riesgos. Los docentes, repito, pueden capacitarse para enfrentar los laberintos conceptuales de sus estudiantes en torno a esas tecnologías. Tomemos por ejemplo dos de éstas, con las que hemos empezado a familiarizarnos: una es el ChatGPT, la otra son esas extraordinarias y sin duda seductoras máquinas de aspecto humano que hacen gestos y hablan cada vez mejor. Empecemos por comprender que esos dos nuevos tipos de robots nos engañan no sólo por su redacción casi humana, sus respuestas tan acordes con nuestras preguntas o sus rostros expresivos, que guiñan el ojo y nos sonríen; también lo hacen por la forma en que nos referimos a ellos: por ejemplo, decir que “los robots nos engañan” o “nos sonríen” (como hago yo aquí arriba) es atribuirles una voluntad que están muy lejos de tener, y sin embargo es muy probable que la mayoría de mis lectores hayan aceptado esas frases sin ningún inconveniente. Es un hecho que si describimos a un robot diciendo que sus sistemas le permiten estar atentopercibirdarse cuentaentendercomunicarse o expresar, nos será cada vez más difícil pensar en él como un objeto inerte, y nos dejaremos convencer de que muy pronto los seres humanos podremos crear máquinas sensibles y conscientes.

Los robots pertenecen, y probablemente siempre pertenecerán, al reino mineral, tanto como una piedra, un auto o la puerta de un elevador cuyos circuitos se bloquean a nuestro paso. Sin embargo, numerosos factores intervienen para que creamos que una máquina posee voluntad propia. Para empezar, los seres humanos somos propensos por instinto a identificar cierto tipo de movimientos como indicadores de que en ellos hay vida. De hecho, es posible que cierta fase “animista” del desarrollo lleve a los bebés a creer que todos los objetos están vivos, cosa que refrendamos los padres y madres cuando un pequeño se golpea con una puerta y exclamamos: “¡Fea puerta!” e incluso lo alentamos a que le devuelva el golpe. Esta fase seguramente se actualiza en la sorpresa que provocan las puertas de un elevador a quienes por primera vez las ven abrirse a su paso (creo que en realidad eso nos sigue ocurriendo a todos de manera inconsciente).  Como anécdota, estoy seguro de que la tía Pacecita, anciana que vivía asombrada por la forma en que su control remoto activaba la tele, luchaba cada día contra la certidumbre de que entre ambos aparatos había un extraño acuerdo.

Pero hay más. Según estudios recientes, una parte de nuestro equipamiento psíquico está destinada a identificar rasgos animales (ojos, caras, cuerpos) en medio de cualquier caos de formas, como el de las nubes o el tirol del techo. Al parecer se trata de estados de alerta instintiva desarrollados por nuestros ancestros para detectar la presencia de agresores ocultos en el entorno.

Añadamos también la empatía que todos sentimos hacia ciertas fisonomías, por ejemplo, el tierno rostro de algunos muñecos de peluche: sabemos que estos son objetos sin vida, y sin embargo, algo en nosotros no está muy convencido de ello (luchamos contra esa certidumbre, como la tía Pacecita). Peor aún, si esos rasgos enternecedores se acompañan de ciertas movimientos “expresivos”, nos será casi imposible negar que detrás de ellos hay una vida y quizás hasta una conciencia. La ilusión quedará consumada si el sujeto en cuestión (perdón, el objeto en cuestión) articula cierto discurso inteligible.

Claro, si a todo lo anterior añadimos nuestra fe casi supersticiosa en lo ilimitado de la ciencia, convertiremos esa ilusión momentánea en una apasionada convicción de que “los androides llegaron ya” (cosa no muy diferente a la vieja creencia de que “los marcianos llegaron ya”). En pocas palabras, volveremos a creer en cuentos de hadas. Y esto no lo digo yo, simplemente parafraseo al gran biólogo Thomas Huxley (amigo personal y principal defensor de Darwin), quien decía: “¿Cómo puede ser que una cosa tan notable como un estado de conciencia surja a consecuencia de una excitación de la materia inerte? Es algo tan inexplicable como la aparición del genio cuando Aladino frota la lámpara” (Huxley no hablaba de excitar materia inerte sino tejido cerebral).

***

No creer en cuentos de hadas no es fácil. Ahí está Pinocho, el muñeco de madera que adquiere un alma humana; ahí está la bellísima escena final de Inteligencia Artificial de Steven Spielberg, en la que unos robots místicos se encuentran con el niño robot protagonista; y está también la conmovedora secuencia de Blade Runner, en la versión de Ridley Scott de 1982, donde el replicante Roy Batty, a punto de desactivarse, llora bajo la lluvia con una paloma blanca en las manos: “He visto cosas que ustedes los humanos no podrían imaginar. Todo eso se perderá en el tiempo, igual que lágrimas bajo la lluvia. Es hora de morir”.

Los adoradores de esas secuencias no me bajarán de desalmado, de inhumano. Sin embargo, yo las adoro igual que ellos, aunque como alegorías de la vida humana, cosa muy diferente a darlas por ciertas y crear utopías o anti-utopías a partir de ellas (con robots que hacen feliz a la humanidad o la destruyen intencionalmente).

Pensemos un poco sobre lo que implica la idea de que los robots se humanicen. Antes que nada, debo aclarar que a mí, como a casi todos, me resulta enormemente seductora y tranquilizante la idea de que a través de la ciencia los humanos podamos dominar la materia al grado de crear seres a nuestra imagen y semejanza. Con tal dominio y autoconocimiento (“conocernos como si nosotros mismos nos hubiéramos creado”, diría la filósofa María Zambrano), sin duda estaríamos en la posibilidad de hacernos inmortales y de edificar realidades inimaginables, sin agotar nunca nuestro potencial creativo y viviendo en eterna armonía con el cosmos y con nosotros mismos. Confieso que si en ocasiones dirijo mi mirada hacia una espiritualidad que no cree que todo se resuelve en el mundo de la materia, no lo hago porque me guste renunciar a esta promesa de la ciencia y prefiera masoquistamente seguir creyendo en un más allá indemostrable. Juro que si supiera que toda la paz que entreveo en lo espiritual se consigue mediante el conocimiento racional y científico, no haría otra cosa que dedicarme por completo a éste y se me vería luchando junto con la comunidad científica para alcanzarlo, aun cuando no me tocara a mí ver su culminación y sólo estuviera trabajando en favor de las generaciones futuras.

Pero resulta que no se necesita reflexionar demasiado para comprender que la realidad no responde del todo a verdades demostrables y que algunos huecos de la ciencia nunca se podrán llenar, no por deficiencia del método científico ni por nuestra incapacidad para entenderlo todo, sino simplemente porque su existencia está envuelta en un misterio que es en sí mismo irresoluble.

Lo anterior se puede aclarar poniendo como ejemplo una de esas dramáticas incógnitas sin solución: la de la aparición de la conciencia. Para hablar de ella, Huxley utilizó la alegoría de la lámpara de Aladino que mencioné arriba, utilísima para empezar a decodificar esa mitología parcialmente instintiva que se oculta en nuestras palabras. Ahora, queriendo avanzar un poco, quiero proponer una segunda alegoría que trata el tema ya no como cuento de hadas sino como relato de ciencia ficción.

***

Imaginemos una supercomputadora construida con los materiales más innovadores del mundo; es majestuosa, veloz y extraordinariamente potente; tiene la capacidad de recibir toda la información que existe en este momento en el planeta, y de procesarla. No hay problema computacional que esta máquina no pueda resolver.

La computadora se encuentra en un cubículo especialmente diseñado para ella. Una mañana, la mujer que se encarga de su mantenimiento, abre la puerta y presencia una escena estremecedora: frente a la supercomputadora, sentado en una silla, hay una especie de ser humano cuyo cuerpo entero se extiende en difusas radiaciones hacia la máquina. La mujer permanece pasmada frente a él. Conforme pasan las horas, van llegando al lugar los operadores expertos, y así como llegan se quedan paralizados, expectantes, sin aliento.

Al día siguiente el lugar está lleno de investigadores especialistas (se ha pedido a la mujer de mantenimiento que abandone el área). Ahora el extraño ser frente a la máquina, se agita, gesticula y hace exclamaciones en armoniosa sintonía con ésta, como si sintiera y a veces presintiera lo que va apareciendo en sus tableros y pantallas.  Las hipótesis sobre su presencia no se han hecho esperar. La primera, y más obvia, es que todo esto es producto de un hackeo, que el extraño personaje es una especie de holograma controlado por alguien ajeno al sistema. Sin embargo, los rastreadores más hábiles no logran hallar la fuente. Después de varias noches de desvelo, esta hipótesis se exacerba: es un hackeo procedente de otra dimensión, idea acorde con las teorías de que nuestro universo es una especie de simulación digital.

Una noche, tres de los investigadores deciden seguir la charla en una cantina y al calor de las copas conciben la hilarante idea de que el extraño ser es un preso político de otra dimensión, que ha sido desterrado, o más bien, in-terrado (los tres expertos ríen cuando inventan esta palabra) en la máquina, a la que ahora está sujeto y de la que no puede escapar. Cuando al día siguiente, ya sobrios, cuentan a sus compañeros las locuras de la noche, no imaginan que detonarán un caos entre los presentes, ¿Y si en efecto el extraño operador es un ser de otra realidad, “caído” en ésta? Todos sus movimientos respaldarían tal idea: la manera en que se mueve, la forma en que todo su cuerpo está conectado a la máquina.

Varios expertos se lanzan a explorar la posibilidad de comunicarse con él a través de otras computadoras, y es así como creen descubrir que el extraño ser “piensa” y “siente” en relación con lo que pasa en la máquina y que es capaz de tomar decisiones adicionales a las de ésta, llevando las capacidades del equipo hacia nuevos confines. Entonces acuerdan plantearle la pregunta “¿Eres una simulación controlada desde otra dimensión o existes realmente? Al hacérsela, el Operador ─ahora le llaman así─ entra en una especie de pasmo y toda interacción con él se pierde. Pasan las horas. Eventualmente se registra actividad. Después de casi medio día, el Operador vuelve en sí con una especie de sobresalto: “Tal vez todos mis pensamientos están controlados desde otra dimensión, pero detrás de ellos hay algo de lo que no puedo dudar: que estoy pensando y que eso significa que existo”. La mayoría de los expertos se sorprende; concuerdan en que hay ahí un ser consciente. Sólo a algunos la respuesta les suena sospechosamente parecida al Pienso, luego existo de Descartes y aseguran que una máquina tan simple como el primitivo ChatGPT podría haber dado esa respuesta.

Las opiniones se dividen dramáticamente. Ahora muchos piensan que el extraño ser no tiene nada que ver con realidades externas sino que es sólo producto de la interacción de la materia, especie de proyección espontánea en la interfase del sistema operativo con los discos de memoria, loop virtual con que la máquina ha adquirido conciencia de sí misma. La hipótesis avanza: el Operador tiene en realidad escasa injerencia en los procesos del equipo, la mayoría de los cuales siguen siendo inconscientes. La hipótesis culmina: el Operador cree que gobierna a la máquina cuando en realidad es gobernado por ella; él se limita a testificar una mínima parte de lo que ocurre en ésta, como un títere que reproduce de forma limitada los movimientos muchísimo más complejos de su manipulador. Algunos proponen que deje de llamársele Operador y se le denomine Testigo u Observador.

Todo es polémica y agitación entre los expertos. Pero algo muy diferente ocurre en el comedor de mantenimiento. Sentada en una silla, la empleada que días atrás vio al Operador por primera vez, no recuerda otra cosa que la imagen que la asaltó al abrir la puerta. Para ella, el único misterio que le parece intrigante es la presencia misma de ese ser aparecido ahí. La verdad es que no sabe ni siquiera cómo formular la pregunta, no sabe si debería decir “¿Qué es?” o “¿quién es?”, “¿es, en realidad?”, “¿por qué?”, “¿para qué?” O simplemente dejar salir un grito. Sus compañeros la han visto sumergirse cada vez más en sí misma…

***

Fin del relato.

El enigma de la aparición de la conciencia ─no sólo en los humanos sino en todos los seres vivos que pudieran tenerla─ parece irresoluble, pero no por eso deja de convocarnos a enfrentarlo. Es sin duda uno de los puntos clave a tratar con nuestros estudiantes en la discusión sobre los límites de la inteligencia artificial y sobre su repercusión tanto en la vida cotidiana como en el devenir planetario. ¿Qué tanto creeremos cuando nos digan que un robot tiene respuestas propias a nuestras preguntas? ¿Nos indignaremos de que un país otorgue calidad de ciudadano a una máquina? El uso de alegorías como las que he planteado sirve para detonar preguntas. Relatos como el de la lámpara de Aladino planteado por Huxley, el mío sobre la supercomputadora o cualquier otro que el docente crea adecuado, puede abrir la discusión: algunos estudiantes negarán que la materia inerte puede hacer emanar de ella un ser consciente; otros afirmarán que llegaremos a conocer el cuerpo humano “como si nosotros mismos lo hubiéramos creado” y que podremos fabricar seres a nuestra imagen y semejanza; sobre esto último habrá quien diga que aún si ese conocimiento fuera posible, aun faltarían muchos, muchos años para llegar a él (tal vez tantos que al momento actual se le recordaría diciendo: “Había una vez…”).

A partir de esos planteamientos surgirán nuevas visiones y nuevas alegorías (un buen ejercicio será pedir a nuestros estudiantes que las elaboren). Nosotros, como docentes, planteemos el dilema y permitamos que las ideas fluyan. Dejemos cualquier conclusión como provisional, y disfrutemos viendo cómo algunos estudiantes se atreven por momentos a avanzar en el camino que plantean los otros. Construyamos con nuestro diálogo la educación que queremos.

Fuente e Imagen: https://observatorio.tec.mx/edu-news/la-educacion-que-queremos-desaprender-lo-que-creemos-sobre-los-robots/

Comparte este contenido:

Entrevista a Noam Chomsky sobre ChatGPT

Por C.J. Polychroniou

Para qué sirve y por qué no es capaz de replicar el pensamiento humano

La inteligencia artificial (IA) está arrasando en el mundo. Está transformando todos los ámbitos de la vida y planteando importantes problemas éticos para la sociedad y el futuro de la humanidad. ChatGPT, que está dominando las redes sociales, es un chatbot basado en IA desarrollado por OpenAI. Es un subconjunto del aprendizaje automático y se basa en lo que se denomina Large Language Models (grandes modelos lingüísticos), capaces de generar respuestas similares a las humanas. El potencial de aplicación de esta tecnología es enorme, por lo que ya se está pidiendo que se regule la IA como ChatGPT.

¿Puede la IA ser más inteligente que los humanos? ¿Constituye una amenaza pública? De hecho, ¿puede convertirse en una amenaza existencial? Noam Chomsky, el lingüista más eminente del mundo y uno de los intelectuales públicos más estimados de todos los tiempos, cuya estatura intelectual se ha comparado con la de Galileo, Newton y Descartes, aborda estas inquietantes cuestiones en la entrevista que sigue.

C. J. Polychroniou: Como disciplina científica, la inteligencia artificial (IA) se remonta a los años 50, pero en las dos últimas décadas se ha ido abriendo paso en todo tipo de campos, como la banca, los seguros, la fabricación de automóviles, la música y la defensa. De hecho, el uso de técnicas de IA ha demostrado en algunos casos superar las capacidades humanas, como en una partida de ajedrez. ¿Es probable que las máquinas lleguen a ser más inteligentes que los humanos?

Noam Chomsky: Para aclarar la terminología, el término «máquina» significa aquí programa, básicamente una teoría escrita en una notación que puede ser ejecutada por un ordenador, y un tipo de teoría inusual en aspectos interesantes que podemos dejar de lado aquí.

Podemos hacer una distinción aproximada entre ingeniería pura y ciencia. No hay un límite claro, pero es una primera aproximación útil. La ingeniería pura busca producir un producto que pueda ser de alguna utilidad. La ciencia busca la comprensión. Si el tema es la inteligencia humana o las capacidades cognitivas de otros organismos, la ciencia busca comprender estos sistemas biológicos.

Tal y como yo los entiendo, los fundadores de la IA -Alan Turing, Herbert Simon, Marvin Minsky y otros- la consideraban ciencia, parte de las entonces incipientes ciencias cognitivas, que utilizaban las nuevas tecnologías y los descubrimientos en la teoría matemática de la computación para avanzar en la comprensión. Con el paso de los años, estas preocupaciones se han desvanecido y se han visto desplazadas en gran medida por una orientación ingenieril. En la actualidad, las primeras preocupaciones se suelen tachar, a veces con condescendencia, de ‘IA a la antigua usanza’ [en inglés ‘good old-fashioned AI’ o su acrónimo ‘GOFAI’].

Siguiendo con la pregunta, ¿es probable que se conciban programas que superen las capacidades humanas? Hay que tener cuidado con la palabra «capacidades», por razones a las que volveré. Pero si consideramos que el término se refiere a la ejecución1 humana, entonces la respuesta es: definitivamente sí. De hecho, existen desde hace mucho tiempo: la calculadora de un ordenador, por ejemplo. Puede superar con creces lo que hacen los humanos, aunque sólo sea por falta de tiempo y memoria. En el caso de sistemas cerrados como el ajedrez, en los años 50 se comprendió perfectamente que tarde o temprano, con el avance de gigantescas capacidades computacionales y un largo periodo de preparación, se podría idear un programa capaz de derrotar a un gran maestro que juega con un límite de memoria y tiempo. El alcance de ese logro, años más tarde, fue más que nada un reclamo publicitario para IBM. Muchos organismos biológicos superan las capacidades cognitivas humanas en aspectos mucho más profundos. Las hormigas del desierto de mi patio trasero tienen cerebros minúsculos, pero superan con creces las capacidades humanas de navegación, en los principios que subyacen, no sólo en ejecución. No existe tal cosa como una Gran Cadena del Ser en cuya cúspide esté el ser humano.

Los productos de la ingeniería de IA se utilizan en muchos campos, para bien o para mal. Incluso los más sencillos y conocidos pueden ser bastante útiles: en el área lingüística, programas como el autocompletado, la transcripción en directo, el traductor de google, entre otros. Con una potencia de cálculo mucho mayor y una programación más sofisticada, también deberían surgir otras aplicaciones útiles en las ciencias. Ya ha habido algunas: cómo ha asistido en el estudio del plegamiento de proteínas es un caso reciente en el que la tecnología de búsqueda masiva y rápida ha ayudado a los científicos a abordar un problema crítico y difícil.

Los proyectos de ingeniería pueden ser útiles, o perjudiciales. Ambas cuestiones se plantean en el caso de la ingeniería de la IA. El trabajo actual con grandes modelos lingüísticos (LLM por sus siglas en inglés), incluidos los chatbots, proporciona herramientas para desinformar, difamar y engañar a los no informados. Las amenazas aumentan cuando se combinan con imágenes artificiales y réplicas de voz. Con diferentes preocupaciones en mente, decenas de miles de investigadores de IA han pedido recientemente una moratoria en el desarrollo debido a los peligros potenciales que perciben.

Como siempre, hay que sopesar los posibles beneficios de la tecnología frente a los costes potenciales.

Se plantean cuestiones muy distintas cuando nos referimos a la IA y la ciencia. Aquí se impone la cautela debido a las afirmaciones exorbitantes e imprudentes, a menudo amplificadas en los medios de comunicación. Para aclarar las cuestiones, consideremos casos, algunos hipotéticos, otros reales.

He mencionado la navegación de los insectos, que es un logro asombroso. Los científicos especializados en insectos han avanzado mucho en el estudio acerca de cómo este logro se ha alcanzado, si bien la neurofisiología -una materia muy complicada- sigue sin aclararse del todo, al igual que sucede con la evolución de los sistemas. Lo mismo ocurre con las asombrosas proezas de aves y tortugas marinas que recorren miles de kilómetros y regresan infaliblemente al lugar de origen.

Supongamos que Tom Jones, un partidario de la ingeniería de la IA, viene y dice: «Todo tu trabajo ha sido refutado. El problema está resuelto. Los pilotos de líneas aéreas comerciales consiguen siempre los mismos resultados, o incluso mejores».

Si acaso tomáramos la molestia de responder, nos reiríamos.

Tomemos el caso de las hazañas náuticas de los polinesios, que todavía perviven entre las tribus indígenas, que por medio de las estrellas, el viento y las corrientes pueden desembarcar sus canoas en un punto designado a cientos de millas de distancia. También este caso ha sido objeto de muchas investigaciones para averiguar cómo lo hacen. Tom Jones tiene la respuesta: «Deja de perder el tiempo; los buques de guerra lo hacen todo el tiempo».

La misma respuesta.

Pasemos ahora a un caso real: la adquisición del lenguaje. En los últimos años se han llevado a cabo investigaciones exhaustivas y muy esclarecedoras que han demostrado que los bebés tienen un conocimiento muy rico de la lengua (o lenguas) de su entorno, muy superior al que exhiben cuando actúan con ella[s]. Se consigue con pocas pruebas y, en algunos casos cruciales, sin ninguna. En el mejor de los casos, como han demostrado cuidadosos estudios estadísticos, los datos de los que disponen son escasos, sobre todo si se tiene en cuenta la rango-frecuencia («ley de Zipf«).

Entra Tom Jones: «Has sido refutado. Sin prestar atención a tus hallazgos, los LLM que escanean cantidades astronómicas de datos pueden encontrar regularidades estadísticas que permiten simular los datos en los que han sido entrenados, produciendo algo que se parece bastante al comportamiento humano normal. Chatbots».

Este caso difiere de los demás. En primer lugar, es real. Segundo, la gente no se ríe; de hecho, muchos se asombran. Tercero, a diferencia de los casos hipotéticos, los resultados reales distan mucho de lo que se afirma.

Estas consideraciones sacan a relucir un problema menor con respecto al entusiasmo actual por los LLM: su total absurdidad, como en los casos hipotéticos en los que lo hemos reconocido de inmediato. Pero hay problemas mucho más graves que la absurdidad.

Una es que los sistemas LLM están diseñados de tal manera que no pueden decirnos nada sobre el lenguaje, el aprendizaje u otros aspectos de la cognición, una cuestión de principio, irremediable. Duplique los terabytes de datos escaneados, añada otro billón de parámetros, utilice todavía más energía de California, y la simulación del comportamiento mejorará, al tiempo que revelará más claramente el fracaso de principio en el planteamiento sobre cómo producir cualquier forma de comprensión. La razón es elemental: los sistemas funcionan igual de bien con lenguas imposibles, tales que los bebés no pueden adquirir, como con aquellas que estos adquieren rápidamente y casi por reflejo.

Es como si un biólogo dijera: «Tengo una nueva gran teoría de los organismos. Esta teoría enumera muchos que existen y muchos que es imposible que existan, y no puedo decirles nada sobre la distinción».

De nuevo, nos reiríamos. O deberíamos.

No ríe Tom Jones, quien ahora se referirá a casos reales. Persistiendo en su radical alejamiento de la ciencia, Tom Jones responde: «¿Cómo puedes saber nada de esto hasta que no hayas investigado todas las lenguas?». En este punto, el abandono de la ciencia normal resulta aún más claro. Por un argumento análogo podemos desechar la genética y la biología molecular, la teoría de la evolución y el resto de las ciencias biológicas, que no han estudiado más que las muestras de una ínfima fracción de organismos. Y por si fuera poco, podemos desechar toda la física. ¿Por qué creer en las leyes del movimiento? ¿Cuántos objetos se han observado realmente en movimiento?

Existe, además, la pequeña cuestión de la carga de la prueba. Quienes proponen una teoría tienen la responsabilidad de demostrar que tiene algún sentido, en este caso, demostrando que falla para las lenguas imposibles. No es responsabilidad de otros refutar la propuesta, aunque para el caso parece bastante fácil hacerlo.

Pasemos a la ciencia normal, donde las cosas se ponen interesantes. Incluso un solo ejemplo de adquisición del lenguaje puede aportar una rica visión de la distinción entre lenguas posibles e imposibles.

Las razones son claras y conocidas. Todo crecimiento y desarrollo, incluido lo que se denomina «aprendizaje», es un proceso que parte de un estado del organismo y lo transforma paso a paso hacia etapas posteriores.

La adquisición del lenguaje es un proceso de este tipo. El estado inicial es la dotación biológica de la facultad del lenguaje, que obviamente existe, incluso aunque pueda ser, como algunos creen, una combinación particular de otras capacidades. Eso es muy improbable por razones que se comprenden desde hace tiempo, pero no es relevante para lo que nos ocupa aquí, así que podemos dejarlo de lado. Es evidente que existe una dotación biológica para la facultad humana del lenguaje. Una mera obviedad.

La transición avanza hacia un estado relativamente estable, que no cambiará más que superficialmente: el conocimiento lingüístico. Los datos externos desencadenan y configuran parcialmente el proceso. Estudiando el estado alcanzado (conocimiento lingüístico) y los datos externos, podemos sacar conclusiones de gran alcance sobre el estado inicial, la dotación biológica que hace posible la adquisición del lenguaje. Las conclusiones sobre el estado inicial imponen una distinción entre lenguas posibles e imposibles. La distinción es válida para todos los que comparten el estado inicial: todos los humanos, hasta donde sabemos; no parece haber diferencias en la capacidad de adquirir el lenguaje entre los grupos humanos existentes.

Todo esto es ciencia normal, y ha conseguido muchos resultados.

La experimentación ha demostrado que el estado estable se obtiene sustancialmente muy pronto, hacia los tres o cuatro años de edad. También está bien establecido que la facultad del lenguaje tiene propiedades básicas específicas de los humanos, de ahí que sea una verdadera propiedad de especie: común a los grupos humanos y, en aspectos fundamentales, un atributo humano único.

En este relato esquemático se dejan muchas cosas fuera, sobre todo el papel de leyes de la naturaleza en el crecimiento y el desarrollo: en el caso de un sistema computacional como el lenguaje, los principios de eficiencia computacional. Pero ésta es la esencia de la cuestión. De nuevo, ciencia normal.

Es importante tener clara la distinción de Aristóteles entre posesión de conocimiento y uso del conocimiento (en terminología contemporánea, competencia y actuación). En el caso del lenguaje, el estado estable obtenido es la posesión de conocimientos, codificados en el cerebro. El sistema interno determina una serie ilimitada de expresiones estructuradas, cada una de las cuales podemos considerar que formula un pensamiento, cada una externalizable en algún sistema sensomotor, normalmente el sonido, aunque podría ser el signo o incluso (con dificultad) el tacto.

En el uso del conocimiento («actuación») se accede al sistema codificado internamente. La actuación incluye el uso interno del lenguaje en el pensamiento: reflexión, planificación, recuerdo y mucho más. Desde el punto de vista estadístico, éste es, con mucho, el uso abrumador del lenguaje. Es inaccesible a la introspección, aunque podemos aprender mucho sobre él con los métodos normales de la ciencia, desde «fuera», metafóricamente hablando. Lo que se denomina «habla interior» son, de hecho, fragmentos de lenguaje exteriorizado con el aparato articulatorio silenciado. Es sólo un reflejo remoto del uso interno del lenguaje; cuestiones importantes que no puedo tratar aquí.

Otras formas de uso del lenguaje son la percepción (análisis sintáctico) y la producción, esta última entraña propiedades que siguen siendo tan misteriosas como cuando Galileo y sus contemporáneos las contemplaban con asombro en los albores de la ciencia moderna.

El principal objetivo de la ciencia es descubrir el sistema interno, tanto en su estado inicial de la facultad humana del lenguaje como en las formas particulares que adopta en la adquisición. En la medida en que se comprenda este sistema interno, podremos proceder a investigar cómo entra en funcionamiento, interactuando con muchos otros factores que intervienen en el uso del lenguaje.

La obtención de datos acerca de la actuación ofrece evidencias sobre la naturaleza del sistema interno, en especial cuando se refina experimentalmente, algo habitual en los trabajos de campo. Pero incluso la recopilación más masiva de datos es necesariamente engañosa en aspectos cruciales. Se ciñe a lo que se produce normalmente, no al conocimiento del lenguaje codificado en el cerebro, el objeto primario que investigan quienes quieren comprender la naturaleza del lenguaje y su uso. Ese objeto interno determina una clase infinita de posibilidades que no se utilizarán en el comportamiento normal debido a factores irrelevantes para el lenguaje, como las limitaciones de la memoria a corto plazo; temas estudiados hace 60 años. Los datos observados también incluirán buena parte de lo que queda fuera del sistema codificado en el cerebro, a menudo el uso consciente del lenguaje de formas que violan las reglas con fines retóricos. Son obviedades conocidas por todos los investigadores de campo, que recurren a técnicas de recolección directa de datos con sujetos informantes, básicamente experimentos, para obtener un corpus refinado que excluya las restricciones irrelevantes y las expresiones desviadas. Lo mismo ocurre cuando los lingüistas se utilizan a sí mismos como fuentes de información, un procedimiento perfectamente razonable y normal, habitual en la historia de la psicología hasta la actualidad.

Si seguimos avanzando con la ciencia normal, descubrimos que los procesos y elementos internos de la lengua no pueden detectarse mediante la inspección de los fenómenos observados. A menudo, estos elementos ni siquiera aparecen en el habla (o la escritura), aunque sus efectos, a menudo sutiles, pueden detectarse. Esa es otra razón por la que restringirse a los fenómenos observados, como en los enfoques LLM, limita marcadamente la comprensión de los procesos internos que son objeto central de la investigación sobre la naturaleza del lenguaje, su adquisición y su uso. Pero eso no es relevante si se ha abandonado la preocupación por la ciencia y la comprensión en favor de otros objetivos.

Más en general, en las ciencias, durante milenios se ha llegado a conclusiones mediante experimentos -a menudo experimentos mentales-, siendo cada uno de ellos una abstracción radical de los fenómenos. Los experimentos se basan en la teoría y tratan de descartar los innumerables factores irrelevantes que intervienen en los fenómenos observados, como en la actuación lingüística. Todo esto es tan elemental que rara vez se discute. Y familiar. Como se ha señalado, la distinción básica se remonta a la distinción de Aristóteles entre posesión del conocimiento y uso del conocimiento. El primero es el objeto central de estudio. Los estudios secundarios (y bastante serios) investigan cómo sirve a la actuación el sistema de conocimiento almacenado internamente, junto con los muchos factores no lingüísticos que entran en lo que se observa directamente.

También podemos recordar una observación del biólogo evolutivo Theodosius Dobzhansky, famoso sobre todo por su trabajo con la Drosophila: cada especie es única, y los humanos son los más únicos de todos. Si nos interesa comprender qué clase de criaturas somos -siguiendo el mandato del Oráculo de Delfos de hace 2.500 años-, nos ocuparemos sobre todo de lo que hace que los humanos seamos los más únicos de todos, principalmente el lenguaje y el pensamiento, estrechamente entrelazados, como reconoce una rica tradición que se remonta a la Grecia clásica y la India. La mayor parte del comportamiento es bastante rutinario y, por tanto, hasta cierto punto predecible. Lo que realmente nos hace únicos es lo que no es rutinario, y lo encontramos, a veces mediante experimentos, a veces mediante la observación, desde los niños en condiciones normales hasta los grandes artistas y científicos.

Un último comentario al respecto. La sociedad lleva un siglo plagada de campañas masivas por parte de empresas para fomentar el desprecio por la ciencia, temas bien estudiados por Naomi Oreskes entre otros. Comenzó con compañías cuyos productos eran letales: el plomo, el tabaco, el amianto y, más tarde, los combustibles fósiles. Sus motivos son entendibles. El objetivo de una empresa en una sociedad capitalista es el beneficio, no el bienestar humano. Es un hecho institucional: si no sigues el juego, te echan y te sustituye otro que sí lo haga.

Los departamentos de marketing de las empresas reconocieron muy pronto que sería un error negar las crecientes pruebas científicas de los efectos letales de sus productos. Eso sería fácilmente refutable. Mejor sembrar la duda, fomentar la incertidumbre, el desprecio por esos superexpertos de traje y corbata que nunca han pintado una casa, pero vienen de Washington a decirme que no use pintura con plomo, destruyendo mi negocio (un caso real, fácilmente multiplicable). Eso ha funcionado demasiado bien. Ahora mismo nos está llevando por el camino de la destrucción de la vida humana organizada en la Tierra.

En ambientes intelectuales, la crítica posmoderna de la ciencia, desmontada por Jean Bricmont y Alan Sokal, pero aún muy viva en algunos círculos, ha producido efectos similares.

Puede que sea una sugerencia poco amable, pero creo que es justo preguntarse si los Tom Jones y aquellos que repiten acríticamente e incluso amplifican sus descuidadas proclamas están contribuyendo a las mismas tendencias nefastas.

CJP: ChatGPT es un chatbot basado en el lenguaje natural que utiliza la inteligencia artificial para permitir conversaciones similares a las humanas. En un reciente artículo publicado en The New York Times, junto con otros dos autores, usted tachaba de bombo publicitario a los nuevos chatbots porque, sencillamente, no pueden igualar la competencia lingüística de los humanos. ¿No es posible, sin embargo, que las futuras innovaciones en IA produzcan proyectos de ingeniería que igualen y quizá incluso superen las capacidades humanas?

NC: El crédito por el artículo debería atribuirse al autor real, Jeffrey Watumull, un excelente matemático-lingüista-filósofo. Los dos coautores que figuran en la lista son asesores que están de acuerdo con el artículo, pero no lo han escrito.

Es cierto que los chatbots no pueden en principio igualar la competencia lingüística de los humanos, por las razones que hemos repetido antes. Su diseño básico les impide alcanzar la condición mínima de adecuación para una teoría del lenguaje humano: distinguir los lenguajes posibles de los imposibles. Dado que se trata de una propiedad del diseño, no puede ser superada por futuras innovaciones en este tipo de IA. Sin embargo, es muy posible que futuros proyectos de ingeniería igualen e incluso superen las capacidades humanas, si nos referimos a la capacidad humana de actuación [performance] en el uso del lenguaje. Como se ha señalado más arriba, algunos ya lo han hecho desde hace tiempo: las calculadoras automáticas, por ejemplo. Y lo que es más interesante, como ya se ha mencionado, insectos con cerebros minúsculos superan las capacidades humanas entendidas como competencia.

CJP: En el citado artículo también se observaba que los proyectos de IA actuales no poseen una facultad moral humana. ¿Este hecho tan obvio hace que los robots de IA sean una amenaza menor para la raza humana? Creo que se puede argumentar que los hace incluso más peligrosos.

NC: En efecto, es un hecho evidente, entendiendo la «facultad moral» en sentido amplio. A menos que se controle cuidadosamente, la ingeniería de la IA puede plantear graves amenazas. Supongamos, por ejemplo, que se automatizara el cuidado de los pacientes. Los inevitables errores que el juicio humano es capaz de subsanar podrían dar lugar a una historia de terror. O supongamos que se eliminara a los humanos de la evaluación de las amenazas determinadas por los sistemas automatizados de defensa antimisiles. Como nos informa un registro histórico estremecedor, eso sería el fin de la civilización humana.

CJP: Organismos reguladores y fuerzas de seguridad en Europa están mostrando su preocupación por la propagación de ChatGPT, mientras que un texto legislativo de la Unión Europea presentado recientemente intenta hacer frente a la IA clasificando dichas herramientas según su nivel de riesgo percibido. ¿Está de acuerdo con los que temen que ChatGPT suponga una grave amenaza pública? Además, ¿cree realmente que se puede detener el desarrollo de herramientas de IA hasta que se introduzcan salvaguardias?

NC: Puedo simpatizar muy fácilmente con los esfuerzos por intentar controlar las amenazas que plantea la tecnología avanzada, incluido este caso. Sin embargo, soy escéptico sobre la posibilidad de hacerlo. Sospecho que el genio está fuera de la botella. Es probable que los agentes maliciosos -institucionales o individuales- puedan encontrar formas de eludir las salvaguardias. Estas sospechas no son, por supuesto, razón para no intentarlo y para mantener la guardia.

Nota:

1Nota de traducción. El término performance en inglés, aquí traducido en un sentido más transversal como ‘ejecución’, se denomina ‘actuación’ en el campo de la lingüística moderna sobre las aportaciones del propio N.Chomsky.

Texto original: https://www.commondreams.org/opinion/noam-chomsky-on-chatgpt  

Traducción: Edgar Manjarín

Fuente: https://sinpermiso.info/textos/noam-chomsky-habla-sobre-chatgpt-para-que-sirve-y-por-que-no-es-capaz-de-replicar-el-pensamiento

Comparte este contenido:

Bill Gates y sus medias verdades

Construyendo un culpable para los efectos negativos de la transformación digital

 Luis Bonilla-Molina[1]

  1. El cuco pone los huevos en el nido de la urraca

Últimamente me ocurre, cuando escucho o leo a Bill Gates, que mi mente relacional me trae a la memoria a Randle McMurphy, el personaje de la película dirigida por el checoslovaco Milos Forman.  McMurphy nadando entre dos aguas, las de la rebeldía y la sumisión, finge locura en un espacio panóptico orientado por las premisas foucaultianas de vigilar y castigar, siendo llevado por las circunstancias a imitar la ruptura de la apatía ciudadana, empalmando con los miedos y emociones de sus colegas, para intentar escapar del manicomio en el que él mismo se recluyó.

Cada frase de Bill Gates está pensada con lógica mercantil, ponderando los efectos de las mismas en sus acciones y ganancias futuras. En eso se distancia del humanismo subyacente en Randle el personaje fílmico, pues Gates, aun cuando intenta darnos lecciones éticas, su moral es la del mercado. Como todo empresario exitoso, ha adquirido las dotes de alquimista que le permite empalmar con el sentido común ciudadano y convertir nuestras ideas y acciones en decisiones respecto a opciones de mercancías.

Por ello, sorprende que las declaraciones de Gates empiecen a ser multiplicadas por docentes y pensadores críticos como evidencias que sus puntos de vista en materia tecnológica están respaldados por un referente en el área. Bill Gates, líder de una de las once empresas que durante el Apagón Pedagógico Global (APG) de 2020 lograron sumar 3.2 billones de dólares de ganancias, mientras el mundo presenciaba atolondrado la puesta en marcha de un nuevo modelo de privatización, estandarización, mercantilización, estratificación y desterritorialización educativa, declaraba en entrevista[2]publicada el 27 de abril de 2023, que la primera profesión en desaparecer sería la del maestro reemplazada por la Inteligencia Artificial.  A esto se suman las declaraciones de Geoffrey Hinton uno de los ex – CEO de Google, empresa de Gates, respecto a sus temores ante el actual desarrollo de la IA.

Veamos en un marco más amplio la razón de estas declaraciones

  • ¿Por qué Gates culpa a la Inteligencia Artificial de la desaparición de la profesión docente y, Hinton hace mea culpa?

Estas declaraciones tenemos que valorarlas en una lógica de disputa de mercados tecnológicos en la coyuntura y de aspiración estratégica de la industria de los algoritmos.

Microsoft y Google van detrás de la carrera por la Inteligencia Artificial, ante la delantera que les ha tomado OpenAI, la empresa lideradas por Elon Musk y Sam Altman, esto ha colocado a la defensiva a los gigantes de la programación y uno de los buscadores en internet más usado. Las declaraciones procuran generar pánico y resistencias que limiten la adquisición y suscripción a plataformas como ChatGPT,  intentando ganar tiempo para que Google y Microsoft logren desarrollos que impidan que OpenAI monopolice el mercado de la inteligencia artificial.

Pero además, Gates quien durante los últimos años viene presentando a las instituciones educativas y docentes como utilería y personajes del parque jurásico de los sistemas escolares presenciales, con la afirmación de caducidad de la profesión docente, usa su prestigio y capacidad comunicacional como influencer para seguir construyendo hegemonía sobre la “inevitabilidad” de la educación virtual asistida por inteligencia artificial.

Y es que no es fácil que la ciudadanía del orbe asimile la idea de una sociedad sin las escuelas, bachilleratos y universidades presenciales, a las que entendemos como parte de la arquitectura social moderna. Por ello, no pierden oportunidad para ir sembrando la semilla del “pase inevitable” de la presencialidad a la virtualidad.

De hecho, cuando desde 2015 denunciamos la posibilidad de un Apagón Pedagógico Global (APG) que no era otra cosa que el paso abrupto a la virtualidad a escala planetaria, en un mismo tiempo histórico, con el propósito de alfabetizarnos en lo virtual-digital, para la mayoría de colegas esta posibilidad les parecía imposible que ocurriera y tuvo que llegar la pandemia para que millones de docentes y estudiantes transitaran el ABC de la conexión virtual, el uso de plataformas, la mediación digital en los aprendizajes; eso lo saben las corporaciones tecnológicas y no pierden oportunidad para introducir en el colectivo social la imagen de un sistema educativo no presencial. “Tanto va el cántaro a la fuente hasta que la rompe” dice el adagio popular.

  Gates y las corporaciones tecnológicas, cual corsarios del siglo XXI, ven el presupuesto para la nómina docente, infraestructura, dotación de equipos y materiales y actualización tecnológica, asignados a los sistemas escolares, cuyo monto según los países van del 3% al 12% del PIB, como un botín al cual asaltar, sacando a los docentes de la ecuación y sustituyéndoles por Inteligencia Artificial y otras mercancías algorítmicas.

Por supuesto, que esto tiene su base en una epistemología del aprendizaje derivado de tendencias instrumentales de la neurociencia, que igualan el cerebro a una máquina y el aprendizaje a suministro de datos, como si el saber humano y el conocimiento científico no tuvieran un enorme componente emocional, afectivo y experencial.

Todo ello tiene que ver con lo que Berardi (2019, p.170) describe como “implicaciones automáticas de agentes humanos reducidos a funciones meramente operacionales”.  Hoy la mayoría de estudiantes y docentes tienen dificultades para explicar las leyes científicas y procesos de los equipos tecnológicos que usan, no por defecto del sistema escolar y las universidades, sino porque el neoliberaismo logró instrumentalizar el saber, construyendo en las escuelas y universidades el sentido común del operario.

Ciertamente, necesitamos regular socialmente el uso y la creación de inteligencias artificiales, sobre todo para despojarlas de la pretensión de asumirse como lugares de enunciación de la verdad, pero la mea culpa de Hinton no va acompañada de caminos alternativos, de opciones de trabajo que permitan repensar la orientación estratégica de los algoritmos, sino de una narrativa que convoca a la parálisis, el temor y pretende dotar de “autoridad ética” a quienes llaman a parar porque se quedaron atrás en la carrera tecnológica, los mismos que nos venderán chatarra algorítmica cuando estén en la punta de las innovaciones.

  • China: ¿La estalinización del capitalismo o el fascismo del imperialismo asiático emergente?

Hoy vi un video en tik tok, preparado por la influencer Ana Karen Ramírez (@anaqueenmaker) en el cual muestra algunos de los usos que está dando China a la Inteligencia Artificial, el reconocimiento biométrico facial, los análisis de metadatos y los bloques de datos en su sistema escolar. Esto no es nuevo, en la Conferencia Mundial de Inteligencia Artificial, realizada en ese país en el año 2019, las autoridades del gigante asiático mostraron el papel que le estaban otorgando a esas herramientas para controlar, medir y tomar decisiones sobre el rendimiento real de los y las estudiantes en las aulas, con fines de mejorar el sistema escolar y disminuir costes, al retirar de las universidades aquellos estudiantes con bajo nivel de concentración y atención en las aulas.

El video de Ramírez muestra como a los y las estudiantes se les coloca una banda electrónica en la frente y alrededor de la cabeza,  que permite saber si está poniendo o no atención a la clase que se imparte, midiendo los niveles de concentración, cuya lectura algorítmica es enviada en tiempo real a profesores, familias y autoridades educativas, para alimentar los procesos de toma de decisión. También muestra los robots dentro de las aulas que monitorean la salud de quienes están en clases, así como las interacciones que ocurren allí. Además, menciona que los uniformes de los niños, niñas y jóvenes tienen chip, o internet de las cosas, que permite saber dónde está cada estudiante.

Este uso orweliano del algoritmo y la inteligencia artificial le quita al docente su capacidad de valoración subjetiva de los y las estudiantes, de empatía emocional, convirtiendo cada acto en las aulas en un simple dato, eso sí con consecuencias inmediatas sobre la permanencia y la inclusión. Ese no es el uso que consideramos se debe dar a la IA, mucho menos porque sabemos que es un modelo transicional a la desaparición de la escuela pública presencial, aunque ello aún no aparezca expresado de manera nítida y concreta en las políticas públicas de ese gobierno.

El uso para fines de control y como indicador de inversión educativa de la IA por parte del gobierno chino, nos lleva a preguntarnos si estamos en presencia de una estalinización del capitalismo de ese país o ante el surgimiento del fascismo en el imperialismo asiático emergente.  En cualquier caso, como lo ha expresado su líder Xi Pin en el Foro Mundial de Davos (2022), China aspira a que la economía mundial sea orientada por la Organización Mundial de Comercio (OMC), la cual tiene como eje en materia educativa la transformación digital capitalista, que conduce a la disolución de las instituciones educativas presenciales. Por lo tanto, a nivel estratégico lo que hace China y lo que dice Bill Gates terminan coincidiendo, solo se diferencian en el número de cuenta en la cual caerán las ganancias por semejante despropósito.

  • La UNESCO en el juego de las máscaras

Es terrible el giro de la UNESCO de las últimas tres décadas. Si bien UNESCO forma parte del acuerdo de gobernabilidad que emanó de la segunda guerra mundial y es el rostro educativo del Tratado de Bretton Woods y el Consenso de Washington, es innegable que hasta la llegada del neoliberalismo el organismo multilateral estaba revestido de una aureola de pluralidad y defensa de la educación. Muchas veces coincidimos en agendas y reivindicaciones, otras no tanto.

Pero lo que ha ocurrido en el último periodo es digno de una “historia crítica de la UNESCO” proyecto en el cual estamos embarcados. La Conferencia Mundial de Educación Superior (CMES2022) realizada en Barcelona, España, fue la culminación de un lenta pero sostenida subordinación de UNESCO a los designios de las Bancas de Desarrollo, la OMC, las grandes financieras globales y la agenda de Davos, como se evidenció en los debates de micro acreditación, transformación digital e Inteligencia Artificial.

Lo que queda claro a estas alturas, es que no podemos buscar en UNESCO lo alternativo, sino el discurso más refinado de hegemonía del capital en materia educativa.

  • Necesitamos derrotar el pesimismo intelectual

Un fantasma recorre la academia y parte importante de la intelectualidad mundial.  Son décadas diciendo que el capitalismo está en “crisis terminal”, que está “a punto de caer” y viene “una sociedad de justicia social”, mientras que en la realidad el capitalismo y su ideología están más fuertes que nunca, destruyendo la vida en el planeta, generando involución de conquistas sociales como la jubilaciones, pensiones y 8 horas de trabajo. Tal vez esta oscilación epiléptica causa desánimo, pero la intelectualidad es guardiana de la esperanza razonada, de la utopía fundamentada del provenir.

Este pesimismo intelectual se ha expandido con la llegada del neoliberalismo, la caída de la URSS y el paradigma del fin de la historia, y quienes hemos logrado escapar de sus oscuras garras no terminamos de recuperar la esperanza de las décadas precedentes.

Esto adquiere un matiz dramático en materia de transformación digital, imperio de los algoritmos e inteligencia artificial, donde pareciera que la dicotomía es mirar para otro lado o sentirnos inevitablemente aplastados por el cambio de énfasis tecnológico.

Urge recuperar la capacidad de la intelectualidad crítica para situarnos de manera propositiva y alternativa frente a la ofensiva del capital para imponer un modo único de entender la aceleración de la innovación.

  • Lo digital-virtual y la Inteligencia Artificial como actividades en disputa

Recuperar la esperanza pasa por entender lo nuevo en materia tecnológica como un campo de disputa, como un terreno donde debemos pensar lo alternativo para las mayorías ciudadanas, para la clase trabajadora, para los pobres de la tierra. Despojar lo nuevo de la voracidad del capital que quiere convertirnos en simples mercancías compradoras. Por ello me atrevo a pensar una agenda mínima de trabajo, debate y lucha:

  1. Debate sobre la imposibilidad de colocar la IA como lugar de enunciación de la verdad. Desde la filosofía política y las pedagogías
  2. Conformación de equipos para desarrollar taxonomías para plataformas virtuales que resulten apropiadas para fomentar el pensamiento crítico, la creatividad y el paradigma emancipatorio. Las taxonomías son el punto de partida `para los programadores y las estructuras algorítmicas, así como para la IA
  3. Repensar los sistemas escolares y las dinámicas pedagógicas para la educación presencial en un contexto de inusitada aceleración de la innovación:
  4. Políticas públicas para la justicia social, la inclusión y la autonomía en un contexto de transformación digital, emerger de lo virtual, irrupción de las IA y expansión de los algoritmos;
  5. El mundo del trabajo y las garantías sociales en la sociedad del internet de las cosas,

Desde el Estado ello comienza con dos pequeños pasos: a) Internet gratuito y de ancha banda para todos y todas y b) universalización del acceso a aparatos y equipos de conexión remota

¿Nos juntamos para ello?

Lista de referencia

Berardi, B (2019) Futurabilidad: la era de la impotencia y el horizonte de la pluralidad. Ediciones La Caja Negra. Argentina

Forman, M (1975) Alguien voló sobre el nido del cuco. https://rakuten.tv/es?content_type=movies&content_id=alguien-volo-sobre-el-nido-del-cuco

Gates, B (2023) Esta es la profesión que primero desaparecerá con la llegada de la inteligencia artificial, según Bill Gates” https://www.guatevision.com/internacionales/esta-es-la-profesion-que-primero-desaparecera-con-la-llegada-de-la-inteligencia-artificial-segun-bill-gates

Hinton, G (2023) El padre de la inteligencia artificial reconoce que cometió un error y ahora habla d sus temores ante las IA https://www.semana.com/tecnologia/articulo/padre-de-la-inteligencia-artificial-reconoce-que-cometio-un-error-y-ahora-habla-de-sus-temores-ante-las-ia/202347/

Ramírez, A.K (2023) En China la inteligencia artificial llegó hasta los salones  https://vm.tiktok.com/ZMYKVpKqg/


[1] Doctor en Ciencias Pedagógicas, Postdoctorados en Pedagogías Críticas y Propuestas de Evaluación de la Calidad Educativa. Miembro del Comité Directivo del Consejo Latinoamericano de Ciencias Sociales (CLACSO).  Socio de la Campaña Latinoamericana por el Derecho a la educación. Integrante de la Asociación latinoamericana de Sociología (ALAS) y la Fundación Kairos.  Director de investigaciones del Centro Internacional de Investigaciones Otras Voces en educación (CII-OVE). Profesor universitario

[2] Esta es la profesión que primero desaparecerá con la llegada de la inteligencia artificial, según Bill Gates” https://www.guatevision.com/internacionales/esta-es-la-profesion-que-primero-desaparecera-con-la-llegada-de-la-inteligencia-artificial-segun-bill-gates

Comparte este contenido:
Page 1 of 4
1 2 3 4