ChatGPT: ¿Inteligencia, estupidez o malicia artificiales?

Por: Marc-André Miserez

Tiene respuesta para todo y habla como un libro abierto. El bot conversacional de OpenAI es el abanderado de una nueva era de la inteligencia artificial. Pero los expertos advierten que todavía está muy lejos de un cerebro humano y carece de marco legal.

¿Quién puede escapar a la ola del ChatGPT? Desde su lanzamiento hace cuatro meses, la prensa le ha dedicado —solo en Suiza— una media de 10 artículos diarios (contabilizados en el agregador de medios smd.ch). Si a esto añadimos todo lo que le han dedicado la radio, la televisión, los medios en línea y las redes sociales, podemos afirmar que pocas veces un producto se ha beneficiado de una campaña de lanzamiento —totalmente gratis— como esta.

Los comentarios —exagerados al principio— enseguida, a medida que la máquina revelaba sus defectos y los peligros que plantea para la fiabilidad de la información y la protección de los datos de quien lo utiliza, se volvieron tensos.

El 29 de marzo, un millar de expertos en tecnología redactaron una peticiónEnlace externo para que empresas y gobiernos suspendan durante seis meses el desarrollo de la inteligencia artificial (IA). Alegan “riesgos importantes para la humanidad”. Entre ellos están Steve Wozniak, cofundador de Apple, y Elon Musk, uno de los fundadores de OpenAIEnlace externo, la empresa que desarrolla ChatGPT.

Tres días después, el Garante italiano para la Protección de Datos —la autoridad nacional italiana de protección de datos— decidió bloquear el acceso al prototipo. AcusaEnlace externo a ChatGPT de recopilar y almacenar información para entrenar sus algoritmos sin ninguna base legal. La autoridad ha pedido a OpenAI que —en un plazo de 20 días— comunique las medidas adoptadas para remediar esta situación. De lo contrario, se enfrenta a una multa de hasta 20 millones de euros.

Europol —la agencia europea de policía encargada de la lucha contra la delincuencia en la Unión Europea— el 27 de marzo en un informeEnlace externo (en inglés) ya indicaba su preocupación por que los ciberdelincuentes puedan utilizar ChatGPT.

>> “No es de extrañar que, tras el prematuro lanzamiento de ChatGPT y la carrera a la baja en materia de seguridad provocada por Microsoft, Google o Facebook, GPT-4 esté fuera de juego”. Dice El Mahdi El Mhamdi, profesor en la Escuela Politécnica de París, que hizo su tesis en la EPFL de Lausana bajo la dirección de Rachid Guerraoui, y es una de las voces críticas contra la falta de regulación en torno a la inteligencia artificial. En este artículo se menciona a ambos.

¿Puede ser tan peligroso el chatbot? Con su interfaz sobria hasta la simplicidad y su amabilidad un tanto afectada —como ya ocurría con Siri, Cortana, OK Google y otros— no lo parece.

Para entenderlo mejor, hay que examinar qué es esta máquina y, sobre todo, qué no es.

¿Cerebro electrónico? En absoluto

Cuando se le pregunta, ChatGPT no esconde su condición: “Como programa informático, soy, sobre todo, diferente a un cerebro humano”. Y luego explica que puede procesar cantidades masivas de datos de manera mucho más rápida que una persona, que su memoria no olvida nada, pero que carece de inteligencia emocional, de conciencia de sí mismo, de inspiración, de pensamiento creativo y de capacidad para tomar decisiones independientes.

Se debe a que la propia arquitectura de la inteligencia artificial nada tiene que ver con la del cerebro, como de manera brillante se describe en un libro que se publicará el 13 de abril (en francés): 1000 CerveauxEnlace externo [1000 cerebros]. El libro es el resultado del trabajo reciente de los equipos de Jeff Hawkins, ingeniero informático estadounidense que en los 90 fue uno de los padres de Palm, un asistente personal de bolsillo que presagió el teléfono inteligente. En la actualidad, Hawkins trabaja como neurocientífico y está al frente de la empresa de inteligencia artificial Numenta.

Una de las ideas principales del libro es que el cerebro crea puntos de referencia, cientos de miles de “mapas” de todo lo que conocemos, que modifica constantemente con la información que recibe de nuestros sentidos. Una IA, en cambio, no tiene ni ojos ni oídos y se alimenta solo de los datos que se le proporcionan, que permanecen fijos y no evolucionan.

Ni siquiera sabe qué es un gato

Hawkins ilustra sus palabras con ejemplos sencillos. Una IA que etiqueta imágenes es capaz, por ejemplo, de reconocer un gato. Pero no sabe que es un animal, que tiene cola, patas y pulmones, que algunos humanos prefieren los gatos a los perros, o que el gato ronronea o se le cae el pelo. En otras palabras: la máquina sabe mucho menos de gatos que un niño de cinco años.

Y ¿por qué? Porque el niño ya ha visto un gato, lo ha acariciado, lo ha escuchado ronronear, y toda esta información ha enriquecido el “mapa” del gato que tiene en su cerebro. Mientras que un bot conversacional, como ChatGPT, únicamente se basa en secuencias de palabras y en la probabilidad de que aparezcan unas junto a otras.

>> Lê Nguyên Hoang, coautor de los libros de El Mahdi El Mhamdi y Rachid Guerraoui (citados más abajo), expone en este vídeo cuál es —en su opinión— el verdadero peligro de ChatGPT. [En francés]

Alan Turing —el brillante matemático británico que sentó las bases de la informática— ya predijo hace más de 70 años estos límites de la IA, tal y como se construye hoy en día. En 1950, en su artículo Computing Machinery and Intelligence [Maquinaria informática e inteligencia], Turing ya vio que si queríamos construir una máquina que pensara, no sería suficiente con programarla para hacer deducciones a partir de masas de datos. La inteligencia artificial —para merecer realmente su nombre— también tendrá que poder razonar por inducción, es decir, partir de un caso particular para llegar a una generalización. Y todavía estamos muy lejos de ello.

Bien dicho y a menudo cierto

Rachid Guerraoui dirige el Laboratorio de Sistemas de Información Distribuida de la Escuela Politécnica Federal de Lausana (EPFL). Junto con Lê Nguyên Hoang, su colega que dirige el canal de Youtube Science4AllEnlace externo, en 2020 publicó Turing à la plageEnlace externo – l’IA dans un transat [Turing en la playa: la IA en una tumbona], un libro cuyo editor promete que, tras leerlo, “no se mirará [no miraremos] el ordenador de la misma manera”.

«La mayoría de las veces, lo que dice es cierto. Sin embargo, también comete grandes errores. Así que no hay que fiarse ciegamente de él».

Rachid Guerraoui, EPFLEnd of insertion

Para Guerraoui, uno de los mayores riesgos de ChatGPT es el exceso de confianza. “La mayoría de las veces, lo que dice es cierto, o al menos está tan bien escrito que parece totalmente cierto. Pero también suele cometer grandes errores. Así que no hay que fiarse ciegamente de él”. Por desgracia, no todo el mundo tiene el espíritu crítico necesario para cuestionar lo que dice la máquina, sobre todo cuando lo manifiesta claramente, sin errores ortográficos ni gramaticales.

“Otro peligro que veo es que quita responsabilidad a la gente”, prosigue el profesor. “Lo utilizarán incluso las empresas. Pero ¿quién es la fuente? ¿Quién es responsable si la información que proporciona plantea problemas? No está nada claro”.

¿Teme Guerraoui que la IA sustituya a periodistas, escritores e incluso al profesorado, como se dice? Todavía no, pero cree que “algunos trabajos pueden cambiar. El profesor o el periodista se encargará de verificar y cotejar las fuentes, porque la máquina va a ofrecer un texto que parecerá verosímil y que la mayoría de las veces será cierto. Pero habrá que comprobarlo todo”.

Hay que regularlo con urgencia

“El gran desafío actual para la IA no es el rendimiento, sino la gobernanza, la regulación y la necesidad de fiabilidad”, argumenta El Mahdi El Mhamdi, antiguo estudiante de doctorado en la EPFL y en la actualidad profesor de Matemáticas y Ciencia de Datos en la Escuela Politécnica de París.

“En mi opinión, ChatGPT no solo está sobrevalorado, sino que su despliegue temprano es irresponsable y peligroso».

El Mahdi El Mhamdi, Escuela Politécnica de ParisEnd of insertion

En 2019 publicó —también junto a Lê Nguyên Hoang— Le fabuleux chantierEnlace externo – rendre l’intelligence artificielle robustement bénéfique [La fabulosa obra en construcción: hacer que la inteligencia artificial sea fuertemente beneficiosa] un libro que aborda los peligros de los llamados algoritmos de recomendación, que permiten a las redes sociales proponernos contenidos que supuestamente nos interesan en función de nuestro perfil. El Mhamdi no esperó a ChatGPT para denunciar el impacto de estos algoritmos en “el caos informativo de nuestras sociedades”.

“En mi opinión, ChatGPT no solo está sobrevalorado, sino que su despliegue temprano es irresponsable y peligroso. Cuando veo el entusiasmo sin reservas por esta herramienta, incluso entre colegas, me pregunto si vivimos en el mismo planeta”, advierte el profesor. Recuerda los escándalos de recopilación masiva de datos de Cambridge Analytica o la proliferación de programas espía —como Pegasus— que pueden instalarse secretamente en los teléfonos móviles.

El Mhamdi admite que ChatGPT puede ser una buena herramienta de trabajo, pero señala que la ciencia que ha permitido su creación “es el resultado de un cúmulo de lo que han publicado miles de investigadores en la última década, y también de colosales recursos de ingeniería, así como del trabajo muy cuestionado éticamente de pequeñas manos mal pagadas en Kenia” (ver el recuadro más abajo).

Al final, para él, “el verdadero genio de OpenAI no está en la ciencia que hay detrás de ChatGPT, sino en el marketing, delegado en un público entusiasmado con el artilugio”. Un público y unos medios de comunicación, cabría añadir, volviendo al principio de este artículo. Es cierto, todo el mundo habla de ello, pero ¿ha visto usted alguna vez un anuncio de ChatGPT?

Texto adaptado del francés por Lupe Calvo

Fuente de la información e imagen: https://www.swissinfo.ch

Fotografía: swissinfo.  Cuando se le pregunta, ChatGPT responde: “No hay límite de edad para hablar conmigo”. Aunque nadie —ni menores ni personas adultas— debe tomarse al pie de la letra todo lo que dice. Copyright 2023 The Associated Press. All Rights Reserved.

Comparte este contenido:

Autores Varios

Articulos y declaraciones suscritas por varios autores y autoras