Por: Camilo Andrés Garzón y Eloísa Fagua Lozano
La capacidad para generar vídeos y audios falsos o deepfakes con el uso de la Inteligencia Artificial ya no es una hipótesis futurista. Esto ha aterrizado a Colombia y a América Latina como un factor nuevo en las democracias.
En Colombia, los problemas para verificar la veracidad de un video del 11 de mayo en el que aparecía Iván Márquez, comandante de la Segunda Marquetalia, apoyando las reformas del presidente Petro; o la canción “Fuera Petro”, falsamente atribuida a Karol G y que habría sido creada con IA, muestran que los desafíos de la verificación y la desinformación crecerán con el ingreso de esas tecnologías.
A finales de junio, la Universidad Javeriana organizó el simposio internacional Los límites de lo humano: tecnología y ecología integral, donde se juntaron filósofos y académicos de las ciencias sociales para pensar en los retos que supone la relación de los humanos y las máquinas. Actualmente, la pregunta sobre qué es lo que produce un ser humano y lo que puede ser simulado artificialmente ha ganado una nueva urgencia política.
Dos de los panelistas del simposio hablaron para La Silla Académica sobre estas preguntas. Pablo Manolo Rodríguez, profesor de la Universidad de Buenos Aires y autor de Las palabras en las cosas. Saber, poder y subjetivación entre algoritmos y biomoléculas (2019). Y Gustavo Chirolla, profesor de la Facultad de Filosofía de la Universidad Javeriana y uno de los editores de Umbrales críticos. Aportes a la pregunta por los límites de lo humano (2023).
La Silla Académica: Pablo, su libro Las palabras en las cosas. (2019) hace uso de los conceptos de Michel Foucault para hacer una arqueología del saber cibernético desde la segunda mitad del siglo XX. ¿Por qué es relevante pensar el problema de la emergencia de la cibernética desde la filosofía?
Pablo Manolo Rodríguez: Identifico la cibernética como el puntapié inicial de una transformación general de las ciencias y las técnicas en el siglo XX. No habría computadoras sin cibernética, no habría inteligencia artificial sin cibernética, no habría biología molecular sin cibernética. Es decir, muchas de las cosas que constituyen hoy en día la gran mayoría del panorama de la ciencia y las técnicas contemporáneas tienen que ver con la cibernética.
El de cibernética es un término que tiene que ver con la centralidad de la información como una especie de nueva entidad distinta a la materia y la energía y que tiene una vocación muy tecnológica. Es decir, que busca decididamente crear aplicaciones técnicas de sus principios.
Por ejemplo, en la década de 1940 se empiezan a estudiar los mecanismos neuronales y lo primero que piensan es si se podía hacer una red de neuronas artificiales. Cuando hoy hablamos de inteligencia artificial hablamos de una aplicación de unas discusiones que se estaban teniendo desde los 40 y que, por vía de la computación, hoy regresan pero con aplicaciones prácticas muy concretas.
La filosofía de Foucault sirve a esta comprensión de la emergencia del saber cibernético porque construyó un marco teórico que tenía tres términos: saber, poder y subjetivación. Saber corresponder a los discursos del conocimiento, sobre todo a los científicos. Poder tiene que ver con las relaciones entre el poder y la política. Y subjetivación es una idea muy original de Foucault que es pensar que la relación entre saber y poder no sólo se resuelve en el marco institucional, sino también en el modo en el que nos construimos como sujetos.
En el libro lo que yo hago es inscribir la cibernética en estos conceptos foucaultianos para mostrar cómo la episteme cibernética se manifiesta en relaciones de poder. Es decir, en cambios en las condiciones de vigilancia y la manera en la que las tecnologías de la información inciden en cómo nos constituimos como sujetos. Hoy con las redes sociales tenemos una forma muy patente de dar cuenta de cómo esa relación entre saber y poder termina siendo decidida en el marco de los procesos de subjetivación. Cuando pensamos en cómo funcionan los procesos de perfilización en cualquier plataforma, claramente estos están orientando conductas. Foucault no estudió la cibernética ni el problema de la información, yo lo que hice fue aplicar sus conceptos a ese mundo.
¿Cuáles son el tipo de subjetividades que están apareciendo en las sociedades modernas producto de la cibernética, como las redes sociales o la inteligencia artificial?
MR: Un primer tipo de subjetividad son las máquinas mismas. Una de las cosas que significó la cibernética es el proyecto de hacer máquinas con condiciones subjetivas. Aquí hay que remitirse al experimento de la máquina de Alan Turing. Lo que él propuso es que no es seguro que una máquina no piense y que, en todo caso, tendríamos que demostrar qué es pensar. A partir de eso, muchos autores cibernéticos empezaron a decir que si una computadora puede pensar, también podría percibir y que, si hace ambas, podría eventualmente sentir.
Es decir, la cibernética como proyecto propuso la idea de generar máquinas que, a diferencia de las máquinas de la revolución industrial y de cualquier otra máquina en la historia de la humanidad, intenten reproducir las condiciones subjetivas de un ser humano. Si esto lo logró o no es algo que podríamos discutir.
El segundo punto son las transformaciones de la subjetividad que no necesariamente tienen que ver con la máquina y que se podrían llamar antropológicas, en el sentido de las maneras de construir una forma de ser humano. Un ejemplo de esto es cómo ha evolucionado la distinción entre privacidad e intimidad y su relación con la publicidad. En las concepciones de sujeto liberales, como las concepciones más de izquierda e incluso marxistas, está la idea de que los sujetos en la vida social tienen una esfera íntima, una esfera privada y una esfera pública. Tengo una imagen pública, una vida en mi hogar y una esfera íntima de mi historia personal. Con las redes sociales esto ya no es tan claro.
Hoy la privacidad y la intimidad no son un bien preciado. Si se desplazan los dos primeros términos, la publicidad también se va a desplazar. Entonces, hoy en día la publicidad consiste en la exhibición de las zonas privadas e incluso íntimas de los sujetos. Es decir, dejan de ser íntimas.
El tercer punto tiene que ver con la inteligencia artificial y es dónde se unen los dos primeros ejes.
La inteligencia artificial es la proyección de lo que proponía Turing. Es decir, es inteligente si entendemos la inteligencia como procesos lógicos –que es una forma muy pobre de ver la inteligencia-. Hoy podemos decir sin problema que las infraestructuras de información y los sistemas algorítmicos hacen eso y mucho más; lo que hacen es construir patrones de conducta o de consumo.
La capacidad de reproducir condiciones subjetivas por parte de máquinas pone de presente el problema de la distinción entre lo humano y la máquina. Gustavo, usted se pregunta por esa distinción en el libro Umbrales críticos. Aportes a la pregunta por los límites de lo humano (2023). ¿Cómo empezar a abordar esa pregunta filosóficamente?
GC: Una idea de partida es no arrancar con las dicotomías entre sujeto y objeto, entre naturaleza y cultura, entre mente y cuerpo, etc. Cuando hablamos del límite de lo humano nos referimos al umbral como un lugar de tránsito. De tránsito poroso en concreto donde caben muchos procesos de simbiosis y coexistencia. No son dos cosas distintas que de pronto se juntan, sino que como se afectan mutualmente producen algo nuevo.
Si esto tiene sentido, no es que esté por un lado el hombre y por el otro la máquina. Es pensar que no hay límites absolutos definidos entre los sujetos que se relacionan, porque esas entidades se afectan mutuamente y se constituyen en la misma afectación. Esto es, los términos no son anteriores a la relación, sino que la relación constituye a los términos. Tampoco quiere decir que los límites terminen borrándose completamente. Son porosos, pero no hay que confundir todo con todo. Hay diferencias, pero estas no son inmutables sino transitorias.
En el dominio humano, la técnica o el uso de herramientas es algo que transmitimos culturalmente y no genéticamente y que, en la medida que fuimos desarrollándolas, nos hicieron cambiar. A esto se le ha llamado antropogénesis. Nuestro cerebro evolucionó por las presiones del medio ambiente, pero también por las técnicas que inventábamos, pero el ser humano no es la única especie que tiene técnica y aprendizaje. Los animales también aprenden cosas, no todo es innato; incluso por esto se habla desde los 70 de que algunos animales tienen cultura.
Gustavo, ¿ve problemas a que se le asignen a las máquinas propiedades que normalmente eran exclusivas de los humanos, como la inteligencia o la creación?
GC: Yo prefiero pensar con los animales que con las máquinas. Antes de que apareciera la inteligencia artificial, ya le podíamos atribuir creación a otros seres de la naturaleza. Los macacos, por ejemplo, comen un alimento que viene con concha; quitar la concha era demorado y representaba un gran gasto de energía. Unos investigadores observaron que un día, por casualidad, uno de los macacos puso la concha en el agua para pelarla y resultó mucho más fácil. Este mico fue y le enseñó a los demás a hacerlo así. Entonces, aquí hubo creación porque hubo innovación de una técnica.
Yo estoy respondiendo esto hacia atrás, no hacia adelante. Si a la palabra innovación le quitas la intencionalidad –como creo que debe hacerse–, entonces puedes atribuirse a la naturaleza. Y si se puede hacer así, ¿por qué no a la inteligencia artificial? Ahora, si decides que la innovación tiene que ser intencional, solo se la puedes atribuir a los seres humanos, porque la inteligencia artificial no sabe qué hace. Es decir, no es consciente. Pero, hemos visto que no necesita ser consciente para ser inteligente. Es un tipo de tecnología que despliega una inteligencia sin conciencia.
¿De qué manera las nuevas subjetividades configuradas por los sistemas algorítmicos suponen un problema político en nuestro tiempo?
MR: Es 2024 y estas discusiones que pueden ser solamente científicas, tecnológicas o de subjetivación tienen un componente político y social mucho más importante. La escala en la que tenemos que ver el problema no es de la historia de la cibernética pura o de la inteligencia artificial, sino de entender cómo funcionan los mecanismos que emplea la inteligencia artificial en la vida social. Esto porque estamos todo el día en redes sociales y, aun si no estamos, tenemos dispositivos digitales que registran y transforman en datos todas nuestras actividades a nivel social y de investigación científica.
Hoy en día estamos cruzados por la inteligencia artificial y esta no es una máquina que esté afuera o que imite el comportamiento humano. Ese es el imaginario inicial de lo que era. Lo que es la inteligencia artificial supone es Spotify diciendo qué es lo que me gusta, lo que tengo consumir o lo que puedo consumir. Lo mismo con Netflix: me ofrece las series que “yo quiero ver”.
Pero hay ejemplos más políticos que nos vinculan con la inteligencia artificial, como confiar en sus patrones algorítmicos, como ya se ha hecho, para ver a quién se le otorga un crédito o quién tiene una opinión política peligrosa para la nación. Esto ya pasó en Estados Unidos. Tenían un sistema en la Agencia Nacional de Seguridad que asignaba niveles de nacionalidad según su presencia en redes. No es que una persona es colombiana porque nació en Colombia –que es hasta ahora como se ha resuelto el tema de la nacionalidad–, sino que se relacionaba en función de los perfiles de las redes y se asignaba un nivel de peligrosidad.
Es decir, cómo te identificamos como individuo pasa por todo un conjunto de tecnologías que son tecnologías digitales tramadas por inteligencia artificial.
Acá no hay simulación de ningún comportamiento humano individual, lo que hace la inteligencia artificial es procesar la vida social. Esto es más complicado que si una máquina piensa o no. Supone la posibilidad de orientar un proceso de opinión política, que ya ocurrió con el escándalo de Cambridge Analytica, es decir, cómo operan los algoritmos de las redes para instalar opiniones políticas, construir candidatos y armar corrientes de opinión.
¿Qué pasa si la gestión de la acción social de un Estado pasa a estar derivada de la inteligencia artificial? Ya ha habido accidentes sobre esto. De hecho, es una de las tesis que trabajamos en Tecnoceno Lab. Hace cinco años en Holanda, por ejemplo, esto pasó: le confiaron a un sistema de inteligencia artificial que determinara la ayuda social a los inmigrantes y el sistema llegó a la conclusión de que 10 mil o 15 mil personas habían defraudado al Estado de los Países Bajos y que por eso no merecían ayuda social. Aquí hay errores de sesgos en los sistemas algorítmicos, que es cuando metes un dato “neutral”, pero este dato no es neutral, sino que está atravesado por todos los prejuicios sexistas, racistas y de todo tipo que la sociedad tiene.
La solución a este problema no es de me voy al bosque y se acabó. Eso no tiene sentido. Es como si en 1880 alguien hubiera dicho: echemos para atrás la Revolución Industrial. Lo que es interesante de la infraestructura digital, a diferencia de otras infraestructuras modernas como las autopistas o los ferrocarriles, es que es más flexible y fácil de hacer transformaciones porque la estructura reticular de la red todavía existe, así esté monopolizada por Google y otras compañías. Pero es clave pensar esto porque si no van a seguir haciendo lo que están haciendo.
GC: El problema de todo esto es que la inteligencia artificial no sea un bien común. Esto es un problema social serio. La minería de datos que hacen estas organizaciones que lideran esos desarrollos tecnológicos está explotando nuestras mentes. Datifica todo y con esa información gana dinero.
Si la inteligencia artificial fuera una inteligencia colectiva y no tuviera dueños, para mí sería realmente una invención social de la inteligencia. La IA debería ser como nuestro lenguaje: colectiva y un bien común. ¿O tú le pagas a alguien para usar tus palabras? Por supuesto, esto no es posible bajo el capitalismo actual, y ese es el problema político de esas técnicas.
¿Qué se puede hacer para intervenir estos algoritmos y eliminar los sesgos o darles una capacidad de mayor discernimiento o control?
MR: Un primer plano es la regulación, es decir, un sistema algorítmico donde hay que buscar condiciones de fiabilidad, esto es, ponerlo a correr con un dataset que determine cosas y que haga un monitoreo. Este monitoreo puede ser con o sin supervisión humana.
Las estructuras algorítmicas hoy en día son tan complejas –o sea, las machine learning son tontas en comparación con lo que se puede hacer– que se puede hacer que las mismas máquinas se supervisen. Un ejemplo de esto es la moderación de contenidos en redes. Este fue un tema de hace cuatro años en el que se discutió si, por ejemplo, Twitter puede dejar que se publique lo que sea o es responsable de lo que se publica. Aunque argumentaron solo ser mediadores y no responsables, la presión hizo que pusieran moderadores de contenido. Al principio esto lo hicieron humanos, pero en este momento están medio automatizados.
Automatizar este tipo de procesos se hace incorporando criterios humanos, en este sentido es un proceso abierto y siempre se puede incorporar más. El asunto es quién está velando por el tema de los sesgos y quién se pone a pensar en si está mal diseñado el algoritmo. Este es un problema técnico que en la formulación política tradicional se ha enfrentado con la regulación. Esto es lo que está haciendo en este momento la Unión Europea y la razón por la que es la mala de la película para las corporaciones de IA: está metiendo política de privacidad, política de supervisión humana de los algoritmos, política de establecimiento de riesgo y de accidentes posibles, etc. Es decir, cuestiones para vigilar la aplicación de la IA en cada paso.
La segunda forma no viene del Estado, sino de la sociedad civil. Es la resistencia. Esto se conoce como la política de ofuscación de datos. Es que frente a la posibilidad de que una cámara te identifique con ciertos patrones o rasgos, los ocultes para que no te pueda rastrear. También está el hackeo de algoritmos.
El tercer plano, que combina un poco de los anteriores, tiene que ver con generar formas alternativas. Esto se basa en la idea de que el problema no son los datos que nosotros dejamos en las redes, sino su extracción contra de nuestra voluntad y conocimiento, y el uso que le dan las corporaciones, es decir, la política privativa. Hay algoritmos –como los de Facebook, Meta, PageRank de Google– que son abiertos, pero los que están poniendo a funcionar ahora no lo son. Aquí hay una cantidad de preguntas: qué son los datos respecto a nosotros, somos dueños de esos datos o es dueño el que los recoge, dónde están estos datos.
Hay un estudio que muestra que leer los términos y condiciones de las aplicaciones tradicionales que uno usa, que son como cinco o seis, tomo 90 mil horas. Entonces, cuando las firmamos sin leer, estamos vendiendo todo sin decir nada y sin saber mucho. Y eso es, querámoslo o no, es parte hoy nuestro ambiente.
Frente al último plano de acción de las políticas alternativas, hay gente que está hablando de cooperativismo de plataforma, es decir, de hacer plataformas de código abierto y software libre que no apunten al entrenamiento algorítmico de perfilización. Este sistema, como está dirigido por corporaciones capitalistas que quieren ganar dinero a través de los datos, lo que se llama capitalismo de plataforma, solo ve la perfilización como la única arquitectura algorítmica posible y con una preocupación muy escasa por los sesgos.
En Colombia ya empezamos a ver cómo la inteligencia artificial está empezando a crear fake news.
La verificación de estos contenidos, como sucedió con un chequeo de La Silla Vacía, fue imposible con total certeza porque aún no tenemos herramientas completamente fiables para determinar si un video había sido hecho o no con IA. Esto abre todo un problema sobre con qué criterios determinar si imágenes, audios y videos son verdaderos o falsos. ¿Qué opinión le merece esa dificultad agreagada a la verificación de la información?
MR: Puede que ustedes como medio definieran el video como verdadero o falso, pero la cuestión es si para mucha gente no era falso y ya. Hasta ahora la idea de que uno podía construir un discurso falso o verdadero estaba relativamente constreñida a los medios masivos de comunicación que construían la realidad. La época de la posverdad y la fake news es un paso más allá de esto. No es que antes no hubiera deformación de la realidad, pero es muy distinto al imperio de la falsedad en el que pasamos a decir que la gente dijo cosas que nunca dijo.
Esto es un problema más político y social que tecnológico. Desde el punto de vista tecnológico, determinar que algo sea falso o verdadero es lo mismo que antes. Ahora el problema está en qué pasa si a la gente no le interesa el valor de la verdad, sino afianzar su propia creencia. Es la famosa cuestión de los filtros burbuja y de las cámaras de eco. En este sentido, el problema de las fake news es doble. El primer problema es la posibilidad de generar falsedades a gran escala en las que es difícil de discernir entre lo verdadero y lo falso y que vuelve virtualmente imposible hacer un chequeo como el que ustedes mencionan. El segundo problema, que me parece más grave, es si la gente está dispuesta a creer. El problema ahí no es técnico.
Ya no nos importa la verdad, no nos importa ninguna generación de la verdad basada en la evidencia, por lo que puedo inventar la evidencia. El desenmascaramiento deja de ser una acción suficiente porque no estás desenmascarando frente a nadie más que ante quienes seguimos creyendo en la idea de un valor de la verdad.
Lo vemos cuando en el avance de la derecha global. Yo soy de Argentina, lo vivo todos los días. Uno puede decir cualquier cosa y nada tienen consecuencias, creo que porque hay una especie de vacío sobre la noción de bien común, de que no todos los valores que pensábamos que valía la pena sostener en la Modernidad siguen existiendo. Esto, por una razón que desconozco, lo está explotando más eficientemente que otros grupos políticos, aunque la inteligencia artificial está en un momento de umbral en el que no sabemos qué cambios va a traer, pero serán enormes y sus consecuencias no pueden ser tan fácilmente instrumentalizadas por un grupo político específico.
Hay algo de esta época que me recuerda a los años 30 y 40. Hitler ascendió al poder porque tenía un Goebbels, es decir, un ministro de propaganda y los medios para distribuirla. Se ha establecido una asociación entre los medios y quién los explota primero, quién entiende primero su lógica para llevar la delantera en la iniciativa política. Estamos en el mismo momento con las redes sociales y la derecha está ganando terreno y con discursos muy parecidos. Uno puede agarrar la analítica del discurso de Milei y de Hitler y tienen muchas coincidencias.
¿Por qué en este contexto de sofisticación de la desinformación cobra relevancia la pregunta filosófica por los límites de lo humano?
GC. De entrada está el caso de Cambridge Analytica que ya se mencionó en el que con los principios básicos de lo que ahora llamamos inteligencia artificial se intervino en las elecciones presidenciales de los Estados Unidos, al dirigir mensajes a los votantes según sus preferencias electorales. Es decir, la inteligencia artificial ya ha funcionado al interior de las democracias y ha inclinado la balanza, porque muchas decisiones que nosotros tomamos dependen de la información que tenemos.
Entonces, la libertad es clave para tomar las decisiones razonadas desde la democracia, pero mi decisión puede ser motivada por una serie de inclinaciones. La decisión misma no es racional, sino que puede tener que ver con los hábitos mentales. Esto afecta la democracia desde hace años: no somos seres racionales y autónomos tomando decisiones, pero esto no significa que solamente seamos irracionales y así tengamos que tomar nuestras decisiones políticas.
Las máquinas seguirán produciendo simulaciones inteligentes de producciones humanas y otras innovaciones con diferentes objetivos políticos o comerciales. Defendiendo una supuesta excepcionalidad humana no vamos a solucionar los usos que se hagan de esas técnicas. Tampoco negando que la IA pueda ser o no inteligente o creadora. Sí es inteligente y puede crear innovaciones. Pero ese no es el problema: el problema es cómo hacemos para que esas innovaciones no sirvan para ahondar la explotación cognitiva que ya hacen en todas partes.
Fuente de la información e imagen: https://www.lasillavacia.com
Fotografía: La silla vacía. Pablo Manolo Rodríguez, profesor de la Universidad de Buenos Aires, y Gustavo Chirolla, profesor de la Universidad Javeriana.