Page 1 of 2
1 2

DOS VISIONES FILOSÓFICAS SOBRE EL PROBLEMA DE LA IA EN LA POLÍTICA

La capacidad para generar vídeos y audios falsos o deepfakes con el uso de la Inteligencia Artificial ya no es una hipótesis futurista. Esto ha aterrizado a Colombia y a América Latina como un factor nuevo en las democracias.

En Colombia, los problemas para verificar la veracidad de un video del 11 de mayo en el que aparecía Iván Márquez, comandante de la Segunda Marquetalia, apoyando las reformas del presidente Petro; o la canción “Fuera Petro”, falsamente atribuida a Karol G y que habría sido creada con IA, muestran que los desafíos de la verificación y la desinformación crecerán con el ingreso de esas tecnologías.

A finales de junio, la Universidad Javeriana organizó el simposio internacional Los límites de lo humano: tecnología y ecología integraldonde se juntaron filósofos y académicos de las ciencias sociales para pensar en los retos que supone la relación de los humanos y las máquinas. Actualmente, la pregunta sobre qué es lo que produce un ser humano y lo que puede ser simulado artificialmente ha ganado una nueva urgencia política.

Dos de los panelistas del simposio hablaron para La Silla Académica sobre estas preguntas. Pablo Manolo Rodríguez, profesor de la Universidad de Buenos Aires y autor de Las palabras en las cosas. Saber, poder y subjetivación entre algoritmos y biomoléculas (2019). Y Gustavo Chirolla, profesor de la Facultad de Filosofía de la Universidad Javeriana y uno de los editores de Umbrales críticos. Aportes a la pregunta por los límites de lo humano (2023).

La Silla Académica: Pablo, su libro Las palabras en las cosas. (2019) hace uso de los conceptos de Michel Foucault para hacer una arqueología del saber cibernético desde la segunda mitad del siglo XX. ¿Por qué es relevante pensar el problema de la emergencia de la cibernética desde la filosofía?

Pablo Manolo Rodríguez: Identifico la cibernética como el puntapié inicial de una transformación general de las ciencias y las técnicas en el siglo XX. No habría computadoras sin cibernética, no habría inteligencia artificial sin cibernética, no habría biología molecular sin cibernética. Es decir, muchas de las cosas que constituyen hoy en día la gran mayoría del panorama de la ciencia y las técnicas contemporáneas tienen que ver con la cibernética.

El de cibernética es un término que tiene que ver con la centralidad de la información como una especie de nueva entidad distinta a la materia y la energía y que tiene una vocación muy tecnológica. Es decir, que busca decididamente crear aplicaciones técnicas de sus principios.

Por ejemplo, en la década de 1940 se empiezan a estudiar los mecanismos neuronales y lo primero que piensan es si se podía hacer una red de neuronas artificiales. Cuando hoy hablamos de inteligencia artificial hablamos de una aplicación de unas discusiones que se estaban teniendo desde los 40 y que, por vía de la computación, hoy regresan pero con aplicaciones prácticas muy concretas.

La filosofía de Foucault sirve a esta comprensión de la emergencia del saber cibernético porque construyó un marco teórico que tenía tres términos: saber, poder y subjetivación. Saber corresponder a los discursos del conocimiento, sobre todo a los científicos. Poder tiene que ver con las relaciones entre el poder y la política. Y subjetivación es una idea muy original de Foucault que es pensar que la relación entre saber y poder no sólo se resuelve en el marco institucional, sino también en el modo en el que nos construimos como sujetos.

En el libro lo que yo hago es inscribir la cibernética en estos conceptos foucaultianos para mostrar cómo la episteme cibernética se manifiesta en relaciones de poder. Es decir, en cambios en las condiciones de vigilancia y la manera en la que las tecnologías de la información inciden en cómo nos constituimos como sujetos. Hoy con las redes sociales tenemos una forma muy patente de dar cuenta de cómo esa relación entre saber y poder termina siendo decidida en el marco de los procesos de subjetivación. Cuando pensamos en cómo funcionan los procesos de perfilización en cualquier plataforma, claramente estos están orientando conductas. Foucault no estudió la cibernética ni el problema de la información, yo lo que hice fue aplicar sus conceptos a ese mundo.

¿Cuáles son el tipo de subjetividades que están apareciendo en las sociedades modernas producto de la cibernética, como las redes sociales o la inteligencia artificial? 

MR: Un primer tipo de subjetividad son las máquinas mismas. Una de las cosas que significó la cibernética es el proyecto de hacer máquinas con condiciones subjetivas. Aquí hay que remitirse al experimento de la máquina de Alan Turing. Lo que él propuso es que no es seguro que una máquina no piense y que, en todo caso, tendríamos que demostrar qué es pensar. A partir de eso, muchos autores cibernéticos empezaron a decir que si una computadora puede pensar, también podría percibir y que, si hace ambas, podría eventualmente sentir.

Es decir, la cibernética como proyecto propuso la idea de generar máquinas que, a diferencia de las máquinas de la revolución industrial y de cualquier otra máquina en la historia de la humanidad, intenten reproducir las condiciones subjetivas de un ser humano. Si esto lo logró o no es algo que podríamos discutir.

El segundo punto son las transformaciones de la subjetividad que no necesariamente tienen que ver con la máquina y que se podrían llamar antropológicas, en el sentido de las maneras de construir una forma de ser humano. Un ejemplo de esto es cómo ha evolucionado la distinción entre privacidad e intimidad y su relación con la publicidad. En las concepciones de sujeto liberales, como las concepciones más de izquierda e incluso marxistas, está la idea de que los sujetos en la vida social tienen una esfera íntima, una esfera privada y una esfera pública. Tengo una imagen pública, una vida en mi hogar y una esfera íntima de mi historia personal. Con las redes sociales esto ya no es tan claro.

Hoy la privacidad y la intimidad no son un bien preciado. Si se desplazan los dos primeros términos, la publicidad también se va a desplazar. Entonces, hoy en día la publicidad consiste en la exhibición de las zonas privadas e incluso íntimas de los sujetos. Es decir, dejan de ser íntimas.

El tercer punto tiene que ver con la inteligencia artificial y es dónde se unen los dos primeros ejes.

La inteligencia artificial es la proyección de lo que proponía Turing. Es decir, es inteligente si entendemos la inteligencia como procesos lógicos –que es una forma muy pobre de ver la inteligencia-. Hoy podemos decir sin problema que las infraestructuras de información y los sistemas algorítmicos hacen eso y mucho más; lo que hacen es construir patrones de conducta o de consumo.

La capacidad de reproducir condiciones subjetivas por parte de máquinas pone de presente el problema de la distinción entre lo humano y la máquina. Gustavo, usted se pregunta por esa distinción en el libro Umbrales críticos. Aportes a la pregunta por los límites de lo humano (2023). ¿Cómo empezar a abordar esa pregunta filosóficamente?

GC: Una idea de partida es no arrancar con las dicotomías entre sujeto y objeto, entre naturaleza y cultura, entre mente y cuerpo, etc. Cuando hablamos del límite de lo humano nos referimos al umbral como un lugar de tránsito. De tránsito poroso en concreto donde caben muchos procesos  de simbiosis y coexistencia. No son dos cosas distintas que de pronto se juntan, sino que como se afectan mutualmente producen algo nuevo.

Si esto tiene sentido, no es que esté por un lado el hombre y por el otro la máquina. Es pensar que no hay límites absolutos definidos entre los sujetos que se relacionan, porque esas entidades se afectan mutuamente y se constituyen en la misma afectación. Esto es, los términos no son anteriores a la relación, sino que la relación constituye a los términos. Tampoco quiere decir que los límites terminen borrándose completamente. Son porosos, pero no hay que confundir todo con todo. Hay diferencias, pero estas no son inmutables sino transitorias.

En el dominio humano, la técnica o el uso de herramientas es algo que transmitimos culturalmente y no genéticamente y que, en la medida que fuimos desarrollándolas, nos hicieron cambiar. A esto se le ha llamado antropogénesis. Nuestro cerebro evolucionó por las presiones del medio ambiente, pero también por las técnicas que inventábamos, pero el ser humano no es la única especie que tiene técnica y aprendizaje. Los animales también aprenden cosas, no todo es innato; incluso por esto se habla desde los 70 de que algunos animales tienen cultura.

Gustavo, ¿ve problemas a que se le asignen a las máquinas propiedades que normalmente eran exclusivas de los humanos, como la inteligencia o la creación?

GC: Yo prefiero pensar con los animales que con las máquinas. Antes de que apareciera la inteligencia artificial, ya le podíamos atribuir creación a otros seres de la naturaleza. Los macacos, por ejemplo, comen un alimento que viene con concha; quitar la concha era demorado y representaba un gran gasto de energía. Unos investigadores observaron que un día, por casualidad, uno de los macacos puso la concha en el agua para pelarla y resultó mucho más fácil. Este mico fue y le enseñó a los demás a hacerlo así. Entonces, aquí hubo creación porque hubo innovación de una técnica.

Yo estoy respondiendo esto hacia atrás, no hacia adelante. Si a la palabra innovación le quitas la intencionalidad –como creo que debe hacerse–, entonces puedes atribuirse a la naturaleza. Y si se puede hacer así, ¿por qué no a la inteligencia artificial? Ahora, si decides que la innovación tiene que ser intencional, solo se la puedes atribuir a los seres humanos, porque la inteligencia artificial no sabe qué hace. Es decir, no es consciente. Pero, hemos visto que no necesita ser consciente para ser inteligente. Es un tipo de tecnología que despliega una inteligencia sin conciencia.

¿De qué manera las nuevas subjetividades configuradas por los sistemas algorítmicos suponen un problema político en nuestro tiempo?

MR: Es 2024 y estas discusiones que pueden ser solamente científicas, tecnológicas o de subjetivación tienen un componente político y social mucho más importante. La escala en la que tenemos que ver el problema no es de la historia de la cibernética pura o de la inteligencia artificial, sino de entender cómo funcionan los mecanismos que emplea la inteligencia artificial en la vida social. Esto porque estamos todo el día en redes sociales y, aun si no estamos, tenemos dispositivos digitales que registran y transforman en datos todas nuestras actividades a nivel social y de investigación científica.

Hoy en día estamos cruzados por la inteligencia artificial y esta no es una máquina que esté afuera o que imite el comportamiento humano. Ese es el imaginario inicial de lo que era. Lo que es la inteligencia artificial supone es Spotify diciendo qué es lo que me gusta, lo que tengo consumir o lo que puedo consumir. Lo mismo con Netflix: me ofrece las series que “yo quiero ver”.

Pero hay ejemplos más políticos que nos vinculan con la inteligencia artificial, como confiar en sus patrones algorítmicos, como ya se ha hecho, para ver a quién se le otorga un crédito o quién tiene una opinión política peligrosa para la nación. Esto ya pasó en Estados Unidos. Tenían un sistema en la Agencia Nacional de Seguridad que asignaba niveles de nacionalidad según su presencia en redes. No es que una persona es colombiana porque nació en Colombia –que es hasta ahora como se ha resuelto el tema de la nacionalidad–, sino que se relacionaba en función de los perfiles de las redes y se asignaba un nivel de peligrosidad.

Es decir, cómo te identificamos como individuo pasa por todo un conjunto de tecnologías que son tecnologías digitales tramadas por inteligencia artificial.

Acá no hay simulación de ningún comportamiento humano individual, lo que hace la inteligencia artificial es procesar la vida social. Esto es más complicado que si una máquina piensa o no. Supone la posibilidad de orientar un proceso de opinión política, que ya ocurrió con el escándalo de Cambridge Analytica, es decir, cómo operan los algoritmos de las redes para instalar opiniones políticas, construir candidatos y armar corrientes de opinión.

¿Qué pasa si la gestión de la acción social de un Estado pasa a estar derivada de la inteligencia artificial? Ya ha habido accidentes sobre esto. De hecho, es una de las tesis que trabajamos en Tecnoceno Lab. Hace cinco años en Holanda, por ejemplo, esto pasó: le confiaron a un sistema de inteligencia artificial que determinara la ayuda social a los inmigrantes y el sistema llegó a la conclusión de que 10 mil o 15 mil personas habían defraudado al Estado de los Países Bajos y que por eso no merecían ayuda social. Aquí hay errores de sesgos en los sistemas algorítmicos, que es cuando metes un dato “neutral”, pero este dato no es neutral, sino que está atravesado por todos los prejuicios sexistas, racistas y de todo tipo que la sociedad tiene.

La solución a este problema no es de me voy al bosque y se acabó. Eso no tiene sentido. Es como si en 1880 alguien hubiera dicho: echemos para atrás la Revolución Industrial. Lo que es interesante de la infraestructura digital, a diferencia de otras infraestructuras modernas como las autopistas o los ferrocarriles, es que es más flexible y fácil de hacer transformaciones porque la estructura reticular de la red todavía existe, así esté monopolizada por Google y otras compañías. Pero es clave pensar esto porque si no van a seguir haciendo lo que están haciendo.

GC: El problema de todo esto es que la inteligencia artificial no sea un bien común. Esto es un problema social serio. La minería de datos que hacen estas organizaciones que lideran esos desarrollos tecnológicos está explotando nuestras mentes. Datifica todo y con esa información gana dinero.

Si la inteligencia artificial fuera una inteligencia colectiva y no tuviera dueños, para mí sería realmente una invención social de la inteligencia. La IA debería ser como nuestro lenguaje: colectiva y un bien común. ¿O tú le pagas a alguien para usar tus palabras? Por supuesto, esto no es posible bajo el capitalismo actual, y ese es el problema político de esas técnicas.

¿Qué se puede hacer para intervenir estos algoritmos y eliminar los sesgos o darles una capacidad de mayor discernimiento o control?

MR: Un primer plano es la regulación, es decir, un sistema algorítmico donde hay que buscar condiciones de fiabilidad, esto es, ponerlo a correr con un dataset que determine cosas y que haga un monitoreo. Este monitoreo puede ser con o sin supervisión humana.

Las estructuras algorítmicas hoy en día son tan complejas –o sea, las machine learning son tontas en comparación con lo que se puede hacer– que se puede hacer que las mismas máquinas se supervisen. Un ejemplo de esto es la moderación de contenidos en redes. Este fue un tema de hace cuatro años en el que se discutió si, por ejemplo, Twitter puede dejar que se publique lo que sea o es responsable de lo que se publica. Aunque argumentaron solo ser mediadores y no responsables, la presión hizo que pusieran moderadores de contenido. Al principio esto lo hicieron humanos, pero en este momento están medio automatizados.

Automatizar este tipo de procesos se hace incorporando criterios humanos, en este sentido es un proceso abierto y siempre se puede incorporar más. El asunto es quién está velando por el tema de los sesgos y quién se pone a pensar en si está mal diseñado el algoritmo. Este es un problema técnico que en la formulación política tradicional se ha enfrentado con la regulación. Esto es lo que está haciendo en este momento la Unión Europea y la razón por la que es la mala de la película para las corporaciones de IA: está metiendo política de privacidad, política de supervisión humana de los algoritmos, política de establecimiento de riesgo y de accidentes posibles, etc. Es decir, cuestiones para vigilar la aplicación de la IA en cada paso.

La segunda forma no viene del Estado, sino de la sociedad civil. Es la resistencia. Esto se conoce como la política de ofuscación de datos. Es que frente a la posibilidad de que una cámara te identifique con ciertos patrones o rasgos, los ocultes para que no te pueda rastrear. También está el hackeo de algoritmos.

El tercer plano, que combina un poco de los anteriores, tiene que ver con generar formas alternativas. Esto se basa en la idea de que el problema no son los datos que nosotros dejamos en las redes, sino su extracción contra de nuestra voluntad y conocimiento, y el uso que le dan las corporaciones, es decir, la política privativa. Hay algoritmos –como los de Facebook, Meta, PageRank de Google– que son abiertos, pero los que están poniendo a funcionar ahora no lo son. Aquí hay una cantidad de preguntas: qué son los datos respecto a nosotros, somos dueños de esos datos o es dueño el que los recoge, dónde están estos datos.

Hay un estudio que muestra que leer los términos y condiciones de las aplicaciones tradicionales que uno usa, que son como cinco o seis, tomo 90 mil horas. Entonces, cuando las firmamos sin leer, estamos vendiendo todo sin decir nada y sin saber mucho. Y eso es, querámoslo o no, es parte hoy nuestro ambiente.

Frente al último plano de acción de las políticas alternativas, hay gente que está hablando de cooperativismo de plataforma, es decir, de hacer plataformas de código abierto y software libre que no apunten al entrenamiento algorítmico de perfilización. Este sistema, como está dirigido por corporaciones capitalistas que quieren ganar dinero a través de los datos, lo que se llama capitalismo de plataforma, solo ve la perfilización como la única arquitectura algorítmica posible y con una preocupación muy escasa por los sesgos.

En Colombia ya empezamos a ver cómo la inteligencia artificial está empezando a crear fake news

La verificación de estos contenidos, como sucedió con un chequeo de La Silla Vacía, fue imposible con total certeza porque aún no tenemos herramientas completamente fiables para determinar si un video había sido hecho o no con IA. Esto abre todo un problema sobre con qué criterios determinar si imágenes, audios y videos son verdaderos o falsos. ¿Qué opinión le merece esa dificultad agreagada a la verificación de la información?

MR: Puede que ustedes como medio definieran el video como verdadero o falso, pero la cuestión es si para mucha gente no era falso y ya. Hasta ahora la idea de que uno podía construir un discurso falso o verdadero estaba relativamente constreñida a los medios masivos de comunicación que construían la realidad. La época de la posverdad y la fake news es un paso más allá de esto. No es que antes no hubiera deformación de la realidad, pero es muy distinto al imperio de la falsedad en el que pasamos a decir que la gente dijo cosas que nunca dijo.

Esto es un problema más político y social que tecnológico. Desde el punto de vista tecnológico, determinar que algo sea falso o verdadero es lo mismo que antes. Ahora el problema está en qué pasa si a la gente no le interesa el valor de la verdad, sino afianzar su propia creencia. Es la famosa cuestión de los filtros burbuja y de las cámaras de eco. En este sentido, el problema de las fake news es doble. El primer problema es la posibilidad de generar falsedades a gran escala en las que es difícil de discernir entre lo verdadero y lo falso y que vuelve virtualmente imposible hacer un chequeo como el que ustedes mencionan. El segundo problema, que me parece más grave, es si la gente está dispuesta a creer. El problema ahí no es técnico.

Ya no nos importa la verdad, no nos importa ninguna generación de la verdad basada en la evidencia, por lo que puedo inventar la evidencia. El desenmascaramiento deja de ser una acción suficiente porque no estás desenmascarando frente a nadie más que ante quienes seguimos creyendo en la idea de un valor de la verdad.

Lo vemos cuando en el avance de la derecha global. Yo soy de Argentina, lo vivo todos los días. Uno puede decir cualquier cosa y nada tienen consecuencias, creo que porque hay una especie de vacío sobre la noción de bien común, de que no todos los valores que pensábamos que valía la pena sostener en la Modernidad siguen existiendo. Esto, por una razón que desconozco, lo está explotando más eficientemente que otros grupos políticos, aunque la inteligencia artificial está en un momento de umbral en el que no sabemos qué cambios va a traer, pero serán enormes y sus consecuencias no pueden ser tan fácilmente instrumentalizadas por un grupo político específico.

Hay algo de esta época que me recuerda a los años 30 y 40. Hitler ascendió al poder porque tenía un Goebbels, es decir, un ministro de propaganda y los medios para distribuirla. Se ha establecido una asociación entre los medios y quién los explota primero, quién entiende primero su lógica para llevar la delantera en la iniciativa política. Estamos en el mismo momento con las redes sociales y la derecha está ganando terreno y con discursos muy parecidos. Uno puede agarrar la analítica del discurso de Milei y de Hitler y tienen muchas coincidencias.

¿Por qué en este contexto de sofisticación de la desinformación cobra relevancia la pregunta filosófica por los límites de lo humano?

GC. De entrada está el caso de Cambridge Analytica que ya se mencionó en el que con los principios básicos de lo que ahora llamamos inteligencia artificial se intervino en las elecciones presidenciales de los Estados Unidos, al dirigir mensajes a los votantes según sus preferencias electorales. Es decir, la inteligencia artificial ya ha funcionado al interior de las democracias y ha inclinado la balanza, porque muchas decisiones que nosotros tomamos dependen de la información que tenemos.

Entonces, la libertad es clave para tomar las decisiones razonadas desde la democracia, pero mi decisión puede ser motivada por una serie de inclinaciones. La decisión misma no es racional, sino que puede tener que ver con los hábitos mentales. Esto afecta la democracia desde hace años: no somos seres racionales y autónomos tomando decisiones, pero esto no significa que solamente seamos irracionales y así tengamos que tomar nuestras decisiones políticas.

Las máquinas seguirán produciendo simulaciones inteligentes de producciones humanas y otras innovaciones con diferentes objetivos políticos o comerciales. Defendiendo una supuesta excepcionalidad humana no vamos a solucionar los usos que se hagan de esas técnicas. Tampoco negando que la IA pueda ser o no inteligente o creadora. Sí es inteligente y puede crear innovaciones. Pero ese no es el problema: el problema es cómo hacemos para que esas innovaciones no sirvan para ahondar la explotación cognitiva que ya hacen en todas partes.

 

Fuente de la información e imagen:  https://www.lasillavacia.com

Fotografía: La silla vacía. Pablo Manolo Rodríguez, profesor de la Universidad de Buenos Aires, y Gustavo Chirolla, profesor de la Universidad Javeriana.

Comparte este contenido:

Entrevista a Virgine Eubanks: “Detrás de los algoritmos hay una profunda voluntad de programación social”

Por: Sandra Vicente

Virgine Eubanks describe en ‘La automatización de la desigualdad’ cómo los algoritmos no son las herramientas neutrales que nos quieren hacer creer y que, por el contrario, perpetúan un sistema asistencial injusto

Los algoritmos están entre nosotros. Dictan lo que vemos en Twitter y organizan la jornada laboral de cientos de trabajadores. Incluso deciden quién tiene derecho a qué dinero y por qué. Y es que las políticas públicas de asistencia social cada vez se basan más en las decisiones tomadas por estas herramientas digitales. Pero, a pesar de que nos digan que son objetivas, neutrales y basadas en complejas ecuaciones matemáticas, solo son una automatización de las decisiones humanas de toda la vida. Los algoritmos los diseña alguien, y ese alguien vive en el mismo sistema capitalista y desigual que todos nosotros.

Virginie Eubanks (Estados Unidos, 1972) conoce bien este sistema de ayudas públicas y la injusticia de los algoritmos. Lo vivió en primera persona cuando su marido sufrió un robo y recibió una paliza que le llevó a tener que recibir caros tratamientos médicos. Esta agresión se dio justo después de cambiar de seguro y el algoritmo que gestionaba la empresa congeló todos los pagos durante meses, dejándoles con una enorme deuda. Esta experiencia traumática con la tecnología fue el inicio de dos décadas de investigación cualitativa que se plasma en el libro La automatización de la desigualdad (Capitán Swing). El libro fue escrito justo antes de la pandemia, pero la COVID-19 no lo ha desactualizado en absoluto: “Nos ha dado una prueba más de cómo de injustas y frágiles son estas herramientas”.

Empecemos por el principio. Se nos dice que los algoritmos son objetivos, pero no lo son. ¿Por qué y quién los hace?

En el libro hablo de los algoritmos como herramientas digitales de decisión política. Muchas veces no tenemos en cuenta que lo son y por eso pensamos que son más neutrales que las decisiones humanas. Eso simplemente no es cierto, pero es una creencia que nos vamos repitiendo a nosotros mismos y que parte de la concepción de que la tecnología sale de la nada, como Venus de la concha. Es por esa creencia que empiezo el libro hablando sobre la asistencia social en Estados Unidos: hay una profunda voluntad de programación social detrás de los algoritmos. Cosas que están ahí, pero no las vemos.

Los algoritmos son como casas de la caridad digitales; simplemente son una versión moderna de las herramientas para asistir a los trabajadores pobres a cambio de controlar parte de sus derechos como el derecho a voto, a casarse, a criar… Nos encontramos con el mismo escenario de control político y social a cambio de un subsidio que había en el siglo XIX. Sé un ciudadano ejemplar y recibirás tu ayuda. El pensamiento político no ha cambiado y los algoritmos están diseñados por este mismo sistema discriminatorio. Pero el problema con los algoritmos es que se relacionan y se complementan entre sí, aumentando exponencialmente y sistematizando las consecuencias discriminatorias, haciendo que sean más difíciles de detectar y de esquivar.

Dice que somos nosotros los que nos contamos el cuento de la neutralidad tecnológica. Pero ¿nos lo contamos o nos lo cuentan las compañías y gobiernos? En el libro habla del mathwashing (lavado matemático): ¿diseñamos políticas desiguales en nombre de la objetividad?

Creo que es una combinación de ambas cosas. Hay una tendencia a negar que detrás de estas herramientas digitales hay sesgos humanos y políticos diciendo que las decisiones las toma un algoritmo, sabiendo que ese algoritmo es algo que la ciudadanía no va a entender. Y es ahí donde entra el mathwashing, que es venderle a la gente que la tecnología es algo demasiado difícil para las personas normales. Lo cual no es cierto.

¿Eso cree?

Sí creo que la gente lo cree, pero no es así. Pongo un ejemplo. En Los Ángeles tuvieron el llamado Sistema de Entrada Coordinada [una fórmula para conectar personas en riesgo de exclusión con servicios de apoyo económico y de vivienda]. Se supone que estaba formado por dos algoritmos: uno evalúa el grado de vulnerabilidad y el otro conectaba con los recursos. Pues bien, el primero de ellos era simplemente una encuesta y el segundo era un tipo sentado en una silla, haciendo trabajo manual con una pestaña de Google abierta. Pero se vendió como un sistema complicado y sofisticado para que nadie se quejara.

Es cierto que hay algunas herramientas que sí son complicadas, como aquellas que usan Inteligencia Artificial para entrenar sistemas que se enseñen a sí mismos, sin intervención humana. Pero en esos casos, lo que he encontrado en mis investigaciones es que la gente, si bien quizás no entiende cómo funcionan los algoritmos, sí saben qué impactos tienen en sus vidas. Y pueden hacer suposiciones realmente buenas sobre su funcionamiento.

¿Qué clase de suposiciones?

Otro ejemplo. El gobernador de Indiana firmó un gran contrato con IBM para automatizar los sistemas de elegibilidad de todos los programas sociales del Estado y antes de que el contrato siquiera estuviera firmado, la gente ya sabía lo que pasaría. Automatizar el proceso es una manera de no hablar del problema; la digitalización rompe la relación entre los trabajadores sociales y los usuarios para deshumanizar el proceso y hacer que sea más difícil llegar a las prestaciones. Eso decía la gente que pasaría y eso fue lo que pasó.

Ese contrato le costó un billón de dólares a Indiana y fue tan mal que el pueblo forzó al gobernador a cancelar el acuerdo. IBM demandó al Estado por incumplimiento de contrato y acabó ganando 50 millones en indemnizaciones. Tuvo un gran coste económico, pero mayor fue el coste social. 15 años después, todavía trabajan en compensar a las personas que perdieron sus prestaciones. Una de mis fuentes dentro del gobierno me dijo que si hubieran querido diseñar un sistema para denegar prestaciones sistemáticamente, no lo podrían haber hecho mejor.

¿Cree que nos faltan garantías de información sobre estas herramientas? En España tenemos la Ley Rider, que reconoce el derecho de los trabajadores de plataformas a conocer el funcionamiento de sus algoritmos, pero los usuarios y trabajadores externalizados no están contemplados. 

Creo que, más que darnos información para que la recibamos pasivamente, lo que necesitan estas herramientas es escuchar la voz de las personas que se ven afectadas por ellas. Cuando las diseñamos, nos dirigimos a programadores, oficinistas, políticos, académicos… La conversación tiende a volverse abstracta rápidamente y se plantean preguntas filosóficas sobre si los robots nos robarán el trabajo, pero no nos preguntamos cómo afectan a la vida diaria de una persona que depende de una prestación. Esta abstracción es parte del problema, porque nos impide reconocer el impacto real que tienen los algoritmos.

Reconocer el derecho de participación de la ciudadanía es una asignatura pendiente desde mucho antes de la llegada de los algoritmos. 

Supondría un gran cambio y no necesariamente funcionaría. En Estados Unidos tenemos un gran problema cultural basado en la creencia de que las personas pobres suponen una pequeña parte de la población que, además, tienen la culpa de su pobreza. Incluso muchos trabajadores pobres piensan eso y están a favor de diseñar el sistema más punitivista posible para reprimir a las personas pobres. Necesitamos combatir estas creencias y hacer ver a la gente que muchos de nosotros estamos cerca del lindar de la pobreza. Pero no es una verdad que estemos preparados para oír.

En el libro menciona la opción de establecer un juramento hipocrático entre las personas que diseñan estas herramientas. ¿Cómo funcionaría?

Precisamente he cambiado de opinión respecto a eso. Creí que los lectores del libro serían políticos y trabajadores públicos, diseñadores y técnicos, pero no lo son. Me han leído personas afectadas por el sistema. Es interesante porque, a menudo, desde el mundo editorial asumimos que las personas que solicitan prestaciones no leen. Pero no es cierto. Normalmente, cuando escribes, lo haces pensando en la audiencia que crees que tiene las soluciones y yo me equivoqué. Ya no creo que la solución esté en hacer que los ingenieros sean más simpáticos y sensibles. La tecnología son las nuevas finanzas, así que imagínate que alguien hubiera planteado en los años 80 arreglar la desigualdad económica haciendo que los agentes de bolsa fueran más simpáticos. Sonaría estúpido, ¿verdad? Pues así es ahora.

Creo que la solución está donde ha estado siempre. No se consigue nada sin protestar y miro con bastante optimismo a los movimientos sociales, las comunidades y los barrios que son capaces de cambiar políticas, como pasó en Indiana. Aquella fue una protesta a la antigua usanza, con octavillas, ocupando bancos y saliendo a la calle. Y funcionó.

Quizás haya mucha gente que crea que para combatir a la alta tecnología tienes que ser hacker. Pero no. 

No. Siempre ayuda tener un hacker a bordo, por su experiencia, pero no es la única valiosa. De hecho, creo que la experiencia de un hacker puede ser un poco limitante. Hay una ingeniera de Nueva Zelanda que estaba diseñando una herramienta que fue rechazada y fue comprada en Pittsburgh. Esta ingeniera escribió un artículo en que aseguraba que los científicos de datos acabarían por reemplazar toda la burocracia, ya que lo que hace la burocracia es recoger la información y dársela a las personas correctas en el momento correcto, pero que ese proceso a menudo fallaba. Y decía que, si los políticos fueran capaces de tener la información correcta en el momento correcto, todo el mundo estaría, por fin, de acuerdo en lo que se debe hacer.

Ella es una mujer muy inteligente, pero tremendamente estúpida en lo que concierne a la política. La información es poder y no necesariamente vamos a estar de acuerdo aunque tengamos los mismos datos, porque la política es la tarea humana y contenciosa de evaluar datos. Su opinión era criminalmente naif y simplista, como simplista son las respuestas que pueden ofrecer estas herramientas, que tienen un alcance de miras muy corto. Creo que los algoritmos tienden a encoger el problema para encajarlo en una solución ya existente y lo que necesitamos es mantener los problemas tan grandes como sean para afrontarlos como tal.

Antes ha comentado que detrás de los algoritmos hay una voluntad de programación social. Hemos hablado del papel de estas herramientas en las políticas públicas, pero ¿qué hay de las redes sociales? Hace poco conocimos los Facebook Papers. Es posible que le han preguntado esto muchas veces, pero ¿caminamos hacia un mundo como el de 1984?

¡Realmente eres la segunda persona que me lo pregunta! Facebook no es una empresa de amistades, sino una empresa de anuncios y no deberíamos sorprendernos cuando salen filtraciones como estas. La gente debería ser consciente del papel que juegan estas plataformas en el control social por parte del estado. Es posible que estemos caminando hacia un mundo como el que describió George Orwell, pero ¿lo escogemos nosotros? Es cierto que tenemos libertad para decidir compartir nuestros datos en Facebook, pero si necesitas asistencia pública, no puedes escoger pedir o no ayuda para comer.

¿Hay relación entre estas plataformas sociales y las políticas públicas?

Hay un montón de vínculos entre las decisiones que toma el sistema y el control social. Y esto no es nuevo de la economía de plataforma. La asistencia económica cada vez está más politizada y desde que es fácil relacionar nuestras vidas e identidades con nuestras necesidades sociales y económicas, el vínculo se hace más fuerte. Que el sistema de vigilancia y el de asistencia compartan información es muy preocupante; es importante mantenerlos separados aunque realmente nunca lo hayan estado. Antes, en los asilos para gente sin hogar, había personas que eran llevadas allí por la policía.

¿Llevamos ahora a la policía en el bolsillo?

En países como Estados Unidos, la pobreza está muy criminalizada y las cosas que se tienen que hacer para sobrevivir son vistas como ilegales, sobre todo para las personas sin hogar. Así que, cuando vas a pedir ayuda, admitir la realidad de tu vida supone criminalización. Son sistemas que se hablan mutuamente, lo cual tiene consecuencias muy peligrosas, sobre todo en cómo los trabajadores sociales entienden sus trabajos. Según algunos de ellos me han contado, en el pasado pensaban que acompañaban a personas a través de un trauma, pero ahora se ven como investigadores. Policializar en lugar de acompañar es peligroso y eso se ha intensificado con las herramientas digitales.

Escribió el libro antes de la pandemia. ¿Añadiría algo?

La pandemia ha puesto muy en claro los límites de estas herramientas: no hay ningún estado de EEUU en que los sistemas para el desempleo no colapsaran. La mayor lección de la pandemia es que todas esas cosas que creemos imposibles, pueden volverse reales en cualquier momento. Ahora nos toca pensar como responder al clima que se ha generado. No quiero caer en el tópico de decir que es una oportunidad política, porque sería inhumano, pero estamos ante un momento muy interesante. Soy conscientemente optimista, porque confío en el potencial de los movimientos sociales y creo que podremos afrontar lo que vendrá.

Esta iba a ser la última pregunta: ¿se consideras optimista sobre la tecnología?

No creo que ser optimista sea una característica, sino una práctica. Una de las grandes lecciones me la he llevado de las personas con las que he trabajado: a pesar de pasar por graves situaciones vitales, son optimistas y consiguen ser divertidos, generosos y dedicados a la comunidad. Frente a esto, para mí, no ser optimista es una traición. Pero no es un optimismo naíf. Mi madre me dice que no sabe cómo no me deprimo con lo que veo en mi trabajo, pero yo creo que soy muy afortunada de ver a la gente luchar y todavía creo que se pueden cambiar las cosas. Y la tecnología puede ser útil para ello.

Fuente de la información e imagen:  https://www.lamarea.com

Comparte este contenido:

Entrevista a Cathy O’Neil, matemática «La próxima revolución política será por el control de los algoritmos»

Por: Carlos del Castillo

«Solo sabemos que funcionan bien para quien los diseña, pero pueden ser tremendamente injustos para las personas objetivo», defiende la matemática Cathy O’Neil

Palabra de dios. Por mandato real. Es la economía, estúpido. La historia ofrece constantemente ejemplos de cómo las personas recurrimos al mito de la autoridad superior para revestir de una supuesta justicia objetiva nuestras decisiones. Para Cathy O’Neil, los algoritmos son el siguiente mito en esa lista.

¿Qué prejuicios tienen los robots sin prejuicios?

O’Neil, matemática doctorada en Harvard, posdoctorada en el MIT, fue una de las primeras en señalar que nuestro nuevo emperador también está desnudo. Un algoritmo (o la celebrada Inteligencia Artificial, que «no es más que un término de marketing para nombrar a los algoritmos») es tan machista, racista o discriminador como aquel que lo diseña. Mal programados, pueden llegar a ser Armas de Destrucción Matemática (Capitán Swing), como detalla en su libro sobre el peligro que representan para la democracia.

Defiende que existe una diferencia entre lo que la gente piensa que es un algoritmo y lo que realmente es un algoritmo. ¿Cuál es?

La gente piensa que un algoritmo es un método para tratar de llegar a una verdad objetiva. Hemos desarrollado una fe ciega en ellos porque pensamos que hay una autoridad científica detrás.

En realidad un algoritmo es algo tonto, básicamente un sistema de perfiles demográficos generado a partir del big data. Averigua si eres un cliente que paga o cuáles son tus posibilidades para comprar una casa en base a pistas que has ido dejando, como cuál es tu clase social, tu riqueza, tu raza o tu etnia.

¿Qué es un arma de destrucción matemática?

Es un algoritmo importante, secreto y destructivo. Injusto para los individuos que evalúa.

Normalmente son un sistema de puntuación. Si tienes una puntuación lo suficientemente elevada se te da una opción, pero si no la consigues se te deniega. Puede ser un puesto de trabajo o la admisión en la universidad, una tarjeta de crédito o una póliza de seguros. El algoritmo te asigna una puntuación de manera secreta, no puedes entenderla, no puedes plantear un recurso. Utiliza un método de decisión injusto.

Sin embargo, no solo es algo injusto para el individuo, sino que normalmente este sistema de decisión es algo destructivo también para la sociedad. Con los algoritmos estamos tratando de trascender el prejuicio humano, estamos tratando de poner en marcha una herramienta científica. Si fracasan, provocan que la sociedad entre un bucle destructivo, porque aumentan la desigualdad progresivamente.

Pero también puede ser algo más preciso. Puede ser un algoritmo para decidir quién accede a la libertad condicional racista, uno que determina qué barrios sufren una mayor presión policial en función de la presencia de minorías…

¿A quién le pedimos cuentas cuando un algoritmo es injusto?

Es una buena pregunta. La semana pasada salió a la luz que luz que Amazon tenía un algoritmo de selección de personal sexista. Cada vez que ocurre algo así, las empresas se muestran sorprendidas, toda la comunidad tecnológica se muestra sorprendida. En realidad es una reacción fingida, hay ejemplos de algoritmos discriminatorios por todas partes.

Si admitieran que los algoritmos son imperfectos y que potencialmente pueden ser racistas o sexistas, ilegales, entonces tendrían que abordar este problema para todos los algoritmos que están utilizando. Si hacen como si nadie supiera nada pueden seguir promulgando esta fe ciega en los algoritmos, que ellos en realidad no tienen, pero que saben que el resto del público tiene.

Por eso escribí el libro, para que la gente deje de estar intimidada por los modelos matemáticos. No hay que abandonar la automatización ni dejar de confiar en los algoritmos, pero sí exigir que rindan cuentas. Sobre todo cuando actúan en un campo en el que no hay una definición clara de qué es «éxito». Ese es el tipo de algoritmo que me preocupa. Quien controle el algoritmo controla la definición de éxito. Los algoritmos siempre funcionan bien para la gente que los diseña, pero no sabemos si funcionan bien para la gente objetivo de esos algoritmos. Pueden ser tremendamente injustos para ellos.

¿La próxima revolución política será por el control de los algoritmos?

En cierto sentido, sí. Creo que los algoritmos reemplazarán todos los procesos burocráticos humanos porque son más baratos, más fáciles de mantener y mucho más fáciles de controlar. Así que, sí: la cuestión sobre quién tiene el control está relacionada con quién despliega ese algoritmo. Espero que nosotros tengamos un control con rendición de cuentas sobre ellos.

Pero si nos fijamos en un lugar como China, donde hay sistemas de puntuaciones sociales que son intentos explícitos de controlar a los ciudadanos, no tengo tanta esperanza sobre que los ciudadanos chinos puedan ser los propietarios de esos algoritmos. En estos casos estamos hablando de una distopía, una sociedad de vigilancia en la que el Gobierno controla a los ciudadanos con los algoritmos, como una amenaza real. Es algo que puede pasar.

De momento el poder político no ha hecho mucho por mejorar la transparencia de los algoritmos.

Sí, es un problema real. Los políticos piensan que desde su posición tendrán en su mano controlar los algoritmos, así que no quieren renunciar a este poder, aunque sea malo para la democracia.

Es una consideración muy seria. Como digo en el libro, Obama fue adorado por la izquierda por su uso del big data para aumentar las donaciones o mejorar la segmentación de mensajes. Pero eso fue un precedente muy peligroso: en las últimas elecciones hemos visto como la campaña de Trump logró suprimir el voto de los afroamericanos gracias a esa misma segmentación de mensajes a través de los algoritmos de Facebook.

Publicó su libro en 2016. ¿Ha cambiado algo desde entonces?

Cuando escribí el libro yo no conocía a nadie preocupado por este tema. Eso sí ha cambiado. Vengo de Barcelona, donde he visto a 300 personas, mayoritariamente jóvenes, preocupadas por este tema. Es un fenómeno emergente a nivel mundial, la gente está empezando a ver el daño, el mal que hay aquí. La mayor parte de este daño algorítmico no se ve, no es visible. Que la gente sea más consciente hace que podamos esperar que haya una demanda para que los algoritmos rindan cuentas. Espero que eso ocurra.

Fuente: https://rebelion.org/la-proxima-revolucion-politica-sera-por-el-control-de-los-algoritmos/

Comparte este contenido:

La era de los algoritmos: ¿Qué son y cómo impactan nuestro día a día?

Por:

Los algoritmos están presentes en nuestro día a día pero, ¿sabemos qué son y cómo funcionan?

La era actual podría llamarse «la era de los algoritmos» porque gobiernan, para bien o para mal, gran parte del mundo. El aprendizaje automático se está convirtiendo rápidamente en parte de todo lo que nos rodea, mejorando muchos productos existentes y permitiendo que se creen nuevos productos y servicios. Es el oxígeno para la generación emergente de tecnología.

Un algoritmo es una secuencia de instrucciones para solucionar un problema de manera automática. Es finito y ejecuta las instrucciones de manera sistemática. Justo debido eso, los algoritmos se han vuelto parte clave del avance tecnológico. El algoritmo tiene una entrada de la instrucción y la salida. Y si se juntan estas instrucciones con inteligencia artificial, las máquinas adquieren la habilidad de aprender y mejorar los algoritmos.

Es una tecnología que se utiliza todos los días en diversos sectores y actividades, desde detectar enfermedades, controlar vuelos o las cuentas bancarias hasta qué publicaciones mostrar en las redes sociales. Debido a su impacto en diversas áreas de nuestras vidas es esencial preguntarse, ¿cómo funcionan? ¿Qué criterios utilizan?

Criterios de los algoritmos: entre el bien y el mal

En la era de los algoritmos, una de las preguntas más recurrentes es: ¿cómo codifican lo que está bien y lo que está mal? Para esto, se necesita influenciar la inteligencia artificial (IA). Un ejemplo es el modelo de IA de imágenes de Google, donde se entrena al algoritmo a identificar fotos. En más detalle, para que el buscador encuentre fotos de perros, por ejemplo, el algoritmo tuvo que ser expuesto a distintas imágenes para aprender de las formas y patrones que se repiten. Tras analizar suficientes, el algoritmo ya sabrá reconocer los patrones que definen lo que es un perro y podrá identificarlo en cualquier otro escenario.

Sin embargo, este proceso de aprendizaje de una inteligencia artificial puede tener resultados y aplicaciones negativas, como el caso de Amazon que utilizó algoritmos para descartar candidatos basándose en los currículums de personal que contrataron en los últimos 10 años. El problema fue que muchas de las personas contratadas fueron hombres, ya que es una industria dominada por ese género. De manera que la inteligencia artificial utilizada para este fin, observó este patrón y terminó aprendiendo que las mujeres “no son buenas candidatas”. Si bien este caso muestra cómo los algoritmos pueden incrementar los sesgos y la discriminación, también sirven para identificar estos mismos prejuicios y sesgos en la sociedad. Por ejemplo, si buscas “estudiante” en Google, los resultados de la búsqueda de imágenes muestra, en su mayoría, caras de personas blancas.

Uso de algoritmos en la evaluación del aprendizaje

La educación tampoco se salva de los algoritmos. Con la pandemia, millones de estudiantes y personal docente se tuvieron que confinar a sus hogares y continuar con las clases en línea independientemente de si tenían la infraestructura adecuada o el conocimiento adecuado para adaptarse al nuevo formato.

Entre los mayores retos de esta modalidad en línea se encuentra la evaluación, por lo que muchos recurrieron al uso de los algoritmos para solucionarlo, como fue el caso de Inglaterra. La Oficina de Regulación de Calificaciones y Exámenes en Inglaterra (Ofqual por sus siglas en inglés) creó un algoritmo para estandarizar las calificaciones para evitar que se inflaran. Esto resultó en un 39 % de estudiantes con notas más bajas, desatando protestas masivas en todo el país para que se revisara el proceso.

Y este no fue el único problema que enfrentó el país ya que tuvo un problema similar para revisar las cualificaciones de nivel avanzado en los que se basan las universidades para admitir a los estudiantes de nuevo ingreso. Estas valoraciones se realizan al final del año y definen si los alumnos entran a la universidad o no. Nuevamente el algoritmo bajó los resultados de muchos estudiantes, haciendo que algunos se quedarán sin acceso a la universidad. En ambos casos, el gobierno canceló los resultados optando por resultados basados en sus exámenes simulados y evaluaciones de maestros. También permitieron que los estudiantes presentaran sus exámenes más adelante en el año.

Lo opuesto pasó en Estados Unidos donde varios alumnos descubrieron que la inteligencia artificial de la plataforma Edgenuity tenía preferencia por ciertas palabras. Al poco tiempo, comenzaron a usar estas palabras en todas sus respuestas y la máquina asumía que cubrían todo el tema y les daba la puntuación máxima.

El problema es que un algoritmo que estandariza o asigna calificaciones no toma en cuenta muchos aspectos importantes de las habilidades de un estudiante, se enfocan más en saber si memorizaron la información, sin comprender si la entendieron o la asimilaron. Aún así, aunque hay un largo camino por recorrer para que estos algoritmos puedan evaluar efectivamente pruebas y exámenes, el uso de esta tecnología, bien enfocada, puede utilizarse en beneficio de la educación. Un ejemplo de ello es el caso de Japón.

¿Cómo usan los algoritmos y la inteligencia artificial en Japón?

La compañía IBM junto con el Consorcio para la renovación de la educación del futuro (CoREF por sus siglas en inglés), buscan transformar el sistema educativo de Japón. Ellos creen que las ciencias cognitivas y el aprendizaje activo y colaborativo mejoran drásticamente la educación.

Ambas compañías desarrollaron el método del rompecabezas constructivo del conocimiento que se trata de dividir a los alumnos en pequeños grupos y ponerlos a considerar múltiples ángulos de un tema. En lugar de tener un plan de estudios estático, el docente debe diseñar lecciones enfocadas en cada estudiante, así como monitorear y proporcionar retroalimentación sobre su actividad y colaborar con otros maestros para continuar mejorando.

Para ser capaces de monitorear efectivamente las interacciones de sus alumnos, IBM desarrolló “Watson discurso a texto” que monitorea la calidad de las pláticas de los estudiantes, mejorando la planificación y retroalimentación del método. Los maestros le enseñan a Watson palabras clave que esperan que surjan durante el ejercicio para poder evaluar qué tanto entendieron los alumnos. Además, Watson registra y transcribe las discusiones de los estudiantes, buscando palabras clave esperadas para que los docentes las revisen más adelante y poder mejorar el algoritmo de la máquina. El propósito de IBM y CoREF es fortalecer la capacidad de independencia y colaboración. Su argumento es que al utilizar algoritmos e inteligencia artificial harán que los docentes se enfoquen más en inspirar creatividad y amor al aprendizaje que memorizar datos para pasar un examen.

Japón también invirtió 227,000 dólares en una prueba piloto para mejorar las habilidades de inglés en 500 aulas. El país obliga a todos los estudiantes de primaria y entre los 12 a 15 años a aprender este idioma pero, debido a la demanda, es complicado encontrar profesores calificados para esa materia. Es por eso que el gobierno decidió integrar robots programados con algoritmos e inteligencia artificial para ayudar a verificar la pronunciación del inglés de cada alumno.

En esta época donde los avances tecnológicos aumentan de manera acelerada, los algoritmos se han convertido en la base de muchas de estas innovaciones. Aunque aún existe un gran desconocimiento en el área de tecnología entre las diferencias entre Inteligencia Artificial, Machine Learning y Deep Learning, en todas están presentes los algoritmos. Estos son los conjuntos de instrucciones que los guían para cumplir sus funciones y es lo que les ayuda a aprender.

Es por eso que se escucha tanto hablar de algoritmos, porque impactan el día a día de todas las personas. Es necesario educar a los alumnos a que comprendan qué son y cómo funcionan para que logren comprender hacia dónde se mueve la tecnología y así poder enfrentar los retos de entrar al mundo laboral rodeado de tecnología. Además, conocer en qué áreas de nuestras vidas se utilizan y sus implicaciones, es parte esencial de nuestra alfabetización digital.

Fuente e Imagen: https://observatorio.tec.mx/edu-news/la-era-de-los-algoritmos

Comparte este contenido:

Libro en youtube: 21 lecciones para el siglo XXI. Autor: Yuval Noah Harari

Reseña: «No tener smartphone es símbolo de estatus. Muchos poderosos no tienen uno. Lo nuevo es protegerse contra los ladrones que quieren retener nuestra atención». Así lo asegura el autor de «21 lecciones para el siglo XXI», que saltó a la fama con «Sapiens» y «Homo Deus», best seller del momento, con más de diez millones de copias vendidas en todo el mundo.

En su nuevo libro aparecen temas de sus obras anteriores, pero si el primer ensayo se centraba en el pasado y el segundo en el futuro, el tercero se ocupa del presente. El ser humano a punto de desaparecer , en uno o dos siglos el homo sapien desaparecerá y será remeplazadopor entidades, el fin de la evolucion tal y como la hemos conocidfo en cuatrobillones de años. Dentro de uno o dos siglos la seleccion natural serña sustiuida por el diseño inteligente, a punto de despedir el homo sapiens

El pensador israelí Yuval Noah Harari alerta en 21 lecciones para el siglo XXI (Debate) sobre la “dictadura del algoritmo” que podría avecinarse: un mundo en el que las principales decisiones políticas, económicas y sociales son tomadas por complejos cálculos de computación que ya muy pocos comprenden, socavando la libertad individual y generando una nueva masa de desheredados. “Toda la riqueza y todo el poder podrían estar concentrados en manos de una élite minúscula, mientras la mayoría de la gente sufriría no la explotación, sino algo mucho peor: la irrelevancia”.

Tras el éxito de Sapiens, conseiderado la historia o un viaje al pasado, publicó Homo Deus, un viaje a un futuro dominado por la tecnología, que también fue bastante bien recibido en las librerías. Falta por ver qué pasa con su nuevo libro, que como el mismo Harari ha explicado está inspirado en artículos suyos publicados en varios periódicos y debates que han surgido durante las conferencias que ha pronunciado y las entrevistas que ha concedido. En él aparecen temas de sus libros anteriores, pero si el primer ensayo se centraba en el pasado y el segundo en el futuro, el tercero se ocupa del presente.

Nuestros tres principales problemas son globales. Un solo país no puede arreglarlos. Hablo de la amenaza de una guerra nuclear, del cambio climático y de la disrupción tecnológica, en especial el auge de la inteligencia artificial y la bioingeniería. Por ejemplo, ¿qué podría hacer el Gobierno español contra el cambio climático? Aunque España se convirtiera en el país más sostenible y redujera sus emisiones a cero, sin la cooperación de China o Estados Unidos, no serviría de mucho. En cuanto a la tecnología, aunque la UE prohíba experimentar con los genes de una persona para diseñar superhumanos, si Corea o China lo realizan, ¿qué haces? Es probable que Europa acabara creando seres superinteligentes para no quedarse atrás. Es difícil ir en la dirección contraria.

En un mundo inundado de información irrelevante, la claridad es poder. La censura no funciona bloqueando el flujo de información, sino saturando a la gente de desinformación y distracciones. 21 lecciones para el siglo XXI atraviesa estas aguas pantanosas y afronta algunas de las cuestiones más urgentes de la agenda global.

¿Por qué está la democracia liberal en crisis? ¿Ha vuelto Dios? ¿Estamos a las puertas de una nueva guerra mundial? ¿Qué implica la victoria de Donald Trump? ¿Qué podemos hacer con la epidemia de noticias falsas? ¿Qué civilización domina el mundo: Occidente, China, el islam?  ¿Puede el nacionalismo resolver los problemas de desigualdad y el cambio climático? ¿Qué deberíamos hacer con el terrorismo? ¿Qué deberíamos enseñar a nuestros hijos?

Somos miles de millones las personas que apenas podemos permitirnos el lujo de indagar en estas cuestiones porque tenemos cosas más urgentes que hacer: ir a trabajar, cuidar de nuestros hijos u ocuparnos de nuestros padres ya ancianos. Lamentablemente, la historia no hace concesiones. Si el futuro de la humanidad se decide en nuestra ausencia, porque estamos demasiado ocupados dando de comer y vistiendo a nuestros hijos, ni los demás ni nosotros nos libraremos de las consecuencias. Esto es muy injusto, pero ¿quién dijo que la historia es justa?

Un libro no proporciona alimento ni ropa a la gente, pero sí puede ofrecer cierta claridad y de esta manera contribuir a nivelar el terreno de juego global. Si esta obra empodera aunque solo sea a un puñado de personas para que se incorporen al debate sobre el futuro de nuestra especie, habrá cumplido su cometido.

Después de que Sapiens ahondara en el pasado de la humanidad y Homo Deus considerara nuestra existencia en un futuro impulsado por el diseño inteligente, 21 lecciones para el siglo XXI se detiene para centrarse en las cuestiones más importantes de nuestro presente. ¿Qué está ocurriendo ahora mismo? ¿Cuáles son los grandes retos y opciones de nuestro presente? ¿A qué debemos prestar atención?

21 lecciones para el siglo XXI se construye sobre las ideas exploradas en los dos libros previos para tomar el pulso al actual clima global. Desenmaraña cuestiones políticas, tecnológicas, sociales y existenciales, y pone de relieve cómo impactan en nuestro día a día. Presentando de forma clara y accesible los complejos retos contemporáneos, este libro invita al lector a plantearse valores, significados y compromisos personales en un mundo lleno de ruido e incertidumbre.

Relato comunista, fascista y liberal…

¿Qué preguntas son importantes para usted?, le preguntó Cristina Galindo en ELPAIS cuando el autor promovía el nuevo libro, y Harari respondió: «El mayor problema político, legal y filosófico de nuestra época es cómo regular la propiedad de los datos. En el pasado, delimitar la propiedad de la tierra fue fácil: se ponía una valla y se escribía en un papel el nombre del dueño. Cuando surgió la industria moderna, hubo que regular la propiedad de las máquinas. Y se consiguió. Pero ¿los datos? Están en todas partes y en ninguna. Puedo tener una copia de mi historial médico, pero eso no significa que yo sea el propietario de esos datos, porque puede haber millones de copias de ellos. Necesitamos un sistema diferente. ¿Cuál? No lo sé. Otra pregunta clave es cómo conseguir una mayor cooperación internacional.

“No tener smartphone es símbolo de estatus. Muchos poderosos no tienen uno. Lo nuevo es protegerse contra los ladrones que quieren retener nuestra atención”

Previamente, Iñaki Gabilondo había entrevistado a Yuval Noah Harari, entre cuyos seguidores se encuentran Barack Obama o Mark Zuckerberg. En su siguiente libro ‘Homo deus’ pinta un negro futuro para la humanidad. Pronostica que la humanidad se dividirá entre una superélite de humanos mejorados y una masa de personas «inútiles». El mundo va a cambiar radicalmente gracias a los algoritmos, el big data y la inteligencia artificial.

Fuente: https://www.ibercampus.es/21-lecciones-para-el-siglo-xxi–38269.htm

Comparte este contenido:

¿Cuáles serán los avances de la Inteligencia Artificial dentro de 10 años?

Redacción: Distrito Digital

El término Inteligencia Artificial se acuñó en 1956. Desde entonces, más de 60 años después, los avances en este campo han sido sorprendentes.

Entre varios progresos, se han producido traductores de idiomas automáticos, algoritmos informáticos configurados para analizar cantidades desmedidas de datos y predecir comportamientos humanos o agentes virtuales que interactúan con relativa naturalidad con nosotros.

Durante este tiempo, la ciencia ha hecho avanzar a la tecnología a una velocidad superior a la imaginación. Y el motivo de tal avance es el denominado Deep Learning (aprendizaje profundo).

Esta disciplina científica ha desarrollado conceptos como el modelo predictivo (como por ejemplo la capacidad de reconocimiento facial) o el modelo generativo (la suficiencia para escribir o dibujar).

¿Qué nos espera con relación a la Inteligencia Artificial dentro de 10 años?

Muchos científicos no saben responder a esta pregunta debido a que, hace 10 años, no imaginaban los avances que ellos mismos conseguirían a día de hoy.

¿Será posible que la Inteligencia Artificial avance al punto de desarrollar, por ejemplo, la conducción autónoma?

Teniendo en cuenta los avances que se están realizando en los últimos 5 años, la respuesta sería sí.

Las investigaciones sobre los modelos predictivos (reconocimiento de patrones de texto, imagen o vídeo no estructurados) arrojan que, dentro de pocos años, una máquina será capaz de predecir los comportamientos de otros coches.

Este avance, además, abre la posibilidad a una conducción 100% segura.

La Inteligencia Artificial en medicina.

Queda claro que, del mismo modo, la IA generará enormes avances en el sector de la medicina y el diagnóstico médico.

En torno a 10 años, será viable que las máquinas analicen, con perfecta competencia, historiales médicos, concluyendo diagnósticos con un nivel de fiabilidad muy superior al de los humanos.

Una situación que trae a la memoria a Deep Blue, la primera Inteligencia Artificial capaz de superar a una mente humana en aquellas memorables partidas de ajedrez entre la supercomputadora y el campeón mundial Gary Kaspárov en 1996. Una partida que sigue jugándose entre las máquinas y los humanos, esta vez en otros tableros más sofisticados.

No obstante, esto no quiere decir que, en el futuro, la Inteligencia Artificial sustituya a los humanos en el campo de la medicina o cualquier otro. La tecnología siempre tendrá limitaciones y habrá de ser interpretada y analizada de cerca por personas.

Los algoritmos, de los que tanto estamos oyendo hablar en los últimos tiempos, serán aliados en la detección y sugerencia de tratamientos, pero nunca sustituirán a un facultativo.

¿Más humanos que los humanos?

La imprescindible película de culto “Blade Runner”, enunciaba de este modo la reflexión sobre el futuro de la IA. ¿Llegarán las máquinas a ser más humanas que sus propios creadores? Un debate que trasciende a los mitos clásicos y que, hoy, comienza a dejar de ser una quimera.

En la actualidad ya interactuamos con las máquinas de un modo prácticamente natural: los chatbots, Alexa o los asistentes virtuales, son algunos ejemplos; pero ¿llegarán a poder desarrollar las máquinas una capacidad superior en sus relaciones con nosotros?

Muchos científicos creen que, dentro de una década, estaremos cerca de que las máquinas puedan desarrollar una comunicación fluida y coherente, basada en el procesamiento del lenguaje, pero sin llegar a razonar o concluir por sí mismas conceptos complejos propios de los humanos como la empatía, el amor o la creatividad.

La Inteligencia Artificial en la educación.

Otro campo que avanzará sustancialmente en los siguientes 10 años será la educación. Y lo hará, naturalmente, de la mano de la IA.

Desde hace algunos años se están realizando experimentos utilizando la IA para adaptar los currículums de los alumnos a cada niño. Es decir, personalizar la educación.

A día de hoy, uno de los mayores retos del sistema educativo es el del ritmo de aprendizaje de los niños. Un problema que puede encontrar solución en los diagnósticos de aprendizaje personalizados que la IA podrá desarrollar en los alumnos dentro de un tiempo.

Por otro lado, además, se podrán diagnosticar dificultades o discapacidades como la dislexia a una edad muy temprana para garantizar un tratamiento adecuado y personalizado.

¿Habrá guerra contra las máquinas en el futuro?

Pese a que la ciencia ficción no ofrece otra alternativa, parece que la guerra contra los Terminators no aparece en un escenario real de futuro.

Muy al contrario, las máquinas aprenderán a manejar, a través de los algoritmos, un comportamiento sesgado como el de los humanos. Lo que significa que no participarán de conceptos absolutos que puedan magnificar hasta el punto de “tomarse la justicia por su mano”.

De hecho, la IA:

  • Creará más trabajos de los que destruirá.
  • Ayudará a los humanos en un buen número de servicios a la sociedad.
  • Posibilitará un mundo más justo y con más posibilidades para la gente con menos recursos.

En conclusión, en los próximos 10 años, la Inteligencia Artificial ayudará a conseguir todo aquello que, a día de hoy, consideramos un reto complejo; pero lo hará siempre bajo el control y la supervisión humana.

Fuente: https://distritodigital.biz/inteligencia-artificial-avances/

Comparte este contenido:

Paolo Zellini: “No todo puede ser resuelto con algoritmos”

Redacción: El Cultural

El autor de la celebrada “Breve historia del infinito”, analiza el alcance actual de los números en “La matemática de los dioses y los algoritmos de los hombres”

Profesor de Análisis Numérico de la Universidad de Roma Tor Vergata, Paolo Zellini (Trieste, 1946) no consigue, pese a su prestigio como matemático, estructurar su jornada diaria con horarios preestablecidos. Sólo la enseñanza hace que en su día a día brote la precisión. Su mente siempre está trabajando, aun cuando parece que descansa. «Cuando dormimos –dice- también pensamos». Tras el éxito de su Breve historia del infinito nos vuelve a sorprender con La matemática de los dioses y los algoritmos de los hombres (Siruela), una monumental síntesis científica y humanística en la que nos desvela la identidad, el concepto y la historia de los números, desde la tradición grecolatina, védica y mesopotámica hasta las teorías actuales más avanzadas, incluidas las que analizan el algoritmo que nos encadena.

P. ¿Es la era digital la lógica evolución de la historia de las matemáticas?

R. En cierta manera, sí. La era digital es la evolución de una ciencia del cálculo que a su vez es la realización del principio teórico, difundido entre los científicos de finales del siglo XIX, de que toda la matemática se puede reconducir a la noción básica de número entero. Ahora este principio se ha convertido en un desafío en el plano de la computación real, porque el cálculo digital efectivamente lo reduce todo a operaciones entre cadenas de unos y ceros.

Pregunta. Se habla mucho de la belleza de las matemáticas. ¿Qué ecuación o fórmula le ha seducido especialmente?

Respuesta. Es cierto, se habla mucho de la belleza de las matemáticas, quizás demasiado, haciendo referencia principalmente a la perfección de las teorías, a la atracción que ejercen ciertas construcciones o figuras que sacuden nuestra imaginación. Pero la belleza se encuentra sobre todo en la relación entre aquello que podemos imaginar y construir y lo que no comprendemos. Es precisamente cuando elaboramos las teorías más claras y cristalinas cuando somos conscientes de no saber. Este carácter enigmático y secreto de los números nos atrae más que cualquier otra cosa.

Respondiendo a su pregunta, me siento atraído sobre todo por aquellas fórmulas que deciden qué cosas podemos resolver y qué otras se sustraen inevitablemente a nuestro conocimiento. Me atraen los casos extremos en los que se dibuja con precisión lo que realmente podemos saber y lo que debemos ignorar. Existen teorías extraordinarias, como las elaboradas por John von Neumann o Alan Turing hacia la mitad del siglo pasado, que logran establecer límites superiores al error en el caso de computaciones a gran escala, cuando las operaciones digitales necesarias para resolver un problema son millones o miles de millones. Lo finito, cuando es muy grande, presenta problemas análogos a lo infinito.

P. ¿De qué  forma puede conectarse la vida y los números?

R. Para poder vincular vida y números haría falta ante todo leer a Platón. En sus Diálogosencontramos consideraciones sobre el placer y el dolor que utilizan el mismo lenguaje con el que la matemática griega afronta el cálculo de las relaciones y las proporciones. Se puede hacer una observación parecida en la Ética a Nicómaco de Aristóteles, obra en la que la perfección moral asume el significado de un vértice casi inalcanzable, abordable sólo aproximadamente, por exceso o por defecto, algo análogo a cuando redondeamos un número  irracional con una sucesión de números racionales. En tiempos más recientes encontramos intuiciones increíbles sobre el significado de las matemáticas griegas en las obras de Simone Weil.

Encontramos también vinculaciones entre vida y números, de manera más problemática, en las obras de Robert Musil, especialmente en El hombre sin atributos, donde se explica toda la ambigüedad del impacto del conocimiento matemático, más o menos especializado, en nuestras vidas. Eminentes científicos del siglo XX también sabían muy bien que el hombre debe enfrentarse de una manera u otra a las matemáticas. A principios del siglo XX el holandés Luitzen Egbertus Jan Brouwer explicaba que las matemáticas tenían que ser refundadas como un pensamiento esencialmente ligado a nuestra conciencia. En el mismo periodo, Pavel Florenskij, profundo teólogo, filósofo y matemático, encontraba extraordinarios nexos simbólicos entre las teorías del infinito matemático y nuestra vida. Para Norbert Wiener, padre de la cibernética moderna, existían vínculos precisos entre la ciencia más abstracta y los actos de nuestra vida cotidiana.

P. ¿Está nuestra existencia vinculada a los números? ¿Cómo se integran dentro del universo?

R. Los números están por todas partes y a menudo los usamos sin saberlo. Cuando apretamos la tecla de un ordenador o activamos un motor de búsqueda en la red, deberíamos saber qué potentes algoritmos se ponen en funcionamiento para responder a nuestras preguntas. Sin embargo, por lo general ignoramos la estructura y el grado de fiabilidad de estos algoritmos y delegamos nuestras decisiones a un mecanismo que permanece oculto incluso para los programadores más expertos, porque no podemos seguir al detalle los miles de millones de operaciones digitales de los que consta un proceso de cálculo.

P. ¿Qué momento de la historia fue crucial para las matemáticas?

R. Han sido varios. En la Antigüedad fue fundamental el descubrimiento de la magnitud inconmensurable. Por ejemplo, no existe una sola línea, por pequeña que sea, que mida bien el lado o bien la diagonal de un cuadrado. En las matemáticas modernas las relaciones entre magnitudes inconmensurables se han convertido en números (irracionales), símbolos con los que calculamos y construimos los modelos matemáticos del mundo natural y artificial. Estos símbolos son entidades finitas con las que es posible representar el infinito. La introducción explícita del infinito en los cálculos ha sido otro momento crucial, iniciado en el siglo XVII y culminado a finales del siglo XIX, cuando se pensó que toda la  matemática se podía fundar en operaciones elementales de la mente, como reagrupar objetos diversos en un solo conjunto, finito o infinito.

En el siglo XX, ha sido el descubrimiento de que dicho acto de fundación es imposible. Al mismo tiempo, nacen los algoritmos, que parecen ofrecernos una certeza y una seguridad al abrigo de las antinomias que afectan a los conjuntos infinitos. Ahora, el punto decisivo está en el descubrimiento de que no todo puede ser resuelto mediante los algoritmos, es decir, no todo puede ser automatizado.

P. ¿Qué tipo de matemática consideraría más elevada?

R. Ciertamente, no las matemáticas más abstractas. Creo que el recorrido matemático va de lo concreto a lo abstracto y viceversa, de lo abstracto a lo concreto. La matemática más elevada puede ser, de manera indiferente, el análisis o la teoría de los números, la geometría o la estadística, pero debe evidenciar de alguna manera este doble recorrido. Se puede sostener que las matemáticas son muchas, pero también es cierto que la matemática es una sola, y que es «elevada» cuando consigue resolver de manera elegante problemas insólitos y difíciles.

P. ¿Qué científico ha abierto más puertas al conocimiento humano? ¿qué lugar ocuparía Newton en ese ránking?

R. En la Antigüedad diría que Arquímedes, en la época moderna no sabría elegir, pero los primeros nombres que me vienen a la mente son Bolzano, Hilbert, Einstein, Gödel, Turing y  Von Neumann. Las listas me dan siempre apuro, aunque sin duda Newton estaría en los primerísimos puestos. A él le debemos, junto con Leibniz, el nacimiento del cálculo infinitesimal en el siglo XVII y el primer intento de definir la noción matemática del límite. Algunos algoritmos ideados por Newton (cuyos antecedentes se remontan sin embargo a los árabes y a los babilonios) son todavía una piedra angular de la ciencia del cálculo y de todo el pensamiento matemático en sentido amplio.

P. ¿Qué piensa de la conexión esotérica de las matemáticas?

R. Las matemáticas son una ciencia positiva, en principio accesible a todos, y sus teoremas son publicados en revistas que todos pueden leer. Las demostraciones de estos teoremas son procesos objetivos y repetibles, no experiencias meramente privadas y subjetivas. Sin embargo, también es cierto que, en la historia, los primeros problemas matemáticos han sido formulados o inspirados por los dioses. Esto es evidente tanto en la tradición griega como en la védica, y quizás vale también para las tradiciones egipcias y mesopotámicas.

P. ¿Diría que es una ciencia «divina»?

R. Hacia finales del siglo XIX Richard Dedekin decía que los matemáticos son de raza divina y tienen el poder de crear… Por otra parte, el propio Von Neumann, a quien debemos en buena parte la concepción y la creación  del ordenador digital moderno, parecía sostener que las matemáticas, la más útil de todas las ciencias, es también una ciencia divina. Pero el hecho decisivo es que las matemáticas, como se ha dicho muchas veces, es la ciencia del infinito y como tal desarrolla la tarea de representar de alguna manera, con instrumentos finitos. Lo invisible y lo indecible.

Fuente: https://elcultural.com/paolo-zellini-no-todo-puede-ser-resuelto-con-algoritmos

Comparte este contenido:
Page 1 of 2
1 2