Según un informe del Ministerio de Igualdad, menos del 25% del personal investigador en IA son mujeres. De hecho, los hombres representan un 88% de las personas que participan en el diseño y desarrollo de IA. Pero aún no existe un estudio que analice la interseccionalidad en este campo —¿cuántas mujeres gitanas trabajan diseñando algoritmos?—.
En marzo el gobierno de Aragón anunció el lanzamiento de un canal de Telegram para resolver dudas sobre el coronavirus. El canal incorporaba un chatbot, es decir, un algoritmo de inteligencia artificial (IA) programado para interactuar en una conversación. De esta manera —argumentaba el gobierno local—se liberarían líneas telefónicas de atención a la ciudadanía, colapsadas en aquel entonces por el desconocimiento y miedo generalizado del inicio de la pandemia. Escépticas, por las limitaciones que la IA realmente tiene, nos pusimos a conversar con este bot.
Paradoja de Jevons: – Tengo fiebre.
COVID19AragonBot: – Los síntomas más comunes de la COVID-19 son 🤒fiebre, cansancio y tos seca. […].
Paradoja de Jevons: – ¿Qué es la hidroxicloroquina?
COVID19AragonBot: – La verdad es que no te he entendido, intenta preguntarme por: ¿Qué hago con mi ropa cuando llego a casa? […].
Paradoja de Jevons: – Vaya, parece que el equipo desarrollador no ha tenido en cuenta una respuesta ante uno de los fármacos más polémicos de la pandemia. Sigamos. Me encuentro sola.
COVID19AragonBot: – En mi opinión, tener ratos de soledad te ayuda a crecer.
Paradoja de Jevons: – Díselo a mi vecina del cuarto, 83 años, sin ningún familiar que se pueda hacer cargo de ella y en medio de esta pandemia, la cual los medios la bombardean cada día recordándole que es presa fácil para este virus. Tiene suerte de que no sepa utilizar Telegram.
El lunes 30 de noviembre volvimos a probar la aplicación.
Paradoja de Jevons: ¿Qué es la hidroxicloroquina?
COVID19AragonBot: …
Paradoja de Jevons: Tengo fiebre.
COVID19AragonBot: …
Paradoja de Jevons: – Crónica de una muerte anunciada. Otro capítulo más en el libro de “Mitos de la inteligencia artificial”.
En los últimos años, hemos visto una gran cantidad de soluciones basadas en esta tecnología dispuestas a proclamarse salvadoras (en los casos más optimistas) o facilitadoras (en los casos más realistas) de nuestro día a día. Este efecto tecnosolucionista se ha pronunciado durante la pandemia. IAs que dicen resolver dudas a la ciudadanía, que detectan coronavirus en imágenes de rayos X, que identifican si una persona lleva puesta la mascarilla o que detectan si el personal respeta la distancia de seguridad en sus puestos de trabajo. De hecho, un reciente artículo del MIT explica cómo “la IA se ha convertido en el juguete roto de la investigación científica”. En muchos casos, tanto gobiernos como medios de comunicación se sienten atraídos por estas soluciones tecnológicas inteligentes. Pero tal y como hemos visto en el ejemplo del chatbot, la IA está lejos de cambiar radicalmente nuestras vidas.
Entonces, ¿quién ha creado este mito?, ¿debemos temer a la IA?, ¿cuál es el futuro que no vendrá?
Todo mito tiene un inicio
En 1996, la empresa lBM creó DeepBlue, un algoritmo programado para jugar ajedrez. La compañía retó a Kasparov, considerado el mejor jugador de ajedrez de la época. El primer intento salió mal, pues Kasparov venció a la máquina. No obstante, un año más tarde la máquina venció al humano. Veinte años más tarde, la compañía DeepMind, la cual fue comprada posteriormente por Google, desarrolló AlphaGo, otro algoritmo entrenado para jugar al Go. Tal y como hizo IBM con Kasparov, DeepMind invitó a Lee Sedol, considerado uno de los mejores jugadores del momento. ¿El resultado? AlphaGo venció a Sedol en cuatro de las cinco partidas. Más allá de las diferencias técnicas entre DeepBlue y AlphaGo, en ambos casos la prensa se hizo eco del hito histórico que supuso. La IA batiendo al humano a un juego inteligente. Fue así como, poco a poco, grandes corporaciones, universidades y gobiernos fueron introduciendo el concepto en sus agendas.
A pesar del progreso remarcable que la IA ha traído en ciertos aspectos, muchas organizaciones se aprovechan de la confusión general que existe sobre este concepto, vendiendo proyectos basados en esta tecnología cuando realmente son solo marketing.
Hoy en día, el mito se ha ido propagando aún más debido al proceso de datificación en el que estamos sumergidas. Uno de los talones de Aquiles de la IA es que se alimenta de datos para ser “inteligente”. Necesita datos para aprender y encontrar patrones en ellos a la vez que consume una ingente cantidad de recursos energéticos al requerir, también, de mucha potencia de cálculo. En el caso del chatbot del Gobierno de Aragón, el sistema necesita un conjunto de reglas diseñadas por la programadora para saber qué contestar al interactuar con una persona. En lenguaje de programación esto se traduce a un conjunto de condicionales, tales cómo: “Si aparece el concepto “fiebre”, entonces responde con este texto de los síntomas comunes del coronavirus”. A pesar de que los chatbots ofrecen ventajas veneradas por el dogma económico imperante (disponibilidad 24/7, reducción de mano de obra, etc.), sus desventajas son mucho más limitantes como hemos demostrado al inicio de este artículo.
Entonces, ¿son estos algoritmos tan inteligentes como se cree? ¿Es realmente la inteligencia artificial, inteligente?
¿Qué tipo de inteligencia tiene la inteligencia artificial?
La palabra “inteligencia” proviene del verbo en latín intellegere que significa comprender o percibir. No existe en la academia un consenso a la hora de definir este concepto, ni de establecer cuántos tipos de inteligencia existen. En un reciente artículo publicado por Skynet Today, varios académicos del campo definen la IA como la ciencia de crear máquinas inteligentes. Pero, si no existe una definición general de inteligencia, ¿podemos tener una definición de inteligencia artificial? La respuesta es sí, pero esta poco tiene que ver con la inteligencia humana. Por ejemplo, el grupo de expertos de la Comisión Europea la define como:
“Sistema de software (y posiblemente también hardware) diseñados por humanos que, dado un objetivo complejo, actúan en una dimensión física o digital percibiendo el entorno mediante el análisis de datos, ya sean estructurados o no estructurados, razonando sobre el conocimiento, o procesando la información, derivada de estos datos y decidir la mejor o las mejores medidas a tomar para alcanzar el objetivo fijado. Los sistemas de IA pueden utilizar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento analizando cómo el medio ambiente se ve afectado por sus acciones anteriores”.
Es decir, la IA se basa en un código informático que utiliza datos para analizarlos con técnicas puramente estadísticas y decide la mejor forma de realizar una tarea propuesta (ganar al ajedrez, detectar gatitos en imágenes, etc.). Además, también puede incluir una máquina física, ya sea en forma de robot, dron, automóvil, etc., la cual se alimenta del código y procesa sus órdenes. Una de las claves de la IA es la capacidad computacional que existe hoy en día para procesar datos. Y es esa capacidad la que hace que se hayan definido como inteligentes. En el caso del DeepBlue o AlphaGo, el código fue lo suficientemente inteligente para procesar gran cantidad de datos, realizar cálculos rápidamente y tomar el mejor movimiento en cada estado de la partida. Una tarea que al ser humano le resulta imposible. Y por ello, consideramos a lo artificial, inteligente.
Una de las claves de la IA es la capacidad computacional que existe hoy en día para procesar datos. Y es esa capacidad la que hace que se hayan definido como inteligentes.
Una de las grandes limitaciones de la IA es la generalización. Volviendo otra vez al caso del programa de ajedrez, si pusiéramos a jugar DeepBlue al Go no sabría por dónde empezar, pues las reglas del juego son totalmente diferentes. Y lo mismo si pusiéramos a jugar AlphaGo al ajedrez. De hecho, este efecto de falta de generalización también se demuestra en el Covid19AragonBot. Cuando le preguntamos qué es la hidroxicloroquina, no nos entiende y nos sugiere que le preguntemos otra pregunta la cuál seguramente formará parte de su conjunto de reglas o condicionales. Y hasta con tareas más asequibles, como distinguir un pájaro en una fotografía y encontrar un verbo en una frase. No existe aún un sistema inteligente que sea capaz de generalizar y resolver ambas tareas a la vez con gran precisión.
A pesar de lo lejos que nos encontramos de conseguir una IA generalizada, simplemente la idea teórica de que seremos capaces de construirla contribuye a su mito. No obstante, actualmente deberemos conformarnos con sistemas inteligentes que nos recomiendan la soledad para crecer en plena pandemia o confunden la cabeza de un árbitro con un balón.
El futuro que no vendrá
Pero que la IA confunda la cabeza de un árbitro con un balón no es el peor escenario distópico que se nos puede ocurrir. El problema que existe hoy en día con la IA y su mito reside en tres aspectos fundamentales: (1) el oligopolio de las big tech en el almacenamiento de datos y su consumo energético, (2) la poca diversidad que existe dentro de los equipos de investigación, y (3) la inyección de financiación en estrategias y proyectos de IA y la brecha digital.
Uno de los negocios más rentables de la última década es el almacenamiento en la nube. Este servicio consiste en ofrecer servidores que se encuentran en sitios remotos, a muy baja temperatura, para almacenar ingentes cantidades de datos. De hecho, se estima que Google, Amazon, Facebook y Microsoft almacenan un total de 1200 petabytes, es decir, algo más de 1200 millones de gigabytes. Y es que dentro de la comunidad tecnológica, pocas veces se cuestiona el consumo energético que esto supone. De hecho, se estima que el centro de datos utilizado para entrenar el algoritmo GPT-3, el famoso sistema que genera textos artificialmente, tiene un coste energético equivalente a un viaje de ida y vuelta a la Luna. Es más, se estima que su coste está entre 8,5 y 10 millones de euros. Un precio que pocas universidades públicas pueden permitirse. ¿Al servicio de quién estará la innovación en IA en los próximos años? Pero el problema no es solo la cantidad, también lo es el tipo de datos. Muchos gobiernos, y compañías privadas que ganan contratos públicos, utilizan servicios de estas big tech para almacenar sus datos. De hecho, Pedro Sánchez tuvo una reunión en 2019 con directivos de Amazon para contratar servicios de almacenamiento. Y es que Amazon tiene un departamento exclusivo para políticas públicas, en las que ofrecen no solo servicios de almacenamiento, también de inteligencia artificial y ciberseguridad. ¿Podemos entonces imaginarnos el futuro que no vendrá si estas big tech siguen haciendo su oligopolio más poderoso y hermético?
De hecho se estima que el centro de datos utilizado para entrenar el algoritmo GPT-3, el famoso sistema que genera textos artificialmente, tiene un coste energético equivalente a un viaje de ida y vuelta a la Luna.
Según un informe del Ministerio de Igualdad, menos del 25% del personal investigador en IA son mujeres. De hecho, los hombres representan un 88% de las personas que participan en el diseño y desarrollo de IA. Pero aún no existe un estudio que analice la interseccionalidad en este campo —¿cuántas mujeres gitanas trabajan diseñando algoritmos?—. Sasha Costanza-Chock muestra en su libro Design Justice un simple ejemplo del impacto que esta falta de diversidad tiene en nuestras vidas. Explica cómo las personas trans tienen mayor probabilidad de ser etiquetadas como peligrosas, al cruzar el sistema de seguridad de los aeropuertos estadounidenses. Al no tener un cuerpo normativo, el sistema detecta irregularidades, por lo que pasan a ser chequeadas por el personal de seguridad — con la consiguiente confusión que eso conlleva. Costanza-Chock argumenta que esto es debido al equipo de ingenieros que diseñaron la tecnología, el cual poco tuvieron en cuenta el colectivo trans y los cuerpos no normativos. La tecnología es política, y la mayoría de sistemas basados en IA reproducen desigualdades estructurales, pues están dominados por una mayoría masculina, blanca, cisgénero y capacitista.
Estas desigualdades, o sesgos, seguirán repitiéndose mientras se sigan omitiendo otras realidades y no se cuestione al servicio de quién están.
El gobierno de Pedro Sánchez ha anunciado esta misma semana la Estrategia Nacional de Inteligencia Artificial. En un acto retransmitido por el canal de Moncloa, el presidente anunció la inyección de 600 millones de euros, entre el periodo 2021-2023, repartidos en 6 ejes estratégicos. Durante todo el evento se dió mucho énfasis a la relación entre IA y el mundo corporativo: “España como nación emprendedora”, “emprendimiento digital”, “desarrollo de métricas de éxito que conecten universidades con el sector privado”. Y este hecho se ve reflejado en el reparto del pastel: de los 600 millones, 400 serán destinados a los ejes de investigación y tejido empresarial. Tan solo 8 millones serán destinados establecer un marco ético y normativo que refuerce derechos y libertades, el cual debería convertirse en un eje vertebral. A pesar de esta inyección de financiación, ¿cómo podemos pensar en implementar una estrategia nacional de IA, si aún tenemos que reducir la brecha digital y asentar las bases de la digitalización? Por ejemplo, el sistema de cita previa online del SEPE ha colapsado varias veces este año debido a la cantidad de personas en ERTE entrando al sistema. La página web de la Generalitat también colapsó hace unas semanas, después de anunciar la ayuda de 2000 euros para autónomos con bajos ingresos. En cuanto a la brecha digital, parte de la España vaciada sigue aún sin conexión a Internet y aún existen barrios de ciudades como Granada con cortes de luz.
A pesar de esta inyección de financiación, ¿cómo podemos pensar en implementar una estrategia nacional de IA, si aún tenemos que reducir la brecha digital y asentar las bases de la digitalización?
A puertas de empezar el nuevo año 2021, y lejos de ver el fin de esta pandemia, gobiernos, corporaciones y universidades seguirán anunciando a bombo y platillo tecnologías basadas en IA para combatir la COVID-19, y así inyectar un poco de optimismo en los ya desgastados ánimos de la población. Esto lo podemos ver claramente en el documento de la Estrategia Nacional que comentábamos anteriormente. En el Apéndice 2, el gobierno analiza el papel de la IA en esta pandemia de la siguiente forma:
“La Inteligencia Artificial está jugando un importante papel en la respuesta a la crisis. Se está aplicando para poner a punto nuevos tratamientos y vacunas, para analizar diversas versiones del genoma del virus y caracterizar la respuesta del sistema inmunitario […] Se han desarrollado múltiples apps para teléfonos inteligentes que puedan servir para minimizar el contacto humano, apoyar el autodiagnóstico y detectar exposiciones con riesgo de contacto”.
Puede que algunas de ellas lleguen a implementarse y realmente supongan un avance científico y tecnológico. De hecho, la misma empresa de AlphaGo, DeepMind, presentó recientemente un modelo basado en IA capaz de predecir la estructuras proteicas con gran precisión. Esto podría ayudar a entender mejor el comportamiento de estas moléculas y desarrollar nuevos medicamentos. No obstante, DeepMind aún no ha publicado su código, y es que pocos estudios realizados por estas empresas privadas comparten la información para que otras investigadoras puedan replicar y validar los experimentos. Además, también tendremos que poner en cuestión el consumo energético que ello supondrá, pues como en el caso del algoritmo GPT-3, el modelo fue entrenado con procesadores de alto impacto medioambiental.
No obstante, la gran mayoría de ellas se quedarán en el tintero, como el chatbot del Gobierno de Aragón, y habrán supuesto otra inyección de dinero público a fondo perdido. Para evitarlo, tenemos que empezar a construir una masa social crítica que sepa discernir entre mito y realidad. Construir equipos diversos que se nieguen a diseñar cortinas de humo, con una moralidad sólida. Democratizar la IA. Crear un cuerpo independiente que audite algoritmos. Acompañar a personas afectadas por sistemas automáticos con herramientas legales para denunciar discriminaciones y vulneraciones. Cuestionar aplicaciones que supongan un enorme gasto energético. Acortar la brecha digital. Si esto no sucede en un futuro cercano, todo habrá servido para mantenernos entretenidas, mientras la élite siga recortando en derechos e inversión pública, a la misma vez que invirtiendo en cortinas de humo tecnológicas de aire emprendedor. La IA ha venido para quedarse, y la mayoría de sus aplicaciones estarán dirigidas a servir a dichas élites, saltándose el cumplimiento de los derechos humanos y la justicia social.
Lo estamos ya viviendo con los sistemas desarrollados en fronteras europeas y en campos de refugiados. Lo hemos vivido también con el reciente despido de Timnit Gebru, referente mundial en ética y IA, Google la ha despachado por cuestionar el consumo energético y las implicaciones éticas de una de sus herramientas.
Muchas maldecirán la IA y sus algoritmos, pero pocas verán que los verdaderos responsables son los de siempre. Bienvenidas al futuro que no nos espera.
La paradoja de Jevons. Un blog sobre ciencia y poder.
Ana Valdivia – Investigadora en King’s College London (Security Flows Project)
Fuente: https://www.elsaltodiario.com/paradoja-jevons-ciencia-poder/sobre-el-mito-de-la-inteligencia-artificial-y-el-futuro-que-no-vendra