Sobre el mito de la inteligencia artificial y el futuro que no vendrá

Fuentes: La paradoja de Jevons [Un dibujo del siglo XIII de una grúa de tracción humana].

Según un informe del Ministerio de Igualdad, menos del 25% del personal investigador en IA son mujeres. De hecho, los hombres representan un 88% de las personas que participan en el diseño y desarrollo de IA. Pero aún no existe un estudio que analice la interseccionalidad en este campo —¿cuántas mujeres gitanas trabajan diseñando algoritmos?—.

En marzo el gobierno de Aragón anunció el lanzamiento de un canal de Telegram para resolver dudas sobre el coronavirus. El canal incorporaba un chatbot, es decir, un algoritmo de inteligencia artificial (IA) programado para interactuar en una conversación. De esta manera —argumentaba el gobierno local—se liberarían líneas telefónicas de atención a la ciudadanía, colapsadas en aquel entonces por el desconocimiento y miedo generalizado del inicio de la pandemia. Escépticas, por las limitaciones que la IA realmente tiene, nos pusimos a conversar con este bot.

Paradoja de Jevons: – Tengo fiebre.

COVID19AragonBot: – Los síntomas más comunes de la COVID-19 son 🤒fiebre, cansancio y tos seca. […].

Paradoja de Jevons: – ¿Qué es la hidroxicloroquina?

COVID19AragonBot: – La verdad es que no te he entendido, intenta preguntarme por: ¿Qué hago con mi ropa cuando llego a casa? […].

Paradoja de Jevons: – Vaya, parece que el equipo desarrollador no ha tenido en cuenta una respuesta ante uno de los fármacos más polémicos de la pandemia. Sigamos. Me encuentro sola.

COVID19AragonBot: – En mi opinión, tener ratos de soledad te ayuda a crecer.

Paradoja de Jevons: – Díselo a mi vecina del cuarto, 83 años, sin ningún familiar que se pueda hacer cargo de ella y en medio de esta pandemia, la cual los medios la bombardean cada día recordándole que es presa fácil para este virus.  Tiene suerte de que no sepa utilizar Telegram.

El lunes 30 de noviembre volvimos a probar la aplicación.

Paradoja de Jevons: ¿Qué es la hidroxicloroquina?

COVID19AragonBot: …

Paradoja de Jevons: Tengo fiebre.

COVID19AragonBot: …

Paradoja de Jevons: – Crónica de una muerte anunciada. Otro capítulo más en el libro de “Mitos de la inteligencia artificial”.

En los últimos años, hemos visto una gran cantidad de soluciones basadas en esta tecnología dispuestas a proclamarse salvadoras (en los casos más optimistas) o facilitadoras (en los casos más realistas) de nuestro día a día. Este efecto tecnosolucionista se ha pronunciado durante la pandemia. IAs que dicen resolver dudas a la ciudadanía, que detectan coronavirus en imágenes de rayos X, que identifican si una persona lleva puesta la mascarilla o que detectan si el personal respeta la distancia de seguridad en sus puestos de trabajo. De hecho, un reciente artículo del MIT explica cómo “la IA se ha convertido en el juguete roto de la investigación científica”. En muchos casos, tanto gobiernos como medios de comunicación se sienten atraídos por estas soluciones tecnológicas inteligentes. Pero tal y como hemos visto en el ejemplo del chatbot, la IA está lejos de cambiar radicalmente nuestras vidas.

Entonces, ¿quién ha creado este mito?, ¿debemos temer a la IA?, ¿cuál es el futuro que no vendrá?

Todo mito tiene un inicio

En 1996, la empresa lBM creó DeepBlue, un algoritmo programado para jugar ajedrez. La compañía retó a Kasparov, considerado el mejor jugador de ajedrez de la época. El primer intento salió mal, pues Kasparov venció a la máquina. No obstante, un año más tarde la máquina venció al humano. Veinte años más tarde, la compañía DeepMind, la cual fue comprada posteriormente por Google, desarrolló AlphaGo, otro algoritmo entrenado para jugar al Go. Tal y como hizo IBM con Kasparov, DeepMind invitó a Lee Sedol, considerado uno de los mejores jugadores del momento. ¿El resultado? AlphaGo venció a Sedol en cuatro de las cinco partidas. Más allá de las diferencias técnicas entre DeepBlue y AlphaGo, en ambos casos la prensa se hizo eco del hito histórico que supuso. La IA batiendo al humano a un juego inteligente. Fue así como, poco a poco, grandes corporaciones, universidades y gobiernos fueron introduciendo el concepto en sus agendas.

A pesar del progreso remarcable que la IA ha traído en ciertos aspectos, muchas organizaciones se aprovechan de la confusión general que existe sobre este concepto, vendiendo proyectos basados en esta tecnología cuando realmente son solo marketing.

Hoy en día, el mito se ha ido propagando aún más debido al proceso de datificación en el que estamos sumergidas. Uno de los talones de Aquiles de la IA es que se alimenta de datos para ser “inteligente”. Necesita datos para aprender y encontrar patrones en ellos a la vez que consume una ingente cantidad de recursos energéticos al requerir, también, de mucha potencia de cálculo. En el caso del chatbot del Gobierno de Aragón, el sistema necesita un conjunto de reglas diseñadas por la programadora para saber qué contestar al interactuar con una persona. En lenguaje de programación esto se traduce a un conjunto de condicionales, tales cómo: “Si aparece el concepto “fiebre”, entonces responde con este texto de los síntomas comunes del coronavirus”. A pesar de que los chatbots ofrecen ventajas veneradas por el dogma económico imperante (disponibilidad 24/7, reducción de mano de obra, etc.), sus desventajas son mucho más limitantes como hemos demostrado al inicio de este artículo.

Entonces, ¿son estos algoritmos tan inteligentes como se cree? ¿Es realmente la inteligencia artificial, inteligente?

¿Qué tipo de inteligencia tiene la inteligencia artificial?

La palabra “inteligencia” proviene del verbo en latín intellegere que significa comprender o percibir. No existe en la academia un consenso a la hora de definir este concepto, ni de establecer cuántos tipos de inteligencia existen. En un reciente artículo publicado por Skynet Today, varios académicos del campo definen la IA como la ciencia de crear máquinas inteligentes. Pero, si no existe una definición general de inteligencia, ¿podemos tener una definición de inteligencia artificial? La respuesta es sí, pero esta poco tiene que ver con la inteligencia humana. Por ejemplo, el grupo de expertos de la Comisión Europea la define como:

“Sistema de software (y posiblemente también hardware) diseñados por humanos que, dado un objetivo complejo, actúan en una dimensión física o digital percibiendo el entorno mediante el análisis de datos, ya sean estructurados o no estructurados, razonando sobre el conocimiento, o procesando la información, derivada de estos datos y decidir la mejor o las mejores medidas a tomar para alcanzar el objetivo fijado. Los sistemas de IA pueden utilizar reglas simbólicas o aprender un modelo numérico, y también pueden adaptar su comportamiento analizando cómo el medio ambiente se ve afectado por sus acciones anteriores”.

Es decir, la IA se basa en un código informático que utiliza datos para analizarlos con técnicas puramente estadísticas y decide la mejor forma de realizar una tarea propuesta (ganar al ajedrez, detectar gatitos en imágenes, etc.). Además, también puede incluir una máquina física, ya sea en forma de robot, dron, automóvil, etc., la cual se alimenta del código y procesa sus órdenes. Una de las claves de la IA es la capacidad computacional que existe hoy en día para procesar datos. Y es esa capacidad la que hace que se hayan definido como inteligentes. En el caso del DeepBlue o AlphaGo, el código fue lo suficientemente inteligente para procesar gran cantidad de datos, realizar cálculos rápidamente y tomar el mejor movimiento en cada estado de la partida. Una tarea que al ser humano le resulta imposible. Y por ello, consideramos a lo artificial, inteligente.

Una de las claves de la IA es la capacidad computacional que existe hoy en día para procesar datos. Y es esa capacidad la que hace que se hayan definido como inteligentes.

Una de las grandes limitaciones de la IA es la generalización. Volviendo otra vez al caso del programa de ajedrez, si pusiéramos a jugar DeepBlue al Go no sabría por dónde empezar, pues las reglas del juego son totalmente diferentes. Y lo mismo si pusiéramos a jugar AlphaGo al ajedrez. De hecho, este efecto de falta de generalización también se demuestra en el Covid19AragonBot. Cuando le preguntamos qué es la hidroxicloroquina, no nos entiende y nos sugiere que le preguntemos otra pregunta la cuál seguramente formará parte de su conjunto de reglas o condicionales. Y hasta con tareas más asequibles, como distinguir un pájaro en una fotografía y encontrar un verbo en una frase. No existe aún un sistema inteligente que sea capaz de generalizar y resolver ambas tareas a la vez con gran precisión.

A pesar de lo lejos que nos encontramos de conseguir una IA generalizada, simplemente la idea teórica de que seremos capaces de construirla contribuye a su mito. No obstante, actualmente deberemos conformarnos con sistemas inteligentes que nos recomiendan la soledad para crecer en plena pandemia o confunden la cabeza de un árbitro con un balón.

El futuro que no vendrá

Pero que la IA confunda la cabeza de un árbitro con un balón no es el peor escenario distópico que se nos puede ocurrir. El problema que existe hoy en día con la IA y su mito reside en tres aspectos fundamentales: (1) el oligopolio de las big tech en el almacenamiento de datos y su consumo energético, (2) la poca diversidad que existe dentro de los equipos de investigación, y (3) la inyección de financiación en estrategias y proyectos de IA y la brecha digital.

Uno de los negocios más rentables de la última década es el almacenamiento en la nube. Este servicio consiste en ofrecer servidores que se encuentran en sitios remotos, a muy baja temperatura, para almacenar ingentes cantidades de datos. De hecho, se estima que Google, Amazon, Facebook y Microsoft almacenan un total de 1200 petabytes, es decir, algo más de 1200 millones de gigabytes. Y es que dentro de la comunidad tecnológica, pocas veces se cuestiona el consumo energético que esto supone. De hecho, se estima que el centro de datos utilizado para entrenar el algoritmo GPT-3, el famoso sistema que genera textos artificialmente, tiene un coste energético equivalente a un viaje de ida y vuelta a la Luna. Es más, se estima que su coste está entre 8,5 y 10 millones de euros. Un precio que pocas universidades públicas pueden permitirse. ¿Al servicio de quién estará la innovación en IA en los próximos años? Pero el problema no es solo la cantidad, también lo es el tipo de datos. Muchos gobiernos, y compañías privadas que ganan contratos públicos, utilizan servicios de estas big tech para almacenar sus datos. De hecho, Pedro Sánchez tuvo una reunión en 2019 con directivos de Amazon para contratar servicios de almacenamiento. Y es que Amazon tiene un departamento exclusivo para políticas públicas, en las que ofrecen no solo servicios de almacenamiento, también de inteligencia artificial y ciberseguridad. ¿Podemos entonces imaginarnos el futuro que no vendrá si estas big tech siguen haciendo su oligopolio más poderoso y hermético?

De hecho se estima que el centro de datos utilizado para entrenar el algoritmo GPT-3, el famoso sistema que genera textos artificialmente, tiene un coste energético equivalente a un viaje de ida y vuelta a la Luna.

Según un informe del Ministerio de Igualdad, menos del 25% del personal investigador en IA son mujeres. De hecho, los hombres representan un 88% de las personas que participan en el diseño y desarrollo de IA. Pero aún no existe un estudio que analice la interseccionalidad en este campo —¿cuántas mujeres gitanas trabajan diseñando algoritmos?—. Sasha Costanza-Chock muestra en su libro Design Justice un simple ejemplo del impacto que esta falta de diversidad tiene en nuestras vidas. Explica cómo las personas trans tienen mayor probabilidad de ser etiquetadas como peligrosas, al cruzar el sistema de seguridad de los aeropuertos estadounidenses. Al no tener un cuerpo normativo, el sistema detecta irregularidades, por lo que pasan a ser chequeadas por el personal de seguridad — con la consiguiente confusión que eso conlleva. Costanza-Chock argumenta que esto es debido al equipo de ingenieros que diseñaron la tecnología, el cual poco tuvieron en cuenta el colectivo trans y los cuerpos no normativos. La tecnología es política, y la mayoría de sistemas basados en IA reproducen desigualdades estructurales, pues están dominados por una mayoría masculina, blanca, cisgénero y capacitista.

Estas desigualdades, o sesgos, seguirán repitiéndose mientras se sigan omitiendo otras realidades y no se cuestione al servicio de quién están.

El gobierno de Pedro Sánchez ha anunciado esta misma semana la Estrategia Nacional de Inteligencia Artificial. En un acto retransmitido por el canal de Moncloa, el presidente anunció la inyección de 600 millones de euros, entre el periodo 2021-2023, repartidos en 6 ejes estratégicos. Durante todo el evento se dió mucho énfasis a la relación entre IA y el mundo corporativo: “España como nación emprendedora”, “emprendimiento digital”, “desarrollo de métricas de éxito que conecten universidades con el sector privado”. Y este hecho se ve reflejado en el reparto del pastel: de los 600 millones, 400 serán destinados a los ejes de investigación y tejido empresarial. Tan solo 8 millones serán destinados establecer un marco ético y normativo que refuerce derechos y libertades, el cual debería convertirse en un eje vertebral. A pesar de esta inyección de financiación, ¿cómo podemos pensar en implementar una estrategia nacional de IA, si aún tenemos que reducir la brecha digital y asentar las bases de la digitalización? Por ejemplo, el sistema de cita previa online del SEPE ha colapsado varias veces este año debido a la cantidad de personas en ERTE entrando al sistema. La página web de la Generalitat también colapsó hace unas semanas, después de anunciar la ayuda de 2000 euros para autónomos con bajos ingresos. En cuanto a la brecha digital, parte de la España vaciada sigue aún sin conexión a Internet y aún existen barrios de ciudades como Granada con cortes de luz.

A pesar de esta inyección de financiación, ¿cómo podemos pensar en implementar una estrategia nacional de IA, si aún tenemos que reducir la brecha digital y asentar las bases de la digitalización?

A puertas de empezar el nuevo año 2021, y lejos de ver el fin de esta pandemia, gobiernos, corporaciones y universidades seguirán anunciando a bombo y platillo tecnologías basadas en IA para combatir la COVID-19, y así inyectar un poco de optimismo en los ya desgastados ánimos de la población. Esto lo podemos ver claramente en el documento de la Estrategia Nacional que comentábamos anteriormente. En el Apéndice 2, el gobierno analiza el papel de la IA en esta pandemia de la siguiente forma:

La Inteligencia Artificial está jugando un importante papel en la respuesta a la crisis. Se está aplicando para poner a punto nuevos tratamientos y vacunas, para analizar diversas versiones del genoma del virus y caracterizar la respuesta del sistema inmunitario […] Se han desarrollado múltiples apps para teléfonos inteligentes que puedan servir para minimizar el contacto humano, apoyar el autodiagnóstico y detectar exposiciones con riesgo de contacto”.

Puede que algunas de ellas lleguen a implementarse y realmente supongan un avance científico y tecnológico. De hecho, la misma empresa de AlphaGo, DeepMind, presentó recientemente un modelo basado en IA capaz de predecir la estructuras proteicas con gran precisión. Esto podría ayudar a entender mejor el comportamiento de estas moléculas y desarrollar nuevos medicamentos. No obstante, DeepMind aún no ha publicado su código, y es que pocos estudios realizados por estas empresas privadas comparten la información para que otras investigadoras puedan replicar y validar los experimentos. Además, también tendremos que poner en cuestión el consumo energético que ello supondrá, pues como en el caso del algoritmo GPT-3, el modelo fue entrenado con procesadores de alto impacto medioambiental.

No obstante, la gran mayoría de ellas se quedarán en el tintero, como el chatbot del Gobierno de Aragón, y habrán supuesto otra inyección de dinero público a fondo perdido. Para evitarlo, tenemos que empezar a construir una masa social crítica que sepa discernir entre mito y realidad. Construir equipos diversos que se nieguen a diseñar cortinas de humo, con una moralidad sólida. Democratizar la IA. Crear un cuerpo independiente que audite algoritmos. Acompañar a personas afectadas por sistemas automáticos con herramientas legales para denunciar discriminaciones y vulneraciones. Cuestionar aplicaciones que supongan un enorme gasto energético. Acortar la brecha digital. Si esto no sucede en un futuro cercano, todo habrá servido para mantenernos entretenidas, mientras la élite siga recortando en derechos e inversión pública, a la misma vez que invirtiendo en cortinas de humo tecnológicas de aire emprendedor. La IA ha venido para quedarse, y la mayoría de sus aplicaciones estarán dirigidas a servir a dichas élites, saltándose el cumplimiento de los derechos humanos y la justicia social.

Lo estamos ya viviendo con los sistemas desarrollados en fronteras europeas y en campos de refugiados. Lo hemos vivido también con el reciente despido de Timnit Gebru, referente mundial en ética y IA, Google la ha despachado por cuestionar el consumo energético y las implicaciones éticas de una de sus herramientas.

Muchas maldecirán la IA y sus algoritmos, pero pocas verán que los verdaderos responsables son los de siempre. Bienvenidas al futuro que no nos espera.

La paradoja de Jevons. Un blog sobre ciencia y poder.
Ana Valdivia – Investigadora en King’s College London (Security Flows Project)

Fuente: https://www.elsaltodiario.com/paradoja-jevons-ciencia-poder/sobre-el-mito-de-la-inteligencia-artificial-y-el-futuro-que-no-vendra

Comparte este contenido:

Interseccionalidades y márgenes. Revista Lübo. 7 N°1 | Febrero 2020

Revista Lübo. 7 N°1 | Febrero 2020

Contenido:

Nota de la ilustradoraViolett VivasEditorialSonia Alimi

Entrevista a Catherine Walsh Kathryn Orcasita Benitez

Del cuerpo a la Juntanza Andrea Prado Blanco

Racisme systémique au QuébecLaurent Francis Ngoumou

Participación política de mujeres disidentes sexuales en Bucaramanga Dayana Sepulveda & Alejandra Mesa

The Citizenship Amendment Act (CAA):The Struggle for India’s Soul Devika Misra & Catherine Viens

Parler de froid Étienne Levac

¿Te gusta tu color de piel? Pensarnos la raza para el próximo 8 de Marzo Yira Miranda Montero

Politique de l’emploi au TogoKossi Adandjesso & Patrick Hervé Goma-Maniongui

Décoloniser les savoirs pour une solidarité Nord/SudMaïka Sondarjee

Descargar: https://fundacionluvo.files.wordpress.com/2020/03/revista-lucc88vo-7.1_febrero2020.pdf

Comparte este contenido:

Manual para evitar ‘tecnologías machistas’

Eapaña/07 de Abril de 2018/Por. Pablo Romero/Público

La tecnología es un mundo mayoritariamente masculino, algo que genera sesgos preocupantes en campos como la inteligencia artificial, el ‘machine learning’ o el ‘big data’. Para acabar con ello se necesitan, obviamente, mujeres.

Inteligencias artificiales machistas y racistas, productos que no tienen en cuentarealidades para cualquier mujer, denuncias contra la ‘testosterona digital‘. El mundo se mueve ya sobre una capa digital creada, sobre todo, por hombres. En el sector tecnológico faltan ellas -sólo una de cada cinco personas que trabajan en las TIC en Europa son féminas- y supone un problema que reconoce hasta el propio Gobierno. Para evitar el sesgo machista que padece la esfera digital, todo un reflejo de nuestra sociedad, sólo hay un camino: atraer a más mujeres.

Partamos de una premisa: la tecnología en sí no es machista. El problema es de dónde aprende la tecnología. “Estamos hablando todo el rato de inteligencia artificial, de ‘machine learning’, de ‘deep learning’, de ‘big data’ y todos estos términos de moda, y el problema es la mayor parte del funcionamiento de toda esta tecnología se extrae de grandes colecciones de datos que generamos los usuarios”, comenta Lorena Fernández, ingeniera informática y directora de Identidad Digital de la Universidad de Deusto, en una conversación telefónica con Público.

“El problema es que estamos en una sociedad sesgada, todos y todas tenemos un montón de estereotipos en la cabeza, y la tecnología lo que hace es acrecentar esos sesgos ya que está procesando grandes cantidades de esa información que generamos”, añade Fernández.

Sin embargo, esta experta no cree que los algoritmos sean neutros, aunque  a menudo esa falta de neutralidad no es intencionada. Ella no cree que existan algoritmos intencionadamente machistas, sino que en muchas ocasiones no se ha tenido en cuenta ese posible sesgo en su elaboración, dado que el mundo tecnológico es, mayoritariamente, un mundo de hombres. “No sólo hay sesgos machistas, sino racistas, religiosos… la interseccionalidad, es decir, cómo te apartan en base a algunos conceptos como el género o la raza, en la tecnología es brutal”, afirma esta experta.

Más mujeres, por favor

Faltan mujeres en tecnología, y en general falta diversidad en los equipos humanos que trabajan en este sector. Para Fernández, la principal consecuencia de ello es que cuando surge un problema no se piensan en soluciones desde todas las perspectivas. “Por ejemplo, hace unos años hubo un proyecto europeo que consistía en un programa de reconocimiento de voz, pero la persona de la Comisión Europea que tenía que validarlo era una mujer y con su voz no funcionaba; había sido desarrollado por un equipo masculino que no había tenido en cuenta esa posibilidad, no se había probado”.

Los sesgos machistas en tecnología no son inmediatamente detectables

Además, los sesgos –machistas, racistas o de cualquier otro tipo- en tecnología son “sutiles”no son inmediatamente detectables. Es decir, la brecha salarial o los problemas para ascender socialmente son aspectos inmediatamente reconocibles (techos de cristal que, a menudo, se podrían llamar de cemento), pero el hecho de que un algoritmo tenga un sesgo machista no lo es tanto.

Por ejemplo, en un experimento de 2015 se mostró cómo un anuncio de un puesto de trabajo muy bien retribuido era mucho más visible para hombres que para mujeres en internet, algo que pone en cuestión la neutralidad de los anuncios segmentados en la red. Que la mayoría de las mujeres no pudieran ver ese anuncio por el simple hecho de ser mujeres ya estaba condicionando un posible ascenso social, un porvenir mejor.

¿Por qué hay tan pocas?

Hay una larga serie de factores por los que faltan mujeres profesionales en los campos científicos y tecnológicos. Por un lado, existe una enorme cantidad de estereotipos en el imaginario social. Existen algunos estudios significativos al respecto, como por ejemplo el programa “dibuja a una persona científica” de la Northwestern University (EEUU). En él se puede comprobar cómo durante las décadas de 1960 y 1970 el 99,4% de los niños dibujaron a un científico masculino;  esa proporción cayó a un promedio de 72% en los dibujos realizados entre 1985 y 2016.

El problema también tiene que ver con la educación formal e informal de las niñas. Por un lado, Fernández, -que es además mentora de InspiraSTEAM, un proyecto que busca el fomento de la vocación científico tecnológica entre las niñas- identifica un problema de confianza en ellas, en parte por “los mensajes que reciben de su entorno son del tipo ‘no seas mandona’ frente a las ‘dotes de liberazgo’ de un niño, o bien ‘qué guapa eres’ frente a ‘qué listo eres’, o ‘eres muy trabajadora’ frente a ‘eres brillante’”.

Imagen de Wiki Women Editors Project. | Chenspec (CC)

Imagen de Wiki Women Editors Project. | Chenspec (CC)

Por otro lado, existe un contexto social, como muestra un reciente estudio publicado en Science que analiza datos PISA y constata cómo en los países con mayor desigualdad social hay menos niñas que niños con alto nivel en matemáticas.

Además, las mujeres tienen que esquivar un importante factor familiar. “A veces es el entorno más cercano quien se preocupa por que quizá terminen en un campo hostil, por el mero hecho de ser la única en clase o en el puesto de trabajo”, comenta Fernández. Esta ingeniera informática confiesa que ella misma empezó trabajando, como administradora de sistemas, en una empresa en la que el armario de los servidores estaba en el baño masculino porque a nadie se le había ocurrido antes que esto fuera a ser un problema.

Una carrera de obstáculos

La lista de impedimentos que tienen que sortear las féminas para desarrollar su carrera científico tecnológica sigue y es casi interminable: desde los juguetes y su función como asignadores de roles –es interesante la labor de GoldieBlox, una compañía de juguetes y contenidos orientados a futuras ingenieras- hasta ya de adultas con asuntos como la conciliación laboral y familiar, los ya mencionados ‘techos de cristal’, los sesgos a la hora de reclutar candidatos o candidatas a un puesto laboral o de responsabilidad, o simplemente la falta de referentes para las niñas: “No puedes imaginar ser lo que no ves”, comenta Fernández.

Por esa razón, ella misma ha reunido un directorio de mujeres tecnólogas que han hecho historia, una interesante lista que sigue creciendo, y que sirve como referencia y como merecido homenaje.

“Aunque no tenga una ideología premeditada detrás, la tecnología tiene derivadas sociales y produce cambios; si la tecnología es construida desde perspectivas más diversas, creo que va a ser más rica”, apunta Fernández, y sostiene que “aunque no se trata sólo de una cuestión de género, es básico que no desperdiciemos la creatividad del 50% de la sociedad que se está quedando fuera del diseño y de cómo pensamos la tecnología”.

Un caso concreto: la ciberseguridad

¿Por qué no hay más mujeres trabajando en ciberseguridad, por ejemplo, cuando las féminas son las principales víctimas de fraudes y robos de identidad en la red? Esto se lo ha preguntado recientemente la socióloga e investigadora estadounidense Winifred Poster en un editorial en Nature.

Sólo el 11% de todas las personas dedicadas a la ciberseguridad son mujeres

En su texto, Poster pone de manifiesto el hecho de que en todo el mundo sólo el 11% de las personas dedicadas profesionalmente a la ciberseguridad son mujeres (PDF), y reivindica un mayor reconocimiento de la aportación histórica de las mujeres a la ciberseguridad, sin paternalismos y admitiendo que, en este campo, ellas suelen estar más preparadas que ellos en campos más diversos.

“Tenemos que pelar en todos los sectores para abordar estos problemas desde un mayor número de puntos de vista”, comenta Fernández, que añade: “La ciberseguridad, junto con la robótica y la inteligencia artificial, es una de esas ramas que van a ser claves a nivel mundial, se van a tener que realizar grandes inversiones en personas que desarrollen esa tecnología, y si de nuevo caemos en el error de hacer estos desarrollos desde una sola perspectiva habrá problemas que no se aborden”.

Fuente: http://www.publico.es/sociedad/cibersociedad-manual-evitar-tecnologias-machistas.html

Comparte este contenido: