Tabitha Goldstaub: La inteligencia artificial nos vende productos machistas y racistas sin que nadie se dé cuenta

El núcleo central de la inteligencia artificial (IA) se compone de un proceso de dos fases: primero se le asigna un objetivo y después ella misma diseña una forma de conseguirlo. Por lo tanto, su forma de alcanzar dicha meta no siempre resulta demasiado transparente. Por eso, si usted está inculcando un cierto sesgo a una máquina de forma inconsciente, es posible que desconozca que, en efecto, el algoritmo también tiene ese sesgo. El resultado es que ese algoritmo podría ser perjudicial para las mujeres, pero costaría mucho averiguar exactamente por qué.

Esto ya ha pasado con la tecnología tradicional: hemos visto mujeres muriendo en accidentes automovilísticos porque los muñecos de prueba de choque tenían la forma de un hombre en lugar de la de una mujer. Con la IA podría haber situaciones similares de vida o muerte, en pruebas de drogas, vehículos autónomos y cosas por el estilo.

También hay algunos ejemplos [del sesgo de género de la inteligencia artificial actual]: anuncios de Google que muestran anuncios [de trabajo] con mayores sueldos a los hombres que a las mujeres. Podemos plantear otras hipótesis de otras situaciones en las que podría suceder: ¿qué pasaría si las mujeres no pudieran obtener los mismos préstamos, hipotecas o seguros?

No tengo una visión distópica de la inteligencia artificial. No creo que vaya a haber robots asesinos. Estoy mucho más centrada en las aplicaciones limitadas, y creo que, si nos fijamos en cada una de ellas, existe la posibilidad de que afecte negativamente a las mujeres. No creo que la inteligencia artificial sea el problema; es un problema adicional, en lugar de la causa. Estamos hablando del riesgo de que nuestro sexismo y racismo inconsciente se transmita a las máquinas que estamos construyendo.

¿Cómo conseguimos que alguien que está construyendo una IA tenga en cuenta estas cosas? Necesitamos que los consumidores exijan una inteligencia artificial ética. La gente no es demasiado consciente de que el problema va más allá de una simple cuestión de género: se trata de un problema real y fundamental del producto.

Fuente: https://www.technologyreview.es/s/9691/la-inteligencia-artificial-nos-vende-productos-machistas-y-racistas-sin-que-nadie-se-de

Comparte este contenido:

Sursiendo

Colectivo de personas inquietas y comprometidas con distintas procedencias que actualmente habitamos en Chiapas, México y en la que confluyen trayectorias de trabajo en activismo, comunicación, diseño, educación, arte y gestión cultural, a favor de la defensa de los bienes comunes y el procomún, a través de una participación equitativa y creativa, que incluya una perspectiva de género, apoyándonos en la educación y la comunicación popular.