La matemática Cathy O ´Neil : “Se está usando el big data para propagar errores del pasado que aumentan la desigualdad»

Cada vez que navegamos por internet, contestamos un whatsapp o vemos el capítulo de nuestra serie favorita hay empresas que utilizan esta información para vendernos algo en el futuro. Es una realidad que damos por sentada, pensando que, al fin y al cabo, no es tan malo que nos ofrezcan anuncios personalizados.

El problema es que los modelos matemáticos que sirven para ofrecerte una habitación en la ciudad que planeas visitar, adaptada a tu condición socioeconómica, también pueden utilizarse para decidir si tus hijos podrán estudiar en la universidad o si es conveniente subir la prima de tu seguro. Y eso no nos hace tanta gracia.

Cathy O ´Neil (EEUU, 1972) es un cerebro privilegiado para las matemáticas y, como la mayoría de sus colegas, acabó trabajando en el mundo de las finanzas, en concreto, en un fondo de cobertura. Allí vio cómo los modelos matemáticos podían utilizarse de forma totalmente sesgada en beneficio de los sectores más privilegiados de la sociedad y es por ello que abandonó su trabajo y se involucró activamente en el movimiento Occupy Wall Street, participando en su Grupo de Banca Alternativa.

“La crisis financiera dejó bien claro que las matemáticas, que una vez habían sido mi refugio, no solo estaban profundamente involucradas en los problemas del mundo, sino que además agravaban muchos de ellos”, asegura O’Neil en su libro Armas de destrucción matemática, que acaba de editar en España Capitán Swing.

Con motivo del ensayo, que fue nominado para el National Book Award 2016, O’Neil responde a las preguntas de La Información.

Solemos pensar en las matemáticas como una ciencia prístina. Los datos no emiten juicios morales. Pero en su libro afirma que las matemáticas están profundamente involucradas en los problemas del mundo. ¿Por qué?

Bueno, seamos cuidadosos. Las matemáticas en sí no están tan involucradas, pero sí su nombre. La gente usa algoritmos de inteligencia artificial y big data como armas matemáticas porque sabe que las matemáticas inspiran confianza y miedo. Es una táctica que sirve para imponer silencio a las personas porque no son “expertos” en matemáticas y, por lo tanto, no pueden entender nada. Es una vergüenza.

Pero, para ser claros, los algoritmos del big data no son matemáticas. En el mejor de los casos son ciencia. Digo esto porque no prueban cosas, prueban hipótesis con datos y hacen predicciones imperfectas. Y si son ciencia, de nuevo en el mejor de los casos, deben someterse a todo tipo de pruebas científicas. Eso implica tener evidencias.

Ya que se utilizan cada vez más para cualquier decisión burocrática que podamos encontrar en nuestras vidas, como el límite de nuestra tarjeta de crédito, qué tipo de préstamos obtenemos para las hipotecas, qué clase de anuncios vemos o a qué tipo de información política estamos expuestos, debemos saber cómo funcionan y cómo no funcionan. Si discriminan a las mujeres, debemos saberlo a través de las pruebas. Si aumentan la desigualdad o amenazan la democracia, deberíamos saberlo también. Pero en la actualidad consideramos que son herramientas perfectas, objetivas y científicas. No es así como se hace la ciencia.

Las grandes empresas siempre dicen que una cosa u otra está controlada por un algoritmo. ¿En qué consisten estos realmente?

Son versiones automatizadas y simplificadas de cualquier proceso humano burocrático que hayan reemplazado. Los algoritmos están entrenados en los datos históricos que produjo ese proceso. Eso significa que si el proceso estaba sesgado sistemáticamente a favor de cierto grupo, el algoritmo resultante normalmente también lo estará.

¿Cuáles son las decisiones que toman los algoritmos que podemos no conocer?

No estoy seguro acerca de España, pero en los EEUU están en todas partes, y deciden desde qué estudiantes de secundaria tendrán éxito en la universidad –y podrán pagar la matricula en su totalidad, en lugar de ser tentados a inscribirse con una beca parcial–, hasta cuánto tiempo esperamos cuando llamamos al servicio de atención al cliente o los años que alguien permanece en prisión. Algunas de las formas en que se usan los algoritmos son importantes, algunas no tan importantes. Me gusta enfocarme en las decisiones verdaderamente importantes. Es en estos casos cuando los fallos del algoritmo deben ser expuestos. Y para ser claros, a veces es peor que un simple error, porque se les hace tanto caso que los malos algoritmos tienden a empeorar las cosas o incluso desencadenan ciclos de retroalimentación destructivos en toda la sociedad.

En el libro señala que algunos modelos matemáticos se convierten en armas de destrucción matemática. ¿En qué consisten exactamente? 

[Son armas de destrucción matemática] cuando son importantes, generalizados, secretos, inexplicables e injustos. Eso significa que tienen un impacto negativo, o incluso destructivo, en las vidas de las personas debido a algún sistema secreto de puntuación que no entienden y al que no pueden apelar.

¿Cree que a medida que avanza nuestro conocimiento de la inteligencia artificial, las armas de destrucción matemática serán cada vez más peligrosas?

Solo si continuamos usándola sin probar que no comete errores. Definitivamente, tenemos el poder en nuestras manos, solo debemos preguntarnos si lo usaremos o no. No quiero simplificarlo, pero es un problema político, no matemático. Si mañana todas las personas que están haciendo toneladas de dinero con algoritmos decidieran preocuparse por sus errores no habría ningún problema. El problema es que mientras se salgan con la suya, mientras confiemos ciegamente en los algoritmos, ganarán tanto dinero que no van a querer cambiar nada. Es una cuestión política, no matemática ni científica.

Cathy O'Neil durante una de sus charlas / Stiftelsen
Cathy O’Neil durante una de sus charlas / Stiftelsen

Como sabe, muchas de las políticas públicas actuales se basan principalmente en informes estadísticos de organizaciones como la OCDE o la Fundación Bill y Melinda Gates. Damos por hecho que analizar los problemas basándose en los datos que tenemos es la mejor forma de solucionarlos. ¿Nos equivocamos?

Podemos confiar en la ciencia. Y cuando las estadísticas son de fiar y nos cuentan toda la historia debemos creer en ellas. Pero la mayoría de las armas de destrucción matemática que menciono tienen datos incompletos o sesgados, que reflejan prejuicios o prácticas injustas bien consolidadas, y se están usando estos datos para propagar errores del pasado más que para corregirlos.

En otras palabras, debemos entender cuando es necesario intervenir. Si construimos un algoritmo que se basa en las muertes pasadas por malaria, algunas personas lo usarían como una herramienta para incrementar las ganancias, por ejemplo, evitando educar a ciertas poblaciones porque de todos modos se predice que morirán de malaria. Si consideramos las muertes por malaria como una oportunidad para salvar vidas a través de la distribución de mosquiteros, entonces estamos haciendo algo bueno con los mismos datos e incluso con el mismo algoritmo.

¿En qué medida los gobiernos o empresas justifican con datos sesgados decisiones que incluso están tomadas de ante mano para reducir así las críticas?

No voy a arriesgarme a inventar nada, pero diría que la mayor parte del tiempo. Aun así, esa no es una razón para dejar de usar estadísticas, sino para asegurarnos de que las estadísticas que utilizamos estén lo más investigadas posible.

Desde hace un tiempo, las personas están preocupadas por la constante violación de su privacidad, pero las empresas insisten una y otra vez en que sus datos están seguros. ¿Hasta qué punto es esto cierto?

No lo es en ningún modo. Por ejemplo, tenemos una ley de privacidad de datos médicos en EEUU que protege nuestros datos médicos oficiales, pero las nuevas técnicas de big data a menudo pueden omitir dichos datos específicos y generar una puntuación de nuestro estado de salud sin violar las leyes. Las empresas pretenden ganar dinero con esto, por lo que, por supuesto, nos dicen que no nos preocupemos.

Por mi parte, creo que las leyes deberían concentrarse en cómo se usan los datos en nuestra contra.

Las compañías de telecomunicaciones pueden conocer el comportamiento exacto de cualquiera de sus clientes: sus mensajes, sus conversaciones, lo que ven en la televisión, lo que compran… Dicen que estos los datos solo se usan de forma anónima, pero ¿es cierto?

Para ser honesta, ya no estoy segura de qué significa anónimo. SI saben lo suficiente de nuestro comportamiento para adaptar los anuncios a cada persona diría que no es anónimo.

Como cuenta en el libro, ha dejado varios trabajos porque sentía que lo que hacía no era moralmente correcto. ¿Cree que los matemáticos que trabajan en el análisis de datos son conscientes de que su trabajo puede dañar a la gente?

Definitivamente están comenzando a ser conscientes. Pero eso no es suficiente, ya que las corporaciones son las que tienen el poder real.

¿Cómo podemos asegurarnos de que las matemáticas se usen para el bien común?

Necesitamos que la ciencia de los datos sea verdaderamente científica y comenzar a pedir pruebas de que las cosas funcionan, son jutas y no producen ciclos de retroalimentación negativa a largo plazo que perjudiquen a la sociedad.

Fuente: https://www.lainformacion.com/management/big-data-matematicas-errores-algoritmo-cathy-oneil/6343044

Comparte este contenido:

La sociedad de la información desde una óptica geopolítica latinoamericana

Es importante señalar desde nuestra perspectiva latinoamericana que la llamada sociedad de la información, que nos presentan desde las grandes cadenas comunicacionales como si aportara más democracia, más prosperidad, etc., se refiere a nuestro juicio a un proyecto concreto, que está construido sobre el mito que beneficiará a todos. Es una creencia que, desde sus comienzos, ha acompañado a las tecnologías de comunicación a distancia.

Desde la aparición del telégrafo de Chappe, en 1794, ya se plantea en el discurso tanto científico como político, el papel emancipador de la tecnología a distancia.

Esto no quiere decir que el avance de los sistemas mundiales de comunicación no participe, a su manera, en la expansión y apertura a la comunicación de sociedades concretas. En verdad, las tecnologías de comunicación forman parte del camino que nos lleva a la integración superior soñada.

La sociedad global de la información se ha convertido en un reto geopolítico y el discurso que la envuelve es una doctrina sobre las nuevas formas de hegemonía. Esta doctrina arraiga en los EEUU hacia finales de los años sesenta con la «revolución tecnotrónica» de Zbigniew Brzezinski. Desde entonces, la hegemonía mundial pasa por las tecnologías tecnotrónicas y se manifiesta a través de una triple revolución: diplomática, militar y gerencial.

La sociedad de la información es entonces el resultado de una construcción geopolítica. La ideología de la sociedad de la información no es otra cosa que la del mercado. Está en sinergia con los supuestos de reconstrucción neoliberal del mundo. Contra eso, precisamente intentan levantarse algunos gobiernos y las redes de la sociedad civil a través del mundo.

Unas décadas después de los análisis de Brzezinski sobre el advenimiento de la era tecnotrónica, el concepto de la «diplomacia de las redes» reconfigura los parámetros de la hegemonía. El politólogo Joseph Nye, afirma que el soft power de la diplomacia norteamericana está fundamentada en el eje de la tecnología de la información y que el único país que está a disposición de llevar a cabo la revolución de la información es EEUU.

Las fuentes de la nueva información son la información libre (la que crea el marketing, la televisión y los medios, la propaganda, sin «compensación financiera»); la información comercial, que tiene un precio y que está en el principio del comercio electrónico, la información estratégica, tan vieja como el espionaje. El soft power es la capacidad de engendrar en el otro el deseo de aquello que usted quiere que desee. El medio es la seducción antes que la coerción.

Por su parte, los estrategas empiezan a emplear otra noción: netwar. El término se aplica a los conflictos a través de las redes-guerras cibernética- y que exigen una respuesta por esta misma vía. El temor a un Pearl Harbor electronic ha suscitado numerosas iniciativas tanto del FBI como del Pentágono con el fin de organizar la defensa del «sistema nervioso de la nación». El término cyberwar se aplica a los conflictos de tipo militar, a gran escala, pero modificados en sus formas por la tecnología de la inteligencia.

La estrategia se concreta a través de un sistema de televigilancia global satelitario -hemos visto la impunidad de la National Security Agencia (NSA) y su carácter de «escucha» salvaje global-, en el fondo un proyecto de panóptico global que se entronca con el proyecto de panóptico en la vida cotidiana.

En el mundo, los teóricos del management de las grandes transnacionales pregonan el fin del Estado y el nacimiento de «un mundo libre» sin intermediaciones. Un «capitalismo libre de fricciones» pregona Bill Gates. El soberano ya no será de un territorio sino de una aldea planetaria digital. Aparentemente «libre”. Es lo que rechaza abiertamente el Papa Francisco porque conduce a una sociedad del descarte. La cifra es escandalosa, el 1 %de la humanidad posee el 80 % de la riqueza.

No rechazamos el porvenir sino desde qué lugar asumir críticamente y desde nosotros a la sociedad de la información, que reiteramos es una cuestión geopolítica y luego instrumental.

Miguel Ángel Barrios -Argentina- es doctor en educación y en ciencia política. Autor de reconocidas obras sobre América Latina.

Fuente: https://www.alainet.org/es/articulo/190748

Comparte este contenido:

Internet: ¿ Monopolios o Comunes?

Por: Sally Burch/Verónica León Burch. Question Digital. 20/12/2017

No cabe duda que Internet es un invento extraordinario y –para quienes tenemos acceso regular– ya es difícil imaginar la vida sin todo lo que ofrece. Tal vez es justamente por ello que prestamos poca atención a cómo se la maneja; y apenas nos damos cuenta de los cambios que se están produciendo en las estructuras del poder, a medida que internet y las tecnologías digitales se van imbricando en cada vez más esferas de la vida.

En los últimos años, sin embargo, ha crecido la preocupación frente a las evidencias de un lado más oscuro de Internet. Saltó a la vista cuando Edward Snowden alertó sobre la vigilancia sin límites de las agencias de seguridad a las comunicaciones en Internet y la pérdida de privacidad. A ello se añaden temas como las “noticias falsas”, los mensajes de odio, las estafas masivas en línea, entre otros. Pero a nuestro criterio, estos fenómenos, preocupantes por cierto, apuntan justamente a un problema más de fondo, que es el modelo de desarrollo que predomina en Internet, con tendencia a la concentración monopólica.tabla_ranking_global_de_corporaciones_color_640x324.jpg
Y es que internet hoy es mucho más que un mecanismo para intercomunicarnos y un espacio para buscar información. Un número creciente de objetos y sistemas están conectados a ella y, a través de las plataformas que brindan las grandes empresas digitales, se generan y recolectan enormes cantidades de datos, que son el principal insumo de la nueva economía digital.

Con ello, Internet se está convirtiendo en una especie de sistema nervioso central de la economía, como también del conocimiento, la información, la política y la vida social y cultural. Consecuentemente, quienes controlan este sistema, su infraestructura, sus plataformas y los datos que allí circulan, tendrán cada vez más poder sobre diversos aspectos de la economía e incluso la vida sociopolítica de nuestros países. Y siendo un sistema concentrado, se presta a una centralización del poder.

Un proyecto concentrador

Desde sus inicios, internet fue vista como la cara amigable de la globalización, por su gran atractivo y utilidad, y por las infinitas posibilidades que presenta para democratizar la información, la comunicación y las tecnologías e interconectar personas y organizaciones, sin límites geográficos. Este carácter, y su tecnología programable, motivaron a desarrollar un sinfín de iniciativas ciudadanas y de pequeños emprendimientos. Comenzó a florecer la internet ciudadana, con predominio de un modelo descentralizado, de compartir conocimiento y fomentar los comunes.

Pero a medida que el acceso a internet se masificó y la inversión privada se multiplicó, su desarrollo se fue concentrando cada vez más en manos de un puñado de grandes corporaciones que, con sus modelos de rentabilidad, han ido acaparando el control de la red de redes, absorbiendo o eliminando a la competencia, al punto de convertirse incluso en los principales monopolios transnacionales de la era actual. Debido a que estas empresas controlan las plataformas que conectan los diferentes actores, adquieren una posición estratégica que se consolida gracias al “efecto red”: o sea, que los usuarios tienden a acudir a las plataformas donde están sus amigos, clientes o contrapartes (Facebook), o que ofrecen una mayor gama de servicios (Google, Amazon). Asistimos, pues, a una pugna entre este proyecto monopólico, donde la ciudadanía es relegada a un rol de consumo y de generación de datos, y el proyecto ciudadano de internet, por ahora cada vez más marginado.

Más aún, no solo que estas empresas se han aprovechado de la ausencia de mecanismos adecuados de regulación y supervisión públicas del ámbito digital para expandir su presencia en todo el planeta, sino que se empeñan en hegemonizar los espacios de gobernanza de internet y en incidir en los acuerdos comerciales (TLCs, Organización Mundial del Comercio) para imponer reglas que eliminen cualquier obstáculo a su dominio mundial.

La era de la inteligencia artificial

Lo que hemos visto hasta ahora, sin embargo, es apenas un inicio. Estamos entrando en una etapa nueva con el desarrollo de la inteligencia artificial (IA).

Vale recordar que la IA significa la capacidad informática de absorber un gran volumen de datos para analizar y procesarlos –mediante algoritmos, que son programas complejos[1]– con el fin de adoptar decisiones o acciones automatizadas, en función de una meta específica. Y ello se hace con una rapidez y en volúmenes que superan ampliamente la capacidad humana. La IA implica que las máquinas tienen la capacidad de aprender y, por lo tanto, de tomar ciertas decisiones autónomamente.

La IA se utiliza, por ejemplo, para los vehículos autodirigidos; para diagnosticar enfermedades (con resultados a veces más exactos que los que consiguen los médicos); o para ofrecer a los usuarios de Internet los contenidos más susceptibles de interesarles.

La IA puede ser sumamente beneficiosa, como también puede servir a intereses contrarios al bien público. Todo depende de quien la desarrolla y la maneja, en función de qué fines. ¿Qué pasa si Facebook o Amazon vende nuestro perfil a empresas aseguradoras, que ajusten sus precios según lo que sus algoritmos estiman será nuestra probabilidad de enfermedades o accidentes? ¿Es ético que Google tenga acuerdos con farmacéuticas para que promocionen sus medicamentos explotando las vulnerabilidades que revelamos en línea?[2] Y ¿qué decir de los robots asesinos y armas autónomas; o de los programas que buscan manipular las preferencias del electorado?

Como toda tecnología, la forma cómo se desarrolla y se utiliza la IA responde a intereses concretos en determinados sistemas sociales: o sea, es un asunto fundamentalmente político. Actualmente, su impulso y las inversiones para ello vienen principalmente de grandes empresas transnacionales, sobre todo estadounidenses, pero ahora también chinas y, en menor medida, de algunos otros países.

Estudios recientes[3] indican que, con mayor acumulación de datos, mejor aprendizaje y más efectivos son los resultados de la IA. Esto significaría que las empresas con mayor número de usuarios y más datos tendrían ventaja sobre empresas más pequeñas, y mayores ganancias, acentuando aún más el fenómeno de la concentración.

Si bien hace mucho que la ciencia ficción explora este tema, recientemente las dimensiones prácticas, éticas y legales de la inteligencia artificial están entrando en debate público, particularmente en Europa y EEUU. Allí se discute cuestiones como el impacto en el empleo y los derechos laborales de la robotización y la llamada “economía colaborativa”; la transparencia de las decisiones a base de algoritmos; la responsabilidad por los errores que comete un programa o una máquina, o cuestiones de vulnerabilidad y seguridad, entre muchos otros aspectos. Entre ello se mezclan mitos, exageraciones y mensajes alarmistas[4], pero sin duda hay mucho de qué preocuparse.

En un análisis publicado este año[5], Prabir Purkayastha, quien trabaja hace muchos años en asuntos relacionados con la IA en India, plantea que el problema central de la IA es que estamos permitiendo que los algoritmos suplanten lo que antes eran decisiones humanas (de gobiernos, empresas, individuos): decisiones que pueden tener un impacto crítico en aspectos clave de la vida de la sociedad. Tendencialmente, los prejuicios y la subjetividad de una sociedad dada se codifican en algoritmos que toman estas decisiones sin transparencia y muchas veces sin posibilidad de apelar (sobre un crédito, un empleo, incluso una sentencia judicial).

Pero el problema de fondo, según el analista, va más allá de esta subjetividad, ya que reside en los mismos datos y los modelos “predictivos” que se construyen con ellos, modelos que analizan el pasado para predecir el futuro. “Tales datos y modelos reflejan simplemente la realidad objetiva del alto grado de desigualdad que existe en una sociedad, y lo replican en sus predicciones del futuro”. El peligro, entonces, es que aun cuando la raza, la casta o el credo no estén registrados explícitamente en los datos, existe una cantidad de otros datos (nivel económico, lugar de residencia, empleos anteriores) que actúan como sustituto de estas ‘variables’. Por lo tanto –dice– es indispensable crear regulaciones y entidades de control que normen el uso de la IA.

Para los países de América Latina, que no cuentan con capacidad tecnológica en este ámbito, existe un peligro adicional: puede significar nuevas formas de dependencia.

Por todo ello, es urgente abrir un amplio debate sobre estos temas. El futuro de internet ya no puede ser considerado como un tema solo para especialistas, ingenieros o empresas digitales. Es un tema de toda la sociedad y será sin duda uno de los grandes temas definitorios de este siglo.

Diálogos por una internet ciudadana

Más allá de que los usuarios y todos los contenidos e interacciones que depositamos en la red somos lo que le da mayor valor a ésta, no debemos olvidar que Internet surgió como una iniciativa ciudadana que fue desarrollada de manera descentralizada y desde abajo por una multiplicidad de actores. De este proceso surgen, además, una serie de movimientos que abogan por una democratización del conocimiento y la tecnología, como los movimientos de software libre y conocimiento abierto, que juegan un rol esencial en el desarrollo de la red y las tecnologías digitales. Las grandes corporaciones digitales se consolidan en poco más de la última década (Facebook aparece en 2004 y Youtube en 2005), capitalizando sobre todo el acumulado que la red y sus usuarios ya habíamos alcanzado.

Es así que, a pesar de las condiciones adversas de hoy, la internet ciudadana no se ha dado por vencida. Está viva y se expresa en miles de iniciativas de conocimiento abierto, de cultura libre, de trabajo colaborativo, de tecnologías no propietarias, de medios alternativos y comunitarios, de iniciativas de desarrollo comunitario, de pequeños emprendimientos y redes solidarias; aunque tendencialmente éstas siguen dispersas.

Ante ello, y frente a los retos que significa la internet monopolizada, surgió la propuesta de organizar un Foro Social de Internet (FSI), mundial, bajo el paraguas del Foro Social Mundial, cuyo lema “otro mundo es posible” nos sugiere que también “otra Internet es posible”. El FSI se concibe como un proceso en marcha, con la probabilidad de realizar un primer evento mundial en India en 2018.

Como parte de este proceso, surgió la propuesta de organizar una iniciativa regional de sensibilización e intercambio sobre estas problemáticas, que desembocó en el Encuentro “Diálogos por una Internet Ciudadana: NuestrAmérica rumbo al Foro Social de Internet”[6], (Quito, 27-29 de septiembre 2017).

El encuentro fue escenario de un debate fértil que desembocó en una amplia gama de propuestas[7], tanto de iniciativas ciudadanas como de cara a las políticas públicas nacionales y regionales, con miras a elaborar una agenda regional y propuestas hacia el FSI mundial.

Como temas eje se destacaron: los datos, como fuente de valor y como objeto de violación de la privacidad, y la necesidad de legislación para su protección, tanto individual como colectiva; y los derechos humanos, que requieren de una protección específica en el ámbito digital, y que deben primar sobre los intereses comerciales.

En la agenda de acción se destacó: una campaña regional de sensibilización sobre estos temas; acciones de cara a los gobiernos y legislaturas; y el rechazo a la negociación del comercio electrónico en la Organización Mundial del Comercio.[8]

La edición 528-529 (octubre-noviembre) de la revista de ALAI América Latina en Movimiento recoge diversas facetas de esta problemática, con aportes, entre otros, de personas que participaron como ponentes en el Encuentro. También presenta algunas experiencias valiosas de la construcción de la internet ciudadana.

*Fuente: questiondigital.com/internet-monopolios-o-comunes/

Fotografía: question Digital

Comparte este contenido: