Facebook niega utilizar información de usuarios vulnerables en Australia

Australia/Mayo de 2017/Autor: Julio Sanchez Onofre/Fuente: El Economista

El diario The Australian dio a conocer un documento confidencial producido por la sede de Facebook en Australia, en el que consta una investigación realizada por la empresa con miras a ofrecer información de sus usuarios —sin el conocimiento y consentimiento de los mismos— a potenciales anunciantes. En el informe de 23 páginas consta que la empresa realizó un estudio entre los usuarios más jóvenes de la red social, en el que programó sus algoritmos para que identificaran cuando se encontraban psicológicamente vulnerables.

Tras la publicación de la nota, Facebook emitió una declaración pública en la que no negó la autenticidad del documento y cuestionó el enfoque del artículo del diario. La compañía argumentó que el análisis tenía la intención de identificar para los vendedores las formas en que los usuarios de la red social se expresan. En el comunicado se afirma que la empresa no ofrece herramientas para dirigir anuncios segmentados a las personas en función de su estado emocional y que se basó en datos anónimos.

Facebook monitoreó la actividad de 6.4 millones de usuarios por un periodo de dos semanas, que cayeron en las categorías de “estudiantes de secundaria, estudiantes de educación terciaria y jóvenes australianos y neozelandeses en la fuerza de trabajo”. Los algoritmos de la red social fueron programados para detectar las manifestaciones de los jóvenes en las que expresaran sentirse estresados, derrotados, abrumados, ansiosos, nerviosos, estúpidos, tontos, inútiles y fracasados. Para realizar esto, Facebook monitoreó mensajes, fotos, interacciones y la actividad de internet en tiempo real para detectar los momentos en que se presentaban las caídas emocionales en los jóvenes.

A decir de Cédric Laurant, director del programa SonTusDatos de la asociación civil Artículo 12, el posicionamiento de la compañía tiene sus matices. El experto de la Asociación dedicada a la defensa, promoción y protección de los derechos a la privacidad y datos personales de los usuarios, explicó a El Economista que Facebook no vende datos personales a anunciantes sino las categorías de usuarios a las que enfocar su mercadeo.

“No menciona que Facebook siempre tiene el conocimiento de qué usuario en particular está categorizado de tal o tal forma (deprimido, con sentimiento de tristeza, problema psicológico vinculado a alimentación como anorexia, bulimia), y que las categorías de usuarios que Facebook vende a los anunciantes permite a estos anunciantes, a su vez, vender a categorías de personas muy específicas”, comentó en un correo electrónico.

Facebook aseguró también que la investigación no siguió los protocolos de la compañía y anunció que realizaría una averiguación al respecto, con miras a mejorar los controles de supervisión, lo que, a juicio de la influyente publicación Wired, implica que la sede central no estaba al tanto de la misma.

En el comunicado, Facebook asegura que el análisis lo realizó “un investigador australiano”. En el documento en poder de The Australian, los ejecutivos australianos de Facebook David Fernández y Andy Sinn aparecen como los autores del estudio. El diario informó también que el estudio fue realizado para un banco australiano.

“La práctica documentada por The Australian refleja la punta del iceberg de lo que seguramente está haciendo Facebook a escondidas o, por lo menos, a nivel experimental para próximamente implementarlo. Es algo que nunca iba a revelar: que venden a anunciantes su capacidad de enfocar su publicidad hacia menores de edad basándose en sus estados de ánimo y emociones”, dijo Laurant.

“Si no fuera el caso, ¿por qué estaría tratando de venderlo a anunciantes? Refiriéndome a la larga historia de repetidas mentiras por parte de Facebook desde que inició sus operaciones hace más de una década, es más que probable que tiene ese objetivo – y no sólo en Australia sino a nivel global, México incluido obviamente”, cuestionó.

Preocupaciones llegan a México

Tras la publicación del artículo en el diario australiano y la respuesta de Facebook, unas 26 organizaciones defensoras de los derechos de la niñez y la protección de datos personales enviaron a Mark Zuckerberg una carta donde pidieron la publicación de la investigación y los materiales relacionados.

“Somos conscientes de que Facebook ha publicado un posicionamiento en el sentido de que esta investigación se desvió de los protocolos de Facebook y que la empresa no se involucra en el tipo de targeteo reportada por The Australian. Sin embargo, la declaración de Facebook no resuelve las preocupaciones sobre el análisis encargado, su propósito y lo que dice sobre las prácticas publicitarias reales de Facebook”, se lee en la carta.

En México, la carta fue firmada por SonTusDatos. Esta organización envió además una carta fechada el 10 de mayo a las oficinas de Facebook México y al Instituto Nacional de Acceso a la Información y Protección de Datos Personales (INAI) para que realizara una investigación sobre este tipo de prácticas.

“No recibimos ninguna respuesta sino de dos personas de Facebook en Estados Unidos, que nos prometieron iban a organizar una videoconferencia con nosotros. Escribimos la carta para obtener una respuesta de Facebook México por la cual podían comprometerse a que no estaban haciendo lo reportado en el informe filtrado; también para resaltar que este tipo de tratamiento de datos personales violaba la Ley Federal de Protección de Datos Personales en Posesión de Particulares (por ello, copiamos a los comisionados del INAI)”, comentó Laurant.

“Hasta ahora, no hemos recibido su respuesta, ni en un sentido ni en otro. Y Facebook Estados Unidos no nos ha contestado tampoco al respecto”, insistió.

El Economista buscó a Facebook México para conocer su posicionamiento sobre la misiva enviada por SonTusDatos, pero la empresa respondió con el mismo posicionamiento emitido por la compañía como reacción al artículo de The Australian. Además se buscó al INAI, a través de su departamento de Comunicación Social, pero hasta la publicación de este artículo no se recibió respuesta

En la comunicación de Facebook enviada a El Economista se hace un hincapié: «Trabajamos para mantener a las personas informadas sobre sus opciones de privacidad desde el momento que crean una cuenta en Facebook. Las personas que utilizan Facebook quieren control sobre el contenido que comparten, entonces construimos nuestros productos para darles exactamente eso. Estamos enfocados en ayudar a las personas a entender cómo utilizar las herramientas que hemos creado para que puedan tomar decisiones informadas y controlar su experiencia en la plataforma.»

Pero el experto en protección de datos personales reviró el posicionamiento de la compañía al asegurar que Facebook no menciona que el control que tiene el usuario se limita a la distribución de sus contenidos a los varios círculos de sus posibles destinatarios: amigos, amigos de amigos, todos los usuarios de Facebook o el público en general (vía la indexación de contenidos en motores de búsqueda).

“Facebook no menciona que no permite a sus usuarios controlar cómo Facebook los categoriza (en múltiples categorías socio-económicas, religiosas, filosóficas, políticas o hasta psicológicas) y cómo vende esas categorizaciones a los anunciantes en México”, dijo.

No es la primera ocasión en que la empresa propiedad de Mark Zuckerberg lleva a cabo prácticas de ingeniería social, técnica que consiste en obtener información confidencial a través de la manipulación de los usuarios en sistemas de información.

Hace cinco años, Facebook realizó un experimento masivo de manipulación de emociones en casi 700,000 usuarios sin su consentimiento. La compañía realizó ajustes en el algoritmo de difusión de noticias para controlar lo que aparecía en los timelines de los usuarios seleccionados. El objetivo era era determinar si se podía dar un «contagio emocional» entre individuos sin necesidad de que interactuaran en persona. Facebook, en cooperación con científicos de las universidades Cornell y California, querían saber si el número de mensajes positivos o negativos que leían los usuarios les influían a la hora de colgar mensajes en su muro. El experimento constató que los usuarios colgaban mensajes positivos o negativos en función de los contenidos a los que habían sido «expuestos».

Cédric Laurant consideró que estos casos y el aviso de privacidad de Facebook viola la ley mexicana de protección de datos: “No provee la información requerida a sus usuarios sobre todas las finalidades para las cuales trata sus datos personales y sobre cómo los ‘venden’ a anunciantes para que puedan consentir en pleno conocimiento al tratamiento de sus datos personales. Esto se vio demostrado múltiples veces, por ejemplo en el año 2014 cuando reveló que había manipulado a casi 700,000 de sus usuarios para evaluar sus reacciones emotivas a noticias en su ‘news feed’”

Fuente: http://eleconomista.com.mx/tecnociencia/2017/05/28/facebook-niega-utilizar-informacion-usuarios-vulnerables-australia

 

Comparte este contenido: