España: Un ‘Facebook’ con IA para que los adolescentes usen las redes sociales de manera segura

Europa/España/15-03-2020/Autor(a) y Fuente: www.agenciasinc.es

Por: SINC

Una nueva red social, llamada PESEDIA, utiliza inteligencia artificial (IA) y juegos educativos para advertir a los adolescentes del alcance y los riesgos de la información que van a publicar en internet. Ha sido desarrollada por investigadores de la Universidad Politécnica de Valencia.

PESEDIA se basa en técnicas de inteligencia artificial e incluye diferentes juegos educativos. Esta red social, desarrollada por investigadores de la Universidad Politécnica de Valencia (UPV) es capaz de advertir al usuario de forma muy gráfica sobre el alcance y riesgos de la información que va a publicar. Incluye también un analizador de contenido que detecta información sensible del usuario y es capaz de discernir sus sentimientos y nivel de estrés al escribir sus mensajes.

La red incluye un analizador de contenido que detecta información sensible y es capaz de discernir el nivel de estrés al escribir los mensajes

“Se trata de una red dirigida principalmente a adolescentes, ya que nuestro objetivo es que sirva como una plataforma educativa en el uso de las redes sociales. Hasta el momento, se ha utilizado ya en talleres de las cuatro últimas ediciones de l’Escola d’estiu de la UPV, con los niños y niñas de entre 11 y 14 años. Ahora bien, nuestro objetivo es poder trasladar la tecnología desarrollada a otras redes sociales para que pueda ser usada no solamente por adolescentes, sino por un público más general, que desee disponer de un agente personalizado asesor en privacidad”, destaca Estefanía Argente, investigadora de la UPV.

Para el desarrollo de PESEDIA, el equipo clasificó la sensibilidad de diferente información del usuario: edad, nombre, fecha de nacimiento, peso… y así hasta 74 variables distintas. Además, identificó aquellos factores más relevantes que hacen que un usuario acepte determinadas sugerencias mientras navega por la red social.

“También hemos desarrollado un módulo que permite analizar los datos de velocidad y forma de escritura de los usuarios cuando escriben mensajes en PESEDIA, información de la que se puede inferir los sentimientos y niveles de estrés del usuario”, explica Argente.

‘Paternalismo blando’ 

Con todo ello, los investigadores propusieron dos mecanismos de ‘paternalismo blando’ que ofrecen información al usuario sobre el riesgo para la privacidad de publicar un determinado contenido. Según la investigadora, esta idea consiste en mostrar mensajes al usuario, del tipo“El riesgo de privacidad de tu mensaje es alto; la publicación podrá ser vista por más de 1000 usuarios”, con el fin de tratar de influir en su decisión, pero sin limitarla.

Usa  también mecanismos de argumentación y persuasión para informar sobre el riesgo de privacidad de las publicaciones

Explica que han trabajado con lo que se denomina ‘empuje mediante imágenes’ mostrando, por ejemplo, las imágenes de perfil de algunos de los usuarios a los que podría llegar su mensaje, y con ‘empuje mediante números’ para indicar cantidades de usuarios a los que alcanzará la publicación.

“En este sentido –dice Argente– advertimos al usuario de que podría estar dando información de dónde está o a dónde va, y podemos darle más razones para ayudarle a decidir sobre si publicar o no el mensaje correspondiente, en función de la audiencia del mensaje, del contenido del mismo –si revela datos médicos, personales–, y a los posibles problemas sociales que pudiera ocasionar. Por ejemplo, si el mensaje implica a terceras personas que podrían verse afectadas”.

Referencia bibliográfica:

J.Alemany, E.del Val, J.Alberola, A.García-Fornes. “Enhancing the privacy risk awareness of teenagers in online social networks through soft-paternalism mechanisms”. International Journal of Human-Computer Studies. DOI:10.1016/j.ijhcs.2019.03.008

Fuente:

UPV
Fuente e Imagen: https://www.agenciasinc.es/Noticias/Un-Facebook-con-IA-para-que-los-adolescentes-usen-las-redes-sociales-de-manera-segura
Comparte este contenido:

España: Inteligencia artificial para detectar noticias falsas y mensajes de odio en redes sociales

Europa/España/25-12-2019/Autor(a) y Fuente: www.agenciasinc.es 

Por: SINC

Investigadores de la Universidad Politécnica de Valencia han desarrollado un sistema de inteligencia artificial que permite detectar fake news y mensajes de odio, tanto explícitos como implícitos, en los medios sociales. El prototipo ya se ha utilizado para localizar ataques en las redes a mujeres e inmigrantes.

Un nuevo sistema de inteligencia artificial desarrollado por científicos de la Universidad Politécnica de Valencia (UPV) es capaz de identificar noticias falsas y mensajes de odio explícitos e implícitos en las redes sociales.

En fase de prototipo, el sistema ha sido utilizado ya para localizar este tipo de ataques a mujeres e inmigrantes, además de fake news, aplicando para ello técnicas de deep leerning (aprendizaje profundo).

Se identifican noticias falsas a partir de un análisis automático tanto del lenguaje utilizado como de las emociones que subyacen a ese texto

Es el primer resultado de MISMIS-FAKEnHATE, un proyecto liderado por el centro Pattern Recognition and Human Language Technology (PRHLT) de la UPV, y financiado por el Ministerio de Ciencia, Innovación y Universidades. En él participan también expertos de la UNED y la Universidad de Barcelona y colabora la Policía Local de Valencia como entidad promotora observadora.

Tal y como explica Paolo Rosso, del PRHLT, hoy en día en muchos casos la ciudadanía acaba recibiendo en los medios sociales de comunicación sólo la información que concuerda con sus creencias y puntos de vista, con el riesgo de un aislamiento intelectual -burbuja de información. Un efecto perverso es que cuando la información corrobora nuestras creencias, tendemos a compartirla sin comprobar su veracidad, lo que facilita la propagación de desinformación, las llamadas fake news”, apunta Rosso.

Además, el relativo anonimato de los medios sociales favorece la propagación de lenguaje agresivo, de mensajes de odio, y exclusión, que fomentan la separación en comunidades cada vez más polarizadas en sus opiniones. “Se tiende a una escasa argumentación en los contenidos que a menudo se limitan a unos pocos insultos”, añade Anastasia Giachanou, investigadora también del PRHLT.

Cómo identificar fake news

Partiendo de este análisis, el prototipo permite, en primer lugar, identificar noticias falsas a partir de un análisis automático tanto del lenguaje utilizado, como de las emociones que subyacen a ese texto. Para ello, es capaz de discernir emociones básicas como el miedo, la ira o la sorpresa, entre otros. Por el momento lo hace tanto en información escrita, si bien están empezando a trabajar también con imágenes.

Se extrajeron patrones lingüísticos de odio de conjuntos de datos y luego se monitoriza sistemáticamente si se emplean en nuevas conversaciones on line

“Nos proponemos identificar la desinformación desde una perspectiva multimodal, combinando la información textual con la visual a través de técnicas basadas en deep learning. Además, se llevará a cabo un análisis multilingüe cuándo la información sea en lenguajes diferentes”, apunta Giachanou, quien desarrolla su investigación en el PRHLT gracias a una beca de la Fundación Nacional para la Ciencia de Suiza (SNSF por sus siglas en inglés). Además, el sistema ayudará a perfilar si el autor de una noticia falsa es un bot (robot) o una persona.

Por otro lado, detecta también lenguaje agresivo y mensajes de odio en los medios sociales de comunicación. Para monitorizarlos, el equipo propone un enfoque terminológico, extrayendo términos y patrones lingüísticos de odio a partir de conjuntos de datos analizados anteriormente y monitorizar sistemáticamente si se emplean en nuevas conversaciones online.

Como próximos retos, los investigadores trabajan en la clasificación de patrones y rasgos de la personalidad que se esconden detrás de los haters de las redes sociales.

Referencia bibliográfica: 

Anastasia Giachanou, Paolo Rosso, Fabio Crestani. Leveraging Emotional Signals for Credibility Detection. SIGIR’19 Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval.doi 10.1145/3331184.3331285

Los socios del proyecto celebraron la semana pasada un encuentro en el que presentaron los resultados del primer año de trabajo. Además, José Luís Diego, de la Policía Local de Valencia expuso son los retos de este cuerpo de seguridad para la detección de mensajes de odio y de exclusión en las redes sociales. Por parte del PRHLT-UPV participan también Francisco Casacuberta y José Miguel Benedí.

Fuente e Imagen: https://www.agenciasinc.es/Noticias/Inteligencia-artificial-para-detectar-noticias-falsas-y-mensajes-de-odio-en-redes-sociales

Comparte este contenido: