Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados fake news

Usan inteligencia artificial para detectar noticias falsas y mensajes de odio en las redes sociales

IA-Fake-news-upv

Investigadores de la Universidad Politécnica de València (UPV) han desarrollado un sistema de Inteligencia Artificial (IA) que ha ayudado a detectar noticias falsas (fake news) y ataques explícitos e implícitos en las redes sociales.

Es el primero de los resultados del proyecto MISMIS-FAKEnHATE, liderado por el centro Pattern Recognition and Human Language Technology (PRHLT) de la UPV, en el que también participan la UNED y la Universitat de Barcelona y colabora la Policía Local de València, y que en fase de prototipo ya se ha usado para localizar este tipo de mensajes contra mujeres e inmigrantes.

El investigador de la PRHLT-UPV Paolo Rosso ha explicado que hoy en día la ciudadanía «acaba recibiendo en los medios sociales de comunicación sólo la información que concuerda con sus creencias y puntos de vista, con el riesgo de un aislamiento intelectual» o burbuja de información.

Rosso ha hecho hincapié en que un «efecto perverso» que provoca esta realidad es que «cuando la información corrobora nuestras creencias, tendemos a compartirla sin comprobar su veracidad», lo que «facilita la propagación de desinformación, las llamadas ‘fake news'».

El relativo anonimato de los medios sociales favorece además la propagación de lenguaje agresivo, de mensajes de odio y exclusión, que fomentan la separación en comunidades cada vez más polarizadas en sus opiniones.

Al respecto, según apunta a EFE la investigadora del PRHLT-UPV Anastasia Giachanou, «se tiende a una escasa argumentación en los contenidos que a menudo se limitan a unos pocos insultos».

A partir de este análisis, este primer prototipo desarrollado por los investigadores permite identificar noticias falsas a partir de un análisis automático tanto del lenguaje utilizado, como de las emociones que subyacen a ese texto.

Para ello, es capaz de discernir emociones básicas como el miedo, la ira o la sorpresa, entre otros, y por el momento, lo hace en información escrita, si bien están empezando a trabajar también con imágenes.

«Nos proponemos identificar la desinformación desde una perspectiva multimodal, combinando la información textual con la visual a través de técnicas basadas en deep learning (tecnología evolucionada del aprendizaje automático que lo hace más sólido y efectivo)», explica Giachanou.

La investigadora, que desarrolla su investigación en el PRHLT gracias a una beca de la Fundación Nacional para la Ciencia de Suiza (SNSF por sus siglas en inglés), añade que «además, se llevará a cabo un análisis multilingüe cuándo la información sea en lenguajes diferentes».

Por otro lado, este primer prototipo permite detectar también lenguaje agresivo y mensajes de odio en los medios sociales de comunicación.

Para monitorizarlos, el equipo de la UPV, la UNED y la Universitat de Barcelona propone un enfoque terminológico, extrayendo términos y patrones lingüísticos de odio a partir de conjuntos de datos analizados anteriormente y monitorizar sistemáticamente si se emplean en nuevas conversaciones en línea.

Como próximos retos, el equipo de investigadores que ha desarrollado este proyecto trabaja en la clasificación de patrones y rasgos de la personalidad que se esconden detrás de los «haters» (odiadores) de las redes sociales.

Los socios del proyecto celebraron la semana pasada un encuentro en el que presentaron los resultados del primer año de trabajo, ha informado la UPV.

En este encuentro, José Luis Diego, miembro de la Policía Local de Valencia, que participa como Entidad Promotora Observadora (EPO) en este proyecto, expuso los retos de este cuerpo de seguridad para la detección de mensajes de odio y de exclusión en las redes sociales.

Por parte del centro PRHLT de la Universidad Politécnica de Valencia también participan en el proyecto Francisco Casacuberta y José Miguel Benedí, han indicado las mismas fuentes.

Fuente: EFE

Matemáticas para detectar noticias falsas en Twitter

Unversidad de Granada - Fake news - Foto agencia sinc

La Universidad de Granada y el Imperial College de Londres han analizado matemáticamente qué características presentan los tuits que contienen información falsa y han propuesto un sistema informático para detección de bulos.

El término fake news (noticias falsas) se ha popularizado en los últimos años, debido sobre todo al impacto que las campañas de desinformación en la red han tenido en diversos acontecimientos políticos y sociales, como el referéndum del Brexit o las elecciones generales en España de abril de 2019.

Los investigadores Miguel Molina Solana y Juan Gómez Romero, del departamento de Ciencias de la Computación de la Universidad de Granada (UGR), junto a varios colaboradores del Imperial College de Londres, han presentado un estudio sobre el uso de técnicas de inteligencia artificial para detectar estas noticias falsas en Twitter. El trabajo, publicado en la revista IEEE Access, analiza matemáticamente qué características presentan los tuits que contienen información falsa, y propone un sistema informático para detección de bulos.

El enfoque es diferente a las aproximaciones periodísticas habituales de fact checking, que requieren un ingente trabajo de verificación de datos y revisión de hemeroteca. Aunque la inteligencia artificial puede ayudar en esta tarea, Molina señala que “analizar el contenido de los tuits de forma automática es muy complicado, ya que requiere estudiar si el autor está simplemente siendo irónico o realmente está intentando hacer pasar una noticia falsa como verdadera”. 

Mayúsculas  e iconos son claves

Por ello, en este trabajo los investigadores decidieron utilizar, aparte del contenido del tuit, los datos disponibles sobre el mismo y sobre su autor (esto es, los metadatos), como por ejemplo el número de seguidores en el momento de publicar, la fecha de registro en la red social o la cantidad de mayúsculas e iconos utilizados.

Según destaca Molina, “los experimentos han mostrado que los usuarios que distribuyen información falsa de manera intencionada tienen un comportamiento diferente a los demás”, y añade que “este comportamiento anómalo se manifiesta a través de propiedades fácilmente medibles, como el número de contactos o de tuits marcados como favoritos del autor”. 

En consecuencia, estas características pueden usarse para ayudar en la identificación automática de noticias potencialmente falsas. La investigación también revela que las fake news suelen incluir información más polarizada, novedosa e impactante con el propósito de atraer la atención del lector.

El trabajo utiliza datos de Twitter sobre las elecciones presidenciales de 2016 en EEUU recopilados por los propios autores. Los hallazgos de la investigación han sido también presentados en la conferencia Truth and Trust Online (TTO), celebrada recientemente en Londres y organizada, entre otros, por Twitter, Facebook y la Universidad de Cambridge.

Fuente: Agencia SINC