Investigadores de la Universidad Politécnica de València (UPV) han desarrollado un sistema de Inteligencia Artificial (IA) que ha ayudado a detectar noticias falsas (fake news) y ataques explícitos e implícitos en las redes sociales.
Es el primero de los resultados del proyecto MISMIS-FAKEnHATE, liderado por el centro Pattern Recognition and Human Language Technology (PRHLT) de la UPV, en el que también participan la UNED y la Universitat de Barcelona y colabora la Policía Local de València, y que en fase de prototipo ya se ha usado para localizar este tipo de mensajes contra mujeres e inmigrantes.
El investigador de la PRHLT-UPV Paolo Rosso ha explicado que hoy en día la ciudadanía «acaba recibiendo en los medios sociales de comunicación sólo la información que concuerda con sus creencias y puntos de vista, con el riesgo de un aislamiento intelectual» o burbuja de información.
Rosso ha hecho hincapié en que un «efecto perverso» que provoca esta realidad es que «cuando la información corrobora nuestras creencias, tendemos a compartirla sin comprobar su veracidad», lo que «facilita la propagación de desinformación, las llamadas ‘fake news'».
El relativo anonimato de los medios sociales favorece además la propagación de lenguaje agresivo, de mensajes de odio y exclusión, que fomentan la separación en comunidades cada vez más polarizadas en sus opiniones.
Al respecto, según apunta a EFE la investigadora del PRHLT-UPV Anastasia Giachanou, «se tiende a una escasa argumentación en los contenidos que a menudo se limitan a unos pocos insultos».
A partir de este análisis, este primer prototipo desarrollado por los investigadores permite identificar noticias falsas a partir de un análisis automático tanto del lenguaje utilizado, como de las emociones que subyacen a ese texto.
Para ello, es capaz de discernir emociones básicas como el miedo, la ira o la sorpresa, entre otros, y por el momento, lo hace en información escrita, si bien están empezando a trabajar también con imágenes.
«Nos proponemos identificar la desinformación desde una perspectiva multimodal, combinando la información textual con la visual a través de técnicas basadas en deep learning (tecnología evolucionada del aprendizaje automático que lo hace más sólido y efectivo)», explica Giachanou.
La investigadora, que desarrolla su investigación en el PRHLT gracias a una beca de la Fundación Nacional para la Ciencia de Suiza (SNSF por sus siglas en inglés), añade que «además, se llevará a cabo un análisis multilingüe cuándo la información sea en lenguajes diferentes».
Por otro lado, este primer prototipo permite detectar también lenguaje agresivo y mensajes de odio en los medios sociales de comunicación.
Para monitorizarlos, el equipo de la UPV, la UNED y la Universitat de Barcelona propone un enfoque terminológico, extrayendo términos y patrones lingüísticos de odio a partir de conjuntos de datos analizados anteriormente y monitorizar sistemáticamente si se emplean en nuevas conversaciones en línea.
Como próximos retos, el equipo de investigadores que ha desarrollado este proyecto trabaja en la clasificación de patrones y rasgos de la personalidad que se esconden detrás de los «haters» (odiadores) de las redes sociales.
Los socios del proyecto celebraron la semana pasada un encuentro en el que presentaron los resultados del primer año de trabajo, ha informado la UPV.
En este encuentro, José Luis Diego, miembro de la Policía Local de Valencia, que participa como Entidad Promotora Observadora (EPO) en este proyecto, expuso los retos de este cuerpo de seguridad para la detección de mensajes de odio y de exclusión en las redes sociales.
Por parte del centro PRHLT de la Universidad Politécnica de Valencia también participan en el proyecto Francisco Casacuberta y José Miguel Benedí, han indicado las mismas fuentes.
Fuente: EFE