Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados fake news

Artículo de Miguel Ángel García Cumbreras (Escuela Politécnica Superior de Jaén) y Estela Saquete (Universidad de Alicante) sobre el proyecto el proyecto Living-Lang para detectar ‘fake news’

Las noticias falsas o fake news fueron definidas por The New York Times como una “historia inventada con la intención de engañar, a menudo con un beneficio monetario como motivo”.

Su objetivo principal es manipular la opinión pública para influir en los comportamientos sociopolíticos o en los sistemas de creencias de las masas, y normalmente se generan por intereses ideológicos o económicos. Detectarlas es cada vez más una prioridad social, y la inteligencia artificial es la única herramienta que puede contener la invasión de bulos online.

En el proyecto Living-Lang, los grupos de investigación GPLSI (Universidad de Alicante) y SINAI (Universidad de Jaén), trabajamos en la detección automática de noticias falsas. Estamos desarrollando un sistema basado en inteligencia artificial que marcará en un texto, de modo automático mientras se está leyendo, las incongruencias, y otras señales que alerten de que la información no es confiable. Hemos probado el sistema de detección en noticias sobre la covid-19.

Seguir leyendo: https://theconversation.com/podemos-detectar-las-noticias-falsas-en-quien-confiamos-173561

Fuente: The Conversation

Diego Sepúlveda, estudiante de Ingeniería Informática de la UCLM, ganador del concurso de Telefónica que busca soluciones de inteligencia artificial para frenar «fake news»

Diego Sepúlveda Millán, de 22 años, ha sido uno de los dos ganadores del «Desafío Fake News» de Telefónica, un concurso que busca «soluciones innovadoras basadas en inteligencia artificial» para tratar de atajar las noticias falsas que abundan en la red. Su proyecto, llamado«Newschecker», se basa en el desarrollo de una tecnología «que lea las noticias en el momento en el que se publican y trate de valorarlas según una serie de parámetros».

El parámetro al que más valor se le da es a «la relación entre el titular y el cuerpo de la noticia», es decir, a que concuerden, que sean coherentes. Sepúlveda explica que «en ningún momento el sistema asegura que la noticia sea falsa al cien por cien. De lo que se trata es de que arroje un tanto por ciento de fiabilidad». Y pone como ejemplo de noticias con bastantes probabilidades de ser falsas «cualquiera que tenga interrogaciones o palabras malsonantes en su titular». Sin embargo, también reconoce que «puede haber informaciones que tengan pinta de falsas por el titular y luego su credibilidad aumente porque tengan fuentes y estas sean comprobables».

«Lo más difícil es valorar qué es importante y qué no a la hora de analizar una noticia», afirma este estudiante de tercer curso del grado de Ingeniería Informática en el campus de la Universidad de Castilla-La Mancha (UCLM) en Ciudad Real. Para ello Sepúlveda ha contado con el asesoramiento de Carmen Cenjor, periodista del ente público de Castilla-La Mancha, que le dio una «clase magistral» de cómo se redacta una noticia y de la cohesión que debe haber entre el titular y el cuerpo.

Leer más: https://www.abc.es/espana/castilla-la-mancha/abci-desafio-informatico-villarrubia-ojos-contra-noticias-falsas-202012240116_noticia.html

Fuente: ABC Castilla-La Mancha

La Fundación BBVA impulsa 20 proyectos de investigación sobre COVID-19 en Biomedicina, Big Data e Inteligencia Artificial, Ecología y Veterinaria, Economía y Ciencias Sociales, y Humanidades

 

Veinte equipos de investigación estudiarán diversas facetas de la pandemia de covid-19 gracias a una convocatoria especial de Ayudas de la Fundación BBVA dotada con un total de 2,7 millones de euros. Tras evaluar los casi 1.000 proyectos presentados, cinco comisiones de expertos han acordado la concesión de cuatro ayudas en Biomedicina (250.000 euros por proyecto); cuatro en Big Data e Inteligencia Artificial (150.000 euros por proyecto); cuatro en Ecología y Veterinaria (100.000 euros por proyecto); cuatro en Economía y Ciencias Sociales (100.000 euros por proyecto); y cuatro en Humanidades (75.000 euros por proyecto).

La pandemia de covid-19 ha desencadenado una disrupción global a escala planetaria, con una gravedad sin precedentes en las últimas décadas. El virus SARS-CoV-2 ha impactado duramente no solo sobre la salud de la población mundial, sino sobre múltiples aspectos de la vida económica y social. Este shock sistémico exige la búsqueda de soluciones fundamentadas que orienten las políticas públicas y el comportamiento de los agentes económicos y sociales.

>> Sigue leyendo para conocer los proyectos subvencionados aquí <<

Fuente: Fundación BBVA

Usan inteligencia artificial para detectar noticias falsas y mensajes de odio en las redes sociales

IA-Fake-news-upv

Investigadores de la Universidad Politécnica de València (UPV) han desarrollado un sistema de Inteligencia Artificial (IA) que ha ayudado a detectar noticias falsas (fake news) y ataques explícitos e implícitos en las redes sociales.

Es el primero de los resultados del proyecto MISMIS-FAKEnHATE, liderado por el centro Pattern Recognition and Human Language Technology (PRHLT) de la UPV, en el que también participan la UNED y la Universitat de Barcelona y colabora la Policía Local de València, y que en fase de prototipo ya se ha usado para localizar este tipo de mensajes contra mujeres e inmigrantes.

El investigador de la PRHLT-UPV Paolo Rosso ha explicado que hoy en día la ciudadanía «acaba recibiendo en los medios sociales de comunicación sólo la información que concuerda con sus creencias y puntos de vista, con el riesgo de un aislamiento intelectual» o burbuja de información.

Rosso ha hecho hincapié en que un «efecto perverso» que provoca esta realidad es que «cuando la información corrobora nuestras creencias, tendemos a compartirla sin comprobar su veracidad», lo que «facilita la propagación de desinformación, las llamadas ‘fake news'».

El relativo anonimato de los medios sociales favorece además la propagación de lenguaje agresivo, de mensajes de odio y exclusión, que fomentan la separación en comunidades cada vez más polarizadas en sus opiniones.

Al respecto, según apunta a EFE la investigadora del PRHLT-UPV Anastasia Giachanou, «se tiende a una escasa argumentación en los contenidos que a menudo se limitan a unos pocos insultos».

A partir de este análisis, este primer prototipo desarrollado por los investigadores permite identificar noticias falsas a partir de un análisis automático tanto del lenguaje utilizado, como de las emociones que subyacen a ese texto.

Para ello, es capaz de discernir emociones básicas como el miedo, la ira o la sorpresa, entre otros, y por el momento, lo hace en información escrita, si bien están empezando a trabajar también con imágenes.

«Nos proponemos identificar la desinformación desde una perspectiva multimodal, combinando la información textual con la visual a través de técnicas basadas en deep learning (tecnología evolucionada del aprendizaje automático que lo hace más sólido y efectivo)», explica Giachanou.

La investigadora, que desarrolla su investigación en el PRHLT gracias a una beca de la Fundación Nacional para la Ciencia de Suiza (SNSF por sus siglas en inglés), añade que «además, se llevará a cabo un análisis multilingüe cuándo la información sea en lenguajes diferentes».

Por otro lado, este primer prototipo permite detectar también lenguaje agresivo y mensajes de odio en los medios sociales de comunicación.

Para monitorizarlos, el equipo de la UPV, la UNED y la Universitat de Barcelona propone un enfoque terminológico, extrayendo términos y patrones lingüísticos de odio a partir de conjuntos de datos analizados anteriormente y monitorizar sistemáticamente si se emplean en nuevas conversaciones en línea.

Como próximos retos, el equipo de investigadores que ha desarrollado este proyecto trabaja en la clasificación de patrones y rasgos de la personalidad que se esconden detrás de los «haters» (odiadores) de las redes sociales.

Los socios del proyecto celebraron la semana pasada un encuentro en el que presentaron los resultados del primer año de trabajo, ha informado la UPV.

En este encuentro, José Luis Diego, miembro de la Policía Local de Valencia, que participa como Entidad Promotora Observadora (EPO) en este proyecto, expuso los retos de este cuerpo de seguridad para la detección de mensajes de odio y de exclusión en las redes sociales.

Por parte del centro PRHLT de la Universidad Politécnica de Valencia también participan en el proyecto Francisco Casacuberta y José Miguel Benedí, han indicado las mismas fuentes.

Fuente: EFE

Matemáticas para detectar noticias falsas en Twitter

Unversidad de Granada - Fake news - Foto agencia sinc

La Universidad de Granada y el Imperial College de Londres han analizado matemáticamente qué características presentan los tuits que contienen información falsa y han propuesto un sistema informático para detección de bulos.

El término fake news (noticias falsas) se ha popularizado en los últimos años, debido sobre todo al impacto que las campañas de desinformación en la red han tenido en diversos acontecimientos políticos y sociales, como el referéndum del Brexit o las elecciones generales en España de abril de 2019.

Los investigadores Miguel Molina Solana y Juan Gómez Romero, del departamento de Ciencias de la Computación de la Universidad de Granada (UGR), junto a varios colaboradores del Imperial College de Londres, han presentado un estudio sobre el uso de técnicas de inteligencia artificial para detectar estas noticias falsas en Twitter. El trabajo, publicado en la revista IEEE Access, analiza matemáticamente qué características presentan los tuits que contienen información falsa, y propone un sistema informático para detección de bulos.

El enfoque es diferente a las aproximaciones periodísticas habituales de fact checking, que requieren un ingente trabajo de verificación de datos y revisión de hemeroteca. Aunque la inteligencia artificial puede ayudar en esta tarea, Molina señala que “analizar el contenido de los tuits de forma automática es muy complicado, ya que requiere estudiar si el autor está simplemente siendo irónico o realmente está intentando hacer pasar una noticia falsa como verdadera”. 

Mayúsculas  e iconos son claves

Por ello, en este trabajo los investigadores decidieron utilizar, aparte del contenido del tuit, los datos disponibles sobre el mismo y sobre su autor (esto es, los metadatos), como por ejemplo el número de seguidores en el momento de publicar, la fecha de registro en la red social o la cantidad de mayúsculas e iconos utilizados.

Según destaca Molina, “los experimentos han mostrado que los usuarios que distribuyen información falsa de manera intencionada tienen un comportamiento diferente a los demás”, y añade que “este comportamiento anómalo se manifiesta a través de propiedades fácilmente medibles, como el número de contactos o de tuits marcados como favoritos del autor”. 

En consecuencia, estas características pueden usarse para ayudar en la identificación automática de noticias potencialmente falsas. La investigación también revela que las fake news suelen incluir información más polarizada, novedosa e impactante con el propósito de atraer la atención del lector.

El trabajo utiliza datos de Twitter sobre las elecciones presidenciales de 2016 en EEUU recopilados por los propios autores. Los hallazgos de la investigación han sido también presentados en la conferencia Truth and Trust Online (TTO), celebrada recientemente en Londres y organizada, entre otros, por Twitter, Facebook y la Universidad de Cambridge.

Fuente: Agencia SINC