Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados Investigación

Aprobado un nuevo Instituto Universitario de UJA de Inteligencia Artificial

JAÉN.- El Consejo Andaluz de Universidades (CAU) ha aprobado la creación de seis nuevos institutos de investigación universitarios, entre los que se encuentra el Instituto Andaluz de Investigación Interuniversitario sobre Data Science and Computational Intelligence (DaSCI), a cargo de las Universidades de Jaén (UJA) y Granada (UGR). Un Instituto centrado en la Inteligencia Artificial, que investigará en dos grandes áreas fundamentales, a nivel teórico y práctico: la Ciencia de Datos (Data Science) y la Inteligencia Computacional (Computational Intelligence). Dos ámbitos de gran proyección en el ámbito de la investigación internacional y con un gran reconocimiento científico en las universidades de Jaén y Granada. Este nuevo Instituto Interuniversitario se suma al que ya tiene la UJA, al Instituto de Arqueología Ibérica.

Los seis nuevos institutos de investigación universitarios andaluces, dedicados a la investigación científica y técnica, o a la creación artística, podrán comenzar a funcionar a partir del próximo curso y se suman a los trece existentes en toda la Comunidad Autónoma. Además del Interuniversitario de UJA y UGR, el CAU, en su última reunión, ha procedido a aprobar, tras el informe favorable de la Agencia del Conocimiento, la creación del Instituto Universitario de Investigación en Geofísica y Prevención de Desastres Sísmicos (en la Universidad de Granada), el Instituto Universitario de Investigación en Estudios de las Mujeres y de Género (también en la Universidad de Granada), el Instituto Universitario de Investigación en Tecnología e Ingeniería del Software (Universidad de Málaga), Instituto Universitario de Investigación en Domótica y Eficiencia Energética (también en la Universidad de Málaga), y el Instituto Universitario de Investigación en Ingeniería Informática (en la Universi-dad de Sevilla).

Según la normativa, los institutos de investigación universitarios podrán ser constituidos por una o más universidades, o conjuntamente con otras entidades públicas o privadas mediante convenios u otras formas de cooperación, de conformidad con los estatutos de cada institución académica. Su funcionamiento tenderá a la autofinanciación y sólo de manera excepcional con una dotación presupuestaria diferenciada, aunque integrada en el presupuesto general de la universidad de referencia. Además, se podrán financiar por ingresos que puedan obtener de fuentes de financiación externa, en su mayoría procedentes de los contratos o proyectos de investigación en los que participen o las subvenciones finalistas a las que accedan.

Fte: Hora Jaén / Ideal

Eneko Agirre profesor de la UPV-EHU obtiene un premio de investigación de Google

San Sebastián, 7 may (EFE).- El profesor de la Facultad de Informática de la Universidad del País Vasco (UPV-EHU) Eneko Agirre ha obtenido uno de los premios de investigación de Google por el que recibirá una ayuda económica de 80.000 dólares para desarrollar su proyecto sobre inteligencia artificial.

Agirre, profesor del departamento de Lenguajes y Sistemas Informáticos, ha recibido este galardón por su investigación «Accessing FAQ and CQA sites via dialogue«, centrada en el desarrollo de sistemas de diálogo para poder conversar con las máquinas sobre la información disponible en internet, ha informado la UPV-EHU en un comunicado.

Eneko Agirre ha explicado que actualmente los usuarios acceden a la información de internet mediante buscadores como Google o Bing, que «devuelven los documentos relevantes» de la búsqueda.

Sin embargo, esta realidad está cambiando gracias al desarrollo de asistentes virtuales que entienden la voz como Siri, Alexa o Google Assistant, ha precisado.

«Estos asistentes se están popularizando rápidamente» a través de móviles y altavoces inteligentes y «están revolucionando nuestra forma de comunicarnos con las máquinas», afirma el docente.

No obstante, señala que actualmente existe un número limitado de aplicaciones a las que se puede acceder mediante diálogo debido, entre otras razones, a que «las máquinas no entienden la complejidad del lenguaje y se pierden fácilmente» en la ambigüedad del mismo.

El proyecto premiado busca poder acceder mediante estos asistentes virtuales a la gran cantidad de información que existe en internet gracias a técnicas de inteligencia artificial.

«El reto consiste en ser capaces de transmitir esa información mediante un diálogo lo más natural posible con la persona», ha explicado Agirre.

El grupo de investigación que lidera Agirre recogerá para ello «grandes cantidades de diálogos entre dos personas, en los que una de ellas formula preguntas y la otra las responde sobre la base de la información que reside en un documento concreto».

Estos diálogos servirán para entrenar los modelos automáticos, de forma que éstos puedan servir para responder sobre cualquier otro tema con naturalidad, ha precisado la misma fuente.

Fte: Diariovasco

Científicos españoles crean modelos predictivos de enfermedades con big data e IA

El objetivo de este equipo es afinar las predicciones sobre el diagnóstico a partir de las imágenes médicas

Fuente: Innovadores La Razón

Un equipo de investigadores valencianos trabaja en el desarrollo de un sistema que aprovecha las capacidades de clasificación de información que ofrecen los procesos de computación de big data e inteligencia artificial (IA) y, en concreto, el aprendizaje profundo. En el proyecto DeepHealth se pretenden crear modelos predictivos a partir de una gran base de datos con imágenes anonimizadas.

La idea fundamental del proyecto es disponer de algoritmos basados en deep learning que analicen imágenes y proporcionen información estructurada útil para el diagnóstico. Para ello, explican fuentes de la Universidad Politécnica de Valencia, es necesario «generar modelos predictivos que, nutriéndose de una gran cantidad de imágenes, proporcionen como salida la probabilidad de que una nueva imagen refleje o no una determinada enfermedad».

Así, este equipo ha recibido 12,7 millones de euros de la Unión Europea para el desarrollo de un software que permita el análisis y almacenamiento de gran cantidad de datos, principalmente imágenes médicas, como herramienta de apoyo a los facultativos en el proceso de toma de decisiones sobre el diagnóstico.

Un componente esencial del proyecto es la creación de una gran base de datos con imágenes médicas anonimizadas que puedan utilizarse para entrenar y validar los modelos matemáticos predictivos. En este sentido, María de la Iglesia-Vayá, responsable del proyecto en la Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat Valenciana, afirma: «Crearemos una base de datos que contendrá miles de imágenes anotadas, es decir, descritas y adecuadamente clasificadas. Las anotaciones incluirán cientos de parámetros como, por ejemplo, el volumen exacto de decenas de regiones del cerebro y otras partes del cuerpo».

El gran valor de este proyecto, añade la investigadora de la FISABIO, es que «persigue, a partir de reunir y analizar conjuntamente muchos de esos parámetros de imagen en miles de casos diferentes, afinar las predicciones sobre el diagnóstico a partir de las imágenes médicas y, de ese modo, reforzar la cantidad de información que se extrae de ellas y su valor clínico».

Jon Ander Gómez Adrián, investigador de la UPV y coordinador del proyecto, señala que el objetivo  «es aunar dos áreas de desarrollo informático que hasta ahora han estado separadas: la supercomputación, que ofrece unas extraordinarias capacidades de procesamiento, y el big data, que ofrece una gran capacidad analítica».

Para ello, Gómez apunta que el primer paso es «crear un entorno operativo, basado en dos nuevas bibliotecas informáticas, que permita la comunicación y el entendimiento entre los entornos informáticos de supercomputación y los de big data«.

«Una vez desarrollado el entorno operativo» completa Roberto Paredes Palacios, también de la UPV, «el siguiente paso será aplicarlo a una serie de casos clínicos para entrenar los modelos predictivos en diferentes áreas médicas, 14 en total, incluyendo migraña, demencia, depresión, etc.» Por último, los modelos entrenados serán evaluados para validar las predicciones con el fin de confirmar que estas son correctas.

Equipo científico: El proyecto es una colaboración multidisciplinar entre el grupo de investigación liderado por María de la Iglesia-Vayá en la Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat Valenciana (FISABIO) e ingenieros informáticos de la Universitat Politècnica de València (UPV) coordinados por Jon Ander Gómez Adrián. Junto a ellos, en una iniciativa coordinada por Everis, participan investigadores de otras 19 instituciones de nueve países europeos. Puesto en marcha durante el pasado mes de enero con una duración prevista de tres años.

Información en Innovadores

Científicos valencianos describen el cambio en un cerebro con alzhéimer años antes del primer síntoma

Una investigación llevada a cabo por la Universitat Politècnica de València (UPV), la Universitat de València (UV), el Centro Nacional para la Investigación Científica de Francia (CNRS, en sus siglas en francés) y la Universidad de Burdeos (UB), ha descrito los cambios que sufren determinadas estructuras cerebrales a lo largo de la vida, permitiendo estimar el momento en que se separan las trayectorias de los modelos patológico y no patológico.

La investigación, desarrollada por el ingeniero informático José Vicente Manjón (UPV), Enrique Lanuza (UV), Pierrick Coupé (CNRS), y Gwenaelle Catheline (UB), y publicada en la revista Scientific Reports, ha mostrado una divergencia alrededor de los 40 años de edad en los volúmenes del hipocampo, la amígdala y los ventrículos laterales del modelo de alzhéimer, comparado con el modelo de envejecimiento normal.

En el caso del hipocampo y la amígdala, el volumen disminuye, mientras que en el caso de los ventrículos laterales, aumenta en el modelo patológico.

Divergencias: modelos y edades de detección

El hipocampo es la estructura cerebral que exhibe la divergencia más precoz entre el modelo cognitivamente normal y el modelo patológico, siendo detectable entre los 37 y los 39 años en función del deterioro cognitivo.

Por su parte, la amígdala es la parte que experimenta cambios más grandes en proporción a su tamaño en el momento de divergencia, producido entre los 40 y los 44 años. Esta desviación no es sorprendente, puesto que es la responsable de la degradación de la capacidad de procesamiento de la emoción y, probablemente, está también relacionada con los déficits olfativos, síntomas frecuentes en los pacientes con alzhéimer.

En cuanto al modelo de ventrículos laterales, la investigación pone de manifiesto que hay una divergencia temprana entre los 39 y los 42 años. Sin embargo, la ampliación de esta estructura durante el envejecimiento normal reduce la anomalía después de los 60 años. Por lo tanto, el uso de este biomarcador es difícil para los casos de inicio tardío de la dolencia, puesto que el agrandamiento de los ventrículos laterales se produce durante el envejecimiento normal.

Según Lanuza, investigador y profesor del Departamento de Biología Celular, Biología Funcional y Antropología Física de la UV, «estos resultados sugieren que las alteraciones neuropatológicas subyacentes al alzhéimer empiezan mucho antes de la aparición de los síntomas clínicos, y años antes del diagnóstico clínico».

Más de 4.000 resonancias magnéticas analizadas para crear los modelos

Este trabajo establece un marco de referencia que permite entender cuál es la dinámica de un cerebro sano y cuál la del cerebro afectado por alzhéimer. Para llegar a él, el equipo de investigación ha analizado más de 4.000 imágenes de resonancias magnéticas de cerebros sanos y enfermos correspondientes a sujetos con edades comprendidas entre los 9 meses y los 94 años de edad.

Para ello, hicieron uso de volBrain, una plataforma online gratuita desarrollada por el equipo de la UPV y el CNRS que permite un análisis automático, rápido y detallado, del volumen de diferentes estructuras del cerebro.

Durante el estudio, los investigadores evaluaron 2.944 resonancias de cerebros sanos, a partir de las cuales desarrollaron el modelo de la evolución normal de los volúmenes cerebrales a lo largo de la vida, y otras 1.400 de pacientes con alzhéimer de más de 55 años, con las que construyeron el modelo de los cerebros enfermos.

«A partir de la comparación de ambos modelos», señala Manjón, investigador del grupo IBIME-ITACA de la UPV, «el estudio permitió constatar cuándo se producen esas primeras alteraciones en el cerebro».

Diseño de nuevos fármacos en fase preclínica

Así mismo, el investigador de la UPV apunta que este trabajo podría ayudar, a su vez, al diseño de nuevos fármacos para ralentizar el progreso de la patología.

«El nuevo modelo propuesto», destaca, «nos da información sobre los cambios del cerebro de los 40 a los 55 años, es decir, en una fase muy temprana de la enfermedad y de la que apenas se tenía datos. Esto abre la puerta a estudiar el efecto de futuros fármacos en una fase preclínica, cuando la degradación del cerebro puede aún ser reversible».

Sobre volBrain

volBrain ofrece información sobre los volúmenes de los tejidos de la cavidad intracraneal (ICC), así como de algunas áreas macroscópicas como los hemisferios cerebrales, el cerebelo y el tronco cerebral. Además, proporciona también los volúmenes e índices de asimetría de las estructuras subcorticales, de gran importancia en el ámbito neurológico. Toda esta información resulta de especial relevancia para el avance de la investigación sobre patologías neurológicas.

Entre sus principales ventajas, volBrain destaca fundamentalmente por su facilidad de uso y velocidad de análisis, que lo diferencian de otros sistemas similares que existen en el mercado.

Actualmente, el sistema ha procesado más de 130.000 cerebros de todo el mundo, y analiza una media de 4.000 casos al mes.

Fte.:UPV

La computación se hace hueco en el programa InTalent

El ingeniero informático José Antonio Iglesias, es uno de los dos investigadores elegidos en esta tercera edición.

Andrea G.G. A Coruña

El rector de la Universidad de A Coruña, Julio Abalde, y el vicerrector de Política Científica, Investigación y Transferencia, Salvador Naya, presentaron ayer a los dos nuevos investigadores que se incorporan al programa InTalent UDC-Inditex, Mónica Ferrín y José Antonio Iglesias. Ambos fueron elegidos por su excelencia entre 106 candidatos, para formar parte de la tercera edición de este proyecto.

Los dos investigadores estuvieron durante más de diez años lejos de su tierra, Galicia, por lo que ambos agradecen la oportunidad, “contentos de voltar a casa”. 

En el caso de José Antonio Iglesias era la segunda vez que se presentaba a este programa, “non todo sae á primeira, pero perseverar é tamén importante”. Licenciado en Ingeniería Informática, estuvo por diferentes lugares europeos hasta volver a tierras coruñesas. Su especialidad es la computación visual y gráfica y la utilizará en su proyecto de investigación para centrarse en la exploración de técnicas de rendering e iluminación avanzadas para la visualización científica, así como a su reciente adopción en simuladores virtuales y para creación sintética de datos e imágenes más realista.

InTalent UDC-Inditex es un proyecto de colaboración entre la Universidad y la empresa Inditex para la retención, recuperación y captación de talento investigador con el objetivo de generar tejido científico e investigador de excelencia en el seno de la enseñanza universitaria. Un aspecto que referenció Julio Abalde, «non queremos captalos, senón retelos”. A lo que añadió que no quieren que sea solamente un vínculo de tres años, “se seguen a conseguindo obxectivos, queremos incorporalos á plantilla universitaria”. Un dato importante “para non perder o seu talento”, en un proyecto en el que ambos géneros están representados por un cincuenta por ciento.

Fte.: El Ideal gallego

Así quiere que las máquinas puedan ‘leer’ música este investigador informático español

A sus 30 años, Jorge Calvo es una referencia mundial en reconocimiento óptico de música. Ha asentado las bases de un nuevo enfoque que usa ‘machine learning’ para entender las partituras como un todo.

María Climent – Innovadores

Qué riqueza la de la escritura musical. Sobre un lienzo de cinco líneas bailan las notas con sus figuras, puntillos, pausas… Las claves marcan el arranque de un vaivén de acordes, compases, alteraciones… Qué distinta al lenguaje escrito, con su evidente estructura secuencial. Y cuando la música escrita viene del pasado, las diferencias se vuelven más patentes. Incluso existen tesoros que hoy nadie es capaz de descifrar. Piezas centenarias con una notación obsoleta e inescrutable; pero tan valiosa… Ese es el reto del investigador español Jorge Calvo, que está ‘enseñando’ a la inteligencia artificial a ‘leer’ música, del siglo que sea.

Llegó al reconocimiento óptico de música casi por casualidad, un campo que cuenta con solo un par de decenas de expertos a nivel mundial y, a pesar de su juventud, pronto se convirtió en un referente global en la materia.

El galardonado con el Premio Joven Investigador Informático de 2018, otorgado por la Sociedad Científica Informática de España (SCIE) y la Fundación BBVA, a sus 30 años puede enorgullecerse de una carrera prolífica en publicaciones (unos 30 artículos en revistas y 40 en congresos) y de contar con una plaza propia en la Universidad de Alicante. Allí es donde empezó su andadura, estudiando Informática. Pronto la investigación le despertó el ‘gusanillo’ y decidió hacer su doctorado.

Entró en un grupo de investigación especializado en música por ordenador. “Yo no sé de música”, reconoce a INNOVADORES. Tampoco las máquinas. Este campo, prácticamente inexistente en todo el mundo, le permitía trabajar en un aspecto de la música que no estaba estrechamente relacionado con la música. ¿Cómo? Utilizando ‘machine learning’ (aprendizaje automático, una rama de la inteligencia artificial) para desentrañar las partituras como si fueran imágenes. Como ahora todo es digital, parece lógico que Calvo se especializase en patrimonio antiguo, que añadía un grado mayor de dificultad a sus estudios.

“Hay mucha gente que trabaja en el tratamiento de imágenes de texto”, comenta. “El concepto es parecido, pero el lenguaje escrito no tiene nada que ver con la notación musical, mucho más compleja porque todos los conceptos se relacionan entre sí”, explica. Concluye: “En música tienes que estar atento a 40 cosas a la vez”.

Una visión diferente

Pronto, el joven español se hizo notar por su particular enfoque. Se dio cuenta de que sus colegas buscaban soluciones concretas a cada partitura. “El problema en los archivos musicales es que cada librito tiene su propia particularidad”, señala. Por tanto, los resultados de cada experto no podían reutilizarse por el resto. “Pensé que no se estaba haciendo ciencia en el sentido de construir algo en base al trabajo de otros”.

Encontró en el ‘machine learning’ la perfecta solución al problema. Corría el 2013, por aquel entonces la inteligencia artificial no era tan popular como hoy. Así estableció una nueva forma de ‘leer’ música, aunque al principio reconoce que le costó convencer a la pequeña comunidad científica que existía en torno al reconocimiento óptico de música. “La idea era rompedora en este campo y los revisores no la entendían”.

Hasta el momento, para reconocer una partitura, se dividía en etapas donde primero se buscaban los símbolos para después tratar de relacionarlos. Calvo se salta estas fases y las unifica en una única, “aún más general”. De esta forma, se puede replicar, aunque cambie la notación musical. “Intento que directamente el algoritmo me diga qué pone”, dice. Además, el sistema de aprendizaje automático aprende también las vinculaciones sin ser programado explícitamente para ello.

Y todo esto, ¿para qué? Calvo tiene en marcha un proyecto basado en su investigación que consiste en transcribir de imagen a formato digital patrimonio hispánico a partir del Renacimiento. “La notación musical que usamos ahora no tiene nada que ver con la del pasado”, puntualiza. En España, la música se hacía de una manera determinada, tan peculiar que hoy “tenemos mucho patrimonio que la comunidad no ha estudiado en profundidad porque es diferente”. Es decir, que no hay expertos y, por tanto, esas partituras hoy no dicen nada.

“Con inteligencia artificial podemos desenterrar un montón de patrimonio en España y América”. Para, por ejemplo, conocer el origen de los cancioneros populares. Para conseguirlo, se estudiará un archivo concreto en Valencia. “Si es exitoso, lo replicaremos a otros lugares”.

Fuente: Innovadores La Razón

Diseñan juegos terapéuticos interactivos para personas con parálisis cerebral

La Universidad Rovira i Virgili (URV) de Tarragona coordina un proyecto europeo para diseñar juegos terapéuticos interactivos para personas con parálisis cerebral con la intención de mejorar su control de movimientos y su interacción social a través de una plataforma digital.

El proyecto, que se denomina GABLE «Gamification for a Better Life», lo dirige el grupo de investigación Robótica y Visión Inteligentes de la URV y utiliza las tecnologías emergentes del juego, como la realidad aumentada o el aprendizaje automático, para personalizar el juego a cada persona, es decir, el juego se adapta a las necesidades de cada jugador ya que el nivel se modula dependiendo de su respuesta. Además, según los investigadores, ofrece mecanismos de control que permiten a los cuidadores de las personas con parálisis cerebral controlar adecuadamente el progreso de los pacientes, ya que los resultados se monitorizan para poder ver la evolución de cada jugador.

Aparte de hacer un seguimiento sobre la mejora del equilibrio y la movilidad del jugador, el proyecto busca facilitar las relaciones entre pacientes con parálisis cerebral, para lo cual ha desarrollado tecnologías que permiten que sean juegos colaborativos, con varios jugadores participando simultáneamente desde cualquier lugar del mundo. «Así favorecemos la capacidad de comunicación de las personas que interactúan», ha indicado el catedrático Domènec Puig, investigador principal del proyecto y coordinador del grupo Robótica y Visión Inteligentes del Departamento de Ingeniería Informática y Matemáticas de la URV.

De momento trabajan con personas que tienen cierto grado de movilidad con el objetivo de ayudar a mejorar aspectos de equilibrio fisiológico y control de movimientos. Los jugadores utilizan una tabla de equilibrio (balance board), y el juego se desarrolla a través del movimiento que hacen encima de la mesa. Los investigadores han recordado que las limitaciones en sus habilidades físicas hacen que sea difícil para las personas con parálisis cerebral jugar a muchos de los juegos existentes.

Los juegos se están poniendo a prueba de manera experimental en el taller Baix Camp de Reus (Tarragona), y en la Fundación la Espiga de Vilafranca del Penedès (Barcelona), cuyo coordinador, el psicólogo Joan Giménez, ha opinado que «es muy interesante unir el ocio con las mejoras físicas de los usuarios». Según Giménez, «con el día a día se ve mejora en la movilidad», aunque todavía están en el periodo de recogida de datos.

El proyecto, financiado por el programa marco europeo H2020, agrupa a cinco socios internacionales coordinados por la URV que, aparte de coordinar el proyecto, se encarga del análisis inteligente de datos. Al final de este año se acaba el proyecto y ya habrá prototipos viables, con la intención de que los juegos se puedan estandarizar y hacerlos comerciables y distribuibles.

Fuente: EFE/La Vanguardia/ URV

Investigadores abordan la computación de altas prestaciones

fte.: Eldiadigital.es

Un centenar de investigadores de toda España se han dado cita este jueves y hasta este viernes, 1 de febrero, en el Seminario de Invierno de la Red de Computación de Altas Prestaciones sobre Arquitecturas Paralelas Heterogéneas (Red CAPAP-H), cuya décima edición acoge la Escuela Superior de Ingeniería Informática (ESII). Diferentes ponencias y talleres forman parte del programa de este encuentro que ha sido inaugurado por el vicerrector de Investigación y Política Científica, Julián Garde.

La Escuela Superior de Ingeniería Informática de Albacete es la anfitriona del X Seminario de Invierno de la Red de Computación de Altas Prestaciones sobre Arquitecturas Paralelas Heterogéneas (Red CAPAP-H), que se celebra en la Agrupación Politécnica Superior. El acto de presentación ha corrido a cargo del vicerrector de Investigación y Política Científica, Julián Garde, quien felicitaba al comité organizador y a todo el equipo que han trabajado en esta edición por el resultado obtenido, según ha informado la UCLM en nota de prensa.

Durante la presentación, Garde ha estado acompañado por el director general de Universidades, Ricardo Cuevas; el director del Departamento de Sistemas Informáticos, Francisco Quiles; el coordinador de la Red, Diego Llanos, y el responsable del comité organizador local de la UCLM, Jesús Escudero.

Tras el turno de intervenciones comenzaba el desarrollo de un programa en el que se desarrollarán diversas ponencias de miembros de la red y de empresas, una charla sobre aprendizaje profundo a cargo del profesor experto en la materia Enrique Quintana y un taller técnico sobre entrenamiento de redes neuronales de ‘deep learning’ mediante hardware NVIDIA, impartido por el profesor Mario Martínez-Zarzuela, embajador de la compañía NVIDIA.

El encuentro está patrocinado por las empresas IBM, grupo Tecon-Mellanox, Vermon y ABDprof, además de por la Escuela Superior de Ingeniería Informática de Albacete, el Departamento de Sistemas Informáticos de la UCLM, el Instituto de Investigación en Informática de Albacete, y el Ministerio de Educación.

CAPAP-H es una red de excelencia que agrupa investigadores de 30 universidades y centros de investigación de toda España, que trabajan principalmente en el ámbito de la computación y los computadores.

Acceso a la noticia original

Un sistema para big data diseñado en Pamplona construye modelos predictivos miles de veces mejores que los actuales

El nuevo algoritmo del ingeniero informático Mikel Elkano Ilintxeta mantiene la precisión con modelos compuestos por apenas una veintena de reglas.

Fte.: Pamplona actual

Mikel Elkano Ilintxeta (Pamplona, 1991), investigador del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), ha diseñado un nuevo sistema de clasificación basado en reglas difusas (SCBRD) para “big data” (datos masivos), que es capaz de construir modelos predictivos que pueden llegar a ser hasta 200.000 veces más compactos que los generados por los SCBRD disponibles hasta la fecha, manteniendo, además, la precisión en las predicciones.

“El SCBRD más preciso hasta la fecha requería entre cinco y seis millones de reglas para lograr predicciones precisas, haciendo prácticamente imposible que el usuario pudiese interpretar las predicciones. Con este nuevo algoritmo o herramienta matemática, es posible mantener la precisión con modelos compuestos por apenas entre veinte y treinta reglas fácilmente interpretables”, explica el investigador, cuyo trabajo forma parte de su tesis doctoral leída en la institución académica y calificada con sobresaliente “cum laude”. Este avance en el campo de la Inteligencia Artificial (y, más concretamente, en la Ciencia de Datos) puede ser aplicado en diversos campos, como en la medicina, ya que ayudará a los profesionales sanitarios a tomar decisiones basándose en los miles de datos recogidos en historiales clínicos, y también en la física. Así, gracias a los modelos obtenidos, el también investigador de Navarrabiomed (centro mixto de investigación biomédica de la institución académica y el Gobierno de Navarra) ha sido capaz de “extraer las variables más importantes a la hora de identificar bosones de Higgs y partículas supersimétricas, si bien la precisión de los SCBRD no alcanza todavía la de otros modelos predictivos no interpretables”.

Los sistemas de clasificación basados en reglas difusas (SCBRD) proporcionan un modelo formado por una serie de reglas que contienen etiquetas lingüísticas interpretables por el ser humano, lo que les permite explicar el razonamiento llevado a cabo al realizar una predicción. Este tipo de reglas posibilita a los SCBRD no solo explicar el porqué de las predicciones, sino también manejar la incertidumbre proveniente de información imprecisa. De ahí su importancia.

INTERPRETACIÓN DE LAS PREDICCIONES

Como señala Mikel Elkano Ilintxeta, “en la actualidad, la ingente cantidad de información producida y gestionada por el ser humano excede la capacidad de cómputo y almacenamiento de las máquinas convencionales modernas”. “En el caso de los SCBRD diseñados para ‘big data’, además de la dificultad añadida de la computación distribuida, la gran cantidad de datos que debe procesarse hace que los modelos predictivos obtenidos sean demasiado complejos y contengan un número excesivamente elevado de reglas, lo que hace que las predicciones sean más difíciles de comprender e interpretar”, indica Mikel Elkano Ilintxeta, cuya tesis doctoral ha sido dirigida por Edurne Barrenechea Tartas y Mikel Galar Idoate, investigadores del Instituto ISC de la UPNA y de Navarrabiomed.

El algoritmo recogido en la tesis doctoral “reduce considerablemente el número de reglas y esta circunstancia favorece su empleo, por ejemplo, en medicina, para ayudar a los especialistas a tomar decisiones basándose en historiales clínicos”. “Dado que cada vez disponemos de más información acerca de los pacientes, el uso de algoritmos de aprendizaje automático permite aprovechar todos estos datos para poder detectar patrones existentes entre diferentes pacientes y extraer las variables más influyentes a la hora de predecir una cierta patología”, concluye el investigador.

BREVE CURRÍCULUM

Mikel Elkano Ilintxeta cursó, sucesivamente, Ingeniería Técnica en Informática de Gestión e Ingeniería Informática en la Universidad Pública de Navarra. Con esta última titulación obtuvo el Premio al Mejor Proyecto Fin de Carrera por la Asociación Española para la Inteligencia Artificial (AEPIA) en la Escuela de Verano de Inteligencia Artificial de 2014. Posteriormente, completó su formación con un Máster en Psicobiología y Neurociencia Cognitiva en la Universidad Autónoma de Barcelona (2015) y una estancia de investigación en Monash University (Melbourne, Australia) en 2016 para trabajar en el campo de la neurociencia computacional. Sus investigaciones se han reflejado en nueve artículos publicados en revistas científicas de alto impacto y en la presentación de siete trabajos en congresos internacionales.

Noticia completa aquí

Entrega de Premios de Investigación Sociedad Científica Informática de España FBBVA 2018

Coches sin conductor que se comportan como bandadas de pájaros; software para interpretar partituras del Renacimiento; análisis de las emociones que expresan los usuarios de las redes sociales; y herramientas para mejorar el aprendizaje de las personas. Esta es solo una muestra de los desarrollos impulsados por los ganadores de los Premios de Investigación Sociedad Científica Informática de España (SCIE)-Fundación BBVA , entregados el martes 30 de octubre en la sede madrileña de la Fundación BBVA. La ceremonia ha servido también para alertar de la necesidad de hacer frente a los nuevos retos derivados del avance de las capacidades de las máquinas: desde preparar a la sociedad para un mercado laboral en fase de cambio acelerado, hasta cómo hacer que la inteligencia artificial incorpore valores éticos.

Francisco González, presidente de la Fundación BBVA, ha recordado los inicios de su carrera trabajando como programador informático, destacando su fascinación ante la innovación tecnológica, que “además de apasionante en sí misma es el más potente motor del cambio económico”.

La versatilidad de los ordenadores los está dotando de “capacidades cada vez más próximas a las que tradicionalmente se suponía eran privativas de los humanos: relacionar conceptos y llevar a cabo inferencias, tomar decisiones… Coexistir con máquinas dotadas de esas asombrosas capacidades representa un cambio social sin precedentes”, ha señalado el presidente de la Fundación BBVA. Ante ello, “la sociedad devuelve a la comunidad científica nuevos retos. Entre los de más relieve están los de salvaguardar la seguridad de la información y los sistemas, regular de manera eficaz la privacidad, evitar los efectos indeseados de algunas prácticas emergentes en las redes sociales, preservando su enorme potencia”. Además, para Francisco Gonzalez “otro desafío monumental es el de dotar a las máquinas inteligentes de un mapa de valores, un GPS ético que oriente en el uso de esa inteligencia”. Según el presidente de la Fundación BBVA, “no es un desafío menor, pero no será insalvable”.

Antonio Bahamonde, presidente de la SCIE, ha resaltado por su parte los cambios en el mercado de trabajo: “la ola de automatismo que se extiende por todos los campos económicos y sociales producirá un cambio en el modelo productivo con consecuencias en el empleo”. Según sus datos, “en nuestro país podría desaparecer en pocos años un importantísimo número de puestos de trabajo, y el resto se transformará al incorporar los avances informáticos”. Bahamonde también ha señalado que “se crearán nuevos empleos”, pero a la vez ha insistido en que “si no estamos preparados para estos cambios podríamos vernos abocados a una situación social bastante negativa”.

La SCIE y CODDII piden asignaturas de informática en Educación Primaria, “para que todos tengamos una formación que permita afrontar los retos, que despeje los miedos y que fomente el espíritu crítico sobre una tecnología que va a cambiar nuestras vidas de una manera tan profunda”.

Tanto Francisco González como Antonio Bahamonde aludieron a la necesidad de aumentar la presencia de mujeres en la investigación en informática –menos de un 15% de los estudiantes de carreras de tecnologías de la información son mujeres, y es un porcentaje que ha descendido en los últimos años–. “También en esta área necesitamos el talento de más de la mitad de la población que cursa estudios superiores”, ha recalcado el presidente de la Fundación BBVA. “Por nuestra parte, colaboraremos con la SCIE en comprender mejor este problema”.

A la ceremonia de entrega han asistido los rectores de la Universidad Carlos III de Madrid, Juan José Romo, la Universidad Politécnica de Valencia, Francisco José Mora y la Universidad de La Coruña, Julio E. Abalde.

Os incluimos el vídeo de presentación de los Premios Nacionales de Informática 2018: Vicent Botti, catedrático e investigador en la Universidad Politécnica de Valencia (UPV), Premio José García Santesmases; Ramón Doallo, catedrático de la Universidad de La Coruña, Premio Aritmel; Ricardo Baeza-Yates, catedrático ICREA de la Universidad Pompeu Fabra (UPF), Premio Ángela Ruiz Robles.

Vídeo de presentación de los galardonados con los Premios Jóvenes Investigadores Informáticos 2018 SCIE-Fundación BBVA: Jorge Calvo, investigador Juan de la Cierva en la Universidad Politécnica de Valencia; Raúl Mur, doctor por la Universidad de Zaragoza e investigador en Facebook Reality Labs, EE.UU.; Daniel Peralta, investigador en la Universidad de Gante (Bélgica); Damián Roca, investigador en la Universidad Politécnica de Cataluña; José Antonio Ruipérez, investigador postdoctoral en el Instituto Tecnológico de Massachusetts (MIT), EEUU; David Vilares, investigador postdoctoral en la Universidad de La Coruña.

Fte.: SCIE y FBBVA