Conferencia de Directores y Decanos de Ingeniería Informática

Un trabajo de Ingeniería de Software de la Universidad de Sevilla, entre los más influyentes del mundo

Un trabajo de investigación del grupo ISA de la Universidad de Sevilla ha sido distinguido como el artículo más influyente en el área de Ingeniería de Líneas de Producto Software (MIP, Most Influential Paper Award). Dicho galardón fue concedido durante la 21ª edición de la conferencia internacional de dicha temática (SPLC2017) celebrado en Sevilla del 25 al 29 de septiembre de 2017.

Se trata del trabajo “Automated Reasoning on Feature Models” de los autores David Benavides, Pablo Trinidad y Antonio Ruiz Cortés. Fue presentado en la conferencia CAiSE en 2005, y ha sido seleccionado por un comité internacional de expertos entre los artículos que más citas e influencia han tenido en el campo de las Líneas de Producto Software en todo el mundo en los últimos 20 años.

El comité destacó que se trata del primer trabajo que incorpora gramáticas atribuidas, resolutores de restricciones, modelos de características y optimización de configuraciones de líneas de producto software en un marco de trabajo elegante y coherente, abriendo  la puerta a lo que se ha convertido en ‘trending topic’ en los últimos años,  a saber: el análisis automático de modelos de características.

Según SISTEDES (Sociedad de Ingeniería de Software y Tecnologías de Desarrollo Software), esta es la primera vez que un grupo español recibe esta distinción en el área de Ingeniería de Software. Un trabajo relacionado con este fue recientemente galardonado por SISTEDES con el premio a la mejor tesis doctoral.

Todos los integrantes del grupo ISA son miembros del Departamento de Lenguajes y Sistemas Informáticos de la Universidad de Sevilla con sede en la Escuela Técnica Superior de Ingeniería Informática (ETSII), aunque desde hace algunos años son varios los doctores formados en este grupo que están desarrollado su actividad investigadora en instituciones extranjeras.

Más información

 

Diseñan un modelo informático en 3-D del genoma humano

Un grupo coordinado por la Escuela Internacional de Estudios Avanzados (SISSA, por sus siglas en inglés) de Trieste, en Italia, ha construido un modelo informático tridimensional del genoma humano, según informa El Médico Interactivo.

Este nuevo estudio ha proporcionado un primer retrato robot tridimensional aproximado pero realista del genoma humano. Gracias a las características del nuevo método, la reconstrucción estructural basada en la información experimental y métodos estadísticos se perfeccionará a medida que se disponga de nuevos datos experimentales.

Los detalles de este trabajo, que fue realizado en colaboración con expertos de la Universidad de Oslo, en Noruega, se revelan en un artículo publicado en ‘Scientific Reports’, una publicación perteneciente al grupo editorial de ‘Nature’.

 

Aumentan un 70% el rendimiento de los servidores optimizando el acceso a la memoria

Fuente: USC.

Una tesis del Centro Singular de Investigación en Tecnoloxías da Información, de la Universidad de Santiago de Compostela, demuestra cómo incrementar hasta en un 70% el rendimiento de servidores dedicados a abordar la gestión de múltiples tareas o usuarios, optimizando el acceso a la memoria.

El trabajo, fruto de una tesis doctoral defendida recientemente por el investigador Oscar García, fue validado tras evaluar la precisión del sistema con ensayos basados en los NAS Parallel Benchmarks, un banco de pruebas diseñado por ingenieros de la Agencia Espacial Estadounidense (NASA) para medir el rendimiento de los computadores.

Durante el proceso de validación, informa el Centro en una nota, se ejecutaron simultáneamente cuatro programas distintos en un servidor con idéntico número de procesadores (simulando un supuesto en el que cuatro usuarios se conectan a la vez al mismo servidor); así, se observó que si todos los programas se ejecutan en procesadores que acceden a sus datos de la manera más eficiente posible –es decir, leyendo siempre de la memoria más adecuada-, las cosas sencillamente funcionan bien, algo mejor de lo que habitualmente ocurre cuando el encargado del reparto es el sistema operativo.

Por el contrario, tan pronto como los programas leen la memoria de la manera más lenta posible, el rendimiento cae estrepitosamente sin que el sistema operativo pueda hacer nada para arreglarlo, ya que no utiliza información sobre el uso de la memoria.

Las sucesivas pruebas demostraron cómo en este tipo de situaciones el sistema de migración de hilos desarrollado en el CiTIUS conseguía mejorar el rendimiento hasta en un 70%. Unos resultados que, de ser integrados en el sistema operativo, podrían mejorar notablemente el rendimiento en servidores con múltiples usuarios.

Como explican los autores del trabajo, “el salto cualitativo se apreciaría especialmente en casos como los servidores de Internet o en los dedicados a problemas de simulación científica o técnica, porque se trata de entornos donde se ejecutan programas con gran uso de memoria y un considerable número de hilos”, concluyen.

Un algoritmo de la URJC y la UAH predice la demanda de energía

Demanda de energía real (rojo) frente a la estimada por el algoritmo (azul). Fuente: URJC.

Investigadores de la Universidad Rey Juan Carlos (URJC) y de la Universidad de Alcalá de Henares (UAH), ambas de Madrid, han diseñado un algoritmo que estima de forma precisa la demanda de energía española a un año vista, a partir de una serie de variables macroeconómicas.

La estimación, explica la URJC en una nota recogida por Tendencias 21, es correcta incluso durante los períodos de crisis económica, en los que la demanda de energía es muy difícil de predecir.

El algoritmo propuesto, basado en la metodología conocida como Búsqueda de Vecindad Variable (VNS, Variable Neighborhood Search), selecciona aquellas variables macroeconómicas, de entre las 14 disponibles, que son más relevantes para llevar a cabo la estimación de la demanda de energía.

“Realizada la selección, una red de neuronas de aprendizaje rápido se entrena con los datos disponibles de los últimos 30 años. Una vez la red está entrenada, podrá predecir cuál será la demanda de energía española a un año vista, con una tasa de error inferior al 2%”, explica Jesús Sánchez-Oro, autor principal del estudio e investigador de la Escuela de Ingeniería Informática de la URJC -que al igual que la UAH, es miembro de CODDII-.

Todos los ensayos han sido ejecutados en un ordenador de sobremesa común (un Intel Core i7 a 2.67 GHz con 8 GB de RAM).

Un proyecto europeo abarata la computación en paralelo

Una investigación coordinada por la UC3M permite reducir el costo de la computación paralela

Fuente: UC3M.

Mejorar las aplicaciones informáticas de computación en paralelo para reducir su coste, aumentar su rendimiento y eficiencia energética, además de facilitar el mantenimiento del código fuente, han sido algunas de las aportaciones del proyecto de investigación europeo Repara, que está a punto de concluir bajo la coordinación de la Universidad Carlos III de Madrid (UC3M) -miembro de CODDII-.

La computación heterogénea en paralelo, explica la UC3M en una nota, combina varios elementos de procesamiento de distintas características que comparten un único sistema de memoria. Normalmente se emplean procesadores de múltiples núcleos (como los multicore de algunos smartphones u ordenadores personales) combinados con tarjetas gráficas y otros componentes para realizar procesamiento de grandes cantidades de datos.

“Pretendemos ayudar a la transformación de código para su ejecución en plataformas paralelas y heterogéneas que combinan procesadores multicore con múltiples tarjetas gráficas y con hardware reconfigurable”, explica el coordinador del proyecto, José Daniel García, profesor del departamento de Informática de la UC3M.

“Hemos obtenido mejoras muy significativas tanto en rendimiento como eficiencia energética comparables a las que se pueden conseguir con un proceso de desarrollo manual; la diferencia es que con un proceso de desarrollo manual necesitamos meses de ingeniería y con nuestro proceso semiautomático conseguimos hacer lo mismo en cuestión de días”.

Aplicaciones

Estos trabajos de cálculo encuentran aplicaciones en diversos sectores, como el sanitario (predicción del acoplamiento de proteínas), el transporte (monitorización de sistemas ferroviarios), la robótica (visión estereoscópica y navegación) o el industrial (análisis de defectos en la fabricación de piezas).

El proyecto europeo Repara busca poner a disposición de los usuarios los beneficios energéticos y de rendimiento de estos sistemas informáticos, sin el enorme esfuerzo de desarrollo que conllevan este tipo de arquitecturas complejas.

La clave para conseguirlo radica, entre otras cosas, en la “refactorización” de código fuente, una técnica usada en ingeniería de software para mejorar la estructura interna de un programa sin alterar su comportamiento observable. Algo así como cambiar la distribución de las tuberías y bombas de presión de un edificio para que salga el agua de manera más rápida, limpia y ecológica. Con ello, mejoran tres propiedades fundamentales: el rendimiento de las aplicaciones (ayudando a incrementar su velocidad de ejecución), la eficiencia energética (reduciendo su consumo energético) y la facilidad de mantenimiento y modificación del código fuente.

Productos

Los investigadores han desarrollado y registrado tres productos tecnológicos que podrían explotar comercialmente con una empresa europea que se ha mostrado interesada.

Repara (Reengineering and Enabling Performance and poweR of Applications) ha reunido durante tres años a expertos en sistemas informáticos paralelos y heterogéneos del ámbito académico e industrial de cinco países europeos. Han participado seis instituciones académicas: la Escuela Técnica Superior de Rapperswil (Suiza), la Universidad de Pisa (Italia), la Universidad de Szeged (Hungría), la Universidad Técnica de Darmstadt (Alemania) y la Universidad de Turín (Italia), además de la Carlos III. Además, el proyecto cuenta con dos socios en el sector industrial: Ixion Industry & Aerospace en España y Evopro Innovation en Hungría. La UC3M es la coordinadora y participa a través del grupo de investigación Arcos, que aporta al proyecto su experiencia en computación de alto rendimiento y sistemas empotrados.

Una herramienta rastrea grupos peligrosos en Twitter

Un grupo de investigadores de la Universidad de Salamanca -adscrita a CODDII- ha creado una herramienta para localizar a grupos influyentes y peligrosos en la red social Twitter.

El grupo de investigación Bisite, informa El mundo, ha creado una herramienta para “localizar de forma rápida y visual usuarios muy influyentes que hablan sobre un tema de manera intensa, ya sea de forma positiva o negativa”, explica su portavoz, Daniel López Sánchez.

El proyecto consta de dos vertientes. Una de ellas está dirigida a la ciberseguridad. En estos casos, la herramienta no monitoriza una palabra sino grupos específicos de usuarios, independientemente del tema que hablen. Este método lo utilizan para encontrar grupos violentos. La otra vertiente -idea inicial del proyecto-, es la comercial, que sirve para conocer la percepción sobre un producto por parte de los usuarios.

 

La UPF aporta nuevas soluciones a la planificación automática en IA

Fuente: UPF.

Un trabajo de la Universidad Pompeu Fabra aporta soluciones a los problemas de planificación automática, una disciplina de la inteligencia artificial que tiene por objetivo la generación automática de planes, es decir, secuencias ordenadas de acciones que alcanzan unos objetivos concretos.

Una vez generados, los planes pueden ser ejecutados por un agente, una máquina, un robot, etc. Un plan generalizado da una solución única a un conjunto de problemas de planificación. En muchos dominios, los planes generalizados sólo pueden hacer cálculos en ciertas funciones de alto nivel, por ejemplo, funciones capaces de capturar conceptos clave o variables que de manera cuidadosa disciernen entre diferentes estados posibles. En la planificación generalizada, estas funciones de alto nivel se codificarán a mano.

El trabajo, presentado por Damir Lotinac, Javier Segovia-Aguas, Sergio Jiménez y Anders Jonsson en la International Joint Conference on Artificial Intelligence 2016 (IJCAI 2016), celebrada del 9 al 15 de este mes en Nueva York (EE.UU,), aporta un nuevo mecanismo que genera de forma automática funciones de estado de alto nivel para dar soluciones a los problemas que presenta la planificación generalizada.

Esta comunicación, explica la UPF en una nota, se insiere en una línea de trabajo más genérica que Anders Jonsson y Hector Geffner, investigadores principales del Grupo de Investigación en Inteligencia Artificial de la UPF, están llevando a cabo en el Departamento de Tecnologías de la Información y las Comunicaciones.

El proyect Enhancing Usability and Dissemination of Planning Tools tiene por objetivo aumentar el alcance de los instrumentos de planificación desarrollados en el grupo de investigación AI, para lo cual, por una parte este grupo trabaja en la mejora de prototipos para que se puedan implementar en el sector productivo, y por otro, integrar algunas de estas herramientas de planificación estándar en el sistema operativo ROS (Robot Operating Systems), el sistema con que operan la mayoría de robots en la actualidad.

Un sistema de asistencia en la conducción adapta sus sugerencias al estado del usuario

27252048572_ab8359cd72_b

Emre Yay. Fuente: US.

Miembros del grupo de Investigación, Desarrollo e Innovación en Informática de la Universidad de Sevilla y expertos de la Universidad de Reutlingen (Alemania) han desarrollado un sistema de asistencia en la conducción eficiente y seguro basado en el comportamiento del conductor.

Esta tecnología adapta sus recomendaciones en tiempo real según el nivel de estrés que presente el usuario y la forma de conducción que esté llevando a cabo en ese instante.

Es el resultado de la tesis doctoral del investigador Emre Yay, de la Escuela de Ingeniería Informática de Sevilla, que ha realizado bajo la dirección del profesor de la US Juan Antonio Ortega y de la profesora de la Universidad de Reutlingen Natividad Martínez.

El sistema analiza la forma de conducir de la persona y su estado emocional a través la información que suministran una serie de indicadores del interior del automóvil como son la velocidad, los cambios de marcha o la aceleración, y unos sensores/pulseras de pulso que permiten conocer el nivel de estrés y nerviosismo del conductor en ese preciso momento.

“Con todos estos datos se van proporcionando al conductor una serie de indicaciones para una conducción segura y eficiente, pero si el usuario no sigue estas recomendaciones el sistema lo detecta y se encarga de adaptarlas a la realidad que está viviendo en ese instante el conductor”, explica Martínez, que añade que tratan “de dar indicaciones que no aumenten la carga de estrés del conductor para evitar que apague el dispositivo”.

Los nuevos estudios en computación centrada en la persona se centran también en señales táctiles que adviertan por ejemplo de un exceso de velocidad a través de la vibración del pedal del acelerador.

Según informa la US en una nota, Mercedes-Benz ha incorporado a su plantilla a Yay con el objetivo de poner a punto este sistema integrado para sus nuevos modelos de coches. Otras empresas como BMW o Porsche también cuentan con estudiantes de la Universidad de Reutlingen para el desarrollo de sistemas en coches de última generación.

El proyecto IBSEN creará el mayor simulador del comportamiento humano

El Grupo de Redes y Sistemas Complejos del Instituto de Biocomputación y Física de Sistemas Complejos (BIFI) de la Universidad de Zaragoza participará en la creación del simulador del comportamiento humano más grande hasta la fecha, dentro del proyecto europeo IBSEN del programa Horizonte 2020.

La finalidad, explica la universidad en una nota, es estudiar los patrones de comportamiento en humanos en diferentes contextos para poder implementar y rediseñar de manera más eficiente nuevas políticas y estrategias en todos los ámbitos de la sociedad.

Uno de los objetivos de este proyecto internacional, que va a ser desarrollado por Holanda, Reino Unido, Finlandia y España, es la creación de una base de datos de 10.000 voluntarios para el desarrollo de experimentos presenciales y en línea. El proyecto, que durará tres años, comenzó en septiembre de 2015 con la preparación del sistema que gestiona la base de datos y al software que se usa para los juegos. Ahora se pone en marcha la fase de búsqueda de participantes.

“El objetivo es dar respuesta a diversas preguntas como: ¿Cuáles son los verdaderos mecanismos que promueven la cooperación?, ¿Cómo se comportan los humanos ante diferentes escenarios estratégicos?, etc.” explica Yamir Moreno, director del Grupo de Redes y Sistemas Complejos (Cosnet) de BIFI y responsable del nodo de IBSEN en Zaragoza.

Todos las personas mayores de edad podrán formar parte de este proyecto. Para ello, solo tiene que inscribirse en este enlace. Los participantes recibirán una remuneración económica que consiste en una cantidad inicial que puede aumentar en función de los resultados finales obtenidos en el juego. Los experimentos tendrán varias rondas y una duración total aproximada de unos 40-45 minutos. Esencialmente, se basan en la toma de decisiones sencillas ante determinados contextos estratégicos. Los sujetos jugarán desde un ordenador y estarán conectados con otros jugadores.

Cuando comiencen los experimentos presenciales (en solo unos pocos meses), todos los inscritos recibirán con antelación una comunicación vía correo electrónico y a través de las redes sociales. Una vez abierta la convocatoria, los participantes solo tendrán que ir confirmando su asistencia hasta llegar al número de individuos necesarios para cada experimento. La participación es voluntaria y todos los datos se tratarán de forma anónima y confidencial.

Participan también miembros de la Universidad Carlos III de Madrid, del Laboratorio Lineex de la Universidad de Valencia, de la Universidad de Oxford y de la de Cambridge (Reino Unido), de la Universidad Aalto (Finlandia) y de la Universidad de Ámsterdam (Países Bajos).

Utilizan la ley de la gravedad para clasificar fotografías

Óscar Reyes (izda.) y Sebastián Ventura. Fuente: UCO.

Lo que puede valer para todo el universo, bien puede servir también para el mundo virtual. Así lo considera un equipo de informáticos de la Universidad de Córdoba (UCO), que ha desarrollado algoritmos basados en la ley de la gravedad. Los algoritmos generados son más eficaces que los convencionales y permiten clasificar datos que pueden servir para el diagnóstico de enfermedades, discriminar el correo válido del spam o categorizar fotografías.

El equipo del Departamento de Ciencia de la Computación e Inteligencia Artificial que dirige Sebastián Ventura dispone de una línea de investigación en torno a los algoritmos de aprendizaje perezoso.

Un algoritmo computacional es una serie de operaciones para resolver problemas informáticos, por ejemplo, si una fotografía se parece a otra y así clasificarlas juntas. Generalmente se construye un modelo para dar respuesta a estas cuestiones. Los algoritmos perezosos, sin embargo, ganan su fama de vagos porque no parten de ningún modelo, sino que aprovechan las características de los datos para determinar a posteriori la clase a la que pertenecen los objetos. Entre los algoritmos perezosos hay unos que clasifican datos por cercanía a otros datos. Son los algoritmos del vecino más cercano.

“Los algoritmos perezosos son útiles, pero a veces hay límites entre los vecinos que no son muy claros”, estima Ventura en la nota de prensa de la universidad. Puede que algunos datos de una familia se salgan por mucho de la media, establezcan un límite muy difuso y distorsionen, con ello, la ubicación de los nuevos datos que llegan. Con el fin de mejorar la eficiencia de este enfoque, los informáticos de la UCO no se fijaron en la distancia al vecino más próximo, sino en la capacidad de atracción que podían tener. Pensaron que cada dato podía ejercer una fuerza gravitatoria, como si fuera un planeta. Además, consideraron que la fuerza de las partículas de una misma clase se podía sumar, de manera que la clase a la que pertenece un nuevo objeto está determinada por la clase que ejerce una fuerza máxima sobre él.

Con este planteamiento, el equipo, en colaboración con las universidades Central de Las Villas y de Holguín (Cuba), ha creado algoritmos más eficientes. “Mejoran la obtención de clasificaciones”, resume el catedrático. El trabajo se ha publicado en la revista Information Sciences.

En el trabajo se intentan clasificar datos que pueden presentar más de una etiqueta. Por ejemplo, cuando reconocemos personas en una fotografía, una foto puede contener a varias personas y, por tanto, no se puede usar el nombre de una única persona para etiquetarla. “En el trabajo se resuelve el problema de la clasificación multietiqueta incorporando tanto el concepto de vecindad o distancia, típicos de los algoritmos perezosos, como el concepto de pureza, que se refiere a la cantidad de vecinos similares entre sí”, resuelve Reyes, estudiante cubano de doctorado en la UCO participante en el estudio.