Conferencia de Directores y Decanos de Ingeniería Informática

Un museo restaura 21 vídeos de la primera conferencia de informática, en 1976: por qué es tan importante

El museo ha recuperado y restaurado 21 vídeos de la primera Conferencia Mundial de Informática, que se celebró en 1976 en el Laboratorio Nacional de Los Alamos (Nuevo México), el lugar en donde se construyó la primera bomba atómica. No se llamaba así, pero era realmente eso: la reunión de la primera generación mundial de informáticos.

Los primeros ordenadores comenzaron a funcionar en los años 40 y 50, así que se organizó esta conferencia para celebrar una especie de 25 Aniversario de la informática.

Acudieron alrededor de 140 ingenieros y científicos (por aquel entonces la profesión de informático no existía).

Ellos fueron los creadores de los primeros ordenadores de la historia, que básicamente estaban construidos a mano: ENIAC, EDVAC, SEAC, SWAC, MANIAC, etc., y se dedicaban a labores científicas. La informática doméstica aún tardaría unos cuantos años en llegar.

Los vídeos restaurados por el Computer History Museum son charlas y conferencias que  tienen un incalculable valor histórico, porque son los pioneros de la informática explicando cómo crearon los primeros ordenadores de la historia.

Puedes ver los vídeos en la noticia completa de Computer Hoy

Fuente: Computer Hoy

Aprender informática con lápices de colores: estos dibujos te enseñan computación igual que un Mandala

Pepepépepe ha diseñado un peculiar libro para colorear. Lo que lo hace especial es su vocación: enseñar cómo funcionan los circuitos lógicos.

«La idea es exponer el funcionamiento interno de estos ordenadores y ayudar a ver cómo pueden realizar operaciones complejas con una combinación de componentes sencillos», abunda el cuaderno de Pepepépepe. Para elaborarlo echó mano de tablas de verdad o mapas de Karnaugh. El objetivo —recalca su creador— es «exponer el funcionamiento interno de los ordenadores».

Los diseños los puedes descargar en la web Ipfs.io, donde se presentan como «ordenadores no electrónicos que funcionan cuando los coloreas según una serie de reglas sencillas» e incluyen en varios archivos de formato PDF. Todos los diseños e instrucciones están trazados a mano.

Fuente: Xataka

35 proyectos de investigación innovadores en distintos ámbitos de la ciencia consiguen el apoyo de la Fundación BBVA. Proyectos de ciencia de datos e Informática biomédica entre los seleccionados

Nuevas herramientas para potenciar la eficacia de la inmunoterapia contra el cáncer; el desarrollo de una plataforma digital abierta para predecir la evolución de futuros casos y oleadas del coronavirus; un innovador método para alertar sobre los impactos del cambio climático a través de sus efectos sobre el paisaje sonoro de un ecosistema; la elaboración de un código ético que pueda guiar la asistencia sanitaria en situaciones de crisis y catástrofes, como pandemias o desastres naturales; el estudio de los efectos que tiene sobre el mercado del alquiler la introducción de topes en los precios. Ésta es solo una pequeña muestra de las cuestiones que abordarán los proyectos seleccionados en la convocatoria 2021 de las Ayudas a Proyectos de Investigación Científica de la Fundación BBVA.

De entre las 620 candidaturas presentadas en las cinco áreas que componen la convocatoria (Matemáticas, Cambio Climático y Ecología, Biomedicina, Ciencias Sociales y Filosofía) se han seleccionado 35 proyectos que suponen el apoyo directo a un total de 204 investigadores, liderados desde centros distribuidos por nueve comunidades autónomas, incluyendo Madrid, Cataluña, Andalucía, Aragón, Asturias, Galicia, Navarra, País Vasco y Valencia

El apoyo al conocimiento y su difusión a la sociedad es el eje prioritario de acción de la Fundación BBVA y se materializa, desde 2014, en dos programas recurrentes; las Becas Leonardo a Investigadores y las Ayudas a Proyectos de Investigación Científica. Desde su creación hace ocho años, ambos programas han hecho posible 681 proyectos en los principales campos de la ciencia, las humanidades y la creación cultural.

Fuente: El País

Un trabajo de Ingeniería de Software de la Universidad de Sevilla, entre los más influyentes del mundo

Un trabajo de investigación del grupo ISA de la Universidad de Sevilla ha sido distinguido como el artículo más influyente en el área de Ingeniería de Líneas de Producto Software (MIP, Most Influential Paper Award). Dicho galardón fue concedido durante la 21ª edición de la conferencia internacional de dicha temática (SPLC2017) celebrado en Sevilla del 25 al 29 de septiembre de 2017.

Se trata del trabajo “Automated Reasoning on Feature Models” de los autores David Benavides, Pablo Trinidad y Antonio Ruiz Cortés. Fue presentado en la conferencia CAiSE en 2005, y ha sido seleccionado por un comité internacional de expertos entre los artículos que más citas e influencia han tenido en el campo de las Líneas de Producto Software en todo el mundo en los últimos 20 años.

El comité destacó que se trata del primer trabajo que incorpora gramáticas atribuidas, resolutores de restricciones, modelos de características y optimización de configuraciones de líneas de producto software en un marco de trabajo elegante y coherente, abriendo  la puerta a lo que se ha convertido en ‘trending topic’ en los últimos años,  a saber: el análisis automático de modelos de características.

Según SISTEDES (Sociedad de Ingeniería de Software y Tecnologías de Desarrollo Software), esta es la primera vez que un grupo español recibe esta distinción en el área de Ingeniería de Software. Un trabajo relacionado con este fue recientemente galardonado por SISTEDES con el premio a la mejor tesis doctoral.

Todos los integrantes del grupo ISA son miembros del Departamento de Lenguajes y Sistemas Informáticos de la Universidad de Sevilla con sede en la Escuela Técnica Superior de Ingeniería Informática (ETSII), aunque desde hace algunos años son varios los doctores formados en este grupo que están desarrollado su actividad investigadora en instituciones extranjeras.

Más información

 

Diseñan un modelo informático en 3-D del genoma humano

Un grupo coordinado por la Escuela Internacional de Estudios Avanzados (SISSA, por sus siglas en inglés) de Trieste, en Italia, ha construido un modelo informático tridimensional del genoma humano, según informa El Médico Interactivo.

Este nuevo estudio ha proporcionado un primer retrato robot tridimensional aproximado pero realista del genoma humano. Gracias a las características del nuevo método, la reconstrucción estructural basada en la información experimental y métodos estadísticos se perfeccionará a medida que se disponga de nuevos datos experimentales.

Los detalles de este trabajo, que fue realizado en colaboración con expertos de la Universidad de Oslo, en Noruega, se revelan en un artículo publicado en ‘Scientific Reports’, una publicación perteneciente al grupo editorial de ‘Nature’.

 

Aumentan un 70% el rendimiento de los servidores optimizando el acceso a la memoria

Fuente: USC.

Una tesis del Centro Singular de Investigación en Tecnoloxías da Información, de la Universidad de Santiago de Compostela, demuestra cómo incrementar hasta en un 70% el rendimiento de servidores dedicados a abordar la gestión de múltiples tareas o usuarios, optimizando el acceso a la memoria.

El trabajo, fruto de una tesis doctoral defendida recientemente por el investigador Oscar García, fue validado tras evaluar la precisión del sistema con ensayos basados en los NAS Parallel Benchmarks, un banco de pruebas diseñado por ingenieros de la Agencia Espacial Estadounidense (NASA) para medir el rendimiento de los computadores.

Durante el proceso de validación, informa el Centro en una nota, se ejecutaron simultáneamente cuatro programas distintos en un servidor con idéntico número de procesadores (simulando un supuesto en el que cuatro usuarios se conectan a la vez al mismo servidor); así, se observó que si todos los programas se ejecutan en procesadores que acceden a sus datos de la manera más eficiente posible –es decir, leyendo siempre de la memoria más adecuada-, las cosas sencillamente funcionan bien, algo mejor de lo que habitualmente ocurre cuando el encargado del reparto es el sistema operativo.

Por el contrario, tan pronto como los programas leen la memoria de la manera más lenta posible, el rendimiento cae estrepitosamente sin que el sistema operativo pueda hacer nada para arreglarlo, ya que no utiliza información sobre el uso de la memoria.

Las sucesivas pruebas demostraron cómo en este tipo de situaciones el sistema de migración de hilos desarrollado en el CiTIUS conseguía mejorar el rendimiento hasta en un 70%. Unos resultados que, de ser integrados en el sistema operativo, podrían mejorar notablemente el rendimiento en servidores con múltiples usuarios.

Como explican los autores del trabajo, «el salto cualitativo se apreciaría especialmente en casos como los servidores de Internet o en los dedicados a problemas de simulación científica o técnica, porque se trata de entornos donde se ejecutan programas con gran uso de memoria y un considerable número de hilos», concluyen.

Un algoritmo de la URJC y la UAH predice la demanda de energía

Demanda de energía real (rojo) frente a la estimada por el algoritmo (azul). Fuente: URJC.

Investigadores de la Universidad Rey Juan Carlos (URJC) y de la Universidad de Alcalá de Henares (UAH), ambas de Madrid, han diseñado un algoritmo que estima de forma precisa la demanda de energía española a un año vista, a partir de una serie de variables macroeconómicas.

La estimación, explica la URJC en una nota recogida por Tendencias 21, es correcta incluso durante los períodos de crisis económica, en los que la demanda de energía es muy difícil de predecir.

El algoritmo propuesto, basado en la metodología conocida como Búsqueda de Vecindad Variable (VNS, Variable Neighborhood Search), selecciona aquellas variables macroeconómicas, de entre las 14 disponibles, que son más relevantes para llevar a cabo la estimación de la demanda de energía.

“Realizada la selección, una red de neuronas de aprendizaje rápido se entrena con los datos disponibles de los últimos 30 años. Una vez la red está entrenada, podrá predecir cuál será la demanda de energía española a un año vista, con una tasa de error inferior al 2%”, explica Jesús Sánchez-Oro, autor principal del estudio e investigador de la Escuela de Ingeniería Informática de la URJC -que al igual que la UAH, es miembro de CODDII-.

Todos los ensayos han sido ejecutados en un ordenador de sobremesa común (un Intel Core i7 a 2.67 GHz con 8 GB de RAM).

Un proyecto europeo abarata la computación en paralelo

Una investigación coordinada por la UC3M permite reducir el costo de la computación paralela

Fuente: UC3M.

Mejorar las aplicaciones informáticas de computación en paralelo para reducir su coste, aumentar su rendimiento y eficiencia energética, además de facilitar el mantenimiento del código fuente, han sido algunas de las aportaciones del proyecto de investigación europeo Repara, que está a punto de concluir bajo la coordinación de la Universidad Carlos III de Madrid (UC3M) -miembro de CODDII-.

La computación heterogénea en paralelo, explica la UC3M en una nota, combina varios elementos de procesamiento de distintas características que comparten un único sistema de memoria. Normalmente se emplean procesadores de múltiples núcleos (como los multicore de algunos smartphones u ordenadores personales) combinados con tarjetas gráficas y otros componentes para realizar procesamiento de grandes cantidades de datos.

“Pretendemos ayudar a la transformación de código para su ejecución en plataformas paralelas y heterogéneas que combinan procesadores multicore con múltiples tarjetas gráficas y con hardware reconfigurable”, explica el coordinador del proyecto, José Daniel García, profesor del departamento de Informática de la UC3M.

“Hemos obtenido mejoras muy significativas tanto en rendimiento como eficiencia energética comparables a las que se pueden conseguir con un proceso de desarrollo manual; la diferencia es que con un proceso de desarrollo manual necesitamos meses de ingeniería y con nuestro proceso semiautomático conseguimos hacer lo mismo en cuestión de días”.

Aplicaciones

Estos trabajos de cálculo encuentran aplicaciones en diversos sectores, como el sanitario (predicción del acoplamiento de proteínas), el transporte (monitorización de sistemas ferroviarios), la robótica (visión estereoscópica y navegación) o el industrial (análisis de defectos en la fabricación de piezas).

El proyecto europeo Repara busca poner a disposición de los usuarios los beneficios energéticos y de rendimiento de estos sistemas informáticos, sin el enorme esfuerzo de desarrollo que conllevan este tipo de arquitecturas complejas.

La clave para conseguirlo radica, entre otras cosas, en la “refactorización” de código fuente, una técnica usada en ingeniería de software para mejorar la estructura interna de un programa sin alterar su comportamiento observable. Algo así como cambiar la distribución de las tuberías y bombas de presión de un edificio para que salga el agua de manera más rápida, limpia y ecológica. Con ello, mejoran tres propiedades fundamentales: el rendimiento de las aplicaciones (ayudando a incrementar su velocidad de ejecución), la eficiencia energética (reduciendo su consumo energético) y la facilidad de mantenimiento y modificación del código fuente.

Productos

Los investigadores han desarrollado y registrado tres productos tecnológicos que podrían explotar comercialmente con una empresa europea que se ha mostrado interesada.

Repara (Reengineering and Enabling Performance and poweR of Applications) ha reunido durante tres años a expertos en sistemas informáticos paralelos y heterogéneos del ámbito académico e industrial de cinco países europeos. Han participado seis instituciones académicas: la Escuela Técnica Superior de Rapperswil (Suiza), la Universidad de Pisa (Italia), la Universidad de Szeged (Hungría), la Universidad Técnica de Darmstadt (Alemania) y la Universidad de Turín (Italia), además de la Carlos III. Además, el proyecto cuenta con dos socios en el sector industrial: Ixion Industry & Aerospace en España y Evopro Innovation en Hungría. La UC3M es la coordinadora y participa a través del grupo de investigación Arcos, que aporta al proyecto su experiencia en computación de alto rendimiento y sistemas empotrados.

Una herramienta rastrea grupos peligrosos en Twitter

Un grupo de investigadores de la Universidad de Salamanca -adscrita a CODDII- ha creado una herramienta para localizar a grupos influyentes y peligrosos en la red social Twitter.

El grupo de investigación Bisite, informa El mundo, ha creado una herramienta para «localizar de forma rápida y visual usuarios muy influyentes que hablan sobre un tema de manera intensa, ya sea de forma positiva o negativa», explica su portavoz, Daniel López Sánchez.

El proyecto consta de dos vertientes. Una de ellas está dirigida a la ciberseguridad. En estos casos, la herramienta no monitoriza una palabra sino grupos específicos de usuarios, independientemente del tema que hablen. Este método lo utilizan para encontrar grupos violentos. La otra vertiente -idea inicial del proyecto-, es la comercial, que sirve para conocer la percepción sobre un producto por parte de los usuarios.

 

La UPF aporta nuevas soluciones a la planificación automática en IA

Fuente: UPF.

Un trabajo de la Universidad Pompeu Fabra aporta soluciones a los problemas de planificación automática, una disciplina de la inteligencia artificial que tiene por objetivo la generación automática de planes, es decir, secuencias ordenadas de acciones que alcanzan unos objetivos concretos.

Una vez generados, los planes pueden ser ejecutados por un agente, una máquina, un robot, etc. Un plan generalizado da una solución única a un conjunto de problemas de planificación. En muchos dominios, los planes generalizados sólo pueden hacer cálculos en ciertas funciones de alto nivel, por ejemplo, funciones capaces de capturar conceptos clave o variables que de manera cuidadosa disciernen entre diferentes estados posibles. En la planificación generalizada, estas funciones de alto nivel se codificarán a mano.

El trabajo, presentado por Damir Lotinac, Javier Segovia-Aguas, Sergio Jiménez y Anders Jonsson en la International Joint Conference on Artificial Intelligence 2016 (IJCAI 2016), celebrada del 9 al 15 de este mes en Nueva York (EE.UU,), aporta un nuevo mecanismo que genera de forma automática funciones de estado de alto nivel para dar soluciones a los problemas que presenta la planificación generalizada.

Esta comunicación, explica la UPF en una nota, se insiere en una línea de trabajo más genérica que Anders Jonsson y Hector Geffner, investigadores principales del Grupo de Investigación en Inteligencia Artificial de la UPF, están llevando a cabo en el Departamento de Tecnologías de la Información y las Comunicaciones.

El proyect Enhancing Usability and Dissemination of Planning Tools tiene por objetivo aumentar el alcance de los instrumentos de planificación desarrollados en el grupo de investigación AI, para lo cual, por una parte este grupo trabaja en la mejora de prototipos para que se puedan implementar en el sector productivo, y por otro, integrar algunas de estas herramientas de planificación estándar en el sistema operativo ROS (Robot Operating Systems), el sistema con que operan la mayoría de robots en la actualidad.