Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados bigdata

Ángel Luis Rubio ofrece la conferencia ‘La ética en los tiempos del Big Data’ el viernes 17 de mayo con motivo del Día de Internet

Ángel Luis Rubio, profesor de Lenguajes y Sistemas Informáticos y decano de la Facultad de Ciencia y Tecnología de la Universidad de La Rioja, ofrece el viernes 17 de mayo la conferencia ‘La ética en los tiempos del Big Data’, en el Centro Fundación Caja Rioja-Bankia de Gran Vía. Entrada libre, aforo limitado.

Esta conferencia está organizada con motivo del Día de Internet en colaboración con los Colegios Profesionales de Ingenieros Informáticos de La Rioja y dentro del ciclo #ProtagonistasdelaCiencia de la Unidad de Cultura Científica y de la Innovación (UCC+i) de la Universidad de La Rioja.

En los últimos años hemos asistido a una desenfrenada expansión de la generación y uso masivo de datos, dentro del fenómeno conocido habitualmente como ‘Big Data’. Del mismo modo, se ha extendido de manera imparable la utilización de técnicas a medio camino entre las matemáticas, la estadística y la informática para el procesamiento de estos grandes volúmenes de datos.

Esto ha provocado que términos habitualmente académicos como ‘inteligencia artificial’, ‘aprendizaje automático’ o ‘redes neuronales’ aparezcan con frecuencia incluso en medios de comunicación convencionales.

Ángel Luis Rubio mostrará en su conferencia contextos impactantes que deberían hacernos reflexionar sobre nuestra postura ante el desarrollo actual de la tecnología y plantearnos preguntas como: ¿Somos conscientes de las repercusiones éticas que tiene la utilización tanto de datos como de técnicas? ¿Nos preocupa cómo se ve afectada nuestra privacidad, nuestra reputación o incluso nuestra propia identidad? ¿Intuimos cuáles pueden ser las consecuencias para la sociedad presente y para la futura? ¿En qué medida podemos y/o debemos actuar (como usuarios, como profesionales, como ciudadanos) ante estas situaciones?

Científicos españoles crean modelos predictivos de enfermedades con big data e IA

El objetivo de este equipo es afinar las predicciones sobre el diagnóstico a partir de las imágenes médicas

Fuente: Innovadores La Razón

Un equipo de investigadores valencianos trabaja en el desarrollo de un sistema que aprovecha las capacidades de clasificación de información que ofrecen los procesos de computación de big data e inteligencia artificial (IA) y, en concreto, el aprendizaje profundo. En el proyecto DeepHealth se pretenden crear modelos predictivos a partir de una gran base de datos con imágenes anonimizadas.

La idea fundamental del proyecto es disponer de algoritmos basados en deep learning que analicen imágenes y proporcionen información estructurada útil para el diagnóstico. Para ello, explican fuentes de la Universidad Politécnica de Valencia, es necesario «generar modelos predictivos que, nutriéndose de una gran cantidad de imágenes, proporcionen como salida la probabilidad de que una nueva imagen refleje o no una determinada enfermedad».

Así, este equipo ha recibido 12,7 millones de euros de la Unión Europea para el desarrollo de un software que permita el análisis y almacenamiento de gran cantidad de datos, principalmente imágenes médicas, como herramienta de apoyo a los facultativos en el proceso de toma de decisiones sobre el diagnóstico.

Un componente esencial del proyecto es la creación de una gran base de datos con imágenes médicas anonimizadas que puedan utilizarse para entrenar y validar los modelos matemáticos predictivos. En este sentido, María de la Iglesia-Vayá, responsable del proyecto en la Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat Valenciana, afirma: «Crearemos una base de datos que contendrá miles de imágenes anotadas, es decir, descritas y adecuadamente clasificadas. Las anotaciones incluirán cientos de parámetros como, por ejemplo, el volumen exacto de decenas de regiones del cerebro y otras partes del cuerpo».

El gran valor de este proyecto, añade la investigadora de la FISABIO, es que «persigue, a partir de reunir y analizar conjuntamente muchos de esos parámetros de imagen en miles de casos diferentes, afinar las predicciones sobre el diagnóstico a partir de las imágenes médicas y, de ese modo, reforzar la cantidad de información que se extrae de ellas y su valor clínico».

Jon Ander Gómez Adrián, investigador de la UPV y coordinador del proyecto, señala que el objetivo  «es aunar dos áreas de desarrollo informático que hasta ahora han estado separadas: la supercomputación, que ofrece unas extraordinarias capacidades de procesamiento, y el big data, que ofrece una gran capacidad analítica».

Para ello, Gómez apunta que el primer paso es «crear un entorno operativo, basado en dos nuevas bibliotecas informáticas, que permita la comunicación y el entendimiento entre los entornos informáticos de supercomputación y los de big data«.

«Una vez desarrollado el entorno operativo» completa Roberto Paredes Palacios, también de la UPV, «el siguiente paso será aplicarlo a una serie de casos clínicos para entrenar los modelos predictivos en diferentes áreas médicas, 14 en total, incluyendo migraña, demencia, depresión, etc.» Por último, los modelos entrenados serán evaluados para validar las predicciones con el fin de confirmar que estas son correctas.

Equipo científico: El proyecto es una colaboración multidisciplinar entre el grupo de investigación liderado por María de la Iglesia-Vayá en la Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat Valenciana (FISABIO) e ingenieros informáticos de la Universitat Politècnica de València (UPV) coordinados por Jon Ander Gómez Adrián. Junto a ellos, en una iniciativa coordinada por Everis, participan investigadores de otras 19 instituciones de nueve países europeos. Puesto en marcha durante el pasado mes de enero con una duración prevista de tres años.

Información en Innovadores

Un sistema para big data diseñado en Pamplona construye modelos predictivos miles de veces mejores que los actuales

El nuevo algoritmo del ingeniero informático Mikel Elkano Ilintxeta mantiene la precisión con modelos compuestos por apenas una veintena de reglas.

Fte.: Pamplona actual

Mikel Elkano Ilintxeta (Pamplona, 1991), investigador del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), ha diseñado un nuevo sistema de clasificación basado en reglas difusas (SCBRD) para “big data” (datos masivos), que es capaz de construir modelos predictivos que pueden llegar a ser hasta 200.000 veces más compactos que los generados por los SCBRD disponibles hasta la fecha, manteniendo, además, la precisión en las predicciones.

“El SCBRD más preciso hasta la fecha requería entre cinco y seis millones de reglas para lograr predicciones precisas, haciendo prácticamente imposible que el usuario pudiese interpretar las predicciones. Con este nuevo algoritmo o herramienta matemática, es posible mantener la precisión con modelos compuestos por apenas entre veinte y treinta reglas fácilmente interpretables”, explica el investigador, cuyo trabajo forma parte de su tesis doctoral leída en la institución académica y calificada con sobresaliente “cum laude”. Este avance en el campo de la Inteligencia Artificial (y, más concretamente, en la Ciencia de Datos) puede ser aplicado en diversos campos, como en la medicina, ya que ayudará a los profesionales sanitarios a tomar decisiones basándose en los miles de datos recogidos en historiales clínicos, y también en la física. Así, gracias a los modelos obtenidos, el también investigador de Navarrabiomed (centro mixto de investigación biomédica de la institución académica y el Gobierno de Navarra) ha sido capaz de “extraer las variables más importantes a la hora de identificar bosones de Higgs y partículas supersimétricas, si bien la precisión de los SCBRD no alcanza todavía la de otros modelos predictivos no interpretables”.

Los sistemas de clasificación basados en reglas difusas (SCBRD) proporcionan un modelo formado por una serie de reglas que contienen etiquetas lingüísticas interpretables por el ser humano, lo que les permite explicar el razonamiento llevado a cabo al realizar una predicción. Este tipo de reglas posibilita a los SCBRD no solo explicar el porqué de las predicciones, sino también manejar la incertidumbre proveniente de información imprecisa. De ahí su importancia.

INTERPRETACIÓN DE LAS PREDICCIONES

Como señala Mikel Elkano Ilintxeta, “en la actualidad, la ingente cantidad de información producida y gestionada por el ser humano excede la capacidad de cómputo y almacenamiento de las máquinas convencionales modernas”. “En el caso de los SCBRD diseñados para ‘big data’, además de la dificultad añadida de la computación distribuida, la gran cantidad de datos que debe procesarse hace que los modelos predictivos obtenidos sean demasiado complejos y contengan un número excesivamente elevado de reglas, lo que hace que las predicciones sean más difíciles de comprender e interpretar”, indica Mikel Elkano Ilintxeta, cuya tesis doctoral ha sido dirigida por Edurne Barrenechea Tartas y Mikel Galar Idoate, investigadores del Instituto ISC de la UPNA y de Navarrabiomed.

El algoritmo recogido en la tesis doctoral “reduce considerablemente el número de reglas y esta circunstancia favorece su empleo, por ejemplo, en medicina, para ayudar a los especialistas a tomar decisiones basándose en historiales clínicos”. “Dado que cada vez disponemos de más información acerca de los pacientes, el uso de algoritmos de aprendizaje automático permite aprovechar todos estos datos para poder detectar patrones existentes entre diferentes pacientes y extraer las variables más influyentes a la hora de predecir una cierta patología”, concluye el investigador.

BREVE CURRÍCULUM

Mikel Elkano Ilintxeta cursó, sucesivamente, Ingeniería Técnica en Informática de Gestión e Ingeniería Informática en la Universidad Pública de Navarra. Con esta última titulación obtuvo el Premio al Mejor Proyecto Fin de Carrera por la Asociación Española para la Inteligencia Artificial (AEPIA) en la Escuela de Verano de Inteligencia Artificial de 2014. Posteriormente, completó su formación con un Máster en Psicobiología y Neurociencia Cognitiva en la Universidad Autónoma de Barcelona (2015) y una estancia de investigación en Monash University (Melbourne, Australia) en 2016 para trabajar en el campo de la neurociencia computacional. Sus investigaciones se han reflejado en nueve artículos publicados en revistas científicas de alto impacto y en la presentación de siete trabajos en congresos internacionales.

Noticia completa aquí

Grados en Ciencia de datos “Los datos han llegado para quedarse” puesta en marcha en UPV y UV en València

“Los datos han llegado para quedarse”. La frase la pronuncia el vicerrector de Estudios de la Universitat Politécnica de València, Eduardo Vendrell. No lo sabe pero es la misma que se encuentra en la primera línea de presentación en la web del grado en Ciencia de Datos de la Universitat de València. Viendo la coincidencia, cabría añadir que no son el futuro; es el presente, y la coincidencia no es casualidad.

Lo que grosso modo se describe como Big Data (en realidad la Ciencia de Datos es mucho más amplia) es en la práctica un nuevo lenguaje, con sus códigos, sus formas, sus reglas. Tanto la Universitat como la Politécnica están impartiendo enseñanzas en torno a esta Ciencia de los Datos que haría las delicias de Gauss. Igual que algunos creen en profetas, otros creen en los números. Una religión que va en aumento y que ha incorporado una nueva orden: la Universitat de València anunció este martes su intención de poner en marcha el primer grado de Ciencia de Datos aplicado a una disciplina, en este caso a la gestión y dirección de empresas, con la puesta en marcha de Inteligencia y Analítica de Negocios.

La Politécnica, por su parte, ha estrenado este curso su grado dedicado a las cifras que pululan por las redes, que vuelan por las ondas, a los datos que se generan cada día, que podemos ahora mensurar gracias a los nuevos sistemas informáticos, a los nuevos procesadores… Los egresados del curso 18-19 serán en cuatro años la primera promoción de ingenieros de Datos (el grado está vinculado a la Escuela Técnica Superior de Ingeniería Informática). El profesorado es de los que les hace sacar pecho en la Politécnica. La dedicación estimada al título es de 80 profesores, explica Vendrell, de los cuales 76 son doctores, 14 catedráticos y 49 profesores titulares de universidad. Sólo hay un profesor asociado y a tiempo parcial; y es porque, como diría el anuncio de L’Oréal, porque lo vale. “El nivel es muy alto, teniendo en cuenta que se exige un 50% de doctores y en nuestro caso es más del 90%”, comenta.

Su grado tiene una orientación transversal y se ha concebido con la clara intención de no chocarse con el que ofrece la Universitat de València. La colaboración entre las dos instituciones en este caso está siendo modélica, algo que el vicerrector de la Politécnica quiere poner en valor. “Es un ejemplo de cómo se pueden implantar este tipo de grados sin pisarse los unos a los otros”. No lo menciona, pero es inevitable recordar el conflicto entre la Universidad de Alicante y la Miguel Hernández de Elche por la implantación del grado de Medicina. Lo de los datos no ha sido, ni mucho menos, el caso. Algoritmos, informática, el nuevo grado cuenta con 75 alumnos que optan a 240 créditos, un número de estudiantes selecto que han tenido que superar una nota de corte muy alta: 9,75.

Esperando a ANECA

El grado de la Politécnica ya está en marcha porque, lógicamente, ha pasado el visto bueno de la Agencia Nacional de Evaluación de la Calidad y Acreditación. El nuevo grado de la Universitat de València, Inteligencia y Analítica de Negocios, está a la espera de este trámite, explica Dolores Forés, vicedecana de Estudios de Grado de la Facultad de Economía. La intención de la Universitat es ponerlo en marcha el próximo curso, el 2019-2020. Forés destaca que tiene un carácter “diferenciador bastante elevado”, ya que tiene un contenido más práctico, aplicado a la empresa. Es como una doble titulación. Los egresados sabrán de Ciencia de Datos, podrán leer en este nuevo idioma, y sabrán de empresa.

La razón de ser del grado es puro sentido común, si se atiende a la perspectiva de Forés. “Muchas veces el directivo sabe lo que quiere, que es vender un producto. Lo que necesita es alguien que le diga, a través del análisis de datos, cómo hacerlo, que le ayude a por ejemplo crear una aplicación que le haga llegar este mercado”. Los egresados podrán hacerlo por ellos mismos. O podrían. Si a algo se parecerá este grado es a otros más tradicionales que aúnan, por citar el caso más habitual, Derecho y Economía.

La Universitat ofrecerá 50 plazas, con un programa de estudios que incluirá asignaturas básicas del conocimiento de la empresa y luego todas las relacionadas con técnicas de investigación de datos, siempre desde el punto de vista económico. Como en el caso de la Politécnica, el profesorado es de los que, de entrada, luce: todos serán doctores. El 20,8% son catedráticos; los titulares de universidad son un 54,2%; un 8,4%, ayudantes doctores, tantos como asociados doctores. Completan la nómina un 6,2% de profesores titulares de escuela universitaria 6,2% y un 2% de catedráticos de escuela universitaria.

El nuevo grado de la Universitat de València se unirá a los que ofrecen ahora la Carlos III de Madrid y la Universidad Autónoma de Barcelona y supondrá una nueva pica en el Flandes de los números. La conquista del conocimiento a través de los datos sigue su curso.

Fte.: Valencia Plaza