Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados bigdata

Firma invitada | El País Retina» Los datos: un reto, una profesión, una solución

En el País Retina por Antonio Bahamonde, Ernesto Pimentel y Juan Pablo Peñarrubia

Países de nuestro entorno como Francia y Alemania han establecido planes para poder disponer de ingenieros informáticos especializados en datos. Es evidente que España no puede estar ajena a esta corriente.

Todo el mundo habla de datos. Aparecen por todas partes y adquieren protagonismo, porque son útiles, porque resulta que la digitalización consiste precisamente en sacarles partido: cambiar el modelo de negocio a partir del procesamiento de los datos de una organización.

Una confluencia de posibilidades de automatización y de globalización nos ponen en alerta como sociedad. Sabemos que muchos puestos de trabajo desaparecerán y serán sustituidos por otros en los lugares donde se haya producido la riqueza suficiente al aumentar la eficiencia de las empresas. El bienestar y el progreso de nuestro país depende en una buena parte de la manera en que afrontemos el reto de los datos.

Siempre hubo datos. Las técnicas matemáticas y estadísticas que fundamentan la ciencia de datos son centenarias, pero la explosión en su efectividad se produce cuando la informática facilita construir aplicaciones que permiten automatizar actividades y mejorar drásticamente la toma de decisiones. El comportamiento de estas aplicaciones, a veces, si fuese adoptado por una persona no dudaríamos en calificarlo como inteligente.

Los profesionales que necesitamos son ingenieros informáticos con una especialización. Ingenieros e ingenieras capaces de llevar más allá la búsqueda de regularidades en cantidades ingentes (o no) de registros de actividades o de fenómenos. Solo la computación puede indagar racionalmente en un campo de exploración que, junto con los números, incluye imágenes, sonidos, textos o rastros digitales de usuarios.

La informática es diversa y abarca muchos campos que en buena medida no son conocidos por el público en general. El tratamiento de datos no consiste solo en su análisis y evaluación, sino que precisa también abordar tareas de selección, preprocesamiento y transformación. Los datos deben ser organizados en bases de datos adecuadas, con arquitecturas que optimicen el rendimiento en su gestión. El procesamiento descansa en el aprendizaje automático y en la elaboración de software de calidad que garantice la comunicación con los sistemas informáticos de una organización. Precisamente, estas son labores que dan nombre a las áreas de ingeniería informática en el ámbito académico.

Países de nuestro entorno como Francia y Alemania han establecido planes para poder disponer de ingenieros informáticos especializados en datos. Es evidente que España no puede estar ajena a esta corriente. A nuestro juicio las medidas deben abarcar varios frentes.

La formación de un ingeniero informático especialista en datos (el nombre es poco relevante) no puede hacerse con unas pocas horas sobre una formación de base diferente a la informática. La Universidad necesitará adaptarse a los nuevos retos; no solo en informática, desde luego. No podemos permitirnos sucumbir a la poderosa inercia o nos quedaremos atrás. Tenemos que abrir las ventanas y respirar en los nuevos aires, adelantarnos a ellos si es posible. Las normas internas de toma de decisiones y asunción de responsabilidades desdibujan en exceso estos procesos.

La elaboración y actualización de los planes de estudio debe responder a criterios académicos objetivos, establecidos por los expertos y en consonancia con las necesidades de la industria, pero nunca a intereses internos de las propias instituciones y tampoco debe sucumbir a modas efímeras.

Además, una tediosa burocracia alarga los procesos de manera desesperante. Es urgente también la aplicación de fórmulas imaginativas para compartir expertos (necesarios en especialidades recientes) y para utilizar técnicas pedagógicas diferentes.

Por otra parte, la profesión (¡y la industria!) necesitan establecer una clara diferencia entre la Formación Profesional y los títulos universitarios (y entre ellos también). En España las ingenierías tienen una regulación que lleva décadas pendiente para la Informática. Cada país tiene su modelo de regulación para las ingenierías, pero ninguno comete el error de penalizar a la informática. Se dice que el mejor momento para plantar un árbol fue hace 20 años, pero el segundo mejor momento es hoy.

Todo lo anterior, con algún pequeño matiz, es común a otras especialidades de la ingeniería informática. Por ejemplo, la ciberseguridad, los juegos, o la inteligencia artificial entre otras. La sociedad española necesita abordar estas reformas para aprovechar el enorme potencial de estos retos y oportunidades, no podemos permitirnos dejarlas pendientes para otro momento.

Antonio Bahamonde es presidente de la Sociedad Científica Informática de España (SCIE) y catedrático de la Universidad de Oviedo.

Ernesto Pimentel es presidente de la Conferencia de Directores y Decanos de Ingeniería Informática (CODDII) y catedrático de la Universidad de Málaga.

Juan Pablo Peñarrubia es presidente del Consejo General de Colegios de Ingeniería en Informática (CCII)

Artículo publicado en El País Retina el pasado 6/7/19


Ángel Luis Rubio ofrece la conferencia ‘La ética en los tiempos del Big Data’ el viernes 17 de mayo con motivo del Día de Internet

Ángel Luis Rubio, profesor de Lenguajes y Sistemas Informáticos y decano de la Facultad de Ciencia y Tecnología de la Universidad de La Rioja, ofrece el viernes 17 de mayo la conferencia ‘La ética en los tiempos del Big Data’, en el Centro Fundación Caja Rioja-Bankia de Gran Vía. Entrada libre, aforo limitado.

Esta conferencia está organizada con motivo del Día de Internet en colaboración con los Colegios Profesionales de Ingenieros Informáticos de La Rioja y dentro del ciclo #ProtagonistasdelaCiencia de la Unidad de Cultura Científica y de la Innovación (UCC+i) de la Universidad de La Rioja.

En los últimos años hemos asistido a una desenfrenada expansión de la generación y uso masivo de datos, dentro del fenómeno conocido habitualmente como ‘Big Data’. Del mismo modo, se ha extendido de manera imparable la utilización de técnicas a medio camino entre las matemáticas, la estadística y la informática para el procesamiento de estos grandes volúmenes de datos.

Esto ha provocado que términos habitualmente académicos como ‘inteligencia artificial’, ‘aprendizaje automático’ o ‘redes neuronales’ aparezcan con frecuencia incluso en medios de comunicación convencionales.

Ángel Luis Rubio mostrará en su conferencia contextos impactantes que deberían hacernos reflexionar sobre nuestra postura ante el desarrollo actual de la tecnología y plantearnos preguntas como: ¿Somos conscientes de las repercusiones éticas que tiene la utilización tanto de datos como de técnicas? ¿Nos preocupa cómo se ve afectada nuestra privacidad, nuestra reputación o incluso nuestra propia identidad? ¿Intuimos cuáles pueden ser las consecuencias para la sociedad presente y para la futura? ¿En qué medida podemos y/o debemos actuar (como usuarios, como profesionales, como ciudadanos) ante estas situaciones?

Científicos españoles crean modelos predictivos de enfermedades con big data e IA

El objetivo de este equipo es afinar las predicciones sobre el diagnóstico a partir de las imágenes médicas

Fuente: Innovadores La Razón

Un equipo de investigadores valencianos trabaja en el desarrollo de un sistema que aprovecha las capacidades de clasificación de información que ofrecen los procesos de computación de big data e inteligencia artificial (IA) y, en concreto, el aprendizaje profundo. En el proyecto DeepHealth se pretenden crear modelos predictivos a partir de una gran base de datos con imágenes anonimizadas.

La idea fundamental del proyecto es disponer de algoritmos basados en deep learning que analicen imágenes y proporcionen información estructurada útil para el diagnóstico. Para ello, explican fuentes de la Universidad Politécnica de Valencia, es necesario «generar modelos predictivos que, nutriéndose de una gran cantidad de imágenes, proporcionen como salida la probabilidad de que una nueva imagen refleje o no una determinada enfermedad».

Así, este equipo ha recibido 12,7 millones de euros de la Unión Europea para el desarrollo de un software que permita el análisis y almacenamiento de gran cantidad de datos, principalmente imágenes médicas, como herramienta de apoyo a los facultativos en el proceso de toma de decisiones sobre el diagnóstico.

Un componente esencial del proyecto es la creación de una gran base de datos con imágenes médicas anonimizadas que puedan utilizarse para entrenar y validar los modelos matemáticos predictivos. En este sentido, María de la Iglesia-Vayá, responsable del proyecto en la Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat Valenciana, afirma: «Crearemos una base de datos que contendrá miles de imágenes anotadas, es decir, descritas y adecuadamente clasificadas. Las anotaciones incluirán cientos de parámetros como, por ejemplo, el volumen exacto de decenas de regiones del cerebro y otras partes del cuerpo».

El gran valor de este proyecto, añade la investigadora de la FISABIO, es que «persigue, a partir de reunir y analizar conjuntamente muchos de esos parámetros de imagen en miles de casos diferentes, afinar las predicciones sobre el diagnóstico a partir de las imágenes médicas y, de ese modo, reforzar la cantidad de información que se extrae de ellas y su valor clínico».

Jon Ander Gómez Adrián, investigador de la UPV y coordinador del proyecto, señala que el objetivo  «es aunar dos áreas de desarrollo informático que hasta ahora han estado separadas: la supercomputación, que ofrece unas extraordinarias capacidades de procesamiento, y el big data, que ofrece una gran capacidad analítica».

Para ello, Gómez apunta que el primer paso es «crear un entorno operativo, basado en dos nuevas bibliotecas informáticas, que permita la comunicación y el entendimiento entre los entornos informáticos de supercomputación y los de big data«.

«Una vez desarrollado el entorno operativo» completa Roberto Paredes Palacios, también de la UPV, «el siguiente paso será aplicarlo a una serie de casos clínicos para entrenar los modelos predictivos en diferentes áreas médicas, 14 en total, incluyendo migraña, demencia, depresión, etc.» Por último, los modelos entrenados serán evaluados para validar las predicciones con el fin de confirmar que estas son correctas.

Equipo científico: El proyecto es una colaboración multidisciplinar entre el grupo de investigación liderado por María de la Iglesia-Vayá en la Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat Valenciana (FISABIO) e ingenieros informáticos de la Universitat Politècnica de València (UPV) coordinados por Jon Ander Gómez Adrián. Junto a ellos, en una iniciativa coordinada por Everis, participan investigadores de otras 19 instituciones de nueve países europeos. Puesto en marcha durante el pasado mes de enero con una duración prevista de tres años.

Información en Innovadores

Un sistema para big data diseñado en Pamplona construye modelos predictivos miles de veces mejores que los actuales

El nuevo algoritmo del ingeniero informático Mikel Elkano Ilintxeta mantiene la precisión con modelos compuestos por apenas una veintena de reglas.

Fte.: Pamplona actual

Mikel Elkano Ilintxeta (Pamplona, 1991), investigador del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), ha diseñado un nuevo sistema de clasificación basado en reglas difusas (SCBRD) para “big data” (datos masivos), que es capaz de construir modelos predictivos que pueden llegar a ser hasta 200.000 veces más compactos que los generados por los SCBRD disponibles hasta la fecha, manteniendo, además, la precisión en las predicciones.

“El SCBRD más preciso hasta la fecha requería entre cinco y seis millones de reglas para lograr predicciones precisas, haciendo prácticamente imposible que el usuario pudiese interpretar las predicciones. Con este nuevo algoritmo o herramienta matemática, es posible mantener la precisión con modelos compuestos por apenas entre veinte y treinta reglas fácilmente interpretables”, explica el investigador, cuyo trabajo forma parte de su tesis doctoral leída en la institución académica y calificada con sobresaliente “cum laude”. Este avance en el campo de la Inteligencia Artificial (y, más concretamente, en la Ciencia de Datos) puede ser aplicado en diversos campos, como en la medicina, ya que ayudará a los profesionales sanitarios a tomar decisiones basándose en los miles de datos recogidos en historiales clínicos, y también en la física. Así, gracias a los modelos obtenidos, el también investigador de Navarrabiomed (centro mixto de investigación biomédica de la institución académica y el Gobierno de Navarra) ha sido capaz de “extraer las variables más importantes a la hora de identificar bosones de Higgs y partículas supersimétricas, si bien la precisión de los SCBRD no alcanza todavía la de otros modelos predictivos no interpretables”.

Los sistemas de clasificación basados en reglas difusas (SCBRD) proporcionan un modelo formado por una serie de reglas que contienen etiquetas lingüísticas interpretables por el ser humano, lo que les permite explicar el razonamiento llevado a cabo al realizar una predicción. Este tipo de reglas posibilita a los SCBRD no solo explicar el porqué de las predicciones, sino también manejar la incertidumbre proveniente de información imprecisa. De ahí su importancia.

INTERPRETACIÓN DE LAS PREDICCIONES

Como señala Mikel Elkano Ilintxeta, “en la actualidad, la ingente cantidad de información producida y gestionada por el ser humano excede la capacidad de cómputo y almacenamiento de las máquinas convencionales modernas”. “En el caso de los SCBRD diseñados para ‘big data’, además de la dificultad añadida de la computación distribuida, la gran cantidad de datos que debe procesarse hace que los modelos predictivos obtenidos sean demasiado complejos y contengan un número excesivamente elevado de reglas, lo que hace que las predicciones sean más difíciles de comprender e interpretar”, indica Mikel Elkano Ilintxeta, cuya tesis doctoral ha sido dirigida por Edurne Barrenechea Tartas y Mikel Galar Idoate, investigadores del Instituto ISC de la UPNA y de Navarrabiomed.

El algoritmo recogido en la tesis doctoral “reduce considerablemente el número de reglas y esta circunstancia favorece su empleo, por ejemplo, en medicina, para ayudar a los especialistas a tomar decisiones basándose en historiales clínicos”. “Dado que cada vez disponemos de más información acerca de los pacientes, el uso de algoritmos de aprendizaje automático permite aprovechar todos estos datos para poder detectar patrones existentes entre diferentes pacientes y extraer las variables más influyentes a la hora de predecir una cierta patología”, concluye el investigador.

BREVE CURRÍCULUM

Mikel Elkano Ilintxeta cursó, sucesivamente, Ingeniería Técnica en Informática de Gestión e Ingeniería Informática en la Universidad Pública de Navarra. Con esta última titulación obtuvo el Premio al Mejor Proyecto Fin de Carrera por la Asociación Española para la Inteligencia Artificial (AEPIA) en la Escuela de Verano de Inteligencia Artificial de 2014. Posteriormente, completó su formación con un Máster en Psicobiología y Neurociencia Cognitiva en la Universidad Autónoma de Barcelona (2015) y una estancia de investigación en Monash University (Melbourne, Australia) en 2016 para trabajar en el campo de la neurociencia computacional. Sus investigaciones se han reflejado en nueve artículos publicados en revistas científicas de alto impacto y en la presentación de siete trabajos en congresos internacionales.

Noticia completa aquí

Grados en Ciencia de datos “Los datos han llegado para quedarse” puesta en marcha en UPV y UV en València

“Los datos han llegado para quedarse”. La frase la pronuncia el vicerrector de Estudios de la Universitat Politécnica de València, Eduardo Vendrell. No lo sabe pero es la misma que se encuentra en la primera línea de presentación en la web del grado en Ciencia de Datos de la Universitat de València. Viendo la coincidencia, cabría añadir que no son el futuro; es el presente, y la coincidencia no es casualidad.

Lo que grosso modo se describe como Big Data (en realidad la Ciencia de Datos es mucho más amplia) es en la práctica un nuevo lenguaje, con sus códigos, sus formas, sus reglas. Tanto la Universitat como la Politécnica están impartiendo enseñanzas en torno a esta Ciencia de los Datos que haría las delicias de Gauss. Igual que algunos creen en profetas, otros creen en los números. Una religión que va en aumento y que ha incorporado una nueva orden: la Universitat de València anunció este martes su intención de poner en marcha el primer grado de Ciencia de Datos aplicado a una disciplina, en este caso a la gestión y dirección de empresas, con la puesta en marcha de Inteligencia y Analítica de Negocios.

La Politécnica, por su parte, ha estrenado este curso su grado dedicado a las cifras que pululan por las redes, que vuelan por las ondas, a los datos que se generan cada día, que podemos ahora mensurar gracias a los nuevos sistemas informáticos, a los nuevos procesadores… Los egresados del curso 18-19 serán en cuatro años la primera promoción de ingenieros de Datos (el grado está vinculado a la Escuela Técnica Superior de Ingeniería Informática). El profesorado es de los que les hace sacar pecho en la Politécnica. La dedicación estimada al título es de 80 profesores, explica Vendrell, de los cuales 76 son doctores, 14 catedráticos y 49 profesores titulares de universidad. Sólo hay un profesor asociado y a tiempo parcial; y es porque, como diría el anuncio de L’Oréal, porque lo vale. “El nivel es muy alto, teniendo en cuenta que se exige un 50% de doctores y en nuestro caso es más del 90%”, comenta.

Su grado tiene una orientación transversal y se ha concebido con la clara intención de no chocarse con el que ofrece la Universitat de València. La colaboración entre las dos instituciones en este caso está siendo modélica, algo que el vicerrector de la Politécnica quiere poner en valor. “Es un ejemplo de cómo se pueden implantar este tipo de grados sin pisarse los unos a los otros”. No lo menciona, pero es inevitable recordar el conflicto entre la Universidad de Alicante y la Miguel Hernández de Elche por la implantación del grado de Medicina. Lo de los datos no ha sido, ni mucho menos, el caso. Algoritmos, informática, el nuevo grado cuenta con 75 alumnos que optan a 240 créditos, un número de estudiantes selecto que han tenido que superar una nota de corte muy alta: 9,75.

Esperando a ANECA

El grado de la Politécnica ya está en marcha porque, lógicamente, ha pasado el visto bueno de la Agencia Nacional de Evaluación de la Calidad y Acreditación. El nuevo grado de la Universitat de València, Inteligencia y Analítica de Negocios, está a la espera de este trámite, explica Dolores Forés, vicedecana de Estudios de Grado de la Facultad de Economía. La intención de la Universitat es ponerlo en marcha el próximo curso, el 2019-2020. Forés destaca que tiene un carácter “diferenciador bastante elevado”, ya que tiene un contenido más práctico, aplicado a la empresa. Es como una doble titulación. Los egresados sabrán de Ciencia de Datos, podrán leer en este nuevo idioma, y sabrán de empresa.

La razón de ser del grado es puro sentido común, si se atiende a la perspectiva de Forés. “Muchas veces el directivo sabe lo que quiere, que es vender un producto. Lo que necesita es alguien que le diga, a través del análisis de datos, cómo hacerlo, que le ayude a por ejemplo crear una aplicación que le haga llegar este mercado”. Los egresados podrán hacerlo por ellos mismos. O podrían. Si a algo se parecerá este grado es a otros más tradicionales que aúnan, por citar el caso más habitual, Derecho y Economía.

La Universitat ofrecerá 50 plazas, con un programa de estudios que incluirá asignaturas básicas del conocimiento de la empresa y luego todas las relacionadas con técnicas de investigación de datos, siempre desde el punto de vista económico. Como en el caso de la Politécnica, el profesorado es de los que, de entrada, luce: todos serán doctores. El 20,8% son catedráticos; los titulares de universidad son un 54,2%; un 8,4%, ayudantes doctores, tantos como asociados doctores. Completan la nómina un 6,2% de profesores titulares de escuela universitaria 6,2% y un 2% de catedráticos de escuela universitaria.

El nuevo grado de la Universitat de València se unirá a los que ofrecen ahora la Carlos III de Madrid y la Universidad Autónoma de Barcelona y supondrá una nueva pica en el Flandes de los números. La conquista del conocimiento a través de los datos sigue su curso.

Fte.: Valencia Plaza