Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados big data

Big Data Talent abrirá sus puertas en Madrid el próximo mes de abril

Innova Business School y Big Data International Campus organizan el Big Data Talent, un evento que conecta a expertos y expertas en distintos ámbitos de la informática y la tecnología, como es la Inteligencia Artificial o el Big Data, entre otras disciplinas. 

Además de ello, ofrece la oportunidad de adentrarse en el mundo laboral y conocer a empresas relevantes del sector mediante la Talent Zone, la Feria de Empleo Tecnológica.

El evento tendrá lugar el 16 de abril en la Facultad de Informática de la Universidad Complutense de Madrid.

Más información: ENIIT

‘Big data’ como herramienta para lograr una mayor sostenibilidad económica, social y medioambiental en Canarias

La Cátedra Cajasiete BOB de la ULL contribuye a la implantación del ‘big data’ y de sistemas de inteligencia artificial en empresas y administraciones públicas de las Islas

El big data (los macrodatos o la inteligencia de datos) puede ayudar a conseguir una mayor sostenibilidad. Eso es al menos lo que piensan desde la Cátedra Cajasiete BOB (Big dataOpen data Blockchain, por sus siglas en inglés) de la Universidad de La Laguna (ULL), desde donde se contribuye a la implantación del big data y de sistemas de inteligencia artificial en las empresas y administraciones públicas de Canarias.

Como señala el titular de la Cátedra, José Luis Roda García, profesor del Departamento de Ingeniería Informática y de Sistemas de la ULL, se da asistencia tanto a “empresas de agua que buscan una mayor sostenibilidad analizando dónde se gasta más agua y por qué” como a las máquinas que interpretan el “lenguaje natural” de los ciudadanos cuando usan el programa Asista del Gobierno de Canarias, o a los mismos responsables de medioambiente interesados en optimizar la recogida de basuras minimizando la contaminación de los camiones.

Noticia completa: Eldiario.es

Bertha Guijarro Berdiñas: «Los datos están por todas partes, por eso ha explosionado la inteligencia artificial»

Fue una película protagonizada por un hacker «de los buenos», Juegos de Guerra, con Matthew Broderick, la que le metió el gusanillo de la ingeniería informática. Bertha Guijarro Berdiñas (A Coruña, 1969) fue una de las primeras egresadas de la facultad de Elviña, donde ha estado al frente del centro de investigación TIC, el Citic, y ahora es la coordinadora del nuevo grado que estrena la Universidade da Coruña (UDC), Intelixencia Artificial.

Noticia completa: La Voz de Galicia

Entrevista en El Confidencial a Laura Lacarra, ingeniera Informática especializada en Big Data

Laura Lacarra estudió Ingeniería Informática en la Universidad de Zaragoza y diseñó un sistema de teleasistencia, como proyecto fin de carrera, que finalmente se comercializó. Actualmente trabaja en proyectos Big Data para una gran empresa de telecomunicaciones española. Además, ha sido seleccionada en el 2019 por la revista Business Insider como una de las 23 jóvenes que lideraría la revolución tecnológica y por Generación Next entre las 50 mujeres de menos de 40 años que escriben el futuro.

Enlace al vídeo de la entrevista: https://especial.elcorreo.com/talento-transformador/video-laura-lacarra.html

Fuente: El Confidencial

Historia, bondades y riesgos de la Analítica de Datos

Los términos Analytics y Big Data son cada vez más socorridos y demandados en el entorno profesional a pesar de ser pocos los que verdaderamente conocen los principios que los sustentan. En este artículo nos adentramos en lo que se ha dado en denominar Big Data en Ingles, o lo que podemos traducir al español como la ciencia que permite extraer valor de grandes cantidades de datos. Algo que está revolucionando la forma en que se toman las decisiones que nos afectan en nuestro día a día. A continuación, detallaremos aspectos históricos, éticos y tecnológicos; analizando bondades y riesgos que acompañaremos con casos prácticos reales.

¿Qué es la Ciencia de Datos?

Se trata de una disciplina que permite tomar decisiones informadas y soportadas en evidencias científicas combinando: Experiencia de negocio, para detectar necesidades y definir casos de uso; Conocimientos matemáticos, para dar respuestas fundamentadas; e Ingeniería Informática, para escalar los cálculos y realizarlos de forma optimizada.

Seguir leyendo: https://www.interempresas.net/TIC/Articulos/387951-Historia-bondades-y-riesgos-de-la-Analitica-de-Datos.html

Fuente: Interempresas

AI Lab Granada forma a la comunidad universitaria de la UGR en tecnologías en la nube de Google

El Centro de Excelencia en Inteligencia Artificial AI Lab Granada, impulsado por la UGR, Indra y Google, realiza actividades formativas para estudiantes y personal docente e investigador (PDI) de la Universidad de Granada sobre el uso de herramientas de software y tecnologías de última generación en la nube, dentro del ecosistema Google Cloud Platform.

Ya se han celebrado, en la Escuela Técnica Superior de Ingenierías Informática y de Telecomunicación (ETSIIT), varios talleres formativos para estudiantes de los últimos cursos de grado, máster y predoctorado; y también para PDI de la propia escuela. En ambos casos, la atención se ha centrado en la herramienta Google Cloud Platform y las posibilidades que ofrece para el desarrollo de soluciones de ‘big data’ y ‘machine learning’, dentro del análisis de datos. Con el objetivo de dar una visión aplicada a los contenidos, se han puesto a disposición de profesorado y estudiantes una serie de laboratorios prácticos utilizando la plataforma Qwiklabs de Google.

Seguir leyendo: https://www.ideal.es/miugr/granada-forma-comunidad-20220325132816-nt.html

Fuente: Ideal

El big data ayuda a los docentes a mejorar el rendimiento de los universitarios

El profesor de la Universitat Oberta de Catalunya (UOC) e investigador de Edul@bJuan Pedro Cerro, ha demostrado la eficacia de los macrodatos (big data) aplicados a la educación, las denominadas analíticas de aprendizaje, para mejorar la docencia y los resultados académicos de los estudiantes universitarios. Cerro, ingeniero informático, desarrolló en el transcurso de su tesis doctoral en aprendizaje en línea (e-learning), dirigida por Montse Guitert y Teresa Romeu, la aplicación DIANA —acrónimo de DIalogue ANAlysis—, que analiza la interacción comunicativa en los espacios de mensajería de la UOC, accede a los mensajes que los estudiantes se han intercambiado y calcula una serie de indicadores y métricas que son reportados al docente, respetando siempre la privacidad de los estudiantes y cumpliendo con lo establecido en la Ley General de Protección de Datos.

La aplicación se testó durante un año y medio en una asignatura compartida por todos los grados de la UOC. Las 40 aulas en las que se había usado registraron un descenso del 6 % en el índice de abandono. También se incrementó casi un punto la calificación media de los estudiantes y se redujo la dispersión de esas mismas calificaciones. «El nivel del grupo fue más homogéneo porque el docente estaba mucho más informado de lo que ocurría en las aulas, podía actuar ante determinadas situaciones y corregir el rumbo de algunos estudiantes», apunta Cerro. El 90 % de los estudiantes valoró muy positivamente la aplicación de DIANA. El centro de innovación en educación de la universidad, el eLearning Innovation Center (eLinC), ayudó a implementar la herramienta en las aulas piloto, con más de 2.300 estudiantes.

Metadatos que guían la docencia

DIANA analiza los metadatos que contienen los mensajes que intercambian los estudiantes en el aula virtual. En total, calcula cerca de 30 métricas. «Algunas de ellas son muy evidentes, como la cantidad de palabras de promedio que envían los estudiantes en sus mensajes, o la cantidad de mensajes y respuestas que se publican. Pero hay otras más complejas, como comparar las palabras que se utilizan en la comunicación con un pequeño tesauro que define el docente para saber si la conversación se centra en los ejes temáticos de la actividad o si, por el contrario, se ha dispersado», explica Cerro.

La aplicación ofrece dos tipos de información. La primera es individual, sobre cada uno de los estudiantes, con aspectos como la forma en la que se disemina su participación a lo largo del tiempo para detectar si, por ejemplo, el estudiante se involucra mucho al principio y luego desconecta, o viceversa. El segundo tipo de información es de grupo, de manera que en la pantalla de DIANA se muestra cómo los estudiantes se organizan, utilizando métricas como la cantidad de mensajes enviados por semana, la franja horaria más utilizada, la nube de palabras aparecidas en la conversación o, incluso, el grado de adecuación del discurso al campo semántico definido por el docente a través de ciertas palabras clave.

La herramienta, además, permite fijar una serie de alertas para advertir al docente cuando la conversación se dispersa demasiado o si un estudiante está mucho tiempo inactivo. Todo ello, con un objetivo claro: mejorar los resultados académicos y demostrar hasta qué punto son eficaces las analíticas del aprendizaje, una disciplina que en ocasiones ha sido cuestionada por determinados autores, a quienes preocupa la idea de que el papel del docente se reduzca al de un mero recolector de datos.

Esta investigación interdisciplinar entre pedagogía y tecnología demuestra lo contrario: como las analíticas de aprendizaje facilitan al docente el trabajo de seguimiento y evaluación, y ello emerge de la propia experiencia de Cerro como profesor. «Cuando un docente tiene un número elevado de estudiantes y la actividad de aprendizaje se desarrolla en línea de manera colaborativa, se producen determinadas mecánicas que dificultan la evaluación de cada estudiante de forma individual», explica.

DIANA figura en el Registro de la Propiedad Intelectual de Cataluña en todas sus versiones y la idea es ofrecerla en modo de conocimiento abierto, con una licencia GPL 3.0. De hecho, la aplicación ya está disponible en abierto y en la tesis de Cerro aparece el enlace que permite descargar el código fuente para implementarlo en cualquier institución. «Siempre hemos pensado en la posibilidad de colaborar con quien quiera ampliar el horizonte de la herramienta», asegura su autor.

 

Un nuevo proyecto de I+D para adaptar DIANA

En este sentido, tras la investigación y para comprobar si las conclusiones son extrapolables a otros contextos educativos con metodologías de aprendizaje diferentes, Montse Guitert y Teresa Romeu investigadoras del grupo Edul@b, de los Estudios de Psicología y Ciencias de la Educación de la UOC, están al frente de un nuevo proyecto de investigación denominado Uso de analíticas de aprendizaje en entornos digitales: impacto en la mejora de la práctica docente universitaria, financiado por el Ministerio de Ciencia e Innovación.

Iniciado en septiembre de 2021, tiene una duración de tres años y en él participan otras seis universidades junto con la UOC. «Vamos a dar continuidad al trabajo ya realizado en mi tesis», explica Cerro, que figura entre el equipo investigador. «Queremos mejorar la definición de los indicadores y las métricas de analíticas del aprendizaje que pueden ayudar a los docentes. Vamos a ponerlas en común con expertos de otros másteres de diferentes universidades, analizaremos el impacto académico que supone la aplicación de estas analíticas del aprendizaje en otros entornos digitales para contrastarlos con nuestros resultados y, por último, proporcionaremos algunas recomendaciones sobre el uso de la herramienta en la práctica docente. Todo ello implicará la adaptación de la herramienta DIANA a otros contextos, por lo que sufrirá modificaciones y se mejorará», concluye Cerro.

La tesis de Juan Pedro Cerro, elaborada dentro del programa de doctorado de Educación y TIC (E-learning) de la Escuela de Doctorado de la UOC, se llevó el 2021 Award for Best Interdisciplinary Thesis de la UOC fallado recientemente, y la revista de referencia internacional ETHE (International Journal of Educational Technology in Higher Education) publicó un artículo y varias infografías con las principales conclusiones de la investigación.

Fuente: UOC

El ingeniero informático Álvaro Fuentes gana el Premio ‘José Ángel Gómez de Caso’

El ingeniero informático Álvaro Fuentes Valverde es el ganador del XVIII Premio Universitario ‘José Ángel Gómez de Caso’, que convoca la Asociación Andrés Laguna para la Promoción de las Ciencias de la Salud de Segovia, por su análisis mediante técnicas de Machine Learning, una rama de la Inteligencia Artificial, de la efectividad de las medidas aplicadas contra el COVID-19 en Castilla y León, concretamente durante la segunda ola de la pandemia.

Es la primera vez que el premio, habitualmente destinado a estudiantes de medicina o enfermería, va a parar a un informático y lo hace por la aplicación de técnicas de big-data para medir la efectividad de las medidas implementadas en Castilla y León contra la epidemia de covid.

Fuentes realizó sus estudios de Grado en Ingeniería Informática de Servicios y Aplicaciones en la Escuela de Ingeniería Informática de Segovia de la Universidad de Valladolid. El trabajo galardonado es una propuesta, utilizando técnicas de Machine Learning, como el Clustering o los Gradient Boosting Trees, para estimar la efectividad de las medidas tomadas en Castilla y León durante la segunda ola de COVID con el objetivo de poder poner a disposición de las administraciones una herramienta que permita elegir las medidas sanitarias más adecuadas en futuros brotes.

Seguir leyendo: https://www.eladelantado.com/segovia/el-ingeniero-informatico-alvaro-fuentes-gana-el-premio-jose-angel-gomez-de-caso/

Fuente: El Adelantado

Big Data para contar la radiación médica

El ingeniero Sergio García trabaja desde su casa en León en la plataforma que el Instituto Nacional de Gestión Sanitaria preparada para poner en marcha un Banco de Dosis que recopile, unifique y monitorice la información sobre las intervenciones radiológicas, un macroproyecto adjudicado a Izertis que controlará la radiación médica de todas las comunidades.

El sistema sanitario español se prepara para censar de manera unificada las exposiciones de radiación de los pacientes a lo largo de su vida. El Instituto Nacional de Gestión Sanitaria (Ingesa), a través del Centro Nacional de Dosimetría (CND) acaba de adjudicar a la compañía Izertis (con base en el Parque Científico Tecnológico de Gijón) el servicio de asesoramiento para el diseño técnico del Banco Nacional de Dosis a Paciente (BNDP). La empresa ganadora del concurso público liderará junto a General Electric Healthcare el despliegue informático necesario para poner en marcha este registro clínico «sin precedentes». El ingeniero informático Sergio García Prado trabaja desde León en la puesta en marcha de este macro proyecto que permitirá recopilar, unificar y monitorizar toda la información referente a intervenciones radiológicas de los pacientes.

Seguir leyendo: https://www.diariodeleon.es/articulo/sociedad/big-data-contar-radiacion-medica/202111080333242161582.html

Fuente: Diario de León

Dos proyectos compuestos por profesores de la ETSIINF UPM han recibido ayudas de la Fundación BBVA a Equipos de Investigación Científica sobre SARS-CoV-2 y COVID-19 en Big Data e Inteligencia Artificial

La Fundación BBVA ha adjudicado las Ayudas a Equipos de Investigación Científica sobre SARS-CoV-2 y COVID-19. Dos proyectos compuestos por profesores de la Escuela Técnica Superior de Ingenieros Informáticos han sido beneficiados por las ayudas dentro del área de conocimiento en Big Data e Inteligencia Artificial.

En concreto los proyectos son los siguientes:

Outcome prediction and treatment efficiency in patients hospitalized with COVID-19 in Madrid: A Bayesian network approach” cuya investigadora principal es la profesora Concha Bielza.

A partir de datos de más de 9.000 pacientes atendidos por coronavirus SARS-CoV-2 en los hospitales madrileños de Ramón y Cajal, Fundación Jiménez Díaz y La Zarzuela, este trabajo desarrollará modelos de machine learning para predecir el riesgo de fallecimiento o de ser intubada que tiene una persona, analizando los factores que van a determinar el pronóstico.

Además, evaluará la eficiencia de un tratamiento a partir de comparaciones de pacientes que han sido tratados con un medicamento u otro y la relación con la tasa de muerte. Como último objetivo, se construirá un modelo de red bayesiana que capture todas las relaciones que hay entre diversas variables -tanto clínicas, como de tratamientos y resultados- para hacer razonamientos probabilísticos sobre el riesgo de mortalidad, el éxito o no de un tratamiento y el porqué.

Este modelo, además, se dejará abierto en una plataforma web para toda la comunidad científica. La idea del proyecto surge a raíz de la liberación de datos de 2.300 pacientes afectados por COVID-19 de la red de hospitales HM para la comunidad científica, que también se incluirán en el trabajo.

Aquí se pueden leer dos artículos sobre este proyecto:

https://www.elespanol.com/ciencia/salud/20201018/matematica-trata-acabar-datos-covid-espana-salvar/528447906_0.amp.html

https://www.fbbva.es/equipo/modelos-de-machine-learning-para-determinar-el-riesgo-de-fallecimiento-o-intubacion/

DRUGS4COVID++: Servicios de Inteligencia Artificial para la creación de un grafo de conocimientos sobre fármacos usados en el control clínico de la enfermedad, a partir de la explotación de grandes corpus de documentación científica sobre SARS-COV-2 y COVID-19” cuyo investigador principal es Oscar Corcho.

Día tras día aumenta la cantidad de artículos científicos publicados sobre el nuevo coronavirus SARS-CoV-2 y las referencias a nuevos conocimientos sobre esta área. Con la idea de sacar el máximo partido a esta documentación nace el proyecto de Óscar Corcho García, centrado en la mejora de una base de datos que cuenta ya con más de 100.000 artículos científicos identificados.

Mediante el uso de técnicas de procesamiento del lenguaje natural y minería de textos a gran escala, esta base de datos es capaz de establecer relaciones entre medicamentos, síntomas, enfermedades asociadas y un gran número de variables más aplicadas al coronavirus. “La idea inicial surgió a raíz de peticiones del sistema de salud madrileño que comunicaron el fin de algunos medicamentos y querían saber qué otros se podrían utilizar”, explica.

El sistema ya se puede consultar, pero necesita mejoras, así como añadir nuevas publicaciones y validar los resultados con expertos para que pueda ser un recurso muy útil para investigadores, personal médico y gestores del sistema de salud. En el desarrollo del trabajo también participarán miembros del Servicio Madrileño de Salud (SERMAS) de la Consejería de Sanidad de la Comunidad de Madrid.

 

Ayudas de la Fundación BBVA

Los proyectos de la ETSIINF son dos de los veinte equipos de investigación que estudiarán diversas facetas de la pandemia de COVID-19 gracias a una convocatoria especial de Ayudas de la Fundación BBVA dotada con un total de 2,7 millones de euros.

Tras evaluar los casi 1.000 proyectos presentados, cinco comisiones de expertos han acordado la concesión de cuatro ayudas en Biomedicina (250.000 euros por proyecto); cuatro en Big Data e Inteligencia Artificial (150.000 euros por proyecto); cuatro en Ecología y Veterinaria (100.000 euros por proyecto); cuatro en Economía y Ciencias Sociales (100.000 euros por proyecto); y cuatro en Humanidades (75.000 euros por proyecto).

Los veinte proyectos seleccionados implican a más de 400 investigadores que abordan desde distintos ángulos los mecanismos de la infección, su diagnóstico y tratamiento, así como su impacto psicosocial y económico. La Fundación BBVA se suma así al esfuerzo de investigación para entender y abordar esta crisis, y para contar con mejores herramientas con las que se pueda hacer frente a futuras pandemias.

Toda la información sobre esta convocatoria aquí:https://www.fbbva.es/noticias/adjudicadas-4-ayudas-a-equipos-de-investigacion-cientifica-sars-cov-2-y-covid-19-en-big-data-e-inteligencia-artificial/

Fuente: ETSIINF UPM