Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados Inteligencia artificial

Participa en la encuesta para la estrategia europea de inteligencia artificial

La Comisión Europea está trabajando en la elaboración de la Estrategia Europea de Inteligencia Artificial. Con este fin en la pasada asamblea de la AI Alliance se abrió una encuesta para recabar la opinión europea tanto del sector específico de empresas y profesionales

que están trabajando en inteligencia artificial, como de organizaciones y personas en general en la unión europea. En principio la encuesta estará abierta hasta el 1 de diciembre de 2019.

Desde la organización colegial de ingeniería informática, como miembros de la AI Alliance estamos contribuyendo a la máxima difusión y participación en esta iniciativa. Y en particular animamos a una participación española lo más intensa posible.

El objetivo de la encuesta es recabar la opinión respecto del documento de Recomendaciones sobre políticas e inversiones para una Inteligencia Artificial confiable, también presentado en la mencionada asamblea de la AI Alliance. Se trata de un borrador de 33 recomendaciones que pueden servir de guía para una inteligencia artificial confiable, que contribuya a la sostenibilidad, crecimiento, competitividad, así como la inclusión y los beneficios, protección y valorización de las personas.

La encuesta busca retornos de utilidad, relevancia, coherencia, factibilidad, gobernanza, y en general mejoras a las recomendaciones planteadas. Esta recolección y selección de opiniones y sensibilidades será una aportación fundamental para la elaboración y definición de la Estrategia Europea de Inteligencia Artificial, que se estima pueda estar disponible a final de 2019, y que integrará los elementos esenciales de una hoja de ruta de acciones, inversiones, así como un futuro marco regulatorio adecuado y confiable. Un escenario legal que permita a la UE potenciar la competitividad aprovechando la inteligencia artificial, pero que a la vez garantice los derechos de los ciudadanos.

Con este fin se ofrecen dos cuestionarios orientados a dos categorías diferentes de participantes, que se presentan a continuación con los correspondientes enlaces para participar:

Como se manifestó en una de las ideas fuerza más relevantes de la primera asamblea de la AI Alliance: La no regulación no es una opción. ¡Participa!

Fte.: CCII

Eneko Agirre profesor de la UPV-EHU obtiene un premio de investigación de Google

San Sebastián, 7 may (EFE).- El profesor de la Facultad de Informática de la Universidad del País Vasco (UPV-EHU) Eneko Agirre ha obtenido uno de los premios de investigación de Google por el que recibirá una ayuda económica de 80.000 dólares para desarrollar su proyecto sobre inteligencia artificial.

Agirre, profesor del departamento de Lenguajes y Sistemas Informáticos, ha recibido este galardón por su investigación «Accessing FAQ and CQA sites via dialogue«, centrada en el desarrollo de sistemas de diálogo para poder conversar con las máquinas sobre la información disponible en internet, ha informado la UPV-EHU en un comunicado.

Eneko Agirre ha explicado que actualmente los usuarios acceden a la información de internet mediante buscadores como Google o Bing, que «devuelven los documentos relevantes» de la búsqueda.

Sin embargo, esta realidad está cambiando gracias al desarrollo de asistentes virtuales que entienden la voz como Siri, Alexa o Google Assistant, ha precisado.

«Estos asistentes se están popularizando rápidamente» a través de móviles y altavoces inteligentes y «están revolucionando nuestra forma de comunicarnos con las máquinas», afirma el docente.

No obstante, señala que actualmente existe un número limitado de aplicaciones a las que se puede acceder mediante diálogo debido, entre otras razones, a que «las máquinas no entienden la complejidad del lenguaje y se pierden fácilmente» en la ambigüedad del mismo.

El proyecto premiado busca poder acceder mediante estos asistentes virtuales a la gran cantidad de información que existe en internet gracias a técnicas de inteligencia artificial.

«El reto consiste en ser capaces de transmitir esa información mediante un diálogo lo más natural posible con la persona», ha explicado Agirre.

El grupo de investigación que lidera Agirre recogerá para ello «grandes cantidades de diálogos entre dos personas, en los que una de ellas formula preguntas y la otra las responde sobre la base de la información que reside en un documento concreto».

Estos diálogos servirán para entrenar los modelos automáticos, de forma que éstos puedan servir para responder sobre cualquier otro tema con naturalidad, ha precisado la misma fuente.

Fte: Diariovasco

Científicos españoles crean modelos predictivos de enfermedades con big data e IA

El objetivo de este equipo es afinar las predicciones sobre el diagnóstico a partir de las imágenes médicas

Fuente: Innovadores La Razón

Un equipo de investigadores valencianos trabaja en el desarrollo de un sistema que aprovecha las capacidades de clasificación de información que ofrecen los procesos de computación de big data e inteligencia artificial (IA) y, en concreto, el aprendizaje profundo. En el proyecto DeepHealth se pretenden crear modelos predictivos a partir de una gran base de datos con imágenes anonimizadas.

La idea fundamental del proyecto es disponer de algoritmos basados en deep learning que analicen imágenes y proporcionen información estructurada útil para el diagnóstico. Para ello, explican fuentes de la Universidad Politécnica de Valencia, es necesario «generar modelos predictivos que, nutriéndose de una gran cantidad de imágenes, proporcionen como salida la probabilidad de que una nueva imagen refleje o no una determinada enfermedad».

Así, este equipo ha recibido 12,7 millones de euros de la Unión Europea para el desarrollo de un software que permita el análisis y almacenamiento de gran cantidad de datos, principalmente imágenes médicas, como herramienta de apoyo a los facultativos en el proceso de toma de decisiones sobre el diagnóstico.

Un componente esencial del proyecto es la creación de una gran base de datos con imágenes médicas anonimizadas que puedan utilizarse para entrenar y validar los modelos matemáticos predictivos. En este sentido, María de la Iglesia-Vayá, responsable del proyecto en la Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat Valenciana, afirma: «Crearemos una base de datos que contendrá miles de imágenes anotadas, es decir, descritas y adecuadamente clasificadas. Las anotaciones incluirán cientos de parámetros como, por ejemplo, el volumen exacto de decenas de regiones del cerebro y otras partes del cuerpo».

El gran valor de este proyecto, añade la investigadora de la FISABIO, es que «persigue, a partir de reunir y analizar conjuntamente muchos de esos parámetros de imagen en miles de casos diferentes, afinar las predicciones sobre el diagnóstico a partir de las imágenes médicas y, de ese modo, reforzar la cantidad de información que se extrae de ellas y su valor clínico».

Jon Ander Gómez Adrián, investigador de la UPV y coordinador del proyecto, señala que el objetivo  «es aunar dos áreas de desarrollo informático que hasta ahora han estado separadas: la supercomputación, que ofrece unas extraordinarias capacidades de procesamiento, y el big data, que ofrece una gran capacidad analítica».

Para ello, Gómez apunta que el primer paso es «crear un entorno operativo, basado en dos nuevas bibliotecas informáticas, que permita la comunicación y el entendimiento entre los entornos informáticos de supercomputación y los de big data«.

«Una vez desarrollado el entorno operativo» completa Roberto Paredes Palacios, también de la UPV, «el siguiente paso será aplicarlo a una serie de casos clínicos para entrenar los modelos predictivos en diferentes áreas médicas, 14 en total, incluyendo migraña, demencia, depresión, etc.» Por último, los modelos entrenados serán evaluados para validar las predicciones con el fin de confirmar que estas son correctas.

Equipo científico: El proyecto es una colaboración multidisciplinar entre el grupo de investigación liderado por María de la Iglesia-Vayá en la Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat Valenciana (FISABIO) e ingenieros informáticos de la Universitat Politècnica de València (UPV) coordinados por Jon Ander Gómez Adrián. Junto a ellos, en una iniciativa coordinada por Everis, participan investigadores de otras 19 instituciones de nueve países europeos. Puesto en marcha durante el pasado mes de enero con una duración prevista de tres años.

Información en Innovadores

La Universitat Politècnica de València aprueba la creación del Instituto Valenciano de Investigación en Inteligencia Artificial

La Universitat Politècnica de València ha aprobado en Consejo de Gobierno la creación del Instituto Valenciano de Investigación en Inteligencia Artificial (IVIIA), una estructura de I+D+i que agrupará a 79 investigadores de la UPV y sumará, en global, más de 100 sexenios. El nuevo instituto tendrá como director al catedrático Vicent Botti, Premio Nacional de Informática en 2018.

El catedrático Vicent Botti, Premio Nacional de Informática en 2018, será el director técnico del Instituto Valenciano de Investigación en Inteligencia Artificial (IVIIA).

El IVIIA se propone como misión producir avances significativos en el campo de la inteligencia artificial. En concreto, pretende desarrollar nuevos métodos y técnicas de aprendizaje automático, aplicaciones innovadoras en el big data, procesamiento del lenguaje natural, visión artificial, robótica, cooperación hombre-máquina…

La creación de este instituto viene motivada por la necesidad de reunir en un solo centro de referencia a los diferentes grupos de investigación que operan en la UPV en este campo. Y es que se trata de equipos de investigadores referentes en IA a nivel nacional e internacional cuyos resultados vienen avalados por una amplia producción científica.

El nuevo IVIIA se ubicará provisionalmente en los espacios del Departamento de Sistemas Informáticos y Computación (DSIC), y según su responsable, permitirá acceder a proyectos de mayor envergadura. “Es objetivo prioritario la transferencia de tecnología y el trabajo directo con la industria”, según se indica en la memoria aprobada.

Entrevista sobre IA al ingeniero de software Miquel Montero, CTO de Atomian

Miquel Montero es ingeniero de software y experto en Inteligencia Artificial (IA). Hace unos años fundó Atomian, una compañía barcelonesa con vocación internacional especializada en computación cognitiva. Para Montero, la IA nos lleva hacia un mundo mejor, aunque reconoce que también plantea retos: puede que llegue el momento en que los sistemas económicos basados en la distribución de riqueza mediante las rentas del trabajo dejen de tener sentido. “Si yo fuera economista, estaría pensando en qué viene después del actual paradigma económico”, apunta Montero.

Artículo de Javier García, en Interempresas

Existen diferentes interpretaciones de lo que es la Inteligencia Artificial. ¿Qué es para usted la IA?

En un sentido muy amplio, hoy cualquier forma de innovación algorítmica cae en el campo de la Inteligencia Artificial, así que esa me parece una buena definición: la Inteligencia Artificial es el campo que estudia las nuevas formas algorítmicas que permiten a las computadoras hacer cosas que hasta el momento no podían hacer. Desde hace un tiempo se habla mucho de la Inteligencia Artificial con aplicaciones en la vida cotidiana, la empresa, la administración, la industria e, incluso, otros campos como la medicina.

¿Existe de verdad la IA más allá de Siri o Sophia?¿Puede la máquina sacar conclusiones cualitativas, abstractas, más allá del mero dato y la interpretación algorítmica?

Sí, y existen multitud de ejemplos al respecto. Sin ir más lejos, cuando un comercio electrónico va adaptando sus ofertas a nuestros gustos lo hace en base a conclusiones que saca de nuestros patrones de compra. En cada caso se construye un modelo simbólico que permite diseñar unos algoritmos de razonamiento. Atomian ha ido más allá y ha construido un motor de conocimiento simbólico universal, de forma que ya no hace falta crear modelos específicos para cada caso: la computadora razona siempre en base a este modelo.

La ironía, un chiste, slang, comunicación no verbal… ¿Dónde tiene el techo la IA hoy?

No hay techo, siempre y cuando se encuentren los modelos de conocimiento adecuados.

¿Qué es la computación cognitiva (CC)?

Es una rama de estudio de la Inteligencia Artificial. De todas las definiciones que he leído, me quedo con la de un divulgador llamado Joel Hans: mientras la IA hace que las computadoras hagan cosas inteligentes, la CC hace que solventen problemas con pensamiento de tipo humano.

Usted es ingeniero de software. ¿Cómo se desarrolla desde un punto de vista técnico la computación cognitiva? ¿Cómo se trabaja la información para que un ordenador pueda “pensar”?

Es una pregunta complicada de responder. Dada la ausencia de estándares o de algoritmos comúnmente aceptados, en el caso de Atomian diseñamos una arquitectura cognitiva desde cero, con diversas influencias de trabajos anteriores, e hicimos una implementación prácticamente sin dependencias externas, es decir, escribiendo nosotros todo el código.

Dice que sus plataformas entienden el lenguaje natural…

Sí, aunque entender es un concepto muy profundo. ¿Cuándo podemos estar seguros de que entendemos el lenguaje? Me refiero a comunicaciones entre personas. Seguramente, nos basta con que la respuesta sea coherente, ¿no? Pero eso también abre un debate acerca del significado de respuesta coherente. En Atomian consideramos que entendemos una frase cuando somos capaces de traducirla a un conjunto de símbolos dentro de nuestra arquitectura cognitiva. De esta forma, todo el razonamiento es simbólico desde el inicio del proceso y solo al final convertimos los símbolos que constituyen una respuesta en un texto legible. Atomian es capaz de entender inglés, español y catalán. 

¿Qué diferencia sus herramientas de computación cognitiva de un software de gestión tradicional?

 Todos nuestros productos pivotan alrededor de tres grandes aplicaciones. La primera, el poder preguntar a los datos con tus propias palabras. Las organizaciones están consumiendo una gran cantidad de recursos construyendo sistemas de consulta, que nunca llegan a satisfacer a sus usuarios finales. Además, las colas de espera que se producen en la generación de informes imposibilita la toma de decisiones basada en datos. 

La segunda tiene relación con la primera. El poder analizar esos datos para extraer tendencias, patrones y correlaciones hace que Atomian no se limite a responder por los datos, sino que sea capaz de extraer valioso conocimiento alrededor de ellos.

La tercera tiene que ver con la automatización de procesos, que incluyen la lectura de un documento. Hoy una computadora puede encargarse de procesos complejos, pero en el momento de leer un documento para extraer unos datos y rellenar con ellos un formulario, por ejemplo, se limitan a esperar que lo hagan personas. Atomian puede realizar todas esas tareas de lectura y extracción.

Dicen que el siguiente paso será el predictivo. ¿Cuán lejos están de ello?

Si tienes un motor de conocimiento universal, tiene sentido que intentes construir un motor analítico universal, que no necesita la creación de un modelo específico para cada dominio de conocimiento. Ese es un trabajo ya en curso; nuestros ingenieros ya están consiguiendo resultados.

¿Qué aplicaciones podrían tener sus desarrollos en la industria?

El sector empieza a estar familiarizado con conceptos como Inteligencia Artificial, Big Data, Industria 4.0, y el mercado cuenta hoy con muchas soluciones y herramientas para automatizar los procesos, reducir costes y ahorrar tiempo y energía. ¿Qué puede aportar Atomian en este contexto? En el ámbito del business intelligence, las industrias tienen cada vez más datos provenientes de sus sensores, máquinas, robots, etc. Son datos muy diversos (en teoría de la información se llamarían entrópicos), y probablemente en la capacidad de las empresas de extraer conocimiento sobre todos esos datos estén buena parte de las claves de los procesos de mejora continua. Yendo un poco más allá, diría que una empresa que no analice exhaustivamente sus datos no será sostenible en el futuro cercano.

¿Podrán las máquinas aprender de las máquinas, interactuar entre ellas y sacar conclusiones para “mejorarse”?

¡Eso ya está pasando ahora! Aún no hemos llegado, eso sí, al punto de singularidad en el que una máquina sea capaz de programar una máquina más rápido que las personas. 

Desde hace mucho, la máquina (por resumir en una palabra la tecnología actual en su conjunto) es capaz de llevar a cabo mejor que las personas las tareas más tediosas y repetitivas. Ahora también puede dirigir, pensar, interpretar y aportar valor añadido. Sin embargo, la corriente hoy sitúa al hombre en el centro de los procesos de producción.

¿Cómo explicaría esta tendencia? ¿Cuál es el valor añadido del hombre si la “máquina” puede dar con la mejor opción de forma objetiva y sin condicionantes emocionales?

Las personas seguiremos siendo personas. En nuestro viaje de la vida es muy probable que siempre prefiramos seguir tratando con personas en lugar de máquinas, aunque quién sabe…

¿Hacia dónde se dirige la IA?

Hacia un mundo mejor, forzosamente. También planteará retos que empiezan a verse en el horizonte.

¿Llegará un momento en que los sistemas económicos basados en la distribución de riqueza mediante las rentas del trabajo dejen de tener sentido?

Si yo fuera economista, estaría pensando en qué viene después del actual paradigma económico. Todavía no hemos digerido la Industria 4.0 ni sacado de ella todo el partido, y ya se habla de la Industria 5.0. ¿Cuán cerca estamos de ella? No me gusta hablar de versiones de la industria. Ya ni siquiera el software se mide por versiones tipo número punto cero. Nos encontramos en la era de la mejora continua, del cambio permanente, de la evolución constante.

¿La Inteligencia Artificial “nos hará más tontos”? ¿Involucionaremos?

Eso no ha sucedido nunca en la historia de la tecnología, no creo que ahora tenga que suceder. ¿Olvidaremos algunas tareas manuales? Seguramente, pero a cambio nos especializaremos en tareas más intelectuales, y, en mi opinión, por eso mismo, más interesantes y gratificantes. 

Entrevista completa en: https://www.interempresas.net/Robotica/Articulos/239498-Entrevista-a-Miquel-Montero-CTO-de-Atomian.html

 

¿Los algoritmos de inteligencia artificial pueden ser engañados?

Advierten que estos sistemas que median cada vez más nuestras vidas codifican los mismos tipos de prejuicios que tienen los humanos.

Autor: Cesar Dergarabedian

Las tecnologías de inteligencia artificial (IA) se desarrollan con rapidez y cada vez son más asequibles, aunque podrían usarse con propósitos malintencionados. Un ejemplo explica los temores en torno a esta tecnología. Un dron de rastreo fabricado por la empresa Skydio cuesta 2.499 dólares. Se armó con piezas de construcción tecnológicas disponibles para cualquiera: cámaras ordinarias, programa de código abierto y procesadores de computadora de bajo costo. Con el tiempo, reunir estos componentes será cada vez más fácil y barato. Estas mismas tecnologías aportan un nuevo nivel de autonomía a los vehículos, los robots en los almacenes, las cámaras de seguridad y una amplia gama de servicios de Internet. Los nuevos sistemas de IA también exhiben comportamientos inesperados y extraños debido a que no se entiende por completo la manera en que aprenden a partir de enormes cantidades de datos. Esto los hace vulnerables a la manipulación; se puede engañar a los algoritmos para que, por ejemplo, vean cosas que no existen.

En un contexto como éste, los delincuentes podrían burlar cámaras de seguridad o afectar a un vehículo autónomo. Josh Saxe, jefe de datos científicos de la empresa de seguridad informática Sophos, explicó a iProfesional cómo los cibercriminales utilizan la inteligencia artificial para sus actividades.

  • -Las tecnologías de inteligencia artificial se desarrollan con rapidez y cada vez son más asequibles. Pero ¿podrían usarse con propósitos malintencionados? –

Sí:

* Deepfakes: el contenido generado por la red neuronal es ahora una realidad y ha sido reconocido como una amenaza importante para el discurso público. Por ejemplo, las fallas profundas pueden hacer que parezca que una celebridad, una figura pública o un ciudadano privado ha dicho y hecho cosas que en realidad no hizo.

* La inteligencia artificial también se puede utilizar para generar URL falsas, publicaciones en redes sociales e incluso perfiles en redes sociales.

* Los investigadores también han experimentado con el uso de inteligencia artificial para generar malware, pero aún no se ha demostrado que estos métodos tengan ventajas significativas sobre las técnicas de generación de malware no basadas en IA como el polimorfismo.

  • – ¿Se puede engañar a los algoritmos de la inteligencia artificial, por ejemplo, para que vean cosas que no existen? –

Sí. Es bien sabido que los algoritmos de inteligencia artificial pueden ser engañados, y todavía no hay una solución robusta para este tipo de ataques. Por ejemplo, los investigadores han demostrado que al poner un sticker en una señal de stop, los delincuentes pueden engañar a un auto que se maneja solo para que no lo vea.

En ciberseguridad, es posible generar malware que evade la detección basada en el aprendizaje automático utilizando técnicas matemáticas. En general, los algoritmos de inteligencia artificial actualmente no son difíciles de engañar.

Este es un problema que se ha convertido en un foco importante de investigación en la comunidad de inteligencia artificial, incluso dentro de nuestro equipo de investigación de ciencia de datos en Sophos.

  • – ¿Estas técnicas automatizadas harán que sea más fácil perpetrar ataques que ahora requieren mucha labor humana, entre ellos phishing o ciberestafa, que involucra reunir y usar los datos personales de las víctimas? –

No creo que la inteligencia artificial cambie la forma en que los atacantes recopilan información sobre las víctimas. Creo que la inteligencia artificial puede ayudar a los atacantes, eventualmente, con la generación de texto en el «estilo» de un objetivo que buscan suplantar, o con la generación de imágenes falsas, audio y video que suplantan a un objetivo.

De esta manera, esperaría que la inteligencia artificial haga que los ataques de ingeniería social sean mucho más sofisticados en el plazo de la próxima década

  • – ¿Qué medidas deben tomar las organizaciones para prevenir estos usos malintencionados? –

Creo que la comunidad técnica en su conjunto necesita comenzar una discusión seria sobre los esquemas de firma digital y la infraestructura de clave pública para firmar contenido multimedia para evitar ataques de falsificación profunda.

También se ha vuelto importante usar inteligencia artificial para detectar contenido que puede deberse a ataques de ingeniería social. Finalmente, los investigadores deben continuar construyendo sistemas de inteligencia artificial que sean robustos en sus intentos de engañar a los atacantes.

Creo que vamos a ver el mismo tipo de juego del gato y el ratón en la ciberseguridad en el futuro, la diferencia es que la inteligencia artificial se convertirá en un nuevo escenario para este juego.

  • – ¿Qué principios deben adoptar las organizaciones al diseñar, desarrollar o utilizar la inteligencia artificial? Por ejemplo, los derechos humanos. –

Es importante que los algoritmos de inteligencia artificial que toman decisiones socialmente impactantes, como decidir qué contenido promover en un sitio de redes sociales, o decidir quién debe ser elegible para un préstamo, se diseñen con el objetivo de minimizar los sesgos en relación con la raza, el género, la orientación sexual, nacionalidad, etc. Tal como está, está bien documentado que los algoritmos de inteligencia artificial que median cada vez más nuestras vidas codifican los mismos tipos de prejuicios que los humanos llevan. Necesitamos continuar trabajando para remediar esto.

Fuente: Iprofesional

Un sistema para big data diseñado en Pamplona construye modelos predictivos miles de veces mejores que los actuales

El nuevo algoritmo del ingeniero informático Mikel Elkano Ilintxeta mantiene la precisión con modelos compuestos por apenas una veintena de reglas.

Fte.: Pamplona actual

Mikel Elkano Ilintxeta (Pamplona, 1991), investigador del Instituto de Smart Cities (ISC) de la Universidad Pública de Navarra (UPNA), ha diseñado un nuevo sistema de clasificación basado en reglas difusas (SCBRD) para “big data” (datos masivos), que es capaz de construir modelos predictivos que pueden llegar a ser hasta 200.000 veces más compactos que los generados por los SCBRD disponibles hasta la fecha, manteniendo, además, la precisión en las predicciones.

“El SCBRD más preciso hasta la fecha requería entre cinco y seis millones de reglas para lograr predicciones precisas, haciendo prácticamente imposible que el usuario pudiese interpretar las predicciones. Con este nuevo algoritmo o herramienta matemática, es posible mantener la precisión con modelos compuestos por apenas entre veinte y treinta reglas fácilmente interpretables”, explica el investigador, cuyo trabajo forma parte de su tesis doctoral leída en la institución académica y calificada con sobresaliente “cum laude”. Este avance en el campo de la Inteligencia Artificial (y, más concretamente, en la Ciencia de Datos) puede ser aplicado en diversos campos, como en la medicina, ya que ayudará a los profesionales sanitarios a tomar decisiones basándose en los miles de datos recogidos en historiales clínicos, y también en la física. Así, gracias a los modelos obtenidos, el también investigador de Navarrabiomed (centro mixto de investigación biomédica de la institución académica y el Gobierno de Navarra) ha sido capaz de “extraer las variables más importantes a la hora de identificar bosones de Higgs y partículas supersimétricas, si bien la precisión de los SCBRD no alcanza todavía la de otros modelos predictivos no interpretables”.

Los sistemas de clasificación basados en reglas difusas (SCBRD) proporcionan un modelo formado por una serie de reglas que contienen etiquetas lingüísticas interpretables por el ser humano, lo que les permite explicar el razonamiento llevado a cabo al realizar una predicción. Este tipo de reglas posibilita a los SCBRD no solo explicar el porqué de las predicciones, sino también manejar la incertidumbre proveniente de información imprecisa. De ahí su importancia.

INTERPRETACIÓN DE LAS PREDICCIONES

Como señala Mikel Elkano Ilintxeta, “en la actualidad, la ingente cantidad de información producida y gestionada por el ser humano excede la capacidad de cómputo y almacenamiento de las máquinas convencionales modernas”. “En el caso de los SCBRD diseñados para ‘big data’, además de la dificultad añadida de la computación distribuida, la gran cantidad de datos que debe procesarse hace que los modelos predictivos obtenidos sean demasiado complejos y contengan un número excesivamente elevado de reglas, lo que hace que las predicciones sean más difíciles de comprender e interpretar”, indica Mikel Elkano Ilintxeta, cuya tesis doctoral ha sido dirigida por Edurne Barrenechea Tartas y Mikel Galar Idoate, investigadores del Instituto ISC de la UPNA y de Navarrabiomed.

El algoritmo recogido en la tesis doctoral “reduce considerablemente el número de reglas y esta circunstancia favorece su empleo, por ejemplo, en medicina, para ayudar a los especialistas a tomar decisiones basándose en historiales clínicos”. “Dado que cada vez disponemos de más información acerca de los pacientes, el uso de algoritmos de aprendizaje automático permite aprovechar todos estos datos para poder detectar patrones existentes entre diferentes pacientes y extraer las variables más influyentes a la hora de predecir una cierta patología”, concluye el investigador.

BREVE CURRÍCULUM

Mikel Elkano Ilintxeta cursó, sucesivamente, Ingeniería Técnica en Informática de Gestión e Ingeniería Informática en la Universidad Pública de Navarra. Con esta última titulación obtuvo el Premio al Mejor Proyecto Fin de Carrera por la Asociación Española para la Inteligencia Artificial (AEPIA) en la Escuela de Verano de Inteligencia Artificial de 2014. Posteriormente, completó su formación con un Máster en Psicobiología y Neurociencia Cognitiva en la Universidad Autónoma de Barcelona (2015) y una estancia de investigación en Monash University (Melbourne, Australia) en 2016 para trabajar en el campo de la neurociencia computacional. Sus investigaciones se han reflejado en nueve artículos publicados en revistas científicas de alto impacto y en la presentación de siete trabajos en congresos internacionales.

Noticia completa aquí

La profesora Emilia López Iñesta recibe el premio Marc Esteva Vivanco a la mejor tesis doctoral en Inteligencia Artificial

La Dra. Emilia López Iñesta ha sido la primera mujer al recibir el premio Marc Esteva Vivanco a la mejor tesis doctoral en Inteligencia Artificial por su trabajo doctoral desarrollado al Departamento de Informática de la Escola Tècnica Superior d’Enginyeria de la Universitat de València (ETSE-UV). Actualmente, Emilia es profesora del Departamento de Didáctica de la Matemática de la Facultad de Magisterio de la Universitat de València.

La tesis doctoral recibió la calificación de Sobresaliente Cum Laude, tiene Mención Internacional y fue dirigida por los profesores Miguel Arevalillo Herráez y Francisco Grimaldo Moreno en el programa de doctorado “Tecnologías de la Información, Comunicaciones y Computación”.

Su trabajo titulado “Aprendizaje de similitudes entre pares de objetos mediante clasificación supervisada” ha sido evaluado en función de su calidad y relevancia de la investigación y ha recibido este galardón otorgado por la Associació Catalana d’Intel·ligència Artificial durante la celebración del XXI Congreso Internacional en Inteligencia Artificial en octubre de 2018.

La tesis propone un método que, mediante técnicas de aprendizaje máquina, proporciona un ranking de pares de objetos basado en su similitud que se puede emplear para recuperar información en buscadores de Internet o en aplicaciones como por ejemplo Spotify, Youtube o sistemas de recomendación como los que utilizan las plataformas Amazon o Netflix.

El documento de la tesis se puede consultar al repositorio Roderic de la Universitat de València: http://roderic.uv.es/handle/10550/61001

Fte.: Universitat de València

Inteligencia artificial en el proceso de diagnóstico del cáncer de próstata

Investigadores de la UMU colaboran en este estudio sobre una enfermedad cuyo diagnóstico, hasta ahora, solo se alcanzaba mediante una biopsia
Investigadores del Departamento de Ingeniería y Tecnología de Computadores y de Anatomía Patológica de la Universidad de Murcia (UMU) han iniciado una colaboración para aplicar los avances de la inteligencia artificial (IA) al diagnóstico de posibles casos de cáncer de próstata, uno de los más extendidos en la población masculina, según informaron fuentes de la institución docente en un comunicado.

En el campo de la informática, la inteligencia computacional permanece en auge constante. La aplicación de redes neuronales en los ordenadores, inspiradas en el funcionamiento del cerebro, están siendo aplicadas para ser capaces de reconocer y aprender determinados patrones. Grandes empresas como Google las integran en sus servicios para el reconocimiento de voz, la traducción de voz, el reconocimiento de texto y, desde sus inicios, han sido aplicadas a la identificación de imágenes.

Su campo de actuación ha seguido ampliándose en los últimos años, extendiéndose al mundo de la salud, donde se estudia su implantación como herramienta de diagnóstico por imagen. Ante este hecho, los profesores de la UMU, José Manuel García Carrasco y Enrique Poblet, han encontrado un hueco para aplicar sus estudios a la ciudadanía, a través del Hospital General Universitario Reina Sofía.

Hasta este momento, tal y como recalca el doctor Enrique Poblet, el diagnóstico actual en Medicina se ha basado en la observación de imágenes analógicas a través de microscopio. Así, los expertos analizan a base de técnicas microscópicas si en el paciente sufre cáncer. Hasta ahora, la única forma de llegar a un diagnóstico certero era a través de la biopsia, es decir, del análisis de un pequeño fragmento de tejido dañado.

«Las muestras las analizamos por métodos visuales estándares, con los parámetros que podemos emplear para reconocer personas o distinguir una cara de otra. Al aplicar el nuevo sistema queremos ganar precisión, tiempo y efectividad mediante métodos más cuantitativos, porque cualitativamente nos podemos equivocar, podemos creer que dos personas son idénticas, pero si incorporamos métodos técnicos, y aquí entra la informática, el reconocimiento será más rápido y mejor», confirma el patólogo.

Para comenzar esta investigación se analizarán aproximadamente 500 biopsias, que tal y como confirma Poblet, «hoy por hoy son la única forma de estar seguros que una persona tiene la enfermedad». A partir de las digitalización de estas imágenes analógicas el reto está en procesarlas mediante esta técnica novedosa. Una vez digitalizadas, entra en juego el papel de García Carrasco.

Es el momento de que el ordenador a través de una red neuronal artificial sea capaz de aprender a detectar los tumores, es decir, mediante técnicas de deep learning o ‘aprendizaje profundo’ sea capaz de reconocer las características significativas que determinan la enfermedad.

A través de esta técnica, relacionada con la inteligencia artificial, no se le proporcionará al ordenador qué particularidades se distinguen, sino que «a base de introducir un gran número de muestras», la propia máquina alcanza un proceso de abstracción, al igual que los humanos, para determinar el diagnóstico de la enfermedad.

«Dejamos que lo aprenda por sí mismo. El ordenador no está cansado, no le duele la cabeza y es mucho más rápido. Es cierto que el proceso de aprendizaje es mucho más lento, puede tardar a veces una semana o quince días, pero podemos llegar a obtener una precisión de un 90 o un 95%» resalta José Manuel García. Actualmente en el campo médico se han alcanzado resultados por encima del 80%, y en otro tipos de imágenes no médicas se ha superado la capacidad de los humanos, con un ratio del 95%.

«Es necesario tener primero un diagnóstico correcto y exacto, de esa forma los tratamientos siempre son más efectivos. Es decir, aumentar la precisión en el diagnóstico es fundamental. A partir de esta innovación se podrá incluso buscar tratamientos personalizados, adaptados a cada persona según el tamaño o tipo de tumor. En nuestro caso concreto, a través de esta colaboración inicial, estamos analizando el cáncer de próstata, con la idea de mejorar nuestra capacidad diagnóstica» explica Poblet.

El primer objetivo de esta simbiosis es la creación de un grupo de investigación interesado en el diagnóstico de la imagen, unido en el esfuerzo para seguir avanzando en este camino. Por ahora, el trabajo, que se ha iniciado este último año, ha comenzado con la colaboración a través de los alumnos de ambas facultades que van a realizar sus Trabajos de Fin de Grado (TFG) mediante esta colaboración. Durante los próximos meses obtendrá los primeros resultados que ya se encuentran puliendo y depurando.

Fte.: La opinión de Murcia