Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados Inteligencia artificial

Tecnologías protagonistas de 2020

2020 Tecnologías Blockthinkbig

El año toca a su fin y es momento de listas y pronósticos para el nuevo curso que en breve comienza. El blog Think Big empresas ha publicado un artículo elaborado por Alejandro de Fuenmayor, donde repasa las tecnologías protagonistas de 2020.

Estas son las 10 tecnologías sobre las que reflexiona el autor:

1. Hiperautomatización

2.Multiexperiencia

3. Democratización de la tecnología
4. El humano aumentado
5. Transparencia y trazabilidad
6. Edge computing
7. La nube distribuida

8. Cosas autónomas

9. Blockchain práctica
10. Seguridad basada en inteligencia artificial

Encuentra la información completa en el siguiente enlace

Fuente: Blogthinkbing.com

Usan inteligencia artificial para detectar noticias falsas y mensajes de odio en las redes sociales

IA-Fake-news-upv

Investigadores de la Universidad Politécnica de València (UPV) han desarrollado un sistema de Inteligencia Artificial (IA) que ha ayudado a detectar noticias falsas (fake news) y ataques explícitos e implícitos en las redes sociales.

Es el primero de los resultados del proyecto MISMIS-FAKEnHATE, liderado por el centro Pattern Recognition and Human Language Technology (PRHLT) de la UPV, en el que también participan la UNED y la Universitat de Barcelona y colabora la Policía Local de València, y que en fase de prototipo ya se ha usado para localizar este tipo de mensajes contra mujeres e inmigrantes.

El investigador de la PRHLT-UPV Paolo Rosso ha explicado que hoy en día la ciudadanía «acaba recibiendo en los medios sociales de comunicación sólo la información que concuerda con sus creencias y puntos de vista, con el riesgo de un aislamiento intelectual» o burbuja de información.

Rosso ha hecho hincapié en que un «efecto perverso» que provoca esta realidad es que «cuando la información corrobora nuestras creencias, tendemos a compartirla sin comprobar su veracidad», lo que «facilita la propagación de desinformación, las llamadas ‘fake news'».

El relativo anonimato de los medios sociales favorece además la propagación de lenguaje agresivo, de mensajes de odio y exclusión, que fomentan la separación en comunidades cada vez más polarizadas en sus opiniones.

Al respecto, según apunta a EFE la investigadora del PRHLT-UPV Anastasia Giachanou, «se tiende a una escasa argumentación en los contenidos que a menudo se limitan a unos pocos insultos».

A partir de este análisis, este primer prototipo desarrollado por los investigadores permite identificar noticias falsas a partir de un análisis automático tanto del lenguaje utilizado, como de las emociones que subyacen a ese texto.

Para ello, es capaz de discernir emociones básicas como el miedo, la ira o la sorpresa, entre otros, y por el momento, lo hace en información escrita, si bien están empezando a trabajar también con imágenes.

«Nos proponemos identificar la desinformación desde una perspectiva multimodal, combinando la información textual con la visual a través de técnicas basadas en deep learning (tecnología evolucionada del aprendizaje automático que lo hace más sólido y efectivo)», explica Giachanou.

La investigadora, que desarrolla su investigación en el PRHLT gracias a una beca de la Fundación Nacional para la Ciencia de Suiza (SNSF por sus siglas en inglés), añade que «además, se llevará a cabo un análisis multilingüe cuándo la información sea en lenguajes diferentes».

Por otro lado, este primer prototipo permite detectar también lenguaje agresivo y mensajes de odio en los medios sociales de comunicación.

Para monitorizarlos, el equipo de la UPV, la UNED y la Universitat de Barcelona propone un enfoque terminológico, extrayendo términos y patrones lingüísticos de odio a partir de conjuntos de datos analizados anteriormente y monitorizar sistemáticamente si se emplean en nuevas conversaciones en línea.

Como próximos retos, el equipo de investigadores que ha desarrollado este proyecto trabaja en la clasificación de patrones y rasgos de la personalidad que se esconden detrás de los «haters» (odiadores) de las redes sociales.

Los socios del proyecto celebraron la semana pasada un encuentro en el que presentaron los resultados del primer año de trabajo, ha informado la UPV.

En este encuentro, José Luis Diego, miembro de la Policía Local de Valencia, que participa como Entidad Promotora Observadora (EPO) en este proyecto, expuso los retos de este cuerpo de seguridad para la detección de mensajes de odio y de exclusión en las redes sociales.

Por parte del centro PRHLT de la Universidad Politécnica de Valencia también participan en el proyecto Francisco Casacuberta y José Miguel Benedí, han indicado las mismas fuentes.

Fuente: EFE

De qué serán capaces la inteligencia artificial y el machine learning en 10 años: Xataka pregunta a expertos

Reportaje en Xataka con los expertos en IA

Parece que el término Inteligencia Artificial no se nos cae de la boca desde hace un par de años, pero lo cierto es que fue en 1956 cuando un profesor universitario, John McCarthy, lo acuñó en una coferenecia académica. Aunque las Leyes de Turin y de Asimov son de 1950, habría que esperar 6 años para acuñar este término y referirse a ese conjunto de tecnologías con las que se pretende que las máquinas sean inteligentes.

Desde entonces (han pasado más de 6 décadas), los avances han sido llamativos: ordenadores capaces de ganar a campeones de ajedrez, máquinas que aprenden solas, coches que se conducen solos…

Pero, ¿qué será realmente la Inteligencia Artificial capaz de hacer dentro de 10 años? ¿Seguiremos llamando Inteligencia Artificial a la Inteligencia Artificial? ¿Qué hay de realidad y qué de ciencia ficción o esperanza en lo que se dice sobre estas tecnologías?

Hemos hablado con varios expertos en la materia: Nuria Oliver ingeniera en telecomunicaciones y doctora por el Media Lab del Instituto Tecnológico de Massachusetts, Richard Benjamins, Data & IA Ambassador de Telefónica, Andres Torrubia, ingeniero y CEO de Fixr y Pedro Larrañaga, Catedrático de Ciencias de la Computación e Inteligencia Artificial de la Universidad Politécnica de Madrid. Esto es lo que nos han contado.

Por qué es difícil hacer estos pronósticos

Si hacer predicciones a futuro es difícil, hacerlo sobre una tecnología como la Inteligencia Artificial se antoja complicada incluso para los propios expertos que trabajan en su desarrollo. Para entenderlo un poco mejor, Andrés Torrubia explica que todos los avances que estamos viendo a día de hoy provienen de la disciplina del deep learning o aprendizaje profundo. Una materia que, hace precisamente 10 años, “no funcionaba a nivel práctico. Esto nos da una visión de la complejidad de hacer predicciones a futuro, porque si hace 10 años me hubieras hecho esta misma pregunta, te hubiera contestado que estaba atascado”.

Por eso, los expertos que hemos consultado prefieren, como punto de partida, hacer un repaso de lo que se ha conseguido en esta década para intentar vislumbrar de qué será capaz en unos años.

Durante este tiempo, la tecnología ha aprendido a reconocer objetos y caras, a realizar análisis predictivos (que se aplican en anuncios o en medicina) o a generar juegos (tipo Pokemon go). Todos estos son modelos predictivos, pero también hay modelos generativos, los que son capaces de crear algo: escribir, pintar… O inventar caras de personas, por ejemplo.

La conducción autónoma será técnicamente viable

Por eso, y subrayando que es muy difícil de saber qué será capaz de hacer la tecnología en el futuro porque, Nuria Oliver desgrana que si seguimos avanzando en las mismas áreas de los últimos 5 años (reconocimiento de patrones en video, texto, imágenes y audio, es decir, en datos no estructurados), la conducción autónoma será realidad desde el punto de vista técnico. “Tendremos las habilidades técnicas para tener una conducción autónoma segura, aunque hay otros factores no tecnológicos que determinarán si es realidad o no en el mercado”, avanza.

Richard Benjamins ahonda en el hecho de que, en estos momentos, los coches ya son capaces de reaccionar sobre lo que ven los sensores y lo que han aprendido. “Pero en el futuro podrán predecir los comportamientos de otros coches, conducidos por coches y personas”. Un componente que no está presente hoy, pero sí en el futuro, “imitando lo que hacemos los humanos”-

Cuando se habla de conducción autónoma, ésta se dividen en 5 niveles. Andrés Torrubia explica que si el nivel 5 es el de máxima autonomía, en 10 años muchas ciudades ya estarán en el nivel 4 (que aún sigue exigiendo que un humano lleve las manos en el volante). “A nivel 5 no se llegará por cuestiones puramente técnicas”, avanza, salvo en entornos muy cerrados y controlados.

Diagnósticos, medicina personalizada y moléculas bajo el prisma de la IA

Medicina será, según estos expertos, otra de las áreas en las que más avances veremos. Aunque hoy en día sigue es una de las temáticas de las que más se habla, según Andrés Torrubia aún no está desplegada con todo su potencial, por lo que cuando este se produzca veremos importantes adelantes. “Hoy ya está ayudando en el diseño de fármacos, pero las moléculas tienen que pasar por ensayos clínicos. La IA diseñará moléculas, pese a que, con razón, sigue siendo un sector muy regulado”.

Así pues, será un avance que irá lento “porque se tiene que validar muy bien”. Pero en el diseño de tratamientos, en el diagnóstico será cada vez más común que la Inteligencia Artificial se aplique a temas de imágenes y radiografías. Algo en lo que coincide Benjamins. “Seguro serán diagnósticos médicos muy buenos, incluso mejores que los realizados por los propios médicos expertos. Y es algo que ya se hace”. Pero, según su visión, la verdadera aportación a diez años vista será que también se podrá explicar cómo se ha llegado a este diagnóstico. Aunque ahora el Machine Learning y la IA pueden hacer estos diagnósticos, es muy difícil explicar este diagnóstico, tanto al profesional como al particular. “En 10 años sí que se podrá explicar. Tanto a nivel general como en casos concretos”, augura este experto.

La Inteligencia Artificial también ayudará a sugerir tratamientos. Según este experto, en 10 años lo veremos muy desplegado y esto ayudará a la eficacia del médico. “Será una herramienta, no sustituye a este profesional”, subraya.

Eso sí, según Torrubia, no deberíamos dejar a la IA dejar actuar en muchas facetas sin supervisión humana “porque la tecnología tiene limitaciones”.

Nuria Oliver, en este punto, considera que, como en el tema de la conducción, serán otros factores los que determinen si realmente llegaremos a usar tanto la IA en el campo de la salud. “Generemos muchos datos de nuestra salud, y cada vez más. Todas las pruebas médicas son digitales, secuenciamiento de ADN, informes médicos y radiografías. Es una gran fuente de datos no estructurados que son los que la IA puede interpretar y encontrar patrones. En radiología está ya en los primeros resultados. Los algoritmos ya pueden detectar tumores de diferentes tipos con una precisión superior a la de un radiólogo», expone.

Sin embargo, eso no quiere decir que toda la medicina del futuro se base en lo que diga la Inteligencia Artificial. «No es algo sencillo porque una única prueba médica no tiene la respuesta y tener un diagnóstico sino que se necesitan varias pruebas, pero los algoritmos nos ayudarán a avanzar en este campo”.

Lenguaje, escritura y otras comunicaciones

La IA se desarrollará tanto en los próximos años que seguramente nos cueste distinguir cuándo nos estamos comunicando con un humano y cuándo con una máquina.

Oliver asegura que una de las grandes promesas que se ve son las capacidades de interactuar con naturalidad a la tecnología. Es decir, hablarle a la tecnología y que nos entienda. “Ahora lo empezamos a poder hacer con asistentes y teléfonos. Cada vez irá mejorando más, porque hay muchas cosas que no entienden. El progreso en procesamiento del lenguaje natural será grande”, asegura esta experta.

Para eso, Andrés Torrubia explica que la tasa de acierto debe ser superior al 98%. “Un 90% supone que en una de cada 10 palabras falla. Y a la mínima los asistentes no nos entienden. Pero en 10 años no, la interacción va a ser mucho más natural”, avanza este experto. Tanto que, en lugar de tener que adaptarnos nosotros a ellos serán ellos los que estén adaptados a nosotros.

Así que, como dice Richards, Google Duplex estará mucho más extendido sobre más dominios y podrán tener un lenguaje natural, tener una conversación con una máquina.

Pero esta interpretación del lenguaje natural no será solo oral, sino también escrito. Según Torrubia, las máquinas del futuro serán capaces de escribir y hacerlo bastante bien. “Ya escriben un comentario de texto, pero me atrevería a decir, siendo muy aventurado, que escribirán historias coherentes y largas”, asegura.

La personalización de la educación

Para Nuria Oliver otra área en la que la IA avanzará mucho en los próximos 10 años es todo lo que tiene que ver con educación. “En China ya están realizando experimentos, utilizando IA para tener educación personalizada y adaptar los curriculus a cada niño”, explica.

Aunque habrá que ver los resultados que estos experimentos ofrecen, Oliver no duda de que es un área de oportunidad. “Nos permite personalizar la educación y eso ahora mismo no es viable. Sabemos que los niños aprenden con diferentes estilos, ritmos y técnicas y hay un profesor cada 30 alumnos. Es muy difícil ofrecer esa personalización. Pero con IA sí se puede, además para la para detección temprana para dificultades como dislexia o discapacidad para que desaparezca este concepto porque se compense con la IA”.

¿Sesgos? ¿Qué sesgos?

Tanto Torrubia como Richards explican que los sistemas de Inteligencia Artificial se basan en correlaciones, en búsqueda de patrones. Y ésa es, precisamente, una de las grandes diferencias con la Inteligencia Humana y lo que acaba provocando algunos problemas, como los conocidos sesgos. “Las personas diferenciamos correlaciones de causa-efecto, pero las máquinas no”, ahonda Torrubia. Por eso los sistemas fallan y tienen sesgos y están mal configurados y refuerzan sesgos negativos. «Es lo que han visto y no entienden las relaciones causa efecto a día de hoy”.

Por eso, un área activa de investigación en los avances de IA en datos son las abordar las limitaciones de los sistemas existentes, como la discriminación y sesgos. “La aspiración es que al usar datos estos algoritmos no sufran los sesgos que tenemos los humanos”, detalla Oliver. “Nos damos cuenta de que los datos no son un reflejo objetivo de la realidad, sino que están sesgados. Y si le enseñas a un algoritmo esos sesgos, los puede maximizar”, avisa.

Pero, la buena noticia es que, según Benjamins, el tema de la discriminación y sesgos de datos estará resuelto en 10 años. Habrá muchas herramientas que podrán detectar los sesgos. “Será como una ingeniería y se podrán identificar muy bien y eliminar”, avanza. En su opinión, actualmente el problema a veces es que puedes tener un conjunto de datos en los que no esté establecido la raza, pero sí que tenga esos sesgos. “Quizá en 10 años este tema también esté resuelto”.

Dame datos y te daré personalización

Nuria Oliver incide en este punto que toda la IA se basa en datos. Los modelos más prometedores y los comerciales de más éxito son redes neuronales entrenadas con cantidades ingentes de datos. Para aplicar estas técnicas de IA en nuevas áreas como medicina y educación o justicia, lo primero es tener datos. Los algoritmos aprenden a partir de datos que se suponen que refleja de manera objetiva lo que quieres modelar.

“A partir de esos datos, si son suficientes para cada persona, puedes construir un modelo especifico a cada persona. Y adaptarte a esa persona. Ya hay modelos de personalización en los sistemas de recomendación en base a tus propios datos y comportamiento. Es un área inmensa la personalización y forma parte de la estrategia core de la mayoría de las empresas tecnológicas, sobre todo si tienen servicios que interaccionan con las personas. La clave es como aplicarlas en sectores no puramente digitales”, detalla esta experta.

Pero no son los únicos campos donde la aplicación de la IA es un reto. Para Andrés Torrubia también la implementación en robots, que hasta ahora no se ha beneficiado mucho de la IA, será un campo de desarrollo. “Hay muchas tareas del día a día aunque sean menos noticiable”. Un buen ejemplo es Amazon Go, que te reconoce cuando entras y coges el producto. Aunque de momento es un prototipo, Torrubia asegura que el llegar a que la IA pueda saber cuánto cobrarte por el peso de un producto concreto es un desafío brutal, sobre todo para implementarlo a escala. “Pero lo conseguiremos. Como que Zara te permita probarte las cosas virtualmente en tu casa y que te sugiere la ropa en función de tus gustos y de lo que tienes”, avanza.

Además, este experto también confía en los resultados que pueden cosechar, de aquí a 10 años, algunos de los prototipos de investigación, como que escriba una novela entera tipo Harry Potter. O algoritmos que inventen una película entera. “Hay temas más distópicos como la generación de fake news que se podrá hacer a escala y eso existirá, tanto en texto como en vídeo”, aventura.

No es lo que haga, es lo que debería hacer

Según Pedro Larrañaga, todo esto se puede resumir en tres grandes puntos

  • Creará más trabajos de los que destruya.
  • Ayudará a los humanos en un buen número de trabajos.
  • Posibilitará un mundo más justo y con más posibilidades para la gente pobre que sea capaz de esforzarse en el estudio deje de serlo y mejore en sus condiciones de vida.

Y ese último melón es el que, precisamente, abren también algunos de estos expertos con los que hemos hablado. Nuria Oliver asegura que el desarrollo tecnológico es mucho más complejo que los algoritmos. “Debe estar contextualizada en una realidad y con impacto en la sociedad y en la vida de millones de personas. No se puede desarrollar de manera aislada. Hay un componente humano. No es solo capacidad técnica para ser más eficiente, sino también empatía, garantía de justicia”.

Es lo que ella denomina FATEN (Justicia, Autonomía, Confianza, Educación y No Maleficencia, por sus siglas en inglés). “Más allá de desarrollo de nuevos algoritmos debemos hacerlo en marco FATEN; si no, no será progreso. No toda innovación es progreso. Por eso debemos asegurarnos que no está discriminando, que no va a aumentar la diferencia entre ricos y pobres, o que solo funciona para una raza. Este marco debería ser donde hagamos el desarrollo”.

O, como dice el experto de Telefónica, debe haber una concienciación no solo de las oportunidades, sino también de los desafíos, por lo que debería haber muchos debates y conversaciones a diferentes niveles. “La Comisión Europea sobre confianza de la IA, pero hay más temáticas, responsabilidad, también en el plano jurídico, del trabajo si las máquinas van a quitar y cómo se sostiene el estado de bienestar. Hay mucho debate. La toma de decisiones autónoma en la administración pública afecta a las personas. No estamos preparados para que pase a gran escala. Necesitamos coger más experiencia y regulación para poder evitar que pasen cosas que o queremos”.

Además, considera que hay que trabajar en evitar la concentración de datos en pocas compañías que tienen mucho dinero. “El riesgo es que la mejor tecnología esté en manos de muy pocos y tengan el poder”, advierte.

La IA no tiene superpoderes

Seguramente la IA tenga mucho potencial de desarrollo, pero hay cosas que no será capaz de hacer.

¿Cuáles? El catedrático de la Complutense asegura que la respuesta a esto se relaciona con la paradoja de Moravec , “es decir por qué la IA hace fácil lo difícil) (para un humano) y viceversa. Al parecer el esfuerzo necesario para copiar cada habilidad humana es proporcional a la antigüedad con que ésta apareció en nuestro árbol genealógico. El “amor”, la “creatividad”, la “empatía” probablemente sean aspectos del ser humano que le van a costar incorporar a un sistema de IA”.

Para Richard Benjamins, casi todo el éxito de la IA se basa en aprendizaje automático supervisado con redes Machine Learning. “Pero si ves como aprende un bebe, no sabe nada, observa, interactúa y recibe feedback y 18 meses más tarde ha construido su modelo del mundo en el que cada concepto que conoce se ancla en la realidad. Aprender así no se puede aún con la IA, pero se darán pasos para que se de. Si se consigue sería un gran hito, sería cambiar de aprender de manera supervisado con ML a no supervisado. Aún no sabemos cómo funciona”.

Además, tampoco tendrá sentido común, como los humanos. “Las máquinas no saben reaccionar”, asegura, aunque no descarta que se pueda llegar a producir.

Andrés Torrubia también asegura que la IA no va a ser como la humana. “No se va a volver contra nosotros. No tendrá autonomía”, asegura. “Atribuimos cualidades humanas a todo, incluso decimos que aprenden. Pero no lo hacen como una persona. Hacen ecuaciones y llegan a una conclusión pero eso no es aprender. Así que no tomarán el control”.

Y, sobre el peligro de que robe puestos de trabajo, este experto señala que solemos pensar demasiado en las amenazas de los robots. “Se cree que en el trabajo es más factible que tenga impacto en trabajos poco cualificados, pero no es cierto. Un fontanero no podrá ser un robot en 10 años”.

Por su parte, Nuria Oliver también subraya que los humanos somos mucho más que reconocimiento de patrones. “Tenemos muchos tipos de inteligencia: sentido común, capacidad de asociar, crear, conocimiento semántico del mundo del que carecen los algoritmos. Reconocen gatos, pero no sabe qué es un gato. Hay muchas áreas donde la inteligencia humana es muy compleja y multidimensional», como en el mencionado sentido común y la capacidad de razonamiento. Además, esta experta señala un punto débil de las máquinas: «tienen la fragilidad de que lo puedes hackear”.

Además, esta experta recuerda que el reconocimiento de patrones necesitan muchos más ejemplos que un humano para encontrar ese reconocimiento. “No aprenden incrementalmente y constantemente y sin olvidar lo que ha aprendido. Son sistemas supervisados. Los humanos somos más eficientes y hay muchas habilidades de un niño de 2 años que son muy complicadas para la IA”.

El riesgo de morir de éxito

Por último, Andrés Torrubia cree que a la IA le vamos a poner freno como sociedad. “Desgraciadamente hay tanto hype, tanta expectación, que muchas empresas sacan cosas mal hechas” con el consiguiente riesgo que ello conlleva. Y pone un paralelismo con la web de Renfe “famosa por lo mal que funciona”. El problema, en su opinión, es si trasladamos esa isma sensación a los primeros sistemas de reconocimiento facial que falle, por ejemplo.

“Es un tema social. Puede ser disruptivo a nivel económico y socialmente se frene o por malas implementaciones. Es un problema que hay que tratar de manera sensata. No tiene que estar mal ejecutado. Así que crucemos dedos para que no haya una web de Renfe en la implementación de la IA”.

Fuente: Xataka

Dos prototipos de la UBU utilizan la inteligencia artificial para detectar y tratar enfermedades

Adrián Araniz ha desarrollado uno de los prototipos premiados por la UBU

La Universidad de Burgos ha desarrollado dos prototipos que utilizan la inteligencia artificial para la detección, diagnóstico y tratamiento de enfermedades. Uno de ellos, denominado Parkinson Disease Detection de Adrián Arnaiz, dirigido por los doctores César Ignacio García-Osorio y José Francisco Díez Pastor, consiste en el Uso de biomarcadores extraídos de la voz para la detección de depresión y enfermedades neurodegenerativas, y el segundo tiene como objeto la realización de una aplicación de soporte a la comunicación con pacientes con parálisis cerebral. Ambos han sido los dos proyectos ganadores en la convocatoria ‘Prototipos’ que se entregarán este viernes y que están centrados en la aplicación de la inteligencia artificial a la salud.

El primero de los prototipos que tiene como objetivo la detección de depresión y enfermedades neurodegenerativas surge por la necesidad de paliar todas las dificultades derivadas de la diagnosis y monitorización de este deterioro cognitivo en la situación de la sanidad y estructura poblacional actual. La alta carga de consultas a los facultativos médicos, unido al envejecimiento de la población hará que en los próximos 15 años se dupliquen el número los pacientes de Parkinson, pasando de los 150000 actuales a 300000, según la Sociedad Nuclear Española.

Por ello se ha desarrollado una aplicación capaz de detectar la enfermedad del Parkinson a través de biomarcadores extraídos de la voz utilizando técnicas de minería de datos. Esta solución aportará una manera ágil y económica de predecir y monitorizar esta enfermedadreduciendo los costes y tiempos para la sanidad y ayudando a una detección temprana, además de ventajas adicionales como, por ejemplo, que se consigue un diagnóstico no invasivo del paciente (actualmente escáneres cerebrales o múltiples entrevistas).

Esta solución desarrollada por la Universidad de Burgos utiliza técnicas de Inteligencia Artificial y Minería de datos, con el objetivo de crear un modelo de aprendizaje automático lo más preciso posible en la detección de la enfermedad. En siguientes pasos, se desarrollará la funcionalidad de predecir en nivel de Parkinson en la escala unificada de Parkinson, UPDRS, con el fin de poder optimizar labores de monitorización de la enfermedad en pacientes ya diagnosticados.

Comunicación de pacientes con parálisis cerebral

En cuanto al segundo de los prototipos, se trata de una Aplicación de soporte a la comunicación con pacientes con parálisis cerebral, denominada AVC o Asistente Virtual para la Comunicación es un proyecto desarrollado entre la asociación de parálisis cerebral, APACE, y la Universidad de Burgos, en el que se ha desarrollado una herramienta para poder interpretar los sonidos de las personas gravemente afectadas, entendiendo así sus respuestas y emociones. El proyecto cuenta con 2 aplicaciones Android, una primera que permite recoger información sobre los pacientes sobre los que se va a hacer el estudio, esta información consta de un audio de la grabación del sonido emitido por el paciente y de unas opciones correspondientes a su estado actual (con información de la gente que lo rodea, de cómo ha comido, de su postura, enfermedades…). Sobre esta información se realizó una investigación para obtener un algoritmo capaz de entender estos sonidos. Por último, se desarrolló otra aplicación Android que realiza la funcionalidad objetivo, mostrar el significado de los sonidos que producen los pacientes.

Leer la noticia completa aquí

Fuente: Burgos Conecta

Premian a tres especialistas de la Universitat por su investigación y divulgación de la Inteligencia Artificial

El proyecto DataBeers València+Barcelona, dirigido a difundir los avances en el tratamiento inteligente de datos y del que forma parte personal investigador de la Universitat de València (UV), ha sido premiado por la Associació Catalana d’Intel·ligència Artificial (ACIA) con motivo de su labor divulgativa. Además, Francisco Grimaldo, profesor del Departamento de Informática de la institución valenciana y miembro del nodo DataBeers València, ha recibido un premio por su trabajo de investigación presentado al Congreso Internacional de la entidad.

El primer Premio ACIA al mejor trabajo de divulgación de la investigación en Inteligencia Artificial 2019 se ha concedido a un equipo del que, por la UV, forman parte Francisco Grimaldo; Emilia López-Iñesta, profesora del Departamento de Didáctica de la Matemática; y Daniel García-Costa, estudiante de doctorado en Inteligencia Artificial en la Escuela Técnica Superior de Ingeniería (ETSE-UV).

DataBeers València+Barcelona es una iniciativa de divulgación que explica las ventajas de la Inteligencia Artificial y la Ciencia de Datos de una forma distendida. Tiene un alcance mundial y se organiza en más de 20 ciudades de 12 países. Los encuentros de València y de Barcelona se celebran desde hace cuatro años, y tienen lugar aproximadamente cada 3 meses. En el caso valenciano la entidad acogedora es el Octubre Centre de Cultura Contemporània, y hasta finales de septiembre de este año ha habido 56 charlas en 14 de estos actos. La 15ª edición tendrá lugar el próximo jueves 28 de noviembre y las entradas gratuitas están disponibles en el enlace http://go.uv.es/cienciadatos/databeersvlc15.

Además, Francisco Grimaldo, también subdirector de la ETSE-UV, ha recibido el premio a la mejor comunicación del Congreso Internacional de ACIA por el trabajo Micro-Foundations of Macroeconomic Dynamics: The Agent-Based BAM Model. Este ha sido desarrollado en colaboración con investigadores mexicanos de la Universidad Veracruzana, con los cuales la ETSE-UV tiene un convenio específico de colaboración en el ámbito de la IA y con investigadores del CNR italiano, en el que Grimaldo es investigador asociado.

La investigación, la presentación de la cual se ha premiado por ACIA, propone implementar un modelo basado en agentes, para el estudio de dinámicas macroeconómicas a partir de las micro interacciones que se producen entre los individuos que forman parte de los mercados de trabajo, crédito y consumo de bienes.

Francisco Grimaldo, Emilia López Iñesta y Daniel García-Costa investigan en el ámbito de la inteligencia artificial aplicada, el análisis y la visualización de datos y son integrantes del grupo de investigación Intelligent Data Analysis Laboratory (http://idal.uv.es) de la UV.

DataBeers VLC

DatabeersVLC es el encuentro de referencia en València para conocer los beneficios y avances de la inteligencia artificial y de la ciencia de datos de una manera relajada y divertida. El objetivo de esta organización sin ánimo de lucro es unir a la comunidad interesada en cualquier aspecto que tenga que ver con los datos, desde un punto de vista totalmente multidisciplinario.

En las jornadas DatabeersVLC, 4 o 5 ponentes imparten una charla corta, reservando tiempo antes y después de estas intervenciones para debatir entre las personas asistentes y ponentes. Desde 2016, la actividad ha contado con más de 1700 inscripciones y como resultado de la puesta en marcha de políticas activas para visibilizar los referentes femeninos en este sector, ha conseguido una composición equilibrada de mujeres y hombres ponentes.

DatabeersVLC cuenta con el apoyo de la ETSE-UV, de la Facultad de Matemáticas, de la Unidad de Cultura Científica y de la Innovación de la UV, del Institut d’Estudis Catalans, de Acció Cultural del País Valencià y de l’Octubre Centre de Cultura Contemporànea.

Article:

Platas-López, A., Guerra-Hernández, A., Cecconi, F., Paolucci, M., & Grimaldo, F.  «Micro-foundations of macroeconomic dynamics: the agent-based BAM model». Artificial Intelligence Research and Developmenthttp://doi.org/10.3233/FAIA190141

Fuente: Universitat de València

Participa en la encuesta para la estrategia europea de inteligencia artificial

La Comisión Europea está trabajando en la elaboración de la Estrategia Europea de Inteligencia Artificial. Con este fin en la pasada asamblea de la AI Alliance se abrió una encuesta para recabar la opinión europea tanto del sector específico de empresas y profesionales

que están trabajando en inteligencia artificial, como de organizaciones y personas en general en la unión europea. En principio la encuesta estará abierta hasta el 1 de diciembre de 2019.

Desde la organización colegial de ingeniería informática, como miembros de la AI Alliance estamos contribuyendo a la máxima difusión y participación en esta iniciativa. Y en particular animamos a una participación española lo más intensa posible.

El objetivo de la encuesta es recabar la opinión respecto del documento de Recomendaciones sobre políticas e inversiones para una Inteligencia Artificial confiable, también presentado en la mencionada asamblea de la AI Alliance. Se trata de un borrador de 33 recomendaciones que pueden servir de guía para una inteligencia artificial confiable, que contribuya a la sostenibilidad, crecimiento, competitividad, así como la inclusión y los beneficios, protección y valorización de las personas.

La encuesta busca retornos de utilidad, relevancia, coherencia, factibilidad, gobernanza, y en general mejoras a las recomendaciones planteadas. Esta recolección y selección de opiniones y sensibilidades será una aportación fundamental para la elaboración y definición de la Estrategia Europea de Inteligencia Artificial, que se estima pueda estar disponible a final de 2019, y que integrará los elementos esenciales de una hoja de ruta de acciones, inversiones, así como un futuro marco regulatorio adecuado y confiable. Un escenario legal que permita a la UE potenciar la competitividad aprovechando la inteligencia artificial, pero que a la vez garantice los derechos de los ciudadanos.

Con este fin se ofrecen dos cuestionarios orientados a dos categorías diferentes de participantes, que se presentan a continuación con los correspondientes enlaces para participar:

Como se manifestó en una de las ideas fuerza más relevantes de la primera asamblea de la AI Alliance: La no regulación no es una opción. ¡Participa!

Fte.: CCII

Eneko Agirre profesor de la UPV-EHU obtiene un premio de investigación de Google

San Sebastián, 7 may (EFE).- El profesor de la Facultad de Informática de la Universidad del País Vasco (UPV-EHU) Eneko Agirre ha obtenido uno de los premios de investigación de Google por el que recibirá una ayuda económica de 80.000 dólares para desarrollar su proyecto sobre inteligencia artificial.

Agirre, profesor del departamento de Lenguajes y Sistemas Informáticos, ha recibido este galardón por su investigación «Accessing FAQ and CQA sites via dialogue«, centrada en el desarrollo de sistemas de diálogo para poder conversar con las máquinas sobre la información disponible en internet, ha informado la UPV-EHU en un comunicado.

Eneko Agirre ha explicado que actualmente los usuarios acceden a la información de internet mediante buscadores como Google o Bing, que «devuelven los documentos relevantes» de la búsqueda.

Sin embargo, esta realidad está cambiando gracias al desarrollo de asistentes virtuales que entienden la voz como Siri, Alexa o Google Assistant, ha precisado.

«Estos asistentes se están popularizando rápidamente» a través de móviles y altavoces inteligentes y «están revolucionando nuestra forma de comunicarnos con las máquinas», afirma el docente.

No obstante, señala que actualmente existe un número limitado de aplicaciones a las que se puede acceder mediante diálogo debido, entre otras razones, a que «las máquinas no entienden la complejidad del lenguaje y se pierden fácilmente» en la ambigüedad del mismo.

El proyecto premiado busca poder acceder mediante estos asistentes virtuales a la gran cantidad de información que existe en internet gracias a técnicas de inteligencia artificial.

«El reto consiste en ser capaces de transmitir esa información mediante un diálogo lo más natural posible con la persona», ha explicado Agirre.

El grupo de investigación que lidera Agirre recogerá para ello «grandes cantidades de diálogos entre dos personas, en los que una de ellas formula preguntas y la otra las responde sobre la base de la información que reside en un documento concreto».

Estos diálogos servirán para entrenar los modelos automáticos, de forma que éstos puedan servir para responder sobre cualquier otro tema con naturalidad, ha precisado la misma fuente.

Fte: Diariovasco

Científicos españoles crean modelos predictivos de enfermedades con big data e IA

El objetivo de este equipo es afinar las predicciones sobre el diagnóstico a partir de las imágenes médicas

Fuente: Innovadores La Razón

Un equipo de investigadores valencianos trabaja en el desarrollo de un sistema que aprovecha las capacidades de clasificación de información que ofrecen los procesos de computación de big data e inteligencia artificial (IA) y, en concreto, el aprendizaje profundo. En el proyecto DeepHealth se pretenden crear modelos predictivos a partir de una gran base de datos con imágenes anonimizadas.

La idea fundamental del proyecto es disponer de algoritmos basados en deep learning que analicen imágenes y proporcionen información estructurada útil para el diagnóstico. Para ello, explican fuentes de la Universidad Politécnica de Valencia, es necesario «generar modelos predictivos que, nutriéndose de una gran cantidad de imágenes, proporcionen como salida la probabilidad de que una nueva imagen refleje o no una determinada enfermedad».

Así, este equipo ha recibido 12,7 millones de euros de la Unión Europea para el desarrollo de un software que permita el análisis y almacenamiento de gran cantidad de datos, principalmente imágenes médicas, como herramienta de apoyo a los facultativos en el proceso de toma de decisiones sobre el diagnóstico.

Un componente esencial del proyecto es la creación de una gran base de datos con imágenes médicas anonimizadas que puedan utilizarse para entrenar y validar los modelos matemáticos predictivos. En este sentido, María de la Iglesia-Vayá, responsable del proyecto en la Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat Valenciana, afirma: «Crearemos una base de datos que contendrá miles de imágenes anotadas, es decir, descritas y adecuadamente clasificadas. Las anotaciones incluirán cientos de parámetros como, por ejemplo, el volumen exacto de decenas de regiones del cerebro y otras partes del cuerpo».

El gran valor de este proyecto, añade la investigadora de la FISABIO, es que «persigue, a partir de reunir y analizar conjuntamente muchos de esos parámetros de imagen en miles de casos diferentes, afinar las predicciones sobre el diagnóstico a partir de las imágenes médicas y, de ese modo, reforzar la cantidad de información que se extrae de ellas y su valor clínico».

Jon Ander Gómez Adrián, investigador de la UPV y coordinador del proyecto, señala que el objetivo  «es aunar dos áreas de desarrollo informático que hasta ahora han estado separadas: la supercomputación, que ofrece unas extraordinarias capacidades de procesamiento, y el big data, que ofrece una gran capacidad analítica».

Para ello, Gómez apunta que el primer paso es «crear un entorno operativo, basado en dos nuevas bibliotecas informáticas, que permita la comunicación y el entendimiento entre los entornos informáticos de supercomputación y los de big data«.

«Una vez desarrollado el entorno operativo» completa Roberto Paredes Palacios, también de la UPV, «el siguiente paso será aplicarlo a una serie de casos clínicos para entrenar los modelos predictivos en diferentes áreas médicas, 14 en total, incluyendo migraña, demencia, depresión, etc.» Por último, los modelos entrenados serán evaluados para validar las predicciones con el fin de confirmar que estas son correctas.

Equipo científico: El proyecto es una colaboración multidisciplinar entre el grupo de investigación liderado por María de la Iglesia-Vayá en la Fundación para el Fomento de la Investigación Sanitaria y Biomédica de la Comunitat Valenciana (FISABIO) e ingenieros informáticos de la Universitat Politècnica de València (UPV) coordinados por Jon Ander Gómez Adrián. Junto a ellos, en una iniciativa coordinada por Everis, participan investigadores de otras 19 instituciones de nueve países europeos. Puesto en marcha durante el pasado mes de enero con una duración prevista de tres años.

Información en Innovadores

La Universitat Politècnica de València aprueba la creación del Instituto Valenciano de Investigación en Inteligencia Artificial

La Universitat Politècnica de València ha aprobado en Consejo de Gobierno la creación del Instituto Valenciano de Investigación en Inteligencia Artificial (IVIIA), una estructura de I+D+i que agrupará a 79 investigadores de la UPV y sumará, en global, más de 100 sexenios. El nuevo instituto tendrá como director al catedrático Vicent Botti, Premio Nacional de Informática en 2018.

El catedrático Vicent Botti, Premio Nacional de Informática en 2018, será el director técnico del Instituto Valenciano de Investigación en Inteligencia Artificial (IVIIA).

El IVIIA se propone como misión producir avances significativos en el campo de la inteligencia artificial. En concreto, pretende desarrollar nuevos métodos y técnicas de aprendizaje automático, aplicaciones innovadoras en el big data, procesamiento del lenguaje natural, visión artificial, robótica, cooperación hombre-máquina…

La creación de este instituto viene motivada por la necesidad de reunir en un solo centro de referencia a los diferentes grupos de investigación que operan en la UPV en este campo. Y es que se trata de equipos de investigadores referentes en IA a nivel nacional e internacional cuyos resultados vienen avalados por una amplia producción científica.

El nuevo IVIIA se ubicará provisionalmente en los espacios del Departamento de Sistemas Informáticos y Computación (DSIC), y según su responsable, permitirá acceder a proyectos de mayor envergadura. “Es objetivo prioritario la transferencia de tecnología y el trabajo directo con la industria”, según se indica en la memoria aprobada.

Entrevista sobre IA al ingeniero de software Miquel Montero, CTO de Atomian

Miquel Montero es ingeniero de software y experto en Inteligencia Artificial (IA). Hace unos años fundó Atomian, una compañía barcelonesa con vocación internacional especializada en computación cognitiva. Para Montero, la IA nos lleva hacia un mundo mejor, aunque reconoce que también plantea retos: puede que llegue el momento en que los sistemas económicos basados en la distribución de riqueza mediante las rentas del trabajo dejen de tener sentido. “Si yo fuera economista, estaría pensando en qué viene después del actual paradigma económico”, apunta Montero.

Artículo de Javier García, en Interempresas

Existen diferentes interpretaciones de lo que es la Inteligencia Artificial. ¿Qué es para usted la IA?

En un sentido muy amplio, hoy cualquier forma de innovación algorítmica cae en el campo de la Inteligencia Artificial, así que esa me parece una buena definición: la Inteligencia Artificial es el campo que estudia las nuevas formas algorítmicas que permiten a las computadoras hacer cosas que hasta el momento no podían hacer. Desde hace un tiempo se habla mucho de la Inteligencia Artificial con aplicaciones en la vida cotidiana, la empresa, la administración, la industria e, incluso, otros campos como la medicina.

¿Existe de verdad la IA más allá de Siri o Sophia?¿Puede la máquina sacar conclusiones cualitativas, abstractas, más allá del mero dato y la interpretación algorítmica?

Sí, y existen multitud de ejemplos al respecto. Sin ir más lejos, cuando un comercio electrónico va adaptando sus ofertas a nuestros gustos lo hace en base a conclusiones que saca de nuestros patrones de compra. En cada caso se construye un modelo simbólico que permite diseñar unos algoritmos de razonamiento. Atomian ha ido más allá y ha construido un motor de conocimiento simbólico universal, de forma que ya no hace falta crear modelos específicos para cada caso: la computadora razona siempre en base a este modelo.

La ironía, un chiste, slang, comunicación no verbal… ¿Dónde tiene el techo la IA hoy?

No hay techo, siempre y cuando se encuentren los modelos de conocimiento adecuados.

¿Qué es la computación cognitiva (CC)?

Es una rama de estudio de la Inteligencia Artificial. De todas las definiciones que he leído, me quedo con la de un divulgador llamado Joel Hans: mientras la IA hace que las computadoras hagan cosas inteligentes, la CC hace que solventen problemas con pensamiento de tipo humano.

Usted es ingeniero de software. ¿Cómo se desarrolla desde un punto de vista técnico la computación cognitiva? ¿Cómo se trabaja la información para que un ordenador pueda “pensar”?

Es una pregunta complicada de responder. Dada la ausencia de estándares o de algoritmos comúnmente aceptados, en el caso de Atomian diseñamos una arquitectura cognitiva desde cero, con diversas influencias de trabajos anteriores, e hicimos una implementación prácticamente sin dependencias externas, es decir, escribiendo nosotros todo el código.

Dice que sus plataformas entienden el lenguaje natural…

Sí, aunque entender es un concepto muy profundo. ¿Cuándo podemos estar seguros de que entendemos el lenguaje? Me refiero a comunicaciones entre personas. Seguramente, nos basta con que la respuesta sea coherente, ¿no? Pero eso también abre un debate acerca del significado de respuesta coherente. En Atomian consideramos que entendemos una frase cuando somos capaces de traducirla a un conjunto de símbolos dentro de nuestra arquitectura cognitiva. De esta forma, todo el razonamiento es simbólico desde el inicio del proceso y solo al final convertimos los símbolos que constituyen una respuesta en un texto legible. Atomian es capaz de entender inglés, español y catalán. 

¿Qué diferencia sus herramientas de computación cognitiva de un software de gestión tradicional?

 Todos nuestros productos pivotan alrededor de tres grandes aplicaciones. La primera, el poder preguntar a los datos con tus propias palabras. Las organizaciones están consumiendo una gran cantidad de recursos construyendo sistemas de consulta, que nunca llegan a satisfacer a sus usuarios finales. Además, las colas de espera que se producen en la generación de informes imposibilita la toma de decisiones basada en datos. 

La segunda tiene relación con la primera. El poder analizar esos datos para extraer tendencias, patrones y correlaciones hace que Atomian no se limite a responder por los datos, sino que sea capaz de extraer valioso conocimiento alrededor de ellos.

La tercera tiene que ver con la automatización de procesos, que incluyen la lectura de un documento. Hoy una computadora puede encargarse de procesos complejos, pero en el momento de leer un documento para extraer unos datos y rellenar con ellos un formulario, por ejemplo, se limitan a esperar que lo hagan personas. Atomian puede realizar todas esas tareas de lectura y extracción.

Dicen que el siguiente paso será el predictivo. ¿Cuán lejos están de ello?

Si tienes un motor de conocimiento universal, tiene sentido que intentes construir un motor analítico universal, que no necesita la creación de un modelo específico para cada dominio de conocimiento. Ese es un trabajo ya en curso; nuestros ingenieros ya están consiguiendo resultados.

¿Qué aplicaciones podrían tener sus desarrollos en la industria?

El sector empieza a estar familiarizado con conceptos como Inteligencia Artificial, Big Data, Industria 4.0, y el mercado cuenta hoy con muchas soluciones y herramientas para automatizar los procesos, reducir costes y ahorrar tiempo y energía. ¿Qué puede aportar Atomian en este contexto? En el ámbito del business intelligence, las industrias tienen cada vez más datos provenientes de sus sensores, máquinas, robots, etc. Son datos muy diversos (en teoría de la información se llamarían entrópicos), y probablemente en la capacidad de las empresas de extraer conocimiento sobre todos esos datos estén buena parte de las claves de los procesos de mejora continua. Yendo un poco más allá, diría que una empresa que no analice exhaustivamente sus datos no será sostenible en el futuro cercano.

¿Podrán las máquinas aprender de las máquinas, interactuar entre ellas y sacar conclusiones para “mejorarse”?

¡Eso ya está pasando ahora! Aún no hemos llegado, eso sí, al punto de singularidad en el que una máquina sea capaz de programar una máquina más rápido que las personas. 

Desde hace mucho, la máquina (por resumir en una palabra la tecnología actual en su conjunto) es capaz de llevar a cabo mejor que las personas las tareas más tediosas y repetitivas. Ahora también puede dirigir, pensar, interpretar y aportar valor añadido. Sin embargo, la corriente hoy sitúa al hombre en el centro de los procesos de producción.

¿Cómo explicaría esta tendencia? ¿Cuál es el valor añadido del hombre si la “máquina” puede dar con la mejor opción de forma objetiva y sin condicionantes emocionales?

Las personas seguiremos siendo personas. En nuestro viaje de la vida es muy probable que siempre prefiramos seguir tratando con personas en lugar de máquinas, aunque quién sabe…

¿Hacia dónde se dirige la IA?

Hacia un mundo mejor, forzosamente. También planteará retos que empiezan a verse en el horizonte.

¿Llegará un momento en que los sistemas económicos basados en la distribución de riqueza mediante las rentas del trabajo dejen de tener sentido?

Si yo fuera economista, estaría pensando en qué viene después del actual paradigma económico. Todavía no hemos digerido la Industria 4.0 ni sacado de ella todo el partido, y ya se habla de la Industria 5.0. ¿Cuán cerca estamos de ella? No me gusta hablar de versiones de la industria. Ya ni siquiera el software se mide por versiones tipo número punto cero. Nos encontramos en la era de la mejora continua, del cambio permanente, de la evolución constante.

¿La Inteligencia Artificial “nos hará más tontos”? ¿Involucionaremos?

Eso no ha sucedido nunca en la historia de la tecnología, no creo que ahora tenga que suceder. ¿Olvidaremos algunas tareas manuales? Seguramente, pero a cambio nos especializaremos en tareas más intelectuales, y, en mi opinión, por eso mismo, más interesantes y gratificantes. 

Entrevista completa en: https://www.interempresas.net/Robotica/Articulos/239498-Entrevista-a-Miquel-Montero-CTO-de-Atomian.html