Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados IA

La Universidad de Sevilla lidera un proyecto sobre el uso de inteligencia artificial para la fatiga de la esclerosis múltiple

Investigadores de la ETS de Ingeniería Informática de la Universidad de Sevilla lideran el proyecto MSF-PHIA, que emplea tecnologías móviles e inteligencia artificial para identificar y analizar los factores claves en la auto-gestión de la fatiga en esclerosis múltiple (EM). Para ello, emplea metodologías participativas siguiendo una aproximación centrada en el paciente.

El proyecto MSF-PHIA desarrollará modelos basados en inteligencia artificial interpretativa y explicable para identificar tipologías de personas con EM en base a su fatiga, determinar la relevancia de los factores identificados en el nivel de fatiga percibido y estimar los niveles individualizados de fatiga en EM. En este sentido, los resultados de MSF-PHIA tendrán un alto impacto científico y social ya que se generará nuevo conocimiento y modelos valiosos para la personalización de intervenciones de gestión de la EM.

Este proyecto del grupo “Participatory Health Informatics and Personalization” (PHIPE) de la ETSI, con título “Understanding Daily Multiple Sclerosis related Fatigue: a Participatory Health Informatics Approach (MSF-PHIA)”, está financiado dentro del Programa Operativo FEDER Andalucía.

La EM es una enfermedad crónica y progresiva del sistema nervioso central que conduce a la desmielinización, pérdida axonal y degeneración neuronal progresiva. Las personas con EM sufren una gran variedad de síntomas como fatiga, sensación alterada, problemas cognitivos y de salud mental e incluso problemas de movilidad física. EM es la causa principal de discapacidad neurológica no traumática en jóvenes adultos.

El comienzo de la EM se da comúnmente en edades comprendidas entre 20 y 40 años, por lo que afectan en los momentos más productivos de las personas e impactan negativamente en sus vidas profesionales, sociales y familiares.

El curso de la EM es altamente variable e impredecible. Su progreso está asociado con la acumulación de discapacidades. Entre la diversidad de síntomas asociados con a la EM, la fatiga es uno de los más incapacitantes, que afecta hasta el 80% de los pacientes. La patología de la fatiga en EM es pobremente comprendida. Ambas, causas y consecuencias de la fatiga en EM, son consideradas multidimensionales y se requiere una estrategia multidisciplinar para abordarlas con éxito. Además de este enfoque multidisciplinar, la gestión de la fatiga en EM requiere intervenciones personalizadas que consideren la multitud de factores potencialmente relevantes y que se adapten a las condiciones específicas del paciente y sus variaciones debidas a la diversidad de síntomas que pueden afectarle.

El proyecto MSF-PHIA está siendo desarrollado por un equipo de investigación multidisciplinar en el que participan investigadores de la Universidad de Sevilla, de la Fundación para el Desarrollo de la Investigación y Asistencia de las Enfermedades Neurológicas y Afines Crónicas Discapacitantes (DINAC), y de la Unidad de Esclerosis Múltiple del Hospital Vithas Nisa Sevilla.

Por parte de la Universidad de Sevilla, el equipo está liderado por el catedrático José Luis Sevillano, actual director de la ETSII y responsable del grupo PHIPE, que cuenta con una amplia experiencia en el ámbito de la salud digital. El equipo médico está liderado por el Dr. Guillermo Izquierdo, director de la Unidad de Esclerosis Múltiple del Hospital Vithas Nisa. El Dr. Izquierdo es un prestigioso neurólogo, referente internacional, con una dilatada experiencia en el cuidado, tratamiento e investigación de la EM. MSF-PHIA cuenta con el apoyo de la Asociación Sevillana de Esclerosis Múltiple (ASEM) y de la Federación Andaluza de Esclerosis Múltiple (FEDEMA).

Como antecedente a MSF-PHIA, el grupo PHIPE participó en el proyecto europeo CHESS, en el que se realizó investigación en salud digital en EM obteniendo diversos resultados científicos. Actualmente, el grupo PHIPE pertenece a un consorcio internacional de universidades, centros de investigación, instituciones sanitarias y empresas interesados en la investigación, desarrollo e innovación en salud digital en EM.

Como muestra de esta colaboración cabe mencionar la iniciativa More Stamina, financiada por Business Finland, enfocada en los desafíos que enfrentan las soluciones destinadas a condiciones crónicas, explorando su valor potencial tanto para pacientes como para proveedores de servicios de salud. More Stamina busca crear un marco viable para la comercialización de soluciones de salud digital, ya sea como servicios directos para pacientes, trabajando junto a compañías farmacéuticas o con una mezcla de modelos de negocio. La iniciativa More Stamina está liderada por el Dr. Guido Giunti, profesor de la Facultad de Medicina de la Universidad de Oulu, y por la Dra. Minna Isomursu de la Facultad de Información, Tecnología e Ingeniería Eléctrica de la misma Universidad y en ella colaboran varias instituciones internacionales: Hospital Universitario de Oulu, Hospital Italiano de Buenos Aires (Argentina), Universidad de Sevilla (España), Fundación DINAC (España), Hospital Nithas Visa (España), y Kliniken Valens (Suiza).

Fuente: Universidad de Sevilla

Jornada ‘Inteligencia Artificial. Retos y oportunidades en el mundo post Covid-19’ en Distrito Digital Comunitat Valenciana

Traer, retener y crear talento tecnológico y encaminado a la IA. Formar en todos los ámbitos e la sociedad y apostar por más inversión en lo digital. Son algunas de las claves que se pusieron sobre la mesa en la jornada ‘Inteligencia Artificial. Retos y oportunidades en el mundo post Covid-19’ en Distrito Digital Comunitat Valenciana. Un evento que acogió un debate entre ocho grandes expertos en inteligencia artificial (IA) que aportaron su visión sobre los retos que superar y las claves que podrán convertir a la provincia alicantina y la Comunitat Valenciana en referente de la IA, tanto en el tejido social, empresarial o tecnológico. 

El evento ha sido organizado en colaboración con el escritor, consultor y experto en IA Lasse Rouhiainen, y el diario Alicante Plaza y ha tenido como invitados al propio Rouhiainen, cuyo libro recientemente publicado, Inteligencia Artificial para los negocios, en el que participan más de 30 expertos, ha sido el detonante de esta mesa de debate. También ha estado la ingeniera en Telecomunicaciones, doctora por el MIT, cofundadora de la red Ellis y comisionada de Presidencia de la Generalitat en Inteligencia Artificial y Ciencia de Datos en la lucha contra la covid-19, Nuria Oliver; así como Aurelia Bustos, oncóloga, ingeniera informática, doctora en Inteligencia Artificial y fundadora de la plataforma médico-tecnológica Medbravo; Andrés Pedreño, catedrático en Economía, co-fundador de la empresa It&Is, Torre Juana OST y 1MillionBot e impulsor de AlicanTEC; Andrés Torrubia, Ingeniero de Telecomunicaciones, emprendedor, empresario y experto en IA; Ezequiel Sánchez, coordinador de Distrito Digital CV y socio director de Binomio Ventures; David Ivorra, CEO de la consultora tecnológica Lynx View y Adrián  Ballester, portavoz del Gobierno de la Diputación de Alicante y diputado de Fondos europeos, Innovación y Agenda digital. Miquel González, director de Alicante Plaza, moderó el debate. 

Seguir leyendo: https://alicanteplaza.es/nuria-oliver-la-IA-aqui-depende-nosotros-aprovecharla-crear-hace-falta-ambicion

Fuente: Alicante Plaza

Docentes e investigadores de Ingeniería Informática, en el Consejo Asesor en Inteligencia Artificial del Gobierno

El Gobierno ha puesto en marcha el Consejo Asesor de Inteligencia Artificial, un órgano consultivo que proporcionará asesoramiento y recomendaciones independientes sobre las medidas a adoptar para garantizar un uso seguro y ético de la IA.

El órgano está compuesto por expertos españoles de máximo prestigio a nivel internacional en la materia, que contribuirán a la finalización y puesta en marcha de la Estrategia Nacional de Inteligencia Artificial.

Los miembros del Consejo Asesor analizarán las implicaciones que estas tecnologías disruptivas supondrán en ámbitos diversos, tales como el de la empresa, la administración y el futuro del trabajo, la protección de los derechos fundamentales, la gestión del dato, la lucha contra la discriminación o la eliminación de brechas sociales.

La primera reunión del Consejo Asesor se ha desarrollado de forma semipresencial en el Ministerio de Asuntos Económicos y Transformación Digital, ya que algunos de los expertos han participado de forma telemática desde otros países.

La vicepresidenta tercera y ministra de Asuntos Económicos y Transformación Digital, Nadia Calviño, presidirá el Consejo Asesor, y la secretaria de Estado de Digitalización e Inteligencia Artificial, Carme Artigas, ocupará la Vicepresidencia.

Composición del Consejo Asesor de IA

El Consejo Asesor está integrado por expertos españoles de diversos ámbitos sociales, económicos y científicos.

Lo integran:

  • Amparo Alonso, catedrática de Ciencias de la Computación e Inteligencia Artificial de la Universidad de La Coruña.
  • Juan Luis Arsuaga, doctor en Ciencias Biológicas y catedrático de Paleontología, siendo desde julio de 2013 director científico del Museo de la Evolución Humana de Burgos.
  • Ricardo Baeza-Yates, director de Data Science de Northeastern University en Sillicon Valley y fundador del Grupo de Ciencias de la Web y Computación Social de la Universitat Pompeu Fabra.
  • Manuel Cebrián, que lidera el grupo de investigación de Movilización Digital del Instituto Max Planck.
  • Asunción Gómez, catedrática de Ciencias de la Computación e Inteligencia Artificial, Vicerrectora de Investigación, Innovación y Doctorado en la Universidad Politécnica de Madrid.
  • Emilia Gómez, investigadora del Centro Común de Investigación de la Comisión Europea, donde participa como científica principal en el proyecto sobre Comportamiento Humano e Inteligencia Artificial en la Transformación Digital.
  • Francisco Herrera, catedrático de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Granada y director del Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional..
  • Lorena Jaume-Palasi, fundadora de Ethical Tech Society, AlgorithmWatch y IGF Academy, donde centra su trabajo en la filosofía del Derecho y la ética de la automatización y de la digitalización.
  • José Ignacio Latorre, Director de Investigación en el Technology Innovation Institute de Abu Dhabi y Director del Centro de Tecnologías Cuánticas de Singapur.
  • Pilar Manchón, doctora en Lingüística Computacional por la Universidad de Sevilla.
  • Inma Martínez, pionera tecnológica en I.A. y digitalización e involucrada en el sector de innovación desde hace más de dos décadas.
  • Joaquín Quiñonero, dirige la iniciativa de Inteligencia Artifical Responsable en Facebook. Doctor por la Universidad Técnica de Dinamarca, ha trabajado como investigador en el Instituto Max Planck de Cibernética Biológica y en Microsoft Research. Asimismo, es miembro del consejo de administración del Partnership on AI.
  • Luz Rello, doctora en Ciencias de la Computación, profesora en el IE Business School y fundadora de Change Dyslexia, que emplea Inteligencia Artificial para la dislexia.
  • Pablo Rodríguez, investigador en desarrollos tecnológicos a largo plazo sobre tecnologías disruptivas.
  • Antonio Torralba, profesor de Ingeniería Eléctrica y de Ciencias de la Computación en el Instituto Tecnológico de Massachusetts y director de la Facultad de Inteligencia Artificial y Toma de Decisiones.
  • Carmen Torras, profesora de investigación en el Instituto de Robótica (CSIC-UPC). Asimismo, es miembro de diversos comités de Tecnoética.
  • Rafael Yuste, neurobiólogo impulsor del proyecto BRAIN de Investigación del Cerebro a través del Avance de Neurotecnologías Innovadoras

La Universidad de Málaga, reconocida en un competición para generar herramientas de inteligencia artificial que ayuden en el pronóstico de casos de cáncer

El trabajo del investigador Guillermo López, del grupo ICB-UMA, ha sido distinguido con en el premio internacional ‘Cantemist-Coding’

El investigador del grupo de Inteligencia Computacional en Biomedicina de la E.T.S de Ingeniería Informática de la Universidad de Málaga (ICB-UMA) Guillermo López ha sido galardonado en la competición internacional CANTEMIST – Cancer Text Mining Shared Task-  que reconoce el desarrollo de herramientas de inteligencia artificial (IA) que ayuden a los médicos en el pronóstico de casos de cáncer.

Se trata de una competición internacional, organizada por el Barcelona Supercomputing Center -Centro Nacional de Supercomputación (BSC) en el marco del Plan de Impulso de las Tecnologías del Lenguaje (Plan TL), de la Secretaría de Estado de Digitalización e Inteligencia Artificial; que ha contado con la participación de más de 150 expertos en IA y procesamiento del lenguaje natural, de más de 60 grupos de I+D+i, de unos 15 países diferentes, para crear herramientas automáticas capaces de localizar y clasificar menciones a tumores cancerígenos en grandes volúmenes de textos clínicos escritos en castellano.

Este concurso forma parte de las tareas que se llevan a cabo en el terreno de la medicina personalizada para crear tecnologías que ayuden a los médicos a realizar pronósticos de casos de cáncer con mayor precisión y a seleccionar tratamientos.

En concreto, el trabajo del investigador de la UMA ha sido distinguido en la modalidad ‘Cantemist-Coding’, consistente en una tarea de codificación clínica oncológica en la que, a cada texto, se debía asignar de forma automática los códigos CIE-O, la Clasificación Internacional de Enfermedades Oncológicas, de la Organización Mundial de la Salud.

Este proyecto se ha realizado bajo la dirección de los profesores de la Escuela de Informática José Manuel Jerez y Francisco Veredas, en coordinación con los doctores Emilio Alba y Nuria Ribelles, de la UGC Oncología Intercentros de los hospitales Universitario Virgen de la Victoria y Regional Carlos Haya de Málaga.

oncoBERT

‘oncoBERT’, ha sido el sistema presentado por Guillermo López. Una adaptación del algoritmo de inteligencia artificial BERT, inicialmente desarrollado por Google, al dominio de los textos oncológicos en castellano, que ha obtenido el primer premio ‘Contemist-coding’ por ofrecer el mejor rendimiento de los todos los sistemas participantes.

“Hemos partido de un modelo BERT multilingüe inicialmente entrenado sobre un corpus de millones de textos de ámbito general en 104 idiomas diferentes. Posteriormente este modelo ha sido re-entrenado sobre un conjunto de 31.000 casos clínicos de oncología en castellano almacenados en Galén, que es un sistema de información oncológico desarrollado por nuestro grupo de investigación, en colaboración con la UGC”, explica el investigador.

Fuente: Comunicación UMA

 

Entrevista en El Periódico a la ingeniera Informática y doctora cum laude en Ciencia y Tecnología Informática Nerea Luis Mingueza

Nerea Luis Mingueza - Inteligencia Artificial

Nerea Luis Mingueza es ingeniera informática, doctora cum laude en Ciencia y Tecnología Informática y trabaja en Sngular. También es miembro de la Fundación COTEC para la Innovación y cofundadora de T3chFest, un evento nacional y gratuito sobre informática y nuevas tecnologías. Luis, galardonada por Google en 2016 con el premio Women Techmaker, ha colaborado en el reciente informe de Digital Future Society y titulado ‘Hacia la igualdad de género en el estado de bienestar digital’.

¿Cuál es el mayor reto al que se enfrenta la Inteligencia Artificial?

El mayor reto es la Inteligencia Artificial General, que significa que un agente (o robot si tiene cuerpo físico) es capaz de desenvolverse perfectamente en cualquier ambiente, contexto o situación. Y sería capaz de aprender cualquier tipo de habilidad y por supuesto de razonar, que es algo muy complejo. Aún falta para llegar a esto.

¿Estamos preparados como sociedad para utilizar y entender sus múltiples aplicaciones?

Hay sistemas basados en inteligencia artificial que ya utilizamos habitualmente, lo que pasa que a veces no somos conscientes. El teclado predictivo del teléfono, el sistema de recomendación de Amazon, las sugerencias de amistad o seguimiento de redes sociales… todo ello lleva por debajo inteligencia artificial. Hoy en día, aún se ha hecho poca divulgación sobre inteligencia artificial, pero sí que se ha hablado bastante de la misma en prensa.

Muchas de esas veces de forma negativa. Esto genera escepticismo, incertidumbre y temor ante el desconocimiento del propio campo. Las personas que nos dedicamos a trabajar en este tipo de algoritmos y que nos apasiona la comunicación deberíamos tender puentes y dar un paso adelante para que la gente entienda también el lado bueno. La inteligencia artificial bien aplicada (o aplicada para el bien, AI for good) puede potenciar muchísimo el crecimiento de prácticamente cualquier área de conocimiento.

¿Puede promover la igualdad de género?

La inteligencia artificial por sí sola no va a promover ningún tipo de valor. Los sistemas ‘inteligentes’ aprenden y replican a partir de lo que perciben o reciben como datos de entrada. Es nuestra labor preocuparnos de que esos datos sean lo más objetivos, diversos y representativos posible de una realidad justa, por ejemplo, que no sean ofensivos. Después habrá que analizar si el sistema inteligente de verdad está comportándose de forma justa, aparte de ‘aparentemente correcta’. En el campo de la IA se habla mucho de fairness vs accuracy (justicia vs. exactitud).

¿Cómo se combate un deepfake? ¿Sólo con tecnología o también hay que hacer pedagogía?

No sé si la palabra adecuada es combatir. Yo creo que en ‘la era incipiente de los deepfakes’ tenemos que estar siempre alerta y desarrollar cada vez más un pensamiento crítico que ayude a cuestionarnos la certeza de lo que estamos viendo. Más allá de esto, hay formas de identificar a nivel técnico que nos encontramos ante un deepfake como por ejemplo fijarnos en los detalles del fondo, del pelo, los reflejos de los cristales de las gafas…

¿Qué papel juega la ética en todo esto?

La ética es el campo de estudio que nos permite reflexionar desde el punto de vista de la moral y el comportamiento cómo se comportan los sistemas, en este caso, inteligentes o basados en inteligencia artificial. Es nuestra responsabilidad hacer este ejercicio en cada desarrollo que hagamos para evaluar la robustez de nuestros sistemas en todos los aspectos, no sólo aquellos que buscan optimizar un valor o reducir tiempo de cómputo. La ética nos va a ayudar a perfilar cómo será la convivencia de los sistemas inteligentes con los humanos y cómo podemos complementarnos.

Fuente: El Periódico

La Universidad Pública de Navarra colabora con Tracasa Instrumental en el desarrollo de proyectos de investigación en Inteligencia Artificial

Tracasa Instrumental ha desarrollado desde 2017 un total de 16 proyectos relacionados con la inteligencia artificial, 11 de ellos en el último año, periodo en el que la empresa ha reforzado especialmente su apuesta estratégica en esta materia.

Tracasa Instrumental, empresa pública del Gobierno de Navarra adscrita al Departamento de Universidad, Innovación y Transformación Digital, ha puesto en marcha estos proyectos en áreas temáticas como el tratamiento de información geoespacial, la digitalización del territorio y las ciencias de la tierra, entre otras.

Tracasa Instrumental, que tiene entre sus principales campos de actuación los sistemas de información geográfica, los servicios cartográficos y de gestión territorial, los servicios de gestión de deudas y las soluciones tecnológicas para la modernización de la administración, pertenece desde 2019 al Mapa de capacidades de tecnologías en IA en España y ha incorporado recientemente sus servicios al Polo de Innovación Digital impulsado por el Gobierno de Navarra.

«El compromiso con la innovación forma parte del ADN de Tracasa Instrumental. En este sentido, y gracias en buena parte a la apuesta realizada en el último año, la inteligencia artificial es hoy en día uno de los ejes principales en los que se apoyan las líneas de investigación y desarrollo tecnológico de la empresa», expone Mar González Paredesdirectora gerente de Tracasa Instrumental desde el pasado mes de enero.

Según concreta González Paredes, «dentro de los proyectos relacionados con la IA, se está trabajando en tecnologías habilitadoras muy prometedoras, como reconocimiento, clasificación y segmentación de objetos en imágenes multiespectrales y en nubes de puntos LiDAR, a través de redes neuronales (Deep learning, aprendizaje profundo, en español); procesamiento y analítica de series temporales (Internet de las cosas); teoría de grafos y ciencias de la computación».

Tracasa Instrumental, que trabaja en muchos de los proyectos con la colaboración de Tracasa, también empresa pública del Gobierno de Navarra, posee un equipo de trabajo permanente en materia de I+D+I (formado por siete personas con una larga experiencia en ciencias de datos e inteligencia artificial) y tiene una colaboración directa con un grupo de más de diez profesionales de producción avanzada.

«Contamos, además, con una infraestructura que se va adaptando a las necesidades de los equipos y los proyectos, como los clústeres de computación gráfica y de alto rendimiento distribuido (HPC-HTC). Esta plataforma científica híbrida (OnPremise – OnCloud) permite tener la elasticidad necesaria para llevar a cabo pruebas de concepto, casos de uso y proyectos de investigación y desarrollo», concreta González.

Toda esta labor ha tenido su repercusión en el ámbito científico y académico. De esta forma, en los últimos años se han publicado dos papers académicos sobre IA, titulados Superresolution for Sentinel-2 images y Learning Superresolution for Sentinel-2 Images with real ground truth data from a reference Satellite. Ambos se han presentado con éxito en diferentes congresos internacionales (Photogrammetric Image Analysis 2019, Munich Remote Sensing Symposium 2019 e International Society for Photogrammetry and Remote Sensing 2020) y han sido publicados por organizaciones y revistas de reconocimiento mundial en el ámbito de la teledetección, como ISPRS y Remote Sensing.

Colaboración con otras entidades

Tracasa Instrumental fundamenta su apuesta por la inteligencia artificial en un modelo de innovación abierto, con una permanente colaboración con agentes internos y externos. De este modo, la empresa trabaja con equipos de producción avanzada, universidades, centros de investigación y empresas, tanto públicas como privadas. Actualmente, hay tres relaciones de colaboración principales: con la Universidad Pública de Navarra, Navarrabiomed y NAITEC.

Con la UPNA existe una colaboración fluida en materia de personal, generación de conocimiento e incorporación de profesionales al entorno de la inteligencia artificial. De esta forma, Tracasa Instrumental ha contratado, por tercer año consecutivo, a un doctor del departamento de Automática y Computación de la universidad, dentro del Grupo de Investigación de Inteligencia Artificial y Razonamiento Aproximado (GIARA), y ha incorporado, por vez primera, a un doctorando industrial, para el periodo 2020-2023.

Además, Tracasa Instrumental ha colaborado en los tres últimos años con las prácticas de 14 alumnos de Ingeniería Informática y de la Escuela Superior de Ingenieros Agrónomos (más de 5.000 horas de prácticas en total); y ha participado en el máster en Informática a través de su programa dual, con siete alumnos que han completado en los últimos tres años más de 18.000 horas de trabajo en el equipo de I+D de la empresa.

Por su parte, la colaboración con Navarrabiomed, el centro de investigación biomédica del Gobierno de Navarra, se centra en el desarrollo del proyecto estratégico Nagencol, en el que también está presente Nasertic, y que tiene por objetivo facilitar la criba de pacientes con indicio de hipercolesterolemia para la realización de un estudio genómico exhaustivo a través de inteligencia artificial.

Por último, a través de su colaboración con NAITEC, el centro tecnológico especializado en automoción y mecatrónica de Navarra, Tracasa Instrumental está participando, junto a diversas empresas del sector de la movilidad en Navarra, en mesas de trabajo y proyectos estratégicos liderados por el Departamento de Desarrollo Económico y Empresarial del Gobierno de Navarra, en los que la empresa está aportando sus capacidades en digitalización del territorio e inteligencia artificial.

Presencia en el Polo de Innovación Digital

Además, Tracasa Instrumental ha incorporado recientemente sus servicios al Polo de Innovación Digital, impulsado por el Gobierno de Navarra para fomentar, a través de la I+D+I, la generación, la valoración y la aplicación del conocimiento científico y tecnológico que permitan desarrollar la transformación digital de las empresas navarras.

En este sentido, Tracasa Instrumental ha aportado a la plataforma virtual del Polo de Innovación Digital (IRIS) sus servicios más innovadores, principalmente dentro de las líneas temáticas de ciencia de datos e inteligencia artificial. Entre ellos destacan los servicios de digitalización del territorio y generación de modelos especializados en el ámbito de la movilidad y la cartografía inteligente; el procesamiento de información geoespacial, ciencias de la computación y Big Data; y el desarrollo de modelos de IA en el reconocimiento, clasificación y segmentación 2D y 3D.

Fuente: Diario de Navarra

A por una IA made in Europa: El Instituto VRAIN-UPV, reconocido como centro de excelencia por la Comisión Europea, participa en el proyecto TAILOR

Vrain UPV

El instituto VRAIN de la Universitat Politècnica de València (UPV), que ha sido reconocido por la Comisión Europea como centro de excelencia en investigación en inteligencia artificial (IA), participará en el proyecto europeo TAILOR, una iniciativa clave para el futuro de la misma en Europa.

La IA es una tecnología esencial para responder a muchos de los enormes desafíos a los que nos enfrentamos. Con gran impacto en la nuestra vida cotidiana, hoy es clave en la gestión y respuesta frente a la COVID19, y va a tener una incidencia significativa en todos los sectores empresariales. A todo ello ayudará a hacer frente el proyecto TAILOR.

Redes de centros de excelencia que potencien una IA ética y fiable

Recientemente aprobado por la Comisión Europea en el marco de la acción Towards a vibrant European Network of AI Excellence Centres (Hacia una red de centros de excelencia en IA), TAILOR tiene como principal objetivo el desarrollo de redes de centros de excelencia con el fin de impulsar la capacidad de investigación en Europa, aumentando así su condición como potencia investigadora en el ámbito de la IA y, de ese modo, fomentando su atractivo para científicos y nuevos talentos. A su vez, se espera que esta iniciativa contribuya al desarrollo de una IA ética y fiable, una marca made in Europe.

En cualquier caso, para aprovechar todas las oportunidades que brinda y minimizar sus riesgos, es necesaria una IA fiable, centrada en el ser humano y que genere confianza. En este sentido, Europa está dando importantes pasos para convertirse en el centro mundial de la IA confiable.

55 socios, 4 de ellos españoles

En TAILOR, impulsado por la red internacional CLAIRE -a la que pertenece la UPV-, participan un total de 55 socios europeos, tanto universidades como centros tecnológicos y empresas, referentes internacionales todos ellos en el campo de la IA. Entre ellos, se encuentra el Instituto VRAIN de la UPV, uno de los 4 integrantes español del consorcio junto al Instituto de Investigación en Inteligencia Artificial (IIIA) del Consejo Superior de Investigaciones Científicas (CSIC), la Universitat Pompeu Fabra y la Universidad de Málaga.

La peligrosidad de la escasa regulación de la IA

“La fiabilidad sigue requiriendo una importante investigación básica”, destaca Vicent Botti, director del Instituto VRAIN e investigador principal del proyecto en la UPV. “El propósito de TAILOR es construir una red sólida de investigación, que proporcionará la base científica para afianzar una IA responsable, fiable, segura y transparente. El comportamiento de las personas está regulado por numerosas leyes, sin embargo, los algoritmos están sujetos a muy pocas normas legales. Esto es inapropiado y peligroso, ya que los sistemas de IA interfieren cada vez más en nuestras vidas, a menudo sin nuestro conocimiento. Esto debería estar controlado y TAILOR contribuirá a ese control, a conseguir una IA digna de confianza”, añade.

TAILOR establecerá una hoja de ruta estratégica para el desarrollo de la IA confiable, apoyada en cinco programas de investigación básica. “Cada programa forma entornos virtuales de estudio con muchos de los mejores investigadores europeos de IA, que abordan los principales desafíos científicos identificados en la hoja de ruta”, apunta Botti. Así mismo, TAILOR impulsará un conjunto de mecanismos de apoyo a la innovación, la comercialización y la transferencia de conocimientos a la industria.

12 millones de presupuesto

El proyecto, financiado por el programa Horizon 2020 de la Unión Europea, cuenta con un presupuesto de 12 millones de euros y está coordinado por la Universidad de Linköping (Suecia).

Usan inteligencia artificial para detectar noticias falsas y mensajes de odio en las redes sociales

IA-Fake-news-upv

Investigadores de la Universidad Politécnica de València (UPV) han desarrollado un sistema de Inteligencia Artificial (IA) que ha ayudado a detectar noticias falsas (fake news) y ataques explícitos e implícitos en las redes sociales.

Es el primero de los resultados del proyecto MISMIS-FAKEnHATE, liderado por el centro Pattern Recognition and Human Language Technology (PRHLT) de la UPV, en el que también participan la UNED y la Universitat de Barcelona y colabora la Policía Local de València, y que en fase de prototipo ya se ha usado para localizar este tipo de mensajes contra mujeres e inmigrantes.

El investigador de la PRHLT-UPV Paolo Rosso ha explicado que hoy en día la ciudadanía «acaba recibiendo en los medios sociales de comunicación sólo la información que concuerda con sus creencias y puntos de vista, con el riesgo de un aislamiento intelectual» o burbuja de información.

Rosso ha hecho hincapié en que un «efecto perverso» que provoca esta realidad es que «cuando la información corrobora nuestras creencias, tendemos a compartirla sin comprobar su veracidad», lo que «facilita la propagación de desinformación, las llamadas ‘fake news'».

El relativo anonimato de los medios sociales favorece además la propagación de lenguaje agresivo, de mensajes de odio y exclusión, que fomentan la separación en comunidades cada vez más polarizadas en sus opiniones.

Al respecto, según apunta a EFE la investigadora del PRHLT-UPV Anastasia Giachanou, «se tiende a una escasa argumentación en los contenidos que a menudo se limitan a unos pocos insultos».

A partir de este análisis, este primer prototipo desarrollado por los investigadores permite identificar noticias falsas a partir de un análisis automático tanto del lenguaje utilizado, como de las emociones que subyacen a ese texto.

Para ello, es capaz de discernir emociones básicas como el miedo, la ira o la sorpresa, entre otros, y por el momento, lo hace en información escrita, si bien están empezando a trabajar también con imágenes.

«Nos proponemos identificar la desinformación desde una perspectiva multimodal, combinando la información textual con la visual a través de técnicas basadas en deep learning (tecnología evolucionada del aprendizaje automático que lo hace más sólido y efectivo)», explica Giachanou.

La investigadora, que desarrolla su investigación en el PRHLT gracias a una beca de la Fundación Nacional para la Ciencia de Suiza (SNSF por sus siglas en inglés), añade que «además, se llevará a cabo un análisis multilingüe cuándo la información sea en lenguajes diferentes».

Por otro lado, este primer prototipo permite detectar también lenguaje agresivo y mensajes de odio en los medios sociales de comunicación.

Para monitorizarlos, el equipo de la UPV, la UNED y la Universitat de Barcelona propone un enfoque terminológico, extrayendo términos y patrones lingüísticos de odio a partir de conjuntos de datos analizados anteriormente y monitorizar sistemáticamente si se emplean en nuevas conversaciones en línea.

Como próximos retos, el equipo de investigadores que ha desarrollado este proyecto trabaja en la clasificación de patrones y rasgos de la personalidad que se esconden detrás de los «haters» (odiadores) de las redes sociales.

Los socios del proyecto celebraron la semana pasada un encuentro en el que presentaron los resultados del primer año de trabajo, ha informado la UPV.

En este encuentro, José Luis Diego, miembro de la Policía Local de Valencia, que participa como Entidad Promotora Observadora (EPO) en este proyecto, expuso los retos de este cuerpo de seguridad para la detección de mensajes de odio y de exclusión en las redes sociales.

Por parte del centro PRHLT de la Universidad Politécnica de Valencia también participan en el proyecto Francisco Casacuberta y José Miguel Benedí, han indicado las mismas fuentes.

Fuente: EFE

De qué serán capaces la inteligencia artificial y el machine learning en 10 años: Xataka pregunta a expertos

Reportaje en Xataka con los expertos en IA

Parece que el término Inteligencia Artificial no se nos cae de la boca desde hace un par de años, pero lo cierto es que fue en 1956 cuando un profesor universitario, John McCarthy, lo acuñó en una coferenecia académica. Aunque las Leyes de Turin y de Asimov son de 1950, habría que esperar 6 años para acuñar este término y referirse a ese conjunto de tecnologías con las que se pretende que las máquinas sean inteligentes.

Desde entonces (han pasado más de 6 décadas), los avances han sido llamativos: ordenadores capaces de ganar a campeones de ajedrez, máquinas que aprenden solas, coches que se conducen solos…

Pero, ¿qué será realmente la Inteligencia Artificial capaz de hacer dentro de 10 años? ¿Seguiremos llamando Inteligencia Artificial a la Inteligencia Artificial? ¿Qué hay de realidad y qué de ciencia ficción o esperanza en lo que se dice sobre estas tecnologías?

Hemos hablado con varios expertos en la materia: Nuria Oliver ingeniera en telecomunicaciones y doctora por el Media Lab del Instituto Tecnológico de Massachusetts, Richard Benjamins, Data & IA Ambassador de Telefónica, Andres Torrubia, ingeniero y CEO de Fixr y Pedro Larrañaga, Catedrático de Ciencias de la Computación e Inteligencia Artificial de la Universidad Politécnica de Madrid. Esto es lo que nos han contado.

Por qué es difícil hacer estos pronósticos

Si hacer predicciones a futuro es difícil, hacerlo sobre una tecnología como la Inteligencia Artificial se antoja complicada incluso para los propios expertos que trabajan en su desarrollo. Para entenderlo un poco mejor, Andrés Torrubia explica que todos los avances que estamos viendo a día de hoy provienen de la disciplina del deep learning o aprendizaje profundo. Una materia que, hace precisamente 10 años, “no funcionaba a nivel práctico. Esto nos da una visión de la complejidad de hacer predicciones a futuro, porque si hace 10 años me hubieras hecho esta misma pregunta, te hubiera contestado que estaba atascado”.

Por eso, los expertos que hemos consultado prefieren, como punto de partida, hacer un repaso de lo que se ha conseguido en esta década para intentar vislumbrar de qué será capaz en unos años.

Durante este tiempo, la tecnología ha aprendido a reconocer objetos y caras, a realizar análisis predictivos (que se aplican en anuncios o en medicina) o a generar juegos (tipo Pokemon go). Todos estos son modelos predictivos, pero también hay modelos generativos, los que son capaces de crear algo: escribir, pintar… O inventar caras de personas, por ejemplo.

La conducción autónoma será técnicamente viable

Por eso, y subrayando que es muy difícil de saber qué será capaz de hacer la tecnología en el futuro porque, Nuria Oliver desgrana que si seguimos avanzando en las mismas áreas de los últimos 5 años (reconocimiento de patrones en video, texto, imágenes y audio, es decir, en datos no estructurados), la conducción autónoma será realidad desde el punto de vista técnico. “Tendremos las habilidades técnicas para tener una conducción autónoma segura, aunque hay otros factores no tecnológicos que determinarán si es realidad o no en el mercado”, avanza.

Richard Benjamins ahonda en el hecho de que, en estos momentos, los coches ya son capaces de reaccionar sobre lo que ven los sensores y lo que han aprendido. “Pero en el futuro podrán predecir los comportamientos de otros coches, conducidos por coches y personas”. Un componente que no está presente hoy, pero sí en el futuro, “imitando lo que hacemos los humanos”-

Cuando se habla de conducción autónoma, ésta se dividen en 5 niveles. Andrés Torrubia explica que si el nivel 5 es el de máxima autonomía, en 10 años muchas ciudades ya estarán en el nivel 4 (que aún sigue exigiendo que un humano lleve las manos en el volante). “A nivel 5 no se llegará por cuestiones puramente técnicas”, avanza, salvo en entornos muy cerrados y controlados.

Diagnósticos, medicina personalizada y moléculas bajo el prisma de la IA

Medicina será, según estos expertos, otra de las áreas en las que más avances veremos. Aunque hoy en día sigue es una de las temáticas de las que más se habla, según Andrés Torrubia aún no está desplegada con todo su potencial, por lo que cuando este se produzca veremos importantes adelantes. “Hoy ya está ayudando en el diseño de fármacos, pero las moléculas tienen que pasar por ensayos clínicos. La IA diseñará moléculas, pese a que, con razón, sigue siendo un sector muy regulado”.

Así pues, será un avance que irá lento “porque se tiene que validar muy bien”. Pero en el diseño de tratamientos, en el diagnóstico será cada vez más común que la Inteligencia Artificial se aplique a temas de imágenes y radiografías. Algo en lo que coincide Benjamins. “Seguro serán diagnósticos médicos muy buenos, incluso mejores que los realizados por los propios médicos expertos. Y es algo que ya se hace”. Pero, según su visión, la verdadera aportación a diez años vista será que también se podrá explicar cómo se ha llegado a este diagnóstico. Aunque ahora el Machine Learning y la IA pueden hacer estos diagnósticos, es muy difícil explicar este diagnóstico, tanto al profesional como al particular. “En 10 años sí que se podrá explicar. Tanto a nivel general como en casos concretos”, augura este experto.

La Inteligencia Artificial también ayudará a sugerir tratamientos. Según este experto, en 10 años lo veremos muy desplegado y esto ayudará a la eficacia del médico. “Será una herramienta, no sustituye a este profesional”, subraya.

Eso sí, según Torrubia, no deberíamos dejar a la IA dejar actuar en muchas facetas sin supervisión humana “porque la tecnología tiene limitaciones”.

Nuria Oliver, en este punto, considera que, como en el tema de la conducción, serán otros factores los que determinen si realmente llegaremos a usar tanto la IA en el campo de la salud. “Generemos muchos datos de nuestra salud, y cada vez más. Todas las pruebas médicas son digitales, secuenciamiento de ADN, informes médicos y radiografías. Es una gran fuente de datos no estructurados que son los que la IA puede interpretar y encontrar patrones. En radiología está ya en los primeros resultados. Los algoritmos ya pueden detectar tumores de diferentes tipos con una precisión superior a la de un radiólogo», expone.

Sin embargo, eso no quiere decir que toda la medicina del futuro se base en lo que diga la Inteligencia Artificial. «No es algo sencillo porque una única prueba médica no tiene la respuesta y tener un diagnóstico sino que se necesitan varias pruebas, pero los algoritmos nos ayudarán a avanzar en este campo”.

Lenguaje, escritura y otras comunicaciones

La IA se desarrollará tanto en los próximos años que seguramente nos cueste distinguir cuándo nos estamos comunicando con un humano y cuándo con una máquina.

Oliver asegura que una de las grandes promesas que se ve son las capacidades de interactuar con naturalidad a la tecnología. Es decir, hablarle a la tecnología y que nos entienda. “Ahora lo empezamos a poder hacer con asistentes y teléfonos. Cada vez irá mejorando más, porque hay muchas cosas que no entienden. El progreso en procesamiento del lenguaje natural será grande”, asegura esta experta.

Para eso, Andrés Torrubia explica que la tasa de acierto debe ser superior al 98%. “Un 90% supone que en una de cada 10 palabras falla. Y a la mínima los asistentes no nos entienden. Pero en 10 años no, la interacción va a ser mucho más natural”, avanza este experto. Tanto que, en lugar de tener que adaptarnos nosotros a ellos serán ellos los que estén adaptados a nosotros.

Así que, como dice Richards, Google Duplex estará mucho más extendido sobre más dominios y podrán tener un lenguaje natural, tener una conversación con una máquina.

Pero esta interpretación del lenguaje natural no será solo oral, sino también escrito. Según Torrubia, las máquinas del futuro serán capaces de escribir y hacerlo bastante bien. “Ya escriben un comentario de texto, pero me atrevería a decir, siendo muy aventurado, que escribirán historias coherentes y largas”, asegura.

La personalización de la educación

Para Nuria Oliver otra área en la que la IA avanzará mucho en los próximos 10 años es todo lo que tiene que ver con educación. “En China ya están realizando experimentos, utilizando IA para tener educación personalizada y adaptar los curriculus a cada niño”, explica.

Aunque habrá que ver los resultados que estos experimentos ofrecen, Oliver no duda de que es un área de oportunidad. “Nos permite personalizar la educación y eso ahora mismo no es viable. Sabemos que los niños aprenden con diferentes estilos, ritmos y técnicas y hay un profesor cada 30 alumnos. Es muy difícil ofrecer esa personalización. Pero con IA sí se puede, además para la para detección temprana para dificultades como dislexia o discapacidad para que desaparezca este concepto porque se compense con la IA”.

¿Sesgos? ¿Qué sesgos?

Tanto Torrubia como Richards explican que los sistemas de Inteligencia Artificial se basan en correlaciones, en búsqueda de patrones. Y ésa es, precisamente, una de las grandes diferencias con la Inteligencia Humana y lo que acaba provocando algunos problemas, como los conocidos sesgos. “Las personas diferenciamos correlaciones de causa-efecto, pero las máquinas no”, ahonda Torrubia. Por eso los sistemas fallan y tienen sesgos y están mal configurados y refuerzan sesgos negativos. «Es lo que han visto y no entienden las relaciones causa efecto a día de hoy”.

Por eso, un área activa de investigación en los avances de IA en datos son las abordar las limitaciones de los sistemas existentes, como la discriminación y sesgos. “La aspiración es que al usar datos estos algoritmos no sufran los sesgos que tenemos los humanos”, detalla Oliver. “Nos damos cuenta de que los datos no son un reflejo objetivo de la realidad, sino que están sesgados. Y si le enseñas a un algoritmo esos sesgos, los puede maximizar”, avisa.

Pero, la buena noticia es que, según Benjamins, el tema de la discriminación y sesgos de datos estará resuelto en 10 años. Habrá muchas herramientas que podrán detectar los sesgos. “Será como una ingeniería y se podrán identificar muy bien y eliminar”, avanza. En su opinión, actualmente el problema a veces es que puedes tener un conjunto de datos en los que no esté establecido la raza, pero sí que tenga esos sesgos. “Quizá en 10 años este tema también esté resuelto”.

Dame datos y te daré personalización

Nuria Oliver incide en este punto que toda la IA se basa en datos. Los modelos más prometedores y los comerciales de más éxito son redes neuronales entrenadas con cantidades ingentes de datos. Para aplicar estas técnicas de IA en nuevas áreas como medicina y educación o justicia, lo primero es tener datos. Los algoritmos aprenden a partir de datos que se suponen que refleja de manera objetiva lo que quieres modelar.

“A partir de esos datos, si son suficientes para cada persona, puedes construir un modelo especifico a cada persona. Y adaptarte a esa persona. Ya hay modelos de personalización en los sistemas de recomendación en base a tus propios datos y comportamiento. Es un área inmensa la personalización y forma parte de la estrategia core de la mayoría de las empresas tecnológicas, sobre todo si tienen servicios que interaccionan con las personas. La clave es como aplicarlas en sectores no puramente digitales”, detalla esta experta.

Pero no son los únicos campos donde la aplicación de la IA es un reto. Para Andrés Torrubia también la implementación en robots, que hasta ahora no se ha beneficiado mucho de la IA, será un campo de desarrollo. “Hay muchas tareas del día a día aunque sean menos noticiable”. Un buen ejemplo es Amazon Go, que te reconoce cuando entras y coges el producto. Aunque de momento es un prototipo, Torrubia asegura que el llegar a que la IA pueda saber cuánto cobrarte por el peso de un producto concreto es un desafío brutal, sobre todo para implementarlo a escala. “Pero lo conseguiremos. Como que Zara te permita probarte las cosas virtualmente en tu casa y que te sugiere la ropa en función de tus gustos y de lo que tienes”, avanza.

Además, este experto también confía en los resultados que pueden cosechar, de aquí a 10 años, algunos de los prototipos de investigación, como que escriba una novela entera tipo Harry Potter. O algoritmos que inventen una película entera. “Hay temas más distópicos como la generación de fake news que se podrá hacer a escala y eso existirá, tanto en texto como en vídeo”, aventura.

No es lo que haga, es lo que debería hacer

Según Pedro Larrañaga, todo esto se puede resumir en tres grandes puntos

  • Creará más trabajos de los que destruya.
  • Ayudará a los humanos en un buen número de trabajos.
  • Posibilitará un mundo más justo y con más posibilidades para la gente pobre que sea capaz de esforzarse en el estudio deje de serlo y mejore en sus condiciones de vida.

Y ese último melón es el que, precisamente, abren también algunos de estos expertos con los que hemos hablado. Nuria Oliver asegura que el desarrollo tecnológico es mucho más complejo que los algoritmos. “Debe estar contextualizada en una realidad y con impacto en la sociedad y en la vida de millones de personas. No se puede desarrollar de manera aislada. Hay un componente humano. No es solo capacidad técnica para ser más eficiente, sino también empatía, garantía de justicia”.

Es lo que ella denomina FATEN (Justicia, Autonomía, Confianza, Educación y No Maleficencia, por sus siglas en inglés). “Más allá de desarrollo de nuevos algoritmos debemos hacerlo en marco FATEN; si no, no será progreso. No toda innovación es progreso. Por eso debemos asegurarnos que no está discriminando, que no va a aumentar la diferencia entre ricos y pobres, o que solo funciona para una raza. Este marco debería ser donde hagamos el desarrollo”.

O, como dice el experto de Telefónica, debe haber una concienciación no solo de las oportunidades, sino también de los desafíos, por lo que debería haber muchos debates y conversaciones a diferentes niveles. “La Comisión Europea sobre confianza de la IA, pero hay más temáticas, responsabilidad, también en el plano jurídico, del trabajo si las máquinas van a quitar y cómo se sostiene el estado de bienestar. Hay mucho debate. La toma de decisiones autónoma en la administración pública afecta a las personas. No estamos preparados para que pase a gran escala. Necesitamos coger más experiencia y regulación para poder evitar que pasen cosas que o queremos”.

Además, considera que hay que trabajar en evitar la concentración de datos en pocas compañías que tienen mucho dinero. “El riesgo es que la mejor tecnología esté en manos de muy pocos y tengan el poder”, advierte.

La IA no tiene superpoderes

Seguramente la IA tenga mucho potencial de desarrollo, pero hay cosas que no será capaz de hacer.

¿Cuáles? El catedrático de la Complutense asegura que la respuesta a esto se relaciona con la paradoja de Moravec , “es decir por qué la IA hace fácil lo difícil) (para un humano) y viceversa. Al parecer el esfuerzo necesario para copiar cada habilidad humana es proporcional a la antigüedad con que ésta apareció en nuestro árbol genealógico. El “amor”, la “creatividad”, la “empatía” probablemente sean aspectos del ser humano que le van a costar incorporar a un sistema de IA”.

Para Richard Benjamins, casi todo el éxito de la IA se basa en aprendizaje automático supervisado con redes Machine Learning. “Pero si ves como aprende un bebe, no sabe nada, observa, interactúa y recibe feedback y 18 meses más tarde ha construido su modelo del mundo en el que cada concepto que conoce se ancla en la realidad. Aprender así no se puede aún con la IA, pero se darán pasos para que se de. Si se consigue sería un gran hito, sería cambiar de aprender de manera supervisado con ML a no supervisado. Aún no sabemos cómo funciona”.

Además, tampoco tendrá sentido común, como los humanos. “Las máquinas no saben reaccionar”, asegura, aunque no descarta que se pueda llegar a producir.

Andrés Torrubia también asegura que la IA no va a ser como la humana. “No se va a volver contra nosotros. No tendrá autonomía”, asegura. “Atribuimos cualidades humanas a todo, incluso decimos que aprenden. Pero no lo hacen como una persona. Hacen ecuaciones y llegan a una conclusión pero eso no es aprender. Así que no tomarán el control”.

Y, sobre el peligro de que robe puestos de trabajo, este experto señala que solemos pensar demasiado en las amenazas de los robots. “Se cree que en el trabajo es más factible que tenga impacto en trabajos poco cualificados, pero no es cierto. Un fontanero no podrá ser un robot en 10 años”.

Por su parte, Nuria Oliver también subraya que los humanos somos mucho más que reconocimiento de patrones. “Tenemos muchos tipos de inteligencia: sentido común, capacidad de asociar, crear, conocimiento semántico del mundo del que carecen los algoritmos. Reconocen gatos, pero no sabe qué es un gato. Hay muchas áreas donde la inteligencia humana es muy compleja y multidimensional», como en el mencionado sentido común y la capacidad de razonamiento. Además, esta experta señala un punto débil de las máquinas: «tienen la fragilidad de que lo puedes hackear”.

Además, esta experta recuerda que el reconocimiento de patrones necesitan muchos más ejemplos que un humano para encontrar ese reconocimiento. “No aprenden incrementalmente y constantemente y sin olvidar lo que ha aprendido. Son sistemas supervisados. Los humanos somos más eficientes y hay muchas habilidades de un niño de 2 años que son muy complicadas para la IA”.

El riesgo de morir de éxito

Por último, Andrés Torrubia cree que a la IA le vamos a poner freno como sociedad. “Desgraciadamente hay tanto hype, tanta expectación, que muchas empresas sacan cosas mal hechas” con el consiguiente riesgo que ello conlleva. Y pone un paralelismo con la web de Renfe “famosa por lo mal que funciona”. El problema, en su opinión, es si trasladamos esa isma sensación a los primeros sistemas de reconocimiento facial que falle, por ejemplo.

“Es un tema social. Puede ser disruptivo a nivel económico y socialmente se frene o por malas implementaciones. Es un problema que hay que tratar de manera sensata. No tiene que estar mal ejecutado. Así que crucemos dedos para que no haya una web de Renfe en la implementación de la IA”.

Fuente: Xataka

Big Data, IA, blockchain, ciberseguridad y realidad digital mejorarán los servicios públicos, según Minsait

(Europa Press) Las elevadas capacidades analíticas que proporciona el Big Data, la revolución de la Inteligencia Artificial (IA), las oportunidades que brinda la realidad digital, la necesaria e imprescindible ciberseguridad o el prometedor blockchain constituyen la base del proceso innovador que están afrontado las administraciones públicas para mejorar la prestación de sus servicios y la calidad de vida de los ciudadanos, según un estudio de Minsait, una compañía de Indra.

El informe ‘Innovación Pública: las tecnologías disruptivas que transformarán las Administraciones’ de Minsait analiza las posibilidades de uso y beneficios de estas tecnologías disruptivas, que ya están impactando en los modelos de negocio actuales y en la forma en que las administraciones públicas van a tener que ofrecer sus servicios a la sociedad.

Para Minsait, la innovación de los servicios públicos depende de la voluntad y motivación de los gobernantes, que deben elegir las soluciones digitales que contribuyan a aumentar la equidad de la sociedad y generen confianza gracias a la transparencia de sus políticas públicas. Es por ello que una correcta elección de las inversiones en tecnologías disruptivas de los gobiernos en los próximos años es «clave» para el futuro del estado de bienestar.

«Nos encontramos en un momento de intenso cambio de la economía y la sociedad, en el que se ha pasado de un entorno en el que prima lo físico a otro en el que prima lo digital y en el que las administraciones públicas deben dar una respuesta integral a los retos y oportunidades que se les presenta en un contexto de cambio acelerado», destacan desde Minsait.

En el ámbito del Big Data, los nuevos modelos y métodos algorítmicos como la analítica predictiva y prescriptiva permitirán crear escenarios para la definición de las mejores políticas públicas en ámbitos como la sanidad, la justicia, la educación o la lucha contra el fraude. Así, detalla que la analítica predictiva emplea datos históricos para identificar patrones y tendencias que ayuden a anticipar lo que puede suceder en el futuro.

APOYO DE LA INTELIGENCIA ARTIFICIAL

En el caso de la Inteligencia Artificial, Minsait resalta que complementará el trabajo de los empleados públicos y ayudará a prestar servicios de mayor valor añadido y a crear una ciudad más segura. Por ejemplo, gracias a las tecnologías de ‘machine learning’, las plataformas conversacionales o chatbots permiten dar respuesta «de forma inmediata y en cualquier momento» a demandas de información del ciudadano que, de otra forma, podrían exigir múltiples contactos con la administración.

El informe elaborado por Minsait también remarca que la realidad digital, término que engloba a la realidad aumentada, virtual y mixta, contribuye a impulsar el turismo de calidad «atrayendo a los visitantes a espacios físicos y haciéndoles partícipes de experiencias satisfactorias».

Por otro lado, incide en que las administraciones públicas requieren de soluciones de seguridad integral que permitan proteger la huella digital y los datos en un mundo híper conectado en el que el cibercrimen tiene un impacto global de cerca del 1% del PIB mundial. El informe también hace alusión a la necesidad de invertir en concienciación social para que los usuarios tengan suficiente información y usen los dispositivos con acceso a una red de la forma más segura.

Por último, apunta que la utilización de tecnologías basadas en blockchain permitirá optimizar la forma en que se relacionan las administraciones públicas con los ciudadanos y empresas. Así, afirma que aporta grandes beneficios como dotar a los servicios de mayor transparencia y seguridad, reducir los costes de las transacciones e impulsar una participación más activa en las decisiones de las autoridades garantizando la identidad digital y el anonimato.

Ver noticia original en La Vanguardia