Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados Inteligencia artificial

La ingeniera informática gallega Verónica Bolón recibe el Premio Ada Byron de Galicia por sus trabajos de IA

El Colegio Profesional de Ingeniería Informática de Galicia (CPEIG) ha concedido el Premio Ada Byron de la ‘XV Noite da Enxeñaría en Informática de Galicia’ de este 2023 a la doctora en informática gallega Verónica Bolón por sus trabajos de investigación en áreas de Inteligencia Artificial (IA) y su apuesta por el fomento de la vocación científico-tecnológica entre las jóvenes, participando en numerosas actividades de divulgación coordinadas en A Coruña dentro del proyecto Inspira STEAM.

La entrega será el 16 de junio en el Hotel OCA Puerta del Camino de Santiago, en un evento en el que estarán presentes colegiados del CPEIG y profesionales TIC de Galicia. La profesional es natural de Carballo, ingeniera y doctora en Informática por la Universidade da Coruña (UDC) y tuvo una estancia de posdoctoramiento en la Universidad de Manchester (Reino Unido) en 2015. Actualmente es profesora titular en el Departamento de Ciencias de la Computación y Tecnologías de la Información, además de investigadora en el Centro de Investigación en Tecnologías de la Información y Comunicaciones (CITIC).

Noticia completa: El español

La US lidera un proyecto europeo para mostrar la Inteligencia Artificial como un entorno seguro y fiable

La Universidad de Sevilla (US), con la dirección de la profesora Rocío González Díaz, trabaja en un proyecto europeo enfocado a conseguir que la sociedad vea la Inteligencia Artificial (IA) como un entorno «seguro y fiable». En este sentido, la iniciativa, denominada ‘Rexasi-Pro’. consiste en crear un marco de desarrollo para un sistema de inteligencia artificial «de enjambre» formado por una «flota de sillas de ruedas autónomas y drones que permita el desplazamiento autónomo de personas con movilidad reducida en el interior de un edificio».

Para poner en contexto la importancia de esta iniciativa, la catedrática del departamento de Matemática Aplicada I Rocío González Díaz explica que la inteligencia artificial y sus redes neuronales «están muy de moda, pero tienen un gran problema hoy en día; y es que, a pesar de su éxito, son una caja negra porque no sabemos explicar los resultados que nos ofrece una inteligencia artificial, no sabemos predecir cuándo se va a equivocar y por ello no podemos confiar en ella».

De este modo, con el reto de alcanzar que la sociedad perciba una inteligencia artificial «robusta y fiable», el equipo de Rocío González desarrollará durante dos años «soluciones novedosas» para que la IA sea «fiable» en un entorno «muy complejo». «Es una caja negra que estamos empeñados en abrir y si lo aplicamos en un entorno lo más complejo posible y demostramos que funciona significa que lo haría en cualquier otra situación», añade la profesora de la Escuela Técnica Superior de Ingeniería Informática.

Fuente: Sevilla buenas noticias

Expertos y expertas mundiales reclaman mayor transparencia en la evaluación de los sistemas de Inteligencia Artificial

“Los recientes avances en Inteligencia Artificial basada en sistemas que requieren enormes cantidades de datos y cálculo, como GPT-4, han puesto de manifiesto las dificultades para comprender las capacidades y debilidades de estos sistemas de Inteligencia Artificial. No sabemos dónde es seguro utilizar estos sistemas ni cómo podrían mejorarse. Y esto se debe a la forma en que se evalúa hoy la IA, que requiere de un cambio urgente”.

Detrás de estas palabras se encuentran 16 de los principales expertos y expertas en Inteligencia Artificial de todo el mundo, entre ellos los investigadores del Instituto VRAIN de la Universitat Politècnica de València (UPV), José Hernández-Orallo, Fernando Martínez Plumed y Wout Schellaert.

Coordinados por el profesor Hernández-Orallo, los 16 investigadores e investigadoras publican hoy una carta en la revista Science en la que reclaman la necesidad de “repensar” la evaluación de las herramientas de IA para avanzar hacia unos modelos más transparentes y saber cuál es su eficacia real, qué es lo que pueden y no pueden hacer.

En su escrito, los autores proponen una hoja de ruta para los modelos de IA, en la que sus resultados se presenten de forma más matizada y los resultados de la evaluación caso por caso se pongan a disposición del público.

Según explica Hernández-Orallo, el rendimiento de un modelo de IA se mide con estadísticas agregadas. Y esto supone un riesgo, porque si bien pueden dar una visión de su buen rendimiento global, pueden ocultar también una baja fiabilidad/utilidad en casos concretos, más minoritarios, “y sin embargo se da a entender que es igualmente válido en todos los casos cuando en realidad no es así”.

En el documento, los y las firmantes lo explican con el caso de modelos de IA de ayuda al diagnóstico clínico y señalan que estos sistemas podrían tener un problema cuando analizan a personas de una etnia o grupo demográfico concreto, porque son casos que constituyeron sólo una pequeña proporción de su entrenamiento.

“Lo que pedimos es que cada vez que se publique un resultado en IA, se desglose lo máximo posible, porque si no se hace, no es posible saber su utilidad real y reproducir el análisis. En el artículo publicado en Science hablamos también de un sistema de IA de reconocimiento facial que daba un 90% de acierto y después se comprobó que para hombres blancos el porcentaje de acierto era del 99.2%, pero para mujeres negras solo llegaba al 65,5%. Por ello, en algunas ocasiones, los resultados que se venden sobre la utilidad de una herramienta de IA no son del todo transparentes y fiables. Si no te dan el detalle, crees que los modelos funcionan muy bien y no es la realidad. No tener ese desglose con toda la información posible sobre el modelo de IA supone que aplicarlo podría comportar riesgos”, apunta José Hernández-Orallo.

El investigador de VRAIN UPV destaca que los cambios que proponen pueden contribuir a mejorar la comprensión en la IA. Y también a reducir la “voraz” competición que existe actualmente entre los laboratorios de IA por anunciar que su modelo mejora un tanto por cien otros sistemas anteriores.

“Hay laboratorios que quieren pasar del 93% al 95% como sea y eso va en contra de la aplicabilidad y fiabilidad final de la IA. Lo que queremos, en definitiva, es contribuir a que, entre todos, entendamos mejor cómo funciona la IA, cuáles son las limitaciones de cada modelo, para garantizar un buen uso de esta tecnología”, concluye Hernández-Orallo.

Junto a los investigadores del Instituto VRAIN de la Politècnica de València, en este artículo ha participado también personal investigador de la Universidad de Cambridge, la Universidad de Harvard, el Instituto Tecnológico de Massachusetts (MIT), la Universidad de Stanford, Google, el Imperial College de Londres, la Universidad de Leeds, el Instituto Alan Turing de Londres, Deepmind, el Instituto Nacional de Estándares y Tecnología de EE.UU. (NIST), el Instituto Santa Fe, la Universidad Tongji de Shanghái y la Universidad Shandong de Jinan.

Fuente: Universitat Politècnica de València 

PolyDeep: Inteligencia artificial aplicada a la detección y clasificación de pólipos colorrectales

La Universidad de Vigo y del Hospital Universitario de Ourense se han unido para investigar una novedosa tecnología de detección de pólipos colorrectales que emplea inteligencia artificial y a la que han llamado ‘PolyDeep’.

Se trata, concretamente, de un proyecto conjunto en el que han participado tanto el grupo de Sistemas Informáticos de Nueva Generación (SING) de la Escuela Superior de Enxeñaría Informática de Ourense, la Universidade de Vigo, y el Grupo de Investigación en Oncología Digestiva (GIODO) del Hospital Universitario de Ourense.

Joaquín Cubiella, investigador responsable de este grupo, destaca que se lleva ya trabajando en el proyecto unos seis años. Su objetivo sería nada menos que desarrollar un modelo propio, basado en inteligencia artificial, para detectar y caracterizar los pólipos colorrectales.

Fuente: Con salud

Barcelona constituye el consejo asesor en inteligencia artificial, ética y derechos digitales

El Ayuntamiento de Barcelona ha acogido la sesión constitutiva del consejo asesor en inteligencia artificial, ética y derechos digitales. El objetivo de este órgano es velar porque las políticas públicas innovadoras garanticen en todo momento los derechos digitales de las personas. Forman parte 15 expertos independientes que asesorarán al consistorio en el uso de la inteligencia artificial para el bien común. Entre sus tareas destaca la evaluación de los sistemas algorítmicos que puedan tener un alto impacto en los derechos fundamentales de los ciudadanos.

Noticia completa: Betevé

Expertos vaticinan en Elche cómo la inteligencia artificial revolucionará el diagnóstico de enfermedades

La inteligencia artificial (IA) aumentará la esperanza de vida de las personas. Es la contundente conclusión a la que llegan los expertos reunidos por el Parque Científico de la Universidad Miguel Hernández de Elche reunidos este miércoles en unas jornadas en el campus ilicitano. Empresas de los parques científicos de las universidades públicas de la Comunidad Valenciana ya trabajan en el desarrollo de la inteligencia artificial aplicada al ámbito de la salud.

Lo que queda de manifiesto es que la inteligencia artificial revolucionará el diagnóstico y la prevención de enfermedades en un futuro tan cercano que algunos centros hospitalarios como La Fe de València ya han empezado a hacer uso de ella.

¿De qué manera lo hará? La respuesta es sencilla. La inteligencia artificial ayuda a procesar y estructurar distintas fuentes de datos (historiales, notas clínicas e imágenes) permitiendo optimizar la atención primaria del paciente, avanzar en la investigación médica, ofrecer mejores soluciones en la prevención de enfermedades, ahorrar costes y, sobre todo, permite a los médicos realizar diagnósticos más rápidos, precisos y seguros y mejorar la prevención de enfermedades.

Noticia completa: Informacion.es

Inteligencia artificial en la Universidad

Jaume Bitterhoff – técnico de recursos educativos y soporte multimedia de la Unidad de Apoyo y Asesoramiento a la Actividad Docente de la Universitat de Lleida- recoge sus reflexiones en torno a Inteligencia Artificial y Universidad en un artículo publicado en Saad.udl.cat . Os lo compartimos traducido aquí:

Con el auge de herramientas de IA en muchos sectores, las universidades se ven obligadas a adaptarse para poder ofrecer programas educativos y oportunidades de investigación actuales y pertinentes. Esto plantea desafíos importantes para las instituciones y sus estudiantes, desde mantenerse en el día con las últimas tendencias y desarrollos en IA hasta garantizar que los alumnos estén bien preparados para las oportunidades laborales que las empleen, así como considerar las implicaciones éticas y sociales.

De hecho, el párrafo anterior no ha sido escrito por una persona. Ha sido generado mediante ChatGPT, la herramienta de moda en la actualidad en cuanto a generación de textos. La diferencia, a simple vista, es difícil de detectar. Y es que, con el gran volumen de información que leemos diariamente, puede llegar a representar un problema saber si un documento ha sido escrito por una persona o si ha sido redactado por una máquina, sobre todo si el documento que estamos leyendo tiene que ser evaluado.

Hay, hoy por hoy, dos grandes corrientes muy diferenciadas respecto a este uso: Por un lado, hay centros educativos que están decidiendo prohibir el uso, y al extremo opuesto encontramos quien defiende que hay que adaptar esta tecnología en la enseñanza. Ambas opciones plantean hoy por hoy unos retos importantes por el profesorado y por el personal de la Universidad. Prohibir el uso es complicado, puesto que se puede acceder desde cualquier dispositivo para copiar y empegar, y después es difícil y lento detectar si un texto ha sido generado con una IA (y retocado posteriormente por una persona). Pero permitir que se haga ir… implicaría actualizar la manera de enseñar, igual que se tuvo que cambiar cuando se generalizó el uso de internet para buscar información.

Desde finales de año, parece que este tema está cada vez ocupando más titulares, y, sí, podría ser que acabe deshinchándose como muchas tecnologías que prometían la siguiente gran revolución y al final no han funcionado, pero… Y si esta vez es de verdad? Cómo habría que enfocar las inteligencias artificiales dentro del entorno universitario?

 

Fuente del texto: https://www.saad.udl.cat/ca/noticies/Intelligencia-artificial-a-la-Universitat/

Granada acoge el Congreso Blockchain, metaverso e Inteligencia Artificial

El futuro de la energía de fusión; la revolución de la medicina con la realidad virtual, aumentada o inteligencia artificial; como se conjugan el deporte de élite y la tecnología o el fascinante mundo del metaverso, son solo algunos de los temas que se tratarán los próximos 26 y 27 de enero en la décima edición del Congreso Internacional Block World Tour, uno de los mayores eventos Blockchain del sur de Europa.  

Un congreso promovido por MIT, una asociación sin ánimo de lucro nacida en Motril, en la década pasada que se unió para divulgar una tecnología desconocida para muchos, y a la vez tan presente en el día a día de personas, instituciones y grandes empresas, y que cuenta con socios por toda España, Malta, Andorra, Dubai y otros países al sur de Europa.

Fuente: Granada Hoy

A Coruña será la sede oficial de la Agencia Española de Supervisión de Inteligencia Artificial 

A Coruña será la sede la Agencia Española de Supervisión de Inteligencia Artificial (Aesia). El anuncio fue realizado este lunes tras el Consejo de Ministros por la portavoz del Gobierno, Isabel Rodríguez. La ministra de Política Territorial dio a conocer este hecho junto a la designación de Sevilla como sede de la Agencia Espacial Española. El organismo que se ubicará en A Coruña se encargará, principalmente, de analizar los límites de este tipo de tecnología. Además, será la primera destinada al control de la Inteligencia Artificial en la Unión Europea.

Noticia completa: La voz de Galicia

La compañía Minsait y la Universidad de Sevilla renovarán su acuerdo para el fomento de actividades tecnológicas

La empresa tecnológica Minsait, una compañía filial de Indra, ofrece el próximo 17 de noviembre el taller ‘Crea, entrena y despliega tu modelo IA en una mañana con Onesait Platform’ enmarcado en la Cátedra Sociedad Digital, fruto del acuerdo desde 2019 con la Universidad de Sevilla (US) y una herramienta que ha dado lugar a una «fructífera agenda de actividades» basadas en jornadas sectoriales, seminarios, premios y talleres. Antes de que acabe el año, Minsait y la US tienen previsto renovar el acuerdo para «mantener una agenda muy pegada a las tendencias tecnológicas del mercado».

El taller de este próximo jueves 17 permitirá conocer esta plataforma tecnológica multicloud para el desarrollo «ágil y rápido» de soluciones de microservicios, ‘apificación’ –interfaz que permite la comunicación e interacción entre distintos softwares–, integración de datos, analítica, inteligencia artificial (IA) y machine learning (ML), ha detallado la compañía en una nota de prensa.

Noticia completa: Europa Press