Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados expertos

Los mayores expertos en arquitectura y tecnología de ordenadores, en un congreso de la UCLM

Doscientos congresistas y profesionales de cuarenta universidades, centros de investigación y empresas participan en las Jornadas de la Sociedad Española de Arquitectura y Tecnología de Computadores (SARTECO), que se celebran hasta el viernes en Ciudad Real por iniciativa de esta asociación de carácter académico y científico fundada en 2006 con el propósito de contribuir al desarrollo científico y tecnológico en esta área.

En su trigésimo tercera edición, el encuentro está organizado por el grupo de Arquitectura y Redes de Computadores (ARCO) de la Universidad de Castilla-La Mancha (UCLM), con el respaldo de la Escuela Superior de Informática de Ciudad Real.

Noticia completa: Ciencia Nova

Los expertos Josep Domingo-Ferrer y Carme Torras debaten sobre el peso de la inteligencia artificial

Los expertos Josep Domingo-Ferrer y Carme Torras debaten en el IEC sobre el peso de la inteligencia artificial en nuestras vidas

«En ese momento, con la inteligencia artificial (IA) está pasado como en la Edad Media, cuando los únicos que sabían escribir eran los monjes y el poder intelectual lo tenían ellos. Ahora lo tienen las empresas que tienen suficiente capacidad de cálculo, y en Europa no hay ninguna: están en Estados Unidos o en China», ha dejado claro este martes el catedrático de ingeniería informática de la Universidad Rovira i Virgili Josep Domingo-Ferrer, fundador y director del Centro de Investigación en Ciberseguridad de Catalunya.

La matemática, doctora en informática, profesora del Instituto de Robótica Informática Industrial y novelista Carme Torras es menos pesimista: «En Europa hay un movimiento de grupos de investigación en algoritmos de aprendizaje, la red ELLIS, y se están seleccionando los mejores grupos para constituir varias unidades. En Barcelona hay una. Y ahora se está debatiendo la concentración de los grandes superordenadores europeos en un único hub que pueda competir con las empresas norteamericanas».

Domingo-Ferrer y Torras eran los ponentes del debate Inteligencia artificial: ¿podemos evitar que los algoritmos gobiernen nuestras vidas?, organizado por el Institut d’Estudis Catalans (IEC) con el apoyo del ARA, que ha arrancado hablando de ética y ha acabado reflexionando sobre la geopolítica de la tecnología.

Noticia completa: Ara

Cuatro expertos en inteligencia artificial conversan sobre las potencialidades y los límites que configuran la evolución actual de esta tecnología.

Gracias a los avances en supercomputación, al desarrollo de nuevos algoritmos y a la disponibilidad de cantidades ingentes de datos, el mundo de la inteligencia artificial (IA) se está expandiendo a un ritmo sin precedentes. Este progreso se está traduciendo en la creación de aplicaciones cada vez más refinadas, que, por su impacto económico, social y político, plantean la necesidad de un debate informado y consciente sobre qué IA queremos.

Noticia completa: Centre de Cultura Contemporània de Barcelona 

Expertos y expertas mundiales reclaman mayor transparencia en la evaluación de los sistemas de Inteligencia Artificial

“Los recientes avances en Inteligencia Artificial basada en sistemas que requieren enormes cantidades de datos y cálculo, como GPT-4, han puesto de manifiesto las dificultades para comprender las capacidades y debilidades de estos sistemas de Inteligencia Artificial. No sabemos dónde es seguro utilizar estos sistemas ni cómo podrían mejorarse. Y esto se debe a la forma en que se evalúa hoy la IA, que requiere de un cambio urgente”.

Detrás de estas palabras se encuentran 16 de los principales expertos y expertas en Inteligencia Artificial de todo el mundo, entre ellos los investigadores del Instituto VRAIN de la Universitat Politècnica de València (UPV), José Hernández-Orallo, Fernando Martínez Plumed y Wout Schellaert.

Coordinados por el profesor Hernández-Orallo, los 16 investigadores e investigadoras publican hoy una carta en la revista Science en la que reclaman la necesidad de “repensar” la evaluación de las herramientas de IA para avanzar hacia unos modelos más transparentes y saber cuál es su eficacia real, qué es lo que pueden y no pueden hacer.

En su escrito, los autores proponen una hoja de ruta para los modelos de IA, en la que sus resultados se presenten de forma más matizada y los resultados de la evaluación caso por caso se pongan a disposición del público.

Según explica Hernández-Orallo, el rendimiento de un modelo de IA se mide con estadísticas agregadas. Y esto supone un riesgo, porque si bien pueden dar una visión de su buen rendimiento global, pueden ocultar también una baja fiabilidad/utilidad en casos concretos, más minoritarios, “y sin embargo se da a entender que es igualmente válido en todos los casos cuando en realidad no es así”.

En el documento, los y las firmantes lo explican con el caso de modelos de IA de ayuda al diagnóstico clínico y señalan que estos sistemas podrían tener un problema cuando analizan a personas de una etnia o grupo demográfico concreto, porque son casos que constituyeron sólo una pequeña proporción de su entrenamiento.

“Lo que pedimos es que cada vez que se publique un resultado en IA, se desglose lo máximo posible, porque si no se hace, no es posible saber su utilidad real y reproducir el análisis. En el artículo publicado en Science hablamos también de un sistema de IA de reconocimiento facial que daba un 90% de acierto y después se comprobó que para hombres blancos el porcentaje de acierto era del 99.2%, pero para mujeres negras solo llegaba al 65,5%. Por ello, en algunas ocasiones, los resultados que se venden sobre la utilidad de una herramienta de IA no son del todo transparentes y fiables. Si no te dan el detalle, crees que los modelos funcionan muy bien y no es la realidad. No tener ese desglose con toda la información posible sobre el modelo de IA supone que aplicarlo podría comportar riesgos”, apunta José Hernández-Orallo.

El investigador de VRAIN UPV destaca que los cambios que proponen pueden contribuir a mejorar la comprensión en la IA. Y también a reducir la “voraz” competición que existe actualmente entre los laboratorios de IA por anunciar que su modelo mejora un tanto por cien otros sistemas anteriores.

“Hay laboratorios que quieren pasar del 93% al 95% como sea y eso va en contra de la aplicabilidad y fiabilidad final de la IA. Lo que queremos, en definitiva, es contribuir a que, entre todos, entendamos mejor cómo funciona la IA, cuáles son las limitaciones de cada modelo, para garantizar un buen uso de esta tecnología”, concluye Hernández-Orallo.

Junto a los investigadores del Instituto VRAIN de la Politècnica de València, en este artículo ha participado también personal investigador de la Universidad de Cambridge, la Universidad de Harvard, el Instituto Tecnológico de Massachusetts (MIT), la Universidad de Stanford, Google, el Imperial College de Londres, la Universidad de Leeds, el Instituto Alan Turing de Londres, Deepmind, el Instituto Nacional de Estándares y Tecnología de EE.UU. (NIST), el Instituto Santa Fe, la Universidad Tongji de Shanghái y la Universidad Shandong de Jinan.

Fuente: Universitat Politècnica de València