Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados vrain

Un equipo de la UPV presenta un estudio sobre razonamiento ético de la IA en Estados Unidos

Un equipo del grupo de investigación GTI-IA del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV) ha presentado un trabajo sobre razonamiento ético de la inteligencia artificial en la conferencia anual que organiza la Asociación para el Avance de la Inteligencia Artificial (AAAI) de EE.UU., una de las conferencias internacionales más prestigiosas en este campo.

El artículo, bajo el título ‘La incertidumbre moral y el problema del fanatismo’, ha sido elaborado por los investigadores de VRAIN de la UPV, José Such Natalia Criado, y los colaboradores del King’s College London (Reino Unido), Jazon Szabo Sanjay Modgil. Y desarrolla, cómo a través de un formalismo matemático, se puede hacer razonar a la inteligencia artificial sobre diferentes puntos de vista y teorías éticas, ha indicado la universidad en un comunicado.

«Le estamos diciendo a la IA que a la hora de decidir, tenga en cuenta y agregue diversos aspectos éticos, no solo una perspectiva ética. Y de este modo, su decisión final estará más alineada con lo que un mayor número de personas considera ético, y se alejará de que ninguna de las teorías éticas domine desproporcionadamente sobre las otras, que llevaría a la IA a un comportamiento más fanático», ha explicado José Such.

En esta línea, ha añadido que una cuestión «muy importante de cara a desarrollar sistemas de inteligencia artificial que sean capaces de alinearse con lo que las personas consideramos que es un comportamiento ético».

Noticia completa: Valencia Plaza

Nueva cátedra de ciberseguridad del Instituto Nacional de Ciberseguridad (Incibe) y la Universitat Politècnica de València (UPV)

El Instituto Nacional de Ciberseguridad (Incibe) ha concedido una cátedra de ciberseguridad de ámbito internacional a la Universitat Politècnica de València (UPV) para fomentar la concienciación entre la sociedad valenciana y evitar ataques informáticos tanto en grandes empresas e instituciones, como estafas por Internet a pequeña escala. El director de esta cátedra, que también es investigador del instituto V-RAIN de la UPV, Santiago Escobar, explica que la sociedad sigue sin estar preparada ante las amenazas de ciberseguridad, que cada vez son mayores y los ataques se han incrementado en los últimos años debido a las guerras en Ucrania y en Gaza.

Este año se han registrado decenas de incidencias en empresas y en administraciones públicas valencianas, como el Ayuntamiento de Requena, que ocurrió a finales de 2022 pero que arrastró los problemas derivados del ciberataque durante parte de este 2023. Escobar asegura que los hackers «van siempre por delante» y, aunque admite que no existe la seguridad al cien por cien en Internet, sí que se puede invertir en sistemas para evitar ataques y, sobre todo, para reducir sus efectos, como guardar todos los datos mediante copias de seguridad.

Noticia completa: Cadena Ser

“El sistema falla donde menos te lo esperas”. Así evaluaron GPT-4 estos dos españoles por encargo de OpenAI

“El sistema falla donde menos te lo esperas”. Así evaluaron GPT-4 estos dos españoles por encargo de OpenAI José Hernández-Orallo y Cèsar Ferri, ambos investigadores de inteligencia artificial en la UPV, pertenecieron al grupo de apenas 40 personas seleccionadas para evaluar la actual versión de pago de ChatGPT.

En el verano de 2022, los que buceaban en las aguas más profundas de la inteligencia artificial —investigadores, empleados del sector, directores de IA en empresas— sabían bien que OpenAI preparaba el lanzamiento de su siguiente GPT (su modelo de lenguaje o LLM). Pero no se conocían detalles. Ni cuándo sería, ni quién tendría acceso, ni qué capacidades nuevas demostraría respecto a la versión anterior, GPT-3, de uso restringido.

Así estaban José Hernández-Orallo y Cèsar Ferri cuando en septiembre, Lama Ahmad, investigadora de políticas en OpenAI, les propuso formar parte del equipo externo que evaluaría GPT-4. Hernández-Orallo y Ferri, ambos catedráticos del departamento de Sistemas Informáticos y Computación de la Universitat Politècnica de València (UPV), pertenecen al mismo grupo de investigación y tienen una amplia experiencia en evaluación de sistemas de inteligencia artificial. Quizá por eso se cuentan entre las poco más de 40 personas que OpenAI seleccionó en todo el mundo para probar su nuevo modelo de lenguaje.

El objetivo era encontrar fallas en el sistema durante los seis meses anteriores al lanzamiento, en marzo de 2023. “Ya desde GPT-3 nos han dado acceso siempre a sus sistemas de manera gratuita, a veces antes del lanzamiento, para hacer investigación”, indica Hernández-Orallo, que colabora con OpenAI desde hace cuatro años y destaca la buena comunicación entre la empresa y los investigadores que quieren analizar sus sistemas.

El año pasado, ese verano en que se rumoreaba la llegada del próximo GPT, el acercamiento se estrechó. Los investigadores de la UPV organizaron un taller dentro de la Conferencia conjunta internacional sobre inteligencia artificial, uno de los eventos de inteligencia artificial más prestigiosos del año, y allí conocieron a más gente de OpenAI. Recibieron su llamada en septiembre.

Noticia completa: El País

José Hernández-Orallo, profesor de la Universitat Politècnica de València e investigador asociado del Leverhulme: el español al que llamó Microsoft para diseñar el futuro de la IA

El investigador valenciano José Hérnández-Orallo, experto en la evaluación de inteligencia, forma parte del gran polo tecnológico de la Universidad de Cambridge.

Empecemos con un acertijo. El padre de Ana tiene cinco hijas: A, B, C, D y ¿___? Quizá usted lo ha resuelto a la primera, pero quien escribe estas líneas no ha estado tan rápido. La respuesta es Ana. «Yo le hice este juego a [el modelo de lenguaje] GPT3 hace unos meses y dijo A,B,C,D y Ana. Lo hizo bien», cuenta José Hernández-Orallo, profesor de la Universitat Politècnica de València (UPV) y en el Instituto Valenciano de Investigación en Inteligencia Artificial (VRAIN, por sus siglas en inglés).

«Un modelo de lenguaje es un modelo que simplemente, a partir de texto, te predice el texto que va a seguir», dice en referencia a uno de los proyectos en los que trabaja. «En el último año, GPT3 es de lo que más se ha hablado, es como el sistema estrella en estos momentos«, apunta el profesor. Pero lo importante, destaca, es que «por primera vez en la historia de la inteligencia artificial [en adelante IA] tenemos un sistema de propósito general; y eso es algo nuevo y radical. Ya no es un sistema que simplemente te permite clasificar imágenes o un sistema que te permite jugar al ajedrez. Es un sistema que, si eres capaz de ponerle bien una serie de palabras para decirle lo que quieres que te haga, es capaz de hacer muchas cosas».

Seguir leyendo: https://www.eleconomista.es/mercados-cotizaciones/noticias/11644112/03/22/El-espanol-al-que-llamo-Microsoft-para-disenar-el-futuro-de-la-IA.html

Fuente: El Economista

Un grupo de investigación de VRAIN UPV desarrolla un sistema capaz de detectar las emociones en redes sociales

Un grupo de investigación de Enginyeria del Llenguatge i Reconeixement deFormes (ELiRF), integrado en el Instituto Valenciano de Investigación en Inteligencia Artificial (VRAIN) en la Escuela Técnica Superior de Ingeniería Informática de la Universidad Politécnica de Valencia (UPV) ha desarrollado un software que integra diferentes modelos y tecnologías para la monitorización y análisis multilingüe de las redes sociales, capaz de interpretar la ironía y las emociones en los textos incluso en idiomas menos extendidos.

Seguir leyendo: https://www.consalud.es/saludigital/265/desarrollan-sistema-capaz-detectar-emociones-redes-sociales_101782_102.html

Fuente: Saludigital

A por una IA made in Europa: El Instituto VRAIN-UPV, reconocido como centro de excelencia por la Comisión Europea, participa en el proyecto TAILOR

Vrain UPV

El instituto VRAIN de la Universitat Politècnica de València (UPV), que ha sido reconocido por la Comisión Europea como centro de excelencia en investigación en inteligencia artificial (IA), participará en el proyecto europeo TAILOR, una iniciativa clave para el futuro de la misma en Europa.

La IA es una tecnología esencial para responder a muchos de los enormes desafíos a los que nos enfrentamos. Con gran impacto en la nuestra vida cotidiana, hoy es clave en la gestión y respuesta frente a la COVID19, y va a tener una incidencia significativa en todos los sectores empresariales. A todo ello ayudará a hacer frente el proyecto TAILOR.

Redes de centros de excelencia que potencien una IA ética y fiable

Recientemente aprobado por la Comisión Europea en el marco de la acción Towards a vibrant European Network of AI Excellence Centres (Hacia una red de centros de excelencia en IA), TAILOR tiene como principal objetivo el desarrollo de redes de centros de excelencia con el fin de impulsar la capacidad de investigación en Europa, aumentando así su condición como potencia investigadora en el ámbito de la IA y, de ese modo, fomentando su atractivo para científicos y nuevos talentos. A su vez, se espera que esta iniciativa contribuya al desarrollo de una IA ética y fiable, una marca made in Europe.

En cualquier caso, para aprovechar todas las oportunidades que brinda y minimizar sus riesgos, es necesaria una IA fiable, centrada en el ser humano y que genere confianza. En este sentido, Europa está dando importantes pasos para convertirse en el centro mundial de la IA confiable.

55 socios, 4 de ellos españoles

En TAILOR, impulsado por la red internacional CLAIRE -a la que pertenece la UPV-, participan un total de 55 socios europeos, tanto universidades como centros tecnológicos y empresas, referentes internacionales todos ellos en el campo de la IA. Entre ellos, se encuentra el Instituto VRAIN de la UPV, uno de los 4 integrantes español del consorcio junto al Instituto de Investigación en Inteligencia Artificial (IIIA) del Consejo Superior de Investigaciones Científicas (CSIC), la Universitat Pompeu Fabra y la Universidad de Málaga.

La peligrosidad de la escasa regulación de la IA

“La fiabilidad sigue requiriendo una importante investigación básica”, destaca Vicent Botti, director del Instituto VRAIN e investigador principal del proyecto en la UPV. “El propósito de TAILOR es construir una red sólida de investigación, que proporcionará la base científica para afianzar una IA responsable, fiable, segura y transparente. El comportamiento de las personas está regulado por numerosas leyes, sin embargo, los algoritmos están sujetos a muy pocas normas legales. Esto es inapropiado y peligroso, ya que los sistemas de IA interfieren cada vez más en nuestras vidas, a menudo sin nuestro conocimiento. Esto debería estar controlado y TAILOR contribuirá a ese control, a conseguir una IA digna de confianza”, añade.

TAILOR establecerá una hoja de ruta estratégica para el desarrollo de la IA confiable, apoyada en cinco programas de investigación básica. “Cada programa forma entornos virtuales de estudio con muchos de los mejores investigadores europeos de IA, que abordan los principales desafíos científicos identificados en la hoja de ruta”, apunta Botti. Así mismo, TAILOR impulsará un conjunto de mecanismos de apoyo a la innovación, la comercialización y la transferencia de conocimientos a la industria.

12 millones de presupuesto

El proyecto, financiado por el programa Horizon 2020 de la Unión Europea, cuenta con un presupuesto de 12 millones de euros y está coordinado por la Universidad de Linköping (Suecia).