Conferencia de Directores y Decanos de Ingeniería Informática

Subtítulos en tiempo real y reconocimiento emocional: gafas inteligentes que mejoran la comunicación

Los audífonos o los implantes cocleares diseñados para personas sordas o con dificultades auditivas pueden ser, además de caros, poco accesibles o incómodos y, en algunos casos, no funcionar adecuadamente o no terminar de solventar las necesidades de los usuarios. En su búsqueda de una solución, Madhav Lavakare, estudiante de ingeniería informática en la Universidad de Yale, ha desarrollado un sistema que combina gafas inteligentes, subtítulos y funcionalidades de inteligencia artificial. 

A principios de este año lanzó oficialmente TranscribeGlass, la empresa detrás de su funcional innovación, unas gafas con capacidad para subtitular y traducir conversaciones en tiempo real. Ha trabajado en el proyecto, tal y como recoge Yale Daily News, desde hace siete años, cuando aún cursaba el instituto, y ha llevado a cabo siete versiones diferentes del prototipo aplicando sus conocimientos en hardware, ingeniería mecánica e impresión 3D.

El resultado de todos los años de investigación, trabajo y pruebas es TranscribeGlass, que transcriben conversaciones habladas y proyectan subtítulos sobre el cristal justo delante de los ojos. Las gafas no tienen cámaras, micrófonos ni altavoces, solo un pequeño proyector que proyecta los subtítulos directamente sobre el cristal. No obstante, el dispositivo requiere de la conexión con una aplicación móvil, de tal manera que genera los subtítulos a partir de las conversaciones captadas por el micrófono del teléfono.

La aplicación permite personalizar los subtítulos, tanto en lo que respecta al tamaño de la fuente como las línea de texto que se muestran a la vez, así como su ubicación en el campo de visión. Las gafas también cuentan con bluetooth, una batería con autonomía para 6 horas, y pesan menos de 40 gramos.

El precio del dispositivo es de 377 dólares, más una suscripción mensual de 20 dólares para acceder al servicio de transcripción y al sistema de reconocimiento del discurso. Actualmente TranscribeGlass sólo está disponible para sistema iOS, y en inglés, español, francés, chino, italiano, alemán, portugués, coreano, japonés y vietnamita.

Están pensadas para personas sordas y, principalmente, para quienes tienen pérdida auditiva y tienen dificultades para leer los labios o seguir una conversación en un entorno ruidoso. En este sentido, el foco principal de la compañía es la simplicidad funcional, esto es, perfeccionar el sistema para facilitar la comunicación de los usuarios.

Noticia completa: Reason Why

Ignacio Pineda, ingeniero informático por la UMA, recibe el Premio Extraordinario por el mejor expediente de su carrera

Ignacio Pineda Delgado ha recibido el Premio Extraordinario al Mejor Expediente de su carrera concedido por la Universidad de Málaga. Este joven lucentino, que ya consiguió una de las mejores notas en la Prueba de Acceso a la Universidad de la provincia de Córdoba en 2020 ha concluido una Ingeniería Informática con una brillantez extraordinaria. En su expediente, el mejor de su promoción, se contabilizan un total de 25 Matrículas de Honor.

El pasado lunes 30 de junio, recogía este Premio en Honor al Profesor José María Troya, que sólo reciben los alumnos que han culminado su carrera con el mejor expediente académico.

Noticia completa: Lucena noticias

Investigadores andaluces logran acelerar un 70% el entrenamiento de modelos de IA

Investigadores de Ingeniería Informática de la Universidad de Cádiz (UCA) han desarrollado un método que permite acelerar hasta un 70% el entrenamiento de modelos de inteligencia artificial (IA), sin pérdida de precisión, según ha informado la Consejería de Universidad, Investigación e Innovación, que ha financiado el proyecto junto a fondos FEDER.

La técnica, denominada REDIBAGG, ha sido diseñada para optimizar tareas de clasificación en sistemas de IA con grandes volúmenes de datos y su aplicación tiene potencial en sectores como la medicina, la industria o las finanzas, donde podría facilitar diagnósticos automáticos, detección de fallos o análisis de riesgos con menor consumo de recursos.

Cómo funciona

Según explican los investigadores en un artículo publicado en la revista Engineering Applications of Artificial Intelligence, REDIBAGG es una variante de bagging (abreviatura en inglés de bootstrap aggregating), un método de combinación de modelos muy utilizado para mejorar la precisión de los clasificadores en el contexto de la inteligencia artificial.

La herramienta crea múltiples subconjuntos a partir de la muestra original de los datos. Cada submuestra se usa para el aprendizaje de un clasificador base, y luego se combinan las predicciones para tomar decisiones más fiables. El método de remuestreo que utiliza bagging es bootstrap, una técnica estadística que genera submuestras aleatorias con reemplazo. Es decir, se crean nuevas colecciones de datos eligiendo ejemplos al azar del conjunto original, permitiendo que algunos se repitan y otros no.

Aunque bagging es eficaz, su principal inconveniente es el alto coste computacional. Cada modelo se entrena con una submuestra del mismo tamaño que el conjunto original, lo que ralentiza el aprendizaje y multiplica el consumo de recursos. Frente a esta limitación, los expertos han aplicado un nuevo sistema de remuestreo que genera subconjuntos más pequeños, pero representativos.

«En la era del big data, donde se trabaja con enormes volúmenes de datos, reducir los tiempos de aprendizaje es de agradecer, sobre todo si se rebajan hasta un 70% respecto al método original», ha destacado Esther Lydia Silva, autora principal del estudio.

Noticia completa: Diario de Sevilla

Un estudio de la UPV y el King’s College de Londres advierte de los riesgos de los chatbots creados con IA generativa para revelar datos personales

Los autores de este estudio, llevado a cabo con 502 personas, alertan sobre la facilidad de explotar la IA generativa para crear chatbots que manipulen a usuarios para que revelen datos sensibles

Las principales conclusiones de este artículo, fruto de un proyecto de INCIBE, se presentarán del 13 al 15 de agosto en el 34 Simposio de Seguridad Usenix en Seattle (EE.UU)

El Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV) ha demostrado en un estudio los riesgos que entrañan los chatbots generados con modelos de lenguaje de gran escala (LLMS) e IA generativa, como ChatGPT, Bard, Llama o Bing Chat.

El estudio advierte de la facilidad con la que se pueden explotar los LLM para crear chatbots maliciosos con el objetivo de manipular a las personas para que revelen información personal, y los pocos conocimientos técnicos que se necesitan para lograrlo. El estudio lo ha llevado a cabo el investigador de VRAIN y catedrático de la UPV, José Such, junto con Juan Carlos Carillo, colaborador de VRAIN-UPV y Xiao Zhan y William Seymour, del King’s College London. A través de un ensayo aleatorio y controlado con 502 participantes, el estudio pone de manifiesto que las IAs conversacionales utilizadas de forma maliciosa extraen significativamente más información personal que las IAs conversacionales benignas.

Amenazas y recomendaciones Bajo el título

«Una IA conversacional basada en modelos de lenguaje maliciosos hace que los usuarios revelen información personal”, el artículo presentará sus conclusiones en el 34 Simposio de Seguridad Usenix (Usenix Security Symposium) que se celebrará del 13 al 15 de agosto en Seattle (EE.UU). En él se subrayan las amenazas a la privacidad que plantea este nuevo tipo de chatbots maliciosos basados en LLM y se ofrecen recomendaciones prácticas para orientar la investigación y prácticas futuras.

El trabajo se enmarca en el proyecto “SPRINT: Seguridad y Privacidad en Sistemas con Inteligencia Artificial” (C063/23), y forma parte del convenio entre INCIBE y la Universitat Politècnica de València incluido en los Proyectos Estratégicos en España, en el marco del Plan de Recuperación, Transformación y Resiliencia, con la financiación de los Fondos Next Generation-EU .

Los humanos son los que utilizan de manera maliciosa la IA

Tal y como explica José Such “nosotros lo que hemos hecho es meternos entre la interfaz del chatbot y el LLM que hay detrás, explotando las capacidades de los LLM de manera maliciosa, demostrando que con diferentes estrategias se puede conseguir que converse con el usuario de manera que lo engañe y lo manipule”. Y destaca que “es interesante ver que con algunas estrategias, los usuarios se dan cuenta de que el chatbot está haciendo cosas raras y preguntando cuestiones extrañas, pero con las estrategias que explotan la naturaleza social de las conversaciones, no se dan cuenta, le siguen la conversación de forma natural, y pueden llegar a revelar información muy sensible”.

Con los resultados de este estudio “por un parte, demostramos que un chatbot se puede construir de manera maliciosa explotando el LLM que tengan por detrás y, por otra parte, que no es la IA la que decide comportarse de manera maliciosa y manipular a los humanos, sino que es un humano el que le hace comportarse a la IA de manera maliciosa”.

Así, añade José Such: “Si tú le dices a la IA que le pregunte datos personales al usuario, no lo va a hacer, te dice que eso no está bien, pero si engañas a la IA (por ejemplo le dices que eres un detective privado y necesitas los datos para tu caso) entonces sí le va a preguntar datos personales al usuario de la forma que tú le digas.”

Se necesita muy poco para que engañen

Otro de los hallazgos importantes de esta investigación es que “son muy pocos los conocimientos técnicos que se necesitan para indicarle al modelo que se comporte de manera maliciosa. No se necesita saber ni programación, ni ser un hacker, simplemente escribir y darle las instrucciones de lo que tiene que hacer el LLM. Nosotros anonimizamos todos los datos y bajamos y probamos todo el proceso a nivel interno en la universidad para no proporcionar ningún dato personal a ChatGPT o ninguna tercera parte, pero la facilidad con la que se consigue que el LLM se comporte de forma maliciosa y la facilidad con la que los usuarios revelan información sensible es muy importante para evaluar el riesgo”, subraya José Such.

Y es que un chatbot de estas características, ya sea en manos de un actor malicioso con muchos recursos, bien un hacker, un ciberterrorista o un estado muy autoritario; o simplemente alguien con malas intenciones y un conocimiento mínimo de uso de LLMs o chatbots y con las preguntas adecuadas a formular a un LLM constituye un riesgo para la privacidad de las personas.

Proyectos estratégicos de INCIBE

INCIBE tiene como misión particular el impulso de las capacidades en ciberseguridad de la sociedad y la economía en general a través de un programa que persigue la promoción y generación del conocimiento y la transferencia del mismo al sector productivo, especialmente estableciendo sinergias entre los ámbitos sociales y económicos de la ciberseguridad. Para desarrollar este propósito se lanzó en 2018 el programa de ayudas para la excelencia de los equipos de investigación avanzada en ciberseguridad. En 2022, en concreto el pasado 5 de diciembre, para dar continuidad a esta estrategia se publicó la invitación pública para la colaboración en la promoción de Proyectos Estratégicos de Ciberseguridad en España.

Estas iniciativas se engloban dentro del Programa Global de Innovación en Seguridad, contemplado en el Plan de Recuperación, Transformación y Resiliencia (PRTR) a través del Componente 15. Inversión 7 Ciberseguridad: Fortalecimiento de las capacidades de ciudadanos, pymes y profesionales e impulso del sector.

Los proyectos estratégicos son una forma de aportar soluciones concretas a algunos de los mayores desafíos científicos y tecnológicos de nuestra sociedad y economía. Están destinados a impulsar la aplicación de los resultados de la investigación y la innovación, combinando nuevas formas de gobernanza y colaboración, así como involucrando a la ciudadanía y al tejido productivo y social.

Fuente: Universitat Politècnica de València 

José Manuel Colmenar, nuevo director de la ETSII de la URJC

ras la victoria de Abraham Duarte en las elecciones a rector, celebradas hace un par de meses, este tuvo que abandonar su puesto como director de la ETSII.

Al quedar el puesto vacante, se celebró un proceso electoral con un único candidato, que ha resultado elegido por unanimidad (sin votos blancos ni nulos). Se trata del Catedrático de Universidad en Ciencia de la Computación e Inteligencia Artificial, José Manuel Colmenar.

Según explica Eduardo García Pardo, secretario académico de la Escuela, el nuevo director “presenta un proyecto continuista con el mismo equipo directivo a diferencia de una persona”. A quien se refiere, con pesar, el profesor García Pardo es a la profesora María Eugenia Castellanos, anterior subdirectora de Investigación y Relaciones Internacionales de la ETSII y recientemente fallecida tras una dura enfermedad. La profesora Castellanos, que permanece en el recuerdo de todos sus compañeros, será sustituida en el equipo directivo por el profesor Jesús Sánchez Oro.

El nuevo director enfoca su mandato con algunas líneas maestras como la adaptación de los títulos al nuevo Real Decreto 822/2021, mejorar las tasas de egresados de la ETSII intentando que los estudiantes empiecen a trabajar en las empresas una vez terminen el grado (a menudo las compañías se llevan antes a los estudiantes y tienen que acabar más tarde) y continuar con las colaboraciones con otras escuelas y facultades de la universidad.

Por otro lado, la escuela se encuentra en crecimiento y el nuevo director pretende, gracias a las nuevas infraestructuras, centralizar la presencia de los docentes de la ETSII en un mismo edificio, en el campus de Móstoles.

Fuente: Universidad Rey Juan Carlos

Foro UNIR sobre ‘IA y neurociencia: ética, regulación y retos en el equilibrio entre innovación y seguridad’

El Foro UNIR sobre ‘IA y neurociencia: ética, regulación y retos en el equilibrio entre innovación y seguridad’, celebrado en el marco del ciclo “Las Fronteras Actuales de la Transformación Digital en el Mundo”, reunió a expertos de primer nivel para abordar uno de los debates más urgentes de nuestro tiempo: cómo avanzar en inteligencia artificial sin comprometer la dignidad humana. La convergencia entre neurociencia, tecnología inmersiva y algoritmos plantea oportunidades sin precedentes, pero también desafíos éticos y regulatorios que Europa debe afrontar con decisión.

Desde la neurociencia aplicada hasta los dilemas éticos y regulatorios, el encuentro abordó los desafíos de una tecnología que avanza más rápido que las leyes. La privacidad mental, los neuroderechos y el impacto social de la IA centraron un debate que exige respuestas urgentes. Europa, con su enfoque humanista, busca liderar este nuevo paradigma.

El evento contó con la participación de Mariano Alcañiz, director fundador del Laboratorio de Neurotecnologías Inmersivas (LabLENI) y catedrático de Ingeniería Biomédica en la Universitat Politècnica de València; José Cepeda, europarlamentario y director del ciclo “Las Fronteras Actuales de la Transformación Digital en el Mundo” de UNIR; y Jorge Heili, periodista y moderador del encuentro.

Mariano Alcañiz abrió el debate con una exposición detallada sobre cómo la neurociencia y la realidad extendida (XR) se han convertido en herramientas claves para comprender el comportamiento humano. “La XR actúa como un laboratorio para el cerebro que nos permite entender mejor nuestros procesos mentales y nuestros comportamientos en diferentes situaciones, pero sin los riesgos del mundo real”, explicó.

Desde los años 90, su equipo ha utilizado entornos virtuales para tratar fobias como la claustrofobia, sentando las bases de la terapia de exposición con realidad virtual. Hoy, gracias a la inteligencia artificial, estos entornos se han sofisticado hasta convertirse en sistemas capaces de detectar síntomas de depresión o estrés mediante el análisis de datos psicofisiológicos en tiempo real.

“La IA ha sido un cambio radical, un game changer absoluto”, afirmó Alcañiz. Su laboratorio combina algoritmos de machine learning con sensores cerebrales y realidad virtual para desarrollar tecnologías empáticas que respeten la autonomía del usuario. Esta convergencia permite diseñar intervenciones más eficaces en salud, educación y bienestar digital.

Tecnología centrada en el ser humano

Uno de los ejes del foro fue la necesidad de diseñar tecnologías centradas en el ser humano. “La neurociencia nos proporciona guías para crear una tecnología más intuitiva, menos invasiva y adaptada a nuestras capacidades cognitivas”, señaló Alcañiz. Conocer los límites de la atención o la memoria permite evitar sobrecargas cognitivas y anticipar efectos no deseados, como la ansiedad o la adicción.

José Cepeda, desde su experiencia como legislador europeo, subrayó la importancia de incorporar esta visión humanista en la regulación tecnológica. “Queremos que el ser humano sea el protagonista, por encima de cualquier circunstancia”, afirmó. En este sentido, destacó el papel pionero de Europa en la protección de datos personales y la necesidad de avanzar hacia una legislación específica sobre neuroderechos.

Uno de los conceptos más innovadores del foro fue el de privacidad mental, definido como la protección de pensamientos, emociones e intenciones antes de que sean expresadas. “Ya no se trata solo de proteger datos personales tradicionales, sino potencialmente de proteger la actividad cerebral”, advirtió Alcañiz.

Este tipo de información, obtenida mediante implantes cerebrales o test cognitivos en realidad virtual, requiere estándares éticos y de seguridad aún más estrictos. “Debemos tratar la información cerebral como un material altamente sensible, con protocolos similares o incluso superiores a los de los datos médicos”, añadió.

El consentimiento informado, la anonimización de señales neuronales y el procesamiento local de datos son algunas de las medidas propuestas para garantizar esta privacidad. Sin embargo, Alcañiz fue claro: “El marco ético o jurídico europeo actual aún no está preparado para esto”.

Noticia completa: UNIR