La investigadora y especialista en lenguajes y sistemas informáticos reclama una regulación urgente de tecnologías con “muchos desafíos éticos”
Alicia Troncoso Lora, nacida en Carmona (Sevilla), lleva recibiendo reconocimientos desde el final de su formación universitaria, que transcurrió por Sevilla, Nueva York y California. Catedrática de Lenguajes y Sistemas Informáticos de la Universidad Pablo de Olavide, es ahora presidenta de la Asociación Española de Inteligencia Artificial (AEPIA). Defiende que esta herramienta tiene que ser entendida como “un proyecto de país” que incluya, además de la visión tecnológica, una perspectiva social, humanística, jurídica y ética. “Es imprescindible”, asegura.
Pregunta. Una definición básica de la inteligencia artificial (IA) hace referencia a sistemas y programas con capacidades propias de los humanos. ¿Nos sustituirán?
Respuesta. Es un miedo que todo el mundo tiene en su interior viendo los avances de la inteligencia artificial. Pero sustituir a una persona es complicado porque una persona tiene muchísimas cualidades que, hoy en día, no pueden tener las máquinas. No existen máquinas con sentido común. Que nos sustituyan está muy lejos, porque la inteligencia artificial que está avanzando ahora mismo es específica, es decir, que se construyen algoritmos y máquinas que aprenden para desempeñar unas tareas concretas. Si la tarea cambia, necesitas otra máquina u otro algoritmo, mientras que una persona, por sí sola, es multitarea: lo hace todo porque la inteligencia humana es generalista. Sí van a ejecutar determinadas tareas que hacen las personas.
A la máquina hay que decirle qué es el bien y el mal. Ella no lo sabe. Por sí sola no puede distinguir”
¿Pero podrán distinguir el bien del mal?
Una máquina hará lo que nosotros diseñemos. A la máquina hay que decirle qué es el bien y el mal. Ella no lo sabe. Por sí sola no puede distinguir, pero sí está en la ética de todo el sector —investigadores, desarrolladores, empresas y gobiernos—que esa inteligencia artificial se diseñe cumpliendo unos determinados requisitos para que luego no nos veamos envueltos en problemas relacionados con la ética.
¿Cuáles?
Hay muchos y están relacionados con la justicia y la transparencia. Los sistemas inteligentes van a tomar decisiones o ayudar a tomarlas. Por ejemplo, se pueden emplear para conceder créditos y hay que garantizar que actúe sin sesgos, porque ya se han visto algunos sistemas que actúan de forma discriminatoria. Los sistemas inteligentes deben garantizar la equidad, que no haya ningún tipo de sesgo ni discriminación. Es un gran desafío relacionado con la justicia. El otro, y sobre el que hay mucha investigación ahora mismo, es la transparencia: si van a tomar decisiones que afectan a las personas, tenemos que saber cómo funcionan. Si no conceden un crédito, que se pueda saber el porqué.
La inteligencia artificial ha pasado de ser una disciplina para expertos a convertirse en una herramienta que usan incluso los escolares, como ChatGPT. ¿Es beneficiosa?
Se están empezando a ver grandes beneficios y se verán mucho más. Hay aplicaciones para neuroprótesis que permiten distinguir colores a personas que llevaban 12 años sin ver o para permitir la movilidad de un brazo articulado solo con el pensamiento o para activar neuronas a partir de un recuerdo, que se relaciona con el alzhéimer. En un futuro no muy lejano, pueden ayudar en muchos problemas de salud.
Entrevista completa en El País