Conferencia de Directores y Decanos de Ingeniería Informática

Mensajes etiquetados xataka

Hay tantos alumnos que quieren estudiar informática que las universidades ya no encuentran profesores

La Comunidad Valenciana se está quedando sin profesores de Informática. Tanto que hay decenas de centros que no han empezado a dar clase tras un mes de haberse iniciado el curso porque simplemente no hay maestros disponibles.No sólo sucede en esta región: en Aragón la falta de 38 profesores ha hecho que los estudiantes de algunos grados medios solo reciban 5 horas lectivas de las 30 semanales. Y tampoco es un problema exclusivo de la educación secundaria o la FP.

Las matriculaciones en ingenierías han crecido tanto en los últimos años que las universidades tampoco están siendo capaces de contratar tantos profesores de esta especialidad para satisfacer la alta demanda. No es país para profesores.

Demasiada demanda. Según estadísticas del Ministerio de Universidades, los grados técnicos no paran de brotar como setas en España. Y la asignatura de informática ha pasado de impartirse en 19 centros en 2015 a hacerlo en 48 universidades públicas y privadas del país. Eso ha hecho que los alumnos de Matemáticas hayan crecido un 39,5%  y de informática un 26,7%.

El motivo no sólo lo encontramos en un repunte notable de matriculados en grados de Informática, sino en el hecho de que esta asignatura también se incluye en muchos otros grados nuevos y especialidades que han surgido en los últimos años, como Inteligencia Artificial, Ciberseguridad, Ingeniería Multimedia o Diseño de Videojuegos, lo que ha impulsado la escasez de profesores aún más.

Noticia completa: Xataka

Más Inteligencia Artificial y menos Word. Otra informática en los institutos es posible ( y necesaria)

Artículo de opinión de Antonio Ortiz, fundador de Xataka, en Retina sobre ¿qué competencias digitales son necesarias para que los adolescentes de hoy puedan ser ciudadanos con una base para desenvolverse en el futuro?

Quizás es que somos demasiado atrevidos los que nos metemos a opinar de educación sin ser expertos en el tema. Probablemente, haríamos mejor atendiendo los sensatos argumentos de quienes defienden que la educación obligatoria debe ofrecernos una base, unos fundamentos desde los que abordar otras disciplinas, cambios e innovaciones y no intentar acertar con las necesidades concretas que los chavales tendrán dentro de una década. A pesar de todo ello, vengo a hacer una defensa fuerte de la asignatura de informática en la educación obligatoria, una reclamación de que nos volvemos a equivocar en el entendimiento de lo que supone lo tecnológico y digital.

Mis argumentos a favor de ella no son muy originales, de hecho se parecen mucho a los que la Sociedad Científica Informática de España (SCIE) y la Coordinadora de Directores y Decanos de Ingeniería Informática (CODDII) planteó en 2018. Antes de llegar a ellos sería conveniente deshacerse de un mito, el del “nativo digital”, esa creencia en que los niños y niñas nacidos en las últimas décadas están tan acostumbrados al uso de dispositivos y software que no tienen nada que aprender en informática y competencias digitales. Es, claramente, un error de perspectiva, los preadolescentes y adolescentes suelen ser muy avanzados en digital en los terrenos de sus intereses personales —la socialización y el entretenimiento—, pero lo que necesitamos que aprendan va mucho más allá de lo que utilizan para comunicarse, reflejar su identidad personal y pasar el rato.

Seguir leyendo: https://retinatendencias.com/vida-digital/mas-inteligencia-artificial-y-menos-word-otra-informatica-en-los-institutos-es-posible-y-necesaria/

Fuente: El País Retina

En Xataka: «El adiós de la asignatura de Informática es un problema: los jóvenes tienen bajas competencias digitales»

La nueva ley educativa -octava modificación desde 1980-, la Ley Orgánica de Modificación de la LOE (LOMLOE), no incluye en su redacción la asignatura de Tecnologías de la Información y la Comunicación (TIC), lo que ha hecho que varias asociaciones de ingenieros informáticosprofesores y estudiantes hayan iniciado una campaña para que el Gobierno la vuelva a recoger.

Esta asignatura era la única relacionada con informática que se impartía hasta el momento en Bachillerato y, aunque no era obligatoria, sí aparecía citada expresamente en la anterior norma, la LOMCE, entre las que las comunidades autónomas y los centros podían elegir ofrecer como materias específicas, en una lista en la que también estaban Segunda Lengua Extranjera, Anatomía Aplicada o Análisis Musical, entre otras.

Seguir leyendo: https://www.xataka.com/otros/adios-asignatura-informatica-problema-jovenes-tienen-bajas-competencias-digitales

Fuente: Xataka

Informática sigue siendo una de las carreras que suponen mas retos para el alumnado: reflexiones sobre la tasa de abandono

La dedicación que exige una carrera universitaria no siempre coincide con los tiempos y demandas del mercado. El caso de la carrera de informática es un claro ejemplo. Es grande el porcentaje de alumnos que decide abandonar sus estudios frente al amplio y tentador repertorio de ofertas que se les presenta, incluso antes de llegar a la mitad de su carrera.

Daniel Bautista tiene 28 años y es programador. Hace casi diez años empezó la carrera de grado de Ingeniería en la Universidad Autónoma de Barcelona, pero dos años más tarde la abandonó. “Estudiar por la vía oficial del sistema no ha sido nunca mi punto fuerte”, explica Bautista, y agrega: “Además, necesitaba dinero, porque mi familia no podía seguir pagando una carrera de 2500 euros al año”. Él trabajó durante un tiempo como vendedor en una tienda de electrodomésticos, después en otra de ropa pero, mientras estaba en el segundo año de la carrera, le llegó su primer oferta para un puesto junior como programador.

“En ese momento pensé que, si mi objetivo era trabajar como programador y me estaban ofreciendo ese trabajo, ¿Para qué iba a perder el tiempo”, dice Bautista, aunque en verdad intentó darle una última oportunidad a la carrera antes de abandonarla por completo. “Cuando empecé a trabajar como programador quería seguir estudiando para conseguir el título y poder escalar laboralmente. Intenté combinar la jornada completa de trabajo con la carrera online, pero era demasiado demandante, con entregas obligatorias cada semana”.

Daniel Bautista no era el único que tomaba esta decisión en ese momento. Según los datos del Sistema Integrado de Información Universitaria (SIIU), en el 2011-2012 la tasa de abandono en la carrera de informática era del 51,67%. Casi una década más tarde, las cifras recogidas por el Informe U-Ranking de la Fundación BBVA de 2019, no describen un panorama muy distinto: con un porcentaje del 42,9%, del cual un 16,9% representaba un cambio de carrera, la tasa de abandono de la carrera de Informática sigue siendo una de las más altas en España. Pero ¿por qué una de las carreras con más presente y futuro en el mercado laboral es todavía hoy una de las más abandonadas por los estudiantes?

>> Seguir leyendo el artículo aquí<<

Fuente: Xataka

Especial en Xataka sobre la carrera de ingeniería informática: hablan los profesionales

A caballo entre la efervescente placidez del instituto y el frío mundo laboral se encuentra la universidad, un camino que deciden recorrer miles de alumnos cada año. Este periodo de la vida constituye todo un reto y a más de uno se le acaba haciendo bola, pero lo «peor» viene después: la salida de la universidad al mundo laboral supone para muchos una bofetada de realidad. Aunque sucede en muchas carreras, hemos acotado este pequeño especial al mundo de la informática y la programación.

Hemos charlado con cinco ingenieros informáticos que ya salieron de la universidad hace unos años y emprendieron su camino, llegando a convertirse en referentes del sector en España. ¿Está bien orientada la carrera? Esto es lo que opinan los profesionales.

Breve presentación de los profesionales

Antes de empezar nuestra entrevista, procedemos a presentar a quienes han decidido aportar su visión en esta reflexión sobre la informática en base a su experiencia como estudiantes y su desempeño profesional.

Bernardo Quintero es el fundador de VirusTotal, una web que analiza gratis archivos y páginas web, adquirida por Google pero que siguen trabajando desde Málaga.

Alicia Asín es cofundadora y CEO de Libelium, una empresa especializada en el Internet de las Cosas. En 2018 ganó el premio de mujeres innovadoras de la Comisión Europea por su labor al frente de la multinacional zaragozana.

Lorenzo Martínez es el CTO y fundador de Securízame, una empresa especializada en informática forense y seguridad que ofrece servicios de formación a profesionales.

Tamara Hueso es ingeniera informática especializada en Ciberseguridad, actualmente trabajando en la consultora Deloitte.

Para terminar, Juan Lupión es CTO de The Cocktail, una compañía que ofrece servicios de consultoría en transformación digital para grandes empresas. Hechas las presentaciones, es momento de hacer las preguntas.

>> Para continuar leyendo el artículo haz clic aquí.

De qué serán capaces la inteligencia artificial y el machine learning en 10 años: Xataka pregunta a expertos

Reportaje en Xataka con los expertos en IA

Parece que el término Inteligencia Artificial no se nos cae de la boca desde hace un par de años, pero lo cierto es que fue en 1956 cuando un profesor universitario, John McCarthy, lo acuñó en una coferenecia académica. Aunque las Leyes de Turin y de Asimov son de 1950, habría que esperar 6 años para acuñar este término y referirse a ese conjunto de tecnologías con las que se pretende que las máquinas sean inteligentes.

Desde entonces (han pasado más de 6 décadas), los avances han sido llamativos: ordenadores capaces de ganar a campeones de ajedrez, máquinas que aprenden solas, coches que se conducen solos…

Pero, ¿qué será realmente la Inteligencia Artificial capaz de hacer dentro de 10 años? ¿Seguiremos llamando Inteligencia Artificial a la Inteligencia Artificial? ¿Qué hay de realidad y qué de ciencia ficción o esperanza en lo que se dice sobre estas tecnologías?

Hemos hablado con varios expertos en la materia: Nuria Oliver ingeniera en telecomunicaciones y doctora por el Media Lab del Instituto Tecnológico de Massachusetts, Richard Benjamins, Data & IA Ambassador de Telefónica, Andres Torrubia, ingeniero y CEO de Fixr y Pedro Larrañaga, Catedrático de Ciencias de la Computación e Inteligencia Artificial de la Universidad Politécnica de Madrid. Esto es lo que nos han contado.

Por qué es difícil hacer estos pronósticos

Si hacer predicciones a futuro es difícil, hacerlo sobre una tecnología como la Inteligencia Artificial se antoja complicada incluso para los propios expertos que trabajan en su desarrollo. Para entenderlo un poco mejor, Andrés Torrubia explica que todos los avances que estamos viendo a día de hoy provienen de la disciplina del deep learning o aprendizaje profundo. Una materia que, hace precisamente 10 años, “no funcionaba a nivel práctico. Esto nos da una visión de la complejidad de hacer predicciones a futuro, porque si hace 10 años me hubieras hecho esta misma pregunta, te hubiera contestado que estaba atascado”.

Por eso, los expertos que hemos consultado prefieren, como punto de partida, hacer un repaso de lo que se ha conseguido en esta década para intentar vislumbrar de qué será capaz en unos años.

Durante este tiempo, la tecnología ha aprendido a reconocer objetos y caras, a realizar análisis predictivos (que se aplican en anuncios o en medicina) o a generar juegos (tipo Pokemon go). Todos estos son modelos predictivos, pero también hay modelos generativos, los que son capaces de crear algo: escribir, pintar… O inventar caras de personas, por ejemplo.

La conducción autónoma será técnicamente viable

Por eso, y subrayando que es muy difícil de saber qué será capaz de hacer la tecnología en el futuro porque, Nuria Oliver desgrana que si seguimos avanzando en las mismas áreas de los últimos 5 años (reconocimiento de patrones en video, texto, imágenes y audio, es decir, en datos no estructurados), la conducción autónoma será realidad desde el punto de vista técnico. “Tendremos las habilidades técnicas para tener una conducción autónoma segura, aunque hay otros factores no tecnológicos que determinarán si es realidad o no en el mercado”, avanza.

Richard Benjamins ahonda en el hecho de que, en estos momentos, los coches ya son capaces de reaccionar sobre lo que ven los sensores y lo que han aprendido. “Pero en el futuro podrán predecir los comportamientos de otros coches, conducidos por coches y personas”. Un componente que no está presente hoy, pero sí en el futuro, “imitando lo que hacemos los humanos”-

Cuando se habla de conducción autónoma, ésta se dividen en 5 niveles. Andrés Torrubia explica que si el nivel 5 es el de máxima autonomía, en 10 años muchas ciudades ya estarán en el nivel 4 (que aún sigue exigiendo que un humano lleve las manos en el volante). “A nivel 5 no se llegará por cuestiones puramente técnicas”, avanza, salvo en entornos muy cerrados y controlados.

Diagnósticos, medicina personalizada y moléculas bajo el prisma de la IA

Medicina será, según estos expertos, otra de las áreas en las que más avances veremos. Aunque hoy en día sigue es una de las temáticas de las que más se habla, según Andrés Torrubia aún no está desplegada con todo su potencial, por lo que cuando este se produzca veremos importantes adelantes. “Hoy ya está ayudando en el diseño de fármacos, pero las moléculas tienen que pasar por ensayos clínicos. La IA diseñará moléculas, pese a que, con razón, sigue siendo un sector muy regulado”.

Así pues, será un avance que irá lento “porque se tiene que validar muy bien”. Pero en el diseño de tratamientos, en el diagnóstico será cada vez más común que la Inteligencia Artificial se aplique a temas de imágenes y radiografías. Algo en lo que coincide Benjamins. “Seguro serán diagnósticos médicos muy buenos, incluso mejores que los realizados por los propios médicos expertos. Y es algo que ya se hace”. Pero, según su visión, la verdadera aportación a diez años vista será que también se podrá explicar cómo se ha llegado a este diagnóstico. Aunque ahora el Machine Learning y la IA pueden hacer estos diagnósticos, es muy difícil explicar este diagnóstico, tanto al profesional como al particular. “En 10 años sí que se podrá explicar. Tanto a nivel general como en casos concretos”, augura este experto.

La Inteligencia Artificial también ayudará a sugerir tratamientos. Según este experto, en 10 años lo veremos muy desplegado y esto ayudará a la eficacia del médico. “Será una herramienta, no sustituye a este profesional”, subraya.

Eso sí, según Torrubia, no deberíamos dejar a la IA dejar actuar en muchas facetas sin supervisión humana “porque la tecnología tiene limitaciones”.

Nuria Oliver, en este punto, considera que, como en el tema de la conducción, serán otros factores los que determinen si realmente llegaremos a usar tanto la IA en el campo de la salud. “Generemos muchos datos de nuestra salud, y cada vez más. Todas las pruebas médicas son digitales, secuenciamiento de ADN, informes médicos y radiografías. Es una gran fuente de datos no estructurados que son los que la IA puede interpretar y encontrar patrones. En radiología está ya en los primeros resultados. Los algoritmos ya pueden detectar tumores de diferentes tipos con una precisión superior a la de un radiólogo», expone.

Sin embargo, eso no quiere decir que toda la medicina del futuro se base en lo que diga la Inteligencia Artificial. «No es algo sencillo porque una única prueba médica no tiene la respuesta y tener un diagnóstico sino que se necesitan varias pruebas, pero los algoritmos nos ayudarán a avanzar en este campo”.

Lenguaje, escritura y otras comunicaciones

La IA se desarrollará tanto en los próximos años que seguramente nos cueste distinguir cuándo nos estamos comunicando con un humano y cuándo con una máquina.

Oliver asegura que una de las grandes promesas que se ve son las capacidades de interactuar con naturalidad a la tecnología. Es decir, hablarle a la tecnología y que nos entienda. “Ahora lo empezamos a poder hacer con asistentes y teléfonos. Cada vez irá mejorando más, porque hay muchas cosas que no entienden. El progreso en procesamiento del lenguaje natural será grande”, asegura esta experta.

Para eso, Andrés Torrubia explica que la tasa de acierto debe ser superior al 98%. “Un 90% supone que en una de cada 10 palabras falla. Y a la mínima los asistentes no nos entienden. Pero en 10 años no, la interacción va a ser mucho más natural”, avanza este experto. Tanto que, en lugar de tener que adaptarnos nosotros a ellos serán ellos los que estén adaptados a nosotros.

Así que, como dice Richards, Google Duplex estará mucho más extendido sobre más dominios y podrán tener un lenguaje natural, tener una conversación con una máquina.

Pero esta interpretación del lenguaje natural no será solo oral, sino también escrito. Según Torrubia, las máquinas del futuro serán capaces de escribir y hacerlo bastante bien. “Ya escriben un comentario de texto, pero me atrevería a decir, siendo muy aventurado, que escribirán historias coherentes y largas”, asegura.

La personalización de la educación

Para Nuria Oliver otra área en la que la IA avanzará mucho en los próximos 10 años es todo lo que tiene que ver con educación. “En China ya están realizando experimentos, utilizando IA para tener educación personalizada y adaptar los curriculus a cada niño”, explica.

Aunque habrá que ver los resultados que estos experimentos ofrecen, Oliver no duda de que es un área de oportunidad. “Nos permite personalizar la educación y eso ahora mismo no es viable. Sabemos que los niños aprenden con diferentes estilos, ritmos y técnicas y hay un profesor cada 30 alumnos. Es muy difícil ofrecer esa personalización. Pero con IA sí se puede, además para la para detección temprana para dificultades como dislexia o discapacidad para que desaparezca este concepto porque se compense con la IA”.

¿Sesgos? ¿Qué sesgos?

Tanto Torrubia como Richards explican que los sistemas de Inteligencia Artificial se basan en correlaciones, en búsqueda de patrones. Y ésa es, precisamente, una de las grandes diferencias con la Inteligencia Humana y lo que acaba provocando algunos problemas, como los conocidos sesgos. “Las personas diferenciamos correlaciones de causa-efecto, pero las máquinas no”, ahonda Torrubia. Por eso los sistemas fallan y tienen sesgos y están mal configurados y refuerzan sesgos negativos. «Es lo que han visto y no entienden las relaciones causa efecto a día de hoy”.

Por eso, un área activa de investigación en los avances de IA en datos son las abordar las limitaciones de los sistemas existentes, como la discriminación y sesgos. “La aspiración es que al usar datos estos algoritmos no sufran los sesgos que tenemos los humanos”, detalla Oliver. “Nos damos cuenta de que los datos no son un reflejo objetivo de la realidad, sino que están sesgados. Y si le enseñas a un algoritmo esos sesgos, los puede maximizar”, avisa.

Pero, la buena noticia es que, según Benjamins, el tema de la discriminación y sesgos de datos estará resuelto en 10 años. Habrá muchas herramientas que podrán detectar los sesgos. “Será como una ingeniería y se podrán identificar muy bien y eliminar”, avanza. En su opinión, actualmente el problema a veces es que puedes tener un conjunto de datos en los que no esté establecido la raza, pero sí que tenga esos sesgos. “Quizá en 10 años este tema también esté resuelto”.

Dame datos y te daré personalización

Nuria Oliver incide en este punto que toda la IA se basa en datos. Los modelos más prometedores y los comerciales de más éxito son redes neuronales entrenadas con cantidades ingentes de datos. Para aplicar estas técnicas de IA en nuevas áreas como medicina y educación o justicia, lo primero es tener datos. Los algoritmos aprenden a partir de datos que se suponen que refleja de manera objetiva lo que quieres modelar.

“A partir de esos datos, si son suficientes para cada persona, puedes construir un modelo especifico a cada persona. Y adaptarte a esa persona. Ya hay modelos de personalización en los sistemas de recomendación en base a tus propios datos y comportamiento. Es un área inmensa la personalización y forma parte de la estrategia core de la mayoría de las empresas tecnológicas, sobre todo si tienen servicios que interaccionan con las personas. La clave es como aplicarlas en sectores no puramente digitales”, detalla esta experta.

Pero no son los únicos campos donde la aplicación de la IA es un reto. Para Andrés Torrubia también la implementación en robots, que hasta ahora no se ha beneficiado mucho de la IA, será un campo de desarrollo. “Hay muchas tareas del día a día aunque sean menos noticiable”. Un buen ejemplo es Amazon Go, que te reconoce cuando entras y coges el producto. Aunque de momento es un prototipo, Torrubia asegura que el llegar a que la IA pueda saber cuánto cobrarte por el peso de un producto concreto es un desafío brutal, sobre todo para implementarlo a escala. “Pero lo conseguiremos. Como que Zara te permita probarte las cosas virtualmente en tu casa y que te sugiere la ropa en función de tus gustos y de lo que tienes”, avanza.

Además, este experto también confía en los resultados que pueden cosechar, de aquí a 10 años, algunos de los prototipos de investigación, como que escriba una novela entera tipo Harry Potter. O algoritmos que inventen una película entera. “Hay temas más distópicos como la generación de fake news que se podrá hacer a escala y eso existirá, tanto en texto como en vídeo”, aventura.

No es lo que haga, es lo que debería hacer

Según Pedro Larrañaga, todo esto se puede resumir en tres grandes puntos

  • Creará más trabajos de los que destruya.
  • Ayudará a los humanos en un buen número de trabajos.
  • Posibilitará un mundo más justo y con más posibilidades para la gente pobre que sea capaz de esforzarse en el estudio deje de serlo y mejore en sus condiciones de vida.

Y ese último melón es el que, precisamente, abren también algunos de estos expertos con los que hemos hablado. Nuria Oliver asegura que el desarrollo tecnológico es mucho más complejo que los algoritmos. “Debe estar contextualizada en una realidad y con impacto en la sociedad y en la vida de millones de personas. No se puede desarrollar de manera aislada. Hay un componente humano. No es solo capacidad técnica para ser más eficiente, sino también empatía, garantía de justicia”.

Es lo que ella denomina FATEN (Justicia, Autonomía, Confianza, Educación y No Maleficencia, por sus siglas en inglés). “Más allá de desarrollo de nuevos algoritmos debemos hacerlo en marco FATEN; si no, no será progreso. No toda innovación es progreso. Por eso debemos asegurarnos que no está discriminando, que no va a aumentar la diferencia entre ricos y pobres, o que solo funciona para una raza. Este marco debería ser donde hagamos el desarrollo”.

O, como dice el experto de Telefónica, debe haber una concienciación no solo de las oportunidades, sino también de los desafíos, por lo que debería haber muchos debates y conversaciones a diferentes niveles. “La Comisión Europea sobre confianza de la IA, pero hay más temáticas, responsabilidad, también en el plano jurídico, del trabajo si las máquinas van a quitar y cómo se sostiene el estado de bienestar. Hay mucho debate. La toma de decisiones autónoma en la administración pública afecta a las personas. No estamos preparados para que pase a gran escala. Necesitamos coger más experiencia y regulación para poder evitar que pasen cosas que o queremos”.

Además, considera que hay que trabajar en evitar la concentración de datos en pocas compañías que tienen mucho dinero. “El riesgo es que la mejor tecnología esté en manos de muy pocos y tengan el poder”, advierte.

La IA no tiene superpoderes

Seguramente la IA tenga mucho potencial de desarrollo, pero hay cosas que no será capaz de hacer.

¿Cuáles? El catedrático de la Complutense asegura que la respuesta a esto se relaciona con la paradoja de Moravec , “es decir por qué la IA hace fácil lo difícil) (para un humano) y viceversa. Al parecer el esfuerzo necesario para copiar cada habilidad humana es proporcional a la antigüedad con que ésta apareció en nuestro árbol genealógico. El “amor”, la “creatividad”, la “empatía” probablemente sean aspectos del ser humano que le van a costar incorporar a un sistema de IA”.

Para Richard Benjamins, casi todo el éxito de la IA se basa en aprendizaje automático supervisado con redes Machine Learning. “Pero si ves como aprende un bebe, no sabe nada, observa, interactúa y recibe feedback y 18 meses más tarde ha construido su modelo del mundo en el que cada concepto que conoce se ancla en la realidad. Aprender así no se puede aún con la IA, pero se darán pasos para que se de. Si se consigue sería un gran hito, sería cambiar de aprender de manera supervisado con ML a no supervisado. Aún no sabemos cómo funciona”.

Además, tampoco tendrá sentido común, como los humanos. “Las máquinas no saben reaccionar”, asegura, aunque no descarta que se pueda llegar a producir.

Andrés Torrubia también asegura que la IA no va a ser como la humana. “No se va a volver contra nosotros. No tendrá autonomía”, asegura. “Atribuimos cualidades humanas a todo, incluso decimos que aprenden. Pero no lo hacen como una persona. Hacen ecuaciones y llegan a una conclusión pero eso no es aprender. Así que no tomarán el control”.

Y, sobre el peligro de que robe puestos de trabajo, este experto señala que solemos pensar demasiado en las amenazas de los robots. “Se cree que en el trabajo es más factible que tenga impacto en trabajos poco cualificados, pero no es cierto. Un fontanero no podrá ser un robot en 10 años”.

Por su parte, Nuria Oliver también subraya que los humanos somos mucho más que reconocimiento de patrones. “Tenemos muchos tipos de inteligencia: sentido común, capacidad de asociar, crear, conocimiento semántico del mundo del que carecen los algoritmos. Reconocen gatos, pero no sabe qué es un gato. Hay muchas áreas donde la inteligencia humana es muy compleja y multidimensional», como en el mencionado sentido común y la capacidad de razonamiento. Además, esta experta señala un punto débil de las máquinas: «tienen la fragilidad de que lo puedes hackear”.

Además, esta experta recuerda que el reconocimiento de patrones necesitan muchos más ejemplos que un humano para encontrar ese reconocimiento. “No aprenden incrementalmente y constantemente y sin olvidar lo que ha aprendido. Son sistemas supervisados. Los humanos somos más eficientes y hay muchas habilidades de un niño de 2 años que son muy complicadas para la IA”.

El riesgo de morir de éxito

Por último, Andrés Torrubia cree que a la IA le vamos a poner freno como sociedad. “Desgraciadamente hay tanto hype, tanta expectación, que muchas empresas sacan cosas mal hechas” con el consiguiente riesgo que ello conlleva. Y pone un paralelismo con la web de Renfe “famosa por lo mal que funciona”. El problema, en su opinión, es si trasladamos esa isma sensación a los primeros sistemas de reconocimiento facial que falle, por ejemplo.

“Es un tema social. Puede ser disruptivo a nivel económico y socialmente se frene o por malas implementaciones. Es un problema que hay que tratar de manera sensata. No tiene que estar mal ejecutado. Así que crucemos dedos para que no haya una web de Renfe en la implementación de la IA”.

Fuente: Xataka