Luc Julia, director científico de Renault: ¿Inteligencia artificial, revolución o evolución?

Luc Julia, director científico de Renault: ¿Inteligencia artificial, revolución o evolución?

Con esta pregunta, Luc Julia, el director científico de Renault y cocreador de Siri, comenzó su charla en el WAIFC (World Artificial Intelligence Cannes Festival), el pasado 9 de febrero.

“La inteligencia artificial tiene más de 20 años, no es algo nuevo, comenzó con machine learning, IA y ahora estamos en la etapa de Deep learning”, afirmó desafiante Julia.

Lo que diferencia a esta de las anteriores según el director científico de Renault es la accesibilidad que se tiene hoy en día a estas herramientas.

Específicamente a las de IA generativa, y al respecto dijo: “La IA generativa no es inteligencia creativa, la creatividad está de nuestro lado. Porque aún usando herramientas de diseño, la decisión final está en nosotros. Aquí tenemos un ejemplo de lo que les digo – comentó señalando la imagen en la que se podía ver la Torre Eiffel con diferentes intervenciones provenientes de una herramienta con IA generativa-.

Julia añadió que esta tecnología tuvo la curva de adopción más rápida de la historia “la de adopción y las expectativas también, pero la curva de decepción también es muy alta. Le tomó menos de un año llegar a la cima, este realmente es un hecho increíble y nunca visto, pero de la misma manera se acelera su caída”

“Lean lo que dice Bing, miren un ejemplo, vean mi propia biografía, – dijo señalando el slide – está equivocada, ¿lo ven?, no crean demasiado, no sean ciegos”, enfatizó.

En la última parte de la charla se refirió a las alucinaciones y malentendidos que está generando la IA generativa. Concretamente citó el paper A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on Reasoning, Hallucination, and Interactivity”. 

Un estudio desarrollado por un equipo de científicos en donde, entre otros hallazgos, señala que el chat GPT tiene una precisión del 63.41% promedio en algunas categorías de razonamiento, lo cual lo convierte en un razonador poco confiable. Además, sufre problemas de alucinaciones como otros LLML y genera otras tantas.

“Es tan fácil usarlo como como equivocarse y usar la información equivocada”, remató el cocreador de Siri.