¿Vídeos generados con IA?
Un canguro está en el aeropuerto a punto de embarcar, pero algo sale mal: la auxiliar de vuelo no le deja entrar en el avión, a pesar de que el animal sostiene su tarjeta de embarque con las patas. Es muy probable que al leer este texto no tengas dudas de que se trata de una escena de ficción propia de una película de aventuras al estilo Jumanji, pero en realidad es uno de los vídeos generados con IA por una cuenta de humor de Instagram, y que se hizo viral cuando, al sacarse de contexto, se publicó como la imagen real de un canguro de asistencia. Al final no solo resultó ser creíble para una gran cantidad de usuarios de las redes, sino que también provocó indignación: la mayoría de los comentarios calificaron como una injusticia el hecho de no dejar embarcar al animal.
Cualquiera podría haber caído en el engaño. Las imágenes, vídeos y audios sintéticos comienzan a parecer tan creíbles que incluso algo a priori increíble parece verosímil. “Cada vez es más difícil distinguir qué es real y qué ha sido generado por inteligencia artificial, y eso abre la puerta a muchos tipos de engaños. Aunque algunos casos, como el del canguro en el aeropuerto, nos parecen anecdóticos o incluso graciosos, hay otros en los que las consecuencias pueden ser graves”, dice Alejandro Martín García, profesor contratado doctor Escuela Técnica Superior de Ingeniería de Sistemas Informáticos (Universidad Politécnica de Madrid) y director del grupo de investigación NLP-DL (Natural Language Processing and Deep Learning).
“En el ámbito del fraude, por ejemplo, ya se han dado casos de estafas con audios sintéticos. También se están utilizando vídeos e imágenes falsas para suplantar identidades, manipular opiniones o difundir desinformación. En campañas políticas hemos visto vídeos donde una figura pública aparece diciendo algo que nunca dijo, y que se difunden masivamente antes de que pueda desmentirse. Aunque, muchas veces, estos contenidos pueden desmontarse, el daño ya está hecho”, añade Alejandro.
Al alcance de cualquiera
“El problema es que este tipo de engaños no requiere conocimientos técnicos avanzados. Hay herramientas públicas y gratuitas con las que cualquiera puede generar voces, imágenes o vídeos falsos en minutos”, alerta Helena Liz López, ayudante doctor Escuela Técnica Superior de Ingeniería de Sistemas Informáticos en UPM e investigadora en el grupo de investigación NLP-DL. Y es que cuando en noviembre de 2022, con el lanzamiento de ChatGPT, se comenzaron a popularizar las herramientas de generación de contenido con IA, ni los resultados eran tan precisos como los que vemos ahora ni era tan fácil producir contenido visual (Midjourney, por ejemplo, funcionaba exclusivamente a través de Discord, por lo que requería unos conocimientos técnicos un poco más avanzados).
“Muchas personas ya están usando CapCut o Runway, que permiten editar vídeos e incluso generar contenido nuevo con IA, como cambiar el fondo, mover la boca de una persona para que parezca que dice otra cosa, o crear vídeos desde un simple texto; o ElevenLabs y HeyGen, donde puedes escribir un guion y convertirlo en un vídeo con una persona virtual que lo lee en varios idiomas y con expresiones faciales”, explica Sergio D’Antonio Maceiras, profesor contratado doctor Escuela Técnica Superior de Ingeniería de Sistemas Informáticos de UPM e investigador en el grupo de investigación NLP-DL.
Cada vez más real
Ante este escenario, los expertos coinciden en que cada vez será más difícil diferenciar lo real de lo irreal: “Hace no mucho, las voces sintéticas solían sonar mecánicas o poco expresivas, lo que facilitaba su identificación. Pero los modelos actuales son capaces de imitar no solo el tono y la pronunciación, sino también emociones, pausas naturales y hasta ciertos matices propios del habla humana. Incluso quienes trabajan con análisis de audio o fonética pueden tener dudas al enfrentarse a un audio bien generado y editado. Y si además se trata de un fragmento breve o mezclado con otros sonidos, detectar el engaño solo con el oído es prácticamente imposible”, dice Helena.