Inteligencia Artificial y Desinformación: El ‘deepfake’ de Alejandro Gaviria

El político y exministro de salud Alejandro Gaviria es víctima de un deepfake con un alto potencial de engaño.

En el contenido digital falso que circula en varios canales digitales, la versión creada con técnicas de IA , apoya la reforma a la salud. Afirmación que es totalmente contraria a la realidad y que se da justamente en medio de un fuerte debate digital por un informe de  la Adres.

Fue el mismo Gaviria quien informó en sus redes sociales que había sido víctima de la novedosa estrategia de desinformación. A simple vista, el video parece real y es difícil de detectar, incluso para expertos.

El video no utiliza las técnicas que anteriormente hemos reportado en este blog. No es un Swap Face que bien podría hacer cualquier usuario que encuentre las herramientas digitales gratuitas que permiten hacer este tipo de contenido.  

Es una pieza digital completa del cuerpo, rostro, movimiento de voz y tuvo que alimentar un LLM con la voz original. Es decir, existe un trabajo técnico para la creación de la pieza, la descarga de un número de audios y su posterior tratamiento.

Esta pieza digital ha generado una versión completamente sintética del político, lo que constituye un avance técnico en el desarrollo de la IA. Al mismo tiempo es una pieza digital que sembrada en espacios digitales puede causar un gran daño tanto a la víctima como a la discusión nacional de un tema tan delicado como la reforma a la salud.

Mientras el video original que fue publicado el 8 de enero de 2025 ya tiene 40 mil vistas y 1887 perfiles en la red Tik Tok lo han compartido el mensaje de advertencia de la víctima alcanzó 111.000 vistas.

No se puede conocer con precisión técnica cuántas personas a ciencia cierta han visto el video falso y hoy pueden crear una opinión totalmente diferente a la realidad. Una pieza como esta es indetectable si viaja por chat cerrados como Whastapp.

Solo basta hacer una lectura a los 634 comentarios que ha generado el video para darse cuenta de que muchas personas creen que es real. Esto ocurre a pesar de que el perfil se dedica a la creación de contenido sintético

El autor

El creador de este video es un activista político digital anónimo que tiene, al menos, perfiles muy activos en X y Tik Tok. A juzgar por su perfil en X se podría decir que es un perfil progresista- pro-gobierno.

No es la primera vez que utiliza la Inteligencia artificial para crear contenido. De hecho, tiene varias versiones sintéticas de políticos como María Fernanda Cabal, Miguel Uribe, Carlos Fernando Galán y Álvaro Uribe.

Su perfil en Tik Tok tiene 4080 seguidores y los videos que más alcanzan personas pueden llegar a ser vistos entre 10.000 y 15.000 veces.  

El perfil en Tik Tok muestra que el autor ha venido haciendo una serie de experimentos con IA. Se pueden observar videos que hacen parte de experimentos donde la IA deforma las identidades originales creando monstruos y versiones “creepy” de políticos colombianos y figuras públicas.

El perfil incumple de manera explícita la regla de Medios Editados y Contenido Generado por IA de TikTok y la plataforma no debería permitir que siga haciendo la actividad por el potencial daño que produce. El contenido generado no constituiría un delito en Colombia y legalmente poco o nada se puede hacer para detenerlo.

 “No permitimos contenido que comparta o muestre falsas fuentes autorizadas o eventos de crisis falsos, o que muestre falsamente figuras públicas en determinados contextos”, afirma la regla.

Esta regla se incumple sobre todo porque el autor no etiqueta su contenido como IA a pesar de las herramientas que ofrece la plataforma. Esto, sin duda, muestra que detrás de los experimentos con IA existe una intencionalidad política y una intención de desinformar.

Frente a X la única forma de moderación posible es con las Notas de Comunidad y a pesar de que la propia víctima advierte varias veces que no es él, las notas creadas por diferentes autores no han alcanzado el status de publicada. Es decir, el video seguirá circulando sin ninguna advertencia salvo la de la víctima.

Este trino tiene una nota de comunidad pero a pesar de que es calificada como util, no se muestra a los usuarios.

Como lo hemos advertido en este blog a medida que las herramientas digitales sean más accesibles y los modelos de lenguaje sean más poderosos el potencial daño de este tipo de contenido puede afectar de forma grave la discusión pública sin que nadie puede hacer algo para detenerlo o por lo menos etiquetarlo y advertirlo.

Este fenómeno digital persistirá y se convertirá en un arma política, especialmente cuando no existan métodos técnicos para identificarlo.