El pasado 11 de mayo a las 3:47 p.m. la cuenta en X de W radio publicó una versión editada de un video en el cual reaparecía Iván Márquez. Una vez se publicó iniciaron una serie de comentarios y publicaciones que sugerían que la pieza digital había sido creada por Inteligencia Artificial.
El video hubiera pasado desapercibido de no ser porque es la primera prueba en video de una persona que se consideraba muerta y porque varios medios de comunicación (1,2,3) y usuarios de redes sociales (1,2,3,4) pusieron en duda su autenticidad. Lo califican como un “fake” creado con inteligencia artificial.
Determinar si un contenido digital es creado con un aplicativo que use LLM (Modelo de Lenguaje de Gran Tamaño) es una tarea compleja y en algunos casos imposible. Sin embargo, ciertas señales pueden otorgar pistas sobre la autenticidad o no de una pieza digital. Hicimos diversas pruebas para tratar de entender qué pasa con el video publicado por W Radio.
Un video sospechoso
Por supuesto el video podría levantar sospechas. Cualquier usuario de Internet podría calificarlo como extraño. Sin embargo, este calificativo, lejos de ser una prueba de uso de IA, tiene que ver con la edición del video y el afán de publicarlo primero.
Varios elementos a tener en cuenta: El video original fue editado con un tamaño de 1280 PX de ancho por 720 PX de largo, según la propia metadata del video.
Por su parte el video publicado por W radio está creado en un template de tamaño 1:1 y editado en otro tamaño 9:16. Estas son las dimensiones técnicas que se conocen como relaciones de aspecto.
Las diferencias entre el video original y el editado por W radio dan una primera pista. Para que W radio pudiera publicar ese video tuvo que hacer algún truco técnico para solo enfocar el rostro de Márquez. Cualquier solución para hacer esto le quitará calidad al video ya que deben cortar buena parte de la pantalla como lo muestra esta gráfica.
Esta es una de las razones por las cuales el video “se ve como raro”. Es un tema de calidad de la imagen.
Por otro lado, y más como para información general, el video original publicado por la página Farc-ep.net (http://farc-ep.net/?p=5149) tiene una duración de 16:44. El video de W radio es de 1:46.
El video original en el tamaño y peso original.
Una idea concluyente: Se modificó el tamaño del video y existió una intencionalidad editorial para priorizar en 1:46 un video de 16 minutos.
Técnicas descartadas
Hoy existen muchas formas de crear contenido sintético y un buen número de ampliativos que usan diversas LLM que facilitan la creación de contenido sintético.
Sin embargo, históricamente, al menos en lo que hemos documentado en este blog, la principal técnica usada consiste en crear una voz artificial y usar la técnica de Swap Face para crear una versión sintética en video.
El “swap face” es una técnica de edición de fotos y videos que implica intercambiar las caras de dos personas en una imagen o clip.
Esto se logra mediante el uso de software o aplicaciones especializadas que detectan automáticamente las caras en una imagen y luego las intercambian, creando una ilusión convincente de que las caras han sido intercambiadas entre las dos personas.
Para crear un Swap face creíble lo más importante es contar con el audio de la persona. Aunque existen varias aplicaciones donde uno puede crear una voz falsa la principal de estas herramientas es de la empresa Eleven Labs.
Esta compañía vende un servicio, donde uno sube un buen número de voces de la persona que uno quiere imitar y así se desarrolla la versión sintética. El servicio es relativamente barato y en las investigaciones que hemos hecho es el que han usado en Colombia.
A diferencia de otros servicios, Eleven Labs no es complejo técnicamente, es relativamente barato y tiene resultados aceptables. Las voces que uno puede crear son relativamente parecidas a las reales.
Para determinar si la voz de Iván Márquez es real descargamos el video original y creamos un clip de audio que luego subimos al AI Speech Classifier, una herramienta creada por Eleven Labs para detectar si alguien usó sus algoritmos para crear una voz falsa.
Los resultados indican que existe la posibilidad de que hayan creado la voz de Marquez con esta herramienta es de 2%, es decir, poco probable. Esta herramienta la hemos corrido para analizar la voz falsa de Petro y ha dicho que sí se creó con este aplicativo.
Se puede afirmar, basado en la evidencia, que no fue usada la técnica de crear la voz falsa con Eleven Labs.
Operación Coordinada
En medio de la explosión de comentarios que generó el post se evidencian mensajes que buscan posicionar la idea de que es creado con IA.
Esto lo hacen todo tipo de cuentas. Tanto de usuarios comunes y corrientes que expresan su opinión pero también de cuentas altamente sospechosas.
Se lograron identificar al menos 20 cuentas anónimas cuya intencionalidad es la de crear la idea de que es un mensaje con IA. No se publican las cuentas por el riesgo que esto genera.
Por supuesto no todos los mensajes son de bots o cuentas coordinadas.
Una gran parte de los mensajes generados son de usuarios comunes y corrientes que creen que es un video generado por IA. Hasta el momento, y en la lectura de los mensajes al trino de W radio, ninguno de ellos muestra una evidencia que sustente técnicamente la idea.
Bajo estándar profesional
Aunque este blog no es creado para hablar éticamente de periodismo es evidente que existe una falla en la mayoría de publicaciones del video.
En ninguna de las publicaciones revisadas se le advirtió a las audiencias que el video no había podido ser verificado.
De hecho se publicó a manera de “chiva” y varios medios, entre ellos rtvc, lo consideran una pieza “exclusiva”.
Este accionar muestra que por encima del valor informativo está la rapidez con que se publique así no esté verificado.
Una de las viejas prácticas del periodismo colombiano que al final genera un caldo de cultivo para la creación de conspiraciones.
Deja un comentario