Un caso de posible Misinformation se presentó del 22 al 24 de enero de 2024. Durante 48 horas circularon por diferentes redes sociales, plataformas digitales y medios masivos de comunicación ocho imágenes que no corresponden a la realidad de la emergencia que vive Bogotá referente a una serie de incendios.
Usuarios de plataformas tecnológicas y medios masivos de comunicación cayeron en la trampa y difundieron las piezas digitales que fueron creadas con Inteligencia Artificial sin advertir que republicaron imágenes falsas.
Una vez se conoció el engaño medios no rectifican y usuarios siguen creyendo que son reales.
El autor de las 8 imágenes es Nicolás Caballero (@Nikoleto_92 en X) quien publicó el primer set de cuatro imágenes el 22 de enero de 2024 a las 10:37 de la noche.
Al momento de este post este primer set tuvo 226.000 visualizaciones, 262 rt.
Las imágenes se compartieron en formato 9:16 y muestra el trabajo de unos bomberos sobre unas montañas. Tanto en el día como en la noche. El fondo de las imágenes simula una ciudad parecida Bogotá y se muestran las figuras de supuestos bomberos.
Las fotos iban con el texto: “Fotografías de el Incendio en los Cerros Orientales en Bogotá – 22 de enero”.
El segundo post se realizó el 23 de enero de 2024 a las 9:38 de la mañana. Se compartieron 4 fotografías. Las imágenes se acompañaron del texto “Fotografías de el Incendio en los Cerros Orientales en Bogotá – 23 de Enero (Parte 2)”.
Este segundo set de fotografías al momento de este post tiene 500 vistas y 587 rt.
En este set de fotos aparece una imagen inverosímil. La figura de un venado mirando el horizonte incendiado. Esta imagen fue difundida por un medio de comunicación masivo que no se identificará por las consecuencias que esto puede tener. La imagen se compartió en horario estelar de un noticiero de TV.
Los dos sets de imágenes cuentan con Notas de Comunidad de X pero solo visible para editores. Aún los posts no muestran las notas aclaratorias.
Se descubre el engaño
Fue solo hasta 11:44 de la noche del 23 de enero que se empezó a cuestionar la veracidad de las imágenes.
El usuario @juan1pho indicó en un trino que el profesor de fotoperiodismo César Melgarejo había identificado las fotos como producidas por IA. Desde ese momento se empezó a cuestionar la veracidad de las imágenes hasta que el cuestionamiento se hizo incontrolable para su autor.
Fue solo hasta el 24 de enero a las 11:44 que el autor finalmente aceptó en un hilo que las imágenes eran falsas y justificó su accionar dando a entender que lo hizo para generar un debate. Muy probable que la aclaración no se hubiera realizado sino se empieza a cuestionar su validez.
Al momento de la escritura de este post las imágenes seguían viralizándose sin que aún se aclare en cada uno de los posts su origen y creación.
Este es un segundo caso documentado en este blog del uso de herramientas digitales relacionadas a IA que pueden afectar las discusiones públicas. El primero se realizó con audios en épocas de elecciones.
Prohibido
En un esfuerzo por salvaguardar la autenticidad de la información diversas redes sociales han establecido políticas más estrictas contra el uso de medios sintéticos, manipulados o fuera de contexto que puedan inducir a error o confusión, llevando potencialmente a daños.
Estas medidas incluyen la identificación y etiquetado de publicaciones que contengan medios engañosos, con el objetivo de brindar claridad y contexto adicional a los usuarios.
De acuerdo con estas políticas, se considera que un contenido está en violación cuando cumple con alguno de los siguientes criterios:
1. Incluye medios que han sido significativa y engañosamente alterados, manipulados o fabricados.
2. Comparte medios de manera engañosa o con un contexto falso.
3. Contiene medios propensos a generar confusión generalizada sobre asuntos públicos, afectar la seguridad pública o causar daños graves.
El post sigue al aire y no hay nada que pueda hacerse para detener su viralidad.
Deja un comentario