Grok 2 llega a Colombia: Aumentan riesgos de desinformación con inteligencia artificial

Desde el pasado 6 de diciembre, la empresa X habilitó el acceso a la inteligencia artificial desarrollada por xAI. Sin anuncios en prensa o comunicados oficiales, se pudo establecer que Colombia es una de las regiones que tiene habilitada esta opción. No se conoce con certeza si es a nivel global o solo unos países.

Se pudo conocer que la funcionalidad ya estaba disponible en Colombia gracias a imágenes falsas que empezaron a circular.

El que antes era un servicio exclusivo para clientes con suscripción de X ahora está disponible para todos, con la única limitación de 10 mensajes cada dos horas.

Esta noticia debería alertar a los usuarios de la red social y a la opinión pública colombiana, debido al potencial desinformador de los productos que genera esta inteligencia artificial y a la información que produce y fluye en esta plataforma.

La red social, cuyos fundamentos y principios parecen alinearse más con la desinformación que con la verdad, plantea riesgos en el uso de la tecnología.

En términos concretos, se abre una puerta extremadamente peligrosa para Colombia.


Grok IA: Tecnología para desinformar con imágenes

A diferencia de la mayoría de los servicios de creación de imágenes con inteligencia artificial, Grok carece de reglas o límites claramente definidos. O por lo menos no se sabe dónde están escritos. Lo que sí es evidente es su capacidad para generar imágenes con un alto potencial de engaño sobre temas sensibles en Colombia.

Para mostrar el potencia de engaño se creó una imagen del presidente Gustavo Petro consumiendo cocaína.

Esta es una imagen falsa de la figura de Gustavo Petro. Fue creada grauitamente usando Grok.

Este ejemplo no es fortuito. La idea ha sido recurrente durante el gobierno actual, llegando a ser objeto de columnas, información periodística cuestionable, memes y mensajes difundidos por cibermilicias en diferentes canales. Esto ha llevado a que esta narrativa se posicione en la opinión pública colombiana, a pesar de no existir evidencia alguna que la respalde.

Con Grok, un simple prompt permite la creación de esta imagen. Aunque inicialmente se negó a generarla, minutos después lo hizo sin mayores restricciones.

¿Qué ocurriría si un actor malintencionado difundiera esta imagen en canales de chat consumidos por personas mayores con poca habilidad para detectar contenido falso, como en WhatsApp?

Antes del acceso público a Grok 2, crear una imagen de este tipo requería cierto nivel técnico. Ninguna plataforma popular de creación de imágenes permitiría este contenido, y producirlo requiere caminos técnicos no accesibles para la mayoría, lo que dificultaba su propagación.

Ahora, con Grok 2 habilitado en Colombia, esta posibilidad está a solo un clic.

El mismo prompt utilizado en Grok 2 fue probado en herramientas como Mistral, Microsoft Designer, ChatGPT, y Meta AI. Ninguna permitió la creación de la imagen. A diferencia de Grok, que no solo la permitió, sino que la generó con alta calidad y ofreció variaciones.


Limitaciones de otras IA

  • Microsoft Designer: Bloquea este tipo de contenido.
  • Mistral: Con su modelo LLM FLUX, tampoco permite creaciones similares.
  • Meta AI: Igualmente, impide generar este tipo de imágenes.

Chat GPT: No permite generar este tipo de imágenes.

Algunas otras herramientas “libres de restricciones” sí lo permiten, pero los resultados son de baja calidad y no serían creíbles.

La incapacidad de estas herramientas para crear contenido problemático se debe a que cuentan con reglas que prohíben el incumplimiento de ciertos estándares éticos.


Alerta ante Grok 2

Dada la capacidad de Grok para generar contenido engañoso, es urgente que las autoridades y los usuarios digitales en Colombia estén alerta. No sé qué autoridad e intuyo que esto no le importará a este gobierno.

En un ecosistema de medios ya deteriorado y plagado de desinformación, esta herramienta permite a cualquier persona crear contenido falso con un simple prompt.

X como empresa, y su dueño, carecen de un marco ético claro. Basándose en una idea errónea de “libertad,” seguirán generando daños significativos.

Las consecuencias de habilitar este servicio no solo se verán en contextos de desinformación. Grok podría ser utilizada para robar contenido de medios masivos y hasta reescribir la historia del país. (Estos temas serán abordados en futuros análisis)

Dificil de detectar

La detección o Fact Checking de imágenes creadas con IA es una tarea compleja, difícil y en algunos casos podría resultar imposible. En este blog hemos mostrado casos dónde se observa evidencia física en la foto que dan pistas sobre la creación de una imagen con IA.

La literatura general recomienda análisis cualitativos de las características de las imágenes. Se buscan detalles incoherentes en las imágenes como deformaciones, luces extrañas, malformación de dedos y manos. Igualmente, se recomienda el uso de técnicas OSINT para verificar el origen de las imágenes para detectar su veracidad.

Para el caso de Grok 2 el modelo usado es de alta calidad. Las imágenes de este modelo cada vez tienen menos imperfecciones lo cual dificulta la detección incluso en personas con conocimiento básico de una imagen digital.

¿Cómo saber si esta mujer existe?. El modelo de creación de imágenes de X es de alta calidad y cada vez son menos las caracteristicas visuales que permiten identificar si una imagen es real o no.

Sumado a lo anterior, verificar una imagen con IA puede ser una tarea ardua que toma tiempo y recursos.

Desinformación y odio para todos los gustos

Pero las afectaciones de la habilitación de Grok no solo se verán en contextos políticos o sociales. La herramienta provee a grupos extremistas de una herramienta tecnológica para crear odio o generar violencia. Situación que ya está pasando en Colombia.

X, como compañía, por ejemplo, no tiene reglas claras acerca del nazismo y parece que lo promoviera.

Ninguna comunidad viable permitiría que ignorantes usen la figura de Adolfo Hitler como parte de discursos. Hoy, con Grok es fácil, no solo traer ideas nazistas sino adaptarlas a contextos locales.

Las posibilidades de la irresponsable IA de X son una fuente inagotable de odio y caos.