Un informe de ciberseguridad alerta sobre el uso masivo de inteligencia artificial para crear y viralizar contenidos falsos sobre guerras, manipulando la percepción pública a escala global.
La creación de contenidos audiovisuales falsos mediante inteligencia artificial, conocidos como deepfakes, ha alcanzado niveles críticos en plataformas como X durante recientes escaladas bélicas. Estos archivos simulan éxitos militares y bombardeos inexistentes con el objetivo de influir en la opinión pública internacional de forma inmediata.
Un estudio de la firma de ciberseguridad NewsGuard confirmó que las herramientas de IA generativa producen narrativas polarizantes que apelan directamente al miedo y la ansiedad de los usuarios. La investigación detectó que alrededor del 70% de los videos virales sobre supuestas derrotas enemigas en una zona de conflicto contenían elementos de edición sintética o eran recreaciones de videojuegos presentadas como reales.
La herramienta de verificación Grok, integrada en la red social X, enfrentó cuestionamientos por validar información falsa extraída de publicaciones satíricas o hilos de propaganda. El chatbot confundió bromas de usuarios con noticias de última hora, generando resúmenes que daban por ciertos ataques ficticios. Agencias de inteligencia occidentales identificaron granjas de bots que utilizan Grok y otros modelos de lenguaje para “verificar” noticias falsas en tiempo real, en una técnica de validación circular que otorga una pátina de legitimidad al contenido sintético.
Los atacantes también emplean la IA generativa para clonar voces de líderes políticos y mandos militares con el fin de emitir órdenes de rendición falsas. Estos audios circulan primero por canales de mensajería como Telegram y WhatsApp, antes de saltar a plataformas masivas donde los algoritmos de recomendación los impulsan.
Ante este panorama, empresas tecnológicas como Meta y Google han implementado marcas de agua digitales, aunque los creadores de contenido malicioso encuentran métodos para eludirlas. Asimismo, el uso de redes neuronales para detectar deepfakes ha demostrado ser insuficiente ante el avance de los algoritmos de creación, que aprenden a evadir los patrones de detección.
La falta de un marco legal global permite que los desarrolladores de IA operen en zonas grises, mientras sus productos pueden ser utilizados para instigar conflictos. La monetización de estos contenidos falsos a través de sistemas de reparto de ingresos de las plataformas incentiva, además, a usuarios individuales a publicar falsedades en busca de clics y visualizaciones.
El Centro de Análisis de Amenazas de Microsoft detectó operaciones coordinadas que vinculan la creación de imágenes por IA con campañas de desprestigio contra organismos internacionales, mostrando a trabajadores humanitarios en situaciones comprometidas o falsificando documentos de Naciones Unidas.
