Organizaciones internacionales alertan sobre un incremento significativo de videos generados por Inteligencia Artificial que buscan influir en la percepción del conflicto, dificultando el trabajo periodístico.
La organización internacional Article 19 y diversos observadores digitales reportaron un aumento masivo en la circulación de videos generados por Inteligencia Artificial en el marco del conflicto en Medio Oriente. Según los informes, se utilizaron herramientas generativas para producir pruebas falsas de ataques militares.
Especialistas en seguridad digital detectaron que la sofisticación de estos contenidos, conocidos como deepfakes, alcanzó niveles que dificultan la distinción inmediata entre registros reales y simulaciones. Las fichas técnicas indican que estas piezas audiovisuales mostraron supuestos bombardeos y declaraciones de líderes políticos que no ocurrieron.
La distribución de estos materiales se realizó mediante plataformas de mensajería cerrada y cuentas automatizadas en redes sociales como X y TikTok. Ante esta situación, Meta instó a las plataformas de su compañía a etiquetar de forma agresiva todo el contenido producido o alterado por IA.
La recomendación incluyó la implementación de marcas de agua digitales y metadatos que permitan el rastreo de los orígenes de los archivos. Meta subrayó que la desinformación afectó a los usuarios y a la labor de los periodistas independientes en la zona de conflicto, quienes debieron someter cada video a procesos de verificación, lo que demoró la difusión de noticias urgentes.
El informe presentado por ARTICLE 19 mostró que los corresponsales en el terreno enfrentaron dificultades para que sus registros auténticos fueran aceptados como verídicos por la audiencia, generándose un entorno de escepticismo. La organización también puntualizó que el uso de la tecnología incluyó la clonación de voces para emitir órdenes de evacuación falsas, táctica que provocó desplazamientos innecesarios de civiles y caos urbano.
