Dos imágenes del vídeo realizado con inteligencia artificial.

El falso vídeo de un soldado ucraniano llorando revela el poder de la inteligencia artificial como arma propagandística

El contenido, en el que un supuesto joven de 23 años pide ayuda para no ir al frente, ha acumulado millones de visualizaciones en X y se ha compartido en al menos 13 idiomas

Jesús Falcón

San Sebastián

Martes, 2 de diciembre 2025, 12:14

Un video de un supuesto soldado ucraniano llorando, que ha acumulado millones de visualizaciones en plataformas como X (anteriormente Twitter) y se ha difundido en al menos 13 idiomas, ha sido confirmado como una creación de inteligencia artificial utilizada con fines de desinformación. En el video, un supuesto joven de 23 años, vestido con uniforme militar, pide ayuda entre lágrimas para no ser enviado al frente. «No quiero morir», exclama. Este contenido se ha viralizado junto a mensajes que acusan al Gobierno de Zelenski de reclutar forzosamente a ciudadanos.

Publicidad

La verificación de los hechos, realizada por entidades como Maldita.es y Open, reveló varias inconsistencias que señalan su falsedad: la edad del soldado (23 años) no coincide con la normativa ucraniana, que en agosto de 2025 establecía el servicio militar obligatorio a partir de los 25 años. Además, análisis técnicos mostraron que el casco y el nombre en el uniforme no se ajustaban al estándar ucraniano, y se detectaron problemas en la forma de los dientes. Herramientas de análisis de contenido, como Hive Moderation, estimaron una probabilidad del 99 % de que el video fuera generado con IA.

Tanto el video del soldado llorando como su audio fueron falsificados mediante tecnología 'deepfake'. Estos contenidos han sido impulsados por perfiles con el distintivo azul de pago y diseminados por páginas que, según se ha reportado, suelen compartir propaganda rusa. Incluso, el chatbot de IA de X, Grok, continuó asegurando a los usuarios, en varios idiomas, que el video era real y no manipulado, lo que subraya la falta de fiabilidad de los chatbots de IA para la verificación de imágenes.

La inteligencia artificial como arma

La desinformación se ha consolidado como una de las armas más poderosas y baratas de la geopolítica contemporánea, y la IA la potencia con una capacidad destructiva sin precedentes en las llamadas guerras híbridas. Los 'deepfakes', o ultrafalsificaciones realizadas con estas tecnologías, utilizan técnicas de aprendizaje profundo para simular de manera realista la apariencia, la voz o los gestos de una persona, haciendo que parezca que dice o hace algo que nunca fue real.

Newsletter

El uso de los 'deepfakes' como arma en el conflicto de Ucrania no es nuevo. En marzo de 2022, poco después del inicio de la guerra, circuló un montaje que presentaba al presidente Zelenski pidiendo a los ucranianos que depusieran las armas y se rindieran. Este tipo de tecnología busca influir en la opinión pública, socavar la moral del ejército enemigo y confundir a la población. Los actores hostiles pueden valerse de la IA para generar contenido automático, incluyendo avatares en redes sociales, para amplificar la amenaza de la desinformación. Otras tácticas incluyen alterar videos de ejercicios militares para exagerar el poderío bélico, multiplicando digitalmente la cantidad de misiles.

Publicidad

Consejos para detectar vídeos falsos

Frente a la creciente sofisticación de las imágenes falsas, la propia IA puede ser una aliada en la detección. Sin embargo, el primer paso en la lucha contra la desinformación es la educación mediática: se debe desconfiar de lo que se recibe en redes sociales y verificar las fuentes de información.

Para la detección de 'deepfakes' y vídeos generados por inteligencia artificial, cada vez más numerosos en las redes sociales, los expertos aconsejan buscar pistas visuales y auditivas.

Publicidad

Cómo detectar 'deepfakes':

  • Incoherencias visuales: observa la cara detenidamente, pues los 'deepfakes' a menudo dejan rastros como un contraste de luz diferente entre la cara insertada y el video original, o un ángulo de iluminación que no concuerda. Busca microexpresiones irreales o inconsistentes en la boca, cejas y ojos durante momentos emocionales. La textura de la piel puede verse antinaturalmente suavizada, o los reflejos en los ojos o gafas pueden parecer inconsistentes con la fuente de luz.

  • Defectos de sincronización: algunos programas de falsificación dejan imperfecciones en la sincronización del movimiento de la boca con el audio, aunque cada vez son más sofisticados.

  • Pistas de audio: en los 'deepfakes' de voz pueden detectarse pequeñas irregularidades, como un tono metálico o ecos extraños, especialmente utilizando auriculares de alta calidad. También se puede notar una falta de coherencia emocional o patrones de habla fuera de contexto en conversaciones más largas. Comparar la voz con grabaciones originales es una buena idea si hay alguna sospecha de falsedad.

  • Verificación de fuentes y herramientas: deberíamos cuestionar las fuentes de contendios llamativos o alarmantes y comprobarlos en medios de comunicación tradicionales. También existen herramientas gratuitas como la búsqueda inversa de imágenes de Google para analizar fotogramas del video o extensiones de navegador como InVID. También existen aplicaciones diseñadas para detectar videos manipulados mediante el análisis de patrones visuales y auditivos, como Deepware Scanner o Microsoft Video Authenticator.

En todo caso es esencial mantener una postura crítica y evitar compartir contenido sin antes verificar su autenticidad, ya que la rapidez de propagación de estos contenidos falsos supera la capacidad de verificación y de la forma más inocente cualquier persona puede contribuir a generar alarma o extender falsedades.

Este contenido es exclusivo para suscriptores

Suscríbete los 2 primeros meses gratis

Publicidad