
Mientras los militares de Estados Unidos atacaban a Venezuela y secuestraban al presidente Nicolás Maduro y a su esposa, Cilia Flores, otra batalla menos visible tuvo lugar en internet. Se desata una guerra de deepfakes, contenidos audiovisuales ultrafalsos generados mediante inteligencia artificial, que simulaban escenas de la intervención y reacciones felices de la población venezolana.
Entender qué son estos contenidos ultrafalsos, cómo se producen y qué efectos tienen en nuestras audiencias es crucial para interpretar de forma crítica la información que circuló durante y después de la crisis. La tecnología puede reemplazar rostros, voces o escenas completas; bien hecha, puede engañar, incluso, a ojos entrenados.
La palabra deepfake viene de deep learning (aprendizaje profundo) y fake (falso). Aunque la idea de videos falsos no es nueva, la inteligencia artificial ha elevado su realismo y velocidad de producción, lo que le permite crear estos contenidos a cualquier persona con acceso a ciertas herramientas digitales –la mayoría gratuitas.
Tras la operación en Venezuela, los deepfakes inundaron las redes sociales con imágenes y videos supuestamente «reales». Algunos mostraban a Maduro rodeado de soldados estadounidenses o secuencias de ataques que nunca ocurrieron tal y como se describían. Fragmentos de películas o videojuegos fueron utilizados como «evidencia» de apoyo a los invasores. Muchos de estos materiales se compartieron miles de veces, compitieron con las noticias verificadas y crearon un ruido informativo que dificultó distinguir lo verdadero de lo falso.
Este fenómeno no sucedió por casualidad. En momentos de tensión, la incertidumbre y la falta de información clara se combinan con la rápida difusión de tecnología generadora de contenidos. Actores con intereses diversos –desde usuarios individuales hasta grupos organizados o incluso medios con sesgos ideológicos– aprovechan estas herramientas para promover narrativas funcionales a los operativos de guerra.
Existe, además, un efecto sociopolítico llamado el «dividendo del mentiroso»: cuanto más se popularizan los deepfakes, más fácil es negar la autenticidad de contenidos verdaderos. Una vez que las personas aprenden que ciertos videos podrían ser falsos, imágenes genuinas pueden ser descartadas como «manipuladas», lo que mina la confianza en la información en general.
En el contexto cubano, el impacto de los deepfakes puede ser aún más insidioso. Basta con que un video «impresionante» circule por cadenas de mensajería, capturas reenviadas o publicaciones replicadas fuera de contexto. Si a eso se suma un ecosistema de desinformación alimentado desde el exterior –con campañas que buscan instalar miedo, odio o fatalismo–, el resultado es una mezcla peligrosa: imágenes que parecen pruebas, pero que en realidad son señuelos de la desinformación.
El caso de Venezuela en 2026 confirma que los deepfakes funcionan como armas de confusión. No reemplazan a los misiles, pero pueden alterar el sentido de lo ocurrido, dividir y contaminar el debate público. Comprenderlos, identificar sus señales y exigir fuentes confiables es una forma concreta de defender el derecho a la información veraz en un mundo donde la imagen, por sí sola, no garantiza la verdad.















COMENTAR
Responder comentario