La geopolítica del ‘deepfake’: guerra y propaganda en tiempos de Inteligencia Artificial
Buscar la verdad en el siglo XXI se ha vuelto una tarea desgastante. Al ver un video con escenas fuera de lo común, ahora nos hacemos la misma pregunta: “¿no será IA?”
Hace pocas semanas circuló el rumor de que Benjamin Netanyahu, primer ministro de Israel, había sido asesinado. La narrativa se propagó principalmente desde fuentes “alternativas” en redes sociales, amplificada por ecosistemas digitales afines a intereses geopolíticos específicos. El rumor creció hasta tal punto que la cuenta oficial del líder israelí publicó un video de Bibi tomándose un capuccino y bromeando en una cafetería como “prueba de vida”.
Pero lo que buscaba cerrar la conversación terminó alimentándola: el video, en lugar de disipar dudas, fue interpretado por muchos como un deepfake más. La evidencia dejó de ser evidencia. Cuando todo puede ser falso, nada logra ser completamente verdadero. He ahí el dilema con el que debemos lidiar de ahora en adelante.
REVISE TAMBIÉN: El territorio digital: Un punto ciego en la legislación ecuatoriana
Buscar la verdad en el siglo XXI se ha vuelto una tarea desgastante. Al ver un video con escenas fuera de lo común, ahora nos hacemos la misma pregunta: “¿no será IA?” Esta duda no nace de una paranoia sin fundamentos. Tiene una justificación legítima. En el mundo actual, la realidad y la ficción ya no son opuestos claros, sino dos caras de una misma moneda. La desinformación, que crece al ritmo de los saltos tecnológicos, se ha sofisticado: cuentas ficticias, troll centers y portales que simulan ser medios legítimos diseminan contenido diseñado para servir intereses políticos específicos.
El término deepfake se ha popularizado rápidamente y hoy forma parte del lenguaje cotidiano de periodistas, políticos y líderes globales. Se trata de una técnica basada en inteligencia artificial que permite generar videos falsos cada vez más difíciles de detectar. Sí, está pasando. Aquello que parecía un riesgo lejano ya es una realidad que está impactando la coyuntura geopolítica global.
Estamos presenciando, en tiempo real, la erosión de la verdad y el surgimiento de un nuevo tipo de escepticismo. Uno que no necesariamente nos hace más críticos, sino que nos acerca peligrosamente al nihilismo: un punto en el que verificar la información se vuelve tan complejo que simplemente dejamos de intentarlo. Y cuando eso ocurre, la objetividad deja de ser un principio ético relevante.
La guerra, como siempre lo ha sido, no solo se libra en el territorio físico, sino también en el informacional. La propaganda no es nada nuevo, pero la tecnología ha amplificado su alcance, velocidad y capacidad de manipulación. En el caso del rumor sobre Netanyahu, se ha señalado que estas narrativas se originaron, en parte, en cuentas alineadas con intereses pro-Irán, pero más allá del origen específico lo relevante es el ecosistema: un entorno donde la información circula sin fricción y sin verificación, amplificada por un modelo de negocios que produce algoritmos que priorizan lo emocional sobre lo veraz. Incluso herramientas de IA han entrado en esta dinámica.
La plataforma Grok, desarrollada por Elon Musk, llegó a señalar que el video podría ser falso. Podemos ver cómo este tipo de intervenciones tecnológicas ya no aclaran el panorama; a veces lo oscurecen más. Si los propios sistemas diseñados para procesar información no logran distinguir con claridad entre lo real y lo sintético, la incertidumbre se vuelve estructural.
REVISE TAMBIÉN: Cártel TikToK: Así reclutan las bandas criminales a los jóvenes en Ecuador
No es casualidad que el Foro Económico Mundial haya identificado, por tercer año consecutivo, a la desinformación y la malinformación como uno de los principales riesgos globales. El problema no es solo la falsedad del contenido, sino su capacidad de movilizar emociones. En la economía de la atención, las vulnerabilidades del subconsciente humano son explotadas sistemáticamente, y el sesgo de confirmación —nuestra tendencia a creer aquello que refuerza lo que ya pensamos— se convierte en una potente herramienta política. Un estudio de Harvard Kennedy School muestra que las cuentas automatizadas que difunden noticias falsas son especialmente efectivas entre usuarios con posturas políticas fuertes, sin importar su ideología, mientras que otro estudio de la Universidad de Columbia estima que cerca del 75% de los usuarios comparte noticias sin siquiera abrir el enlace.
Estos datos importan porque demuestran cómo las dinámicas de desinformación actuales constituyen una amenaza directa a la democracia. Cuando las decisiones se toman sobre información de baja calidad, la libertad se vuelve ilusoria. La lección es clara: las nuevas generaciones deben ser educadas no sólo para consumir información, sino para cuestionarla, entendiendo que existe una maquinaria diseñada para influir en lo que piensan, sienten y comparten.
La desinformación no es un problema exclusivamente tecnológico, sino un problema de criterio. En ese contexto, el pensamiento crítico deja de ser una habilidad deseable para convertirse en una condición de supervivencia cívica. Algunos países ya lo han entendido: en Finlandia, por ejemplo, se implementan talleres en escuelas donde los estudiantes son expuestos a información falsa y entrenados para detectar su veracidad. Ya no se trata de enseñar qué pensar, sino de enseñar a pensar. Porque en un mundo donde todo puede ser un deepfake, la única defensa real es una mente que sepa dudar bien.