La guerra que no se ve: deepfakes y manipulación masiva

Las grandes potencias globales han desarrollado el concepto de Intelligentized Warfare, que integra la inteligencia artificial (IA) en la guerra cognitiva como parte de su doctrina de las Tres Guerras: sicológica, de opinión pública y legal.

Este tipo de acción bélica busca la «dominación mental» del adversario mediante sistemas de monitoreo sicológico inteligente, el uso de grandes modelos de lenguaje para operaciones sicológicas, y el desarrollo de la «confrontación cognitiva», con el fin de controlar los flujos de información.

La guerra cognitiva potenciada por la IA representa un desafío sin precedentes. Su capacidad para manipular percepciones y comportamientos a escala masiva y personalizada trasciende los conceptos tradicionales de conflicto, con impactos aún desconocidos en su totalidad para la sique humana.

Un deepfake (manipulación profunda) es una clase muy elaborada de medio sintético que utiliza técnicas de la ia y aprendizaje automático (ml) para fabricar o manipular audio, video o imágenes de apariencia convincentemente real.

El término proviene de la mezcla de deep learning (aprendizaje profundo) y fake (falso). Estas falsificaciones pueden ir desde la suplantación de caras en videos, hasta la creación de grabaciones de audio o imágenes totalmente construidas.

En consecuencia, pueden representar de manera convincente a individuos diciendo o haciendo cosas que nunca realizaron, y cada vez son más difíciles de distinguir de las grabaciones auténticas.

La IA tiene la capacidad de analizar sentimientos y emociones en tiempo real, identificar sesgos cognitivos y crear narrativas personalizadas dirigidas a audiencias específicas. Además, puede automatizar por completo campañas de desinformación, generando contenido, distribuyéndolo y midiendo su impacto al instante.

Imaginen alterar el discurso de un líder político o un jefe militar, de tal modo que difiera diametralmente de su versión original.

La evolución de esta tecnología ha sido vertiginosa. Entre 2023 y 2024, los incidentes de manipulación profunda aumentaron un 245 % interanual. De igual forma, se ha utilizado para dañar la reputación de personas, instituciones y gobiernos. Solo contra el presidente de Venezuela, Nicolás Maduro, se han contabilizado más de mil videos falsos en lo que va de año.

Quizás uno de los daños más significativos que provoca sea el conocido como «dividendo del mentiroso», que permite a actores maliciosos negar evidencia real de sus acciones, alegando que un contenido auténtico es en realidad un deepfake.

La respuesta efectiva a esta nueva forma de guerra requiere un enfoque integral que combine avances tecnológicos en detección, marcos regulatorios adaptativos, cooperación internacional y, fundamentalmente, educación pública sobre los riesgos y características de estos medios.

Fuentes

Compartir en :