Lo que hace apenas dos décadas era considerado ciencia ficción, hoy es una realidad cotidiana: la inteligencia artificial (IA) ha alcanzado la capacidad de suplantar rostros, voces y gestos humanos con una precisión escalofriante. Estas simulaciones, conocidas como deep fakes, se expanden a gran velocidad y con un potencial de daño que pone en jaque no sólo a figuras públicas, sino también a sistemas democráticos enteros y relaciones internacionales sensibles.
En la era de la ‘posverdad’, donde la desinformación circula a la velocidad de un click, los deep fakes se han convertido en una de las herramientas más poderosas -y peligrosas- de manipulación social. Desde videos porno falsos de celebridades hasta discursos inventados de presidentes, la línea entre lo real y lo fabricado se desdibuja cada vez más.
“Los deep fakes son una amenaza directa al sistema democrático y al mantenimiento de la paz en las relaciones internacionales”, afirma el abogado Carlos Christian Sueiro, profesor de Criminalidad Informática.
Si bien la edición de imágenes no es nueva -herramientas como Photoshop existen desde la década del ‘90- la combinación de IA, machine learning y redes neuronales ha permitido generar contenido falso en movimiento que es casi imposible de distinguir del original. Y lo que antes requería conocimientos avanzados y poder de procesamiento, hcualquier persona puede hacerlo desde un teléfono.
Herramientas como ChatGPT, Gemini, Copilot, Claude, Llama 3 o Sora han democratizado la creación de este tipo de contenidos. En segundos, un usuario puede hacer que un presidente diga algo que jamás dijo o colocar el rostro de una figura pública en un cuerpo ajeno con resultados sorprendentemente verosímiles.
“La accesibilidad de estas herramientas es parte del problema. Ya no hace falta ser un experto para generar una falsificación profunda. Con solo unas pocas instrucciones, cualquiera puede producir un video que altere la opinión pública o incluso detone un conflicto”, señala Sueiro.
El uso político de los deep fakes no es una hipótesis, sino un fenómeno en plena expansión. En 2017, un video falso del emir de Qatar, Tamim bin Hamad al-Thani, en el que supuestamente elogiaba a grupos terroristas como Hezbolá y Hamás, desató una crisis diplomática con varios países árabes. El video era una falsificación, pero su impacto fue real y duradero.
En nuestro país, el fenómeno tocó la puerta en las elecciones porteñas de mayo de este año. Durante la veda electoral, circuló un video en el que el expresidente Mauricio Macri, supuestamente, pedía votar por candidatos de La Libertad Avanza. Aunque se demostró que era falso, el daño ya estaba hecho. “Su detección resultaba muy difícil a simple vista”, recuerda Sueiro.
“Estamos frente a una nueva forma de guerra: no la tradicional, sino una de narrativas falsas. Una que no necesita tanques ni bombas, sino servidores, likes y compartidos”, advierte el especialista.
Frente a esta amenaza, la Universidad de Albany (EE.UU.) desarrolló un protocolo para identificar deep fakes a partir del análisis forense de imágenes y sonido. Entre las señales de alerta más comunes están:
* Parpadeo irregular o ausente, síntoma de una IA mal entrenada.
* Desincronización entre voz y labios, especialmente en clips largos.
* Duración breve del video: las simulaciones más convincentes rara vez superan los 60 segundos sin fallos evidentes.
* Situaciones inverosímiles o incoherentes, como figuras públicas realizando actos impropios o absurdos.
* Cuerpos que no coinciden con los rostros, sobre todo cuando la IA sólo reemplaza la cara.
“Un buen ejercicio es dudar. Si un contenido te parece increíble, probablemente lo sea. Lo importante es no compartir antes de verificar”, recomienda Sueiro.
La legislación, sin embargo, va varios pasos por detrás. Actualmente, muchos países no cuentan con normas específicas que regulen el uso de identidad digital ni penalicen la creación de deep fakes.
Frente a esta laguna, Dinamarca impulsa una reforma innovadora: una ley de propiedad intelectual sobre la identidad digital. La propuesta busca otorgar a cada ciudadano el derecho exclusivo sobre el uso de su rostro y su voz, y permitir el retiro inmediato de contenido generado sin consentimiento.
“Se trata de una medida urgente y necesaria frente a una tecnología que puede ser utilizada para desinformar, manipular elecciones o generar conflictos geopolíticos”, sostiene Sueiro. Además, enfatiza que “el reconocimiento legal de la identidad digital como propiedad intelectual es un paso clave para frenar el abuso de estas tecnologías”.
El gobierno danés ya anunció que propondrá esta reforma a nivel de la Unión Europea durante su presidencia rotativa en el segundo semestre de 2025.
Más allá de la ley, la batalla contra los deep fakes también es cultural. Sueiro insiste en la necesidad de alfabetización digital masiva. “No podemos dejar que la población quede a merced de estas manipulaciones. La educación en verificación de fuentes y pensamiento crítico debe empezar desde la escuela”, sostiene.
El periodismo, por su parte, también está obligado a adaptarse. Las redacciones deberán incorporar herramientas de detección forense y fortalecer sus protocolos éticos frente al uso de videos o audios que no provengan de fuentes verificadas.
“El rol del periodismo será clave para desacelerar la desinformación. La velocidad no puede seguir siendo más importante que la veracidad”, concluye Sueiro.
AMENAZA
Los deep fakes ya no son una curiosidad técnica, sino una amenaza concreta. En una era donde la confianza pública está en juego, los gobiernos, los medios, las plataformas digitales y los ciudadanos deben actuar coordinadamente para establecer límites, construir conciencia y defender la integridad de la verdad.