Con Veo 3 estamos viendo un riesgo emergente: ya no podremos saber si un vídeo es real o no
En 2018, cuando comenzaron a circular los primeros deepfakes, dijimos que aquello era el principio del fin de la credibilidad del vídeo como prueba. Nos equivocamos. No fue el principio del fin. Fue el primer aviso de que el fin estaba cerca.
Ahora, con Veo 3 de Google, ese momento ha llegado. Los clips que circulan por Reddit y X son indistinguibles de grabaciones reales. No hablamos de manos con seis dedos o rostros del valle inquietante. Hablamos de vídeos que superan cualquier test visual que pudiéramos hacer como simples espectadores. Y si no lo logran ya, lo lograrán dentro de poco. Sobre todo en un mundo que consume vídeo en pequeñas pantallas de móvil, menos detallistas.
El fin del vídeo como prueba irrefutable
Durante décadas, el vídeo ha sido nuestro estándar de oro para la evidencia. “Lo he visto con mis propios ojos” era sinónimo de certeza total. Una grabación bastaba para tumbar gobiernos o demostrar inocencias. Ese axioma del consumo de información está muriendo ante nuestros ojos.
Los usuarios de Veo 3 comparten clips de noticias falsas sobre desastres, políticos fallecidos y violencia que nunca ocurrió. Con diálogos sincronizados, efectos realistas y física creíble. El modelo incluso añade conversaciones que no estaban en el prompt original, como si tuviera criterio editorial propio. Es IA con instinto narrativo.
Pero aquí está el verdadero problema: no es solo que podamos crear vídeos falsos convincentes. Es que nos vamos quedando sin formas de distinguir los reales de los sintéticos sin herramientas técnicas sofisticadas. Estamos entrando en una era de agnosticismo visual permanente, donde cada vídeo llevará implícita la pregunta: “¿Esto realmente pasó?”.
La coartada perfecta para negar la realidad
Macron fue empujado por su mujer al bajar del avión. El Elíseo negó que el vídeo fuese real: “No es un vídeo real, está hecho con IA”. Tuvo que acabar admitiendo que sí era real, pero el daño estaba hecho: habían descubierto la coartada perfecta.
Si cualquier vídeo puede ser sintético, entonces cualquier vídeo incómodo puede ser desacreditado simplemente alegando que es artificial. La IA se convierte en el argumento de escape universal. El político pillado, la empresa vulnerando derechos, el régimen documentando represión… todos tienen ahora la duda razonable más perfecta jamás inventada.
No hace falta demostrar que un vídeo es falso, basta con sembrar la sospecha. En un mundo donde la falsificación es técnicamente posible, la posibilidad se convierte en argumento suficiente.
Paradójicamente, una tecnología que nos permite crear ficción perfecta también nos permite negar la realidad perfectamente documentada.
Aprender a vivir sin certezas visuales
Las salvaguardas de Google son selectivas: no puedes generar a Biden cayéndose, pero sí desastres naturales y violencia urbana. Te protegen de lo obvio, no de lo sutil.
Si cada vídeo puede ser falso…
- ¿Qué le pasa a una sociedad que basa su conocimiento del mundo en el consumo audiovisual?
- ¿Cómo juzgamos credibilidad, culpabilidad o legitimidad cuando cualquier prueba puede fabricarse en minutos?
La solución no puede ser solo técnica. Necesitamos una alfabetización mediática que asuma la falsificabilidad como punto de partida. Pero sobre todo, aceptar que hemos perdido para siempre uno de nuestros instrumentos más básicos para distinguir realidad de ficción.
El vídeo como prueba ha muerto. O está a punto de hacerlo. Solo nos queda aprender a vivir en un mundo donde seeing is no longer believing.
En Xataka | Cómo probar Veo 3 para crear vídeos con Gemini: requisitos y pasos para poder usarlo
Imagen destacada | Google DeepMind
–
La noticia
Con Veo 3 estamos viendo un riesgo emergente: ya no podremos saber si un vídeo es real o no
fue publicada originalmente en
Xataka
por
Javier Lacort
.