Gemini ahora te ayuda a saber si un vídeo ha sido generado con IA

Google expande su herramienta de verificación a los vídeos, aunque con una importante limitación

Gemini ahora te ayuda a saber si un vídeo ha sido generado con IA
Esta tecnología, desarrollada por Google, se incrusta de forma automática en todo el contenido generado o editado con sus herramientas de IA
Publicado en Google

La creciente oleada de vídeos hiperrealistas generados por inteligencia artificial ha hecho que distinguir la realidad de la ficción sea un desafío para muchos internautas, en respuesta, Google ha reforzado las herramientas de transparencia de su asistente de IA, Gemini; ahora, los usuarios pueden subir un vídeo al modelo para preguntarle: "¿Este vídeo fue generado con Google AI?".

Sin embargo, esta nueva capacidad tiene una salvedad importante que limita su utilidad a nivel general.

¿Cómo funciona?

El proceso para usar el detector es sencillo e intuitivo; dentro de la aplicación de Gemini, ya sea en su versión web o móvil, solo necesitas subir el archivo de vídeo en cuestión y plantear la pregunta, Gemini se encarga del resto: analiza tanto la pista de audio como la de video en busca de una marca de agua digital imperceptible para el ojo humano llamada SynthID.

Esta tecnología, desarrollada por Google, se incrusta de forma automática en todo el contenido generado o editado con sus herramientas de IA, cuando el sistema encuentra esta marca de agua, no se limita a dar un "sí" o "no" genérico, en su lugar, ofrece una respuesta contextualizada que puede precisar, por ejemplo: "Se detectó SynthID en el audio entre los segundos 10 y 20. No se detectó SynthID en las imágenes". Cabe destacar que los archivos que se pueden analizar tienen limitaciones técnicas, ya que, según advierte el propio Google, deben pesar menos de 100 MB y tener una duración máxima de 90 segundos.

Además, la salvedad que mencioné antes no es ninguna tontería, Gemini solo puede identificar de manera confiable el contenido que lleva la "huella digital" de SynthID, es decir, es decir, el creado con herramientas de IA de Google, si un vídeo fue generado con un modelo de la competencia, como Sora o cualquier otro, Gemini no podrá determinar su origen.

Este tipo de herramientas es algo positivo, por supuesto, pero expertos como Jeremy Carrasco, de Showtoolsai, advierte de que las limitaciones de esta herramienta y la no existencia de un estándar universal de "seguridad IA" que nos permita identificar qué material es "orgánico" y cuál nace de un modelo de lenguaje es algo extremadamente peligroso, llegando a afirmar que una herramienta de esas características nunca se va a materializar debido a que "simplemente no da dinero, las empresas no tienen incentivo para crearlo si no se les obliga".

@showtoolsai

Why is AI unsafe? It seems like as AI improves, its safety norms are deteriorating. AI videos and photos have fewer guard rails than before. What can we do about it?

♬ original sound - Jeremy Carrasco

De nuevo, SynthID es útil, pero recomiendo complementarlo con un pensamiento crítico activo, es vital cuestionarse quién habría filmado una escena y por qué, observar si las leyes de la realidad se violan sutilmente, o prestar atención a anomalías en partes complejas como las manos, la sincronización labial o el "ruido" digital de la cámara, estas son habilidades humanas clave que nos pueden ayudar a detectar videos artificiales sin necesidad de marcas de agua.

Para ti
Queremos saber tu opinión. ¡Comenta!