Deepfake: Qué es y cómo detectar este tipo videos y engaños visuales

Deepfake: Qué es y cómo detectar este tipo videos y engaños visuales

Últimamente se habla mucho del deepfake en los medios. Voy a contarte, a nivel básico, de qué se trata y qué implicaciones tiene.

Se trata de una técnica reciente (el concepto se acuñó en 2017) basada en inteligencia artificial que se usa principalmente en el campo del vídeo. Posibilita que se utilice la imagen de una persona o personaje en un clip audiovisual en el que realmente no ha participado.

Es decir, el deepfake toma imágenes de video y superpone la foto de una persona, actor, famoso, etc. Mediante aprendizaje automático esa cara es capaz de realizar todas las expresiones, movimientos y gestos que había en el vídeo original. La tecnología ha evolucionado mucho y, ahora, en segundos es posible obtener un video con buenos resultados que cualquier podría dar por bueno.

Deepfake: Videos con malas intenciones

Desafortunadamente, el deepfake, que es un ‘invento reciente’, se está utilizando para fines negativos o llenos de mala intención y supone una herramienta peligrosa, porque no permite distinguir lo que es real de un montaje. Al ritmo al que avanza la tecnología, será cada vez más imperceptible.

Así, los ciberdelincuentes se están sirviendo de esta herramienta para calumniar o difamar, poniendo en boca de personajes públicos palabras que nunca han dicho. Son un arma muy poderosa para crear fake news o hoaxes maliciosos. Incluso se puede llegar más allá y muchos ya se están sirviendo de la tecnología para generar vídeos pornográficos de famosas -que nunca hicieron- o para porno de venganza (revenge porn).

Deepfake: Qué es necesario para reconocerlo

¿Cómo saber cuando un vídeo se ha confeccionado usando deepfake? Los investigadores están haciendo estudios al respecto. Y, mientras se crean programas para generarlos, también están surgiendo aplicaciones con algoritmos para detectarlos.

En los últimos días se ha dado a conocer una investigación curiosa realizada por la Universidad de Oregón que habla de que los roedores, particularmente los ratones, serían un ‘detector orgánico de deepfake’ maravilloso. Estos animales serían capaces de identificar sonidos de conversación y ser entrenados para saber cuándo se trata de una conversación real o simulada.

Otros estudiosos apuntan en que la clave podría estar simplemente en tratar de leer los labios de las personas que hablan en los vídeos para saber si estos han sido modificados y son en realidad deepfake videos.

Deepfake videos: Se pueden detectar mejor con entrenamiento

Investigadores del MIT Media Lab y el Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano, indican que las personas mejoran en la detección de los deepfake con la práctica. En su experimento comprobaron que después de solo 10 imágenes pares de prueba aumentaron su precisión de calificación en más de 10 puntos porcentuales.

Así, en los usuarios que realizaron su experimento y vieron al menos 10 imágenes, el porcentaje de clasificación correcto ascendió al 78% en la primera imagen y las imágenes más manipuladas se identificaron correctamente más del 90% del tiempo.

«Nuestros resultados acumulan investigaciones recientes que sugieren que la intuición humana puede ser una fuente confiable de información sobre las perturbaciones adversas a las imágenes y la investigación reciente proporciona evidencias de que las personas familiarizadas sobre cómo se produce las fake news pueden tener cierta inmunidad cognitiva cuando están expuestas a la desinformación”, concluyen.

¿Has creado alguna startup que se apoya en los «deepfake videos» o, por el contrario, ayuda a cómo detectarlos mejor? ¿Estás buscando financiación para tu proyecto en este momento? Nosotros, en Dipcom Corporate, podemos ayudarte a que logres los fondos que necesitas para llevar tu empresa al siguiente nivel. Durante los últimos años hemos establecido una buena relación con el mundo del capital riesgo y los inversores. Si quieres más información ponte en contacto conmigo usando el siguiente formulario.

Deja un comentario

Enviar un comentario

Tu dirección de correo electrónico no será publicada.