Deepfakes: nuevas razones para desconfiar de lo que vemos

Original article was published by Diane Chevalier on Deep Learning on Medium


Deepfakes: nuevas razones para desconfiar de lo que vemos

Jim Carrey en El resplandor, Ricky Fort como Iron Man o Cristina en Mean Girls. Probablemente hayas visto estos videos por algún rincón del mundo digital pero quizás no sabías que tienen nombre: deepfakes.

¿Qué es eso?

Explicación burda: es como un Photoshop para grabaciones audiovisuales. Deepfake surge de dos términos: deep learning, por aprendizaje profundo (el tipo de Inteligencia Artificial que interviene) y fake, porque presenta una realidad falsa.

Salvo que seas del campo de la informática, es difícil que entiendas cómo funciona — y yo tampoco te lo sabría explicar bien en términos técnicos — , así que hagamos un mini deepfake for dummies:

El concepto básico detrás de su tecnología es el de reconocimiento facial, lo mismo de lo que se vale esa app que te agrega 50 años o Instagram para que puedas usar ese filtro para bebotear. A través de Inteligencia Artificial, se toman videos e imágenes ya existentes para superponer la cara de una persona sobre la de otra, con el fin de crear una suerte de parche que permite falsificar sus gestos; así se logra un resultado muy realista en el que parece que la persona está haciendo o diciendo algo ficticio.

Si te quedaste con dudas, este proyecto te ayuda a entender mejor cómo funciona.

La manipulación de video no es nada nuevo, pero esta tecnología es increíblemente verosímil cuando está bien hecha. Si bien es bastante reciente, está creciendo y perfeccionándose exponencialmente con los años. A medida que el proceso se va automatizando, lo que solía estar reservado a geeks y expertos se vuelve cada más disponible para el público general, a través de herramientas como FakeApp, Faceswap o Zao.

¿Para qué se están usando?

Si bien los deepfakes se usan mucho para el entretenimiento y el humor, todo nuevo invento siempre encuentra su camino hacia el lado oscuro. Los principales conflictos pueden generarse cuando no se avisa al “protagonista” del deepfake (= no hay consentimiento para usar su imagen) y cuando no se informa al público de que se trata de un contenido falso.

Uno de sus usos más extendidos es en la pornografía. De hecho, podemos rastrear el origen del término a un usuario de Reddit que en 2017 publicó, bajo el alias Deepfake, videos porno usando face-swapping. Con el tiempo, este tipo de contenido comenzó a representar el 96% de los deepfakes que están online. En plataformas como PornHub explotaron los “videos pornográficos” de famosas (solo el 1% fue de famosos, ¿te sorprende?), en los que simplemente se superpusieron sus caras sobre grabaciones de actrices porno.

Si bien todavía no se usó mucho para este tipo de crímenes, también representa tierra fértil para las extorsiones y estafas. Un caso representativo es el de un CEO inglés que transfirió una suma altísima de plata luego de recibir una llamada del que pensaba que era su jefe (un voice deepfake a través del cual se imitó su voz). También se teme que en un futuro se pueda extorsionar a través de grabaciones de secuestros ficticios.

Y otro uso que tiene potencial de ser muy peligroso es en política. Los usuarios podrían difundir contenido para desacreditar a un candidato, sobre todo en época de elecciones; si hoy en día esto ocurre con fotos o incluso solo con información, imaginemos los desastres que un deepfake podría causar. Como si no hubiesen suficientes fake news dando vueltas por ahí. Y más grave sería que los políticos empezaran a situarse detrás de su génesis, como fue el (dudoso) caso de Manoj Tiwari.

¿Cómo detectarlos?

Mientras entrenamos a las computadoras para generar deepfakes, al otro lado del ring les estamos enseñando a combatirlos. Proyectos como Sensity o Deepfakes Detection Challenge (una iniciativa conjunta de Amazon, Facebook y Microsoft) se ocupan de detectarlos, sobre todo si de aplicaciones perjudiciales se trata.

Entre computadoras se entienden mejor, pero nosotros, simples mortales, podemos ser más susceptibles al engaño. Pero tranqui, hay algunos detalles en los que podés fijarte si querés darte cuenta si se trata de un video falso, entre ellos el pestañeo, los límites de la cara y la boca, con especial atención a identificar un lip sync defectuoso — si te gusta la música en vivo, algo de experiencia en esto último seguro tenés. Otros tips acá.

Ahora veamos si aprendiste algo. Clickeá el link de la opción que te parece falsa:

— — — — — — — — — Opción A 👇— — — Opción B 👇 — — — — — — — —

[Fuente: CNN]

¡Pero cuidado! Puede no estar bueno pasarnos de desconfiados. Desde que fuimos capaces de capturar lo que vemos, le atribuimos mucho valor a las imágenes como representaciones de la realidad y elementos confiables de prueba. Pero a medida que empezaron a surgir técnicas cada vez más sofisticadas de manipulación, nos permitimos empezar a dudar. Así, hechos emblemáticos como la llegada a la luna o el 11/9 generaron escepticismo incluso a pesar del registro visual existente.

Entonces, hay que considerar que estas herramientas pueden representar una amenaza tanto si somos demasiado ingenuos como si somos demasiado suspicaces. Pero mientras nos hacemos preguntas sobre los futuros peligros que pueden presentar para la sociedad y el sistema democrático, también podríamos permitirnos disfrutar de aquellos deepfakes que son inofensivos.