¿IA de nuevo? Hablemos de Deepfake

Source: Deep Learning on Medium

¿IA de nuevo? Hablemos de deepfake

Uno de los grandes problemas de la comunicación por plataformas tecnológicas es la veracidad y el fácil acceso a la creación de la misma. Por tanto, el beneficio del fácil acceso tecnológico depende del uso que se le dé, de modo que, al ser más accesible su impacto se vuelve más fuerte. Además, al día de hoy existen muchas herramientas que facilitan la información tergiversada o inventada; sin embargo, no mucha gente las conoce. Por otro lado, el tema pornografico es muy utilizado para difamar o extorsionar a alguien y abundan las tecnologías que se utilizan para este fin.

Deepfake es una tecnología relativamente nueva la cual ya ha causado un gran impacto en los últimos años. Particularmente, en la mayoría de los casos es utilizada para fines ponograficos. Además, se ha empleado para crear videos falsos de políticos y demás, creando un ambiente preocupante a nivel social, político y económico; sin embargo, no todo es oscuro, el deepfake se ha pensado como un posible recurso en el cine, así como para el estudio de IA y el diseño.

¿Qué es deepfake?

El deepfake consiste en crear videos de una persona mediante una serie de fotografías, utilizando estas de tal forma que se acoplen a la cara de la persona en el video mediante inteligencia artificial. Además, esta tecnología también es conocida por crear audios y fotografías falsas según la siguiente nota en Deeptrace.

El deepfake, como se mencionó anteriormente, funciona con inteligencia artificial. En particular, GANs (así es como se conoce en inglés por sus siglas la red generativa antagónica) es el método usualmente utilizado para el desarrollo de deepfakes. Por otra parte, el proceso de aprendizaje es desarrollado por lo que se conoce como el generador y el discriminador; en consecuencia, estos programas están continuamente interactuando hasta que el discriminador “cree” el trabajo creado por el generador y por tanto la tarea es completada.

ejemplo de obama

La ambivalencia prevalece con el avance tecnológico

El tema ético en el campo tecnológico cada vez es más focalizado, esto implica una relación directa con el uso que se le da a la misma. Esto es, identificar cuales son los fines del uso tecnológico y clasificarlos en algo bueno o malo; en consecuencia, antiguas y nuevas tecnologías son constantemente analizadas para la creación de leyes que regulen su uso; sin embargo, su análisis no lleva la misma línea al ritmo en que avanza.

Se podría creer que el deepfake solo lo puede realizar una persona experta ya sea en IA o en algún campo del diseño, sin embargo, es más sencillo de lo que parece. Es decir, existen programas e incluso repositorios con el código listo para iniciar la falsificación. Por un lado, es bueno que existan herramientas tecnológicas disponibles para el uso público. Sin embargo, se crea un ambiente de impotencia para crear soluciones efectivas en la detección de este tipo de usos.

Según el pionero en tecnologías Hao Li, dedicado a la computación gráfica; a finales de este año:

“Las deepfakes “perfectamente reales” llegarán de 6 meses a un año”

Según el estudio publicado por Giorgio Patrini, CEO de Deeptrace en julio de este año:

….el fenómeno de deepfake está creciendo rápidamente en línea, con el número de videos de deepfake casi duplicándose en los últimos siete meses a 14,678. Este aumento está respaldado por la creciente mercantilización de herramientas y servicios que reducen la barrera para que los no expertos creen falsificaciones profundas….”

Según el mismo estudio, Alrededor del 96% del contenido creado por deepfakes es para pornografía, prominentemente la no consensuada. Por ejemplo, el caso de Rana Ayyub, una periodista india a la cual querían manchar su reputación con un video pornográfico falso; en consecuencia, esto permite crear contenidos para difamar o extorsionar a alguien, a pesar de que sea falso; Inclusive, se ha estado tomando en cuenta seriamente el uso del deepfake para las elecciones del 2020 por las consecuencias colaterales, ya sean, sociales o políticas.

El deepfake compartido en plataformas tecnológicas como facebook o twitter, permiten el desarrollo de la manipulación sistemática. Incluso, el deepfake se puede emplear en otros medios de comunicación como llamadas telefónicas o videollamadas, no solo videos. Por otra parte, manejar una falsedad en masas es más complicado, tomando en cuenta los niveles económicos y educativos hablando socialmente; es decir, un tipo de tecnología inexistente en la realidad de grandes grupos permite un ambiente de caos difícil de manejar. En conclusión, el tema se vuelve más extenso y complicado cuando se puede entrever el uso que se le puede dar tomando en cuenta la brecha de conocimiento tecnológico entre las personas que se dedican a trabajar en estos campos y las que no.

Hany Farid, experto en digital-forensics en la Universidad de California menciona:

“… Nos superaron…Es de 1 a 100 la relación entre el detector en oposición al número de personas que están del lado de la síntesis del video….”

Ambiente Pornográfico

En asuntos de avances tecnológicos la pornografía siempre ha estado allí. En particular: sitios web, plataformas de comunicación, VR, robótica, IA, multimedia, e inclusive en la colaboración de lenguajes de programación y programas debido al tipo de contenido (multimedia sobre diferentes plataformas, uso del web responsive para distintos browsers y plataformas etc… ) y la demanda. Es decir, es de reconocer el impacto de la industria pornografica en la tecnología, tal se puede ver en esta entrevista hecha a un desarrollador de la muy conocida página pornografica PornHub.

La pornografía es uno de los puntos focales para el deepfake, dejando la puerta abierta a la manipulación. Además, artistas que aparecen en videos (prácticamente en todos los encontrados) pornograficos falsos son mujeres; aparte, la facilidad de creación de este tipo de videos junto con el gran tema tabú de la sexualidad, se vuelve una bomba de tiempo. Por tanto, el hecho de que las soluciones no son igual de rápidas a la propagación de la problemática por todo el internet permite que el ambiente se vuelva más tétrico.

El mercado de este tipo de contenido existe y lo respaldan las cifras de sus visitas y es obvio que seguirán en aumento. Según Giorgio Patrini, CEO de Deeptrace, los principales sitios web dedicados a la ponográfía que utiliza deepfake recibieron alrededor de 134 millones de visitas en videos donde incluyen mujeres famosas de todo el mundo. Por un lado, el photoshop ya es considerada una herramienta para crear contenido pornografico de mujeres sin su consentimiento; por otro lado, se da un impacto más importante en un video que, además, es más difícil identificar como falsedad.

Según una nota de Vice, donde Alia Janine, artista pornográfica retirada menciona:

“…De alguna manera muestra cómo algunos hombres básicamente solo ven a las mujeres como objetos que pueden manipular y verse obligadas a hacer lo que quieran … Simplemente muestra una total falta de respeto por los artistas porno en la película, y también por las actrices femeninas.”

¿Soluciones?

Un grupo de 26 líderes e investigadores se reunieron en Oxford para discutir sobre IA y sus posibles peligros en el futuro, el resultado un informe de 100 páginas. Una de las recomendaciones dice:

“…Los investigadores e ingenieros en inteligencia artificial deberían tomar en serio la naturaleza del doble uso de su trabajo…”

Actualmente la brecha entre lo fácil que es crear un video de estos y las leyes que protegen a las personas afectadas en el es abrupta. En particular: leyes insuficientes o nulas para este tipo de casos, leyes que protegen las compañías tecnológicas o simplemente inexistentes para las dos partes. En consecuencia, las víctimas muchas veces quedan de brazos cruzados ante este tipo de contenido; Sin embargo, han surgido varias iniciativas para poder combatir el deepfake.

Las víctimas tienen varios caminos legales. Por ejemplo: extorsión, derechos de autor, difamación entre otros; sin embargo, son casos difíciles de ganar porque usualmente la persona que creó el video está en anonimato y como se mencionó anteriormente no hay muchas leyes a acudir en este tipo de casos. Por otra parte, las compañías no se responsabilizan por el contenido de terceros (sección 230 de la Ley de Decencia en las Comunicaciones) y por ende el lugar donde se publique el contenido falso no está en la obligación de eliminarlo; en consecuencia, las víctimas tienen pocas o nulas opciones para ganar; además, hay que recordar que la eliminación de un contenido multimedia es difícil de manejar ya que se esparce rápidamente por en internet y se puede guardar el material en diferentes dispositivos.

Una de las soluciones planteadas es utilizar IA para poder identificar este tipo de falsificaciones, es decir, fuego contra fuego. Al igual que el deepfake, se pueden desarrollar tecnologías las cuales aprendan a identificar falsificaciones en videos, fotografías o audios. Por tanto, esto permitiría el desarrollo de soluciones mientras se sigue desenvolviendo el deepfake.

Empresas como Facebook han tratado de buscar soluciones. Según la nota en Vice, se creó un desafío llamado Deepfake Detection Challenge, programa al cual se le dedicó $10 millones como incentivo.

Dessa es una compañía canadiense la cual trabaja con inteligencia artificial, esta se ha dedicado a hacer investigaciones sobre el deepfake. Actualmente, comparten algunos de sus avances de IA en GitHub, así ayudan a comunidades, estudiantes e investigadores para que puedan acceder a estas herramientas y poder hacer sus propias investigaciones, asimismo como colaborar. Sin embargo, en algunos casos han sido cuestionada, ya que, al ser de código abierto permite que personas con intenciones maliciosas se aprovechen de estas herramientas para generar deepfakes.

No todo es malo, el deepfake es una tecnología que podría aportar en la parte artística, sobretodo en el cine. Por ejemplo, si algún actor muere, se puede utilizar una base de datos del mismo para poder crear el contenido. En consecuencia, este tipo de investigaciones y tienen aportes significativos para nuevas formas de expresión artística utilizando la tecnología como puente.

En conclusión, el deepfake vino para quedarse. Mejorar leyes y colaborar colectivamente a la solución de estos problemas, podría ser una vía para el inicio de las soluciones de este tipo de problemática. Las tecnologías están constantemente avanzando y evolucionando, es decir, por más que se quiera estar al día, la realidad es que se pisan sus talones. Países como china ya han clasificado el deepfake como ilegal, muchos expertos en inteligencia artificial y demás están colaborando en soluciones; sin embargo, queda mucho camino por recorrer y el paso es lento, comparado al desarrollo exponencial que este tipo de tecnologías tienen.