¿Conspiración o Sesgos?

Source: Deep Learning on Medium

¿Este ejecutivo de Google estaba profundamente mal informado o mintió en el New York Times?

Traducción de fast.ai curso recomendado

Escrito: 28 de mayo de 2019 por Rachel Thomas

YouTube ha jugado un papel significativo en la radicalización de las personas en las teorías de conspiración que promueven la supremacía blanca , anti-vaxxing , negación de fusilamientos en masa , negación del cambio climático , y la desconfianza de los principales medios de comunicación, mediante la recomendación de forma agresiva (y reproducción automática) vídeos sobre estos temas a las personas que Ni siquiera los buscaba . Las recomendaciones de YouTube representan el 70% del tiempo dedicado a la plataforma , y estas recomendaciones incluyen desproporcionadamente teorías de conspiración dañinas. El algoritmo de recomendación de YouTube está tratando de maximizar el tiempo de reproducción , y el contenido que te convence del resto de los medios está mintiendo resultará en más tiempo mirando YouTube.

Dado todo esto, es de esperar que Google / YouTube tome en serio estos problemas y esté trabajando para abordarlos. Sin embargo, cuando el New York Times entrevistó al ejecutivo de productos más importante de YouTube , Neal Mohan, hizo una serie de declaraciones que, en mi opinión, fueron muy engañosas, perpetuaron conceptos erróneos, negaron la responsabilidad y minimizaron un problema que ha destruido vidas. Mohan ha sido ejecutivo sénior en Google durante más de 10 años y tiene 20 años de experiencia en la industria de anuncios en Internet (que es el modelo comercial central de Google / YouTube). Google es conocido por controlar cuidadosamente su imagen pública, sin embargo, Google no ha emitido ningún tipo de retracción o corrección de las declaraciones de Mohan. Entre la experiencia de Mohan y el control de Google sobre su imagen, no podemos descartar esta entrevista.

Radicalización a través de YouTube

En todo el mundo, las personas miran mil millones de horas de YouTube por día (sí, eso dice POR DÍA). Una gran parte de los éxitos de YouTube se debe a su sistema de recomendación, en el que se muestra un panel de videos recomendados al usuario y el video superior comienza a reproducirse automáticamente una vez que finaliza el video anterior. Esto genera el 70% del tiempo dedicado a YouTube . Por desgracia, estas recomendaciones son desproporcionadamente para las teorías de la conspiración que promueven la supremacía blanca , anti-vaxxing , negación de fusilamientos en masa , el cambio climático negación , y negando la veracidad de las fuentes principales medios de comunicación. “YouTube puede ser uno de los instrumentos de radicalización más poderosos del siglo XXI “, escribió el profesor Zeynep Tufekci en el New York Times . YouTube es propiedad de Google, que está ganando miles de millones de dólares al presentar agresivamente a las personas vulnerables a las teorías de conspiración, mientras que el resto de la sociedad asume los costos externalizados .

Que esta pasando? El algoritmo de YouTube se creó para maximizar la cantidad de tiempo que las personas pasan viendo YouTube, y los teóricos de la conspiración ven significativamente más YouTube que las personas que confían en una variedad de fuentes de medios . Desafortunadamente, un sistema de recomendación que solo intenta maximizar el tiempo que pasa en su propia plataforma incentivará el contenido que le dice que el resto de los medios están mintiendo , como lo explicó el denunciante de YouTube Guillaume Chaslot .

¿Qué investigación se ha hecho sobre esto?

Guillaume Chaslot, quien tiene un doctorado en inteligencia artificial y trabajó anteriormente en Google en el sistema de recomendación de YouTube, escribió un software que realiza una búsqueda en YouTube con una frase “semilla” (como “Donald Trump”, “Michelle Obama” o “es el ¿redondo o plano? “), y registra qué video es” Up Next “como la recomendación principal, y luego sigue qué video es” Up Next “después de eso, y así sucesivamente. El software hace esto sin historial de visualización (para que las recomendaciones no estén influenciadas por las preferencias del usuario), y lo repite miles de veces.

Chaslot recopiló 8,000 videos de las recomendaciones de “Up Next” entre agosto y noviembre de 2016: la mitad llegó como parte de la cadena de recomendaciones después de buscar “Clinton” y la otra mitad después de buscar “Trump”. Cuando los periodistas de Guardian analizaron los videos , descubrieron que tenían 6 veces más probabilidades de ser anti-Hillary Clinton (independientemente de si el usuario había buscado “Trump” o “Clinton”), y que muchos contenían teorías de conspiración salvajes:

“Hubo docenas de videos que indicaban que Clinton había tenido un colapso mental, informando que tenía sífilis o enfermedad de Parkinson, acusándola de tener relaciones sexuales secretas, incluso con Yoko Ono. Muchos eran incluso más oscuros, fabricando el contenido de las divulgaciones de WikiLeaks para hacer afirmaciones infundadas, acusando a Clinton de estar involucrado en asesinatos o conectándola con cultos satánicos y pedófilos “.

Este es solo uno de los muchos temas que Chaslot ha investigado . La investigación cuantitativa de Chaslot sobre las recomendaciones de YouTube ha sido cubierta por The Wall Street Journal , NBC , MIT Tech Review , The Washington Post , Wired y otros sitios .

En febrero de 2018, Google prometió publicar una publicación de blog refutando Chaslot (pero aún no lo ha hecho)

Según la Columbia Journalism Review , “cuando The Guardian escribió sobre la investigación de Chaslot, dice que representantes de Google y YouTube criticaron su metodología e intentaron convencer al medio de noticias de que no hiciera la historia, y prometieron publicar una publicación en el blog que refutara sus afirmaciones. No se publicó tal publicación. Google dijo que estaba ‘totalmente en desacuerdo’ con la investigación, pero después de que el senador Mark Warner expresó su preocupación sobre la promoción de YouTube de lo que llamó ‘contenido escandaloso, salazgo y a menudo fraudulento’, Google agradeció a The Guardian por hacer la historia ”.

¿Por qué Google afirmaría que tenían evidencia que refutaba la investigación de Chaslot y luego nunca la publicaría? La historia de The Guardian se publicó hace más de un año, pero Google aún no ha producido su publicación de blog prometida. Esto me sugiere que Google estaba mintiendo. Es importante tener esto en cuenta al sopesar la veracidad de las afirmaciones más recientes de los líderes de Google con respecto a YouTube.

¿En qué se equivocó Neal Mohan?

El Director de Producto de YouTube, Neal Mohan, fue entrevistado en el New York Times , donde parecía negar un fenómeno bien documentado, ignorando que el 70% del tiempo que pasa en el sitio proviene de las recomendaciones de reproducción automática (en su lugar, culpa a los usuarios por los videos que eligen hacer clic), hizo un argumento sin sentido de “ambos lados” (aunque YouTube tiene videos extremistas, ¿también tienen videos no extremistas …?), y perpetuaron conceptos erróneos (lo que sugiere que dado que el extremismo no es una entrada explícita al algoritmo, que los resultados no pueden estar sesgados hacia el extremismo). En general, sus respuestas a menudo parecían evasivas, no respondían a la pregunta que se le había formulado, y en ningún momento parecía asumir la responsabilidad de los errores o daños causados ​​por YouTube.

Incluso el periodista que entrevistó a Mohan pareció sorprendido, interrumpiéndolo en un momento para aclarar: “Lo siento, ¿puedo interrumpirlo por un segundo? Solo déjame ser claro: ¿Estás diciendo que no hay un efecto de madriguera en YouTube? ” (El“ efecto de madriguera de conejo ”es cuando el sistema de recomendación recomienda gradualmente videos que son cada vez más extremos). En respuesta, Mohan culpó a los usuarios y todavía no pudo dar una respuesta directa.

Como antecedente, Mohan comenzó a trabajar en la industria de anuncios en Internet en 1997 en DoubleClick, que fue adquirida por Google por $ 3,1 mil millones en 2008. Mohan luego se desempeñó como vicepresidente sénior de anuncios gráficos y de video para Google durante 7 años, antes de cambiar al rol de Director de Producto de YouTube de Google. La principal fuente de ingresos de YouTube son los anuncios, y en 2018, se estimó que YouTube estaba haciendo $ 15 mil millones en ventas anuales y con un valor de hasta $ 100 mil millones. Mohan es tan querido por Google que le ofrecieron $ 100 millones adicionales en acciones en 2013 para rechazar una oferta de trabajo de Twitter. En general, esto significa que Mohan tiene 11 años de experiencia como ejecutivo senior de Google y más de 20 años de experiencia en la industria de anuncios en Internet.

Todos los datos, pruebas e investigaciones muestran que el extremismo impulsa el compromiso y que YouTube promueve el extremismo.

“No es el caso de que el contenido ‘extremo’ impulse una versión más alta de interacción o tiempo de visualización que el contenido de otros tipos”.Neal Mohan

Desafortunadamente, cualquier sistema de recomendación que intente maximizar el tiempo dedicado a su propia plataforma incentivará el contenido que le dice que el resto de los medios están mintiendo . Una publicación de blog de Google de 2012 y un artículo de 2016 publicado por ingenieros de YouTube confirman esto: el algoritmo de YouTube fue diseñado para maximizar el tiempo de visualización. El ex ingeniero de YouTube Guillaume Chaslot explica la dinámica con más detalle aquí .

Los problemas del papel de YouTube en la radicalización han sido confirmados por investigaciones del Wall Street Journal y The Guardian , proyectos de investigación cuantitativa como AlgoTransparency y 20 empleados actuales y anteriores de YouTube . Cinco altos funcionarios que abandonaron Google / YouTube en los últimos 2 años en privado mencionaron el fracaso del liderazgo de YouTube para abordar el contenido falso, incendiario y tóxico como su razón para irse. Que Mohan intente negar esto parece tan extravagante como muchas de las teorías de conspiración promovidas en YouTube.

Según una investigación de Bloomberg , los líderes de Google han rechazado repetidamente los esfuerzos del personal de YouTube que intentaron abordar o incluso investigar el tema del contenido falso, incendiario y tóxico.“Un empleado quería marcar videos problemáticos, que no cumplían con las reglas de discurso de odio, y dejar de recomendarlos a los espectadores. Otro quería seguir estos videos en una hoja de cálculo para trazar su popularidad. Un tercero, preocupado por la difusión de los video bloggers “alt-right”, creó una vertical interna que mostraba cuán populares eran. Cada vez que obtuvieron la misma respuesta básica: no mecen el bote … En febrero de 2018, un video que llamó a las víctimas de disparos de Parkland “actores de crisis” se volvió viral en la página de tendencias de YouTube. El personal de políticas sugirió poco después de limitar las recomendaciones en la página a fuentes de noticias examinadas. La gerencia de YouTube rechazó la propuesta “.

El 70% de las visitas de YouTube provienen de la reproducción automática de sus recomendaciones

“No estoy diciendo que un usuario no pueda hacer clic en uno de esos videos que son más extremos entre comillas, consumir eso y luego obtener otro conjunto de recomendaciones y seguir moviéndose en un camino u otro. Todo lo que digo es que no es inevitable. “Neal Mohan

Esta declaración ignora la forma en que la reproducción automática de YouTube funciona junto con las recomendaciones, lo que impulsa el 70% del tiempo que los usuarios pasan en el sitio , según una charla anterior que dio Neal Mohan. Sí, técnicamente, no es “inevitable”, pero es el mecanismo que impulsa 700 millones de horas de videos vistos POR DÍA (70% de mil millones). La declaración de Mohan sugiere que los usuarios eligen hacer clic en videos extremos, mientras que en la mayoría de los casos YouTube selecciona los videos y comienzan a reproducirlos automáticamente sin necesidad de hacer clic.

Estudio de caso: Alex Jones

Para comprender el papel de las recomendaciones de reproducción automática de YouTube, es crucial comprender la distinción entre alojar contenido y promocionar contenido . Para ilustrar con un ejemplo, YouTube recomendó al director de Infowars Alex Jones 15,000,000,000 de veces (antes de prohibirlo en agosto de 2018). Si no está familiarizado con Alex Jones, el Southern Poverty Law Center lo califica como el teórico de la conspiración más prolífico de los tiempos contemporáneos. Una de sus teorías de conspiración es que el tiroteo en la escuela primaria Sandy Hook 2012, en el que 20 niños fueron asesinados, fue falsificado, y que los padres de los niños asesinados están mintiendo. Esto ha resultado en una campaña de acoso de muchos años contra estos padres en duelo: muchos de ellos han tenido que mudarse varias veces para tratar de evadir el acoso yun padre se suicidó recientemente . Alex Jones también aboga por la supremacía blanca, contra las vacunas, y que las víctimas del tiroteo en la escuela de Parkland son “actores de crisis”.

El problema no es que la gente buscara videos de Alex Jones; el problema es que YouTube recomendó (y a menudo comenzó a reproducir automáticamente) los videos de Alex Jones 15,000,000,000 de veces para personas que ni siquiera los buscaban . Más recientemente, YouTube ha estado promoviendo agresivamente el contenido de Russia Today (RT) , un medio de propaganda estatal ruso.

Como Renee DiResta, experta en propaganda computacional, escribió para Wired : “No hay derecho a la amplificación de la Primera Enmienda, y el algoritmo ya está decidiendo lo que ves. Los sistemas de recomendación basados ​​en contenido y el filtrado colaborativo nunca son neutrales; siempre están clasificando un video, pin o grupo contra otro cuando deciden qué mostrarles ”. Las teorías de conspiración de reproducción automática aumentan los ingresos de YouTube: a medida que las personas se radicalizan, dejan de pasar tiempo en los medios de comunicación principales y pasan cada vez más tiempo en Youtube.

Los algoritmos pueden estar sesgados en variables que no son parte del conjunto de datos.

“Lo que digo es que cuando se ve un video, verá una cantidad de videos que luego se recomiendan. Algunos de esos videos pueden tener la percepción de sesgarse en una dirección o, ya sabes, llamarlo más extremo. Hay otros videos que se desvían en la dirección opuesta “, Mohan dio una vaga defensa de” ambos lados “, aunque no está claro cómo los videos menos extremos equilibran los videos más extremos. Continuó: “Y de nuevo, nuestros sistemas no están haciendo esto, porque esa no es una señal que alimenta las recomendaciones”. Mohan sugiere que dado que el extremismo no es una variable explícita que se introduce en el algoritmo, el algoritmo no puede ser sesgado hacia material extremista. Esto es falso, pero es un error común y peligroso.

Los algoritmos pueden estar sesgados (y a menudo lo están) en variables que no forman parte del conjunto de datos. De hecho, esto es lo que hace el aprendizaje automático: selecciona variables latentes. Por ejemplo, se encontró que el algoritmo de reincidencia de COMPAS, utilizado en muchas salas de justicia de los EE. UU. Como parte de las decisiones de libertad bajo fianza, sentencia o libertad condicional, tenía casi el doble de una tasa de falsos positivos para los defensores negros en comparación con los defensores blancos. Es decir, el 45% de los defensores negros que fueron etiquetados como de “alto riesgo” no cometieron otro delito; en comparación con el 24% de los defensores blancos. La raza no es una variable de entrada para este software, por lo que, según el razonamiento de Mohan, no debería haber ningún problema.

No solo ignorar factores como la raza, el género o el extremismo no lo protege de los resultados sesgados, sino que muchos expertos en aprendizaje automático recomiendan lo contrario: debe medir estas cantidades para asegurarse de que no esté sesgado injustamente.

YouTube está utilizando el aprendizaje automático para bombear la contaminación a la sociedad. De mi charla TEDx.

Al igual que muchas personas en todo el mundo, estoy alarmado por el resurgimiento de los movimientos de supremacía blanca y la continua negación del cambio climático, y me enferma pensar cuánto dinero ha ganado YouTube al promover agresivamente tales teorías de conspiración a personas que ni siquiera eran buscándolos. Paso la mayor parte de mi tiempo estudiando ética de la inteligencia artificial, y he estado incluyendo el comportamiento de YouTube como ejemplo (de lo que no debo hacer) en mis charlas principales durante los últimos 2 años. Aunque sé que las grandes compañías tecnológicas no harán lo correcto a menos que se vean obligadas a hacerlo por una regulación significativa, esta entrevista del New York Times me desanimó. No solo Google / YouTube todavía no se toma en serio estos problemas, sino que es insultante que piensen que el resto de nosotros seremos aplacados por sus engañosas evasivas de habla corporativa y a medias.

Recursos Relacionados