Etiqueta: radicalización

¿El algoritmo de YouTube conduce a la radicalización?


(Foto de Chris McGrath / Getty Images)

Ahora sabemos que el tabaco es dañino, pero durante años, los cabilderos han luchado contra los médicos detrás del escenario del Congreso para evitar regulaciones que perjudiquen el resultado final de la industria del tabaco. El consumidor promedio no estaba al tanto de estas peleas; A mediados de la década de 1960, más estadounidenses fumaban que en cualquier otro momento de la historia. Pero al final, fue difícil escapar del hecho de que los cigarrillos son mortales.

La situación es la misma con YouTube y su algoritmo de recomendación, explica Guillaume Chaslot, ex empleado de Google.

Aunque la plataforma para compartir videos ha cambiado la forma en que su motor de referencia proporciona contenido asociado, los problemas son inherentes al ADN de YouTube, dijo Chaslot en la siguiente dirección: MozFest conferencia de internet en Londres recientemente. La única forma de combatirlos es regular y aceptar que la plataforma en sí está perjudicando a los espectadores.

En febrero de 2019, YouTube tuvo que finalizar 400 canales y deshabilitar los comentarios en millones de videos con menores, ya que se descubrió que los pedófilos estaban usando el sitio web para intercambiar información de contacto y enlaces a contenido pornográfico. con niños En los comentarios de estos videos, los usuarios especificarían dónde mostraron los niños sus piernas o espaldas desnudas.

Detrás de escena, el algoritmo de YouTube, que sugiere imparcialmente ofrecer más videos a sus usuarios, estaba listo para transmitir más videos infantiles a estos pedófilos a través del aprendizaje automático.

YouTube genérico

(Publicación futura / Colaborador / Getty)

El año pasado, YouTube dijo que era contratación 10.000 miembros adicionales del personal se centrarán en la "seguridad" en la plataforma. Y los usuarios pueden reportar contenido objetable; si YouTube acepta, se elimina.

Según Chaslot, sin embargo, el algoritmo de YouTube va en contra de eso. Es poco probable que un pedófilo reporte contenido que le agrade, así como es poco probable que un terrorista reporte videos extremistas. Además, a medida que el algoritmo adquiere más conocimiento sobre los usuarios, es cada vez más probable que recomiende este tipo de videos a los usuarios que los apreciarán y es menos probable que los muestren a quienes no les gusten.

Además, el sistema de informes no considera que los videos se vuelvan a importar o se modifiquen ligeramente para evitar la detección. Por ejemplo, después de la transmisión en vivo de Facebook de la filmación de Christchurch, los clips se compartieron en otros sitios de redes sociales, incluido YouTube.

Gran parte de nuestro conocimiento del algoritmo de YouTube proviene de lo que nos dice la compañía. En 2012, la compañía cambió su algoritmo de vistas de conducción a tiempo de conducción. En 2018, YouTube cambió aún más su algoritmo para recomendar más "organizaciones periodísticas confiables" después de promover teorías de conspiración tras el tiroteo de Parkland (y nuevamente en 2019).

YouTube dice que estos últimos cambios también incluyen "medir los gustos, disgustos, investigaciones y el tiempo dedicado" en la plataforma. Chaslot no está de acuerdo, diciendo que la única medida real que cuenta para YouTube es el tiempo que los usuarios pasan en YouTube. Cuanto más tiempo pasan las personas en el sitio, más anuncios se muestran y más gana dinero la empresa.

AlgoTransparency

Chaslot teme que las personas "no tengan idea de lo que hace el algoritmo". Es por eso que desarrolló AlgoTransparency, que intenta simular el algoritmo de YouTube.

La herramienta fue utilizada por El guardián para una historia sobre cómo YouTube está llevando a los usuarios a contenido extremo que nunca habrían visto antes. Comenzando con un video aleatorio en la plataforma, utiliza la función "Próximo" de YouTube miles de veces para ver a dónde lleva el sistema el usuario. Chaslot descubrió que la respuesta era un contenido político extremo.

AlgoTransparency

Los guardias El informe reveló que tres de los canales recomendados con mayor frecuencia pertenecían al famoso teórico de la conspiración Alex Jones, al hiperpartidista Fox News y a un canal llamado "Donald Trump Speeches & Press Conference".

YouTube no está de acuerdo con los argumentos de Chaslot en absoluto. Un portavoz dijo que el algoritmo de la compañía es "optimizar (d) para la satisfacción y calidad de la información", y no mirar el tiempo, que Chaslot describió mal su posición en YouTube , y que ninguna parte del sistema de recomendaciones que teníamos cuando el Sr. Chaslot era un empleado de Google ahora se usa en el sistema de recomendaciones de YouTube. "

Chaslot fue ingeniero de software para la compañía de octubre de 2010 a octubre de 2013 y ahora es miembro de Mozilla, que patrocinó MozFest, además de su trabajo en AlgoTransparency.

"Observamos nuestros sistemas, basados ​​en el contenido realmente popular (el Sr. Chaslot usa canales de semillas subjetivos), luego observamos si estaban apuntando a un nicho o no y también analizamos categorías específicas, como "Teorías de la tierra plana u otras teorías de conspiración, y concluyó que las afirmaciones del Sr. Chaslot no eran ciertas", dijo YouTube.

Chaslot admite que hay fallas en su método. "Si el algoritmo prefiere un video (en el sentido de que ya es popular en YouTube), se lo recomendará varias veces", dijo. "No sé exactamente cuántas personas (un video en particular) se han mostrado, solo sé cuántos canales diferentes lo han recomendado, YouTube puede decir que no está bien". Es genial ", digo", dame resultados reales. Tienes los datos, demuéstrame que estoy equivocado. "

Contenido sensacional y provocativo FTW

Otro factor a considerar es que el contenido que está a punto de violar los términos de uso de YouTube tiene un mejor rendimiento en la plataforma que el contenido tradicional, y YouTube ha tenido que tomar medidas. para que ya no se recomienden videos dudosos. "Es mucho más fácil hacer clickbait, buen clickbait, cuando no te importa la verdad", dijo Chaslot.

YouTube no está solo aquí. En 2018, Mark Zuckerberg escribió en un artículo en Facebook: "Uno de los mayores problemas que enfrentan las redes sociales es que, cuando no están controladas, las personas los involucran de maneras que desproporcionado con contenido más sensacionalista y provocativo. Nuestra investigación sugiere que lo que está permitido, cuando el contenido se acerca a esta línea, las personas lo usarán más en promedio, incluso cuando nos digan más tarde que no les gusta el contenido ".

En entrevistas con Bloomberg, los empleados de YouTube habrían descubierto que una categoría hipotética de "todo bien" era tan popular como las verticales de música, deportes y juegos de azar en YouTube con respecto al compromiso. . También se alentó a los empleados a no "romper el bote" porque cualquier idea de que YouTube estaría al tanto del contenido extremista en su plataforma y no se haría responsable de ello disminuiría el argumento de que actuaría como una plataforma y no como un proveedor de contenido.

Para Chaslot, la única solución a este problema es la regulación y la transparencia: posibilidad de que los gobiernos soliciten información sobre la cantidad de veces que un video ha sido recomendado a los usuarios y una mejor comprensión por parte del público en general de la operación de la plataforma de alojamiento de video.

"Mientras no sepamos qué está sucediendo en YouTube, no podemos hacer un cambio, ¿qué pediríamos cambiar?" Necesitamos una regulación extremadamente simple, como la capacidad de saber con qué frecuencia recomiendan algo a alguien ".