Un nuevo estudio muestra que YouTube empuja a los usuarios hacia vídeos radicales y de extrema derecha
Una investigación presentada esta semana en Barcelona
encuentra "fuertes evidencias" de que los usuarios de YouTube
"migran constantemente a contenidos más extremistas" por las
recomendaciones de la plataforma
Carlos del Castillo
30/01/2020
La tendencia a la radicalización progresiva en los
contenidos que consumen los usuarios de YouTube ha sido un tema recurrente en
investigaciones periodísticas y de organizaciones especializadas en los últimos
años. (los investigadores) (1)..Un estudio presentado esta semana en la Conferencia tecnológica FAT, que
reúne esta semana en Barcelona a expertos mundiales en la equidad y
transparencia de los algoritmos, ha podido probar que "los usuarios migran
constantemente de contenido más moderado a más extremo" y que buena parte
de los miembros que integran las comunidades de extrema derecha en la
plataforma comenzó viendo vídeos sobre temáticas similares, pero de contenido
mucho menos radical.
"Hemos encontrado fuertes evidencias de radicalización
entre los usuarios de YouTube, y que el sistema de recomendación de contenidos
permite a los canales de extrema derecha ser descubiertos, incluso en un
escenario sin personalización" del algoritmo, aseveran en el estudio los
investigadores, procedentes de la Escuela Politécnica de Lausana (Suiza), de la
Universidad de Minas Gerais (Brasil) y de la Universidad de Harvard (EEUU).
La investigación se han basado en el análisis de 330.925
vídeos de 349 canales de YouTube, así como de los más de dos millones de vídeos
y diez millones de canales que recomendó el algoritmo de la plataforma a partir
del visionado de los primeros. Para seguir el rastro de los usuarios y
comprobar la evolución de los contenidos que consumían, los autores ha
analizado sus comentarios en estos vídeos, más de 72 millones en total.
Los comentarios y vídeos analizados pertenecían a tres
comunidades "tradicionalmente asociadas a la radicalización": la
Intellectual Dark Web, que comenta temas controvertidos como por ejemplo la
relación entre raza y coeficiente intelectual, aunque sin apoyar necesariamente
ideas extremistas o racistas; la alt-lite, un concepto surgido en EEUU en 2017
para nombrar una nueva corriente en la derecha caracterizada por rechazar el
conservadurismo moderado tradicional pero también ideas de extrema derecha como
el supremacismo blanco; y por último la alt-right o extrema derecha, comunidad
cuyos vídeos difunden abiertamente ideas racistas, machistas o negacionistas
con el cambio climático.
Lo que han encontrado los investigadores es que es fácil que
los vídeos de las dos primeras comunidades, más moderadas, sean promocionados
por la plataforma en una búsqueda sencilla de contenidos. No así los que se
pueden clasificar como de extrema derecha, que no aparecen en esas búsquedas
superficiales. Sin embargo, a partir del estudio de los comentarios en los
vídeos de la Intellectual Dark Web y de la alt-lite, los investigadores
encontraron hasta un 26% de los usuarios que habían comentado esos vídeos
aparecían "al cabo de los años" comentando en vídeos etiquetados como
de extrema derecha por efecto de las recomendaciones.
El estudio muestra
que esta tendencia se ha ido acelerando desde 2016, cuando apareció en escena
Donald Trump. Los mayores saltos de las comunidades más moderadas hacia la
extrema derecha se producen precisamente a partir de esa fecha. Por ejemplo,
hasta un 12% de los usuarios que empezaron a comentar vídeos moderados en 2017
fue expuesto a contenidos de extrema derecha por la plataforma en los
siguientes 18 meses. Esta cifra equivale a 60.000 personas.
Para comparar el trasvase de usuarios entre las comunidades
de la Intellectual Dark Web y la alt-lite con la extrema derecha con el que que
se produce desde otro tipo de canales, los investigadores han analizado también
cuántos consumidores de vídeos de noticias terminan apareciendo como
comentaristas de los contenidos radicales. En este caso el porcentaje se mueve
en torno al 1%.
Aunque todo apunta a que el algoritmo de YouTube guía a los
usuarios de la plataforma a contenidos cada vez más extremos, los
investigadores aclaran que no tienen pruebas de ello. Entre otras cosas, porque
no han introducido la variable de la personalización en la recomendación de
contenidos. "Aunque argumentamos que existe una fuerte evidencia de la
existencia de espirales de radicalización en YouTube, nuestro trabajo
proporciona poca información sobre por qué existen esas espirales. Elucidar
esas causas", explican los investigadores, "será importante para
comprender mejor los procesos de radicalización y el impacto de las redes
sociales en nuestras vidas".
"Por lo que sabemos, esta es la primera auditoría
cuantitativa a gran escala de la radicalización de usuarios en YouTube",
defienden.
YouTube critica el estudio
"Estamos totalmente en desacuerdo con la metodología,
los datos y, lo que es más importante, con las conclusiones que se han extraído
de esta nueva investigación", ha explicado un portavoz de YouTube en un
comunicado remitido a eldiario.es. "Si bien aceptamos la investigación
externa, este estudio no refleja los cambios que se han producido como
resultado de nuestra política del discurso del odio y las actualizaciones de
las recomendaciones", recogen.
Respecto a la metodología, los investigadores defienden que
rastrear los comentarios de los usuarios es un buen método de análisis, debido
a que los vídeos de las tres comunidades analizadas tienen un alto grado de
engagement. En el caso de la extrema derecha es particularmente alto, ya que
uno de cada cinco usuarios que ven un vídeo con este tipo de contenido lo
comenta. Además estas aportaciones son abrumadoramente positivas: de los 900
comentarios seleccionados aleatoriamente para analizar esta cuestión (300 en
cada comunidad), "solo 5 podían interpretarse como críticos con el vídeo
al que estaban asociados", señala el estudio.
"En los últimos años, hemos invertido mucho en
políticas, recursos y productos necesarios para proteger a la comunidad de
YouTube", responden desde la empresa, propiedad de Google: "Cambiamos
nuestros algoritmos de búsqueda para garantizar que el contenido más fidedigno
apareciese y se etiquetase de forma destacada en los resultados y
recomendaciones de las búsquedas, y comenzamos a reducir las recomendaciones de
contenido y vídeos de carácter dudoso que podrían desinformar a los usuarios de
forma perjudicial". Aseguran que gracias a este cambio se ha reducido un
50% las recomendaciones de este tipo de contenido extremista por parte de su
algoritmo.
No hay comentarios:
Publicar un comentario