La tierra es menos plana: El plan de Youtube para detener videos conspiranoicos funciona
Las teorías de la conspiración están cayendo en Youtube. Su caldo de cultivo favorito lleva desde hace un año luchando por evitar serlo y los primeros resultados son esperanzadores… con matices.
El estudio: Un estudio de la Universidad de Berkley examinó 8 millones de recomendaciones durante un periodo de 15 meses. El resultado es que hay un 40% menos de sugerencias de videos conspiranoicos antes de que Youtube decidiese pararles los pies.
Entrenado para cazar: los investigadores crearon un algoritmo entrenado para determinar si un video contenía teorías de la conspiración según su descripción, comentarios y transcripción.
La tierra es menos plana: Según el estudio, Youtube ha conseguido pararle los pies a los conspiranoicos del 11S y a los terraplanistas. De junio a diciembre de 2019, las sugerencias de nuevos videos en ambos temas cayeron hasta un 70%. Sin embargo, el peso de la popularidad de los videos más vistos hizo que los investigadores retocaran su estudio, hasta unas cifras definitivas de un 40% menos.
Este muerto está muy vivo: son buenas noticias, sobre todo para una Youtube que en enero de 2019 vivió una de sus grandes crisis reputacionales a costa de cómo sus algoritmos fomentaban el éxito de estos videos. Pero no es una victoria: hay conspiradoras que siguen triunfando. Es el caso de las pirámides construidas por aliens y los negacionistas del cambio climático. Youtube permite unas conspiranoias y otras no.
Menos no significa menos impacto. El estudio tenía un problema de base, al no contar con la ayuda de Youtube: que revisaba las recomendaciones sin loguearse en la plataforma. Sin embargo, la mayoría de los usuarios consumen videos en Youtube con su cuenta activa, lo que implica que la cámara de eco del algoritmo les radicaliza más. Sin más control directo sobre lo que el algoritmo te muestra, el usuario siempre queda vendido.
Para lo demás, siempre nos quedará Mel Gibson.