Andrew Tate, el influencer antifeminista con reputación de odiar a las mujeres, fumar puros enormes todo el tiempo y afirmar golpear un trozo de madera 1000 veces al día, fue prohibido de Facebook, Instagram, TikTok, Twitch y YouTube en agosto pasado por discurso de odio; el era entonces arrestado en diciembre y acusado de varios delitos en relación con una supuesta operación de tráfico sexual, incluida la violación. (Tate tiene insistió es inocente.) Extrañamente, en realidad no se ha ido. Los maestros siguen preocupados sobre la influencia que sus horribles ideas sobre las mujeres como propiedad están teniendo en los adolescentes. Y su rostro todavía está en Internet, porque sus fanáticos (y algunos detractores) simplemente lo vuelven a subir, una y otra vez.
En particular, los usuarios del nuevo servicio de video de formato corto de YouTube (obviamente creado para competir con TikTok) dicen que no han podido alejarse de Tate. Aunque YouTube no permite que los usuarios vuelvan a publicar videos antiguos del canal prohibido de Tate, las personas pueden compartir clips de él de otras fuentes. En Reddit, puede desplazarse por muchos versiones de la misma pregunta: “¿Hay alguna forma de dejar de ver cualquier contenido de Andrew Tate?” Puede encontrar algo de conmiseración (“Cada otro clip es uno de este imbécil”), pero no encontrará muchas respuestas satisfactorias. Muchas de las personas que publican sobre la capacidad de Tate para acechar en el feed de YouTube Shorts afirman que no están haciendo nada que indique que están interesados en verlo. (“La mayoría de las cosas que veo en YouTube están relacionadas con la producción musical, la pintura digital, algo de historia de la moda, asmr y contenido ligero para relajarme”. un comentarista de Reddit escribióperplejo.) Otros dicho están dando comentarios explícitos que parecen ser ignorados: “Presiono ‘no recomendar’ cada vez que me recomiendan su contenido, pero nada funciona. ¿Solo necesito mantenerme fuera de las redes sociales hasta que muera?
La presencia continua de Tate es un misterio para los usuarios, pero tiene sentido en el contexto de las luchas actuales de YouTube. Los cortos son parte del esfuerzo de YouTube para ganarse a los espectadores de videos de TikTok y revertir una disminución en los ingresos publicitarios. Tate era una estrella enorme y rica, lo que significa que volver a publicar clips de él, o incluso clips de críticas o parodias de él, es una forma confiable para que los creadores de contenido de bajo esfuerzo ganen participación y ganancias potenciales.
El otoño pasado, YouTube Anunciado que traería anuncios a Shorts y compartiría los ingresos con los creadores, lo cual era necesario si iba a atraer talento que pudiera competir de manera significativa con TikTok. Este programa de participación en los ingresos finalmente comenzó a principios de febrero, como se señaló en un Informe de asuntos relacionados con los medios que argumentaba que Shorts estaba “lleno de vitriolo anti-LGBTQ, racismo, misoginia y desinformación sobre el COVID-19”. El informe citó un tuit del popular YouTuber Hank Green, cuyo canal, Vlogbrothers (que comparte con su hermano, el autor John Green), tiene más de 3,5 millones de suscriptores. Green dijo explícitamente que sentía que el algoritmo de recomendación de YouTube Shorts era peor que el de TikTok: “Es como, ‘nos hemos dado cuenta de que te gusta la física, ¿podría interesarte en algunos derechos de los hombres?'”.
TikTok, a pesar de todos sus problemas, tiene fuertes normas de creatividad y siempre está evolucionando. YouTube Shorts, parecen estar diciendo sus usuarios, de alguna manera está fallando y se ha quedado atascado en el pasado reciente y repugnante. Y aunque ciertamente todavía se pueden encontrar clips regurgitados de Tate en otras plataformas, ninguno de ellos ha creado la impresión de acosar indebidamente a sus usuarios con su contenido. (Es imposible saber si esto se debe a que sus algoritmos son realmente superiores o simplemente a que estos sitios tienen menos contenido de Tate en comparación con todo lo demás). La portavoz de YouTube, Elena Hernández, escribió en un comunicado enviado por correo electrónico: “El sistema de recomendaciones de YouTube tiene en cuenta una amplia gama de señales tanto personalizadas para el espectador como a escala de la actividad en toda la plataforma. También ofrecemos a las personas control sobre sus recomendaciones, incluida la capacidad de bloquear un video o canal específico para que no se les recomiende en el futuro. Debido a esto, las experiencias de dos espectadores no son iguales. Siempre estamos mejorando nuestro sistema de recomendaciones para ayudar a las personas a encontrar el contenido que quieren ver y lo encuentran valioso”.
Aunque YouTube tiene publicó algunos detalles acerca de cómo funciona su sistema de recomendaciones, los usuarios todavía tienen que hacer conjeturas, basándose en sus propias experiencias anecdóticas, sobre lo que sucede detrás de la pantalla, una práctica a la que algunos investigadores se refieren como la creación de “folclore algorítmico”. Y cuando comparten estas conjeturas en público, contribuyen a la impresión compartida de que el algoritmo de YouTube Shorts es inexplicablemente obstinado en sus esfuerzos para mostrar a los usuarios contenido ofensivo. (“Los cortos de YouTube son desagradables. Simplemente no puedes rechazar la misoginia del algoritmo..”) Brad Overbey, un YouTuber de 35 años con un canal de juegos popular, me dijo que cree que ve Tate y otro contenido misógino en su feed de YouTube Shorts debido a su perfil demográfico: blanco, de altos ingresos, experto en tecnología, de Texas. “Eso me pone en la tubería de la misoginia”, dijo. Pasó alrededor de una semana tratando de corregir las recomendaciones haciendo que no le gustaran cosas y bloqueando cuentas, pero no notó ningún cambio. “Ya ni siquiera juego con eso”, me dijo.
Leer: Elon Musk no puede resolver el problema de “prohibición de sombras” de Twitter
Overbey al menos tenía una teoría de por qué estaba recibiendo contenido de fans de Tate. Lux Houle, una usuaria de YouTube de 22 años que en su mayoría ve sketches de comedia y videos de cocina, me dijo que no tenía idea de por qué lo estaba viendo. “Comencé a no dar me gusta y a esconder las cuentas y a decir ‘No me muestres estas cosas’, pero seguía y seguía y seguía”, dijo. “Siempre son estas cuentas realmente pequeñas con 7,000 seguidores, pero tendrán 100,000 me gusta en Short. Siempre estoy realmente confundido por eso”.
Le dije que me preguntaba si parte del problema podría ser que las personas reaccionan emocionalmente a las recomendaciones que un algoritmo semi-antropomorfizado les hace específicamente: ¿Qué dice de mí que “mi” algoritmo crea que quiero ver esto? Le pregunté si se había involucrado con los videos de Tate viéndolos por curiosidad morbosa o compartiéndolos con amigos por odio, lo que podría haberle dado al sistema señales de que no tenía la intención o no recordaría. “Creo que al principio vi uno o dos, porque simplemente no sabía qué era”, dijo. “Ahora he llegado al punto en que puedo detectar su voz o su rostro. Pasaré de largo inmediatamente”.
Después de hablar con Houle, revisé mis propias recomendaciones de YouTube Shorts para ver si serían igualmente extraños, pero estaban bien: casi todos los clips de entrevistas de celebridades, probablemente porque uso YouTube principalmente para ver videos musicales y Compendio arquitectónico visitas a las casas de los actores. No fue hasta que salí de mi cuenta y usé Shorts como un usuario genérico por primera vez de YouTube que vi contenido espeluznante. Como me había dicho Overbey, era una vez cada ocho o diez vídeos. Obtendría un clip de un truco de fútbol genial, luego uno de una anciana cocinando, luego alguien pintando un retrato muy detallado de Scrooge McDuck. Gatitos, skaters, un pomerania en una bañera. Luego, después de “¡Mira cómo crece mi ratón!” ahí estaba Tate, comiendo un pastel con forma de Bugatti: 22 millones de visitas.
Estoy creando mi propio folclore algorítmico aquí, pero mi mejor suposición es que, debido a que Tate era tan popular, las cuentas que publican contenido de Tate terminaron entre las categorías predeterminadas de las que el algoritmo extraerá si no sabe mucho sobre lo que un usuario Quiere ver. Encaja a la perfección con el resto del contenido de mínimo común denominador: es simplemente más sorprendente y memorable.
Cuando hablé con Manoel Horta Ribeiro, un Ph.D. de cuarto año. estudiante del Instituto Federal Suizo de Tecnología en Lausana que estudia misoginia en línea y radicalización, me dijo que sería muy difícil, sin acceso a los datos de YouTube, decir si algo está mal con respecto a las recomendaciones de Shorts. No importa cuántas personas se quejen de que Tate se les muestra sin motivo, no hay forma de que un espectador lo sepa con certeza. “Sugieres que hay, como, un valor de referencia que es cuánto este contenido debería amplificarse, y que este contenido se amplificó por encima de este nivel de referencia”, dijo. “Pero creo que el gran problema es que es muy difícil definir el nivel de referencia”. Esta es una de las razones por las que los investigadores están todavía debatiendo el papel preciso que los algoritmos de recomendación de YouTube pueden desempeñar en la promoción del extremismo, la desinformación y otro contenido problemático.
Lee: Qué pasa cuando todo se convierte en TikTok
La explicación detrás del fantasma persistente de Andrew Tate es probablemente más simple de lo que les parece a las personas que están cansadas de verlo: es solo la larga vida media de la basura de Internet. Una prohibición no resuelve un problema de moderación de contenido inmediatamente; simplemente lo hace más complicado. de tate rosa estrella en TikTokcual ha tenido sus propios problemas deshacerse de su contenido incluso después de que lo prohibiera, pero YouTube Shorts ahora tiene la reputación de ser su hogar después del arresto. El sitio siempre ha sido criticado por la misoginia tan generalizada que es difícil o imposible de comprobar, incluso con reglas más estrictas y específicas. Ahora también está siendo criticado por intentar capturar la magia de la recomendación algorítmica al estilo TikTok y no lograrlo: al imitar algo contemporáneo y popular y aplicarlo a un sitio con décadas de historia espinosa, sin darse cuenta, ha resaltado cuán central siempre ha sido la misoginia. a su propia cultura.
Hasta cierto punto, argumentó Ribeiro, la recomendación de contenido de mal gusto es “el núcleo del concepto de las redes sociales”: cualquier persona con algún interés, sin importar qué tan específico sea, puede encontrar creadores y contenido relacionado con ese interés; todo saldrá a la superficie. El problema con eso es lo difícil que se vuelve entender, trabajando hacia atrás, lo que le importa a la gente. No quieres ver a Andrew Tate y esperas que nadie más lo haga. Pero, ¿realmente sabes si sus ideas son impopulares?