Bloomberg arremete contra YouTube en un reciente artículo en inglés del reportero Mark Bergen, donde asegura que los ejecutivos ignoraron las advertencias de los empleados y dejaron que los videos tóxicos se difundieran en la plataforma. ¿Qué revela la investigación?
Hace un año, Susan Wojcicki estaba en la palestra pública defendiendo a YouTube. Su compañía, machacada durante meses por alimentar falsedades en línea, se estaba recuperando de otro escándalo que involucraba un video de teoría conspirativa sobre el tiroteo de la preparatoria de Parkland, Florida, que sugería que las víctimas eran “actores de crisis”.
Wojcicki, la directora ejecutiva de YouTube, es una embajadora reacia, pero estuvo en la conferencia South by Southwest en Austin para presentar una solución que ayudaría a sofocar las teorías conspirativas: un pequeño cuadro de texto de las páginas web, como Wikipedia, que se ubicaría en la parte inferior de los videos. Eso cuestionó hechos bien establecidos, como el aterrizaje lunar y vincular a los espectadores con la verdad.
Se estima que la empresa de Wojcicki, empeñada en adelantarse a la televisión, gana en ventas más de 16 mil millones de dólares al año. Pero ese día, Wojcicki comparó su página de videos con un tipo de institución diferente. “Realmente somos más como una biblioteca”, dijo, destacando una posición familiar como defensora de la libertad de expresión. “Siempre ha habido controversias, si nos fijamos en las bibliotecas”, añadió.
Desde que Wojcicki subió al escenario, destacó que las teorías conspirativas en la plataforma ―incluyendo un video sobre la vacunación infantil y otro que vinculaba a Hillary Clinton con un culto satánico― provocaron la ira de los legisladores ansiosos por regular las compañías tecnológicas. “Y YouTube, un año después, está todavía más asociado con las partes más oscuras de la web”, aclara Bergen.
El enigma no es solo que los videos que cuestionan la llegada a la luna o la eficacia de las vacunas están en YouTube. Según Bergen, “la masiva ‘biblioteca’, generada por usuarios con poca supervisión editorial, está destinada a tener tonterías falsas. En cambio, el problema en YouTube es que permite florecer la tontería”. Y, en algunos casos, a través de su poderoso sistema de inteligencia artificial (IA), proporciona el combustible que le permite propagarse.
“Wojcicki y sus oficiales lo saben. En los últimos años, decenas de personas dentro de YouTube y Google, su propietario, expresaron su preocupación por la cantidad de contenido falso, incendiario y tóxico que surgió y difundió el portal de videos más grande del mundo”, explica Bergen.
Un empleado quiso marcar videos problemáticos, que incumplían con las normas del discurso de odio, y dejar de recomendarlos a los espectadores. Otro quiso rastrear estos videos en una hoja de cálculo para registrar su popularidad. Un tercero, preocupado por la propagación de los vloggers “de la derecha”, creó una vertical interna que mostraba lo populares que eran. Siempre obtuvieron la misma respuesta básica: No muevas el bote.
Para Bergen, la compañía pasó años persiguiendo un objetivo de negocios por encima de otros: “Engagement”, una medida de vistas, el tiempo dedicado y las interacciones con los videos en línea. “Las conversaciones con más de veinte personas que trabajan en YouTube, o que se fueron recientemente, revelan que un liderazgo corporativo no puede o no está dispuesto a actuar sobre estas alarmas internas por temor a ahogar el “engagement”.