Facebook atraviesa uno de sus momentos más delicados tras semanas de filtraciones: todo lo que ha salido a la luz hasta ahora

Facebook atraviesa uno de sus momentos más delicados tras semanas de filtraciones: todo lo que ha salido a la luz hasta ahora

EE.UU., 4 oct 2021 (ATB Digital).- Los "archivos de Facebook" están provocando una crisis de confianza en la red social. Las acciones de la empresa se han resentido y la compañía de Mark Zuckerberg ha tenido que declarar frente al Congreso de los EE.UU para dar más detalles sobre estos documentos internos filtrados.

La publicación de estas investigaciones internas da comienzo el pasado 13 de septiembre, cuando el Wall Street Journal publica la primera parte de la información que había recibido por parte de un (ahora ex) trabajador de alto rango dentro de Facebook.

Esto es todo lo que ha salido hasta ahora sobre Facebook e Instagram, qué dicen estos documentos internos y qué han desvelado sobre la manera de trabajar de la compañía y su impacto en los usuarios.

"Los archivos de Facebook", nombre de la revelación de documentos internos filtrados por el Wall Street Journal.

Una de las primeras informaciones que apareció sobre Facebook fue que tenían una investigación interna donde encontraron que "un 32% de chicas dicen que cuando se sienten mal con su cuerpo, Instagram las hace sentir peor". Un componente negativo de Instagram que contrastaba claramente con el mensaje público de Facebook, que hasta la fecha había mantenido una respuesta casi diametralmente opuesta a la del informe.

El informe mostraba el impacto de Instagram entre los adolescentes que declararon tener pensamientos suicidas, donde el 13% de los usuarios británicos y el 6% de los estadounidenses atribuyeron este deseo a Instagram. En respuesta, el equipo de Instagram explicó que siguen apoyando las conclusiones de esa investigación y demuestra su "compromiso de comprender los problemas complejos y difíciles".

Facebook no ha compartido públicamente las investigaciones internas, pero sí ha mostrado esta captura para replicar la posición del WSJ.

Además de no estar haciendo lo que decían públicamente, la revelación de estos documentos internos mostró otro problema dentro de Facebook: estaban haciendo rutinariamente excepciones para personas poderosas a través de un exclusivo programa conocido como XCheck. Pese a existir una serie de reglas marcadas en cuanto a desinformación, según revelan estos documentos internos, no se cumplían de igual manera para todos los usuarios.

Mirando hacia otro lado con el contenido polarizante

En 2018, Jonah Peretti, CEO de BuzzFeed, envió un correo a Facebook apuntando que un artículo titulado "21 cosas que casi todas las personas blancas son culpables de decir" había conseguido una viralidad extraordinariamente alta. Es el inicio de la tercera parte de los "archivos de Facebook", donde se muestra que la plataforma encontró que se estaba recompensando los contenidos más indignados y Zuckerberg se resistió a aplicar las soluciones propuestas.


Detrás de la publicación de estos archivos se encuentran Frances Haugen, ex-directora de producto de Facebook. En una entrevista con 60 Minutes, esta científica de datos con experiencia previa en Google y Pinterest, explica algunos detalles internos sobre Facebook que han puesto a la compañía en el ojo del huracán.

"Es sustancialmente peor en que todo lo que había visto antes en otras plataformas", apunta Haugen. La red social incentiva el "contenido que enfada, polarizante y divisivo". Según explica Haugen, los intereses de Facebook (ganar más dinero) chocaban habitualmente con lo que era bueno para el público.

Estos estudios internos apuntan, según defiende Haugen, a que Facebook ha estado mintiendo sobre los avances significativos contra el odio, la violencia y la desinformación. Según un informe interno, tras todos los cambios, el odio en la plataforma se habría reducido entre un 3 y un 5%.

"Facebook gana más dinero cuando se consume más contenido. La gente se involucra más con cosas que provocan una reacción emocional. Y a cuanta más rabia se les expone, más interactúan y más consumen", explica.

La "débil respuesta" frente a problemas con tráfico de personas o drogas

Otro de los capítulos de los documentos de Facebook publicados hasta ahora por el Wall Street Journal muestra un caso donde empleados avisaron que se estaban publicando mensajes en países en desarrollo sobre tráfico de personas, venta de órganos, pornografía, violencia contra minorías étnicas y drogas. Todos estos mensajes claramente prohibidos por las reglas de la propia plataforma, pero donde, según los documentos internos, la respuesta de la empresa fue en muchos casos inadecuada o nula.

La compañía dispone de verificadores locales y asociaciones para mantener a los usuarios seguros, pero, según apunta Haugen, la falta de más moderadores locales en esos mercados permitió que se extendieran esas publicaciones.

El caso viene de lejos. En 2019, la BBC publicaba un documental sobre cómo traficantes de personas usaban Facebook para vender víctimas, bajo la apariencia de agencias de empleo. A raíz de aquella investigación, Apple amenazó a Facebook con dar de baja su aplicación de la App Store, según describe el WSJ. El documento interno revela que Facebook ya era consciente de este problema antes de la publicación de la BBC y la amenaza de Apple.

El final de los archivos internos de Facebook termina en el punto en que Haugen abandona la compañía. Ella trabajaba en el área de Integridad Cívica, para luchar contra la desinformación durante las elecciones. Sin embargo, después de estas hubo un punto de inflexión y se decidió disolver este área, según explica la filtradora. Dos meses más tarde y con las elecciones todavía en caliente, ocurría el asalto al Capitolio, apunta la ex-directora de producto de Facebook.

"Todos los días, nuestros equipos deben equilibrar la protección del derecho de miles de millones de personas a expresarse abiertamente con la necesidad de mantener nuestra plataforma como un lugar seguro y positivo. Continuamos realizando mejoras significativas para abordar la propagación de información errónea y contenido dañino. Sugerir que fomentamos el mal contenido y no hacemos nada simplemente no es cierto", ha expresado en respuesta Lena Pietsch, portavoz de Facebook.

(AGENCIAS)

Página procesada en: 14,99 segundos.
Tiempo: 15.3975 segundos.