Facebook tiene bajo contrato a más de 1.000 empleados que continuamente leen y moderan “millones de mensajes, imágenes y videos privados” enviados a través de su servicio filial de WhatsApp, según un informe publicado por el portal ProPublica.
Entretanto, WhatsApp continúa promocionando sus políticas de privacidad y enfatiza que los mensajes cursados entre usuarios no pueden ser descifrados por la empresa. El director ejecutivo de Facebook, Mark Zuckerberg, aseguró durante su testimonio ante el Senado de EE.UU. en 2018: “No vemos nada del contenido en WhatsApp”. Sin embargo, de acuerdo con un nuevo informe basado en documentos internos y entrevistas con moderadores, resulta que no es así.
“WhatsApp tiene más de 1.000 trabajadores contratados, que llenan pisos de edificios de oficinas en Austin, Texas, Dublín y Singapur. […] Emiten juicios sobre cualquier cosa que aparezca en su pantalla, reclamos de todo, desde fraude o spam hasta pornografía infantil y posibles conspiraciones terroristas, generalmente en menos de un minuto”, escribió ProPublica. Estos moderadores no son empleados directos de WhatsApp o Facebook, sino que son contratistas que trabajan por 16,50 dólares la hora y están obligados a guardar silencio sobre su labor, bajo acuerdos de no divulgación.
¿Qué contenidos ven los moderadores?
Según el portal, los contenidos a los que deben estar atentos esos contratistas son mensajes reportados por los usuarios o marcados por inteligencia artificial. Así, cuando un internauta presiona ‘reportar’, el mensaje en cuestión, así como los cuatro anteriores en el chat respectivo, se descifran y se envían a uno de esos moderadores para su revisión.
Los mensajes seleccionados por la inteligencia artificial se examinan con base en datos no cifrados recopilados por WhatsApp, como “los nombres y las imágenes de perfil de los grupos de WhatsApp de los usuarios, sus números de teléfono, fotos de perfil, mensajes de estado, nivel de batería del teléfono, idioma y zona horaria, identificación única del teléfono móvil y dirección IP, intensidad de la señal inalámbrica y sistema operativo del teléfono, así como una lista de sus dispositivos electrónicos, cualquier cuenta de Facebook e Instagram relacionada, la última vez que usaron la aplicación y cualquier historial previo de violaciones”.
De otra parte, algunos de los mensajes revisados por los moderadores fueron marcados por error. WhatsApp cuenta con 2.000 millones de usuarios que hablan cientos de idiomas, y el personal a veces tiene que confiar en la herramienta de traducción de Facebook para analizar los mensajes marcados. Según un empleado, esa herramienta es “horrible” para decodificar la jerga local y el contenido político.
Los informes indican, además, que WhatsApp comparte ciertos datos privados con agencias de aplicación de la ley, como el Departamento de Justicia de EE.UU. A manera de ejemplo, ProPublica denuncia que datos de los usuarios de WhatsApp ayudaron a los fiscales a construir un caso contra una exempleada del Departamento del Tesoro, Natalie Edwards, que supuestamente filtró a BuzzFeed News informes bancarios confidenciales sobre transacciones sospechosas.
Respuesta de WhatsApp
El director de comunicaciones de WhatsApp, Carl Woog, reconoció que sus contratistas revisan los mensajes para identificar y eliminar a “los peores” abusadores, y aseveró que la compañía no considera que ese trabajo sea una moderación de contenidos. “En realidad, no solemos usar este término para WhatsApp”, dijo Woog a ProPublica.
“WhatsApp es un salvavidas para millones de personas en todo el mundo. Las decisiones que tomamos, sobre cómo creamos nuestra aplicación, se centran en la privacidad de nuestros usuarios, manteniendo un alto grado de confiabilidad y previniendo el abuso”, aseguraron desde la empresa.
RT