Entre abril y junio de 2020 YouTube eliminó 11.401.696 videos de su plataforma, según informó la emprea en su último Informe de Transparencia. Un número elevado aunque para tener más precisión sobre el impacto en este sitio hay que incluir ciertos datos de contexto, como que se suben 500 horas de video por minuto a YouTube, una paltaforma que cuenta con 2000 millones de usuarios mensuales registrados, que consumen mil millones de horas de videos cada día.
El contenido problemático representa una fracción del 1% del contenido de YouTube, en tanto que el consumo de contenido dudoso o videos de desinformación que proviene de las recomendaciones de la plataforma está significativamente por debajo del 1% y se trabaja constantemente para reducir esto aún más, según la compañía.
La pregunta es: ¿cuál es el criterio que tiene YouTube para decidir qué se elimina y qué persiste en este universo digital? YouTube busca limitar el contenido dañino y, a la vez, preservar su esencia como plataforma abierta, según explicaron en una conferencia virtual de la que participó Infobae.
YouTube basa su política de responsabilidad en cuatro pilares, que consisten en: a) remover todo el contenido que viole las políticas de la comunidad; b) reducir la proliferación de contenido dudoso, que no viola las políticas, pero tampoco es de buena calidad; c) elevar el contenido de calidad y las voces autorizadas y d) premiar el contenido que está a la altura o supera los estándares de YouTube a través de la monetización.
Las normas de la comunidad
Entonces, ¿qué videos se eliminan? Los que infringen las normas de la comunidad, que se mencionan en su sitio y se enumeran a continuación:
Desnudos o contenido sexual: no se permite pornografía ni contenido sexualmente explícito.
Contenido dañino o peligroso: hace referencia a contendio que incite a las personas, especialmente niños, a realizar accoines que puedan provocarles lesiones graves. “Es posible que, en función de su gravedad, incluyamos restricciones de edad o retiremos los videos que muestren acciones peligrosas o dañinas”, se menciona en el texto.
Contenido de incitación al odio: no se permite contenido que promueva o consienta la violencia contra individuos o grupos por motivos de raza u origen étnico, religión, discapacidad, sexo, edad, nacionalidad, condición de veterano de guerra, orientación sexual o identidad de género; ni cuyo fin principal sea incitar al odio por alguna de dichas causas.
El año pasado, se actualizaron los lineamientos referidos a Políticas de Odio y Acoso para eliminar rápidamente cualquier contenido que las transgrede. Esos cambios, que surgieron del trabajo conjunto con varios expertos, permitieron definir mejor los criterios que permiten remover un video:
Remover contenido supremacista: se eliminará todo aquel contenido que declare que una raza, religión u otro grupo es superior a otro para justificar la discriminación, aunque no llame explícitamente a la violencia. Esto incluiría, por ejemplo, videos que afirmen que ciertas comunidades minoritarias están “enfermas / propagan enfermedades”.
Quitar acusaciones de inferioridad: no se permitirá alegar que otros son mental o físicamente inferiores cuando se describan estos atributos como una enfermedad, una deficiencia o como justificación de la subyugación. Esto incluiría los videos que contengan contenido conspirativo contra la comunidad LGTBQ, asociándolo a la pedofilia.
Añadir nuevos grupos protegidos: se sumó a este grupo a los sobrevivientes de los principales eventos violentos (y sus parientes cercanos), lo que significa que se eliminó el contenido que niega la ocurrencia de estos eventos violentos bien documentados.
Contenido violento o gráfico: no se permite publicar contenido violento o sangriento con el objeto de ser impactante, o sensacionalista. En caso de que se vaya a publicar contenido gráfico en un contexto de documental o informativo, hay que asegurarse de proporcionar contexto adecuado y asegurarse de que no haya excesos.
Acoso y ciberacoso: el contenido ofensivo, el acoso y ataque está prohibido en la paltaforma.
Amenazas: el hostigamento, acoso, agresión, la invasión de la privacidad, la revelación de información personal de terceros, la incitación a los actos violentos y la infracción de los condiciones de uso. no están permitidas. “Si una persona incurre en alguno de los comportamientos anteriores, es posible que la expulsemos de YouTube de forma permanente”, se menciona en el texto.
Spam, metadatos engañosos y estafas: una de las políticas dice que no se deben publicar miniaturas, títulos, etiquetas o descripciones de carácter fraudulento para aumentar el número de visualizaciones de los videos.
Derechos de autor: no se deben subir videos cuyos derechos pertenezcan a otro usuario, salvo que se cuente con autorización expresa para hacerlo. Esto también vale para audio y fragmentos de programas protegidos por derechos de autor.
Privacidad: cualquier usuario cuyo datos o imagen se haya utilizado en algún video sin su consentimiento puede pedirle a YouTube que retire ese contenido.
Suplantación de identidad: se pueden eliminar las cuentas que se creen con el objetivo de hacerse pasar por otro canal o usuario.
Seguridad de los menores: desde la plataforma destacan que buscan proteger a los menores y evitar que estén expuestos a riesgos dentro de la plataforma. “Ten en cuenta que colaboramos estrechamente con las autoridades policiales y que informaremos de cualquier tipo de contenido que implique situaciones de riesgo para los menores”, se subraya en el sitio sobre las políticas de la comunidad.
De acuerdo con el último informe de transparencia de YouTube (abril-junio 2020), el 33,5% de los videos fueron retirados por motivos de protección infantil; el 28,3% por tratarse de spam, engaños o trampa; el 14,6% por tener desnudos o contenido sexual; el 10,6% por tratarse de contenido violento o gráfico y el 8,1% por promover la violencia. El resto fue eliminado por contener contenido perjudicial o peligroso, incitar al odio o el acoso.
La moderación de contenido, un trabajo conjunto entre máquinas y humanos
La moderación de contenido, que consiste entre otras cosas en decidir qué videos pueden estar o no en la plataforma, es un trabajo conjunto entre humanos y máquinas. Así lo definió Jennifer Flannery O’Connor, directora global de Trust and Safety en YouTube, al ser consultada sobre este tema por Infobae.
Las maquinas encuentran contenido rápidamente, y a gran escala y eso es importante para actuar de manera efectiva, es decir para poder quitar o limitar el contenido sin demora, antes de que los usuarios estén expuestos, explicó O´Connor.
El punto es que las máquinas no siempre son tan precisas como los humanos, porque no pueden entender todas las sutilezas del lenguaje o las ironías. En ese sentido, suelen actuar, en general como nominadores: “identifican el contenido potencialmente dañino y luego lo envían a un humano para que éste termine de tomar la decisión final”, analizó O´Connor.
En algunos casos donde la infracción es más evidente y casi no hay margen de error, las máquinas pueden actuar solas sin requerir la decisión final de un humano. Esto ocurre puntualmente en el caso de la pornografía y contenido para adulto. En ese caso, como se trata de imágenes gráficas las máquinas son muy buenas en identificar el contenido.
“En cambio, en el caso de los discursos de odio, por ejemplo, las máquinas son buenas para nominar (el contenido) pero los humanos deben tomar la decisión final”, ejemplificó O´Connor.
Potenciar contenido de calidad
Así como se busca remover el contenido que viole las normas de la comunidad y reducir la visibilidad de contenido dudoso, desde YouTube vienen implementando diferentes estrategias que apunta a elevar o dar un espacio más relevante al contenido de calidad y las voces autorizadas, según explicó Woojin Kim, VP global de Manejo de Producto en YouTube, durante la charla.
En este sentido, se ejemplificó cómo se llevan adelante esfuerzos para darle más relevancia a fuentes fiables como pueden ser medio de noticias a la hora de pensar en contenido informativo, así como a organismos de salud, si se trata de noticias vinculadas al Covid-19.
Este año se desarrolló una nueva política sobre desinformación médica referida a Covid-19, que indica qué contenidos pueden publicarse y cuáles no: se estableció que YouTube no permite contenido que difunda información médica errónea que contradiga la información médica de la Organización Mundial de la Salud (OMS) o de las autoridades sanitarias locales, esto se limita al contenido referido a tratamiento, prevención, diagnóstico y transmisión.
Además, YouTube se asoció con las autoridades de salud en varios países de Latinoamérica, entre ellos Argentina y Brasil, para lanzar el Panel de Información sobre Covid-19, para asegurar la disponibilidad de información localmente relevante.
En el caso de temáticas sobre las cuales circula mucha desinformación o pueden dar lugar a la difusión de contenido falso, se incuye un panel de información para darle contexto adicional al usuario. En el caso del coronavirus en particular se generaron acciones tendientes a potenciar información veraz y de calidad.
En este sentido, en abril YouTube quitó de las recomendaciones de videos en su plataforma que vinculan sin fundamento la tecnología 5G con la expansión del coronavirus. “Nos comprometemos a proporcionar información oportuna y útil en este momento crítico, realzar el contenido de fuentes confiables, reducir la propagación de información errónea dañina y mostrar paneles de información, utilizando datos del NHS y la OMS, para ayudar a combatir la información errónea. Tenemos políticas claras que prohíben los videos que promueven métodos sin fundamento médico para prevenir el coronavirus en lugar de buscar tratamiento médico, y eliminamos rápidamente los videos que violan estas políticas cuando se nos notifica”, explicaron en ese entonces.
Fuente: Infobae