FACEBOOK AUMENTA SU CAPACIDAD DE FILTRADO AUTOMÁTICO Y PREVIO PARA REMOVER CONTENIDOS EN APLICACIÓN DE SUS ESTÁNDARES COMUNITARIOS SOBRE DISCURSOS DE ODIO Y VIOLENCIA


Por OBSERVACOM – Observatorio Latinoamericano de Regulación Medios y Convergencia   ***

Recientemente, Facebook publicó su segundo Reporte de Transparencia (abril –septiembre 2018), en el que explica cómo aplica sus estándares comunitarios y enfatiza en sus avances en la detección y actuación sobre discursos de odio a través de soluciones algorítmicas, antes de que sean denunciados.

“Estamos mejorando proactivamente en la identificación de contenido violatorio antes de que alguien lo reporte, específicamente para discursos de odio y violencia y contenido gráfico”, sostiene la compañía. Indica que la detección de discursos de odio por parte de la plataforma (por soluciones algorítmicas y/o supervisión humana), antes de ser reportado por usuarios, pasó del 24% al 52%, mientras que la identificación de violencia y contenido gráfico pasó del 72% al 97%.

Analistas han llamado la atención sobre la aplicación de estas políticas cuando se trata de expresiones violentas en relación inmigrantes y minorías.

“La tecnología no captó más de 100 instancias en los últimos meses en los que usuarios de Facebook abogaron por disparar o matar a otros… Cerca de tres cuartos de los post examinados por The Daily Beast hacían referencia a caravanas de migrantes que fueron demonizados por los medios de derecha y el Presidente Donald Trump”, según una investigación de The Daily Beast.

Este medio de prensa aseguró que a pesar de que, en varias oportunidades, ellos reportaron contenido supuestamente violatorio a Facebook, la empresa no adoptó ninguna de las medidas contempladas por violaciones a discursos de odio en sus términos de servicio, que van desde llamados de atención a la prohibición permanente de los contenidos posteados.

En los casos reportados, Facebook se negó a remover posteos argumentando que no violaban sus términos porque abogaron por políticas particulares de los gobiernos sobre seguridad nacional o porque no atacaban a alguien por sus características.

En su primer reporte de transparencia donde da cuenta de los contenidos removidos por decisiones propias, Facebook había declarado que sólo en los primeros tres meses de 2019 había eliminado 2,5 millones de publicaciones con “discurso de odio”. Allí enfatizaba sobre el rol de los algoritmos en la detección de las violaciones a sus términos y condiciones como modo de afirmarse como “carreteras técnicas”, como mero transporte y no como editor de contenidos.
http://www.observacom.org/facebook-aumenta-su-capacidad-de-filtrado-automatico-y-previo-para-remover-contenidos-en-aplicacion-de-sus-estandares-comunitarios-sobre-discursos-de-odio-y-violencia/


Enlace permanente a este artículo: http://ellibertadorenlinea.com.ar/2019/02/16/facebook-aumenta-su-capacidad-de-filtrado-automatico-y-previo-para-remover-contenidos-en-aplicacion-de-sus-estandares-comunitarios-sobre-discursos-de-odio-y-violencia/