Cómo es el algoritmo que usa Facebook para controlar contenidos inapropiados

En los últimos meses, Facebook logró reducir la difusión de contenidos violentos, odiosos o sexuales con la ayuda de un programa basado en la inteligencia capaz de establecer conexiones entre mensajes, imágenes y comentarios.

“Con el nuevo algoritmo, que comenzó a ser utilizado durante 2020, Facebook puede ahora tener ´una visión de conjunto´”, explicó Mike Schroepfer, responsable técnico de la plataforma.

Anteriormente, el sistema de detección de la red social de Mark Zuckerberg solo permitía analizar un contenido a la vez, y, por ejemplo, no se podían cruzar las señales provenientes de una foto y de un mensaje, según informó la agencia AFP.

Una junta decide si Donald Trump volverá a dar “likes” en Facebook e Instagram

“Hay que comprender todo el contexto para analizar y eventualmente descartar un mensaje”, indicó Schroepfer, quien a su vez mencionó que el programa puede cruzar contenidos en varios idiomas.

El nuevo algoritmo puede descifrar además el sentido de “memes”, imágenes o animaciones en general con fin humorístico, que a veces contienen un mensaje de odio o discriminatorio comprensible sólo cuando se asocia el texto con la imagen.

Asimismo, este sistema evita el retiro de algunos mensajes que habrían desencadenado una alerta anteriormente a raíz de una palabra o una imagen interpretada de manera demasiado literal.

Cuáles fueron los resultados

Ahora bien, la empresa estadounidense atribuyó a esta herramienta el descenso en la difusión de contenidos inapropiados en su sitio.

Los indicadores trimestrales publicados el pasado miércoles midieron el número de veces que estos contenidos fueron vistos, y no su cantidad.

En el primer trimestre, entre 0,05% y 0,06% de los contenidos vistos por usuarios fueron considerados odiosos contra un margen de 0,07% a 0,08% en el cuarto trimestre de 2020 y de 0,10 % a 0,11 % en el tercer trimestre del mismo año.

Facebook probará qué pasa en Instagram si se oculta el “me gusta”

Además, Facebook también intervino en 34,3 millones de contenidos violentos o sensibles, contra 15,9 millones en el cuarto trimestre del 2020.

En el pasado, la red social ha sido acusada de no implementar suficientes políticas para moderar los contenidos que circulan en su plataforma.

En tanto, desde mayo del 2018, Facebook publica los indicadores trimestrales que ilustran su política de control de contenidos odiosos, violentos, de carácter sexual, “propaganda terrorista” y proveniente de cuentas falsas.

CFT/FL

También te puede interesar

También te puede interesar...

Leave a Comment