Entre abril e junho de 2020, tanto o Facebook como a rede social Instagram tiveram menos moderadores a rever os conteúdos relacionados com suicídio, automutilação, imagens sexuais explícitas e nudez infantil. Esta falta de controlo de conteúdos deveu-se à pandemia, justifica a empresa. Com a obrigatoriedade da quarentena, a empresa viu-se forçada a enviar para casa cerca de 15 mil dos seus moderadores.
Como o Facebook considera que as tarefas inerentes ao trabalho não são compatíveis com o teletrabalho, estes moderadores deixaram de exercer as suas funções.
Apesar de já existirem algoritmos autónomos para a realização dessas mesmas funções, estes ainda apresentam erros.
Estes dados foram divulgados no Relatório trimestral de Aplicação dos Padrões da Comunidade e publicados na rede social esta terça-feira, 11 de agosto.
“O Facebook depende muito de pessoas para analisar conteúdos de suicídio, automutilação e exploração infantil, e para ajudar a melhorar a tecnologia que encontra e remove proativamente conteúdo idêntico”, esclarece a equipa em comunicado, frisando que “não foi possível calcular a prevalência de conteúdo violento e explícito, nudez e actividade sexual adulta” entre abril e junho.
Relativamente aos algoritmos autónomos, e segundo uma notícia avançada pelo Público, as maiores dificuldades centram-se na sua capacidade de perceção do contexto em que determinadas publicações são feitas e, assim, distinguir o conteúdo impróprio de conteúdo banal.
Nesse sentido, a gigante tecnológica, também detentora das aplicações WhatsApp e Instagram, determinou medidas mais restritas, originando bloqueios de publicações que não desrespeitavam as regras estabelecidas. Esse acontecimento gerou um role de queixas cuja análise e resposta dos especialistas demorou mais do que o habitual, admite a empresa.
No entanto, e apesar de haver falhas nos algoritmos autónomos nas matérias acima mencionadas, de acordo com o Facebook, houve áreas nas quais se verificou uma melhoria significativa. Entre elas está o “discurso de ódio” – discurso no qual é incentivada a violência sobre certa pessoa devido à sua raça, etnia, nacionalidade, religião, etc. A deteção deste tipo de conteúdo passou de 9,6 milhões de publicações, entre janeiro e março, para 22,5 milhões, entre abril e junho.
No final do comunicado, o Facebook esclarece que os relatórios trimestrais serão revistos por auditores independentes já no próximo ano, 2021, de forma a que as pessoas confiem nos dados divulgados, justifica.