Olá leitor, tudo bem?

Use os í­cones abaixo para compartilhar o conteúdo.
Todo o nosso material editorial (textos, fotos, ví­deos e artes) está protegido pela legislação brasileira sobre direitos autorais. Não é legal reproduzir o conteúdo em qualquer meio de comunicação, impresso ou eletrônico.
VOLTAR
FECHAR

Av. Dorival Cândido Luz de Oliveira, 6423 (parada 63) - Monte Belo - Gravataí - CEP: 94050-000
Fones: (51) 3489-4000

Central do Assinante: (51) 3600.3636
Central de Vendas: (51) 3591.2020
Whatsapp: (51) 99101.0318
PUBLICIDADE
Inteligência artificial

Facebook apagou 583 milhões de contas falsas no primeiro trimestre de 2018

Rede divulga números e reforça política para publicação de conteúdo
15/05/2018 14:50 15/05/2018 14:50

O Facebook informou nesta terça-feira (15) que apagou 583 milhões de contas falsas apenas nos três primeiros meses do ano, geralmente minutos após a criação. O número corresponde a algo como 3% a 4% de seus usuários mensais. A rede social também anunciou que agiu em 2,5 milhões de posts com discurso de ódio e tirou do ar 865,8 milhões de posts no primeiro trimestre: a maioria de spams, mas muitos de nudez, violência, discurso de ódio e terrorismo.

O relatório, com 86 páginas, é a primeira grande divulgação de como vem colocando em prática sua política para divulgação de conteúdo. As práticas do Facebook foram colocadas em xeque este ano após o escândalo por causa da privacidade dos dados e do impacto de conteúdo prejudicial em seus 2,2 bilhões de usuários mensais, com questionamentos de governos de todo o mundo.

O relatório desta terça-feira será agora divulgado duas vezes por ano e mostra também como os sistemas de inteligência artificial do Facebook são capazes de detectar publicações que burlam as regras antes mesmo de alguém conseguir vê-las.

As estatísticas mostram que as soluções computadorizadas lidam melhor com algumas questões que outras. Quase 100% dos casos de spam e 96% dos casos de nudez foram detectados com ajuda de tecnologia antes mesmo de reclamações dos usuários. Mas isso só ocorreu em apenas 28% das situações de discurso de ódio. As mensagens de discurso de ódio são mais difíceis de serem decifradas.

"É sempre um trabalho em andamento. Essas são as mesmas métricas que usamos internamente para guiar o trabalho das equipes. Estamos dividindo aqui porque acreditamos que precisamos ser transparentes", disse Guy Rosen, vice-presidente de administração de produtos do Facebook.

Apesar do avanço da inteligência artificial em lidar com conteúdos problemáticos, pessoas que trabalham como revisoras das políticas do Facebook ainda precisam concluir o trabalho. Uma foto de nudez, por exemplo, pode ser tanto pornografia quanto arte, e olhos humanos geralmente conseguem distinguir a diferença. A companhia espera que cerca de 20 mil pessoas trabalham com moderação de conteúdo até o fim do ano.


Correio de Gravataí
PUBLICIDADE
PUBLICIDADE
PUBLICIDADE