– Se Zuckerberg não se mexer logo, o ódio vai matar o Facebook –

 Com pressa de crescer, a rede custa a corrigir problemas

“Mexa-se depressa e quebre as coisas”, era a exortação que o fundador do Facebook, Mark Zuckerberg, fazia inicialmente a seus desenvolvedores. É o mantra típico de um hacker: mesmo que as ferramentas e funções que eles desenvolveram para essa plataforma não fossem perfeitas, a velocidade era a principal aspiração, mesmo que houvesse alguns tropeços no caminho.

Em 2016, começamos a perceber que uma das coisas que podem ser quebradas na busca por velocidade de Zuckerberg é a democracia. O Facebook tornou-se uma das plataformas preferidas para disseminar “notícias falsas” e foi o instrumento ideal para “microdirecionar” eleitores com mensagens políticas personalizadas.

Também veio a ser um meio de transmissão ao vivo para os que praticam atos de assédio, estupro, lesões corporais e, em um caso, assassinato.

Uma maneira de pensar a internet é que ela oferece um espelho à natureza humana. Toda a vida humana está lá, e muito do que vemos refletido nela é banal (gatos engraçados, por exemplo), inofensivo, encantador, esclarecedor e intensificador da vida. Mas parte do que vemos é horrível: violento, racista, odioso, desprezível, cruel, misógino e até pior.

PUBLICIDADE

Há aproximadamente 3,4 bilhões de usuários da internet em todo o mundo. O Facebook tem hoje quase 2 bilhões de usuários, o que representa cerca de 58% de todas as pessoas do mundo que usam a rede.

Discurso de ódio
O Facebook treina seus moderadores com slides como esses, cujos critérios são arbitrários e serão aplicados por uma equipe pequena demais ante o volume de informação
Era, portanto, inevitável que ele também se tornasse um espelho da natureza humana – e que as pessoas o usassem não apenas para bons propósitos, mas também para maus. Foi o que fizeram.

Zuckerberg e cia. demoraram para perceber que tinham um problema. E quando isso finalmente ficou claro para eles suas reações iniciais foram roboticamente inadequadas.

A primeira linha de defesa foi que o Facebook é apenas um canal condutor, algo que permite a livre expressão e a “formação de comunidades”, por isso não tem responsabilidade editorial pelo que as pessoas publicam lá.

A tática seguinte foi transferir a responsabilidade (e o trabalho) para os usuários do Facebook: se alguém encontrasse conteúdo inaceitável, bastaria marcá-lo e a empresa cuidaria do assunto.

Mas isso também não funcionou, então a reação seguinte foi o anúncio de que o Facebook estava trabalhando em uma solução tecnológica para o problema: programas de inteligência artificial encontrariam o material ofensivo e o eliminariam.

Entretanto, isso está além das capacidades da IA existente, por isso agora a empresa decidiu empregar um pequeno exército de monitores humanos (3 mil) que vão examinar todo o material desagradável e decidir o que fazer com ele.

Em um furo espetacular, The Guardian conseguiu cópias das diretrizes que esses censores vão aplicar. São uma leitura séria. Os moderadores têm apenas cerca de 10 segundos para tomar uma decisão.

Via Carta Capital

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

dez − 2 =