Tempo de leitura: 5 minutos

Bloomberg Opinion — O Facebook está planejando mudar seu nome para algo relacionado ao metaverso, uma nova rede digital para comunicação por realidade aumentada e virtual, segundo relatório do The Verge, que cita uma fonte com conhecimento direto . No fim de semana, a empresa também informou que, como parte de seus esforços de construção do metaverso, iria contratar 10.000 novos profissionais altamente qualificados na Europa.

Sem levar em conta as perspectivas de sucesso financeiro com esta grande plataforma nova, que nem parece boa, o hiperfoco do Facebook no metaverso agora reflete o mau julgamento de sua administração e de Mark Zuckerberg, mais especificamente.

Estão se acumulando evidências de que o Facebook direciona as pessoas mais velhas para teorias da conspiração e os adolescentes para as questões do corpo. Em vez disso, Zuckerberg deveria se concentrar em fazer uma faxina das boas, ou seja, contratar mais milhares de funcionários, especialmente moderadores de conteúdo, para monitorar e refrear o conteúdo prejudicial em seu site antes de construir um novo, que trará os mesmos velhos problemas.

Os moderadores de conteúdo são prestadores de serviço que vasculham o Facebook e o Instagram em busca de conteúdo potencialmente prejudicial e são muito mais baratos do que os engenheiros. Um engenheiro iniciante do Facebook no Reino Unido ganha cerca de US$ 125.000 por ano, de acordo com o levels.fyi, que monitora os salários dos engenheiros da Big Tech. Enquanto isso, moderadores de conteúdo que trabalham para a Accenture, uma das maiores agências que fazem o trabalho de limpeza do Facebook, ganham cerca de US$ 37.000 por ano, segundo a Glassdoor.

O Facebook conta com cerca de 15.000 moderadores de conteúdo para manter seu site limpo e, com o orçamento de contratações anunciado para o metaverso, poderia mais do que dobrar esse número. É exatamente isso que um estudo recente da Universidade de Nova York concluiu que o Facebook deveria fazer para eliminar conteúdos prejudiciais.

PUBLICIDADE

Em uma outra postagem no blog no domingo (17), a empresa disse que seus “sistemas de inteligência artificial aprimorados e expandidos” levaram a uma redução do discurso de ódio, que agora representa apenas 0,05% do conteúdo visualizado no site. (O Facebook obteve esse número selecionando uma amostra de conteúdo e, em seguida, rotulando o quanto violava suas políticas de discurso de ódio.) A empresa parece estar sugerindo que não precisa de muito mais moderadores porque sua tecnologia está cada vez melhor para fazer a limpeza por conta própria.

Mas essas estatísticas sobre conteúdo prejudicial, que o Facebook compartilha em publicações trimestrais conhecidas como relatórios de transparência, têm um problema. Os pesquisadores há muito tempo são céticos em relação a esses relatórios da Big Tech, de acordo com Ben Wagner, professor assistente da Delft University of Technology, na Holanda, que foi um dos autores de um estudo publicado em fevereiro sobre as limitações dos relatórios.

Ele apontou que o governo alemão processou o Facebook, em 2019, por induzir os reguladores ao erro ao, entre outras coisas, registrar apenas certas categorias de reclamações de usuários nos dados que tinham obrigação de compartilhar com eles. O Facebook, que recebeu do governo uma multa de 2 milhões de euros (US$ 2,3 milhões), disse ter cumprido a lei alemã sobre transparência e que alguns aspectos da lei “não eram claras”. A empresa se reservou o direito de apelar.

O Facebook enfrenta outras acusações de fraudar números em seus relatórios de transparência. Segundo matéria do Wall Street Journal publicada no domingo (17), que citou documentos internos vazados pela denunciante do Facebook, Frances Haugen, a empresa mudou seu processo de reclamações em 2019, dificultando as denúncia de conteúdos impróprios por parte dos usuários. O Facebook respondeu ao Wall Street Journal que esse “atrito” tinha o objetivo de tornar seus sistemas mais eficientes e que, desde então, havia eliminado parte desse atrito.

PUBLICIDADE

Sem padrões comuns para medir os danos, os relatórios de transparência da rede social acabam sendo confusos e inexatos. Por exemplo, o relatório de transparência de 2018 do Facebook citou 1.048 reclamações de usuários, enquanto o Twitter e o YouTube, da Alphabet, relataram mais de 250.000 cada um, como consta no processo alemão contra o Facebook. Essa é uma grande discrepância no rastreamento.

E esses relatórios não são devidamente auditados. O Facebook montou um painel consultivo de transparência de dados com sete acadêmicos para fazer uma avaliação “independente” de seus relatórios de transparência, informou a empresa no domingo (17). O painel, como outros conselhos consultivos científicos, recebe honorários fixos do Facebook antes de sua avaliação, o que o faz parecer menos independente.

Ainda assim, esta é uma área em que o Facebook parece ter agido na direção certa. Recentemente, a empresa contratou a Ernst & Young Global, uma das Quatro Grandes firmas de contabilidade, para avaliar sua métrica de danos, afirmando que a EY iniciaria sua auditoria ainda este ano. Se ela for bem estruturada, a auditoria pode criar uma cadeia de responsabilidade mais confiável do que a que existe hoje. O Facebook se recusou a responder a perguntas sobre quando a auditoria seria publicada, quais critérios a EY aplicaria ou qual braço da EY faria o trabalho.

Enquanto isso, o Facebook precisa fazer mais para melhorar o policiamento de conteúdo prejudicial. É por isso que a empresa e outras redes sociais devem ser incentivadas a contratar mais moderadores - mais uns milhares deles - para auxiliar na limpeza de seus sites. Isso seria um investimento melhor do que se apressar em construir uma plataforma de realidade digital inteiramente nova, como o metaverso, que está fadada a repetir o caos das plataformas mais antigas.

Nota: À primeira vista, o anúncio de domingo parece um esforço calculado de lobby na Europa. A União Europeia está planejando elaborar uma das regulamentações mais duras contra as empresas de mídia social nos próximos dois anos, e a empresa provavelmente deseja obter favores entre os estados membros, que irão votar essas regras. O Facebook, não surpreendentemente, escreveu em sua postagem no blog: “Estamos ansiosos para trabalhar com governos em toda a UE para encontrar as pessoas certas e os mercados certos para levar esse [impulso de recrutamento] adiante”.

PUBLICIDADE


Parmy Olson é colunista da Bloomberg Opinion e escreve sobre tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “We Are Anonymous.”Parmy Olson é colunista da Bloomberg Opinion e escreve sobre tecnologia. Já escreveu para o Wall Street Journal e a Forbes e é autora de “We Are Anonymous.”

Os editoriais são escritos pela diretoria editorial da Bloomberg Opinion

Esta coluna não reflete necessariamente a opinião do conselho editorial ou da Bloomberg LP e de seus proprietários.


PUBLICIDADE

Veja mais em Bloomberg.com

Leia também

Google aprimora buscas de imagens para serem racialmente diversificadas

Sabe aquela comprinha da Black Friday? Vai ficar do outro lado do mundo