.

A nova política de conteúdo do YouTube já eliminou mais de 17 mil canais

Enviado por Catos, , 0 comentários
Clique para ver a imagem em tamanho original


Desde que o YouTube implementou mudanças na forma como responde a conteúdos voltados ao discurso de ódio e práticas perigosas, em junho deste ano, a rede de vídeos da Google já excluiu mais de 100 milhões de vídeos, apagou meio bilhão de comentários e efetivamente eliminou 17 mil canais, segundo post publicado no blog oficial da empresa.

Os números apresentados são cerca de cinco vezes maiores do que os do trimestre anterior, uma evidência de que as novas políticas estão surtindo efeito em larga escala. A Google ressalta, porém, que boa parte do material excluído era de uploads antigos que, dentro das nova regras, estavam em discordância de termos.


"Nós estamos removendo conteúdos perigosos desde que o YouTube nasceu, mas o nosso investimento nesse tipo de trabalho acelerou nos últimos anos", diz o post. "Nos últimos 18 meses, nós reduzimos visualizações de vídeos que foram posteriormente removidos por violarem nossas práticas em um grau de 80% ou mais, e estamos continuamente trabalhando para reduzir esse número ainda mais".


O YouTube apresentou suas mudanças no gerenciamento e moderação de conteúdo em 5 de junho de 2019, conforme noticiamos na ocasião. A grosso modo, a política funciona com o intuito de melhorar o site em três pilares: o primeiro é removendo qualquer conteúdo nazista ou extremista que advogue pela segregação ou exclusão de uma parcela da sociedade baseado em idade, cor, identidade de gênero, raça, religião, orientação sexual ou status. O YouTube também irá remover qualquer vídeo que defenda segregação por casta - algo que terá muito impacto na Índia - e também qualquer conteúdo que duvide da existência de eventos violentos amplamente documentados, como vídeos conspiracionistas que tentam convencer as pessoas de que o Massacre de Sandy Hook ou o atentado terrorista de 11 de setembro de 2001 foram forjados.

A prática de remoção de conteúdo nocivo do YouTube é majoritariamente dependende de algoritmos e inteligência artificial, com o restante sendo compensado por denúncias vindas dos próprios usuários. Segundo o post no blog, "cerca de 80% dos vídeos marcados automaticamente foram removidos antes mesmo de receberem uma única visualização no segundo trimestre de 2019".

Vale citar, porém, que o trabalho não tem fim: de acordo com a empresa de análise de dados Social Blade, o YouTube tem aproximadamente 500 horas de vídeos publicados a cada minuto, além de uma média de dois bilhões de usuários logados mensalmente. Ainda citando a firma, só em 2018 "nasceram" 23 milhões de canais na plataforma. Comparando isso aos números de eliminações atreladas à nova política de conteúdo, dá para concluir que o YouTube tem um longo e árduo trabalho pela frente.

Recentemente, a CEO do YouTube, Susan Wojcicki, compartilhou carta aberta à comunidade respondendo às acusações do jornal americano Washington Post - que entrevistou ex-funcionários da empresa - de que a plataforma estaria "fechando os olhos" para vídeos de conteúdo nocivo publicados por influenciadores e famosos, exibindo uma suposta "preferência" na censura.

Wojcicki argumentou que, embora alguns vídeos de fato tratassem de assuntos polêmicos e perigosos, tais produções eram contextualizadas em âmbito informativo e educacional. Pense em um vídeo sobre o nazismo, porém explicado pelos seus impactos históricos ao invés de sua exaltação política e filosófica. Por isso, alguns vídeos de temas mais voláteis acabaram permanecendo.



"O YouTube foi criado sob a premissa de ser uma plataforma aberta. Com base nisso, criadores de conteúdo como vocês estão contribuindo para uma economia criativa próspera. A política de discurso de ódio e a política de assédio, que serão lançadas em breve, são nossas atualizações mais recentes", diz a carta da executiva, publicada pelo Canaltech e outros membros da imprensa global em 28 de agosto.
Catos
Enviado por Catos
Membro desde
28 anos, Goiânia
label