Preocupado com a divulgação de conteúdo extremista e de propagandas terroristas em sua plataforma, o YouTube anunciou nesta segunda-feira (19) quatro novas medidas que devem ajudar a companhia a restringir o uso do site para divulgação desse tipo de mensagem. 

Kent Walker, vice-presidente e conselheiro geral do Google, detalhou as quatro medidas em um artigo enviado ao Financial Times, onde reconhece que a indústria de tecnologia ainda precisa se esforçar mais para coibir a apropriação de suas ferramentas por grupos terroristas e extremistas.

A primeira das medidas do YouTube será reforçar a aplicação de tecnologias de machine learning na plataforma para ajudar a acelerar o reconhecimento de vídeos que podem cair na categoria de terrorismo. 

A empresa também promete expandir o time dos chamados Trusted Flaggers, um grupo de usuários e empresas com privilégios especiais na hora de alertar a plataforma sobre conteúdo que ferem as regras da comunidade do YouTube. O grupo deverá ser praticamente dobrado, segundo Walker, com ao menos 50 novas ONGs adicionadas ao grupo de 63 organizações que já fazem parte da iniciativa. 

O YouTube deve ainda criar regras mais estritas para lidar com conteúdos de natureza religiosa ou supremacista que não violam as regras do site, mas ainda sim são considerados “inflamatórios”. Com as novas ações, esse tipo de vídeo poderá passar a ser escondido atrás de uma tela de alerta e não poderão ser monetizados por seus autores. 

Por fim, a companhia promete reforçar ações “anti-radicalização”, que direcionará grupos de usuários buscados por grupos extremistas para vídeos com conteúdo anti-extremista, que buscarão desestimular a radicalização mais pessoas.