O centro de pesquisas Berkman Klein de Harvard publicou uma pesquisa sobre os algoritmos do YouTube e seu impacto na popularização de vídeos infantis corriqueiros.

Aparentemente, a inteligência artificial da plataforma, a princípio, programada para sugerir mais vídeos relacionados ao usuário de modo a mante-lo ativo assistindo; está sugerindo vídeos inocentes de crianças para pessoas que assistem conteúdo com conotação sexual.

Explicando melhor: após um usuário assistir conteúdo com conotação sexual na rede, o YouTube começa a afunilar cada vez mais os vídeos relacionados, passando por mulheres cada vez mais jovens em roupas provocantes, depois por meninas de biquini até chegar em vídeos infantis em situações cotidianas.

A pesquisa foi divulgada pelo New York Times, que aponta que os vídeos infantis, se vistos isolados não apresentam grandes perigos, mas dentro do contexto citado acima, ganha um sentido mais sexualizado.

O YouTube respondeu aos estudos afirmando que o algoritmo pode ter passado por ajustes de rotina, e não que o acontecimento foi uma mudança de posição política da empresa.

O estudo também aponta para o "efeito buraco de coelho" para explicar como o YouTube sugere vídeos cada vez mais extremos para os usuários, embora a companhia tenha negado usar esse método.

Ainda assim, o YouTube não revelou como exatamente funciona seu algoritmo, de modo que os pesquisadores não conseguiram chegar a uma conclusão sobre o método das pesquisas. 

Por outro lado, como retirar as recomendações prejudicaria a plataforma, a empresa afirmou que irá limita-las para os usuários, em especial as que podem levar os espectadores a caírem em vídeos inocentes de crianças.