A plataforma de vídeos mais popular do mundo tem um problema sério com o seu conteúdo: os usuários têm publicado centenas de vídeos com crianças em situações íntimas, violentas ou humilhantes e conseguido milhares de visualizações com a exploração dessas imagens.
Apesar do YouTube ter anunciado no fim do ano passado a retirada de 150 mil vídeos chocantes envolvendo menores e o cancelamento de alguns canais, ainda é possível encontrar centenas de publicações com conteúdo impróprio envolvendo crianças ou voltadas para elas.
Há centenas de vídeos que contêm crianças chorando, gritando de medo e claramente aterrorizadas. Há imagens de meninas com roupas de banho em posições em que as suas partes íntimas ficam em evidência. Outras mostram situações escatológicas envolvendo fezes, vómito, cuspe e urina.
Em muitos casos, os pequenos são perseguidos por pessoas em roupas de palhaço e outras fantasias assustadoras, são amarrados e alvo de imitações de situações de sequestro. Há crianças a levar injeções ou a sangrar ao terem o removido um dente, centenas de atos violentos e perigosos e até vídeos com simulação de suicídio.
Há também uma série de vídeos que imitam desenhos infantis, mas contém palavreado impróprio, violência e situações de cunho sexual – sem nenhum aviso de que o conteúdo é impróprio para menores. As imagens imitam animações infantis como a Peppa PigThomas, a Locomotiva a Vapor e filmes como Frozen Meu Malvado Favorito, entre outros.
A plataforma tem um filtro, o YouTube Kids, cujos controlos são mais rígidos para proteger as crianças da exposição a conteúdo do tipo. Mas, muitas vezes, por serem muito parecidos ou por terem problemas apenas no áudio, os desenhos impróprios acabam sendo inúteis nesse sentido.
Muitos dos vídeos impróprios voltados para crianças ou com crianças em situações abusivas vêm de canais verificados e acumulam milhões de visualizações. Numa tentativa de conter o problema, o YouTube cancelou diversos destes canais no último ano.
Um dos maiores, o Toy Freaks, tinha 8 milhões de inscritos, 7 bilhões de visualizações acumuladas e recebia reclamações dos usuários há anos.
No canal, o pai de duas crianças mostrava as filhas a gritar de medo, cuspindo e urinando umas nas outras, sendo alimentadas à força, tomando banho e fingindo serem bebés. Mas mesmo com a retirada do canal, ainda é possível encontrar alguns dos vídeos, que foram salvos e republicados por outros usuários.
O ToyFreaks era um dos canais que ganhava dinheiro com os vídeos abusivos – por meio do pagamento pela vinculação de anúncios antes dos vídeos com muitas visualizações.
Mas não é raro que outros canais verificados tenham casos de vídeos que colocam crianças em situações perigosas e abusivas.
Atitudes extremamente violentas e assustadoras para crianças são uma das categorias mais comuns. Num vídeo de um canal verificado, por exemplo, duas crianças pequenas gritam de medo e choram ao serem perseguidas por palhaços assustadores.
Num vídeo de outro canal, duas meninas pequenas são mostradas no WC, usando a sanita, até que aparece um palhaço assustador. Depois, uma delas é mostrada a chorar de medo.
Muitos dos vídeos são feitos e postados pelas próprias famílias das crianças. Ao perceber que certo tipo de vídeo atrai mais público, alguns canais que lucram com o número de visualizações acabam produzindo mais conteúdo do tipo para satisfazer a audiência.
“O conteúdo vai se tornando cada vez mais bizarro”, explica Rodrigo Nejm, diretor de educação da ong Safernet, que monitora e promove direitos humanos na internet. “Conteúdo humilhante e brincadeiras em que as pessoas não estão de acordo vão criando uma banalização da violência.”
Os donos do canal DaddyOFive, já cancelado pelo YouTube, chegaram a perder a guarda de dois dos filhos por causa de situações tipo as descritas.
Mas os casos emblemáticos em que houve alguma punição, como os dos canais DaddyOFive e Toy Freaks, não impedem que mais centenas de vídeos parecidos sejam subidos diariamente para a plataforma.
Nejm, da Safernet, explica que conteúdos explicitamente pornográficos (com nudez ou sexo explícito) ou com violência muito evidente, como com muito sangue, são automaticamente bloqueados pelos filtros do YouTube.
O problema são conteúdos abusivos que não são automaticamente detetados pela plataforma, mas que podem ser chocantes.
“As pessoas têm que lembrar que, ainda que o conteúdo não seja explicitamente criminoso, mesmo assim pode ter o uso indevido de imagem de um menor de idade”, diz ele.
Para a psicóloga Ceneide Cerveny, da PUC-SP, as situações em que as crianças são colocadas podem afetá-las no longo prazo – o que é pior quando os criadores dos vídeos são os pais.
“Para a criança ofendida, assustada, sempre faz mal. Ela pode perder a confiança nos pais, que deveriam ser responsáveis pela sua segurança. É muito sério quando é um pai assustando com a conivência da mãe. Ambos são irresponsáveis e sem condições de serem pais, fazendo isso para ganhar dinheiro e fama”, diz.
“As brincadeiras abusivas trazem consequências como medo, stress, insónia, falta de confiança nos adultos e principalmente a vergonha da exposição a que estão sujeitos”, acrescenta.
“O problema é o responsável legal que permite a exposição pública dessa criança. Por isso que a gente insiste na importância de consciencializar o público. Às vezes os pais não têm nem ideia da repercussão que um vídeo pode ter. Dois, três anos depois, ele pode-se tornar num conteúdo que vai motivar um cyberbullying contra a criança”, diz Nejm.
Em alguns casos, a própria plataforma indica esses vídeos perturbadores: o algoritmo que controla as indicações no YouTube mostra na aba lateral publicações parecidas com o que o usuário está a ver.
Boa parte do problema está aí. Algumas das indicações de animações com linguagem imprópria e sem informação de que o conteúdo é inadequado para menores, por exemplo, aparecem se estamos está a ver vídeos de desenhos animados de verdade.
Esse sistema de indicação automática acaba criando um submundo de vídeos chocantes. A partir do momento em que o algoritmo percebe que um usuário costuma ver esse tipo de conteúdo com crianças, passa a alimentar esse gosto com vídeos parecidos.
É por meio das sugestões que é possível perceber tendências problemáticas – e até indícios de pedofilia. Alguns vídeos são em si, inocentes. Há dezenas deles que mostram meninas pequenas fazendo ginástica, por exemplo. Mas as imagens em destaque de todos os vídeos relacionados indicados ao lado são das meninas em posições de vulnerabilidade, como com as pernas abertas.
“Há um fator de risco ao expor uma criança na internet. Um conteúdo que à priori não é pornográfico pode se tornar. Uma criança quando se filma não tem erotismo, mas quando (o vídeo) é exposto na maior praça pública, está aberto a todo tipo de consumo”, afirma Rodrigo Nejm, da Safernet.
Os vídeos também têm dezenas de comentários predatórios e com conteúdo sexual direcionado às crianças.
Num dos casos – postada num canal brasileiro – uma menina pequena salta na chuva com uma roupa branca. Um dos comentários diz: “dá para ver o peitinho dela hahah te adoro”.
Noutra filmagem postada no mesmo canal, a mesma criança dança pole dance ao redor de um poste vestindo um calções e um top. “Já sabe subi (sic) no pau”, diz um usuário.
Boa parte das imagens com crianças pequenas nessas situações são postadas com datas aleatórias como título – um “nicho” que inclui centenas de vídeos com meninas pequenas em roupas íntimas, em roupas de banho ou com as cuecas em evidência. Alguns têm milhares ou milhões de visualizações. Um vídeo de 5 minutos de uma criança pequena filmada com as pernas abertas a fazer ginástica, por exemplo, foi assistido 1,8 milhão de vezes.
Depois de ser questionado pela BBC sobre o conteúdo, o YouTube retirou diversos dos vídeos do ar e desabilitou a seção de comentários em outros.
O site tem tentado combater o problema mais agressivamente desde o ano passado, quando finalmente tirou do ar diversos canais que recebiam reclamações de usuários havia anos.
O YouTube diz que leva a segurança das crianças muito a sério e que reforçou as suas políticas sobre quais conteúdos são adequados para a plataforma ou que podem gerar receita pela exibição de anúncios.
“Investimos nos nossos times e na tecnologia de machine learning para ampliar os esforços dos nossos revisores humanos em escala. Estamos a aplicar o que aprendemos no combate a conteúdo extremista e violento no combate a conteúdo problemático, incluindo discurso de ódio e segurança das crianças”, diz a empresa, em nota.
A plataforma afirma também que a sua equipa “trabalha muito próxima ao NCMEC (Centro Nacional para Crianças Desaparecidas e Exploradas, entidade americana), IWF (Internet Watch Foundation), e outras organizações de segurança à criança ao redor do mundo, para relatar o comportamento e contas predatórias aos órgãos judiciários competentes.”
Qualquer pessoa pode chamar a atenção da plataforma para um conteúdo impróprio – basta clicar no menu de três pontinhos abaixo do vídeo e selecionar “Denunciar”. No entanto, nem sempre os usuários tem resposta sobre o caso e muitas vezes são necessárias várias reclamações para um vídeo ser retirado do ar.
“Muitas vezes é uma linha ténue entre o que é uma situação normal e uma abusiva”, afirma Nejm.
O Google, que é dono do YouTube, reconhece a importância de revisores humanos para tomar decisões contextualizadas sobre o conteúdo. A empresa diz que tem ampliado sua equipa e que deve elevar, em 2019, para mais de 10 mil o número de pessoas a trabalhar para encontrar conteúdos que possam violar as suas políticas.
Além de críticas de usuários e especialistas, a reclamação e até finalização de contratos de anunciantes que tinham as suas propagandas exibidas antes de vídeos impróprios – inclusive em filmes de grupos extremistas – também contribuiu para que a plataforma tomasse uma postura mais agressiva em relação à moderação do conteúdo.
O site diz que tem adotado medidas para proteger os anunciantes, como critérios mais rígidos e mais curadoria manual. “Queremos que os anunciantes tenham a tranquilidade de ter os seus anúncios rodando ao lado de conteúdos que reflitam os seus valores de marca. Igualmente, queremos dar aos criadores confiança de que a sua receita não será prejudicada pelas ações questionáveis de alguns”, afirma o YouTube.
“Diante do volume de dados, e diante do tamanho do problema, também é preciso que haja estratégias mais massivas de consciencialização do público”, defende Rodrigo Nejm, da Safernet.
“É preciso educar melhor o usuário para ele perceber quando acaba alimentando esse tipo de conteúdo. Há diversas situações que são banalidades do quotidiano às quais as pessoas acabam se atraindo. É preciso pensar, no entanto, em quem está promovendo isso. Se o canal explicitamente tem muitos vídeos do tipo, é possível suspeitar que tem algo de errado.”
[mailchimp_subscriber_popup baseUrl='mc.us20.list-manage.com' uuid='fc45f2986bd84a593dad6669d' lid='6d1ac9f848' usePlainJson='false' isDebug='false']