No anúncio, feito por Susan Wojcicki, CEO da empresa, foi revelado que a plataforma de vídeo vai contratar mais 10 mil pessoas para identificar e moderar conteúdos menos próprios, o que representa um aumento de 25% do número de moderadores.

A empresa também vai apertar os critérios em relação a quais canais podem ter publicidade, para que os “anunciantes tenham a tranquilidade de que os seus anúncios estão ao lado de conteúdo que reflete os valores da sua marca”, pode ler-se no blog do Youtube.

Do plano de ação para responder aos conteúdos problemáticos fazem parte um maior reforço humano, melhor tecnologia e mais transparência e, de acordo com Susan Wojcicki, "à medida que as ameaças à nossa plataforma irão evoluir e mudar, também as nossas respostas e métodos de actuação têm e vão evoluir para responder a estas ameaças.”.

A utilização do Machine Learning para assinalar conteúdos extremistas e violentos, instituída pela plataforma em junho, ajuda os revisores humanos a removerem quase cinco vezes mais videos que anteriormente, sendo a tecnologia usada também em outras áreas de conteúdos desafiantes, incluindo segurança de criança e discursos de ódio.

O ano de 2018 vai trazer também um relatório regular que irá disponibilizar mais informação sobre o número de sinalizações recebidas e as ações adotadas para remover vídeos e comentários que violem as políticas de conteúdos do Yotube.

Estas medidas surgem na sequência de um artigo publicado no jornal britânico "The Times", que afirmava que os anúncios de grandes marcas, como Adidas, Amazon e Mars, apareciam em vídeos no YouTube de crianças e adolescentes, que estavam recheados de comentários pedófilos.

Vários anunciantes, como a empresa de informática HP,  decidiram deixar de anunciar no YouTube por este motivo e a plataforma de vídeo "eliminou várias centenas de contas e mais de 150 mil vídeos" que tinham problemas.

O Youtube também avançou com a censura de vídeos que utilizam desenhos animados infantis em cenas violentas, sexuais ou perturbantes, se forem denunciados, tornando-os inacessíveis a utilizadores com menos de 18 anos e pessoas que não tenham uma conta no Youtube.

Esta política foi avançada depois de uma publicação de James Briddle, no blog Medium, se ter tornado viral ao denunciar cenas que, aparentemente, seriam de “entretenimento familiar”, mas que mostravam cenas perturbantes, que, segundo o escritor “são usadas para assustar, traumatizar e abusar de crianças”.

Startup portuguesa quer pôr crianças a ver vídeos online de forma segura. E a aprender
Startup portuguesa quer pôr crianças a ver vídeos online de forma segura. E a aprender
Ver artigo

A plataforma de vídeo indica na sua página que se o utilizador considerar o conteúdo impróprio, deve utilizar a “ferramenta de denúncia para o enviar para análise por parte da equipa do YouTube” para que esta verifique se “existe uma violação das regras da comunidade”.

Nos últimos 12 meses têm sido várias as ações realizadas pela plataforma de vídeo com o objetivo de “proteger a comunidade do Youtube”.