Até ao final do ano, a equipa está a planear aperfeiçoar os seus relatórios e acrescentar dados adicionais, incluindo informação sobre comentários, velocidade da remoção e as violações de políticas que motivaram a remoção.
Também está a introduzir uma página onde cada utilizador do YouTube pode aceder individualmente para verificar o estado dos vídeos que denunciaram/ sinalizaram e pediram revisão por considerarem que violam as Regras da Comunidade.
A equipa do YouTube avança que as máquinas estão a ajudar a sinalizar conteúdo para revisão em escala, permitindo remover milhões de vídeos que violam as políticas mesmo antes de serem visualizados.
De acordo com o relatório, a equipa removeu mais de 8 milhões de vídeos do YouTube entre Outubro e Dezembro de 2017 e a maioria destes vídeos era sobretudo spam ou pessoas que tentavam carregar conteúdos para adultos. 6,7 milhões de vídeos foram, primeiro, sinalizados por máquinas para revisão e 75% foram removidos antes de terem sido vistos uma única vez.
Contudo, o recurso ao machine learning “significa, na verdade, muitas mais pessoas para a revisão do conteúdo – não menos”.
Os sistemas utilizam a revisão humana para avaliar se o conteúdo viola as políticas. Em 2017, os responsáveis pela plataforma comprometeram-se a elevar o número total de pessoas, que trabalham na Google, para responder aos conteúdos que infringem as suas políticas, para 10 mil até ao final de 2018.
A Google continua a investir na rede com mais de 150 parceiros governamentais e académicos e ONGs como o Centro Internacional para o Estudo da Radicalização no King’s College em Londres, Liga Anti-difamação e o Family Online Safety Institute.
Tal inclui acrescentar mais parceiros de todo o mundo com foco na segurança infantil, tais como a Childline South Africa, ECPAT Indonesia e a South Korea’s Parents’ Union on Net.
Taguspark
Ed. Tecnologia IV
Av. Prof. Dr. Cavaco Silva, 71
2740-257 Porto Salvo
online@medianove.com