Não há muitos anos, o Content Moderation era apenas um conceito abstrato que necessitava de anos de trabalho, investimento e valor comprovado. Em contraste, a Inteligência Artificial (IA) já fazia parte da agenda dos gigantes da tecnologia que continuamente trabalham nos seus algoritmos de IA, melhorando-os e adaptando-os à sua realidade.
Com o aumento da variedade e influência de conteúdos online gerados pelo utilizador, tornou-se claro que a combinação perfeita de ambos os campos, quando bem feita, seria a chave para plataformas online que dependem fortemente de conteúdos gerados pelo utilizador, tais como plataformas de redes sociais, marketplaces, economia partilhada, comunidades e fóruns, entre outros.
Segundo um estudo realizado pela Microsoft, a atenção do ser humano, em média, só é captada durante oito segundos. E quando se fala de content moderation, a rapidez com que se pode remover o conteúdo nocivo, esses oito segundos parecem uma eternidade. Assim, os utilizadores são suscetíveis de abandonar o site instantaneamente quando confrontados com conteúdos inadequados, de fraca qualidade, entre outros.
E como os algoritmos de IA se estão a tornar mais eficientes de dia para dia, sendo capazes de reduzir substancialmente o tempo e o volume de trabalho que o controlo em direto traz, é inevitável colocar a questão: porque é que ainda precisamos de Reguladores Humanos na era da IA?
No início de 2020 o YouTube tinha uma força de trabalho de 10.000 pessoas totalmente dedicada ao controlo de conteúdos, uma vez que o ser humano continuava a ser uma parte importante da sua estratégia de regulação. Com o início da pandemia de Covid-19, a empresa reduziu o pessoal e o volume de trabalho no escritório, e a decisão da empresa foi no sentido de dar mais poder aos sistemas automatizados que estavam preparados para identificar automaticamente os vídeos com conteúdo nocivo e removê-los imediatamente.
Terá o YouTube descoberto que já não precisa da força de trabalho humana?
Os números falam por si e entre abril e junho de 2020, 11 milhões de vídeos foram retirados da plataforma online. De acordo com as “Community Guidelines Enforcement”, e em comparação, no segundo trimestre de 2019 a empresa retirou menos de nove milhões de vídeos. Isto significa que os sistemas de IA do YouTube removeram mais vídeos do que aqueles que estavam a infringir as regras porque sabiam que as máquinas não podiam ser tão rigorosas como os seres humanos. Mas mesmo assim optaram em remover os vídeos por precaução para garantir que os seus utilizadores estivessem protegidos.
Tal como qualquer outro software concebido para ajudar nos esforços de branding online de uma empresa, o controlo feito exclusivamente por IA tem as suas falhas. Estas falhas não devem ser vistas como uma desvantagem, mas sim como uma oportunidade para fortalecer a defesa de uma marca face a conteúdos online maliciosos. É por esta razão que o ser humano é essencial para permitir o controlo do conteúdo online.
Os modelos da IA não são capazes de compreender o contexto
Funcionam através da criação de um chamado modelo-base para o tipo de conteúdo que deve ser controlado. Por exemplo, um modelo de IA é construído para detetar imagens que mostram violência. A IA será, então, confrontada com toneladas e toneladas de imagens de diferentes tipos de violência, agressões, crimes, etc. Esta ação é armazenada como uma referência para o modelo de IA, mas ao mesmo tempo vai alternando com dezenas de imagens numa comunidade online. E a questão é que não existem exemplos suficientes de todos os tipos de violência para treinar um modelo fiável de IA.
Além disso, o modelo não é capaz de distinguir entre filmes e violência real, o que vai dar origem ao bloqueio de ambos. E quando se trata de compreender o contexto de discurso de ódio, torna-se ainda mais difícil. Essa tarefa exigiria um modelo de IA que compreendesse as nuances da linguagem humana, um problema que é difícil de resolver através da linguagem binária.
E apesar da velocidade e da capacidade de analisar toneladas de conteúdo, falta uma análise de qualidade à IA. Certamente, é aqui que o controlo humano pode elevar a estratégia de uma marca. Os seres humanos continuam a ser melhores quando se trata de ler, compreender, interpretar e controlar conteúdos, sendo esta a garantia de uma análise justa, em cujo contexto o tom de voz e a cultura de enquadramento estão incluídos. Esta análise de qualidade é a base para transformar o que poderia ser uma abordagem padrão numa moderação mais eficiente e mais flexível.
Por flexível, quero dizer uma abordagem holística e personalizada. Ao olhar para as equipas de Human Content Moderator que representam as maiores empresas mundiais, é justo vê-las não apenas como guardiãs das redes sociais, mas também como equipas multidisciplinares que por vezes têm de fazer o trabalho de concierges online, agentes da lei, professores ou mesmo curadores. Observam, analisam, filtram e, em última análise, fixam-se num ponto de entrada para impedir a passagem de tráfego indesejado. São os valiosos guardiões do mundo online que impedem e evitam a distribuição de conteúdos que poderiam causar danos massivos.
Portanto, idealmente, os controladores de conteúdo automáticos (IA) e presenciais (humanos) devem trabalhar em conjunto para produzir melhores resultados na gestão de conteúdos em websites e comunidades online.