É bem sabido que os algoritmos automáticos de seleção de pessoas para um sem-número de funções têm um enviesamento que potencia a discriminação previamente existente na sociedade, com preferência, em geral, para o homem branco.
Da mesma forma, as aplicações de tradução automática para línguas em que o termo traduzido tem género, têm um claro enviesamento que deriva das fontes (livros, documentos históricos) que são usados para as máquinas aprenderem a traduzir.
Se colocarmos no tradutor do Google “The Professor”, a tradução vem O Professor, mas se colocarmos “The Housekeeper”, vem A Governanta. Isto justifica-se, porque a aprendizagem da máquina se faz com base nos dados existentes e esses refletem todo um conjunto de preconceitos.
Se, para escolhermos alguém para um lugar de chefia, tivermos como critério quantos homens foram CEO de sucesso vs. quantas mulheres o foram, teremos que necessariamente escolher um homem, pois o número é avassaladoramente maior.
Ora, é precisamente isso que o algoritmo vai aprender e nos vai dizer: que é mais provável sermos bem-sucedidos se escolhermos um homem (branco, de preferência).
Li recentemente um artigo muito interessante sobre este tópico. O artigo, intitulado “We need more bias in artificial intelligence”, publicado pelo think tank Brugel em 21 de abril, chama precisamente a atenção para este enviesamento, mas com uma perspetiva diferente.
A ideia de que o uso de um sistema de inteligência artificial, nas nossas escolhas, confere objetividade às mesmas, é falaciosa e pode ter fortes implicações. Se queremos uma sociedade inclusiva, cada vez menos discriminada e discriminatória, devemos tomar decisões de política pública que diminuam o enviesamento nos processos de decisão.
Isso não significa que tenhamos de abandonar o uso destes algoritmos, mas sim que temos que pensar neles de forma diferente.
O autor do artigo, Mario Mariniello, chama a atenção de que esta perspetiva não significa, obviamente, ter os políticos a fazerem microgestão do progresso tecnológico e a interferirem em cada passo do desenvolvimento de novos algoritmos ou apps de apoio ao processo de decisão. Mas significa que os políticos devem definir um caminho, uma visão política da sociedade que queremos ser.
Essa visão deve guiar o processo de tomada de decisão, nas suas diversas vertentes. E a utilização da inteligência artificial deve então ser moldada e melhorada para servir esta visão.
A conclusão é que um processo de tomada de decisão é tanto melhor quanto melhor serve os objetivos do mesmo e não por ser pretensamente “objetivo”. Neste sentido, por exemplo, um processo de seleção que, em igualdade de circunstâncias de mérito e talento, escolha mulheres para cargos de chefia, serve melhor a distorção que queremos corrigir, do que um processo que escolha sistematicamente homens porque os dados históricos assim o indicam.
Introduzir estes enviesamentos intencionais nos algoritmos de escolha automática serve melhor os interesses da sociedade que idealizamos. Enviesar o que é por defeito de nascença enviesado pode dar um melhor resultado final. Afinal todos sabemos que menos por menos dá mais.