Mitigação de viés e Diversidade: A Inteligência Artificial é capaz de eliminar vieses discriminatórios?

A promoção da diversidade no ambiente de trabalho não é apenas uma ação de inclusão. A diversidade, principalmente de gênero, impulsiona diretamente o resultado de um negócio, segundo uma pesquisa realizada em 2018 pela DDI, empresa de análise e pesquisa, e a consultoria Ernst & Young (EY). O estudo, que fez um panorama da liderança global em vários aspectos (diversidade, transformação digital, propósito, cultura, entre outros) analisou dados de 2,4 mil empresas de 54 países.

Os resultados mostraram que as mulheres representam menos de um terço dos papéis de liderança (29%) – a maioria deles em posições mais júnior. Mesmo com a disparidade, a diversidade impacta quando existe. Segundo o estudo, as empresas que tiveram 30% de diversidade de gênero – e mais de 20% no nível sênior – apresentaram melhores resultados financeiros na comparação com as demais. Onde há diversidade significativa, é 1,4 maior a chance de crescimento sustentado e lucrativo.

Diante desse cenário, fica claro porque a diversidade entre os funcionários de uma empresa está entre as dez mais frequentes preocupações dos profissionais de Recursos Humanos no Brasil.

Tecnologia como aliada

O que muitas companhias ainda desconhecem é que a Inteligência Artificial (IA) pode ser uma aliada para colaborar no aumento da diversidade no ambiente corporativo. 

A tecnologia serve para neutralizar fases sensíveis dos processos de contratação, reduzindo vieses envolvidos. É necessário priorizar o uso da Inteligência Artificial a fim de desmistificar o modelo de profissional que faz a diferença para o negócio. A IA tem a real capacidade de aprendizado de evitar a discriminação, quando treinada com dados adequados.

É possível utilizar recursos avançados de IA como NLP – Natural Language Processing (Processamento de linguagem natural) e Machine Learning (Aprendizado de Máquina) que permitem, por exemplo, analisar as características emocionais, que são denominadas como soft skills – e não apenas técnicas – dos profissionais que mais se adaptam à necessidades da empresa e, consequentemente, tendem a ter ciclos maiores e entregar os melhores resultados. Por vezes, o algoritmo surpreende o recrutador, ao apontar que suas premissas estavam bem diferentes dos padrões antes utilizados.

Mas, a Inteligência Artificial é realmente confiável?

Como qualquer nova tecnologia, a Inteligência Artificial é capaz de resultados extremamente bons. Ou extremamente ruins. Um exemplo de um viés que precisa ser corrigido é o gerenciamento de perfis de criminosos utilizados pelo sistema criminal americano. Os algoritmos desses sistemas ainda estão carregados de preconceitos, pois, muitas vezes, atribuem uma periculosidade maior a determinados indivíduos, simplesmente por terem a pele negra. Nesses casos, há um potencial enorme de provocar danos, pois a alta capacidade de processamento da AI faz com que esses vieses discriminatórios sejam replicados em larga escala.

Porém, a Inteligência Artificial nada mais é do que a simulação de processos humanos por máquinas. Por isso, a fonte mais enraizada de preconceito pela IA é o próprio comportamento humano que ela está simulando. É o conjunto de dados tendencioso usado para treinar o algoritmo. Se não gostamos dos resultados que a IA está trazendo, possivelmente não gostamos do que os humanos estão fazendo, pois o programa está, em grande parte, replicando comportamentos passados.

O preconceito humano inconsciente, por exemplo, pode tornar processos de contratação injustos. A maneira típica de avaliar os candidatos antes de uma entrevista é por meio da revisão dos currículos pelos recrutadores. Numerosos estudos têm mostrado que esse processo leva a um preconceito inconsciente significativo contra as mulheres, as minorias e os trabalhadores mais velhos.

É em processos como estes que a Inteligência Artificial pode mitigar o preconceito humano inconsciente. Muitas ferramentas atuais de IA para recrutamento têm falhas, mas podem ser corrigidas. Uma das belezas da IA é a possibilidade de projetá-la para atender a certas “especificações benéficas”. Dados sensíveis como etnia, gênero e idade não são utilizados no processo, mas, por vezes, informações como o endereço, formação educacional, experiências profissionais prévias, estão correlacionadas a esses dados sensíveis, fazendo com que o viés surja a partir desses últimos. 

Por isso, um princípio fundamental é que a IA deve ser projetada de forma que possa ser auditada e a tendência encontrada nela possa ser mitigada. É possível apurar se o algoritmo está sendo justo. Também é possível mitigar o viés antes, durante e depois do processo, “recalibrando” cada variável, para que uma característica não seja mais importante do que a outra. 

No entanto, existe um tradeoff entre acurácia e justiça: um sistema mais acurado costuma ter mais viés, porém, para mitigá-lo, é necessário tirar ou diminuir certas informações. Ao trabalhar com menos dados, especialmente no curto prazo, diminui-se a acurácia. Por esse motivo, a empresa que usa o sistema tem que estar disposta a baixar a acurácia para ter um processo mais equânime.

Comments are closed.