Vieses refletidos nas Inteligências Artificiais
As Inteligências Artificiais (IAs) são sistemas que aprendem por meio de dados, algoritmos, erros e acertos. Processando essas informações, são capazes de tomar suas próprias decisões e otimizar o tempo que alguém levaria para as mesmas tarefas, além de não sofrer do fator de erro humano. Mas será?
A IAs também podem refletir vieses, os preconceitos existentes nos dados humanos analisados, assim como uma pessoa tende a refletir os preconceitos da sociedade conforme cresce, mesmo que inconscientemente. Existe um processo para desestruturar e ensinar que esses comportamentos não devem ter espaço na sociedade, bem como não devem ser replicados por esses sistemas.
Como ocorrem os vieses
Mas quais são esses preconceitos? Em termos técnicos, vieses podem surgir de conceitos de pré-seleção para determinados usos, limitando suas possibilidades e, consequentemente, discriminando as demais em detrimento de outras. Um caso impactante que exemplifica bem a situação foi de uma ferramenta de recrutamento que tinha como opção de seleção, além das tradicionais de nível de escolaridade e experiência, o sexo do candidato. Na prática, a função segregava os candidatos por conta de seu gênero, condição essa de seleção moralmente incorreta.
Outro caso bastante debatido é quanto aos vieses decorrentes do uso de IA como combate aos crimes, nos EUA. Os sistemas de monitoramento e os dados de antecedentes e fichas criminais começaram a ser analisados e cruzados com informações de novos crimes, identificando quais suspeitos poderiam ser os culpados. No entanto, o sistema social em geral em que todo tipo de crime está inserido apresenta fatores em comum, como sexo, condição financeira e cor de pele. Ao utilizar da tecnologia para ajudar, o que ocorreu foi ela reproduzir o preconceito que ocorre há décadas.
Não é preciso debater tecnologias grandiosas para ver exemplos de vieses. Em pias com sabonete automático que foram configuradas utilizando como dados de base apenas pessoas brancas, mãos negras não são identificadas e não recebem o sabonete. Veja abaixo:
Porém, é complexo definir em termos matemáticos e de programação em uma IA todo o tipo de conceito histórico, filosófico, sociológico e social, da mesma forma se torna inviável criar uma IA completamente neutra, dado que sempre que houver seres humanos envolvidos nas decisões, haverá viés. Não podemos culpar a tecnologia e descartá-la por apresentar tais problemas, pois ela é um espelho do comportamento humano: para lidar com os vieses, é necessário iniciar pela sua fonte de conteúdo e dados, as pessoas. Analisando desta forma, é fácil entender porque a tecnologia e Inteligência Artificial são retratadas tantas vezes como vilões e aniquiladores na ficção — são, acima de tudo, reflexo de quem as cria.
No entanto, há alguns pontos que podem ser utilizados para resolver ou evitar tais situações, como:
- Sempre que identificados, os vieses devem ser removidos dos algoritmos por meio de reformulação dentro de sua programação.
- Selecionar apenas os dados adequadamente representativos e suficientemente relevantes para neutralizar tipos comuns de viés.
- Realizar testes e validações para garantir resultados que não sejam tendenciosos.
- Tornar essencial o monitoramento dos sistemas enquanto são executados para garantir que os vieses não se tornem significativos.
A Visibilia leva a sério esses pontos. Como exemplo prático no nosso produto criado com Inteligência Artificial, a BeeNet, de procura e divulgação de vagas tech, é considerado fairness in Machine Learning para que o processamento trate equitativamente fatores como raça, sexo, preferências, status demográfico ou qualquer outra condição e reduza vieses no tratamento de dados. Ainda não conhece a BeeNet? Acesse e cadastre-se gratuitamente agora mesmo!
Acompanhe a Vibilia e esteja sempre informado sobre o mundo Tech e das IAs!
Também siga-nos nas redes sociais para ver nossos posts!
Leave a Reply