Quer queiramos ou não, a inteligência artificial já desempenha um papel na decisão de quem contratar. Desde que a tecnologia foi introduzida, as empresas têm incorporado ferramentas algorítmicas em seus processos de RH. Embora o software mais básico simplesmente filtre os aplicativos e resuma os resumos que recebem, agora existem bots de IA que conduzem entrevistas de triagem por meio de chat “ao vivo”.
Mesmo as pequenas startups parecem estar imitando os processos de contratação corporativa e selecionando eles próprios os fornecedores adequados. As ferramentas de RH focadas em startups oferecem suporte integrado para facilitar o processo de contratação, ajudando você a criar descrições de cargos, aceitar inscrições e filtrar candidatos para selecionar os mais adequados.
Leis e diretrizes antidiscriminação existem para proteger a todos nós. O objectivo destas leis é promover oportunidades de emprego justas e iguais e garantir que os empregadores não tomem decisões com base no género, raça, etnia, deficiência ou outros critérios protegidos.
No entanto, quando os seres humanos são afastados da tomada de decisões, as regras que promovem o emprego justo e igualitário são reduzidas a cálculos estatísticos. Mas as estatísticas são difíceis de compreender e a história sombria deste campo é um aviso. Muitos dos primeiros contribuidores compreenderam mal ou utilizaram mal a matemática para promover as suas próprias visões raciais. A pseudociência emergente serve para matar e mutilar grupos de pessoas com base apenas na raça, etnia e estatuto socioeconómico.
A matemática pode ser usada e abusada, tanto com boas como com más intenções. Frases extravagantes como “inteligência artificial” são frequentemente usadas para ocultar algoritmos ruins e tomar decisões críticas sem muito escrutínio. Mas, curiosamente, a forma como melhoramos a IA é muito semelhante à forma como combatemos os preconceitos humanos.
Confie, mas verifique a IA
Se a IA errar o alvo, as coisas podem dar muito errado.
O algoritmo Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) é usado nos tribunais dos EUA para determinar se alguém tem probabilidade de cometer outra contravenção ou crime e é frequentemente usado para determinar quem tem maior probabilidade de cometer outra contravenção ou crime. receber uma punição mais leve. Uma investigação da ProPublica de 2016 descobriu que o COMPAS era tendencioso contra os réus afro-americanos e rotulava consistentemente os réus brancos como de menor risco do que outros réus com antecedentes semelhantes.
Quando os modelos de IA cometem erros, muitas vezes a causa raiz está no conjunto de dados de treinamento subjacente ou no preconceito inconsciente das pessoas que contribuíram para o conjunto de dados. Mesmo equipes bem-intencionadas podem construir modelos de IA abaixo do padrão.
Quando se descobriu que a ferramenta de recrutamento baseada em IA da Amazon (já descontinuada) era tendenciosa para a contratação de mulheres, a empresa começou a investigar a causa. Os pesquisadores descobriram que o sistema foi treinado com base em currículos enviados ao longo de um período de 10 anos, esmagadoramente enviados por candidatos do sexo masculino. Como resultado, o modelo começou a penalizar currículos que incluíam “palavras” que as candidatas usam com mais frequência. . Da mesma forma, muitos sistemas de reconhecimento facial desenvolvidos por equipes de alto orçamento (como IBM, Microsoft e outras grandes empresas) são propensos a erros ao tentar identificar mulheres e pessoas com pele escura.
É irritante quando esse tipo de preconceito racial ou de gênero ocorre em videogames, mas a escala do problema aumenta quando o sistema é introduzido em ambientes mais perigosos. Foi demonstrado que até mesmo os modelos de IA usados em carros autônomos detectam diferenças em pedestres de diferentes raças, tornando a conscientização das pessoas um passo importante para evitar colisões com pedestres.
Entra lixo, sai lixo
Os erros cometidos pelos sistemas de IA são muito semelhantes aos preconceitos inconscientes dos humanos. Os humanos tendem a formar preconceitos por meio de condicionamento social e experiências passadas. No caso da IA, o preconceito é normalmente causado por humanos que alimentam algoritmos com seus próprios preconceitos inconscientes.
Muitos dos preconceitos da IA já estão presentes nos dados de treinamento. Os sistemas de IA aprendem com dados anteriores, mas se os dados de treinamento refletirem preconceitos humanos ou discriminação sistêmica, o modelo de IA pode perpetuar esses preconceitos. Por exemplo, se as operações policiais anteriores incluírem perfis raciais, um sistema de IA treinado com base nesses dados poderia herdar e até amplificar tais preconceitos.
E esses dados são quase certamente tendenciosos. O condicionamento social, as normas culturais e as experiências passadas que influenciam os humanos e moldam as suas crenças e decisões podem levar a comportamentos discriminatórios. Além disso, as capacidades cognitivas humanas são limitadas e não podem considerar todos os fatores relevantes na tomada de decisões.
Fundamentos de Inteligência Artificial
(mais) humanos vêm em socorro
A inteligência humana também lida com preconceitos na tomada de decisões e julgamentos, e emprega uma variedade de estratégias para abordá-los ou reduzi-los.
Por exemplo, frequentemente introduzimos avaliação cega nos nossos processos, removendo certas informações de identificação que poderiam causar preconceitos na tomada de decisões. Tanto para os humanos quanto para a inteligência artificial, é mais fácil comparar objetivamente dois resumos sem informações sobre idade, sexo, raça ou outras variáveis protegidas.
A diversidade e a inclusão são geralmente simples e fáceis de implementar. Perspectivas diversas durante as fases de desenvolvimento e avaliação podem contrariar preconceitos individuais e levar a uma tomada de decisão mais equilibrada.
Incentivar a autorreflexão também pode ajudá-lo a se tornar mais consciente de seus próprios preconceitos, encorajando-o a desafiar e modificar seus próprios processos de pensamento. Além disso, fornecer feedback e responsabilizar os indivíduos por decisões tendenciosas pode criar incentivos para estarem mais conscientes do preconceito.
Da mesma forma, os sistemas de IA devem ser auditados regularmente quanto a preconceitos, utilizando ferramentas como análise de sensibilidade e avaliação consciente da imparcialidade. As regulamentações estão a melhorar rapidamente em algumas áreas, com o Departamento de Protecção do Consumidor e do Trabalhador da cidade de Nova Iorque a começar a implementar a primeira lei destinada a reduzir o preconceito contra a IA no local de trabalho. Mas, para além do recrutamento, a auditoria de preconceitos deve fazer parte do desenvolvimento de processos de teste padrão.
Referências
Inioluwa Deborah Raji e Joy Buolamwini. 2019. Auditoria prática: investigando o impacto da publicação de resultados de desempenho tendenciosos para produtos comerciais de IA. Anais da Conferência AAAI/ACM 2019 sobre IA, Ética e Sociedade (AIES '19). Association for Computing Machinery, Nova York, NY, EUA, 429–435. https://doi.org/10.1145/3306618.3314244
Julia Dressel, Hany Farid, Precisão, justiça e limitações da previsão de reincidência. Sci.Adv.4, eaao5580(2018) DOI:10.1126/sciadv.aao5580
Benjamin Wilson, Judy Hoffman, Jamie Morgenstern, Desigualdades de previsão na detecção de objetos (2019) https://doi.org/10.48550/arXiv.1902.11097
A primeira lei da América que regulamenta o preconceito de IA na contratação entra em vigor esta semana https://qz.com/americas-first-law-regulated-ai-bias-in-hiring-takes-e-…

