Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » A IA deve tomar decisões de contratação?
Ai

A IA deve tomar decisões de contratação?

FranciscoBy FranciscoMay 3, 2024No Comments6 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


Quer queiramos ou não, a inteligência artificial já desempenha um papel na decisão de quem contratar. Desde que a tecnologia foi introduzida, as empresas têm incorporado ferramentas algorítmicas em seus processos de RH. Embora o software mais básico simplesmente filtre os aplicativos e resuma os resumos que recebem, agora existem bots de IA que conduzem entrevistas de triagem por meio de chat “ao vivo”.

O artigo continua após o anúncio

Mesmo as pequenas startups parecem estar imitando os processos de contratação corporativa e selecionando eles próprios os fornecedores adequados. As ferramentas de RH focadas em startups oferecem suporte integrado para facilitar o processo de contratação, ajudando você a criar descrições de cargos, aceitar inscrições e filtrar candidatos para selecionar os mais adequados.

Leis e diretrizes antidiscriminação existem para proteger a todos nós. O objectivo destas leis é promover oportunidades de emprego justas e iguais e garantir que os empregadores não tomem decisões com base no género, raça, etnia, deficiência ou outros critérios protegidos.

No entanto, quando os seres humanos são afastados da tomada de decisões, as regras que promovem o emprego justo e igualitário são reduzidas a cálculos estatísticos. Mas as estatísticas são difíceis de compreender e a história sombria deste campo é um aviso. Muitos dos primeiros contribuidores compreenderam mal ou utilizaram mal a matemática para promover as suas próprias visões raciais. A pseudociência emergente serve para matar e mutilar grupos de pessoas com base apenas na raça, etnia e estatuto socioeconómico.

A matemática pode ser usada e abusada, tanto com boas como com más intenções. Frases extravagantes como “inteligência artificial” são frequentemente usadas para ocultar algoritmos ruins e tomar decisões críticas sem muito escrutínio. Mas, curiosamente, a forma como melhoramos a IA é muito semelhante à forma como combatemos os preconceitos humanos.

O artigo continua após o anúncio

Confie, mas verifique a IA

Se a IA errar o alvo, as coisas podem dar muito errado.

O algoritmo Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) é usado nos tribunais dos EUA para determinar se alguém tem probabilidade de cometer outra contravenção ou crime e é frequentemente usado para determinar quem tem maior probabilidade de cometer outra contravenção ou crime. receber uma punição mais leve. Uma investigação da ProPublica de 2016 descobriu que o COMPAS era tendencioso contra os réus afro-americanos e rotulava consistentemente os réus brancos como de menor risco do que outros réus com antecedentes semelhantes.

Quando os modelos de IA cometem erros, muitas vezes a causa raiz está no conjunto de dados de treinamento subjacente ou no preconceito inconsciente das pessoas que contribuíram para o conjunto de dados. Mesmo equipes bem-intencionadas podem construir modelos de IA abaixo do padrão.

Quando se descobriu que a ferramenta de recrutamento baseada em IA da Amazon (já descontinuada) era tendenciosa para a contratação de mulheres, a empresa começou a investigar a causa. Os pesquisadores descobriram que o sistema foi treinado com base em currículos enviados ao longo de um período de 10 anos, esmagadoramente enviados por candidatos do sexo masculino. Como resultado, o modelo começou a penalizar currículos que incluíam “palavras” que as candidatas usam com mais frequência. . Da mesma forma, muitos sistemas de reconhecimento facial desenvolvidos por equipes de alto orçamento (como IBM, Microsoft e outras grandes empresas) são propensos a erros ao tentar identificar mulheres e pessoas com pele escura.

É irritante quando esse tipo de preconceito racial ou de gênero ocorre em videogames, mas a escala do problema aumenta quando o sistema é introduzido em ambientes mais perigosos. Foi demonstrado que até mesmo os modelos de IA usados ​​​​em carros autônomos detectam diferenças em pedestres de diferentes raças, tornando a conscientização das pessoas um passo importante para evitar colisões com pedestres.

O artigo continua após o anúncio

Entra lixo, sai lixo

Os erros cometidos pelos sistemas de IA são muito semelhantes aos preconceitos inconscientes dos humanos. Os humanos tendem a formar preconceitos por meio de condicionamento social e experiências passadas. No caso da IA, o preconceito é normalmente causado por humanos que alimentam algoritmos com seus próprios preconceitos inconscientes.

Muitos dos preconceitos da IA ​​já estão presentes nos dados de treinamento. Os sistemas de IA aprendem com dados anteriores, mas se os dados de treinamento refletirem preconceitos humanos ou discriminação sistêmica, o modelo de IA pode perpetuar esses preconceitos. Por exemplo, se as operações policiais anteriores incluírem perfis raciais, um sistema de IA treinado com base nesses dados poderia herdar e até amplificar tais preconceitos.

E esses dados são quase certamente tendenciosos. O condicionamento social, as normas culturais e as experiências passadas que influenciam os humanos e moldam as suas crenças e decisões podem levar a comportamentos discriminatórios. Além disso, as capacidades cognitivas humanas são limitadas e não podem considerar todos os fatores relevantes na tomada de decisões.

Fundamentos de Inteligência Artificial

(mais) humanos vêm em socorro

A inteligência humana também lida com preconceitos na tomada de decisões e julgamentos, e emprega uma variedade de estratégias para abordá-los ou reduzi-los.

Por exemplo, frequentemente introduzimos avaliação cega nos nossos processos, removendo certas informações de identificação que poderiam causar preconceitos na tomada de decisões. Tanto para os humanos quanto para a inteligência artificial, é mais fácil comparar objetivamente dois resumos sem informações sobre idade, sexo, raça ou outras variáveis ​​protegidas.

O artigo continua após o anúncio

A diversidade e a inclusão são geralmente simples e fáceis de implementar. Perspectivas diversas durante as fases de desenvolvimento e avaliação podem contrariar preconceitos individuais e levar a uma tomada de decisão mais equilibrada.

Incentivar a autorreflexão também pode ajudá-lo a se tornar mais consciente de seus próprios preconceitos, encorajando-o a desafiar e modificar seus próprios processos de pensamento. Além disso, fornecer feedback e responsabilizar os indivíduos por decisões tendenciosas pode criar incentivos para estarem mais conscientes do preconceito.

Da mesma forma, os sistemas de IA devem ser auditados regularmente quanto a preconceitos, utilizando ferramentas como análise de sensibilidade e avaliação consciente da imparcialidade. As regulamentações estão a melhorar rapidamente em algumas áreas, com o Departamento de Protecção do Consumidor e do Trabalhador da cidade de Nova Iorque a começar a implementar a primeira lei destinada a reduzir o preconceito contra a IA no local de trabalho. Mas, para além do recrutamento, a auditoria de preconceitos deve fazer parte do desenvolvimento de processos de teste padrão.

Referências

Inioluwa Deborah Raji e Joy Buolamwini. 2019. Auditoria prática: investigando o impacto da publicação de resultados de desempenho tendenciosos para produtos comerciais de IA. Anais da Conferência AAAI/ACM 2019 sobre IA, Ética e Sociedade (AIES '19). Association for Computing Machinery, Nova York, NY, EUA, 429–435. https://doi.org/10.1145/3306618.3314244

Julia Dressel, Hany Farid, Precisão, justiça e limitações da previsão de reincidência. Sci.Adv.4, eaao5580(2018) DOI:10.1126/sciadv.aao5580

Benjamin Wilson, Judy Hoffman, Jamie Morgenstern, Desigualdades de previsão na detecção de objetos (2019) https://doi.org/10.48550/arXiv.1902.11097

A primeira lei da América que regulamenta o preconceito de IA na contratação entra em vigor esta semana https://qz.com/americas-first-law-regulated-ai-bias-in-hiring-takes-e-…



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.