Resumindo
Os reguladores estaduais estão propondo regras para que a IA avalie trabalhadores e candidatos a empregos.
Os reguladores da Califórnia estão a tomar medidas para restringir a forma como os empregadores utilizam a inteligência artificial para selecionar trabalhadores e candidatos a emprego, utilizando a IA para medir o tom de voz, as expressões faciais e os tempos de reação.
O projeto de regulamento afirma que é discriminação as empresas utilizarem sistemas automatizados para limitar ou priorizar candidatos com base na gravidez, origem nacional, religião ou antecedentes criminais.
O público tem até 18 de julho para comentar a regra proposta. Os reguladores do Departamento de Direitos Civis da Califórnia poderiam então fazer alterações, que seriam finalmente aprovadas após uma revisão final por um juiz de direito administrativo, encerrando um processo que começou há três anos.
As regras regem os chamados “sistemas automatizados de tomada de decisão”, ou seja, inteligência artificial e outros processos informatizados, incluindo questionários, jogos, análises resumidas e até publicidade. Os regulamentos estabelecem que a utilização de tais sistemas para analisar características físicas ou tempos de reação pode constituir discriminação ilegal. As novas regras dizem que o sistema não pode ser utilizado se houver um “efeito adverso” sobre um candidato com base em certas características protegidas.
O projecto de regra também exigiria que as empresas que vendem serviços preditivos aos empregadores mantivessem registos durante quatro anos para responder a alegações de discriminação.
Uma razão para a repressão é que, embora as empresas queiram automatizar partes do processo de contratação, “esta nova tecnologia pode confundir a responsabilidade e tornar mais fácil a exposição dos indivíduos a decisões discriminatórias”. ” Associado de política da Associação de Advogados Trabalhistas da Califórnia.
O projeto de regulamento deixa claro que os terceiros prestadores de serviços são agentes do empregador e responsabilizam o empregador.
O Departamento de Direitos Civis da Califórnia lançou uma investigação em abril de 2021 sobre como os algoritmos, um tipo de sistema automatizado de tomada de decisão, podem impactar as oportunidades de emprego e automatizar a discriminação no local de trabalho. Na época, Lydia X.Z Brown, fundadora do Fundo de Autismo para Pessoas de Cor, alertou a agência sobre seus danos: Os algoritmos de emprego podem impactar negativamente as pessoas com deficiência. Brown disse ao CalMatters se as novas regras propostas fornecerão proteções significativas dependerá de como elas serão implementadas e aplicadas.
Investigadores, defensores e jornalistas estão a acumular um conjunto crescente de evidências de que os modelos de IA podem automatizar a discriminação, inclusive no local de trabalho. No mês passado, a União Americana pelas Liberdades Civis acusou o software de triagem da Aon de discriminar pessoas com base na raça e na deficiência, apesar das alegações da empresa de que sua IA é “livre de preconceitos”, apresentou uma queixa à Comissão Federal de Comércio. A avaliação da tecnologia GPT-3.5 da empresa líder de inteligência artificial OpenAI revela que o preconceito racial pode surgir quando modelos de linguagem em larga escala são usados para selecionar automaticamente os currículos dos candidatos a empregos. Embora a empresa utilize filtros para evitar que os seus modelos de linguagem produzam linguagem prejudicial, os testes internos do GPT-3 também revelaram preconceitos raciais, de género e religiosos.
“Esta nova tecnologia pode confundir a responsabilidade.”
Ken Wang, Diretor de Políticas, Associação de Advogados Trabalhistas da Califórnia
Proteger as pessoas contra preconceitos automatizados recebe muita atenção, mas às vezes a adoção de software considerado inteligente pode levar a decisões imprudentes. De acordo com um relatório de pesquisa da emissora pública alemã Bavarian Broadcasting, as previsões de personalidade podem ser distorcidas se as pessoas usarem óculos, cachecol ou tiverem uma estante de livros no fundo de um vídeo de entrevista de emprego. O mesmo vale para as fontes que os candidatos escolhem ao enviar seus currículos, segundo pesquisadores da Universidade de Nova York.
As regulamentações propostas pela Califórnia são as mais recentes de uma série de esforços destinados a proteger os trabalhadores de empresas que utilizam formas prejudiciais de IA.
Em 2021, o Conselho da Cidade de Nova Iorque aprovou uma lei que protege os candidatos a emprego da discriminação algorítmica no emprego, mas investigadores da Universidade Cornell e da Consumer Reports concluíram recentemente que a lei é ineficaz. E em 2022, a Comissão de Igualdade de Oportunidades de Emprego e o Departamento de Justiça dos EUA esclareceram que os empregadores devem cumprir a Lei dos Americanos com Deficiência ao usar a automação durante o emprego.
Enquanto isso, o Departamento de Proteção à Privacidade da Califórnia está considerando projetos de regulamentos que definiriam quais informações os empregadores podem coletar sobre empreiteiros, candidatos a empregos e trabalhadores. Isso permite que você veja quais dados seu empregador coleta e permite que você opte por não participar dessa coleta ou coleta de seus dados. Solicite revisão humana.
O projeto de lei pendente daria mais autoridade ao Departamento de Direitos Civis da Califórnia, que redigiu a emenda. O Assembly Bill 2930 permitiria ao departamento exigir avaliações de impacto de empresas e agências estaduais que usam IA para proteção contra discriminação automatizada.
Os líderes sindicais fora do governo argumentam agora cada vez mais que os trabalhadores comuns deveriam ser capazes de considerar a eficácia e os danos da IA para proteger o público. Representantes do Partido Trabalhista discutiram projetos específicos com autoridades da Califórnia enquanto experimentavam formas de usar a IA.
Source link

