Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Saiba onde votar nas freguesias do concelho de Matosinhos

January 14, 2026

Matosinhos acolhe a maior feira nacional dedicada à Defesa, Segurança e Proteção Civil

January 13, 2026

Fisioterapia que transforma vidas em Matosinhos

January 13, 2026
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » O plano da Califórnia para proteger os trabalhadores da IA
Ai

O plano da Califórnia para proteger os trabalhadores da IA

FranciscoBy FranciscoJune 20, 2024No Comments5 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email

Resumindo

Os reguladores estaduais estão propondo regras para que a IA avalie trabalhadores e candidatos a empregos.

Os reguladores da Califórnia estão a tomar medidas para restringir a forma como os empregadores utilizam a inteligência artificial para selecionar trabalhadores e candidatos a emprego, utilizando a IA para medir o tom de voz, as expressões faciais e os tempos de reação.

O projeto de regulamento afirma que é discriminação as empresas utilizarem sistemas automatizados para limitar ou priorizar candidatos com base na gravidez, origem nacional, religião ou antecedentes criminais.

O público tem até 18 de julho para comentar a regra proposta. Os reguladores do Departamento de Direitos Civis da Califórnia poderiam então fazer alterações, que seriam finalmente aprovadas após uma revisão final por um juiz de direito administrativo, encerrando um processo que começou há três anos.

As regras regem os chamados “sistemas automatizados de tomada de decisão”, ou seja, inteligência artificial e outros processos informatizados, incluindo questionários, jogos, análises resumidas e até publicidade. Os regulamentos estabelecem que a utilização de tais sistemas para analisar características físicas ou tempos de reação pode constituir discriminação ilegal. As novas regras dizem que o sistema não pode ser utilizado se houver um “efeito adverso” sobre um candidato com base em certas características protegidas.

O projecto de regra também exigiria que as empresas que vendem serviços preditivos aos empregadores mantivessem registos durante quatro anos para responder a alegações de discriminação.

Uma razão para a repressão é que, embora as empresas queiram automatizar partes do processo de contratação, “esta nova tecnologia pode confundir a responsabilidade e tornar mais fácil a exposição dos indivíduos a decisões discriminatórias”. ” Associado de política da Associação de Advogados Trabalhistas da Califórnia.

O projeto de regulamento deixa claro que os terceiros prestadores de serviços são agentes do empregador e responsabilizam o empregador.

O Departamento de Direitos Civis da Califórnia lançou uma investigação em abril de 2021 sobre como os algoritmos, um tipo de sistema automatizado de tomada de decisão, podem impactar as oportunidades de emprego e automatizar a discriminação no local de trabalho. Na época, Lydia X.Z Brown, fundadora do Fundo de Autismo para Pessoas de Cor, alertou a agência sobre seus danos: Os algoritmos de emprego podem impactar negativamente as pessoas com deficiência. Brown disse ao CalMatters se as novas regras propostas fornecerão proteções significativas dependerá de como elas serão implementadas e aplicadas.

  1. Torne-se um membro do CalMatters hoje para se manter informado, divulgar notícias bipartidárias e espalhar conhecimento por toda a Califórnia.

Investigadores, defensores e jornalistas estão a acumular um conjunto crescente de evidências de que os modelos de IA podem automatizar a discriminação, inclusive no local de trabalho. No mês passado, a União Americana pelas Liberdades Civis acusou o software de triagem da Aon de discriminar pessoas com base na raça e na deficiência, apesar das alegações da empresa de que sua IA é “livre de preconceitos”, apresentou uma queixa à Comissão Federal de Comércio. A avaliação da tecnologia GPT-3.5 da empresa líder de inteligência artificial OpenAI revela que o preconceito racial pode surgir quando modelos de linguagem em larga escala são usados ​​para selecionar automaticamente os currículos dos candidatos a empregos. Embora a empresa utilize filtros para evitar que os seus modelos de linguagem produzam linguagem prejudicial, os testes internos do GPT-3 também revelaram preconceitos raciais, de género e religiosos.

“Esta nova tecnologia pode confundir a responsabilidade.”

Ken Wang, Diretor de Políticas, Associação de Advogados Trabalhistas da Califórnia

Proteger as pessoas contra preconceitos automatizados recebe muita atenção, mas às vezes a adoção de software considerado inteligente pode levar a decisões imprudentes. De acordo com um relatório de pesquisa da emissora pública alemã Bavarian Broadcasting, as previsões de personalidade podem ser distorcidas se as pessoas usarem óculos, cachecol ou tiverem uma estante de livros no fundo de um vídeo de entrevista de emprego. O mesmo vale para as fontes que os candidatos escolhem ao enviar seus currículos, segundo pesquisadores da Universidade de Nova York.

As regulamentações propostas pela Califórnia são as mais recentes de uma série de esforços destinados a proteger os trabalhadores de empresas que utilizam formas prejudiciais de IA.

Em 2021, o Conselho da Cidade de Nova Iorque aprovou uma lei que protege os candidatos a emprego da discriminação algorítmica no emprego, mas investigadores da Universidade Cornell e da Consumer Reports concluíram recentemente que a lei é ineficaz. E em 2022, a Comissão de Igualdade de Oportunidades de Emprego e o Departamento de Justiça dos EUA esclareceram que os empregadores devem cumprir a Lei dos Americanos com Deficiência ao usar a automação durante o emprego.

Enquanto isso, o Departamento de Proteção à Privacidade da Califórnia está considerando projetos de regulamentos que definiriam quais informações os empregadores podem coletar sobre empreiteiros, candidatos a empregos e trabalhadores. Isso permite que você veja quais dados seu empregador coleta e permite que você opte por não participar dessa coleta ou coleta de seus dados. Solicite revisão humana.

O projeto de lei pendente daria mais autoridade ao Departamento de Direitos Civis da Califórnia, que redigiu a emenda. O Assembly Bill 2930 permitiria ao departamento exigir avaliações de impacto de empresas e agências estaduais que usam IA para proteção contra discriminação automatizada.

Os líderes sindicais fora do governo argumentam agora cada vez mais que os trabalhadores comuns deveriam ser capazes de considerar a eficácia e os danos da IA ​​para proteger o público. Representantes do Partido Trabalhista discutiram projetos específicos com autoridades da Califórnia enquanto experimentavam formas de usar a IA.

“Sou um membro apoiador do CalMatters porque quero um jornalismo imparcial onde possa tomar minhas próprias decisões.”

Susan, Palos Verdes

Membros em destaque do CalMatters

Nossos membros tornam nossa missão possível.



Source link
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2026 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.