Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » Pesquisa mostra que chatbots de IA como ChatGPT tratam nomes negros de maneira diferente
Ai

Pesquisa mostra que chatbots de IA como ChatGPT tratam nomes negros de maneira diferente

FranciscoBy FranciscoApril 6, 2024No Comments4 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


jogar

Governador do Tennessee assina Lei ELVIS para proteger artistas da IA

O governador do Tennessee, Bill Lee, assinou a Lei de Segurança de Similaridade de Áudio e Imagem (Lei ELVIS), que protege os artistas do abuso de IA.

Por que não pedir conselhos a um chatbot?Um novo estudo alerta que a resposta pode depender de quão negro seu nome soa.

Um artigo recente de pesquisadores da Faculdade de Direito de Stanford encontrou “diferenças significativas entre nomes relacionados à raça e ao gênero” em chatbots como o ChatGPT 4 da OpenAI e o PaLM-2 do Google AI. Por exemplo, um chatbot pode dizer que um candidato a emprego com um nome como Tamika deveria receber um salário de $ 79.375 como advogado, mas se você mudar seu nome para algo como Todd, o salário aumenta para $ 82.485.

Os autores destacam os riscos por trás destes preconceitos, especialmente à medida que as empresas incorporam inteligência artificial nas operações diárias através de chatbots internos e voltados para o cliente.

“As empresas não mediram esforços para criar barreiras de proteção para o modelo”, disse Julian Nyarko, professor da Faculdade de Direito de Stanford e um dos coautores do estudo, ao USA TODAY. “Mas é muito fácil encontrar situações em que as proteções não funcionam e o modelo pode se comportar de forma tendenciosa”.

Viés visto em diferentes cenários

O artigo, publicado no mês passado, pede conselhos aos chatbots de IA sobre cinco cenários diferentes para identificar potenciais estereótipos.

◾ Compras: Dúvidas sobre quanto custa comprar uma casa, uma bicicleta ou um carro.

◾ Xadrez: Perguntas sobre a probabilidade de um jogador vencer uma partida.

◾ Governo: Peça previsões sobre as chances de um candidato vencer uma eleição.

◾ Esportes: peça opiniões sobre onde você classificaria um atleta em uma lista de 100 atletas.

◾ Recrutamento: peça orientação sobre quanto salário oferecer aos candidatos a emprego.

O estudo descobriu que a maioria dos cenários mostrava preconceito contra pessoas negras e mulheres. A única exceção consistente foi quando se pedia opinião sobre a situação de um atleta como jogador de basquete. Nesse cenário, o viés foi a favor dos atletas negros.

Esta descoberta sugere que os modelos de IA codificam estereótipos comuns com base nos dados em que são treinados, o que influencia as suas respostas.

“Problemas sistêmicos” do chatbot de IA

O artigo destaca que, diferentemente de estudos anteriores, este estudo foi realizado por meio de uma análise de auditoria que visa medir o nível de preconceito em diversas áreas da sociedade, como habitação e emprego.

Nyarko disse que o estudo se baseia em um famoso estudo de 2003 que investigou o preconceito de contratação, enviando o mesmo resumo com nomes que soavam negros e brancos e encontrou “discriminação significativa” contra nomes que soavam negros. , disse que foi inspirado por uma análise semelhante.

Na pesquisa de IA, os pesquisadores fizeram perguntas repetidamente a chatbots como GPT-4, GPT-3.5 da OpenAI e PaLM-2 da Google AI, alterando apenas os nomes referenciados nas consultas. Os pesquisadores usaram nomes masculinos brancos, como Dustin e Scott. Nomes femininos brancos como Claire e Abigail. Nomes masculinos negros como DaQuan e Jamal. Existem também nomes femininos negros como Janae e Keyana.

O estudo descobriu que o conselho do chatbot de IA “nomes sistematicamente desfavorecidos comumente associados a minorias raciais e mulheres”, enquanto nomes associados a mulheres negras “nomes sistematicamente desfavorecidos comumente associados a minorias raciais e mulheres”. resultados.

Os pesquisadores descobriram que o viés era consistente em 42 modelos de prompt e em vários modelos de IA, “indicando um problema sistêmico”.

A OpenAI disse em comunicado por e-mail que o preconceito é um “problema significativo em todo o setor” e que sua equipe de segurança está trabalhando para resolvê-lo.

“[Nós]iteramos continuamente nossos modelos para melhorar o desempenho, reduzir preconceitos e mitigar resultados prejudiciais”, diz a declaração.

O Google não respondeu a um pedido de comentário.

Primeiro passo: “Esteja ciente de que esses preconceitos existem”.

Nyarko disse que o primeiro passo que as empresas de IA devem tomar para enfrentar esses riscos é “saber que esses preconceitos existem” e continuar a testá-los.

No entanto, os investigadores também descobriram que certos conselhos deve Varia de acordo com o grupo socioeconômico. Por exemplo, Nyarko disse que pode fazer sentido que os chatbots adaptem o aconselhamento financeiro com base no nome do utilizador devido à correlação entre riqueza, raça e género nos Estados Unidos.

Você tem medo de IA? Veja como começar e usá-lo para tornar sua vida mais fácil

“Pode não ser necessariamente mau para um modelo dar conselhos de investimento mais conservadores a alguém com um nome que soa negro, assumindo que essa pessoa não é muito rica”, diz Nyarko. “Portanto, não precisa ser um resultado terrível, mas é algo que devemos saber e mitigar em situações indesejáveis”.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.