Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » O chatbot de IA de consultoria empresarial da cidade de Nova York diz às pessoas para infringirem a lei
Ai

O chatbot de IA de consultoria empresarial da cidade de Nova York diz às pessoas para infringirem a lei

FranciscoBy FranciscoMarch 29, 2024No Comments5 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email



O chatbot de IA da cidade de Nova York, MyCity, teve um começo difícil. O governo municipal introduziu a tecnologia há cinco meses para ajudar os residentes interessados ​​em administrar um negócio na Big Apple a encontrar informações úteis.

Os bots respondem alegremente a perguntas com o que aparentemente parecem ser respostas legítimas, mas uma investigação da The Markup descobriu que os bots contam muitas mentiras. Por exemplo, quando questionado se um empregador pode receber uma parte das gorjetas de um funcionário, mesmo que a lei estabeleça que um chefe não pode aceitar gorjetas de um funcionário, o bot dirá “Sim”. Quando você pergunta se um prédio precisa de um voucher da Seção 8, o bot dirá que não, mesmo que o proprietário não consiga diferenciar com base na fonte de renda do possível inquilino. Quando perguntei se a loja poderia ficar sem dinheiro, o bot disse: “Por favor”. Na verdade, os estabelecimentos que não aceitam dinheiro foram proibidos na cidade de Nova York desde o início de 2020. Na época, o bot disse: “A cidade de Nova York não tem regulamentações que exijam que as empresas deixem de usar dinheiro”. “Aceitar dinheiro como forma de pagamento” é uma besteira.

Para crédito da cidade, este site lembra aos usuários que não confiem apenas nas respostas do chatbot em vez de aconselhamento profissional e que confirmem as declarações através dos links fornecidos. Estou avisando. O problema é que algumas respostas não incluem nenhum link, tornando ainda mais difícil verificar se o que o bot diz é factualmente correto. Isso levanta a questão: para quem é essa tecnologia?

IA tem tendência a alucinar

Para aqueles que têm acompanhado os desenvolvimentos recentes na IA, esta história não será um choque. Acontece que às vezes os chatbots estão apenas inventando coisas. Isso é chamado de alucinação. Modelos de IA treinados para responder às perguntas dos usuários obtêm respostas com segurança com base nos dados de treinamento.Estas redes são apenas Devido à complexidade, é difícil saber exatamente quando ou por que o bot escolherá criar uma ficção específica em resposta à sua pergunta, mas isso acontece com frequência.

Na verdade não é uma coisa da cidade de Nova York discriminação O chatbot da empresa suspeita que os funcionários estão alucinando que podem aceitar gorjetas e endurecê-las. Os bots da empresa são executados no Azure AI da Microsoft, uma plataforma comum de IA usada por empresas como AT&T, Reddit e Volkswagen para uma variedade de serviços. A cidade provavelmente pagou pelo acesso à tecnologia de IA da Microsoft para alimentar o chatbot, num esforço sincero para ajudar os nova-iorquinos interessados ​​em iniciar um negócio, mas o bot respondeu a questões importantes. Descobriu-se que ele estava a alucinar com uma resposta muito errada.

Quando as alucinações irão parar?

Estas circunstâncias infelizes podem passar em breve. A Microsoft está introduzindo novos sistemas de segurança para capturar e proteger os clientes do lado negro da IA. Além de ferramentas que ajudam a impedir que hackers usem IA como ferramenta maliciosa e avaliem possíveis vulnerabilidades de segurança dentro da plataforma de IA, a Microsoft também fornece ferramentas para ajudar a monitorar possíveis alucinações e implementar a detecção de Groundness, que pode intervir de acordo. (“Não aterrado” é outro termo para alucinação.)

Assim que os sistemas da Microsoft detectarem possíveis alucinações, os clientes poderão testar a versão atual da IA ​​em comparação com a versão que existia antes de sua introdução. Você pode apontar as declarações alucinatórias e verificá-las, ou fazer uma “edição da base de conhecimento” ou talvez editar o conjunto de treinamento subjacente para eliminar o problema. Reescreva as declarações de alucinação antes de enviá-las aos usuários. Alternativamente, avalie a qualidade dos dados de treinamento sintéticos antes de usá-los para gerar novos dados sintéticos.

O novo sistema da Microsoft é executado em outro LLM chamado Natural Language Inference (NLI), que avalia constantemente as afirmações da IA ​​com base nos dados de origem. É claro que o sistema que verifica os fatos do LLM é em si um LLM, então é possível que o NLI tenha alucinações com sua própria análise? (Talvez! Sou uma criança, sou uma criança. Ei.)

Isso pode significar que organizações como a cidade de Nova York, que possuem IA do Azure em seus produtos, poderiam implantar LLMs para impedir alucinações em tempo real nesse sentido. Talvez o que você vê como usuário final seja a resposta realmente precisa, porque se você tentar dizer que o chatbot MyCity pode administrar um negócio sem dinheiro em Nova York, a NLI corrigirá rapidamente essa afirmação.

A Microsoft acaba de lançar este novo software, por isso ainda não está claro se ele funcionará bem. Mas, por enquanto, se você é nova-iorquino ou alguém que usa chatbots administrados pelo governo para encontrar respostas a perguntas legítimas, você deve encarar as respostas com cautela. Não pense: “Eu disse que poderia fazer um chatbot MyCity!” Pretendo levar isso ao tribunal.





Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.