Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » O denunciante da OpenAI diz que impediu ilegalmente a equipe de compartilhar riscos
Ai

O denunciante da OpenAI diz que impediu ilegalmente a equipe de compartilhar riscos

FranciscoBy FranciscoJuly 13, 2024No Comments6 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


Os denunciantes da OpenAI acusam a Securities and Exchange Commission de uma empresa de inteligência artificial proibir ilegalmente os funcionários de alertar os reguladores sobre os sérios riscos que sua tecnologia pode representar para a humanidade e pediram uma investigação.

De acordo com uma carta de sete páginas enviada ao comissário da SEC no início deste mês, os denunciantes dizem que a OpenAI está sobrecarregada, severa e pode levar a penalidades para os trabalhadores que levantarem preocupações sobre a OpenAI junto aos reguladores federais, disse ter emitido sigilo. acordos aos seus funcionários. Queixa formal. A carta foi obtida exclusivamente pelo The Washington Post.

De acordo com a carta, a OpenAI fez com que seus funcionários assinassem um acordo de trabalho exigindo que renunciassem ao seu direito federal à compensação de denunciantes. Esses acordos exigem que a equipe da OpenAI obtenha o consentimento da empresa antes de divulgar informações às autoridades federais. A OpenAI não forneceu isenção em sua cláusula de não discriminação de funcionários para divulgar violações de valores mobiliários à SEC.

Esses acordos excessivamente amplos violam leis e regulamentos federais de longa data destinados a proteger os denunciantes que desejam revelar informações contundentes sobre suas empresas anonimamente e sem medo de retaliação, dizia a carta.

“Estes contratos enviam uma mensagem de que não queremos que os nossos funcionários falem com os reguladores federais”, disse um denunciante, que pediu anonimato por medo de retaliação. “Se as empresas de IA se protegerem do escrutínio e da dissidência, não acredito que possam construir uma tecnologia segura e de interesse público.”

ser pego em

Histórias que mantêm você informado

“Nossa política de denúncia protege o direito de nossos funcionários de fazer divulgações protegidas”, disse Hannah Wong, porta-voz da OpenAI, em um comunicado. Acreditamos que sim, e já fizemos mudanças significativas em nosso processo de saída para remover a condição de não derrogação.

Esta carta de denúncia foi enviada pela OpenAI. Organizações sem fins lucrativos com missões altruístas priorizam o lucro em detrimento da segurança no desenvolvimento de tecnologia. O jornal informou na sexta-feira que a OpenAI está trabalhando para cumprir a data de lançamento de maio definida pelos executivos da empresa, apesar das preocupações dos funcionários de que a empresa não está aderindo aos protocolos proprietários de testes de segurança que afirma manter. mais recente modelo de IA para aprimorar o ChatGPT. Seja ensinando aos usuários como fabricar armas biológicas ou ajudando hackers a desenvolver novos tipos de ataques cibernéticos, a IA pode proteger contra danos devastadores. O porta-voz da OpenAI, Lindsey Held, disse em comunicado que a empresa “reconhece que o lançamento foi estressante para nossa equipe, mas não economizamos em nossos processos de segurança”.

Os rígidos acordos de confidencialidade das empresas de tecnologia há muito incomodam trabalhadores e reguladores. No meio do movimento #MeToo e dos protestos a nível nacional sobre o assassinato de George Floyd, os trabalhadores alertaram que tais acordos legais limitariam a sua capacidade de denunciar má conduta sexual e discriminação racial. Enquanto isso, os reguladores temem que o termo possa abrir fogo contra funcionários de empresas de tecnologia que possam sinalizar irregularidades em situações obscuras. A indústria tecnológica tem estado no centro das atenções, especialmente no meio de alegações de que os algoritmos das empresas promovem conteúdos que prejudicam as eleições, a saúde pública e a segurança infantil.

O rápido progresso na inteligência artificial está se tornando mais radical As preocupações dos decisores políticos sobre o poder da indústria tecnológica levaram a apelos à regulamentação. Nos Estados Unidos, as empresas de IA operam em grande parte num vazio jurídico e os decisores políticos afirmam que as novas políticas de IA não podem ser desenvolvidas de forma eficaz sem a ajuda de denunciantes. Os denunciantes podem ajudar a explicar as ameaças potenciais representadas pelo rápido avanço da tecnologia.

“As políticas e práticas da OpenAI têm um efeito inibidor sobre o direito dos denunciantes de se manifestarem e receberem uma compensação justa pelas suas divulgações protegidas”, disse o senador Chuck Grassley (R-Iowa) em uma declaração ao Post. esse.” “Para que o governo federal fique à frente da inteligência artificial, o acordo de confidencialidade da OpenAI deve mudar.”

Uma cópia da carta endereçada ao presidente da SEC, Gary Gensler, foi enviada ao Congresso. O jornal obteve uma carta de denúncia do escritório de Grassley.

A reclamação oficial mencionou: A carta foi protocolada na SEC em junho. O advogado Stephen Cohn, que representa o denunciante da OpenAI, disse que a SEC respondeu à reclamação.

Não foi possível confirmar se a SEC abriu uma investigação. A agência não respondeu aos pedidos de comentários.

A carta diz que a SEC deve tomar medidas “rápidas e agressivas” para resolver esses acordos ilegais. Estes acordos podem estar relacionados com o campo mais amplo da IA ​​e podem violar uma ordem executiva de Outubro da Casa Branca que exige que as empresas de IA desenvolvam a sua tecnologia com segurança.

“Central para tais esforços de fiscalização é o reconhecimento de que os insiders… deveriam ser livres para relatar preocupações às autoridades federais”, dizia a carta. “Os funcionários estão na melhor posição para detectar e alertar sobre os tipos de perigos mencionados na ordem executiva e para garantir que a IA beneficie a humanidade em vez de ter o efeito oposto. Estamos na melhor posição para o fazer.”

Esses acordos ameaçavam processos criminais sob leis de segredo comercial se os funcionários denunciassem violações da lei às autoridades federais, disse Cohn. Ele disse que os funcionários foram instruídos a manter a confidencialidade das informações da empresa, negaram o direito de relatar tais informações ao governo e foram ameaçados com “sanções severas”.

“Estamos realmente nos estágios iniciais em termos de vigilância por IA”, disse Cohn. “Precisamos que nosso pessoal avance e que a OpenAI seja aberta.”

A SEC deveria exigir que a OpenAI elaborasse todos os acordos de emprego, severidade e investidores que incluíssem cláusulas de confidencialidade para garantir que não violassem a lei federal, dizia a carta. Os reguladores federais devem exigir que a OpenAI notifique todos os funcionários antigos e atuais sobre as violações cometidas pela empresa e sobre seu direito de denunciar de forma confidencial e anônima as violações da lei à SEC. De acordo com a denúncia do denunciante, a SEC deveria multar a OpenAI de acordo com a Lei da SEC por “cada acordo inescrupuloso” e instruir a OpenAI a corrigir o “efeito inibidor” de suas práticas anteriores.

Vários funcionários de tecnologia, incluindo a denunciante do Facebook, Frances Haugen, apresentaram queixas à SEC, que estabeleceu um programa de denúncias em resposta à crise financeira de 2008.

O advogado de São Francisco, Chris Baker, disse que a luta contra o uso de NDAs pelo Vale do Silício para criar um “monopólio de informação” é uma batalha de longo prazo. Em dezembro, ele ganhou um acordo de US$ 27 milhões para funcionários do Google por alegações de que a gigante da tecnologia usou acordos onerosos de sigilo para impedir denúncias e outras atividades protegidas. As empresas de tecnologia estão agora cada vez mais reagindo com formas sofisticadas de bloquear a expressão, disse ele.

“Os empregadores estão aprendendo que o custo de uma violação de dados pode ser muito maior do que o custo de um litígio e estão dispostos a assumir o risco”, disse Baker.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.