Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » OpenAI diz que ‘falhou’ nos testes iniciais de funcionários para tornar sua IA segura
Ai

OpenAI diz que ‘falhou’ nos testes iniciais de funcionários para tornar sua IA segura

FranciscoBy FranciscoJuly 12, 2024No Comments7 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


No verão passado, a gigante da inteligência artificial OpenAI anunciou que estava tentando garantir que sua IA não causasse danos, inclusive ensinando os usuários a fabricar armas biológicas e ajudando hackers a desenvolver novos tipos de ataques cibernéticos, prometendo à Casa Branca que testaria rigorosamente a segurança de novos ataques. versões de sua tecnologia inovadora.

No entanto, nesta primavera, alguns membros da equipe de segurança da OpenAI anunciaram que, para cumprir a data de lançamento de maio definida pelos líderes da OpenAI, houve pressão para avançar rapidamente nos protocolos de teste, disseram três pessoas familiarizadas com o assunto. Ele falou sob condição de anonimato por medo de retaliação.

Mesmo antes do início dos testes do modelo GPT-4 Omni, a OpenAI convidou os funcionários para uma festa em um de seus escritórios em São Francisco para celebrar o produto que alimenta o ChatGPT. “Eles planejaram a festa pós-lançamento antes de saberem se o lançamento era seguro”, disse uma das pessoas, falando sob condição de anonimato para discutir informações confidenciais da empresa. “Basicamente falhamos nesse processo.”

Este incidente não relatado anteriormente destaca uma mudança de cultura na OpenAI. Os executivos da empresa, incluindo o CEO Sam Altman, foram acusados ​​de colocar os interesses comerciais à frente da segurança pública, um afastamento acentuado das raízes da empresa como uma organização sem fins lucrativos altruísta. Também põe em causa a confiança do governo federal na autorregulação por parte das empresas de tecnologia para proteger o público do uso indevido de IA generativa, através de compromissos da Casa Branca e de uma ordem executiva sobre IA aprovada em outubro. Trata-se de remodelar quase todos os aspectos da sociedade humana, do trabalho à guerra.

Permitir que as empresas estabeleçam seus próprios padrões de segurança é inerentemente arriscado, disse Andrew Strait, ex-pesquisador de ética e política do Google DeepMind e agora vice-diretor do Instituto Ada Lovelace em Londres.

ser pego em

Histórias que mantêm você informado

“Não pode haver garantia significativa de que as políticas internas sejam seguidas fielmente ou apoiadas de forma confiável”, disse Streit.

Biden disse que o Congresso precisa promulgar novas leis para proteger o público dos riscos da IA.

“O presidente Biden comunicou claramente às empresas de tecnologia a importância de garantir que seus produtos sejam seguros e confiáveis ​​antes de lançá-los ao público”, disse o secretário de imprensa da Casa Branca, Robin Patterson, em comunicado. “Grandes empresas assumiram compromissos voluntários em relação a testes de segurança independentes e transparência pública, que ele espera que sejam cumpridos”.

A OpenAI é uma das mais de uma dúzia de empresas que assumiram compromissos voluntários com a Casa Branca no ano passado como precursora de uma ordem executiva de IA. Entre eles está a Anthropic, que criou o chatbot Claude. Nvidia, uma gigante de chips de US$ 3 trilhões. Palantir, uma empresa de análise de dados que trabalha com militares e governo; Mente Profunda do Google. E meta. Este compromisso exige a proteção de modelos de IA cada vez mais sofisticados. A Casa Branca disse que o regulamento permanecerá em vigor até que regulamentos semelhantes sejam promulgados.

O modelo mais recente da OpenAI, GPT-4o, foi a primeira grande oportunidade da empresa para aplicar a estrutura. O quadro exige a utilização de avaliadores humanos, incluindo peritos pós-doutorados com formação biológica e auditores terceiros, quando o risco for considerado suficientemente elevado. Mas, apesar das reclamações dos funcionários, os testadores reduziram a avaliação em uma semana.

Embora esperassem que a tecnologia passasse no teste, muitos funcionários ficaram desapontados ao ver a OpenAI retrocedendo em seus alardeados novos protocolos de prontidão. Em junho, vários funcionários atuais e ex-funcionários da OpenAI assinaram uma carta aberta de criptografia, permitindo que a empresa de IA isentasse os funcionários de acordos de não divulgação e garantisse que os funcionários falassem com os reguladores e o público sobre os riscos de segurança da tecnologia. dada a liberdade de emitir avisos.

Enquanto isso, o ex-executivo da OpenAI, Jan Reich, renunciou dias após o anúncio do GPT-4o, escrevendo no X que “a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos brilhantes”. William Saunders, um ex-engenheiro de pesquisa da OpenAI que renunciou em fevereiro, também disse em uma entrevista em podcast que percebeu um padrão no qual o trabalho de segurança em novos produtos estava sendo feito “muito rapidamente e não muito bem” “para cumprir as datas de envio”. .

Um representante da equipe de preparação da OpenAI, que falou sob condição de anonimato para discutir informações confidenciais da empresa, disse que a avaliação foi feita em uma semana e foi suficiente para concluir o teste, mas o prazo “não foi apertado”.

Estamos “repensando toda a maneira como fazemos as coisas”, disse um representante. “esse [was] Simplesmente não é a melhor maneira de fazer isso. ”

O porta-voz da OpenAI, Lindsey Held, disse em comunicado que a empresa “reconhece que o lançamento foi estressante para nossa equipe, mas não economizamos em nossos processos de segurança”. Para cumprir os compromissos da Casa Branca, a empresa “conduziu extensos testes internos e externos” e suprimiu alguns recursos multimídia “inicialmente como uma precaução contínua de segurança”, acrescentou.

A OpenAI anunciou esta iniciativa de preparação na tentativa de trazer rigor científico ao estudo de riscos catastróficos. Um risco catastrófico é definido como um evento que “poderia resultar em centenas de bilhões de dólares em danos econômicos ou danos significativos ou morte a um grande número de indivíduos”.

O termo foi popularizado por facções influentes no campo da IA ​​que temem que tentar criar máquinas tão inteligentes quanto os humanos possa enfraquecer ou destruir a humanidade. Muitos investigadores de IA argumentam que estes riscos existenciais são especulativos e desviam a atenção de danos mais imediatos.

“Nosso objetivo é estabelecer um novo padrão elevado para trabalho quantitativo e baseado em evidências”, escreveu Altman no X em outubro, anunciando a nova equipe da empresa.

A OpenAI lançou duas novas equipes de segurança no ano passado, juntando-se a divisões de longa data focadas em danos específicos, como preconceito racial e desinformação.

Anunciada em julho, a equipe do Superalinhamento se dedicou a prevenir riscos existenciais com sistemas de IA de ponta. Em seguida, foi redistribuído para outros departamentos da empresa.

A equipe foi liderada pelo ex-membro do conselho Ilya Sutskever, cofundador do Reich e da OpenAI, que votou pela destituição de Altman do cargo de CEO em novembro e retirou-se logo depois. Ambos renunciaram em maio e estão fora da empresa desde o retorno de Altman, mas a OpenAI não anunciou suas demissões até o dia seguinte ao lançamento do GPT-4o.

No entanto, um representante da OpenAI disse que a equipe de preparação teve total apoio da administração.

Reconhecendo o momento apertado para testar o GPT-4o, o representante disse que conversou com executivos da empresa, incluindo a diretora de tecnologia Mira Murati, em abril e concordou com um “plano alternativo”. Caso a avaliação revele algo alarmante, a empresa planeja lançar uma versão inicial do GPT-4o, que a equipe já testou.

Algumas semanas antes da data de lançamento, a equipe iniciou um “ensaio” e planejou “ter todos os sistemas instalados e funcionando assim que obtivermos o modelo”, disse um representante. Os representantes dizem que agendaram avaliadores humanos em várias cidades para realizar os testes, um processo que custará centenas de milhares de dólares.

O trabalho preparatório inclui tempo limitado para analisar os resultados do Grupo Consultivo de Segurança da OpenAI, um conselho consultivo recém-criado que recebe scorecards de risco e aconselha os líderes sobre quaisquer mudanças necessárias.

Held, da OpenAI, disse que a empresa está comprometida em dedicar mais tempo a esse processo no futuro.

“Definitivamente não acho que escapamos impunes.” [the tests]”, disse o representante. Mas o processo foi intenso, reconheceu. “Então dissemos: 'Nunca mais faremos isso'”.

Razan Nakrawi contribuiu para este relatório.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.