Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » Por que a equipe OpenAI Super Alignment responsável pela segurança da IA ​​entrou em colapso
Ai

Por que a equipe OpenAI Super Alignment responsável pela segurança da IA ​​entrou em colapso

FranciscoBy FranciscoMay 17, 2024No Comments10 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


Nos últimos meses, a OpenAI tem perdido funcionários que prestam muita atenção em garantir a segurança da sua IA. Atualmente, a empresa continua sangrando agressivamente.

Ilya Sutskever e Jan Leike anunciaram terça-feira sua saída da OpenAI, desenvolvedora do ChatGPT. Eles eram os líderes da equipe de superalinhamento da empresa. Esta equipe foi encarregada de garantir que a IA estivesse alinhada com os objetivos de seus desenvolvedores, em vez de fazer com que a IA se comportasse de forma imprevisível e prejudicasse a humanidade.

Eles não foram os únicos que partiram. Desde novembro passado, quando o conselho da OpenAI tentou demitir o CEO Sam Altman, apenas para vê-lo retornar rapidamente ao poder, pelo menos um dos funcionários mais críticos para a segurança da empresa. Mais cinco pessoas pediram demissão ou foram expulsas.

o que está acontecendo?

Se você acompanha essa história nas redes sociais, pode pensar que a OpenAI fez silenciosamente um grande avanço tecnológico. O meme “O que Ilya viu?” especula que o ex-cientista-chefe Satskeva desistiu porque viu algo assustador, como um sistema de IA que poderia exterminar a humanidade.

Mas a verdadeira resposta pode ter menos a ver com o pessimismo em relação à tecnologia do que com o pessimismo em relação às pessoas, e a uma pessoa em particular: Altman. Pessoas familiarizadas com a empresa dizem que os funcionários preocupados com a segurança perderam a confiança nele.

“É um processo em que a confiança está desmoronando pouco a pouco como peças de dominó”, disse uma fonte familiarizada com os assuntos internos da empresa, falando sob condição de anonimato.

Poucos funcionários estão dispostos a falar sobre isso publicamente. Parte do motivo é que a OpenAI é conhecida por fazer com que seus funcionários assinem acordos de desligamento que incluem cláusulas de não depreciação. na partida. Se você se recusar a assinar, poderá ser forçado a desistir das ações da sua empresa e potencialmente perder milhões de dólares.

No entanto, um ex-funcionário recusou-se a assinar um acordo de desligamento para poder criticar livremente a empresa. Daniel Cocotajiro ingressou na OpenAI em 2022 com a esperança de orientar a empresa na adoção segura de IA e trabalhou na equipe de governança até sair no mês passado.

“A OpenAI está treinando sistemas de IA cada vez mais poderosos com o objetivo de eventualmente superar a inteligência humana em todos os aspectos. Esta pode ser a melhor coisa que já aconteceu à humanidade, mas se não avançarmos, o pior pode acontecer”, Cocotajiro. me contou esta semana.

A OpenAI afirma que deseja construir inteligência artificial geral (AGI), um sistema virtual que pode funcionar em níveis humanos ou sobre-humanos em muitos domínios.

“Cheguei com grandes esperanças de que a OpenAI resolveria esta situação e agiria de forma mais responsável à medida que nos aproximamos de alcançar a AGI. Para muitos de nós, está cada vez mais claro que isso não acontecerá”, disse-me Cocotajiro. “Gradualmente perdi a fé na liderança da OpenAI e em sua capacidade de lidar com AGI de maneira responsável, então saí.”

E Reich pintou um quadro muito semelhante na sexta-feira, quando explicou por que estava deixando o cargo de co-líder da equipe do Super Alignment em um tópico X. “Há algum tempo eu estava em desacordo com a liderança da OpenAI nas principais prioridades da empresa, mas finalmente cheguei a um ponto de ruptura”, escreveu ele.

A OpenAI não respondeu a um pedido de comentário a tempo da publicação.

Por que a equipe de segurança da OpenAI passou a desconfiar de Sam Altman

Para entender o que aconteceu, temos que retroceder até novembro do ano passado. Foi quando Sutskever trabalhou com a diretoria da OpenAI para tentar demitir Altman. O conselho disse que Altman “não foi consistentemente sincero em suas comunicações”. Tradução: não confiamos nele.

A expulsão falhou espetacularmente. Altman e seu aliado, o presidente da empresa Greg Brockman, ameaçaram levar os principais talentos da OpenAI para a Microsoft e destruir efetivamente a OpenAI, a menos que Altman retornasse. Diante dessa ameaça, o conselho cedeu. Altman está de volta mais forte do que nunca, com novos membros do conselho mais solidários e mais liberdade para administrar a empresa.

Se você atirar no rei e errar, as coisas podem ficar complicadas.

Em público, Sutskever e Altman pareciam ter uma amizade contínua.E quando satskeva anunciado Ao se aposentar esta semana, ele disse que estava saindo para buscar “projetos que são pessoalmente significativos para mim”.altman Postado em X Depois de dois minutos, ele disse: Ilya… é um amigo querido.”

No entanto, Satskever não aparece no escritório da OpenAI há cerca de seis meses desde a tentativa de golpe. Ele co-lidera remotamente a Equipe de Super Alinhamento, encarregada de garantir que os futuros AGIs se alinhem com os objetivos da humanidade, em vez de prosseguir em uma direção nefasta. Essa é uma ambição bastante impressionante, mas está muito longe das operações diárias da empresa, que corre para comercializar produtos sob a liderança de Altman. Depois houve o seguinte tweet, postado logo após o retorno de Altman e rapidamente excluído:

Portanto, apesar da amizade pública, há motivos para suspeitar que Sutskever e Altman eram amigos depois que este tentou destituí-lo.

E a reação de Altman ao ser demitido revelou algo sobre seu personagem. A sua ameaça de esvaziar a OpenAI se o conselho não o recontratar, e a sua insistência em preencher o conselho com novos membros tendenciosos a seu favor, irão ajudá-lo a manter o poder e evitar riscos futuros. Confira. Ex-colegas de trabalho e funcionários o descreveram como um manipulador que fala pela boca. Por exemplo, alguém que afirma querer priorizar a segurança, mas cujas ações contradizem isso.

Por exemplo, Altman poderia arrecadar dinheiro de uma ditadura como a Arábia Saudita para iniciar uma nova empresa de fabricação de chips de IA, o que forneceria grandes quantidades de recursos tão necessários para construir IA de ponta. Isso era preocupante para os funcionários preocupados com a segurança. Se Altman realmente se preocupa em construir e implantar IA da maneira mais segura possível, por que ele está aparentemente numa corrida louca para acumular o máximo possível de chips que apenas acelerarão a tecnologia? trabalhando com um regime que poderia usar a IA para aumentar a vigilância digital e os abusos dos direitos humanos?

Tudo isso significa para os funcionários que “quando a OpenAI diz que vai fazer algo ou que se preocupa com algo, eles gradualmente perdem a fé de que isso é realmente verdade. Segundo uma pessoa familiarizada com os assuntos internos da empresa, isso levou a”.

Esse processo gradual culminou esta semana.

Jan Reik, colíder da equipe Super Alignment, não tentou jogar bem. “Eu me demiti,” ele postou no x, poucas horas depois de Sutskever anunciar sua renúncia. Não há despedida calorosa. Não há voto de desconfiança na liderança da empresa.

Outros ex-funcionários preocupados com a segurança tuitaram citações da demissão sincera de Reich com emojis de coração. Um deles é Leopold Aschenbrenner, aliado de Sutskever e membro da equipe Super Alignment que foi demitido da OpenAI no mês passado. Relatos da mídia disseram que Pavel Izmailov, outro pesquisador da mesma equipe, parece ter sido demitido por vazar informações. No entanto, a OpenAI não forneceu nenhuma evidência de violação. E dados os rígidos acordos de não divulgação que todos assinam quando ingressam na OpenAI, seria fácil considerar o compartilhamento de informações um “vazamento” para Altman. Se ele pretende eliminar os aliados de Sutskeva.

naquele mesmo mês Aschenbrenner e Izmailov foram forçados a sair, e outra pesquisadora de segurança, Karen O'Keefe, também deixou a empresa.

E há duas semanas, outro investigador de segurança, William Saunders, publicou uma publicação enigmática nos Fóruns da EA, um local de encontro online para membros do movimento Altruísmo Eficaz que estiveram profundamente envolvidos na causa da segurança da IA. Sanders resumiu o trabalho que realizou na OpenAI como parte da equipe Superalignment. Ele então escreveu: “Renunciei à OpenAI em 15 de fevereiro de 2024”. Os comentaristas fizeram a pergunta óbvia: “Por que o Sr. Sanders postou isso?”

Sanders respondeu: “Sem comentários”. Os comentaristas concluíram que ele provavelmente estava vinculado a um acordo de não difamação.

Tudo isso, combinado com conversas com pessoas internas, sugere que pelo menos algumas pessoas que tentaram empurrar a OpenAI em uma direção mais segura a partir de dentro acabaram perdendo a confiança no líder carismático e não conseguiram manter sua posição visível.

“Acho que muitas pessoas na empresa que levam a sério a segurança e o impacto social estão pensando nisso como uma questão em aberto: é uma boa ideia trabalhar para uma empresa como a OpenAI?” . “E se a OpenAI é realmente atenciosa e responsável pelo que faz, a resposta é apenas sim.”

Agora que a equipe de segurança foi desmontada, quem garantirá que o trabalho da OpenAI seja seguro?

Com Reich não comandando mais a equipe do Super Alignment, a OpenAI o substituiu pelo cofundador da empresa, John Schulman.

No entanto, a equipe ficou vazia. E Schulman já está ocupado com seu trabalho de tempo integral, garantindo que os produtos atuais da OpenAI sejam seguros. Quão sérios e proativos podemos esperar que a OpenAI tome medidas de segurança no futuro?

Provavelmente não tantos.

“A grande conclusão ao iniciar a Equipe de Super Alinhamento foi que, se a empresa tivesse sucesso na construção do AGI, haveria realmente todos os tipos de problemas de segurança”, disse-me uma pessoa familiarizada com o assunto. “Portanto, este foi um investimento dedicado em seu futuro.”

Mesmo quando a equipe estava em plena capacidade, esse “investimento comprometido” incluía uma pequena parcela dos pesquisadores da OpenAI e 20% de seu poder computacional, talvez o recurso mais importante em uma empresa de IA só estivesse prometido. Agora, esse poder computacional pode ser desviado para outras equipes OpenAI, e não está claro se o foco será evitar riscos catastróficos com futuros modelos de IA.

Para ser claro, isso não significa que os produtos que a OpenAI está lançando atualmente (como uma nova versão do ChatGPT chamada GPT-4o, que permite a interação natural com os usuários) irão destruir a humanidade. Mas o que virá do pique?

“É importante distinguir entre 'Eles estão atualmente construindo e implantando sistemas de IA inseguros?' 'Eles estão no caminho certo para construir e implantar AGI e superinteligência com segurança?'”, Disse uma fonte familiarizada com o assunto. “Acho que a resposta à segunda pergunta é não.”

Reich expressou as mesmas preocupações no tópico X de sexta-feira. Ele disse que a equipe tem lutado para obter poder computacional suficiente para fazer o trabalho e geralmente está “navegando contra o vento”.

O mais impressionante é que o Sr. Reich disse: “Acreditamos que precisamos gastar grande parte de nossa largura de banda na preparação para modelos de próxima geração: segurança, vigilância, preparação, segurança, robustez adversária, (hiper)coordenação, confidencialidade, impacto social, etc. Resolver estes problemas será muito difícil e temo que não estejamos no caminho certo para chegar lá. ”

Quando uma das principais mentes mundiais em segurança de IA diz que as principais empresas de IA do mundo não estão no caminho certo, temos razão em ficar preocupados.

Sim, eu te dou US$ 5./Mês

Sim, eu te dou US$ 5./Mês

Cartão de crédito, Apple Pay,

Google Pague.Você também pode contribuir através





Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.