fonte da imagem, Imagens Getty
A turbulência da IA de Scarlett Johansson tem ecos dos bons e velhos tempos do Vale do Silício
- autor, Zoe Kleinman
- rolar, Editor de tecnologia
- Twitter,
O lema “aja rápido e quebre as coisas” continua a assombrar a indústria de tecnologia quase 20 anos depois de ter sido cunhado pelo jovem Mark Zuckerberg.
Estas cinco palavras passaram a simbolizar o que há de pior em Silicon Valley: uma combinação de ambição implacável e arrogância de tirar o fôlego, inovação orientada para o lucro sem medo das consequências.
Lembrei-me dessas palavras esta semana, quando a atriz Scarlett Johansson entrou em confronto com a OpenAI. Johansson afirmou que tanto ela quanto seu agente se recusaram a permitir que ela fosse a voz do novo produto do ChatGPT, mas quando foi anunciado parecia ela de qualquer maneira. OpenAI nega que seja uma imitação deliberada.
Este é um excelente exemplo da razão pela qual as indústrias criativas estão tão preocupadas em serem imitadas e eventualmente substituídas pela inteligência artificial.
A Sony Music, maior editora musical do mundo, enviou cartas ao Google, Microsoft e OpenAI na semana passada exigindo saber se as músicas de seus artistas estão sendo usadas para desenvolver sistemas de IA, e pedindo permissão.
Todos estes têm vestígios dos gigantes do Vale do Silício de outrora. Como plano de negócios informal, peça perdão em vez de permissão.
Mas as empresas tecnológicas em 2024 estão muito interessadas em distanciar-se dessa reputação.
OpenAI não é moldado a partir desse molde. Foi originalmente estabelecida como uma organização sem fins lucrativos que investia os lucros excedentes investidos de volta no negócio.
Quando criou o setor com fins lucrativos em 2019, disse que seria liderado pelo setor sem fins lucrativos e que haveria um limite para os retornos que os investidores poderiam obter.
Nem todos ficaram felizes com a mudança. Essa foi considerada a principal razão pela qual o cofundador original, Elon Musk, decidiu se retirar.
Quando o CEO da OpenAI, Sam Altman, foi repentinamente removido de seu conselho de administração no final do ano passado, uma teoria era que ele queria se afastar ainda mais de sua missão original. Eu não tinha certeza.
Mas mesmo que a OpenAI se torne mais orientada para o lucro, ainda tem de enfrentar as suas responsabilidades.
No mundo da formulação de políticas, quase todos concordam que empresas como a OpenAI precisam de limites claros para se manterem alinhadas antes que ocorra um desastre.
Até agora, os gigantes da IA avançaram amplamente em teorias teóricas. Há seis meses, na primeira Cimeira de Segurança de IA do mundo, muitos líderes tecnológicos assumiram um compromisso voluntário de criar produtos responsáveis e seguros que maximizassem os benefícios da tecnologia de IA e minimizassem os seus riscos.
Esses riscos, inicialmente identificados pelos organizadores do evento, eram pesadelos. Quando questionados na altura sobre a ameaça mais real para as pessoas, resultante da discriminação das ferramentas de IA ou da substituição dos seus empregos por ferramentas de IA, o encontro foi dedicado a discutir apenas o pior cenário possível. – Este foi um reino onde o Exterminador do Futuro, o Dia do Juízo Final e a IA enlouqueceram e destruíram a humanidade.
Quando a cimeira foi novamente reunida, seis meses mais tarde, a palavra “segurança” tinha sido completamente removida do título da conferência.
Na semana passada, um projecto de relatório do governo britânico elaborado por um grupo de 30 especialistas independentes concluiu que “ainda não há provas” de que a IA possa gerar armas biológicas ou realizar ataques cibernéticos sofisticados. A possibilidade de os humanos perderem o controle da IA é “altamente discutível”, disse a revista.
Algumas pessoas na área vêm dizendo há algum tempo que a ameaça mais premente das ferramentas de IA é que elas substituirão empregos ou não conseguirão reconhecer a cor da pele. Raman Chaudhry, especialista em ética em IA, diz que essas são “questões reais”.
O AI Safety Research Institute não informou se realizou testes de segurança em novos produtos de IA lançados nos últimos dias. Em particular, o GPT-4o da OpenAI e o Projeto Astra do Google são alguns dos sistemas públicos de IA mais poderosos e avançados que já vi. Enquanto isso, a Microsoft anunciou novos laptops equipados com hardware de IA. Este é o início da integração física das ferramentas de IA nos dispositivos.
O relatório independente também observa que atualmente não há uma maneira confiável (mesmo entre os desenvolvedores) de entender exatamente por que uma ferramenta de IA produz o resultado que produz, e que os avaliadores intencionalmente também afirmam que estabeleceram práticas de testes de segurança para red teaming tentar adquirir ferramentas. Não existem diretrizes de melhores práticas quando se trata de trapaça.
Numa cimeira de acompanhamento co-organizada pela Grã-Bretanha e pela Coreia do Sul em Seul esta semana, as empresas comprometeram-se a arquivar produtos que não cumpram determinadas normas de segurança, mas estas só serão definidas na próxima reunião. 2025.
Alguns estão preocupados com o facto de todas estas promessas e compromissos não estarem a ser plenamente cumpridos.
“Os acordos voluntários são essencialmente apenas uma forma de as empresas marcarem o seu trabalho de casa”, disse Andrew Straight, vice-diretor do Instituto Ada Lovelace, uma organização de investigação independente. “Isto não é inerentemente um substituto para as regras juridicamente vinculativas e aplicáveis necessárias para promover o desenvolvimento responsável destas tecnologias.”
A OpenAI acaba de publicar um processo de segurança exclusivo de 10 pontos no qual diz estar trabalhando, mas um de seus engenheiros seniores focados em segurança renunciou recentemente e seu departamento está “navegando contra o vento” dentro da empresa. Escrevi para X que estava fazendo isso. isto.
“Nos últimos anos, a cultura e os processos de segurança ficaram em segundo plano em relação aos produtos brilhantes”, postou Jan Leike.
Claro, temos outras equipes na OpenAI que continuam focadas na segurança e proteção.
No entanto, não existe actualmente qualquer supervisão oficial independente sobre o que estão realmente a fazer.
A professora Dame Wendy Hall, uma das principais cientistas da computação da Grã-Bretanha, disse: “Não há garantia de que essas empresas honrarão seus compromissos”.
“Como podemos responsabilizá-los pelo que dizem, como fazemos nas empresas farmacêuticas e em outras áreas de alto risco?”
Poderemos também descobrir que, à medida que a pressão aumenta e os acordos voluntários se tornam um pouco mais aplicáveis, estes poderosos líderes tecnológicos tornam-se menos obedientes.
Quando o governo do Reino Unido disse que queria o poder de interromper a implementação de recursos de segurança por grandes empresas de tecnologia se pudessem comprometer a segurança nacional, a Apple chamou isso de um “exagero sem precedentes” por parte dos legisladores, ameaçando remover o serviço do Reino Unido. .
O projeto foi aprovado e, por enquanto, a Apple ainda existe.
A lei da União Europeia sobre IA acaba de ser assinada e é a primeira lei e a mais rigorosa. Existem também penalidades severas para as empresas que não cumprem. Mas é mais incômodo para os usuários de IA do que para os próprios gigantes da IA, diz Nader Henein, vice-presidente analista do Gartner.
“Eu diria que a maioria [of AI developers] “Estamos superestimando o impacto que esta lei terá sobre eles”, diz ele.
As empresas que utilizam ferramentas de IA precisam classificá-las e pontuar o risco, e a empresa de IA que forneceu a IA precisa fornecer informações suficientes para fazer isso, explica.
No entanto, isso não significa que sejam indiferentes.
“Precisamos de levar o nosso tempo e avançar em direção à regulamentação legal, mas não podemos apressar isso”, disse o professor Hall. “É realmente difícil estabelecer princípios de governação global com os quais todos concordem.”
“Também precisamos de garantir que aquilo que protegemos é verdadeiramente global e não apenas o Ocidente ou a China.”
Aqueles que participaram do AI Seoul Summit disseram que o acharam informativo. Não foi tão chamativo quanto Bletchley, mas houve muita discussão, disse um participante. Curiosamente, embora 27 países tenham assinado a declaração final do evento, a China não assinou, apesar de ter um representante direto.
O problema mais importante é que, como sempre, a regulamentação e as políticas avançam muito mais lentamente do que a inovação.
O professor Hall acredita que “as estrelas estão alinhadas” a nível governamental. A questão é se os gigantes da tecnologia podem ser persuadidos a esperar.
Mais sobre BBC é o seu novo lar para sites e aplicativos que trazem a você as melhores análises e conhecimentos dos principais jornalistas. Sob a nossa nova marca distinta, oferecemos novas perspectivas que desafiam suposições e relatórios aprofundados sobre as maiores questões para ajudá-lo a compreender o nosso mundo complexo. Também apresentamos conteúdo instigante da BBC Sounds e do iPlayer. Estamos começando pequenos, mas pensando grande. Eu gostaria de saber suas opiniões. Por favor, envie-nos seus comentários clicando no botão abaixo.
InDepth é o seu novo lar para as melhores análises da BBC News. Por favor diga-me o que você pensa.

