Para aqueles que participaram do festival de tecnologia que definiu tendências aqui, o escândalo que eclodiu depois que o chatbot Gemini do Google criou imagens de soldados nazistas negros e asiáticos foi um sinal do poder que a inteligência artificial poderia criar para os gigantes da tecnologia. Foi considerado um aviso.
CEO do Google Sundar Pichai No mês passado, o aplicativo Gemini AI da empresa foi considerado “totalmente inaceitável” e forçado a impedir temporariamente os usuários de criar fotos de pessoas por causa de gafes, como a imagem de tropas nazistas etnicamente diversas.
Os usuários das redes sociais zombaram e criticaram o Google por imagens historicamente imprecisas, incluindo uma que mostrava uma senadora negra dos EUA do século XIX. Na época, o primeiro senador negro só foi eleito em 1992.
Cofundador do Google: ‘Definitivamente falhamos na geração de imagens’ Sergey Brin ele disse em um recente “hackathon” de IA, acrescentando que a empresa deveria ter testado o Gemini mais detalhadamente.
Pessoas entrevistadas no South by Southwest, o popular festival de arte e tecnologia de Austin, dizem que o obstáculo do Gemini é que um pequeno número de empresas está lutando com plataformas de inteligência artificial que estão mudando a forma como as pessoas vivem e trabalham. pessoas tem.
Joshua Weaver, advogado e empresário de tecnologia, disse que estava “essencialmente muito 'acordado'”, o que significa que o Google foi longe demais em seus esforços para promover a inclusão e a diversidade.
O Google corrigiu rapidamente o erro, mas o problema fundamental permanece, disse Charlie Burgoyne, CEO do Valkyrie Institute of Applied Sciences, no Texas.
Ele comparou a solução Gemini do Google a colocar um curativo em um ferimento de bala.
Weaver observou que o Google há muito tempo se dá ao luxo de ter tempo para melhorar seus produtos, mas agora está em uma corrida de IA com Microsoft, OpenAI, Anthropic e outros.”Estamos avançando mais rápido do que imaginamos que deveríamos”, acrescentou.
Os erros na tentativa de ser culturalmente sensível são um ponto crítico, especialmente dadas as tensas divisões políticas da América, exacerbadas pela Plataforma X de Elon Musk (antigo Twitter).
“As pessoas no Twitter estão celebrando alegremente uma coisa embaraçosa que aconteceu na indústria tecnológica”, disse Weaver, acrescentando que a reação à gafe nazista foi “exagerada”.
No entanto, ele argumentou que o incidente põe em causa o grau de controlo que aqueles que utilizam ferramentas de IA têm sobre as suas informações.
Nos próximos 10 anos, a quantidade de informação, ou desinformação, produzida pela IA poderá exceder em muito a quantidade de informação produzida pelos seres humanos, e isto terá um grande impacto no mundo e nas pessoas que gerem as salvaguardas da IA. Weaver disse que significa dar.
– Polarização para dentro, polarização para fora –
Karen Palmer, uma premiada criadora de realidade mista da Interactive Film, imagina um futuro onde alguém entra em um robotáxi e “uma IA escaneia você e pensa que há algum tipo de violação não resolvida”. contra você… você será levado à delegacia local”, que não era o destino pretendido.
A IA é treinada em montanhas de dados e pode ser usada para uma gama cada vez mais ampla de tarefas, desde a geração de imagens e sons até a decisão de quem recebe um empréstimo ou se um exame médico detecta câncer.
Mas esses dados provêm de um mundo repleto de preconceitos culturais, desinformação e desigualdade social, e de conteúdos online que podem incluir conversas casuais entre amigos e publicações intencionalmente exageradas e provocativas. Os modelos de IA, para não falar do conteúdo, podem refletir essas falhas.
Com o Gemini, os engenheiros do Google procuraram reequilibrar o algoritmo para fornecer melhores resultados que refletissem a diversidade humana.
O tiro saiu pela culatra.
“Entender onde está o preconceito e como ele está envolvido pode ser muito difícil e cheio de nuances”, disse Alex Charestani, advogado de tecnologia e sócio-gerente da Promise Legal, um escritório de advocacia para empresas de tecnologia.
Ele e outros acreditam que mesmo engenheiros bem-intencionados que treinam IA não podem deixar de trazer suas próprias experiências de vida e preconceitos subconscientes para o processo.
Burgoyne, da Valkyrie, também acusou as grandes empresas de tecnologia de esconderem o funcionamento interno de sua IA generativa em “caixas pretas” que impedem os usuários de detectar preconceitos ocultos.
“O poder dos resultados excede em muito a nossa compreensão da metodologia”, disse ele.
Especialistas e ativistas apelam a uma maior diversidade nas equipas que criam IA e ferramentas relacionadas, e na forma como funcionam, especialmente quando os algoritmos reescrevem os pedidos dos utilizadores para “melhorar” os resultados. Apelamos a uma maior transparência.
O desafio é como incorporar adequadamente as perspectivas das diversas comunidades do mundo, disse aqui Jason Lewis, do Centro de Recursos para Futuros Indígenas e Grupos Associados.
Na Indigenous AI, Jason trabalha com comunidades indígenas remotas para projetar algoritmos que usam seus dados de forma ética, ao mesmo tempo que refletem suas perspectivas sobre o mundo. Isto não é necessariamente o que se vê na “arrogância” dos líderes das grandes empresas de tecnologia.
Ele disse ao grupo que seu trabalho “está em total contraste com a retórica do Vale do Silício, onde existe essa bobagem de cima para baixo: 'Oh, estamos fazendo isso porque beneficia toda a humanidade'”.
Seu público riu.
juj-gc/bbk