× fechar
O fracasso do Google Gemini AI em criar imagens sob comando destaca o desafio de eliminar o preconceito cultural em tais ferramentas tecnológicas sem causar consequências ultrajantes.
Para aqueles que participaram do festival de tecnologia que definiu tendências aqui, o escândalo que eclodiu depois que o chatbot Gemini do Google criou imagens de soldados nazistas negros e asiáticos foi um sinal do poder que a inteligência artificial poderia criar para os gigantes da tecnologia. Foi considerado um aviso.
No mês passado, o CEO do Google, Sundar Pichai, classificou os erros cometidos pelo aplicativo Gemini AI da empresa como “totalmente inaceitáveis”, dizendo que gafes como imagens de tropas nazistas etnicamente diversas permitiam que os usuários identificassem pessoas incorretamente. Tive que parar temporariamente de tirar fotos.
Os usuários das redes sociais zombaram e criticaram o Google por imagens historicamente imprecisas, incluindo uma que mostrava uma senadora negra dos EUA do século XIX. Na época, o primeiro senador negro só foi eleito em 1992.
“Definitivamente falhamos na geração de imagens” em um recente “hackathon” de IA, disse o cofundador do Google, Sergey Brin, acrescentando que a empresa deveria ter testado o Gemini mais detalhadamente.
Pessoas entrevistadas no South by Southwest, o popular festival de arte e tecnologia de Austin, dizem que o obstáculo do Gemini é que um pequeno número de empresas está lutando com plataformas de inteligência artificial que estão mudando a forma como as pessoas vivem e trabalham. pessoas tem.
Joshua Weaver, advogado e empresário de tecnologia, disse que estava “essencialmente muito 'acordado'”, o que significa que o Google foi longe demais em seus esforços para promover a inclusão e a diversidade.
O Google corrigiu rapidamente o erro, mas o problema fundamental permanece, disse Charlie Burgoyne, CEO do Valkyrie Institute of Applied Sciences, no Texas.
Ele comparou a solução Gemini do Google a colocar um curativo em um ferimento de bala.
Weaver observou que o Google há muito tempo se dá ao luxo de ter tempo para melhorar seus produtos, mas agora está em uma corrida de IA com Microsoft, OpenAI, Anthropic e outros.”Estamos avançando mais rápido do que imaginamos que deveríamos”, acrescentou.
Os erros na tentativa de ser culturalmente sensível são um ponto crítico, especialmente dadas as tensas divisões políticas da América, exacerbadas pela Plataforma X de Elon Musk (antigo Twitter).
“As pessoas no Twitter estão celebrando alegremente uma coisa embaraçosa que aconteceu na indústria tecnológica”, disse Weaver, acrescentando que a reação à gafe nazista foi “exagerada”.
No entanto, ele argumentou que o incidente põe em causa o grau de controlo que aqueles que utilizam ferramentas de IA têm sobre as suas informações.
Nos próximos 10 anos, a quantidade de informação, ou desinformação, produzida pela IA irá provavelmente diminuir a quantidade de informação produzida pelos seres humanos, o que significa que aqueles que gerem as salvaguardas da IA terão um grande impacto no mundo. disse.
preconceito para dentro, preconceito para fora
Karen Palmer, uma premiada criadora de realidade mista da Interactive Film, imagina um futuro onde alguém entra em um robotáxi e “uma IA escaneia você e pensa que há algum tipo de violação não resolvida”. contra você… você será levado à delegacia local”, que não era o destino pretendido.
A IA é treinada em montanhas de dados e pode ser usada para uma gama cada vez mais ampla de tarefas, desde a geração de imagens e sons até a decisão de quem recebe um empréstimo ou se um exame médico detecta câncer.
Mas esses dados provêm de um mundo repleto de preconceitos culturais, desinformação e desigualdade social, para não mencionar o conteúdo online que inclui conversas casuais entre amigos e publicações intencionalmente exageradas e provocativas. Os modelos de IA podem refletir essas falhas.
Com o Gemini, os engenheiros do Google procuraram reequilibrar o algoritmo para fornecer melhores resultados que refletissem a diversidade humana.
O tiro saiu pela culatra.
“Entender onde está o preconceito e como ele está envolvido pode ser muito difícil e cheio de nuances”, disse Alex Charestani, advogado de tecnologia e sócio-gerente da Promise Legal, um escritório de advocacia para empresas de tecnologia.
Ele e outros acreditam que mesmo engenheiros bem-intencionados que treinam IA não podem deixar de trazer suas próprias experiências de vida e preconceitos subconscientes para o processo.
Burgoyne, da Valkyrie, também acusou as grandes empresas de tecnologia de esconderem o funcionamento interno de sua IA generativa em “caixas pretas” que impedem os usuários de detectar preconceitos ocultos.
“O poder dos resultados excede em muito a nossa compreensão da metodologia”, disse ele.
Especialistas e ativistas apelam a uma maior diversidade nas equipas que criam IA e ferramentas relacionadas, e na forma como funcionam, especialmente quando os algoritmos reescrevem os pedidos dos utilizadores para “melhorar” os resultados. Apelamos a uma maior transparência.
O desafio é como incorporar adequadamente as perspectivas das diversas comunidades do mundo, disse aqui Jason Lewis, do Centro de Recursos para Futuros Indígenas e Grupos Associados.
Na Indigenous AI, Jason trabalha com comunidades indígenas remotas para projetar algoritmos que usam seus dados de forma ética, ao mesmo tempo que refletem suas perspectivas sobre o mundo. Isto não é necessariamente o que se vê na “arrogância” dos líderes das grandes empresas de tecnologia.
Ele disse ao grupo que seu trabalho “está em total contraste com a retórica do Vale do Silício, onde existe essa bobagem de cima para baixo: 'Oh, estamos fazendo isso porque beneficia toda a humanidade'”.
Seu público riu.