Para dar às acadêmicas e outras pessoas focadas em IA o merecido e esperado tempo de destaque, o TechCrunch está lançando uma série de entrevistas destacando mulheres notáveis que contribuíram para a revolução da IA.
Anika Collier Navaroli é pesquisadora sênior do Tow Center for Digital Journalism da Universidade de Columbia e Technology Public Voice Fellow no OpEd Project em colaboração com a Fundação MacArthur.
Ela é conhecida por seu trabalho de pesquisa e defesa na área de tecnologia. Anteriormente, ela trabalhou como bolsista de prática racial e tecnológica no Stanford Center for Philanthropy and Civil Society. Antes disso, ele liderou Trust & Safety no Twitch e no Twitter. Navaloli talvez seja mais conhecido por seu testemunho ao Congresso sobre o Twitter. Lá, ela falou sobre como os avisos de violência iminente nas redes sociais que precederam o ataque de 6 de janeiro ao Capitólio foram ignorados.
Resumindo, como você começou na IA?
Há cerca de 20 anos, trabalhei como copista numa sala de jornal durante o verão, quando o jornal da minha cidade natal estava sendo digitalizado. Na época, eu era estudante de graduação em jornalismo. Sites de mídia social como o Facebook tomaram conta do meu campus e fiquei obcecado em tentar entender como uma lei construída sobre a imprensa escrita evoluiu com a tecnologia emergente. Essa curiosidade levou-me à faculdade de direito, onde migrei para o Twitter, estudei direito e política dos meios de comunicação social e observei os desenvolvimentos da Primavera Árabe e do movimento Occupy Wall Street. Juntei tudo e escrevi minha tese de mestrado sobre como as novas tecnologias mudam o fluxo de informação e como as sociedades exercem a liberdade de expressão.
Depois de me formar, trabalhei em vários escritórios de advocacia antes de ingressar no Data & Society Institute para liderar a pesquisa do novo think tank sobre o que era então chamado de “big data”, direitos civis e equidade. A minha investigação centrou-se na forma como os primeiros sistemas de IA, como o software de reconhecimento facial, as ferramentas de policiamento preditivo e os algoritmos de avaliação de risco da justiça criminal, estão a replicar preconceitos e a criar consequências não intencionais que têm impacto nas comunidades marginalizadas. Em seguida, trabalhei na Color of Change, onde liderei a primeira auditoria de direitos civis de uma empresa de tecnologia, desenvolvi a estratégia da organização para uma campanha de responsabilização tecnológica e defendi mudanças nas políticas tecnológicas para governos e reguladores. A partir daí, tornei-me diretor sênior de políticas da equipe de confiança e segurança do Twitter e Twitch.
De qual trabalho você mais se orgulha na área de IA?
Tenho muito orgulho do meu trabalho em empresas de tecnologia que utilizam políticas para alterar substancialmente o equilíbrio de poder e corrigir preconceitos nos sistemas algorítmicos que criam cultura e conhecimento. O Twitter realizou diversas campanhas para verificar indivíduos que foram surpreendentemente excluídos de processos de verificação exclusivos, incluindo mulheres negras, pessoas de cor e pessoas queer. Isso incluiu importantes estudiosos de IA, como Safiya Noble, Alondra Nelson, Timnit Gebru e Meredith Broussard. Isso foi em 2020, quando o Twitter ainda era Twitter. Na época, a verificação significava que seu nome e conteúdo se tornariam parte do algoritmo central do Twitter, já que os tweets de contas verificadas seriam inseridos em recomendações, resultados de pesquisa, sua linha do tempo inicial e ajudariam a criar tendências, eu quis dizer isso. Portanto, os esforços para validar novas pessoas com diferentes perspectivas sobre a IA conferem fundamentalmente às suas opiniões autoridade como líderes de pensamento e garantem que novas ideias sejam trazidas à discussão pública em momentos críticos.
Também estou muito orgulhoso de um estudo que conduzi na Universidade de Stanford ter concluído que os negros são moderados. Quando trabalhei dentro de uma empresa de tecnologia, também percebi que ninguém estava realmente escrevendo ou falando sobre as experiências que eu tinha todos os dias como negro trabalhando em Confiança e Segurança. Então, quando deixei a indústria e voltei para a academia, decidi conversar com trabalhadores negros de tecnologia e trazer suas histórias à luz. Este estudo acabou se tornando o primeiro desse tipo e gerou muitas discussões novas e importantes sobre as experiências de funcionários de tecnologia com identidades marginalizadas.
Como podemos superar os desafios de uma indústria tecnológica dominada pelos homens e, por extensão, de uma indústria de IA dominada pelos homens?
Como uma mulher negra queer, navegar em espaços dominados pelos homens e em espaços de isolamento tem feito parte da jornada da minha vida. Acho que o aspecto mais desafiador da tecnologia e da IA é o que chamo de “trabalho forçado de identidade” em minha pesquisa. Cunhei este termo para descrever as situações frequentes em que funcionários com identidades marginalizadas são tratados como porta-vozes e/ou representantes de toda a comunidade com a qual partilham as suas identidades.
O desenvolvimento de novas tecnologias, como a IA, envolve tantos riscos que pode parecer quase impossível escapar do trabalho. Tive que aprender a estabelecer limites muito específicos para mim mesmo sobre quais problemas trabalharia e quando.
Quais são os problemas mais urgentes que a IA enfrenta à medida que ela evolui?
De acordo com um relatório de pesquisa, os atuais modelos generativos de IA engolirão todos os dados da Internet e em breve ficarão sem dados prontos para consumo. É por isso que as maiores empresas de IA do mundo estão a recorrer a dados sintéticos, ou informações, gerados pela própria IA, em vez de humanos, para continuarem a treinar os seus sistemas.
Essa ideia me levou à toca do coelho. Por isso, escrevi recentemente um artigo de opinião no qual acredito que a utilização de dados sintéticos como dados de treino é uma das questões éticas mais prementes enfrentadas pelo novo desenvolvimento da IA. Os sistemas de IA generativos já demonstraram que os seus resultados replicam preconceitos e criam informações falsas com base nos dados de treino originais. Portanto, o caminho para treinar um novo sistema usando dados sintéticos significa alimentar constantemente resultados tendenciosos e imprecisos de volta ao sistema como novos dados de treinamento. Descrevi isso como potencialmente ficar preso em um ciclo de feedback para o inferno.
Desde que escrevi este artigo, Mark Zuckerberg elogiou o chatbot Llama 3 atualizado da Meta, que é parcialmente alimentado por dados sintéticos, como o produto de IA generativa “mais inteligente” do mercado.
De quais questões os usuários de IA devem estar cientes?
A IA está em toda parte em nossas vidas hoje, desde verificação ortográfica e feeds de mídia social até chatbots e geradores de imagens. De muitas maneiras, a sociedade tornou-se a cobaia desta nova experiência tecnológica não testada. Mas os usuários de IA não deveriam se sentir impotentes.
Tenho defendido que os defensores da tecnologia se unam para organizar os utilizadores da IA e apelar a uma Pausa das Pessoas na IA. Acho que o Writers Guild of America mostrou que com organização, ação coletiva e soluções pacientes, as pessoas podem se unir para estabelecer limites significativos em torno do uso da tecnologia de IA. Acredito também que a IA não tem de ser uma ameaça existencial ao nosso futuro se pararmos agora para corrigir os erros do passado e criarmos novas directrizes e regulamentos éticos.
Qual é a melhor maneira de construir IA de forma responsável??
Minha experiência de trabalho em uma empresa de tecnologia me mostrou como é importante ter alguém presente escrevendo as políticas, apresentando os argumentos e tomando as decisões. Minha trajetória também mostrou que começar na faculdade de jornalismo me deu as habilidades necessárias para ter sucesso na indústria de tecnologia. Voltei agora a trabalhar na Columbia Journalism School, onde estou interessado em trabalhar como vigilante interno e externo para empresas de tecnologia, responsabilizando a tecnologia e preparando a próxima geração de talentos para desenvolver IA de forma responsável.
Eu penso [journalism] As escolas proporcionam às pessoas uma formação única na investigação de informação, na procura da verdade, na consideração de múltiplas perspectivas, na criação de argumentos lógicos e na extracção de factos e realidade a partir de opiniões e desinformação. Acredito que isto fornece uma base sólida para os responsáveis por escrever as regras sobre o que a próxima iteração da IA pode ou não fazer. E esperamos criar um caminho mais pavimentado para os que virão a seguir.
Acredito também que, além de uma força de trabalho qualificada em Confiança e Segurança, a indústria de IA precisa de regulamentação externa. Nos Estados Unidos, defendo que isto deveria assumir a forma de uma nova agência que regulasse as empresas tecnológicas americanas com o poder de estabelecer e fazer cumprir normas básicas de segurança e privacidade. Quero também continuar os nossos esforços para ligar os reguladores actuais e futuros a antigos tecnólogos que possam ajudar aqueles que estão no poder a fazer as perguntas certas e a criar soluções novas, diferenciadas e práticas.

