A vantagem do conhecimento pode salvar vidas, vencer guerras e evitar desastres. Na Agência Central de Inteligência, a inteligência artificial básica (aprendizado de máquina e algoritmos) há muito cumpre a sua missão. Agora, a IA generativa está se juntando ao esforço.
O diretor da CIA, William Burns, disse que a tecnologia de IA aumentará os humanos, não os substituirá. Nand Mulchandani, o primeiro diretor de tecnologia da agência, gerencia a ferramenta. Há muita urgência. Os adversários já estão espalhando deepfakes gerados por IA com o objetivo de minar os interesses dos EUA.
Mulchandani, um ex-CEO do Vale do Silício que liderou startups de sucesso, foi nomeado para o cargo em 2022 depois de trabalhar no Centro Conjunto de Inteligência Artificial do Departamento de Defesa.
Os projetos que ele supervisiona incluem aplicativos generativos de IA, como o ChatGPT, que aproveitam dados de código aberto (ou seja, dados não classificados, disponíveis publicamente ou disponíveis comercialmente). É usado por milhares de analistas da comunidade de inteligência em 18 agências dos EUA. Outros projectos da CIA que utilizam modelos linguísticos de grande escala são compreensivelmente secretos.
Esta entrevista da Associated Press com Mulchandani foi editada para maior extensão e clareza.
P: Você disse recentemente que deveríamos tratar a IA generativa como um “amigo bêbado e louco”. Você poderia me contar mais detalhes?
R: Quando esses sistemas generativos de IA “alucinam”, eles podem dizer coisas que vão além dos limites dos conceitos normais e evocam pensamentos não convencionais, como um amigo bêbado em um bar. Observe que esses sistemas baseados em IA são de natureza probabilística e, portanto, não precisos (e suscetíveis de fabricação). Portanto, esses sistemas são ótimos para trabalhos criativos como arte, poesia, pintura, etc. No entanto, ainda não usei esses sistemas para realizar cálculos precisos ou projetar aviões ou arranha-céus. Nessas tarefas, “perto o suficiente” simplesmente não funciona. Eles também podem ser tendenciosos e com foco restrito, o que chamo de problema da “toca do coelho”.
P: Atualmente, o único modelo de linguagem de grande escala que conheço em uso na CIA em escala empresarial é uma IA de código aberto chamada Osiris, que foi criada para toda a comunidade de inteligência. Isso está correto?
R: Isso é tudo que estamos divulgando. Foi um home run absoluto para nós. No entanto, precisamos expandir a discussão além do LLM. Por exemplo, processamos grandes quantidades de conteúdo em idioma estrangeiro em vários tipos de mídia, incluindo vídeo, e usamos outros algoritmos e ferramentas de IA para processá-lo.
P: O Special Competition Research Project, um poderoso grupo consultivo centrado na IA na segurança nacional, afirma que as agências de inteligência dos EUA precisam de integrar rapidamente a IA generativa, dado o seu potencial disruptivo. O plano estabelece um cronograma de dois anos para “implantar ferramentas Gen AI em escala”, além de experimentos e projetos piloto limitados. você concorda?
R: A CIA está 100% comprometida em alavancar e expandir estas tecnologias. Provavelmente levamos esta questão tão a sério quanto levamos as questões tecnológicas. Como já estamos utilizando as ferramentas Gen AI em produção, acreditamos que estamos bem adiantados em relação ao cronograma original. A resposta mais profunda é que estamos nas fases iniciais de um grande número de mudanças adicionais, e uma grande parte do trabalho consiste na integração mais ampla da tecnologia em aplicações e sistemas. Ainda é cedo.
P: Quais são os nomes dos grandes parceiros do modelo linguístico?
R: Não tenho certeza se é interessante nomear o fornecedor neste momento. Há uma explosão de LLMs disponíveis no mercado hoje. Como um cliente prudente, não pretendemos vincular nossos navios a nenhum conjunto específico de LLMs ou a nenhum conjunto específico de fornecedores. Avaliamos e usamos quase todos os HighRunner LLM existentes, tanto de nível comercial quanto de código aberto. Não vemos o mercado LLM como um mercado singular onde um laboratório é melhor que outro. Como você percebeu no mercado, os modelos estão em constante evolução à medida que novos produtos são lançados.
P: Quais são os casos de uso mais importantes para modelos de linguagem em larga escala na CIA?
R: O principal é o resumo. É impossível para os analistas de código aberto da CIA digerir toda a mídia e outras informações que coletamos diariamente. Portanto, isso foi uma virada de jogo para o sentimento e as percepções de tendências globais. Os analistas então se aprofundam nos detalhes. Devem ser capazes de anotar e explicar os dados que citam e como chegaram às suas conclusões. Nosso ofício não mudou. Tanto as informações confidenciais quanto as de código aberto que coletamos oferecem aos analistas uma perspectiva mais ampla.
P: Quais são os maiores desafios na adaptação da IA generativa no governo?
R: Não há muita resistência cultural dentro da empresa. Nossos funcionários trabalham com IA todos os dias para obter vantagem competitiva. É evidente que o mundo inteiro está viciado nestas novas tecnologias e nos incríveis ganhos de produtividade. A chave é abordar as restrições sobre como as informações são particionadas e os sistemas são construídos. A segregação de dados geralmente é feita por motivos legais e não por segurança. Como podemos conectar sistemas de forma eficiente para colher os benefícios da IA e, ao mesmo tempo, manter a funcionalidade completa? Consideramos minuciosamente esse problema e combinamos os dados de uma forma que mantém a criptografia e os controles de privacidade. Há algumas tecnologias realmente interessantes emergentes que podem nos ajudar a fazer isso.
P: A IA generativa é agora tão sofisticada quanto um aluno do ensino fundamental. Em contraste, a espionagem é para adultos. É tudo uma questão de tentar romper o engano do inimigo. Como a Gen AI se encaixa no trabalho?
R: Primeiro, vamos enfatizar a vantagem que os analistas humanos têm. Temos especialistas líderes mundiais em suas áreas. E as informações recebidas muitas vezes exigem muito julgamento humano, inclusive por parte do indivíduo que fornece as informações, para avaliar seu significado e importância. Não há máquina que possa reproduzir isso. E não estamos procurando um computador para fazer o trabalho de um especialista em domínio.
O modelo que estamos analisando é o modelo co-piloto. Acreditamos que a Geração AI pode impactar muito o brainstorming e gerar novas ideias. e melhorar a produtividade e o insight. Precisamos de ser muito decisivos sobre a forma como o fazemos, porque estes algoritmos podem ser uma força para o bem se forem aproveitados de forma adequada. Mas se você usá-lo incorretamente, você pode realmente se machucar.

