O Departamento de Segurança Interna se tornou a primeira agência federal a adotar a inteligência artificial (IA).
O DHS divulgou na segunda-feira (18 de março) um “roteiro” para o uso planejado de IA em três projetos piloto.
Por um lado, a Homeland Security Investigations (HSI) testará a IA para detectar fentanil para combater a exploração sexual infantil. Em segundo lugar, a Agência Federal de Gestão de Emergências (FEMA) aproveitará a IA para apoiar planos comunitários de mitigação de riscos. E os Serviços de Cidadania e Imigração dos EUA (USCIS) planejam usar IA para treinar agentes de imigração.
“Não podemos ignorar isto”, disse o secretário do Departamento de Segurança Interna, Alejandro Mayorkas, ao New York Times numa reportagem na segunda-feira.
“E se não estivermos preparados para reconhecer e abordar o potencial para o bem e o potencial para o mal, será tarde demais. É por isso que estamos agindo rapidamente.”
Segundo o relatório, o DHS trabalhará com empresas como OpenAI, Anthropic e Meta no programa piloto.
O DHS contratará 50 especialistas em IA para proteger infra-estruturas críticas contra ataques de IA e impedir o uso da tecnologia para coisas como abuso sexual infantil e criação de armas biológicas, de acordo com o relatório.
Além disso, o departamento utilizará chatbots para formar agentes de imigração para entrevistar refugiados e requerentes de asilo. A empresa também planeja usar chatbots para coletar informações sobre comunidades em todo o país para ajudar a criar planos de socorro em desastres.
O DHA planeja apresentar um relatório sobre os resultados do piloto até o final do ano, disse Eric Heisen, diretor de informação do departamento e chefe de IA, ao Times. Ele disse que a agência selecionou OpenAI, Anthropic e Meta para experimentar diferentes ferramentas, e também usará os provedores de nuvem Microsoft, Google e Amazon no piloto.
“Não podemos fazer isso sozinhos”, disse Heisen. “Precisamos trabalhar com o setor privado para ajudar a definir o que é o uso responsável da IA generativa.”
O esforço do DHS junta-se a uma série de outros esforços da Casa Branca no ano passado destinados a governar o uso da IA, incluindo o American AI Safety Institute (AISI), um programa do Departamento de Comércio que desenvolve diretrizes técnicas para uso pelos reguladores. .
Também no ano passado, o presidente Joe Biden emitiu uma ordem executiva destinada a promover o desenvolvimento seguro de IA, exigindo que os desenvolvedores dos “sistemas de IA mais poderosos” fornecessem resultados de testes de segurança e outras informações importantes. Ele pediu-lhes que compartilhassem as informações com o governo.
Entretanto, o PYMNTS examinou o debate sobre a ameaça representada pela IA na semana passada, observando que alguns especialistas em IA acreditam que as manchetes sombrias sobre a tecnologia foram exageradas.
“Simplificando, essas máquinas precisam de humanos e continuarão a fazê-lo por algum tempo”, disse Sean Daly, professor da Universidade de Niágara, em entrevista ao PYMNTS.
“Fornecemos não apenas a infraestrutura, mas também orientação crítica que é essencial para as máquinas. Quando se trata de influências nefastas usando IA para fins nefastos, administramos muito bem a era nuclear. Acho que isso é reconfortante.”