Todas as agências federais dos EUA serão obrigadas a ter um líder sênior supervisionando todos os sistemas de IA que utilizam, já que o governo deseja garantir que o uso da IA nos serviços públicos seja seguro.
A vice-presidente Kamala Harris anunciou novas orientações do OMB em um briefing com repórteres, dizendo que as agências devem estabelecer comitês de governança de IA para coordenar como a IA é usada dentro da agência. As agências também serão obrigadas a apresentar um relatório anual ao Gabinete de Gestão e Orçamento (OMB) que descreva todos os sistemas de IA que utilizam, os riscos a eles associados e os planos para mitigar esses riscos.
“Instruímos todas as agências federais a nomear um diretor de IA com experiência, conhecimento e autoridade para supervisionar todas as tecnologias de IA usadas pela agência, para garantir que a IA seja usada com responsabilidade”, disse Harris aos repórteres.
Dependendo da estrutura da agência federal, um diretor de IA não precisa necessariamente ser nomeado politicamente. Um conselho de administração deve ser estabelecido até o verão.
A orientação expande as políticas anunciadas anteriormente delineadas na Ordem Executiva de IA da administração Biden, que exige que as agências federais desenvolvam padrões de segurança e aumentem o número de talentos de IA trabalhando no governo.
Algumas agências já haviam começado a contratar diretores de IA antes do anúncio de hoje. O Departamento de Justiça anunciou Jonathan Meyer como seu primeiro CAIO em fevereiro. Ele liderará uma equipe de especialistas em segurança cibernética para explorar maneiras de usar IA na aplicação da lei.
O governo dos EUA planeja contratar 100 especialistas em IA até o verão, de acordo com a presidente do OMB, Shalanda Young.
Uma das responsabilidades do pessoal de IA das agências e dos comitês de governança é monitorar frequentemente os sistemas de IA. Young disse que as agências governamentais precisarão apresentar um inventário dos produtos de IA que usam. Se um sistema de IA for considerado “sensível” o suficiente para ser excluído da lista, a agência deverá fornecer publicamente um motivo para a exclusão. As agências governamentais também devem avaliar de forma independente os riscos de segurança de cada plataforma de IA que utilizam.
As agências federais também verificarão se a IA que implantam atende às salvaguardas para “reduzir o risco de discriminação algorítmica e fornecer transparência ao público sobre como o governo usa a IA”. A ficha informativa do OMB fornece vários exemplos:
Os viajantes podem optar por não usar o reconhecimento facial TSA enquanto estiverem no aeroporto sem demora ou perderão seu lugar na fila.
Quando a IA é usada no sistema federal de saúde para apoiar decisões diagnósticas importantes, os humanos supervisionam o processo de validação dos resultados da ferramenta para evitar disparidades no acesso aos cuidados de saúde.
Quando a IA é utilizada para detectar fraudes em serviços governamentais, as decisões impactantes estarão sujeitas à supervisão humana e os indivíduos afectados terão a oportunidade de procurar reparação pelos danos causados pela IA.
“Se uma agência não for capaz de aplicar essas salvaguardas, a liderança da agência explicará por que isso aumenta o risco para a segurança ou os direitos gerais ou cria um impedimento inaceitável para as operações críticas da agência. “As agências governamentais devem parar de usar sistemas de IA, a menos que justifiquem Ler.
De acordo com as novas diretrizes, os modelos, códigos e dados de IA de propriedade do governo devem ser disponibilizados publicamente, a menos que representem um risco para as operações governamentais.
Os Estados Unidos ainda não possuem leis que regulamentem a IA. A Ordem Executiva da IA fornece diretrizes para agências governamentais que reportam ao poder executivo sobre como abordar a tecnologia. Embora vários projetos de lei tenham sido apresentados para regular alguns aspectos da IA, não houve nenhum movimento significativo em direção à legislação para a tecnologia de IA.

