A residência oficial do Presidente dos Estados Unidos, conhecida como Casa Branca, Washington DC, tarde … [+]
No âmbito de um anúncio divulgado pela Casa Branca, a vice-presidente Kamala Harris disse aos jornalistas na quinta-feira passada que as agências federais dos EUA devem demonstrar que as suas ferramentas de inteligência artificial não estão a prejudicar o público ou deixar de as utilizar.
“Quando as agências governamentais utilizarem ferramentas de IA, exigiremos que verifiquem se essas ferramentas não colocam em risco os direitos e a segurança dos americanos”, disse a vice-presidente Kamala Harris.
O anúncio promete que, até dezembro, as agências governamentais terão um conjunto de recursos de segurança tangíveis que orientarão tudo, desde a triagem de reconhecimento facial nos aeroportos até ferramentas de IA que controlam a rede elétrica e ajudam a tomar decisões sobre hipotecas e seguros residenciais. para ser colocado em prática.
A medida foi aplaudida por muitos grupos de direitos civis, incluindo aqueles que passaram anos a pressionar as autoridades federais e locais a utilizarem o reconhecimento facial e a reduzirem as detenções falsas de homens negros.
Um relatório de setembro do Gabinete de Responsabilidade do Governo dos EUA examinou várias agências legais federais, incluindo o FBI, e descobriu que em mais de 60.000 investigações que usaram tecnologia de digitalização facial, os funcionários questionaram como a tecnologia funciona e como interpretar os resultados. não teve treinamento.
Esta nova diretriz política emitida aos chefes de agências também se alinha com a abrangente Ordem Executiva de IA anunciada pelo Presidente Joe Biden em outubro de 2023.
Esta recente directiva constitui um alerta para as agências governamentais que têm utilizado ferramentas de IA desatualizadas para apoiar decisões sobre imigração, habitação, bem-estar infantil e uma variedade de outros serviços.
Como exemplo, Harris disse: “Se a Administração de Veteranos quiser usar IA em hospitais VA para ajudar os médicos a diagnosticar pacientes, eles devem primeiro provar que a IA não faz diagnósticos tendenciosos racialmente”. ” De acordo com a Casa Branca, as agências que não puderem aplicar salvaguardas “devem descontinuar o uso de sistemas de IA e demonstrar por que isso representa um risco maior para a sua segurança ou direitos gerais ou é de outra forma inaceitável para as operações críticas da agência”. por que o impedimento ocorrerá”, disse o comunicado.
Além disso, a nova política determina que as agências federais devem contratar um diretor de IA com “experiência, conhecimento e autoridade” para supervisionar todas as tecnologias de IA utilizadas pela agência. Outra política é que as agências governamentais devem publicar anualmente um inventário dos seus sistemas de IA, incluindo uma avaliação dos riscos que podem representar.
As novas regras da agência também exigem a criação de um comité de governação da IA e a apresentação de um relatório anual que será publicado online. O relatório fornece uma visão geral dos sistemas de IA em uso, identifica seus riscos e fornece planos detalhados para lidar com esses riscos.
“Os líderes do governo, da sociedade civil e do setor privado precisam garantir que a inteligência artificial seja implantada e avançada de uma forma que proteja o público de danos potenciais, garantindo ao mesmo tempo que todos possam maximizar os seus benefícios.” Existe uma obrigação moral, ética e social. fazer isso”, disse Harris. Ele também disse que o governo Biden pretende que suas políticas sejam um modelo global.
Noutra medida notável, o Departamento de Segurança Interna anunciou na semana passada que iria expandir a utilização da IA para formar funcionários da imigração, proteger infra-estruturas críticas e investigar a exploração de drogas e de crianças.
Estes anúncios são muito positivos e sinalizam que irão fortalecer as barreiras de proteção em torno do uso da IA e melhorar a privacidade e a segurança do público em geral.
Não importa quão positivos sejam estes desenvolvimentos, o governo dos EUA deve acelerar a aprovação de nova legislação que estabeleça regras básicas para a indústria de IA. Esta é a medida mais importante e a nova lei não deverá entrar em vigor antes de 2025.
Embora estes anúncios recentes da Casa Branca sejam consistentes com a lei de IA da União Europeia, a diferença clara é que a União Europeia já deu a aprovação final a este tipo de lei de inteligência artificial e não é estranha aos Estados Unidos quando se trata de regulamentação de IA. A questão é que superou isso.

