O presidente da Comissão Federal de Comunicações propôs na quarta-feira uma proposta que exigiria que os anunciantes políticos divulgassem quando usassem conteúdo gerado por IA em anúncios de televisão e rádio.
Se a proposta for adotada pelo comitê, muitos legisladores e isso acrescentariam uma camada de transparência que os especialistas em inteligência artificial procuram. .
Mas a FCC, o principal regulador de telecomunicações do país, só tem autoridade sobre televisão, rádio e alguns fornecedores de cabo. Nenhuma nova regra será capaz de encobrir a explosão da publicidade nas plataformas digitais e de streaming.
“À medida que as ferramentas de inteligência artificial se tornam mais disponíveis, a Comissão quer garantir que os consumidores sejam totalmente informados quando a tecnologia for usada”, disse a presidente da FCC, Jessica Rosenworcel, em comunicado na quarta-feira. “Hoje, partilhei com colegas uma proposta que deixaria claro que os consumidores têm o direito de saber quando as ferramentas de IA estão a ser utilizadas nos anúncios políticos que veem.
Esta é a segunda vez este ano que a comissão começa a tomar medidas significativas para combater a utilização crescente de ferramentas de inteligência artificial na comunicação política. Anteriormente, a FCC reconheceu que as ferramentas de clonagem de voz de IA em chamadas automáticas são proibidas pela lei atual. A decisão ocorreu após um incidente em que um software de clonagem de voz foi usado para fazer chamadas automatizadas durante as primárias de New Hampshire. imitar o presidente Joe Biden Para desencorajar os eleitores de irem às urnas.
Se adotada, a proposta exigiria que as emissoras perguntassem aos anunciantes políticos se o seu conteúdo foi gerado usando ferramentas de IA, como ferramentas de conversão de texto em imagem ou software de clonagem de áudio. A FCC tem autoridade sobre a publicidade política em canais de transmissão de acordo com a Lei de Reforma de Campanha Bipartidária de 2002.
Mas os comissários questionam-se sobre quantas questões, tais como se as emissoras precisam de divulgar conteúdos gerados pela IA em mensagens no ar ou apenas em ficheiros políticos de estações de televisão e rádio disponíveis ao público, os detalhes ainda precisam de ser discutidos. Eles também terão a tarefa de chegar a um acordo sobre a definição de conteúdo gerado por IA, um desafio que só aumentará à medida que ferramentas de retoque e outros avanços de IA forem cada vez mais incorporados em todos os tipos de software criativo.
Rosenworcel deseja que os regulamentos estejam em vigor antes das eleições.
Jonathan Uriarte, porta-voz e consultor político da Rosenworcel, disse que a empresa busca definir conteúdo gerado por IA como qualquer coisa gerada por meio de tecnologia de computador ou sistemas baseados em máquinas, acrescentando: “Em particular, vozes geradas por IA que soam como vozes humanas e atores gerados por IA que se parecem com atores humanos.'' Ela disse que seu projeto de definição provavelmente mudará durante o processo regulatório.
A proposta surge num momento em que as campanhas políticas já estão a experimentar fortemente a IA generativa, desde a construção de chatbots para websites até à utilização da tecnologia para criar vídeos e imagens.
No ano passado, por exemplo, o RNC lançou um anúncio inteiramente gerado por IA que pretendia mostrar um futuro distópico sob uma administração alternativa de Biden. Eles usaram fotos falsas, mas realistas, de vitrines fechadas com tábuas, tropas armadas patrulhando as ruas e ondas de migrantes que provocavam pânico.
As campanhas políticas e os maus actores também estão a utilizar imagens, vídeos e conteúdos de áudio hiper-realistas para enganar, enganar e privar os eleitores. Um vídeo recente gerado por IA que erroneamente parecia mostrar uma estrela de Bollywood criticando o primeiro-ministro nas eleições da Índia ecoa uma tendência que está ocorrendo nas eleições democráticas em todo o mundo, segundo especialistas em IA.
Rob Wiseman, presidente do grupo de defesa Public Citizen, disse estar satisfeito em ver a FCC “se esforçando para enfrentar proativamente as ameaças representadas pela inteligência artificial e deepfakes, inclusive especificamente sobre a integridade eleitoral”.
Ele pediu à FCC que exigisse a divulgação no ar no interesse público, e outra agência, a Comissão Eleitoral Federal, também está considerando a possibilidade de regular os deepfakes gerados por IA em anúncios políticos.
A deputada democrata Yvette Clark, de Nova York, disse que embora a FCC não tenha jurisdição, é hora de o Congresso tomar medidas contra a disseminação de desinformação online. Ela introduziu legislação sobre requisitos de divulgação de conteúdo gerado por IA em publicidade online.
À medida que a IA generativa se torna mais barata, mais acessível e mais fácil de utilizar, vários grupos bipartidários de legisladores pressionam por legislação para regular a tecnologia na política. Faltando mais de cinco meses para as eleições de novembro, nenhum projeto de lei foi aprovado ainda.
Um projeto de lei bipartidário apresentado pela senadora democrata Amy Klobuchar, de Minnesota, e pela senadora republicana Lisa Murkowski, do Alasca, exigiria que anúncios políticos fossem criados ou alterados significativamente usando IA. Em alguns casos, é necessária uma cláusula de isenção de responsabilidade. A Comissão Eleitoral Federal deve responder às violações.
Uriarte disse que Rosenworcel reconhece que há limites para a capacidade da FCC de agir contra ameaças relacionadas à IA, mas quer fazer tudo o que puder antes das eleições de 2024. Ele disse que havia.
“Esta proposta proporciona os mais elevados padrões de transparência que a Comissão pode impor sob a sua jurisdição”, disse Uriarte. “Esperamos que as agências governamentais e os legisladores possam dar este primeiro passo importante no estabelecimento de padrões de transparência para o uso de IA na publicidade política.”

