Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » Deepfakes de IA já estão influenciando as eleições. Temos pouca proteção.
Ai

Deepfakes de IA já estão influenciando as eleições. Temos pouca proteção.

FranciscoBy FranciscoApril 23, 2024No Comments9 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


O telefone de Divyendra Singh Jadun continua tocando. Conhecidos como “deepfakers da Índia”, Jadun é famoso por criar sequências de Bollywood e comerciais de TV usando inteligência artificial.

Mas à medida que a votação escalonada começa nas eleições indianas, Jadun diz que centenas de políticos procuram a sua contribuição e mais de metade pedem algo “antiético”. Os candidatos pediram-lhe que falsificasse o áudio dos concorrentes cometendo gafes durante a campanha e sobrepusesse os rostos dos adversários em imagens pornográficas. Alguns campos solicitaram vídeos falsos de baixa qualidade dos seus próprios candidatos, que poderiam ser divulgados para lançar dúvidas sobre os malditos vídeos reais que são divulgados durante as eleições.

Jadoon, 31 anos, diz que recusa trabalhos que tenham a intenção de difamar ou decepcionar. Mas ele espera que muitos consultores cumpram o seu dever e distorçam a realidade nas maiores eleições do mundo, à medida que mais de 500 milhões de eleitores indianos vão às urnas.

“Somente nossa ética pode impedir a criação de deepfakes antiéticos”, disse Jadun ao Post. “Mas isso é muito difícil de parar.”

As eleições na Índia começaram na semana passada e vão até o início de junho. Visualize como a explosão de ferramentas de IA está transformando os processos democráticos e facilitando o desenvolvimento de mídias falsas e contínuas em torno das campanhas. Mais de metade da população mundial vive em mais de 50 países que realizarão eleições em 2024, tornando-o um ano crucial para a democracia global.

Não está claro quantas falsificações de IA de políticos foram criadas, mas os especialistas dizem que estão vendo um aumento nas falsificações profundas relacionadas às eleições em todo o mundo.

“Estou olhando mais para isso. [political deepfakes] Este ano é mais sofisticado do que no ano passado, e o que estou vendo é mais sofisticado e convincente”, disse Hany Farid, professor de ciência da computação na Universidade da Califórnia, em Berkeley.

O vazio regulamentar está a emergir à medida que os decisores políticos e reguladores, de Bruxelas a Washington, se apressam a elaborar legislação para restringir o áudio, as imagens e o vídeo habilitados pela IA nas campanhas eleitorais. A lei histórica da União Europeia sobre IA só entrará em vigor depois das eleições parlamentares de junho. Um projeto de lei bipartidário no Congresso dos EUA que proibiria o uso de IA para retratar falsamente candidatos federais provavelmente não será aprovado antes das eleições de novembro. Vários estados dos EUA promulgaram leis para punir as pessoas que fazem vídeos enganosos sobre políticos, criando uma colcha de retalhos política em todo o país.

No entanto, existem barreiras limitadas para impedir que os políticos e os seus aliados utilizem a IA para enganar os eleitores, e os responsáveis ​​pela aplicação da lei têm de se proteger contra falsificações que se podem espalhar rapidamente nas redes sociais e nas conversas em grupo. A democratização da IA ​​significa que caberá a indivíduos como Jadoon, e não aos reguladores, fazer escolhas éticas para impedir a perturbação eleitoral induzida pela IA.

“Não vamos ficar parados vendo as eleições se transformarem em caos”, disse a senadora Amy Klobuchar (D-Minn.), presidente do Comitê de Regras do Senado, em um discurso no Conselho do Atlântico no mês passado. “…isto é como um momento de ‘cabelo em chamas’. Este não é um caso de “vamos esperar três anos e ver o que acontece”. ”

“Torna-se mais sofisticado e atraente.”

Durante anos, grupos de estados-nação têm disseminado em massa informações erradas no Facebook, Twitter (agora conhecido como foi imitado. Mas à medida que a IA permite a participação de intervenientes mais pequenos, a luta contra as falsidades torna-se uma tarefa fragmentada e difícil.

Num memorando, o Departamento de Segurança Interna alertou as autoridades eleitorais que a IA gerada poderia ser usada para aumentar as campanhas de influência estrangeira visando as eleições. O DHS disse num memorando que as ferramentas de IA podem permitir que funcionários eleitorais mal-intencionados se façam passar por funcionários e espalhem informações erradas sobre os métodos de votação e a integridade do processo eleitoral.

Esses avisos estão se tornando realidade em todo o mundo. No início deste ano, atacantes patrocinados pelo Estado usaram IA gerada para interferir nas eleições de Taiwan. No dia das eleições, um grupo afiliado ao Partido Comunista Chinês postou um áudio gerado por IA de um político proeminente que se retirou das eleições de Taiwan apoiando outro candidato, de acordo com um relatório da Microsoft. No entanto, o proprietário e político da Foxconn, Terry Gow, nunca fez tal endosso e o YouTube removeu o áudio.

Divyendra Singh Jadoun usou IA para transformar a voz do primeiro-ministro indiano Narendra Modi em uma saudação personalizada para o feriado hindu Diwali. (Vídeo: Divyendra Singh Jadun)

Taiwan acabou por eleger Lai Ching-de, um candidato oposto pela liderança do Partido Comunista Chinês, sugerindo os limites da campanha para influenciar os resultados eleitorais.

A Microsoft espera que a China adote uma estratégia semelhante na Índia, Coreia do Sul e Estados Unidos este ano. “A crescente experimentação da China no aumento de memes, vídeos e áudio provavelmente continuará e poderá ser mais eficaz no futuro”, afirma o relatório da Microsoft.

Mas o baixo custo e a ampla disponibilidade de ferramentas generativas de IA tornaram possível que pessoas sem apoio estatal executassem os seus planos. É comparável a uma campanha de um Estado-nação.

Na Moldávia, um vídeo deepfake de IA mostra o presidente pró-Ocidente do país, Maia Sandu, renunciando e apelando às pessoas para apoiarem um partido pró-Putin durante as eleições locais. Na África do Sul, o rapper Eminem, alterado digitalmente, apoiou o partido da oposição sul-africana antes das eleições gerais de maio.

Em janeiro, agentes políticos democratas forjaram a voz do presidente Biden e instaram os eleitores das primárias de New Hampshire a não irem às urnas, uma medida que visa aumentar a sensibilização para os problemas nos meios de comunicação social.

A ascensão dos deepfakes de IA pode mudar a demografia de quem concorre a cargos públicos, já que os malfeitores usam desproporcionalmente conteúdo sintético para atingir as mulheres.

O político da oposição de Bangladesh, Rumin Farhana, enfrenta assédio sexual online há anos. Mas no ano passado, uma foto falsa de IA dela de biquíni apareceu nas redes sociais.

Farhana disse que não está claro quem criou a imagem. Mas no Bangladesh, um país conservador de maioria muçulmana, a fotografia suscitou comentários de assédio por parte do público nas redes sociais, com muitos eleitores a acreditarem que era real.

Farhana disse que o assassinato de tal pessoa poderia impedir as candidatas de entrarem na política.

“Não importa o que aconteça, isso é sempre usado primeiro contra as mulheres. Elas são as vítimas em todos os casos”, disse Farhana. “A IA não é exceção.”

“Por favor, espere antes de compartilhar”

Na ausência de acção parlamentar, os países estão a tomar medidas e os reguladores internacionais estão a forçar as empresas a assumir compromissos voluntários.

Cerca de 10 estados adotaram leis que punem aqueles que usam IA para enganar os eleitores. No mês passado, o governador de Wisconsin assinou um projeto de lei bipartidário que impõe multas àqueles que não divulguem a IA em anúncios políticos. A lei de Michigan também penaliza qualquer pessoa que distribua conscientemente deepfakes gerados por IA dentro de 90 dias após uma eleição.

Mas não está claro se as penas – que em alguns municípios vão desde multas até 1.000 dólares e até 90 dias de prisão – são suficientemente severas para dissuadir potenciais infratores.

Com tecnologia de detecção limitada e menos pessoal designado, pode ser difícil para os agentes responsáveis ​​pela aplicação da lei confirmar rapidamente se um vídeo ou imagem é realmente gerado pela IA.

Na ausência de regulamentação, os responsáveis ​​governamentais procuram acordos voluntários entre políticos e empresas tecnológicas para controlar a propagação de conteúdos eleitorais gerados pela IA. A vice-presidente da Comissão Europeia, Vera Jourova, disse ter escrito aos principais partidos políticos dos Estados-membros europeus com um “apelo” para resistirem ao uso de métodos manipuladores. No entanto, ela disse que os políticos e os partidos políticos não enfrentariam qualquer desvantagem se não cumprissem as suas exigências.

“Não posso dizer se eles seguirão nosso conselho ou não”, disse ela em entrevista. “Seria muito triste se isso não acontecesse. Se temos ambições de governar os Estados-membros, temos também de mostrar que podemos ganhar eleições sem recorrer a meios sujos.”

Jurova disse que, em julho de 2023, pediu às principais plataformas de mídia social que rotulassem os trabalhos gerados por IA antes das eleições. O pedido recebeu reações mistas no Vale do Silício, com algumas plataformas dizendo que seria impossível desenvolver tecnologia para detectar IA.

A OpenAI, que desenvolve o chatbot ChatGPT e o gerador de imagens DALL-E, também procurou estabelecer relacionamentos com empresas de mídia social para abordar a distribuição de material político gerado por IA. Na Conferência de Segurança de Munique, realizada em fevereiro, 20 empresas líderes de tecnologia comprometeram-se a trabalhar em conjunto para detetar e remover conteúdos nocivos de IA durante as eleições de 2024.

“Esta é uma questão que abrange toda a sociedade”, disse Anna Makanju, vice-presidente de assuntos internacionais da OpenAI, em entrevista ao PostLive. “Não é do nosso interesse que esta tecnologia seja aproveitada desta forma, especialmente porque aprendemos lições das eleições anteriores e dos últimos anos, e todos estão muito motivados.”

No entanto, nenhuma penalidade será imposta se as empresas não cumprirem as suas promessas. Já existia uma lacuna entre a política declarada da OpenAI e a sua aplicação. Um super PAC apoiado por especialistas do Vale do Silício lançou um chatbot de IA para o principal candidato presidencial Dean Phillips que usa o software ChatGPT da empresa, uma tecnologia proprietária proibida pela OpenAI para violação do uso de campanhas políticas. A empresa não proibiu os bots até o Washington Post informar.

Jadun, que é um ativista político de IA do principal partido eleitoral da Índia, disse que a epidemia de deepfake não pode ser resolvida apenas pelo governo e que o público precisa ser mais bem educado.

“Pare e espere antes de compartilhar conteúdo que leve suas emoções ao próximo nível”, disse ele.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.