No ano passado, o CyberTipline do NCMEC recebeu milhares de relatórios sobre CSAM que supostamente foram criados usando IA.
getty
TA integração de geradores de imagens de IA levou a um influxo de imagens sintéticas de abuso sexual infantil, de acordo com um novo relatório do Centro Nacional para Crianças Desaparecidas e Exploradas.
A organização sem fins lucrativos, uma organização intermediária que agrega informações sobre CSAM e suspeitas de exploração sexual infantil de empresas de tecnologia e redes sociais para agências de aplicação da lei em todo o mundo, adicionará essas informações à sua CyberTipline em 2023. Recebemos 36,2 milhões de denúncias, excedendo significativamente os 32 milhões recebidos no ano anterior. Esse número foi mais que o dobro do que era antes da pandemia em 2019. Destes 36,2 milhões de casos, o NCMEC determinou que quase 5.000 casos foram gerados por IA, mas disse que o número real é provavelmente muito maior.
“Embora o volume seja bastante pequeno quando se considera os relatórios da CyberTipline como um todo, estamos preocupados que o volume continue a crescer, especialmente à medida que as empresas melhoram suas capacidades de detecção e relatórios”, disse CyberTipline do NCMEC. Forbes.
“O que é realmente assustador para nós é que, apenas em termos de escala, é tão pequeno, mas já está a ter um impacto tão grande”, acrescentou ela.
Durante o ano passado, houve um aumento notável nos relatos de geradores de imagens de IA usados para criar imagens ilegais de abuso sexual. Fotos falsas de estudantes nus estão perturbando escolas de ensino fundamental e médio em todo o país. Algumas das novas ferramentas de IA mais populares do mercado usam CSAM ilegal para treinar seus modelos. E os promotores indiciaram recentemente um homem em um dos primeiros casos criminais envolvendo CSAM gerado por IA.
“Esta escala pode explodir.”
Recentemente, um pequeno mas crescente grupo de lojas generativas de IA começou a trabalhar com o NCMEC para rastrear e sinalizar CSAM aparente, disse McNulty. Liderando o caminho está a OpenAI, criadora do ChatGPT e do gerador de texto para imagem Dall-e. A empresa começou a trabalhar com o NCMEC no ano passado e agora aparece pela primeira vez no seu relatório. A Anthropic AI e a Stability AI também estão participando desse esforço, nos dando uma visão sobre quanto desse conteúdo é criado, como inserindo prompts de texto ou usando IA para ser conhecido como CSAM. McNulty disse que o Ground Zero costuma ser um modelo de código aberto ou fora da plataforma. Alguns dos relatórios que o NCMEC recebe de empresas de mídia social incluem postagens, comentários, hashtags ou registros de bate-papo detalhando quais modelos de IA foram usados.
Com o rápido desenvolvimento e a rápida adoção da IA, McNulty teme que esta possa “explodir em escala”, inundando ainda mais os já sobrecarregados sistemas distribuídos de aplicação da lei. Outro desafio é que está se tornando cada vez mais difícil distinguir o CSAM falso gerado pela IA do real. Além disso, embora alguns grandes players de IA generativa tenham concordado em trabalhar com o NCMEC, algumas plataformas menores que são frequentemente denunciadas à organização (por exemplo, aplicativos que podem “despir” fotos) não o fizeram.
Espera-se que esta tendência continue, com o NCMEC a receber aproximadamente 450 relatórios CSAM baseados em IA por mês no primeiro trimestre de 2024, e espera-se que este número continue a aumentar.

