Close Menu
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech

Subscribe to Updates

Subscribe to our newsletter and never miss our latest news

Subscribe my Newsletter for New Posts & tips Let's stay updated!

What's Hot

Matosinhos acende as luzes de Natal esta sexta-feira

November 25, 2025

Governo propõe aumentar vagas no Ensino Superior

November 25, 2025

Caminhões deixam de pagar pedágio no CREP em 2026

November 25, 2025
Facebook X (Twitter) Instagram
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
Facebook X (Twitter) Instagram
MatoSinhos24hMatoSinhos24h
  • Home
  • 24Hours News
  • Ai
  • Backlinks
  • Gadgets
  • Porto
  • Matosinhos
  • Tech
MatoSinhos24hMatoSinhos24h
Home » As maiores empresas de IA concordam em reprimir imagens de abuso infantil
Ai

As maiores empresas de IA concordam em reprimir imagens de abuso infantil

FranciscoBy FranciscoApril 23, 2024No Comments2 Mins Read
Facebook Twitter Pinterest LinkedIn Tumblr Email
Share
Facebook Twitter LinkedIn Pinterest Email


Empresas de tecnologia, incluindo Google, Meta, OpenAI, Microsoft e Amazon, comprometeram-se hoje a revisar seus dados de treinamento de IA para material de abuso sexual infantil (CSAM) e remover seu uso em modelos futuros.

As empresas assinaram um novo conjunto de princípios que visa limitar a propagação do CSAM. Eles prometem garantir que seus conjuntos de dados de treinamento não contenham CSAM, evitar conjuntos de dados de alto risco que contenham CSAM e remover imagens de CSAM ou links para CSAM de suas fontes de dados. As empresas também prometem fazer “testes de resistência” aos seus modelos de IA para garantir que não produzem imagens CSAM e divulgar os modelos apenas depois de terem sido avaliados quanto à segurança infantil.

Outros signatários incluem Anthropic, Civitai, Metaphysic, Mistral AI e Stability AI.

A IA generativa está contribuindo para preocupações crescentes sobre imagens deepfake, incluindo a proliferação de fotos falsas de CSAM online. Pesquisadores da Universidade de Stanford publicaram um relatório em dezembro que descobriu que conjuntos de dados comuns usados ​​para treinar alguns modelos de IA contêm links para imagens CSAM. Os pesquisadores também descobriram que a linha de denúncias administrada pelo Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC), que já luta para lidar com a quantidade de conteúdo CSAM relatado, está rapidamente ficando sobrecarregada por imagens CSAM geradas por IA. .

Thorn, uma organização sem fins lucrativos de prevenção do abuso infantil que ajudou a desenvolver os princípios “Toda a tecnologia é humana”, diz que a geração de imagens de IA dificultará os esforços para identificar vítimas, criará mais demanda por CSAM e reduzirá as crianças à vitimização e à revitimização. vitimizar e torna mais fácil encontrar informações sobre como compartilhar conteúdo problemático.

O Google disse em um blog que, além de aderir aos princípios, também aumentou os subsídios publicitários ao NCMEC para continuar seus esforços. Susan Jasper, vice-presidente de soluções de confiança e segurança do Google, disse em um post que apoiar campanhas como essa aumenta a conscientização do público e fornece ferramentas para identificar e denunciar fraudes.



Source link

Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
Francisco
  • Website

Related Posts

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024
Add A Comment
Leave A Reply Cancel Reply

Editors Picks

As ações da Microsoft caem mais de 6% após queda nos lucros devido à última decepção com IA

July 30, 2024

Airtable adquire startup de integração de talentos de IA Dopt

July 30, 2024

Os avatares de IA poderão em breve participar de reuniões em nosso nome, mas certamente parece uma ladeira escorregadia em direção a um futuro de IA que nenhum de nós deseja.

July 30, 2024

Microsoft pede novas leis contra golpes deepfake e imagens de abuso sexual de IA

July 30, 2024
Top Reviews
MatoSinhos24h
Facebook X (Twitter) Instagram Pinterest Vimeo YouTube
  • Home
  • About Matosinhos24h.com
  • Advertise with Us
  • Contact us
  • DMCA Policy
  • Policy
  • Terms of Use
© 2025 matosinhos24h. Designed by matosinhos24h.

Type above and press Enter to search. Press Esc to cancel.