A startup de IA Anthropic está mudando suas políticas para permitir que menores de idade usem seus sistemas generativos de IA, pelo menos em determinadas circunstâncias.
Anunciado em uma postagem no blog oficial da empresa na sexta-feira, a Anthropic permitirá que aplicativos de terceiros (mas não necessariamente seus próprios aplicativos) que aproveitem seus modelos de IA, desde que o desenvolvedor do aplicativo implemente certos recursos de segurança) para começar a usar interpolações e. adolescentes. Divulgar aos usuários quais tecnologias antrópicas são utilizadas.
Em um artigo de suporte, a Anthropic lista medidas de segurança que os desenvolvedores que criam aplicativos com tecnologia de IA para menores devem incluir: sistemas de verificação de idade, moderação e filtragem de conteúdo e design “seguro e responsável” para menores. Lista recursos educacionais e muito mais sobre o uso de IA. .A empresa também diz isso Poderia Disponibilizar “medidas técnicas” destinadas a adaptar experiências de produtos de IA para menores, como “instruções do sistema de segurança infantil” que os desenvolvedores direcionados a menores devem implementar.
Os desenvolvedores que usam os modelos de IA da Anthropic também devem cumprir os regulamentos “aplicáveis” de segurança infantil e privacidade de dados, como a Lei de Proteção à Privacidade Online das Crianças (COPPA), a lei federal dos EUA que protege a privacidade online de crianças menores de 13 anos. A Antrópico diz que planeja. Audite “regularmente” os aplicativos quanto à conformidade, suspenda ou encerre as contas de usuários que violam repetidamente os requisitos de conformidade e “documente claramente” a conformidade para os desenvolvedores em seus sites e documentação públicos.
“Existem casos de uso específicos em que as ferramentas de IA podem fornecer benefícios significativos para usuários jovens, como preparação para testes e suporte de tutoria”, escreveu a Anthropic no post. “Com isso em mente, nossa política mais recente permite que as organizações incorporem nossas APIs em produtos destinados a menores.”
A mudança de política da Anthropic ocorre no momento em que crianças e adolescentes recorrem cada vez mais a ferramentas generativas de IA para resolver problemas não apenas acadêmicos, mas também pessoais, e fornecedores concorrentes de IA generativa, como Google e OpenAI. Este ano, a OpenAI anunciou uma nova equipe para pesquisar a segurança infantil e uma parceria com a Common Sense Media para co-criar diretrizes de IA amigas das crianças. O Google também rebatizou seu chatbot Bard como Gemini antes de disponibilizá-lo em inglês para adolescentes em algumas regiões.
Uma pesquisa do Centro para Democracia e Tecnologia descobriu que 29% das crianças usaram IA generativa como o ChatGPT da OpenAI para lidar com ansiedade ou problemas de saúde mental, e 22% usaram IA generativa para lidar com problemas com amigos, 16% relataram usá-la em. conflitos com familiares.
No verão passado, escolas e universidades apressaram-se a proibir aplicações generativas de IA, especificamente ChatGPT, devido ao receio de plágio e desinformação. Desde então, alguns suspenderam suas proibições. No entanto, nem todos estão convencidos do potencial da IA gerada para o bem, com inquéritos como o UK Safer Internet Centre a concluir que mais de metade (53%) das crianças acreditam que os seus pares não acreditam na IA gerada relataram que eles. vi isso ser usado de forma negativa. Informações ou imagens falsas e confiáveis (incluindo deepfakes pornográficos) usadas para ofender alguém.
Há um apelo crescente por diretrizes relativas ao uso de IA generativa por crianças.
No final do ano passado, a Organização das Nações Unidas para a Educação, a Ciência e a Cultura (UNESCO) apelou aos governos para regulamentarem a utilização de IA generativa na educação, incluindo limites de idade para os utilizadores e a introdução de barreiras de proteção em torno da proteção de dados e da privacidade dos utilizadores. “A IA generativa tem potencial para oferecer grandes oportunidades para o desenvolvimento humano, mas também tem potencial para causar danos e preconceitos”, afirmou a Diretora-Geral da UNESCO, Audrey Azoulay, num comunicado de imprensa. “Não pode ser integrado na educação sem o envolvimento público e as salvaguardas e regulamentações necessárias por parte dos governos.”

