Mas “não parece que demorará muito para que esta tecnologia seja usada para monitorar funcionários”, disse Elcock.
autocensura
Embora a IA generativa apresente alguns riscos potenciais, existem medidas que as empresas e os funcionários individuais podem tomar para melhorar a privacidade e a segurança. Primeiro, não insira informações confidenciais em ferramentas públicas como ChatGPT ou Gemini do Google, diz Lisa Avvocato, vice-presidente de marketing e comunidade da empresa de dados Sama.
Ao criar seu prompt, mantenha-o geral para não compartilhar demais. “Em vez de 'Este é o meu orçamento, escreva uma proposta de gastos para um projeto delicado', pergunte: 'Por favor, crie um modelo de proposta de gastos orçamentários'”, diz ela. “Usamos IA como um primeiro rascunho e depois adicionamos qualquer informação sensível que precise ser incluída.”
Quando usado para pesquisa, diz Avvocato, o conteúdo fornecido deve ser validado para evitar problemas como os vistos na visão geral de IA do Google. “Peça-lhes que forneçam referências e links para suas fontes. Se você pedir a uma IA para escrever código para você, não presuma que está tudo bem; você deve revisar o código.”
A própria Microsoft afirma que o Copilot deve ser configurado corretamente e impor “privilégios mínimos” (o conceito de que os usuários podem acessar apenas as informações de que precisam). Este é “um ponto chave”, diz Robinson, da Prism Infosec. “As organizações precisam estabelecer as bases para esses sistemas, e não apenas confiar na tecnologia e presumir que tudo ficará bem.”
Observe também que o ChatGPT usa os dados que você compartilha para treinar seus modelos, a menos que você os desative nas configurações ou use a versão empresarial.
Lista de garantia
As empresas que integram IA generativa nos seus produtos dizem que estão a fazer tudo o que podem para proteger a segurança e a privacidade. A Microsoft faz questão de descrever considerações de segurança e privacidade em seu produto Recall e a capacidade de controlar sua funcionalidade. Configurações > Privacidade e segurança > Recuperação e instantâneos.
O Google afirma que a IA gerada pelo Workspace “não altera as proteções fundamentais de privacidade de dar aos usuários escolha e controle sobre seus dados” e estipula que as informações não serão usadas para publicidade.
A OpenAI reitera como mantém a segurança e a privacidade em seus produtos, mas a versão empresarial vem com controles adicionais. “Queremos que nossos modelos de IA aprendam sobre o mundo, não apenas sobre mim, e estamos tomando medidas para proteger os dados e a privacidade das pessoas”, disse um porta-voz da OpenAI à WIRED.
A OpenAI afirma que oferece maneiras de controlar como seus dados são usados, incluindo ferramentas de autoatendimento para acessar, exportar e excluir suas informações pessoais, bem como a capacidade de cancelar o uso de seu conteúdo para melhorar seus modelos. Segundo a empresa, ChatGPT Team, ChatGPT Enterprise e suas APIs não são treinadas em dados ou conversas, e seus modelos não aprendem com o uso por padrão.
De qualquer forma, parece que nossos colegas de IA vieram para ficar. À medida que estes sistemas se tornam mais sofisticados e omnipresentes no local de trabalho, Woolven afirma que os riscos só aumentarão. “Já estamos vendo o surgimento de IA multimodal como o GPT-4o, que pode analisar e gerar imagens, áudio e vídeo.
Com isto em mente, as pessoas – e as empresas – precisam de adotar a mentalidade de tratar a IA como qualquer outro serviço de terceiros, diz Woolven. “Não compartilhe nada que você não queira divulgar publicamente.”

