IA generativa e proteção de dados: Quais são os maiores riscos para os empregadores?
Se você é um empregador que deseja experimentar uma ferramenta de IA generativa como o ChatGPT, há algumas armadilhas na proteção de dados a serem consideradas. Com o endurecimento das leis de privacidade e proteção de dados nos últimos anos nos EUA, na Europa e em todo o mundo, os dados de RH já não podem ser simplesmente inseridos em ferramentas generativas de IA. Afinal, os dados de RH costumam ser altamente confidenciais, como dados de desempenho, informações financeiras e até dados de saúde.
Claramente, esta é uma área onde os empregadores precisam de procurar orientação jurídica adequada. Também recomendamos consultar um especialista em IA sobre a ética do uso de IA generativa (ou seja, não apenas agir dentro da lei, mas também agir de forma ética e transparente). No entanto, como ponto de partida, há duas considerações principais que os empregadores devem ter em conta.
Gere dados pessoais para alimentar sistemas de IA
Conforme mencionado acima, os dados dos funcionários costumam ser altamente confidenciais e pessoais. Este é exatamente o tipo de dados que normalmente está sujeito ao mais alto nível de proteção legal, dependendo da jurisdição.
Isto significa que alimentar esses dados em ferramentas generativas de IA é extremamente arriscado. por que? Isso ocorre porque muitas ferramentas generativas de IA usam as informações que recebem para ajustar o modelo de linguagem subjacente. Em outras palavras, poderemos usar as informações que você inserir para fins de treinamento e divulgá-las a outros usuários no futuro. Então, digamos que você queira usar uma ferramenta generativa de IA para criar um relatório sobre remuneração de funcionários com base em dados internos de funcionários. Esses dados podem ser usados por ferramentas de IA para gerar respostas a outros usuários (fora da sua organização) no futuro. Os dados pessoais podem ser facilmente absorvidos e reutilizados pelas ferramentas de IA que geram.
Isso não é tão sorrateiro quanto parece. Uma análise mais detalhada dos termos de serviço de muitas ferramentas generativas de IA dirá que os dados enviados à IA podem ser usados para treinamento e ajuste fino, ou para que os usuários vejam exemplos de perguntas enviadas anteriormente. pode ser divulgado se você solicitar. Portanto, a primeira coisa que você deve fazer é sempre entender exatamente no que você está se inscrevendo quando concorda com os termos e condições.
Como proteção básica, recomendamos que todos os dados enviados para serviços generativos de IA sejam anonimizados e que quaisquer dados de identificação pessoal sejam removidos. Isso também é conhecido como “anonimizar” os dados.
Riscos associados à produção generativa de IA
Não são apenas os dados que você alimenta em seus sistemas generativos de IA. Existem também riscos associados aos resultados e conteúdos criados pela IA generativa. Em particular, existe o risco de que os resultados das ferramentas generativas de IA possam basear-se em dados pessoais que foram recolhidos e processados em violação das leis de proteção de dados.
Por exemplo, digamos que você solicite a uma ferramenta de IA generativa que gere um relatório sobre os salários típicos de TI em sua região. Existe o risco de esta ferramenta coletar dados pessoais da Internet e fornecê-los a você sem o seu consentimento, violando as leis de proteção de dados. Os empregadores que utilizam dados pessoais fornecidos por ferramentas de IA generativa podem estar sujeitos a certa responsabilidade por violações da proteção de dados. Esta é atualmente uma zona jurídica cinzenta e, na maioria dos casos, o fornecedor de IA generativa assumirá a maior parte ou toda a responsabilidade, mas os riscos existem.
Casos como esse já apareceram. Na verdade, um processo alega que o ChatGPT foi treinado em “vastas quantidades de dados pessoais”, incluindo registros médicos e informações sobre crianças, coletados sem consentimento. Você não quer que sua organização se envolva acidentalmente em um processo como esse. Basicamente, estamos a falar de um risco “genético” de violação das leis de protecção de dados. Mas ainda existem riscos.
Em alguns casos, os dados publicados publicamente na Internet não se qualificam como recolha de dados pessoais porque já estão disponíveis. No entanto, isso varia de acordo com a jurisdição, portanto, esteja ciente das nuances jurisdicionais. Além disso, tenha muito cuidado com quaisquer ferramentas generativas de IA que você considere usar. Descubra como seus dados são coletados e, sempre que possível, negocie contratos de serviços que reduzam o risco herdado. Por exemplo, os contratos podem incluir garantias de que o fornecedor de IA generativa cumpre as leis de proteção de dados ao recolher e processar dados pessoais.
Caminho a seguir
É importante que os empregadores considerem as implicações da utilização da IA gerada em termos de proteção de dados e privacidade e procurem aconselhamento profissional. Mas isso não significa que você deva desistir completamente de usar IA generativa. Quando usada com cuidado e dentro da lei, a IA generativa pode ser uma ferramenta extremamente valiosa para os empregadores.
É importante notar também que novas ferramentas estão sendo desenvolvidas tendo em mente a privacidade dos dados. Um exemplo vem da Universidade de Harvard, que desenvolveu uma ferramenta de sandbox de IA que permite aos usuários aproveitar certos modelos de linguagem em grande escala, como o GPT-4, sem fornecer quaisquer dados. Os prompts e dados inseridos por um usuário só podem ser visualizados por esse indivíduo e não podem ser usados para treinar o modelo. Em outros lugares, as organizações estão criando suas próprias versões de ferramentas como o ChatGPT, que não compartilham dados fora da organização.

