- O diretor de ética de uma empresa garantirá que a IA seja usada de forma responsável.
- Eles definem princípios para regular a tecnologia, aprendem o cenário jurídico e se envolvem com as partes interessadas.
- As pessoas nesta função geralmente ganham salários anuais na casa dos seis dígitos.
Com o lançamento do ChatGPT, o mundo corporativo abriu as portas para uma nova era.
A tecnologia deste Buzzybot, Generative AI, pode redigir e-mails, gerar código e dar vida aos gráficos em minutos. De repente, os dias em que os funcionários examinavam as caixas de entrada e faziam apresentações cuidadosamente elaboradas pareciam coisa do passado.
As empresas correram para adotar essa tecnologia, atraídas pelo aumento dos lucros e da produtividade. De acordo com um inquérito realizado em maio pela empresa de consultoria McKinsey & Company, 65% das mais de 1.300 empresas inquiridas afirmaram que atualmente utilizam IA generativa de forma regular.
No entanto, o risco de explorar esta tecnologia é grande. Se não for gerida de forma adequada, a IA generativa pode causar alucinações, espalhar desinformação e reforçar o preconceito contra grupos marginalizados. Dado que esta tecnologia depende de grandes quantidades de dados sensíveis, o potencial de violações de dados também é elevado. Contudo, na pior das hipóteses, existe o perigo de que quanto mais sofisticado se tornar, menos se alinhará com os valores humanos.
Assim, com grande poder vem uma grande responsabilidade, e as empresas que lucram com a IA generativa também precisam de garantir que esta seja regulamentada.
É aí que entra o diretor de ética.
Papel importante na era da IA
de Varu Shankar, diretor de IA e diretor de privacidade da plataforma de software Enzai, disse que as especificidades da função variam de acordo com a empresa, mas, em termos gerais, determina o impacto do uso de IA por uma empresa na sociedade em geral. Para governança, risco e conformidade de IA. “Então, não apenas sua empresa e seus resultados financeiros, mas que impacto isso terá sobre seus clientes? Como isso impactará outras pessoas ao redor do mundo e que impacto isso terá sobre o meio ambiente?” . ele disse ao Business Insider. Isto é seguido por “construir um programa que padronize e amplie essas questões sempre que você usar IA”.
É uma função que dá aos geeks da política e aos especialistas em filosofia, juntamente com os gurus da programação, uma posição segura na indústria de tecnologia em rápida mudança. E, em muitos casos, ganham altos salários anuais na casa dos seis dígitos.
Mas as empresas atualmente não estão contratando para essas funções com rapidez suficiente, de acordo com Steve Mills, diretor de ética em IA do Boston Consulting Group. “Fala-se muito sobre riscos e princípios, mas penso que muito pouca ação está sendo tomada para operacionalizá-los dentro das empresas”, disse ele.
Responsabilidades de nível C
Idealmente, alguém que tenha sucesso nessa função terá quatro áreas de especialização, segundo Mills. Eles devem ter conhecimento técnico de IA generativa, experiência na construção e implantação de produtos, compreensão das principais leis e regulamentos relativos à IA e ampla experiência com adoção organizacional e tomada de decisões.
“Muitas vezes vemos pessoas nomeando gerentes de nível médio para responsabilidades e, embora possam ter experiência, motivação e paixão, geralmente são incapazes de mudar as coisas dentro da organização ou estão envolvidos em questões jurídicas, comerciais ou “eu não ' Não tenho estatura para reunir uma equipe de compliance”, disse ele. Ele acrescentou que todas as empresas da Fortune 500 que usam IA em grande escala devem nomear um executivo sênior para supervisionar programas responsáveis de IA.
Shankar, advogado de formação, disse que a função não exige nenhuma formação educacional específica. A qualificação mais importante é compreender os dados de uma empresa. Significa compreender “as implicações éticas dos dados que você coleta e usa, de onde vêm esses dados, onde estavam antes de existirem em sua organização e quais consentimentos você tem em relação a esses dados”.
Ele apontou o exemplo dos prestadores de cuidados de saúde que podem perpetuar involuntariamente o preconceito se não controlarem os seus dados. Um estudo publicado na revista Science descobriu que hospitais e seguradoras de saúde que usaram algoritmos para identificar pacientes que se beneficiariam do “gerenciamento de cuidados de alto risco” acabaram proporcionando mais pacientes brancos saudáveis. São esses tipos de erros que os responsáveis pela ética podem ajudar as empresas a evitar.
Colaboração entre empresas e setores
Aqueles que desempenham esta função também precisarão ser capazes de se comunicar com confiança com diversas partes interessadas.
Christina Montgomery, vice-presidente e diretora de confiança de privacidade da IBM e presidente do Comitê de Ética de IA, disse à BI que seus dias são normalmente preenchidos com reuniões e eventos com clientes, além de outras responsabilidades.
“Passo muito tempo fora da empresa e provavelmente passei muito tempo recentemente falando em eventos e interagindo com legisladores e conselhos de administração externos, porque, independentemente do que o futuro reserva, “sinto que tenho um enorme. oportunidade de influenciar e tomar decisões”, disse ela. .
ela está sentada no quadro Por exemplo, a Associação Internacional de Profissionais de Privacidade lançou recentemente a Certificação Profissional de Governança de Inteligência Artificial para indivíduos que desejam liderar no campo da ética da IA. Ela também trabalha com líderes governamentais e outros diretores de ética.
“Acho que é absolutamente importante conversarmos regularmente e compartilharmos as melhores práticas. Fazemos muito disso em toda a empresa”, disse ela.
Ela pretende desenvolver uma compreensão mais ampla do que está acontecendo no nível social, o que ela acredita ser fundamental para a função.
“O que me preocupa nesta área onde estamos agora são todas estas regulamentações, o que é esperado e o que é certo e o que é errado em termos do que as empresas têm de cumprir. “Não podemos operar num mundo como este, por isso as conversas entre empresas, governos e conselhos de administração são críticas neste momento.”

