À medida que os reguladores governamentais na América do Norte, Europa e Ásia lidam com questões legais, de segurança, de segurança nacional e éticas levantadas pelos avanços na inteligência artificial, os líderes empresariais estão preocupados com o facto de as regras absurdas afirmarem que isto apresenta algumas complicações.
“A grande história é que todos buscam a regulamentação da IA, e se existem 100 padrões, não existem padrões”, disse Danny Tobey, chefe da prática de IA e análise de dados do escritório de advocacia DLA Piper.
A União Europeia é a mais avançada, estabelecendo regras regulatórias que poderão ser aprovadas pelo parlamento da região e entrar em vigor já em 2025. Os 27 Estados-Membros baseiam-se numa abordagem baseada no risco e poderão proibir a tecnologia em casos extremos. Alguns sistemas de IA de “alto risco” exigirão aprovação antes de serem lançados no mercado. A China e a Índia estão entre os países que consideram os seus próprios caminhos para regulamentar a IA.
Os executivos esperam contar com os quadros existentes já em vigor para outras formas de tecnologia, que, segundo eles, podem ser aplicados a regulamentações emergentes para a IA. A Juniper Networks está contratando pessoas para “basicamente monitorar as leis de conformidade em todo o mundo”, disse Bob Friday, diretor de IA da empresa, que vende produtos de rede e segurança cibernética em 175 estados.
Friday reconhece que a IA introduz novas complexidades. “Quando você constrói um avião ou um carro, há muitos regulamentos para garantir que o carro ou avião seja seguro para o público”, diz Friday. No entanto, a IA possui habilidades de raciocínio cognitivo. “Não é completamente determinístico”, acrescentou. “Esses sistemas não têm comportamento consistente.”
A DLA Piper prevê que a Europa será provavelmente a mais rigorosa em matéria de IA, reflectindo a abordagem da região a outras tecnologias. É por isso que a empresa incentiva seus clientes a planejarem princípios gerais que sejam amplamente aplicáveis. Isso significa manter os humanos envolvidos em todos os momentos, testando a IA antes e depois do lançamento e fornecendo explicações claras sobre a tecnologia sempre que possível.
“Implantar vários sistemas de controle dentro de uma empresa é demais, por isso estamos desenvolvendo uma abordagem básica para muitos de nossos clientes multinacionais”, afirma Tobey.
“Se você pensar em como abordamos o uso de dados de forma mais geral, há muitas semelhanças”, disse Elise Houlik, diretora de privacidade da Intuit, fornecedora de software TurboTax e CreditKarma. “Seja honesto sobre o que você está fazendo, avise adequadamente e forneça a quantidade certa de transparência para entender onde a escolha do consumidor deve entrar em jogo.”
A Intuit reúne-se regularmente com os decisores políticos para discutir a IA, com o objetivo de garantir que a linguagem regulamentar seja clara e não limite a inovação. As tensões em torno da IA devem-se em grande parte à ansiedade dos consumidores em relação à tecnologia, disse Hourik. As pessoas querem uma compreensão clara de quando a IA está sendo usada, se podem aceitar ou não a tecnologia e como seus dados estão sendo usados.
“E então a próxima camada é: 'Ok, estamos convencidos de que vale a pena. E agora vamos garantir que seja seguro e obter o melhor resultado possível. E é meu trabalho garantir que os dados corretos sejam fornecidos.' Eles são obtidos e usados no momento certo”, disse Hourik.
Nos Estados Unidos, pelo menos 40 estados, Porto Rico, Ilhas Virgens e Washington apresentaram projetos de lei sobre IA durante a sessão legislativa de 2024, que vão desde conteúdo relacionado a eleições, pornografia infantil e outros usos criminosos, até uso médico para decisões sobre, e transparência no uso de dados.
“Se tratássemos cada estado como um país pequeno, seriam como 50 países pequenos”, disse Sexta-feira, observando que tal regulamentação fragmentada cria novos custos para as empresas compreenderem.
Os reguladores também precisam definir quem é responsável pelas violações. Eles devem determinar respostas para perguntas como: Se um grande modelo de linguagem criado por um fabricante de IA violar as regulamentações chinesas ou norte-americanas, o fabricante de IA enfrentará multas e ações coercivas, ou a empresa que introduziu a tecnologia? Como tais regulamentações afetariam as grandes empresas que criam seus próprios modelos de IA? enquanto confia em modelos criados por grandes empresas de tecnologia como Microsoft e Google?
Há também incerteza quanto à abordagem baseada no risco seguida na Europa. Os especialistas dizem que será mais fácil chegar a acordo sobre a IA de baixo risco, mas determinar o que é considerado de alto e médio risco pode ser difícil.
Quando a Europa visou empresas de redes sociais como a Meta, outros fornecedores de tecnologia também foram alvo. As empresas de rede não eram o alvo pretendido destas regulamentações, mas “fomos obrigados a cumprir todas as regulamentações europeias de privacidade”, afirmou na sexta-feira.
Tom Siebel, fundador e CEO da C3.ai, não gosta de quaisquer negociações regulatórias vindas dos mercados dos EUA ou da Europa. “O que eles estão tentando fazer é criminalizar a ciência”, diz Siebel. “Não acho que sejam considerados o suficiente e não acho que as pessoas que os escrevem entendam o que estão dizendo.”
Ele teme que os reguladores não consigam acompanhar os milhões de algoritmos atualmente publicados em todo o mundo. E Siebel não acredita que mesmo que os reguladores tenham mais tempo para examinar a tecnologia, não serão capazes de ler o algoritmo e decidir se é seguro ou não.
Siebel reconhece que os governos devem agir contra a IA, mas defende legislação em vez de regulamentação. E no setor privado, os CEOs deveriam ser responsáveis, em última análise, pela segurança da IA que criam ou usam, diz ele.
“Você acha que precisamos restringir o uso de IA?”, pergunta Siebel. “absolutamente.”

