Nova Deli, India – O governo indiano está pedindo às empresas de tecnologia que busquem consentimento explícito antes de divulgar publicamente modelos e ferramentas generativas de IA “não confiáveis” ou “não testadas”. Alertou também as empresas que os seus produtos de IA não devem gerar respostas que “ameacem a integridade do processo eleitoral” enquanto o país se prepara para uma votação nacional.
Os esforços do governo indiano para regular a inteligência artificial representam um afastamento da sua abordagem anterior de não interferência, que informou o Congresso, em Abril de 2023, de que não estava a considerar qualquer legislação para regular a IA.
O comunicado foi emitido pelo Ministério de Eletrônica e Tecnologia da Informação (MeitY) da Índia na semana passada, logo depois que o Gemini do Google enfrentou uma reação da direita por sua resposta à pergunta: “O primeiro-ministro Modi é fascista?”
O jornal disse que o primeiro-ministro indiano, Narendra Modi, foi “acusado de implementar políticas que alguns especialistas caracterizam como fascistas” e que o governo indiano está “perpetrando uma repressão à dissidência e à violência contra as minorias religiosas”.
Em resposta, o secretário de Tecnologia da Informação, Rajeev Chandrasekhar, acusou o Gemini do Google de violar a lei indiana. “'Desculpe, mas 'não confiável' não isenta você da lei”, acrescentou. Chandrashekhar afirmou que o Google pediu desculpas pela resposta, dizendo que era o resultado de um algoritmo “não confiável”. A empresa respondeu que está trabalhando para resolver o problema e melhorar seus sistemas.
No Ocidente, as grandes empresas tecnológicas enfrentam frequentemente acusações de preconceito liberal. Essas alegações de preconceito também se espalharam para produtos generativos de IA, como ChatGPT da OpenAI e Microsoft Copilot.
Entretanto, na Índia, as recomendações governamentais suscitaram preocupações entre os empresários da IA de que a indústria emergente poderia ser sufocada pelo excesso de regulamentação. Com as eleições nacionais prestes a serem anunciadas, este comunicado permitirá ao governo Modi escolher quais aplicações de IA permitir e quais banir, controlando efetivamente os espaços online nos quais essas ferramentas têm influência. Alguns temem que isso reflita uma tentativa de
“A sensação de licença raj”
Esta recomendação não é uma lei que vincula automaticamente as empresas. No entanto, as violações legais podem ser processadas de acordo com a Lei de Tecnologia da Informação da Índia, disseram advogados à Al Jazeera. “Esta recomendação não vinculativa parece mais uma postura política do que uma decisão política séria”, disse Mishi Chaudhary, fundador do Software Freedom Law Center da Índia. “Veremos esforços mais sérios depois das eleições. Isto dá-nos uma ideia de como os decisores políticos estão a pensar.”
Harsh Chowdhury, cofundador da Centra World, empresa de soluções de IA com sede em Bangalore, disse que o comunicado já envia um sinal que pode sufocar a inovação, especialmente em startups. “Se todos os produtos de IA exigirem aprovação, isso parece uma tarefa impossível para os governos”, diz ele. “Podemos precisar de outro bot GenAI (IA generativa) para testar esses modelos”, acrescentou ele rindo.
Vários outros líderes da indústria de IA generativa também criticaram a recomendação como um exemplo de excesso regulatório. Martin Casado, sócio geral da empresa de investimentos Andreessen Horowitz, com sede nos EUA, disse na plataforma de mídia social que escreveu.
Bindu Reddy, CEO da Abacus AI, escreveu sobre as recomendações: “A Índia acaba de dar adeus ao seu futuro!”
Em meio a essa reação, Chandrashekhar emitiu um esclarecimento sobre Acrescentou que só se aplica a “plataformas que
Mas uma nuvem de incerteza permanece. “Esta recomendação contém termos como ‘não confiável’ e ‘não testado’. [and] “Internet da Índia”. O facto de terem sido necessários alguns esclarecimentos para explicar o âmbito, utilização e intenção é um sinal claro de que o trabalho estava a ser feito às pressas”, disse Mishi Chaudhary. “Os ministros são pessoas competentes, mas não têm a capacidade necessária para avaliar o modelo e emitir licença de funcionamento.”
“Não é nenhuma maravilha [has] “Isso evocou os sentimentos de licença raj da década de 1980”, acrescentou ela, referindo-se à burocracia que exigia permissão do governo para atividades empresariais que prevaleceu até o início da década de 1990, o que sufocou o crescimento económico e a inovação da Índia.
Ao mesmo tempo, isentar apenas startups selecionadas desta recomendação poderia ser problemático. Eles também podem causar reações ou alucinações politicamente tendenciosas se a IA produzir resultados falsos ou fabricados. Como resultado, a isenção “levanta mais questões do que respostas”, disse Misi.
Harsh Chowdhury disse acreditar que a intenção do governo por trás da regulamentação era responsabilizar as empresas que monetizam ferramentas de IA pelo seu uso incorreto. “No entanto, uma abordagem que prioriza a autorização pode não ser a melhor abordagem”, acrescentou.
sombra falsa profunda
A decisão da Índia de regular o conteúdo de IA também terá implicações geopolíticas, argumenta Shruti Shreya, gestor sénior do programa para regulação de plataformas no think tank de política tecnológica The Dialogue.
“Com uma base de utilizadores da Internet em rápido crescimento, as políticas da Índia podem estabelecer um precedente sobre a forma como outros países, especialmente os países em desenvolvimento, abordam a regulamentação de conteúdos de IA e a governação de dados”, disse ela.
Analistas dizem que responder às regulamentações de IA será um difícil ato de equilíbrio para o governo indiano.
Na Índia, onde se espera que milhões de indianos votem em eleições nacionais que provavelmente terão lugar em Abril e Maio, o aumento de ferramentas generativas de IA facilmente disponíveis e muitas vezes gratuitas fará com que a Índia já se tenha tornado um parque de diversões para meios de comunicação manipulados. Lança uma sombra sobre a integridade das eleições. Os principais partidos políticos da Índia continuam a utilizar deepfakes nas suas campanhas eleitorais.
Kamesh Shekhar, gestor sénior do programa especializado em governação de dados e IA no think tank The Dialogue, considera as recomendações recentes como parte dos esforços contínuos do governo para elaborar regulamentos abrangentes sobre IA generativa.
Antes disso, em novembro e dezembro de 2023, o governo indiano ordenou que as grandes empresas de tecnologia removessem produtos deepfake dentro de 24 horas após as reclamações, rotulassem a mídia manipulada e abordassem a desinformação. Ele pediu ao governo que abordasse o problema de forma proativa, mas não mencionou quaisquer penalidades claras por fazê-lo. Não cumprir a directiva.
Mas Shekhar também disse que as políticas que exigem que as empresas obtenham a aprovação do governo antes de lançar produtos sufocam a inovação. “Os governos podem considerar a criação de sandboxes ou ambientes de teste ao vivo onde as soluções de IA e as partes participantes possam testar seus produtos sem implantação em larga escala para determinar a confiabilidade”, disse ele.
No entanto, nem todos os especialistas concordam com as críticas do governo indiano.
A tecnologia de IA continua a evoluir a um ritmo acelerado, o que muitas vezes torna difícil para os governos acompanharem. Ao mesmo tempo, Hafiz Malik, professor de engenharia da computação da Universidade de Michigan especializado em detecção de deepfakes, disse que o governo precisa intervir na regulamentação. Ele disse que seria tolice deixar que as empresas se auto-regulassem, acrescentando que as recomendações do governo indiano eram um passo na direcção certa.
“As regulamentações precisam ser introduzidas pelos governos, mas não devem ser introduzidas às custas da inovação”, disse ele.
Mas, em última análise, o que é necessário é aumentar a consciência pública, acrescentou Malik.
“Ver algo e acreditar que agora está fora de questão”, disse Malik. “O problema do deepfake não pode ser resolvido a menos que o público esteja ciente. A conscientização é a única ferramenta para resolver um problema muito complexo.”