A UE tornou-se o primeiro país do mundo a aprovar legislação para regular a inteligência artificial, mas alguns dizem que não vai suficientemente longe, enquanto outros argumentam que “restrições adicionais” podem prejudicar as empresas.
Desde o lançamento do ChatGPT, os decisores políticos europeus apressaram-se a desenvolver regras e avisos para as empresas tecnológicas, e esta semana marcou um marco monumental no estabelecimento das regras de inteligência artificial (IA) da UE.
Quarta-feira no Parlamento Europeu aprovado A Lei de Inteligência Artificial adota uma abordagem baseada no risco e garante que as empresas liberem produtos legalmente compatíveis antes de serem disponibilizados ao público.
No dia seguinte, a Comissão Europeia pediu ao Bing, Facebook, Google Search, Instagram, Snapchat, TikTok, YouTube e X detalhes sobre como limitam os riscos da IA generativa ao abrigo das respetivas leis.
As principais preocupações da UE incluem as ilusões da IA (quando os modelos cometem erros e inventam coisas), a propagação viral de deepfakes e a manipulação automatizada da IA que pode enganar os eleitores nas eleições. As comunidades têm as suas próprias queixas sobre o projeto de lei. Por outro lado, alguns investigadores afirmam que não é suficientemente eficaz.
monopólio tecnológico
Bruxelas merece “verdadeiros elogios” por ser a primeira jurisdição do mundo a aprovar regulamentações que reduzem muitos dos riscos da IA, mas há alguns problemas com o acordo final, disse Max, diretor europeu do Open Markets Institute.・O Sr. Von Thun disse.
Ele disse ao Euronews Next que existem “lacunas significativas para as instituições públicas” e “regulamentações relativamente fracas para os maiores modelos de fundações que causam mais danos”.
O modelo subjacente é um modelo de aprendizado de máquina treinado em dados e pode ser usado para realizar diversas tarefas, como escrever poesia. ChatGPT é o modelo básico.
Mas a maior preocupação de von Thun são os monopólios tecnológicos.
“A Lei da IA servirá para fortalecer e consolidar a maior ameaça atualmente representada pela IA: o poder extremo que algumas empresas de tecnologia dominantes já têm sobre nossas vidas pessoais, economias e democracias. lei”, disse ele.
Da mesma forma, a Comissão Europeia disse que deveria ter cuidado com o abuso monopolista no ecossistema de IA.
“A UE precisa de compreender que a escala dos riscos colocados pela IA está intimamente relacionada com a dimensão e o poder das empresas dominantes que desenvolvem e implantam estas tecnologias. No que nos diz respeito, não podemos lidar com sucesso com os primeiros”, disse von Thun disse.
No mês passado, a ameaça dos monopólios de IA ganhou destaque quando foi revelado que a startup francesa Mistral AI estava em parceria com a Microsoft.
Foi um choque para alguns na UE, já que a França procurou concessões à lei de IA de empresas de código aberto como a Mistral.
“Momento histórico”
No entanto, algumas startups acolheram favoravelmente a clareza que os novos regulamentos trazem.
Alex Combesy, cofundador e CEO da empresa francesa de IA de código aberto Giskard, disse: “A adoção final da lei de IA da UE pelo Parlamento da UE é um momento histórico e um alívio”.
Ele disse ao Euronews Next: “A lei impõe restrições e regras adicionais aos desenvolvedores de sistemas de IA de alto risco e modelos subjacentes, que são considerados ‘riscos sistémicos’.
“Este momento histórico abre caminho para um futuro onde a IA será usada de forma responsável para promover a confiança e manter todos seguros”, disse ele.
A lei funciona diferenciando os riscos apresentados pelo modelo subjacente com base no poder computacional que o treinou. Os produtos de IA que excedam um limite de poder computacional serão regulamentados de forma mais rigorosa.
Esta classificação é considerada um ponto de partida e poderá ser considerada pelo comitê da mesma forma que outras definições.
“Bens públicos”
Contudo, nem todos concordam com esta classificação.
“Do meu ponto de vista, os sistemas de IA utilizados no setor da informação deveriam ser classificados como de alto risco e estar sujeitos a regras mais rigorosas, o que está claramente na lei de IA da UE adotada. Não é o caso”, afirma a gestora de políticas Katharina Tügel. No Fórum sobre Informação e Democracia.
“A Comissão com poderes para alterar os casos de utilização de sistemas de alto risco pode referir-se explicitamente aos sistemas de IA utilizados no setor da informação como de alto risco, tendo em conta o impacto nos direitos fundamentais. Sim”, disse ela ao Euronews Next.
“Não são apenas as empresas privadas que impulsionam o nosso futuro comum. A IA deve ser um bem público”, acrescentou.
Mas outros argumentam que as empresas também precisam de ter uma palavra a dizer e de ser capazes de cooperar com a UE.
“É vital que a UE aproveite o dinamismo do setor privado, que impulsionará o futuro da IA. Fazer isto corretamente tornará a Europa mais competitiva e mais atraente para os investidores. “É importante para nós termos sucesso”, afirmou Julie- Lynn Teigland, sócia-gerente da EY Europa, Oriente Médio, Índia e África (EMEIA).
No entanto, ela disse que as empresas dentro e fora da UE devem preparar-se antecipadamente para a entrada em vigor da lei. Isto significa “tomar medidas para garantir que a sua empresa desenvolva os sistemas de IA, bem como um inventário atualizado desses sistemas”. ”
“Sabor agridoce”
Para startups e pequenas empresas, isso pode significar ainda mais trabalho.
“Esta decisão tem um sabor agridoce”, disse a chefe de comunicações da France Digital, Marianne Trudeau-Bittker.
“A Lei AI aborda grandes desafios em termos de transparência e ética, mas apesar de alguns ajustes planejados para start-ups e pequenas empresas, particularmente através da sandbox regulatória, ou impõe obrigações substanciais a todas as empresas que a desenvolvem.
“Estamos preocupados com o facto de este documento apenas criar barreiras regulamentares adicionais que beneficiam a concorrência entre os EUA e a China e reduzem as hipóteses de surgir um campeão europeu da IA”, acrescentou.
“Implementação eficaz”
No entanto, mesmo que a Lei da IA seja aprovada, a aplicação será o próximo desafio.
“O foco mudou agora para a sua implementação e execução eficazes. Isto requer um foco renovado na legislação complementar”, disse Liszt Wouk, chefe de investigação da UE no Instituto sem fins lucrativos Future of Life.
Essa legislação complementar inclui a Diretiva de Responsabilidade de IA, que visa apoiar reclamações por danos causados por produtos e serviços habilitados para IA, e a Diretiva de Responsabilidade de IA da UE, que visa agilizar a aplicação do regulamento. Inclui secretariado.
“Um ponto-chave para garantir que a lei seja digna de documentação escrita é que a Autoridade de IA tenha os recursos para realizar as tarefas que lhe foram designadas, e que o Código Geral de Práticas de IA seja: “Deve ser devidamente redigido para incluir o conteúdo da sociedade civil”, disse ele.