Numa série de registros recentes da SEC, empresas líderes de tecnologia como Microsoft, Google, Meta e NVIDIA destacaram riscos significativos associados ao desenvolvimento e implantação de inteligência artificial (IA).
Estas divulgações refletem preocupações crescentes sobre o potencial da IA para causar danos à reputação, responsabilidade legal e escrutínio regulatório.
Preocupações com IA
A Microsoft expressou otimismo em relação à IA, mas alertou que a má implementação e desenvolvimento poderiam resultar em “danos e responsabilidades à reputação e à concorrência” para si mesma. Destacámos a integração generalizada da IA nos produtos e os riscos potenciais associados a estes avanços. A empresa destacou várias preocupações, incluindo algoritmos falhos, conjuntos de dados tendenciosos e conteúdo prejudicial gerado pela IA.
A Microsoft reconheceu que as más práticas de IA podem levar a problemas legais, regulatórios e de reputação. A empresa também observou o impacto da legislação atual e proposta que poderia complicar ainda mais a adoção e aceitação da IA, como a Lei de IA da UE e a Ordem Executiva de IA dos EUA.
O documento do Google ecoou muitas das preocupações da Microsoft e destacou a evolução dos riscos associados aos esforços de IA da empresa. A empresa identificou possíveis problemas relacionados a conteúdo prejudicial, imprecisões, discriminação e privacidade de dados.
O Google destacou os desafios éticos colocados pela IA e a necessidade de investimentos significativos para gerir estes riscos de forma responsável. A empresa também reconheceu que poderá não ser capaz de identificar ou resolver todos os problemas relacionados com a IA antes que estes ocorram, o que poderia levar a ações regulatórias e danos à reputação.
Meta disse que seus esforços de IA “podem não ter sucesso” e podem representar riscos comerciais, operacionais e financeiros semelhantes. A empresa alertou que continha riscos significativos, incluindo o potencial de conteúdo prejudicial ou ilegal, desinformação, preconceito e ameaças à segurança cibernética.
A Meta expressou preocupação com a evolução do cenário regulatório, observando que uma supervisão nova ou aumentada poderia ter um impacto negativo nos seus negócios. A empresa também destacou as pressões competitivas e os desafios colocados por outras empresas que desenvolvem tecnologias de IA semelhantes.
Embora a Nvidia não tenha dedicado uma seção aos fatores de risco da IA, ela mencionou extensivamente o problema em suas preocupações regulatórias. A empresa discutiu o impacto potencial de diversas leis e regulamentos, incluindo aqueles relacionados à propriedade intelectual, privacidade de dados e segurança cibernética.
A NVIDIA destacou desafios específicos colocados pela tecnologia de IA, incluindo controles de exportação e tensões geopolíticas. A empresa observou que o maior foco regulatório na IA poderia levar a custos de conformidade significativos e interrupções operacionais.
A Nvidia, como outras empresas, destacou as leis de IA da UE como um exemplo de regulamentações que poderiam levar a ações regulatórias.
Os riscos não são necessariamente prováveis de ocorrer
A Bloomberg relatou a notícia pela primeira vez em 3 de julho, observando que era improvável que os fatores de risco divulgados ocorressem. Em vez disso, a divulgação é um esforço para evitar responsabilidades.
Adam Pritchard, professor de direito societário e de valores mobiliários na Faculdade de Direito da Universidade de Michigan, disse à Bloomberg:
“Se uma empresa não divulgar os riscos enfrentados por outras empresas do seu setor, poderá estar sujeita a litígios”.
A Bloomberg também identificou Adobe, Dell, Oracle, Palo Alto Networks e Uber como outras empresas que publicaram divulgações de risco de IA em arquivos da SEC.

