A inteligência artificial (IA) evoluiu rapidamente de uma promessa futura para uma realidade atual. A IA generativa emergiu como uma tecnologia poderosa que pode ser aplicada a uma infinidade de contextos e casos de uso. Cada um tem seus próprios riscos potenciais e envolve diversas partes interessadas. À medida que as empresas aceleram a adoção da IA, encontramo-nos numa encruzilhada crítica. São necessárias políticas proativas e uma governação inteligente para que a IA evolua como uma força confiável e imparcial. Agora é o momento de moldar um quadro político que maximize o potencial benéfico da IA e, ao mesmo tempo, mitigue os riscos.
São necessárias políticas proativas e uma governação inteligente para que a IA evolua como uma força confiável e imparcial.
A UE e o ritmo da inovação em IA
A União Europeia tem liderado o caminho na política de IA há muitos anos. Em abril de 2021, a empresa anunciou um pacote de IA contendo uma proposta de estrutura regulatória para IA.
Estes primeiros passos desencadearam um debate sobre a política de IA num contexto de aceleração da inovação e da mudança tecnológica. Tal como a computação pessoal democratizou o acesso à Internet e a acessibilidade da codificação e impulsionou a criação de mais tecnologias, a IA é o mais recente catalisador para desencadear a inovação futura a um ritmo sem precedentes. No entanto, com capacidades tão poderosas vem uma grande responsabilidade. Precisamos de dar prioridade a políticas que aproveitem esse poder e, ao mesmo tempo, nos protejam de danos. Para fazer isso de forma eficaz, você precisa reconhecer e abordar as diferenças entre IA empresarial e de consumo.
Precisamos reconhecer e abordar as diferenças entre a IA empresarial e a IA de consumo.
IA empresarial e IA do consumidor
A Salesforce atua ativamente em pesquisa e desenvolvimento de IA desde 2014, introduziu os primeiros recursos de IA em nossos produtos em 2016 e estabeleceu o Escritório de Uso Ético e Humano da Tecnologia em 2018. fez isso. A confiança é o nosso valor mais importante. É por isso que nossos serviços de IA são baseados em confiança, segurança e ética. Como muitas tecnologias, a IA tem múltiplos usos. Muitas pessoas já estão familiarizadas com modelos de linguagem em larga escala (LLMs) por meio de aplicativos de consumo como o ChatGPT. A Salesforce é líder no desenvolvimento de ferramentas de IA empresarial, e nossa abordagem diferencia entre LLMs de consumo e o que é classificado como IA empresarial.
A IA empresarial é projetada e treinada especificamente para ambientes de negócios, enquanto a IA do consumidor é aberta e pode ser usada por qualquer pessoa. A Salesforce cria e implanta IA de gerenciamento de relacionamento com o cliente (CRM) empresarial, não o espaço de IA do consumidor. Isso significa que nossa IA é especializada em ajudar nossos clientes a atender às suas necessidades comerciais exclusivas. Conseguimos isso na Gucci usando o Einstein for Service. Ao trabalhar com o Centro Global de Atendimento ao Cliente da Gucci, ajudamos a criar uma estrutura padronizada, flexível e alinhada com a voz da marca, permitindo que os consultores de clientes personalizem as experiências únicas de seus clientes.
Além do público-alvo, a IA do consumidor e a IA empresarial diferem em várias outras áreas importantes.
- Contexto — Em aplicações empresariais de IA, as entradas e saídas potenciais são frequentemente limitadas por modelos de design específicos do negócio. Como a IA de consumo normalmente executa tarefas comuns que podem variar amplamente dependendo de seu uso, ela é suscetível de uso indevido, como exacerbação de resultados discriminatórios devido ao uso de fontes de dados não treinadas ou de material protegido por direitos autorais, e é mais provável que ocorram efeitos prejudiciais.
- Dados — Os sistemas empresariais de IA dependem de dados selecionados, normalmente obtidos com o consentimento de clientes empresariais e implantados em um ambiente mais controlado, o que limita o risco de ilusões e melhora a precisão. Os dados do consumidor de IA, por outro lado, podem vir de uma ampla gama de fontes não verificadas.
- Privacidade, segurança e precisão dos dados — Os clientes corporativos geralmente têm requisitos regulatórios exclusivos que exigem controles robustos de privacidade, segurança e responsabilidade dos provedores de serviços para evitar preconceitos, toxicidade e alucinações. As empresas de IA empresarial são incentivadas a fornecer salvaguardas adicionais, uma vez que a sua reputação e vantagem competitiva dependem disso. Os aplicativos de IA para consumidores não possuem requisitos tão rigorosos.
- Obrigações contratuais — A relação entre um fornecedor empresarial de IA e os seus clientes baseia-se em contratos ou regras de aquisição que esclarecem os direitos e obrigações de cada parte e como os dados são processados. Os produtos empresariais de IA passam por ciclos regulares de revisão para garantir o alinhamento contínuo com os altos padrões de nossos clientes e para responder ao cenário de risco em evolução. Em contraste, as empresas de IA ao consumidor oferecem termos e condições do tipo pegar ou largar que informam aos usuários quais dados são coletados e como serão usados, e permitem que os consumidores negociem proteções individuais.
Quadro político para inovação ética
A Salesforce atende organizações de todos os tamanhos, jurisdições e setores. Estamos numa posição única para observar tendências globais em tecnologia de IA e identificar áreas de desenvolvimento de riscos e oportunidades.
Humanos e tecnologia funcionarão melhor juntos. A transparência é importante para facilitar a supervisão humana da tecnologia de IA. Isto significa que os humanos precisam de controlar os sistemas de IA e compreender as suas utilizações e limitações apropriadas.
Outro elemento importante de uma estrutura de governança de IA é o contexto. Os modelos de IA utilizados em situações de alto risco podem ter um impacto significativo nos direitos e liberdades dos indivíduos, incluindo consequências económicas e físicas, ou impacto na sua dignidade, no direito à privacidade e no direito à não discriminação. Estes casos de utilização de “alto risco” devem ser uma prioridade para os decisores políticos.
Os seres humanos precisam de controlar os sistemas de IA e compreender as suas utilizações e limitações adequadas.
A Lei da UE sobre IA fará exatamente isso, abordando os riscos da IA e garantindo a segurança das pessoas e das empresas. Criar um quadro regulamentar que defina quatro níveis de risco para os sistemas de IA (mínimo, limitado, elevado e inaceitável) e atribua obrigações em conformidade.
Leis abrangentes de proteção de dados e práticas sólidas de governança de dados são a base da IA responsável. Por exemplo, o Regulamento Geral de Proteção de Dados (GDPR) da UE moldou a regulamentação global sobre privacidade de dados usando uma abordagem baseada em risco semelhante à Lei de IA da UE. Isto inclui os seguintes princípios que impactam a regulamentação da IA: justiça. segurança de dados; e transparência. O GDPR estabelece o padrão para a lei de proteção de dados e é um fator determinante na forma como os dados pessoais são gerenciados em sistemas de IA.
Parceria para o futuro
Navegar no ambiente de IA empresarial é um esforço de múltiplas partes interessadas que não podemos enfrentar sozinhos. Felizmente, os governos e as organizações multilaterais como os EUA, o Reino Unido, o Japão, a ONU, a UE, o G7 e a OCDE estão a começar a trabalhar em conjunto para moldar estruturas regulamentares que promovam a inovação e a segurança. Ao construir as parcerias intersectoriais certas e trabalhar em conjunto em torno de um quadro de governação baseado em princípios, podemos desbloquear todo o potencial transformador da IA, ao mesmo tempo que damos prioridade às pessoas e à ética.
Saiba mais sobre as recomendações da política de IA empresarial da Salesforce.

