Todos os anos, participo da ILTACON na esperança de assistir a pelo menos algumas das esmagadoras sessões educativas e aprender algo sobre tecnologia jurídica com os decisores que impulsionam a sua adoção. E todo ano não consigo ver as sessões. Porque, francamente, há muita coisa acontecendo fora da sessão para fazer uma pausa de uma hora e focar no aprendizado.
Cada fornecedor está exibindo suas atualizações mais recentes, os integradores do setor estão ocupados com a consolidação e há tanta conversa franca sobre guerra de implementação nos corredores (e bares) que você não pode deixar de participar. Infelizmente é isso que me afasta das sessões. Obviamente, minhas prioridades como repórter não são as mesmas da maioria dos participantes, mas mesmo os mais comprometidos com o programa educacional estavam enfrentando um milhão de direções diferentes no último dia. Você se arrependerá de ter perdido um painel interessante. Mas é isso que você obtém ao construir um dos pilares do seu calendário de tecnologia jurídica.
Mas é também por isso que o ILTA Evolve é uma adição inteligente ao seu calendário de conferências. Cobrimos apenas dois tópicos importantes por ano e nunca agendamos mais de duas sessões de duelo por vez. Esta é a sua chance de sentar e realmente ouvir algumas sessões.
O evento deste ano abordou privacidade/segurança e IA generativa, pelo que é evidente que a sessão inicial se concentrará na relação entre os dois. “Privacidade versus segurança – Como a GenAI representa desafios para ambos”, por Leanna Martinez, gerente de soluções da Munger Tolles & Olson e consultora sênior de tecnologia e gerenciamento de mudanças da Traveling Coaches, explica o momento iminente de adoção da GenAI para as empresas. Navegar.
Com o objetivo de estabelecer as bases, Martinez detalhou uma variedade de ferramentas de IA que seus parceiros definitivamente chamarão de “ChatGPT”, não importa o que aconteça. Mas para os mais experientes em tecnologia, este mundo está cheio de produtos gratuitos para consumidores, como o já mencionado ChatGPT, versões de nível empresarial dessas tecnologias e produtos específicos da lei, como CoCounsel e Lexis + AI. É classificado como um produto. Talvez seja desnecessário dizer que o perfil de risco de cada categoria passa do mais profundo dos sinais de alerta com cautela e preocupação moderada. Leckie citou uma conversa em que lhe disseram para pensar na GenAI pública como o “oposto” da segurança de dados. .
É inevitável que os advogados ignorem consistentemente a linha entre “ChatGPT” e “nosso ChatGPT corporativo”. Os próximos anos serão um verdadeiro inferno para a TI.
Os advogados não precisam necessariamente conhecer todo o processo que a equipe técnica implementa para evitar que uma empresa se torne um conto de advertência, mas o que é feito para colocar a nova tecnologia sob o controle de uma empresa no nível de 30.000 pés pode ajudá-lo a entender. teto.

O processo de avaliação inclui privacidade e confidencialidade dos dados do produto, treinamento de modelo e segurança de implantação, políticas de processamento e retenção de dados, segurança e confiabilidade do fornecedor, riscos de parcialidade e imparcialidade e considerações legais e éticas. Isso não é necessariamente exclusivo da IA. A maioria dos produtos aborda essas preocupações, mas o processo está em andamento antes mesmo que os advogados percebam o problema.
A preparação do ambiente interno inclui o estabelecimento de todas as permissões, firewalls, criptografia, sistemas de monitoramento, trilhas de auditoria e uma estratégia de resposta a crises. É aqui que alguns usuários sortudos do programa piloto descobrem exatamente o quanto seu produto irá quebrar antes que tudo dê errado.
A próxima etapa é onde o resto de vocês se junta. Este é um termo cunhado pelo Sr. Martinez, “curinga”. Aqui eles treinam seus usuários e imploram que não ignorem todo o trabalho e despejem os dados pessoais do cliente no ChatGPT. Mas antes que se torne um batente digital sofisticado, talvez seja necessário convencer os advogados a realmente usar o produto. Ao compreender o trabalho necessário para levar um produto até aqui, no momento em que você receber o treinamento, o resto da sua empresa saberá o quão confiante você está em seu produto.
Você não é um floco de neve único e especial trazido desde o primeiro dia para ter uma opinião sobre um produto. Você entrou no jogo na terceira base. Por favor, aja assim.
O próximo assunto do modelo, o modelo GPT interno, envolve empresas construindo seu próprio LLM do zero. A conclusão geral a tirar disso é… não faça isso. Poucas empresas têm os recursos para fazê-lo adequadamente, e se uma empresa ainda não sabe se possui tais recursos, pode não tê-los de fato. Portanto, não diga à sua equipe técnica: “Por que não construímos nossa própria IA?” Quero dizer, quão difícil é? ”
Finalmente, mesmo quando tudo estiver instalado e funcionando, o lado da tecnologia permanece vigilante para evitar envenenamento de dados, roubo de modelos, roubo de propriedade intelectual, violações de privacidade, riscos de implantação e uso indevido do conteúdo gerado.
Portanto, não se trata de “comprar IA”. Isso é feito intencionalmente porque é um processo detalhado e os riscos são maiores do que a espionagem de 20 de abril. Entenda o seu lugar na máquina que trará as empresas para o século XXI.
Joe Patrice é editor sênior da Above the Law e co-apresentador do Thinking Like A Lawyer. Se você tiver alguma dica, dúvida ou comentário, sinta-se à vontade para nos enviar um e-mail.Siga-o Twitter Se você estiver interessado em notícias sobre direito, política e esportes universitários. Joe também atua como Diretor Geral da RPN Executive Search.


