
Para ser claro, este não é um aviso de que os robôs dominarão o mundo e matarão todos que forem maus com eles (embora o meme seja engraçado).
Isso é como um discurso retórico sobre por que ser mau com a IA é ruim para você. Nos últimos meses, tenho trabalhado com diversas pessoas interessadas em usar modelos de linguagem em larga escala (LLMs), como o ChatGPT, em seu trabalho diário. As tarefas variavam desde ajudar-me a escrever um ensaio até escrever um rascunho de código ou depurar código existente.
Para a maioria das pessoas, a primeira interação com um LLM é ótima. Curiosamente, os programadores sem conhecimento de como funciona o LLM acham-no ainda mais atraente do que aqueles sem formação técnica.
Embora imperfeita, a experiência de conseguir fazer um computador realizar processamento por meio de linguagem natural é muito útil. Já vi pessoas integrarem LLMs em seu trabalho diário para fazer as coisas com mais rapidez e eficiência.
Mas também vi o lado negro da interação com modelos de linguagem. Superficialmente, os LLMs são muito parecidos com os humanos e podem lidar muito bem com tarefas simples. Isso proporciona uma experiência muito conveniente e humana.
Mas quando a tarefa se torna especializada e requer um pouco de interação com o modelo, o modelo pode interpretar mal as suas intenções, o que pode ser frustrante. E quando não obtêm a reação que esperavam, muitos se tornam vulgares e usam palavrões contra o modelo.
Quando você pergunta a eles por que agem dessa maneira, a resposta geralmente é algo como: “Porque eles são apenas robôs estúpidos sem emoções”. eles estão certos. LLM não tem emoções. eles não têm sentidos. Uma vez treinados, os parâmetros são bloqueados e cada vez que ocorre uma nova sessão de chat, o modelo é uma folha em branco e não se lembra de interações anteriores (a menos que tenha uma função de memória).
Não estou preocupado com as emoções da modelo. Estou preocupado com as pessoas que normalizam esse comportamento em suas interações profissionais. Ao contrário dos modelos de aprendizado de máquina, o cérebro humano não possui estágios separados de treinamento e inferência. Cada experiência reconfigura o cérebro e a repetição forma novos hábitos.
Mas por que isso é importante quando se trata de modelos de linguagem que estão se tornando cada vez mais humanos? Eles já derrotaram o clássico teste de Turing baseado em texto (embora ainda estejam longe de replicar muitos aspectos da inteligência humana). Já estamos atribuindo-lhes tarefas que anteriormente teríamos feito nós mesmos ou atribuídas a colegas. E já existem plataformas que colaboram com humanos adicionando agentes de IA à conversa. E o papel dos LLMs e dos agentes de IA só aumentará com o tempo.
Quanto tempo levará para que o comportamento abusivo contra agentes de IA se espalhe nas relações humanas? Quando humanos e LLMs compartilham o mesmo aplicativo de bate-papo, esses hábitos podem facilmente permear-se entre bots e humanos?
Vimos tendências semelhantes ocorrerem no passado. O pseudo-anonimato da Internet permitiu que as pessoas se comportassem de maneiras que não se comportariam quando estivessem cara a cara com outras pessoas no mundo físico. Porém, os hábitos formados na Internet acabaram influenciando também a vida real.
Isto é semelhante, mas de uma maneira diferente. Primeiro ignoramos os LLMs como seres sem emoção e nos permitimos envolver-nos em comportamentos abusivos. Mas não é o LLM que prejudicamos no processo. Somos nós mesmos.
Críticas duras e feedback honesto são muito bem-vindos. Mas o local de trabalho também precisa de um código de conduta profissional. Essas declarações podem parecer engraçadas e bobas agora. Espero poder dizer a mesma coisa daqui a dois anos.
Então, da próxima vez que você estiver frustrado com modelos de linguagem, seja gentil e leia o Manual de Engenharia Prompt. Não para agradar nossos senhores robôs, mas para nós mesmos.