Depois de lutar durante quatro anos para lidar com a dor após a morte de sua mãe, a atriz Shirine Maras recorreu a uma ferramenta de IA que afirma “simular os mortos”.
por Arthi Nachiappan, correspondente de tecnologia
Terça-feira, 12 de março de 2024, 02h19, Reino Unido
Após a morte de sua mãe, Shirine Maras procurava desesperadamente uma saída para o luto.
“Quando você está fraco, você aceita qualquer coisa”, diz ela.
A atriz foi separada de sua mãe Nadja depois de imigrar de sua Síria natal para a Alemanha em 2015.
Em Berlim, Sirine deu à luz seu primeiro filho, uma filha chamada Ishtar, mas ela queria mais do que tudo conhecer sua mãe. Mas antes que a oportunidade se apresentasse, a tragédia aconteceu.
Nadja faleceu repentinamente aos 82 anos devido a insuficiência renal em 2018.
“Ela foi uma força orientadora em minha vida”, diz Shirine sobre sua mãe. “Ela me ensinou como me amar.
“Tudo foi brutal porque aconteceu tão de repente.
“Eu realmente queria que ela conhecesse sua filha e tivesse um último reencontro.”
Shirine diz que a dor era insuportável.
“Eu só quero uma saída”, acrescentou ela. “Sobre todas essas emoções… se você deixar isso aí, isso começa a te matar, começa a te sufocar.
“Eu queria uma última chance (de falar com ela).”
Depois de quatro anos lutando para processar sua perda, Shireen recorreu ao Projeto Dezembro. Lá Uma ferramenta que afirma “simular os mortos”.
Os usuários preenchem um pequeno formulário online com informações sobre a pessoa falecida, incluindo idade, parentesco com o usuário e uma citação da pessoa.
As respostas são então inseridas em um chatbot de IA que possui os seguintes recursos: OpenAI GPT2, uma versão inicial do modelo de linguagem em larga escala por trás do ChatGPT. Isso gera um perfil baseado na memória do usuário sobre a pessoa falecida.
Esses modelos são normalmente treinados em um grande número de livros, artigos e textos na Internet para gerar respostas a perguntas de maneira semelhante às ferramentas de previsão de palavras. As respostas não são baseadas em precisão factual.
Por um custo de US$ 10 (cerca de £ 7,80), os usuários podem enviar mensagens ao chatbot por cerca de uma hora.
Para Sirine, os resultados do uso do chatbot foram “assustadores”.
“Houve momentos que pareceram muito reais”, diz ela. Houve momentos em que pensei que alguém iria responder isso.
Imitando a mãe, a mensagem do chatbot dirigiu-se a ela pelo nome do animal de estimação que ela havia preenchido em um formulário online, perguntou se ela estava comendo bem e disse que estava cuidando dela.
“Sou uma pessoa um pouco espiritual, então isso parecia um veículo”, diz Shirine.
“Minha mãe saberia de uma palavra para outra se era realmente eu ou se alguém estava apenas fingindo ser eu, e acho que houve momentos como esse.”
O Projeto Dezembro tem mais de 3.000 usuários, a maioria dos quais o utiliza para imitar uma conversa com um ente querido falecido.
Jason Lawler, fundador do serviço, disse que os usuários normalmente são pessoas que lidam com a perda repentina de um ente querido.
“A maioria das pessoas que usa o Projeto Dezembro para esse fim tem essa conversa final com seu ente querido falecido em formato simulado e depois segue em frente”, diz ele.
“Portanto, há muito poucos clientes que continuam voltando e mantêm essa pessoa viva.”
Ele diz que não há muitas evidências de que as pessoas fiquem “viciadas” nas ferramentas e tenham dificuldade em abandoná-las.
No entanto, existem preocupações de que tais ferramentas possam interferir no processo natural de luto.
Billy Dunleavy, terapeuta certificado pela Associação Britânica de Aconselhamento e Psicoterapia, diz: 'Uma grande parte da terapia do luto é aprender a aceitar a ausência – aprender a reconhecer uma nova realidade, um novo normal… Por favor, interrompa.'
👉 Ouça acima e toque aqui para seguir o Sky News Daily onde quer que você obtenha seus podcasts 👈
Após o luto, algumas pessoas tornam-se retraídas e isoladas, dizem os terapeutas.
Além disso, ela acrescentou: “Existe esta vulnerabilidade e o potencial para criar uma versão fantasma de um pai perdido, de um filho perdido ou de um amigo perdido.
“E isso pode ser muito prejudicial para as pessoas que estão realmente superando o luto, seguindo em frente e se recuperando”.
Atualmente não existem regulamentações específicas que regem o uso da tecnologia de IA para imitar os mortos.
O primeiro quadro jurídico abrangente do mundo para a IA passou a sua fase final no Parlamento Europeu, onde os regulamentos serão aplicados com base no nível de risco representado pelas diferentes utilizações da IA.
consulte Mais informação:
Chatbot de atendimento ao cliente classifica a empresa como a “pior empresa de entrega”
Imagens falsas de IA continuam a se espalhar – aqui estão 8 imagens que estão prendendo as pessoas
Drone AI “mata” operador humano durante “simulação”
O chatbot do Projeto Dezembro deu a Sirine parte da solução de que ela precisava, mas alertou as famílias para agirem com cuidado.
“É tão conveniente e revolucionário”, diz ela.
“Tive cuidado para não me envolver muito.
“Vejo pessoas facilmente se viciando em seu uso, desiludidas e querendo acreditar até piorar.
“Não recomendo ficar muito apegado a algo assim porque pode ser perigoso.”