Dada a rapidez com que as ferramentas de IA estão avançando e quão capazes são de escrever textos que soam humanos, muitos estão estimando que existe uma singularidade no texto, o que significa que todo texto online é falso. Estou começando a me perguntar a que distância estou do texto. momento em que terminei. . Uma fonte estima que aproximadamente 90% do conteúdo da web será automatizado até 2026. Isso é certamente um exagero, mas em quanto?
A Lei de Inteligência Artificial e Dados do Canadá, atualmente em apreciação no Parlamento, e a Lei de IA recentemente aprovada pela UE exigirão que a OpenAI, o Google e outros fornecedores de IA generativa coloquem marcas d’água (marcar que parte do seu conteúdo é IA). a inclusão de alguma característica que indique gerado. Os esforços para regulamentar a IA estão seguindo o exemplo nos Estados Unidos. Uma lei na China permite que as empresas forneçam conteúdo gerado apenas se estiver marcado como tal.
No entanto, a nova legislação no Canadá e na UE que propõe a marca de água como uma medida de protecção eficaz baseia-se na premissa de que é tecnicamente viável. Este pode ser o caso de imagens ricas em dados, onde os padrões dentro das imagens podem ser facilmente ocultados ou marcados como IA nos metadados. No entanto, o texto não é rico em dados, por isso é muito difícil marcá-lo de forma eficaz.
Como outros apontaram, os criadores de sistemas de IA podem inserir padrões no texto, incluindo pontuação e padrões de palavras que ocultam o código. No entanto, estes podem ser facilmente removidos com uma simples edição. A coincidência também pode causar falsos positivos. Você pode tentar tornar o padrão ou a assinatura mais extenso, mas isso reduzirá a qualidade da saída.
O impasse tecnológico aponta para dois futuros possíveis para os textos online.
Muitos céticos da IA descartam as preocupações com o texto automatizado, considerando-as exageradas. Sim, grande parte da web se tornará um “deserto” de bots. Muitos dos feeds algorítmicos das principais plataformas como Google, Facebook e Amazon consistirão em texto sintético. Mas como sempre podemos identificá-lo, nos tornamos melhores em nos livrar dele.
A teoria aqui é que o texto automatizado não será muito melhor. Talvez a música e as imagens sim, mas o texto não. Não importa quão sofisticado seja um modelo como GPT-5 ou GPT-6, não importa quão grande ou rico seja o conjunto de treinamento, seu resultado nunca será mais do que um resumo de conhecimento e informações. Pode ser mais estiloso e humano, mas nunca é suficiente para a textura autêntica e única que caracteriza uma boa escrita.
Além do mais, a IA nunca será capaz de gerar texto que forneça insights ou perspectivas que direcionem você a locais onde você possa encontrar uma visão informada do desenrolar dos eventos.

Nicholas Cocobris/Nurfoto/Getty Images
A escola adversária está menos convencida. Algumas fontes de notícias provavelmente nunca serão criadas inteiramente pela IA. Mas os chatbots tornaram-se tão poderosos que podemos ver um futuro em que a maioria dos artigos, mesmo nos locais literários mais prestigiados, serão gerados pela IA. A escrita aqui envolve apenas uma pequena intervenção humana, mas na maioria dos outros lugares o texto é totalmente sintético.
Pesquisas recentes sobre a natureza dos modelos de linguagem e da cognição podem ajudar a resolver este debate a favor dos céticos. Há boas razões para acreditar que a singularidade textual nunca se materializará. Os chatbots não assumirão o controle da sua revista literária favorita.
O medo de que a IA generativa se torne tão boa que substitua a maior parte da nossa escrita decorre da confusão da razão “computacional” com a razão humana. Um novo artigo de dois investigadores da Universidade de Oxford baseia-se num crescente corpo de investigação que procura moderar o nosso entusiasmo pelos milagres da IA generativa, destacando as diferenças no caso dos modelos de linguagem em particular.
Os modelos criam a ilusão de inteligência através da magia dos algoritmos preditivos. Eles trabalham em um grande “conjunto de treinamento” de dados que consiste em textos anteriores analisados em padrões específicos. Quando um bot gera texto em resposta a um prompt, ele está, na verdade, realizando um tipo de tradução do texto anterior no qual foi treinado. Pesquisadores da Universidade de Oxford explicam que o que para nós parece inteligência é principalmente “um epifenômeno do fato de que a mesma coisa pode ser declarada, dita ou expressa de uma infinidade de maneiras”.
Uma solução atualmente em alta para o problema de alucinações de modelos de linguagem e lacunas de conhecimento onde a IA gera texto impreciso ou sem sentido é a geração aumentada de pesquisa. Desenvolvido por GPT4, o Bing Chat verifica a web para verificar afirmações factuais antes de responder às solicitações. No entanto, isso apenas estende a atualidade dos dados de treinamento para alguns minutos atrás. Não aborda o problema mais profundo de que os chatbots só podem repetir o que já foi dito.
Se recuarmos e pensarmos sobre isso, podemos ver que os modelos de linguagem podem tornar-se melhores na imitação da linguagem humana e podem até parecer mais convincentes para nós, como humanos. Mas a diferença qualitativa que nunca poderão superar é um impasse fundamental no pensamento. Eles só podem resumir, traduzir e reformular. Eles não podem oferecer novas teorias, insights reais ou mudanças de paradigma.
A melhor resposta política às preocupações de que a Internet será dominada por bots é fortalecer a reputação de conhecimento, confiança e verdade. Nesta versão do futuro, a IA é menos uma ameaça e mais uma ajuda para esclarecer os nossos objetivos e valores.
Robert Diab é professor de direito na Thomson Rivers University em Kamloops, British Columbia. Centro Internacional de Inovação em Governança.
As opiniões expressas neste artigo são de responsabilidade do autor.
conhecimento raro
A Newsweek está comprometida em desafiar a sabedoria convencional, encontrando pontos em comum e encontrando conexões.
A Newsweek está comprometida em desafiar a sabedoria convencional, encontrando pontos em comum e encontrando conexões.

