Uma das grandes preocupações sobre o surgimento desses produtos AI CliffsNotes é o quanto eles tendem a errar. É fácil ver como os resumos alimentados por IA sem intervenção humana podem não apenas fornecer informações incorretas, mas, em alguns casos, fornecer resultados perigosamente errôneos. Por exemplo, em resposta a uma consulta de pesquisa perguntando por que o queijo não gruda na pizza, a IA do Google sugeriu: “Devo adicionar 1/8 xícara de cola não tóxica ao molho para aumentar a viscosidade”. (O ou calor. '' Isso é tão bom quanto cruzar os dedos e torcer pelo melhor para salvar sua vida. Outras consultas de pesquisa geraram informações completamente incorretas, como uma pergunta que perguntava qual presidente frequentou a Universidade de Wisconsin-Madison, e mesmo que o presidente Andrew Jackson tenha morrido há 160 anos, em 1845. No entanto, o Google explicou que ele frequentou a Universidade de Wisconsin em 2005.
O Google disse em um blog na quinta-feira que está reduzindo alguns de seus resultados agregados em certas áreas e trabalhando para resolver os problemas identificados. “Temos monitorado de perto o feedback e os relatórios externos e abordamos um pequeno número de resumos de IA que violam nossas políticas de conteúdo.” Liz ReedO chefe de busca do Google disse isso no site da empresa. “Isso significa resumos contendo informações potencialmente prejudiciais, obscenas ou de outra forma violadoras.”
O Google também está tentando acalmar as preocupações dos editores. Em outra postagem no mês passado, Reed confirmou que a empresa descobriu que “os links incluídos nos resumos de IA recebem mais cliques do que se a página fosse vista como uma listagem tradicional da web para essa consulta. E à medida que o Google expande essa experiência, continuamos focados no envio”. tráfego valioso para editores e criadores.
A IA pode refutar factos, mas carece da compreensão humana e do contexto necessários para uma análise verdadeiramente perspicaz. O potencial de simplificação excessiva e deturpação de questões complexas nos resumos de IA pode prejudicar ainda mais o debate público e levar à propagação perigosa de desinformação. Isso não quer dizer que os humanos não possam fazer isso. Se a última década das redes sociais nos ensinou alguma coisa, é que os humanos são mais do que capazes de espalhar desinformação e priorizar os seus próprios preconceitos sobre os factos. Mas à medida que os resumos gerados pela IA se tornam cada vez mais populares, esse conteúdo pode tornar-se cada vez mais difícil de aceder, mesmo para aqueles que ainda valorizam um jornalismo bem pesquisado e matizado. Se as condições económicas na indústria noticiosa continuarem a deteriorar-se, poderá ser demasiado tarde para evitar que a IA se torne o principal guardião da informação, com todos os riscos que isso acarreta.
A reacção da indústria noticiosa a esta ameaça tem sido mista. Alguns meios de comunicação processaram a OpenAI por violação de direitos autorais. tempos de Nova York Outras empresas decidiram fazer negócios com eles. essa semana atlântico A Vox se tornou a última organização de notícias a assinar um acordo de licenciamento com a OpenAI, permitindo-lhe usar o conteúdo da empresa para treinar modelos de IA. Os modelos de IA podem ser considerados robôs de treinamento para conseguir empregos mais rapidamente. Grandes empresas de mídia já participam, incluindo News Corp, Axel Springer e Associated Press. Ainda assim, para provar que não está em dívida com os donos da máquina, atlântico No mesmo dia do CEO, a mídia publicou um artigo sobre o “acordo do diabo” com a OpenAI. Nicholas Thompson anunciou uma parceria.
Outro investidor com quem conversei descreveu a situação como semelhante a uma cena de filme. Tom Stoppardsan Arcádia, Nele, um personagem afirma que se alguém mexer a geléia em uma direção e misturá-la no mingau, mexer na direção oposta não mudará a geléia. “O mesmo se aplica a todos esses produtos de resumo”, continua o investidor. “Dizer a alguém que você não deseja que o artigo seja curto não significa que essa pessoa possa remover o conteúdo.”
Mas aqui surge uma questão. Digamos que Google, OpenAI e Facebook tenham sucesso e lemos resumos de notícias em vez de notícias reais. Eventualmente, essas organizações de notícias sairão do mercado. Quem resta então para criar o conteúdo que precisa ser resumido? Ou talvez isso não importe até então? Porque seremos tão preguiçosos e obcecados por conteúdos curtos que a IA escolherá resumir tudo em uma palavra, como Iltnog.

