
A OpenAI anunciou recentemente um sistema de cinco níveis para avaliar o progresso da empresa no desenvolvimento da inteligência artificial geral (AGI), de acordo com um porta-voz da OpenAI em entrevista à Bloomberg. A empresa compartilhou o novo sistema de classificação com os funcionários na terça-feira, durante uma reunião geral, com o objetivo de fornecer uma estrutura clara para a compreensão dos avanços na IA. No entanto, este sistema descreve uma tecnologia hipotética que ainda não existe e é provavelmente melhor interpretada como um esforço de marketing para atrair fundos de investimento.
A OpenAI afirmou anteriormente que AGI (um termo ambíguo que denota um conceito hipotético que se refere a um sistema de IA que pode realizar novas tarefas como um ser humano sem treinamento especializado) é o principal objetivo da empresa no momento. A busca da empresa por uma tecnologia que possa substituir os humanos nas tarefas intelectuais é responsável por grande parte do entusiasmo duradouro sobre a empresa, embora essa tecnologia possa causar estragos na sociedade.
O CEO da OpenAI, Sam Altman, declarou anteriormente sua crença de que a AGI pode ser alcançada na próxima década, e muitas das mensagens públicas do CEO se concentraram na disrupção potencial que a AGI trará para a empresa (e para a sociedade em geral) estava relacionada a como fazer isso. lide com isso. Nesse sentido, faz sentido um sistema de classificação para comunicar os marcos de IA alcançados internamente no caminho para AGI.
Os cinco níveis do OpenAI serão compartilhados com investidores e vão desde as atuais capacidades de IA até sistemas que têm o potencial de gerenciar organizações inteiras. A empresa acredita que sua tecnologia (como o GPT-4o, que alimenta o ChatGPT) está atualmente no Nível 1, que inclui IA capaz de interações conversacionais. Mas os executivos da OpenAI teriam dito aos funcionários que a empresa está prestes a atingir o Nível 2, conhecido como “Reasoners”.
A Bloomberg lista os cinco “estágios de inteligência artificial” da OpenAI da seguinte forma:
- Nível 1: Chatbots, IA com linguagem coloquial
- Nível 2: Raciocinador, solucionador de problemas de nível humano
- Nível 3: Agentes, sistemas que podem realizar ações
- Nível 4: Inovadores, IA que pode ajudá-lo a inventar
- Nível 5: Organizações, IA que pode realizar tarefas organizacionais
É relatado que os sistemas de IA de nível 2 têm as mesmas habilidades básicas de resolução de problemas que os humanos com doutorado, mas sem acesso a ferramentas externas. Durante a reunião geral, os líderes da OpenAI demonstraram um projeto de pesquisa usando o modelo GPT-4, de acordo com pessoas familiarizadas com as discussões que falaram com a Bloomberg. Ele acredita que isso mostra sinais de se aproximar das habilidades de raciocínio humanas.
Os níveis mais elevados da taxonomia da OpenAI descrevem cada vez mais potenciais capacidades hipotéticas de IA. Os “agentes” de nível 3 podem trabalhar em tarefas de forma autônoma por vários dias. Os sistemas de nível 4 gerarão novas inovações. O ápice, Nível 5, prevê a IA gerenciando toda a organização.
Este sistema de classificação ainda está em desenvolvimento. A OpenAI planeja coletar feedback de funcionários, investidores e membros do conselho para melhorar o nível ao longo do tempo.
Quando a Ars Technica perguntou à OpenAI sobre o sistema de classificação e a precisão do relatório da Bloomberg, um porta-voz da empresa disse: “Não temos nada a acrescentar”.
Problemas de classificação de recursos de IA
A OpenAI não está sozinha na tentativa de quantificar o nível de capacidades de IA. Como observa a Bloomberg, o sistema da OpenAI parece semelhante ao nível planejado pelas montadoras autônomas. E em novembro de 2023, pesquisadores do Google DeepMind propuseram sua própria estrutura de cinco níveis para avaliar o progresso da IA, e outros laboratórios de IA também descobriram como classificar coisas que ainda não existem.
O sistema de classificação da OpenAI também é um pouco semelhante ao “AI Safety Level” (ASL) da Anthropic, que o criador do assistente Claude AI publicou pela primeira vez em setembro de 2023. Ambos os sistemas visam classificar as capacidades da IA, mas o seu foco está em aspectos diferentes. O ASL da Antrópico concentra-se mais explicitamente na segurança e nos riscos catastróficos (como o ASL-2, que se refere a “sistemas que exibem sinais precoces de funcionamento perigoso”), enquanto o nível do OpenAI é geral.
No entanto, qualquer sistema de classificação de IA levanta questões sobre se o progresso da IA pode ser quantificado de forma significativa e o que constitui progresso (ou, como no caso do Antrópico, o que constitui um sistema de IA “perigoso”). A indústria tecnológica tem um historial de promessas excessivas das capacidades da IA, e modelos de progresso linear como os da OpenAI têm o risco potencial de alimentar expectativas irrealistas.
Atualmente, não há consenso na comunidade de pesquisa em IA sobre como medir o progresso em direção à AGI ou se a AGI é uma meta bem definida ou alcançável. Como tal, o sistema de cinco níveis da OpenAI provavelmente será visto menos como uma medida do progresso científico ou tecnológico e mais como uma ferramenta de comunicação para atrair investidores e sinalizar os objetivos ambiciosos da empresa.

