Claude 2.1., o rival ChatGPT da Anthropic, agora pode analisar 150.000 palavras em um único prompt.
Por que en state Claude 2.1.
A rival OpenAI, Anthropic, lançou Claude 2.1., a versão mais recente do rival ChatGPT. Aumenta sua janela de contexto para 200.000 tokens, permitindo analisar completamente a Odisséia de Homero. Para referência, tokens são pedaços de texto usados para organizar informações, e uma janela de contexto é o limite definido de tokens que ela pode analisar em uma única solicitação.
A empresa disse que a versão 2.1 também reduz pela metade a taxa de erros de Claude, resultando em menos respostas incorretas. Coincidentemente ou não, a atualização ocorre no momento em que o mundo da tecnologia segue de perto o rival da Anthropic, OpenAI.
A empresa afirma que a janela de contexto de 200.000 tokens do Claude 2.1 permite aos usuários fazer upload de bases de código inteiras, artigos acadêmicos, demonstrações financeiras ou longas obras literárias. A Anthropic diz que 200.000 tokens traduzem aproximadamente 150.000 palavras ou mais de 500 páginas de material.
Por que é melhor que ChatGPT
Assim, após o upload do material, o chatbot pode fornecer resumos, responder perguntas específicas sobre seu conteúdo, comparar/contrastar múltiplos documentos ou reconhecer padrões que os humanos têm mais dificuldade em encontrar.
A Anthropic alerta que analisar e responder a entradas extremamente longas pode levar vários minutos para o bot de IA ser concluído – muito mais do que os segundos que normalmente temos que esperar por consultas mais simples: “Esperamos que a latência caia substancialmente à medida que a tecnologia avança”, a empresa escreveu.
Para referência, a desinformação ainda prevalece nesta geração de chatbots de IA. No entanto, a Anthropic diz que o Claude 2.1 reduziu sua taxa de erro pela metade em comparação com o Claude 2.0. A empresa atribui parte do progresso a uma capacidade aprimorada de separar declarações incorretas do reconhecimento de incerteza, tornando o chatbot Claude 2.1 duas vezes mais propenso a admitir que não sabe uma resposta do que a dar a resposta errada.
A Anthropic diz que Claude 2.1 também comete 30% menos erros em documentos extremamente longos. Além disso, tem uma taxa três a quatro vezes menor de “concluir erroneamente que um documento apóia uma determinada afirmação” ao usar janelas de contexto mais robustas.
,