Este é um caso em que “mera” recuperação de informações, um campo maduro, supera a geração de grandes modelos de idiomas (incluindo a possivelmente a geração aumentada de recuperação (RAG), se o chatgpt3.5 estiver usando técnicas relacionadas).No entanto, o documento é na verdade um monte de etapas inócuas, mas não usadas, que parecem estar ganhando tempo para se esgueirar na reivindicação rápida sem apoio do resultado.Grandes modelos de idiomas (LLMS) se destacam em gerar texto de aparência autorizada;Mas, como vimos, esse é um aspecto agora independente da correção.A alucinação, neste caso, é o nome comum para o sistema que gera respostas erradas muito confiantes e convincentes.Ou seja, a declaração altamente técnica de que NP (computação ou geração não determinística) pode ser mais difícil que P (computação de tempo polinomial ou verificação).
Fonte: https://win-vector.com/2023/11/13/yet-another-chatgpt-winge/