Além disso, vários vetores de ataque diferentes são definidos, como manipulação psicológica (manipulação de autoridade), manipulação lógica (premissas falsas), manipulação sintática (erro ortográfico), manipulação semântica (metáfora) e manipulação de perspectiva (representação de papéis).Em comparação com LLMs de base de código aberto populares (por exemplo, MPT, Falcon e LLaMA-1), os modelos LLaMA-2 estabelecem um novo estado da arte em todas as tarefas consideradas;Veja acima.Por exemplo, o alinhamento pode ser realizado com o objetivo de reduzir alucinações, evitar perguntas inseguras3, seguir instruções detalhadas e muito mais.Notavelmente, no entanto, o LLaMA-2 foi um tanto criticado por seu desempenho (relativamente) fraco em tarefas baseadas em codificação (por exemplo, HumanEval).A partir daqui, o LLM é usado para gerar múltiplas (ou seja, pelo menos duas) respostas para cada prompt, e os anotadores humanos classificam essas respostas com base em sua qualidade.
Fonte: https://cameronrwolfe.substack.com/p/llama-2-from-the-ground-up