linux-BR.org

Notícias de software livre e tecnologias

Além disso, vários vetores de ataque diferentes são definidos, como manipulação psicológica (manipulação da autoridade), manipulação lógica (premissas falsas), manipulação sintática (erro de ortografia), manipulação semântica (metáfora) e manipulação de perspectiva (interpretação de papéis).Comparados aos populares modelos LLMs de base aberta (por exemplo, MPT, Falcon e LLAMA-1), os modelos LLAMA-2 estabeleceram um novo estado da arte em todas as tarefas consideradas;Veja acima.Por exemplo, o alinhamento pode ser executado com o objetivo de reduzir as alucinações, evitar perguntas inseguras3, seguindo instruções detalhadas e muito mais.Notavelmente, no entanto, o lhama-2 foi um pouco criticado por seu (relativamente) desempenho ruim nas tarefas baseadas em codificação (por exemplo, Humaneval).A partir daqui, o LLM é usado para gerar várias respostas (ou seja, pelo menos duas) para cada prompt, e os anotadores humanos classificam essas respostas com base em sua qualidade.

Fonte: https://cameronrwolfe.substack.com/p/llama-2-from-the-ground-up