linux-BR.org

Notícias de software livre e tecnologias

output_dir deve ser algo que contenha um adaptador_config.json e adaptter_model.bin:
Experimente o mesmo prompt de antes:
E as saídas do modelo:
Então funciona!Configure algumas configurações de tokenização, como o preenchimento esquerdo, porque faz o treinamento usar menos memória:
Configure a função Tokenize para criar rótulos e input_ids o mesmo.Em seguida, fazemos alguma otimização relacionada a Pytorch, que apenas torna o treinamento mais rápido, mas não afeta a precisão:
Isso será executado por cerca de 1 hora em um A100.Se você receber erro “ValueError: a classe Tokenizer Codellamatokenizer não existir ou não estiver importado no momento”.Se você deseja converter este adaptador em um modelo llama.cpp para executar localmente o meu outro guia.

Fonte: https://ragntune.com/blog/guide-fine-tuning-code-llama