linux-BR.org

Notícias de software livre e tecnologias

Ao contrário de outras abordagens semelhantes aos modelos de Finetuning, como Stanford-Alpaca, essa abordagem não usa modelos de linguagem maiores existentes para os valores de saída do finonetuning-Dataset.Como tal, podemos montar comentários: codificar pares de dados no estilo do Codesearchnet, usando modelos poderosos existentes para anotar o código criado pelo homem de alta qualidade.Em resumo, os modelos GODOT_DODO alcançam uma consistência significativamente maior que o GPT-4/GPT-3.5-Turbo quando se trata de gerar uma sintaxe GDScript precisa, mas é um pouco menos capaz de seguir instruções complexas.Os idiomas menos usados são sub-representados nos dados de treinamento e experimentam uma queda de desempenho maciça, onde os modelos confundem rotineiramente a sintaxe ou os recursos de linguagem alucinados que não existem.Para montar um conjunto de dados, siga estas instruções:
Observe que você precisará de teclas de API GitHub e OpenAI para usar esses scripts.

Fonte: https://github.com/minosvasilias/godot-dodo