linux-BR.org

Notícias de software livre e tecnologias

Executando isso, teremos algo como a seguinte saída:
Finalmente, também podemos obter incorporações do modelo usando o Langchain
pacote:
O código completo para esta postagem está disponível no Github.Depois de instalado, você pode invocar o ollama correr
para falar com este modelo;o modelo é baixado e cache o
Primeira vez que é solicitado.Também podemos pedir a Ollama para transmitir as respostas do modelo para que obtemos saída
Assim que estiver pronto, antes de esperar o modelo concluir sua resposta.Nesta postagem do blog, estaremos conversando com o modelo LLAMA2, então execute o Ollama Run
llama2.Neste post, vou descrever como usar o ollama para executar um modelo localmente,
Comunique -se com ele usando sua API e integrá -lo a um programa GO usando
Langchaingo.

Fonte: https://eli.thegreenplace.net/2023/using-ollama-with-langchaingo/