linux-BR.org

Notícias de software livre e tecnologias

No post anterior, examinamos várias injeções rápidas (poluição direta, indireta e de contexto) em sistemas de IA, sendo os grandes modelos de idiomas (LLMS) particularmente suscetíveis.Esta lista não inclui os aplicativos de bate -papo do Facebook, já que eu não os tenho mais instalados, mas eles provavelmente têm o mesmo comportamento.Esta postagem se concentrará especificamente na saída do LLMS, que não é confiável, e como enfrentar esse desafio ao adotar sistemas de IA.A exfiltração de dados e a execução de comando específica de contexto é uma ameaça real, especialmente se você inserir conteúdo não confiável em seus avisos de LLM e confiar cegamente na resposta.Pode conter idioma, código ou outras injeções ofensivas ou instruções.

Fonte: https://embracethered.com/blog/posts/2023/ai-injections-threats-context-matters/