linux-BR.org

Notícias de software livre e tecnologias

Para usar um exemplo do artigo dos pesquisadores, “Paris”, “It Is In Paris” e “France’s Capital, Paris” são respostas válidas para “onde está a Torre Eiffel?”Mas se os exemplos em seu treinamento forem poucos ou inconsistentes em seus fatos, o LLMS sintetiza uma resposta de som plausível que provavelmente está incorreta.E, ao fazer isso, eles desenvolvem evidências de que a maioria dos fatos alternativos fornece são um produto de confabulação.Se um número grande tiver o mesmo significado, o LLM provavelmente não é certo sobre o fraseado, mas tem a resposta certa.Se exemplos de texto suficientes em seu treinamento apresentam consistentemente algo como um fato, é provável que o LLM o apresente como um fato.

Fonte: https://arstechnica.com/ai/2024/06/researchers-describe-how-to-tell-if-chatgpt-is-confabulating/