Nessas repetições, o GPT-4 acertou a pergunta uma vez, errada uma vez e disse duas vezes, sem sentido, que a situação inclui uma contradição e é impossível.Suponha, por um momento, que o GPT seja todo artifício, sem inteligência, e isso é tudo o que jamais será.E como veremos a seguir, isso é suficiente para pelo menos sugerir um abismo profundo que separa o processo imitativo (o que o GPT está fazendo) do original (o que você está fazendo).Aqui está o resultado: quando um humano entende algo – quando não está apenas dependendo de hábitos e associações, mas eles “entendem” – eles estão usando um modelo interno estruturado.Bem, nos meus testes, depende ou depende de como você diz a pergunta.
Fonte: https://medium.com/@shlomi.sher/on-artifice-and-intelligence-f19224281bee