O modelo GPT-4.5 da OpenAI pode se passar por humano e enganar pessoas durante interações na maioria das vezes. É o que concluiu um estudo envolvendo o teste de Turing conduzido pela Universidade da Califórnia em San Diego (UCSD), nos Estados Unidos, que também teve a participação dos modelos GPT-4o, Llama 3.1-405B da Meta e o antigo bot Eliza.

No experimento envolvendo 300 pessoas, que avaliou a capacidade das máquinas de imitar o comportamento humano e foi baseado no teste criado pelo matemático Alan Turing em 1950, um avaliador humano interagiu com duas testemunhas, outra pessoa e o bot, por meio de texto. O objetivo era saber se o interrogador conseguiria identificar quem era a IA.

Leia mais…