Pesquisadores italianos usaram o ChatGPT para criar um conjunto de dados falso a partir de um estudo médico, com o objetivo de ver se o ChatGPT foi capaz de gerar algo convincente. O resultado, não surpreendentemente: é, desde que não o confrontemos com um verdadeiro especialista.
Já sabíamos que a “IA generativa” é capaz de escrever resumos de pesquisas convincentes. Não surpreende, portanto, que seja capaz de gerar uma série de dados em menos de um minuto. A grande fraqueza do robô: ele era incapaz de usar o seu pensamento crítico.
Um especialista no domínio já pode perceber que falta originalidade aos dados, pois… Anotá-la Os autores desta experiência – relativa a duas supostas cirurgias oculares – foram publicados na revista Oftalmologia Gama.
Mas o cidadão comum que nada sabia sobre estudos clínicos – ou estatísticas – e que queria principalmente ver nestes dados “evidências” da sua crença preferida, não teria visto nada além de fogo.
análise natureza para solicitar Ao bioestatístico britânico Jack Wilkinson, da Universidade de Manchester, especializado na detecção de dados questionáveis, para revisar o documento. Ele explica que contém vários erros que revelam que o robô não entende realmente o que está fazendo: muitos dos participantes aos quais foram atribuídos gêneros parecem corresponder aos seus nomes, e não há correlação entre as medições de visão feitas antes e após a alegada cirurgia, um número anormalmente grande de pacientes cujas vidas terminam em 7 ou 8… Em suma, “sinais claros” de que estes dados são “fabricados”.
Mas nem todos são especialistas e, mesmo entre os especialistas, nem todos dedicam tempo a analisar atentamente os dados da investigação.
A manipulação de dados por um pesquisador sem escrúpulos sempre foi um problema na pesquisa, mas este Em breve poderá se tornar mais importante“, aponta o oftalmologista italiano Giuseppe Giannaccari, da Universidade de Cagliari, autor principal do “experimento”.