Artigos “falsos”: Inteligência artificial interfere em publicações científicas

Artigos “falsos”: Inteligência artificial interfere em publicações científicas

Uma imagem de um rato com um pénis gigante, outra imagem de uma perna humana com muitos ossos, palavras suspeitas… Exemplos recentes confirmam a utilização cada vez mais importante da inteligência artificial nas publicações científicas, em detrimento da sua qualidade.

Se os profissionais entrevistados pela AFP estão cientes do interesse em ferramentas como o ChatGPT para ajudar na redação de conteúdos, especialmente no que diz respeito à tradução para todos os investigadores cuja língua nativa não seja o inglês, várias retratações recentes através de revisões têm destacado a existência de práticas desonestas.

No início do ano, uma ilustração representando um rato com genitália superdimensionada, amplamente divulgada nas redes sociais, levou à retratação de um estudo publicado em revista da editora universitária Frontiers, peso-pesado do setor.

No mês passado, outro estudo foi retratado após apresentar a foto de uma perna humana contendo muitos ossos.

Para além destas falsas ilustrações, a maior disrupção neste sector parece vir do ChatGPT, a ferramenta de conversação desenvolvida pela empresa americana OpenAI e baseada em inteligência artificial.

Um estudo publicado pelo grupo editorial científico britânico Elsevier se tornou viral em março, cuja introdução começou com “Claro, esta é uma possível introdução ao seu tópico”, uma fórmula típica para respostas do ChatGPT.

“fábricas de commodities”

Vários especialistas disseram à AFP que estas falhas embaraçosas, que escaparam à vigilância dos especialistas responsáveis ​​pela releitura dos estudos antes da publicação, ainda são raras e podem não ter passado pelos filtros de censura de revistas de prestígio.

O uso da inteligência artificial é muitas vezes difícil de detectar, mas parece ser cada vez mais evidente na literatura científica.

READ  A pessoa que eu sempre amei

Andrew Gray, bibliotecário da University College London, pesquisou em milhões de artigos científicos palavras como “preciso”, “complexo” ou “louvável”, que a IA muitas vezes usa excessivamente. Segundo ele, foi possível produzir pelo menos 60 mil produtos utilizando inteligência artificial em 2023, ou 1% da produção anual, e 2024 deve representar um “aumento significativo” nesses números.

Já a American Retraction Monitoring Association registrou um número recorde de 13 mil retratações de artigos da área científica em 2023, um número inédito. Para Ivan Oransky, um de seus fundadores, a inteligência artificial agora permite “industrializar” a produção de papéis “falsos” por meio de “fábricas”.

Essas entidades produzem muitos artigos de baixa qualidade, plagiados ou falsos, afirma a microbiologista holandesa especializada na detecção de imagens falsas, Elisabeth Beck. Estas “fábricas”, que são pagas por investigadores que são incentivados a produzir mais, são consideradas a fonte de cerca de 2% das publicações todos os anos, mas este número está a “explodir” devido à inteligência artificial, segundo este especialista.

Corrimão

Para Ivan Oransky, a IA apenas alimenta um “problema avassalador”: a procura insaciável de artigos por parte de editores e universidades pressiona os investigadores, que são classificados de acordo com a sua produção, criando assim um “círculo vicioso”.

Ao mesmo tempo, as salvaguardas contra as “fábricas” de papel continuam a ser insuficientes.

O problema desta fraude massiva ficou particularmente exposto após a aquisição da Hindawi Publishing House pela empresa americana Wiley em 2021, a que desde então se seguiu a retirada de cerca de 11.300 artigos anteriormente publicados pela Hindawi. Para tentar resolver este problema crescente, a Wiley implementou o “Article Mill Detection Service” para descobrir abusos de IA, um serviço em si alimentado por IA.

READ  A proliferação de satélites como o Starlink é uma bomba-relógio para a camada de ozônio

Mas na semana passada, um pesquisador americano descobriu o que parece ser uma versão reescrita do ChatGPT de um de seus artigos, publicado no diário de Wiley.

Samuel Payne, professor de bioinformática da Universidade Brigham Young, nos Estados Unidos, disse à AFP que lhe foi solicitado em março que verificasse a validade do estudo em questão. Depois de perceber que se tratava de um “plágio” de seu próprio estudo reescrito pela inteligência artificial, ele se recusou a aprovar a publicação.

Payne disse que ficou “chocado” ao descobrir que, em vez de retratar o trabalho plagiado, ele simplesmente foi publicado em outra revista.

You May Also Like

About the Author: Genevieve Goodman

"Criador. Fã de café. Amante da Internet. Organizador. Geek da cultura pop. Fã de TV. Orgulhoso por comer.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *