Esta semana, o surgimento de produtos criados por inteligência artificial está a perturbar a indústria editorial académica, levantando sinais de alarme sobre o risco de desinformação.

Dois professores de filosofia, Tomasz Żuradzk e Leszek Wroński, descobriram três revistas da Addleton Academic Publishers que pareciam ter a maior parte de seu conteúdo criada usando IA generativa (Gen AI). Isto é confirmado pelo fato de que os artigos nessas revistas seguem um padrão comum, usando excessivamente termos comuns, e os conselhos editoriais de todas as três revistas são idênticos, consistindo de 10 membros que faleceram e usaram o mesmo endereço desconhecido em Queens, New York. Iorque.

A existência destas revistas “fantasmas” não afecta apenas a reputação dos editores, mas também expõe falhas no sistema de avaliação da capacidade de investigação. O sistema CiteScore, uma das métricas respeitáveis, classifica esses periódicos entre os 10 primeiros em pesquisa filosófica porque eles citam uns aos outros de forma consistente. Isto mostra como é fácil explorar o sistema de avaliação da investigação para promoção e recrutamento, conduzindo potencialmente a riscos semelhantes noutras profissões do conhecimento.

Segundo os professores Żuradzk e Wroński, se os periódicos “fantasmas” e as informações falsas forem difundidos, a reputação de todo o sistema de investigação científica será abalada. Porque classificações como o CiteScore são usadas para avaliar a qualidade da pesquisa e desempenham um papel importante nas decisões relativas a prêmios acadêmicos, recrutamento e promoção.

Esta tecnologia pode ser utilizada para criar artigos falsos sofisticados, afetando negativamente a reputação de investigadores genuínos e criando injustiça na avaliação de capacidades. Isto exige uma reestruturação abrangente dos sistemas de avaliação da investigação, para garantir que estes refletem com maior precisão a qualidade real da investigação e não são explorados por conteúdos artificiais.

Para lidar com este risco, são necessárias soluções síncronas para prevenir e tratar casos de abuso de IA na investigação científica. As organizações e autoridades precisam de sensibilizar para esta questão e construir mecanismos de controlo mais rigorosos para a publicação científica, garantindo transparência e honestidade na investigação. A longo prazo, é necessário investigar e desenvolver ferramentas mais eficazes para detectar e prevenir artigos falsos, protegendo a reputação da indústria da investigação científica.

Isto é também um alerta para a comunidade de investigação científica sobre os riscos potenciais da IA ​​artificial. Garantir a integridade e a reputação do sistema de investigação é fundamental para manter o desenvolvimento sustentável da ciência no futuro.