Questa settimana, l’emergere di prodotti creati dall’intelligenza artificiale sta sconvolgendo il settore dell’editoria accademica, sollevando campanelli d’allarme sul rischio di disinformazione.

Due professori di filosofia Tomasz Żuradzk e Leszek Wroński hanno scoperto tre riviste sotto la Addleton Academic Publishers che sembravano avere la maggior parte dei loro contenuti creati utilizzando l'intelligenza artificiale generativa (Gen AI). Ciò è confermato dal fatto che gli articoli di queste riviste seguono uno schema comune, abusando di termini comuni, e i comitati editoriali di tutte e tre le riviste sono identici, costituiti da 10 membri deceduti e che utilizzavano lo stesso indirizzo sconosciuto nel Queens, New York. York.

L'esistenza di queste riviste "fantasma" non solo incide sulla reputazione degli editori, ma mette anche in luce le falle nel sistema di valutazione della capacità di ricerca. Il sistema CiteScore, uno dei parametri più affidabili, classifica queste riviste tra le prime 10 per la ricerca filosofica perché si citano costantemente a vicenda. Ciò dimostra quanto sia facile sfruttare il sistema di valutazione della ricerca per la promozione e il reclutamento, portando potenzialmente a rischi simili in altre professioni della conoscenza.

Secondo i professori Żuradzk e Wroński, se si diffondessero riviste "fantasma" e informazioni false, la reputazione dell'intero sistema della ricerca scientifica ne risentirebbe. Perché classifiche come CiteScore vengono utilizzate per valutare la qualità della ricerca e svolgono un ruolo importante nelle decisioni relative a premi accademici, reclutamento e promozione.

Questa tecnologia può essere utilizzata per creare articoli falsi sofisticati, influenzando negativamente la reputazione di ricercatori autentici e creando ingiustizia nella valutazione delle capacità. Ciò richiede una ristrutturazione globale dei sistemi di valutazione della ricerca per garantire che riflettano in modo più accurato la qualità reale della ricerca e non siano sfruttati da contenuti artificiali.

Per affrontare questo rischio, sono necessarie soluzioni sincrone per prevenire e gestire i casi di abuso dell’IA nella ricerca scientifica. Le organizzazioni e le autorità devono aumentare la consapevolezza su questo problema e creare meccanismi di controllo più rigorosi per la pubblicazione scientifica, garantendo trasparenza e onestà nella ricerca. A lungo termine, è necessario ricercare e sviluppare strumenti più efficaci per individuare e prevenire articoli falsi, tutelando la reputazione del settore della ricerca scientifica.

Questo è anche un avvertimento alla comunità della ricerca scientifica sui potenziali rischi dell’intelligenza artificiale artificiale. Garantire l’integrità e la reputazione del sistema di ricerca è fondamentale per mantenere lo sviluppo sostenibile della scienza in futuro.