Esistono riviste scientifiche che millantano standard accademici, ma che a pagamento pubblicano qualsiasi articolo. Sono un pericolo perché a volte queste pubblicazioni sono considerate nelle valutazioni della qualità della ricerca. Un problema anche in Italia. I suggerimenti per risolverlo.

Articoli pubblicati a pagamento

La scienza non è immune alla corruzione. Da qualche anno, accanto alle frodi classiche (fabbricazione, falsificazione e plagio), la credibilità della comunicazione scientifica deve affrontare una nuova minaccia: le riviste che millantano standard accademici, ma che, invece, pubblicano qualsiasi articolo a pagamento. Jeffrey Beall, bibliotecario dell’università del Colorado, le ha battezzate riviste “predatorie” e dal 2010 redige una lista che, non senza problemi e controversie, prova a catalogarle. John Bohannon ne ha testato l’affidabilità in un esperimento i cui risultati sono stati pubblicati su Science: ha inviato un articolo chiaramente artefatto a un centinaio di riviste della lista. Solo il 16 per cento l’ha rifiutato, mentre l’84 per cento l’ha accettato senza alcuna revisione.

Figura 1

Un nostro lavoro mostra che l’Italia non è immune al problema. Incrociando i curricula di 46mila ricercatori che hanno partecipato all’abilitazione scientifica nazionale con le riviste della lista di Beall, abbiamo identificato circa 6mila articoli ivi pubblicati nel periodo 2002-2012, lo 0,3 per cento del totale. L’economia e il management sembrano essere i settori dove il problema è più grave: nel 2012, più del 5 per cento degli articoli è stato pubblicato su una rivista della lista (figura 1). Complessivamente, circa il 5 per cento dei ricercatori del campione ha almeno una pubblicazione predatoria e, a parità di altre condizioni, la percentuale è più alta fra i più giovani e fra chi lavora nelle università meridionali.

Perché si pubblica su una rivista predatoria

Per comprendere meglio le motivazioni dei ricercatori e misurare la qualità delle riviste identificate, abbiamo somministrato un questionario via email a un campione di circa mille ricercatori e professori che vi hanno pubblicato. Il tasso di risposta è stato inaspettatamente alto (54 per cento). I risultati indicano che almeno il 36 per cento delle riviste identificate non svolge peer review e altre hanno falsificato il loro impact factor, contrattato aggressivamente sul prezzo, pubblicato articoli senza il consenso degli autori. Per alcune riviste, invece, abbiamo ottenuto commenti coerenti con una buona attività editoriale. In molti casi, si trattava di numeri speciali curati da editor esterni alla rivista.

La bassa qualità media delle riviste esaminate è confermata da dati bibliometrici: solo il 38 per cento ha pubblicato negli ultimi cinque anni almeno cinque articoli con cinque citazioni e più di un terzo degli articoli del campione non ha alcuna citazione su Google Scholar. A conferma dell’eterogeneità dei commenti ricevuti, qualche articolo ha invece avuto un buon impatto ed è citato su riviste come Science e The Lancet.

Ci siamo anche chiesti cosa spinga i colleghi a pubblicare, spesso a pagamento, su riviste dal dubbio valore scientifico.

Una prima spiegazione, come suggerisce uno dei commenti ricevuti, è l’inesperienza: “Avevo poca esperienza con riviste straniere. Successivamente sono stato criticato da un collega per quella pubblicazione, oggi non lo rifarei anche perché l’articolo in questione ha avuto poca visibilità ma a me è costato fatica”.

Ma anche valutazioni che enfatizzano la quantità e non la qualità delle pubblicazioni rischiano di spingere le prede fra le braccia dei predatori: “Partecipai a una conferenza di quell’organizzazione e mi fu offerto di pubblicare velocemente il paper in una rivista (…). Avevo bisogno della pubblicazione per l’abilitazione e accettai di pubblicare nella rivista che mi proponevano. Mi sono pentita di quella scelta”.

Un altro autore si chiede come sia possibile che le pubblicazioni su queste riviste vengano considerate nella valutazione: “Tutte le riviste della casa editrice sono solo spazzatura e non capisco come possano essere considerate ai fini Vqr (valutazione qualità della ricerca)”.

Il motivo principale è che quasi un quarto delle riviste identificate è indicizzato in Scopus, una delle principali banche dati di settore, spesso utilizzata come segno di qualità. Mentre secondo i nostri risultati in almeno un terzo dei casi anche le riviste che compaiono nella lista e sono indicizzate hanno comportamenti predatori.

Il nostro studio mostra che anche in Italia un numero significativo di ricercatori pubblica articoli su riviste con nessun valore accademico sprecando risorse economiche e intellettuali. È arrivato il momento di affrontare il problema. Un primo passo è quello di sensibilizzare i giovani ricercatori a scegliere con maggiore attenzione le riviste sulle quali pubblicare. Un secondo potrebbe essere quello di migliorare ancora la qualità della valutazione. Il nostro lavoro mostra che liste come Scopus o la stessa lista di Beall sono informative, ma imperfette. Più in generale, l’uso di liste predeterminate dovrebbe essere accompagnato dalla peer review. Forse il lato selvaggio della scienza può ancora essere sconfitto.