E' una discussione che abbiamo fatto già in passato.
Da un lato, sembra ovvio che la buona ricerca abbia come sbocco le buone pubblicazioni, ed è vero che il tema delle pubblicazioni è spesso passato in secondo piano rispetto ad altri aspetti del profilo individuale (in particolare alle affiliazioni di vario tipo, scientifico, accademico e financo familiare).
Dall'altro lato, l'affidarsi "tecnocratico" alla numerologia rischia di generare, in modo diverso, effetti analogamente perversi.
1. Tanto per cominciare, tutti sappiamo che quantità e qualità delle pubblicazioni non sono affatto la stessa cosa, né lo sono la quantità delle citazioni e la qualità della ricerca che viene citata.
2. La quantità delle citazioni spesso è solo indice della capacità del ricercatore di affiliarsi, sia in termini di co-autori sia in termini di mode scientifiche e relative parrocchiette. Inoltre, sappiamo bene come il gioco delle citazioni stia sempre più diventando un mero gioco di scambio tra potentati scientifici e accademici.
3. Come altri hanno già sottolineato, la bibliometria non permette di valutare il contributo individuale a lavori co-autorati.
4. Il sistema delle citazioni è legato a doppio filo all'attuale oligopolio degli editori scientifici, il primo obiettivo dei quali non è il perseguimento della qualità scientifica in quanto tale. Per di più, tale oligopolio sarà comunque reso progressivamente obsoleto dallo "scholarly skywriting" e in generale dal tracollo degli attuali sistemi di gestione del copyright.
5. Quando poi la valutazione bibliometrica venga fatta, com'è inevitabile, con la ricerca in rete più o meno bruta, subentrano il monopolio pratico di Google, che prima o poi si rivelerà meno neutrale, tato sul piano tecnico quanto su quello politico, di quanto tendiamo a pensare. Assumono inoltre peso gli inevitabili disguidi tecnici, a partire dalle autocitazioni da parte dei ricercatori dei propri stessi lavori pubblicati in precedenza, che forse non dovrebbero entrare a far parte dei vari indici misurati.
6. Gli indici bibliometrici sono sostanzialmente inutili dove la qualità è meglio visibile a occhio nudo, cioè per ricercatori già avanti nella carriera, e sostanzialmente inefficaci o pericolosi dove è meno immediatamente evidente, cioè per i ricercatori più giovani.
E così via.
Io credo che la bibliometria non sia di per sé né sana né insana. Sono sani o insani gli usi che se ne fanno. Se è certamente improbabile che un ricercatore anziano che non abbia pubblicato un articolo in vita sua sia un grande scienziato, mi pare altrettanto ovvio che la gestione delle carriere scientifiche è un processo troppo delicato e relativo-all'-individuo per poter essere reso algoritmico senza che si generino disastri; e francamente penso che sostituire un disastro con un altro non sia prova di grande saggezza.
I burocrati degli enti finanziatori e di quelli di valutazione, per definizione incompetenti a valutare la qualità scientifica dei progetti, tenderanno sempre più ad appoggiarsi agli indici bibliometrici. Non è obbligatorio che noi li accompagniamo in questo processo, anzi credo che dovremmo essere noi a mettere le prime cautele. Che non significa gettare via la bibliometria, ma usarla come uno dei tanti criteri che possono entrare in gioco e, a mio avviso, non certo il più importante.
Questo, ripeto, soprattutto per le valutazioni di individui; per quelle di struttura (dipartimento o ateneo) la bibliometria sembra avere un poco più di senso, anche se, a mio avviso, non può sostituire un'attività ben condotta di valutazione da peer reviewer.
Infine, vorrei dire che anche il mito secondo il quale "all'estero" tutti usino normalmente i criteri bibliometrici è, appunto, un mito. Ho fatto per tre o quattro anni il referee di progetti europei nel 6FP, e pure particolarmente sofisticati e difficili da valutare per temi, forme e contenuti, e non ho mai visto i miei colleghi non italiani proporre la bibliometria come criterio di valutazione dei team o dei leader di progetto.
Cordialmente,
Maurizio Tirassa