Carissimi,
a giudicare dai giornali di stamattina sembra che le cose inizino a muoversi; in particolare dal testo (provvisorio, per cui poi bisognera' controllare il testo definitivo) del decreto sembrerebbero sostanzialmente accolte le proposte fatte dal collegio dei presidenti di cds in matematica (il che e' chiaramente una coincidenza, visto che certo non potevano averlo visto)...
Un comma del decreto pero' rende particolarmente urgente la discussione sugli indicatori di qualita': sembra che i concorsi da ricercatore si baseranno unicamente sui titoli (e questo, secondo me, e' profondamente sbagliato: scritti e orali erano fondamentali per valutare la qualita' degli aspiranti ricercatori) valutati (cito) "utilizzando parametri, riconosciuti anche in ambito internazionale, individuati con apposito decreto del ministro (...) da adottarsi entro 30 giorni dalla data di entrata in vigore del presente decreto". Quindi e' urgente fare delle proposte, e fondamentale farle bene.
Vi allego la parte di verbale del collegio dei presidenti di cds in Matematica riguardante questo punto. Aggiungo a quei punti un paio di indicazioni ulteriori che stanno venendo fuori dalle discussioni in corso:
- e' importante che gli indicatori siano numerosi, in modo da prevenire qualsiasi tentazione di usarli per costruire graduatorie automatiche;
- bisogna tenere presente la certificabilita' dei dati su cui basare questi indicatori. Per evitare contestazioni a posteriori, gli indicatori devono essere calcolabili a partire soltanto da quanto viene dichiarato dai candidati, e non da ricerche di dati effettuate autonomamente dalla commissione (che non sono riproducibili ne' verificabili, e anche nel migliore dei casi dipendono da quando vengono effettuate e su quale database);
- ho chiesto a colleghi stranieri, e la risposta da USA, Germania, Inghilterra e Spagna e' stata che non usano indicatori in questo senso (rimettendosi al buon senso delle varie commissioni; certo, il buon senso e' una qualita' che ogni tanto manca in Italia); qualcosa (ma non ho ancora i dettagli) e' utilizzato talvolta in Giappone; non ho ancora ricevuto una risposta dai colleghi francesi (ma in compenso mi e' arrivata una dichiarazione di scienziati dell'Ecole Normale pesantemente contraria all'uso dell'Impact Factor);
- database diversi danno risultati a volte anche pesantemente diversi. Non (troppo) nelle fasce alte, ma nelle fasce intermedie si'.
Vi allego anche un file di riassunto preparato da Dario Bini (che su queste cose lavora) che riassume alcuni degli indicatori in circolazione.
Ciao e grazie, Marco
- Indicatori di qualità per l'attività scientifica e la ricerca
Gabriele Anzellotti informa il Collegio che il Ministero ha chiesto al CUN di formulare proposte atte ad individuare alcuni indicatori di qualità relativi all'attività scientifica e di ricerca da definire in relazione ai diversi livelli concorsuali e alle peculiarità delle diverse aree scientifiche, e chiede al Collegio di fornire un proprio parere sull'argomento. A seguito di un'ampia e dettagliata discussione, volutamente ristretta (per semplicità e per concretezza) agli indicatori di qualità per fini concorsuali, il Collegio ritiene che:
l'attività di ricerca presenta, per sua natura, molteplici
aspetti e numerose sfaccettature che non possono essere ricondotte a singoli numeri; di conseguenza gli indicatori di qualità devono essere molteplici, e non possono essere usati per stabilire graduatorie univoche fra candidati;
indicatori di qualità possono invece essere usati per
stabilire soglie minime di qualità che devono essere raggiunte dai candidati per poter partecipare a un concorso;
la decisione finale e l'eventuale graduatoria di un concorso
devono rimanere responsabilità della commissione del concorso, che ha l'obbligo di entrare nel merito della ricerca svolta dai candidati che hanno superato la soglia minima di qualità, andando oltre i meri indicatori numerici; inoltre dev'essere sancito un criterio di responsabilità delle commissioni, che dovranno rispondere ex post delle decisioni prese;
la composizione dei saperi nelle diverse aree, per non parlare
delle strutture della ricerca, sono profondamente e inevitabilmente diverse; quindi gli indicatori possono (e forse devono) variare da area ad area;
anche all'interno di una stessa area gli usi e gli stili di
ricerca e di pubblicazione dei risultati ottenuti sono oggettivamente diversi da settore a settore; dunque se non gli indicatori stessi almeno i valori di soglia possono (e forse devono) dipendere dai settori scientifico-disciplinari, oltre che ovviamente dai livelli concorsuali;
oltre che per i candidati, devono essere previste delle soglie
minime di qualità anche per i componenti delle commissioni di concorso, in modo da poter assicurare che siano persone tuttora attive nella ricerca;
raggiungere la soglia minima di qualità richiesta consisterà
nel superare dei valori minimi preassegnati in un certo numero prestabilito di indicatori, e non necessariamente in tutti; d'altra parte, candidati che non raggiungano tale soglia minima di qualità non potranno partecipare ai concorsi;
soprattutto per non penalizzare ricerche interdisciplinari,
eventuali indicatori bibliometrici devono essere calcolati su più database (per esempio, ISI, SCOPUS, MathSciNet), le soglie minime devono dipendere dal database utilizzato, e può essere sufficiente superare la soglia minima rispetto a uno solo di questi database.
Una volta stabiliti questi criteri generali, la discussione passa a esaminare vari possibili indicatori: puramente quantitativi (numero di pubblicazioni in totale o negli ultimi anni; numero di comunicazioni a congressi internazionali e/o in università o enti di ricerca italiani o stranieri); quantitativi pesati (numero di pubblicazioni in riviste "buone", eventualmente negli ultimi anni; numero di pubblicazioni che hanno ricevuto un numero di citazioni superiore a una data soglia, eventualmente negli ultimi anni); bibliometrici di popolarità (Impact factor, Citation index, h-factor, e simili); bibliometrici di prestigio (eigenfactor); e altri. Inoltre alcuni dei presenti (Luigi Preziosi, Cinzia Cerroni, Renato De Leone) illustrano esperienze di valutazione della ricerca effettuate nelle loro università.
Il Collegio quindi decide di portare la discussione nelle varie sedi, dando mandato al Coordinatore di raccogliere le esperienze e le proposte uscite da queste discussioni, con l'obiettivo di giungere, ove possibile, a una proposta operativa entro la fine di Novembre.
**********************************************************
Marco Abate Tel: +39/050/2213.230 Dipartimento di Matematica Fax: +39/050/2213.224 Universita' di Pisa Largo Pontecorvo 5 E-mail: abate@dm.unipi.it 56127 Pisa Italy Web: www.dm.unipi.it/~abate/
**********************************************************