Caro Stefano,
Anche tra gli e-journals ce ne sono di diverse categorie, De Nicolao penso si riferisse a quelli che ci subissano di richieste quotidiane tramite mail e dove si effettivamente c'è uno scarso filtro e si può pubblicare molto facilmente.....
Ciao, Patrizio
Il giorno 30 gennaio 2014 19:27, Stefano Pascarella < stefano.pascarella@uniroma1.it> ha scritto:
Se per e-journals intendiamo riviste scientifiche pubblicate esclusivamente on-line, ritengo che l'affermazione "gli e-journals, infine, non c'é problema; basta pagare" sia offensiva e spero sia dettata solo dalla scarsa conoscenza della materia. Più di una volta ho avuto lavori rifiutati da riviste on-line dotate di IF (visto che piace tanto) e di un Editorial Board al cospetto del quale molti dei devoti della valutazione quantitativa impallidirebbero. Se invece ho frainteso, mi scuso ma ritenevo doverosa questa precisazione.
Cordiali saluti, Stefano Pascarella
Il 30/01/2014 15:27, Camillo LaMesa ha scritto:
Cari Colleghi I criteri di valutazione ci sono sempre stati. Ricordo che, da giovane
ricercatore in attesa di conferma (parlo degli anni 80), cercavo di pubblicare su buone riviste. Cercavo di evitare di farlo su riviste borderline, per quanto prestigiose fossero. Ancora oggi scelgo la rivista cui sottomettere un articolo basandomi sulla congruità tra quello che presento ed il tipo di revisione in base alla quale fare valutare il mio contributo. Naturalmente, queste scelte sono basate su considerazioni empiriche.
Si dovrebbe capire se i criteri di valutazione siano ancora utili.
Quindi accettarli come sono, cambiarli, rimodularli, od eliminarli. Personalmente credo che una valutazione del nostro operato abbia senso. Mi piacerebbe ci fosse anche una valutazione seria della nostra attività didattica; questa è ancora più difficile da fare. E non si fa, o la si valuta all'amatriciana.
Spesso mi confronto con colleghi che hanno curricula numericamente
spaventosi, ma di bassa lega. Volendo fare una valutazione puramente quantitativa, basterebbe pesare la quantità di carta che producono. Non credo sia la strada da seguire. Bisogna vedere se e quanto ciò che si produce viene acquisito dalla comunità scientifica di riferimento. E qui cominciano i problemi. Una prima differenza salta agli occhi. Basti notare cosa succede confrontando i criteri di valutazione relativi alle scienze umanistiche con quelli delle scienze fisiche, o chimiche. Per i primi nella valutazione c'è un margine di aleatorietà molto vasto; è sotto gli occhi di tutti. Per quanto riguarda quelli di scienze "dure", la comunità scientifica, e, spesso, anche le case editrici determinano il rango di una rivista. Questo si basa sul numero di citazioni e sul rapporto tra manoscritti accettati e sottomessi. Così, ad esempio, le riviste di Chimica Generale hanno un rango ben correlato con la popolarità della rivista, e con la sua reputazione. E' prassi comune che riviste nuove non vengano valutate finchè non sia determinabile un andamento della loro validità nel tempo. Non è un caso che esse debbano attendere almeno tre anni per ottenere quello che si chiama "impact factor". Le riviste di carattere interdisciplinare, tipo Science o Nature, hanno valutazioni altissime, perchè enorme e la platea cui si rivolgono. Anche di non specialisti e semplici curiosi. Non è detto che quello che si trova lì sia sempre di altissima levatura; molto spesso riviste di "area" pubblicano lavori di qualità migliore, anche se le informazioni riguardano un numero ridotto di utenti.
Durante la nostra attività scientifica, produciamo articoli originali,
reviews, monografie, tutti su supporto cartaceo, ed altri su e-journals. I primi sono quelli per cui valgono le considerazioni fatte sopra; quindi non ci tornerò. Reviews e monografie sono, di norma, assegnate da un committente (l'editore); a volte non sono sottoposte a revisione. Per quanto riguarda gli e-journals, infine, non c'é problema; basta pagare. E' ovvio che le summenzionate categorie non possano essere uniformate nella valutazione. Ricadremmo nella valutazione a peso.
Se le considerazioni che ho fatto sono valide, mi rendo conto che un
criterio di valutazione attendibile risulta difficile. Capisco le difficoltà in cui si imbattono coloro che vi si cimentano. Se poi sovrapponiamo a queste difficoltà motivazioni molto meno nobili (od azioni di lobbying) allora emerge il marasma in cui si dibatte l'Anvur. Che spesso ci mette del suo: ad esempio articoli di tipo multidisciplinare vengono valutati molto meno bene di quelli strettamente monotematici. Alla faccia dell'interdisciplinarietà! Per questo reputiamo aleatorie, se non urticanti, le valutazioni che fa. D'altra parte, non credo che i criteri di valutazione siano demandabili alle classi concorsuali. Questi sono i motivi per cui credo valga la pena accettare un criterio univoco, purché sia chiaro e ben definito.
Camillo La Mesa
Il giorno 30/gen/2014, alle ore 13.14, Patrizio Dimitri ha scritto:
Cari Colleghi,
Ieri alla Sapienza c'è stato un incontro-dibattito organizzato da Marco Merafina sui risultati di ASN e VQR.
Nel corso dell'incontro, Giuseppe De Nicolao, professore ordinario del Dipartimento di Ingegneria Industriale e dell'Informazione
dell'Università
di Pavia e principale voce del blog ROARS, ha presentato un ppt dettagliatissimo mostrando i risultati e le ricadute negative di VQR e
ASN.
In circa 30' De Nicolao da solo ha messo ko l'Anvur e demolito il
castello
dell'ANvur. L'agenzia governativa era per l'occasione rappresentata da Stefano Fantoni, il Presidente e Sergio Benedetto, ingegnere, il
principale
artefice della macchina per la VQR, coadiuvati da Marco Mancini, capo dipartimento del Miur e Giancarlo Ruocco, prorettore della Sapienza.
Il collega Marco Merafina ed il Preside della Facoltà di Scienze
Vincenzo
Nesi si sono associati alle critiche di De Nicolao, aggiungendo a loro
volta
altre considerazioni sulle ripercussioni negative sulla paradossale numerologia anvuriana. Tra l'altro hanno giustamente denunciato che
nelle
ASN una corretta valutazione dei candidati non può prescindere
dall'attività
didattica che di fatto viene degradata a mero hobby.
Di fronte a problematiche così palesi ci sarebbe stato solo da recitare
il
mea culpa, invece gli anvuriani hanno dimostrato di incassare molto bene anche colpi pesantissimi, sono muri di gomma. Incuranti della
figuraccia che
stavano facendo di fronte ad una platea di circa 200 persone, in modo autoreferenziale hanno sbandierato proclami sull'importanza del sistema valutativo dell'ANVUR, senza commentare i dati inoppugnabili forniti da
De
Nicolao, annunciando di proseguire fedelmente nel compito assegnato loro dallo Stato e di andare avanti per la loro strada, una strada in vero lastricata di morti e feriti.
Posso inviare il pdf della presentazione di De Nicolao a chi è
interessato,
si tratta di una analisi molto illuminante. Alcuni dati sono più chiari, altre meno, ma l'importante sono le ricadute negative di un meccanismo
di
valutazione che si rivela sballato e sbagliato in partenza. Un sistema
come
questo, quantitativo e automatico, che prescinde da autonomia e
originalità
della ricerca, che non entra nel merito del contributo dei singoli non é ammissibile. Un sistema tra l'altro molto dispendioso in termini di
risorse
e stipendi, che nessun paese serio, dove la valutazione è di casa, si sognerebbe mai di mettere in piedi.
Chi continu a difendere a spada tratta la numerologia anvuriana, abbia almeno il coraggio e l'onestà di dire che lo fa per convenienza e non
per
convinzione culturale. Prima c'erano i concorsi, è vero alcuni venivano gestiti da nepotisti e familisti, ma siamo così ingenui da credere che
ora
le ASN siano così etiche e scevre da tutto ciò? Avete visto che sta succedendo? Ci sono valanghe di denunce, proteste e ricorsi in atto. Il problema, come ho sempre detto anche in questa sede, non sono i
meccanismi
ma le persone che li gestiscono e quelle bene o male sono sempre le
stesse!
Il sistema ANVUR crea tante e tali aberrazioni e incongruenze
(generando tra
l'altro tutta una serie di escamotage all'italiana, furbizie,
comportamenti
anticulturali e opportunistici già in atto che riguardano, cambiamenti
di
settori, mercato di authorship e citazioni ecc ecc) che rischia di
ribaltare
in molti casi i valori in campo e di affondare definitivamente
università e
ricerca nel nostro paese. L'università e la ricerca in Italia hanno
bisogno
di una cura, ma questa cura non deve uccidere il paziente, come
purtroppo
sta accadendo.
E' urgente un cambio di strategia. Servono misure efficaci che
introducano
un sistema di valutazione per l'assegnazione dei finanziamenti, per il reclutamento e la progressione delle carriere, basato su qualità, etica
e
responsabilità. A questo punto farebbero meno danni le chiamate dirette, associate ad una stringente valutazione ex-post affidata a commissioni
con
una cospicua rappresentazione di esperti stranieri.
La ministra Carrozza, purtroppo, tace......
Si torna però sempre lì: senza l'uso della bibliometria manca un
modello
alternativo serio per una valutazione della ricerca. Francamente la valutazione dei risultati ex post è risibile e non sposta il
problema....
Attualmente mi pare che l'unica alternativa sia non fare alcuna valutazione e restare agli antichi sistemi di potere. Se è tutto qui mi tengo la bibliometria... Saluti Alessio
On 01/30/2014 11:37 AM, Lorenzo Tortora de Falco wrote:
Cara Anna, cari colleghi di Universitas,
sono perfettamente d'accordo per contrastare l'uso della
bibliometria, e
trovo al tempo stesso rivelatrice e sconcertante la frase che citi:
garantire un quadro di riferimento omogeneo in grado di indirizzare
il
comportamento dei docenti e, soprattutto **dei giovani ricercatori,
alla
qualità nella scelta di cosa, come e dove pubblicare*."
La parola chiave mi sembra essere "omogeneo". Siamo molto lontani da
ciò che
scrive Alain Connes (medaglia Fields del 1982) in a "A view of
Mathematics"
(
http://www.omath.org.il/image/users/112431/ftp/my_files/Alain%20connes.pdf?i
d=8883062) sulla ricerca in matematica:
<<It often begins by an act of rebellion with respect to the existing dogmatic description of that reality that one will find in existing
books.>>
Ma siamo molto lontani anche dal semplice buon senso di chi realmente
si
interessa in modo serio di politica della ricerca scientifica. Molte
"alte"
voci si sono alzate contro la bibliometria, ma questo è servito a
poco. La
mia sensazione è che purtroppo anche se un numero significativo di
colleghi
capisce il rischio di una "deriva bibliometrica", soprattutto per il
mondo
umanistico e per quello delle scienze più teoriche, all'atto pratico
accade
spesso che ognuno cerchi la sua convenienza del momento, personale
oppure
(nei casi migliori) della propria disciplina, ponendosi la domanda:
"ma io ci
rientro in questi criteri?" Se la risposta è positiva, ecco che la
critica si
fa più blanda e meno pressante.
In conclusione, io sono pronto a fare qualcosa in questa direzione,
ma in
tutta onestà non riesco a vedere un modo "intelligente" di
contrastare questa
tendenza, cioè che sia politicamente praticabile e che possa sortire
degli
effetti. Sono disponibilissimo anche ad azioni tipo mega-petizioni o
simili,
pur ritenendo che non serviranno, perché far sentire una voce è
sempre meglio
che tacere, e non si sa mai come sarà davvero recepita. Però mi
piacerebbe
trovare una forma più originale che possa in qualche modo attecchire,
e
confesso di non vederne alcuna. Forse però qualcuno ha idee in merito?
Saluti a tutti,
Lorenzo Tortora de Falco.
On Jan 30, 2014, at 10:46 AM, anna painelli wrote:
Buongiorno:
non so quanti di noi hanno letto questo documento dell'ANVUR
http://www.anvur.org/attachments/article/455/accreditamento%20corsi%20di%20d
ottorato.pdf
A pagina 5 recita "L'ANVUR ha cercato di armonizzare gli indicatori collegati ai
criteri A4
(qualificazione scientifica del collegio di dottorato) e A14
descritti
nella Sezione 3, con quelli utilizzati nella VQR 2004-2010 e con
indicatori
bibliometrici di largo uso nella prassi internazionale, *in modo da garantire un quadro di riferimento omogeneo in grado di indirizzare
il
comportamento dei docenti e, soprattutto **dei giovani ricercatori,
alla
qualità nella scelta di cosa, come e dove pubblicare*."
a me sembra un gravissimo attacco alla libertà di ricerca e quindi
alla
ricerca tout court.
Possiamo far sentire la nostra voce?
saluti anna
-- Anna Painelli Dip. Chimica Parma University 43124 Parma, Italy tel 0521-905461 fax 0521-905556 skype: anna.painelli
Universitas_in_trasformazione@mail.dm.unipi.it mailing list
Per consultare gli archivi, cancellarsi, o cambiare le proprie
impostazioni:
https://mail.dm.unipi.it/listinfo/universitas_in_trasformazione
Ulteriori informazioni, e per firmare la petizione, sito di Universitas
Futura: http://w3.disg.uniroma1.it/unira/index.php
Universitas_in_trasformazione@mail.dm.unipi.it mailing list
Per consultare gli archivi, cancellarsi, o cambiare le proprie
impostazioni:
https://mail.dm.unipi.it/listinfo/universitas_in_trasformazione
Ulteriori informazioni, e per firmare la petizione, sito di Universitas
Futura: http://w3.disg.uniroma1.it/unira/index.php
--
*Stefano Pascarella* Professore ordinario di Biochimica
*DIPARTIMENTO DI SCIENZE BIOCHIMICHE***
*SAPIENZA***
*Università di Roma***
Piazzale Aldo Moro, 5, 00185 Roma T (+39) 06 4991 7694/7574; F (+39) 06 4991 7566 Stefano.Pascarella@uniroma1.it http://dsb.uniroma1.it/
https://sites.google.com/a/uniroma1.it/masterbioinfo/
Universitas_in_trasformazione@mail.dm.unipi.it mailing list
Per consultare gli archivi, cancellarsi, o cambiare le proprie impostazioni: https://mail.dm.unipi.it/listinfo/universitas_in_trasformazione
Ulteriori informazioni, e per firmare la petizione, sito di Universitas Futura: http://w3.disg.uniroma1.it/unira/index.php