UN AGGIORNAMENTO
di Alfio Signorelli
Del finanziamento delle ricerche di interesse nazionale si è già occupato nel primo numero de “Il mestiere di storico” Nanni Montroni, che ha utilizzato al meglio le scarne informazioni disponibili nel sito web del ministero (allora Murst, oggi Miur) per dare una lettura convincente degli effetti del nuovo sistema sulle ricerche di storia contemporanea e sulle tendenze rilevabili nei primi tre anni di applicazione [1] : “la logica della concentrazione delle risorse di cui è figlia la nuova normativa – concludeva –sembra aver favorito un piccolo gruppo di dipartimenti e un piccolo gruppo di docenti”, con la inevitabile conseguenza che “tutti gli altri, nella povertà delle risorse del finanziamento ordinario delle università, sono doppiamente più poveri di quanto non lo fossero con i tanto vituperati finanziamenti a pioggia” (pp. 146, 149).
Il tema è di quelli che la Sissco deve tenere sotto costante osservazione, e su cui non è inutile tornar sopra, pur se a distanza di soli due anni, anche in considerazione del fatto che proprio intorno a un progetto di storia contemporanea si è creato un caso che ha fatto clamore, a cui accenneremo più avanti. Sulla base della stessa fonte utilizzata da Montroni [2], proverò dunque a sviluppare il discorso secondo la seguente scansione: il punto di partenza non può essere che l’aggiornamento al 2001 dei dati analizzati fino al 1999, per verificare in che misura le linee di tendenza individuate da Montroni trovino conferma nei due anni successivi; in secondo luogo mi soffermerò sul problema della valutazione dei progetti e sulla trasformazione dei relativi meccanismi e criteri nel corso dei primi cinque anni; in terzo luogo proporrò alcuni spunti di riflessione sull’efficacia e la validità del sistema di finanziamento dal punto di vista delle discipline umanistiche e in particolare della ricerca storica.
Le ricerche finanziate
Per aggiornare i dati relativi alle ricerche finanziate ho adottato gli stessi criteri enunciati da Montroni, prendendo in esame le tre aree scientifico-disciplinari in cui è possibile che vengano presentati progetti di storia contemporanea: l’area 11 delle Scienze storiche, filosofiche, pedagogiche e psicologiche, l’area 13 delle Scienze politiche e sociali e l’area 14 delle Scienze economiche e statistiche. Per quanto l’individuazione dei progetti ascrivibili per temi e metodi allo statuto della nostra disciplina sia opinabile e persino arbitraria, tuttavia la via empirica, come indicava già Montroni, non ha in questo caso molte alternative.
I progetti degli ultimi due anni, elencati nella tabella 1, sono solo 20, contro i 43 del triennio precedente: una contrazione che dà una prima conferma della tendenza a concentrare le risorse nelle mani di un numero sempre più esiguo di studiosi. È da notare, tra l’altro, che ben sette dei venti coordinatori avevano già ottenuto almeno un finanziamento tra il 1997 e il 1999.
Le tabelle 2, 3 e 4 comprendono i dati dell’intero quinquennio: quelli relativi ai primi tre anni sono tratti dalle tabelle elaborate da Montroni.
Tabella 1. Progetti di storia contemporanea finanziati dal Miur-Urst (2000-2001)
Tabella 2. Cofinanziamenti Miur-Urst a progetti di storia contemporanea (1997-2001)
Anni | Progetti | Cofinanziamento | Finanziamento totale | Cofin.to / Progetti | Fin.to tot. / Progetti | Unità operative | Cofin.to / Unità op. | Fin.to tot. / Unità op. |
1997 | 17 | 2.294 | 4.321,805 | 134,94 | 254,22 | 95 | 24,14 | 45,49 |
1998 | 12 | 1.642 | 2.496,180 | 136,83 | 208,01 | 49 | 33,51 | 50,94 |
1999 | 14 | 2.796 | 3.849,000 | 199,71 | 274,92 | 52 | 53,76 | 74,01 |
2000 | 12 | 2.365 | 3.588,000 | 197,08 | 299,00 | 63 | 37,54 | 56,95 |
2001 | 8 | 1.909 | 2.982,000 | 238,62 | 372,75 | 39 | 49,95 | 76,46 |
Totale | 63 | 11.006 | 17.236,985 | 174,70 | 273,60 | 298 | 36,93 | 57,84 |
I dati della tabella 2 presentano un andamento un po’ contraddittorio: da un lato, diminuzione del numero di progetti e aumento delle quote medie di cofinanziamento; dall’altro, inversione di tendenza nel numero di unità locali per singolo progetto, senza tuttavia che ne consegua una riduzione significativa del finanziamento per unità operativa, che anzi raggiunge nel 2001 il livello più alto.
Tabella 3. Cofinanziamento per atenei di appartenenza del/la coordinatore/trice nazionale
Nella tabella 3 trova conferma la concentrazione dei coordinatori nazionali in poche sedi: ai primi sei posti troviamo le stesse università che li occupano nella classifica 1997-99, con la sola differenza della Sapienza che passa dal sesto al terzo posto e di Catania che scende dal quarto al sesto. Queste sedi nei primi tre anni esprimevano 24 coordinatori (55,8%) e raccoglievano il 61,8% del cofinanziamento; sull’intero quinquennio, malgrado l’emergere di nuovi atenei, subiscono una flessione piuttosto modesta, con 33 coordinatori (52,4%) e il 58,7% dei fondi.
Un po’ diverso è il quadro della distribuzione delle risorse ai gruppi locali illustrato nella tabella 4, i cui dati da un lato confermano la graduatoria delle sedi che si assicurano le quote maggiori: le prime sette dell’elenco 1997-99, infatti, si mantengono ai primi sette posti, con la sola differenza della Sapienza che passa dal settimo al quarto, e di Napoli che scavalca Bari; dall’altro mostrano una tendenza al riequilibrio, in quanto solo poche sedi accrescono la loro quota percentuale, e non si tratta di quelle ai vertici della classifica. Particolare è però il caso di Roma, i cui atenei migliorano tutti in percentuale e, considerando anche quelli privati, fanno salire i fondi ottenuti dai gruppi di ricerca della capitale dal 7,7% dei primi tre anni al 12,9% del quinquennio.
Tabella 4. Cofinanziamento alle unità locali per ateneo
Prima di affrontare la questione della valutazione, resta da chiedersi quanto l’andamento dei progetti di storia contemporanea presentati e dei fondi loro assegnati sia coerente con l’andamento di ricerche e fondi delle aree scientifico-disciplinari al cui interno sono stati valutati. La tabella 5 fornisce qualche elemento di riflessione in proposito.
Balza agli occhi il fatto che, dal 1997 al 2001, la percentuale delle ricerche di storia contemporanea sul totale delle ricerche finanziate si è più che dimezzata, sia per numero di progetti (dal 14,4% al 7,1%), sia per importo del cofinanziamento (dal 16,3% al 7,9%). Questo in una situazione in cui, invece, il numero complessivo di progetti finanziati nei tre settori ha avuto oscillazioni limitate in più o in meno (1998-1999: +11,8%; 2000-2001: –15,1%) con una flessione piuttosto lieve nell’arco del quinquennio, passando dai 118 del 1997 ai 112 del 2001 (–5,1%).
Tabella 5. Numero di progetti e fondi assegnati a ricerche di storia contemporanea in rapporto alle aree scientifico-disciplinari di riferimento (1997-2001)
| Aree scientifico-disciplinari 11 – 13 – 14 | |||||
Anno | Numero di progetti cofinanziati | Cofinanziamento (in milioni di lire) | ||||
| Totale | Storia cont. | % | Totale | Storia cont. | % |
1997 | 118 | 17 | 14,4 | 14.083 | 2.294 | 16,3 |
1998 | 119 | 12 | 10,1 | 18.830 | 1.642 | 8,7 |
1999 | 133 | 14 | 10,5 | 26.698 | 2.796 | 10,5 |
2000 | 132 | 12 | 9,1 | 22.669 | 2.365 | 10,4 |
2001 | 112 | 8 | 7,1 | 24.126 | 1.909 | 7,9 |
1997-2001 | 614 | 63 | 10,3 | 106.406 | 11.006 | 10,3 |
Ciò vuol dire che la diminuzione del numero di ricerche finanziate non è determinata solo dalla concentrazione delle risorse, ma anche da una contrazione della storia contemporanea all’interno delle aree scientifico-disciplinari a cui afferisce. È difficile spiegare le cause di questa perdita di peso relativo, dato che il sito del ministero non dà alcuna informazione sui progetti non finanziati, di cui possiamo ricavare il numero per aree disciplinari, ma senza alcuna indicazione tematica. Non è possibile dunque determinare se il calo percentuale delle ricerche di storia contemporanea rispecchi una diminuzione dei progetti presentati o se debba attribuirsi piuttosto all’applicazione dei meccanismi e dei criteri di valutazione degli stessi progetti.
La valutazione
La principale novità introdotta con il nuovo sistema di finanziamento delle ricerche di interesse nazionale ha riguardato la valutazione dei progetti, per la quale si è fatto ricorso a revisori anonimi. Solo una parte del mondo italiano della ricerca aveva dimestichezza con meccanismi di questo tipo: ben poco praticati nel campo delle discipline umanistiche, rientravano fra le esperienze comuni solo di quei ricercatori dei settori scientifici in grado di competere in campo internazionale. E infatti il sistema ha stentato non poco ad entrare in funzione, ha suscitato, e continua a suscitare, polemiche e ha subìto, nei primi cinque anni di applicazione, continui aggiustamenti.
È un po’ presto per redigere un bilancio che tenga conto di tutti gli elementi in campo. Mi limiterò a richiamare le norme che regolano l’attività di valutazione, la loro trasformazione e il modo in cui sono state applicate, fornendo delle informazioni sintetiche ed essenziali sul comitato responsabile della selezione delle ricerche, sui revisori anonimi e sul rapporto quantitativo tra progetti e valutazioni.
La Commissione di garanzia – questo è il nome che sembra prevalere fra i tanti con cui questo organismo è stato indicato negli atti ufficiali – è nominata dal ministro per l’università. La sua composizione è determinata anno per anno dal decreto ministeriale con cui è emanato il bando per il finanziamento dei programmi di ricerca, e si è molto trasformata nel corso dei primi cinque anni. In prima applicazione della nuova normativa, nel 1997, il numero dei componenti era stabilito in cinque, scelti dal ministro all’interno di tre rose di cinque nomi indicate rispettivamente dalla Crui, dal Cun e dal Cnst [3]; la commissione si doveva rinnovare ogni anno per un terzo [4]. L’anno seguente veniva introdotta una prima modifica, in base alla quale due garanti erano nominati di libera iniziativa del ministro e solo tre si dovevano individuare nelle suddette rose; il rinnovo dell’organismo, inoltre, doveva riguardare “almeno due dei suoi componenti, di cui almeno uno scelto nelle liste di cui sopra”; e si stabiliva il limite massimo di tre anni di permanenza nella commissione [5].
Nel 1999 il numero dei componenti saliva a sette: tre di competenza diretta del ministro e quattro da trarre, soppresso ormai il Cnst,dalle altre due rose sempre di cinque nomi il numero minimo dei membri da sostituire annualmente passava a tre, da individuare uno fra i primi tre e due fra i quattro scelti dalle liste [6]. A partire dal 2001, infine, anche il ministro ha a disposizione quattro nomine di sua iniziativa, per cui la Commissione è formata oggi da otto membri, e deve essere rinnovata annualmente per almeno la metà, cioè due componenti nominati dal ministro e due tratti dalle liste Crui e Cun [7]. La tabella 6 dà il quadro completo di tutti coloro che hanno fatto parte della Commissione. Da essa risulta evidente che il meccanismo dei rinnovi, combinato con il succedersi dei ministri, ha determinato un turn over piuttosto rapido: senza considerare i quattro nuovi accessi del 2002, di cui non si può prevedere la permanenza tra i garanti, su 22 nominati, 13 sono rimasti in carica un unico anno, mentre solo in 5 hanno compiuto il triennio.
Per quel che riguarda le competenze dei commissari, l’incrocio tra sede, facoltà e settore disciplinare di appartenenza permette di individuare sia il profilo della Commissione anno per anno, sia gli ambiti geografici e scientifici più rappresentati nel tempo. Ma è un esercizio che ciascuno potrà fare per sé. Ciò su cui mi sembra invece importante richiamare l’attenzione, è la assoluta connotazione di genere dei garanti: tra i 26 commissari nominati nell’arco di sei anni non vi è neanche una donna; il che è tanto più grave in quanto non si tratta di cariche elettive, ma di un organo nominato da ministri di governi che, almeno fino al 2001, hanno dato a vedere di recepire le indicazioni europee per promuovere la parità e le pari opportunità fra i sessi in tutti i campi, non ultimo, naturalmente, quello della ricerca [8].
Tabella 6. Commissione di garanzia (1997-2002)
Sin dal primo insediamento la Commissione ha avuto tra i suoi compiti quello di redigere una lista di revisori scientifici, che dovevano essere in numero tale da assicurare per ogni progetto almeno due pareri anonimi, come prevede la normativa. Criteri e procedure seguite nella formazione di questo archivio sono illustrate annualmente nelle relazioni finali della Commissione, che non ha mai nascosto l’inevitabile carattere empirico, e persino di casualità, che aveva, soprattutto all’inizio, questa parte del suo lavoro. La relazione del 1997 ci dice solo che era stata “costituita una base di dati comprendente 4.900 nominativi, in buona parte docenti universitari italiani e stranieri, e strutturata in larga misura secondo le indicazioni fornite dai Dipartimenti e gli Istituti universitari consultati”; e che di questi, avendo scartato gli studiosi coinvolti in programmi da giudicare, “il numero di revisori utilizzati è stato di circa 2.000” [9].
Questo avvio non molto ben organizzato della formazione di un archivio di revisori ha avuto effetti anche sul lavoro degli anni seguenti. Nel 1998 la Commissione ha proceduto a un primo controllo delle liste, che ha permesso di aggiornare la posizione di 2.500 revisori. Nel 1999 è stata avviata una verifica sistematica dell’intero archivio, resa possibile dalla disponibilità di 2 borse di studio erogate dal ministero e parzialmente rinnovate anche negli anni successivi. In base alle informazioni fornite dagli stessi garanti, solo da quell’anno la Commissione ha cominciato a disporre di una banca dati sufficientemente ampia e articolata. Un dettaglio che ci fa capire quanto fossero confuse le idee nella fase di avvio del sistema di valutazione, è la disposizione contenuta nel primo decreto ministeriale del 1997, che prevedeva che anche i revisori, così come i componenti della commissione, venissero “sostituiti di almeno un terzo ogni anno”. Naturalmente questa norma è immediatamente caduta, ed è apparso subito chiaro che, al contrario, il vero problema era quello di stabilizzare un elenco più ampio possibile e di tenerlo sempre aggiornato.
Tabella 7. Revisori anonimi stranieri e italiani (1998-2001)
Una delle caratteristiche del sistema delle valutazioni che si è andato organizzando in Italia, è il massiccio ricorso a studiosi stranieri. Come è stato notato, si tratta di una peculiarità nostrana che può interpretarsi sia come stimolo positivo ad adeguarsi in tutti i campi a standard internazionali, sia, più realisticamente, come “sintomo di provincialismo e, soprattutto, di scarsa fiducia nella capacità autovalutativa del sistema accademico italiano”[10]. Comunque sia, come mostra la tabella 7, i revisori stranieri – a partire dal 1998, quando è stato introdotto l’uso contestuale dell’inglese per la formulazione dei progetti – sono sempre stati largamente in maggioranza nell’intero albo, che nel 2001 superava i 19.000 nominativi. Tra il 1998 e il 2001 l’incremento del numero dei revisori è stato vistoso e ha riguardato, in proporzioni diverse, tutti i settori. Nell’area 11 l’aumento è stato particolarmente consistente, mentre nella 13 e nella 14 è stato uguale o inferiore a quello complessivo. Anche la prevalenza degli stranieri è comune a tutti i settori, ma nei tre umanistici qui presi in considerazione la percentuale resta al di sotto di quella dell’insieme delle aree. In questi tre settori, tuttavia, si è prodotto un sostanziale riequilibrio, che ha portato nel 2001 la percentuale dei revisori stranieri a valori compresi tra 55 e 60, contro il 64,1 del dato nazionale. La tabella 7, per la verità, mostra anche quanto i dati forniti dalla Commissione di garanzia nelle sue relazioni annuali siano organizzati a volte in modo poco comprensibile: si vedano, ad esempio, le cifre relative ai nuovi revisori aggiunti annualmente, che si sono riportate solo per completezza di informazione, ma di cui è molto difficile cogliere il significato. Infatti, se si prova a calcolare le differenze in più o in meno di revisori stranieri e italiani da un anno all’altro, si constata subito che in più di un caso i dati non sono compatibili, tranne a ipotizzare cambiamenti in massa di nazionalità.
Tabella 8. Rapporto tra progetti presentati e valutazioni effettuate (1997-2001)
Area | 1997 | 1998 | 1999 | 2000 | 2001 | ||||||||||
R | V | V/R | R | V | V/R | R | V | V/R | R | V | V/R | R | V | V/R | |
11 | 196 | 479 | 2,4 | 116 | 342 | 2,9 | 106 | 278 | 2,6 | 102 | 308 | 3,0 | 119 | 385 | 3,2 |
13 | 136 | 285 | 2,1 | 102 | 281 | 2,8 | 95 | 192 | 2,0 | 107 | 389 | 3,6 | 112 | 383 | 3,4 |
14 | 52 | 104 | 2,0 | 35 | 93 | 2,7 | 44 | 104 | 2,4 | 43 | 133 | 3,1 | 50 | 144 | 2,9 |
11, 13, 14 | 384 | 868 | 2,3 | 253 | 716 | 2,8 | 245 | 574 | 2,3 | 252 | 830 | 3,3 | 281 | 912 | 3,2 |
Tutte | 1.645 | 4.153 | 2,5 | 1.358 | 3.987 | 2,9 | 1.345 | 3.976 | 3,0 | 1.718 | 5.178 | 3,0 | 1.991 | 5.967 | 3,0 |
R = richieste presentate; V = valutazioni effettuate; V/R = numero medio di valutazioni per richiesta
Come si è già detto, per ogni progetto presentato è previsto che vengano effettuate non meno di due valutazioni. Poiché disponiamo solo dei dati aggregati per anno e per area, non è possibile sapere se la commissione si sia attenuta sempre scrupolosamente a tale criterio. Dai dati della tabella 8 sembrerebbe di sì, anche se nel 1997 per l’area 14 le valutazioni sono state esattamente il doppio delle richieste; e questo lascia qualche dubbio. Comunque, il numero di valutazioni per progetto è passato in complesso da 2,5 a 3; e nelle aree 11, 13 e 14, che nei primi anni avevano un rapporto inferiore a quello globale, la situazione si è ribaltata a partire dal 2000.
Cambiamenti piuttosto rilevanti hanno subìto, quasi annualmente, anche le istruzioni impartite ai revisori sulle modalità da seguire nel formulare le valutazioni. La tabella 9 permette di apprezzare questi cambiamenti, che riguardano sia il numero sia l’oggetto delle domande alle quali il revisore deve rispondere traducendo la sua valutazione in un punteggio da 1 a 5 [11].
Tabella 9. Scheda di valutazione per il revisore anonimo. Fattori di valutazione (1997-2001)
Ne 1997, con undici “fattori di valutazione”, il punteggio massimo era di 55 punti. Il revisore, però, non era tenuto a rispondere a tutte le 11 domande ma, come chiariva una nota alla scheda di valutazione, poteva lasciare in bianco gli spazi corrispondenti a quelle su cui non voleva pronunciarsi. Questa norma non era certo un invito alla trasparenza: in pratica, mentre per i fattori valutati da 1 a 5 punti al revisore era richiesta una “breve giustificazione del punteggio”, per quelli su cui non intendeva esprimersi, assegnando così zero punti, non doveva dare alcuna motivazione. Nel determinare la graduatoria dei progetti in base alla quale la Commissione disponeva l’erogazione dei fondi, oltre al punteggio finale dei fattori di valutazione, influiva anche l’esplicito giudizio richiesto al revisore sulla finanziabilità della proposta, che veniva espresso attraverso quattro livelli di merito, dalla A, che indicava “alta priorità”, alla D, che indicava insufficienza [12].
Questi due aspetti, cioè la libertà di non rispondere alle domande e il duplice metro di valutazione – punteggio da un lato, livello di finanziabilità dall’altro -, hanno mostrato, nella applicazione pratica, non pochi inconvenienti, ai quali si è cercato di porre rimedio sin dall’anno seguente. Nel 1998, infatti, la scheda di valutazione è stata semplificata, eliminando le due domande relative alla “rilevanza internazionale del programma di ricerca” e alla “congruenza fra obiettivi proposti e metodiche adottate per conseguirli”, e riorganizzando le altre nove con una nuova formulazione e secondo una diversa successione. La valutazione della finanziabilità del progetto, inoltre, è stata eliminata come giudizio separato da quello sui singoli fattori, ed è stata collegata al punteggio assegnato alle prime due domande, a cui diveniva obbligatorio per il revisore fornire risposta: i livelli di ammissibilità al finanziamento restavano gli stessi quattro dell’anno precedente, ed erano indicati con le stesse lettere, da A a D; ma la collocazione del singolo progetto all’uno o all’altro livello veniva ora determinata dal prodotto dei punteggi assegnati alle prime due domande [13]. Questa modalità di valutazione è rimasta in vigore per tre anni, con la sola modifica, introdotta nel 1999, del numero delle domande, che sono passate da nove a otto per l’accorpamento delle ultime due relative alla congruità delle risorse e dei costi previsti.
Nel 2001 il sistema è stato di nuovo sostanzialmente rivisto, con l’introduzione delle seguenti modifiche [14]:
|