Home » Politiche educative » Il “valore aggiunto” di una ricerca educativa organizzata

Il “valore aggiunto” di una ricerca educativa organizzata

Pubblicato il: 11/01/2012 18:26:22 -


A fronte di una storica mancanza del nostro sistema di istruzione nell’ambito dell’organizzazione della “ricerca educativa”, una proposta: invece di frammentare risorse e “appaltare” ricerche, si può pensare di mettere a punto degli strumenti valutativi che diano padronanza di analisi alle scuole stesse, nell’ottica di una normalizzazione di tali attività e del loro inserimento nel piano annuale di ogni scuola?
Print Friendly, PDF & Email
image_pdfimage_print

Si afferma spesso, come cosa comunemente riconosciuta, che il nostro sistema di istruzione nazionale sconta, rispetto ad altre esperienze con le quali deve confrontarsi a livello dell’Unione Europea, un ritardo storico nello sviluppo di un “sistema di valutazione”. A colmare tale ritardo sono in fase di realizzazione alcune iniziative che, da qualche anno, caratterizzano l’attività dell’INVALSI e che, come retaggio del ritardo stesso cui si vuol porre rimedio, suscitano un permanente clima di discussione oppositiva, se non di vero e proprio boicottaggio culturale, prima ancora che realmente praticato.

Tutto vero in queste affermazioni. Ma vorrei allargarne la portata.

Lungo l’intero sviluppo del sistema nazionale di istruzione, in particolare dalla Repubblica in poi, è mancata un’organizzata e permanente “ricerca educativa”. Intendo con i termini “ricerca educativa” non la ricerca pedagogica o didattica, realizzata (e non sarebbe male ricostruirne una storia) nelle Università, ma la ricerca “sul” sistema di istruzione.

In altri Paesi, tale ricerca è andata di pari passo all’elaborazione, con le loro dimensioni di massa rivolte all’universo delle nuove generazioni, di sistemi di istruzione ed educazione come parti essenziali del welfare nazionale, in risposta a un diritto all’istruzione inteso come “diritto sociale” di tutti i cittadini.

La ricerca “sul” sistema di istruzione si costituisce quasi fisiologicamente come “fenomeno sociale” oltre che come sottosettore istituzionale: dunque come macrosistema il cui “funzionamento” (risorse, organizzazione, ceti professionali coinvolti, “produzione”, economicità, composizione della domanda sociale, raccordo con lo sviluppo economico e sociale complessivo…) incide sia quantitativamente sia qualitativamente non solo sulla destinazione delle risorse pubbliche e private (la spesa sociale dei sistemi di “welfare state”), ma anche su ciò che ormai generalmente viene sintetizzato nei termini di “capitale sociale”, disponibile e “investibile” nel disegnare il futuro.

Gli esempi di quanto realizzato in altri Paesi sono numerosi e hanno dato luogo a diverse forme organizzate e a diverse soluzioni istituzionali e non. Qui importa sottolineare che, quali che siano le soluzioni organizzative e ordinamentali, lo sviluppo di una “organizzazione della ricerca educativa” è guidato da un’idea di fondo: esso può/deve costituire la fonte di un complessivo feed back capace di nutrire la “razionalità” dei decisori politici e amministrativi e, nel contempo, “supportare”, in termini di orientamento, promozione e consulenza, il lavoro dei suoi protagonisti, innanzi tutto i docenti nel loro personale e collettivo lavoro organizzato nelle scuole.

Ricordo che nel nostro sistema il problema si pose con sufficiente chiarezza alla metà degli anni ’70, quando si prese atto (in ritardo e con resistenze culturali e politiche…) delle dimensioni quantitative e qualitative che la scuola (di massa) andava assumendo, superando nei fatti, se non negli assetti istituzionali, il carattere elitario e ristretto che aveva storicamente avuto.

Non è casuale il fatto che, insieme alla “riforma della gestione” che, sia pure nelle condizioni ristrette della gestione collegiale e con la morfologia degli Organi Collegiali sia interni sia esterni alla scuola, voleva “aprire” quest’ultima alla dinamica “sociale”, si diede vita a un “sottosistema” della ricerca educativa, incentrato su due Istituti Nazionali (allora erano il CEDE a Villa Falconieri e il prodotto della trasformazione della Biblioteca di Documentazione Pedagogica di Firenze), e su istituti regionali (IRRSAE) collocati più direttamente in rapporto con il territorio (la “prima regionalizzazione” istituzionale è sostanzialmente contemporanea).

Non è certo il caso, qui, di ripercorrere la storia delle realizzazioni di quella innovazione istituzionale. Basti affermare, senza mortificare l’entusiasmo e l’impegno di molti che in quel sistema operarono, che, come spesso accade nel nostro Paese, ciò che allora il legislatore disegnò non ebbe traduzione operativa costante, costruzione paziente e condivisa, chiarezza di missione e di condizioni operative. Non divenne, cioè, mai “sistema”.

Le competenze fondamentali della ricerca educativa vennero “divise e disperse”: la ricerca, la documentazione, la formazione e l’aggiornamento del personale della scuola, la sperimentazione sul campo, la valutazione (si pensi che fin dall’origine al CEDE fu assegnata la competenza di seguire i diversi progetti di rilevazione valutativa internazionale come IEA) furono scorporate; l’operato dei due istituti nazionali fu separato, o comunque reso di difficile osmosi, da quello degli istituti regionali.

Si trattava di “competenze” che non trovavano corrispondenza nel paradigma amministrativo tradizionale, e, dunque, si procedette, in coerenza con quanto si faceva anche in altri settori pubblici, a incardinarle in “enti pubblici autonomi”, mantenendo la “riserva di potestà amministrativa” tramite la loro nomina di “enti strumentali del Ministero”.

Come successe per molti altri enti pubblici in altri settori, la definizione dei loro organismi dirigenti, tra egemonia del paradigma amministrativo e subalternità politica, non fu proprio esempio di valorizzazione del loro ruolo potenziale e delle ragioni profonde che la loro creazione avrebbe dovuto interpretare (un effetto di quel fenomeno che Massimo Severo Giannini chiamò, rispetto all’assetto generale della Pubblica Amministrazione e con estrema sintesi, “l’entismo”). Basterebbe qui ricordare, come esemplare, il fatto che tra la creazione normativa degli Istituti regionali e la loro effettiva messa in opera passò un decennio… I due Istituti nazionali furono risparmiati da tale ritardo solo perché preesistenti…

La storia di questo ultimo decennio ben conferma tale difetto originario: credo che un’occasione storica di riforma fu sprecata a cavallo del nuovo secolo. Poi, lungo ben quattro gestioni ministeriali, diverse e di differente colore politico, l’intero sistema è stato posto “in transizione” e in gestione straordinaria. Con ciò, non possiamo definirlo “paralizzato”: la sua operatività, sia pure mortificata dalle condizioni di “straordinarietà” degli assetti, è proseguita (si pensi appunto alle realizzazioni recenti dell’INVALSI o dell’ANSAS. Ma che dire della abbandonata decadenza degli IRRE?). Ma, certo, alla “transizione permanente” degli assetti istituzionali e organizzativi, ha corrisposto un inevitabile appannamento della ragione stessa della loro esistenza (quel generale feed back sia verso i decisori sia verso le scuole e i docenti) e una “fatica permanente” del riconoscimento sociale del loro ruolo e dunque della funzione essenziale della ricerca educativa che, come tutta la “ricerca sociale”, è caratterizzata dall’interazione tra “soggetto e oggetto” dell’indagine, che ne condiziona il successo e i risultati.

Più recentemente, tale situazione è aggravata dall’impossibilità di interpretare l’organizzazione della ricerca educativa come “tecnostruttura”, essenziale per il “governo misto” del sistema di istruzione, ormai costituzionalmente caratterizzato da titolarità plurime. Il sistema della ricerca educativa dovrebbe, infatti, a maggior ragione, operare come elemento unificante sul piano della “conoscenza scientifica” del sistema di istruzione, del suo funzionamento e dei suoi problemi, ed essere resa disponibile a tutti gli interlocutori istituzionali, e non come apparato “strumentale” del solo Ministero e dunque dell’amministrazione statale.

L’ultimo decennio non ha visto nascere né una riflessione critica su quanto è stato realizzato negli anni, sui suoi difetti, errori o mancanze, né una rielaborazione di sensate proposte di “ricostruzione” del sistema della ricerca educativa; è quindi mancato, a tale impresa, il carattere della continuità necessaria dell’impegno (non si costruisce un “sistema” in pochi anni), in nome della ricerca di sempre nuovi “imprimatur” politici… Se davvero si volesse, la pubblicistica disponibile offrirebbe numerose e importanti riflessioni e proposte in merito, sviluppate lungo tutti gli anni ’90 del secolo scorso… Di norma rimaste inascoltate.

In tale quadro di sospensione prolungata delle funzioni e degli assetti istituzionali della ricerca educativa, un aspetto fondamentale di quest’ultima, cioè la “valutazione di sistema”, ha assunto, per diverse ragioni, molte delle quali di origine extranazionale e comunitaria, un’evidenza tale da diventare oggetto di una discussione allargata, ben oltre i confini scolastici, ed essere richiamata in occasione di dibattiti politici, confronti culturali, proposte di iniziativa che si misurassero con la scuola. “Valutazione” sembra essere diventata una “buzz-word” disponibile in ogni convegno o seminario…

Non è inutile tentare di ricollocare la questione della valutazione di sistema entro il campo complessivo della ricerca educativa, la cui destrutturazione permanente rappresenta la vera sofferenza del sistema di istruzione.

La “matrice” della valutazione è, infatti, complessa. Che cosa valutare (gli apprendimenti, le organizzazioni, il personale); con quali modalità (protocolli specifici per ogni oggetto di valutazione); quale sia il soggetto della valutazione (dall’autovalutazione che, comunque, richiede “osservazione esterna” sia pure in chiave di “rispecchiamento”, all’eterovalutazione, ovviamente con protagonisti diversi e “professionali”); con quali finalità (dal dare fondamento a processi di miglioramento, fino a ipotizzare istituti “premiali”). Se questa “matrice” non viene esplorata a 360 gradi, l’“accettabilità sociale” della valutazione stessa ne risulta compromessa. È questo il senso del richiamo esteso alla ricerca educativa, della quale quella valutativa è ampia ma non esclusiva parte.

Una delle “celle” di tale matrice (la rilevazione degli apprendimenti) ha, invece, in gran parte monopolizzato l’intera discussione; ciò minaccia di appannare l’obiettivo generale della politica dell’istruzione, cioè l’organizzazione della ricerca educativa.

Naturalmente appare più che comprensibile che le rilevazioni sui livelli di apprendimento suscitino tanta appassionata discussione Nulla di male, ovviamente, anzi. Purché sia chiaro che si tratta solamente di un segmento parziale di una possibile valutazione di sistema, con l’avvertimento che scambiare “la parte per il tutto” contribuisce a riprodurre equivoci di fondo.

Sul problema specifico indico di seguito alcuni di questi equivoci, evidenti anche nei contributi di interlocutori autorevoli.

1. La “rilevazione dei livelli di apprendimento”, attraverso test unici a livello nazionale per i diversi livelli scolari, non ha nulla a che vedere con la “valutazione degli apprendimenti” nel contesto del processo di apprendimento. Quest’ultima è di competenza dei docenti nel loro lavoro personale e collettivo, ha come oggetto il singolo discente e si esprime su un set complesso di variabili, osservazioni, appezzamenti e giudizi che coprono (o almeno dovrebbero) il processo di apprendimento nel suo complesso. La “strumentazione” utilizzata può essere varia e più o meno apprezzabile rispetto agli obiettivi programmati, inserita nella più o meno adeguata competenza professionale socializzata dei docenti, sulla quale riposa, in ultima analisi, la doppia condizione della personalizzazione della valutazione e della tendenziale confrontabilità sistemica dei suoi esiti. La rilevazione dei livelli di apprendimento è, invece, operazione condotta “ex post” rispetto al processo, su “oggetti parziali” che acquistano il significato di “indicatori” dei livelli generali acquisiti; non è, per definizione, “personalizzata” sui singoli discenti, né coinvolge direttamente la competenza valutativa dei singoli docenti. Non a caso, la metodologia utilizzata per la rilevazione ha applicazione ristretta solamente ad alcuni “oggetti” del percorso di apprendimento. Anche a livello della ricerca internazionale, tali rilevazioni, e con tale scopo, sono limitate a lingua madre e matematica; si può aggiungere solamente una lingua straniera e le competenze in campo delle TIC; già le “scienze” (qualunque cosa si intenda con tale termine…) non possono essere interpretabili efficacemente come “indicatori” del processo generale di apprendimento. Di conseguenza, affermare, come mi pare faccia per esempio l’amico Tiriticco, che l’INVALSI “valuta” gli apprendimenti, se da un lato è una semplificazione verbale, dall’altro può essere foriera di enormi equivoci, in una doppia e speculare direzione: per chi vi si opponga, in nome dell’insostituibile funzione della valutazione dei docenti; e per chi ne esalti impropriamente la funzione di “fondamento” della valutazione di sistema e a essa colleghi un’ampia raccolta di misure di “politica scolastica” (dai parametri degli investimenti in istruzione, alle politiche di incentivo o di premio). Avvalorare tale equivoco costituisce, congiuntamente e in entrambi i casi, una “sciocchezza scientifica” e un “opportunismo politico”. In un modo o nell’altro, si allontana la realizzazione di un’effettiva cultura valutativa, che è compito di lunga lena e di paziente costruzione (soprattutto, lo ripetiamo, per il retaggio storico del nostro sistema di istruzione).

2. Per tali caratteristiche, le rilevazioni dell’INVALSI si sottraggono in origine alla possibile applicazione dei costrutti didattici “normali” che parametrano la misura dei risultati alla corrispondenza con obiettivi assegnati nei processi didattici. Si può e si deve discutere sulla pertinenza e sull’adeguatezza degli strumenti utilizzati per le rilevazioni. L’INVALSI chiarisce preliminarmente quali siano i “quadri di riferimento” utilizzati per l’elaborazione dei test (basta consultarli sul sito dell’Istituto) e i loro riferimenti, sia alle diverse “produzioni” di indicazioni e curricoli generali sia alle esperienze concrete messe in campo dalla scuola. La critica anche serrata è necessaria per migliorare costantemente la strumentazione. Certo la proposta di “sospendere le prove” in attesa che siano “migliori” non conforta tale processo di critica e miglioramento. Su questo, non sono affatto d’accordo con quanti la sostengono (anche in campo sindacale). Si tratterebbe di convalidare una assenza, della quale scontiamo il retaggio storico come sistema. L’elemento fondamentale di tali rilevazioni, che va anche al di là degli inevitabili difetti, risiede nel fatto che si tratta di strumenti unici somministrati in termini eguali alla popolazione scolastica dei diversi livelli. Dunque possono (e devono) essere assunti, con tutte le precauzioni scientifiche del caso, i risultati “grezzi e medi” e il loro significato. Ma soprattutto i differenziali, le varianze, le distribuzioni dei risultati sono fonte di preziosissime informazioni, sia per quanto attiene al sistema, alle sue ripartizioni territoriali e settoriali, sia per quanto riguarda la singola scuola. Mi si permetterà di sostenere che, proprio su questo fronte di preziosissime (e scomode) letture dei risultati delle rilevazioni, si preferisce spesso “sorvolare” o non approfondirne i significati e i sintomi. Per la fatica del lavoro analitico, da un lato, ma soprattutto per le scomode verità che ne emergono. Solo qualche spunto: quando il confronto tra la varianza tra le ripartizioni territoriali e quella interna al campione complessivo rivela che la prima è significativamente più alta (e spesso in misure “incolmabili”) rispetto alla seconda, e che nel confronto di serie storiche tale differenza si accentua, possiamo continuare a dare per scontato il ruolo della scuola come strumento capace di colmare le differenze socioculturali? Possiamo continuare a sostenere l’“unitarietà” del sistema di fronte a tale indicatore di non equità? O, piuttosto, non dobbiamo delineare elementi di razionalità diversa nella politica di investimenti, individuando e selezionando priorità di politica scolastica? Quando, all’interno di una scuola elementare, l’analisi dei risultati rivela che quelli delle classi a tempo pieno sono generalmente e spesso significativamente inferiori (il caso è diffusissimo) di quelle a “tempo normale”, abbiamo il coraggio di “decostruire” almeno una parte delle ragioni agitate a difesa del tempo pieno, non per abbandonarle, ma per sottoporle a sensata “falsificazione”, che restituisca al tempo pieno le sue autentiche ragioni? E anche a una rielaborazione di parametri organizzativi adeguati? O è più comodo consolarci con quello che Gramsci chiamava il “piagnisteo degli eterni innocenti”? Quando, in seguito a tante preoccupazioni che richiamano alla necessità di valutare il “valore aggiunto” dell’operato di una scuola, depurando i dati grezzi dall’opera delle variabili socioeconomiche, culturali e ambientali, si scopre che il più alto valore aggiunto è erogato dall’istruzione tecnica e non dai licei; ma contemporaneamente osserviamo che la “domanda sociale” si dirige proprio verso i settori a minore valore aggiunto, possiamo interrogarci, e in modo radicale, sugli effetti di una politica scolastica che mantiene e riproduce scale di valori deformate, e letture improprie delle “convenienze sociali”, interpretate individualmente e collettivamente? Solo alcuni spunti ma che comprovano l’equivoco di cui sopra: proprio chi paventa il rating limita le proprie analisi al livello delle possibili “graduatorie” (il loro fascino latente). non approfondendo le analisi determinate e differenziate che i dati consentirebbero e che investono sia le politiche scolastiche, sia le scelte concrete a livello di scuola.

3. Naturalmente, l’analisi dei risultati delle rilevazioni è fatica non da poco. A buon diritto si osserva che a tale impegno dovrebbero essere dedicate, scuola per scuola, risorse adeguate e un’adeguata consulenza e assistenza alla lettura. Il valore diagnostico di tale osservazione è notevole, sia a livello di sistema sia a livello di scuola; invece di frammentare risorse e “appaltare” ricerche, sarebbe essenziale mettere a punto una varietà di strumenti che dessero padronanza di analisi alle scuole stesse, comprese delle misure organizzative che rendessero l’impegno richiesto dalle rilevazioni, e quello richiesto dalla lettura analitica dei risultati, “attività normali” da inserire nel piano di attività annuale di ogni scuola, con i dovuti riflessi anche di carattere sindacale. Su tutto ciò nessuna critica sarà mai di troppo… Anche perché nulla è in grado di costruire consenso, abbattere le resistenze e le paure delle “graduatorie” quanto la misura effettiva delle indicazioni di miglioramento sia dell’attività della scuola, sia della politica scolastica complessiva, che possono provenire da tale analisi determinata e differenziata. Nelle scuole dove ciò si fa con impegno organizzato, la realtà mostra docenti tutt’altro che “generalmente oppositivi” come sostiene qualcuno. Ed è questo il vero “valore aggiunto” della ricerca educativa organizzata come componente essenziale del sistema di istruzione.

4. Anche l’osservazione critica, relativa al pericolo di “teaching by test” o dell’opportunismo che può derivare dalla messa a regime di tali strumenti, è fuori bersaglio. Il “teaching by test” è un pericolo reale nei sistemi che standardizzano, in tale direzione, l’attività di valutazione degli apprendimenti. La nostra realtà è assai lontana da tale situazione, sia per la comune e socializzata cultura valutativa dei docenti italiani (e non richiamo necessariamente un “valore”, anzi…) sia per la “delimitazione” rigorosa del significato delle rilevazioni dei livelli di apprendimento, che ho tentato di definire precedentemente. D’altro canto, a proposito di pericoli di appiattimento e di opportunismo, che dire di prassi didattiche che si ripetono sempre uguali a se stesse, anno per anno, classe per classe, programma per programma? E sempre senza il pungolo e la ricchezza di un rispecchiamento analitico che provenga da sistematiche osservazioni condotte dall’esterno.

Franco De Anna

34 recommended

Rispondi

0 notes
474 views
bookmark icon

Rispondi