Home » Politiche educative » Aggiustare la mira o inventarsi i bersagli? A proposito delle rilevazioni INVALSI

Aggiustare la mira o inventarsi i bersagli? A proposito delle rilevazioni INVALSI

Pubblicato il: 10/05/2011 11:30:12 -


Le rilevazioni INVALSI sono a brevissima scadenza. Le prese di posizione, i distinguo, le adesioni, i se e i ma si moltiplicano anche su queste pagine. Vorrei dare un contributo.
Print Friendly, PDF & Email
image_pdfimage_print

1. A rigore ciò che opera l’INVALSI attraverso le prove somministrate progressivamente agli alunni di tutti gli ordini di scuola, non è una “valutazione degli alunni”, almeno nel senso che, nella scuola, si dà a questo termine. Si tratta invece di una “rilevazione” dei livelli di apprendimento, condotta con metodologie standard e a distanza (test), e su “oggetti parziali” (lingua madre e matematica), che consentono confronti nazionali e internazionali. Si può (si deve) dunque discutere sul senso di tale operazione “sistemica”, ma affermare che “…la valutazione è ben altro” significa usare una verità (è proprio così), per una polemica “inventata” (nessuno vuole sostituire con le prove INVALSI la valutazione dei docenti e la complessità dell’attività valutativa). Insomma “costruirsi il bersaglio” per assicurarsi di centrarlo.

2. Su questa linea stanno tutte le osservazioni (giuste) che riguardano la complessità delle variabili che normalmente sono (dovrebbero…) essere esaminate nella valutazione scolastica; il carattere “freddo” e parziale della valutazione condotta con la sola metodologia del test; la parzialità degli oggetti valutati (matematica e italiano) rispetto alla complessità dei saperi e dei processi di apprendimento; la necessità di tenere conto delle variabili di contesto e della loro influenza, gli esiti di apprendimento, ecc. Tutto vero ma, semplicemente, la rilevazione ha altri scopi, si prefigge altri obiettivi e semmai va considerata come fonte di ulteriori strumenti che possono aiutare i docenti stessi ad affrontare la complessità intrinseca del valutare.

3. Vi sono anche le obiezioni che in sostanza così argomentano: “…nei paesi dove più largamente e da più lungo tempo sono utilizzati strumenti simili, la critica ne ha dimostrato limiti… Dunque perché adottarli?” Ha naturalmente senso ed è più che condivisibile l’esortazione a tener conto di quanto fatto da altri, a valutarne gli effetti ed i limiti. Tuttavia… mi accontento di una metafora: sulla tastiera un Fa diesis e un Sol bemolle sono il medesimo tasto. Ma in una melodia arrivarci “da destra” o arrivarci “da sinistra” cambia parecchie cose. Nei “sistemi sociali” i percorsi ed i processi danno significato ai ”fatti”. Il medesimo “fatto” ha significato diverso se si verifica in “formazioni sociali” diverse. Allo stesso modo un processo di centralizzazione relativa in una società storicamente caratterizzata da autonomia e decentramento (vedi, ad esempio, i sistemi di istruzione anglosassoni) non “incontra a metà strada”, se non nelle analisi superficiali, un processo di decentramento di un sistema caratterizzato da centralismo storicamente consolidato (vedi sistema di istruzione italiano). Le esperienze degli altri sono fonte preziosa di dati e di attenzione critica, ma non sostituiscono la necessità di sperimentare in proprio. Così, per esempio, possiamo essere avvertiti sui pericoli del “cheating”, piuttosto che dell’insegnamento finalizzato al “testing”, ed elaborarne i rimedi. Ma elaborare tali consapevolezze è altra cosa che svalutare lo strumento. Dovremmo tutti sapere dalla nostra esperienza di docenti, sia che non vi è strumento didattico che non abbia difetti cui rimediare accortamente, sia che ogni “strumento” implica effetti deformanti sull’osservazione. Nessuno, neppure in campo di “scienze esatte” potrebbe ragionevolmente fare alcuna “sperimentazione” se non tenesse conto di ciò.

4. Dalle rilevazioni INVALSI scaturiscono dati che consentono “comparazioni sistemiche” rispetto a un panorama internazionale che utilizza strumenti analoghi, e rispetto alle articolazioni, non solo territoriali, del nostro sistema di istruzione. Tali dati non sono certo esaustivi, ma consentono di arricchire la “razionalità decisoria” del decisore politico e amministrativo di sistema (sempre che voglia o sappia tenerne conto) e di arricchire la “razionalità argomentativa” di chi voglia confrontarsi con i problemi della scuola (sempre che non faccia prevalere pregiudizi, ideologie e le parzialità di interessi).

5. Ma il flusso di dati che proviene dalle rilevazioni, investe la fonte stessa della rilevazione, la singola scuola. In tal caso questi dati sono fonte preziosa di informazione, che aiuta a “riflettere sul proprio lavoro” gli stessi docenti, a patto che dalla lettura non superficiale dei dati stessi sappiano e vogliano ricavare le informazioni significative (che, per essere espliciti, non sono le “graduatorie” tra chi ottiene risultati migliori, stilate utilizzando i dati per grandi aggregati). I dati in sé sono “muti” di significato. Vanno letti e correlati, per diventare informazioni; e queste ultime raccolte e correlate per diventare “sintomi”. E da questi, con analogo sforzo interpretativo, si possono ricavare “diagnosi”. La tabella più completa di dati non sostituisce la “catena inferenziale” capace di renderli significativi. Del resto la “valutazione” è sempre il prodotto di due attività: la “misura” e la “elaborazione del giudizio”. Non c’è misura, per elaborata che sia, che sostituisca il giudizio o lo “implichi in automatico”. Ma non c’è assennata elaborazione del giudizio che non si alimenti con la catena inferenziale citata, che parte da dati e misurazioni condotte con rigore metodologico e individuazione di strumentazione opportuna. Naturalmente non tutto si può “misurare”, ma quando lo si possa ciò va fatto, proprio per liberare “l’elaborazione del giudizio” sia da arbitrarietà, sia dalla pretesa “oggettività automatica” della misura.

6. Ciò vale ancor più di fronte alla considerazione della “parzialità” degli oggetti rilevati: i soli apprendimenti in lingua madre e matematica. Tale limite da un lato interpreta correttamente i limiti stessi della metodologia utilizzata (il testing nazionale e standardizzato) e la rende confrontabile con analoghi modelli internazionali di ricerca educativa; dall’altro rende esplicito e dichiarato che non si tratta di “valutazione” sostitutiva del lavoro insostituibile del docente. Occorre invece assumere i risultati della rilevazione, nelle loro articolazioni, nazionali, territoriali, locali, di singola scuola e di singola classe, come “indicatori” (tra gli altri) dei caratteri e dei risultati dei processi di apprendimento, la cui complessità non è riducibile a standard, ma non per questo esime dal farne oggetto di analisi e di attenzione critica. Indicatori, ossia “segnali” che possono contribuire a guidare l’analisi, lo sforzo di interpretazione e di consapevolezza delle caratteristiche del proprio lavoro.

7. L’INVALSI lavora, nella predisposizione delle prove di rilevazione, sulla base di “quadri di riferimento” esplicitati e dichiarati “ex ante”, sia per italiano che per matematica. Tali quadri sono desunti sia dalle problematiche didattiche e pedagogiche che hanno largo riscontro nella ricerca internazionale, sia dalla elaborazione nazionale, sia infine da numerosa e storica sperimentazione messa in atto da tempo nella scuola italiana. I test sono messi a punto con riferimento a tali quadri e le prove sono articolate secondo le voci che articolano i quadri. Ciò significa che il valore diagnostico della rilevazione può consentire un approfondimento analitico rispetto alle conoscenze che sono implicate in ciascun “item”, articolato non solo per gli oggetti di insegnamento (matematica e italiano) ma per le articolazioni interne essenziali dei loro curricoli (la geometria piuttosto che il calcolo o il trattamento e la rappresentazione dei dati; la comprensione del testo piuttosto che la grammatica). Avendo provato direttamente a condurre insieme a docenti tali letture “diagnostiche” sui dati della singola scuola, non su quelli “nazionali”, assicuro che le informazioni che se ne ricavano sono preziose e in grado di stimolare autoanalisi che altrimenti rimangono mortificate nelle procedure “standardizzate dall’abitudine” (il vero “standard” sempre in agguato) del lavoro quotidiano dei docenti. I “quadri di riferimento” in base ai quali lavora l’INVALSI e che sono espliciti e dichiarati “ex ante”, hanno infine anche un buon valore di “indicazioni didattiche” di carattere generale (dunque non per il “teaching by test”). Il che non guasta in una scuola bersagliata da “indicazioni nazionali” di diversa fattura e che si susseguono nel tempo con cadenze che non ne consentono verifiche sul campo.

Tutto bene dunque? Affatto. Molte sono le cose che si offrono alla riflessione critica, a patto di superare la tentazione di costruirsi il bersaglio piuttosto che dedicarsi alla cura della mira. Solo alcuni esempi.

1. Io penso che debba essere riconosciuto all’INVALSI il grande lavoro che sta facendo in questi ultimi anni, con l’organizzazione delle rilevazioni che lentamente devono acquistare il rango di attività sistemica e regolare. Il compito, per un sistema di istruzione che non si è mai dotato di strumenti permanenti di rilevazione sistemica è di grande portata e comporta ovviamente, soprattutto in fase di avvio e consolidamento, difetti da correggere, contraddizioni di gestione, perfezionamento di strumenti. In tale sforzo prioritario intravvedo però oggi un rischio di fondo, che non risiede nei fisiologici difetti di avvio da correggere: quello che la portata del compito riduca il ruolo dell’Istituto a quello di “testificio”, trascurando il versante fondamentale della ricerca che dovrebbe essere la “mission” dell’Istituto stesso. La polemica su “valutazione sì, valutazione no”, per usare le parole di Maurizio Tiriticco, finisce per occultare, con la polvere che solleva, il fatto fondamentale che il nostro sistema di istruzione non ha istituti e strumenti di ricerca educativa consolidati e capaci di esprimersi sull’intera problematica della ricerca educativa stessa. Uso i termini “ricerca educativa” nella loro accezione utilizzata internazionalmente: non la ricerca pedagogica o didattica (che semmai appartiene all’Università) ma la ricerca “sul” sistema educativo, capace di misurasi con le problematiche e le dinamiche di un “sottoinsieme sociale e istituzionale” di fondamentale importanza, che coinvolge l’intero universo delle giovani generazioni. (Come funziona, con quali risultati, con quali e quante risorse, con quali priorità impegna le risorse, quali rapporti con gli altri sottoinsiemi sociali, che correzioni introdurre sia in corso d’opera sia in termini di riassetti complessivi, con quali strumenti di connessione tra livello sistemico e livello “molecolare”, e così via). E la ricerca valutativa è un capitolo essenziale di quella educativa. Sono più di dieci anni che gli istituti pensati e costruiti per organizzare un sistema di ricerca educativa (a partire da quelli previsti a metà degli anni Settanta: IRRSAE, CEDE e BDP, questi ultimi diventati INVALSI e ANSAS) sono stati smontati, trasformati, annullati (il caso degli Istituti regionali) in un regime di permanente provvisorietà. Ciò riguarda le responsabilità variamente distribuite tra chi si oppone e chi governa: non si può pensare di lasciare in gestione provvisoria (o con provvisori interventi di “sistemazione”) istituti essenziali, se non altro per quel compito fondamentale (non esclusivo) della ricerca educativa che consiste nel già citato aumentare “la razionalità decisoria” del decisore sistemico. Ma ancor di più per sostenere, promuovere, consigliare, proporre innovazione in chi opera quotidianamente nella scuola. Ma è anche responsabilità che ricade sullo stesso “popolo della scuola” e sulle sue autonome forme di organizzazione, a partire da quelle sindacali. Basterebbe considerare la vana ricerca, entro le loro rivendicazioni, delle energie di elaborazione e proposta messe in campo circa tale snodo fondamentale per la politica scolastica: dotarsi di un organizzato, stabile e autorevole sistema di ricerca educativa. Che tale assenza si rifletta nell’approssimazione, nell’ambiguità e a volte nel vero e proprio “travisamento di bersagli” che caratterizza lo stesso dibattito sulla politica scolastica a me pare un effetto evidente di tale mancata responsabilità. Non vi sono dubbi che quel sistema definito a metà degli anni Settanta con i Decreti Delegati, necessitasse di essere profondamente rivisto per molte ragioni, anche relative alle sue “prestazioni deludenti” (eufemismo). Ma certo ciò non fu (né lo è) fatto attraverso una approfondita analisi di quei difetti e del modo di correggerli. Il decisore politico (di diverso colore) pensò alle sue logiche e interessi, usò (e usa) la scure, ma anche il cacciavite. E oggi sembra usare le rilevazioni INVALSI più per scopi mediatici che non come fonte di ricerca.

2. Il secondo ordine di rilievi critici attiene alla stessa gestione delle rilevazioni. La loro efficacia è in gran parte legata alle consapevolezze che l’organizzazione sa suscitare e alimentare sul significato del suo impegno e dunque alla condivisione di obiettivi, strumenti, finalità, risultati. Qui il rischio più grande, evidente in tante prese di posizione, ospitate anche in queste pagine, è quello dell’equivoco che circonda una iniziativa “centrale” che trova difficoltà a connettere dimensione sistemica e dimensione molecolare (le singole scuole, le classi, i docenti). Far diventare l’appuntamento delle “rilevazioni” un’attività istituzionale regolare, inserita nella programmazione delle scuole, è un passo essenziale per disattivare tutti i fantasmi che la valutazione “fisiologicamente” suscita. Ciò implica diversi livelli di intervento. In primo luogo, l’apertura all’informazione e discussione collettiva di tutto ciò che sta a monte della rilevazione (metodologie, strumenti, quadri di riferimento, finalità). In secondo luogo, tutte le misure (anche sindacali) che possono facilitare l’inserimento delle attività della rilevazione annuale entro la programmazione del lavoro scolastico: non la eccezionalità delle collaborazioni, ma la loro valorizzazione come segmento del “mestiere” del docente. (tempi, divisione dei compiti, ripartizione di risorse). In terzo luogo, il sostegno organizzato alla lettura collettiva dei dati “restituiti”, dopo la rilevazione, tra i docenti delle scuole, all’innesco di quel percorso inferenziale capace di far esplorare il valore diagnostico “molecolare” dei risultati dell’attività sistemica. Non è operazione semplice, ma il suo valore è proporzionale all’impegno che richiede.

Tutto ciò rappresenta una sfida per l’Istituto, che opera con risorse umane contenute e che avrebbe invece bisogno di “terminali intelligenti” distribuiti in termini ravvicinati alle scuole. Ma qui, si gioca non solo il futuro dell’INVALSI stesso ma anche quello delle prospettive di costruzione di un vero e proprio sistema di ricerca educativa.

Franco De Anna

35 recommended

Rispondi

0 notes
648 views
bookmark icon

Rispondi