Induzioni : demografia, probabilità, statistica a scuola - 2002

annuncio pubblicitario
INDUZIONI
Demografia, probabilità, statistica a scuola
N. 25 • LUGLIO-DICEMBRE 2002
• INDUZIONI è una rivista rivolta agli studenti ed ai docenti di matematica, storia, geografia, osservazioni scientifiche, economia, statistica..... delle scuole preuniversitarie, ma anche ai docenti universitari. Il suo scopo è quello di diffondere idee statistiche nella scuola e
di illustrare attraverso esempi come la statistica possa essere di ausilio in diverse occasioni della vita pratica.
Il taglio degli articoli dovrebbe essere operativo ed effettualmente
utilizzabile nel lavoro scolastico.
• INDUZIONI viene pubblicata con il patrocinio della Società Italiana
di Statistica (S.I.S.). Inoltre opera in associazione con la rivista «Teaching Statistics».
• Comitato scientifico: Giuseppe Burgio, Giuseppe Cicchitelli, ✝ Maria Corda Costa, Giuseppe De Bartolo, Luigi Fabbris, Peter Holmes,
Maria Gabriella Ottaviani, Antonella Pinnelli, Silio Rigatti Luchini,
Livia Linda Rondini, Romano Scozzafava, Alberto Zuliani.
• Direttore: Enzo Lombardo.
• Comitato di redazione: Anna Maria Anconelli, Mario Barra, Anna
Maria Birindelli, Giulianella Coletti, Gabriella Ottaviani, Maria Pannone, Carla Rossi, Isabella Santini.
Prezzi di abbonamento (2002):
– annuo: 45,00 [U.S. $ 60 (individuals), U.S. $ 80 (institutions) for
abroad] (2 numeri);
– cumulativo-sostenitore: 750,00; dà diritto a ricevere 35 copie di
ogni numero della rivista;
– ridotto: 27,00 per soci di società scientifiche, ed insegnanti, specificando la propria condizione nella richiesta di abbonamento.
Modalità di pagamento: su c/c postale n. 13137567 intestato a Istituti
Editoriali e Poligrafici Internazionali ⋅ Casella postale n. 1 Succ. n. 8 ⋅
56123 Pisa; mediante carta di credito American Express, Eurocard, Mastercard, Visa.
Tel. 050-878066 ⋅ Fax 050-878732 ⋅ e-mail: iepi @ iepi.it
http://www.iepi.it
Direttore responsabile: Lucia Corsi.
Autorizzazione del Tribunale di Pisa n. 8 del 2.5.1994.
Rivista semestrale pubblicata con il patrocinio della
Società Italiana di Statistica.
INDUZIONI
Demografia, probabilità, statistica
a scuola
25 ⋅ 2002
Istituti Editoriali
e Poligrafici Internazionali
Pisa ⋅ Roma
INDICE
C. ROSSI, Bruno de Finetti: un piccolo ritratto
B. DE FINETTI, Prefazione alla prima edizione della Matematica logico intuitiva
A. ZULIANI, Per dieci anni di pubblicazioni della rivista
G. CICCHITELLI, Sulla misura della dipendenza
5
9
25
27
Esperienze e materiali
M.E. GRAZIANI, Qualche considerazione sul problema della misura
statistica della povertà
35
F. BARTOLUCCI, Simulazione di un campionamento da popolazioni
finite
53
G. GALMACCI, Statistica e informatica
69
M. LA TORRE, La statistica per la valutazione dell’apprendimento
(11-3)
85
R. DE CRISTOFARO, Il ruolo della scelta casuale in statistica
95
S. ANTONIAZZI, Un problema di H. Steinhaus
99
F. MASCIOLI, Un modo semplice di guardare alla correlazione e alla
regressione
105
Attività in campo didattico
C. TOMMASINI, Porta l’Unicef a scuola
119
Lo scaffale dei lettori
Fondazione Leonardo, Secondo Rapporto sugli anziani in Italia
2000-2001, Milano, Franco Angeli, 2001. Pp. 182, Euri 14,46; C.
BRUCE, Sherlock Holmes e le trappole della logica, Milano, Raffello Cortina, 2001, G. CAPUCCI - A. CODETTA RAITERI - G. CAZZANIGA, Lo zero e il senso comune. Rapporto di ricerca sulla
provvisorietà di un apprendimento disciplinare, Roma, Armando
Armando, 2001; I disabili nella società dell’informazione (a cura
di P. Ridolfi), Milano, Franco Angeli Editore, 2001.
123
La funzione primaria di «seduta» sottende tutte le immagini selezionate anche se difficilmente si può per tutte usare il termine di sedia: alcune sono sgabelli, altre poltrone, altre
sono difficilmente classificabili. Quello che le differenzia è il valore aggiunto dato dal design, che non è «bella forma» fine a se stessa, ma è il progetto, che nasce da un’idea, da
un concetto ed attraverso lo studio dell’utilizzo, l’applicazione dei materiali e delle tecnologie più adatte, si concretizza in un prodotto che è al tempo stesso soluzione ad un problema, innovazione ed espressione di un’epoca e di un modo di vivere, oltre che manifesto del pensiero del progettista. Matteo Carbonoli
3
BRUNO DE FINETTI: UN PICCOLO RITRATTO
Carla Rossi*
Voglio iniziare questa presentazione con la definizione di «Maestro»
data da Alberoni e che ben si adatta alla persona di Bruno de
Finetti:
Maestro è chi ha raggiunto non solo un sapere, ma un modo di essere superiore, esemplare. Chi ha creato un nuovo modo di vedere, di pensare, di
agire, una nuova scienza, una nuova arte, chi ha tracciato nel mondo una
strada nuova, che si può apprendere solo seguendolo, imitandolo, attingendo alla sua esperienza e alle sue parole. Chi, con il suo stesso esistere, ci
fornisce un esempio morale. Ed è spinto a donare la sua ricchezza agli allievi con generosità e dedizione.
Francesco Alberoni
Non c’è alcun dubbio, infatti, che de Finetti abbia creato nuovi modi di
pensare, e persino nuove parole, in molti settori della Matematica, della
Statistica, dell’Economia, e non solo1.
Bruno de Finetti è, infatti, il più noto tra i matematici «applicati» italiani del ventesimo secolo. Ma considerarlo solo un matematico è piuttosto riduttivo. Se si scorrono i titoli dei suoi scritti, infatti, emerge una
personalità più complessa e variegata. Leggendo i suoi lavori è sempre
possibile trovare contributi originali e, molto spesso, pionieristici, in
tutti i settori cui ha volto il suo interesse. Nelle applicazioni ha sempre
privilegiato la funzione della matematica come «forma mentis» al servizio della soluzione dei diversi problemi, piuttosto che come tecnica
particolare, estendendo spesso teorie standard e modelli per ottenere risultati più generali. Molti sono anche i suoi contributi dedicati alla didattica della matematica e, in particolare, della probabilità e della statistica. Sosteneva che la matematica dovesse essere strumento fondamentale nelle decisioni quotidiane, particolarmente in presenza di incertezza. Concepiva e «viveva» la matematica come strumento essenziale per la migliore comprensione e descrizione dei fenomeni complessi e per l’assunzione di decisioni coerenti. I suoi contributi fondamentali alla teoria delle probabilità e alla statistica sono ben noti, citati,
* Dipartimento di Matematica, Università di Roma «Tor Vergata».
1. Per una presentazione più ampia della figura di de Finetti si può consultare:
Rossi C. «Bruno de Finetti: the mathematician, the statistician, the economist, the forerunner», Statistics in Medicine, 2001, 20, 3651-3666, e la bibliografia ivi riportata.
5
e ripresi a livello mondiale e la sua opera fondamentale «Teoria delle
Probabilità» ha visto traduzioni in molte lingue2.
Il motivo della pubblicazione di questa premessa al suo volume «La
Matematica Logico Intuitiva» si riconduce alla sua impostazione dei
problemi legati alla didattica della Matematica, che hanno costituito
uno dei suo interessi primari per lunghissimi anni. A questo proposito
occorre ricordare, in particolare, che Bruno de Finetti si è sempre ispirato ad un approccio fusionista in senso esteso, così definito da lui
stesso:
«Ho sempre indicato nel fusionismo il principale concetto di base per il miglioramento dell’insegnamento e della comprensione della matematica. Nel
senso più specifico, in cui fu introdotto da Felix Klein, il fusionismo consiste nella fusione dello studio di geometria da una parte e di aritmetica, analisi ecc. dall’altra; più in generale si tratta di fondere in modo unitario
tutto ciò che si studia (anche interdisciplinarmente, tra matematica ...),
mentre le tendenze antiquate predicavano il «purismo» di ogni ramo da coltivare isolato senza contaminazioni.» de Finetti B., Contro la «Matematica
per deficienti», Periodico di Matematiche, vol. 50, n. 1-2 Maggio
1974.
L’effetto che conta, dell’insegnamento della matematica, non consiste,
infatti, nel saper ripetere le cose studiate, questa sarebbe solo erudizione appiccicaticcia, ma nell’acquistare una certa padronanza e capacità nel vedere e affrontare problemi, nel tentare di ragionarvi sopra, e
questa è invece la cultura matematica. Per sviluppare queste abilità, occorre superare la mancanza di collegamenti esistenti fra le materie e
perfino fra le diverse parti di una stessa materia, cercando di fondere i
vari elementi in una visione organica. È fondamentale insistere su ciò
che vi è di istruttivo in ogni ragionamento, perché ogni argomento appaia non tanto fine a se stesso quanto esempio per aiutare a ragionare da
sé su casi analoghi. Questa possibilità di integrare in una visione unica
lo studio di problemi e aspetti diversi non costituisce un trucco o un accorgimento isolato utilizzabile per caso in qualche speciale occasione.
Al contrario, la caratteristica più preziosa e avvincente della matematica, intendendola in senso lato e, cioè, includendovi la sua funzione
quale strumento per le applicazioni, è proprio quella di aiutare anzitutto
a comprendere e risolvere i problemi più svariati fornendone una visione unitaria. Queste considerazioni giustificano e suggeriscono l’adozione dell’approccio fusionista all’insegnamento della matematica, e
non solo. Diversamente si potrebbe giungere al paradosso della Matematica presentata a pezzetti slegati e, talvolta, incoerenti, cui ben si ad2.
Teoria delle Probabilità, Einaudi, Torino, 1970.
6
dice la seguente descrizione riportata da Dario Fürst3 e tratta dal libro
di Oliver Sacks «The man who mistook his wife for a hat». Sacks
scrive, descrivendo la situazione del suo paziente:
«...‘What is it?’ I asked, holding up a glove,
‘May I examine it?’ he asked, and, taking it from me, he proceeded to examine it as he had examined the geometrical shapes.
‘A continuous surface’, he announced at last, ‘infolded on itself. It appears
to have – he hesitated – five outpouchings, if this is the word’.
‘Yes’, I said cautiously. ‘You have given me a description. Now tell me what
it is’
‘A container of some sort?’
‘Yes,’ I said, ‘and what would it contain?’
‘It would contain its contents’ ...
...No child would have the power to see and speak of ‘a continuous surface...infolded on itself’, but any child, any infant would immediately know
a glove as a glove, see it as familiar, as going with a hand.»
Un approccio fusionista non disdegna neppure l’intuizione, pur non
contrapposta al rigore. Per dirla con de Finetti: «Un altro preconcetto e
movente del ragionare in astratto è per molti la preoccupazione di ‘bandire l’intuizione, perché talvolta induce in errore’. La preoccupazione
può essere giustificata in delicate questioni di critica dei principi; fuori
di tali situazioni eccezionali è ben maggiore il rischio di errare per
mancanza del controllo dell’intuizione che non per le sue imperfezioni
se è presente.Volerla bandire sarebbe come cavarsi gli occhi perché esistono le ‘illusioni ottiche’ senza sospettare che la cecità abbia pure
qualche inconveniente»4.
Per concludere, l’approccio di de Finetti all’insegnamento della matematica può essere così riassunto:
Chi vuole essere un buon docente deve agire in modo tale che lo studente percepisca che l’astrazione, la costruzione di sistemi assiomatici,
la formalizzazione e la deduzione logica sono solo punti di arrivo della
sua esperienza, necessari per mettere meglio in luce e semplificare
quello che ha già appreso e non per introdurre inutili complicazioni tecniche. Rappresentano la strada maestra per scoprire l’unitarietà dietro
l’apparente diversità: un punto di arrivo, come è sempre stato nello sviluppo storico del pensiero matematico.
Una particolarità di Bruno de Finetti era quella di «inventare» ter3. Fürst D. «de Finetti e l’insegnamento della Matematica», in Probabilità e Induzione, a cura di Paola Monari e Daniela Cocchi, Editrice Clueb, Bologna, 1993.
4. «Programmi e criteri per l’insegnamento della matematica alla luce delle diverse
esigenze», Periodico di Matematiche, 1965, n.2, 119-143.
7
mini e espressioni nuovi per colpire la fantasia del lettore ed esprimere
con forza e immediatezza una sua posizione. Per illustrare questa caratteristica, basterà riportare un passo tratto dall’opera «Teoria delle Probabilità», a proposito della necessità della statistica classica di basarsi
su «numerose» osservazioni analoghe per poter produrre inferenze
«adeguate»5:
«...si tratterebbe di una proprietà legata all’esistenza di un mucchio: finché
si hanno pochi oggetti essi non costituiscono un mucchio e nulla si potrebbe
concludere, ma se sono molti il mucchio c’è e allora, ma soltanto allora,
tutto il ragionamento fila. Se si pensa di aggiungere un oggetto per volta,
nulla si potrà dire finché il numero è insufficiente per formare un mucchio,
e la conclusione balzerà fuori (d’improvviso? Passando da 99 a 100? o da
999 a 1000?...!) quando finalmente il nonmucchio si trasforma in mucchio.
No, si dirà; questa versione è caricaturale; non c’è un salto netto, bensì
sfumato; il nonmucchio attraverserà una fase di forsechesìforsechenomucchio da piùforsechenocheforsechesìmucchio a piùforsechesìcheforsechenomucchio e solo poi diverrà gradualmente un vero mucchio. Ma ciò non toglie il difetto d’origine, cioè la distinzione, concettualmente posta come
fondamentale, tra «effetto di massa» e «effetto dei singoli elementi»; il riconoscere che non può esistere una separazione netta, se elimina forse, apparentemente, una circostanza paradossale, non ne estirpa la radice ed anzi
mette in luce la debolezza e contraddittorietà del concetto di partenza.
Non se ne esce se non negando ogni distinzione del genere. La conclusione
cui si giunge sulla base di una massa di dati è determinata non globalmente, come effetto di massa, bensì come risultante, come effetto cumulativo, dell’apporto di ogni singolo dato. Conoscere l’esito di un certo numero di prove, grande o piccolo che sia, conduce dall’opinione iniziale all’opinione finale esattamente nello stesso modo che si otterrebbe pensando
di venire a conoscere l’esito delle singole prove, una per volta, e di modificare ogni volta l’opinione conformemente al (piccolo in genere) influsso di
una singola informazione.»
5. Altri esempi sono riportati in: Rossi C. «Bruno de Finetti: the mathematician, the
statistician, the economist, the forerunner», Statistics in Medicine, 2001, 20,
3651-3666.
8
PREFAZIONE ALLA PRIMA EDIZIONE DELLA
MATEMATICA LOGICO INTUITIVA
Bruno de Finetti
Un’opera di matematica e un insegnamento matematico che si rivolgano a studiosi di discipline prevalentemente piuttosto lontane dalla
matematica devono indubbiamente proporsi finalità e battere vie loro
proprie; il dubbio si affaccia invece quando si tratta di concretare in
qual senso e modo realizzare questi intendimenti. Bisogna – s’intende –
ridurre e semplificare il programma rispetto a quelli (tanto per un lontano ma sicuro punto di riferimento) del biennio di Scienze, ma lo si
può fare o coll’idea che tale insegnamento risponda a finalità applicative particolari e si debbano quindi far imparare certi risultati col minimo sforzo concettuale, o che esso serva all’opposto a integrare organicamente con un appropriato innesto di elementi di pensiero matematici la formazione mentale, e occorra quindi presentare nozioni e concetti in una sintesi ridotta al minimo di quantità attraverso il massimo
di concentrazione.
È mia precisa convinzione che lo scopo da proporsi, specie rivolgendosi a studiosi di scienze sociali, debba essere quest’ultimo. Mentre per
coloro che, come ad es. gli ingegneri, hanno effettivo bisogno della tecnica del calcolo è concepibile che taluno (non io) ritenga vantaggioso
farla apprendere colla minor fatica anche a scapito della profondità di
comprensione, nel nostro caso tale fatica sarebbe del tutto sterile e sprecata, perché il bisogno di svolgere calcoli non si presenta mai o quasi
mai, mentre il bisogno di impostare e intuire problemi complessi ed
astratti coll’ausilio della matematica è forse più impellente che in qualsiasi altro campo.
A questo concetto informatore mi sono attenuto e ispirato, ritornando
anche ripetutamente nel testo (v. ad es. in modo speciale il n. 77) a giustificare e chiarire le ragioni di tale atteggiamento. Ne è risultata una
trattazione sensibilmente diversa dalle usuali sotto molti aspetti, e perciò sarà particolarmente necessario premettere anche qualche chiarimento.
La materia è – naturalmente – press’a poco quella che tradizionalmente si svolge nel corso di Matematica generale delle Facoltà di economia e commercio, sfrondata però quanto più possibile degli sviluppi
pesanti richiedenti un eccessivo tecnicismo, ma integrata in compenso
da qualche argomento che vale a completare la trattazione coordinandola in un disegno unitario e a renderla indipendente da ogni eventuale
reminiscenza di anteriori studi matematici.
9
Più però che per la sua delimitazione, la materia del corso apparirà
divergere dalle usuali trattazioni per altri aspetti ed effetti del costante
sforzo di coordinamento, e più ancora di fusione, fra argomenti suscettibili di essere considerati come diverse interpretazioni di un medesimo
schema di ragionamento. L’immediata introduzione del concetto di funzione o operazione nel suo più ampio significato logico costituisce ad
es. una premessa che riaffiora continuamente; e con analogo ufficio di
comune fondamento per molteplici sviluppi è introdotto con massima
generalità il concetto di sistema lineare (spazio vettoriale), ciò che
porta – come effetto più appariscente – alla trattazione dei determinanti
sostanzialmente fusa con la geometria analitica; altro esempio di fusione, quello delle serie la cui trattazione è assorbita in quella delle serie di potenze. Oltre che in tali accorgimenti d’impostazione, intesi ad
evitare ripetizioni e sdoppiamenti di ragionamento che (oltre a far perdere tempo e spazio) mi sembrano offuscare la limpida chiarezza che
proviene del prospettare i problemi secondo la loro vera natura, la tendenza fusionista si manifesta nel concepire ogni ente o problema
astratto non come una vuota entità formale ma come un nome comune
in cui si possono identificare volta a volta tutte le entità concrete delle
applicazioni (v. anche quanto detto nel n. 2 sul senso d’astrazione); così
ad es. «vettore» può essere un saldo contabile in più monete o un insieme di merci, con evidente riferimento ad applicazioni di ragioneria,
o una forma d’assicurazione, il che prelude a un’eventuale trattazione
della matematica attuariale da svolgere in continuazione del presente
corso, nella quale la considerazione delle operazioni assicurative come
numeri aleatori costituenti un sistema lineare (come sostanzialmente
già si fa nell’indirizzo del Cantelli) dovrebbe ritrarre il massimo giovamento dall’inquadrarsi nell’immagine vettoriale. Anche in numerosi altri punti l’inclusione di certi argomenti o il modo di presentarli deriva
dalla previsione del ruolo che avrebbero nel calcolo delle probabilità e
nella matematica attuariale (p. es. la formula di Stirling, le considerazioni sulla rapidità della crescenza di log
log x per il teorema di Khin2
tchine-Kolmogoroff, l’integrale di e⫺x , il cenno sull’integrale di Stieltjes, le stesse iniziali nozioni di calcolo logico in nesso alle operazioni
logiche sugli «eventi», ecc.).
Anche nelle esemplificazioni vere e proprie e nelle cosiderazioni
intese a illustrare praticamente il significato e l’importanza delle nuove
nozioni si è avuto cura di mettere in particolare risalto le applicazioni
finanziarie (ad es. per la definizione del logaritmo, di «e» (cfr. fig. 98),
per la somma della serie geometrica, per l’equazione differenziale lineare del 1o ordine, per la serie esponenziale), statistiche (ad es. per i
diagrammi in iscala logaritmica e doppiamente logaritmica, il coefficiente di correlazione considerato come coseno, le «intensità» di mortalità ecc., l’accrescimento della popolazione nelle ipotesi di Malthus e di
10
Verhulst-Pearl, ecc.) o economiche (ad es. l’elasticità della domanda,
ecc., cenni su certe concezioni di dinamica economica, su i concetti di
prezzo, di «optimum», ecc.).
Se le esemplificazioni offerte da tali campi ebbero la debita preferenza, quelle d’altra natura non furono tuttavia trascurate ma anzi moltiplicate ovunque ciò servisse a illuminare sulla ricchezza di contenuto
e la varietà di interpretazioni ed applicazioni cui si prestano i concetti e
metodi che via via si apprendono. A tale scopo gli esempi furono tratti
da campi il più possibile disparati, pur mantenendoli al livello di semplicità e facilità necessario perché l’efficacia ne potesse riuscire immediata e viva: o si tratta di esemplificazioni del tutto ovvie atte a render
senz’altro familiare il concetto ad ogni lettore, o, se qualche volta si
esorbita dall’ambito delle sue presumibili conoscenze, sarà perché l’occasione apparirà propizia per cogliere senza incontrare difficoltà il duplice vantaggio di aprire uno spiraglio su nuovi campi in cui si rivelano
le possibilità dei metodi matematici, e di chiarire il significato che essi
vi assumono.
Si realizzerà così quello che anche nella realtà dello sviluppo storico
costituisce il vero stimolo al progresso e all’evoluzione delle idee: il
continuo scaturire di idee generali dai problemi particolari e di osservazioni particolari da teorie generali, il continuo trapasso dal concreto all’astratto e dall’astratto al concreto finché si fondano nell’intuizione
d’un’unica magica realtà, in cui tutte le risorse concettuali vengono
messe al servizio della visione pratica dei problemi e tutti i problemi
pratici concorrono a servizio della elaborazione concettuale, questa e
quella, volta a volta, mezzo e fine, superando ogni antagonismo.
Queste premesse varranno a spiegare la ragione di quello che altrimenti potrebbe apparire uno squilibrio sconcertante fra l’elevatezza
dell’impostazione d’insieme e la grossolanità di talune considerazioni o
esemplificazioni cui si appoggia, od anche – per scendere a un dettaglio
– la voluta materialità di certe immagini: perché ad es. parlando di ellissi ottenute da sezioni oblique di un cilindro ci si dovrebbe inibire di
dar corpo e sapore al concetto materializzandolo nell’immagine dell’affettare un salame? Dire «cilindro» è preferibile se ed in quanto tale termine astratto risvegli molte sensazioni concrete anziché una sola: oltre
che salame anche colonna o tubo o torrione ecc., ma è esiziale quando
in esso non si sia imparato a vedere né un salame né una colonna o tubo
o torrione o null’altro salvo una figura che si trovi nei testi di geometria
per servire di pretesto a interrogazioni e bocciature.
Perché il primo problema è non tanto quello di far apprendere la matematica, ma di farla comprendere come qualcosa di vivo nel regno del
pensiero, che vi risponde a bisogni insostituibili della mente in cui si
fondono i motivi pratici che ne danno occasione e l’elaborazione scientifica e concettuale che ne ricava costruzioni di limpida eleganza e bel11
lezza quasi sovrumana. E farla comprendere significa anzitutto farla
amare, farla sentire non avulsa dai pensieri e meditazioni e preoccupazioni d’ogni giorno, ma ad essi siffattamente frammista da far apparire
all’opposto arido e opaco il pensiero che non sappia attingere alla sua
luce.
Ben lo sapevano gli antichi, per i quali il pensiero filosofico era in
gran parte costituito dal pensiero scientifico e in particolare matematico. E mostreremmo – parmi – assai più reale fedeltà alla tradizione
classica perpetuando nell’ambito della cultura contemporanea tale armoniosa compenetrazione di elementi indissolubilmente connaturati,
che non accanendosi nel feticismo per troppi particolari caduchi e superati del pensiero di epoche ormai remote. Tale collegamento è invece
oggi manchevole, e ciò mi sembra stia alla radice di tre aspetti sintomatici della crisi che affligge la civiltà contemporanea:
l’incompiutezza del regno del pensiero, così nella scienza che senza
l’ausilio della filosofia non può concludere il travaglio dei problemi che
essa incessantemente incontra e solleva, come nella filosofia che, straniandosi da tale compito, rifiuta la sua propria linfa vitale;
l’incomprensione che fa considerare e disdegnare l’aspetto tecnico e
materiale della civiltà moderna come qualcosa di estraneo allo spirito,
anziché vedervi una manifestazione tangibile (e sia pure accessoria) di
alcune fra le sue più alte e pure conquiste;
l’incertezza nell’analisi dei problemi sociali, che, irretita nel groviglio dei concetti derivati da particolarità contingenti, solo svincolandosene e assurgendo a un’impostazione scientifica che non pregiudichi e
mutili a priori il campo delle soluzioni possibili saprà illuminare fin
nelle radici più profonde le contraddizioni e i sofismi per cui si dilania
l’umanità.
Quale parte spetti al pensiero matematico nell’approfondire la visione di tutti questi problemi e correggerne le manchevolezze, non si
potrà certo pretendere di dimostrare con osservazioni incidentali in un
testo di matematica (se mai, sarà oggetto di un’opera a sé, che da tempo
mi si sta delineando), ma non per questo con minor cura ho cercato
ovunque di orientare verso tali fini generali la comprensione delle particolari concezioni e trattazioni.
A questo stesso fine giova ed occorre che l’intonazione generale sia
quanto più elevata possibile. Non nel senso di adoperare un cannone per
colpire un passerotto: è anzi proprio il possesso di nozioni frammentarie e imparaticce che induce certa gente in tale tendenza per farne compassionevole sfoggio, e preferirei non avere mai intrapreso l’insegnamento piuttosto che vedere anche un solo dei miei allievi imbrancarsi in
tale andazzo. Intonazione elevata è all’opposto quella che insegna a seguir sempre la via naturale, quella che insegna a trarre il massimo frutto
da ogni sforzo assurgendo da ogni risultato particolare a riconoscere le
12
conclusioni d’ordine generale che in esso sono implicite e con esso si
sono raggiunte. Sono esse, ed esse sole, che valgono del resto a porre il
risultato stesso nella sua vera luce, nella sua più semplice intuizione, in
modo da renderlo indelebilmente ovvio alla mente senza barbari sforzi
mnemonici, e che d’altra parte costituiscono un arricchimento più sostanziale che non il risultato cercato di per sé. Così ad es. si troveranno
sistematicamente illustrate e poste in risalto delle questioni d’indole
generale, come il significato e il valore del ragionamento per induzione
(n. 23), dell’uso di grandezze con segno (n. 66), delle convenzioni
sull’«infinito» (nn. 46, 56, 75), della critica dei principi in geometria e
in altri campi (nn. 77 e 143), ecc. (anche per la preoccupazione e con il
vantaggio di prevenire dubbi facili a sorgere), e in genere – anche se incidentalmente, e quando opportuno per non appesantire il testo magari
con note in calce – si vedrà la tendenza ad accennare agli sviluppi che
dopo certe considerazioni risultano implicitamente conseguiti.
Sebbene a un livello tanto meno elevato, non sarà qui meno opportuno cercare di «aprire molte finestre nell’immenso orizzonte matematico» come si propone il Severi in Lezioni di Analisi. Avvezzare e dare
il gusto e convincere dell’utilità anche immediata di tale integrale sfruttamento strategico dei successi tattici nel campo del pensiero dovrebbe
costituire – mi sembra – la chiave del segreto per avvincere alla matematica le menti adatte e per avvicinare nel grado desiderabile e possibile quelle intelligenze in cui la prevalente tendenza artistica o filosofica o d’altra natura qualsiasi troverebbe nella intuizione delle fondamentali concezioni matematiche un prezioso complemento. Un vantaggio che si raggiunge è infatti quello di far apparire assai più breve di
quanto usualmente non sembri la distanza fra i concetti elevati della
matematica e quelli del modo di ragionare di altre discipline o addirittura del comune quotidiano ragionamento, in quanto per giungervi non
si richiede affatto di soffermarsi preventivamente in dettaglio su tante
teorie particolari e magari pesanti. Così la generalità degli intendimenti
e la concretezza delle immagini concorrono allo scopo di persuadere
che la matematica non è un meccanismo a sé da sostituire al ragionamento, ma è la naturale base e prosecuzione dell’ordinario ragionamento.
Seguire una tale via, caratterizzata da maggiore ampiezza e profondità di vedute compensata da minor massa di particolari, richiede
certamente un maggior sforzo concettuale, le cui conseguenze sono
proficue e durature, ma riduce al minimo il passivo sforzo mnemonico,
peggio che fatica sprecata, stortura immorale che abbrutisce e diseduca.
Lo studente che si volesse dolere di non potersi «preparare» su
questo libro secondo tale malcostume, sappia che ho fatto del mio
meglio deliberatamente per impedirglielo, nel suo stesso interesse,
13
perché non sono disposto a considerare sufficiente per l’esame una
simile cosiddetta «preparazione».
Anche nei riflessi della carriera scolastica (e possibilmente di tutta la
vita, come sarebbe tanto necessario per il bene della collettività e della
patria) si cerchi di trarre insegnamento dal fatto che in tutta la trattazione ho cercato di far risultare come chiara e preziosa constatazione: la
fallacia del meschino criterio del minimo sforzo inteso nel senso del
piccolo e particolare e gretto tornaconto immediato. Ognuno che ha sementa semini, ognuno che ha forze si prodighi, e ci saranno per tutte le
abbondanti messi che non prosperano dove il seme e il sudore sono lesinati attraverso il miope calcolo dei malintesi egoismi.
Con questo significato più ampio s’intenda ed applichi l’antica massima «non scholae sed vitae discitur»: non solo studiare la materia d’esame pensando che essa tal quale potrà servire anche nella vita (il che
spesso non è), ma approfittarne per attrezzare la mente nel modo più organico e ferrato per affrontare nella vita tutti quei compiti particolari
che a ciascuno si presenteranno (grandi o piccoli, ma tutti ugualmente
importanti, perché una macchina è ugualmente impedita di funzionare
per difetto del motore o per rottura dell’ultimo ingranaggio). Se qualcuno poi propendesse per la stravagante idea dei semplicioni che vorrebbero dalla scuola un ricettario «di ciò che serve», rifletta un po’ se
riterrebbe preferibile (per fare un’espressiva analogia) mandare a memoria un gran numero di itinerari cittadini (ad es.: per recarmi dall’Università alla stazione devo, uscendo, prendere a sinistra, svoltare per la
prima trasversale a sinistra e poi per la prima a destra, ecc. ecc.) anziché formarsi un’idea d’insieme sulla pianta della città e imparare, per i
casi ove tale ricordo non bastasse, a consultarla.
Nello studio della matematica in ispecie, più che di insegnarla si
tratta di aiutare a reinventarla e rendersi conto dei motivi che hanno
spinto i maggiori matematici a dischiuderci questo cammino, delle difficoltà che essi in misura ben maggiore di noi ebbero a superare, dello
sviluppo storico delle idee in cui tanti sforzi e intuizioni individuali
s’inquadrano. A tal fine l’ordinamento seguito è stato esso stesso ispirato alla traccia di una possibile successione di meditazioni che faccia
ripercorrere nel modo più svelto il travaglio costruttivo delle concezioni
matematiche, dalla fase intuitiva che presenta il problema e fa intravedere i mezzi per affrontarlo a quella logica cui spetta elaborarli e assodarli col dovuto rigore (il che è parso opportuno far risultare, come caratteristica saliente, nel titolo stesso del volume).
Anche la preoccupazione del rigore cambia aspetto: occorre far penetrare il perché dei risultati, non farne verificare l’esattezza, il che è altra
cosa, né necessaria (dove non si tratta che di passaggi materiali non
vedo perché ogni principiante dovrebbe accertarsi da sé che non vi sia
una svista sfuggita a tutti prima di lui), né sufficiente (perché dopo aver
14
imparato con quali manipolazioni si ricava una formula da un’altra non
è detto che si sia penetrato il contenuto di ragionamento dei passaggi
eseguiti). Per lo stesso motivo l’importanza delle formule e dei calcoli
risulta in tale trattazione diminuita in confronto a quella data ai concetti
e alle immagini, perché l’importanza dell’imparare vi è sempre, come
dev’essere, subordinata a quella del capire.
Proprio mentre stavo lavorando al presente volume sono apparse
delle opinioni estremamente interessanti su questo tema dell’insegnamento della matematica, e giungono talmente a proposito che non voglio omettere di citarle. Tanto più che le rende particolarmente significative il fatto che provengano da spiccate personalità di diversissima
tendenza: da tre accademici, uno scrittore, un biologo, un matematico.
Dice Bontempelli (Colloqui, «Tempo», n. 198, marzo 1943, p. 31):
«Tutti coloro che si credono più o meno artisti, si fan vanto di avere
avuto zero in matematica fin dalle prime classi. Al quale proposito ho
avuto modo di osservare che in questa incomprensione verso la matematica la gente è spesso sincera, ma mi sono anche convinto che la
colpa è solamente del modo con cui la matematica è insegnata. Il difficile non è capire la matematica, è farla capire; chi si dedicasse per qualche tempo alla specialità pedagogica della matematica e creasse una didattica delle scienze esatte farebbe opera utilissima. Capìta, diventerebbe per ogni scolaro la più appassionante delle discipline, e soffusa di
mistero».
Profondissima e quasi miracolosa intuizione d’artista questa del
comprendere, in contrasto con l’arida mentalità scolastica, che capire
significa non eliminare il mistero, ma inoltrarsi nel mistero («il mistero, che è la sola realtà», come ebbe a dire nella commemorazione di
Pirandello).
Dice Pierantoni (Confidenze di un biologo, «Scienza e Tecnica»,
maggio 1943, p. 193): «Non coltivai mai la matematica, non perché non
la comprendessi, ma perché trovai sempre una certa difficoltà a ritenere
a memoria i dati che non richiedessero un certo sforzo d’intelligenza
per essere compresi».
E Giorgi (Risposte di un elettrotecnico, ibidem, p. 188): «Al pari di
molti altri, che poi si sono specializzati in matematica, trovavo ripugnanza per l’aritmetica e la geometria delle scuole elementari e del
Ginnasio. Tutti quegli insegnamenti non potevano soddisfare una mentalità inclinata alle scienze esatte».
Queste due condanne così terribilmente recise nella loro pacata
obiettività si riferiscono certo a gradi d’insegnamento meno elevati di
quello di cui ci occupiamo, ed anche a tempi non proprio recenti, ma ciò
non toglie che debba considerarsi aperto e non facile il compito di rendere appassionante lo studio della matematica facendone penetrare lo
15
spirito a chi non vi si dedichi espressamente in modo tale da giungervi
con la propria meditazione.
Non basta purtroppo la consapevolezza di un male per mettere in
grado di ovviarvi, tanto meno per evitare che, rimediando a certi aspetti
della questione, non risultino peggiorati altri. Tengo anzi ad avvertire
subito che il distacco dalle usuali trattazioni scolastiche è andato sotto
qualche aspetto al di là dei miei stessi intendimenti: dovendo contenere
la mole del volume, ho preferito ridurre prevalentemente quei passaggi
e sviluppi ed esercizi che pur riterrei didatticamente utili piuttosto che
le considerazioni che costituiscono la ragion d’essere della trattazione,
sia perché tale omissione è più facile da colmare ricorrendo ad altri testi
e libri d’esercizi, sia perché essa era essenziale al fine di rendere meno
proibitive le difficoltà tipografiche. Senza poter giudicare se e fino a
qual punto mi sarà tuttavia riuscito di realizzare in modo efficace l’ideale vagheggiato di presentazione delle idee matematiche, spero di esser almeno pervenuto a dare qualche saggio illustrativo di quello che
nella mia intenzione avrebbe voluto essere, in misura sufficiente perché
il lettore benevolo possa, su elementi concreti di giudizio, vagliare i criteri informativi della esposizione.
Criteri che non sono – naturalmente – né originali né nuovi: senza
parlare di opere prettamente divulgative (il cui carattere è diverso per il
fatto stesso che non si propongono di costituire un organico libro di testo), programmi ispirati a vedute analoghe furono da tempo propugnati
e propagandati, anche se purtroppo con scarso successo, particolarmente da F. Klein di cui devo ricordare i tre volumi di Elementarmathematik vom höheren Standpunkte aus come una delle opere maggiormente tenute presenti nella preparazione del corso. Nello stesso senso
agì l’influenza dell’insegnamento del Chisini: vedansi i molti punti di
contatto fra questa prefazione e quella di F. Enriques e O. Chisini, Teoria geometrica delle equazioni algebriche, e anche varie altre opere
dell’Enriques o da lui promosse sul significato della storia del pensiero
scientifico e in particolare matematico. Ciò sia inteso però senza alcun
esclusivismo nel senso di adesione programmatica a determinate
«scuole»: come risulterà dalla breve seguente rassegna degli Autori da
cui più ho tratto ispirazione nella materia dei singoli capitoli, non minore apprezzamento ho per la «scuola» logica di Peano, e deploro le reciproche incomprensioni: devo molto alla lettura e meditazione della
Logica matematica di C. Burali-Forti per la chiarificazione di idee cui
mi obbligò sia pure progressivamente allontanandomene, e all’insegnamento di Cassina; probabilmente risale a quando lo seguivo la convinzione che la vera causa degli inconvenienti che si sogliono imputare a
deficiente preparazione nella scuola media stia nella mancanza di una
sia pur succinta introduzione logico-metematica intesa a ricostruire all’inizio degli studi universitari le nozioni su cui sarà impostata l’analisi,
16
nozioni apprese in modo più o meno criticabile e più o meno riformabile, ma non soltanto né soprattutto per ciò insufficienti, bensì per la logica diversità di livello dei diversi ordini di studi.
Appunto perciò, e approfittando anche della condizione per tal verso
vantaggiosa del corso, di abbracciare sia pur rudimentalmente tutta la
matematica evitando sovrapposizioni o lacune di collegamento o difformità di vedute fra insegnamenti paralleli, ho sostituito con un’introduzione così concepita la consueta ripetizione intesa a richiamare secondo
gli stessi criteri delle scuole medie quella massa di nozioni che, se dopo
centinaia di lezioni e di metri quadrati d’esercizi sono malferme, non
c’è da illudersi non lo siano dopo qualche affrettata lezione in più. Anziché tentar di rinforzare con iniezioni di cemento il vecchio edificio
per sopraelevarlo, ho cercato di non cimentarlo facendo gravare direttamente sul terreno con nuovi pilastri il peso delle soprastrutture, limitandomi a utilizzare le preesistenti pareti divisorie servizi, ecc. opportunamente inseriti nel nuovo disegno.
Tale parte introduttiva può considerarsi estesa a un capitolo e mezzo,
o tre, o sei, in quanto in misura crescente frammista ad argomenti del
programma universitario, come ora sarà precisato al duplice scopo di
dare qualche spiegazione sui criteri informativi della trattazione dei
singoli argomenti e di indicare gli Autori cui mi sono più o meno direttamente ispirato.
Cap. I - Logica e matematica
Ha lo scopo di inquadrare in una visione d’insieme l’esposizione futura,
da un lato dando i concetti di funzione, operazione, gruppo, in forma generale e intuitiva e dall’altro orientando le idee con considerazioni generiche sul significato e lo scopo della matematica, per abituare a farne
strumento di pensiero e non considerarla come un arido dogmatismo da
apprendere passivamente. Alle citazioni già fatte potrei forse aggiungere G. Vailati, Scritti e opere di (o opinioni sulla) logica matematica di
diversi autori (da Hilbert a Poincarè, dai «viennesi» ai polacchi), ma ciò
sarebbe sproporzionato ai modesti limiti delle considerazioni
svolte.
Cap. II - I numeri interi
Si propone di prospettare l’aritmetica nel quadro delle nozioni e concezioni logiche del Cap. I, facendone apparire come naturale prosecuzione
il calcolo combinatorio, nonché il concetto di numero infinito: dal momento che la definizione di numero come «numero cardinale» li intro17
duce di per sé, mi sembrò infatti opportuno spiegare sommariamente il
significato di «numerabile» e «continuo», piccolo sforzo largamente
compensato dal non trovarsi impotenti ad esprimere per mancanza di
tali concetti molte semplici interessanti chiarificatrici osservazioni.
A parte la presentazione, nulla di men che notorio, in questo come
nel successivo capitolo.
Cap. III - I numeri reali
Costituisce il momento più complesso della trattazione per il confluire
e il diramarsi dei diversi argomenti e intendimenti, per così dire il crogiolo in cui, stabilita, in modo alquanto sommario ma aderente (ciò che
più mi premeva) alle finalità pratiche e concettuali della sua introduzione, la nozione di numero reale, e collegata alla rappresentazione
delle ascisse su di una retta, si applicano i concetti generali di funzione
a definire le funzioni di variabile reale in generale e in particolare
quelle monotone e continue, e s’introduce contemporaneamente come
strumento di rappresentazione il riferimento cartesiano nel piano e – per
cenni di primo orientamento – nello spazio. Tale strumento di fusione
viene subito saggiato per riprendere, alla luce del punto di vista funzionale e dell’interpretazione geometrica che nel tempo stesso costituisce
un’introduzione alla geometria analitica, la «ripetizione» sulle operazioni aritmetiche attraverso le funzioni lineari, l’esponenziale, il logaritmo, le potenze. Inoltre è messa in rilievo la vastità delle applicazioni
pratiche, è fatto spesso presentire l’avvento delle nozioni differenziali
che seguiranno nella 2a parte, e, alla fine, si conduce a introdurre l’«infinito» (che mi sono deciso a trattare nel campo reale con la stessa familiarità e significato che in quello complesso, ovviando a discordanze)
e ad accorgersi della necessità d’introdurre l’immaginario.
Nelle Facoltà d’economia e commercio non si trattava – per quanto
mi consta – l’argomento dell’omogeneità di grandezze e sistemi di misura: tale lacuna mi apparve grave – anche se non quanto per degli ingegneri – e l’ho colmato.
Cap. IV - I numeri complessi
La solita rappresentazione del piano complesso viene senz’altro tradotta nell’identificare i numeri complessi alle similitudini piane, di immediata espressione riferendosi a coordinate polari (modulo e argomento), dal passaggio al riferimento cartesiano (componenti reale e immaginaria) si trae occasione per introdurre – e, come digressione, studiare – le funzioni circolari.
18
Ma intendimento principale è di suscitare nel modo più semplice e
rapido possibile un’immagine intuitiva del campo complesso conforme
alle concezioni della teoria delle funzioni analitiche, naturalmente appena adombrata, se, sia pure parzialmente e imperfettamente, tale difficilissimo compito potrà risultare conseguito (del che non sono affatto
sicuro, essendo più che mai aleatorio in tal campo lo sforzo d’indovinare e immedesimarsi nella mentalità del principiante), il merito precipuo sarà di una breve e (mi sembra) fin qui inosservata comunicazione
al Congresso internazionale dei matematici di Bologna del 1928: G.
Giorgi, Fondamenti per una teoria intrinseca delle funzioni di variabile
complessa (Atti, vol. III), le cui idee direttive ho cercato di adattare
senza guastarle più del necessario a scopi pressoché divulgativi. In particolare, ammettendo provvisoriamente senza prova che le funzioni algebriche sono funzioni analitiche nel senso di tale presentazione, acquistano allora un significato intuitivo evidente il teorema fondamentale
dell’algebra e le sue immediate conseguenze.
Altro esempio di trattazione succinta e suggestiva dell’argomento
che tenni presente: F. Tricomi, Funzioni analitiche.
Cap. V - Sistemi lineari
Ho già accennato in questa prefazione al ruolo che attribuisco al concetto di sistema lineare, e così a quello di operazione lineare, estendendone l’applicazione anche fuori dei campi più abituali. Tale persuasione
mi si formò leggendo (allora nell’edizione francese del 1912) l’opera di
C. Burali-Borti e R. Marcolongo, Analisi vettoriale generale. In particolare la nozione di determinante, che mi era rimasta ostica per la sua
apparente artificiosità, mi parve tanto evidente dal teorema sugli operatori lineari alternati da meravigliarmi non venisse assunto senz’altro a
definirla. Ciò richiede, è vero, l’introduzione del concetto di vettore, ma
– a parte che riesce tanto utile da giustificare anche un eventuale sforzo
– esso è talmente espressivo che, se rivado all’epoca in cui lo appresi
nelle lezioni del Cisotti (che per prime mi appassionarono alla matematica, sì da provocare in seguito il mio passaggio dal Politecnico a
Scienze) ritengo sia stato forse l’unico concetto nuovo la cui introduzione non incontrò momentanee perplessità incomprensioni incertezze
od equivoci da parte mia o dei condiscepoli; più ancora mi ha incoraggiato la testimonianza in tal senso di due grandi geometri non vettorialisti ad oltranza per questioni di scuola, il Severi e il Comessatti, il quale
ultimo fu anzi indotto a una «più totalitaria» impostazione vettoriale nel
rielaborare, tra la I ed. del 1929 e la II del 1940, le sue Lezioni di geometria analitica e proiettiva (cfr. «Premessa alla 2a ed.» p. X).
Più grave forse apparirà il fatto di dover introdurre gli spazi a n di19
mensioni per n qualunque; ma proprio per gli economisti e statistici, per
i quali la geometria non è che uno schema rappresentativo, la differenza
tra ⭐ 3 ed n ⬎ 3 è priva di importanza effettiva pur di indurre a superarla in modo convincente, il che ho tentato nel n. 63.
Per le stesse ragioni, la trattazione è mantenuta nel puro campo affine
e basata sui concetti originali e in gran parte non ancora adeguatamente
sfruttati di H. Grassmann, Ausdehnungslehre, meno particolarmente
improntati alla geometria dello spazio fisico, e in particolare sul prodotto alterno. Per la trattazione dei determinanti e sistemi d’equazione
lineari ho trovato esposizioni di analoga seppur meno totalitaria ispirazione in Carathéodory, Verlesungen über reelle Funktionen e Beppo
Levi, Analisi matematica.
Cap. VI - Geometria analitica
La geometria proiettiva e quella metrica si riconducono a quella affine,
istituita nel Cap. V, mediante abolizione della distinzione fra elementi
propri e impropri (resa intuitiva con considerazioni di prospettiva) risp.
mediante introduzione della nozione di ortogonalità o di quella equivalente di distanza: come e perché ciò aderisca al modo di pensare adatto
per uno studioso di scienze sociali è ampiamente spiegato nel testo
(specialmente nel n. 77) e sarebbe difficile darne un’idea riassumendolo.
La trattazione particolareggiata si limita a brevi (ma, grazie alle nozioni premesse che tendono a rendere accessibile il concetto di «polarità», abbastanza sistematiche) informazioni su rette, cerchi, coniche e
problemi immediati su di esse, con simultaneo cenno di analoghi problemi nello spazio (o iperspazi) su piani, sfere quadriche. Un cenno sui
moti rigidi (trasformazioni di coordinate ortogonali) dà nuova prova
dell’utilità della nozione di omografia vettoriale (introducendo le
isomerie).
Cap. VII - Limiti
Ho cercato particolarmente di render chiaro il valore concettuale dell’introduzione del limite e le tappe della storia di tale nozione; per stabilirla ho trovato particolarmente indovinato basarmi sul termine «definitivamente» introdotto da M. Picone, Lezioni di Analisi Infinitesimale,
ricollegandolo, per un cenno sul limite in un campo qualsiasi, alle concezioni di M. Fréchet, Les espaces abstraits. Sulle serie solo un cenno
preliminare (i maggiori sviluppi essendo rinviati al Cap. IX). Circa la
continuità ho ritenuto opportuno illustrare, almeno graficamente, i vari
20
casi di discontinuità, perché una condizione di «regolarità» mi sembra
priva di ogni potere immaginativo finché non sia presentata come negazione di certe irregolarità ben imparate a conoscere.
Cap. VIII - Derivate
Concetti direttivi come nel Cap. VII; sono incluse l’integrazione come
operazione inversa della derivazione, e i cenni sulle equazioni differenziali e sul significato che per esse il calcolo differenziale assume come
strumento d’espressione delle leggi naturali. Per tale modo di familiarizzare colle concezioni dell’analisi infinitesimale, facendone apprezzare al più presto l’interesse applicativo, ho in parte seguito l’esempio
di R. Courant, Differential and integral Calculus.
Si giunge alla formula di Taylor, ed a porre la questione della validità
dello sviluppo in serie di Taylor.
Cap. IX - Serie e serie di potenze
La questione predetta dà occasione d’impostare nel modo più opportuno
quella della convergenza d’una qualunque serie Σan attraverso l’introduzione d’un’indeterminata z che porta a considerare Σan zn, e quindi il
cerchio di convergenza per il teorema di Cauchy-Hadamard da cui
come corollari i criteri usuali. Tutto ciò, mi sembra, in modo più facile
che per giungere soltanto ai criteri per le serie indipendentemente dalle
serie di potenze; ne ebbi la persuasione da un parziale passo in tal senso
di Courant (op. cit. ad Cap. VIII).
Stabilendo il legame tra serie di potenze e funzioni analitiche, si proseguono le considerazioni abbozzate nel Cap. IV con dei cenni secondo
il punto di vista di Weierstrass, per il quale mi sono valso dell’esposizione di Vivanti, Funzioni analitiche, e del suo insegnamento da cui
ebbi la prima rivelazione di quanta matematica ci fosse al di là del programma del biennio e di come potesse esser padroneggiata da mente
d’uomo.
Cap. X - Problemi in più variabili
Sono trattati e collegati gli argomenti ove intervengono più variabili
dipendenti (p. es. curve nello spazio) o più variabili indipendenti
(funzioni di più variabili), in quanto richiedono una rappresentazione
spaziale (o iperspaziale); di essa ci si vale sistematicamente per
21
appoggiare le nozioni analitiche a concetti geometricamente o anche
fisicamente intuibili (campo vettoriale, gradiente, ecc.).
Nella succinta trattazione, due cenni un po’ più ampi sono quelli sui
sistemi d’equazione differenziali con particolare riguardo ai punti d’equilibrio stabile e instabile, e quello sui problemi di massimo, di massimo vincolato o di «optimum» in più variabili; entrambi con l’intendimento di richiamare l’attenzione sul concetto dell’interdipendenza dei
fenomeni e con speciale riferimento ai problemi di carattere statistico e
economico, sia pur ravvicinati a chiarificatrici applicazioni fisiche.
Non si tralascia comunque, all’occasione, di toccare anche argomenti
di pura matematica (fattore integrante, condizioni di monogeneità, funzioni armoniche, ecc.).
Cap. XI - Integrali
L’integrale come operazione inversa della derivazione è già noto dal
Cap. VIII; qui si tratta perciò di proseguire lo studio riprendendo il concetto secondo la definizione diretta (Riemann; Mengoli-Cauchy) e accennando alle principali regole d’integrazione. Ma più che altro necessita estendere il concetto d’integrale a casi più generali, come da tale
punto di vista è spontaneo, e come è necessario per introdurlo senza restrizioni innaturali nelle applicazioni al calcolo delle probabilità, alla
statistica e alla matematica finanziaria e attuariale: si tratta di passare
dall’integrazione in una a quella in n dimensioni, e dall’integrazione ordinaria a quella nel senso di Stieltjes.
Terminata la scorsa al contenuto dei singoli capitoli, dovrei menzionare
ancora altri numerosi trattati che consultai confrontando, ove incontravo incertezze di scelta, le forme di esposizione, ma sarebbe un’arida
lunga e pur sempre incompleta elencazione; farò solo una eccezione per
F. Tricomi, Analisi Matematica, che per il tono facile dell’esposizione
mi sembra consigliabile a chi volesse allargare le prime nozioni qui apprese. Inutile aggiungere la citazione dei diversi e spesso pregevoli libri
o dispense in uso nelle Facoltà d’Economia e Commercio, già tanto noti
e diffusi fra gli studenti e studiosi di tali discipline.
Nel testo ho omesso qualsiasi citazione tranne una sola: quella delle
voci dell’Enciclopedia Italiana (brevemente indicata con E. I.), e ciò
per diversi motivi; dato il carattere quasi divulgativo del presente volume un rinvio a ricerche e fonti originali costituirebbe un salto insensato; volendo citare trattati scolastici l’imbarazzo della scelta era eccessivo, né avrei avuto motivo di scegliere sempre uno stesso (tanto più
che nessuno collima colla presente esposizione) o di nominare or questo or quello ché certo il lettore non riuscirebbe a trovarli né potrebbe
22
utilmente saltare dall’uno all’altro. Invece l’E. I. si trova ovunque, e chi
volesse consultare opere originali trova lì indicazioni bibliografiche
meglio vagliate di come avrei potuto fare io.
Ma a prescindere da tali motivi di ripiego addotti per giustificare comunque la decisione, penso che gli articoli matematici dell’E. I. sono
nella massima parte veramente adatti per persone colte che abbiano una
sufficiente preparazione. Per chi dovrebbero altrimenti esser stati scritti
profondendo tanto intelligente sforzo di chiarificazione? per i matematici onde giudichino reciprocamente dell’abilità dei colleghi? o per i totalmente profani che non riuscirebbero neppure a raccapezzarsi? Ecco
perché ritenevo un peccato che non ci fosse una specie di guida ad uso
delle persone colte per metterle in grado di leggere e coordinare tali
scritti, e ho cercato di farla per quanto mi riusciva (cioè: senza allontanarmi per tale fine accessorio dal piano del corso, e senza preoccuparmi
– per mancanza di tempo – di cercare sistematicamente le voci da citare
che non ricordassi d’aver letto o non incontrassi casualmente).
Per consultazioni più sistematiche si tenga presente la Enciclopedia
delle Matematiche elementari (a cura di L. Berzolari, G. Vivanti e D.
Gigli).
Per consentire al lettore di ripassare e riordinare gli argomenti, ritrovando e ricollegando considerazioni e trattazioni il cui filo a più riprese
e sotto diversi aspetti si doveva interrompere e riallacciare, potrà giovare il ricorso all’indice schematico, anche se dovetti rinunciare – per
non appensantire troppo il volume – all’idea di trasformarlo in una specie di glossario ricapitolativo o in uno sguardo d’insieme a posteriori
sul tipo di G. Loria, Metodi matematici. Il raggruppamento delle voci è
stato espressamente studiato a tal fine così come la compiutezza dei riferimenti nelle testate (v. Avvertenza, p. XXIV).
Mi resta infine a giustificare quella che può sembrare presunzione,
d’aver dato alle stampe il corso mentre ancora stavo svolgendo il primo
anno d’insegnamento. Certo, sull’ordinamento generale e sui punti salienti dell’esposizione andavo meditando da anni, ma solo il vaglio
della lezione conta. La verità è che fui trascinato alla pubblicazione da
una serie di circostanze impreviste. Avevo consigliato di seguire le pregevoli dispense precedentemente in uso, T. Boggio e G. Peisino, Matematica generale, che pensavo di adottare ancora per 2-3 anni prima di
accingermi a redigere le mie, ma dall’epoca delle incursioni su Torino
rimasero lungo tempo (e si temeva definitivamente) irreperibili; inoltre
le innovazioni apportate allo svolgimento della materia rendevano agli
studenti più difficile che non avessi previsto il seguire il testo. Il dott.
Giuliano Dell’Antonio che, essendo in licenza per ferite riportate al
fronte greco, seguiva il corso per diletto prendendo appunti, mi propose
di farne dispense previa mia revisione, e accolsi l’idea come primo
passo per la stesura definitiva. Se non che, avuti gli appunti, non seppi
23
trattenermi dal ritoccare migliorare perfezionare con la consueta incontentabilità, e poi modificare non solo la stesura ma la stessa disposizione che avevo seguita adeguandola ai ritocchi di cui via via prendevo
nota per l’anno prossimo. Al tempo stesso le difficoltà per una riproduzione di fortuna (ciclostyle, rotaprint, litografia) crescevano, finché a un
certo momento il dott. Fausto Faraguna, mio assistente, dopo essersi
occupato col suo multilaterale e intelligente spirito d’iniziativa d’ogni
cosa, m’informò della possibilità di un’edizione a stampa da parte della
Editrice Scientifica Triestina allora in via di costituzione. Per il disegno
delle figure (parecchie laboriose e difficili) si prestò il geometra Mario
Bordari, dell’Ufficio tecnico dell’A.C.E.G.A.T, e il lettore apprezzerà
certamente il suo lavoro. A questi collaboratori entusiasti, a tutti gli allievi che frequentarono le lezioni e lo sono pur essi attraverso domande
e commenti o l’espressione or perplessa or gioiosa degli occhi, ai colleghi che m’incoraggiarono col loro interessamento, un ringraziamento
sentito.
E un particolare riconoscimento allo Stabilimento Tipografico Nazionale – al direttore geom. cav. Venusto Rossi e ai tipografi Dante Englaro e Lodovico Bari – per la cura e la pazienza con cui il difficile lavoro fu eseguito, senza ricusare fatica anche se richiesta solo per miglioramenti d’estetica, e pur dovendo affrontare e subire gli effetti della
situazione sempre più dura in cui viviamo. Per la Editrice Scientifica
Triestina costituisce un meritorio atto di coraggio e di fede aver iniziato
in tal momento la sua attività; vada ad essa l’augurio di poter contribuire, con la serietà e vivacità che sono nei suoi propositi, alla vita culturale in questo estremo lembo di terra italiana.
Trieste, 24 novembre 1943
24
PER I DIECI ANNI DI INDUZIONI
Alberto Zuliani
Arrivo forse ultimo all’appuntamento per i dieci anni di Induzioni,
ma non ho voluto mancarlo. Come avrei potuto? Insieme a Enzo Lombardo ed altri pochi coraggiosi, poco più di dieci anni fa, proponemmo
la rivista con grande determinazione e ci siamo poi impegnati a
sostenerla.
Quali sono le mie valutazioni sul percorso avvenuto; lungo quali prospettive la rivista dovrebbe muoversi in futuro? Cercherò di dare qualche risposta e di avanzare qualche suggerimento.
Induzioni è piacevole, colta, accoglie contributi di esperienza che
provengono dalla scuola, presenta alcune caratteristiche formali accattivanti per molti lettori e certamente per me: le illustrazioni, che sono
sempre una sorpresa gradita, la carta riciclata al 100%. Quindi, la apprezzo molto e la leggo ogni volta con soddisfazione. Tuttavia, nonostante sia indubbiamente innovativa, dato lo stato dell’arte, mi sembra
talvolta poco in linea con l’evoluzione della nostra disciplina e, in generale, di quelle sperimentali o che trattano dati e informazioni in misura
significativa. Ritengo che dovrebbero essere testimoniate più frequentemente tecniche computazionali, proposte soluzioni simulative di problemi, suggeriti usi ideativi delle opportunità informatiche per l’analisi
statistica. Non mi nascondo che un orientamento nella direzione precedente potrebbe produrre, scusate il bisticcio, disorientamento e forse ulteriori problemi in un corpo insegnante che già si muove con difficoltà
nella statistica «tradizionale», in generale estranea alla sua formazione
culturale. Ma le novità incalzano, le nuove leve di studenti presentano
interessanti predisposizioni e in molti casi già esprimono una domanda
di uso avanzato delle tecnologie dell’informazione e della comunicazione. Non possiamo rimanere spettatori. È una sfida ipegnativa per
tutti noi e dobbiamo raccoglierla al più presto.
Le nuove tecnologie offrono ulteriori opportunità per la rivista. Ritengo che i tempi siano maturi per attivare un sito web di Induzioni, attraverso il quale diffondere documentazione, esperienze, pratiche migliori, stimolare la creazione di una rete di soggetti interessanti, individuali e collettivi, alimentare l’accrescimento delle competenze, creare
25
un vero e proprio «mercato della conoscenza», nel senso di luogo di
scambio. Si tratta di un percorso di medio periodo, che passa attraverso
le tappe intermedie del trasferimento delle informazioni e dell’apprendimento della rete. Nella prima fase sarebbero socializzati casi di studio e rassegne, proposti quesiti e fornite risposte, richiesta collaborazione specifica, segnalati eventi, diffuse notizie e inviti a convegni,
conferenze e seminari, con la necessaria tempestività. La fase di apprendimento della rete prevede di riflettere sulle informazioni trasmesse, trasformarle, aggiungervi valore, sviluppare riferimenti ed abilità comuni.
Potrebbero essere aperti forum di discussione, sperimentati incubatori di innovazione didattica e laboratori trasparenti, che si avvarrebbero così del contributo critico degli aderenti. Il traguardo è rappresentato dall’attivazione via via più estesa, ed è chiara la continuità del processo, delle competenze disponibili. Un’iniziativa di questa portata
deve trovare il sostegno convinto di soggetti istituzionali – Ministero
dell’istruzione, università e ricerca, assessorati regionali, scuole che
vogliano impegnare in termini progettuali la sperabilmente presto conquistata autonomia – e naturalmente della comunità degli statistici.
In definitiva, sogno una rivista attiva, in grado di suscitare iniziative
e gestire conoscenza.
Per il momento, rimanendo ancorati alla carta meritoriamente riciclata, suggerisco che vengano sempre recensiti in modo utile, quindi in
grado di suscitare curiosità e di orientare, gli eventi significativi del settore; che in ogni numero venga analizzato statisticamente un tema di attualità (ad esempio, gli esiti del contratto con gli italiani dell’allora
aspirante presidente del consiglio dei minitri, la problematica del costo
della vita, le classifiche proditorie, scusate se indico il mio punto di vista, delle facoltà universitarie del paese, stilate ogni anno a cavallo di
luglio e agosto, il «buco» dei conti pubblici, gli incidenti stradali del sabato sera e durante gli esodi agostani, la congruità dei premi assicurativi); che i due migliori contributi dell’anno vengano pubblicati in lingua inglese su Statistical Methods & Applications, nuova serie del
Journal of the Italian Statistical Society.
Auguri, seppure in ritardo, per il compleanno e complimenti al direttore e alla redazione.
26
SULLA MISURA DELLA DIPENDENZA
G. Cicchitelli*
1. Introduzione
Si consideri la seguente distribuzione relativa ad un campione di immatricolati all’Università secondo la Facoltà e il voto di maturità.
Tab. 1
Dalla comparazione delle percentuali di riga (indicate tra parentesi in
Tab. 1) con le corrispondenti percentuali marginali, si evince chiaramente l’esistenza di un legame associativo tra i due caratteri. Ciò è dovuto, in particolare, alla divaricazione dalla media delle distribuzioni
condizionate associate alle Facoltà B, E, H, I e M: le prime tre presentano, infatti, un’attrazione relativamente maggiore di studenti con votazioni basse, per le altre due si registra il fenomeno opposto. L’indice X2
assume il valore 73,3, mentre l’indice C di Cramér è pari a
C⫽
冑
–
X2
⫽
max X2
冑
–
73, 3
⫽ 0, 14
1. 250 ⫻ 3
valore piuttosto piccolo che segnala un legame associativo assai lieve,
in contrasto con quanto l’esame diretto dei dati suggerisce.
In questa nota, si vuole dimostrare che l’indice C non è un buon indi*
Dipartimento di Scienze Statistiche – Università di Perugia
27
catore dell’intensità del legame associativo tra due caratteri: esso, infatti, assume, ordinariamente, valori molto piccoli, come conseguenza
del fatto che il massimo posto al denominatore del rapporto sotto radice
è troppo «estremo» per essere assunto come termine di confronto.
2. L’insieme di riferimento
Si consideri una popolazione di 20 unità classificate secondo le modalità di due caratteri, A e B, ad esempio gli addetti ad una filiale di banca.
Siano, A1, A2 e A3 le modalità del primo carattere e B1, B2 e B3 quelle del
secondo. Il carattere A sia, ad esempio, il titolo di studio posseduto e il
carattere B la qualifica degli addetti. Si ammetta che le distribuzioni
marginali siano le seguenti:
Nella Fig. 1 sono indicate, a titolo di esempio, quattro diverse possibilità di associazione tra i due caratteri:
Le tabelle della Fig. 2 rappresentano quattro elementi dell’insieme
delle possibili distribuzioni doppie aventi le stesse distribuzioni marginali. La numerosità di tale insieme è 20!: ciascuna di esse si ottiene, ad
esempio a partire dalla Tab. a della Fig. 1, mantenendo fisse le modalità
di A, e permutando in tutti i modi possibili le modalità di B. Naturalmente, non tutte le distribuzioni che così si ottengono sono diverse tra
di loro: il numero massimo di tabelle distinte è 546 (cfr. Agresti e Wackerly, 1977, p. 120).
L’insieme delle tabelle che si ottengono con il procedimento illustrato va sotto il nome di classe di Fréchet; nel seguito si parlerà di insieme di riferimento con lo stesso significato.
Si consideri, ora, la generica distribuzione doppia di frequenze
28
Fig. 1
Sotto forma di distribuzioni doppie di frequenze le quattro distribuzioni
indicate divengono come in Fig. 2.
Fig. 2
29
La misura di dipendenza più frequentemente usata è l’indice di Cramér
dato da
C⫽
冑
–
X2
,
n(q ⫺ 1)
(1)
– , essendo –n ⫽ n n n le fredove, X2 ⫽ Σri ⫽ 1 Σjc ⫽ 1 (nij ⫺ –nij )2 /n
ij
ij
i0 0j
quenze della tabella di indipendenza, e q ⫽ min(r, c). Sia S l’insieme di
riferimento corrispondente, ossia l’insieme delle distribuzioni doppie
aventi le stesse distribuzioni marginali. L’indice (1) assume valori nell’intervallo [0,1]: il minimo, 0, è assunto nel caso di indipendenza; il
massimo, 1, nel caso di dipendenza perfetta, ossia quando la tabella di
contingenza presenta su ciascuna riga, oppure su ciascuna colonna, una
sola frequenza diversa da 0. Pertanto, valori bassi dell’indice dovrebbero denotare un basso grado di dipendenza, viceversa, valori alti dovrebbero segnalare il fenomeno opposto. Ma non è così: in realtà, come
verrà spiegato nel prossimo paragrafo, l’indice assume, nella maggior
parte delle tabelle di S, valori assai piccoli, dando un’immagine sfocata
della connessione.
3. Distribuzione dell’indice X2 nell’insieme di riferimento e misura
della dipendenza
Data una distribuzione doppia come quella riportata in Tab. 2, concettualmente, parlare di distribuzione di frequenze dell’indice X2 significa
determinare la frequenza in S di ogni valore di X2 compreso nell’inter30
vallo [0, X̃2], dove X̃2 ⫽ maxs X2 è il massimo dell’indice X2 nell’insieme S. Si osserva, incidentalmente, che X̃2 ⭐ n(q ⫺ 1): non è detto,
infatti, che la tabella di dipendenza perfetta appartenga a S.
A quanto risulta allo scrivente, mentre è nota la formula della frequenza relativa del generico elemento dell’insieme S, rappresentata
dalla Tab. 2, che è data da (cfr. Leti, 1970, p. 98)
f(n11 , n12 , . . . , nij , . . . , nre ) ⫽
Πr1 ni0 !Π1c n0j !
n!Πr1 Π1c nij !
(2)
non è possibile ottenere una formula per la frequenza relativa di X2 in S
in una forma che sia utile ai fini applicativi: si tratta, infatti, di sommare, per ogni assegnato valore di X2, espressioni come la (2) nel corrispondente sottoinsieme di S, cioè nell’insieme delle tabelle in cui l’indice assume il valore dato.
Esiste, però, una soluzione approssimata al problema basata sulla
tecnica Monte Carlo, mediante la quale la distribuzione in questione
viene simulata generando, con un meccanismo casuale, un numero
grande di tabelle di S; la distribuzione approssimata di X2 si ottiene determinando su queste tabelle la distribuzione di frequenze dell’indice
stesso. Un modo per realizzare la simulazione è quello delineato nel paragrafo precedente: si esprime la distribuzione data in forma disaggregata come indicato nella Fig. 1; poi, mantenendo fisse le modalità del
carattere A, si permutano casualmente le modalità di B e si costruisce la
relativa tabella di contingenza su cui viene calcolato l’indice X2. Ripetendo molte volte questa operazione, si perviene ad una distribuzione di
frequenze empirica che è prossima a quella effettiva. La procedura descritta può essere realizzata agevolmente con il PC facendo ricorso ad
uno dei numerosi pacchetti informatici disponibili. Nella applicazione
che sarà qui illustrata, si è fatto uso di Matlab.
Nella Fig. 3 è rappresentata la distribuzione empirica dell’indice X2
in 10.000 tabelle dell’insieme S costruite in modo casuale a partire dai
margini della Tab. 1. La distribuzione presenta asimmetria positiva; ha
media 30,03, mediana 29,37; il 99-esimo centile è 50,81; il valore massimo è 72,95. Poiché nella distribuzione effettiva (Tab. 1) l’indice X2 è
pari a 73,30, si deve concludere che la distribuzione osservata rappresenta uno degli elementi del proprio insieme di riferimento ove la misura dell’associazione è più forte: il valore osservato, infatti, supera il
99-esimo centile della distribuzione dell’indice in S.
31
Fig. 3
In altri termini, la tabella osservata è molto distante dalla situazione di
indipendenza (X2 ⫽ 0). Ciò contrasta in modo evidente con le indicazioni desunte dall’uso dell’indice C che è pari a 0,14 (cfr. par. 1), valore
che segnala come la distribuzione osservata sia molto distante dalla dipendenza perfetta. Si osservi che con il criterio C da tutte le 10.000 tabelle simulate si trae la medesima conclusione, dato che il valore massimo che l’indice assume in questo insieme di distribuzioni è 0,14.
Sembra allora più congruo fondare il giudizio circa l’intensità della
relazione associativa valutando quanto la distribuzione osservata è distante dalla tabella di indipendenza sulla base della frequenza relativa
in S dei valori dell’indice più grandi di quello osservato. Così, nel caso
–
–
esemplificato, indicata con f la stima di questa frequenza, si ha f ⬍
2
⬍ 0, 01; ciò significa che il livello osservato di X è tra i maggiori che
possano essere assunti nell’appropriato insieme di riferimento. Questo
ragionamento è formalizzato nella proposizione seguente.
Proposizione 1. Data una tabella di contingenza come quella riportata
nella Tab. 2, il valore osservato dell’indice X2 va considerato molto
elevato e, quindi, indicativo di una forte relazione di dipendenza tra i
due caratteri, se è molto piccola la frequenza relativa f, nell’insieme S
definito dai margini della Tab. 2, dei valori di X2 maggiori di quello
osservato.
È possibile istituire una relazione tra la misura della dipendenza tra due
caratteri e la verifica dell’ipotesi di indipendenza.
Proposizione 2. La distribuzione di frequenze dell’indice X2 in S coincide con la distribuzione di probabilità dello stesso indice in S sotto l’ipotesi di indipendenza.
32
Per la dimostrazione della Proposizione 2, basta considerare, sotto l’ipotesi di indipendenza, la probabilità di una tabella di struttura assegnata nell’insieme S, cioè condizionatamente ai margini assegnati,
coincide con la (2). A questo riguardo si rinvia ad Agresti (1990), pp.
62-63.
La conseguenza della Proposizione 2, alla luce della Proposizione 1,
è che il grado di associazione tra i due caratteri può essere considerato
forte se la tabella osservata porta al rifiuto dell’ipotesi di indipendenza:
la relazione è tanto più intensa quanto minore è il livello di significatività con cui l’ipotesi di indipendenza viene rifiutata.
È importante osservare che, sussistendo le consuete condizioni, la distribuzione di X2 in S può essere approssimata con una chi-quadrato con
(r ⫺ 1) (c ⫺ 1) gradi di libertà. In tal caso, il giudizio sul legame associativo tra i due caratteri richiede, semplicemente, il confronto di X2
con i centili superiori di detta distribuzione.
L’illustrazione precedente pone, tuttavia, un problema che merita di
essere approfondito: se è vero che l’indice C assume ordinariamente valori troppo piccoli che tendono a far «sottovalutare» il grado di associazione tra due caratteri, per contro, la tecnica suggerita in questa nota
può condurre ad una «sopravvalutazione» del fenomeno. Ciò perché,
stante la (2), hanno peso eccessivo, sulla distribuzione di frequenze di
X2 in S, le tabelle in cui X2 assume i valori più piccoli, ossia le tabelle
vicine a quella di indipendenza.
Una possibile via d’uscita consiste nel computare la frequenza f
(delle tabelle con X2 maggiore o uguale a quello osservato) non nell’insieme di riferimento S, ma nel sottoinsieme di S delle sole tabelle distinte. In altri termini, si tratterebbe di dare peso uniforme alle tabelle
distinte di S, considerando distinte due tabelle se differiscono per le frequenze che presentano in almeno due caselle. Il tema sarà oggetto di ulteriori approfondimenti.
BIBLIOGRAFIA
AGRESTI A. (1990), Categorical data analysis, Wiley, New York.
AGRESTI A. - WACKERLY D. (1977), Some exact conditional tests of independence for r × c cross-classification tables, Psychometrika, 42, pp.
111-125.
LETI G. (1970), La distribuzione delle tabelle della classe di Fréchet, Metron,
28, pp. 86-121.
33
1a
1b
1a
Michael Thonet, sedia n. 14 –1859. Produzione Thonet. Immagine tratta dal libro
1000 chairs, a cura di Charlotte & Peter Fiell, Ed. Tashen (Museum Thonet –
Gebrüder Thonet GmbH, Frankenberg).
Innovativa tecnica di curvatura del legno
1b
Gio Ponti, sedia superleggera –1957. Produzione Cassina. Immagine tratta dal
libro 1000 chairs, a cura di Charlotte & Peter Fiell, Ed. Tashen (Archivio Cassina)
Rivisitazione della sedia Chiavari, migliorata nella leggerezza e nell’ergonomia
ESPERIENZE E MATERIALI
QUALCHE CONSIDERAZIONE SUL PROBLEMA
DELLA MISURA STATISTICA
DELLA POVERTÀ
Maria Elena Graziani
La povertà è una violazione dei diritti umani.
Quando 1,3 miliardi di persone vivono in condizione di estrema povertà,
questa è la più diffusa violazione dei diritti umani del mondo1.
Introduzione: un po’ di cifre per capire il problema
Alle soglie del nuovo millennio, i capi di stato e di governo si sono
riuniti per esporre la loro visione del mondo e per approvare la Dichiarazione del Millennio delle Nazioni Unite che riconosce la «responsabilità collettiva nell’affermare i principi della dignità umana, dell’uguaglianza e dell’equità a livello globale»2. Tra gli obiettivi fissati ci sono
traguardi specifici, quantificati e monitorati, per la forte riduzione della
povertà entro il 2015.
L’ultimo Rapporto dell’UNDP3 delinea, a questo proposito, un quadro drammatico: dei 4,6 miliardi di persone che vivono nei paesi in via
1. Così inizia il documento su «lotta alla povertà, sviluppo sociale e cancellazione del
debito» della Dichiarazione del Millennium del Forum delle Organizzazioni non governative, tenutosi nel mese di maggio 2000. Il dibattito è stato organizzato per fornire all’Assemblea Generale delle Nazioni Unite una serie di indicazioni su pace, eliminazione
della povertà, diritti umani, sviluppo sostenibile, sfide della globalizzazione e rafforzamento e democratizzazione delle Nazioni Unite. L’incontro ha visto la presenza di oltre
1.000 organizzazioni provenienti da 106 paesi e ha concluso i lavori con la sottoscrizione
di
una
Dichiarazione
e
di
un
Piano
d’Azione
<www.lions.it/thelions/08-00/p.12/htm>.
2. L’Assemblea Generale delle Nazioni Unite e il Summit dei Capi di Stato si sono
svolti a New York nel settembre 2000 e hanno affrontato temi di ampio rilievo sulla situazione mondiale. L’accento è stato posto, in particolare, sui problemi della pace e dello
sviluppo. L’Assemblea Generale ha adottato la Dichiarazione del Millennio delle Nazioni
Unite che si può leggere nel sito: <www.onuitalia.it/calendar/millenniumassembly/unmildec.html>.
3. UNDP, Rapporto su: lo sviluppo umano. Come usare le nuove tecnologie, Rosenberg & Sellier, Torino, 2001, 25, 26.
35
di sviluppo, più di 850 milioni sono analfabete, quasi un miliardo non
può accedere all’acqua pulita e a 2,4 miliardi sono precluse le infrastrutture sanitarie. Quasi 325 milioni di giovani non frequentano la
scuola e ogni anno 11 milioni di bambini (cioè più di 30.000 al giorno)
muoiono per cause che si potrebbero prevenire. Circa 1,3 miliardi di
persone vivono, poi, con meno di 2 dollari USA al giorno.
Ma questo genere di privazioni non si limita ai paesi in via di sviluppo, nei paesi OCSE, per esempio, più di 130 milioni di persone risultano povere di reddito, 34 milioni sono disoccupate e il tasso di analfabetismo funzionale (cioè di chi manca di abilità nella lettura e nella
scrittura tali da risultare ignorante su qualsiasi argomento, sia pure minimamente impegnativo)4 tra gli adulti è mediamente del 15%.
Ma l’imponenza di queste cifre, che pur esplicitamente mostrano livelli di deprivazione scoraggianti nei diversi settori della vita quotidiana, evidenziano allo stesso modo il livello complessivo di povertà?
Secondo il succitato Rapporto sì, perché come indicatore di povertà
viene adottata una misura che non valuta solamente il livello di reddito,
ma considera una serie di informazioni: la possibilità di condurre una
vita sana e lunga, quella di istruirsi e l’accesso alle risorse necessarie
per uno standard di vita dignitoso. Si riconosce, così, che questo terzo
aspetto, sintetizzato dal reddito, è senza dubbio molto significativo, ed
è per questo che viene utilizzato per calcolare i livelli di povertà, eppure
esso costituisce solamente una delle variabili che esprimono lo standard
di vita.
1. Definizioni di povertà
Ma che cosa si intende oggi esattamente per povertà?
Il termine deriva da pauperitas, che a sua volta trae origine da paucus, poco; ed infatti per povertà si intende la situazione generica di insufficienza o mancanza in cui i bisogni non riescono ad essere soddisfatti. La consultazione del Roget’s Thesaurus of English Words &
Phrases, mirata a sinonimi e contrari del lemma poverty, conduce, tra i
primi, a mendicità, penuria, necessità, privazione, tra i secondi, a ricchezza, opulenza, dotazione, abbondanza.
4. L’alfabetizzazione funzionale «non è solo la capacità di compitare e scrivere la propria firma, ma è la capacità di capire e di scrivere un breve testo relativo a fatti della vita
collettiva del paese. Un buon livello di alfabetizzazione funzionale è un fattore importante per la qualità della vita, l’attività produttiva e lo sviluppo economico.» T. De
Mauro, Analfabeti si nasce e si diventa, in Scienza Nuova, no 1, aprile 1998 (su internet
<www.scienzanuova.it>).
36
Se la mancanza (o il suo contrario, l’abbondanza) rimanda alla vita di
privazioni condotta dall’individuo, l’accento può essere anche posto sul
collettivo, cioè sul gruppo sociale, l’etnia, il popolo, l’area geografica
che manchino dei mezzi indispensabili alla propria sussistenza5.
Infine la globalizzazione ha evidenziato il problema dell’equilibrio
tra bisogni e risorse su scala planetaria. Si può considerare il pianeta intero come soggetto di povertà e individuare nuove fonti di rischio di povertà quali quelle indotte da un utilizzo progressivamente distruttivo e
‘non sostenibile’ delle risorse del pianeta – risorse energetiche, idriche,
alimentari, ecc.
Gli approcci tradizionali alla povertà hanno sempre interpretato la
povertà dal punto di vista prevalentemente, se non esclusivamente, economico con riferimento ai soli bisogni di natura materiale la cui carenza
determina una situazione di marginalità economica.
Questa ottica è oggi ampliata, riconoscendo nei comportamenti degli
individui non solo le motivazioni carenziali (o di sopravvivenza) ma
considerando anche i cosiddetti ‘bisogni di abbondanza’, cioè le manifestazioni del pensiero, l’istruzione, l’autorealizzazione, ecc.6. Sempre
più diffusamente si tende a considerare, infatti, che «chi è povero necessita di molte cose: beni e servizi, ma anche opportunità, relazioni sociali e, forse, (...) felicità»7.
In una intervista a La Repubblica, l’indiana Deepa Narayan, consigliera della Banca Mondiale e massima esperta di sviluppo sociale, afferma che non si tratta solo di ricchezza e istruzione, a volte manca il
senso di appartenenza ad una comunità, il senso di identità; dobbiamo
guardare – dice – a quello che rende umano gli esseri umani e non solo
agli aspetti economici8.
Si amplia, così, la concezione della povertà alla «qualità delle relazioni politiche e personali, oltre che ad altri bisogni non soddisfacibili
attraverso il tramite monetario»9, rendendo possibile il delinearsi di un
orizzonte unitario che abbracci il manifestarsi delle più varie configurazioni di povertà.
Tentando di comprendere sia i vecchi bisogni di tipo materiale, sia
5. G.B.Sgritta e G.Innocenzi, La povertà, in Paci (a cura di), Le dimensioni della disuguaglianza, Il Mulino, Bologna, 1993, 261-292.
6. A.J.M..Hagenaars, The perception of poverty, Elsevier, Amsterdam, 1986.
7. G.Carbonaro, La povertà: definizioni e misure, in Tutela, a.VIII, n.2/3, giu.set.
1993, 5-13.
8. Intervista di Giampaolo Cadalanu a Deepa Narayan, «Si aggrava il dramma della
fame i bambini saranno le prime vittime», La Repubblica del 12/12/2001.
9. G.Sarpellon, Rapporto sulla povertà in Italia, in G.Sarpellon (a cura di), La povertà
in Italia, Franco Angeli/La Società, Milano, 1982.
37
quelli relazionali o immateriali10, si giunge a parlare di nuove ‘povertà
transmateriali’ o, introducendo un concetto ben più vasto, di ‘qualità
della vita’.
La più aggiornata tassonomia dei bisogni individua, infatti, come vita
realizzata quella in cui vengano soddisfatti i bisogni e attualizzate le
potenzialità, in contrapposizione a una che venga a trovarsi insoddisfatta nei bisogni e soffocata e impedita nelle aspirazioni.
Amartya Sen11, premio Nobel per l’economia nel 1998 e autore che,
più di altri, ha sottolineato la parzialità della definizione della povertà
affrontata in un’ottica strettamente materiale12, scrive, a questo proposito: «vi sono molti modi fondamentalmente diversi di considerare la
qualità della vita (...). Si potrebbe essere agiati senza stare bene. Si potrebbe stare bene senza essere in grado di condurre la vita che si era desiderata. Si potrebbe avere la vita che si era desiderata senza essere felici. Si potrebbe essere felici senza avere molta libertà. Si potrebbe
avere molta libertà senza avere molto»13.
Sen ha inserito la povertà all’interno di una cornice più complessa,
introducendo un nuovo concetto di privazione, intesa come mancanza
di opportunità; beni e risorse, in questa ottica, non costituiscono
il benessere, ma sono strumenti per ottenerlo. Ha, così, esteso lo
sguardo a ciò che gli individui possono fare con i beni e con
le risorse affermando che il benessere dipende dalla possibilità che
beni e risorse hanno di assolvere alcune funzioni (functioning)14,
da ciò che le persone riescono a fare e ad essere con i mezzi.
È a questo spazio delle realizzazioni e dei traguardi importanti
10. C.Calvaruso, Povertà materiali ed immateriali in Europa, in Tutela, giu.-sett. 1993,
anno VIII no 2/3, 26-29.
11. Dell’autore: Scelta delle tecniche: un aspetto dello sviluppo economico pianificato,
1960, Scelta collettiva e benessere sociale, 1970, Sull’ineguaglianza economica, 1973,
Occupazione, tecnologia e sviluppo, 1975, Povertà e carestie, 1981, Merci e capacità,
1985, Scelta, benessere, equità, il Mulino, 1986, Risorse, valori e sviluppo, Bollati Boringhieri, 1992, Etica ed economia, Laterza, 1988, Il tenore di vita. Tra benessere e libertà,
Marsilio, 1993, La disuguaglianza, il Mulino, 1994, La libertà individuale come impegno
sociale, Laterza, 1997, La diseguaglianza. Un riesame critico, il Mulino, 2000, La ricchezza della ragione. Denaro, valori, identità, il Mulino, 2000, Lo sviluppo è libertà.
Perché non c’è crescita senza democrazia, Mondadori, 2000, 2001.
12. P. Dongli, Riflessioni in tema di povertà e conseguenze di politica economica, in
Rivista internazionale di Scienze Sociali, 3-4, anno XCVII, lu.dic. 1989, 422-443.
13. A.Sen, Il tenore di vita. Tra benessere e libertà, (a cura di L.Piatti), Marsilio editore, Venezia, 1993, 29-30.
14. Functioning viene tradotto in italiano con ‘funzione ‘ o ‘funzionamento’ che, per
G.Devoto e G.Oli, Vocabolario illustrato della lingua italiana, dal Reader’s Digest, Milano, 1980, significa «svolgimento di una attività specifica, commisurato al rendimento».
38
della vita umana che occorre guardare per giudicare il benessere
degli individui.
Nell’ambito delle teorizzazioni sulla povertà non può non essere ricordata anche l’opera dell’antropologo americano Oscar Lewis
(1914-1970) che, grande viaggiatore, venendo a contatto con storie di
vita dei poveri e degli emarginati, ha elaborato il concetto di ‘cultura
della povertà’15. Lewis identifica la povertà come «un fattore dinamico
che intacca la partecipazione alla più ampia cultura nazionale e crea per
conto suo una propria sotto-cultura» che egli definisce «cultura della
povertà in quanto questa ha le sue proprie radicalità e distinte conseguenze sociali e psicologiche per i suoi membri»16.
Secondo Lewis, la cultura della povertà determina l’estraneità nei
confronti della società ed è quindi un fattore di emarginazione basato
sul proprio sentimento di impotenza ed inferiorità, sulla consapevolezza della diversità del proprio gruppo familiare e sulla conseguente
assunzione di una mentalità e di una condotta che si vengono a configurare come una vera e propria subcultura di chi si è convinto di non appartenere ad alcuna struttura sociale che tenga conto di lui.
2. Gli indicatori per misurare la povertà
2.1. La linea di povertà
Come visto, il significato attribuito alla povertà è molto differenziato: povertà come carenza di beni materiali, come mancanza di beni
immateriali, come impossibilità di utilizzare i beni di cui si dispone per
soddisfare i propri bisogni o addirittura si configura come una vera e
propria sub-cultura.
La statistica ufficiale ha fino ad oggi affrontato la problematica della
povertà da un punto di vista materiale, a partire, in genere, dai consumi
delle famiglie17. In Italia come nella maggior parte dei paesi, vengono
utilizzate le ‘scale di equivalenza’ per tenere conto correttamente delle
‘economie di dimensione’ realizzabili col crescere dell’ampiezza della
famiglia: il fabbisogno di risorse di una famiglia, infatti, non aumenta
in misura direttamente proporzionale all’aumentare dei suoi componenti, ma al crescere della dimensione si vengono a creare delle vere e
15. Dell’autore: Five families, 1959, The children of Sanchez, 1961, La vida, 1966, Antropological essayes, 1970; La cultura della povertà, Il Mulino, Bologna, 1973.
16. L.Ferrarotti, O.Lewis, biografo della povertà, Laterza. Bari, 1986, 15.
17. G.Carbonaro, La povertà: definizioni e misure, in Tutela, a.VIII, n.2/3, giu.set.1993,
5-13.
39
proprie economie di scala e un membro della famiglia si può permettere
di «consumare alcuni beni senza che si riduca per gli altri componenti
la disponibilità dei beni stessi»18. Si pensi ad esempio agli elettrodomestici (lavapiatti, lavatrice) o al riscaldamento della casa o, ancora, al
consumo elettrico della televisione: in questi esempi, la spesa è la
stessa qualunque sia l’ampiezza della famiglia.
Le ‘scale di equivalenza’ consentono di «individuare livelli di spesa
che assicurino a famiglie di diversa composizione, la stessa capacità di
consumo, intesa come capacità di procurarsi la stessa quantità e qualità
di beni e servizi»19 e, quindi, permettono di comparare i consumi di nuclei familiari di diversa ampiezza o composizione strutturale.
Per convenzione si associa il valore 100 ad una famiglia di due persone, il valore 60 (o il 60% del precedente) ad una famiglia di una sola
persona, 133 se vi sono tre componenti, 163 per quattro componenti,
190 per cinque, 216 per sei e 240 per sette o più. La scala di equivalenza
può, quindi, essere schematizzata come segue: K = { 60, 100, 133, 163,
190, 216, 240 }.
Per individuare, poi, se la famiglia sia classificabile come ricca o povera, si fa riferimento ad una soglia di consumo, detta ‘linea della povertà’ che costituisce il confine al di sotto del quale individuo, famiglia
o popolazione viene, appunto, definita povera. Questa soglia può essere
assoluta o relativa. Si costituisce una soglia assoluta (una «soglia fisiologica»20) quando si considera un paniere di beni e servizi idoneo a garantire un «modo di vita minimo identico in tutti i luoghi e in tutte le
circostanze»21. Al contrario, la soglia è detta relativa quando si fa corrispondere la povertà ad una situazione in cui le risorse non permettono il
modo di vita considerato minimo accettabile in un certo luogo in cui si
vive22, cioè non consentono «l’accesso ai mezzi normalmente considerati come disponibili all’interno di una comunità»23
18. C.Dagum, A.Lemmi, L.Cannari, Proposta di nuove misure della povertà con applicazione al caso italiano in anni recenti, in Note economiche, no 3, 1988, 74-97.
19. La povertà in Italia, rapporto conclusivo della Commissione di studio istituita
presso la Presidenza del Consiglio dei ministri, 1985, 37-38.
20. P.Gilliand, Verso una maggiore giustizia sociale in Europa: le sfide della povertà e
dell’emarginazione, (documento per il Colloquio del Consiglio d’Europa a Strasburgo),1991, in Tutela, sett.dic. 1992, Anno VII, no, 45-53.
21. A.J.M.Hagenaars, K.Vos, M.A.Zaidi, Statistiques relatives à la pauvreté à la fin
des anées 80: recherche s’appuyant sur des microdonnées, Eurostat, 13.
22. Ibidem.
23. P.Gilliand, Verso una maggiore giustizia sociale in Europa: le sfide della povertà e
dell’emarginazione, (documento per il Colloquio del Consiglio d’Europa a Strasburgo)
1991, in Tutela, sett.dic. 1992, Anno VII, no 3/4, 45-53.
40
Tavola 1. La povertà in Italia nel 200124
L’ISTAT valuta l’incidenza della povertà sulla base del numero di famiglie che presentano spese per consumi al di sotto della soglia relativa
pari, per il 2001, a 814.55 Euro, rispetto agli 810,32 Euro per il 2000. La
soglia assoluta per lo stesso anno è di 559,63 Euro mensili, rispetto ai
544, 86 Euro per il 2000.
Nel 2001, sono circa 2 milioni 663 mila famiglie che vivono in condizioni di povertà relativa (pari al 12,0% del totale delle famiglie residenti), per un totale di 7 milioni 828 mila individui (il 13,6% dell’intera
popolazione). Il numero di poveri appare quindi in leggerissima diminuzione rispetto al 2000, quando si contavano 2 milioni 707 mila famiglie
in povertà relativa (pari al 12,3% del totale) e 7 milioni 948 mila individui (il 13,9% dell’intera popolazione).
La diffusione della povertà presenta, tuttavia, dinamiche diversifiate
per tipologie e per area territoriale.
Il maggior numero di poveri è concentrato tra le famiglie numerose,
in particolare quelle con tre o più figli, tra le famiglie con anziani e tra
gli anziani soli. Nel Mezzogiorno, il fenomeno appare più accentuato: su
100 famiglie con problemi economici, infatti, ben 66 risiedono nel mezzogiorno (in crecita rispetto al 2000 quando erano 63).
Circa il 25% delle famiglie con 5 o più componenti è povero, valore
che supera il 36% nel Mezzogiorno. Si tratta in genere di coppie con tre
o più figli (se solo minori, l’incidenza sale al 28% a livello nazionale e
al 37% nel Mezzogiorno). Anche la presenza di anziani (di età superiore
ai 64 anni) aumenta l’incidenza della povertà che risulta pari al 13,8% se
è presente un anziano e raggiunge il 17,8% se ve ne sono due o più. Nel
Mezzogiorno il fenomeno appare più accentuato: oltre un terzo delle famiglie con 2 o più anziani risulta povero. Per gli anziani soli, l’incidenza
di povertà è pari al 13,5% e sale al 16,5% per le coppie in cui la persona
ha più di 64 anni. Al contrario, le persone sole e le coppie con persona di
riferimento di età inferiore ai 65 anni mostrano livelli di povertà inferiori alla media nazionale, con la sola eccezione per le coppie nel Mezzogiorno (14,4%).
Gli altri due fattori che sembrano influenzare la povertà sono il titolo
di studio e il lavoro. Più il titolo di studio è elevato, minore è l’incidenza
della povertà; lo stesso avviene per la condizione lavorativa. I ritirati dal
lavoro individuano uno dei sottogruppi con un’elevata incidenza di povertà (13,4% a livello nazionale e 27,8% nel Mezzogiorno), un altro è
costituito dai disoccupati (l’incidenza di povertà è pari al 22,8% se un
solo componente è in cerca di lavoro e raggiunge il 41,1% se sono almeno due).
24. La povertà in Italia nel 2000, in Note Rapide, Istat, 31/7/2001; La povertà in Italia
nel 2001, in Note Rapide, Istat, 17/7/2002.
41
Nella definizione della linea di povertà, sia essa relativa o assoluta, si
adotta normalmente il criterio cosiddetto ‘oggettivo’: la soglia, cioè, è
definita in via esogena da esperti in base a direttive ufficiali. Solo qualora si volesse indagare sulla rappresentazione che un individuo o un
gruppo sociale ha di sé, nella definizione della linea della povertà potrà
essere adottato il criterio ‘soggettivo’ che, cioè, pone al centro dell’indagine la percezione che ogni persona ha della propria situazione25.
2.2. L’approccio multidimensionale e sfocato
Per la ricerca ufficiale, quindi, è povero chi sta al di sotto di una certa
soglia calcolata sulla base della sola dimensione economica, relativa e
‘oggettiva’.
La misurazione unidimensionale risulta, però, non idonea per quel filone di ricerca che pone l’accento sul concetto di ‘qualità della vita’ e
affronta il problema da un punto di vista più complesso: in questo caso
la scelta dovrebbe ricadere (e ciò succede in alcuni casi) su una gamma
di indicatori, ad esempio il possesso di beni durevoli, la condizione abitativa e quella lavorativa, lo stato di salute, alcuni fattori demografici
importanti, ecc.26, nonché su strumenti matematici più sofisticati.
La linea di povertà, infatti, è un indicatore piuttosto rigido perché
«costituisce sempre l’introduzione arbitraria di una discontinuità all’interno di una distribuzione (...) che costituisce invece un continuum»27;
apporta, cioè, una eccessiva semplificazione della realtà poiché ripartisce la popolazione in poveri e non poveri e cancella tutte le sfumature
esistenti fra le due situazioni estreme di elevato benessere e di marcato
disagio materiale.
Benché questo metodo abbia il vantaggio di evidenziare un carattere
comune all’interno di ciascun gruppo, esso però dimostra di imporre
25. G.Carbonaro, La povertà: definizioni e misure, in Tutela, a.VIII, n.2/3, giu.set.
1993, 5-13.
26. B.Cheli e A.Lemmi, A ‘Totally’ Fuzzy and Relative Approach to the multidimensional Analysis of Poverty, in Economic Notes by Monte dei Paschi di Siena, vol.24, no 1,
1995, 115-134. Ci si domanda, inoltre, se la spesa per i consumi non sia una dimensione
eccessivamente affetti da errori dovuti alla reticenza degli intervistati, e se non rifletta
non solo la possibilità di consumo, ma anche le preferenze e i gusti del consumatore (in
G.Coccia e A.Lemmi., La misura multidimensionale e relativa della povertà: un esperimento sulla realtà italiana della prima metà degli anni novanta, (relazione a convegno),
ISTAT, Roma, luglio 1997).
27. La povertà in Italia, rapporto conclusivo della Commissione di studio istituita
presso la Presidenza del Consiglio dei ministri, 1985, 37-38.
42
una forzata dicotomizzazione della popolazione e, discriminando tra
poveri e non poveri, ha il grosso limite di forzare la realtà e di individuare la povertà come «un attributo che caratterizza un individuo in termini di presenza o assenza», essa invece «è piuttosto un predicato vago
che si manifesta con diversità di grado e di sfumature»28.
È per questo che Sen e altri autori avevano suggerito, all’inizio degli
anni ’80, di affrontare il problema in termini di ‘insiemi sfocati’ (fuzzy
sets), cioè di quegli insiemi in cui il codominio della funzione che consente di accertare se un oggetto appartiene all’insieme (la cosiddetta
‘funzione di appartenenza’) è l’intero intervallo reale [0, 1] e non solo
la coppia { 0,1}.
Sulla base di tale teoria matematica, unitamente ad una concezione
relativa e multidimensionale della povertà, è stato introdotto, a livello
di ricerca accademica da Cerioli e Zani (1989) e poi ripresa da altri autori, il metodo TFR (Totally Fuzzy and Relative, cioè ‘totalmente sfocato e relativo’)29, un indicatore (ormai già accolto anche dall’ISTAT,
seppur in forma ancora sperimentale) in grado di sintetizzare il livello
di deprivazione degli individui rispetto a tre categorie di bisogni:
a) la presenza o assenza di alcuni beni durevoli (frigorifero, lavatrice,
videoregistratore, lavastoviglie, registratore, automobile);
b) la tipologia delle condizioni abitative (numero di stanze sufficienti, bagno, riscaldamento, telefono);
c) il livello della spesa per i consumi (per generi alimentari e per generi non alimentari).
Questo approccio non crea la soglia che separa poveri da non poveri
(che, in termini matematici, significherebbe definire una variabile che
assuma valore 1 quando l’individuo cade al di sotto della linea di povertà e valore 0 quando cade al di sopra), ma assegna un valore che ri28. Come scrivono B.Cheli e A.Lemmi, A ‘Totally’ Fuzzy and Relative Approach to
the multidimensional Analysis of Poverty, in Economic Notes by Monte dei Paschi di
Siena, vol.24, no 1, 1995, 115-134, «Poverty is certanly not an attribute that caracterises
an individual in terms of presence or absence, but is rather a vague predicate that manifests itself in different shades and degrees».
29. B.Cheli e A.Lemmi, A ‘Totally’ Fuzzy and Relative Approach to the multidimensional Analysis of Poverty, in Economic Notes by Monte dei Paschi di Siena, vol.24, no 1,
1995, 115-134; B.Cheli, G.Coccia e B.Mazzioli, Metodologie avanzate di analisi della
povertà e loro utilizzo nelle indagini campionarie italiane sui consumi delle famiglie, relazione presentata al convegno ‘Giornate di statistica economica’, Siena, settembre 1996;
G.Coccia e A.Lemmi, La misura multidimensionale e relativa della povertà: un esperimento sulla realtà italiana della prima metà degli anni novanta, relazione presentata al
convegno ‘Povertà’, ISTAT, Roma, luglio 1997; G.Caselli, A.Lemmi e N.Panuzzi, Poverty and Healts Conditions. Longitudinal Models and Empirical Evidence for Britain
and Germany, relazione presentata al convegno ‘General Population Conference’, Bejing, ottobre 1997.
43
sulta uguale a 0 solo nel caso in cui tutti gli individui considerati siano
perfettamente identici nelle loro scelte, per cui ogni bene che entra nell’indice deve risultare essere posseduto da tutti. In tutti gli altri casi
l’indice assumerebbe un valore comunque positivo30: per il complesso
della collettività e per ognuno dei suoi elementi costitutivi (individui,
famiglie, gruppi o altro) si determina un punteggio compreso tra 0, che
esprime la totale assenza di sintomi di povertà, e 1, totale presenza di
sintomi di povertà.
3. Sviluppo Umano e Povertà Umana
3.1. Gli indicatori
Due tra i più interessanti indici ufficiali internazionali che hanno un
approccio multidimensionale e fuzzy sono l’ISU, l’Indice di Sviluppo
Umano o Human Development Index, e l’IPU, l’Indice di Povertà
Umana o Human Poverty Index, introdotti dall’United Nations Developement Programme rispettivamente nel 1990 e nel 1997.
I soggetti su cui viene valutato col primo indicatore lo sviluppo e col
secondo la povertà non sono le famiglie, ma i vari Paesi che costituiscono, quindi, le unità di osservazione. Gli indici assumono in ogni
Paese un valore compreso tra 0 e 1 che mostra il grado di sviluppo o di
povertà di ogni paese: quanto più il valore si avvicina a 1, tanto più il
paese dimostra di aver raggiunto un elevato livello di sviluppo (nell’ISU) o un elevato grado di povertà (nell’IPU). Attraverso i valori degli indici (che vengono aggiornati ogni anno) si ha costantemente una
«istantanea del livello di sviluppo umano nei 174 paesi ordinati su scala
mondiale»31.
Con l’Indice di Sviluppo Umano, in particolare, si indaga l’idoneità a
garantire lo sviluppo umano, cioè si verifica (e si misura) l’ampliamento delle opportunità per l’accesso alle risorse necessarie per avere
un tenore di vita dignitoso, per godere di una vita sana, di mobilità fisica e sociale, e per una migliore comunicazione e partecipazione alla
30. In G.De Santis, a cura di, Le misure della povertà in Italia: scale di equivalenza e
aspetti demografici, Commissione di indagine sulla povertà e sull’emarginazione, Presidenza del consiglio dei ministri, 1995, 16, sono riportate critiche a questi tipi di indicatori, si legge infatti: «l’indice assumerebbe comunque un valore positivo, anche se, al limite, la povertà fosse del tutto assente dalla popolazione in esame e, più grave ancora, se
l’unico elemento di differenziazione tra gli individui e le famiglie fosse costituito non dal
tenore, ma dallo stile di vita».
31. UNDP, Rapporto su: lo sviluppo umano. La parte delle donne, Rosenberg & Sellier, Torino, 1995, 21.
44
vita collettiva anche attraverso il consumo32. Se queste condizioni basilari vengono disattese, anche molte altre opportunità restano inaccessibili e, di conseguenza, lo sviluppo umano appare compromesso.
In questo contesto, il reddito è «solo un’opzione che le persone desiderano avere, anche se un’opzione importante»33, perché lo sviluppo è
finalizzato al benessere umano nel suo complesso, cioè alla creazione
di «un ambiente in cui le persone possano sviluppare il loro pieno potenziale e condurre esistenze produttive e creative secondo le loro necessità e i loro interessi»34.
Nella ricerca di ‘qualcos’altro rispetto al benessere economico’, lo
sviluppo umano condivide una visione comune con i diritti umani: «l’obiettivo è la libertà umana. E questa libertà è di vitale importanza nel
perseguimento delle capacità e nella realizzazione dei diritti»35.
Con l’Indice di Povertà Umana, al contrario, si verificano i differenti
aspetti della deprivazione nella qualità della vita36, seguendo lo stesso
approccio dell’ISU in coerente relazione. Infatti, se lo sviluppo rappresenta il processo di ampliamento delle scelte individuali e, conseguentemente, di crescita del livello di benessere acquisito, «una situazione
di povertà significa che le opportunità e le scelte basilari per lo sviluppo
umano sono negate ossia che è impedita la possibilità di condurre un’esistenza lunga, saltare, creativa, di accedere ad uno standard di vita accettabile, alla libertà, alla dignità, al rispetto di sé e a quello
altrui»37.
32. R.Livraghi, Crescita economica, benessere e giustizia sociale, in Tutela, no 3-4,
1994, 28-29.
33. UNDP, Rapporto su: lo sviluppo umano. La parte delle donne, Rosenberg & Sellier, Torino, 1995, 21.
34. UNDP, Rapporto su: lo sviluppo umano. Come usare le nuove tecnologie, Rosenberg & Sellier, Torino, 2001, 25.
35. Ibidem.
36. UNDP, Rapporto su: lo sviluppo umano. Sradicare la povertà, Rosenberg & Sellier, Torino, 1997, 29.
37. Ivi, 27.
45
Tavola 2. ISU e IPU: stesse dimensioni, diversi indicatori38
Indice
Longevità
Conoscenza
Standard di
vita dignitoso
ISU
Speranza di vita 1) Tasso di al- PIL pro capite
alla nascita
fabetizzazione
adulta;
2) Tasso
di
iscrizione con39
giunta
IPU 1
(per i paesi in
via
di
sviluppo)
Probabilità alla Tasso di analfanascita di non betizzazione desopravvivere
gli adulti
fino a 40 anni di
età
IPU 2
(per i
(OCSE)
Probabilità alla
paesi nascita di non
sopravvivere
fino a 60 anni di
età
Percentuale di
adulti che mancano di abilità
funzionali nella
lettura e nella
scrittura
Partecipazione
o esclusione
–
Privazione
di –
sostentamento
economico misurata da:
1) Percentuale
di persone che
non usano fonti
di acqua pulita;
2) Percentuale
di bambini sotto
i 5 anni di età
che sono sotto
peso
Percentuale di
persone che vivono sotto la linea della povertà di reddito
(50% del reddito
familiare
disponibile mediano)
Tasso di disoccupazione
di
lungo periodo
(12
mesi
o
più)
I Paesi che presentano un elevato livello di sviluppo umano sono 48: al
primo posto c’è la Norvegia, seguita dall’Australia, dal Canada, dalla
Svezia e dal Belgio. Al contrario, i Paesi caratterizzati da un basso li38. UNDP, Rapporto su: lo sviluppo umano. Come usare le nuove tecnologie, Rosenberg & Sellier, Torino, 2001, 30.
39. I risultati scolastici sono la sintesi di due diversi indicatori: il tasso di alfabetizzazione degli adulti, vale a dire la percentuale di persone con più di 15 anni in grado di leggere e scrivere, e il tasso lordo di iscrizione congiunta ai livelli di istruzione primaria, secondaria e terziaria. Quest’ultimo è espresso in termini di studenti iscritti ad un dato livello di istruzione in percentuale alla popolazione di riferimento, cioè la popolazione del
gruppo di età corrispondente a quel livello di istruzione. La sintesi fra questi due indicatori viene effettuata assegnando un peso pari a due terzi al primo indicatore e un peso pari
a un terzo al secondo.
46
vello di sviluppo sono 36 e sono, per lo più, Paesi africani (Rwanda,
Mali, Repubblica Centrafricana, Ciad, Burkina Faso, Burundi, Niger).
In fondo alla classifica c’è la Sierra Leone40.
3.2. Il concetto di sviluppo umano nel dibattito politico
L’approccio dello sviluppo umano nasce all’inizio degli anni ’90 ed è
il risultato di grandi mobilitazioni popolari che, opponendosi all’espansione di politiche strettamente economiciste, hanno accelerato la ricerca di strategie idonee a determinare uno sviluppo ‘sostenibile’41 che
non compromettesse, cioè, le condizioni di vita delle popolazioni.
Parlare di sviluppo sostenibile, quindi, significava abbandonare la visione economicista che misurava lo sviluppo solo attraverso i valori del
prodotto interno lordo pro capite, per accoglierne, invece, una più ampia
che valutasse anche altre categorie, quali ad esempio gli aspetti sociali
o la possibilità di accedere ad una istruzione qualificata42. Da ciò l’esigenza di «tener conto, nella misurazione del benessere, di una pluralità
di dimensioni, e non solo degli aspetti e delle misure macroeconomiche»43.
Nel corso degli anni ’90 il concetto di sviluppo umano ha assunto un
ruolo di primo piano in una serie di vertici e conferenze mondiali, fin
dalla Conferenza delle Nazioni Unite su Ambiente e Sviluppo (Vertice
sulla terra) che si è svolta a Rio de Janeiro nel giugno del 1992 e che ha
riunito 108 capi di stato che hanno adottato l’Agenda 21, un programma
globale per lo sviluppo sostenibile divenuto la base per numerosi piani
nazionali. Sulla spinta della Conferenza, inoltre, è stata istituita la
Commissione delle Nazioni Unite sullo Sviluppo Sostenibile, per verificare l’attuazione degli accordi di Rio e servire come forum permanente per le trattative sulle politiche mondiali relative ad ambiente e
sviluppo.
40. L’elenco completo si trova alle pagine 167-170 dell’ultimo rapporto UNDP. Rapporto su: lo sviluppo umano. Come usare le nuove tecnologie, Rosenberg & Sellier, Torino, 2001, 167-170.
41. Si definisce sostenibile «la gestione di una risorsa se, nota la sua capacità di riproduzione, non si eccede nel suo sfruttamento oltre una determinata soglia». In genere il
tema della sostenibilità è riferito alle risorse naturali ‘rinnovabili’, «quelle cioè che hanno
capacità di riprodursi o di rinnovarsi: la pesca e gli alberi sono, ad esempio, risorse rinnovabili». Per le risorse ‘esauribili’, quelle cioè che non hanno questa caratteristica, «più
che di sostenibilità si può parlare di tempi e condizioni dello sfruttamento ottimale della
risorsa». In A.Lanza, Lo sviluppo sostenibile, Il Mulino, Bologna, 1997, 11.
42. Ivi, 14.
43. Ivi, 30.
47
Per prendere visione dell’elenco delle Conferenze delle Nazioni
Unite si può consultare <www.onuitalia.it/calendar/millenniumassembly/unmildec.html>.
Conclusione: le nuove tecnologie al servizio dello sviluppo
umano
L’ottica dello sviluppo umano è, dunque, la più accreditata a livello
mondiale a definire il grado di povertà dei paesi. Ciò è confermato anche dall’ultimo Rapporto UNDP44 che, in particolare, è incentrato sul
tema delle nuove tecnologie e misura il peso che esse potranno avere
nel determinare il futuro dei paesi in via di sviluppo e delle popolazioni
povere.
Ma cosa si intende oggi per nuove tecnologie? Non si fa riferimento
alle tecnologie cronologicamente più recenti, ma a quelle determinate
tecnologie che, pur agendo in differenti campi, sono tutte accomunate
da una caratteristica specifica: annullare i confini. Nel campo della
bio-medicina, ad esempio, con l’uso di protesi e lo sviluppo dei trapianti sembra attivarsi la rottura dei confini del corpo. Anche sul terreno dell’economia, con la globalizzazione dei mercati e in particolare
con lo sviluppo del commercio virtuale, potenzialmente si possono abbettere le frontiere: tutti i prodotti di tutti i posti della terra potrebbero
infatti essere accessibili da ogni luogo. Sembra poi nascere il villaggio
globale anche sul terreno della comunicazione, favorito dallo sviluppo
degli strumenti di tipo informatico che consentono sempre di più una
relazione di «tutti» con «tutti».
Insomma, con l’introduzione delle nuove tecnologie non sembra più
chiaro il confine tra local e global tanto che si comincia a parlare di
glocal.
Data la portata estremamente innovativa delle nuove tecnologie, può
essere opportuno interrogarsi sulla loro relazione con la lotta alla povertà se, quanto e in quali condizioni queste possano rappresentare uno
strumento di trasformazione e di risoluzione di una problematica sempre più urgente.
In una intervista, l’amministratore dell’UNDP Mark Malloch Brown
definisce, sollecitato ad intervenire al riguardo, la nostra un’epoca di
grandi opportunità e di grandi rischi. «Grandi opportunità, perché se sapremo sfruttare i progressi raggiunti finora e le potenzialità offerte dalle
nuove tecnologie dell’informazione e di internet, nel giro di 10/15 anni
44. UNDP, Rapporto su: lo sviluppo umano. Come usare le nuove tecnologie, Rosenberg & Sellier, Torino, 2001, 43.
48
il numero di poveri potrebbe essere ridotto della metà. E grandi rischi,
perché se mancheranno le scelte giuste e soprattutto la volontà politica,
sia globale che locale, per usare queste opportunità, il divario tra i ricchi e i poveri aumenterà ancora e più velocemente di prima»45.
Che il progresso tecnologico sia sempre stato essenziale per lo sviluppo umano lo dimostra la storia; ma perché viene posta l’attenzione
con così tanta enfasi sul ruolo delle nuove tecnologie? Perché le conquiste in campo digitale stanno spingendo avanti le frontiere relative al
modo in cui le persone possono utilizzare la tecnologia per eliminare la
povertà?
La risposta è che esse possono dare potere alle persone ampliando le
libertà sociali e mettendole in grado di utilizzare e contribuire alla conoscenza collettiva del mondo; possono anche condurre a incredibili
conquiste sul piano della salute e su quello della ricerca di mezzi di sostentamento più produttivi perché non sono «una cosa in più rispetto all’acqua potabile o all’istruzione», ma trasformano tutte le relazioni economiche all’interno di una società, consentono l’apprendimento a distanza, la creazione di una rete sanitaria che arriva nei luoghi più remoti, insomma modificano tutto quello che toccano, dall’istruzione alla
sanità e persino alla fornitura di acqua, perché danno più potere alle comunità, le collegano tra loro, permettono di accedere ad informazioni
cruciali per la scelta di un raccolto o per stabilire i prezzi di un prodotto
da vendere o da acquistare46.
Eppure c’è chi pensa che le nuove tecnologie siano di scarsa utilità
nel mondo in via di sviluppo o che possano addirittura approfondire le
disuguaglianze già estreme che esistono tra Nord e Sud, tra ricchi e poveri e che amplino solamente le opportunità di chi crea e possiede gli
strumenti tecnologici, oltre che di chi vi accede e li utilizza.
Una delle più grandi sfide del nuovo secolo è evitare l’insorgere di
una nuova forma di esclusione, la frattura digitale o digital divide47 e
«assicurarsi che l’intera razza umana riceva questo potere - non soltanto
pochi fortunati»48.
Il dibattito sullo sviluppo umano oggi si articola proprio attorno questo interrogativo: si riuscirà ad evitare che lo sviluppo della tecnologia
45. Repubblica.it, intervista all’amministratore dell’UNDP Mark Malloch Brown, 11
aprile 2000.
46. Ibidem.
47. Annullare il Digital Divide è diventata la parola d’ordine di alcuni governi a livello
mondiale; a questo scopo al Vertice del G8 del 2000 ao Okinawa si è costituita una «Digital Opportunity Task Force (Dot Force).
48. UNDP, Rapporto su: lo sviluppo umano. Come usare le nuove tecnologie, Rosenberg & Sellier, Torino, 2001, 23.
49
si vada a sovrapporre ad una lunga storia di diffusione non uniforme dei
mezzi, tra i diversi Paesi e all’interno di essi? si riuscirà a fare in modo
che possa rappresentare uno strumento per ampliare lo sviluppo delle
persone anche nei Paesi più poveri?
Se si osservano i dati, si deve senza dubbio concludere che, ad oggi,
la diffusione non è né uniforme né equa e che molti vanno fatti affinché
lo sviluppo di Internet, della rete e della tecnologia possa essere ampiamente diffuso, e quindi utile per combattere realmente la povertà.
Eppure, come è noto, la rete elettrica o quella telefonica (fondamentali per il funzionamento di Internet) non sono diffuse in tutti i territori.
È anche ovviamente differenziata la densità di apparecchi informatici:
nel 2000, più della metà degli abitanti degli Stati Uniti è collegato ad
Internet, mentre nell’Africa sub-sahariana o in Asia meridionale, sono
solo 4 abitanti su 1.000. Infine, le tariffe mensili per l’eccesso ad Internet variano enormemente da Paese a Paese: nel 2000, in Nepal esse
equivalgono al 278% del reddito medio mensile, negli Stati Uniti solo
all’1,2%49.
È fondamentale, in conclusione, confermare la necessità di adottare
iniziative e strategie a livello mondiale per fare in modo che lo sviluppo
tecnologico sia ugualmente incentivato in ogni parte del mondo, perché
la tecnologia può rappresentare uno strumento che può favorire lo sviluppo umano e la riduzione della povertà50.
BIBLIOGRAFIA
CALVARUSO C., Povertà materiali ed immateriali in Europa, in Tutela, no 2-3,
anno VIII, giu-sett 1993.
CASELLI G., LEMMI A. E PANUZZI N., Poverty and Healts Conditions. Longitudinal Models and Empirical Evidence for Britain and Germany, relazione
presentata al convegno General Population Conference, Bejing, ottobre
1997.
CARBONARO G., La povertà: definizioni e misure, in Tutela, no 3-4, anno VIII,
giu.set. 1993.
CHELI B., COCCIA G. E MAZZIOLI B., Metodologie avanzate di analisi della povertà e loro utilizzo nelle indagini campionarie italiane sui consumi delle
famiglie, relazione presentata al convegno Giornate di statistica economica, Siena, settembre 1996.
CHELI B. E LEMMI A., A ‘Totally’ Fuzzy and Relative Approach to the multidimensional Analysis of Poverty, in Economic Notes by Monte dei Paschi di
Siena, vol.24, no 1, 1995.
49.
50.
www.onuitalia.it/sviluppo/undprep2001d.html
www.onuitalia.it
50
COCCIA G. E LEMMI A., La misura multidimensionale e relativa della povertà:
un esperimento sulla realtà italiana della prima metà degli anni novanta,
(relazione a convegno), ISTAT, Roma, luglio 1997.
DAGUM C., LEMMI A., CANNARI L., Proposta di nuove misure della povertà con
applicazione al caso italiano in anni recenti, in Note economiche, no 3,
1988.
DE MAURO T., Analfabeti si nasce e si diventa, in Scienza Nuova, no 1, aprile
1998 (su internet <www.scienzanuova.it>).
DE SANTIS G. (a cura di), Le misure della povertà in Italia: scale di equivalenza e aspetti demografici, Commissione di indagine sulla povertà e sull’emarginazione, Presidenza del consiglio dei ministri, 1995.
DEL BONO F., Povertà come incapacità: premesse teoriche, identificazione e
misurazione, in Rivista internazionale di Scienze Sociali, no 3-4, anno XCVII, lu.dic. 1989.
DEVOTO G. E OLI G., Vocabolario illustrato della lingua italiana, dal Reader’s
Digest, Milano, 1980.
DONGLI P., Riflessioni in tema di povertà e conseguenze di politica economica,
in Rivista internazionale di Scienze Sociali, no 3-4, anno XCVII, lu.dic.
1989.
FERRAROTTI L., O.Lewis, biografo della povertà, Laterza. Bari, 1986.
GILLIAND P., Verso una maggiore giustizia sociale in Europa: le sfide della povertà e dell’emarginazione (documento per il Colloquio del Consiglio
d’Europa a Strasburgo, 1991), in Tutela, no 3-4, anno VII, sett.dic.
1992.
HAGENAARS A.J.M., The perception of poverty, Elsevier, Amsterdam,
1986.
HAGENAARS A.J.M., VOS K., ZAIDI M.A., Statistiques relatives à la pauvreté à
la fin des anées 80: recherche s’appuyant sur des microdonnées, Eurostat.
Istat, La povertà in Italia nel 2000, in Note Rapide, Istat, 31/7/2001.
LANZA A., Lo sviluppo sostenibile, Il Mulino, Bologna, 1997.
La Repubblica, 12/12/2001, intervista di Giampaolo Cadalanu a Deepa
Narayan.
LEWIS O., La cultura della povertà, Il Mulino, Bologna, 1973.
LIVRAGHI R., Crescita economica, benessere e giustizia sociale, in Tutela, no
3-4, 1994.
Presidenza del Consiglio, La povertà in Italia, rapporto conclusivo della Commissione di studio istituita presso la Presidenza del Consiglio dei Ministri,
1985.
SARPELLON G., Rapporto sulla povertà in Italia, in G.Sarpellon (a cura di), La
povertà in Italia, Franco Angeli/La Società, Milano, 1982.
SEN A., Il tenore di vita. Tra benessere e libertà, (a cura di L.Piatti), Marsilio
editore, Venezia, 1993.
SGRITTA G.B. E INNOCENZI G., La povertà, in Paci (a cura di), Le dimensioni
della disuguaglianza, Il Mulino, Bologna, 1993.
UNDP, Rapporto su: lo sviluppo umano. Come usare le nuove tecnologie, Rosenberg & Sellier, Torino, 2001.
UNDP, Rapporto su: lo sviluppo umano. La parte delle donne, Rosenberg
& Sellier, Torino, 1995.
51
UNDP, Rapporto su: lo sviluppo umano. Sradicare la povertà, Rosenberg &
Sellier, Torino, 1997.
<www.lions.it/thelions/08-00/p.12/htm>
<www.onuitalia.it>
<www.onuitalia.it/calendar/millenniumassembly/unmildec.html>
<www.repubblica.it>
52
SIMULAZIONE DI UN CAMPIONAMENTO DA
POPOLAZIONI FINITE
Francesco Bartolucci*
1. Introduzione
Spesso si presenta la necessità di disporre della distribuzione di certe
statistiche campionarie, come la media o la varianza campionaria, al
fine, ad esempio, di illustrare alcuni concetti teorici o di conoscere qual
è lo stimatore più efficiente di un certo parametro descrittivo della
popolazione.
In presenza di popolazioni finite, tuttavia, è in genere impossibile conoscere con esattezza la distribuzione di una certa statistica campionaria. In questi casi si può ricorrere allo strumento della simulazione che
permette di costruire una distribuzione approssimata di quella esatta,
tramite l’estrazione casuale di un elevato numero di campioni.
Per simulare il campionamento casuale semplice sono stati creati,
tramite il programma Excel, i seguenti file1:
1) casrip1.xls che consente di analizzare il comportamento della
media e della varianza campionaria e degli intervalli di confidenza per
la media della popolazione, nel caso di campionamento con ripetizione;
2) cassrip1.xls utilizzabile per analizzare le stesse statistiche
campionarie indicate nel punto precedente, ma nell’ambito del campionamento senza ripetizione;
3) casrip2.xls che permette di instaurare un confronto tra la distribuzione della media campionaria e quella della mediana campionaria
nel caso di campionamento con ripetizione.
Questi file verranno descritti nei paragrafi che seguono. In particolare,
nel paragrafo 2 e 3 verrà mostrata, rispettivamente, la struttura
del file casrip1.xls e del file cassrip1.xls. Nell’ultimo
paragrafo, invece, saranno proposti alcuni suggerimenti su come
* Dipartimento di Scienze Statistiche. Università degli Studi di Perugia. Via A. Pascoli
- 06100 Perugia. e-mail:[email protected]
1. Possono essere scaricati all’indirizzo internet «http://www.stat.unipg.it/∼bart/software.html»
53
utilizzare questi file per illustrare, ad esempio, il teorema del limite
centrale e sarà descritto il file casrip2.xls.
Verranno inoltre forniti alcuni esempi relativi a delle simulazioni
svolte utilizzando una popolazione composta da N = 5.000 soggetti dei
quali è stato rilevato il reddito percepito nell’ultimo anno di lavoro (dati
ripresi da Chatterjee et al., 1995). Tale popolazione ha media µ ⫽
⫽ 31, 836 (in milioni di lire) e varianza σ2 ⫽ 404, 585 ed è caratterizzata
da un’accentuata asimmetria positiva dato che l’indice γ1 ⫽ µ̄3 /σ3 risulta pari a 4,171.
2. Campionamento casuale semplice con ripetizione
In questa sezione viene illustrato il file casrip1.xls che permette
di simulare il campionamento casuale semplice con ripetizione e che fa
uso di una serie di fogli di lavoro e di una macro scritta nel linguaggio
Visual Basic.
Il primo foglio utilizzato è chiamato Popolazione (fig. 1) e contiene i dati relativi alla popolazione, con il relativo istogramma.
Fig. 1 - Foglio di lavoro contenente i dati relativi alla popolazione
54
I campioni estratti da tale popolazione vengono di volta in volta riportati, tramite la macro a cui si accennava prima, nel foglio Campione
(fig. 2).
Fig. 2 - Foglio di lavoro contenente il campione
Sullo stesso foglio di lavoro sono innanzitutto calcolate la media cam1
1
pionaria, –y ⫽ n ∑i yi, e la varianza campionaria, s2 ⫽
∑ (y ⫺
n⫺1 i i
⫺ –y)2, in cui con yi si intende il valore assunto dalla caratteristica oggetto
di studio (ad esempio il reddito) in corrispondenza della i-esima unità
del campione. Il calcolo di queste due statistiche viene effettuato automaticamente tramite le funzioni Media e Var di Excel, alle quali si
può attingere tramite il comando Funzione del menù Inserisci.
Vengono inoltre calcolati gli intervalli di confidenza per la media
della popolazione utilizzando sia la varianza effettiva sia quella stimata. Nel primo caso, gli estremi dell’intervallo sono –y ⫾ zα/2 σ/兹–n,
dove zα/2 è il valore della variabile normale standardizzata Z tale che
Pr(Z ⭓ zα/2 ) ⫽ α/2. Gli intervalli di confidenza basati sulla varianza
stimata, invece, hanno come estremi –y ⫾ tα/2 s/兹–n, in cui tα/2 è il valore
della variabile t di Student con n ⫺ 1 gradi di libertà tale che
55
Pr(t ⭓ tα/2 ) ⫽ α/2. In corrispondenza di ogni intervallo calcolato viene
inoltre riportato un «sì» o un «NO» a seconda che questo contenga o
meno la media della popolazione (si vedano le celle J7 e J10).
Per ogni campione estratto, i risultati dei vari calcoli sono riportati
nel foglio di lavoro Stime (fig. 3) e sulla base di tali risultati vengono
aggiornati i fogli Distribuzione e Risultati.
Fig. 3 - Elenco delle statistiche calcolate in corrispondenza dei campioni
estratti
Nel foglio Distribuzione (fig. 4) viene mostrata la distribuzione di
frequenza della media campionaria e questa viene messa a confronto
con quella normale con media µ e varianza σ2 /n. Le frequenze relative
della distribuzione di –y sono riportate nella colonna intestata Freq.
eff. e sono ottenute tramite la funzione di Excel Frequenza. Le
frequenze teoriche calcolate con la distribuzione normale, invece, sono
riportate sotto la scritta Freq. teo e sono calcolate tramite la funzione Distrib.Norm. Le due distribuzioni sono anche rappresentate in un grafico utilizzando, rispettivamente, un istogramma di frequenza per quella di –y e una curva continua per quella normale. Questo
grafico permette di valutare visivamente se la distribuzione della media
56
campionaria si avvicina, almeno approssimativamente, a quella normale.
Fig. 4 - Distribuzione della media campionaria con n=10
La distribuzione riportata nella figura 4, ad esempio, è stata ottenuta simulando l’estrazione di 1.000 campioni di dimensione 10 dalla popolazione indicata in precedenza. Come si può osservare, in questo caso la
distribuzione di –y è lontana da quella normale e presenta una certa asimmetria positiva, anche se meno accentuata di quella che caratterizza la
popolazione.
Nel foglio Risultati, infine, sono riportati i principali risultati
della simulazione sulla base dei quali è possibile formulare dei giudizi
sul comportamento delle varie statistiche campionarie calcolate (fig.
5).
Per quanto riguarda la media e la varianza campionaria, in questo foglio vengono riportati il minimo, il massimo, la media e la varianza.
Queste quantità sono calcolate applicando le funzioni Min, Max, Media e Var.pop ai dati riportati nel foglio Stime. Inoltre, per poter
valutare le qualità di –y e di s2 come stimatori di µ e di σ2, vengono presentati anche la distorsione e l’errore quadratico medio (MSE). La distorsione è calcolata sottraendo dalla media delle stime il valore vero
del parametro. L’errore quadratico medio, invece, è ottenuto sommando
57
Fig. 5 - Risultati principali della simulazione
alla distorsione al quadrato la varianza delle stime. Ovviamente il livello di questi due indicatori, calcolato per simulazione, approssima solamente quello esatto, cioè quello calcolabile estraendo tutti i possibili
campioni. Tuttavia la qualità dell’approssimazione migliora al crescere
del numero dei campioni che vengono estratti.
I risultati visualizzati in figura 5 sono in linea con quelli teorici. Infatti, la media della distribuzione di –y calcolata con la simulazione risulta pari a 31,765 che è un valore molto vicino a quello esatto, cioè a
µ ⫽ 31, 836. La stessa conclusione si ha per quanto riguarda la varianza
di –y (39,644 con simulazione contro il valore teorico σ2 /n ⫽ 40, 459) e
per la media di s2 (406,420 contro σ2 ⫽ 404, 585). Il fatto che i valori
calcolati con la simulazione siano praticamente uguali a quelli esatti fa
presumere che il numero di campioni estratti è adeguato. Se invece ci
fosse stata una discrepanza significativa, sarebbe stato necessario ripetere la simulazione estraendo un maggior numero di campioni.
Per quanto riguarda gli intervalli di confidenza, sia con la varianza
effettiva che con quella stimata, viene riportato il valore minimo tra
tutti gli estremi di sinistra, il massimo tra tutti gli estremi di destra e la
percentuale degli intervalli che coprono la media della popolazione. Se
la popolazione da cui sono estratti i campioni avesse distribuzione nor58
male, la percentuale di copertura dovrebbe essere in entrambi i casi vicina al livello di fiducia impostato.
Per quanto riguarda l’esempio presentato in figura 5, il livello di fiducia impostato è pari al 95%. Tuttavia, questo livello è rispettato dagli
intervalli di confidenza calcolati con la varianza effettiva mentre non lo
è da quelli calcolati con la varianza stimata, dato che in questo caso si
ha una percentuale di copertura inadeguata (91%). Ciò sta ad indicare
che gli intervalli del secondo tipo, calcolati utilizzando una minore
quantità di informazione (la varianza viene stimata), risentono maggiormente della non normalità della popolazione dalla quale sono
estratti i campioni.
Come già accennato, il file qui illustrato utilizza anche una macro
scritta nel linguaggio Visual Basic il cui listato viene di seguito
riportato.
Sub estrazione()
‘ ***** Impostazione del calcolo manuale *****
Application.Calculation = xlManual
‘ ***** Lettura delle variabili *****
n_pop = Sheets(‘‘Popolazione’’).Cells(2, 2)
n_cam = Sheets(‘‘Risultati’’).Cells(1, 2)
n_est = Sheets(‘‘Risultati’’).Cells(2, 2)
ReDim pop(1 To n_pop)
‘ ***** Trasferimento dei dati nell’array interno *****
Sheets(‘‘Popolazione’’).Select
Cells(1, 1).Select
For i = 1 To n_pop
pop(i) = Cells(i + 4, 2)
Next i
‘ ***** Preparazione dei fogli di lavoro *****
Sheets(‘‘Stime’’).Rows(‘‘4:16384’’).ClearContents
Sheets(‘‘Campione’’).Select
Range(‘‘a5:b16384’’).ClearContents
For u = 1 To n_cam
Cells(u + 4, 1) = u
Next u
Cells(1, 1).Select
‘ ***** Estrazione dei campioni (con ripetizione) *****
Randomize Timer
For c = 1 To n_est
Cells(1, 3) = c
For u = 1 To n_cam
i = Int(Rnd() * n_pop) + 1
Cells(u + 4, 2) = pop(i)
Next u
59
Calculate
‘ ***** Registrazione dei risultati *****
Sheets(‘‘Stime’’).Cells(c + 3, 1) = c
For i = 1 To 8
Sheets(‘‘Stime’’).Cells(c + 3, i + 1) = Cells(i + 2,
10)
Next i
Next c
‘ ***** Impostazione del calcolo automatico *****
Application.Calculation = xlAutomatic
End Sub
Questa macro è scomponibile in due parti. Nella prima vengono effettuate alcune operazioni preliminari quali:
1) l’impostazione del calcolo manuale al fine di velocizzare l’estrazione;
2) la memorizzazione nelle variabili n_pop, n_cam e n_est rispettivamente della dimensione della popolazione, di quella campionaria e
del numero dei campioni da estrarre;
3) il trasferimento dei dati relativi alla popolazione in un apposito array chiamato pop;
4) la preparazione dei fogli di lavoro che saranno utilizzati per lo svolgimento dei calcoli.
Nell’ambito della seconda parte, che ha inizio con l’istruzione Randomize timer (utilizzata per inizializzare la tabella dei numeri casuali),
avviene l’estrazione dei campioni e la registrazione dei risultati dei vari
calcoli svolti. Ciò viene effettuato utilizzando una serie di cicli, il
primo dei quali va da For c = 1 To n_est a next c e determina il
numero del campione che viene estratto. Questo numero è memorizzato
nella variabile c ed è visualizzato nel foglio Campione tramite l’istruzione Cells(1, 3) = c.
All’interno del secondo ciclo (da For u = 1 To n_cam a next u)
vengono selezionate le unità che vanno a formare il campione. Per fare
ciò, viene di volta in volta scelto casualmente un numero tra 1 e n_pop
con i = Int(Rnd() * n_pop) + 1 e poi, con Cells(u + 4, 2) =
pop(i), è riportato nel foglio Campione il valore della variabile
oggetto di studio in corrispondenza dell’unità con etichetta pari al numero estratto.
Una volta terminata l’estrazione di ogni campione, grazie all’istruzione Calculate, sono effettuati i calcoli delle varie statistiche dalle
funzioni Excel inserite nel foglio Campione. L’utilizzo di questa
istruzione è necessario in quanto all’inizio della procedura si era passati
60
dal calcolo automatico a quello manuale. Infine, viene utilizzato un ciclo (da For i = 1 To 8 a Next i) per effettuare il trasferimento nel
foglio Stime dei risultati dei vari calcoli effettuati.
Per eseguire una simulazione con il file qui illustrato occorre avviare
la macro sopra riportata tramite il comando Macro del menu Strumenti. Per default la popolazione utilizzata è quella indicata nel primo
paragrafo. Tuttavia è possibile utilizzare una qualsiasi altra popolazione
finita. A tal fine, prima di avviare la simulazione, occorre immettere i
nuovi dati nel foglio Popolazione a cominciare dalla cella al di
sotto del simbolo Yi e la nuova dimensione della popolazione nella cella
B2 del foglio in questione. Per default è anche utilizzata una dimensione campionaria pari a 10, vengono estratti 1.000 campioni e il livello
di fiducia utilizzato per il calcolo degli intervalli di confidenza è pari al
95%. Anche queste impostazioni sono variabili a piacere e per far ciò
occorre agire sulle relative celle del foglio Risultati (si veda la figura 5).
3. Campionamento casuale semplice senza ripetizione
La simulazione del campionamento casuale semplice senza ripetizione
può essere effettuata utilizzando il file cassrip1.xls che ha una
struttura del tutto simile a quella del file illustrato in precedenza. Le
differenze tra i due file riguardano i fogli di lavoro Campione e Distribuzione e la macro che effettua l’estrazione dei campioni.
Le differenze per quanto riguarda il foglio Campione sono dovute
al fatto che la varianza della media campionaria non è più pari a σ2 /n,
σ2 N ⫺ n
. Così, in
come per il campionamento con ripetizione, ma è n
N⫺1
questo foglio, il calcolo degli estremi dell’intervallo di confidenza con
varianza
–y ⫾ z σ
nota
viene
effettuato
utilizzando
la
formula
–
N⫺n
. Invece, seguendo una logica prudenziale, gli
α/2
n(N ⫺ 1)
estremi degli intervalli di confidenza con la varianza stimata continuano ad essere calcolati con la formula –y ⫾ tα/2 s/兹–n (al riguardo si
veda Cicchitelli et al. 1997, pp. 288-289).
Il fatto che la varianza della media campionaria è diversa rispetto al
caso precedente viene preso in considerazione anche quando sono calcolate le frequenze della distribuzione normale nel foglio di lavoro
Distribuzione.
Per quanto riguarda la macro, ci sono delle variazioni nella parte riguardante l’estrazione dei campioni. Nell’ambito del campionamento
冑
61
senza ripetizione, infatti, ogni volta che si estrae un’unità occorre verificare se è già stata selezionata nello stesso campione ed eventualmente
sostituirla. Ciò è effettuato dal blocco di istruzioni di seguito riportato
il quale è presente al posto dell’istruzione i = Int(Rnd() * n_pop)
+ 1 utilizzata nella macro mostrata nel paragrafo precedente.
Do
flag = False
i = Int(Rnd() * n_pop) + 1
For j = 1 To u - 1
If lista_i(j) = i Then flag = True
Next j
Loop While flag
lista_i(u) = i
La scelta dell’unità avviene anche qui estraendo un numero casuale tra
1 e n_pop tramite l’istruzione i = Int(Rnd() * n_pop) + 1. Poi,
per verificare se questo numero è già stato estratto nell’ambito dello
stesso campione, esso viene confrontato con tutti quelli estratti in precedenza e memorizzati nell’array lista_i. Tale verifica viene eseguita all’interno del ciclo che va da For j = 1 To u - 1 a Next j. Se
il numero è già stato estratto, la variabile booleana flag assume il valore True e l’estrazione viene ripetuta, altrimenti tale variabile assume
il valore False e si prosegue con l’estrazione di una nuova unità. Il
controllo del valore assunto dalla variabile flag viene effettuato tramite l’istruzione Loop While flag che, nel caso in cui essa assuma
il valore True, fa riprendere l’esecuzione della procedura dalla riga
contenente il comando flag = False, anziché farla proseguire
normalmente.
4. Utilizzo delle simulazioni per l’illustrazione di concetti teorici
Come già accennato, i file illustrati in precedenza per simulare il campionamento casuale semplice possono essere utilizzati sia per aiutare
l’illustrazione di risultati teorici già consolidati sia per indagare su
aspetti del campionamento relativamente ai quali i risultati teorici sono
carenti.
Innanzitutto, con l’ausilio delle simulazioni, si può meglio illustrare
il cambiamento che subisce la distribuzione della media campionaria
mano a mano che la dimensione campionaria cresce. Analogamente
a quanto fatto in Cicchitelli (1996), si può effettuare ciò eseguendo
una serie di simulazioni con una dimensione campionaria via via
62
crescente e confrontando tra loro le varie distribuzioni di –y che
si ottengono.
In figura 6 sono riportati i risultati di uno studio di questo tipo basato
sullo svolgimento di quattro diverse simulazioni effettuate utilizzando
dimensioni campionarie pari a 10, 50, 100 e 200. Ogni simulazione è
stata condotta estraendo con ripetizione 1.000 campioni dalla stessa popolazione già considerata in precedenza.
Come si può osservare, mano a mano che n cresce, la distribuzione di
–y ha varianza sempre più bassa e si avvicina sempre più alla distribuzione normale. Quindi questo studio può servire a mettere più chiaramente in luce il fatto che, al crescere della dimensione campionaria,
cresce la precisione di –y nello stimare µ e la distribuzione di questa statistica tende ad avvicinarsi a quella normale anche se la popolazione da
cui vengono estratti i campioni ha una distribuzione lontana da quella
normale. Quest’ultimo aspetto, in particolare, permette di illustrare il
teorema del limite centrale.
Fig. 6 - Distribuzione della media campionaria per alcuni valori di n nel caso
di campionamento casuale con ripetizione
63
Delle simulazioni possono anche essere utilizzate per aiutare a percepire le differenze tra il campionamento con e senza ripetizione in termini di efficienza della media campionaria.
Come è noto, delle differenze significative tra i due tipi di campionamento possono essere apprezzate solo se il tasso di sondaggio (n/N) è
lontano da 0. Per aiutare la comprensione di questo aspetto, è opportuno
effettuare due distinte simulazioni, di cui la prima con ripetizione e la
seconda senza, in presenza di un valore piuttosto elevato del tasso di
sondaggio.
Uno studio di questo tipo è stato eseguito utilizzando una nuova popolazione ottenuta selezionando opportunamente 200 unità da quella
già usata in precedenza. La nuova popolazione ha media, varianza e indice di asimmetria sugli stessi livelli di quella complessiva. Le simulazioni sono state effettuate estraendo 1.000 campioni di dimensione pari
a 40 cosicché il tasso di sondaggio è del 20%.
Sono state così ottenute le due distribuzioni di –y riportate nella figura
7. Come si può vedere, nel caso del campionamento senza ripetizione
(grafico di destra), la distribuzione di –y risulta più concentrata attorno
alla media rispetto a quella che si ha utilizzando il campionamento con
ripetizione (grafico di sinistra). Nel primo caso, infatti, la varianza di –y
è pari a 9,620 e nel secondo caso è pari a 11,391, con una differenza relativa che, come era prevedibile, è risultata circa pari al tasso di
sondaggio.
Ciò conferma che, quando il rapporto n/N è significativamente diverso da 0, la media campionaria stima con maggiore precisione la media della popolazione se si fa uso del campionamento casuale semplice
senza ripetizione invece che di quello con ripetizione.
Fig. 7 - Distribuzione della media campionaria nel caso di campionamento casuale semplice con ripetizione (a sinistra) e senza (a destra)
Effettuando delle opportune modifiche ai file precedentemente illu64
strati, è poi possibile analizzare il comportamento di altre statistiche
campionarie o instaurare dei confronti di diversi stimatori dello stesso
parametro sempre nell’ambito del campionamento casuale semplice,
sia con sia senza ripetizione. Ad esempio, può essere interessante mettere a confronto la distribuzione della media campionaria con quella
della mediana campionaria (nel seguito indicata con m). Nell’ambito
del campionamento casuale semplice, una simulazione che metta a confronto queste due statistiche campionarie può essere effettuata utilizzando il file casrip2.xls che è stato ottenuto modificando opportunamente il file casrip1.xls. Le modifiche hanno riguardato innanzitutto il foglio Campione nel quale viene effettuato il calcolo di –y e di
m in corrispondenza di ogni campione estratto (fig. 8). Le funzioni
Excel utilizzate sono Media e Mediana. Di conseguenza sono state
variate le intestazioni delle varie colonne utilizzate nel foglio Stime.
Ci sono poi alcune differenze relativamente al foglio Risultati. In
figura 9 viene mostrato come si presenta questo foglio al termine di una
simulazione effettuata con una dimensione campionaria pari a 10 e
estraendo 1.000 campioni.
È stato poi necessario modificare la macro che gestisce la simulazione. Essa si differenzia unicamente per quanto attiene la parte che si
Fig. 8 - Foglio utilizzato per il calcolo delle statistiche campionarie
65
occupa del trasferimento del risultato dei calcoli dal foglio Campione
al foglio Stime; così al posto dell’istruzione For i = 1 To 8 è presente l’istruzione For i = 1 To 2. Come si può verificare dalla figura
9, la media e la varianza di m sono significativamente più basse rispetto
a quelle di –y. Ciò può essere rilevato anche analizzando gli istogrammi
di frequenza riportati in figura 10 ed è spiegabile considerando il fatto
che la mediana è una statistica che risente in modo minore, rispetto alla
media, dei valori estremi della distribuzione su cui è calcolata.
Secondo i risultati della simulazione, per stimare µ è preferibile utilizzare –y piuttosto che m. Infatti, sebbene –y presenti una varianza più
elevata rispetto a m, quest’ultima presenta un più elevato livello dell’errore quadratico medio a causa di una marcata distorsione. Comunque,
come era prevedibile, nel caso in cui la mediana campionaria viene utilizzata per stimare la mediana della popolazione, la distorsione è piuttosto contenuta dato che risulta pari a 0,891.
Fig. 9 - Risultati finali della simulazione
Nello stesso modo visto in precedenza, possono essere instaurati dei
confronti anche tra altri stimatori. Ciò può essere utilizzato, ad esempio, per illustrare il fatto che generalmente –y è lo stimatore più efficiente della media della popolazione.
66
Fig. 10 - Confronto tra la distribuzione della media campionaria (a sinistra) e
quella della mediana campionaria (a destra)
In conclusione, è comunque opportuno dire che, sebbene le simulazioni costituiscano un efficace strumento in campo statistico, i risultati
che si ottengono vanno presi con cautela quando non sono supportati da
un’adeguata base teorica. Comunque vale il principio secondo il quale
tali risultati sono tanto più attendibili quanto più è elevato il numero dei
campioni estratti.
RIFERIMENTI
CHATTERJEE S., HANDCOCK M. S. E SIMONOFF J. S. (1995), A Casebook for a
First Course in Statistics and Data Analysis, John Wiley & Sons, Inc., New
York.
CICCHITELLI G. (1996), Il campionamento come strumento didattico, INDUZIONI, 12, pp. 37-47.
CICCHITELLI G., HERZEL A., MONTANARI G.E. (1997), Il campionamento statistico, Il Mulino, Bologna.
67
2
2
Mart Stam, sedia S33 – 1926. Produzione L & C. Arnold GmbH, Shorndorf,
Germany. (Nella foto copia realizzata dalla Gebrüder Thonet GmbH, Frankenberg).
Immagine tratta dal libro Modern chairs, a cura di Charlotte & Peter Fiell, Ed.
Tashen. (Museum Thonet – Gebrüder Thonet GmbH, Frankenberg)
La prima seduta a sbalzo realizzata con tubi d’acciaio curvati
STATISTICA E INFORMATICA*
Gianfranco Galmacci
Introduzione
Sia in sede di pianificazione dei processi formativi che in sede di valutazione della loro qualità oggi si fa spesso riferimento al paradigma sapere, saper fare, saper essere, con un implicito richiamo agli obiettivi
che devono essere raggiunti. L’equilibrio fra i tre momenti dipende naturalmente dagli indirizzi e dagli specifici contenuti disciplinari del
processo formativo, tuttavia in questa impostazione il contesto sociale
in cui il processo di formazione deve essere inserito appare essere un
elemento dominante e, come tale, è anche l’ambito da cui attingere i
suggerimenti e i supporti necessari per garantire una formazione armonica ed adeguata. Questa impostazione si è mostrata particolarmente efficace soprattutto per quei settori con forti valenze applicative.
La statistica è una disciplina che si caratterizza come insieme di metodi e strumenti matematici per l’analisi di fenomeni osservabili, come
tale quindi essa impone conoscenze teoriche, si avvale di mezzi per l’elaborazione dei dati e richiede specifiche capacità per l’analisi e l’interpretazione dei risultati. Questi aspetti sono tra loro strettamente connessi e, laddove si pensi ad un processo formativo, devono integrarsi
opportunamente per garantire il raggiungimento della completa maturità dello studente, nel rispetto del paradigma prima richiamato. Tale
orientamento chiama però in causa l’informatica, una disciplina autonoma che, tra l’altro, ha già conosciuto serie difficoltà per trovare uno
spazio adeguato nei programmi delle scuole secondarie.
In questo articolo si discuterà il ruolo dell’informatica nell’insegnamento della statistica analizzandone i molteplici risvolti sotto diversi
punti di vista. È necessario però tener conto che la trattazione di questo
tema coinvolge alcuni aspetti fortemente condizionati dallo stato attuale della evoluzione tecnologica e pertanto, se ci si pone in una ottica
temporale, essi rischiano in breve tempo di apparire al lettore già superati da fatti nuovi, che al momento sarebbe però impossibile prevedere.
Nella consapevolezza di questo inevitabile pericolo, si è tenuto conto
per quanto possibile del problema evitando riferimenti a specifiche situazioni e traendo spunti dalle tendenze generali del fenomeno.
* Lavoro svolto nell’ambito della ricerca «Formazione statistica e sua valutazione: strumenti, metodi e nuove Tecnologie» confinanziata dal MURST (2000-2002).
69
Punti di contatto tra informatica e statistica
Alcuni testi dedicati ai temi istituzionali della statistica aprono il capitolo dedicato alla rilevazione e allo spoglio dei dati citando brevemente
un passo della storia dell’informatica che è, per diversi aspetti, molto
significativo. L’episodio in questione è un punto di partenza essenziale
per comprendere le connessioni che esistono tra statistica e informatica
e come tale, merita in questa sede un adeguato approfondimento.
Negli anni immediatamente successivi al 1880 l’Ufficio per il Censimento degli USA incontrò molti problemi per portare avanti le operazioni di spoglio e di elaborazione dei dati del Censimento, che all’epoca
dovevano essere svolte manualmente; complessivamente, per portare a
termine tutte le operazioni, furono necessari nove anni. Questa esperienza fece maturare la convinzione che doveva essere adottato un sistema diverso, anche perché nel frattempo la popolazione stava aumentando e quindi le difficoltà per il successivo Censimento del 1890 sarebbero state sicuramente maggiori. Fu in questo contesto che nel 1886
uno degli statistici dell’Ufficio, Herman Hollerith, propose di rendere
automatiche le operazioni di spoglio utilizzando schede di cartoncino
su cui riportare i dati praticando dei fori secondo un preciso criterio di
codifica (in realtà l’idea non era completamente nuova, ma fino a quel
momento non era mai stata finalizzata alla rappresentazione e all’archiviazione dei dati). Poiché la proposta trovò immediatamente consensi,
vennero immediatamente progettate e costruite le macchine necessarie:
in particolare macchine perforatrici e tabulatrici. Questo sistema si rivelò molto efficiente e l’esperienza condotta per il Censimento successivo ebbe un grande successo: i tempi di elaborazione dei dati furono
drasticamente abbreviati e al tempo stesso si ridusse il numero degli errori. Sulla base di questi risultati, Hollerith decise di commercializzare
quella tecnologia fondando nel 1896 la Tabulating Machine Company,
una azienda che, dopo alcune fusioni e trasformazioni, assunse definitivamente nel 1924 il nome di International Business Machines (IBM).
Fin qui l’aneddoto sull’origine delle macchine per il trattamento automatico dei dati; ma per comprendere il ruolo attuale degli elaboratori
è utile ricordare anche le tappe fondamentali che hanno segnato il successivo sviluppo di questa tecnologia. Il sistema di trattamento dei dati
basato sulle schede perforate venne progressivamente potenziato e
prese il nome di «elaborazione meccanografica», perché si basava su
macchine che smistavano e selezionavano «fisicamente» le schede in
relazione alle informazioni che esse contenevano o che, al più, potevano eseguire semplici calcoli utilizzando dispositivi elettro-meccanici. L’impiego di queste macchine si protrasse a lungo: non ostante
l’avvento dei calcolatori elettronici, la cui commercializzazione iniziò a
partire dai primi anni ’50, esse rimasero in vita fino alla prima metà de70
gli anni sessanta. La definitiva uscita di scena di questa prima generazione di macchine si ebbe solo quando i calcolatori cominciarono a garantire una elevata potenza di calcolo a costi sufficientemente contenuti. Si passò così all’era della «elaborazione elettronica», che però all’inizio interessò soltanto grandi aziende, centri di ricerca e, in generale, enti che potevano sopportare i costi comunque molto elevati di
quelle macchine. Le istituzioni preposte alla produzione delle statistiche ufficiali (in Italia l’ISTAT) furono subito tra i più grandi utilizzatori di calcolatori, stante la grande mole di dati da trattare e le crescenti
esigenze di dati delle società avanzate.
Accanto alle esigenze «quantitative» sorsero ben presto anche esigenze «qualitative» e, limitando le considerazioni al tema di nostro interesse, la crescente complessità delle metodologie per l’analisi statistica dei dati impose anche una evoluzione autonoma e specifica del
software. Durante gli anni ’60 e ’70 molti ricercatori cominciarono a
progettare procedure e, soprattutto, meta-linguaggi specifici per la statistica; il successo che tali prodotti ebbero, e non solo tra gli utenti scientifici, incoraggiò nuovi sforzi e investimenti in questa direzione decretando il consolidarsi di prodotti software di elevata qualità (è interessante notare che alcuni di questi linguaggi hanno trovato successivamente il loro mercato più ampio tra le aziende: le procedure software
hanno consentito che le metodologie statistiche potessero essere facilmente impiegate, rivelandosi poi vitali per il manager che deve «conoscere» la propria azienda, che deve analizzarne le caratteristiche e le dinamiche momento per momento).
La seconda metà degli anni ’70 segna un altro periodo cruciale per
l’informatica, grazie ad una intuizione di Stephen Wozniak e Steve
Jobs, nel 1976 nascono i primi calcolatori a basso costo realizzati utilizzando microprocessori: i Personal Computer. Queste nuove macchine
avevano all’inizio una potenza molto limitata, ma ebbero immediatamente un successo grandioso quanto inaspettato e portarono alla diffusione capillare dei calcolatori nelle piccole aziende, nelle scuole e nelle
famiglie. Nei primi anni ’80 si cominciò a sperimentare l’introduzione
di computer in alcune scuole con l’intento di insegnare la programmazione e di sviluppare applicazioni nell’ambito di corsi di matematica
(prevalentemente modelli Apple II, costruiti dalla Apple Computer Inc.,
fondata da Wozniak e Jobs). Questo fenomeno ebbe una particolare rilevanza negli USA, ma anche gli altri paesi occidentali compresero
l’importanza di avviare i giovani all’uso dei calcolatori: è in quel periodo che in Italia si progetta e viene avviato il Piano Nazionale per
l’Informatica (PNI).
L’evoluzione del software e l’incremento della potenza dei processori fu così rapida da cambiare ben presto il ruolo dei Personal Computer (PC) e la gamma di applicazioni possibili. L’uso dei calcolatori di71
ventò gradualmente trasversale e si aprirono spazi applicativi praticamente in tutti i settori, per i compiti più svariati. Inoltre le caratteristiche multimediali dei computer resero rapidamente obsolete molte delle
tecnologie precedenti. Oggi un PC può essere collocato su una scrivania
e la sua potenza è superiore a quella di un calcolatore che solo 20 anni
fa aveva un costo 200-300 volte più elevato e che richiedeva spazi
enormi ed ambienti accuratamente condizionati. Le caratteristiche hardware e software oggi sono tali per cui all’utente sono richieste competenze molto limitate, ma al tempo stesso il computer è diventato un
mezzo di composizione di testi, uno strumento audiovisivo, uno strumento di composizione grafica, uno strumento musicale, un archivio di
dati e informazioni e, forse agli occhi dei più, sempre meno uno strumento di calcolo tradizionale.
La più recente svolta in campo informatico è stata caratterizzata, nei
primi anni ’90, dalla diffusione capillare di Internet. La rete mondiale
(ed in particolare tutte le applicazioni che sono rese possibili tramite
World Wide Web) ha stravolto completamente tutti gli schemi precedenti elevando il computer al ruolo di «mezzo di comunicazione globale», e ciò va inteso nell’accezione più ampia del termine, grazie anche al fatto che in questa nuova veste i computer possono contare anche
su tutte le potenzialità già sviluppate negli altri settori. La portata di
questo nuovo fatto appare subito di dimensioni enormi, a tutti i livelli;
Internet crea alternative alla maggior parte degli altri mezzi o servizi di
comunicazione tradizionali (in alcuni casi li sostituisce perché costituisce un mezzo economicamente più conveniente), le aziende cominciano
ad investire in questo campo, si creano mercati elettronici, giornali e televisione dedicano sistematicamente spazi sempre più ampi a questo
settore, i collegamenti si propagano con una rapidità impressionante
(secondo una stima di Network Wizards nel 1990 vi erano circa 900.000
calcolatori connessi ad Internet, questo numero è cresciuto ad un ritmo
di circa l’80% annuo raggiungendo, nel Luglio 2002, quota 160 milioni). Trarre conclusioni o fare previsioni su questi eventi avrebbe al
momento un sapore troppo aleatorio. L’unica cosa che ci è concessa è
forse una considerazione: il mercato apertosi grazie ad Internet costituisce un gigantesco bacino di propulsione che si orienterà e svilupperà in
molte direzioni diverse determinando, tra l’altro, anche modificazioni
socio culturali di cui al momento è difficile immaginare l’entità e la
portata. Di un solo fatto possiamo essere assolutamente certi: attori
principali di questo processo saranno le fasce giovani della popolazione.
I computer nella didattica
Nell’orizzonte internazionale vi sono Paesi in cui i genitori, nella scelta
di un istituto scolastico per i figli, valutano come elemento fondamen72
tale il tipo di attrezzature informatiche disponibile: questo può anche
far sorridere qualcuno, ma non possiamo permetterci di sottovalutare il
problema perché la tecnologia sta penetrando prepotentemente in ogni
angolo vitale della società, rendendola sempre più strettamente dipendente. Quale via intraprendere per adeguare anche i processi formativi?
Chi di noi è meno giovane ha nel bagaglio dei ricordi momenti di terrore vissuti con un maestro elementare che esigeva dai suoi alunni una
perfetta conoscenza delle tabelline, mostrando intolleranza non solo per
gli errori ma anche verso la più innocente incertezza. Dopo qualche decennio, reduci da una esperienza didattica che oggi definiamo rigida,
siamo entrati in crisi quando i nostri figli, sfoggiando una calcolatrice
tascabile da far invidia a un ingegnere, hanno mostrato la loro «asinaggine» in fatto di tabelline. E qualunque opera di convincimento circa
l’opportunità di imparare a memoria quei semplici calcoli è stata faticosa e frustrante perché per i ragazzi ciò appariva illogico e sforzo inutile, stante la calcolatrice in loro possesso. Insegnanti, pedagogisti e genitori, ovvero tutti noi, hanno trascorso forse più di un decennio in discussioni infinite che fondamentalmente hanno messo in evidenza soprattutto una cosa: la completa impreparazione della società a «gestire»
il ruolo e gli effetti di una nuova tecnologia in campo educativo. Quella
esperienza ha insegnato, infine, che certe innovazioni non possono essere ignorate e che il problema può essere affrontato solo adeguando le
metodologie e gli approcci didattici.
Un processo per alcuni aspetti analogo lo si è vissuto, e lo si sta vivendo tuttora, in seguito all’ingresso dei computer nelle scuole. Non
ostante l’interesse iniziale, le pianificazioni didattiche, le sperimentazioni, gli investimenti, non sembra che questi strumenti abbiano ancora
correttamente trovato il loro ruolo nell’insegnamento. Il problema non è
certo semplice: l’ostacolo più rilevante è costituito dalla velocità con
cui il ruolo di queste macchine si modifica, ponendo quindi difficoltà
per la formazione o l’aggiornamento dei docenti (che peraltro, in genere, non hanno ricevuto una formazione di base specifica).
Negli anni ’80 ci si pose il problema di far acquisire agli studenti alcuni elementi di logica di base dei linguaggi di programmazione: oggi
possiamo dire che alcuni risultati sono stati raggiunti; ma nel frattempo
l’elaboratore si è posto in una dimensione diversa. Lo sviluppo di
meta-linguaggi, di interfacce grafiche e di programmi applicativi di
ogni genere ha completamente mutato il tipo di utilizzo di questo strumento: l’utente finale oggi non deve più preoccuparsi di avere nozioni
tecniche né di predisporre autonomamente i programmi, la macchina è
già pronta per l’uso. Questa nuova dimensione ha favorito una diffusione capillare dei computer rendendoli accessibili anche ai meno
esperti e ha ricondizionato (e in qualche caso cancellato) i cosiddetti
«Centri di Elaborazione Dati» mutando profondamente i compiti dei
73
molti tecnici e specialisti che vi operavano e che avevano accentrato
tutte le funzioni più critiche di enti e aziende. Il computer è comparso
sul tavolo della segretaria e del manager, dello scrittore e del disegnatore, del negoziante e dell’avvocato, dello scienziato e del musicista.
Talvolta sostituisce semplicemente la macchina per scrivere, molto più
spesso svolge compiti di ben più largo respiro. Enciclopedie elettroniche, carte geografiche multimediali, dizionari interattivi, archivi bibliografici, procedure per calcoli complessi, programmi per la gestione del
bilancio aziendale o familiare, sono strumenti spesso irrinunciabili e
comunque preziosi, che ormai segnano la differenza, incrementano la
produttività, rendono semplici e rapide le azioni quotidiane e spesso
sono in vendita presso le edicole. Ogni settore sociale è ormai coinvolto
nella trasformazione indotta dall’informatica e, tra poco, il televisore
casalingo diventerà un terminale della rete Internet con cui potremo gestire i conti bancari, fare spese, spedire e ricevere posta, intrattenersi in
videoconferenza con amici residenti in altri continenti, programmare e
prenotare vacanze.
La scuola non può restare fuori da questo processo: in primo luogo è
necessario evitare che, nel giro di qualche anno, studenti già immersi in
un contesto tecnologicamente avanzato trovino anacronistico l’insegnamento che viene impartito e, soprattutto, che esso appaia poco aderente
alla realtà. Dovremo quindi guardare alle varie discipline con occhio diverso, pensando alle possibili interazioni che esse possono avere con
l’informatica ed ai vantaggi che ne possono trarre. Quindi, seppure la
formazione logica di base rimane sempre fondamentale, lo scenario si è
allargato considerevolmente ed è tempo di domandarsi in che modo tenerne conto nei processi formativi.
Naturalmente, se la visione di un impiego trasversale dell’informatica nella scuola appare desiderabile quanto urgente, le modalità di applicazione devono essere diversificate in funzione della disciplina di riferimento; in questa sede l’attenzione sarà focalizzata esclusivamente
sulle problematiche che interessano la statistica.
Informatica e insegnamento della statistica
L’utilizzo di computer come supporto per l’insegnamento richiede una
modifica sostanziale delle metodologie didattiche; un calcolatore non
è un semplice strumento per fare qualche esercizio, un impiego di questo tipo produrrebbe solo inutili sprechi di tempo, senza alcun vantaggio. Esso deve trovare una collocazione armonica nei processi di
apprendimento con l’obiettivo di far comprendere allo studente il significato di un processo di «analisi dei dati» nei suoi momenti fondamentali, che implicano preparazione teorica per le metodologie fon74
damentali, conoscenza dei mezzi di calcolo e capacità di interpretazione dei risultati.
Se l’obiettivo da raggiungere può essere facilmente individuabile il
modo di procedere è tutt’altro che chiaro e semplice. Trovare la strada
ed i modi giusti per affrontare il problema non è semplice, anche perché
la risposta dovrebbe venire dalla scuola stessa attraverso una accurata
sperimentazione delle varie proposte. Le difficoltà che i docenti incontrano sono però ancora molte, sia sul piano della statistica che su quello
di un utilizzo «moderno» dell’informatica.
Una scelta oculata delle strategie didattiche da adottare può essere
fatta solo se la formazione ricevuta è stata adeguata, ma questo, nella
maggior parte dei casi, non è avvenuto. L’università infatti ha registrato
queste esigenze solo recentemente, e non completamente, e la preparazione di coloro che sono operativi sul fronte dell’insegnamento è stata
generalmente molto carente in questi settori specifici, tanto carente da
non aver posto nemmeno le basi minime da consentire una progressione
personale e automatica. Accanto alle difficoltà che normalmente si incontrano per individuare nuove strategie didattiche si aggiunge quindi,
spesso, una sostanziale carenza di formazione. Questo aspetto è molto
grave per ciò che concerne la statistica, ma lo è forse ancor più per l’informatica: un calcolatore, infatti, è uno strumento complesso e, senza
una formazione adeguata, l’adulto può trovare maggiori difficoltà di un
giovane sia sul piano concettuale che, soprattutto, per acquisire quella
manualità e confidenza indispensabili per dominare un simile strumento. Si è ritenuto necessario richiamare l’attenzione su questi aspetti
perché, se è giusto indicare nuove direzioni e chiedere sforzi agli «addetti ai lavori» per raggiungere certi obiettivi, è altresì doveroso prendere atto delle difficoltà intrinseche e segnalare le carenze che rendono
la strada così difficile.
Nella premessa di questo capitolo si sono evidenziate alcune delle interazioni tra statistica e informatica con l’intento di sottolineare il legame inscindibile che tra esse esiste. Nell’immaginario collettivo che
la nostra società ha sviluppato la statistica (termine peraltro ancora decisamente sfumato, per molti, che ancor oggi per cercare una definizione continuano ad appoggiarsi ai versi del Trilussa) è legata ai momenti che la televisione ha proposto in occasione delle elezioni: molti
dati, molti computer e innumerevoli dibattiti per comprendere il significato di quei «numeri». Questa è l’immagine di un modo moderno di utilizzare la statistica. È la natura stessa di questa disciplina, un insieme di
strumenti matematici sviluppati al fine di cogliere gli aspetti fondamentali di fenomeni collettivi, che porta l’attenzione in pari misura sia
verso l’aspetto analitico sia verso quello interpretativo. Prescindere dall’uno o dall’altro di questi aspetti significherebbe insegnare qualche
cosa che «statistica» non è. Ma il momento dell’interpretazione può ve75
nire solo dopo calcoli più o meno lunghi e complessi che, pur non aggiungendo nulla al processo cognitivo vero e proprio, rispondono all’esigenza di familiarizzare con l’aspetto computazionale dei problemi (lo
studente deve imparare ad applicare le formule, questo aspetto non è
trascurabile, ma circoscrivibile facilmente ad un numero non troppo
elevato di esercizi ben scelti). L’insegnamento della statistica deve
quindi perseguire l’obiettivo di fornire concetti, metodi e chiavi di interpretazione dei risultati, avvalendosi possibilmente dei calcolatori per
contenere il tempo che i momenti applicativi richiedono, lasciando in
tal modo maggiore spazio ai processi cognitivi fondamentali e presentando al tempo stesso questa disciplina nella sua giusta dimensione
reale. È assolutamente indispensabile quindi che nell’ambito di un
corso di statistica i computer non siano visti soltanto come oggetto di
«una o più visite dimostrative», che le attività di elaborazione ed analisi
dei dati non rimangano estranee e collaterali rispetto ai momenti di insegnamento tradizionale. Affinché gli studenti possano maturare completamente le basi di questa disciplina è fondamentale raggiungere una
adeguata integrazione dei momenti applicativi con il resto del corso.
Si è già detto che l’impiego degli elaboratori come supporti per l’insegnamento richiede una revisione dell’approccio didattico: se i momenti applicativi non vengono logicamente programmati ed integrati
nel contesto del corso, affinché possano diventare un naturale completamento dei momenti più teorici nel processo di apprendimento dello
studente, essi rischiano di costituire solo uno spreco di tempo ed una distrazione rispetto agli obiettivi didattici.
Questo è il punto più delicato da affrontare, e quindi anche il più debole. Stiamo parlando, infatti, dei modi di inserire ed utilizzare uno
strumento in un processo didattico, ma lo strumento è così nuovo e in
così rapida evoluzione che certe scelte rischiano di diventare obsolete
prima ancora di trovare la loro giusta collocazione. Ciò può produrre effetti diversi: in qualche caso può scoraggiare l’inizio di qualunque sperimentazione, in altri casi può stimolare quell’entusiasmo, tipico delle
nuove tecnologie, in nome del quale possono essere effettuate scelte
dettate più dal fascino delle innovazioni che non da una strategia didattica oggettiva e consapevole.
Evoluzione tecnologica e nuove proposte didattiche
Durante gli ultimi quindici anni si è sviluppato a livello internazionale
un consistente interesse per i problemi della didattica della statistica.
Sono nate molte organizzazioni nazionali ed internazionali, sono apparse riviste specifiche del settore, ogni 4 anni viene organizzata una
conferenza internazionale (ICOTS) mentre le riunioni scientifiche tra76
dizionali dedicano sempre più spesso una sezione ai problemi della didattica. Il panorama è molto significativo e molto incoraggiante perché
consente di stimolare, valutare, confrontare iniziative e realtà diverse e
di focalizzare meglio i problemi esistenti. In questo contesto, sempre
più frequentemente compaiono iniziative e proposte che riguardano
l’impiego di calcolatori nella didattica; la diffusione capillare di Internet e l’avvento (nel 1993) di World Wide Web (WWW) hanno allargato
ulteriormente il campo delle applicazioni aggiungendo nuovi sapori al
fascino che già la tecnologia informatica suscitava.
Al di là degli aspetti più o meno ludici connessi con WWW, questo
«mondo» è giustamente considerato la più grande banca dati oggi esistente. Chi ha fatto esperienze in tal senso sa che è possibile trovare informazioni di ogni tipo, e tra queste anche dati. Ormai tutti gli organismi nazionali e internazionali che producono le statistiche ufficiali rendono disponibili parte dei loro dati tramite questo canale (ad esempio,
nel nostro Paese l’Istat mette a disposizione i dati aggregati a livello
nazionale e, talvolta, regionale tramite il sito http://www.istat.it). Molti
dati sono anche messi a disposizione da istituti universitari o appositi
archivi dedicati alla ricerca o alla didattica (ad esempio Statlib,
http://www.stat.unipg.it/pub/stat/statlib/.index.html) e oltre ai dati è anche disponibile del software specialistico, spesso completamente gratuito.
Tutto ciò è stato per certi aspetti molto fruttuoso, ma per altri aspetti
può contribuire a creare ulteriore disorientamento. La rete Internet e
WWW stanno sicuramente giocando un ruolo di primo piano nella comunicazione, nell’annullamento delle distanze, nel rendere disponibili
dati, esperienze, informazioni. Ciò è innegabilmente un vantaggio
enorme e, peraltro, non ignorabile perché i primi ad impossessarsi di
questi nuovi mezzi di comunicazione e a dominarli sono proprio i giovani. E sono proprio i giovani a trovarsi meglio, a destreggiarsi più facilmente nel disordine che regna in Internet, dove nulla è programmato,
tutto è spontaneo, libero e, come tale, anche caos assoluto. Gli stessi
aspetti però, unitamente a possibili problemi linguistici, tecnologici e,
non ultimo, il tempo necessario per entrare in un nuovo ordine di idee,
possono scoraggiare alcuni educatori.
L’obiettivo da raggiungere è quello di una formazione allineata con
la realtà, congrua con i ruoli che i giovani dovranno ricoprire. Le varie
discipline devono rispondere a questa esigenza in maniera diversificata
in funzione delle loro peculiarità specifiche, senza rinunciare ai rispettivi ruoli culturali, adeguando però le metodologie didattiche in modo
da avvalersi degli stessi strumenti che agli studenti verranno richiesti
una volta inseriti attivamente nel tessuto sociale e produttivo. Questa
strada però al momento attuale implica anche il rischio di subire il «fascino della tecnologia» e di spingersi su terreni non collaudati, di usare,
77
cioè, strumenti software «belli» senza che la loro efficacia sia nota oppure senza un «progetto didattico» preciso. D’altra parte l’insegnamento nella scuola secondaria deve rispettare vincoli e limiti di tempo
molto stretti: l’adozione di strategie o di supporti sbagliati possono produrre danni molto gravi sulla preparazione dei giovani, sui loro risultati
scolastici, e quindi su un loro possibile inserimento nella società.
L’informatica può trovare impieghi nell’insegnamento della statistica a livelli molto diversi: in primo luogo un elaboratore è un «mezzo
di calcolo» e, come tale, nel contesto di in una disciplina che si propone
di studiare la realtà mediante l’elaborazione dei dati osservati, deve diventare familiare per lo studente. L’esercizio, come si è già detto, è indispensabile per comprendere meglio i metodi, ma soprattutto per comprendere il significato intrinseco della statistica stessa, e l’informatica
può contribuire in molti modi a facilitare anche il processo cognitivo di
uno studente. Ad esempio, una simulazione, ormai diventata esercizio
semplice e comune, consente di comprendere rapidamente concetti
astratti come quello di «spazio dei campioni», permette di ricavare una
distribuzione campionaria e di associarla ad una «esperienza» che riporta a terreni concettualmente più semplici quali quelli di distribuzione di frequenza. Non meno importante, infine, il fatto che la simulazione rende «concreto» e tangibile il concetto di variabile aleatoria.
L’avvento della rete Internet ha aperto recentemente molte altre possibilità, soprattutto per i docenti: molti degli sforzi che si stanno facendo
a livello internazionale per individuare nuove strategie didattiche vengono messe gratuitamente a disposizione via WWW. Sono disponibili,
ad esempio, testi elettronici, programmi di simulazione, laboratori didattici virtuali orientati alla statistica; ma il fenomeno è in continua
evoluzione, e quindi sarebbe inutile una elencazione che rischia di diventare obsoleta in breve tempo. Per chi volesse seguire l’evoluzione di
queste nuove proposte è consigliabile riferirsi a qualche sito della rete
in cui vengono costantemente segnalate le iniziative più interessanti (il
CIRDIS provvede a fornire un servizio di questo tipo presso il sito
http://www.stat.unipg.it/CIRDIS/), con l’avvertenza che molto spesso la
lingua utilizzata è l’inglese.
Alla luce di queste considerazioni, è ormai chiaro che la nuova via
che si sta delineando nel panorama internazionale è quella di imparare
«con la tecnologia», non solo conoscere «la tecnologia». Adottare questo nuovo atteggiamento nell’insegnamento significa consentire allo
studente di arricchire notevolmente il suo bagaglio di conoscenze, acquisire la giusta mentalità nell’avvalersi delle risorse offerte da un calcolatore e giungere adeguatamente preparato al momento in cui dovrà
inserirsi attivamente nel tessuto sociale e produttivo.
Un progetto di questo tipo sembra però ancora utopistico, se si considerano le condizioni operative in cui si trovano oggi gli insegnanti. Al
78
momento attuale possiamo solo dire che questo sembra essere l’obiettivo verso cui è necessario muoversi con la massima urgenza.
Proposte didattiche
Il quadro che si è cercato di dare sull’impiego dell’informatica per migliorare i processi di apprendimento della statistica e per fornire una
immagine corretta di questa disciplina risulta essere molto ampio, forse
troppo, e quindi ancora confuso per chi non domina questo settore. Si ritiene utile, quindi, tracciare sommariamente un percorso da seguire che
risulti realisticamente praticabile.
L’obiettivo principale da perseguire è quello di presentare la statistica nella sua giusta luce avvalendosi di supporti informatici sia per ridurre i tempi necessari per i calcoli che per facilitare l’apprendimento
di concetti. Gli strumenti da impiegare, almeno in una prima fase, possono essere ricercati tra quelli più comuni e facili da utilizzare: i fogli
elettronici sembrano essere al momento i mezzi più idonei. L’uso corretto di un foglio elettronico consente di apprezzare in pieno la maggior
parte dei vantaggi che un calcolatore può offrire in campo statistico, le
conoscenze necessarie non implicano un addestramento gravoso e, al
tempo stesso, le potenzialità offerte sono sufficienti per corsi di introduzione alla statistica. Un vantaggio aggiuntivo sta nel fatto che tali
prodotti sono anche quelli che più frequentemente si ritrovano come
strumenti di lavoro nei settori produttivi, pertanto assolvono anche al
compito di fornire ai giovani una immagine concreta e professionale del
modo in cui ci si trova poi ad operare nella pratica.
Adottare questa strategia richiede tuttavia un investimento non trascurabile: la programmazione didattica del corso deve essere rivista
perché deve modellarsi su canoni diversi da quelli previsti per un insegnamento tradizionale.
Si ritiene utile riportare un semplice esempio che serva a comprendere l’importanza di utilizzare uno strumento che consenta di «esplorare i dati» al fine di comprendere il «messaggio» in essi contenuto.
Cook e Weisberg (1994) riportano i dati relativi al tasso di natalità
mensile negli USA per il periodo 1940-1948. La rappresentazione grafica di questa serie storica può suggerire informazioni diverse in funzione del modo in cui essa viene disegnata. Le figg. 1 e 2 mostrano lo
stesso fenomeno riportato però, come è facile osservare, su scale diverse: l’andamento del primo grafico fornisce un’idea completamente
distorta del fenomeno, è molto difficile rilevare gli andamenti ciclici
della natalità, ben evidenti invece nel secondo grafico, ed infine l’incremento delle nascite registrato a partire dal 1946, dovuto al rientro in patria dei militari dopo la fine della guerra, appare nel primo grafico come
79
un fatto quasi completamente scollegato rispetto all’andamento precedente mentre nel secondo si può percepire esattamente cosa è realmente
accaduto. Se avessimo dovuto rappresentare manualmente questa serie
quasi certamente avremmo fatto un solo grafico perché il tempo necessario per costruire il diagramma avrebbe sconsigliato dal procedere con
altri tentativi. In questo caso, se la scelta iniziale fosse stata quella di
adottare la scala utilizzata per la fig. 1, il contributo della rappresentazione grafica sarebbe stato pressoché nullo, se non addirittura negativo.
L’impiego di un computer risolve questo problema in maniera elementare: una volta costruito il grafico, esso può essere modificato a piacere,
operando semplicemente con il mouse, fino a che non siano state raggiunte le dimensioni che consentono di cogliere correttamente tutte le
informazioni in esso contenute.
Fig. 1
80
Fig. 2
L’esempio riportato è molto semplice ma può dare una idea dell’importanza che un supporto adeguato può avere nella didattica. L’impiego
di strumenti software non deve mai essere considerato completamente
«sostitutivo» dell’esercizio di applicazione della formula. Lo studente
deve poter familiarizzare con le formule ed essere in grado di passare
dall’astrazione di questo linguaggio al momento computazionale. Questo però non deve limitare, per motivi di tempo, l’ultima fase di una
analisi: l’interpretazione dei risultati.
I risultati di una ricerca specifica
Nel biennio 1999-2000 è stato realizzato un programma di ricerca, confinanziato dal MURST e dalle Università di Padova, Palermo, Perugia
and Roma «La Sapienza», con l’intento di studiare l’efficacia di alcune
strategie didattiche per l’insegnamento della statistica nelle scuole italiane di ogni ordine e grado. Il gruppo di ricerca era articolato in unità
operative ciascuna delle quali si è occupata di uno specifico grado di
scuole: l’unità di Perugia, in particolare, ha curato le scuole superiori ed
in questo contesto ha sperimentato anche l’introduzione di attività di laboratorio nell’insegnamento della statistica. Assunto come presupposto
che la statistica deve essere presentata agli studenti partendo da situazioni reali, e quindi «dati dati» (tendenza ormai consolidata a livello internazionale e nota come Data Oriented Approach DOA), sono state individuate per le scuole superiori tre diverse strategie didattiche che si
differenziano per il fatto che in un caso sono previste solo lezioni frontali (approccio tradizionale, che nel seguito verrà chiamato semplicemente DOA), in un altro caso le lezioni sono affiancate da attività di laboratorio opportunamente progettate (DOA+LAB), nel terzo caso infine, oltre alla presenza di attività di laboratorio, l’insegnamento è stato
organizzato seguendo un modello pedagogico noto come Cooperative
81
Learning (DOA+LAB+CL). Dopo aver predisposto materiale didattico
specifico per ciascuna delle tre stretegie, è stata condotta una sperimentazione per valutare l’efficacia di questi diversi approcci che ha coinvolto 107 insegnanti di matematica (la statistica è infatti collocata nell’ambito della matematica) e oltre 2500 studenti di quattro diverse zone
(Palermo, Roma, Umbria e Veneto). I risultati della ricerca sono riportati in diverse pubblicazioni (Brunelli L., Gattuso L., 2000, Galmacci
G., Scrucca L., 2000, Milito A.M., Pannone M.A., Rigatti Luchini S.,
2001, Galmacci G., Milano A.M., 2002) alle quali si rimanda per i dettagli. In questa sede verranno illustrate le caratteristiche principali delle
scelte effettuate per i moduli interessati dalle attività di laboratorio e i
risultati ottenuti con la sperimentazione.
In primo luogo è stata condotta un’analisi dei prodotti software utilizzabili per le attività di laboratorio e dei problemi che, dal punto di vista didattico, essi potevano porre sia agli insegnanti sia agli studenti.
Pur essendo molti i prodotti disponibili (la maggior parte dei quali,
però, solo in lingua inglese), è prvalsa la convinzione che Microsoft
Excel fosse il più idoneo per molte ragioni: insegnanti e studenti generalmente già conoscono il prodotto, esso è solitamente disponibile sia
nei laboratori scolastici sia nei computer casalinghi ed è ormai ampiamente utilizzato in aziende ed uffici. In pratica, questo è il prodotto che
oggi tutti ritrovano ovunque, anche in eventuali attività lavorative. Tuttavia Excel non è uno strumento «propriamente statistico» e pone molti
problemi: anzitutto esso contiene diverse imprecisioni sia metodologiche sia di «linguaggio». È doveroso segnalare inoltre che questo prodotto, nato per rispondere ad esigenze diverse, non è adeguatamente documentato per guidare l’utente all’uso delle funzioni statistiche né contiene quegli accorgimenti che consentirebbero di limitare gli errori, soprattutto quando l’utente è uno studente o comunque una persona poco
esperta di analisi statistica dei dati. Ad esempio, Excel mette a disposizione una vasta gamma di grafici diversi: la facilità e discrezionalità
con cui essi possono essere utilizzati spesso induce lo studente a scegliere le soluzioni che appaiono «più belle, colorate e vistose» anziché
quelle che meglio comunicano il concetto da trasmettere e che privilegiano la leggibilità e la comprensibilità del grafico.
Queste considerazioni hanno introdotto a predisporre del materiale
didattico specifico per la sperimentazione al fine di prevenire gli errori
prevedibili e, soprattutto, per sfruttare al meglio le possibilità che un
foglio elettronico può offrire. Si è anche organizzato il percorso da seguire durante il lavoro in laboratorio inserendo diverse fasi di riflessione crifica sui risultati che di volta in volta venivano ottenuti al fine
di evitare un altro problema tipico di questo tipo di attività didattica.
Gli studenti, infatti, spesso si lasciano coinvolgere dai problemi che il
calcolatore pone, a scapito dell’attenzione che dovrebbe essere riser82
vata agli aspetti statistici, e troppo frequentemente considerano concluso il loro compito non appena pervengono ad un qualsiasi risultato
senza porsi criticamente di fronte al significato che esso può avere e dimenticando che l’obiettivo principale è quello di imparare ad analizzare
i dati e solo marginalmente quello di imparare ad usare Excel.
A conclusione di ciascuna delle fasi che hanno caratterizzato il periodo di sperimentazione gli studenti sono stati sottoposti a prove di verifica, ovviamente uguali per tutte le strategie, orientate a valutare il livello di conoscenza degli argomenti di statistica trattati, prescindendo
dalle eventuali abilità conseguite in campo informatico. Dai dati raccolti è risultato che la strategia che ha prodotto i risultati migliori, e
quindi la più efficace, è stata DOA+LAB, ovvero lezioni frontali e attività di laboratorio (le differene osservate non sono molto grandi, ma comunque significative). Questo risultato, seppure non costiuisca una sorpresa, non era comunque da considerarsi scontato a priori.
Per una descrizione ampia ed approfondita dei risultati della sperimentazione si rimanda agli articoli citati in precedenza; in questa sede
ci limiteremo a sintetizzare alcune considerazioni del tutto generali.
L’approccio DOA è stato generalmente accolto con grande interesse sia
da parte degli insegnanti che, soprattutto, degli studenti. Sicuramente la
strategia DOA+LAB+CL, che i pedagogisti ritengono essere potenzialmente più efficace, nella pratica ha posto agli insegnanti problemi logistici ed organizzativi che potrebbero aver influito negativamente sui risultati (in realtà, in alcune situazioni essa ha dato ottimi risultati, seppure in generale sia risultata la meno efficace). Un approccio didattico
che prevede un utilizzo ampio del laboratorio potrebbe essere stato più
stimolante e coinvolgente per gli studenti, chiamati a svolgere attività
in qualche modo innovative soprattutto per quanto riguarda la statistica.
In ogni caso, il risultato ottenuto con la sperimentazione fissa per la
prima volta un fatto di notevole importanza poiché mai era stata verificato se e in che modo l’uso di computer potesse influire sui processi di
apprendimento. La metodologia utilizzata, inoltre, fornisce un primo riferimento oggettivo per quanti volessero utilizzare un approccio didattico che prevede attività di laboratorio.
BIBLIOGRAFIA
BIEHLER R. (1985), Dei requisiti per un software pià adeguato all’apprendimetno e alla pratica della statistica. Induzioni, 10.
BRUNELLI L., GALMACCI G., GATTUSO L. e PANNONE M.A. (2000), Un’indagine
in classe per apprendere la statistica, Induzioni, 21, 5-110BRUNELLI L., GATTUSO L., (2000), Reak Data and Statistics in the Mathematics
Education: What is coming out of a Research on Teaching Strategies for the
83
Learning of Statistics. Proceedings of the International Conference on
«Mathematics for living: The Mathematics Education Into the 21st Century
Project», Amman, Jordan.
CICCHITELLI G., GALMACCI G. (1998), The Impact of Computer Programs on
the Learning of Descriptive Statistics: The Case of DSTATS, Proceedings
of the Fifth International Conference on Teaching of Statistics (ICOTS 5),
Singapore, vol. 2, pp. 849-854, ISI-IASE.
CURRALL J. (1997), Computer Aided Statistics Teaching: Real Advance or Technological Fashion?, Proceedings of the 2nd World Congress of the IASC.
Pasadena, CA., p. 321.
DI CIACCIO A., BORRA S. (1996), Introduzione alla statistica descrittiva,
McGraw Hill, serie di matematica.
GAL I., GARFIELD J.B. (1997), The Assessment Challenge in Statistics Education, IOS press, Ohmsha.
GALMACCI G. (1997), Statistics and Current Internet Directions, Proceedings 51st Session of the ISI, Instabul, ISI.
GALMACCI G. (1998), Nuove tecnologie e insegnamento della statistica, Atti
della XXXIX Riunione Scientifica della SIS, Sorrento.
GALMACCI G., MILITO A.M. (2002), The Effects of Some Teching Techniques
con Learning Statistics, Proceedings of the Sixthe International Conference
on Teaching of Statistics (ICOTS 6), Cape Town.
GALMACCI G., SCRUCCA L., (2000), Strategie didattiche per l’insegnamento
della statistica: alcuni risultati di una sperimentazione, Workshop on Teaching Statistics. Rome. (Technical report).
GATTUSO L., PANNONE M.A., (2000), Une expérimentation d’enseignement des
statistiques et les enseigrants qui l’out vécue, Workshop on Teaching Statistic. Rome. (Technical report).
MOORE D.S., (1997), New pedagogy and new content: the case of statistics
(con discussione). International Statistical Review, Vol. 65, n. 2.
MILITO A.M., PANNONE M.A., RIGATTI LUCHINI S. (2001), New strategies for
teaching statistics at school, Bulletin of the ISI, 53rd Session, Tome LIX,
Book 2, 211-214.
UNWIN A., (1997), Using Your Eyes - Making Statistics More Visible With
Computers, Proceedings of the 2nd World Congress of the IASC, Pasadena,
CA., p. 305.
84
LA STATISTICA PER LA VALUTAZIONE
DELL’APPRENDIMENTO
Mauro La Torre
1. Premessa
Che l’apprendimento, come qualsiasi altra attività umana, possa e
debba essere oggetto di valutazioni, è principio comunemente accettato
in molte culture. Ciò che però cambia tra le diverse culture è il concetto
di valutazione. In particolare, nel nostro sistema scolastico – dalla
scuola d’infanzia all’università – prevale ancora una concezione della
valutazione, che è fondata sulla prassi della formulazione da parte del
giudicante (insegnante o esaminatore) di giudizi insindacabili, riferiti a
criteri, che essenzialmente rimangono impliciti.
Che cosa significa, per esempio, «6 in italiano» alla fine di un anno
scolastico?
– che per tutte le abilità sviluppate in quella materia (comprensione dei testi
scritti, produzione orale, produzione scritta, esplicitazione dei modelli linguistici, analisi dei testi letterari, conoscenze di storia della letteratura, ecc.) sono
stati raggiunti alla fine dell’anno traguardi soddisfacenti?
– che la media sincronica dei risultati ottenuti dall’allievo, rispetto alle diverse competenze supera la soglia minima stabilita?
– che la media diacronica dei livelli relativi ad una determinata competenza
(eventualmente quale?) ha un valore sufficiente?
E se, come è probabile che sia, quel «6» esprime una sorta di media ponderata tra molte diverse prestazioni e comportamenti, possiamo credere che la
formula di ponderazione applicata (ovvero il peso attribuito ai diversi aspetti
dell’apprendimento) è effettivamente la medesima per tutta la classe in
questione?
Le diatribe cui si assiste periodicamente sulla stampa professionale e
nei mezzi di comunicazione di massa, circa le modalità di espressione
dei giudizi valutativi (voti numerici, giudizi verbali a schema libero,
uso di scale di aggettivi «quantitativi» o di simboli letterali) non riguardano mai la qualità della valutazione, ma si attardano inutilmente su
aspetti epidermici, di scelta del codice espressivo.
Nel quadro così delineato – che forse non coprirà tutta la variegata
realtà delle nostre scuole, ma certo ne rappresenta i modelli valutativi
più diffusi – può la scienza statistica fornire mezzi e metodi utili a migliorare l’informazione sui processi di apprendimento?
Una risposta semplicemente affermativa a questo quesito sarebbe
sostanzialmente imprudente!
85
Non lasciamoci fuorviare dai classici calcoletti, che tradizionalmente
si svolgono per trovare la media aritmetica dei voti conseguiti da un allievo in un quadrimestre, o dalla raccolta dei dati sulla frazione di
alunni promossi, effettuata dalla nostra amministrazione scolastica, alla
fine di ogni anno scolastico.
Nel primo caso viene trattata in modo quantitativo una variabile, il
voto, che a ben vedere è soltanto una variabile ordinale1; e, comunque,
nel calcolo di quell’indice sintetico, si prescinde dalle abilità concrete a
cui i diversi voti si riferiscono.
Nel secondo caso si tratta di rilevazioni di demografia scolastica superficiale, che poco ci informano sui reali livelli di apprendimento.
Tuttavia questi atteggiamenti valutativi prevalenti nel nostro sistema
scolastico, molto soggettivi e poco espliciti, non sono, come si potrebbe
credere, universali. In altre culture, per la verifica dell’apprendimento
si predispongono strumenti idonei, cioè validi e attendibili, per il controllo e la misurazione delle diverse competenze, oggettivamente
definite.
Soltanto sulla base dei risultati di verifiche attendibili e di misure oggettive, ha senso svolgere analisi statistiche. Altrimenti si rischia di applicare modelli matematici più o meno sofisticati a «dati» puramente
impressionistici o comunque molto soggettivi.
Scopo di questa premessa non è certo quello di giustificare lo scarso
impiego dei modelli statistici nella gestione dei nostri sistemi d’istruzione e nelle nostre ricerche di scienze dell’educazione; al contrario
essa mira a sollecitare la raccolta, l’elaborazione e la conservazione di
dati statisticamente significativi.
2. Quali variabili considerare?
Supponendo, ora, di disporre effettivamente di mezzi di rilevazione
adeguati ai nostri scopi, domandiamoci quale può essere il ruolo della
statistica nel trattare i dati valutativi?
A questo scopo teniamo presente che in una situazione di insegna1. Se così non fosse, la distanza tra un «1» e un «3» avrebbe lo stesso valore che quella
tra un «5» e un «7»; o addirittura si potrebbe credere che il voto «8» esprime una competenza doppia di quella valutata con il «4». In realtà affermazioni molto comuni, come «10
in italiano non lo darei neanche a Manzoni» o «alla fine del 1o quadrimestre non è opportuno assegnare voti superiori al «6», altrimenti i ragazzi non lavorano più», sono indizi
dell’applicazione di scale di valori implicite, che hanno poco a che vedere con misurazioni oggettive, espresse nell’intervallo [0; 10] dei numeri razionali.
86
mento formale giocano diverse variabili, che possiamo sistemare in una
spazio pluridimensionale. (Fig. 1)
Figura 1 – Un modello di spazio didattico a 6 dimensioni.
In un concreto sistema d’istruzione ogni giorno si realizzano numerose
situazioni di insegnamento, ognuna delle quali è rappresentabile con un
punto (o con una piccola regione) di quello spazio esadimensionale.
Ma, parlando di valutazione scolastica, per lo più ci si riferisce alla
valutazione delle abilità o conoscenze dell’allievo P, rispetto all’obiettivo O.
Pensiamo, ad esempio, a come è strutturato un registro tradizionale:
in esso le righe corrispondono agli allievi P1, ..., Pn, mentre le colonne
stanno per le occasioni di verifica (compiti scritti, interrogazioni, ecc.).
Le occasioni, poi, possono eventualmente corrispondere alla valutazione di determinate competenze.
In un altro tipo di registro, le colonne possono corrispondere direttamente ad abilità verificate.
Comunque, una pagina di registro già rappresenta una struttura di
dati bidimensionale.
1) La dimensione orizzontale segue ogni singolo allievo nel suo processo di apprendimento:
87
– o con una «serie storica» di valutazioni sintetiche,
– o con più successioni, distinte per tipo di abilità (obiettivi) verificate o per materie di studio2.
La lunghezza della successione può andare dal periodo breve (mese,
bimestre) a cicli di studio completi (anno scolastico, ciclo pluriennale).
Notiamo che, in linea di principio, anche l’unità segmentale delle
successioni può essere diversa (punteggi complessivi sulla prova, punteggi parziali sulle abilità, risposte elementari ai singoli quesiti).
Viene spontaneo di considerare tali successioni come andamenti diacronici. Tuttavia bisogna essere sempre molto cauti nelle facili interpretazioni di miglioramenti o peggioramenti, quasi si trattasse di rilevazioni meteorologiche. Infatti, nel rilevare le temperature o le pressioni
atmosferiche, si utilizzano strumenti tarati secondo un certo sistema di
unità di misura oggettivamente definito. Ma si può dire altrettanto di interrogazioni orali, di temi, traduzioni, ..., o anche delle prove strutturate? C’è non solo il problema della oggettività dei giudizi, ma anche
quello, intrinsecamente più complesso, della «taratura» delle prove, sia
come grado di difficoltà che come scelta della unità di misura.
Problema che può essere affrontato con la standardizzazione delle prove e delle
scale di valutazione. Ad esempio, i punteggi dell’allievo P nella prova V possono essere (o no) relativizzati, rispetto al valore medio conseguito nella stessa
prova da una certa «popolazione» (classe, istituto, ...) e alla rispettiva
dispersione.
Comunque, nell’applicare calcoli statistici è opportuno interrogarsi
sempre sulla loro liceità, sui loro limiti, e su quale sia l’interpretazione
corretta dei risultati. Altrimenti si corre il rischio di diventare, come a
volte capita, «apprendisti stregoni».
Ma la possibilità di standardizzare o di relativizzare il punteggio dell’allievo P rispetto alla prova V, presuppone la considerazione preventiva della seconda dimensione docimologico-statistica: quella «verticale», che studia una o più popolazioni su una prova V o rispetto ad un
obiettivo O (il che poi è, in un certo senso, la stessa cosa). Il termine valutazione in questa accezione «verticale» è molto meno utilizzato. In
quante scuole italiane, ad esempio, si dispone di informazioni utili circa
i livelli medi (o le dispersioni) relativi alle abilità fondamentali, come
la comprensione dei testi, degli schemi o dei diagrammi, come la ricchezza lessicale o la capacità di analizzare problemi?
2. Tenendo presente che, almeno a partire dalla scuola secondaria, allo stesso alunno
corrisponderanno più registri (materie), e perciò comunque più sequenze di dati
valutativi.
88
Certo, per poter rilevare informazioni di questo genere, un istituto
dovrebbe utilizzare strumenti di valutazione idonei e disporre di mezzi
di trattamento adeguati o di opportuni servizi esterni.
Ciò non toglie che uno studio statistico dell’apprendimento non può
non considerare per lo meno le 2 dimensioni, che abbiamo chiamato
«verticale» (per obiettivi) e «orizzontale» (per singoli allievi), anche
perché, come abbiamo detto, il punteggio del singolo allievo è interpretabile solo se confrontato con l’andamento della prova su gli altri soggetti e su altre popolazioni.
3. Quali dati elementari?
Abbiamo finora dato per scontato che il dato minimo trattato statisticamente sia sempre un punteggio. Un punteggio esprime, a volte, il numero di risposte esatte (o di errori), altre volte un giudizio implicito, riferito ad una scala ordinale.
In tutti i casi esso è il prodotto di una sintesi di informazioni più elementari, quali per esempio le singole risposte, fornite dall’allievo agli
stimoli ricevuti.
Possiamo spingere il livello di analisi fino a questo tipo di dati? Ciò,
che prima era troppo arduo con mezzi manuali, diviene ora possibile
con l’aiuto dell’automazione (anche se ancora entro certi limiti teorici e
pratici).
Ma vediamo qualche esempio di questo tipo di analisi, più fine di
quella dei punteggi quantitativi o ordinali. Consideriamo per questo una
matrice di risposte come la seguente, che può provenire da una prova
strutturata. (Fig. 2)
Le colonne della matrice corrispondono agli elementi della prova (per
esempio, i quesiti a scelta multipla), le righe, come al solito, agli individui esaminati.
Un’analisi verticale della distribuzione di frequenza delle risposte
elementari ci fornisce gli indici di difficoltà del quesito e di distrattività
delle alternative di risposta3.
3. Si chiama indice di difficoltà di un quesito Q a scelta multipla (per una popolazione
P di individui esaminati) il rapporto tra il numero delle risposte elementari sbagliate, fornite a tale quesito, e l’ampiezza della popolazione P. Si chiama invece indice di distrattività di un distrattore A (alternativa di risposta non esatta) la frazione di popolazione che
sceglie quel distrattore come risposta. Perciò la difficoltà di Q è uguale alla somma delle
distrattività dei suoi distrattori.
89
Figura 2. – Una matrice di risposte.
Ma confrontando tra loro le diverse colonne, si può ottenere anche un
quadro della correlazione tra i tipi di errore4.
Se invece si confrontano le righe, che possono essere immaginate
come parziali profili di allievo (anche perché si possono congiungere le
stringhe relative a diverse prove), si può definire una sorta di distanza
tra questi profili, in uno spazio M-dimensionale (dove M è la lunghezza
della prova, o comunque delle stringhe considerate). Esaminando la distribuzione spaziale delle prestazioni degli allievi nell’iperspazio ad M
dimensioni, si possono scoprire grappoli di individui, analizzarne la
consistenza, e verificarne l’eventuale corrispondenza a modelli di allievo virtuale.
4. Si può scoprire, ad esempio, che chi risponde «B» alla prima domanda, è molto probabile che risponda «D» al secondo quesito. Si può addirittura rilevare che due determinati quesiti siano così fortemente correlati nelle risposte che suscitano, da poter essere
considerati praticamente equivalenti dal punto di vista del loro contributo al punteggio
complessivo.
90
4. Le altre dimensioni didattiche
Se poi torniamo a prendere in considerazione tutte le dimensioni, in cui
si situano i processi di insegnamento/apprendimento (vedi la fig. 1),
l’attenzione statistico-valutativa può spostarsi, via via, su ognuna delle
altre variabili e sulle loro varie combinazioni.
Facciamo un solo esempio: quello dei mezzi d’istruzione. L’insegnamento si serve in un modo o nell’altro, in qualche misura, di mezzi, intesi nel senso più ampio (risorse materiali, intellettuali, organizzative,
ecc.). Sono mezzi d’istruzione il libro come la lavagna, la calcolatrice
tascabile come l’elaboratore elettronico, la palestra come la biblioteca.
Ora, nel gergo della nostra Amministrazione scolastica si parla di numerose e frequenti sperimentazioni (l’introduzione dell’informatica, la
doppia lingua straniera, i sussidi audiovisivi, le aule multimediali). In
quante di queste sperimentazioni l’andamento delle variabili, riguardanti l’uso dei diversi mezzi (insegnanti inclusi), viene statisticamente
studiato (tempi, luoghi, quantità, usi, ecc.), in modo tale da poterne valutare i vantaggi e gli svantaggi, rispetto al fare scuola più tradizionale?
Potrà sembrare a qualcuno che la statistica non abbia molto a che fare
con questo discorso. Ma provate ad immaginare di tenere sotto controllo («monitorare») per un anno tutte le variabili interessanti l’uso di
una biblioteca scolastica: frequentazione qualitativa e quantitativa degli
utenti, scelta dei libri da parte dei lettori, prestiti, nuove acquisizioni,
scopo delle consultazioni, organizzazione e uso degli spazi e dei tempi,
attività promozionali e collaterali, rapporti con le discipline d’insegnamento, e così via.
Indagini analoghe possono essere contemporaneamente svolte su altre strutture di supporto allo studio: laboratorio linguistico, laboratorio
informatico-telematico, iconoteca, ecc..
Un trattamento statistico adeguato dei dati provenienti da indagini di
questo tipo (che possono essere bene svolte dagli studenti stessi), non
potrebbe fornire basi più solide per le decisioni di politica scolastica interna, invece di tanti semplici apprezzamenti, che spesso si fanno «a
lume di naso», sull’utilità didattica di tali mezzi di istruzione?
Una dimensione importante, che non compare nello schema della figura
1, è quella del tempo. Mi riferisco qui non tanto ai tempi interni ai processi di apprendimento, quanto ai tempi dell’istruzione scolastica, che
ripete l’erogazione dei suoi servizi per diverse leve di allievi, anche per
lunghi periodi storici.
Le rilevazioni di dati statistici sulle caratteristiche di ingresso e di
uscita degli studenti, sulle loro reazioni agli stimoli ricevuti, sulla fruizione dei servizi loro offerti (laboratori, iniziative, ecc.), sulle caratteri91
stiche culturali e professionali del personale docente, dirigente e ausiliario, nonché quelle su tutte le altre risorse impiegate nei processi di
insegnamento-apprendimento, se ripetute regolarmente in ogni anno
scolastico, e se accompagnate da adeguata documentazione sugli strumenti valutativi utilizzati nelle rilevazioni (prove, questionari, griglie
di valutazione, reti di obiettivi, ...), costituirebbero un patrimonio di
inestimabile valore pratico e teorico.
Purtroppo però ciò non accade quasi mai nel nostro paese, né al livello della singola scuola, né a livello nazionale (Istat, MPI, ...). Ogni
insegnante, ogni organo collegiale di gestione scolastica, si trova a dover prendere molte decisioni senza una memoria storica (oggettiva) di
ciò che è effettivamente accaduto in precedenza in situazioni analoghe.
Per fare due soli esempi:
1) quante delle nostre «sperimentazioni» didattiche vengono effettivamente controllate con mezzi statistici e docimologici?
2) dove si possono leggere informazioni fondate sull’andamento
(geografico e storico) dei livelli medi di competenza dei nostri alunni
nei principali campi del sapere e del saper fare?
5. Conclusioni
Questo contributo, tutt’altro che tecnico, intende evidenziare come lo
sviluppo di una cultura statistica nei nostri sistemi d’istruzione, a tutti i
livelli – dalle ricerche condotte dagli stessi studenti, fino alla valutazione del loro apprendimento, e al controllo degli interi sistemi – può
migliorare la qualità dell’istruzione, o perlomeno fornire le indicazioni
utili a coloro che governano il sistema.
Infatti cultura statistica, al di là dei numeri, significa uso di metodi
per l’analisi e la corretta interpretazione dei fatti!
6. Suggerimenti di letture
B. VERTECCHI, Manuale della valutazione, Roma, Editori Riuniti,
M. LA TORRE, Valutare le abilità matematiche nel passaggio dalla
scuola media alla superiore, Firenze, La Nuova Italia, 1991
M. LA TORRE, «Per una geometria della valutazione», in IAD, n. 1,
1991
B. VERTECCHI, L. CECCONI, M. LA TORRE, Ambienti per la tecnologia
dell’istruzione, Napoli, Tecnodid, 1992
B. VERTECCHI, Decisione didattica e valutazione, Firenze, La nuova
Italia, 1994
92
B. VERTECCHI, M. LA TORRE, E. NARDI, Valutazione analogica e
istruzione individualizzata, Firenze, La nuova Italia, 1994
M. LA TORRE, Un primo passo verso l’individualizzazione, in Cadmo,
n. 5/6, 1994
M. LA TORRE, Le strutture dell’individualizzazione, in Cadmo, n.
10/11, 1996
93
3
3
Hardoy, Kurchan, Bonet, sedia Butterfly, Modello n° 198 - 1938. Produzione
Knoll Associates, Inc., New York. Immagine tratta dal libro Modern chairs, a cura
di Charlotte & Peter Fiell, Ed. Tashen. (Stöhr Import-Export GmbH, Biesigheim)
Semplicità ed economicità per una seduta da relax.
IL RUOLO DELLA SCELTA CASUALE
IN STATISTICA
Rodolfo de Cristofaro*
L’importanza della scelta casuale nella programmazione degli esperimenti può essere messa in evidenza attraverso il così detto paradosso
di Simpson.
La versione che daremo di questo paradosso riguarda la sperimentazione relativa all’effetto di un messaggio pubblicitario. Naturalmente, il
paradosso può sorgere in qualunque campo, come ad esempio nella sperimentazione clinica e così via. Lo stesso esempio di Simposon era diverso (distinguendo i bianchi dalle persone di colore).
Ci sono 400 persone che vengono sottoposte a un messaggio pubblicotario (P) per l’acquisto di un compact disc e altre 400 persone a cui
viene proposto l’acquisto dello stesso prodotto senza pubblicità: (P’).
Per ciascuna persona viene registrato l’acquisto (A) o il non acquisto
(A’). Il risultato è esposto nella tabella seguente:
Tabella 1 - I
Trattamento/Risultato
P
P’
Totale
risultati per tutti gli intervistati
A
A’
totale
200
160
360
200
240
440
400
400
800
Percentuale di
acquisto
50%
40%
Esaminando le percentuali di acquisto, la pubblicità sembrerebbe
avere avuto effetto (50% di acquisto con messaggio pubblicitario, contro il 40% senza messaggio). Esaminiamo però i risultati separatamente
per i maschi e per le femmine. La seguente tabella mostra i risultati per
le femmine:
* Dipartimento di Statistica «G. Parenti», Viale Morgagni, 59 – 50134 Firenze. E-mail:
[email protected]
95
Tabella 2 - I
Trattamento/Risultato
P
P’
Totale
risultati per gli intervistati di sesso femminile
A
A’
totale
Percentuale di
acquisto
180
70
250
120
30
150
300
100
400
60%
70%
Da questi dati risulta che la pubblicità si è rilevata dannosa per le
femmine, la cui percentuale di acquisto del prodotto è minore quando è
presente la pubblicità (60% contro il 70%).
Dato che la pubblicità è stata complessivamente vantaggiosa, si potrebbe pensare che essa sia risultata utile per i maschi. In realtà, i dati
relativi ai maschi smentiscono questa illazione, come risulta dalla seguente tabella (in cui si vede che la percentuale di acquisto è del 20% in
presenza di pubblicità e del 30% in caso contrario):
Tabella 3 - I risultati per gli intervistati di sesso maschile
TrattaA
A’
totale
mento/Risultato
P
20
80
100
P’
90
210
300
Totale
110
290
400
Percentuale di
acquisto
20%
30%
Ecco il paradosso: c’è un trattamento (la pubblicità) che è dannoso
sia per i maschi che per le femmine, ma vantaggioso per tutti.
Il paradosso si spiega nel seguente modo. Le donne acquistano più
facilmente il prodotto, indipendentemente dalla pubblicità. I pubblicitari, conoscendo la tendenza delle femmine a comprare comunque il
compact disc, hanno deciso di sperimentare la pubblicità più su di loro
che sui maschi. Si noti infatti che sono state sottoposte a trattamento
pubblicitario 300 femmine su un totale di 400. Diciamo che il trattamento è legato al sesso o che il sesso «disturba il trattamento».
Si potrebbe pensare di evitare il paradosso introducendo il vincolo
del sesso (cioè, sottoponendo a trattamento un uguale numero di maschi
e di femmine). In effetti, in questo modo l’esperimento risulterebbe più
efficiente, ma i pubblicitari potrebbero escogitare un altro stratagemma,
giocando sull’età delle persone, che, quasi certamente, è legata all’acquisto del prodotto. Ad esempio, nel trattamento, i pubblicitari potrebbero preferire i più giovani.
Di nuovo, si potrebbe decidere di introdurre il vincolo dell’età. Ma
quanti altri fattori possono influire sul risultato dell’esperimento? Ce ne
potrebbero essere tanti: il livello culturale, il tipo di studi seguiti, il reddito e così via. Allora, c’è un modo per cautelarsi contro ogni possibile
96
fattore ed evitare così il paradosso? Ebbene la risposta a questa domanda è la seguente: per evitare il paradosso di Simpson occorre scegliere «casualmente» le persone da sottoporre o non sottoporre al trattamento. Senza scelta casuale, con un po’ di malizia, si può infatti dimostrare tutto quello che si vuole.
Naturalmente il numero delle ripetizioni (replicazioni) dell’esperimento dipende dalla variabilità dei risultati. Tanto maggiore è la variabilità, maggiore è il numero delle ripetizioni da fare in ogni classe,
salvo che si introducano delle variabili di controllo che consentono di
ridurre la variabilità e aumentare così l’efficienza dell’esperimento.
La programmazione degli esperimenti in statistica è stata originata
da Fisher, che fu stimolato dai problemi pratici che egli incontrò nella
sperimentazione in agricoltura. Il suo lavoro pionieristico culminò nel
1935 con la pubblicazione del libro The Design of Experiments. Allo
stesso Fisher si devono diversi metodi di programmazione degli esperimenti, che, sebbene siano stati proposti nell’ambito di un’impostazione
ritenuta forse oggi un po’ discutibile, sono ancora utilizzati nella loro
formulazione originaria dalla maggior parte dei ricercatori. Sull’argomento si veda Neyman (1950).
Un discorso analogo a quello che abbiamo fatto per il piano degli
esperimenti può essere ripetuto per il campionamento statistico.
Al riguardo, vale la pena di ricordare un esperimento condotto da
Gini e Galvani (1929). Tali studiosi desideravano conservare un campionamento del censimento della popolazione italiana del 1921, al fine
di consentire degli ulteriori studi su quel materiale ingombrante che occupava intere sale dell’Istituto Centrale di Statistica, oltre a dei confronti con i risultati del successivo censimento in corso di preparazione.
Essi scelsero allora 25 zone territoriali, che, rispetto a 15 variabili di
controllo, avevano quasi le stesse caratteristiche dell’intera popolazione. Tuttavia, tale campione forniva delle stime distorte di altri caratteri precedentemente non considerati, tanto che tali studiosi espressero
seri dubbi sull’utilità delle rilevazioni per campione.
Neyman (1934) comunque riesaminò poco dopo l’argomento in un
articolo in cui riaffermò la validità del «metodo del campione», a condizione di scegliere le unità di osservazione, non in modo ragionato
(purposive, in inglese), ma «casuale».
Ciò non significa ignorare le informazioni disponibili sulle variabili
di controllo. Infatti, Neyman suggerì di effettuare la scelta casuale non
dall’intera popolazione, ma all’interno di raggruppamenti di unità
(detti, «strati») che possono essere formati in base a delle variabili di
controllo, simili a quelle considerate da Gini e Galvani.
Quando l’estrazione delle unità all’interno di ogni strato viene fatta
ragionatamente (o intenzionalmente) si parla di metodo delle «quote».
Ma il metodo delle quote non è considerato scientificamente valido,
97
perché, all’interno delle quote, può succedere qualcosa di analogo a
quello che capitò a Gini e Galvani. O, come si è precedentemente visto,
può verificarsi nella realizzazione di un esperimento.
Questo è un esempio dovuto a Basu. Ci sono 100 elefanti numerati da
1 a 100. Noi sappiamo che un elefante, Jumbo, è molto, molto più
grande degli altri 99. Sambo è il tipico rappresentante di questi 99 elefantini, che hanno quasi lo stesso peso. Per stimare il peso totale degli
elefanti, si potrebbe prendere un campione casuale. Tuttavia, se il campione include Jumbo, esso sovrastima il peso totale della popolazione;
se non include, lo sottostima. In considerazione di ciò, conviene dividere la popolazione in due insiemi, quello con Jumbo e quello con gli
altri 99 elefantini. Jumbo viene incluso nel campione con probabilità 1.
Poi si sceglie casualmente un Sambo dai 99 elefantini dell’altro insieme. Per stimare il peso totale della popolazione, il peso del Sambo
incluso nel campione viene moltiplicato per 99, a cui si aggiunge il peso
di Jumbo. È evidente che se tutti i Sambo avessero lo stesso peso, la
stima sarebbe esente da qualsiasi errore.
L’entità dell’errore dovuto all’impiego di un campione scelto in maniera non casuale (non probabilistica) può essere anche molto rilevante.
Frosini nella sua «Introduzione alla statistica» cita un esempio relativo
a 180.000 telefonate fatte a un importante canale televisivo americano
(in seguito ad alcuni tumulti avvenuti nella città) sullo spostamento
della sede delle Nazioni Unite da New York. Nel 67% delle telefonare
si sosteneva che l’ONU doveva andarsene. Tuttavia, nello stesso
giorno, vennero fatte delle interviste telefoniche a 1.200 persone, scelte
casualmente, il 72% delle quali si dichiarò a favore della permanenza
dell’ONU nell’attuale sede.
RIFERIMENTI BIBLIOGRAFICI
FISHER R. A., (1949) The Design of Experiments, 5a ed. Edimburg: Oliver &
Boyd (8a edizione: New York: Hafner).
FROSINI B. V., (1995) Introduzione alla statistica, Roma, NIS.
GINI C., GALVANI L., (1929) Di una applicazione del metodo rappresentativo
all’ultimo censimento Italiano della popolazione (1o dicembre 1921), Annali di Statistica, Serie, 6, v. 4, 1-107.
NEYMAN J., (1934) On the different aspects of the representative method: the
method of stratified sampling and the method of purposive selection, Journal of the Royal Statistical Society, vol. 97, 558-625.
NEYMAN J., (1950) First Course in Probability and Statistics, New York:
Holt.
98
UN PROBLEMA DI H. STEINHAUS
Stefano Antoniazzi1
1. Il problema
In Cento problemi di matematica elementare, H. Steinhaus propone il
seguente problema:
«Un torneo (per esempio nelle gare di tennis su prato) è un metodo per determinare il migliore tra otto giocatori; esso consiste nell’organizzare i giocatori
in coppie mediante estrazione a sorte. Quattro incontri determineranno quattro vincitori, i quali giocheranno le partite del secondo turno; il terzo turno è
l’incontro finale. Il vincitore della finale riceve il primo premio ed il suo avversario il secondo. Supponiamo che ogni giocatore abbia una sua forza e che
il giocatore più forte batta sempre quello più debole. In questo modo la procedura descritta designa il campione in modo esatto, ma non sempre designa
correttamente il secondo. Qual è la probabilità che il finalista non meriti veramente il secondo premio ?» STEINHAUS (1987) pag. 45.
Indicati con B il giocatore più forte e con S il secondo più forte, se i
partecipanti sono 4 allora deve accadere che S incontri B al primo
turno; la probabilità richiesta è 1/3.
Se i partecipanti sono 8 allora deve accadere che S incontri B al
primo turno oppure che, vinto il primo turno, incontri B al secondo
3
6 1
1
turno; in questo caso la probabilità richiesta è ⫹ ⭈ ⫽ .
7
7 3
7
Questa è la risoluzione riportata nel volume citato. Estendendo il
problema a 16 partecipanti dovrà accadere che S incontri B al primo
turno oppure che, vinto il primo turno, incontri B al secondo turno oppure ancora che passati i primi due turni incontri B al terzo turno. La
6 1
14 1
1
probabilità in questo caso è
⫹
⫹ ⭈ .
7 3
15 7
15
冤
冥
2. La risoluzione
Consideriamo, come d’uso nei tornei di tennis, tabelloni di gara con
N ⫽ 2k partecipanti ed indichiamo con X il primo avversario incontrato
dal «secondo più forte», S. Dalle considerazioni precedenti si conclude
1.
I.T.I.S. «Max Planck», Villorba (TV)
99
che S non si classifica al secondo posto se viene eliminato dal primo
avversario X (che dunque deve essere il più forte, B) oppure se elimina
X ma non si classifica al secondo posto in una competizione con metà
dei partecipanti iniziali. La probabilità richiesta si può allora esprimere
come:
Figura 1
Questa analisi permette di costruire una relazione di ricorrenza per la
probabilità cercata. Se N ⫽ 2k, così k è il numero di turni di gara, indichiamo con P(k) la probabilità dell’evento «S non si classifica al 2o posto in un torneo con N ⫽ 2k partecipanti». Per P(k) si ha:
P(k) ⫽
2k ⫺ 2
1
P(k ⫺ 1)
⫹
2k ⫺ 1
2k ⫺ 1
(1)
Questo porta facilmente alla Tabella 1.
N
k
P(k)
4
2
1/3
8
3
3/7
16
4
7/15
32
5
15/31
64
6
31/63
128
7
63/127
Tabella 1
Si può dare una formula che permetta di trovare direttamente P(k) conoscendo solo k? È facile verificare che le probabilità P(k) così trovate costituiscono una successione crescente e limitata (sono minori di 1) perciò esiste un valore limite per P(k). Quanto vale?
L’equazione (1) è una equazione alle differenze lineare del primo ordine che si può risolvere direttamente con tecniche specifiche (Cfr. APPENDICE), tuttavia la cosa non è proprio immediata. Anche sottoponendo questa equazione a programmi di Computer Algebra come De100
rive o Maple2 si ottiene solo l’espressione formale della soluzione,
espressa in termini di sommatorie e produttorie; espressione che non
viene ulteriormente semplificata. Infine la ricerca diretta di P(⬁), passando al limite a primo e secondo membro della (1), porta solo alla ovvia identità P(⬁) ⫽ P(⬁).
Trattandosi di un problema di probabilità è ragionevole pensare si possa
ottenere una soluzione della equazione ed il valore limite usando metodi probabilistici.
Applichiamo un procedimento diverso per calcolare la probabilità richiesta. Il sorteggio associa ad ogni giocatore un numero tra 1 e N (un
metodo effettivamente usato per fare il sorteggio è quello di estrarre i
numeri della tombola); questo abbinamento definisce due gironi: in uno
stanno i giocatori associati a numeri dispari e nell’altro i giocatori associati ai numeri pari. Ad esempio con 8 giocatori il tabellone di gara è
Figura 2
Un modo euristico di stimare la probabilità per N «grande» può essere
dunque il seguente: ogni partecipante ha probabilità 1/2 di avere per
sorteggio un numero pari o un numero dispari. Se a B viene associato
un certo numero, la probabilità cercata è quella che a S sia associato un
numero con la stessa parità di quello di B, cioè (all’incirca) 1/2. Questa
considerazione è analoga a quella per valutare la probabilità che S compia gli anni nello stesso giorno di B: se l’anno ha G giorni la probabilità
è 1/G (non importa il particolare giorno in cui è nato B) ed in questo
caso è come avere un anno di 2 giorni (i pari ed i dispari). Si può euristi1
camente ipotizzare P(⬁) ⫽ .
2
Le considerazioni fatte sopra permettono di applicare il teorema di
probabilità totale e di risolvere per via probabilistica l’equazione (1)
perché P(k) è la probabilità che B e S abbiano nel sorteggio la stessa
parità e dunque
2.
In questo caso Derive XM 3.14 e MapleV Student Version
101
P(k) = Pr[B pari] ⫻ Pr[S pariB pari] + Pr[B dispari] ⫻ Pr[S dispariB
dispari]
N
⫽ 2k ⫺ 1 numeri dispari ed altrettanti numeri pari.
2
La probabilità cercata non dipende dall’ordine di sorteggio e Pr[B pari]
Se N ⫽ 2k, ci sono
= Pr[B dispari] = 1/2, così
P(k) ⫽
2k ⫺ 1 ⫺ 1
1 2k ⫺ 1 ⫺ 1
1 2k ⫺ 1 ⫺ 1
⫹
⫽
2 2k ⫺ 1
2 2k ⫺ 1
2k ⫺ 1
Sostituendo in (1) si può verificare senza difficoltà che la equazione è
soddisfatta e si ritrova una conferma del limite P(⬁) «calcolato»
euristicamente.
Ricordando che il numero dei partecipanti è N ⫽ 2k, si può esprimere
1N⫺2
.
la probabilità trovata in funzione di N ed è P(N) ⫽
2N⫺1
In appendice sono riportate due risoluzioni «non probabilistiche»
dell’equazione (1).
3. Un caso (un poco) più generale
La soluzione ottenuta inizialmente è valida solo per tabelloni di gara
«completi», cioè con N una potenza di 2; con il secondo approccio si
può valutare la probabilità richiesta senza questo vincolo dato che, perché B e S si incontrino solo in finale, deve accadere che si trovino in gironi diversi cioè che nel sorteggio a B sia associato un numero pari e a
S un dispari o viceversa. Indicato come sopra,
P(N) = Pr [S non si classifica al secondo posto; in una gara con N
partecipanti]
allora, se N ⫽ 2n è pari
P(N) ⫽
n⫺1
1N⫺2
1 n⫺1
1 n⫺1
;
⫽
⫽
⫹
2N⫺1
2n ⫺ 1
2 2n ⫺ 1
2 2n ⫺ 1
se invece N ⫽ 2n ⫹ 1 è dispari
P(N) ⫽
n⫹1 n
n⫺1
n
1 2n
1N⫺1
⭈
.
⫹
⫽
⫽
2n ⫹ 1
2n
2n ⫹ 1 2n
2 2n ⫹ 1
2 N
102
Si verifica direttamente che nel passare da un numero dispari di partecipanti al numero pari successivo la probabilità P(N) rimane costante.
4. Considerazioni finali
Negli attuali tornei di tennis non si utilizza il sorteggio ma il metodo
delle «teste di serie» che nelle ipotesi descritte da Steinhaus darebbe invariabilmente il primo posto a B ed il secondo posto a S in quanto i due
tennisti ritenuti più forti vengono sistemati in modo da doversi eventualmente incontrare solo in finale.
È però vero che il tennista favorito non è sempre vincente su quello
non favorito. In questo caso si può generalizzare il problema assumendo
che il favorito superi il non favorito con probabilità p costante oppure,
più verosimilmente, dipendente dalla differenza di «ranking» tra di essi.
La complessità del problema aumenta però in modo notevolissimo. Per
una possibile generalizzazione si veda ad esempio il problema proposto
da D. E. Knuth, riportato in KLAMKIN (1990), pag. 82.
BIBLIOGRAFIA
STEINHAUS H. (1987), Cento problemi di Matematica elementare, a cura di F.
Conti, Boringhieri, pag. 45 (Sto Zada PWN 1958, One Hundred Problems
in Elementary Mathematics, Pergamon Press 1963)
KLAMKIN M. S. (1990), A Random Knockout Tournament, Problem 86-2, Problems in Applied Mathematics, SIAM Philadelphia, pag. 82.
APPENDICE
A titolo di confronto vengono riportate due risoluzioni «non probabilistiche»
dell’equazione (1)
RISOLUZIONE 1.
I valori riportati nella Tabella 1 possono suggerire la forma della soluzione:
numeratore e denominatore sono del tipo «una potenze di 2 meno 1» e le potenze sono consecutive. Questa osservazione si può utilizzare per costruire una
(per il momento ipotetica) soluzione e verificarne la validità, ad esempio con il
principio di induzione.
2k ⫺ 1 ⫺ 1
;
In questo caso la soluzione sembra essere del tipo P(k) ⫽
2k ⫺ 1
22 ⫺ 1 ⫺ 1
1
Base) La base è P(2) ⫽
(verificata);
⫽
3
22 ⫺ 1
103
Passo Induttivo) Il passo induttivo si riduce ad una sostituzione ed al calcolo
della somma:
P(k ⫹ 1) ⫽
2k ⫹ 1 ⫺ 2 2k ⫺ 1 ⫺ 1
2k ⫺ 2
1
1
⭈
⫹
⫹ k⫹1
⫽
⫽
2k ⫹ 1 ⫺ 1
2k ⫺ 1
2k ⫹ 1 ⫺ 1
2k ⫹ 1 ⫺ 1
2
⫺1
⫽
2k ⫺ 1
(verificato);
2
⫺1
k⫹1
RISOLUZIONE 2.
Per risoluzione dell’equazione di ricorrenza conviene operare una trasformazione di incognita; moltiplicando ambo i membri di (1) per 2k ⫺ 1 si
trova
(2k ⫺ 1)P(k) ⫽ 2(2k ⫺ 1 ⫺ 1)P(k ⫺ 1) ⫹ 1
che, posto Q(k) ⫽ (2k ⫺ 1)P(k), dà la nuova equazione
Q(k) ⫽ 2 ⭈ Q(k ⫺ 1) ⫹ 1
Le soluzioni di questa equazione sono del tipo Q(k) ⫽ A ⭈ 2k ⫺ 1 con A una costante che dipende dalla «condizione iniziale», cioè da un valore noto di
Q(k).
1
In questo caso da Q(2) ⫽ (4 ⫺ 1) ⭈ P(2) ⫽ 1 si ricava A . Riportando questo
2
2n ⫺ 1 ⫺ 1
che è
valore si ottiene Q(k) ⫽ 2k ⫺ 1 ⫺ 1 e, ricavando P(k), P(k) ⫽
2n ⫺ 1
l’espressione già trovata in precedenza.
104
4
4
Arne Jacobsen, sedia 3107 - 1955. Produzione Fritz Hansen. Immagine tratta dal
libro Modern chairs, a cura di Charlotte & Peter Fiell, Ed. Tashen. (Fiell International Ltd., London – Foto di Paul Chave)
La sintesi, per forma e quantità di materiale.
5a
5b
5a
Gerrit Rietveld, Sedia Zig Zag – 1934. Riedizione prodotta da Cassina dal 1971
Immagine tratta dal libro Modern chairs, a cura di Charlotte & Peter Fiell, Ed.
Tashen. (Die Neue Sammlung, Staatliches Museum für angewandte Kunst, Munich
– Foto di Angela Böhan)
Manifesto di pensiero artistico e semplicità costruttiva per produzione in serie.
5b
Gerrit Rietveld, Red/blu chair – 1918. Riedizione prodotta da Cassina. Immagine
tratta dal libro Design di mobili del XX secolo, a cura di Sembach, Leuthäuser,
Gössel, Ed. Taschen
Manifesto di pensiero artistico e semplicità costruttiva per produzione in serie.
UN MODO SEMPLICE DI GUARDARE ALLA
CORRELAZIONE E ALLA REGRESSIONE
Flavia Mascioli*
1. Introduzione
La trattazione introduttiva della correlazione e della regressione trae un
considerevole vantaggio dalla semplificazione consistente nel fare ricorso a variabili standardizzate; in questo modo, infatti, la presentazione di tali tecniche statistiche risulta più semplice e intuitiva e la loro
applicazione più comprensibile.
Queste tecniche non presentano difficoltà concettuali, ma, di solito,
vengono introdotte per mezzo di formule il cui significato non risulta
immediatamente trasparente e quindi comprensibile a molti studenti
che iniziano a studiare la statistica.
In questa nota, la semplificazione basata sulle variabili standardizzate viene sviluppata, per uno scopo di utilità didattica, attraverso un
esempio classico di regressione lineare; si farà vedere come si possano
ottenere, mediante procedure semplici e di cui è facile apprezzare la
struttura, le formule consuete che risulteranno più immediate.
La trattazione statistica della regressione e della correlazione si deve,
fondamentalmente, a Galton; a questi si deve anche l’introduzione del
termine «regressione». Nel suo articolo del 1885 appare per la prima
volta un diagramma di dispersione che mostra una correlazione tra le
altezze dei padri e quelle dei figli. Galton, uno dei padri della statistica
moderna, era ossessionato dall’idea di descrivere i fenomeni con i numeri; nei suoi studi sull’ereditarietà si accorse che da padri più alti o
più bassi della media nascevano, in genere, rispettivamente figli più alti
della media o più bassi della media, ma le stature dei figli si discostavano dalla media meno di quelle dei loro padri. Galton chiamò questo
fenomeno regressione, ovvero tendenza verso la media generale delle
altezze. Questa tendenza verso la media si può osservare per molte altre
caratteristiche umane misurabili, ma, anche, per fenomeni di tutt’altra
natura.
Al termine regressione viene attribuito, ora, un significato più ampio,
con riferimento ai metodi generali che studiano le relazioni tra
variabili.
Il termine correlazione era già stato introdotto, nel 1846 da Bravais,
*
Dipartimento di Matematica, Università «La Sapienza», Roma.
105
un astronomo francese, nei suoi studi sulla distribuzione normale bivariata; egli, però, non ne aveva riconosciuto fino in fondo il ruolo come
indice di associazione. Successivamente, nel 1895 Pearson sviluppò la
formula matematica del coefficiente di correlazione, tuttora in uso.
I contributi di Galton e Pearson allo studio delle relazioni bivariate
sono stati determinanti; prima dei loro studi, non c’era modo di determinare un’associazione tra due variabili a meno che non fossero legate
da una relazione causale.
Il coefficiente di correlazione ha avuto un ruolo importante nella storia dei metodi statistici. Ma ora è considerevolmente meno importante
del coefficiente di regressione. Se due variabili sono correlate è, in genere, molto più utile studiare la posizione di una o di entrambe le rette
di regressione che permettono di prevedere una variabile in funzione
dell’altra, piuttosto che riassumere il grado di associazione in un singolo indice.
La trattazione che segue, limitandosi ad un’analisi esplorativa e descrittiva dei dati non ne considera il possibile modello di campionamento, mentre per lo studio dell’inferenza sarebbe necessario fare ipotesi sulla popolazione da cui proviene il campione.
2. Un esempio
2.1 I dati
Quando si esamina la relazione tra due variabili quantitative si può,
semplicemente, voler esplorare la natura di tale relazione; diversamente, si può sperare di dimostrare che una delle due variabili può spiegare la variabilità dell’altra. La correlazione e la regressione aiutano
nello svolgimento di queste indagini.
Queste due tecniche molto spesso sono presentate insieme, cosicché
è facile derivarne l’impressione che siano inseparabili. In realtà, hanno
scopi diversi.
La confusione tra la correlazione e la regressione può nascere dall’insufficiente differenziazione nella loro presentazione nei libri di testo.
Questa, a sua volta, deriva dalla forte relazione matematica che esiste
tra i due metodi e che è evidente nelle formule che li descrivono.
Nell’esposizione dell’esempio che segue, per rappresentare i grafici
ed effettuare i calcoli viene usato il foglio elettronico EXCEL.
Nella tabella 1 sono riportati le altezze e i pesi di 40 studentesse che
frequentano l’ultimo anno della scuola secondaria.
Per analizzare i dati relativi alle due variabili, altezza e peso, si segue
una strategia che aiuta a organizzarne l’esplorazione.
106
Si inizia con una rappresentazione grafica dei dati e con il calcolo di
alcune caratteristiche sintetiche.
Si osserva se i dati seguano un andamento comune e se ci siano deviazioni da questo.
Se l’andamento è abbastanza regolare si usa un modello matematico
per descriverlo.
Tabella 1 – Altezze e pesi di 40 studentesse
Studentessa
AlPeso
tezza (kg)
(cm)
Studentessa
AlPeso
tezza (kg)
(cm)
Studentessa
AlPeso
tezza (kg)
(cm)
Studentessa
AlPeso
tezza (kg)
(cm)
1
150
50
11
157
58
21
162
51
31
167
56
2
151
45
12
158
47
22
163
44
32
167
63
3
152
41
13
158
58
23
163
49
33
168
46
4
152
46
14
159
42
24
164
52
34
168
52
5
155
45
15
159
44
25
164
56
35
168
56
6
156
42
16
159
51
26
164
61
36
169
57
7
156
53
17
159
56
27
165
44
37
169
64
8
156
60
18
160
48
28
165
58
38
170
55
9
157
48
19
161
47
29
166
50
39
170
67
10
157
55
20
161
54
30
167
50
40
171
59
2.2 Il diagramma di dispersione - La correlazione
Il diagramma di dispersione che evidenzia la relazione tra l’altezza (x)
ed il peso (y) è rappresentato nella figura 1.
Il grafico mostra un andamento approssimativamente lineare senza
deviazioni rilevanti.
La media e la deviazione standard delle altezze e dei pesi date, rispettivamente, da
–x ⫽ 161. 6 cm, s ⫽ 5. 8 cm e –y ⫽ 52 kg, s ⫽ 6. 6 kg,
x
y
danno informazioni sul centro e sulla dispersione orizzontale e verticale
della nuvola di punti, ma non sull’intensità della relazione lineare
107
tra le variabili. A questo scopo, introduciamo il coefficiente di correlazione r
1
r⫽ n
∑冢
i
xi ⫺ –x
sx
冣冢
yi ⫺ –y
1
⫽ n
sy
冣
∑ zx zy,
(1)
che, date n variabili x e y standardizzate, è definito come la media dei
loro prodotti, e che, per i dati dell’esempio, vale 0.49.
Naturalmente, a questo punto, è necessario che gli studenti abbiano
chiaro il significato di standardizzazione1.
1. La standardizzazione è una trasformazione lineare che trasforma le variabili x nella
scala dei valori standardizzati z. Per convertire un valore x nel valore corrispondente standardizzato z si usa l’espressione seguente:
z⫽
x ⫺ –x
s .
Un valore z ci dice di quante deviazioni standard l’osservazione originale è sopra o sotto
la media. Le osservazioni più grandi della media sono positive quando vengono standar-
108
Nella figura 2 è riportato il grafico delle variabili x e y standardizzate, con scale uguali sugli assi.
La standardizzazione consente di mettere in evidenza:
1) la presenza degli eventuali outliers che influenzano fortemente r.
Infatti, se, ad esempio, aggiungessimo al grafico il punto A, corrispondente alla coppia di valori (172,40), (fig. 3), ci accorgeremmo subito,
osservando la figura, che A è lontano dall’insieme degli altri punti; si
noti che il valore di r si ridurrebbe a 0.38;
2) l’invarianza di r per variazioni di scala. Quando le variabili sono
espresse nelle unità originali, un cambiamento di scala modifica la
forma del diagramma di dispersione, e può far pensare a un cambiamento del valore di r.
La standardizzazione, inoltre, aiuta a vedere che r è positivo quando
c’è un’associazione positiva tra le variabili, in questo caso infatti, predominano i prodotti positivi e che r è negativo quando predominano i
prodotti negativi (fig. 2).
Consideriamo nuovamente il grafico di dispersione delle altezze e
dizzate, e le osservazioni più piccole della media sono negative. I valori standardizzati
hanno media 0 e deviazione standard 1.
109
dei pesi (fig. 4). Se, ad esempio, osserviamo le studentesse, con altezza
e peso di circa una deviazione standard sopra la media, notiamo che
sono poche quelle che si trovano vicino alla retta tratteggiata, chiamata
retta delle deviazioni standard. Questa retta, con coefficiente angolare
sy /sx ⫽ 1, passa per il punto delle medie e per i punti le cui ascisse e ordinate distano dalla rispettiva media per uno stesso multiplo della corrispondente deviazione standard.
Si noti che la nuvola di punti della figura 4 è simmetrica rispetto a
questa retta.
Osservando più attentamente, notiamo che i pesi, che corrispondono
ad un’altezza che supera la media –x di circa una deviazione standard,
sono molto variabili e si trovano, in maggior parte, sotto la linea tratteggiata, superando il valor medio –y per un valore inferiore ad una deviazione standard.
Allo stesso modo, si può osservare che, per le altezze sotto la media
di circa una deviazione standard, la maggior parte dei pesi corrispondenti è sopra la linea tratteggiata, ovvero è sotto la media per un valore
inferiore ad una deviazione standard.
Si può, quindi, dire che i pesi delle ragazze più alte della media tendono ad essere superiori alla media, ma non tanto quanto le altezze corrispondenti. Mentre i pesi delle ragazze più basse della media tendono
110
ad essere inferiori alla media, ma meno delle altezze corrispondenti.
In questo modo si può illustrare agli studenti il fenomeno della regressione alla media osservato da Galton, che si noterebbe ancora meglio se il numero delle osservazioni fosse maggiore.
Sul grafico della figura 4 è stata disegnata, con una linea continua,
anche un’altra retta con pendenza minore della retta delle deviazioni
standard e che sembra approssimare meglio il peso medio delle studentesse, per ogni valore fissato dell’altezza.
Questa è proprio la retta di regressione che vogliamo studiare.
2.3 La retta di regressione dei minimi quadrati
Operando con le variabili standardizzate, si ottengono, per le due rette
di regressione dei minimi quadrati, di y rispetto a x e di x rispetto a y, rispettivamente le equazioni
zy ⫽ rzx e zx ⫽ rzy.
Risulta, immediatamente e in modo chiaro, che le due rette sono
diverse.
111
112
Per le due rette delle deviazioni standard si ottengono, rispettivamente,
le equazioni
zy ⫽ zx , (r ⬎ 0) e zy ⫽ ⫺zx , (r ⬍ 0)
Le due rette di regressione sono simmetriche rispetto alla diagonale
tratteggiata (retta delle deviazioni standard), come appare nelle figura
5, dove r ⬎ 0, e nella figura 6, dove r ⬍ 0. Per r ⫽ 0 esse coincidono
con gli assi. Aumentando l’intensità della relazione lineare tra le variabili, ciascuna delle due rette tende, fino a coincidere per r  = 1, alla
retta delle deviazioni standard. Si può dire che le rette delle deviazioni
standard corrispondono ad una relazione lineare perfetta tra x e y.
Grazie al ricorso alle variabili standardizzate si ottiene:
1) una distinzione chiara tra la retta delle deviazioni standard e la
retta di regressione;
2) la coincidenza del coefficiente angolare della retta di regressione
con il coefficiente di correlazione (ne consegue, fra l’altro, che non si
devono specificare le unità di misura per il coefficiente angolare).
Nell’esempio considerato, il coefficiente angolare della retta di regressione non standardizzata, espresso in chilogrammi per centimetri,
cambia se si cambia l’unità di misura. Ad esempio, il coefficiente angolare in chilogrammi per centimetri è circa la metà del coefficiente angolare in libbre per centimetri, perché una libbra vale 0.450 kg.
È ben noto che il coefficiente angolare della retta di regressione è una
descrizione numerica importante della relazione tra le due variabili x e
y; la retta di regressione standardizzata rende evidente il legame stretto
tra correlazione e regressione.
Lungo la retta di regressione dell’esempio, per ogni variazione dell’altezza pari ad un’unità (una deviazione standard), si osserva una variazione del peso medio pari circa alla metà (r ⬵ 0. 5). Si vede, immediatamente, che, se la correlazione diventa più debole, i valori zy rispondono più lentamente ai cambiamenti di zx.
Mentre, lungo la retta delle deviazioni standard, ogni variazione, pari
ad una deviazione standard, dell’altezza, corrisponde a una variazione
del peso, ugualmente, pari ad una deviazione standard.
Il fenomeno della regressione verso la media, che avevamo già notato
osservando la figura 4, con questa trattazione risulta evidente e facilmente comprensibile.
2.4 L’indice di accostamento
La misura dello scostamento medio complessivo dei punti osservati
dalla retta di regressione è ottenuta in modo intuitivo, sommando gli er113
rori che si commettono quando si usa la retta di regressione per fare
previsioni sui dati osservati. Essa è data dalla media quadratica delle
distanze verticali tra i valori osservati zy e i corrispondenti valori calcolati zy ⫽ rzx sulla retta,
冑 1n ∑(z ⫺ rz )
––
2
y
x
1
Se si sviluppano i calcoli, ricordando la (1) e ricordando che n
1
⫽ n ∑ zx2 ⫽ 1, e che sy ⫽ 1, dalla (2), si ottiene:
–
兹1 ⫺ r2 ⫻ 1
(2).
∑ zy2 ⫽
(3).
La (3) è la formula dell’indice di accostamento della retta di regressione ai valori osservati che, per le variabili non standardizzate, è data
–
dalla 兹1 ⫺ r2 sy.
共
兲
Il valore dell’indice di accostamento, pari a 0.870 kg, è vicino al valore della deviazione standard del peso (sy ⫽ 1 kg) e questo conferma
che, essendo r = 0.49, la retta di regressione non aiuta molto a predire il
peso di una ragazza se, se ne conosce l’altezza.
Risulta, così, un’altra importante connessione tra il coefficiente di
correlazione e la regressione. Infatti, il valore numerico di r, come misura della forza della relazione lineare, è più facilmente interpretabile
se si pensa alla regressione.
Può essere interessante dal punto di vista didattico calcolare, anche
per la retta delle deviazioni standard, l’indice di accostamento che si ottiene analogamente alla (3), ed è dato dalla
–
兹2(1 ⫺ 冏r冏) ⫻ 1.
Per i nostri dati standardizzati vale 1 kg ed è uguale alla deviazione
standard verticale.
È anche opportuno far notare agli studenti che la retta di regressione,
che serve per fare previsioni sulla variabile di risposta y conoscendo la
variabile esplicativa x, è ottenuta minimizzando la somma dei quadrati
delle distanze verticali dei punti osservati dalla retta. È, quindi, la retta
più vicina ai punti nella direzione verticale, mentre la retta delle deviazioni standard rende minima la media quadratica delle distanze perpen114
–
dicolari tra i punti osservati e la retta, che è data da 兹1 ⫺ 冏r冏. Quest’ultima è ottenuta dalla
冑
––
2
1 1
n ⭈ 2 ∑共zx ⫾ zy兲 ,
dove si ha il segno più o meno a seconda che si consideri la distanza di
un punto (zx , zy) dalla retta zy ⫽ ⫺zx, o dalla retta zy ⫽ zx.
Terminata questa esposizione, si possono facilmente riconvertire le
variabili zx e zy e l’equazione della retta di regressione nelle unità
originali.
Dalla zy ⫽ rzx, con le opportune sostituzioni, risulta
y ⫺ 52
x ⫺ 161. 6
.
⫽ 0. 49
6. 6
5. 8
Esplicitando rispetto a y, si ottiene
冢
y ⫽ 52 ⫹ 6. 6 0. 49
冣
x ⫺ 161. 6
.
5. 8
Effettuando i calcoli, si ha l’equazione della retta di regressione del
peso in funzione dell’altezza:
y ⫽ 0. 56x ⫺ 38. 10.
Si è così ottenuta, più semplicemente, l’equazione della retta non standardizzata, senza fare ricorso alle formule più complesse del coefficiente angolare e dell’intercetta, date rispettivamente da:
b⫽
∑(xi ⫺ –x) (yi ⫺ –y)
,
∑ (xi ⫺ –x)2
e a ⫽ –y ⫺ bx–.
Esistono anche altre espressioni per queste formule, ma il loro calcolo è
sempre un po’ faticoso senza l’aiuto di una calcolatrice o di un computer. Lo studente potrebbe essere confuso dai calcoli e perdere di vista
l’obiettivo dell’intera operazione.
L’indice di accostamento riconvertito nelle unità originali è pari a
5.74 kg.
Usando la stessa regola empirica che vale per la deviazione standard
di dati con distribuzione approssimativamente normale, possiamo dire
che circa il 68% di tutti i pesi dista meno di 5.74 kg dalla retta e circa il
95% di tutti i pesi dista meno di 2 ⫻ 5. 74 ⫽ 11. 48 kg dalla retta.
A questo punto, si può ancora aggiungere un ulteriore spunto di ri115
flessione per gli studenti. Il modello di regressione considerato è un
modello lineare del tipo:
m(y/x) ⫽ a ⫹ bx,
dove con m(y/x) si indica la media dei pesi per una data altezza
x.
S’intende, inoltre, che m(y/x) sia una funzione lineare dei parametri incogniti a e b e non necessariamente una funzione lineare di x, come
spesso è erroneamente inteso. Ad esempio, nel modello lineare
m(y/x) ⫽ a ⫹ bx2, m(y/x) non è una funzione lineare di x, ma è una funzione lineare di a e b (perché m(y/x) ⫽ ca ⫹ db con c ⫽ 1 e la costante
x2 ⫽ d, nota). Un esempio che può chiarire quanto detto si trova in
Rossi (1996).
Conclusioni
La semplificazione basata sul ricorso a variabili standardizzate alla
quale si rivolge l’attenzione di questo lavoro viene talora richiamata nei
manuali, ma raramente viene considerata per introdurre la correlazione
e la regressione.
Questa trattazione risulta notevolmente facilitata se si fa uso di un
software statistico o di un foglio elettronico. Si permetterà, così, allo
studente di concentrarsi sul ragionamento e la riflessione, evitando calcoli noiosi e consentendo di esplorare e trattare dati, anche numerosi.
Con l’avvertenza, però, di non accettare passivamente i risultati prodotti dal software, ma di saperli interpretare opportunamente.
In questa nota, si è usato il foglio elettronico che, grazie alla sua flessibilità, permette la visualizzazione continua dei dati e la verifica dei
calcoli da parte dello studente che può intervenire in qualunque
momento.
È stato scelto EXCEL, tra i molti fogli elettronici disponibili, non
solo, perché il programma è ampiamente disponibile e largamente
usato, ma anche, perché contiene molte specifiche funzioni statistiche,
nonché procedure che aiutano nell’analisi dei dati.
BIBLIOGRAFIA
D. FREEDMAN, R. PISANI, R. PURVES (1998), Statistics, Norton, New
York.
F. GALTON (1885), Regression Towards Mediocrity in Hereditary Stature,
Journal of the Anthropological Institute, 15, 246-263.
116
G. LETI (1983), Statistica descrittiva, Il Mulino, Bologna.
M. G. OTTAVIANI (1994), Introduzione alla statistica bivariata, Quaderno no 8,
MPI, 66-104.
C. ROSSI, (1996), Parliamo di regressione (lineare) a scuola. Vademecum per
superare indenni i principali errori proposti dai testi scolastici, Induzioni,
13, 55-81.
117
6
6
Verner Panton, sedia, Panton – 1959. Produzione Herman Miller. Immagine tratta
dal libro Design di mobili del XX secolo, a cura di Sembach, Leuthäuser, Gössel,
Ed. Taschen.
Prima sedia in materiale termoplastico ad essere stata stampata in un solo pezzo.
ATTIVITÀ IN CAMPO DIDATTICO
PORTA L’UNICEF A SCUOLA:
Il rapporto UNICEF su «La Condizione dell’Infanzia nel
mondo 2001»
Cecilia Tomassini
L’UNICEF ogni anno produce un rapporto destinato a diffondere
presso un vasto pubblico di lettori le iniziative prese a livello internazionale per migliorare le condizioni dell’infanzia. Il rapporto del 2001
sulla «Condizione dell’Infanzia nel Mondo» assume un ruolo particolare, vista la concomitanza della pubblicazione del volume con la Sessione Speciale sull’Infanzia dell’Assemblea Generale della Nazioni
Unite, tenutasi a New York nel 2001. Ai lavori preparatori della Sessione Speciale hanno partecipato anche bambini ed adolescenti, testimoniando il loro ruolo attivo nel cambiamento e la loro voce sul dibattito in corso. In concomitanza con questa occasione l’UNICEF italiana
ha proposto alle scuole un programma didattico per l’anno 2002-2003
per rendere gli studenti consapevoli di alcune realtà, che riguardano i
loro coetanei in altri paesi del mondo. (per informazioni rivolgersi al
Programma Scuola – [email protected] – dell’UNICEF Italia, tel.
06478091 - fax 0647809270 o consultare il sito http://www.unicef.it/scuola2002-2003.htm). L’UNICEF inoltre in occasione del Mondiale di Calcio di Corea-Giappone ha stipulato un accordo con la FIFA
per dedicare il campionato del mondo alle giovani generazioni, sotto la
bandiera «Yes for Children», una campagna globale che intende sensibilizzare il mondo sul diritto dei bambini alla salute, all’istruzione, alla
protezione dallo sfruttamento e dagli abusi.
Il rapporto del 2001 documenta i progressi avvenuti durante gli
anni ‘90 nelle condizioni di vita dei bambini e delle loro madri.
L’investimento di risorse finanziare ed umane per migliorare le
condizioni nei primi anni di vita ha rappresentato una sfida importante,
visto che le esperienze della prima infanzia influenzano significativamente l’intero corso di vita. Allo stesso tempo però il percorso
verso la completa realizzazione dei programmi di azione a favore
119
dei bambini è ancora lungo e richiede l’impegno concreto dei governi
nazionali e delle organizzazioni mondiali.
Tre aree di «emergenza» globale sono state affrontate approfonditamente nel rapporto UNICEF:
1) L’importanza della condizione femminile, viste le ovvie relazioni
privilegiate che le donne hanno con i loro bambini nei primissimi anni
di vita. Finalmente viene anche opportunamente messo in evidenza il
ruolo importante che i padri possono avere per l’armonico sviluppo del
bambino: l’Unicef ha infatti promosso l’Iniziativa Papà che tende a rafforzare il coinvolgimento dei padri nell’educazione dei bambini.
2) La povertà e la guerra, dal momento che sono i bambini quelli più
vulnerabili in avverse condizioni di sopravvivenza. La scarsa alimentazione, l’accesso negato ai servizi sanitari e all’istruzione sono conseguenze dirette della povertà e della guerra. La malnutrizione provoca
danni irreversibili a livello fisico e cerebrale nei bambini.
3) L’AIDS, che colpisce i bambini sia direttamente (nel mondo 1.3 milioni di malati di AIDS hanno meno di 15 anni) che indirettamente (10
milioni di bambini con meno di 15 anni hanno perso la madre od entrambi i genitori vittime della malattia).
Il rapporto si articola in diverse sezioni che utilizzano diversi strumenti illustrativi:
• Esperienze individuali emblematiche per comprendere i successi e gli
insuccessi dei programmi di Assistenza alla Prima Infanzia (API).
• Utili schede informative per capire, con l’aiuto di esperti, le complesse relazioni fra fattori fondamentali (come ad esempio l’alimentazione, l’igiene, l’istruzione e le attenzioni affettive) e lo sviluppo cognitivo del bambino ed altri outcomes, il cui effetto si protrae per tutta la
vita adulta.
• Mappe geografiche per visualizzare l’estensione e la distribuzione nel
pianeta di fattori di rischio per il normale sviluppo del bambino.
• Tavole statistiche che quantificano gli indice di benessere o di disagio
nei primi anni di vita.
Il rapporto può rappresentare un utile contributo per un corso di geografia o educazione civica per offrire agli studenti uno spunto di riflessione su come siano diverse le condizioni in cui i bambini riversano
nelle varie parti del mondo. Inoltre può essere utile far individuare agli
studenti le aree di disagio dei bambini nella società italiana (rapporto
inadeguato di bambini e posti negli asili nido nonostante il crescente
coinvolgimento delle donne nel mondo del lavoro, il lavoro minorile...).
La povertà fra i bambini esiste anche nei paesi sviluppati: il 17% della
120
popolazione infantile degli Stati Uniti vive sotto la soglia di povertà, e 3
milioni di persone nell’Unione Europea non hanno una casa.
Informazioni sull’UNICEF, sulle sue attività e sulle ricerche in
corso, nonché materiale didattico per gli studenti, possono essere trovate sul sito http://www.unicef.org/ (in inglese) o http://www.unicef.it
(in italiano).
La versione PDF del nuovo rapporto 2002 in italiano può essere scaricata dal sito http://www.unicef.it/bellamy2002.htm.
121
7
8
7
Franco Raggi, Ometta –1995. Produzione Shopenhauer. Immagine tratta da Arredare, anno II-n.8, Ed. Domus.
Sedia servomuto con vano portaoggetti nel sedile
8
Giancarlo Piretti, Plia – 1969. Produzione Castelli. Immagine tratta dal libro
Modern chairs, a cura di Charlotte & Peter Fiell, Ed. Tashen. (Fiell International
Ltd., London)
Rielaborazione della sedia pieghevole tradizionale in legno. Spessore chiusa: 2
cm
9a
9b
9a
Verner Panton, Sitting Wheel – 1974. Prototipo. Immagine tratta dal libro 1000
chairs, a cura di Charlotte & Peter Fiell, Ed. Tashen
“Per incoraggiare le persone a servirsi della propria immaginazione ed a rendere il proprio ambiente più eccitante” Verner Panton
9b
Achille Castiglioni, Sella – 1983. Produzione Zanotta. Immagine tratta dal libro
1000 chairs, a cura di Charlotte & Peter Fiell, Ed. Tashen
Ready-made, omaggio a Duchamp. Un appoggio per seduta alta.
10
10
Gatti, Paolini, Teodoro , Sacco – 1968. Produzione Zanotta. Immagine tratta dal
libro 1000 chairs, a cura di Charlotte & Peter Fiell, Ed. Tashen
Si adatta a tutte le posizioni dell’utilizzatore.
11
14a
12
13
11
De Pas, D’Urbino, Lomazzi, Blow – 1967. Produzione Zanotta. Immagine tratta dal
libro Modern chairs, a cura di Charlotte & Peter Fiell, Ed. Tashen. (Die Neue Sammlung,
Staatliches Museum für angewandte Kunst, Munich – Foto di Angela Böhan)
La forma data dal materiale. Estrema economicità produttiva.
12
Sori Yanagi, sgabello Butterfly – 1915. Produzione Tendoniokko. Immagine tratta dal
libro Modern chairs, a cura di Charlotte & Peter Fiell, Ed. Tashen. (foto Artery, Miami)
La forma data dal materiale
13
Peter Murdoch, Spotty – 1963. Produzione International paper. Immagine tratta
dal libro 1000 chairs, a cura di Charlotte & Peter Fiell, Ed. Tashen
Sedia per bambini. La forma data dal materiale
14a
15
14b
14a e 14b
Wüthrich, Besset, Fashion Force, sedia indossabile – 2002
Autoproduzione
Immagini tratte dal sito www.fashionforce.org
Il minimo indispensabile
15
Progettista anonimo, Sedile per mungere
Immagine tratta dal libro Achille Castiglioni, a cura di Paolo Ferrari, Ed. Electa
(foto Luciano Soave)
Il minimo indispensabile, la soluzione migliore per la funzione,
16
16
Ron Arad, FPE chair –1998. Produzione Kartell. Immagine tratta dal catalogo
Kartell (foto Pesarini & Michetti)
Innovativa tecnica per lavorare gli estrusi di alluminio.
LO SCAFFALE DEI LETTORI
FONDAZIONE LEONARDO, Secondo Rapporto sugli anziani in Italia
2000-2001, Franco Angeli, Milano, 2001, pag. 182, Euro 14,46.
Il Secondo Rapporto sulla condizione dell’anziano nel XXI secolo, redatto dalla Fondazione Leonardo, offre una panoramica precisa ed interessante sul processo di invecchiamento che da diversi anni interessa
l’Italia, e sulla condizione degli ultra 65enni nel nostro paese.
Fra i numerosi testi che trattano del tema dell’invecchiamento questo
si segnala per la semplicità del linguaggio, la completezza dei dati forniti e la varietà degli aspetti della vita dell’anziano trattati.
Dopo un primo capitolo che tratta genericamente degli aspetti demografici dell’invecchiamento della popolazione italiana ed europea, in
cui si analizzano i più importanti indicatori strutturali, oltre che l’evoluzione della speranza di vita e del tasso di fecondità, si passa ad analizzare le caratteristiche della condizione anziana femminile. In particolare, si sottolinea il maggiore aumento di ex che si è prodotto, negli ultimi decenni, per le donne rispetto agli uomini, riconoscendo quindi il
carattere di «femminilizzazione della vecchiaia». La maggiore speranza
di vita porta le donne-mogli a sopravvivere più a lungo rispetto ai loro
mariti e la vedovanza femminile, che in passato si presentava come una
situazione di disagio che molto spesso era causa di povertà per la
donna, oggi invece si presenta come una realtà sfaccettata. Le crescenti
possibilità per le donne di accedere all’istruzione, ai mestieri, alle professioni hanno comportato anche un progressivo cambiamento nella vedovanza femminile: [...] l’inevitabilità di un’uscita dal ruolo protetto e
subordinato di moglie e l’assunzione in prima persona delle responsabilità materiali e morali di una famiglia o della propria vita individuale, sono state alla base di una crescita di consapevolezza e di autonomia delle vedove e dell’attenuarsi di quelle norme consuetudinarie
che tendevano a relegarle ai margini della vita sociale.
Nel terzo capitolo si fa riferimento al concetto di «buona anzianità»,
ossia si riconosce che la figura dell’anziano dovrebbe essere maggiormente valorizzata per le sue caratteristiche di saggezza e di «portatore
di esperienza», oltre che per la funzione educativa svolta nei confronti
dei propri nipoti e dei bambini in genere.
Particolarmente interessanti sono il capitolo sei e sette: il primo
tratta dell’assistenza domiciliare, la quale consiste in prestazioni
d’aiuto per il governo della casa e per il soddisfacimento dei bisogni essenziali della persona e, ove necessario, per consentire l’accesso ai servizi territoriali. Il servizio è diretto a persone che abbiano bisogno di
aiuto per continuare a vivere presso il proprio domicilio. Degna di nota
123
è la ricostruzione dell’excursus legislativo-programmatico che ha portato all’introduzione, in Italia, del Servizio di Assistenza Domiciliare
(SAD), il quale però, a tutt’oggi, risulta essere scarsamente diffuso sul
territorio.
Il capitolo sette, infine, si occupa del rapporto anziani-new economy.
In particolare, si evidenzia la scarsa interrelazione che esiste tra le
nuove tecnologie (primo fra tutti Internet) e la classe degli ultra 65enni.
Come evidenziato dal Rapporto della Piattaforma olandese per gli anziani e l’Europa, le linee d’intervento governative dei paesi membri
dell’Unione Europea sembrano dare scarso rilievo agli anziani come
potenziali membri di una società informatica inclusiva. Negli ultimi
anni, tuttavia, si sono diffuse iniziative e programmi volti a favorire
l’inserimento dell’anziano nella new economy. Si segnala il Progetto
Senior Online che ha preso avvio per iniziativa (tra gli altri) del Comune di Bologna e che si propone di studiare i possibili utilizzi di Internet in vista delle esigenze e delle problematiche dei soggetti anziani, attraverso la realizzazione di un software e di un sito dedicati alla terza
età.
Giorgia Capacci
COLIN BRUCE, Sherlock Holmes e le trappole della logica, Milano, Raffaello Cortina, 2001. Pp 292, prezzo euro 20,14.
Un libro di divulgazione scientifica può semplicemente presentare risultati, ma diventa veramente degno di nota e può assumere anche una
valenza didattica se riesce a comunicare stimoli di riflessione e per
l’approfondimento.
Il costrutto scenico posto in atto da Colin Bruce, che si sviluppa intorno a «casi» proposti all’acume del celebre investigatore londinese e
del fedele amico dottor Watson, in realtà sottopone all’attenzione del
lettore problematiche della vita quotidiana spingendolo a ricercare strumenti intepretativi nell’ambito del ragionamento statistico-probabilistico. In particolare l’autore intende mettere in guardia dalle insidie che
spesso derivano da un disinvolto utilizzo del semplice buon senso allorquando si cerca di affrontare situazioni in condizioni di incertezza:
«Proseguiamo nella beata ignoranza, felici nell’illusione che il nostro
innato buon senso faccia un egregio lavoro guidandoci» e, ancora,
«...possiamo tutti inciampare facendo scelte apparentemente semplici
soprattutto se queste coinvolgono probabilità e statistica» (Prefazione).
Non si può negare il fatto che ragionare sulle probabilità è spesso sconcertante: non sono infrequenti le false idee sul caso e le distorsioni che
124
si possono generare nel formulare giudizi probabilistici. D’altra parte
va tenuto presente anche che l’attenzione al legame tra probabilità, razionalità e senso comune ha portato alla nascita di filoni di ricerca multidisciplinari coinvolgenti psicologi, filosofi, matematici, statistici e
informatici.
Naturalmente, vista la formula divulgativa scelta, tutte le situazioni
sono approcciate presentando idee, senza far ricorso a formalizzazione
specifiche.
Nei 12 «casi» proposti ci si sofferma su problemi tipici e significativi. Così si parla del gioco d’azzardo, degli errori derivanti da un uso
improprio o, addirittura, inconsapevole della cosiddetta legge empirica
del caso (capitolo 2). Si presentano le passeggiate casuali, sottolineandone il legame matematico con il triangolo di Pascal e la distribuzione
normale (capitolo 4). Nel capitolo 3 viene proposto l’immancabile problema dei compleanni e la problematica dei numeri a caso. La logica
dell’inferenza bayesiana è oggetto del capitolo 8: il lettore è condotto
ad una attenta riflessione sulla valenza delle probabilità a priori, delle
verosimiglianze e delle probabilità a posteriori. Pregnante l’utilizzo
della logica bayesiana nella diagnostica medica: viene evidenziato il significato della prevalenza di una malattia, della specificità e sensibilità
di un test diagnostico. In ambito medico interessante risulta la discussione sulle sperimentazioni cliniche (caso-controllo) sviluppata nel capitolo 12. Pertinente risulta la riflessione sui valori medi (media aritmetica, mediana e moda) presente nel «caso del perfetto contabile» (capitolo 11); ne deriva anche un invito, nella didattica, ad un esame meno
formale di indici statistici, curandone maggiormente l’utilizzo e la relativa interpretazione. Decisamente appropriata è la discussione, ancora
nel capitolo 11, sul significato dei grafici statistici e sulle distorsioni
che, a volte, si evidenziano sui mezzi di comunicazione di massa nell’uso di grafici e, più in generale, di dati ed indicatori statistici (ad es.
percentuali). Da notare, nello stesso capitolo, la proposta dell’interessante problema della distribuzione della prima cifra significativa di dati
statistici (legge di Benford). Viene rivolta l’attenzione anche ai concetti
di preferenza ed utilità (capitolo 7) e alla Teoria dei giochi (capitolo 9).
Attuale risulta la discussione sulle presunte, pretestuose e, a volte, nocive profezie (capitolo 6): non si può far a meno di pensare ai vari maghi che affermano e offrono continuamente «fumo». Sono presentati anche altri casi in cui la decisione razionale, derivante da inferenze statistiche, può risolvere problemi concreti (in particolare capitolo 10).
Pur nella sua forma discorsiva il libro manifesta una forte valenza didattica in quanto offre molti spunti per presentare a studenti problematiche di probabilità e statistica partendo da interessanti e stimolanti
situazioni.
Al di là della valenza letteraria dell’opera e della accuratezza storica
125
di alcuni fatti presentati (ma su ciò l’autore si sofferma nella «Postfazione»), obiettivo lodevole del lavoro è quello di presentare conoscenze
di logica dell’incerto per non farsi imbrogliare da «statistiche» spesso
non attendibili e da giochi truffa che ci circondano al giorno
d’oggi.
Vittorio Colagrande
G. CAPUCCI-A. CODETTA RAITERI-G. CAZZANIGA, Lo zero e il senso comune. Rapporto di ricerca sulla provvisorietà di un apprendimento disciplinare, Roma, Armando Armando, 2001. Pp. 144, euri 13,43
Che lo zero costituisca una difficoltà del comune pensare lo possiamo
anche dedurre dal fatto che il suo impiego e il nome per designarlo
comparvero, nel significato e con la funzione che oggi conosciamo,
molto tardi rispetto alla scrittura delle cifre e dei numeri. Gli indiani,
al’incirca fra il VIo e l’VIIIo secolo d.C., per indicare il ‘vuoto’ – si
pensi a quanto risulta utile nella numerazione posizionale ricorrere a
spazi vuoti e ad un simbolo per evidenziarli – utilizzarono la parola ‘sunya’ che gli arabi, nel IXo secolo, adottando la loro numerazione posizionale tradussero con ‘sifr’. Successivamente in latino – la lingua
scientifica dell’Europa per svariati secoli – il termine fu tradotto con
‘cifra’ o ‘zephirum’, da cui poi il termine attuale di zero. Il Grande dizionario italiano dell’uso di T. De Mauro ne attesta l’introduzione nella
nostra lingua fra il 1292 e il 1491.
Lo ‘zero’ può, ancor oggi, difficilmente apparire come un numero naturale; se pensiamo ai numeri figurati studiati dai matematici greci,
cioè a quei numeri ce nascono da particolari configurazioni di punti
(sassolini sul terreno): numeri triangolari, quadrati, pentagonali, ..., oppure nello spazio: tetraedrici, cubici, ...ci rendiamo conto che non v’era
alcuna esigenza di introdurre il termine ed il numero ‘zero’, cioè un numero senza consistenza, da cui cominciare a contare i naturali. Tantissimi secoli più tardi, agli inizi del Novecento, Giuseppe Peano considerò come assioma che «zero è un numero» naturale, cioè quasi a stabilirne il suo carattere particolare e diverso da tutti gli altri naturali. Nel
caso dei conteggi è più facile che compaia lo ‘zero’; non tanto nel conteggio diretto in cui solo scherzosamente si inizierà da zero per sottolineare che non si ha un euro in tasca o che in casa non ci sono uova (zero
uova), quanto piuttosto nel caso di sottrazione. Se spendo i 50 euri che
ho nel portafoglio me ne rimangono zero, se impiego le 6 uova che ci
sono nel frigorifero ne restano zero. Ma, si noti, la risposta ‘zero’ nei
due problemi precedenti è già una risposta che si pone nell’ambito di un
126
linguaggio scientifico, ché altrimenti si dirà ‘nulla’ o ‘niente’: non mi
resta ‘nulla’ in tasca, nel frigo non rimane ‘niente’ nello scomparto
delle uova.
Il termine ‘zero’ tuttavia non può ridursi al solo ambito scientifico
poiché riveste, nel suo impiego corrente, altri significati, chi non ricorda, per esempio, il temuto voto che una volta si usava nelle nostre
scuole (‘zero’ o ancor peggio perché ne sottolineava con acredine la valenza negativa ‘zero spaccato’) per definire l’irrecuperabile e irredimibile situazione di un elaborato o delle conoscenze di un allievo. «La
trattazione scolastica – osservano giustamente gli autori – del numero
zero all’interno di un percorso strettamente disciplinare, tuttavia, non
trasmette ‘l’emozione’, ‘la passione’, ‘il rovello’ degli studiosi di
fronte ad un segno nuovo di cui avvertivano l’importanza ma non dominavano il significato. Difficilmente si può consolidare nelle menti degli
studenti il significato matematico del numero zero perseguendo strade
esclusivamente interne alle discipline. Viceversa l’insegnamento trasversale del numero zero può risultare ricco di stimoli. Per esempio
molti studenti, nel questionario, hanno associato lo zero al’uovo e alla
nascita, ... ma anche Piero della Francesca ne La scarsa conversazione
ha utilizzato simbolicamente l’uovo».
Tutti gli studenti siano essi bambine o bambini delle elementari,
siano essi universitari, costruiscono, in relazione alla loro esperienza
curricolare scolastica ed all’insegnamento che viene loro impartito, teorie più o meno ingenue, significati e spiegazioni e opinioni in relazione
a quello che viene loro presentato. La loro esperienza pregressa costituisce la base per interpretare, accogliere ed organizzare la nuova conoscenza e quindi, di conseguenza, gli aspetti emotivi influenzano fortemente il vissuto di ogni individuo e si intrecciano strettamente con gli
aspetti razionali che si suppone costituiscano il nocciolo prevalente
della trasmissione scolastica.
Gli autori notano che sia la cultura più permeata dal pragmatismo
ed in cui il «senso comune» assume valore positivo e collegato
alla percezione del reale di ogni singolo soggetto, sia la cultura
più volta all’idealismo ed in cui si afferma una visione che svaluta
l’esperienza personale in quanto «i sensi ci ingannano», non valutano
nella giusta misura e non assegnano un ruolo di rilievo alle emozioni.
Nasce da qui l’indagine, estesa a studenti del 1o e 2o ciclo della
scuola primaria (elementari), del biennio della scuola secondaria,
del triennio della medesima scuola e ad un piccolo numero di
studenti universitari, portata avanti in molte città. Qui di seguito
ricordiamo le città con il numero di studenti universitari, estesa
in molte città. Qui di seguito ricordiamo le città con il numero
di schede raccolte in ciascuna d’esse perché ciò rende conto dell’ampiezza del lavoro: Aosta 200, Bari 187, Milano 983, Napoli
127
216, Piacenza 135, Avellino 89, Varese 103, Palermo 58, Novara-Verceli 339, Lucca 156.
Il questionario unico per tutti gli intervistati e quindi per tutte le età,
è stato pensato e costruito con un linguaggio estremamente semplice
ma nel contempo evocativo degli argomenti che si volevano indagare.
Si tratta di un questionario piuttosto diverso da quelli usualmente impiegati nelle indagini sociali o di mercato e perciò merita una breve descrizione. Un’unica facciata di un foglio viene divisa in due parti, nella
superiore compare al centro la domanda cardine di tutto il lavoro: «cosa
è, per te, lo zero?», contornata da quattro settori in cui l’intervistato può
scrivere le sue risposte, e ciascun settore è dedicato a differenti argomenti: «parole, frasi, concetti», «disegni, grafici, immagini», «emozioni, sentimenti stati d’animo», «quello che vuoi» sono le intestazioni
degli spazi disponibili per le risposte che, in qualche modo e sommariamente, le guidano. Nella parte inferiore campeggia la domanda: «Se
non ci fosse il numero zero cosa cambierebbe» con due settori per le risposte, destinati a raccogliere osservazioni su: «nella matematica»,
«nella vita di ogni giorno».
Nel libro vengono riportate molte fotografie di questionari compilati
da persone di varie età, che ci danno una buona idea del tipo di reazioni
suscitate presso gli studenti. Vale la pena qui soffermarsi sulla griglia
di lettura utilizzata per riassumere i questionari perché, di tutta evidenza, queste categorizzazioni sono scaturite dall’analisi dei questionari stessi e ci danno così conto delle principali interpretazioni incontrate nei questionari. Le riporto per esteso e verbatim:
A-modelli matematici: a1. consapevolezza dell’aspetto numerico ed
epistemologico; a2. numero cardinale di ogni classe vuota; a3. numero
ordinale: il primo elemento della successione dei naturali e di ᑬ⫹, a4.
elemento di separazione tra ᑬ⫹ e ᑬ⫺; a5. origine del sistema di assi
cartesiani; a6. elemento neutro dell’addizione e assorbente della moltiplicazione con eventuali riferimenti alle strutture algebriche; a7. elemento qualificante della numerazione posizionale; a8. legame con l’infinitesimo e/o l’infinito; a9. particolari proprietà dello zero.
B-emozioni, suggestioni, analogie: b1. emozioni primarie profonde,
sonno, morte, noia, delusione, pace; b2. analogie legate alla forma del
simbolo, alla forma geometrica; b3. suggestioni suggerite dai significati
del linguaggio sociale; b4. emozioni legate alla esperienza scolastica.
C-uso pratico: c1. lo zero collegato al denaro; c2. lo zero collegato
alle classifiche nelle composizioni; c3. lo zero legato al tempo, c4. lo
zero legato ai fenomeni fisici; c5. lo zero legato a considerazioni
sociali.
Queste categorizzazioni sono servite per condurre l’analisi dei questionari ed in particolare l’analisi quantitativa. Debbo osservare che di
128
tutte le strade di analisi intraprese, quella quantitativa mi sembra la più
oscura anche perché nella tabella di p. 67 accanto alle frequenze figurano dei ‘pesi’, relativi a ciascuna risposta, di cui non viene esplicitato
il significato né il metodo di calcolo che potrebbe aiutarci nel rintracciarlo. Ciò si ripercuote anche sulla lettura di qualche grafico nelle pagine successive. In questa analisi si è scelto di trattare indistintamente
tutti i casi delle varie città, mantenendo però la distinzione fra i cicli
scolastici. Nella successiva analisi condotta dal gruppo di ricerca di
Aosta, si è circoscritto il territorio alle sole scuola di Aosta, nell’ipotesi
di «rendere possibili analisi immediatamente fruibili dagli operatori del
territorio». Certo questo modo di procedere può risultare operativamente utile per le singole realtà scolastiche perché possono effettuare
direttamente dei confronti con un riferimento nazionale. Nel caso specifico è stato osservato che i risultati di Aosta non differiscono da quelli
nazionali. Anche qui qualche lieve perplessità nasce dall’aver considerato (cfr. tabella di p. 77) sullo stesso piano le risposte alle interpretazioni matematiche, alle emozioni e analogie suscitate dal numero zero,
e all’uso pratico di questo numero (per intenderci, quanto figura nella
griglia di lettura poco più su riportata), come si evince dalle percentuali
calcolate. Ciononostante i risultati sono interessanti e lo è in particolare
l’annotazione che «le conoscenze acquisite in un certo tratto del tragitto
di apprendimento, invece di integrarsi, tendono a cancellare quelle del
precedente». Una caratteristica piuttosto nota della scuola italiana che
si sposa spesso con la riproposizione, ciclo dopo ciclo accompagnando
la crescita degli studenti, degli stessi argomenti.
Altri metodi di lettura dei dati sono stati proposti, come un’interpretazione grafico-linguistica, la costruzione dei mappe cognitive e l’interpretazione di queste mappe con la dimensione quantitativa delle frequenze delle risposte.
Lo zero viene associato a moltissime forme tondeggianti o vicine all’ellisse e quindi si va dalla ricorrente e frequente associazione con il
sole, all’uovo o alla palla.
Particolarmente interessante risulta sul piano grafico e linguistico la
rappresentazione dello zero con le ovaie e con gli ovuli in esse contenuti, sia per l’ovvia associazione morfologica, sia per il più profondo significato di fine oppure di inizio di ogni cosa e quindi della vita stessa.
Anche le associazioni con il denaro, che riecheggiano le necessità commerciali da cui nasce la numerazione posizionale araba, sono frequenti
e per lo più mediate dalla scrittura posizionale per cui senza lo zero non
ci sarebbero i soldi (100 euri non sarebbe scrivibile, ed ancor più cifre
più alte), ma anche un divertente «non ci sarebbe niente di gratis». Queste forme di associazione possono essere considerate complessivamente in modo da mettere in luce come, centrando la mappa sullo zero,
con questo e fra loro si collegano i vari concetti che vengono di volta in
129
volta evocati. Questo metodo fa sì che si possano arricchire le mappe al
crescere del’età degli studenti, nel senso che stabilita la mappa creata
dagli alunni delle elementari la si può integrare, magari utilizzando dei
colori per far risaltare i nuovi elementi, con i successivi allargamenti
dovuti all’introduzione di altri elementi di snodo. Questo procedimento
che può essere integrato con le frequenze di risposta in modo da porre
vicino al punto origine dello zero i concetti associati con maggior frequenza e via via più distanziati quei concetti che ricevono minori scelte
e quindi si presentano con minori frequenze.
Gli autori sottolineano l’interessante risultato, dal punto di vista del
lavoro scolastico, secondo cui gli studenti privilegiano le associazioni
con il numero zero delle emozioni psichiche profonde, rispetto a quelle
relative al codice matematico e disciplinare. Ciò può comportare il rischio del crearsi di una dicotomia fra significati disciplinari e scolastici
da un lato, e significati emozionali dal’altro, senza che vi siano rapporti
fra questi due mondi di rappresentazione. Con la possibile e sgradevole
conseguenza del presentarsi di una polisemia non controllata e quindi di
una confusione nell’acquisizione dei concetti.
Questo volume oltre a presentare i risultati di un’indagine su di un
concetto matematico che, com’è ben noto, ha costituito uno dei punti di
rottura della prassi calcolistica medioevale con l’introduzione in occidente, agli albori del 1300, della numerazione posizionale da parte di
Leonardo Pisano (alias, Fibonacci), aspira a proporre degli schemi di
lavoro didattico. Sia ricordando che nell’insegnamento, quale che sia
l’età degli allievi dalle elementari sino ai corsi di dottorato o di master
aziendale, non si deve dimenticare che l’insegnamento non si esaurisce
nell’individuazione di una strategia didattica ma implica anche la considerazione della fatica emotiva che l’apprendimento comporta; sia ricordando degli aspetti chiave evidenziati da Knopp e Clifford. Li riportiamo testualmente:
1) Imparare è un processo di costruzione conoscitiva, non di assorbimento e ricordo.
2) Imparare dipende da precedenti conoscenze, mezzo principale per
la costruzione di nuove conoscenze.
3) Imparare è strettamente relativo al contesto nel quale viene inserito l’apprendimento.
In definitiva, questo interessante libro può non solo dare informazioni sul campo indagato ma proporre nuovi spunti di ricerca, magari limitata al solo ristretto ambito della propria classe, ma anche fornisce
elementi di seria considerazione sul significato del lavoro di studente e,
parallelamente, di docente.
Enzo Lombardo
130
I disabili nella società dell’informazione, (a cura di P. Ridolfi),
Milano, Franco Angeli Editore, 2001. Pp. 191 15 euro.
Internet si sta diffondendo in maniera impressionante nella nostra società. Solamente la telefonia mobile, ossia i cosiddetti «cellulari», sembrano avere maggiore fortuna. Per il resto, la scalata della net economy
è inarrestabile. L’accesso alle risorse in Rete, quindi, non è più un fatto
per pochi eletti, ma coinvolge tutte le fasce sociali, disabili compresi.
Allora non è poi così strano, se qualcuno ha cominciato a chiedersi
come possono fare le persone disabili a collegarsi ad un mondo che non
è stato pensato per loro. A tal proposito, nel luglio del 2000, l’Aipa
(Autorità per l’informatica nella Pubblica Amministrazione) ha costituito un gruppo di lavoro per approfondire l’argomento e stabilire delle
norme sull’accessibilità pubblicate poi, nel settembre 2001, sulla Gazzetta Ufficiale: esse sono vincolanti per gli enti pubblici e caldamente
raccomandate per tutte le aziende in generale.
Ma come mai il problema dell’accesso a Internet per le persone disabili si è concretizzato solo nel corso degli ultimi anni? «La cultura del
risultato è ancora praticamente estranea alla pubblica amministrazione
del nostro paese – scrive nel libro, Alberto Zuliani, ex-presidente dell’Aipa –. I cittadini sono chiamati, o lo sono raramente, a dare la propria
valutazione. Ancora meno lo sono i soggetti disabili, nonostante la tenacia delle loro organizzazioni rappresentative. L’accessibilità è però
un tema che non può essere trascurato ancora a lungo, per i profili di civiltà e di efficienza ad esso sottesi. In questo contesto, l’Aipa rivendica
con orgoglio il merito di aver sollecitato tempestivamente la sensibilità,
l’attenzione, l’interesse dei responsabili dei sistemi informativi delle
amministrazioni centrali dello Stato, degli enti pubblici non economici
e dell’intera amministrazione pubblica».
I primi due istituti che hanno prontamente raccolto le esigenze dei disabili, sono stati l’Inail e l’Inps. Ed entrambi sono citati nel volume,
come esempio di applicazioni di nuove tecnologie nel campo della pubblica amministrazione.
Per quanto riguarda l’Inail, è dell’anno 2000, la prima disposizione
normativa interna, nella quale si sono presentati i primi elementi di
cambiamento nei confronti degli assistiti con handicap. Il successivo
passo è stato la fornitura di personal computer alle persone disabili assistite dall’Inail, un’operazione divenuta oramai abituale in presenza
delle opportune condizioni. «Il computer – scrive nel libro, Alfredo
Violante, direttore centrale «Riabilitazione e protesi» dell’Inail –, è
un’indispensabile risorsa per favorire la fuoriuscita della persona disabile dall’isolamento e la sua apertura al mondo». E proprio allo scopo di
favorire il superamento delle barriere architettoniche e delle altre (come
131
la perdita di autostima, la non conoscenza del livello raggiunto dagli
ausili tecnologici) è nato il progetto SuperAbile (www.superabile.it).
Un’idea concepita con l’obiettivo di mettere a disposizione delle persone disabili e di tutti quelli che hanno rapporti con i temi della «disabilità», un pacchetto di servizi, informazioni e consulenza che, attraverso
tecnologie diversificate, ma sempre ampiamente accessibili, favorisse
in maniera concreta le possibilità di reinserimento delle persone disabili. In tal modo è possibile, come effetto secondario ma non certo per
importanza, migliorare drasticamente la cultura del Paese su queste tematiche, contribuendo a rendere più accessibile (e magari più amichevole) la società in cui viviamo.
Come si diceva, anche l’Inps ha realizzato un sito per le persone disabili (wai.inps.it), con documenti sempre aggiornati e sincronizzati
con il sito istituzionale per utenti normodotati. Inoltre, alcuni progetti
sono in via di sperimentazione e porteranno enormi benefici ai disabili:
«L’interesse per la gestione della voce (VoiceXML) sta portando a sviluppare un server locale – spiega nel libro, Umberto Del Vedovo, responsabile del sito wai.inps.it –. Tra i risultati che si possono ottenere
da queste sperimentazioni vi è, ad esempio, la trasmissione di supporti
multimediali via Internet. Tali supporti potranno immediatamente essere fruibili da audio-lesi utilizzando la possibilità di trascrizione immediata del parlato in testo, che sarà visibile e consultabile in tempo
reale in una finestra parallela a quella in cui viene mostrato il
filmato».
Oltre all’Aipa, però, ci sono altre due enti che vale la pena di ricordare in tema di impegno verso i disabili per l’accesso al mondo informatico, e sono l’Asphi (Associazione per lo sviluppo di progetti informatici per gli handicappati) e l’Iroe (Istituto di ricerca sulle onde elettromagnetiche), che da anni cercano di rendere migliore il rapporto dei
disabili con le nuove tecnologie.
Infine, uno sguardo al futuro. Grazie al lavoro svolto dall’Aipa e con
la collaborazione di molti enti e associazioni no-profit, l’accesso dei disabili alla Rete è diventato più agevole. Inoltre, anche il mondo delle
imprese comincia a prendere coscienza del problema. Sicuramente la
nascita di reti a maggiore velocità permetterà una maggiore integrazione tra dati e sistema vocale, e consentirà finalmente un grande salto
di qualità nella fruibilità di documenti e informazioni da parte di milioni di portatori di handicap nel mondo.
Antonio Camerlengo
132
Scarica