Paradossi
PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]].
PDF generated at: Sun, 29 Jan 2012 16:42:38 UTC
Indice
Voci
Paradosso
1
Elenco di paradossi
5
Algebra di Boole
9
Antinomie kantiane
19
Aristotele
22
Autoriferimento incrociato
41
Beni di Giffen
42
Calcolo combinatorio
43
Combinazione
46
Dismutazione (matematica)
53
Disposizione
55
Effetto Mpemba
57
Effetto Venturi
58
Esperimento immaginato
60
Esperimento mentale
63
Ex falso sequitur quodlibet
66
Giovanni Buridano
67
Guglielmo di Ockham
69
Indipendenza stocastica
75
Insieme sfocato
76
Insieme sfumato
78
Asino di Buridano
80
Logica fuzzy
81
Logica polivalente
88
Oggetto impossibile
90
Paradossi dell'infinito
91
Paradossi di Zenone
92
Paradosso asiatico (cardiologia)
96
Paradosso dei corvi
97
Paradosso dei due bambini
98
Paradosso dei gemelli
100
Paradosso del bibliotecario
104
Paradosso del Comma 22
105
Paradosso del compleanno
106
Paradosso del gatto di Schrödinger
107
Paradosso del gatto imburrato
112
Paradosso del Grand Hotel di Hilbert
114
Paradosso del mentitore
115
Paradosso del nonno
118
Paradosso del quiz
119
Paradosso del sorite
120
Paradosso dell'Alabama
121
Paradosso dell'amico di Wigner
122
Paradosso dell'area scomparsa
123
Paradosso dell'avvocato
124
Paradosso dell'edonismo
125
Paradosso dell'impiccagione imprevedibile
125
Paradosso dell'informazione del buco nero
127
Paradosso dell'ipergioco
130
Paradosso dell'onnipotenza
132
Paradosso dell'onniscienza
133
Paradosso dell'uovo e della gallina
136
Paradosso della linea scomparsa
139
Paradosso della nave di Teseo
140
Paradosso della votazione
141
Paradosso delle due buste
145
Paradosso delle tre carte
151
Paradosso di Abilene
153
Paradosso di Achille e la tartaruga
154
Paradosso di Berry
155
Paradosso di Bertrand
156
Paradosso di Buridano
159
Paradosso di Condorcet
160
Paradosso di Curry
162
Paradosso di D'Alembert
163
Paradosso di Easterlin
165
Paradosso di Einstein-Podolsky-Rosen
168
Paradosso di Epimenide
175
Paradosso di Fermi
178
Paradosso di Gibbs
182
Paradosso di Hempel
187
Paradosso di Moore
188
Paradosso di Newcomb
189
Paradosso di Olbers
193
Paradosso di Protagora
196
Paradosso di Richard
197
Paradosso di Russell
198
Paradosso di San Pietroburgo
201
Paradosso di Simpson
207
Paradosso di Smale
209
Paradosso di Stein
210
Paradosso Einstein-Podolsky-Rosen
210
Paradosso idrostatico
217
Paradosso temporale
218
Paradosso teologico
219
Permutazione
223
Principio dei cassetti
226
Principio di non contraddizione
228
Probabilità
230
Probabilità condizionata
237
Probabilità congiunta
239
Problema di Monty Hall
239
Questione ipotetica (teologia)
248
Teorema dell'impossibilità di Arrow
249
Teorema della probabilità composta
253
Teorema di Duggan-Schwartz
253
Teoria della probabilità
254
Tertium non datur
256
Valore atteso condizionato
257
Note
Fonti e autori delle voci
259
Fonti, licenze e autori delle immagini
263
Licenze della voce
Licenza
265
Paradosso
1
Paradosso
Questo Box di Wikipedia contiene almeno un errore
Il titolo di questo box evidenzia il Paradosso dell'introduzione di David Makinson: se il testo seguente fosse
totalmente corretto, quanto (falsamente) affermato sarebbe comunque vero, poiché l'errore consisterebbe
nell'affermazione stessa. Cioè l'affermazione falsa sarebbe vera...
A scanso di equivoci, l'errore non sussiste nel testo presente nella voce. Ma se quest'ultima affermazione ("l'errore
non sussiste nel testo presente nella voce") fosse l'errore, allora l'articolo conterrebbe un errore. Quindi non credete
ciecamente a quello che leggete, a meno che l'errore non sia questo consiglio (e così via...).
Un paradosso, dal greco παρά (contro) e δόξα (opinione), è un ragionamento che appare contraddittorio, ma che
deve essere accettato, oppure un ragionamento che appare corretto, ma che porta ad una contraddizione: si tratta,
secondo la definizione che ne dà Mark Sainsbury, di
"una conclusione apparentemente inaccettabile, che deriva da premesse apparentemente accettabili per mezzo
di un ragionamento apparentemente accettabile".
In filosofia ed economia il termine paradosso è usato spesso come sinonimo di antinomia. In matematica invece si
distinguono i due termini: il paradosso consiste in una proposizione eventualmente dimostrata e logicamente
coerente, ma lontana dall'intuizione; l'antinomia, invece, consiste in una vera e propria contraddizione logica.
Il paradosso è un potente stimolo per la riflessione. Ci rivela sia la debolezza della nostra capacità di discernimento
sia i limiti di alcuni strumenti intellettuali per il ragionamento.
È stato così che paradossi basati su concetti semplici hanno spesso portato a grandi progressi intellettuali. Talvolta si
è trattato di scoprire nuove regole matematiche o nuove leggi fisiche per rendere accettabili le conclusioni che
all'inizio erano "apparentemente inaccettabili". Altre volte si sono individuati i sottili motivi per cui erano fallaci le
premesse o i ragionamenti "apparentemente accettabili".
Sin dall'inizio della storia scritta si hanno riferimenti ai paradossi: dai paradossi di Zenone alle antinomie di
Immanuel Kant, fino a giungere ai paradossi della meccanica quantistica e della teoria della relatività generale,
l'umanità si è sempre interessata ai paradossi. Un'intera corrente filosofico-religiosa, il buddhismo zen, affida
l'insegnamento della sua dottrina ai koan, indovinelli paradossali.
Paradossi nella vita comune
Molti sono i paradossi in senso letterale, ossia contro l'opinione comune. Ad esempio, si parla molto del
riscaldamento globale e dell'effetto serra. Secondo i modelli climatologici accettati, il riscaldamento dell'Artico, con
il conseguente scioglimento dei ghiacci, causa il raffreddamento dell'Europa. Quindi l'aumento della temperatura a
livello globale genera una diminuzione della stessa a livello locale. Questo è noto come paradosso dell'Artico.
Molti paradossi sono alla base di trame di film famosi, ad esempio nel secondo Terminator, scopriamo che le
macchine hanno origine dai resti del primo terminator inviato, una versione del classico paradosso del nonno. Meno
noto è il paradosso del Comma 22 del codice di guerra dei Klingon, desunto quasi letteralmente dal romanzo Comma
22.
I paradossi dei sensi
Nelle neuroscienze sono noti molti paradossi dovuti all'imperfezione dei sensi, o all'elaborazione dei dati da parte
della mente. Ad esempio, è possibile creare un suono che sembra crescere sempre, mentre in realtà è ciclico. Per il
tatto, basta provare con un compasso a due punte: sul polpastrello si percepiscono due punte separate di pochi
millimetri, mentre sulla schiena se ne percepisce solo una anche a qualche centimetro. Oppure si immergono le mani
in due bacinelle di acqua una calda e una fredda; dopo un paio di minuti si immergono entrambe in una bacinella
Paradosso
2
tiepida, e si avranno sensazioni contrastanti: fredda e calda. Le illusioni ottiche sono un altro esempio di paradossi
sensoriali.
Paradossi statistici
In statistica uno dei fenomeni più strani che si hanno è il paradosso di Simpson, di cui si fa un esempio: su una certa
malattia, l'ospedale X ha il 55% di successi, l'ospedale Y il 60%. Quindi converrebbe operarsi in Y.
Se scomponiamo, a X sono 90% casi gravi, di cui il 50% è risolto (45% del totale), mentre i restanti 10% lievi hanno
il 100% (10% sul totale) di successo. A Y il 40% sono casi lievi, di cui risolvono il 90%, (36%) e nel 60% di casi
gravi il successo è del 40% (24%).
Quindi in realtà conviene sempre operarsi in X.
In pratica, l'interpretazione dei dati è falsata da parametri non considerati.
I paradossi più antichi
Il più antico paradosso si ritiene essere il paradosso di Epimenide, in cui il Cretese Epimenide afferma: "Tutti i
cretesi sono bugiardi". Poiché Epimenide era originario di Creta, la frase è paradossale. A rigor di logica, moderna
ovviamente, questo non è un vero paradosso: detta p la frase di Epimenide, o è vera p o è vera non p. Il contrario di p
è Non tutti i cretesi sono bugiardi, ossia Qualche cretese dice la verità, Epimenide non è uno di quelli, e la frase è
falsa. Tuttavia la negazione dei quantificatori non era ben chiara nella logica degli antichi greci. Subito dopo
troviamo i paradossi di Zenone. Un altro famoso paradosso dell'antichità, questo sì irresolubile, è il paradosso di
Protagora, più o meno contemporaneo di Zenone di Elea.
Alcuni paradossi, poi, hanno preceduto di secoli la loro risoluzione: prendiamo ad esempio il paradosso di Zenone
della freccia:
"Il terzo argomento è quello della freccia. Essa infatti appare in movimento ma, in realtà, è immobile: in ogni
istante difatti occuperà solo uno spazio che è pari a quello della sua lunghezza; e poiché il tempo in cui la
freccia si muove è fatta di infiniti istanti, essa sarà immobile in ognuno di essi."
Come si può distinguere la freccia in movimento da quella ferma, e smentire il paradosso? Oggi, ovvero più di due
millenni dopo Zenone, sappiamo che, secondo il principio della relatività ristretta, una freccia in moto rispetto
all'osservatore appare a questi più corta della stessa freccia ferma rispetto all'osservatore.
Classificazione dei paradossi logici
Esistono varie forme di classificazione dei paradossi. Secondo le loro implicazioni, i paradossi si dividono in:
• Positivi a cui si arriva: un esempio ne è la teoria della relatività ristretta. Un paradosso nullo o retorico deriva dal
tipico ragionamento sofista, che dimostra una cosa e il suo contrario, come i già citati paradossi di Zenone. Infine,
i paradossi negativi portano il ragionamento a partire da un'ipotesi alla negazione della stessa, e sono in pratica
una dimostrazione per assurdo della falsità dell'ipotesi di partenza. Di quest'ultimo tipo sono molti teoremi
matematici e fisici, come ad esempio il teorema dell'infinità dei numeri primi o il teorema di Church.
Se invece categorizziamo che cosa ci appare paradossale secondo i nostri sensi, abbiamo i paradossi visivi, auditivi,
tattili, gustativi e olfattivi, più spesso indicati come anomalie o ambiguità, e i paradossi logici e matematici che sono
categoria a sé.
Paradosso
3
Paradossi dell'induzione
Molti ritengono David Hume responsabile di aver introdotto il problema dell'induzione. In realtà, nella versione del
paradosso del sorite, tale problema era noto sin dai tempi di Zenone, vero padre del pensiero paradossale. Il
paradosso del sorite afferma:
"Un granello di sabbia che cade non fa rumore, quindi nemmeno due, e nemmeno tre, e così via. Quindi
nemmeno un mucchio di sabbia che cade fa rumore".
Oppure il suo inverso: se tolgo un granello di sabbia ad un mucchio, è ancora un mucchio, così se ne tolgo due e così
via. Tuttavia 10 granelli non fanno un mucchio. Qual è allora il granello che fa passare da un mucchio ad un
non-mucchio? Anche se questo problema può essere risolto con la logica fuzzy, ponendo una funzione che al variare
dei granelli restituisca un valore compreso tra 0 e 1, ben più difficile è la risoluzione del seguente paradosso:
1 è un numero piccolo
se n è un numero piccolo, allora anche n+1 è un numero piccolo
allora, per l'assioma dell'induzione, ogni numero naturale è piccolo
Questi problemi sono i principali argomenti di discussione dell'epistemologia moderna, che fondamentalmente si
riassumono nella domanda: Quando si può definire vera una teoria?
Non tutto è vero quello che sembra (solito)
A volte il buon senso, anche il buon senso matematico, può farci prendere degli abbagli.
Un esempio lo troviamo nella storiella del tacchino induttivista: un tacchino (americano) aveva imparato che ogni
mattina, più o meno alla stessa ora, il padrone gli portava da mangiare. Diligentemente memorizzava tutte le piccole
differenze, finché, dopo giorni e giorni, poté essere soddisfatto di aver trovato una regola infallibile: tra le nove e le
dieci di mattina arrivava inevitabilmente il cibo. Al passare delle settimane e dei mesi la regola trovò sempre
conferme... fino al giorno del Ringraziamento, quando il tacchino fu calorosamente invitato sulla tavola della
famiglia, come protagonista dell'arrosto tradizionale.
Esempi più matematici, li troviamo nella teoria dei numeri, nello studio della distribuzione dei numeri primi. Dopo la
sconfitta dell'ultimo teorema di Fermat, resta aperta la Congettura di Riemann sulla sua funzione zeta, che collega la
distribuzione dei numeri primi con gli zeri di tale funzione. Finora se ne sono trovati miliardi (letteralmente) che
giacciono sulla retta x=1/2, e la congettura che tutti gli zeri giacciano su questa linea potrebbe essere dunque
accettata come vera. Ma smentite di quello che sembrerebbe evidente sono famose in matematica, e una riguarda
proprio i numeri primi.
La quantità di numeri primi inferiori ad un certo numero, diciamo n, solitamente indicata con
approssimata dalla funzione logaritmo integrale, o Li(n), di Gauss, definita come:
, può essere
.
Questo valore sembra essere sempre maggiore della vera distribuzione dei numeri primi, fino a numeri di centinaia
di cifre.
Tuttavia nel 1914 John Littlewood ha dimostrato invece che
per x intero cambia di segno infinite
volte. Nel 1986 Herman te Riele ha dimostrato addirittura che esistono più 10180 interi consecutivi per cui
non è mai minore di 6,62×10370.
Quindi, nonostante miliardi di esempi a favore, la verità o falsità della congettura (o ipotesi, visto che si pensa
generalmente che sia vera) di Riemann è tuttora in discussione.
Altra paradossale situazione è il teorema di Goodstein: si definisce una particolare funzione iterativa su numeri interi
che inizialmente presenta una crescita esponenziale ma, venendo ridotta ad ogni iterazione di un semplice 1, dopo
innumerevoli iterazioni ritorna a 0. Tornando al teorema, esso ha la caratteristica di non poter essere provato
all'interno degli assiomi di base della teoria dei numeri (Assiomi di Zermelo - Fraenkel), e come previsto dal teorema
Paradosso
di incompletezza di Gödel, per la sua dimostrazione occorre aggiungere un assioma: l'esistenza dei cardinali
transfiniti.
Il paradosso della chiaroveggenza
Uno dei paradossi più intriganti della teoria dei giochi è il paradosso di Newcomb, che riguarda il principio di
dominanza, ed è il seguente. Supponiamo che esista un oracolo, che sostenga di sapere in anticipo quali saranno le
mie decisioni. Egli mette in una busta 1.000.000 €, ma solo se sceglierò solo questa, altrimenti la lascia vuota. Poi
mi vengono presentate due buste, una con sicuramente 1.000 €, e l'altra è quella dell'oracolo. Posso scegliere se
prendere una sola busta o tutte e due. Se applico il principio di massima utilità, mi conviene prendere solo la
seconda, e mi fido dell'oracolo. Se applico il principio di minima perdita, mi conviene sceglierle entrambe: se
l'oracolo ha ragione, prendo almeno 1.000 €, se sbaglia 1.001.000 €. Il paradosso nasce dalla visione delle cose: se
la scelta dell'oracolo si considera già effettuata al momento della scelta (ovvero l'oracolo è un ciarlatano che tira ad
indovinare), applichiamo il principio di dominanza, e conviene prendere sempre entrambe le buste. Se invece
ammettiamo che il comportamento dell'oracolo sia influenzato dalla nostra scelta, (ovvero che l'oracolo sia realmente
preveggente) ammettiamo il principio di utilità e conviene prendere solo la prima. Uno dei due principi non è quindi
razionale, oppure non esiste la preveggenza. Si possono trovare argomenti a favore di tutte e due le ipotesi. Tra
l'altro, basta che l'oracolo indovini più del 50% delle volte.
Diversamente, la chiaroveggenza potrebbe anche essere dannosa: supponiamo che ci sia una gara automobilistica in
cui valga la regola "Perde chi sterza per primo". Due macchine sono lanciate l'una contro l'altra: se uno dei due è
chiaroveggente, la strategia migliore per l'altro è non sterzare: il veggente lo sa, e quindi per evitare l'impatto sterzerà
per primo.
Lista dei paradossi più noti
Questi sono alcuni paradossi fondamentali:
•
•
•
•
•
•
•
•
•
Paradossi di Zenone (esiste il movimento? : Achille e la tartaruga - La freccia)
Paradosso del mentitore (che cosa è la "verità"?)
Paradosso di Moore (che cosa significa "sapere"?)
Paradossi dell'infinito
Paradosso dell'ipergioco
Paradosso dei gemelli (dalla teoria della relatività)
Paradosso di Russell (o del barbiere)
Antinomie kantiane
Paradosso di d'Alembert
Bibliografia
•
•
•
•
•
•
•
•
Casati, R. e Varzi, A. C., Semplicità insormontabili - 39 storie filosofiche, Roma-Bari, Laterza, 2004.
Clark, M., I paradossi dalla A alla Z, Milano, Cortina, 2004.
Sorensen, R., A Brief History of the Paradox, Oxford, Oxford University Press, 2003.
Rescher, N., Paradoxes: Their Roots, Range, and Resolution, La Salle (IL), Open Court, 2001.
Odifreddi, P., C'era una volta un paradosso - Storie di illusioni e verità rovesciate, Torino, Einaudi, 2001.
Falletta, N., Il libro dei paradossi, Milano, Longanesi & C., 2001.
Sainsbury, R. M., Paradoxes, Cambridge, Cambridge University Press, 1988.
te Riele, H.J.J., On the sign of the difference pi(x) - li(x), Math. Comp. 48, 1987 pp. 323-328
4
Paradosso
5
Voci correlate
•
•
•
•
•
•
Antinomia
Dilemma
Logica
Matematica
Ossimoro
Sillogismo
Altri progetti
•
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Paradox
Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/paradosso
•
Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Paradosso
Collegamenti esterni
• Paradossi [1]
Note
[1] http:/ / ulisse. sissa. it/ biblioteca/ saggio/ 2004/ Ubib040301s001/ at_download/ file/ Ubib040301s001. pdf
Elenco di paradossi
Questa pagina contiene un elenco di paradossi.
A
•
•
•
•
•
•
•
•
Paradosso di Abilene
Paradosso di Achille e la tartaruga
Paradosso dell'Alabama
Paradosso dell'area scomparsa
Teorema dell'impossibilità di Arrow
Paradosso dell'ascensore
Paradosso asiatico
Paradosso dell'avvocato
B
•
•
•
•
•
•
•
•
•
Paradosso di Banach-Tarski
Paradosso del barbiere
Paradosso della bella addormentata
Paradosso di Berry
Paradosso di Bertrand
Paradosso del bibliotecario
Paradosso di Borel
Paradosso di Braess
Paradosso di Burali-Forti
Elenco di paradossi
• Paradosso di Buridano
• Paradosso delle due buste
C
•
•
•
•
•
•
•
Paradossi dei cavalli
Paradosso del Comma 22
Paradosso del compleanno
Paradosso di Condorcet
Paradosso del controllo
Paradosso dei corvi
Paradosso di Curry
D
• Paradosso di D'Alembert
• Paradosso Downs-Thomson
E
•
•
•
•
•
Paradosso dell'edonismo
Paradosso Einstein-Podolsky-Rosen
Paradosso di Epicuro
Paradosso di Epimenide (Paradosso del mentitore)
Esperimento immaginato
F
• Paradosso di Fermi
G
•
•
•
•
•
•
•
•
Paradosso dei due gelatai
Paradosso di Galileo
Paradosso del gatto di Schrödinger
Paradosso dei gemelli
Paradosso di Gibbs
Paradosso di Giffen
Limite di Greisen-Zatsepin-Kuzmin
Paradosso dell'eterologicità di Grelling-Nelson
6
Elenco di paradossi
H
• Paradosso di Hausdorff
• Paradosso del Grand Hotel di Hilbert
I
•
•
•
•
Paradosso dell'impiccagione imprevedibile
Paradosso dell'introduzione
Paradosso idrodinamico
Paradosso idrostatico
K
• Rompicapo della tossina di Kavka
L
• Paradosso della linea scomparsa
• Paradosso di Loschmidt
• Paradosso dei neonati sottopeso
M
•
•
•
•
•
•
Paradosso del mentitore (Paradosso di Epimenide)
Problema di Monty Hall
Paradosso di Moore
Effetto Mpemba
Paradosso del mucchio (Paradosso del sorite)
Paradosso della mera
N
•
•
•
•
Paradosso di Newcomb
Paradosso del nonno
Paradosso dei numeri interessanti
Paradosso della negazione applicata a sé stessa
O
• Paradosso di Olbers
• Paradosso dell'onnipotenza
• Paradosso dell'onniscienza
7
Elenco di paradossi
P
•
•
•
•
Paradosso di Pigou-Knight-Downs
Paradosso delle premesse inconsistenti
Paradosso della predestinazione
Paradosso di Protagora
Q
• Paradosso di Quine
R
• Paradosso di Richard
• Paradosso di Russell
S
• Paradosso di San Pietroburgo
•
•
•
•
•
•
Paradosso di Sen
Paradosso di Simpson
Paradosso di Smale
Paradosso del sorite (paradosso del mucchio)
Paradosso della spartizione
Paradosso di Smiraglia
T
•
•
•
•
Paradosso della nave di Teseo
Paradosso teologico
Paradosso della tromba di Torricelli
Paradosso delle tre carte
V
• Paradosso della votazione
8
Elenco di paradossi
U
• Paradosso dell'uovo e della gallina
W
• Fenomeno di Will Rogers
Z
• Paradossi di Zenone
Voci correlate
• Indici per la matematica
• Categoria:Paradossi
Algebra di Boole
In matematica, informatica ed elettronica, l'algebra di Boole, anche detta algebra booleana o reticolo booleano, è
un ramo dell'algebra astratta che comprende tutte le algebre che operano con i soli valori di verità 0 o 1, detti
variabili booleane o logiche. La struttura algebrica studiata dall'algebra booleana è finalizzata all'elaborazione di
espressioni nell'ambito del calcolo proposizionale.
Essendo un reticolo dotato di particolari proprietà, l'algebra booleana risulta criptomorfa, cioè associata
biunivocamente e in modo da risultare logicamente equivalente, ad un insieme parzialmente ordinato reticolato. Ogni
algebra booleana risulta criptomorfa ad un particolare tipo di anello, chiamato anello booleano.
Tale algebra permette di definire gli operatori logici AND, OR e NOT, la cui combinazione permette di sviluppare
qualsiasi funzione logica e consente di trattare in termini esclusivamente algebrici le operazioni insiemistiche
dell'intersezione, dell'unione e della complementazione, oltre a questioni riguardanti singoli bit 0 e 1, sequenze
binarie, matrici binarie e diverse altre funzioni binarie.
L'algebra di Boole, sviluppata nel 1854 da George Boole, un matematico inglese dell'University College di Cork,
assume un ruolo importante in vari ambiti, in particolare nella logica matematica e nell'elettronica digitale, dove
nella progettazione dei circuiti elettronici riveste grande importanza il teorema di Shannon, introdotto da Claude
Shannon intorno al 1940 e utilizzato per scomporre una funzione booleana complessa in funzioni più semplici, o per
ottenere un'espressione canonica da una tabella della verità o da un'espressione non canonica.
Definizione
L'algebra di Boole tratta l'algebra universale dell'algebra a due stati e dei modelli di tale teoria, detti algebre
booleane. L'algebra universale è la famiglia di operazioni su un insieme, detto insieme fondamentale della famiglia
algebrica, che nel caso della struttura algebrica booleana contiene i soli valori 0 e 1.
Il numero degli argomenti che richiede una funzione sull'insieme fondamentale è detto arietà: un'operazione su {0,1}
di arietà n può essere applicata ad ognuno dei 2n possibili valori dei suoi n argomenti. Per ogni scelta di argomenti
l'operazione può produrre i soli risultati 0 e 1, donde ci sono 22n operazioni di n argomenti.
L'algebra a due stati possiede due operazioni con nessun argomento, i valori 0 e 1, e quattro operazioni con un solo
argomento: due operazioni costanti, l'identità e la negazione, ques'tultima da come risultato 0 se l'argomento è 1 e
viceversa. Vi sono poi sedici operazioni binarie: due costanti, due che danno come risultato rispettivamente solo il
primo argomento e solo il secondo, la congiunzione, che produce 1 se entrambi gli argomenti sono 1 e dà 0
9
Algebra di Boole
10
altrimenti; la disgiunzione, che produce 0 se entrambi gli argomenti sono 0 e dà 1 altrimenti; e così via. Il numero di
operazioni con n+1 argomenti è il quadrato del numero delle operazioni con n argomenti, sicché vi sono 162 = 256
operazioni ternarie, 2562 = 65.536 operazioni quaterniarie e così via.
Una famiglia, detta anche indice, è indicizzata da un insieme di indici, che nel caso di una famiglia di operazioni
costituenti un'algebra sono detti simboli dell'operazione e costituiscono il linguaggio dell'algebra in oggetto.
L'operazione indicizzata da un dato simbolo è detta interpretazione di tale simbolo, ed ogni simbolo definisce il
numero univoco di argomenti delle rispettive interpretazioni possibili. Nel caso considerato vi è una corrispondenza
biunivoca tra simbolo e interpretazione. L'algebra di Boole ha 22n simboli, e dunque lo stesso numero di
operazioni, detti simboli di operazione booleana; anche se poche operazioni hanno simboli convenzionali, quali ¬
per la negazione, ∧ per la congiunzione e ∨ per la disugiunzione. In generale si indica con nfi l'i-esimo simbolo di n
argomenti.
Basi
Una base è un insieme di operazioni la cui composizione permette di ottenere tutte le operazioni appartenenti
all'algebra. Le tre principali basi usate nell'algebra booleana sono:
• Il reticolo, una base logica introdotta nel diciannovesimo secolo da George Boole, Charles Sanders Peirce e altri
matematici che cercavano una formalizzazione algebrica dei processi logici.
• L'anello booleano, una base aritmetica introdotta nel ventesimo secolo da Ivan Ivanovich Zhegalkin e Marshall
Stone che proviene dall'algebra astratta.
• La base NAND, originata dal fatto che tramite l'operazione di NAND è possibile ottenere tutte le operazioni
sull'insieme {0,1}. Tale base è utilizzata in particolare nella configurazione dei circuiti logici in elettronica
digitale.
Gli elementi comuni a reticolo e anello sono le costanti 0 e 1 ed un'operazione binaria associativa e commutativa,
che nella base del reticolo è detta incontro, dal termine inglese meet, e denotata tra due elementi x e y dal simbolo
x∧y, mentre nella base dell'anello è detta moltiplicazione e denotata xy. La base del reticolo ha inoltre le operazioni
algebriche di unione x∨y e complemento ¬x, mentre la base dell'anello ha l'ulteriore operazione aritmetica di
addizione x⊕y o x+y.
Reticolo
Nella base del reticolo ad un'algebra booleana (A,
,
) si associa un insieme parzialmente ordinato (A,
),
definendo:
che è anche equivalente a
È possibile anche associare un'algebra booleana ad un reticolo distributivo (A,
), considerato come insieme
parzialmente ordinato, dotato di elemento minimo 0 e di elemento massimo 1, in cui ogni elemento x ha un
complementare
tale che
e
Qui
e
sono usati per denotare l'inf ed il sup di due elementi. Se i complementi esistono, allora sono unici.
Algebra di Boole
11
Anello
La base dell'anello della generica algebra booleana (A, , ) è definita come (A, +, *), definendo a + b := (a
b)
(b
a ). In tale anello l'elemento neutro per la somma coincide con lo 0 dell'algebra booleana, mentre
l'elemento neutro della moltiplicazione è l'elemento 1 dell'algebra booleana. Questo anello ha la proprietà che a * a =
a per ogni a in A; gli anelli con questa proprietà sono chiamati anelli booleani.
Viceversa, assegnato un anello booleano A, possiamo trasformarlo in un'algebra booleana definendo x
y=x+y−
x yex
y = x y. Poiché queste due operazioni sono l'una l'inversa dell'altra, possiamo affermare che ogni
anello booleano è criptomorfo di un'algebra booleana e viceversa. Inoltre, una funzione f : A
B è un
omomorfismo tra algebre booleane se e soltanto se è un omomorfismo tra anelli booleani. La categoria degli anelli
booleani e delle algebre booleane sono equivalenti.
Un anello ideale dell'algebra booleana A è un sottoinsieme I tale che per ogni x, y in I si ha x
y in I e per ogni a in
Aa
x in I. Questa nozione di ideale coincide con la nozione di anello ideale negli anelli booleani. Un ideale I di A
è detto primo se I
A e se a
b in I implica sempre a in I o b in I. Un ideale I di A è detto massimale se I
Ae
se l'unico ideale proprio contenente I è A stesso. Questa notazione coincide con la notazione teorica del ideale primo
e ideale massimale nell'anello booleano A.
Il duale di un ideale è un filtro. Un filtro dell'algebra booleana A è un sottoinsieme F tale che per ogni x, y in F si ha
x
y in F e per ogni a in A se a
x = a allora a è in F.
L'operazione di complementazione * applicata ai sottoinsiemi manda dunque gli ideali in filtri e viceversa: se B è
un'algebra booleana e
un suo ideale (proprio), allora
è il filtro (proprio) duale di I. Se
invece
è un filtro (proprio),
l'ideale (proprio) duale di F.
Sheffer stroke
La base Sheffer stroke o NAND si basa sulle operazioni NOT e AND, tramite le quali è possibile ottenere tutte le
operazioni booleane. Un'algebra booleana può essere definita sia da NOT e AND che da NOT e OR, essendo
possibile definire OR attraverso NOT e AND così come AND attraverso NOT e OR:
La collezione di tutti i sottoinsiemi di un dato insieme, ovvero l'insieme delle parti o insieme ambiente, munita delle
operazioni di unione, intersezione e complementazione di insiemi, che giocano rispettivamente il ruolo di OR, AND
e NOT, costituisce un'algebra booleana.
Più formalmente, se B è un insieme formato da almeno 2 elementi, l'algebra booleana avente B come supporto è la
struttura algebrica costituita da B, da due operazioni binarie su B, OR e AND, da un'operazione unaria NOT su B e
dall'elemento 0 di B, i quali godono delle seguenti proprietà:
• Simmetria di AND:
• Simmetria di OR:
• Involuzione di NOT:
• Leggi di De Morgan:
L'insieme B è inoltre limitato inferiormente, essendo:
L'elemento 1 è definito come la negazione, o il complementare, dello 0: 1 := NOT(0). L'insieme B è dunque limitato
superiormente, essendo:
ed in particolare
0 AND 1 = 0 ; 0 OR 1 = 1
Algebra di Boole
Si definisce inoltre, come operazione derivata dalle precedenti, l'operatore binario OR esclusivo, denotato XOR:
In questa algebra all'operatore XOR corrisponde la differenza simmetrica:
In elettronica la porta logica NAND è costituita da n ingressi e un'uscita che si porta a livello 0 solo se gli n ingressi
si portano a livello 1. È corrispondente alla connessione in serie di una porta AND e di una NOT.
Operatori booleani
Gli operatori dell'algebra booleana possono essere rappresentati in vari modi. Spesso sono scritti semplicemente
come AND, OR e NOT. Nella descrizione dei circuiti, possono anche essere usati NAND (NOT AND), NOR (NOT
OR) e XOR (OR esclusivo).
Esistono diverse simbologie per rappresentare gli operatori, scelte in base al campo in cui si lavora: i matematici
usano spesso il simbolo + per l'OR, e × per l'AND, in quanto per alcuni versi questi operatori lavorano in modo
analogo alla somma e alla moltiplicazione. La negazione NOT viene rappresentata spesso da una linea disegnata
sopra l'argomento della negazione, cioè dell'espressione che deve essere negata. Oppure in informatica si utilizza il
simbolo | o || per l'OR, & o && per l'AND, e ~ per NOT (es. A OR B AND NOT C equivale a A|B & ~C).
Nella progettazione di circuiti elettronici, vengono utilizzati anche gli operatori brevi NAND (AND negato), NOR
(OR negato) e XNOR (XOR negato): questi operatori, come XOR, sono delle combinazioni dei tre operatori base e
vengono usati solo per rendere la notazione più semplice.
Operatori:
•
•
•
•
•
•
•
NOT - simboli alternativi: x, ~, ¬, !
AND - simboli alternativi: *, , &, BUT (usato nella logica booleana insieme al NOT)
OR - simboli alternativi: +, |,
XOR - simboli alternativi: , +, ⊕, ∨, ^, EOR, orr
NAND - simbolo alternativo: ↑
NOR - simbolo alternativo: ↓
XNOR
Valori:
• vero - simboli alternativi: true, 1, ON, SI (YES)
• falso - simboli alternativi: false, 0, OFF, NO
In elettronica digitale viene definito vero un bit 1, sia in Input che in Output, che di solito assume il valore di 5 V,
mentre viene definito falso un bit 0, sia in Input che in Output, che assume il valore di 0 V.
Di seguito sono indicati gli operatori più comuni e le rispettive porte logiche:
NOT
L'operatore NOT restituisce il valore inverso a quello in entrata. Una concatenazione di NOT è semplificabile con un
solo NOT in caso di dispari ripetizioni o con nessuno nel caso di pari.
12
Algebra di Boole
13
A NOT A
0
1
1
0
Spesso, al fine di semplificare espressioni complesse, si usano operatori brevi che uniscono l'operazione di NOT ad
altre: questi operatori sono NOR (OR + NOT), NAND (AND + NOT), XNOR (XOR + NOT). La negazione, in
questi casi, viene applicata dopo il risultato dell'operatore principale (OR, AND, XOR).
Il simbolo di una porta NOT è
OR
L'operazione logica OR restituisce 1 se almeno uno degli elementi è 1, mentre restituisce 0 in tutti gli altri casi. Tale
operazione è anche detta somma logica.
A B A OR B
0 0
0
0 1
1
1 0
1
1 1
1
Nella teoria degli insiemi corrisponde all'unione.
Il simbolo di una porta OR è:
AND
L'operazione AND dà come valore 1 se tutti gli operandi hanno valore 1, mentre restituisce 0 in tutti gli altri casi.
Tale operazione è anche detta prodotto logico.
A B A AND B
0 0
0
0 1
0
1 0
0
1 1
1
È possibile realizzare un'operazione logica AND con un numero di proposizioni arbitrarie concatenando varie AND
a due ingressi, per esempio:
Nei circuiti digitali, la porta logica AND è un meccanismo comune per avere un segnale di vero se un certo numero
di altri segnali sono tutti veri.
Nella teoria degli insiemi corrisponde all'intersezione.
Il simbolo di una porta AND è:
Algebra di Boole
14
XOR
L'operatore XOR, detto anche EX-OR, OR esclusivo o somma modulo 2, restituisce 1 se e solo se la somma degli
operandi uguali ad 1 è dispari, mentre restituisce 0 in tutti gli altri casi.
A B A XOR B
0 0
0
0 1
1
1 0
1
1 1
0
Nella teoria degli insiemi corrisponde alla differenza simmetrica. Per passare nella forma canonica SP (somma di
prodotti) basta applicare la regola:
A⊕B
dove ⊕ è il simbolo di XOR.
Il simbolo di una porta XOR è:
Buffer
Buffer è la negazione del risultato dell'operazione NOT; restituisce il valore uguale a quello in entrata. Il Buffer non
è un vero e proprio operatore, poiché in realtà non manipola l'informazione che riceve, bensì la lascia passare
invariata; il Buffer dunque è semplificabile con un collegamento privo di operatori.
A Buffer A
0
0
1
1
Il simbolo di una porta Buffer è:
composta da un NOT in serie ad un altro NOT.
NOR
L'operatore NOR, la negazione del risultato dell'operazione OR, restituisce 1 se e solo se tutti gli elementi sono 0,
mentre restituisce 0 in tutti gli altri casi.
Algebra di Boole
15
A B A NOR B
0 0
1
0 1
0
1 0
0
1 1
0
Il simbolo di una porta NOR è:
composta da un NOT in serie ad un OR.
NAND
L'operatore NAND, la negazione del risultato dell'operazione AND, restituisce 0 se e solo se tutti gli elementi sono
1, mentre restituisce 1 in tutti gli altri casi.
A B A NAND B
0 0
1
0 1
1
1 0
1
1 1
0
Il simbolo di una porta NAND è:
composta da un NOT in serie ad un AND.
XNOR
L'operatore XNOR, detto anche EX-NOR, è la negazione del risultato dell'operazione XOR; nella sua versione a due
elementi restituisce 1 se tutti gli elementi sono uguali a 1 oppure se tutti gli elementi sono uguali a 0.
A B A XNOR B
Il simbolo di una porta XNOR è:
composta da un NOT in serie ad un XOR.
0 0
1
0 1
0
1 0
0
1 1
1
Algebra di Boole
16
Esempi
Questa algebra ha applicazioni nella logica, dove 0 è interpretato come "falso", 1 come vero, è OR, è AND e
è "NOT". Le espressioni che coinvolgono le variabili e le operazioni booleane rappresentano forme dichiarative;
due espressioni possono essere equivalenti utilizzando i suddetti assiomi se e soltanto se le forme dichiarative
corrispondenti sono logicamente equivalenti. L'algebra booleana binaria, inoltre, è usata per il disegno di circuiti
nell'ingegneria elettronica; qui 0 e 1 rappresentano le due condizioni differenti di un bit in un circuito digitale, in
genere bassa e alta tensione. I circuiti sono descritti da espressioni che contengono delle variabili e due espressioni
sono uguali per tutti i valori delle variabili se e soltanto se i circuiti corrispondenti hanno la stessa funzione di
trasferimento. Ogni combinazione dei segnali in ingresso in uscita dal componente può essere rappresentata da
un'adeguata espressione booleana
L'algebra booleana a due stati è inoltre importante nella teoria generale delle algebre booleane, perché un'equazione
che coinvolge parecchie variabili è generalmente vera in ogni algebra booleana se e soltanto se è vera nell'algebra
booleana a due stati. Ciò può, per esempio, essere usato per indicare che le seguenti leggi ( teoremi di consenso )
sono generalmente valide in ogni algebra booleana:
• Il raggruppamento di un generico insieme S, forma un'algebra booleana con le due operazioni = unione e
intersezione. Il più piccolo elemento 0 è l'insieme vuoto ed il più grande elemento 1 è l'insieme S stesso.
=
• L'insieme di tutti i sottoinsiemi di un insieme S che sono limitati è un'algebra booleana.
• Per ogni numero naturale n, l'insieme di tutti i divisori positivi di n forma un reticolo distributivo se scriviamo
per a divide b. Questo reticolo è un'algebra booleana se e soltanto se per ogni n non vi sono divisori
quadrati. Il più piccolo elemento,che in generale indichiamo con lo 0, in questa algebra booleana è il numero
naturale 1; mentre l'elemento che usualmente indichiamo con l'1 in questi insiemi è l'elemento "n".
• Altri esempi di algebre booleane sono dati dagli spazi topologici: se X è uno spazio topologico, allora l'insieme di
tutti i sottoinsiemi di X che siano aperti o chiusi formano un'algebra booleana con le operazioni = unione e
= intersezione.
• Se R è un anello arbitrario dove è definito un insieme idempotente tipo:
A = { a in R : a2 = a e a x = x a per ogni x in R }
L'insieme A diventa un'algebra booleana con le operazioni a
b = a + b − a b ed a
b = a b.
Omomorfismi ed isomorfismi
Un omomorfismo tra due algebre booleane A e B è una funzione f: A
1.
2.
3.
4.
f( a
b ) = f( a )
f( a
b ) = f( a )
f(0) = 0
f(1) = 1
B tale che per ogni a, b in A:
f( b )
f( b )
Da queste proprietà segue anche f( a) = f(a) per ogni a in A. Ogni algebra booleana, con la definizione di
omomorfismo, forma una categoria. Un isomorfismo da A su B è un omomorfismo da A su B che è biiettivo.
L'inverso di un isomorfismo è ancora un isomorfismo, e le due algebre booleane A e B si dicono isomorfe. Dal punto
di vista della teoria dell'algebra booleana, due algebre booleane isomorfe non sono distinguibili, ma differiscono
soltanto nella notazione dei loro elementi.
Algebra di Boole
Espressioni booleane
All'interno di ciascuna algebra di Boole, dato un insieme di variabili e le operazioni correlate, è possibile definire
delle espressioni che vengono ad assumere un determinato valore ottenibile anche sotto forme diverse. Possono
esistere cioè delle espressioni che, pur essendo differenti, si rivelino equivalenti. Oltre al fatto che le espressioni
booleane assumono una particolare importanza per quanto riguarda il calcolo proposizionale, in cui le variabili sono
proposizioni legate tramite congiunzioni, disgiunzioni, negazioni ed altre operazioni più complesse, possono esistere
moltissime altre espressioni, accomunate sempre dalle proprietà e dagli assiomi booleani, nelle quali si sostituisce
spesso l'operazione + (comunemente detta somma) con ∨ e * (comunemente detta prodotto) con ∧ e in cui la
complementazione è indicata col simbolo ' .
Per poter presentare nel modo più efficiente una espressione booleana, la si riduce in somma di prodotti
fondamentali o forma normale disgiuntiva. Un prodotto fondamentale è un prodotto in cui ciascuna variabile, o il suo
complemento, appaia una sola volta e rigorosamente fuori da parentesi o complementazioni complesse.
Ad esempio, date le variabili x, y, z all'interno di un'algebra di Boole, sono prodotti fondamentali
• P(x,y,z) = xy
• P(x,y,z) = x'yz'
Mentre non sono prodotti fondamentali
• yyz
• yy'z
• (xy)'
È così possibile avere una somma di prodotti fondamentali, forma in cui ogni espressione può essere ridotta, ma che
non è unica. Un esempio è: xy + xz + z'. Nel momento in cui ogni singola variabile, o il suo complemento, siano
contenuti in tutti i prodotti fondamentali della forma normale disgiuntiva, si ha allora una somma di prodotti
fondamentali completa o forma normale disgiuntiva completa. Tale scrittura è unica, pertanto se due espressioni
sono equivalenti avranno la stessa forma normale disgiuntiva completa.
Se si desidera invece che un'espressione sia scritta nel modo più corto possibile, allora la si esprime in somma di
implicanti prime o minimali (Minimizzazione di Quine-McQluskey). Un'implicante prima (o minimale) rispetto a
un'espressione è un prodotto fondamentale che non altera l'espressione se sommato per intero ad essa, cioè restituisce
un risultato equivalente a quella iniziale; sommando un prodotto strettamente contenuto nell'implicante, tuttavia, non
si ottiene un'equivalenza.
Per individuare tutte le implicanti prime, esistono varie tecniche, tra cui il metodo del consenso, che si basa
sull'applicazione ciclica delle proprietà di assorbimento, idempotenza, involuttività e di De Morgan accompagnate ad
ogni passo dall'opportuna addizione di un consenso. Dati due prodotti fondamentali, se solo e solo se una variabile
appare in uno di essi non negata e nell'altro negata chiamiamo consenso il risultato della moltiplicazione delle
restanti variabili. Ad esempio:
• dati P = xyz, Q = x'z il consenso sarà C = yzz = yz
• dati P = xy' Q= xy il consenso sarà C = xx = x
• dati P = xyz e Q = x'yz' non esiste consenso, in quanto due diverse variabili appaiono una volta negate e una volta
no.
La somma di implicanti prime è unica, pertanto due espressioni equivalenti avranno la stessa. Nel momento in cui,
completando ogni singola implicante prima, l'apporto all'espressione di una o più di esse è inutile in quanto
contenuta nelle altre, la si può eliminare ottenendo la più essenziale delle scritture, la forma minimale. Essa, pur
essendo comoda, ha l'inconveniente di non essere unica, e dunque di non consentire l'individuazione di equivalenze
tra più espressioni.
17
Algebra di Boole
Rappresentazione delle algebre booleane
Si può dimostrare che ogni reticolo booleano finito è isomorfo al reticolo booleano di tutti i sottoinsiemi di un
insieme finito. Di conseguenza, il numero di elementi di ogni reticolo booleano finito ha un sostegno che contiene un
numero di elementi uguale ad una potenza di 2.
Marshall Stone ha enunciato il celebre teorema di rappresentazione per le algebre booleane dimostrando che ogni
algebra booleana "A" è isomorfa a tutte le algebre booleane aperte-chiuse in un certo spazio topologico, detto
compatto non connesso di Hausdorff
Voci correlate
•
•
•
•
•
•
•
06-XX, sezione primaria dello schema di classificazione MSC 2000
Algebra di insiemi
Diagramma di Venn
Forma canonica
Funzione booleana
Mappa di Karnaugh
Porta logica
•
•
•
•
•
•
•
Sistema formale
Sistema numerico binario
Tabella della verità
Teorema dell'assorbimento
Teorema di Shannon (elettronica)
Teoremi di De Morgan
Progetto:Matematica/Elenco di voci sull'algebra booleana
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:XNOR
gates
Collegamenti esterni
• Panoramica ed esempi sulle Operazioni Booleane [1]
Note
[1] http:/ / portalesapere. altervista. org/ viewtopic. php?topic=Algebra-di-Boole
18
Antinomie kantiane
Antinomie kantiane
Le antinomie kantiane si riferiscono ad "antinomia" (dal greco αντι, preposizione che indica una contrapposizione,
e νομος, legge), un particolare tipo di ragionamento che indica la compresenza di due affermazioni contraddittorie,
ciascuna delle quali in confronto all'altra potrebbe esser vera o falsa. In questa situazione non è ovviamente possibile
applicare il principio di non-contraddizione. Kant è stato il primo ad applicare la parola "antinomia" nel linguaggio
filosofico.[1]
La Dialettica trascendentale
Kant tratta delle antinomie [2] nella Critica della ragion pura e più precisamente nella critica della "Cosmologia
razionale" [3] contenuta nella Dialettica trascendentale dove il filosofo tedesco intende motivare la necessità profonda
che spinge l'uomo ad indagare su argomenti che vanno oltre l'esperienza tramite ragionamenti fallaci. Ciò è infatti
dovuto al desiderio innato della mente umana che la spinge a voler trovare un sapere totale della realtà mentre la sua
conoscenza non può andare oltre i limiti della contingente esperienza sensibile. Questo esigenza di totalità si esprime
in tre idee che non hanno un reale contenuto empirico ma che esprimono soltanto un bisogno metafisico di totalità
che non potrà essere soddisfatto.
• idea dell'anima: intesa come una totalità dei fenomeni interni;
• idea del mondo (o cosmo): inteso come totalità dei fenomeni esterni;
• idea di Dio: come totalità di tutte le totalità e fondamento di ogni cosa.
A ciascuna di queste tre idee viene associata una presunta scienza che, procedendo erroneamente oltre il limiti del
pensiero, giunge a conclusioni sbagliate.
• L'anima è studiata dalla psicologia razionale dove si dimostra l'impossibilità di conoscerla scientificamente;
• Dio è invece l'oggetto di studio della teologia razionale che non potrà mai dimostrarlo razionalmente;
• la cosmologia razionale.
La cosmologia razionale
Il mondo infine, come la totalità dei fenomeni esterni, è studiato dalla cosmologia razionale che pretende di riuscire a
spiegare il cosmo nella sua totalità, cosa impossibile a partire dal fatto che è impossibile avere un'esperienza di tutti i
fenomeni. Pertanto i metafisici, quando tentano di spiegare l'universo, cadono in procedimenti razionali
contraddittori in se stessi: le antinomie, cioè due ragionamenti egualmente veri e falsi poiché, mancando un criterio
valido basato sull'esperienza, è impossibile operare una scelta.
Prima antinomia
Finito <--> Infinito
• Tesi: il mondo ha un inizio nel tempo e, nello spazio, è chiuso dentro limiti.
• Antitesi: Il mondo è infinito sia nel tempo che nello spazio.
Nella dimostrazione Kant fa riferimento alla categoria della qualità.[4]
Seconda antinomia.
Divisibilità <--> Indivisibilità
• Tesi: ciascuna cosa è composta da parti semplici che costituiscono altre cose composte da parti semplici.
• Antitesi: non esiste nulla di semplice, ogni cosa è complessa.
Nella dimostrazione Kant fa riferimento alla categoria della quantità.
19
Antinomie kantiane
Terza antinomia
Libertà <--> Causalità
• Tesi: La causalità secondo le leggi della natura non è la sola da cui possono essere derivati tutti i fenomeni del
mondo. È necessario ammettere per la spiegazione di essi anche una causalità per la libertà.
• Antitesi: Nel mondo non c'è nessuna libertà, ma tutto accade unicamente secondo leggi della natura.
Nella dimostrazione Kant fa riferimento alla categoria della relazione
Quarta antinomia
Dio causa prima <--> Natura
• Tesi: esiste un essere necessario che è causa del mondo.
• Antitesi: non esiste alcun essere necessario, né nel mondo né fuori dal mondo che sia causa di esso.
Nella dimostrazione Kant fa riferimento alla categoria della modalità.
Le antinomie rapportate al pensiero scientifico moderno
Prima antinomia
La moderna cosmologia si ritrova nella tesi della prima antinomia con la teoria del Big Bang che ipotizza la
formazione iniziale dell'universo dal nulla.
Invece l'antitesi vale in alcune altre ipotesi cosmologiche, ad esempio nel modello inflazionario o nella teoria dello
stato stazionario che sono alternativi alle ipotesi che assumono un Big Bang nell'origine dell'universo. La sua base
filosofica è il cosiddetto Principio cosmologico perfetto, che afferma che il nostro punto di osservazione
dell'Universo non sarebbe per nulla particolare, non solo dal punto di vista della posizione, ma anche da quello
temporale: non solo l'uomo, la Terra, il Sole o la Via Lattea non sono al centro dell'Universo (né in alcun'altra
posizione privilegiata), ma su scala cosmologica anche l'epoca in cui viviamo non sarebbe significativamente
differente da ogni altra. L'universo su grande scala sarebbe quindi eterno ed immutabile.
Seconda antinomia
La fisica delle particelle è ancora alla ricerca dei costituenti ultimi della materia, e tuttavia anche questi, per via delle
proprietà della meccanica quantistica, possono essere interpretati come sovrapposizioni di più stati o particelle. Altri
modelli, come la teoria delle stringhe ritornano alla teoria del continuo, ritenendo le particelle "proiezioni" in 3
dimensioni delle stringhe, definite continue, che ne hanno invece 10 o 11. Altre teorie ancora, come la gravitazione
quantistica a loop, ritengono invece che esistano granelli indivisibili (quanti) persino dello spaziotempo.
Terza antinomia
Sebbene la teoria delle variabili nascoste nella meccanica quantistica sia ormai screditata, e quindi varrebbe la tesi
della terza antinomia, esistono dimostrazioni di come il comportamento quantistico possa emergere da sistemi
complessi e non lineari, anche se nessuno sa come darne prova sperimentale.
Quarta antinomia
I lavori di John Conway sui numeri surreali e la prova ontologica di Kurt Gödel sono esempi di come sia possibile
"inserire matematicamente" una causa prima a conferma della tesi della quarta antinomia.
20
Antinomie kantiane
Note
[1] In Enciclopedia Treccani alla voce corrispondente.
[2] Fonti primarie in S. Caramella, Commentari alla ragion pura, Palumbo, Palermo 1956 e C. Luporini, Spazio e materia in Kant, Sansoni,
Firenze 1961
[3] Il termine "razionale" in Kant rimanda alla "ragione" in senso stretto da lui intesa in questa occasione come organo della metafisica.
[4] Posso sostenere che l'universo sia finito poiché posso riferirmi a tutte le mie precedenti esperienze che sono finite. Ma, poiché ogni limite
implica l'esistenza di qualcosa posta al di là del limite stesso, posso invece sostenere che l'universo sia infinito. Ma nessuno può dire di avere
empiricamente raggiunto il limite estremo, il confine ultimo dell'universo. Lo stesso schema di ragionamento (finito <--> infinito) si applica
alle altre antinomie utilizzando diverse categorie usate qui impropriamente perché esse valgono solo per l'intelletto che si applica
all'esperienza limitata.
Bibliografia
•
•
•
•
•
Nicola Abbagnano; Giovanni Fornero, Itinerari di filosofia, Torino, Paravia, 2003.
C. Cantoni, Emanuele Kant, Hoepli, Milano, 1879-1884, 3 voll.
F. Paulsen, I.Kant, trad. it. a cura di A. B. Sesta, Sandron, Milano 1920
G. Simmel, Kant, trad.it. Cedam, Padova, 1920
E. P. Lamanna, Kant, Milano 1925
Voci correlate
• Critica della ragion pura
• Immanuel Kant
21
Aristotele
22
Aristotele
Aristotele (in greco: Ἀριστοτέλης, Aristotéles; Stagira, 384 a.C. o 383 a.C.[1]
– Calcide, 322 a.C.) è stato uno scienziato e filosofo greco antico, noto come il
"filosofo dell'immanenza". È considerato una delle menti filosofiche più
innovative, prolifiche e influenti del mondo antico occidentale, dove era
stimato come l'emblema dell'uomo sapiente per la vastità dei suoi campi di
conoscenza, di cui fu un precursore di scoperte.
Aristotele. Dettaglio dalla Scuola di
Atene di Raffaello Sanzio (1509).
Biografia
Aristotele nacque nel 384/3 a.C. a Stagira, l'attuale Stavro,
città macedone nella penisola Calcidica, situata sulla costa
nord-orientale della Grecia.
Si dice che il padre, Nicomaco, sia vissuto presso Aminta, re
dei Macedoni, prestandogli i servigi di medico e di amico.
Aristotele, come figlio del medico reale, doveva pertanto
risiedere nella capitale del Regno di Macedonia, Pella. Fu
probabilmente per l'attività di assistenza al lavoro del padre
che Aristotele fu avviato alla conoscenza della fisica e della
biologia, aiutandolo nelle dissezioni anatomiche.[2]
Resti delle mura di Stagira
Secondo gli studiosi la biografia di Aristotele può essere
[3]
suddivisa in tre periodi.
Il primo periodo ebbe inizio quando, rimasto orfano in tenera età, dovette trasferirsi dal tutore Prosseno ad Atarneo,
cittadina dell'Asia Minore nella regione della Misia situata nel nord-ovest dell'attuale Turchia, di fronte all'isola di
Lesbo. Prosseno, verso il 367 a.C., lo mandò ad Atene per studiare nell'Accademia fondata da Platone circa vent'anni
Aristotele
23
prima, dove rimarrà fino alla morte del suo maestro. Aristotele non fu dunque mai un cittadino di Atene, ma un
meteco.
Quando il diciassettenne Aristotele entra nell'Accademia, Platone è a Siracusa da un anno, su invito di Dione,
parente di Dionigi I, e tornerà ad Atene solo nel 364 a.C.; in questi anni, secondo l'impostazione didattica
dell'Accademia, Aristotele dovette iniziare con lo studio della matematica, per passare tre anni dopo alla dialettica.
A reggere la scuola è Eudosso di Cnido, uno scienziato che dovette molto influenzare il giovane studente che, molti
anni dopo, nell'Etica Nicomachea scriverà che i ragionamenti di Eudosso «avean acquistato fede più per la virtù dei
suoi costumi che per se stessi: appariva di un'insolita temperanza, sembrando ragionare, nell'identificare il bene col
piacere, non perché amante del piacere, ma perché pensava che la cosa stesse veramente così».
L'abbandono dell'Accademia
Il secondo periodo ha inizio quando nel 347 a.C. muore Platone e alla
direzione dell'Accademia, più per motivi economici che per meriti
riconosciuti, viene chiamato Speusippo, nipote del grande filosofo
ateniese. Aristotele, che evidentemente doveva ritenersi più degno di
costui, lascia la scuola insieme con Senocrate, altro pretendente alla
guida dell'Accademia, per ritornare ad Atarneo, dove aveva trascorso
l'adolescenza, invitato da Ermia, allora tiranno della città. Ermia era
stato già da lui conosciuto ai tempi dell'Accademia, ed era poi riuscito
con un rovesciamento politico a diventare successore di Eubulo,
signore di Atarneo, e ad impossessarsi di Asso. Nella corte di Ermia
Aristotele ritrova altri due ex allievi di Platone, Erasto e Coristo. Nello
stesso anno tutti e quattro si trasferiscono ad Asso, divenuta intanto la
nuova sede della corte, dove fondano una scuola che Aristotele
battezza come unica vera scuola platonica. Ad essa aderiscono anche il
figlio di Coristo, Neleo, e il futuro successore di Aristotele nella scuola
di Atene, Teofrasto, suo brillante allievo.
Aristotele precettore di Alessandro Magno
Nel 344 a.C., su invito dello stesso Teofrasto, Aristotele va a Mitilene,
sull'isola di Lesbo, dove fonda un'altra scuola, anch'essa battezzata
come la sola aderente ai canoni platonici. V'insegna fino al 342, anno in cui è chiamato a Pella, in Macedonia dal re
Filippo II perché faccia da precettore al figlio Alessandro Magno. Aristotele svolgerà questo incarico per circa tre
anni, fino a quando Alessandro non sarà chiamato a partecipare alle spedizioni militari del padre. Non sappiamo
molto dell'educazione che Aristotele impartisce ad Alessandro ma si suppone che le lezioni si basassero
prevalentemente sui fondamenti della cultura greca (a partire da Omero) facendo così di Alessandro un uomo greco
per gli ideali trasmessigli, ma anche soprattutto sulla politica, dato il destino che attendeva Alessandro. È inoltre
possibile che durante questo incarico Aristotele abbia concepito il progetto di una grande raccolta di Costituzioni.
La fondazione del Peripato
Quando nel 340 a.C. Alessandro diviene reggente del regno di Macedonia, cominciando anche ad avvicinarsi alla
cultura orientale, il suo maestro Aristotele, che è intanto rimasto vedovo e convive con la giovane Erpillide da cui ha
avuto il figlio Nicomaco,[4] nell'ultimo periodo della sua vita torna forse a Stagira e, intorno al 335 a.C., si trasferisce
ad Atene, dove in un pubblico ginnasio, detto Liceo perché sacro ad Apollo Licio, fonda una sua famosissima e
celebrata scuola, chiamata Peripato - passeggiata, dall'uso istituito dallo Stagirita di insegnare passeggiando nel
giardino che la circonda. Probabilmente non è Aristotele ad acquistare la scuola; egli l'affitta perché per la città di
Atene egli era uno straniero e non aveva diritto di proprietà. La scuola viene inoltre finanziata dallo stesso
Aristotele
24
Alessandro. Aristotele promuove attività di ricerca nella città di Atene soprattutto per quanto riguarda materie
scientifiche quali zoologia, botanica, astronomia.[5]
Riguardo alla scuola abbiamo notizie vaghe; comunque sappiamo per certo che gli alunni erano chiamati per dieci
giorni a dirigere la scuola in prima persona: Aristotele ci teneva a istruire i suoi allievi a questo ruolo. Inoltre i pasti
venivano consumati in comune secondo un'usanza dei pitagorici e ogni mese si organizzava un simposio filosofico
con giudizio (iudicio) guidato dalla saggezza del maestro. Le lezioni si svolgevano di mattina; di pomeriggio e di
sera invece Aristotele teneva, sempre nella scuola, delle conferenze aperte al pubblico; le materie erano appunto di
interesse pubblico quindi politica e retorica, ad esempio, ma non materie astratte come la metafisica e la logica.
Nel 323 a.C. muore Alessandro Magno e ad Atene si manifestano i mai sopiti odii antimacedoni; Aristotele, guardato
con ostilità per il suo legame con la corte macedone, è accusato di empietà: lascia allora Atene e con la famiglia si
rifugia a Calcide, la città materna, dove muore l'anno dopo.
Il testamento
Diogene Laerzio riporta il testamento di Aristotele:
«Andrà senz'altro bene, ma qualora capitasse qualcosa, Aristotele ha
steso le seguenti disposizioni: tutore di tutti, sotto ogni aspetto, dev'essere
Antipatro; però, Aristomene, Timarco, Ipparco, Diotele e Teofrasto, se è
possibile, si prendano cura dei figli, di Erpillide [la sua convivente] e
delle cose da me lasciate, fino all'arrivo di Nicanore. E al momento
giusto, mia figlia [Piziade] sia data in sposa a Nicanore [...] Se invece
Teofrasto vorrà prendersi cura di mia figlia, allora sia padrone lui [...]
I tutori e Nicanore, ricordandosi di me, si prendano cura anche di
Erpillide, sotto ogni aspetto e anche se vorrà risposarsi, in modo che non
sia data in sposa indegnamente, visto che è stata premurosa con me. In
particolare, le vengano dati, oltre a quello che ha già ottenuto, anche un
Statua di Aristotele a Calcide
tallero d'argento e tre schiave, quelle che vuole, la schiava che già ha e lo
schiavo Pirro. E se vorrà abitare a Calcide, le sia data la casa per gli ospiti vicino al giardino; se invece vorrà stare a
Stagira, le sia data la mia casa paterna [...]
Sia libera Ambracide e le si diano, alle nozze di mia figlia, cinquecento dracme e la giovane serva che già possiede
[...] Sia liberato Ticone quando mi figlia si dovesse sposare, e così anche Filone, Olimpione e il suo ragazzino. Non
vendano nessuno dei giovani schiavi che attualmente mi servono, ma siano impiegati; una volta dell'età giusta, siano
liberati, se lo meritano [...]
Ovunque sia costruita la mia tomba, là siano portate e deposte le ossa di Piziade, come lei stessa ordinò; dedichino
poi anche da parte di Nicanore, se sarà ancora vivo - come ho pregato a suo favore - statue di pietra alte quattro
cubiti a Zeus Salvatore e ad Atena Salvatrice a Stagira».[6]
Aristotele
Le opere
Degli scritti di Aristotele si sogliono distinguere le opere giovanili, a cui egli cominciò a lavorare già nel 364 a.C., da
quelle della maturità.
Gli scritti giovanili
A questo gruppo appartengono le seguenti opere: Grillo, Sulle idee, Sul Bene, Eudemo, Protreptico e De
philosophia.
Il Grillo o Sulla retorica
Intorno al 360 a.C. il giovane Aristotele scrive la sua prima opera intitolata Grillo o Sulla retorica; in reazione a una
serie di scritti di elogio - composti da alcuni retori ateniesi, fra i quali Isocrate, per celebrare Grillo, figlio di
Senofonte, morto nel 362 a.C. nella battaglia di Mantinea - lo Stagirita polemizzava contro la retorica come mezzo
per agire sugli affetti, sulla parte irrazionale dell'anima. Già Platone, nel Gorgia, aveva sostenuto che la retorica non
era un'arte, né una scienza, ma semplicemente una εμπειρία (empeirìa), una pratica persuasiva che può avere
successo solo sugli ignoranti. Il successo del Grillo nell'Accademia procurò ad Aristotele l'incarico di tenere un
corso di retorica, nel quale, seguendo il Fedro platonico, sostenne che la retorica doveva fondarsi sulla dialettica. A
tal proposito si è tramandato negli anni che egli esordì nella prima lezione con la frase: «È cosa turpe tacere e lasciar
parlare Isocrate».
Sulle Idee
Scritto poco dopo il Grillo, il trattato Sulle Idee è andato perduto tranne pochi frammenti, trasmessi da Alessandro
d'Afrodisia. Vi si affrontava la difficoltà di intendere il rapporto tra idee e cose, concepito da Platone come
partecipazione delle cose alle idee, che da esse sono tuttavia separate.
Eudosso sosteneva che tra le idee e le cose non ci fosse né separazione, né partecipazione, bensì mixis, mescolanza:
le idee e le cose sono mescolate tra loro. Aristotele non accetta la teoria eudossiana, che non risolve il problema, ma
critica anche la teoria platonica della separazione, delle cui aporie lo stesso Platone era del resto ben consapevole,
come mostra il suo dialogo Parmenide. Per Aristotele il principio di tutte le cose non risiede nelle idee trascendenti,
ma nelle loro "forme" immanenti.
25
Aristotele
Sul Bene
Nel tentativo di superare un'altra difficoltà contenuta nella teoria
delle idee, le quali, essendo molteplici, hanno bisogno secondo
Platone di essere giustificate da un principio unitario, Platone
introdusse i principi dell'Uno (identificato con il Bene) e della
Diade (il grande e il piccolo); il primo ha la funzione di principio
formale e il secondo ha la funzione di principio materiale.
È probabile che le conclusioni del trattato aristotelico Sul Bene,
scritto intorno al 358 a.C. e del quale rimangono pochi frammenti,
fossero quelle esposte nella matura Metafisica:[7] «Platone chiamò
idee gli esseri diversi da quelli sensibili e disse che di tutte le cose
sensibili si parla in dipendenza dalle idee e secondo le idee: infatti
le cose molteplici che hanno lo stesso nome delle idee esistono per
partecipazione [...] ma che cosa fosse la partecipazione o
l'imitazione delle idee è un problema che Platone e i pitagorici
lasciarono aperto. Inoltre Platone dice che oltre alle cose sensibili
Platone e Aristotele, particolare della formella del
Campanile di Giotto di Luca della Robbia, 1437-1439,
e alle idee esistono le cose matematiche, che sono intermedie e
Firenze
differiscono dalle cose sensibili perché sono eterne e immobili, e
differiscono dalle idee per il fatto che ce ne sono molte simili tra
loro, mentre ciascuna idea è unica in sé [...]. Come principi, Platone poneva la Diade, cioè il grande e il piccolo,
come materia, e poneva l'Uno come sostanza; dal grande e dal piccolo, per partecipazione all'Uno, si costituiscono le
idee, che sono i numeri che nascono da quei principi [...] Platone sosteneva una tesi vicina a quella dei Pitagorici, e si
poneva sulle loro posizioni, quando diceva che i numeri sono la causa della sostanza delle altre cose [...] egli ricorre
soltanto a due cause, l'essenza e la causa materiale, perché le idee sono la causa dell'essenza delle altre cose, mentre
l'Uno è causa dell'essenza delle idee».
Aristotele respinse dunque già nel primo periodo della sua formazione la teoria delle idee nella lunga elaborazione
fatta da Platone, ma dalla meditazione su di essa trasse la personale dottrina della causa formale e della causa
materiale.
L'Eudemo o Sull'anima
Nel 354 a.C., alla morte in guerra, presso Siracusa, dell'amico e compagno di studi Eudemo di Cipro, Aristotele
scrisse, in forma consolatoria e non speculativa, un altro dialogo, pervenuto in frammenti, l'Eudemo o Sull'anima, nel
quale, prendendo a modello il Fedone platonico, sosterrebbe la tesi dell'immortalità dell'anima razionale, come
indicato nella forma pur problematica della posteriore Metafisica: «Se rimanga qualche cosa dopo l'individuo, è una
questione ancora da esaminare. In alcuni casi, nulla impedisce che qualcosa rimanga: per esempio, l'anima può
essere una cosa di questo genere, non tutta, ma solo la parte intellettuale; perché è forse impossibile che tutta l'anima
sussista anche dopo».[8]
Per l'Aristotele maturo, l'anima non è un'idea ma una sostanza informante il corpo: nell'Eudemo è invece netta è
l'opposizione fra anima e corpo, sicché lo Jaeger la considerava dimostrazione dell'adesione completa del giovane
Aristotele al platonismo; i sostenitori della precoce presa di distanza dello Stagirita da Platone intendono invece
questa dichiarata opposizione come dipendente dall'intento consolatorio del dialogo, nel quale Aristotele avrebbe
volutamente accentuato il destino ultraterreno dell'anima.
In ogni caso, i frammenti dell'Eudemo non permettono di dedurre un'adesione alle dottrine platoniche delle idee
separate dagli oggetti sensibili e della conoscenza fondata sulla reminiscenza.
26
Aristotele
Il Protreptico
Il Protreptico o Esortazione alla filosofia, conosciuto dalle numerose citazioni contenute nell'opera di eguale titolo
di Giamblico, dedicato a Temisone, re di una città di Cipro, dovette essere scritto intorno al 350 a.C.
Il Protreptico è un'esortazione alla filosofia, essendo questa il più grande dei beni, dal momento che ha per scopo se
stessa, mentre le altre scienze hanno per fine qualcosa di diverso da sé. Aristotele individua nell'essere umano la
divisione fra anima e corpo: «una parte di noi è l'anima e una parte è il corpo, l'una comanda e l'altra è comandata,
l'una si serve dell'altra e l'altra sottostà come uno strumento [...] Nell'anima ciò che comanda e giudica per noi è la
ragione, mentre il resto ubbidisce e per natura è comandato [...] dunque l'anima è migliore del corpo, essendo più
adatta al comando, e di questa è migliore la parte che possiede ragione e pensiero», una divisione non vista come
opposizione, come nell'Eudemo, ma come collaborazione: il corpo è lo strumento dell'agire dell'anima, della parte
razionale dell'anima.
«Delle cose che sono generate, alcune sono generate dall'intelligenza e dall'arte, per esempio, la casa e la nave; altre
sono generate non per arte ma per natura: degli esseri viventi e delle piante, infatti, la causa è la natura e per natura
sono generate tutte le cose di tal specie; altre però sono generate anche per caso, e sono tutte quelle non generate né
per arte, né per natura, né da necessità, e tutte queste cose, molto numerose, noi diciamo che sono generate per caso».
Non vi è finalità nel caso ma vi è nell'arte e nella natura: la natura è l'ordine tendente a un fine, e il fine dell'uomo è
la conoscenza.
La filosofia è sia buona che utile, ma la bontà va privilegiata rispetto all'utilità: «alcune cose, senza le quali è
impossibile vivere, le amiamo in vista di qualcosa di diverso da esse: e queste bisogna chiamarle necessarie e cause
concomitanti; altre invece le amiamo per se stesse, anche se non ne consegua nulla di diverso, e queste dobbiamo
chiamarle propriamente beni [...] Sarebbe quindi del tutto ridicolo cercare di ogni cosa un'utilità diversa dalla cosa
stessa, e domandare: "Che cosa ci è giovevole? Che cosa ci è utile?". Colui che ponesse queste domande non
assomiglierebbe in nulla a uno che conosce ciò che è bello e buono né a uno che sappia riconoscere che cosa è causa
e che cosa è concomitante». È una polemica, questa, contro le posizioni di Isocrate che, nel suo Antidosis, scritto
contro l'Aristotele del Grillo, attaccava una conoscenza che fosse priva di utilità pratica. Inoltre quest'opera, essendo
certamente datata, è fondamentale per gli studi storiografici in quanto ci consente di creare un abbozzo cronologico
di alcuni libri della Metafisica in base alla presenza (o meno) in essi di temi già trattati nel Protreptico. Del resto, che
fare filosofia sia per Aristotele comunque necessario lo dimostra il fatto che «chi pensa sia necessario filosofare,
deve filosofare e chi pensa che non si debba filosofare, deve filosofare per dimostrare che non si deve filosofare;
dunque si deve filosofare in ogni caso o andarsene di qui, dando l'addio alla vita, poiché tutte le altre cose sembrano
essere solo chiacchiere e vaniloquio».
27
Aristotele
28
Il De philosophia
Il De Philosophia, pervenuto in frammenti, fu scritto intorno al 355 a.C. e si divide in tre libri: nel primo Aristotele
definisce filosofia la conoscenza dei principi della realtà; nel secondo critica la dottrina platonica delle idee e delle
idee-numeri; nel terzo espone la sua teologia.
Ribadisce la non trascendenza delle idee e nega le idee-numero o numeri ideali,
introdotti dal tardo Platone: «se le idee sono un'altra specie di numero, non
matematico, non potremmo averne alcuna comprensione; chi, fra noi, comprende un
tipo di numero diverso?». È Cicerone a citare, criticamente, il terzo libro del De
philosophia: «Aristotele nel terzo libro della sua opera Della filosofia confonde
molte cose dissentendo dal suo maestro Platone. Ora infatti attribuisce tutta la
divinità a una mente, ora dice che il mondo stesso è dio, ora prepone al mondo un
altro essere e gli affida il compito di reggere e governare il moto del mondo per
mezzo di certe rivoluzioni e moti retrogradi, talora dice che dio è l'etere, non
comprendendo che il cielo è una parte di quel mondo che altrove ha designato come
potere divino».[9]
Busto di Cicerone
La dimostrazione della necessità e dell'immutabilità di Dio è fornita dalla
testimonianza di Simplicio: «dove c'è un meglio, c'è anche un ottimo: poiché, fra ciò
che esiste, c'è una realtà superiore a un'altra, esisterà di conseguenza una realtà perfetta, che dovrà essere la potenza
divina [...] e ne deduce la sua immutabilità».[10] Puro pensiero e immutabile, Dio non può creare il mondo, che è
anch'esso eterno, come riporta Cicerone:[11] «il mondo non ha mai avuto origine, poiché non vi è stato alcun inizio,
per il sopravvenire di una nuova decisione, di un'opera così eccellente» e attesta anche la concezione della divinità
degli astri: «Le stelle poi occupano la zona eterea. E poiché questa è la più sottile di tutte ed è sempre in movimento
e sempre mantiene la sua forza vitale, è necessario che quell'essere vivente che vi nasca sia di prontissima sensibilità
e di prontissimo movimento. Per la qual cosa, dal momento che sono gli astri a nascere nell'etere, è logico che in essi
siano insite sensibilità e intelligenza. Dal che risulta che gli astri devono essere ritenuti nel numero delle divinità».
Le opere della maturità
Della produzione filosofica aristotelica più matura ci sono giunti solo gli scritti composti per il suo insegnamento nel
Peripato, detti libri acroamatici (in greco: "ciò che si ascolta") o esoterici; oltre a questi, come esposto in
precedenza, Aristotele aveva scritto e pubblicato, durante la sua precedente permanenza nell'Accademia di Platone,
anche dei dialoghi destinati al pubblico, per questo motivo detti essoterici, che sono però pervenuti in frammenti.
Questi dialoghi giovanili furono letti e discussi dai commentatori fino al VI secolo d.C.
A seguito della chiusura dell'Accademia ateniese ordinata nel 529 da Giustiniano e alla diaspora di quegli
accademici, queste opere si dispersero e furono dimenticate, mentre di Aristotele rimasero solo i trattati esoterici;
questi, a loro volta, erano stati dimenticati a lungo dopo la morte del Maestro fino ad essere ritrovati, alla fine del II
secolo a.C., da un bibliofilo ateniese, Apellicone di Teo, in una cantina appartenente agli eredi di Neleo, figlio di
Corisco, entrambi seguaci di Aristotele nella scuola di Asso. Apellicone li acquistò, portandoli ad Atene, e qui Silla
li sequestrò nel saccheggio di Atene dell'84 a.C., portandoli quindi a Roma, dove furono ordinati e pubblicati da
Andronico da Rodi.
L'insieme di queste opere può essere ordinato per argomenti omogenei:
• Logica,[12] scritti raccolti nel titolo complessivo di Organon - in greco, "strumento" - comprendenti:
1. Le categorie (un libro)
2. Sull'interpretazione (un libro)
3. Analitici primi (due libri)
4. Analitici secondi (due libri)
Aristotele
5. Topici (otto libri)
6. Elenchi sofistici (un libro)
• Metafisica[13] (quattordici libri)
• Fisica (otto libri) con scritti correlati:
1.
2.
3.
4.
5.
6.
7.
8.
Sul cielo (quattro libri)
Sulla generazione e corruzione (due libri)
Sulle meteore (quattro libri)
Storia degli animali (un libro)
Sulle parti degli animali (un libro)
Sulla generazione degli animali (un libro)
Sulle migrazioni degli animali (un libro)
Sul movimento degli animali (un libro)
• Sull'anima (tre libri) con scritti correlati:
1.
2.
3.
4.
Sensazione e sensibile (un libro)
Memoria e reminiscenza (un libro)
Il sonno (un libro)
I sogni (un libro)
5.
6.
7.
8.
La divinazione mediante i sogni (un libro)
Lunghezza e brevità della vita (un libro)
Giovinezza e vecchiaia (un libro)
La respirazione (un libro)
• Etica, comprendente
1. Etica Nicomachea (dieci libri)
2. Etica Eudemia (sei libri)
3. Grande etica (due libri)
• Politica (otto libri) correlata alla
1. Costituzione degli Ateniesi
• Retorica (tre libri)
• Poetica, incompiuta.
Apocrifi
Ad Aristotele sono anche attribuiti i Problemi e Le Audizioni Meravigliose; la filologia moderna sostiene che non
sono suoi, contro l'opinione dell'antica. Nei Problemi il Filosofo si chiede: come mai sedendosi vicino al fuoco viene
da fare pipì? La sua risposta è, come al solito, acutissima: perché il fuoco scioglie le cose solide. È chiaro che, se
avesse ragione, allontanandosi dal fuoco dovrebbe anche passare la voglia.[14] Un altro dei Problemi è: come mai
soffiando sulle mani queste si scaldano, mentre soffiando sulla zuppa questa si raffredda? Anche qui la risposta è
magistrale: Perché quando soffi sulla minestra, tieni la bocca quasi chiusa, in modo tale che il calore dell'aria rimane
dentro la bocca e quel poco che esce fuori evapora subito per la violenza del soffio.[15] Le Audizioni Maravigliose
contengono fatti che ancora oggi la scienza non sa spiegare: ad esempio, sull'isola di Creta, le capre ferite dai
cacciatori si cibano di un'erba, chiamata Dittamo, che subito fa uscire la freccia e sana la ferita[16].
29
Aristotele
La filosofia: scienza delle cause e ricerca delle essenze
La filosofia di Aristotele muove dalla stessa esigenza
platonica di ricercare un princìpio eterno e immutabile
che spieghi il modo in cui avvengono i mutamenti della
natura. Come il suo maestro Platone, Aristotele ha ben
presente la contrapposizione filosofica venutasi a creare
tra Parmenide ed Eraclito; anche lui pertanto si propone
di conciliare le loro rispettive posizioni di pensiero:
l'Essere statico del primo con l'incessante divenire del
secondo. Per cui tutto muta in natura, tutto «scorre», ma
non a caso: seguendo sempre certi schemi o regole
fisse.
A differenza di Platone, tuttavia, Aristotele ritiene che
le forme in grado di guidare la materia non si trovino al
di fuori di essa: non ha senso secondo lui sdoppiare gli
enti per cercare poi di riconciliarli in qualche modo;
ogni realtà invece deve avere in se stessa, e non in
cielo, le leggi del proprio costituirsi.
Il fatto che tutti i fenomeni naturali siano soggetti a
costante mutamento significa per Aristotele che nella
materia è sempre insita la possibilità di raggiungere una
Aristotele
forma precisa. Compito della filosofia è proprio quello
di scoprire le cause che determinano il perché un
oggetto tenda ad evolversi in un certo modo e non diversamente. Aristotele parla in proposito di quattro cause, che
sono le seguenti:
1.
2.
3.
4.
causa formale: consiste nelle qualità specifiche dell'oggetto stesso, nella sua essenza;
causa materiale: la materia è il sostrato senza cui l'oggetto non esisterebbe;
causa efficiente: è l'agente che determina operativamente il mutamento;
causa finale: la più importante di tutte, in virtù della quale esiste un'intenzionalità nella natura; è lo scopo per cui
una certa realtà esiste.
La scienza delle cause consente di affrontare in maniera più sistematica e razionale il problema dell'Essere e delle
sue possibili determinazioni, sorto la prima volta con Parmenide. Quest'ultimo aveva detto dell'Essere soltanto che è,
e non può non essere, ma non aveva aggiunto cosa esso sia, lasciandolo senza un predicato. Ne risultava un concetto
evanescente, che rischiava di venir confuso col non-essere. Aristotele con la sua ontologia si propone allora di
mostrare che l'essere è determinato in una molteplicità di attributi, che lo rendono multilaterale pur nella sua unità.
Ontologia e metafisica
L'ontologia, in quanto metafisica (secondo la terminologia introdotta da Andronico di Rodi), è la "filosofia prima"
aristotelica, che ha come suo primario oggetto di indagine l'essere in quanto tale, e solo in via subordinata l'ente (dal
greco ὄντος, genitivo di ὤν, essente). "In quanto tale" significa a prescindere dai suoi aspetti accidentali, e quindi in
maniera scientifica. Solo di ciò che permane come sostrato fisso e immutabile, infatti, si può avere una conoscenza
sempre valida e universale, a differenza degli enti soggetti a generazione e corruzione, ragion per cui «del particolare
non si dà scienza».[17]
Per conoscere gli enti occorrerà dunque fare sempre riferimento all'Essere; Aristotele intende per ente tutto ciò che
esiste (da ex-sistentia, essere da), a differenza dell'Essere che invece è in sé e per sé: mentre l'Essere è uno, gli enti
30
Aristotele
31
non sono tutti uguali. Per il filosofo essi hanno vari significati: l'ente è un "pòllachos legòmenon" (dal greco
πόλλακος λεγόμενον), ossia si può «dire in molti modi». Ente sarà ad esempio un uomo, così come il suo colore
della pelle.
Introducendo gli enti, Aristotele cerca di risolvere il problema ontologico di conciliare l'essere parmenideo col
divenire di Eraclito, facendo dell'ente un sinolo indivisibile di materia e forma: come già accennato, infatti, la
materia possiede un suo modo specifico di evolversi, ha in sé una possibilità che essa tende a mettere in atto. Ogni
mutamento della natura è quindi un passaggio dalla potenza alla realtà, in virtù di un'entelechia, di una ragione
interna che struttura e fa evolvere ogni organismo secondo leggi sue proprie. Cercando di superare il dualismo di
Platone in seno all'essere, Aristotele sostiene così l'immanenza dell'universale. La sua soluzione tuttavia risente
fortemente dell'impostazione platonica, perché, come già il suo predecessore, anche lui concepisce l'essere in forma
gerarchica:[18] per cui da un lato vi è l'Essere eterno e immutabile, identificato con la vera realtà, che basta a se
stesso in quanto perfettamente realizzato; dall'altro vi è l'essere in potenza, proprio degli enti, che per costoro è
soltanto la possibilità di attuare se stessi, di realizzare la loro forma in atto, la loro essenza. Anche il non-essere
quindi in qualche modo è, almeno come poter-essere. E il divenire consiste propriamente in questo perenne
passaggio verso l'essere in atto.[19]
La Sostanza: prima e seconda
Il genere sommo di cui il filosofo si occupa maggiormente è quello di sostanza, classificata in sostanza prima e
sostanza seconda. La prima è relativa ad un singolo essere, un determinato uomo, un certo animale o una pianta, ossia
tutto ciò che ha sussistenza autonoma. La sostanza seconda invece è costituita da sostantivi generici che determinano
un oggetto in un certo modo, è la risposta a "che cos'è" quell'oggetto, ti estì (dal greco τί ἐςτι), specificando meglio la
sostanza prima. Nella frase «il Sole è un astro» ad esempio, Sole, nome proprio e specifico di una stella, è sostanza
prima, mentre astro, nome generico che ne specifica l'essenza o la natura, è sostanza seconda. Di fatto, se si prescinde
dall'aspetto materiale, la sostanza è sinonimo di essenza (οὐσία, usìa).[20] Ogni realtà può essere detta che "è" in
quanto esprime la sostanza. Un altro termine utilizzato per indicarla è sinolo di materia e forma.
Nonostante le molteplici valenze che assumono gli enti, tutti richiamano inevitabilmente in un modo o nell'altro il
concetto di sostanza, termine introdotto da Aristotele per indicare ciò che è in sé e per sé, e che per essere non ha
bisogno di esistere. La sostanza è uno dei dieci predicamenti dell'essere, ossia di quelle dieci categorie entro cui
classificare gli enti sulla base della loro differenza. Esse sono: sostanza, qualità, quantità, dove, quando, relazione,
agire, subire, avere, giacere.
Le dieci categorie possono anche essere definite generi massimi, poiché permettono la completa classificazione degli
enti. Non vanno confuse con i cinque generi sommi platonici, perché se Platone cercava categorie universali cui
partecipassero tutte le idee, Aristotele cerca categorie cui gli enti partecipino in base alla loro diversità: non esiste
infatti una categoria a cui tutti gli enti tangibili partecipino, proprio perché il suo scopo non è quello della reductio
ad unum (l'omologazione, il confluire di tutti gli oggetti di studio in un unico grande calderone).
A differenza della sostanza, le nove rimanenti categorie si devono invece definire "accidenti" in quanto non hanno
vita indipendente, ma esistono solo nel momento in cui ineriscono alla sostanza. Il giallo, per esempio, non è un ente
autonomo come un uomo. Perciò nella frase «il Sole è giallo», Sole è sempre sostanza prima, mentre giallo è
accidente della sostanza, appartenente alla categoria della qualità.
Lo stesso filosofo afferma quanto sia inutile ogni scienza che si occupi di enti dotati delle medesime caratteristiche:
la matematica studia gli enti astratti deducibili solo con l'astrazione (in numeri), la fisica gli elementi naturali della
physis (greco φύσις), l'ontologia, invece, studia gli enti. Ma in base a che cosa gli enti sono accomunati? Non certo il
fatto di esistere, perché, come già detto, il filosofo nega a priori l'esistenza di una categoria che collochi in se tutti gli
enti (la categoria dell'essere che, infatti, li accomunerebbe tutti). Il termine ente è comunque una parola ambigua,
proprio come "salutare". Esso vuol dire sano o indicare l'azione del cordiale saluto, tutto comunque richiama allo
stesso concetto di salute.
Aristotele
Teologia
Soltanto l'essere in atto fa sì che un ente in potenza possa evolversi; l'argomento ontologico diventa così teologico
per passare alla dimostrazione della necessità dell'essere in atto.[21] Si è visto come il movimento sia originato dalle
quattro cause. Ogni oggetto è mosso da un altro, questo da un altro ancora, e così via a ritroso, ma alla fine della
catena deve esistere un motore immobile, cioè Dio: "motore" perché è la meta finale a cui tutto tende, "immobile"
perché causa incausata, essendo già realizzato in se stesso come «atto puro».[22]
Tutti gli enti risentono della sua forza d'attrazione perché l'essenza, che in costoro è ancora qualcosa di potenziale, in
Lui giunge a coincidere con l'esistenza, cioè è tradotta definitivamente in atto: il Suo essere non è più una possibilità,
ma una necessità. In Lui tutto è compiuto perfettamente, e non v'è nessuna traccia del divenire, perché questo è
appunto solo un passaggio. Non vi è neppure l'imperfezione della materia che continua invece a sussistere negli enti
inferiori, i quali sono ancora una mescolanza, un insieme non coincidente di essenza ed esistenza, di potenza ed atto,
di materia e forma.
« Il primo motore dunque è un essere necessariamente esistente, e in quanto la sua esistenza è necessaria si identifica col
bene, e sotto tale profilo è principio. […] Se, pertanto, Dio è sempre in uno stato di beatitudine, che noi conosciamo solo
qualche volta, un tale stato è meraviglioso; e se la beatitudine di Dio è ancora maggiore essa deve essere oggetto di
meraviglia ancora più grande. Ma Dio, è appunto, in tale stato! »
(Aristotele, Metafisica XII (Λ), 1072, b 9-30)
Come nell'Essere di Parmenide, Dio è pienezza della sostanza e quindi pensiero puro. Per Aristotele infatti la
migliore delle azioni è quella legata all'attività noetica, non essendo soggetta alla corruzione del divenire.[23] Ma
cosa pensa Dio? Evidentemente il pensiero più alto e cioè se stesso. La sua caratteristica principale è dunque la
contemplazione autocosciente, fine a se stessa, intesa come «pensiero di pensiero».
Gnoseologia
Nell'ambito della filosofia della conoscenza, Aristotele sembra rivalutare l'importanza dell'esperienza sensibile, e
tuttavia, al pari di Platone, mantiene fermo il presupposto secondo cui l'intelletto umano non si limita a recepire
passivamente le impressioni sensoriali, ma svolge un ruolo attivo che gli consente di andare oltre le particolarità
transitorie degli oggetti e di coglierne le cause.[24]
Esistono vari gradi del conoscere: secondo Aristotele all'inizio non ci sono idee innate nella nostra mente; questa
rimane vuota se non percepiamo qualcosa attraverso i sensi. Ciò tuttavia non vuol dire che l'essere umano non abbia
delle capacità innate di ordinare le conoscenze, raggruppandole in diverse classi e riuscendo a penetrare l'essenza
propria di ciascuna di esse, con le quali stabilisce una corrispondenza.
Al livello più basso c'è la sensazione, che ha per oggetto entità particolari. La sensazione in potenza può sentire di
tutto, ma solo nel momento in cui mette in atto una percezione specifica avviene il «sentire di sentire», che
appartiene al cosiddetto senso «comune». La sensazione in atto rende attuale lo stesso oggetto percepito, ad esempio
è l'udito a dare vita al suono, facendolo passare all'essere. Al grado successivo interviene la fantasia, facoltà
dell'anima, che ha la capacità di rappresentare gli oggetti non più presenti ai sensi, producendo le immagini:[25]
queste vengono ricevute dall'intelletto potenziale, per essere poi, in seguito a vari filtri, conservate dalla memoria, da
cui nasce la generalizzazione dell'esperienza. Anche l'intelletto potenziale ha bisogno a sua volta di una realtà già in
atto per potersi attivare. Ecco dunque che la conoscenza deve culminare infine con un trascendente intelletto attivo,
che superando la potenza sappia vedere l'essenza in atto, ossia la forma. Questo passaggio supremo è reso possibile
dall'intuizione (nous), la quale presuppone che la mente umana sia capace di pensare se stessa, ovvero sia dotata di
consapevolezza e libertà; solo così essa può riuscire ad "astrarre" l'universale dalle realtà empiriche. L'approdo dal
particolare all'universale, inizialmente avviato tramite i sensi dall'epagoghè (termine traducibile impropriamente con
induzione) non possiede infatti nessun carattere di necessità o di conseguenzialità logica, dato che la logica di
Aristotele, a differenza di quella moderna, è solo deduttiva.[26] L'induzione per lui funge unicamente da stimolo, o
32
Aristotele
33
sollecitazione, di un processo definitorio che comporta alla fine un'esperienza di tipo contemplativo:[27]
« Non si può dire che il definire qualcosa consista nello sviluppare un'induzione attraverso i singoli casi manifesti,
stabilendo cioè che l'oggetto nella sua totalità deve comportarsi in un certo modo […] Chi sviluppa un'induzione, infatti, non
prova cos'è un oggetto, ma mostra che esso è, oppure che non è. In realtà, non si proverà certo l'essenza con la sensazione, né
la si mostrerà con un dito. »
(Aristotele, Analitici secondi II, 7, 92a-92b)
La conoscenza noetica che ne risulterà consiste quindi nella corrispondenza tra realtà e intelletto: come la sensazione
si identifica con ciò che è sentito, così l'intelletto attivo o agente (indicato col termine nùs poietikòs)[28] coincide con
la verità del suo stesso oggetto,[29] implicando una componente divina in grado di farlo passare all'atto, per cui ad
esempio un libro è un oggetto in potenza, che diventa un libro in atto solo quando viene pensato.[30]
Logica
Distinta dall'intelletto è la Logica (diànoia, o ragione), che Aristotele teorizza
nella forma rigorosamente deduttiva del sillogismo. Le leggi che la guidano,
non dimostrabili ma intuibili con un atto immediato, sono il principio di
identità, per il quale A = A, e quello di non-contraddizione, per cui A ≠ non-A.
Il sillogismo è un ragionamento concatenato che, partendo da due premesse di
carattere generale, una "maggiore" e una "minore", giunge ad una conclusione
coerente su un piano particolare. Sia le premesse che la conclusione sono
proposizioni espresse nella forma soggetto-predicato. Un esempio di sillogismo
è il seguente:
1. Tutti gli uomini sono mortali;
2. Socrate è uomo;
3. dunque Socrate è mortale.
Schema esemplificativo del sillogismo
Attraverso il sillogismo, la logica permette di ordinare in gruppi o categorie tutto ciò che si trova in natura, a
condizione però di partire da premesse vere e certe:[31] i sillogismi infatti di per sé non danno nessuna garanzia di
verità. Questo perché i princìpi primi, da cui il ragionamento prende le mosse, non possono essere a loro volta
dimostrati, dato che proprio da essi deve scaturire la dimostrazione; solo l'intuizione intellettuale, opera dell'intelletto
attivo, può dare loro un fondamento oggettivo e universale,[32] tramite quel processo conoscitivo sovra-razionale, che
partendo come si è visto dall'epagoghé, culmina nell'astrazione dell'essenza.[33] Da questa poi la logica trarrà
soltanto delle conseguenze coerenti da un punto di vista formale, facendo ricorso ai giudizi predicativi che
corrispondono alle dieci categorie dell'essere.
Dialettica
Mentre la logica o analitica studia la deduzione a partire da premesse vere, la dialettica in Aristotele è semplicemente
la tecnica con la quale uscire vittoriosi da una discussione. Questo successo, che non esclude comunque un effettivo
raggiungimento della verità,[34] deriva dal prevalere con la propria tesi su quella sostenuta dall'avversario, nel
rispetto di premesse su cui ci si è messi d'accordo prima dell'inizio del confronto: difatti la confutazione, l'aver
ottenuto ragione e quindi l'aver vinto, si basava proprio sul portare l'interlocutore ad autocontraddirsi, mostrando
dunque come la sua tesi, se sviluppata, avrebbe condotto a risultati illogici nei confronti delle premesse iniziali,
considerate vere da entrambi. Certo era necessario che le premesse fossero considerate vere dal pubblico che
assisteva al confronto, pertanto non di rado si sceglieva di accordarsi su premesse che fossero ritenute vere dai
membri più influenti della società, così che essi potessero influenzare anche l'opinione altrui. La tecnica dialettica
necessitava di un'ottima conoscenza delle parole e dei modi di unirle in proposizioni e, ancora, in periodi, pertanto il
filosofo postula alcune teorie, quali quella della proposizione e quella del sillogismo, che permettono di capire come
Aristotele
34
debba funzionare nei vari casi la parola. Prima di queste teorie, si sofferma sulla spiegazione dell'esistenza di parole
univoche ed equivoche, ovvero da uno o più significato: deve essere la loro conoscenza accurata il primo necessario
requisito per l'esperto di dialettica.
Teoria della proposizione
Una proposizione è un insieme di termini (o parole) i quali danno vita a un'affermazione, un giudizio. Questo può
essere vero o falso, in base al riscontro con la realtà, mentre i singoli termini di per sé non possono essere veri o falsi
se considerati da soli. Neppure tutte le proposizioni però rientrano nella dimensione del vero o falso: preghiere,
invocazioni, ordini, sono destinati all'ambito poetico e di questi Aristotele non si occupa. Egli invece si occupa delle
frasi a cui sole può essere riconosciuta la possibilità di essere vere o false, chiamandole categoriche, o dichiarative, o
apofantiche. Le proposizioni categoriche possono avere qualità affermativa o negativa, e quantità universale (quando
il soggetto è un genere e vi sono inclusi tutti gli appartenenti) particolare (si fa riferimento solo a una parte degli enti
di un genere) o singolari (il soggetto è un individuo singolo), in base alla maggiore o minore generalità del soggetto.
Aristotele non si preoccupa delle proposizioni singolari, soffermandosi solo sulle proposizioni affermative e
negative, universali e particolari. Combinando questi tipi di proposizioni, risultano esserci quattro tipi di
proposizioni-modello per il filosofo:
• universale affermativa,
• universale negativa,
• particolare affermativa,
• particolare negativa.
L'Etica
« La dignità non consiste nel possedere onori ma nella coscienza di meritarli. »
[35]
(Aristotele
)
L'etica di cui tratta Aristotele attiene alla sfera del comportamento (dal greco ethos), ossia alla condotta da tenere per
poter vivere un'esistenza felice. Coerentemente con la sua impostazione filosofica, l'atteggiamento più corretto è
quello che realizza l'essenza di ognuno. Ne consegue l'identificazione di essere e valore: quanto più un ente realizza
la propria ragion d'essere, tanto più esso vale. L'uomo in particolare realizza se stesso praticando tre forme di vita:
quella edonistica, incentrata sulla cura del corpo, quella politica, basata sul rapporto sociale con gli altri, e infine la
via teoretica, situata al di sopra delle altre, che ha come scopo la conoscenza contemplativa della verità.
Le tre modalità di condotta vanno comunque integrate fra loro, senza privilegiare l'una a discapito dell'altra. L'uomo
infatti deve saper sviluppare e assecondare armonicamente tutte e tre le potenzialità dell'anima che
contraddistinguono il proprio essere o entelechia, e da Aristotele identificate con:
• l'anima vegetativa, comune anche alle piante e agli animali, che attiene ai processi nutritivi e riproduttivi;
• l'anima sensitiva, comune agli animali, che attiene alle passioni e ai desideri;
• l'anima razionale, che appartiene soltanto all'uomo, e consiste nell'esercizio dell'intelletto.
Sulla base di questa tripartizione, Aristotele individua il piacere e la salute come scopo finale dell'anima vegetativa,
risultante dall'equilibrio tra gli eccessi opposti, evitando ad esempio di mangiare troppo, o troppo poco. All'anima
sensitiva egli assegna invece le cosiddette virtù etiche, che sono abitudini di comportamento acquisite allenando la
ragione a dominare sugli impulsi, attraverso la ricerca del «giusto mezzo» fra estreme passioni:[36] ad esempio il
coraggio è l'atteggiamento mediano da preferire tra la viltà e la temerarietà. Essendo l'uomo un «animale sociale»,
l'equilibrio è ciò che deve guidare i suoi rapporti con gli altri; questi devono essere improntati al giusto
riconoscimento degli onori e del prestigio derivanti dall'esercizio delle cariche pubbliche. Le diverse virtù etiche
sono quindi tutte riassunte dalla virtù della giustizia.
Aristotele
35
Virtù etiche
•
Giustizia
•
•
•
•
•
•
Virtù dianoetiche
•
Coraggio
Temperanza
Liberalità
•
Magnificenza
Magnanimità
Mansuetudine
Virtù calcolative
•
•
Arte
Prudenza
Virtù scientifiche
•
Sapienza
•
•
Scienza
Intelligenza
All'anima razionale infine Aristotele assegna le cosiddette virtù dianoetiche, suddivise in calcolative e scientifiche.
Le facoltà calcolative hanno una finalità pratica, sono strumenti in vista di qualcos'altro: l'arte (tèchne) ha un fine
produttivo, la saggezza o prudenza (phrònesis) serve a dirigere le virtù etiche, oltre a guidare l'azione politica. Se
queste virtù vanno perseguite in vista di un bene più alto, alla fine tuttavia deve pur sussistere un bene da perseguire
per se stesso. Le facoltà scientifiche, mirando alla conoscenza disinteressata della verità, non si prefiggono appunto
nessun altro obiettivo al di fuori della sapienza in sé (sophìa). A questa virtù suprema concorrono le due facoltà
conoscitive della gnoseologia: la scienza (epistème), che è la capacità della logica di compiere dimostrazioni; e
l'intelligenza (nùs), che fornisce i princìpi primi da cui scaturiscono quelle dimostrazioni. Aristotele introduce così
una concezione della sapienza intesa come "stile di vita" slegato da ogni finalità pratica, e che pur rappresentando
l'inclinazione naturale di tutti gli uomini solo i filosofi realizzano a pieno, mettendo in atto un sapere che non serve a
nulla, ma proprio per questo non dovrà piegarsi a nessuna servitù: un sapere assolutamente libero. La
contemplazione della verità è quindi un'attività fine a se stessa, nella quale consiste propriamente la felicità
(eudaimonìa), ed è quella che distingue l'uomo dagli altri animali rendendolo più simile a Dio, già definito da
Aristotele come «pensiero di pensiero», pura riflessione autosufficiente che nulla deve ricercare al di fuori di sé.
« Se in verità l'intelletto è qualcosa di divino in confronto all'uomo, anche la vita secondo esso è divina in confronto alla vita
umana. »
(Aristotele, Etica Nicomachea, X.7, 1177 b30-31)
L'etica di Aristotele, che pone l'accento sul «giusto mezzo» come via maestra per diventare persone felici e
armoniche, segue da vicino i dettami della scienza medica greca, basata similmente sull'equilibrio e la moderazione.
Allo stesso modo, le tre possibili forme politiche dello Stato (monarchia, aristocrazia, e democrazia) devono
guardarsi dall'estemismo delle loro rispettive degenerazioni: tirannide, oligarchia e oclocrazia.[37]
Il concetto di Philia
Nell'ottavo e nel nono libro dell'Etica Nicomachea Aristotele tratta anche del concetto d'amicizia (in greco philìa,
φιλία). Il filosofo comincia facendo l'analisi dei diversi fondamenti dell'amicizia: l'utile, il piacere e il bene; da
questi derivano le tre tipologie d'amicizia: quella di utilità, di piacere, e di virtù. L'amicizia di utilità è tipica dei
vecchi, quella di piacere degli uomini maturi e dei giovani; gli amici in queste due tipologie non si amano di per se
stessi ma solamente per i vantaggi che traggono dal loro legame: per tale motivo questi tipi di amicizia, basandosi sui
bisogni e desideri umani, che sono volubili, si creano e si dissolvono con facilità. L'unica vera amicizia è quella di
virtù, stabile perché si fonda sul bene, caratteristica degli uomini buoni. L'amicizia di virtù presuppone due
condizioni fondamentali: l'uguaglianza fra gli amici (a livello di intelligenza, ricchezza, educazione ecc.) e la
consuetudine di vita. L'amicizia si distingue dalla benevolenza, che può non essere corrisposta, e dall'amore, perché
nell'amore entrano in gioco fattori istintuali. Aristotele tuttavia non esclude che un rapporto d'amore possa
trasformarsi poi in una vera e propria amicizia. La philia aristotelica esprime quindi il legame tra amicizia e
reciprocità, fondato sul riconoscimento dei meriti e sul reciproco desiderio del bene per l'altro.
Aristotele
Astronomia
Aristotele tratta nelle sue opere (in particolare nella Fisica)
della conformazione dell'universo. Aristotele propone un
modello geocentrico, che pone cioè la Terra al centro
dell'universo.
Secondo Aristotele, la Terra è formata da quattro elementi: la
terra, l'aria, il fuoco e l'acqua. Le varie composizioni degli
elementi costituiscono tutto ciò che si trova nel mondo. Ogni
elemento possiede due delle quattro qualità (o «attributi»)
della materia:
• il secco (terra e fuoco),
• l'umido (aria ed acqua),
• il freddo (acqua e terra),
• il caldo (fuoco e aria).
I quattro elementi e le loro relazioni
Ogni elemento ha la tendenza a rimanere o a tornare nel
proprio luogo naturale, che per la terra e l'acqua è il basso,
mentre per l'aria e il fuoco è l'alto. La Terra come pianeta, quindi, non può che stare al centro dell'universo, poiché è
formata dai due elementi tendenti al basso, e il "basso assoluto" è proprio il centro dell'universo.
Riguardo a ciò che si trova oltre la Terra, Aristotele lo riteneva composto di un quinto elemento (o essenza): l'etere.
L'etere, che non esiste sulla Terra, sarebbe privo di massa, invisibile e, soprattutto, eterno ed inalterabile: queste due
ultime caratteristiche sanciscono un confine tra i luoghi sub-lunari del mutamento (la Terra) e i luoghi immutabili (il
cosmo).
Aristotele riteneva che i corpi celesti si muovessero su sfere concentriche (in numero di cinquantacinque, ventidue in
più delle 33 di Callippo). Oltre la Terra per lui vi erano, in ordine, la Luna, Mercurio, Venere, il Sole, Marte, Giove,
Saturno, il cielo delle stelle fisse e, infine, il primo mobile, che metteva tutte le altre sfere in movimento, e della cui
natura peraltro Aristotele ebbe qualche difficoltà a dare una definizione precisa. Esso risulta mosso direttamente
dalla causa prima, identificabile con la divinità suprema (mentre le altre divinità risiedevano all'interno del cosmo),
in una maniera tuttavia non meccanica o causale, dato che Dio, essendo «atto puro», è assolutamente immobile, oltre
ad essere privo di materia e quindi non localizzabile da nessuna parte. Il primo mobile piuttosto si muove per un
desiderio di natura intellettiva, cioè tende a Dio come propria causa finale. Cercando dunque di imitare la sua
perfetta immobilità, esso è contraddistinto dal moto più regolare e uniforme che ci sia: quello circolare.[38]
Aristotele era convinto dell'unicità e della finitezza dell'universo: l'unicità perché se esistesse un altro universo
sarebbe composto sostanzialmente dei medesimi elementi del nostro, i quali tenderebbero, per i luoghi naturali, ad
avvicinarsi al nostro fino a ricongiungersi completamente con esso, ciò che prova l'unicità del nostro universo; la
finitezza perché in uno spazio infinito non potrebbe esistere alcun centro, ciò che contravverrebbe alla teoria dei
luoghi naturali.
36
Aristotele
37
Biologia
Aristotele ha fondato la biologia come scienza empirica, compiendo un importante salto di qualità (almeno stando
alle fonti che ci sono rimaste) nell'accuratezza e nella completezza descrittiva delle forme viventi, e soprattutto
introducendo importanti schemi concettuali che si sono conservati nei secoli successivi.
L'Historia animalium contiene la descrizione di 581 specie diverse, osservate per lo più durante la permanenza in
Asia Minore e a Lesbo. Questi dati biologici vengono organizzati e classificati nel De partibus animalium, nel quale
vengono introdotti concetti fondamentali come quello di viviparità e oviparità, e sono impiegati criteri di
classificazione delle specie in base all'habitat o a precise caratteristiche anatomiche, che sono in gran parte rimasti
inalterati fino a Linneo. Un altrettanto importante conquista intellettuale è lo studio sistematico di quella che oggi
chiamiamo anatomia comparata, che permette ad esempio ad Aristotele di classificare Delfini e Balene tra i
mammiferi (essendo essi dotati di polmoni e non di branchie come i pesci).
Il De generatione animalium si occupa del modo in cui gli animali si riproducono. In quest'opera la generazione
viene interpretata come trasmissione della forma (di cui è portatore il seme maschile) alla materia (rappresentata dal
sangue mestruale femminile). Secondo Aristotele le specie sono eterne ed immutabili, e la riproduzione non
determina mai cambiamenti nella sostanza, ma solo negli accidenti dei nuovi individui. Molto interessante è lo studio
che Aristotele compie sugli embrioni, grazie al quale egli comprende che essi non si sviluppano attraverso la crescita
di organi già tutti presenti fin dal concepimento, ma con la progressiva aggiunta di nuove strutture vitali.
Alcuni limiti della biologia aristotelica (come la generale sottovalutazione del ruolo del cervello, che Aristotele
credeva destinato a raffreddare il sangue) furono superati con la scoperta, avvenuta in epoca ellenistica, del sistema
nervoso, in molti altri casi un superamento della biologia aristotelica si è avuto solo nel Settecento. Alcune delle sue
osservazioni in ambito zoologico tuttavia sono state confermate solo nel XIX secolo.
La fortuna di Aristotele
La fortuna di Aristotele in Occidente si deve, tra le altre cose, al fatto che è stato lui a fondare e ordinare le diverse
forme di conoscenza, creando i presupposti e i paradigmi dei linguaggi specialistici che vengono usati ancora oggi in
campo scientifico. Mirando a creare un sistema globale del pensiero, furono di importanza basilare le sue
formulazioni sulla fisica e sulla metafisica, sulla teologia, sull'ontologia, sulla matematica, sulla poetica, sul teatro,
sull'arte, sulla musica, sulla logica, sulla retorica, sulla politica e sui governi, sull'etica, sulla grammatica,
sull'oratoria e sulla dialettica, sulla linguistica, sulla biologia e sulla zoologia.
Come pochi altri filosofi Aristotele ha avuto larga influenza su diversi pensatori delle epoche successive, che
ammirarono il suo genio e analizzarono profondamente i suoi concetti: auctoritas metafisica nella Scolastica di
Tommaso d'Aquino, oltre che nella tradizione islamica ed ebraica del Medioevo, il pensiero di Aristotele venne
spesso ripreso nel Rinascimento. Anche Dante Alighieri lo ricorda nella Divina Commedia:
« Poi ch'innalzai un poco più le ciglia,
vidi 'l maestro di color che sanno
seder tra filosofica famiglia.
[39]
Tutti lo miran, tutti onor li fanno. »
Giungendo a influenzare gli studi di molti grandi filosofi del Novecento, gli elementi dell'aristotelismo sono oggetto
di studio attivo ancora oggi, continuando a improntare di sé diversi aspetti della teologia cristiana. La filosofia del
secondo Novecento ha inoltre sottolineato, con autori come Gertrude Elizabeth Margaret Anscombe, Alasdair
MacIntyre o Philippa Ruth Foot, l'importanza per il dibattito odierno dell'impostazione etica di Aristotele, soprattutto
per gli sviluppi che le furono dati da Tommaso d'Aquino.
Aristotele
Note
[1] La data di nascita (384/383 a.C.) e la data di morte (322 a.C.) sono state calcolate con ragionevole certezza da August Boeckh (kleine
schriften VI 195); per maggiori discussioni vedi Felix Jacoby su FGrHiSt 244 F 38. Ingermar Düring, Aristotle in the Ancient Biographical
Tradition, Göteborg, 1957, p. 253.
[2] W.D.Ross, Aristotele, Feltrinelli, 1976.
[3] Cfr. G. Reale, Introduzione a Aristotele, Laterza, 1991.
[4] Non risulta chiaro se Erpillide sia stata semplicemente una compagna oppure la seconda moglie di Aristotele, dopo la morte di Pizia: cfr.
Enrico Berti, Guida ad Aristotele, Laterza, Roma-Bari 1997, p. 11.
[5] Cfr. M. De Bartolomeo - V. Magni, Filosofia.
[6] Diogene Laerzio, Vite, V, 11-16.
[7] Metafisica, A 6, 987 b 6 e segg.
[8] Metafisica, Λ 3, 1070 a 24-26.
[9] Cicerone, De natura deorum, 1, 13.
[10] Simplicio, De Coelo, 228.
[11] Cicerone, Tuscolane, 15, 42.
[12] E' da tenere presente tuttavia che il termine "logica" non è mai stato utilizzato da Aristotele essendo questo termine successivo ed attribuibile
per la prima volta probabilmente alla scuola stoica. Il termine utilizzato da Aristostele per le sue ricerche sulla predicazione è "analitica".
[13] Occorre tener presente che Aristotele non ha mai denominato il suo libro "Metafisica", dato che egli non conosceva questo termine, non
essendo ancora stato coniato. Il suo libro "Metafisica" fu così titolato successivamente dai curatori delle sue opere, che assemblarono sotto tale
titolo dei papiri autonomi di cui si sconosce la data di compilazione. L'attribuzione di tale nome e il suo reale significato non sono chiari. Esso
potrebbe infatti significare due cose: "ciò che va oltre la fisica" in senso assiologico, oppure ciò che nella collocazione dei libri andava inserito
dopo la Fisica. Cfr. ad esempio:
« Più tardi sono stati raccolti in un libro che stranamente è stato chiamato "Metafisica" in effetti il nome può essere
interpretato in due modi così come è stato fatto: da una parte ciò che è oltre la fisica in senso assiologico o gerarchico, e
dall'altra semplicemente ciò che viene dopo la Fisica cio che dal punto di vista della collocazione dei libri andava inserito
dopo la Fisica. »
(Andreas Kamp. In Aristotele teoretico: interviste a Gabriele Giannantoni, Andreas Kamp, Wolfang Kullmann, Emilio
Lledó. Le radici del pensiero filosofico. Istituto dell'Enciclopedia Italiana)
[14] Aulo Gellio, Noctes Atticae, 19,4, formula la questione in questi termini: «Aristotelis libri sunt, qui Problemata Physica inscribuntur,
lepidissimi et elegantiarum omnium repleti. [...] Item querit, cur accidat, ut eum, qui propter ignem diutius stetit, libido urinare lacessat. [...]
De urina celebri ex igne proximo facta verba haec posuit: Quia ignis solida solvit».
[15] Erasmo, Adagia, 1-8-29, Ex eodem ore calidum et frigidum efflare: «At huisce rei, quam satyrus admirabatur, causam reddit Aristoteles in
Problematis, sectione XXXIV, problemate septimo, idque eo fieri putat, quod qui vehementius efflat, is non moveat universum aerem, sed ore
contractiore paululum venti expiret ut calor ex ore profecto a reliquo aere, quem ob impetum plurimum movet, continuo evanescat atque in
frigus abeat».
[16] Paradoxographorum Graecorum Reliquiae, a cura di A. Giannini, Istituto Editoriale Italiano, 1966.
[17] Aristotele, Opere, Metafisica, Laterza, Bari 1973, p. 323.
[18] Cfr. G. Reale, La metafisica aristotelica come prosecuzione delle istanze di fondo della metafisica platonica, in «Pensamiento», n. 35
(1979), pagg. 133-143.
[19] Come si può notare, la difficoltà di Aristotele nel cercare di risolvere la questione dell'essere, una delle più difficili che la filosofia greca si
trovò ad affrontare, si presenta rovesciata rispetto a Platone; costui aveva il problema di conciliare le idee con le realtà sensibili, Aristotele
all'opposto di come salvaguardare l'essenza eterna e universale del singolo ente in seguito alla sua distruzione.
[20] Metafisica, Z 3, 1028 b 33.
[21] La teologia come «scienza del divino» è per Aristotele la filosofia nel senso più alto, essendo «scienza dell'essere in quanto essere»
(Metafisica, VI, 1, 1026 a, 2-21).
[22] La caratteristica del suo essere "puro" dipende dal fatto che in Dio, come atto finale compiuto, non vi è la minima presenza della materia, la
quale è soggetta a continue trasformazioni e quindi a corruzione.
[23] «Riguardo al pensiero […] sembra che esso solo possa esser separato, come l'eterno dal corruttibile» (Aristotele, Dell'anima, II, 1, 413b).
[24] «L'esperienza è conoscenza del particolare, mentre l'arte è conoscenza dell'universale. […] Gli empirici, infatti, sanno il che, non il perché
[…] Noi riteniamo che l'arte, più che l'esperienza, possa accostarsi alla scienza. […] Le sensazioni, da parte loro, sono indubbiamente
fondamentali per l'acquisizione di conoscenze particolari, ma non ci spiegano le cause» (Aristotele, Metafisica I, 1, 981a - 981b).
[25] Tutto quanto si pensa, si pensa necessariamente per immagini» (Aristotele, De anima, III, 7, 432 a).
[26] Così il professor Reale: «Aristotele sottolinea che l'induzione non è propriamente un ragionamento, bensì un esser condotto dal particolare
all'universale» (Storia della filosofia antica, vol. V, Vita e pensiero, 1983, pag. 142).
[27] Attribuendo a Socrate la scoperta dell'epagoghè come metodo di ricerca volto alla definizione delle essenze (espresso nella formula "tì
estì;", che cos'è?), Aristotele tuttavia riteneva che l'induzione conducesse a un'enumerazione incompleta di casi (cfr. Topici I, 12, 105 a
38
Aristotele
11-16). La generalizzazione a cui essa approda non ha fondamento alcuno se non sopravviene a darglielo l'intuizione noetica.
[28] De anima, III, 4.
[29] «La scienza in atto è identica con il suo oggetto» (De anima, III, 431 a, 1), o ancora «l'anima è, in un certo senso, tutti gli enti» (ibid., 431 h,
20).
[30] «C'è un intelletto analogo alla materia perché diviene tutte le realtà, ed un altro che corrisponde alla causa efficiente perché le produce tutte,
come una disposizione del tipo della luce, poiché in certo modo anche la luce rende i colori che sono in potenza colori in atto» (Aristotele,
Sull'anima, libro III, in F. Volpi, Dizionario delle opere filosofiche, pag. 92, Mondadori, Milano 2000). Se questo intelletto produttivo e
«separato» si identifichi col pensiero stesso di Dio, avente già in sè tutte le forme, è questione poco chiara che sarà a lungo dibattuta dalla
filosofia araba e scolastica.
[31] «Per dimostrazione intendo il sillogismo scientifico [...] Sarà pure necessario che la scienza dimostrativa si costituisca sulla base di premesse
vere, prime, immediate» (Aristotele, Analitici Secondi, I, 2, 71b).
[32] «Poiché non può sussistere nulla di più verace della scienza, se non l'intuizione, sarà l'intuizione ad avere come oggetto i principi» (Analitici
Secondi, II, 19, l00b).
[33] Il professor Reale così commenta l'importanza attribuita all'intuizione da Aristotele negli Analitici Secondi: «Una pagina, come si vede, che
dà ragione alla istanza di fondo del platonismo: la conoscenza discorsiva suppone a monte una conoscenza non discorsiva, la possibilità del
sapere mediato suppone di necessità un sapere immediato» (G. Reale, Introduzione a Aristotele, Laterza, 1977, pag. 159).
[34] Topici, I, 2; Topici, I, 12.
[35] Citazione in Marcello Marino, Leadership filosofica, Morlacchi editore, Perugia 2008, pag. 56.
[36] «La virtù è una disposizione abitudinaria riguardante la scelta, e consiste in una medietà in relazione a noi, determinata secondo un criterio, e
precisamente il criterio in base al quale la determinerebbe l'uomo saggio. Medietà tra due vizi, quello per eccesso e quello per difetto»
(Aristotele, Etica Nicomachea, II, 6).
[37] Oclocrazia, dal greco όχλος = moltitudine, massa, e κρατία = potere, è una forma di governo in cui le decisioni sono prese dalle masse.
[38] Aristotele, Fisica, libro VIII.
[39] Dante, Inferno, IV, 130-133.
Bibliografia
Traduzioni italiane
• L'Anima, introduzione, traduzione, note e apparati di G. Movia, testo greco a fronte, Milano 1996, pp. 379; 1998
(II ed.).
• Metafisica, a cura di C. A. Viano, Torino, 2005 ISBN 88-02-07171-3
Studi
•
•
•
•
•
•
•
•
•
•
•
•
•
George Grote, Aristotele, edito da A. Bain e G. Croom Robertsan, Londra 1872
Werner Jaeger, Aristotele, Sansoni, Firenze 1935
Alberto Jori, Aristotele, Milano, 2003 ISBN 88-424-9737-1
Fabrizio Bigotti, La Mente che Ordina i Segni. Ricerche sui problemi della forma nella filosofia naturale da
Aristotele a Linneo, Roma, 2009 ISBN 978-88-548-2810-0
Enrico Berti, La filosofia del primo Aristotele, Padova, 1962
Enrico Berti, Aristotele. Dalla dialettica alla filosofia prima, Padova, 1977 ISBN 88-452-3272-7
Enrico Berti, Guida ad Aristotele, Laterza, Roma-Bari 1997
Alessandra d'Epiro Dusmet de Beaulieu, Alèxandros, Aristotéles, Nero, Seneca, Rosablu, Anzio-Roma 2011
ISBN 978-88-903865-2-7
Walter Leszl, Il «De Ideis» di Aristotele e la teoria platonica delle idee, Firenze, 1975 ISBN 88-222-2204-0
Margherita Isnardi Parente, Studi sull'accademia platonica antica, Firenze, 1979 ISBN 88-222-2848-2
Cicerone, Tuscolane, Milano, 1996 ISBN 88-17-17100-X
Cicerone, La natura divina, Milano, 1998 ISBN 88-17-16828-9
Giovanni Reale, Guida alla lettura della «Metafisica» di Aristotele, Laterza: Roma-Bari, 2007 ISBN
88-8420-524-7
• Giovanni Reale, Il concetto di "filosofia prima" e l’unità della Metafisica di Aristotele (http://books.google.it/
books?id=aCY2D9tqOeMC&pg=PA142&lpg=PA142&dq=giovanni+reale+aristotele+concetto+prima+
39
Aristotele
•
•
•
•
•
•
•
•
•
•
40
metafisica&source=bl&ots=CZ30XPSZy-&sig=djkZD05QkmkQ2GNB2IwNPH7Kmrk&hl=it&
ei=DoDkSrbQNZPymQP0poGjCw&sa=X&oi=book_result&ct=result&resnum=1&
ved=0CAgQ6AEwAA#v=onepage&q=&f=false), Vita e Pensiero, Milano 1994 ISBN 88-343-0554-X
Giovanni Reale, Introduzione a Aristotele, Laterza, Roma-Bari 1991
Diogene Laerzio, Vite e dottrine dei più celebri filosofi, Bompiani, Milano 2006 ISBN 88-452-3301-4
M. Frede, G. Patzig, Il libro Z della Metafisica di Aristotele, Milano 2001 ISBN 978-88-343-0738-0
William David Ross, Aristotle, Oxford, 1923
William David Ross, Aristotle's Metaphysics, Oxford, 1924
Giuseppe Cambiano e Luciana Repici (a cura di), Aristotele e la conoscenza, LED Edizioni Universitarie, Milano
1993 ISBN 88-7916-035-4
AA.VV., Aristotele, a cura di G. Reale e A. Bausola, Vita e Pensiero, Milano 1994
Terence Irwin, I principi primi di Aristotele, Vita e Pensiero, Milano 1996
Armando Girotti, La filosofia di Aristotele, dal platonismo all'autonomia, Polaris, Faenza 1996
Annalisa Arci, L'orizzonte del vivente. Individui, parti e sostanze in Aristotele, Tangram Edizioni Scientifiche,
Trento, 2011 ISBN 9788864580302
Voci correlate
•
Aristotelismo
•
Etica (Aristotele)
•
Essenza
•
Fisica (Aristotele)
•
Horror vacui
•
Logica (Aristotele)
•
Metafisica aristotelica
•
Metafisica (Aristotele)
•
Questioni meccaniche
•
Poetica (Aristotele)
•
Secretum Secretorum
•
Sull'anima (Aristotele)
Altri progetti
•
•
Wikisource contiene opere originali: http://it.wikisource.org/wiki/el:Αριστοτέλης
Wikisource contiene opere originali: http://it.wikisource.org/wiki/Autore:Aristotele
•
•
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Aristotelēs
Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Aristotele
Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/Aristotele
Collegamenti esterni
• Aristotele, il maestro dei sapienti (http://www.mediatime.net/aristotele/)
• Intervista a Wolfgang Kullmann, per una panoramica completa del pensiero di Aristotele (http://www.
conoscenza.rai.it/site/it-IT/?ContentID=846&Guid=d4b83fc09001463b863faac45f882737)
• L'Etica Nicomachea di Aristotele (http://www.ousia.it/SitoOusia/SitoOusia/TestiDiFilosofia/TestiHTML/
Aristotele/EticaNicomachea/Etica Nicomachea.htm)
• Induzione, ragione e intuizione intellettuale in Aristotele (http://www.ariannaeditrice.it/articolo.
php?id_articolo=1732)
• (FR) Aristotele Opere (Francese) (http://remacle.org/bloodwolf/philosophes/Aristote/table.htm)
• (EN) Averroes' commentary (http://gallica.bnf.fr/ark:/12148/bpt6k58717k/f2.pagination) on the
Metaphysics, in Latin, together with the 'old'(Arabic) and new translation based on Moerbeke. Digitized at
Gallica.
Autoriferimento incrociato
Autoriferimento incrociato
Si ha un autoriferimento incrociato fra due o più enunciati quando ciascuno di essi si riferisce direttamente o
indirettamente ad un altro. Ecco due esempi celebri:
Il paradosso del foglio di Jordan
Su i due lati di un foglio sono riportate le seguenti frasi:
• sul davanti è scritto: 'la frase sul retro è vera',
• sul retro è scritto: 'l'altra frase è falsa'.
Supponiamo che la prima frase sia vera. Allora la frase sul retro è anch'essa vera. Essa però afferma che la frase sul
davanti è falsa, contrariamente a quanto ipotizzato. Supponiamo invece che la frase sul davanti sia falsa. Questo
implica che la frase sul retro è falsa. Poiché però essa afferma che la frase sul davanti è falsa, dobbiamo concludere
che quest'ultima è vera ottenendo nuovamente una contraddizione.
Questo paradosso è una variante del paradosso del mentitore. Nell'isola dei cavalieri e furfanti di Smullyan il
paradosso del foglio di Jordan avrebbe come analogo il seguente dialogo fra due abitanti A e B dell'isola:
• A dice di B che è un cavaliere,
• B dice di A che è un mentitore (furfante).
Raddoppiamenti
Questa idea è dovuta al logico Raymond Smullyan. Cominciamo col definire:
Il raddoppiato di: qualcosa
è: 'qualcosa qualcosa'
cioè viene semplicemente raddoppiato tutto ciò che è contenuto di seguito all'espressione 'Il raddoppiato di:' ed è
contenuto nella stessa riga. Se però prima dell'espressione 'Il raddoppiato di:' compare un'altra istruzione, il
raddoppiamento non viene effettuato.
Con questa convenzione le due frasi che seguono creano un autoriferimento incrociato.
• L'altra frase è: L'altra frase è Il raddoppiato di: L'altra frase è: L'altra frase è Il raddoppiato di:
• L'altra frase è Il raddoppiato di: L'altra frase è: L'altra frase è Il raddoppiato di:
Voci correlate
• Paradosso del mentitore
41
Beni di Giffen
Beni di Giffen
I beni di Giffen sono quei beni per i quali la domanda aumenta all'aumentare del prezzo; costituiscono quindi
un'eccezione rispetto al caso generale, nel quale la domanda varia in senso inverso rispetto al prezzo.
Paradosso di Giffen
Nei suoi Principi di economia, l'economista inglese Alfred Marshall fornì una prima dimostrazione della pendenza
negativa della curva di domanda, insieme ad una chiara definizione della elasticità della domanda rispetto al prezzo,
normalmente negativa.[1] Nella terza edizione della sua opera (1895), tuttavia, sottopose all'attenzione alcune
eccezioni rilevate dallo statistico scozzese Robert Giffen.
In particolare, Marshall faceva riferimento ad alcuni studi di Giffen sul consumo del pane: un aumento del prezzo del
pane aveva un effetto così pesante sulle risorse dei lavoratori più poveri, che essi erano costretti a rinunciare alla
carne e ad altri cereali più costosi; ne risultava quindi un aumento del consumo di pane nonostante l'aumento del
prezzo.[2]
Sembra, in realtà, che Giffen si riferisse alle patate, non al pane. Nel 1845 vi era stata in Irlanda una carestia che
aveva aumentato il prezzo delle patate al punto che le famiglie povere dovettero aumentare il loro consumo non
potendosi più permettere altri alimenti più costosi.[3] Tuttavia, non sono stati trovati riferimenti simili né al pane né
alle patate irlandesi nelle opere di Giffen.[4]
Tale fenomeno divenne comunque in seguito noto come paradosso di Giffen.
Va notato che Marshall propose il paradosso (aumento della domanda all'aumentare del prezzo) nell'ambito di
un'analisi della domanda che, limitata espressamente a beni che costituissero una quota trascurabile della spesa totale
di un individuo, considerava unicamente l'effetto sostituzione.[5] In tal caso, un bene di Giffen è in primo luogo un
bene per il quale non esistano sostituti.
I successivi sviluppi della teoria del consumatore, dovuti a Slutsky, hanno introdotto la distinzione tra effetto
sostituzione ed effetto reddito. Da tale punto di vista, la relazione positiva tra domanda e prezzo viene spiegata
facendo riferimento alla diminuzione del reddito conseguente ad un aumento del prezzo di beni di prima necessità;[6]
i beni di Giffen costituiscono quindi un caso particolare dei beni cosiddetti inferiori, che presentano una elasticità
rispetto al reddito minore di uno (il loro consumo, secondo la legge di Engel, aumenta via via più lentamente al
crescere del reddito, al contrario dei beni di lusso).
Note
[1] Cfr. Giovanni Pavanelli, Valore, distribuzione, moneta. Un profilo di storia del pensiero economico, Franco Angeli, Milano, 2003, pp. 207,
211.
[2] Cfr. Alfred Marshall, Principles of Economics (http:/ / www. econlib. org/ library/ Marshall/ marP14. html#Bk. III,Ch. VI), 8ª edizione,
Macmillan, Londra, 1920, Libro III, Capitolo VI, §4.
[3] Cfr. Gerald P. Dwyer Jr. e Cotton M. Lindsay, « Robert Giffen and the Irish Potato (http:/ / www. jstor. org/ pss/ 1803318)», The American
Economic Review, 1984, vol. 74, n. 1, pp. 188-192.
[4] Cfr. George J. Stigler, « Notes on the History of the Giffen Paradox (http:/ / www. jstor. org/ stable/ 1825304)», The Journal of Political
Economy, 1947, vol. 55, n. 2, pp. 152-156.
[5] Cfr. Mark Blaug, Storia e critica della teoria economica, Boringhieri, Torino, 1977, pp. 431-439.
[6] Cfr. Andreu Mas-Colell, Michael D. Whinston e Jerry R. Green, Microeconomic Theory, Oxford University Press, New York, 1995, pp.
25-26, 29.
42
Beni di Giffen
Bibliografia
• G.Rodano e E. Saltari, Lineamenti di teoria economica, Roma, Carocci, 2006
Voci correlate
• Robert Giffen
• Domanda e offerta
Calcolo combinatorio
Il calcolo combinatorio è il termine che denota tradizionalmente la branca della matematica che studia i modi per
raggruppare e/o ordinare secondo date regole gli elementi di un insieme finito di oggetti. Il calcolo combinatorio si
interessa soprattutto di contare tali modi, ovvero le configurazioni e solitamente risponde a domande quali "Quanti
sono...", "In quanti modi...", "Quante possibili combinazioni..." eccetera.
Più formalmente, dato un insieme S di n oggetti si vuole contare le configurazioni che possono assumere k oggetti
tratti da questo insieme. Prima di affrontare un problema combinatorio bisogna precisare due punti importanti:
• Se l'ordinamento è importante, ovvero se due configurazioni sono le stesse a meno di un riordinamento ({x,y,z} è
uguale a {z,x,y}?)
• Se si possono avere più ripetizioni di uno stesso oggetto, ovvero se uno stesso oggetto dell'insieme può o meno
essere riusato più volte all'interno di una stessa configurazione.
Permutazioni
Permutazioni semplici (senza ripetizioni)
Una permutazione di un insieme di oggetti è una presentazione ordinata, cioè una sequenza, dei suoi elementi nella
quale ogni oggetto viene presentato una ed una sola volta. Per contare quante siano le permutazioni di un insieme
con n oggetti, si osservi che il primo elemento della configurazione può essere scelto in n modi diversi, il secondo in
(n-1), il terzo in (n-2) e così via sino all'ultimo che potrà essere preso in un solo modo essendo l'ultimo rimasto.
Dunque, indicando con Pn il numero delle possibili permutazioni di un insieme di n elementi, si ottiene che esse sono
esattamente n! (n fattoriale):
Ad esempio le permutazioni degli elementi dell'insieme {a,b,c} sono 3! = 6: abc, bac ,bca, cab, cba, acb. Un altro
esempio può essere il seguente: In quanti modi possibili possiamo anagrammare la parola -ATRIO-, contando anche
le parole prive di significato: ATRIO n=5; P5= 5 * 4 * 3 * 2 * 1 = 120 modi di anagrammare la parola ATRIO. N.B:
nella parola ATRIO nessuna lettera si ripete.
Per completare meglio la definizione di fattoriale fissiamo anche i valori seguenti:
1! = 1 e 0! = 1.
43
Calcolo combinatorio
44
Permutazioni con ripetizioni
In alcuni casi un insieme può contenere elementi che si ripetono. In questo caso alcune permutazioni di tali elementi
saranno uguali tra loro. Indicando con k1, k2 fino a kr il numero di volte che si ripetono rispettivamente gli elementi
1, 2 fino a r, dove r ≤ n, le permutazioni uniche (non ripetute) divengono:
Si tratta, infatti, di dividere il numero delle distinte permutazioni di n oggetti per il numero delle permutazioni di k1!
presenze di uno stesso elemento, tutte uguali tra loro, poi per il numero delle permutazioni di k2! presenze di uno
stesso elemento, ecc.
La formula vale in realtà per qualsiasi permutazione, anche senza ripetizioni di elementi. Infatti, se assumiamo k1, k2
fino a kr uguali ad 1 (cioè gli elementi si ripetono una sola volta), otteniamo esattamente la formula delle
permutazioni semplici, perché si ha:
c
Dismutazioni
Sono dette dismutazioni le permutazioni prive di punti fissi, con formula:
Disposizioni
Disposizioni semplici (senza ripetizioni)
Una disposizione semplice di lunghezza k di elementi di un insieme S di n oggetti, con k ≤ n, è una presentazione
ordinata di k elementi di S nella quale non si possono avere ripetizioni di uno stesso oggetto. Per avere il numero di
queste configurazioni si considera che il primo componente di una tale sequenza può essere scelto in n modi diversi,
il secondo in (n-1) e così via, sino al k-esimo che può essere scelto in (n-k+1) modi diversi. Pertanto il numero Dn,k
di disposizioni semplici di k oggetti estratti da un insieme di n oggetti è dato da:
Ad esempio le disposizioni semplici di lunghezza 2 degli elementi dell'insieme {1,2,3,4,5} sono 5!/(5-2)! = 5!/3! =
120/6 = 20: 12, 13, 14, 15, 21, 23, 24, 25, 31, 32, 34, 35, 41, 42, 43, 45, 51, 52, 53, 54.
Si osserva che le permutazioni sono casi particolari delle disposizioni semplici: le permutazioni di un insieme di n
oggetti sono le disposizioni semplici di tali oggetti di lunghezza n. In effetti per il loro numero:
Disposizioni con ripetizioni
Una presentazione ordinata di elementi di un insieme nella quale si possono avere ripetizioni di uno stesso elemento
si dice disposizione con ripetizioni. Cerchiamo il numero delle possibili sequenze di k oggetti estratti dagli elementi
di un insieme di n oggetti, ognuno dei quali può essere preso più volte. Si hanno n possibilità per scegliere il primo
componente, n per il secondo, altrettante per il terzo e così via, sino al k-esimo che completa la configurazione. Il
numero cercato è pertanto:
Calcolo combinatorio
45
Ad esempio le disposizioni con ripetizione di lunghezza 2 degli elementi di {1,2,3,4,5} sono 52 = 25: Si osserva che
può anche essere k > n
Combinazioni
Combinazioni semplici (senza ripetizioni)
Si chiama combinazione semplice una presentazione di elementi di un insieme nella quale non ha importanza
l'ordine dei componenti e non si può ripetere lo stesso elemento più volte. La collezione delle combinazioni di k
elementi estratti da un insieme S di n oggetti distinti si può considerare ottenuta dalla collezione delle disposizioni
semplici di lunghezza k degli elementi di S ripartendo tali sequenze nelle classi delle sequenze che presentano lo
stesso sottoinsieme di S e scegliendo una sola sequenza da ciascuna di queste classi. Ciascuna delle suddette classi di
sequenza di lunghezza k contiene k! sequenze, in quanto accanto a una sequenza σ si hanno tutte e sole quelle
ottenibili permutando i componenti della σ. Quindi il numero delle combinazioni semplici di n elementi di lunghezza
k si ottiene dividendo per k! il numero delle disposizioni semplici di n elementi di lunghezza k:
Di solito tra le diverse disposizioni semplici di una classe si sceglie come combinazione rappresentativa la sequenza
nella quale i componenti compaiono in ordine crescente (tutti gli insiemi finiti possono avere gli elementi ordinati
totalmente, ovvero associati biunivocamente ai primi interi positivi).
Ad esempio le combinazioni semplici di lunghezza 4 degli elementi di {1,2,3,4,5,6} sono 6!/(4!2!) = 15: 1234, 1235,
1236, 1245, 1246, 1256, 1345, 1346, 1356, 1456, 2345, 2346, 2356, 2456, 3456.
Combinazioni con ripetizioni
Quando l'ordine non è importante ma è possibile avere componenti ripetute si parla di combinazioni con
ripetizione. Il numero di combinazioni con ripetizione di n oggetti di classe k è uguale a quello delle combinazioni
senza ripetizione di n+k-1 oggetti di classe k ed è quindi uguale a:
.
Ad esempio, vi sono
modi di distribuire a 2 bambini distinguibili 4 caramelle indistinguibili,
contando anche i casi in cui uno dei bambini non riceve nessuna caramella: 0-4, 1-3, 2-2, 3-1, 4-0.
Equivalentemente, le combinazioni con ripetizioni informano sul numero di possibili n-ple di addendi non negativi la
cui somma sia k (considerando diverse n-ple in cui eguali addendi compaiano in ordine differente); nel suddetto
esempio, sono mostrate le cinque diverse duple di somma 4. Inoltre, le combinazioni con ripetizioni per n oggetti di
classe k rappresentano il numero delle derivate parziali di ordine k calcolabili per una funzione a n variabili.
Calcolo combinatorio
46
Voci correlate
•
•
•
•
•
•
Combinatoria
Permutazione
Disposizione
Combinazione
Dismutazione (matematica)
Binomio di Newton
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Combinatorics
Combinazione
Nel calcolo combinatorio, se n e k sono due interi positivi, si definisce combinazione di n elementi presi k alla volta
(oppure di n elementi di classe k) ogni sottoinsieme di k oggetti estratti da un insieme di n oggetti. Se si impone la
condizione che una combinazione non può avere un elemento ripetuto si parla di combinazioni semplici, altrimenti di
combinazioni con ripetizione. Nel primo caso deve essere ovviamente k ≤ n.
In entrambi i casi i sottoinsiemi si considerano indipendenti dall'ordine degli elementi. Ad esempio, se siamo in
presenza dell'insieme {p,q,r,s,t} e prendiamo in esame le combinazioni di classe 3, non fa alcuna differenza
considerare i gruppi prs, psr, rps, spr, rsp ed srp in quanto essi sono formati dagli stessi elementi, mentre prs ed srq
sono considerate due combinazioni distinte in quanto differiscono in alcuni degli elementi.
Combinazioni semplici
Dato un insieme A di cardinalità n, il numero dei sottoinsiemi di A di cardinalità k ≤ n si ottiene calcolando prima il
numero delle funzioni da un generico sottoinsieme di cardinalità k in A, che è il numero delle disposizioni di n
elementi di classe k, poi, dal momento che si prescinde dall'ordine, si divide tale numero per quello delle
permutazioni di k elementi:
Il simbolo
viene detto coefficiente binomiale.
Giustificazione della formula
Facciamo riferimento al numero dei sottoinsiemi di cardinalità 4 dell'insieme {a,b,c,d,e,f}; per la definizione data,
abbiamo:
Nella fattispecie, i 15 gruppi sono:
abcd, abce, abcf, abde, abdf, abef, acde, acdf, acef, adef
bcde, bcdf, bcef, bdef
cdef
Combinazione
Il risultato può essere ottenuto col seguente ragionamento. Immaginiamo di mettere in un sacchetto le 6 lettere
a,b,c,d,e,f ed estraiamo a caso la prima, che può essere indifferentemente una delle 6: abbiamo quindi 6 possibilità di
estrazione. Ora passiamo ad estrarre la seconda lettera: poiché nel sacchetto ne sono rimaste 5, abbiamo 5 possibilità
di estrazione. A questo punto nel sacchetto ne sono rimaste 4: quando estrarremo la terza lettera avremo 4 possibilità
di estrazione. Infine, essendone rimaste 3, quando estrarremo la quarta lettera avremo 3 possibilità di estrazione. Se
moltiplichiamo tutte le possibilità fra loro, avremo 6×5×4×3 = 360 possibili gruppi.
Il valore ottenuto di 360 è, in realtà, il numero delle disposizioni semplici di 6 oggetti di classe 4, nelle quali l'ordine
è rilevante. Ad esempio, le lettere successivamente estratte potrebbero essere a,b,c,d, ma anche d,c,b,a. Le due
sequenze differiscono nell'ordine, ma comprendono entrambe gli stessi elementi di un unico sottoinsieme
dell'insieme dato. In generale, le quattro lettere a,b,c,d possono presentarsi in 24 modi diversi, da considerarsi però
equivalenti ai fini delle combinazioni:
abcd abdc acbd acdb adbc adcb
bacd badc bcad bcda bdac bdca
cabd cadb cbad cbda cdab cdba
dabc dacb dbac dbca dcab dcba
Poiché nelle combinazioni non siamo interessati all'ordine di estrazione, dobbiamo dividere 360 per il numero di
tutte le diverse sequenze che si possono formare con le stesse 4 lettere, cioè per il numero delle permutazioni di 4
elementi, dato da 4! = 24. Il risultato finale è:
Generalizzando, se abbiamo n elementi da raggruppare a k a k, dobbiamo effettuare il seguente rapporto
Se moltiplichiamo numeratore e denominatore per (n-k)! otteniamo, come volevasi dimostrare,
Ad esempio, se si vuole conoscere il numero di comitati di 3 membri che si possono formare scegliendo tra 6
persone, interessa solo sapere in quanti modi si possono scegliere i membri del comitato e non importa quale venga
scelto per primo o quale per ultimo: in tal caso, il numero dei comitati possibili è C6,3 = 20. Se invece volessimo
sapere in quanti modi possono presentarsi i primi 3 classificati tra 6 concorrenti, l'ordine sarebbe rilevante e, quindi,
le possibili classifiche sarebbero D6,3 = 120.
Ordine lessicografico
Al fine di evitare di considerare erroneamente come valida una combinazione semplice che in realtà è già stata
precedentemente presa in considerazione con un altro ordine, si può ricorrere a quest'altra definizione di
combinazione.
Si consideri un insieme S di n elementi, preventivamente ordinati e si consideri un intero naturale k tale che 0≤k≤n.
Si dice combinazione di elementi di S di lunghezza k ogni sequenza di k elementi di S che sia crescente in base
all'ordine preventivamente prefissato.
Ad esempio, le combinazioni di lunghezza 4 degli elementi di {a,b,c,d,e,f}, preventivamente ordinati secondo il
tradizionale ordine alfabetico, sono le seguenti 15:
abcd abce abcf abde abdf abef acde acdf acef adef
bcde bcdf bcef bdef
cdef
47
Combinazione
Si può notare come le combinazioni rispettino l'ordine lessicografico, in conformità con l'ultima definizione data.
Attenendosi all'ordine, si evita di fare confusione considerando come diverse due combinazioni che in realtà non lo
sono, tratti in inganno dall'ordine diverso con il quale si presentano i suoi elementi.
Criptomorfismo
Rifacendoci all'esempio di prima, si possono codificare le combinazioni semplici che abbiamo ottenuto con delle
sequenze binarie. Nel nostro caso particolare. tali sequenze binarie sono di lunghezza 6 e peso 4 e presentano lo
stesso contenuto informativo delle combinazioni indicate nell'esempio. Nella fattispecie, usando numeri binari di 6
cifre, di cui la prima sia 1 se compare la a e zero in caso contrario, la seconda sia 1 o 0 secondo che compaia o meno
la b ecc., abbiamo:
111100 111010 111001 110110 110101 110011 101110 101101 101011 100111
011110 011101 011011 010111
001111
Si noti come queste sequenze siano presentate in ordine antilessicografico.
In generale, quindi, tra le combinazioni semplici di n elementi di lunghezza k e le sequenze binarie di lunghezza n e
peso k si ha un criptomorfismo e risulta equivalente operare con le combinazioni o con le sequenze binarie. Poter
operare in modo equivalente con le sequenze binarie si rivela molto utile in ambito informatico.
Combinazioni con ripetizione
Nelle combinazioni con ripetizione di lunghezza k, ogni elemento può essere ripetuto fino a k volte. Il loro numero è:
Tale risultato può essere dimostrato in diversi modi.
Prima dimostrazione
Dato un qualsiasi insieme finito di n elementi, questo può essere posto in corrispondenza biunivoca con l'insieme
{1,2,...,n}; ci si può quindi chiedere quanti sono i sottoinsiemi di cardinalità k di questo.
A tal fine, si considerano le sequenze non decrescenti, di lunghezza k, di interi appartenenti a {1,2,...,n}.
Consideriamo una di queste sequenze:
e associamole la sequenza:
La nuova sequenza è strettamente crescente, non presenta ripetizioni e quindi individua una combinazione semplice
di lunghezza k degli interi in {1, 2, ..., n+k–1}. La precedente associazione pone in corrispondenza biunivoca le
combinazioni con ripetizioni di lunghezza k degli elementi di {1, 2, ..., n} con le combinazioni semplici di lunghezza
k degli interi in {1, 2, ..., n+k-1}. Quindi il numero delle combinazioni con ripetizioni di lunghezza k dei primi n
interi positivi coincide con il numero delle combinazioni semplici di lunghezza k dei primi n+k-1 interi positivi:
Un esempio può aiutare a comprendere meglio la dimostrazione. Dato l'insieme {1,2}, associamo a ciascuna delle
sue combinazioni con ripetizione di classe 3 una sequenza definita come sopra:
1,1,1 → 1, 1+1, 1+2 → 1,2,3
1,1,2 → 1, 1+1, 2+2 → 1,2,4
48
Combinazione
1,2,2 → 1, 2+1, 2+2 → 1,3,4
2,2,2 → 2, 2+1, 2+2 → 2,3,4
A ciascuna delle combinazioni con ripetizione corrisponde una ed una sola delle combinazioni semplici di classe 3
dell'insieme {1,...,(2+3-1)} = {1,2,3,4} e viceversa. Il numero delle prime è quindi uguale al numero delle seconde,
che è C2+3–1,3.
Seconda dimostrazione
Il numero delle combinazioni di n elementi di classe k è uguale al numero delle funzioni crescenti da un insieme A di
cardinalità k in un insieme B di cardinalità n.
Una qualsiasi di tali funzioni è un insieme di coppie (ai,bj), in cui ai è un elemento di A (con i = 1,2,...,k) e bj è un
elemento di B (con j = 1,2,...,n). In tale insieme, vi sono tante coppie quanti sono gli elementi di A e nessun elemento
di A compare in più di una coppia. Gli elementi di B, inoltre, possono ciascuno comparire in nessuna o più coppie.
Si considerano rilevanti, in una prima fase, le sequenze di coppie; ad esempio, individuate due coppie in cui sia
presente a secondo membro un dato elemento b, la sequenza (a1, b), (a2, b) è diversa dalla sequenza (a2, b), (a1, b).
Si indicano inoltre con Fk l'insieme delle funzioni da A in B, con Fk-1 l'insieme delle funzioni da un sottoinsieme di
cardinalità k–1 di A in B, in entrambi i casi considerando distinte, provvisoriamente, funzioni diverse solo per la
sequenza delle coppie che condividono il secondo membro.
Sia |Fk-1| il numero delle funzioni dell'ultimo tipo. Vi sono n+k–1 modi di estendere ciascuna di tali funzioni a tutto
A. Infatti, scelto un qualsiasi elemento bj di B, se questo è già presente in altre mj coppie (quelle, appunto, il cui
secondo membro è bj), la nuova coppia (ak, bj) potrà essere posta in sequenza con le altre in mj+1 modi diversi:
prima della prima, oppure dopo una qualsiasi delle m. Considerando che:
e che la nuova coppia può avere a secondo membro un qualsiasi elemento di B, si ha:
La cardinalità dell'insieme Fk può quindi essere calcolata per ricorrenza:
Si può osservare che si tratta del numero di disposizioni semplici di (n+k–1) elementi di classe k.
Per ottenere il numero delle funzioni crescenti, è sufficiente eliminare la distinzione prima introdotta tra funzioni
diverse solo per la sequenza delle coppie, quindi scegliere una sola delle k! permutazioni delle coppie (che sono tante
quante gli elementi di A). Si ottiene così:
Anche qui può essere utile un esempio. Siano A = {a1,a2,a3} e B = {b1,b2}. L'insieme F1 contiene solo due funzioni:
(a1,b1) e (a1,b2).
Aggiungiamo ora le coppie che hanno a2 come primo elemento e consideriamo distinte le funzioni con diverse
sequenze delle coppie che condividono il secondo membro. Otteniamo le funzioni in F2:
49
Combinazione
50
da (a1,b1)
da (a1,b2)
(a2,b1), (a1,b1) (a2,b1), (a1,b2)
(a1,b1), (a2,b1) (a2,b2), (a1,b2)
(a1,b1), (a2,b2) (a1,b2), (a2,b2)
Si ha quindi:
Si tratta delle 6 disposizioni semplici di (2+2-1) = 3 elementi di classe 2. I tre elementi sono i due elementi di A
finora considerati ed un "elemento di separazione" che consenta di distinguere quali sono associati a b1 e quali a b2.
Indicando tale elemento con una barra verticale, le sei funzioni sono:
1.
2.
3.
4.
5.
6.
a1 a2 | (entrambi associati a b1)
a2 a1 | (entrambi associati a b1)
a1 | a2 (a1 associato a b1, a2 associato a b2)
a2 | a1 (a2 associato a b1, a1 associato a b2)
| a1 a2 (entrambi associati a b2)
| a2 a1 (entrambi associati a b2)
Per ottenere il numero delle funzioni crescenti, quelle cioè tali che se i < j allora f(ai) ≤ f(aj), basta dividere per il
numero delle permutazioni dei due elementi di A, che sono 2! = 2. Si ottiene così che le funzioni crescenti sono 6/2 =
3 (sono quelle al primo, terzo e quinto posto dell'elenco).
Per estendere le funzioni a tutto A, aggiungiamo le coppie che hanno a3 come primo elemento:
da (a2,b1), (a1,b1)
da (a1,b1), (a2,b1)
da (a1,b1), (a2,b2)
da (a2,b1), (a1,b2)
da (a2,b2), (a1,b2)
da (a1,b2), (a2,b2)
(a3,b1),(a2,b1),(a1,b1) (a3,b1),(a1,b1),(a2,b1) (a3,b1),(a1,b1),(a2,b2) (a3,b1),(a2,b1),(a1,b2) (a3,b1),(a2,b2),(a1,b2) (a3,b1),(a1,b2),(a2,b2)
(a2,b1),(a3,b1),(a1,b1) (a1,b1),(a3,b1),(a2,b1) (a1,b1),(a3,b1),(a2,b2) (a2,b1),(a3,b1),(a1,b2) (a3,b2),(a2,b2),(a1,b2) (a3,b2),(a1,b2),(a2,b2)
(a2,b1),(a1,b1),(a3,b1) (a1,b1),(a2,b1),(a3,b1) (a1,b1),(a3,b2),(a2,b2) (a2,b1),(a3,b2),(a1,b2) (a2,b2),(a3,b2),(a1,b2) (a1,b2),(a3,b2),(a2,b2)
(a2,b1),(a1,b1),(a3,b2) (a1,b1),(a2,b1),(a3,b2) (a1,b1),(a2,b2),(a3,b2) (a2,b1),(a1,b2),(a3,b2) (a2,b2),(a1,b2),(a3,b2) (a1,b2),(a2,b2),(a3,b2)
per un totale di 24 coppie. Si ha quindi:
Questo è il numero delle disposizioni semplici di (2+3-1) = 4 elementi di classe 3, dove i quattro elementi sono a1,
a2, a3 e l'"elemento separatore" che consente di distinguere se sono associati a b1 oppure a b2. Il numero delle
funzioni crescenti si ottiene dividendo per il numero delle permutazioni dei tre elementi di A: 24/3! = 24/6 = 4. Le
funzioni crescenti sono, infatti:
1.
2.
3.
4.
a1 a2 a3 | ovvero (a1,b1),(a2,b1),(a3,b1)
a1 a2 | a3 ovvero (a1,b1),(a2,b1),(a3,b2)
a1 | a2 a3 ovvero (a1,b1),(a2,b2),(a3,b2)
| a1 a2 a3 ovvero (a1,b2),(a2,b2),(a3,b2)
Combinazione
Terza dimostrazione
La precedente dimostrazione può essere semplificata come segue. Dato un insieme A di k elementi, vogliamo
ripartire i suoi elementi in n gruppi, ciascuno contenente da 0 a k elementi di A. Rappresentiamo gli elementi di A
con asterischi, i gruppi con n–1 barre verticali; ad esempio, se n = 4 e k = 6, possiamo avere ripartizioni come le
seguenti (tra parentesi il numero di elementi in ciascun gruppo):
∗ ∗ | ∗ ∗ | ∗ | ∗ (2,2,1,1)
| ∗ ∗ ∗ | ∗ | ∗ ∗ (0,3,1,2)
oppure:
∗ ∗ | | | ∗ ∗ ∗ ∗ (2,0,0,4)
o anche:
∗ ∗ ∗ ∗ ∗ ∗ | | | (6,0,0,0)
In ciascuna rappresentazione abbiamo una sequenza di n+k–1 simboli. Dal momento che non interessa l'ordine, si
tratta solo di vedere in quanti modi si possono scegliere n–1 di tali simboli per farne delle barre. Si ha quindi, per
una proprietà del coefficiente binomiale:
Esempi
Le combinazioni con ripetizione di lunghezza 2 dei primi 5 interi positivi sono:
e precisamente: 11, 12, 13, 14, 15, 22, 23, 24, 25, 33, 34, 35, 44, 45, 55.
Si può però anche avere k > n: ad esempio, le combinazioni di lunghezza 5 dei primi 2 interi positivi sono:
ovvero: 11111, 11112, 11122, 11222, 12222, 22222.
Numero di soluzioni intere di un'equazione
Il calcolo delle combinazioni con ripetizione consente di trovare il numero delle soluzioni intere non negative di
un'equazione in n variabili del tipo:
In questo caso k può essere visto come il numero delle unità che si possono ripartire in n gruppi diversi, anche vuoti,
quindi come il numero degli asterischi della terza dimostrazione, svolgendo i "+" il ruolo delle barre. Ad esempio,
l'equazione:
ammette, tra le altre, le seguenti soluzioni (tra parentesi la rappresentazioni con sequenze di "1" e "+"):
Trovare il loro numero equivale a trovare il numero delle combinazioni con ripetizione di n elementi di classe k. Nel
caso dell'equazione data, il numero è:
51
Combinazione
Per un caso più semplice, le soluzioni intere non negative dell'equazione:
sono:
ovvero le quattro coppie (0,3), (1,2), (2,1), (3,0).
Si può anche calcolare il numero delle soluzioni intere positive di un'equazione (detto "numero delle composizioni di
k in n parti"). Data un'equazione del tipo:
basta trasformarla in:
ponendo yi = xi–1. Si ottiene così:
Nel caso dell'equazione x1+x2 = 3, il numero delle soluzioni intere positive (il numero delle composizioni di 3 in 2
parti) è:
ovvero le due coppie (1,2) e (2,1).
Multinsiemi
Il numero delle combinazioni con ripetizione di n elementi di classe k viene anche detto numero dei multinsiemi di
cardinalità k di un insieme di cardinalità n.
Si usa, al riguardo, la definizione di multinsieme come funzione mU: U → {0,1,2,...}. Ad esempio, dato l'insieme U
= {a,b,c}, un multinsieme di cardinalità 3 è {(a,0), (b,2), (c,1)}, ovvero, nella notazione esponenziale, a0 b2 c1. La
sua cardinalità è la somma dei secondi membri delle coppie, o degli esponenti nella seconda notazione. Tale
multinsieme può essere rappresentato come una delle possibili combinazioni con ripetizione di classe 3 dei 3
elementi di U: bbc.
Il numero delle combinazioni con ripetizione di classe 3 dei 3 elementi di U è (3+3–1)!/(2!3!) = 10; le combinazioni
sono:
aaa, aab, aac, abb, abc, acc, bbb, bbc, bcc, ccc
Questo è anche il numero dei multinsiemi di cardinalità 3 di U, che sono:
a3b0c0, a2b1c0, a2b0c1, a1b2c0, a1b1c1, a1b0c2, a0b3c0, a0b2c1, a0b1c2, a0b0c3
Si può notare che il loro numero è anche uguale a quello delle soluzioni intere non negative dell'equazione:
52
Combinazione
53
Voci correlate
•
•
•
•
•
•
Calcolo combinatorio
Disposizione
Multinsieme
Permutazione
Reticolo booleano
Triangolo di Tartaglia
Bibliografia
• Mauro Cerasuoli, Franco Eugeni e Marco Protasi, Elementi di matematica discreta, Zanichelli, Bologna, 1988.
• Sheldon M. Ross, Calcolo delle probabilità, Apogeo, Milano, 2004.
Dismutazione (matematica)
In combinatoria vengono dette dismutazioni (o sconvolgimenti, o permutazioni complete) le permutazioni di un
insieme che non fissano alcun elemento, ovvero nessuno degli elementi dell'insieme iniziale compare nella sua
posizione originaria.
Formalmente, se le permutazioni di un insieme X sono le funzioni biiettive
le funzioni biiettive
tali che
, le dismutazioni di X sono
.
Si verifica facilmente che non esiste alcuna dismutazione per un insieme di un solo elemento, ne esiste 1 per un
insieme di 2 elementi, 2 per un insieme di 3 elementi, 9 per uno di 4 elementi...
Ad esempio, le 9 dismutazioni possibili della parola "ABCD" sono:
BADC BCDA BDAC
CADB CDAB CDBA
DABC DCAB DCBA
Contare le dismutazioni
Il numero di dismutazioni di un insieme di n elementi è
.
La dimostrazione di questo fatto è un esempio di applicazione del principio di inclusione ed esclusione. Dato un
insieme
di elementi, siano
rispettivamente l'insieme delle sue permutazioni e quello delle sue
dismutazioni. Sia
evidentemente
l'insieme delle permutazioni che fissano l'
-esimo elemento. La sua cardinalità sarà
, perché gli altri elementi possono muoversi liberamente.
Per calcolare la cardinalità di
, vorremmo sottrarre dal numero totale delle permutazioni il
numero di quelle che fissano (almeno) 1 elemento. Cerchiamo quindi
Osserviamo che
precisamente,
, perché in
, dove
le intersezioni del tipo
.
. Sia
.
saranno contate 2 volte. Più
Dismutazione (matematica)
In
generale,
54
definiti
e
abbiamo che
,
.
In particolare ne ricaviamo
Calcolare la cardinalità di
non è difficile: i modi di scegliere
elementi (quelli da fissare) sono
ognuno di questi gli altri elementi possono permutare liberamente, quindi in
, e per
modi. Ne segue che
.
A questo punto sappiamo che il numero di permutazioni che fissano almeno un elemento è
.
Quindi quelle che non ne fissano nessuno sono
.
Questa espressione viene talvolta chiamata subfattoriale di
e denotata con
.
Comportamento asintotico
Per conoscere il comportamento asintotico del numero di dismutazioni di un insieme di
succede per
) possiamo notare che
(dove il simbolo
è proprio la serie di Taylor di
, e che quindi
significa è asintoticamente equivalente a).
Un altro modo di vedere questo risultato è che, dato
a caso di un insieme di
elementi (ovvero cosa
sufficiente grande, la probabilità che una permutazione scelta
elementi sia una dismutazione è circa
Generalizzazioni
Talora servono dismutazioni che, oltre a non ammettere punti fissi, soddisfano restrizioni ulteriori.
Le dismutazioni costituiscono un esempio della ampia collezione degli insiemi di permutazioni soggette a vincoli.
Ad esempio il problema dei ménages chiede per n coppie di coniugi, in quanti modi possono essere sistemati ad un
tavolo rotondo in modo che si alternino uomini e donne e in modo che nessuno si trovi di fianco al coniuge.
Su un piano più formale, dati due insiemi A ed S e date due collezioni U e V di suriezioni da A in S, ci si può chiedere
il numero delle coppie di funzioni (f,g) con f in U e g in V, tali che per tutti gli a in A si abbia f(a) ≠ g(a); in altre
parole ci si chiede quando per ogni f e g esiste una dismutazione φ di S tale che f(a) = φ(g(a)).
Dismutazione (matematica)
Voci correlate
• Combinatoria
• Combinazione
• Permutazione
Collegamenti esterni
•
•
•
•
Sequenza A000166 [1] della OEIS di Neil Sloane
Derangements and applications [2] di Mehdi Hassani
Non-sexist solution of the ménage problem [3] di Kenneth P. Bogart, Peter G. Doyle
Derangement [4] in MathWorld di Eric Weisstein
Note
[1]
[2]
[3]
[4]
http:/ / www. research. att. com/ ~njas/ sequences/ A000166?language=italian
http:/ / www. cs. uwaterloo. ca/ journals/ JIS/ VOL6/ Hassani/ hassani5. pdf
http:/ / www. math. dartmouth. edu/ ~doyle/ docs/ menage/ menage/ menage. html
http:/ / mathworld. wolfram. com/ Derangement. html
Disposizione
Nel calcolo combinatorio, se n e k sono due interi positivi, si definisce disposizione di n elementi k a k (oppure di n
elementi di classe k, oppure di n elementi presi k alla volta) ogni sottoinsieme ordinato di k oggetti estratti da un
insieme di n oggetti, in cui i sottoinsiemi differiscono se presentano qualche elemento diverso o se presentano gli
stessi elementi ma in ordine diverso. Talvolta, k viene chiamato numero di posti e la disposizione di n oggetti in k
posti viene chiamata k-disposizione. Se si impone la condizione che in ogni sottoinsieme non sono ammessi elementi
ripetuti si parla di disposizioni semplici altrimenti di disposizioni con ripetizione. Nel primo caso deve essere
ovviamente k ≤ n.
Disposizioni semplici
Siano A un insieme finito di cardinalità k e B un insieme finito di cardinalità n, con 0 ≤ k ≤ n. Sia inoltre Fk l'insieme
delle funzioni iniettive f: A → B.
Sia Fk-1 l'insieme delle funzioni iniettive da un sottoinsieme di A di cardinalità k–1 in B. Ciascuna di tali funzioni è
un insieme di k-1 coppie (a,b), con a appartenente al sottoinsieme di A e b appartenente a B, tali che ciascun a e
ciascun b compaiano in una sola di esse.
Sia |Fk-1| il numero di tali funzioni. Il numero delle funzioni iniettive da A in B si ottiene aggiungendo, per ciascuna
funzione, il numero delle coppie (a,b) in cui a e b non siano già presenti in alcuna coppia. Vi è un solo a, ma vi sono
n – (k-1) elementi b, ovvero n – (k-1) nuove coppie. Si ha quindi la ricorrenza:
essendo |F1| = n, in quanto vi sono n coppie (a,b) in cui a sia fissato e b sia scelto tra gli n elementi di B.
Il numero delle funzioni iniettive da un insieme di cardinalità k in uno di cardinalità n si indica anche col simbolo:
55
Disposizione
Nella terminologia combinatoria classica, il numero delle applicazioni iniettive da un insieme di cardinalità k in un
insieme di cardinalità n viene detto numero delle disposizioni semplici di n oggetti presi k alla volta, o di classe k, e
si indica con Dn,k.
Ad esempio, se n=5 e k=3 e come oggetti consideriamo le lettere A, B, C, D ed E, allora le disposizioni possibili
sono le seguenti 5!/(5-3)! = 120/2 = 60:
ABC ABD ABE ACB ACD ACE ADB ADC ADE AEB AEC AED
BAC BAD BAE BCA BCD BCE BDA BDC BDE BEA BEC BED
CAB CAD CAE CBA CBD CBE CDA CDB CDE CEA CEB CED
DAB DAC DAE DBA DBC DBE DCA DCB DCE DEA DEB DEC
EAB EAC EAD EBA EBC EBD ECA ECB ECD EDA EDB EDC
Il risultato può essere ottenuto col seguente ragionamento: supponiamo di mettere in un sacchetto le lettere A, B, C,
D ed E e di estrarne una a caso. La prima lettera estratta può essere indifferentemente una delle 5 e quindi abbiamo 5
possibilità di estrazione. Ora passiamo ad estrarre la seconda lettera: poiché nel sacchetto ne sono rimaste 4, abbiamo
4 possibilità di estrazione. A questo punto, nel sacchetto ne sono rimaste 3 ed avremo quindi, per la terza lettera, 3
possibilità di estrazione. Se moltiplichiamo tutte le possibilità fra loro, avremo 5×4×3 = 60 possibili gruppi.
Generalizzando, ogni volta che si estrae una lettera, il numero delle lettere che si possono estrarre diminuisce di uno;
se nel sacchetto ci sono n lettere e vogliamo estrarne k avremo:
ovvero un prodotto di k fattori pari a n diminuito di 0, 1, ..., (k-1). Moltiplicando e dividendo tale prodotto per (n-k)!,
si ottiene la formula data sopra:
Infine si può notare che c'è una relazione tra le disposizioni e le permutazioni; infatti nel caso in cui k sia uguale a n
si avrebbe:
cioè le permutazioni di n elementi.
Disposizioni con ripetizione
Una funzione da un insieme A in un insieme B può essere vista come un insieme di coppie (a,b) tale che vi siano
tante coppie quante sono gli elementi a di A e che non vi sia alcun a presente in più di una coppia. Possono invece
esservi nessuna o più coppie aventi, come secondo membro, un dato elemento b di B.
Dati un insieme A di cardinalità k ed un insieme B di cardinalità n, con n e k interi positivi, il numero delle funzioni
da A in B è dato da nk, in quanto ciascuna delle k coppie può avere come secondo membro uno qualsiasi degli n
elementi di B. Ad esempio, il numero delle funzioni da un insieme di 2 elementi {a, b} in un insieme di 10 elementi
{1,...,10} è 102, in quanto si hanno 10 coppie del tipo (a, x), dove x = 1,2,...,10, e per ciascuna di esse 10 coppie del
tipo (b, x). Ciascuna delle funzioni cercate è costituita da una delle dieci coppie il cui primo elemento sia a e da una
delle dieci il cui primo elemento sia b; il numero di tali funzioni è quindi dato dalla cardinalità del prodotto
cartesiano dei due insiemi di dieci coppie: 10×10=102.
56
Disposizione
Nella terminologia combinatoria classica, il numero delle funzioni da un insieme di cardinalità k in uno di cardinalità
n viene detto numero delle disposizioni con ripetizione di n oggetti k a k, o di classe k; a differenza delle disposizioni
semplici, k può essere maggiore di n.
L'esempio sopra proposto può essere reintepretato come segue. Dati 10 oggetti distinti, il numero delle presentazioni
di 2 di tali elementi, anche non diversi tra loro, è 102; in particolare, con le 10 cifre da 0 a 9 si possono comporre 100
numeri di due cifre: 00, 01, ..., 09, 10, 11, ..., 19, 20, 21, 22, ...., 99.
Analogamente, il numero delle possibili colonne del totocalcio, composte da tredici pronostici scelti tra tre (1, X o
2), è pari a: 313 = 1.594.323.
Voci correlate
• Calcolo combinatorio
• Permutazione
• Combinazione
Effetto Mpemba
L'effetto Mpemba è un effetto riscoperto casualmente nel 1969 dallo studente tanzaniano Erasto Mpemba, ma in
realtà già descritto nel IV secolo a.C. da Aristotele (Μετεωρολογικά, I, 12).
Ponendo in freezer due bicchieri d'acqua, identici tra loro tranne che per la temperatura iniziale del liquido, il
bicchiere contenente acqua calda congela prima di quello contenente acqua a temperatura ambiente.
Un revisore del Physics World ha recentemente scritto, "Sebbene l'effetto Mpemba sia reale, non è chiaro se la
spiegazione sia banale o illuminante."[1]
Sono state proposte molte teorie per giustificare questo comportamento anti intuitivo. Fattori certamente significativi
sono:
1) Il bicchiere caldo scioglie il leggero strato di ghiaccio che di norma ricopre i ripiani di un congelatore, e pone a
contatto diretto il bicchiere col metallo freddo. Il bicchiere con l'acqua a temperatura ambiente, invece, resta
poggiato su uno straterello di brina che conduce il calore peggio del metallo, ed è, sia pure in minima misura, isolato
dal ripiano del congelatore. Quindi si ha una minore dispersione di calore per conduzione.
2) Se si pone in freezer un liquido molto caldo, la massa di liquido nel bicchiere diminuisce per evaporazione.
Vi sono altri effetti secondari (come il precipitare di soluti) che contribuiscono all'effetto quando non si utilizzi
semplice acqua ma soluzioni. Tuttavia l'effetto è stato studiato soprattutto con semplice acqua.
Si noti che eseguendo l'esperimento in condizioni stringenti, come usare acqua bollita perché non contenga gas,
contenitori identici, massa d'acqua misurata con precisione, e asciugando con cura i ripiani del freezer, o ponendo i
bicchieri su un ripiano all'aperto quando la temperatura è abbondantemente sottozero, il fenomeno non si verifica.
L'effetto, indubbiamente non intuitivo, dimostra la necessità di considerare tutti i parametri di possibile rilevanza e
l'uso dei migliori strumenti teorici nello studio di un problema fisico.
57
Effetto Mpemba
58
Note
[1] Ball, P. (aprile 2006). Does hot water freeze first? (http:/ / physicsweb. org/ articles/ world/ 19/ 4/ 4). Physics World 19(4): 19–21.
Bibliografia
• Monwhea Jeng, The Mpemba effect: When can hot water freeze faster than cold? in American Journal of Physics,
volume 74, 2006, numero 6, pagina 514.
Collegamenti esterni
• (EN) The Mpemba Effect: Hot Water Freezes before Cold (http://www.school-for-champions.com/science/
mpemba.htm)
• (EN) Why water freezes faster after heating (http://www.eurekalert.org/pub_releases/2006-05/ns-wwf053106.
php) (New Scientist)
Effetto Venturi
L'effetto Venturi (o paradosso idrodinamico) è il fenomeno fisico, scoperto e studiato dal fisico Giovanni Battista
Venturi, per cui la pressione di una corrente fluida aumenta con il diminuire della velocità.
Descrizione
Effetto venturi su una massa liquida
È possibile studiare la variazione di
pressione di un liquido in un condotto,
inserendo
dei
tubi
manometrici.
L'esperimento dimostra che il liquido
raggiunge nei tubi altezze diverse: minore
dove la sezione si rimpicciolisce (in cui
aumenta la velocità) e maggiore quando la
sezione si allarga (ovvero quando la velocità
diminuisce). Dato che la pressione del
liquido aumenta all'aumentare dell'altezza
raggiunta dal liquido nei tubi manometrici, è
possibile dire che ad un aumento della
velocità corrisponde una diminuzione della
pressione e viceversa, cioè all'aumento della
pressione corrisponde una diminuzione della
velocità.
Con esperimenti appropriati, è possibile
notare lo stesso fenomeno nei gas.
In "1" - dove la velocità del fluido è minore che in "2" essendo maggiore la sua
sezione - si osserva che la pressione è maggiore che in "2".
Effetto Venturi
59
Formula
Consideriamo una generica condotta che
presenti una diminuzione della sua sezione e
chiamiamo
l'area maggiore e
l'area
minore. Dall'equazione di continuità
applicata alla fluidodinamica sappiamo che
la portata entrante nella prima sezione deve
essere esattamente uguale a quella passante
per la seconda. Da ciò, poiché la portata può
essere espressa come prodotto della velocità
del fluido per la sezione in cui passa,
sappiamo che c'è un aumento di velocità
nella sezione
rispetto a quella in
(
Esempio di diminuzione della pressione in un tratto di condotta che presenta una
strozzatura
<
).
Sulla base di queste considerazioni, supponendo che non esista una differenza di quota tra le due sezioni, è possibile
utilizzare come sistema di riferimento per le altezze l'asse della condotta, eliminando in questo modo un termine
nell'equazione di Bernoulli, che si presenterà in questa forma:
con ρ densità, p pressione e v velocità del flusso.
Si può notare, quindi, che all'aumentare della velocità del fluido si crea necessariamente una diminuzione della
pressione interna al fluido stesso. Nel caso del nostro esempio, cioè, la pressione
risulterà essere minore della
pressione
.
Paradosso idrodinamico
L'effetto Venturi viene anche chiamato paradosso
idrodinamico poiché si può pensare che la pressione aumenti
in corrispondenza delle strozzature; tuttavia, per la legge della
portata, la velocità aumenta in corrispondenza delle
strozzature. Quindi se abbiamo un tubo che finisce contro una
piastra come in figura e il fluido ha una pressione leggermente
superiore alla pressione atmosferica, l'aumento di velocità che
la strozzatura crea tra tubo e piastra farà aumentare la velocità
a scapito della pressione del fluido. Se la pressione scende al
di sotto della pressione atmosferica, la piastra tenderà a
chiudere il tubo anziché volare via. Da questo nasce il
paradosso idrodinamico che è una conseguenza della Legge di
Bernoulli.
Effetto Venturi
Il tubo di Venturi
Il tubo di Venturi sfrutta l'effetto Venturi per misurare la portata. Sia Q la portata volumetrica, nell'esempio
precedente. Siccome
Effetto Venturi
conoscendo le sezioni e le pressioni nei punti del tubo e la densità del fluido è possibile ricavare la portata
Voci correlate
•
•
•
•
•
•
Equazione di Bernoulli
Giovanni Battista Venturi
Legge di Torricelli
Linea di flusso
Tubo di Venturi
Ugello di scarico
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Venturi
effect
Esperimento immaginato
Un esperimento mentale o esperimento concettuale (in tedesco Gedankenexperiment, termine coniato dal fisico e
chimico danese Hans Christian Ørsted) è un esperimento che non si intende realizzare praticamente, ma viene solo
immaginato: i suoi risultati non vengono quindi misurati, ma calcolati teoricamente in base alle leggi della fisica.
Descrizione
L'esperimento mentale è un'operazione di analisi operativa delle esperienze di misura effettivamente eseguibili nel
mondo reale, almeno come esperienze concettualmente possibili. Parte di queste esperienze non sempre è
realizzabile al momento presente per limiti non della fisica, ma della tecnologia e della tecnica note.
Il carattere puramente mentale dell'esperimento permette di considerare situazioni non realizzabili praticamente (ad
esempio oggetti che si muovono a velocità relativistiche) e di esaminare l'esperimento in forma molto semplificata,
tralasciando gli aspetti non pertinenti. Lo scopo di questo esercizio è mettere sotto esame una teoria fisica
esaminandone le previsioni, e in particolare mettendone in luce le conseguenze sorprendenti o paradossali.
Il concetto di esperimento concettuale è stato introdotto da Albert Einstein, che se ne servì per illustrare la sua Teoria
della relatività; ma anche alcuni paradossi classici, come quello di Achille e la tartaruga, si possono considerare
esperimenti mentali. Anche alcuni ragionamenti di Galileo Galilei rientrano sotto questa categoria.
A titolo di esempio si descrive qui l'esperimento del treno, usato da Einstein per mostrare come, secondo la teoria
della relatività, eventi che sono simultanei in un sistema di riferimento inerziale non lo sono in un altro. Un altro
celebre esperimento concettuale applicato alla teoria della relatività è il cosiddetto paradosso dei gemelli.
60
Esperimento immaginato
Esempio
Consideriamo un treno che viaggi alla velocità di 30 000 km/s, cioè un decimo della velocità della luce. Un
osservatore si pone al centro di un vagone lungo 20 m, con due torce elettriche in mano; le punta verso le due
estremità del vagone, una nella direzione del moto del treno e l'altra in direzione contraria, e le accende
simultaneamente.
Ora, uno dei postulati della teoria della relatività afferma che la velocità della luce è costante e uguale in tutti i
sistemi di riferimento inerziali: perciò l'osservatore a bordo del treno, rispetto al quale il vagone è immobile, vede la
luce delle due torce percorrere 10 m in entrambe le direzioni, e arrivare simultaneamente alle due estremità del
vagone in un tempo t = 0,0333 microsecondi.
Ma per un osservatore situato a terra, che vede il vagone in movimento, il raggio di luce diretto verso la coda del
treno raggiunge dopo soltanto 9,0909 metri l'estremità del vagone, che nel frattempo gli è venuta incontro di 0,9091
metri; mentre il raggio diretto verso la testa del treno deve percorrere 11,1111 metri per raggiungere l'altra estremità
che si è allontanata di 1,1111 metri. Il primo raggio arriva quindi dopo 0,0303 microsecondi, il secondo invece dopo
0,0370 microsecondi: in questo sistema di riferimento i due eventi non sono simultanei!
Bibliografia
• Marco Buzzoni, Esperimento ed esperimento mentale, Franco Angeli, 2004 ISBN 978-88-464-5868-1
• Karl Popper, Logica della scoperta scientifica [1934], Einaudi, Torino, 1970.
Libri in lingua inglese
• Adams, Scott, God's Debris: A Thought Experiment, Andrews McMeel Publishing, (USA), 2001
• Brown, J.R., The Laboratory of the Mind: Thought Experiments in the Natural Sciences, Routledge, (London),
1993.
• Browning, K.A. (ed.), Nowcasting, Academic Press, (London), 1982.
• Marco Buzzoni, Thought Experiment in the Natural Sciences, Koenigshausen+Neumann, Wuerzburg 2008
• Cohen, Martin, "Wittgenstein's Beetle and Other Classic Thought Experiments", Blackwell (Oxford) 2005
• Cohnitz, D., Gedankenexperimente in der Philosophie, Mentis Publ., (Paderborn, Germany), 2006.
• Craik, K.J.W., The Nature of Explanation, Cambridge University Press, (Cambridge), 1943.
• Cushing, J.T., Philosophical Concepts in Physics: The Historical Relation Between Philosophy and Scientific
Theories, Cambridge University Press, (Cambridge), 1998.
• DePaul, M. & Ramsey, W. (eds.), Rethinking Intuition: The Psychology of Intuition and Its Role in Philosophical
Inquiry, Rowman & Littlefield Publishers, (Lanham), 1998.
• Gendler, T.S., Thought Experiment: On the Powers and Limits of Imaginary Cases, Garland, (New York), 2000.
• Gendler, T.S. & Hawthorne, J., Conceivability and Possibility, Oxford University Press, (Oxford), 2002.
• Häggqvist, S., Thought Experiments in Philosophy, Almqvist & Wiksell International, (Stockholm), 1996.
• Hanson, N.R., Patterns of Discovery: An Inquiry into the Conceptual Foundations of Science, Cambridge
University Press, (Cambridge), 1962.
• Harper, W.L., Stalnaker, R. & Pearce, G. (eds.), Ifs: Conditionals, Belief, Decision, Chance, and Time, D. Reidel
Publishing Co., (Dordrecht), 1981.
• Hesse, M.B., Models and Analogies in Science, Sheed and Ward, (London), 1963.
• Holyoak, K.J. & Thagard, P., Mental Leaps: Analogy in Creative Thought, A Bradford Book, The MIT Press,
(Cambridge), 1995.
• Horowitz, T. & Massey, G.J. (eds.), Thought Experiments in Science and Philosophy [1], Rowman & Littlefield,
(Savage), 1991.
• Kahn, H., Thinking About the Unthinkable, Discus Books, (New York), 1971.
• Kuhne, U., Die Methode des Gedankenexperiments, Suhrkamp Publ., (Frankfurt/M, Germany), 2005.
61
Esperimento immaginato
• Leatherdale, W.H., The Role of Analogy, Model and Metaphor in Science, North-Holland Publishing Company,
(Amsterdam), 1974.
• Ørsted, Hans Christian (1997) Selected Scientific Works of Hans Christian Ørsted.. Translated to English by
Karen Jelved, Andrew D. Jackson, and Ole Knudsen, (translators 1997).
• Roese, N.J. & Olson, J.M. (eds.), What Might Have Been: The Social Psychology of Counterfactual Thinking,
Lawrence Erlbaum Associates, (Mahwah), 1995.
• Shanks, N. (ed.), Idealization IX: Idealization in Contemporary Physics (Poznan Studies in the Philosophy of the
Sciences and the Humanities, Volume 63), Rodopi, (Amsterdam), 1998.
• Shick, T. & Vaugn, L., Doing Philosophy: An Introduction through Thought Experiments (Second Edition),
McGraw Hill, (New York), 2003.
• Sorensen, R.A., Thought Experiments, Oxford University Press, (Oxford), 1992.
• Tetlock, P.E. & Belkin, A. (eds.), Counterfactual Thought Experiments in World Politics, Princeton University
Press, (Princeton), 1996.
• Thomson, J.J. {Parent, W. (ed.)}, Rights, Restitution, and Risks: Essays in Moral Theory, Harvard University
Press, (Cambridge), 1986 .
• Vosniadou, S. & Ortony. A. (eds.), Similarity and Analogical Reasoning, Cambridge University Press,
(Cambridge), 1989.
• Wilkes, K.V., Real People: Personal Identity without Thought Experiments, Oxford University Press, (Oxford),
1988.
Articoli di riviste (in lingua inglese)
• Dennett, D.C., "Intuition Pumps", pp. 180-197 in Brockman, J., The Third Culture: Beyond the Scientific
Revolution, Simon & Schuster, (New York), 1995.
• Galton, F., "Statistics of Mental Imagery", Mind, Vol.5, No.19, (July 1880), pp. 301-318.
• Hempel, C.G., "Typological Methods in the Natural and Social Sciences", pp. 155-171 in Hempel, C.G. (ed.),
Aspects of Scientific Explanation and Other Essays in the Philosophy of Science, The Free Press, (New York),
1965.
• Kuhn, T. "A Function for Thought Experiments", in The Essential Tension (Chicago: University of Chicago
Press, 1979), pp. 240-• Mach, E., "On Thought Experiments", pp. 134-147 in Mach, E., Knowledge and Error: Sketches on the
Psychology of Enquiry, D. Reidel Publishing Co., (Dordrecht), 1976. [Translation of Erkenntnis und Irrtum (5th
edition, 1926.].
• Popper, K., "On the Use and Misuse of Imaginary Experiments, Especially in Quantum Theory", pp. 442-456, in
Popper, K., The Logic of Scientific Discovery, Harper Torchbooks, (New York), 1968.
• Rescher, N., "Thought Experiment in Pre-Socratic Philosophy", pp. 31-41 in Horowitz, T. & Massey, G.J. (eds.),
Thought Experiments in Science and Philosophy [1], Rowman & Littlefield, (Savage), 1991.
• Witt-Hansen, J., "H.C. Ørsted, Immanuel Kant and the Thought Experiment", Danish Yearbook of Philosophy,
Vol.13, (1976), pp. 48-65.
• Jacques, V., Wu, E., Grosshans, F., Treussart, F., Grangier, P. Aspect, A., & Roch, J. (2007). Experimental
Realization of Wheeler's Delayed-Choice Gedanken Experiment, Science, 315, p. 966-968. [2]
62
Esperimento immaginato
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Thought
experiments
Note
[1] http:/ / philsci-archive. pitt. edu/ archive/ 00003190/
[2] http:/ / www. sciencemag. org/ cgi/ content/ abstract/ 315/ 5814/ 966
Esperimento mentale
Un esperimento mentale o esperimento concettuale (in tedesco Gedankenexperiment, termine coniato dal fisico e
chimico danese Hans Christian Ørsted) è un esperimento che non si intende realizzare praticamente, ma viene solo
immaginato: i suoi risultati non vengono quindi misurati, ma calcolati teoricamente in base alle leggi della fisica.
Descrizione
L'esperimento mentale è un'operazione di analisi operativa delle esperienze di misura effettivamente eseguibili nel
mondo reale, almeno come esperienze concettualmente possibili. Parte di queste esperienze non sempre è
realizzabile al momento presente per limiti non della fisica, ma della tecnologia e della tecnica note.
Il carattere puramente mentale dell'esperimento permette di considerare situazioni non realizzabili praticamente (ad
esempio oggetti che si muovono a velocità relativistiche) e di esaminare l'esperimento in forma molto semplificata,
tralasciando gli aspetti non pertinenti. Lo scopo di questo esercizio è mettere sotto esame una teoria fisica
esaminandone le previsioni, e in particolare mettendone in luce le conseguenze sorprendenti o paradossali.
Il concetto di esperimento concettuale è stato introdotto da Albert Einstein, che se ne servì per illustrare la sua Teoria
della relatività; ma anche alcuni paradossi classici, come quello di Achille e la tartaruga, si possono considerare
esperimenti mentali. Anche alcuni ragionamenti di Galileo Galilei rientrano sotto questa categoria.
A titolo di esempio si descrive qui l'esperimento del treno, usato da Einstein per mostrare come, secondo la teoria
della relatività, eventi che sono simultanei in un sistema di riferimento inerziale non lo sono in un altro. Un altro
celebre esperimento concettuale applicato alla teoria della relatività è il cosiddetto paradosso dei gemelli.
Esempio
Consideriamo un treno che viaggi alla velocità di 30 000 km/s, cioè un decimo della velocità della luce. Un
osservatore si pone al centro di un vagone lungo 20 m, con due torce elettriche in mano; le punta verso le due
estremità del vagone, una nella direzione del moto del treno e l'altra in direzione contraria, e le accende
simultaneamente.
Ora, uno dei postulati della teoria della relatività afferma che la velocità della luce è costante e uguale in tutti i
sistemi di riferimento inerziali: perciò l'osservatore a bordo del treno, rispetto al quale il vagone è immobile, vede la
luce delle due torce percorrere 10 m in entrambe le direzioni, e arrivare simultaneamente alle due estremità del
vagone in un tempo t = 0,0333 microsecondi.
Ma per un osservatore situato a terra, che vede il vagone in movimento, il raggio di luce diretto verso la coda del
treno raggiunge dopo soltanto 9,0909 metri l'estremità del vagone, che nel frattempo gli è venuta incontro di 0,9091
metri; mentre il raggio diretto verso la testa del treno deve percorrere 11,1111 metri per raggiungere l'altra estremità
che si è allontanata di 1,1111 metri. Il primo raggio arriva quindi dopo 0,0303 microsecondi, il secondo invece dopo
0,0370 microsecondi: in questo sistema di riferimento i due eventi non sono simultanei!
63
Esperimento mentale
Bibliografia
• Marco Buzzoni, Esperimento ed esperimento mentale, Franco Angeli, 2004 ISBN 978-88-464-5868-1
• Karl Popper, Logica della scoperta scientifica [1934], Einaudi, Torino, 1970.
Libri in lingua inglese
• Adams, Scott, God's Debris: A Thought Experiment, Andrews McMeel Publishing, (USA), 2001
• Brown, J.R., The Laboratory of the Mind: Thought Experiments in the Natural Sciences, Routledge, (London),
1993.
• Browning, K.A. (ed.), Nowcasting, Academic Press, (London), 1982.
• Marco Buzzoni, Thought Experiment in the Natural Sciences, Koenigshausen+Neumann, Wuerzburg 2008
• Cohen, Martin, "Wittgenstein's Beetle and Other Classic Thought Experiments", Blackwell (Oxford) 2005
• Cohnitz, D., Gedankenexperimente in der Philosophie, Mentis Publ., (Paderborn, Germany), 2006.
• Craik, K.J.W., The Nature of Explanation, Cambridge University Press, (Cambridge), 1943.
• Cushing, J.T., Philosophical Concepts in Physics: The Historical Relation Between Philosophy and Scientific
Theories, Cambridge University Press, (Cambridge), 1998.
• DePaul, M. & Ramsey, W. (eds.), Rethinking Intuition: The Psychology of Intuition and Its Role in Philosophical
Inquiry, Rowman & Littlefield Publishers, (Lanham), 1998.
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
•
Gendler, T.S., Thought Experiment: On the Powers and Limits of Imaginary Cases, Garland, (New York), 2000.
Gendler, T.S. & Hawthorne, J., Conceivability and Possibility, Oxford University Press, (Oxford), 2002.
Häggqvist, S., Thought Experiments in Philosophy, Almqvist & Wiksell International, (Stockholm), 1996.
Hanson, N.R., Patterns of Discovery: An Inquiry into the Conceptual Foundations of Science, Cambridge
University Press, (Cambridge), 1962.
Harper, W.L., Stalnaker, R. & Pearce, G. (eds.), Ifs: Conditionals, Belief, Decision, Chance, and Time, D. Reidel
Publishing Co., (Dordrecht), 1981.
Hesse, M.B., Models and Analogies in Science, Sheed and Ward, (London), 1963.
Holyoak, K.J. & Thagard, P., Mental Leaps: Analogy in Creative Thought, A Bradford Book, The MIT Press,
(Cambridge), 1995.
Horowitz, T. & Massey, G.J. (eds.), Thought Experiments in Science and Philosophy [1], Rowman & Littlefield,
(Savage), 1991.
Kahn, H., Thinking About the Unthinkable, Discus Books, (New York), 1971.
Kuhne, U., Die Methode des Gedankenexperiments, Suhrkamp Publ., (Frankfurt/M, Germany), 2005.
Leatherdale, W.H., The Role of Analogy, Model and Metaphor in Science, North-Holland Publishing Company,
(Amsterdam), 1974.
Ørsted, Hans Christian (1997) Selected Scientific Works of Hans Christian Ørsted.. Translated to English by
Karen Jelved, Andrew D. Jackson, and Ole Knudsen, (translators 1997).
Roese, N.J. & Olson, J.M. (eds.), What Might Have Been: The Social Psychology of Counterfactual Thinking,
Lawrence Erlbaum Associates, (Mahwah), 1995.
Shanks, N. (ed.), Idealization IX: Idealization in Contemporary Physics (Poznan Studies in the Philosophy of the
Sciences and the Humanities, Volume 63), Rodopi, (Amsterdam), 1998.
Shick, T. & Vaugn, L., Doing Philosophy: An Introduction through Thought Experiments (Second Edition),
McGraw Hill, (New York), 2003.
Sorensen, R.A., Thought Experiments, Oxford University Press, (Oxford), 1992.
Tetlock, P.E. & Belkin, A. (eds.), Counterfactual Thought Experiments in World Politics, Princeton University
Press, (Princeton), 1996.
• Thomson, J.J. {Parent, W. (ed.)}, Rights, Restitution, and Risks: Essays in Moral Theory, Harvard University
Press, (Cambridge), 1986 .
64
Esperimento mentale
• Vosniadou, S. & Ortony. A. (eds.), Similarity and Analogical Reasoning, Cambridge University Press,
(Cambridge), 1989.
• Wilkes, K.V., Real People: Personal Identity without Thought Experiments, Oxford University Press, (Oxford),
1988.
Articoli di riviste (in lingua inglese)
• Dennett, D.C., "Intuition Pumps", pp. 180-197 in Brockman, J., The Third Culture: Beyond the Scientific
Revolution, Simon & Schuster, (New York), 1995.
• Galton, F., "Statistics of Mental Imagery", Mind, Vol.5, No.19, (July 1880), pp. 301-318.
• Hempel, C.G., "Typological Methods in the Natural and Social Sciences", pp. 155-171 in Hempel, C.G. (ed.),
Aspects of Scientific Explanation and Other Essays in the Philosophy of Science, The Free Press, (New York),
1965.
• Kuhn, T. "A Function for Thought Experiments", in The Essential Tension (Chicago: University of Chicago
Press, 1979), pp. 240-• Mach, E., "On Thought Experiments", pp. 134-147 in Mach, E., Knowledge and Error: Sketches on the
Psychology of Enquiry, D. Reidel Publishing Co., (Dordrecht), 1976. [Translation of Erkenntnis und Irrtum (5th
edition, 1926.].
• Popper, K., "On the Use and Misuse of Imaginary Experiments, Especially in Quantum Theory", pp. 442-456, in
Popper, K., The Logic of Scientific Discovery, Harper Torchbooks, (New York), 1968.
• Rescher, N., "Thought Experiment in Pre-Socratic Philosophy", pp. 31-41 in Horowitz, T. & Massey, G.J. (eds.),
Thought Experiments in Science and Philosophy [1], Rowman & Littlefield, (Savage), 1991.
• Witt-Hansen, J., "H.C. Ørsted, Immanuel Kant and the Thought Experiment", Danish Yearbook of Philosophy,
Vol.13, (1976), pp. 48-65.
• Jacques, V., Wu, E., Grosshans, F., Treussart, F., Grangier, P. Aspect, A., & Roch, J. (2007). Experimental
Realization of Wheeler's Delayed-Choice Gedanken Experiment, Science, 315, p. 966-968. [2]
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Thought
experiments
65
Ex falso sequitur quodlibet
66
Ex falso sequitur quodlibet
La locuzione latina ex falso (sequitur) quodlibet (ossia: "dal falso (segue una) qualsiasi cosa (scelta) a piacere")
indica nella logica classica (valido anche per la logica intuizionista) un principio logico che stabilisce come da un
enunciato contraddittorio consegue logicamente qualsiasi altro enunciato. La definizione ex falso quodlibet per
questo teorema è tradizionalmente attribuita a Duns Scoto, sebbene in realtà sia opera di un autore sconosciuto[1],
pertanto a volte ci si riferisce ad esso anche come teorema dello pseudo Scoto.
Nel linguaggio della logica proposizionale possiamo esprimere il principio con la formula:
Tale principio è stato utilizzato nella scolastica anche come pretesa di spiegazione di come Dio abbia creato
l'Universo a partire dalla negazione del principio di non contraddizione. Ma ai sostenitori di questa teoria spesso
veniva ribattuto che, invece, in base alla consequentia mirabilis, si poteva creare anche a partire dal nulla proprio
grazie al principio di non contraddizione.
Dimostrazione
Siano A e B due affermazioni, e
A l'opposto di A. Si ha allora
Ossia "A e NON A" è vera, Posso allora inserire "(A e NON A) O B" essendo vera la prima, è vera anche questa.
Per la proprietà distributiva
Ricordando che
equivale a
cioè, applicando le leggi di De Morgan e negando
Dato che abbiamo supposto vero
, B deve essere vero a prescindere dalla verità di A e del suo contrario.
Per questa proprietà, viene anche detto principio di esplosione.
Dimostrazione alternativa
Una dimostrazione alternativa è la seguente:
1.
2.
3.
4.
5.
6.
7.
(ipotesi)
per la 2
De Morgan
per la 3
per la doppia negazione.
È interessante osservare che una contraddizione, implicando qualsiasi affermazione, implica anche qualsiasi
contraddizione. Si può quindi sostenere l'equivalenza e quindi la banalità, in senso matematico, delle contraddizioni
Ex falso sequitur quodlibet
e dei sistemi che le contengono. Va comunque ricordato che, dal secondo teorema di incompletezza di Gödel, deriva
che dato un sistema formale che includa almeno l'aritmetica di Robinson, o esso è incompleto, non potendo
dimostrare almeno la propria coerenza, o è contraddittorio.
Esempio di Bertrand Russell
Possiamo ricordare un ironico esempio a suo tempo proposto da Bertrand Russell. Supponiamo che sia vera una
affermazione falsa come 4=5 (l'affermazione A nella notazione vista sopra può essere : "4 è diverso da 5" e non-A:
"4 è uguale a 5" ), allora sottraendo 3 da entrambi i membri otteniamo: 2=1. Ora, io e il Papa siamo due, ma 2=1
quindi io e il Papa siamo uno, quindi io sono il Papa.
Note
[1] Piergiorgio Odifreddi, Il diavolo in cattedra. La logica da Aristotele a Gödel. Torino, Einaudi, 2003. ISBN 8806167219.
Bibliografia
• Smullyan, R., "Qual è il titolo di questo libro? L'enigma di Dracula e altri indovinelli logici", ISBN 8808054225,
Zanichelli, 1981
Voci correlate
• Consequentia mirabilis
• Principio di non-contraddizione
Giovanni Buridano
Giovanni Buridano, conosciuto anche come Jean Buridan o in latino Iohannes Buridanus (Béthune?, 1290 circa
– 1358 circa), è stato un filosofo e logico francese, maestro delle arti a Parigi e Magnifico Rettore dell'Università di
Parigi.
Allievo di Guglielmo di Ockham, si staccò dal suo pensiero e intorno al 1340 lo attaccò pubblicamente. In seguito gli
occamisti ottennero che le sue opere fossero proibite dal 1474 al 1481.
Fu convinto nominalista e fu perseguitato dai realisti, che lo indussero a lasciare Parigi per la Germania e ad
insegnare a Vienna. È considerato un filosofo della Scolastica.
Dottrine fisiche
Buridano fu uno dei sostenitori della teoria dell'impeto, secondo la quale un corpo in moto possiede un impeto che lo
porta a proseguire il moto anche in assenza di forze esterne. Questa teoria, la cui origine è rintracciabile negli scritti
di Giovanni Filopono, del VI secolo, precorre in parte il principio d'inerzia che sarà enunciato nella prima età
moderna. La teoria dell'impeto permise a Buridano di considerare superflue le Intelligenze Motrici che nella fisica
d'ispirazione aristotelica risultavano necessarie per mantenere in moto i cieli, anche perché lo spazio esterno era da
lui concepito vuoto e non pieno di materia trasparente come aveva pensato Aristotele. Gli impeti cui sono soggetti i
corpi celesti «non s'indebolivano né si corrompevano, non essendo nei corpi celesti inclinazione ad altri moti né
essendo in essi una resistenza corruttiva o repressiva di quell'impeto». Per questo viene considerato uno dei pensatori
che hanno contribuito alla ripresa dello scetticismo filosofico.
Quanto alla forma della Terra, Giovanni Buridano fu uno dei pensatori medievali che ne sostenevano la sfericità e
che dovesse ruotare sul proprio asse.
67
Giovanni Buridano
L'intelletto umano e la volontà
Buridano si occupò dell'analisi della volontà umana, che ritenne seguire le valutazioni dell'intelletto. In particolare la
volontà che dovesse decidere quale scegliere tra due beni considerati equivalenti dall'intelletto si troverebbe in
imbarazzo.
Un esempio della sua tesi, che tuttavia non è dovuto a Buridano e ne banalizza pesantemente il pensiero, è il famoso
paradosso dell'asino che posto tra due cumuli di fieno perfettamente uguali e alla stessa distanza non sa scegliere
quale iniziare a mangiare morendo di fame nell'incertezza.
Opere: Edizioni antiche
•
•
•
•
•
Summulae de Dialectica Parigi, 1487 (prima edizione edita da Thomas Bricot)
Quaestiones super decem libros Ethicorum Aristotelis ad Nicomachum Parigi, 1489
Sophismata Parigi, 1489
Consequentiae Parigi, 1493
Perutile compendium totius logicae, com Io. Dorp expositione Venezia, 1499 (con il commento di John Dorp,
ristampa anastatica: Frankfurt am main, Minerva, 1965)
• Subtilissimae Quaestiones super octo Physicorum libros Aristotelis Parigi, 1509
• In Metaphysicen Aristotelis Questiones argutissimae Parigi, 1518 (ristampa anastatica: Frankfurt am main,
Minerva, 1965)
Bibliografia
•
•
•
•
Bibliografia di Fabienne Pironet [1] (fino al 2001)
Bibliografia delle opere logiche e metafisiche di Buridano [2] elenco delle opere edite ed inedite
Bibliografia degli studi sulle opere logiche e metafisiche [3] aggiorna la bibliografia della Pironet al 2010
Marcello Landi, Un contributo allo studio della scienza nel Medio Evo. Il trattato Il cielo e il mondo di Giovanni
Buridano e un confronto con alcune posizioni di Tommaso d'Aquino, in Divus Thomas 110/2 (2007) 151-185.
Note
[1] http:/ / www. ontology-2. com/ essays/ buridan-bibliographie. pdff
[2] http:/ / www. ontology. co/ buridan-editions. htm
[3] http:/ / www. ontology. co/ buridan-biblio-one. htm
68
Guglielmo di Ockham
Guglielmo di Ockham
Guglielmo di Ockham, o Occam (Ockham, 1288 – Monaco di Baviera, 1349), è stato un religioso, teologo, filosofo
e francescano inglese.
Biografia
Detto il dottore invincibile e il venerabile iniziatore, entrò nell'ordine francescano in giovane età, studiò
all'Università di Oxford fra il 1307 e il 1318, intraprendendo l'insegnamento, in seguito, nella medesima università.
Accusato di eresia, subì un processo da parte dell'Inquisizione ad Avignone nel 1324, a seguito del quale
cinquantuno sue enunciazioni teologiche vennero condannate dal pontefice Giovanni XXII. Fu successivamente
assolto da Papa Clemente VI l'8 giugno 1349. Ad Avignone, dove soggiornò per quattro anni, conobbe Michele da
Cesena, il ministro generale dell'ordine francescano, che condivideva con lui l'idea che le comunità cristiane
potessero avere in uso dei beni ma mai possederli, secondo la dottrina della povertà evangelica, contrariamente a
quanto sosteneva il papato.
Nel maggio 1328 Guglielmo e i suoi confratelli, timorosi di entrare in conflitto col papa, si ritirarono a Pisa, dove
entrò al seguito dell'imperatore Ludovico il Bavaro con cui si era schierato nella controversia tra l'Impero ed il
Papato.
Lì arrivò la scomunica da parte del papa, dopo la quale Guglielmo decise di seguire l'imperatore andando con lui a
Monaco di Baviera, seguito anche da Michele da Cesena, con il quale continuò la polemica contro la Chiesa. Morto
l'imperatore e il generale francescano, Guglielmo cercò di riavvicinare le sue posizioni a quelle della Chiesa, ma
morì nel 1349 prima che questo riavvicinamento si compisse[1].
Il pensiero
Oxford, la Avignone dei papi, Monaco: sono i luoghi in cui Ockham vive il travaglio delle proprie esperienze,
animato da un profondo bisogno di libertà, cifra del suo pensiero. Sullo sfondo si colloca la grande questione che
appassiona i teologi: ° sono compatibili la filosofia greca e la concezione giudaico-cristiana, incardinata sulla verità
di Dio trascendente, che liberamente crea ex nihilo? Ockham non ha dubbi. L'ebraismo e il cristianesimo hanno
un'originalità (metafisica, teologica e morale) che li sottrae ad ogni contaminazione; il loro creazionismo modifica
alle radici la sapienza classica e ne segna il declino. La rigida mentalità medievale, incentrata sul principio di
autorità, non appaga le istanze di uno spirito critico. Ockham rivendica il diritto di controllare le verità religiose con
la forza dell'esperienza e col rigore della ragione. La fede, in lui, è solida, ma non cancella l'esigenza di dare il giusto
riconoscimento al "profano". Tutelando l'autonoma dignità della ricerca, egli prepara il terreno in cui nasce e si
consolida la cultura moderna.
69
Guglielmo di Ockham
Etica e teologia
Centro del pensiero di Ockham è il
volontarismo, la concezione secondo cui
Dio non avrebbe creato il mondo per
"intelletto e volontà" (come direbbe
Tommaso d'Aquino), ma per sola volontà, e
dunque in modo arbitrario, senza né regole
né leggi, che ne limiterebbero, secondo
Ockham, la libertà d'azione.
Ne consegue che anche l'essere umano è del
tutto libero, e solo questa libertà può fondare
la moralità dell'uomo, i cui meriti o demeriti
non possono in alcun modo influenzare la
libertà di Dio. La salvezza dell'uomo non è
quindi frutto della predestinazione, né delle
opere dell'uomo; è soltanto la volontà di Dio
che determina, in modo del tutto
inconoscibile, il destino del singolo essere
umano. Questa posizione di Ockham, che
riprende e porta alle estreme conseguenze la
concezione volontaristica già propria di
Duns Scoto, anticipa per alcuni aspetti la
riforma protestante di Lutero; conseguenza
Guglielmo d'Ockham
del pensiero di Ockham, infatti, è la
negazione del ruolo di mediazione fra Dio e l'uomo che la Chiesa si è attribuita.
Il Papa infatti è fallibile, secondo Guglielmo, e non può attribuirsi alcun potere, né temporale (l'Impero, del resto,
esiste da tempo più remoto, rispetto alla Chiesa, e non discende dal Papa ma direttamente da Dio), né spirituale,
giacché la sola possibilità per l'uomo di salvarsi deriva dalla grazia divina. Nel Dialogus sostenne come l'imperatore
era superiore alle leggi, ma sottoposto al proprio popolo, che era autorizzato a disubbidirgli nel caso in cui egli non
rispettasse il principio dell'"equità naturale". La delega che il popolo dava all'imperatore nell'esercitare il potere era
quindi vincolata al suo buon operato e non assoluta.
Con Marsilio da Padova queste tesi furono tra i fondamenti del potere statale inteso in senso moderno.
Il rasoio di Ockham e la logica
Sulla base di questa premesse, Ockham applica il tradizionale principio medievale di semplicità della natura per
eliminare tutto ciò che contrasta col volontarismo: vanno quindi superati, perché superflui e astratti, concetti come
"essenza", "legge naturale", ecc. Si tratta dell'applicazione del principio economico dell'eliminazione dei concetti
superflui per spiegare una realtà intesa volontaristicamente: è mediante questo procedimento, sinteticamente definito
il Rasoio di Ockham, che l'intelletto umano può e deve liberarsi di tutte quelle astrazioni che erano state ideate dalla
scolastica medievale.
Frustra fit per plura quod fieri potest per pauciora, ma anche (sebbene non reperibile in tale forma negli scritti di
Ockham) entia non sunt moltiplicanda praeter necessitatem, sono le massime che costituiscono l'espressione
lapidaria del cosiddetto Rasoio di Ockham che riassume, semplificando il concetto al massimo, il principio del valore
della spiegazione più semplice, che infine si riduce al primato dell'individuo, come unica realtà su cui poggia tutto il
sistema della conoscenza.
70
Guglielmo di Ockham
Coerente con queste conclusioni è anche la sua posizione nella disputa sugli universali, all'interno della quale è
considerato il più importante esponente piuttosto del terminismo che del concettualismo e del nominalismo, dottrina
contrapposta al tomismo e allo scotismo.
Applicando la dottrina della suppositio, secondo cui i termini hanno l'unico scopo di indicare qualcosa di reale, ma
esterno e differente da loro (essi cioè sono segni del tutto convenzionali, che stanno in luogo delle cose), Ockham
conclude che l'universale altro non è che un termine, e quindi la sua unica realtà è nella condivisione universale
nell'uso di quel certo termine anziché altri (ovvero post-rem).
I termini possono essere quindi categorematici, cioè esprimere predicati come uomo, animale, ecc., o
sincategorematici, cioè utili per svolgere connessioni (es.: ogni, ciascuno, ecc.); oppure assoluti, o connotativi; essi
in ogni caso sono intentiones, cioè atti intenzionali della coscienza con cui essa adopera un segno per indicare una
determinata cosa di cui è accertata l'esistenza. Ne consegue la falsità di tutti quei termini che stanno a indicare cose
inesistenti; la logica terministica di Ockham assume quindi il ruolo, in quanto logica formale, di assicurare la validità
delle proposizioni, ma solo la conoscenza empirica potrà poi verificare le stesse alla prova dei fatti e assicurare il
collegamento fra i nomi e la realtà cui essi fanno segni.
All'applicazione rigorosa della logica terministica e dell'empirismo consegue la critica di Ockham ai concetti di
causa e sostanza, elementi basilari della metafisica tradizionale. Anche in questo caso si tratta di termini
apparentemente universali, che però stanno in luogo di realtà inesistenti: empiricamente infatti l'ente consiste di
molteplici qualità, ma non è nulla di diverso dalle qualità stesse; non esiste un sostrato, una sostanza, al di fuori di
ciò che di quell'ente si può predicare. Ugualmente, seppure empiricamente ci sembra che una certa successione di
fatti ci permetta di concludere l'esistenza di una causa distinta dai suoi effetti, in realtà non c'è alcuna certezza che
questa causa sia unica e universale.
La gnoseologia
Empirismo e conoscenza intuitiva Il nuovo tema di indagine è la conoscenza; Ockham se ne occupa in modo
coerente col suo empirismo. Alla base c'è la critica delle autorità filosofiche, Platone e Aristotele. ° La dottrina delle
forme (gli archetipi delle cose) non regge alla prova dei fatti; l'uomo conosce il reale in via diretta, senza dover fare
ricorso a modelli trascendenti. ° La deduzione, tipica del razionalismo aristotelico, è astratta. Il procedimento
deduttivo si rivela sterile. Le sue conclusioni non offrono novità rispetto alle premesse: esplicano, non ampliano, il
sapere. Il soggetto conosce le cose individuali, servendosi dell'esperienza. Questa costituisce, ad un tempo, l'esordio,
la fonte e il metro del sapere. Non ci sono due modalità di conoscenza: quella degli organi sensoriali, che
percepirebbero le qualità esteriori della res; quella dell'intelletto, che fisserebbe, nel concetto, l'universale di ogni
specie di cose. La conoscenza intellettiva è propriamente lo sviluppo della "sensoriale". Il loro comune contenuto è
la molteplicità dei dati forniti dall'esperienza e riferiti alle cose singole: una medesima cosa, il singolare, è sentita dal
senso e, sotto il medesimo rispetto, è intuitivamente compresa dall'intelletto (Ockham, Commento) L'esistenza
attuale e l'evidenza fattuale di una cosa si colgono mediante la sensazione e l'intuizione. L'intelletto se ne serve per
elaborare il giudizio, la nozione (notitia abstractiva) che accerta l'esistenza della res. Nella sua teoria della
conoscenza Ockham sostiene, ispirandosi a Giovanni Duns Scoto, che si possa parlare di due forme di conoscenza:
intuitiva ed astrattiva.
La prima può essere:
• perfetta: perché si rifà all'esperienza, la quale ha sempre per oggetto una realtà attuale e presente;
• imperfetta: perché si può rifare ad una realtà del passato; la conoscenza intuitiva imperfetta deriva comunque da
una esperienza;
• sensibile: perché si rifà all'esperienza sensibile;
• intellettuale: perché l'intelletto per formare un'opinione sugli oggetti della conoscenza sensibile ha anche bisogno
dell'intuizione.
71
Guglielmo di Ockham
La seconda non vuole definire l'esistenza o meno di una cosa, poiché essa si limita a dirci come una cosa sia. Inoltre
questo tipo di conoscenza deriva dalla conoscenza intuitiva, visto che è impossibile avere una conoscenza astratta di
qualcosa se prima non se ne abbia avuta l'intuizione. La realtà, pertanto, secondo Ockham, viene conosciuta
empiricamente, attraverso la conoscenza intuitiva immediata, mentre gli universali vengono conosciuti attraverso la
conoscenza astratta ovvero attraverso la rappresentazione che di essi fa la mente, ma non hanno esistenza reale. Per
la sua scarsa fiducia nella ragione umana, e per l'esaltazione della conoscenza sensibile, egli si presenta come
principale esponente della crisi del pensiero scolastico medievale, caratterizzato, invece, da una grande fiducia nella
capacità dell'uomo di comprendere la realtà mediante l'uso della facoltà razionale[2]
Il pensiero politico
Il nostro " Venerabilis Inceptor viae modernae " (venerato iniziatore del nuovo modo di fare filosofia e teologia) ha
esteso le proprie concezioni anche alla politica, suo ultimo campo di ricerca. Il suo pensiero era basato su tre grandi
principi applicabili sia alla filosofia e all'etica, sia alla teologia ed all'ecclesiologia: - Contingenza: la situazione
come punto di partenza di qualsiasi analisi, giudizio e opzione politici, in luogo di un ordine metafisico prestabilito
con il quale misurare la realtà; - Immediatezza: eliminare le istanze intermedie inutili, se diritto esiste che esso venga
rispettato senza ingerenze e che venga garantito da una teoria del potere temporale confacente; - Individualità: non in
senso metafisico, bensì intesa come l'affermarsi in campo politico dell'individuo (imperatore, re, principe) con una
propria creatività e volontà politiche e sociali, si prospetta l'autonomia dell' "homo politicus" dall' "homo
christianus".
Capiamo ora il perché del titolo completo dello scritto che stiamo commentando: " Breviloquium de principatu
tyrannico ", dove " tyrannicus " è riferito al principato papale irrispettoso dei diritti dell'imperatore, i cui poteri sono
stati concessi da Dio e non semplicemente permessi. Più precisamente Ockham individua due modalità di
concessione dei poteri temporali all'Impero: - per consenso libero e spontaneo dei popoli, in forza dell'equità naturale
e della "potestas constituendi principem" ; - attraverso la guerra giusta in caso di difesa, di ingiustizia o di crimine,
trasformandosi da tirannico in giusto.
Con questo è garantita l'autonomia del potere temporale nei confronti di quello spirituale. Sul piano biblico viene più
volte ricordato il fatto che né Gesù, né gli apostoli hanno mai accusato Erode, Ponzio Pilato o Nerone di usurpazione
di giurisdizione, Cristo non è venuto per abolire o diminuire i potenti del suo tempo, pur essendo egli stesso re (cfr.
Gv 18,36). Forse che questo entrare in difesa dei diritti altrui, diritti garantiti dall'amore indiscriminato di Dio per
tutti gli uomini e tutte le creature, e dalle leggi assiomatiche della libertà, della povertà e della semplicità evangeliche
costituisce il fondamento francescano su cui poggiano le teorie ockhamiste? Senz'altro motivano la sua lotta contro
le teorie di una papale "plenitudo potestatis": anche la famosa allegoria sole-papa / luna-imperatore viene
contraddetta dal Nostro, il quale, pur ammettendo la contrapposizione maggiore / minore (Ockham ha un'altissima
considerazione del potere spirituale e delle funzioni proprie della Chiesa; in questo senso, e solo in questo senso, li
considera d'importanza maggiore), non concede ai curialisti, difensori della pienezza del potere papale, l'argomento
secondo il quale la luna avrebbe origine dal sole.
Diritti dell'Impero
All' Impero viene riconosciuta piena autonomia nel campo temporale e Ockham lo difende a "penna tratta"
dall'ingerenza del potere spirituale. Alla "plenitudo potestatis" dei curialisti di Avignone viene contrapposta la legge
della libertà evangelica, la quale sola basta a legittimare il potere imperiale. Dio stesso già nell' AT (cfr. Gen
14,22-23, 2 Cron 36,22-23) rispetta i diritti di re e faraoni (diritto di proprietà e autorità legittima) e concede aiuti e
benefici anche agli infedeli (cfr. Gen 3,16: validità e liceità del matrimonio fra infedeli). Centrale
nell'argomentazione ockhamista è la teoria della concessione per diritto divino e per estensione a tutto il genere
umano del dominio comune (cfr. Gen 1,27-29) sulle cose inanimate, le piante e gli animali. Questo dominio "in
communi" garantisce il diritto alla sopravvivenza e ad una vita dignitosa e può essere ristretto solo in caso di
necessità. A questo dominio, a loro volta, sono ancorate due "potestates", o diritti fondamentali: - potestas
72
Guglielmo di Ockham
appropriandi res temporales tam rationales, (diritto al possesso delle cose); - potestas instituendi rectores
iurisdictionem habendi, (diritto di istituire governanti godenti di giurisdizione).
Vi sono però anche altre concessioni divine quali la vita, la salute, la moglie, i figli e l'uso della ragione. Come
premesso questi diritti sono divini e conferiti a tutti gli uomini, fedeli o infedeli, e quindi inalienabili, "sine
necessitate". La clausola di necessità si riferisce sempre a gravi crimini o alla tirannia. L'uomo può dunque far uso
dei beni temporali a proprio vantaggio e istituire "rectores" che lo governino in base al retto uso della ragione. Su
questa concezione del diritto imperiale si fonda la pari dignità dell'Impero nei confronti della Chiesa e la loro
complementarietà nella gestione e salvaguardia, all'interno di un'autonomia funzionale, del bene comune temporale e
spirituale, scopo di entrambe le istituzioni. Ockham non abbraccia però la teoria di un Marsilio da Padova sulla
suddivisione dei poteri, bensì vede un Impero autosufficiente, ma in relazione con la Chiesa. La Chiesa, quindi, gode
unicamente di un diritto casuale (non regolare) d'ingerenza (per esempio per richiedere da parte dei fedeli il proprio
sostentamento); l'Impero dal canto suo potrà vigilare (anche qui però solo per diritto casuale) a che la Chiesa svolga
la propria missione di salvezza.
Il "rasoio politico" di Ockham
L'ormai famoso rasoio di Ockham "Non sunt moltiplicanda entia sine necessitate" non lo troviamo in questa
formulazione nei suoi scritti, bensì nella seguente "Frustra fit per plura quod potest fieri per pauciora" (si fa
inutilmente con molte cose ciò che si può fare con poche cose)[3], più precisa se dalla pura speculazione ci
rivolgiamo anche alle sue applicazioni ecclesiologiche o politiche. Ockham parte da un profondo rispetto del
"dominium in communi" concesso da Dio a tutti gli uomini, dal quale procedono le "potestates" e gli altri diritti di
cui sopra. Costruendo le proprie teorie politiche su questa base non ritiene possibile un'estensione del potere papale a
detrimento di quanto Dio ha concesso agli uomini. Estensione significa moltiplicazione dei privilegi e delle
eccezioni, delle leggi e delle istanze intermediarie tra Dio e gli uomini, in modo da poter interferire maggiormente
negli affari imperiali. Ockham preferisce ai molti i pochi diritti della Chiesa in campo politico e accusa apertamente
il papa e i curialisti di quattro eresie: - prima eresia: uguagliare il potere petrino a quello divino, permettendo al papa
di intromettersi ordinariamente nella gestione dell'Impero; - seconda eresia: affermare che il papa può comandare
quanto Dio chiese ad Abramo Gen 22,2 (consegue dalla prima); - terza eresia: conferire al papa il potere di istituire
nuovi sacramenti; - quarta eresia: concedere al papa il diritto di privare i re dei loro regni.
Se il rasoio taglia i poteri papali, rinforza quelli imperiali garantendone l'autonomia nei confronti dell'arbitrio papale.
Occorre dunque correlare di eccezioni il contestatissimo versetto di Mt 16,19 "Quodcumque ligaveris super terram,
etc.", infatti questo enunciato, pur essendo stato profferito "generaliter", non possiamo in alcun modo intenderlo
"generaliter sine omnia exceptione". Le eccezioni o limitazioni al potere papale nei confronti dell'Impero sono
perlomeno tre, tre nuove incisioni apportate alla "plenitudo potestatis": - il diritto legittimo dei re, degli imperatori e
di altri (cfr. Mt 22,21 e Gv 18,36); - le libertà concesse ai mortali da Dio e dalla natura (cfr. Lc 11,46 e Mt 23,4),
eccezione derogabile solo in caso di necessità urgente e utilità manifesta; - il "modus nimis onerosus et gravis in
ordinando", affinché non risulti impossibile ai sudditi del papa, ciò che era loro possibile nella libertà evangelica.
Quel "modus nimis onerosus et gravis in ordinando" è la formulazione che troviamo nel Breviloquium e che meglio
esprime ciò che qui abbiamo definito "rasoio politico di Ockham": rispettare il diritto prestabilito da Dio, limitare il
proprio potere allo stretto necessario, trovare le modalità giuste per esprimere il potere legittimo. Si ribadisce
comunque il diritto-dovere all'obiezione ed alla critica, quando diritti e libertà di terzi vengono calpestati con le
parole del Salmo 23, "proiciamus a nobis iugum ipsorum".
73
Guglielmo di Ockham
Opere
Filosofia
•
•
•
•
•
•
•
•
Summa logicae (prima del 1327).
Quaestiones in octo libros physicorum, (prima del 1327).
Summulae in octo libros physicorum, (prima del 1327).
Quodlibeta septem (prima del 1327).
Expositio aurea super totam artem veterem: quaestiones in quattuor libros sententiarum.
Major summa logices.
Quaestiones in quattuor libros sententiarum.
Centilogium theologicum.
Religione
•
•
•
•
Questiones earumque decisiones.
Quodlibeta septem.
Centiloquium.
De sacramento altaris e De corpore christi.
• Tractatus de sacramento allans.
Politica
•
•
•
•
•
•
•
•
•
•
•
•
Opus nonaginta dierum (1330-1332).
Dialogus…XXII.
Epístola defensoria.
Decisiones octo quæstionum (dal 1339).
Dialogus in tres partes diatinctus (1342-43).
De jurisdictione imperatoris in causis matrimonialibus.
De dogmatibus papae Johannis XXII.
Compendium errorum papae Johannis XXII.
Breviloquium de principatu tyrannico.
De imperatorum et pontificum potestate.
Tractatus contra Benedictum XII
De electione Caroli IV (ultima opera).
Note
[1] Tutta la biografia e le date sono state prese dal libro Franco Cardini e Marina Montesano, Storia medievale, Firenze, Le Monnier Università,
2006. ISBN 8800204740, pag. 361.
[2] N.Abbagnano-G.Fornero, Protagonisti e testi della filosofia, Volume A, Tomo 2, Paravia Bruno Mondadori Editori, Torino 1999,pp. 678-679.
[3] cfr. Ghisalberti, 1991, pp. 28-30
Bibliografia
•
•
•
•
Beckmann, Jan (ed.). - Ockham-Bibliographie 1900-1990 - Hamburg, Felix Meiner, 1992
Gál, Gedeon, 1982. William of Ockham Died Impenitent in April 1347. Franciscan Studies 42, pp. 90–95
Ghisalberti, Alessandro. Guglielmo di Ockham. Milano: Vita e Pensiero 1972
id., Guglielmo di Ockham - Scritti filosofici, Firenze 1991
• Spade, Paul Vincent (ed.). The Cambridge Companion to Ockham Cambridge: Cambridge University Press 1999
• Todisco, Orlando. Guglielmo d'Occam filosofo della contingenza Padova: Messaggero 1998
74
Guglielmo di Ockham
• Nicola Abbagnano-Giovanni Fornero, Protagonisti e testi della filosofia, Volume A, Tomo 2, Paravia Bruno
Mondadori Editori, Torino, 1999. ISBN 88-395-3311-7
Voci correlate
• Rasoio di Occam
• Marsilio da Padova
• Disputa sulla povertà apostolica
Collegamenti esterni
• Guglielmo di Ockham, scheda di [[Marcello Landi (filosofo)|Marcello Landi (http://lgxserver.uniba.it/lei/
filosofi/autori/occam-scheda.htm)]]
• Summa logicae in latino su wikisource (http://la.wikisource.org/wiki/Summa_logicae)
• Stanford Encyclopedia of Philosophy: William of Ockham (http://plato.stanford.edu/entries/ockham/)
• Internet Encyclopedia of Philosophy: William of Ockham (http://www.utm.edu/research/iep/o/ockham.htm)
• William Ockham Nominalist Ontology (http://www.ontology.co/william-ockham.htm) con ampia bibliografia
degli studi su Ockham
Indipendenza stocastica
Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di
uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata P(A | B) oppure
P(B | A) è pari rispettivamente a P(A) e P(B)
P(A | B) = P(A)
P(B | A) = P(B)
queste due condizioni si possono sintetizzare con la formula
P(A ∩ B) = P(A) · P(B).
In altre parole, dire che due eventi sono indipendenti tra loro significa dire che il fatto di sapere che uno di essi si è
verificato non modifica la valutazione di probabilità sul secondo. Per esempio, il fatto di ottenere "1" quando viene
lanciato un dado ed il fatto di ottenere ancora un "1" la seconda volta che il dado viene lanciato, sono indipendenti.
Analogamente, quando si afferma che due variabili casuali X e Y definite sullo stesso spazio campionario H sono
indipendenti si afferma che conoscere qualcosa riguardo al valore di una di esse non apporta alcuna informazione
circa il valore dell'altra. Per esempio, il numero che appare sulla faccia superiore di un dado la prima volta che viene
lanciato e il numero che appare la seconda volta sono indipendenti. Formalmente, questo si verifica quando per ogni
coppia di eventi B, B' risulta
P(X ∈ B ∩ Y ∈ B' ) = P(X ∈ B) · P (Y ∈ B' )
Equivalentemente ciò si verifica se, detta F la funzione di ripartizione della variabile congiunta (X,Y) e fX, fY le due
funzioni di ripartizione marginali, allora per ogni x,y vale che
F(x,y)=fX(x) · fY(y)
Condizioni analoghe si trovano per la funzione di densità di probabilità e la funzione di probabilità, se X è
rispettivamente una variabile casuale continua o una variabile casuale discreta:
f(x,y)=fX(x)· fY(y)
e
p(x,y)=pX(x)· pY(y)
75
Indipendenza stocastica
76
Generalizzazioni
Nell'ambito della teoria della probabilità, la nozione di indipendenza stocastica può essere generalizzata ampiamente.
Sia
uno spazio di probabilità, e sia
una famiglia arbitraria (finita o non finita) di σ-algebre
contenute in
:
. Esse si dicono indipendenti rispetto a
di
, e per ogni sottoinsieme
se, per ogni sottoinsieme finito
, accade:
.
Questa nozione si riduce alla precedente nel caso in cui la famiglia di σ-algebre sia formata da due soli elementi
e
, dove, dato un insieme misurabile
,
è la σ-algebra da esso generata:
.
Questa estensione, ampiamente usata nella teoria dei processi stocastici, trova la sua motivazione nel fatto che
l'indipendenza stocastica di una famiglia di σ-algebre, non è in generale equivalente all'indipendenza dei suoi
elementi a due a due. Ad esempio, dati tre insiemi
, sapendo che
e
,
e
,
e
sono
indipendenti, non se ne può dedurre che:
.
Voci correlate
•
•
•
•
•
probabilità
probabilità condizionata
Mark Kac
Hugo Steinhaus
Paradosso del compleanno
Insieme sfocato
Un insieme sfocato o insieme sfumato (in inglese fuzzy set) è un insieme che rientra in un'estensione della teoria
classica degli insiemi. Il concetto è stato introdotto da Lotfi A. Zadeh, nel 1965, come estensione della classica
definizione di insieme.
Un insieme sfocato è caratterizzato da una funzione di grado di appartenenza, che mappa gli elementi di un universo
in un intervallo reale continuo [0;1].
Il valore 0 (zero) indica che l'elemento non è per niente incluso nell'insieme sfocato, il valore 1 (uno) indica che
l'elemento è certamente incluso nell'insieme (questi due valori corrispondono alla teoria classica degli insiemi),
mentre i valori tra zero e uno indicano il grado di appartenenza dell'elemento all'insieme sfocato in questione.
Per un universo X e una data funzione del grado di appartenenza f : X→[0;1], l'insieme sfocato A è definito come
A = { ( x, f(x) ) | x ∈ X }.
Insieme sfocato
77
Esempio
Un esempio di insieme fuzzy è il seguente:
U = {6, 2, 0, 10}
A = Numeri in U vicini a 2
A = {(6,0.4), (2,1), (0,0.8), (10,0.1)}
In questo caso
è un insieme "classico", che trattiamo come insieme universo della nostra insiemistica fuzzy:
definire un insieme fuzzy equivale a definire, per ogni elemento di
, il suo grado di appartenenza (espresso dal
secondo numero entro ciascuna parentesi).
Proprietà degli insiemi sfocati
Gli insiemi fuzzy non godono di relazioni di univocità e biunivocità fra gli elementi di insiemi diversi. Pertanto, gli
insiemi fuzzy sono un'estensione, ma non una generalizzazione degli insiemi della teoria classica; ovvero sono una
teoria che allarga ed è inclusa in quella degli insiemi, piuttosto che includerla in una teoria nuova e più vasta.
Un semplice passaggio di notazione da un discreto fra 0 e 1 a un intervallo continuo di appartenenza fra gli stessi due
estremi rappresenta un notevole salto concettuale ed è un esempio dell'importanza di disporre di una notazione
matematica sintetica e potente.
Sugli insiemi fuzzy valgono gli operatori insiemistici: unione, intersezione e complementare. Valgono inoltre le
leggi di De Morgan; non valgono invece il principio del terzo escluso (per cui l'unione di un insieme con il suo
complementare ha somma pari a 1) e il principio di non-contraddizione (l'intersezione di un insieme con il suo
complementare è un insieme vuoto). Il discorso ovviamente è valido in quanto la complementarità è definita
indipendentemente da questi principi fondamentali di logica (e da tutti gli altri, che ne sono una derivazione) come
proprietà di un singolo insieme e non di due o più insiemi in relazione tra loro.
Vi sono vari modi possibili di generalizzare gli operatori della logica classica. L'operazione di unione su due insiemi
fuzzy A e B si esegue applicando ad ogni elemento x di A e y di B una funzione chiamata s-norm; tipicamente si
prende il massimo tra i due valori:
Grado di appartenenza ad A ∪ B di 1 = Max(1 - 0,2 ) = 1
A∪B={ 1/1 + 0,3/2 + 0,7/3 + 0,6/4 + 0,4/5 }
L'operazione di intersezione invece viene effettuata utilizzando funzioni t-norm, tipicamente la funzione minimo; per
definire invece il complementare di un insieme, si calcola il nuovo grado di appartenenza di un elemento al nuovo
insieme B come 1-Grado di appartenenza ad A, come nel seguente esempio:
Insieme sfocato
78
Utilizzo
La validità degli operatori booleani (con cui lavora l'algebra relazionale) consente di interrogare basi di dati fuzzy
con il FSQL (Fuzzy SQL), un linguaggio nato nel 1998 come estensione dell'SQL.
Voci correlate
• Teoria degli insiemi
• Logica fuzzy
Insieme sfumato
Un insieme sfocato o insieme sfumato (in inglese fuzzy set) è un insieme che rientra in un'estensione della teoria
classica degli insiemi. Il concetto è stato introdotto da Lotfi A. Zadeh, nel 1965, come estensione della classica
definizione di insieme.
Un insieme sfocato è caratterizzato da una funzione di grado di appartenenza, che mappa gli elementi di un universo
in un intervallo reale continuo [0;1].
Il valore 0 (zero) indica che l'elemento non è per niente incluso nell'insieme sfocato, il valore 1 (uno) indica che
l'elemento è certamente incluso nell'insieme (questi due valori corrispondono alla teoria classica degli insiemi),
mentre i valori tra zero e uno indicano il grado di appartenenza dell'elemento all'insieme sfocato in questione.
Per un universo X e una data funzione del grado di appartenenza f : X→[0;1], l'insieme sfocato A è definito come
A = { ( x, f(x) ) | x ∈ X }.
Esempio
Un esempio di insieme fuzzy è il seguente:
U = {6, 2, 0, 10}
A = Numeri in U vicini a 2
A = {(6,0.4), (2,1), (0,0.8), (10,0.1)}
In questo caso
è un insieme "classico", che trattiamo come insieme universo della nostra insiemistica fuzzy:
definire un insieme fuzzy equivale a definire, per ogni elemento di
, il suo grado di appartenenza (espresso dal
secondo numero entro ciascuna parentesi).
Proprietà degli insiemi sfocati
Gli insiemi fuzzy non godono di relazioni di univocità e biunivocità fra gli elementi di insiemi diversi. Pertanto, gli
insiemi fuzzy sono un'estensione, ma non una generalizzazione degli insiemi della teoria classica; ovvero sono una
teoria che allarga ed è inclusa in quella degli insiemi, piuttosto che includerla in una teoria nuova e più vasta.
Un semplice passaggio di notazione da un discreto fra 0 e 1 a un intervallo continuo di appartenenza fra gli stessi due
estremi rappresenta un notevole salto concettuale ed è un esempio dell'importanza di disporre di una notazione
matematica sintetica e potente.
Sugli insiemi fuzzy valgono gli operatori insiemistici: unione, intersezione e complementare. Valgono inoltre le
leggi di De Morgan; non valgono invece il principio del terzo escluso (per cui l'unione di un insieme con il suo
complementare ha somma pari a 1) e il principio di non-contraddizione (l'intersezione di un insieme con il suo
complementare è un insieme vuoto). Il discorso ovviamente è valido in quanto la complementarità è definita
indipendentemente da questi principi fondamentali di logica (e da tutti gli altri, che ne sono una derivazione) come
Insieme sfumato
proprietà di un singolo insieme e non di due o più insiemi in relazione tra loro.
Vi sono vari modi possibili di generalizzare gli operatori della logica classica. L'operazione di unione su due insiemi
fuzzy A e B si esegue applicando ad ogni elemento x di A e y di B una funzione chiamata s-norm; tipicamente si
prende il massimo tra i due valori:
Grado di appartenenza ad A ∪ B di 1 = Max(1 - 0,2 ) = 1
A∪B={ 1/1 + 0,3/2 + 0,7/3 + 0,6/4 + 0,4/5 }
L'operazione di intersezione invece viene effettuata utilizzando funzioni t-norm, tipicamente la funzione minimo; per
definire invece il complementare di un insieme, si calcola il nuovo grado di appartenenza di un elemento al nuovo
insieme B come 1-Grado di appartenenza ad A, come nel seguente esempio:
Utilizzo
La validità degli operatori booleani (con cui lavora l'algebra relazionale) consente di interrogare basi di dati fuzzy
con il FSQL (Fuzzy SQL), un linguaggio nato nel 1998 come estensione dell'SQL.
Voci correlate
• Teoria degli insiemi
• Logica fuzzy
79
Asino di Buridano
Asino di Buridano
Cartello del 1900, che mostra il Congresso degli
Stati Uniti come asino di Buridano, incerto nella
scelta tra il canale di Panama o quello per il
Nicaragua.
« Un asino affamato e assetato è accovacciato esattamente tra due mucchi di fieno con, vicino a ognuno, un secchio d'acqua,
ma non c'è niente che lo determini ad andare da una parte piuttosto che dall'altra. Perciò, resta fermo e muore. »
L'asino di Buridano (o Paradosso dell'asino) è un paradosso erroneamente attribuito a Giovanni Buridano.
Questo paradosso prova a confutare il determinismo causalistico, per cui tutte le azioni sono predeterminate
causalmente. Se il determinismo causalistico vale per gli animali, ci si dovrebbe aspettare che sia valido anche per
gli uomini, ma se ci trovassimo in una situazione identica, supponendo di trovarsi affamati ed assetati esattamente a
metà tra due tavoli imbanditi non propenderemmo sicuramente per un tavolo?
Leibniz discusse di questo paradosso nei Saggi di teodicea[1].
Note
[1] http:/ / www. filosofico. net/ Antologia_file/ AntologiaL/ LEIBNIZ_%20L%20ASINO%20DI%20BURIDANO. htm
Bibliografia
• 2002 M. Clark, Paradoxes from A to Z
80
Logica fuzzy
Logica fuzzy
« Finché le leggi della matematica si riferiscono alla realtà, non sono certe, e finché sono certe, non si riferiscono alla
realtà. »
(Albert Einstein, da Sidelights on Relativity, Dover, pag. 12)
La logica fuzzy o logica sfumata o logica sfocata è una logica in cui si può attribuire a ciascuna proposizione un
grado di verità compreso tra 0 e 1. È una logica polivalente, e pertanto un'estensione della logica booleana. È
fortemente legata alla teoria degli insiemi sfocati e, già intuita da Cartesio, Bertrand Russell, Albert Einstein, Werner
Karl Heisenberg, Jan Łukasiewicz e Max Black, venne concretizzata da Lotfi Zadeh.
Con grado di verità o valore di appartenenza si intende quanto è vera una proprietà: questa può essere, oltre che vera
(= a valore 1) o falsa (= a valore 0) come nella logica classica, anche pari a valori intermedi.
Si può ad esempio dire che:
• un neonato è "giovane" di valore 1
• un diciottenne è "giovane" di valore 0,8
• un sessantacinquenne è "giovane" di valore 0,15
Solitamente il valore di appartenenza si indica con μ; il valore di appartenenza ad un insieme fuzzy F di un predicato
p si indica con µF(p).
Storia
Nei primi anni sessanta, Lotfi A. Zadeh, professore all'Università della California di Berkeley, molto noto per i suoi
contributi alla teoria dei sistemi, cominciò ad avvertire che le tecniche tradizionali di analisi dei sistemi erano
eccessivamente ed inutilmente accurate per molti dei problemi tipici del mondo reale. L'idea di grado
d'appartenenza, il concetto divenuto poi la spina dorsale della teoria degli insiemi sfumati, fu da lui introdotta nel
1964, e ciò portò in seguito, nel 1965, alla pubblicazione di un primo articolo, ed alla nascita della logica sfumata. Il
concetto di insieme sfumato (o insieme sfocato), e di logica sfumata, attirò le aspre critiche della comunità
accademica; nonostante ciò, studiosi e scienziati di tutto il mondo - dei campi più diversi, dalla psicologia alla
sociologia, dalla filosofia all'economia, dalle scienze naturali all'ingegneria - divennero seguaci di Zadeh.
In Giappone la ricerca sulla logica sfumata cominciò con due piccoli gruppi universitari fondati sul finire degli anni
settanta: il primo era guidato, a Tokyo, da T. Terano e H. Shibata, mentre l'altro si stabilì a Kanasai sotto la guida di
K. Tanaka e Kiyoji Asai. Al pari dei ricercatori americani, questi studiosi si scontrarono, nei primi tempi, con
un'atmosfera fortemente avversa alla logica fuzzy. E tuttavia, la loro tenacia e il duro lavoro si sarebbero dimostrati
estremamente fruttuosi già dopo un decennio: i ricercatori giapponesi, i loro studenti e gli studenti di questi ultimi
produssero molti importanti contributi sia alla teoria che alle applicazioni della logica fuzzy.
Nel 1974, Seto Assilian ed Ebrahim H. Mamdani svilupparono, in Gran Bretagna, il primo sistema di controllo di un
generatore di vapore, basato sulla logica fuzzy. Nel 1976, la Blue Circle Cement e il SIRA idearono la prima
applicazione industriale della logica fuzzy, per il controllo di una fornace per la produzione di cemento. Il sistema
divenne operativo nel 1982.
Nel corso degli anni ottanta, diverse importanti applicazioni industriali della logica fuzzy furono lanciate con pieno
successo in Giappone. Dopo otto anni di costante ricerca, sviluppo e sforzi di messa a punto, nel 1987 Seiji
Yasunobu ed i suoi colleghi della Hitachi realizzarono un sistema automatizzato per il controllo operativo dei treni
metropolitani della città di Sendai. Un'altra delle prime applicazioni di successo della logica fuzzy è un sistema per il
trattamento delle acque di scarico sviluppato dalla Fuji Electric. Queste ed altre applicazioni motivarono molti
ingegneri giapponesi ad approfondire un ampio spettro di applicazioni inedite: ciò ha poi condotto ad un vero boom
81
Logica fuzzy
della logica fuzzy.
Una tale esplosione era peraltro il risultato di una stretta collaborazione, e del trasferimento tecnologico, tra
Università ed Industria. Due progetti di ricerca nazionali su larga scala furono decisi da agenzie governative
giapponesi nel 1987, il più noto dei quali sarebbe stato il Laboratory for International Fuzzy Engineering Research
(LIFE). Alla fine di gennaio del 1990, la Matsushita Electric Industrial Co. diede il nome di "Asai-go (moglie
adorata) Day Fuzzy" alla sua nuova lavatrice a controllo automatico, e lanciò una campagna pubblicitaria in grande
stile per il prodotto "fuzzy". Tale campagna si è rivelata essere un successo commerciale non solo per il prodotto, ma
anche per la tecnologia stessa. Il termine d'origine estera "fuzzy" fu introdotto nella lingua giapponese con un nuovo
e diverso significato: intelligente. Molte altre aziende elettroniche seguirono le orme della Panasonic e lanciarono sul
mercato, tra l'altro, aspirapolvere, fornelletti per la cottura del riso, frigoriferi, videocamere (per stabilizzare
l'inquadratura sottoposta ai bruschi movimenti della mano) e macchine fotografiche (con un autofocus più efficace).
Ciò ebbe come risultato l'esplodere di una vera mania per tutto quanto era etichettato come fuzzy: tutti i consumatori
giapponesi impararono a conoscere la parola "fuzzy", che vinse il premio per il neologismo dell'anno nel 1990. I
successi giapponesi stimolarono un vasto e serio interesse per questa tecnologia in Corea, in Europa e, in misura
minore, negli Stati Uniti, dove pure la logica fuzzy aveva visto la luce.
La logica fuzzy ha trovato parimenti applicazione in campo finanziario. Il primo sistema per le compravendite
azionarie ad usare la logica sfumata è stato lo Yamaichi Fuzzy Fund. Esso viene usato in 65 aziende e tratta la
maggioranza dei titoli quotati dell'indice Nikkei Dow, e consiste approssimativamente in 800 regole. Tali regole
sono determinate con cadenza mensile da un gruppo di esperti e, se necessario, modificate da analisti finanziari di
provata esperienza. Il sistema è stato testato per un periodo di due anni e le sue prestazioni in termini di rendimento
hanno superato l'indice Nikkei Average di oltre il 20%. Durante il periodo di prova, il sistema consigliò "sell", ossia
"vendere", ben 18 giorni prima del Lunedì Nero (19 ottobre 1987): nel corso di quel solo giorno l'indice Dow Jones
Industrial Average diminuì del 23%. Il sistema è divenuto operativo nel 1988.
Il primo chip VLSI (Very Large Scale Integration) dedicato alla computazione d'inferenze fuzzy fu sviluppato da
Masaki Togai e H. Watanabe nel 1986: chip di tal genere sono in grado di migliorare le prestazioni dei sistemi fuzzy
per tutte le applicazioni in tempo reale. Diverse imprese (per esempio, Togai Infralogic[1], Aptronix[2], Inform
GmbH[3]) sono state costituite allo scopo di commercializzare strumenti hardware e software per lo sviluppo di
sistemi a logica sfumata. Allo stesso tempo, anche i produttori di software, nel campo della teoria convenzionale del
controllo, cominciarono ad introdurre pacchetti supplementari di progettazione dei sistemi fuzzy. Il Fuzzy Logic
Toolbox per MATLAB, ad esempio, è stato presentato quale componente integrativo nel 1994.
Fuzzy logic: concetti fondamentali
Nel 1994 Zadeh scriveva:
« Il termine logica fuzzy viene in realtà usato in due significati diversi. In senso stretto è un sistema logico, estensione della
logica a valori multipli, che dovrebbe servire come logica del ragionamento approssimato. Ma in senso più ampio logica
fuzzy è più o meno sinonimo di teoria degli insiemi fuzzy cioè una teoria di classi con contorni indistinti. Ciò che è
importante riconoscere è che oggi il termine logica fuzzy è usato principalmente in questo significato più vasto »
La teoria degli insiemi fuzzy costituisce un'estensione della teoria classica degli insiemi poiché per essa non valgono
i principi aristotelici di non-contraddizione e del terzo escluso (detto anche "tertium non datur"). Si ricorda che, dati
due insiemi A e !A (non-A), il principio di non-contraddizione stabilisce che ogni elemento appartenente all'insieme
A non può contemporaneamente appartenere anche a non-A; secondo il principio del terzo escluso, d'altro canto,
l'unione di un insieme A e del suo complemento non-A costituisce l'universo del discorso.
In altri termini, se un qualunque elemento non appartiene all'insieme A, esso necessariamente deve appartenere al
suo complemento non-A.
82
Logica fuzzy
Tali principi logici conferiscono un carattere di rigida bivalenza all'intera costruzione aristotelica, carattere che
ritroviamo, sostanzialmente immutato ed indiscusso, sino alla prima metà del XX secolo, quando l'opera di alcuni
precursori di Zadeh (in primis Max Black e Jan Łukasiewicz) permette di dissolvere la lunga serie di paradossi cui la
bivalenza della logica classica aveva dato luogo e che essa non era in grado di chiarire.
Il più antico e forse celebre di tali paradossi è quello attribuito ad Eubulide di Mileto (IV secolo a.C.), noto anche
come paradosso del mentitore, il quale, nella sua forma più semplice, recita:
"Il cretese Epimenide afferma che il cretese è bugiardo"
In tale forma, suggerita dalla logica proposizionale, ogni affermazione esprime una descrizione di tipo dicotomico.
Al contrario, nella logica predicativa ogni proposizione esprime un insieme di descrizioni simili o di fatti atomici,
come nella frase tutti i cretesi sono bugiardi. Si noti che, a rigor di logica (bivalente), una formulazione del
paradosso contenente tale frase è falsa, in quanto è vera la sua negazione: la negazione di tutti non è nessuno, ma non
tutti, quindi non tutti i cretesi sono bugiardi, Eubulide è un bugiardo, ed essendo vera la sua negazione,
l'affermazione di Eubulide risulterebbe falsa.
Ad ogni modo, il paradosso del mentitore nella sua forma proposizionale appartiene alla classe dei paradossi di
autoriferimento. Ogni membro di questa classe presenta una struttura del tipo:
"La frase seguente è vera
La frase precedente è falsa"
o in maniera più sintetica:
"Questa frase è falsa"
Orbene, la logica aristotelica si dimostra incapace di stabilire se queste proposizioni siano vere o false. Essa è
strutturalmente incapace di dare una risposta proprio in quanto bivalente, cioè proprio perché ammette due soli valori
di verità: vero o falso, bianco o nero, tutto o niente; ma giacché il paradosso contiene un riferimento a se stesso, non
può assumere un valore che sia ben definito (o vero o falso) senza autocontraddirsi: ciò implica che ogni tentativo di
risolvere la questione posta si traduce in un'oscillazione senza fine tra due estremi opposti. Il vero implica il falso, e
viceversa.
Secondo Bart Kosko, uno dei più brillanti allievi di Zadeh, infatti, se quanto afferma Epimenide è vero, allora il
cretese mente: pertanto, poiché Epimenide è cretese, quindi mente, dobbiamo concludere che egli dice il vero.
Viceversa, se l'affermazione di Epimenide è falsa, allora il cretese Epimenide non mente, e pertanto si deduce che
egli mente. In termini simbolici, indicato con V l'enunciato del paradosso di Eubulide, e con v = 0/1 il suo valore di
verità binario, si ha, analizzando separatamente i due casi possibili:
1.
2.
e tenendo presente che, come mostrato in precedenza, il valore di verità di V coincide con quello della sua negazione
!V, vale a dire: v=!v, si perviene all'equazione logica che esprime tale contraddizione:
la cui soluzione è banalmente data da:
Da ciò si deduce finalmente che l'enunciato del paradosso non è né vero né falso, ma è semplicemente una mezza
verità o, in maniera equivalente, una mezza falsità. Le due possibili conclusioni del paradosso si presentano nella
forma contraddittoria A e non-A, e questa sola contraddizione è sufficiente ad inficiare la logica bivalente. Ciò al
contrario non pone alcun problema alla logica fuzzy, poiché, quando il cretese mente e non mente allo stesso tempo,
lo fa solo al 50%. Quanto esposto conferma la sua validità in tutti i paradossi di autoriferimento.
È interessante notare come, ammettendo esplicitamente l'esistenza di una contraddizione, la condizione che la
traduce venga poi impiegata per determinare l'unica soluzione contraddittoria tra le infinite possibili (sfumate, cioè a
83
Logica fuzzy
valori di verità frazionari) per la questione posta: ciò conferma l'insussistenza dei principi di non contraddizione e del
terzo escluso nella logica anche se ovviamente rimangono validi parlando di Razionalità Interne Oggettive.
Infatti, nella logica fuzzy l'esistenza di circostanze paradossali, vale a dire di situazioni in cui un certo enunciato è
contemporaneamente vero e falso allo stesso grado, è evidenziata da ciascuno dei punti d'intersezione tra una
generica funzione d'appartenenza e il suo complemento, avendo necessariamente tali punti ordinata pari a ½. Ciò in
quanto il valore di verità della proposizione in questione coincide con il valore di verità della sua negazione.
Gli operatori logici AND, OR e NOT della logica booleana sono definiti di solito, nell'ambito della fuzzy logic,
come operatori di minimo, massimo e complemento; in questo caso, sono anche detti operatori di Zadeh, in quanto
introdotti per la prima volta nei lavori originali dello stesso Zadeh. Pertanto, per le variabili fuzzy x e y si ha, ad
esempio:
Si è detto che la teoria degli insiemi sfumati generalizza la teoria convenzionale degli insiemi; pertanto, anche le sue
basi assiomatiche sono inevitabilmente diverse. A causa del fatto che il principio del terzo escluso non costituisce un
assioma della teoria degli insiemi fuzzy, non tutte le espressioni e le identità, logicamente equivalenti, dell'algebra
booleana mantengono la loro validità anche nell'ambito della logica fuzzy.
Recentemente si sono sviluppati rigorosi studi della logica fuzzy "in senso stretto", studi che si inseriscono
nell'antico filone delle logiche a più valori inaugurato da Jan Łukasiewicz (si veda ad esempio il libro di Petr Hájek).
Tuttavia la logica sfumata, oltre ad avere ereditato le motivazioni filosofiche che hanno dato origine alle logiche a
più valori, si inquadra nel contesto più ampio delle metodologie che hanno consentito un marcato rinnovamento
dell'intelligenza artificiale classica, dando vita al cosiddetto soft computing che ha tra i suoi costituenti principali le
reti neurali artificiali, gli algoritmi genetici ed il controllo fuzzy.
Applicare la Fuzzy Logic a situazioni reali
Una semplice applicazione potrebbe essere la categorizzazione in sotto ranghi di una variabile continua. Per
esempio, la misura di una temperatura per un sistema anti-blocco di un impianto frenante potrebbe avere diverse
funzionalità a secondo di particolari range di temperature per controllare i freni nella maniera corretta. Ogni funzione
mappa un certo range di temperatura, come valori booleani 0 o 1 a seconda che la temperatura sia o meno nel range
specifico. Questi valori booleani possono essere utilizzati per determinare la maniera in cui i freni devono essere
controllati.
84
Logica fuzzy
In questa immagine le tre funzioni, cold (freddo in blu), warm (tiepido in arancio), e hot (caldo in rosso) sono
rappresentate nel diagramma riferite alla comune variabile, la temperatura. Una particolare temperatura assunta dal
sistema anti-blocco (linea verticale in grigio) ha tre valori logici, uno per ciascuna delle tre funzioni. Finché la
freccia rossa punta a zero, la funzione hot non è vera (temperatura non calda, con operatori matematici: "NOT hot").
La freccia arancione (che punta a 0,2) indica che la funzione warm è vera solo in piccola parte (si può descrivere a
parole come "un po' tiepido"); al contrario la freccia blu (che punta a 0,8) indica che la funzione cold è abbastanza
vera ("abbastanza cold").
Fuzzy e probabilità
Per capire la differenza tra logica fuzzy e teoria della probabilità, facciamo questo esempio: un lotto di 100 bottiglie
d'acqua ne contiene 5 di veleno.
• Secondo la teoria della probabilità, diremo allora che la probabilità di prendere una bottiglia di acqua potabile è
0,95. Tuttavia una volta presa una bottiglia, o è potabile, o non lo è: le probabilità collassano a 0 od 1.
• Se impostiamo il nostro pensiero in logica fuzzy, invece, prendendo una bottiglia b contenente una miscela di
acqua e veleno, al 95% di acqua, allora avremo
.
I valori fuzzy possono variare da 0 ad 1 (come le probabilità) ma, diversamente da queste, descrivono eventi che si
verificano in una certa misura mentre non si applicano ad eventi casuali bivalenti (che si verificano oppure no, senza
valori intermedi).
I rapporti tra logica sfumata e teoria della probabilità sono estremamente controversi e hanno dato luogo a polemiche
aspre e spesso non costruttive tra i seguaci di ambedue gli orientamenti. Da una parte, infatti, i probabilisti, forti di
una tradizione secolare e di una posizione consolidata, hanno tentato di difendere il monopolio storicamente detenuto
in materia di casualità ed incertezza, asserendo che la logica sfumata è null'altro che una probabilità sotto mentite
spoglie, sostenuti in tale convinzione dalla circostanza, da ritenersi puramente accidentale, che le misure di
probabilità, al pari dei gradi d'appartenenza agli insiemi fuzzy, sono espresse da valori numerici inclusi
nell'intervallo reale [0, 1].
Gli studiosi di parte fuzzy, al contrario, hanno mostrato che anche la teoria probabilistica, nelle sue varie
formulazioni (basate, secondo i casi, sugli assiomi di Kolmogorov, su osservazioni concernenti la frequenza relativa
d'accadimento di determinati eventi, oppure sulla concezione bayesiana soggettivista, secondo cui la probabilità è la
traduzione, in forma numerica, di uno stato di conoscenza contingente), è in definitiva una teoria del caso ancora
saldamente ancorata ad una weltanschauung dicotomica e bivalente.
A questo proposito, Bart Kosko si è spinto fino a ridiscutere il concetto di probabilità così come emerso finora nel
corso dell'evoluzione storica, sottolineando la mancanza di solidità di tutti i tentativi intesi a fondare la teoria della
probabilità su basi diverse da quelle puramente assiomatiche, empiriche o soggettive, e ritenendola un puro stato
mentale, una raffigurazione artificiosa destinata a compensare l'ignoranza delle cause reali di un evento: la
probabilità sarebbe in realtà mero istinto di probabilità.
Al contrario, secondo l'interpretazione dello stesso Kosko, la probabilità è l'intero nella parte, ossia la misura di
quanto la parte contiene l'intero. La parte può, in effetti, contenere l'intero nella misura in cui la sua estensione può
sovrapporsi a quella dell'insieme universale. Questa concezione comporta un'affermazione apparentemente singolare,
quella per cui la parte può contenere l'intero, non soltanto nel caso banale in cui la parte coincide con l'intero; infatti,
l'operatore di contenimento non è più bivalente, ma è esso stesso fuzzy e può pertanto assumere un qualunque valore
reale compreso tra 0 (non contenimento) e 1 (contenimento completo o, al limite, coincidenza).
Su questa base, egli può finalmente concludere che la teoria degli insiemi sfumati contiene e comprende quella della
probabilità come suo caso particolare; la realtà sarebbe pertanto deterministica, ma sfumata: la teoria del caos ne ha
evidenziato la componente determinista, mentre la teoria fuzzy ha mostrato l'importanza del principio dell'homo
mensura già espresso da Protagora.[4]
85
Logica fuzzy
Bibliografia
Testi divulgativi
• Bart Kosko, Il fuzzy-pensiero. Teoria e applicazioni della logica fuzzy, 4a ed., Collana: Tascabili Baldini &
Castoldi, I nani. Vita matematica; trad. di Agostino Lupoli, Milano, Baldini & Castoldi, 2000, Pagg. 365. ISBN
88-8089-193-6
• Gerla, Giangiacomo (1999). Logica fuzzy e paradossi. Lettera Matematica Pristem (32): Pagg. 31-39. ISSN:
1593-5884 [5].
Testi in lingua inglese
• Roberto Leonardo Oscar Cignoli; Itala Maria Loffredo D'Ottaviano, Daniele Mundici, Algebraic Foundations of
Many-valued Reasoning (in inglese), Collana: Trends in Logic - Studia logica library[6], Dordrecht, Kluwer
Academic Publishers, 1999, Pagg. 244. ISBN 0-7923-6009-5
• Petr Hájek, Metamathematics of fuzzy logic (in inglese), Collana: Trends in logic, vol. 4[7], Dordrecht, Kluwer
Academic Publishers, 1998, Pagg. 297. ISBN 0-7923-5238-6
• George Jiri Klir; Ute H. St. Clair, Bo Yuan, Set Theory Foundations and Applications (in inglese), Upper Saddle
River (New Jersey), Prentice Hall PTR, 27, Pagg. 245. ISBN 0-13-341058-7
• George Jiri Klir; Bo Yuan, Fuzzy Sets and Fuzzy Logic (in inglese), Sottotitolo: Theory and Applications[8],
Upper Saddle River (New Jersey), Prentice Hall PTR, 1995, Pagg. 592. ISBN 0-13-101171-5
• Giangiacomo Gerla, Fuzzy logic: mathematical tools for approximate reasoning (in inglese), Collana: Trends in
logic, vol. 11[9], Dordrecht, Kluwer Academic Publishers, 2001, Pagg. 269. ISBN 0-7923-6941-6
• Hans-Jürgen Zimmermann, Fuzzy Set Theory and its Applications (in inglese), Dordrecht, Kluwer Academic
Publishers, 2001, Pagg. 514. ISBN 0-7923-7435-5
• Jerry M. Mendel, Uncertain Rule-Based Fuzzy Logic Systems: Introduction and New Directions (in inglese),
Upper Saddle River, Prentice Hall (New Jersey), 2000, Pag. 576. ISBN 0-13-040969-3
• Guanrong Chen; Trung Tat Pham, Introduction to Fuzzy Sets, Fuzzy Logic, and Fuzzy Control Systems (in
inglese), Lincoln, United States, CRC Press, 2000, Pagg. 328. ISBN 0-8493-1658-8
• Marco Russo; Lakhmi C. Jain, Fuzzy Learning and Applications (in inglese), Boca Raton, Florida, CRC Press,
2000, Pagg. 400. ISBN 0-8493-2269-3
• Timothy J. Ross, Fuzzy Logic with Engineering Applications (in inglese), Chichester (Regno Unito), John Wiley
& Sons Ltd, 2004-06-25, Pagg. 628. ISBN 0-470-86075-8
Testi di valore storico
• Zadeh, Lotfi Asker (1968). Fuzzy algorithms. Information and Control (5): Pagg. 94-102.
• Zadeh, Lotfi Asker (1965). Fuzzy Sets. Information and Control (8): Pagg. 338-353.
Note
[1]
[2]
[3]
[4]
(EN) Togai InfraLogic; The World's Source For Fuzzy Logic Solutions (http:/ / www. ortech-engr. com/ fuzzy/ togai. html)
(EN) Welcome to Aptronix, Inc.: the Fuzzy Logic Company in the Silicon Valley (http:/ / www. aptronix. com/ )
(EN) Inform (fuzzytech) (http:/ / www. fuzzytech. com/ )
Protagora dice: « L'uomo è la misura di tutte le cose, di quelle che sono in quanto sono e di quelle che non sono in quanto non sono»
(Protagora, fr.1, in Platone, Teeteto, 151d-152e).
[5] http:/ / worldcat. org/ issn/ 1593-5884
[6] (EN) Su Nebis indice dei contenuti di: Algebraic Foundations of Many-valued Reasoning (http:/ / opac. nebis. ch:80/ F/
MMQ6UXYGQVX9UH99FR4Y8HAPKKQ17Y4PTIY5KVMSJGPKMQPJ7C-64277?func=service& doc_library=EBI01&
doc_number=003851926& line_number=0001& func_code=WEB-FULL& service_type=MEDIA)
[7] (EN) Su Nebis indice dei contenuti di Metamathematics of fuzzy logic (http:/ / opac. nebis. ch:80/ F/
C9YGMMNCBK2UXR29HSIF9339A5NQHLYFAKRIBKKQ21L5I65BGX-64624?func=service& doc_library=EBI01&
doc_number=002026599& line_number=0001& func_code=WEB-FULL& service_type=MEDIA)
86
Logica fuzzy
[8] (EN) Su Deastore.com indice dei contenuti di: Fuzzy Sets and Fuzzy Logic (http:/ / www. deastore. com/ book/
fuzzy-sets-and-fuzzy-logic-george-j-klir-bo-yuan-prentice-hall-ptr/ 9780131011717. html)
[9] (EN) Su Nebis indice dei contenuti di: Fuzzy logic: mathematical tools for approximate reasoning (http:/ / opac. nebis. ch:80/ F/
HJY2ARPUSBKG6PDXNAMAVE3VL31G149CX11RJLN82I7S91SK8P-60530?func=service& doc_library=EBI01&
doc_number=004182120& line_number=0001& func_code=WEB-FULL& service_type=MEDIA)
Software
• DotFuzzy: Open Source Fuzzy Logic Library (http://www.havana7.com/dotfuzzy)
• JFuzzyLogic: Open Source Fuzzy Logic Package + FCL (sourceforge, java) (http://jfuzzylogic.sourceforge.net/
)
• pyFuzzyLib: Open Source Library (Python) (http://sourceforge.net/projects/pyfuzzylib)
• RockOn Fuzzy: Open Source Fuzzy Control And Simulation Tool (Java) (http://www.timtomtam.de/
rockonfuzzy)
• Free Educational Software and Application Notes (http://www.fuzzytech.com)
• InrecoLAN FuzzyMath: Fuzzy logic add-in for OpenOffice.org Calc (http://www.openfuzzymath.org)
• Open fuzzy logic based inference engine and data mining web service based on Metarule (http://www.metarule.
com)
• mbFuzzIT: Open Source Software (Java) (http://mbfuzzit.sourceforge.net)
Voci correlate
•
•
•
•
•
Informazione parziale linearizzata
Insiemi sfocati
Logica
Matematica
Reti neurali
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Fuzzy
logic
Collegamenti esterni
• Sintetica guida introduttiva di Antonio Visioli (Università degli Studi di Brescia) (http://bsing.ing.unibs.it/
~visioli/didattica/parte5.pdf)
• Logica Fuzzy: i paradossi della vaghezza, di Giangiacomo Gerla (http://www.dmi.unisa.it/people/gerla/
www/Down/Light logica fuzzy.pdf)
87
Logica polivalente
88
Logica polivalente
Le logiche polivalenti sono estensioni della logica classica in cui sono presenti più valori di verità rispetto ai
canonici vero, falso e pertanto in esse non vale il principio del terzo escluso. Le prime logiche polivalenti furono
proposte negli anni 1920 da Emil Post e da Jan Łukasiewicz e in esse erano presenti tre valori di verità: vero, falso,
problematico.
Logiche ad infiniti valori di verità
Successivamente si è giunti a proporre logiche ad infiniti valori di verità quali:
•
•
•
•
la logica ad infiniti valori di Lukasiewicz;
la cosiddetta logica fuzzy di Zadeh;
la logica (fuzzy) polivalente di Gödel;
la logica (fuzzy) prodotto.
Logica polivalente di Gödel
In tale formulazione si hanno le seguenti::
se
e
altrimenti.
Logica polivalente prodotto
In tale formulazione si hanno le seguenti::
se
e
altrimenti.
Logiche polivalenti e doppia negazione
È interessante osservare come nelle logiche "fuzzy" di Gödel e "fuzzy" prodotto si neghi il principio della doppia
negazione, come anche nella logica intuizionista, al fine di mantenere vera la forma standard del principio di
non-contraddizione. In particolare, a causa della particolare definizione dell'operatore NOT si hanno:
P → ¬¬P è un teorema
¬¬P → P non è teorema.
¬P → ¬¬¬P è un teorema.
¬¬¬P → ¬P è un teorema.
Logica polivalente
Logiche generiche. T-norma
Una T-norma o norma triangolare o AND generalizzato è una applicazione T: [0,1] × [0,1] → [0,1] che soddisfa i
seguenti requisiti:
•
•
•
•
•
Commutatività: T(a, b) = T(b, a);
Monotonia: T(a, b) ≤ T(c, d) se a ≤ c e b ≤ d;
Associatività: T(a, T(b, c)) = T(T(a, b), c);
Elemento nullo: T(a, 0) = 0;
1 agisce come elemento identità: T(a, 1) = a.
Le t-norme sono state utilizzate per interpretare il connettivo di congiunzione.
Esempi di t-norme sono il minimo, il prodotto e la t-norma di Lukasiewicz definita da T(x,y)=max(0,x+y-1).
Se la t-norma è una funzione continua a sinistra, allora è possibile definire la funzione x → y = max { z: T(x,z) ≤ y }
che può essere utilizzata per interpretare in connettivo di implicazione. Avendo a disposizione l'implicazione si può
definire la negazione come ¬x = x → 0.
Nel caso in cui si parte dalla t-norma di Lukasiewicz, si ottiene: x → y = min{ 1, 1-x+y} (implicazione di
Lukasiewicz) e ¬x = 1-x (negazione involutiva).
Nota che la negazione involutiva è tale che ¬¬x=x.
Voci correlate
• Logica fuzzy
• principio del terzo escluso
• principio di bivalenza
Su web
• Stanford Encyclopedia of Philosophy: Fuzzy logic [1]
• Stanford Encyclopedia of Philosophy:logica polivalente [2]
Note
[1] http:/ / plato. stanford. edu/ entries/ logic-fuzzy/
[2] http:/ / plato. stanford. edu/ entries/ logic-manyvalued/
89
Oggetto impossibile
90
Oggetto impossibile
Un oggetto impossibile è un oggetto che non può essere costruito nella realtà tridimensionale perché in contrasto
con le leggi della geometria, sebbene sia possibile disegnarne una rappresentazione bidimensionale. La percezione
dell'immagine bidimensionale come oggetto verosimile rappresenta un paradosso ed è per questo una illusione ottica
di tipo cognitivo.
In realtà diversi oggetti impossibili possono essere approssimativamente costruiti in tre dimensioni impiegando
qualche trucco prospettico, come nell'esempio del cubo impossibile.
L'artista olandese Maurits Cornelis Escher ha prodotto diverse opere in cui oggetti impossibili sono alla base
dell'architettura di edifici e paesaggi fantastici.
Nel romanzo di Andrea Camilleri La scomparsa di Patò viene chiaramente citata la Scala di Penrose ed i suoi
micidiali effetti.
Esempi di oggetti impossibili
Cubo impossibile
Triangolo
impossibile o
triangolo di
Penrose
Blivet / Poiuyt
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Impossible objects
Collegamenti esterni
• (EN) Realizzazione di oggetti impossibili [1]
Note
[1] http:/ / www. cs. technion. ac. il/ ~gershon/ BeyondEscherForReal/
Scala di Penrose
Paradossi dell'infinito
Paradossi dell'infinito
I paradossi dell'infinito sono connaturati con la sua stessa definizione. Per meglio dire, la definizione matematica di
infinito è stata costruita proprio per tener conto di quei comportamenti delle grandezze infinite che non sono
conciliabili con le regole normali delle grandezze limitate.
Un certo numero di paradossi logico-matematici si fondano su situazioni che hanno a che fare con grandezze
esplicitamente o implicitamente infinite, sottolineandone contraddizioni, antinomie, paradossi, che non ci si
aspetterebbe dalle normali grandezze finite di uso corrente.
I matematici hanno definito delle regole per dominare valori infinitamente grandi o infinitamente piccoli, in modo da
descriverne il comportamento in modo coerente. Ciò ha prodotto lo sviluppo del calcolo infinitesimale e dell'analisi
matematica ma, nel parlare comune, in alcuni casi è difficile liberarsi dalla sensazione di paradosso quando si tratta
di grandezze infinite.
Due esempi semplici:
• Quanti sono i numeri pari rispetto al totale dei numeri naturali?
In una qualunque successione (limitata) di numeri naturali consecutivi, si alternano un numero pari e uno dispari.
Quindi i pari sono esattamente la metà del totale.
Considerando invece la totalità (infinita) dei numeri naturali, i pari devono essere in quantità esattamente uguale
al totale dei numeri. Infatti per ogni numero esiste il suo doppio, che è pari!
• Quanti sono i punti di un segmento di lunghezza doppia di un altro?
Un segmento di lunghezza doppia rispetto ad un altro dovrebbe contenere intuitivamente un numero doppio di
punti.
In realtà, come si vede dal disegno, anche se il segmento A'B' è di lunghezza doppia rispetto ad AB, per
ciascuno dei suoi punti (es. C') si può stabilire una corrispondenza biunivoca con un punto sul segmento AB
(es. C). Quindi un segmento, per quanto sia corto, contiene sempre un numero infinito di punti, e questi si
possono mettere in corrispondenza diretta con quelli di un qualunque altro segmento, lungo a piacere.
91
Paradossi dell'infinito
92
Voci correlate
• Paradosso di Alberto di Sassonia - Il volume di una trave di lunghezza infinita è uguale al volume di tutto lo
spazio.
• Paradosso di Galileo - I quadrati perfetti, pur essendo una minima parte degli interi, sono altrettanto numerosi che
questi.
• Paradosso di San Pietroburgo - Ha senso aspettarsi di vincere una somma mediamente infinita, dopo un numero
infinito di giocate?.
• Paradosso del Grand Hotel - In un albergo con infiniti posti, c'è sempre posto per tutti, anche quando l'albergo è
completamente pieno.
• Paradosso di Bertrand - In un cerchio, le corde di lunghezza maggiore di
•
•
•
•
volte il raggio sono 1/2, 1/3 o 1/4
del totale?
Paradossi di Zenone - In un tempo finito, si possono percorrere infiniti tratti (di lunghezza infinitesima)?
Paradosso di Burali-Forti - Esiste "l'insieme di tutti i numeri ordinali" ?
Argomento diagonale di Cantor - Per non dimenticare che esistono infiniti di potenza (cardinalità) diversa
Paradosso dell'ipergioco - L' ipergioco sembra essere contemporaneamente un gioco finito e infinito
Paradossi di Zenone
I paradossi di Zenone ci sono stati tramandati attraverso la citazione che ne fa Aristotele nella sua Fisica. Zenone di
Elea, discepolo ed amico di Parmenide, per sostenere l'idea del maestro, che la realtà è costituita da un Essere unico
e immutabile, propose alcuni paradossi che dimostrano, a rigor di logica, l'impossibilità della molteplicità e del moto,
nonostante le apparenze della vita quotidiana.
Le argomentazioni di Zenone costituiscono forse i primi esempi del metodo di dimostrazione noto come reductio ad
absurdum o dimostrazione per assurdo. Sono anche considerate un primo esempio del metodo dialettico, usato in
seguito dai sofisti e da Socrate ed inoltre furono il primo strumento che mise in difficoltà l'ambizione dei pitagorici
di ridurre tutta la realtà in numeri.
Oggi non si attribuisce valore fisico alle argomentazioni di Zenone, ma la loro influenza è stata molto importante
nella storia del pensiero filosofico e matematico.
I paradossi di Zenone restano anche un utile esercizio di logica, per riflettere sulla modalità di costruzione dei
ragionamenti umani. Si ricordano due paradossi contro il pluralismo e quattro contro il movimento.
Paradossi contro il pluralismo
Primo paradosso
Il primo paradosso, contro la pluralità delle cose, sostiene che se le cose sono molte, esse sono allo stesso tempo un
numero finito e un numero infinito: sono finite in quanto esse sono né più né meno di quante sono, e infinite poiché
tra la prima e la seconda ce n'è una terza e così via.
Secondo paradosso
Il secondo paradosso invece sostiene che se queste unità non hanno grandezza, le cose da esse composte non avranno
grandezza, mentre se le unità hanno una certa grandezza, le cose composte da infinite unità avranno una grandezza
infinita.
Paradossi di Zenone
93
Paradossi contro il movimento
Primo paradosso (lo stadio)
Il primo argomento contro il movimento è quello sullo stadio.
Esso afferma che non si può giungere all'estremità di uno stadio senza prima aver raggiunto la metà di esso, ma
prima di raggiungerla si dovrà raggiungere la metà della metà e così via senza quindi mai riuscire nemmeno ad
iniziare la corsa.
Secondo Giorgio Colli, sono due le versioni tramandate del paradosso (una è quella citata sopra), e andrebbe
preferita la seguente espressione:
Non si può giungere all'estremità di uno stadio senza prima aver raggiunto la metà di esso, ma una volta raggiunta la
metà si dovrà raggiungere la metà della metà rimanente e così via, senza quindi mai riuscire a raggiungere l'estremità
dello stadio.
Il paradosso sarebbe dunque analogo a quello di Achille e la tartaruga (che è una formulazione più suggestiva della
dicotomia all'infinito) e del tutto indipendente da quello della freccia, che mette in dubbio l'inizio stesso del
movimento.
Secondo paradosso (Achille e la tartaruga)
Il Paradosso di Achille e la tartaruga - uno dei paradossi di Zenone più famosi - afferma invece che se Achille (detto
"pie' veloce") venisse sfidato da una tartaruga nella corsa e concedesse alla tartaruga un piede di vantaggio, egli non
riuscirebbe mai a raggiungerla, dato che Achille dovrebbe prima raggiungere la posizione occupata precedentemente
dalla tartaruga che, nel frattempo, sarà avanzata raggiungendo una nuova posizione che la farà essere ancora in
vantaggio; quando poi Achille raggiungerà quella posizione nuovamente la tartaruga sarà avanzata precedendolo
ancora. Questo stesso discorso si può ripetere per tutte le posizioni successivamente occupate dalla tartaruga e così la
distanza tra Achille e la lenta tartaruga pur riducendosi verso l'infinitamente piccolo non arriverà mai ad essere pari a
zero.
In pratica, posto che la velocità di Achille (
•
•
•
•
) sia N volte quella della tartaruga (
) le cose avvengono così:
dopo un certo tempo Achille arriva dove era la tartaruga alla partenza (
).
nel frattempo la tartaruga ha compiuto un pezzo di strada e si trova nel punto
.
occorre un ulteriore tempo per giungere in
.
ma nel frattempo la tartaruga è giunta nel punto
... e così via.
Quindi per raggiungere la tartaruga Achille impiega un tempo
e quindi non la raggiungerà mai.
Terzo paradosso (la freccia)
Il terzo argomento è quello della freccia, che appare in movimento ma, in realtà, è immobile. In ogni istante difatti
essa occuperà solo uno spazio che è pari a quello della sua lunghezza; e poiché il tempo in cui la freccia si muove è
fatto di singoli istanti, essa sarà immobile in ognuno di essi.
Il concetto di questo terzo paradosso è in fondo opposto a quello del secondo: l'esistenza di punti e istanti indivisibili.
Ma anche in questo caso il movimento risulta impossibile, in quanto dalla somma di istanti immobili non può
risultare un movimento.
Paradossi di Zenone
94
Quarto paradosso (due masse nello stadio)
Zenone afferma che se due masse in uno stadio si vengono incontro, risulterà l'assurdo logico che la metà del tempo
equivale al doppio.
Consideriamo infatti tre segmenti (A, B, C) uguali e paralleli, che si trovino allineati. Supponiamo poi che il
segmento in alto (A) si muova verso destra, rispetto a quello situato nel centro (B) che resta fermo, e che per ogni
istante elementare avanzi di un intervallo (elementare). Il segmento in basso (C) faccia invece la stessa cosa verso
sinistra. Dopo il primo istante avremo che i punti iniziali di A e C si saranno allontanati di due intervalli. Ma ciò è
assurdo perché allora il tempo che avrebbero impiegato per allontanarsi di un solo intervallo sarebbe di "mezzo
istante", contraddicendo l'ipotesi che stiamo analizzando la situazione al primo istante (indivisibile).
Proposte di soluzioni ai paradossi del moto
Non è difficile immaginare che anche un greco, ignaro dei rudimenti del calcolo infinitesimale, "vedesse" altrettanto
bene che ogni somma: un segmento + mezzo segmento + un quarto di segmento + etc. rimane sempre all'interno del
segmento doppio. Tale critica alle moderne "pseudoconfutazioni" è stata ampiamente sviluppata, su basi kantiane,
dal matematico Umberto Bartocci, il quale invita invece a riflettere sulla circostanza che i paradossi di Zenone sul
movimento vanno considerati sempre attuali e "non risolubili", in quanto puntano l'attenzione sulle dicotomie
reale/pensato e spazio(continuo)/tempo(discreto)[1].
I paradossi in realtà, se correttamente intesi, non possono essere confutati. Essi non mirano a confutare il moto in sé,
ma la sua formalizzazione matematica, constatando l'inadeguatezza di un sistema formale (nel caso specifico quella
di un insieme numerico denso come R) nel descrivere la realtà fisica (il tempo e lo spazio). Infatti anche al giorno
d'oggi con l'analisi infinitesimale non possiamo che confermare che prima che Achille raggiunga la tartaruga
dovranno passare infiniti istanti.
Nel caso specifico di Achille e della tartaruga la serie dei tempi
converge a
Sia infatti
il tempo che Achille impiega a raggiungere la posizione iniziale occupata dalla tartaruga, la distanza percorsa dalla
tartaruga in tale tempo è pari a
che Achille ricoprirà in un tempo
.
Iterando il procedimento n volte si giunge a scrivere
e
;
pertanto il tempo totale T e la distanza totale L percorsa sono dati rispettivamente da
e
Paradossi di Zenone
con l'ovvio vincolo di convergenza
95
.
Una prima dimostrazione di convergenza delle serie infinite non geometriche è stata data, nel solo caso particolare di
solo nel XIV secolo da Richard Suiseth.
Il caso generale venne dimostrato nel XVII secolo, mentre Zenone espose i suoi paradossi nel V secolo a.C. La
tecnica mostrata da Zenone nella suddivisione infinitesimale va sotto il nome di dicotomia.
Si può aggiungere che la precedente spiegazione, che fa ricorso alla teoria delle serie convergenti, è alquanto diffusa
nell'ambiente dei matematici[2], ma lo è forse perché assai "comoda", in quanto permette di non riflettere più a fondo
su una questione che si presume facilmente superabile grazie ai successivi progressi avvenuti nel campo della
disciplina.
Nel paradosso delle masse dello stadio, Zenone dimostra che uno spazio e un tempo assoluti non corrispondono alla
realtà. Oggi infatti sappiamo, per la relatività ristretta, che le velocità possibili di un corpo non sono illimitate
superiormente. L'errore di fondo sta nel considerare lo spazio e il tempo come entità separate. Anche in quello della
freccia, egli suppone che un corpo in moto sia indistinguibile da uno in quiete. Sono trascorsi 2500 anni prima di
raggiungere le conoscenze necessarie a confermare il paradosso. Lo spazio e il tempo infatti non sono da considerarsi
assoluti.
In genere si è sempre osservato che gli argomenti di Zenone si basano sul concetto di infinito. Per il paradosso della
freccia, ad esempio, Bertrand Russell ha osservato che il cinematografo crea il movimento utilizzando una
successione di immagini ferme. Ma questa è soltanto una disputa sul significato di moto, secondo la quale il moto
sarebbe un'illusione cinematografica.
Esiste un'altra visione dei paradossi di Zenone: un atto "semplice" viene scomposto e descritto attraverso una
successione infinita di atti.
Effetto Zenone quantistico
Come si può vedere, questi paradossi sono stati utili per sviluppare molti concetti alla base della matematica e della
fisica moderne, e non si dovrebbe liquidarli banalmente. Persino nella meccanica quantistica riecheggia il nome di
Zenone nel cosiddetto "effetto Zenone quantistico", che, riprendendo metaforicamente il paradosso della freccia,
afferma che un sistema, che decadrebbe spontaneamente, è inibito o addirittura non decade affatto se sottoposto ad
una serie infinita di osservazioni (o misure). Di recente vari esperimenti:
• l'esperimento di Itano et al.(1990), basatosi sull'idea di Cook (1988),
• quello di Kwiat et al. (1995) sulla polarizzazione dei fotoni,
• e quello di Fischer et al. (2001),
hanno dato verifica sperimentale di questo effetto.
Paradossi di Zenone
Il paradosso di Achille e la tartaruga in letteratura
Il Paradosso di Achille e la tartaruga ha ispirato diversi scrittori.
• Lewis Carroll ha pensato ad un immaginario dialogo tra Achille e la tartaruga, posto alla fine dell'interminabile
corsa. I due discutono di geometria, ma la tartaruga rifiuta sempre di arrivare alla conclusione finale di Achille,
semplicemente perché rifiuta la logica (in particolare il modus ponens).
• In Gödel, Escher, Bach: un'eterna ghirlanda brillante di Douglas Hofstadter i vari capitoli sono intervallati da
dialoghi tra Achille e la tartaruga, ispirati all’opera di Carroll.
• Lo scrittore argentino Borges ha ripreso più volte i paradossi di Zenone, discutendo del loro rapporto con
l'infinito. Borges li ha anche utilizzati come metafora per alcune situazioni descritte da Kafka.
• Il poeta francese Paul Valéry cita Zenone d'Elea e fa riferimento ai paradossi di Achille e della freccia nel suo
poema Le Cimetière Marin.
Voci correlate
• Zenone di Elea
Note
[1] Umberto Bartocci, "I paradossi di Zenone sul movimento e il dualismo spazio-tempo", "Episteme, Physis e Sophia nel III millennio", Perugia,
N. 8, 2004 (http:/ / www. cartesio-episteme. net/ ep8/ ep8-zeno. htm), con un'appendice "Sulle definizioni matematiche di discreto e
continuo". (http:/ / www. cartesio-episteme. net/ ep8/ ep8-zeno-app. htm)
[2] Ne sono lampante esempio i versi di Hubert Cremer de:Hubert Cremer: "Oh, Zenon, Zenon, alter Wicht, kennst du den Kowalewski
nicht?"pt:Gerhard Kowalewski, in "Carmina mathematica und andere poetische Jugendsünden", Mathematische Scherzgedichte, erste Auflage
1927.
Paradosso asiatico (cardiologia)
Con paradosso asiatico ci si riferisce al basso tasso di cardiopatie e tumori che si registra in Asia, nonostante l’alto
numero di forti fumatori.
La ricerca di Yale
Nel maggio 2006 alcuni ricercatori della Facoltà di Medicina dell'Università Yale pubblicarono un articolo relativo a
oltre 100 studi condotti sui benefici arrecati alla salute dal tè verde. Essi teorizzarono che i 1,2 litri di tale bevanda
che molti asiatici consumano in media al giorno, forniscono al fisico un alto tasso di polifenoli ed altre sostanze
antiossidanti. Queste molecole agiscono in molti modi nel migliorare le funzionalità cardiovascolari, prevenendo
l’aggregazione piastrinica, e migliorando i livelli del colesterolo. Questo effetto anticoagulante è alla base della
preoccupazione, da parte di molti medici, che i loro pazienti evitino l’assunzione di tè verde prima di procedure
correlate alla capacità di coagulazione. I risultati dello studio sono apparsi nel numero di maggio del Journal of the
American College of Surgeons [1]. Nello specifico il tè verde è in grado di prevenire l’ossidazione del colesterolo
trasportato dalle lipoproteine a bassa densità, il cosiddetto "colesterolo cattivo", contribuendo quindi a ridurre la
formazione di placche nelle arterie.
96
Paradosso asiatico (cardiologia)
97
Voci correlate
• Tè verde
Collegamenti esterni
• (EN) Green Tea and the “Asian Paradox” [2]
• Tè verde: più forte anche del fumo [3]
Note
[1] http:/ / www. facs. org/
[2] http:/ / www. yale. edu/ opa/ newsr/ 06-06-01-01. all. html
[3] http:/ / it. health. yahoo. net/ c_news. asp?id=15858& c=13& s=1
Paradosso dei corvi
Il paradosso dei corvi (anche detto paradosso dei corvi neri, paradosso di Hempel o i corvi di Hempel) è un
paradosso logico sviluppato negli anni '40 da Carl Gustav Hempel per dimostrare i limiti del procedimento logico
induttivo.
Osservando come per il principio induttivo
l'acquisizione di un nuovo riscontro
empirico di una teoria renda più probabile
che questa teoria sia vera, cioè la teoria
della confermabilità, Hempel prese ad
esempio la teoria che tutti i corvi siano neri
per trarne conclusioni di paradosso.
Esaminando ad uno ad uno un milione di
corvi,
notiamo
infallibilmente
ed
invariabilmente che essi sono tutti neri.
Dopo ogni osservazione, perciò, la teoria
che tutti i corvi siano neri diviene ai nostri
occhi sempre più probabilmente vera,
coerentemente col principio induttivo. Pare
ogni volta sempre più corretto registrare
l'assunto come probabilmente vero: tutti i corvi sono neri.
Un corvo nero
Ma l'assunto "i corvi sono tutti neri" è logicamente equivalente all'assunto "tutte le cose che non sono nere, non sono
corvi". In base al principio induttivo, d'altra parte, questo secondo enunciato diventerebbe più probabilmente vero in
seguito all'osservazione di una mela rossa: osserveremmo, infatti, una cosa non nera che non è un corvo. Perciò,
l'osservazione di una mela rossa renderebbe più probabilmente vero anche l'assunto che "tutti i corvi sono neri".
Una delle soluzioni più famose fra quelle proposte consiste nell’accettare che l’osservazione di una mela verde
costituisce una prova che tutti i corvi sono neri, ma aggiungendo che l’effettiva conferma che questa prova fornisce è
molto piccola, vista la grande differenza fra il numero di corvi e il numero di oggetti non neri. Secondo questa
risoluzione, la conclusione appare paradossale perché viene intuitivamente stimato in zero il valore della prova
nell’osservare una mela verde, mentre in realtà è molto piccolo. Questa argomentazione è stata presentata da I. J.
Good nel 1960 ed è probabilmente la più conosciuta, anche alcune varianti sono state presentate nel 1958 e forme
precedenti dell’argomentazione risalgono al 1940.
Paradosso dei due bambini
98
Paradosso dei due bambini
Viene detto paradosso dei due bambini un celebre quesito della teoria della probabilità, apparentemente semplice
ma in realtà ambiguo e il cui studio porta ad una risposta controintuitiva. Esso è spesso citato per mettere in evidenza
la facilità con la quale nell'ambito della probabilità può nascere confusione anche in contesti che a prima vista
sembrano nient'affatto complicati da analizzare.
Il nome con cui viene chiamato comunemente questo problema viene dall'inglese "Boy or Girl paradox"; tuttavia il
termine italiano "paradosso" ha un senso più preciso e restrittivo del "paradox" inglese, e non designa problemi come
questo, che tecnicamente è piuttosto un sofisma.
Quesito
Il quesito in questione è, in una delle prime formulazioni (proposta da Martin Gardner sulle pagine del Scientific
American): "Il signor Smith ha due bambini. Almeno uno dei due è un maschio. Qual è la probabilità che entrambi i
bambini siano maschi?"
La risposta intuitiva è che se, poniamo, è maschio il primo bambino, la probabilità che anche l'altro lo sia è 1/2=50%.
In realtà, come riconosciuto da Gardner stesso, la domanda è posta in modo ambiguo (è facile pensare che con
"almeno uno" si intenda "sicuramente uno che ho chiaramente individuato - ed eventualmente anche l'altro"), e una
possibile riformulazione - intuitivamente equivalente - che non dia adito ad ambiguità è la seguente:
"Il signor Smith ha due bambini. Non sono due femmine. Qual è la probabilità che entrambi i bambini siano
maschi?"
Non è difficile, utilizzando semplici strumenti di probabilità classica, scoprire che la risposta è allora 1/3=33,3%. Di
seguito le possibili combinazioni dei figli che rispettano le condizioni date:
Figlio maggiore Figlio minore
Femmina
Femmina
Femmina
Maschio
Maschio
Femmina
Maschio
Maschio
Si osservi che questo cosiddetto paradosso non ha nulla a che vedere con il fatto che in natura nella grande
maggioranza dei paesi nascano leggermente più maschi che femmine[1]; si assume invece che la probabilità di un
figlio maschio sia a priori uguale a quella di una figlia femmina: 1/2.
Dimostrazione assiomatica o frequentista
Su 100 famiglie che hanno esattamente due figli, si osserveranno in media le seguenti quattro combinazioni:
1.
2.
3.
4.
25 famiglie il cui primo figlio è maschio e il secondo pure
25 famiglie il cui primo figlio è maschio e il secondo invece femmina
25 famiglie il cui primo figlio è femmina e il secondo invece maschio
25 famiglie il cui primo figlio è femmina e il secondo pure
La domanda prende in considerazione i primi tre casi, ovvero non quello in cui ci sono due femmine: si tratta di 75
famiglie. Nelle 25 famiglie del primo caso entrambi i figli sono maschi, mentre nelle 25+25=50 famiglie del secondo
e terzo caso ci sono un maschio ed una femmina. Pertanto la probabilità che entrambi siano maschi è pari a
25/75=1/3.
Paradosso dei due bambini
99
Una domanda simile con risposta corretta pari a 1/2
L'ambiguità del "paradosso" nasce dal fatto che lo si potrebbe voler riformulare come, ad esempio:
sapendo che una famiglia ha esattamente due bambini, dei quali il primo è un maschio, quant'è la probabilità
che l'altro bambino sia una femmina?
In questo caso la risposta intuitiva (1/2=50%) è corretta. Infatti in metà delle famiglie (casi 1 e 2) il primo figlio è
maschio e di queste nella metà dei casi (caso 1) anche il secondo è maschio. Di seguito le possibili combinazioni dei
figli che rispettano le diverse condizioni poste:
Figlio maggiore Figlio minore
Femmina
Femmina
Femmina
Maschio
Maschio
Femmina
Maschio
Maschio
Il problema è che con le parole "almeno un bambino", non stiamo individuando uno dei due figli in particolare (cioè
se è il primo o il secondo). Le parole "l'altro bambino" invece ci portano spontaneamente ad immaginare che
l'"almeno uno" indichi un bambino specifico (ad esempio che chi ci pone la domanda ne abbia chiaro in mente il
volto e se è il primo o il secondo) ed a forzare quindi il significato della prima parte della domanda.
Un'altra domanda simile con risposta corretta pari a 1/2
Un'altra domanda simile è la seguente:
"In un mondo nel quale tutte le famiglie hanno esattamente due bambini (p.es. nell'associazione "Famiglie con
due figli"), incontrando un maschietto, quant'è la probabilità che abbia una sorella?"
Anche in questo caso la risposta intuitiva (1/2=50%) è anche quella corretta. Infatti analizzando in modo
leggermente diverso l'elenco di cui sopra
1.
2.
3.
4.
25 famiglie il cui primo figlio (gruppo A1) è maschio e il secondo (gruppo A2) pure
25 famiglie il cui primo figlio (gruppo B1) è maschio e il secondo (gruppo B2) invece femmina
25 famiglie il cui primo figlio (gruppo C1) è femmina e il secondo (gruppo C2) invece maschio
25 famiglie il cui primo figlio (gruppo D1) è femmina e il secondo (gruppo D2) pure
si osserva che incontrando un maschietto questo deve appartenere ad uno dei seguenti quattro gruppi:
•
•
•
•
25 (primogeniti) del gruppo A1, che non hanno sorelle
25 (secondogeniti) del gruppo A2, che non hanno sorelle (si tratta dei fratelli di bambini del gruppo A1)
25 (primogeniti) B1, che hanno una sorella (minore)
25 (secondogeniti) C2, che hanno una sorella (maggiore)
In totale ci sono dunque 100 maschietti, dei quali 25+25=50 hanno una sorella, di conseguenza la probabilità cercata
è effettivamente pari a 50/100=1/2=50%.
Paradosso dei due bambini
Studio scientifico
Fox & Levav nel 2004 hanno sottoposto ad un test alcuni volontari, ponendo loro una delle seguenti due domande:
• «Il signor Smith dice: "Ho due bambini ed almeno uno è un maschio." Considerando questa informazione, qual è
la probabilità che l'altro bambino sia un maschio?»
• «Il signor Smith dice: "Ho due bambini e non sono entrambi femmine." Considerando questa informazione, qual è
la probabilità che entrambi i bambini siano maschi?»
I due studiosi hanno riportato che l'85% delle persone che hanno risposto alla prima domanda, hanno fornito come
risposta 1/2 considerando solo 2 possibili combinazioni, ingannati dalle parole " l'altro bambino ". Alla seconda
domanda, solamente il 39% ha risposto 1/2. Gli studiosi hanno così dimostrato che pur essendo (a livello di calcolo
delle probabilità) la stessa domanda con gli stessi casi da considerare, la diversa formulazione ha ridotto l'ambiguità
e di conseguenza le risposte errate del 46%.
Note
[1] Tabella Istat (http:/ / demo. istat. it/ altridati/ natid1d2/ tavole/ Tavola 1. 2 - 1994-1998. pdf) sulla natalità in Italia tra il 1994 ed il 1998
Voci correlate
• Probabilità condizionata
• Paradosso delle tre carte
• Problema di Monty Hall
Paradosso dei gemelli
Il paradosso dei gemelli è un esperimento mentale che sembra rivelare una contraddizione nella teoria della
relatività ristretta. L'analisi che porta a tale conclusione è però scorretta: un'analisi corretta mostra che non vi è
alcuna contraddizione.
Storia
Principale sostenitore della questione fu Herbert Dingle, filosofo inglese. Pur avendo ricevuto numerose confutazioni
logiche da Einstein e Bohr, egli continuò a scrivere ai giornali, e quando questi ultimi cominciarono a rifiutare le
pubblicazioni, parlò di un complotto ai suoi danni.
Risolvendo il paradosso dei gemelli, Einstein ammise la possibilità teorica di un viaggio nel futuro, ferma restando
l'impossibilità di superare la velocità della luce. La prima costruzione teorica per la quale risultava possibile un
viaggio nel passato, fu elaborata più tardi dallo stesso Einstein insieme a Nathan Rosen.
Enunciato del paradosso
Consideriamo un'astronave che parta dalla Terra nell'anno 3000; che mantenendo una velocità costante v raggiunga
la stella Wolf 359, distante 8 anni luce dal nostro pianeta; e che appena arrivata, inverta la rotta e ritorni sulla Terra,
sempre a velocità v. Di una coppia di fratelli gemelli, l'uno salga sull'astronave, mentre l'altro rimanga a Terra.
Volutamente, nei calcoli trascuriamo per semplicità l'accelerazione e la decelerazione della navetta, anche se, per
portarsi a velocità relativistiche in tempi brevi, occorrerebbero accelerazioni insostenibili per l'uomo e per la nave.
Supponiamo che v sia di 240.000 km/s, cioè v = 0,8 c. Per questa velocità si ha:
100
Paradosso dei gemelli
101
per cui, secondo la teoria della relatività ristretta, nel sistema in movimento il tempo scorre al 60% del tempo nel
sistema in quiete. Quindi:
• Nel sistema di riferimento della Terra, l'astronave percorre 8 anni luce in 10 anni nel viaggio di andata, e ne
impiega altrettanti nel viaggio di ritorno: essa quindi ritorna sulla Terra nel 3020. Sull'astronave, però, il tempo
scorre al 60% del tempo della Terra, quindi secondo l'orologio dell'astronauta il viaggio dura 6 anni per l'andata e
altrettanti per il ritorno: all'arrivo, quindi, il calendario dell'astronave segna l'anno 3012. Il fratello rimasto sulla
Terra è perciò, dopo il viaggio, di otto anni più vecchio del suo gemello.
• Nel sistema di riferimento dell'astronave, per effetto della contrazione relativistica delle lunghezze, la distanza fra
la Terra e Wolf 359 si accorcia al 60%, cioè a 4,8 anni luce: alla velocità di 0,8 c, si impiegano quindi, secondo
l'orologio dell'astronave, 6 anni per l'andata e 6 per il ritorno, coerentemente con quanto calcolato nel sistema di
riferimento della Terra. Ma, poiché in questo sistema di riferimento è la Terra a muoversi, è il suo orologio che va
al 60% del tempo dell'astronave: quando l'astronave fa ritorno, sulla Terra sono trascorsi solo 7,2 anni, perciò non
è l'anno 3020, ma il 3007, ed è il fratello a bordo dell'astronave ad essere di 4,8 anni più vecchio.
Soluzione (nella relatività speciale)
L'apparente contraddizione si risolve osservando che, mentre quello della Terra è un sistema di riferimento inerziale,
quello dell'astronave non lo è. L'astronave non mantiene infatti una velocità costante per tutta la durata del viaggio,
ma prima accelera fino alla velocità di crociera, poi frena, inverte la rotta e riaccelera per tornare indietro, e poi frena
di nuovo.
Si devono quindi considerare non due, ma tre sistemi di riferimento inerziali: quello della Terra, quello dell'astronave
nel viaggio di andata, che si muove rispetto alla Terra di velocità v, e quello dell'astronave nel viaggio di ritorno, che
si muove rispetto alla Terra di velocità -v (cioè v nella direzione opposta), tralasciando i tempi di
accelerazione/decelerazione, che per velocità così elevate sarebbero comunque significativi.
Nella figura è tracciato il diagramma di
Minkowski per questi tre sistemi di
riferimento (disegnati rispettivamente in
nero, blu e rosso). I tre eventi indicati con le
lettere A, B, C sono rispettivamente:
• la partenza dell'astronave dalla Terra
• l'arrivo dell'astronave a Wolf 359 e sua
ripartenza
• il ritorno dell'astronave sulla Terra
I tre sistemi di riferimento non sono in
accordo su quale sia, sulla Terra, l'evento
simultaneo all'evento B: nel sistema di
riferimento della Terra, esso è l'evento D; in
quello del viaggio d'andata è l'evento D’; e
in quello del viaggio di ritorno è l'evento D’’
(relatività della simultaneità).
Così, quando l'osservatore a bordo
dell'astronave calcola il tempo trascorso
sulla Terra "dalla sua partenza al suo arrivo
a Wolf 359", egli effettua il calcolo nel
Diagramma di Minkowski
Paradosso dei gemelli
sistema di riferimento del viaggio di andata, e quindi calcola il tempo trascorso dall'evento A all'evento D’, che in
quel sistema di riferimento è simultaneo a B; ma quando calcola il tempo trascorso "dalla sua ripartenza al suo arrivo
sulla Terra", egli effettua il calcolo nel sistema di riferimento del viaggio di ritorno, nel quale è D’’ ad essere
simultaneo a B. Perciò il tempo da lui calcolato non è uguale al tempo totale trascorso sulla Terra, ma soltanto alla
somma dei due intervalli A-D’ e D’’-C, mentre l'intervallo D’-D’’ non viene conteggiato.
Per l'osservatore sulla Terra, invece, l'evento simultaneo a B è sempre D, sia per il viaggio di andata sia per quello di
ritorno: la somma dei due intervalli A-D e D-C è pari al tempo totale trascorso sulla Terra. Il calcolo di questo
osservatore è quindi quello corretto: dopo il viaggio, il gemello rimasto sulla Terra è più vecchio (di 8 anni) di quello
salito sull'astronave.
Analisi dettagliata
Indicando con x, t le coordinate spaziale e temporale nel sistema di riferimento della Terra; con x’, t’ quelle nel
sistema di riferimento dell'astronave nel viaggio di andata; e con x’’, t’’ quelle nel viaggio di ritorno, valgono le
trasformazioni di Lorentz:
dove il termine
appare nelle equazioni (3) e (4) in quanto i due sistemi di riferimento non hanno la stessa origine.
Usando l'anno come unità di tempo e l'anno luce come unità di lunghezza, le costanti numeriche hanno i seguenti
valori: v = 0.8, c = 1,
= 16 (quest'ultimo valore è scelto in modo da avere x’’ = 0 per l'astronave nel viaggio di
ritorno).
Nel sistema di riferimento della Terra, le coordinate (x, t) degli eventi A, B, C, D sono rispettivamente: (0, 0), (8,
10), (0, 20), (0, 10). Le coordinate dell'evento D’ si possono calcolare in quanto detto evento avviene sulla Terra, per
cui x=0, e simultaneamente a B nel sistema di riferimento del viaggio di andata, per cui t’=6: sostituendo tali valori
nell'equazione (2) si ottiene t=3.6. Analogamente, le coordinate di D’’ si ottengono imponendo x=0 e t’’=6:
dall'equazione (4) si ricava t=16.4.
Gli intervalli di tempo tra questi eventi, secondo l'orologio della Terra, sono quindi i seguenti: A-D’ = 3.6 anni, D’-D
= 6.4 anni, D-D’’ = 6.4 anni, D’’-C = 3.6 anni (totale 20 anni).
Ora, applicando le trasformazioni (1) e (2), possiamo calcolare le coordinate di questi eventi nel sistema di
riferimento dell'andata: A = (0, 0), B = (0, 6), C = (-26.6667, 33.3333), D = (-13.3333, 16.6667), D’ = (-4.8, 6), D’’ =
(-21.8667, 27.3333). Come si può vedere, in questo sistema di riferimento D non è simultaneo a B, mentre lo è D’.
Gli intervalli di tempo sono quindi: A-D’ = 6 anni, D’-D = 10.6667 anni, D-D’’ = 10.6667 anni, D’’-C = 6 anni (totale
33.3333 anni). Ma l'orologio sulla Terra, in questo sistema di riferimento, va al 60% del tempo sull'astronave. Esso
quindi misura: A-D’ = 3.6 anni, D’-D = 6.4 anni, D-D’’ = 6.4 anni, D’’-C = 3.6 anni (totale 20 anni), esattamente
come si era calcolato in precedenza.
Allo stesso modo, applicando le trasformazioni (3) e (4), le coordinate nel sistema di riferimento del ritorno sono: A
= (-26.6667, -21.3333), B = (0, 6), C = (0, 12), D = (-13.3333, -4.6667), D’ = (-21.8667, -15.3333), D’’ = (-4.8, 6).
Gli intervalli di tempo sono: A-D’ = 6 anni, D’-D = 10.6667 anni, D-D’’ = 10.6667 anni, D’’-C = 6 anni (totale
33.3333 anni); e secondo l'orologio sulla Terra: A-D’ = 3.6 anni, D’-D = 6.4 anni, D-D’’ = 6.4 anni, D’’-C = 3.6 anni
(totale 20 anni).
In tutti e tre i sistemi di riferimento, quindi, si ottiene lo stesso risultato: durante il viaggio, sulla Terra trascorrono 20
anni.
102
Paradosso dei gemelli
Cosa vede l'astronauta
Alcuni, per spiegare il paradosso dei gemelli, sostengono che per l'astronauta, nel viaggio di andata, l'orologio della
Terra va più lentamente, ma nel viaggio di ritorno va più velocemente, e in questo modo "recupera" il tempo perso e
si avvantaggia. Questo è vero soltanto da un certo punto di vista.
Come spiegato sopra, sia nel viaggio di andata che in quello di ritorno, l'astronauta calcola che l'orologio della Terra
va al 60% del tempo del suo. Tuttavia, quello che l'astronauta calcola è differente da quello che vede. Nel secondo
caso, infatti, occorre considerare anche il tragitto che la luce compie dalla Terra all'astronave.
Infatti, quando l'astronauta raggiunge Wolf 359, per il suo orologio sono trascorsi 6 anni, ed egli calcola che sulla
Terra siano trascorsi 3.6 anni; ma in quel momento, egli viene raggiunto dalla luce partita dalla Terra solo 2 anni
dopo di lui, secondo l'orologio della Terra, o 1.2 anni dopo secondo il suo (infatti, nel sistema di riferimento della
Terra, l'astronave impiega 10 anni per percorrere 8 anni luce, mentre la luce ne impiega 8; nel sistema dell'astronauta
la distanza si contrae a 4.8 anni luce, e i tempi si riducono in proporzione). Perciò l'astronauta vede l'orologio sulla
Terra andare non al 60% del suo, ma 3 volte più lento, cioè al 33.3333%.
Questo ulteriore rallentamento non è un effetto relativistico, ma lo si osserverebbe anche se valesse la sola fisica
classica (seppur la sua entità risulterebbe diversa). Per una trattazione di questo fenomeno si veda l'articolo effetto
Doppler relativistico.
Nel viaggio di ritorno, l'astronauta va incontro alla luce proveniente dalla Terra, invece di allontanarsene: l'effetto è
quindi opposto, per cui egli vede l'orologio della Terra andare più rapido. Precisamente, nei 6 anni (secondo il suo
orologio) del viaggio di ritorno, egli vede trascorrere 18 anni sulla Terra (dal 3002 al 3020), per cui vede l'orologio
della Terra andare 3 volte più rapido del suo. In questo senso, l'affermazione riportata sopra è vera.
Allo stesso modo, l'osservatore sulla Terra vede l'orologio sull'astronave andare 3 volte più lento del suo nel viaggio
di andata, e 3 volte più veloce nel viaggio di ritorno; ma al contrario dell'astronauta, egli vede il viaggio di andata
durare 18 anni e quello di ritorno solo 2 (in entrambi i casi l'orologio dell'astronave misura 6 anni), perché la luce
emessa da Wolf 359 nell'anno 3010 raggiunge la Terra soltanto nel 3018.
Soluzione (nella relatività generale)
Nella teoria della relatività generale, tutti i sistemi di riferimento, non solo quelli inerziali, sono ugualmente validi.
La situazione, a prima vista, appare quindi simmetrica: non sembra esservi una ragione per cui l'orologio della Terra
debba andare più veloce di quello dell'astronave, e non il contrario.
A ben guardare, però, una differenza esiste: un osservatore sull'astronave, nel momento in cui essa inverte la rotta,
avverte un'accelerazione. Nel sistema di riferimento della Terra, si tratta dell'accelerazione che l'astronave
sperimenta nel mutare la sua velocità da v a -v; nel sistema di riferimento dell'astronave, essa viene avvertita come
un'accelerazione di gravità.
Ora, la relatività generale prevede che quanto più intensa è l'accelerazione che un osservatore avverte, tanto più il
suo orologio rallenta (red-shift gravitazionale). Durante la fase di accelerazione, quindi, l'osservatore sull'astronave
vede l'orologio sulla Terra andare molto più veloce del suo: si può calcolare che in questo tratto l'osservatore
"recupera" il tempo perso nei tratti di moto uniforme, e il tempo totale corrisponde a quello calcolato nell'altro
sistema di riferimento.
103
Paradosso dei gemelli
Voci correlate
• Dilatazione del tempo
• Viaggio nel tempo
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Twin
paradox
Collegamenti esterni
• Il paradosso dei gemelli | Astronomia.com [1]
• Il paradosso dei gemelli [2]
• L'articolo della soluzione del paradosso dei gemelli di Subhash Kak [3]
Note
[1] http:/ / www. astronomia. com/ 2008/ 06/ 19/ il-paradosso-dei-gemelli-parte-1/
[2] http:/ / www. webalice. it/ ugerco/ autorivari/ gemelliweb. htm
[3] http:/ / www. springerlink. com/ content/ e4670q159464473r/ ?p=9724bdccded240a59c384dcdefcded98& pi=1
Paradosso del bibliotecario
Il paradosso del bibliotecario è un'altra versione del paradosso di Russell dovuta al logico matematico norvegese
Thoralf Skolem.
Essa può essere così raccontata. Al responsabile di una grande biblioteca viene affidato il compito di produrre gli
opportuni cataloghi. Egli compie una prima catalogazione per titoli, poi per autori, poi per argomenti, poi per numero
di pagine e così via. Poiché i cataloghi si moltiplicano, il nostro bibliotecario provvede a stendere il catalogo di tutti i
cataloghi. A questo punto nasce una constatazione. La maggior parte dei cataloghi non riportano sé stessi, ma ve ne
sono alcuni (quali il catalogo di tutti i volumi con meno di 5000 pagine, il catalogo di tutti i cataloghi, ecc.) che
riportano sé stessi. Per eccesso di zelo, lo scrupoloso bibliotecario decide, a questo punto, di costruire il catalogo di
tutti cataloghi che non includono sé stessi. Il giorno seguente, dopo una notte insonne passata nel dubbio se tale
nuovo catalogo dovesse o non dovesse includere sé stesso, il nostro bibliotecario chiede di essere dispensato
dall'incarico.
Si può notare come la prima traduzione scherzosa dell'antinomia di Russell, quella del così detto paradosso del
barbiere, non dia origine ad un vero paradosso logico: il fatto che la relazione "fare la barba a..." sia definita per tutti
gli abitanti dell'isola meno che per il barbiere, non è diversa dal fatto che, nei numeri reali la proprietà "avere un
numero inverso" valga per tutti tranne lo zero.
Osserva E.W. Beth: "Il dilemma [del barbiere] non costituisce un dilemma per la logica. Infatti l'ipotesi che l'una o
l’altra regola di diritto abbia delle conseguenze assurde, non è in sé assurda. Un siffatto avvenimento può sollevare
gravi questioni di diritto [...] ma non dà luogo a problemi logici".
La traduzione scherzosa di Skolem conserva meglio il carattere dell’originaria antinomia di Russell.
Un'altra versione del paradosso è quello della biblioteca infinita, nella quale sono presenti anche i volumi mai scritti
su cose mai pensate, o mai esistite, e che include, ancor più paradossalmente, anche il catalogo di tutti cataloghi che
non includono sé stessi.
Incidentalmente, si ricorda che sul paradosso del bibliotecario scrissero sia Jorge Luis Borges sia Umberto Eco. Il
primo nel racconto La biblioteca di Babele, contenuto nel volume Finzioni, e con varie allusioni nei testi su Uqbar, il
104
Paradosso del bibliotecario
secondo citando il primo nel De Bibliotheca.
Paradossi simili
• Paradosso di Russell
• Paradosso del barbiere
• Paradosso dell'eterologicità di Grelling-Nelson
Bibliografia
• Jorge Luis Borges, Finzioni, 1944, Adelphi, ISBN 8845914275
• Umberto Eco, De Bibliotheca [1], Bompiani, 1995 ISBN 8885262228
Note
[1] http:/ / www. liberliber. it/ biblioteca/ e/ eco/
Paradosso del Comma 22
Il paradosso del Comma 22 è un paradosso contenuto nel libro Catch 22 (letteralmente "Tranello 22" ma
normalmente tradotto come "Comma 22") di Joseph Heller.
Il paradosso riguarda un'apparente possibilità di scelta in una regola o in una procedura, dove in realtà, per motivi
logici nascosti o poco evidenti, non è possibile alcuna scelta ma vi è solo un'unica possibilità. Nella lingua inglese
viene infatti comunemente citato con il significato di circolo vizioso.
Il libro, edito nel 1961, rappresentò una feroce critica alla struttura militare e alla guerra narrando le avventure di un
gruppo di aviatori statunitensi dediti ai bombardamenti in Italia durante la Seconda guerra mondiale. Riportava i
regolamenti cui i piloti erano soggetti, e fra questi due articoli contraddittori:
Articolo 12, Comma 21
«L'unico motivo valido per chiedere il congedo dal fronte è la pazzia.»
Articolo 12, Comma 22
«Chiunque chieda il congedo dal fronte non è pazzo.»
In realtà la norma sopra riportata non è mai esistita e, se lo fosse, sarebbe stata all'evidenza autocontraddittoria.
È una versione del paradosso di Jourdain (a sua volta derivato dall'antico paradosso di Epimenide) con le seguenti
due frasi:
«La frase seguente è falsa.
La frase precedente è vera.»
Gli articoli furono poi copiati in Star Trek nel cosiddetto Codice Militare Spaziale del Pianeta dei Klingon (fonte
non canonica con la serie televisiva). Questo paradosso è stato utilizzato anche in una striscia del fumetto
Sturmtruppen di Bonvi. Nel fumetto, la soluzione di questo paradosso è "vietato impazzire".
105
Paradosso del Comma 22
106
Riferimenti culturali
• Nel romanzo La storia infinita di Michael Ende Atreiu, ad un certo punto della sua ricerca, si trova davanti a tre
porte per giungere all'Oracolo che gli avrebbe rivelato il modo di salvare Fantasia. Una di queste porte si può
aprire solo non desiderando di aprirla.
• Nella sitcom italiana Camera Cafè vi è un episodio, chiamato "Comma 22", dove il Comma 21 del nuovo
regolamento aziendale dice che quando un impiegato non riesce a svolgere il proprio lavoro può chiedere cinque
giorni di ferie anticipate, ma il Comma 22 dice che per una segretaria, la semplice compilazione corretta del
modulo di richiesta delle ferie è una dimostrazione di saper svolgere il proprio lavoro.
• Nel Videogioco Sam & Max: The Mole, the Mob, and the Meatball vi è una citazione del Comma 22, quando i
personaggi chiedono di entrare in un luogo protetto da Parola d'Ordine, mentre a dare la Parola è una persona che
si trova oltre la porta.
Voci correlate
• Paradosso
• Antimilitarismo
Paradosso del compleanno
Il paradosso[1] del compleanno (o
problema del compleanno) è un
paradosso di teoria della probabilità
definito nel 1939 da Richard von
Mises. Il paradosso afferma che la
probabilità che almeno due persone in
un gruppo compiano gli anni lo stesso
giorno è largamente superiore a quanto
potrebbe dire l'intuito: infatti già in un
gruppo di 23 persone la probabilità è
circa 0,51; con 30 persone essa supera
0,70, con 50 persone tocca addirittura
0,97, anche se per arrivare all'evento
certo occorre considerare un gruppo di
almeno 367 persone (per il principio
dei cassetti e la possibilità di anni bisestili).
Il grafico mostra l'andamento di P(p) al crescere del numero di persone
Per effettuare il calcolo, si ricorre alla formula per la probabilità degli eventi indipendenti: per rendere più semplice
il calcolo si assume che gli anni siano tutti di 365 giorni e che i compleanni siano equiprobabili, anche se ciò non è
esatto[2]. Aggiungere il giorno bisestile peggiora leggermente la probabilità, ma in compenso il fatto che i
compleanni non siano equiprobabili la alza.
Il modo più semplice per calcolare la probabilità P(p) che ci siano almeno due persone appartenenti ad un gruppo di
p persone che compiano gli anni lo stesso giorno è calcolare dapprima la probabilità P1(p) che ciò non accada. Il
ragionamento è questo: data una qualunque persona del gruppo (indipendentemente dalla data del suo compleanno),
vi sono 364 casi su 365 in cui il compleanno di una seconda persona avvenga in un giorno diverso; se si considera
una terza persona, ci sono 363 casi su 365 in cui compie gli anni in un giorno diverso dalle prime due persone e via
dicendo. Esprimendo in formule quanto sopra, la probabilità che tutti i compleanni cadano in date diverse è:
Paradosso del compleanno
107
e dunque la probabilità del suo evento complementare, cioè che esistano almeno due compleanni uguali, è
Questo paradosso ha importanti ricadute nella crittografia e nel dimensionamento del blocco da cifrare. In particolare
nell'ambito della crittografia si utilizza il paradosso del compleanno per indicare che le funzioni hash crittografiche
abbiano la proprietà di "resistenza forte alle collisioni". Ad esempio una funzione di hash che produce un risultato su
N bit sarà reputata insicura quando verranno generati
risultati in quanto si ha la probabilità di oltre il 50% di aver
trovato una collisione, il risultato evidentemente è ben al di sotto dei
elementi necessari suggeriti dall'intuito.
Note
[1] Il termine paradosso non è da intendersi nel senso di una contraddizione logica, ma viene chiamato in questo modo poiché la verità
matematica contraddice l'intuizione naturale: molte persone stimano che questa probabilità sia decisamente inferiore al 50%.
[2] (EN) Leap Day -- from Eric Weisstein's World of Astronomy (http:/ / scienceworld. wolfram. com/ astronomy/ LeapDay. html). URL
consultato il 22-04-2009.
Collegamenti esterni
• Il paradosso del compleanno (http://www.teacherlink.org/content/math/interactive/probability/lessonplans/
birthday/home.html)
Paradosso del gatto di Schrödinger
Il paradosso del gatto di Schrödinger è un
esperimento mentale ideato da Erwin Schrödinger allo
scopo di dimostrare come l'interpretazione classica
della meccanica quantistica (Interpretazione di
Copenaghen) risulta incompleta quando deve
descrivere sistemi fisici in cui il livello subatomico
interagisce con il livello macroscopico.
La struttura dell'apparato sperimentale. Si vede come il gatto sia
contemporaneamente sia vivo che morto.
Fondamenti
« Si possono anche costruire casi del tutto burleschi. Si rinchiuda un gatto in una scatola d’acciaio insieme alla seguente
macchina infernale (che occorre proteggere dalla possibilità d’essere afferrata direttamente dal gatto): in un contatore
Geiger si trova una minuscola porzione di sostanza radioattiva, così poca che nel corso di un’ora forse uno dei suoi atomi si
disintegrerà, ma anche, in modo parimenti probabile, nessuno; se l'evento si verifica il contatore lo segnala e aziona un
relais di un martelletto che rompe una fiala con del cianuro. Dopo avere lasciato indisturbato questo intero sistema per
un’ora, si direbbe che il gatto è ancora vivo se nel frattempo nessun atomo si fosse disintegrato, mentre la prima
disintegrazione atomica lo avrebbe avvelenato. La funzione dell’intero sistema porta ad affermare che in essa il gatto
[1]
vivo e il gatto morto non sono stati puri, ma miscelati con uguale peso. »
Paradosso del gatto di Schrödinger
(Erwin Schrödinger)
Dopo un certo periodo di tempo il gatto ha la stessa probabilità di essere morto quanto l'atomo di essere decaduto.
Visto che fino al momento dell'osservazione l'atomo esiste nei due stati sovrapposti, anche il gatto resta sia vivo sia
morto fino a quando non si apre la scatola, ossia non si compie un'osservazione.
In pratica una particella elementare possiede la capacità di collocarsi in diverse posizioni e anche di esser dotata di
quantità d'energia diverse al medesimo istante. Per quanto "assurde" secondo il nostro modo di pensare, queste strane
proprietà della materia e dell'energia corrispondono alla realtà del mondo dei quanti. Le particelle subatomiche sono
"delocalizzate" nello spazio e nel moto, per cui, fra un'osservazione e l'altra, si comportano come se stessero in più
luoghi contemporaneamente. Solo quando una particella delocalizzata viene osservata con un esperimento che,
inevitabilmente, ne modifica il livello energetico, la quantità di moto e la posizione, essa verrà individuata con
determinati valori delle proprie variabili tra i vari possibili.
Ritornando al caso del gatto, fino a quando l'atomo non si disintegra (e questo evento dipende unicamente dalla
natura dell'atomo radioattivo scelto, quindi è un evento unicamente probabilistico), emettendo la particella che
aziona il marchingegno letale, il gatto è sicuramente vivo; viceversa, al decadimento dell'atomo, il gatto va
certamente incontro alla morte. Ma lo stato quantico dell'atomo è determinato dall'osservazione, e pertanto, se non si
apre il contenitore, non risulta determinato neppure il destino dell'animale, che di conseguenza può essere
considerato al contempo sia vivo sia morto. Il paradosso, solo apparente, sta proprio qui: è soltanto l'osservazione
diretta che, alterando i parametri basali del sistema e determinando, come detto, lo stato quantico dell'atomo,
attribuirà anche al gatto uno stato "coerente" con la nostra consueta realtà (si vedrà successivamente a proposito
dell'interpretazione del paradosso che, secondo una corrente di pensiero, pur essendo valido in linea generale tale
concetto, l'interazione di un elemento "quantistico" come l'atomo radioattivo con un apparato macroscopico come il
contatore Geiger modifica fin dall'inizio la situazione).
È sempre stato così, solamente non ce ne siamo accorti fino al secolo scorso: nel mondo microscopico, ogni singola
particella si comporta individualmente come delocalizzata. Viceversa, nel nostro universo macroscopico, le particelle
singole, una volta aggregate in un insieme macroscopico, azzerano le singole posizioni individuali, ovvero un corpo
macroscopico ha una risultante nulla delle singole proprietà delle particelle componenti, il che gli conferisce le
"consuete proprietà". L'interazione reciproca delle singole particelle in una realtà macroscopica che ne annulla le
proprietà quantistiche prende il nome di Decoerenza quantistica. Senza di essa nessuno potrebbe vedere, afferrare,
pensare: in una parola il mondo così come lo conosciamo non esisterebbe.
Il paradosso del gatto nella realtà
L'esperimento del gatto, così come proposto da Schrödinger, non è mai stato messo in pratica. Tuttavia un
esperimento analogo, egualmente basato sull'interazione tra un "oggetto" quantistico e un corpo macroscopico, è
stato attuato immettendo un fotone in un cavo a fibra ottica. Il fotone gode di due stati quantici contemporaneamente,
esattamente come la sostanza radioattiva citata da Schrödinger. Inserendo un secondo cavo a metà del primo perché
intercetti il fotone e ne registri lo stato, avviene ciò che, come nel paradosso di Schrödinger, si chiama "compiere
un'osservazione", e da quel momento la luce si troverà in uno solo dei due stati.
L'esperimento ha permesso tra l'altro di dimostrare che l'osservazione non deve necessariamente essere compiuta da
un essere umano: in questo caso l'osservazione è stata compiuta dal secondo cavo e già in quel momento la realtà
macroscopica ha interagito con quella quantica, obbligando quest'ultima a incanalarsi in uno dei due stati. Se l'uomo
già sapesse che l'intercettazione è avvenuta, ma non ne avesse ancora letto il risultato, dovrebbe comunque
concludere che in quel momento il fotone si trova già in uno dei due stati, anche se non sa ancora in quale dei due.
108
Paradosso del gatto di Schrödinger
Interpretazione del paradosso
Come per l'interazione fra i due cavi descritta sopra, così, anche per l'esempio del gatto, diversamente da come era
stato ipotizzato da Schrödinger, già l'interazione con il contatore Geiger obbligherebbe la sostanza radioattiva ad
assumere uno solo dei due stati: il gatto, in quanto parte del mondo macroscopico, sarebbe quindi sempre o solo vivo
o solo morto, anche se ovviamente l'osservazione umana è necessaria perché l'uomo sappia quale di questi due casi si
sia effettivamente verificato.
Il paradosso del gatto fu inventato da Schroedinger per evidenziare che l’interpretazione di Copenhagen, proposta dal
fisico danese Niels Bohr, aveva conseguenze insostenibili. La maggioranza dei fisici, però, continuò a seguire
l’orientamento concettuale di Bohr. Si può persino vedere l’esempio del gatto come un’ottima illustrazione degli
aspetti peculiari della meccanica quantistica, e usare anche in altri ambiti la visione filosofica sottostante
all’interpretazione di Copenhagen.[2]
Il paradosso del gatto nella cultura popolare
• Schrodinger's Cat è il titolo di una canzone del gruppo inglese Tears for Fears appartenente all'album Saturnine
Martial & Lunatic.
• Il gatto di Schrödinger era il nome di una trasmissione radiofonica della Radiotelevisione Svizzera in lingua
italiana a cura di Vincenzo Masotti, che prendeva il paradosso come simbolo delle incertezze date dalla ricerca
scientifica.
• Al gatto di Schrödinger si riferisce il titolo del romanzo di fantascienza Il gatto che attraversa i muri di Robert A.
Heinlein. Nel romanzo stesso è presente un gatto "delocalizzato" in grado di passare dall'una all'altra parte del
muro grazie a un balzo quantico.
• Una situazione del tutto simile accade al protagonista del libro Il risveglio di Endymion di Dan Simmons,
rinchiuso in una navicella e condannato a morte.
• Il paradosso è citato nel romanzo Sabato di Ian McEwan, per descrivere una situazione di incertezza vissuta dal
protagonista.
• Paradosso del gatto di Schrödinger è il titolo di un romanzo del pittore Lodovico Mancusi, edizioni Il Filo, 2008.
• Il gatto di Schroedinger è il titolo di un racconto contenuto nella raccolta di Ursula K. Le Guin La rosa dei venti
(Editrice Nord, 1984).
• Il paradosso del gatto trova applicazione nel racconto Il gattino di Schrödinger (Schrödinger's Kitten) di George
Alec Effinger (in Cuori elettrici Einaudi Stile Libero 1996) che ha vinto nel 1988 i premi più importanti della
fantascienza: Hugo e Nebula.
• Il paradosso del gatto è citato nel film A Serious Man dei fratelli Coen.
• Il paradosso del gatto di Schrödinger è citato in una puntata di Star Trek: Voyager per dare un esempio della fisica
quantistica ad un'altra forma di vita (questa forma di vita la definisce fisica "errata" per il fatto che nel nostro
universo una forma di vita non può essere sia viva che morta in uno stesso punto dello spazio-tempo, anche se
viene comunque studiata da questa forma di vita).
• Il paradosso del gatto di Schrödinger è citato nell'episodio 17 della prima stagione di The Big Bang Theory da
Sheldon per spiegare come il primo appuntamento possa essere una situazione positiva e negativa.
• Il paradosso del gatto di Schrödinger è citato in una vignetta di Cyanide and Happiness disegnata da Matt Melvin
e pubblicata il 7 luglio 2007.
• Il paradosso del gatto di Schrödinger è citato in alcuni episodi della serie animata giapponese Noein; in uno in
particolare Amamiku spiega alla protagonista Haruka come lei in quel momento sia l'osservatore che definisce
l'esistenza in vita o meno del suo amico Yu Goto, trascinandola fuori dalla stanza.
• Il paradosso del gatto di Schrödinger è citato da McGee nella puntata n. 19 della quarta serie di NCIS, dal titolo
Scrupoli. Infatti, in quella puntata, un terrorista suicida si credeva che non fosse morto. Per questo motivo,
McGee, che è il cervellone della squadra, cita questo paradosso spiegandolo a Ziva, anche se lei ovviamente non
109
Paradosso del gatto di Schrödinger
•
•
•
•
•
•
riuscì a comprenderlo.
Il paradosso del gatto di Schrödinger è citato nel numero 125 di Dylan Dog intitolato Tre per Zero e nel numero
240 intitolato Ucronia da uno scienziato che dice di aver scoperto che tre per zero fa tre e non zero per poter
spiegare la sovrapposizione di due mondi.
Il paradosso è citato nel 9º Viaggio di Capitan Harlock Amico Mio, alla fine dei meandri oscuri dell'anima
durante una dettagliata anche se breve descrizione della nascita dell'universo.
Il paradosso è citato all'inizio del fantathriller Repo Men (2010) di Miguel Sapochnik.
Il paradosso è citato nel libro Avanti nel tempo (Flashforward) di Robert J. Sawyer (e anche in un episodio
dell'omonima serie televisiva): il fisico Simon Campos ne utilizza l'esempio per spiegare come due eventi futuri
siano ugualmente probabili a un dato momento.
Il paradosso è citato nella serie televisiva Numb3rs, prima stagione, ottava puntata.
Il paradosso è citato nel 10° volume del manga giapponese Hellsing; è presente un personaggio chiamato
Schrödinger, in grado di essere, allo stesso tempo, ovunque e in nessun posto.
• Il paradosso è citato nella serie televisiva del 2009 Defying Gravity - Le galassie del cuore, prima ed unica
stagione, ottava puntata, quando l'astronauta Wassenfelder, fisico, durante un'emergenza a bordo dell'astronave
(una tempesta solare radioattiva), che costringe l'equipaggio in un rifugio, descrive ai suoi compagni che per il
controllo missione, situato a milioni di chilometri di distanza (sulla terra), in mancanza di comunicazioni dovuta
alla tempesta solare stessa, l'equipaggio sia per loro contemporaneamente vivo e morto.
• Il paradosso è citato in una puntata di Stargate SG-1 per spiegare la meccanica quantistica ad un extraterrestre, il
quale risponde di aver studiato l'argomento in un corso elementare riguardante i concetti fisici errati. La loro
civiltà, infatti, ha già superato la meccanica quantistica ma egli non può rivelare nulla, in quanto, disponendo di
tali conoscenze, potremmo fare del male a noi stessi o ad altri.
• Nel videogioco BioShock 2, nel livello Dionysus Park è presente un gatto, chiamato appunto Schrödinger,
congelato all'interno di un blocco di ghiaccio.
• Il paradosso è citato nel telefilm Six Feet Under nella prima puntata della terza serie, viene nominato in un
telefilm che sta guardando uno dei protagonisti Nathaniel Samuel Fisher Jr.
• Nell'episodio Il viaggiatore del manga di Oh! Mia Dea (volume 18) il paradosso da spunto alla creazione della
"Balena di Schroedinger".
• Il paradosso viene citato su The Amazing Spider-Man (vol 2) 58 del novembre 2003 nella storia Buon
Compleanno parte 2 mentre l'Uomo Ragno parla con il Dr. Strange.
• Il paradosso viene citato da Scarlett Thomas in Che fine ha fatto Mr Y.
• Schrödinger's Cat è una carta creatura del gioco online Elements. La sua abilità principale "Dead and Alive", se
attivata, scatena tutti gli effetti correlati alla morte d'una creatura ma "Schrödinger's Cat" non muore realmente.
• Il paradosso viene citato nella visual novel Umineko no naku koro ni.
• Nei fumetti viene citato anche nell'edizione italiana di Spider-Man 549.
• Il Gatto di Schrödinger è anche citato due volte nell'anime To aru majutsu no index.
• Il Gatto di Schrödinger è anche citato nel romanzo Limit di Frank Schätzing.
• Nel romanzo Dirk Gently. Agenzia di investigazione olistica di Douglas Adams, l'investigatore racconta di essere
stato ingaggiato dallo stesso Schrödinger per ritrovarne il gatto che, all'apertura della scatola, risultava né vivo né
morto ma scomparso.
• Citazione nel commento di Dr. Who 6ª stagione episodio 2: "Il giorno della luna" [3].
• Il gatto di Schrödinger viene citato anche in una delle prime puntate dei telefilm della serie Flash Forward. Il
fisico Simon Campus, interpretato da Dominic Monaghan, spiega una variante del paradosso ad un'avvenente
donna incontrata casualmente in treno allo scopo di conquistarla.
• Il gatto di Schrödinger è uno spettacolo teatrale rappresentato dalla compagnia Foravia, tratto dal romanzo di L.
Licalzi "Cosa ti aspetti da me".
• Il paradosso è citato in Bones III stagione ep.15
110
Paradosso del gatto di Schrödinger
• Nel videogioco di esplorazione del sottosuolo (dungeon crawling) NetHack un particolare tipo di mostro, il
Quantum mechanic, può trasportare una scatola grande. Se il giocatore ottiene questo oggetto e lo apre, viene
generato un gatto domestico di nome "Schroedinger's Cat", che ha un 50% di probabilità di essere vivo o morto.
Lo stato del gatto non è determinato fin quando non è aperta la scatola.
• L'esperimento condotto dal fisico e matematico austriaco è ripreso da J. Michael Straczynski nel fumetto Thor,
quando Donald Blake viene catapultato fuori dal corpo del suo alter ego, il dio norreno.
Note
Voci correlate
• Interpretazioni della meccanica quantistica
• Collasso della funzione d'onda
• Paradosso dell'amico di Wigner
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Schrödinger's Cat
Collegamenti esterni
Il problema della macro-oggettivazione (http:/ / scientiaemunus. provincia. parma. it/ page. asp?IDCategoria=44&
IDSezione=201&IDOggetto=122&Tipo=GENERICO)
111
Paradosso del gatto imburrato
112
Paradosso del gatto imburrato
Il paradosso del gatto imburrato (in inglese Buttered cat paradox) è un falso
paradosso, inventato dall'americano John Frazee a scopo goliardico, per un
concorso organizzato nel 1993 dalla rivista OMNI[1], il quale dimostrerebbe
come sia possibile arrivare al moto perpetuo. Tuttavia l'applicazione delle due
leggi sulle quali si basa il paradosso non ha validità scientifica, ed è stata
inventata a scopo umoristico: il paradosso quindi non è tale[2].
Enunciato
Il paradosso è basato sulla combinazioni di due "leggi":
• Un gatto cade sempre sulle zampe, ossia cade sempre in piedi e mai sulla
schiena
• Una fetta di pane imburrata cade sempre dalla parte del burro (derivata dalla
Legge di Murphy)[3]
Assunte queste due leggi come valide, basterebbe prendere un gatto e legare
una fetta di pane imburrato sul suo dorso. Lanciando il gatto da un'altezza
ipoteticamente infinita, il gatto tenderebbe ad atterrare sulle zampe, mentre la
fetta di pane imburrato tenderebbe a cadere dalla parte del burro; si creerebbe
quindi un moto perpetuo in cui sia il gatto sia la fetta di pane continuerebbero a
ruotare all'infinito.[4]
Se invece il gatto venisse fatto cadere da un'altezza finita, per la stessa ragione
sarebbe impossibile che tocchi terra sulle zampe o sulla schiena, e quindi
rimarrebbe a mezz'aria, opponendosi alla forza di gravità.[5]
Vignetta umoristica sul paradosso del
gatto imburrato.
Il punto di vista scientifico sul "paradosso"
Il fatto che un gatto riesca, con buona frequenza e purché lo spazio di caduta sia sufficiente, a girarsi in modo da
cadere sulle zampe è un fatto scientificamente attestato.
Il fenomeno secondo cui la fetta di pane cadrebbe sempre dalla parte imburrata viene spesso fatto risalire alle Leggi
di Murphy: questo porterebbe a credere che si tratti di un mero luogo comune. Tuttavia, dal punto di vista fisico la
caduta di una fetta di pane imburrato non è assimilabile al lancio di una moneta, che produce risultati mediamente
equiripartiti fra "testa" e "croce".
La fetta di pane imburrato, infatti, non è "equilibrata"[6], ha un momento d'inerzia molto maggiore e soprattutto non
viene "lanciata" come una moneta. Se la fetta cade dal bordo di un tavolo, ad esempio, la presenza o meno del burro
è sostanzialmente irrilevante: quando la fetta viene fatta scivolare sul piano del tavolo finché il baricentro oltrepassa
l'orlo del tavolo, la parte della fetta che ha già superato l'orlo inizia a cadere prima della parte che ancora tocca il
tavolo, e questo imprime alla fetta una rotazione iniziale; è facile verificare direttamente che il tempo che la fetta
impiega a toccare terra non è sufficiente a farle compiere una rotazione completa, ma è sufficiente a compierne
mezza: quindi, la faccia superiore della fetta di pane sarà rivolta verso il pavimento (e, dal momento che quando la
fetta è sul tavolo il lato imburrato è quello superiore, sarà quel lato a toccare terra). Si è calcolato che perché la fetta
possa compiere un giro completo, atterrando quindi sul lato non imburrato, dovrebbe cadere da un'altezza da terra
superiore ai 3 metri.[7]
Paradosso del gatto imburrato
In conclusione, il comportamento "non casuale" del gatto[8] e quello della fetta imburrata, separatamente, sono fatti
reali e non leggende metropolitane. Tuttavia, è falso che un gatto cada sempre sulle zampe, ed è falso che una fetta di
pane cada sempre dal lato imburrato (si noti che il "paradosso" si basa proprio sull'assunzione assiomatica che le due
circostanze si verifichino sempre). Oltre a questo, è evidente che quando si attacca la fetta al gatto il comportamento
che avrebbe la stessa fetta imburrata "in caduta libera" diventa del tutto irrilevante, dato che la massa del gatto è
molto maggiore ed è il moto del gatto a determinare quello della fetta, non viceversa.[9] La "sovrapposizione" dei due
comportamenti ipotizzata nel "paradosso" non ha quindi nulla a che fare con ciò che si verifica in realtà.
Esperimenti
Alcune persone sostengono scherzosamente che l'esperimento produrrebbe un effetto antigravitazionale. Dicono,
inoltre, che il gatto, una volta lasciato cadere, rallenterebbe ed inizierebbe a ruotare fino a raggiungere una situazione
stazionaria: la rotazione ad alta velocità ad una piccolissima distanza dal suolo durante la quale sia il lato imburrato
del pane, sia le zampe tentano di toccare terra senza riuscirci.[10] Nel giugno del 2003, Kimberly Miner ha vinto uno
Student Academy Award per il film da lei prodotto ed intitolato Il moto perpetuo.[11] Miner ha basato il film su un
testo scritto da un suo amico del liceo che rifletteva sulle potenziali conseguenze che avrebbe comportato
l'effettuazione dell'esperimento del gatto imburrato.[12][13]
Note
[1]
[2]
[3]
[4]
(EN)Morris, Scot (July, 1993). I have a theory... (http:/ / www. aps. org/ publications/ apsnews/ 200111/ letters. cfm). Omni 15 (9).
Donald E. Simanek, Science Askew: A Light-hearted look at the scientific world, Taylor and Francis, 2001, p.200-201
http:/ / www. butteredcat. com/ index. php?module=pagemaster& PAGE_user_op=view_page& PAGE_id=2& MMN_position=30:30
Planet Cat: A CAT-alog (http:/ / books. google. com/ books?id=shAHJQwXslYC& pg=PA215), Houghton Mifflin Harcourt, 3 ottobre 2007,
215–. ISBN 9780618812592 URL consultato il 30 maggio $6.
[5] http:/ / bibi. org/ 2007/ 02/ buttered_cat_paradox/
[6] La maggiore densità del burro rispetto al pane fa sì che il baricentro del sistema non coincida con il centro geometrico del sistema fetta+burro;
la spinta fluidostatica che si esercita sulla fetta, quindi, non ha momento nullo nel baricentro, e può determinare una rotazione della fetta in
modo da portare il baricentro al di sotto del centro di spinta fluidostatica (in altre parole, girare la fetta con la parte imburrata sotto).
[7] Robert A.J. Matthews "La scienza della Legge di Murphy"- Le Scienze n° 346 - giugno 1997
[8] Sandra Choron et al., op. cit., p. 216, 2007.
[9] Ian Stewart, op. cit., p. 52, 2010.
[10] UoWaikato newsletter (http:/ / www. waikato. ac. nz/ fmd/ newsletter/ Newsletter_No14. pdf)
[11] Il film è disponibile al link: http:/ / www. kminer. net/ files/ movies/ miner-perpetualmotion_480_360. mov
[12] Perpetual motion (Il moto perpetuo) (http:/ / www. physics. leeds. ac. uk/ for-schools/ fun-physics/ perpetual-motion/ ). URL consultato il
30 maggio 2011.
[13] A Look at the Oscar-Nominated Animated Shorts for 2003 (Uno sguardo ai film animati nominati all'Oscar 2003) (http:/ / www.
scifidimensions. com/ Apr04/ oscaranimation. htm). URL consultato il 30 maggio 2011.
Bibliografia
• Ian Stewart, The Buttered cat paradox (http://books.google.com/books?id=MHTOWvv5kvYC&pg=PT49) in
Professor Stewarts Hoard of Mathematical Treasures, Profile Books Limited, 2010, pp. 49–53. ISBN
9781846683466 URL consultato il 12 gennaio 2012.
• Alexander Kozintsev, The Mirror of Laughter (http://books.google.com/books?id=jNudE7Kd8kQC&
pg=PA72), Transaction Publishers, 1 maggio $6, 72–. ISBN 9781412810999
• Sue McGrath, Science Magic: Fun Guaranteed! (http://books.google.com/books?id=g8xF9iE7yX8C&
pg=PA92), AuthorHouse, August 2007, 92–. ISBN 9781425970611
• Simon Potter, The Perfect Face for Radio (http://books.google.com/books?id=hbKedAeZzbIC&pg=PA8),
MY Books, 28 gennaio 2011, 8–. ISBN 9781844269990
• Sergio M. Dutra, Cavity quantum electrodynamics: the strange theory of light in a box (http://books.google.
com/books?id=AS1xvUlxyIwC&pg=PR11), John Wiley and Sons, 2005, 11–. ISBN 9780471443384
113
Paradosso del gatto imburrato
• Sandra Choron; Harry Choron, Arden Moore, Planet Cat: A CAT-alog (http://books.google.com/
books?id=shAHJQwXslYC&pg=PA215), Houghton Mifflin Harcourt, 11 gennaio 2012, 215–. ISBN
9780618812592
Voci correlate
• Moto perpetuo
• Legge di Murphy
• Gravità
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Buttered
cat paradox
Collegamenti esterni
• ww.physics.leeds.ac.uk/ (http://www.physics.leeds.ac.uk/for-schools/fun-physics/perpetual-motion/)
• hScience Jokes 2 (http://jcdverha.home.xs4all.nl/scijokes/2_21.html#subindex)
Paradosso del Grand Hotel di Hilbert
Il Paradosso del Grand Hotel è un celebre paradosso inventato dal matematico David Hilbert per mostrare alcune
caratteristiche del concetto di infinito, e le differenze fra operazioni con insiemi finiti ed infiniti.
Hilbert immagina un hotel con infinite stanze, tutte occupate, ed afferma che qualsiasi sia il numero di altri ospiti che
sopraggiungano, sarà sempre possibile ospitarli tutti, anche se il loro numero è infinito.
Nel caso semplice, arriva un singolo nuovo ospite. Il furbo albergatore sposterà tutti i clienti nella camera successiva
(l'ospite della 1 alla 2, quello della 2 alla 3, etc.); in questo modo, benché l'albergo fosse pieno è comunque, essendo
infinito, possibile sistemare il nuovo ospite.
Un caso meno intuitivo si ha quando arrivano infiniti nuovi ospiti. Sarebbe possibile procedere nel modo visto in
precedenza, ma solo scomodando infinite volte gli ospiti (già spazientiti dal precedente spostamento): sostiene allora
Hilbert che la soluzione sta semplicemente nello spostare ogni ospite nella stanza con numero doppio rispetto a
quello attuale (dalla 1 alla 2, dalla 2 alla 4,etc.), lasciando ai nuovi ospiti tutte le camere con i numeri dispari, che
sono essi stessi infiniti, risolvendo dunque il problema. Gli ospiti sono tutti dunque sistemati, benché l'albergo fosse
pieno.
Ancora più difficile: ci sono infiniti alberghi con infinite stanze tutti al completo. Tutti gli alberghi chiudono, tranne
uno. Tutti gli ospiti vogliono alloggiare nell'unico albergo rimasto aperto. Sarebbe possibile procedere come prima,
ma solo scomodando infinite volte gli ospiti. Un modo alternativo, invece, è di assegnare ad ogni persona una coppia
di numeri
in cui indica l'albergo di provenienza, e
la relativa stanza. Gli ospiti sono quindi etichettati
in questo modo:
A questo punto basta assegnare le nuove stanze agli ospiti secondo un criterio ordinato, ad esempio per diagonali:
114
Paradosso del Grand Hotel di Hilbert
Questo paradosso, nonostante sia piuttosto elementare, ha contribuito, all'epoca ai matematici, ed oggi ai profani, a
far comprendere la differenza profonda e sostanziale tra gli insiemi finiti e infiniti, aprendo le porte a gran parte delle
moderne branche dell'aritmetica moderna: analisi non-standard e transfinita su tutte.
Racconti
Esistono alcuni racconti che ripropongono una versione narrativa del paradosso. Uno di questi è "L'hotel
straordinario" di Stanislaw Lem. Esiste anche una versione di Ian Stewart. Nel racconto di S. Lem, si propone di
sistemare gli ospiti secondo i quadrati della matrice sopra descritta cioè nella stanza 1 si mette l'ospite con n=1 e
m=1 (cioè l'ospite rimane dov'è) ; nella stanza 2, l'ospite dell'hotel 1 e che sta nella stanza 2 (m=1 e n=2) e poi nella
stanza 3 l'ospite m=2 e n=2 (hotel 2 stanza 2), nella stanza 4 l'ospite del hotel=2 e stanza 1 cioè m=2, n=1 e poi si
continua a contare associando i numeri 5, 6, 7, 8 e 9 con le coppie (m,n) rispettivamente in questo ordine (1,3), (2,3),
(3,3), (3,2) e (3,1) e così via con i quadrati successivi (per i numeri 10, 11 ecc.). Nel racconto Lem propone quindi
per calcolare il numero della stanza le seguenti formule: se m<n, allora il numero della stanza è n2-m+1 mentre se è
m≥n, allora il numero della stanza è (m-1)2+n. In questo modo nel racconto riesce a sistemare infiniti ospiti di
infiniti hotel in un solo hotel di infinite stanze già tutte occupate!
Il Paradosso dell'albergo infinito si trova anche nel libro "L'infinito" di John David Barrow al capitolo III intitolato
"Benvenuti all'Albergo Infinito".
Paradosso del mentitore
Nella logica il paradosso del mentitore è descritto come: data una proposizione autonegante come "Questa frase è
falsa", nessuno riuscirà mai a dimostrare se tale affermazione sia vera o falsa;
• se infatti fosse vera, allora la frase non sarebbe veramente falsa (la verità della proposizione non invalida la falsità
espressa nel contenuto della proposizione).
• se invece la proposizione fosse falsa, allora il contenuto si capovolgerebbe (è come se dicesse "Questa frase è
vera") quando abbiamo appena affermato il contrario.
Il paradosso del mentitore: versione originale
Secondo alcuni, quello che oggi chiamiamo paradosso nacque con una nota affermazione di Epimenide di Creta (VI
secolo a.C.), il quale, cretese egli stesso, ebbe a dire che «i Cretesi sono bugiardi»; essendo come detto egli
medesimo fra questi, anch'egli sarebbe dovuto conseguentemente essere bugiardo e perciò l'affermazione sarebbe
dovuta essere falsa poiché proveniente da un bugiardo. Ma se così non fosse stato, se cioè Epimenide fosse stato un
cretese che, almeno in questa occasione, non diceva il falso, l'affermazione sarebbe risultata ugualmente falsa poiché
non tutti i cretesi erano bugiardi.
Non è tuttavia noto se l'affermazione di Epimenide fosse intesa come un paradosso del mentitore. Inoltre, la
proposizione, così come è formulata, non è un paradosso, per l'assenza del quantificatore universale (tutti o nessuno):
se infatti esiste almeno un cretese che dice la verità, allora l'affermazione di Epimenide è falsa senza portare ad
alcuna contraddizione. Non si conosce il contesto in cui Epimenide fece questa affermazione; fu solo più tardi che
questa fu di nuovo citata (per esempio nella Lettera a Tito 1,12-13) e presentata come un paradosso del mentitore.
Diogene Laerzio[1] ha attribuito l'ideazione del paradosso ad Eubulide di Mileto (IV secolo a.C.), il quale riformulò
l'affermazione di Epimenide dicendo «ψευδόμενος» (pseudòmenos), «io sto mentendo». Da notare in primo luogo
che la frase è «io sto mentendo», e non «io sono bugiardo», nel senso che «quello che sto dicendo in questo momento
è una menzogna».
115
Paradosso del mentitore
Con Eubulide si ripropone lo stesso dilemma di Epimenide: può essere vera la frase di uno che afferma «io sto
dicendo il falso»? La frase di Eubulide non può essere vera, ma non può essere neanche falsa, perché c'è un elemento
nuovo rispetto a «tutti i Cretesi mentono».
L'elemento nuovo è l'autoriferimento: Eubulide sta parlando di se stesso, cioè sta affermando di se stesso che mente,
e questo non può essere né vero né falso.
Il paradosso del mentitore: elaborazioni successive
Dal paradosso del mentitore sono derivate elaborazioni diversificate di molti autori attraverso tutti i secoli, ed anche
attualmente l'argomento è assai discusso.
Tra le più note riformulazioni del paradosso del mentitore vi sono:
• quella di Aristotele (Confutazioni sofistiche (XXV)), il quale propose due quesiti di analoga contraddittorietà:
• è possibile giurare di rompere il giuramento che si sta prestando?
• è possibile ordinare di disobbedire all'ordine che si sta impartendo?
• quella di Diogene Laerzio (II secolo d.C.): un coccodrillo ghermisce un bambino che gioca sulle rive del Nilo; la
madre del piccolo implora il coccodrillo di restituirle il figlio, ma il coccodrillo fa la seguente proposta: "Se
indovini quello che farò, ti restituirò il bambino". La madre allora dice al coccodrillo: "Credo che mangerai il
piccolo". Se la madre ha detto il vero, se ha cioè indovinato che il coccodrillo vuole mangiare il bambino, allora
in questo caso il coccodrillo ha promesso di restituire il bimbo. Ma se il coccodrillo restituisce il bimbo,
significherebbe che non lo ha mangiato, e quindi la donna non avrebbe indovinato e non potrebbe salvare la vita
del figlio. Risultato: in tutti i casi, se la madre dice "tu lo mangerai", non potrà mai riavere il figlio e il coccodrillo
non potrà mai mantenere la promessa di restituirlo.
• quella di Giovanni Buridano, o meglio Jean Buridan, filosofo francese morto di peste a Parigi nel 1358 o 1360.
Fino a quell'epoca, durante la Scolastica, si era sempre pensato che i problemi logici derivanti dal paradosso del
mentitore derivassero dal carattere di autoreferenza. Buridano dimostrò che il problema non era l'autoreferenza,
elaborando un paradosso nel quale l'autoriferimento era per così dire spezzato in due. Egli immaginò due
protagonisti, Socrate e Platone, ciascuno dei quali pronuncia una sola frase. Socrate dice "Platone dice il falso";
Platone dice "Socrate dice il vero". Vista isolatamente, ciascuna delle due frasi non è affatto paradossale, ma la
loro congiunzione lo diventa. Se Socrate dice effettivamente il vero, allora Platone mente davvero e di
conseguenza (contraddicendo alla premessa) Socrate dice il falso. Non è possible che la frase di Socrate sia vera e
poi arrivare alla conclusione che è falsa.
• quella elaborata da Miguel de Cervantes nel Don Chisciotte (1615), dove si narrava di Sancho Panza che divenne
governatore di Barataria e si trovò a dover decidere sul caso accaduto ad un militare, messo di guardia su un ponte
con l'ordine di impiccare tutti coloro che mentivano circa il motivo per cui volevano oltrepassare il ponte stesso. Il
militare raccontava che un giorno era arrivato un tale cui fu chiesto perché voleva passare il ponte. A questa
domanda, il tale rispose: "voglio attraversare il ponte solo per essere impiccato in base alla legge". Se fosse vero
che costui voleva farsi impiccare, allora aveva detto la verità e quindi non doveva essere impiccato. Se stesse
mentendo, e poi fosse stato impiccato, avrebbe detto la verità e avrebbe dovuto essere lasciato libero.
• quella di Philip Jourdain, che nel 1913 riformulò il paradosso di Buridano eliminando il riferimento a personaggi
celebri, ponendo semplicemente due affermazioni: "la frase seguente è falsa" e "la frase precedente è vera".
116
Paradosso del mentitore
Soluzioni del paradosso del mentitore
La soluzione data da Crisippo dice semplicemente che il paradosso è il rovesciamento del buon senso: ci sono frasi
delle quali «non si deve dire che esse dicono il vero e (neppure) il falso; né si deve congetturare in un altro modo,
cioè che lo stesso (enunciato) esprima simultaneamente il vero e il falso, bensì che esse sono completamente prive di
significato».
La soluzione prospettata da Aristotele è la seguente: le frasi paradossali si fondano sulla confusione tra uso e
menzione. Quando si dice "io sto mentendo", si sta usando la frase, nel senso che si tratta di un paradosso di tipo
autoreferenziale, catalogato tra gli insolubilia; chi enuncia una frase insolubile, non dice letteralmente nulla e
pertanto la proposizione (o meglio, la pseudoproposizione) deve essere semplicemente cassata.
Nel Medioevo, una proposta di soluzione fu avanzata da Guglielmo di Ockham (1285-1350). Dal momento che la
cassatio di Aristotele non forniva una soluzione concreta, egli introdusse la distinzione tra linguaggio e
metalinguaggio. Solo le frasi autoreferenziali mescolano i due livelli in uno solo, perché dire "io sto mentendo" è una
frase che si pone nel metalinguaggio (per quanto riguarda il verbo mentire, il cui concetto trova spiegazione non
nella frase stessa ma in un altro livello), ma è espressa mediante il linguaggio.
La proposta di soluzione di Buridano fu dettata dall'intuizione della logica temporale: un'affermazione non è vera o
falsa in assoluto, ma solo relativamente ad un certo momento storico. Mentre non è possibile che una frase possa
essere vera o falsa nello stesso tempo, essa può esserlo in tempi diversi: Basterebbe dire "Platone dirà il falso quando
pronuncerà la prossima frase" e "Socrate disse il vero quando pronunciò la frase precedente".
Nelle logiche non classiche in cui non vale il principio di non-contraddizione, le proposizioni come quelle del
mentitore non generano alcun paradosso. Per esempio nella logica fuzzy, dove il valore di verità può variare tra 0 e
1, tali frasi hanno un valore di verità pari a 0,5.
Note
[1] II, 108.
Bibliografia
• Piergiorgio Odifreddi, Le menzogne di Ulisse: l'avventura della logica da Parmenide ad Amartya Sen, Milano,
Saggistica TEA, 2003. ISBN 9788850211913
Voci correlate
•
•
•
•
•
Antinomia
Logica
Filosofia
Paradosso
Verità
117
Paradosso del nonno
Paradosso del nonno
Il paradosso del nonno è un paradosso sul viaggio nel tempo.
Il primo a descriverlo fu René Barjavel, uno scrittore di libri di fantascienza, nel suo libro Il viaggiatore imprudente
(Le voyageur imprudent, 1943).
Il paradosso suppone che un nipote torni indietro nel tempo e uccida suo nonno prima che incontri sua nonna,
dunque prima che potessero sposarsi ed avere discendenza. Se ciò fosse possibile, il nipote non sarebbe mai potuto
nascere, dunque non sarebbe mai potuto tornare a ritroso nel tempo ed uccidere suo nonno. Il nipote ha viaggiato
indietro nel tempo o no?
Il paradosso del nonno è stato molto utilizzato, in letteratura e nel cinema, per dimostrare che i viaggi nel tempo sono
impossibili.
Sono state proposte alcune ipotesi per risolvere la contraddizione non solo di questo paradosso, ma di tutti quelli
derivanti da viaggi nel tempo; ecco le più importanti:
• Secondo la teoria del multiverso questo paradosso non è una contraddizione, perché ogni "interferenza" col
passato produrrebbe le sue conseguenze solo in un universo parallelo nel quale la storia si evolve in maniera
diversa.
• un universo parallelo viene generato istantaneamente ad ogni singola "interferenza", un viaggio nel passato
comporterebbe la creazione di infiniti universi con infinite linee temporali.
• Se invece si assume che l'universo esistente sia unico (o che i vari universi siano totalmente isolati, il che è
equivalente), allora il paradosso è una vera e propria antinomia, perciò deve in qualche modo essere impossibile
che il fatto paradossale avvenga:
• Secondo la Congettura di protezione cronologica (formulata da Stephen Hawking) deve in qualche modo
essere impossibile ogni forma di viaggio indietro nel tempo, per motivi da noi ancora sconosciuti.
• Secondo invece il Principio di auto consistenza di Novikov, il viaggio nel tempo non è impossibile, ma le
conseguenze che esso produce dal passato verso il futuro sono proprio quelle che hanno reso possibile quel
viaggio dal futuro verso il passato: in altri termini è possibile andare indietro nel tempo, ma è impossibile
modificare la storia tramite un viaggio indietro nel tempo, poiché esso è già avvenuto nel passato, e doveva
avvenire nel presente.
Letteratura e cinema
Questo paradosso è stato ripreso anche in una puntata del cartone animato Futurama creato da Matt Groening (Il
Nonno di se stesso), quando il protagonista, viaggiando indietro nel tempo, uccide suo nonno, continua a vivere
perché ha messo incinta sua nonna, scoprendo così di essere sempre stato il nonno di se stesso. Questa storia è un
esempio di Principio di auto consistenza di Novikov.
Altro esempio cinematografico sull'argomento è Ritorno al futuro e Ritorno al futuro 2, film famosissimi nei quali il
viaggio a ritroso nel tempo dei protagonisti ha come conseguenza il cambiamento di carattere dei protagonisti coevi.
Il Principio di auto consistenza di Novikov è stato utilizzato come fondamento anche serie della ABC Lost, telefilm
che ad un certo punto della quarta serie comincia a contemplare i viaggi nel tempo, mostrando come siano stati gli
stessi protagonisti a causare gli eventi che nel futuro (il presente delle prime stagioni) hanno portato il loro aereo a
cadere sull'isola, e il fato di certi personaggi era stato guidato da consigli dati da altri protagonisti nel passato, alcune
volte da loro stessi ad una controparte più giovane.
Nel romanzo Rabbia, Chuck Palahniuk rivede il "paradosso del nonno" e ne propone una soluzione alternativa. Il
protagonista torna ripetutamente indietro nel tempo, sostituendosi al padre per concepire sé stesso con la madre, e
creare una versione migliorata di sé.
118
Paradosso del nonno
Nel romanzo breve Palinsesto, Charles Stross immagina che l'esame di ammissione per gli agenti della Stasi,
un'agenzia segreta temporale, consista nell'uccisione del proprio nonno.
Voci correlate
• Viaggi nel tempo
• Dimensione parallela
Paradosso del quiz
Il paradosso del quiz è una miscela del paradosso delle due buste e del paradosso dell'impiccagione imprevedibile.
Situazione
Una emittente televisiva vuole indire un gioco a premi, nel quale ad un certo punto al concorrente vengono
presentate due buste chiuse, ciascuna contenente l'indicazione di un premio in denaro, che il concorrente riceverà, se
la sceglie. Le due buste sono esternamente indistinguibili, il valore di una è esattamente il doppio dell'altra. Dopo che
il concorrente ha scelto una busta, questa viene aperta ed una volta saputo il valore contenuto il concorrente ha la
possibilità di cambiare la propria decisione.
La scelta dei premi viene affidata ad un team composto da un Manager e due impiegati A e B.
• I valori dei premi devono essere tali da soddisfare il seguente criterio:
1. il premio minore è esattamente la metà del premio maggiore;
2. la conoscenza del valore del premio contenuto nella prima busta non aggiunge informazioni alla domanda se
questo sia maggiore o minore dell'altro;
Paradosso
Il team si mette al lavoro e l'impiegato A osserva:
• il valore in centesimi del premio minore non può essere dispari, altrimenti si capirebbe che è il premio minore.
Ottima osservazione - replica il Manager soddisfatto.
L'impiegato B aggiunge:
• se il premio minore deve essere pari il premio maggiore è sicuramente multiplo di 4. Per renderli indistinguibili si
devono scegliere solo premi minori multipli di 4.
Hai ragione - risponde il Manager.
L'impiegato A aggiunge ancora:
• allora, se il premio minore deve essere multiplo di 4 il premio maggiore è sicuramente multiplo di 8. Quindi per
renderli indistinguibili si devono scegliere solo premi minori multipli di 8.
Beh sembra di si - rispose il Manager, un po' dubbioso.
Continuarono così per un po', finché giunsero alla conclusione che non era possibile scegliere una coppia di premi
senza che si potesse capire con un ragionamento quale era il minore ed il maggiore.
119
Paradosso del quiz
Soluzione
Il manager allora si comportò da manager e prese una decisione:
un premio sarà di 16000 euro e poi tireremo una moneta per stabilire se l'altro premio è di 8000 o 32000 euro.
Approfondimenti matematici
Soffermiamoci sulle regole derivate dal ragionamento:
1.
2.
3.
4.
i premi minori devono essere pari
i premi minori devono essere multipli di 4
i premi minori devono essere multipli di 8
i premi minori devono essere multipli di 16
In realtà l'applicazione di queste regole non deve essere considerata come certa ma solo probabile. Consideriamo
che:
•
•
•
•
la regola (1) sia applicata con probabilità 1,
la regola (2) può essere applicata o meno con una probabilità che chiameremo α,
la regola (3) può essere applicata o meno con una probabilità α²,
la regola (4) può essere applicata o meno con una probabilità α³...
Se consideriamo la possibilità di applicare o meno una certa regola otteniamo di nuovo una non determinazione del
risultato.
Si può giocare opportunamente sul parametro α per ottenere la "massima incertezza".
Paradosso del sorite
Il paradosso del sorite (dal greco antico σωρίτης sōritēs aggettivo di σωρός sōros, che significa "mucchio") è un
paradosso generalmente attribuito al filosofo greco Eubulide di Mileto, noto anche per una formulazione del
paradosso del mentitore.
Dato un mucchio di sabbia, se eliminiamo un granello dal mucchio avremo ancora un mucchio. Eliminiamo poi un
altro granello: è ancora un mucchio. Eliminiamo ancora un granello, e poi ancora uno: il mucchio diventerà sempre
più piccolo, finché rimarrà un solo granello di sabbia. È ancora un mucchio, quando rimane un solo granello? E se un
solo granello non è un mucchio, allora in quale momento quel mucchio iniziale non è più un mucchio?
Questo paradosso è utilizzato per analogia quando si parla di definizione della morte dell'individuo, dell'organismo e
delle sue parti che, notoriamente, non muoiono tutte simultaneamente e puntualmente. Ci si può domandare: in quale
momento il "mucchio" iniziale non è più un "mucchio"? Cioè quale è il momento preciso in cui un individuo si può
definire morto? E ancora: un corpo senza una sua parte (es. un amputato di gamba) è ancora un organismo (=
mucchio)? Che cosa differenzia un organismo da un mucchio di sabbia?
120
Paradosso dell'Alabama
121
Paradosso dell'Alabama
Il paradosso dell'Alabama è un paradosso scoperto negli Stati Uniti dopo il censimento del 1880.
C. W. Seaton, funzionario capo dell'ufficio del censimento, calcolò il numero di rappresentanti che ogni stato
avrebbe mandato al parlamento, ipotizzando un numero totale di parlamentari da 275 a 350. Scoprì durante il calcolo
che un parlamento di 299 rappresentanti avrebbe dato all'Alabama 8 seggi, ma aumentando di uno il numero di
rappresentanti a 300 l'Alabama avrebbe perso un seggio, invece di mantenere la sua quota invariata o vederla
aumentare.
Questo risultato, conosciuto come Paradosso dell'Alabama, è la diretta conseguenza del sistema di calcolo utilizzato
per assegnare i seggi, che utilizzava il conteggio proporzionale (numero elettori/numero dei seggi) e l'attribuzione
dei seggi residui a coloro che avevano ottenuto i resti maggiori.
Si dimostra, con questo metodo di calcolo, che l'aumento di un seggio disponibile può causare la perdita di un seggio
ad una delle liste, dando quindi origine al paradosso.
Per mitigare l'effetto del paradosso, si utilizzano oggi sistemi di calcolo a "proporzionale corretto".
Tuttavia, nel 1982 Balinsky e Young hanno mostrato come con qualunque metodo di suddivisione con almeno sette
seggi e 4 partizioni, il paradosso sia inevitabile. Inoltre, lo stesso teorema mostra come ci sia un insieme di tre
paradossi, quello dell'Alabama, il paradosso della popolazione e il paradosso del nuovo stato, di cui almeno uno è
presente in ogni sistema di suddivisione.
Esempio numerico
Ecco un esempio semplificato del paradosso dell'Alabama, dove ci sono solamente tre stati e dieci seggi a
disposizione.
Stato Dimens. Proporzione Seggi
A
6
4.286
4
B
6
4.286
4
C
2
1.429
2
Se i seggi passano a 11:
Stato Dimens. Proporzione Seggi
A
6
4.714
5
B
6
4.714
5
C
2
1.571
1
Mentre A e B guadagnano ciascuno un seggio, la quota attribuita a C decresce da 2 a 1.
Ciò accade perché col crescere del numero di seggi la quota proporzionale cresce più velocemente per gli stati più
grandi rispetto a quelli più piccoli; in questo caso, la parte frazionaria di A e B cresce più velocemente di quella di C,
e a un certo punto la parte decimale di quest'ultimo diventa minore rispetto a quella degli altri due.
Paradosso dell'Alabama
Bibliografia e riferimenti
• Balinsky, M. e Young, P. "Fair Representation." Yale University Press, New Haven, 1982
Paradosso dell'amico di Wigner
Il paradosso dell'amico di Wigner è un esperimento mentale proposto dal fisico Eugene Wigner come estensione
del paradosso del gatto di Schrödinger a partire dal quale introdurre il problema mente-corpo in meccanica
quantistica.
L'esperimento mentale
In questo esperimento mentale, Wigner immagina che, in sua assenza, un amico compia l'esperimento del gatto di
Schrödinger; Wigner, poi, verrà a sapere se il gatto sia vivo o morto solo al proprio ritorno al laboratorio.
Ci sono, dunque, due sistemi differenti: il sistema "scatola", che contiene il gatto di Schrödinger e la fiala di veleno,
e il sistema "laboratorio", all'interno del quale c'è l'amico di Wigner.
Il punto cruciale dell'esperimento mentale è nella seguente domanda: al ritorno di Wigner, lo stato del sistema
"laboratorio" sarà di sovrapposizione tra «gatto morto/amico triste» e «gatto vivo/amico felice» e si determinerà su
una delle due possibilità solo quando il fisico verrà a conoscenza del risultato (diventando, quindi, un osservatore),
oppure Wigner troverà che la sovrapposizione è stata dissolta già da prima a causa della presenza dell'amico?
Nel celebre paradosso del gatto, si afferma che la scatola non si trovi in uno stato definito, almeno dal punto di vista
di un osservatore esterno, finché non viene aperta. Analogamente dovrebbe essere per il laboratorio (osservatore
esterno del quale, è Wigner), visto che, concettualmente, non c'è alcun motivo per supporre diversamente; questo
vuol dire che, finché Wigner è lontano, deve valere la sovrapposizione tra i due stati del laboratorio, quelli di cui
sopra si è fatto menzione: "gatto vivo/amico felice" e "gatto morto/amico triste". Il punto è che nel laboratorio c'è
l'amico del fisico, che, aprendo la scatola mentre quest'ultimo è lontano, svolge il ruolo di osservatore del sistema
"scatola" e fa "collassare" lo stato di quest'ultima su uno dei due possibili ("gatto vivo" e "gatto morto"); per logica,
allora, poiché l'indeterminazione dello stato del sistema "laboratorio" è dovuta solo all'indeterminazione del sistema
"scatola", si ha che anche lo stato del sistema "laboratorio" dovrebbe collassare già prima che Wigner ritorni, in
contraddizione con quanto appena affermato. Qui sta il paradosso.
Coscienza e misurazione
Wigner ideò questo esperimento mentale per illustrare la sua convinzione che la coscienza sia necessaria per il
processo di misurazione in meccanica quantistica. Se si sostituisce alla coscienza dell'amico uno strumento
materiale, la linearità della funzione d'onda implica che lo stato del sistema sia in una somma lineare di stati
possibili. È in sostanza un sistema indeterminato più ampio. Wigner presentò questo paradosso in un suo articolo
riguardante il problema mente-corpo alla luce della meccanica quantistica, e lo integrò successivamente nel suo libro
Simmetrie e riflessioni, del 1967. Attualmente questa sua interpretazione della meccanica quantistica è nota come
«coscienza causa del collasso».
122
Paradosso dell'amico di Wigner
123
Bibliografia
• Eugene Wigner, Simmetrie e riflessioni, 1967
• Roger Penrose, La strada che porta alla realtà. Le leggi fondamentali dell'universo, 2006
Voci correlate
•
•
•
•
Coscienza causa del collasso
Eugene Wigner
Interpretazione della meccanica quantistica
Paradosso del gatto di Schrödinger
Paradosso dell'area scomparsa
Il paradosso dell'area scomparsa è un paradosso geometrico in cui la ridisposizione di una serie di tessere per
semplice traslazione e rotazione sembra modificare la superficie totale delle tessere.
Esistono diverse varianti di questo paradosso. Un esempio classico è il paradosso del cuneo. Si osservi l'immagine:
Le due figure sono composte dalle stesse
tessere di uguale superficie, come si può
constatare contando i quadrati della griglia.
Due triangoli con base ed altezza identiche
hanno la stessa area. Ci si trova nella
situazione paradossale in cui la somma di
quantità uguali dà risultati differenti.
Secondo Martin Gardner il rompicapo
espresso in questa forma fu inventato nel
1953 da Paul Curry, un prestigiatore di New
York City, universalmente noto per essere
l'autore di uno dei più semplici e straordinari
giochi di prestigio con le carte, il celebre
Out of this world. Nonostante questo, il
principio delle evanescenze geometriche è
conosciuto almeno fino dal 1860 circa.
Soluzione
Il paradosso viene a cadere quando si constata che le
due figure rappresentate non sono triangoli ma
quadrilateri. Il quarto angolo, quasi piatto, si trova su
quella che si riteneva essere l'ipotenusa, tra la tessera
azzurra e la tessera rossa. Utilizzando un righello si può
constatare che nella prima costruzione l'angolo è
leggermente maggiore di 180° e la figura è concava.
Animazione del paradosso del cuneo.
Paradosso dell'area scomparsa
Nella seconda disposizione l'angolo è minore di 180° e la figura è convessa. L'area pari alla differenza tra i due casi
equivale all'area del quadrato vuoto.
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Missing
square puzzle
Collegamenti esterni
• (EN) Curry's Paradox: How Is It Possible? [1]
• (EN) Triangoli e Paradossi [2]
Note
[1] http:/ / www. cut-the-knot. org/ Curriculum/ Fallacies/ CurryParadox. shtml
[2] http:/ / www. archimedes-lab. org/ page3b. html
Paradosso dell'avvocato
Il paradosso dell'avvocato (anche detto paradosso di Protagora) è un paradosso citato da Aulo Gellio e secondo la
tradizione riferito ad elaborazioni della scuola stoica.
Secondo questa versione, Protagora avrebbe formato agli studi di legge, come istitutore, un giovane promettente,
Evatlo (Euathlus), dal quale ebbe solo la metà di quanto richiesto per le lezioni e col quale stabilì che il resto sarebbe
stato saldato dopo che questi avesse vinto la sua prima causa.
Ma Evatlo non cominciò la professione di avvocato, anzi si diede alla politica, e non avendo vinto la sua prima causa
poiché non ne aveva mai fatte, Protagora non veniva pagato; quest'ultimo lo convenne dunque in giudizio per essere
saldato del prezzo delle sue lezioni.
Il giovane decise di difendersi da solo, divenendo perciò avvocato di sé medesimo, e creando questa situazione di
indeterminatezza:
• secondo Protagora:
• se Evatlo avesse vinto, avrebbe dovuto pagarlo in base all'accordo, perché avrebbe vinto la sua prima causa;
• se Evatlo avesse perso, avrebbe dovuto pagarlo comunque per effetto della sentenza.
• secondo Evatlo:
• se Evatlo avesse vinto, non avrebbe dovuto pagare Protagora per effetto della sentenza;
• se Evatlo avesse perso, non avrebbe dovuto pagare Protagora perché in base all'accordo non aveva vinto la sua
prima causa.
Il paradosso è spesso citato a fini umoristici per segnalare la "gara di speciosità" sempre corrente fra le categorie
forensi e quelle della politica.
124
Paradosso dell'avvocato
Collegamenti esterni
• Testo in originale, traduzione e commenti [1]
Note
[1] http:/ / utenti. quipo. it/ base5/ logica/ protagora. htm
Paradosso dell'edonismo
Il paradosso dell'edonismo è un paradosso di carattere filosofico e psicologico, ed affonda i suoi principi nella
Grecia classica del 400 a.C.,con la nascente corrente dell'Edonismo, cioè il riconoscimento del piacere (edonè) come
fine ultimo dell'uomo. L'analisi del paradosso fu poi ripresa in Europa di fine Ottocento, dal britannico Henry
Sidgwick, e quindi successivamente sviluppato nei discorsi "The Experience Machine", dentro l'opera "Anarchia,
Stato e utopia" del filosofo americano Robert Nozick (1974).
Il paradosso si basa su premesse di filosofia etica. Si può sintetizzare sul fatto che l’impulso al piacere, se eccessivo,
viene a vanificare il suo stesso fine. Ciò porta ad una limitazione intrinseca dell'egoismo intrinseco dell'essere, una
limitazione allo stesso Edonismo e, più in particolare, una limitazione al pensiero dell'Utilitarismo.
Alcuni piaceri, come quelli intellettuali e creativi, verrebbero negati all'essere. Ne consegue che, per raggiungerli in
misura accettabile, essi richiedono la preesistenza di un desiderio intrinseco all'essere di fare del bene agli altri, ma
non per il solo obiettivo di provocare il proprio esclusivo piacere.
Paradosso dell'impiccagione imprevedibile
Il paradosso dell'impiccagione imprevedibile, noto più semplicemente come paradosso dell'impiccagione, è un
celebre paradosso logico concepito dal matematico Martin Gardner.
Il paradosso
Un tale fu condannato dal giudice. In considerazione dell'efferatezza dei delitti commessi il giudice proclamò una
singolare sentenza:
"... il colpevole sarà impiccato un giorno della prossima settimana, ma egli non dovrà sapere quale sarà il giorno
dell'esecuzione, che dovrà arrivargli completamente inaspettata!"
Il condannato non fu per nulla turbato dalla sentenza perché dopo un breve ragionamento concluse:
"Allora non mi impiccheranno mai! Dato che la mia sentenza deve essere eseguita entro la settimana, l'esecuzione
non potrà essere sabato poiché venerdì lo capirei, e non potrà essere venerdì perché giovedì lo saprei, e così a
ritroso per lo stesso motivo non potrà essere nessuno dei giorni precedenti. Per questo motivo non mi giustizieranno
mai, in quanto l'impiccagione non sarebbe inaspettata."
Il giorno seguente il condannato venne impiccato. La sentenza del giudice si avverò, a dispetto della convinzione del
condannato, in quanto questa gli arrivò appunto in un giorno inaspettato.
125
Paradosso dell'impiccagione imprevedibile
Analisi del paradosso
Molto è stato scritto sulla struttura di questo paradosso, che è conosciuto anche in diverse forme. Infatti un'altra
enunciazione fa riferimento all'interrogazione (o esame) "a sorpresa", in cui un professore annuncia che farà una
interrogazione a sorpresa nella settimana successiva, ma in un giorno completamente imprevedibile, e gli studenti
concludono che non ci sarà nessuna interrogazione.
In entrambi gli enunciati, la sostanza è la stessa: si fissa un periodo di tempo per un certo evento e si dichiara che il
momento esatto dell'evento è imprevedibile. Nell'analisi di questo paradosso è coinvolta sia la logica che
l'epistemologia, cioè sia il nostro modo di ragionare che il nostro modo di stabilire che cosa si sa o non si sa.
Dal punto di vista logico la sentenza del giudice è vagamente contraddittoria e potrebbe essere analizzata con
maggior successo inquadrandola nella logica sfumata (logica fuzzy). In ogni caso, se ci si pensa, è evidente che per
far eseguire la sentenza in modo completamente inaspettato, bisognerebbe non comunicare del tutto la sentenza
all'imputato. Altrettanto evidente è che tanto più è breve il periodo assegnato all'esecuzione, tanto più è
contraddittoria la sentenza. Al limite, se il periodo si riducesse ad un giorno, la sentenza potrebbe essere parafrasata
nella seguente autocontraddizione: "Domani sarai impiccato, ma tu non puoi prevedere che domani sarai
impiccato".
Dal punto di vista epistemologico la contraddizione sopra enunciata corrisponde al cosiddetto paradosso di Moore, in
cui uno afferma: "So che fuori piove, ma non ci credo", ed è problematico capire che cosa uno sa o non sa.
Dal punto di vista del prigioniero, comunque, è azzardato trarre conclusioni certe da una sentenza vagamente
contraddittoria. A maggior ragione, se egli la considera completamente contraddittoria (e quindi irrealizzabile),
dovrebbe tenere conto che ci sono infiniti modi per non eseguire la sentenza. Ad esempio:
• Lasciar vivere il condannato
• Eseguire la sentenza oltre il limite fissato
• Comunicare al condannato il giorno e l'ora dell'esecuzione.
Quindi il condannato dovrebbe aspettarsi di essere impiccato in qualunque momento, anche l'ultimo giorno della
settimana, senza poter essere certo di quale sia questo momento.
In altre parole, la sentenza del giudice non può essere pienamente rispettata, perché l'esecuzione non è
completamente inattesa, ma ottiene lo scopo di lasciare nell'incertezza il condannato.
Bibliografia
• Enigmi e giochi matematici. Vol. 4° (The Unexpected Hanging and other Mathematical Diversions), Sansoni,
Firenze, 1979, VIII-228p.
• Michael Clark - I Paradossi dalla A alla Z. - Edizione Mondolibri S.p.A.,Milano, 2005, su licenza Raffaello
Cortina Editore - L'esame inaspettato, pag. 93.
126
Paradosso dell'informazione del buco nero
127
Paradosso dell'informazione del buco nero
Il paradosso dell'informazione del buco nero (in inglese black hole
information paradox) risulta dalla combinazione della meccanica
quantistica e relatività generale. Implica che l'informazione fisica
potrebbe "sparire" in un buco nero, permettendo a molti stati fisici di
evolvere nello stesso identico stato. Questo è un argomento
controverso poiché esso viola una dottrina comunemente accettata —
che in linea di principio l'informazione totale riguardo a un sistema
fisico in un punto temporale determinerebbe il suo stato in ogni altro
tempo. [1]
Rappresentazione di un buco nero
(XMM-Newton, ESA, NASA)
Radiazione di Hawking
Nel 1975, Stephen William Hawking e Jacob Bekenstein mostrarono che i buchi neri irraggerebbero lentamente
energia, e ciò pose un problema. Dal teorema dell'essenzialità, ci si aspetterebbe che la radiazione di Hawking fosse
completamente indipendente dal materiale entrante nel buco nero. Ciò nondimeno, se il materiale entrante nel buco
nero fosse uno stato quantistico puro, la trasformazione di questo stato nello stato eterogeneo della radiazione di
Hawking distruggerebbe l'informazione riguardante lo stato quantico originale. Questo viola il teorema di Liouville e
presenta un paradosso fisico.
Più precisamente, se c'è uno stato puro correlato, e una parte del sistema correlato viene gettata nel buco nero mentre
l'altra parte viene tenuta all'esterno, il risultato dopo che la traccia parziale è stata portata all'interno del buco nero è
uno stato misto. Ma poiché ogni cosa all'interno del buco nero urterà la singolarità in un tempo fissato, la parte che vi
viene tracciata parzialmente potrebbe "sparire", per non ricomparire più. Naturalmente, non è realmente noto cosa
succede nelle singolarità una volta che sono stati presi in considerazione gli effetti quantistici, ragion per cui questa
teoria congetturale è controversa.
Hawking, comunque, era convinto a causa della semplice eleganza dell'equazione risultante la quale "unificava"
termodinamica, relatività, gravità, e il lavoro di Hawking stesso sul Big Bang. Questo infastidì molti fisici e in
particolare John Preskill, il quale nel 1997 scommise con Hawking e Kip Thorne che l'informazione non veniva
persa nei buchi neri.
Ci sono diverse idee riguardo a come il paradosso possa essere risolto. Fin dalla proposta, nel 1997, della
corrispondenza AdS/CFT, la convinzione predominante tra i fisici è che l'informazione viene preservata e che la
radiazione di Hawking non è precisamente termica, ma riceva correzioni quantiche. Altre possibilità includono il
fatto che l'informazione sia contenuta in un residuo planckiano rimasto alla fine della radiazione di Hawking o a una
modificazione delle leggi della meccanica quantistica che permetta un'evoluzione del tempo non-unitario.
Nel luglio del 2005, Stephen Hawking pubblicò un articolo con una teoria secondo la quale perturbazioni
quantistiche dell'orizzonte degli eventi potrebbero permettere all'informazione di sfuggire dal buco nero, e ciò
risolverebbe il paradosso dell'informazione. La sua argomentazione suppone l'unitarietà della corrispondenza
AdS/CFT la quale implica che un buco nero AdS, che è duale per la teoria del campo conforme termico, sia unitario.
Quando annunciò il suo risultato, Hawking ammise anche di aver perso la scommessa del 1997, pagando Preskill con
l'enciclopedia del baseball (ISBN 1-894963-27-X) 'dalla quale si estrae informazione a volontà'. Comunque, Thorne
rimane scettico riguardo alla dimostrazione di Hawking e rifiutò di contribuire alla ricompensa.
Paradosso dell'informazione del buco nero
Principali approcci alla soluzione del paradosso
L'informazione va irrimediabilmente persa:
• Vantaggio: Sembra essere una diretta conseguenza di calcoli relativamente non controversi basati sulla gravità
semiclassica.
• Svantaggio: Viola l'unitarietà (uno dei principi base della meccanica quantistica), nonché la conservazione
dell'energia o causalità.
L'informazione filtra fuori gradualmente durante l'evaporazione del buco nero:
• Vantaggio: Intuitivamente attraente perché somiglia qualitativamente al recupero delle informazioni in un
processo classico di combustione.
• Svantaggio: Richiede una grossa deviazione dalla gravità classica e semiclassica (che non consentono la
fuoriuscita di informazioni dal buco nero) anche per buchi neri macroscopici per i quali ci si aspetta che tali teorie
siano buone approssimazioni.
L'informazione sfugge improvvisamente nello stadio finale dell'evaporazione del buco nero:
• Vantaggio: È necessaria una deviazione significativa dalla gravità classica e semiclassica solo nel regime in cui ci
si aspetta che dominino gli effetti della gravità quantistica.
• Svantaggio: Poco prima dell'improvvisa fuga di informazioni, un buco nero molto piccolo deve essere in grado di
immagazzinare una quantità arbitraria di informazione, il che viola pesantemente il limite di Bekenstein.
L'informazione è immagazzinata in un resto di dimensioni controntabili con la lunghezza di Plank:
• Vantaggio: Non è necessario alcun meccanismo per la fuga di informazioni.
• Svantaggio: un oggetto molto piccolo deve essere in grado di immagazzinare una quantità arbitraria di
informazione, il che viola pesantemente il limite di Bekenstein.
L'informazione è immagazzinata in un resto massivo:
• Vantaggio: Non è necessario alcun meccanismo per la fuga di informazioni e non è necessario immagazzinare una
grande quantità di informazioni in un piccolo oggetto.
• Svantaggio: Non è noto alcun meccanismo attraente che potrebbe fermare l'evaporazione di Hawking di un buco
nero macroscopico.
L'informazione è immagazzinata in un universo neonato che si separa dal nostro:
• Vantaggio: Non è necessaria alcuna violazione di principi generali della fisica noti.
• Svantaggio: È difficile trovare una teoria concreta attraente che predirrebbe tale scenario.
L'informazione è codificata nella correlazione tra futuro e passato: [2][3]
• Vantaggio: La gravità semiclassica è sufficiente, ovvero la soluzione non dipende dai dettagli della (non ancora
ben compresa) gravità quantistica.
• Svantaggio: Contraddice la visione intuitiva della natura come entità che evolve nel tempo.
L'equazione
L'entropia di un buco nero è data dall'equazione:
dove S è l'entropia, c è la velocità della luce, k è la costante di Boltzmann, A è l'area dell'orizzonte degli eventi, ħ (h
tagliato) è la costante di Planck ridotta (o costante di Dirac) e G è la costante gravitazionale.
128
Paradosso dell'informazione del buco nero
Voci correlate
• Termodinamica dei buchi neri
• Principio olografico
• Demone di Maxwell (nel quale l'informazione non può essere distrutta)
Note
[1] (EN) Stephen Hawking. . Discovery, Inc., Discovery Channel, The, 2006
[2] (EN)Hartle, James B. (1998). Generalized Quantum Theory in Evaporating Black Hole Spacetimes (http:/ / xxx. lanl. gov/ abs/ gr-qc/
9705022). Black Holes and Relativistic Stars.
[3] (EN)Nikolic, Hrvoje (2009). Resolving the black-hole information paradox by treating time on an equal footing with space (http:/ / lanl.
arxiv. org/ abs/ 0905. 0538) 678: 218–221.
Collegamenti esterni
• (EN) Black Hole Information Loss Problem (http://math.ucr.edu/home/baez/physics/Relativity/BlackHoles/
info_loss.html), una pagina USENET di domande frequenti di fisica.
• (EN) " Do black holes destroy information? (http://xxx.lanl.gov/abs/hep-th/9209058)", John Preskill (1992),
hep-th/9209058 (http://xxx.lanl.gov/abs/hep-th/9209058). Discute metodi di risoluzione del problema e le
loro conseguenze apparenti.
• (EN) Report (http://www.newscientist.com/news/news.jsp?id=ns99996193) on Hawking's 2004 theory at
New Scientist
• (EN) Report (http://www.nature.com/news/2004/040715/full/news040712-12.html) on Hawking's 2004
theory at Nature
• (EN) Hawking, S. W. (July 2005), Information Loss in Black Holes, arxiv:hep-th/0507171 (http://arxiv.org/abs/
hep-th/0507171). La presunta soluzione di Stephen Hawking al paradosso dell'unitarietà del buco nero.
• (EN) Hawking and unitarity (http://motls.blogspot.com/2005/07/hawking-and-unitarity.html): Una
discussione aggiornata del paradosso della perdita di informazione e del contributo di Stephen Hawking.
• (EN) The Hawking Paradox - BBC Horizon documentary (2005) (http://www.trilulilu.ro/hekateros/
18cd80c910c7fa?video_google_com=)
129
Paradosso dell'ipergioco
130
Paradosso dell'ipergioco
Il paradosso dell'ipergioco è un paradosso dovuto al matematico William Zwicker; esso è strettamente legato con il
teorema di Cantor, di cui in effetti costituisce una dimostrazione alternativa.
L'ipergioco viene definito come un particolare gioco in cui il primo giocatore sceglie il gioco a cui giocare, e il
secondo inizia il gioco. Questa definizione, apparentemente semplice, nasconde tuttavia delle proprietà
contraddittorie, che nascono dall'ambiguità della definizione di gioco.
Formulazione del paradosso
Definizioni preliminari
Considerando l'insieme dei giochi a due giocatori, un gioco viene definito finito se termina necessariamente in un
numero finito di mosse, con la vittoria di uno dei due giocatori o con il pareggio; un esempio semplice è il gioco del
tris, che può durare al massimo nove mosse.
Un gioco infinito è un gioco non finito, ovvero un gioco per il quale esiste almeno una strategia che porta a non
concludere mai la partita, anche in presenza di un'altra strategia che la concluderebbe in un numero finito di mosse.
Ad esempio è infinito il seguente gioco: il primo giocatore sceglie un numero naturale non primo, e i giocatori
sommano alternativamente 1 o 2 al numero dell'avversario fino a quando non si ottiene un numero primo; se il primo
giocatore sceglie un numero pari diverso da 2 ed entrambi continuano a sommare 2, il gioco non termina mai. È da
notare che questa strategia non è ottimale, e qualunque giocatore potrebbe facilmente interromperla a suo vantaggio;
la sua esistenza comporta comunque la non finitezza del gioco.
L'ipergioco e il paradosso
L'ipergioco è definito come il gioco in cui alla prima mossa un giocatore sceglie un gioco finito e lo comunica
all'altro giocatore; alla seconda mossa questi inizia il gioco scelto dal primo giocatore.
Il paradosso si genera nel momento in cui si cerca di determinare se l'ipergioco è o no un gioco finito. Infatti se
l'ipergioco è infinito, il primo giocatore può scegliere un gioco finito, che dovrà terminare in mosse; quindi
l'ipergioco termina in
mosse ed è finito. Se invece l'ipergioco è finito, allora il primo giocatore può scegliere
di giocare all'ipergioco, e così può fare a sua volta il secondo giocatore, e così via; se entrambi continuano a
scegliere l'ipergioco, la partita non termina mai e l'ipergioco è infinito.
Il paradosso nasce dall'ambiguità insita nella definizione di gioco: se infatti si decide a priori un insieme
di giochi
ben definiti (finiti e non finiti), e si limita il secondo giocatore a scegliere all'interno dei giochi finiti dell'insieme
,
si può applicare lo stesso ragionamento fatto, ma la conclusione in questo caso è semplicemente che l'ipergioco non
fa parte dell'insieme , perché non può essere né un suo elemento finito né un suo elemento infinito, in analogia
col paradosso di Russell riguardo agli insiemi e alle classi.
Paradosso dell'ipergioco
131
Legame con il teorema di Cantor
Il teorema di Cantor afferma che non esiste una corrispondenza biunivoca tra gli elementi di un insieme
elementi del suo insieme delle parti
costruzione di un sottoinsieme di
e gli
(ovvero i suoi sottoinsiemi); la dimostrazione del teorema è basata sulla
che non può essere messo in corrispondenza con alcun elemento di
.
Il ragionamento di Zwicker corrisponde in effetti alla costruzione di un tale sottoinsieme, diverso da quello originale
utilizzato da Cantor. Data infatti una corrispondenza
definiamo sentiero una qualsiasi sequenza finita o infinita
tale che per ogni termine
,o
è l'ultimo termine, o il termine successivo appartiene a
sempre possibile prolungare una sequenza finita
; in generale è
aggiungendo un elemento di
questo non sia l'insieme vuoto.
Un elemento
è detto normale se ogni sequenza che inizia con
è finita. Si dimostra allora che l'insieme
degli elementi normali non può essere messo in corrispondenza biuniovoca con nessun elemento di
ogni
,
, a meno che
, ovvero per
.
Infatti, supponendo per assurdo che esista
per cui
è vuoto, il sentiero è formato dal solo elemento
normale, e tutti i sentieri che iniziano con
ed è finito; se
, costruiamo un sentiero che parte da
contiene almeno un elemento
. Se
, questo è
sono finiti; allora sono finiti anche tutti i sentieri che iniziano con
, quindi è normale anche in questo caso. Questa parte di dimostrazione corrisponde alla considerazione per cui
l'ipergioco è un gioco finito, perché dopo la prima mossa viene scelto un gioco finito.
Tuttavia, se
è normale, allora deve appartenere a
, quindi è possibile costruire il sentiero infinito
, il che renderebbe non normale, generando una contraddizione. In maniera analoga, se l'ipergioco è finito, allora i
due giocatori possono continuare all'infinito a scegliere di giocare all'ipergioco.
Bibliografia
• Raymond Smullyan, Satana, Cantor e l'infinito, Milano, Bompiani, 1994. ISBN 8845222624
Voci correlate
•
•
•
•
Autoreferenza
Paradossi dell'infinito
Teorema di Cantor
Teoria degli insiemi
Paradosso dell'onnipotenza
Paradosso dell'onnipotenza
Il paradosso dell'onnipotenza è un noto paradosso teologico e filosofico formulato in diverse forme: si chiede se un
ente onnipotente possa creare un oggetto (un masso inamovibile, una costruzione indistruttibile) dotato di una
caratteristica tale da mettere in crisi la sua stessa onnipotenza.
La risposta che se ne ricava è la non esistenza dell'onnipotenza (si tratta quindi di un paradosso negativo o logico)
perché se l'ente non è in grado di creare tale oggetto non sarebbe onnipotente, mentre se lo creasse avrebbe creato un
qualcosa che di fatto limita la sua onnipotenza sconfessandola come tale; nel corso dei secoli sono state date diverse
risposte e confutazioni.
Interpretazioni logiche del paradosso
• Per la consistenza logica, non può esistere nello stesso universo un oggetto inamovibile ed una forza irresistibile.
Ovvero nella stessa "struttura logica" non possono essere vere contemporaneamente una certa affermazione (A) e
la sua negazione (non A).
Possibili confutazioni
• Seguendo l'indicazione di Cartesio, Dio può creare qualcosa che non può spostare e, nonostante tutto, spostarla. In
realtà si comprende bene, come anche è stato osservato in letteratura, che questa non è veramente una risposta, dal
momento che se si rinuncia alla logica non ha neanche senso parlare di paradossi, consistenza o verità.
• Una semplice confutazione consiste nell'osservare che se l'agire di Dio dovesse obbedire alle leggi della logica,
Dio non sarebbe "onnipotente". Dio quindi è al di sopra della logica stessa e non si possono applicare le "misure"
della logica umana alla sua natura; questo ragionamento che sposta il concetto di Dio definitamente oltre la logica
però, se esteso, lo rende anche un oggetto totalmente insondabile dalla ragione umana e quindi anche da
qualunque pretesa di voler parlare di esso in termini oggettivi e quindi validi per tutti gli uomini.
• Dio potrebbe limitarsi a non creare ciò che poi non può spostare, così il paradosso anziché essere risolto verrebbe
semplicemente aggirato. In effetti il fatto di essere onnipotenti significa poter fare ciò che si vuole e non
necessariamente doverlo fare.
• Se si pensa all'onnipotenza come alla possibilità di fare tutto ciò che si vuole, visto che Dio può non voler
compiere certi atti (es: Dio non può mentire, Dio non può compiere azioni contro la sua natura), un Dio che
sceglie di non andare contro la logica è comunque onnipotente[1], tuttavia non viene risposta alla domanda posta
nel paradosso circa alla possibilità di dio di create tale oggetto.
• Un'altra possibile confutazione è che il dilemma si fonda su un concetto traviato di onnipotenza: se a Dio manca il
potere di autodistruggersi allora non è onnipotente. Però il potere di autodistruggersi non è veramente un potere
ma quasi una debolezza quindi si ricade di nuovo nella definizione di Dio per cui dato che Dio non ha debolezze
non ha nemmeno il potere di autodistruggersi come nemmeno quello di rinnegare se stesso. Questo non è un di
meno quindi ma anzi è prova maggiore di onnipotenza. Se però il paradosso non fosse menomativo ma
accrescitivo ricadremmo comunque nello stesso assurdo. Infatti può Dio creare un altro Dio suo pari? Questa
domanda andrebbe contro il presupposto che Dio è eterno e che è unico.
132
Paradosso dell'onnipotenza
Note
[1] (EN) Godandscience.org: Can god truly be omnipotent? (http:/ / www. godandscience. org/ apologetics/ rock. html)
Bibliografia
• Cesare Catà, La Croce e l'Inconcepibile. Il pensiero di Nicola Cusano tra filosofia e predicazione, Macerata,
2009, cap. 1
Voci correlate
• Paradosso dell'onniscienza
• Tzimtzum
Paradosso dell'onniscienza
I paradossi teologici sono una famiglia di paradossi relativi a una data teologia, che manifestano una reale o
apparente incongruità circa le asserzioni teologiche di una determinata religione. I paradossi possono vertere sia
sugli attributi divini che sulle verità dogmatiche di quella determinata fede religione, ma possono a loro volta
appartenere anche ad altre categorie di paradossi, come i paradossi filosofici.
L'uso più frequente di questi paradossi è quello di mettere in crisi le convinzioni religiose o dei dubbi sulla divinità
oggetto fede, mettendo in luce le possibili carenze logiche dell'impianto dogmatico sottostante; premessa maggiore
per cui tali paradossi trovino fondamento è che tale impianto teologico, ovviamente, si rifaccia nella sua
formulazione alle leggi della logica.
Paradosso dell'onnipotenza
• Enunciato: essendo dio onnipotente, può fare ogni cosa.
• Paradosso: può dio creare qualcosa che non può spostare?
Sia che si risponda sì alla domanda, sia che si risponda no, si dimostrerebbe che dio non è onnipotente, o perché non
è in grado di creare un simile oggetto, o perché non è in grado di spostarlo.
Questo paradosso vuole mostrare la contraddittorietà della qualità "onnipotenza" attribuita a dio.
Paradosso dell'onniscienza
• Enunciato: in quanto onnisciente dio conosce ogni cosa.
• Paradosso: nessuno, nemmeno una divinità, può sapere ogni cosa.
Supponiamo, infatti, che esista un insieme non vuoto "V" di tutte le possibili verità. Per ogni sottoinsieme S di V, e
per un fissato elemento v di V, una delle due seguenti affermazioni deve essere vera:
• L'elemento v appartiene ad S.
• L'elemento v non appartiene ad S.
Dunque, per ogni sottoinsieme S di V abbiamo definito una verità (la quale afferma appunto che v appartiene -oppure
non appartiene- a S). Evidentemente, la famiglia di tutte queste verità è in corrispondenza biunivoca con l'insieme
delle parti di V, e pertanto ne ha la stessa cardinalità. Inoltre, in quanto appunto costituita di verità, questa famiglia
dovrebbe essere contenuta in V (poiché tale insieme per definizione contiene tutte le verità). Tuttavia, un noto
risultato della teoria degli insiemi asserisce che l'insieme delle parti di un qualunque insieme V ha sempre cardinalità
strettamente maggiore a quella di V. Ne segue in particolare che pure la famiglia di verità appena costruita avrà
cardinalità maggiore di V, e dunque non potrà essere contenuta in esso. Perciò "V" non può essere l'insieme di tutte
133
Paradosso dell'onniscienza
le verità.
In modo analogo al precedente paradosso, il paradosso dell'onniscienza mostra la non-consistenza di un'attribuzione
fondamentale di dio.
Possibili confutazioni
Ciò che in verità dimostra questo paradosso, è che la nostra idea mentale di "tutte le verità" ha una consistenza logica
poco solida. Ovvero, in termini matematicamente più corretti, l'ente di tutte le verità non è propriamente un insieme,
nel senso che per esso non sono validi gli assiomi di Zermelo - Fraenkel. Questo paradosso, dunque, non fornisce
una contraddizione, bensì la dimostrazione del fatto che, appunto, l'oggetto formato da tutte le verità non è un
insieme, infatti è una classe propria[1].
Paradosso dell'onnipotenza unita all'onniscienza
• Enunciato: in quanto onnipotente dio può fare ogni cosa e in quanto onnisciente Dio conosce ogni cosa.
• Paradosso: può dio fare qualcosa di diverso di quello che già sa che farà?
In quanto onnisciente, dio conosce il futuro, quindi sa che farà una certa azione tra, poniamo, mille anni. Passato
quel lasso di tempo, dio non può decidere di non fare quella azione o di compierne un'altra differente, quindi non è
onnipotente.
Questo paradosso vuole confutare la possibilità di un intervento arbitrario sull'universo, tramite l'onnipotenza, di un
dio che sia dotato anche dell'onniscienza.
Paradosso del Bene e del Male
• Enunciato: Essendo Dio "infinitamente buono" o puro bene, non potrà mai causare o essere il male; essendo Dio
"onnipresente" è presente in ogni cosa, in ogni momento, e in ogni luogo; essendo dio "onnipotente" può vincere
contro ogni forza antagonista.
• Paradosso: Assumendo l'esistenza del male in senso cristiano, o Dio non è onnipresente (altrimenti il diavolo
sarebbe una sua parte), o Dio non è onnipotente (in quanto il diavolo esiste), o Dio non è infinitamente buono
(poiché il diavolo sarebbe una creazione di Dio).
L'argomento del paradosso costituisce l'oggetto della disciplina teologica tradizionale chiamata teodicea.
Il paradosso - o questione dell'esistenza del Male - si può enunciare anche come la contraddizione stretta tra due soli
principi: quello di onnipotenza e di bontà di Dio, senza attribuire alcuna rilevanza alla questione della "presenza". In
tal caso la contraddizione ha solo due termini. Il diavolo (o il male) e Dio vengono così presi in considerazione solo
in quanto "princìpi causali" indipendentemente da altre loro eventuali caratteristiche.
In quest'ultimo caso le considerazioni o confutazioni centrate sulla questione della "onnipresenza" non sono valide.
Una proposta di confutazione comune di questo paradosso riguarda la definizione del "male". È la questione che
occupa più di frequente il dibattito teologico. L'obiezione più frequente è che il male è legato al "libero arbitrio" e
non sarebbe possibile senza questo. Il libero arbitrio sarebbe la proprietà per cui la volontà di certe creature dipende
solo da sé stessa, e non da dio. È facile riconoscere in questa idea una riformulazione del paradosso stesso piuttosto
che una vera risposta. In senso logico causale, infatti: 1) Ha un significato affermare che una cosa, benché creata da
dio, in nessun modo dipende da dio? 2) Il fatto di creare un essere dotato di capacità intrinseca di fare il male, e che
quindi potrebbe dannarsi, non potrebbe essere di per sé essere già considerata una azione malvagia? (In quanto
deliberatamente pericolosa e gratuita).
In generale: il libero arbitrio è il concetto che viene più spesso portato a confutazione del paradosso, ma questo
stesso concetto è opinabile e paradossale. L'idea che il "libero arbitrio" esista, o che la sua esistenza sia "buona",
costituiscono assiomi indimostrabili, e non sono accettati da tutti.
134
Paradosso dell'onniscienza
Infine, si osserva che la definizione di "male" dovrebbe essere consistente con la pratica (per esempio, tutti cercano
di curare le malattie o di difendersi dalle catastrofi naturali, non considerano "male" solo le azioni prodotte da esseri
umani) perciò è comunque difficile trovare una definizione di "male" che racchiude solo cose generate dal libero
arbitrio, tralasciando per esempio il caso o la natura, che si assume creata da dio stesso, e mantenere allo stesso
tempo una coerenza di discorso.
Possibili confutazioni
• Relative all'onnipresenza di dio. L'onnipresenza di dio non limita la sua dimensione all'universo: un dio potrebbe
esistere in un numero maggiore di dimensioni spaziali rispetto all'universo e quindi essere onnipresente senza che
il Diavolo ne sia una sua parte.[2] Inoltre non è detto che dio sia onnipresente; ad esempio nel cristianesimo dio è
inteso come omni-agente, ma non onnipresente, cioè la creazione non è parte di dio.
• Relative all'esistenza o definizione di male. Un altro problema del paradosso è la definizione di male: supponendo
come definizione di male il risultato delle azioni delle creature (comprendendo sia l'uomo che il diavolo) dirette
contro Dio, allora Dio non è responsabile del male, bensì lo sono le sue creature. Se il male non è "creato da Dio",
ma manifestato da esseri dotati di libero arbitrio, il paradosso non è più tale. Per quanto detto nei paragrafi sopra,
però, i sostenitori del paradosso non considerano il concetto di "libero arbitrio" come risposta al problema, dal
momento che l'onnipotenza è troppo "forte" come principio logico-causale, mentre la condizione di "libertà" di
un'altra creatura è vista come contraddittoria.
Paradosso della salvezza
• Enunciato: San Paolo nella Lettera ai Romani scriveva "Il giusto sarà salvato per la sua fede". Questa frase,
secondo la Chiesa, specifica che l'uomo può salvarsi e raggiungere la salvezza grazie alle buone opere compiute
in vita, il Giudizio Universale sarà il momento in cui Dio assegnerà grazia o dannazione a seconda delle gesta.
• Paradosso: Se la salvezza del soggetto dipende dalla possibilità di scegliere autonomamente se essere dannato o
no (scegliendo di compiere opere di bene), Dio non avrebbe alcuna possibilità di esercitare la sua potenza sugli
uomini e gli uomini stessi sarebbero padroni esclusivi del proprio destino grazie al libero arbitrio. Tutto ciò
ridurrebbe Dio a mero esecutore di una Legge superiore, ma nessuna forza o legge dovrebbe esser superiore a
Dio, a meno che egli sia non onnipotente.
Possibili confutazioni
Un dio che esista in due dimensioni temporali può essere a conoscenza di ciò che ciascuno farà e portarsi ovunque
nella nostra linea temporale per raggiungere i propri scopi. Il completo libero arbitrio e la completa predestinazione è
possibile in due dimensioni temporali, benché questo concetto possa essere di difficile comprensione. [3]
In realtà tale paradosso, secondo i suoi detrattori, nascerebbe principalmente da un'erronea interpretazione del passo
citato. Lo stesso San Paolo scrive nella Lettera ai Romani (3, 23-24) Tutti hanno peccato e sono privi della gloria di
Dio, ma sono giustificati gratuitamente per la sua grazia, in virtù della redenzione realizzata da Gesù Cristo. Questo
passo potrebbe far pensare che tutti gli uomini saranno salvati, come ipotizzato da Hans Urs von Balthasar e Karl
Rahner. La concezione di salvezza della Chiesa, a partire dalle lettere di San Paolo, non dipende dalle opere, infatti
in virtù delle opere della legge nessun uomo sarà giustificato davanti a lui (Rm 3, 20), ma viene concessa
gratuitamente, e sta al libero arbitrio dell'uomo accettarla o respingerla.
Martin Lutero risolse questo paradosso affermando la predestinazione assoluta e l'inesistenza del libero arbitrio.
Comunque non è assolutamente detto che Dio, avendo lasciato il libero arbitrio, diventi il freddo esecutore di una
legge "superiore a lui stesso", dal momento che quella legge è stata decisa da lui medesimo. In effetti la
formulazione stessa del paradosso non sembra in questo senso molto chiara. Piuttosto l'esistenza del libero arbitrio
può mettere in luce la mancata onnipotenza di Dio, che così decide volontariamente di non influire sulle azioni
umane.
135
Paradosso dell'onniscienza
Note
[1] Una classe propria può contenere altre classi o insiemi, ma non può essere contenuta da classi o insiemi
[2] (EN) Godandscience.org: The theodice problem (http:/ / www. godandscience. org/ apologetics/ nogod. html#theodice)
[3] (EN) Godandscience.org: God cannot be almighty and allow free will simultaneously (http:/ / www. godandscience. org/ apologetics/ nogod.
html#almighty)
Bibliografia
• Michael Clark. I paradossi dalla A alla Z, Raffaello Cortina Editore, 2004, ISBN 8870789241.
Collegamenti esterni
• (http://www.godandscience.org/apologetics/nogod.html) Un elenco di paradossi con tentativi di confutazione,
in lingua inglese.
• (http://www.uaar.it/ateismo/inesistenza-di-dio/argomenti-non-credenti.html) Un altro elenco in italiano.
Voci correlate
• Elenco di paradossi
•
•
•
•
•
Logica
Paradosso
Teoria degli insiemi
Questione ipotetica
Noncognitivismo teologico
Paradosso dell'uovo e della gallina
Il paradosso retorico dell'uovo e della gallina può essere riassunto
nella domanda retorica: "È nato prima l'uovo o la gallina?", che
esemplifica la difficoltà insite nella formulazione di spiegazioni
semplici a questioni inerenti alla cosmogonia e l'origine della vita.
L'illogicità del paradosso si basa sulla semplice constatazione comune
che le galline depongono le uova: quindi l'uovo non può esistere senza
la gallina che l'ha deposto. Dalle stesse uova nascono altre galline, che
a loro volta non possono perciò esistere senza presupporre l'uovo.
Sono apparse prima queste uova o la gallina che
Ripetendo il ragionamento all'infinito, si giunge all'impossibilità di
le ha deposte?
stabilire chi possa aver avuto origine per primo tra l'uovo e la gallina,
poiché nessuno dei due soggetti può esistere in assenza dell'altro.
Sebbene a questa apparente illogicità la scienza abbia da lungo tempo trovato una risposta, il paradosso rimane
ancora valido per alcune delle questioni più interessanti della biologia moderna, e che concernono i rapporti tra DNA
e proteine.
Tale frase, più in generale, divenuta proverbiale ed entrata nell'immaginario collettivo, viene anche utilizzata, per
estensione, come esempio di rompicapo logico o di ragionamento circolare. La frase viene inoltre utilizzata per
enfatizzare l'inutilità o la futilità di un discorso o di una discussione, o in alternativa, l'incapacità di giungere a una
conclusione concreta.
136
Paradosso dell'uovo e della gallina
137
Storia del paradosso
Il paradosso viene già citato dagli antichi filosofi greci quali Aristotele e Plutarco[1]
Ma il primo che lo formula nel modo in cui lo conosciamo oggi è Ambrogio Teodosio Macrobio nella sua opera
Saturnalia in cui prova a darne una risposta motivata:
(LA)
(IT)
« "Ovumne prius exiterit an gallina?"... ovum prius a « "È nato prima l'uovo o la gallina?" ...si ritiene, a ragione, che
natura factum iure aestimabitur. Semper enim quod
incipit inperfectum adhuc et informe est et ad
perfectionem sui per procedentis artis et temporis
additamenta formatur: ergo natura fabricans avem ab
informi rudimento coepit, et ovum, in quo necdum est
species animalis, effecit: ex hoc perfectae avis species
extitit procedente paulatim maturitatis effectu. »
l’uovo sia stato creato per primo dalla natura. Infatti per primo ha
origine ciò che è imperfetto e per giunta informe e attraverso qualità
e tappe progressive prendono forma le aggiunte (intese come le
caratteristiche dell’individuo adulto): dunque la natura cominciò a
formare l’uccello da materia informe e produsse l'uovo, nel quale
non vi è ancora la specie di animale: da questo a poco a poco ha
origine una specie perfetta di uccello in seguito a un progressivo
effetto di maturazione. »
( *Ambrogio Teodosio Macrobio, Saturnalia VII,16 )
Per una maggiore completezza di informazioni riguardo alla problematica dell'origine della vita e della cosmologia,
nonché della natura stessa del paradosso, affrontata dalla filosofia greca, occorre approfondire la conoscenza di
Parmenide e dei paradossi di Zenone che corrispondono all'antecedente filosofico dei già citati Aristotele e Plutarco.
Considerando che l'uovo non è altro che una fase dell'esistenza nella vita di una gallina dovrebbe essere pacifico
affermare, sia scientificamente che telogicamente, che il paradosso non è nient'altro che una domanda trabocchetto: è
nata senz'altro prima la gallina! Infatti l'animale nel corso dello sviluppo attraversa diverse fasi sin dalla meiosi
all'interno delle ovaie del genitore (che poteva essere gallina anch'esso o no) passando per la fase in utero, uovo, alla
schiusa, neonato (pulcino), pollastro ed, infine, gallina! Insomma l'uovo è gallina e la domanda, ridotta ai minimi
termini, si riduce all'enunciato: "è nata prima la gallina o la gallina?".
Risposta scientifica al paradosso
Da un punto di vista strettamente scientifico, la risposta alla domanda da cui scaturisce il paradosso è piuttosto
semplice, e non può essere altro che: "l'uovo". Per comprendere questa risposta, occorre considerare che, da un punto
di vista evoluzionistico, gli uccelli (e dunque anche le galline) derivano da determinati ceppi di rettili, animali a
sangue freddo dotati della capacità di deporre uova. Il diretto predecessore degli uccelli, perciò, deponeva già le
uova, pur non essendo ancora, in senso stretto, un uccello né tanto meno una gallina.
Riformulazioni moderne del paradosso
Una moderna versione del paradosso dell'uovo e della gallina può essere trovata in una questione che fino a
pochissimi anni fa ha occupato gli scienziati genetisti ed evoluzionisti: l'impossibilità di capire se, nei processi che
hanno portato all'origine della vita come noi la conosciamo oggi, sia comparso prima il DNA o prima le proteine. Si
sa, infatti, come il DNA sia il depositario dell'informazione genetica degli esseri viventi, e di come queste
informazioni (costituite da una sequenza di molecole dette basi) siano essenziali per la produzione di proteine,
molecole responsabili della gran parte delle funzioni che sono alla base dei processi conosciuti come "vita". Perché
possa avvenire la produzione di proteine a partire dal DNA, tuttavia, è necessaria la contemporanea presenza di altre
proteine (dette enzimi) senza le quali tale processo, detto traduzione, non può avvenire. Inoltre, in condizioni
normali, il DNA stesso degrada in fretta se non è legato a specifiche proteine, e la sua replicazione è di fatto
impossibile. Per contro, naturalmente, viene da chiedersi come possano esistere le proteine se non sintetizzate in base
alle informazioni codificate nel DNA. Questo paradosso ha impegnato gli scienziati per molti anni, e una possibile
soluzione è giunta solo in tempi recenti, con la scoperta dei ribozimi, molecole di RNA capaci di immagazzinare
informazione genetica al pari del DNA, ma dotate anche di capacità catalitiche proprie degli enzimi. Questa scoperta
Paradosso dell'uovo e della gallina
sembra perciò aver risolto anche questo paradosso, aprendo inoltre la strada alla teoria del mondo a RNA precedente al DNA e alla nascita stessa della vita- una teoria che, seppur convincente, è ancora allo studio da parte
degli scienziati.
Per ragioni evoluzionistiche si potrebbe però sostenere che non si dovrebbe poter parlare di un cambiamento di
specie durante la vita di un individuo: “un particolare organismo non può cambiare specie durante il corso della sua
vita”, ha sostenuto Roy A. Sorensen[2]: ne consegue che la prima gallina sicuramente tale, nata dall’uccello
(gallinaceo) che si è mutato in gallina, è nata da un uovo, il primo della sua specie.
Risposta teologica al paradosso
Da un punto di vista creazionista ebraico-cristiano si può procedere ad un'esegesi letterale degli eventi descritti nella
genesi biblica, comprendendo gli uccelli fra gli esseri creati "il quinto giorno". Poiché la Bibbia non menziona le
uova, ne deriverebbe una creazione degli uccelli in forma già adulta: da un punto di vista creazionista, quindi, il
paradosso ammette un'immediata soluzione, che prevede la "nascita" prioritaria della gallina rispetto all'uovo.
Note
[1] Plutarco, Moralia, libro III.
[2] Roy A. Sorensen, The chicken and Her Egg, Mind, 1992, p. 101
Bibliografia
• Paul Davies, Da dove viene la vita, Arnoldo Mondadori Editore, Milano, 2000.
Voci correlate
• Paradosso
• Retroazione (natura)
138
Paradosso della linea scomparsa
139
Paradosso della linea scomparsa
Il paradosso della linea scomparsa è un paradosso geometrico per cui una linea sembra scomparire nel nulla.
Si consideri l'immagine seguente:
Nella parte superiore sono tracciate dieci
linee verticali. Si tagli il foglio secondo la
linea tratteggiata e lo si ricomponga come
nella figura inferiore. Ora le linee sono
diventate nove.
Soluzione
Il paradosso è facilmente superabile
constatando che la lunghezza della linea
scomparsa si è suddivisa equamente tra le
altre linee che sono ora più lunghe. È anche
da notare che la prima e l'ultima linea del
disegno superiore non vengono affatto
tagliate.
Varianti
Esistono molte varianti di questo paradosso, a
volte rese più spettacolari grazie a
rappresentazioni di oggetti che scompaiono.
Un simile trucco, applicato al contrario, è
utilizzato per falsificare le banconote. Da
dieci banconote è possibile ottenerne undici
leggermente più corte. La ripetizione del numero di serie su due angoli estremi delle banconote ha la funzione di
prevenire questo trucco. Occorre sempre verificare che i due numeri corrispondano, in particolare se la banconota è
stata riparata con nastro adesivo.
Paradosso della nave di Teseo
Paradosso della nave di Teseo
Il Paradosso della nave di Teseo esprime la questione metafisica dell'effettiva persistenza dell'identità originaria,
per un'entità le cui parti cambiano nel tempo; in altre parole, se un tutto unico rimane davvero se stesso (oppure no)
dopo che, col passare del tempo, tutti i suoi pezzi componenti sono cambiati (con altri uguali o simili).
Si narra che la nave in legno sulla quale viaggiò il mitico eroe greco Teseo fosse conservata intatta nel corso degli
anni, sostituendone le parti che via via si deterioravano. Giunse quindi un momento in cui tutte le parti usate in
origine per costruirla erano state sostituite, benché la nave stessa conservasse esattamente la sua forma originaria.
Ragionando su tale situazione (la nave è stata completamente sostituita, ma allo stesso tempo la nave è rimasta la
nave di Teseo), la questione che ci si può porre è: la nave di Teseo si è conservata oppure no? Ovvero: l'entità (la
nave), modificata nella sostanza ma senza variazioni nella forma, è ancora proprio la stessa entità? O le somiglia
soltanto?
Tale questione si può facilmente applicare a innumerevoli altri casi; per esempio alla scrupolosa conservazione di
alcuni antichi templi giapponesi (anch'essi principalmente in legno, come la nave di Teseo), per i quali ci si può
domandare se siano ancora templi originali.
Si può anche rivolgere il paradosso riguardo all'identità della nostra stessa persona, che nel corso degli anni cambia
ampiamente, sia nella sostanza che la compone sia nella sua forma, ma nonostante ciò sembra rimanere quella stessa
persona.
Voci correlate
• Elenco di paradossi
• Ontologia (accezione filosofica)
• Usiologia
140
Paradosso della votazione
Paradosso della votazione
Il Teorema dell'impossibilità di Arrow, o semplicemente teorema di Arrow, è un teorema formulato nel 1951 dal
Premio Nobel per l'economia Kenneth Arrow nel libro Social Choice and Individual Values. Esso dice che, dati i
requisiti, spiegati più avanti, di universalità, non imposizione, non dittatorialità, monotonicità, indipendenza
dalle alternative irrilevanti, non è possibile determinare un sistema di votazione che preservi le scelte sociali. Lo
scopo era trovare una qualsiasi procedura di decisione collettiva che potesse soddisfare alcuni requisiti ragionevoli
per una scelta non arbitraria. Un esempio di una procedura che non può soddisfare tutti i requisiti considerati da
Arrow è il sistema di voto maggioritario come mostrato dal paradosso di Condorcet. Il paradosso di Condorcet
mostra come la votazione a maggioranza, usata nella democrazia rappresentativa, può condurre a delle scelte
ambigue: partendo dalle preferenze individuali, si vuole arrivare ad una preferenza collettiva pure coerente (se A è
preferito a B, e B è preferito a C, allora A deve essere preferito a C). Come detto, il paradosso di Condorcet mostra
che ciò non è sempre il caso per le preferenze collettive. Jean-Charles de Borda ha proposto un'altra procedura, detta
conteggio di Borda, che consiste nell'attribuire dei punti e fare la somma, la quale non ha questo difetto, ma il
teorema di Arrow ci dice che ci deve essere un requisito che non è soddisfatto: l'indipendenza dalle alternative
irrivelanti. In italiano il nome del teorema non è ambiguo, mentre in inglese si preferisce la versione estesa per
evitare confusione con un ipotetico teorema della freccia. La dimostrazione del teorema comporta,
sorprendentemente, l'impossibilità di soddisfare simultaneamente tutti i requisiti considerati da Arrow.
Illustrazione ed enunciato del teorema
Si ipotizzi che una società necessiti di adottare un ordine di preferenze tra diverse opzioni. Ciascun individuo della
società ha un proprio ordine di preferenza, che può esprimere per esempio tramite un voto. Il problema è quello di
trovare una procedura (per esempio un sistema di voto), più in generale chiamato una funzione di scelta pubblica,
che trasformi l'insieme delle preferenze individuali in un ordinamento globale coerente. Il teorema considera le
seguenti proprietà, che Arrow ipotizza rappresentare requisiti ragionevoli per un sistema di voto equo:
• Universalità (o dominio non ristretto): la funzione di scelta sociale dovrebbe creare un ordinamento delle
preferenze sociali deterministico e completo, a partire da qualsiasi insieme iniziale di preferenze individuali;
• Non imposizione (o sovranità del cittadino): qualsiasi possibile preferenza sociale deve essere raggiungibile a
partire da un appropriato insieme di preferenze individuali (ogni risultato deve poter essere raggiunto in qualche
maniera);
• Non dittatorialità: la funzione di scelta sociale non deve semplicemente seguire l'ordinamento delle preferenze di
un individuo o un sottoinsieme di individui, al contempo ignorando le preferenze degli altri;
• Monotonicità, o associazione positiva tra i valori individuali e sociali: se un individuo modifica il proprio
ordinamento di preferenze promuovendo una data opzione, la funzione di scelta sociale deve promuovere tale
opzione o restare invariata, ma non può assegnare a tale opzione una preferenza minore (nessun individuo
dovrebbe essere in grado di esprimersi contro un'opzione assegnandole una preferenza maggiore);
• Indipendenza dalle alternative irrilevanti: se si confina l'attenzione ad un sottoinsieme di opzioni, e la funzione di
scelta sociale è applicata ad esse soltanto, il risultato deve essere compatibile con il caso in cui la funzione di
scelta sociale è applicata all'intero set di alternative possibili.
Il teorema di Arrow afferma che se il gruppo di cittadini votanti comprende almeno due individui e l'insieme delle
alternative possibili almeno tre opzioni, non è possibile costruire una funzione di scelta sociale che soddisfi al
contempo tutti i requisiti sopra enunciati.
Secondo una versione alternativa del teorema di Arrow, il requisito di monotonicità è rimpiazzato da:
• unanimità (o criterio paretiano, o efficienza paretiana): se ogni singolo individuo preferisce una certa opzione A
all'opzione B, allora A deve essere preferita a B anche da parte della funzione di scelta sociale.
141
Paradosso della votazione
142
Tale formulazione è più restrittiva, in quanto ipotizzare sia la monotonicità che l'indipendenza dalle alternative
irrilevanti implica l'efficienza paretiana. Va tuttavia detto che la teoria paretiana dell'efficienza nel liberismo è stata
falsificata dal premio Nobel per l'Economia Amartya Sen.
Formulazione logica
Facciamo le seguenti ipotesi. Siano V l'insieme dei voti, A e B i candidati. Per semplicità, consideriamo il caso senza
schede nulle o bianche e senza possibilità di pareggio (casi che sono sempre riconducibili a questo eliminando da V i
voti nulli o in bianco, e ricorrendo eventualmente al ballottaggio). Detto VA l'insieme dei voti per A, risulta
completamente determinato VB, in quanto non è altro che il complementare, VB = V - VA . Un'altra ipotesi è che se
VA è sufficiente ad A per vincere, egli vince anche se prende più voti. Nelle votazioni a maggioranza, il minimo di
tali insiemi di voti è la metà più uno di V. Ogni insieme che permetta la vittoria di un candidato (poniamo A) è detto
insieme decisivo. Chiamiamo
l'insieme degli insiemi decisivi a favore di A.
In termini matematici abbiamo postulato che, detto X un insieme decisivo per A su V:
1. Se X è contenuto in Y, allora Y appartiene ad
2. Ogni voto sta in X o nel suo complementare.
3. O X o il suo complementare è decisivo.
.
Queste proprietà sono molto vicine a quelle di un filtro su V, mancando solamente quella della chiusura rispetto
all'intersezione. Mostreremo dunque che l'ipotesi della monotonicità, ossia che se A vince su B, e B vince su C,
allora A vince su C, è equivalente alla chiusura rispetto all'intersezione degli insiemi decisivi di V.
Quanto sopra è l'enunciato del teorema.
Dimostrazione
Supponiamo che
non sia decisivo. Allora, per la proprietà 3, lo è il suo complementare
.
Quindi, se X fa vincere A su B, e Y B su C, vediamo come ogni votante esprimerebbe le sue preferenze:
1. per ogni elettore di
A vince su B, e B su C (ABC)
2. per ogni elettore di
3. per ogni elettore di
4. per ogni elettore di
B su C, e B su A (BCA)
C su B, e A su B (CAB)
C su B, e B su A (CBA)
Allora A vince su B perché X è decisivo, B vince su C perché è decisivo Y e C vince su A perché
è
decisivo. Quindi abbiamo il paradosso di Condorcet. Viceversa, dato un qualunque ordine delle prefenze, siano X, Y
e Z rispettivamente i votanti che preferiscono A a B, B a C ed A a C. Tutti e tre sono decisivi. Vediamo ora che ogni
votante di
preferisce A a B, e B a C, e poiché l'ordine individuale è lineare, A a C. Dunque
.
E dunque, poiché
è decisivo, lo è anche Z.
Per le proprietà viste prima, gli insiemi decisivi che rispettano la chiusura rispetto all'intersezione formano un
ultrafiltro, e dato che l'insieme dei votanti è, per fortuna, finito, anche un filtro principale. Esiste, dunque, un singolo
votante, che Arrow chiama il dittatore, che da solo determina il risultato della votazione: egli è l'intersezione di tutti
gli insiemi decisivi. Quindi, con le ipotesi che abbiamo fatto, delle due l'una: o accettiamo il paradosso di Condorcet,
e quindi l'esito delle votazioni dipende dall'ordine in cui vengono effettuate, oppure in un sistema che esclude questa
possibilità, ogni insieme decisivo comprende un dittatore, ossia un votante che da solo determina il risultato della
votazione. Entrambe le possibilità sono in contrasto con l'idea istintiva di democrazia rappresentativa, che è quindi
matematicamente impossibile. Contrariamente a quanto possa sembrare, sono possibili alternative che consentano ad
una Costituzione di attuare una democrazia rappresentativa senza il paradosso di Condorcet, però queste forme
devono necessariamente rinunciare ad una o più delle ipotesi viste in precedenza. Data la semplicità delle ipotesi di
partenza, e la complessità della spiegazione del perché sono inaccettabili, è arduo ipotizzare che sia possibile far
varare una legge elettorale conforme alle soluzioni prospettate.
Paradosso della votazione
Interpretazioni
Il teorema di Arrow è un risultato matematico, ma è spesso espresso in termini non matematici, con affermazioni
come: nessun sistema di voto è equo, qualunque sistema di voto può essere manipolato, o il solo sistema di voto non
manipolabile è la dittatura. Queste affermazioni rappresentano semplificazioni del risultato di Arrow che non si
possono considerare universalmente vere.
Arrow usa il termine fair (equo) con riferimento ai suoi criteri. In effetti alcuni di essi, quali l'ottimo paretiano o la
richiesta di assenza di imposizioni, possono apparire banali. Non così, ad esempio, per il criterio dell'indipendenza
dalle alternative irrilevanti. Si consideri il seguente esempio: Dave, Chris, Bill e Agnes concorrono per uno stesso
posto di lavoro; si supponga che Agnes abbia un chiaro vantaggio rispetto agli altri concorrenti. Ora, in base al
risultato di Arrow, si potrebbe avere una situazione in cui, se Dave si ritira, Bill, e non Agnes, ottiene il posto. Ciò
potrebbe apparire non equo a molti; tuttavia il teorema di Arrow implica che situazioni di questo tipo non possono in
generale essere evitate.
Diversi teorici, e non, hanno proposto di rilassare, ossia rendere meno restrittivo, il criterio dell'indipendenza dalle
alternative irrilevanti al fine di risolvere il paradosso. I fautori di sistemi di voto basati su ordinamenti delle
alternative affermano che il criterio sarebbe restrittivo senza ragione, e che non troverebbe applicazione nella
maggioranza delle situazioni concrete. In effetti, tale criterio è escluso da diversi meccanismi di voto di comune
impiego, così come in generalizzazioni quali il metodo di Borda.
Il teorema di Gibbard-Satterthwaite, un tentativo di rilassare le condizioni che portano al risultato di Arrow,
sostituisce al criterio dell'indipendenza dalle alternative irrilevanti un criterio di non-manipolabilità. Il teorema,
tuttavia, giunge alle stesse conclusioni (paradossali) di Arrow, dimostrando così l'equivalenza tra il criterio
dell'indipendenza dalle alternative irrilevanti e la non-manipolabilità.
In conclusione, il teorema di Arrow mostra che il voto è un gioco non banale, e che la teoria dei giochi potrebbe
essere impiegata per predire l'esito della maggior parte dei meccanismi di voto. Ciò potrebbe essere interpretato
come un risultato scoraggiante, dal momento che un gioco non ha necessariamente un equilibrio efficiente (o
desiderabile dal punto di vista sociale). L'alternativa sarebbe di traslare i risultati ottenuti da Sen nel campo
dell'economia, al campo della politica elettorale, che però richiedono di rilassare una delle condizioni viste all'inizio.
Conseguenze
Nel 1970, applicando lo stesso principio di Arrow, il Premio Nobel per l'economia Amartya Sen ha mostrato
l'impossibilità matematica del liberismo paretiano. Tramite una generalizzazione del metodo ad insiemi di vettori ad
n dimensioni, l'economista Herbert Scarf ha mostrato nel 1962 l'inesistenza della mano invisibile per mercati con più
di due beni i cui prezzi siano interdipendenti. Il risultato di Arrow rappresenta uno dei primi approcci alle scienze
sociali tramite il formalismo matematico; tramite questo e altri lavori Kenneth Arrow ha contribuito
significativamente all'evoluzione dell'economia politica nel corso del XX secolo nella direzione di un maggior rigore
matematico.
143
Paradosso della votazione
Voci correlate
•
•
•
•
•
•
Amartya Sen
Mano invisibile
Paradosso
Paradosso di Condorcet
Teorema di Gibbard-Satterthwaite
Teorema di May
Bibliografia
• Arrow, K.J., A Difficulty in the Concept of Social Welfare [1], Journal of Political Economy, 58, 328–346, 1950
• Arrow, K.J., Social Choice and Individual Values, Yale University Press, 1951, ISBN 0300013647. Liberamente
scaricabile da [2], sia la versione del 1951 che del 1963.
• Ed. Italiana: "Scelte sociali e valori individuali", Etas, 2003, ISBN 8845312224
• MacKay, A.F., Arrow's Theorem: The Paradox of Social Choice, Yale University Press, New Haven, 1980
• Odifreddi, P., C'era una volta un paradosso - storie di illusioni e verità rovesciate, Einaudi, 2001, ISBN
8806150901
• Scarf, H.E., An analysis of markets with a large number of participants [3], 1962, Princeton University
Conference Paper. Presente in Recent Advances in Game Theory, Philadelphia, The Ivy Curtis Press, 1962
• Sen, A.K. "The Impossibility of a Paretian Liberal", Journal of Political Economy, n. 78, 1970, pp 152-157.
Collegamenti esterni
•
•
•
•
Three Brief Proofs of Arrow’s Impossibility Theorem [4]
Discussion of Arrow’s Theorem and Condorcet’s method [5]
The Solution to Arrow's problem [6]
Sito personale [7] di Herbert Scarf
Note
[1]
[2]
[3]
[4]
[5]
[6]
[7]
http:/ / gatton. uky. edu/ Faculty/ hoytw/ 751/ articles/ arrow. pdf
http:/ / cowles. econ. yale. edu/ P/ cm/ cfmmain. htm
http:/ / cowles. econ. yale. edu/ ~hes/ pub/ analysis. pdf
http:/ / ideas. repec. org/ p/ cwl/ cwldpp/ 1123r3. html
http:/ / www. electionmethods. org/ Arrow. htm
http:/ / econwpa. wustl. edu:8089/ eps/ get/ papers/ 9707/ 9707001. html
http:/ / cowles. econ. yale. edu/ ~hes/
144
Paradosso delle due buste
Paradosso delle due buste
Il paradosso delle due buste deriva da un ragionamento logico-matematico, apparentemente ineccepibile, che
dimostra che, tra due buste di valore diverso, ma dichiarate esternamente indistinguibili, una volta scelta una delle
due conviene comunque cambiarla.
In realtà, come è intuitivo, il guadagno atteso da uno scambio delle buste all'ultimo momento dovrebbe essere
mediamente nullo, ma, nella situazione prospettata, risulta piuttosto sottile individuare se sia fallace l'enunciato, il
ragionamento logico o l'intuito.
L'analisi di questo paradosso richiama l'attenzione sulla valutazione non sempre banale della probabilità
condizionata e sui limiti dell'ipotesi di equiprobabilità per eventi con cause sconosciute.
Situazione
In un ipotetico gioco a premi, al concorrente vengono presentate due buste chiuse, ciascuna contenente l'indicazione
di un premio in denaro, che il concorrente riceverà, se la sceglie. È noto che il valore indicato in una busta è
esattamente il doppio di quello dell'altra, ma non si sa quale delle due contenga il premio maggiore.
Il concorrente può ottenere il premio di una sola busta, ma gli viene data la possibilità di effettuare la scelta
definitiva anche dopo aver aperto a suo piacere una busta ed averne visto il valore.
Paradosso
• Sembra evidente che:
1. non c'è differenza nella scelta dell'una o dell'altra busta, prima dell'apertura.
2. la conoscenza del valore di una busta non aggiunge informazioni alla domanda se questo sia maggiore o
minore dell'altro.
Quindi non c'è alcun motivo per preferire l'una o l'altra busta, prima di averle aperte entrambe.
• Tuttavia, applicando la teoria delle decisioni, si giunge alla conclusione paradossale che sia sempre conveniente
scegliere l'altra busta.
Infatti, se nella busta che si sceglie di aprire per prima è contenuto, diciamo, un premio di valore A, nell'altra
busta sarà contenuto un premio di valore A/2, oppure un premio di valore 2A.
In caso di cambio: se andasse male, si dimezzerebbe il premio (perdita=A/2) ma, se andasse bene, si
raddoppierebbe (guadagno=A).
Sulla base delle informazioni a nostra disposizione nessuna delle due eventualità - che si perda A/2 o che si
vinca A - appare favorita rispetto all'altra, dunque la strategia più ragionevole sembrerebbe quella di
considerare entrambe le opzioni equiprobabili, con probabilità 1/2 e 1/2.
Quindi conviene certamente tentare la sorte, e scegliere di cambiare la busta, vista la netta differenza tra
possibile guadagno e possibile perdita.
In termini matematici, se calcoliamo il guadagno atteso che si ha cambiando busta (probabilità di guadagnare
moltiplicata per il valore del guadagno, meno probabilità di perdere moltiplicata per il valore della perdita),
otteniamo:
una quantità che è positiva per qualsiasi valore di A.
Concludiamo che conviene sempre cambiare busta, a prescindere dal valore che troviamo in quella scelta per prima
(e quindi anche senza averci guardato dentro!). Ciò che sembra palesemente assurdo.
145
Paradosso delle due buste
Se è davvero assurda l'affermazione che conviene sempre cambiare, rimane il problema di individuare la fallacia
dell'argomentazione appena presentata.
Soluzione
Il ragionamento si basa sulle due condizioni:
1. probabilità del 50% per il caso favorevole e altrettanto per quello contrario;
2. conoscenza del valore del premio contenuto in una busta.
Queste assunzioni sarebbero entrambe corrette di per sé, ma non lo sono contemporaneamente.
Infatti si riferiscono a due casi ben distinti:
Caso 1 - buste chiuse, nessun paradosso
• Chiamiamo X il premio minore e Y il premio maggiore. I valori non sono noti, ma sappiamo che Y vale il doppio
di X (Y = 2X) e che sono distribuiti in modo equiprobabile tra le due buste.
Se si apre prima la busta con X, cambiando si troverebbe Y (=2X), con un guadagno pari a Y-X=X.
Se si apre prima la busta con Y, cambiando si troverebbe X, stavolta con un perdita netta pari a Y-X=X .
Si vede dunque il guadagno e la perdita sono uguali ed equiprobabili, come intuitivamente doveva essere.
Tornando al ragionamento iniziale del paradosso, bisogna tener presente che il valore A, trovato all'apertura
della prima busta, vale una volta X e una volta Y, a seconda di quale busta si sia scelta per prima.
È sbagliato quindi dire che una perdita pari ad A/2 (quando si cambia dopo aver aperto prima la busta col
valore maggiore, e A=Y=2X) sia diversa da un guadagno pari ad A (quando si cambia dopo aver aperto prima
la busta col valore minore, e A=X). In realtà la perdita in un caso è uguale al guadagno nel caso opposto.
Caso 2 - una busta aperta
• chiamiamo A il valore trovato nella busta aperta. Stavolta la vincita può essere solo A e la perdita solo A/2. Ma
non possiamo più affermare con certezza che la probabilità tra i due casi sia la stessa.
Essa dipende fortemente dal valore di A, in relazione alla distribuzione di probabilità dei premi possibili.
Intuitivamente potremmo dire che, se abbiamo trovato un premio alto, ci conviene accontentarci e, se abbiamo
trovato un premio basso, ci conviene tentare l'altra busta.
In altre parole, tutto dipende dal criterio con cui sono stati scelti i premi da inserire nelle buste e da quale sia il
premio massimo possibile.
Premio massimo definito
Supponiamo, ad esempio, che il premio maggiore nella buste sia stato scelto a caso (con uguale probabilità) tra zero
e 2 milioni, come valore massimo. Di conseguenza il premio minore sarà compreso tra zero e un milione, con la
stessa distribuzione di probabilità.
In queste condizioni, se il valore A trovato nella prima busta è inferiore ad un milione abbiamo una buona
probabilità di guadagnare nel cambio (guadagno medio atteso pari ad A/2, con A che vale mediamente mezzo
milione)[1].
Ma, ovviamente, avremmo la certezza di una perdita, se cambiassimo quando A è maggiore di un milione (guadagno
medio atteso pari a "meno A/2", con A che in questo caso vale mediamente un milione e mezzo = 3/2 di milione) !
Se decidessimo di cambiare in ogni caso, ci accorgeremmo che, a conti ben fatti, il valore atteso del guadagno
sarebbe esattamente zero. Infatti, calcolando correttamente il valore della perdita per la probabilità di perdere, si
trova un risultato uguale al valore del guadagno per la probabilità di vincere. (C'è infatti una probabilità 3/4[2] di
trovare un valore compreso tra zero e un milione, con guadagno medio di 1/4 di milione, e una probabilità 1/4[2] di
146
Paradosso delle due buste
trovare un valore compreso tra un milione e due milioni, con perdita media di 3/4 di milione)
Anche in questo caso il paradosso scompare. Il ragionamento iniziale non è applicabile, in quanto non tiene conto
del limite massimo dei premi né della conseguente diversa probabilità di aver scelto per prima la busta col premio
maggiore o col premio minore.
Nessun limite al premio
Se non stabiliamo il valore massimo del premio, implicitamente ammettiamo che esso possa diventare teoricamente
infinito. Conservando l'ipotesi che i premi siano stati scelti a caso, con distribuzione uniforme (l'unica che possiamo
ipotizzare in mancanza di altre indicazioni), resta matematicamente valida la conclusione che conviene cambiare
solo se il valore trovato nella prima busta è inferiore alla metà del massimo e che non conviene in caso contrario.
Ma questa volta, se il massimo è infinito, anche la metà del massimo è infinita e, siccome i confronti tra grandezze
infinite non seguono esattamente le regole dei confronti tra grandezze finite, il paradosso rimane e può essere
spiegato semplicemente ricordando che spesso l'infinito si comporta in modo paradossale[3] o meglio, in modo
contro-intiuitivo.
In questo caso, ad esempio, qualunque valore (finito) trovassimo nell'aprire la prima busta, esso sarebbe certo
inferiore alla metà del massimo (infinito) e quindi avremmo (sempre) buone probabilità di guadagnare nel cambio.
Nella pratica non possiamo mai immaginare di trovare una busta con dentro un valore infinito, né avrebbe senso
stabilire se tale valore (infinito) sia minore o maggiore della metà del massimo (anch'esso infinito). Perciò
trascuriamo completamente di conteggiare il peso di queste eventualità teoriche, e concludiamo che conviene sempre
cambiare.
Invece anche in questo caso, a conti ben fatti, la scelta di cambiare 'sempre' comporta un guadagno atteso nullo, se si
mette debitamente in conto il peso di perdite (o guadagni) infiniti.
Cenno storico
Una formulazione analoga a questo paradosso risale almeno al 1953, quando un matematico belga, Maurice
Kraitchik, propose questo rompicapo:
Due persone, ugualmente ricche arrivano a confrontare il contenuto dei loro portafogli, di cui nessuno dei due
conosce il contenuto esatto. Impostano il gioco in questi termini: chi ha meno denaro nel portafoglio riceverà tutto il
denaro del portafoglio dell'altro (niente accade, se i due valori sono uguali).
Uno dei due può così ragionare: Supponiamo che ho una quantità A nel mio portafoglio: questo è il massimo che
potrei perdere. Se invece vinco (probabilità 0,5), alla fine avrò nel mio portafoglio un valore certamente maggiore
di 2A. Quindi il gioco è favorevole a me.
L'altro può ragionare esattamente allo stesso modo. In effetti, per simmetria, il gioco è pari. Dov'è dunque l'errore
nel ragionamento di ciascun uomo?
Martin Gardner ha reso popolare il rompicapo nel suo libro del 1982 Aha! Gotcha, sempre nella forma di scommessa
sul portafoglio. Nel 1989 Barry Nalebuff lo ha presentato nella forma delle due buste e, da allora, questa è la forma
più comunemente usata.
147
Paradosso delle due buste
Approfondimenti matematici
Caso 1
Prima di aprire le buste, è corretto assegnare ad una busta il 50% di probabilità di contenere il premio maggiore (o
minore).
Si corre però il rischio di sbagliare, se si assegna al premio un valore X, e se si ragiona una volta come se questo X
fosse il premio maggiore, ma subito dopo come se lo stesso X fosse il premio minore.
Si può comunque evitare l'analisi della variabile stocastica X, semplicemente assegnando alle due buste valori di
premio pari a X e a 2X. Questa assegnazione, valida qualunque sia la distribuzione di probabilità dei premi, permette
di definire correttamente la differenza tra le due buste.
Tale differenza, nel caso di scambio, corrisponde alla perdita a cui si va incontro, se la prima busta contiene il valore
maggiore, ma anche al guadagno che si ottiene, se la prima busta contiene il valore minore.
Caso 2
Supponendo di conoscere il valore del premio contenuto in una busta, e volendo tener conto di come questa
informazione possa influire sulla decisione di cambiare, diventa indispensabile formulare un'ipotesi sulla
distribuzione di probabilità con cui siano stati scelti i premi nelle buste.
Con qualche passaggio matematico si dimostrare che, in ogni caso, qualunque sia questa distribuzione, il cambio
comporta un guadagno atteso nullo.
Distribuzione uniforme
• Sappiamo che ad ogni valore Y, che possa essere inserito nella busta di valore maggiore, è associato un valore
X=Y/2 che deve essere inserito nella busta di valore minore.
• Chiamiamo x il valore minore e y il valore maggiore contenuti nella coppia di buste in gioco.
Possiamo supporre che y sia stato scelto a caso da una distribuzione uniforme tra un minimo m e un massimo M.
Chiamiamo p(y) questa distribuzione di probabilità.
Di conseguenza x risulta scelto a caso in un intervallo metà, da m/2 a M/2, con una distribuzione uniforme di valore
doppio
p(x)= 2p(y).
• Dunque il valore A che troveremo nella prima busta avrà probabilità:
1.
2.
3.
4.
p(x) (m-m/2) di appartenere alla classe delle x, nell'intervallo da m/2 a m. - Nello scambio si guadagna A.
p(x) (M/2-m) di appartenere alla classe delle x, nell'intervallo da m a M/2. - Nello scambio si guadagna A.
p(y) (M/2-m) di appartenere alla classe delle y, nell'intervallo da m a M/2. - Nello scambio si perde A/2.
p(y) (M-M/2) di appartenere alla classe delle y, nell'intervallo da M/2 a M. - Nello scambio si perde A/2.
Per normalizzare, in modo che la probabilità complessiva sia uguale a 1, deve essere uguale a 1 la somma dei quattro
casi:
p(x) m/2 + p(x) (M/2-m) + p(y) (M/2-m) + p(y) M/2 = 1
p(y) ( m + 2(M/2-m) + (M/2-m) + M/2 ) = 1
Cioè:
• Nei quattro casi si ottengono dunque i seguenti valori medi di guadagno atteso dallo scambio (valore medio
dell'intervallo, moltiplicato per la probabilità dell'intervallo stesso):
148
Paradosso delle due buste
1.
2.
3.
4.
149
+A(medio)= 1/2(m+m/2), con probabilità p(x)m/2, cioè
+A(medio)= 1/2(M/2+m), con probabilità p(x)(M/2-m), cioè
-A/2(medio)= -1/4(M/2+m), con probabilità p(y)(M/2-m), cioè
-A/2(medio)= -1/4(M+M/2), con probabilità p(y)M/2, cioè
• Sommando i quattro casi, si vede che il guadagno atteso complessivo è esattamente nullo. Più in dettaglio, esso è
positivo per A minore di m (caso 1) e per A compreso tra m e M/2 (caso 2 + caso 3), ma è negativo per A
maggiore di M/2.
• Questo risultato può essere esteso senza problemi al caso in cui il minimo m diventi piccolo fino allo zero,
annullando il primo intervallo.
• Ancora, il risultato di guadagno nullo rimane valido anche al caso in cui M diventa grande a piacere, fino
all'infinito.
• In questo ultimo caso però, si perde il significato dell'intervallo 4, da 1/2 infinito a infinto. Se non si passa prima
dall'analisi di M finito, facilmente si è indotti a trascurare l'influenza di questo intervallo e si perde la possibilità
di spiegare l'origine del paradosso.
Una caratteristica fastidiosa della distribuzione uniforme è che, quando l'intervallo M diventa infinito, la probabilità
di qualunque valore diventa evanescente.
Ancora, quando l'intervallo M diventa infinito, il premio mediamente atteso dall'apertura di una busta diventa esso
stesso infinto. È questo un altro aspetto importante, che spiega come mai possa sembrare vantaggioso cambiare
sempre. Qualunque sia il valore (finito) che si trovi nella prima busta, esso apparirà sempre al di sotto della media
attesa.
Altre distribuzioni
Per superare i problemi di probabilità evanescenti e di premi infiniti, sono state analizzate distribuzioni di probabilità
decrescenti per premi elevati.
Se la distribuzione di probabilità p(y) diminuisce, al crescere di y, più rapidamente di 1/y, diventa possibile
normalizzare a 1 la probabilità complessiva, dividendo per l'integrale da zero a infinito di p(y)dy, che in questo caso
non è infinito.
Rimarrebbe però ancora infinito il premio medio atteso, a meno che la distribuzione di probabilità non diminuisca, al
crescere di y, più rapidamente di
.
In quest'ultimo caso il confronto tra la probabilità che un valore A, trovato nella prima busta, sia la metà di un
valore, diciamo y=2A, contenuto nella seconda busta (per cui converrebbe cambiare), e la probabilità
contraria, che si tratti invece del doppio di un valore, diciamo x=A/2, contenuto nella seconda busta (per cui
non converrebbe cambiare), è così sfavorevole che non risulta mai conveniente cambiare.
In tutti i casi, compresi quello della distribuzione uniforme e quello delle distribuzioni a media infinita, il valore
atteso del guadagno medio è sempre esattamente zero.
Per la dimostrazione analitica, conviene partire assegnando due simboli diversi alla probabilità
posto nelle buste un premio (di valore maggiore) compreso tra
posto nelle buste un premio (di valore minore) compreso tra
Ovviamente, quando
. , deve essere
La probabilità di trovare un valore
e
e
, e alla probabilità
, che venga
, che venga
. Siano:
. Cioè:
nella prima busta è data dalla somma della probabilità
valore minore (e quindi si guadagna z nel cambio), più la probabilità
, che
, che
sia il
sia il valore maggiore (e
Paradosso delle due buste
150
quindi si perde z/2 nel cambio). Complessivamente il guadagno atteso nel cambio vale:
.
Si vede dunque che il guadagno è positivo quando
, cioè quando la probabilità a priori che
venga scelto un certo valore di premio è più di quattro volte la probabilità che venga scelto un valore doppio.
Nei casi in cui questa condizione non è rispettata, per esempio, con una funzione del tipo
o, in modo più netto, quando esiste un valore massimo M del premio possibile, e è
compreso tra M/2 e M, non conviene cambiare e il paradosso non si pone.
Negli altri casi ci troviamo invece nella situazione paradossale, o meglio contro intuitiva, che il guadagno è positivo
per ogni valore di , ma la somma integrale dei guadagni attesi, estesa da zero infinito, è nulla. Infatti:
Ponendo w=2z e dw=2dz:
che vale esattamente zero, qualunque sia la distribuzione di probabilità
.
Note
[1] Riferendici al caso ipotizzato, la probabilità che come premio maggiore sia stato scelto proprio il valore generico A è pari a 1 su due milioni.
Analogamente, la probabilità che un valore generico A (minore di un milione) appartenga alla classe dei premi minori è pari a 1 su un milione.
In altre parole, un valore A inferiore al milione ha probabilità doppia di essere un premio "minore", rispetto alla probabilità di essere un
premio "maggiore" (ovviamente un valore A superiore al milione sarebbe certamente un premio "maggiore").
Se dunque A è minore di un milione, decidendo di cambiare, si hanno 2 probabilità di raddoppiare (guadagnare un altro A), e 1 probabilità di
dimezzare la vincita (perdere A/2). Cioè si ottiene 'mediamente' un guadagno pari a (2/3 A - 1/3 A/2)= A/2.
[2] Il calcolo è facilmente verificabile fissando l'attenzione solo su premi di valore intero. Così avremmo un milione di buste con i premi minori
(da uno a un milione), collegate ad altrettante buste con i premi doppi (da due a due milioni). Di queste ultime buste, una metà conterrebbe
ovviamente valori inferiori al milione e una metà valori superiori. In totale ci sarebbero un milione e mezzo di buste con valore inferiore al
milione e mezzo milione di buste con valore superiore. Quindi, aprendo la prima busta a caso, avremo 3 possibiltà su quattro di trovare un
valore inferiore al milione e una probabilità su quattro di trovarne uno superiore.
[3] Un semplice esempio di comportamento 'paradossale' dell'infinito può essere derivato dal paradosso di Galileo. Quanti sono i numeri pari,
rispetto al totale dei numeri naturali?
Si potrebbe dire che sono la metà del totale, dato che nella sequenza naturale si alternano con i numeri dispari. Ma, pensandoci bene, la totalità
dei numeri pari non può essere inferiore alla totalità dei numeri interi: infatti per ogni numero intero esiste il suo doppio, che è pari.
Evidentemente per l'infinito non valgono le regole ordinarie.
Voci correlate
•
•
•
•
•
Calcolo di probabilità condizionata
Paradosso delle tre carte
Problema di Monty Hall - Può una capra far aumentare la probabilità di vincere un'automobile?
Paradossi dell'infinito - Non valgono le regole degli insiemi finiti
Paradosso di San Pietroburgo - Conviene scommettere su una vincita infinita, con probabilità infinitesima di
vincere?
• Paradosso di Bertrand - Quante sono le corde che tagliano un cerchio?
• Paradosso del quiz
Paradosso delle tre carte
Paradosso delle tre carte
Viene detto paradosso delle tre carte un classico problema del calcolo delle probabilità che pur nella sua semplicità
ha una soluzione abbastanza controintuitiva: ci sono tre carte, delle quali la prima (A) è rossa su entrambi i lati, la
seconda (B) su un lato è rossa e sull'altro è bianca e la terza (C) è bianca su entrambi i lati. Ponendo su un tavolo una
delle tre carte, scelta a caso, ottengo che il lato visibile è di colore rosso. Qual è la probabilità che anche il lato non
visibile sia di colore rosso?
La risposta intuitiva porta solitamente a rispondere che la probabilità ricercata sia pari al 50%, in quanto solo due
carte (la A e la B) possono mostrare il colore rosso e solo una di queste (la A) può mostrare anche sull'altro lato il
colore rosso; tuttavia si dimostra che la risposta giusta è 2/3.
Soluzione
Ci sono in tutto 6 facce, delle quali 3 sono rosse e 3 sono bianche. Denominiamo 1 e 2 le due facce che appartengono
alla carta rossa su entrambi i lati; denominiamo 3 la faccia rossa della carta rossa su un lato e bianca sull'altro. È
possibile che la faccia visibile all'inizio del gioco sia 1, 2 o 3, con uguale probabilità. Su tre possibili casi, due
comportano che la faccia non visibile sia rossa: 1 e 2. Pertanto la probabilità che il lato non visibile sia rosso è di 2/3.
L'intuizione suggerisce la risposta sbagliata perché porta a non distinguere le facce 1 e 2 come eventi distinti.
Dimostrazione assiomatica o frequentista
Estraendo una carta e posandola sul tavolo si possono verificare i seguenti sei casi equoprobabili, che possono
capitare in maniera egualmente frequente
1.
2.
3.
4.
5.
6.
lato visibile = Aa = rosso, lato nascosto = Ab = rosso
lato visibile = Ab = rosso, lato nascosto = Aa = rosso
lato visibile = Ba = rosso, lato nascosto = Bb = bianco
lato visibile = Bb = bianco, lato nascosto = Ba = rosso
lato visibile = Ca = bianco, lato nascosto = Cb = bianco
lato visibile = Cb = bianco, lato nascosto = Ca = bianco
escludendo gli ultimi tre casi in quanto il lato visibile è bianco, rimangono tre casi dove il lato visibile è rosso, due
dei quali nascondono un lato anch'esso rosso, dunque la probabilità è di 2/3.
Dimostrazione con il teorema di Bayes
La probabilità condizionata cercata è
Pr(lato invisibile è rosso | lato scoperto è rosso)
dove i lati rossi sono: Aa, Ab e Ba (e quelli bianchi: Bb, Ca, Cb), per cui si può scrivere
Pr(Aa+Ab+Ba|Aa+Ab+Ba)
che, utilizzando il teorema di Bayes viene riformulata in
= Pr(Aa+Ab+Ba|Aa+Ab+Ba) * Pr(Aa+Ab+Ba) / ( Pr(Aa+Ab+Ba|Aa+Ab+Ba) * Pr(Aa+Ab+Ba) +
Pr(Aa+Ab+Ba|Bb+Ca+Cb) * Pr(Bb+Ca+Cb) )
Essendo
Pr(Aa+Ab+Ba)=1/2, ovvero metà dei lati sono rossi
Pr(Bb+Ca+Cb)=1/2, e l'altra metà sono bianchi
Pr(Aa+Ab+Ba|Aa+Ab+Ba) = Pr(Aa|Aa+Ab+Ba) + Pr(Ab|Aa+Ab+Ba) + Pr(Ba|Aa+Ab+Ba) = 1/3 + 1/3 + 0 =
2/3
151
Paradosso delle tre carte
Pr(Aa|Aa+Ab+Ba) = Pr(Aa+Ab+Ba|Aa) * Pr(Aa) / Pr(Aa+Ab+Ba) = 1 * 1/6 * 2 = 2/6 = 1/3
Pr(Aa+Ab+Ba|Aa) = Pr(Aa|Aa) + Pr(Ab|Aa) + Pr(Ba|Aa)= 0+1+0 = 1
Pr(Aa) = 1/6
Pr(Aa+Ab+Ba) = 1/2
Pr(Ab|Aa+Ab+Ba) = 1/3, ottenuto in modo analogo
Pr(Ba|Aa+Ab+Ba) = 0, comprensibile in modo intuitivo, in quanto se il lato visibile appartiene alla carta
A il retro non può appartenere alla carta B e se il lato visibile è Ba non è possibile che anche il lato
coperto sia Ba:
Pr(Aa+Ab+Ba|Ba) = Pr(Aa|Ba) + Pr(Ab|Ba) + Pr(Ba|Ba)= 0 + 0 + 0 = 0
in maniera analoga si mostra che
Pr(Aa+Ab+Ba|Bb+Ca+Cb) = Pr(Aa|Bb+Ca+Cb) + Pr(Ab|Bb+Ca+Cb)+ Pr(Ba|Bb+Ca+Cb) = 0 + 0 + 1/3 = 1/3
per cui
Pr(lato invisibile è Rosso | lato scoperto è rosso) = 2/3*1/2 / (2/3*1/2 + 1/3*1/2) = 2/3
Le origini
Questo è il testo originale del paradosso, proposto da Warren Weaver nel 1950:
« Giochiamo con tre carte. Una è bianca su entrambi i lati, una è rossa su entrambi i lati e una è bianca da un lato e rossa
dall'altro. Ogni carta è nascosta in una scatoletta nera. Il giocatore sceglie una delle tre scatolette, estrae la carta e la posa sul
tavolo in modo che sia visibile un solo lato. Supponiamo che il lato che si vede sia bianco. Il conduttore propone al giocatore
di scommettere alla pari che è bianco anche l'altro lato della carta (se è bianco vince il conduttore, se è rosso vince il
giocatore). Conviene al giocatore accettare la scommessa? Perché? »
Paradosso delle tre scatole
In realtà, una versione perfettamente analoga del problema era già stata presentata da Joseph Bertrand nel suo libro
Calcul des probabilités: ci sono tre scatole, di cui la prima contiene due monete d'oro, la seconda due monete
d'argento e la terza una d'oro ed una d'argento: se estraendo una moneta a caso da una scatola a caso ci si ritrova in
mano una moneta d'oro, qual è la probabilità che anche l'altra nella scatola lo sia?
La soluzione è anche in questo caso 2/3.
Voci correlate
• Problema di Monty Hall
• Warren Weaver e Martin Gardner, che hanno descritto questo problema
• Paradosso dei due bambini
152
Paradosso di Abilene
Paradosso di Abilene
Il Paradosso di Abilene è un paradosso in cui un gruppo di persone prende una decisione che va contro agli interessi
di tutti gli individui del gruppo. È causato da un problema di comunicazione interno al gruppo, per cui ciascun
membro crede erroneamente che la propria preferenza sia contraria a quella del gruppo e non prova nemmeno a
sollevare obiezioni. Il paradosso è descritto con una storia spesso presentata ai corsi di management.
La storia
Una tranquilla famiglia americana composta da una ragazza, dal marito e dai genitori di lei, stava trascorrendo un
afoso pomeriggio estivo a Coleman nel Texas, in una bella casa con giardino, aria condizionata e piscina. Erano in
veranda e giocavano a carte. In un momento in cui la conversazione languiva, il suocero se ne uscì con un "Che ne
direste di andarcene tutti a cena ad Abilene?" La ragazza, per compiacere il padre, subito disse "Mi pare una bella
idea!". Il marito, che pensava alle oltre 50 miglia da passare alla guida con quel caldo, ma non voleva contrastare il
suocero, disse alla suocera "Se anche tu sei d'accordo potremmo metterci in macchina". E la suocera "Certo che
vengo volentieri, è da parecchio che non vado ad Abilene."
Detto fatto si misero in cammino. Il viaggio fu caldo, polveroso, e con molto traffico. Ad Abilene cercarono una
pizzeria per mangiare e dopo vari giri per trovare un parcheggio finirono in una trattoria messicana dove mangiarono
male e spesero uno sproposito. Sulla via del ritorno bucarono una gomma e stentarono a trovare una stazione di
servizio che li aiutasse. Dopo quattro ore si ritrovarono a casa accaldati, stanchi e delusi. Erano sdraiati sui divani ed
il vecchio azzardò ambiguamente "È stato un bel tragitto!". La suocera disse che avrebbe preferito rimanere a casa
ma che non voleva raffreddare l'entusiasmo degli altri. Anche il marito disse che aveva accettato solo per compiacere
gli altri tre. La ragazza aggiunse "Dovevamo essere pazzi a metterci in macchina con questo caldo!". Concluse il
suocero "Io l'ho proposto perché mi sembravate annoiati."
Morale: questa favoletta, probabilmente inventata, tende ad attirare l'attenzione sul fatto che nella maggioranza dei
casi l'essere umano si adegua istintivamente a quella che crede essere la volontà del gruppo. Questo atteggiamento fa
il paio con "Ma lo fanno tutti" che è la classica scusa di chi non trova altra giustificazione ad un proprio errore. Con
questo esempio invece si vuol spingere l'individuo ad una realistica ed indipendente valutazione di ogni situazione,
scegliendo e proponendo quella che a suo giudizio è la soluzione migliore. Possono rimanere perplessi gli amanti
della democrazia "ideale".
I ricercatori in questo campo hanno proposto vari mezzi con i quali i gruppi di persone possano evitare tale
comportamento disfunzionale. Tra questi, nessuno si è mostrato più efficace di includere persone con formazione
differente nel processo decisionale. I gruppi così costituiti tendono a essere più efficaci nell'evitare il Paradosso di
Abilene e tendono ad essere capaci di prendere decisioni migliori.
Bibliografia
• Harvey, Jerry B., The Abilene paradox and other meditations on management, Lexington, 1988
153
Paradosso di Achille e la tartaruga
Paradosso di Achille e la tartaruga
Il paradosso di “Achille e la Tartaruga” è il più famoso dei Paradossi di Zenone. È stato proposto nel quinto secolo
a.C. da Zenone di Elea, che intendeva difendere le tesi del suo maestro Parmenide, che sosteneva che il movimento
non è altro che illusione.
La corsa della tartaruga
Una delle descrizioni più famose del paradosso è quella dello scrittore argentino Jorge Luis Borges[1]:
Achille, simbolo di rapidità, deve raggiungere la tartaruga, simbolo di lentezza. Achille corre dieci volte più svelto
della tartaruga e le concede dieci metri di vantaggio. Achille corre quei dieci metri e la tartaruga percorre un
metro; Achille percorre quel metro, la tartaruga percorre un decimetro; Achille percorre quel decimetro, la
tartaruga percorre un centimetro; Achille percorre quel centimetro, la tartaruga percorre un millimetro; Achille
percorre quel millimetro, la tartaruga percorre un decimo di millimetro, e così via all’infinito; di modo che Achille
può correre per sempre senza raggiungerla.
Le soluzioni del paradosso
La confutazione più immediata è quella del filosofo Diogene di Sinope, che silenziosamente si mise a camminare
davanti a chi gli ricordava gli argomenti di Zenone contro il movimento.
Secondo Aristotele, invece, il tempo e lo spazio sono divisibili all’infinito in potenza, ma non sono divisibili
all’infinito in atto. Una distanza finita (che secondo Zenone non è percorribile perché divisibile in frazioni infinite) è
infinita nella considerazione mentale, ma in concreto si comporta di parti finite e può essere percorsa.
Da un punto di vista matematico la spiegazione sta nel fatto che gli infiniti intervalli impiegati ogni volta da Achille
per raggiungere la tartaruga diventano sempre più piccoli, ed il limite della loro somma converge, per le proprietà
delle serie geometriche. Una somma di infiniti elementi o, più precisamente, il limite di una somma di infiniti
elementi non è necessariamente infinito. Prendiamo ad esempio la somma di tutte le frazioni che si possono ottenere
dimezzando ogni volta un intero:
La somma di tutti questi elementi è sempre inferiore ad uno. Arrivati all’elemento numero n, la somma sarà pari ad
uno meno la frazione di ordine n. Arrivati ad esempio al terzo elemento, la somma sarà uguale a sette ottavi, pari ad
uno meno un ottavo (un mezzo elevato alla terza). Arrivati al decimo elemento, la somma sarà uno meno un
milleventiquattresimo (un mezzo elevato alla decima; infatti due elevato alla decima potenza è 1024). Da un punto di
vista matematico, si può affermare che il limite di questa somma di infiniti termini è uno.
Un altro approccio considera il significato fisico degli intervalli spaziali, le cui dimensioni dopo pochi passaggi sono
estremamente ridotte. Secondo la meccanica quantistica, infatti, non ha senso considerare intervalli più piccoli di una
determinata dimensione.[2]
154
Paradosso di Achille e la tartaruga
Voci correlate
• Zenone di Elea
• Elenco di paradossi
Note
[1] Jorge Luis Borges, “Altre inquisizioni”, Feltrinelli, 1973, “Metamorfosi della tartaruga”
[2] http:/ / www. riflessioni. it/ scienze/ paradosso-achille-tartaruga. htm
Paradosso di Berry
Il paradosso di Berry risale ad una lettera inviata da G. G. Berry (da qui il nome), un bibliotecario dell'Università di
Oxford a Bertrand Russell. Esso può essere descritto nei seguenti termini
Sia N il numero (evidentemente finito) di parole (non importa se articoli, sostantivi, verbi, preposizioni ecc.) in un
dato dizionario della lingua italiana, cui aggiungiamo l'insieme di simboli contenuti in un dato testo di matematica e
sia H l'insieme (anch'esso finito) delle frasi componibili con al più, diciamo, 50 parole e simboli.
Consideriamo ora in H tutte quelle frasi che definiscono correttamente dei numeri interi positivi (un esempio è: tre è
il numero immediatamente successivo a due, un altro: tre è il secondo numero che incontriamo nella successione dei
numeri primi e così via). Sia K il numero di frasi con meno di 50 parole che definiscono correttamente numeri
naturali. Poiché K è finito l'insieme dei numeri definiti che troviamo in esso è anch'esso finito e possiamo individuare
il più grande di tali numeri: chiamiamolo b.
Consideriamo ora la frase:
• b+1 è il numero naturale successivo al più grande numero definibile con una frase contenente al massimo
cinquanta parole.
Essa è una frase con meno di 50 parole (19, per la esattezza) che definisce b + 1, dunque anche b + 1 dovrebbe
appartenere alla classe dei numeri definibili con meno di 50 parole!
È stato osservato che il paradosso dipende dall'utilizzo non rigoroso della espressione numero definibile attraverso n
parole; se si connota esattamente l'espressione, mettendo al bando le trappole dell'autoreferenzialità, il paradosso
scompare.
In realtà è immediato rendersi conto che, se si accetta la frase 'tre è il numero immediatamente successivo a due' ,
allora, modificandola opportunamente, si ottengono, con lo stesso numero di parole, tutte le frasi che definiscono
tutti i numeri naturali superiori a 0 o ad 1, a seconda; ne consegue che è falsa la conclusione Poiché K( il numero di
frasi ) è finito l'insieme dei numeri definiti che troviamo in esso è anch'esso finito .
Allo stessa tipologia delle antinomie linguistiche appartiene il paradosso di Richard, che sta in qualche modo alla
base del teorema di incompletezza di Gödel.
Collegamenti esterni
• The Berry Paradox [1] di Gregory Chaitin
Note
[1] http:/ / www. umcs. maine. edu/ ~chaitin/ unm2. html
155
Paradosso di Bertrand
156
Paradosso di Bertrand
Il Paradosso di Bertrand è un problema riguardante l'approccio classico alla Teoria della probabilità. Si consideri
un triangolo equilatero inscritto in un cerchio. Supponiamo di scegliere casualmente una corda del cerchio. Qual è la
probabilità che la corda sia più lunga di un lato del triangolo equilatero?
Questo problema fu posto inizialmente da Joseph Bertrand nel suo lavoro Calcolo delle probabilità del 1888.
Bertrand portò inoltre tre argomenti, tutti apparentemente validi, ma che portavano a risultati inconsistenti.
Il metodo degli "estremi casuali": si scelga un punto sulla
circonferenza e si ruoti il triangolo in modo che il punto scelto sia uno
dei vertici. Si scelga poi un altro punto sulla circonferenza e si disegni
la corda congiungente i due punti. Per punti sull'arco compreso fra gli
estremi del lato opposto al primo punto, la corda è più lunga di un lato
del triangolo. La lunghezza dell'arco è un terzo della lunghezza della
circonferenza, di conseguenza la probabilità che una corda presa a caso
sia più lunga di un lato del triangolo iscritto è un terzo.
rosso = più lunga del lato del triangolo, blu = più
corta
Il metodo del "raggio casuale": si scelga un raggio del cerchio e si ruoti
il triangolo in modo che un lato sia perpendicolare al raggio. Si scelga
poi un punto del raggio e si disegni la corda che ha per punto medio il
punto scelto. La corda è più lunga di un lato del triangolo se il punto
scelto è più vicino al centro del cerchio rispetto al punto in cui il lato
del triangolo interseca il raggio. Dal momento che il lato del triangolo
divide il raggio in due parti uguali, è ugualmente probabile che il punto
scelto sia più vicino o più lontano. Di conseguenza la probabilità che
una corda presa a caso sia più lunga di un lato del triangolo inscritto è
un mezzo.
Paradosso di Bertrand
157
Il metodo del "punto medio casuale": si scelga un punto casuale del
cerchio (non necessariamente della circonferenza!). Si costruisca
quindi una corda che abbia il punto scelto come punto medio. La corda
è più lunga del lato del triangolo inscritto se il punto scelto cade
all'interno di un cerchio concentrico al primo di raggio 1/2. L'area del
cerchio più piccolo è un quarto dell'area del cerchio iniziale, di
conseguenza la probabilità che una corda presa a caso sia più lunga del
lato del triangolo inscritto è un quarto.
Soluzione classica
La soluzione del problema, quindi, dipende dal metodo mediante il
quale scegliamo "casualmente" una corda. Risulta che una volta
specificato il metodo di selezione casuale, il problema ha una soluzione ben definita. Ma non esiste un unico metodo
di selezione, di conseguenza non può esserci un'unica soluzione. Le tre soluzioni presentate da Bertrand
corrispondono a differenti metodi di selezione, e in assenza di ulteriori informazioni non c'è ragione di preferirne uno
rispetto agli altri.
I metodi di selezione possono venire visualizzati come segue. Oltre che dal diametro, una corda è univocamente
identificata dal suo punto medio. Ognuno dei tre metodi di selezione presentati sopra porta a una diversa
distribuzione dei punti medi. I metodi 1 e 2 portano a due diverse distribuzioni non uniformi, mentre il metodo tre
porta a una distribuzione uniforme. Altre distribuzioni possono essere facilmente immaginate, molte delle quali
porteranno a una diversa proporzione delle corde più lunghe del lato del triangolo inscritto sul totale.
Punti medi di corde scelte casualmente, metodo 1
Punti medi di corde scelte casualmente, metodo 2
Punti medi di corde scelte casualmente, metodo 3
Paradosso di Bertrand
Corde scelte casualmente, metodo 1
158
Corde scelte casualmente, metodo 2
Corde scelte casualmente, metodo 3
Soluzione di senso comune
Nella sua pubblicazione del 1973 The Well-Posed Problem [1], E. T. Jaynes si chiese se davvero non fosse possibile
dire cosa significa "casualmente". Egli scrisse che sappiamo di più riguardo a questo "casualmente" di quanto possa
sembrare in un primo momento.
Se analizziamo un esperimento casuale per via teorica, possiamo provare a comprenderlo pensando a come
eseguiremmo veramente quell'esperimento. In questo caso, potremmo provare a tirare dei piccoli filamenti di paglia
su una moneta che giace abbastanza distante da noi da poter dire che il modo in cui la paglia cade sulla moneta è
sufficientemente "casuale". A questo punto, è di senso comune affermare che la soluzione è la stessa a prescindere
dal fatto che prendiamo una moneta grande o piccola, e a prescindere dal fatto che la moneta sia collocata un
pochino più a destra o un pochino più a sinistra.
Se ammettiamo questa informazione addizionale di senso comune, allora vi è un'unica soluzione al problema, ed è
quella basata sul secondo metodo di selezione visto sopra: il metodo del "raggio casuale".
Più precisamente, l'argomentazione si sviluppa in questo modo: se abbiamo scelto delle corde casuali in un cerchio
di raggio , e a questo punto consideriamo un cerchio concentrico al primo, di raggio
, allora alcune delle
corde del cerchio più grande taglieranno anche il cerchio più piccolo. Se la scelta delle corde segue quello che si
intende con il senso comune per "casualmente", allora ci aspetteremmo che l'insieme di corde scelte casualmente dia
la stessa probabilità sia nel cerchio grande, sia in quello piccolo. La soluzione cioè dovrebbe essere ad invarianza di
scala.
Similmente, se muoviamo il centro del cerchio piccolo, spostandolo dal centro del cerchio grande, allora dovremmo
avere nuovamente la stessa probabilità. La soluzione, cioè, dovrebbe essere anche invariante per traslazione.
Più in dettaglio, Jaynes precisa inoltre che la soluzione dovrebbe essere invariante per rotazione.
Egli provò che c'è una sola distribuzione dei punti medi delle corde che è invariante per scala ed invariante per
traslazione. Essa può essere derivata direttamente dall'equazione integrale per l'invarianza per traslazione. Questa
distribuzione è quella descritta nel "metodo 2", sopra.
Così, pur essendo tutti e tre i metodi perfettamente corretti ed accettabili, il secondo è l'unico che soddisfa i requisiti
cui corrisponde, nel senso comune, la frase "scegliere una corda casualmente".
Paradosso di Bertrand
Collegamenti esterni
• (EN) Il Paradosso di Bertrand [2]
Note
[1] http:/ / bayes. wustl. edu/ etj/ articles/ well. pdf
[2] http:/ / www. cut-the-knot. org/ bertrand. shtml
Paradosso di Buridano
Cartello del 1900, che mostra il Congresso degli
Stati Uniti come asino di Buridano, incerto nella
scelta tra il canale di Panama o quello per il
Nicaragua.
« Un asino affamato e assetato è accovacciato esattamente tra due mucchi di fieno con, vicino a ognuno, un secchio d'acqua,
ma non c'è niente che lo determini ad andare da una parte piuttosto che dall'altra. Perciò, resta fermo e muore. »
L'asino di Buridano (o Paradosso dell'asino) è un paradosso erroneamente attribuito a Giovanni Buridano.
Questo paradosso prova a confutare il determinismo causalistico, per cui tutte le azioni sono predeterminate
causalmente. Se il determinismo causalistico vale per gli animali, ci si dovrebbe aspettare che sia valido anche per
gli uomini, ma se ci trovassimo in una situazione identica, supponendo di trovarsi affamati ed assetati esattamente a
metà tra due tavoli imbanditi non propenderemmo sicuramente per un tavolo?
Leibniz discusse di questo paradosso nei Saggi di teodicea[1].
Note
[1] http:/ / www. filosofico. net/ Antologia_file/ AntologiaL/ LEIBNIZ_%20L%20ASINO%20DI%20BURIDANO. htm
Bibliografia
• 2002 M. Clark, Paradoxes from A to Z
159
Paradosso di Condorcet
160
Paradosso di Condorcet
Il Paradosso di Condorcet è una situazione indicata dal Marchese de Condorcet alla fine del XVIII secolo, nella
quale le preferenze collettive possono essere cicliche (cioè non transitive) anche se le preferenze dei votanti non lo
sono individualmente. Questo è un paradosso perché significa che i desideri della maggioranza possono essere in
conflitto gli uni con gli altri. Questo succede quando le maggioranze in conflitto sono ognuna composte di gruppi di
individui differenti.
Per spiegare il Paradosso di Condorcet usiamo il seguente esempio:
Supponiamo di avere 3 votanti (Cittadino 1, Cittadino 2 e Cittadino 3) che devono scegliere tra tre opzioni diverse
(Partito A, Partito B e Partito C). Ogni cittadino ha le seguenti preferenze riguardo alle tre opzioni:
Prima Scelta
Seconda Scelta
Terza Scelta
Cittadino 1
Partito A
Partito B
Partito C
Cittadino 2
Partito B
Partito C
Partito A
Cittadino 3
Partito C
Partito A
Partito B
In questa elezione i partiti A, B e C possono rappresentare qualsiasi cosa, vale a dire anche candidati in competizione; i cittadini 1, 2 e 3 possono
rappresentare sia individui che gruppi di individui di egual numero come Sinistra o Destra o Centro.
Se si verificasse un'elezione ognuno dei tre partiti A, B e C riceverebbe un voto come prima scelta, uno come
seconda scelta e uno come terza scelta, ottenendo quindi lo stesso numero di voti (qualunque sia il metodo di
conteggio utilizzato) e non sarebbe possibile decidere un vincitore.
Supponiamo invece di effettuare una votazione a doppio turno: i due partiti che al primo turno hanno ottenuto più
voti si scontrano fra loro in una seconda votazione per decidere il vincitore (mentre il terzo partito viene eliminato
dalla votazione).
Ipotizziamo che alla seconda votazione il cittadino faccia scalare alla scelta precedente il partito rimasto, vale a dire
che se (per esempio) Partito A è stato escluso dalla votazione allora le scelte diventano:
Prima Scelta Seconda Scelta
Cittadino 1 Partito B
Partito C
Cittadino 2 Partito B
Partito C
Cittadino 3 Partito C
Partito B
In questo caso quindi B, avrebbe una maggioranza di 2 a 1 su C. Si verifica facilmente che se B viene escluso alla
prima votazione allora C ha una maggioranza di 2 a 1 su A, mentre se viene escluso C allora A ha una maggioranza
di 2 a 1 su B.
Viene quindi violata la transitività ossia: Se A è preferito a B, B è preferito a C, ma C è preferito ad A (mentre per la
transitività dovrebbe essere A è preferito a C).
La maggiore conseguenza di questo è che chi riesce ad eliminare uno dei 3 partiti potrà in essenza sapere quale sarà
il risultato delle elezioni, vale a dire che se il partito A vuole vincere indurrà gli incerti a votare alle primarie per il
partito B ed essere sicuro di scontrarsi contro di lui al secondo turno.
Paradosso di Condorcet
Ripercussioni
Il paradosso di Condorcet ci dice che il sistema di votazione a maggioranza non è indipendente dall'ordine delle
votazioni. Vale a dire, benché ognuno abbia un ordine di preferenze ben delineato che non muta con l'ordine delle
votazioni, il risultato delle votazioni viene invece ad essere dipendente dall'ordine. Kenneth Arrow ha dimostrato
come questa situazione sia inevitabile in ogni forma di votazione che rispetti alcuni semplici criteri:
• Universalità (o dominio non ristretto): la funzione di scelta sociale dovrebbe creare un ordinamento delle
preferenze sociali deterministico e completo, a partire da qualsiasi insieme iniziale di preferenze individuali;
• Non imposizione (o sovranità del cittadino): qualsiasi possibile preferenza sociale deve essere raggiungibile a
partire da un appropriato insieme di preferenze individuali (ogni risultato deve poter essere raggiunto in qualche
maniera);
• Non dittatorialità: la funzione di scelta sociale non deve semplicemente seguire l'ordinamento delle preferenze di
un individuo o un sottoinsieme di individui, al contempo ignorando le preferenze degli altri;
• Monotonicità, o associazione positiva tra i valori individuali e sociali: se un individuo modifica il proprio
ordinamento di preferenze promuovendo una data opzione, la funzione di scelta sociale deve promuovere tale
opzione o restare invariata, ma non può assegnare a tale opzione una preferenza minore (nessun individuo
dovrebbe essere in grado di esprimersi contro un'opzione assegnandole una preferenza maggiore);
• Indipendenza dalle alternative irrilevanti: se si confina l'attenzione ad un sottoinsieme di opzioni, e la funzione di
scelta sociale è applicata ad esse soltanto, il risultato deve essere compatibile con il caso in cui la funzione di
scelta sociale è applicata all'intero set di alternative possibili.
Bibliografia
• Condorcet, Marquis de: Essai sur l'application de l'analyse á la probabilité des décisions rendues à la pluralité
des voix, Parigi, 1785.
• Martin Gardner, «Sui paradossi creati dalle relazioni non transitive». Le Scienze n. 82 (Giugno 1975), pp. 96-101.
Voci correlate
• Teorema dell'impossibilità di Arrow
• Teorema di May
161
Paradosso di Curry
Paradosso di Curry
Il paradosso di Curry è un paradosso della teoria ingenua degli insiemi, e deve il suo nome al logico e matematico
americano Haskell Curry che lo pubblicò nel 1942. Esso è basato sulla costruzione di un’affermazione
autoreferenziale da cui si possono dedurre, tramite alcune semplici regole di inferenza, l’asserzione stessa ed ogni
altra proposizione.
Svolgimento
Il paradosso consiste nell’affermare una proposizione del tipo: “Se questa frase è vera, allora Babbo Natale esiste”.
Bisogna anzitutto considerare che questo enunciato è di tipo autoreferenziale, ovvero il termine “questa frase” in esso
contenuto vuole indicare l’intera espressione. In sostanza, si tratta di formulare l’enunciato A, dove per A si intende
la proposizione “Se A è vero, allora Babbo Natale esiste”. Valendosi delle regole della logica del primo ordine,
appare facile mostrare come questa affermazione non possa che essere vera. Si procede così: supponiamo che
l’enunciato A sia falso. Allora, per la legge dell’implicazione materiale, l’unica possibilità ammessa è che
l’antecedente di questa condizionale (“Se A è vero”) assuma il valore di verità, mentre il conseguente (“Allora Babbo
Natale esiste”) assuma quello di falsità. Ma sostenere che l’antecedente è vero equivale a definire vero A,
contraddicendo in tal modo l’ipotesi effettuata. Dunque dobbiamo necessariamente concludere che l’enunciato A è
vero, e questo ci obbliga, sempre per effetto delle regole dell’implicazione, a dichiarare vera anche la proposizione
“Babbo Natale esiste”. Infatti, in una formula condizionale vera in cui sia vero l’antecedente, il conseguente risulta
anch’esso vero. È poi ovvio che si può sostituire all’espressione “Babbo Natale esiste” un enunciato B qualsiasi, che
faccia un’asserzione qualunque.
Interpretazione matematica
Il paradosso di Curry è fonte di numerosi problemi e interessanti spunti nel settore della logica matematica. Esso
infatti, fornendo un metodo per dimostrare qualsiasi teorema, sembrerebbe costituire una prova dell’inconsistenza e
della contraddittorietà di molte teorie assiomatiche. Questo poiché quasi ogni sistema formale è, per sua natura,
soggetto alle leggi (almeno) della logica del primo ordine, e proprio da queste avrebbe origine il paradosso.
L’enunciato in questione si presenta come un’affermazione vera a priori, ovvero che non necessita di alcuna
dimostrazione a partire da assunti precedenti. Risulta così vera ovunque, unicamente in virtù di se stessa, quali che
siano i postulati del sistema. Da essa si possono poi dedurre come veri l’enunciato B (“Babbo Natale esiste”) e
l’enunciato negazione di B (“Babbo Natale non esiste”). Già questo basterebbe, grazie al teorema dello pseudo Scoto,
a generare un numero infinito di contraddizioni. Ma non pare in effetti neanche necessario: è sufficiente applicare il
paradosso ad ogni proposizione e, successivamente, alla negazione di questa per rendere la teoria matematica presa
in esame del tutto inservibile. È evidente che un sistema formale contraddittorio in cui si dimostra tutto ed il
contrario di tutto non è di alcuna utilità. Per superare tale difficoltà si è ricorso quindi alla ridefinizione dei principi
stessi della logica matematica e della teoria degli insiemi, limitandone opportunamente il campo di validità; ovvero,
allo scopo di eliminare il paradosso, si è intervenuto sulle premesse di queste rendendole più restrittive, così da
impedire alcune delle condizioni essenziali all’originarsi dell’antinomia. È possibile infatti vietare certe forme di
autoreferenzialità, o più semplicemente rifiutare la formulazione del predicato di verità all’interno del linguaggio
stesso. I vari metodi con cui la matematica moderna ha corretto le ipotesi della teoria ingenua degli insiemi hanno
portato a logiche differenti, dove il paradosso di Curry viene escluso solitamente in quanto impossibile o privo di
senso.
162
Paradosso di Curry
Interpretazione filosofica
Come nota Piergiorgio Odifreddi, il paradosso di Curry rappresenterebbe “una vera e propria dimostrazione della non
esistenza di Dio”[1], in quanto esso prova che “l’assunzione di un essere necessario, o di una causa prima, è
incompatibile con la logica”[2]. Comunemente per causa prima si intende un ente che esiste necessariamente solo
grazie ad alcune sue proprietà e da cui deriva ogni altra realtà. Volendo tradurre questo concetto in termini logici, ci
si accorge facilmente che esso viene a coincidere con l’enunciato paradossale di Curry: infatti è vero esclusivamente
per come è costruito e, data l’equivalenza tra nesso causale nel linguaggio ordinario e implicazione materiale nel
linguaggio formale, è la premessa di ogni conseguenza. Come osservato, però, tale espressione è impropria e viene
rigettata da qualunque sistema formale al fine di non cadere nell’inconsistenza. Risulta quindi impossibile costruire
un ragionamento che si avvalga di una logica formalizzata corretta e non contraddittoria e che al tempo stesso
includa al suo interno l’idea di una causa prima. Così il paradosso di Curry diventa una confutazione
dell’impostazione razionalista tipica, ad esempio, di Cartesio, Spinoza e Leibniz, secondo la quale sarebbe possibile
affrontare razionalmente problemi metafisici e fornire con la pura ragione prove definitive dell’esistenza di Dio.
D'altro canto conferma l'argomentazione di Tommaso d'Aquino che nega la possibilità di una causa prima sullo
stesso piano delle cause seconde e di conseguenza nega l'autoconsistenza del mondo, dimostrando così la necessità di
una causa che sia al di sopra della catena dei fenomeni: cfr. partecipazione dell'essere[3].
Note
[1] Piergiorgio Odifreddi, Il Vangelo secondo la Scienza - Le religioni alla prova del nove, collana ET Saggi, Einaudi, 2005. pp. 224 ISBN
88-06-17392-8
[2] ibidem
[3] Cornelio Fabro, Partecipazione e causalità secondo s. Tommaso d'Aquino, S.E.I., Torino, 1960
Paradosso di D'Alembert
Il modello matematico di flusso stazionario a potenziale che descrive perfettamente il comportamento di un fluido
non viscoso, anche se certamente non rispecchia la realtà fisica, permette in certi casi di approssimare il
comportamento di certi flussi reali ad alto numero di Reynolds.
Jean le Rond d'Alembert fu il primo a rendersi conto che su un corpo, a prescindere dalla forma, immerso in un
flusso a potenziale, non potesse agire alcuna forza aerodinamica. Questo chiaramente è un grosso limite e mentre
allora il modello in discussione sarà buono per tutte le regioni del flusso dove la vorticità può essere considerata
nulla, e quindi dove potranno essere trascurati i termini dinamici dovuti alla viscosità, non si avvicinerà
minimamente alla realtà nelle zone dove la vorticità sarà decisamente diversa da zero, perché è proprio la viscosità
che dà origine alla portanza. Per i corpi aerodinamici ad alti Reynolds la vorticità sarà confinata nello strato limite
(che sarà sempre più sottile all'aumentare del Reynolds) e nella scia del corpo.
Il paradosso consiste nell'osservare che sotto le ipotesi di modello a potenziale, che implicano che il flusso sia
irrotazionale (quindi a vorticità nulla), non possono svilupparsi forze aerodinamiche poiché esse si ricavano proprio
per integrazione della vorticità. Tuttavia il modello a potenziale descrive correttamente il comportamento del fluido
non viscoso attorno ad un corpo che, è esperienza comune, se immerso in un flusso, è quantomeno soggetto ad una
resistenza e avverte quindi una componente della forza aerodinamica. Com'è allora possibile che il modello a
potenziale descriva correttamente il comportamento di un fluido non viscoso se nella sua definizione è implicita
l'irrotazionalità e la conseguente assenza di forze? Il paradosso trova una soluzione se affermiamo che la forza
aerodinamica è determinata unicamente dalla vorticità presente nella scia e nello strato limite che, per corpi
aerodinamici ad elevato numero di Reynolds, possono essere considerati così sottili da non alterare la validità
dell'ipotesi di campo di moto interamente irrotazionale e consentono dunque l'applicazione del modello a potenziale
in tutto lo spazio considerato. All'atto pratico nella valutazione della azioni aerodinamiche, queste osservazioni si
163
Paradosso di D'Alembert
ridurranno ad opportuni accorgimenti matematici da introdurre nella fase di calcolo.
Bibliografia
•
•
•
•
•
•
•
Jean le Rond d'Alembert, Essai d'une nouvelle the'orie de la re'sistance des fluides [1], 1752.
Ludwig Prandtl, Motion of fluids with very little viscosity [2], NACA Technical Memorandum 452, 1904.
Keith Stewartson, d'Alembert's Paradox [3], Siam Review, Vol 23(3), pp. 308-343, 1981.
Johan Hoffman and Claes Johnson, Computational Turbulent Incompressible Flow [4], Springer, 2007.
Herrman Schlichting, Boundary layer theory, McGraw Hill, 1979.
Garret Birkhoff, Hydrodynamics: a study in logic, fact, and similtude, Princeton University Press, 1950.
James J. Stoker, Review: Garrett Birkhoff, Hydrodynamics, a study in logic, fact, and similitude [5], Bull. Amer.
Math. Soc. Vol. 57(6), 1951, pp. 497-499.
Voci correlate
• Flusso potenziale
• Flusso potenziale incomprimibile
• Circolazione (fluidodinamica)
• Portanza
• Resistenza fluidodinamica
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Jean le Rond
d'Alembert
Collegamenti esterni
• Potential Flow and d'Alembert's Paradox [6] at MathPages
Note
[1]
[2]
[3]
[4]
[5]
[6]
http:/ / gallica. bnf. fr/ anthologie/ notices/ 00927. htm
http:/ / upload. wikimedia. org/ wikipedia/ en/ b/ bc/ Prandtl-technical-memorandum-452. pdf
http:/ / scitation. aip. org/ getabs/ servlet/ GetabsServlet?prog=normal& id=SIREAD000023000003000308000001& idtype=cvips& gifs=yes
http:/ / www. nada. kth. se/ ~jhoffman/ pmwiki/ pmwiki. php
http:/ / projecteuclid. org/ DPubS/ Repository/ 1. 0/ Disseminate?view=body& id=pdf_1& handle=euclid. bams/ 1183516308
http:/ / www. mathpages. com/ home/ kmath211/ kmath211. htm
164
Paradosso di Easterlin
Paradosso di Easterlin
Il paradosso di Easterlin (Easterlin Paradox) o paradosso della felicità venne definito nel 1974 da Richard
Easterlin, professore di economia all'Università della California meridionale e membro dell'Accademia Nazionale
delle Scienze, il quale, ricercando le ragioni per la limitata diffusione della moderna crescita economica, evidenziò
che nel corso della vita la felicità delle persone dipende molto poco dalle variazioni di reddito e di ricchezza. Questo
paradosso, secondo Easterlin, si può spiegare osservando che, quando aumenta il reddito, e quindi il benessere
economico, la felicità umana aumenta fino ad un certo punto, poi comincia a diminuire, seguendo una curva ad U
rovesciata.
Riflessioni sociali ed economiche sul paradosso
Il concetto espresso dalla frase «la ricchezza non produce la felicità» è dibattuto fin dai tempi antichi. Già in
Aristotele:
« è chiaro che non è la ricchezza il bene da noi cercato: essa infatti ha valore solo in quanto "utile", cioè in funzione di
qualcos'altro »
ma questa idea si ritrova espressa in modo diverso anche nel pensiero economico moderno a partire da quello del
filosofo scozzese Adam Smith, considerato fondatore dell'economia politica moderna, che evidenzia come "il figlio
del povero (poor man's son) lavora giorno e notte per acquisire talenti superiori ai suoi concorrenti" spinto dall'idea
ingannevole (deception) che il ricco sia più felice o possieda "maggiori mezzi per la felicità", ma, in realtà, essendo
la capacità di godere dei beni fisiologicamente limitata, l'uomo ricco può consumare poco di più del povero, la cui
minor quantità di beni è compensata dalle minori preoccupazioni e dalle migliori relazioni sociali rispetto al ricco
che vive continuamente in ansia per i suoi beni, ed invecchia solo e deluso per non aver raggiunto la felicità e per di
più invidiato dai suoi concittadini. Successivamente anche gli economisti Arthur Cecil Pigou (1920), John Kenneth
Galbraith (1958) e gli psicologi Brickman e Campbell (1971) avevano messo in evidenza l'utilità limitata del reddito
sul benessere della persona o, più in generale, sul benessere sociale. In seguito all'enunciazione di Easterlin si è
sviluppata una vera e propria sezione dell'economia che, traendo spunto anche dalla precedente economia del
benessere, ha dato un forte impulso agli studi sulla relazione tra economia e felicità.
Campo degli studi di Easterlin
Anche se ormai con il termine "Paradosso della felicità" ci si riferisce in senso stretto al paradosso sopra enunciato, i
dati raccolti da Easterlin si basavano su auto-valutazioni soggettive della felicità (in cui gli intervistati rispondevano
alla domanda: "Nell’insieme, ti consideri molto felice, abbastanza felice, o non molto felice?") ed arrivarono
sostanzialmente a evidenziare una correlazione non significativa e "robusta" tra:
• tra reddito nazionale (PNL) e felicità (cioè i Paesi più poveri non risultano essere significativamente meno felici
di quelli più ricchi; tali conclusioni sono state successivamente confutate da altri studi che hanno mostrato in
particolare gli effetti "indiretti" sulla felicità di altri fattori generati dalle economie sviluppate quali ad esempio la
maggiore stabilità della democrazia, la maggiore tutela dei diritti umani e le migliori condizioni della sanità);
• tra reddito e felicità delle persone valutata all’interno di un singolo Paese e in un dato momento (cioè le persone
più ricche non sono sempre le più felici);
• tra aumento di reddito e felicità delle persone valutata nel corso della vita delle singole persone (cioè, come
sopra anticipato, nella vita delle persone la felicità sembra dipendere molto poco dalle variazioni di reddito e
ricchezza).
165
Paradosso di Easterlin
Conseguenze
Il paradosso di Easterlin ha messo in crisi l'impostazione mondiale dei mercati indirizzati alla crescita misurata sulla
base del PNL / PIL ed ha portato economisti e psicologi ad interrogarsi più approfonditamente su che cosa intendono
le persone per "felicità", che cosa le rende "felici"? Se, infatti, raggiungere il benessere economico non garantisce
una vita felice, il paradosso di Easterlin induce a riflettere su quali obiettivi, quale stile di vita è meglio perseguire e
quali sono le prospettive di benessere sociale (welfare) per una società che intenda mettere la persona e i suoi bisogni
al centro di ogni decisione pubblica.
Ipotesi teoriche per la spiegazione del paradosso
Oltre ad una criticata spiegazione "fondamentalista" della teoria della personalità sulla determinazione genetica a
priori del livello di benessere tipico di ogni individuo, studi economici e psicologici successivi hanno dato differenti
spiegazioni del risultato, confermato da indagini empiriche, che le persone non sono in grado di ottimizzare le loro
scelte per raggiungere il benessere, né sembrano in grado di imparare dagli errori fatti. Lo stesso Easterlin insieme a
Daniel Kahneman, Frank ed altri hanno provato a spiegare il paradosso con l'effetto treadmill (tappeto rullante),
sostenendo che una conseguenza dell'aumento del reddito/ricchezza è proprio che è come se corressimo
inconsapevolmente su un tappeto rullante, rimanendo sempre al medesimo punto. I principali treadmill effect sono:
• l'hedonic treadmill, secondo la "teoria dell'adattamento", è il meccanismo per il quale la nostra soddisfazione o il
benessere conseguente all'acquisto di un nuovo bene di consumo (per esempio, di automobile berlina al posto
della precedente utilitaria), dopo un miglioramento temporaneo ritorna rapidamente al livello precedente;
• il satisfaction treadmill, invece, dipende dall'innalzamento del nostro livello di "aspirazione al consumo" al
migliorare del reddito, cioè nonostante la "felicità oggettiva" migliori si richiedono continui e più intensi piaceri
per mantenere lo stesso livello di soddisfazione (il livello che segna il confine fra i risultati soddisfacenti e quelli
insoddisfacenti) o la stessa "felicità soggettiva" (l’autovalutazione della propria felicità);
• il positional treadmill relativo mette l’accento sugli effetti "posizionali" dei beni di consumo in base ai quali: il
benessere che traiamo dal consumo dipende soprattutto dal valore relativo del consumo stesso, cioè da quanto
esso differisce da quello degli altri con i quali ci confrontiamo.
Altri modelli di spiegazione in particolare di Scitovsky, Hirsch, Bartolini ed altri evidenziano come gli individui, sia
a causa di limiti cognitivi, sia a causa dei condizionamenti sociali, hanno difficoltà ad ottimizzare le scelte:
• nel conflitto tra comfort (a bassi costi d'accesso, ma anche rendimenti decrescenti con l'abitudine ed alti costi
d'uscita a causa dell'assuefazione) e attività stimolanti e creative (con rendimenti crescenti in termini di
godimento, ma anche più altri costi d'accesso per la necessità di acquisire capacità di consumo complesse)
• nel conflitto tra beni standardizzati (anonimi, poco stimolanti e di cui ci stanchiamo in fretta) risultato di una
produzione sempre più specializzata e gli specifici bisogni e desideri individuali di un "consumo" sempre più
"olistico"
• nel "processo di sostituzione" in atto da parte del mercato che spinge l'offerta di costosi sostituti "artificiali" ai
beni relazionali e naturali "gratuiti" e quindi la motivazione degli "individui ad accumulare denaro" per far fronte
allo sviluppo di una società in cui gratuitamente si possa fare sempre meno e che erode sempre più le risorse.
Ampliamento della categoria dei beni imposto dal paradosso
Quasi tutte le ipotesi per spiegare il paradosso rimandano più o meno direttamente alla necessità "economica" di
inserire nell'analisi delle ricchezze un'altra categoria di beni: i beni relazionali (come l’ambito familiare, affettivo e
civile della partecipazione alla vita sociale/volontariato e politica della propria comunità). È interessante osservare
che molte ricerche mettono in luce che per i beni relazionali (come ad esempio nel caso del matrimonio, dei figli,
degli amici, dell'occupazione lavorativa, della salute) il treadmill dell’adattamento e delle aspirazioni non è totale e la
felicità (o infelicità nei casi negativi) pur diminuendo nel tempo rimane comunque più elevata. Sarebbe poi, secondo
166
Paradosso di Easterlin
molti, da considerare nell'analisi economica anche il patrimonio ambientale su cui confluiscono gran parte delle
"esternalità" negative (inquinamenti di vario tipo e consumo delle fonti non rinnovabili) non conteggiate nel bilancio
della logica economica del mercato. Ci sono cioè dei beni che il denaro è capace di comprare e spesso sacrificati al
fine di conseguire il reddito monetario necessario per acquistare i "beni di consumo". (si pensi al tempo crescente
che le attività lavorative rubano alle relazioni familiari e ai rapporti di amicizia).
Rappresentazione matematica del paradosso
Se indichiamo con F la felicità di un individuo (considerandola una variabile misurabile cardinalmente), con I il
reddito (inteso come mezzi materiali), con R i "beni relazionali", e ignoriamo altri elementi importanti, possiamo
scrivere:
F = f(I,R)
possiamo esprimere cioè la felicità come una funzione del reddito individuale e beni relazionali. Se è vero e
ragionevole supporre che l’effetto complessivo del reddito (I) contribuisce direttamente alla felicità soprattutto per
bassi livelli di reddito, bisogna anche considerare che, dopo aver superato una certa soglia, questo può diventare
negativo poiché l’impegno per aumentare il reddito (assoluto o relativo) può produrre sistematicamente effetti
negativi sui beni relazionali, sulla qualità e quantità delle nostre relazioni (ad esempio a causa delle risorse eccessive
che impieghiamo per aumentare il reddito e che sottraiamo ai rapporti umani), e quindi, indirettamente, potrebbe
smorzare, o addirittura ribaltare l’effetto totale diminuendo la felicità. Le diverse ipotesi prima illustrate, insieme ai
nostri limiti cognitivi e ai condizionamenti sociali spiegano perché inconsapevolmente non ci comportiamo
razionalmente e superiamo il punto critico.
Soluzioni
Una delle macroconclusioni sembra essere quindi che ricchezza (o utilità) e felicità (o benessere sociale) non sono la
medesima cosa, perché per essere più felici non basta cercare di aumentare l'utilità (prodotti, beni, beni, servizi),
bensì, almeno in maniera prevalente, è necessario addentrarsi nella sfera della relazione tra le persone. Tra le tante
soluzioni proposte, lo stesso Easterlin suggerisce che, poiché ciascun individuo possiede un certo ammontare di
tempo da allocare tra diversi domini monetari e non (quali reddito e beni materiali, famiglia, stato di salute, lavoro,
stabilità emotiva, autodisciplina) per aumentare la propria felicità, sarebbe meglio destinare il tempo a quei domini in
cui l'adattamento edonico e il confronto sociale sono meno importanti ad esempio nei beni relazionali o "beni non
posizionali". È un po' come dire che "per essere felici bisogna essere almeno in due".
Bibliografia
• Easterlin, R A. Does Economic Growth Improve the Human Lot? (1974) in Paul A. David and Melvin W. Reder,
eds., Nations and Households in Economic Growth: Essays in Honor of Moses Abramovitz, New York:
Academic Press, Inc.
• Aristotele, Etica Nicomachea
• Bartolini, S. in Bruni, Porta Felicità ed Economia, Guerini e Associati
• Brickman, P., e Campbell, D. T. (1971). Hedonic relativism and planning the good society. In M. H. Apley (Ed.),
Adaptation-level
• Bruni, L. e Porta, PL (2004) Felicità ed economia, a cura di, Guerini & Associati, Milano.
• Bruni, L. e S. Zamagni (2004), Economia civile, Il Mulino, Bologna.
• Easterlin, R. (1974), Does economic growth improve human lot? Some empirical evidence, Nation and
Households in economic growth: Essays in honor of Moses Abromowitz (a cura di P.A. Davis e M.W. Reder),
Academic Press, New York e London.
• Easterlin, R. (2001), Income and Happiness: Towards a Unified Theory, The Economic Journal
167
Paradosso di Easterlin
• Easterlin, R. (2004), Per una migliore teoria del benessere soggettivo, in Bruni e Porta (2004).
• Frank, R.H., Choosing the Right Pond: Human Behavior and the Quest for Status (1985), Oxford University
Press, Oxford,.
• Frey B., Stutzer A., Economia e Felicità (2006), Il sole 24 Ore
• Galbraith, J.K., The Affluent Society (1958), Penguin Business
• Kahneman, D. (2004), Felicità oggettiva, in Bruni e Porta (2004).
• Lucas, R.E., Clark, A.E., Georgellis, Y., Diener, E. (2003), Re-examining Adaptation and the Setpoint Model of
Happiness: Reactions to Changes in Marital Status, Journal of Personality and Social Psychology
• Pigou, A.C., The Economic Welfare (1920), McMillian, Londra
• Scitovsky, T., The Joyless Economy: An Inquiry into Human Satisfaction and Consumer Dissatisfaction (1976),
Oxford University Press. Recensione all'edizione italiana (2007 - Città Nuova), a cura di Reggiani, T., (2008) in
Aggiornamenti Sociali, vol. 1/2008, pp.69-71.
• Smith, A., Teoria dei sentimenti morali (1759), ed. it. Rizzoli 1995
Collegamenti esterni
• (EN)Richard A. Easterlin su usc.edu [1]
Note
[1] http:/ / www-rcf. usc. edu/ ~easterl/
Paradosso di Einstein-Podolsky-Rosen
Il paradosso di Einstein-Podolsky-Rosen (paradosso EPR) è un esperimento mentale che dimostra come una
misura eseguita su una parte di un sistema quantistico possa propagare istantaneamente un effetto sul risultato di
un'altra misura, eseguita successivamente su un’altra parte dello stesso sistema, indipendentemente dalla distanza che
separa le due parti.
Questo effetto, derivante dalla interpretazione di Copenaghen della meccanica quantistica e divenuto poi noto come
entanglement quantistico, venne considerato paradossale in quanto, oltre che controintuitivo, ritenuto incompatibile
con un postulato della relatività ristretta (che considera la velocità della luce la velocità limite alla quale può
viaggiare un qualunque tipo d'informazione) e, più in generale, con il principio di località.
Considerazioni generali
Albert Einstein, Boris Podolsky e Nathan Rosen proposero questo esperimento ideale in un articolo pubblicato nel
1935 intitolato "La descrizione quantistica della realtà fisica può ritenersi completa?", appunto con l’intento di
dimostrare che la meccanica quantistica, portando, oltre che a validi risultati, anche a conseguenze paradossali, non è
una teoria fisica completa.[1] Cinque mesi dopo, Niels Bohr rispose all'argomento di EPR con un articolo intitolato
allo stesso modo.[2] La posizione di Bohr è stata a lungo considerata come ulteriore vittoria del suo scontro con
Einstein, benché oggi si riconosca apertamente che la sua posizione era piuttosto oscura e non può essere certo
considerata soddisfacente come risposta a EPR. Sempre nello stesso anno, Erwin Schrödinger pubblicò l'articolo in
cui descrive il famoso paradosso del gatto, cercando di chiarire l'idea della sovrapposizione di stati nella meccanica
quantistica. Si deve a David Bohm, nel 1951, una riformulazione del paradosso in termini più facilmente verificabili
sperimentalmente.[3]
Il paradosso EPR descrive un effetto fisico che, come accennato, ha aspetti paradossali nel senso seguente: se in un
sistema quantistico ipotizziamo alcune deboli e generali condizioni, come realismo, località e completezza, ritenute
ragionevolmente vere per qualunque teoria che descriva la realtà fisica senza contraddire la relatività, giungiamo ad
168
Paradosso di Einstein-Podolsky-Rosen
una contraddizione. Tuttavia è da notare che "di per sé" la meccanica quantistica non è intrinsecamente
contraddittoria, né risulta in contrasto con la relatività.
Benché proposto originariamente per mettere in luce l'incompletezza della meccanica quantistica, ulteriori sviluppi
teorici e sperimentali seguiti all'articolo originale (come il teorema di Bell e l'esperimento sulla correlazione
quantistica di Aspect[4]) hanno portato una gran parte dei fisici a considerare il paradosso EPR solo un illustre
esempio di come la meccanica quantistica contrasti in modo stridente con le esperienze quotidiane del mondo
macroscopico (per quanto la questione non sia assolutamente chiusa).
Descrizione del paradosso
Misure su uno stato entangled
Considereremo la versione semplificata dell'esperimento ideale di EPR formulata da David Bohm.
Si supponga di avere una sorgente che emette coppie di elettroni, uno dei quali viene inviato alla destinazione A,
dove c'è un'osservatrice di nome Alice, e l'altro viene inviato alla destinazione B, dove c'è un osservatore di nome
Bob. Secondo la meccanica quantistica, possiamo sistemare la sorgente in modo che ciascuna coppia di elettroni
emessi occupi uno stato quantistico detto singoletto di spin. Questo si può descrivere come sovrapposizione
quantistica di due stati, indicati con I e II. Nello stato I, l'elettrone A ha spin parallelo all'asse z (+z) e l'elettrone B ha
spin antiparallelo all'asse z (-z). Nello stato II, l'elettrone A ha spin -z e l'elettrone B ha spin +z. È quindi impossibile
associare ad uno dei due elettroni nel singoletto di spin uno stato di spin definito: gli elettroni sono quindi detti
entangled, cioè intrecciati.
Riproposizione dell'esperimento suggerito da Einstein, Podolsky e Rosen, eseguito con elettroni. Una sorgente invia elettroni verso due osservatori,
Alice (a sinistra) e Bob (a destra), i quali sono in grado di eseguire misure della proiezione dello spin degli elettroni lungo un asse.
Alice misura lo spin lungo l'asse ottenendo uno dei due possibili risultati: +z o -z. Supponiamo che ottenga +z;
secondo la meccanica quantistica la funzione d'onda che descrive lo stato di singoletto dei due elettroni collassa nello
stato I (le diverse interpretazioni della meccanica quantistica dicono questo in diversi modi, ma il risultato alla fine è
lo stesso) e tale stato quantistico determina le probabilità dei risultati di qualunque altra misura fatta sul sistema. In
questo caso, se Bob successivamente misurasse lo spin lungo l'asse z, otterrebbe -z con una probabilità del 100%.
Analogamente, se Alice misurasse -z, Bob otterrebbe +z, sempre con una probabilità del 100%.
Naturalmente non c'è niente di speciale nella scelta dell'asse z. Ad esempio, supponiamo che Alice e Bob decidano di
misurare lo spin lungo l'asse x. Secondo la meccanica quantistica, lo stato di singoletto di spin può essere espresso
adeguatamente come sovrapposizione di stati di spin lungo la direzione x, stati che chiameremo Ia e IIa. Nello stato
Ia l'elettrone di Alice ha spin +x, quello di Bob ha spin -x, invece nello stato IIa l'elettrone di Alice ha spin -x, quello
di Bob ha spin +x. Quindi, se Alice misura +x, il sistema collassa in Ia, e Bob misurerà -x, con probabilità del 100%;
se Alice misura -x, il sistema collassa in IIa e Bob misurerà +x, con probabilità del 100%.
In meccanica quantistica, la proiezione dello spin lungo x e quella lungo z sono quantità osservabili tra loro
incompatibili, per cui gli operatori associati non commutano, cioè uno stato quantistico non può possedere valori
169
Paradosso di Einstein-Podolsky-Rosen
definiti per entrambe le variabili (principio di indeterminazione). Supponiamo che Alice misuri lo spin lungo z e
ottenga +z, in modo che il sistema collassi nello stato I. Ora, invece di misurare lo spin lungo z, Bob misura lo spin
lungo x : secondo la meccanica quantistica, c'è il 50% di probabilità che egli ottenga +x e il 50% di probabilità che
ottenga -x. Inoltre, è impossibile predire quale sarà il risultato fino a quando Bob non esegue la misura.
È bene sottolineare che, benché si sia usato lo spin come esempio, si possono considerare molte altre quantità fisiche
(osservabili), tra loro entangled. L'articolo originale di EPR, per esempio, usava l'impulso come quantità osservabile.
Gli esperimenti odierni usano spesso la polarizzazione dei fotoni, perché più facile da preparare e quindi misurare.
Realismo e completezza
Introdurremo ora due concetti usati da Einstein, Podolsky e Rosen, fondamentali per il loro attacco alla meccanica
quantistica: il realismo o oggettivismo realistico e la completezza di una teoria fisica.
Gli autori non si sono riferiti direttamente al significato filosofico di un "elemento fisico di realtà". Piuttosto essi
assunsero che se il valore di ogni quantità fisica di un sistema può essere predetto con assoluta certezza prima di fare
una misura o prima di intervenire in qualche modo sul sistema medesimo, allora tale quantità esprime un elemento
fisico di realtà. Notare che l'opposto, cioè la negazione dell'affermazione precedente, non porta necessariamente ad
un assunto vero; possono esserci altre espressioni di elementi fisici di realtà, ma questo fatto non ha influenza sul
resto dell'argomentazione.
In aggiunta, EPR definiscono una teoria fisica completa come una teoria in cui ogni elemento fisico di realtà sia
preso in considerazione. Lo scopo del loro articolo è mostrare, usando queste due definizioni, che la meccanica
quantistica non è una teoria fisica completa.
Vediamo come questi concetti si applicano all'esperimento pensato di cui sopra. Supponiamo che Alice decida di
misurare lo spin lungo z (lo chiameremo z-spin). Dopo che Alice esegue la misura, lo z-spin dell'elettrone di Bob è
noto, quindi è un elemento fisico di realtà. Analogamente, se Alice decidesse di misurare lo spin lungo x, l'x-spin di
Bob sarebbe un elemento fisico di realtà dopo la sua misura.
Uno stato quantistico non può possedere contemporaneamente un valore definito per lo x-spin e lo z-spin . Se la
meccanica quantistica è una teoria fisica completa nel senso dato sopra, l'x-spin e lo z-spin non possono essere
elementi fisici di realtà allo stesso tempo. Questo significa che la decisione di Alice di eseguire la misura lungo l'asse
x o lungo l'asse z ha un effetto istantaneo sugli elementi fisici di realtà nel luogo in cui si trova Bob ad operare con le
sue misure. Tuttavia, questa è una violazione del principio di località o principio di separazione.
Località nel paradosso EPR
Il principio di località afferma che i processi fisici non possono avere effetto immediato su elementi fisici di realtà in
un altro luogo separato da quello in cui avvengono. A prima vista questa appare un'assunzione ragionevole (infatti a
livello macroscopico lo è), in quanto conseguenza della relatività speciale, la quale afferma che le informazioni non
si possono mai trasmettere a una velocità maggiore di quella della luce senza violare la causalità. Generalmente si
crede che ogni teoria che violi la causalità sia anche internamente inconsistente, e quindi del tutto insoddisfacente.
Si trova che la meccanica quantistica viola il principio di località senza violare la causalità. La causalità è preservata
perché non c'è alcun modo per Alice di trasmettere un messaggio (cioè informazioni) a Bob variando l'asse lungo cui
fa la misura. Qualunque asse lei scelga, ha sempre il 50% di probabilità di ottenere "+" e il 50% di ottenere "-", cioè
è del tutto impossibile per lei influire sul risultato che otterrà. Inoltre Bob può fare la sua misura una sola volta, in
quanto il collasso della funzione d'onda provocato dalla misura perturba in maniera irreversibile lo stato misurato: c'è
una proprietà basilare della meccanica quantistica, nota come "no cloning theorem", che rende impossibile per
l'osservatore fare, diciamo, un milione di copie dell'elettrone che riceve, eseguire misure sullo spin di ciascuno e poi
analizzare la distribuzione statistica dei risultati. Quindi, nell'unica misura che gli è permesso fare, c'è il 50% di
probabilità di ottenere "+" e il 50% di ottenere "-", indipendentemente dal fatto che il suo asse sia allineato o meno
con quello di Alice.
170
Paradosso di Einstein-Podolsky-Rosen
Tuttavia il principio di località si richiama fortemente all'intuizione fisica di livello macroscopico, ed Einstein,
Podolsky e Rosen non volevano abbandonarlo. Einstein derise le predizioni della meccanica quantistica come
"spaventosa azione a distanza". La conclusione che trassero fu che la meccanica quantistica non è una teoria
completa.
Si deve far notare che la parola località ha diversi significati in fisica. Per esempio, in teoria quantistica dei campi
"località" significa che campi in punti diversi dello spazio non interagiscono l'uno con l'altro. Tuttavia, le teorie di
campo quantistiche che sono "locali" in questo senso violano il principio di località come definito da EPR.
Risoluzione del paradosso
Variabili nascoste
Esistono parecchi possibili modi per risolvere il paradosso. Quello ipotizzato da EPR è che la meccanica quantistica,
nonostante il successo in una ampia e vasta varietà di scenari sperimentali, sia in realtà una teoria incompleta. In altre
parole esisterebbe qualche teoria della natura ancora non scoperta, rispetto alla quale la meccanica quantistica gioca
il ruolo di approssimazione statistica. Questa teoria più completa conterrebbe variabili che tengono conto di tutti gli
"elementi fisici di realtà" e che danno origine agli effetti che la meccanica quantistica è in grado di predire solo a
livello probabilistico. Una teoria con tali caratteristiche prende il nome di teoria delle variabili nascoste.
Per illustrare questa idea si può formulare una teoria delle variabili nascoste molto semplice, che spieghi i risultati
dell'esperimento descritto sopra.
Si supponga che gli stati quantistici di spin di singoletto emessi dalla sorgente siano in realtà descrizioni
approssimate dei "veri" stati fisici che possiedono valori definiti per lo z-spin e per l'x-spin. In questi stati "veri",
l'elettrone che va verso Bob ha sempre valori di spin opposti rispetto all'elettrone che va verso Alice, ma tali valori
sono completamente random (casuali). Per esempio, la prima coppia emessa dalla sorgente può essere "(+z, -x) verso
Alice e (-z, +x) verso Bob", la coppia successiva "(-z, -x) verso Alice e (+z, +x) verso Bob" e così via. Per ciò, se
l'asse della misura di Bob è allineato con quello di Alice, egli otterrà necessariamente l'opposto di qualunque cosa
ottenga Alice; altrimenti egli otterrà "+" e "-" con eguale probabilità.
Ipotizzando di restringere le misure solo all'asse z e all'asse x, tale teoria delle variabili nascoste è sperimentalmente
indistinguibile dalla teoria della meccanica quantistica.
In realtà c'è ovviamente un numero infinito (numerabile) di assi lungo i quali Alice e Bob possono eseguire le
rispettive misure; questo significa che, in teoria, si potrebbe considerare un numero infinito di variabili nascoste
indipendenti. Tuttavia, si deve tener presente che questa è una formulazione molto semplicistica di una teoria delle
variabili nascoste e una teoria più sofisticata sarebbe in grado di risolvere il problema a livello matematico.
Disuguaglianze di Bell
Nel 1964, John Bell ha dimostrato con il suo teorema come le predizioni della meccanica quantistica
nell'esperimento mentale EPR siano in realtà leggermente differenti dalle predizioni di una classe molto vasta di
teorie delle variabili nascoste: grosso modo, la meccanica quantistica predice correlazioni statistiche molto più forti
tra i risultati di misure eseguite su differenti assi. Queste differenze, espresse adoperando relazioni di disuguaglianza
note come Disuguaglianze di Bell, sono in linea di principio verificabili sperimentalmente, per cui sono stati
approntati allo scopo tutta una serie di esperimenti, che, come detto sopra, in generale trattano misure di
polarizzazione di fotoni. Tutti i risultati hanno indicato un comportamento in linea con le predizioni della meccanica
quantistica standard.
Tuttavia questi fatti non chiudono il discorso in modo definitivo. Anzitutto il teorema di Bell non si applica a tutte le
possibili teorie "realiste": è possibile infatti costruire teorie che eludono le sue implicazioni diventando
indistinguibili dalla meccanica quantistica, per quanto risultino più marcatamente non-locali. Si reputa in proposito
che vengano violate sia la causalità, sia i teoremi della relatività ristretta ai sistemi inerziali. Alcuni ricercatori hanno
171
Paradosso di Einstein-Podolsky-Rosen
inoltre tentato di formulare teorie di variabili nascoste che sfruttino "scappatoie" in esperimenti concreti, come per
esempio le assunzioni fatte nell'interpretare i dati sperimentali, ma nessuno è stato finora in grado di formulare una
teoria realista locale capace di riprodurre tutti i risultati della meccanica quantistica.
Implicazioni per la meccanica quantistica
Attualmente la maggior parte dei fisici ritiene che la meccanica quantistica sia corretta e che il paradosso EPR sia
appunto solo un "paradosso" per il fatto che le intuizioni classiche (di livello macroscopico) non corrispondano alla
realtà. Si possono trarre da ciò parecchie diverse conclusioni, che dipendono da quale interpretazione della
meccanica quantistica si usi. Nella vecchia interpretazione di Copenaghen, prodotta da Niels Bohr, Werner Karl
Heisenberg, Pascual Jordan e Max Born, si conclude che il principio di località (o di separazione) non debba valere e
che avvenga effettivamente il collasso della funzione d'onda istantaneo. Nell'interpretazione a molti-universi, di
Hugh Everett III, la località è mantenuta e gli effetti delle misure sorgono dal suddividersi e ramificarsi delle "storie"
o linee d'universo degli osservatori.
Il paradosso EPR ha reso più profonda la comprensione della meccanica quantistica mettendo in evidenza le
caratteristiche fondamentalmente non classiche del processo di misura. Prima della pubblicazione dell'articolo di
Einstein-Podolsky-Rosen, una misura era abitualmente vista come un processo fisico di perturbazione inflitto
direttamente al sistema sotto misura. In altri termini, se si fosse misurata la posizione di un elettrone, ad es.
illuminandolo con luce, cioè con un fiotto di fotoni, l'urto dei fotoni con l'elettrone, necessario per illuminarlo e
"vedere" dov'è, avrebbe disturbato lo stato quantomeccanico dell'elettrone, per esempio modificandone la velocità e
producendo così incertezza sulla velocità; questa descrizione viene adoperata per esemplificare l'indeterminazione
quantomeccanica su posizione e velocità, grandezze meccaniche necessarie a determinare l'evoluzione dello stato
meccanico (grandezze coniugate). Tali spiegazioni, che ancora si incontrano in esposizioni non specialistiche,
scolastiche e divulgative della meccanica quantistica, sono completamente demistificate dall'analisi di
Einstein-Podolsky-Rosen, che mostra chiaramente come possa effettuarsi una "misura" su una particella senza
disturbarla direttamente, eseguendo una misura su un'altra particella distante, ma entangled (intrecciata) con la
prima.
Sono state sviluppate e stanno progredendo tecnologie che si basano sull'entanglement quantistico (intreccio di stati
quantistici). Nella crittografia quantistica, si usano particelle entangled per trasmettere segnali che non possono
essere intercettati senza lasciare traccia dell'intercettazione avvenuta. Nella computazione quantistica, si usano stati
quantistici intrecciati (entangled) per eseguire calcoli in parallelo, che permettono elaborazioni con velocità che non
si possono raggiungere con i computer classici.
Teorema del multiverso
Esiste una spiegazione che riguarda gli universi multipli molto più complicata, per quanto abbastanza verosimile.
Essa stabilisce che ogni volta che qualcosa è incerto, l'"Albero dell'Universo" (come talvolta è chiamato il fenomeno
di tutte le ramificazioni possibili di eventi) produce un altro ramo ovvero si ramifica. Ciascuna ramificazione, appena
prodotta, è un diverso universo simile al precedente, perché l'incertezza generalmente è piccola, all'inizio. Ogni
possibilità è un accadimento che capita da qualche parte. Si tratta di una visualizzazione intuitiva. La teoria è molto
più ampia, ma a causa della grande astrattezza di questi concetti non può essere affrontata in questa sede con
maggior dettaglio.
172
Paradosso di Einstein-Podolsky-Rosen
173
Formulazione matematica
Si può esprimere matematicamente la discussione di cui sopra adoperando il formalismo quantomeccanico di spin. Il
grado di libertà di spin di un elettrone è associabile con uno spazio di Hilbert bidimensionale H, in cui ogni vettore
dello spazio corrisponde ad uno stato quantico di spin. Gli operatori quantistici che corrispondono allo spin lungo le
direzioni x, y e z, designati rispettivamente Sx, Sy e Sz, possono essere associati a loro volta alle matrici di Pauli:
dove
rappresenta la costante d'azione di Planck divisa per 2π.
Gli autostati di Sz sono espressi da
mentre gli autostati di Sx sono espressi da
Lo spazio di Hilbert per una coppia di elettroni è
, cioè il prodotto tensoriale degli spazi di Hilbert dei due
singoli elettroni. Lo stato di spin di singoletto è
dove i due termini nel membro a destra stanno per ciò che più sopra è stato chiamato stato I e stato II. A partire da
queste equazioni, si può mostrare che lo spin di singoletto è scrivibile come
dove i termini del membro a destra sono quello che è stato chiamato stato Ia e stato IIa.
Per illustrare come questo comporti la violazione del realismo locale, è necessario mostrare che dopo la misura
effettuata da Alice di Sz (o di Sx), il valore misurato da Bob di Sz (o di Sx) è determinato univocamente e per questo
corrisponde ad un "elemento fisico di realtà". Questo fatto discende dalla teoria della misura adottata in meccanica
quantistica. Quando viene effettuata la misura Sz, lo stato ψ del sistema collassa dentro un autovettore di Sz. Se il
risultato della misura è +z, ciò significa che immediatamente subito dopo la misurazione lo stato ψ del sistema viene
sottoposto ad una proiezione ortogonale nello spazio degli stati della forma
Per il singoletto di spin, il nuovo stato è
Analogamente, se la misura di Alice dà -z, il sistema viene sottoposto ad una proiezione ortogonale su
che significa che il nuovo stato è
Questo implica che ora la misura di Sz dell'elettrone di Bob è determinata. Sarà -z nel primo caso e +z nel secondo
caso.
Resta solo da mostrare che Sx e Sz non possono possedere contemporaneamente, per la meccanica quantistica, valori
definiti. Si potrebbe mostrare in maniera diretta che non esiste nessun vettore che possa essere un autovettore di
entrambe le matrici. Più in generale, si può usare il fatto che gli operatori non commutano,
Paradosso di Einstein-Podolsky-Rosen
secondo la relazione di incertezza di Heisenberg
Note
[1] Einstein, A, B Podolsky, N Rosen (15 maggio 1935). Can Quantum-Mechanical Description of Physical Reality be Considered Complete?
(http:/ / prola. aps. org/ pdf/ PR/ v47/ i10/ p777_1). Physical Review 47 (10): 777–80. DOI: 10.1103/PhysRev.47.777
10.1103/PhysRev.47.777 (http:/ / dx. doi. org/ ). URL consultato il 19 agosto 2010.
[2] N. Bohr, Can quantum-mechanical description of physical reality be considered complete?, Physical Review, 48 (1935), pag. 700.
[3] Bohm David. (1951). Quantum Theory (http:/ / books. google. com. au/ books?id=9DWim3RhymsC& printsec=frontcover& dq=david+
bohm+ quantum+ theory& source=bl& ots=6G-2u1wtav& sig=Q1GcoVDLFRmKOmDYFAJte6LzrZU& hl=en&
ei=Pv45TNSnLYffcfnS6foO& sa=X& oi=book_result& ct=result& resnum=7& ved=0CEEQ6AEwBg#v=onepage& q& f=false),
Prentice-Hall, Englewood Cliffs, page 29, and Chapter 5 section 3, and Chapter 22 Section 19.
[4] Proposed experiment to test the non-separability of quantum mechanics (http:/ / prola. aps. org/ abstract/ PRD/ v14/ i8/ p1944_1), A. Aspect,
Phys. Rev. D 14, 1944–1951 (1976)
Voci correlate
• CHSH Bell test
•
•
•
•
•
•
•
Esperimenti sulle disuguaglianze di Bell
Esperimento sulla correlazione quantistica di Aspect
Sincronismo
Stato di Bell
Teletrasporto quantistico
Teorema di Bell
Teoria delle variabili nascoste
Bibliografia
Articoli selezionati
• A. Aspect, Bell's inequality test: more ideal than ever, Nature 398 189 (1999). (http://www-ece.rice.edu/
~kono/ELEC565/Aspect_Nature.pdf)
• J.S. Bell On the Einstein-Poldolsky-Rosen paradox, Physics 1 195 (1964).
• J.S. Bell, Bertlmann's Socks and the Nature of Reality. Journal de Physique 42 (1981).
• P.H. Eberhard, Bell's theorem without hidden variables. Nuovo Cimento 38B1 75 (1977).
• P.H. Eberhard, Bell's theorem and the different concepts of locality. Nuovo Cimento 46B 392 (1978).
• A. Einstein, B. Podolsky, and N. Rosen, Can quantum-mechanical description of physical reality be considered
complete? (http://www.drchinese.com/David/EPR.pdf) Phys. Rev. 47 777 (1935). (http://prola.aps.org/
abstract/PR/v47/i10/p777_1)
• A. Fine, Hidden Variables, Joint Probability, and the Bell Inequalities. Phys. Rev. Lett 48, 291 (1982).
• A. Fine, Do Correlations need to be explained?, in Philosophical Consequences of Quantum Theory: Reflections
on Bell's Theorem, edited by Cushing & McMullin (University of Notre Dame Press, 1986).
• L. Hardy, Nonlocality for 2 particles without inequalities for almost all entangled states. Phys. Rev. Lett. 71 1665
(1993).
• M. Mizuki, A classical interpretation of Bell's inequality. Annales de la Fondation Louis de Broglie 26 683
(2001).
174
Paradosso di Einstein-Podolsky-Rosen
Libri
• Bell, John S, Dicibile e indicibile in meccanica quantisica , Milano, Adelphi, 2010.
• J.J. Sakurai, Modern Quantum Mechanics (Addison-Wesley, 1994), pp. 174–187, 223-232. ISBN 0-201-53929-2
• F. Selleri, Quantum Mechanics Versus Local Realism: The Einstein-Podolsky-Rosen Paradox (Plenum Press,
New York, 1988)
• A. Zeilinger, Il velo di Einstein - Il nuovo mondo della fisica quantistica (Einaudi, 2005). ISBN 88-06-17078-3
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:EPR
paradox
Collegamenti esterni
•
•
•
•
Paradosso EPR e teorema di Bell (http://www.pv.infn.it/~nicrosi/paradosso/home.htm)
(EN) The Einstein-Podolsky-Rosen Argument in Quantum Theory (http://plato.stanford.edu/entries/qt-epr/)
(EN) Bell’s Theorem (http://plato.stanford.edu/entries/bell-theorem/)
(EN) EPR, Bell & Aspect: The Original References (http://www.drchinese.com/David/EPR_Bell_Aspect.
htm)
• (EN) Does Bell's Inequality Principle rule out local theories of quantum mechanics? (http://math.ucr.edu/home/
baez/physics/Quantum/bells_inequality.html)
• Un inaspettato legame fra principio di indeterminazione e non-località (http://lescienze.espresso.repubblica.it/
articolo/articolo/1345610)
Paradosso di Epimenide
Nella logica il paradosso del mentitore è descritto come: data una proposizione autonegante come "Questa frase è
falsa", nessuno riuscirà mai a dimostrare se tale affermazione sia vera o falsa;
• se infatti fosse vera, allora la frase non sarebbe veramente falsa (la verità della proposizione non invalida la falsità
espressa nel contenuto della proposizione).
• se invece la proposizione fosse falsa, allora il contenuto si capovolgerebbe (è come se dicesse "Questa frase è
vera") quando abbiamo appena affermato il contrario.
Il paradosso del mentitore: versione originale
Secondo alcuni, quello che oggi chiamiamo paradosso nacque con una nota affermazione di Epimenide di Creta (VI
secolo a.C.), il quale, cretese egli stesso, ebbe a dire che «i Cretesi sono bugiardi»; essendo come detto egli
medesimo fra questi, anch'egli sarebbe dovuto conseguentemente essere bugiardo e perciò l'affermazione sarebbe
dovuta essere falsa poiché proveniente da un bugiardo. Ma se così non fosse stato, se cioè Epimenide fosse stato un
cretese che, almeno in questa occasione, non diceva il falso, l'affermazione sarebbe risultata ugualmente falsa poiché
non tutti i cretesi erano bugiardi.
Non è tuttavia noto se l'affermazione di Epimenide fosse intesa come un paradosso del mentitore. Inoltre, la
proposizione, così come è formulata, non è un paradosso, per l'assenza del quantificatore universale (tutti o nessuno):
se infatti esiste almeno un cretese che dice la verità, allora l'affermazione di Epimenide è falsa senza portare ad
alcuna contraddizione. Non si conosce il contesto in cui Epimenide fece questa affermazione; fu solo più tardi che
questa fu di nuovo citata (per esempio nella Lettera a Tito 1,12-13) e presentata come un paradosso del mentitore.
175
Paradosso di Epimenide
Diogene Laerzio[1] ha attribuito l'ideazione del paradosso ad Eubulide di Mileto (IV secolo a.C.), il quale riformulò
l'affermazione di Epimenide dicendo «ψευδόμενος» (pseudòmenos), «io sto mentendo». Da notare in primo luogo
che la frase è «io sto mentendo», e non «io sono bugiardo», nel senso che «quello che sto dicendo in questo momento
è una menzogna».
Con Eubulide si ripropone lo stesso dilemma di Epimenide: può essere vera la frase di uno che afferma «io sto
dicendo il falso»? La frase di Eubulide non può essere vera, ma non può essere neanche falsa, perché c'è un elemento
nuovo rispetto a «tutti i Cretesi mentono».
L'elemento nuovo è l'autoriferimento: Eubulide sta parlando di se stesso, cioè sta affermando di se stesso che mente,
e questo non può essere né vero né falso.
Il paradosso del mentitore: elaborazioni successive
Dal paradosso del mentitore sono derivate elaborazioni diversificate di molti autori attraverso tutti i secoli, ed anche
attualmente l'argomento è assai discusso.
Tra le più note riformulazioni del paradosso del mentitore vi sono:
• quella di Aristotele (Confutazioni sofistiche (XXV)), il quale propose due quesiti di analoga contraddittorietà:
• è possibile giurare di rompere il giuramento che si sta prestando?
• è possibile ordinare di disobbedire all'ordine che si sta impartendo?
• quella di Diogene Laerzio (II secolo d.C.): un coccodrillo ghermisce un bambino che gioca sulle rive del Nilo; la
madre del piccolo implora il coccodrillo di restituirle il figlio, ma il coccodrillo fa la seguente proposta: "Se
indovini quello che farò, ti restituirò il bambino". La madre allora dice al coccodrillo: "Credo che mangerai il
piccolo". Se la madre ha detto il vero, se ha cioè indovinato che il coccodrillo vuole mangiare il bambino, allora
in questo caso il coccodrillo ha promesso di restituire il bimbo. Ma se il coccodrillo restituisce il bimbo,
significherebbe che non lo ha mangiato, e quindi la donna non avrebbe indovinato e non potrebbe salvare la vita
del figlio. Risultato: in tutti i casi, se la madre dice "tu lo mangerai", non potrà mai riavere il figlio e il coccodrillo
non potrà mai mantenere la promessa di restituirlo.
• quella di Giovanni Buridano, o meglio Jean Buridan, filosofo francese morto di peste a Parigi nel 1358 o 1360.
Fino a quell'epoca, durante la Scolastica, si era sempre pensato che i problemi logici derivanti dal paradosso del
mentitore derivassero dal carattere di autoreferenza. Buridano dimostrò che il problema non era l'autoreferenza,
elaborando un paradosso nel quale l'autoriferimento era per così dire spezzato in due. Egli immaginò due
protagonisti, Socrate e Platone, ciascuno dei quali pronuncia una sola frase. Socrate dice "Platone dice il falso";
Platone dice "Socrate dice il vero". Vista isolatamente, ciascuna delle due frasi non è affatto paradossale, ma la
loro congiunzione lo diventa. Se Socrate dice effettivamente il vero, allora Platone mente davvero e di
conseguenza (contraddicendo alla premessa) Socrate dice il falso. Non è possible che la frase di Socrate sia vera e
poi arrivare alla conclusione che è falsa.
• quella elaborata da Miguel de Cervantes nel Don Chisciotte (1615), dove si narrava di Sancho Panza che divenne
governatore di Barataria e si trovò a dover decidere sul caso accaduto ad un militare, messo di guardia su un ponte
con l'ordine di impiccare tutti coloro che mentivano circa il motivo per cui volevano oltrepassare il ponte stesso. Il
militare raccontava che un giorno era arrivato un tale cui fu chiesto perché voleva passare il ponte. A questa
domanda, il tale rispose: "voglio attraversare il ponte solo per essere impiccato in base alla legge". Se fosse vero
che costui voleva farsi impiccare, allora aveva detto la verità e quindi non doveva essere impiccato. Se stesse
mentendo, e poi fosse stato impiccato, avrebbe detto la verità e avrebbe dovuto essere lasciato libero.
• quella di Philip Jourdain, che nel 1913 riformulò il paradosso di Buridano eliminando il riferimento a personaggi
celebri, ponendo semplicemente due affermazioni: "la frase seguente è falsa" e "la frase precedente è vera".
176
Paradosso di Epimenide
Soluzioni del paradosso del mentitore
La soluzione data da Crisippo dice semplicemente che il paradosso è il rovesciamento del buon senso: ci sono frasi
delle quali «non si deve dire che esse dicono il vero e (neppure) il falso; né si deve congetturare in un altro modo,
cioè che lo stesso (enunciato) esprima simultaneamente il vero e il falso, bensì che esse sono completamente prive di
significato».
La soluzione prospettata da Aristotele è la seguente: le frasi paradossali si fondano sulla confusione tra uso e
menzione. Quando si dice "io sto mentendo", si sta usando la frase, nel senso che si tratta di un paradosso di tipo
autoreferenziale, catalogato tra gli insolubilia; chi enuncia una frase insolubile, non dice letteralmente nulla e
pertanto la proposizione (o meglio, la pseudoproposizione) deve essere semplicemente cassata.
Nel Medioevo, una proposta di soluzione fu avanzata da Guglielmo di Ockham (1285-1350). Dal momento che la
cassatio di Aristotele non forniva una soluzione concreta, egli introdusse la distinzione tra linguaggio e
metalinguaggio. Solo le frasi autoreferenziali mescolano i due livelli in uno solo, perché dire "io sto mentendo" è una
frase che si pone nel metalinguaggio (per quanto riguarda il verbo mentire, il cui concetto trova spiegazione non
nella frase stessa ma in un altro livello), ma è espressa mediante il linguaggio.
La proposta di soluzione di Buridano fu dettata dall'intuizione della logica temporale: un'affermazione non è vera o
falsa in assoluto, ma solo relativamente ad un certo momento storico. Mentre non è possibile che una frase possa
essere vera o falsa nello stesso tempo, essa può esserlo in tempi diversi: Basterebbe dire "Platone dirà il falso quando
pronuncerà la prossima frase" e "Socrate disse il vero quando pronunciò la frase precedente".
Nelle logiche non classiche in cui non vale il principio di non-contraddizione, le proposizioni come quelle del
mentitore non generano alcun paradosso. Per esempio nella logica fuzzy, dove il valore di verità può variare tra 0 e
1, tali frasi hanno un valore di verità pari a 0,5.
Note
[1] II, 108.
Bibliografia
• Piergiorgio Odifreddi, Le menzogne di Ulisse: l'avventura della logica da Parmenide ad Amartya Sen, Milano,
Saggistica TEA, 2003. ISBN 9788850211913
Voci correlate
•
•
•
•
•
Antinomia
Logica
Filosofia
Paradosso
Verità
177
Paradosso di Fermi
Paradosso di Fermi
Il paradosso di Fermi è un paradosso che si dice sia stato proposto dal fisico Enrico Fermi nel contesto della
probabilità di contattare forme di vita intelligente extraterrestre[1].
Il paradosso si riassume solitamente nella domanda "Dove sono tutti quanti? Se ci sono così tante civiltà evolute,
perché non abbiamo ancora ricevuto prove di vita extraterrestre come trasmissioni di segnali radio, sonde o navi
spaziali?". Estremizzando la questione, il problema diventa se noi esseri umani siamo la sola civiltà
tecnologicamente avanzata dell'Universo. Questo problema viene usualmente posto come monito alle stime più
ottimistiche dell'equazione di Drake, che proporrebbero un universo ricco di pianeti con civiltà avanzate, in grado di
stabilire comunicazioni radio, inviare sonde o colonizzare altri mondi.
La situazione paradossale è dovuta al contrasto tra la sensazione, da molti condivisa e supportata da stime del tipo di
quella di Drake, che noi non siamo soli nell'universo e il fatto che i dati osservativi contrastino con questa
sensazione. Ne deriva che la nostra osservazione o comprensione dei dati deve essere errata o incompleta.
Origine del termine
Nel 1950, mentre lavorava nei laboratori di Los Alamos, Enrico Fermi prese parte ad una conversazione con alcuni
colleghi, tra cui Edward Teller, durante un pranzo alla mensa del laboratorio. La conversazione verteva su un recente
avvistamento di UFO riportato dalla stampa, su cui ironizzava una vignetta satirica[2]. La conversazione si protrasse
su vari argomenti correlati, finché improvvisamente, durante il pranzo, Fermi non esclamò "Where is everybody?"
(trad. "Dove sono tutti quanti?").[1]
Possibili soluzioni
I parametri che figurano nell'equazione di Drake sono tutt'altro che definiti e questo non permette di risolvere
oggettivamente in alcun senso il paradosso. Di seguito sono elencate diverse possibili soluzioni del paradosso di
Fermi[3].
Siamo soli
La soluzione più semplice è che la probabilità che la vita si evolva spontaneamente nell'universo e si evolva fino a
produrre una civiltà evoluta sia estremamente bassa.
Molti sono gli elementi contemporaneamente necessari perché la vita come la intendiamo noi, basata sul carbonio,
possa evolversi su un pianeta. Fattori astronomici, come la posizione all'interno della galassia, l'orbita percorsa dal
pianeta intorno alla sua stella centrale e la tipologia di quest'ultima, la sua ellitticità e l'inclinazione dell'orbita,
nonché la presenza di satelliti naturali delle caratteristiche della Luna, sono tutti fattori determinanti alla
predisposizione alla vita. L'attuale nascita della vita, lo sviluppo di forme di vita intelligente e quindi di civiltà
richiede che molte altre coincidenze siano verificate. Gli studi sul nostro Sistema Solare sembrano confermare
l'eccezionalità della vita sulla Terra.[4]
Questa tesi può essere contestata sostenendo che la vita non debba necessariamente essere come la osserviamo sulla
Terra, ma possa evolversi in condizioni differenti, e che non debba necessariamente basarsi sul carbonio. Molta
dell'incertezza deriva dal fatto che i meccanismi che portano alla nascita della vita sono ignoti e quindi è molto
difficile, se non impossibile, stimarne la probabilità. Tuttavia l'occorrenza della vita è ritenuta un evento poco
probabile anche da parte di alcuni sostenitori dell'esistenza di civiltà aliene; per scavalcare questo problema costoro
hanno formulato l'ipotesi della panspermia, la quale sostiene che la vita possa diffondersi facilmente attraverso
l'universo o addirittura, nella forma sostenuta da Francis Crick, che possa essere deliberatamente diffusa da civiltà
tecnologicamente evolute.
178
Paradosso di Fermi
Le civiltà evolute hanno breve durata
Un parametro dell'equazione di Drake è la durata media delle civiltà tecnologicamente evolute. Drake stimò una
durata di 10.000 anni (da quando ha iniziato a poter comunicare con onde radio).
Le cause della scomparsa di una civiltà possono essere sia naturali che culturali[5]. Se una civiltà tende naturalmente
ad annientarsi, è solo questione di tempo perché inventi i mezzi necessari. L'unico dato osservativo disponibile è che
la nostra civiltà dispone da decenni dei mezzi necessari, ma per ora è sopravvissuta. Anche in questo caso è difficile
dire quanto la lotta gerarchica, l'aggressività, e l'autoritarismo, elementi del militarismo, siano prerogative della razza
umana o siano costanti universali intrinsecamente legate all'evoluzione o all'organizzazione politica degli individui
intelligenti. Si consideri che non è necessaria una distruzione totale della specie, ma è sufficiente una involuzione a
livelli primitivi dei sopravvissuti per sottrarre la civiltà alla lista di quelle in grado di comunicare. Anche eventi
catastrofici di tipo naturale possono considerarsi come gravi pericoli per un pianeta vivo: l'impatto di una cometa, di
un asteroide, l'eruzione di un supervulcano o l'alterazione delle condizioni climatiche sono tutte minacce alla vita
sulla Terra. Sappiamo che la Terra è stata più volte bersaglio di eventi catastrofici, che hanno causato diverse
estinzioni di massa (la più nota nell'opinione pubblica è quella dei dinosauri). Eventi di questo tipo sarebbero
prevedibili da una civiltà anche più arretrata della nostra, ma difficilmente rimediabili o prevenibili.
Il problema con questa tesi è che non esiste un campione statisticamente valido con cui poter stimare il parametro di
durata media di una civiltà tecnologicamente evoluta; anzi il campione è allo stato attuale composto da un solo caso:
la civiltà terrestre. Infatti estrapolare tale valore dalle informazioni relative alla nostra esistenza, oltre a non essere
statisticamente sensato, vizia il risultato con un effetto di selezione.
Esistono ma sono troppo lontane
L'universo è estremamente vasto. Prendendo come riferimento la velocità della luce, essa impiega oltre 2 milioni di
anni solo per arrivare alla galassia più vicina. È dunque possibile che esistano diverse civiltà evolute e desiderose di
comunicare, ma isolate dalle enormi distanze intergalattiche. Questa soluzione però implica che probabilmente siamo
soli nella nostra galassia, in contrasto con le stime meno pessimistiche dell'equazione di Drake, che ipotizza
l'esistenza di 600 civiltà evolute[6]. Una forma corretta di questa tesi afferma che le civiltà aliene sono attualmente
troppo lontane, ovvero che esistono civiltà relativamente vicine, ma che non hanno ancora intrapreso o hanno
intrapreso da poco esplorazioni o comunicazioni spaziali[7].
Ma anche questa ipotesi non è del tutto soddisfacente: infatti se il principio di mediocrità deve essere applicato per
postulare l'esistenza di altre razze aliene, deve essere applicato anche per scartare posizioni temporali speciali nella
storia della galassia, come sarebbe quella dell'inizio della colonizzazione galattica[8].
Esistono ma non comunicano o non vogliono comunicare
Ancora più complesso è ipotizzare quale sia la probabilità che una prima forma di vita biologica possa evolversi fino
a creare una specie autocosciente e desiderosa di comunicare. È possibile che nell'universo esistano molti corpi
celesti ospitanti una forma di vita, ma su pochissimi questa si sia evoluta in una civiltà tecnologica. Inoltre anche se
una civiltà sviluppa i mezzi adatti, non è detto che abbia l'idea o il desiderio di cercare di comunicare con altri
mondi, magari o perché non ci considerano degni (potrebbero considerare la nostra una civiltà troppo guerrafondaia
che mal reagirebbe ad un contatto con loro) o hanno paura di noi o comunque perché forse pensano che un contatto
diretto possa nuocere a noi o a loro o semplicemente non hanno mai sviluppato l'idea dell'esistenza di altre civiltà
con cui comunicare.
Tuttavia concepire una razza aliena come un'unica entità non è soddisfacente: se pure la civiltà o razza aliena nel suo
complesso fosse disinteressata, timorosa o non desiderosa di comunicare con altre civiltà, ciò non preclude che al suo
interno possano esistere individui o gruppi di individui desiderosi o interessati a comunicare.
179
Paradosso di Fermi
Non siamo in grado di ricevere le loro comunicazioni
Tutti i nostri attuali tentativi di inviare o ricevere comunicazioni con altri mondi si sono basati sull'utilizzo di onde
elettromagnetiche. Così come prima dell'epoca di Guglielmo Marconi non avremmo neppure immaginato di usare
questo mezzo, così potremmo non essere neppure in grado di immaginare le tecniche usate da civiltà radicalmente
diverse dalla nostra. Alcune tecnologie teorizzate potrebbero essere basate sui neutrini, le onde gravitazionali o la
correlazione quantistica. Vi è da aggiungere che tali tecnologie di comunicazioni teorizzate sono molto opinabili
sulla base delle conoscenze scientifiche attuali, in particolare utilizzare la correlazione quantistica per trasmettere
informazioni contrasta con un ben assodato teorema della meccanica quantistica. La trasmissione mediante onde
gravitazionali o neutrini, non pone obiezioni di carattere teorico, ma richiederebbe delle civiltà con a disposizione
una quantità di energia paragonabile a quella contenuta in larga parte dell'Universo. Attualmente vi sono in funzione
in alcuni laboratori rivelatori di neutrini e di onde gravitazionali in grado di misurare tali ipotetici segnali se
particolarmente intensi. Si può comunque ipotizzare che una civiltà attraversi diverse fasi di evoluzione tecnologica,
passando anche per le relativamente facili onde elettromagnetiche. È ragionevole ritenere che scienziati di questa
civiltà siano in grado comunque di ricevere e decodificare segnali radio, anche se per loro ormai obsoleti.
Rimanendo nel campo delle onde radio dobbiamo tenere in considerazione il problema della velocità della luce. Le
microonde da noi emesse da quando si è sviluppata la televisione, si stanno ancora allontanando da noi alla velocità
della luce in tutte le direzioni. Il raggio in anni luce della sfera entro la quale queste informazioni sono ricevibili
coincide numericamente con il periodo in anni dal quale le trasmissioni sono iniziate. Nel caso della Terra questo
valore è quindi di circa 50 anni luce. La tendenza ad ottimizzare le trasmissioni per ragioni economiche, come nel
caso della televisione digitale o dei telefoni cellulari, focalizzandole in fasci di microonde e sopprimendo la portante,
fa sì che i segnali trasmessi siano meno distinguibili dallo spazio.
I critici di questa soluzione fanno notare che se una civiltà aliena volesse comunicare, utilizzerebbe dei segnali
facilmente riconoscibili come tali, come ad esempio una modulazione con portante. Se tale civiltà intendesse usare
segnali di difficile ricezione per evitare di comunicare con altre civiltà più arretrate o diverse, si ricadrebbe nel caso
precedente. Inoltre alcuni dei mezzi di comunicazione proposti, alternativi alle onde elettromagnetiche, o sono
speculazioni teoriche[9] o sono già rilevabili con la tecnologia terrestre[10].
Il SETI
Da molti anni è in corso un progetto che cerca sistematicamente di individuare possibili trasmissioni intelligenti
provenienti dal cosmo: il progetto SETI. I segnali radio vengono ricevuti dal radiotelescopio di Arecibo, in Porto
Rico, e analizzati da una rete di migliaia di personal computer, il SETI@home, di partecipanti volontari. Fino ad ora
(2011) nessun segnale è stato rilevato da questo progetto e da tutti i precedenti tentativi. Recentemente è però stato
fatto notare che modulazioni più evolute, come quelle digitali, sono sempre più difficili da riconoscere come
portatrici di informazione e quasi indistinguibili dal rumore di fondo. In sostanza i segnali potrebbero essere arrivati
ma non li abbiamo riconosciuti.
Note
[1] (EN) Eric Jones, "Where is everybody?", An account of Fermi's question" (http:/ / www. fas. org/ sgp/ othergov/ doe/ lanl/ la-10311-ms. pdf),
Los Alamos Technical report LA-10311-MS, Marzo, 1985.
[2] (EN) Alan Dunne, Senza titolo, New Yorker, 20 May 1950. (http:/ / home. fnal. gov/ ~carrigan/ pillars/ New_Yorker_aliens. png)
[3] Stephen Webb, Se l'universo brulica di alieni... dove sono tutti quanti?, Milano, Sironi, 2004. ISBN 978-88-518-0041-3
[4] Brownlee, Donald. Ward, Peter D. "Rare Earth". Copernicus. 2000
[5] (EN) The Internet Encyclopedia of Science, Hazards to extraterrestrial civilizations (http:/ / www. daviddarling. info/ encyclopedia/ E/
etcivhaz. html)
[6] Piero Angela, Quante civiltà extraterrestri? da "Nel Cosmo alla ricerca della vita". Garzanti, 1980, pp. 138-146. ISBN 88-11-67402-6
[7] Nel saggio Civiltà extraterrestri, Isaac Asimov arriva ad ipotizzare un numero molto elevato di possibili civiltà, ma l'enorme distanza
reciproca (in media 630 anni luce secondo le sue stime) impedirebbe lo scambio di comunicazioni tra di loro
180
Paradosso di Fermi
181
[8] (EN) Brin, Glen David (1983). "The 'Great Silence': The Controversy Concerning Extraterrestial Intelligent Life" (http:/ / articles. adsabs.
harvard. edu/ cgi-bin/ nph-iarticle_query?1983QJRAS. . 24. . 283B& data_type=PDF_HIGH& whole_paper=YES& type=PRINTER&
filetype=. pdf. ). Quarterly Journal of Royal Astronomical Society 24: 283–309..
[9] (EN) Does quantum entanglement imply faster than light communication? (http:/ / curious. astro. cornell. edu/ question. php?number=612),
Ask an Astronomer, Cornell University
[10] (EN) Cosmic Search Vol. 1 No. 3 (http:/ / www. bigear. org/ vol1no3/ neutrino. htm)
Bibliografia
• Stephen Webb, Se l'universo brulica di alieni... dove sono tutti quanti?, Milano, Sironi, 2004. ISBN
978-88-518-0041-3
Voci correlate
•
•
•
•
•
Equazione di Drake
Principio antropico
Panspermia
Esobiologia
Messaggio di Arecibo
• Primo contatto
• SETI
• UFO
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Fermi
paradox
Collegamenti esterni
• Discussione del filosofo Nick Bostrom sul Paradosso di Fermi (http://www.estropico.com/id179.htm)
Vita extraterrestre
Eventi e oggetti: ALH84001 • Meteorite Murchinson • Sorgente radio SHGb02+14a • Meteorite Shergotty •
Segnale Wow!
Sistema solare:
Europa • Marte • Titano • Encelado
Corpi
extrasolari:
Simili alla Terra • Gliese 581 c • Gliese 581 d • Gliese 581 e • Gliese 581 g
Comunicazione: Allen Telescope Array • Radiotelescopio di Arecibo • Sonda di Bracewell • Missione spaziale
Darwin • Lincos • Placca del Pioneer • Progetto Ciclopi • Progetto Ozma • Progetto Phoenix •
SERENDIP • SETI • SETI@home • SETI attivo • Comunicazione interstellare
Voci correlate:
Abitabilità planetaria • Acqua liquida extraterrestre • Biochimiche ipotetiche • Biofirma •
Esobiologia • Esoecologia • Noogenesi • Pedomicrobium • Protezione planetaria • Scala di San
Marino • Ultima legge di Shermer • Silencium universi • Zona abitabile
Teorie:
Pluralità dei mondi • Equazione di Drake • Paradosso di Fermi • Grande Filtro • Scala di
Kardašëv • Principio di mediocrità • Neocatastrofismo • Panspermia • Ipotesi della rarità della
Terra • Quoziente di senzienza • Ipotesi dello zoo
Missioni:
Mars Sample Return • Mars Astrobiology Explorer-Cacher • Europa Jupiter System Mission
Questo box: vedi · disc. ·
Paradosso di Gibbs
182
Paradosso di Gibbs
In termodinamica il paradosso di Gibbs coinvolge la natura discontinua
dell'entropia configurazionale. Molti fisici ritengono la discontinuità
dell'entropia contraria all'intuizione e al senso comune e pertanto vedono
questa discontinuità come un paradosso.
Dimostrazione
Il primo ad occuparsene fu Josiah Willard Gibbs nel suo lavoro
Sull'Equilibrio delle Sostanze Eterogenee. [1] [2] Sia dato un recipiente diviso
a metà da un pistone mobile; da un lato del recipiente si trova un gas ideale A,
e dall'altra parte un gas ideale B alla stessa temperatura e pressione. Quando
la divisione viene rimossa, i due gas si mischiano e l'entropia del sistema
Josiah Willard Gibbs
cresce perché vi è maggior grado di incertezza nella posizione delle particelle.
(1839 – 1903)
Si può dimostrare che l'aumento di entropia del miscuglio moltiplicata per la
temperatura è uguale al lavoro necessario per ristabilire le condizioni iniziali:
il gas A da una parte, il gas B dall'altra. Se si tratta dello stesso gas, non è necessario lavoro, ma se i gas sono
differenti, anche per una differenza minuscola, il lavoro aumenta raggiungendo un valore elevato, e inoltre il valore è
lo stesso di quello che si ha nel caso in cui la differenza tra i due gas è maggiore. L'entropia configurazionale di
liquidi, solidi e soluzioni può essere calcolata in modo simile e il paradosso di Gibbs può essere applicato
indifferentemente a liquidi, solidi e soluzioni in fase condensata come pure ai gas.
Similitudine e entropia configurazionale
Quando il paradosso di Gibbs venne esposto, la correlazione dell'entropia configurazionale con la similitudine era
molto controversa e vi erano tre opinioni molto differenti di valutare il valore dell'entropia come legato alla
similitudine. La similitudine può continuamente cambiare:
• similitudine Z=0 se i componenti sono distinguibili;
• similitudine Z=1 se le parti non sono distinguibili.
L'entropia configurazionale, al contrario, non cambia continuamente.
Vi sono molte soluzioni proposte
configurazione-similitudine.
[3]
e tutte cadono in uno dei tre tipi di relazione tra entropia di
Una soluzione corrisponde alla Figura (a) e consiste nell'accettare la discontinuità come fatto, affermando che il
senso comune e le obiezioni intuitive sono infondate. Questa è la soluzione data dallo stesso Gibbs, e riaffermata da
E. T. Jaynes[4].
Paradosso di Gibbs
John von Neumann propose una soluzione alternativa al paradosso di Gibbs rimuovendo la discontinuità
dell'entropia configurazionale: decresce in maniera continua con il decrescere della proprietà di similitudine delle
singole componenti (Figura b). Recentemente Shu-Kun Lin ha elaborato un'altra relazione (Figura c).
Discontinuità dell'entropia
Spiegazione classica della termodinamica
Lo stesso Gibbs propose una soluzione al problema che molti scienziati ritengono come la soluzione di Gibbs del
paradosso di Gibbs.[4][5] Il punto cruciale della sua soluzione è il fatto che sviluppando una teoria classica basata
sull'idea che i due differenti tipi di gas sono indistinguibili, e che uno non presenta alcuna misurazione che riveli la
differenza, allora la teoria non possiede contraddizioni interne. In altre parole, se si considerano due gas A e B e non
si sa che sono differenti, allora assumerli identici non causa alcun problema teorico. Se anche si fa un esperimento
con questi gas che dà risultati non corretti, si è certamente scoperto un metodo per rilevare la loro differenza.
Questa visione suggerisce che i concetti di stato termodinamico ed entropia sono piuttosto soggettivi. La crescita
dell'entropia - come risultato di miscuglio - moltiplicata per la temperatura è uguale al minimo ammontare di lavoro
necessario per ripristinare lo stato iniziale dei gas separati. Supponiamo che due gas differenti siano separati da una
parete, ma che non sia possibile rilevare la differenza tra essi. Quando si rimuove la parete, il lavoro necessario a
ristabilire la condizione iniziale è diverso da zero nel momento in cui siamo in grado di distinguere la differenza e
non dipende dalla portata della differenza.
Il paradosso si risolve sostenendo che la discontinuità è reale e che ogni "senso comune" o obiezione "intuitiva" a
esso sono infondate.
Spiegazione della meccanica statistica e della meccanica quantistica
Un gran numero di scienziati crede che questo paradosso sia risolto dalla meccanica statistica (attribuita anche a
Gibbs)[6] o dalla meccanica quantistica, ponendo che, se i due gas sono composti da particelle indistinguibili, essi
obbediscono a differenti statistiche rispetto al caso in cui fossero distinguibili. Dal momento che la distinzione tra le
particelle è discontinua, si ha l'entropia configurazionale. L'equazione risultante per l'entropia di un classico gas
ideale è estensiva, ed è nota come l'equazione di Sackur-Tetrode.
Lo stato di un gas ideale di energia U, volume V e con N particelle, ciascuna delle quali avente massa m, è
rappresentato specificando il vettore quantità di moto p ed il vettore posizione x per ogni particella. Questo può
essere pensato specificando un punto in uno spazio delle fasi 6N-dimensionale, in cui ciascuno degli assi corrisponde
a una delle coordinate della quantità di moto o della posizione di ogni particella. L'insieme dei punti nello spazio
delle fasi che il gas potrebbe occupare è specificato dalla restrizione che il gas avrà particolare energia:
e che sarà contenuto all'interno del volume V (sia V una scatola di spigolo X tale che X3=V):
per i=1..N e j=1..3.
La prima restrizione definisce la superficie di un'ipersfera 3N-dimensionale di raggio (2mU)1/2 e il secondo è un
ipercubo 3N-dimensionale di volume VN. Queste si combinano formando un ipercilindro 6N-dimensionale. Essendo
l'area della parete di un cilindro il prodotto tra la circonferenza di base per l'altezza, l'area φ della parete
dell'ipercilindro è:
183
Paradosso di Gibbs
L'entropia è proporzionale al logaritmo del numero di stati che il gas può occupare soddisfacendo le restrizioni sopra
elencate. Un altro percorso, che prende avvio dal principio di indeterminazione di Heisenberg, afferma che in uno
spazio di fasi non si può specificare un volume minore di h3N dove h è la costante di Planck. L'area sopra descritta
dev'essere in realtà un guscio di spessore uguale all'incertezza della quantità di moto
per cui l'entropia va
formulata come:
dove la costante di proporzionalità è k, la costante di Boltzmann.
Si può prendere la lunghezza della scatola X come l'incertezza della posizione, e dal principio di indeterminazione di
Heisenberg, scriverla
. Risolvendo per
, usando l'approssimazione di Stirling per la funzione
Gamma, e tenendo solo i termini di ordine N l'entropia diviene:
Questa quantità non è estensiva come può essere vista considerando due volumi identici con lo stesso numero di
particelle ed uguale energia. Si considerano i due volumi separati inizialmente da una barriera; la rimozione o il
reinserimento della parete è reversibile, ma la differenza di entropia dopo la rimozione della barriera è:
che è in contraddizione con la termodinamica. Questo costituisce il paradosso di Gibbs che lo stesso scienziato
risolse postulando quanto scritto precedentemente. Questo significa che tutti gli stati che differiscono solo per una
permutazione delle particelle vanno considerati come lo stesso punto. Per esempio, sia un gas a 2-particelle che
specifichiamo AB come lo stato del gas dove la prima particella (A) ha quantità di moto p1 e la seconda particella (B)
ha quantità di moto p2, allora questo punto come pure quello di BA in cui B ha quantità di moto p1 mentre A ha
quantità di moto p2 devono essere considerati come lo stesso punto. Si nota che per un gas di N particelle, vi sono N!
punti che sono identici in tal senso, e quindi per calcolare il volume dello spazio delle fasi occupate dal gas si deve
dividere l'equazione 1 per N!.[6] Questo dà per l'entropia:
che si può facilmente dimostrare come estensiva. Questa è l'equazione di Sackur-Tetrode. È facilmente intuibile che,
utilizzando questa equazione, il valore dell'entropia non presenta differenze dopo aver mischiato due parti dello
stesso gas. [7]
184
Paradosso di Gibbs
185
Continuità dell'entropia
Mentre molti scienziati si ritrovavano nella formulazione di discontinuità dell'entropia mostrata nella Figura (a) e
nelle spiegazioni classiche o facenti uso della meccanica quantistica in termodinamica o in meccanica statistica, altri
ritenevano che il paradosso di Gibbs fosse un paradosso reale da risolversi mostrando la continuità dell'entropia.
Risoluzione del paradosso di Gibbs per la meccanica quantistica
Nel suo libro, Mathematical Foundations of Quantum Mechanics,[8] John von
Neumann fornì, per la prima volta, una risoluzione del paradosso di Gibbs
rimuovendo la discontinuità dell'entropia configurazionale: essa decresce
continuamente con il crescere della similitudine delle componenti individuali
(Si veda la Figura (b)).
A pagina 370 della versione inglese del testo,[8] si legge che " ... Questo
chiarisce un vecchio paradosso della forma classica della termodinamica, cioè
la scomoda discontinuità nell'operazione con pareti semi-peremeabili... Ora
abbiamo una transizione continua."
Furono pochi gli scienziati che accettarono questa soluzione, altri non sono
ancora convinti.
Risoluzione del paradosso mediante la teoria
dell'informazione
John von Neumann
(1903 – 1957) )
Un'altra relazione di continuità entropica fu proposta da Shu-Kun Lin,[3] basandosi su una considerazione di teoria
dell'informazione, come mostrato nella Figura (c). Un calorimetro viene impiegato per determinare l'entropia
configurazionale al fine di verificare la proposizione del paradosso di Gibbs o per risolvere il paradosso stesso.
Sfortunatamente è noto che nessuno dei processi di miscuglio tipici hanno una quantità rilevabile di calore e lavoro
trasferiti, nonostante sia misurabile una grande quantità di calore, fino al valore calcolato come TΔS (dove T è la
temperatura e S i l'entropia termodinamica), e nonostante sia osservabile un elevato valore di lavoro fino a ΔG (dove
G è l'energia libera di Gibbs).[9] È necessario ammettere il fatto che la differenza di entropia configurazionale dei
gas ideali è sempre zero, sia che i gas siano differenti o identici; tale conclusione può essere considerata come una
risoluzione sperimentale del paradosso di Gibbs per i gas ideali. Ciò suggerisce che l'entropia configurazionale non
ha nulla a che vedere con l'energia (calore TΔS o lavoro ΔG). Un processo di miscuglio è un processo di perdita di
informazioni che può essere discusso pertinentemente solo nell'ambito della teoria dell'informazione e l'entropia
configurazionale è un'entropia di informazione. Per entropia di informazione (chiamata anche entropia della teoria
dell'informazione, o entropia di Shannon), si intende che si tratta di una funzione logaritmica adimensionale S = lnw
nella teoria dell'informazione. Non si tratta di una funzione della temperatura T e non è necessariamente legata
all'energia. In luogo del calorimetro, è possibile utilizzare, per valutare la perdita di informazione durante il
miscuglio, sensori chimici o biosensori. Mescolare 1 mole di gas A e 1 mole di un gas diverso B provoca un aumento
di al più 2 bits di entropia di informazione se le due parti del contenitore sono usate per registrare 2 bits di
informazioni.
Per le fasi condensate, invece della parola "miscuglio" si può usare la parola "mescolanza" per i processi che
combinano varie parti di sostanza originariamente in contenitori differenti. Quindi, è sempre un processo di
mescolanza, sia qualora le sostanze siano molto diverse, o molto simili o persino le stesse. Il modo convenzionale
per calcolare l'entropia configurazionale predice che il processo di miscuglio (o mescolanza) di sostanze differenti
(distinguibili) è più spontaneo che il processo medesimo tra sostanze uguali (indistinguibili). Tuttavia, questo
contraddice l'esperienza, che mostra come il processo di mescolanza della stessa sostanza (o di sostanze
indistinguibili) è il più spontaneo; esempi immediati sono la mescolanza spontanea di gocce d'olio in acqua e la
Paradosso di Gibbs
cristallizzazione spontanea in cui le celle di lattice indistinguibili si assemblano tra loro. Sostanze più simili sono
miscibili più spontaneamente: metanolo ed etanolo sono miscibili perché sono molto simili. Senza eccezioni, tutte le
osservazioni sperimentali supportano la relazione entropia-similitudine espressa nella Figura (c). Ne deriva che la
relazione entropia-similitudine data da Gibbs nella Figura (a) è opinabile. Una conclusione significativa è che almeno allo stato solido - l'entropia configurazionale ha un valore negativo per i solidi distinguibili: mischiare
sostanze diverse diminuisce l'entropia di informazione, e mescolare molecole indistinguibili (da un gran numero di
contenitori) per formare una fase di sostanza pura provoca un forte aumento dell'entropia di informazione.
Cominciando da una mistura binaria di solidi, mescolando 1 mole di molecole del tipo A per formare una fase e
mescolare 1 mole di molecole di tipo B per formare un'altra fase porta ad un aumento dell'entropia di informazione
quantificabile in 2×6.022×1023=12.044×1023 bits =1.506×1023bytes, dove 6.022×1023 è il numero di Avogadro; e vi
sono al massimo solo 2 bits di informazione persa.
Note
[1] Gibbs, J. Willard, (1876). Transactions of the Connecticut Academy, III, pp. 108-248, Oct. 187-May, 1876, and pp. 343-524, May, 1877-July,
1878.
[2] J. Willard Gibbs, The Scientific Papers of J. Willard Gibbs - Volume One Thermodynamics (http:/ / books. google. com/
books?id=-neYVEbAm4oC& dq=scientific+ papers+ of+ j+ willard+ gibbs), Ox Bow Press, 1993. ISBN 0-918024-77-3
[3] Se ne propone una lista sul sito: Paradosso di Gibbs e sue risoluzioni (http:/ / www. mdpi. org/ lin/ entropy/ gibbs-paradox. htm).
[4] Jaynes, E.T.. The Gibbs Paradox (http:/ / bayes. wustl. edu/ etj/ articles/ gibbs. paradox. pdf) (PDF). 1996. URL consultato il November 8.
(Jaynes, E. T. The Gibbs Paradox, In Maximum Entropy and Bayesian Methods; Smith, C. R.; Erickson, G. J.; Neudorfer, P. O., Eds.; Kluwer
Academic: Dordrecht, 1992, p.1-22)
[5] Ben-Naim, Arieh (2007). “ On the So-Called Gibbs Paradox, and on the Real Paradox (http:/ / www. mdpi. org/ entropy/ papers/ e9030132.
pdf).” Entropy (an Open Access journal), 9(3): 132-136.
[6] Gibbs, J. Willard, Elementary principles in statistical mechanics (http:/ / www. archive. org/ details/ elementaryprinci00gibbrich), New York,
1902.; (1981) Woodbridge, CT: Ox Bow Press ISBN 0-918024-20-X
[7] Per ulteriori approfondimenti si consiglia la lettura del seguente testo: Allahverdyan, A.E.; Nieuwenhuizen, T.M. (2006). “ Explanation of the
Gibbs paradox within the framework of quantum thermodynamics (http:/ / arxiv. org/ abs/ quant-ph/ 0507145).” Physical Review E, 73 (6),
Art. No. 066119. ( Link to the paper at the journal's website (http:/ / link. aps. org/ abstract/ PRE/ v73/ e066119)).
[8] John von Neumann, Mathematical Foundations of Quantum Mechanics, Princeton U. Press, 1932.. reprinted, 1996 edition: ISBN
0-691-02893-1 (Tradotto dal tedesco ad opera di Robert T. Beyer)
[9] Attenzione: Non effettuare esperimenti di miscuglio se non sotto la supervisione di un chimico in laboratorio. Viene rilasciata una gran
quantità di calore, che può essere esclusivamente attribuita a reazioni chimiche avvenute nel miscuglio.
Collegamenti esterni
• Il paradosso di Gibbs e sue risoluzioni (http://www.mdpi.org/lin/entropy/gibbs-paradox.htm) — lista di
pubblicazioni.
• Numero speciale di "Paradosso di Gibbs e sue soluzioni" (http://www.mdpi.org/entropy/specialissues/
gibbs-paradox.htm) pubblicato dalla rivista Entropy.
186
Paradosso di Hempel
187
Paradosso di Hempel
Il paradosso dei corvi (anche detto paradosso dei corvi neri, paradosso di Hempel o i corvi di Hempel) è un
paradosso logico sviluppato negli anni '40 da Carl Gustav Hempel per dimostrare i limiti del procedimento logico
induttivo.
Osservando come per il principio induttivo
l'acquisizione di un nuovo riscontro
empirico di una teoria renda più probabile
che questa teoria sia vera, cioè la teoria
della confermabilità, Hempel prese ad
esempio la teoria che tutti i corvi siano neri
per trarne conclusioni di paradosso.
Esaminando ad uno ad uno un milione di
corvi,
notiamo
infallibilmente
ed
invariabilmente che essi sono tutti neri.
Dopo ogni osservazione, perciò, la teoria
che tutti i corvi siano neri diviene ai nostri
occhi sempre più probabilmente vera,
coerentemente col principio induttivo. Pare
ogni volta sempre più corretto registrare
l'assunto come probabilmente vero: tutti i corvi sono neri.
Un corvo nero
Ma l'assunto "i corvi sono tutti neri" è logicamente equivalente all'assunto "tutte le cose che non sono nere, non sono
corvi". In base al principio induttivo, d'altra parte, questo secondo enunciato diventerebbe più probabilmente vero in
seguito all'osservazione di una mela rossa: osserveremmo, infatti, una cosa non nera che non è un corvo. Perciò,
l'osservazione di una mela rossa renderebbe più probabilmente vero anche l'assunto che "tutti i corvi sono neri".
Una delle soluzioni più famose fra quelle proposte consiste nell’accettare che l’osservazione di una mela verde
costituisce una prova che tutti i corvi sono neri, ma aggiungendo che l’effettiva conferma che questa prova fornisce è
molto piccola, vista la grande differenza fra il numero di corvi e il numero di oggetti non neri. Secondo questa
risoluzione, la conclusione appare paradossale perché viene intuitivamente stimato in zero il valore della prova
nell’osservare una mela verde, mentre in realtà è molto piccolo. Questa argomentazione è stata presentata da I. J.
Good nel 1960 ed è probabilmente la più conosciuta, anche alcune varianti sono state presentate nel 1958 e forme
precedenti dell’argomentazione risalgono al 1940.
Paradosso di Moore
Paradosso di Moore
Il paradosso di Moore è un paradosso formulato nel 1942 da George Edward Moore che tratta dell'assurdità di
affermare una proposizione e contemporaneamente affermare di non crederci.
Detta p una generica proposizione, il paradosso si può formulare nel seguente modo: "p, ma io non credo che p";
oppure: "Io credo che p, ma non p". Nella formulazione tipica di questo paradosso, questo si traduce in "piove ma io
non ci credo". Come si può osservare entrambe le frasi descrivono uno stato di cose possibile, e prese separatamente
non contengono alcun errore logico. Tuttavia, nella loro interazione, perdono di senso ed hanno una paradossalità
che, a detta del filosofo Ludwig Wittgenstein, è molto prossima all'autocontraddizione perché affermare "p, ma io
non credo che p", equivale a dire "p, ma forse non p".
Il paradosso non si pone nel caso di una seconda o terza persona: l'affermazione "piove ma lui non ci crede" non ha
alcuna paradossalità. Il carattere paradossale, quindi, viene dall'affermazione in prima persona. Ciò accade perché,
mentre in seconda o in terza persona si descrive uno stato di cose indipendente dalla prima proposizione essendo la
descrizione di una credenza (il fatto che lui non creda che piove è indipendente dal fatto che piova o meno), nel caso
della prima persona ciò non è vero: "io credo che p" non è la descrizione della mia credenza ma la sua espressione, e
quindi equivale ad affermare direttamente p, giungendo all'autocontradditorietà di affermare e negare allo stesso
tempo una medesima proposizione (che va contro il principio di non contraddizione).
Collegamenti esterni
• (EN) Moore's problem [1]. Stanford Encyclopedia of Philosophy, 21 gennaio 2006. URL consultato il 4-2-2008.
Note
[1] http:/ / plato. stanford. edu/ entries/ epistemic-paradoxes/ #MooPro
188
Paradosso di Newcomb
189
Paradosso di Newcomb
Questo Box di Wikipedia contiene almeno un errore
Il titolo di questo box evidenzia il Paradosso dell'introduzione di David Makinson: se il testo seguente fosse
totalmente corretto, quanto (falsamente) affermato sarebbe comunque vero, poiché l'errore consisterebbe
nell'affermazione stessa. Cioè l'affermazione falsa sarebbe vera...
A scanso di equivoci, l'errore non sussiste nel testo presente nella voce. Ma se quest'ultima affermazione ("l'errore
non sussiste nel testo presente nella voce") fosse l'errore, allora l'articolo conterrebbe un errore. Quindi non credete
ciecamente a quello che leggete, a meno che l'errore non sia questo consiglio (e così via...).
Un paradosso, dal greco παρά (contro) e δόξα (opinione), è un ragionamento che appare contraddittorio, ma che
deve essere accettato, oppure un ragionamento che appare corretto, ma che porta ad una contraddizione: si tratta,
secondo la definizione che ne dà Mark Sainsbury, di
"una conclusione apparentemente inaccettabile, che deriva da premesse apparentemente accettabili per mezzo
di un ragionamento apparentemente accettabile".
In filosofia ed economia il termine paradosso è usato spesso come sinonimo di antinomia. In matematica invece si
distinguono i due termini: il paradosso consiste in una proposizione eventualmente dimostrata e logicamente
coerente, ma lontana dall'intuizione; l'antinomia, invece, consiste in una vera e propria contraddizione logica.
Il paradosso è un potente stimolo per la riflessione. Ci rivela sia la debolezza della nostra capacità di discernimento
sia i limiti di alcuni strumenti intellettuali per il ragionamento.
È stato così che paradossi basati su concetti semplici hanno spesso portato a grandi progressi intellettuali. Talvolta si
è trattato di scoprire nuove regole matematiche o nuove leggi fisiche per rendere accettabili le conclusioni che
all'inizio erano "apparentemente inaccettabili". Altre volte si sono individuati i sottili motivi per cui erano fallaci le
premesse o i ragionamenti "apparentemente accettabili".
Sin dall'inizio della storia scritta si hanno riferimenti ai paradossi: dai paradossi di Zenone alle antinomie di
Immanuel Kant, fino a giungere ai paradossi della meccanica quantistica e della teoria della relatività generale,
l'umanità si è sempre interessata ai paradossi. Un'intera corrente filosofico-religiosa, il buddhismo zen, affida
l'insegnamento della sua dottrina ai koan, indovinelli paradossali.
Paradossi nella vita comune
Molti sono i paradossi in senso letterale, ossia contro l'opinione comune. Ad esempio, si parla molto del
riscaldamento globale e dell'effetto serra. Secondo i modelli climatologici accettati, il riscaldamento dell'Artico, con
il conseguente scioglimento dei ghiacci, causa il raffreddamento dell'Europa. Quindi l'aumento della temperatura a
livello globale genera una diminuzione della stessa a livello locale. Questo è noto come paradosso dell'Artico.
Molti paradossi sono alla base di trame di film famosi, ad esempio nel secondo Terminator, scopriamo che le
macchine hanno origine dai resti del primo terminator inviato, una versione del classico paradosso del nonno. Meno
noto è il paradosso del Comma 22 del codice di guerra dei Klingon, desunto quasi letteralmente dal romanzo Comma
22.
I paradossi dei sensi
Nelle neuroscienze sono noti molti paradossi dovuti all'imperfezione dei sensi, o all'elaborazione dei dati da parte
della mente. Ad esempio, è possibile creare un suono che sembra crescere sempre, mentre in realtà è ciclico. Per il
tatto, basta provare con un compasso a due punte: sul polpastrello si percepiscono due punte separate di pochi
millimetri, mentre sulla schiena se ne percepisce solo una anche a qualche centimetro. Oppure si immergono le mani
in due bacinelle di acqua una calda e una fredda; dopo un paio di minuti si immergono entrambe in una bacinella
Paradosso di Newcomb
tiepida, e si avranno sensazioni contrastanti: fredda e calda. Le illusioni ottiche sono un altro esempio di paradossi
sensoriali.
Paradossi statistici
In statistica uno dei fenomeni più strani che si hanno è il paradosso di Simpson, di cui si fa un esempio: su una certa
malattia, l'ospedale X ha il 55% di successi, l'ospedale Y il 60%. Quindi converrebbe operarsi in Y.
Se scomponiamo, a X sono 90% casi gravi, di cui il 50% è risolto (45% del totale), mentre i restanti 10% lievi hanno
il 100% (10% sul totale) di successo. A Y il 40% sono casi lievi, di cui risolvono il 90%, (36%) e nel 60% di casi
gravi il successo è del 40% (24%).
Quindi in realtà conviene sempre operarsi in X.
In pratica, l'interpretazione dei dati è falsata da parametri non considerati.
I paradossi più antichi
Il più antico paradosso si ritiene essere il paradosso di Epimenide, in cui il Cretese Epimenide afferma: "Tutti i
cretesi sono bugiardi". Poiché Epimenide era originario di Creta, la frase è paradossale. A rigor di logica, moderna
ovviamente, questo non è un vero paradosso: detta p la frase di Epimenide, o è vera p o è vera non p. Il contrario di p
è Non tutti i cretesi sono bugiardi, ossia Qualche cretese dice la verità, Epimenide non è uno di quelli, e la frase è
falsa. Tuttavia la negazione dei quantificatori non era ben chiara nella logica degli antichi greci. Subito dopo
troviamo i paradossi di Zenone. Un altro famoso paradosso dell'antichità, questo sì irresolubile, è il paradosso di
Protagora, più o meno contemporaneo di Zenone di Elea.
Alcuni paradossi, poi, hanno preceduto di secoli la loro risoluzione: prendiamo ad esempio il paradosso di Zenone
della freccia:
"Il terzo argomento è quello della freccia. Essa infatti appare in movimento ma, in realtà, è immobile: in ogni
istante difatti occuperà solo uno spazio che è pari a quello della sua lunghezza; e poiché il tempo in cui la
freccia si muove è fatta di infiniti istanti, essa sarà immobile in ognuno di essi."
Come si può distinguere la freccia in movimento da quella ferma, e smentire il paradosso? Oggi, ovvero più di due
millenni dopo Zenone, sappiamo che, secondo il principio della relatività ristretta, una freccia in moto rispetto
all'osservatore appare a questi più corta della stessa freccia ferma rispetto all'osservatore.
Classificazione dei paradossi logici
Esistono varie forme di classificazione dei paradossi. Secondo le loro implicazioni, i paradossi si dividono in:
• Positivi a cui si arriva: un esempio ne è la teoria della relatività ristretta. Un paradosso nullo o retorico deriva dal
tipico ragionamento sofista, che dimostra una cosa e il suo contrario, come i già citati paradossi di Zenone. Infine,
i paradossi negativi portano il ragionamento a partire da un'ipotesi alla negazione della stessa, e sono in pratica
una dimostrazione per assurdo della falsità dell'ipotesi di partenza. Di quest'ultimo tipo sono molti teoremi
matematici e fisici, come ad esempio il teorema dell'infinità dei numeri primi o il teorema di Church.
Se invece categorizziamo che cosa ci appare paradossale secondo i nostri sensi, abbiamo i paradossi visivi, auditivi,
tattili, gustativi e olfattivi, più spesso indicati come anomalie o ambiguità, e i paradossi logici e matematici che sono
categoria a sé.
190
Paradosso di Newcomb
191
Paradossi dell'induzione
Molti ritengono David Hume responsabile di aver introdotto il problema dell'induzione. In realtà, nella versione del
paradosso del sorite, tale problema era noto sin dai tempi di Zenone, vero padre del pensiero paradossale. Il
paradosso del sorite afferma:
"Un granello di sabbia che cade non fa rumore, quindi nemmeno due, e nemmeno tre, e così via. Quindi
nemmeno un mucchio di sabbia che cade fa rumore".
Oppure il suo inverso: se tolgo un granello di sabbia ad un mucchio, è ancora un mucchio, così se ne tolgo due e così
via. Tuttavia 10 granelli non fanno un mucchio. Qual è allora il granello che fa passare da un mucchio ad un
non-mucchio? Anche se questo problema può essere risolto con la logica fuzzy, ponendo una funzione che al variare
dei granelli restituisca un valore compreso tra 0 e 1, ben più difficile è la risoluzione del seguente paradosso:
1 è un numero piccolo
se n è un numero piccolo, allora anche n+1 è un numero piccolo
allora, per l'assioma dell'induzione, ogni numero naturale è piccolo
Questi problemi sono i principali argomenti di discussione dell'epistemologia moderna, che fondamentalmente si
riassumono nella domanda: Quando si può definire vera una teoria?
Non tutto è vero quello che sembra (solito)
A volte il buon senso, anche il buon senso matematico, può farci prendere degli abbagli.
Un esempio lo troviamo nella storiella del tacchino induttivista: un tacchino (americano) aveva imparato che ogni
mattina, più o meno alla stessa ora, il padrone gli portava da mangiare. Diligentemente memorizzava tutte le piccole
differenze, finché, dopo giorni e giorni, poté essere soddisfatto di aver trovato una regola infallibile: tra le nove e le
dieci di mattina arrivava inevitabilmente il cibo. Al passare delle settimane e dei mesi la regola trovò sempre
conferme... fino al giorno del Ringraziamento, quando il tacchino fu calorosamente invitato sulla tavola della
famiglia, come protagonista dell'arrosto tradizionale.
Esempi più matematici, li troviamo nella teoria dei numeri, nello studio della distribuzione dei numeri primi. Dopo la
sconfitta dell'ultimo teorema di Fermat, resta aperta la Congettura di Riemann sulla sua funzione zeta, che collega la
distribuzione dei numeri primi con gli zeri di tale funzione. Finora se ne sono trovati miliardi (letteralmente) che
giacciono sulla retta x=1/2, e la congettura che tutti gli zeri giacciano su questa linea potrebbe essere dunque
accettata come vera. Ma smentite di quello che sembrerebbe evidente sono famose in matematica, e una riguarda
proprio i numeri primi.
La quantità di numeri primi inferiori ad un certo numero, diciamo n, solitamente indicata con
approssimata dalla funzione logaritmo integrale, o Li(n), di Gauss, definita come:
, può essere
.
Questo valore sembra essere sempre maggiore della vera distribuzione dei numeri primi, fino a numeri di centinaia
di cifre.
Tuttavia nel 1914 John Littlewood ha dimostrato invece che
per x intero cambia di segno infinite
volte. Nel 1986 Herman te Riele ha dimostrato addirittura che esistono più 10180 interi consecutivi per cui
non è mai minore di 6,62×10370.
Quindi, nonostante miliardi di esempi a favore, la verità o falsità della congettura (o ipotesi, visto che si pensa
generalmente che sia vera) di Riemann è tuttora in discussione.
Altra paradossale situazione è il teorema di Goodstein: si definisce una particolare funzione iterativa su numeri interi
che inizialmente presenta una crescita esponenziale ma, venendo ridotta ad ogni iterazione di un semplice 1, dopo
innumerevoli iterazioni ritorna a 0. Tornando al teorema, esso ha la caratteristica di non poter essere provato
all'interno degli assiomi di base della teoria dei numeri (Assiomi di Zermelo - Fraenkel), e come previsto dal teorema
Paradosso di Newcomb
di incompletezza di Gödel, per la sua dimostrazione occorre aggiungere un assioma: l'esistenza dei cardinali
transfiniti.
Il paradosso della chiaroveggenza
Uno dei paradossi più intriganti della teoria dei giochi è il paradosso di Newcomb, che riguarda il principio di
dominanza, ed è il seguente. Supponiamo che esista un oracolo, che sostenga di sapere in anticipo quali saranno le
mie decisioni. Egli mette in una busta 1.000.000 €, ma solo se sceglierò solo questa, altrimenti la lascia vuota. Poi
mi vengono presentate due buste, una con sicuramente 1.000 €, e l'altra è quella dell'oracolo. Posso scegliere se
prendere una sola busta o tutte e due. Se applico il principio di massima utilità, mi conviene prendere solo la
seconda, e mi fido dell'oracolo. Se applico il principio di minima perdita, mi conviene sceglierle entrambe: se
l'oracolo ha ragione, prendo almeno 1.000 €, se sbaglia 1.001.000 €. Il paradosso nasce dalla visione delle cose: se
la scelta dell'oracolo si considera già effettuata al momento della scelta (ovvero l'oracolo è un ciarlatano che tira ad
indovinare), applichiamo il principio di dominanza, e conviene prendere sempre entrambe le buste. Se invece
ammettiamo che il comportamento dell'oracolo sia influenzato dalla nostra scelta, (ovvero che l'oracolo sia realmente
preveggente) ammettiamo il principio di utilità e conviene prendere solo la prima. Uno dei due principi non è quindi
razionale, oppure non esiste la preveggenza. Si possono trovare argomenti a favore di tutte e due le ipotesi. Tra
l'altro, basta che l'oracolo indovini più del 50% delle volte.
Diversamente, la chiaroveggenza potrebbe anche essere dannosa: supponiamo che ci sia una gara automobilistica in
cui valga la regola "Perde chi sterza per primo". Due macchine sono lanciate l'una contro l'altra: se uno dei due è
chiaroveggente, la strategia migliore per l'altro è non sterzare: il veggente lo sa, e quindi per evitare l'impatto sterzerà
per primo.
Lista dei paradossi più noti
Questi sono alcuni paradossi fondamentali:
•
•
•
•
•
•
•
•
•
Paradossi di Zenone (esiste il movimento? : Achille e la tartaruga - La freccia)
Paradosso del mentitore (che cosa è la "verità"?)
Paradosso di Moore (che cosa significa "sapere"?)
Paradossi dell'infinito
Paradosso dell'ipergioco
Paradosso dei gemelli (dalla teoria della relatività)
Paradosso di Russell (o del barbiere)
Antinomie kantiane
Paradosso di d'Alembert
Bibliografia
•
•
•
•
•
•
•
•
Casati, R. e Varzi, A. C., Semplicità insormontabili - 39 storie filosofiche, Roma-Bari, Laterza, 2004.
Clark, M., I paradossi dalla A alla Z, Milano, Cortina, 2004.
Sorensen, R., A Brief History of the Paradox, Oxford, Oxford University Press, 2003.
Rescher, N., Paradoxes: Their Roots, Range, and Resolution, La Salle (IL), Open Court, 2001.
Odifreddi, P., C'era una volta un paradosso - Storie di illusioni e verità rovesciate, Torino, Einaudi, 2001.
Falletta, N., Il libro dei paradossi, Milano, Longanesi & C., 2001.
Sainsbury, R. M., Paradoxes, Cambridge, Cambridge University Press, 1988.
te Riele, H.J.J., On the sign of the difference pi(x) - li(x), Math. Comp. 48, 1987 pp. 323-328
192
Paradosso di Newcomb
193
Voci correlate
•
•
•
•
•
•
Antinomia
Dilemma
Logica
Matematica
Ossimoro
Sillogismo
Altri progetti
•
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Paradox
Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/paradosso
•
Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Paradosso di Newcomb
Collegamenti esterni
• Paradossi [1]
Paradosso di Olbers
Il Paradosso di Olbers ha il seguente enunciato: come è
possibile che il cielo notturno sia buio nonostante l'infinità di
stelle presenti nell'universo?
Prende il suo nome dall'astronomo tedesco Heinrich Wilhelm
Olbers, che lo propose nel 1826. In realtà era già stato
descritto da Keplero nel 1610 e dagli astronomi Halley e
Cheseaux nel XVIII secolo.
Termini del paradosso
Presupposti cosmologici
I presupposti di base perché il paradosso sia tale sono:
• che l'universo abbia estensione infinita
• che l'universo esista da infinito tempo e sia immutabile
• che l'universo sia omogeneo e isotropo, ovvero le stelle
siano disposte in modo uniforme nello spazio
Questi punti erano tacitamente accettati dalla cosmologia in
auge fino all'inizio del XX secolo.
Perché il cielo notturno è buio?
Paradosso di Olbers
194
Ipotesi che spieghino il paradosso
Due sole ipotesi possono spiegare il paradosso:
• o l'universo è giovane;
• o l'universo è in continua espansione.
Nella prima ipotesi, essendo per essa l'universo giovane, la luce di
stelle lontane non è ancora arrivata a noi. Potenzialmente in futuro si
verificherà la condizione espressa dal paradosso. Ci sono tuttavia
diversi elementi che indicano che l'universo non sia giovane: la sua età
oscilla tra i 13 ed i 16 miliardi di anni a seconda del valore dato alla
costante di Hubble. Vale allora la seconda ipotesi: le stelle si
allontanano dalla Terra sempre di più, come dimostra l'effetto Doppler
e quindi la condizione del paradosso non si verificherà mai.
Animazione dell'effetto dell paradosso di Olbers
Effetti
In una situazione come quella proposta, se un osservatore punta lo sguardo in una direzione qualunque del cielo,
potrà guardare nello spazio tra le stelle riconoscibili, ma ci saranno altre stelle più lontane e così di seguito, fino a
che inevitabilmente si incontrerà la luminosissima superficie di una stella. Per questo motivo l'intero cielo dovrebbe
brillare con la stessa intensità della superficie stellare e lo stesso Sole non si distinguerebbe dallo sfondo.
L'obiezione più ovvia è che le stelle più lontane appaiano meno luminose. Ma tale punto in questo caso risulta
inefficace.
Infatti, la diffusione della luce da un punto centrale ha andamento sferico, per cui, come per tutte le onde di questo
tipo, l'irraggiamento, ovvero l'energia ricevuta per unità di superficie (supponiamo il nostro occhio) a una distanza r
è inversamente proporzionale al quadrato di r.
Poiché è imposta come condizione l'omogeneità del cosmo, ovvero che su ogni sfera concentrica alla Terra le stelle
siano presenti con densità costante D, possiamo affermare che la quantità di sorgenti luminose su una sfera di raggio
r è proporzionale al quadrato di r, secondo la formula dell'area della sfera:
Per calcolare la quantità di luce ricevuta da una sfera di diametro r arbitrario, moltiplichiamo il numero di stelle
presenti per l'intensità pesata di ciascuna:
Come si può osservare, dopo la semplificazione di r risulta che la luminosità d'irraggiamento dipende esclusivamente
dalla densità di stelle e dalla loro luminosità assoluta.
Se ora si sommano tutti i contributi per le infinite sfere concentriche di un universo infinitamente esteso, otteniamo
che la luce totale deve essere addirittura infinitamente intensa! Il fatto che la notte sia buia, ovvio per il senso
comune, è ampiamente in contrasto con la concezione cosmologica in uso fino a meno di un secolo fa.
Paradosso di Olbers
Le soluzioni proposte
Diversi sono stati i tentativi di risolvere la questione.
Per molto tempo si è ritenuto che l'estensione del cosmo fosse limitata e che tra le stelle si intravedesse uno sfondo
scuro. Questa ipotesi presume naturalmente di essere al centro dell'universo, ed è stata resa obsoleta dal crollo
filosofico del geocentrismo.
Nel seicento si è ipotizzato che nubi di polvere presenti nello spazio vuoto oscurino le stelle lontane. Questa
soluzione non regge all'analisi in quanto la radiazione assorbita scalderebbe la materia fino a farle riemettere la stessa
quantità di luce (Radiazione di corpo nero). Lo stesso Olbers si era orientato verso questa soluzione erronea.
Un'ulteriore possibilità è che la velocità della luce sia limitata e l'universo esista da un tempo limitato. In realtà la
velocità della luce era già approssimativamente nota dal XVII secolo, misurata da Ole Romer, ma questa soluzione
stranamente non fu mai molto considerata.
Una possibilità puramente statistica è che l'universo visibile abbia una distribuzione frattale, con dimensione frattale
inferiore a 2. In questo modo, il limite per r → ∞ tenderebbe comunque ad un numero finito.
Secondo un'altra possibile teoria il paradosso di Olbers si risolve mediante l'equazione del trasporto radiativo. [1][2]
La soluzione moderna
Nel 1929 l'astronomo americano Edwin Hubble dimostrò che l'universo attuale si sta espandendo e che dunque deve
aver avuto un'origine nel passato. Dal nostro punto di vista le galassie appaiono allontanarsi con velocità
proporzionale alla distanza, fin ad un limite oltre il quale sembrerebbero allontanarsi alla velocità della luce, e non
possiamo quindi vederle. In altre parole, poiché la luce ha velocità limitata, guardare lontano significa anche
guardare indietro nel tempo, fin al punto in cui si osserva l'istante della nascita del cosmo, il Big Bang. In pratica
l'universo visibile ci appare di dimensioni limitate nello spazio e nel tempo, per cui la luce ci giunge da un numero
limitato di stelle tale che il cielo ci appare nero.
Il paradosso non è più tale in quanto il presupposto dell'eternità del cosmo è falso. Anche nel caso che fosse
comunque infinito nello spazio, ma non nel tempo, secondo la cosmologia comunemente accettata, per eliminare il
paradosso di Olbers basta lo spostamento verso il rosso: quando gli oggetti sono abbastanza lontani, come detto
prima se superano la distanza che la luce può aver percorso dal Big Bang, la loro luce non ci arriverà per niente, se
invece sono più vicini ma la velocità di recessione è maggiore di quella della luce, non ci arriverà nulla comunque.
Quindi se anche l'universo fosse infinito nello spazio, non avremmo il paradosso.
Secondo il cosmologo americano Edward Robert Harrison la soluzione del paradosso non si trova nell'espansione
dell'Universo, anche un universo statico avrebbe un cielo notturno buio. La soluzione secondo Harrison è che le
stelle brillano da troppo poco tempo per riempire tutto l'Universo con la loro radiazione. [3].
Note
[1] Perdita di energia della luce nello spazio interstellare e intergalattico (http:/ / marcomissana. retelinux. com/ index. html)
[2] Solution of the transfer equation in a scattering atmosphere with spherical symmetry (http:/ / www. springerlink. com/ content/
l41436u44032068k/ )
[3] Harrison, Edward R.: Cosmology, 2 ed. Cambridge U P (2000), Chap. 24:"Darkness at night" p. 491-506. ISBN 0-521-66148-X
Bibliografia
• Paul Wesson, "Olbers' paradox and the spectral intensity of the extragalactic background light", The
Astrophysical Journal 367, pp. 399-406 (1991).
• Edward Harrison, Darkness at Night: A Riddle of the Universe, Harvard University Press, 1987
• Scott, Douglas, and Martin White, "The Cosmic Microwave Background (http://www.astro.ubc.ca/people/
scott/cmb_intro.html)".
195
Paradosso di Olbers
Voci correlate
•
•
•
•
Cosmologia (astronomia)
Big Bang
Legge di Hubble
Teoria della relatività
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Olbers'
paradox
Paradosso di Protagora
Il paradosso dell'avvocato (anche detto paradosso di Protagora) è un paradosso citato da Aulo Gellio e secondo la
tradizione riferito ad elaborazioni della scuola stoica.
Secondo questa versione, Protagora avrebbe formato agli studi di legge, come istitutore, un giovane promettente,
Evatlo (Euathlus), dal quale ebbe solo la metà di quanto richiesto per le lezioni e col quale stabilì che il resto sarebbe
stato saldato dopo che questi avesse vinto la sua prima causa.
Ma Evatlo non cominciò la professione di avvocato, anzi si diede alla politica, e non avendo vinto la sua prima causa
poiché non ne aveva mai fatte, Protagora non veniva pagato; quest'ultimo lo convenne dunque in giudizio per essere
saldato del prezzo delle sue lezioni.
Il giovane decise di difendersi da solo, divenendo perciò avvocato di sé medesimo, e creando questa situazione di
indeterminatezza:
• secondo Protagora:
• se Evatlo avesse vinto, avrebbe dovuto pagarlo in base all'accordo, perché avrebbe vinto la sua prima causa;
• se Evatlo avesse perso, avrebbe dovuto pagarlo comunque per effetto della sentenza.
• secondo Evatlo:
• se Evatlo avesse vinto, non avrebbe dovuto pagare Protagora per effetto della sentenza;
• se Evatlo avesse perso, non avrebbe dovuto pagare Protagora perché in base all'accordo non aveva vinto la sua
prima causa.
Il paradosso è spesso citato a fini umoristici per segnalare la "gara di speciosità" sempre corrente fra le categorie
forensi e quelle della politica.
Collegamenti esterni
• Testo in originale, traduzione e commenti [1]
196
Paradosso di Richard
Paradosso di Richard
Il paradosso di Richard è stato proposto dal matematico francese Jules Antoine Richard nel 1905. Esso può essere
illustrato nei seguenti termini.
Prendiamo in considerazione un vocabolario costituito da un numero esteso (ma ovviamente finito) di parole e di
segni. Fissiamo poi l'attenzione su quelle frasi, formate da elementi del nostro vocabolario, che definiscono in
maniera univoca specifici numeri reali costruibili. Esempi di frasi di questo tipo sono "il numero il cui quadrato è
due" (composta da 7 parole); "il numero dato dal rapporto tra la lunghezza della circonferenza e quella del diametro
del medesimo cerchio" (composta da 17 parole).
Sia Rn l'insieme – ovviamente finito – dei numeri reali definibili con n parole e segni del nostro vocabolario.
Consideriamo ora l'insieme R dato dall'unione di tutti gli insiemi Rn (con n = 3,4,5, …): R è ovviamente numerabile
e possiamo ordinare i suoi elementi nella successione r1, r2, r3, …. R rappresenta dunque l'insieme di tutti e soli quei
numeri reali definibili con un numero finito di elementi del nostro vocabolario.
Consideriamo ora il numero r (possiamo battezzarlo numero di Richard) definito nel modo seguente:
il numero la cui parte intera è zero, mentre (per ogni i) il suo i-esimo decimale è ottenuto aumentando di uno
l'i-esimo decimale del numero ri appartenente ad R (con l'avvertenza che se tale decimale fosse 9 lo si
sostituisce con zero).
Da un lato, possiamo constatare dalla frase sopra riportata che r è un numero reale definibile con una quantità finita
di parole o segni del nostro vocabolario e quindi deve essere incluso in R; dall'altro lato, esso (per il modo in cui è
costruito) è diverso da tutti i numeri reali contenuti in R e quindi non vi risulta incluso. Di qui il paradosso.
La costruzione di r fa uso della procedura diagonale utilizzata da Cantor per dimostrare la non numerabilità dei
numeri reali. Il paradosso di Richard – come quello di Berry e di Zermelo-König – fa parte dei così detti paradossi
semantici. Il suo interesse nell'ambito dello studio dei fondamenti logici della matematica sta nell'aver, in qualche
modo, aperto la strada alla prova di incompletezza di Gödel.
197
Paradosso di Russell
Paradosso di Russell
Il paradosso di Russell, formulato dal filosofo e logico britannico
Bertrand Russell tra il 1901 e il 1902[1][2], è una delle antinomie
più importanti della storia della filosofia e della logica[3].
Si tratta più propriamente di un'antinomia che di un paradosso: un
paradosso è una conclusione logica e non contraddittoria che si
scontra con il nostro modo abituale di vedere le cose, mentre
un'antinomia è una proposizione che risulta autocontraddittoria sia
nel caso che sia vera, sia nel caso che sia falsa[4].
L'antinomia di Russell può essere espressa in modo "intuitivo" per
mezzo di altre formulazioni, come il paradosso del barbiere o
quello del bibliotecario; inoltre, essa è basata su un ragionamento
analogo a quello che porta al paradosso dell'eterologicità di
Grelling-Nelson[3][4].
Il paradosso di Russell ebbe un ruolo fondamentale nella crisi dei
fondamenti della matematica, la quale a sua volta ebbe un peso
notevole nella più ampia crisi che interessò le certezze
fondamentali della fisica, della filosofia e appunto della
matematica all'inizio del XX secolo, crisi che spesso è associata al
Bertrand Russell.
crollo delle dottrine filosofiche di stampo positivista[3]. In
particolare, dimostrò la contraddittorietà della teoria ingenua (o intuitiva) degli insiemi di Georg Cantor, che faceva
uso di strumenti matematici analoghi a quelli su cui si era basato Gottlob Frege nel tentativo di produrre una
completa fondazione della matematica sulla logica (tale tentativo va sotto il nome di Logicismo). Nel tentativo di
risolvere l'antinomia, in modo tale da conservare la validità dell'idea (alla base del Logicismo) per cui la matematica
può essere fondata completamente dalla logica, Russell sviluppò in collaborazione con Alfred North Whitehead la
teoria dei tipi, esposta nel loro libro Principia Mathematica[3].
L'antinomia
Nell'ambito della teoria intuitiva di Cantor, gli insiemi possono essere definiti in modo completamente libero, cioè si
possono creare insiemi con caratteristiche arbitrarie: data una proprietà, essa identifica sempre un insieme, l'insieme
di tutti gli oggetti che godono di quella proprietà[5]. Russell immaginò di creare una suddivisione degli insiemi in
due categorie:
• Gli insiemi che tra i loro elementi hanno loro stessi, cioè gli insiemi che appartengono a se stessi; si cita spesso
come esempio "l'insieme di tutti i concetti astratti", che appartiene a se stesso perché è un concetto astratto.
• Gli insiemi che tra i loro elementi non hanno loro stessi, cioè gli insiemi che non appartengono a se stessi; ad
esempio, come notò Russell stesso, "l'insieme di tutte le tazze da tè" non è una tazza da tè[2].
Se definiamo R come l'insieme di tutti gli insiemi che non appartengono a se stessi, abbiamo:
Il problema posto da Russell a questo punto fu se R appartiene o meno a se stesso. Se R appartiene a se stesso, per le
caratteristiche che ha in base alla definizione non deve appartenere a se stesso. Se non appartiene a se stesso, ha
198
Paradosso di Russell
caratteristiche tali per cui, sempre in base alla definizione, deve appartenere a se stesso.
In sintesi, il paradosso di Russell si può enunciare così: l'insieme di tutti gli insiemi che non appartengono a se stessi
appartiene a se stesso se e solo se non appartiene a se stesso. Formalmente,
Storia
Scoperta dell'antinomia
Bertrand Russell approdò alla sua antinomia all'inizio del 1900, semplificando il teorema di Cantor[6].
Nello stesso periodo il famoso logico tedesco Gottlob Frege, il più importante esponente del programma logicista,
stava portando avanti un tentativo di fondare rigorosamente tutta la costruzione della matematica sulla logica; nel
1879 la sua opera Ideografia aveva posto le basi di quel linguaggio simbolico e formale per mezzo del quale Frege
mirava a definire con assoluta evidenza i concetti fondamentali della matematica[7].
Al momento della scoperta dell'antinomia di Russell egli aveva già pubblicato anche il primo volume dei suoi
Principî dell'aritmetica, in cui procedeva alla vera e propria "logicizzazione" dei concetti che altri matematici
(Dedekind e Peano) avevano dimostrato essere alla base dell'aritmetica e, di conseguenza, di tutta la matematica. Il
16 giugno 1902 però Russell scrisse a Frege una lettera in cui lo informava di come aveva scoperto un'antinomia
connessa con gli argomenti dei Principî dell'aritmetica, che il filosofo britannico aveva letto circa un anno prima. Il
punto critico del tentativo di fondazione della matematica sulla logica compiuto dai logicisti (che è anche il punto
critico della teoria insiemistica di Cantor) era l'assioma detto "di astrazione", per il quale ogni proprietà individua
l'insieme degli oggetti che la soddisfano; la proprietà di non appartenere a se stesso, infatti, dà origine a un insieme
dalle caratteristiche contraddittorie[8].
Il secondo volume dell'opera di Frege uscì pochi mesi più tardi, nel 1903, e il suo autore poté solo aggiungere
un'appendice in cui rendeva pubblica l'antinomia e confessava il suo sconforto, aprendo la "crisi dei fondamenti della
matematica":
« Qui non è in causa il mio metodo di fondazione in particolare, ma la possibilità di una fondazione logica dell'aritmetica in
[9]
generale . »
Nel frattempo, l'antinomia era stata riscoperta da Ernst Zermelo, e va ricordato che era stata anticipata, pochi anni
prima, da Georg Cantor[6].
Conseguenze del paradosso di Russell
Tra la fine del XIX secolo e l'inizio del XX, diversi matematici e filosofi avevano cominciato a interrogarsi sul
problema dei "fondamenti della matematica", cioè sulla definizione di basi precise in grado di fondare l'intero
edificio concettuale della matematica. L'attenzione, che precedentemente era concentrata quasi esclusivamente sul
contenuto dei giudizi matematici, si spostò in questo periodo sulla giustificazione dei giudizi stessi[10].
Le tre prospettive principali sul problema dei fondamenti furono quella logicista, quella intuizionista e quella
formalista.
L'antinomia di Russell, oltre che mandare in crisi il Logicismo, generò problemi contro cui si scontrarono tutti gli
studiosi di matematica suoi contemporanei, e che – nonostante diversi tentativi di trovare risposte al paradosso –
rimasero insolubili sia per la teoria dei tipi elaborata da Russell insieme a Whithead[11], sia per l'Intuizionismo di
Luitzen Brouwer sia per il Formalismo di David Hilbert.
199
Paradosso di Russell
Fu il logico austriaco Kurt Gödel che, nel 1931, risolse definitivamente la questione dimostrando l'impossibilità tout
court di produrre una fondazione certa dell'aritmetica. I suoi risultati sono enunciati da due teoremi di
incompletezza[12].
Per quanto riguarda l'insiemistica, Le contraddizioni messe in luce dal paradosso di Russell sono insolubili
nell'ambito della teoria di Cantor, se non generando altri paradossi; per superare questo scoglio furono elaborate
diverse teorie assiomatiche più rigorose: quella che ebbe più seguito fu la teoria degli insiemi di Zermelo-Fraenkel,
formulata inizialmente da Ernst Zermelo e perfezionata da Abraham Fraenkel e Thoralf Skolem che, con le
successive estensioni (ad esempio, la teoria ZFC), fornisce tuttora la base teorica per la maggior parte delle
costruzioni matematiche. La vecchia teoria degli insiemi (peraltro tuttora largamente utilizzata a livello scolastico e
divulgativo) viene chiamata teoria intuitiva degli insiemi, in contrapposizione alla teoria assiomatica degli insiemi.
Altri paradossi logici
Tra la fine dell'Ottocento e l'inizio del Novecento altre antinomie contribuirono a mettere in crisi le basi
logico-concettuali che la matematica si era data, e quindi anche il programma di fondare la matematica stessa su basi
logiche che fossero al riparo da qualsiasi contraddizione. Accanto al paradosso di Russell, si ricordano:
• Paradosso di Burali Forti
•
•
•
•
Paradosso di Zermelo-König
Paradosso di Richard
Paradosso del bibliotecario
Paradosso dell'eterologicità di Grelling-Nelson
Note
[1] F. Cioffi; F. Gallo, G. Luppi, A. Vigorelli, E. Zanette, Diálogos, Edizioni Scolastiche Bruno Mondadori, 2000, p. 195 vol. 3 Autori e testi.
ISBN 88-424-5264-5
[2] P. Odifreddi, Il diavolo in cattedra, Einaudi, 2003, p. 205. ISBN 88-06-18137-8
[3] Cioffi, op. cit., p. 196 vol. 3 Autori e testi.
[4] W. Maraschini; M. Palma, ForMat, Spe, Paravia, 2002, 551 vol. 3. ISBN 88-395-1435-X
[5] Il fatto che gli insiemi possano essere formati arbitrariamente, come "estensioni concettuali di una proprietà", e che quindi ogni proprietà
individui sempre l'insieme degli oggetti che la soddisfano, costituisce l'"assioma di astrazione", uno dei due assiomi alla base della teoria
logicista di Frege. L'altro era il "principio di estensionalità", per cui se due insiemi sono costituiti da tutti e soli elementi uguali allora sono
uguali. L'assioma di astrazione è la vera causa dell'insorgenza dell'antinomia di Russell, cioè è il punto contraddittorio sia del ragionamento di
Frege, sia della teoria degli insiemi di Cantor Si veda Maraschini, op. cit., p. 550 e Cioffi, op. cit., p. 115 vol. 3 Problemi.
[6] Odifreddi, op. cit., p. 206.
[7] Maraschini, op. cit., p. 464.
[8] Cioffi, op. cit., p. 116 vol. 3 Problemi
[9] Maraschini, op. cit., p. 550.
[10] Clementina Ferrandi, Filosofia e scienza – Un intreccio fecondo, Torino, Il Capitello, 1991, pp. 170-171 vol. 3.
[11] Per superare la contraddizione posta dalla sua antinomia, Russell stesso elaborò in seguito, in collaborazione con il filosofo e matematico
britannico Whitehead, la teoria dei tipi; essa era basata sull'idea che gli insiemi vadano classificati gerarchicamente, in modo che un insieme
possa essere membro di un altro solo se quest'ultimo è di un tipo più "generale": gli insiemi venivano distinti in diversi livelli, tali per cui al
livello 0 c'erano gli elementi, al livello 1 gli insiemi di elementi, al livello 2 gli insiemi di insiemi di elementi e così via. Russell infatti
individuava come causa essenziale della contraddizione il fatto che un linguaggio o una teoria potessero fare affermazioni su loro stessi, vale a
dire l'autoreferenzialità. La teoria dei tipi è esposta nel libro di Russell e Whitehead Principia Mathematica, scritto tra il 1910 e il 1913. Si
veda Maraschini, op. cit., p. 551.
[12] Cioffi, op. cit., p. 122 vol. 3 Problemi.
200
Paradosso di Russell
Bibliografia
• F. Cioffi; F. Gallo, G. Luppi, A. Vigorelli, E. Zanette, Diálogos, Edizioni Scolastiche Bruno Mondadori, 2000,
vol. 3 Autori e testi e vol. 3 Problemi. ISBN 88-424-5264-5
• C. Ferrandi, Filosofia e scienza – Un intreccio fecondo, Torino, Il Capitello, 1991, vol. 3.
• W. Maraschini; M. Palma, ForMat, Spe, Paravia, 2002. ISBN 88-395-1435-X
• P. Odifreddi, Il diavolo in cattedra, Einaudi, 2003. ISBN 88-06-18137-8
Voci correlate
• Filosofia della matematica
• Crisi dei fondamenti della matematica
Paradosso di San Pietroburgo
Nella teoria della probabilità e nella teoria delle decisioni, il paradosso di San Pietroburgo descrive un particolare
gioco d'azzardo basato su una variabile casuale con valore atteso infinito, cioè con una vincita media di valore
infinito. Ciononostante, ragionevolmente, si considera adeguata solo una minima somma, da pagare per partecipare
al gioco.
Il paradosso di San Pietroburgo è la classica situazione in cui l'applicazione diretta della teoria delle decisioni (che
tiene conto solo del guadagno atteso) suggerisce una linea di condotta che nessuna persona ragionevole si sentirebbe
di adottare. Il paradosso si risolve raffinando il modello di decisione e prendendo in considerazione il concetto di
utilità marginale e il fatto che le risorse dei partecipanti sono limitate (non infinite).
Il paradosso prende il nome dalla presentazione del problema da parte di Daniel Bernoulli, nel 1738 nei Commentarii
Academiae Scientiarum Imperialis Petropolitanae (di San Pietroburgo). Comunque il problema fu inventato dal
cugino di Daniel, Nicolas Bernoulli, che per primo lo enunciò in una lettera a Pierre Raymond de Montmort fin dal 9
settembre 1713.[1]
Il paradosso
In un ipotetico gioco d'azzardo, derivato dalla scommessa testa o croce sul lancio di una moneta, si paga una quota di
ingresso fissa, diciamo A, per partecipare ad una fase del gioco. Ciascuna fase consiste nel lanciare ripetutamente
una moneta (non truccata) finché non esce Croce, che dà luogo alla vincita. La vincita dipende dal numero di lanci:
se esce Croce al primo lancio, si vince 1 (uno); se esce Testa, si raddoppia ad ogni lancio successivo. In breve, si
paga A e si vince 2k−1, se la moneta è stata lanciata k volte quando compare Croce per la prima volta.
Poi si riprende da capo con una nuova fase del gioco. (Nella formulazione originale, questo gioco fu attribuito ad un
ipotetico casinò di San Pietroburgo, da cui è derivato il nome del paradosso).
Alla fine dei lanci si è dunque certi di incassare un premio, ma quanto si è disposti a pagare per partecipare al gioco?
La probabilità che la prima Croce esca al lancio k-esimo è:
Quindi si ha: probabilità 1/2 di vincere 1; probabilità 1/4 di vincere 2; probabilità 1/8 di vincere 4 ... e così via. Il
valore atteso della vincita è dunque:
201
Paradosso di San Pietroburgo
202
La somma diverge all'infinito: cioè in media ci si aspetta di vincere una somma infinita da questo gioco. Quindi, in
accordo con la teoria tradizionale del valore atteso, ci si può permettere di pagare qualunque cifra A per partecipare.
Infatti anche pagando un miliardo per volta, alla lunga, dovrà capitare la volta (con probabilità invero bassissima) di
una vincita così strepitosa da ripagare abbondantemente tutte le altre quote investite per ottenere vincite
insignificanti.
In pratica però, nessuna persona ragionevole è disposta a pagare più di qualche unità per partecipare a questo gioco:
ecco appunto il paradosso, detto di San Pietroburgo. Il rifiuto intuitivo a investire cifre importanti nel gioco è ben
sostenuto dalla simulazione descritta nel grafico seguente. Ripetendo 20'000 volte la serie di lanci del gioco,
tipicamente si ottengono all'inizio vincite mediamente basse (qualche unità). Successivamente la media si alza, in
corrispondenza di qualche serie fortunata, per poi diminuire leggermente fino al prossimo colpo fortunato.
L'andamento complessivo è senza dubbio crescente, e tenderà matematicamente all'infinito dopo una serie infinita di
giocate ma, nelle 20'000 giocate della simulazione, la media delle vincite è arrivata appena al valore di 8.
Il grafico compendia il paradosso del gioco: l'andamento generale della media delle vincite totali mostra di tendere ad un aumento senza limiti, ma la
lentezza della crescita, che tende a diventare ancor più lenta al crescere del numero delle prove, indica che sarebbe necessario un numero
spaventosamente alto di giocate per raggiungere valori anche modestamente alti.
Paradosso di San Pietroburgo
203
Soluzioni del paradosso
Dal punto di vista matematico, non sorgono difficoltà dalla situazione prospettata nel gioco. Il risultato di vincita
media con valore atteso infinito è calcolato correttamente e il contrasto con l'intuito comune è una caratteristica
ricorrente dei comportamenti paradossali dell'infinito. In altre parole, è perfettamente coerente accettare la possibilità
(infinitesima) di una vincita infinita, tale da bilanciare qualunque somma pagata nelle (infinite) volte in cui la vincita
risulta insignificante.
Viceversa, per gli studiosi di scienze sociali, e di economia in particolare, questo "paradosso" ha costituito un potente
stimolo per costruire una teoria delle aspettative e per introdurre i concetti di utilità marginale e di peso
soggettivamente attribuito alle probabilità.
Teoria della Utilità attesa
Gli economisti usano questo paradosso per mettere in luce una varietà di argomenti in economia e nella teoria delle
decisioni. La soluzione classica del paradosso richiede l'introduzione esplicita del concetto di utilità attesa e di
diminuzione dell'utilità marginale del denaro.
L'idea della diminuzione dell'utilità marginale del denaro fu già una intuizione di Bernoulli. Secondo le sue parole:
"La determinazione del valore di un oggetto deve essere basata non sul suo prezzo, ma piuttosto sulla utilità
che può procurare ... Non c'è dubbio che un guadagno di mille ducati ha più valore per un povero che per un
ricco, nonostante entrambi guadagnino la stessa quantità."
Già qualche anno prima che Daniel Bernoulli pubblicasse questo argomento, un altro matematico svizzero, Gabriel
Cramer, aveva introdotto parzialmente la stessa idea scrivendo, nel 1728, a Nicholas Bernoulli, sempre a proposito
del gioco di San Pietroburgo:
"I matematici stimano il denaro in proporzione alla sua quantità, mentre un uomo di buon senso lo stima in
proporzione all'uso che può farne."
Utilizzando una opportuna funzione di utilità, ad esempio quella logaritmica proposta da Bernoulli
u(x)=ln(x), utilità proporzionale al logaritmo del valore guadagnato,
oppure quella di Cramer, con utilità proporzionale alla radice quadrata del valore guadagnato, si ottengono utilità
attese non più infinite, ma ragionevolmente basse. Nel caso di utilità logaritmica il valore utile atteso dalla vincita
diventa infatti 2.
Tuttavia la soluzione proposta da Cramer e da Bernoulli non è ancora del tutto soddisfacente. Infatti si può sempre
immaginare un gioco di San Pietroburgo con vincite che aumentano molto velocemente col numero di lanci, in modo
che l'utilità logaritmica attesa torni ad essere infinita.
Per risolvere questo nuovo paradosso, chiamato talvolta "super paradosso di San Pietroburgo", bisogna prendere in
considerazione giochi di San Pietroburgo con valore atteso limitato, oppure considerare funzioni di utilità che
presentano un valore massimo limitato,
come ad esempio potrebbe essere:
.
Recentemente, la teoria dell'utilità attesa è stata estesa per arrivare a molteplici modelli di decisioni comportamentali.
In alcune di queste nuove teorie, come ad esempio nella teoria della aspettativa cumulata, il paradosso di San
Pietroburgo ritorna di attualità e può essere superato solo imponendo un limite alle vincite.
Paradosso di San Pietroburgo
204
Il valore morale di Bernoulli
Proprio per superare il problema del valore monetario atteso della vincita pari a ∞, Bernoulli introdusse una funzione
di utilità v(x)=log{x} abbandonando quella che veniva considerata una pietra miliare delle funzioni di utilità:
funzioni lineari positive crescenti e superando d'altro canto anche grazie alle proprietà delle funzioni logaritmiche
(cfr logaritmo), l'impasse del valore infinito:
, siccome
e potendo tirare fuori il
dalla
sommatoria, avrò:
infine, siccome
è una progressione geometrica che per
sarà pari a 2, si dimostra come:
e quindi
.
Tale risultato, però non costituisce il valore che il giocatore è tenuto a sborsare per partecipare ma il valore che egli
attribuisce al gioco; infatti per avere il prezzo del gioco occorrerà fare ricorso all'equivalente certo (cfr avversione al
rischio) e quindi alla funzione inversa dell'utilità:
Tuttavia esistono altre funzioni di utilità molto utilizzate (funzione esponenziale e funzione quadratica). La
caratteristica di tali funzioni (dette Funzione di utilità HARA) è quella di avere le derivate prima e seconda
rispettivamente maggiore e minore di zero.
Peso attribuito alle probabilità
Lo stesso Nicolas Bernoulli propose un'idea alternativa per risolvere il paradosso. Fece la congettura che una persona
normale tenda a trascurare automaticamente gli eventi improbabili; siccome nel gioco di San Pietroburgo solo eventi
molto improbabili offrono le alte vincite che assicurano il valore atteso tendente all'infinito, ciò dovrebbe risolvere il
paradosso.
L'idea di pesare le probabilità rispuntò molto più tardi, nel lavoro sulla teoria delle aspettative di Daniel Kahneman e
Amos Tversky in Econometrica del 1979. Ma i loro esperimenti dimostrarono che, nettamente al contrario, la gente
tende a sopravvalutare gli eventi con bassa probabilità. Così, oggi la soluzione proposta da Nicolas Bernoulli non è
più considerata soddisfacente.
Gioco di San Pietroburgo con vincita limitata
L'enunciato classico del gioco di San Pietroburgo assume implicitamente che il banco del casinò abbia risorse
infinite. Tale assunzione è stata spesso criticata come irrealistica, in particolare per spiegare la reazione di una
persona comune, che intuitivamente non accetta l'idea di poter scommettere grosse cifre in questo gioco.
In realtà le risorse di un casinò reale (o di qualunque altro potenziale "banco" per questo gioco) sono limitate e, cosa
più importante, si vede che mentre il premio massimo cresce molto rapidamente, con andamento esponenziale, il
valore medio del premio cresce molto, molto lentamente, con andamento logaritmico. Ne consegue che il valore
atteso da questo gioco, anche ipotizzando un banco con le più grandi risorse concepibili, risulta piuttosto modesto.
Infatti ipotizzando che il casinò possa pagare non più di W, l'enunciato del gioco deve prevedere che dopo L
estrazioni consecutive di Testa per cui
, viene pagato il premio W, ma non si continua con l'estrazione
(L+1) e il gioco ricomincia, ripartendo da 1. In questo caso il valore atteso diventa:
Paradosso di San Pietroburgo
205
In pratica il valore atteso del premio è quindi proporzionale al logaritmo in base 2 del premio massimo. La tabella
seguente mostra i valori attesi dei premi in funzione del valore massimo del premio pagabile da un eventuale banco:
Tipo di Banco
Premio massimo N° max di Testa Valore atteso di vincita
Bambini
8
3
2
Gioco tra amici
64
6
3.5
Milionario
1'050'000
20
10.50
Miliardario
1'075'000'000
30
15.50
10100
333
166.50
Fantastiliardario
Con fantastiliardario si è indicata una ipotetica persona che possa disporre di una quantità di denaro (10100) molto
superiore alla quantità di atomi che si pensa possano essere contenuti nell'Universo osservabile. Si deve pensare che
sia materialmente impossibile che qualcuno abbia fisicamente tanto denaro. Quindi si può concludere che in nessun
caso ci si possa aspettare un premio medio superiore a 170.
Una persona media potrebbe ancora non trovare appetibile il gioco, se dovesse pagare una quota di ingresso
comparabile col premio atteso esposto in tabella. Tuttavia la discrepanza tra l'intuito e il calcolo teorico del valore
atteso è molto meno drammatica che nel caso iniziale.
Iterazioni del gioco di San Pietroburgo
Consideriamo la ripetizione di 1024 giocate. In media:
•
•
•
•
•
•
•
•
•
•
•
512 giocate pagheranno 1
256 giocate pagheranno 2
128 giocate pagheranno 4
64 giocate pagheranno 8
32 giocate pagheranno 16
16 giocate pagheranno 32
8 giocate pagheranno 64
4 giocate pagheranno 128
2 giocate pagheranno 256
1 giocata pagherà 512
1 giocata pagherà 1024
I primi 10 casi contribuiscono per 512 ognuno, l’ultimo caso contribuisce per 1024. Se si raddoppiano le giocate c’è
un contributo in più ed il valore di ogni contributo raddoppia (nel caso di 2048 giocate, ci saranno 11 contributi di
1024 ed un contributo di 2048). In generale, se si effettuano n giocate, il valore totale è:
ed il valore medio:
Nel caso di 16.384 giocate, poco meno del numero di iterazioni riportati nel grafico, questa formula dà un valore
medio di 8, in accordo con quanto ottenuto sperimentalmente. È facile calcolare il valore medio atteso per numeri
ancora più elevati di giocate. Con un milione di giocate si arriverebbe ad 11, con un miliardo a 16, con 1000 miliardi
a 21. Ipotizzando di effettuare una giocata al minuto e di ripetere il gioco senza interruzioni, per arrivare al valore
medio di 21 si dovrebbe giocare per due milioni di anni.[2]
Paradosso di San Pietroburgo
Ulteriori discussioni
Il paradosso di San Pietroburgo e la teoria dell'utilità marginale sono stati molto discussi in passato. Per un
contributo interessante (ma non sempre assonante) da parte di un filosofo, vedere (Martin, 2004) [3], nella Stanford
Encyclopedia of Philosophy.
Bibliografia
• (EN) Aumann, Robert J. (Aprile 1977). "The St. Petersburg paradox: A discussion of some recent comments.".
Journal of Economic Theory 14 (2): 443–445. DOI:10.1016/0022-0531(77)90143-0 [4].
• (EN) Durand, David (Settembre 1957). "Growth Stocks and the Petersburg Paradox [5].". The Journal of Finance
12 (3): 348–363.
• (EN) Bernoulli and the St. Petersburg Paradox [6]. The History of Economic Thought. The New School for Social
Research, New York.
• Castellani, G., De Felice, M., Moriconi, F., Manuale di finanza. Modelli stocastici e contratti derivati, Il Mulino,
2005
• Castellani, G., De Felice, M., Moriconi, F., Manuale di finanza. Teoria del portafoglio e del mercato azionario, Il
Mulino, 2005
Note
[1]
[2]
[3]
[4]
[5]
[6]
http:/ / www. cs. xu. edu/ math/ Sources/ Montmort/ stpetersburg. pdf#search=%22Nicolas%20Bernoulli%22
http:/ / www. riflessioni. it/ scienze/ paradosso-san-pietroburgo. htm
http:/ / plato. stanford. edu/ archives/ fall2004/ entries/ paradox-stpetersburg/
http:/ / dx. doi. org/ 10. 1016/ 0022-0531(77)90143-0
http:/ / links. jstor. org/ sici?sici=0022-1082(195709)12%3A3%3C348%3AGSATPP%3E2. 0. CO%3B2-R
http:/ / cepa. newschool. edu/ het/ essays/ uncert/ bernoulhyp. htm
Collegamenti esterni
• http://www.mathematik.com/Petersburg/Petersburg.html Simulazione Online del lancio di monete nel gioco
di San Pietroburgo
206
Paradosso di Simpson
207
Paradosso di Simpson
Il paradosso di Simpson è in statistica la situazione in cui una relazione tra due fenomeni viene apparentemente
modificata o persino invertita dai dati in possesso a causa di altri fenomeni non presi in considerazione nell'analisi.
È alla base di frequenti errori nelle analisi statistiche nell'ambito delle scienze sociali e mediche, ma non solo.
Storia
George Udny Yule lo descrisse nell'articolo "Notes on the theory of association of attributes in Statistics", comparso
in Biometrika nel 1903 e E. H. Simpson con l'articolo "The interpretation of interaction in contingency tables" nel
Journal of the Royal Statistical Society (1951).
Definizione formale
Benché
P(X|BC) > P(X|bC)
P(X|Bc) > P(X|bc)
accade che
P(X|B) < P(X|b)
dove
P(X|YZ) è la probabilità di X condizionata dall'evento congiunto Y e Z
b è l'evento complementare di B
c è l'evento complementare di C
Esempio
Si ipotizzi una situazione nella quale, a parità di età, tra i diplomati o laureati la percentuale di disoccupati sia la metà
di quella che si ha tra chi non ha conseguito il diploma.
Si consideri però pure il fatto che, per motivi storici, tra le generazioni più anziane i diplomati siano in numero molto
minore e che, per motivi legati al mercato del lavoro, tra i giovani il tasso di disoccupazione è più elevato che tra gli
anziani.
Partendo dalle seguenti due statistiche ipotetiche
Lavoratori senza diploma con diploma Totale
Giovani
20
80
100
Anziani
120
30
150
Totale
140
110
250
Paradosso di Simpson
208
Tasso di disoccupazione senza diploma con diploma
Giovani
30%
15%
Anziani
5%
3,33%
dove abbiamo che in entrambi i casi la disoccupazione è circa doppia tra i non diplomati, rispetto ai diplomati,
possiamo calcolare il numero di disoccupati:
Disoccupati senza diploma con diploma Totale
Giovani
6
12
18
Anziani
6
1
7
Totale
12
13
25
Questi valori assoluti ci permettono ora di calcolare il tasso di disoccupazione per i non diplomati e per i diplomati
senza tenere conto dell'età: si ottiene
Percentuale di disoccupati
senza diploma
12/140 = 8,6%
con diploma
13/110 = 11,8%
Improvvisamente si scopre che tra i diplomati il tasso di disoccupazione invece che essere la metà è di un quarto
maggiore che tra i non diplomati, esattamente il contrario di quello che si era ipotizzato.
Questo paradosso è detto appunto di Simpson ed è dovuto al fatto che il tasso di disoccupazione è nettamente
maggiore nel gruppo che ha una maggiore percentuale di diplomati; trascurare l'esistenza di due relazioni
fondamentali (quella tra disoccupazione e età, nonché quella tra età e titolo di studio) fa giungere a conclusioni
errate.
Mentre in questo caso preparato a tavolino la contraddizione è evidente, nelle analisi statistiche reali può capitare di
non accorgersi delle relazioni implicite esistenti tra le variabili e limitarsi ad analizzare dati aggregati senza
incrociarli con le variabili essenziali; la contraddizione non verrebbe allora minimamente percepita, e si potrebbero
trarre conclusioni completamente opposte alla vera distribuzione, con conseguenze potenzialmente molto gravi.
In situazioni meno estreme di quelle dell'esempio, le stesse cause del paradosso di Simpson possono portare a
sovrastimare o sottostimare differenze tra gruppi, senza però capovolgere il "segno" della relazione.
I dati prodotti dal paradosso di Simpson chiaramente non sono sbagliati in sé, ma semplicemente devono essere letti
in modo diverso di quanto non farebbe un lettore o analista superficiale:
• tra persone con diploma ci sono più disoccupati che tra persone senza diploma
Mentre sbagliata è la conclusione superficiale che usa concetti di causa-effetto, come
• avere un diploma è la causa di una maggiore disoccupazione
Volendo usare concetti di causa effetto (spesso l'unico motivo per il quale si analizzano i dati), ma avendo a
disposizione tutti i dati, si può dire
1. I giovani sono sei volte più soggetti alla disoccupazione rispetto agli anziani
2. ma sia tra i giovani che tra gli anziani avere un diploma riduce il "rischio disoccupazione" alla metà
Paradosso di Smale
209
Paradosso di Smale
Il paradosso di Smale, in topologia differenziale, afferma che è
possibile in uno spazio tridimensionale rivoltare una sfera, ovvero con
la parte interna e esterna invertite, senza creare fori o pieghe, ma al più
auto-intersezioni. Più precisamente sia
un'immersione canonica; allora esiste un'omotopia di immersione
tale che
e
.
Bibliografia
• Nelson Max, "Turning a Sphere Inside Out", International Film
Bureau, Chicago, 1977 (video)
Superficie di Morin vista "dall'alto"
• Anthony Phillips, "Turning a surface inside out, Scientific American, May 1966, pp. 112-120.
• Smale, Stephen A classification of immersions of the two-sphere. Trans. Amer. Math. Soc. 90 1958 281–290.
Collegamenti esterni
• (EN) Università di Berkeley: "Turning a Sphere Inside Out" [1]
• (DE) Un video MPG sul rivoltare una sfera [2].
Note
[1] http:/ / www. cs. berkeley. edu/ ~sequin/ SCULPTS/ SnowSculpt04/ eversion. html
[2] http:/ / www. th. physik. uni-bonn. de/ th/ People/ netah/ cy/ movies/ sphere. mpg
Paradosso di Stein
Paradosso di Stein
L'esempio Stein (o fenomeno o paradosso), in teoria delle decisioni e teoria della stima, è il fenomeno che, quando
tre o più parametri sono stimati contemporaneamente, il loro stimatore combinato è più preciso (è il previsto errore
quadratico medio) di qualsiasi metodo che gestisce l' parametri separatamente. Ciò è sorprendente in quanto i
parametri e le misure potrebbe essere del tutto indipendenti. Il fenomeno prende il nome dal suo scopritore, Charles
Stein.
Paradosso Einstein-Podolsky-Rosen
Il paradosso di Einstein-Podolsky-Rosen (paradosso EPR) è un esperimento mentale che dimostra come una
misura eseguita su una parte di un sistema quantistico possa propagare istantaneamente un effetto sul risultato di
un'altra misura, eseguita successivamente su un’altra parte dello stesso sistema, indipendentemente dalla distanza che
separa le due parti.
Questo effetto, derivante dalla interpretazione di Copenaghen della meccanica quantistica e divenuto poi noto come
entanglement quantistico, venne considerato paradossale in quanto, oltre che controintuitivo, ritenuto incompatibile
con un postulato della relatività ristretta (che considera la velocità della luce la velocità limite alla quale può
viaggiare un qualunque tipo d'informazione) e, più in generale, con il principio di località.
Considerazioni generali
Albert Einstein, Boris Podolsky e Nathan Rosen proposero questo esperimento ideale in un articolo pubblicato nel
1935 intitolato "La descrizione quantistica della realtà fisica può ritenersi completa?", appunto con l’intento di
dimostrare che la meccanica quantistica, portando, oltre che a validi risultati, anche a conseguenze paradossali, non è
una teoria fisica completa.[1] Cinque mesi dopo, Niels Bohr rispose all'argomento di EPR con un articolo intitolato
allo stesso modo.[2] La posizione di Bohr è stata a lungo considerata come ulteriore vittoria del suo scontro con
Einstein, benché oggi si riconosca apertamente che la sua posizione era piuttosto oscura e non può essere certo
considerata soddisfacente come risposta a EPR. Sempre nello stesso anno, Erwin Schrödinger pubblicò l'articolo in
cui descrive il famoso paradosso del gatto, cercando di chiarire l'idea della sovrapposizione di stati nella meccanica
quantistica. Si deve a David Bohm, nel 1951, una riformulazione del paradosso in termini più facilmente verificabili
sperimentalmente.[3]
Il paradosso EPR descrive un effetto fisico che, come accennato, ha aspetti paradossali nel senso seguente: se in un
sistema quantistico ipotizziamo alcune deboli e generali condizioni, come realismo, località e completezza, ritenute
ragionevolmente vere per qualunque teoria che descriva la realtà fisica senza contraddire la relatività, giungiamo ad
una contraddizione. Tuttavia è da notare che "di per sé" la meccanica quantistica non è intrinsecamente
contraddittoria, né risulta in contrasto con la relatività.
Benché proposto originariamente per mettere in luce l'incompletezza della meccanica quantistica, ulteriori sviluppi
teorici e sperimentali seguiti all'articolo originale (come il teorema di Bell e l'esperimento sulla correlazione
quantistica di Aspect[4]) hanno portato una gran parte dei fisici a considerare il paradosso EPR solo un illustre
esempio di come la meccanica quantistica contrasti in modo stridente con le esperienze quotidiane del mondo
macroscopico (per quanto la questione non sia assolutamente chiusa).
210
Paradosso Einstein-Podolsky-Rosen
Descrizione del paradosso
Misure su uno stato entangled
Considereremo la versione semplificata dell'esperimento ideale di EPR formulata da David Bohm.
Si supponga di avere una sorgente che emette coppie di elettroni, uno dei quali viene inviato alla destinazione A,
dove c'è un'osservatrice di nome Alice, e l'altro viene inviato alla destinazione B, dove c'è un osservatore di nome
Bob. Secondo la meccanica quantistica, possiamo sistemare la sorgente in modo che ciascuna coppia di elettroni
emessi occupi uno stato quantistico detto singoletto di spin. Questo si può descrivere come sovrapposizione
quantistica di due stati, indicati con I e II. Nello stato I, l'elettrone A ha spin parallelo all'asse z (+z) e l'elettrone B ha
spin antiparallelo all'asse z (-z). Nello stato II, l'elettrone A ha spin -z e l'elettrone B ha spin +z. È quindi impossibile
associare ad uno dei due elettroni nel singoletto di spin uno stato di spin definito: gli elettroni sono quindi detti
entangled, cioè intrecciati.
Riproposizione dell'esperimento suggerito da Einstein, Podolsky e Rosen, eseguito con elettroni. Una sorgente invia elettroni verso due osservatori,
Alice (a sinistra) e Bob (a destra), i quali sono in grado di eseguire misure della proiezione dello spin degli elettroni lungo un asse.
Alice misura lo spin lungo l'asse ottenendo uno dei due possibili risultati: +z o -z. Supponiamo che ottenga +z;
secondo la meccanica quantistica la funzione d'onda che descrive lo stato di singoletto dei due elettroni collassa nello
stato I (le diverse interpretazioni della meccanica quantistica dicono questo in diversi modi, ma il risultato alla fine è
lo stesso) e tale stato quantistico determina le probabilità dei risultati di qualunque altra misura fatta sul sistema. In
questo caso, se Bob successivamente misurasse lo spin lungo l'asse z, otterrebbe -z con una probabilità del 100%.
Analogamente, se Alice misurasse -z, Bob otterrebbe +z, sempre con una probabilità del 100%.
Naturalmente non c'è niente di speciale nella scelta dell'asse z. Ad esempio, supponiamo che Alice e Bob decidano di
misurare lo spin lungo l'asse x. Secondo la meccanica quantistica, lo stato di singoletto di spin può essere espresso
adeguatamente come sovrapposizione di stati di spin lungo la direzione x, stati che chiameremo Ia e IIa. Nello stato
Ia l'elettrone di Alice ha spin +x, quello di Bob ha spin -x, invece nello stato IIa l'elettrone di Alice ha spin -x, quello
di Bob ha spin +x. Quindi, se Alice misura +x, il sistema collassa in Ia, e Bob misurerà -x, con probabilità del 100%;
se Alice misura -x, il sistema collassa in IIa e Bob misurerà +x, con probabilità del 100%.
In meccanica quantistica, la proiezione dello spin lungo x e quella lungo z sono quantità osservabili tra loro
incompatibili, per cui gli operatori associati non commutano, cioè uno stato quantistico non può possedere valori
definiti per entrambe le variabili (principio di indeterminazione). Supponiamo che Alice misuri lo spin lungo z e
ottenga +z, in modo che il sistema collassi nello stato I. Ora, invece di misurare lo spin lungo z, Bob misura lo spin
lungo x : secondo la meccanica quantistica, c'è il 50% di probabilità che egli ottenga +x e il 50% di probabilità che
ottenga -x. Inoltre, è impossibile predire quale sarà il risultato fino a quando Bob non esegue la misura.
È bene sottolineare che, benché si sia usato lo spin come esempio, si possono considerare molte altre quantità fisiche
(osservabili), tra loro entangled. L'articolo originale di EPR, per esempio, usava l'impulso come quantità osservabile.
Gli esperimenti odierni usano spesso la polarizzazione dei fotoni, perché più facile da preparare e quindi misurare.
211
Paradosso Einstein-Podolsky-Rosen
Realismo e completezza
Introdurremo ora due concetti usati da Einstein, Podolsky e Rosen, fondamentali per il loro attacco alla meccanica
quantistica: il realismo o oggettivismo realistico e la completezza di una teoria fisica.
Gli autori non si sono riferiti direttamente al significato filosofico di un "elemento fisico di realtà". Piuttosto essi
assunsero che se il valore di ogni quantità fisica di un sistema può essere predetto con assoluta certezza prima di fare
una misura o prima di intervenire in qualche modo sul sistema medesimo, allora tale quantità esprime un elemento
fisico di realtà. Notare che l'opposto, cioè la negazione dell'affermazione precedente, non porta necessariamente ad
un assunto vero; possono esserci altre espressioni di elementi fisici di realtà, ma questo fatto non ha influenza sul
resto dell'argomentazione.
In aggiunta, EPR definiscono una teoria fisica completa come una teoria in cui ogni elemento fisico di realtà sia
preso in considerazione. Lo scopo del loro articolo è mostrare, usando queste due definizioni, che la meccanica
quantistica non è una teoria fisica completa.
Vediamo come questi concetti si applicano all'esperimento pensato di cui sopra. Supponiamo che Alice decida di
misurare lo spin lungo z (lo chiameremo z-spin). Dopo che Alice esegue la misura, lo z-spin dell'elettrone di Bob è
noto, quindi è un elemento fisico di realtà. Analogamente, se Alice decidesse di misurare lo spin lungo x, l'x-spin di
Bob sarebbe un elemento fisico di realtà dopo la sua misura.
Uno stato quantistico non può possedere contemporaneamente un valore definito per lo x-spin e lo z-spin . Se la
meccanica quantistica è una teoria fisica completa nel senso dato sopra, l'x-spin e lo z-spin non possono essere
elementi fisici di realtà allo stesso tempo. Questo significa che la decisione di Alice di eseguire la misura lungo l'asse
x o lungo l'asse z ha un effetto istantaneo sugli elementi fisici di realtà nel luogo in cui si trova Bob ad operare con le
sue misure. Tuttavia, questa è una violazione del principio di località o principio di separazione.
Località nel paradosso EPR
Il principio di località afferma che i processi fisici non possono avere effetto immediato su elementi fisici di realtà in
un altro luogo separato da quello in cui avvengono. A prima vista questa appare un'assunzione ragionevole (infatti a
livello macroscopico lo è), in quanto conseguenza della relatività speciale, la quale afferma che le informazioni non
si possono mai trasmettere a una velocità maggiore di quella della luce senza violare la causalità. Generalmente si
crede che ogni teoria che violi la causalità sia anche internamente inconsistente, e quindi del tutto insoddisfacente.
Si trova che la meccanica quantistica viola il principio di località senza violare la causalità. La causalità è preservata
perché non c'è alcun modo per Alice di trasmettere un messaggio (cioè informazioni) a Bob variando l'asse lungo cui
fa la misura. Qualunque asse lei scelga, ha sempre il 50% di probabilità di ottenere "+" e il 50% di ottenere "-", cioè
è del tutto impossibile per lei influire sul risultato che otterrà. Inoltre Bob può fare la sua misura una sola volta, in
quanto il collasso della funzione d'onda provocato dalla misura perturba in maniera irreversibile lo stato misurato: c'è
una proprietà basilare della meccanica quantistica, nota come "no cloning theorem", che rende impossibile per
l'osservatore fare, diciamo, un milione di copie dell'elettrone che riceve, eseguire misure sullo spin di ciascuno e poi
analizzare la distribuzione statistica dei risultati. Quindi, nell'unica misura che gli è permesso fare, c'è il 50% di
probabilità di ottenere "+" e il 50% di ottenere "-", indipendentemente dal fatto che il suo asse sia allineato o meno
con quello di Alice.
Tuttavia il principio di località si richiama fortemente all'intuizione fisica di livello macroscopico, ed Einstein,
Podolsky e Rosen non volevano abbandonarlo. Einstein derise le predizioni della meccanica quantistica come
"spaventosa azione a distanza". La conclusione che trassero fu che la meccanica quantistica non è una teoria
completa.
Si deve far notare che la parola località ha diversi significati in fisica. Per esempio, in teoria quantistica dei campi
"località" significa che campi in punti diversi dello spazio non interagiscono l'uno con l'altro. Tuttavia, le teorie di
campo quantistiche che sono "locali" in questo senso violano il principio di località come definito da EPR.
212
Paradosso Einstein-Podolsky-Rosen
Risoluzione del paradosso
Variabili nascoste
Esistono parecchi possibili modi per risolvere il paradosso. Quello ipotizzato da EPR è che la meccanica quantistica,
nonostante il successo in una ampia e vasta varietà di scenari sperimentali, sia in realtà una teoria incompleta. In altre
parole esisterebbe qualche teoria della natura ancora non scoperta, rispetto alla quale la meccanica quantistica gioca
il ruolo di approssimazione statistica. Questa teoria più completa conterrebbe variabili che tengono conto di tutti gli
"elementi fisici di realtà" e che danno origine agli effetti che la meccanica quantistica è in grado di predire solo a
livello probabilistico. Una teoria con tali caratteristiche prende il nome di teoria delle variabili nascoste.
Per illustrare questa idea si può formulare una teoria delle variabili nascoste molto semplice, che spieghi i risultati
dell'esperimento descritto sopra.
Si supponga che gli stati quantistici di spin di singoletto emessi dalla sorgente siano in realtà descrizioni
approssimate dei "veri" stati fisici che possiedono valori definiti per lo z-spin e per l'x-spin. In questi stati "veri",
l'elettrone che va verso Bob ha sempre valori di spin opposti rispetto all'elettrone che va verso Alice, ma tali valori
sono completamente random (casuali). Per esempio, la prima coppia emessa dalla sorgente può essere "(+z, -x) verso
Alice e (-z, +x) verso Bob", la coppia successiva "(-z, -x) verso Alice e (+z, +x) verso Bob" e così via. Per ciò, se
l'asse della misura di Bob è allineato con quello di Alice, egli otterrà necessariamente l'opposto di qualunque cosa
ottenga Alice; altrimenti egli otterrà "+" e "-" con eguale probabilità.
Ipotizzando di restringere le misure solo all'asse z e all'asse x, tale teoria delle variabili nascoste è sperimentalmente
indistinguibile dalla teoria della meccanica quantistica.
In realtà c'è ovviamente un numero infinito (numerabile) di assi lungo i quali Alice e Bob possono eseguire le
rispettive misure; questo significa che, in teoria, si potrebbe considerare un numero infinito di variabili nascoste
indipendenti. Tuttavia, si deve tener presente che questa è una formulazione molto semplicistica di una teoria delle
variabili nascoste e una teoria più sofisticata sarebbe in grado di risolvere il problema a livello matematico.
Disuguaglianze di Bell
Nel 1964, John Bell ha dimostrato con il suo teorema come le predizioni della meccanica quantistica
nell'esperimento mentale EPR siano in realtà leggermente differenti dalle predizioni di una classe molto vasta di
teorie delle variabili nascoste: grosso modo, la meccanica quantistica predice correlazioni statistiche molto più forti
tra i risultati di misure eseguite su differenti assi. Queste differenze, espresse adoperando relazioni di disuguaglianza
note come Disuguaglianze di Bell, sono in linea di principio verificabili sperimentalmente, per cui sono stati
approntati allo scopo tutta una serie di esperimenti, che, come detto sopra, in generale trattano misure di
polarizzazione di fotoni. Tutti i risultati hanno indicato un comportamento in linea con le predizioni della meccanica
quantistica standard.
Tuttavia questi fatti non chiudono il discorso in modo definitivo. Anzitutto il teorema di Bell non si applica a tutte le
possibili teorie "realiste": è possibile infatti costruire teorie che eludono le sue implicazioni diventando
indistinguibili dalla meccanica quantistica, per quanto risultino più marcatamente non-locali. Si reputa in proposito
che vengano violate sia la causalità, sia i teoremi della relatività ristretta ai sistemi inerziali. Alcuni ricercatori hanno
inoltre tentato di formulare teorie di variabili nascoste che sfruttino "scappatoie" in esperimenti concreti, come per
esempio le assunzioni fatte nell'interpretare i dati sperimentali, ma nessuno è stato finora in grado di formulare una
teoria realista locale capace di riprodurre tutti i risultati della meccanica quantistica.
213
Paradosso Einstein-Podolsky-Rosen
Implicazioni per la meccanica quantistica
Attualmente la maggior parte dei fisici ritiene che la meccanica quantistica sia corretta e che il paradosso EPR sia
appunto solo un "paradosso" per il fatto che le intuizioni classiche (di livello macroscopico) non corrispondano alla
realtà. Si possono trarre da ciò parecchie diverse conclusioni, che dipendono da quale interpretazione della
meccanica quantistica si usi. Nella vecchia interpretazione di Copenaghen, prodotta da Niels Bohr, Werner Karl
Heisenberg, Pascual Jordan e Max Born, si conclude che il principio di località (o di separazione) non debba valere e
che avvenga effettivamente il collasso della funzione d'onda istantaneo. Nell'interpretazione a molti-universi, di
Hugh Everett III, la località è mantenuta e gli effetti delle misure sorgono dal suddividersi e ramificarsi delle "storie"
o linee d'universo degli osservatori.
Il paradosso EPR ha reso più profonda la comprensione della meccanica quantistica mettendo in evidenza le
caratteristiche fondamentalmente non classiche del processo di misura. Prima della pubblicazione dell'articolo di
Einstein-Podolsky-Rosen, una misura era abitualmente vista come un processo fisico di perturbazione inflitto
direttamente al sistema sotto misura. In altri termini, se si fosse misurata la posizione di un elettrone, ad es.
illuminandolo con luce, cioè con un fiotto di fotoni, l'urto dei fotoni con l'elettrone, necessario per illuminarlo e
"vedere" dov'è, avrebbe disturbato lo stato quantomeccanico dell'elettrone, per esempio modificandone la velocità e
producendo così incertezza sulla velocità; questa descrizione viene adoperata per esemplificare l'indeterminazione
quantomeccanica su posizione e velocità, grandezze meccaniche necessarie a determinare l'evoluzione dello stato
meccanico (grandezze coniugate). Tali spiegazioni, che ancora si incontrano in esposizioni non specialistiche,
scolastiche e divulgative della meccanica quantistica, sono completamente demistificate dall'analisi di
Einstein-Podolsky-Rosen, che mostra chiaramente come possa effettuarsi una "misura" su una particella senza
disturbarla direttamente, eseguendo una misura su un'altra particella distante, ma entangled (intrecciata) con la
prima.
Sono state sviluppate e stanno progredendo tecnologie che si basano sull'entanglement quantistico (intreccio di stati
quantistici). Nella crittografia quantistica, si usano particelle entangled per trasmettere segnali che non possono
essere intercettati senza lasciare traccia dell'intercettazione avvenuta. Nella computazione quantistica, si usano stati
quantistici intrecciati (entangled) per eseguire calcoli in parallelo, che permettono elaborazioni con velocità che non
si possono raggiungere con i computer classici.
Teorema del multiverso
Esiste una spiegazione che riguarda gli universi multipli molto più complicata, per quanto abbastanza verosimile.
Essa stabilisce che ogni volta che qualcosa è incerto, l'"Albero dell'Universo" (come talvolta è chiamato il fenomeno
di tutte le ramificazioni possibili di eventi) produce un altro ramo ovvero si ramifica. Ciascuna ramificazione, appena
prodotta, è un diverso universo simile al precedente, perché l'incertezza generalmente è piccola, all'inizio. Ogni
possibilità è un accadimento che capita da qualche parte. Si tratta di una visualizzazione intuitiva. La teoria è molto
più ampia, ma a causa della grande astrattezza di questi concetti non può essere affrontata in questa sede con
maggior dettaglio.
214
Paradosso Einstein-Podolsky-Rosen
215
Formulazione matematica
Si può esprimere matematicamente la discussione di cui sopra adoperando il formalismo quantomeccanico di spin. Il
grado di libertà di spin di un elettrone è associabile con uno spazio di Hilbert bidimensionale H, in cui ogni vettore
dello spazio corrisponde ad uno stato quantico di spin. Gli operatori quantistici che corrispondono allo spin lungo le
direzioni x, y e z, designati rispettivamente Sx, Sy e Sz, possono essere associati a loro volta alle matrici di Pauli:
dove
rappresenta la costante d'azione di Planck divisa per 2π.
Gli autostati di Sz sono espressi da
mentre gli autostati di Sx sono espressi da
Lo spazio di Hilbert per una coppia di elettroni è
, cioè il prodotto tensoriale degli spazi di Hilbert dei due
singoli elettroni. Lo stato di spin di singoletto è
dove i due termini nel membro a destra stanno per ciò che più sopra è stato chiamato stato I e stato II. A partire da
queste equazioni, si può mostrare che lo spin di singoletto è scrivibile come
dove i termini del membro a destra sono quello che è stato chiamato stato Ia e stato IIa.
Per illustrare come questo comporti la violazione del realismo locale, è necessario mostrare che dopo la misura
effettuata da Alice di Sz (o di Sx), il valore misurato da Bob di Sz (o di Sx) è determinato univocamente e per questo
corrisponde ad un "elemento fisico di realtà". Questo fatto discende dalla teoria della misura adottata in meccanica
quantistica. Quando viene effettuata la misura Sz, lo stato ψ del sistema collassa dentro un autovettore di Sz. Se il
risultato della misura è +z, ciò significa che immediatamente subito dopo la misurazione lo stato ψ del sistema viene
sottoposto ad una proiezione ortogonale nello spazio degli stati della forma
Per il singoletto di spin, il nuovo stato è
Analogamente, se la misura di Alice dà -z, il sistema viene sottoposto ad una proiezione ortogonale su
che significa che il nuovo stato è
Questo implica che ora la misura di Sz dell'elettrone di Bob è determinata. Sarà -z nel primo caso e +z nel secondo
caso.
Resta solo da mostrare che Sx e Sz non possono possedere contemporaneamente, per la meccanica quantistica, valori
definiti. Si potrebbe mostrare in maniera diretta che non esiste nessun vettore che possa essere un autovettore di
entrambe le matrici. Più in generale, si può usare il fatto che gli operatori non commutano,
Paradosso Einstein-Podolsky-Rosen
secondo la relazione di incertezza di Heisenberg
Note
[1] Einstein, A, B Podolsky, N Rosen (15 maggio 1935). Can Quantum-Mechanical Description of Physical Reality be Considered Complete?
(http:/ / prola. aps. org/ pdf/ PR/ v47/ i10/ p777_1). Physical Review 47 (10): 777–80. DOI: 10.1103/PhysRev.47.777
10.1103/PhysRev.47.777 (http:/ / dx. doi. org/ ). URL consultato il 19 agosto 2010.
[2] N. Bohr, Can quantum-mechanical description of physical reality be considered complete?, Physical Review, 48 (1935), pag. 700.
[3] Bohm David. (1951). Quantum Theory (http:/ / books. google. com. au/ books?id=9DWim3RhymsC& printsec=frontcover& dq=david+
bohm+ quantum+ theory& source=bl& ots=6G-2u1wtav& sig=Q1GcoVDLFRmKOmDYFAJte6LzrZU& hl=en&
ei=Pv45TNSnLYffcfnS6foO& sa=X& oi=book_result& ct=result& resnum=7& ved=0CEEQ6AEwBg#v=onepage& q& f=false),
Prentice-Hall, Englewood Cliffs, page 29, and Chapter 5 section 3, and Chapter 22 Section 19.
[4] Proposed experiment to test the non-separability of quantum mechanics (http:/ / prola. aps. org/ abstract/ PRD/ v14/ i8/ p1944_1), A. Aspect,
Phys. Rev. D 14, 1944–1951 (1976)
Voci correlate
• CHSH Bell test
•
•
•
•
•
•
•
Esperimenti sulle disuguaglianze di Bell
Esperimento sulla correlazione quantistica di Aspect
Sincronismo
Stato di Bell
Teletrasporto quantistico
Teorema di Bell
Teoria delle variabili nascoste
Bibliografia
Articoli selezionati
• A. Aspect, Bell's inequality test: more ideal than ever, Nature 398 189 (1999). (http://www-ece.rice.edu/
~kono/ELEC565/Aspect_Nature.pdf)
• J.S. Bell On the Einstein-Poldolsky-Rosen paradox, Physics 1 195 (1964).
• J.S. Bell, Bertlmann's Socks and the Nature of Reality. Journal de Physique 42 (1981).
• P.H. Eberhard, Bell's theorem without hidden variables. Nuovo Cimento 38B1 75 (1977).
• P.H. Eberhard, Bell's theorem and the different concepts of locality. Nuovo Cimento 46B 392 (1978).
• A. Einstein, B. Podolsky, and N. Rosen, Can quantum-mechanical description of physical reality be considered
complete? (http://www.drchinese.com/David/EPR.pdf) Phys. Rev. 47 777 (1935). (http://prola.aps.org/
abstract/PR/v47/i10/p777_1)
• A. Fine, Hidden Variables, Joint Probability, and the Bell Inequalities. Phys. Rev. Lett 48, 291 (1982).
• A. Fine, Do Correlations need to be explained?, in Philosophical Consequences of Quantum Theory: Reflections
on Bell's Theorem, edited by Cushing & McMullin (University of Notre Dame Press, 1986).
• L. Hardy, Nonlocality for 2 particles without inequalities for almost all entangled states. Phys. Rev. Lett. 71 1665
(1993).
• M. Mizuki, A classical interpretation of Bell's inequality. Annales de la Fondation Louis de Broglie 26 683
(2001).
216
Paradosso Einstein-Podolsky-Rosen
Libri
• Bell, John S, Dicibile e indicibile in meccanica quantisica , Milano, Adelphi, 2010.
• J.J. Sakurai, Modern Quantum Mechanics (Addison-Wesley, 1994), pp. 174–187, 223-232. ISBN 0-201-53929-2
• F. Selleri, Quantum Mechanics Versus Local Realism: The Einstein-Podolsky-Rosen Paradox (Plenum Press,
New York, 1988)
• A. Zeilinger, Il velo di Einstein - Il nuovo mondo della fisica quantistica (Einaudi, 2005). ISBN 88-06-17078-3
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:EPR
paradox
Collegamenti esterni
•
•
•
•
Paradosso EPR e teorema di Bell (http://www.pv.infn.it/~nicrosi/paradosso/home.htm)
(EN) The Einstein-Podolsky-Rosen Argument in Quantum Theory (http://plato.stanford.edu/entries/qt-epr/)
(EN) Bell’s Theorem (http://plato.stanford.edu/entries/bell-theorem/)
(EN) EPR, Bell & Aspect: The Original References (http://www.drchinese.com/David/EPR_Bell_Aspect.
htm)
• (EN) Does Bell's Inequality Principle rule out local theories of quantum mechanics? (http://math.ucr.edu/home/
baez/physics/Quantum/bells_inequality.html)
• Un inaspettato legame fra principio di indeterminazione e non-località (http://lescienze.espresso.repubblica.it/
articolo/articolo/1345610)
Paradosso idrostatico
Un paradosso idrostatico è un paradosso proprio dell'idrostatica. Esso è conseguenza diretta della legge di Stevino,
la quale afferma che la pressione causata da una colonna di fluido di altezza h e con densità costante dipende
esclusivamente da questi due fattori, secondo una proporzionalità diretta. Cioè, detti p la pressione relativa, h
l'altezza della colonna di fluido e γ il peso specifico, si ha:
p=hγ
Esempio di paradosso idrostatico
Un esempio tipico di paradosso idrostatico è quello della botte di Pascal: Si consideri una botte riempita d'acqua, la
cui pressione sul fondo sia di poco inferiore a quella limite di sopportazione della botte stessa. Se al di sopra della
botte (naturalmente chiusa) si pone un tubo sottile e lo si riempie progressivamente d'acqua, raggiunta una quota
limite la pressione del fluido provoca la rottura della botte. Ponendo tubi di diametri sempre maggiori e di svariate
forme, si noterà che la botte non arriverà a rompersi se non quando il fluido raggiunge la quota limite
precedentemente determinata.
Il paradosso consiste nel fatto che, nonostante si immettano quantità d'acqua dal peso sempre maggiore, la quota
limite di fluido a cui corrisponde la rottura della botte è sempre la stessa.
Coerentemente con la legge di Stevino, cioè, la pressione esercitata dal fluido sul fondo di un recipiente è
indipendente dalla quantità di fluido che la sovrasta, e quindi dal peso della stessa, ma dipende esclusivamente
dall'affondamento della superficie del fondo dal pelo libero.
217
Paradosso idrostatico
Voci correlate
• Effetto Venturi (paradosso idrodinamico)
Bibliografia
• La legge di Stevino [1]. URL consultato il 12-10-2007.
• Il paradosso idrostatico [2]. URL consultato il 12-10-2007.
Note
[1] http:/ / www. lngs. infn. it/ calendario/ pdf%20feb-dic/ SETTEMBRE%20copy/ LA%20LEGGE%20DI%20STEVINO. pdf
[2] http:/ / ishtar. df. unibo. it/ mflu/ html/ paradox. html
Paradosso temporale
Un paradosso temporale è un paradosso - ossia una conclusione assurda derivata da premesse corrette - legato al
tempo o all'ipotetica possibilità di viaggiare avanti e indietro attraverso il tempo, in violazione al principio di
causalità.
Diversi paradossi temporali o per meglio dire spazio-temporali sono stati ipotizzati; riguardano eventi catastrofici
nell'universo come l'esplosione di stelle o l'ingresso in un buco nero.
Un tipico paradosso temporale è stato ipotizzato da Albert Einstein: se si potesse scattare da fermi e superare la
velocità della luce, in un tempo indefinito potremmo vedere noi stessi mentre siamo ancora alla postazione di
partenza. La scienza studia e si interroga ancora su quali possano essere gli effetti sulla realtà che conosciamo di
grandi sconvolgimenti spazio temporali, ad esempio cosa si prova ad entrare in un buco nero dove lo spazio tempo è
schiacciato su sé stesso.
Nella fantascienza
Quello dei paradossi temporali è un tema tipico della narrativa fantascientifica (non essendo attualmente possibile
viaggiare davvero attraverso il tempo). Un esempio di spiegazione del paradosso temporale può essere trovato nel
film Ritorno al Futuro. In The Time Machine il protagonista del film tramite una macchina del tempo costruita
apposta per salvare sua moglie dalla morte scopre che paradossalmente non potrà mai salvarla perché se lei non fosse
morta lui non avrebbe mai avuto la volontà di creare la macchina del tempo. C'è un paradosso temporale anche nel
film Harry Potter e il prigioniero di Azkaban in cui Potter e la Granger salvano prima Sirius Black e l'ippogrifo e poi
Potter salva sé stesso tornando indietro nel tempo.
Fumetti
• In molte storie a fumetti Disney i personaggi viaggiano nel tempo, e provocano paradossi temporali. Un esempio
sono le avventure - pubblicate sul settimanale Topolino a partire dagli anni ottanta - in cui Topolino e Pippo,
inviati nel passato dal Professor Zapotec e dal Professor Marlin per scoprire qualche mistero, involontariamente
ne diventano la causa. I paradossi sono frequenti anche nei viaggi nel tempo compiuti dal personaggio di
Paperinik nella serie PKNA (1996-2000).
• Nel manga Little Jumper le Time Jump permette di fare salti temporali
218
Paradosso temporale
Videogiochi
• Nel videogioco Day of the Tentacle (1993) della LucasArts, la risoluzione di alcuni enigmi comporta dei
paradossi temporali.
• Anche nel videogioco Soul Reaver 2 della Crystal Dynamics, il protagonista a caccia del suo passato con la
macchina tessitrice del tempo, lo porta a uccidere il suo AlterEgo provocando un paradosso temporale.
• Nel videogioco Time Shift della Sierra, uno scienziato deve fermare un potente tiranno grazie all' utilizzo di una
tuta speciale che permette di alterare il flusso temporale. L'utilizzo del potere di questa tuta viene però inibito se
questo genera un paradosso.
• Nel videogioco Metal Gear Solid 3: Snake Eater, ambientato prima degli eventi dei giochi Metal Gear Solid 1 e 2,
se Snake muore, dopo la scritta "Snake is Dead", comparirà "Time Paradox" ovvero "paradosso temporale".
Uccidendo Ocelot, con la scritta "Ocelot is dead" si sentirà il colonnello Campbell dire "Snake! non puoi farlo!
Hai creato un paradosso temporale!"
Voci correlate
• Viaggio nel tempo
• Paradosso del nonno
Paradosso teologico
I paradossi teologici sono una famiglia di paradossi relativi a una data teologia, che manifestano una reale o
apparente incongruità circa le asserzioni teologiche di una determinata religione. I paradossi possono vertere sia
sugli attributi divini che sulle verità dogmatiche di quella determinata fede religione, ma possono a loro volta
appartenere anche ad altre categorie di paradossi, come i paradossi filosofici.
L'uso più frequente di questi paradossi è quello di mettere in crisi le convinzioni religiose o dei dubbi sulla divinità
oggetto fede, mettendo in luce le possibili carenze logiche dell'impianto dogmatico sottostante; premessa maggiore
per cui tali paradossi trovino fondamento è che tale impianto teologico, ovviamente, si rifaccia nella sua
formulazione alle leggi della logica.
Paradosso dell'onnipotenza
• Enunciato: essendo dio onnipotente, può fare ogni cosa.
• Paradosso: può dio creare qualcosa che non può spostare?
Sia che si risponda sì alla domanda, sia che si risponda no, si dimostrerebbe che dio non è onnipotente, o perché non
è in grado di creare un simile oggetto, o perché non è in grado di spostarlo.
Questo paradosso vuole mostrare la contraddittorietà della qualità "onnipotenza" attribuita a dio.
219
Paradosso teologico
Paradosso dell'onniscienza
• Enunciato: in quanto onnisciente dio conosce ogni cosa.
• Paradosso: nessuno, nemmeno una divinità, può sapere ogni cosa.
Supponiamo, infatti, che esista un insieme non vuoto "V" di tutte le possibili verità. Per ogni sottoinsieme S di V, e
per un fissato elemento v di V, una delle due seguenti affermazioni deve essere vera:
• L'elemento v appartiene ad S.
• L'elemento v non appartiene ad S.
Dunque, per ogni sottoinsieme S di V abbiamo definito una verità (la quale afferma appunto che v appartiene -oppure
non appartiene- a S). Evidentemente, la famiglia di tutte queste verità è in corrispondenza biunivoca con l'insieme
delle parti di V, e pertanto ne ha la stessa cardinalità. Inoltre, in quanto appunto costituita di verità, questa famiglia
dovrebbe essere contenuta in V (poiché tale insieme per definizione contiene tutte le verità). Tuttavia, un noto
risultato della teoria degli insiemi asserisce che l'insieme delle parti di un qualunque insieme V ha sempre cardinalità
strettamente maggiore a quella di V. Ne segue in particolare che pure la famiglia di verità appena costruita avrà
cardinalità maggiore di V, e dunque non potrà essere contenuta in esso. Perciò "V" non può essere l'insieme di tutte
le verità.
In modo analogo al precedente paradosso, il paradosso dell'onniscienza mostra la non-consistenza di un'attribuzione
fondamentale di dio.
Possibili confutazioni
Ciò che in verità dimostra questo paradosso, è che la nostra idea mentale di "tutte le verità" ha una consistenza logica
poco solida. Ovvero, in termini matematicamente più corretti, l'ente di tutte le verità non è propriamente un insieme,
nel senso che per esso non sono validi gli assiomi di Zermelo - Fraenkel. Questo paradosso, dunque, non fornisce
una contraddizione, bensì la dimostrazione del fatto che, appunto, l'oggetto formato da tutte le verità non è un
insieme, infatti è una classe propria[1].
Paradosso dell'onnipotenza unita all'onniscienza
• Enunciato: in quanto onnipotente dio può fare ogni cosa e in quanto onnisciente Dio conosce ogni cosa.
• Paradosso: può dio fare qualcosa di diverso di quello che già sa che farà?
In quanto onnisciente, dio conosce il futuro, quindi sa che farà una certa azione tra, poniamo, mille anni. Passato
quel lasso di tempo, dio non può decidere di non fare quella azione o di compierne un'altra differente, quindi non è
onnipotente.
Questo paradosso vuole confutare la possibilità di un intervento arbitrario sull'universo, tramite l'onnipotenza, di un
dio che sia dotato anche dell'onniscienza.
Paradosso del Bene e del Male
• Enunciato: Essendo Dio "infinitamente buono" o puro bene, non potrà mai causare o essere il male; essendo Dio
"onnipresente" è presente in ogni cosa, in ogni momento, e in ogni luogo; essendo dio "onnipotente" può vincere
contro ogni forza antagonista.
• Paradosso: Assumendo l'esistenza del male in senso cristiano, o Dio non è onnipresente (altrimenti il diavolo
sarebbe una sua parte), o Dio non è onnipotente (in quanto il diavolo esiste), o Dio non è infinitamente buono
(poiché il diavolo sarebbe una creazione di Dio).
L'argomento del paradosso costituisce l'oggetto della disciplina teologica tradizionale chiamata teodicea.
Il paradosso - o questione dell'esistenza del Male - si può enunciare anche come la contraddizione stretta tra due soli
principi: quello di onnipotenza e di bontà di Dio, senza attribuire alcuna rilevanza alla questione della "presenza". In
220
Paradosso teologico
tal caso la contraddizione ha solo due termini. Il diavolo (o il male) e Dio vengono così presi in considerazione solo
in quanto "princìpi causali" indipendentemente da altre loro eventuali caratteristiche.
In quest'ultimo caso le considerazioni o confutazioni centrate sulla questione della "onnipresenza" non sono valide.
Una proposta di confutazione comune di questo paradosso riguarda la definizione del "male". È la questione che
occupa più di frequente il dibattito teologico. L'obiezione più frequente è che il male è legato al "libero arbitrio" e
non sarebbe possibile senza questo. Il libero arbitrio sarebbe la proprietà per cui la volontà di certe creature dipende
solo da sé stessa, e non da dio. È facile riconoscere in questa idea una riformulazione del paradosso stesso piuttosto
che una vera risposta. In senso logico causale, infatti: 1) Ha un significato affermare che una cosa, benché creata da
dio, in nessun modo dipende da dio? 2) Il fatto di creare un essere dotato di capacità intrinseca di fare il male, e che
quindi potrebbe dannarsi, non potrebbe essere di per sé essere già considerata una azione malvagia? (In quanto
deliberatamente pericolosa e gratuita).
In generale: il libero arbitrio è il concetto che viene più spesso portato a confutazione del paradosso, ma questo
stesso concetto è opinabile e paradossale. L'idea che il "libero arbitrio" esista, o che la sua esistenza sia "buona",
costituiscono assiomi indimostrabili, e non sono accettati da tutti.
Infine, si osserva che la definizione di "male" dovrebbe essere consistente con la pratica (per esempio, tutti cercano
di curare le malattie o di difendersi dalle catastrofi naturali, non considerano "male" solo le azioni prodotte da esseri
umani) perciò è comunque difficile trovare una definizione di "male" che racchiude solo cose generate dal libero
arbitrio, tralasciando per esempio il caso o la natura, che si assume creata da dio stesso, e mantenere allo stesso
tempo una coerenza di discorso.
Possibili confutazioni
• Relative all'onnipresenza di dio. L'onnipresenza di dio non limita la sua dimensione all'universo: un dio potrebbe
esistere in un numero maggiore di dimensioni spaziali rispetto all'universo e quindi essere onnipresente senza che
il Diavolo ne sia una sua parte.[2] Inoltre non è detto che dio sia onnipresente; ad esempio nel cristianesimo dio è
inteso come omni-agente, ma non onnipresente, cioè la creazione non è parte di dio.
• Relative all'esistenza o definizione di male. Un altro problema del paradosso è la definizione di male: supponendo
come definizione di male il risultato delle azioni delle creature (comprendendo sia l'uomo che il diavolo) dirette
contro Dio, allora Dio non è responsabile del male, bensì lo sono le sue creature. Se il male non è "creato da Dio",
ma manifestato da esseri dotati di libero arbitrio, il paradosso non è più tale. Per quanto detto nei paragrafi sopra,
però, i sostenitori del paradosso non considerano il concetto di "libero arbitrio" come risposta al problema, dal
momento che l'onnipotenza è troppo "forte" come principio logico-causale, mentre la condizione di "libertà" di
un'altra creatura è vista come contraddittoria.
Paradosso della salvezza
• Enunciato: San Paolo nella Lettera ai Romani scriveva "Il giusto sarà salvato per la sua fede". Questa frase,
secondo la Chiesa, specifica che l'uomo può salvarsi e raggiungere la salvezza grazie alle buone opere compiute
in vita, il Giudizio Universale sarà il momento in cui Dio assegnerà grazia o dannazione a seconda delle gesta.
• Paradosso: Se la salvezza del soggetto dipende dalla possibilità di scegliere autonomamente se essere dannato o
no (scegliendo di compiere opere di bene), Dio non avrebbe alcuna possibilità di esercitare la sua potenza sugli
uomini e gli uomini stessi sarebbero padroni esclusivi del proprio destino grazie al libero arbitrio. Tutto ciò
ridurrebbe Dio a mero esecutore di una Legge superiore, ma nessuna forza o legge dovrebbe esser superiore a
Dio, a meno che egli sia non onnipotente.
221
Paradosso teologico
Possibili confutazioni
Un dio che esista in due dimensioni temporali può essere a conoscenza di ciò che ciascuno farà e portarsi ovunque
nella nostra linea temporale per raggiungere i propri scopi. Il completo libero arbitrio e la completa predestinazione è
possibile in due dimensioni temporali, benché questo concetto possa essere di difficile comprensione. [3]
In realtà tale paradosso, secondo i suoi detrattori, nascerebbe principalmente da un'erronea interpretazione del passo
citato. Lo stesso San Paolo scrive nella Lettera ai Romani (3, 23-24) Tutti hanno peccato e sono privi della gloria di
Dio, ma sono giustificati gratuitamente per la sua grazia, in virtù della redenzione realizzata da Gesù Cristo. Questo
passo potrebbe far pensare che tutti gli uomini saranno salvati, come ipotizzato da Hans Urs von Balthasar e Karl
Rahner. La concezione di salvezza della Chiesa, a partire dalle lettere di San Paolo, non dipende dalle opere, infatti
in virtù delle opere della legge nessun uomo sarà giustificato davanti a lui (Rm 3, 20), ma viene concessa
gratuitamente, e sta al libero arbitrio dell'uomo accettarla o respingerla.
Martin Lutero risolse questo paradosso affermando la predestinazione assoluta e l'inesistenza del libero arbitrio.
Comunque non è assolutamente detto che Dio, avendo lasciato il libero arbitrio, diventi il freddo esecutore di una
legge "superiore a lui stesso", dal momento che quella legge è stata decisa da lui medesimo. In effetti la
formulazione stessa del paradosso non sembra in questo senso molto chiara. Piuttosto l'esistenza del libero arbitrio
può mettere in luce la mancata onnipotenza di Dio, che così decide volontariamente di non influire sulle azioni
umane.
Note
[1] Una classe propria può contenere altre classi o insiemi, ma non può essere contenuta da classi o insiemi
[2] (EN) Godandscience.org: The theodice problem (http:/ / www. godandscience. org/ apologetics/ nogod. html#theodice)
[3] (EN) Godandscience.org: God cannot be almighty and allow free will simultaneously (http:/ / www. godandscience. org/ apologetics/ nogod.
html#almighty)
Bibliografia
• Michael Clark. I paradossi dalla A alla Z, Raffaello Cortina Editore, 2004, ISBN 8870789241.
Collegamenti esterni
• (http://www.godandscience.org/apologetics/nogod.html) Un elenco di paradossi con tentativi di confutazione,
in lingua inglese.
• (http://www.uaar.it/ateismo/inesistenza-di-dio/argomenti-non-credenti.html) Un altro elenco in italiano.
Voci correlate
•
•
•
•
•
•
Elenco di paradossi
Logica
Paradosso
Teoria degli insiemi
Questione ipotetica
Noncognitivismo teologico
222
Permutazione
223
Permutazione
Una permutazione è un modo di ordinare in successione n oggetti distinti, come nell'anagrammare una parola. In
termini matematici una permutazione di un insieme X si definisce come una funzione biiettiva
.
Elencare e contare le permutazioni
Il numero delle permutazioni di
infatti ci sono
oggetti è pari al fattoriale di
:
modi di scegliere l'oggetto che occupa la prima posizione, per ciascuno di essi ci sono
modi
di scegliere l'oggetto che occupa la seconda posizione, poi per ogni coppia di oggetti fissati nelle prime due posizioni
ci sono
modi di scegliere l'oggetto nella terza posizione, e così via, fino ad occupare tutte le posizioni.
Ad esempio, le 24 permutazioni possibili della parola "ABCD" sono:
ABCD BACD CABD DABC
ABDC BADC CADB DACB
ACBD BCAD CBAD DBAC
ACDB BCDA CBDA DBCA
ADBC BDAC CDAB DCAB
ADCB BDCA CDBA DCBA
Insiemi con ripetizioni
Se nell'insieme di partenza vi sono degli elementi ripetuti, alcune permutazioni danno la stessa sequenza. Ad
esempio, le permutazioni della parola "ABAB" forniscono soltanto 6 risultati distinti:
AABB ABAB ABBA
BBAA BABA BAAB
In generale, se l'insieme è formato da oggetti, di cui
sono di un tipo,
, il numero di risultati distinti è
che viene detto coefficiente multinomiale.
Nell'esempio mostrato,
e
, e si ottiene quindi
di un altro tipo, etc. fino a
, con
Permutazione
224
Composizione
Una permutazione è una funzione biettiva
. Due permutazioni
composte, ed il risultato è ancora una permutazione. L'insieme
e
possono quindi essere
delle permutazioni di
con l'operazione di
composizione forma un gruppo, detto gruppo simmetrico. L'elemento neutro è la permutazione che lascia fissi tutti
gli elementi.
Cicli
Sia
una successione di elementi distinti di X. Il ciclo
è la permutazione che sposta in avanti di uno tutti gli
seguente:
e tiene fissi gli altri. Più formalmente, è definita nel modo
L'ordine del ciclo è il numero n. Una trasposizione è un ciclo
di ordine 2: consiste semplicemente nello
scambiare gli elementi a e b, lasciando fissi tutti gli altri.
Due cicli
e
sono indipendenti se
commutano, cioè
per ogni i e j. Due cicli indipendenti a e b
. L'importanza dei cicli sta nel seguente teorema:
Ogni permutazione si scrive in modo unico come prodotto di cicli indipendenti.
Poiché cicli indipendenti commutano, l'unicità è da intendersi a meno di scambiare l'ordine dei cicli.
Notiamo infine che le notazioni
e
definiscono lo stesso ciclo, mentre
e
sono
cicli diversi.
Notazione
Ci sono essenzialmente due notazioni per scrivere una permutazione. Consideriamo ad esempio una permutazione
dell'insieme {1, 2, 3, 4, 5}. Si può scrivere sotto ad ogni numero la posizione in cui questo viene spostato:
Alternativamente, si può codificare la stessa permutazione sfruttando il teorema enunciato sopra, scrivendola come
prodotto di cicli. Nel nostro caso, otteniamo (1 2 5)(3 4).
Con la notazione ciclica, due permutazioni possono essere composte in modo agevole: ad esempio (1 2 5)(3 4) e (1 2
3) danno (1 2 5)(3 4)(1 2 3) = (1 3 4)(2 5). Si noti che composizione è fatta da sinistra verso destra, come si legge
nelle lingue occidentali. Per esempio, per vedere in cosa viene mandato 1 dalla composizione (1 2 5)(3 4)(1 2 3) si
vede che (1 2 5) lo manda in 2, (3 4) non muove 2, e infine (1 2 3) manda 2 in 3.
Permutazione
225
Segno di una permutazione
Definizione
Ogni ciclo è prodotto di trasposizioni. Infatti (sempre con la composizione da sinistra verso destra) si ha:
Ne segue che ogni permutazione è prodotto di trasposizioni. Il numero di tali trasposizioni non è univocamente
determinato dalla permutazione: per esempio la trasposizione
si può scrivere anche come
o
. Si può però mostrare che se una stessa permutazione
prodotto di
trasposizioni, che come prodotto di
trasposizioni, allora
e
si può scrivere sia come
hanno la stessa parità, cioè sono
entrambi pari o entrambi dispari.
Una permutazione p è detta pari o dispari a seconda che sia ottenibile come prodotto di un numero pari o dispari di
trasposizioni. Il segno di p è definito rispettivamente come +1 e -1.
Esempi
• Tutte le trasposizioni sono dispari.
• Tra le 6=3! permutazioni degli elementi {1, 2, 3} vi sono:
e, (1 2 3), (1 3 2) sono pari;
(1 2), (2 3), (1 3) sono dispari.
• Tra le 24=4! permutazioni degli elementi {1, 2, 3, 4} ci sono permutazioni dispari che non sono trasposizioni: ad
esempio, (1 2 3 4).
Proprietà
Definito il prodotto di due permutazioni come la composizione delle stesse, si può dire che la funzione "segno" è
moltiplicativa, cioè
Gruppo alternante
Metà delle n! permutazioni di un insieme di n elementi sono pari. Poiché la funzione segno è moltiplicativa, le
permutazioni pari formano un sottogruppo normale del gruppo S(X) delle permutazioni di X di indice due, detto
gruppo alternante e indicato con A(X). Si tratta del nucleo dell'omomorfismo di gruppi
L'immagine è un gruppo ciclico con due elementi.
Formula per il segno
Il segno di una permutazione
Voci correlate
• Combinazione
• Dismutazione
• Disposizione
• Probabilità
può essere calcolato tramite la formula seguente:
Permutazione
• Statistica
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Permutations
Principio dei cassetti
Il principio dei cassetti, detto anche legge del buco della piccionaia,
afferma che se n+k oggetti sono messi in n cassetti, allora almeno un
cassetto deve contenere più di un oggetto. Un altro modo di vedere il
principio è che una piccionaia con m caselle può contenere al più m
piccioni, se non se ne vogliono mettere più di uno in nessuna casella:
un ulteriore volatile dovrà necessariamente condividere la casella con
un suo simile. Formalmente, il principio afferma che se A e B sono due
insiemi finiti e B ha cardinalità strettamente minore di A, allora non
esiste alcuna funzione iniettiva da A a B.
10 piccioni in 9 caselle
Il principio dei cassetti è un esempio di un argomento combinatorio,
che può essere applicato a molti problemi formali, compresi quelli
relativi a insiemi infiniti che non possono essere messi in corrispondenza biunivoca. Nell'approssimazione diofantea
l'applicazione quantitativa del principio all'esistenza di soluzioni intere di un sistema di equazioni lineari va sotto il
nome di lemma di Siegel.
Si ritiene che il principio sia stato esplicitato per la prima volta da Dirichlet nel 1834 col nome Schubfachprinzip
("principio del cassetto"). In alcune lingue, (ad esempio il russo) questo principio è pertanto noto come il principio di
Dirichlet, da non confondersi con il principio dello stesso nome sulle funzioni armoniche. In inglese, invece, si parla
di pigeonhole principle, dove il "pigeonhole" si riferisce alle cassette postali aperte in uso in alcuni uffici e
università.
Esempi
Anche se il principio dei cassetti può a prima vista sembrare un'osservazione banale, può essere usato per dimostrare
risultati inaspettati, come ad esempio "A Roma abitano almeno due persone con lo stesso numero di capelli".
Dimostrazione: una persona media ha circa 150000 capelli. È ragionevole assumere che nessuno ne abbia più di un
milione: ma Roma ha più di un milione di abitanti. Se prepariamo un enorme schedario con un milione di cassetti, e
associamo a ognuno di essi il numero di capelli corrispondente, e assegniamo ogni persona - o più pragmaticamente
un loro documento - al cassetto corrispondente, ci dovranno essere due persone nello stesso cassetto, e quindi con lo
stesso numero di capelli.
Un altro esempio è il caso in cui ci sono cinque persone che vogliono giocare a calcetto in un torneo, e quattro
squadre presenti. Questo non sarebbe un problema se non fosse che nessuno dei cinque vuole giocare nella stessa
squadra di uno qualunque degli altri quattro: ma per il principio dei cassetti è impossibile suddividerli tra le varie
squadre.
Nel campo dell'informatica ci sono molti esempi pratici del principio dei cassetti. Si prenda ad esempio una tabella
hash: le collisioni dei valori avvengono perché il numero di chiavi possibili è di gran lunga superiore a quello degli
indici hash. Nessun algoritmo, per quanto sofisticato, potrà pertanto eliminare con certezza le collisioni. Allo stesso
modo si dimostra che non può esistere un algoritmo di compressione senza perdita di informazioni "perfetto", che
226
Principio dei cassetti
riduca cioè la dimensione di un file di una dimensione qualunque - o anche solo maggiore di un certo numero M di
bit - datogli in input. Infatti i file composti da M+1 bit sono 2M+1, ma i file di dimensione da 1 a M bit sono
solamente 2M+1 - 1; quindi ci devono essere almeno due file in ingresso mappati sullo stesso file in uscita. Ma allora
l'ipotesi che la compressione sia senza perdita di informazioni fallisce, dato che non si potrebbe distinguere tra i due
file convertiti nello stesso file di output.
Nel testo di Grimaldi (vedi Bibliografia) sono riportati altri esempi.
Generalizzazioni
Una versione generalizzata del principio afferma che, se n oggetti discreti devono essere allocati in m contenitori,
allora ci sarà almeno un contenitore che conterrà almeno
oggetti (il simbolo
denota la funzione
soffitto).
Una generalizzazione probabilistica del principio dei cassetti afferma che, se si mettono a caso n piccioni in una
piccionaia da m posti con probabilità uniforme 1/m, allora almeno un posto della piccionaia conterrà più di un
piccione con probabilità
dove
è un fattoriale decrescente. Per n = 0 e per n = 1 (con m > 0), questa probabilità è zero, mentre per n > m è
uno, coincidendo così con l'ordinario principio dei cassetti.
Voci correlate
• Combinatoria
• Numero cardinale
• Teorema di Ramsey
Bibliografia
• Ralph P. Grimaldi (1998): Discrete and Combinatorial Mathematics: an Applied Introduction, 4th ed., ISBN
0-201-19912-2, pp. 244-248.
227
Principio di non contraddizione
Principio di non contraddizione
Nella logica classica, il principio di non-contraddizione afferma la falsità di ogni proposizione implicante che una
certa proposizione A e la sua negazione, cioè la proposizione non-A, siano entrambe vere allo stesso tempo e nello
stesso modo. Secondo le parole di Aristotele:
« È impossibile che il medesimo attributo, nel medesimo tempo, appartenga e non appartenga al medesimo oggetto e sotto il
[1]
medesimo riguardo »
Più semplicemente, la proposizione "A è anche non-A" è falsa. In simboli, ciò è espresso come segue:
Il principio di non contraddizione è fondamentale
Fin dal Medioevo[2]è noto un interessante risultato della Logica: in un sistema di logica dicotomica in cui sia vera
una affermazione ed anche la sua negazione, è vera qualsiasi affermazione. Tale assunzione è solitamente citata
nella letteratura latina come ex falso quodlibet, e come principio di esplosione nella logica moderna.
Conclusioni
Un sistema logico dove siano valide le comuni regole di inferenza e dove sia anche presente una contraddizione,
ossia sia VERA (completamente vera) una affermazione e anche la sua negazione, è privo di logica, di struttura e di
informazione, poiché tutte le affermazioni sono vere (comprese le loro negazioni). E quindi non può essere
interessante poiché non comunica informazione. Questo risultato è anche noto come principio di esplosione. La
banalizzazione di un sistema in cui sia presente contraddizione può essere evitata solo a patto di indebolire il sistema
stesso, scartando regole di inferenza o assiomi. Questo avviene nelle cosiddette logiche paraconsistenti.
Logiche a più valori
Sebbene in una logica polivalente (avendo opportunamente definito gli operatori AND e NEG) si possa avere che la
forma classica del principio di non contraddizione cessi di valere, ossia in termini grado di verità:
per qualche proposizione (che è impossibile in logica classica a causa del principio di bivalenza), è in ogni modo
utile rilevare che un'altra forma del principio di non contraddizione continua a funzionare nelle logiche a più valori
(come la citata logica fuzzy) nella forma seguente:
una affermazione e la sua negazione non possono essere ambedue simultaneamente completamente vere,
che si traduce nella diseguaglianza in termini di grado di verità:
Nella logica fuzzy, si ha ad esempio
perché l'AND logico è rappresentato dal minimo dei due valori, valendo inoltre
appare ovvio che il risultato non potrà mai essere maggiore di 1/2. Ben si comprende che nel caso esistano solo due
valori di verità, come nella logica aristotelica, si ottiene l'enunciato sopra esposto. In questo senso si può sostenere
che il principio di non-contraddizione continua a valere in logica polivalente.
228
Principio di non contraddizione
229
Logiche polivalenti di Gödel e prodotto
Nella logica polivalente di Gödel e nella logica polivalente prodotto, la negazione di una proposizione si definisce
nella maniera seguente:
se
,
se
.
Si noti che in generale:
Si trova dunque un interessante risultato:
e quindi in tali logiche polivalenti è addirittura valida la forma standard del principio di non-contraddizione. Questo
sta a confermare il fatto che in generale la polivalenza non implica la negazione in alcuna forma del principio di non
contraddizione.
Logica di Jan Łukasiewicz ad infiniti valori di verità
Sotto opportune condizioni, quali quelle che vigono nella logica di Łukasiewicz ad infiniti valori di verità (logica
fuzzy), si ha che il principio di non contraddizione diviene per qualsivoglia asserzione
:
Questa di fatto è la definizione della negazione nella logica fuzzy di Łukasiewicz e di Zadeh. È interessante
rilevare che l'equazione logica:
che è priva di soluzioni nell'insieme degli interi (in particolare, nel sottoinsieme degli interi {0,1}), ammette invece
la soluzione frazionaria:
nel campo dei numeri reali (in particolare, nel sottoinsieme individuato
dall'intervallo chiuso [0,1]) e ciò segue precisamente dal principio di non-contraddizione. Il punto fondamentale
rimane comunque che in un sistema fuzzy quale quello di Łukasiewicz o di Zadeh, è impossibile dimostrare (VERE)
sia un'affermazione che la propria negazione (che implicherebbe:
). Dunque possiamo
concludere che le logiche di Łukasiewicz e di Zadeh, non sono paraconsistenti ed in tal senso non violano il
principio di non contraddizione.
Logica quantistica
La meccanica quantistica, scoprendo che un quanto può essere allo stesso tempo due rappresentazioni opposte di una
stessa realtà (particella e onda) si discosta dalla logica aristotelica avvicinandosi a una concezione "eraclitea" in cui
tutto il divenire può essere e non essere contemporaneamente.[3]
« Il mare è l'acqua più pura e impura: per i pesci è potabile e gli conserva la vita, per gli uomini è imbevibile e mortale »
(Eraclito)
Principio di non contraddizione
230
Voci correlate
•
•
•
•
•
Contraddizione
Identità degli indiscernibili
Logica paraconsistente
Principio del terzo escluso
Consistenza
Note
[1] Aristotele, Metafisica, Libro Gamma, cap. 3, 1005 b 19-20.
[2] Erroneamente attribuito a Duns Scoto il principio secondo cui ex falso quodlibet viene comunemente chiamato "principio dello Pseudoscoto".
[3] Louis de Broglie, con la sua ipotesi, mostrò come bisognasse associare l'aspetto corpuscolare ed ondulatorio sia alla materia che al
ragionamento. -Louis de Broglie, Introduction à l'étude de la mécanique ondulatoire, 1930"Il principio di contradditorietà complementare deve rimpiazzare il principio di non-contraddizione come fondamento della logica." - Stéphane
Lupasco, L'expérience microscopique et la pensée humaine, PUF, 1941, p. 286-
Bibliografia
• Bart Kosko, Satoru Isaka, Logica «sfumata», Le Scienze, Settembre 1993, no.301
• Ludovico Geymonat, Storia del pensiero filosofico e scientifico
Probabilità
Il concetto di probabilità, utilizzato a partire dal '600, è diventato con il passare del tempo la base di diverse
discipline scientifiche rimanendo tuttavia non univoco. In particolare su di esso si basa una branca della statistica (la
statistica inferenziale), cui fanno ricorso numerose scienze sia naturali che sociali.
Cenni storici
I primi studi che portarono successivamente a concetti legati alla
probabilità possono essere trovati a metà del XVI secolo in Liber de
ludo aleæ di Girolamo Cardano (scritto nel 1526, ma pubblicato solo
un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di
Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spiegò
come mai, lanciando tre dadi, la probabilità di uscita delle somme 10 e
11 sia più probabile dell'uscita del 9 e del 12, nonostante che entrambi i
risultati si ottengano da un uguale numero di combinazioni.[1]
Alcuni dadi a sei facce.
Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venne
affrontato da Luca Pacioli, noto anche come Fra Luca dal Borgo, nella sua Summa de arithmetica, geometria,
proportioni et proportionalita (pubblicata nel 1494) e successivamente da Tartaglia, per poi essere risolto da Pascal e
Fermat.
La nascita del concetto moderno di probabilità viene attribuita a Blaise Pascal (1623-1662) e Pierre de Fermat
(1601-1665). Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere
almeno un 6 in 4 lanci di un dado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre di
un dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal
lamentando che la matematica falliva di fronte all'evidenza empirica.[2] Da ciò scaturì una corrispondenza tra Pascal
e Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista.
Probabilità
Pascal annunciò nel 1654 all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa in
gioco. E in una lettera del 29 luglio dello stesso anno a Fermat propose la soluzione del problema, affrontato con il
metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni.
Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de ratiociniis in ludo aleæ,[3], il primo trattato sul
calcolo delle probabilità, nel quale introduceva il concetto di valore atteso.
I suoi lavori influenzarono tra l'altro Pierre de Montmort (1678-1719), che scrisse nel 1708 un Essai d'analyse sur le
jeux de hasard, ma anche Jakob Bernoulli e Abraham de Moivre.
Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli, dove veniva dimostrato il teorema che porta
il suo nome, noto anche come legge dei grandi numeri. Successivamente, de Moivre pervenne ad una prima
formulazione, poi generalizzata da Pierre Simon Laplace (1749-1827), del Teorema centrale del limite. La teoria
delle probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina.
In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilità è un numero
intrinsecamente legato ad un evento. Negli anni centrali del XX secolo, tuttavia, prima Bruno de Finetti e poi
Leonard Jimmie Savage hanno elaborato una concezione soggettiva della probabilità, secondo cui essa è il grado di
fiducia che una persona ha nel verificarsi dell'evento.
Nello stesso periodo, Andrey Nikolaevich Kolmogorov ha dato inizio alla moderna teoria assiomatica
(Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933), ispirandosi alla teoria della misura. Si è così affermata una
teoria della probabilità puramente matematica, che generalizza il patrimonio matematico comune alle diverse
impostazioni.
Definizioni
In probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilità o meno del
suo verificarsi, prescindendo dalla sua natura. Tra due estremi, detti evento certo (ad esempio: lanciando un dado si
ottiene un numero compreso tra 1 e 6) ed evento impossibile (ottenere 1 come somma dal lancio di due dadi), si
collocano eventi più o meno probabili (aleatori).
Si usa il linguaggio della teoria degli insiemi: un insieme non vuoto Ω ha come elementi tutti i risultati possibili di
un esperimento; l'evento che risulta verificato da un unico risultato (un unico elemento di Ω) viene detto evento
elementare; altri eventi sono sottoinsiemi di Ω costituiti da più risultati.[4]
Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con A∪B la loro
unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con A∩B la loro
intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che dell'evento B.[5] Se A∩B = ∅ i due eventi
A e B vengono detti incompatibili (non possono verificarsi simultaneamente). Il complemento di un evento A rispetto
a Ω, Ω\A, è detto negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare).
Definizione classica
Secondo la prima definizione di probabilità, per questo detta classica, la probabilità di un evento è il rapporto tra il
numero dei casi favorevoli all'evento e il numero dei casi possibili, purché questi ultimi siano tutti equiprobabili.
Questa definizione è spesso attribuita a Pierre Simon Laplace e quindi anche identificata definizione classica di
Laplace.
Indicando con Ω l'insieme di casi possibili e con |Ω|=n la sua cardinalità, con A un evento e con nA il numero dei casi
favorevoli ad A (ad esempio, nel lancio di un dado Ω={1,2,3,4,5,6}, n = 6, A = "numero pari", nA = 3), la probabilità
di A, indicata con P(A), è pari a:
Dalla definizione seguono tre regole:
231
Probabilità
1. la probabilità di un evento aleatorio è un numero compreso tra 0 e 1;
2. la probabilità dell'evento certo è pari a 1; se A = "numero compreso tra 1 e 6", nA = 6 e nA/n = 1;
3. la probabilità del verificarsi di uno di due eventi incompatibili, ovvero di due eventi che non possono verificarsi
simultaneamente, è pari alla somma delle probabilità dei due eventi; se A = "numero pari", con P(A) = 1/2, e B=
"esce il 3", con P(B) = 1/6, la probabilità che tirando un dado si ottenga un numero pari oppure un 3 è:
La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni. Inoltre, è una
definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi non
irrilevanti:
• dal punto di vista formale, è una definizione circolare: richiede che i casi possiedano tutti la medesima
probabilità, che è però ciò che si vuole definire;
• non definisce la probabilità in caso di eventi non equiprobabili;
• presuppone un numero finito di risultati possibili e di conseguenza non è utilizzabile nel continuo.
Definizione frequentista
Per superare tali difficoltà, Richard von Mises (1883-1953) propose di definire la probabilità di un evento come il
limite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti:
La definizione frequentista si applica ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente
possibili, ma assume che l'esperimento sia ripetibile più volte, idealmente infinite, sotto le stesse condizioni.
Anche tale definizione consente di calcolare la probabilità di molti eventi e da essa si ricavano le stesse tre regole
che seguono dalla definizione classica. È sufficiente, infatti, sostituire il rapporto tra numero dei casi favorevoli nA e
numero dei casi possibili n con il limite del rapporto per n tendente all'infinito.
Tuttavia:
• il "limite" delle frequenze relative non è paragonabile all'analogo concetto matematico; ad esempio, data una
successione {an}, si dice che a è il suo limite se per ogni ε > 0 esiste un numero naturale N tale che |an - a| < ε per
ogni n > N, e, comunque dato ε, è sempre possibile calcolare N; nella definizione frequentista, invece, N non è
sempre calcolabile;
• non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia la probabilità che vi
sia vita su Marte o che tra 50 anni il tasso di natalità in Africa diventi la metà di quello attuale, ma in casi simili
non è possibile immaginare esperimenti ripetibili all'infinito.
Definizione soggettiva
De Finetti e Savage[6] hanno proposto una definizione di probabilità applicabile ad esperimenti casuali i cui eventi
elementari non siano ritenuti ugualmente possibili e che non siano necessariamente ripetibili più volte sotto le stesse
condizioni: la probabilità di un evento è il prezzo che un individuo ritiene equo pagare per ricevere 1 se l'evento si
verifica, 0 se l'evento non si verifica.
Al fine di rendere concretamente applicabile la definizione, si aggiunge un criterio di coerenza: le probabilità degli
eventi devono essere attribuite in modo tale che non sia possibile ottenere una vincita o una perdita certa.
In tal modo è possibile ricavare dalla definizione soggettiva le stesse tre regole già viste.
1. P(A) è compresa tra 0 e 1; se infatti fosse negativa si avrebbe un guadagno certo, se fosse maggiore di 1 si
avrebbe una perdita certa;
232
Probabilità
233
2. P(Ω) = 1; se l'evento è certo, si riceverà sicuramente 1, ma se fosse P(Ω) < 1 si avrebbe un guadagno certo, pari a
1 - P(Ω), se invece fosse P(Ω) > 1 si avrebbe una perdita certa;
3. se A∩B = ∅, P(A∪B) = P(A)+P(B). Si osserva preliminarmente che se gli n eventi A1, A2, ..., An sono
incompatibili (non possono presentarsi insieme) e necessari (uno di loro deve necessariamente verificarsi), la
somma delle probabilità P(Ai), con i che va da 1 a n, è uguale a 1; infatti, se si paga P(Ai) per ciascun evento, se la
somma fosse inferiore a 1 si avrebbe un guadagno certo, se fosse superiore si avrebbe una perdita certa. Si
considerano poi gli eventi incompatibili A e B e l'evento complemento della loro unione; i tre eventi sono
incompatibili e necessari e si ha:
Sono però incompatibili anche l'unione di A e B ed il suo complemento:
Dalle due uguaglianze segue:
se
, allora
La definizione soggettiva consente quindi di calcolare la probabilità di eventi anche quando gli eventi elementari non
sono equiprobabili e quando l'esperimento non può essere ripetuto. Rimane fondata, tuttavia, sull'opinione di singoli
individui, che potrebbero presentare diverse propensioni al rischio. .Basta pensare che molti sarebbero disposti a
giocare 1 euro per vincerne 1000, ma pochi giocherebbero un milione di euro per vincerne un miliardo.....
Definizione assiomatica
L'impostazione assiomatica della probabilità venne proposta da Andrey Nikolaevich Kolmogorov nel 1933 in
Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilità), sviluppando
la ricerca che era ormai cristallizzata sul dibattito fra quanti consideravano la probabilità come limiti di frequenze
relative (cfr. impostazione frequentista) e quanti cercavano un fondamento logico della stessa.
Va notato che la definizione assiomatica non è una definizione operativa e non fornisce indicazioni su come
calcolare la probabilità. È quindi una definizione utilizzabile sia nell'ambito di un approccio oggettivista che
nell'ambito di un approccio soggettivista.
Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi
nell'individuare i postulati da cui poi si passava a definire i teoremi.
L'impostazione assiomatica muove dal concetto di σ-algebra, o classe additiva. Dato un qualsiasi esperimento
casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto Ω, detto spazio campionario, e
ciascun evento è un sottoinsieme di Ω. La probabilità viene vista, in prima approssimazione, come una misura, cioè
come una funzione che associa a ciascun sottoinsieme di Ω un numero reale non negativo tale che la somma delle
probabilità di tutti gli eventi sia pari a 1.
Se Ω ha cardinalità finita n o infinita numerabile, l'insieme di tutti i suoi sottoinsiemi, detto insieme delle parti, ha,
rispettivamente, cardinalità 2n o la cardinalità del continuo. Tuttavia, se Ω ha la cardinalità del continuo, il suo
insieme delle parti ha cardinalità superiore e risulta "troppo grande" perché si possa definire su di esso una misura. Si
considerano pertanto i soli sottoinsiemi di Ω che costituiscono una classe additiva
, ovvero un insieme non vuoto
tale che
• se un evento A appartiene ad
, vi appartiene anche il suo complemento:
• se un'infinità numerabile di eventi, A1, A2, ... An, ..., appartiene ad
dalla loro unione:
, vi appartiene anche l'evento costituito
Probabilità
234
Una classe additiva è quindi un sottoinsieme delle insieme delle parti di Ω che risulta chiuso rispetto alle operazioni
di complemento e di unione numerabile.
Si può aggiungere che una classe additiva è chiusa anche rispetto all'intersezione, finita o numerabile, in quanto per
le leggi di De Morgan si ha:
(il secondo membro dell'uguaglianza appartiene alla classe in quanto complemento di una unione numerabile dei
complementi di insiemi che vi appartengono).
Si pongono i seguenti assiomi (che includono le tre regole ricavabili dalle definizioni precedenti):
1.
2.
3.
4.
5.
Gli eventi sono sottoinsiemi di uno spazio Ω e formano una classe additiva
.
Ad ogni evento
è assegnato un numero reale non negativo P(A), detto probabilità di A.
P(Ω)=1, ovvero la probabilità dell'evento certo è pari ad 1.
Se l'intersezione tra due eventi A e B è vuota, allora P(A∪B)=P(A)+P(B).
Se An è una successione decrescente di eventi e al tendere di n all'infinito l'intersezione degli An tende all'insieme
vuoto, allora P(An) tende a zero:[7]
La funzione P(A) viene detta funzione di probabilità, o anche distribuzione di probabilità. La terna
viene
detta spazio di probabilità.
Dagli assiomi si ricavano immediatamente alcune proprietà elementari della probabilità:
• Se P(A) è la probabilità di un evento A, la probabilità dell'evento complementare è 1-P(A). Infatti, poiché
l'intersezione di A e del suo complemento è vuota e la loro unione è Ω, dagli assiomi 3 e 4 si ricava:
• La probabilità dell'evento impossibile è pari a zero. Infatti l'insieme vuoto è il complemento di Ω e si ha:
• La probabilità di un evento è minore o uguale a 1. Infatti, dovendo la probabilità essere non negativa per il
secondo assioma, si ha:
• Se un evento A è incluso in un evento B, allora la sua probabilità è minore o uguale a quella di B. Infatti, se B
include A può essere espresso come unione di insiemi disgiunti e si ha:
Teoremi di base
Dai suddetti assiomi derivano alcuni teoremi e concetti fondamentali.
Il teorema della probabilità totale consente di calcolare la probabilità dell'unione di due o più eventi, ovvero la
probabilità che si verifichi almeno uno di essi. Essa è la somma delle probabilità dei singoli eventi se sono a due a
due incompatibili; in caso contrario, alla somma va sottratta la somma delle probabilità delle intersezioni due a due,
poi aggiunta la somma delle probabilità delle intersezioni a tre a tre e così via. Ad esempio, nel caso di tre eventi:
Si dice probabilità condizionata di A dato B, e si scrive P(A|B), la probabilità che l'evento A ha di verificarsi quando
si sappia che B si è verificato:
Probabilità
Attraverso tale concetto si perviene al teorema della probabilità composta, che consente di calcolare la probabilità
dell'intersezione di due o più eventi, ovvero la probabilità che essi si verifichino tutti. Nel caso di due eventi (che può
essere generalizzato), si ha:
Nel caso che la probabilità di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti indipendenti
stocasticamente (o probabilisticamente) e dalla stessa definizione segue una diversa formulazione della probabilità
composta, caso particolare del precedente: P(A∩B)=P(A)P(B).
Il teorema di Bayes consente di calcolare la probabilità a posteriori di un evento Ai, quando si sappia che si è
verificato un evento E. Se Ai appartiene ad un insieme finito o numerabile di eventi a due a due incompatibili, e se E
si verifica allora si verifica necessariamente uno degli eventi di tale insieme (ed uno solo, dato che sono
incompatibili), allora, conoscendo le probabilità a priori degli eventi Ai e le probabilità condizionate P(E|Ai) e
sapendo che si è verificato E, si può calcolare la probabilità a posteriori di un particolare Ai:
Più discorsivamente: se si conoscono sia le probabilità a priori delle diverse possibili "cause" di E (ma non si sa per
effetto di quale di esse E si è verificato), sia le probabilità condizionate di E data ciascuna delle cause, è possibile
calcolare la probabilità che E si sia verificato per effetto di una particolare causa.
Difficoltà nell'utilizzo delle probabilità
Quante insidie vi siano nei ragionamenti sulle probabilità - al di là delle difficoltà nella comprensione di cosa possa
essere la probabilità - viene messo in evidenza da alcuni cosiddetti paradossi, dove in realtà si tratta di domande con
risposte apparentemente illogiche:
• nel paradosso delle tre carte l'errore consiste solitamente nel non avere identificato correttamente quali siano gli
eventi: i lati delle carte e non le carte stesse
• nel paradosso dei due bambini l'errore consiste solitamente nel non distinguere eventi diversi, ovvero nel
considerare un unico evento quelli che in realtà sono due
• nel problema di Monty Hall la difficoltà consiste anzitutto nell'accettare l'idea che una nuova informazione può
modificare le probabilità di eventi, senza che il mondo reale cambi, l'altro errore consiste nel non analizzare
completamente e dunque valutare correttamente la nuova informazione acquisita.
Una ulteriore fonte di confusione può essere data dal presupporre (sbagliando) che il fatto che un evento abbia
probabilità 1 implica che esso avvenga sempre (invece che quasi certamente).
Probabilismo ontico
Il probabilismo ontico è una teoria ontologica in base alla quale ciò che è necessario rappresenta il massimo delle
probabilità e ciò che è casuale il minimo delle probabilità. L'alternanza dialettica necessità/caso si dà quindi in una
scala astratta, ma matematicamente calcolabile per approssimazione caso per caso con adeguati algoritmi, dove la
causalità è l'estrema improbabilità e la necessità l'estrema probabilità.
Note
[1] Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6),
(2,3,5), (2,4,4), (3,3,4), l'11 con (1,4,6), (2,3,6), (2,4,5), (1,5,5), (3,3,5), (3,3,4) e il 12 con (1,5,6), (2,4,6), (2,5,5), (3,4,5), (3,3,6), (4,4,4).
Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi in un solo modo, una con due numeri uguali può presentarsi in tre
modi diversi, una con tre numeri diversi in sei modi diversi. Si può quindi ottenere il 10 e l'11 in 27 modi (6+6+3+6+3+3), il 9 e il 12 in 25
modi (6+6+3+3+6+1).
[2] Secondo il Cavaliere, essendo 1/6 la probabilità del 6 con un dado, in quattro lanci la probabilità sarebbe 4 × 1/6 = 2/3; la probabilità del
doppio 6 in due lanci è invece 1/36 e, per arrivare a 2/3, occorrono 24 lanci: 24 × 1/36 = 2/3. In realtà la probabilità di ottenere almeno un 6 si
235
Probabilità
[3]
[4]
[5]
[6]
[7]
calcola meglio a partire dall'evento complementare, "nessun 6 in quattro lanci", che è (5/6)4, e sottraendo questa da 1, ottenendo il 51,8%;
nello stesso modo si calcola che la probabilità di almeno un doppio 6 in 24 lanci è 1 – (35/36)24 = 49%.
La ristampa della traduzione inglese è disponibile in http:/ / www. stat. ucla. edu/ history/ huygens. pdf.
Ad esempio, nel lancio di un dado l'insieme Ω è costituito dai sei risultati {1,2,3,4,5,6}; l'evento "esce il 3" è rappresentato dall'insieme {3},
l'evento "esce un numero pari" è rappresentato dall'insieme {2,4,6}.
Ad esempio, restando al lancio di un dado, se A = {2} e B = {4,6}, l'evento A∪B è {2,4,6}, ovvero "esce un numero pari". Se invece A =
"esce un numero pari" e B = "esce un numero minore o uguale a 3", A∩B = {2}.
L'impostazione soggettiva era stata anticipata da Ramsey nel 1926.
Una successione di insiemi è detta decrescente se ciascun insieme include il successivo. V. Limite insiemistico.
Bibliografia
•
•
•
•
Remo Cacciafesta, Lezioni di calcolo delle probabilità, Veschi, Roma, 1983
Giorgio Dall'Aglio, Calcolo delle probabilità, Zanichelli, Bologna, 2003
Domenico Piccolo, Statistica, Il Mulino, Bologna, 1998, Parte Seconda, Cap. VIII, pp. 215-291
Devlin Keith, La lettera di Pascal. Storia dell'equazione che ha fondato la teoria della probabilità, Rizzoli, 2008
Voci correlate
• Teoria della probabilità
•
•
•
•
•
•
•
•
•
•
•
•
•
Probabilismo
Evento
Teorema di Cox
Campionamento statistico
Legge dei grandi numeri
Kolmogorov.
Bruno de Finetti
Meccanica quantistica
Indeterminismo
Statistica
Statistica inferenziale
Storia della statistica
Calcolo combinatorio
Collegamenti esterni
• (EN) Probability and Statistics EBook (http://wiki.stat.ucla.edu/socr/index.php/EBook)
• (FR) Journal sur l'histoire des probabilités et des statistiques (http://www.jehps.net/) et site associé (articles,
bibliographie, biographies)
236
Probabilità condizionata
237
Probabilità condizionata
In teoria della probabilità la probabilità condizionata di un evento A rispetto a un evento B è la probabilità che si
verifichi A, sapendo che B è verificato. Questa probabilità, indicata
o
, esprime una "correzione"
delle aspettative per A, dettata dall'osservazione di B. (Ha senso solo se B ha una probabilità non nulla di verificarsi.)
Esempio
Per esempio, la probabilità di ottenere "4" con il lancio di un comune dado (evento A) ha probabilità P(A)=1/6 di
verificarsi. Sapendo però che il risultato del lancio è stato uno tra "4", "5" e "6" (evento B), la probabilità di A
diventa
.
Definizione
La probabilità di A condizionata da B è
,
dove
è la probabilità congiunta dei due eventi, ovvero la probabilità che si verifichino entrambi.
In termini più rigorosi, dato uno spazio misurabile
misurato
di misura P, ogni evento B eredita una struttura di spazio
, restringendo gli insiemi misurabili a quelli contenuti in B, ed induce una nuova misura
su
, con
) e B non è trascurabile (
probabilizzato
. Se
), allora riscalando
è uno spazio probabilizzato (
a
si ottiene lo spazio
delle probabilità condizionate da B.
Proprietà
La formula della probabilità condizionata permette di descrivere la probabilità congiunta come
Ovvero, la probabilità che si verifichino sia A che B è pari alla probabilità che si verifichi B moltiplicata per la
probabilità che si verifichi A supponendo che B sia verificato.
Due eventi A e B sono indipendenti quando vale una delle tre equazioni equivalenti
•
•
•
;
;
.
Casi particolari
Se A e B sono eventi disgiunti, cioè se
, le loro probabilità condizionate sono nulle: sapendo che uno
dei due eventi si è verificato, è impossibile che si sia verificato anche l'altro.
Se l'evento A implica l'evento B, cioè se
•
•
(A implica B);
(B è necessario per A).
, allora la loro intersezione è A, per cui
e:
Probabilità condizionata
238
Nel caso di una misura di probabilità uniforme su uno spazio Ω finito, questa formula per P(A|B) esprime la
definizione classica di probabilità come "casi favorevoli (A) su casi possibili (B)".
Invece, per P(B|A) otteniamo il valore 1 che, per un numero finito di valori lo stesso Bayes interpretò in senso lato
come la certezza che il tutto. sia condizionato dalla parte.
Ulteriori definizioni
La speranza condizionata
di una variabile aleatoria X ad un evento B è la speranza di X calcolata sulle
probabilità
(condizionate da B).
La probabilità di un evento A può essere condizionata da una variabile aleatoria discreta X, originando una nuova
variabile aleatoria,
, che per X=x assume il valore
.
Applicazioni
Il teorema di Bayes esprime l'uguaglianza simmetrica
del teorema della
probabilità composta come
.
Questo teorema è alla base dell'inferenza bayesiana in statistica, dove P è detta "probabilità a priori di B" e PB
"probabilità a posteriori di 'B".
Paradossi
Molti paradossi sono legati alla probabilità condizionata e derivano sia da un'errata formulazione del problema sia
dalla confusione di P(A|B) con P(A) o con P(B|A).
Esempi particolari sono il paradosso delle due buste, il paradosso dei due bambini, il problema di Monty Hall e il
paradosso di Simpson.
Voci correlate
•
•
•
•
•
•
Probabilità congiunta
Indipendenza (probabilità)
Inferenza bayesiana
Teorema di Bayes
Teorema della probabilità composta
Valore atteso condizionato
Bibliografia
• Giuseppe Zwirner, L. Scaglianti, Itinerari nella matematica vol.1, Padova, CEDAM, 1989, ISBN 88-1316794-6
Probabilità congiunta
Probabilità congiunta
Il teorema della probabilità composta deriva dal concetto di probabilità condizionata
per cui la probabilità che due eventi si verifichino contemporaneamente è pari alla probabilità di uno dei due eventi
moltiplicato con la probabilità dell'altro evento condizionato al verificarsi del primo.
Nel caso di indipendenza stocastica si ottiene che la probabilità congiunta è pari al prodotto delle probabilità:
A volte la probabilità congiunta viene anche indicata con
Voci correlate
• probabilità
• probabilità condizionata
• teorema della probabilità assoluta
• teorema di Bayes
Problema di Monty Hall
Il problema di Monty Hall è un
famoso problema di teoria della
probabilità, legato al gioco a premi
americano Let's Make a Deal. Prende il
nome da quello del conduttore dello
show, Maurice Halprin, noto con lo
pseudonimo di Monty Hall.
Nel gioco vengono mostrate al
concorrente tre porte chiuse; dietro ad
una si trova un'automobile, mentre
ciascuna delle altre due nasconde una
capra. Il giocatore può scegliere una
Dopo la scelta del giocatore, il presentatore apre una porta (egli sa dove si trova l'auto)
delle tre porte, vincendo il premio
mostrando una capra. Qualsiasi cosa ci sia dietro la scelta iniziale del giocatore, egli
cambiando
scelta ha il 66,7% di probabilità di vincere l'auto, non cambiandola ne avrebbe
corrispondente. Dopo che il giocatore
il 33,3%.
ha selezionato una porta, ma non l'ha
ancora aperta, il conduttore dello show
– che conosce ciò che si trova dietro ogni porta – apre una delle altre due, rivelando una delle due capre, e offre al
giocatore la possibilità di cambiare la propria scelta iniziale, passando all'unica porta restante.
Cambiare porta migliora le chance del giocatore di vincere l'automobile? La risposta è sì: cambiando le probabilità di
successo passano da 1/3 a 2/3.
Il problema è anche noto come paradosso di Monty Hall, poiché la soluzione può apparire controintuitiva, sebbene
non si tratti di una vera antinomia, non generando nessuna contraddizione logica.
239
Problema di Monty Hall
Storia del problema e sua soluzione
Il problema
Una famosa formulazione del problema è contenuta in una lettera del 1990 di Craig F. Whitaker, indirizzata alla
rubrica di Marilyn vos Savant nel settimanale Parade:
Supponi di partecipare a un gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c'è
un'automobile, dietro le altre, capre. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a
premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3, rivelando una
capra. Quindi ti domanda: "Vorresti scegliere la numero 2?" Ti conviene cambiare la tua scelta
originale?
Quella proposta sopra è una formulazione del problema data da Steve Selvin, in una lettera all'American Statistician
(febbraio 1975). Così impostato, il problema è in realtà una variazione sul tema del gioco a premi originale; Monty
Hall in effetti apriva una porta dietro cui si trovava una capra per aumentare la tensione, ma non consentiva ai
giocatori di cambiare la propria scelta originale. Come scrisse lo stesso Monty Hall a Selvin:
E se mai dovesse partecipare al mio gioco, le regole sarebbero le stesse per lei - nessuno scambio dopo
la scelta originale.
—(letsmakeadeal.com) [1]
La vos Savant risolse il problema correttamente; l'episodio fece un certo scalpore, in quanto diversi accademici non
riconobbero la correttezza della soluzione proposta dalla vos Savant finché questa non la spiegò nel dettaglio in un
successivo articolo.
La successiva lettera di Selvin all'America Statistician (agosto, 1975) battezza il problema come "Problema di Monty
Hall".
Un problema essenzialmente identico appare in ogni modo nella rubrica Mathematical Games di Martin Gardner nel
1959, col nome di "Problema dei tre prigionieri".
Questo problema era stato ideato dal matematico francese Joseph Louis François Bertrand che lo aveva proposto nel
suo libro Calcul des Probabilités (1889) ed era noto come il Paradosso delle tre scatole di Bertrand.
Quella che segue, per concludere, è una formulazione del problema priva di ambiguità, con vincoli espliciti
concernenti il comportamento del conduttore, presentata da Mueser e Granberg:
• Dietro ciascuna di tre porte c'è un'automobile o una capra (due capre, un'automobile in tutto); la probabilità che
l'automobile si trovi dietro una data porta è identica per tutte le porte;
• Il giocatore sceglie una delle porte; il suo contenuto non è rivelato;
• Il conduttore sa ciò che si nasconde dietro ciascuna porta;
• Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilità di cambiare la
sua scelta;
• Il conduttore aprirà sempre una porta che nasconde una capra;
• Cioè, se il giocatore ha scelto una porta che nasconde una capra, il conduttore aprirà la porta che nasconde
l'altra capra;
• Se invece il giocatore ha scelto la porta che nasconde l'automobile, il conduttore sceglie a caso una delle due
porte rimanenti;
• Il conduttore offre al giocatore la possibilità di reclamare ciò che si trova dietro la porta che ha scelto
originalmente, o di cambiare, reclamando ciò che si trova dietro la porta rimasta.
Le possibilità di vittoria aumentano per il giocatore se cambia la propria scelta?
240
Problema di Monty Hall
Soluzione
La risposta è sì; le probabilità di trovare l'automobile raddoppiano.
La soluzione può essere illustrata come segue. Ci sono tre scenari possibili, ciascuno avente probabilità 1/3:
• Il giocatore sceglie la capra numero 1. Il conduttore sceglie l'altra capra. Cambiando, il giocatore vince l'auto.
• Il giocatore sceglie la capra numero 2. Il conduttore sceglie l'altra capra. Cambiando, il giocatore vince l'auto.
• Il giocatore sceglie l'auto. Il conduttore sceglie una capra, non importa quale. Cambiando, il giocatore trova l'altra
capra.
Nei primi due scenari, cambiando il giocatore vince l'auto; nel terzo scenario il giocatore che cambia non vince. Dal
momento che la strategia "cambiare" porta alla vittoria in due casi su tre, le chance di vittoria adottando la strategia
sono 2/3.
Una strategia di soluzione alternativa è considerare che se si suppone di cambiare, il solo caso in cui si perde è quello
in cui originariamente si è scelta l'automobile e quindi la domanda del conduttore può essere considerata un invito a
invertire le probabilità di successo con quelle di insuccesso.
Il problema sarebbe diverso se non ci fosse una scelta iniziale, o se il conduttore scegliesse una porta a caso, o se il
conduttore potesse offrire al giocatore di cambiare a seconda della scelta iniziale del giocatore. Alcune formulazioni
del problema, e significativamente quella del settimanale Parade, non escludono esplicitamente queste possibilità;
diversi testi di probabilità elementare riportano varianti del problema. Per esempio, se il conduttore offre la
possibilità di cambiare solo se il giocatore inizialmente ha scelto l'automobile, le chance di vittoria associate alla
strategia "cambiare" sono, ovviamente, dello 0%. Nella formulazione proposta nella sezione precedente, il giocatore
che cambia ha una probabilità di vittoria pari a 2/3 precisamente perché il conduttore deve offrirgli la possibilità di
cambiare, e deve rivelare una capra.
Aiuti alla comprensione del problema
L'obiezione più comune alla soluzione è fornita dall'idea che, per varie ragioni, il passato possa essere ignorato
quando si valutano delle probabilità. Dunque, la scelta della prima porta e il ragionamento del conduttore circa quale
porta aprire si possono trascurare; dal momento che si può scegliere tra due porte, la probabilità di scegliere quella
giusta dovrebbe essere pari al 50%.
Per confutare ciò possiamo porci una domanda. Ipotizziamo che un giocatore adotti la strategia di non accettare mai
l'offerta del conduttore, qualunque essa sia. Se le probabilità di vincita all'inizio sono del 33%, ha senso pensare che
queste passino automaticamente al 50% solo perché il conduttore ha chiesto qualcosa che il giocatore non ascolta
neanche? Ovviamente no.
Sebbene ignorare il passato funzioni in certi giochi, come ad esempio nel lancio di una moneta, non funziona
necessariamente in tutti i giochi. Un rilevante controesempio è fornito dal conteggio delle carte uscite in certi giochi
di carte, che consente ai giocatori di sfruttare a proprio vantaggio l'informazione riguardante eventi passati. Questo
tipo di informazione è utile nella soluzione del problema di Monty Hall, come illustrato negli esempi che seguono.
Quello che realmente fa la differenza è la conoscenza del futuro o almeno la restrizione dei possibili eventi futuri.
Mentre nel lancio della moneta le probabilità di uscita testa o croce non dipendono dai lanci passati, negli esempi di
carte (contare le carte) o del problema di Monty Hall i possibili eventi futuri si "riducono" dopo un preciso episodio.
Nel caso del contare le carte, l'uscita di una carta modifica le possibili carte che possono ancora uscire, quindi ne
modifica la probabilità. Nel caso del problema di Monty Hall, l'esclusione da parte del conduttore di una scelta
certamente "sconveniente" rende attraente la porta rimanente più interessante della prima porta scelta quando non si
aveva nessuna conoscenza.
241
Problema di Monty Hall
Diagrammi di Eulero-Venn
La probabilità che l'auto sia dietro la porta restante può essere calcolata con l'ausilio del diagramma di Venn
illustrato sotto. Dopo aver scelto la porta 1, per esempio, il giocatore ha probabilità 1/3 di aver selezionato la porta
con l'auto, il che assegna una probabilità pari a 2/3 alle due porte restanti. Si osservi che c'è una probabilità pari a 1
di trovare una capra dietro almeno una delle due porte non selezionate dal giocatore, dal momento che c'è una sola
auto in palio.
Si supponga che il conduttore apra la porta 3. Dal momento che può solo aprire una porta che nasconde una capra, e
non apre una porta a caso, questa informazione non ha effetto sulla probabilità che l'auto sia dietro la porta
originariamente selezionata, che resta pari a 1/3. Ma l'auto non è dietro la porta 3, dunque l'intera probabilità di 2/3
delle due porte non selezionate dal giocatore è ora assegnata alla sola porta 2, come mostrato sotto. Un modo
alternativo per arrivare a questa conclusione è osservare che se l'auto si trova dietro la porta 2 o dietro la porta 3,
aprire la porta 3 implica che l'auto si trova dietro la 2.
• Osserviamo infine che il problema non cambia se il conduttore anziché aprire una porta offrisse al giocatore la
possibilità di cambiare la porta scelta con entrambe le altre. In questo caso è evidente che la probabilità è 2/3.
242
Problema di Monty Hall
243
Teorema di Bayes
Un'analisi del problema attraverso il teorema di Bayes rende esplicito l'effetto delle ipotesi sopra indicate. Si
consideri, senza ledere la generalità dell'analisi, il caso in cui la porta 3 è stata aperta dal conduttore mostrando una
capra, e che il concorrente abbia selezionato la porta 1.
La probabilità che l'automobile si trovi dietro la porta 2 (ovvero la probabilità di trovare l'auto dopo aver cambiato la
scelta iniziale) è
ove A1 è l'evento che l'auto si trovi dietro alla porta 1 e C3 è l'evento che il
conduttore selezioni una capra dietro la porta 3. La probabilità (a priori, utilizzando il gergo della statistica
bayesiana) che l'automobile si trovi dietro la porta 1, che si denota con
, è chiaramente 1/3, in quanto l'auto
ha a priori la stessa probabilità di trovarsi dietro ciascuna porta. La probabilità che il conduttore dello show trovi una
capra dietro la porta 3,
, è altrettanto chiaramente 1, visto che il conduttore sapeva in anticipo dove si
celava l'automobile e pertanto sa quale porta vada selezionata per trovare la capra. La probabilità che il conduttore
selezioni una porta con dietro la capra posto ("a posteriori") che l'automobile sia dietro la porta 1,
, è 1 per ovvi motivi.
Pertanto, sfruttando il teorema di Bayes:
La probabilità di trovare l'auto cambiando la scelta iniziale, dopo che il conduttore (onnisciente) ha mostrato una
porta con dietro la capra é:
Spiegazione del ragionamento intuitivo
Analisi della soluzione
Per arrivare al ragionamento intuitivo è necessaria l'analisi sotto un altro aspetto delle parole del conduttore: "Apro
una delle due porte che non hai scelto, in cui vi è una capra. Vuoi cambiare la tua scelta?". Sapendo a priori la
soluzione, le parole dette dal conduttore possono essere tradotte in: "Se hai scelto un'automobile (1/3) ti faccio
perdere facendoti scegliere una capra (100%), se invece hai scelto una delle due capre (2/3) ti faccio vincere
scegliendo l'automobile (100%). Vuoi cambiare la tua scelta?". Come vediamo inizialmente i casi sono:* A: il
giocatore sceglie la prima capra, perdendo (1/3);* B: il giocatore sceglie la seconda capra, perdendo (1/3);* C: il
giocatore sceglie l'automobile, vincendo (1/3);con una probabilità di vincita del 1/3. Cambiando la scelta ci
accorgiamo che:* A: il giocatore aveva scelto la prima capra, la seconda capra viene scoperta, il giocatore sceglie
l'automobile vincendo (1/3);* B: il giocatore aveva scelto la seconda capra, la prima capra viene scoperta, il
giocatore sceglie l'automobile vincendo (1/3);* C: il giocatore aveva scelto l'automobile, viene scoperta una delle
due capre, il giocatore sceglie la capra rimanente perdendo (1/3);con una probabilità di vincita di 2/3 (sia A che B),
possiamo rilevare che questo accade solo perché dato che i casi di perdita sono due, eliminandone uno, le possibilità,
cambiando la scelta variano da: A e B perdenti e C vincente, a C vincente e AB perdente. Perciò essendo partiti da 3
possibilità iniziali, di cui due uguali, avendo quindi solo 2 risultati finali, le probabilità passano dal 1/3 a 2/3 e non
dal 1/3 al 50%, cosa che sarebbe accaduta se le situazioni iniziali fossero 3 differenti, in modo da avere
obbligatoriamente 3 risultati finali di modo che l'apertura di una delle tre porte avrebbe eliminato una delle opzioni
finali e iniziali e non solo di quelle iniziali.
Problema di Monty Hall
Il ragionamento intuitivo
La situazione che d'intuito ci viene a pensare è questa, che purtroppo induce ogni ragionamento logico collegato a
non riuscire a spiegare il problema di Monty Hall: Partiamo dalla situazione che vi è un secondo concorrente a
partecipare al gioco a premi per rappresentare la seconda situazione differente da quella del primo, il primo
concorrente ha già vinto la macchina, e al posto di una capra viene messa una moto in una porta. Ora a seconda di
cosa sceglierà il concorrente, vincerà (scegliendo la porta con l'automobile che avrebbe dovuto vincere il primo
concorrente), vi sarà un pareggio (entrambi vinceranno: il primo concorrente vincerà l'automobile e il secondo la
moto) oppure perderà (scegliendo la capra, lasciando vincere il primo concorrente). Supponi ora di partecipare a un
gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c'è un'automobile, dietro un'altra una moto e
infine dietro l'ultima, una capra. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa
cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3. Quindi ti domanda: "Vorresti scegliere la
numero 2?" Ti conviene cambiare la tua scelta originale? Dietro ciascuna di tre porte c'è un'automobile o una moto
o una capra; la probabilità che l'automobile si trovi dietro una data porta è identica per tutte le porte;
• Il giocatore sceglie una delle porte; il suo contenuto non è rivelato;
• Il conduttore sa ciò che si nasconde dietro ciascuna porta;
• Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilità di cambiare la
sua scelta;
• Il conduttore aprirà una delle porte non scelte a caso;
• Cioè, indipendentemente da ciò che ha scelto il giocatore il conduttore aprirà una porta, eliminando la
possibilità che la condizione finale correlata alla porta appena aperta si verifichi;
• Il conduttore offre al giocatore la possibilità di reclamare ciò che si trova dietro la porta che ha scelto
originalmente, o di cambiare, reclamando ciò che si trova dietro la porta rimasta.
Che cambiamento si ha? Le possibilità di vittoria aumentano?
La soluzione al ragionamento intuitivo
La risposta è sì; le probabilità di trovare l'automobile arrivano al 50%.
La differenza con il problema precedente sta nelle probabilità di perdita o di pareggio, che aumentano anch'esse fino
al 50%.
La soluzione può essere illustrata come segue. Ci sono sei scenari possibili, ciascuno avente probabilità 1/6:
• Il giocatore sceglie la capra.
• Il conduttore elimina l'automobile. Cambiando, il giocatore pareggia, scegliendo la moto.
• Il conduttore elimina la moto. Cambiando, il giocatore vince, scegliendo l'automobile.
• Il giocatore sceglie la moto.
• Il conduttore sceglie la capra. Cambiando, il giocatore vince, scegliendo l'auto.
• Il conduttore sceglie l'automobile. Cambiando, il giocatore perde, scegliendo la capra.
• Il giocatore sceglie l'automobile.
• Il conduttore sceglie la moto. Cambiando, il giocatore perde, scegliendo la capra.
• Il conduttore sceglie la capra. Cambiando, il giocatore pareggia, scegliendo la moto.
Come si può vedere, la situazione iniziale, avendo tre possibilità differenti, impone tre risultati diversi. Perciò questa
volta è il conduttore a eliminare una possibilità al giocatore, cosa che potrebbe portare uno svantaggio o un
vantaggio a seconda del conduttore, quindi il giocatore dovrebbe soltanto decidere se fidarsi o no.
La possibilità di pareggio va considerata a sè stante e non come possibilità di perdita, altrimenti si rischia di
confondere nuovamente le situazioni dei due concorrenti, senza capire la situazione reale.
244
Problema di Monty Hall
Varianti
Il conduttore non sa cosa ci sia dietro le porte
Dopo la scelta del concorrente, il conduttore apre una delle due porte rimaste. Poiché non sa cosa c'è dietro, con
probabilità 1/3 trova l'auto e il gioco finisce. Con probabilità 2/3 trova invece la capra e può chiedere al concorrente
se vuole effettuare il cambio con la porta rimasta chiusa. Anche in questo caso è conveniente cambiare, dato che la
probabilità che nella porta aperta si trovi la capra, condizionata al fatto che il gioco prosegue, è pari a 1. Ci
ritroviamo quindi nello stesso caso di partenza, ossia assoluta certezza che il conduttore ha aperto la porta con la
capra. Questo dipende dal fatto che il concorrente ha effettuato la scelta a posteriori, rispetto all'evento "che il gioco
sia proseguito o no".
Due giocatori
Ad alcuni minuti dalla fine del gioco, il conduttore sceglie due concorrenti a cui proporre "la grande scommessa".
Dietro a una delle tre porte c'è il premio più consistente. Ad ogni giocatore è permesso scegliere una porta (non la
stessa) .
In questo scenario, si può esaminare una variante del problema. Il presentatore elimina il giocatore che abbia scelto
una porta con dietro la capra (se lo hanno fatto entrambi, ne viene scelto uno a caso), apre la porta, svelando la capra
e poi offre al giocatore rimanente la possibilità di cambiare la propria scelta. Il giocatore dovrebbe effettuare lo
scambio?
La risposta è no. La ragione: il giocatore che effettuasse lo scambio in questo tipo di gioco vincerebbe se e solo se
entrambi i giocatori avessero scelto una porta con la capra. che probabilità ha questa evenienza? 1/3. Se mantenesse
la scelta resterebbero 2/3 di probabilità. Quindi chi mantenesse la scelta fatta inizialmente avrebbe il doppio delle
possibilità di vincere.
In alternativa, ci sono tre possibili scenari, tutti con uguale probabilità (1/3):
• Il giocatore 1 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 2. Cambiare scelta
comporta perdere.
• Il giocatore 2 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 1. Cambiare scelta
comporta perdere.
• Nessuno dei giocatori sceglie la porta che nasconde l'auto. Il conduttore elimina a caso uno dei due giocatori.
Cambiare scelta comporta vincere.
Il giocatore 1 è l'unico rimasto nel primo caso, e lo è con probabilità 1/2 nel terzo caso; in questa eventualità
cambiare scelta comporta una probabilità di perdere (1/3) due volte maggiore di quella di vincere (1/6).
Analogamente, nel secondo caso il giocatore 2 è l'unico rimasto, e lo è con probabilità 1/2 nel terzo caso; in questa
eventualità cambiare scelta comporta una probabilità di perdere (1/3) due volte maggiore di quella di vincere (1/6).
Dunque a prescindere da quale giocatore rimanga, c'è una probabilità pari a 2/3 di vincere se non si cambia scelta.
Per rendere più palese la differenza rispetto al caso precedente si può dire che non si può qui ragionare come prima
dove il (unico) giocatore arriva sempre al secondo turno (quello del possibile scambio) e la probabilità che abbia
selezionato la scelta vincente rimane 1/3, contro i complementari 2/3 della scelta alternativa. Si deve invece notare
che nell'istante in cui un giocatore (uno dei due) arriva al secondo turno deve considerare che la probabilità che abbia
inizialmente effettuato la scelta giusta si modifica e sale a 2/3. In sostanza il giocatore rimasto riveste in questo caso,
in termini di probabilità, lo stesso ruolo che prima (caso con un giocatore) ricopriva la porta non selezionata dal
giocatore né eliminata dal conduttore.
245
Problema di Monty Hall
n porte
Esiste una generalizzazione del problema originale in cui si hanno n porte: nel primo stadio del gioco, il giocatore
sceglie una porta. Quindi il conduttore apre un'altra porta, che nasconde una capra. Se il giocatore vuole, può quindi
cambiare scelta e passare a un'altra porta. Il conduttore aprirà allora un'ulteriore porta, ancora non aperta, che
nasconde una capra, diversa da quella attualmente scelta dal giocatore. Il giocatore ha quindi la possibilità di
cambiare ancora scelta, e così via. Questo procedimento continua fino a che non restano che due porte non ancora
aperte: la scelta corrente del giocatore, e un'altra porta. Quante volte dovrebbe cambiare scelta il giocatore, e a che
punto del gioco (sempre che cambi almeno una volta)?
La migliore strategia è: restare con la prima scelta sino a che non rimangano solo due porte e a quel punto
cambiare. Seguendo questa strategia la probabilità di vincere è
. Questa variante del paradosso di
Monty Hall si deve a Bapeswara Rao e Rao.
Variante nel gioco del bridge
Una comune variante del problema è nota ai giocatori di bridge da ben prima che l'articolo della Vos Savant fosse
pubblicato. Tale variante è nota come principio della scelta ristretta.[2]
Versione quantistica
Esiste una versione quantistica del paradosso, che illustra alcuni aspetti della relazione tra la teoria dell'informazione
classica (non quantistica) e l'informazione quantistica, ossia l'informazione codificata negli stati di sistemi meccanici
quantistici. Le tre porte sono rimpiazzate da un sistema quantistico che consta di tre alternative, in cui aprire una
porta e vedere cosa nasconde si traduce in fare una particolare misurazione. Le regole del gioco possono essere
espresse in questo linguaggio, e ancora una volta il giocatore può scegliere se restare fedele alla propria scelta
iniziale o cambiare e optare per una scelta alternativa ("ortogonale"). Quest'ultima strategia ha probabilità di vittoria
doppie, esattamente come nel caso classico. Tuttavia, se la posizione del premio non è pienamente casuale in senso
quantistico, il giocatore può fare ancora meglio, e in determinati casi vincere con probabilità pari a uno. È
disponibile in rete un articolo [3] al riguardo, nonché un'applet [4] che illustra gli effetti così descritti.
Nella letteratura e nel cinema
• Questo problema viene citato, con tanto di due dimostrazioni (intuitiva e matematica), nel libro di Mark Haddon
Lo strano caso del cane ucciso a mezzanotte, dove il giovane protagonista propone il quesito ai lettori.[5]
• Un'altra citazione del problema si ha nel telefilm Numb3rs.[6]
• Nel film 21, il professore Mickey Rosa propone il problema al protagonista del film, l'allievo Ben Campbell, che
lo risolve brillantemente.[7]
• Anche la scrittrice Scarlett Thomas nel suo libro PopCo cita questo problema, definendolo Dilemma di Monty
Hall[8]
• Nel libro "I conigli di Schrödinger" di Colin Bruce, viene illustrato il Problema di Monty Hall.[9]
246
Problema di Monty Hall
Note
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
http:/ / www. letsmakeadeal. com/ problem. htm
Restricted Choice Article (http:/ / www. acbl-district13. org/ artic003. htm)
http:/ / xxx. lanl. gov/ abs/ quant-ph/ 0202120
http:/ / www. imaph. tu-bs. de/ qi/ monty/
p. 77, 78, 79 e 80. Mark Haddon, Lo strano caso del cane ucciso a mezzanotte, Einaudi (2003)
Numb3rs - Episodio 1.13, Caccia all'uomo
YouTube - Il Problema di Monty Hall nel film 21 (http:/ / www. youtube. com/ watch?v=wOK48hgYCS4)
Scarlett Thomas, PopCo Newton Compton Editori (2007)
p.75,76,77.Colin Bruce, I conigli di Schrödinger, Raffaello Cortina Editore (2006)
Bibliografia
• (EN) Bapeswara Rao, V. V. e Rao, M. Bhaskara (1992). A three-door game show and some of its variants. The
Mathematical Scientist 17(2), 89–94
• (EN) Bohl, Alan H.; Liberatore, Matthew J.; e Nydick, Robert L. (1995). A Tale of Two Goats... and a Car, or The
Importance of Assumptions in Problem Solutions. Journal of Recreational Mathematics 1995, 1–9.
• Joseph Bertrand (1889). Calcul des probabilités
• (EN) Gardner, Martin (1959). Rubrica "Mathematical Games", Scientific American, Ottobre 1959, 180–182.
• (EN) Mueser, Peter R. e Granberg, Donald (1999). The Monty Hall Dilemma Revisited: Understanding the
Interaction of Problem Definition and Decision Making (University of Missouri Working Paper 99-06). http://
econwpa.wustl.edu:80/eps/exp/papers/9906/9906001.html (retrieved July 5, 2005).
• (EN) Nahin, Paul J. (2000). Duelling idiots and other probability puzzlers. Princeton University Press, Princeton,
NJ, 192-193. ISBN 0-691-00979-1
• (EN) Selvin, Steve (1975a). A problem in probability (letter to the editor). American Statistician 29(1):67
(Febbraio 1975).
• (EN) Selvin, Steve (1975b). On the Monty Hall problem (letter to the editor). American Statistician 29(3):134
(Agosto 1975).
• (EN) Tierney, John (1991). Behind Monty Hall's Doors: Puzzle, Debate and Answer?, The New York Times 21
luglio 1991, Domenica, Section 1; Part 1; Page 1; Column 5
• vos Savant, Marilyn (1990). Rubrica Ask Marilyn, Parade Magazine 12 (17 febbraio 1990). [citata in Bohl et al.,
1995]
• (EN) Adams, Cecil (1990). On 'Let's Make a Deal,' you pick Door #1. Monty opens Door #2--no prize. Do you
stay with Door #1 or switch to #3?, The Straight Dope 2 novembre 1990. http://www.straightdope.com/
classics/a3_189.html (consultata il 25 luglio 2005).
• (EN) Tijms, Henk (2004). Understanding Probability, Chance Rules in Everyday Life. Cambridge University
Press, New York, 213-215.
• Haddon, Mark (2003). Lo strano caso del cane ucciso a mezzanotte Einaudi.
• Rosenthal, Jeffrey S. (2006). Le regole del caso, istruzioni per l'uso, Longanesi, Milano, ISBN 88-304-2370-X
• (EN) Rosenhouse, Jason (2009). The Monty Hall Problem, Oxford University Press ISBN 978-0-19-536789-8
247
Problema di Monty Hall
Voci correlate
• Paradosso delle tre carte
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Monty Hall
problem
Collegamenti esterni
• Simulazione fino a 100.000 tentativi (http://utenti.quipo.it/base5/probabil/montyhall.htm)
• Simulatore giocabile del paradosso (http://www.taravella.eu/content/view/14/27/)
Questione ipotetica (teologia)
Con "questione ipotetica" si intende un paradosso teologico discusso nella teologia scolastica e successiva: "Se
Adamo non avesse peccato, il Figlio di Dio si sarebbe lo stesso incarnato in Gesù?" (nella tradizione cristiana scopo
principale di incarnazione, morte e resurrezione del Figlio di Dio è la giustificazione dell'uomo, cioè la cancellazione
del peccato originale).
Nella questione così posta l'azione di Dio viene vincolata a quella dell'uomo, il che risulta paradossale in quanto lede
l'assoluta libertà di Dio che la teologia cristiana gli attribuisce.
La soluzione del paradosso sta nel non vedere l'incarnazione come finalizzata unicamente al rimedio del peccato
originale: in tal caso, se Adamo non avesse peccato l'incarnazione non sarebbe dovuta avvenire. Scopo
dell'incarnazione è stato la divinizzazione dell'uomo: grazie a incarnazione, morte e risurezione del Figlio di Dio gli
uomini possono, nella vita futura, diventare "figli di Dio", ottenendo la cosiddetta "adozione filiale". In tal caso, sia
che Adamo avesse o non avesse peccato, l'incarnazione è necessaria.
Voci correlate
• Paradosso
• Paradosso teologico
248
Teorema dell'impossibilità di Arrow
Teorema dell'impossibilità di Arrow
Il Teorema dell'impossibilità di Arrow, o semplicemente teorema di Arrow, è un teorema formulato nel 1951 dal
Premio Nobel per l'economia Kenneth Arrow nel libro Social Choice and Individual Values. Esso dice che, dati i
requisiti, spiegati più avanti, di universalità, non imposizione, non dittatorialità, monotonicità, indipendenza
dalle alternative irrilevanti, non è possibile determinare un sistema di votazione che preservi le scelte sociali. Lo
scopo era trovare una qualsiasi procedura di decisione collettiva che potesse soddisfare alcuni requisiti ragionevoli
per una scelta non arbitraria. Un esempio di una procedura che non può soddisfare tutti i requisiti considerati da
Arrow è il sistema di voto maggioritario come mostrato dal paradosso di Condorcet. Il paradosso di Condorcet
mostra come la votazione a maggioranza, usata nella democrazia rappresentativa, può condurre a delle scelte
ambigue: partendo dalle preferenze individuali, si vuole arrivare ad una preferenza collettiva pure coerente (se A è
preferito a B, e B è preferito a C, allora A deve essere preferito a C). Come detto, il paradosso di Condorcet mostra
che ciò non è sempre il caso per le preferenze collettive. Jean-Charles de Borda ha proposto un'altra procedura, detta
conteggio di Borda, che consiste nell'attribuire dei punti e fare la somma, la quale non ha questo difetto, ma il
teorema di Arrow ci dice che ci deve essere un requisito che non è soddisfatto: l'indipendenza dalle alternative
irrivelanti. In italiano il nome del teorema non è ambiguo, mentre in inglese si preferisce la versione estesa per
evitare confusione con un ipotetico teorema della freccia. La dimostrazione del teorema comporta,
sorprendentemente, l'impossibilità di soddisfare simultaneamente tutti i requisiti considerati da Arrow.
Illustrazione ed enunciato del teorema
Si ipotizzi che una società necessiti di adottare un ordine di preferenze tra diverse opzioni. Ciascun individuo della
società ha un proprio ordine di preferenza, che può esprimere per esempio tramite un voto. Il problema è quello di
trovare una procedura (per esempio un sistema di voto), più in generale chiamato una funzione di scelta pubblica,
che trasformi l'insieme delle preferenze individuali in un ordinamento globale coerente. Il teorema considera le
seguenti proprietà, che Arrow ipotizza rappresentare requisiti ragionevoli per un sistema di voto equo:
• Universalità (o dominio non ristretto): la funzione di scelta sociale dovrebbe creare un ordinamento delle
preferenze sociali deterministico e completo, a partire da qualsiasi insieme iniziale di preferenze individuali;
• Non imposizione (o sovranità del cittadino): qualsiasi possibile preferenza sociale deve essere raggiungibile a
partire da un appropriato insieme di preferenze individuali (ogni risultato deve poter essere raggiunto in qualche
maniera);
• Non dittatorialità: la funzione di scelta sociale non deve semplicemente seguire l'ordinamento delle preferenze di
un individuo o un sottoinsieme di individui, al contempo ignorando le preferenze degli altri;
• Monotonicità, o associazione positiva tra i valori individuali e sociali: se un individuo modifica il proprio
ordinamento di preferenze promuovendo una data opzione, la funzione di scelta sociale deve promuovere tale
opzione o restare invariata, ma non può assegnare a tale opzione una preferenza minore (nessun individuo
dovrebbe essere in grado di esprimersi contro un'opzione assegnandole una preferenza maggiore);
• Indipendenza dalle alternative irrilevanti: se si confina l'attenzione ad un sottoinsieme di opzioni, e la funzione di
scelta sociale è applicata ad esse soltanto, il risultato deve essere compatibile con il caso in cui la funzione di
scelta sociale è applicata all'intero set di alternative possibili.
Il teorema di Arrow afferma che se il gruppo di cittadini votanti comprende almeno due individui e l'insieme delle
alternative possibili almeno tre opzioni, non è possibile costruire una funzione di scelta sociale che soddisfi al
contempo tutti i requisiti sopra enunciati.
Secondo una versione alternativa del teorema di Arrow, il requisito di monotonicità è rimpiazzato da:
• unanimità (o criterio paretiano, o efficienza paretiana): se ogni singolo individuo preferisce una certa opzione A
all'opzione B, allora A deve essere preferita a B anche da parte della funzione di scelta sociale.
249
Teorema dell'impossibilità di Arrow
250
Tale formulazione è più restrittiva, in quanto ipotizzare sia la monotonicità che l'indipendenza dalle alternative
irrilevanti implica l'efficienza paretiana. Va tuttavia detto che la teoria paretiana dell'efficienza nel liberismo è stata
falsificata dal premio Nobel per l'Economia Amartya Sen.
Formulazione logica
Facciamo le seguenti ipotesi. Siano V l'insieme dei voti, A e B i candidati. Per semplicità, consideriamo il caso senza
schede nulle o bianche e senza possibilità di pareggio (casi che sono sempre riconducibili a questo eliminando da V i
voti nulli o in bianco, e ricorrendo eventualmente al ballottaggio). Detto VA l'insieme dei voti per A, risulta
completamente determinato VB, in quanto non è altro che il complementare, VB = V - VA . Un'altra ipotesi è che se
VA è sufficiente ad A per vincere, egli vince anche se prende più voti. Nelle votazioni a maggioranza, il minimo di
tali insiemi di voti è la metà più uno di V. Ogni insieme che permetta la vittoria di un candidato (poniamo A) è detto
insieme decisivo. Chiamiamo
l'insieme degli insiemi decisivi a favore di A.
In termini matematici abbiamo postulato che, detto X un insieme decisivo per A su V:
1. Se X è contenuto in Y, allora Y appartiene ad
2. Ogni voto sta in X o nel suo complementare.
3. O X o il suo complementare è decisivo.
.
Queste proprietà sono molto vicine a quelle di un filtro su V, mancando solamente quella della chiusura rispetto
all'intersezione. Mostreremo dunque che l'ipotesi della monotonicità, ossia che se A vince su B, e B vince su C,
allora A vince su C, è equivalente alla chiusura rispetto all'intersezione degli insiemi decisivi di V.
Quanto sopra è l'enunciato del teorema.
Dimostrazione
Supponiamo che
non sia decisivo. Allora, per la proprietà 3, lo è il suo complementare
.
Quindi, se X fa vincere A su B, e Y B su C, vediamo come ogni votante esprimerebbe le sue preferenze:
1. per ogni elettore di
A vince su B, e B su C (ABC)
2. per ogni elettore di
3. per ogni elettore di
4. per ogni elettore di
B su C, e B su A (BCA)
C su B, e A su B (CAB)
C su B, e B su A (CBA)
Allora A vince su B perché X è decisivo, B vince su C perché è decisivo Y e C vince su A perché
è
decisivo. Quindi abbiamo il paradosso di Condorcet. Viceversa, dato un qualunque ordine delle prefenze, siano X, Y
e Z rispettivamente i votanti che preferiscono A a B, B a C ed A a C. Tutti e tre sono decisivi. Vediamo ora che ogni
votante di
preferisce A a B, e B a C, e poiché l'ordine individuale è lineare, A a C. Dunque
.
E dunque, poiché
è decisivo, lo è anche Z.
Per le proprietà viste prima, gli insiemi decisivi che rispettano la chiusura rispetto all'intersezione formano un
ultrafiltro, e dato che l'insieme dei votanti è, per fortuna, finito, anche un filtro principale. Esiste, dunque, un singolo
votante, che Arrow chiama il dittatore, che da solo determina il risultato della votazione: egli è l'intersezione di tutti
gli insiemi decisivi. Quindi, con le ipotesi che abbiamo fatto, delle due l'una: o accettiamo il paradosso di Condorcet,
e quindi l'esito delle votazioni dipende dall'ordine in cui vengono effettuate, oppure in un sistema che esclude questa
possibilità, ogni insieme decisivo comprende un dittatore, ossia un votante che da solo determina il risultato della
votazione. Entrambe le possibilità sono in contrasto con l'idea istintiva di democrazia rappresentativa, che è quindi
matematicamente impossibile. Contrariamente a quanto possa sembrare, sono possibili alternative che consentano ad
una Costituzione di attuare una democrazia rappresentativa senza il paradosso di Condorcet, però queste forme
devono necessariamente rinunciare ad una o più delle ipotesi viste in precedenza. Data la semplicità delle ipotesi di
partenza, e la complessità della spiegazione del perché sono inaccettabili, è arduo ipotizzare che sia possibile far
varare una legge elettorale conforme alle soluzioni prospettate.
Teorema dell'impossibilità di Arrow
Interpretazioni
Il teorema di Arrow è un risultato matematico, ma è spesso espresso in termini non matematici, con affermazioni
come: nessun sistema di voto è equo, qualunque sistema di voto può essere manipolato, o il solo sistema di voto non
manipolabile è la dittatura. Queste affermazioni rappresentano semplificazioni del risultato di Arrow che non si
possono considerare universalmente vere.
Arrow usa il termine fair (equo) con riferimento ai suoi criteri. In effetti alcuni di essi, quali l'ottimo paretiano o la
richiesta di assenza di imposizioni, possono apparire banali. Non così, ad esempio, per il criterio dell'indipendenza
dalle alternative irrilevanti. Si consideri il seguente esempio: Dave, Chris, Bill e Agnes concorrono per uno stesso
posto di lavoro; si supponga che Agnes abbia un chiaro vantaggio rispetto agli altri concorrenti. Ora, in base al
risultato di Arrow, si potrebbe avere una situazione in cui, se Dave si ritira, Bill, e non Agnes, ottiene il posto. Ciò
potrebbe apparire non equo a molti; tuttavia il teorema di Arrow implica che situazioni di questo tipo non possono in
generale essere evitate.
Diversi teorici, e non, hanno proposto di rilassare, ossia rendere meno restrittivo, il criterio dell'indipendenza dalle
alternative irrilevanti al fine di risolvere il paradosso. I fautori di sistemi di voto basati su ordinamenti delle
alternative affermano che il criterio sarebbe restrittivo senza ragione, e che non troverebbe applicazione nella
maggioranza delle situazioni concrete. In effetti, tale criterio è escluso da diversi meccanismi di voto di comune
impiego, così come in generalizzazioni quali il metodo di Borda.
Il teorema di Gibbard-Satterthwaite, un tentativo di rilassare le condizioni che portano al risultato di Arrow,
sostituisce al criterio dell'indipendenza dalle alternative irrilevanti un criterio di non-manipolabilità. Il teorema,
tuttavia, giunge alle stesse conclusioni (paradossali) di Arrow, dimostrando così l'equivalenza tra il criterio
dell'indipendenza dalle alternative irrilevanti e la non-manipolabilità.
In conclusione, il teorema di Arrow mostra che il voto è un gioco non banale, e che la teoria dei giochi potrebbe
essere impiegata per predire l'esito della maggior parte dei meccanismi di voto. Ciò potrebbe essere interpretato
come un risultato scoraggiante, dal momento che un gioco non ha necessariamente un equilibrio efficiente (o
desiderabile dal punto di vista sociale). L'alternativa sarebbe di traslare i risultati ottenuti da Sen nel campo
dell'economia, al campo della politica elettorale, che però richiedono di rilassare una delle condizioni viste all'inizio.
Conseguenze
Nel 1970, applicando lo stesso principio di Arrow, il Premio Nobel per l'economia Amartya Sen ha mostrato
l'impossibilità matematica del liberismo paretiano. Tramite una generalizzazione del metodo ad insiemi di vettori ad
n dimensioni, l'economista Herbert Scarf ha mostrato nel 1962 l'inesistenza della mano invisibile per mercati con più
di due beni i cui prezzi siano interdipendenti. Il risultato di Arrow rappresenta uno dei primi approcci alle scienze
sociali tramite il formalismo matematico; tramite questo e altri lavori Kenneth Arrow ha contribuito
significativamente all'evoluzione dell'economia politica nel corso del XX secolo nella direzione di un maggior rigore
matematico.
251
Teorema dell'impossibilità di Arrow
Voci correlate
•
•
•
•
•
•
Amartya Sen
Mano invisibile
Paradosso
Paradosso di Condorcet
Teorema di Gibbard-Satterthwaite
Teorema di May
Bibliografia
• Arrow, K.J., A Difficulty in the Concept of Social Welfare [1], Journal of Political Economy, 58, 328–346, 1950
• Arrow, K.J., Social Choice and Individual Values, Yale University Press, 1951, ISBN 0300013647. Liberamente
scaricabile da [2], sia la versione del 1951 che del 1963.
• Ed. Italiana: "Scelte sociali e valori individuali", Etas, 2003, ISBN 8845312224
• MacKay, A.F., Arrow's Theorem: The Paradox of Social Choice, Yale University Press, New Haven, 1980
• Odifreddi, P., C'era una volta un paradosso - storie di illusioni e verità rovesciate, Einaudi, 2001, ISBN
8806150901
• Scarf, H.E., An analysis of markets with a large number of participants [3], 1962, Princeton University
Conference Paper. Presente in Recent Advances in Game Theory, Philadelphia, The Ivy Curtis Press, 1962
• Sen, A.K. "The Impossibility of a Paretian Liberal", Journal of Political Economy, n. 78, 1970, pp 152-157.
Collegamenti esterni
•
•
•
•
Three Brief Proofs of Arrow’s Impossibility Theorem [4]
Discussion of Arrow’s Theorem and Condorcet’s method [5]
The Solution to Arrow's problem [6]
Sito personale [7] di Herbert Scarf
252
Teorema della probabilità composta
Teorema della probabilità composta
Il teorema della probabilità composta deriva dal concetto di probabilità condizionata
per cui la probabilità che due eventi si verifichino contemporaneamente è pari alla probabilità di uno dei due eventi
moltiplicato con la probabilità dell'altro evento condizionato al verificarsi del primo.
Nel caso di indipendenza stocastica si ottiene che la probabilità congiunta è pari al prodotto delle probabilità:
A volte la probabilità congiunta viene anche indicata con
Voci correlate
• probabilità
• probabilità condizionata
• teorema della probabilità assoluta
• teorema di Bayes
Teorema di Duggan-Schwartz
Il Teorema di Duggan-Schwartz fornisce la dimostrazione che ogni sistema elettorale che scelga un insieme non
vuoto di vincitori, secondo un sistema di preferenze individuali, e dove siano almeno tre o più candidati, vale almeno
una delle seguenti:
1.
2.
3.
4.
Il sistema non è anonimo (alcuni votanti sono trattati in maniera differente), oppure
Il sistema è impositivo (alcuni candidati non vincono mai), oppure
Ogni preferito dei votanti è nell'insieme dei vincitori, oppure
Il sistema è manipolato da un pessimista o da un ottimista
Le prime due condizioni sono proibite in qualsiasi elezione onesta, la terza condizione richiede che molti candidati si
uniscano per la vittoria. La conclusione generale, allora, è la stessa che di solito è data dal teorema di
Gibbard-Satterthwaite: i sistemi di votazione possono essere manipolati. Il risultato essenzialmente permane anche
quando le unioni sono autorizzate nelle votazioni; in quel caso esiste all'incirca un dittatore debole tale che all'incirca
uno dei candidati che siano pari merito in cima ai risultati dell'elezione, sia un vincitore.
Il teorema di Gibbard-Satterthwaite è un teorema che restringe il set di vincitori ad uno. Similmente il Teorema
dell'impossibilità di Arrow tratta dei sistemi che danno una lista di preferenza dei singoli candidati, invece che
scegliere vincitori.
253
Teorema di Duggan-Schwartz
254
Riferimenti
• J. Duggan and T. Schwartz, "Strategic manipulability is inescapable: Gibbard-Satterthwaite without resoluteness",
Working Papers 817, California Institute of Technology, Division of the Humanities and Social Sciences, 1992.
• J. Duggan and T. Schwartz, "Strategic manipulability without resoluteness or shared beliefs:
Gibbard-Satterthwaite generalized", Social Choice and Welfare, Vol. 17 (2000), pp. 85-93.
• Alan D. Taylor, "The manipulability of voting systems", The American Mathematical Monthly, April 2002.
• Alan D. Taylor, "Social Choice and the Mathematics of Manipulation", Cambridge University Press, 1st edition
(2005), ISBN 0-521-00883-2. Chapter 4: Non-resolute voting rules.
Teoria della probabilità
La teoria della probabilità è lo studio matematico della probabilità.
I matematici si riferiscono alle probabilità come a numeri nell'intervallo da 0 a 1, assegnati ad "eventi" la cui
ricorrenza è casuale. Le probabilità
sono assegnate ad eventi
secondo gli assiomi della probabilità.
La probabilità che un evento
dato
avvenga dato il verificarsi noto di un evento
; il suo valore numerico è
condizionale di
dato
(finché
è la probabilità condizionata di
è diverso da zero). Se la probabilità
è la stessa della probabilità ("non condizionale") di
eventi indipendenti. Che questa relazione tra
and
che è la stessa cosa che dire
, allora
ed
sono detti
sia simmetrica, può essere visto più chiaramente osservando
.
Due concetti cruciali nella teoria della probabilità sono quelli di variabile casuale e di distribuzione probabilistica di
una variabile casuale. In altri termini descrivere in termini probabilistici o statistici una fenomeno aleatorio nel
tempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverlo in termini di densità di distribuzione
di probabilità e dei suoi parametri di media o valore atteso e varianza.
Una visione astratta della probabilità
I matematici ritengono che la teoria della probabilità sia lo studio di uno spazio astratto di probabilità (su cui sono ad
esempio definite le variabili casuali o aleatorie), un approccio introdotto da Kolmogorov nel 1930 (anche detto
approccio assiomatico). Uno spazio di probabilità è una terna
, dove:
•
è un insieme non vuoto, a volte chiamato spazio campionario, ognuno dei cui membri si può pensare come un
potenziale risultato di un esperimento casuale. Per esempio, se 100 votanti devono essere estratti a caso tra tutti i
votanti di un insieme e ad essi viene chiesto per chi voteranno, allora l'insieme di tutte le sequenze dei 100 votanti
sarebbe lo spazio campionario .
•
è una sigma-algebra di insiemi di
i cui elementi sono chiamati eventi. Per esempio, l'insieme di tutte le
sequenze di 100 elettori di cui almeno 60 voteranno per un certo candidato viene identitificato con l'"evento" che
almeno 60 dei 100 elettori estratti voteranno in quel dato modo. Dire che F è una sigma-algebra implica
necessariamente che il complemento di ogni evento è un evento, e l'unione di ogni sequenza (finita o infinita
numerabile) di eventi è un evento.
• P è una misura della probabilità in F, cioè una misura tale per cui P(Ω) = 1.
È importante notare che P è definita in F e non in Ω. Con Ω numerabile possiamo definire F := insieme di
potenza(Ω) che è banalmente una sigma-algebra ed il più grande che si possa creare usando Ω. In uno spazio discreto
possiamo quindi omettere F e scrivere solo (Ω, P) per definirlo.
Se d'altra parte Ω è non numerabile e si usa F = insieme di potenza(Ω) cadiamo nella difficoltà di definire la nostra
misura di probabilità P perché F è 'immenso'. Quindi dobbiamo usare una sigma-algebra F più piccola (per esempio
l'algebra di Borel di Ω). Si definisce questo tipo di spazio probabilistico uno spazio probabilistico continuo e ci porta
Teoria della probabilità
alcuni problemi nella teoria della misura quando proviamo a definire P.
Una variabile casuale è una funzione misurabile in Ω. Per esempio, il numero di elettori che voteranno per un dato
candidato nel campione di 100 dell'esempio precedente è una variabile casuale.
Se X è una variabile casuale, l'insieme { ω in Ω : X(ω) ≥ 60 } è un "evento", e la notazione P(X ≥ 60) è
un'abbreviazione di P({ ω in Ω : X(ω) ≥ 60 }).
Per una alternativa algebrica all'approccio di Kolmogorov, vedi algebra delle variabili casuali.
Filosofia delle applicazioni della probabilità
Alcuni statistici assegneranno delle probabilità solo agli eventi che si pensano essere casuali, in base alle loro
frequenze relative, o a sottoinsiemi di popolazione in relazione al tutto; questi sono frequentisti. Altri assegnano
probabilità a proposizioni incerte o secondo gradi soggettivi di confidenza nella loro verità, o a livelli logicamente
giustificabili di confidenza nella loro verità. Tali persone sono Bayesiani. Un Bayesiano può assegnare una
probabilità alla proposizione che c'era vita su Marte un miliardo di anni fa, dal momento che questo è incerto; un
frequentista non assegnerebbe una probabilità a tale proposizione, poiché non si tratta di un evento casuale che abbia
una frequenza relativa a lungo termine.
Voci correlate
•
•
•
•
•
•
•
•
Probabilità
Misura di probabilità
Funzione di probabilità
Valore atteso
Evento
Assiomi della probabilità
Variabile casuale, distribuzione di probabilità
Indipendenza statistica
Bibliografia
•
•
•
•
•
•
Billingsley Patrick, Probability and measure, 3rd ed., John Wiley & Sons, New York 1995, ISBN 0-471-00710-2.
Jeffreys Harold (1939) The Theory of Probability
Kolmogorov Andrey N. (1933) Grundbegriffe der Wahrscheinlichkeitrechnung.
Laplace, Pierre S. (1812) Theorie Analytique des Probabilités.
Nelson Edward (1987) Radically Elementary Probability Theory
Yuri A. Rozanov (1995) Probability Theory, Random Processes and Mathematical statistics, Kluwer, ISBN
0-7923-3764-6
Altri progetti
•
Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/
Category:Probability theory
255
Tertium non datur
Tertium non datur
Tertium non datur (traduzione: un terzo (o una terza) non è dato/a) è una locuzione che appartiene al repertorio
delle celebri frasi in lingua latina entrate a pieno diritto nel patrimonio culturale mondiale e non solo in quello
italiano.
Sta a significare che una terza soluzione (una terza via, o possibilità) non esiste rispetto a una situazione che paia
prefigurarne soltanto due.
Si potrebbe leggere quindi come: Non ci sono altre possibilità eccetto queste due.
L'articolazione della frase - nella sua secchezza e laconicità - è piuttosto semplice: dove datur è la terza persona
singolare passiva del verbo dare (quindi = "è dato") e tertium figura come aggettivo neutro (perciò non
indicativamente maschile oppure femminile) sostantivato. La negazione non compare con lo stesso uso che ne fa la
lingua italiana.
Principio del terzo escluso
L'espressione entra nella formulazione del principio logico del terzo escluso, che afferma che una proposizione P è o
vera o falsa, non esiste una terza possibilità (Tertium non datur). Esso si trova già formulato nella Metafisica di
Aristotele.
Non è in altre parole possibile che due proposizioni contrarie siano entrambe non vere. Il principio del tertium non
datur implica ed è più generale del principio di non-contraddizione, per il quale se una proposizione è vera, non lo è
il suo contrario, fatto che a priori non esclude che entrambe possano essere non vere.
La fondazione della matematica - in particolare attraverso la scuola intuizionista - non ne dà oggi per scontata
l'autoevidenza. Anzi, esistono logiche alternative che negano esplicitamente la sua validità, ad esempio la logica
fuzzy.
È importante evidenziare che questo principio si differenzia dal principio di non contraddizione (o di consistenza), di
cui non è un sinonimo.
Voci correlate
• Locuzioni latine
256
Valore atteso condizionato
257
Valore atteso condizionato
Nella teoria della probabilità, il valore atteso condizionato (o media condizionata) di una variabile casuale è il suo
valore atteso rispetto ad una distribuzione di probabilità condizionata.
Trattamento discreto
Il punto di partenza è la definizione di probabilità condizionata: dati due eventi A e B, la probabilità di A dato B è
Allo stesso modo si può estendere la probabilità condizionata quando A e B sono esiti di due variabili casuali:
(se il denominatore è diverso da 0; 0 altrimenti). In particolare, se B={y} e A={x}, si ha
che, lasciando fisso y, può essere mediato:
definendo quindi E[X|Y] come quella variabile casuale che vale E[X|Y=y] quando Y=y. Questa definizione, tuttavia, è
consistente solamente nel caso in cui X e Y siano discrete, ma perde di senso quando sono continue, in quanto la
probabilità che Y sia un certo valore y (così come quella che X sia x) è sempre 0. Per eliminare queste difficoltà la
definizione prende strade diverse.
Definizione
Data una variabile casuale X e una σ-algebra
, un valore atteso condizionato di X rispetto a
è una variabile
casuale Y tale che
• Y è misurabile rispetto a ;
• Y è in L1, cioè il suo modulo |Y| ha media finita;
•
per ogni
(1 è la funzione indicatrice).
Il risultato fondamentale che rende questa definizione sensata è l'esistenza, per ogni variabile casuale integrabile X e
per ogni σ-algebra, di un valore atteso condizionato; inoltre due variabili casuali con queste caratteristiche sono
uguali quasi certamente, e quindi possono essere considerate sostanzialmente "le stesse"; in tal caso si scrive
Tale risultato può essere dimostrato a partire dal teorema di Radon-Nikodym, oppure tramite un argomento di
approssimazione.
La definizione è consistente con quella elementare se si pone
cioè se si considera la σ-algebra generata dalla variabile casuale Z.
Il valore atteso condizionato può essere interpretato come la miglior approssimazione che è possibile fare di X data
l'"informazione" contenuta nella σ-algebra : così come la media E[X] minimizza la funzione
quando c è un numero reale (ovvero una funzione misurabile sulla σ-algebra banale
condizionato
minimizza
tra le variabili casuali
), così il valore
-misurabili. Ovviamente questa
Valore atteso condizionato
258
interpretazione può essere data solo quando X appartiene a L2.
Proprietà
Il valore atteso condizionato verifica tutte le maggiori proprietà del valore atteso: è positivo (cioè se
allora
), lineare, e verifica i teoremi della convergenza monotona, della convergenza dominata e il lemma di
Fatou quando le ipotesi sono verificate dalla successione {Xn}: ad esempio, se le Xn sono positive e la successione è
crescente verso X, allora
Un'altra proprietà fondamentale è la possibilità di calcolare una media attraverso il condizionamento: per ogni
variabile casuale X e per ogni σ-algebra si ha
formula che è utile nel calcolo di alcune medie, come nel caso in cui X è una variabile casuale definita da un
parametro che è anch'esso causale. (Ad esempio, X potrebbe essere una variabile casuale binomiale in cui il numero
di lanci è una variabile di Poisson.) Un'altra caratteristica è la "proprietà della torre": se
sono due
σ-algebre,, allora
Bibliografia
• David Williams, Probability with Martingales, Cambridge Mathematical Textbooks, 1991. ISBN
978-0-521-40605-5
Voci correlate
• Martingala (matematica)
Fonti e autori delle voci
Fonti e autori delle voci
Paradosso Fonte:: http://it.wikipedia.org/w/index.php?oldid=46365846 Autori:: A.g.allegretta, Albert2810, Alec, Alfredxz, Alonso 4ever, Ask21, Aushulz, Blakwolf, Carlo.Ierna, Durras, Fidio,
Fluctuat, Freude.schoner.gotterfunken, Gabrio, Gacio, Gatto Nero, Goemon, Gspinoza, Helios, Hellis, Horcrux92, Ilfuria.awt, Ippogrifo, Kal-El, Kamina, L736E, Lorenz-pictures, Lucas, Luisa,
Luke86, Magma, MarcoRosa, Marcok, Maurice Carbonaro, Morpheu5, Nemo bis, Oni link, OrbiliusMagister, Ostilio, Padanda, Pap3rinik, PersOnLine, Phantomas, Pietrodn, Pokipsy76, RanZag,
Ranma25783, Senza nome.txt, Skywolf, Superchilum, Taueres, Tenebroso, TheLondoner, Trevinci, Twice25, UncleZeiv, ViciDig, Vituzzu, Vmoscarda, 48 Modifiche anonime
Elenco di paradossi Fonte:: http://it.wikipedia.org/w/index.php?oldid=46819186 Autori:: .mau., Albert2810, Alberto da Calvairate, Alfreddo, Barbaking, Blakwolf, Camoz87, Carlo.Ierna,
Dega180, Dr Zimbu, Felyx, Francesco8868, Frog, Ft1, Guam, Hellis, Ianezz, Johnlong, Laurom, Luca Antonelli, Lucas, Lucio Di Madaura, MLWatts, Marcok, Marcol-it, No2, Number 21,
Pap3rinik, Piddu, Roberto.zanasi, Rossa1, Senza nome.txt, Sgrunf!, Shaka, Shivanarayana, Snowdog, Tomi, UncleZeiv, ViciDig, Vmoscarda, 38 Modifiche anonime
Algebra di Boole Fonte:: http://it.wikipedia.org/w/index.php?oldid=46066888 Autori:: .snoopy., AKappa, Alberto da Calvairate, Alecobbe, AnyFile, Avemundi, Beta16, Blakwolf, Contezero,
DaniDF1995, Davide, Depagen, Digitalone, DnaX, Durras, Enry17, Eumolpo, Fabexplosive, Fede Reghe, Fioravante Patrone, Fiox, Francesco Betti Sorbelli, Gabstef, Gionnico, Goemon,
Ketersephirot, Kibira, Klemen Kocjancic, Lucat, Luigicaiffa, Marcel Bergeret, Marco Plassio, Marius, MartinoK, Mess, Paolovenezia, Pegua, Phantomas, Piddu, Pietrodn, Pracchia-78, Qualc1,
RamsesII, Red Power, Rossa1, Salvatore Ingala, SkY`, Snowdog, Taueres, The Black, TierrayLibertad, Tridim, Trovatore, Ulisse0, Woodstock1, Ylebru, ^musaz, 117 Modifiche anonime
Antinomie kantiane Fonte:: http://it.wikipedia.org/w/index.php?oldid=46702814 Autori:: Antonio G Colombo, Blakwolf, Carlo.Ierna, Cog, Evan60, Gierre, Guidomac, Iron Bishop, No2,
Paphlagon, Sanremofilo, Senza nome.txt, Thespeaker8, Ulrich von Wilamowitz-Moellendorff, ViciDig, 5 Modifiche anonime
Aristotele Fonte:: http://it.wikipedia.org/w/index.php?oldid=46550679 Autori:: .jhc., Acolleoni, Agostino64, Airon90, Alberto da Calvairate, Alec, Alessandrovittorio 19971962, Alfio,
Alpi84genova, Amarvudol, Andreabrugiony, AnjaManix, Antiedipo, Antonio F. Rosanova, Aphaia, Arbaiten, Ares, Aristide Donadio, Aristo.tele6, Aristofane di bisanzio, Aristotele82, Arm991,
Ary29, Askeron, Assianir, AttoRenato, Aushulz, Barbaking, Biopresto, Bonavolontà rocco, Borce, Brownout, Buggia, Carlo.Ierna, CavalloRazzo, Cesalpino, Ciceronianus900, Clovepower,
Codas, Davide, Dedomonti, Demart81, Detextor, Dr Zimbu, Elcaracol, Elwood, Emisin, Emptywords, Ermetis, Ernesttico, Eugenio.Graziano, Eumolpo, Exorcist Z, F l a n k e r, F. Cosoleto,
F.DelDongo, F.chiodo, Fabio Vescarelli, Fale, Felyx, Filippo Cantù, Filos96, Firegas, Flippo, FognettinaDolce, Francescorussig, Franco Ferracani, Franco3450, Franz Liszt, Frazzone, Fredericks,
Frieda, Frigotoni, G.S., Gac, Gian-, Gierre, Giovdi, Glauco92, Guidomac, Guybrush Threepwood, Hashar, Hellis, Henrykus, Hrundi V. Bakshi, Iacoyeah, Ignlig, Incola, Irreprensibile, Jalo,
Jorunn, K92, KS, KaeZar, Kamerroue, Kar.ma, Karloff, Kibira, Knight.93, L736E, Larry Yuma, Leonard Vertighel, Limonc, Lonrelu, Lord Anthony, Luisa, Luisius, M7, MM, Mac'ero,
MapiVanPelt, Marco Bernardini, MarcoRosa, Marimal, Mark91, Marko86, Maryam Toumi, Mauro742, Maxzamboni, Mediatime, Megalexandros, Microsoikos, Minyatur, Nanae, Nicolaennio,
No2, Omino di carta, OrbiliusMagister, Oroxon, Osk, Palica, Panairjdde, Paolo Di Febbo, Papesatan, Paphlagon, Pennac, Peppolinoscatafrongia, Phantomas, Piero, PieroSpeleo, Pracchia-78,
Provinciale, Pyotr, Quatar, Resigua, Retaggio, Ricesco, Ripepette, Rojelio, Roscelese, Ruthven, Sailko, Sannita, Sbisolo, Seics, Septem, Shivanarayana, Simone.lippi, Square87, Squattaturi,
Starlight, Starwars, Suisui, Syrio, Tartarox, Taueres, Template namespace initialisation script, Tenan, Thespeaker8, Ticket 2010081310004741, Tirinto, Torsolo, Trambolot, Truman Burbank,
Twice25, Tycheros, Una giornata uggiosa '94, Valepert, Valerio79, Vincenzo Fatigati, Webinkiostrer, Werther W, Wikit2006, XScratchAx, Xavier121, Xinstalker, 313 Modifiche anonime
Autoriferimento incrociato Fonte:: http://it.wikipedia.org/w/index.php?oldid=43615567 Autori:: AnjaManix, Bramfab, Eumolpo, Mizardellorsa, Piddu, 14 Modifiche anonime
Beni di Giffen Fonte:: http://it.wikipedia.org/w/index.php?oldid=41666405 Autori:: Balfabio, GiorgioWiki, Leitfaden, Luckyz, No2, 6 Modifiche anonime
Calcolo combinatorio Fonte:: http://it.wikipedia.org/w/index.php?oldid=45526298 Autori:: Abbax, Airon90, Alberto da Calvairate, Aleb, Bizio, Fale, Frazzone, Frieda, Frigotoni, Gim²y,
Guido Maccioni, Guido Magnano, Hobione, Jalo, Kamina, Labba94, Leitfaden, Mikimouse3, Nick, Parerga, Phantomas, Pracchia-78, Qualc1, Ripepette, Shivanarayana, Snowdog, Tomi, Toobaz,
Unriccio, Ylebru, 110 Modifiche anonime
Combinazione Fonte:: http://it.wikipedia.org/w/index.php?oldid=46018436 Autori:: Alberto da Calvairate, Balzanilo, EH101, Fiaschi, Franztanz, Frieda, Gokhan, Gragusa, Hashar, Leitfaden,
Leonard Vertighel, Llayumri, Phyk, Tomi, Utente, Ylebru, Zetazeti, h27.rcost.unisannio.it, 12 Modifiche anonime
Dismutazione (matematica) Fonte:: http://it.wikipedia.org/w/index.php?oldid=34115853 Autori:: .mau., Heps, Nchiriano, No2, Squee, Stradanico, Tigerjak, Toobaz, Ylebru, 4 Modifiche
anonime
Disposizione Fonte:: http://it.wikipedia.org/w/index.php?oldid=37076182 Autori:: Agosteeno, Alberto da Calvairate, Fiaschi, Gierre, Gragusa, Leitfaden, Marcopil64, Michele-sama, Piddu,
Pracchia-78, Rraucci, Sesquipedale, Wiso, Ylebru, Zetazeti, 6 Modifiche anonime
Effetto Mpemba Fonte:: http://it.wikipedia.org/w/index.php?oldid=46466151 Autori:: Aushulz, BerlinerSchule, Bonarma, Caulfield, Moreno Bardazzi, Nevermindfc, Phantomas, 9 Modifiche
anonime
Effetto Venturi Fonte:: http://it.wikipedia.org/w/index.php?oldid=46665525 Autori:: A.C.95, A7N8X, Alberto Orlandini, Amaseca, Archenzo, Auro, Beard, Blakwolf, Cymon, Domyinik,
Egretta, Eumolpa, F l a n k e r, Gabriele85, Gianluigi, Hill, Iron Bishop, Lucamanu, Luisa, MaD70, Miao, Mox83, Oile11, Poldo328, Pracchia-78, Qbert88, Retaggio, Robyvecchio, Simone, The
Rain Keeper, Twice25, Vmoscarda, Ylebru, Zetazeti, 15 Modifiche anonime
Esperimento immaginato Fonte:: http://it.wikipedia.org/w/index.php?oldid=30591731 Autori:: Albert2810, Andrea.gf, Chietta, Elitre, Felyx, Ggg, Kernel2037, Mr buick, Nickanc, Poldo328,
SkedO, 4 Modifiche anonime
Esperimento mentale Fonte:: http://it.wikipedia.org/w/index.php?oldid=45537442 Autori:: Albert2810, Andrea.gf, Chietta, Elitre, Felyx, Ggg, Kernel2037, Mr buick, Nickanc, Poldo328,
SkedO, 4 Modifiche anonime
Ex falso sequitur quodlibet Fonte:: http://it.wikipedia.org/w/index.php?oldid=45924997 Autori:: 4v4l0n42, AD10492, Ary29, Blakwolf, Brownout, Bultro, Earcar, GIM, Numerettiano,
Phantomas, Pokipsy76, Rossa1, 7 Modifiche anonime
Giovanni Buridano Fonte:: http://it.wikipedia.org/w/index.php?oldid=45818450 Autori:: Alberto da Calvairate, AndreA, AttoRenato, Bramfab, Carlo.Ierna, Cesalpino, DaveBlack, Helios,
Luiclemens, Maria.martelli, Mr buick, O--o, Ontoraul, Patty, Phantomas, Progettualita, Salvatore Ingala, Sergiovaccaro, Snowdog, Vituzzu, 15 Modifiche anonime
Guglielmo di Ockham Fonte:: http://it.wikipedia.org/w/index.php?oldid=46345372 Autori:: .jhc., AKappa, Accurimbono, Adert, Alec, Alpi84genova, AndreA, Andreabrugiony, Antiedipo,
Askeron, Basilero, Basilicofresco, Bonavolontà rocco, Bua333, Carlo.Ierna, Daĉjo, Drossi, Federico di Svevia, Fluctuat, Fragolino, Francesco da Firenze, Frieda, GJo, Giorces, Goro!, Helios,
Hellis, Ignlig, Ita01, Lingtft, Lp, Luigi.Vampa, Maitland, Malemar, Matgio, Medan, Metaphysicus, Moloch981, Nicola Gianinazzi, Ontoraul, Orion21, Phantomas, Pil56, Pinea, Pracchia-78,
Rossa1, Sailko, Scriban, Shivanarayana, Snowdog, Starwars, Tappete, TierrayLibertad, Truman Burbank, Twice25, Webwizard, 46 Modifiche anonime
Indipendenza stocastica Fonte:: http://it.wikipedia.org/w/index.php?oldid=43201816 Autori:: 213.21.174.xxx, Arodichevski, Basilero, Buggia, Eumolpo, Flyingstar16, Gala.martin, Lacurus,
Lgentema, Piddu, Pokipsy76, Pracchia-78, Simone, Tomi, 5 Modifiche anonime
Insieme sfocato Fonte:: http://it.wikipedia.org/w/index.php?oldid=42542115 Autori:: Aubrey, Aushulz, Bonand, DixonD, Hellis, L'alchimista, Massimiliano Lincetto, Megalexandros, Piddu,
Rescartino, Salvatore Ingala, Sbisolo, Simone, Tomi, Toobaz, Wiso, Zo, cerberus.dis.uniroma1.it, pppfree166-188-bz.aknet.it, 7 Modifiche anonime
Insieme sfumato Fonte:: http://it.wikipedia.org/w/index.php?oldid=8194182 Autori:: Aubrey, Aushulz, Bonand, DixonD, Hellis, L'alchimista, Massimiliano Lincetto, Megalexandros, Piddu,
Rescartino, Salvatore Ingala, Sbisolo, Simone, Tomi, Toobaz, Wiso, Zo, cerberus.dis.uniroma1.it, pppfree166-188-bz.aknet.it, 7 Modifiche anonime
Asino di Buridano Fonte:: http://it.wikipedia.org/w/index.php?oldid=45922222 Autori:: Airon90, Dome, Fiertel91, Gean, Guerrinho, Llorenzi, Luckyz, Sailko, Sanremofilo, Sergiovaccaro,
Tenebroso, Teocrito, Vale maio, Vituzzu, 2 Modifiche anonime
Logica fuzzy Fonte:: http://it.wikipedia.org/w/index.php?oldid=45015411 Autori:: *Raphael*, .snoopy., AD10492, Aangelo, Alberto da Calvairate, AttoRenato, Aushulz, Beetstra, Blakwolf,
Blucheri, Carlo.Ierna, Carlo.milanesi, Chem, Ciro07, Davser, Derfel74, Dommac, Frieda, Gerla, Hashar, Hellis, Krzysiulek, Larry.europe, Laurentius, Marcok, Maurice Carbonaro, Michail,
Nemo bis, Nickanc, Patafisik, Piddu, Pier Paolo Ramon, Piero, Stemby, Tomi, Vasta, Wiso, Xander2k, Ylebru, pppfree166-188-bz.aknet.it, 50 Modifiche anonime
Logica polivalente Fonte:: http://it.wikipedia.org/w/index.php?oldid=45106440 Autori:: AD10492, Basilero, Bina78, Bjankuloski06it, Cobalttempest, Dega180, Derfel74, Digitmaster, Krdan,
Megalexandros, 8 Modifiche anonime
Oggetto impossibile Fonte:: http://it.wikipedia.org/w/index.php?oldid=41390662 Autori:: ARTE, Chrx, Guam, MaxDel, Numbo3, Twice25, 8 Modifiche anonime
259
Fonti e autori delle voci
Paradossi dell'infinito Fonte:: http://it.wikipedia.org/w/index.php?oldid=45297923 Autori:: Buggia, Colom, Gac, Hellis, Kal-El, Matra dj, Nickanc, Piddu, Remulazz, Uahlim, ViciDig, 3
Modifiche anonime
Paradossi di Zenone Fonte:: http://it.wikipedia.org/w/index.php?oldid=45508128 Autori:: *Alby*, .mau., Airon90, Albert2810, Alfio, Andrea Jagher, Ares, Auro, Blakwolf, Broglie,
ChemicalBit, Dante78, DarkAp, Elwood, Francia8870, Giovypedia, Guam, Guidomac, Gvittucci, Icaro, Ilario, Iron Bishop, Jacopo, Jadajava, LGB, Limonc, Luisa, MapiVanPelt, Maquesta,
Marko86, Menion89, Michele Bergadano, Nevermore, Nickanc, Numala, Panairjdde, Paolo Lipparini, Pokipsy76, Restu20, Riccioli72, Salvo da Palermo, Sartore, Senza nome.txt, Snowdog,
THeK3nger, Tarlo88, Taueres, Tia solzago, Titian1962, ViciDig, Vituzzu, Wikit2006, 81 Modifiche anonime
Paradosso asiatico (cardiologia) Fonte:: http://it.wikipedia.org/w/index.php?oldid=18484817 Autori:: Harlock81, Marcordb, Medan, Superchilum
Paradosso dei corvi Fonte:: http://it.wikipedia.org/w/index.php?oldid=34546464 Autori:: Blakwolf, Buggia, Carlo.Ierna, Cesalpino, Megalexandros, Phantomas, Piddu, Senza nome.txt, 6
Modifiche anonime
Paradosso dei due bambini Fonte:: http://it.wikipedia.org/w/index.php?oldid=45175590 Autori:: Cloj, Garibaldino, Hellis, LucAndrea, Lucbie, Lumage, Merovingian, Nrykko, Piddu,
Sandrobt, Tomi, Toobaz, 10 Modifiche anonime
Paradosso dei gemelli Fonte:: http://it.wikipedia.org/w/index.php?oldid=46353338 Autori:: Alfio, Ares, Aushulz, Blakwolf, Buggia, Davricci, Edgardof, Elwood, Galessandroni, Ggg,
Gianluigi, Guam, Lukius, MaiDireChiara, Massimiliano Lincetto, Mtt, Nick, Omino di carta, PaoloC2008, Spinoziano, Ticket 2010081310004741, ^musaz, 33 Modifiche anonime
Paradosso del bibliotecario Fonte:: http://it.wikipedia.org/w/index.php?oldid=41477081 Autori:: Ares, Blakwolf, Guam, Laurom, Lola Voss, LucaLuca, MLWatts, Marcol-it, Massimiliano
Lincetto, Mtt, Piddu, Schickaneder, Snowdog, Spirit, Stefano Bit, Taccolamat, 2 Modifiche anonime
Paradosso del Comma 22 Fonte:: http://it.wikipedia.org/w/index.php?oldid=46049688 Autori:: Baruneju, Blakwolf, Geralt93, Guam, Hellis, Horatius, Marcok, Maurice Carbonaro, Newneo,
Nyc99, Piddu, Poweruser, Sbisolo, Senza nome.txt, Sid-Vicious, Tonii, Twice25, Vituzzu, 18 Modifiche anonime
Paradosso del compleanno Fonte:: http://it.wikipedia.org/w/index.php?oldid=45843252 Autori:: *Raphael*, .mau., Abisys, Alez, Blue star 19, Cenncroithi, Colom, Fafabifiofo, Gi87, Guam,
Hellis, Leo72, Luciodem, Marius, Mauron, Michele-sama, Pacionet, Piddu, Poeta60, Rael, Sbisolo, Simo ubuntu, Tomi, Wanblee, Wikiradar, Wolland, Yoruno, 17 Modifiche anonime
Paradosso del gatto di Schrödinger Fonte:: http://it.wikipedia.org/w/index.php?oldid=46759794 Autori:: .jhc., Adamanttt, Airon90, Albert2810, Alexsergio, Andreinho10, Annuale, Antonio la
trippa, Ares, B3t, Bangone, Belphagor, Beniy, Blakwolf, Buzzbomber, CavalloRazzo, Cinerino, Cloj, Codas, Codeberry, Dammister, Davidesrt95, Dr Zimbu, Elassar, Enrr-ve, Ercolano,
Fabrizio.ciacchi, Federico Fiandro, Fenice1956, Filippof, FoLg0re, Fondamentale mancante, Gabstef, Gepgenius, Gianluigi, Gliu, Guam, Hannibale23, Hashar, Hellis, Imdrunk, Ivan
Grebenshikov, Kaeso, Kataskematico, Klodjo, Koji, Kruiser, Lenore, Lucasalvatori, Mac'ero, Mago Merlino, MapiVanPelt, Mark91, Matt425, Maurice Carbonaro, Mda, Midnight bird,
Misterakko, Misterioso, Morgoth92, Pask77, Pberta, PhOeNixX, Piddu, Pokipsy76, Popop, Pracchia-78, PravoSlav, R.Q. - Deiv, Remulazz, Restu20, Retaggio, Roccopozzi, Rossa1, Senza
nome.txt, Simo82, Soltanto uno, Tamaalurda, Template namespace initialisation script, Ticket 2010081310004741, Tomi, Tommaso Ferrara, Tr8lina, Tralfamadore, Tscondor, Twice25,
UgoBerlino, Wadysh, Winged Zephiro, Xavor85, Ylebru, Zaldo, 217 Modifiche anonime
Paradosso del gatto imburrato Fonte:: http://it.wikipedia.org/w/index.php?oldid=46792293 Autori:: .mau., Adamanttt, Almadannata, AnjaManix, Barbaking, Basilero, Beechs, Borgil, Buggia,
Calogero P.1597, CavalloRazzo, ChemicalBit, Dariuz borghigiano, Desmodromico, Dogah, EnergyDome, Fabrizio.ciacchi, Fidech, FollowTheMedia, Gig, Guido Magnano, Guidomac,
Harlock81, Hellis, Jacopo.luppino, Jaqen, Lenore, Llorenzi, Maquesta, Marcol-it, Marluk, Massimiliano Lincetto, Mda, Mikelima, Moroboshi, Nickanc, No2, OppidumNissenae, Pequod76,
Pietrofdm, Pirru, Pokipsy76, Raptor87, Red devil 666, Riccardoghinelli, Rojelio, Rollopack, Sailko, Shaka, SunOfErat, Talon, Tomfox, Toobaz, Twice25, Una giornata uggiosa '94, ViciDig,
WikiKiwi, Zerosei, Zénon Kitieùs, 34 Modifiche anonime
Paradosso del Grand Hotel di Hilbert Fonte:: http://it.wikipedia.org/w/index.php?oldid=46682774 Autori:: ARTE, Dega180, Francescorussig, Jaqen, Lucha, MM, Mtt, Piddu, Salvatore
Ingala, 10 Modifiche anonime
Paradosso del mentitore Fonte:: http://it.wikipedia.org/w/index.php?oldid=44333013 Autori:: AD10492, Andrea Jagher, Andrea994, Baruneju, Blakwolf, Cisco79, Ernest H, Fiertel91, Frieda,
Gierre, Jollyroger, Kal-El, Kerron, Leitfaden, Littoria, Lucius, Mattepiero, Mikispag, No2, Orion21, Pequod76, Phantomas, Piddu, Romagnolo 2, Senza nome.txt, Stefano Bit, Tonyfroio,
WinstonSmith, ZioNicco, 31 Modifiche anonime
Paradosso del nonno Fonte:: http://it.wikipedia.org/w/index.php?oldid=45189523 Autori:: Ares, Ary29, Berto, Delas, Eumolpo, Franz Liszt, Freude.schoner.gotterfunken, Gabrasca, GinoC,
Gspinoza, Hellis, Iafusco, IvaTrieste, JEDI, Jaqen, Kal-El, Kasper2006, Ladycry84, Lenore, Lfabria, Luca Z.za, Marcok, Mtt, Number 21, Piracmone, Pyotr, Quatar, Rgrg, Senza nome.txt,
Skywolf, Trapanator, Valepert, Zanzarino, 36 Modifiche anonime
Paradosso del quiz Fonte:: http://it.wikipedia.org/w/index.php?oldid=25168110 Autori:: Antiedipo, Basilero, Gierre, Soprano71, 8 Modifiche anonime
Paradosso del sorite Fonte:: http://it.wikipedia.org/w/index.php?oldid=40786664 Autori:: Dr Zimbu, Eumolpo, Phantomas, 8 Modifiche anonime
Paradosso dell'Alabama Fonte:: http://it.wikipedia.org/w/index.php?oldid=25240699 Autori:: .mau., Alfio, Amarvudol, Blakwolf, Ft1, Helios, Senpai, Shaka, Twice25, 4 Modifiche anonime
Paradosso dell'amico di Wigner Fonte:: http://it.wikipedia.org/w/index.php?oldid=45354262 Autori:: Codicorumus, Grigio60, Lenore, Pasqui23, Winged Zephiro, 3 Modifiche anonime
Paradosso dell'area scomparsa Fonte:: http://it.wikipedia.org/w/index.php?oldid=39182531 Autori:: Bayle, Bjankuloski06it, Franco56, Gatto Epicuro, Guam, Guidomac, Gusme, Paginazero,
Phantomas, Piddu, Snark, 15 Modifiche anonime
Paradosso dell'avvocato Fonte:: http://it.wikipedia.org/w/index.php?oldid=45920942 Autori:: Airon90, Ary29, Civvì, Dede4metal, Fantasma, Infovarius, Senpai, Senza nome.txt, SpeDIt, 1
Modifiche anonime
Paradosso dell'edonismo Fonte:: http://it.wikipedia.org/w/index.php?oldid=39102121 Autori:: Carlomorino, Phantomas, 4 Modifiche anonime
Paradosso dell'impiccagione imprevedibile Fonte:: http://it.wikipedia.org/w/index.php?oldid=32499697 Autori:: .jhc., Baruneju, Ft1, Gierre, Gvittucci, Luca Carati, Lucas, Oks, PersOnLine,
Piddu, Senpai, Snowdog, ViciDig, 3 Modifiche anonime
Paradosso dell'informazione del buco nero Fonte:: http://it.wikipedia.org/w/index.php?oldid=43028448 Autori:: Black Shadow, Carlog3, Chietta, EffeX2, Jaakko, Marko86, Z-angel, ^musaz,
4 Modifiche anonime
Paradosso dell'ipergioco Fonte:: http://it.wikipedia.org/w/index.php?oldid=41835598 Autori:: Blakwolf, Castagna, Kal-El, Luca Antonelli, Moongateclimber, Nalegato, Piddu, Sandrobt, Spirit,
19 Modifiche anonime
Paradosso dell'onnipotenza Fonte:: http://it.wikipedia.org/w/index.php?oldid=43521539 Autori:: BlimpyZo, Grigio60, H Plus, L'Essere corretto dal Forse, Lucas, Mickey83, Paola Severi
Michelangeli, PersOnLine, RanZag, Superzen, Tenebroso, 7 Modifiche anonime
Paradosso dell'onniscienza Fonte:: http://it.wikipedia.org/w/index.php?oldid=30146154 Autori:: *Raphael*, AD10492, Aki 01, Blakwolf, G.dallorto, GIM, Gala.martin, Giovannigobbin,
GuidoGer, HowlingMad, Iscritto, Jcer, Kal-El, Lillolollo, Lorenz-pictures, Lucas, Makenor13, Marcus90, Marius, Maxcarli, Mickey83, Mtt, Pap3rinik, PersOnLine, Pokipsy76, Riccardov,
Rob-ot, RobertoReggi, Saint-Just, Smèagol, Ticket2009082110052454, Tzu, Ulisse0, 40 Modifiche anonime
Paradosso dell'uovo e della gallina Fonte:: http://it.wikipedia.org/w/index.php?oldid=44624855 Autori:: Barbaking, Carlo.Ierna, Delfo Curioso, Dobby, Dr Zimbu, Eumolpo, Francesca Viale,
Galloramenu, Gnumarcoo, Kriss4Christ, Lotho2, Mark91, Midnight bird, Nickanc, PersOnLine, Piddu, Pracchia-78, RaminusFalcon, RanZag, Smèagol, Starwars, Superchilum, UgoBerlin, 28
Modifiche anonime
Paradosso della linea scomparsa Fonte:: http://it.wikipedia.org/w/index.php?oldid=35520683 Autori:: Buggia, Guam, Piddu, 1 Modifiche anonime
Paradosso della nave di Teseo Fonte:: http://it.wikipedia.org/w/index.php?oldid=43534986 Autori:: .mau., AmonSûl, Ares, Carlo.Ierna, Hellis, La Nuova Idea (mia), Madaki, Mela, Piddu,
Senza nome.txt, Snowdog, Tkt2008123110019475, Uahlim, 4 Modifiche anonime
Paradosso della votazione Fonte:: http://it.wikipedia.org/w/index.php?oldid=1532023 Autori:: .jhc., Alberto da Calvairate, Amanconi, Amux, Ary29, Ayanami Rei, Blakwolf, Emanuel,
Fioravante Patrone, Guam, Guidomac, Gvittucci, Kanchelskis, Moroboshi, Paulkh, Peppedeninno, Pomo 00, Salvatore Ingala, Sannita, Sbisolo, Senza nome.txt, 19 Modifiche anonime
260
Fonti e autori delle voci
Paradosso delle due buste Fonte:: http://it.wikipedia.org/w/index.php?oldid=44513128 Autori:: .mau., Al Pereira, Antiedipo, Avemundi, Fioravante Patrone, Gac, Gim²y, Jalo, Kaspo,
LucaLuca, Mykelyk, Piddu, Pokipsy76, Rdocb, Shivanarayana, Tia solzago, Toobaz, ViciDig, ZioNicco, 5 Modifiche anonime
Paradosso delle tre carte Fonte:: http://it.wikipedia.org/w/index.php?oldid=45400576 Autori:: Andpagl, Andrea.gf, Baroc, Basilero, Cloj, F l a n k e r, Godaime, MapiVanPelt, Michele-sama,
Mp3.7, Pequod76, PersOnLine, Piddu, Tomi, Toobaz, 14 Modifiche anonime
Paradosso di Abilene Fonte:: http://it.wikipedia.org/w/index.php?oldid=37537108 Autori:: Al Pereira, Ary29, Berto77, Bultro, Crikkola, Fredericks, Helios, Jón, Moloch981, Stefano Bit,
White wolf, 5 Modifiche anonime
Paradosso di Achille e la tartaruga Fonte:: http://it.wikipedia.org/w/index.php?oldid=46287256 Autori:: Albert2810, Dr Zimbu, Elitre, Francisco83pv, Hybridslinky, LGB, Michele
Bergadano, Sanremofilo, Tirinto, Wolland, 4 Modifiche anonime
Paradosso di Berry Fonte:: http://it.wikipedia.org/w/index.php?oldid=45494470 Autori:: .mau., Alberto da Calvairate, Alefalco, Gianluigi, Guam, Mitchan, Piddu, Poweruser, Sbisolo, Tomi,
Vittoso, 2 Modifiche anonime
Paradosso di Bertrand Fonte:: http://it.wikipedia.org/w/index.php?oldid=46364966 Autori:: A. di M., Avemundi, Eumolpo, Guardianodelfaro, Hellis, Incnis Mrsi, Mattiabona, Maxos, Piddu,
ViciDig, 3 Modifiche anonime
Paradosso di Buridano Fonte:: http://it.wikipedia.org/w/index.php?oldid=39157404 Autori:: Airon90, Dome, Fiertel91, Gean, Guerrinho, Llorenzi, Luckyz, Sailko, Sanremofilo,
Sergiovaccaro, Tenebroso, Teocrito, Vale maio, Vituzzu, 2 Modifiche anonime
Paradosso di Condorcet Fonte:: http://it.wikipedia.org/w/index.php?oldid=44574286 Autori:: Al Pereira, Blakwolf, Castagna, DanGarb, F.chiodo, Helios, Luckyz, Moroboshi, Numbo3,
Salvatore Ingala, ViciDig, Vmoscarda, Voldemort87, 10 Modifiche anonime
Paradosso di Curry Fonte:: http://it.wikipedia.org/w/index.php?oldid=46305169 Autori:: Alec, Theaetetus, 5 Modifiche anonime
Paradosso di D'Alembert Fonte:: http://it.wikipedia.org/w/index.php?oldid=15020032 Autori:: Al Pereira, F l a n k e r, Lusum, Nemo bis, Omino di carta, Salvatore Ingala, Senpai, Ub, 10
Modifiche anonime
Paradosso di Easterlin Fonte:: http://it.wikipedia.org/w/index.php?oldid=45384017 Autori:: AnjaQantina, Avemundi, Bultro, Casol, Fabio.gastone, Pipep, 14 Modifiche anonime
Paradosso di Einstein-Podolsky-Rosen Fonte:: http://it.wikipedia.org/w/index.php?oldid=46501601 Autori:: Alberto da Calvairate, Andsalomoni, Angelo Mascaro, Antonio d'alessandro,
AttoRenato, BCtl, Batmang, Berto, Blakwolf, Codas, Cruccone, Ermopan, Estragon, Eumolpo, Franco3450, Fredericks, Guam, Hellis, Leccher, Lenore, Lie, LoStrangolatore, Loox, Lucio Di
Madaura, Marcok, Montinar, Nick, Ormagandalf, Phantomas, Piddu, Rojelio, Rupertsciamenna, Sbisolo, Senza nome.txt, Sergio.ballestrero, Skywolf, UgoBerlin, Wanblee, ^musaz, 56 Modifiche
anonime
Paradosso di Epimenide Fonte:: http://it.wikipedia.org/w/index.php?oldid=1240245 Autori:: AD10492, Andrea Jagher, Andrea994, Baruneju, Blakwolf, Cisco79, Ernest H, Fiertel91, Frieda,
Gierre, Jollyroger, Kal-El, Kerron, Leitfaden, Littoria, Lucius, Mattepiero, Mikispag, No2, Orion21, Pequod76, Phantomas, Piddu, Romagnolo 2, Senza nome.txt, Stefano Bit, Tonyfroio,
WinstonSmith, ZioNicco, 31 Modifiche anonime
Paradosso di Fermi Fonte:: http://it.wikipedia.org/w/index.php?oldid=45980161 Autori:: AgenteMulder, Alfio, BRG, Bramfab, CioDu, Codas, Cog, Emanu, F.cioni, FSosio, Gab.pr, Gac,
Giulianorock, Guam, Hill, Ignlig, Johnlong, Lingam, Linusrocks, LoStrangolatore, Mactep, Marcok, Mda, OliverZena, Pasquale.Carelli, Phantomas, Pracchia-78, Prodocevano, Rupertsciamenna,
SPKirsch, Snowdog, Starmaker, Udufruduhu, Ulisse0, WinstonSmith, Wizard, 59 Modifiche anonime
Paradosso di Gibbs Fonte:: http://it.wikipedia.org/w/index.php?oldid=42265135 Autori:: A. di M., A7N8X, Antal, AttoRenato, Aushulz, ChemicalBit, Cisco79, Koji, MenoUNO, Nase, 7
Modifiche anonime
Paradosso di Hempel Fonte:: http://it.wikipedia.org/w/index.php?oldid=1241627 Autori:: Blakwolf, Buggia, Carlo.Ierna, Cesalpino, Megalexandros, Phantomas, Piddu, Senza nome.txt, 6
Modifiche anonime
Paradosso di Moore Fonte:: http://it.wikipedia.org/w/index.php?oldid=29464390 Autori:: Guam, Jaqen, Larry Yuma, Phantomas, Tommaso67, Vmoscarda, 1 Modifiche anonime
Paradosso di Newcomb Fonte:: http://it.wikipedia.org/w/index.php?oldid=8461303 Autori:: A.g.allegretta, Albert2810, Alec, Alfredxz, Alonso 4ever, Ask21, Aushulz, Blakwolf, Carlo.Ierna,
Durras, Fidio, Fluctuat, Freude.schoner.gotterfunken, Gabrio, Gacio, Gatto Nero, Goemon, Gspinoza, Helios, Hellis, Horcrux92, Ilfuria.awt, Ippogrifo, Kal-El, Kamina, L736E, Lorenz-pictures,
Lucas, Luisa, Luke86, Magma, MarcoRosa, Marcok, Maurice Carbonaro, Morpheu5, Nemo bis, Oni link, OrbiliusMagister, Ostilio, Padanda, Pap3rinik, PersOnLine, Phantomas, Pietrodn,
Pokipsy76, RanZag, Ranma25783, Senza nome.txt, Skywolf, Superchilum, Taueres, Tenebroso, TheLondoner, Trevinci, Twice25, UncleZeiv, ViciDig, Vituzzu, Vmoscarda, 48 Modifiche
anonime
Paradosso di Olbers Fonte:: http://it.wikipedia.org/w/index.php?oldid=46520158 Autori:: Alexander VIII, Alfio, Aushulz, Blakwolf, Cesalpino, Cog, Guam, Gvf, Joana, Kirill, Luisa, Lukius,
Mizardellorsa, Natalia.missana, Paperoastro, Romanm, Starmaker, Starwars, 22 Modifiche anonime
Paradosso di Protagora Fonte:: http://it.wikipedia.org/w/index.php?oldid=1240293 Autori:: Airon90, Ary29, Civvì, Dede4metal, Fantasma, Infovarius, Senpai, Senza nome.txt, SpeDIt, 1
Modifiche anonime
Paradosso di Richard Fonte:: http://it.wikipedia.org/w/index.php?oldid=43234901 Autori:: .mau., Alberto da Calvairate, Ares, ArtAttack, AttoRenato, Aushulz, Cruccone, Gianluigi, Giorgian,
Guam, Hellis, Hill, Piddu, Pokipsy76, Poweruser, Sbisolo, Snowdog, Wing, 3 Modifiche anonime
Paradosso di Russell Fonte:: http://it.wikipedia.org/w/index.php?oldid=46387483 Autori:: ArmandoEdera, Askeron, Azrael555, Beta16, Blakwolf, Carlo.Ierna, Dave4mame, Davide, Dome,
Elwood, Engineer123, Ephestione, Erinaceus, Eumolpo, Faaabio, Frieda, Ft1, Gaspy81, Giacomo Ritucci, Gian-, Gianluigi, Giomol, Giorgian, Guam, Guidomac, Inciampandosulleacque, Jacopo,
Jethro85, MLWatts, MartinBk, Melmood, MisterMicro, Mizardellorsa, Mtt, NeRi, Nicoli, Pap3rinik, Piddu, Popop, Pracchia-78, Razzairpina, Red devil 666, Salvatore Ingala, Sandrobt,
Snowdog, Suisui, Taueres, Tomi, Twice25, Voldemort87, 74 Modifiche anonime
Paradosso di San Pietroburgo Fonte:: http://it.wikipedia.org/w/index.php?oldid=44055279 Autori:: .mau., ARTE, Albert2810, Ask21, Basilicofresco, Buggia, Elwood, PersOnLine, Piddu,
Pil56, Raffo 83, Trixt, ViciDig, 10 Modifiche anonime
Paradosso di Simpson Fonte:: http://it.wikipedia.org/w/index.php?oldid=43753741 Autori:: .mau., Amanconi, Arodichevski, Avesan, Goochelaar, Guam, Gvittucci, Mox83, Piddu, Tomi,
Utente, 8 Modifiche anonime
Paradosso di Smale Fonte:: http://it.wikipedia.org/w/index.php?oldid=46467347 Autori:: Baroc, Felyx, Piddu
Paradosso di Stein Fonte:: http://it.wikipedia.org/w/index.php?oldid=44292897 Autori:: Andrisano Antonio, EffeX2, Fabio.gastone, Pablowsky, RanZag, 1 Modifiche anonime
Paradosso Einstein-Podolsky-Rosen Fonte:: http://it.wikipedia.org/w/index.php?oldid=16932442 Autori:: Alberto da Calvairate, Andsalomoni, Angelo Mascaro, Antonio d'alessandro,
AttoRenato, BCtl, Batmang, Berto, Blakwolf, Codas, Cruccone, Ermopan, Estragon, Eumolpo, Franco3450, Fredericks, Guam, Hellis, Leccher, Lenore, Lie, LoStrangolatore, Loox, Lucio Di
Madaura, Marcok, Montinar, Nick, Ormagandalf, Phantomas, Piddu, Rojelio, Rupertsciamenna, Sbisolo, Senza nome.txt, Sergio.ballestrero, Skywolf, UgoBerlin, Wanblee, ^musaz, 56 Modifiche
anonime
Paradosso idrostatico Fonte:: http://it.wikipedia.org/w/index.php?oldid=41341067 Autori:: Ask21, Sleuvis, Vmoscarda, 5 Modifiche anonime
Paradosso temporale Fonte:: http://it.wikipedia.org/w/index.php?oldid=42757642 Autori:: ArtAttack, Basilero, Black mamba, Giovanni Parisi, Hellis, Ianezz, Kelvinclein, KingFanel, Lenore,
Marcok, Mau db, Mess, PaoloBarabucci, Patafisik, PersOnLine, Senpai, Shìnzon, Tridim, Walecs, 21 Modifiche anonime
Paradosso teologico Fonte:: http://it.wikipedia.org/w/index.php?oldid=45470487 Autori:: *Raphael*, AD10492, Aki 01, Blakwolf, G.dallorto, GIM, Gala.martin, Giovannigobbin, GuidoGer,
HowlingMad, Iscritto, Jcer, Kal-El, Lillolollo, Lorenz-pictures, Lucas, Makenor13, Marcus90, Marius, Maxcarli, Mickey83, Mtt, Pap3rinik, PersOnLine, Pokipsy76, Riccardov, Rob-ot,
RobertoReggi, Saint-Just, Smèagol, Ticket2009082110052454, Tzu, Ulisse0, 40 Modifiche anonime
261
Fonti e autori delle voci
Permutazione Fonte:: http://it.wikipedia.org/w/index.php?oldid=46505932 Autori:: 213.21.175.xxx, Actam, Aldur, Alfio, Andreas Carter, Arodichevski, Baruneju, Cesalpino, DanGarb, Delas,
Fabuio, Gabrasca, Gassendi, Leitfaden, Piddu, Pokipsy76, Romanm, Salvatore Ingala, Sandrobt, Simone, Snowdog, Squee, Suisui, Tomi, Toobaz, Ylebru, Zirius, 19 Modifiche anonime
Principio dei cassetti Fonte:: http://it.wikipedia.org/w/index.php?oldid=43808281 Autori:: .mau., Alberto da Calvairate, Aldur, Avesan, Freddo, Goochelaar, HT, Hellis, Horcrux92, J.t.carbo,
Piddu, Roberto.zanasi, Ylebru, 13 Modifiche anonime
Principio di non contraddizione Fonte:: http://it.wikipedia.org/w/index.php?oldid=42559045 Autori:: .anaconda, AD10492, Andrea Jagher, Blakwolf, Bultro, Carlo.Ierna, GIM, Grigio60,
Horcrux92, Johnlong, Jotar, Maurizio.Zani, Michail, No2, Pokipsy76, 18 Modifiche anonime
Probabilità Fonte:: http://it.wikipedia.org/w/index.php?oldid=45185361 Autori:: 213.21.174.xxx, Alberto da Calvairate, Alearr, Alec, Angela Bonora, Blakwolf, Cesalpino, Codicorumus,
Erasmo Barresi, F.chiodo, Fredericks, Gabriel96, Gacio, Gcappellotto, GiovanniS, Giovannigobbin, Gipiz, Giulio.Nic, Guidomac, Hashar, Ilario, Jalo, Joana, Leitfaden, Luisa, M7, Massimiliano
Lincetto, Mau db, MenoUNO, Michele-sama, Mr buick, Phantomas, Piddu, Profste, Riccioli72, Shaka, Snowdog, StefaPorce, Suisui, Tener, Ticket 2010081310004741, Tomi, Toobaz, Twice25,
Valitutti, Vituzzu, Ylebru, ^musaz, pppfree165-26-bz.aknet.it, 91 Modifiche anonime
Probabilità condizionata Fonte:: http://it.wikipedia.org/w/index.php?oldid=45918990 Autori:: 213.21.174.xxx, Andrisano Antonio, Arodichevski, Barrfind, Buggia, Emptywords, Felisopus,
Joevinegar, Leitfaden, Piddu, Pokipsy76, Simone, Suisui, Tomi, Tridim, 19 Modifiche anonime
Probabilità congiunta Fonte:: http://it.wikipedia.org/w/index.php?oldid=4837264 Autori:: 213.21.174.xxx, Amanconi, Arodichevski, Baroc, Buggia, Llorenzi, Piddu, Salvatore Ingala,
Sandrobt, Simone, Tomi
Problema di Monty Hall Fonte:: http://it.wikipedia.org/w/index.php?oldid=46649458 Autori:: .mau., Airon90, Amanconi, Assianir, Aushulz, Avesan, B3t, Camera 9, Carlo.milanesi,
CavalloRazzo, Diego Petrucci, Doctor Dodge, Dr Zimbu, Etienne, Eumolpo, EvilPrince, Fradelpra, Gvittucci, Hellis, Hires, Holdme, Il Teu, Incola, Jakbest, Joana, Kasper2006, LaseriumFloyd,
Luca Antonelli, Lumage, Marco.parrilla, Matrix87, Metallo, Michele-sama, Mp3.7, Mpitt, Noieraieri, Phantomas, Piddu, Sandrobt, Sesquipedale, Snowdog, Square87, Stark79, Superzen, The
Kraff, Tia solzago, Ticket 2010081310004741, Tomi, Toobaz, Trixt, Ylebru, 90 Modifiche anonime
Questione ipotetica (teologia) Fonte:: http://it.wikipedia.org/w/index.php?oldid=34729660 Autori:: Ggg, Guidomac, RobertoReggi, 1 Modifiche anonime
Teorema dell'impossibilità di Arrow Fonte:: http://it.wikipedia.org/w/index.php?oldid=39089593 Autori:: .jhc., Alberto da Calvairate, Amanconi, Amux, Ary29, Ayanami Rei, Blakwolf,
Emanuel, Fioravante Patrone, Guam, Guidomac, Gvittucci, Kanchelskis, Moroboshi, Paulkh, Peppedeninno, Pomo 00, Salvatore Ingala, Sannita, Sbisolo, Senza nome.txt, 19 Modifiche anonime
Teorema della probabilità composta Fonte:: http://it.wikipedia.org/w/index.php?oldid=43716481 Autori:: 213.21.174.xxx, Amanconi, Arodichevski, Baroc, Buggia, Llorenzi, Piddu, Salvatore
Ingala, Sandrobt, Simone, Tomi
Teorema di Duggan-Schwartz Fonte:: http://it.wikipedia.org/w/index.php?oldid=35921992 Autori:: Andrisano Antonio, Blakwolf, Pracchia-78
Teoria della probabilità Fonte:: http://it.wikipedia.org/w/index.php?oldid=44747751 Autori:: Amanconi, Avesan, Beewan1972, Cesalpino, Dr Zimbu, Frieda, Gala.martin, Joevinegar,
Leitfaden, Lgentema, Lyell01, Microsoikos, Nihil, No2, Piddu, Piero Montesacro, Pil56, Rollopack, Sigifredobau, Tomi, Tonello, Ylebru, ^musaz, 17 Modifiche anonime
Tertium non datur Fonte:: http://it.wikipedia.org/w/index.php?oldid=46291381 Autori:: .mau., AD10492, Aspasia, Blakwolf, Bramfab, Carlo.Ierna, Laurom, Michail, Pegua, Red83, Rossa1,
Salvo da Palermo, Twice25, ViciDig, 2 Modifiche anonime
Valore atteso condizionato Fonte:: http://it.wikipedia.org/w/index.php?oldid=46684608 Autori:: Dr Zimbu, Kamina, Pracchia-78, 2 Modifiche anonime
262
Fonti, licenze e autori delle immagini
Fonti, licenze e autori delle immagini
Immagine:Commons-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: SVG version was created by User:Grunt and cleaned up by
3247, based on the earlier PNG version, created by Reidab.
Immagine:Wiktionary-ico-de.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png Licenza: logo Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Nodulation,
Rocket000, Saibo
Immagine:Wikiquote-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg Licenza: Public Domain Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq,
Krinkle, Maderibeyza, Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonime
File:NOT ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:NOT_ANSI.svg Licenza: Public Domain Autori:: jjbeard
File:OR ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:OR_ANSI.svg Licenza: Public Domain Autori:: jjbeard
File:AND ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:AND_ANSI.svg Licenza: Public Domain Autori:: jjbeard
File:XOR ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:XOR_ANSI.svg Licenza: Public Domain Autori:: jjbeard
File:Buffer ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Buffer_ANSI.svg Licenza: Public Domain Autori:: Inductiveload
File:NOR ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:NOR_ANSI.svg Licenza: Public Domain Autori:: jjbeard
File:NAND ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:NAND_ANSI.svg Licenza: Public Domain Autori:: jjbeard
File:XNOR ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:XNOR_ANSI.svg Licenza: Public Domain Autori:: jjbeard
File:Aristotle by Raphael.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Aristotle_by_Raphael.jpg Licenza: Public Domain Autori:: ALE!, Dencey, Pe-Jo, Tomisti
File:Ancient stagira greece 01.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ancient_stagira_greece_01.jpg Licenza: Copyrighted free use Autori:: Christaras A
File:Aristotle tutoring Alexander by J L G Ferris 1895.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Aristotle_tutoring_Alexander_by_J_L_G_Ferris_1895.jpg Licenza: Public
Domain Autori:: Damiens.rf, Howcheng, Shakko, Tarawneh
File:Aristoteles Statue.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Aristoteles_Statue.jpg Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: Daphni
File:Formella 21, platone e aristotele o la filosofia, luca della robbia, 1437-1439dettaglio.JPG Fonte::
http://it.wikipedia.org/w/index.php?title=File:Formella_21,_platone_e_aristotele_o_la_filosofia,_luca_della_robbia,_1437-1439dettaglio.JPG Licenza: Creative Commons Attribution-ShareAlike
3.0 Unported Autori:: sailko
File:CiceroBust.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:CiceroBust.jpg Licenza: Public Domain Autori:: User:Infrogmation
File:Aristotle Altemps Inv8575.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Aristotle_Altemps_Inv8575.jpg Licenza: Public Domain Autori:: User:Jastrow
File:Schema Sillogismo.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Schema_Sillogismo.png Licenza: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0 Autori:: Oroxon
File:Quattro elementi.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Quattro_elementi.png Licenza: Public Domain Autori:: Reame
Immagine:Wikisource-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikisource-logo.svg Licenza: logo Autori:: Nicholas Moreau
File:Tubo di venturi.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Tubo_di_venturi.jpg Licenza: GNU Free Documentation License Autori:: Eio, Mess
File:Venturifixed2.PNG Fonte:: http://it.wikipedia.org/w/index.php?title=File:Venturifixed2.PNG Licenza: Public Domain Autori:: User:HappyApple
File:Strozzatura.PNG Fonte:: http://it.wikipedia.org/w/index.php?title=File:Strozzatura.PNG Licenza: Public domain Autori:: Vmoscarda
File:Effetto venturi.JPG Fonte:: http://it.wikipedia.org/w/index.php?title=File:Effetto_venturi.JPG Licenza: GNU Free Documentation License Autori:: Frieda, Robyvecchio
Immagine:William of Ockham - Logica - 1341.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:William_of_Ockham_-_Logica_-_1341.jpg Licenza: Public Domain Autori:: Cirt,
Dsmdgold, GDK, JPS68, Leinad-Z, 1 Modifiche anonime
File:Deliberations of Congress.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Deliberations_of_Congress.jpg Licenza: Public Domain Autori:: W. A. Rogers
File:Fuzzy logic temperature en.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Fuzzy_logic_temperature_en.svg Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported
Autori:: fullofstars
Immagine:Impossible cube.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Impossible_cube.jpg Licenza: GNU Free Documentation License Autori:: Bukk, Guam, Lobo,
Qwertyytrewqqwerty, Ricordisamoa
Immagine:Penrose triangle.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Penrose_triangle.png Licenza: Public Domain Autori:: AnonMoos, Bromskloss, Harp, Red devil 666, 2
Modifiche anonime
Immagine:Blivet.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Blivet.png Licenza: Public Domain Autori:: Original uploader was Heron at en.wikipedia Later version(s) were
uploaded by Ciphergoth2, Fotinakis at en.wikipedia.
Immagine:Impossible staircase.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Impossible_staircase.svg Licenza: Public Domain Autori:: Sakurambo
File:SegmentoDoppio.PNG Fonte:: http://it.wikipedia.org/w/index.php?title=File:SegmentoDoppio.PNG Licenza: Public domain Autori:: Giac83, ViciDig
Immagine:Corvus corax (FWS).jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Corvus_corax_(FWS).jpg Licenza: Public Domain Autori:: Stolz, Gary M.
File:Minkowski.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Minkowski.png Licenza: Public domain Autori:: Ggg, Snowdog
File:Birthday Paradox.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Birthday_Paradox.svg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Rajkiran g
File:Schrodingers cat.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Schrodingers_cat.svg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Dhatfield
Immagine:Buttered cat.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Buttered_cat.png Licenza: Creative Commons Attribution-Sharealike 2.5 Autori::
Image:Buttered_cat_comic.jpg : Greg Williams derivative work: Pengo
File:Missing square puzzle.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Missing_square_puzzle.svg Licenza: GNU Free Documentation License Autori:: JamesCrook, Julia W,
Lobo, Pro bug catcher
File:Missing Square Animation.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Missing_Square_Animation.gif Licenza: Public Domain Autori:: Original uploader was Trekky0623
at en.wikipedia
Image:BlackHole.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:BlackHole.jpg Licenza: Public Domain Autori:: Holycharly, Keraunoscopia, Mattes, Shellabella17, St0rm, TheDJ,
Vanderdecken, 4 Modifiche anonime
File:Egg in straw nest.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Egg_in_straw_nest.jpg Licenza: GNU Free Documentation License Autori:: Fir0002, Ies, Man vyi, Norro
Immagine:Vanished line paradox.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Vanished_line_paradox.jpg Licenza: GNU Free Documentation License Autori:: Guam, Warden, 1
Modifiche anonime
File:bertrand1-figure.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand1-figure.svg Licenza: GNU Free Documentation License Autori:: Original uploader was Timecop at
en.wikipedia
File:bertrand2-figure.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand2-figure.svg Licenza: GNU Free Documentation License Autori:: Original uploader was Timecop at
en.wikipedia
File:bertrand3-figure.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand3-figure.svg Licenza: GNU Free Documentation License Autori:: Original uploader was Timecop at
en.wikipedia
File:bertrand1-scatterplot.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand1-scatterplot.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Original
uploader was Sakurambo at en.wikipedia
File:bertrand2-scatterplot.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand2-scatterplot.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Original
uploader was Sakurambo at en.wikipedia
File:bertrand3-scatterplot.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand3-scatterplot.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Original
uploader was Sakurambo at en.wikipedia
File:bertrand1-chords.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand1-chords.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Original uploader was
Sakurambo at en.wikipedia
263
Fonti, licenze e autori delle immagini
File:bertrand2-chords.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand2-chords.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Original uploader was
Sakurambo at en.wikipedia
File:bertrand3-chords.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand3-chords.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Sakurambo at
en.wikipedia
File:Paradosso EPR.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Paradosso_EPR.jpg Licenza: Public domain Autori:: Lie
Image:Soviet Union-1967-Stamp-0.16. Satellite of Extraterrestrial Civilization.jpg Fonte::
http://it.wikipedia.org/w/index.php?title=File:Soviet_Union-1967-Stamp-0.16._Satellite_of_Extraterrestrial_Civilization.jpg Licenza: Public Domain Autori:: Post of Soviet Union
File:Stub astronomia.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Stub_astronomia.png Licenza: GNU Free Documentation License Autori:: Guybrush Threepwood, Lucas
Immagine:Willard Gibbs.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Willard_Gibbs.jpg Licenza: Public Domain Autori:: User:YebisYa
Immagine:Similitudine-entropia configurazionale.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Similitudine-entropia_configurazionale.gif Licenza: sconosciuto Autori:: Nase
Immagine:JohnvonNeumann-LosAlamos.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:JohnvonNeumann-LosAlamos.jpg Licenza: Public Domain Autori:: Fastfission, Frank C.
Müller, Harp, Kilom691, Mdd, Polarlys, Shizhao
File:Cielo notturno simulato.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Cielo_notturno_simulato.jpg Licenza: GNU Free Documentation License Autori:: Guam, Pko
File:Olber's Paradox - All Points.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Olber's_Paradox_-_All_Points.gif Licenza: GNU Free Documentation License Autori:: Kmarinas86
File:Honourable Bertrand Russell.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Honourable_Bertrand_Russell.jpg Licenza: Public Domain Autori:: Photographer not identified
Immagine:Petersburg-Paradox.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Petersburg-Paradox.png Licenza: Public Domain Autori:: Maksim, Mdd, Paradoctor, Solbris, 2
Modifiche anonime
File:MorinSurfaceFromTheTop.PNG Fonte:: http://it.wikipedia.org/w/index.php?title=File:MorinSurfaceFromTheTop.PNG Licenza: GNU Free Documentation License Autori:: Anarkman,
Dbenbenn
File:TooManyPigeons.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:TooManyPigeons.jpg Licenza: GNU Free Documentation License Autori:: Pigeons-in-holes.jpg by
en:User:BenFrantzDale; this image by en:User:McKay
File:6sided dice.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:6sided_dice.jpg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Diacritica
File:Paradosso di Monty Hall.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Paradosso_di_Monty_Hall.gif Licenza: Public domain Autori:: Iraiscoming223
File:Monty open door.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door.svg Licenza: Public Domain Autori:: Cepheus
File:Monty open door chances.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door_chances.svg Licenza: Public Domain Autori:: Cepheus
264
Licenza
Licenza
Creative Commons Attribution-Share Alike 3.0 Unported
//creativecommons.org/licenses/by-sa/3.0/
265