Paradossi PDF generato attraverso il toolkit opensource ''mwlib''. Per maggiori informazioni, vedi [[http://code.pediapress.com/ http://code.pediapress.com/]]. PDF generated at: Sun, 29 Jan 2012 16:42:38 UTC Indice Voci Paradosso 1 Elenco di paradossi 5 Algebra di Boole 9 Antinomie kantiane 19 Aristotele 22 Autoriferimento incrociato 41 Beni di Giffen 42 Calcolo combinatorio 43 Combinazione 46 Dismutazione (matematica) 53 Disposizione 55 Effetto Mpemba 57 Effetto Venturi 58 Esperimento immaginato 60 Esperimento mentale 63 Ex falso sequitur quodlibet 66 Giovanni Buridano 67 Guglielmo di Ockham 69 Indipendenza stocastica 75 Insieme sfocato 76 Insieme sfumato 78 Asino di Buridano 80 Logica fuzzy 81 Logica polivalente 88 Oggetto impossibile 90 Paradossi dell'infinito 91 Paradossi di Zenone 92 Paradosso asiatico (cardiologia) 96 Paradosso dei corvi 97 Paradosso dei due bambini 98 Paradosso dei gemelli 100 Paradosso del bibliotecario 104 Paradosso del Comma 22 105 Paradosso del compleanno 106 Paradosso del gatto di Schrödinger 107 Paradosso del gatto imburrato 112 Paradosso del Grand Hotel di Hilbert 114 Paradosso del mentitore 115 Paradosso del nonno 118 Paradosso del quiz 119 Paradosso del sorite 120 Paradosso dell'Alabama 121 Paradosso dell'amico di Wigner 122 Paradosso dell'area scomparsa 123 Paradosso dell'avvocato 124 Paradosso dell'edonismo 125 Paradosso dell'impiccagione imprevedibile 125 Paradosso dell'informazione del buco nero 127 Paradosso dell'ipergioco 130 Paradosso dell'onnipotenza 132 Paradosso dell'onniscienza 133 Paradosso dell'uovo e della gallina 136 Paradosso della linea scomparsa 139 Paradosso della nave di Teseo 140 Paradosso della votazione 141 Paradosso delle due buste 145 Paradosso delle tre carte 151 Paradosso di Abilene 153 Paradosso di Achille e la tartaruga 154 Paradosso di Berry 155 Paradosso di Bertrand 156 Paradosso di Buridano 159 Paradosso di Condorcet 160 Paradosso di Curry 162 Paradosso di D'Alembert 163 Paradosso di Easterlin 165 Paradosso di Einstein-Podolsky-Rosen 168 Paradosso di Epimenide 175 Paradosso di Fermi 178 Paradosso di Gibbs 182 Paradosso di Hempel 187 Paradosso di Moore 188 Paradosso di Newcomb 189 Paradosso di Olbers 193 Paradosso di Protagora 196 Paradosso di Richard 197 Paradosso di Russell 198 Paradosso di San Pietroburgo 201 Paradosso di Simpson 207 Paradosso di Smale 209 Paradosso di Stein 210 Paradosso Einstein-Podolsky-Rosen 210 Paradosso idrostatico 217 Paradosso temporale 218 Paradosso teologico 219 Permutazione 223 Principio dei cassetti 226 Principio di non contraddizione 228 Probabilità 230 Probabilità condizionata 237 Probabilità congiunta 239 Problema di Monty Hall 239 Questione ipotetica (teologia) 248 Teorema dell'impossibilità di Arrow 249 Teorema della probabilità composta 253 Teorema di Duggan-Schwartz 253 Teoria della probabilità 254 Tertium non datur 256 Valore atteso condizionato 257 Note Fonti e autori delle voci 259 Fonti, licenze e autori delle immagini 263 Licenze della voce Licenza 265 Paradosso 1 Paradosso Questo Box di Wikipedia contiene almeno un errore Il titolo di questo box evidenzia il Paradosso dell'introduzione di David Makinson: se il testo seguente fosse totalmente corretto, quanto (falsamente) affermato sarebbe comunque vero, poiché l'errore consisterebbe nell'affermazione stessa. Cioè l'affermazione falsa sarebbe vera... A scanso di equivoci, l'errore non sussiste nel testo presente nella voce. Ma se quest'ultima affermazione ("l'errore non sussiste nel testo presente nella voce") fosse l'errore, allora l'articolo conterrebbe un errore. Quindi non credete ciecamente a quello che leggete, a meno che l'errore non sia questo consiglio (e così via...). Un paradosso, dal greco παρά (contro) e δόξα (opinione), è un ragionamento che appare contraddittorio, ma che deve essere accettato, oppure un ragionamento che appare corretto, ma che porta ad una contraddizione: si tratta, secondo la definizione che ne dà Mark Sainsbury, di "una conclusione apparentemente inaccettabile, che deriva da premesse apparentemente accettabili per mezzo di un ragionamento apparentemente accettabile". In filosofia ed economia il termine paradosso è usato spesso come sinonimo di antinomia. In matematica invece si distinguono i due termini: il paradosso consiste in una proposizione eventualmente dimostrata e logicamente coerente, ma lontana dall'intuizione; l'antinomia, invece, consiste in una vera e propria contraddizione logica. Il paradosso è un potente stimolo per la riflessione. Ci rivela sia la debolezza della nostra capacità di discernimento sia i limiti di alcuni strumenti intellettuali per il ragionamento. È stato così che paradossi basati su concetti semplici hanno spesso portato a grandi progressi intellettuali. Talvolta si è trattato di scoprire nuove regole matematiche o nuove leggi fisiche per rendere accettabili le conclusioni che all'inizio erano "apparentemente inaccettabili". Altre volte si sono individuati i sottili motivi per cui erano fallaci le premesse o i ragionamenti "apparentemente accettabili". Sin dall'inizio della storia scritta si hanno riferimenti ai paradossi: dai paradossi di Zenone alle antinomie di Immanuel Kant, fino a giungere ai paradossi della meccanica quantistica e della teoria della relatività generale, l'umanità si è sempre interessata ai paradossi. Un'intera corrente filosofico-religiosa, il buddhismo zen, affida l'insegnamento della sua dottrina ai koan, indovinelli paradossali. Paradossi nella vita comune Molti sono i paradossi in senso letterale, ossia contro l'opinione comune. Ad esempio, si parla molto del riscaldamento globale e dell'effetto serra. Secondo i modelli climatologici accettati, il riscaldamento dell'Artico, con il conseguente scioglimento dei ghiacci, causa il raffreddamento dell'Europa. Quindi l'aumento della temperatura a livello globale genera una diminuzione della stessa a livello locale. Questo è noto come paradosso dell'Artico. Molti paradossi sono alla base di trame di film famosi, ad esempio nel secondo Terminator, scopriamo che le macchine hanno origine dai resti del primo terminator inviato, una versione del classico paradosso del nonno. Meno noto è il paradosso del Comma 22 del codice di guerra dei Klingon, desunto quasi letteralmente dal romanzo Comma 22. I paradossi dei sensi Nelle neuroscienze sono noti molti paradossi dovuti all'imperfezione dei sensi, o all'elaborazione dei dati da parte della mente. Ad esempio, è possibile creare un suono che sembra crescere sempre, mentre in realtà è ciclico. Per il tatto, basta provare con un compasso a due punte: sul polpastrello si percepiscono due punte separate di pochi millimetri, mentre sulla schiena se ne percepisce solo una anche a qualche centimetro. Oppure si immergono le mani in due bacinelle di acqua una calda e una fredda; dopo un paio di minuti si immergono entrambe in una bacinella Paradosso 2 tiepida, e si avranno sensazioni contrastanti: fredda e calda. Le illusioni ottiche sono un altro esempio di paradossi sensoriali. Paradossi statistici In statistica uno dei fenomeni più strani che si hanno è il paradosso di Simpson, di cui si fa un esempio: su una certa malattia, l'ospedale X ha il 55% di successi, l'ospedale Y il 60%. Quindi converrebbe operarsi in Y. Se scomponiamo, a X sono 90% casi gravi, di cui il 50% è risolto (45% del totale), mentre i restanti 10% lievi hanno il 100% (10% sul totale) di successo. A Y il 40% sono casi lievi, di cui risolvono il 90%, (36%) e nel 60% di casi gravi il successo è del 40% (24%). Quindi in realtà conviene sempre operarsi in X. In pratica, l'interpretazione dei dati è falsata da parametri non considerati. I paradossi più antichi Il più antico paradosso si ritiene essere il paradosso di Epimenide, in cui il Cretese Epimenide afferma: "Tutti i cretesi sono bugiardi". Poiché Epimenide era originario di Creta, la frase è paradossale. A rigor di logica, moderna ovviamente, questo non è un vero paradosso: detta p la frase di Epimenide, o è vera p o è vera non p. Il contrario di p è Non tutti i cretesi sono bugiardi, ossia Qualche cretese dice la verità, Epimenide non è uno di quelli, e la frase è falsa. Tuttavia la negazione dei quantificatori non era ben chiara nella logica degli antichi greci. Subito dopo troviamo i paradossi di Zenone. Un altro famoso paradosso dell'antichità, questo sì irresolubile, è il paradosso di Protagora, più o meno contemporaneo di Zenone di Elea. Alcuni paradossi, poi, hanno preceduto di secoli la loro risoluzione: prendiamo ad esempio il paradosso di Zenone della freccia: "Il terzo argomento è quello della freccia. Essa infatti appare in movimento ma, in realtà, è immobile: in ogni istante difatti occuperà solo uno spazio che è pari a quello della sua lunghezza; e poiché il tempo in cui la freccia si muove è fatta di infiniti istanti, essa sarà immobile in ognuno di essi." Come si può distinguere la freccia in movimento da quella ferma, e smentire il paradosso? Oggi, ovvero più di due millenni dopo Zenone, sappiamo che, secondo il principio della relatività ristretta, una freccia in moto rispetto all'osservatore appare a questi più corta della stessa freccia ferma rispetto all'osservatore. Classificazione dei paradossi logici Esistono varie forme di classificazione dei paradossi. Secondo le loro implicazioni, i paradossi si dividono in: • Positivi a cui si arriva: un esempio ne è la teoria della relatività ristretta. Un paradosso nullo o retorico deriva dal tipico ragionamento sofista, che dimostra una cosa e il suo contrario, come i già citati paradossi di Zenone. Infine, i paradossi negativi portano il ragionamento a partire da un'ipotesi alla negazione della stessa, e sono in pratica una dimostrazione per assurdo della falsità dell'ipotesi di partenza. Di quest'ultimo tipo sono molti teoremi matematici e fisici, come ad esempio il teorema dell'infinità dei numeri primi o il teorema di Church. Se invece categorizziamo che cosa ci appare paradossale secondo i nostri sensi, abbiamo i paradossi visivi, auditivi, tattili, gustativi e olfattivi, più spesso indicati come anomalie o ambiguità, e i paradossi logici e matematici che sono categoria a sé. Paradosso 3 Paradossi dell'induzione Molti ritengono David Hume responsabile di aver introdotto il problema dell'induzione. In realtà, nella versione del paradosso del sorite, tale problema era noto sin dai tempi di Zenone, vero padre del pensiero paradossale. Il paradosso del sorite afferma: "Un granello di sabbia che cade non fa rumore, quindi nemmeno due, e nemmeno tre, e così via. Quindi nemmeno un mucchio di sabbia che cade fa rumore". Oppure il suo inverso: se tolgo un granello di sabbia ad un mucchio, è ancora un mucchio, così se ne tolgo due e così via. Tuttavia 10 granelli non fanno un mucchio. Qual è allora il granello che fa passare da un mucchio ad un non-mucchio? Anche se questo problema può essere risolto con la logica fuzzy, ponendo una funzione che al variare dei granelli restituisca un valore compreso tra 0 e 1, ben più difficile è la risoluzione del seguente paradosso: 1 è un numero piccolo se n è un numero piccolo, allora anche n+1 è un numero piccolo allora, per l'assioma dell'induzione, ogni numero naturale è piccolo Questi problemi sono i principali argomenti di discussione dell'epistemologia moderna, che fondamentalmente si riassumono nella domanda: Quando si può definire vera una teoria? Non tutto è vero quello che sembra (solito) A volte il buon senso, anche il buon senso matematico, può farci prendere degli abbagli. Un esempio lo troviamo nella storiella del tacchino induttivista: un tacchino (americano) aveva imparato che ogni mattina, più o meno alla stessa ora, il padrone gli portava da mangiare. Diligentemente memorizzava tutte le piccole differenze, finché, dopo giorni e giorni, poté essere soddisfatto di aver trovato una regola infallibile: tra le nove e le dieci di mattina arrivava inevitabilmente il cibo. Al passare delle settimane e dei mesi la regola trovò sempre conferme... fino al giorno del Ringraziamento, quando il tacchino fu calorosamente invitato sulla tavola della famiglia, come protagonista dell'arrosto tradizionale. Esempi più matematici, li troviamo nella teoria dei numeri, nello studio della distribuzione dei numeri primi. Dopo la sconfitta dell'ultimo teorema di Fermat, resta aperta la Congettura di Riemann sulla sua funzione zeta, che collega la distribuzione dei numeri primi con gli zeri di tale funzione. Finora se ne sono trovati miliardi (letteralmente) che giacciono sulla retta x=1/2, e la congettura che tutti gli zeri giacciano su questa linea potrebbe essere dunque accettata come vera. Ma smentite di quello che sembrerebbe evidente sono famose in matematica, e una riguarda proprio i numeri primi. La quantità di numeri primi inferiori ad un certo numero, diciamo n, solitamente indicata con approssimata dalla funzione logaritmo integrale, o Li(n), di Gauss, definita come: , può essere . Questo valore sembra essere sempre maggiore della vera distribuzione dei numeri primi, fino a numeri di centinaia di cifre. Tuttavia nel 1914 John Littlewood ha dimostrato invece che per x intero cambia di segno infinite volte. Nel 1986 Herman te Riele ha dimostrato addirittura che esistono più 10180 interi consecutivi per cui non è mai minore di 6,62×10370. Quindi, nonostante miliardi di esempi a favore, la verità o falsità della congettura (o ipotesi, visto che si pensa generalmente che sia vera) di Riemann è tuttora in discussione. Altra paradossale situazione è il teorema di Goodstein: si definisce una particolare funzione iterativa su numeri interi che inizialmente presenta una crescita esponenziale ma, venendo ridotta ad ogni iterazione di un semplice 1, dopo innumerevoli iterazioni ritorna a 0. Tornando al teorema, esso ha la caratteristica di non poter essere provato all'interno degli assiomi di base della teoria dei numeri (Assiomi di Zermelo - Fraenkel), e come previsto dal teorema Paradosso di incompletezza di Gödel, per la sua dimostrazione occorre aggiungere un assioma: l'esistenza dei cardinali transfiniti. Il paradosso della chiaroveggenza Uno dei paradossi più intriganti della teoria dei giochi è il paradosso di Newcomb, che riguarda il principio di dominanza, ed è il seguente. Supponiamo che esista un oracolo, che sostenga di sapere in anticipo quali saranno le mie decisioni. Egli mette in una busta 1.000.000 €, ma solo se sceglierò solo questa, altrimenti la lascia vuota. Poi mi vengono presentate due buste, una con sicuramente 1.000 €, e l'altra è quella dell'oracolo. Posso scegliere se prendere una sola busta o tutte e due. Se applico il principio di massima utilità, mi conviene prendere solo la seconda, e mi fido dell'oracolo. Se applico il principio di minima perdita, mi conviene sceglierle entrambe: se l'oracolo ha ragione, prendo almeno 1.000 €, se sbaglia 1.001.000 €. Il paradosso nasce dalla visione delle cose: se la scelta dell'oracolo si considera già effettuata al momento della scelta (ovvero l'oracolo è un ciarlatano che tira ad indovinare), applichiamo il principio di dominanza, e conviene prendere sempre entrambe le buste. Se invece ammettiamo che il comportamento dell'oracolo sia influenzato dalla nostra scelta, (ovvero che l'oracolo sia realmente preveggente) ammettiamo il principio di utilità e conviene prendere solo la prima. Uno dei due principi non è quindi razionale, oppure non esiste la preveggenza. Si possono trovare argomenti a favore di tutte e due le ipotesi. Tra l'altro, basta che l'oracolo indovini più del 50% delle volte. Diversamente, la chiaroveggenza potrebbe anche essere dannosa: supponiamo che ci sia una gara automobilistica in cui valga la regola "Perde chi sterza per primo". Due macchine sono lanciate l'una contro l'altra: se uno dei due è chiaroveggente, la strategia migliore per l'altro è non sterzare: il veggente lo sa, e quindi per evitare l'impatto sterzerà per primo. Lista dei paradossi più noti Questi sono alcuni paradossi fondamentali: • • • • • • • • • Paradossi di Zenone (esiste il movimento? : Achille e la tartaruga - La freccia) Paradosso del mentitore (che cosa è la "verità"?) Paradosso di Moore (che cosa significa "sapere"?) Paradossi dell'infinito Paradosso dell'ipergioco Paradosso dei gemelli (dalla teoria della relatività) Paradosso di Russell (o del barbiere) Antinomie kantiane Paradosso di d'Alembert Bibliografia • • • • • • • • Casati, R. e Varzi, A. C., Semplicità insormontabili - 39 storie filosofiche, Roma-Bari, Laterza, 2004. Clark, M., I paradossi dalla A alla Z, Milano, Cortina, 2004. Sorensen, R., A Brief History of the Paradox, Oxford, Oxford University Press, 2003. Rescher, N., Paradoxes: Their Roots, Range, and Resolution, La Salle (IL), Open Court, 2001. Odifreddi, P., C'era una volta un paradosso - Storie di illusioni e verità rovesciate, Torino, Einaudi, 2001. Falletta, N., Il libro dei paradossi, Milano, Longanesi & C., 2001. Sainsbury, R. M., Paradoxes, Cambridge, Cambridge University Press, 1988. te Riele, H.J.J., On the sign of the difference pi(x) - li(x), Math. Comp. 48, 1987 pp. 323-328 4 Paradosso 5 Voci correlate • • • • • • Antinomia Dilemma Logica Matematica Ossimoro Sillogismo Altri progetti • • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Paradox Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/paradosso • Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Paradosso Collegamenti esterni • Paradossi [1] Note [1] http:/ / ulisse. sissa. it/ biblioteca/ saggio/ 2004/ Ubib040301s001/ at_download/ file/ Ubib040301s001. pdf Elenco di paradossi Questa pagina contiene un elenco di paradossi. A • • • • • • • • Paradosso di Abilene Paradosso di Achille e la tartaruga Paradosso dell'Alabama Paradosso dell'area scomparsa Teorema dell'impossibilità di Arrow Paradosso dell'ascensore Paradosso asiatico Paradosso dell'avvocato B • • • • • • • • • Paradosso di Banach-Tarski Paradosso del barbiere Paradosso della bella addormentata Paradosso di Berry Paradosso di Bertrand Paradosso del bibliotecario Paradosso di Borel Paradosso di Braess Paradosso di Burali-Forti Elenco di paradossi • Paradosso di Buridano • Paradosso delle due buste C • • • • • • • Paradossi dei cavalli Paradosso del Comma 22 Paradosso del compleanno Paradosso di Condorcet Paradosso del controllo Paradosso dei corvi Paradosso di Curry D • Paradosso di D'Alembert • Paradosso Downs-Thomson E • • • • • Paradosso dell'edonismo Paradosso Einstein-Podolsky-Rosen Paradosso di Epicuro Paradosso di Epimenide (Paradosso del mentitore) Esperimento immaginato F • Paradosso di Fermi G • • • • • • • • Paradosso dei due gelatai Paradosso di Galileo Paradosso del gatto di Schrödinger Paradosso dei gemelli Paradosso di Gibbs Paradosso di Giffen Limite di Greisen-Zatsepin-Kuzmin Paradosso dell'eterologicità di Grelling-Nelson 6 Elenco di paradossi H • Paradosso di Hausdorff • Paradosso del Grand Hotel di Hilbert I • • • • Paradosso dell'impiccagione imprevedibile Paradosso dell'introduzione Paradosso idrodinamico Paradosso idrostatico K • Rompicapo della tossina di Kavka L • Paradosso della linea scomparsa • Paradosso di Loschmidt • Paradosso dei neonati sottopeso M • • • • • • Paradosso del mentitore (Paradosso di Epimenide) Problema di Monty Hall Paradosso di Moore Effetto Mpemba Paradosso del mucchio (Paradosso del sorite) Paradosso della mera N • • • • Paradosso di Newcomb Paradosso del nonno Paradosso dei numeri interessanti Paradosso della negazione applicata a sé stessa O • Paradosso di Olbers • Paradosso dell'onnipotenza • Paradosso dell'onniscienza 7 Elenco di paradossi P • • • • Paradosso di Pigou-Knight-Downs Paradosso delle premesse inconsistenti Paradosso della predestinazione Paradosso di Protagora Q • Paradosso di Quine R • Paradosso di Richard • Paradosso di Russell S • Paradosso di San Pietroburgo • • • • • • Paradosso di Sen Paradosso di Simpson Paradosso di Smale Paradosso del sorite (paradosso del mucchio) Paradosso della spartizione Paradosso di Smiraglia T • • • • Paradosso della nave di Teseo Paradosso teologico Paradosso della tromba di Torricelli Paradosso delle tre carte V • Paradosso della votazione 8 Elenco di paradossi U • Paradosso dell'uovo e della gallina W • Fenomeno di Will Rogers Z • Paradossi di Zenone Voci correlate • Indici per la matematica • Categoria:Paradossi Algebra di Boole In matematica, informatica ed elettronica, l'algebra di Boole, anche detta algebra booleana o reticolo booleano, è un ramo dell'algebra astratta che comprende tutte le algebre che operano con i soli valori di verità 0 o 1, detti variabili booleane o logiche. La struttura algebrica studiata dall'algebra booleana è finalizzata all'elaborazione di espressioni nell'ambito del calcolo proposizionale. Essendo un reticolo dotato di particolari proprietà, l'algebra booleana risulta criptomorfa, cioè associata biunivocamente e in modo da risultare logicamente equivalente, ad un insieme parzialmente ordinato reticolato. Ogni algebra booleana risulta criptomorfa ad un particolare tipo di anello, chiamato anello booleano. Tale algebra permette di definire gli operatori logici AND, OR e NOT, la cui combinazione permette di sviluppare qualsiasi funzione logica e consente di trattare in termini esclusivamente algebrici le operazioni insiemistiche dell'intersezione, dell'unione e della complementazione, oltre a questioni riguardanti singoli bit 0 e 1, sequenze binarie, matrici binarie e diverse altre funzioni binarie. L'algebra di Boole, sviluppata nel 1854 da George Boole, un matematico inglese dell'University College di Cork, assume un ruolo importante in vari ambiti, in particolare nella logica matematica e nell'elettronica digitale, dove nella progettazione dei circuiti elettronici riveste grande importanza il teorema di Shannon, introdotto da Claude Shannon intorno al 1940 e utilizzato per scomporre una funzione booleana complessa in funzioni più semplici, o per ottenere un'espressione canonica da una tabella della verità o da un'espressione non canonica. Definizione L'algebra di Boole tratta l'algebra universale dell'algebra a due stati e dei modelli di tale teoria, detti algebre booleane. L'algebra universale è la famiglia di operazioni su un insieme, detto insieme fondamentale della famiglia algebrica, che nel caso della struttura algebrica booleana contiene i soli valori 0 e 1. Il numero degli argomenti che richiede una funzione sull'insieme fondamentale è detto arietà: un'operazione su {0,1} di arietà n può essere applicata ad ognuno dei 2n possibili valori dei suoi n argomenti. Per ogni scelta di argomenti l'operazione può produrre i soli risultati 0 e 1, donde ci sono 22n operazioni di n argomenti. L'algebra a due stati possiede due operazioni con nessun argomento, i valori 0 e 1, e quattro operazioni con un solo argomento: due operazioni costanti, l'identità e la negazione, ques'tultima da come risultato 0 se l'argomento è 1 e viceversa. Vi sono poi sedici operazioni binarie: due costanti, due che danno come risultato rispettivamente solo il primo argomento e solo il secondo, la congiunzione, che produce 1 se entrambi gli argomenti sono 1 e dà 0 9 Algebra di Boole 10 altrimenti; la disgiunzione, che produce 0 se entrambi gli argomenti sono 0 e dà 1 altrimenti; e così via. Il numero di operazioni con n+1 argomenti è il quadrato del numero delle operazioni con n argomenti, sicché vi sono 162 = 256 operazioni ternarie, 2562 = 65.536 operazioni quaterniarie e così via. Una famiglia, detta anche indice, è indicizzata da un insieme di indici, che nel caso di una famiglia di operazioni costituenti un'algebra sono detti simboli dell'operazione e costituiscono il linguaggio dell'algebra in oggetto. L'operazione indicizzata da un dato simbolo è detta interpretazione di tale simbolo, ed ogni simbolo definisce il numero univoco di argomenti delle rispettive interpretazioni possibili. Nel caso considerato vi è una corrispondenza biunivoca tra simbolo e interpretazione. L'algebra di Boole ha 22n simboli, e dunque lo stesso numero di operazioni, detti simboli di operazione booleana; anche se poche operazioni hanno simboli convenzionali, quali ¬ per la negazione, ∧ per la congiunzione e ∨ per la disugiunzione. In generale si indica con nfi l'i-esimo simbolo di n argomenti. Basi Una base è un insieme di operazioni la cui composizione permette di ottenere tutte le operazioni appartenenti all'algebra. Le tre principali basi usate nell'algebra booleana sono: • Il reticolo, una base logica introdotta nel diciannovesimo secolo da George Boole, Charles Sanders Peirce e altri matematici che cercavano una formalizzazione algebrica dei processi logici. • L'anello booleano, una base aritmetica introdotta nel ventesimo secolo da Ivan Ivanovich Zhegalkin e Marshall Stone che proviene dall'algebra astratta. • La base NAND, originata dal fatto che tramite l'operazione di NAND è possibile ottenere tutte le operazioni sull'insieme {0,1}. Tale base è utilizzata in particolare nella configurazione dei circuiti logici in elettronica digitale. Gli elementi comuni a reticolo e anello sono le costanti 0 e 1 ed un'operazione binaria associativa e commutativa, che nella base del reticolo è detta incontro, dal termine inglese meet, e denotata tra due elementi x e y dal simbolo x∧y, mentre nella base dell'anello è detta moltiplicazione e denotata xy. La base del reticolo ha inoltre le operazioni algebriche di unione x∨y e complemento ¬x, mentre la base dell'anello ha l'ulteriore operazione aritmetica di addizione x⊕y o x+y. Reticolo Nella base del reticolo ad un'algebra booleana (A, , ) si associa un insieme parzialmente ordinato (A, ), definendo: che è anche equivalente a È possibile anche associare un'algebra booleana ad un reticolo distributivo (A, ), considerato come insieme parzialmente ordinato, dotato di elemento minimo 0 e di elemento massimo 1, in cui ogni elemento x ha un complementare tale che e Qui e sono usati per denotare l'inf ed il sup di due elementi. Se i complementi esistono, allora sono unici. Algebra di Boole 11 Anello La base dell'anello della generica algebra booleana (A, , ) è definita come (A, +, *), definendo a + b := (a b) (b a ). In tale anello l'elemento neutro per la somma coincide con lo 0 dell'algebra booleana, mentre l'elemento neutro della moltiplicazione è l'elemento 1 dell'algebra booleana. Questo anello ha la proprietà che a * a = a per ogni a in A; gli anelli con questa proprietà sono chiamati anelli booleani. Viceversa, assegnato un anello booleano A, possiamo trasformarlo in un'algebra booleana definendo x y=x+y− x yex y = x y. Poiché queste due operazioni sono l'una l'inversa dell'altra, possiamo affermare che ogni anello booleano è criptomorfo di un'algebra booleana e viceversa. Inoltre, una funzione f : A B è un omomorfismo tra algebre booleane se e soltanto se è un omomorfismo tra anelli booleani. La categoria degli anelli booleani e delle algebre booleane sono equivalenti. Un anello ideale dell'algebra booleana A è un sottoinsieme I tale che per ogni x, y in I si ha x y in I e per ogni a in Aa x in I. Questa nozione di ideale coincide con la nozione di anello ideale negli anelli booleani. Un ideale I di A è detto primo se I A e se a b in I implica sempre a in I o b in I. Un ideale I di A è detto massimale se I Ae se l'unico ideale proprio contenente I è A stesso. Questa notazione coincide con la notazione teorica del ideale primo e ideale massimale nell'anello booleano A. Il duale di un ideale è un filtro. Un filtro dell'algebra booleana A è un sottoinsieme F tale che per ogni x, y in F si ha x y in F e per ogni a in A se a x = a allora a è in F. L'operazione di complementazione * applicata ai sottoinsiemi manda dunque gli ideali in filtri e viceversa: se B è un'algebra booleana e un suo ideale (proprio), allora è il filtro (proprio) duale di I. Se invece è un filtro (proprio), l'ideale (proprio) duale di F. Sheffer stroke La base Sheffer stroke o NAND si basa sulle operazioni NOT e AND, tramite le quali è possibile ottenere tutte le operazioni booleane. Un'algebra booleana può essere definita sia da NOT e AND che da NOT e OR, essendo possibile definire OR attraverso NOT e AND così come AND attraverso NOT e OR: La collezione di tutti i sottoinsiemi di un dato insieme, ovvero l'insieme delle parti o insieme ambiente, munita delle operazioni di unione, intersezione e complementazione di insiemi, che giocano rispettivamente il ruolo di OR, AND e NOT, costituisce un'algebra booleana. Più formalmente, se B è un insieme formato da almeno 2 elementi, l'algebra booleana avente B come supporto è la struttura algebrica costituita da B, da due operazioni binarie su B, OR e AND, da un'operazione unaria NOT su B e dall'elemento 0 di B, i quali godono delle seguenti proprietà: • Simmetria di AND: • Simmetria di OR: • Involuzione di NOT: • Leggi di De Morgan: L'insieme B è inoltre limitato inferiormente, essendo: L'elemento 1 è definito come la negazione, o il complementare, dello 0: 1 := NOT(0). L'insieme B è dunque limitato superiormente, essendo: ed in particolare 0 AND 1 = 0 ; 0 OR 1 = 1 Algebra di Boole Si definisce inoltre, come operazione derivata dalle precedenti, l'operatore binario OR esclusivo, denotato XOR: In questa algebra all'operatore XOR corrisponde la differenza simmetrica: In elettronica la porta logica NAND è costituita da n ingressi e un'uscita che si porta a livello 0 solo se gli n ingressi si portano a livello 1. È corrispondente alla connessione in serie di una porta AND e di una NOT. Operatori booleani Gli operatori dell'algebra booleana possono essere rappresentati in vari modi. Spesso sono scritti semplicemente come AND, OR e NOT. Nella descrizione dei circuiti, possono anche essere usati NAND (NOT AND), NOR (NOT OR) e XOR (OR esclusivo). Esistono diverse simbologie per rappresentare gli operatori, scelte in base al campo in cui si lavora: i matematici usano spesso il simbolo + per l'OR, e × per l'AND, in quanto per alcuni versi questi operatori lavorano in modo analogo alla somma e alla moltiplicazione. La negazione NOT viene rappresentata spesso da una linea disegnata sopra l'argomento della negazione, cioè dell'espressione che deve essere negata. Oppure in informatica si utilizza il simbolo | o || per l'OR, & o && per l'AND, e ~ per NOT (es. A OR B AND NOT C equivale a A|B & ~C). Nella progettazione di circuiti elettronici, vengono utilizzati anche gli operatori brevi NAND (AND negato), NOR (OR negato) e XNOR (XOR negato): questi operatori, come XOR, sono delle combinazioni dei tre operatori base e vengono usati solo per rendere la notazione più semplice. Operatori: • • • • • • • NOT - simboli alternativi: x, ~, ¬, ! AND - simboli alternativi: *, , &, BUT (usato nella logica booleana insieme al NOT) OR - simboli alternativi: +, |, XOR - simboli alternativi: , +, ⊕, ∨, ^, EOR, orr NAND - simbolo alternativo: ↑ NOR - simbolo alternativo: ↓ XNOR Valori: • vero - simboli alternativi: true, 1, ON, SI (YES) • falso - simboli alternativi: false, 0, OFF, NO In elettronica digitale viene definito vero un bit 1, sia in Input che in Output, che di solito assume il valore di 5 V, mentre viene definito falso un bit 0, sia in Input che in Output, che assume il valore di 0 V. Di seguito sono indicati gli operatori più comuni e le rispettive porte logiche: NOT L'operatore NOT restituisce il valore inverso a quello in entrata. Una concatenazione di NOT è semplificabile con un solo NOT in caso di dispari ripetizioni o con nessuno nel caso di pari. 12 Algebra di Boole 13 A NOT A 0 1 1 0 Spesso, al fine di semplificare espressioni complesse, si usano operatori brevi che uniscono l'operazione di NOT ad altre: questi operatori sono NOR (OR + NOT), NAND (AND + NOT), XNOR (XOR + NOT). La negazione, in questi casi, viene applicata dopo il risultato dell'operatore principale (OR, AND, XOR). Il simbolo di una porta NOT è OR L'operazione logica OR restituisce 1 se almeno uno degli elementi è 1, mentre restituisce 0 in tutti gli altri casi. Tale operazione è anche detta somma logica. A B A OR B 0 0 0 0 1 1 1 0 1 1 1 1 Nella teoria degli insiemi corrisponde all'unione. Il simbolo di una porta OR è: AND L'operazione AND dà come valore 1 se tutti gli operandi hanno valore 1, mentre restituisce 0 in tutti gli altri casi. Tale operazione è anche detta prodotto logico. A B A AND B 0 0 0 0 1 0 1 0 0 1 1 1 È possibile realizzare un'operazione logica AND con un numero di proposizioni arbitrarie concatenando varie AND a due ingressi, per esempio: Nei circuiti digitali, la porta logica AND è un meccanismo comune per avere un segnale di vero se un certo numero di altri segnali sono tutti veri. Nella teoria degli insiemi corrisponde all'intersezione. Il simbolo di una porta AND è: Algebra di Boole 14 XOR L'operatore XOR, detto anche EX-OR, OR esclusivo o somma modulo 2, restituisce 1 se e solo se la somma degli operandi uguali ad 1 è dispari, mentre restituisce 0 in tutti gli altri casi. A B A XOR B 0 0 0 0 1 1 1 0 1 1 1 0 Nella teoria degli insiemi corrisponde alla differenza simmetrica. Per passare nella forma canonica SP (somma di prodotti) basta applicare la regola: A⊕B dove ⊕ è il simbolo di XOR. Il simbolo di una porta XOR è: Buffer Buffer è la negazione del risultato dell'operazione NOT; restituisce il valore uguale a quello in entrata. Il Buffer non è un vero e proprio operatore, poiché in realtà non manipola l'informazione che riceve, bensì la lascia passare invariata; il Buffer dunque è semplificabile con un collegamento privo di operatori. A Buffer A 0 0 1 1 Il simbolo di una porta Buffer è: composta da un NOT in serie ad un altro NOT. NOR L'operatore NOR, la negazione del risultato dell'operazione OR, restituisce 1 se e solo se tutti gli elementi sono 0, mentre restituisce 0 in tutti gli altri casi. Algebra di Boole 15 A B A NOR B 0 0 1 0 1 0 1 0 0 1 1 0 Il simbolo di una porta NOR è: composta da un NOT in serie ad un OR. NAND L'operatore NAND, la negazione del risultato dell'operazione AND, restituisce 0 se e solo se tutti gli elementi sono 1, mentre restituisce 1 in tutti gli altri casi. A B A NAND B 0 0 1 0 1 1 1 0 1 1 1 0 Il simbolo di una porta NAND è: composta da un NOT in serie ad un AND. XNOR L'operatore XNOR, detto anche EX-NOR, è la negazione del risultato dell'operazione XOR; nella sua versione a due elementi restituisce 1 se tutti gli elementi sono uguali a 1 oppure se tutti gli elementi sono uguali a 0. A B A XNOR B Il simbolo di una porta XNOR è: composta da un NOT in serie ad un XOR. 0 0 1 0 1 0 1 0 0 1 1 1 Algebra di Boole 16 Esempi Questa algebra ha applicazioni nella logica, dove 0 è interpretato come "falso", 1 come vero, è OR, è AND e è "NOT". Le espressioni che coinvolgono le variabili e le operazioni booleane rappresentano forme dichiarative; due espressioni possono essere equivalenti utilizzando i suddetti assiomi se e soltanto se le forme dichiarative corrispondenti sono logicamente equivalenti. L'algebra booleana binaria, inoltre, è usata per il disegno di circuiti nell'ingegneria elettronica; qui 0 e 1 rappresentano le due condizioni differenti di un bit in un circuito digitale, in genere bassa e alta tensione. I circuiti sono descritti da espressioni che contengono delle variabili e due espressioni sono uguali per tutti i valori delle variabili se e soltanto se i circuiti corrispondenti hanno la stessa funzione di trasferimento. Ogni combinazione dei segnali in ingresso in uscita dal componente può essere rappresentata da un'adeguata espressione booleana L'algebra booleana a due stati è inoltre importante nella teoria generale delle algebre booleane, perché un'equazione che coinvolge parecchie variabili è generalmente vera in ogni algebra booleana se e soltanto se è vera nell'algebra booleana a due stati. Ciò può, per esempio, essere usato per indicare che le seguenti leggi ( teoremi di consenso ) sono generalmente valide in ogni algebra booleana: • Il raggruppamento di un generico insieme S, forma un'algebra booleana con le due operazioni = unione e intersezione. Il più piccolo elemento 0 è l'insieme vuoto ed il più grande elemento 1 è l'insieme S stesso. = • L'insieme di tutti i sottoinsiemi di un insieme S che sono limitati è un'algebra booleana. • Per ogni numero naturale n, l'insieme di tutti i divisori positivi di n forma un reticolo distributivo se scriviamo per a divide b. Questo reticolo è un'algebra booleana se e soltanto se per ogni n non vi sono divisori quadrati. Il più piccolo elemento,che in generale indichiamo con lo 0, in questa algebra booleana è il numero naturale 1; mentre l'elemento che usualmente indichiamo con l'1 in questi insiemi è l'elemento "n". • Altri esempi di algebre booleane sono dati dagli spazi topologici: se X è uno spazio topologico, allora l'insieme di tutti i sottoinsiemi di X che siano aperti o chiusi formano un'algebra booleana con le operazioni = unione e = intersezione. • Se R è un anello arbitrario dove è definito un insieme idempotente tipo: A = { a in R : a2 = a e a x = x a per ogni x in R } L'insieme A diventa un'algebra booleana con le operazioni a b = a + b − a b ed a b = a b. Omomorfismi ed isomorfismi Un omomorfismo tra due algebre booleane A e B è una funzione f: A 1. 2. 3. 4. f( a b ) = f( a ) f( a b ) = f( a ) f(0) = 0 f(1) = 1 B tale che per ogni a, b in A: f( b ) f( b ) Da queste proprietà segue anche f( a) = f(a) per ogni a in A. Ogni algebra booleana, con la definizione di omomorfismo, forma una categoria. Un isomorfismo da A su B è un omomorfismo da A su B che è biiettivo. L'inverso di un isomorfismo è ancora un isomorfismo, e le due algebre booleane A e B si dicono isomorfe. Dal punto di vista della teoria dell'algebra booleana, due algebre booleane isomorfe non sono distinguibili, ma differiscono soltanto nella notazione dei loro elementi. Algebra di Boole Espressioni booleane All'interno di ciascuna algebra di Boole, dato un insieme di variabili e le operazioni correlate, è possibile definire delle espressioni che vengono ad assumere un determinato valore ottenibile anche sotto forme diverse. Possono esistere cioè delle espressioni che, pur essendo differenti, si rivelino equivalenti. Oltre al fatto che le espressioni booleane assumono una particolare importanza per quanto riguarda il calcolo proposizionale, in cui le variabili sono proposizioni legate tramite congiunzioni, disgiunzioni, negazioni ed altre operazioni più complesse, possono esistere moltissime altre espressioni, accomunate sempre dalle proprietà e dagli assiomi booleani, nelle quali si sostituisce spesso l'operazione + (comunemente detta somma) con ∨ e * (comunemente detta prodotto) con ∧ e in cui la complementazione è indicata col simbolo ' . Per poter presentare nel modo più efficiente una espressione booleana, la si riduce in somma di prodotti fondamentali o forma normale disgiuntiva. Un prodotto fondamentale è un prodotto in cui ciascuna variabile, o il suo complemento, appaia una sola volta e rigorosamente fuori da parentesi o complementazioni complesse. Ad esempio, date le variabili x, y, z all'interno di un'algebra di Boole, sono prodotti fondamentali • P(x,y,z) = xy • P(x,y,z) = x'yz' Mentre non sono prodotti fondamentali • yyz • yy'z • (xy)' È così possibile avere una somma di prodotti fondamentali, forma in cui ogni espressione può essere ridotta, ma che non è unica. Un esempio è: xy + xz + z'. Nel momento in cui ogni singola variabile, o il suo complemento, siano contenuti in tutti i prodotti fondamentali della forma normale disgiuntiva, si ha allora una somma di prodotti fondamentali completa o forma normale disgiuntiva completa. Tale scrittura è unica, pertanto se due espressioni sono equivalenti avranno la stessa forma normale disgiuntiva completa. Se si desidera invece che un'espressione sia scritta nel modo più corto possibile, allora la si esprime in somma di implicanti prime o minimali (Minimizzazione di Quine-McQluskey). Un'implicante prima (o minimale) rispetto a un'espressione è un prodotto fondamentale che non altera l'espressione se sommato per intero ad essa, cioè restituisce un risultato equivalente a quella iniziale; sommando un prodotto strettamente contenuto nell'implicante, tuttavia, non si ottiene un'equivalenza. Per individuare tutte le implicanti prime, esistono varie tecniche, tra cui il metodo del consenso, che si basa sull'applicazione ciclica delle proprietà di assorbimento, idempotenza, involuttività e di De Morgan accompagnate ad ogni passo dall'opportuna addizione di un consenso. Dati due prodotti fondamentali, se solo e solo se una variabile appare in uno di essi non negata e nell'altro negata chiamiamo consenso il risultato della moltiplicazione delle restanti variabili. Ad esempio: • dati P = xyz, Q = x'z il consenso sarà C = yzz = yz • dati P = xy' Q= xy il consenso sarà C = xx = x • dati P = xyz e Q = x'yz' non esiste consenso, in quanto due diverse variabili appaiono una volta negate e una volta no. La somma di implicanti prime è unica, pertanto due espressioni equivalenti avranno la stessa. Nel momento in cui, completando ogni singola implicante prima, l'apporto all'espressione di una o più di esse è inutile in quanto contenuta nelle altre, la si può eliminare ottenendo la più essenziale delle scritture, la forma minimale. Essa, pur essendo comoda, ha l'inconveniente di non essere unica, e dunque di non consentire l'individuazione di equivalenze tra più espressioni. 17 Algebra di Boole Rappresentazione delle algebre booleane Si può dimostrare che ogni reticolo booleano finito è isomorfo al reticolo booleano di tutti i sottoinsiemi di un insieme finito. Di conseguenza, il numero di elementi di ogni reticolo booleano finito ha un sostegno che contiene un numero di elementi uguale ad una potenza di 2. Marshall Stone ha enunciato il celebre teorema di rappresentazione per le algebre booleane dimostrando che ogni algebra booleana "A" è isomorfa a tutte le algebre booleane aperte-chiuse in un certo spazio topologico, detto compatto non connesso di Hausdorff Voci correlate • • • • • • • 06-XX, sezione primaria dello schema di classificazione MSC 2000 Algebra di insiemi Diagramma di Venn Forma canonica Funzione booleana Mappa di Karnaugh Porta logica • • • • • • • Sistema formale Sistema numerico binario Tabella della verità Teorema dell'assorbimento Teorema di Shannon (elettronica) Teoremi di De Morgan Progetto:Matematica/Elenco di voci sull'algebra booleana Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:XNOR gates Collegamenti esterni • Panoramica ed esempi sulle Operazioni Booleane [1] Note [1] http:/ / portalesapere. altervista. org/ viewtopic. php?topic=Algebra-di-Boole 18 Antinomie kantiane Antinomie kantiane Le antinomie kantiane si riferiscono ad "antinomia" (dal greco αντι, preposizione che indica una contrapposizione, e νομος, legge), un particolare tipo di ragionamento che indica la compresenza di due affermazioni contraddittorie, ciascuna delle quali in confronto all'altra potrebbe esser vera o falsa. In questa situazione non è ovviamente possibile applicare il principio di non-contraddizione. Kant è stato il primo ad applicare la parola "antinomia" nel linguaggio filosofico.[1] La Dialettica trascendentale Kant tratta delle antinomie [2] nella Critica della ragion pura e più precisamente nella critica della "Cosmologia razionale" [3] contenuta nella Dialettica trascendentale dove il filosofo tedesco intende motivare la necessità profonda che spinge l'uomo ad indagare su argomenti che vanno oltre l'esperienza tramite ragionamenti fallaci. Ciò è infatti dovuto al desiderio innato della mente umana che la spinge a voler trovare un sapere totale della realtà mentre la sua conoscenza non può andare oltre i limiti della contingente esperienza sensibile. Questo esigenza di totalità si esprime in tre idee che non hanno un reale contenuto empirico ma che esprimono soltanto un bisogno metafisico di totalità che non potrà essere soddisfatto. • idea dell'anima: intesa come una totalità dei fenomeni interni; • idea del mondo (o cosmo): inteso come totalità dei fenomeni esterni; • idea di Dio: come totalità di tutte le totalità e fondamento di ogni cosa. A ciascuna di queste tre idee viene associata una presunta scienza che, procedendo erroneamente oltre il limiti del pensiero, giunge a conclusioni sbagliate. • L'anima è studiata dalla psicologia razionale dove si dimostra l'impossibilità di conoscerla scientificamente; • Dio è invece l'oggetto di studio della teologia razionale che non potrà mai dimostrarlo razionalmente; • la cosmologia razionale. La cosmologia razionale Il mondo infine, come la totalità dei fenomeni esterni, è studiato dalla cosmologia razionale che pretende di riuscire a spiegare il cosmo nella sua totalità, cosa impossibile a partire dal fatto che è impossibile avere un'esperienza di tutti i fenomeni. Pertanto i metafisici, quando tentano di spiegare l'universo, cadono in procedimenti razionali contraddittori in se stessi: le antinomie, cioè due ragionamenti egualmente veri e falsi poiché, mancando un criterio valido basato sull'esperienza, è impossibile operare una scelta. Prima antinomia Finito <--> Infinito • Tesi: il mondo ha un inizio nel tempo e, nello spazio, è chiuso dentro limiti. • Antitesi: Il mondo è infinito sia nel tempo che nello spazio. Nella dimostrazione Kant fa riferimento alla categoria della qualità.[4] Seconda antinomia. Divisibilità <--> Indivisibilità • Tesi: ciascuna cosa è composta da parti semplici che costituiscono altre cose composte da parti semplici. • Antitesi: non esiste nulla di semplice, ogni cosa è complessa. Nella dimostrazione Kant fa riferimento alla categoria della quantità. 19 Antinomie kantiane Terza antinomia Libertà <--> Causalità • Tesi: La causalità secondo le leggi della natura non è la sola da cui possono essere derivati tutti i fenomeni del mondo. È necessario ammettere per la spiegazione di essi anche una causalità per la libertà. • Antitesi: Nel mondo non c'è nessuna libertà, ma tutto accade unicamente secondo leggi della natura. Nella dimostrazione Kant fa riferimento alla categoria della relazione Quarta antinomia Dio causa prima <--> Natura • Tesi: esiste un essere necessario che è causa del mondo. • Antitesi: non esiste alcun essere necessario, né nel mondo né fuori dal mondo che sia causa di esso. Nella dimostrazione Kant fa riferimento alla categoria della modalità. Le antinomie rapportate al pensiero scientifico moderno Prima antinomia La moderna cosmologia si ritrova nella tesi della prima antinomia con la teoria del Big Bang che ipotizza la formazione iniziale dell'universo dal nulla. Invece l'antitesi vale in alcune altre ipotesi cosmologiche, ad esempio nel modello inflazionario o nella teoria dello stato stazionario che sono alternativi alle ipotesi che assumono un Big Bang nell'origine dell'universo. La sua base filosofica è il cosiddetto Principio cosmologico perfetto, che afferma che il nostro punto di osservazione dell'Universo non sarebbe per nulla particolare, non solo dal punto di vista della posizione, ma anche da quello temporale: non solo l'uomo, la Terra, il Sole o la Via Lattea non sono al centro dell'Universo (né in alcun'altra posizione privilegiata), ma su scala cosmologica anche l'epoca in cui viviamo non sarebbe significativamente differente da ogni altra. L'universo su grande scala sarebbe quindi eterno ed immutabile. Seconda antinomia La fisica delle particelle è ancora alla ricerca dei costituenti ultimi della materia, e tuttavia anche questi, per via delle proprietà della meccanica quantistica, possono essere interpretati come sovrapposizioni di più stati o particelle. Altri modelli, come la teoria delle stringhe ritornano alla teoria del continuo, ritenendo le particelle "proiezioni" in 3 dimensioni delle stringhe, definite continue, che ne hanno invece 10 o 11. Altre teorie ancora, come la gravitazione quantistica a loop, ritengono invece che esistano granelli indivisibili (quanti) persino dello spaziotempo. Terza antinomia Sebbene la teoria delle variabili nascoste nella meccanica quantistica sia ormai screditata, e quindi varrebbe la tesi della terza antinomia, esistono dimostrazioni di come il comportamento quantistico possa emergere da sistemi complessi e non lineari, anche se nessuno sa come darne prova sperimentale. Quarta antinomia I lavori di John Conway sui numeri surreali e la prova ontologica di Kurt Gödel sono esempi di come sia possibile "inserire matematicamente" una causa prima a conferma della tesi della quarta antinomia. 20 Antinomie kantiane Note [1] In Enciclopedia Treccani alla voce corrispondente. [2] Fonti primarie in S. Caramella, Commentari alla ragion pura, Palumbo, Palermo 1956 e C. Luporini, Spazio e materia in Kant, Sansoni, Firenze 1961 [3] Il termine "razionale" in Kant rimanda alla "ragione" in senso stretto da lui intesa in questa occasione come organo della metafisica. [4] Posso sostenere che l'universo sia finito poiché posso riferirmi a tutte le mie precedenti esperienze che sono finite. Ma, poiché ogni limite implica l'esistenza di qualcosa posta al di là del limite stesso, posso invece sostenere che l'universo sia infinito. Ma nessuno può dire di avere empiricamente raggiunto il limite estremo, il confine ultimo dell'universo. Lo stesso schema di ragionamento (finito <--> infinito) si applica alle altre antinomie utilizzando diverse categorie usate qui impropriamente perché esse valgono solo per l'intelletto che si applica all'esperienza limitata. Bibliografia • • • • • Nicola Abbagnano; Giovanni Fornero, Itinerari di filosofia, Torino, Paravia, 2003. C. Cantoni, Emanuele Kant, Hoepli, Milano, 1879-1884, 3 voll. F. Paulsen, I.Kant, trad. it. a cura di A. B. Sesta, Sandron, Milano 1920 G. Simmel, Kant, trad.it. Cedam, Padova, 1920 E. P. Lamanna, Kant, Milano 1925 Voci correlate • Critica della ragion pura • Immanuel Kant 21 Aristotele 22 Aristotele Aristotele (in greco: Ἀριστοτέλης, Aristotéles; Stagira, 384 a.C. o 383 a.C.[1] – Calcide, 322 a.C.) è stato uno scienziato e filosofo greco antico, noto come il "filosofo dell'immanenza". È considerato una delle menti filosofiche più innovative, prolifiche e influenti del mondo antico occidentale, dove era stimato come l'emblema dell'uomo sapiente per la vastità dei suoi campi di conoscenza, di cui fu un precursore di scoperte. Aristotele. Dettaglio dalla Scuola di Atene di Raffaello Sanzio (1509). Biografia Aristotele nacque nel 384/3 a.C. a Stagira, l'attuale Stavro, città macedone nella penisola Calcidica, situata sulla costa nord-orientale della Grecia. Si dice che il padre, Nicomaco, sia vissuto presso Aminta, re dei Macedoni, prestandogli i servigi di medico e di amico. Aristotele, come figlio del medico reale, doveva pertanto risiedere nella capitale del Regno di Macedonia, Pella. Fu probabilmente per l'attività di assistenza al lavoro del padre che Aristotele fu avviato alla conoscenza della fisica e della biologia, aiutandolo nelle dissezioni anatomiche.[2] Resti delle mura di Stagira Secondo gli studiosi la biografia di Aristotele può essere [3] suddivisa in tre periodi. Il primo periodo ebbe inizio quando, rimasto orfano in tenera età, dovette trasferirsi dal tutore Prosseno ad Atarneo, cittadina dell'Asia Minore nella regione della Misia situata nel nord-ovest dell'attuale Turchia, di fronte all'isola di Lesbo. Prosseno, verso il 367 a.C., lo mandò ad Atene per studiare nell'Accademia fondata da Platone circa vent'anni Aristotele 23 prima, dove rimarrà fino alla morte del suo maestro. Aristotele non fu dunque mai un cittadino di Atene, ma un meteco. Quando il diciassettenne Aristotele entra nell'Accademia, Platone è a Siracusa da un anno, su invito di Dione, parente di Dionigi I, e tornerà ad Atene solo nel 364 a.C.; in questi anni, secondo l'impostazione didattica dell'Accademia, Aristotele dovette iniziare con lo studio della matematica, per passare tre anni dopo alla dialettica. A reggere la scuola è Eudosso di Cnido, uno scienziato che dovette molto influenzare il giovane studente che, molti anni dopo, nell'Etica Nicomachea scriverà che i ragionamenti di Eudosso «avean acquistato fede più per la virtù dei suoi costumi che per se stessi: appariva di un'insolita temperanza, sembrando ragionare, nell'identificare il bene col piacere, non perché amante del piacere, ma perché pensava che la cosa stesse veramente così». L'abbandono dell'Accademia Il secondo periodo ha inizio quando nel 347 a.C. muore Platone e alla direzione dell'Accademia, più per motivi economici che per meriti riconosciuti, viene chiamato Speusippo, nipote del grande filosofo ateniese. Aristotele, che evidentemente doveva ritenersi più degno di costui, lascia la scuola insieme con Senocrate, altro pretendente alla guida dell'Accademia, per ritornare ad Atarneo, dove aveva trascorso l'adolescenza, invitato da Ermia, allora tiranno della città. Ermia era stato già da lui conosciuto ai tempi dell'Accademia, ed era poi riuscito con un rovesciamento politico a diventare successore di Eubulo, signore di Atarneo, e ad impossessarsi di Asso. Nella corte di Ermia Aristotele ritrova altri due ex allievi di Platone, Erasto e Coristo. Nello stesso anno tutti e quattro si trasferiscono ad Asso, divenuta intanto la nuova sede della corte, dove fondano una scuola che Aristotele battezza come unica vera scuola platonica. Ad essa aderiscono anche il figlio di Coristo, Neleo, e il futuro successore di Aristotele nella scuola di Atene, Teofrasto, suo brillante allievo. Aristotele precettore di Alessandro Magno Nel 344 a.C., su invito dello stesso Teofrasto, Aristotele va a Mitilene, sull'isola di Lesbo, dove fonda un'altra scuola, anch'essa battezzata come la sola aderente ai canoni platonici. V'insegna fino al 342, anno in cui è chiamato a Pella, in Macedonia dal re Filippo II perché faccia da precettore al figlio Alessandro Magno. Aristotele svolgerà questo incarico per circa tre anni, fino a quando Alessandro non sarà chiamato a partecipare alle spedizioni militari del padre. Non sappiamo molto dell'educazione che Aristotele impartisce ad Alessandro ma si suppone che le lezioni si basassero prevalentemente sui fondamenti della cultura greca (a partire da Omero) facendo così di Alessandro un uomo greco per gli ideali trasmessigli, ma anche soprattutto sulla politica, dato il destino che attendeva Alessandro. È inoltre possibile che durante questo incarico Aristotele abbia concepito il progetto di una grande raccolta di Costituzioni. La fondazione del Peripato Quando nel 340 a.C. Alessandro diviene reggente del regno di Macedonia, cominciando anche ad avvicinarsi alla cultura orientale, il suo maestro Aristotele, che è intanto rimasto vedovo e convive con la giovane Erpillide da cui ha avuto il figlio Nicomaco,[4] nell'ultimo periodo della sua vita torna forse a Stagira e, intorno al 335 a.C., si trasferisce ad Atene, dove in un pubblico ginnasio, detto Liceo perché sacro ad Apollo Licio, fonda una sua famosissima e celebrata scuola, chiamata Peripato - passeggiata, dall'uso istituito dallo Stagirita di insegnare passeggiando nel giardino che la circonda. Probabilmente non è Aristotele ad acquistare la scuola; egli l'affitta perché per la città di Atene egli era uno straniero e non aveva diritto di proprietà. La scuola viene inoltre finanziata dallo stesso Aristotele 24 Alessandro. Aristotele promuove attività di ricerca nella città di Atene soprattutto per quanto riguarda materie scientifiche quali zoologia, botanica, astronomia.[5] Riguardo alla scuola abbiamo notizie vaghe; comunque sappiamo per certo che gli alunni erano chiamati per dieci giorni a dirigere la scuola in prima persona: Aristotele ci teneva a istruire i suoi allievi a questo ruolo. Inoltre i pasti venivano consumati in comune secondo un'usanza dei pitagorici e ogni mese si organizzava un simposio filosofico con giudizio (iudicio) guidato dalla saggezza del maestro. Le lezioni si svolgevano di mattina; di pomeriggio e di sera invece Aristotele teneva, sempre nella scuola, delle conferenze aperte al pubblico; le materie erano appunto di interesse pubblico quindi politica e retorica, ad esempio, ma non materie astratte come la metafisica e la logica. Nel 323 a.C. muore Alessandro Magno e ad Atene si manifestano i mai sopiti odii antimacedoni; Aristotele, guardato con ostilità per il suo legame con la corte macedone, è accusato di empietà: lascia allora Atene e con la famiglia si rifugia a Calcide, la città materna, dove muore l'anno dopo. Il testamento Diogene Laerzio riporta il testamento di Aristotele: «Andrà senz'altro bene, ma qualora capitasse qualcosa, Aristotele ha steso le seguenti disposizioni: tutore di tutti, sotto ogni aspetto, dev'essere Antipatro; però, Aristomene, Timarco, Ipparco, Diotele e Teofrasto, se è possibile, si prendano cura dei figli, di Erpillide [la sua convivente] e delle cose da me lasciate, fino all'arrivo di Nicanore. E al momento giusto, mia figlia [Piziade] sia data in sposa a Nicanore [...] Se invece Teofrasto vorrà prendersi cura di mia figlia, allora sia padrone lui [...] I tutori e Nicanore, ricordandosi di me, si prendano cura anche di Erpillide, sotto ogni aspetto e anche se vorrà risposarsi, in modo che non sia data in sposa indegnamente, visto che è stata premurosa con me. In particolare, le vengano dati, oltre a quello che ha già ottenuto, anche un Statua di Aristotele a Calcide tallero d'argento e tre schiave, quelle che vuole, la schiava che già ha e lo schiavo Pirro. E se vorrà abitare a Calcide, le sia data la casa per gli ospiti vicino al giardino; se invece vorrà stare a Stagira, le sia data la mia casa paterna [...] Sia libera Ambracide e le si diano, alle nozze di mia figlia, cinquecento dracme e la giovane serva che già possiede [...] Sia liberato Ticone quando mi figlia si dovesse sposare, e così anche Filone, Olimpione e il suo ragazzino. Non vendano nessuno dei giovani schiavi che attualmente mi servono, ma siano impiegati; una volta dell'età giusta, siano liberati, se lo meritano [...] Ovunque sia costruita la mia tomba, là siano portate e deposte le ossa di Piziade, come lei stessa ordinò; dedichino poi anche da parte di Nicanore, se sarà ancora vivo - come ho pregato a suo favore - statue di pietra alte quattro cubiti a Zeus Salvatore e ad Atena Salvatrice a Stagira».[6] Aristotele Le opere Degli scritti di Aristotele si sogliono distinguere le opere giovanili, a cui egli cominciò a lavorare già nel 364 a.C., da quelle della maturità. Gli scritti giovanili A questo gruppo appartengono le seguenti opere: Grillo, Sulle idee, Sul Bene, Eudemo, Protreptico e De philosophia. Il Grillo o Sulla retorica Intorno al 360 a.C. il giovane Aristotele scrive la sua prima opera intitolata Grillo o Sulla retorica; in reazione a una serie di scritti di elogio - composti da alcuni retori ateniesi, fra i quali Isocrate, per celebrare Grillo, figlio di Senofonte, morto nel 362 a.C. nella battaglia di Mantinea - lo Stagirita polemizzava contro la retorica come mezzo per agire sugli affetti, sulla parte irrazionale dell'anima. Già Platone, nel Gorgia, aveva sostenuto che la retorica non era un'arte, né una scienza, ma semplicemente una εμπειρία (empeirìa), una pratica persuasiva che può avere successo solo sugli ignoranti. Il successo del Grillo nell'Accademia procurò ad Aristotele l'incarico di tenere un corso di retorica, nel quale, seguendo il Fedro platonico, sostenne che la retorica doveva fondarsi sulla dialettica. A tal proposito si è tramandato negli anni che egli esordì nella prima lezione con la frase: «È cosa turpe tacere e lasciar parlare Isocrate». Sulle Idee Scritto poco dopo il Grillo, il trattato Sulle Idee è andato perduto tranne pochi frammenti, trasmessi da Alessandro d'Afrodisia. Vi si affrontava la difficoltà di intendere il rapporto tra idee e cose, concepito da Platone come partecipazione delle cose alle idee, che da esse sono tuttavia separate. Eudosso sosteneva che tra le idee e le cose non ci fosse né separazione, né partecipazione, bensì mixis, mescolanza: le idee e le cose sono mescolate tra loro. Aristotele non accetta la teoria eudossiana, che non risolve il problema, ma critica anche la teoria platonica della separazione, delle cui aporie lo stesso Platone era del resto ben consapevole, come mostra il suo dialogo Parmenide. Per Aristotele il principio di tutte le cose non risiede nelle idee trascendenti, ma nelle loro "forme" immanenti. 25 Aristotele Sul Bene Nel tentativo di superare un'altra difficoltà contenuta nella teoria delle idee, le quali, essendo molteplici, hanno bisogno secondo Platone di essere giustificate da un principio unitario, Platone introdusse i principi dell'Uno (identificato con il Bene) e della Diade (il grande e il piccolo); il primo ha la funzione di principio formale e il secondo ha la funzione di principio materiale. È probabile che le conclusioni del trattato aristotelico Sul Bene, scritto intorno al 358 a.C. e del quale rimangono pochi frammenti, fossero quelle esposte nella matura Metafisica:[7] «Platone chiamò idee gli esseri diversi da quelli sensibili e disse che di tutte le cose sensibili si parla in dipendenza dalle idee e secondo le idee: infatti le cose molteplici che hanno lo stesso nome delle idee esistono per partecipazione [...] ma che cosa fosse la partecipazione o l'imitazione delle idee è un problema che Platone e i pitagorici lasciarono aperto. Inoltre Platone dice che oltre alle cose sensibili Platone e Aristotele, particolare della formella del Campanile di Giotto di Luca della Robbia, 1437-1439, e alle idee esistono le cose matematiche, che sono intermedie e Firenze differiscono dalle cose sensibili perché sono eterne e immobili, e differiscono dalle idee per il fatto che ce ne sono molte simili tra loro, mentre ciascuna idea è unica in sé [...]. Come principi, Platone poneva la Diade, cioè il grande e il piccolo, come materia, e poneva l'Uno come sostanza; dal grande e dal piccolo, per partecipazione all'Uno, si costituiscono le idee, che sono i numeri che nascono da quei principi [...] Platone sosteneva una tesi vicina a quella dei Pitagorici, e si poneva sulle loro posizioni, quando diceva che i numeri sono la causa della sostanza delle altre cose [...] egli ricorre soltanto a due cause, l'essenza e la causa materiale, perché le idee sono la causa dell'essenza delle altre cose, mentre l'Uno è causa dell'essenza delle idee». Aristotele respinse dunque già nel primo periodo della sua formazione la teoria delle idee nella lunga elaborazione fatta da Platone, ma dalla meditazione su di essa trasse la personale dottrina della causa formale e della causa materiale. L'Eudemo o Sull'anima Nel 354 a.C., alla morte in guerra, presso Siracusa, dell'amico e compagno di studi Eudemo di Cipro, Aristotele scrisse, in forma consolatoria e non speculativa, un altro dialogo, pervenuto in frammenti, l'Eudemo o Sull'anima, nel quale, prendendo a modello il Fedone platonico, sosterrebbe la tesi dell'immortalità dell'anima razionale, come indicato nella forma pur problematica della posteriore Metafisica: «Se rimanga qualche cosa dopo l'individuo, è una questione ancora da esaminare. In alcuni casi, nulla impedisce che qualcosa rimanga: per esempio, l'anima può essere una cosa di questo genere, non tutta, ma solo la parte intellettuale; perché è forse impossibile che tutta l'anima sussista anche dopo».[8] Per l'Aristotele maturo, l'anima non è un'idea ma una sostanza informante il corpo: nell'Eudemo è invece netta è l'opposizione fra anima e corpo, sicché lo Jaeger la considerava dimostrazione dell'adesione completa del giovane Aristotele al platonismo; i sostenitori della precoce presa di distanza dello Stagirita da Platone intendono invece questa dichiarata opposizione come dipendente dall'intento consolatorio del dialogo, nel quale Aristotele avrebbe volutamente accentuato il destino ultraterreno dell'anima. In ogni caso, i frammenti dell'Eudemo non permettono di dedurre un'adesione alle dottrine platoniche delle idee separate dagli oggetti sensibili e della conoscenza fondata sulla reminiscenza. 26 Aristotele Il Protreptico Il Protreptico o Esortazione alla filosofia, conosciuto dalle numerose citazioni contenute nell'opera di eguale titolo di Giamblico, dedicato a Temisone, re di una città di Cipro, dovette essere scritto intorno al 350 a.C. Il Protreptico è un'esortazione alla filosofia, essendo questa il più grande dei beni, dal momento che ha per scopo se stessa, mentre le altre scienze hanno per fine qualcosa di diverso da sé. Aristotele individua nell'essere umano la divisione fra anima e corpo: «una parte di noi è l'anima e una parte è il corpo, l'una comanda e l'altra è comandata, l'una si serve dell'altra e l'altra sottostà come uno strumento [...] Nell'anima ciò che comanda e giudica per noi è la ragione, mentre il resto ubbidisce e per natura è comandato [...] dunque l'anima è migliore del corpo, essendo più adatta al comando, e di questa è migliore la parte che possiede ragione e pensiero», una divisione non vista come opposizione, come nell'Eudemo, ma come collaborazione: il corpo è lo strumento dell'agire dell'anima, della parte razionale dell'anima. «Delle cose che sono generate, alcune sono generate dall'intelligenza e dall'arte, per esempio, la casa e la nave; altre sono generate non per arte ma per natura: degli esseri viventi e delle piante, infatti, la causa è la natura e per natura sono generate tutte le cose di tal specie; altre però sono generate anche per caso, e sono tutte quelle non generate né per arte, né per natura, né da necessità, e tutte queste cose, molto numerose, noi diciamo che sono generate per caso». Non vi è finalità nel caso ma vi è nell'arte e nella natura: la natura è l'ordine tendente a un fine, e il fine dell'uomo è la conoscenza. La filosofia è sia buona che utile, ma la bontà va privilegiata rispetto all'utilità: «alcune cose, senza le quali è impossibile vivere, le amiamo in vista di qualcosa di diverso da esse: e queste bisogna chiamarle necessarie e cause concomitanti; altre invece le amiamo per se stesse, anche se non ne consegua nulla di diverso, e queste dobbiamo chiamarle propriamente beni [...] Sarebbe quindi del tutto ridicolo cercare di ogni cosa un'utilità diversa dalla cosa stessa, e domandare: "Che cosa ci è giovevole? Che cosa ci è utile?". Colui che ponesse queste domande non assomiglierebbe in nulla a uno che conosce ciò che è bello e buono né a uno che sappia riconoscere che cosa è causa e che cosa è concomitante». È una polemica, questa, contro le posizioni di Isocrate che, nel suo Antidosis, scritto contro l'Aristotele del Grillo, attaccava una conoscenza che fosse priva di utilità pratica. Inoltre quest'opera, essendo certamente datata, è fondamentale per gli studi storiografici in quanto ci consente di creare un abbozzo cronologico di alcuni libri della Metafisica in base alla presenza (o meno) in essi di temi già trattati nel Protreptico. Del resto, che fare filosofia sia per Aristotele comunque necessario lo dimostra il fatto che «chi pensa sia necessario filosofare, deve filosofare e chi pensa che non si debba filosofare, deve filosofare per dimostrare che non si deve filosofare; dunque si deve filosofare in ogni caso o andarsene di qui, dando l'addio alla vita, poiché tutte le altre cose sembrano essere solo chiacchiere e vaniloquio». 27 Aristotele 28 Il De philosophia Il De Philosophia, pervenuto in frammenti, fu scritto intorno al 355 a.C. e si divide in tre libri: nel primo Aristotele definisce filosofia la conoscenza dei principi della realtà; nel secondo critica la dottrina platonica delle idee e delle idee-numeri; nel terzo espone la sua teologia. Ribadisce la non trascendenza delle idee e nega le idee-numero o numeri ideali, introdotti dal tardo Platone: «se le idee sono un'altra specie di numero, non matematico, non potremmo averne alcuna comprensione; chi, fra noi, comprende un tipo di numero diverso?». È Cicerone a citare, criticamente, il terzo libro del De philosophia: «Aristotele nel terzo libro della sua opera Della filosofia confonde molte cose dissentendo dal suo maestro Platone. Ora infatti attribuisce tutta la divinità a una mente, ora dice che il mondo stesso è dio, ora prepone al mondo un altro essere e gli affida il compito di reggere e governare il moto del mondo per mezzo di certe rivoluzioni e moti retrogradi, talora dice che dio è l'etere, non comprendendo che il cielo è una parte di quel mondo che altrove ha designato come potere divino».[9] Busto di Cicerone La dimostrazione della necessità e dell'immutabilità di Dio è fornita dalla testimonianza di Simplicio: «dove c'è un meglio, c'è anche un ottimo: poiché, fra ciò che esiste, c'è una realtà superiore a un'altra, esisterà di conseguenza una realtà perfetta, che dovrà essere la potenza divina [...] e ne deduce la sua immutabilità».[10] Puro pensiero e immutabile, Dio non può creare il mondo, che è anch'esso eterno, come riporta Cicerone:[11] «il mondo non ha mai avuto origine, poiché non vi è stato alcun inizio, per il sopravvenire di una nuova decisione, di un'opera così eccellente» e attesta anche la concezione della divinità degli astri: «Le stelle poi occupano la zona eterea. E poiché questa è la più sottile di tutte ed è sempre in movimento e sempre mantiene la sua forza vitale, è necessario che quell'essere vivente che vi nasca sia di prontissima sensibilità e di prontissimo movimento. Per la qual cosa, dal momento che sono gli astri a nascere nell'etere, è logico che in essi siano insite sensibilità e intelligenza. Dal che risulta che gli astri devono essere ritenuti nel numero delle divinità». Le opere della maturità Della produzione filosofica aristotelica più matura ci sono giunti solo gli scritti composti per il suo insegnamento nel Peripato, detti libri acroamatici (in greco: "ciò che si ascolta") o esoterici; oltre a questi, come esposto in precedenza, Aristotele aveva scritto e pubblicato, durante la sua precedente permanenza nell'Accademia di Platone, anche dei dialoghi destinati al pubblico, per questo motivo detti essoterici, che sono però pervenuti in frammenti. Questi dialoghi giovanili furono letti e discussi dai commentatori fino al VI secolo d.C. A seguito della chiusura dell'Accademia ateniese ordinata nel 529 da Giustiniano e alla diaspora di quegli accademici, queste opere si dispersero e furono dimenticate, mentre di Aristotele rimasero solo i trattati esoterici; questi, a loro volta, erano stati dimenticati a lungo dopo la morte del Maestro fino ad essere ritrovati, alla fine del II secolo a.C., da un bibliofilo ateniese, Apellicone di Teo, in una cantina appartenente agli eredi di Neleo, figlio di Corisco, entrambi seguaci di Aristotele nella scuola di Asso. Apellicone li acquistò, portandoli ad Atene, e qui Silla li sequestrò nel saccheggio di Atene dell'84 a.C., portandoli quindi a Roma, dove furono ordinati e pubblicati da Andronico da Rodi. L'insieme di queste opere può essere ordinato per argomenti omogenei: • Logica,[12] scritti raccolti nel titolo complessivo di Organon - in greco, "strumento" - comprendenti: 1. Le categorie (un libro) 2. Sull'interpretazione (un libro) 3. Analitici primi (due libri) 4. Analitici secondi (due libri) Aristotele 5. Topici (otto libri) 6. Elenchi sofistici (un libro) • Metafisica[13] (quattordici libri) • Fisica (otto libri) con scritti correlati: 1. 2. 3. 4. 5. 6. 7. 8. Sul cielo (quattro libri) Sulla generazione e corruzione (due libri) Sulle meteore (quattro libri) Storia degli animali (un libro) Sulle parti degli animali (un libro) Sulla generazione degli animali (un libro) Sulle migrazioni degli animali (un libro) Sul movimento degli animali (un libro) • Sull'anima (tre libri) con scritti correlati: 1. 2. 3. 4. Sensazione e sensibile (un libro) Memoria e reminiscenza (un libro) Il sonno (un libro) I sogni (un libro) 5. 6. 7. 8. La divinazione mediante i sogni (un libro) Lunghezza e brevità della vita (un libro) Giovinezza e vecchiaia (un libro) La respirazione (un libro) • Etica, comprendente 1. Etica Nicomachea (dieci libri) 2. Etica Eudemia (sei libri) 3. Grande etica (due libri) • Politica (otto libri) correlata alla 1. Costituzione degli Ateniesi • Retorica (tre libri) • Poetica, incompiuta. Apocrifi Ad Aristotele sono anche attribuiti i Problemi e Le Audizioni Meravigliose; la filologia moderna sostiene che non sono suoi, contro l'opinione dell'antica. Nei Problemi il Filosofo si chiede: come mai sedendosi vicino al fuoco viene da fare pipì? La sua risposta è, come al solito, acutissima: perché il fuoco scioglie le cose solide. È chiaro che, se avesse ragione, allontanandosi dal fuoco dovrebbe anche passare la voglia.[14] Un altro dei Problemi è: come mai soffiando sulle mani queste si scaldano, mentre soffiando sulla zuppa questa si raffredda? Anche qui la risposta è magistrale: Perché quando soffi sulla minestra, tieni la bocca quasi chiusa, in modo tale che il calore dell'aria rimane dentro la bocca e quel poco che esce fuori evapora subito per la violenza del soffio.[15] Le Audizioni Maravigliose contengono fatti che ancora oggi la scienza non sa spiegare: ad esempio, sull'isola di Creta, le capre ferite dai cacciatori si cibano di un'erba, chiamata Dittamo, che subito fa uscire la freccia e sana la ferita[16]. 29 Aristotele La filosofia: scienza delle cause e ricerca delle essenze La filosofia di Aristotele muove dalla stessa esigenza platonica di ricercare un princìpio eterno e immutabile che spieghi il modo in cui avvengono i mutamenti della natura. Come il suo maestro Platone, Aristotele ha ben presente la contrapposizione filosofica venutasi a creare tra Parmenide ed Eraclito; anche lui pertanto si propone di conciliare le loro rispettive posizioni di pensiero: l'Essere statico del primo con l'incessante divenire del secondo. Per cui tutto muta in natura, tutto «scorre», ma non a caso: seguendo sempre certi schemi o regole fisse. A differenza di Platone, tuttavia, Aristotele ritiene che le forme in grado di guidare la materia non si trovino al di fuori di essa: non ha senso secondo lui sdoppiare gli enti per cercare poi di riconciliarli in qualche modo; ogni realtà invece deve avere in se stessa, e non in cielo, le leggi del proprio costituirsi. Il fatto che tutti i fenomeni naturali siano soggetti a costante mutamento significa per Aristotele che nella materia è sempre insita la possibilità di raggiungere una Aristotele forma precisa. Compito della filosofia è proprio quello di scoprire le cause che determinano il perché un oggetto tenda ad evolversi in un certo modo e non diversamente. Aristotele parla in proposito di quattro cause, che sono le seguenti: 1. 2. 3. 4. causa formale: consiste nelle qualità specifiche dell'oggetto stesso, nella sua essenza; causa materiale: la materia è il sostrato senza cui l'oggetto non esisterebbe; causa efficiente: è l'agente che determina operativamente il mutamento; causa finale: la più importante di tutte, in virtù della quale esiste un'intenzionalità nella natura; è lo scopo per cui una certa realtà esiste. La scienza delle cause consente di affrontare in maniera più sistematica e razionale il problema dell'Essere e delle sue possibili determinazioni, sorto la prima volta con Parmenide. Quest'ultimo aveva detto dell'Essere soltanto che è, e non può non essere, ma non aveva aggiunto cosa esso sia, lasciandolo senza un predicato. Ne risultava un concetto evanescente, che rischiava di venir confuso col non-essere. Aristotele con la sua ontologia si propone allora di mostrare che l'essere è determinato in una molteplicità di attributi, che lo rendono multilaterale pur nella sua unità. Ontologia e metafisica L'ontologia, in quanto metafisica (secondo la terminologia introdotta da Andronico di Rodi), è la "filosofia prima" aristotelica, che ha come suo primario oggetto di indagine l'essere in quanto tale, e solo in via subordinata l'ente (dal greco ὄντος, genitivo di ὤν, essente). "In quanto tale" significa a prescindere dai suoi aspetti accidentali, e quindi in maniera scientifica. Solo di ciò che permane come sostrato fisso e immutabile, infatti, si può avere una conoscenza sempre valida e universale, a differenza degli enti soggetti a generazione e corruzione, ragion per cui «del particolare non si dà scienza».[17] Per conoscere gli enti occorrerà dunque fare sempre riferimento all'Essere; Aristotele intende per ente tutto ciò che esiste (da ex-sistentia, essere da), a differenza dell'Essere che invece è in sé e per sé: mentre l'Essere è uno, gli enti 30 Aristotele 31 non sono tutti uguali. Per il filosofo essi hanno vari significati: l'ente è un "pòllachos legòmenon" (dal greco πόλλακος λεγόμενον), ossia si può «dire in molti modi». Ente sarà ad esempio un uomo, così come il suo colore della pelle. Introducendo gli enti, Aristotele cerca di risolvere il problema ontologico di conciliare l'essere parmenideo col divenire di Eraclito, facendo dell'ente un sinolo indivisibile di materia e forma: come già accennato, infatti, la materia possiede un suo modo specifico di evolversi, ha in sé una possibilità che essa tende a mettere in atto. Ogni mutamento della natura è quindi un passaggio dalla potenza alla realtà, in virtù di un'entelechia, di una ragione interna che struttura e fa evolvere ogni organismo secondo leggi sue proprie. Cercando di superare il dualismo di Platone in seno all'essere, Aristotele sostiene così l'immanenza dell'universale. La sua soluzione tuttavia risente fortemente dell'impostazione platonica, perché, come già il suo predecessore, anche lui concepisce l'essere in forma gerarchica:[18] per cui da un lato vi è l'Essere eterno e immutabile, identificato con la vera realtà, che basta a se stesso in quanto perfettamente realizzato; dall'altro vi è l'essere in potenza, proprio degli enti, che per costoro è soltanto la possibilità di attuare se stessi, di realizzare la loro forma in atto, la loro essenza. Anche il non-essere quindi in qualche modo è, almeno come poter-essere. E il divenire consiste propriamente in questo perenne passaggio verso l'essere in atto.[19] La Sostanza: prima e seconda Il genere sommo di cui il filosofo si occupa maggiormente è quello di sostanza, classificata in sostanza prima e sostanza seconda. La prima è relativa ad un singolo essere, un determinato uomo, un certo animale o una pianta, ossia tutto ciò che ha sussistenza autonoma. La sostanza seconda invece è costituita da sostantivi generici che determinano un oggetto in un certo modo, è la risposta a "che cos'è" quell'oggetto, ti estì (dal greco τί ἐςτι), specificando meglio la sostanza prima. Nella frase «il Sole è un astro» ad esempio, Sole, nome proprio e specifico di una stella, è sostanza prima, mentre astro, nome generico che ne specifica l'essenza o la natura, è sostanza seconda. Di fatto, se si prescinde dall'aspetto materiale, la sostanza è sinonimo di essenza (οὐσία, usìa).[20] Ogni realtà può essere detta che "è" in quanto esprime la sostanza. Un altro termine utilizzato per indicarla è sinolo di materia e forma. Nonostante le molteplici valenze che assumono gli enti, tutti richiamano inevitabilmente in un modo o nell'altro il concetto di sostanza, termine introdotto da Aristotele per indicare ciò che è in sé e per sé, e che per essere non ha bisogno di esistere. La sostanza è uno dei dieci predicamenti dell'essere, ossia di quelle dieci categorie entro cui classificare gli enti sulla base della loro differenza. Esse sono: sostanza, qualità, quantità, dove, quando, relazione, agire, subire, avere, giacere. Le dieci categorie possono anche essere definite generi massimi, poiché permettono la completa classificazione degli enti. Non vanno confuse con i cinque generi sommi platonici, perché se Platone cercava categorie universali cui partecipassero tutte le idee, Aristotele cerca categorie cui gli enti partecipino in base alla loro diversità: non esiste infatti una categoria a cui tutti gli enti tangibili partecipino, proprio perché il suo scopo non è quello della reductio ad unum (l'omologazione, il confluire di tutti gli oggetti di studio in un unico grande calderone). A differenza della sostanza, le nove rimanenti categorie si devono invece definire "accidenti" in quanto non hanno vita indipendente, ma esistono solo nel momento in cui ineriscono alla sostanza. Il giallo, per esempio, non è un ente autonomo come un uomo. Perciò nella frase «il Sole è giallo», Sole è sempre sostanza prima, mentre giallo è accidente della sostanza, appartenente alla categoria della qualità. Lo stesso filosofo afferma quanto sia inutile ogni scienza che si occupi di enti dotati delle medesime caratteristiche: la matematica studia gli enti astratti deducibili solo con l'astrazione (in numeri), la fisica gli elementi naturali della physis (greco φύσις), l'ontologia, invece, studia gli enti. Ma in base a che cosa gli enti sono accomunati? Non certo il fatto di esistere, perché, come già detto, il filosofo nega a priori l'esistenza di una categoria che collochi in se tutti gli enti (la categoria dell'essere che, infatti, li accomunerebbe tutti). Il termine ente è comunque una parola ambigua, proprio come "salutare". Esso vuol dire sano o indicare l'azione del cordiale saluto, tutto comunque richiama allo stesso concetto di salute. Aristotele Teologia Soltanto l'essere in atto fa sì che un ente in potenza possa evolversi; l'argomento ontologico diventa così teologico per passare alla dimostrazione della necessità dell'essere in atto.[21] Si è visto come il movimento sia originato dalle quattro cause. Ogni oggetto è mosso da un altro, questo da un altro ancora, e così via a ritroso, ma alla fine della catena deve esistere un motore immobile, cioè Dio: "motore" perché è la meta finale a cui tutto tende, "immobile" perché causa incausata, essendo già realizzato in se stesso come «atto puro».[22] Tutti gli enti risentono della sua forza d'attrazione perché l'essenza, che in costoro è ancora qualcosa di potenziale, in Lui giunge a coincidere con l'esistenza, cioè è tradotta definitivamente in atto: il Suo essere non è più una possibilità, ma una necessità. In Lui tutto è compiuto perfettamente, e non v'è nessuna traccia del divenire, perché questo è appunto solo un passaggio. Non vi è neppure l'imperfezione della materia che continua invece a sussistere negli enti inferiori, i quali sono ancora una mescolanza, un insieme non coincidente di essenza ed esistenza, di potenza ed atto, di materia e forma. « Il primo motore dunque è un essere necessariamente esistente, e in quanto la sua esistenza è necessaria si identifica col bene, e sotto tale profilo è principio. […] Se, pertanto, Dio è sempre in uno stato di beatitudine, che noi conosciamo solo qualche volta, un tale stato è meraviglioso; e se la beatitudine di Dio è ancora maggiore essa deve essere oggetto di meraviglia ancora più grande. Ma Dio, è appunto, in tale stato! » (Aristotele, Metafisica XII (Λ), 1072, b 9-30) Come nell'Essere di Parmenide, Dio è pienezza della sostanza e quindi pensiero puro. Per Aristotele infatti la migliore delle azioni è quella legata all'attività noetica, non essendo soggetta alla corruzione del divenire.[23] Ma cosa pensa Dio? Evidentemente il pensiero più alto e cioè se stesso. La sua caratteristica principale è dunque la contemplazione autocosciente, fine a se stessa, intesa come «pensiero di pensiero». Gnoseologia Nell'ambito della filosofia della conoscenza, Aristotele sembra rivalutare l'importanza dell'esperienza sensibile, e tuttavia, al pari di Platone, mantiene fermo il presupposto secondo cui l'intelletto umano non si limita a recepire passivamente le impressioni sensoriali, ma svolge un ruolo attivo che gli consente di andare oltre le particolarità transitorie degli oggetti e di coglierne le cause.[24] Esistono vari gradi del conoscere: secondo Aristotele all'inizio non ci sono idee innate nella nostra mente; questa rimane vuota se non percepiamo qualcosa attraverso i sensi. Ciò tuttavia non vuol dire che l'essere umano non abbia delle capacità innate di ordinare le conoscenze, raggruppandole in diverse classi e riuscendo a penetrare l'essenza propria di ciascuna di esse, con le quali stabilisce una corrispondenza. Al livello più basso c'è la sensazione, che ha per oggetto entità particolari. La sensazione in potenza può sentire di tutto, ma solo nel momento in cui mette in atto una percezione specifica avviene il «sentire di sentire», che appartiene al cosiddetto senso «comune». La sensazione in atto rende attuale lo stesso oggetto percepito, ad esempio è l'udito a dare vita al suono, facendolo passare all'essere. Al grado successivo interviene la fantasia, facoltà dell'anima, che ha la capacità di rappresentare gli oggetti non più presenti ai sensi, producendo le immagini:[25] queste vengono ricevute dall'intelletto potenziale, per essere poi, in seguito a vari filtri, conservate dalla memoria, da cui nasce la generalizzazione dell'esperienza. Anche l'intelletto potenziale ha bisogno a sua volta di una realtà già in atto per potersi attivare. Ecco dunque che la conoscenza deve culminare infine con un trascendente intelletto attivo, che superando la potenza sappia vedere l'essenza in atto, ossia la forma. Questo passaggio supremo è reso possibile dall'intuizione (nous), la quale presuppone che la mente umana sia capace di pensare se stessa, ovvero sia dotata di consapevolezza e libertà; solo così essa può riuscire ad "astrarre" l'universale dalle realtà empiriche. L'approdo dal particolare all'universale, inizialmente avviato tramite i sensi dall'epagoghè (termine traducibile impropriamente con induzione) non possiede infatti nessun carattere di necessità o di conseguenzialità logica, dato che la logica di Aristotele, a differenza di quella moderna, è solo deduttiva.[26] L'induzione per lui funge unicamente da stimolo, o 32 Aristotele 33 sollecitazione, di un processo definitorio che comporta alla fine un'esperienza di tipo contemplativo:[27] « Non si può dire che il definire qualcosa consista nello sviluppare un'induzione attraverso i singoli casi manifesti, stabilendo cioè che l'oggetto nella sua totalità deve comportarsi in un certo modo […] Chi sviluppa un'induzione, infatti, non prova cos'è un oggetto, ma mostra che esso è, oppure che non è. In realtà, non si proverà certo l'essenza con la sensazione, né la si mostrerà con un dito. » (Aristotele, Analitici secondi II, 7, 92a-92b) La conoscenza noetica che ne risulterà consiste quindi nella corrispondenza tra realtà e intelletto: come la sensazione si identifica con ciò che è sentito, così l'intelletto attivo o agente (indicato col termine nùs poietikòs)[28] coincide con la verità del suo stesso oggetto,[29] implicando una componente divina in grado di farlo passare all'atto, per cui ad esempio un libro è un oggetto in potenza, che diventa un libro in atto solo quando viene pensato.[30] Logica Distinta dall'intelletto è la Logica (diànoia, o ragione), che Aristotele teorizza nella forma rigorosamente deduttiva del sillogismo. Le leggi che la guidano, non dimostrabili ma intuibili con un atto immediato, sono il principio di identità, per il quale A = A, e quello di non-contraddizione, per cui A ≠ non-A. Il sillogismo è un ragionamento concatenato che, partendo da due premesse di carattere generale, una "maggiore" e una "minore", giunge ad una conclusione coerente su un piano particolare. Sia le premesse che la conclusione sono proposizioni espresse nella forma soggetto-predicato. Un esempio di sillogismo è il seguente: 1. Tutti gli uomini sono mortali; 2. Socrate è uomo; 3. dunque Socrate è mortale. Schema esemplificativo del sillogismo Attraverso il sillogismo, la logica permette di ordinare in gruppi o categorie tutto ciò che si trova in natura, a condizione però di partire da premesse vere e certe:[31] i sillogismi infatti di per sé non danno nessuna garanzia di verità. Questo perché i princìpi primi, da cui il ragionamento prende le mosse, non possono essere a loro volta dimostrati, dato che proprio da essi deve scaturire la dimostrazione; solo l'intuizione intellettuale, opera dell'intelletto attivo, può dare loro un fondamento oggettivo e universale,[32] tramite quel processo conoscitivo sovra-razionale, che partendo come si è visto dall'epagoghé, culmina nell'astrazione dell'essenza.[33] Da questa poi la logica trarrà soltanto delle conseguenze coerenti da un punto di vista formale, facendo ricorso ai giudizi predicativi che corrispondono alle dieci categorie dell'essere. Dialettica Mentre la logica o analitica studia la deduzione a partire da premesse vere, la dialettica in Aristotele è semplicemente la tecnica con la quale uscire vittoriosi da una discussione. Questo successo, che non esclude comunque un effettivo raggiungimento della verità,[34] deriva dal prevalere con la propria tesi su quella sostenuta dall'avversario, nel rispetto di premesse su cui ci si è messi d'accordo prima dell'inizio del confronto: difatti la confutazione, l'aver ottenuto ragione e quindi l'aver vinto, si basava proprio sul portare l'interlocutore ad autocontraddirsi, mostrando dunque come la sua tesi, se sviluppata, avrebbe condotto a risultati illogici nei confronti delle premesse iniziali, considerate vere da entrambi. Certo era necessario che le premesse fossero considerate vere dal pubblico che assisteva al confronto, pertanto non di rado si sceglieva di accordarsi su premesse che fossero ritenute vere dai membri più influenti della società, così che essi potessero influenzare anche l'opinione altrui. La tecnica dialettica necessitava di un'ottima conoscenza delle parole e dei modi di unirle in proposizioni e, ancora, in periodi, pertanto il filosofo postula alcune teorie, quali quella della proposizione e quella del sillogismo, che permettono di capire come Aristotele 34 debba funzionare nei vari casi la parola. Prima di queste teorie, si sofferma sulla spiegazione dell'esistenza di parole univoche ed equivoche, ovvero da uno o più significato: deve essere la loro conoscenza accurata il primo necessario requisito per l'esperto di dialettica. Teoria della proposizione Una proposizione è un insieme di termini (o parole) i quali danno vita a un'affermazione, un giudizio. Questo può essere vero o falso, in base al riscontro con la realtà, mentre i singoli termini di per sé non possono essere veri o falsi se considerati da soli. Neppure tutte le proposizioni però rientrano nella dimensione del vero o falso: preghiere, invocazioni, ordini, sono destinati all'ambito poetico e di questi Aristotele non si occupa. Egli invece si occupa delle frasi a cui sole può essere riconosciuta la possibilità di essere vere o false, chiamandole categoriche, o dichiarative, o apofantiche. Le proposizioni categoriche possono avere qualità affermativa o negativa, e quantità universale (quando il soggetto è un genere e vi sono inclusi tutti gli appartenenti) particolare (si fa riferimento solo a una parte degli enti di un genere) o singolari (il soggetto è un individuo singolo), in base alla maggiore o minore generalità del soggetto. Aristotele non si preoccupa delle proposizioni singolari, soffermandosi solo sulle proposizioni affermative e negative, universali e particolari. Combinando questi tipi di proposizioni, risultano esserci quattro tipi di proposizioni-modello per il filosofo: • universale affermativa, • universale negativa, • particolare affermativa, • particolare negativa. L'Etica « La dignità non consiste nel possedere onori ma nella coscienza di meritarli. » [35] (Aristotele ) L'etica di cui tratta Aristotele attiene alla sfera del comportamento (dal greco ethos), ossia alla condotta da tenere per poter vivere un'esistenza felice. Coerentemente con la sua impostazione filosofica, l'atteggiamento più corretto è quello che realizza l'essenza di ognuno. Ne consegue l'identificazione di essere e valore: quanto più un ente realizza la propria ragion d'essere, tanto più esso vale. L'uomo in particolare realizza se stesso praticando tre forme di vita: quella edonistica, incentrata sulla cura del corpo, quella politica, basata sul rapporto sociale con gli altri, e infine la via teoretica, situata al di sopra delle altre, che ha come scopo la conoscenza contemplativa della verità. Le tre modalità di condotta vanno comunque integrate fra loro, senza privilegiare l'una a discapito dell'altra. L'uomo infatti deve saper sviluppare e assecondare armonicamente tutte e tre le potenzialità dell'anima che contraddistinguono il proprio essere o entelechia, e da Aristotele identificate con: • l'anima vegetativa, comune anche alle piante e agli animali, che attiene ai processi nutritivi e riproduttivi; • l'anima sensitiva, comune agli animali, che attiene alle passioni e ai desideri; • l'anima razionale, che appartiene soltanto all'uomo, e consiste nell'esercizio dell'intelletto. Sulla base di questa tripartizione, Aristotele individua il piacere e la salute come scopo finale dell'anima vegetativa, risultante dall'equilibrio tra gli eccessi opposti, evitando ad esempio di mangiare troppo, o troppo poco. All'anima sensitiva egli assegna invece le cosiddette virtù etiche, che sono abitudini di comportamento acquisite allenando la ragione a dominare sugli impulsi, attraverso la ricerca del «giusto mezzo» fra estreme passioni:[36] ad esempio il coraggio è l'atteggiamento mediano da preferire tra la viltà e la temerarietà. Essendo l'uomo un «animale sociale», l'equilibrio è ciò che deve guidare i suoi rapporti con gli altri; questi devono essere improntati al giusto riconoscimento degli onori e del prestigio derivanti dall'esercizio delle cariche pubbliche. Le diverse virtù etiche sono quindi tutte riassunte dalla virtù della giustizia. Aristotele 35 Virtù etiche • Giustizia • • • • • • Virtù dianoetiche • Coraggio Temperanza Liberalità • Magnificenza Magnanimità Mansuetudine Virtù calcolative • • Arte Prudenza Virtù scientifiche • Sapienza • • Scienza Intelligenza All'anima razionale infine Aristotele assegna le cosiddette virtù dianoetiche, suddivise in calcolative e scientifiche. Le facoltà calcolative hanno una finalità pratica, sono strumenti in vista di qualcos'altro: l'arte (tèchne) ha un fine produttivo, la saggezza o prudenza (phrònesis) serve a dirigere le virtù etiche, oltre a guidare l'azione politica. Se queste virtù vanno perseguite in vista di un bene più alto, alla fine tuttavia deve pur sussistere un bene da perseguire per se stesso. Le facoltà scientifiche, mirando alla conoscenza disinteressata della verità, non si prefiggono appunto nessun altro obiettivo al di fuori della sapienza in sé (sophìa). A questa virtù suprema concorrono le due facoltà conoscitive della gnoseologia: la scienza (epistème), che è la capacità della logica di compiere dimostrazioni; e l'intelligenza (nùs), che fornisce i princìpi primi da cui scaturiscono quelle dimostrazioni. Aristotele introduce così una concezione della sapienza intesa come "stile di vita" slegato da ogni finalità pratica, e che pur rappresentando l'inclinazione naturale di tutti gli uomini solo i filosofi realizzano a pieno, mettendo in atto un sapere che non serve a nulla, ma proprio per questo non dovrà piegarsi a nessuna servitù: un sapere assolutamente libero. La contemplazione della verità è quindi un'attività fine a se stessa, nella quale consiste propriamente la felicità (eudaimonìa), ed è quella che distingue l'uomo dagli altri animali rendendolo più simile a Dio, già definito da Aristotele come «pensiero di pensiero», pura riflessione autosufficiente che nulla deve ricercare al di fuori di sé. « Se in verità l'intelletto è qualcosa di divino in confronto all'uomo, anche la vita secondo esso è divina in confronto alla vita umana. » (Aristotele, Etica Nicomachea, X.7, 1177 b30-31) L'etica di Aristotele, che pone l'accento sul «giusto mezzo» come via maestra per diventare persone felici e armoniche, segue da vicino i dettami della scienza medica greca, basata similmente sull'equilibrio e la moderazione. Allo stesso modo, le tre possibili forme politiche dello Stato (monarchia, aristocrazia, e democrazia) devono guardarsi dall'estemismo delle loro rispettive degenerazioni: tirannide, oligarchia e oclocrazia.[37] Il concetto di Philia Nell'ottavo e nel nono libro dell'Etica Nicomachea Aristotele tratta anche del concetto d'amicizia (in greco philìa, φιλία). Il filosofo comincia facendo l'analisi dei diversi fondamenti dell'amicizia: l'utile, il piacere e il bene; da questi derivano le tre tipologie d'amicizia: quella di utilità, di piacere, e di virtù. L'amicizia di utilità è tipica dei vecchi, quella di piacere degli uomini maturi e dei giovani; gli amici in queste due tipologie non si amano di per se stessi ma solamente per i vantaggi che traggono dal loro legame: per tale motivo questi tipi di amicizia, basandosi sui bisogni e desideri umani, che sono volubili, si creano e si dissolvono con facilità. L'unica vera amicizia è quella di virtù, stabile perché si fonda sul bene, caratteristica degli uomini buoni. L'amicizia di virtù presuppone due condizioni fondamentali: l'uguaglianza fra gli amici (a livello di intelligenza, ricchezza, educazione ecc.) e la consuetudine di vita. L'amicizia si distingue dalla benevolenza, che può non essere corrisposta, e dall'amore, perché nell'amore entrano in gioco fattori istintuali. Aristotele tuttavia non esclude che un rapporto d'amore possa trasformarsi poi in una vera e propria amicizia. La philia aristotelica esprime quindi il legame tra amicizia e reciprocità, fondato sul riconoscimento dei meriti e sul reciproco desiderio del bene per l'altro. Aristotele Astronomia Aristotele tratta nelle sue opere (in particolare nella Fisica) della conformazione dell'universo. Aristotele propone un modello geocentrico, che pone cioè la Terra al centro dell'universo. Secondo Aristotele, la Terra è formata da quattro elementi: la terra, l'aria, il fuoco e l'acqua. Le varie composizioni degli elementi costituiscono tutto ciò che si trova nel mondo. Ogni elemento possiede due delle quattro qualità (o «attributi») della materia: • il secco (terra e fuoco), • l'umido (aria ed acqua), • il freddo (acqua e terra), • il caldo (fuoco e aria). I quattro elementi e le loro relazioni Ogni elemento ha la tendenza a rimanere o a tornare nel proprio luogo naturale, che per la terra e l'acqua è il basso, mentre per l'aria e il fuoco è l'alto. La Terra come pianeta, quindi, non può che stare al centro dell'universo, poiché è formata dai due elementi tendenti al basso, e il "basso assoluto" è proprio il centro dell'universo. Riguardo a ciò che si trova oltre la Terra, Aristotele lo riteneva composto di un quinto elemento (o essenza): l'etere. L'etere, che non esiste sulla Terra, sarebbe privo di massa, invisibile e, soprattutto, eterno ed inalterabile: queste due ultime caratteristiche sanciscono un confine tra i luoghi sub-lunari del mutamento (la Terra) e i luoghi immutabili (il cosmo). Aristotele riteneva che i corpi celesti si muovessero su sfere concentriche (in numero di cinquantacinque, ventidue in più delle 33 di Callippo). Oltre la Terra per lui vi erano, in ordine, la Luna, Mercurio, Venere, il Sole, Marte, Giove, Saturno, il cielo delle stelle fisse e, infine, il primo mobile, che metteva tutte le altre sfere in movimento, e della cui natura peraltro Aristotele ebbe qualche difficoltà a dare una definizione precisa. Esso risulta mosso direttamente dalla causa prima, identificabile con la divinità suprema (mentre le altre divinità risiedevano all'interno del cosmo), in una maniera tuttavia non meccanica o causale, dato che Dio, essendo «atto puro», è assolutamente immobile, oltre ad essere privo di materia e quindi non localizzabile da nessuna parte. Il primo mobile piuttosto si muove per un desiderio di natura intellettiva, cioè tende a Dio come propria causa finale. Cercando dunque di imitare la sua perfetta immobilità, esso è contraddistinto dal moto più regolare e uniforme che ci sia: quello circolare.[38] Aristotele era convinto dell'unicità e della finitezza dell'universo: l'unicità perché se esistesse un altro universo sarebbe composto sostanzialmente dei medesimi elementi del nostro, i quali tenderebbero, per i luoghi naturali, ad avvicinarsi al nostro fino a ricongiungersi completamente con esso, ciò che prova l'unicità del nostro universo; la finitezza perché in uno spazio infinito non potrebbe esistere alcun centro, ciò che contravverrebbe alla teoria dei luoghi naturali. 36 Aristotele 37 Biologia Aristotele ha fondato la biologia come scienza empirica, compiendo un importante salto di qualità (almeno stando alle fonti che ci sono rimaste) nell'accuratezza e nella completezza descrittiva delle forme viventi, e soprattutto introducendo importanti schemi concettuali che si sono conservati nei secoli successivi. L'Historia animalium contiene la descrizione di 581 specie diverse, osservate per lo più durante la permanenza in Asia Minore e a Lesbo. Questi dati biologici vengono organizzati e classificati nel De partibus animalium, nel quale vengono introdotti concetti fondamentali come quello di viviparità e oviparità, e sono impiegati criteri di classificazione delle specie in base all'habitat o a precise caratteristiche anatomiche, che sono in gran parte rimasti inalterati fino a Linneo. Un altrettanto importante conquista intellettuale è lo studio sistematico di quella che oggi chiamiamo anatomia comparata, che permette ad esempio ad Aristotele di classificare Delfini e Balene tra i mammiferi (essendo essi dotati di polmoni e non di branchie come i pesci). Il De generatione animalium si occupa del modo in cui gli animali si riproducono. In quest'opera la generazione viene interpretata come trasmissione della forma (di cui è portatore il seme maschile) alla materia (rappresentata dal sangue mestruale femminile). Secondo Aristotele le specie sono eterne ed immutabili, e la riproduzione non determina mai cambiamenti nella sostanza, ma solo negli accidenti dei nuovi individui. Molto interessante è lo studio che Aristotele compie sugli embrioni, grazie al quale egli comprende che essi non si sviluppano attraverso la crescita di organi già tutti presenti fin dal concepimento, ma con la progressiva aggiunta di nuove strutture vitali. Alcuni limiti della biologia aristotelica (come la generale sottovalutazione del ruolo del cervello, che Aristotele credeva destinato a raffreddare il sangue) furono superati con la scoperta, avvenuta in epoca ellenistica, del sistema nervoso, in molti altri casi un superamento della biologia aristotelica si è avuto solo nel Settecento. Alcune delle sue osservazioni in ambito zoologico tuttavia sono state confermate solo nel XIX secolo. La fortuna di Aristotele La fortuna di Aristotele in Occidente si deve, tra le altre cose, al fatto che è stato lui a fondare e ordinare le diverse forme di conoscenza, creando i presupposti e i paradigmi dei linguaggi specialistici che vengono usati ancora oggi in campo scientifico. Mirando a creare un sistema globale del pensiero, furono di importanza basilare le sue formulazioni sulla fisica e sulla metafisica, sulla teologia, sull'ontologia, sulla matematica, sulla poetica, sul teatro, sull'arte, sulla musica, sulla logica, sulla retorica, sulla politica e sui governi, sull'etica, sulla grammatica, sull'oratoria e sulla dialettica, sulla linguistica, sulla biologia e sulla zoologia. Come pochi altri filosofi Aristotele ha avuto larga influenza su diversi pensatori delle epoche successive, che ammirarono il suo genio e analizzarono profondamente i suoi concetti: auctoritas metafisica nella Scolastica di Tommaso d'Aquino, oltre che nella tradizione islamica ed ebraica del Medioevo, il pensiero di Aristotele venne spesso ripreso nel Rinascimento. Anche Dante Alighieri lo ricorda nella Divina Commedia: « Poi ch'innalzai un poco più le ciglia, vidi 'l maestro di color che sanno seder tra filosofica famiglia. [39] Tutti lo miran, tutti onor li fanno. » Giungendo a influenzare gli studi di molti grandi filosofi del Novecento, gli elementi dell'aristotelismo sono oggetto di studio attivo ancora oggi, continuando a improntare di sé diversi aspetti della teologia cristiana. La filosofia del secondo Novecento ha inoltre sottolineato, con autori come Gertrude Elizabeth Margaret Anscombe, Alasdair MacIntyre o Philippa Ruth Foot, l'importanza per il dibattito odierno dell'impostazione etica di Aristotele, soprattutto per gli sviluppi che le furono dati da Tommaso d'Aquino. Aristotele Note [1] La data di nascita (384/383 a.C.) e la data di morte (322 a.C.) sono state calcolate con ragionevole certezza da August Boeckh (kleine schriften VI 195); per maggiori discussioni vedi Felix Jacoby su FGrHiSt 244 F 38. Ingermar Düring, Aristotle in the Ancient Biographical Tradition, Göteborg, 1957, p. 253. [2] W.D.Ross, Aristotele, Feltrinelli, 1976. [3] Cfr. G. Reale, Introduzione a Aristotele, Laterza, 1991. [4] Non risulta chiaro se Erpillide sia stata semplicemente una compagna oppure la seconda moglie di Aristotele, dopo la morte di Pizia: cfr. Enrico Berti, Guida ad Aristotele, Laterza, Roma-Bari 1997, p. 11. [5] Cfr. M. De Bartolomeo - V. Magni, Filosofia. [6] Diogene Laerzio, Vite, V, 11-16. [7] Metafisica, A 6, 987 b 6 e segg. [8] Metafisica, Λ 3, 1070 a 24-26. [9] Cicerone, De natura deorum, 1, 13. [10] Simplicio, De Coelo, 228. [11] Cicerone, Tuscolane, 15, 42. [12] E' da tenere presente tuttavia che il termine "logica" non è mai stato utilizzato da Aristotele essendo questo termine successivo ed attribuibile per la prima volta probabilmente alla scuola stoica. Il termine utilizzato da Aristostele per le sue ricerche sulla predicazione è "analitica". [13] Occorre tener presente che Aristotele non ha mai denominato il suo libro "Metafisica", dato che egli non conosceva questo termine, non essendo ancora stato coniato. Il suo libro "Metafisica" fu così titolato successivamente dai curatori delle sue opere, che assemblarono sotto tale titolo dei papiri autonomi di cui si sconosce la data di compilazione. L'attribuzione di tale nome e il suo reale significato non sono chiari. Esso potrebbe infatti significare due cose: "ciò che va oltre la fisica" in senso assiologico, oppure ciò che nella collocazione dei libri andava inserito dopo la Fisica. Cfr. ad esempio: « Più tardi sono stati raccolti in un libro che stranamente è stato chiamato "Metafisica" in effetti il nome può essere interpretato in due modi così come è stato fatto: da una parte ciò che è oltre la fisica in senso assiologico o gerarchico, e dall'altra semplicemente ciò che viene dopo la Fisica cio che dal punto di vista della collocazione dei libri andava inserito dopo la Fisica. » (Andreas Kamp. In Aristotele teoretico: interviste a Gabriele Giannantoni, Andreas Kamp, Wolfang Kullmann, Emilio Lledó. Le radici del pensiero filosofico. Istituto dell'Enciclopedia Italiana) [14] Aulo Gellio, Noctes Atticae, 19,4, formula la questione in questi termini: «Aristotelis libri sunt, qui Problemata Physica inscribuntur, lepidissimi et elegantiarum omnium repleti. [...] Item querit, cur accidat, ut eum, qui propter ignem diutius stetit, libido urinare lacessat. [...] De urina celebri ex igne proximo facta verba haec posuit: Quia ignis solida solvit». [15] Erasmo, Adagia, 1-8-29, Ex eodem ore calidum et frigidum efflare: «At huisce rei, quam satyrus admirabatur, causam reddit Aristoteles in Problematis, sectione XXXIV, problemate septimo, idque eo fieri putat, quod qui vehementius efflat, is non moveat universum aerem, sed ore contractiore paululum venti expiret ut calor ex ore profecto a reliquo aere, quem ob impetum plurimum movet, continuo evanescat atque in frigus abeat». [16] Paradoxographorum Graecorum Reliquiae, a cura di A. Giannini, Istituto Editoriale Italiano, 1966. [17] Aristotele, Opere, Metafisica, Laterza, Bari 1973, p. 323. [18] Cfr. G. Reale, La metafisica aristotelica come prosecuzione delle istanze di fondo della metafisica platonica, in «Pensamiento», n. 35 (1979), pagg. 133-143. [19] Come si può notare, la difficoltà di Aristotele nel cercare di risolvere la questione dell'essere, una delle più difficili che la filosofia greca si trovò ad affrontare, si presenta rovesciata rispetto a Platone; costui aveva il problema di conciliare le idee con le realtà sensibili, Aristotele all'opposto di come salvaguardare l'essenza eterna e universale del singolo ente in seguito alla sua distruzione. [20] Metafisica, Z 3, 1028 b 33. [21] La teologia come «scienza del divino» è per Aristotele la filosofia nel senso più alto, essendo «scienza dell'essere in quanto essere» (Metafisica, VI, 1, 1026 a, 2-21). [22] La caratteristica del suo essere "puro" dipende dal fatto che in Dio, come atto finale compiuto, non vi è la minima presenza della materia, la quale è soggetta a continue trasformazioni e quindi a corruzione. [23] «Riguardo al pensiero […] sembra che esso solo possa esser separato, come l'eterno dal corruttibile» (Aristotele, Dell'anima, II, 1, 413b). [24] «L'esperienza è conoscenza del particolare, mentre l'arte è conoscenza dell'universale. […] Gli empirici, infatti, sanno il che, non il perché […] Noi riteniamo che l'arte, più che l'esperienza, possa accostarsi alla scienza. […] Le sensazioni, da parte loro, sono indubbiamente fondamentali per l'acquisizione di conoscenze particolari, ma non ci spiegano le cause» (Aristotele, Metafisica I, 1, 981a - 981b). [25] Tutto quanto si pensa, si pensa necessariamente per immagini» (Aristotele, De anima, III, 7, 432 a). [26] Così il professor Reale: «Aristotele sottolinea che l'induzione non è propriamente un ragionamento, bensì un esser condotto dal particolare all'universale» (Storia della filosofia antica, vol. V, Vita e pensiero, 1983, pag. 142). [27] Attribuendo a Socrate la scoperta dell'epagoghè come metodo di ricerca volto alla definizione delle essenze (espresso nella formula "tì estì;", che cos'è?), Aristotele tuttavia riteneva che l'induzione conducesse a un'enumerazione incompleta di casi (cfr. Topici I, 12, 105 a 38 Aristotele 11-16). La generalizzazione a cui essa approda non ha fondamento alcuno se non sopravviene a darglielo l'intuizione noetica. [28] De anima, III, 4. [29] «La scienza in atto è identica con il suo oggetto» (De anima, III, 431 a, 1), o ancora «l'anima è, in un certo senso, tutti gli enti» (ibid., 431 h, 20). [30] «C'è un intelletto analogo alla materia perché diviene tutte le realtà, ed un altro che corrisponde alla causa efficiente perché le produce tutte, come una disposizione del tipo della luce, poiché in certo modo anche la luce rende i colori che sono in potenza colori in atto» (Aristotele, Sull'anima, libro III, in F. Volpi, Dizionario delle opere filosofiche, pag. 92, Mondadori, Milano 2000). Se questo intelletto produttivo e «separato» si identifichi col pensiero stesso di Dio, avente già in sè tutte le forme, è questione poco chiara che sarà a lungo dibattuta dalla filosofia araba e scolastica. [31] «Per dimostrazione intendo il sillogismo scientifico [...] Sarà pure necessario che la scienza dimostrativa si costituisca sulla base di premesse vere, prime, immediate» (Aristotele, Analitici Secondi, I, 2, 71b). [32] «Poiché non può sussistere nulla di più verace della scienza, se non l'intuizione, sarà l'intuizione ad avere come oggetto i principi» (Analitici Secondi, II, 19, l00b). [33] Il professor Reale così commenta l'importanza attribuita all'intuizione da Aristotele negli Analitici Secondi: «Una pagina, come si vede, che dà ragione alla istanza di fondo del platonismo: la conoscenza discorsiva suppone a monte una conoscenza non discorsiva, la possibilità del sapere mediato suppone di necessità un sapere immediato» (G. Reale, Introduzione a Aristotele, Laterza, 1977, pag. 159). [34] Topici, I, 2; Topici, I, 12. [35] Citazione in Marcello Marino, Leadership filosofica, Morlacchi editore, Perugia 2008, pag. 56. [36] «La virtù è una disposizione abitudinaria riguardante la scelta, e consiste in una medietà in relazione a noi, determinata secondo un criterio, e precisamente il criterio in base al quale la determinerebbe l'uomo saggio. Medietà tra due vizi, quello per eccesso e quello per difetto» (Aristotele, Etica Nicomachea, II, 6). [37] Oclocrazia, dal greco όχλος = moltitudine, massa, e κρατία = potere, è una forma di governo in cui le decisioni sono prese dalle masse. [38] Aristotele, Fisica, libro VIII. [39] Dante, Inferno, IV, 130-133. Bibliografia Traduzioni italiane • L'Anima, introduzione, traduzione, note e apparati di G. Movia, testo greco a fronte, Milano 1996, pp. 379; 1998 (II ed.). • Metafisica, a cura di C. A. Viano, Torino, 2005 ISBN 88-02-07171-3 Studi • • • • • • • • • • • • • George Grote, Aristotele, edito da A. Bain e G. Croom Robertsan, Londra 1872 Werner Jaeger, Aristotele, Sansoni, Firenze 1935 Alberto Jori, Aristotele, Milano, 2003 ISBN 88-424-9737-1 Fabrizio Bigotti, La Mente che Ordina i Segni. Ricerche sui problemi della forma nella filosofia naturale da Aristotele a Linneo, Roma, 2009 ISBN 978-88-548-2810-0 Enrico Berti, La filosofia del primo Aristotele, Padova, 1962 Enrico Berti, Aristotele. Dalla dialettica alla filosofia prima, Padova, 1977 ISBN 88-452-3272-7 Enrico Berti, Guida ad Aristotele, Laterza, Roma-Bari 1997 Alessandra d'Epiro Dusmet de Beaulieu, Alèxandros, Aristotéles, Nero, Seneca, Rosablu, Anzio-Roma 2011 ISBN 978-88-903865-2-7 Walter Leszl, Il «De Ideis» di Aristotele e la teoria platonica delle idee, Firenze, 1975 ISBN 88-222-2204-0 Margherita Isnardi Parente, Studi sull'accademia platonica antica, Firenze, 1979 ISBN 88-222-2848-2 Cicerone, Tuscolane, Milano, 1996 ISBN 88-17-17100-X Cicerone, La natura divina, Milano, 1998 ISBN 88-17-16828-9 Giovanni Reale, Guida alla lettura della «Metafisica» di Aristotele, Laterza: Roma-Bari, 2007 ISBN 88-8420-524-7 • Giovanni Reale, Il concetto di "filosofia prima" e l’unità della Metafisica di Aristotele (http://books.google.it/ books?id=aCY2D9tqOeMC&pg=PA142&lpg=PA142&dq=giovanni+reale+aristotele+concetto+prima+ 39 Aristotele • • • • • • • • • • 40 metafisica&source=bl&ots=CZ30XPSZy-&sig=djkZD05QkmkQ2GNB2IwNPH7Kmrk&hl=it& ei=DoDkSrbQNZPymQP0poGjCw&sa=X&oi=book_result&ct=result&resnum=1& ved=0CAgQ6AEwAA#v=onepage&q=&f=false), Vita e Pensiero, Milano 1994 ISBN 88-343-0554-X Giovanni Reale, Introduzione a Aristotele, Laterza, Roma-Bari 1991 Diogene Laerzio, Vite e dottrine dei più celebri filosofi, Bompiani, Milano 2006 ISBN 88-452-3301-4 M. Frede, G. Patzig, Il libro Z della Metafisica di Aristotele, Milano 2001 ISBN 978-88-343-0738-0 William David Ross, Aristotle, Oxford, 1923 William David Ross, Aristotle's Metaphysics, Oxford, 1924 Giuseppe Cambiano e Luciana Repici (a cura di), Aristotele e la conoscenza, LED Edizioni Universitarie, Milano 1993 ISBN 88-7916-035-4 AA.VV., Aristotele, a cura di G. Reale e A. Bausola, Vita e Pensiero, Milano 1994 Terence Irwin, I principi primi di Aristotele, Vita e Pensiero, Milano 1996 Armando Girotti, La filosofia di Aristotele, dal platonismo all'autonomia, Polaris, Faenza 1996 Annalisa Arci, L'orizzonte del vivente. Individui, parti e sostanze in Aristotele, Tangram Edizioni Scientifiche, Trento, 2011 ISBN 9788864580302 Voci correlate • Aristotelismo • Etica (Aristotele) • Essenza • Fisica (Aristotele) • Horror vacui • Logica (Aristotele) • Metafisica aristotelica • Metafisica (Aristotele) • Questioni meccaniche • Poetica (Aristotele) • Secretum Secretorum • Sull'anima (Aristotele) Altri progetti • • Wikisource contiene opere originali: http://it.wikisource.org/wiki/el:Αριστοτέλης Wikisource contiene opere originali: http://it.wikisource.org/wiki/Autore:Aristotele • • • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Aristotelēs Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Aristotele Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/Aristotele Collegamenti esterni • Aristotele, il maestro dei sapienti (http://www.mediatime.net/aristotele/) • Intervista a Wolfgang Kullmann, per una panoramica completa del pensiero di Aristotele (http://www. conoscenza.rai.it/site/it-IT/?ContentID=846&Guid=d4b83fc09001463b863faac45f882737) • L'Etica Nicomachea di Aristotele (http://www.ousia.it/SitoOusia/SitoOusia/TestiDiFilosofia/TestiHTML/ Aristotele/EticaNicomachea/Etica Nicomachea.htm) • Induzione, ragione e intuizione intellettuale in Aristotele (http://www.ariannaeditrice.it/articolo. php?id_articolo=1732) • (FR) Aristotele Opere (Francese) (http://remacle.org/bloodwolf/philosophes/Aristote/table.htm) • (EN) Averroes' commentary (http://gallica.bnf.fr/ark:/12148/bpt6k58717k/f2.pagination) on the Metaphysics, in Latin, together with the 'old'(Arabic) and new translation based on Moerbeke. Digitized at Gallica. Autoriferimento incrociato Autoriferimento incrociato Si ha un autoriferimento incrociato fra due o più enunciati quando ciascuno di essi si riferisce direttamente o indirettamente ad un altro. Ecco due esempi celebri: Il paradosso del foglio di Jordan Su i due lati di un foglio sono riportate le seguenti frasi: • sul davanti è scritto: 'la frase sul retro è vera', • sul retro è scritto: 'l'altra frase è falsa'. Supponiamo che la prima frase sia vera. Allora la frase sul retro è anch'essa vera. Essa però afferma che la frase sul davanti è falsa, contrariamente a quanto ipotizzato. Supponiamo invece che la frase sul davanti sia falsa. Questo implica che la frase sul retro è falsa. Poiché però essa afferma che la frase sul davanti è falsa, dobbiamo concludere che quest'ultima è vera ottenendo nuovamente una contraddizione. Questo paradosso è una variante del paradosso del mentitore. Nell'isola dei cavalieri e furfanti di Smullyan il paradosso del foglio di Jordan avrebbe come analogo il seguente dialogo fra due abitanti A e B dell'isola: • A dice di B che è un cavaliere, • B dice di A che è un mentitore (furfante). Raddoppiamenti Questa idea è dovuta al logico Raymond Smullyan. Cominciamo col definire: Il raddoppiato di: qualcosa è: 'qualcosa qualcosa' cioè viene semplicemente raddoppiato tutto ciò che è contenuto di seguito all'espressione 'Il raddoppiato di:' ed è contenuto nella stessa riga. Se però prima dell'espressione 'Il raddoppiato di:' compare un'altra istruzione, il raddoppiamento non viene effettuato. Con questa convenzione le due frasi che seguono creano un autoriferimento incrociato. • L'altra frase è: L'altra frase è Il raddoppiato di: L'altra frase è: L'altra frase è Il raddoppiato di: • L'altra frase è Il raddoppiato di: L'altra frase è: L'altra frase è Il raddoppiato di: Voci correlate • Paradosso del mentitore 41 Beni di Giffen Beni di Giffen I beni di Giffen sono quei beni per i quali la domanda aumenta all'aumentare del prezzo; costituiscono quindi un'eccezione rispetto al caso generale, nel quale la domanda varia in senso inverso rispetto al prezzo. Paradosso di Giffen Nei suoi Principi di economia, l'economista inglese Alfred Marshall fornì una prima dimostrazione della pendenza negativa della curva di domanda, insieme ad una chiara definizione della elasticità della domanda rispetto al prezzo, normalmente negativa.[1] Nella terza edizione della sua opera (1895), tuttavia, sottopose all'attenzione alcune eccezioni rilevate dallo statistico scozzese Robert Giffen. In particolare, Marshall faceva riferimento ad alcuni studi di Giffen sul consumo del pane: un aumento del prezzo del pane aveva un effetto così pesante sulle risorse dei lavoratori più poveri, che essi erano costretti a rinunciare alla carne e ad altri cereali più costosi; ne risultava quindi un aumento del consumo di pane nonostante l'aumento del prezzo.[2] Sembra, in realtà, che Giffen si riferisse alle patate, non al pane. Nel 1845 vi era stata in Irlanda una carestia che aveva aumentato il prezzo delle patate al punto che le famiglie povere dovettero aumentare il loro consumo non potendosi più permettere altri alimenti più costosi.[3] Tuttavia, non sono stati trovati riferimenti simili né al pane né alle patate irlandesi nelle opere di Giffen.[4] Tale fenomeno divenne comunque in seguito noto come paradosso di Giffen. Va notato che Marshall propose il paradosso (aumento della domanda all'aumentare del prezzo) nell'ambito di un'analisi della domanda che, limitata espressamente a beni che costituissero una quota trascurabile della spesa totale di un individuo, considerava unicamente l'effetto sostituzione.[5] In tal caso, un bene di Giffen è in primo luogo un bene per il quale non esistano sostituti. I successivi sviluppi della teoria del consumatore, dovuti a Slutsky, hanno introdotto la distinzione tra effetto sostituzione ed effetto reddito. Da tale punto di vista, la relazione positiva tra domanda e prezzo viene spiegata facendo riferimento alla diminuzione del reddito conseguente ad un aumento del prezzo di beni di prima necessità;[6] i beni di Giffen costituiscono quindi un caso particolare dei beni cosiddetti inferiori, che presentano una elasticità rispetto al reddito minore di uno (il loro consumo, secondo la legge di Engel, aumenta via via più lentamente al crescere del reddito, al contrario dei beni di lusso). Note [1] Cfr. Giovanni Pavanelli, Valore, distribuzione, moneta. Un profilo di storia del pensiero economico, Franco Angeli, Milano, 2003, pp. 207, 211. [2] Cfr. Alfred Marshall, Principles of Economics (http:/ / www. econlib. org/ library/ Marshall/ marP14. html#Bk. III,Ch. VI), 8ª edizione, Macmillan, Londra, 1920, Libro III, Capitolo VI, §4. [3] Cfr. Gerald P. Dwyer Jr. e Cotton M. Lindsay, « Robert Giffen and the Irish Potato (http:/ / www. jstor. org/ pss/ 1803318)», The American Economic Review, 1984, vol. 74, n. 1, pp. 188-192. [4] Cfr. George J. Stigler, « Notes on the History of the Giffen Paradox (http:/ / www. jstor. org/ stable/ 1825304)», The Journal of Political Economy, 1947, vol. 55, n. 2, pp. 152-156. [5] Cfr. Mark Blaug, Storia e critica della teoria economica, Boringhieri, Torino, 1977, pp. 431-439. [6] Cfr. Andreu Mas-Colell, Michael D. Whinston e Jerry R. Green, Microeconomic Theory, Oxford University Press, New York, 1995, pp. 25-26, 29. 42 Beni di Giffen Bibliografia • G.Rodano e E. Saltari, Lineamenti di teoria economica, Roma, Carocci, 2006 Voci correlate • Robert Giffen • Domanda e offerta Calcolo combinatorio Il calcolo combinatorio è il termine che denota tradizionalmente la branca della matematica che studia i modi per raggruppare e/o ordinare secondo date regole gli elementi di un insieme finito di oggetti. Il calcolo combinatorio si interessa soprattutto di contare tali modi, ovvero le configurazioni e solitamente risponde a domande quali "Quanti sono...", "In quanti modi...", "Quante possibili combinazioni..." eccetera. Più formalmente, dato un insieme S di n oggetti si vuole contare le configurazioni che possono assumere k oggetti tratti da questo insieme. Prima di affrontare un problema combinatorio bisogna precisare due punti importanti: • Se l'ordinamento è importante, ovvero se due configurazioni sono le stesse a meno di un riordinamento ({x,y,z} è uguale a {z,x,y}?) • Se si possono avere più ripetizioni di uno stesso oggetto, ovvero se uno stesso oggetto dell'insieme può o meno essere riusato più volte all'interno di una stessa configurazione. Permutazioni Permutazioni semplici (senza ripetizioni) Una permutazione di un insieme di oggetti è una presentazione ordinata, cioè una sequenza, dei suoi elementi nella quale ogni oggetto viene presentato una ed una sola volta. Per contare quante siano le permutazioni di un insieme con n oggetti, si osservi che il primo elemento della configurazione può essere scelto in n modi diversi, il secondo in (n-1), il terzo in (n-2) e così via sino all'ultimo che potrà essere preso in un solo modo essendo l'ultimo rimasto. Dunque, indicando con Pn il numero delle possibili permutazioni di un insieme di n elementi, si ottiene che esse sono esattamente n! (n fattoriale): Ad esempio le permutazioni degli elementi dell'insieme {a,b,c} sono 3! = 6: abc, bac ,bca, cab, cba, acb. Un altro esempio può essere il seguente: In quanti modi possibili possiamo anagrammare la parola -ATRIO-, contando anche le parole prive di significato: ATRIO n=5; P5= 5 * 4 * 3 * 2 * 1 = 120 modi di anagrammare la parola ATRIO. N.B: nella parola ATRIO nessuna lettera si ripete. Per completare meglio la definizione di fattoriale fissiamo anche i valori seguenti: 1! = 1 e 0! = 1. 43 Calcolo combinatorio 44 Permutazioni con ripetizioni In alcuni casi un insieme può contenere elementi che si ripetono. In questo caso alcune permutazioni di tali elementi saranno uguali tra loro. Indicando con k1, k2 fino a kr il numero di volte che si ripetono rispettivamente gli elementi 1, 2 fino a r, dove r ≤ n, le permutazioni uniche (non ripetute) divengono: Si tratta, infatti, di dividere il numero delle distinte permutazioni di n oggetti per il numero delle permutazioni di k1! presenze di uno stesso elemento, tutte uguali tra loro, poi per il numero delle permutazioni di k2! presenze di uno stesso elemento, ecc. La formula vale in realtà per qualsiasi permutazione, anche senza ripetizioni di elementi. Infatti, se assumiamo k1, k2 fino a kr uguali ad 1 (cioè gli elementi si ripetono una sola volta), otteniamo esattamente la formula delle permutazioni semplici, perché si ha: c Dismutazioni Sono dette dismutazioni le permutazioni prive di punti fissi, con formula: Disposizioni Disposizioni semplici (senza ripetizioni) Una disposizione semplice di lunghezza k di elementi di un insieme S di n oggetti, con k ≤ n, è una presentazione ordinata di k elementi di S nella quale non si possono avere ripetizioni di uno stesso oggetto. Per avere il numero di queste configurazioni si considera che il primo componente di una tale sequenza può essere scelto in n modi diversi, il secondo in (n-1) e così via, sino al k-esimo che può essere scelto in (n-k+1) modi diversi. Pertanto il numero Dn,k di disposizioni semplici di k oggetti estratti da un insieme di n oggetti è dato da: Ad esempio le disposizioni semplici di lunghezza 2 degli elementi dell'insieme {1,2,3,4,5} sono 5!/(5-2)! = 5!/3! = 120/6 = 20: 12, 13, 14, 15, 21, 23, 24, 25, 31, 32, 34, 35, 41, 42, 43, 45, 51, 52, 53, 54. Si osserva che le permutazioni sono casi particolari delle disposizioni semplici: le permutazioni di un insieme di n oggetti sono le disposizioni semplici di tali oggetti di lunghezza n. In effetti per il loro numero: Disposizioni con ripetizioni Una presentazione ordinata di elementi di un insieme nella quale si possono avere ripetizioni di uno stesso elemento si dice disposizione con ripetizioni. Cerchiamo il numero delle possibili sequenze di k oggetti estratti dagli elementi di un insieme di n oggetti, ognuno dei quali può essere preso più volte. Si hanno n possibilità per scegliere il primo componente, n per il secondo, altrettante per il terzo e così via, sino al k-esimo che completa la configurazione. Il numero cercato è pertanto: Calcolo combinatorio 45 Ad esempio le disposizioni con ripetizione di lunghezza 2 degli elementi di {1,2,3,4,5} sono 52 = 25: Si osserva che può anche essere k > n Combinazioni Combinazioni semplici (senza ripetizioni) Si chiama combinazione semplice una presentazione di elementi di un insieme nella quale non ha importanza l'ordine dei componenti e non si può ripetere lo stesso elemento più volte. La collezione delle combinazioni di k elementi estratti da un insieme S di n oggetti distinti si può considerare ottenuta dalla collezione delle disposizioni semplici di lunghezza k degli elementi di S ripartendo tali sequenze nelle classi delle sequenze che presentano lo stesso sottoinsieme di S e scegliendo una sola sequenza da ciascuna di queste classi. Ciascuna delle suddette classi di sequenza di lunghezza k contiene k! sequenze, in quanto accanto a una sequenza σ si hanno tutte e sole quelle ottenibili permutando i componenti della σ. Quindi il numero delle combinazioni semplici di n elementi di lunghezza k si ottiene dividendo per k! il numero delle disposizioni semplici di n elementi di lunghezza k: Di solito tra le diverse disposizioni semplici di una classe si sceglie come combinazione rappresentativa la sequenza nella quale i componenti compaiono in ordine crescente (tutti gli insiemi finiti possono avere gli elementi ordinati totalmente, ovvero associati biunivocamente ai primi interi positivi). Ad esempio le combinazioni semplici di lunghezza 4 degli elementi di {1,2,3,4,5,6} sono 6!/(4!2!) = 15: 1234, 1235, 1236, 1245, 1246, 1256, 1345, 1346, 1356, 1456, 2345, 2346, 2356, 2456, 3456. Combinazioni con ripetizioni Quando l'ordine non è importante ma è possibile avere componenti ripetute si parla di combinazioni con ripetizione. Il numero di combinazioni con ripetizione di n oggetti di classe k è uguale a quello delle combinazioni senza ripetizione di n+k-1 oggetti di classe k ed è quindi uguale a: . Ad esempio, vi sono modi di distribuire a 2 bambini distinguibili 4 caramelle indistinguibili, contando anche i casi in cui uno dei bambini non riceve nessuna caramella: 0-4, 1-3, 2-2, 3-1, 4-0. Equivalentemente, le combinazioni con ripetizioni informano sul numero di possibili n-ple di addendi non negativi la cui somma sia k (considerando diverse n-ple in cui eguali addendi compaiano in ordine differente); nel suddetto esempio, sono mostrate le cinque diverse duple di somma 4. Inoltre, le combinazioni con ripetizioni per n oggetti di classe k rappresentano il numero delle derivate parziali di ordine k calcolabili per una funzione a n variabili. Calcolo combinatorio 46 Voci correlate • • • • • • Combinatoria Permutazione Disposizione Combinazione Dismutazione (matematica) Binomio di Newton Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Combinatorics Combinazione Nel calcolo combinatorio, se n e k sono due interi positivi, si definisce combinazione di n elementi presi k alla volta (oppure di n elementi di classe k) ogni sottoinsieme di k oggetti estratti da un insieme di n oggetti. Se si impone la condizione che una combinazione non può avere un elemento ripetuto si parla di combinazioni semplici, altrimenti di combinazioni con ripetizione. Nel primo caso deve essere ovviamente k ≤ n. In entrambi i casi i sottoinsiemi si considerano indipendenti dall'ordine degli elementi. Ad esempio, se siamo in presenza dell'insieme {p,q,r,s,t} e prendiamo in esame le combinazioni di classe 3, non fa alcuna differenza considerare i gruppi prs, psr, rps, spr, rsp ed srp in quanto essi sono formati dagli stessi elementi, mentre prs ed srq sono considerate due combinazioni distinte in quanto differiscono in alcuni degli elementi. Combinazioni semplici Dato un insieme A di cardinalità n, il numero dei sottoinsiemi di A di cardinalità k ≤ n si ottiene calcolando prima il numero delle funzioni da un generico sottoinsieme di cardinalità k in A, che è il numero delle disposizioni di n elementi di classe k, poi, dal momento che si prescinde dall'ordine, si divide tale numero per quello delle permutazioni di k elementi: Il simbolo viene detto coefficiente binomiale. Giustificazione della formula Facciamo riferimento al numero dei sottoinsiemi di cardinalità 4 dell'insieme {a,b,c,d,e,f}; per la definizione data, abbiamo: Nella fattispecie, i 15 gruppi sono: abcd, abce, abcf, abde, abdf, abef, acde, acdf, acef, adef bcde, bcdf, bcef, bdef cdef Combinazione Il risultato può essere ottenuto col seguente ragionamento. Immaginiamo di mettere in un sacchetto le 6 lettere a,b,c,d,e,f ed estraiamo a caso la prima, che può essere indifferentemente una delle 6: abbiamo quindi 6 possibilità di estrazione. Ora passiamo ad estrarre la seconda lettera: poiché nel sacchetto ne sono rimaste 5, abbiamo 5 possibilità di estrazione. A questo punto nel sacchetto ne sono rimaste 4: quando estrarremo la terza lettera avremo 4 possibilità di estrazione. Infine, essendone rimaste 3, quando estrarremo la quarta lettera avremo 3 possibilità di estrazione. Se moltiplichiamo tutte le possibilità fra loro, avremo 6×5×4×3 = 360 possibili gruppi. Il valore ottenuto di 360 è, in realtà, il numero delle disposizioni semplici di 6 oggetti di classe 4, nelle quali l'ordine è rilevante. Ad esempio, le lettere successivamente estratte potrebbero essere a,b,c,d, ma anche d,c,b,a. Le due sequenze differiscono nell'ordine, ma comprendono entrambe gli stessi elementi di un unico sottoinsieme dell'insieme dato. In generale, le quattro lettere a,b,c,d possono presentarsi in 24 modi diversi, da considerarsi però equivalenti ai fini delle combinazioni: abcd abdc acbd acdb adbc adcb bacd badc bcad bcda bdac bdca cabd cadb cbad cbda cdab cdba dabc dacb dbac dbca dcab dcba Poiché nelle combinazioni non siamo interessati all'ordine di estrazione, dobbiamo dividere 360 per il numero di tutte le diverse sequenze che si possono formare con le stesse 4 lettere, cioè per il numero delle permutazioni di 4 elementi, dato da 4! = 24. Il risultato finale è: Generalizzando, se abbiamo n elementi da raggruppare a k a k, dobbiamo effettuare il seguente rapporto Se moltiplichiamo numeratore e denominatore per (n-k)! otteniamo, come volevasi dimostrare, Ad esempio, se si vuole conoscere il numero di comitati di 3 membri che si possono formare scegliendo tra 6 persone, interessa solo sapere in quanti modi si possono scegliere i membri del comitato e non importa quale venga scelto per primo o quale per ultimo: in tal caso, il numero dei comitati possibili è C6,3 = 20. Se invece volessimo sapere in quanti modi possono presentarsi i primi 3 classificati tra 6 concorrenti, l'ordine sarebbe rilevante e, quindi, le possibili classifiche sarebbero D6,3 = 120. Ordine lessicografico Al fine di evitare di considerare erroneamente come valida una combinazione semplice che in realtà è già stata precedentemente presa in considerazione con un altro ordine, si può ricorrere a quest'altra definizione di combinazione. Si consideri un insieme S di n elementi, preventivamente ordinati e si consideri un intero naturale k tale che 0≤k≤n. Si dice combinazione di elementi di S di lunghezza k ogni sequenza di k elementi di S che sia crescente in base all'ordine preventivamente prefissato. Ad esempio, le combinazioni di lunghezza 4 degli elementi di {a,b,c,d,e,f}, preventivamente ordinati secondo il tradizionale ordine alfabetico, sono le seguenti 15: abcd abce abcf abde abdf abef acde acdf acef adef bcde bcdf bcef bdef cdef 47 Combinazione Si può notare come le combinazioni rispettino l'ordine lessicografico, in conformità con l'ultima definizione data. Attenendosi all'ordine, si evita di fare confusione considerando come diverse due combinazioni che in realtà non lo sono, tratti in inganno dall'ordine diverso con il quale si presentano i suoi elementi. Criptomorfismo Rifacendoci all'esempio di prima, si possono codificare le combinazioni semplici che abbiamo ottenuto con delle sequenze binarie. Nel nostro caso particolare. tali sequenze binarie sono di lunghezza 6 e peso 4 e presentano lo stesso contenuto informativo delle combinazioni indicate nell'esempio. Nella fattispecie, usando numeri binari di 6 cifre, di cui la prima sia 1 se compare la a e zero in caso contrario, la seconda sia 1 o 0 secondo che compaia o meno la b ecc., abbiamo: 111100 111010 111001 110110 110101 110011 101110 101101 101011 100111 011110 011101 011011 010111 001111 Si noti come queste sequenze siano presentate in ordine antilessicografico. In generale, quindi, tra le combinazioni semplici di n elementi di lunghezza k e le sequenze binarie di lunghezza n e peso k si ha un criptomorfismo e risulta equivalente operare con le combinazioni o con le sequenze binarie. Poter operare in modo equivalente con le sequenze binarie si rivela molto utile in ambito informatico. Combinazioni con ripetizione Nelle combinazioni con ripetizione di lunghezza k, ogni elemento può essere ripetuto fino a k volte. Il loro numero è: Tale risultato può essere dimostrato in diversi modi. Prima dimostrazione Dato un qualsiasi insieme finito di n elementi, questo può essere posto in corrispondenza biunivoca con l'insieme {1,2,...,n}; ci si può quindi chiedere quanti sono i sottoinsiemi di cardinalità k di questo. A tal fine, si considerano le sequenze non decrescenti, di lunghezza k, di interi appartenenti a {1,2,...,n}. Consideriamo una di queste sequenze: e associamole la sequenza: La nuova sequenza è strettamente crescente, non presenta ripetizioni e quindi individua una combinazione semplice di lunghezza k degli interi in {1, 2, ..., n+k–1}. La precedente associazione pone in corrispondenza biunivoca le combinazioni con ripetizioni di lunghezza k degli elementi di {1, 2, ..., n} con le combinazioni semplici di lunghezza k degli interi in {1, 2, ..., n+k-1}. Quindi il numero delle combinazioni con ripetizioni di lunghezza k dei primi n interi positivi coincide con il numero delle combinazioni semplici di lunghezza k dei primi n+k-1 interi positivi: Un esempio può aiutare a comprendere meglio la dimostrazione. Dato l'insieme {1,2}, associamo a ciascuna delle sue combinazioni con ripetizione di classe 3 una sequenza definita come sopra: 1,1,1 → 1, 1+1, 1+2 → 1,2,3 1,1,2 → 1, 1+1, 2+2 → 1,2,4 48 Combinazione 1,2,2 → 1, 2+1, 2+2 → 1,3,4 2,2,2 → 2, 2+1, 2+2 → 2,3,4 A ciascuna delle combinazioni con ripetizione corrisponde una ed una sola delle combinazioni semplici di classe 3 dell'insieme {1,...,(2+3-1)} = {1,2,3,4} e viceversa. Il numero delle prime è quindi uguale al numero delle seconde, che è C2+3–1,3. Seconda dimostrazione Il numero delle combinazioni di n elementi di classe k è uguale al numero delle funzioni crescenti da un insieme A di cardinalità k in un insieme B di cardinalità n. Una qualsiasi di tali funzioni è un insieme di coppie (ai,bj), in cui ai è un elemento di A (con i = 1,2,...,k) e bj è un elemento di B (con j = 1,2,...,n). In tale insieme, vi sono tante coppie quanti sono gli elementi di A e nessun elemento di A compare in più di una coppia. Gli elementi di B, inoltre, possono ciascuno comparire in nessuna o più coppie. Si considerano rilevanti, in una prima fase, le sequenze di coppie; ad esempio, individuate due coppie in cui sia presente a secondo membro un dato elemento b, la sequenza (a1, b), (a2, b) è diversa dalla sequenza (a2, b), (a1, b). Si indicano inoltre con Fk l'insieme delle funzioni da A in B, con Fk-1 l'insieme delle funzioni da un sottoinsieme di cardinalità k–1 di A in B, in entrambi i casi considerando distinte, provvisoriamente, funzioni diverse solo per la sequenza delle coppie che condividono il secondo membro. Sia |Fk-1| il numero delle funzioni dell'ultimo tipo. Vi sono n+k–1 modi di estendere ciascuna di tali funzioni a tutto A. Infatti, scelto un qualsiasi elemento bj di B, se questo è già presente in altre mj coppie (quelle, appunto, il cui secondo membro è bj), la nuova coppia (ak, bj) potrà essere posta in sequenza con le altre in mj+1 modi diversi: prima della prima, oppure dopo una qualsiasi delle m. Considerando che: e che la nuova coppia può avere a secondo membro un qualsiasi elemento di B, si ha: La cardinalità dell'insieme Fk può quindi essere calcolata per ricorrenza: Si può osservare che si tratta del numero di disposizioni semplici di (n+k–1) elementi di classe k. Per ottenere il numero delle funzioni crescenti, è sufficiente eliminare la distinzione prima introdotta tra funzioni diverse solo per la sequenza delle coppie, quindi scegliere una sola delle k! permutazioni delle coppie (che sono tante quante gli elementi di A). Si ottiene così: Anche qui può essere utile un esempio. Siano A = {a1,a2,a3} e B = {b1,b2}. L'insieme F1 contiene solo due funzioni: (a1,b1) e (a1,b2). Aggiungiamo ora le coppie che hanno a2 come primo elemento e consideriamo distinte le funzioni con diverse sequenze delle coppie che condividono il secondo membro. Otteniamo le funzioni in F2: 49 Combinazione 50 da (a1,b1) da (a1,b2) (a2,b1), (a1,b1) (a2,b1), (a1,b2) (a1,b1), (a2,b1) (a2,b2), (a1,b2) (a1,b1), (a2,b2) (a1,b2), (a2,b2) Si ha quindi: Si tratta delle 6 disposizioni semplici di (2+2-1) = 3 elementi di classe 2. I tre elementi sono i due elementi di A finora considerati ed un "elemento di separazione" che consenta di distinguere quali sono associati a b1 e quali a b2. Indicando tale elemento con una barra verticale, le sei funzioni sono: 1. 2. 3. 4. 5. 6. a1 a2 | (entrambi associati a b1) a2 a1 | (entrambi associati a b1) a1 | a2 (a1 associato a b1, a2 associato a b2) a2 | a1 (a2 associato a b1, a1 associato a b2) | a1 a2 (entrambi associati a b2) | a2 a1 (entrambi associati a b2) Per ottenere il numero delle funzioni crescenti, quelle cioè tali che se i < j allora f(ai) ≤ f(aj), basta dividere per il numero delle permutazioni dei due elementi di A, che sono 2! = 2. Si ottiene così che le funzioni crescenti sono 6/2 = 3 (sono quelle al primo, terzo e quinto posto dell'elenco). Per estendere le funzioni a tutto A, aggiungiamo le coppie che hanno a3 come primo elemento: da (a2,b1), (a1,b1) da (a1,b1), (a2,b1) da (a1,b1), (a2,b2) da (a2,b1), (a1,b2) da (a2,b2), (a1,b2) da (a1,b2), (a2,b2) (a3,b1),(a2,b1),(a1,b1) (a3,b1),(a1,b1),(a2,b1) (a3,b1),(a1,b1),(a2,b2) (a3,b1),(a2,b1),(a1,b2) (a3,b1),(a2,b2),(a1,b2) (a3,b1),(a1,b2),(a2,b2) (a2,b1),(a3,b1),(a1,b1) (a1,b1),(a3,b1),(a2,b1) (a1,b1),(a3,b1),(a2,b2) (a2,b1),(a3,b1),(a1,b2) (a3,b2),(a2,b2),(a1,b2) (a3,b2),(a1,b2),(a2,b2) (a2,b1),(a1,b1),(a3,b1) (a1,b1),(a2,b1),(a3,b1) (a1,b1),(a3,b2),(a2,b2) (a2,b1),(a3,b2),(a1,b2) (a2,b2),(a3,b2),(a1,b2) (a1,b2),(a3,b2),(a2,b2) (a2,b1),(a1,b1),(a3,b2) (a1,b1),(a2,b1),(a3,b2) (a1,b1),(a2,b2),(a3,b2) (a2,b1),(a1,b2),(a3,b2) (a2,b2),(a1,b2),(a3,b2) (a1,b2),(a2,b2),(a3,b2) per un totale di 24 coppie. Si ha quindi: Questo è il numero delle disposizioni semplici di (2+3-1) = 4 elementi di classe 3, dove i quattro elementi sono a1, a2, a3 e l'"elemento separatore" che consente di distinguere se sono associati a b1 oppure a b2. Il numero delle funzioni crescenti si ottiene dividendo per il numero delle permutazioni dei tre elementi di A: 24/3! = 24/6 = 4. Le funzioni crescenti sono, infatti: 1. 2. 3. 4. a1 a2 a3 | ovvero (a1,b1),(a2,b1),(a3,b1) a1 a2 | a3 ovvero (a1,b1),(a2,b1),(a3,b2) a1 | a2 a3 ovvero (a1,b1),(a2,b2),(a3,b2) | a1 a2 a3 ovvero (a1,b2),(a2,b2),(a3,b2) Combinazione Terza dimostrazione La precedente dimostrazione può essere semplificata come segue. Dato un insieme A di k elementi, vogliamo ripartire i suoi elementi in n gruppi, ciascuno contenente da 0 a k elementi di A. Rappresentiamo gli elementi di A con asterischi, i gruppi con n–1 barre verticali; ad esempio, se n = 4 e k = 6, possiamo avere ripartizioni come le seguenti (tra parentesi il numero di elementi in ciascun gruppo): ∗ ∗ | ∗ ∗ | ∗ | ∗ (2,2,1,1) | ∗ ∗ ∗ | ∗ | ∗ ∗ (0,3,1,2) oppure: ∗ ∗ | | | ∗ ∗ ∗ ∗ (2,0,0,4) o anche: ∗ ∗ ∗ ∗ ∗ ∗ | | | (6,0,0,0) In ciascuna rappresentazione abbiamo una sequenza di n+k–1 simboli. Dal momento che non interessa l'ordine, si tratta solo di vedere in quanti modi si possono scegliere n–1 di tali simboli per farne delle barre. Si ha quindi, per una proprietà del coefficiente binomiale: Esempi Le combinazioni con ripetizione di lunghezza 2 dei primi 5 interi positivi sono: e precisamente: 11, 12, 13, 14, 15, 22, 23, 24, 25, 33, 34, 35, 44, 45, 55. Si può però anche avere k > n: ad esempio, le combinazioni di lunghezza 5 dei primi 2 interi positivi sono: ovvero: 11111, 11112, 11122, 11222, 12222, 22222. Numero di soluzioni intere di un'equazione Il calcolo delle combinazioni con ripetizione consente di trovare il numero delle soluzioni intere non negative di un'equazione in n variabili del tipo: In questo caso k può essere visto come il numero delle unità che si possono ripartire in n gruppi diversi, anche vuoti, quindi come il numero degli asterischi della terza dimostrazione, svolgendo i "+" il ruolo delle barre. Ad esempio, l'equazione: ammette, tra le altre, le seguenti soluzioni (tra parentesi la rappresentazioni con sequenze di "1" e "+"): Trovare il loro numero equivale a trovare il numero delle combinazioni con ripetizione di n elementi di classe k. Nel caso dell'equazione data, il numero è: 51 Combinazione Per un caso più semplice, le soluzioni intere non negative dell'equazione: sono: ovvero le quattro coppie (0,3), (1,2), (2,1), (3,0). Si può anche calcolare il numero delle soluzioni intere positive di un'equazione (detto "numero delle composizioni di k in n parti"). Data un'equazione del tipo: basta trasformarla in: ponendo yi = xi–1. Si ottiene così: Nel caso dell'equazione x1+x2 = 3, il numero delle soluzioni intere positive (il numero delle composizioni di 3 in 2 parti) è: ovvero le due coppie (1,2) e (2,1). Multinsiemi Il numero delle combinazioni con ripetizione di n elementi di classe k viene anche detto numero dei multinsiemi di cardinalità k di un insieme di cardinalità n. Si usa, al riguardo, la definizione di multinsieme come funzione mU: U → {0,1,2,...}. Ad esempio, dato l'insieme U = {a,b,c}, un multinsieme di cardinalità 3 è {(a,0), (b,2), (c,1)}, ovvero, nella notazione esponenziale, a0 b2 c1. La sua cardinalità è la somma dei secondi membri delle coppie, o degli esponenti nella seconda notazione. Tale multinsieme può essere rappresentato come una delle possibili combinazioni con ripetizione di classe 3 dei 3 elementi di U: bbc. Il numero delle combinazioni con ripetizione di classe 3 dei 3 elementi di U è (3+3–1)!/(2!3!) = 10; le combinazioni sono: aaa, aab, aac, abb, abc, acc, bbb, bbc, bcc, ccc Questo è anche il numero dei multinsiemi di cardinalità 3 di U, che sono: a3b0c0, a2b1c0, a2b0c1, a1b2c0, a1b1c1, a1b0c2, a0b3c0, a0b2c1, a0b1c2, a0b0c3 Si può notare che il loro numero è anche uguale a quello delle soluzioni intere non negative dell'equazione: 52 Combinazione 53 Voci correlate • • • • • • Calcolo combinatorio Disposizione Multinsieme Permutazione Reticolo booleano Triangolo di Tartaglia Bibliografia • Mauro Cerasuoli, Franco Eugeni e Marco Protasi, Elementi di matematica discreta, Zanichelli, Bologna, 1988. • Sheldon M. Ross, Calcolo delle probabilità, Apogeo, Milano, 2004. Dismutazione (matematica) In combinatoria vengono dette dismutazioni (o sconvolgimenti, o permutazioni complete) le permutazioni di un insieme che non fissano alcun elemento, ovvero nessuno degli elementi dell'insieme iniziale compare nella sua posizione originaria. Formalmente, se le permutazioni di un insieme X sono le funzioni biiettive le funzioni biiettive tali che , le dismutazioni di X sono . Si verifica facilmente che non esiste alcuna dismutazione per un insieme di un solo elemento, ne esiste 1 per un insieme di 2 elementi, 2 per un insieme di 3 elementi, 9 per uno di 4 elementi... Ad esempio, le 9 dismutazioni possibili della parola "ABCD" sono: BADC BCDA BDAC CADB CDAB CDBA DABC DCAB DCBA Contare le dismutazioni Il numero di dismutazioni di un insieme di n elementi è . La dimostrazione di questo fatto è un esempio di applicazione del principio di inclusione ed esclusione. Dato un insieme di elementi, siano rispettivamente l'insieme delle sue permutazioni e quello delle sue dismutazioni. Sia evidentemente l'insieme delle permutazioni che fissano l' -esimo elemento. La sua cardinalità sarà , perché gli altri elementi possono muoversi liberamente. Per calcolare la cardinalità di , vorremmo sottrarre dal numero totale delle permutazioni il numero di quelle che fissano (almeno) 1 elemento. Cerchiamo quindi Osserviamo che precisamente, , perché in , dove le intersezioni del tipo . . Sia . saranno contate 2 volte. Più Dismutazione (matematica) In generale, 54 definiti e abbiamo che , . In particolare ne ricaviamo Calcolare la cardinalità di non è difficile: i modi di scegliere elementi (quelli da fissare) sono ognuno di questi gli altri elementi possono permutare liberamente, quindi in , e per modi. Ne segue che . A questo punto sappiamo che il numero di permutazioni che fissano almeno un elemento è . Quindi quelle che non ne fissano nessuno sono . Questa espressione viene talvolta chiamata subfattoriale di e denotata con . Comportamento asintotico Per conoscere il comportamento asintotico del numero di dismutazioni di un insieme di succede per ) possiamo notare che (dove il simbolo è proprio la serie di Taylor di , e che quindi significa è asintoticamente equivalente a). Un altro modo di vedere questo risultato è che, dato a caso di un insieme di elementi (ovvero cosa sufficiente grande, la probabilità che una permutazione scelta elementi sia una dismutazione è circa Generalizzazioni Talora servono dismutazioni che, oltre a non ammettere punti fissi, soddisfano restrizioni ulteriori. Le dismutazioni costituiscono un esempio della ampia collezione degli insiemi di permutazioni soggette a vincoli. Ad esempio il problema dei ménages chiede per n coppie di coniugi, in quanti modi possono essere sistemati ad un tavolo rotondo in modo che si alternino uomini e donne e in modo che nessuno si trovi di fianco al coniuge. Su un piano più formale, dati due insiemi A ed S e date due collezioni U e V di suriezioni da A in S, ci si può chiedere il numero delle coppie di funzioni (f,g) con f in U e g in V, tali che per tutti gli a in A si abbia f(a) ≠ g(a); in altre parole ci si chiede quando per ogni f e g esiste una dismutazione φ di S tale che f(a) = φ(g(a)). Dismutazione (matematica) Voci correlate • Combinatoria • Combinazione • Permutazione Collegamenti esterni • • • • Sequenza A000166 [1] della OEIS di Neil Sloane Derangements and applications [2] di Mehdi Hassani Non-sexist solution of the ménage problem [3] di Kenneth P. Bogart, Peter G. Doyle Derangement [4] in MathWorld di Eric Weisstein Note [1] [2] [3] [4] http:/ / www. research. att. com/ ~njas/ sequences/ A000166?language=italian http:/ / www. cs. uwaterloo. ca/ journals/ JIS/ VOL6/ Hassani/ hassani5. pdf http:/ / www. math. dartmouth. edu/ ~doyle/ docs/ menage/ menage/ menage. html http:/ / mathworld. wolfram. com/ Derangement. html Disposizione Nel calcolo combinatorio, se n e k sono due interi positivi, si definisce disposizione di n elementi k a k (oppure di n elementi di classe k, oppure di n elementi presi k alla volta) ogni sottoinsieme ordinato di k oggetti estratti da un insieme di n oggetti, in cui i sottoinsiemi differiscono se presentano qualche elemento diverso o se presentano gli stessi elementi ma in ordine diverso. Talvolta, k viene chiamato numero di posti e la disposizione di n oggetti in k posti viene chiamata k-disposizione. Se si impone la condizione che in ogni sottoinsieme non sono ammessi elementi ripetuti si parla di disposizioni semplici altrimenti di disposizioni con ripetizione. Nel primo caso deve essere ovviamente k ≤ n. Disposizioni semplici Siano A un insieme finito di cardinalità k e B un insieme finito di cardinalità n, con 0 ≤ k ≤ n. Sia inoltre Fk l'insieme delle funzioni iniettive f: A → B. Sia Fk-1 l'insieme delle funzioni iniettive da un sottoinsieme di A di cardinalità k–1 in B. Ciascuna di tali funzioni è un insieme di k-1 coppie (a,b), con a appartenente al sottoinsieme di A e b appartenente a B, tali che ciascun a e ciascun b compaiano in una sola di esse. Sia |Fk-1| il numero di tali funzioni. Il numero delle funzioni iniettive da A in B si ottiene aggiungendo, per ciascuna funzione, il numero delle coppie (a,b) in cui a e b non siano già presenti in alcuna coppia. Vi è un solo a, ma vi sono n – (k-1) elementi b, ovvero n – (k-1) nuove coppie. Si ha quindi la ricorrenza: essendo |F1| = n, in quanto vi sono n coppie (a,b) in cui a sia fissato e b sia scelto tra gli n elementi di B. Il numero delle funzioni iniettive da un insieme di cardinalità k in uno di cardinalità n si indica anche col simbolo: 55 Disposizione Nella terminologia combinatoria classica, il numero delle applicazioni iniettive da un insieme di cardinalità k in un insieme di cardinalità n viene detto numero delle disposizioni semplici di n oggetti presi k alla volta, o di classe k, e si indica con Dn,k. Ad esempio, se n=5 e k=3 e come oggetti consideriamo le lettere A, B, C, D ed E, allora le disposizioni possibili sono le seguenti 5!/(5-3)! = 120/2 = 60: ABC ABD ABE ACB ACD ACE ADB ADC ADE AEB AEC AED BAC BAD BAE BCA BCD BCE BDA BDC BDE BEA BEC BED CAB CAD CAE CBA CBD CBE CDA CDB CDE CEA CEB CED DAB DAC DAE DBA DBC DBE DCA DCB DCE DEA DEB DEC EAB EAC EAD EBA EBC EBD ECA ECB ECD EDA EDB EDC Il risultato può essere ottenuto col seguente ragionamento: supponiamo di mettere in un sacchetto le lettere A, B, C, D ed E e di estrarne una a caso. La prima lettera estratta può essere indifferentemente una delle 5 e quindi abbiamo 5 possibilità di estrazione. Ora passiamo ad estrarre la seconda lettera: poiché nel sacchetto ne sono rimaste 4, abbiamo 4 possibilità di estrazione. A questo punto, nel sacchetto ne sono rimaste 3 ed avremo quindi, per la terza lettera, 3 possibilità di estrazione. Se moltiplichiamo tutte le possibilità fra loro, avremo 5×4×3 = 60 possibili gruppi. Generalizzando, ogni volta che si estrae una lettera, il numero delle lettere che si possono estrarre diminuisce di uno; se nel sacchetto ci sono n lettere e vogliamo estrarne k avremo: ovvero un prodotto di k fattori pari a n diminuito di 0, 1, ..., (k-1). Moltiplicando e dividendo tale prodotto per (n-k)!, si ottiene la formula data sopra: Infine si può notare che c'è una relazione tra le disposizioni e le permutazioni; infatti nel caso in cui k sia uguale a n si avrebbe: cioè le permutazioni di n elementi. Disposizioni con ripetizione Una funzione da un insieme A in un insieme B può essere vista come un insieme di coppie (a,b) tale che vi siano tante coppie quante sono gli elementi a di A e che non vi sia alcun a presente in più di una coppia. Possono invece esservi nessuna o più coppie aventi, come secondo membro, un dato elemento b di B. Dati un insieme A di cardinalità k ed un insieme B di cardinalità n, con n e k interi positivi, il numero delle funzioni da A in B è dato da nk, in quanto ciascuna delle k coppie può avere come secondo membro uno qualsiasi degli n elementi di B. Ad esempio, il numero delle funzioni da un insieme di 2 elementi {a, b} in un insieme di 10 elementi {1,...,10} è 102, in quanto si hanno 10 coppie del tipo (a, x), dove x = 1,2,...,10, e per ciascuna di esse 10 coppie del tipo (b, x). Ciascuna delle funzioni cercate è costituita da una delle dieci coppie il cui primo elemento sia a e da una delle dieci il cui primo elemento sia b; il numero di tali funzioni è quindi dato dalla cardinalità del prodotto cartesiano dei due insiemi di dieci coppie: 10×10=102. 56 Disposizione Nella terminologia combinatoria classica, il numero delle funzioni da un insieme di cardinalità k in uno di cardinalità n viene detto numero delle disposizioni con ripetizione di n oggetti k a k, o di classe k; a differenza delle disposizioni semplici, k può essere maggiore di n. L'esempio sopra proposto può essere reintepretato come segue. Dati 10 oggetti distinti, il numero delle presentazioni di 2 di tali elementi, anche non diversi tra loro, è 102; in particolare, con le 10 cifre da 0 a 9 si possono comporre 100 numeri di due cifre: 00, 01, ..., 09, 10, 11, ..., 19, 20, 21, 22, ...., 99. Analogamente, il numero delle possibili colonne del totocalcio, composte da tredici pronostici scelti tra tre (1, X o 2), è pari a: 313 = 1.594.323. Voci correlate • Calcolo combinatorio • Permutazione • Combinazione Effetto Mpemba L'effetto Mpemba è un effetto riscoperto casualmente nel 1969 dallo studente tanzaniano Erasto Mpemba, ma in realtà già descritto nel IV secolo a.C. da Aristotele (Μετεωρολογικά, I, 12). Ponendo in freezer due bicchieri d'acqua, identici tra loro tranne che per la temperatura iniziale del liquido, il bicchiere contenente acqua calda congela prima di quello contenente acqua a temperatura ambiente. Un revisore del Physics World ha recentemente scritto, "Sebbene l'effetto Mpemba sia reale, non è chiaro se la spiegazione sia banale o illuminante."[1] Sono state proposte molte teorie per giustificare questo comportamento anti intuitivo. Fattori certamente significativi sono: 1) Il bicchiere caldo scioglie il leggero strato di ghiaccio che di norma ricopre i ripiani di un congelatore, e pone a contatto diretto il bicchiere col metallo freddo. Il bicchiere con l'acqua a temperatura ambiente, invece, resta poggiato su uno straterello di brina che conduce il calore peggio del metallo, ed è, sia pure in minima misura, isolato dal ripiano del congelatore. Quindi si ha una minore dispersione di calore per conduzione. 2) Se si pone in freezer un liquido molto caldo, la massa di liquido nel bicchiere diminuisce per evaporazione. Vi sono altri effetti secondari (come il precipitare di soluti) che contribuiscono all'effetto quando non si utilizzi semplice acqua ma soluzioni. Tuttavia l'effetto è stato studiato soprattutto con semplice acqua. Si noti che eseguendo l'esperimento in condizioni stringenti, come usare acqua bollita perché non contenga gas, contenitori identici, massa d'acqua misurata con precisione, e asciugando con cura i ripiani del freezer, o ponendo i bicchieri su un ripiano all'aperto quando la temperatura è abbondantemente sottozero, il fenomeno non si verifica. L'effetto, indubbiamente non intuitivo, dimostra la necessità di considerare tutti i parametri di possibile rilevanza e l'uso dei migliori strumenti teorici nello studio di un problema fisico. 57 Effetto Mpemba 58 Note [1] Ball, P. (aprile 2006). Does hot water freeze first? (http:/ / physicsweb. org/ articles/ world/ 19/ 4/ 4). Physics World 19(4): 19–21. Bibliografia • Monwhea Jeng, The Mpemba effect: When can hot water freeze faster than cold? in American Journal of Physics, volume 74, 2006, numero 6, pagina 514. Collegamenti esterni • (EN) The Mpemba Effect: Hot Water Freezes before Cold (http://www.school-for-champions.com/science/ mpemba.htm) • (EN) Why water freezes faster after heating (http://www.eurekalert.org/pub_releases/2006-05/ns-wwf053106. php) (New Scientist) Effetto Venturi L'effetto Venturi (o paradosso idrodinamico) è il fenomeno fisico, scoperto e studiato dal fisico Giovanni Battista Venturi, per cui la pressione di una corrente fluida aumenta con il diminuire della velocità. Descrizione Effetto venturi su una massa liquida È possibile studiare la variazione di pressione di un liquido in un condotto, inserendo dei tubi manometrici. L'esperimento dimostra che il liquido raggiunge nei tubi altezze diverse: minore dove la sezione si rimpicciolisce (in cui aumenta la velocità) e maggiore quando la sezione si allarga (ovvero quando la velocità diminuisce). Dato che la pressione del liquido aumenta all'aumentare dell'altezza raggiunta dal liquido nei tubi manometrici, è possibile dire che ad un aumento della velocità corrisponde una diminuzione della pressione e viceversa, cioè all'aumento della pressione corrisponde una diminuzione della velocità. Con esperimenti appropriati, è possibile notare lo stesso fenomeno nei gas. In "1" - dove la velocità del fluido è minore che in "2" essendo maggiore la sua sezione - si osserva che la pressione è maggiore che in "2". Effetto Venturi 59 Formula Consideriamo una generica condotta che presenti una diminuzione della sua sezione e chiamiamo l'area maggiore e l'area minore. Dall'equazione di continuità applicata alla fluidodinamica sappiamo che la portata entrante nella prima sezione deve essere esattamente uguale a quella passante per la seconda. Da ciò, poiché la portata può essere espressa come prodotto della velocità del fluido per la sezione in cui passa, sappiamo che c'è un aumento di velocità nella sezione rispetto a quella in ( Esempio di diminuzione della pressione in un tratto di condotta che presenta una strozzatura < ). Sulla base di queste considerazioni, supponendo che non esista una differenza di quota tra le due sezioni, è possibile utilizzare come sistema di riferimento per le altezze l'asse della condotta, eliminando in questo modo un termine nell'equazione di Bernoulli, che si presenterà in questa forma: con ρ densità, p pressione e v velocità del flusso. Si può notare, quindi, che all'aumentare della velocità del fluido si crea necessariamente una diminuzione della pressione interna al fluido stesso. Nel caso del nostro esempio, cioè, la pressione risulterà essere minore della pressione . Paradosso idrodinamico L'effetto Venturi viene anche chiamato paradosso idrodinamico poiché si può pensare che la pressione aumenti in corrispondenza delle strozzature; tuttavia, per la legge della portata, la velocità aumenta in corrispondenza delle strozzature. Quindi se abbiamo un tubo che finisce contro una piastra come in figura e il fluido ha una pressione leggermente superiore alla pressione atmosferica, l'aumento di velocità che la strozzatura crea tra tubo e piastra farà aumentare la velocità a scapito della pressione del fluido. Se la pressione scende al di sotto della pressione atmosferica, la piastra tenderà a chiudere il tubo anziché volare via. Da questo nasce il paradosso idrodinamico che è una conseguenza della Legge di Bernoulli. Effetto Venturi Il tubo di Venturi Il tubo di Venturi sfrutta l'effetto Venturi per misurare la portata. Sia Q la portata volumetrica, nell'esempio precedente. Siccome Effetto Venturi conoscendo le sezioni e le pressioni nei punti del tubo e la densità del fluido è possibile ricavare la portata Voci correlate • • • • • • Equazione di Bernoulli Giovanni Battista Venturi Legge di Torricelli Linea di flusso Tubo di Venturi Ugello di scarico Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Venturi effect Esperimento immaginato Un esperimento mentale o esperimento concettuale (in tedesco Gedankenexperiment, termine coniato dal fisico e chimico danese Hans Christian Ørsted) è un esperimento che non si intende realizzare praticamente, ma viene solo immaginato: i suoi risultati non vengono quindi misurati, ma calcolati teoricamente in base alle leggi della fisica. Descrizione L'esperimento mentale è un'operazione di analisi operativa delle esperienze di misura effettivamente eseguibili nel mondo reale, almeno come esperienze concettualmente possibili. Parte di queste esperienze non sempre è realizzabile al momento presente per limiti non della fisica, ma della tecnologia e della tecnica note. Il carattere puramente mentale dell'esperimento permette di considerare situazioni non realizzabili praticamente (ad esempio oggetti che si muovono a velocità relativistiche) e di esaminare l'esperimento in forma molto semplificata, tralasciando gli aspetti non pertinenti. Lo scopo di questo esercizio è mettere sotto esame una teoria fisica esaminandone le previsioni, e in particolare mettendone in luce le conseguenze sorprendenti o paradossali. Il concetto di esperimento concettuale è stato introdotto da Albert Einstein, che se ne servì per illustrare la sua Teoria della relatività; ma anche alcuni paradossi classici, come quello di Achille e la tartaruga, si possono considerare esperimenti mentali. Anche alcuni ragionamenti di Galileo Galilei rientrano sotto questa categoria. A titolo di esempio si descrive qui l'esperimento del treno, usato da Einstein per mostrare come, secondo la teoria della relatività, eventi che sono simultanei in un sistema di riferimento inerziale non lo sono in un altro. Un altro celebre esperimento concettuale applicato alla teoria della relatività è il cosiddetto paradosso dei gemelli. 60 Esperimento immaginato Esempio Consideriamo un treno che viaggi alla velocità di 30 000 km/s, cioè un decimo della velocità della luce. Un osservatore si pone al centro di un vagone lungo 20 m, con due torce elettriche in mano; le punta verso le due estremità del vagone, una nella direzione del moto del treno e l'altra in direzione contraria, e le accende simultaneamente. Ora, uno dei postulati della teoria della relatività afferma che la velocità della luce è costante e uguale in tutti i sistemi di riferimento inerziali: perciò l'osservatore a bordo del treno, rispetto al quale il vagone è immobile, vede la luce delle due torce percorrere 10 m in entrambe le direzioni, e arrivare simultaneamente alle due estremità del vagone in un tempo t = 0,0333 microsecondi. Ma per un osservatore situato a terra, che vede il vagone in movimento, il raggio di luce diretto verso la coda del treno raggiunge dopo soltanto 9,0909 metri l'estremità del vagone, che nel frattempo gli è venuta incontro di 0,9091 metri; mentre il raggio diretto verso la testa del treno deve percorrere 11,1111 metri per raggiungere l'altra estremità che si è allontanata di 1,1111 metri. Il primo raggio arriva quindi dopo 0,0303 microsecondi, il secondo invece dopo 0,0370 microsecondi: in questo sistema di riferimento i due eventi non sono simultanei! Bibliografia • Marco Buzzoni, Esperimento ed esperimento mentale, Franco Angeli, 2004 ISBN 978-88-464-5868-1 • Karl Popper, Logica della scoperta scientifica [1934], Einaudi, Torino, 1970. Libri in lingua inglese • Adams, Scott, God's Debris: A Thought Experiment, Andrews McMeel Publishing, (USA), 2001 • Brown, J.R., The Laboratory of the Mind: Thought Experiments in the Natural Sciences, Routledge, (London), 1993. • Browning, K.A. (ed.), Nowcasting, Academic Press, (London), 1982. • Marco Buzzoni, Thought Experiment in the Natural Sciences, Koenigshausen+Neumann, Wuerzburg 2008 • Cohen, Martin, "Wittgenstein's Beetle and Other Classic Thought Experiments", Blackwell (Oxford) 2005 • Cohnitz, D., Gedankenexperimente in der Philosophie, Mentis Publ., (Paderborn, Germany), 2006. • Craik, K.J.W., The Nature of Explanation, Cambridge University Press, (Cambridge), 1943. • Cushing, J.T., Philosophical Concepts in Physics: The Historical Relation Between Philosophy and Scientific Theories, Cambridge University Press, (Cambridge), 1998. • DePaul, M. & Ramsey, W. (eds.), Rethinking Intuition: The Psychology of Intuition and Its Role in Philosophical Inquiry, Rowman & Littlefield Publishers, (Lanham), 1998. • Gendler, T.S., Thought Experiment: On the Powers and Limits of Imaginary Cases, Garland, (New York), 2000. • Gendler, T.S. & Hawthorne, J., Conceivability and Possibility, Oxford University Press, (Oxford), 2002. • Häggqvist, S., Thought Experiments in Philosophy, Almqvist & Wiksell International, (Stockholm), 1996. • Hanson, N.R., Patterns of Discovery: An Inquiry into the Conceptual Foundations of Science, Cambridge University Press, (Cambridge), 1962. • Harper, W.L., Stalnaker, R. & Pearce, G. (eds.), Ifs: Conditionals, Belief, Decision, Chance, and Time, D. Reidel Publishing Co., (Dordrecht), 1981. • Hesse, M.B., Models and Analogies in Science, Sheed and Ward, (London), 1963. • Holyoak, K.J. & Thagard, P., Mental Leaps: Analogy in Creative Thought, A Bradford Book, The MIT Press, (Cambridge), 1995. • Horowitz, T. & Massey, G.J. (eds.), Thought Experiments in Science and Philosophy [1], Rowman & Littlefield, (Savage), 1991. • Kahn, H., Thinking About the Unthinkable, Discus Books, (New York), 1971. • Kuhne, U., Die Methode des Gedankenexperiments, Suhrkamp Publ., (Frankfurt/M, Germany), 2005. 61 Esperimento immaginato • Leatherdale, W.H., The Role of Analogy, Model and Metaphor in Science, North-Holland Publishing Company, (Amsterdam), 1974. • Ørsted, Hans Christian (1997) Selected Scientific Works of Hans Christian Ørsted.. Translated to English by Karen Jelved, Andrew D. Jackson, and Ole Knudsen, (translators 1997). • Roese, N.J. & Olson, J.M. (eds.), What Might Have Been: The Social Psychology of Counterfactual Thinking, Lawrence Erlbaum Associates, (Mahwah), 1995. • Shanks, N. (ed.), Idealization IX: Idealization in Contemporary Physics (Poznan Studies in the Philosophy of the Sciences and the Humanities, Volume 63), Rodopi, (Amsterdam), 1998. • Shick, T. & Vaugn, L., Doing Philosophy: An Introduction through Thought Experiments (Second Edition), McGraw Hill, (New York), 2003. • Sorensen, R.A., Thought Experiments, Oxford University Press, (Oxford), 1992. • Tetlock, P.E. & Belkin, A. (eds.), Counterfactual Thought Experiments in World Politics, Princeton University Press, (Princeton), 1996. • Thomson, J.J. {Parent, W. (ed.)}, Rights, Restitution, and Risks: Essays in Moral Theory, Harvard University Press, (Cambridge), 1986 . • Vosniadou, S. & Ortony. A. (eds.), Similarity and Analogical Reasoning, Cambridge University Press, (Cambridge), 1989. • Wilkes, K.V., Real People: Personal Identity without Thought Experiments, Oxford University Press, (Oxford), 1988. Articoli di riviste (in lingua inglese) • Dennett, D.C., "Intuition Pumps", pp. 180-197 in Brockman, J., The Third Culture: Beyond the Scientific Revolution, Simon & Schuster, (New York), 1995. • Galton, F., "Statistics of Mental Imagery", Mind, Vol.5, No.19, (July 1880), pp. 301-318. • Hempel, C.G., "Typological Methods in the Natural and Social Sciences", pp. 155-171 in Hempel, C.G. (ed.), Aspects of Scientific Explanation and Other Essays in the Philosophy of Science, The Free Press, (New York), 1965. • Kuhn, T. "A Function for Thought Experiments", in The Essential Tension (Chicago: University of Chicago Press, 1979), pp. 240-• Mach, E., "On Thought Experiments", pp. 134-147 in Mach, E., Knowledge and Error: Sketches on the Psychology of Enquiry, D. Reidel Publishing Co., (Dordrecht), 1976. [Translation of Erkenntnis und Irrtum (5th edition, 1926.]. • Popper, K., "On the Use and Misuse of Imaginary Experiments, Especially in Quantum Theory", pp. 442-456, in Popper, K., The Logic of Scientific Discovery, Harper Torchbooks, (New York), 1968. • Rescher, N., "Thought Experiment in Pre-Socratic Philosophy", pp. 31-41 in Horowitz, T. & Massey, G.J. (eds.), Thought Experiments in Science and Philosophy [1], Rowman & Littlefield, (Savage), 1991. • Witt-Hansen, J., "H.C. Ørsted, Immanuel Kant and the Thought Experiment", Danish Yearbook of Philosophy, Vol.13, (1976), pp. 48-65. • Jacques, V., Wu, E., Grosshans, F., Treussart, F., Grangier, P. Aspect, A., & Roch, J. (2007). Experimental Realization of Wheeler's Delayed-Choice Gedanken Experiment, Science, 315, p. 966-968. [2] 62 Esperimento immaginato Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Thought experiments Note [1] http:/ / philsci-archive. pitt. edu/ archive/ 00003190/ [2] http:/ / www. sciencemag. org/ cgi/ content/ abstract/ 315/ 5814/ 966 Esperimento mentale Un esperimento mentale o esperimento concettuale (in tedesco Gedankenexperiment, termine coniato dal fisico e chimico danese Hans Christian Ørsted) è un esperimento che non si intende realizzare praticamente, ma viene solo immaginato: i suoi risultati non vengono quindi misurati, ma calcolati teoricamente in base alle leggi della fisica. Descrizione L'esperimento mentale è un'operazione di analisi operativa delle esperienze di misura effettivamente eseguibili nel mondo reale, almeno come esperienze concettualmente possibili. Parte di queste esperienze non sempre è realizzabile al momento presente per limiti non della fisica, ma della tecnologia e della tecnica note. Il carattere puramente mentale dell'esperimento permette di considerare situazioni non realizzabili praticamente (ad esempio oggetti che si muovono a velocità relativistiche) e di esaminare l'esperimento in forma molto semplificata, tralasciando gli aspetti non pertinenti. Lo scopo di questo esercizio è mettere sotto esame una teoria fisica esaminandone le previsioni, e in particolare mettendone in luce le conseguenze sorprendenti o paradossali. Il concetto di esperimento concettuale è stato introdotto da Albert Einstein, che se ne servì per illustrare la sua Teoria della relatività; ma anche alcuni paradossi classici, come quello di Achille e la tartaruga, si possono considerare esperimenti mentali. Anche alcuni ragionamenti di Galileo Galilei rientrano sotto questa categoria. A titolo di esempio si descrive qui l'esperimento del treno, usato da Einstein per mostrare come, secondo la teoria della relatività, eventi che sono simultanei in un sistema di riferimento inerziale non lo sono in un altro. Un altro celebre esperimento concettuale applicato alla teoria della relatività è il cosiddetto paradosso dei gemelli. Esempio Consideriamo un treno che viaggi alla velocità di 30 000 km/s, cioè un decimo della velocità della luce. Un osservatore si pone al centro di un vagone lungo 20 m, con due torce elettriche in mano; le punta verso le due estremità del vagone, una nella direzione del moto del treno e l'altra in direzione contraria, e le accende simultaneamente. Ora, uno dei postulati della teoria della relatività afferma che la velocità della luce è costante e uguale in tutti i sistemi di riferimento inerziali: perciò l'osservatore a bordo del treno, rispetto al quale il vagone è immobile, vede la luce delle due torce percorrere 10 m in entrambe le direzioni, e arrivare simultaneamente alle due estremità del vagone in un tempo t = 0,0333 microsecondi. Ma per un osservatore situato a terra, che vede il vagone in movimento, il raggio di luce diretto verso la coda del treno raggiunge dopo soltanto 9,0909 metri l'estremità del vagone, che nel frattempo gli è venuta incontro di 0,9091 metri; mentre il raggio diretto verso la testa del treno deve percorrere 11,1111 metri per raggiungere l'altra estremità che si è allontanata di 1,1111 metri. Il primo raggio arriva quindi dopo 0,0303 microsecondi, il secondo invece dopo 0,0370 microsecondi: in questo sistema di riferimento i due eventi non sono simultanei! 63 Esperimento mentale Bibliografia • Marco Buzzoni, Esperimento ed esperimento mentale, Franco Angeli, 2004 ISBN 978-88-464-5868-1 • Karl Popper, Logica della scoperta scientifica [1934], Einaudi, Torino, 1970. Libri in lingua inglese • Adams, Scott, God's Debris: A Thought Experiment, Andrews McMeel Publishing, (USA), 2001 • Brown, J.R., The Laboratory of the Mind: Thought Experiments in the Natural Sciences, Routledge, (London), 1993. • Browning, K.A. (ed.), Nowcasting, Academic Press, (London), 1982. • Marco Buzzoni, Thought Experiment in the Natural Sciences, Koenigshausen+Neumann, Wuerzburg 2008 • Cohen, Martin, "Wittgenstein's Beetle and Other Classic Thought Experiments", Blackwell (Oxford) 2005 • Cohnitz, D., Gedankenexperimente in der Philosophie, Mentis Publ., (Paderborn, Germany), 2006. • Craik, K.J.W., The Nature of Explanation, Cambridge University Press, (Cambridge), 1943. • Cushing, J.T., Philosophical Concepts in Physics: The Historical Relation Between Philosophy and Scientific Theories, Cambridge University Press, (Cambridge), 1998. • DePaul, M. & Ramsey, W. (eds.), Rethinking Intuition: The Psychology of Intuition and Its Role in Philosophical Inquiry, Rowman & Littlefield Publishers, (Lanham), 1998. • • • • • • • • • • • • • • • • • Gendler, T.S., Thought Experiment: On the Powers and Limits of Imaginary Cases, Garland, (New York), 2000. Gendler, T.S. & Hawthorne, J., Conceivability and Possibility, Oxford University Press, (Oxford), 2002. Häggqvist, S., Thought Experiments in Philosophy, Almqvist & Wiksell International, (Stockholm), 1996. Hanson, N.R., Patterns of Discovery: An Inquiry into the Conceptual Foundations of Science, Cambridge University Press, (Cambridge), 1962. Harper, W.L., Stalnaker, R. & Pearce, G. (eds.), Ifs: Conditionals, Belief, Decision, Chance, and Time, D. Reidel Publishing Co., (Dordrecht), 1981. Hesse, M.B., Models and Analogies in Science, Sheed and Ward, (London), 1963. Holyoak, K.J. & Thagard, P., Mental Leaps: Analogy in Creative Thought, A Bradford Book, The MIT Press, (Cambridge), 1995. Horowitz, T. & Massey, G.J. (eds.), Thought Experiments in Science and Philosophy [1], Rowman & Littlefield, (Savage), 1991. Kahn, H., Thinking About the Unthinkable, Discus Books, (New York), 1971. Kuhne, U., Die Methode des Gedankenexperiments, Suhrkamp Publ., (Frankfurt/M, Germany), 2005. Leatherdale, W.H., The Role of Analogy, Model and Metaphor in Science, North-Holland Publishing Company, (Amsterdam), 1974. Ørsted, Hans Christian (1997) Selected Scientific Works of Hans Christian Ørsted.. Translated to English by Karen Jelved, Andrew D. Jackson, and Ole Knudsen, (translators 1997). Roese, N.J. & Olson, J.M. (eds.), What Might Have Been: The Social Psychology of Counterfactual Thinking, Lawrence Erlbaum Associates, (Mahwah), 1995. Shanks, N. (ed.), Idealization IX: Idealization in Contemporary Physics (Poznan Studies in the Philosophy of the Sciences and the Humanities, Volume 63), Rodopi, (Amsterdam), 1998. Shick, T. & Vaugn, L., Doing Philosophy: An Introduction through Thought Experiments (Second Edition), McGraw Hill, (New York), 2003. Sorensen, R.A., Thought Experiments, Oxford University Press, (Oxford), 1992. Tetlock, P.E. & Belkin, A. (eds.), Counterfactual Thought Experiments in World Politics, Princeton University Press, (Princeton), 1996. • Thomson, J.J. {Parent, W. (ed.)}, Rights, Restitution, and Risks: Essays in Moral Theory, Harvard University Press, (Cambridge), 1986 . 64 Esperimento mentale • Vosniadou, S. & Ortony. A. (eds.), Similarity and Analogical Reasoning, Cambridge University Press, (Cambridge), 1989. • Wilkes, K.V., Real People: Personal Identity without Thought Experiments, Oxford University Press, (Oxford), 1988. Articoli di riviste (in lingua inglese) • Dennett, D.C., "Intuition Pumps", pp. 180-197 in Brockman, J., The Third Culture: Beyond the Scientific Revolution, Simon & Schuster, (New York), 1995. • Galton, F., "Statistics of Mental Imagery", Mind, Vol.5, No.19, (July 1880), pp. 301-318. • Hempel, C.G., "Typological Methods in the Natural and Social Sciences", pp. 155-171 in Hempel, C.G. (ed.), Aspects of Scientific Explanation and Other Essays in the Philosophy of Science, The Free Press, (New York), 1965. • Kuhn, T. "A Function for Thought Experiments", in The Essential Tension (Chicago: University of Chicago Press, 1979), pp. 240-• Mach, E., "On Thought Experiments", pp. 134-147 in Mach, E., Knowledge and Error: Sketches on the Psychology of Enquiry, D. Reidel Publishing Co., (Dordrecht), 1976. [Translation of Erkenntnis und Irrtum (5th edition, 1926.]. • Popper, K., "On the Use and Misuse of Imaginary Experiments, Especially in Quantum Theory", pp. 442-456, in Popper, K., The Logic of Scientific Discovery, Harper Torchbooks, (New York), 1968. • Rescher, N., "Thought Experiment in Pre-Socratic Philosophy", pp. 31-41 in Horowitz, T. & Massey, G.J. (eds.), Thought Experiments in Science and Philosophy [1], Rowman & Littlefield, (Savage), 1991. • Witt-Hansen, J., "H.C. Ørsted, Immanuel Kant and the Thought Experiment", Danish Yearbook of Philosophy, Vol.13, (1976), pp. 48-65. • Jacques, V., Wu, E., Grosshans, F., Treussart, F., Grangier, P. Aspect, A., & Roch, J. (2007). Experimental Realization of Wheeler's Delayed-Choice Gedanken Experiment, Science, 315, p. 966-968. [2] Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Thought experiments 65 Ex falso sequitur quodlibet 66 Ex falso sequitur quodlibet La locuzione latina ex falso (sequitur) quodlibet (ossia: "dal falso (segue una) qualsiasi cosa (scelta) a piacere") indica nella logica classica (valido anche per la logica intuizionista) un principio logico che stabilisce come da un enunciato contraddittorio consegue logicamente qualsiasi altro enunciato. La definizione ex falso quodlibet per questo teorema è tradizionalmente attribuita a Duns Scoto, sebbene in realtà sia opera di un autore sconosciuto[1], pertanto a volte ci si riferisce ad esso anche come teorema dello pseudo Scoto. Nel linguaggio della logica proposizionale possiamo esprimere il principio con la formula: Tale principio è stato utilizzato nella scolastica anche come pretesa di spiegazione di come Dio abbia creato l'Universo a partire dalla negazione del principio di non contraddizione. Ma ai sostenitori di questa teoria spesso veniva ribattuto che, invece, in base alla consequentia mirabilis, si poteva creare anche a partire dal nulla proprio grazie al principio di non contraddizione. Dimostrazione Siano A e B due affermazioni, e A l'opposto di A. Si ha allora Ossia "A e NON A" è vera, Posso allora inserire "(A e NON A) O B" essendo vera la prima, è vera anche questa. Per la proprietà distributiva Ricordando che equivale a cioè, applicando le leggi di De Morgan e negando Dato che abbiamo supposto vero , B deve essere vero a prescindere dalla verità di A e del suo contrario. Per questa proprietà, viene anche detto principio di esplosione. Dimostrazione alternativa Una dimostrazione alternativa è la seguente: 1. 2. 3. 4. 5. 6. 7. (ipotesi) per la 2 De Morgan per la 3 per la doppia negazione. È interessante osservare che una contraddizione, implicando qualsiasi affermazione, implica anche qualsiasi contraddizione. Si può quindi sostenere l'equivalenza e quindi la banalità, in senso matematico, delle contraddizioni Ex falso sequitur quodlibet e dei sistemi che le contengono. Va comunque ricordato che, dal secondo teorema di incompletezza di Gödel, deriva che dato un sistema formale che includa almeno l'aritmetica di Robinson, o esso è incompleto, non potendo dimostrare almeno la propria coerenza, o è contraddittorio. Esempio di Bertrand Russell Possiamo ricordare un ironico esempio a suo tempo proposto da Bertrand Russell. Supponiamo che sia vera una affermazione falsa come 4=5 (l'affermazione A nella notazione vista sopra può essere : "4 è diverso da 5" e non-A: "4 è uguale a 5" ), allora sottraendo 3 da entrambi i membri otteniamo: 2=1. Ora, io e il Papa siamo due, ma 2=1 quindi io e il Papa siamo uno, quindi io sono il Papa. Note [1] Piergiorgio Odifreddi, Il diavolo in cattedra. La logica da Aristotele a Gödel. Torino, Einaudi, 2003. ISBN 8806167219. Bibliografia • Smullyan, R., "Qual è il titolo di questo libro? L'enigma di Dracula e altri indovinelli logici", ISBN 8808054225, Zanichelli, 1981 Voci correlate • Consequentia mirabilis • Principio di non-contraddizione Giovanni Buridano Giovanni Buridano, conosciuto anche come Jean Buridan o in latino Iohannes Buridanus (Béthune?, 1290 circa – 1358 circa), è stato un filosofo e logico francese, maestro delle arti a Parigi e Magnifico Rettore dell'Università di Parigi. Allievo di Guglielmo di Ockham, si staccò dal suo pensiero e intorno al 1340 lo attaccò pubblicamente. In seguito gli occamisti ottennero che le sue opere fossero proibite dal 1474 al 1481. Fu convinto nominalista e fu perseguitato dai realisti, che lo indussero a lasciare Parigi per la Germania e ad insegnare a Vienna. È considerato un filosofo della Scolastica. Dottrine fisiche Buridano fu uno dei sostenitori della teoria dell'impeto, secondo la quale un corpo in moto possiede un impeto che lo porta a proseguire il moto anche in assenza di forze esterne. Questa teoria, la cui origine è rintracciabile negli scritti di Giovanni Filopono, del VI secolo, precorre in parte il principio d'inerzia che sarà enunciato nella prima età moderna. La teoria dell'impeto permise a Buridano di considerare superflue le Intelligenze Motrici che nella fisica d'ispirazione aristotelica risultavano necessarie per mantenere in moto i cieli, anche perché lo spazio esterno era da lui concepito vuoto e non pieno di materia trasparente come aveva pensato Aristotele. Gli impeti cui sono soggetti i corpi celesti «non s'indebolivano né si corrompevano, non essendo nei corpi celesti inclinazione ad altri moti né essendo in essi una resistenza corruttiva o repressiva di quell'impeto». Per questo viene considerato uno dei pensatori che hanno contribuito alla ripresa dello scetticismo filosofico. Quanto alla forma della Terra, Giovanni Buridano fu uno dei pensatori medievali che ne sostenevano la sfericità e che dovesse ruotare sul proprio asse. 67 Giovanni Buridano L'intelletto umano e la volontà Buridano si occupò dell'analisi della volontà umana, che ritenne seguire le valutazioni dell'intelletto. In particolare la volontà che dovesse decidere quale scegliere tra due beni considerati equivalenti dall'intelletto si troverebbe in imbarazzo. Un esempio della sua tesi, che tuttavia non è dovuto a Buridano e ne banalizza pesantemente il pensiero, è il famoso paradosso dell'asino che posto tra due cumuli di fieno perfettamente uguali e alla stessa distanza non sa scegliere quale iniziare a mangiare morendo di fame nell'incertezza. Opere: Edizioni antiche • • • • • Summulae de Dialectica Parigi, 1487 (prima edizione edita da Thomas Bricot) Quaestiones super decem libros Ethicorum Aristotelis ad Nicomachum Parigi, 1489 Sophismata Parigi, 1489 Consequentiae Parigi, 1493 Perutile compendium totius logicae, com Io. Dorp expositione Venezia, 1499 (con il commento di John Dorp, ristampa anastatica: Frankfurt am main, Minerva, 1965) • Subtilissimae Quaestiones super octo Physicorum libros Aristotelis Parigi, 1509 • In Metaphysicen Aristotelis Questiones argutissimae Parigi, 1518 (ristampa anastatica: Frankfurt am main, Minerva, 1965) Bibliografia • • • • Bibliografia di Fabienne Pironet [1] (fino al 2001) Bibliografia delle opere logiche e metafisiche di Buridano [2] elenco delle opere edite ed inedite Bibliografia degli studi sulle opere logiche e metafisiche [3] aggiorna la bibliografia della Pironet al 2010 Marcello Landi, Un contributo allo studio della scienza nel Medio Evo. Il trattato Il cielo e il mondo di Giovanni Buridano e un confronto con alcune posizioni di Tommaso d'Aquino, in Divus Thomas 110/2 (2007) 151-185. Note [1] http:/ / www. ontology-2. com/ essays/ buridan-bibliographie. pdff [2] http:/ / www. ontology. co/ buridan-editions. htm [3] http:/ / www. ontology. co/ buridan-biblio-one. htm 68 Guglielmo di Ockham Guglielmo di Ockham Guglielmo di Ockham, o Occam (Ockham, 1288 – Monaco di Baviera, 1349), è stato un religioso, teologo, filosofo e francescano inglese. Biografia Detto il dottore invincibile e il venerabile iniziatore, entrò nell'ordine francescano in giovane età, studiò all'Università di Oxford fra il 1307 e il 1318, intraprendendo l'insegnamento, in seguito, nella medesima università. Accusato di eresia, subì un processo da parte dell'Inquisizione ad Avignone nel 1324, a seguito del quale cinquantuno sue enunciazioni teologiche vennero condannate dal pontefice Giovanni XXII. Fu successivamente assolto da Papa Clemente VI l'8 giugno 1349. Ad Avignone, dove soggiornò per quattro anni, conobbe Michele da Cesena, il ministro generale dell'ordine francescano, che condivideva con lui l'idea che le comunità cristiane potessero avere in uso dei beni ma mai possederli, secondo la dottrina della povertà evangelica, contrariamente a quanto sosteneva il papato. Nel maggio 1328 Guglielmo e i suoi confratelli, timorosi di entrare in conflitto col papa, si ritirarono a Pisa, dove entrò al seguito dell'imperatore Ludovico il Bavaro con cui si era schierato nella controversia tra l'Impero ed il Papato. Lì arrivò la scomunica da parte del papa, dopo la quale Guglielmo decise di seguire l'imperatore andando con lui a Monaco di Baviera, seguito anche da Michele da Cesena, con il quale continuò la polemica contro la Chiesa. Morto l'imperatore e il generale francescano, Guglielmo cercò di riavvicinare le sue posizioni a quelle della Chiesa, ma morì nel 1349 prima che questo riavvicinamento si compisse[1]. Il pensiero Oxford, la Avignone dei papi, Monaco: sono i luoghi in cui Ockham vive il travaglio delle proprie esperienze, animato da un profondo bisogno di libertà, cifra del suo pensiero. Sullo sfondo si colloca la grande questione che appassiona i teologi: ° sono compatibili la filosofia greca e la concezione giudaico-cristiana, incardinata sulla verità di Dio trascendente, che liberamente crea ex nihilo? Ockham non ha dubbi. L'ebraismo e il cristianesimo hanno un'originalità (metafisica, teologica e morale) che li sottrae ad ogni contaminazione; il loro creazionismo modifica alle radici la sapienza classica e ne segna il declino. La rigida mentalità medievale, incentrata sul principio di autorità, non appaga le istanze di uno spirito critico. Ockham rivendica il diritto di controllare le verità religiose con la forza dell'esperienza e col rigore della ragione. La fede, in lui, è solida, ma non cancella l'esigenza di dare il giusto riconoscimento al "profano". Tutelando l'autonoma dignità della ricerca, egli prepara il terreno in cui nasce e si consolida la cultura moderna. 69 Guglielmo di Ockham Etica e teologia Centro del pensiero di Ockham è il volontarismo, la concezione secondo cui Dio non avrebbe creato il mondo per "intelletto e volontà" (come direbbe Tommaso d'Aquino), ma per sola volontà, e dunque in modo arbitrario, senza né regole né leggi, che ne limiterebbero, secondo Ockham, la libertà d'azione. Ne consegue che anche l'essere umano è del tutto libero, e solo questa libertà può fondare la moralità dell'uomo, i cui meriti o demeriti non possono in alcun modo influenzare la libertà di Dio. La salvezza dell'uomo non è quindi frutto della predestinazione, né delle opere dell'uomo; è soltanto la volontà di Dio che determina, in modo del tutto inconoscibile, il destino del singolo essere umano. Questa posizione di Ockham, che riprende e porta alle estreme conseguenze la concezione volontaristica già propria di Duns Scoto, anticipa per alcuni aspetti la riforma protestante di Lutero; conseguenza Guglielmo d'Ockham del pensiero di Ockham, infatti, è la negazione del ruolo di mediazione fra Dio e l'uomo che la Chiesa si è attribuita. Il Papa infatti è fallibile, secondo Guglielmo, e non può attribuirsi alcun potere, né temporale (l'Impero, del resto, esiste da tempo più remoto, rispetto alla Chiesa, e non discende dal Papa ma direttamente da Dio), né spirituale, giacché la sola possibilità per l'uomo di salvarsi deriva dalla grazia divina. Nel Dialogus sostenne come l'imperatore era superiore alle leggi, ma sottoposto al proprio popolo, che era autorizzato a disubbidirgli nel caso in cui egli non rispettasse il principio dell'"equità naturale". La delega che il popolo dava all'imperatore nell'esercitare il potere era quindi vincolata al suo buon operato e non assoluta. Con Marsilio da Padova queste tesi furono tra i fondamenti del potere statale inteso in senso moderno. Il rasoio di Ockham e la logica Sulla base di questa premesse, Ockham applica il tradizionale principio medievale di semplicità della natura per eliminare tutto ciò che contrasta col volontarismo: vanno quindi superati, perché superflui e astratti, concetti come "essenza", "legge naturale", ecc. Si tratta dell'applicazione del principio economico dell'eliminazione dei concetti superflui per spiegare una realtà intesa volontaristicamente: è mediante questo procedimento, sinteticamente definito il Rasoio di Ockham, che l'intelletto umano può e deve liberarsi di tutte quelle astrazioni che erano state ideate dalla scolastica medievale. Frustra fit per plura quod fieri potest per pauciora, ma anche (sebbene non reperibile in tale forma negli scritti di Ockham) entia non sunt moltiplicanda praeter necessitatem, sono le massime che costituiscono l'espressione lapidaria del cosiddetto Rasoio di Ockham che riassume, semplificando il concetto al massimo, il principio del valore della spiegazione più semplice, che infine si riduce al primato dell'individuo, come unica realtà su cui poggia tutto il sistema della conoscenza. 70 Guglielmo di Ockham Coerente con queste conclusioni è anche la sua posizione nella disputa sugli universali, all'interno della quale è considerato il più importante esponente piuttosto del terminismo che del concettualismo e del nominalismo, dottrina contrapposta al tomismo e allo scotismo. Applicando la dottrina della suppositio, secondo cui i termini hanno l'unico scopo di indicare qualcosa di reale, ma esterno e differente da loro (essi cioè sono segni del tutto convenzionali, che stanno in luogo delle cose), Ockham conclude che l'universale altro non è che un termine, e quindi la sua unica realtà è nella condivisione universale nell'uso di quel certo termine anziché altri (ovvero post-rem). I termini possono essere quindi categorematici, cioè esprimere predicati come uomo, animale, ecc., o sincategorematici, cioè utili per svolgere connessioni (es.: ogni, ciascuno, ecc.); oppure assoluti, o connotativi; essi in ogni caso sono intentiones, cioè atti intenzionali della coscienza con cui essa adopera un segno per indicare una determinata cosa di cui è accertata l'esistenza. Ne consegue la falsità di tutti quei termini che stanno a indicare cose inesistenti; la logica terministica di Ockham assume quindi il ruolo, in quanto logica formale, di assicurare la validità delle proposizioni, ma solo la conoscenza empirica potrà poi verificare le stesse alla prova dei fatti e assicurare il collegamento fra i nomi e la realtà cui essi fanno segni. All'applicazione rigorosa della logica terministica e dell'empirismo consegue la critica di Ockham ai concetti di causa e sostanza, elementi basilari della metafisica tradizionale. Anche in questo caso si tratta di termini apparentemente universali, che però stanno in luogo di realtà inesistenti: empiricamente infatti l'ente consiste di molteplici qualità, ma non è nulla di diverso dalle qualità stesse; non esiste un sostrato, una sostanza, al di fuori di ciò che di quell'ente si può predicare. Ugualmente, seppure empiricamente ci sembra che una certa successione di fatti ci permetta di concludere l'esistenza di una causa distinta dai suoi effetti, in realtà non c'è alcuna certezza che questa causa sia unica e universale. La gnoseologia Empirismo e conoscenza intuitiva Il nuovo tema di indagine è la conoscenza; Ockham se ne occupa in modo coerente col suo empirismo. Alla base c'è la critica delle autorità filosofiche, Platone e Aristotele. ° La dottrina delle forme (gli archetipi delle cose) non regge alla prova dei fatti; l'uomo conosce il reale in via diretta, senza dover fare ricorso a modelli trascendenti. ° La deduzione, tipica del razionalismo aristotelico, è astratta. Il procedimento deduttivo si rivela sterile. Le sue conclusioni non offrono novità rispetto alle premesse: esplicano, non ampliano, il sapere. Il soggetto conosce le cose individuali, servendosi dell'esperienza. Questa costituisce, ad un tempo, l'esordio, la fonte e il metro del sapere. Non ci sono due modalità di conoscenza: quella degli organi sensoriali, che percepirebbero le qualità esteriori della res; quella dell'intelletto, che fisserebbe, nel concetto, l'universale di ogni specie di cose. La conoscenza intellettiva è propriamente lo sviluppo della "sensoriale". Il loro comune contenuto è la molteplicità dei dati forniti dall'esperienza e riferiti alle cose singole: una medesima cosa, il singolare, è sentita dal senso e, sotto il medesimo rispetto, è intuitivamente compresa dall'intelletto (Ockham, Commento) L'esistenza attuale e l'evidenza fattuale di una cosa si colgono mediante la sensazione e l'intuizione. L'intelletto se ne serve per elaborare il giudizio, la nozione (notitia abstractiva) che accerta l'esistenza della res. Nella sua teoria della conoscenza Ockham sostiene, ispirandosi a Giovanni Duns Scoto, che si possa parlare di due forme di conoscenza: intuitiva ed astrattiva. La prima può essere: • perfetta: perché si rifà all'esperienza, la quale ha sempre per oggetto una realtà attuale e presente; • imperfetta: perché si può rifare ad una realtà del passato; la conoscenza intuitiva imperfetta deriva comunque da una esperienza; • sensibile: perché si rifà all'esperienza sensibile; • intellettuale: perché l'intelletto per formare un'opinione sugli oggetti della conoscenza sensibile ha anche bisogno dell'intuizione. 71 Guglielmo di Ockham La seconda non vuole definire l'esistenza o meno di una cosa, poiché essa si limita a dirci come una cosa sia. Inoltre questo tipo di conoscenza deriva dalla conoscenza intuitiva, visto che è impossibile avere una conoscenza astratta di qualcosa se prima non se ne abbia avuta l'intuizione. La realtà, pertanto, secondo Ockham, viene conosciuta empiricamente, attraverso la conoscenza intuitiva immediata, mentre gli universali vengono conosciuti attraverso la conoscenza astratta ovvero attraverso la rappresentazione che di essi fa la mente, ma non hanno esistenza reale. Per la sua scarsa fiducia nella ragione umana, e per l'esaltazione della conoscenza sensibile, egli si presenta come principale esponente della crisi del pensiero scolastico medievale, caratterizzato, invece, da una grande fiducia nella capacità dell'uomo di comprendere la realtà mediante l'uso della facoltà razionale[2] Il pensiero politico Il nostro " Venerabilis Inceptor viae modernae " (venerato iniziatore del nuovo modo di fare filosofia e teologia) ha esteso le proprie concezioni anche alla politica, suo ultimo campo di ricerca. Il suo pensiero era basato su tre grandi principi applicabili sia alla filosofia e all'etica, sia alla teologia ed all'ecclesiologia: - Contingenza: la situazione come punto di partenza di qualsiasi analisi, giudizio e opzione politici, in luogo di un ordine metafisico prestabilito con il quale misurare la realtà; - Immediatezza: eliminare le istanze intermedie inutili, se diritto esiste che esso venga rispettato senza ingerenze e che venga garantito da una teoria del potere temporale confacente; - Individualità: non in senso metafisico, bensì intesa come l'affermarsi in campo politico dell'individuo (imperatore, re, principe) con una propria creatività e volontà politiche e sociali, si prospetta l'autonomia dell' "homo politicus" dall' "homo christianus". Capiamo ora il perché del titolo completo dello scritto che stiamo commentando: " Breviloquium de principatu tyrannico ", dove " tyrannicus " è riferito al principato papale irrispettoso dei diritti dell'imperatore, i cui poteri sono stati concessi da Dio e non semplicemente permessi. Più precisamente Ockham individua due modalità di concessione dei poteri temporali all'Impero: - per consenso libero e spontaneo dei popoli, in forza dell'equità naturale e della "potestas constituendi principem" ; - attraverso la guerra giusta in caso di difesa, di ingiustizia o di crimine, trasformandosi da tirannico in giusto. Con questo è garantita l'autonomia del potere temporale nei confronti di quello spirituale. Sul piano biblico viene più volte ricordato il fatto che né Gesù, né gli apostoli hanno mai accusato Erode, Ponzio Pilato o Nerone di usurpazione di giurisdizione, Cristo non è venuto per abolire o diminuire i potenti del suo tempo, pur essendo egli stesso re (cfr. Gv 18,36). Forse che questo entrare in difesa dei diritti altrui, diritti garantiti dall'amore indiscriminato di Dio per tutti gli uomini e tutte le creature, e dalle leggi assiomatiche della libertà, della povertà e della semplicità evangeliche costituisce il fondamento francescano su cui poggiano le teorie ockhamiste? Senz'altro motivano la sua lotta contro le teorie di una papale "plenitudo potestatis": anche la famosa allegoria sole-papa / luna-imperatore viene contraddetta dal Nostro, il quale, pur ammettendo la contrapposizione maggiore / minore (Ockham ha un'altissima considerazione del potere spirituale e delle funzioni proprie della Chiesa; in questo senso, e solo in questo senso, li considera d'importanza maggiore), non concede ai curialisti, difensori della pienezza del potere papale, l'argomento secondo il quale la luna avrebbe origine dal sole. Diritti dell'Impero All' Impero viene riconosciuta piena autonomia nel campo temporale e Ockham lo difende a "penna tratta" dall'ingerenza del potere spirituale. Alla "plenitudo potestatis" dei curialisti di Avignone viene contrapposta la legge della libertà evangelica, la quale sola basta a legittimare il potere imperiale. Dio stesso già nell' AT (cfr. Gen 14,22-23, 2 Cron 36,22-23) rispetta i diritti di re e faraoni (diritto di proprietà e autorità legittima) e concede aiuti e benefici anche agli infedeli (cfr. Gen 3,16: validità e liceità del matrimonio fra infedeli). Centrale nell'argomentazione ockhamista è la teoria della concessione per diritto divino e per estensione a tutto il genere umano del dominio comune (cfr. Gen 1,27-29) sulle cose inanimate, le piante e gli animali. Questo dominio "in communi" garantisce il diritto alla sopravvivenza e ad una vita dignitosa e può essere ristretto solo in caso di necessità. A questo dominio, a loro volta, sono ancorate due "potestates", o diritti fondamentali: - potestas 72 Guglielmo di Ockham appropriandi res temporales tam rationales, (diritto al possesso delle cose); - potestas instituendi rectores iurisdictionem habendi, (diritto di istituire governanti godenti di giurisdizione). Vi sono però anche altre concessioni divine quali la vita, la salute, la moglie, i figli e l'uso della ragione. Come premesso questi diritti sono divini e conferiti a tutti gli uomini, fedeli o infedeli, e quindi inalienabili, "sine necessitate". La clausola di necessità si riferisce sempre a gravi crimini o alla tirannia. L'uomo può dunque far uso dei beni temporali a proprio vantaggio e istituire "rectores" che lo governino in base al retto uso della ragione. Su questa concezione del diritto imperiale si fonda la pari dignità dell'Impero nei confronti della Chiesa e la loro complementarietà nella gestione e salvaguardia, all'interno di un'autonomia funzionale, del bene comune temporale e spirituale, scopo di entrambe le istituzioni. Ockham non abbraccia però la teoria di un Marsilio da Padova sulla suddivisione dei poteri, bensì vede un Impero autosufficiente, ma in relazione con la Chiesa. La Chiesa, quindi, gode unicamente di un diritto casuale (non regolare) d'ingerenza (per esempio per richiedere da parte dei fedeli il proprio sostentamento); l'Impero dal canto suo potrà vigilare (anche qui però solo per diritto casuale) a che la Chiesa svolga la propria missione di salvezza. Il "rasoio politico" di Ockham L'ormai famoso rasoio di Ockham "Non sunt moltiplicanda entia sine necessitate" non lo troviamo in questa formulazione nei suoi scritti, bensì nella seguente "Frustra fit per plura quod potest fieri per pauciora" (si fa inutilmente con molte cose ciò che si può fare con poche cose)[3], più precisa se dalla pura speculazione ci rivolgiamo anche alle sue applicazioni ecclesiologiche o politiche. Ockham parte da un profondo rispetto del "dominium in communi" concesso da Dio a tutti gli uomini, dal quale procedono le "potestates" e gli altri diritti di cui sopra. Costruendo le proprie teorie politiche su questa base non ritiene possibile un'estensione del potere papale a detrimento di quanto Dio ha concesso agli uomini. Estensione significa moltiplicazione dei privilegi e delle eccezioni, delle leggi e delle istanze intermediarie tra Dio e gli uomini, in modo da poter interferire maggiormente negli affari imperiali. Ockham preferisce ai molti i pochi diritti della Chiesa in campo politico e accusa apertamente il papa e i curialisti di quattro eresie: - prima eresia: uguagliare il potere petrino a quello divino, permettendo al papa di intromettersi ordinariamente nella gestione dell'Impero; - seconda eresia: affermare che il papa può comandare quanto Dio chiese ad Abramo Gen 22,2 (consegue dalla prima); - terza eresia: conferire al papa il potere di istituire nuovi sacramenti; - quarta eresia: concedere al papa il diritto di privare i re dei loro regni. Se il rasoio taglia i poteri papali, rinforza quelli imperiali garantendone l'autonomia nei confronti dell'arbitrio papale. Occorre dunque correlare di eccezioni il contestatissimo versetto di Mt 16,19 "Quodcumque ligaveris super terram, etc.", infatti questo enunciato, pur essendo stato profferito "generaliter", non possiamo in alcun modo intenderlo "generaliter sine omnia exceptione". Le eccezioni o limitazioni al potere papale nei confronti dell'Impero sono perlomeno tre, tre nuove incisioni apportate alla "plenitudo potestatis": - il diritto legittimo dei re, degli imperatori e di altri (cfr. Mt 22,21 e Gv 18,36); - le libertà concesse ai mortali da Dio e dalla natura (cfr. Lc 11,46 e Mt 23,4), eccezione derogabile solo in caso di necessità urgente e utilità manifesta; - il "modus nimis onerosus et gravis in ordinando", affinché non risulti impossibile ai sudditi del papa, ciò che era loro possibile nella libertà evangelica. Quel "modus nimis onerosus et gravis in ordinando" è la formulazione che troviamo nel Breviloquium e che meglio esprime ciò che qui abbiamo definito "rasoio politico di Ockham": rispettare il diritto prestabilito da Dio, limitare il proprio potere allo stretto necessario, trovare le modalità giuste per esprimere il potere legittimo. Si ribadisce comunque il diritto-dovere all'obiezione ed alla critica, quando diritti e libertà di terzi vengono calpestati con le parole del Salmo 23, "proiciamus a nobis iugum ipsorum". 73 Guglielmo di Ockham Opere Filosofia • • • • • • • • Summa logicae (prima del 1327). Quaestiones in octo libros physicorum, (prima del 1327). Summulae in octo libros physicorum, (prima del 1327). Quodlibeta septem (prima del 1327). Expositio aurea super totam artem veterem: quaestiones in quattuor libros sententiarum. Major summa logices. Quaestiones in quattuor libros sententiarum. Centilogium theologicum. Religione • • • • Questiones earumque decisiones. Quodlibeta septem. Centiloquium. De sacramento altaris e De corpore christi. • Tractatus de sacramento allans. Politica • • • • • • • • • • • • Opus nonaginta dierum (1330-1332). Dialogus…XXII. Epístola defensoria. Decisiones octo quæstionum (dal 1339). Dialogus in tres partes diatinctus (1342-43). De jurisdictione imperatoris in causis matrimonialibus. De dogmatibus papae Johannis XXII. Compendium errorum papae Johannis XXII. Breviloquium de principatu tyrannico. De imperatorum et pontificum potestate. Tractatus contra Benedictum XII De electione Caroli IV (ultima opera). Note [1] Tutta la biografia e le date sono state prese dal libro Franco Cardini e Marina Montesano, Storia medievale, Firenze, Le Monnier Università, 2006. ISBN 8800204740, pag. 361. [2] N.Abbagnano-G.Fornero, Protagonisti e testi della filosofia, Volume A, Tomo 2, Paravia Bruno Mondadori Editori, Torino 1999,pp. 678-679. [3] cfr. Ghisalberti, 1991, pp. 28-30 Bibliografia • • • • Beckmann, Jan (ed.). - Ockham-Bibliographie 1900-1990 - Hamburg, Felix Meiner, 1992 Gál, Gedeon, 1982. William of Ockham Died Impenitent in April 1347. Franciscan Studies 42, pp. 90–95 Ghisalberti, Alessandro. Guglielmo di Ockham. Milano: Vita e Pensiero 1972 id., Guglielmo di Ockham - Scritti filosofici, Firenze 1991 • Spade, Paul Vincent (ed.). The Cambridge Companion to Ockham Cambridge: Cambridge University Press 1999 • Todisco, Orlando. Guglielmo d'Occam filosofo della contingenza Padova: Messaggero 1998 74 Guglielmo di Ockham • Nicola Abbagnano-Giovanni Fornero, Protagonisti e testi della filosofia, Volume A, Tomo 2, Paravia Bruno Mondadori Editori, Torino, 1999. ISBN 88-395-3311-7 Voci correlate • Rasoio di Occam • Marsilio da Padova • Disputa sulla povertà apostolica Collegamenti esterni • Guglielmo di Ockham, scheda di [[Marcello Landi (filosofo)|Marcello Landi (http://lgxserver.uniba.it/lei/ filosofi/autori/occam-scheda.htm)]] • Summa logicae in latino su wikisource (http://la.wikisource.org/wiki/Summa_logicae) • Stanford Encyclopedia of Philosophy: William of Ockham (http://plato.stanford.edu/entries/ockham/) • Internet Encyclopedia of Philosophy: William of Ockham (http://www.utm.edu/research/iep/o/ockham.htm) • William Ockham Nominalist Ontology (http://www.ontology.co/william-ockham.htm) con ampia bibliografia degli studi su Ockham Indipendenza stocastica Nell'ambito del calcolo delle probabilità, l'indipendenza stocastica di due eventi A e B si ha quando il verificarsi di uno non modifica la probabilità di verificarsi dell'altro, ovvero quando la probabilità condizionata P(A | B) oppure P(B | A) è pari rispettivamente a P(A) e P(B) P(A | B) = P(A) P(B | A) = P(B) queste due condizioni si possono sintetizzare con la formula P(A ∩ B) = P(A) · P(B). In altre parole, dire che due eventi sono indipendenti tra loro significa dire che il fatto di sapere che uno di essi si è verificato non modifica la valutazione di probabilità sul secondo. Per esempio, il fatto di ottenere "1" quando viene lanciato un dado ed il fatto di ottenere ancora un "1" la seconda volta che il dado viene lanciato, sono indipendenti. Analogamente, quando si afferma che due variabili casuali X e Y definite sullo stesso spazio campionario H sono indipendenti si afferma che conoscere qualcosa riguardo al valore di una di esse non apporta alcuna informazione circa il valore dell'altra. Per esempio, il numero che appare sulla faccia superiore di un dado la prima volta che viene lanciato e il numero che appare la seconda volta sono indipendenti. Formalmente, questo si verifica quando per ogni coppia di eventi B, B' risulta P(X ∈ B ∩ Y ∈ B' ) = P(X ∈ B) · P (Y ∈ B' ) Equivalentemente ciò si verifica se, detta F la funzione di ripartizione della variabile congiunta (X,Y) e fX, fY le due funzioni di ripartizione marginali, allora per ogni x,y vale che F(x,y)=fX(x) · fY(y) Condizioni analoghe si trovano per la funzione di densità di probabilità e la funzione di probabilità, se X è rispettivamente una variabile casuale continua o una variabile casuale discreta: f(x,y)=fX(x)· fY(y) e p(x,y)=pX(x)· pY(y) 75 Indipendenza stocastica 76 Generalizzazioni Nell'ambito della teoria della probabilità, la nozione di indipendenza stocastica può essere generalizzata ampiamente. Sia uno spazio di probabilità, e sia una famiglia arbitraria (finita o non finita) di σ-algebre contenute in : . Esse si dicono indipendenti rispetto a di , e per ogni sottoinsieme se, per ogni sottoinsieme finito , accade: . Questa nozione si riduce alla precedente nel caso in cui la famiglia di σ-algebre sia formata da due soli elementi e , dove, dato un insieme misurabile , è la σ-algebra da esso generata: . Questa estensione, ampiamente usata nella teoria dei processi stocastici, trova la sua motivazione nel fatto che l'indipendenza stocastica di una famiglia di σ-algebre, non è in generale equivalente all'indipendenza dei suoi elementi a due a due. Ad esempio, dati tre insiemi , sapendo che e , e , e sono indipendenti, non se ne può dedurre che: . Voci correlate • • • • • probabilità probabilità condizionata Mark Kac Hugo Steinhaus Paradosso del compleanno Insieme sfocato Un insieme sfocato o insieme sfumato (in inglese fuzzy set) è un insieme che rientra in un'estensione della teoria classica degli insiemi. Il concetto è stato introdotto da Lotfi A. Zadeh, nel 1965, come estensione della classica definizione di insieme. Un insieme sfocato è caratterizzato da una funzione di grado di appartenenza, che mappa gli elementi di un universo in un intervallo reale continuo [0;1]. Il valore 0 (zero) indica che l'elemento non è per niente incluso nell'insieme sfocato, il valore 1 (uno) indica che l'elemento è certamente incluso nell'insieme (questi due valori corrispondono alla teoria classica degli insiemi), mentre i valori tra zero e uno indicano il grado di appartenenza dell'elemento all'insieme sfocato in questione. Per un universo X e una data funzione del grado di appartenenza f : X→[0;1], l'insieme sfocato A è definito come A = { ( x, f(x) ) | x ∈ X }. Insieme sfocato 77 Esempio Un esempio di insieme fuzzy è il seguente: U = {6, 2, 0, 10} A = Numeri in U vicini a 2 A = {(6,0.4), (2,1), (0,0.8), (10,0.1)} In questo caso è un insieme "classico", che trattiamo come insieme universo della nostra insiemistica fuzzy: definire un insieme fuzzy equivale a definire, per ogni elemento di , il suo grado di appartenenza (espresso dal secondo numero entro ciascuna parentesi). Proprietà degli insiemi sfocati Gli insiemi fuzzy non godono di relazioni di univocità e biunivocità fra gli elementi di insiemi diversi. Pertanto, gli insiemi fuzzy sono un'estensione, ma non una generalizzazione degli insiemi della teoria classica; ovvero sono una teoria che allarga ed è inclusa in quella degli insiemi, piuttosto che includerla in una teoria nuova e più vasta. Un semplice passaggio di notazione da un discreto fra 0 e 1 a un intervallo continuo di appartenenza fra gli stessi due estremi rappresenta un notevole salto concettuale ed è un esempio dell'importanza di disporre di una notazione matematica sintetica e potente. Sugli insiemi fuzzy valgono gli operatori insiemistici: unione, intersezione e complementare. Valgono inoltre le leggi di De Morgan; non valgono invece il principio del terzo escluso (per cui l'unione di un insieme con il suo complementare ha somma pari a 1) e il principio di non-contraddizione (l'intersezione di un insieme con il suo complementare è un insieme vuoto). Il discorso ovviamente è valido in quanto la complementarità è definita indipendentemente da questi principi fondamentali di logica (e da tutti gli altri, che ne sono una derivazione) come proprietà di un singolo insieme e non di due o più insiemi in relazione tra loro. Vi sono vari modi possibili di generalizzare gli operatori della logica classica. L'operazione di unione su due insiemi fuzzy A e B si esegue applicando ad ogni elemento x di A e y di B una funzione chiamata s-norm; tipicamente si prende il massimo tra i due valori: Grado di appartenenza ad A ∪ B di 1 = Max(1 - 0,2 ) = 1 A∪B={ 1/1 + 0,3/2 + 0,7/3 + 0,6/4 + 0,4/5 } L'operazione di intersezione invece viene effettuata utilizzando funzioni t-norm, tipicamente la funzione minimo; per definire invece il complementare di un insieme, si calcola il nuovo grado di appartenenza di un elemento al nuovo insieme B come 1-Grado di appartenenza ad A, come nel seguente esempio: Insieme sfocato 78 Utilizzo La validità degli operatori booleani (con cui lavora l'algebra relazionale) consente di interrogare basi di dati fuzzy con il FSQL (Fuzzy SQL), un linguaggio nato nel 1998 come estensione dell'SQL. Voci correlate • Teoria degli insiemi • Logica fuzzy Insieme sfumato Un insieme sfocato o insieme sfumato (in inglese fuzzy set) è un insieme che rientra in un'estensione della teoria classica degli insiemi. Il concetto è stato introdotto da Lotfi A. Zadeh, nel 1965, come estensione della classica definizione di insieme. Un insieme sfocato è caratterizzato da una funzione di grado di appartenenza, che mappa gli elementi di un universo in un intervallo reale continuo [0;1]. Il valore 0 (zero) indica che l'elemento non è per niente incluso nell'insieme sfocato, il valore 1 (uno) indica che l'elemento è certamente incluso nell'insieme (questi due valori corrispondono alla teoria classica degli insiemi), mentre i valori tra zero e uno indicano il grado di appartenenza dell'elemento all'insieme sfocato in questione. Per un universo X e una data funzione del grado di appartenenza f : X→[0;1], l'insieme sfocato A è definito come A = { ( x, f(x) ) | x ∈ X }. Esempio Un esempio di insieme fuzzy è il seguente: U = {6, 2, 0, 10} A = Numeri in U vicini a 2 A = {(6,0.4), (2,1), (0,0.8), (10,0.1)} In questo caso è un insieme "classico", che trattiamo come insieme universo della nostra insiemistica fuzzy: definire un insieme fuzzy equivale a definire, per ogni elemento di , il suo grado di appartenenza (espresso dal secondo numero entro ciascuna parentesi). Proprietà degli insiemi sfocati Gli insiemi fuzzy non godono di relazioni di univocità e biunivocità fra gli elementi di insiemi diversi. Pertanto, gli insiemi fuzzy sono un'estensione, ma non una generalizzazione degli insiemi della teoria classica; ovvero sono una teoria che allarga ed è inclusa in quella degli insiemi, piuttosto che includerla in una teoria nuova e più vasta. Un semplice passaggio di notazione da un discreto fra 0 e 1 a un intervallo continuo di appartenenza fra gli stessi due estremi rappresenta un notevole salto concettuale ed è un esempio dell'importanza di disporre di una notazione matematica sintetica e potente. Sugli insiemi fuzzy valgono gli operatori insiemistici: unione, intersezione e complementare. Valgono inoltre le leggi di De Morgan; non valgono invece il principio del terzo escluso (per cui l'unione di un insieme con il suo complementare ha somma pari a 1) e il principio di non-contraddizione (l'intersezione di un insieme con il suo complementare è un insieme vuoto). Il discorso ovviamente è valido in quanto la complementarità è definita indipendentemente da questi principi fondamentali di logica (e da tutti gli altri, che ne sono una derivazione) come Insieme sfumato proprietà di un singolo insieme e non di due o più insiemi in relazione tra loro. Vi sono vari modi possibili di generalizzare gli operatori della logica classica. L'operazione di unione su due insiemi fuzzy A e B si esegue applicando ad ogni elemento x di A e y di B una funzione chiamata s-norm; tipicamente si prende il massimo tra i due valori: Grado di appartenenza ad A ∪ B di 1 = Max(1 - 0,2 ) = 1 A∪B={ 1/1 + 0,3/2 + 0,7/3 + 0,6/4 + 0,4/5 } L'operazione di intersezione invece viene effettuata utilizzando funzioni t-norm, tipicamente la funzione minimo; per definire invece il complementare di un insieme, si calcola il nuovo grado di appartenenza di un elemento al nuovo insieme B come 1-Grado di appartenenza ad A, come nel seguente esempio: Utilizzo La validità degli operatori booleani (con cui lavora l'algebra relazionale) consente di interrogare basi di dati fuzzy con il FSQL (Fuzzy SQL), un linguaggio nato nel 1998 come estensione dell'SQL. Voci correlate • Teoria degli insiemi • Logica fuzzy 79 Asino di Buridano Asino di Buridano Cartello del 1900, che mostra il Congresso degli Stati Uniti come asino di Buridano, incerto nella scelta tra il canale di Panama o quello per il Nicaragua. « Un asino affamato e assetato è accovacciato esattamente tra due mucchi di fieno con, vicino a ognuno, un secchio d'acqua, ma non c'è niente che lo determini ad andare da una parte piuttosto che dall'altra. Perciò, resta fermo e muore. » L'asino di Buridano (o Paradosso dell'asino) è un paradosso erroneamente attribuito a Giovanni Buridano. Questo paradosso prova a confutare il determinismo causalistico, per cui tutte le azioni sono predeterminate causalmente. Se il determinismo causalistico vale per gli animali, ci si dovrebbe aspettare che sia valido anche per gli uomini, ma se ci trovassimo in una situazione identica, supponendo di trovarsi affamati ed assetati esattamente a metà tra due tavoli imbanditi non propenderemmo sicuramente per un tavolo? Leibniz discusse di questo paradosso nei Saggi di teodicea[1]. Note [1] http:/ / www. filosofico. net/ Antologia_file/ AntologiaL/ LEIBNIZ_%20L%20ASINO%20DI%20BURIDANO. htm Bibliografia • 2002 M. Clark, Paradoxes from A to Z 80 Logica fuzzy Logica fuzzy « Finché le leggi della matematica si riferiscono alla realtà, non sono certe, e finché sono certe, non si riferiscono alla realtà. » (Albert Einstein, da Sidelights on Relativity, Dover, pag. 12) La logica fuzzy o logica sfumata o logica sfocata è una logica in cui si può attribuire a ciascuna proposizione un grado di verità compreso tra 0 e 1. È una logica polivalente, e pertanto un'estensione della logica booleana. È fortemente legata alla teoria degli insiemi sfocati e, già intuita da Cartesio, Bertrand Russell, Albert Einstein, Werner Karl Heisenberg, Jan Łukasiewicz e Max Black, venne concretizzata da Lotfi Zadeh. Con grado di verità o valore di appartenenza si intende quanto è vera una proprietà: questa può essere, oltre che vera (= a valore 1) o falsa (= a valore 0) come nella logica classica, anche pari a valori intermedi. Si può ad esempio dire che: • un neonato è "giovane" di valore 1 • un diciottenne è "giovane" di valore 0,8 • un sessantacinquenne è "giovane" di valore 0,15 Solitamente il valore di appartenenza si indica con μ; il valore di appartenenza ad un insieme fuzzy F di un predicato p si indica con µF(p). Storia Nei primi anni sessanta, Lotfi A. Zadeh, professore all'Università della California di Berkeley, molto noto per i suoi contributi alla teoria dei sistemi, cominciò ad avvertire che le tecniche tradizionali di analisi dei sistemi erano eccessivamente ed inutilmente accurate per molti dei problemi tipici del mondo reale. L'idea di grado d'appartenenza, il concetto divenuto poi la spina dorsale della teoria degli insiemi sfumati, fu da lui introdotta nel 1964, e ciò portò in seguito, nel 1965, alla pubblicazione di un primo articolo, ed alla nascita della logica sfumata. Il concetto di insieme sfumato (o insieme sfocato), e di logica sfumata, attirò le aspre critiche della comunità accademica; nonostante ciò, studiosi e scienziati di tutto il mondo - dei campi più diversi, dalla psicologia alla sociologia, dalla filosofia all'economia, dalle scienze naturali all'ingegneria - divennero seguaci di Zadeh. In Giappone la ricerca sulla logica sfumata cominciò con due piccoli gruppi universitari fondati sul finire degli anni settanta: il primo era guidato, a Tokyo, da T. Terano e H. Shibata, mentre l'altro si stabilì a Kanasai sotto la guida di K. Tanaka e Kiyoji Asai. Al pari dei ricercatori americani, questi studiosi si scontrarono, nei primi tempi, con un'atmosfera fortemente avversa alla logica fuzzy. E tuttavia, la loro tenacia e il duro lavoro si sarebbero dimostrati estremamente fruttuosi già dopo un decennio: i ricercatori giapponesi, i loro studenti e gli studenti di questi ultimi produssero molti importanti contributi sia alla teoria che alle applicazioni della logica fuzzy. Nel 1974, Seto Assilian ed Ebrahim H. Mamdani svilupparono, in Gran Bretagna, il primo sistema di controllo di un generatore di vapore, basato sulla logica fuzzy. Nel 1976, la Blue Circle Cement e il SIRA idearono la prima applicazione industriale della logica fuzzy, per il controllo di una fornace per la produzione di cemento. Il sistema divenne operativo nel 1982. Nel corso degli anni ottanta, diverse importanti applicazioni industriali della logica fuzzy furono lanciate con pieno successo in Giappone. Dopo otto anni di costante ricerca, sviluppo e sforzi di messa a punto, nel 1987 Seiji Yasunobu ed i suoi colleghi della Hitachi realizzarono un sistema automatizzato per il controllo operativo dei treni metropolitani della città di Sendai. Un'altra delle prime applicazioni di successo della logica fuzzy è un sistema per il trattamento delle acque di scarico sviluppato dalla Fuji Electric. Queste ed altre applicazioni motivarono molti ingegneri giapponesi ad approfondire un ampio spettro di applicazioni inedite: ciò ha poi condotto ad un vero boom 81 Logica fuzzy della logica fuzzy. Una tale esplosione era peraltro il risultato di una stretta collaborazione, e del trasferimento tecnologico, tra Università ed Industria. Due progetti di ricerca nazionali su larga scala furono decisi da agenzie governative giapponesi nel 1987, il più noto dei quali sarebbe stato il Laboratory for International Fuzzy Engineering Research (LIFE). Alla fine di gennaio del 1990, la Matsushita Electric Industrial Co. diede il nome di "Asai-go (moglie adorata) Day Fuzzy" alla sua nuova lavatrice a controllo automatico, e lanciò una campagna pubblicitaria in grande stile per il prodotto "fuzzy". Tale campagna si è rivelata essere un successo commerciale non solo per il prodotto, ma anche per la tecnologia stessa. Il termine d'origine estera "fuzzy" fu introdotto nella lingua giapponese con un nuovo e diverso significato: intelligente. Molte altre aziende elettroniche seguirono le orme della Panasonic e lanciarono sul mercato, tra l'altro, aspirapolvere, fornelletti per la cottura del riso, frigoriferi, videocamere (per stabilizzare l'inquadratura sottoposta ai bruschi movimenti della mano) e macchine fotografiche (con un autofocus più efficace). Ciò ebbe come risultato l'esplodere di una vera mania per tutto quanto era etichettato come fuzzy: tutti i consumatori giapponesi impararono a conoscere la parola "fuzzy", che vinse il premio per il neologismo dell'anno nel 1990. I successi giapponesi stimolarono un vasto e serio interesse per questa tecnologia in Corea, in Europa e, in misura minore, negli Stati Uniti, dove pure la logica fuzzy aveva visto la luce. La logica fuzzy ha trovato parimenti applicazione in campo finanziario. Il primo sistema per le compravendite azionarie ad usare la logica sfumata è stato lo Yamaichi Fuzzy Fund. Esso viene usato in 65 aziende e tratta la maggioranza dei titoli quotati dell'indice Nikkei Dow, e consiste approssimativamente in 800 regole. Tali regole sono determinate con cadenza mensile da un gruppo di esperti e, se necessario, modificate da analisti finanziari di provata esperienza. Il sistema è stato testato per un periodo di due anni e le sue prestazioni in termini di rendimento hanno superato l'indice Nikkei Average di oltre il 20%. Durante il periodo di prova, il sistema consigliò "sell", ossia "vendere", ben 18 giorni prima del Lunedì Nero (19 ottobre 1987): nel corso di quel solo giorno l'indice Dow Jones Industrial Average diminuì del 23%. Il sistema è divenuto operativo nel 1988. Il primo chip VLSI (Very Large Scale Integration) dedicato alla computazione d'inferenze fuzzy fu sviluppato da Masaki Togai e H. Watanabe nel 1986: chip di tal genere sono in grado di migliorare le prestazioni dei sistemi fuzzy per tutte le applicazioni in tempo reale. Diverse imprese (per esempio, Togai Infralogic[1], Aptronix[2], Inform GmbH[3]) sono state costituite allo scopo di commercializzare strumenti hardware e software per lo sviluppo di sistemi a logica sfumata. Allo stesso tempo, anche i produttori di software, nel campo della teoria convenzionale del controllo, cominciarono ad introdurre pacchetti supplementari di progettazione dei sistemi fuzzy. Il Fuzzy Logic Toolbox per MATLAB, ad esempio, è stato presentato quale componente integrativo nel 1994. Fuzzy logic: concetti fondamentali Nel 1994 Zadeh scriveva: « Il termine logica fuzzy viene in realtà usato in due significati diversi. In senso stretto è un sistema logico, estensione della logica a valori multipli, che dovrebbe servire come logica del ragionamento approssimato. Ma in senso più ampio logica fuzzy è più o meno sinonimo di teoria degli insiemi fuzzy cioè una teoria di classi con contorni indistinti. Ciò che è importante riconoscere è che oggi il termine logica fuzzy è usato principalmente in questo significato più vasto » La teoria degli insiemi fuzzy costituisce un'estensione della teoria classica degli insiemi poiché per essa non valgono i principi aristotelici di non-contraddizione e del terzo escluso (detto anche "tertium non datur"). Si ricorda che, dati due insiemi A e !A (non-A), il principio di non-contraddizione stabilisce che ogni elemento appartenente all'insieme A non può contemporaneamente appartenere anche a non-A; secondo il principio del terzo escluso, d'altro canto, l'unione di un insieme A e del suo complemento non-A costituisce l'universo del discorso. In altri termini, se un qualunque elemento non appartiene all'insieme A, esso necessariamente deve appartenere al suo complemento non-A. 82 Logica fuzzy Tali principi logici conferiscono un carattere di rigida bivalenza all'intera costruzione aristotelica, carattere che ritroviamo, sostanzialmente immutato ed indiscusso, sino alla prima metà del XX secolo, quando l'opera di alcuni precursori di Zadeh (in primis Max Black e Jan Łukasiewicz) permette di dissolvere la lunga serie di paradossi cui la bivalenza della logica classica aveva dato luogo e che essa non era in grado di chiarire. Il più antico e forse celebre di tali paradossi è quello attribuito ad Eubulide di Mileto (IV secolo a.C.), noto anche come paradosso del mentitore, il quale, nella sua forma più semplice, recita: "Il cretese Epimenide afferma che il cretese è bugiardo" In tale forma, suggerita dalla logica proposizionale, ogni affermazione esprime una descrizione di tipo dicotomico. Al contrario, nella logica predicativa ogni proposizione esprime un insieme di descrizioni simili o di fatti atomici, come nella frase tutti i cretesi sono bugiardi. Si noti che, a rigor di logica (bivalente), una formulazione del paradosso contenente tale frase è falsa, in quanto è vera la sua negazione: la negazione di tutti non è nessuno, ma non tutti, quindi non tutti i cretesi sono bugiardi, Eubulide è un bugiardo, ed essendo vera la sua negazione, l'affermazione di Eubulide risulterebbe falsa. Ad ogni modo, il paradosso del mentitore nella sua forma proposizionale appartiene alla classe dei paradossi di autoriferimento. Ogni membro di questa classe presenta una struttura del tipo: "La frase seguente è vera La frase precedente è falsa" o in maniera più sintetica: "Questa frase è falsa" Orbene, la logica aristotelica si dimostra incapace di stabilire se queste proposizioni siano vere o false. Essa è strutturalmente incapace di dare una risposta proprio in quanto bivalente, cioè proprio perché ammette due soli valori di verità: vero o falso, bianco o nero, tutto o niente; ma giacché il paradosso contiene un riferimento a se stesso, non può assumere un valore che sia ben definito (o vero o falso) senza autocontraddirsi: ciò implica che ogni tentativo di risolvere la questione posta si traduce in un'oscillazione senza fine tra due estremi opposti. Il vero implica il falso, e viceversa. Secondo Bart Kosko, uno dei più brillanti allievi di Zadeh, infatti, se quanto afferma Epimenide è vero, allora il cretese mente: pertanto, poiché Epimenide è cretese, quindi mente, dobbiamo concludere che egli dice il vero. Viceversa, se l'affermazione di Epimenide è falsa, allora il cretese Epimenide non mente, e pertanto si deduce che egli mente. In termini simbolici, indicato con V l'enunciato del paradosso di Eubulide, e con v = 0/1 il suo valore di verità binario, si ha, analizzando separatamente i due casi possibili: 1. 2. e tenendo presente che, come mostrato in precedenza, il valore di verità di V coincide con quello della sua negazione !V, vale a dire: v=!v, si perviene all'equazione logica che esprime tale contraddizione: la cui soluzione è banalmente data da: Da ciò si deduce finalmente che l'enunciato del paradosso non è né vero né falso, ma è semplicemente una mezza verità o, in maniera equivalente, una mezza falsità. Le due possibili conclusioni del paradosso si presentano nella forma contraddittoria A e non-A, e questa sola contraddizione è sufficiente ad inficiare la logica bivalente. Ciò al contrario non pone alcun problema alla logica fuzzy, poiché, quando il cretese mente e non mente allo stesso tempo, lo fa solo al 50%. Quanto esposto conferma la sua validità in tutti i paradossi di autoriferimento. È interessante notare come, ammettendo esplicitamente l'esistenza di una contraddizione, la condizione che la traduce venga poi impiegata per determinare l'unica soluzione contraddittoria tra le infinite possibili (sfumate, cioè a 83 Logica fuzzy valori di verità frazionari) per la questione posta: ciò conferma l'insussistenza dei principi di non contraddizione e del terzo escluso nella logica anche se ovviamente rimangono validi parlando di Razionalità Interne Oggettive. Infatti, nella logica fuzzy l'esistenza di circostanze paradossali, vale a dire di situazioni in cui un certo enunciato è contemporaneamente vero e falso allo stesso grado, è evidenziata da ciascuno dei punti d'intersezione tra una generica funzione d'appartenenza e il suo complemento, avendo necessariamente tali punti ordinata pari a ½. Ciò in quanto il valore di verità della proposizione in questione coincide con il valore di verità della sua negazione. Gli operatori logici AND, OR e NOT della logica booleana sono definiti di solito, nell'ambito della fuzzy logic, come operatori di minimo, massimo e complemento; in questo caso, sono anche detti operatori di Zadeh, in quanto introdotti per la prima volta nei lavori originali dello stesso Zadeh. Pertanto, per le variabili fuzzy x e y si ha, ad esempio: Si è detto che la teoria degli insiemi sfumati generalizza la teoria convenzionale degli insiemi; pertanto, anche le sue basi assiomatiche sono inevitabilmente diverse. A causa del fatto che il principio del terzo escluso non costituisce un assioma della teoria degli insiemi fuzzy, non tutte le espressioni e le identità, logicamente equivalenti, dell'algebra booleana mantengono la loro validità anche nell'ambito della logica fuzzy. Recentemente si sono sviluppati rigorosi studi della logica fuzzy "in senso stretto", studi che si inseriscono nell'antico filone delle logiche a più valori inaugurato da Jan Łukasiewicz (si veda ad esempio il libro di Petr Hájek). Tuttavia la logica sfumata, oltre ad avere ereditato le motivazioni filosofiche che hanno dato origine alle logiche a più valori, si inquadra nel contesto più ampio delle metodologie che hanno consentito un marcato rinnovamento dell'intelligenza artificiale classica, dando vita al cosiddetto soft computing che ha tra i suoi costituenti principali le reti neurali artificiali, gli algoritmi genetici ed il controllo fuzzy. Applicare la Fuzzy Logic a situazioni reali Una semplice applicazione potrebbe essere la categorizzazione in sotto ranghi di una variabile continua. Per esempio, la misura di una temperatura per un sistema anti-blocco di un impianto frenante potrebbe avere diverse funzionalità a secondo di particolari range di temperature per controllare i freni nella maniera corretta. Ogni funzione mappa un certo range di temperatura, come valori booleani 0 o 1 a seconda che la temperatura sia o meno nel range specifico. Questi valori booleani possono essere utilizzati per determinare la maniera in cui i freni devono essere controllati. 84 Logica fuzzy In questa immagine le tre funzioni, cold (freddo in blu), warm (tiepido in arancio), e hot (caldo in rosso) sono rappresentate nel diagramma riferite alla comune variabile, la temperatura. Una particolare temperatura assunta dal sistema anti-blocco (linea verticale in grigio) ha tre valori logici, uno per ciascuna delle tre funzioni. Finché la freccia rossa punta a zero, la funzione hot non è vera (temperatura non calda, con operatori matematici: "NOT hot"). La freccia arancione (che punta a 0,2) indica che la funzione warm è vera solo in piccola parte (si può descrivere a parole come "un po' tiepido"); al contrario la freccia blu (che punta a 0,8) indica che la funzione cold è abbastanza vera ("abbastanza cold"). Fuzzy e probabilità Per capire la differenza tra logica fuzzy e teoria della probabilità, facciamo questo esempio: un lotto di 100 bottiglie d'acqua ne contiene 5 di veleno. • Secondo la teoria della probabilità, diremo allora che la probabilità di prendere una bottiglia di acqua potabile è 0,95. Tuttavia una volta presa una bottiglia, o è potabile, o non lo è: le probabilità collassano a 0 od 1. • Se impostiamo il nostro pensiero in logica fuzzy, invece, prendendo una bottiglia b contenente una miscela di acqua e veleno, al 95% di acqua, allora avremo . I valori fuzzy possono variare da 0 ad 1 (come le probabilità) ma, diversamente da queste, descrivono eventi che si verificano in una certa misura mentre non si applicano ad eventi casuali bivalenti (che si verificano oppure no, senza valori intermedi). I rapporti tra logica sfumata e teoria della probabilità sono estremamente controversi e hanno dato luogo a polemiche aspre e spesso non costruttive tra i seguaci di ambedue gli orientamenti. Da una parte, infatti, i probabilisti, forti di una tradizione secolare e di una posizione consolidata, hanno tentato di difendere il monopolio storicamente detenuto in materia di casualità ed incertezza, asserendo che la logica sfumata è null'altro che una probabilità sotto mentite spoglie, sostenuti in tale convinzione dalla circostanza, da ritenersi puramente accidentale, che le misure di probabilità, al pari dei gradi d'appartenenza agli insiemi fuzzy, sono espresse da valori numerici inclusi nell'intervallo reale [0, 1]. Gli studiosi di parte fuzzy, al contrario, hanno mostrato che anche la teoria probabilistica, nelle sue varie formulazioni (basate, secondo i casi, sugli assiomi di Kolmogorov, su osservazioni concernenti la frequenza relativa d'accadimento di determinati eventi, oppure sulla concezione bayesiana soggettivista, secondo cui la probabilità è la traduzione, in forma numerica, di uno stato di conoscenza contingente), è in definitiva una teoria del caso ancora saldamente ancorata ad una weltanschauung dicotomica e bivalente. A questo proposito, Bart Kosko si è spinto fino a ridiscutere il concetto di probabilità così come emerso finora nel corso dell'evoluzione storica, sottolineando la mancanza di solidità di tutti i tentativi intesi a fondare la teoria della probabilità su basi diverse da quelle puramente assiomatiche, empiriche o soggettive, e ritenendola un puro stato mentale, una raffigurazione artificiosa destinata a compensare l'ignoranza delle cause reali di un evento: la probabilità sarebbe in realtà mero istinto di probabilità. Al contrario, secondo l'interpretazione dello stesso Kosko, la probabilità è l'intero nella parte, ossia la misura di quanto la parte contiene l'intero. La parte può, in effetti, contenere l'intero nella misura in cui la sua estensione può sovrapporsi a quella dell'insieme universale. Questa concezione comporta un'affermazione apparentemente singolare, quella per cui la parte può contenere l'intero, non soltanto nel caso banale in cui la parte coincide con l'intero; infatti, l'operatore di contenimento non è più bivalente, ma è esso stesso fuzzy e può pertanto assumere un qualunque valore reale compreso tra 0 (non contenimento) e 1 (contenimento completo o, al limite, coincidenza). Su questa base, egli può finalmente concludere che la teoria degli insiemi sfumati contiene e comprende quella della probabilità come suo caso particolare; la realtà sarebbe pertanto deterministica, ma sfumata: la teoria del caos ne ha evidenziato la componente determinista, mentre la teoria fuzzy ha mostrato l'importanza del principio dell'homo mensura già espresso da Protagora.[4] 85 Logica fuzzy Bibliografia Testi divulgativi • Bart Kosko, Il fuzzy-pensiero. Teoria e applicazioni della logica fuzzy, 4a ed., Collana: Tascabili Baldini & Castoldi, I nani. Vita matematica; trad. di Agostino Lupoli, Milano, Baldini & Castoldi, 2000, Pagg. 365. ISBN 88-8089-193-6 • Gerla, Giangiacomo (1999). Logica fuzzy e paradossi. Lettera Matematica Pristem (32): Pagg. 31-39. ISSN: 1593-5884 [5]. Testi in lingua inglese • Roberto Leonardo Oscar Cignoli; Itala Maria Loffredo D'Ottaviano, Daniele Mundici, Algebraic Foundations of Many-valued Reasoning (in inglese), Collana: Trends in Logic - Studia logica library[6], Dordrecht, Kluwer Academic Publishers, 1999, Pagg. 244. ISBN 0-7923-6009-5 • Petr Hájek, Metamathematics of fuzzy logic (in inglese), Collana: Trends in logic, vol. 4[7], Dordrecht, Kluwer Academic Publishers, 1998, Pagg. 297. ISBN 0-7923-5238-6 • George Jiri Klir; Ute H. St. Clair, Bo Yuan, Set Theory Foundations and Applications (in inglese), Upper Saddle River (New Jersey), Prentice Hall PTR, 27, Pagg. 245. ISBN 0-13-341058-7 • George Jiri Klir; Bo Yuan, Fuzzy Sets and Fuzzy Logic (in inglese), Sottotitolo: Theory and Applications[8], Upper Saddle River (New Jersey), Prentice Hall PTR, 1995, Pagg. 592. ISBN 0-13-101171-5 • Giangiacomo Gerla, Fuzzy logic: mathematical tools for approximate reasoning (in inglese), Collana: Trends in logic, vol. 11[9], Dordrecht, Kluwer Academic Publishers, 2001, Pagg. 269. ISBN 0-7923-6941-6 • Hans-Jürgen Zimmermann, Fuzzy Set Theory and its Applications (in inglese), Dordrecht, Kluwer Academic Publishers, 2001, Pagg. 514. ISBN 0-7923-7435-5 • Jerry M. Mendel, Uncertain Rule-Based Fuzzy Logic Systems: Introduction and New Directions (in inglese), Upper Saddle River, Prentice Hall (New Jersey), 2000, Pag. 576. ISBN 0-13-040969-3 • Guanrong Chen; Trung Tat Pham, Introduction to Fuzzy Sets, Fuzzy Logic, and Fuzzy Control Systems (in inglese), Lincoln, United States, CRC Press, 2000, Pagg. 328. ISBN 0-8493-1658-8 • Marco Russo; Lakhmi C. Jain, Fuzzy Learning and Applications (in inglese), Boca Raton, Florida, CRC Press, 2000, Pagg. 400. ISBN 0-8493-2269-3 • Timothy J. Ross, Fuzzy Logic with Engineering Applications (in inglese), Chichester (Regno Unito), John Wiley & Sons Ltd, 2004-06-25, Pagg. 628. ISBN 0-470-86075-8 Testi di valore storico • Zadeh, Lotfi Asker (1968). Fuzzy algorithms. Information and Control (5): Pagg. 94-102. • Zadeh, Lotfi Asker (1965). Fuzzy Sets. Information and Control (8): Pagg. 338-353. Note [1] [2] [3] [4] (EN) Togai InfraLogic; The World's Source For Fuzzy Logic Solutions (http:/ / www. ortech-engr. com/ fuzzy/ togai. html) (EN) Welcome to Aptronix, Inc.: the Fuzzy Logic Company in the Silicon Valley (http:/ / www. aptronix. com/ ) (EN) Inform (fuzzytech) (http:/ / www. fuzzytech. com/ ) Protagora dice: « L'uomo è la misura di tutte le cose, di quelle che sono in quanto sono e di quelle che non sono in quanto non sono» (Protagora, fr.1, in Platone, Teeteto, 151d-152e). [5] http:/ / worldcat. org/ issn/ 1593-5884 [6] (EN) Su Nebis indice dei contenuti di: Algebraic Foundations of Many-valued Reasoning (http:/ / opac. nebis. ch:80/ F/ MMQ6UXYGQVX9UH99FR4Y8HAPKKQ17Y4PTIY5KVMSJGPKMQPJ7C-64277?func=service& doc_library=EBI01& doc_number=003851926& line_number=0001& func_code=WEB-FULL& service_type=MEDIA) [7] (EN) Su Nebis indice dei contenuti di Metamathematics of fuzzy logic (http:/ / opac. nebis. ch:80/ F/ C9YGMMNCBK2UXR29HSIF9339A5NQHLYFAKRIBKKQ21L5I65BGX-64624?func=service& doc_library=EBI01& doc_number=002026599& line_number=0001& func_code=WEB-FULL& service_type=MEDIA) 86 Logica fuzzy [8] (EN) Su Deastore.com indice dei contenuti di: Fuzzy Sets and Fuzzy Logic (http:/ / www. deastore. com/ book/ fuzzy-sets-and-fuzzy-logic-george-j-klir-bo-yuan-prentice-hall-ptr/ 9780131011717. html) [9] (EN) Su Nebis indice dei contenuti di: Fuzzy logic: mathematical tools for approximate reasoning (http:/ / opac. nebis. ch:80/ F/ HJY2ARPUSBKG6PDXNAMAVE3VL31G149CX11RJLN82I7S91SK8P-60530?func=service& doc_library=EBI01& doc_number=004182120& line_number=0001& func_code=WEB-FULL& service_type=MEDIA) Software • DotFuzzy: Open Source Fuzzy Logic Library (http://www.havana7.com/dotfuzzy) • JFuzzyLogic: Open Source Fuzzy Logic Package + FCL (sourceforge, java) (http://jfuzzylogic.sourceforge.net/ ) • pyFuzzyLib: Open Source Library (Python) (http://sourceforge.net/projects/pyfuzzylib) • RockOn Fuzzy: Open Source Fuzzy Control And Simulation Tool (Java) (http://www.timtomtam.de/ rockonfuzzy) • Free Educational Software and Application Notes (http://www.fuzzytech.com) • InrecoLAN FuzzyMath: Fuzzy logic add-in for OpenOffice.org Calc (http://www.openfuzzymath.org) • Open fuzzy logic based inference engine and data mining web service based on Metarule (http://www.metarule. com) • mbFuzzIT: Open Source Software (Java) (http://mbfuzzit.sourceforge.net) Voci correlate • • • • • Informazione parziale linearizzata Insiemi sfocati Logica Matematica Reti neurali Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Fuzzy logic Collegamenti esterni • Sintetica guida introduttiva di Antonio Visioli (Università degli Studi di Brescia) (http://bsing.ing.unibs.it/ ~visioli/didattica/parte5.pdf) • Logica Fuzzy: i paradossi della vaghezza, di Giangiacomo Gerla (http://www.dmi.unisa.it/people/gerla/ www/Down/Light logica fuzzy.pdf) 87 Logica polivalente 88 Logica polivalente Le logiche polivalenti sono estensioni della logica classica in cui sono presenti più valori di verità rispetto ai canonici vero, falso e pertanto in esse non vale il principio del terzo escluso. Le prime logiche polivalenti furono proposte negli anni 1920 da Emil Post e da Jan Łukasiewicz e in esse erano presenti tre valori di verità: vero, falso, problematico. Logiche ad infiniti valori di verità Successivamente si è giunti a proporre logiche ad infiniti valori di verità quali: • • • • la logica ad infiniti valori di Lukasiewicz; la cosiddetta logica fuzzy di Zadeh; la logica (fuzzy) polivalente di Gödel; la logica (fuzzy) prodotto. Logica polivalente di Gödel In tale formulazione si hanno le seguenti:: se e altrimenti. Logica polivalente prodotto In tale formulazione si hanno le seguenti:: se e altrimenti. Logiche polivalenti e doppia negazione È interessante osservare come nelle logiche "fuzzy" di Gödel e "fuzzy" prodotto si neghi il principio della doppia negazione, come anche nella logica intuizionista, al fine di mantenere vera la forma standard del principio di non-contraddizione. In particolare, a causa della particolare definizione dell'operatore NOT si hanno: P → ¬¬P è un teorema ¬¬P → P non è teorema. ¬P → ¬¬¬P è un teorema. ¬¬¬P → ¬P è un teorema. Logica polivalente Logiche generiche. T-norma Una T-norma o norma triangolare o AND generalizzato è una applicazione T: [0,1] × [0,1] → [0,1] che soddisfa i seguenti requisiti: • • • • • Commutatività: T(a, b) = T(b, a); Monotonia: T(a, b) ≤ T(c, d) se a ≤ c e b ≤ d; Associatività: T(a, T(b, c)) = T(T(a, b), c); Elemento nullo: T(a, 0) = 0; 1 agisce come elemento identità: T(a, 1) = a. Le t-norme sono state utilizzate per interpretare il connettivo di congiunzione. Esempi di t-norme sono il minimo, il prodotto e la t-norma di Lukasiewicz definita da T(x,y)=max(0,x+y-1). Se la t-norma è una funzione continua a sinistra, allora è possibile definire la funzione x → y = max { z: T(x,z) ≤ y } che può essere utilizzata per interpretare in connettivo di implicazione. Avendo a disposizione l'implicazione si può definire la negazione come ¬x = x → 0. Nel caso in cui si parte dalla t-norma di Lukasiewicz, si ottiene: x → y = min{ 1, 1-x+y} (implicazione di Lukasiewicz) e ¬x = 1-x (negazione involutiva). Nota che la negazione involutiva è tale che ¬¬x=x. Voci correlate • Logica fuzzy • principio del terzo escluso • principio di bivalenza Su web • Stanford Encyclopedia of Philosophy: Fuzzy logic [1] • Stanford Encyclopedia of Philosophy:logica polivalente [2] Note [1] http:/ / plato. stanford. edu/ entries/ logic-fuzzy/ [2] http:/ / plato. stanford. edu/ entries/ logic-manyvalued/ 89 Oggetto impossibile 90 Oggetto impossibile Un oggetto impossibile è un oggetto che non può essere costruito nella realtà tridimensionale perché in contrasto con le leggi della geometria, sebbene sia possibile disegnarne una rappresentazione bidimensionale. La percezione dell'immagine bidimensionale come oggetto verosimile rappresenta un paradosso ed è per questo una illusione ottica di tipo cognitivo. In realtà diversi oggetti impossibili possono essere approssimativamente costruiti in tre dimensioni impiegando qualche trucco prospettico, come nell'esempio del cubo impossibile. L'artista olandese Maurits Cornelis Escher ha prodotto diverse opere in cui oggetti impossibili sono alla base dell'architettura di edifici e paesaggi fantastici. Nel romanzo di Andrea Camilleri La scomparsa di Patò viene chiaramente citata la Scala di Penrose ed i suoi micidiali effetti. Esempi di oggetti impossibili Cubo impossibile Triangolo impossibile o triangolo di Penrose Blivet / Poiuyt Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Impossible objects Collegamenti esterni • (EN) Realizzazione di oggetti impossibili [1] Note [1] http:/ / www. cs. technion. ac. il/ ~gershon/ BeyondEscherForReal/ Scala di Penrose Paradossi dell'infinito Paradossi dell'infinito I paradossi dell'infinito sono connaturati con la sua stessa definizione. Per meglio dire, la definizione matematica di infinito è stata costruita proprio per tener conto di quei comportamenti delle grandezze infinite che non sono conciliabili con le regole normali delle grandezze limitate. Un certo numero di paradossi logico-matematici si fondano su situazioni che hanno a che fare con grandezze esplicitamente o implicitamente infinite, sottolineandone contraddizioni, antinomie, paradossi, che non ci si aspetterebbe dalle normali grandezze finite di uso corrente. I matematici hanno definito delle regole per dominare valori infinitamente grandi o infinitamente piccoli, in modo da descriverne il comportamento in modo coerente. Ciò ha prodotto lo sviluppo del calcolo infinitesimale e dell'analisi matematica ma, nel parlare comune, in alcuni casi è difficile liberarsi dalla sensazione di paradosso quando si tratta di grandezze infinite. Due esempi semplici: • Quanti sono i numeri pari rispetto al totale dei numeri naturali? In una qualunque successione (limitata) di numeri naturali consecutivi, si alternano un numero pari e uno dispari. Quindi i pari sono esattamente la metà del totale. Considerando invece la totalità (infinita) dei numeri naturali, i pari devono essere in quantità esattamente uguale al totale dei numeri. Infatti per ogni numero esiste il suo doppio, che è pari! • Quanti sono i punti di un segmento di lunghezza doppia di un altro? Un segmento di lunghezza doppia rispetto ad un altro dovrebbe contenere intuitivamente un numero doppio di punti. In realtà, come si vede dal disegno, anche se il segmento A'B' è di lunghezza doppia rispetto ad AB, per ciascuno dei suoi punti (es. C') si può stabilire una corrispondenza biunivoca con un punto sul segmento AB (es. C). Quindi un segmento, per quanto sia corto, contiene sempre un numero infinito di punti, e questi si possono mettere in corrispondenza diretta con quelli di un qualunque altro segmento, lungo a piacere. 91 Paradossi dell'infinito 92 Voci correlate • Paradosso di Alberto di Sassonia - Il volume di una trave di lunghezza infinita è uguale al volume di tutto lo spazio. • Paradosso di Galileo - I quadrati perfetti, pur essendo una minima parte degli interi, sono altrettanto numerosi che questi. • Paradosso di San Pietroburgo - Ha senso aspettarsi di vincere una somma mediamente infinita, dopo un numero infinito di giocate?. • Paradosso del Grand Hotel - In un albergo con infiniti posti, c'è sempre posto per tutti, anche quando l'albergo è completamente pieno. • Paradosso di Bertrand - In un cerchio, le corde di lunghezza maggiore di • • • • volte il raggio sono 1/2, 1/3 o 1/4 del totale? Paradossi di Zenone - In un tempo finito, si possono percorrere infiniti tratti (di lunghezza infinitesima)? Paradosso di Burali-Forti - Esiste "l'insieme di tutti i numeri ordinali" ? Argomento diagonale di Cantor - Per non dimenticare che esistono infiniti di potenza (cardinalità) diversa Paradosso dell'ipergioco - L' ipergioco sembra essere contemporaneamente un gioco finito e infinito Paradossi di Zenone I paradossi di Zenone ci sono stati tramandati attraverso la citazione che ne fa Aristotele nella sua Fisica. Zenone di Elea, discepolo ed amico di Parmenide, per sostenere l'idea del maestro, che la realtà è costituita da un Essere unico e immutabile, propose alcuni paradossi che dimostrano, a rigor di logica, l'impossibilità della molteplicità e del moto, nonostante le apparenze della vita quotidiana. Le argomentazioni di Zenone costituiscono forse i primi esempi del metodo di dimostrazione noto come reductio ad absurdum o dimostrazione per assurdo. Sono anche considerate un primo esempio del metodo dialettico, usato in seguito dai sofisti e da Socrate ed inoltre furono il primo strumento che mise in difficoltà l'ambizione dei pitagorici di ridurre tutta la realtà in numeri. Oggi non si attribuisce valore fisico alle argomentazioni di Zenone, ma la loro influenza è stata molto importante nella storia del pensiero filosofico e matematico. I paradossi di Zenone restano anche un utile esercizio di logica, per riflettere sulla modalità di costruzione dei ragionamenti umani. Si ricordano due paradossi contro il pluralismo e quattro contro il movimento. Paradossi contro il pluralismo Primo paradosso Il primo paradosso, contro la pluralità delle cose, sostiene che se le cose sono molte, esse sono allo stesso tempo un numero finito e un numero infinito: sono finite in quanto esse sono né più né meno di quante sono, e infinite poiché tra la prima e la seconda ce n'è una terza e così via. Secondo paradosso Il secondo paradosso invece sostiene che se queste unità non hanno grandezza, le cose da esse composte non avranno grandezza, mentre se le unità hanno una certa grandezza, le cose composte da infinite unità avranno una grandezza infinita. Paradossi di Zenone 93 Paradossi contro il movimento Primo paradosso (lo stadio) Il primo argomento contro il movimento è quello sullo stadio. Esso afferma che non si può giungere all'estremità di uno stadio senza prima aver raggiunto la metà di esso, ma prima di raggiungerla si dovrà raggiungere la metà della metà e così via senza quindi mai riuscire nemmeno ad iniziare la corsa. Secondo Giorgio Colli, sono due le versioni tramandate del paradosso (una è quella citata sopra), e andrebbe preferita la seguente espressione: Non si può giungere all'estremità di uno stadio senza prima aver raggiunto la metà di esso, ma una volta raggiunta la metà si dovrà raggiungere la metà della metà rimanente e così via, senza quindi mai riuscire a raggiungere l'estremità dello stadio. Il paradosso sarebbe dunque analogo a quello di Achille e la tartaruga (che è una formulazione più suggestiva della dicotomia all'infinito) e del tutto indipendente da quello della freccia, che mette in dubbio l'inizio stesso del movimento. Secondo paradosso (Achille e la tartaruga) Il Paradosso di Achille e la tartaruga - uno dei paradossi di Zenone più famosi - afferma invece che se Achille (detto "pie' veloce") venisse sfidato da una tartaruga nella corsa e concedesse alla tartaruga un piede di vantaggio, egli non riuscirebbe mai a raggiungerla, dato che Achille dovrebbe prima raggiungere la posizione occupata precedentemente dalla tartaruga che, nel frattempo, sarà avanzata raggiungendo una nuova posizione che la farà essere ancora in vantaggio; quando poi Achille raggiungerà quella posizione nuovamente la tartaruga sarà avanzata precedendolo ancora. Questo stesso discorso si può ripetere per tutte le posizioni successivamente occupate dalla tartaruga e così la distanza tra Achille e la lenta tartaruga pur riducendosi verso l'infinitamente piccolo non arriverà mai ad essere pari a zero. In pratica, posto che la velocità di Achille ( • • • • ) sia N volte quella della tartaruga ( ) le cose avvengono così: dopo un certo tempo Achille arriva dove era la tartaruga alla partenza ( ). nel frattempo la tartaruga ha compiuto un pezzo di strada e si trova nel punto . occorre un ulteriore tempo per giungere in . ma nel frattempo la tartaruga è giunta nel punto ... e così via. Quindi per raggiungere la tartaruga Achille impiega un tempo e quindi non la raggiungerà mai. Terzo paradosso (la freccia) Il terzo argomento è quello della freccia, che appare in movimento ma, in realtà, è immobile. In ogni istante difatti essa occuperà solo uno spazio che è pari a quello della sua lunghezza; e poiché il tempo in cui la freccia si muove è fatto di singoli istanti, essa sarà immobile in ognuno di essi. Il concetto di questo terzo paradosso è in fondo opposto a quello del secondo: l'esistenza di punti e istanti indivisibili. Ma anche in questo caso il movimento risulta impossibile, in quanto dalla somma di istanti immobili non può risultare un movimento. Paradossi di Zenone 94 Quarto paradosso (due masse nello stadio) Zenone afferma che se due masse in uno stadio si vengono incontro, risulterà l'assurdo logico che la metà del tempo equivale al doppio. Consideriamo infatti tre segmenti (A, B, C) uguali e paralleli, che si trovino allineati. Supponiamo poi che il segmento in alto (A) si muova verso destra, rispetto a quello situato nel centro (B) che resta fermo, e che per ogni istante elementare avanzi di un intervallo (elementare). Il segmento in basso (C) faccia invece la stessa cosa verso sinistra. Dopo il primo istante avremo che i punti iniziali di A e C si saranno allontanati di due intervalli. Ma ciò è assurdo perché allora il tempo che avrebbero impiegato per allontanarsi di un solo intervallo sarebbe di "mezzo istante", contraddicendo l'ipotesi che stiamo analizzando la situazione al primo istante (indivisibile). Proposte di soluzioni ai paradossi del moto Non è difficile immaginare che anche un greco, ignaro dei rudimenti del calcolo infinitesimale, "vedesse" altrettanto bene che ogni somma: un segmento + mezzo segmento + un quarto di segmento + etc. rimane sempre all'interno del segmento doppio. Tale critica alle moderne "pseudoconfutazioni" è stata ampiamente sviluppata, su basi kantiane, dal matematico Umberto Bartocci, il quale invita invece a riflettere sulla circostanza che i paradossi di Zenone sul movimento vanno considerati sempre attuali e "non risolubili", in quanto puntano l'attenzione sulle dicotomie reale/pensato e spazio(continuo)/tempo(discreto)[1]. I paradossi in realtà, se correttamente intesi, non possono essere confutati. Essi non mirano a confutare il moto in sé, ma la sua formalizzazione matematica, constatando l'inadeguatezza di un sistema formale (nel caso specifico quella di un insieme numerico denso come R) nel descrivere la realtà fisica (il tempo e lo spazio). Infatti anche al giorno d'oggi con l'analisi infinitesimale non possiamo che confermare che prima che Achille raggiunga la tartaruga dovranno passare infiniti istanti. Nel caso specifico di Achille e della tartaruga la serie dei tempi converge a Sia infatti il tempo che Achille impiega a raggiungere la posizione iniziale occupata dalla tartaruga, la distanza percorsa dalla tartaruga in tale tempo è pari a che Achille ricoprirà in un tempo . Iterando il procedimento n volte si giunge a scrivere e ; pertanto il tempo totale T e la distanza totale L percorsa sono dati rispettivamente da e Paradossi di Zenone con l'ovvio vincolo di convergenza 95 . Una prima dimostrazione di convergenza delle serie infinite non geometriche è stata data, nel solo caso particolare di solo nel XIV secolo da Richard Suiseth. Il caso generale venne dimostrato nel XVII secolo, mentre Zenone espose i suoi paradossi nel V secolo a.C. La tecnica mostrata da Zenone nella suddivisione infinitesimale va sotto il nome di dicotomia. Si può aggiungere che la precedente spiegazione, che fa ricorso alla teoria delle serie convergenti, è alquanto diffusa nell'ambiente dei matematici[2], ma lo è forse perché assai "comoda", in quanto permette di non riflettere più a fondo su una questione che si presume facilmente superabile grazie ai successivi progressi avvenuti nel campo della disciplina. Nel paradosso delle masse dello stadio, Zenone dimostra che uno spazio e un tempo assoluti non corrispondono alla realtà. Oggi infatti sappiamo, per la relatività ristretta, che le velocità possibili di un corpo non sono illimitate superiormente. L'errore di fondo sta nel considerare lo spazio e il tempo come entità separate. Anche in quello della freccia, egli suppone che un corpo in moto sia indistinguibile da uno in quiete. Sono trascorsi 2500 anni prima di raggiungere le conoscenze necessarie a confermare il paradosso. Lo spazio e il tempo infatti non sono da considerarsi assoluti. In genere si è sempre osservato che gli argomenti di Zenone si basano sul concetto di infinito. Per il paradosso della freccia, ad esempio, Bertrand Russell ha osservato che il cinematografo crea il movimento utilizzando una successione di immagini ferme. Ma questa è soltanto una disputa sul significato di moto, secondo la quale il moto sarebbe un'illusione cinematografica. Esiste un'altra visione dei paradossi di Zenone: un atto "semplice" viene scomposto e descritto attraverso una successione infinita di atti. Effetto Zenone quantistico Come si può vedere, questi paradossi sono stati utili per sviluppare molti concetti alla base della matematica e della fisica moderne, e non si dovrebbe liquidarli banalmente. Persino nella meccanica quantistica riecheggia il nome di Zenone nel cosiddetto "effetto Zenone quantistico", che, riprendendo metaforicamente il paradosso della freccia, afferma che un sistema, che decadrebbe spontaneamente, è inibito o addirittura non decade affatto se sottoposto ad una serie infinita di osservazioni (o misure). Di recente vari esperimenti: • l'esperimento di Itano et al.(1990), basatosi sull'idea di Cook (1988), • quello di Kwiat et al. (1995) sulla polarizzazione dei fotoni, • e quello di Fischer et al. (2001), hanno dato verifica sperimentale di questo effetto. Paradossi di Zenone Il paradosso di Achille e la tartaruga in letteratura Il Paradosso di Achille e la tartaruga ha ispirato diversi scrittori. • Lewis Carroll ha pensato ad un immaginario dialogo tra Achille e la tartaruga, posto alla fine dell'interminabile corsa. I due discutono di geometria, ma la tartaruga rifiuta sempre di arrivare alla conclusione finale di Achille, semplicemente perché rifiuta la logica (in particolare il modus ponens). • In Gödel, Escher, Bach: un'eterna ghirlanda brillante di Douglas Hofstadter i vari capitoli sono intervallati da dialoghi tra Achille e la tartaruga, ispirati all’opera di Carroll. • Lo scrittore argentino Borges ha ripreso più volte i paradossi di Zenone, discutendo del loro rapporto con l'infinito. Borges li ha anche utilizzati come metafora per alcune situazioni descritte da Kafka. • Il poeta francese Paul Valéry cita Zenone d'Elea e fa riferimento ai paradossi di Achille e della freccia nel suo poema Le Cimetière Marin. Voci correlate • Zenone di Elea Note [1] Umberto Bartocci, "I paradossi di Zenone sul movimento e il dualismo spazio-tempo", "Episteme, Physis e Sophia nel III millennio", Perugia, N. 8, 2004 (http:/ / www. cartesio-episteme. net/ ep8/ ep8-zeno. htm), con un'appendice "Sulle definizioni matematiche di discreto e continuo". (http:/ / www. cartesio-episteme. net/ ep8/ ep8-zeno-app. htm) [2] Ne sono lampante esempio i versi di Hubert Cremer de:Hubert Cremer: "Oh, Zenon, Zenon, alter Wicht, kennst du den Kowalewski nicht?"pt:Gerhard Kowalewski, in "Carmina mathematica und andere poetische Jugendsünden", Mathematische Scherzgedichte, erste Auflage 1927. Paradosso asiatico (cardiologia) Con paradosso asiatico ci si riferisce al basso tasso di cardiopatie e tumori che si registra in Asia, nonostante l’alto numero di forti fumatori. La ricerca di Yale Nel maggio 2006 alcuni ricercatori della Facoltà di Medicina dell'Università Yale pubblicarono un articolo relativo a oltre 100 studi condotti sui benefici arrecati alla salute dal tè verde. Essi teorizzarono che i 1,2 litri di tale bevanda che molti asiatici consumano in media al giorno, forniscono al fisico un alto tasso di polifenoli ed altre sostanze antiossidanti. Queste molecole agiscono in molti modi nel migliorare le funzionalità cardiovascolari, prevenendo l’aggregazione piastrinica, e migliorando i livelli del colesterolo. Questo effetto anticoagulante è alla base della preoccupazione, da parte di molti medici, che i loro pazienti evitino l’assunzione di tè verde prima di procedure correlate alla capacità di coagulazione. I risultati dello studio sono apparsi nel numero di maggio del Journal of the American College of Surgeons [1]. Nello specifico il tè verde è in grado di prevenire l’ossidazione del colesterolo trasportato dalle lipoproteine a bassa densità, il cosiddetto "colesterolo cattivo", contribuendo quindi a ridurre la formazione di placche nelle arterie. 96 Paradosso asiatico (cardiologia) 97 Voci correlate • Tè verde Collegamenti esterni • (EN) Green Tea and the “Asian Paradox” [2] • Tè verde: più forte anche del fumo [3] Note [1] http:/ / www. facs. org/ [2] http:/ / www. yale. edu/ opa/ newsr/ 06-06-01-01. all. html [3] http:/ / it. health. yahoo. net/ c_news. asp?id=15858& c=13& s=1 Paradosso dei corvi Il paradosso dei corvi (anche detto paradosso dei corvi neri, paradosso di Hempel o i corvi di Hempel) è un paradosso logico sviluppato negli anni '40 da Carl Gustav Hempel per dimostrare i limiti del procedimento logico induttivo. Osservando come per il principio induttivo l'acquisizione di un nuovo riscontro empirico di una teoria renda più probabile che questa teoria sia vera, cioè la teoria della confermabilità, Hempel prese ad esempio la teoria che tutti i corvi siano neri per trarne conclusioni di paradosso. Esaminando ad uno ad uno un milione di corvi, notiamo infallibilmente ed invariabilmente che essi sono tutti neri. Dopo ogni osservazione, perciò, la teoria che tutti i corvi siano neri diviene ai nostri occhi sempre più probabilmente vera, coerentemente col principio induttivo. Pare ogni volta sempre più corretto registrare l'assunto come probabilmente vero: tutti i corvi sono neri. Un corvo nero Ma l'assunto "i corvi sono tutti neri" è logicamente equivalente all'assunto "tutte le cose che non sono nere, non sono corvi". In base al principio induttivo, d'altra parte, questo secondo enunciato diventerebbe più probabilmente vero in seguito all'osservazione di una mela rossa: osserveremmo, infatti, una cosa non nera che non è un corvo. Perciò, l'osservazione di una mela rossa renderebbe più probabilmente vero anche l'assunto che "tutti i corvi sono neri". Una delle soluzioni più famose fra quelle proposte consiste nell’accettare che l’osservazione di una mela verde costituisce una prova che tutti i corvi sono neri, ma aggiungendo che l’effettiva conferma che questa prova fornisce è molto piccola, vista la grande differenza fra il numero di corvi e il numero di oggetti non neri. Secondo questa risoluzione, la conclusione appare paradossale perché viene intuitivamente stimato in zero il valore della prova nell’osservare una mela verde, mentre in realtà è molto piccolo. Questa argomentazione è stata presentata da I. J. Good nel 1960 ed è probabilmente la più conosciuta, anche alcune varianti sono state presentate nel 1958 e forme precedenti dell’argomentazione risalgono al 1940. Paradosso dei due bambini 98 Paradosso dei due bambini Viene detto paradosso dei due bambini un celebre quesito della teoria della probabilità, apparentemente semplice ma in realtà ambiguo e il cui studio porta ad una risposta controintuitiva. Esso è spesso citato per mettere in evidenza la facilità con la quale nell'ambito della probabilità può nascere confusione anche in contesti che a prima vista sembrano nient'affatto complicati da analizzare. Il nome con cui viene chiamato comunemente questo problema viene dall'inglese "Boy or Girl paradox"; tuttavia il termine italiano "paradosso" ha un senso più preciso e restrittivo del "paradox" inglese, e non designa problemi come questo, che tecnicamente è piuttosto un sofisma. Quesito Il quesito in questione è, in una delle prime formulazioni (proposta da Martin Gardner sulle pagine del Scientific American): "Il signor Smith ha due bambini. Almeno uno dei due è un maschio. Qual è la probabilità che entrambi i bambini siano maschi?" La risposta intuitiva è che se, poniamo, è maschio il primo bambino, la probabilità che anche l'altro lo sia è 1/2=50%. In realtà, come riconosciuto da Gardner stesso, la domanda è posta in modo ambiguo (è facile pensare che con "almeno uno" si intenda "sicuramente uno che ho chiaramente individuato - ed eventualmente anche l'altro"), e una possibile riformulazione - intuitivamente equivalente - che non dia adito ad ambiguità è la seguente: "Il signor Smith ha due bambini. Non sono due femmine. Qual è la probabilità che entrambi i bambini siano maschi?" Non è difficile, utilizzando semplici strumenti di probabilità classica, scoprire che la risposta è allora 1/3=33,3%. Di seguito le possibili combinazioni dei figli che rispettano le condizioni date: Figlio maggiore Figlio minore Femmina Femmina Femmina Maschio Maschio Femmina Maschio Maschio Si osservi che questo cosiddetto paradosso non ha nulla a che vedere con il fatto che in natura nella grande maggioranza dei paesi nascano leggermente più maschi che femmine[1]; si assume invece che la probabilità di un figlio maschio sia a priori uguale a quella di una figlia femmina: 1/2. Dimostrazione assiomatica o frequentista Su 100 famiglie che hanno esattamente due figli, si osserveranno in media le seguenti quattro combinazioni: 1. 2. 3. 4. 25 famiglie il cui primo figlio è maschio e il secondo pure 25 famiglie il cui primo figlio è maschio e il secondo invece femmina 25 famiglie il cui primo figlio è femmina e il secondo invece maschio 25 famiglie il cui primo figlio è femmina e il secondo pure La domanda prende in considerazione i primi tre casi, ovvero non quello in cui ci sono due femmine: si tratta di 75 famiglie. Nelle 25 famiglie del primo caso entrambi i figli sono maschi, mentre nelle 25+25=50 famiglie del secondo e terzo caso ci sono un maschio ed una femmina. Pertanto la probabilità che entrambi siano maschi è pari a 25/75=1/3. Paradosso dei due bambini 99 Una domanda simile con risposta corretta pari a 1/2 L'ambiguità del "paradosso" nasce dal fatto che lo si potrebbe voler riformulare come, ad esempio: sapendo che una famiglia ha esattamente due bambini, dei quali il primo è un maschio, quant'è la probabilità che l'altro bambino sia una femmina? In questo caso la risposta intuitiva (1/2=50%) è corretta. Infatti in metà delle famiglie (casi 1 e 2) il primo figlio è maschio e di queste nella metà dei casi (caso 1) anche il secondo è maschio. Di seguito le possibili combinazioni dei figli che rispettano le diverse condizioni poste: Figlio maggiore Figlio minore Femmina Femmina Femmina Maschio Maschio Femmina Maschio Maschio Il problema è che con le parole "almeno un bambino", non stiamo individuando uno dei due figli in particolare (cioè se è il primo o il secondo). Le parole "l'altro bambino" invece ci portano spontaneamente ad immaginare che l'"almeno uno" indichi un bambino specifico (ad esempio che chi ci pone la domanda ne abbia chiaro in mente il volto e se è il primo o il secondo) ed a forzare quindi il significato della prima parte della domanda. Un'altra domanda simile con risposta corretta pari a 1/2 Un'altra domanda simile è la seguente: "In un mondo nel quale tutte le famiglie hanno esattamente due bambini (p.es. nell'associazione "Famiglie con due figli"), incontrando un maschietto, quant'è la probabilità che abbia una sorella?" Anche in questo caso la risposta intuitiva (1/2=50%) è anche quella corretta. Infatti analizzando in modo leggermente diverso l'elenco di cui sopra 1. 2. 3. 4. 25 famiglie il cui primo figlio (gruppo A1) è maschio e il secondo (gruppo A2) pure 25 famiglie il cui primo figlio (gruppo B1) è maschio e il secondo (gruppo B2) invece femmina 25 famiglie il cui primo figlio (gruppo C1) è femmina e il secondo (gruppo C2) invece maschio 25 famiglie il cui primo figlio (gruppo D1) è femmina e il secondo (gruppo D2) pure si osserva che incontrando un maschietto questo deve appartenere ad uno dei seguenti quattro gruppi: • • • • 25 (primogeniti) del gruppo A1, che non hanno sorelle 25 (secondogeniti) del gruppo A2, che non hanno sorelle (si tratta dei fratelli di bambini del gruppo A1) 25 (primogeniti) B1, che hanno una sorella (minore) 25 (secondogeniti) C2, che hanno una sorella (maggiore) In totale ci sono dunque 100 maschietti, dei quali 25+25=50 hanno una sorella, di conseguenza la probabilità cercata è effettivamente pari a 50/100=1/2=50%. Paradosso dei due bambini Studio scientifico Fox & Levav nel 2004 hanno sottoposto ad un test alcuni volontari, ponendo loro una delle seguenti due domande: • «Il signor Smith dice: "Ho due bambini ed almeno uno è un maschio." Considerando questa informazione, qual è la probabilità che l'altro bambino sia un maschio?» • «Il signor Smith dice: "Ho due bambini e non sono entrambi femmine." Considerando questa informazione, qual è la probabilità che entrambi i bambini siano maschi?» I due studiosi hanno riportato che l'85% delle persone che hanno risposto alla prima domanda, hanno fornito come risposta 1/2 considerando solo 2 possibili combinazioni, ingannati dalle parole " l'altro bambino ". Alla seconda domanda, solamente il 39% ha risposto 1/2. Gli studiosi hanno così dimostrato che pur essendo (a livello di calcolo delle probabilità) la stessa domanda con gli stessi casi da considerare, la diversa formulazione ha ridotto l'ambiguità e di conseguenza le risposte errate del 46%. Note [1] Tabella Istat (http:/ / demo. istat. it/ altridati/ natid1d2/ tavole/ Tavola 1. 2 - 1994-1998. pdf) sulla natalità in Italia tra il 1994 ed il 1998 Voci correlate • Probabilità condizionata • Paradosso delle tre carte • Problema di Monty Hall Paradosso dei gemelli Il paradosso dei gemelli è un esperimento mentale che sembra rivelare una contraddizione nella teoria della relatività ristretta. L'analisi che porta a tale conclusione è però scorretta: un'analisi corretta mostra che non vi è alcuna contraddizione. Storia Principale sostenitore della questione fu Herbert Dingle, filosofo inglese. Pur avendo ricevuto numerose confutazioni logiche da Einstein e Bohr, egli continuò a scrivere ai giornali, e quando questi ultimi cominciarono a rifiutare le pubblicazioni, parlò di un complotto ai suoi danni. Risolvendo il paradosso dei gemelli, Einstein ammise la possibilità teorica di un viaggio nel futuro, ferma restando l'impossibilità di superare la velocità della luce. La prima costruzione teorica per la quale risultava possibile un viaggio nel passato, fu elaborata più tardi dallo stesso Einstein insieme a Nathan Rosen. Enunciato del paradosso Consideriamo un'astronave che parta dalla Terra nell'anno 3000; che mantenendo una velocità costante v raggiunga la stella Wolf 359, distante 8 anni luce dal nostro pianeta; e che appena arrivata, inverta la rotta e ritorni sulla Terra, sempre a velocità v. Di una coppia di fratelli gemelli, l'uno salga sull'astronave, mentre l'altro rimanga a Terra. Volutamente, nei calcoli trascuriamo per semplicità l'accelerazione e la decelerazione della navetta, anche se, per portarsi a velocità relativistiche in tempi brevi, occorrerebbero accelerazioni insostenibili per l'uomo e per la nave. Supponiamo che v sia di 240.000 km/s, cioè v = 0,8 c. Per questa velocità si ha: 100 Paradosso dei gemelli 101 per cui, secondo la teoria della relatività ristretta, nel sistema in movimento il tempo scorre al 60% del tempo nel sistema in quiete. Quindi: • Nel sistema di riferimento della Terra, l'astronave percorre 8 anni luce in 10 anni nel viaggio di andata, e ne impiega altrettanti nel viaggio di ritorno: essa quindi ritorna sulla Terra nel 3020. Sull'astronave, però, il tempo scorre al 60% del tempo della Terra, quindi secondo l'orologio dell'astronauta il viaggio dura 6 anni per l'andata e altrettanti per il ritorno: all'arrivo, quindi, il calendario dell'astronave segna l'anno 3012. Il fratello rimasto sulla Terra è perciò, dopo il viaggio, di otto anni più vecchio del suo gemello. • Nel sistema di riferimento dell'astronave, per effetto della contrazione relativistica delle lunghezze, la distanza fra la Terra e Wolf 359 si accorcia al 60%, cioè a 4,8 anni luce: alla velocità di 0,8 c, si impiegano quindi, secondo l'orologio dell'astronave, 6 anni per l'andata e 6 per il ritorno, coerentemente con quanto calcolato nel sistema di riferimento della Terra. Ma, poiché in questo sistema di riferimento è la Terra a muoversi, è il suo orologio che va al 60% del tempo dell'astronave: quando l'astronave fa ritorno, sulla Terra sono trascorsi solo 7,2 anni, perciò non è l'anno 3020, ma il 3007, ed è il fratello a bordo dell'astronave ad essere di 4,8 anni più vecchio. Soluzione (nella relatività speciale) L'apparente contraddizione si risolve osservando che, mentre quello della Terra è un sistema di riferimento inerziale, quello dell'astronave non lo è. L'astronave non mantiene infatti una velocità costante per tutta la durata del viaggio, ma prima accelera fino alla velocità di crociera, poi frena, inverte la rotta e riaccelera per tornare indietro, e poi frena di nuovo. Si devono quindi considerare non due, ma tre sistemi di riferimento inerziali: quello della Terra, quello dell'astronave nel viaggio di andata, che si muove rispetto alla Terra di velocità v, e quello dell'astronave nel viaggio di ritorno, che si muove rispetto alla Terra di velocità -v (cioè v nella direzione opposta), tralasciando i tempi di accelerazione/decelerazione, che per velocità così elevate sarebbero comunque significativi. Nella figura è tracciato il diagramma di Minkowski per questi tre sistemi di riferimento (disegnati rispettivamente in nero, blu e rosso). I tre eventi indicati con le lettere A, B, C sono rispettivamente: • la partenza dell'astronave dalla Terra • l'arrivo dell'astronave a Wolf 359 e sua ripartenza • il ritorno dell'astronave sulla Terra I tre sistemi di riferimento non sono in accordo su quale sia, sulla Terra, l'evento simultaneo all'evento B: nel sistema di riferimento della Terra, esso è l'evento D; in quello del viaggio d'andata è l'evento D’; e in quello del viaggio di ritorno è l'evento D’’ (relatività della simultaneità). Così, quando l'osservatore a bordo dell'astronave calcola il tempo trascorso sulla Terra "dalla sua partenza al suo arrivo a Wolf 359", egli effettua il calcolo nel Diagramma di Minkowski Paradosso dei gemelli sistema di riferimento del viaggio di andata, e quindi calcola il tempo trascorso dall'evento A all'evento D’, che in quel sistema di riferimento è simultaneo a B; ma quando calcola il tempo trascorso "dalla sua ripartenza al suo arrivo sulla Terra", egli effettua il calcolo nel sistema di riferimento del viaggio di ritorno, nel quale è D’’ ad essere simultaneo a B. Perciò il tempo da lui calcolato non è uguale al tempo totale trascorso sulla Terra, ma soltanto alla somma dei due intervalli A-D’ e D’’-C, mentre l'intervallo D’-D’’ non viene conteggiato. Per l'osservatore sulla Terra, invece, l'evento simultaneo a B è sempre D, sia per il viaggio di andata sia per quello di ritorno: la somma dei due intervalli A-D e D-C è pari al tempo totale trascorso sulla Terra. Il calcolo di questo osservatore è quindi quello corretto: dopo il viaggio, il gemello rimasto sulla Terra è più vecchio (di 8 anni) di quello salito sull'astronave. Analisi dettagliata Indicando con x, t le coordinate spaziale e temporale nel sistema di riferimento della Terra; con x’, t’ quelle nel sistema di riferimento dell'astronave nel viaggio di andata; e con x’’, t’’ quelle nel viaggio di ritorno, valgono le trasformazioni di Lorentz: dove il termine appare nelle equazioni (3) e (4) in quanto i due sistemi di riferimento non hanno la stessa origine. Usando l'anno come unità di tempo e l'anno luce come unità di lunghezza, le costanti numeriche hanno i seguenti valori: v = 0.8, c = 1, = 16 (quest'ultimo valore è scelto in modo da avere x’’ = 0 per l'astronave nel viaggio di ritorno). Nel sistema di riferimento della Terra, le coordinate (x, t) degli eventi A, B, C, D sono rispettivamente: (0, 0), (8, 10), (0, 20), (0, 10). Le coordinate dell'evento D’ si possono calcolare in quanto detto evento avviene sulla Terra, per cui x=0, e simultaneamente a B nel sistema di riferimento del viaggio di andata, per cui t’=6: sostituendo tali valori nell'equazione (2) si ottiene t=3.6. Analogamente, le coordinate di D’’ si ottengono imponendo x=0 e t’’=6: dall'equazione (4) si ricava t=16.4. Gli intervalli di tempo tra questi eventi, secondo l'orologio della Terra, sono quindi i seguenti: A-D’ = 3.6 anni, D’-D = 6.4 anni, D-D’’ = 6.4 anni, D’’-C = 3.6 anni (totale 20 anni). Ora, applicando le trasformazioni (1) e (2), possiamo calcolare le coordinate di questi eventi nel sistema di riferimento dell'andata: A = (0, 0), B = (0, 6), C = (-26.6667, 33.3333), D = (-13.3333, 16.6667), D’ = (-4.8, 6), D’’ = (-21.8667, 27.3333). Come si può vedere, in questo sistema di riferimento D non è simultaneo a B, mentre lo è D’. Gli intervalli di tempo sono quindi: A-D’ = 6 anni, D’-D = 10.6667 anni, D-D’’ = 10.6667 anni, D’’-C = 6 anni (totale 33.3333 anni). Ma l'orologio sulla Terra, in questo sistema di riferimento, va al 60% del tempo sull'astronave. Esso quindi misura: A-D’ = 3.6 anni, D’-D = 6.4 anni, D-D’’ = 6.4 anni, D’’-C = 3.6 anni (totale 20 anni), esattamente come si era calcolato in precedenza. Allo stesso modo, applicando le trasformazioni (3) e (4), le coordinate nel sistema di riferimento del ritorno sono: A = (-26.6667, -21.3333), B = (0, 6), C = (0, 12), D = (-13.3333, -4.6667), D’ = (-21.8667, -15.3333), D’’ = (-4.8, 6). Gli intervalli di tempo sono: A-D’ = 6 anni, D’-D = 10.6667 anni, D-D’’ = 10.6667 anni, D’’-C = 6 anni (totale 33.3333 anni); e secondo l'orologio sulla Terra: A-D’ = 3.6 anni, D’-D = 6.4 anni, D-D’’ = 6.4 anni, D’’-C = 3.6 anni (totale 20 anni). In tutti e tre i sistemi di riferimento, quindi, si ottiene lo stesso risultato: durante il viaggio, sulla Terra trascorrono 20 anni. 102 Paradosso dei gemelli Cosa vede l'astronauta Alcuni, per spiegare il paradosso dei gemelli, sostengono che per l'astronauta, nel viaggio di andata, l'orologio della Terra va più lentamente, ma nel viaggio di ritorno va più velocemente, e in questo modo "recupera" il tempo perso e si avvantaggia. Questo è vero soltanto da un certo punto di vista. Come spiegato sopra, sia nel viaggio di andata che in quello di ritorno, l'astronauta calcola che l'orologio della Terra va al 60% del tempo del suo. Tuttavia, quello che l'astronauta calcola è differente da quello che vede. Nel secondo caso, infatti, occorre considerare anche il tragitto che la luce compie dalla Terra all'astronave. Infatti, quando l'astronauta raggiunge Wolf 359, per il suo orologio sono trascorsi 6 anni, ed egli calcola che sulla Terra siano trascorsi 3.6 anni; ma in quel momento, egli viene raggiunto dalla luce partita dalla Terra solo 2 anni dopo di lui, secondo l'orologio della Terra, o 1.2 anni dopo secondo il suo (infatti, nel sistema di riferimento della Terra, l'astronave impiega 10 anni per percorrere 8 anni luce, mentre la luce ne impiega 8; nel sistema dell'astronauta la distanza si contrae a 4.8 anni luce, e i tempi si riducono in proporzione). Perciò l'astronauta vede l'orologio sulla Terra andare non al 60% del suo, ma 3 volte più lento, cioè al 33.3333%. Questo ulteriore rallentamento non è un effetto relativistico, ma lo si osserverebbe anche se valesse la sola fisica classica (seppur la sua entità risulterebbe diversa). Per una trattazione di questo fenomeno si veda l'articolo effetto Doppler relativistico. Nel viaggio di ritorno, l'astronauta va incontro alla luce proveniente dalla Terra, invece di allontanarsene: l'effetto è quindi opposto, per cui egli vede l'orologio della Terra andare più rapido. Precisamente, nei 6 anni (secondo il suo orologio) del viaggio di ritorno, egli vede trascorrere 18 anni sulla Terra (dal 3002 al 3020), per cui vede l'orologio della Terra andare 3 volte più rapido del suo. In questo senso, l'affermazione riportata sopra è vera. Allo stesso modo, l'osservatore sulla Terra vede l'orologio sull'astronave andare 3 volte più lento del suo nel viaggio di andata, e 3 volte più veloce nel viaggio di ritorno; ma al contrario dell'astronauta, egli vede il viaggio di andata durare 18 anni e quello di ritorno solo 2 (in entrambi i casi l'orologio dell'astronave misura 6 anni), perché la luce emessa da Wolf 359 nell'anno 3010 raggiunge la Terra soltanto nel 3018. Soluzione (nella relatività generale) Nella teoria della relatività generale, tutti i sistemi di riferimento, non solo quelli inerziali, sono ugualmente validi. La situazione, a prima vista, appare quindi simmetrica: non sembra esservi una ragione per cui l'orologio della Terra debba andare più veloce di quello dell'astronave, e non il contrario. A ben guardare, però, una differenza esiste: un osservatore sull'astronave, nel momento in cui essa inverte la rotta, avverte un'accelerazione. Nel sistema di riferimento della Terra, si tratta dell'accelerazione che l'astronave sperimenta nel mutare la sua velocità da v a -v; nel sistema di riferimento dell'astronave, essa viene avvertita come un'accelerazione di gravità. Ora, la relatività generale prevede che quanto più intensa è l'accelerazione che un osservatore avverte, tanto più il suo orologio rallenta (red-shift gravitazionale). Durante la fase di accelerazione, quindi, l'osservatore sull'astronave vede l'orologio sulla Terra andare molto più veloce del suo: si può calcolare che in questo tratto l'osservatore "recupera" il tempo perso nei tratti di moto uniforme, e il tempo totale corrisponde a quello calcolato nell'altro sistema di riferimento. 103 Paradosso dei gemelli Voci correlate • Dilatazione del tempo • Viaggio nel tempo Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Twin paradox Collegamenti esterni • Il paradosso dei gemelli | Astronomia.com [1] • Il paradosso dei gemelli [2] • L'articolo della soluzione del paradosso dei gemelli di Subhash Kak [3] Note [1] http:/ / www. astronomia. com/ 2008/ 06/ 19/ il-paradosso-dei-gemelli-parte-1/ [2] http:/ / www. webalice. it/ ugerco/ autorivari/ gemelliweb. htm [3] http:/ / www. springerlink. com/ content/ e4670q159464473r/ ?p=9724bdccded240a59c384dcdefcded98& pi=1 Paradosso del bibliotecario Il paradosso del bibliotecario è un'altra versione del paradosso di Russell dovuta al logico matematico norvegese Thoralf Skolem. Essa può essere così raccontata. Al responsabile di una grande biblioteca viene affidato il compito di produrre gli opportuni cataloghi. Egli compie una prima catalogazione per titoli, poi per autori, poi per argomenti, poi per numero di pagine e così via. Poiché i cataloghi si moltiplicano, il nostro bibliotecario provvede a stendere il catalogo di tutti i cataloghi. A questo punto nasce una constatazione. La maggior parte dei cataloghi non riportano sé stessi, ma ve ne sono alcuni (quali il catalogo di tutti i volumi con meno di 5000 pagine, il catalogo di tutti i cataloghi, ecc.) che riportano sé stessi. Per eccesso di zelo, lo scrupoloso bibliotecario decide, a questo punto, di costruire il catalogo di tutti cataloghi che non includono sé stessi. Il giorno seguente, dopo una notte insonne passata nel dubbio se tale nuovo catalogo dovesse o non dovesse includere sé stesso, il nostro bibliotecario chiede di essere dispensato dall'incarico. Si può notare come la prima traduzione scherzosa dell'antinomia di Russell, quella del così detto paradosso del barbiere, non dia origine ad un vero paradosso logico: il fatto che la relazione "fare la barba a..." sia definita per tutti gli abitanti dell'isola meno che per il barbiere, non è diversa dal fatto che, nei numeri reali la proprietà "avere un numero inverso" valga per tutti tranne lo zero. Osserva E.W. Beth: "Il dilemma [del barbiere] non costituisce un dilemma per la logica. Infatti l'ipotesi che l'una o l’altra regola di diritto abbia delle conseguenze assurde, non è in sé assurda. Un siffatto avvenimento può sollevare gravi questioni di diritto [...] ma non dà luogo a problemi logici". La traduzione scherzosa di Skolem conserva meglio il carattere dell’originaria antinomia di Russell. Un'altra versione del paradosso è quello della biblioteca infinita, nella quale sono presenti anche i volumi mai scritti su cose mai pensate, o mai esistite, e che include, ancor più paradossalmente, anche il catalogo di tutti cataloghi che non includono sé stessi. Incidentalmente, si ricorda che sul paradosso del bibliotecario scrissero sia Jorge Luis Borges sia Umberto Eco. Il primo nel racconto La biblioteca di Babele, contenuto nel volume Finzioni, e con varie allusioni nei testi su Uqbar, il 104 Paradosso del bibliotecario secondo citando il primo nel De Bibliotheca. Paradossi simili • Paradosso di Russell • Paradosso del barbiere • Paradosso dell'eterologicità di Grelling-Nelson Bibliografia • Jorge Luis Borges, Finzioni, 1944, Adelphi, ISBN 8845914275 • Umberto Eco, De Bibliotheca [1], Bompiani, 1995 ISBN 8885262228 Note [1] http:/ / www. liberliber. it/ biblioteca/ e/ eco/ Paradosso del Comma 22 Il paradosso del Comma 22 è un paradosso contenuto nel libro Catch 22 (letteralmente "Tranello 22" ma normalmente tradotto come "Comma 22") di Joseph Heller. Il paradosso riguarda un'apparente possibilità di scelta in una regola o in una procedura, dove in realtà, per motivi logici nascosti o poco evidenti, non è possibile alcuna scelta ma vi è solo un'unica possibilità. Nella lingua inglese viene infatti comunemente citato con il significato di circolo vizioso. Il libro, edito nel 1961, rappresentò una feroce critica alla struttura militare e alla guerra narrando le avventure di un gruppo di aviatori statunitensi dediti ai bombardamenti in Italia durante la Seconda guerra mondiale. Riportava i regolamenti cui i piloti erano soggetti, e fra questi due articoli contraddittori: Articolo 12, Comma 21 «L'unico motivo valido per chiedere il congedo dal fronte è la pazzia.» Articolo 12, Comma 22 «Chiunque chieda il congedo dal fronte non è pazzo.» In realtà la norma sopra riportata non è mai esistita e, se lo fosse, sarebbe stata all'evidenza autocontraddittoria. È una versione del paradosso di Jourdain (a sua volta derivato dall'antico paradosso di Epimenide) con le seguenti due frasi: «La frase seguente è falsa. La frase precedente è vera.» Gli articoli furono poi copiati in Star Trek nel cosiddetto Codice Militare Spaziale del Pianeta dei Klingon (fonte non canonica con la serie televisiva). Questo paradosso è stato utilizzato anche in una striscia del fumetto Sturmtruppen di Bonvi. Nel fumetto, la soluzione di questo paradosso è "vietato impazzire". 105 Paradosso del Comma 22 106 Riferimenti culturali • Nel romanzo La storia infinita di Michael Ende Atreiu, ad un certo punto della sua ricerca, si trova davanti a tre porte per giungere all'Oracolo che gli avrebbe rivelato il modo di salvare Fantasia. Una di queste porte si può aprire solo non desiderando di aprirla. • Nella sitcom italiana Camera Cafè vi è un episodio, chiamato "Comma 22", dove il Comma 21 del nuovo regolamento aziendale dice che quando un impiegato non riesce a svolgere il proprio lavoro può chiedere cinque giorni di ferie anticipate, ma il Comma 22 dice che per una segretaria, la semplice compilazione corretta del modulo di richiesta delle ferie è una dimostrazione di saper svolgere il proprio lavoro. • Nel Videogioco Sam & Max: The Mole, the Mob, and the Meatball vi è una citazione del Comma 22, quando i personaggi chiedono di entrare in un luogo protetto da Parola d'Ordine, mentre a dare la Parola è una persona che si trova oltre la porta. Voci correlate • Paradosso • Antimilitarismo Paradosso del compleanno Il paradosso[1] del compleanno (o problema del compleanno) è un paradosso di teoria della probabilità definito nel 1939 da Richard von Mises. Il paradosso afferma che la probabilità che almeno due persone in un gruppo compiano gli anni lo stesso giorno è largamente superiore a quanto potrebbe dire l'intuito: infatti già in un gruppo di 23 persone la probabilità è circa 0,51; con 30 persone essa supera 0,70, con 50 persone tocca addirittura 0,97, anche se per arrivare all'evento certo occorre considerare un gruppo di almeno 367 persone (per il principio dei cassetti e la possibilità di anni bisestili). Il grafico mostra l'andamento di P(p) al crescere del numero di persone Per effettuare il calcolo, si ricorre alla formula per la probabilità degli eventi indipendenti: per rendere più semplice il calcolo si assume che gli anni siano tutti di 365 giorni e che i compleanni siano equiprobabili, anche se ciò non è esatto[2]. Aggiungere il giorno bisestile peggiora leggermente la probabilità, ma in compenso il fatto che i compleanni non siano equiprobabili la alza. Il modo più semplice per calcolare la probabilità P(p) che ci siano almeno due persone appartenenti ad un gruppo di p persone che compiano gli anni lo stesso giorno è calcolare dapprima la probabilità P1(p) che ciò non accada. Il ragionamento è questo: data una qualunque persona del gruppo (indipendentemente dalla data del suo compleanno), vi sono 364 casi su 365 in cui il compleanno di una seconda persona avvenga in un giorno diverso; se si considera una terza persona, ci sono 363 casi su 365 in cui compie gli anni in un giorno diverso dalle prime due persone e via dicendo. Esprimendo in formule quanto sopra, la probabilità che tutti i compleanni cadano in date diverse è: Paradosso del compleanno 107 e dunque la probabilità del suo evento complementare, cioè che esistano almeno due compleanni uguali, è Questo paradosso ha importanti ricadute nella crittografia e nel dimensionamento del blocco da cifrare. In particolare nell'ambito della crittografia si utilizza il paradosso del compleanno per indicare che le funzioni hash crittografiche abbiano la proprietà di "resistenza forte alle collisioni". Ad esempio una funzione di hash che produce un risultato su N bit sarà reputata insicura quando verranno generati risultati in quanto si ha la probabilità di oltre il 50% di aver trovato una collisione, il risultato evidentemente è ben al di sotto dei elementi necessari suggeriti dall'intuito. Note [1] Il termine paradosso non è da intendersi nel senso di una contraddizione logica, ma viene chiamato in questo modo poiché la verità matematica contraddice l'intuizione naturale: molte persone stimano che questa probabilità sia decisamente inferiore al 50%. [2] (EN) Leap Day -- from Eric Weisstein's World of Astronomy (http:/ / scienceworld. wolfram. com/ astronomy/ LeapDay. html). URL consultato il 22-04-2009. Collegamenti esterni • Il paradosso del compleanno (http://www.teacherlink.org/content/math/interactive/probability/lessonplans/ birthday/home.html) Paradosso del gatto di Schrödinger Il paradosso del gatto di Schrödinger è un esperimento mentale ideato da Erwin Schrödinger allo scopo di dimostrare come l'interpretazione classica della meccanica quantistica (Interpretazione di Copenaghen) risulta incompleta quando deve descrivere sistemi fisici in cui il livello subatomico interagisce con il livello macroscopico. La struttura dell'apparato sperimentale. Si vede come il gatto sia contemporaneamente sia vivo che morto. Fondamenti « Si possono anche costruire casi del tutto burleschi. Si rinchiuda un gatto in una scatola d’acciaio insieme alla seguente macchina infernale (che occorre proteggere dalla possibilità d’essere afferrata direttamente dal gatto): in un contatore Geiger si trova una minuscola porzione di sostanza radioattiva, così poca che nel corso di un’ora forse uno dei suoi atomi si disintegrerà, ma anche, in modo parimenti probabile, nessuno; se l'evento si verifica il contatore lo segnala e aziona un relais di un martelletto che rompe una fiala con del cianuro. Dopo avere lasciato indisturbato questo intero sistema per un’ora, si direbbe che il gatto è ancora vivo se nel frattempo nessun atomo si fosse disintegrato, mentre la prima disintegrazione atomica lo avrebbe avvelenato. La funzione dell’intero sistema porta ad affermare che in essa il gatto [1] vivo e il gatto morto non sono stati puri, ma miscelati con uguale peso. » Paradosso del gatto di Schrödinger (Erwin Schrödinger) Dopo un certo periodo di tempo il gatto ha la stessa probabilità di essere morto quanto l'atomo di essere decaduto. Visto che fino al momento dell'osservazione l'atomo esiste nei due stati sovrapposti, anche il gatto resta sia vivo sia morto fino a quando non si apre la scatola, ossia non si compie un'osservazione. In pratica una particella elementare possiede la capacità di collocarsi in diverse posizioni e anche di esser dotata di quantità d'energia diverse al medesimo istante. Per quanto "assurde" secondo il nostro modo di pensare, queste strane proprietà della materia e dell'energia corrispondono alla realtà del mondo dei quanti. Le particelle subatomiche sono "delocalizzate" nello spazio e nel moto, per cui, fra un'osservazione e l'altra, si comportano come se stessero in più luoghi contemporaneamente. Solo quando una particella delocalizzata viene osservata con un esperimento che, inevitabilmente, ne modifica il livello energetico, la quantità di moto e la posizione, essa verrà individuata con determinati valori delle proprie variabili tra i vari possibili. Ritornando al caso del gatto, fino a quando l'atomo non si disintegra (e questo evento dipende unicamente dalla natura dell'atomo radioattivo scelto, quindi è un evento unicamente probabilistico), emettendo la particella che aziona il marchingegno letale, il gatto è sicuramente vivo; viceversa, al decadimento dell'atomo, il gatto va certamente incontro alla morte. Ma lo stato quantico dell'atomo è determinato dall'osservazione, e pertanto, se non si apre il contenitore, non risulta determinato neppure il destino dell'animale, che di conseguenza può essere considerato al contempo sia vivo sia morto. Il paradosso, solo apparente, sta proprio qui: è soltanto l'osservazione diretta che, alterando i parametri basali del sistema e determinando, come detto, lo stato quantico dell'atomo, attribuirà anche al gatto uno stato "coerente" con la nostra consueta realtà (si vedrà successivamente a proposito dell'interpretazione del paradosso che, secondo una corrente di pensiero, pur essendo valido in linea generale tale concetto, l'interazione di un elemento "quantistico" come l'atomo radioattivo con un apparato macroscopico come il contatore Geiger modifica fin dall'inizio la situazione). È sempre stato così, solamente non ce ne siamo accorti fino al secolo scorso: nel mondo microscopico, ogni singola particella si comporta individualmente come delocalizzata. Viceversa, nel nostro universo macroscopico, le particelle singole, una volta aggregate in un insieme macroscopico, azzerano le singole posizioni individuali, ovvero un corpo macroscopico ha una risultante nulla delle singole proprietà delle particelle componenti, il che gli conferisce le "consuete proprietà". L'interazione reciproca delle singole particelle in una realtà macroscopica che ne annulla le proprietà quantistiche prende il nome di Decoerenza quantistica. Senza di essa nessuno potrebbe vedere, afferrare, pensare: in una parola il mondo così come lo conosciamo non esisterebbe. Il paradosso del gatto nella realtà L'esperimento del gatto, così come proposto da Schrödinger, non è mai stato messo in pratica. Tuttavia un esperimento analogo, egualmente basato sull'interazione tra un "oggetto" quantistico e un corpo macroscopico, è stato attuato immettendo un fotone in un cavo a fibra ottica. Il fotone gode di due stati quantici contemporaneamente, esattamente come la sostanza radioattiva citata da Schrödinger. Inserendo un secondo cavo a metà del primo perché intercetti il fotone e ne registri lo stato, avviene ciò che, come nel paradosso di Schrödinger, si chiama "compiere un'osservazione", e da quel momento la luce si troverà in uno solo dei due stati. L'esperimento ha permesso tra l'altro di dimostrare che l'osservazione non deve necessariamente essere compiuta da un essere umano: in questo caso l'osservazione è stata compiuta dal secondo cavo e già in quel momento la realtà macroscopica ha interagito con quella quantica, obbligando quest'ultima a incanalarsi in uno dei due stati. Se l'uomo già sapesse che l'intercettazione è avvenuta, ma non ne avesse ancora letto il risultato, dovrebbe comunque concludere che in quel momento il fotone si trova già in uno dei due stati, anche se non sa ancora in quale dei due. 108 Paradosso del gatto di Schrödinger Interpretazione del paradosso Come per l'interazione fra i due cavi descritta sopra, così, anche per l'esempio del gatto, diversamente da come era stato ipotizzato da Schrödinger, già l'interazione con il contatore Geiger obbligherebbe la sostanza radioattiva ad assumere uno solo dei due stati: il gatto, in quanto parte del mondo macroscopico, sarebbe quindi sempre o solo vivo o solo morto, anche se ovviamente l'osservazione umana è necessaria perché l'uomo sappia quale di questi due casi si sia effettivamente verificato. Il paradosso del gatto fu inventato da Schroedinger per evidenziare che l’interpretazione di Copenhagen, proposta dal fisico danese Niels Bohr, aveva conseguenze insostenibili. La maggioranza dei fisici, però, continuò a seguire l’orientamento concettuale di Bohr. Si può persino vedere l’esempio del gatto come un’ottima illustrazione degli aspetti peculiari della meccanica quantistica, e usare anche in altri ambiti la visione filosofica sottostante all’interpretazione di Copenhagen.[2] Il paradosso del gatto nella cultura popolare • Schrodinger's Cat è il titolo di una canzone del gruppo inglese Tears for Fears appartenente all'album Saturnine Martial & Lunatic. • Il gatto di Schrödinger era il nome di una trasmissione radiofonica della Radiotelevisione Svizzera in lingua italiana a cura di Vincenzo Masotti, che prendeva il paradosso come simbolo delle incertezze date dalla ricerca scientifica. • Al gatto di Schrödinger si riferisce il titolo del romanzo di fantascienza Il gatto che attraversa i muri di Robert A. Heinlein. Nel romanzo stesso è presente un gatto "delocalizzato" in grado di passare dall'una all'altra parte del muro grazie a un balzo quantico. • Una situazione del tutto simile accade al protagonista del libro Il risveglio di Endymion di Dan Simmons, rinchiuso in una navicella e condannato a morte. • Il paradosso è citato nel romanzo Sabato di Ian McEwan, per descrivere una situazione di incertezza vissuta dal protagonista. • Paradosso del gatto di Schrödinger è il titolo di un romanzo del pittore Lodovico Mancusi, edizioni Il Filo, 2008. • Il gatto di Schroedinger è il titolo di un racconto contenuto nella raccolta di Ursula K. Le Guin La rosa dei venti (Editrice Nord, 1984). • Il paradosso del gatto trova applicazione nel racconto Il gattino di Schrödinger (Schrödinger's Kitten) di George Alec Effinger (in Cuori elettrici Einaudi Stile Libero 1996) che ha vinto nel 1988 i premi più importanti della fantascienza: Hugo e Nebula. • Il paradosso del gatto è citato nel film A Serious Man dei fratelli Coen. • Il paradosso del gatto di Schrödinger è citato in una puntata di Star Trek: Voyager per dare un esempio della fisica quantistica ad un'altra forma di vita (questa forma di vita la definisce fisica "errata" per il fatto che nel nostro universo una forma di vita non può essere sia viva che morta in uno stesso punto dello spazio-tempo, anche se viene comunque studiata da questa forma di vita). • Il paradosso del gatto di Schrödinger è citato nell'episodio 17 della prima stagione di The Big Bang Theory da Sheldon per spiegare come il primo appuntamento possa essere una situazione positiva e negativa. • Il paradosso del gatto di Schrödinger è citato in una vignetta di Cyanide and Happiness disegnata da Matt Melvin e pubblicata il 7 luglio 2007. • Il paradosso del gatto di Schrödinger è citato in alcuni episodi della serie animata giapponese Noein; in uno in particolare Amamiku spiega alla protagonista Haruka come lei in quel momento sia l'osservatore che definisce l'esistenza in vita o meno del suo amico Yu Goto, trascinandola fuori dalla stanza. • Il paradosso del gatto di Schrödinger è citato da McGee nella puntata n. 19 della quarta serie di NCIS, dal titolo Scrupoli. Infatti, in quella puntata, un terrorista suicida si credeva che non fosse morto. Per questo motivo, McGee, che è il cervellone della squadra, cita questo paradosso spiegandolo a Ziva, anche se lei ovviamente non 109 Paradosso del gatto di Schrödinger • • • • • • riuscì a comprenderlo. Il paradosso del gatto di Schrödinger è citato nel numero 125 di Dylan Dog intitolato Tre per Zero e nel numero 240 intitolato Ucronia da uno scienziato che dice di aver scoperto che tre per zero fa tre e non zero per poter spiegare la sovrapposizione di due mondi. Il paradosso è citato nel 9º Viaggio di Capitan Harlock Amico Mio, alla fine dei meandri oscuri dell'anima durante una dettagliata anche se breve descrizione della nascita dell'universo. Il paradosso è citato all'inizio del fantathriller Repo Men (2010) di Miguel Sapochnik. Il paradosso è citato nel libro Avanti nel tempo (Flashforward) di Robert J. Sawyer (e anche in un episodio dell'omonima serie televisiva): il fisico Simon Campos ne utilizza l'esempio per spiegare come due eventi futuri siano ugualmente probabili a un dato momento. Il paradosso è citato nella serie televisiva Numb3rs, prima stagione, ottava puntata. Il paradosso è citato nel 10° volume del manga giapponese Hellsing; è presente un personaggio chiamato Schrödinger, in grado di essere, allo stesso tempo, ovunque e in nessun posto. • Il paradosso è citato nella serie televisiva del 2009 Defying Gravity - Le galassie del cuore, prima ed unica stagione, ottava puntata, quando l'astronauta Wassenfelder, fisico, durante un'emergenza a bordo dell'astronave (una tempesta solare radioattiva), che costringe l'equipaggio in un rifugio, descrive ai suoi compagni che per il controllo missione, situato a milioni di chilometri di distanza (sulla terra), in mancanza di comunicazioni dovuta alla tempesta solare stessa, l'equipaggio sia per loro contemporaneamente vivo e morto. • Il paradosso è citato in una puntata di Stargate SG-1 per spiegare la meccanica quantistica ad un extraterrestre, il quale risponde di aver studiato l'argomento in un corso elementare riguardante i concetti fisici errati. La loro civiltà, infatti, ha già superato la meccanica quantistica ma egli non può rivelare nulla, in quanto, disponendo di tali conoscenze, potremmo fare del male a noi stessi o ad altri. • Nel videogioco BioShock 2, nel livello Dionysus Park è presente un gatto, chiamato appunto Schrödinger, congelato all'interno di un blocco di ghiaccio. • Il paradosso è citato nel telefilm Six Feet Under nella prima puntata della terza serie, viene nominato in un telefilm che sta guardando uno dei protagonisti Nathaniel Samuel Fisher Jr. • Nell'episodio Il viaggiatore del manga di Oh! Mia Dea (volume 18) il paradosso da spunto alla creazione della "Balena di Schroedinger". • Il paradosso viene citato su The Amazing Spider-Man (vol 2) 58 del novembre 2003 nella storia Buon Compleanno parte 2 mentre l'Uomo Ragno parla con il Dr. Strange. • Il paradosso viene citato da Scarlett Thomas in Che fine ha fatto Mr Y. • Schrödinger's Cat è una carta creatura del gioco online Elements. La sua abilità principale "Dead and Alive", se attivata, scatena tutti gli effetti correlati alla morte d'una creatura ma "Schrödinger's Cat" non muore realmente. • Il paradosso viene citato nella visual novel Umineko no naku koro ni. • Nei fumetti viene citato anche nell'edizione italiana di Spider-Man 549. • Il Gatto di Schrödinger è anche citato due volte nell'anime To aru majutsu no index. • Il Gatto di Schrödinger è anche citato nel romanzo Limit di Frank Schätzing. • Nel romanzo Dirk Gently. Agenzia di investigazione olistica di Douglas Adams, l'investigatore racconta di essere stato ingaggiato dallo stesso Schrödinger per ritrovarne il gatto che, all'apertura della scatola, risultava né vivo né morto ma scomparso. • Citazione nel commento di Dr. Who 6ª stagione episodio 2: "Il giorno della luna" [3]. • Il gatto di Schrödinger viene citato anche in una delle prime puntate dei telefilm della serie Flash Forward. Il fisico Simon Campus, interpretato da Dominic Monaghan, spiega una variante del paradosso ad un'avvenente donna incontrata casualmente in treno allo scopo di conquistarla. • Il gatto di Schrödinger è uno spettacolo teatrale rappresentato dalla compagnia Foravia, tratto dal romanzo di L. Licalzi "Cosa ti aspetti da me". • Il paradosso è citato in Bones III stagione ep.15 110 Paradosso del gatto di Schrödinger • Nel videogioco di esplorazione del sottosuolo (dungeon crawling) NetHack un particolare tipo di mostro, il Quantum mechanic, può trasportare una scatola grande. Se il giocatore ottiene questo oggetto e lo apre, viene generato un gatto domestico di nome "Schroedinger's Cat", che ha un 50% di probabilità di essere vivo o morto. Lo stato del gatto non è determinato fin quando non è aperta la scatola. • L'esperimento condotto dal fisico e matematico austriaco è ripreso da J. Michael Straczynski nel fumetto Thor, quando Donald Blake viene catapultato fuori dal corpo del suo alter ego, il dio norreno. Note Voci correlate • Interpretazioni della meccanica quantistica • Collasso della funzione d'onda • Paradosso dell'amico di Wigner Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Schrödinger's Cat Collegamenti esterni Il problema della macro-oggettivazione (http:/ / scientiaemunus. provincia. parma. it/ page. asp?IDCategoria=44& IDSezione=201&IDOggetto=122&Tipo=GENERICO) 111 Paradosso del gatto imburrato 112 Paradosso del gatto imburrato Il paradosso del gatto imburrato (in inglese Buttered cat paradox) è un falso paradosso, inventato dall'americano John Frazee a scopo goliardico, per un concorso organizzato nel 1993 dalla rivista OMNI[1], il quale dimostrerebbe come sia possibile arrivare al moto perpetuo. Tuttavia l'applicazione delle due leggi sulle quali si basa il paradosso non ha validità scientifica, ed è stata inventata a scopo umoristico: il paradosso quindi non è tale[2]. Enunciato Il paradosso è basato sulla combinazioni di due "leggi": • Un gatto cade sempre sulle zampe, ossia cade sempre in piedi e mai sulla schiena • Una fetta di pane imburrata cade sempre dalla parte del burro (derivata dalla Legge di Murphy)[3] Assunte queste due leggi come valide, basterebbe prendere un gatto e legare una fetta di pane imburrato sul suo dorso. Lanciando il gatto da un'altezza ipoteticamente infinita, il gatto tenderebbe ad atterrare sulle zampe, mentre la fetta di pane imburrato tenderebbe a cadere dalla parte del burro; si creerebbe quindi un moto perpetuo in cui sia il gatto sia la fetta di pane continuerebbero a ruotare all'infinito.[4] Se invece il gatto venisse fatto cadere da un'altezza finita, per la stessa ragione sarebbe impossibile che tocchi terra sulle zampe o sulla schiena, e quindi rimarrebbe a mezz'aria, opponendosi alla forza di gravità.[5] Vignetta umoristica sul paradosso del gatto imburrato. Il punto di vista scientifico sul "paradosso" Il fatto che un gatto riesca, con buona frequenza e purché lo spazio di caduta sia sufficiente, a girarsi in modo da cadere sulle zampe è un fatto scientificamente attestato. Il fenomeno secondo cui la fetta di pane cadrebbe sempre dalla parte imburrata viene spesso fatto risalire alle Leggi di Murphy: questo porterebbe a credere che si tratti di un mero luogo comune. Tuttavia, dal punto di vista fisico la caduta di una fetta di pane imburrato non è assimilabile al lancio di una moneta, che produce risultati mediamente equiripartiti fra "testa" e "croce". La fetta di pane imburrato, infatti, non è "equilibrata"[6], ha un momento d'inerzia molto maggiore e soprattutto non viene "lanciata" come una moneta. Se la fetta cade dal bordo di un tavolo, ad esempio, la presenza o meno del burro è sostanzialmente irrilevante: quando la fetta viene fatta scivolare sul piano del tavolo finché il baricentro oltrepassa l'orlo del tavolo, la parte della fetta che ha già superato l'orlo inizia a cadere prima della parte che ancora tocca il tavolo, e questo imprime alla fetta una rotazione iniziale; è facile verificare direttamente che il tempo che la fetta impiega a toccare terra non è sufficiente a farle compiere una rotazione completa, ma è sufficiente a compierne mezza: quindi, la faccia superiore della fetta di pane sarà rivolta verso il pavimento (e, dal momento che quando la fetta è sul tavolo il lato imburrato è quello superiore, sarà quel lato a toccare terra). Si è calcolato che perché la fetta possa compiere un giro completo, atterrando quindi sul lato non imburrato, dovrebbe cadere da un'altezza da terra superiore ai 3 metri.[7] Paradosso del gatto imburrato In conclusione, il comportamento "non casuale" del gatto[8] e quello della fetta imburrata, separatamente, sono fatti reali e non leggende metropolitane. Tuttavia, è falso che un gatto cada sempre sulle zampe, ed è falso che una fetta di pane cada sempre dal lato imburrato (si noti che il "paradosso" si basa proprio sull'assunzione assiomatica che le due circostanze si verifichino sempre). Oltre a questo, è evidente che quando si attacca la fetta al gatto il comportamento che avrebbe la stessa fetta imburrata "in caduta libera" diventa del tutto irrilevante, dato che la massa del gatto è molto maggiore ed è il moto del gatto a determinare quello della fetta, non viceversa.[9] La "sovrapposizione" dei due comportamenti ipotizzata nel "paradosso" non ha quindi nulla a che fare con ciò che si verifica in realtà. Esperimenti Alcune persone sostengono scherzosamente che l'esperimento produrrebbe un effetto antigravitazionale. Dicono, inoltre, che il gatto, una volta lasciato cadere, rallenterebbe ed inizierebbe a ruotare fino a raggiungere una situazione stazionaria: la rotazione ad alta velocità ad una piccolissima distanza dal suolo durante la quale sia il lato imburrato del pane, sia le zampe tentano di toccare terra senza riuscirci.[10] Nel giugno del 2003, Kimberly Miner ha vinto uno Student Academy Award per il film da lei prodotto ed intitolato Il moto perpetuo.[11] Miner ha basato il film su un testo scritto da un suo amico del liceo che rifletteva sulle potenziali conseguenze che avrebbe comportato l'effettuazione dell'esperimento del gatto imburrato.[12][13] Note [1] [2] [3] [4] (EN)Morris, Scot (July, 1993). I have a theory... (http:/ / www. aps. org/ publications/ apsnews/ 200111/ letters. cfm). Omni 15 (9). Donald E. Simanek, Science Askew: A Light-hearted look at the scientific world, Taylor and Francis, 2001, p.200-201 http:/ / www. butteredcat. com/ index. php?module=pagemaster& PAGE_user_op=view_page& PAGE_id=2& MMN_position=30:30 Planet Cat: A CAT-alog (http:/ / books. google. com/ books?id=shAHJQwXslYC& pg=PA215), Houghton Mifflin Harcourt, 3 ottobre 2007, 215–. ISBN 9780618812592 URL consultato il 30 maggio $6. [5] http:/ / bibi. org/ 2007/ 02/ buttered_cat_paradox/ [6] La maggiore densità del burro rispetto al pane fa sì che il baricentro del sistema non coincida con il centro geometrico del sistema fetta+burro; la spinta fluidostatica che si esercita sulla fetta, quindi, non ha momento nullo nel baricentro, e può determinare una rotazione della fetta in modo da portare il baricentro al di sotto del centro di spinta fluidostatica (in altre parole, girare la fetta con la parte imburrata sotto). [7] Robert A.J. Matthews "La scienza della Legge di Murphy"- Le Scienze n° 346 - giugno 1997 [8] Sandra Choron et al., op. cit., p. 216, 2007. [9] Ian Stewart, op. cit., p. 52, 2010. [10] UoWaikato newsletter (http:/ / www. waikato. ac. nz/ fmd/ newsletter/ Newsletter_No14. pdf) [11] Il film è disponibile al link: http:/ / www. kminer. net/ files/ movies/ miner-perpetualmotion_480_360. mov [12] Perpetual motion (Il moto perpetuo) (http:/ / www. physics. leeds. ac. uk/ for-schools/ fun-physics/ perpetual-motion/ ). URL consultato il 30 maggio 2011. [13] A Look at the Oscar-Nominated Animated Shorts for 2003 (Uno sguardo ai film animati nominati all'Oscar 2003) (http:/ / www. scifidimensions. com/ Apr04/ oscaranimation. htm). URL consultato il 30 maggio 2011. Bibliografia • Ian Stewart, The Buttered cat paradox (http://books.google.com/books?id=MHTOWvv5kvYC&pg=PT49) in Professor Stewarts Hoard of Mathematical Treasures, Profile Books Limited, 2010, pp. 49–53. ISBN 9781846683466 URL consultato il 12 gennaio 2012. • Alexander Kozintsev, The Mirror of Laughter (http://books.google.com/books?id=jNudE7Kd8kQC& pg=PA72), Transaction Publishers, 1 maggio $6, 72–. ISBN 9781412810999 • Sue McGrath, Science Magic: Fun Guaranteed! (http://books.google.com/books?id=g8xF9iE7yX8C& pg=PA92), AuthorHouse, August 2007, 92–. ISBN 9781425970611 • Simon Potter, The Perfect Face for Radio (http://books.google.com/books?id=hbKedAeZzbIC&pg=PA8), MY Books, 28 gennaio 2011, 8–. ISBN 9781844269990 • Sergio M. Dutra, Cavity quantum electrodynamics: the strange theory of light in a box (http://books.google. com/books?id=AS1xvUlxyIwC&pg=PR11), John Wiley and Sons, 2005, 11–. ISBN 9780471443384 113 Paradosso del gatto imburrato • Sandra Choron; Harry Choron, Arden Moore, Planet Cat: A CAT-alog (http://books.google.com/ books?id=shAHJQwXslYC&pg=PA215), Houghton Mifflin Harcourt, 11 gennaio 2012, 215–. ISBN 9780618812592 Voci correlate • Moto perpetuo • Legge di Murphy • Gravità Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Buttered cat paradox Collegamenti esterni • ww.physics.leeds.ac.uk/ (http://www.physics.leeds.ac.uk/for-schools/fun-physics/perpetual-motion/) • hScience Jokes 2 (http://jcdverha.home.xs4all.nl/scijokes/2_21.html#subindex) Paradosso del Grand Hotel di Hilbert Il Paradosso del Grand Hotel è un celebre paradosso inventato dal matematico David Hilbert per mostrare alcune caratteristiche del concetto di infinito, e le differenze fra operazioni con insiemi finiti ed infiniti. Hilbert immagina un hotel con infinite stanze, tutte occupate, ed afferma che qualsiasi sia il numero di altri ospiti che sopraggiungano, sarà sempre possibile ospitarli tutti, anche se il loro numero è infinito. Nel caso semplice, arriva un singolo nuovo ospite. Il furbo albergatore sposterà tutti i clienti nella camera successiva (l'ospite della 1 alla 2, quello della 2 alla 3, etc.); in questo modo, benché l'albergo fosse pieno è comunque, essendo infinito, possibile sistemare il nuovo ospite. Un caso meno intuitivo si ha quando arrivano infiniti nuovi ospiti. Sarebbe possibile procedere nel modo visto in precedenza, ma solo scomodando infinite volte gli ospiti (già spazientiti dal precedente spostamento): sostiene allora Hilbert che la soluzione sta semplicemente nello spostare ogni ospite nella stanza con numero doppio rispetto a quello attuale (dalla 1 alla 2, dalla 2 alla 4,etc.), lasciando ai nuovi ospiti tutte le camere con i numeri dispari, che sono essi stessi infiniti, risolvendo dunque il problema. Gli ospiti sono tutti dunque sistemati, benché l'albergo fosse pieno. Ancora più difficile: ci sono infiniti alberghi con infinite stanze tutti al completo. Tutti gli alberghi chiudono, tranne uno. Tutti gli ospiti vogliono alloggiare nell'unico albergo rimasto aperto. Sarebbe possibile procedere come prima, ma solo scomodando infinite volte gli ospiti. Un modo alternativo, invece, è di assegnare ad ogni persona una coppia di numeri in cui indica l'albergo di provenienza, e la relativa stanza. Gli ospiti sono quindi etichettati in questo modo: A questo punto basta assegnare le nuove stanze agli ospiti secondo un criterio ordinato, ad esempio per diagonali: 114 Paradosso del Grand Hotel di Hilbert Questo paradosso, nonostante sia piuttosto elementare, ha contribuito, all'epoca ai matematici, ed oggi ai profani, a far comprendere la differenza profonda e sostanziale tra gli insiemi finiti e infiniti, aprendo le porte a gran parte delle moderne branche dell'aritmetica moderna: analisi non-standard e transfinita su tutte. Racconti Esistono alcuni racconti che ripropongono una versione narrativa del paradosso. Uno di questi è "L'hotel straordinario" di Stanislaw Lem. Esiste anche una versione di Ian Stewart. Nel racconto di S. Lem, si propone di sistemare gli ospiti secondo i quadrati della matrice sopra descritta cioè nella stanza 1 si mette l'ospite con n=1 e m=1 (cioè l'ospite rimane dov'è) ; nella stanza 2, l'ospite dell'hotel 1 e che sta nella stanza 2 (m=1 e n=2) e poi nella stanza 3 l'ospite m=2 e n=2 (hotel 2 stanza 2), nella stanza 4 l'ospite del hotel=2 e stanza 1 cioè m=2, n=1 e poi si continua a contare associando i numeri 5, 6, 7, 8 e 9 con le coppie (m,n) rispettivamente in questo ordine (1,3), (2,3), (3,3), (3,2) e (3,1) e così via con i quadrati successivi (per i numeri 10, 11 ecc.). Nel racconto Lem propone quindi per calcolare il numero della stanza le seguenti formule: se m<n, allora il numero della stanza è n2-m+1 mentre se è m≥n, allora il numero della stanza è (m-1)2+n. In questo modo nel racconto riesce a sistemare infiniti ospiti di infiniti hotel in un solo hotel di infinite stanze già tutte occupate! Il Paradosso dell'albergo infinito si trova anche nel libro "L'infinito" di John David Barrow al capitolo III intitolato "Benvenuti all'Albergo Infinito". Paradosso del mentitore Nella logica il paradosso del mentitore è descritto come: data una proposizione autonegante come "Questa frase è falsa", nessuno riuscirà mai a dimostrare se tale affermazione sia vera o falsa; • se infatti fosse vera, allora la frase non sarebbe veramente falsa (la verità della proposizione non invalida la falsità espressa nel contenuto della proposizione). • se invece la proposizione fosse falsa, allora il contenuto si capovolgerebbe (è come se dicesse "Questa frase è vera") quando abbiamo appena affermato il contrario. Il paradosso del mentitore: versione originale Secondo alcuni, quello che oggi chiamiamo paradosso nacque con una nota affermazione di Epimenide di Creta (VI secolo a.C.), il quale, cretese egli stesso, ebbe a dire che «i Cretesi sono bugiardi»; essendo come detto egli medesimo fra questi, anch'egli sarebbe dovuto conseguentemente essere bugiardo e perciò l'affermazione sarebbe dovuta essere falsa poiché proveniente da un bugiardo. Ma se così non fosse stato, se cioè Epimenide fosse stato un cretese che, almeno in questa occasione, non diceva il falso, l'affermazione sarebbe risultata ugualmente falsa poiché non tutti i cretesi erano bugiardi. Non è tuttavia noto se l'affermazione di Epimenide fosse intesa come un paradosso del mentitore. Inoltre, la proposizione, così come è formulata, non è un paradosso, per l'assenza del quantificatore universale (tutti o nessuno): se infatti esiste almeno un cretese che dice la verità, allora l'affermazione di Epimenide è falsa senza portare ad alcuna contraddizione. Non si conosce il contesto in cui Epimenide fece questa affermazione; fu solo più tardi che questa fu di nuovo citata (per esempio nella Lettera a Tito 1,12-13) e presentata come un paradosso del mentitore. Diogene Laerzio[1] ha attribuito l'ideazione del paradosso ad Eubulide di Mileto (IV secolo a.C.), il quale riformulò l'affermazione di Epimenide dicendo «ψευδόμενος» (pseudòmenos), «io sto mentendo». Da notare in primo luogo che la frase è «io sto mentendo», e non «io sono bugiardo», nel senso che «quello che sto dicendo in questo momento è una menzogna». 115 Paradosso del mentitore Con Eubulide si ripropone lo stesso dilemma di Epimenide: può essere vera la frase di uno che afferma «io sto dicendo il falso»? La frase di Eubulide non può essere vera, ma non può essere neanche falsa, perché c'è un elemento nuovo rispetto a «tutti i Cretesi mentono». L'elemento nuovo è l'autoriferimento: Eubulide sta parlando di se stesso, cioè sta affermando di se stesso che mente, e questo non può essere né vero né falso. Il paradosso del mentitore: elaborazioni successive Dal paradosso del mentitore sono derivate elaborazioni diversificate di molti autori attraverso tutti i secoli, ed anche attualmente l'argomento è assai discusso. Tra le più note riformulazioni del paradosso del mentitore vi sono: • quella di Aristotele (Confutazioni sofistiche (XXV)), il quale propose due quesiti di analoga contraddittorietà: • è possibile giurare di rompere il giuramento che si sta prestando? • è possibile ordinare di disobbedire all'ordine che si sta impartendo? • quella di Diogene Laerzio (II secolo d.C.): un coccodrillo ghermisce un bambino che gioca sulle rive del Nilo; la madre del piccolo implora il coccodrillo di restituirle il figlio, ma il coccodrillo fa la seguente proposta: "Se indovini quello che farò, ti restituirò il bambino". La madre allora dice al coccodrillo: "Credo che mangerai il piccolo". Se la madre ha detto il vero, se ha cioè indovinato che il coccodrillo vuole mangiare il bambino, allora in questo caso il coccodrillo ha promesso di restituire il bimbo. Ma se il coccodrillo restituisce il bimbo, significherebbe che non lo ha mangiato, e quindi la donna non avrebbe indovinato e non potrebbe salvare la vita del figlio. Risultato: in tutti i casi, se la madre dice "tu lo mangerai", non potrà mai riavere il figlio e il coccodrillo non potrà mai mantenere la promessa di restituirlo. • quella di Giovanni Buridano, o meglio Jean Buridan, filosofo francese morto di peste a Parigi nel 1358 o 1360. Fino a quell'epoca, durante la Scolastica, si era sempre pensato che i problemi logici derivanti dal paradosso del mentitore derivassero dal carattere di autoreferenza. Buridano dimostrò che il problema non era l'autoreferenza, elaborando un paradosso nel quale l'autoriferimento era per così dire spezzato in due. Egli immaginò due protagonisti, Socrate e Platone, ciascuno dei quali pronuncia una sola frase. Socrate dice "Platone dice il falso"; Platone dice "Socrate dice il vero". Vista isolatamente, ciascuna delle due frasi non è affatto paradossale, ma la loro congiunzione lo diventa. Se Socrate dice effettivamente il vero, allora Platone mente davvero e di conseguenza (contraddicendo alla premessa) Socrate dice il falso. Non è possible che la frase di Socrate sia vera e poi arrivare alla conclusione che è falsa. • quella elaborata da Miguel de Cervantes nel Don Chisciotte (1615), dove si narrava di Sancho Panza che divenne governatore di Barataria e si trovò a dover decidere sul caso accaduto ad un militare, messo di guardia su un ponte con l'ordine di impiccare tutti coloro che mentivano circa il motivo per cui volevano oltrepassare il ponte stesso. Il militare raccontava che un giorno era arrivato un tale cui fu chiesto perché voleva passare il ponte. A questa domanda, il tale rispose: "voglio attraversare il ponte solo per essere impiccato in base alla legge". Se fosse vero che costui voleva farsi impiccare, allora aveva detto la verità e quindi non doveva essere impiccato. Se stesse mentendo, e poi fosse stato impiccato, avrebbe detto la verità e avrebbe dovuto essere lasciato libero. • quella di Philip Jourdain, che nel 1913 riformulò il paradosso di Buridano eliminando il riferimento a personaggi celebri, ponendo semplicemente due affermazioni: "la frase seguente è falsa" e "la frase precedente è vera". 116 Paradosso del mentitore Soluzioni del paradosso del mentitore La soluzione data da Crisippo dice semplicemente che il paradosso è il rovesciamento del buon senso: ci sono frasi delle quali «non si deve dire che esse dicono il vero e (neppure) il falso; né si deve congetturare in un altro modo, cioè che lo stesso (enunciato) esprima simultaneamente il vero e il falso, bensì che esse sono completamente prive di significato». La soluzione prospettata da Aristotele è la seguente: le frasi paradossali si fondano sulla confusione tra uso e menzione. Quando si dice "io sto mentendo", si sta usando la frase, nel senso che si tratta di un paradosso di tipo autoreferenziale, catalogato tra gli insolubilia; chi enuncia una frase insolubile, non dice letteralmente nulla e pertanto la proposizione (o meglio, la pseudoproposizione) deve essere semplicemente cassata. Nel Medioevo, una proposta di soluzione fu avanzata da Guglielmo di Ockham (1285-1350). Dal momento che la cassatio di Aristotele non forniva una soluzione concreta, egli introdusse la distinzione tra linguaggio e metalinguaggio. Solo le frasi autoreferenziali mescolano i due livelli in uno solo, perché dire "io sto mentendo" è una frase che si pone nel metalinguaggio (per quanto riguarda il verbo mentire, il cui concetto trova spiegazione non nella frase stessa ma in un altro livello), ma è espressa mediante il linguaggio. La proposta di soluzione di Buridano fu dettata dall'intuizione della logica temporale: un'affermazione non è vera o falsa in assoluto, ma solo relativamente ad un certo momento storico. Mentre non è possibile che una frase possa essere vera o falsa nello stesso tempo, essa può esserlo in tempi diversi: Basterebbe dire "Platone dirà il falso quando pronuncerà la prossima frase" e "Socrate disse il vero quando pronunciò la frase precedente". Nelle logiche non classiche in cui non vale il principio di non-contraddizione, le proposizioni come quelle del mentitore non generano alcun paradosso. Per esempio nella logica fuzzy, dove il valore di verità può variare tra 0 e 1, tali frasi hanno un valore di verità pari a 0,5. Note [1] II, 108. Bibliografia • Piergiorgio Odifreddi, Le menzogne di Ulisse: l'avventura della logica da Parmenide ad Amartya Sen, Milano, Saggistica TEA, 2003. ISBN 9788850211913 Voci correlate • • • • • Antinomia Logica Filosofia Paradosso Verità 117 Paradosso del nonno Paradosso del nonno Il paradosso del nonno è un paradosso sul viaggio nel tempo. Il primo a descriverlo fu René Barjavel, uno scrittore di libri di fantascienza, nel suo libro Il viaggiatore imprudente (Le voyageur imprudent, 1943). Il paradosso suppone che un nipote torni indietro nel tempo e uccida suo nonno prima che incontri sua nonna, dunque prima che potessero sposarsi ed avere discendenza. Se ciò fosse possibile, il nipote non sarebbe mai potuto nascere, dunque non sarebbe mai potuto tornare a ritroso nel tempo ed uccidere suo nonno. Il nipote ha viaggiato indietro nel tempo o no? Il paradosso del nonno è stato molto utilizzato, in letteratura e nel cinema, per dimostrare che i viaggi nel tempo sono impossibili. Sono state proposte alcune ipotesi per risolvere la contraddizione non solo di questo paradosso, ma di tutti quelli derivanti da viaggi nel tempo; ecco le più importanti: • Secondo la teoria del multiverso questo paradosso non è una contraddizione, perché ogni "interferenza" col passato produrrebbe le sue conseguenze solo in un universo parallelo nel quale la storia si evolve in maniera diversa. • un universo parallelo viene generato istantaneamente ad ogni singola "interferenza", un viaggio nel passato comporterebbe la creazione di infiniti universi con infinite linee temporali. • Se invece si assume che l'universo esistente sia unico (o che i vari universi siano totalmente isolati, il che è equivalente), allora il paradosso è una vera e propria antinomia, perciò deve in qualche modo essere impossibile che il fatto paradossale avvenga: • Secondo la Congettura di protezione cronologica (formulata da Stephen Hawking) deve in qualche modo essere impossibile ogni forma di viaggio indietro nel tempo, per motivi da noi ancora sconosciuti. • Secondo invece il Principio di auto consistenza di Novikov, il viaggio nel tempo non è impossibile, ma le conseguenze che esso produce dal passato verso il futuro sono proprio quelle che hanno reso possibile quel viaggio dal futuro verso il passato: in altri termini è possibile andare indietro nel tempo, ma è impossibile modificare la storia tramite un viaggio indietro nel tempo, poiché esso è già avvenuto nel passato, e doveva avvenire nel presente. Letteratura e cinema Questo paradosso è stato ripreso anche in una puntata del cartone animato Futurama creato da Matt Groening (Il Nonno di se stesso), quando il protagonista, viaggiando indietro nel tempo, uccide suo nonno, continua a vivere perché ha messo incinta sua nonna, scoprendo così di essere sempre stato il nonno di se stesso. Questa storia è un esempio di Principio di auto consistenza di Novikov. Altro esempio cinematografico sull'argomento è Ritorno al futuro e Ritorno al futuro 2, film famosissimi nei quali il viaggio a ritroso nel tempo dei protagonisti ha come conseguenza il cambiamento di carattere dei protagonisti coevi. Il Principio di auto consistenza di Novikov è stato utilizzato come fondamento anche serie della ABC Lost, telefilm che ad un certo punto della quarta serie comincia a contemplare i viaggi nel tempo, mostrando come siano stati gli stessi protagonisti a causare gli eventi che nel futuro (il presente delle prime stagioni) hanno portato il loro aereo a cadere sull'isola, e il fato di certi personaggi era stato guidato da consigli dati da altri protagonisti nel passato, alcune volte da loro stessi ad una controparte più giovane. Nel romanzo Rabbia, Chuck Palahniuk rivede il "paradosso del nonno" e ne propone una soluzione alternativa. Il protagonista torna ripetutamente indietro nel tempo, sostituendosi al padre per concepire sé stesso con la madre, e creare una versione migliorata di sé. 118 Paradosso del nonno Nel romanzo breve Palinsesto, Charles Stross immagina che l'esame di ammissione per gli agenti della Stasi, un'agenzia segreta temporale, consista nell'uccisione del proprio nonno. Voci correlate • Viaggi nel tempo • Dimensione parallela Paradosso del quiz Il paradosso del quiz è una miscela del paradosso delle due buste e del paradosso dell'impiccagione imprevedibile. Situazione Una emittente televisiva vuole indire un gioco a premi, nel quale ad un certo punto al concorrente vengono presentate due buste chiuse, ciascuna contenente l'indicazione di un premio in denaro, che il concorrente riceverà, se la sceglie. Le due buste sono esternamente indistinguibili, il valore di una è esattamente il doppio dell'altra. Dopo che il concorrente ha scelto una busta, questa viene aperta ed una volta saputo il valore contenuto il concorrente ha la possibilità di cambiare la propria decisione. La scelta dei premi viene affidata ad un team composto da un Manager e due impiegati A e B. • I valori dei premi devono essere tali da soddisfare il seguente criterio: 1. il premio minore è esattamente la metà del premio maggiore; 2. la conoscenza del valore del premio contenuto nella prima busta non aggiunge informazioni alla domanda se questo sia maggiore o minore dell'altro; Paradosso Il team si mette al lavoro e l'impiegato A osserva: • il valore in centesimi del premio minore non può essere dispari, altrimenti si capirebbe che è il premio minore. Ottima osservazione - replica il Manager soddisfatto. L'impiegato B aggiunge: • se il premio minore deve essere pari il premio maggiore è sicuramente multiplo di 4. Per renderli indistinguibili si devono scegliere solo premi minori multipli di 4. Hai ragione - risponde il Manager. L'impiegato A aggiunge ancora: • allora, se il premio minore deve essere multiplo di 4 il premio maggiore è sicuramente multiplo di 8. Quindi per renderli indistinguibili si devono scegliere solo premi minori multipli di 8. Beh sembra di si - rispose il Manager, un po' dubbioso. Continuarono così per un po', finché giunsero alla conclusione che non era possibile scegliere una coppia di premi senza che si potesse capire con un ragionamento quale era il minore ed il maggiore. 119 Paradosso del quiz Soluzione Il manager allora si comportò da manager e prese una decisione: un premio sarà di 16000 euro e poi tireremo una moneta per stabilire se l'altro premio è di 8000 o 32000 euro. Approfondimenti matematici Soffermiamoci sulle regole derivate dal ragionamento: 1. 2. 3. 4. i premi minori devono essere pari i premi minori devono essere multipli di 4 i premi minori devono essere multipli di 8 i premi minori devono essere multipli di 16 In realtà l'applicazione di queste regole non deve essere considerata come certa ma solo probabile. Consideriamo che: • • • • la regola (1) sia applicata con probabilità 1, la regola (2) può essere applicata o meno con una probabilità che chiameremo α, la regola (3) può essere applicata o meno con una probabilità α², la regola (4) può essere applicata o meno con una probabilità α³... Se consideriamo la possibilità di applicare o meno una certa regola otteniamo di nuovo una non determinazione del risultato. Si può giocare opportunamente sul parametro α per ottenere la "massima incertezza". Paradosso del sorite Il paradosso del sorite (dal greco antico σωρίτης sōritēs aggettivo di σωρός sōros, che significa "mucchio") è un paradosso generalmente attribuito al filosofo greco Eubulide di Mileto, noto anche per una formulazione del paradosso del mentitore. Dato un mucchio di sabbia, se eliminiamo un granello dal mucchio avremo ancora un mucchio. Eliminiamo poi un altro granello: è ancora un mucchio. Eliminiamo ancora un granello, e poi ancora uno: il mucchio diventerà sempre più piccolo, finché rimarrà un solo granello di sabbia. È ancora un mucchio, quando rimane un solo granello? E se un solo granello non è un mucchio, allora in quale momento quel mucchio iniziale non è più un mucchio? Questo paradosso è utilizzato per analogia quando si parla di definizione della morte dell'individuo, dell'organismo e delle sue parti che, notoriamente, non muoiono tutte simultaneamente e puntualmente. Ci si può domandare: in quale momento il "mucchio" iniziale non è più un "mucchio"? Cioè quale è il momento preciso in cui un individuo si può definire morto? E ancora: un corpo senza una sua parte (es. un amputato di gamba) è ancora un organismo (= mucchio)? Che cosa differenzia un organismo da un mucchio di sabbia? 120 Paradosso dell'Alabama 121 Paradosso dell'Alabama Il paradosso dell'Alabama è un paradosso scoperto negli Stati Uniti dopo il censimento del 1880. C. W. Seaton, funzionario capo dell'ufficio del censimento, calcolò il numero di rappresentanti che ogni stato avrebbe mandato al parlamento, ipotizzando un numero totale di parlamentari da 275 a 350. Scoprì durante il calcolo che un parlamento di 299 rappresentanti avrebbe dato all'Alabama 8 seggi, ma aumentando di uno il numero di rappresentanti a 300 l'Alabama avrebbe perso un seggio, invece di mantenere la sua quota invariata o vederla aumentare. Questo risultato, conosciuto come Paradosso dell'Alabama, è la diretta conseguenza del sistema di calcolo utilizzato per assegnare i seggi, che utilizzava il conteggio proporzionale (numero elettori/numero dei seggi) e l'attribuzione dei seggi residui a coloro che avevano ottenuto i resti maggiori. Si dimostra, con questo metodo di calcolo, che l'aumento di un seggio disponibile può causare la perdita di un seggio ad una delle liste, dando quindi origine al paradosso. Per mitigare l'effetto del paradosso, si utilizzano oggi sistemi di calcolo a "proporzionale corretto". Tuttavia, nel 1982 Balinsky e Young hanno mostrato come con qualunque metodo di suddivisione con almeno sette seggi e 4 partizioni, il paradosso sia inevitabile. Inoltre, lo stesso teorema mostra come ci sia un insieme di tre paradossi, quello dell'Alabama, il paradosso della popolazione e il paradosso del nuovo stato, di cui almeno uno è presente in ogni sistema di suddivisione. Esempio numerico Ecco un esempio semplificato del paradosso dell'Alabama, dove ci sono solamente tre stati e dieci seggi a disposizione. Stato Dimens. Proporzione Seggi A 6 4.286 4 B 6 4.286 4 C 2 1.429 2 Se i seggi passano a 11: Stato Dimens. Proporzione Seggi A 6 4.714 5 B 6 4.714 5 C 2 1.571 1 Mentre A e B guadagnano ciascuno un seggio, la quota attribuita a C decresce da 2 a 1. Ciò accade perché col crescere del numero di seggi la quota proporzionale cresce più velocemente per gli stati più grandi rispetto a quelli più piccoli; in questo caso, la parte frazionaria di A e B cresce più velocemente di quella di C, e a un certo punto la parte decimale di quest'ultimo diventa minore rispetto a quella degli altri due. Paradosso dell'Alabama Bibliografia e riferimenti • Balinsky, M. e Young, P. "Fair Representation." Yale University Press, New Haven, 1982 Paradosso dell'amico di Wigner Il paradosso dell'amico di Wigner è un esperimento mentale proposto dal fisico Eugene Wigner come estensione del paradosso del gatto di Schrödinger a partire dal quale introdurre il problema mente-corpo in meccanica quantistica. L'esperimento mentale In questo esperimento mentale, Wigner immagina che, in sua assenza, un amico compia l'esperimento del gatto di Schrödinger; Wigner, poi, verrà a sapere se il gatto sia vivo o morto solo al proprio ritorno al laboratorio. Ci sono, dunque, due sistemi differenti: il sistema "scatola", che contiene il gatto di Schrödinger e la fiala di veleno, e il sistema "laboratorio", all'interno del quale c'è l'amico di Wigner. Il punto cruciale dell'esperimento mentale è nella seguente domanda: al ritorno di Wigner, lo stato del sistema "laboratorio" sarà di sovrapposizione tra «gatto morto/amico triste» e «gatto vivo/amico felice» e si determinerà su una delle due possibilità solo quando il fisico verrà a conoscenza del risultato (diventando, quindi, un osservatore), oppure Wigner troverà che la sovrapposizione è stata dissolta già da prima a causa della presenza dell'amico? Nel celebre paradosso del gatto, si afferma che la scatola non si trovi in uno stato definito, almeno dal punto di vista di un osservatore esterno, finché non viene aperta. Analogamente dovrebbe essere per il laboratorio (osservatore esterno del quale, è Wigner), visto che, concettualmente, non c'è alcun motivo per supporre diversamente; questo vuol dire che, finché Wigner è lontano, deve valere la sovrapposizione tra i due stati del laboratorio, quelli di cui sopra si è fatto menzione: "gatto vivo/amico felice" e "gatto morto/amico triste". Il punto è che nel laboratorio c'è l'amico del fisico, che, aprendo la scatola mentre quest'ultimo è lontano, svolge il ruolo di osservatore del sistema "scatola" e fa "collassare" lo stato di quest'ultima su uno dei due possibili ("gatto vivo" e "gatto morto"); per logica, allora, poiché l'indeterminazione dello stato del sistema "laboratorio" è dovuta solo all'indeterminazione del sistema "scatola", si ha che anche lo stato del sistema "laboratorio" dovrebbe collassare già prima che Wigner ritorni, in contraddizione con quanto appena affermato. Qui sta il paradosso. Coscienza e misurazione Wigner ideò questo esperimento mentale per illustrare la sua convinzione che la coscienza sia necessaria per il processo di misurazione in meccanica quantistica. Se si sostituisce alla coscienza dell'amico uno strumento materiale, la linearità della funzione d'onda implica che lo stato del sistema sia in una somma lineare di stati possibili. È in sostanza un sistema indeterminato più ampio. Wigner presentò questo paradosso in un suo articolo riguardante il problema mente-corpo alla luce della meccanica quantistica, e lo integrò successivamente nel suo libro Simmetrie e riflessioni, del 1967. Attualmente questa sua interpretazione della meccanica quantistica è nota come «coscienza causa del collasso». 122 Paradosso dell'amico di Wigner 123 Bibliografia • Eugene Wigner, Simmetrie e riflessioni, 1967 • Roger Penrose, La strada che porta alla realtà. Le leggi fondamentali dell'universo, 2006 Voci correlate • • • • Coscienza causa del collasso Eugene Wigner Interpretazione della meccanica quantistica Paradosso del gatto di Schrödinger Paradosso dell'area scomparsa Il paradosso dell'area scomparsa è un paradosso geometrico in cui la ridisposizione di una serie di tessere per semplice traslazione e rotazione sembra modificare la superficie totale delle tessere. Esistono diverse varianti di questo paradosso. Un esempio classico è il paradosso del cuneo. Si osservi l'immagine: Le due figure sono composte dalle stesse tessere di uguale superficie, come si può constatare contando i quadrati della griglia. Due triangoli con base ed altezza identiche hanno la stessa area. Ci si trova nella situazione paradossale in cui la somma di quantità uguali dà risultati differenti. Secondo Martin Gardner il rompicapo espresso in questa forma fu inventato nel 1953 da Paul Curry, un prestigiatore di New York City, universalmente noto per essere l'autore di uno dei più semplici e straordinari giochi di prestigio con le carte, il celebre Out of this world. Nonostante questo, il principio delle evanescenze geometriche è conosciuto almeno fino dal 1860 circa. Soluzione Il paradosso viene a cadere quando si constata che le due figure rappresentate non sono triangoli ma quadrilateri. Il quarto angolo, quasi piatto, si trova su quella che si riteneva essere l'ipotenusa, tra la tessera azzurra e la tessera rossa. Utilizzando un righello si può constatare che nella prima costruzione l'angolo è leggermente maggiore di 180° e la figura è concava. Animazione del paradosso del cuneo. Paradosso dell'area scomparsa Nella seconda disposizione l'angolo è minore di 180° e la figura è convessa. L'area pari alla differenza tra i due casi equivale all'area del quadrato vuoto. Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Missing square puzzle Collegamenti esterni • (EN) Curry's Paradox: How Is It Possible? [1] • (EN) Triangoli e Paradossi [2] Note [1] http:/ / www. cut-the-knot. org/ Curriculum/ Fallacies/ CurryParadox. shtml [2] http:/ / www. archimedes-lab. org/ page3b. html Paradosso dell'avvocato Il paradosso dell'avvocato (anche detto paradosso di Protagora) è un paradosso citato da Aulo Gellio e secondo la tradizione riferito ad elaborazioni della scuola stoica. Secondo questa versione, Protagora avrebbe formato agli studi di legge, come istitutore, un giovane promettente, Evatlo (Euathlus), dal quale ebbe solo la metà di quanto richiesto per le lezioni e col quale stabilì che il resto sarebbe stato saldato dopo che questi avesse vinto la sua prima causa. Ma Evatlo non cominciò la professione di avvocato, anzi si diede alla politica, e non avendo vinto la sua prima causa poiché non ne aveva mai fatte, Protagora non veniva pagato; quest'ultimo lo convenne dunque in giudizio per essere saldato del prezzo delle sue lezioni. Il giovane decise di difendersi da solo, divenendo perciò avvocato di sé medesimo, e creando questa situazione di indeterminatezza: • secondo Protagora: • se Evatlo avesse vinto, avrebbe dovuto pagarlo in base all'accordo, perché avrebbe vinto la sua prima causa; • se Evatlo avesse perso, avrebbe dovuto pagarlo comunque per effetto della sentenza. • secondo Evatlo: • se Evatlo avesse vinto, non avrebbe dovuto pagare Protagora per effetto della sentenza; • se Evatlo avesse perso, non avrebbe dovuto pagare Protagora perché in base all'accordo non aveva vinto la sua prima causa. Il paradosso è spesso citato a fini umoristici per segnalare la "gara di speciosità" sempre corrente fra le categorie forensi e quelle della politica. 124 Paradosso dell'avvocato Collegamenti esterni • Testo in originale, traduzione e commenti [1] Note [1] http:/ / utenti. quipo. it/ base5/ logica/ protagora. htm Paradosso dell'edonismo Il paradosso dell'edonismo è un paradosso di carattere filosofico e psicologico, ed affonda i suoi principi nella Grecia classica del 400 a.C.,con la nascente corrente dell'Edonismo, cioè il riconoscimento del piacere (edonè) come fine ultimo dell'uomo. L'analisi del paradosso fu poi ripresa in Europa di fine Ottocento, dal britannico Henry Sidgwick, e quindi successivamente sviluppato nei discorsi "The Experience Machine", dentro l'opera "Anarchia, Stato e utopia" del filosofo americano Robert Nozick (1974). Il paradosso si basa su premesse di filosofia etica. Si può sintetizzare sul fatto che l’impulso al piacere, se eccessivo, viene a vanificare il suo stesso fine. Ciò porta ad una limitazione intrinseca dell'egoismo intrinseco dell'essere, una limitazione allo stesso Edonismo e, più in particolare, una limitazione al pensiero dell'Utilitarismo. Alcuni piaceri, come quelli intellettuali e creativi, verrebbero negati all'essere. Ne consegue che, per raggiungerli in misura accettabile, essi richiedono la preesistenza di un desiderio intrinseco all'essere di fare del bene agli altri, ma non per il solo obiettivo di provocare il proprio esclusivo piacere. Paradosso dell'impiccagione imprevedibile Il paradosso dell'impiccagione imprevedibile, noto più semplicemente come paradosso dell'impiccagione, è un celebre paradosso logico concepito dal matematico Martin Gardner. Il paradosso Un tale fu condannato dal giudice. In considerazione dell'efferatezza dei delitti commessi il giudice proclamò una singolare sentenza: "... il colpevole sarà impiccato un giorno della prossima settimana, ma egli non dovrà sapere quale sarà il giorno dell'esecuzione, che dovrà arrivargli completamente inaspettata!" Il condannato non fu per nulla turbato dalla sentenza perché dopo un breve ragionamento concluse: "Allora non mi impiccheranno mai! Dato che la mia sentenza deve essere eseguita entro la settimana, l'esecuzione non potrà essere sabato poiché venerdì lo capirei, e non potrà essere venerdì perché giovedì lo saprei, e così a ritroso per lo stesso motivo non potrà essere nessuno dei giorni precedenti. Per questo motivo non mi giustizieranno mai, in quanto l'impiccagione non sarebbe inaspettata." Il giorno seguente il condannato venne impiccato. La sentenza del giudice si avverò, a dispetto della convinzione del condannato, in quanto questa gli arrivò appunto in un giorno inaspettato. 125 Paradosso dell'impiccagione imprevedibile Analisi del paradosso Molto è stato scritto sulla struttura di questo paradosso, che è conosciuto anche in diverse forme. Infatti un'altra enunciazione fa riferimento all'interrogazione (o esame) "a sorpresa", in cui un professore annuncia che farà una interrogazione a sorpresa nella settimana successiva, ma in un giorno completamente imprevedibile, e gli studenti concludono che non ci sarà nessuna interrogazione. In entrambi gli enunciati, la sostanza è la stessa: si fissa un periodo di tempo per un certo evento e si dichiara che il momento esatto dell'evento è imprevedibile. Nell'analisi di questo paradosso è coinvolta sia la logica che l'epistemologia, cioè sia il nostro modo di ragionare che il nostro modo di stabilire che cosa si sa o non si sa. Dal punto di vista logico la sentenza del giudice è vagamente contraddittoria e potrebbe essere analizzata con maggior successo inquadrandola nella logica sfumata (logica fuzzy). In ogni caso, se ci si pensa, è evidente che per far eseguire la sentenza in modo completamente inaspettato, bisognerebbe non comunicare del tutto la sentenza all'imputato. Altrettanto evidente è che tanto più è breve il periodo assegnato all'esecuzione, tanto più è contraddittoria la sentenza. Al limite, se il periodo si riducesse ad un giorno, la sentenza potrebbe essere parafrasata nella seguente autocontraddizione: "Domani sarai impiccato, ma tu non puoi prevedere che domani sarai impiccato". Dal punto di vista epistemologico la contraddizione sopra enunciata corrisponde al cosiddetto paradosso di Moore, in cui uno afferma: "So che fuori piove, ma non ci credo", ed è problematico capire che cosa uno sa o non sa. Dal punto di vista del prigioniero, comunque, è azzardato trarre conclusioni certe da una sentenza vagamente contraddittoria. A maggior ragione, se egli la considera completamente contraddittoria (e quindi irrealizzabile), dovrebbe tenere conto che ci sono infiniti modi per non eseguire la sentenza. Ad esempio: • Lasciar vivere il condannato • Eseguire la sentenza oltre il limite fissato • Comunicare al condannato il giorno e l'ora dell'esecuzione. Quindi il condannato dovrebbe aspettarsi di essere impiccato in qualunque momento, anche l'ultimo giorno della settimana, senza poter essere certo di quale sia questo momento. In altre parole, la sentenza del giudice non può essere pienamente rispettata, perché l'esecuzione non è completamente inattesa, ma ottiene lo scopo di lasciare nell'incertezza il condannato. Bibliografia • Enigmi e giochi matematici. Vol. 4° (The Unexpected Hanging and other Mathematical Diversions), Sansoni, Firenze, 1979, VIII-228p. • Michael Clark - I Paradossi dalla A alla Z. - Edizione Mondolibri S.p.A.,Milano, 2005, su licenza Raffaello Cortina Editore - L'esame inaspettato, pag. 93. 126 Paradosso dell'informazione del buco nero 127 Paradosso dell'informazione del buco nero Il paradosso dell'informazione del buco nero (in inglese black hole information paradox) risulta dalla combinazione della meccanica quantistica e relatività generale. Implica che l'informazione fisica potrebbe "sparire" in un buco nero, permettendo a molti stati fisici di evolvere nello stesso identico stato. Questo è un argomento controverso poiché esso viola una dottrina comunemente accettata — che in linea di principio l'informazione totale riguardo a un sistema fisico in un punto temporale determinerebbe il suo stato in ogni altro tempo. [1] Rappresentazione di un buco nero (XMM-Newton, ESA, NASA) Radiazione di Hawking Nel 1975, Stephen William Hawking e Jacob Bekenstein mostrarono che i buchi neri irraggerebbero lentamente energia, e ciò pose un problema. Dal teorema dell'essenzialità, ci si aspetterebbe che la radiazione di Hawking fosse completamente indipendente dal materiale entrante nel buco nero. Ciò nondimeno, se il materiale entrante nel buco nero fosse uno stato quantistico puro, la trasformazione di questo stato nello stato eterogeneo della radiazione di Hawking distruggerebbe l'informazione riguardante lo stato quantico originale. Questo viola il teorema di Liouville e presenta un paradosso fisico. Più precisamente, se c'è uno stato puro correlato, e una parte del sistema correlato viene gettata nel buco nero mentre l'altra parte viene tenuta all'esterno, il risultato dopo che la traccia parziale è stata portata all'interno del buco nero è uno stato misto. Ma poiché ogni cosa all'interno del buco nero urterà la singolarità in un tempo fissato, la parte che vi viene tracciata parzialmente potrebbe "sparire", per non ricomparire più. Naturalmente, non è realmente noto cosa succede nelle singolarità una volta che sono stati presi in considerazione gli effetti quantistici, ragion per cui questa teoria congetturale è controversa. Hawking, comunque, era convinto a causa della semplice eleganza dell'equazione risultante la quale "unificava" termodinamica, relatività, gravità, e il lavoro di Hawking stesso sul Big Bang. Questo infastidì molti fisici e in particolare John Preskill, il quale nel 1997 scommise con Hawking e Kip Thorne che l'informazione non veniva persa nei buchi neri. Ci sono diverse idee riguardo a come il paradosso possa essere risolto. Fin dalla proposta, nel 1997, della corrispondenza AdS/CFT, la convinzione predominante tra i fisici è che l'informazione viene preservata e che la radiazione di Hawking non è precisamente termica, ma riceva correzioni quantiche. Altre possibilità includono il fatto che l'informazione sia contenuta in un residuo planckiano rimasto alla fine della radiazione di Hawking o a una modificazione delle leggi della meccanica quantistica che permetta un'evoluzione del tempo non-unitario. Nel luglio del 2005, Stephen Hawking pubblicò un articolo con una teoria secondo la quale perturbazioni quantistiche dell'orizzonte degli eventi potrebbero permettere all'informazione di sfuggire dal buco nero, e ciò risolverebbe il paradosso dell'informazione. La sua argomentazione suppone l'unitarietà della corrispondenza AdS/CFT la quale implica che un buco nero AdS, che è duale per la teoria del campo conforme termico, sia unitario. Quando annunciò il suo risultato, Hawking ammise anche di aver perso la scommessa del 1997, pagando Preskill con l'enciclopedia del baseball (ISBN 1-894963-27-X) 'dalla quale si estrae informazione a volontà'. Comunque, Thorne rimane scettico riguardo alla dimostrazione di Hawking e rifiutò di contribuire alla ricompensa. Paradosso dell'informazione del buco nero Principali approcci alla soluzione del paradosso L'informazione va irrimediabilmente persa: • Vantaggio: Sembra essere una diretta conseguenza di calcoli relativamente non controversi basati sulla gravità semiclassica. • Svantaggio: Viola l'unitarietà (uno dei principi base della meccanica quantistica), nonché la conservazione dell'energia o causalità. L'informazione filtra fuori gradualmente durante l'evaporazione del buco nero: • Vantaggio: Intuitivamente attraente perché somiglia qualitativamente al recupero delle informazioni in un processo classico di combustione. • Svantaggio: Richiede una grossa deviazione dalla gravità classica e semiclassica (che non consentono la fuoriuscita di informazioni dal buco nero) anche per buchi neri macroscopici per i quali ci si aspetta che tali teorie siano buone approssimazioni. L'informazione sfugge improvvisamente nello stadio finale dell'evaporazione del buco nero: • Vantaggio: È necessaria una deviazione significativa dalla gravità classica e semiclassica solo nel regime in cui ci si aspetta che dominino gli effetti della gravità quantistica. • Svantaggio: Poco prima dell'improvvisa fuga di informazioni, un buco nero molto piccolo deve essere in grado di immagazzinare una quantità arbitraria di informazione, il che viola pesantemente il limite di Bekenstein. L'informazione è immagazzinata in un resto di dimensioni controntabili con la lunghezza di Plank: • Vantaggio: Non è necessario alcun meccanismo per la fuga di informazioni. • Svantaggio: un oggetto molto piccolo deve essere in grado di immagazzinare una quantità arbitraria di informazione, il che viola pesantemente il limite di Bekenstein. L'informazione è immagazzinata in un resto massivo: • Vantaggio: Non è necessario alcun meccanismo per la fuga di informazioni e non è necessario immagazzinare una grande quantità di informazioni in un piccolo oggetto. • Svantaggio: Non è noto alcun meccanismo attraente che potrebbe fermare l'evaporazione di Hawking di un buco nero macroscopico. L'informazione è immagazzinata in un universo neonato che si separa dal nostro: • Vantaggio: Non è necessaria alcuna violazione di principi generali della fisica noti. • Svantaggio: È difficile trovare una teoria concreta attraente che predirrebbe tale scenario. L'informazione è codificata nella correlazione tra futuro e passato: [2][3] • Vantaggio: La gravità semiclassica è sufficiente, ovvero la soluzione non dipende dai dettagli della (non ancora ben compresa) gravità quantistica. • Svantaggio: Contraddice la visione intuitiva della natura come entità che evolve nel tempo. L'equazione L'entropia di un buco nero è data dall'equazione: dove S è l'entropia, c è la velocità della luce, k è la costante di Boltzmann, A è l'area dell'orizzonte degli eventi, ħ (h tagliato) è la costante di Planck ridotta (o costante di Dirac) e G è la costante gravitazionale. 128 Paradosso dell'informazione del buco nero Voci correlate • Termodinamica dei buchi neri • Principio olografico • Demone di Maxwell (nel quale l'informazione non può essere distrutta) Note [1] (EN) Stephen Hawking. . Discovery, Inc., Discovery Channel, The, 2006 [2] (EN)Hartle, James B. (1998). Generalized Quantum Theory in Evaporating Black Hole Spacetimes (http:/ / xxx. lanl. gov/ abs/ gr-qc/ 9705022). Black Holes and Relativistic Stars. [3] (EN)Nikolic, Hrvoje (2009). Resolving the black-hole information paradox by treating time on an equal footing with space (http:/ / lanl. arxiv. org/ abs/ 0905. 0538) 678: 218–221. Collegamenti esterni • (EN) Black Hole Information Loss Problem (http://math.ucr.edu/home/baez/physics/Relativity/BlackHoles/ info_loss.html), una pagina USENET di domande frequenti di fisica. • (EN) " Do black holes destroy information? (http://xxx.lanl.gov/abs/hep-th/9209058)", John Preskill (1992), hep-th/9209058 (http://xxx.lanl.gov/abs/hep-th/9209058). Discute metodi di risoluzione del problema e le loro conseguenze apparenti. • (EN) Report (http://www.newscientist.com/news/news.jsp?id=ns99996193) on Hawking's 2004 theory at New Scientist • (EN) Report (http://www.nature.com/news/2004/040715/full/news040712-12.html) on Hawking's 2004 theory at Nature • (EN) Hawking, S. W. (July 2005), Information Loss in Black Holes, arxiv:hep-th/0507171 (http://arxiv.org/abs/ hep-th/0507171). La presunta soluzione di Stephen Hawking al paradosso dell'unitarietà del buco nero. • (EN) Hawking and unitarity (http://motls.blogspot.com/2005/07/hawking-and-unitarity.html): Una discussione aggiornata del paradosso della perdita di informazione e del contributo di Stephen Hawking. • (EN) The Hawking Paradox - BBC Horizon documentary (2005) (http://www.trilulilu.ro/hekateros/ 18cd80c910c7fa?video_google_com=) 129 Paradosso dell'ipergioco 130 Paradosso dell'ipergioco Il paradosso dell'ipergioco è un paradosso dovuto al matematico William Zwicker; esso è strettamente legato con il teorema di Cantor, di cui in effetti costituisce una dimostrazione alternativa. L'ipergioco viene definito come un particolare gioco in cui il primo giocatore sceglie il gioco a cui giocare, e il secondo inizia il gioco. Questa definizione, apparentemente semplice, nasconde tuttavia delle proprietà contraddittorie, che nascono dall'ambiguità della definizione di gioco. Formulazione del paradosso Definizioni preliminari Considerando l'insieme dei giochi a due giocatori, un gioco viene definito finito se termina necessariamente in un numero finito di mosse, con la vittoria di uno dei due giocatori o con il pareggio; un esempio semplice è il gioco del tris, che può durare al massimo nove mosse. Un gioco infinito è un gioco non finito, ovvero un gioco per il quale esiste almeno una strategia che porta a non concludere mai la partita, anche in presenza di un'altra strategia che la concluderebbe in un numero finito di mosse. Ad esempio è infinito il seguente gioco: il primo giocatore sceglie un numero naturale non primo, e i giocatori sommano alternativamente 1 o 2 al numero dell'avversario fino a quando non si ottiene un numero primo; se il primo giocatore sceglie un numero pari diverso da 2 ed entrambi continuano a sommare 2, il gioco non termina mai. È da notare che questa strategia non è ottimale, e qualunque giocatore potrebbe facilmente interromperla a suo vantaggio; la sua esistenza comporta comunque la non finitezza del gioco. L'ipergioco e il paradosso L'ipergioco è definito come il gioco in cui alla prima mossa un giocatore sceglie un gioco finito e lo comunica all'altro giocatore; alla seconda mossa questi inizia il gioco scelto dal primo giocatore. Il paradosso si genera nel momento in cui si cerca di determinare se l'ipergioco è o no un gioco finito. Infatti se l'ipergioco è infinito, il primo giocatore può scegliere un gioco finito, che dovrà terminare in mosse; quindi l'ipergioco termina in mosse ed è finito. Se invece l'ipergioco è finito, allora il primo giocatore può scegliere di giocare all'ipergioco, e così può fare a sua volta il secondo giocatore, e così via; se entrambi continuano a scegliere l'ipergioco, la partita non termina mai e l'ipergioco è infinito. Il paradosso nasce dall'ambiguità insita nella definizione di gioco: se infatti si decide a priori un insieme di giochi ben definiti (finiti e non finiti), e si limita il secondo giocatore a scegliere all'interno dei giochi finiti dell'insieme , si può applicare lo stesso ragionamento fatto, ma la conclusione in questo caso è semplicemente che l'ipergioco non fa parte dell'insieme , perché non può essere né un suo elemento finito né un suo elemento infinito, in analogia col paradosso di Russell riguardo agli insiemi e alle classi. Paradosso dell'ipergioco 131 Legame con il teorema di Cantor Il teorema di Cantor afferma che non esiste una corrispondenza biunivoca tra gli elementi di un insieme elementi del suo insieme delle parti costruzione di un sottoinsieme di e gli (ovvero i suoi sottoinsiemi); la dimostrazione del teorema è basata sulla che non può essere messo in corrispondenza con alcun elemento di . Il ragionamento di Zwicker corrisponde in effetti alla costruzione di un tale sottoinsieme, diverso da quello originale utilizzato da Cantor. Data infatti una corrispondenza definiamo sentiero una qualsiasi sequenza finita o infinita tale che per ogni termine ,o è l'ultimo termine, o il termine successivo appartiene a sempre possibile prolungare una sequenza finita ; in generale è aggiungendo un elemento di questo non sia l'insieme vuoto. Un elemento è detto normale se ogni sequenza che inizia con è finita. Si dimostra allora che l'insieme degli elementi normali non può essere messo in corrispondenza biuniovoca con nessun elemento di ogni , , a meno che , ovvero per . Infatti, supponendo per assurdo che esista per cui è vuoto, il sentiero è formato dal solo elemento normale, e tutti i sentieri che iniziano con ed è finito; se , costruiamo un sentiero che parte da contiene almeno un elemento . Se , questo è sono finiti; allora sono finiti anche tutti i sentieri che iniziano con , quindi è normale anche in questo caso. Questa parte di dimostrazione corrisponde alla considerazione per cui l'ipergioco è un gioco finito, perché dopo la prima mossa viene scelto un gioco finito. Tuttavia, se è normale, allora deve appartenere a , quindi è possibile costruire il sentiero infinito , il che renderebbe non normale, generando una contraddizione. In maniera analoga, se l'ipergioco è finito, allora i due giocatori possono continuare all'infinito a scegliere di giocare all'ipergioco. Bibliografia • Raymond Smullyan, Satana, Cantor e l'infinito, Milano, Bompiani, 1994. ISBN 8845222624 Voci correlate • • • • Autoreferenza Paradossi dell'infinito Teorema di Cantor Teoria degli insiemi Paradosso dell'onnipotenza Paradosso dell'onnipotenza Il paradosso dell'onnipotenza è un noto paradosso teologico e filosofico formulato in diverse forme: si chiede se un ente onnipotente possa creare un oggetto (un masso inamovibile, una costruzione indistruttibile) dotato di una caratteristica tale da mettere in crisi la sua stessa onnipotenza. La risposta che se ne ricava è la non esistenza dell'onnipotenza (si tratta quindi di un paradosso negativo o logico) perché se l'ente non è in grado di creare tale oggetto non sarebbe onnipotente, mentre se lo creasse avrebbe creato un qualcosa che di fatto limita la sua onnipotenza sconfessandola come tale; nel corso dei secoli sono state date diverse risposte e confutazioni. Interpretazioni logiche del paradosso • Per la consistenza logica, non può esistere nello stesso universo un oggetto inamovibile ed una forza irresistibile. Ovvero nella stessa "struttura logica" non possono essere vere contemporaneamente una certa affermazione (A) e la sua negazione (non A). Possibili confutazioni • Seguendo l'indicazione di Cartesio, Dio può creare qualcosa che non può spostare e, nonostante tutto, spostarla. In realtà si comprende bene, come anche è stato osservato in letteratura, che questa non è veramente una risposta, dal momento che se si rinuncia alla logica non ha neanche senso parlare di paradossi, consistenza o verità. • Una semplice confutazione consiste nell'osservare che se l'agire di Dio dovesse obbedire alle leggi della logica, Dio non sarebbe "onnipotente". Dio quindi è al di sopra della logica stessa e non si possono applicare le "misure" della logica umana alla sua natura; questo ragionamento che sposta il concetto di Dio definitamente oltre la logica però, se esteso, lo rende anche un oggetto totalmente insondabile dalla ragione umana e quindi anche da qualunque pretesa di voler parlare di esso in termini oggettivi e quindi validi per tutti gli uomini. • Dio potrebbe limitarsi a non creare ciò che poi non può spostare, così il paradosso anziché essere risolto verrebbe semplicemente aggirato. In effetti il fatto di essere onnipotenti significa poter fare ciò che si vuole e non necessariamente doverlo fare. • Se si pensa all'onnipotenza come alla possibilità di fare tutto ciò che si vuole, visto che Dio può non voler compiere certi atti (es: Dio non può mentire, Dio non può compiere azioni contro la sua natura), un Dio che sceglie di non andare contro la logica è comunque onnipotente[1], tuttavia non viene risposta alla domanda posta nel paradosso circa alla possibilità di dio di create tale oggetto. • Un'altra possibile confutazione è che il dilemma si fonda su un concetto traviato di onnipotenza: se a Dio manca il potere di autodistruggersi allora non è onnipotente. Però il potere di autodistruggersi non è veramente un potere ma quasi una debolezza quindi si ricade di nuovo nella definizione di Dio per cui dato che Dio non ha debolezze non ha nemmeno il potere di autodistruggersi come nemmeno quello di rinnegare se stesso. Questo non è un di meno quindi ma anzi è prova maggiore di onnipotenza. Se però il paradosso non fosse menomativo ma accrescitivo ricadremmo comunque nello stesso assurdo. Infatti può Dio creare un altro Dio suo pari? Questa domanda andrebbe contro il presupposto che Dio è eterno e che è unico. 132 Paradosso dell'onnipotenza Note [1] (EN) Godandscience.org: Can god truly be omnipotent? (http:/ / www. godandscience. org/ apologetics/ rock. html) Bibliografia • Cesare Catà, La Croce e l'Inconcepibile. Il pensiero di Nicola Cusano tra filosofia e predicazione, Macerata, 2009, cap. 1 Voci correlate • Paradosso dell'onniscienza • Tzimtzum Paradosso dell'onniscienza I paradossi teologici sono una famiglia di paradossi relativi a una data teologia, che manifestano una reale o apparente incongruità circa le asserzioni teologiche di una determinata religione. I paradossi possono vertere sia sugli attributi divini che sulle verità dogmatiche di quella determinata fede religione, ma possono a loro volta appartenere anche ad altre categorie di paradossi, come i paradossi filosofici. L'uso più frequente di questi paradossi è quello di mettere in crisi le convinzioni religiose o dei dubbi sulla divinità oggetto fede, mettendo in luce le possibili carenze logiche dell'impianto dogmatico sottostante; premessa maggiore per cui tali paradossi trovino fondamento è che tale impianto teologico, ovviamente, si rifaccia nella sua formulazione alle leggi della logica. Paradosso dell'onnipotenza • Enunciato: essendo dio onnipotente, può fare ogni cosa. • Paradosso: può dio creare qualcosa che non può spostare? Sia che si risponda sì alla domanda, sia che si risponda no, si dimostrerebbe che dio non è onnipotente, o perché non è in grado di creare un simile oggetto, o perché non è in grado di spostarlo. Questo paradosso vuole mostrare la contraddittorietà della qualità "onnipotenza" attribuita a dio. Paradosso dell'onniscienza • Enunciato: in quanto onnisciente dio conosce ogni cosa. • Paradosso: nessuno, nemmeno una divinità, può sapere ogni cosa. Supponiamo, infatti, che esista un insieme non vuoto "V" di tutte le possibili verità. Per ogni sottoinsieme S di V, e per un fissato elemento v di V, una delle due seguenti affermazioni deve essere vera: • L'elemento v appartiene ad S. • L'elemento v non appartiene ad S. Dunque, per ogni sottoinsieme S di V abbiamo definito una verità (la quale afferma appunto che v appartiene -oppure non appartiene- a S). Evidentemente, la famiglia di tutte queste verità è in corrispondenza biunivoca con l'insieme delle parti di V, e pertanto ne ha la stessa cardinalità. Inoltre, in quanto appunto costituita di verità, questa famiglia dovrebbe essere contenuta in V (poiché tale insieme per definizione contiene tutte le verità). Tuttavia, un noto risultato della teoria degli insiemi asserisce che l'insieme delle parti di un qualunque insieme V ha sempre cardinalità strettamente maggiore a quella di V. Ne segue in particolare che pure la famiglia di verità appena costruita avrà cardinalità maggiore di V, e dunque non potrà essere contenuta in esso. Perciò "V" non può essere l'insieme di tutte 133 Paradosso dell'onniscienza le verità. In modo analogo al precedente paradosso, il paradosso dell'onniscienza mostra la non-consistenza di un'attribuzione fondamentale di dio. Possibili confutazioni Ciò che in verità dimostra questo paradosso, è che la nostra idea mentale di "tutte le verità" ha una consistenza logica poco solida. Ovvero, in termini matematicamente più corretti, l'ente di tutte le verità non è propriamente un insieme, nel senso che per esso non sono validi gli assiomi di Zermelo - Fraenkel. Questo paradosso, dunque, non fornisce una contraddizione, bensì la dimostrazione del fatto che, appunto, l'oggetto formato da tutte le verità non è un insieme, infatti è una classe propria[1]. Paradosso dell'onnipotenza unita all'onniscienza • Enunciato: in quanto onnipotente dio può fare ogni cosa e in quanto onnisciente Dio conosce ogni cosa. • Paradosso: può dio fare qualcosa di diverso di quello che già sa che farà? In quanto onnisciente, dio conosce il futuro, quindi sa che farà una certa azione tra, poniamo, mille anni. Passato quel lasso di tempo, dio non può decidere di non fare quella azione o di compierne un'altra differente, quindi non è onnipotente. Questo paradosso vuole confutare la possibilità di un intervento arbitrario sull'universo, tramite l'onnipotenza, di un dio che sia dotato anche dell'onniscienza. Paradosso del Bene e del Male • Enunciato: Essendo Dio "infinitamente buono" o puro bene, non potrà mai causare o essere il male; essendo Dio "onnipresente" è presente in ogni cosa, in ogni momento, e in ogni luogo; essendo dio "onnipotente" può vincere contro ogni forza antagonista. • Paradosso: Assumendo l'esistenza del male in senso cristiano, o Dio non è onnipresente (altrimenti il diavolo sarebbe una sua parte), o Dio non è onnipotente (in quanto il diavolo esiste), o Dio non è infinitamente buono (poiché il diavolo sarebbe una creazione di Dio). L'argomento del paradosso costituisce l'oggetto della disciplina teologica tradizionale chiamata teodicea. Il paradosso - o questione dell'esistenza del Male - si può enunciare anche come la contraddizione stretta tra due soli principi: quello di onnipotenza e di bontà di Dio, senza attribuire alcuna rilevanza alla questione della "presenza". In tal caso la contraddizione ha solo due termini. Il diavolo (o il male) e Dio vengono così presi in considerazione solo in quanto "princìpi causali" indipendentemente da altre loro eventuali caratteristiche. In quest'ultimo caso le considerazioni o confutazioni centrate sulla questione della "onnipresenza" non sono valide. Una proposta di confutazione comune di questo paradosso riguarda la definizione del "male". È la questione che occupa più di frequente il dibattito teologico. L'obiezione più frequente è che il male è legato al "libero arbitrio" e non sarebbe possibile senza questo. Il libero arbitrio sarebbe la proprietà per cui la volontà di certe creature dipende solo da sé stessa, e non da dio. È facile riconoscere in questa idea una riformulazione del paradosso stesso piuttosto che una vera risposta. In senso logico causale, infatti: 1) Ha un significato affermare che una cosa, benché creata da dio, in nessun modo dipende da dio? 2) Il fatto di creare un essere dotato di capacità intrinseca di fare il male, e che quindi potrebbe dannarsi, non potrebbe essere di per sé essere già considerata una azione malvagia? (In quanto deliberatamente pericolosa e gratuita). In generale: il libero arbitrio è il concetto che viene più spesso portato a confutazione del paradosso, ma questo stesso concetto è opinabile e paradossale. L'idea che il "libero arbitrio" esista, o che la sua esistenza sia "buona", costituiscono assiomi indimostrabili, e non sono accettati da tutti. 134 Paradosso dell'onniscienza Infine, si osserva che la definizione di "male" dovrebbe essere consistente con la pratica (per esempio, tutti cercano di curare le malattie o di difendersi dalle catastrofi naturali, non considerano "male" solo le azioni prodotte da esseri umani) perciò è comunque difficile trovare una definizione di "male" che racchiude solo cose generate dal libero arbitrio, tralasciando per esempio il caso o la natura, che si assume creata da dio stesso, e mantenere allo stesso tempo una coerenza di discorso. Possibili confutazioni • Relative all'onnipresenza di dio. L'onnipresenza di dio non limita la sua dimensione all'universo: un dio potrebbe esistere in un numero maggiore di dimensioni spaziali rispetto all'universo e quindi essere onnipresente senza che il Diavolo ne sia una sua parte.[2] Inoltre non è detto che dio sia onnipresente; ad esempio nel cristianesimo dio è inteso come omni-agente, ma non onnipresente, cioè la creazione non è parte di dio. • Relative all'esistenza o definizione di male. Un altro problema del paradosso è la definizione di male: supponendo come definizione di male il risultato delle azioni delle creature (comprendendo sia l'uomo che il diavolo) dirette contro Dio, allora Dio non è responsabile del male, bensì lo sono le sue creature. Se il male non è "creato da Dio", ma manifestato da esseri dotati di libero arbitrio, il paradosso non è più tale. Per quanto detto nei paragrafi sopra, però, i sostenitori del paradosso non considerano il concetto di "libero arbitrio" come risposta al problema, dal momento che l'onnipotenza è troppo "forte" come principio logico-causale, mentre la condizione di "libertà" di un'altra creatura è vista come contraddittoria. Paradosso della salvezza • Enunciato: San Paolo nella Lettera ai Romani scriveva "Il giusto sarà salvato per la sua fede". Questa frase, secondo la Chiesa, specifica che l'uomo può salvarsi e raggiungere la salvezza grazie alle buone opere compiute in vita, il Giudizio Universale sarà il momento in cui Dio assegnerà grazia o dannazione a seconda delle gesta. • Paradosso: Se la salvezza del soggetto dipende dalla possibilità di scegliere autonomamente se essere dannato o no (scegliendo di compiere opere di bene), Dio non avrebbe alcuna possibilità di esercitare la sua potenza sugli uomini e gli uomini stessi sarebbero padroni esclusivi del proprio destino grazie al libero arbitrio. Tutto ciò ridurrebbe Dio a mero esecutore di una Legge superiore, ma nessuna forza o legge dovrebbe esser superiore a Dio, a meno che egli sia non onnipotente. Possibili confutazioni Un dio che esista in due dimensioni temporali può essere a conoscenza di ciò che ciascuno farà e portarsi ovunque nella nostra linea temporale per raggiungere i propri scopi. Il completo libero arbitrio e la completa predestinazione è possibile in due dimensioni temporali, benché questo concetto possa essere di difficile comprensione. [3] In realtà tale paradosso, secondo i suoi detrattori, nascerebbe principalmente da un'erronea interpretazione del passo citato. Lo stesso San Paolo scrive nella Lettera ai Romani (3, 23-24) Tutti hanno peccato e sono privi della gloria di Dio, ma sono giustificati gratuitamente per la sua grazia, in virtù della redenzione realizzata da Gesù Cristo. Questo passo potrebbe far pensare che tutti gli uomini saranno salvati, come ipotizzato da Hans Urs von Balthasar e Karl Rahner. La concezione di salvezza della Chiesa, a partire dalle lettere di San Paolo, non dipende dalle opere, infatti in virtù delle opere della legge nessun uomo sarà giustificato davanti a lui (Rm 3, 20), ma viene concessa gratuitamente, e sta al libero arbitrio dell'uomo accettarla o respingerla. Martin Lutero risolse questo paradosso affermando la predestinazione assoluta e l'inesistenza del libero arbitrio. Comunque non è assolutamente detto che Dio, avendo lasciato il libero arbitrio, diventi il freddo esecutore di una legge "superiore a lui stesso", dal momento che quella legge è stata decisa da lui medesimo. In effetti la formulazione stessa del paradosso non sembra in questo senso molto chiara. Piuttosto l'esistenza del libero arbitrio può mettere in luce la mancata onnipotenza di Dio, che così decide volontariamente di non influire sulle azioni umane. 135 Paradosso dell'onniscienza Note [1] Una classe propria può contenere altre classi o insiemi, ma non può essere contenuta da classi o insiemi [2] (EN) Godandscience.org: The theodice problem (http:/ / www. godandscience. org/ apologetics/ nogod. html#theodice) [3] (EN) Godandscience.org: God cannot be almighty and allow free will simultaneously (http:/ / www. godandscience. org/ apologetics/ nogod. html#almighty) Bibliografia • Michael Clark. I paradossi dalla A alla Z, Raffaello Cortina Editore, 2004, ISBN 8870789241. Collegamenti esterni • (http://www.godandscience.org/apologetics/nogod.html) Un elenco di paradossi con tentativi di confutazione, in lingua inglese. • (http://www.uaar.it/ateismo/inesistenza-di-dio/argomenti-non-credenti.html) Un altro elenco in italiano. Voci correlate • Elenco di paradossi • • • • • Logica Paradosso Teoria degli insiemi Questione ipotetica Noncognitivismo teologico Paradosso dell'uovo e della gallina Il paradosso retorico dell'uovo e della gallina può essere riassunto nella domanda retorica: "È nato prima l'uovo o la gallina?", che esemplifica la difficoltà insite nella formulazione di spiegazioni semplici a questioni inerenti alla cosmogonia e l'origine della vita. L'illogicità del paradosso si basa sulla semplice constatazione comune che le galline depongono le uova: quindi l'uovo non può esistere senza la gallina che l'ha deposto. Dalle stesse uova nascono altre galline, che a loro volta non possono perciò esistere senza presupporre l'uovo. Sono apparse prima queste uova o la gallina che Ripetendo il ragionamento all'infinito, si giunge all'impossibilità di le ha deposte? stabilire chi possa aver avuto origine per primo tra l'uovo e la gallina, poiché nessuno dei due soggetti può esistere in assenza dell'altro. Sebbene a questa apparente illogicità la scienza abbia da lungo tempo trovato una risposta, il paradosso rimane ancora valido per alcune delle questioni più interessanti della biologia moderna, e che concernono i rapporti tra DNA e proteine. Tale frase, più in generale, divenuta proverbiale ed entrata nell'immaginario collettivo, viene anche utilizzata, per estensione, come esempio di rompicapo logico o di ragionamento circolare. La frase viene inoltre utilizzata per enfatizzare l'inutilità o la futilità di un discorso o di una discussione, o in alternativa, l'incapacità di giungere a una conclusione concreta. 136 Paradosso dell'uovo e della gallina 137 Storia del paradosso Il paradosso viene già citato dagli antichi filosofi greci quali Aristotele e Plutarco[1] Ma il primo che lo formula nel modo in cui lo conosciamo oggi è Ambrogio Teodosio Macrobio nella sua opera Saturnalia in cui prova a darne una risposta motivata: (LA) (IT) « "Ovumne prius exiterit an gallina?"... ovum prius a « "È nato prima l'uovo o la gallina?" ...si ritiene, a ragione, che natura factum iure aestimabitur. Semper enim quod incipit inperfectum adhuc et informe est et ad perfectionem sui per procedentis artis et temporis additamenta formatur: ergo natura fabricans avem ab informi rudimento coepit, et ovum, in quo necdum est species animalis, effecit: ex hoc perfectae avis species extitit procedente paulatim maturitatis effectu. » l’uovo sia stato creato per primo dalla natura. Infatti per primo ha origine ciò che è imperfetto e per giunta informe e attraverso qualità e tappe progressive prendono forma le aggiunte (intese come le caratteristiche dell’individuo adulto): dunque la natura cominciò a formare l’uccello da materia informe e produsse l'uovo, nel quale non vi è ancora la specie di animale: da questo a poco a poco ha origine una specie perfetta di uccello in seguito a un progressivo effetto di maturazione. » ( *Ambrogio Teodosio Macrobio, Saturnalia VII,16 ) Per una maggiore completezza di informazioni riguardo alla problematica dell'origine della vita e della cosmologia, nonché della natura stessa del paradosso, affrontata dalla filosofia greca, occorre approfondire la conoscenza di Parmenide e dei paradossi di Zenone che corrispondono all'antecedente filosofico dei già citati Aristotele e Plutarco. Considerando che l'uovo non è altro che una fase dell'esistenza nella vita di una gallina dovrebbe essere pacifico affermare, sia scientificamente che telogicamente, che il paradosso non è nient'altro che una domanda trabocchetto: è nata senz'altro prima la gallina! Infatti l'animale nel corso dello sviluppo attraversa diverse fasi sin dalla meiosi all'interno delle ovaie del genitore (che poteva essere gallina anch'esso o no) passando per la fase in utero, uovo, alla schiusa, neonato (pulcino), pollastro ed, infine, gallina! Insomma l'uovo è gallina e la domanda, ridotta ai minimi termini, si riduce all'enunciato: "è nata prima la gallina o la gallina?". Risposta scientifica al paradosso Da un punto di vista strettamente scientifico, la risposta alla domanda da cui scaturisce il paradosso è piuttosto semplice, e non può essere altro che: "l'uovo". Per comprendere questa risposta, occorre considerare che, da un punto di vista evoluzionistico, gli uccelli (e dunque anche le galline) derivano da determinati ceppi di rettili, animali a sangue freddo dotati della capacità di deporre uova. Il diretto predecessore degli uccelli, perciò, deponeva già le uova, pur non essendo ancora, in senso stretto, un uccello né tanto meno una gallina. Riformulazioni moderne del paradosso Una moderna versione del paradosso dell'uovo e della gallina può essere trovata in una questione che fino a pochissimi anni fa ha occupato gli scienziati genetisti ed evoluzionisti: l'impossibilità di capire se, nei processi che hanno portato all'origine della vita come noi la conosciamo oggi, sia comparso prima il DNA o prima le proteine. Si sa, infatti, come il DNA sia il depositario dell'informazione genetica degli esseri viventi, e di come queste informazioni (costituite da una sequenza di molecole dette basi) siano essenziali per la produzione di proteine, molecole responsabili della gran parte delle funzioni che sono alla base dei processi conosciuti come "vita". Perché possa avvenire la produzione di proteine a partire dal DNA, tuttavia, è necessaria la contemporanea presenza di altre proteine (dette enzimi) senza le quali tale processo, detto traduzione, non può avvenire. Inoltre, in condizioni normali, il DNA stesso degrada in fretta se non è legato a specifiche proteine, e la sua replicazione è di fatto impossibile. Per contro, naturalmente, viene da chiedersi come possano esistere le proteine se non sintetizzate in base alle informazioni codificate nel DNA. Questo paradosso ha impegnato gli scienziati per molti anni, e una possibile soluzione è giunta solo in tempi recenti, con la scoperta dei ribozimi, molecole di RNA capaci di immagazzinare informazione genetica al pari del DNA, ma dotate anche di capacità catalitiche proprie degli enzimi. Questa scoperta Paradosso dell'uovo e della gallina sembra perciò aver risolto anche questo paradosso, aprendo inoltre la strada alla teoria del mondo a RNA precedente al DNA e alla nascita stessa della vita- una teoria che, seppur convincente, è ancora allo studio da parte degli scienziati. Per ragioni evoluzionistiche si potrebbe però sostenere che non si dovrebbe poter parlare di un cambiamento di specie durante la vita di un individuo: “un particolare organismo non può cambiare specie durante il corso della sua vita”, ha sostenuto Roy A. Sorensen[2]: ne consegue che la prima gallina sicuramente tale, nata dall’uccello (gallinaceo) che si è mutato in gallina, è nata da un uovo, il primo della sua specie. Risposta teologica al paradosso Da un punto di vista creazionista ebraico-cristiano si può procedere ad un'esegesi letterale degli eventi descritti nella genesi biblica, comprendendo gli uccelli fra gli esseri creati "il quinto giorno". Poiché la Bibbia non menziona le uova, ne deriverebbe una creazione degli uccelli in forma già adulta: da un punto di vista creazionista, quindi, il paradosso ammette un'immediata soluzione, che prevede la "nascita" prioritaria della gallina rispetto all'uovo. Note [1] Plutarco, Moralia, libro III. [2] Roy A. Sorensen, The chicken and Her Egg, Mind, 1992, p. 101 Bibliografia • Paul Davies, Da dove viene la vita, Arnoldo Mondadori Editore, Milano, 2000. Voci correlate • Paradosso • Retroazione (natura) 138 Paradosso della linea scomparsa 139 Paradosso della linea scomparsa Il paradosso della linea scomparsa è un paradosso geometrico per cui una linea sembra scomparire nel nulla. Si consideri l'immagine seguente: Nella parte superiore sono tracciate dieci linee verticali. Si tagli il foglio secondo la linea tratteggiata e lo si ricomponga come nella figura inferiore. Ora le linee sono diventate nove. Soluzione Il paradosso è facilmente superabile constatando che la lunghezza della linea scomparsa si è suddivisa equamente tra le altre linee che sono ora più lunghe. È anche da notare che la prima e l'ultima linea del disegno superiore non vengono affatto tagliate. Varianti Esistono molte varianti di questo paradosso, a volte rese più spettacolari grazie a rappresentazioni di oggetti che scompaiono. Un simile trucco, applicato al contrario, è utilizzato per falsificare le banconote. Da dieci banconote è possibile ottenerne undici leggermente più corte. La ripetizione del numero di serie su due angoli estremi delle banconote ha la funzione di prevenire questo trucco. Occorre sempre verificare che i due numeri corrispondano, in particolare se la banconota è stata riparata con nastro adesivo. Paradosso della nave di Teseo Paradosso della nave di Teseo Il Paradosso della nave di Teseo esprime la questione metafisica dell'effettiva persistenza dell'identità originaria, per un'entità le cui parti cambiano nel tempo; in altre parole, se un tutto unico rimane davvero se stesso (oppure no) dopo che, col passare del tempo, tutti i suoi pezzi componenti sono cambiati (con altri uguali o simili). Si narra che la nave in legno sulla quale viaggiò il mitico eroe greco Teseo fosse conservata intatta nel corso degli anni, sostituendone le parti che via via si deterioravano. Giunse quindi un momento in cui tutte le parti usate in origine per costruirla erano state sostituite, benché la nave stessa conservasse esattamente la sua forma originaria. Ragionando su tale situazione (la nave è stata completamente sostituita, ma allo stesso tempo la nave è rimasta la nave di Teseo), la questione che ci si può porre è: la nave di Teseo si è conservata oppure no? Ovvero: l'entità (la nave), modificata nella sostanza ma senza variazioni nella forma, è ancora proprio la stessa entità? O le somiglia soltanto? Tale questione si può facilmente applicare a innumerevoli altri casi; per esempio alla scrupolosa conservazione di alcuni antichi templi giapponesi (anch'essi principalmente in legno, come la nave di Teseo), per i quali ci si può domandare se siano ancora templi originali. Si può anche rivolgere il paradosso riguardo all'identità della nostra stessa persona, che nel corso degli anni cambia ampiamente, sia nella sostanza che la compone sia nella sua forma, ma nonostante ciò sembra rimanere quella stessa persona. Voci correlate • Elenco di paradossi • Ontologia (accezione filosofica) • Usiologia 140 Paradosso della votazione Paradosso della votazione Il Teorema dell'impossibilità di Arrow, o semplicemente teorema di Arrow, è un teorema formulato nel 1951 dal Premio Nobel per l'economia Kenneth Arrow nel libro Social Choice and Individual Values. Esso dice che, dati i requisiti, spiegati più avanti, di universalità, non imposizione, non dittatorialità, monotonicità, indipendenza dalle alternative irrilevanti, non è possibile determinare un sistema di votazione che preservi le scelte sociali. Lo scopo era trovare una qualsiasi procedura di decisione collettiva che potesse soddisfare alcuni requisiti ragionevoli per una scelta non arbitraria. Un esempio di una procedura che non può soddisfare tutti i requisiti considerati da Arrow è il sistema di voto maggioritario come mostrato dal paradosso di Condorcet. Il paradosso di Condorcet mostra come la votazione a maggioranza, usata nella democrazia rappresentativa, può condurre a delle scelte ambigue: partendo dalle preferenze individuali, si vuole arrivare ad una preferenza collettiva pure coerente (se A è preferito a B, e B è preferito a C, allora A deve essere preferito a C). Come detto, il paradosso di Condorcet mostra che ciò non è sempre il caso per le preferenze collettive. Jean-Charles de Borda ha proposto un'altra procedura, detta conteggio di Borda, che consiste nell'attribuire dei punti e fare la somma, la quale non ha questo difetto, ma il teorema di Arrow ci dice che ci deve essere un requisito che non è soddisfatto: l'indipendenza dalle alternative irrivelanti. In italiano il nome del teorema non è ambiguo, mentre in inglese si preferisce la versione estesa per evitare confusione con un ipotetico teorema della freccia. La dimostrazione del teorema comporta, sorprendentemente, l'impossibilità di soddisfare simultaneamente tutti i requisiti considerati da Arrow. Illustrazione ed enunciato del teorema Si ipotizzi che una società necessiti di adottare un ordine di preferenze tra diverse opzioni. Ciascun individuo della società ha un proprio ordine di preferenza, che può esprimere per esempio tramite un voto. Il problema è quello di trovare una procedura (per esempio un sistema di voto), più in generale chiamato una funzione di scelta pubblica, che trasformi l'insieme delle preferenze individuali in un ordinamento globale coerente. Il teorema considera le seguenti proprietà, che Arrow ipotizza rappresentare requisiti ragionevoli per un sistema di voto equo: • Universalità (o dominio non ristretto): la funzione di scelta sociale dovrebbe creare un ordinamento delle preferenze sociali deterministico e completo, a partire da qualsiasi insieme iniziale di preferenze individuali; • Non imposizione (o sovranità del cittadino): qualsiasi possibile preferenza sociale deve essere raggiungibile a partire da un appropriato insieme di preferenze individuali (ogni risultato deve poter essere raggiunto in qualche maniera); • Non dittatorialità: la funzione di scelta sociale non deve semplicemente seguire l'ordinamento delle preferenze di un individuo o un sottoinsieme di individui, al contempo ignorando le preferenze degli altri; • Monotonicità, o associazione positiva tra i valori individuali e sociali: se un individuo modifica il proprio ordinamento di preferenze promuovendo una data opzione, la funzione di scelta sociale deve promuovere tale opzione o restare invariata, ma non può assegnare a tale opzione una preferenza minore (nessun individuo dovrebbe essere in grado di esprimersi contro un'opzione assegnandole una preferenza maggiore); • Indipendenza dalle alternative irrilevanti: se si confina l'attenzione ad un sottoinsieme di opzioni, e la funzione di scelta sociale è applicata ad esse soltanto, il risultato deve essere compatibile con il caso in cui la funzione di scelta sociale è applicata all'intero set di alternative possibili. Il teorema di Arrow afferma che se il gruppo di cittadini votanti comprende almeno due individui e l'insieme delle alternative possibili almeno tre opzioni, non è possibile costruire una funzione di scelta sociale che soddisfi al contempo tutti i requisiti sopra enunciati. Secondo una versione alternativa del teorema di Arrow, il requisito di monotonicità è rimpiazzato da: • unanimità (o criterio paretiano, o efficienza paretiana): se ogni singolo individuo preferisce una certa opzione A all'opzione B, allora A deve essere preferita a B anche da parte della funzione di scelta sociale. 141 Paradosso della votazione 142 Tale formulazione è più restrittiva, in quanto ipotizzare sia la monotonicità che l'indipendenza dalle alternative irrilevanti implica l'efficienza paretiana. Va tuttavia detto che la teoria paretiana dell'efficienza nel liberismo è stata falsificata dal premio Nobel per l'Economia Amartya Sen. Formulazione logica Facciamo le seguenti ipotesi. Siano V l'insieme dei voti, A e B i candidati. Per semplicità, consideriamo il caso senza schede nulle o bianche e senza possibilità di pareggio (casi che sono sempre riconducibili a questo eliminando da V i voti nulli o in bianco, e ricorrendo eventualmente al ballottaggio). Detto VA l'insieme dei voti per A, risulta completamente determinato VB, in quanto non è altro che il complementare, VB = V - VA . Un'altra ipotesi è che se VA è sufficiente ad A per vincere, egli vince anche se prende più voti. Nelle votazioni a maggioranza, il minimo di tali insiemi di voti è la metà più uno di V. Ogni insieme che permetta la vittoria di un candidato (poniamo A) è detto insieme decisivo. Chiamiamo l'insieme degli insiemi decisivi a favore di A. In termini matematici abbiamo postulato che, detto X un insieme decisivo per A su V: 1. Se X è contenuto in Y, allora Y appartiene ad 2. Ogni voto sta in X o nel suo complementare. 3. O X o il suo complementare è decisivo. . Queste proprietà sono molto vicine a quelle di un filtro su V, mancando solamente quella della chiusura rispetto all'intersezione. Mostreremo dunque che l'ipotesi della monotonicità, ossia che se A vince su B, e B vince su C, allora A vince su C, è equivalente alla chiusura rispetto all'intersezione degli insiemi decisivi di V. Quanto sopra è l'enunciato del teorema. Dimostrazione Supponiamo che non sia decisivo. Allora, per la proprietà 3, lo è il suo complementare . Quindi, se X fa vincere A su B, e Y B su C, vediamo come ogni votante esprimerebbe le sue preferenze: 1. per ogni elettore di A vince su B, e B su C (ABC) 2. per ogni elettore di 3. per ogni elettore di 4. per ogni elettore di B su C, e B su A (BCA) C su B, e A su B (CAB) C su B, e B su A (CBA) Allora A vince su B perché X è decisivo, B vince su C perché è decisivo Y e C vince su A perché è decisivo. Quindi abbiamo il paradosso di Condorcet. Viceversa, dato un qualunque ordine delle prefenze, siano X, Y e Z rispettivamente i votanti che preferiscono A a B, B a C ed A a C. Tutti e tre sono decisivi. Vediamo ora che ogni votante di preferisce A a B, e B a C, e poiché l'ordine individuale è lineare, A a C. Dunque . E dunque, poiché è decisivo, lo è anche Z. Per le proprietà viste prima, gli insiemi decisivi che rispettano la chiusura rispetto all'intersezione formano un ultrafiltro, e dato che l'insieme dei votanti è, per fortuna, finito, anche un filtro principale. Esiste, dunque, un singolo votante, che Arrow chiama il dittatore, che da solo determina il risultato della votazione: egli è l'intersezione di tutti gli insiemi decisivi. Quindi, con le ipotesi che abbiamo fatto, delle due l'una: o accettiamo il paradosso di Condorcet, e quindi l'esito delle votazioni dipende dall'ordine in cui vengono effettuate, oppure in un sistema che esclude questa possibilità, ogni insieme decisivo comprende un dittatore, ossia un votante che da solo determina il risultato della votazione. Entrambe le possibilità sono in contrasto con l'idea istintiva di democrazia rappresentativa, che è quindi matematicamente impossibile. Contrariamente a quanto possa sembrare, sono possibili alternative che consentano ad una Costituzione di attuare una democrazia rappresentativa senza il paradosso di Condorcet, però queste forme devono necessariamente rinunciare ad una o più delle ipotesi viste in precedenza. Data la semplicità delle ipotesi di partenza, e la complessità della spiegazione del perché sono inaccettabili, è arduo ipotizzare che sia possibile far varare una legge elettorale conforme alle soluzioni prospettate. Paradosso della votazione Interpretazioni Il teorema di Arrow è un risultato matematico, ma è spesso espresso in termini non matematici, con affermazioni come: nessun sistema di voto è equo, qualunque sistema di voto può essere manipolato, o il solo sistema di voto non manipolabile è la dittatura. Queste affermazioni rappresentano semplificazioni del risultato di Arrow che non si possono considerare universalmente vere. Arrow usa il termine fair (equo) con riferimento ai suoi criteri. In effetti alcuni di essi, quali l'ottimo paretiano o la richiesta di assenza di imposizioni, possono apparire banali. Non così, ad esempio, per il criterio dell'indipendenza dalle alternative irrilevanti. Si consideri il seguente esempio: Dave, Chris, Bill e Agnes concorrono per uno stesso posto di lavoro; si supponga che Agnes abbia un chiaro vantaggio rispetto agli altri concorrenti. Ora, in base al risultato di Arrow, si potrebbe avere una situazione in cui, se Dave si ritira, Bill, e non Agnes, ottiene il posto. Ciò potrebbe apparire non equo a molti; tuttavia il teorema di Arrow implica che situazioni di questo tipo non possono in generale essere evitate. Diversi teorici, e non, hanno proposto di rilassare, ossia rendere meno restrittivo, il criterio dell'indipendenza dalle alternative irrilevanti al fine di risolvere il paradosso. I fautori di sistemi di voto basati su ordinamenti delle alternative affermano che il criterio sarebbe restrittivo senza ragione, e che non troverebbe applicazione nella maggioranza delle situazioni concrete. In effetti, tale criterio è escluso da diversi meccanismi di voto di comune impiego, così come in generalizzazioni quali il metodo di Borda. Il teorema di Gibbard-Satterthwaite, un tentativo di rilassare le condizioni che portano al risultato di Arrow, sostituisce al criterio dell'indipendenza dalle alternative irrilevanti un criterio di non-manipolabilità. Il teorema, tuttavia, giunge alle stesse conclusioni (paradossali) di Arrow, dimostrando così l'equivalenza tra il criterio dell'indipendenza dalle alternative irrilevanti e la non-manipolabilità. In conclusione, il teorema di Arrow mostra che il voto è un gioco non banale, e che la teoria dei giochi potrebbe essere impiegata per predire l'esito della maggior parte dei meccanismi di voto. Ciò potrebbe essere interpretato come un risultato scoraggiante, dal momento che un gioco non ha necessariamente un equilibrio efficiente (o desiderabile dal punto di vista sociale). L'alternativa sarebbe di traslare i risultati ottenuti da Sen nel campo dell'economia, al campo della politica elettorale, che però richiedono di rilassare una delle condizioni viste all'inizio. Conseguenze Nel 1970, applicando lo stesso principio di Arrow, il Premio Nobel per l'economia Amartya Sen ha mostrato l'impossibilità matematica del liberismo paretiano. Tramite una generalizzazione del metodo ad insiemi di vettori ad n dimensioni, l'economista Herbert Scarf ha mostrato nel 1962 l'inesistenza della mano invisibile per mercati con più di due beni i cui prezzi siano interdipendenti. Il risultato di Arrow rappresenta uno dei primi approcci alle scienze sociali tramite il formalismo matematico; tramite questo e altri lavori Kenneth Arrow ha contribuito significativamente all'evoluzione dell'economia politica nel corso del XX secolo nella direzione di un maggior rigore matematico. 143 Paradosso della votazione Voci correlate • • • • • • Amartya Sen Mano invisibile Paradosso Paradosso di Condorcet Teorema di Gibbard-Satterthwaite Teorema di May Bibliografia • Arrow, K.J., A Difficulty in the Concept of Social Welfare [1], Journal of Political Economy, 58, 328–346, 1950 • Arrow, K.J., Social Choice and Individual Values, Yale University Press, 1951, ISBN 0300013647. Liberamente scaricabile da [2], sia la versione del 1951 che del 1963. • Ed. Italiana: "Scelte sociali e valori individuali", Etas, 2003, ISBN 8845312224 • MacKay, A.F., Arrow's Theorem: The Paradox of Social Choice, Yale University Press, New Haven, 1980 • Odifreddi, P., C'era una volta un paradosso - storie di illusioni e verità rovesciate, Einaudi, 2001, ISBN 8806150901 • Scarf, H.E., An analysis of markets with a large number of participants [3], 1962, Princeton University Conference Paper. Presente in Recent Advances in Game Theory, Philadelphia, The Ivy Curtis Press, 1962 • Sen, A.K. "The Impossibility of a Paretian Liberal", Journal of Political Economy, n. 78, 1970, pp 152-157. Collegamenti esterni • • • • Three Brief Proofs of Arrow’s Impossibility Theorem [4] Discussion of Arrow’s Theorem and Condorcet’s method [5] The Solution to Arrow's problem [6] Sito personale [7] di Herbert Scarf Note [1] [2] [3] [4] [5] [6] [7] http:/ / gatton. uky. edu/ Faculty/ hoytw/ 751/ articles/ arrow. pdf http:/ / cowles. econ. yale. edu/ P/ cm/ cfmmain. htm http:/ / cowles. econ. yale. edu/ ~hes/ pub/ analysis. pdf http:/ / ideas. repec. org/ p/ cwl/ cwldpp/ 1123r3. html http:/ / www. electionmethods. org/ Arrow. htm http:/ / econwpa. wustl. edu:8089/ eps/ get/ papers/ 9707/ 9707001. html http:/ / cowles. econ. yale. edu/ ~hes/ 144 Paradosso delle due buste Paradosso delle due buste Il paradosso delle due buste deriva da un ragionamento logico-matematico, apparentemente ineccepibile, che dimostra che, tra due buste di valore diverso, ma dichiarate esternamente indistinguibili, una volta scelta una delle due conviene comunque cambiarla. In realtà, come è intuitivo, il guadagno atteso da uno scambio delle buste all'ultimo momento dovrebbe essere mediamente nullo, ma, nella situazione prospettata, risulta piuttosto sottile individuare se sia fallace l'enunciato, il ragionamento logico o l'intuito. L'analisi di questo paradosso richiama l'attenzione sulla valutazione non sempre banale della probabilità condizionata e sui limiti dell'ipotesi di equiprobabilità per eventi con cause sconosciute. Situazione In un ipotetico gioco a premi, al concorrente vengono presentate due buste chiuse, ciascuna contenente l'indicazione di un premio in denaro, che il concorrente riceverà, se la sceglie. È noto che il valore indicato in una busta è esattamente il doppio di quello dell'altra, ma non si sa quale delle due contenga il premio maggiore. Il concorrente può ottenere il premio di una sola busta, ma gli viene data la possibilità di effettuare la scelta definitiva anche dopo aver aperto a suo piacere una busta ed averne visto il valore. Paradosso • Sembra evidente che: 1. non c'è differenza nella scelta dell'una o dell'altra busta, prima dell'apertura. 2. la conoscenza del valore di una busta non aggiunge informazioni alla domanda se questo sia maggiore o minore dell'altro. Quindi non c'è alcun motivo per preferire l'una o l'altra busta, prima di averle aperte entrambe. • Tuttavia, applicando la teoria delle decisioni, si giunge alla conclusione paradossale che sia sempre conveniente scegliere l'altra busta. Infatti, se nella busta che si sceglie di aprire per prima è contenuto, diciamo, un premio di valore A, nell'altra busta sarà contenuto un premio di valore A/2, oppure un premio di valore 2A. In caso di cambio: se andasse male, si dimezzerebbe il premio (perdita=A/2) ma, se andasse bene, si raddoppierebbe (guadagno=A). Sulla base delle informazioni a nostra disposizione nessuna delle due eventualità - che si perda A/2 o che si vinca A - appare favorita rispetto all'altra, dunque la strategia più ragionevole sembrerebbe quella di considerare entrambe le opzioni equiprobabili, con probabilità 1/2 e 1/2. Quindi conviene certamente tentare la sorte, e scegliere di cambiare la busta, vista la netta differenza tra possibile guadagno e possibile perdita. In termini matematici, se calcoliamo il guadagno atteso che si ha cambiando busta (probabilità di guadagnare moltiplicata per il valore del guadagno, meno probabilità di perdere moltiplicata per il valore della perdita), otteniamo: una quantità che è positiva per qualsiasi valore di A. Concludiamo che conviene sempre cambiare busta, a prescindere dal valore che troviamo in quella scelta per prima (e quindi anche senza averci guardato dentro!). Ciò che sembra palesemente assurdo. 145 Paradosso delle due buste Se è davvero assurda l'affermazione che conviene sempre cambiare, rimane il problema di individuare la fallacia dell'argomentazione appena presentata. Soluzione Il ragionamento si basa sulle due condizioni: 1. probabilità del 50% per il caso favorevole e altrettanto per quello contrario; 2. conoscenza del valore del premio contenuto in una busta. Queste assunzioni sarebbero entrambe corrette di per sé, ma non lo sono contemporaneamente. Infatti si riferiscono a due casi ben distinti: Caso 1 - buste chiuse, nessun paradosso • Chiamiamo X il premio minore e Y il premio maggiore. I valori non sono noti, ma sappiamo che Y vale il doppio di X (Y = 2X) e che sono distribuiti in modo equiprobabile tra le due buste. Se si apre prima la busta con X, cambiando si troverebbe Y (=2X), con un guadagno pari a Y-X=X. Se si apre prima la busta con Y, cambiando si troverebbe X, stavolta con un perdita netta pari a Y-X=X . Si vede dunque il guadagno e la perdita sono uguali ed equiprobabili, come intuitivamente doveva essere. Tornando al ragionamento iniziale del paradosso, bisogna tener presente che il valore A, trovato all'apertura della prima busta, vale una volta X e una volta Y, a seconda di quale busta si sia scelta per prima. È sbagliato quindi dire che una perdita pari ad A/2 (quando si cambia dopo aver aperto prima la busta col valore maggiore, e A=Y=2X) sia diversa da un guadagno pari ad A (quando si cambia dopo aver aperto prima la busta col valore minore, e A=X). In realtà la perdita in un caso è uguale al guadagno nel caso opposto. Caso 2 - una busta aperta • chiamiamo A il valore trovato nella busta aperta. Stavolta la vincita può essere solo A e la perdita solo A/2. Ma non possiamo più affermare con certezza che la probabilità tra i due casi sia la stessa. Essa dipende fortemente dal valore di A, in relazione alla distribuzione di probabilità dei premi possibili. Intuitivamente potremmo dire che, se abbiamo trovato un premio alto, ci conviene accontentarci e, se abbiamo trovato un premio basso, ci conviene tentare l'altra busta. In altre parole, tutto dipende dal criterio con cui sono stati scelti i premi da inserire nelle buste e da quale sia il premio massimo possibile. Premio massimo definito Supponiamo, ad esempio, che il premio maggiore nella buste sia stato scelto a caso (con uguale probabilità) tra zero e 2 milioni, come valore massimo. Di conseguenza il premio minore sarà compreso tra zero e un milione, con la stessa distribuzione di probabilità. In queste condizioni, se il valore A trovato nella prima busta è inferiore ad un milione abbiamo una buona probabilità di guadagnare nel cambio (guadagno medio atteso pari ad A/2, con A che vale mediamente mezzo milione)[1]. Ma, ovviamente, avremmo la certezza di una perdita, se cambiassimo quando A è maggiore di un milione (guadagno medio atteso pari a "meno A/2", con A che in questo caso vale mediamente un milione e mezzo = 3/2 di milione) ! Se decidessimo di cambiare in ogni caso, ci accorgeremmo che, a conti ben fatti, il valore atteso del guadagno sarebbe esattamente zero. Infatti, calcolando correttamente il valore della perdita per la probabilità di perdere, si trova un risultato uguale al valore del guadagno per la probabilità di vincere. (C'è infatti una probabilità 3/4[2] di trovare un valore compreso tra zero e un milione, con guadagno medio di 1/4 di milione, e una probabilità 1/4[2] di 146 Paradosso delle due buste trovare un valore compreso tra un milione e due milioni, con perdita media di 3/4 di milione) Anche in questo caso il paradosso scompare. Il ragionamento iniziale non è applicabile, in quanto non tiene conto del limite massimo dei premi né della conseguente diversa probabilità di aver scelto per prima la busta col premio maggiore o col premio minore. Nessun limite al premio Se non stabiliamo il valore massimo del premio, implicitamente ammettiamo che esso possa diventare teoricamente infinito. Conservando l'ipotesi che i premi siano stati scelti a caso, con distribuzione uniforme (l'unica che possiamo ipotizzare in mancanza di altre indicazioni), resta matematicamente valida la conclusione che conviene cambiare solo se il valore trovato nella prima busta è inferiore alla metà del massimo e che non conviene in caso contrario. Ma questa volta, se il massimo è infinito, anche la metà del massimo è infinita e, siccome i confronti tra grandezze infinite non seguono esattamente le regole dei confronti tra grandezze finite, il paradosso rimane e può essere spiegato semplicemente ricordando che spesso l'infinito si comporta in modo paradossale[3] o meglio, in modo contro-intiuitivo. In questo caso, ad esempio, qualunque valore (finito) trovassimo nell'aprire la prima busta, esso sarebbe certo inferiore alla metà del massimo (infinito) e quindi avremmo (sempre) buone probabilità di guadagnare nel cambio. Nella pratica non possiamo mai immaginare di trovare una busta con dentro un valore infinito, né avrebbe senso stabilire se tale valore (infinito) sia minore o maggiore della metà del massimo (anch'esso infinito). Perciò trascuriamo completamente di conteggiare il peso di queste eventualità teoriche, e concludiamo che conviene sempre cambiare. Invece anche in questo caso, a conti ben fatti, la scelta di cambiare 'sempre' comporta un guadagno atteso nullo, se si mette debitamente in conto il peso di perdite (o guadagni) infiniti. Cenno storico Una formulazione analoga a questo paradosso risale almeno al 1953, quando un matematico belga, Maurice Kraitchik, propose questo rompicapo: Due persone, ugualmente ricche arrivano a confrontare il contenuto dei loro portafogli, di cui nessuno dei due conosce il contenuto esatto. Impostano il gioco in questi termini: chi ha meno denaro nel portafoglio riceverà tutto il denaro del portafoglio dell'altro (niente accade, se i due valori sono uguali). Uno dei due può così ragionare: Supponiamo che ho una quantità A nel mio portafoglio: questo è il massimo che potrei perdere. Se invece vinco (probabilità 0,5), alla fine avrò nel mio portafoglio un valore certamente maggiore di 2A. Quindi il gioco è favorevole a me. L'altro può ragionare esattamente allo stesso modo. In effetti, per simmetria, il gioco è pari. Dov'è dunque l'errore nel ragionamento di ciascun uomo? Martin Gardner ha reso popolare il rompicapo nel suo libro del 1982 Aha! Gotcha, sempre nella forma di scommessa sul portafoglio. Nel 1989 Barry Nalebuff lo ha presentato nella forma delle due buste e, da allora, questa è la forma più comunemente usata. 147 Paradosso delle due buste Approfondimenti matematici Caso 1 Prima di aprire le buste, è corretto assegnare ad una busta il 50% di probabilità di contenere il premio maggiore (o minore). Si corre però il rischio di sbagliare, se si assegna al premio un valore X, e se si ragiona una volta come se questo X fosse il premio maggiore, ma subito dopo come se lo stesso X fosse il premio minore. Si può comunque evitare l'analisi della variabile stocastica X, semplicemente assegnando alle due buste valori di premio pari a X e a 2X. Questa assegnazione, valida qualunque sia la distribuzione di probabilità dei premi, permette di definire correttamente la differenza tra le due buste. Tale differenza, nel caso di scambio, corrisponde alla perdita a cui si va incontro, se la prima busta contiene il valore maggiore, ma anche al guadagno che si ottiene, se la prima busta contiene il valore minore. Caso 2 Supponendo di conoscere il valore del premio contenuto in una busta, e volendo tener conto di come questa informazione possa influire sulla decisione di cambiare, diventa indispensabile formulare un'ipotesi sulla distribuzione di probabilità con cui siano stati scelti i premi nelle buste. Con qualche passaggio matematico si dimostrare che, in ogni caso, qualunque sia questa distribuzione, il cambio comporta un guadagno atteso nullo. Distribuzione uniforme • Sappiamo che ad ogni valore Y, che possa essere inserito nella busta di valore maggiore, è associato un valore X=Y/2 che deve essere inserito nella busta di valore minore. • Chiamiamo x il valore minore e y il valore maggiore contenuti nella coppia di buste in gioco. Possiamo supporre che y sia stato scelto a caso da una distribuzione uniforme tra un minimo m e un massimo M. Chiamiamo p(y) questa distribuzione di probabilità. Di conseguenza x risulta scelto a caso in un intervallo metà, da m/2 a M/2, con una distribuzione uniforme di valore doppio p(x)= 2p(y). • Dunque il valore A che troveremo nella prima busta avrà probabilità: 1. 2. 3. 4. p(x) (m-m/2) di appartenere alla classe delle x, nell'intervallo da m/2 a m. - Nello scambio si guadagna A. p(x) (M/2-m) di appartenere alla classe delle x, nell'intervallo da m a M/2. - Nello scambio si guadagna A. p(y) (M/2-m) di appartenere alla classe delle y, nell'intervallo da m a M/2. - Nello scambio si perde A/2. p(y) (M-M/2) di appartenere alla classe delle y, nell'intervallo da M/2 a M. - Nello scambio si perde A/2. Per normalizzare, in modo che la probabilità complessiva sia uguale a 1, deve essere uguale a 1 la somma dei quattro casi: p(x) m/2 + p(x) (M/2-m) + p(y) (M/2-m) + p(y) M/2 = 1 p(y) ( m + 2(M/2-m) + (M/2-m) + M/2 ) = 1 Cioè: • Nei quattro casi si ottengono dunque i seguenti valori medi di guadagno atteso dallo scambio (valore medio dell'intervallo, moltiplicato per la probabilità dell'intervallo stesso): 148 Paradosso delle due buste 1. 2. 3. 4. 149 +A(medio)= 1/2(m+m/2), con probabilità p(x)m/2, cioè +A(medio)= 1/2(M/2+m), con probabilità p(x)(M/2-m), cioè -A/2(medio)= -1/4(M/2+m), con probabilità p(y)(M/2-m), cioè -A/2(medio)= -1/4(M+M/2), con probabilità p(y)M/2, cioè • Sommando i quattro casi, si vede che il guadagno atteso complessivo è esattamente nullo. Più in dettaglio, esso è positivo per A minore di m (caso 1) e per A compreso tra m e M/2 (caso 2 + caso 3), ma è negativo per A maggiore di M/2. • Questo risultato può essere esteso senza problemi al caso in cui il minimo m diventi piccolo fino allo zero, annullando il primo intervallo. • Ancora, il risultato di guadagno nullo rimane valido anche al caso in cui M diventa grande a piacere, fino all'infinito. • In questo ultimo caso però, si perde il significato dell'intervallo 4, da 1/2 infinito a infinto. Se non si passa prima dall'analisi di M finito, facilmente si è indotti a trascurare l'influenza di questo intervallo e si perde la possibilità di spiegare l'origine del paradosso. Una caratteristica fastidiosa della distribuzione uniforme è che, quando l'intervallo M diventa infinito, la probabilità di qualunque valore diventa evanescente. Ancora, quando l'intervallo M diventa infinito, il premio mediamente atteso dall'apertura di una busta diventa esso stesso infinto. È questo un altro aspetto importante, che spiega come mai possa sembrare vantaggioso cambiare sempre. Qualunque sia il valore (finito) che si trovi nella prima busta, esso apparirà sempre al di sotto della media attesa. Altre distribuzioni Per superare i problemi di probabilità evanescenti e di premi infiniti, sono state analizzate distribuzioni di probabilità decrescenti per premi elevati. Se la distribuzione di probabilità p(y) diminuisce, al crescere di y, più rapidamente di 1/y, diventa possibile normalizzare a 1 la probabilità complessiva, dividendo per l'integrale da zero a infinito di p(y)dy, che in questo caso non è infinito. Rimarrebbe però ancora infinito il premio medio atteso, a meno che la distribuzione di probabilità non diminuisca, al crescere di y, più rapidamente di . In quest'ultimo caso il confronto tra la probabilità che un valore A, trovato nella prima busta, sia la metà di un valore, diciamo y=2A, contenuto nella seconda busta (per cui converrebbe cambiare), e la probabilità contraria, che si tratti invece del doppio di un valore, diciamo x=A/2, contenuto nella seconda busta (per cui non converrebbe cambiare), è così sfavorevole che non risulta mai conveniente cambiare. In tutti i casi, compresi quello della distribuzione uniforme e quello delle distribuzioni a media infinita, il valore atteso del guadagno medio è sempre esattamente zero. Per la dimostrazione analitica, conviene partire assegnando due simboli diversi alla probabilità posto nelle buste un premio (di valore maggiore) compreso tra posto nelle buste un premio (di valore minore) compreso tra Ovviamente, quando . , deve essere La probabilità di trovare un valore e e , e alla probabilità , che venga , che venga . Siano: . Cioè: nella prima busta è data dalla somma della probabilità valore minore (e quindi si guadagna z nel cambio), più la probabilità , che , che sia il sia il valore maggiore (e Paradosso delle due buste 150 quindi si perde z/2 nel cambio). Complessivamente il guadagno atteso nel cambio vale: . Si vede dunque che il guadagno è positivo quando , cioè quando la probabilità a priori che venga scelto un certo valore di premio è più di quattro volte la probabilità che venga scelto un valore doppio. Nei casi in cui questa condizione non è rispettata, per esempio, con una funzione del tipo o, in modo più netto, quando esiste un valore massimo M del premio possibile, e è compreso tra M/2 e M, non conviene cambiare e il paradosso non si pone. Negli altri casi ci troviamo invece nella situazione paradossale, o meglio contro intuitiva, che il guadagno è positivo per ogni valore di , ma la somma integrale dei guadagni attesi, estesa da zero infinito, è nulla. Infatti: Ponendo w=2z e dw=2dz: che vale esattamente zero, qualunque sia la distribuzione di probabilità . Note [1] Riferendici al caso ipotizzato, la probabilità che come premio maggiore sia stato scelto proprio il valore generico A è pari a 1 su due milioni. Analogamente, la probabilità che un valore generico A (minore di un milione) appartenga alla classe dei premi minori è pari a 1 su un milione. In altre parole, un valore A inferiore al milione ha probabilità doppia di essere un premio "minore", rispetto alla probabilità di essere un premio "maggiore" (ovviamente un valore A superiore al milione sarebbe certamente un premio "maggiore"). Se dunque A è minore di un milione, decidendo di cambiare, si hanno 2 probabilità di raddoppiare (guadagnare un altro A), e 1 probabilità di dimezzare la vincita (perdere A/2). Cioè si ottiene 'mediamente' un guadagno pari a (2/3 A - 1/3 A/2)= A/2. [2] Il calcolo è facilmente verificabile fissando l'attenzione solo su premi di valore intero. Così avremmo un milione di buste con i premi minori (da uno a un milione), collegate ad altrettante buste con i premi doppi (da due a due milioni). Di queste ultime buste, una metà conterrebbe ovviamente valori inferiori al milione e una metà valori superiori. In totale ci sarebbero un milione e mezzo di buste con valore inferiore al milione e mezzo milione di buste con valore superiore. Quindi, aprendo la prima busta a caso, avremo 3 possibiltà su quattro di trovare un valore inferiore al milione e una probabilità su quattro di trovarne uno superiore. [3] Un semplice esempio di comportamento 'paradossale' dell'infinito può essere derivato dal paradosso di Galileo. Quanti sono i numeri pari, rispetto al totale dei numeri naturali? Si potrebbe dire che sono la metà del totale, dato che nella sequenza naturale si alternano con i numeri dispari. Ma, pensandoci bene, la totalità dei numeri pari non può essere inferiore alla totalità dei numeri interi: infatti per ogni numero intero esiste il suo doppio, che è pari. Evidentemente per l'infinito non valgono le regole ordinarie. Voci correlate • • • • • Calcolo di probabilità condizionata Paradosso delle tre carte Problema di Monty Hall - Può una capra far aumentare la probabilità di vincere un'automobile? Paradossi dell'infinito - Non valgono le regole degli insiemi finiti Paradosso di San Pietroburgo - Conviene scommettere su una vincita infinita, con probabilità infinitesima di vincere? • Paradosso di Bertrand - Quante sono le corde che tagliano un cerchio? • Paradosso del quiz Paradosso delle tre carte Paradosso delle tre carte Viene detto paradosso delle tre carte un classico problema del calcolo delle probabilità che pur nella sua semplicità ha una soluzione abbastanza controintuitiva: ci sono tre carte, delle quali la prima (A) è rossa su entrambi i lati, la seconda (B) su un lato è rossa e sull'altro è bianca e la terza (C) è bianca su entrambi i lati. Ponendo su un tavolo una delle tre carte, scelta a caso, ottengo che il lato visibile è di colore rosso. Qual è la probabilità che anche il lato non visibile sia di colore rosso? La risposta intuitiva porta solitamente a rispondere che la probabilità ricercata sia pari al 50%, in quanto solo due carte (la A e la B) possono mostrare il colore rosso e solo una di queste (la A) può mostrare anche sull'altro lato il colore rosso; tuttavia si dimostra che la risposta giusta è 2/3. Soluzione Ci sono in tutto 6 facce, delle quali 3 sono rosse e 3 sono bianche. Denominiamo 1 e 2 le due facce che appartengono alla carta rossa su entrambi i lati; denominiamo 3 la faccia rossa della carta rossa su un lato e bianca sull'altro. È possibile che la faccia visibile all'inizio del gioco sia 1, 2 o 3, con uguale probabilità. Su tre possibili casi, due comportano che la faccia non visibile sia rossa: 1 e 2. Pertanto la probabilità che il lato non visibile sia rosso è di 2/3. L'intuizione suggerisce la risposta sbagliata perché porta a non distinguere le facce 1 e 2 come eventi distinti. Dimostrazione assiomatica o frequentista Estraendo una carta e posandola sul tavolo si possono verificare i seguenti sei casi equoprobabili, che possono capitare in maniera egualmente frequente 1. 2. 3. 4. 5. 6. lato visibile = Aa = rosso, lato nascosto = Ab = rosso lato visibile = Ab = rosso, lato nascosto = Aa = rosso lato visibile = Ba = rosso, lato nascosto = Bb = bianco lato visibile = Bb = bianco, lato nascosto = Ba = rosso lato visibile = Ca = bianco, lato nascosto = Cb = bianco lato visibile = Cb = bianco, lato nascosto = Ca = bianco escludendo gli ultimi tre casi in quanto il lato visibile è bianco, rimangono tre casi dove il lato visibile è rosso, due dei quali nascondono un lato anch'esso rosso, dunque la probabilità è di 2/3. Dimostrazione con il teorema di Bayes La probabilità condizionata cercata è Pr(lato invisibile è rosso | lato scoperto è rosso) dove i lati rossi sono: Aa, Ab e Ba (e quelli bianchi: Bb, Ca, Cb), per cui si può scrivere Pr(Aa+Ab+Ba|Aa+Ab+Ba) che, utilizzando il teorema di Bayes viene riformulata in = Pr(Aa+Ab+Ba|Aa+Ab+Ba) * Pr(Aa+Ab+Ba) / ( Pr(Aa+Ab+Ba|Aa+Ab+Ba) * Pr(Aa+Ab+Ba) + Pr(Aa+Ab+Ba|Bb+Ca+Cb) * Pr(Bb+Ca+Cb) ) Essendo Pr(Aa+Ab+Ba)=1/2, ovvero metà dei lati sono rossi Pr(Bb+Ca+Cb)=1/2, e l'altra metà sono bianchi Pr(Aa+Ab+Ba|Aa+Ab+Ba) = Pr(Aa|Aa+Ab+Ba) + Pr(Ab|Aa+Ab+Ba) + Pr(Ba|Aa+Ab+Ba) = 1/3 + 1/3 + 0 = 2/3 151 Paradosso delle tre carte Pr(Aa|Aa+Ab+Ba) = Pr(Aa+Ab+Ba|Aa) * Pr(Aa) / Pr(Aa+Ab+Ba) = 1 * 1/6 * 2 = 2/6 = 1/3 Pr(Aa+Ab+Ba|Aa) = Pr(Aa|Aa) + Pr(Ab|Aa) + Pr(Ba|Aa)= 0+1+0 = 1 Pr(Aa) = 1/6 Pr(Aa+Ab+Ba) = 1/2 Pr(Ab|Aa+Ab+Ba) = 1/3, ottenuto in modo analogo Pr(Ba|Aa+Ab+Ba) = 0, comprensibile in modo intuitivo, in quanto se il lato visibile appartiene alla carta A il retro non può appartenere alla carta B e se il lato visibile è Ba non è possibile che anche il lato coperto sia Ba: Pr(Aa+Ab+Ba|Ba) = Pr(Aa|Ba) + Pr(Ab|Ba) + Pr(Ba|Ba)= 0 + 0 + 0 = 0 in maniera analoga si mostra che Pr(Aa+Ab+Ba|Bb+Ca+Cb) = Pr(Aa|Bb+Ca+Cb) + Pr(Ab|Bb+Ca+Cb)+ Pr(Ba|Bb+Ca+Cb) = 0 + 0 + 1/3 = 1/3 per cui Pr(lato invisibile è Rosso | lato scoperto è rosso) = 2/3*1/2 / (2/3*1/2 + 1/3*1/2) = 2/3 Le origini Questo è il testo originale del paradosso, proposto da Warren Weaver nel 1950: « Giochiamo con tre carte. Una è bianca su entrambi i lati, una è rossa su entrambi i lati e una è bianca da un lato e rossa dall'altro. Ogni carta è nascosta in una scatoletta nera. Il giocatore sceglie una delle tre scatolette, estrae la carta e la posa sul tavolo in modo che sia visibile un solo lato. Supponiamo che il lato che si vede sia bianco. Il conduttore propone al giocatore di scommettere alla pari che è bianco anche l'altro lato della carta (se è bianco vince il conduttore, se è rosso vince il giocatore). Conviene al giocatore accettare la scommessa? Perché? » Paradosso delle tre scatole In realtà, una versione perfettamente analoga del problema era già stata presentata da Joseph Bertrand nel suo libro Calcul des probabilités: ci sono tre scatole, di cui la prima contiene due monete d'oro, la seconda due monete d'argento e la terza una d'oro ed una d'argento: se estraendo una moneta a caso da una scatola a caso ci si ritrova in mano una moneta d'oro, qual è la probabilità che anche l'altra nella scatola lo sia? La soluzione è anche in questo caso 2/3. Voci correlate • Problema di Monty Hall • Warren Weaver e Martin Gardner, che hanno descritto questo problema • Paradosso dei due bambini 152 Paradosso di Abilene Paradosso di Abilene Il Paradosso di Abilene è un paradosso in cui un gruppo di persone prende una decisione che va contro agli interessi di tutti gli individui del gruppo. È causato da un problema di comunicazione interno al gruppo, per cui ciascun membro crede erroneamente che la propria preferenza sia contraria a quella del gruppo e non prova nemmeno a sollevare obiezioni. Il paradosso è descritto con una storia spesso presentata ai corsi di management. La storia Una tranquilla famiglia americana composta da una ragazza, dal marito e dai genitori di lei, stava trascorrendo un afoso pomeriggio estivo a Coleman nel Texas, in una bella casa con giardino, aria condizionata e piscina. Erano in veranda e giocavano a carte. In un momento in cui la conversazione languiva, il suocero se ne uscì con un "Che ne direste di andarcene tutti a cena ad Abilene?" La ragazza, per compiacere il padre, subito disse "Mi pare una bella idea!". Il marito, che pensava alle oltre 50 miglia da passare alla guida con quel caldo, ma non voleva contrastare il suocero, disse alla suocera "Se anche tu sei d'accordo potremmo metterci in macchina". E la suocera "Certo che vengo volentieri, è da parecchio che non vado ad Abilene." Detto fatto si misero in cammino. Il viaggio fu caldo, polveroso, e con molto traffico. Ad Abilene cercarono una pizzeria per mangiare e dopo vari giri per trovare un parcheggio finirono in una trattoria messicana dove mangiarono male e spesero uno sproposito. Sulla via del ritorno bucarono una gomma e stentarono a trovare una stazione di servizio che li aiutasse. Dopo quattro ore si ritrovarono a casa accaldati, stanchi e delusi. Erano sdraiati sui divani ed il vecchio azzardò ambiguamente "È stato un bel tragitto!". La suocera disse che avrebbe preferito rimanere a casa ma che non voleva raffreddare l'entusiasmo degli altri. Anche il marito disse che aveva accettato solo per compiacere gli altri tre. La ragazza aggiunse "Dovevamo essere pazzi a metterci in macchina con questo caldo!". Concluse il suocero "Io l'ho proposto perché mi sembravate annoiati." Morale: questa favoletta, probabilmente inventata, tende ad attirare l'attenzione sul fatto che nella maggioranza dei casi l'essere umano si adegua istintivamente a quella che crede essere la volontà del gruppo. Questo atteggiamento fa il paio con "Ma lo fanno tutti" che è la classica scusa di chi non trova altra giustificazione ad un proprio errore. Con questo esempio invece si vuol spingere l'individuo ad una realistica ed indipendente valutazione di ogni situazione, scegliendo e proponendo quella che a suo giudizio è la soluzione migliore. Possono rimanere perplessi gli amanti della democrazia "ideale". I ricercatori in questo campo hanno proposto vari mezzi con i quali i gruppi di persone possano evitare tale comportamento disfunzionale. Tra questi, nessuno si è mostrato più efficace di includere persone con formazione differente nel processo decisionale. I gruppi così costituiti tendono a essere più efficaci nell'evitare il Paradosso di Abilene e tendono ad essere capaci di prendere decisioni migliori. Bibliografia • Harvey, Jerry B., The Abilene paradox and other meditations on management, Lexington, 1988 153 Paradosso di Achille e la tartaruga Paradosso di Achille e la tartaruga Il paradosso di “Achille e la Tartaruga” è il più famoso dei Paradossi di Zenone. È stato proposto nel quinto secolo a.C. da Zenone di Elea, che intendeva difendere le tesi del suo maestro Parmenide, che sosteneva che il movimento non è altro che illusione. La corsa della tartaruga Una delle descrizioni più famose del paradosso è quella dello scrittore argentino Jorge Luis Borges[1]: Achille, simbolo di rapidità, deve raggiungere la tartaruga, simbolo di lentezza. Achille corre dieci volte più svelto della tartaruga e le concede dieci metri di vantaggio. Achille corre quei dieci metri e la tartaruga percorre un metro; Achille percorre quel metro, la tartaruga percorre un decimetro; Achille percorre quel decimetro, la tartaruga percorre un centimetro; Achille percorre quel centimetro, la tartaruga percorre un millimetro; Achille percorre quel millimetro, la tartaruga percorre un decimo di millimetro, e così via all’infinito; di modo che Achille può correre per sempre senza raggiungerla. Le soluzioni del paradosso La confutazione più immediata è quella del filosofo Diogene di Sinope, che silenziosamente si mise a camminare davanti a chi gli ricordava gli argomenti di Zenone contro il movimento. Secondo Aristotele, invece, il tempo e lo spazio sono divisibili all’infinito in potenza, ma non sono divisibili all’infinito in atto. Una distanza finita (che secondo Zenone non è percorribile perché divisibile in frazioni infinite) è infinita nella considerazione mentale, ma in concreto si comporta di parti finite e può essere percorsa. Da un punto di vista matematico la spiegazione sta nel fatto che gli infiniti intervalli impiegati ogni volta da Achille per raggiungere la tartaruga diventano sempre più piccoli, ed il limite della loro somma converge, per le proprietà delle serie geometriche. Una somma di infiniti elementi o, più precisamente, il limite di una somma di infiniti elementi non è necessariamente infinito. Prendiamo ad esempio la somma di tutte le frazioni che si possono ottenere dimezzando ogni volta un intero: La somma di tutti questi elementi è sempre inferiore ad uno. Arrivati all’elemento numero n, la somma sarà pari ad uno meno la frazione di ordine n. Arrivati ad esempio al terzo elemento, la somma sarà uguale a sette ottavi, pari ad uno meno un ottavo (un mezzo elevato alla terza). Arrivati al decimo elemento, la somma sarà uno meno un milleventiquattresimo (un mezzo elevato alla decima; infatti due elevato alla decima potenza è 1024). Da un punto di vista matematico, si può affermare che il limite di questa somma di infiniti termini è uno. Un altro approccio considera il significato fisico degli intervalli spaziali, le cui dimensioni dopo pochi passaggi sono estremamente ridotte. Secondo la meccanica quantistica, infatti, non ha senso considerare intervalli più piccoli di una determinata dimensione.[2] 154 Paradosso di Achille e la tartaruga Voci correlate • Zenone di Elea • Elenco di paradossi Note [1] Jorge Luis Borges, “Altre inquisizioni”, Feltrinelli, 1973, “Metamorfosi della tartaruga” [2] http:/ / www. riflessioni. it/ scienze/ paradosso-achille-tartaruga. htm Paradosso di Berry Il paradosso di Berry risale ad una lettera inviata da G. G. Berry (da qui il nome), un bibliotecario dell'Università di Oxford a Bertrand Russell. Esso può essere descritto nei seguenti termini Sia N il numero (evidentemente finito) di parole (non importa se articoli, sostantivi, verbi, preposizioni ecc.) in un dato dizionario della lingua italiana, cui aggiungiamo l'insieme di simboli contenuti in un dato testo di matematica e sia H l'insieme (anch'esso finito) delle frasi componibili con al più, diciamo, 50 parole e simboli. Consideriamo ora in H tutte quelle frasi che definiscono correttamente dei numeri interi positivi (un esempio è: tre è il numero immediatamente successivo a due, un altro: tre è il secondo numero che incontriamo nella successione dei numeri primi e così via). Sia K il numero di frasi con meno di 50 parole che definiscono correttamente numeri naturali. Poiché K è finito l'insieme dei numeri definiti che troviamo in esso è anch'esso finito e possiamo individuare il più grande di tali numeri: chiamiamolo b. Consideriamo ora la frase: • b+1 è il numero naturale successivo al più grande numero definibile con una frase contenente al massimo cinquanta parole. Essa è una frase con meno di 50 parole (19, per la esattezza) che definisce b + 1, dunque anche b + 1 dovrebbe appartenere alla classe dei numeri definibili con meno di 50 parole! È stato osservato che il paradosso dipende dall'utilizzo non rigoroso della espressione numero definibile attraverso n parole; se si connota esattamente l'espressione, mettendo al bando le trappole dell'autoreferenzialità, il paradosso scompare. In realtà è immediato rendersi conto che, se si accetta la frase 'tre è il numero immediatamente successivo a due' , allora, modificandola opportunamente, si ottengono, con lo stesso numero di parole, tutte le frasi che definiscono tutti i numeri naturali superiori a 0 o ad 1, a seconda; ne consegue che è falsa la conclusione Poiché K( il numero di frasi ) è finito l'insieme dei numeri definiti che troviamo in esso è anch'esso finito . Allo stessa tipologia delle antinomie linguistiche appartiene il paradosso di Richard, che sta in qualche modo alla base del teorema di incompletezza di Gödel. Collegamenti esterni • The Berry Paradox [1] di Gregory Chaitin Note [1] http:/ / www. umcs. maine. edu/ ~chaitin/ unm2. html 155 Paradosso di Bertrand 156 Paradosso di Bertrand Il Paradosso di Bertrand è un problema riguardante l'approccio classico alla Teoria della probabilità. Si consideri un triangolo equilatero inscritto in un cerchio. Supponiamo di scegliere casualmente una corda del cerchio. Qual è la probabilità che la corda sia più lunga di un lato del triangolo equilatero? Questo problema fu posto inizialmente da Joseph Bertrand nel suo lavoro Calcolo delle probabilità del 1888. Bertrand portò inoltre tre argomenti, tutti apparentemente validi, ma che portavano a risultati inconsistenti. Il metodo degli "estremi casuali": si scelga un punto sulla circonferenza e si ruoti il triangolo in modo che il punto scelto sia uno dei vertici. Si scelga poi un altro punto sulla circonferenza e si disegni la corda congiungente i due punti. Per punti sull'arco compreso fra gli estremi del lato opposto al primo punto, la corda è più lunga di un lato del triangolo. La lunghezza dell'arco è un terzo della lunghezza della circonferenza, di conseguenza la probabilità che una corda presa a caso sia più lunga di un lato del triangolo iscritto è un terzo. rosso = più lunga del lato del triangolo, blu = più corta Il metodo del "raggio casuale": si scelga un raggio del cerchio e si ruoti il triangolo in modo che un lato sia perpendicolare al raggio. Si scelga poi un punto del raggio e si disegni la corda che ha per punto medio il punto scelto. La corda è più lunga di un lato del triangolo se il punto scelto è più vicino al centro del cerchio rispetto al punto in cui il lato del triangolo interseca il raggio. Dal momento che il lato del triangolo divide il raggio in due parti uguali, è ugualmente probabile che il punto scelto sia più vicino o più lontano. Di conseguenza la probabilità che una corda presa a caso sia più lunga di un lato del triangolo inscritto è un mezzo. Paradosso di Bertrand 157 Il metodo del "punto medio casuale": si scelga un punto casuale del cerchio (non necessariamente della circonferenza!). Si costruisca quindi una corda che abbia il punto scelto come punto medio. La corda è più lunga del lato del triangolo inscritto se il punto scelto cade all'interno di un cerchio concentrico al primo di raggio 1/2. L'area del cerchio più piccolo è un quarto dell'area del cerchio iniziale, di conseguenza la probabilità che una corda presa a caso sia più lunga del lato del triangolo inscritto è un quarto. Soluzione classica La soluzione del problema, quindi, dipende dal metodo mediante il quale scegliamo "casualmente" una corda. Risulta che una volta specificato il metodo di selezione casuale, il problema ha una soluzione ben definita. Ma non esiste un unico metodo di selezione, di conseguenza non può esserci un'unica soluzione. Le tre soluzioni presentate da Bertrand corrispondono a differenti metodi di selezione, e in assenza di ulteriori informazioni non c'è ragione di preferirne uno rispetto agli altri. I metodi di selezione possono venire visualizzati come segue. Oltre che dal diametro, una corda è univocamente identificata dal suo punto medio. Ognuno dei tre metodi di selezione presentati sopra porta a una diversa distribuzione dei punti medi. I metodi 1 e 2 portano a due diverse distribuzioni non uniformi, mentre il metodo tre porta a una distribuzione uniforme. Altre distribuzioni possono essere facilmente immaginate, molte delle quali porteranno a una diversa proporzione delle corde più lunghe del lato del triangolo inscritto sul totale. Punti medi di corde scelte casualmente, metodo 1 Punti medi di corde scelte casualmente, metodo 2 Punti medi di corde scelte casualmente, metodo 3 Paradosso di Bertrand Corde scelte casualmente, metodo 1 158 Corde scelte casualmente, metodo 2 Corde scelte casualmente, metodo 3 Soluzione di senso comune Nella sua pubblicazione del 1973 The Well-Posed Problem [1], E. T. Jaynes si chiese se davvero non fosse possibile dire cosa significa "casualmente". Egli scrisse che sappiamo di più riguardo a questo "casualmente" di quanto possa sembrare in un primo momento. Se analizziamo un esperimento casuale per via teorica, possiamo provare a comprenderlo pensando a come eseguiremmo veramente quell'esperimento. In questo caso, potremmo provare a tirare dei piccoli filamenti di paglia su una moneta che giace abbastanza distante da noi da poter dire che il modo in cui la paglia cade sulla moneta è sufficientemente "casuale". A questo punto, è di senso comune affermare che la soluzione è la stessa a prescindere dal fatto che prendiamo una moneta grande o piccola, e a prescindere dal fatto che la moneta sia collocata un pochino più a destra o un pochino più a sinistra. Se ammettiamo questa informazione addizionale di senso comune, allora vi è un'unica soluzione al problema, ed è quella basata sul secondo metodo di selezione visto sopra: il metodo del "raggio casuale". Più precisamente, l'argomentazione si sviluppa in questo modo: se abbiamo scelto delle corde casuali in un cerchio di raggio , e a questo punto consideriamo un cerchio concentrico al primo, di raggio , allora alcune delle corde del cerchio più grande taglieranno anche il cerchio più piccolo. Se la scelta delle corde segue quello che si intende con il senso comune per "casualmente", allora ci aspetteremmo che l'insieme di corde scelte casualmente dia la stessa probabilità sia nel cerchio grande, sia in quello piccolo. La soluzione cioè dovrebbe essere ad invarianza di scala. Similmente, se muoviamo il centro del cerchio piccolo, spostandolo dal centro del cerchio grande, allora dovremmo avere nuovamente la stessa probabilità. La soluzione, cioè, dovrebbe essere anche invariante per traslazione. Più in dettaglio, Jaynes precisa inoltre che la soluzione dovrebbe essere invariante per rotazione. Egli provò che c'è una sola distribuzione dei punti medi delle corde che è invariante per scala ed invariante per traslazione. Essa può essere derivata direttamente dall'equazione integrale per l'invarianza per traslazione. Questa distribuzione è quella descritta nel "metodo 2", sopra. Così, pur essendo tutti e tre i metodi perfettamente corretti ed accettabili, il secondo è l'unico che soddisfa i requisiti cui corrisponde, nel senso comune, la frase "scegliere una corda casualmente". Paradosso di Bertrand Collegamenti esterni • (EN) Il Paradosso di Bertrand [2] Note [1] http:/ / bayes. wustl. edu/ etj/ articles/ well. pdf [2] http:/ / www. cut-the-knot. org/ bertrand. shtml Paradosso di Buridano Cartello del 1900, che mostra il Congresso degli Stati Uniti come asino di Buridano, incerto nella scelta tra il canale di Panama o quello per il Nicaragua. « Un asino affamato e assetato è accovacciato esattamente tra due mucchi di fieno con, vicino a ognuno, un secchio d'acqua, ma non c'è niente che lo determini ad andare da una parte piuttosto che dall'altra. Perciò, resta fermo e muore. » L'asino di Buridano (o Paradosso dell'asino) è un paradosso erroneamente attribuito a Giovanni Buridano. Questo paradosso prova a confutare il determinismo causalistico, per cui tutte le azioni sono predeterminate causalmente. Se il determinismo causalistico vale per gli animali, ci si dovrebbe aspettare che sia valido anche per gli uomini, ma se ci trovassimo in una situazione identica, supponendo di trovarsi affamati ed assetati esattamente a metà tra due tavoli imbanditi non propenderemmo sicuramente per un tavolo? Leibniz discusse di questo paradosso nei Saggi di teodicea[1]. Note [1] http:/ / www. filosofico. net/ Antologia_file/ AntologiaL/ LEIBNIZ_%20L%20ASINO%20DI%20BURIDANO. htm Bibliografia • 2002 M. Clark, Paradoxes from A to Z 159 Paradosso di Condorcet 160 Paradosso di Condorcet Il Paradosso di Condorcet è una situazione indicata dal Marchese de Condorcet alla fine del XVIII secolo, nella quale le preferenze collettive possono essere cicliche (cioè non transitive) anche se le preferenze dei votanti non lo sono individualmente. Questo è un paradosso perché significa che i desideri della maggioranza possono essere in conflitto gli uni con gli altri. Questo succede quando le maggioranze in conflitto sono ognuna composte di gruppi di individui differenti. Per spiegare il Paradosso di Condorcet usiamo il seguente esempio: Supponiamo di avere 3 votanti (Cittadino 1, Cittadino 2 e Cittadino 3) che devono scegliere tra tre opzioni diverse (Partito A, Partito B e Partito C). Ogni cittadino ha le seguenti preferenze riguardo alle tre opzioni: Prima Scelta Seconda Scelta Terza Scelta Cittadino 1 Partito A Partito B Partito C Cittadino 2 Partito B Partito C Partito A Cittadino 3 Partito C Partito A Partito B In questa elezione i partiti A, B e C possono rappresentare qualsiasi cosa, vale a dire anche candidati in competizione; i cittadini 1, 2 e 3 possono rappresentare sia individui che gruppi di individui di egual numero come Sinistra o Destra o Centro. Se si verificasse un'elezione ognuno dei tre partiti A, B e C riceverebbe un voto come prima scelta, uno come seconda scelta e uno come terza scelta, ottenendo quindi lo stesso numero di voti (qualunque sia il metodo di conteggio utilizzato) e non sarebbe possibile decidere un vincitore. Supponiamo invece di effettuare una votazione a doppio turno: i due partiti che al primo turno hanno ottenuto più voti si scontrano fra loro in una seconda votazione per decidere il vincitore (mentre il terzo partito viene eliminato dalla votazione). Ipotizziamo che alla seconda votazione il cittadino faccia scalare alla scelta precedente il partito rimasto, vale a dire che se (per esempio) Partito A è stato escluso dalla votazione allora le scelte diventano: Prima Scelta Seconda Scelta Cittadino 1 Partito B Partito C Cittadino 2 Partito B Partito C Cittadino 3 Partito C Partito B In questo caso quindi B, avrebbe una maggioranza di 2 a 1 su C. Si verifica facilmente che se B viene escluso alla prima votazione allora C ha una maggioranza di 2 a 1 su A, mentre se viene escluso C allora A ha una maggioranza di 2 a 1 su B. Viene quindi violata la transitività ossia: Se A è preferito a B, B è preferito a C, ma C è preferito ad A (mentre per la transitività dovrebbe essere A è preferito a C). La maggiore conseguenza di questo è che chi riesce ad eliminare uno dei 3 partiti potrà in essenza sapere quale sarà il risultato delle elezioni, vale a dire che se il partito A vuole vincere indurrà gli incerti a votare alle primarie per il partito B ed essere sicuro di scontrarsi contro di lui al secondo turno. Paradosso di Condorcet Ripercussioni Il paradosso di Condorcet ci dice che il sistema di votazione a maggioranza non è indipendente dall'ordine delle votazioni. Vale a dire, benché ognuno abbia un ordine di preferenze ben delineato che non muta con l'ordine delle votazioni, il risultato delle votazioni viene invece ad essere dipendente dall'ordine. Kenneth Arrow ha dimostrato come questa situazione sia inevitabile in ogni forma di votazione che rispetti alcuni semplici criteri: • Universalità (o dominio non ristretto): la funzione di scelta sociale dovrebbe creare un ordinamento delle preferenze sociali deterministico e completo, a partire da qualsiasi insieme iniziale di preferenze individuali; • Non imposizione (o sovranità del cittadino): qualsiasi possibile preferenza sociale deve essere raggiungibile a partire da un appropriato insieme di preferenze individuali (ogni risultato deve poter essere raggiunto in qualche maniera); • Non dittatorialità: la funzione di scelta sociale non deve semplicemente seguire l'ordinamento delle preferenze di un individuo o un sottoinsieme di individui, al contempo ignorando le preferenze degli altri; • Monotonicità, o associazione positiva tra i valori individuali e sociali: se un individuo modifica il proprio ordinamento di preferenze promuovendo una data opzione, la funzione di scelta sociale deve promuovere tale opzione o restare invariata, ma non può assegnare a tale opzione una preferenza minore (nessun individuo dovrebbe essere in grado di esprimersi contro un'opzione assegnandole una preferenza maggiore); • Indipendenza dalle alternative irrilevanti: se si confina l'attenzione ad un sottoinsieme di opzioni, e la funzione di scelta sociale è applicata ad esse soltanto, il risultato deve essere compatibile con il caso in cui la funzione di scelta sociale è applicata all'intero set di alternative possibili. Bibliografia • Condorcet, Marquis de: Essai sur l'application de l'analyse á la probabilité des décisions rendues à la pluralité des voix, Parigi, 1785. • Martin Gardner, «Sui paradossi creati dalle relazioni non transitive». Le Scienze n. 82 (Giugno 1975), pp. 96-101. Voci correlate • Teorema dell'impossibilità di Arrow • Teorema di May 161 Paradosso di Curry Paradosso di Curry Il paradosso di Curry è un paradosso della teoria ingenua degli insiemi, e deve il suo nome al logico e matematico americano Haskell Curry che lo pubblicò nel 1942. Esso è basato sulla costruzione di un’affermazione autoreferenziale da cui si possono dedurre, tramite alcune semplici regole di inferenza, l’asserzione stessa ed ogni altra proposizione. Svolgimento Il paradosso consiste nell’affermare una proposizione del tipo: “Se questa frase è vera, allora Babbo Natale esiste”. Bisogna anzitutto considerare che questo enunciato è di tipo autoreferenziale, ovvero il termine “questa frase” in esso contenuto vuole indicare l’intera espressione. In sostanza, si tratta di formulare l’enunciato A, dove per A si intende la proposizione “Se A è vero, allora Babbo Natale esiste”. Valendosi delle regole della logica del primo ordine, appare facile mostrare come questa affermazione non possa che essere vera. Si procede così: supponiamo che l’enunciato A sia falso. Allora, per la legge dell’implicazione materiale, l’unica possibilità ammessa è che l’antecedente di questa condizionale (“Se A è vero”) assuma il valore di verità, mentre il conseguente (“Allora Babbo Natale esiste”) assuma quello di falsità. Ma sostenere che l’antecedente è vero equivale a definire vero A, contraddicendo in tal modo l’ipotesi effettuata. Dunque dobbiamo necessariamente concludere che l’enunciato A è vero, e questo ci obbliga, sempre per effetto delle regole dell’implicazione, a dichiarare vera anche la proposizione “Babbo Natale esiste”. Infatti, in una formula condizionale vera in cui sia vero l’antecedente, il conseguente risulta anch’esso vero. È poi ovvio che si può sostituire all’espressione “Babbo Natale esiste” un enunciato B qualsiasi, che faccia un’asserzione qualunque. Interpretazione matematica Il paradosso di Curry è fonte di numerosi problemi e interessanti spunti nel settore della logica matematica. Esso infatti, fornendo un metodo per dimostrare qualsiasi teorema, sembrerebbe costituire una prova dell’inconsistenza e della contraddittorietà di molte teorie assiomatiche. Questo poiché quasi ogni sistema formale è, per sua natura, soggetto alle leggi (almeno) della logica del primo ordine, e proprio da queste avrebbe origine il paradosso. L’enunciato in questione si presenta come un’affermazione vera a priori, ovvero che non necessita di alcuna dimostrazione a partire da assunti precedenti. Risulta così vera ovunque, unicamente in virtù di se stessa, quali che siano i postulati del sistema. Da essa si possono poi dedurre come veri l’enunciato B (“Babbo Natale esiste”) e l’enunciato negazione di B (“Babbo Natale non esiste”). Già questo basterebbe, grazie al teorema dello pseudo Scoto, a generare un numero infinito di contraddizioni. Ma non pare in effetti neanche necessario: è sufficiente applicare il paradosso ad ogni proposizione e, successivamente, alla negazione di questa per rendere la teoria matematica presa in esame del tutto inservibile. È evidente che un sistema formale contraddittorio in cui si dimostra tutto ed il contrario di tutto non è di alcuna utilità. Per superare tale difficoltà si è ricorso quindi alla ridefinizione dei principi stessi della logica matematica e della teoria degli insiemi, limitandone opportunamente il campo di validità; ovvero, allo scopo di eliminare il paradosso, si è intervenuto sulle premesse di queste rendendole più restrittive, così da impedire alcune delle condizioni essenziali all’originarsi dell’antinomia. È possibile infatti vietare certe forme di autoreferenzialità, o più semplicemente rifiutare la formulazione del predicato di verità all’interno del linguaggio stesso. I vari metodi con cui la matematica moderna ha corretto le ipotesi della teoria ingenua degli insiemi hanno portato a logiche differenti, dove il paradosso di Curry viene escluso solitamente in quanto impossibile o privo di senso. 162 Paradosso di Curry Interpretazione filosofica Come nota Piergiorgio Odifreddi, il paradosso di Curry rappresenterebbe “una vera e propria dimostrazione della non esistenza di Dio”[1], in quanto esso prova che “l’assunzione di un essere necessario, o di una causa prima, è incompatibile con la logica”[2]. Comunemente per causa prima si intende un ente che esiste necessariamente solo grazie ad alcune sue proprietà e da cui deriva ogni altra realtà. Volendo tradurre questo concetto in termini logici, ci si accorge facilmente che esso viene a coincidere con l’enunciato paradossale di Curry: infatti è vero esclusivamente per come è costruito e, data l’equivalenza tra nesso causale nel linguaggio ordinario e implicazione materiale nel linguaggio formale, è la premessa di ogni conseguenza. Come osservato, però, tale espressione è impropria e viene rigettata da qualunque sistema formale al fine di non cadere nell’inconsistenza. Risulta quindi impossibile costruire un ragionamento che si avvalga di una logica formalizzata corretta e non contraddittoria e che al tempo stesso includa al suo interno l’idea di una causa prima. Così il paradosso di Curry diventa una confutazione dell’impostazione razionalista tipica, ad esempio, di Cartesio, Spinoza e Leibniz, secondo la quale sarebbe possibile affrontare razionalmente problemi metafisici e fornire con la pura ragione prove definitive dell’esistenza di Dio. D'altro canto conferma l'argomentazione di Tommaso d'Aquino che nega la possibilità di una causa prima sullo stesso piano delle cause seconde e di conseguenza nega l'autoconsistenza del mondo, dimostrando così la necessità di una causa che sia al di sopra della catena dei fenomeni: cfr. partecipazione dell'essere[3]. Note [1] Piergiorgio Odifreddi, Il Vangelo secondo la Scienza - Le religioni alla prova del nove, collana ET Saggi, Einaudi, 2005. pp. 224 ISBN 88-06-17392-8 [2] ibidem [3] Cornelio Fabro, Partecipazione e causalità secondo s. Tommaso d'Aquino, S.E.I., Torino, 1960 Paradosso di D'Alembert Il modello matematico di flusso stazionario a potenziale che descrive perfettamente il comportamento di un fluido non viscoso, anche se certamente non rispecchia la realtà fisica, permette in certi casi di approssimare il comportamento di certi flussi reali ad alto numero di Reynolds. Jean le Rond d'Alembert fu il primo a rendersi conto che su un corpo, a prescindere dalla forma, immerso in un flusso a potenziale, non potesse agire alcuna forza aerodinamica. Questo chiaramente è un grosso limite e mentre allora il modello in discussione sarà buono per tutte le regioni del flusso dove la vorticità può essere considerata nulla, e quindi dove potranno essere trascurati i termini dinamici dovuti alla viscosità, non si avvicinerà minimamente alla realtà nelle zone dove la vorticità sarà decisamente diversa da zero, perché è proprio la viscosità che dà origine alla portanza. Per i corpi aerodinamici ad alti Reynolds la vorticità sarà confinata nello strato limite (che sarà sempre più sottile all'aumentare del Reynolds) e nella scia del corpo. Il paradosso consiste nell'osservare che sotto le ipotesi di modello a potenziale, che implicano che il flusso sia irrotazionale (quindi a vorticità nulla), non possono svilupparsi forze aerodinamiche poiché esse si ricavano proprio per integrazione della vorticità. Tuttavia il modello a potenziale descrive correttamente il comportamento del fluido non viscoso attorno ad un corpo che, è esperienza comune, se immerso in un flusso, è quantomeno soggetto ad una resistenza e avverte quindi una componente della forza aerodinamica. Com'è allora possibile che il modello a potenziale descriva correttamente il comportamento di un fluido non viscoso se nella sua definizione è implicita l'irrotazionalità e la conseguente assenza di forze? Il paradosso trova una soluzione se affermiamo che la forza aerodinamica è determinata unicamente dalla vorticità presente nella scia e nello strato limite che, per corpi aerodinamici ad elevato numero di Reynolds, possono essere considerati così sottili da non alterare la validità dell'ipotesi di campo di moto interamente irrotazionale e consentono dunque l'applicazione del modello a potenziale in tutto lo spazio considerato. All'atto pratico nella valutazione della azioni aerodinamiche, queste osservazioni si 163 Paradosso di D'Alembert ridurranno ad opportuni accorgimenti matematici da introdurre nella fase di calcolo. Bibliografia • • • • • • • Jean le Rond d'Alembert, Essai d'une nouvelle the'orie de la re'sistance des fluides [1], 1752. Ludwig Prandtl, Motion of fluids with very little viscosity [2], NACA Technical Memorandum 452, 1904. Keith Stewartson, d'Alembert's Paradox [3], Siam Review, Vol 23(3), pp. 308-343, 1981. Johan Hoffman and Claes Johnson, Computational Turbulent Incompressible Flow [4], Springer, 2007. Herrman Schlichting, Boundary layer theory, McGraw Hill, 1979. Garret Birkhoff, Hydrodynamics: a study in logic, fact, and similtude, Princeton University Press, 1950. James J. Stoker, Review: Garrett Birkhoff, Hydrodynamics, a study in logic, fact, and similitude [5], Bull. Amer. Math. Soc. Vol. 57(6), 1951, pp. 497-499. Voci correlate • Flusso potenziale • Flusso potenziale incomprimibile • Circolazione (fluidodinamica) • Portanza • Resistenza fluidodinamica Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Jean le Rond d'Alembert Collegamenti esterni • Potential Flow and d'Alembert's Paradox [6] at MathPages Note [1] [2] [3] [4] [5] [6] http:/ / gallica. bnf. fr/ anthologie/ notices/ 00927. htm http:/ / upload. wikimedia. org/ wikipedia/ en/ b/ bc/ Prandtl-technical-memorandum-452. pdf http:/ / scitation. aip. org/ getabs/ servlet/ GetabsServlet?prog=normal& id=SIREAD000023000003000308000001& idtype=cvips& gifs=yes http:/ / www. nada. kth. se/ ~jhoffman/ pmwiki/ pmwiki. php http:/ / projecteuclid. org/ DPubS/ Repository/ 1. 0/ Disseminate?view=body& id=pdf_1& handle=euclid. bams/ 1183516308 http:/ / www. mathpages. com/ home/ kmath211/ kmath211. htm 164 Paradosso di Easterlin Paradosso di Easterlin Il paradosso di Easterlin (Easterlin Paradox) o paradosso della felicità venne definito nel 1974 da Richard Easterlin, professore di economia all'Università della California meridionale e membro dell'Accademia Nazionale delle Scienze, il quale, ricercando le ragioni per la limitata diffusione della moderna crescita economica, evidenziò che nel corso della vita la felicità delle persone dipende molto poco dalle variazioni di reddito e di ricchezza. Questo paradosso, secondo Easterlin, si può spiegare osservando che, quando aumenta il reddito, e quindi il benessere economico, la felicità umana aumenta fino ad un certo punto, poi comincia a diminuire, seguendo una curva ad U rovesciata. Riflessioni sociali ed economiche sul paradosso Il concetto espresso dalla frase «la ricchezza non produce la felicità» è dibattuto fin dai tempi antichi. Già in Aristotele: « è chiaro che non è la ricchezza il bene da noi cercato: essa infatti ha valore solo in quanto "utile", cioè in funzione di qualcos'altro » ma questa idea si ritrova espressa in modo diverso anche nel pensiero economico moderno a partire da quello del filosofo scozzese Adam Smith, considerato fondatore dell'economia politica moderna, che evidenzia come "il figlio del povero (poor man's son) lavora giorno e notte per acquisire talenti superiori ai suoi concorrenti" spinto dall'idea ingannevole (deception) che il ricco sia più felice o possieda "maggiori mezzi per la felicità", ma, in realtà, essendo la capacità di godere dei beni fisiologicamente limitata, l'uomo ricco può consumare poco di più del povero, la cui minor quantità di beni è compensata dalle minori preoccupazioni e dalle migliori relazioni sociali rispetto al ricco che vive continuamente in ansia per i suoi beni, ed invecchia solo e deluso per non aver raggiunto la felicità e per di più invidiato dai suoi concittadini. Successivamente anche gli economisti Arthur Cecil Pigou (1920), John Kenneth Galbraith (1958) e gli psicologi Brickman e Campbell (1971) avevano messo in evidenza l'utilità limitata del reddito sul benessere della persona o, più in generale, sul benessere sociale. In seguito all'enunciazione di Easterlin si è sviluppata una vera e propria sezione dell'economia che, traendo spunto anche dalla precedente economia del benessere, ha dato un forte impulso agli studi sulla relazione tra economia e felicità. Campo degli studi di Easterlin Anche se ormai con il termine "Paradosso della felicità" ci si riferisce in senso stretto al paradosso sopra enunciato, i dati raccolti da Easterlin si basavano su auto-valutazioni soggettive della felicità (in cui gli intervistati rispondevano alla domanda: "Nell’insieme, ti consideri molto felice, abbastanza felice, o non molto felice?") ed arrivarono sostanzialmente a evidenziare una correlazione non significativa e "robusta" tra: • tra reddito nazionale (PNL) e felicità (cioè i Paesi più poveri non risultano essere significativamente meno felici di quelli più ricchi; tali conclusioni sono state successivamente confutate da altri studi che hanno mostrato in particolare gli effetti "indiretti" sulla felicità di altri fattori generati dalle economie sviluppate quali ad esempio la maggiore stabilità della democrazia, la maggiore tutela dei diritti umani e le migliori condizioni della sanità); • tra reddito e felicità delle persone valutata all’interno di un singolo Paese e in un dato momento (cioè le persone più ricche non sono sempre le più felici); • tra aumento di reddito e felicità delle persone valutata nel corso della vita delle singole persone (cioè, come sopra anticipato, nella vita delle persone la felicità sembra dipendere molto poco dalle variazioni di reddito e ricchezza). 165 Paradosso di Easterlin Conseguenze Il paradosso di Easterlin ha messo in crisi l'impostazione mondiale dei mercati indirizzati alla crescita misurata sulla base del PNL / PIL ed ha portato economisti e psicologi ad interrogarsi più approfonditamente su che cosa intendono le persone per "felicità", che cosa le rende "felici"? Se, infatti, raggiungere il benessere economico non garantisce una vita felice, il paradosso di Easterlin induce a riflettere su quali obiettivi, quale stile di vita è meglio perseguire e quali sono le prospettive di benessere sociale (welfare) per una società che intenda mettere la persona e i suoi bisogni al centro di ogni decisione pubblica. Ipotesi teoriche per la spiegazione del paradosso Oltre ad una criticata spiegazione "fondamentalista" della teoria della personalità sulla determinazione genetica a priori del livello di benessere tipico di ogni individuo, studi economici e psicologici successivi hanno dato differenti spiegazioni del risultato, confermato da indagini empiriche, che le persone non sono in grado di ottimizzare le loro scelte per raggiungere il benessere, né sembrano in grado di imparare dagli errori fatti. Lo stesso Easterlin insieme a Daniel Kahneman, Frank ed altri hanno provato a spiegare il paradosso con l'effetto treadmill (tappeto rullante), sostenendo che una conseguenza dell'aumento del reddito/ricchezza è proprio che è come se corressimo inconsapevolmente su un tappeto rullante, rimanendo sempre al medesimo punto. I principali treadmill effect sono: • l'hedonic treadmill, secondo la "teoria dell'adattamento", è il meccanismo per il quale la nostra soddisfazione o il benessere conseguente all'acquisto di un nuovo bene di consumo (per esempio, di automobile berlina al posto della precedente utilitaria), dopo un miglioramento temporaneo ritorna rapidamente al livello precedente; • il satisfaction treadmill, invece, dipende dall'innalzamento del nostro livello di "aspirazione al consumo" al migliorare del reddito, cioè nonostante la "felicità oggettiva" migliori si richiedono continui e più intensi piaceri per mantenere lo stesso livello di soddisfazione (il livello che segna il confine fra i risultati soddisfacenti e quelli insoddisfacenti) o la stessa "felicità soggettiva" (l’autovalutazione della propria felicità); • il positional treadmill relativo mette l’accento sugli effetti "posizionali" dei beni di consumo in base ai quali: il benessere che traiamo dal consumo dipende soprattutto dal valore relativo del consumo stesso, cioè da quanto esso differisce da quello degli altri con i quali ci confrontiamo. Altri modelli di spiegazione in particolare di Scitovsky, Hirsch, Bartolini ed altri evidenziano come gli individui, sia a causa di limiti cognitivi, sia a causa dei condizionamenti sociali, hanno difficoltà ad ottimizzare le scelte: • nel conflitto tra comfort (a bassi costi d'accesso, ma anche rendimenti decrescenti con l'abitudine ed alti costi d'uscita a causa dell'assuefazione) e attività stimolanti e creative (con rendimenti crescenti in termini di godimento, ma anche più altri costi d'accesso per la necessità di acquisire capacità di consumo complesse) • nel conflitto tra beni standardizzati (anonimi, poco stimolanti e di cui ci stanchiamo in fretta) risultato di una produzione sempre più specializzata e gli specifici bisogni e desideri individuali di un "consumo" sempre più "olistico" • nel "processo di sostituzione" in atto da parte del mercato che spinge l'offerta di costosi sostituti "artificiali" ai beni relazionali e naturali "gratuiti" e quindi la motivazione degli "individui ad accumulare denaro" per far fronte allo sviluppo di una società in cui gratuitamente si possa fare sempre meno e che erode sempre più le risorse. Ampliamento della categoria dei beni imposto dal paradosso Quasi tutte le ipotesi per spiegare il paradosso rimandano più o meno direttamente alla necessità "economica" di inserire nell'analisi delle ricchezze un'altra categoria di beni: i beni relazionali (come l’ambito familiare, affettivo e civile della partecipazione alla vita sociale/volontariato e politica della propria comunità). È interessante osservare che molte ricerche mettono in luce che per i beni relazionali (come ad esempio nel caso del matrimonio, dei figli, degli amici, dell'occupazione lavorativa, della salute) il treadmill dell’adattamento e delle aspirazioni non è totale e la felicità (o infelicità nei casi negativi) pur diminuendo nel tempo rimane comunque più elevata. Sarebbe poi, secondo 166 Paradosso di Easterlin molti, da considerare nell'analisi economica anche il patrimonio ambientale su cui confluiscono gran parte delle "esternalità" negative (inquinamenti di vario tipo e consumo delle fonti non rinnovabili) non conteggiate nel bilancio della logica economica del mercato. Ci sono cioè dei beni che il denaro è capace di comprare e spesso sacrificati al fine di conseguire il reddito monetario necessario per acquistare i "beni di consumo". (si pensi al tempo crescente che le attività lavorative rubano alle relazioni familiari e ai rapporti di amicizia). Rappresentazione matematica del paradosso Se indichiamo con F la felicità di un individuo (considerandola una variabile misurabile cardinalmente), con I il reddito (inteso come mezzi materiali), con R i "beni relazionali", e ignoriamo altri elementi importanti, possiamo scrivere: F = f(I,R) possiamo esprimere cioè la felicità come una funzione del reddito individuale e beni relazionali. Se è vero e ragionevole supporre che l’effetto complessivo del reddito (I) contribuisce direttamente alla felicità soprattutto per bassi livelli di reddito, bisogna anche considerare che, dopo aver superato una certa soglia, questo può diventare negativo poiché l’impegno per aumentare il reddito (assoluto o relativo) può produrre sistematicamente effetti negativi sui beni relazionali, sulla qualità e quantità delle nostre relazioni (ad esempio a causa delle risorse eccessive che impieghiamo per aumentare il reddito e che sottraiamo ai rapporti umani), e quindi, indirettamente, potrebbe smorzare, o addirittura ribaltare l’effetto totale diminuendo la felicità. Le diverse ipotesi prima illustrate, insieme ai nostri limiti cognitivi e ai condizionamenti sociali spiegano perché inconsapevolmente non ci comportiamo razionalmente e superiamo il punto critico. Soluzioni Una delle macroconclusioni sembra essere quindi che ricchezza (o utilità) e felicità (o benessere sociale) non sono la medesima cosa, perché per essere più felici non basta cercare di aumentare l'utilità (prodotti, beni, beni, servizi), bensì, almeno in maniera prevalente, è necessario addentrarsi nella sfera della relazione tra le persone. Tra le tante soluzioni proposte, lo stesso Easterlin suggerisce che, poiché ciascun individuo possiede un certo ammontare di tempo da allocare tra diversi domini monetari e non (quali reddito e beni materiali, famiglia, stato di salute, lavoro, stabilità emotiva, autodisciplina) per aumentare la propria felicità, sarebbe meglio destinare il tempo a quei domini in cui l'adattamento edonico e il confronto sociale sono meno importanti ad esempio nei beni relazionali o "beni non posizionali". È un po' come dire che "per essere felici bisogna essere almeno in due". Bibliografia • Easterlin, R A. Does Economic Growth Improve the Human Lot? (1974) in Paul A. David and Melvin W. Reder, eds., Nations and Households in Economic Growth: Essays in Honor of Moses Abramovitz, New York: Academic Press, Inc. • Aristotele, Etica Nicomachea • Bartolini, S. in Bruni, Porta Felicità ed Economia, Guerini e Associati • Brickman, P., e Campbell, D. T. (1971). Hedonic relativism and planning the good society. In M. H. Apley (Ed.), Adaptation-level • Bruni, L. e Porta, PL (2004) Felicità ed economia, a cura di, Guerini & Associati, Milano. • Bruni, L. e S. Zamagni (2004), Economia civile, Il Mulino, Bologna. • Easterlin, R. (1974), Does economic growth improve human lot? Some empirical evidence, Nation and Households in economic growth: Essays in honor of Moses Abromowitz (a cura di P.A. Davis e M.W. Reder), Academic Press, New York e London. • Easterlin, R. (2001), Income and Happiness: Towards a Unified Theory, The Economic Journal 167 Paradosso di Easterlin • Easterlin, R. (2004), Per una migliore teoria del benessere soggettivo, in Bruni e Porta (2004). • Frank, R.H., Choosing the Right Pond: Human Behavior and the Quest for Status (1985), Oxford University Press, Oxford,. • Frey B., Stutzer A., Economia e Felicità (2006), Il sole 24 Ore • Galbraith, J.K., The Affluent Society (1958), Penguin Business • Kahneman, D. (2004), Felicità oggettiva, in Bruni e Porta (2004). • Lucas, R.E., Clark, A.E., Georgellis, Y., Diener, E. (2003), Re-examining Adaptation and the Setpoint Model of Happiness: Reactions to Changes in Marital Status, Journal of Personality and Social Psychology • Pigou, A.C., The Economic Welfare (1920), McMillian, Londra • Scitovsky, T., The Joyless Economy: An Inquiry into Human Satisfaction and Consumer Dissatisfaction (1976), Oxford University Press. Recensione all'edizione italiana (2007 - Città Nuova), a cura di Reggiani, T., (2008) in Aggiornamenti Sociali, vol. 1/2008, pp.69-71. • Smith, A., Teoria dei sentimenti morali (1759), ed. it. Rizzoli 1995 Collegamenti esterni • (EN)Richard A. Easterlin su usc.edu [1] Note [1] http:/ / www-rcf. usc. edu/ ~easterl/ Paradosso di Einstein-Podolsky-Rosen Il paradosso di Einstein-Podolsky-Rosen (paradosso EPR) è un esperimento mentale che dimostra come una misura eseguita su una parte di un sistema quantistico possa propagare istantaneamente un effetto sul risultato di un'altra misura, eseguita successivamente su un’altra parte dello stesso sistema, indipendentemente dalla distanza che separa le due parti. Questo effetto, derivante dalla interpretazione di Copenaghen della meccanica quantistica e divenuto poi noto come entanglement quantistico, venne considerato paradossale in quanto, oltre che controintuitivo, ritenuto incompatibile con un postulato della relatività ristretta (che considera la velocità della luce la velocità limite alla quale può viaggiare un qualunque tipo d'informazione) e, più in generale, con il principio di località. Considerazioni generali Albert Einstein, Boris Podolsky e Nathan Rosen proposero questo esperimento ideale in un articolo pubblicato nel 1935 intitolato "La descrizione quantistica della realtà fisica può ritenersi completa?", appunto con l’intento di dimostrare che la meccanica quantistica, portando, oltre che a validi risultati, anche a conseguenze paradossali, non è una teoria fisica completa.[1] Cinque mesi dopo, Niels Bohr rispose all'argomento di EPR con un articolo intitolato allo stesso modo.[2] La posizione di Bohr è stata a lungo considerata come ulteriore vittoria del suo scontro con Einstein, benché oggi si riconosca apertamente che la sua posizione era piuttosto oscura e non può essere certo considerata soddisfacente come risposta a EPR. Sempre nello stesso anno, Erwin Schrödinger pubblicò l'articolo in cui descrive il famoso paradosso del gatto, cercando di chiarire l'idea della sovrapposizione di stati nella meccanica quantistica. Si deve a David Bohm, nel 1951, una riformulazione del paradosso in termini più facilmente verificabili sperimentalmente.[3] Il paradosso EPR descrive un effetto fisico che, come accennato, ha aspetti paradossali nel senso seguente: se in un sistema quantistico ipotizziamo alcune deboli e generali condizioni, come realismo, località e completezza, ritenute ragionevolmente vere per qualunque teoria che descriva la realtà fisica senza contraddire la relatività, giungiamo ad 168 Paradosso di Einstein-Podolsky-Rosen una contraddizione. Tuttavia è da notare che "di per sé" la meccanica quantistica non è intrinsecamente contraddittoria, né risulta in contrasto con la relatività. Benché proposto originariamente per mettere in luce l'incompletezza della meccanica quantistica, ulteriori sviluppi teorici e sperimentali seguiti all'articolo originale (come il teorema di Bell e l'esperimento sulla correlazione quantistica di Aspect[4]) hanno portato una gran parte dei fisici a considerare il paradosso EPR solo un illustre esempio di come la meccanica quantistica contrasti in modo stridente con le esperienze quotidiane del mondo macroscopico (per quanto la questione non sia assolutamente chiusa). Descrizione del paradosso Misure su uno stato entangled Considereremo la versione semplificata dell'esperimento ideale di EPR formulata da David Bohm. Si supponga di avere una sorgente che emette coppie di elettroni, uno dei quali viene inviato alla destinazione A, dove c'è un'osservatrice di nome Alice, e l'altro viene inviato alla destinazione B, dove c'è un osservatore di nome Bob. Secondo la meccanica quantistica, possiamo sistemare la sorgente in modo che ciascuna coppia di elettroni emessi occupi uno stato quantistico detto singoletto di spin. Questo si può descrivere come sovrapposizione quantistica di due stati, indicati con I e II. Nello stato I, l'elettrone A ha spin parallelo all'asse z (+z) e l'elettrone B ha spin antiparallelo all'asse z (-z). Nello stato II, l'elettrone A ha spin -z e l'elettrone B ha spin +z. È quindi impossibile associare ad uno dei due elettroni nel singoletto di spin uno stato di spin definito: gli elettroni sono quindi detti entangled, cioè intrecciati. Riproposizione dell'esperimento suggerito da Einstein, Podolsky e Rosen, eseguito con elettroni. Una sorgente invia elettroni verso due osservatori, Alice (a sinistra) e Bob (a destra), i quali sono in grado di eseguire misure della proiezione dello spin degli elettroni lungo un asse. Alice misura lo spin lungo l'asse ottenendo uno dei due possibili risultati: +z o -z. Supponiamo che ottenga +z; secondo la meccanica quantistica la funzione d'onda che descrive lo stato di singoletto dei due elettroni collassa nello stato I (le diverse interpretazioni della meccanica quantistica dicono questo in diversi modi, ma il risultato alla fine è lo stesso) e tale stato quantistico determina le probabilità dei risultati di qualunque altra misura fatta sul sistema. In questo caso, se Bob successivamente misurasse lo spin lungo l'asse z, otterrebbe -z con una probabilità del 100%. Analogamente, se Alice misurasse -z, Bob otterrebbe +z, sempre con una probabilità del 100%. Naturalmente non c'è niente di speciale nella scelta dell'asse z. Ad esempio, supponiamo che Alice e Bob decidano di misurare lo spin lungo l'asse x. Secondo la meccanica quantistica, lo stato di singoletto di spin può essere espresso adeguatamente come sovrapposizione di stati di spin lungo la direzione x, stati che chiameremo Ia e IIa. Nello stato Ia l'elettrone di Alice ha spin +x, quello di Bob ha spin -x, invece nello stato IIa l'elettrone di Alice ha spin -x, quello di Bob ha spin +x. Quindi, se Alice misura +x, il sistema collassa in Ia, e Bob misurerà -x, con probabilità del 100%; se Alice misura -x, il sistema collassa in IIa e Bob misurerà +x, con probabilità del 100%. In meccanica quantistica, la proiezione dello spin lungo x e quella lungo z sono quantità osservabili tra loro incompatibili, per cui gli operatori associati non commutano, cioè uno stato quantistico non può possedere valori 169 Paradosso di Einstein-Podolsky-Rosen definiti per entrambe le variabili (principio di indeterminazione). Supponiamo che Alice misuri lo spin lungo z e ottenga +z, in modo che il sistema collassi nello stato I. Ora, invece di misurare lo spin lungo z, Bob misura lo spin lungo x : secondo la meccanica quantistica, c'è il 50% di probabilità che egli ottenga +x e il 50% di probabilità che ottenga -x. Inoltre, è impossibile predire quale sarà il risultato fino a quando Bob non esegue la misura. È bene sottolineare che, benché si sia usato lo spin come esempio, si possono considerare molte altre quantità fisiche (osservabili), tra loro entangled. L'articolo originale di EPR, per esempio, usava l'impulso come quantità osservabile. Gli esperimenti odierni usano spesso la polarizzazione dei fotoni, perché più facile da preparare e quindi misurare. Realismo e completezza Introdurremo ora due concetti usati da Einstein, Podolsky e Rosen, fondamentali per il loro attacco alla meccanica quantistica: il realismo o oggettivismo realistico e la completezza di una teoria fisica. Gli autori non si sono riferiti direttamente al significato filosofico di un "elemento fisico di realtà". Piuttosto essi assunsero che se il valore di ogni quantità fisica di un sistema può essere predetto con assoluta certezza prima di fare una misura o prima di intervenire in qualche modo sul sistema medesimo, allora tale quantità esprime un elemento fisico di realtà. Notare che l'opposto, cioè la negazione dell'affermazione precedente, non porta necessariamente ad un assunto vero; possono esserci altre espressioni di elementi fisici di realtà, ma questo fatto non ha influenza sul resto dell'argomentazione. In aggiunta, EPR definiscono una teoria fisica completa come una teoria in cui ogni elemento fisico di realtà sia preso in considerazione. Lo scopo del loro articolo è mostrare, usando queste due definizioni, che la meccanica quantistica non è una teoria fisica completa. Vediamo come questi concetti si applicano all'esperimento pensato di cui sopra. Supponiamo che Alice decida di misurare lo spin lungo z (lo chiameremo z-spin). Dopo che Alice esegue la misura, lo z-spin dell'elettrone di Bob è noto, quindi è un elemento fisico di realtà. Analogamente, se Alice decidesse di misurare lo spin lungo x, l'x-spin di Bob sarebbe un elemento fisico di realtà dopo la sua misura. Uno stato quantistico non può possedere contemporaneamente un valore definito per lo x-spin e lo z-spin . Se la meccanica quantistica è una teoria fisica completa nel senso dato sopra, l'x-spin e lo z-spin non possono essere elementi fisici di realtà allo stesso tempo. Questo significa che la decisione di Alice di eseguire la misura lungo l'asse x o lungo l'asse z ha un effetto istantaneo sugli elementi fisici di realtà nel luogo in cui si trova Bob ad operare con le sue misure. Tuttavia, questa è una violazione del principio di località o principio di separazione. Località nel paradosso EPR Il principio di località afferma che i processi fisici non possono avere effetto immediato su elementi fisici di realtà in un altro luogo separato da quello in cui avvengono. A prima vista questa appare un'assunzione ragionevole (infatti a livello macroscopico lo è), in quanto conseguenza della relatività speciale, la quale afferma che le informazioni non si possono mai trasmettere a una velocità maggiore di quella della luce senza violare la causalità. Generalmente si crede che ogni teoria che violi la causalità sia anche internamente inconsistente, e quindi del tutto insoddisfacente. Si trova che la meccanica quantistica viola il principio di località senza violare la causalità. La causalità è preservata perché non c'è alcun modo per Alice di trasmettere un messaggio (cioè informazioni) a Bob variando l'asse lungo cui fa la misura. Qualunque asse lei scelga, ha sempre il 50% di probabilità di ottenere "+" e il 50% di ottenere "-", cioè è del tutto impossibile per lei influire sul risultato che otterrà. Inoltre Bob può fare la sua misura una sola volta, in quanto il collasso della funzione d'onda provocato dalla misura perturba in maniera irreversibile lo stato misurato: c'è una proprietà basilare della meccanica quantistica, nota come "no cloning theorem", che rende impossibile per l'osservatore fare, diciamo, un milione di copie dell'elettrone che riceve, eseguire misure sullo spin di ciascuno e poi analizzare la distribuzione statistica dei risultati. Quindi, nell'unica misura che gli è permesso fare, c'è il 50% di probabilità di ottenere "+" e il 50% di ottenere "-", indipendentemente dal fatto che il suo asse sia allineato o meno con quello di Alice. 170 Paradosso di Einstein-Podolsky-Rosen Tuttavia il principio di località si richiama fortemente all'intuizione fisica di livello macroscopico, ed Einstein, Podolsky e Rosen non volevano abbandonarlo. Einstein derise le predizioni della meccanica quantistica come "spaventosa azione a distanza". La conclusione che trassero fu che la meccanica quantistica non è una teoria completa. Si deve far notare che la parola località ha diversi significati in fisica. Per esempio, in teoria quantistica dei campi "località" significa che campi in punti diversi dello spazio non interagiscono l'uno con l'altro. Tuttavia, le teorie di campo quantistiche che sono "locali" in questo senso violano il principio di località come definito da EPR. Risoluzione del paradosso Variabili nascoste Esistono parecchi possibili modi per risolvere il paradosso. Quello ipotizzato da EPR è che la meccanica quantistica, nonostante il successo in una ampia e vasta varietà di scenari sperimentali, sia in realtà una teoria incompleta. In altre parole esisterebbe qualche teoria della natura ancora non scoperta, rispetto alla quale la meccanica quantistica gioca il ruolo di approssimazione statistica. Questa teoria più completa conterrebbe variabili che tengono conto di tutti gli "elementi fisici di realtà" e che danno origine agli effetti che la meccanica quantistica è in grado di predire solo a livello probabilistico. Una teoria con tali caratteristiche prende il nome di teoria delle variabili nascoste. Per illustrare questa idea si può formulare una teoria delle variabili nascoste molto semplice, che spieghi i risultati dell'esperimento descritto sopra. Si supponga che gli stati quantistici di spin di singoletto emessi dalla sorgente siano in realtà descrizioni approssimate dei "veri" stati fisici che possiedono valori definiti per lo z-spin e per l'x-spin. In questi stati "veri", l'elettrone che va verso Bob ha sempre valori di spin opposti rispetto all'elettrone che va verso Alice, ma tali valori sono completamente random (casuali). Per esempio, la prima coppia emessa dalla sorgente può essere "(+z, -x) verso Alice e (-z, +x) verso Bob", la coppia successiva "(-z, -x) verso Alice e (+z, +x) verso Bob" e così via. Per ciò, se l'asse della misura di Bob è allineato con quello di Alice, egli otterrà necessariamente l'opposto di qualunque cosa ottenga Alice; altrimenti egli otterrà "+" e "-" con eguale probabilità. Ipotizzando di restringere le misure solo all'asse z e all'asse x, tale teoria delle variabili nascoste è sperimentalmente indistinguibile dalla teoria della meccanica quantistica. In realtà c'è ovviamente un numero infinito (numerabile) di assi lungo i quali Alice e Bob possono eseguire le rispettive misure; questo significa che, in teoria, si potrebbe considerare un numero infinito di variabili nascoste indipendenti. Tuttavia, si deve tener presente che questa è una formulazione molto semplicistica di una teoria delle variabili nascoste e una teoria più sofisticata sarebbe in grado di risolvere il problema a livello matematico. Disuguaglianze di Bell Nel 1964, John Bell ha dimostrato con il suo teorema come le predizioni della meccanica quantistica nell'esperimento mentale EPR siano in realtà leggermente differenti dalle predizioni di una classe molto vasta di teorie delle variabili nascoste: grosso modo, la meccanica quantistica predice correlazioni statistiche molto più forti tra i risultati di misure eseguite su differenti assi. Queste differenze, espresse adoperando relazioni di disuguaglianza note come Disuguaglianze di Bell, sono in linea di principio verificabili sperimentalmente, per cui sono stati approntati allo scopo tutta una serie di esperimenti, che, come detto sopra, in generale trattano misure di polarizzazione di fotoni. Tutti i risultati hanno indicato un comportamento in linea con le predizioni della meccanica quantistica standard. Tuttavia questi fatti non chiudono il discorso in modo definitivo. Anzitutto il teorema di Bell non si applica a tutte le possibili teorie "realiste": è possibile infatti costruire teorie che eludono le sue implicazioni diventando indistinguibili dalla meccanica quantistica, per quanto risultino più marcatamente non-locali. Si reputa in proposito che vengano violate sia la causalità, sia i teoremi della relatività ristretta ai sistemi inerziali. Alcuni ricercatori hanno 171 Paradosso di Einstein-Podolsky-Rosen inoltre tentato di formulare teorie di variabili nascoste che sfruttino "scappatoie" in esperimenti concreti, come per esempio le assunzioni fatte nell'interpretare i dati sperimentali, ma nessuno è stato finora in grado di formulare una teoria realista locale capace di riprodurre tutti i risultati della meccanica quantistica. Implicazioni per la meccanica quantistica Attualmente la maggior parte dei fisici ritiene che la meccanica quantistica sia corretta e che il paradosso EPR sia appunto solo un "paradosso" per il fatto che le intuizioni classiche (di livello macroscopico) non corrispondano alla realtà. Si possono trarre da ciò parecchie diverse conclusioni, che dipendono da quale interpretazione della meccanica quantistica si usi. Nella vecchia interpretazione di Copenaghen, prodotta da Niels Bohr, Werner Karl Heisenberg, Pascual Jordan e Max Born, si conclude che il principio di località (o di separazione) non debba valere e che avvenga effettivamente il collasso della funzione d'onda istantaneo. Nell'interpretazione a molti-universi, di Hugh Everett III, la località è mantenuta e gli effetti delle misure sorgono dal suddividersi e ramificarsi delle "storie" o linee d'universo degli osservatori. Il paradosso EPR ha reso più profonda la comprensione della meccanica quantistica mettendo in evidenza le caratteristiche fondamentalmente non classiche del processo di misura. Prima della pubblicazione dell'articolo di Einstein-Podolsky-Rosen, una misura era abitualmente vista come un processo fisico di perturbazione inflitto direttamente al sistema sotto misura. In altri termini, se si fosse misurata la posizione di un elettrone, ad es. illuminandolo con luce, cioè con un fiotto di fotoni, l'urto dei fotoni con l'elettrone, necessario per illuminarlo e "vedere" dov'è, avrebbe disturbato lo stato quantomeccanico dell'elettrone, per esempio modificandone la velocità e producendo così incertezza sulla velocità; questa descrizione viene adoperata per esemplificare l'indeterminazione quantomeccanica su posizione e velocità, grandezze meccaniche necessarie a determinare l'evoluzione dello stato meccanico (grandezze coniugate). Tali spiegazioni, che ancora si incontrano in esposizioni non specialistiche, scolastiche e divulgative della meccanica quantistica, sono completamente demistificate dall'analisi di Einstein-Podolsky-Rosen, che mostra chiaramente come possa effettuarsi una "misura" su una particella senza disturbarla direttamente, eseguendo una misura su un'altra particella distante, ma entangled (intrecciata) con la prima. Sono state sviluppate e stanno progredendo tecnologie che si basano sull'entanglement quantistico (intreccio di stati quantistici). Nella crittografia quantistica, si usano particelle entangled per trasmettere segnali che non possono essere intercettati senza lasciare traccia dell'intercettazione avvenuta. Nella computazione quantistica, si usano stati quantistici intrecciati (entangled) per eseguire calcoli in parallelo, che permettono elaborazioni con velocità che non si possono raggiungere con i computer classici. Teorema del multiverso Esiste una spiegazione che riguarda gli universi multipli molto più complicata, per quanto abbastanza verosimile. Essa stabilisce che ogni volta che qualcosa è incerto, l'"Albero dell'Universo" (come talvolta è chiamato il fenomeno di tutte le ramificazioni possibili di eventi) produce un altro ramo ovvero si ramifica. Ciascuna ramificazione, appena prodotta, è un diverso universo simile al precedente, perché l'incertezza generalmente è piccola, all'inizio. Ogni possibilità è un accadimento che capita da qualche parte. Si tratta di una visualizzazione intuitiva. La teoria è molto più ampia, ma a causa della grande astrattezza di questi concetti non può essere affrontata in questa sede con maggior dettaglio. 172 Paradosso di Einstein-Podolsky-Rosen 173 Formulazione matematica Si può esprimere matematicamente la discussione di cui sopra adoperando il formalismo quantomeccanico di spin. Il grado di libertà di spin di un elettrone è associabile con uno spazio di Hilbert bidimensionale H, in cui ogni vettore dello spazio corrisponde ad uno stato quantico di spin. Gli operatori quantistici che corrispondono allo spin lungo le direzioni x, y e z, designati rispettivamente Sx, Sy e Sz, possono essere associati a loro volta alle matrici di Pauli: dove rappresenta la costante d'azione di Planck divisa per 2π. Gli autostati di Sz sono espressi da mentre gli autostati di Sx sono espressi da Lo spazio di Hilbert per una coppia di elettroni è , cioè il prodotto tensoriale degli spazi di Hilbert dei due singoli elettroni. Lo stato di spin di singoletto è dove i due termini nel membro a destra stanno per ciò che più sopra è stato chiamato stato I e stato II. A partire da queste equazioni, si può mostrare che lo spin di singoletto è scrivibile come dove i termini del membro a destra sono quello che è stato chiamato stato Ia e stato IIa. Per illustrare come questo comporti la violazione del realismo locale, è necessario mostrare che dopo la misura effettuata da Alice di Sz (o di Sx), il valore misurato da Bob di Sz (o di Sx) è determinato univocamente e per questo corrisponde ad un "elemento fisico di realtà". Questo fatto discende dalla teoria della misura adottata in meccanica quantistica. Quando viene effettuata la misura Sz, lo stato ψ del sistema collassa dentro un autovettore di Sz. Se il risultato della misura è +z, ciò significa che immediatamente subito dopo la misurazione lo stato ψ del sistema viene sottoposto ad una proiezione ortogonale nello spazio degli stati della forma Per il singoletto di spin, il nuovo stato è Analogamente, se la misura di Alice dà -z, il sistema viene sottoposto ad una proiezione ortogonale su che significa che il nuovo stato è Questo implica che ora la misura di Sz dell'elettrone di Bob è determinata. Sarà -z nel primo caso e +z nel secondo caso. Resta solo da mostrare che Sx e Sz non possono possedere contemporaneamente, per la meccanica quantistica, valori definiti. Si potrebbe mostrare in maniera diretta che non esiste nessun vettore che possa essere un autovettore di entrambe le matrici. Più in generale, si può usare il fatto che gli operatori non commutano, Paradosso di Einstein-Podolsky-Rosen secondo la relazione di incertezza di Heisenberg Note [1] Einstein, A, B Podolsky, N Rosen (15 maggio 1935). Can Quantum-Mechanical Description of Physical Reality be Considered Complete? (http:/ / prola. aps. org/ pdf/ PR/ v47/ i10/ p777_1). Physical Review 47 (10): 777–80. DOI: 10.1103/PhysRev.47.777 10.1103/PhysRev.47.777 (http:/ / dx. doi. org/ ). URL consultato il 19 agosto 2010. [2] N. Bohr, Can quantum-mechanical description of physical reality be considered complete?, Physical Review, 48 (1935), pag. 700. [3] Bohm David. (1951). Quantum Theory (http:/ / books. google. com. au/ books?id=9DWim3RhymsC& printsec=frontcover& dq=david+ bohm+ quantum+ theory& source=bl& ots=6G-2u1wtav& sig=Q1GcoVDLFRmKOmDYFAJte6LzrZU& hl=en& ei=Pv45TNSnLYffcfnS6foO& sa=X& oi=book_result& ct=result& resnum=7& ved=0CEEQ6AEwBg#v=onepage& q& f=false), Prentice-Hall, Englewood Cliffs, page 29, and Chapter 5 section 3, and Chapter 22 Section 19. [4] Proposed experiment to test the non-separability of quantum mechanics (http:/ / prola. aps. org/ abstract/ PRD/ v14/ i8/ p1944_1), A. Aspect, Phys. Rev. D 14, 1944–1951 (1976) Voci correlate • CHSH Bell test • • • • • • • Esperimenti sulle disuguaglianze di Bell Esperimento sulla correlazione quantistica di Aspect Sincronismo Stato di Bell Teletrasporto quantistico Teorema di Bell Teoria delle variabili nascoste Bibliografia Articoli selezionati • A. Aspect, Bell's inequality test: more ideal than ever, Nature 398 189 (1999). (http://www-ece.rice.edu/ ~kono/ELEC565/Aspect_Nature.pdf) • J.S. Bell On the Einstein-Poldolsky-Rosen paradox, Physics 1 195 (1964). • J.S. Bell, Bertlmann's Socks and the Nature of Reality. Journal de Physique 42 (1981). • P.H. Eberhard, Bell's theorem without hidden variables. Nuovo Cimento 38B1 75 (1977). • P.H. Eberhard, Bell's theorem and the different concepts of locality. Nuovo Cimento 46B 392 (1978). • A. Einstein, B. Podolsky, and N. Rosen, Can quantum-mechanical description of physical reality be considered complete? (http://www.drchinese.com/David/EPR.pdf) Phys. Rev. 47 777 (1935). (http://prola.aps.org/ abstract/PR/v47/i10/p777_1) • A. Fine, Hidden Variables, Joint Probability, and the Bell Inequalities. Phys. Rev. Lett 48, 291 (1982). • A. Fine, Do Correlations need to be explained?, in Philosophical Consequences of Quantum Theory: Reflections on Bell's Theorem, edited by Cushing & McMullin (University of Notre Dame Press, 1986). • L. Hardy, Nonlocality for 2 particles without inequalities for almost all entangled states. Phys. Rev. Lett. 71 1665 (1993). • M. Mizuki, A classical interpretation of Bell's inequality. Annales de la Fondation Louis de Broglie 26 683 (2001). 174 Paradosso di Einstein-Podolsky-Rosen Libri • Bell, John S, Dicibile e indicibile in meccanica quantisica , Milano, Adelphi, 2010. • J.J. Sakurai, Modern Quantum Mechanics (Addison-Wesley, 1994), pp. 174–187, 223-232. ISBN 0-201-53929-2 • F. Selleri, Quantum Mechanics Versus Local Realism: The Einstein-Podolsky-Rosen Paradox (Plenum Press, New York, 1988) • A. Zeilinger, Il velo di Einstein - Il nuovo mondo della fisica quantistica (Einaudi, 2005). ISBN 88-06-17078-3 Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:EPR paradox Collegamenti esterni • • • • Paradosso EPR e teorema di Bell (http://www.pv.infn.it/~nicrosi/paradosso/home.htm) (EN) The Einstein-Podolsky-Rosen Argument in Quantum Theory (http://plato.stanford.edu/entries/qt-epr/) (EN) Bell’s Theorem (http://plato.stanford.edu/entries/bell-theorem/) (EN) EPR, Bell & Aspect: The Original References (http://www.drchinese.com/David/EPR_Bell_Aspect. htm) • (EN) Does Bell's Inequality Principle rule out local theories of quantum mechanics? (http://math.ucr.edu/home/ baez/physics/Quantum/bells_inequality.html) • Un inaspettato legame fra principio di indeterminazione e non-località (http://lescienze.espresso.repubblica.it/ articolo/articolo/1345610) Paradosso di Epimenide Nella logica il paradosso del mentitore è descritto come: data una proposizione autonegante come "Questa frase è falsa", nessuno riuscirà mai a dimostrare se tale affermazione sia vera o falsa; • se infatti fosse vera, allora la frase non sarebbe veramente falsa (la verità della proposizione non invalida la falsità espressa nel contenuto della proposizione). • se invece la proposizione fosse falsa, allora il contenuto si capovolgerebbe (è come se dicesse "Questa frase è vera") quando abbiamo appena affermato il contrario. Il paradosso del mentitore: versione originale Secondo alcuni, quello che oggi chiamiamo paradosso nacque con una nota affermazione di Epimenide di Creta (VI secolo a.C.), il quale, cretese egli stesso, ebbe a dire che «i Cretesi sono bugiardi»; essendo come detto egli medesimo fra questi, anch'egli sarebbe dovuto conseguentemente essere bugiardo e perciò l'affermazione sarebbe dovuta essere falsa poiché proveniente da un bugiardo. Ma se così non fosse stato, se cioè Epimenide fosse stato un cretese che, almeno in questa occasione, non diceva il falso, l'affermazione sarebbe risultata ugualmente falsa poiché non tutti i cretesi erano bugiardi. Non è tuttavia noto se l'affermazione di Epimenide fosse intesa come un paradosso del mentitore. Inoltre, la proposizione, così come è formulata, non è un paradosso, per l'assenza del quantificatore universale (tutti o nessuno): se infatti esiste almeno un cretese che dice la verità, allora l'affermazione di Epimenide è falsa senza portare ad alcuna contraddizione. Non si conosce il contesto in cui Epimenide fece questa affermazione; fu solo più tardi che questa fu di nuovo citata (per esempio nella Lettera a Tito 1,12-13) e presentata come un paradosso del mentitore. 175 Paradosso di Epimenide Diogene Laerzio[1] ha attribuito l'ideazione del paradosso ad Eubulide di Mileto (IV secolo a.C.), il quale riformulò l'affermazione di Epimenide dicendo «ψευδόμενος» (pseudòmenos), «io sto mentendo». Da notare in primo luogo che la frase è «io sto mentendo», e non «io sono bugiardo», nel senso che «quello che sto dicendo in questo momento è una menzogna». Con Eubulide si ripropone lo stesso dilemma di Epimenide: può essere vera la frase di uno che afferma «io sto dicendo il falso»? La frase di Eubulide non può essere vera, ma non può essere neanche falsa, perché c'è un elemento nuovo rispetto a «tutti i Cretesi mentono». L'elemento nuovo è l'autoriferimento: Eubulide sta parlando di se stesso, cioè sta affermando di se stesso che mente, e questo non può essere né vero né falso. Il paradosso del mentitore: elaborazioni successive Dal paradosso del mentitore sono derivate elaborazioni diversificate di molti autori attraverso tutti i secoli, ed anche attualmente l'argomento è assai discusso. Tra le più note riformulazioni del paradosso del mentitore vi sono: • quella di Aristotele (Confutazioni sofistiche (XXV)), il quale propose due quesiti di analoga contraddittorietà: • è possibile giurare di rompere il giuramento che si sta prestando? • è possibile ordinare di disobbedire all'ordine che si sta impartendo? • quella di Diogene Laerzio (II secolo d.C.): un coccodrillo ghermisce un bambino che gioca sulle rive del Nilo; la madre del piccolo implora il coccodrillo di restituirle il figlio, ma il coccodrillo fa la seguente proposta: "Se indovini quello che farò, ti restituirò il bambino". La madre allora dice al coccodrillo: "Credo che mangerai il piccolo". Se la madre ha detto il vero, se ha cioè indovinato che il coccodrillo vuole mangiare il bambino, allora in questo caso il coccodrillo ha promesso di restituire il bimbo. Ma se il coccodrillo restituisce il bimbo, significherebbe che non lo ha mangiato, e quindi la donna non avrebbe indovinato e non potrebbe salvare la vita del figlio. Risultato: in tutti i casi, se la madre dice "tu lo mangerai", non potrà mai riavere il figlio e il coccodrillo non potrà mai mantenere la promessa di restituirlo. • quella di Giovanni Buridano, o meglio Jean Buridan, filosofo francese morto di peste a Parigi nel 1358 o 1360. Fino a quell'epoca, durante la Scolastica, si era sempre pensato che i problemi logici derivanti dal paradosso del mentitore derivassero dal carattere di autoreferenza. Buridano dimostrò che il problema non era l'autoreferenza, elaborando un paradosso nel quale l'autoriferimento era per così dire spezzato in due. Egli immaginò due protagonisti, Socrate e Platone, ciascuno dei quali pronuncia una sola frase. Socrate dice "Platone dice il falso"; Platone dice "Socrate dice il vero". Vista isolatamente, ciascuna delle due frasi non è affatto paradossale, ma la loro congiunzione lo diventa. Se Socrate dice effettivamente il vero, allora Platone mente davvero e di conseguenza (contraddicendo alla premessa) Socrate dice il falso. Non è possible che la frase di Socrate sia vera e poi arrivare alla conclusione che è falsa. • quella elaborata da Miguel de Cervantes nel Don Chisciotte (1615), dove si narrava di Sancho Panza che divenne governatore di Barataria e si trovò a dover decidere sul caso accaduto ad un militare, messo di guardia su un ponte con l'ordine di impiccare tutti coloro che mentivano circa il motivo per cui volevano oltrepassare il ponte stesso. Il militare raccontava che un giorno era arrivato un tale cui fu chiesto perché voleva passare il ponte. A questa domanda, il tale rispose: "voglio attraversare il ponte solo per essere impiccato in base alla legge". Se fosse vero che costui voleva farsi impiccare, allora aveva detto la verità e quindi non doveva essere impiccato. Se stesse mentendo, e poi fosse stato impiccato, avrebbe detto la verità e avrebbe dovuto essere lasciato libero. • quella di Philip Jourdain, che nel 1913 riformulò il paradosso di Buridano eliminando il riferimento a personaggi celebri, ponendo semplicemente due affermazioni: "la frase seguente è falsa" e "la frase precedente è vera". 176 Paradosso di Epimenide Soluzioni del paradosso del mentitore La soluzione data da Crisippo dice semplicemente che il paradosso è il rovesciamento del buon senso: ci sono frasi delle quali «non si deve dire che esse dicono il vero e (neppure) il falso; né si deve congetturare in un altro modo, cioè che lo stesso (enunciato) esprima simultaneamente il vero e il falso, bensì che esse sono completamente prive di significato». La soluzione prospettata da Aristotele è la seguente: le frasi paradossali si fondano sulla confusione tra uso e menzione. Quando si dice "io sto mentendo", si sta usando la frase, nel senso che si tratta di un paradosso di tipo autoreferenziale, catalogato tra gli insolubilia; chi enuncia una frase insolubile, non dice letteralmente nulla e pertanto la proposizione (o meglio, la pseudoproposizione) deve essere semplicemente cassata. Nel Medioevo, una proposta di soluzione fu avanzata da Guglielmo di Ockham (1285-1350). Dal momento che la cassatio di Aristotele non forniva una soluzione concreta, egli introdusse la distinzione tra linguaggio e metalinguaggio. Solo le frasi autoreferenziali mescolano i due livelli in uno solo, perché dire "io sto mentendo" è una frase che si pone nel metalinguaggio (per quanto riguarda il verbo mentire, il cui concetto trova spiegazione non nella frase stessa ma in un altro livello), ma è espressa mediante il linguaggio. La proposta di soluzione di Buridano fu dettata dall'intuizione della logica temporale: un'affermazione non è vera o falsa in assoluto, ma solo relativamente ad un certo momento storico. Mentre non è possibile che una frase possa essere vera o falsa nello stesso tempo, essa può esserlo in tempi diversi: Basterebbe dire "Platone dirà il falso quando pronuncerà la prossima frase" e "Socrate disse il vero quando pronunciò la frase precedente". Nelle logiche non classiche in cui non vale il principio di non-contraddizione, le proposizioni come quelle del mentitore non generano alcun paradosso. Per esempio nella logica fuzzy, dove il valore di verità può variare tra 0 e 1, tali frasi hanno un valore di verità pari a 0,5. Note [1] II, 108. Bibliografia • Piergiorgio Odifreddi, Le menzogne di Ulisse: l'avventura della logica da Parmenide ad Amartya Sen, Milano, Saggistica TEA, 2003. ISBN 9788850211913 Voci correlate • • • • • Antinomia Logica Filosofia Paradosso Verità 177 Paradosso di Fermi Paradosso di Fermi Il paradosso di Fermi è un paradosso che si dice sia stato proposto dal fisico Enrico Fermi nel contesto della probabilità di contattare forme di vita intelligente extraterrestre[1]. Il paradosso si riassume solitamente nella domanda "Dove sono tutti quanti? Se ci sono così tante civiltà evolute, perché non abbiamo ancora ricevuto prove di vita extraterrestre come trasmissioni di segnali radio, sonde o navi spaziali?". Estremizzando la questione, il problema diventa se noi esseri umani siamo la sola civiltà tecnologicamente avanzata dell'Universo. Questo problema viene usualmente posto come monito alle stime più ottimistiche dell'equazione di Drake, che proporrebbero un universo ricco di pianeti con civiltà avanzate, in grado di stabilire comunicazioni radio, inviare sonde o colonizzare altri mondi. La situazione paradossale è dovuta al contrasto tra la sensazione, da molti condivisa e supportata da stime del tipo di quella di Drake, che noi non siamo soli nell'universo e il fatto che i dati osservativi contrastino con questa sensazione. Ne deriva che la nostra osservazione o comprensione dei dati deve essere errata o incompleta. Origine del termine Nel 1950, mentre lavorava nei laboratori di Los Alamos, Enrico Fermi prese parte ad una conversazione con alcuni colleghi, tra cui Edward Teller, durante un pranzo alla mensa del laboratorio. La conversazione verteva su un recente avvistamento di UFO riportato dalla stampa, su cui ironizzava una vignetta satirica[2]. La conversazione si protrasse su vari argomenti correlati, finché improvvisamente, durante il pranzo, Fermi non esclamò "Where is everybody?" (trad. "Dove sono tutti quanti?").[1] Possibili soluzioni I parametri che figurano nell'equazione di Drake sono tutt'altro che definiti e questo non permette di risolvere oggettivamente in alcun senso il paradosso. Di seguito sono elencate diverse possibili soluzioni del paradosso di Fermi[3]. Siamo soli La soluzione più semplice è che la probabilità che la vita si evolva spontaneamente nell'universo e si evolva fino a produrre una civiltà evoluta sia estremamente bassa. Molti sono gli elementi contemporaneamente necessari perché la vita come la intendiamo noi, basata sul carbonio, possa evolversi su un pianeta. Fattori astronomici, come la posizione all'interno della galassia, l'orbita percorsa dal pianeta intorno alla sua stella centrale e la tipologia di quest'ultima, la sua ellitticità e l'inclinazione dell'orbita, nonché la presenza di satelliti naturali delle caratteristiche della Luna, sono tutti fattori determinanti alla predisposizione alla vita. L'attuale nascita della vita, lo sviluppo di forme di vita intelligente e quindi di civiltà richiede che molte altre coincidenze siano verificate. Gli studi sul nostro Sistema Solare sembrano confermare l'eccezionalità della vita sulla Terra.[4] Questa tesi può essere contestata sostenendo che la vita non debba necessariamente essere come la osserviamo sulla Terra, ma possa evolversi in condizioni differenti, e che non debba necessariamente basarsi sul carbonio. Molta dell'incertezza deriva dal fatto che i meccanismi che portano alla nascita della vita sono ignoti e quindi è molto difficile, se non impossibile, stimarne la probabilità. Tuttavia l'occorrenza della vita è ritenuta un evento poco probabile anche da parte di alcuni sostenitori dell'esistenza di civiltà aliene; per scavalcare questo problema costoro hanno formulato l'ipotesi della panspermia, la quale sostiene che la vita possa diffondersi facilmente attraverso l'universo o addirittura, nella forma sostenuta da Francis Crick, che possa essere deliberatamente diffusa da civiltà tecnologicamente evolute. 178 Paradosso di Fermi Le civiltà evolute hanno breve durata Un parametro dell'equazione di Drake è la durata media delle civiltà tecnologicamente evolute. Drake stimò una durata di 10.000 anni (da quando ha iniziato a poter comunicare con onde radio). Le cause della scomparsa di una civiltà possono essere sia naturali che culturali[5]. Se una civiltà tende naturalmente ad annientarsi, è solo questione di tempo perché inventi i mezzi necessari. L'unico dato osservativo disponibile è che la nostra civiltà dispone da decenni dei mezzi necessari, ma per ora è sopravvissuta. Anche in questo caso è difficile dire quanto la lotta gerarchica, l'aggressività, e l'autoritarismo, elementi del militarismo, siano prerogative della razza umana o siano costanti universali intrinsecamente legate all'evoluzione o all'organizzazione politica degli individui intelligenti. Si consideri che non è necessaria una distruzione totale della specie, ma è sufficiente una involuzione a livelli primitivi dei sopravvissuti per sottrarre la civiltà alla lista di quelle in grado di comunicare. Anche eventi catastrofici di tipo naturale possono considerarsi come gravi pericoli per un pianeta vivo: l'impatto di una cometa, di un asteroide, l'eruzione di un supervulcano o l'alterazione delle condizioni climatiche sono tutte minacce alla vita sulla Terra. Sappiamo che la Terra è stata più volte bersaglio di eventi catastrofici, che hanno causato diverse estinzioni di massa (la più nota nell'opinione pubblica è quella dei dinosauri). Eventi di questo tipo sarebbero prevedibili da una civiltà anche più arretrata della nostra, ma difficilmente rimediabili o prevenibili. Il problema con questa tesi è che non esiste un campione statisticamente valido con cui poter stimare il parametro di durata media di una civiltà tecnologicamente evoluta; anzi il campione è allo stato attuale composto da un solo caso: la civiltà terrestre. Infatti estrapolare tale valore dalle informazioni relative alla nostra esistenza, oltre a non essere statisticamente sensato, vizia il risultato con un effetto di selezione. Esistono ma sono troppo lontane L'universo è estremamente vasto. Prendendo come riferimento la velocità della luce, essa impiega oltre 2 milioni di anni solo per arrivare alla galassia più vicina. È dunque possibile che esistano diverse civiltà evolute e desiderose di comunicare, ma isolate dalle enormi distanze intergalattiche. Questa soluzione però implica che probabilmente siamo soli nella nostra galassia, in contrasto con le stime meno pessimistiche dell'equazione di Drake, che ipotizza l'esistenza di 600 civiltà evolute[6]. Una forma corretta di questa tesi afferma che le civiltà aliene sono attualmente troppo lontane, ovvero che esistono civiltà relativamente vicine, ma che non hanno ancora intrapreso o hanno intrapreso da poco esplorazioni o comunicazioni spaziali[7]. Ma anche questa ipotesi non è del tutto soddisfacente: infatti se il principio di mediocrità deve essere applicato per postulare l'esistenza di altre razze aliene, deve essere applicato anche per scartare posizioni temporali speciali nella storia della galassia, come sarebbe quella dell'inizio della colonizzazione galattica[8]. Esistono ma non comunicano o non vogliono comunicare Ancora più complesso è ipotizzare quale sia la probabilità che una prima forma di vita biologica possa evolversi fino a creare una specie autocosciente e desiderosa di comunicare. È possibile che nell'universo esistano molti corpi celesti ospitanti una forma di vita, ma su pochissimi questa si sia evoluta in una civiltà tecnologica. Inoltre anche se una civiltà sviluppa i mezzi adatti, non è detto che abbia l'idea o il desiderio di cercare di comunicare con altri mondi, magari o perché non ci considerano degni (potrebbero considerare la nostra una civiltà troppo guerrafondaia che mal reagirebbe ad un contatto con loro) o hanno paura di noi o comunque perché forse pensano che un contatto diretto possa nuocere a noi o a loro o semplicemente non hanno mai sviluppato l'idea dell'esistenza di altre civiltà con cui comunicare. Tuttavia concepire una razza aliena come un'unica entità non è soddisfacente: se pure la civiltà o razza aliena nel suo complesso fosse disinteressata, timorosa o non desiderosa di comunicare con altre civiltà, ciò non preclude che al suo interno possano esistere individui o gruppi di individui desiderosi o interessati a comunicare. 179 Paradosso di Fermi Non siamo in grado di ricevere le loro comunicazioni Tutti i nostri attuali tentativi di inviare o ricevere comunicazioni con altri mondi si sono basati sull'utilizzo di onde elettromagnetiche. Così come prima dell'epoca di Guglielmo Marconi non avremmo neppure immaginato di usare questo mezzo, così potremmo non essere neppure in grado di immaginare le tecniche usate da civiltà radicalmente diverse dalla nostra. Alcune tecnologie teorizzate potrebbero essere basate sui neutrini, le onde gravitazionali o la correlazione quantistica. Vi è da aggiungere che tali tecnologie di comunicazioni teorizzate sono molto opinabili sulla base delle conoscenze scientifiche attuali, in particolare utilizzare la correlazione quantistica per trasmettere informazioni contrasta con un ben assodato teorema della meccanica quantistica. La trasmissione mediante onde gravitazionali o neutrini, non pone obiezioni di carattere teorico, ma richiederebbe delle civiltà con a disposizione una quantità di energia paragonabile a quella contenuta in larga parte dell'Universo. Attualmente vi sono in funzione in alcuni laboratori rivelatori di neutrini e di onde gravitazionali in grado di misurare tali ipotetici segnali se particolarmente intensi. Si può comunque ipotizzare che una civiltà attraversi diverse fasi di evoluzione tecnologica, passando anche per le relativamente facili onde elettromagnetiche. È ragionevole ritenere che scienziati di questa civiltà siano in grado comunque di ricevere e decodificare segnali radio, anche se per loro ormai obsoleti. Rimanendo nel campo delle onde radio dobbiamo tenere in considerazione il problema della velocità della luce. Le microonde da noi emesse da quando si è sviluppata la televisione, si stanno ancora allontanando da noi alla velocità della luce in tutte le direzioni. Il raggio in anni luce della sfera entro la quale queste informazioni sono ricevibili coincide numericamente con il periodo in anni dal quale le trasmissioni sono iniziate. Nel caso della Terra questo valore è quindi di circa 50 anni luce. La tendenza ad ottimizzare le trasmissioni per ragioni economiche, come nel caso della televisione digitale o dei telefoni cellulari, focalizzandole in fasci di microonde e sopprimendo la portante, fa sì che i segnali trasmessi siano meno distinguibili dallo spazio. I critici di questa soluzione fanno notare che se una civiltà aliena volesse comunicare, utilizzerebbe dei segnali facilmente riconoscibili come tali, come ad esempio una modulazione con portante. Se tale civiltà intendesse usare segnali di difficile ricezione per evitare di comunicare con altre civiltà più arretrate o diverse, si ricadrebbe nel caso precedente. Inoltre alcuni dei mezzi di comunicazione proposti, alternativi alle onde elettromagnetiche, o sono speculazioni teoriche[9] o sono già rilevabili con la tecnologia terrestre[10]. Il SETI Da molti anni è in corso un progetto che cerca sistematicamente di individuare possibili trasmissioni intelligenti provenienti dal cosmo: il progetto SETI. I segnali radio vengono ricevuti dal radiotelescopio di Arecibo, in Porto Rico, e analizzati da una rete di migliaia di personal computer, il SETI@home, di partecipanti volontari. Fino ad ora (2011) nessun segnale è stato rilevato da questo progetto e da tutti i precedenti tentativi. Recentemente è però stato fatto notare che modulazioni più evolute, come quelle digitali, sono sempre più difficili da riconoscere come portatrici di informazione e quasi indistinguibili dal rumore di fondo. In sostanza i segnali potrebbero essere arrivati ma non li abbiamo riconosciuti. Note [1] (EN) Eric Jones, "Where is everybody?", An account of Fermi's question" (http:/ / www. fas. org/ sgp/ othergov/ doe/ lanl/ la-10311-ms. pdf), Los Alamos Technical report LA-10311-MS, Marzo, 1985. [2] (EN) Alan Dunne, Senza titolo, New Yorker, 20 May 1950. (http:/ / home. fnal. gov/ ~carrigan/ pillars/ New_Yorker_aliens. png) [3] Stephen Webb, Se l'universo brulica di alieni... dove sono tutti quanti?, Milano, Sironi, 2004. ISBN 978-88-518-0041-3 [4] Brownlee, Donald. Ward, Peter D. "Rare Earth". Copernicus. 2000 [5] (EN) The Internet Encyclopedia of Science, Hazards to extraterrestrial civilizations (http:/ / www. daviddarling. info/ encyclopedia/ E/ etcivhaz. html) [6] Piero Angela, Quante civiltà extraterrestri? da "Nel Cosmo alla ricerca della vita". Garzanti, 1980, pp. 138-146. ISBN 88-11-67402-6 [7] Nel saggio Civiltà extraterrestri, Isaac Asimov arriva ad ipotizzare un numero molto elevato di possibili civiltà, ma l'enorme distanza reciproca (in media 630 anni luce secondo le sue stime) impedirebbe lo scambio di comunicazioni tra di loro 180 Paradosso di Fermi 181 [8] (EN) Brin, Glen David (1983). "The 'Great Silence': The Controversy Concerning Extraterrestial Intelligent Life" (http:/ / articles. adsabs. harvard. edu/ cgi-bin/ nph-iarticle_query?1983QJRAS. . 24. . 283B& data_type=PDF_HIGH& whole_paper=YES& type=PRINTER& filetype=. pdf. ). Quarterly Journal of Royal Astronomical Society 24: 283–309.. [9] (EN) Does quantum entanglement imply faster than light communication? (http:/ / curious. astro. cornell. edu/ question. php?number=612), Ask an Astronomer, Cornell University [10] (EN) Cosmic Search Vol. 1 No. 3 (http:/ / www. bigear. org/ vol1no3/ neutrino. htm) Bibliografia • Stephen Webb, Se l'universo brulica di alieni... dove sono tutti quanti?, Milano, Sironi, 2004. ISBN 978-88-518-0041-3 Voci correlate • • • • • Equazione di Drake Principio antropico Panspermia Esobiologia Messaggio di Arecibo • Primo contatto • SETI • UFO Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Fermi paradox Collegamenti esterni • Discussione del filosofo Nick Bostrom sul Paradosso di Fermi (http://www.estropico.com/id179.htm) Vita extraterrestre Eventi e oggetti: ALH84001 • Meteorite Murchinson • Sorgente radio SHGb02+14a • Meteorite Shergotty • Segnale Wow! Sistema solare: Europa • Marte • Titano • Encelado Corpi extrasolari: Simili alla Terra • Gliese 581 c • Gliese 581 d • Gliese 581 e • Gliese 581 g Comunicazione: Allen Telescope Array • Radiotelescopio di Arecibo • Sonda di Bracewell • Missione spaziale Darwin • Lincos • Placca del Pioneer • Progetto Ciclopi • Progetto Ozma • Progetto Phoenix • SERENDIP • SETI • SETI@home • SETI attivo • Comunicazione interstellare Voci correlate: Abitabilità planetaria • Acqua liquida extraterrestre • Biochimiche ipotetiche • Biofirma • Esobiologia • Esoecologia • Noogenesi • Pedomicrobium • Protezione planetaria • Scala di San Marino • Ultima legge di Shermer • Silencium universi • Zona abitabile Teorie: Pluralità dei mondi • Equazione di Drake • Paradosso di Fermi • Grande Filtro • Scala di Kardašëv • Principio di mediocrità • Neocatastrofismo • Panspermia • Ipotesi della rarità della Terra • Quoziente di senzienza • Ipotesi dello zoo Missioni: Mars Sample Return • Mars Astrobiology Explorer-Cacher • Europa Jupiter System Mission Questo box: vedi · disc. · Paradosso di Gibbs 182 Paradosso di Gibbs In termodinamica il paradosso di Gibbs coinvolge la natura discontinua dell'entropia configurazionale. Molti fisici ritengono la discontinuità dell'entropia contraria all'intuizione e al senso comune e pertanto vedono questa discontinuità come un paradosso. Dimostrazione Il primo ad occuparsene fu Josiah Willard Gibbs nel suo lavoro Sull'Equilibrio delle Sostanze Eterogenee. [1] [2] Sia dato un recipiente diviso a metà da un pistone mobile; da un lato del recipiente si trova un gas ideale A, e dall'altra parte un gas ideale B alla stessa temperatura e pressione. Quando la divisione viene rimossa, i due gas si mischiano e l'entropia del sistema Josiah Willard Gibbs cresce perché vi è maggior grado di incertezza nella posizione delle particelle. (1839 – 1903) Si può dimostrare che l'aumento di entropia del miscuglio moltiplicata per la temperatura è uguale al lavoro necessario per ristabilire le condizioni iniziali: il gas A da una parte, il gas B dall'altra. Se si tratta dello stesso gas, non è necessario lavoro, ma se i gas sono differenti, anche per una differenza minuscola, il lavoro aumenta raggiungendo un valore elevato, e inoltre il valore è lo stesso di quello che si ha nel caso in cui la differenza tra i due gas è maggiore. L'entropia configurazionale di liquidi, solidi e soluzioni può essere calcolata in modo simile e il paradosso di Gibbs può essere applicato indifferentemente a liquidi, solidi e soluzioni in fase condensata come pure ai gas. Similitudine e entropia configurazionale Quando il paradosso di Gibbs venne esposto, la correlazione dell'entropia configurazionale con la similitudine era molto controversa e vi erano tre opinioni molto differenti di valutare il valore dell'entropia come legato alla similitudine. La similitudine può continuamente cambiare: • similitudine Z=0 se i componenti sono distinguibili; • similitudine Z=1 se le parti non sono distinguibili. L'entropia configurazionale, al contrario, non cambia continuamente. Vi sono molte soluzioni proposte configurazione-similitudine. [3] e tutte cadono in uno dei tre tipi di relazione tra entropia di Una soluzione corrisponde alla Figura (a) e consiste nell'accettare la discontinuità come fatto, affermando che il senso comune e le obiezioni intuitive sono infondate. Questa è la soluzione data dallo stesso Gibbs, e riaffermata da E. T. Jaynes[4]. Paradosso di Gibbs John von Neumann propose una soluzione alternativa al paradosso di Gibbs rimuovendo la discontinuità dell'entropia configurazionale: decresce in maniera continua con il decrescere della proprietà di similitudine delle singole componenti (Figura b). Recentemente Shu-Kun Lin ha elaborato un'altra relazione (Figura c). Discontinuità dell'entropia Spiegazione classica della termodinamica Lo stesso Gibbs propose una soluzione al problema che molti scienziati ritengono come la soluzione di Gibbs del paradosso di Gibbs.[4][5] Il punto cruciale della sua soluzione è il fatto che sviluppando una teoria classica basata sull'idea che i due differenti tipi di gas sono indistinguibili, e che uno non presenta alcuna misurazione che riveli la differenza, allora la teoria non possiede contraddizioni interne. In altre parole, se si considerano due gas A e B e non si sa che sono differenti, allora assumerli identici non causa alcun problema teorico. Se anche si fa un esperimento con questi gas che dà risultati non corretti, si è certamente scoperto un metodo per rilevare la loro differenza. Questa visione suggerisce che i concetti di stato termodinamico ed entropia sono piuttosto soggettivi. La crescita dell'entropia - come risultato di miscuglio - moltiplicata per la temperatura è uguale al minimo ammontare di lavoro necessario per ripristinare lo stato iniziale dei gas separati. Supponiamo che due gas differenti siano separati da una parete, ma che non sia possibile rilevare la differenza tra essi. Quando si rimuove la parete, il lavoro necessario a ristabilire la condizione iniziale è diverso da zero nel momento in cui siamo in grado di distinguere la differenza e non dipende dalla portata della differenza. Il paradosso si risolve sostenendo che la discontinuità è reale e che ogni "senso comune" o obiezione "intuitiva" a esso sono infondate. Spiegazione della meccanica statistica e della meccanica quantistica Un gran numero di scienziati crede che questo paradosso sia risolto dalla meccanica statistica (attribuita anche a Gibbs)[6] o dalla meccanica quantistica, ponendo che, se i due gas sono composti da particelle indistinguibili, essi obbediscono a differenti statistiche rispetto al caso in cui fossero distinguibili. Dal momento che la distinzione tra le particelle è discontinua, si ha l'entropia configurazionale. L'equazione risultante per l'entropia di un classico gas ideale è estensiva, ed è nota come l'equazione di Sackur-Tetrode. Lo stato di un gas ideale di energia U, volume V e con N particelle, ciascuna delle quali avente massa m, è rappresentato specificando il vettore quantità di moto p ed il vettore posizione x per ogni particella. Questo può essere pensato specificando un punto in uno spazio delle fasi 6N-dimensionale, in cui ciascuno degli assi corrisponde a una delle coordinate della quantità di moto o della posizione di ogni particella. L'insieme dei punti nello spazio delle fasi che il gas potrebbe occupare è specificato dalla restrizione che il gas avrà particolare energia: e che sarà contenuto all'interno del volume V (sia V una scatola di spigolo X tale che X3=V): per i=1..N e j=1..3. La prima restrizione definisce la superficie di un'ipersfera 3N-dimensionale di raggio (2mU)1/2 e il secondo è un ipercubo 3N-dimensionale di volume VN. Queste si combinano formando un ipercilindro 6N-dimensionale. Essendo l'area della parete di un cilindro il prodotto tra la circonferenza di base per l'altezza, l'area φ della parete dell'ipercilindro è: 183 Paradosso di Gibbs L'entropia è proporzionale al logaritmo del numero di stati che il gas può occupare soddisfacendo le restrizioni sopra elencate. Un altro percorso, che prende avvio dal principio di indeterminazione di Heisenberg, afferma che in uno spazio di fasi non si può specificare un volume minore di h3N dove h è la costante di Planck. L'area sopra descritta dev'essere in realtà un guscio di spessore uguale all'incertezza della quantità di moto per cui l'entropia va formulata come: dove la costante di proporzionalità è k, la costante di Boltzmann. Si può prendere la lunghezza della scatola X come l'incertezza della posizione, e dal principio di indeterminazione di Heisenberg, scriverla . Risolvendo per , usando l'approssimazione di Stirling per la funzione Gamma, e tenendo solo i termini di ordine N l'entropia diviene: Questa quantità non è estensiva come può essere vista considerando due volumi identici con lo stesso numero di particelle ed uguale energia. Si considerano i due volumi separati inizialmente da una barriera; la rimozione o il reinserimento della parete è reversibile, ma la differenza di entropia dopo la rimozione della barriera è: che è in contraddizione con la termodinamica. Questo costituisce il paradosso di Gibbs che lo stesso scienziato risolse postulando quanto scritto precedentemente. Questo significa che tutti gli stati che differiscono solo per una permutazione delle particelle vanno considerati come lo stesso punto. Per esempio, sia un gas a 2-particelle che specifichiamo AB come lo stato del gas dove la prima particella (A) ha quantità di moto p1 e la seconda particella (B) ha quantità di moto p2, allora questo punto come pure quello di BA in cui B ha quantità di moto p1 mentre A ha quantità di moto p2 devono essere considerati come lo stesso punto. Si nota che per un gas di N particelle, vi sono N! punti che sono identici in tal senso, e quindi per calcolare il volume dello spazio delle fasi occupate dal gas si deve dividere l'equazione 1 per N!.[6] Questo dà per l'entropia: che si può facilmente dimostrare come estensiva. Questa è l'equazione di Sackur-Tetrode. È facilmente intuibile che, utilizzando questa equazione, il valore dell'entropia non presenta differenze dopo aver mischiato due parti dello stesso gas. [7] 184 Paradosso di Gibbs 185 Continuità dell'entropia Mentre molti scienziati si ritrovavano nella formulazione di discontinuità dell'entropia mostrata nella Figura (a) e nelle spiegazioni classiche o facenti uso della meccanica quantistica in termodinamica o in meccanica statistica, altri ritenevano che il paradosso di Gibbs fosse un paradosso reale da risolversi mostrando la continuità dell'entropia. Risoluzione del paradosso di Gibbs per la meccanica quantistica Nel suo libro, Mathematical Foundations of Quantum Mechanics,[8] John von Neumann fornì, per la prima volta, una risoluzione del paradosso di Gibbs rimuovendo la discontinuità dell'entropia configurazionale: essa decresce continuamente con il crescere della similitudine delle componenti individuali (Si veda la Figura (b)). A pagina 370 della versione inglese del testo,[8] si legge che " ... Questo chiarisce un vecchio paradosso della forma classica della termodinamica, cioè la scomoda discontinuità nell'operazione con pareti semi-peremeabili... Ora abbiamo una transizione continua." Furono pochi gli scienziati che accettarono questa soluzione, altri non sono ancora convinti. Risoluzione del paradosso mediante la teoria dell'informazione John von Neumann (1903 – 1957) ) Un'altra relazione di continuità entropica fu proposta da Shu-Kun Lin,[3] basandosi su una considerazione di teoria dell'informazione, come mostrato nella Figura (c). Un calorimetro viene impiegato per determinare l'entropia configurazionale al fine di verificare la proposizione del paradosso di Gibbs o per risolvere il paradosso stesso. Sfortunatamente è noto che nessuno dei processi di miscuglio tipici hanno una quantità rilevabile di calore e lavoro trasferiti, nonostante sia misurabile una grande quantità di calore, fino al valore calcolato come TΔS (dove T è la temperatura e S i l'entropia termodinamica), e nonostante sia osservabile un elevato valore di lavoro fino a ΔG (dove G è l'energia libera di Gibbs).[9] È necessario ammettere il fatto che la differenza di entropia configurazionale dei gas ideali è sempre zero, sia che i gas siano differenti o identici; tale conclusione può essere considerata come una risoluzione sperimentale del paradosso di Gibbs per i gas ideali. Ciò suggerisce che l'entropia configurazionale non ha nulla a che vedere con l'energia (calore TΔS o lavoro ΔG). Un processo di miscuglio è un processo di perdita di informazioni che può essere discusso pertinentemente solo nell'ambito della teoria dell'informazione e l'entropia configurazionale è un'entropia di informazione. Per entropia di informazione (chiamata anche entropia della teoria dell'informazione, o entropia di Shannon), si intende che si tratta di una funzione logaritmica adimensionale S = lnw nella teoria dell'informazione. Non si tratta di una funzione della temperatura T e non è necessariamente legata all'energia. In luogo del calorimetro, è possibile utilizzare, per valutare la perdita di informazione durante il miscuglio, sensori chimici o biosensori. Mescolare 1 mole di gas A e 1 mole di un gas diverso B provoca un aumento di al più 2 bits di entropia di informazione se le due parti del contenitore sono usate per registrare 2 bits di informazioni. Per le fasi condensate, invece della parola "miscuglio" si può usare la parola "mescolanza" per i processi che combinano varie parti di sostanza originariamente in contenitori differenti. Quindi, è sempre un processo di mescolanza, sia qualora le sostanze siano molto diverse, o molto simili o persino le stesse. Il modo convenzionale per calcolare l'entropia configurazionale predice che il processo di miscuglio (o mescolanza) di sostanze differenti (distinguibili) è più spontaneo che il processo medesimo tra sostanze uguali (indistinguibili). Tuttavia, questo contraddice l'esperienza, che mostra come il processo di mescolanza della stessa sostanza (o di sostanze indistinguibili) è il più spontaneo; esempi immediati sono la mescolanza spontanea di gocce d'olio in acqua e la Paradosso di Gibbs cristallizzazione spontanea in cui le celle di lattice indistinguibili si assemblano tra loro. Sostanze più simili sono miscibili più spontaneamente: metanolo ed etanolo sono miscibili perché sono molto simili. Senza eccezioni, tutte le osservazioni sperimentali supportano la relazione entropia-similitudine espressa nella Figura (c). Ne deriva che la relazione entropia-similitudine data da Gibbs nella Figura (a) è opinabile. Una conclusione significativa è che almeno allo stato solido - l'entropia configurazionale ha un valore negativo per i solidi distinguibili: mischiare sostanze diverse diminuisce l'entropia di informazione, e mescolare molecole indistinguibili (da un gran numero di contenitori) per formare una fase di sostanza pura provoca un forte aumento dell'entropia di informazione. Cominciando da una mistura binaria di solidi, mescolando 1 mole di molecole del tipo A per formare una fase e mescolare 1 mole di molecole di tipo B per formare un'altra fase porta ad un aumento dell'entropia di informazione quantificabile in 2×6.022×1023=12.044×1023 bits =1.506×1023bytes, dove 6.022×1023 è il numero di Avogadro; e vi sono al massimo solo 2 bits di informazione persa. Note [1] Gibbs, J. Willard, (1876). Transactions of the Connecticut Academy, III, pp. 108-248, Oct. 187-May, 1876, and pp. 343-524, May, 1877-July, 1878. [2] J. Willard Gibbs, The Scientific Papers of J. Willard Gibbs - Volume One Thermodynamics (http:/ / books. google. com/ books?id=-neYVEbAm4oC& dq=scientific+ papers+ of+ j+ willard+ gibbs), Ox Bow Press, 1993. ISBN 0-918024-77-3 [3] Se ne propone una lista sul sito: Paradosso di Gibbs e sue risoluzioni (http:/ / www. mdpi. org/ lin/ entropy/ gibbs-paradox. htm). [4] Jaynes, E.T.. The Gibbs Paradox (http:/ / bayes. wustl. edu/ etj/ articles/ gibbs. paradox. pdf) (PDF). 1996. URL consultato il November 8. (Jaynes, E. T. The Gibbs Paradox, In Maximum Entropy and Bayesian Methods; Smith, C. R.; Erickson, G. J.; Neudorfer, P. O., Eds.; Kluwer Academic: Dordrecht, 1992, p.1-22) [5] Ben-Naim, Arieh (2007). “ On the So-Called Gibbs Paradox, and on the Real Paradox (http:/ / www. mdpi. org/ entropy/ papers/ e9030132. pdf).” Entropy (an Open Access journal), 9(3): 132-136. [6] Gibbs, J. Willard, Elementary principles in statistical mechanics (http:/ / www. archive. org/ details/ elementaryprinci00gibbrich), New York, 1902.; (1981) Woodbridge, CT: Ox Bow Press ISBN 0-918024-20-X [7] Per ulteriori approfondimenti si consiglia la lettura del seguente testo: Allahverdyan, A.E.; Nieuwenhuizen, T.M. (2006). “ Explanation of the Gibbs paradox within the framework of quantum thermodynamics (http:/ / arxiv. org/ abs/ quant-ph/ 0507145).” Physical Review E, 73 (6), Art. No. 066119. ( Link to the paper at the journal's website (http:/ / link. aps. org/ abstract/ PRE/ v73/ e066119)). [8] John von Neumann, Mathematical Foundations of Quantum Mechanics, Princeton U. Press, 1932.. reprinted, 1996 edition: ISBN 0-691-02893-1 (Tradotto dal tedesco ad opera di Robert T. Beyer) [9] Attenzione: Non effettuare esperimenti di miscuglio se non sotto la supervisione di un chimico in laboratorio. Viene rilasciata una gran quantità di calore, che può essere esclusivamente attribuita a reazioni chimiche avvenute nel miscuglio. Collegamenti esterni • Il paradosso di Gibbs e sue risoluzioni (http://www.mdpi.org/lin/entropy/gibbs-paradox.htm) — lista di pubblicazioni. • Numero speciale di "Paradosso di Gibbs e sue soluzioni" (http://www.mdpi.org/entropy/specialissues/ gibbs-paradox.htm) pubblicato dalla rivista Entropy. 186 Paradosso di Hempel 187 Paradosso di Hempel Il paradosso dei corvi (anche detto paradosso dei corvi neri, paradosso di Hempel o i corvi di Hempel) è un paradosso logico sviluppato negli anni '40 da Carl Gustav Hempel per dimostrare i limiti del procedimento logico induttivo. Osservando come per il principio induttivo l'acquisizione di un nuovo riscontro empirico di una teoria renda più probabile che questa teoria sia vera, cioè la teoria della confermabilità, Hempel prese ad esempio la teoria che tutti i corvi siano neri per trarne conclusioni di paradosso. Esaminando ad uno ad uno un milione di corvi, notiamo infallibilmente ed invariabilmente che essi sono tutti neri. Dopo ogni osservazione, perciò, la teoria che tutti i corvi siano neri diviene ai nostri occhi sempre più probabilmente vera, coerentemente col principio induttivo. Pare ogni volta sempre più corretto registrare l'assunto come probabilmente vero: tutti i corvi sono neri. Un corvo nero Ma l'assunto "i corvi sono tutti neri" è logicamente equivalente all'assunto "tutte le cose che non sono nere, non sono corvi". In base al principio induttivo, d'altra parte, questo secondo enunciato diventerebbe più probabilmente vero in seguito all'osservazione di una mela rossa: osserveremmo, infatti, una cosa non nera che non è un corvo. Perciò, l'osservazione di una mela rossa renderebbe più probabilmente vero anche l'assunto che "tutti i corvi sono neri". Una delle soluzioni più famose fra quelle proposte consiste nell’accettare che l’osservazione di una mela verde costituisce una prova che tutti i corvi sono neri, ma aggiungendo che l’effettiva conferma che questa prova fornisce è molto piccola, vista la grande differenza fra il numero di corvi e il numero di oggetti non neri. Secondo questa risoluzione, la conclusione appare paradossale perché viene intuitivamente stimato in zero il valore della prova nell’osservare una mela verde, mentre in realtà è molto piccolo. Questa argomentazione è stata presentata da I. J. Good nel 1960 ed è probabilmente la più conosciuta, anche alcune varianti sono state presentate nel 1958 e forme precedenti dell’argomentazione risalgono al 1940. Paradosso di Moore Paradosso di Moore Il paradosso di Moore è un paradosso formulato nel 1942 da George Edward Moore che tratta dell'assurdità di affermare una proposizione e contemporaneamente affermare di non crederci. Detta p una generica proposizione, il paradosso si può formulare nel seguente modo: "p, ma io non credo che p"; oppure: "Io credo che p, ma non p". Nella formulazione tipica di questo paradosso, questo si traduce in "piove ma io non ci credo". Come si può osservare entrambe le frasi descrivono uno stato di cose possibile, e prese separatamente non contengono alcun errore logico. Tuttavia, nella loro interazione, perdono di senso ed hanno una paradossalità che, a detta del filosofo Ludwig Wittgenstein, è molto prossima all'autocontraddizione perché affermare "p, ma io non credo che p", equivale a dire "p, ma forse non p". Il paradosso non si pone nel caso di una seconda o terza persona: l'affermazione "piove ma lui non ci crede" non ha alcuna paradossalità. Il carattere paradossale, quindi, viene dall'affermazione in prima persona. Ciò accade perché, mentre in seconda o in terza persona si descrive uno stato di cose indipendente dalla prima proposizione essendo la descrizione di una credenza (il fatto che lui non creda che piove è indipendente dal fatto che piova o meno), nel caso della prima persona ciò non è vero: "io credo che p" non è la descrizione della mia credenza ma la sua espressione, e quindi equivale ad affermare direttamente p, giungendo all'autocontradditorietà di affermare e negare allo stesso tempo una medesima proposizione (che va contro il principio di non contraddizione). Collegamenti esterni • (EN) Moore's problem [1]. Stanford Encyclopedia of Philosophy, 21 gennaio 2006. URL consultato il 4-2-2008. Note [1] http:/ / plato. stanford. edu/ entries/ epistemic-paradoxes/ #MooPro 188 Paradosso di Newcomb 189 Paradosso di Newcomb Questo Box di Wikipedia contiene almeno un errore Il titolo di questo box evidenzia il Paradosso dell'introduzione di David Makinson: se il testo seguente fosse totalmente corretto, quanto (falsamente) affermato sarebbe comunque vero, poiché l'errore consisterebbe nell'affermazione stessa. Cioè l'affermazione falsa sarebbe vera... A scanso di equivoci, l'errore non sussiste nel testo presente nella voce. Ma se quest'ultima affermazione ("l'errore non sussiste nel testo presente nella voce") fosse l'errore, allora l'articolo conterrebbe un errore. Quindi non credete ciecamente a quello che leggete, a meno che l'errore non sia questo consiglio (e così via...). Un paradosso, dal greco παρά (contro) e δόξα (opinione), è un ragionamento che appare contraddittorio, ma che deve essere accettato, oppure un ragionamento che appare corretto, ma che porta ad una contraddizione: si tratta, secondo la definizione che ne dà Mark Sainsbury, di "una conclusione apparentemente inaccettabile, che deriva da premesse apparentemente accettabili per mezzo di un ragionamento apparentemente accettabile". In filosofia ed economia il termine paradosso è usato spesso come sinonimo di antinomia. In matematica invece si distinguono i due termini: il paradosso consiste in una proposizione eventualmente dimostrata e logicamente coerente, ma lontana dall'intuizione; l'antinomia, invece, consiste in una vera e propria contraddizione logica. Il paradosso è un potente stimolo per la riflessione. Ci rivela sia la debolezza della nostra capacità di discernimento sia i limiti di alcuni strumenti intellettuali per il ragionamento. È stato così che paradossi basati su concetti semplici hanno spesso portato a grandi progressi intellettuali. Talvolta si è trattato di scoprire nuove regole matematiche o nuove leggi fisiche per rendere accettabili le conclusioni che all'inizio erano "apparentemente inaccettabili". Altre volte si sono individuati i sottili motivi per cui erano fallaci le premesse o i ragionamenti "apparentemente accettabili". Sin dall'inizio della storia scritta si hanno riferimenti ai paradossi: dai paradossi di Zenone alle antinomie di Immanuel Kant, fino a giungere ai paradossi della meccanica quantistica e della teoria della relatività generale, l'umanità si è sempre interessata ai paradossi. Un'intera corrente filosofico-religiosa, il buddhismo zen, affida l'insegnamento della sua dottrina ai koan, indovinelli paradossali. Paradossi nella vita comune Molti sono i paradossi in senso letterale, ossia contro l'opinione comune. Ad esempio, si parla molto del riscaldamento globale e dell'effetto serra. Secondo i modelli climatologici accettati, il riscaldamento dell'Artico, con il conseguente scioglimento dei ghiacci, causa il raffreddamento dell'Europa. Quindi l'aumento della temperatura a livello globale genera una diminuzione della stessa a livello locale. Questo è noto come paradosso dell'Artico. Molti paradossi sono alla base di trame di film famosi, ad esempio nel secondo Terminator, scopriamo che le macchine hanno origine dai resti del primo terminator inviato, una versione del classico paradosso del nonno. Meno noto è il paradosso del Comma 22 del codice di guerra dei Klingon, desunto quasi letteralmente dal romanzo Comma 22. I paradossi dei sensi Nelle neuroscienze sono noti molti paradossi dovuti all'imperfezione dei sensi, o all'elaborazione dei dati da parte della mente. Ad esempio, è possibile creare un suono che sembra crescere sempre, mentre in realtà è ciclico. Per il tatto, basta provare con un compasso a due punte: sul polpastrello si percepiscono due punte separate di pochi millimetri, mentre sulla schiena se ne percepisce solo una anche a qualche centimetro. Oppure si immergono le mani in due bacinelle di acqua una calda e una fredda; dopo un paio di minuti si immergono entrambe in una bacinella Paradosso di Newcomb tiepida, e si avranno sensazioni contrastanti: fredda e calda. Le illusioni ottiche sono un altro esempio di paradossi sensoriali. Paradossi statistici In statistica uno dei fenomeni più strani che si hanno è il paradosso di Simpson, di cui si fa un esempio: su una certa malattia, l'ospedale X ha il 55% di successi, l'ospedale Y il 60%. Quindi converrebbe operarsi in Y. Se scomponiamo, a X sono 90% casi gravi, di cui il 50% è risolto (45% del totale), mentre i restanti 10% lievi hanno il 100% (10% sul totale) di successo. A Y il 40% sono casi lievi, di cui risolvono il 90%, (36%) e nel 60% di casi gravi il successo è del 40% (24%). Quindi in realtà conviene sempre operarsi in X. In pratica, l'interpretazione dei dati è falsata da parametri non considerati. I paradossi più antichi Il più antico paradosso si ritiene essere il paradosso di Epimenide, in cui il Cretese Epimenide afferma: "Tutti i cretesi sono bugiardi". Poiché Epimenide era originario di Creta, la frase è paradossale. A rigor di logica, moderna ovviamente, questo non è un vero paradosso: detta p la frase di Epimenide, o è vera p o è vera non p. Il contrario di p è Non tutti i cretesi sono bugiardi, ossia Qualche cretese dice la verità, Epimenide non è uno di quelli, e la frase è falsa. Tuttavia la negazione dei quantificatori non era ben chiara nella logica degli antichi greci. Subito dopo troviamo i paradossi di Zenone. Un altro famoso paradosso dell'antichità, questo sì irresolubile, è il paradosso di Protagora, più o meno contemporaneo di Zenone di Elea. Alcuni paradossi, poi, hanno preceduto di secoli la loro risoluzione: prendiamo ad esempio il paradosso di Zenone della freccia: "Il terzo argomento è quello della freccia. Essa infatti appare in movimento ma, in realtà, è immobile: in ogni istante difatti occuperà solo uno spazio che è pari a quello della sua lunghezza; e poiché il tempo in cui la freccia si muove è fatta di infiniti istanti, essa sarà immobile in ognuno di essi." Come si può distinguere la freccia in movimento da quella ferma, e smentire il paradosso? Oggi, ovvero più di due millenni dopo Zenone, sappiamo che, secondo il principio della relatività ristretta, una freccia in moto rispetto all'osservatore appare a questi più corta della stessa freccia ferma rispetto all'osservatore. Classificazione dei paradossi logici Esistono varie forme di classificazione dei paradossi. Secondo le loro implicazioni, i paradossi si dividono in: • Positivi a cui si arriva: un esempio ne è la teoria della relatività ristretta. Un paradosso nullo o retorico deriva dal tipico ragionamento sofista, che dimostra una cosa e il suo contrario, come i già citati paradossi di Zenone. Infine, i paradossi negativi portano il ragionamento a partire da un'ipotesi alla negazione della stessa, e sono in pratica una dimostrazione per assurdo della falsità dell'ipotesi di partenza. Di quest'ultimo tipo sono molti teoremi matematici e fisici, come ad esempio il teorema dell'infinità dei numeri primi o il teorema di Church. Se invece categorizziamo che cosa ci appare paradossale secondo i nostri sensi, abbiamo i paradossi visivi, auditivi, tattili, gustativi e olfattivi, più spesso indicati come anomalie o ambiguità, e i paradossi logici e matematici che sono categoria a sé. 190 Paradosso di Newcomb 191 Paradossi dell'induzione Molti ritengono David Hume responsabile di aver introdotto il problema dell'induzione. In realtà, nella versione del paradosso del sorite, tale problema era noto sin dai tempi di Zenone, vero padre del pensiero paradossale. Il paradosso del sorite afferma: "Un granello di sabbia che cade non fa rumore, quindi nemmeno due, e nemmeno tre, e così via. Quindi nemmeno un mucchio di sabbia che cade fa rumore". Oppure il suo inverso: se tolgo un granello di sabbia ad un mucchio, è ancora un mucchio, così se ne tolgo due e così via. Tuttavia 10 granelli non fanno un mucchio. Qual è allora il granello che fa passare da un mucchio ad un non-mucchio? Anche se questo problema può essere risolto con la logica fuzzy, ponendo una funzione che al variare dei granelli restituisca un valore compreso tra 0 e 1, ben più difficile è la risoluzione del seguente paradosso: 1 è un numero piccolo se n è un numero piccolo, allora anche n+1 è un numero piccolo allora, per l'assioma dell'induzione, ogni numero naturale è piccolo Questi problemi sono i principali argomenti di discussione dell'epistemologia moderna, che fondamentalmente si riassumono nella domanda: Quando si può definire vera una teoria? Non tutto è vero quello che sembra (solito) A volte il buon senso, anche il buon senso matematico, può farci prendere degli abbagli. Un esempio lo troviamo nella storiella del tacchino induttivista: un tacchino (americano) aveva imparato che ogni mattina, più o meno alla stessa ora, il padrone gli portava da mangiare. Diligentemente memorizzava tutte le piccole differenze, finché, dopo giorni e giorni, poté essere soddisfatto di aver trovato una regola infallibile: tra le nove e le dieci di mattina arrivava inevitabilmente il cibo. Al passare delle settimane e dei mesi la regola trovò sempre conferme... fino al giorno del Ringraziamento, quando il tacchino fu calorosamente invitato sulla tavola della famiglia, come protagonista dell'arrosto tradizionale. Esempi più matematici, li troviamo nella teoria dei numeri, nello studio della distribuzione dei numeri primi. Dopo la sconfitta dell'ultimo teorema di Fermat, resta aperta la Congettura di Riemann sulla sua funzione zeta, che collega la distribuzione dei numeri primi con gli zeri di tale funzione. Finora se ne sono trovati miliardi (letteralmente) che giacciono sulla retta x=1/2, e la congettura che tutti gli zeri giacciano su questa linea potrebbe essere dunque accettata come vera. Ma smentite di quello che sembrerebbe evidente sono famose in matematica, e una riguarda proprio i numeri primi. La quantità di numeri primi inferiori ad un certo numero, diciamo n, solitamente indicata con approssimata dalla funzione logaritmo integrale, o Li(n), di Gauss, definita come: , può essere . Questo valore sembra essere sempre maggiore della vera distribuzione dei numeri primi, fino a numeri di centinaia di cifre. Tuttavia nel 1914 John Littlewood ha dimostrato invece che per x intero cambia di segno infinite volte. Nel 1986 Herman te Riele ha dimostrato addirittura che esistono più 10180 interi consecutivi per cui non è mai minore di 6,62×10370. Quindi, nonostante miliardi di esempi a favore, la verità o falsità della congettura (o ipotesi, visto che si pensa generalmente che sia vera) di Riemann è tuttora in discussione. Altra paradossale situazione è il teorema di Goodstein: si definisce una particolare funzione iterativa su numeri interi che inizialmente presenta una crescita esponenziale ma, venendo ridotta ad ogni iterazione di un semplice 1, dopo innumerevoli iterazioni ritorna a 0. Tornando al teorema, esso ha la caratteristica di non poter essere provato all'interno degli assiomi di base della teoria dei numeri (Assiomi di Zermelo - Fraenkel), e come previsto dal teorema Paradosso di Newcomb di incompletezza di Gödel, per la sua dimostrazione occorre aggiungere un assioma: l'esistenza dei cardinali transfiniti. Il paradosso della chiaroveggenza Uno dei paradossi più intriganti della teoria dei giochi è il paradosso di Newcomb, che riguarda il principio di dominanza, ed è il seguente. Supponiamo che esista un oracolo, che sostenga di sapere in anticipo quali saranno le mie decisioni. Egli mette in una busta 1.000.000 €, ma solo se sceglierò solo questa, altrimenti la lascia vuota. Poi mi vengono presentate due buste, una con sicuramente 1.000 €, e l'altra è quella dell'oracolo. Posso scegliere se prendere una sola busta o tutte e due. Se applico il principio di massima utilità, mi conviene prendere solo la seconda, e mi fido dell'oracolo. Se applico il principio di minima perdita, mi conviene sceglierle entrambe: se l'oracolo ha ragione, prendo almeno 1.000 €, se sbaglia 1.001.000 €. Il paradosso nasce dalla visione delle cose: se la scelta dell'oracolo si considera già effettuata al momento della scelta (ovvero l'oracolo è un ciarlatano che tira ad indovinare), applichiamo il principio di dominanza, e conviene prendere sempre entrambe le buste. Se invece ammettiamo che il comportamento dell'oracolo sia influenzato dalla nostra scelta, (ovvero che l'oracolo sia realmente preveggente) ammettiamo il principio di utilità e conviene prendere solo la prima. Uno dei due principi non è quindi razionale, oppure non esiste la preveggenza. Si possono trovare argomenti a favore di tutte e due le ipotesi. Tra l'altro, basta che l'oracolo indovini più del 50% delle volte. Diversamente, la chiaroveggenza potrebbe anche essere dannosa: supponiamo che ci sia una gara automobilistica in cui valga la regola "Perde chi sterza per primo". Due macchine sono lanciate l'una contro l'altra: se uno dei due è chiaroveggente, la strategia migliore per l'altro è non sterzare: il veggente lo sa, e quindi per evitare l'impatto sterzerà per primo. Lista dei paradossi più noti Questi sono alcuni paradossi fondamentali: • • • • • • • • • Paradossi di Zenone (esiste il movimento? : Achille e la tartaruga - La freccia) Paradosso del mentitore (che cosa è la "verità"?) Paradosso di Moore (che cosa significa "sapere"?) Paradossi dell'infinito Paradosso dell'ipergioco Paradosso dei gemelli (dalla teoria della relatività) Paradosso di Russell (o del barbiere) Antinomie kantiane Paradosso di d'Alembert Bibliografia • • • • • • • • Casati, R. e Varzi, A. C., Semplicità insormontabili - 39 storie filosofiche, Roma-Bari, Laterza, 2004. Clark, M., I paradossi dalla A alla Z, Milano, Cortina, 2004. Sorensen, R., A Brief History of the Paradox, Oxford, Oxford University Press, 2003. Rescher, N., Paradoxes: Their Roots, Range, and Resolution, La Salle (IL), Open Court, 2001. Odifreddi, P., C'era una volta un paradosso - Storie di illusioni e verità rovesciate, Torino, Einaudi, 2001. Falletta, N., Il libro dei paradossi, Milano, Longanesi & C., 2001. Sainsbury, R. M., Paradoxes, Cambridge, Cambridge University Press, 1988. te Riele, H.J.J., On the sign of the difference pi(x) - li(x), Math. Comp. 48, 1987 pp. 323-328 192 Paradosso di Newcomb 193 Voci correlate • • • • • • Antinomia Dilemma Logica Matematica Ossimoro Sillogismo Altri progetti • • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Paradox Wikizionario contiene la voce di dizionario: http://it.wiktionary.org/wiki/paradosso • Wikiquote contiene citazioni: http://it.wikiquote.org/wiki/Paradosso di Newcomb Collegamenti esterni • Paradossi [1] Paradosso di Olbers Il Paradosso di Olbers ha il seguente enunciato: come è possibile che il cielo notturno sia buio nonostante l'infinità di stelle presenti nell'universo? Prende il suo nome dall'astronomo tedesco Heinrich Wilhelm Olbers, che lo propose nel 1826. In realtà era già stato descritto da Keplero nel 1610 e dagli astronomi Halley e Cheseaux nel XVIII secolo. Termini del paradosso Presupposti cosmologici I presupposti di base perché il paradosso sia tale sono: • che l'universo abbia estensione infinita • che l'universo esista da infinito tempo e sia immutabile • che l'universo sia omogeneo e isotropo, ovvero le stelle siano disposte in modo uniforme nello spazio Questi punti erano tacitamente accettati dalla cosmologia in auge fino all'inizio del XX secolo. Perché il cielo notturno è buio? Paradosso di Olbers 194 Ipotesi che spieghino il paradosso Due sole ipotesi possono spiegare il paradosso: • o l'universo è giovane; • o l'universo è in continua espansione. Nella prima ipotesi, essendo per essa l'universo giovane, la luce di stelle lontane non è ancora arrivata a noi. Potenzialmente in futuro si verificherà la condizione espressa dal paradosso. Ci sono tuttavia diversi elementi che indicano che l'universo non sia giovane: la sua età oscilla tra i 13 ed i 16 miliardi di anni a seconda del valore dato alla costante di Hubble. Vale allora la seconda ipotesi: le stelle si allontanano dalla Terra sempre di più, come dimostra l'effetto Doppler e quindi la condizione del paradosso non si verificherà mai. Animazione dell'effetto dell paradosso di Olbers Effetti In una situazione come quella proposta, se un osservatore punta lo sguardo in una direzione qualunque del cielo, potrà guardare nello spazio tra le stelle riconoscibili, ma ci saranno altre stelle più lontane e così di seguito, fino a che inevitabilmente si incontrerà la luminosissima superficie di una stella. Per questo motivo l'intero cielo dovrebbe brillare con la stessa intensità della superficie stellare e lo stesso Sole non si distinguerebbe dallo sfondo. L'obiezione più ovvia è che le stelle più lontane appaiano meno luminose. Ma tale punto in questo caso risulta inefficace. Infatti, la diffusione della luce da un punto centrale ha andamento sferico, per cui, come per tutte le onde di questo tipo, l'irraggiamento, ovvero l'energia ricevuta per unità di superficie (supponiamo il nostro occhio) a una distanza r è inversamente proporzionale al quadrato di r. Poiché è imposta come condizione l'omogeneità del cosmo, ovvero che su ogni sfera concentrica alla Terra le stelle siano presenti con densità costante D, possiamo affermare che la quantità di sorgenti luminose su una sfera di raggio r è proporzionale al quadrato di r, secondo la formula dell'area della sfera: Per calcolare la quantità di luce ricevuta da una sfera di diametro r arbitrario, moltiplichiamo il numero di stelle presenti per l'intensità pesata di ciascuna: Come si può osservare, dopo la semplificazione di r risulta che la luminosità d'irraggiamento dipende esclusivamente dalla densità di stelle e dalla loro luminosità assoluta. Se ora si sommano tutti i contributi per le infinite sfere concentriche di un universo infinitamente esteso, otteniamo che la luce totale deve essere addirittura infinitamente intensa! Il fatto che la notte sia buia, ovvio per il senso comune, è ampiamente in contrasto con la concezione cosmologica in uso fino a meno di un secolo fa. Paradosso di Olbers Le soluzioni proposte Diversi sono stati i tentativi di risolvere la questione. Per molto tempo si è ritenuto che l'estensione del cosmo fosse limitata e che tra le stelle si intravedesse uno sfondo scuro. Questa ipotesi presume naturalmente di essere al centro dell'universo, ed è stata resa obsoleta dal crollo filosofico del geocentrismo. Nel seicento si è ipotizzato che nubi di polvere presenti nello spazio vuoto oscurino le stelle lontane. Questa soluzione non regge all'analisi in quanto la radiazione assorbita scalderebbe la materia fino a farle riemettere la stessa quantità di luce (Radiazione di corpo nero). Lo stesso Olbers si era orientato verso questa soluzione erronea. Un'ulteriore possibilità è che la velocità della luce sia limitata e l'universo esista da un tempo limitato. In realtà la velocità della luce era già approssimativamente nota dal XVII secolo, misurata da Ole Romer, ma questa soluzione stranamente non fu mai molto considerata. Una possibilità puramente statistica è che l'universo visibile abbia una distribuzione frattale, con dimensione frattale inferiore a 2. In questo modo, il limite per r → ∞ tenderebbe comunque ad un numero finito. Secondo un'altra possibile teoria il paradosso di Olbers si risolve mediante l'equazione del trasporto radiativo. [1][2] La soluzione moderna Nel 1929 l'astronomo americano Edwin Hubble dimostrò che l'universo attuale si sta espandendo e che dunque deve aver avuto un'origine nel passato. Dal nostro punto di vista le galassie appaiono allontanarsi con velocità proporzionale alla distanza, fin ad un limite oltre il quale sembrerebbero allontanarsi alla velocità della luce, e non possiamo quindi vederle. In altre parole, poiché la luce ha velocità limitata, guardare lontano significa anche guardare indietro nel tempo, fin al punto in cui si osserva l'istante della nascita del cosmo, il Big Bang. In pratica l'universo visibile ci appare di dimensioni limitate nello spazio e nel tempo, per cui la luce ci giunge da un numero limitato di stelle tale che il cielo ci appare nero. Il paradosso non è più tale in quanto il presupposto dell'eternità del cosmo è falso. Anche nel caso che fosse comunque infinito nello spazio, ma non nel tempo, secondo la cosmologia comunemente accettata, per eliminare il paradosso di Olbers basta lo spostamento verso il rosso: quando gli oggetti sono abbastanza lontani, come detto prima se superano la distanza che la luce può aver percorso dal Big Bang, la loro luce non ci arriverà per niente, se invece sono più vicini ma la velocità di recessione è maggiore di quella della luce, non ci arriverà nulla comunque. Quindi se anche l'universo fosse infinito nello spazio, non avremmo il paradosso. Secondo il cosmologo americano Edward Robert Harrison la soluzione del paradosso non si trova nell'espansione dell'Universo, anche un universo statico avrebbe un cielo notturno buio. La soluzione secondo Harrison è che le stelle brillano da troppo poco tempo per riempire tutto l'Universo con la loro radiazione. [3]. Note [1] Perdita di energia della luce nello spazio interstellare e intergalattico (http:/ / marcomissana. retelinux. com/ index. html) [2] Solution of the transfer equation in a scattering atmosphere with spherical symmetry (http:/ / www. springerlink. com/ content/ l41436u44032068k/ ) [3] Harrison, Edward R.: Cosmology, 2 ed. Cambridge U P (2000), Chap. 24:"Darkness at night" p. 491-506. ISBN 0-521-66148-X Bibliografia • Paul Wesson, "Olbers' paradox and the spectral intensity of the extragalactic background light", The Astrophysical Journal 367, pp. 399-406 (1991). • Edward Harrison, Darkness at Night: A Riddle of the Universe, Harvard University Press, 1987 • Scott, Douglas, and Martin White, "The Cosmic Microwave Background (http://www.astro.ubc.ca/people/ scott/cmb_intro.html)". 195 Paradosso di Olbers Voci correlate • • • • Cosmologia (astronomia) Big Bang Legge di Hubble Teoria della relatività Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:Olbers' paradox Paradosso di Protagora Il paradosso dell'avvocato (anche detto paradosso di Protagora) è un paradosso citato da Aulo Gellio e secondo la tradizione riferito ad elaborazioni della scuola stoica. Secondo questa versione, Protagora avrebbe formato agli studi di legge, come istitutore, un giovane promettente, Evatlo (Euathlus), dal quale ebbe solo la metà di quanto richiesto per le lezioni e col quale stabilì che il resto sarebbe stato saldato dopo che questi avesse vinto la sua prima causa. Ma Evatlo non cominciò la professione di avvocato, anzi si diede alla politica, e non avendo vinto la sua prima causa poiché non ne aveva mai fatte, Protagora non veniva pagato; quest'ultimo lo convenne dunque in giudizio per essere saldato del prezzo delle sue lezioni. Il giovane decise di difendersi da solo, divenendo perciò avvocato di sé medesimo, e creando questa situazione di indeterminatezza: • secondo Protagora: • se Evatlo avesse vinto, avrebbe dovuto pagarlo in base all'accordo, perché avrebbe vinto la sua prima causa; • se Evatlo avesse perso, avrebbe dovuto pagarlo comunque per effetto della sentenza. • secondo Evatlo: • se Evatlo avesse vinto, non avrebbe dovuto pagare Protagora per effetto della sentenza; • se Evatlo avesse perso, non avrebbe dovuto pagare Protagora perché in base all'accordo non aveva vinto la sua prima causa. Il paradosso è spesso citato a fini umoristici per segnalare la "gara di speciosità" sempre corrente fra le categorie forensi e quelle della politica. Collegamenti esterni • Testo in originale, traduzione e commenti [1] 196 Paradosso di Richard Paradosso di Richard Il paradosso di Richard è stato proposto dal matematico francese Jules Antoine Richard nel 1905. Esso può essere illustrato nei seguenti termini. Prendiamo in considerazione un vocabolario costituito da un numero esteso (ma ovviamente finito) di parole e di segni. Fissiamo poi l'attenzione su quelle frasi, formate da elementi del nostro vocabolario, che definiscono in maniera univoca specifici numeri reali costruibili. Esempi di frasi di questo tipo sono "il numero il cui quadrato è due" (composta da 7 parole); "il numero dato dal rapporto tra la lunghezza della circonferenza e quella del diametro del medesimo cerchio" (composta da 17 parole). Sia Rn l'insieme – ovviamente finito – dei numeri reali definibili con n parole e segni del nostro vocabolario. Consideriamo ora l'insieme R dato dall'unione di tutti gli insiemi Rn (con n = 3,4,5, …): R è ovviamente numerabile e possiamo ordinare i suoi elementi nella successione r1, r2, r3, …. R rappresenta dunque l'insieme di tutti e soli quei numeri reali definibili con un numero finito di elementi del nostro vocabolario. Consideriamo ora il numero r (possiamo battezzarlo numero di Richard) definito nel modo seguente: il numero la cui parte intera è zero, mentre (per ogni i) il suo i-esimo decimale è ottenuto aumentando di uno l'i-esimo decimale del numero ri appartenente ad R (con l'avvertenza che se tale decimale fosse 9 lo si sostituisce con zero). Da un lato, possiamo constatare dalla frase sopra riportata che r è un numero reale definibile con una quantità finita di parole o segni del nostro vocabolario e quindi deve essere incluso in R; dall'altro lato, esso (per il modo in cui è costruito) è diverso da tutti i numeri reali contenuti in R e quindi non vi risulta incluso. Di qui il paradosso. La costruzione di r fa uso della procedura diagonale utilizzata da Cantor per dimostrare la non numerabilità dei numeri reali. Il paradosso di Richard – come quello di Berry e di Zermelo-König – fa parte dei così detti paradossi semantici. Il suo interesse nell'ambito dello studio dei fondamenti logici della matematica sta nell'aver, in qualche modo, aperto la strada alla prova di incompletezza di Gödel. 197 Paradosso di Russell Paradosso di Russell Il paradosso di Russell, formulato dal filosofo e logico britannico Bertrand Russell tra il 1901 e il 1902[1][2], è una delle antinomie più importanti della storia della filosofia e della logica[3]. Si tratta più propriamente di un'antinomia che di un paradosso: un paradosso è una conclusione logica e non contraddittoria che si scontra con il nostro modo abituale di vedere le cose, mentre un'antinomia è una proposizione che risulta autocontraddittoria sia nel caso che sia vera, sia nel caso che sia falsa[4]. L'antinomia di Russell può essere espressa in modo "intuitivo" per mezzo di altre formulazioni, come il paradosso del barbiere o quello del bibliotecario; inoltre, essa è basata su un ragionamento analogo a quello che porta al paradosso dell'eterologicità di Grelling-Nelson[3][4]. Il paradosso di Russell ebbe un ruolo fondamentale nella crisi dei fondamenti della matematica, la quale a sua volta ebbe un peso notevole nella più ampia crisi che interessò le certezze fondamentali della fisica, della filosofia e appunto della matematica all'inizio del XX secolo, crisi che spesso è associata al Bertrand Russell. crollo delle dottrine filosofiche di stampo positivista[3]. In particolare, dimostrò la contraddittorietà della teoria ingenua (o intuitiva) degli insiemi di Georg Cantor, che faceva uso di strumenti matematici analoghi a quelli su cui si era basato Gottlob Frege nel tentativo di produrre una completa fondazione della matematica sulla logica (tale tentativo va sotto il nome di Logicismo). Nel tentativo di risolvere l'antinomia, in modo tale da conservare la validità dell'idea (alla base del Logicismo) per cui la matematica può essere fondata completamente dalla logica, Russell sviluppò in collaborazione con Alfred North Whitehead la teoria dei tipi, esposta nel loro libro Principia Mathematica[3]. L'antinomia Nell'ambito della teoria intuitiva di Cantor, gli insiemi possono essere definiti in modo completamente libero, cioè si possono creare insiemi con caratteristiche arbitrarie: data una proprietà, essa identifica sempre un insieme, l'insieme di tutti gli oggetti che godono di quella proprietà[5]. Russell immaginò di creare una suddivisione degli insiemi in due categorie: • Gli insiemi che tra i loro elementi hanno loro stessi, cioè gli insiemi che appartengono a se stessi; si cita spesso come esempio "l'insieme di tutti i concetti astratti", che appartiene a se stesso perché è un concetto astratto. • Gli insiemi che tra i loro elementi non hanno loro stessi, cioè gli insiemi che non appartengono a se stessi; ad esempio, come notò Russell stesso, "l'insieme di tutte le tazze da tè" non è una tazza da tè[2]. Se definiamo R come l'insieme di tutti gli insiemi che non appartengono a se stessi, abbiamo: Il problema posto da Russell a questo punto fu se R appartiene o meno a se stesso. Se R appartiene a se stesso, per le caratteristiche che ha in base alla definizione non deve appartenere a se stesso. Se non appartiene a se stesso, ha 198 Paradosso di Russell caratteristiche tali per cui, sempre in base alla definizione, deve appartenere a se stesso. In sintesi, il paradosso di Russell si può enunciare così: l'insieme di tutti gli insiemi che non appartengono a se stessi appartiene a se stesso se e solo se non appartiene a se stesso. Formalmente, Storia Scoperta dell'antinomia Bertrand Russell approdò alla sua antinomia all'inizio del 1900, semplificando il teorema di Cantor[6]. Nello stesso periodo il famoso logico tedesco Gottlob Frege, il più importante esponente del programma logicista, stava portando avanti un tentativo di fondare rigorosamente tutta la costruzione della matematica sulla logica; nel 1879 la sua opera Ideografia aveva posto le basi di quel linguaggio simbolico e formale per mezzo del quale Frege mirava a definire con assoluta evidenza i concetti fondamentali della matematica[7]. Al momento della scoperta dell'antinomia di Russell egli aveva già pubblicato anche il primo volume dei suoi Principî dell'aritmetica, in cui procedeva alla vera e propria "logicizzazione" dei concetti che altri matematici (Dedekind e Peano) avevano dimostrato essere alla base dell'aritmetica e, di conseguenza, di tutta la matematica. Il 16 giugno 1902 però Russell scrisse a Frege una lettera in cui lo informava di come aveva scoperto un'antinomia connessa con gli argomenti dei Principî dell'aritmetica, che il filosofo britannico aveva letto circa un anno prima. Il punto critico del tentativo di fondazione della matematica sulla logica compiuto dai logicisti (che è anche il punto critico della teoria insiemistica di Cantor) era l'assioma detto "di astrazione", per il quale ogni proprietà individua l'insieme degli oggetti che la soddisfano; la proprietà di non appartenere a se stesso, infatti, dà origine a un insieme dalle caratteristiche contraddittorie[8]. Il secondo volume dell'opera di Frege uscì pochi mesi più tardi, nel 1903, e il suo autore poté solo aggiungere un'appendice in cui rendeva pubblica l'antinomia e confessava il suo sconforto, aprendo la "crisi dei fondamenti della matematica": « Qui non è in causa il mio metodo di fondazione in particolare, ma la possibilità di una fondazione logica dell'aritmetica in [9] generale . » Nel frattempo, l'antinomia era stata riscoperta da Ernst Zermelo, e va ricordato che era stata anticipata, pochi anni prima, da Georg Cantor[6]. Conseguenze del paradosso di Russell Tra la fine del XIX secolo e l'inizio del XX, diversi matematici e filosofi avevano cominciato a interrogarsi sul problema dei "fondamenti della matematica", cioè sulla definizione di basi precise in grado di fondare l'intero edificio concettuale della matematica. L'attenzione, che precedentemente era concentrata quasi esclusivamente sul contenuto dei giudizi matematici, si spostò in questo periodo sulla giustificazione dei giudizi stessi[10]. Le tre prospettive principali sul problema dei fondamenti furono quella logicista, quella intuizionista e quella formalista. L'antinomia di Russell, oltre che mandare in crisi il Logicismo, generò problemi contro cui si scontrarono tutti gli studiosi di matematica suoi contemporanei, e che – nonostante diversi tentativi di trovare risposte al paradosso – rimasero insolubili sia per la teoria dei tipi elaborata da Russell insieme a Whithead[11], sia per l'Intuizionismo di Luitzen Brouwer sia per il Formalismo di David Hilbert. 199 Paradosso di Russell Fu il logico austriaco Kurt Gödel che, nel 1931, risolse definitivamente la questione dimostrando l'impossibilità tout court di produrre una fondazione certa dell'aritmetica. I suoi risultati sono enunciati da due teoremi di incompletezza[12]. Per quanto riguarda l'insiemistica, Le contraddizioni messe in luce dal paradosso di Russell sono insolubili nell'ambito della teoria di Cantor, se non generando altri paradossi; per superare questo scoglio furono elaborate diverse teorie assiomatiche più rigorose: quella che ebbe più seguito fu la teoria degli insiemi di Zermelo-Fraenkel, formulata inizialmente da Ernst Zermelo e perfezionata da Abraham Fraenkel e Thoralf Skolem che, con le successive estensioni (ad esempio, la teoria ZFC), fornisce tuttora la base teorica per la maggior parte delle costruzioni matematiche. La vecchia teoria degli insiemi (peraltro tuttora largamente utilizzata a livello scolastico e divulgativo) viene chiamata teoria intuitiva degli insiemi, in contrapposizione alla teoria assiomatica degli insiemi. Altri paradossi logici Tra la fine dell'Ottocento e l'inizio del Novecento altre antinomie contribuirono a mettere in crisi le basi logico-concettuali che la matematica si era data, e quindi anche il programma di fondare la matematica stessa su basi logiche che fossero al riparo da qualsiasi contraddizione. Accanto al paradosso di Russell, si ricordano: • Paradosso di Burali Forti • • • • Paradosso di Zermelo-König Paradosso di Richard Paradosso del bibliotecario Paradosso dell'eterologicità di Grelling-Nelson Note [1] F. Cioffi; F. Gallo, G. Luppi, A. Vigorelli, E. Zanette, Diálogos, Edizioni Scolastiche Bruno Mondadori, 2000, p. 195 vol. 3 Autori e testi. ISBN 88-424-5264-5 [2] P. Odifreddi, Il diavolo in cattedra, Einaudi, 2003, p. 205. ISBN 88-06-18137-8 [3] Cioffi, op. cit., p. 196 vol. 3 Autori e testi. [4] W. Maraschini; M. Palma, ForMat, Spe, Paravia, 2002, 551 vol. 3. ISBN 88-395-1435-X [5] Il fatto che gli insiemi possano essere formati arbitrariamente, come "estensioni concettuali di una proprietà", e che quindi ogni proprietà individui sempre l'insieme degli oggetti che la soddisfano, costituisce l'"assioma di astrazione", uno dei due assiomi alla base della teoria logicista di Frege. L'altro era il "principio di estensionalità", per cui se due insiemi sono costituiti da tutti e soli elementi uguali allora sono uguali. L'assioma di astrazione è la vera causa dell'insorgenza dell'antinomia di Russell, cioè è il punto contraddittorio sia del ragionamento di Frege, sia della teoria degli insiemi di Cantor Si veda Maraschini, op. cit., p. 550 e Cioffi, op. cit., p. 115 vol. 3 Problemi. [6] Odifreddi, op. cit., p. 206. [7] Maraschini, op. cit., p. 464. [8] Cioffi, op. cit., p. 116 vol. 3 Problemi [9] Maraschini, op. cit., p. 550. [10] Clementina Ferrandi, Filosofia e scienza – Un intreccio fecondo, Torino, Il Capitello, 1991, pp. 170-171 vol. 3. [11] Per superare la contraddizione posta dalla sua antinomia, Russell stesso elaborò in seguito, in collaborazione con il filosofo e matematico britannico Whitehead, la teoria dei tipi; essa era basata sull'idea che gli insiemi vadano classificati gerarchicamente, in modo che un insieme possa essere membro di un altro solo se quest'ultimo è di un tipo più "generale": gli insiemi venivano distinti in diversi livelli, tali per cui al livello 0 c'erano gli elementi, al livello 1 gli insiemi di elementi, al livello 2 gli insiemi di insiemi di elementi e così via. Russell infatti individuava come causa essenziale della contraddizione il fatto che un linguaggio o una teoria potessero fare affermazioni su loro stessi, vale a dire l'autoreferenzialità. La teoria dei tipi è esposta nel libro di Russell e Whitehead Principia Mathematica, scritto tra il 1910 e il 1913. Si veda Maraschini, op. cit., p. 551. [12] Cioffi, op. cit., p. 122 vol. 3 Problemi. 200 Paradosso di Russell Bibliografia • F. Cioffi; F. Gallo, G. Luppi, A. Vigorelli, E. Zanette, Diálogos, Edizioni Scolastiche Bruno Mondadori, 2000, vol. 3 Autori e testi e vol. 3 Problemi. ISBN 88-424-5264-5 • C. Ferrandi, Filosofia e scienza – Un intreccio fecondo, Torino, Il Capitello, 1991, vol. 3. • W. Maraschini; M. Palma, ForMat, Spe, Paravia, 2002. ISBN 88-395-1435-X • P. Odifreddi, Il diavolo in cattedra, Einaudi, 2003. ISBN 88-06-18137-8 Voci correlate • Filosofia della matematica • Crisi dei fondamenti della matematica Paradosso di San Pietroburgo Nella teoria della probabilità e nella teoria delle decisioni, il paradosso di San Pietroburgo descrive un particolare gioco d'azzardo basato su una variabile casuale con valore atteso infinito, cioè con una vincita media di valore infinito. Ciononostante, ragionevolmente, si considera adeguata solo una minima somma, da pagare per partecipare al gioco. Il paradosso di San Pietroburgo è la classica situazione in cui l'applicazione diretta della teoria delle decisioni (che tiene conto solo del guadagno atteso) suggerisce una linea di condotta che nessuna persona ragionevole si sentirebbe di adottare. Il paradosso si risolve raffinando il modello di decisione e prendendo in considerazione il concetto di utilità marginale e il fatto che le risorse dei partecipanti sono limitate (non infinite). Il paradosso prende il nome dalla presentazione del problema da parte di Daniel Bernoulli, nel 1738 nei Commentarii Academiae Scientiarum Imperialis Petropolitanae (di San Pietroburgo). Comunque il problema fu inventato dal cugino di Daniel, Nicolas Bernoulli, che per primo lo enunciò in una lettera a Pierre Raymond de Montmort fin dal 9 settembre 1713.[1] Il paradosso In un ipotetico gioco d'azzardo, derivato dalla scommessa testa o croce sul lancio di una moneta, si paga una quota di ingresso fissa, diciamo A, per partecipare ad una fase del gioco. Ciascuna fase consiste nel lanciare ripetutamente una moneta (non truccata) finché non esce Croce, che dà luogo alla vincita. La vincita dipende dal numero di lanci: se esce Croce al primo lancio, si vince 1 (uno); se esce Testa, si raddoppia ad ogni lancio successivo. In breve, si paga A e si vince 2k−1, se la moneta è stata lanciata k volte quando compare Croce per la prima volta. Poi si riprende da capo con una nuova fase del gioco. (Nella formulazione originale, questo gioco fu attribuito ad un ipotetico casinò di San Pietroburgo, da cui è derivato il nome del paradosso). Alla fine dei lanci si è dunque certi di incassare un premio, ma quanto si è disposti a pagare per partecipare al gioco? La probabilità che la prima Croce esca al lancio k-esimo è: Quindi si ha: probabilità 1/2 di vincere 1; probabilità 1/4 di vincere 2; probabilità 1/8 di vincere 4 ... e così via. Il valore atteso della vincita è dunque: 201 Paradosso di San Pietroburgo 202 La somma diverge all'infinito: cioè in media ci si aspetta di vincere una somma infinita da questo gioco. Quindi, in accordo con la teoria tradizionale del valore atteso, ci si può permettere di pagare qualunque cifra A per partecipare. Infatti anche pagando un miliardo per volta, alla lunga, dovrà capitare la volta (con probabilità invero bassissima) di una vincita così strepitosa da ripagare abbondantemente tutte le altre quote investite per ottenere vincite insignificanti. In pratica però, nessuna persona ragionevole è disposta a pagare più di qualche unità per partecipare a questo gioco: ecco appunto il paradosso, detto di San Pietroburgo. Il rifiuto intuitivo a investire cifre importanti nel gioco è ben sostenuto dalla simulazione descritta nel grafico seguente. Ripetendo 20'000 volte la serie di lanci del gioco, tipicamente si ottengono all'inizio vincite mediamente basse (qualche unità). Successivamente la media si alza, in corrispondenza di qualche serie fortunata, per poi diminuire leggermente fino al prossimo colpo fortunato. L'andamento complessivo è senza dubbio crescente, e tenderà matematicamente all'infinito dopo una serie infinita di giocate ma, nelle 20'000 giocate della simulazione, la media delle vincite è arrivata appena al valore di 8. Il grafico compendia il paradosso del gioco: l'andamento generale della media delle vincite totali mostra di tendere ad un aumento senza limiti, ma la lentezza della crescita, che tende a diventare ancor più lenta al crescere del numero delle prove, indica che sarebbe necessario un numero spaventosamente alto di giocate per raggiungere valori anche modestamente alti. Paradosso di San Pietroburgo 203 Soluzioni del paradosso Dal punto di vista matematico, non sorgono difficoltà dalla situazione prospettata nel gioco. Il risultato di vincita media con valore atteso infinito è calcolato correttamente e il contrasto con l'intuito comune è una caratteristica ricorrente dei comportamenti paradossali dell'infinito. In altre parole, è perfettamente coerente accettare la possibilità (infinitesima) di una vincita infinita, tale da bilanciare qualunque somma pagata nelle (infinite) volte in cui la vincita risulta insignificante. Viceversa, per gli studiosi di scienze sociali, e di economia in particolare, questo "paradosso" ha costituito un potente stimolo per costruire una teoria delle aspettative e per introdurre i concetti di utilità marginale e di peso soggettivamente attribuito alle probabilità. Teoria della Utilità attesa Gli economisti usano questo paradosso per mettere in luce una varietà di argomenti in economia e nella teoria delle decisioni. La soluzione classica del paradosso richiede l'introduzione esplicita del concetto di utilità attesa e di diminuzione dell'utilità marginale del denaro. L'idea della diminuzione dell'utilità marginale del denaro fu già una intuizione di Bernoulli. Secondo le sue parole: "La determinazione del valore di un oggetto deve essere basata non sul suo prezzo, ma piuttosto sulla utilità che può procurare ... Non c'è dubbio che un guadagno di mille ducati ha più valore per un povero che per un ricco, nonostante entrambi guadagnino la stessa quantità." Già qualche anno prima che Daniel Bernoulli pubblicasse questo argomento, un altro matematico svizzero, Gabriel Cramer, aveva introdotto parzialmente la stessa idea scrivendo, nel 1728, a Nicholas Bernoulli, sempre a proposito del gioco di San Pietroburgo: "I matematici stimano il denaro in proporzione alla sua quantità, mentre un uomo di buon senso lo stima in proporzione all'uso che può farne." Utilizzando una opportuna funzione di utilità, ad esempio quella logaritmica proposta da Bernoulli u(x)=ln(x), utilità proporzionale al logaritmo del valore guadagnato, oppure quella di Cramer, con utilità proporzionale alla radice quadrata del valore guadagnato, si ottengono utilità attese non più infinite, ma ragionevolmente basse. Nel caso di utilità logaritmica il valore utile atteso dalla vincita diventa infatti 2. Tuttavia la soluzione proposta da Cramer e da Bernoulli non è ancora del tutto soddisfacente. Infatti si può sempre immaginare un gioco di San Pietroburgo con vincite che aumentano molto velocemente col numero di lanci, in modo che l'utilità logaritmica attesa torni ad essere infinita. Per risolvere questo nuovo paradosso, chiamato talvolta "super paradosso di San Pietroburgo", bisogna prendere in considerazione giochi di San Pietroburgo con valore atteso limitato, oppure considerare funzioni di utilità che presentano un valore massimo limitato, come ad esempio potrebbe essere: . Recentemente, la teoria dell'utilità attesa è stata estesa per arrivare a molteplici modelli di decisioni comportamentali. In alcune di queste nuove teorie, come ad esempio nella teoria della aspettativa cumulata, il paradosso di San Pietroburgo ritorna di attualità e può essere superato solo imponendo un limite alle vincite. Paradosso di San Pietroburgo 204 Il valore morale di Bernoulli Proprio per superare il problema del valore monetario atteso della vincita pari a ∞, Bernoulli introdusse una funzione di utilità v(x)=log{x} abbandonando quella che veniva considerata una pietra miliare delle funzioni di utilità: funzioni lineari positive crescenti e superando d'altro canto anche grazie alle proprietà delle funzioni logaritmiche (cfr logaritmo), l'impasse del valore infinito: , siccome e potendo tirare fuori il dalla sommatoria, avrò: infine, siccome è una progressione geometrica che per sarà pari a 2, si dimostra come: e quindi . Tale risultato, però non costituisce il valore che il giocatore è tenuto a sborsare per partecipare ma il valore che egli attribuisce al gioco; infatti per avere il prezzo del gioco occorrerà fare ricorso all'equivalente certo (cfr avversione al rischio) e quindi alla funzione inversa dell'utilità: Tuttavia esistono altre funzioni di utilità molto utilizzate (funzione esponenziale e funzione quadratica). La caratteristica di tali funzioni (dette Funzione di utilità HARA) è quella di avere le derivate prima e seconda rispettivamente maggiore e minore di zero. Peso attribuito alle probabilità Lo stesso Nicolas Bernoulli propose un'idea alternativa per risolvere il paradosso. Fece la congettura che una persona normale tenda a trascurare automaticamente gli eventi improbabili; siccome nel gioco di San Pietroburgo solo eventi molto improbabili offrono le alte vincite che assicurano il valore atteso tendente all'infinito, ciò dovrebbe risolvere il paradosso. L'idea di pesare le probabilità rispuntò molto più tardi, nel lavoro sulla teoria delle aspettative di Daniel Kahneman e Amos Tversky in Econometrica del 1979. Ma i loro esperimenti dimostrarono che, nettamente al contrario, la gente tende a sopravvalutare gli eventi con bassa probabilità. Così, oggi la soluzione proposta da Nicolas Bernoulli non è più considerata soddisfacente. Gioco di San Pietroburgo con vincita limitata L'enunciato classico del gioco di San Pietroburgo assume implicitamente che il banco del casinò abbia risorse infinite. Tale assunzione è stata spesso criticata come irrealistica, in particolare per spiegare la reazione di una persona comune, che intuitivamente non accetta l'idea di poter scommettere grosse cifre in questo gioco. In realtà le risorse di un casinò reale (o di qualunque altro potenziale "banco" per questo gioco) sono limitate e, cosa più importante, si vede che mentre il premio massimo cresce molto rapidamente, con andamento esponenziale, il valore medio del premio cresce molto, molto lentamente, con andamento logaritmico. Ne consegue che il valore atteso da questo gioco, anche ipotizzando un banco con le più grandi risorse concepibili, risulta piuttosto modesto. Infatti ipotizzando che il casinò possa pagare non più di W, l'enunciato del gioco deve prevedere che dopo L estrazioni consecutive di Testa per cui , viene pagato il premio W, ma non si continua con l'estrazione (L+1) e il gioco ricomincia, ripartendo da 1. In questo caso il valore atteso diventa: Paradosso di San Pietroburgo 205 In pratica il valore atteso del premio è quindi proporzionale al logaritmo in base 2 del premio massimo. La tabella seguente mostra i valori attesi dei premi in funzione del valore massimo del premio pagabile da un eventuale banco: Tipo di Banco Premio massimo N° max di Testa Valore atteso di vincita Bambini 8 3 2 Gioco tra amici 64 6 3.5 Milionario 1'050'000 20 10.50 Miliardario 1'075'000'000 30 15.50 10100 333 166.50 Fantastiliardario Con fantastiliardario si è indicata una ipotetica persona che possa disporre di una quantità di denaro (10100) molto superiore alla quantità di atomi che si pensa possano essere contenuti nell'Universo osservabile. Si deve pensare che sia materialmente impossibile che qualcuno abbia fisicamente tanto denaro. Quindi si può concludere che in nessun caso ci si possa aspettare un premio medio superiore a 170. Una persona media potrebbe ancora non trovare appetibile il gioco, se dovesse pagare una quota di ingresso comparabile col premio atteso esposto in tabella. Tuttavia la discrepanza tra l'intuito e il calcolo teorico del valore atteso è molto meno drammatica che nel caso iniziale. Iterazioni del gioco di San Pietroburgo Consideriamo la ripetizione di 1024 giocate. In media: • • • • • • • • • • • 512 giocate pagheranno 1 256 giocate pagheranno 2 128 giocate pagheranno 4 64 giocate pagheranno 8 32 giocate pagheranno 16 16 giocate pagheranno 32 8 giocate pagheranno 64 4 giocate pagheranno 128 2 giocate pagheranno 256 1 giocata pagherà 512 1 giocata pagherà 1024 I primi 10 casi contribuiscono per 512 ognuno, l’ultimo caso contribuisce per 1024. Se si raddoppiano le giocate c’è un contributo in più ed il valore di ogni contributo raddoppia (nel caso di 2048 giocate, ci saranno 11 contributi di 1024 ed un contributo di 2048). In generale, se si effettuano n giocate, il valore totale è: ed il valore medio: Nel caso di 16.384 giocate, poco meno del numero di iterazioni riportati nel grafico, questa formula dà un valore medio di 8, in accordo con quanto ottenuto sperimentalmente. È facile calcolare il valore medio atteso per numeri ancora più elevati di giocate. Con un milione di giocate si arriverebbe ad 11, con un miliardo a 16, con 1000 miliardi a 21. Ipotizzando di effettuare una giocata al minuto e di ripetere il gioco senza interruzioni, per arrivare al valore medio di 21 si dovrebbe giocare per due milioni di anni.[2] Paradosso di San Pietroburgo Ulteriori discussioni Il paradosso di San Pietroburgo e la teoria dell'utilità marginale sono stati molto discussi in passato. Per un contributo interessante (ma non sempre assonante) da parte di un filosofo, vedere (Martin, 2004) [3], nella Stanford Encyclopedia of Philosophy. Bibliografia • (EN) Aumann, Robert J. (Aprile 1977). "The St. Petersburg paradox: A discussion of some recent comments.". Journal of Economic Theory 14 (2): 443–445. DOI:10.1016/0022-0531(77)90143-0 [4]. • (EN) Durand, David (Settembre 1957). "Growth Stocks and the Petersburg Paradox [5].". The Journal of Finance 12 (3): 348–363. • (EN) Bernoulli and the St. Petersburg Paradox [6]. The History of Economic Thought. The New School for Social Research, New York. • Castellani, G., De Felice, M., Moriconi, F., Manuale di finanza. Modelli stocastici e contratti derivati, Il Mulino, 2005 • Castellani, G., De Felice, M., Moriconi, F., Manuale di finanza. Teoria del portafoglio e del mercato azionario, Il Mulino, 2005 Note [1] [2] [3] [4] [5] [6] http:/ / www. cs. xu. edu/ math/ Sources/ Montmort/ stpetersburg. pdf#search=%22Nicolas%20Bernoulli%22 http:/ / www. riflessioni. it/ scienze/ paradosso-san-pietroburgo. htm http:/ / plato. stanford. edu/ archives/ fall2004/ entries/ paradox-stpetersburg/ http:/ / dx. doi. org/ 10. 1016/ 0022-0531(77)90143-0 http:/ / links. jstor. org/ sici?sici=0022-1082(195709)12%3A3%3C348%3AGSATPP%3E2. 0. CO%3B2-R http:/ / cepa. newschool. edu/ het/ essays/ uncert/ bernoulhyp. htm Collegamenti esterni • http://www.mathematik.com/Petersburg/Petersburg.html Simulazione Online del lancio di monete nel gioco di San Pietroburgo 206 Paradosso di Simpson 207 Paradosso di Simpson Il paradosso di Simpson è in statistica la situazione in cui una relazione tra due fenomeni viene apparentemente modificata o persino invertita dai dati in possesso a causa di altri fenomeni non presi in considerazione nell'analisi. È alla base di frequenti errori nelle analisi statistiche nell'ambito delle scienze sociali e mediche, ma non solo. Storia George Udny Yule lo descrisse nell'articolo "Notes on the theory of association of attributes in Statistics", comparso in Biometrika nel 1903 e E. H. Simpson con l'articolo "The interpretation of interaction in contingency tables" nel Journal of the Royal Statistical Society (1951). Definizione formale Benché P(X|BC) > P(X|bC) P(X|Bc) > P(X|bc) accade che P(X|B) < P(X|b) dove P(X|YZ) è la probabilità di X condizionata dall'evento congiunto Y e Z b è l'evento complementare di B c è l'evento complementare di C Esempio Si ipotizzi una situazione nella quale, a parità di età, tra i diplomati o laureati la percentuale di disoccupati sia la metà di quella che si ha tra chi non ha conseguito il diploma. Si consideri però pure il fatto che, per motivi storici, tra le generazioni più anziane i diplomati siano in numero molto minore e che, per motivi legati al mercato del lavoro, tra i giovani il tasso di disoccupazione è più elevato che tra gli anziani. Partendo dalle seguenti due statistiche ipotetiche Lavoratori senza diploma con diploma Totale Giovani 20 80 100 Anziani 120 30 150 Totale 140 110 250 Paradosso di Simpson 208 Tasso di disoccupazione senza diploma con diploma Giovani 30% 15% Anziani 5% 3,33% dove abbiamo che in entrambi i casi la disoccupazione è circa doppia tra i non diplomati, rispetto ai diplomati, possiamo calcolare il numero di disoccupati: Disoccupati senza diploma con diploma Totale Giovani 6 12 18 Anziani 6 1 7 Totale 12 13 25 Questi valori assoluti ci permettono ora di calcolare il tasso di disoccupazione per i non diplomati e per i diplomati senza tenere conto dell'età: si ottiene Percentuale di disoccupati senza diploma 12/140 = 8,6% con diploma 13/110 = 11,8% Improvvisamente si scopre che tra i diplomati il tasso di disoccupazione invece che essere la metà è di un quarto maggiore che tra i non diplomati, esattamente il contrario di quello che si era ipotizzato. Questo paradosso è detto appunto di Simpson ed è dovuto al fatto che il tasso di disoccupazione è nettamente maggiore nel gruppo che ha una maggiore percentuale di diplomati; trascurare l'esistenza di due relazioni fondamentali (quella tra disoccupazione e età, nonché quella tra età e titolo di studio) fa giungere a conclusioni errate. Mentre in questo caso preparato a tavolino la contraddizione è evidente, nelle analisi statistiche reali può capitare di non accorgersi delle relazioni implicite esistenti tra le variabili e limitarsi ad analizzare dati aggregati senza incrociarli con le variabili essenziali; la contraddizione non verrebbe allora minimamente percepita, e si potrebbero trarre conclusioni completamente opposte alla vera distribuzione, con conseguenze potenzialmente molto gravi. In situazioni meno estreme di quelle dell'esempio, le stesse cause del paradosso di Simpson possono portare a sovrastimare o sottostimare differenze tra gruppi, senza però capovolgere il "segno" della relazione. I dati prodotti dal paradosso di Simpson chiaramente non sono sbagliati in sé, ma semplicemente devono essere letti in modo diverso di quanto non farebbe un lettore o analista superficiale: • tra persone con diploma ci sono più disoccupati che tra persone senza diploma Mentre sbagliata è la conclusione superficiale che usa concetti di causa-effetto, come • avere un diploma è la causa di una maggiore disoccupazione Volendo usare concetti di causa effetto (spesso l'unico motivo per il quale si analizzano i dati), ma avendo a disposizione tutti i dati, si può dire 1. I giovani sono sei volte più soggetti alla disoccupazione rispetto agli anziani 2. ma sia tra i giovani che tra gli anziani avere un diploma riduce il "rischio disoccupazione" alla metà Paradosso di Smale 209 Paradosso di Smale Il paradosso di Smale, in topologia differenziale, afferma che è possibile in uno spazio tridimensionale rivoltare una sfera, ovvero con la parte interna e esterna invertite, senza creare fori o pieghe, ma al più auto-intersezioni. Più precisamente sia un'immersione canonica; allora esiste un'omotopia di immersione tale che e . Bibliografia • Nelson Max, "Turning a Sphere Inside Out", International Film Bureau, Chicago, 1977 (video) Superficie di Morin vista "dall'alto" • Anthony Phillips, "Turning a surface inside out, Scientific American, May 1966, pp. 112-120. • Smale, Stephen A classification of immersions of the two-sphere. Trans. Amer. Math. Soc. 90 1958 281–290. Collegamenti esterni • (EN) Università di Berkeley: "Turning a Sphere Inside Out" [1] • (DE) Un video MPG sul rivoltare una sfera [2]. Note [1] http:/ / www. cs. berkeley. edu/ ~sequin/ SCULPTS/ SnowSculpt04/ eversion. html [2] http:/ / www. th. physik. uni-bonn. de/ th/ People/ netah/ cy/ movies/ sphere. mpg Paradosso di Stein Paradosso di Stein L'esempio Stein (o fenomeno o paradosso), in teoria delle decisioni e teoria della stima, è il fenomeno che, quando tre o più parametri sono stimati contemporaneamente, il loro stimatore combinato è più preciso (è il previsto errore quadratico medio) di qualsiasi metodo che gestisce l' parametri separatamente. Ciò è sorprendente in quanto i parametri e le misure potrebbe essere del tutto indipendenti. Il fenomeno prende il nome dal suo scopritore, Charles Stein. Paradosso Einstein-Podolsky-Rosen Il paradosso di Einstein-Podolsky-Rosen (paradosso EPR) è un esperimento mentale che dimostra come una misura eseguita su una parte di un sistema quantistico possa propagare istantaneamente un effetto sul risultato di un'altra misura, eseguita successivamente su un’altra parte dello stesso sistema, indipendentemente dalla distanza che separa le due parti. Questo effetto, derivante dalla interpretazione di Copenaghen della meccanica quantistica e divenuto poi noto come entanglement quantistico, venne considerato paradossale in quanto, oltre che controintuitivo, ritenuto incompatibile con un postulato della relatività ristretta (che considera la velocità della luce la velocità limite alla quale può viaggiare un qualunque tipo d'informazione) e, più in generale, con il principio di località. Considerazioni generali Albert Einstein, Boris Podolsky e Nathan Rosen proposero questo esperimento ideale in un articolo pubblicato nel 1935 intitolato "La descrizione quantistica della realtà fisica può ritenersi completa?", appunto con l’intento di dimostrare che la meccanica quantistica, portando, oltre che a validi risultati, anche a conseguenze paradossali, non è una teoria fisica completa.[1] Cinque mesi dopo, Niels Bohr rispose all'argomento di EPR con un articolo intitolato allo stesso modo.[2] La posizione di Bohr è stata a lungo considerata come ulteriore vittoria del suo scontro con Einstein, benché oggi si riconosca apertamente che la sua posizione era piuttosto oscura e non può essere certo considerata soddisfacente come risposta a EPR. Sempre nello stesso anno, Erwin Schrödinger pubblicò l'articolo in cui descrive il famoso paradosso del gatto, cercando di chiarire l'idea della sovrapposizione di stati nella meccanica quantistica. Si deve a David Bohm, nel 1951, una riformulazione del paradosso in termini più facilmente verificabili sperimentalmente.[3] Il paradosso EPR descrive un effetto fisico che, come accennato, ha aspetti paradossali nel senso seguente: se in un sistema quantistico ipotizziamo alcune deboli e generali condizioni, come realismo, località e completezza, ritenute ragionevolmente vere per qualunque teoria che descriva la realtà fisica senza contraddire la relatività, giungiamo ad una contraddizione. Tuttavia è da notare che "di per sé" la meccanica quantistica non è intrinsecamente contraddittoria, né risulta in contrasto con la relatività. Benché proposto originariamente per mettere in luce l'incompletezza della meccanica quantistica, ulteriori sviluppi teorici e sperimentali seguiti all'articolo originale (come il teorema di Bell e l'esperimento sulla correlazione quantistica di Aspect[4]) hanno portato una gran parte dei fisici a considerare il paradosso EPR solo un illustre esempio di come la meccanica quantistica contrasti in modo stridente con le esperienze quotidiane del mondo macroscopico (per quanto la questione non sia assolutamente chiusa). 210 Paradosso Einstein-Podolsky-Rosen Descrizione del paradosso Misure su uno stato entangled Considereremo la versione semplificata dell'esperimento ideale di EPR formulata da David Bohm. Si supponga di avere una sorgente che emette coppie di elettroni, uno dei quali viene inviato alla destinazione A, dove c'è un'osservatrice di nome Alice, e l'altro viene inviato alla destinazione B, dove c'è un osservatore di nome Bob. Secondo la meccanica quantistica, possiamo sistemare la sorgente in modo che ciascuna coppia di elettroni emessi occupi uno stato quantistico detto singoletto di spin. Questo si può descrivere come sovrapposizione quantistica di due stati, indicati con I e II. Nello stato I, l'elettrone A ha spin parallelo all'asse z (+z) e l'elettrone B ha spin antiparallelo all'asse z (-z). Nello stato II, l'elettrone A ha spin -z e l'elettrone B ha spin +z. È quindi impossibile associare ad uno dei due elettroni nel singoletto di spin uno stato di spin definito: gli elettroni sono quindi detti entangled, cioè intrecciati. Riproposizione dell'esperimento suggerito da Einstein, Podolsky e Rosen, eseguito con elettroni. Una sorgente invia elettroni verso due osservatori, Alice (a sinistra) e Bob (a destra), i quali sono in grado di eseguire misure della proiezione dello spin degli elettroni lungo un asse. Alice misura lo spin lungo l'asse ottenendo uno dei due possibili risultati: +z o -z. Supponiamo che ottenga +z; secondo la meccanica quantistica la funzione d'onda che descrive lo stato di singoletto dei due elettroni collassa nello stato I (le diverse interpretazioni della meccanica quantistica dicono questo in diversi modi, ma il risultato alla fine è lo stesso) e tale stato quantistico determina le probabilità dei risultati di qualunque altra misura fatta sul sistema. In questo caso, se Bob successivamente misurasse lo spin lungo l'asse z, otterrebbe -z con una probabilità del 100%. Analogamente, se Alice misurasse -z, Bob otterrebbe +z, sempre con una probabilità del 100%. Naturalmente non c'è niente di speciale nella scelta dell'asse z. Ad esempio, supponiamo che Alice e Bob decidano di misurare lo spin lungo l'asse x. Secondo la meccanica quantistica, lo stato di singoletto di spin può essere espresso adeguatamente come sovrapposizione di stati di spin lungo la direzione x, stati che chiameremo Ia e IIa. Nello stato Ia l'elettrone di Alice ha spin +x, quello di Bob ha spin -x, invece nello stato IIa l'elettrone di Alice ha spin -x, quello di Bob ha spin +x. Quindi, se Alice misura +x, il sistema collassa in Ia, e Bob misurerà -x, con probabilità del 100%; se Alice misura -x, il sistema collassa in IIa e Bob misurerà +x, con probabilità del 100%. In meccanica quantistica, la proiezione dello spin lungo x e quella lungo z sono quantità osservabili tra loro incompatibili, per cui gli operatori associati non commutano, cioè uno stato quantistico non può possedere valori definiti per entrambe le variabili (principio di indeterminazione). Supponiamo che Alice misuri lo spin lungo z e ottenga +z, in modo che il sistema collassi nello stato I. Ora, invece di misurare lo spin lungo z, Bob misura lo spin lungo x : secondo la meccanica quantistica, c'è il 50% di probabilità che egli ottenga +x e il 50% di probabilità che ottenga -x. Inoltre, è impossibile predire quale sarà il risultato fino a quando Bob non esegue la misura. È bene sottolineare che, benché si sia usato lo spin come esempio, si possono considerare molte altre quantità fisiche (osservabili), tra loro entangled. L'articolo originale di EPR, per esempio, usava l'impulso come quantità osservabile. Gli esperimenti odierni usano spesso la polarizzazione dei fotoni, perché più facile da preparare e quindi misurare. 211 Paradosso Einstein-Podolsky-Rosen Realismo e completezza Introdurremo ora due concetti usati da Einstein, Podolsky e Rosen, fondamentali per il loro attacco alla meccanica quantistica: il realismo o oggettivismo realistico e la completezza di una teoria fisica. Gli autori non si sono riferiti direttamente al significato filosofico di un "elemento fisico di realtà". Piuttosto essi assunsero che se il valore di ogni quantità fisica di un sistema può essere predetto con assoluta certezza prima di fare una misura o prima di intervenire in qualche modo sul sistema medesimo, allora tale quantità esprime un elemento fisico di realtà. Notare che l'opposto, cioè la negazione dell'affermazione precedente, non porta necessariamente ad un assunto vero; possono esserci altre espressioni di elementi fisici di realtà, ma questo fatto non ha influenza sul resto dell'argomentazione. In aggiunta, EPR definiscono una teoria fisica completa come una teoria in cui ogni elemento fisico di realtà sia preso in considerazione. Lo scopo del loro articolo è mostrare, usando queste due definizioni, che la meccanica quantistica non è una teoria fisica completa. Vediamo come questi concetti si applicano all'esperimento pensato di cui sopra. Supponiamo che Alice decida di misurare lo spin lungo z (lo chiameremo z-spin). Dopo che Alice esegue la misura, lo z-spin dell'elettrone di Bob è noto, quindi è un elemento fisico di realtà. Analogamente, se Alice decidesse di misurare lo spin lungo x, l'x-spin di Bob sarebbe un elemento fisico di realtà dopo la sua misura. Uno stato quantistico non può possedere contemporaneamente un valore definito per lo x-spin e lo z-spin . Se la meccanica quantistica è una teoria fisica completa nel senso dato sopra, l'x-spin e lo z-spin non possono essere elementi fisici di realtà allo stesso tempo. Questo significa che la decisione di Alice di eseguire la misura lungo l'asse x o lungo l'asse z ha un effetto istantaneo sugli elementi fisici di realtà nel luogo in cui si trova Bob ad operare con le sue misure. Tuttavia, questa è una violazione del principio di località o principio di separazione. Località nel paradosso EPR Il principio di località afferma che i processi fisici non possono avere effetto immediato su elementi fisici di realtà in un altro luogo separato da quello in cui avvengono. A prima vista questa appare un'assunzione ragionevole (infatti a livello macroscopico lo è), in quanto conseguenza della relatività speciale, la quale afferma che le informazioni non si possono mai trasmettere a una velocità maggiore di quella della luce senza violare la causalità. Generalmente si crede che ogni teoria che violi la causalità sia anche internamente inconsistente, e quindi del tutto insoddisfacente. Si trova che la meccanica quantistica viola il principio di località senza violare la causalità. La causalità è preservata perché non c'è alcun modo per Alice di trasmettere un messaggio (cioè informazioni) a Bob variando l'asse lungo cui fa la misura. Qualunque asse lei scelga, ha sempre il 50% di probabilità di ottenere "+" e il 50% di ottenere "-", cioè è del tutto impossibile per lei influire sul risultato che otterrà. Inoltre Bob può fare la sua misura una sola volta, in quanto il collasso della funzione d'onda provocato dalla misura perturba in maniera irreversibile lo stato misurato: c'è una proprietà basilare della meccanica quantistica, nota come "no cloning theorem", che rende impossibile per l'osservatore fare, diciamo, un milione di copie dell'elettrone che riceve, eseguire misure sullo spin di ciascuno e poi analizzare la distribuzione statistica dei risultati. Quindi, nell'unica misura che gli è permesso fare, c'è il 50% di probabilità di ottenere "+" e il 50% di ottenere "-", indipendentemente dal fatto che il suo asse sia allineato o meno con quello di Alice. Tuttavia il principio di località si richiama fortemente all'intuizione fisica di livello macroscopico, ed Einstein, Podolsky e Rosen non volevano abbandonarlo. Einstein derise le predizioni della meccanica quantistica come "spaventosa azione a distanza". La conclusione che trassero fu che la meccanica quantistica non è una teoria completa. Si deve far notare che la parola località ha diversi significati in fisica. Per esempio, in teoria quantistica dei campi "località" significa che campi in punti diversi dello spazio non interagiscono l'uno con l'altro. Tuttavia, le teorie di campo quantistiche che sono "locali" in questo senso violano il principio di località come definito da EPR. 212 Paradosso Einstein-Podolsky-Rosen Risoluzione del paradosso Variabili nascoste Esistono parecchi possibili modi per risolvere il paradosso. Quello ipotizzato da EPR è che la meccanica quantistica, nonostante il successo in una ampia e vasta varietà di scenari sperimentali, sia in realtà una teoria incompleta. In altre parole esisterebbe qualche teoria della natura ancora non scoperta, rispetto alla quale la meccanica quantistica gioca il ruolo di approssimazione statistica. Questa teoria più completa conterrebbe variabili che tengono conto di tutti gli "elementi fisici di realtà" e che danno origine agli effetti che la meccanica quantistica è in grado di predire solo a livello probabilistico. Una teoria con tali caratteristiche prende il nome di teoria delle variabili nascoste. Per illustrare questa idea si può formulare una teoria delle variabili nascoste molto semplice, che spieghi i risultati dell'esperimento descritto sopra. Si supponga che gli stati quantistici di spin di singoletto emessi dalla sorgente siano in realtà descrizioni approssimate dei "veri" stati fisici che possiedono valori definiti per lo z-spin e per l'x-spin. In questi stati "veri", l'elettrone che va verso Bob ha sempre valori di spin opposti rispetto all'elettrone che va verso Alice, ma tali valori sono completamente random (casuali). Per esempio, la prima coppia emessa dalla sorgente può essere "(+z, -x) verso Alice e (-z, +x) verso Bob", la coppia successiva "(-z, -x) verso Alice e (+z, +x) verso Bob" e così via. Per ciò, se l'asse della misura di Bob è allineato con quello di Alice, egli otterrà necessariamente l'opposto di qualunque cosa ottenga Alice; altrimenti egli otterrà "+" e "-" con eguale probabilità. Ipotizzando di restringere le misure solo all'asse z e all'asse x, tale teoria delle variabili nascoste è sperimentalmente indistinguibile dalla teoria della meccanica quantistica. In realtà c'è ovviamente un numero infinito (numerabile) di assi lungo i quali Alice e Bob possono eseguire le rispettive misure; questo significa che, in teoria, si potrebbe considerare un numero infinito di variabili nascoste indipendenti. Tuttavia, si deve tener presente che questa è una formulazione molto semplicistica di una teoria delle variabili nascoste e una teoria più sofisticata sarebbe in grado di risolvere il problema a livello matematico. Disuguaglianze di Bell Nel 1964, John Bell ha dimostrato con il suo teorema come le predizioni della meccanica quantistica nell'esperimento mentale EPR siano in realtà leggermente differenti dalle predizioni di una classe molto vasta di teorie delle variabili nascoste: grosso modo, la meccanica quantistica predice correlazioni statistiche molto più forti tra i risultati di misure eseguite su differenti assi. Queste differenze, espresse adoperando relazioni di disuguaglianza note come Disuguaglianze di Bell, sono in linea di principio verificabili sperimentalmente, per cui sono stati approntati allo scopo tutta una serie di esperimenti, che, come detto sopra, in generale trattano misure di polarizzazione di fotoni. Tutti i risultati hanno indicato un comportamento in linea con le predizioni della meccanica quantistica standard. Tuttavia questi fatti non chiudono il discorso in modo definitivo. Anzitutto il teorema di Bell non si applica a tutte le possibili teorie "realiste": è possibile infatti costruire teorie che eludono le sue implicazioni diventando indistinguibili dalla meccanica quantistica, per quanto risultino più marcatamente non-locali. Si reputa in proposito che vengano violate sia la causalità, sia i teoremi della relatività ristretta ai sistemi inerziali. Alcuni ricercatori hanno inoltre tentato di formulare teorie di variabili nascoste che sfruttino "scappatoie" in esperimenti concreti, come per esempio le assunzioni fatte nell'interpretare i dati sperimentali, ma nessuno è stato finora in grado di formulare una teoria realista locale capace di riprodurre tutti i risultati della meccanica quantistica. 213 Paradosso Einstein-Podolsky-Rosen Implicazioni per la meccanica quantistica Attualmente la maggior parte dei fisici ritiene che la meccanica quantistica sia corretta e che il paradosso EPR sia appunto solo un "paradosso" per il fatto che le intuizioni classiche (di livello macroscopico) non corrispondano alla realtà. Si possono trarre da ciò parecchie diverse conclusioni, che dipendono da quale interpretazione della meccanica quantistica si usi. Nella vecchia interpretazione di Copenaghen, prodotta da Niels Bohr, Werner Karl Heisenberg, Pascual Jordan e Max Born, si conclude che il principio di località (o di separazione) non debba valere e che avvenga effettivamente il collasso della funzione d'onda istantaneo. Nell'interpretazione a molti-universi, di Hugh Everett III, la località è mantenuta e gli effetti delle misure sorgono dal suddividersi e ramificarsi delle "storie" o linee d'universo degli osservatori. Il paradosso EPR ha reso più profonda la comprensione della meccanica quantistica mettendo in evidenza le caratteristiche fondamentalmente non classiche del processo di misura. Prima della pubblicazione dell'articolo di Einstein-Podolsky-Rosen, una misura era abitualmente vista come un processo fisico di perturbazione inflitto direttamente al sistema sotto misura. In altri termini, se si fosse misurata la posizione di un elettrone, ad es. illuminandolo con luce, cioè con un fiotto di fotoni, l'urto dei fotoni con l'elettrone, necessario per illuminarlo e "vedere" dov'è, avrebbe disturbato lo stato quantomeccanico dell'elettrone, per esempio modificandone la velocità e producendo così incertezza sulla velocità; questa descrizione viene adoperata per esemplificare l'indeterminazione quantomeccanica su posizione e velocità, grandezze meccaniche necessarie a determinare l'evoluzione dello stato meccanico (grandezze coniugate). Tali spiegazioni, che ancora si incontrano in esposizioni non specialistiche, scolastiche e divulgative della meccanica quantistica, sono completamente demistificate dall'analisi di Einstein-Podolsky-Rosen, che mostra chiaramente come possa effettuarsi una "misura" su una particella senza disturbarla direttamente, eseguendo una misura su un'altra particella distante, ma entangled (intrecciata) con la prima. Sono state sviluppate e stanno progredendo tecnologie che si basano sull'entanglement quantistico (intreccio di stati quantistici). Nella crittografia quantistica, si usano particelle entangled per trasmettere segnali che non possono essere intercettati senza lasciare traccia dell'intercettazione avvenuta. Nella computazione quantistica, si usano stati quantistici intrecciati (entangled) per eseguire calcoli in parallelo, che permettono elaborazioni con velocità che non si possono raggiungere con i computer classici. Teorema del multiverso Esiste una spiegazione che riguarda gli universi multipli molto più complicata, per quanto abbastanza verosimile. Essa stabilisce che ogni volta che qualcosa è incerto, l'"Albero dell'Universo" (come talvolta è chiamato il fenomeno di tutte le ramificazioni possibili di eventi) produce un altro ramo ovvero si ramifica. Ciascuna ramificazione, appena prodotta, è un diverso universo simile al precedente, perché l'incertezza generalmente è piccola, all'inizio. Ogni possibilità è un accadimento che capita da qualche parte. Si tratta di una visualizzazione intuitiva. La teoria è molto più ampia, ma a causa della grande astrattezza di questi concetti non può essere affrontata in questa sede con maggior dettaglio. 214 Paradosso Einstein-Podolsky-Rosen 215 Formulazione matematica Si può esprimere matematicamente la discussione di cui sopra adoperando il formalismo quantomeccanico di spin. Il grado di libertà di spin di un elettrone è associabile con uno spazio di Hilbert bidimensionale H, in cui ogni vettore dello spazio corrisponde ad uno stato quantico di spin. Gli operatori quantistici che corrispondono allo spin lungo le direzioni x, y e z, designati rispettivamente Sx, Sy e Sz, possono essere associati a loro volta alle matrici di Pauli: dove rappresenta la costante d'azione di Planck divisa per 2π. Gli autostati di Sz sono espressi da mentre gli autostati di Sx sono espressi da Lo spazio di Hilbert per una coppia di elettroni è , cioè il prodotto tensoriale degli spazi di Hilbert dei due singoli elettroni. Lo stato di spin di singoletto è dove i due termini nel membro a destra stanno per ciò che più sopra è stato chiamato stato I e stato II. A partire da queste equazioni, si può mostrare che lo spin di singoletto è scrivibile come dove i termini del membro a destra sono quello che è stato chiamato stato Ia e stato IIa. Per illustrare come questo comporti la violazione del realismo locale, è necessario mostrare che dopo la misura effettuata da Alice di Sz (o di Sx), il valore misurato da Bob di Sz (o di Sx) è determinato univocamente e per questo corrisponde ad un "elemento fisico di realtà". Questo fatto discende dalla teoria della misura adottata in meccanica quantistica. Quando viene effettuata la misura Sz, lo stato ψ del sistema collassa dentro un autovettore di Sz. Se il risultato della misura è +z, ciò significa che immediatamente subito dopo la misurazione lo stato ψ del sistema viene sottoposto ad una proiezione ortogonale nello spazio degli stati della forma Per il singoletto di spin, il nuovo stato è Analogamente, se la misura di Alice dà -z, il sistema viene sottoposto ad una proiezione ortogonale su che significa che il nuovo stato è Questo implica che ora la misura di Sz dell'elettrone di Bob è determinata. Sarà -z nel primo caso e +z nel secondo caso. Resta solo da mostrare che Sx e Sz non possono possedere contemporaneamente, per la meccanica quantistica, valori definiti. Si potrebbe mostrare in maniera diretta che non esiste nessun vettore che possa essere un autovettore di entrambe le matrici. Più in generale, si può usare il fatto che gli operatori non commutano, Paradosso Einstein-Podolsky-Rosen secondo la relazione di incertezza di Heisenberg Note [1] Einstein, A, B Podolsky, N Rosen (15 maggio 1935). Can Quantum-Mechanical Description of Physical Reality be Considered Complete? (http:/ / prola. aps. org/ pdf/ PR/ v47/ i10/ p777_1). Physical Review 47 (10): 777–80. DOI: 10.1103/PhysRev.47.777 10.1103/PhysRev.47.777 (http:/ / dx. doi. org/ ). URL consultato il 19 agosto 2010. [2] N. Bohr, Can quantum-mechanical description of physical reality be considered complete?, Physical Review, 48 (1935), pag. 700. [3] Bohm David. (1951). Quantum Theory (http:/ / books. google. com. au/ books?id=9DWim3RhymsC& printsec=frontcover& dq=david+ bohm+ quantum+ theory& source=bl& ots=6G-2u1wtav& sig=Q1GcoVDLFRmKOmDYFAJte6LzrZU& hl=en& ei=Pv45TNSnLYffcfnS6foO& sa=X& oi=book_result& ct=result& resnum=7& ved=0CEEQ6AEwBg#v=onepage& q& f=false), Prentice-Hall, Englewood Cliffs, page 29, and Chapter 5 section 3, and Chapter 22 Section 19. [4] Proposed experiment to test the non-separability of quantum mechanics (http:/ / prola. aps. org/ abstract/ PRD/ v14/ i8/ p1944_1), A. Aspect, Phys. Rev. D 14, 1944–1951 (1976) Voci correlate • CHSH Bell test • • • • • • • Esperimenti sulle disuguaglianze di Bell Esperimento sulla correlazione quantistica di Aspect Sincronismo Stato di Bell Teletrasporto quantistico Teorema di Bell Teoria delle variabili nascoste Bibliografia Articoli selezionati • A. Aspect, Bell's inequality test: more ideal than ever, Nature 398 189 (1999). (http://www-ece.rice.edu/ ~kono/ELEC565/Aspect_Nature.pdf) • J.S. Bell On the Einstein-Poldolsky-Rosen paradox, Physics 1 195 (1964). • J.S. Bell, Bertlmann's Socks and the Nature of Reality. Journal de Physique 42 (1981). • P.H. Eberhard, Bell's theorem without hidden variables. Nuovo Cimento 38B1 75 (1977). • P.H. Eberhard, Bell's theorem and the different concepts of locality. Nuovo Cimento 46B 392 (1978). • A. Einstein, B. Podolsky, and N. Rosen, Can quantum-mechanical description of physical reality be considered complete? (http://www.drchinese.com/David/EPR.pdf) Phys. Rev. 47 777 (1935). (http://prola.aps.org/ abstract/PR/v47/i10/p777_1) • A. Fine, Hidden Variables, Joint Probability, and the Bell Inequalities. Phys. Rev. Lett 48, 291 (1982). • A. Fine, Do Correlations need to be explained?, in Philosophical Consequences of Quantum Theory: Reflections on Bell's Theorem, edited by Cushing & McMullin (University of Notre Dame Press, 1986). • L. Hardy, Nonlocality for 2 particles without inequalities for almost all entangled states. Phys. Rev. Lett. 71 1665 (1993). • M. Mizuki, A classical interpretation of Bell's inequality. Annales de la Fondation Louis de Broglie 26 683 (2001). 216 Paradosso Einstein-Podolsky-Rosen Libri • Bell, John S, Dicibile e indicibile in meccanica quantisica , Milano, Adelphi, 2010. • J.J. Sakurai, Modern Quantum Mechanics (Addison-Wesley, 1994), pp. 174–187, 223-232. ISBN 0-201-53929-2 • F. Selleri, Quantum Mechanics Versus Local Realism: The Einstein-Podolsky-Rosen Paradox (Plenum Press, New York, 1988) • A. Zeilinger, Il velo di Einstein - Il nuovo mondo della fisica quantistica (Einaudi, 2005). ISBN 88-06-17078-3 Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Category:EPR paradox Collegamenti esterni • • • • Paradosso EPR e teorema di Bell (http://www.pv.infn.it/~nicrosi/paradosso/home.htm) (EN) The Einstein-Podolsky-Rosen Argument in Quantum Theory (http://plato.stanford.edu/entries/qt-epr/) (EN) Bell’s Theorem (http://plato.stanford.edu/entries/bell-theorem/) (EN) EPR, Bell & Aspect: The Original References (http://www.drchinese.com/David/EPR_Bell_Aspect. htm) • (EN) Does Bell's Inequality Principle rule out local theories of quantum mechanics? (http://math.ucr.edu/home/ baez/physics/Quantum/bells_inequality.html) • Un inaspettato legame fra principio di indeterminazione e non-località (http://lescienze.espresso.repubblica.it/ articolo/articolo/1345610) Paradosso idrostatico Un paradosso idrostatico è un paradosso proprio dell'idrostatica. Esso è conseguenza diretta della legge di Stevino, la quale afferma che la pressione causata da una colonna di fluido di altezza h e con densità costante dipende esclusivamente da questi due fattori, secondo una proporzionalità diretta. Cioè, detti p la pressione relativa, h l'altezza della colonna di fluido e γ il peso specifico, si ha: p=hγ Esempio di paradosso idrostatico Un esempio tipico di paradosso idrostatico è quello della botte di Pascal: Si consideri una botte riempita d'acqua, la cui pressione sul fondo sia di poco inferiore a quella limite di sopportazione della botte stessa. Se al di sopra della botte (naturalmente chiusa) si pone un tubo sottile e lo si riempie progressivamente d'acqua, raggiunta una quota limite la pressione del fluido provoca la rottura della botte. Ponendo tubi di diametri sempre maggiori e di svariate forme, si noterà che la botte non arriverà a rompersi se non quando il fluido raggiunge la quota limite precedentemente determinata. Il paradosso consiste nel fatto che, nonostante si immettano quantità d'acqua dal peso sempre maggiore, la quota limite di fluido a cui corrisponde la rottura della botte è sempre la stessa. Coerentemente con la legge di Stevino, cioè, la pressione esercitata dal fluido sul fondo di un recipiente è indipendente dalla quantità di fluido che la sovrasta, e quindi dal peso della stessa, ma dipende esclusivamente dall'affondamento della superficie del fondo dal pelo libero. 217 Paradosso idrostatico Voci correlate • Effetto Venturi (paradosso idrodinamico) Bibliografia • La legge di Stevino [1]. URL consultato il 12-10-2007. • Il paradosso idrostatico [2]. URL consultato il 12-10-2007. Note [1] http:/ / www. lngs. infn. it/ calendario/ pdf%20feb-dic/ SETTEMBRE%20copy/ LA%20LEGGE%20DI%20STEVINO. pdf [2] http:/ / ishtar. df. unibo. it/ mflu/ html/ paradox. html Paradosso temporale Un paradosso temporale è un paradosso - ossia una conclusione assurda derivata da premesse corrette - legato al tempo o all'ipotetica possibilità di viaggiare avanti e indietro attraverso il tempo, in violazione al principio di causalità. Diversi paradossi temporali o per meglio dire spazio-temporali sono stati ipotizzati; riguardano eventi catastrofici nell'universo come l'esplosione di stelle o l'ingresso in un buco nero. Un tipico paradosso temporale è stato ipotizzato da Albert Einstein: se si potesse scattare da fermi e superare la velocità della luce, in un tempo indefinito potremmo vedere noi stessi mentre siamo ancora alla postazione di partenza. La scienza studia e si interroga ancora su quali possano essere gli effetti sulla realtà che conosciamo di grandi sconvolgimenti spazio temporali, ad esempio cosa si prova ad entrare in un buco nero dove lo spazio tempo è schiacciato su sé stesso. Nella fantascienza Quello dei paradossi temporali è un tema tipico della narrativa fantascientifica (non essendo attualmente possibile viaggiare davvero attraverso il tempo). Un esempio di spiegazione del paradosso temporale può essere trovato nel film Ritorno al Futuro. In The Time Machine il protagonista del film tramite una macchina del tempo costruita apposta per salvare sua moglie dalla morte scopre che paradossalmente non potrà mai salvarla perché se lei non fosse morta lui non avrebbe mai avuto la volontà di creare la macchina del tempo. C'è un paradosso temporale anche nel film Harry Potter e il prigioniero di Azkaban in cui Potter e la Granger salvano prima Sirius Black e l'ippogrifo e poi Potter salva sé stesso tornando indietro nel tempo. Fumetti • In molte storie a fumetti Disney i personaggi viaggiano nel tempo, e provocano paradossi temporali. Un esempio sono le avventure - pubblicate sul settimanale Topolino a partire dagli anni ottanta - in cui Topolino e Pippo, inviati nel passato dal Professor Zapotec e dal Professor Marlin per scoprire qualche mistero, involontariamente ne diventano la causa. I paradossi sono frequenti anche nei viaggi nel tempo compiuti dal personaggio di Paperinik nella serie PKNA (1996-2000). • Nel manga Little Jumper le Time Jump permette di fare salti temporali 218 Paradosso temporale Videogiochi • Nel videogioco Day of the Tentacle (1993) della LucasArts, la risoluzione di alcuni enigmi comporta dei paradossi temporali. • Anche nel videogioco Soul Reaver 2 della Crystal Dynamics, il protagonista a caccia del suo passato con la macchina tessitrice del tempo, lo porta a uccidere il suo AlterEgo provocando un paradosso temporale. • Nel videogioco Time Shift della Sierra, uno scienziato deve fermare un potente tiranno grazie all' utilizzo di una tuta speciale che permette di alterare il flusso temporale. L'utilizzo del potere di questa tuta viene però inibito se questo genera un paradosso. • Nel videogioco Metal Gear Solid 3: Snake Eater, ambientato prima degli eventi dei giochi Metal Gear Solid 1 e 2, se Snake muore, dopo la scritta "Snake is Dead", comparirà "Time Paradox" ovvero "paradosso temporale". Uccidendo Ocelot, con la scritta "Ocelot is dead" si sentirà il colonnello Campbell dire "Snake! non puoi farlo! Hai creato un paradosso temporale!" Voci correlate • Viaggio nel tempo • Paradosso del nonno Paradosso teologico I paradossi teologici sono una famiglia di paradossi relativi a una data teologia, che manifestano una reale o apparente incongruità circa le asserzioni teologiche di una determinata religione. I paradossi possono vertere sia sugli attributi divini che sulle verità dogmatiche di quella determinata fede religione, ma possono a loro volta appartenere anche ad altre categorie di paradossi, come i paradossi filosofici. L'uso più frequente di questi paradossi è quello di mettere in crisi le convinzioni religiose o dei dubbi sulla divinità oggetto fede, mettendo in luce le possibili carenze logiche dell'impianto dogmatico sottostante; premessa maggiore per cui tali paradossi trovino fondamento è che tale impianto teologico, ovviamente, si rifaccia nella sua formulazione alle leggi della logica. Paradosso dell'onnipotenza • Enunciato: essendo dio onnipotente, può fare ogni cosa. • Paradosso: può dio creare qualcosa che non può spostare? Sia che si risponda sì alla domanda, sia che si risponda no, si dimostrerebbe che dio non è onnipotente, o perché non è in grado di creare un simile oggetto, o perché non è in grado di spostarlo. Questo paradosso vuole mostrare la contraddittorietà della qualità "onnipotenza" attribuita a dio. 219 Paradosso teologico Paradosso dell'onniscienza • Enunciato: in quanto onnisciente dio conosce ogni cosa. • Paradosso: nessuno, nemmeno una divinità, può sapere ogni cosa. Supponiamo, infatti, che esista un insieme non vuoto "V" di tutte le possibili verità. Per ogni sottoinsieme S di V, e per un fissato elemento v di V, una delle due seguenti affermazioni deve essere vera: • L'elemento v appartiene ad S. • L'elemento v non appartiene ad S. Dunque, per ogni sottoinsieme S di V abbiamo definito una verità (la quale afferma appunto che v appartiene -oppure non appartiene- a S). Evidentemente, la famiglia di tutte queste verità è in corrispondenza biunivoca con l'insieme delle parti di V, e pertanto ne ha la stessa cardinalità. Inoltre, in quanto appunto costituita di verità, questa famiglia dovrebbe essere contenuta in V (poiché tale insieme per definizione contiene tutte le verità). Tuttavia, un noto risultato della teoria degli insiemi asserisce che l'insieme delle parti di un qualunque insieme V ha sempre cardinalità strettamente maggiore a quella di V. Ne segue in particolare che pure la famiglia di verità appena costruita avrà cardinalità maggiore di V, e dunque non potrà essere contenuta in esso. Perciò "V" non può essere l'insieme di tutte le verità. In modo analogo al precedente paradosso, il paradosso dell'onniscienza mostra la non-consistenza di un'attribuzione fondamentale di dio. Possibili confutazioni Ciò che in verità dimostra questo paradosso, è che la nostra idea mentale di "tutte le verità" ha una consistenza logica poco solida. Ovvero, in termini matematicamente più corretti, l'ente di tutte le verità non è propriamente un insieme, nel senso che per esso non sono validi gli assiomi di Zermelo - Fraenkel. Questo paradosso, dunque, non fornisce una contraddizione, bensì la dimostrazione del fatto che, appunto, l'oggetto formato da tutte le verità non è un insieme, infatti è una classe propria[1]. Paradosso dell'onnipotenza unita all'onniscienza • Enunciato: in quanto onnipotente dio può fare ogni cosa e in quanto onnisciente Dio conosce ogni cosa. • Paradosso: può dio fare qualcosa di diverso di quello che già sa che farà? In quanto onnisciente, dio conosce il futuro, quindi sa che farà una certa azione tra, poniamo, mille anni. Passato quel lasso di tempo, dio non può decidere di non fare quella azione o di compierne un'altra differente, quindi non è onnipotente. Questo paradosso vuole confutare la possibilità di un intervento arbitrario sull'universo, tramite l'onnipotenza, di un dio che sia dotato anche dell'onniscienza. Paradosso del Bene e del Male • Enunciato: Essendo Dio "infinitamente buono" o puro bene, non potrà mai causare o essere il male; essendo Dio "onnipresente" è presente in ogni cosa, in ogni momento, e in ogni luogo; essendo dio "onnipotente" può vincere contro ogni forza antagonista. • Paradosso: Assumendo l'esistenza del male in senso cristiano, o Dio non è onnipresente (altrimenti il diavolo sarebbe una sua parte), o Dio non è onnipotente (in quanto il diavolo esiste), o Dio non è infinitamente buono (poiché il diavolo sarebbe una creazione di Dio). L'argomento del paradosso costituisce l'oggetto della disciplina teologica tradizionale chiamata teodicea. Il paradosso - o questione dell'esistenza del Male - si può enunciare anche come la contraddizione stretta tra due soli principi: quello di onnipotenza e di bontà di Dio, senza attribuire alcuna rilevanza alla questione della "presenza". In 220 Paradosso teologico tal caso la contraddizione ha solo due termini. Il diavolo (o il male) e Dio vengono così presi in considerazione solo in quanto "princìpi causali" indipendentemente da altre loro eventuali caratteristiche. In quest'ultimo caso le considerazioni o confutazioni centrate sulla questione della "onnipresenza" non sono valide. Una proposta di confutazione comune di questo paradosso riguarda la definizione del "male". È la questione che occupa più di frequente il dibattito teologico. L'obiezione più frequente è che il male è legato al "libero arbitrio" e non sarebbe possibile senza questo. Il libero arbitrio sarebbe la proprietà per cui la volontà di certe creature dipende solo da sé stessa, e non da dio. È facile riconoscere in questa idea una riformulazione del paradosso stesso piuttosto che una vera risposta. In senso logico causale, infatti: 1) Ha un significato affermare che una cosa, benché creata da dio, in nessun modo dipende da dio? 2) Il fatto di creare un essere dotato di capacità intrinseca di fare il male, e che quindi potrebbe dannarsi, non potrebbe essere di per sé essere già considerata una azione malvagia? (In quanto deliberatamente pericolosa e gratuita). In generale: il libero arbitrio è il concetto che viene più spesso portato a confutazione del paradosso, ma questo stesso concetto è opinabile e paradossale. L'idea che il "libero arbitrio" esista, o che la sua esistenza sia "buona", costituiscono assiomi indimostrabili, e non sono accettati da tutti. Infine, si osserva che la definizione di "male" dovrebbe essere consistente con la pratica (per esempio, tutti cercano di curare le malattie o di difendersi dalle catastrofi naturali, non considerano "male" solo le azioni prodotte da esseri umani) perciò è comunque difficile trovare una definizione di "male" che racchiude solo cose generate dal libero arbitrio, tralasciando per esempio il caso o la natura, che si assume creata da dio stesso, e mantenere allo stesso tempo una coerenza di discorso. Possibili confutazioni • Relative all'onnipresenza di dio. L'onnipresenza di dio non limita la sua dimensione all'universo: un dio potrebbe esistere in un numero maggiore di dimensioni spaziali rispetto all'universo e quindi essere onnipresente senza che il Diavolo ne sia una sua parte.[2] Inoltre non è detto che dio sia onnipresente; ad esempio nel cristianesimo dio è inteso come omni-agente, ma non onnipresente, cioè la creazione non è parte di dio. • Relative all'esistenza o definizione di male. Un altro problema del paradosso è la definizione di male: supponendo come definizione di male il risultato delle azioni delle creature (comprendendo sia l'uomo che il diavolo) dirette contro Dio, allora Dio non è responsabile del male, bensì lo sono le sue creature. Se il male non è "creato da Dio", ma manifestato da esseri dotati di libero arbitrio, il paradosso non è più tale. Per quanto detto nei paragrafi sopra, però, i sostenitori del paradosso non considerano il concetto di "libero arbitrio" come risposta al problema, dal momento che l'onnipotenza è troppo "forte" come principio logico-causale, mentre la condizione di "libertà" di un'altra creatura è vista come contraddittoria. Paradosso della salvezza • Enunciato: San Paolo nella Lettera ai Romani scriveva "Il giusto sarà salvato per la sua fede". Questa frase, secondo la Chiesa, specifica che l'uomo può salvarsi e raggiungere la salvezza grazie alle buone opere compiute in vita, il Giudizio Universale sarà il momento in cui Dio assegnerà grazia o dannazione a seconda delle gesta. • Paradosso: Se la salvezza del soggetto dipende dalla possibilità di scegliere autonomamente se essere dannato o no (scegliendo di compiere opere di bene), Dio non avrebbe alcuna possibilità di esercitare la sua potenza sugli uomini e gli uomini stessi sarebbero padroni esclusivi del proprio destino grazie al libero arbitrio. Tutto ciò ridurrebbe Dio a mero esecutore di una Legge superiore, ma nessuna forza o legge dovrebbe esser superiore a Dio, a meno che egli sia non onnipotente. 221 Paradosso teologico Possibili confutazioni Un dio che esista in due dimensioni temporali può essere a conoscenza di ciò che ciascuno farà e portarsi ovunque nella nostra linea temporale per raggiungere i propri scopi. Il completo libero arbitrio e la completa predestinazione è possibile in due dimensioni temporali, benché questo concetto possa essere di difficile comprensione. [3] In realtà tale paradosso, secondo i suoi detrattori, nascerebbe principalmente da un'erronea interpretazione del passo citato. Lo stesso San Paolo scrive nella Lettera ai Romani (3, 23-24) Tutti hanno peccato e sono privi della gloria di Dio, ma sono giustificati gratuitamente per la sua grazia, in virtù della redenzione realizzata da Gesù Cristo. Questo passo potrebbe far pensare che tutti gli uomini saranno salvati, come ipotizzato da Hans Urs von Balthasar e Karl Rahner. La concezione di salvezza della Chiesa, a partire dalle lettere di San Paolo, non dipende dalle opere, infatti in virtù delle opere della legge nessun uomo sarà giustificato davanti a lui (Rm 3, 20), ma viene concessa gratuitamente, e sta al libero arbitrio dell'uomo accettarla o respingerla. Martin Lutero risolse questo paradosso affermando la predestinazione assoluta e l'inesistenza del libero arbitrio. Comunque non è assolutamente detto che Dio, avendo lasciato il libero arbitrio, diventi il freddo esecutore di una legge "superiore a lui stesso", dal momento che quella legge è stata decisa da lui medesimo. In effetti la formulazione stessa del paradosso non sembra in questo senso molto chiara. Piuttosto l'esistenza del libero arbitrio può mettere in luce la mancata onnipotenza di Dio, che così decide volontariamente di non influire sulle azioni umane. Note [1] Una classe propria può contenere altre classi o insiemi, ma non può essere contenuta da classi o insiemi [2] (EN) Godandscience.org: The theodice problem (http:/ / www. godandscience. org/ apologetics/ nogod. html#theodice) [3] (EN) Godandscience.org: God cannot be almighty and allow free will simultaneously (http:/ / www. godandscience. org/ apologetics/ nogod. html#almighty) Bibliografia • Michael Clark. I paradossi dalla A alla Z, Raffaello Cortina Editore, 2004, ISBN 8870789241. Collegamenti esterni • (http://www.godandscience.org/apologetics/nogod.html) Un elenco di paradossi con tentativi di confutazione, in lingua inglese. • (http://www.uaar.it/ateismo/inesistenza-di-dio/argomenti-non-credenti.html) Un altro elenco in italiano. Voci correlate • • • • • • Elenco di paradossi Logica Paradosso Teoria degli insiemi Questione ipotetica Noncognitivismo teologico 222 Permutazione 223 Permutazione Una permutazione è un modo di ordinare in successione n oggetti distinti, come nell'anagrammare una parola. In termini matematici una permutazione di un insieme X si definisce come una funzione biiettiva . Elencare e contare le permutazioni Il numero delle permutazioni di infatti ci sono oggetti è pari al fattoriale di : modi di scegliere l'oggetto che occupa la prima posizione, per ciascuno di essi ci sono modi di scegliere l'oggetto che occupa la seconda posizione, poi per ogni coppia di oggetti fissati nelle prime due posizioni ci sono modi di scegliere l'oggetto nella terza posizione, e così via, fino ad occupare tutte le posizioni. Ad esempio, le 24 permutazioni possibili della parola "ABCD" sono: ABCD BACD CABD DABC ABDC BADC CADB DACB ACBD BCAD CBAD DBAC ACDB BCDA CBDA DBCA ADBC BDAC CDAB DCAB ADCB BDCA CDBA DCBA Insiemi con ripetizioni Se nell'insieme di partenza vi sono degli elementi ripetuti, alcune permutazioni danno la stessa sequenza. Ad esempio, le permutazioni della parola "ABAB" forniscono soltanto 6 risultati distinti: AABB ABAB ABBA BBAA BABA BAAB In generale, se l'insieme è formato da oggetti, di cui sono di un tipo, , il numero di risultati distinti è che viene detto coefficiente multinomiale. Nell'esempio mostrato, e , e si ottiene quindi di un altro tipo, etc. fino a , con Permutazione 224 Composizione Una permutazione è una funzione biettiva . Due permutazioni composte, ed il risultato è ancora una permutazione. L'insieme e possono quindi essere delle permutazioni di con l'operazione di composizione forma un gruppo, detto gruppo simmetrico. L'elemento neutro è la permutazione che lascia fissi tutti gli elementi. Cicli Sia una successione di elementi distinti di X. Il ciclo è la permutazione che sposta in avanti di uno tutti gli seguente: e tiene fissi gli altri. Più formalmente, è definita nel modo L'ordine del ciclo è il numero n. Una trasposizione è un ciclo di ordine 2: consiste semplicemente nello scambiare gli elementi a e b, lasciando fissi tutti gli altri. Due cicli e sono indipendenti se commutano, cioè per ogni i e j. Due cicli indipendenti a e b . L'importanza dei cicli sta nel seguente teorema: Ogni permutazione si scrive in modo unico come prodotto di cicli indipendenti. Poiché cicli indipendenti commutano, l'unicità è da intendersi a meno di scambiare l'ordine dei cicli. Notiamo infine che le notazioni e definiscono lo stesso ciclo, mentre e sono cicli diversi. Notazione Ci sono essenzialmente due notazioni per scrivere una permutazione. Consideriamo ad esempio una permutazione dell'insieme {1, 2, 3, 4, 5}. Si può scrivere sotto ad ogni numero la posizione in cui questo viene spostato: Alternativamente, si può codificare la stessa permutazione sfruttando il teorema enunciato sopra, scrivendola come prodotto di cicli. Nel nostro caso, otteniamo (1 2 5)(3 4). Con la notazione ciclica, due permutazioni possono essere composte in modo agevole: ad esempio (1 2 5)(3 4) e (1 2 3) danno (1 2 5)(3 4)(1 2 3) = (1 3 4)(2 5). Si noti che composizione è fatta da sinistra verso destra, come si legge nelle lingue occidentali. Per esempio, per vedere in cosa viene mandato 1 dalla composizione (1 2 5)(3 4)(1 2 3) si vede che (1 2 5) lo manda in 2, (3 4) non muove 2, e infine (1 2 3) manda 2 in 3. Permutazione 225 Segno di una permutazione Definizione Ogni ciclo è prodotto di trasposizioni. Infatti (sempre con la composizione da sinistra verso destra) si ha: Ne segue che ogni permutazione è prodotto di trasposizioni. Il numero di tali trasposizioni non è univocamente determinato dalla permutazione: per esempio la trasposizione si può scrivere anche come o . Si può però mostrare che se una stessa permutazione prodotto di trasposizioni, che come prodotto di trasposizioni, allora e si può scrivere sia come hanno la stessa parità, cioè sono entrambi pari o entrambi dispari. Una permutazione p è detta pari o dispari a seconda che sia ottenibile come prodotto di un numero pari o dispari di trasposizioni. Il segno di p è definito rispettivamente come +1 e -1. Esempi • Tutte le trasposizioni sono dispari. • Tra le 6=3! permutazioni degli elementi {1, 2, 3} vi sono: e, (1 2 3), (1 3 2) sono pari; (1 2), (2 3), (1 3) sono dispari. • Tra le 24=4! permutazioni degli elementi {1, 2, 3, 4} ci sono permutazioni dispari che non sono trasposizioni: ad esempio, (1 2 3 4). Proprietà Definito il prodotto di due permutazioni come la composizione delle stesse, si può dire che la funzione "segno" è moltiplicativa, cioè Gruppo alternante Metà delle n! permutazioni di un insieme di n elementi sono pari. Poiché la funzione segno è moltiplicativa, le permutazioni pari formano un sottogruppo normale del gruppo S(X) delle permutazioni di X di indice due, detto gruppo alternante e indicato con A(X). Si tratta del nucleo dell'omomorfismo di gruppi L'immagine è un gruppo ciclico con due elementi. Formula per il segno Il segno di una permutazione Voci correlate • Combinazione • Dismutazione • Disposizione • Probabilità può essere calcolato tramite la formula seguente: Permutazione • Statistica Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Permutations Principio dei cassetti Il principio dei cassetti, detto anche legge del buco della piccionaia, afferma che se n+k oggetti sono messi in n cassetti, allora almeno un cassetto deve contenere più di un oggetto. Un altro modo di vedere il principio è che una piccionaia con m caselle può contenere al più m piccioni, se non se ne vogliono mettere più di uno in nessuna casella: un ulteriore volatile dovrà necessariamente condividere la casella con un suo simile. Formalmente, il principio afferma che se A e B sono due insiemi finiti e B ha cardinalità strettamente minore di A, allora non esiste alcuna funzione iniettiva da A a B. 10 piccioni in 9 caselle Il principio dei cassetti è un esempio di un argomento combinatorio, che può essere applicato a molti problemi formali, compresi quelli relativi a insiemi infiniti che non possono essere messi in corrispondenza biunivoca. Nell'approssimazione diofantea l'applicazione quantitativa del principio all'esistenza di soluzioni intere di un sistema di equazioni lineari va sotto il nome di lemma di Siegel. Si ritiene che il principio sia stato esplicitato per la prima volta da Dirichlet nel 1834 col nome Schubfachprinzip ("principio del cassetto"). In alcune lingue, (ad esempio il russo) questo principio è pertanto noto come il principio di Dirichlet, da non confondersi con il principio dello stesso nome sulle funzioni armoniche. In inglese, invece, si parla di pigeonhole principle, dove il "pigeonhole" si riferisce alle cassette postali aperte in uso in alcuni uffici e università. Esempi Anche se il principio dei cassetti può a prima vista sembrare un'osservazione banale, può essere usato per dimostrare risultati inaspettati, come ad esempio "A Roma abitano almeno due persone con lo stesso numero di capelli". Dimostrazione: una persona media ha circa 150000 capelli. È ragionevole assumere che nessuno ne abbia più di un milione: ma Roma ha più di un milione di abitanti. Se prepariamo un enorme schedario con un milione di cassetti, e associamo a ognuno di essi il numero di capelli corrispondente, e assegniamo ogni persona - o più pragmaticamente un loro documento - al cassetto corrispondente, ci dovranno essere due persone nello stesso cassetto, e quindi con lo stesso numero di capelli. Un altro esempio è il caso in cui ci sono cinque persone che vogliono giocare a calcetto in un torneo, e quattro squadre presenti. Questo non sarebbe un problema se non fosse che nessuno dei cinque vuole giocare nella stessa squadra di uno qualunque degli altri quattro: ma per il principio dei cassetti è impossibile suddividerli tra le varie squadre. Nel campo dell'informatica ci sono molti esempi pratici del principio dei cassetti. Si prenda ad esempio una tabella hash: le collisioni dei valori avvengono perché il numero di chiavi possibili è di gran lunga superiore a quello degli indici hash. Nessun algoritmo, per quanto sofisticato, potrà pertanto eliminare con certezza le collisioni. Allo stesso modo si dimostra che non può esistere un algoritmo di compressione senza perdita di informazioni "perfetto", che 226 Principio dei cassetti riduca cioè la dimensione di un file di una dimensione qualunque - o anche solo maggiore di un certo numero M di bit - datogli in input. Infatti i file composti da M+1 bit sono 2M+1, ma i file di dimensione da 1 a M bit sono solamente 2M+1 - 1; quindi ci devono essere almeno due file in ingresso mappati sullo stesso file in uscita. Ma allora l'ipotesi che la compressione sia senza perdita di informazioni fallisce, dato che non si potrebbe distinguere tra i due file convertiti nello stesso file di output. Nel testo di Grimaldi (vedi Bibliografia) sono riportati altri esempi. Generalizzazioni Una versione generalizzata del principio afferma che, se n oggetti discreti devono essere allocati in m contenitori, allora ci sarà almeno un contenitore che conterrà almeno oggetti (il simbolo denota la funzione soffitto). Una generalizzazione probabilistica del principio dei cassetti afferma che, se si mettono a caso n piccioni in una piccionaia da m posti con probabilità uniforme 1/m, allora almeno un posto della piccionaia conterrà più di un piccione con probabilità dove è un fattoriale decrescente. Per n = 0 e per n = 1 (con m > 0), questa probabilità è zero, mentre per n > m è uno, coincidendo così con l'ordinario principio dei cassetti. Voci correlate • Combinatoria • Numero cardinale • Teorema di Ramsey Bibliografia • Ralph P. Grimaldi (1998): Discrete and Combinatorial Mathematics: an Applied Introduction, 4th ed., ISBN 0-201-19912-2, pp. 244-248. 227 Principio di non contraddizione Principio di non contraddizione Nella logica classica, il principio di non-contraddizione afferma la falsità di ogni proposizione implicante che una certa proposizione A e la sua negazione, cioè la proposizione non-A, siano entrambe vere allo stesso tempo e nello stesso modo. Secondo le parole di Aristotele: « È impossibile che il medesimo attributo, nel medesimo tempo, appartenga e non appartenga al medesimo oggetto e sotto il [1] medesimo riguardo » Più semplicemente, la proposizione "A è anche non-A" è falsa. In simboli, ciò è espresso come segue: Il principio di non contraddizione è fondamentale Fin dal Medioevo[2]è noto un interessante risultato della Logica: in un sistema di logica dicotomica in cui sia vera una affermazione ed anche la sua negazione, è vera qualsiasi affermazione. Tale assunzione è solitamente citata nella letteratura latina come ex falso quodlibet, e come principio di esplosione nella logica moderna. Conclusioni Un sistema logico dove siano valide le comuni regole di inferenza e dove sia anche presente una contraddizione, ossia sia VERA (completamente vera) una affermazione e anche la sua negazione, è privo di logica, di struttura e di informazione, poiché tutte le affermazioni sono vere (comprese le loro negazioni). E quindi non può essere interessante poiché non comunica informazione. Questo risultato è anche noto come principio di esplosione. La banalizzazione di un sistema in cui sia presente contraddizione può essere evitata solo a patto di indebolire il sistema stesso, scartando regole di inferenza o assiomi. Questo avviene nelle cosiddette logiche paraconsistenti. Logiche a più valori Sebbene in una logica polivalente (avendo opportunamente definito gli operatori AND e NEG) si possa avere che la forma classica del principio di non contraddizione cessi di valere, ossia in termini grado di verità: per qualche proposizione (che è impossibile in logica classica a causa del principio di bivalenza), è in ogni modo utile rilevare che un'altra forma del principio di non contraddizione continua a funzionare nelle logiche a più valori (come la citata logica fuzzy) nella forma seguente: una affermazione e la sua negazione non possono essere ambedue simultaneamente completamente vere, che si traduce nella diseguaglianza in termini di grado di verità: Nella logica fuzzy, si ha ad esempio perché l'AND logico è rappresentato dal minimo dei due valori, valendo inoltre appare ovvio che il risultato non potrà mai essere maggiore di 1/2. Ben si comprende che nel caso esistano solo due valori di verità, come nella logica aristotelica, si ottiene l'enunciato sopra esposto. In questo senso si può sostenere che il principio di non-contraddizione continua a valere in logica polivalente. 228 Principio di non contraddizione 229 Logiche polivalenti di Gödel e prodotto Nella logica polivalente di Gödel e nella logica polivalente prodotto, la negazione di una proposizione si definisce nella maniera seguente: se , se . Si noti che in generale: Si trova dunque un interessante risultato: e quindi in tali logiche polivalenti è addirittura valida la forma standard del principio di non-contraddizione. Questo sta a confermare il fatto che in generale la polivalenza non implica la negazione in alcuna forma del principio di non contraddizione. Logica di Jan Łukasiewicz ad infiniti valori di verità Sotto opportune condizioni, quali quelle che vigono nella logica di Łukasiewicz ad infiniti valori di verità (logica fuzzy), si ha che il principio di non contraddizione diviene per qualsivoglia asserzione : Questa di fatto è la definizione della negazione nella logica fuzzy di Łukasiewicz e di Zadeh. È interessante rilevare che l'equazione logica: che è priva di soluzioni nell'insieme degli interi (in particolare, nel sottoinsieme degli interi {0,1}), ammette invece la soluzione frazionaria: nel campo dei numeri reali (in particolare, nel sottoinsieme individuato dall'intervallo chiuso [0,1]) e ciò segue precisamente dal principio di non-contraddizione. Il punto fondamentale rimane comunque che in un sistema fuzzy quale quello di Łukasiewicz o di Zadeh, è impossibile dimostrare (VERE) sia un'affermazione che la propria negazione (che implicherebbe: ). Dunque possiamo concludere che le logiche di Łukasiewicz e di Zadeh, non sono paraconsistenti ed in tal senso non violano il principio di non contraddizione. Logica quantistica La meccanica quantistica, scoprendo che un quanto può essere allo stesso tempo due rappresentazioni opposte di una stessa realtà (particella e onda) si discosta dalla logica aristotelica avvicinandosi a una concezione "eraclitea" in cui tutto il divenire può essere e non essere contemporaneamente.[3] « Il mare è l'acqua più pura e impura: per i pesci è potabile e gli conserva la vita, per gli uomini è imbevibile e mortale » (Eraclito) Principio di non contraddizione 230 Voci correlate • • • • • Contraddizione Identità degli indiscernibili Logica paraconsistente Principio del terzo escluso Consistenza Note [1] Aristotele, Metafisica, Libro Gamma, cap. 3, 1005 b 19-20. [2] Erroneamente attribuito a Duns Scoto il principio secondo cui ex falso quodlibet viene comunemente chiamato "principio dello Pseudoscoto". [3] Louis de Broglie, con la sua ipotesi, mostrò come bisognasse associare l'aspetto corpuscolare ed ondulatorio sia alla materia che al ragionamento. -Louis de Broglie, Introduction à l'étude de la mécanique ondulatoire, 1930"Il principio di contradditorietà complementare deve rimpiazzare il principio di non-contraddizione come fondamento della logica." - Stéphane Lupasco, L'expérience microscopique et la pensée humaine, PUF, 1941, p. 286- Bibliografia • Bart Kosko, Satoru Isaka, Logica «sfumata», Le Scienze, Settembre 1993, no.301 • Ludovico Geymonat, Storia del pensiero filosofico e scientifico Probabilità Il concetto di probabilità, utilizzato a partire dal '600, è diventato con il passare del tempo la base di diverse discipline scientifiche rimanendo tuttavia non univoco. In particolare su di esso si basa una branca della statistica (la statistica inferenziale), cui fanno ricorso numerose scienze sia naturali che sociali. Cenni storici I primi studi che portarono successivamente a concetti legati alla probabilità possono essere trovati a metà del XVI secolo in Liber de ludo aleæ di Girolamo Cardano (scritto nel 1526, ma pubblicato solo un secolo e mezzo dopo, nel 1663) e in Sulla scoperta dei dadi di Galileo Galilei (pubblicato nel 1656). In particolare, Galileo spiegò come mai, lanciando tre dadi, la probabilità di uscita delle somme 10 e 11 sia più probabile dell'uscita del 9 e del 12, nonostante che entrambi i risultati si ottengano da un uguale numero di combinazioni.[1] Alcuni dadi a sei facce. Il problema della ripartizione della posta in gioco nel caso che un gioco d'azzardo debba essere interrotto, venne affrontato da Luca Pacioli, noto anche come Fra Luca dal Borgo, nella sua Summa de arithmetica, geometria, proportioni et proportionalita (pubblicata nel 1494) e successivamente da Tartaglia, per poi essere risolto da Pascal e Fermat. La nascita del concetto moderno di probabilità viene attribuita a Blaise Pascal (1623-1662) e Pierre de Fermat (1601-1665). Il Cavalier de Méré (un accanito giocatore passato alla storia per questo) aveva calcolato che ottenere almeno un 6 in 4 lanci di un dado non truccato era equivalente ad ottenere almeno un doppio 6 in 24 lanci, sempre di un dado non truccato. Tuttavia, giocando secondo tale convinzione, invece di vincere perdeva e scrisse a Pascal lamentando che la matematica falliva di fronte all'evidenza empirica.[2] Da ciò scaturì una corrispondenza tra Pascal e Fermat in cui iniziò a delinearsi il concetto di probabilità nell'accezione frequentista. Probabilità Pascal annunciò nel 1654 all'Accademia di Parigi che stava lavorando sul problema della ripartizione della messa in gioco. E in una lettera del 29 luglio dello stesso anno a Fermat propose la soluzione del problema, affrontato con il metodo per ricorrenza, mentre Fermat utilizzava metodi basati sulle combinazioni. Nel 1657 Christiaan Huygens (1629-1695) scrisse un Libellus de ratiociniis in ludo aleæ,[3], il primo trattato sul calcolo delle probabilità, nel quale introduceva il concetto di valore atteso. I suoi lavori influenzarono tra l'altro Pierre de Montmort (1678-1719), che scrisse nel 1708 un Essai d'analyse sur le jeux de hasard, ma anche Jakob Bernoulli e Abraham de Moivre. Nel 1713 viene pubblicato postumo Ars conjectandi di Jakob Bernoulli, dove veniva dimostrato il teorema che porta il suo nome, noto anche come legge dei grandi numeri. Successivamente, de Moivre pervenne ad una prima formulazione, poi generalizzata da Pierre Simon Laplace (1749-1827), del Teorema centrale del limite. La teoria delle probabilità raggiunse così basi matematicamente solide e, con esse, il rango di nuova disciplina. In essa esercita un ruolo centrale il rapporto tra casi favorevoli e casi possibili e la probabilità è un numero intrinsecamente legato ad un evento. Negli anni centrali del XX secolo, tuttavia, prima Bruno de Finetti e poi Leonard Jimmie Savage hanno elaborato una concezione soggettiva della probabilità, secondo cui essa è il grado di fiducia che una persona ha nel verificarsi dell'evento. Nello stesso periodo, Andrey Nikolaevich Kolmogorov ha dato inizio alla moderna teoria assiomatica (Grundbegriffe der Wahrscheinlichkeitsrechnung, 1933), ispirandosi alla teoria della misura. Si è così affermata una teoria della probabilità puramente matematica, che generalizza il patrimonio matematico comune alle diverse impostazioni. Definizioni In probabilità si considera un fenomeno osservabile esclusivamente dal punto di vista della possibilità o meno del suo verificarsi, prescindendo dalla sua natura. Tra due estremi, detti evento certo (ad esempio: lanciando un dado si ottiene un numero compreso tra 1 e 6) ed evento impossibile (ottenere 1 come somma dal lancio di due dadi), si collocano eventi più o meno probabili (aleatori). Si usa il linguaggio della teoria degli insiemi: un insieme non vuoto Ω ha come elementi tutti i risultati possibili di un esperimento; l'evento che risulta verificato da un unico risultato (un unico elemento di Ω) viene detto evento elementare; altri eventi sono sottoinsiemi di Ω costituiti da più risultati.[4] Gli eventi vengono normalmente indicati con lettere maiuscole. Dati due eventi A e B, si indica con A∪B la loro unione, ovvero l'evento costituito dal verificarsi dell'evento A oppure dell'evento B. Si indica con A∩B la loro intersezione, ovvero l'evento costituito dal verificarsi sia dell'evento A che dell'evento B.[5] Se A∩B = ∅ i due eventi A e B vengono detti incompatibili (non possono verificarsi simultaneamente). Il complemento di un evento A rispetto a Ω, Ω\A, è detto negazione di A e indica il suo non verificarsi (ovvero il verificarsi dell'evento complementare). Definizione classica Secondo la prima definizione di probabilità, per questo detta classica, la probabilità di un evento è il rapporto tra il numero dei casi favorevoli all'evento e il numero dei casi possibili, purché questi ultimi siano tutti equiprobabili. Questa definizione è spesso attribuita a Pierre Simon Laplace e quindi anche identificata definizione classica di Laplace. Indicando con Ω l'insieme di casi possibili e con |Ω|=n la sua cardinalità, con A un evento e con nA il numero dei casi favorevoli ad A (ad esempio, nel lancio di un dado Ω={1,2,3,4,5,6}, n = 6, A = "numero pari", nA = 3), la probabilità di A, indicata con P(A), è pari a: Dalla definizione seguono tre regole: 231 Probabilità 1. la probabilità di un evento aleatorio è un numero compreso tra 0 e 1; 2. la probabilità dell'evento certo è pari a 1; se A = "numero compreso tra 1 e 6", nA = 6 e nA/n = 1; 3. la probabilità del verificarsi di uno di due eventi incompatibili, ovvero di due eventi che non possono verificarsi simultaneamente, è pari alla somma delle probabilità dei due eventi; se A = "numero pari", con P(A) = 1/2, e B= "esce il 3", con P(B) = 1/6, la probabilità che tirando un dado si ottenga un numero pari oppure un 3 è: La definizione classica consente di calcolare effettivamente la probabilità in molte situazioni. Inoltre, è una definizione operativa e fornisce quindi un metodo per il calcolo. Presenta tuttavia diversi aspetti negativi non irrilevanti: • dal punto di vista formale, è una definizione circolare: richiede che i casi possiedano tutti la medesima probabilità, che è però ciò che si vuole definire; • non definisce la probabilità in caso di eventi non equiprobabili; • presuppone un numero finito di risultati possibili e di conseguenza non è utilizzabile nel continuo. Definizione frequentista Per superare tali difficoltà, Richard von Mises (1883-1953) propose di definire la probabilità di un evento come il limite cui tende la frequenza relativa dell'evento al crescere del numero degli esperimenti: La definizione frequentista si applica ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili, ma assume che l'esperimento sia ripetibile più volte, idealmente infinite, sotto le stesse condizioni. Anche tale definizione consente di calcolare la probabilità di molti eventi e da essa si ricavano le stesse tre regole che seguono dalla definizione classica. È sufficiente, infatti, sostituire il rapporto tra numero dei casi favorevoli nA e numero dei casi possibili n con il limite del rapporto per n tendente all'infinito. Tuttavia: • il "limite" delle frequenze relative non è paragonabile all'analogo concetto matematico; ad esempio, data una successione {an}, si dice che a è il suo limite se per ogni ε > 0 esiste un numero naturale N tale che |an - a| < ε per ogni n > N, e, comunque dato ε, è sempre possibile calcolare N; nella definizione frequentista, invece, N non è sempre calcolabile; • non tutti gli esperimenti sono ripetibili; ad esempio, ha sicuramente senso chiedersi quale sia la probabilità che vi sia vita su Marte o che tra 50 anni il tasso di natalità in Africa diventi la metà di quello attuale, ma in casi simili non è possibile immaginare esperimenti ripetibili all'infinito. Definizione soggettiva De Finetti e Savage[6] hanno proposto una definizione di probabilità applicabile ad esperimenti casuali i cui eventi elementari non siano ritenuti ugualmente possibili e che non siano necessariamente ripetibili più volte sotto le stesse condizioni: la probabilità di un evento è il prezzo che un individuo ritiene equo pagare per ricevere 1 se l'evento si verifica, 0 se l'evento non si verifica. Al fine di rendere concretamente applicabile la definizione, si aggiunge un criterio di coerenza: le probabilità degli eventi devono essere attribuite in modo tale che non sia possibile ottenere una vincita o una perdita certa. In tal modo è possibile ricavare dalla definizione soggettiva le stesse tre regole già viste. 1. P(A) è compresa tra 0 e 1; se infatti fosse negativa si avrebbe un guadagno certo, se fosse maggiore di 1 si avrebbe una perdita certa; 232 Probabilità 233 2. P(Ω) = 1; se l'evento è certo, si riceverà sicuramente 1, ma se fosse P(Ω) < 1 si avrebbe un guadagno certo, pari a 1 - P(Ω), se invece fosse P(Ω) > 1 si avrebbe una perdita certa; 3. se A∩B = ∅, P(A∪B) = P(A)+P(B). Si osserva preliminarmente che se gli n eventi A1, A2, ..., An sono incompatibili (non possono presentarsi insieme) e necessari (uno di loro deve necessariamente verificarsi), la somma delle probabilità P(Ai), con i che va da 1 a n, è uguale a 1; infatti, se si paga P(Ai) per ciascun evento, se la somma fosse inferiore a 1 si avrebbe un guadagno certo, se fosse superiore si avrebbe una perdita certa. Si considerano poi gli eventi incompatibili A e B e l'evento complemento della loro unione; i tre eventi sono incompatibili e necessari e si ha: Sono però incompatibili anche l'unione di A e B ed il suo complemento: Dalle due uguaglianze segue: se , allora La definizione soggettiva consente quindi di calcolare la probabilità di eventi anche quando gli eventi elementari non sono equiprobabili e quando l'esperimento non può essere ripetuto. Rimane fondata, tuttavia, sull'opinione di singoli individui, che potrebbero presentare diverse propensioni al rischio. .Basta pensare che molti sarebbero disposti a giocare 1 euro per vincerne 1000, ma pochi giocherebbero un milione di euro per vincerne un miliardo..... Definizione assiomatica L'impostazione assiomatica della probabilità venne proposta da Andrey Nikolaevich Kolmogorov nel 1933 in Grundbegriffe der Wahrscheinlichkeitsrechnung (Concetti fondamentali del calcolo delle probabilità), sviluppando la ricerca che era ormai cristallizzata sul dibattito fra quanti consideravano la probabilità come limiti di frequenze relative (cfr. impostazione frequentista) e quanti cercavano un fondamento logico della stessa. Va notato che la definizione assiomatica non è una definizione operativa e non fornisce indicazioni su come calcolare la probabilità. È quindi una definizione utilizzabile sia nell'ambito di un approccio oggettivista che nell'ambito di un approccio soggettivista. Il nome deriva dal procedimento per "assiomatizzazione" quindi nell'individuare i concetti primitivi, da questi nell'individuare i postulati da cui poi si passava a definire i teoremi. L'impostazione assiomatica muove dal concetto di σ-algebra, o classe additiva. Dato un qualsiasi esperimento casuale, i suoi possibili risultati costituiscono gli elementi di un insieme non vuoto Ω, detto spazio campionario, e ciascun evento è un sottoinsieme di Ω. La probabilità viene vista, in prima approssimazione, come una misura, cioè come una funzione che associa a ciascun sottoinsieme di Ω un numero reale non negativo tale che la somma delle probabilità di tutti gli eventi sia pari a 1. Se Ω ha cardinalità finita n o infinita numerabile, l'insieme di tutti i suoi sottoinsiemi, detto insieme delle parti, ha, rispettivamente, cardinalità 2n o la cardinalità del continuo. Tuttavia, se Ω ha la cardinalità del continuo, il suo insieme delle parti ha cardinalità superiore e risulta "troppo grande" perché si possa definire su di esso una misura. Si considerano pertanto i soli sottoinsiemi di Ω che costituiscono una classe additiva , ovvero un insieme non vuoto tale che • se un evento A appartiene ad , vi appartiene anche il suo complemento: • se un'infinità numerabile di eventi, A1, A2, ... An, ..., appartiene ad dalla loro unione: , vi appartiene anche l'evento costituito Probabilità 234 Una classe additiva è quindi un sottoinsieme delle insieme delle parti di Ω che risulta chiuso rispetto alle operazioni di complemento e di unione numerabile. Si può aggiungere che una classe additiva è chiusa anche rispetto all'intersezione, finita o numerabile, in quanto per le leggi di De Morgan si ha: (il secondo membro dell'uguaglianza appartiene alla classe in quanto complemento di una unione numerabile dei complementi di insiemi che vi appartengono). Si pongono i seguenti assiomi (che includono le tre regole ricavabili dalle definizioni precedenti): 1. 2. 3. 4. 5. Gli eventi sono sottoinsiemi di uno spazio Ω e formano una classe additiva . Ad ogni evento è assegnato un numero reale non negativo P(A), detto probabilità di A. P(Ω)=1, ovvero la probabilità dell'evento certo è pari ad 1. Se l'intersezione tra due eventi A e B è vuota, allora P(A∪B)=P(A)+P(B). Se An è una successione decrescente di eventi e al tendere di n all'infinito l'intersezione degli An tende all'insieme vuoto, allora P(An) tende a zero:[7] La funzione P(A) viene detta funzione di probabilità, o anche distribuzione di probabilità. La terna viene detta spazio di probabilità. Dagli assiomi si ricavano immediatamente alcune proprietà elementari della probabilità: • Se P(A) è la probabilità di un evento A, la probabilità dell'evento complementare è 1-P(A). Infatti, poiché l'intersezione di A e del suo complemento è vuota e la loro unione è Ω, dagli assiomi 3 e 4 si ricava: • La probabilità dell'evento impossibile è pari a zero. Infatti l'insieme vuoto è il complemento di Ω e si ha: • La probabilità di un evento è minore o uguale a 1. Infatti, dovendo la probabilità essere non negativa per il secondo assioma, si ha: • Se un evento A è incluso in un evento B, allora la sua probabilità è minore o uguale a quella di B. Infatti, se B include A può essere espresso come unione di insiemi disgiunti e si ha: Teoremi di base Dai suddetti assiomi derivano alcuni teoremi e concetti fondamentali. Il teorema della probabilità totale consente di calcolare la probabilità dell'unione di due o più eventi, ovvero la probabilità che si verifichi almeno uno di essi. Essa è la somma delle probabilità dei singoli eventi se sono a due a due incompatibili; in caso contrario, alla somma va sottratta la somma delle probabilità delle intersezioni due a due, poi aggiunta la somma delle probabilità delle intersezioni a tre a tre e così via. Ad esempio, nel caso di tre eventi: Si dice probabilità condizionata di A dato B, e si scrive P(A|B), la probabilità che l'evento A ha di verificarsi quando si sappia che B si è verificato: Probabilità Attraverso tale concetto si perviene al teorema della probabilità composta, che consente di calcolare la probabilità dell'intersezione di due o più eventi, ovvero la probabilità che essi si verifichino tutti. Nel caso di due eventi (che può essere generalizzato), si ha: Nel caso che la probabilità di A dato B, P(A|B), sia uguale a P(A), i due eventi vengono definiti indipendenti stocasticamente (o probabilisticamente) e dalla stessa definizione segue una diversa formulazione della probabilità composta, caso particolare del precedente: P(A∩B)=P(A)P(B). Il teorema di Bayes consente di calcolare la probabilità a posteriori di un evento Ai, quando si sappia che si è verificato un evento E. Se Ai appartiene ad un insieme finito o numerabile di eventi a due a due incompatibili, e se E si verifica allora si verifica necessariamente uno degli eventi di tale insieme (ed uno solo, dato che sono incompatibili), allora, conoscendo le probabilità a priori degli eventi Ai e le probabilità condizionate P(E|Ai) e sapendo che si è verificato E, si può calcolare la probabilità a posteriori di un particolare Ai: Più discorsivamente: se si conoscono sia le probabilità a priori delle diverse possibili "cause" di E (ma non si sa per effetto di quale di esse E si è verificato), sia le probabilità condizionate di E data ciascuna delle cause, è possibile calcolare la probabilità che E si sia verificato per effetto di una particolare causa. Difficoltà nell'utilizzo delle probabilità Quante insidie vi siano nei ragionamenti sulle probabilità - al di là delle difficoltà nella comprensione di cosa possa essere la probabilità - viene messo in evidenza da alcuni cosiddetti paradossi, dove in realtà si tratta di domande con risposte apparentemente illogiche: • nel paradosso delle tre carte l'errore consiste solitamente nel non avere identificato correttamente quali siano gli eventi: i lati delle carte e non le carte stesse • nel paradosso dei due bambini l'errore consiste solitamente nel non distinguere eventi diversi, ovvero nel considerare un unico evento quelli che in realtà sono due • nel problema di Monty Hall la difficoltà consiste anzitutto nell'accettare l'idea che una nuova informazione può modificare le probabilità di eventi, senza che il mondo reale cambi, l'altro errore consiste nel non analizzare completamente e dunque valutare correttamente la nuova informazione acquisita. Una ulteriore fonte di confusione può essere data dal presupporre (sbagliando) che il fatto che un evento abbia probabilità 1 implica che esso avvenga sempre (invece che quasi certamente). Probabilismo ontico Il probabilismo ontico è una teoria ontologica in base alla quale ciò che è necessario rappresenta il massimo delle probabilità e ciò che è casuale il minimo delle probabilità. L'alternanza dialettica necessità/caso si dà quindi in una scala astratta, ma matematicamente calcolabile per approssimazione caso per caso con adeguati algoritmi, dove la causalità è l'estrema improbabilità e la necessità l'estrema probabilità. Note [1] Il 9 si ottiene con le sei combinazioni (1,2,6), (1,3,5), (1,4,4), (2,2,5), (2,3,4), (3,3,3), il 10 con le sei combinazioni (1,3,6), (1,4,5), (2,2,6), (2,3,5), (2,4,4), (3,3,4), l'11 con (1,4,6), (2,3,6), (2,4,5), (1,5,5), (3,3,5), (3,3,4) e il 12 con (1,5,6), (2,4,6), (2,5,5), (3,4,5), (3,3,6), (4,4,4). Tuttavia, mentre una combinazione di tre numeri uguali può presentarsi in un solo modo, una con due numeri uguali può presentarsi in tre modi diversi, una con tre numeri diversi in sei modi diversi. Si può quindi ottenere il 10 e l'11 in 27 modi (6+6+3+6+3+3), il 9 e il 12 in 25 modi (6+6+3+3+6+1). [2] Secondo il Cavaliere, essendo 1/6 la probabilità del 6 con un dado, in quattro lanci la probabilità sarebbe 4 × 1/6 = 2/3; la probabilità del doppio 6 in due lanci è invece 1/36 e, per arrivare a 2/3, occorrono 24 lanci: 24 × 1/36 = 2/3. In realtà la probabilità di ottenere almeno un 6 si 235 Probabilità [3] [4] [5] [6] [7] calcola meglio a partire dall'evento complementare, "nessun 6 in quattro lanci", che è (5/6)4, e sottraendo questa da 1, ottenendo il 51,8%; nello stesso modo si calcola che la probabilità di almeno un doppio 6 in 24 lanci è 1 – (35/36)24 = 49%. La ristampa della traduzione inglese è disponibile in http:/ / www. stat. ucla. edu/ history/ huygens. pdf. Ad esempio, nel lancio di un dado l'insieme Ω è costituito dai sei risultati {1,2,3,4,5,6}; l'evento "esce il 3" è rappresentato dall'insieme {3}, l'evento "esce un numero pari" è rappresentato dall'insieme {2,4,6}. Ad esempio, restando al lancio di un dado, se A = {2} e B = {4,6}, l'evento A∪B è {2,4,6}, ovvero "esce un numero pari". Se invece A = "esce un numero pari" e B = "esce un numero minore o uguale a 3", A∩B = {2}. L'impostazione soggettiva era stata anticipata da Ramsey nel 1926. Una successione di insiemi è detta decrescente se ciascun insieme include il successivo. V. Limite insiemistico. Bibliografia • • • • Remo Cacciafesta, Lezioni di calcolo delle probabilità, Veschi, Roma, 1983 Giorgio Dall'Aglio, Calcolo delle probabilità, Zanichelli, Bologna, 2003 Domenico Piccolo, Statistica, Il Mulino, Bologna, 1998, Parte Seconda, Cap. VIII, pp. 215-291 Devlin Keith, La lettera di Pascal. Storia dell'equazione che ha fondato la teoria della probabilità, Rizzoli, 2008 Voci correlate • Teoria della probabilità • • • • • • • • • • • • • Probabilismo Evento Teorema di Cox Campionamento statistico Legge dei grandi numeri Kolmogorov. Bruno de Finetti Meccanica quantistica Indeterminismo Statistica Statistica inferenziale Storia della statistica Calcolo combinatorio Collegamenti esterni • (EN) Probability and Statistics EBook (http://wiki.stat.ucla.edu/socr/index.php/EBook) • (FR) Journal sur l'histoire des probabilités et des statistiques (http://www.jehps.net/) et site associé (articles, bibliographie, biographies) 236 Probabilità condizionata 237 Probabilità condizionata In teoria della probabilità la probabilità condizionata di un evento A rispetto a un evento B è la probabilità che si verifichi A, sapendo che B è verificato. Questa probabilità, indicata o , esprime una "correzione" delle aspettative per A, dettata dall'osservazione di B. (Ha senso solo se B ha una probabilità non nulla di verificarsi.) Esempio Per esempio, la probabilità di ottenere "4" con il lancio di un comune dado (evento A) ha probabilità P(A)=1/6 di verificarsi. Sapendo però che il risultato del lancio è stato uno tra "4", "5" e "6" (evento B), la probabilità di A diventa . Definizione La probabilità di A condizionata da B è , dove è la probabilità congiunta dei due eventi, ovvero la probabilità che si verifichino entrambi. In termini più rigorosi, dato uno spazio misurabile misurato di misura P, ogni evento B eredita una struttura di spazio , restringendo gli insiemi misurabili a quelli contenuti in B, ed induce una nuova misura su , con ) e B non è trascurabile ( probabilizzato . Se ), allora riscalando è uno spazio probabilizzato ( a si ottiene lo spazio delle probabilità condizionate da B. Proprietà La formula della probabilità condizionata permette di descrivere la probabilità congiunta come Ovvero, la probabilità che si verifichino sia A che B è pari alla probabilità che si verifichi B moltiplicata per la probabilità che si verifichi A supponendo che B sia verificato. Due eventi A e B sono indipendenti quando vale una delle tre equazioni equivalenti • • • ; ; . Casi particolari Se A e B sono eventi disgiunti, cioè se , le loro probabilità condizionate sono nulle: sapendo che uno dei due eventi si è verificato, è impossibile che si sia verificato anche l'altro. Se l'evento A implica l'evento B, cioè se • • (A implica B); (B è necessario per A). , allora la loro intersezione è A, per cui e: Probabilità condizionata 238 Nel caso di una misura di probabilità uniforme su uno spazio Ω finito, questa formula per P(A|B) esprime la definizione classica di probabilità come "casi favorevoli (A) su casi possibili (B)". Invece, per P(B|A) otteniamo il valore 1 che, per un numero finito di valori lo stesso Bayes interpretò in senso lato come la certezza che il tutto. sia condizionato dalla parte. Ulteriori definizioni La speranza condizionata di una variabile aleatoria X ad un evento B è la speranza di X calcolata sulle probabilità (condizionate da B). La probabilità di un evento A può essere condizionata da una variabile aleatoria discreta X, originando una nuova variabile aleatoria, , che per X=x assume il valore . Applicazioni Il teorema di Bayes esprime l'uguaglianza simmetrica del teorema della probabilità composta come . Questo teorema è alla base dell'inferenza bayesiana in statistica, dove P è detta "probabilità a priori di B" e PB "probabilità a posteriori di 'B". Paradossi Molti paradossi sono legati alla probabilità condizionata e derivano sia da un'errata formulazione del problema sia dalla confusione di P(A|B) con P(A) o con P(B|A). Esempi particolari sono il paradosso delle due buste, il paradosso dei due bambini, il problema di Monty Hall e il paradosso di Simpson. Voci correlate • • • • • • Probabilità congiunta Indipendenza (probabilità) Inferenza bayesiana Teorema di Bayes Teorema della probabilità composta Valore atteso condizionato Bibliografia • Giuseppe Zwirner, L. Scaglianti, Itinerari nella matematica vol.1, Padova, CEDAM, 1989, ISBN 88-1316794-6 Probabilità congiunta Probabilità congiunta Il teorema della probabilità composta deriva dal concetto di probabilità condizionata per cui la probabilità che due eventi si verifichino contemporaneamente è pari alla probabilità di uno dei due eventi moltiplicato con la probabilità dell'altro evento condizionato al verificarsi del primo. Nel caso di indipendenza stocastica si ottiene che la probabilità congiunta è pari al prodotto delle probabilità: A volte la probabilità congiunta viene anche indicata con Voci correlate • probabilità • probabilità condizionata • teorema della probabilità assoluta • teorema di Bayes Problema di Monty Hall Il problema di Monty Hall è un famoso problema di teoria della probabilità, legato al gioco a premi americano Let's Make a Deal. Prende il nome da quello del conduttore dello show, Maurice Halprin, noto con lo pseudonimo di Monty Hall. Nel gioco vengono mostrate al concorrente tre porte chiuse; dietro ad una si trova un'automobile, mentre ciascuna delle altre due nasconde una capra. Il giocatore può scegliere una Dopo la scelta del giocatore, il presentatore apre una porta (egli sa dove si trova l'auto) delle tre porte, vincendo il premio mostrando una capra. Qualsiasi cosa ci sia dietro la scelta iniziale del giocatore, egli cambiando scelta ha il 66,7% di probabilità di vincere l'auto, non cambiandola ne avrebbe corrispondente. Dopo che il giocatore il 33,3%. ha selezionato una porta, ma non l'ha ancora aperta, il conduttore dello show – che conosce ciò che si trova dietro ogni porta – apre una delle altre due, rivelando una delle due capre, e offre al giocatore la possibilità di cambiare la propria scelta iniziale, passando all'unica porta restante. Cambiare porta migliora le chance del giocatore di vincere l'automobile? La risposta è sì: cambiando le probabilità di successo passano da 1/3 a 2/3. Il problema è anche noto come paradosso di Monty Hall, poiché la soluzione può apparire controintuitiva, sebbene non si tratti di una vera antinomia, non generando nessuna contraddizione logica. 239 Problema di Monty Hall Storia del problema e sua soluzione Il problema Una famosa formulazione del problema è contenuta in una lettera del 1990 di Craig F. Whitaker, indirizzata alla rubrica di Marilyn vos Savant nel settimanale Parade: Supponi di partecipare a un gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c'è un'automobile, dietro le altre, capre. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3, rivelando una capra. Quindi ti domanda: "Vorresti scegliere la numero 2?" Ti conviene cambiare la tua scelta originale? Quella proposta sopra è una formulazione del problema data da Steve Selvin, in una lettera all'American Statistician (febbraio 1975). Così impostato, il problema è in realtà una variazione sul tema del gioco a premi originale; Monty Hall in effetti apriva una porta dietro cui si trovava una capra per aumentare la tensione, ma non consentiva ai giocatori di cambiare la propria scelta originale. Come scrisse lo stesso Monty Hall a Selvin: E se mai dovesse partecipare al mio gioco, le regole sarebbero le stesse per lei - nessuno scambio dopo la scelta originale. —(letsmakeadeal.com) [1] La vos Savant risolse il problema correttamente; l'episodio fece un certo scalpore, in quanto diversi accademici non riconobbero la correttezza della soluzione proposta dalla vos Savant finché questa non la spiegò nel dettaglio in un successivo articolo. La successiva lettera di Selvin all'America Statistician (agosto, 1975) battezza il problema come "Problema di Monty Hall". Un problema essenzialmente identico appare in ogni modo nella rubrica Mathematical Games di Martin Gardner nel 1959, col nome di "Problema dei tre prigionieri". Questo problema era stato ideato dal matematico francese Joseph Louis François Bertrand che lo aveva proposto nel suo libro Calcul des Probabilités (1889) ed era noto come il Paradosso delle tre scatole di Bertrand. Quella che segue, per concludere, è una formulazione del problema priva di ambiguità, con vincoli espliciti concernenti il comportamento del conduttore, presentata da Mueser e Granberg: • Dietro ciascuna di tre porte c'è un'automobile o una capra (due capre, un'automobile in tutto); la probabilità che l'automobile si trovi dietro una data porta è identica per tutte le porte; • Il giocatore sceglie una delle porte; il suo contenuto non è rivelato; • Il conduttore sa ciò che si nasconde dietro ciascuna porta; • Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilità di cambiare la sua scelta; • Il conduttore aprirà sempre una porta che nasconde una capra; • Cioè, se il giocatore ha scelto una porta che nasconde una capra, il conduttore aprirà la porta che nasconde l'altra capra; • Se invece il giocatore ha scelto la porta che nasconde l'automobile, il conduttore sceglie a caso una delle due porte rimanenti; • Il conduttore offre al giocatore la possibilità di reclamare ciò che si trova dietro la porta che ha scelto originalmente, o di cambiare, reclamando ciò che si trova dietro la porta rimasta. Le possibilità di vittoria aumentano per il giocatore se cambia la propria scelta? 240 Problema di Monty Hall Soluzione La risposta è sì; le probabilità di trovare l'automobile raddoppiano. La soluzione può essere illustrata come segue. Ci sono tre scenari possibili, ciascuno avente probabilità 1/3: • Il giocatore sceglie la capra numero 1. Il conduttore sceglie l'altra capra. Cambiando, il giocatore vince l'auto. • Il giocatore sceglie la capra numero 2. Il conduttore sceglie l'altra capra. Cambiando, il giocatore vince l'auto. • Il giocatore sceglie l'auto. Il conduttore sceglie una capra, non importa quale. Cambiando, il giocatore trova l'altra capra. Nei primi due scenari, cambiando il giocatore vince l'auto; nel terzo scenario il giocatore che cambia non vince. Dal momento che la strategia "cambiare" porta alla vittoria in due casi su tre, le chance di vittoria adottando la strategia sono 2/3. Una strategia di soluzione alternativa è considerare che se si suppone di cambiare, il solo caso in cui si perde è quello in cui originariamente si è scelta l'automobile e quindi la domanda del conduttore può essere considerata un invito a invertire le probabilità di successo con quelle di insuccesso. Il problema sarebbe diverso se non ci fosse una scelta iniziale, o se il conduttore scegliesse una porta a caso, o se il conduttore potesse offrire al giocatore di cambiare a seconda della scelta iniziale del giocatore. Alcune formulazioni del problema, e significativamente quella del settimanale Parade, non escludono esplicitamente queste possibilità; diversi testi di probabilità elementare riportano varianti del problema. Per esempio, se il conduttore offre la possibilità di cambiare solo se il giocatore inizialmente ha scelto l'automobile, le chance di vittoria associate alla strategia "cambiare" sono, ovviamente, dello 0%. Nella formulazione proposta nella sezione precedente, il giocatore che cambia ha una probabilità di vittoria pari a 2/3 precisamente perché il conduttore deve offrirgli la possibilità di cambiare, e deve rivelare una capra. Aiuti alla comprensione del problema L'obiezione più comune alla soluzione è fornita dall'idea che, per varie ragioni, il passato possa essere ignorato quando si valutano delle probabilità. Dunque, la scelta della prima porta e il ragionamento del conduttore circa quale porta aprire si possono trascurare; dal momento che si può scegliere tra due porte, la probabilità di scegliere quella giusta dovrebbe essere pari al 50%. Per confutare ciò possiamo porci una domanda. Ipotizziamo che un giocatore adotti la strategia di non accettare mai l'offerta del conduttore, qualunque essa sia. Se le probabilità di vincita all'inizio sono del 33%, ha senso pensare che queste passino automaticamente al 50% solo perché il conduttore ha chiesto qualcosa che il giocatore non ascolta neanche? Ovviamente no. Sebbene ignorare il passato funzioni in certi giochi, come ad esempio nel lancio di una moneta, non funziona necessariamente in tutti i giochi. Un rilevante controesempio è fornito dal conteggio delle carte uscite in certi giochi di carte, che consente ai giocatori di sfruttare a proprio vantaggio l'informazione riguardante eventi passati. Questo tipo di informazione è utile nella soluzione del problema di Monty Hall, come illustrato negli esempi che seguono. Quello che realmente fa la differenza è la conoscenza del futuro o almeno la restrizione dei possibili eventi futuri. Mentre nel lancio della moneta le probabilità di uscita testa o croce non dipendono dai lanci passati, negli esempi di carte (contare le carte) o del problema di Monty Hall i possibili eventi futuri si "riducono" dopo un preciso episodio. Nel caso del contare le carte, l'uscita di una carta modifica le possibili carte che possono ancora uscire, quindi ne modifica la probabilità. Nel caso del problema di Monty Hall, l'esclusione da parte del conduttore di una scelta certamente "sconveniente" rende attraente la porta rimanente più interessante della prima porta scelta quando non si aveva nessuna conoscenza. 241 Problema di Monty Hall Diagrammi di Eulero-Venn La probabilità che l'auto sia dietro la porta restante può essere calcolata con l'ausilio del diagramma di Venn illustrato sotto. Dopo aver scelto la porta 1, per esempio, il giocatore ha probabilità 1/3 di aver selezionato la porta con l'auto, il che assegna una probabilità pari a 2/3 alle due porte restanti. Si osservi che c'è una probabilità pari a 1 di trovare una capra dietro almeno una delle due porte non selezionate dal giocatore, dal momento che c'è una sola auto in palio. Si supponga che il conduttore apra la porta 3. Dal momento che può solo aprire una porta che nasconde una capra, e non apre una porta a caso, questa informazione non ha effetto sulla probabilità che l'auto sia dietro la porta originariamente selezionata, che resta pari a 1/3. Ma l'auto non è dietro la porta 3, dunque l'intera probabilità di 2/3 delle due porte non selezionate dal giocatore è ora assegnata alla sola porta 2, come mostrato sotto. Un modo alternativo per arrivare a questa conclusione è osservare che se l'auto si trova dietro la porta 2 o dietro la porta 3, aprire la porta 3 implica che l'auto si trova dietro la 2. • Osserviamo infine che il problema non cambia se il conduttore anziché aprire una porta offrisse al giocatore la possibilità di cambiare la porta scelta con entrambe le altre. In questo caso è evidente che la probabilità è 2/3. 242 Problema di Monty Hall 243 Teorema di Bayes Un'analisi del problema attraverso il teorema di Bayes rende esplicito l'effetto delle ipotesi sopra indicate. Si consideri, senza ledere la generalità dell'analisi, il caso in cui la porta 3 è stata aperta dal conduttore mostrando una capra, e che il concorrente abbia selezionato la porta 1. La probabilità che l'automobile si trovi dietro la porta 2 (ovvero la probabilità di trovare l'auto dopo aver cambiato la scelta iniziale) è ove A1 è l'evento che l'auto si trovi dietro alla porta 1 e C3 è l'evento che il conduttore selezioni una capra dietro la porta 3. La probabilità (a priori, utilizzando il gergo della statistica bayesiana) che l'automobile si trovi dietro la porta 1, che si denota con , è chiaramente 1/3, in quanto l'auto ha a priori la stessa probabilità di trovarsi dietro ciascuna porta. La probabilità che il conduttore dello show trovi una capra dietro la porta 3, , è altrettanto chiaramente 1, visto che il conduttore sapeva in anticipo dove si celava l'automobile e pertanto sa quale porta vada selezionata per trovare la capra. La probabilità che il conduttore selezioni una porta con dietro la capra posto ("a posteriori") che l'automobile sia dietro la porta 1, , è 1 per ovvi motivi. Pertanto, sfruttando il teorema di Bayes: La probabilità di trovare l'auto cambiando la scelta iniziale, dopo che il conduttore (onnisciente) ha mostrato una porta con dietro la capra é: Spiegazione del ragionamento intuitivo Analisi della soluzione Per arrivare al ragionamento intuitivo è necessaria l'analisi sotto un altro aspetto delle parole del conduttore: "Apro una delle due porte che non hai scelto, in cui vi è una capra. Vuoi cambiare la tua scelta?". Sapendo a priori la soluzione, le parole dette dal conduttore possono essere tradotte in: "Se hai scelto un'automobile (1/3) ti faccio perdere facendoti scegliere una capra (100%), se invece hai scelto una delle due capre (2/3) ti faccio vincere scegliendo l'automobile (100%). Vuoi cambiare la tua scelta?". Come vediamo inizialmente i casi sono:* A: il giocatore sceglie la prima capra, perdendo (1/3);* B: il giocatore sceglie la seconda capra, perdendo (1/3);* C: il giocatore sceglie l'automobile, vincendo (1/3);con una probabilità di vincita del 1/3. Cambiando la scelta ci accorgiamo che:* A: il giocatore aveva scelto la prima capra, la seconda capra viene scoperta, il giocatore sceglie l'automobile vincendo (1/3);* B: il giocatore aveva scelto la seconda capra, la prima capra viene scoperta, il giocatore sceglie l'automobile vincendo (1/3);* C: il giocatore aveva scelto l'automobile, viene scoperta una delle due capre, il giocatore sceglie la capra rimanente perdendo (1/3);con una probabilità di vincita di 2/3 (sia A che B), possiamo rilevare che questo accade solo perché dato che i casi di perdita sono due, eliminandone uno, le possibilità, cambiando la scelta variano da: A e B perdenti e C vincente, a C vincente e AB perdente. Perciò essendo partiti da 3 possibilità iniziali, di cui due uguali, avendo quindi solo 2 risultati finali, le probabilità passano dal 1/3 a 2/3 e non dal 1/3 al 50%, cosa che sarebbe accaduta se le situazioni iniziali fossero 3 differenti, in modo da avere obbligatoriamente 3 risultati finali di modo che l'apertura di una delle tre porte avrebbe eliminato una delle opzioni finali e iniziali e non solo di quelle iniziali. Problema di Monty Hall Il ragionamento intuitivo La situazione che d'intuito ci viene a pensare è questa, che purtroppo induce ogni ragionamento logico collegato a non riuscire a spiegare il problema di Monty Hall: Partiamo dalla situazione che vi è un secondo concorrente a partecipare al gioco a premi per rappresentare la seconda situazione differente da quella del primo, il primo concorrente ha già vinto la macchina, e al posto di una capra viene messa una moto in una porta. Ora a seconda di cosa sceglierà il concorrente, vincerà (scegliendo la porta con l'automobile che avrebbe dovuto vincere il primo concorrente), vi sarà un pareggio (entrambi vinceranno: il primo concorrente vincerà l'automobile e il secondo la moto) oppure perderà (scegliendo la capra, lasciando vincere il primo concorrente). Supponi ora di partecipare a un gioco a premi, in cui puoi scegliere tra tre porte: dietro una di esse c'è un'automobile, dietro un'altra una moto e infine dietro l'ultima, una capra. Scegli una porta, diciamo la numero 1, e il conduttore del gioco a premi, che sa cosa si nasconde dietro ciascuna porta, ne apre un'altra, diciamo la 3. Quindi ti domanda: "Vorresti scegliere la numero 2?" Ti conviene cambiare la tua scelta originale? Dietro ciascuna di tre porte c'è un'automobile o una moto o una capra; la probabilità che l'automobile si trovi dietro una data porta è identica per tutte le porte; • Il giocatore sceglie una delle porte; il suo contenuto non è rivelato; • Il conduttore sa ciò che si nasconde dietro ciascuna porta; • Il conduttore deve aprire una delle porte non selezionate, e deve offrire al giocatore la possibilità di cambiare la sua scelta; • Il conduttore aprirà una delle porte non scelte a caso; • Cioè, indipendentemente da ciò che ha scelto il giocatore il conduttore aprirà una porta, eliminando la possibilità che la condizione finale correlata alla porta appena aperta si verifichi; • Il conduttore offre al giocatore la possibilità di reclamare ciò che si trova dietro la porta che ha scelto originalmente, o di cambiare, reclamando ciò che si trova dietro la porta rimasta. Che cambiamento si ha? Le possibilità di vittoria aumentano? La soluzione al ragionamento intuitivo La risposta è sì; le probabilità di trovare l'automobile arrivano al 50%. La differenza con il problema precedente sta nelle probabilità di perdita o di pareggio, che aumentano anch'esse fino al 50%. La soluzione può essere illustrata come segue. Ci sono sei scenari possibili, ciascuno avente probabilità 1/6: • Il giocatore sceglie la capra. • Il conduttore elimina l'automobile. Cambiando, il giocatore pareggia, scegliendo la moto. • Il conduttore elimina la moto. Cambiando, il giocatore vince, scegliendo l'automobile. • Il giocatore sceglie la moto. • Il conduttore sceglie la capra. Cambiando, il giocatore vince, scegliendo l'auto. • Il conduttore sceglie l'automobile. Cambiando, il giocatore perde, scegliendo la capra. • Il giocatore sceglie l'automobile. • Il conduttore sceglie la moto. Cambiando, il giocatore perde, scegliendo la capra. • Il conduttore sceglie la capra. Cambiando, il giocatore pareggia, scegliendo la moto. Come si può vedere, la situazione iniziale, avendo tre possibilità differenti, impone tre risultati diversi. Perciò questa volta è il conduttore a eliminare una possibilità al giocatore, cosa che potrebbe portare uno svantaggio o un vantaggio a seconda del conduttore, quindi il giocatore dovrebbe soltanto decidere se fidarsi o no. La possibilità di pareggio va considerata a sè stante e non come possibilità di perdita, altrimenti si rischia di confondere nuovamente le situazioni dei due concorrenti, senza capire la situazione reale. 244 Problema di Monty Hall Varianti Il conduttore non sa cosa ci sia dietro le porte Dopo la scelta del concorrente, il conduttore apre una delle due porte rimaste. Poiché non sa cosa c'è dietro, con probabilità 1/3 trova l'auto e il gioco finisce. Con probabilità 2/3 trova invece la capra e può chiedere al concorrente se vuole effettuare il cambio con la porta rimasta chiusa. Anche in questo caso è conveniente cambiare, dato che la probabilità che nella porta aperta si trovi la capra, condizionata al fatto che il gioco prosegue, è pari a 1. Ci ritroviamo quindi nello stesso caso di partenza, ossia assoluta certezza che il conduttore ha aperto la porta con la capra. Questo dipende dal fatto che il concorrente ha effettuato la scelta a posteriori, rispetto all'evento "che il gioco sia proseguito o no". Due giocatori Ad alcuni minuti dalla fine del gioco, il conduttore sceglie due concorrenti a cui proporre "la grande scommessa". Dietro a una delle tre porte c'è il premio più consistente. Ad ogni giocatore è permesso scegliere una porta (non la stessa) . In questo scenario, si può esaminare una variante del problema. Il presentatore elimina il giocatore che abbia scelto una porta con dietro la capra (se lo hanno fatto entrambi, ne viene scelto uno a caso), apre la porta, svelando la capra e poi offre al giocatore rimanente la possibilità di cambiare la propria scelta. Il giocatore dovrebbe effettuare lo scambio? La risposta è no. La ragione: il giocatore che effettuasse lo scambio in questo tipo di gioco vincerebbe se e solo se entrambi i giocatori avessero scelto una porta con la capra. che probabilità ha questa evenienza? 1/3. Se mantenesse la scelta resterebbero 2/3 di probabilità. Quindi chi mantenesse la scelta fatta inizialmente avrebbe il doppio delle possibilità di vincere. In alternativa, ci sono tre possibili scenari, tutti con uguale probabilità (1/3): • Il giocatore 1 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 2. Cambiare scelta comporta perdere. • Il giocatore 2 sceglie la porta che nasconde l'auto. Il conduttore deve eliminare il giocatore 1. Cambiare scelta comporta perdere. • Nessuno dei giocatori sceglie la porta che nasconde l'auto. Il conduttore elimina a caso uno dei due giocatori. Cambiare scelta comporta vincere. Il giocatore 1 è l'unico rimasto nel primo caso, e lo è con probabilità 1/2 nel terzo caso; in questa eventualità cambiare scelta comporta una probabilità di perdere (1/3) due volte maggiore di quella di vincere (1/6). Analogamente, nel secondo caso il giocatore 2 è l'unico rimasto, e lo è con probabilità 1/2 nel terzo caso; in questa eventualità cambiare scelta comporta una probabilità di perdere (1/3) due volte maggiore di quella di vincere (1/6). Dunque a prescindere da quale giocatore rimanga, c'è una probabilità pari a 2/3 di vincere se non si cambia scelta. Per rendere più palese la differenza rispetto al caso precedente si può dire che non si può qui ragionare come prima dove il (unico) giocatore arriva sempre al secondo turno (quello del possibile scambio) e la probabilità che abbia selezionato la scelta vincente rimane 1/3, contro i complementari 2/3 della scelta alternativa. Si deve invece notare che nell'istante in cui un giocatore (uno dei due) arriva al secondo turno deve considerare che la probabilità che abbia inizialmente effettuato la scelta giusta si modifica e sale a 2/3. In sostanza il giocatore rimasto riveste in questo caso, in termini di probabilità, lo stesso ruolo che prima (caso con un giocatore) ricopriva la porta non selezionata dal giocatore né eliminata dal conduttore. 245 Problema di Monty Hall n porte Esiste una generalizzazione del problema originale in cui si hanno n porte: nel primo stadio del gioco, il giocatore sceglie una porta. Quindi il conduttore apre un'altra porta, che nasconde una capra. Se il giocatore vuole, può quindi cambiare scelta e passare a un'altra porta. Il conduttore aprirà allora un'ulteriore porta, ancora non aperta, che nasconde una capra, diversa da quella attualmente scelta dal giocatore. Il giocatore ha quindi la possibilità di cambiare ancora scelta, e così via. Questo procedimento continua fino a che non restano che due porte non ancora aperte: la scelta corrente del giocatore, e un'altra porta. Quante volte dovrebbe cambiare scelta il giocatore, e a che punto del gioco (sempre che cambi almeno una volta)? La migliore strategia è: restare con la prima scelta sino a che non rimangano solo due porte e a quel punto cambiare. Seguendo questa strategia la probabilità di vincere è . Questa variante del paradosso di Monty Hall si deve a Bapeswara Rao e Rao. Variante nel gioco del bridge Una comune variante del problema è nota ai giocatori di bridge da ben prima che l'articolo della Vos Savant fosse pubblicato. Tale variante è nota come principio della scelta ristretta.[2] Versione quantistica Esiste una versione quantistica del paradosso, che illustra alcuni aspetti della relazione tra la teoria dell'informazione classica (non quantistica) e l'informazione quantistica, ossia l'informazione codificata negli stati di sistemi meccanici quantistici. Le tre porte sono rimpiazzate da un sistema quantistico che consta di tre alternative, in cui aprire una porta e vedere cosa nasconde si traduce in fare una particolare misurazione. Le regole del gioco possono essere espresse in questo linguaggio, e ancora una volta il giocatore può scegliere se restare fedele alla propria scelta iniziale o cambiare e optare per una scelta alternativa ("ortogonale"). Quest'ultima strategia ha probabilità di vittoria doppie, esattamente come nel caso classico. Tuttavia, se la posizione del premio non è pienamente casuale in senso quantistico, il giocatore può fare ancora meglio, e in determinati casi vincere con probabilità pari a uno. È disponibile in rete un articolo [3] al riguardo, nonché un'applet [4] che illustra gli effetti così descritti. Nella letteratura e nel cinema • Questo problema viene citato, con tanto di due dimostrazioni (intuitiva e matematica), nel libro di Mark Haddon Lo strano caso del cane ucciso a mezzanotte, dove il giovane protagonista propone il quesito ai lettori.[5] • Un'altra citazione del problema si ha nel telefilm Numb3rs.[6] • Nel film 21, il professore Mickey Rosa propone il problema al protagonista del film, l'allievo Ben Campbell, che lo risolve brillantemente.[7] • Anche la scrittrice Scarlett Thomas nel suo libro PopCo cita questo problema, definendolo Dilemma di Monty Hall[8] • Nel libro "I conigli di Schrödinger" di Colin Bruce, viene illustrato il Problema di Monty Hall.[9] 246 Problema di Monty Hall Note [1] [2] [3] [4] [5] [6] [7] [8] [9] http:/ / www. letsmakeadeal. com/ problem. htm Restricted Choice Article (http:/ / www. acbl-district13. org/ artic003. htm) http:/ / xxx. lanl. gov/ abs/ quant-ph/ 0202120 http:/ / www. imaph. tu-bs. de/ qi/ monty/ p. 77, 78, 79 e 80. Mark Haddon, Lo strano caso del cane ucciso a mezzanotte, Einaudi (2003) Numb3rs - Episodio 1.13, Caccia all'uomo YouTube - Il Problema di Monty Hall nel film 21 (http:/ / www. youtube. com/ watch?v=wOK48hgYCS4) Scarlett Thomas, PopCo Newton Compton Editori (2007) p.75,76,77.Colin Bruce, I conigli di Schrödinger, Raffaello Cortina Editore (2006) Bibliografia • (EN) Bapeswara Rao, V. V. e Rao, M. Bhaskara (1992). A three-door game show and some of its variants. The Mathematical Scientist 17(2), 89–94 • (EN) Bohl, Alan H.; Liberatore, Matthew J.; e Nydick, Robert L. (1995). A Tale of Two Goats... and a Car, or The Importance of Assumptions in Problem Solutions. Journal of Recreational Mathematics 1995, 1–9. • Joseph Bertrand (1889). Calcul des probabilités • (EN) Gardner, Martin (1959). Rubrica "Mathematical Games", Scientific American, Ottobre 1959, 180–182. • (EN) Mueser, Peter R. e Granberg, Donald (1999). The Monty Hall Dilemma Revisited: Understanding the Interaction of Problem Definition and Decision Making (University of Missouri Working Paper 99-06). http:// econwpa.wustl.edu:80/eps/exp/papers/9906/9906001.html (retrieved July 5, 2005). • (EN) Nahin, Paul J. (2000). Duelling idiots and other probability puzzlers. Princeton University Press, Princeton, NJ, 192-193. ISBN 0-691-00979-1 • (EN) Selvin, Steve (1975a). A problem in probability (letter to the editor). American Statistician 29(1):67 (Febbraio 1975). • (EN) Selvin, Steve (1975b). On the Monty Hall problem (letter to the editor). American Statistician 29(3):134 (Agosto 1975). • (EN) Tierney, John (1991). Behind Monty Hall's Doors: Puzzle, Debate and Answer?, The New York Times 21 luglio 1991, Domenica, Section 1; Part 1; Page 1; Column 5 • vos Savant, Marilyn (1990). Rubrica Ask Marilyn, Parade Magazine 12 (17 febbraio 1990). [citata in Bohl et al., 1995] • (EN) Adams, Cecil (1990). On 'Let's Make a Deal,' you pick Door #1. Monty opens Door #2--no prize. Do you stay with Door #1 or switch to #3?, The Straight Dope 2 novembre 1990. http://www.straightdope.com/ classics/a3_189.html (consultata il 25 luglio 2005). • (EN) Tijms, Henk (2004). Understanding Probability, Chance Rules in Everyday Life. Cambridge University Press, New York, 213-215. • Haddon, Mark (2003). Lo strano caso del cane ucciso a mezzanotte Einaudi. • Rosenthal, Jeffrey S. (2006). Le regole del caso, istruzioni per l'uso, Longanesi, Milano, ISBN 88-304-2370-X • (EN) Rosenhouse, Jason (2009). The Monty Hall Problem, Oxford University Press ISBN 978-0-19-536789-8 247 Problema di Monty Hall Voci correlate • Paradosso delle tre carte Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/Monty Hall problem Collegamenti esterni • Simulazione fino a 100.000 tentativi (http://utenti.quipo.it/base5/probabil/montyhall.htm) • Simulatore giocabile del paradosso (http://www.taravella.eu/content/view/14/27/) Questione ipotetica (teologia) Con "questione ipotetica" si intende un paradosso teologico discusso nella teologia scolastica e successiva: "Se Adamo non avesse peccato, il Figlio di Dio si sarebbe lo stesso incarnato in Gesù?" (nella tradizione cristiana scopo principale di incarnazione, morte e resurrezione del Figlio di Dio è la giustificazione dell'uomo, cioè la cancellazione del peccato originale). Nella questione così posta l'azione di Dio viene vincolata a quella dell'uomo, il che risulta paradossale in quanto lede l'assoluta libertà di Dio che la teologia cristiana gli attribuisce. La soluzione del paradosso sta nel non vedere l'incarnazione come finalizzata unicamente al rimedio del peccato originale: in tal caso, se Adamo non avesse peccato l'incarnazione non sarebbe dovuta avvenire. Scopo dell'incarnazione è stato la divinizzazione dell'uomo: grazie a incarnazione, morte e risurezione del Figlio di Dio gli uomini possono, nella vita futura, diventare "figli di Dio", ottenendo la cosiddetta "adozione filiale". In tal caso, sia che Adamo avesse o non avesse peccato, l'incarnazione è necessaria. Voci correlate • Paradosso • Paradosso teologico 248 Teorema dell'impossibilità di Arrow Teorema dell'impossibilità di Arrow Il Teorema dell'impossibilità di Arrow, o semplicemente teorema di Arrow, è un teorema formulato nel 1951 dal Premio Nobel per l'economia Kenneth Arrow nel libro Social Choice and Individual Values. Esso dice che, dati i requisiti, spiegati più avanti, di universalità, non imposizione, non dittatorialità, monotonicità, indipendenza dalle alternative irrilevanti, non è possibile determinare un sistema di votazione che preservi le scelte sociali. Lo scopo era trovare una qualsiasi procedura di decisione collettiva che potesse soddisfare alcuni requisiti ragionevoli per una scelta non arbitraria. Un esempio di una procedura che non può soddisfare tutti i requisiti considerati da Arrow è il sistema di voto maggioritario come mostrato dal paradosso di Condorcet. Il paradosso di Condorcet mostra come la votazione a maggioranza, usata nella democrazia rappresentativa, può condurre a delle scelte ambigue: partendo dalle preferenze individuali, si vuole arrivare ad una preferenza collettiva pure coerente (se A è preferito a B, e B è preferito a C, allora A deve essere preferito a C). Come detto, il paradosso di Condorcet mostra che ciò non è sempre il caso per le preferenze collettive. Jean-Charles de Borda ha proposto un'altra procedura, detta conteggio di Borda, che consiste nell'attribuire dei punti e fare la somma, la quale non ha questo difetto, ma il teorema di Arrow ci dice che ci deve essere un requisito che non è soddisfatto: l'indipendenza dalle alternative irrivelanti. In italiano il nome del teorema non è ambiguo, mentre in inglese si preferisce la versione estesa per evitare confusione con un ipotetico teorema della freccia. La dimostrazione del teorema comporta, sorprendentemente, l'impossibilità di soddisfare simultaneamente tutti i requisiti considerati da Arrow. Illustrazione ed enunciato del teorema Si ipotizzi che una società necessiti di adottare un ordine di preferenze tra diverse opzioni. Ciascun individuo della società ha un proprio ordine di preferenza, che può esprimere per esempio tramite un voto. Il problema è quello di trovare una procedura (per esempio un sistema di voto), più in generale chiamato una funzione di scelta pubblica, che trasformi l'insieme delle preferenze individuali in un ordinamento globale coerente. Il teorema considera le seguenti proprietà, che Arrow ipotizza rappresentare requisiti ragionevoli per un sistema di voto equo: • Universalità (o dominio non ristretto): la funzione di scelta sociale dovrebbe creare un ordinamento delle preferenze sociali deterministico e completo, a partire da qualsiasi insieme iniziale di preferenze individuali; • Non imposizione (o sovranità del cittadino): qualsiasi possibile preferenza sociale deve essere raggiungibile a partire da un appropriato insieme di preferenze individuali (ogni risultato deve poter essere raggiunto in qualche maniera); • Non dittatorialità: la funzione di scelta sociale non deve semplicemente seguire l'ordinamento delle preferenze di un individuo o un sottoinsieme di individui, al contempo ignorando le preferenze degli altri; • Monotonicità, o associazione positiva tra i valori individuali e sociali: se un individuo modifica il proprio ordinamento di preferenze promuovendo una data opzione, la funzione di scelta sociale deve promuovere tale opzione o restare invariata, ma non può assegnare a tale opzione una preferenza minore (nessun individuo dovrebbe essere in grado di esprimersi contro un'opzione assegnandole una preferenza maggiore); • Indipendenza dalle alternative irrilevanti: se si confina l'attenzione ad un sottoinsieme di opzioni, e la funzione di scelta sociale è applicata ad esse soltanto, il risultato deve essere compatibile con il caso in cui la funzione di scelta sociale è applicata all'intero set di alternative possibili. Il teorema di Arrow afferma che se il gruppo di cittadini votanti comprende almeno due individui e l'insieme delle alternative possibili almeno tre opzioni, non è possibile costruire una funzione di scelta sociale che soddisfi al contempo tutti i requisiti sopra enunciati. Secondo una versione alternativa del teorema di Arrow, il requisito di monotonicità è rimpiazzato da: • unanimità (o criterio paretiano, o efficienza paretiana): se ogni singolo individuo preferisce una certa opzione A all'opzione B, allora A deve essere preferita a B anche da parte della funzione di scelta sociale. 249 Teorema dell'impossibilità di Arrow 250 Tale formulazione è più restrittiva, in quanto ipotizzare sia la monotonicità che l'indipendenza dalle alternative irrilevanti implica l'efficienza paretiana. Va tuttavia detto che la teoria paretiana dell'efficienza nel liberismo è stata falsificata dal premio Nobel per l'Economia Amartya Sen. Formulazione logica Facciamo le seguenti ipotesi. Siano V l'insieme dei voti, A e B i candidati. Per semplicità, consideriamo il caso senza schede nulle o bianche e senza possibilità di pareggio (casi che sono sempre riconducibili a questo eliminando da V i voti nulli o in bianco, e ricorrendo eventualmente al ballottaggio). Detto VA l'insieme dei voti per A, risulta completamente determinato VB, in quanto non è altro che il complementare, VB = V - VA . Un'altra ipotesi è che se VA è sufficiente ad A per vincere, egli vince anche se prende più voti. Nelle votazioni a maggioranza, il minimo di tali insiemi di voti è la metà più uno di V. Ogni insieme che permetta la vittoria di un candidato (poniamo A) è detto insieme decisivo. Chiamiamo l'insieme degli insiemi decisivi a favore di A. In termini matematici abbiamo postulato che, detto X un insieme decisivo per A su V: 1. Se X è contenuto in Y, allora Y appartiene ad 2. Ogni voto sta in X o nel suo complementare. 3. O X o il suo complementare è decisivo. . Queste proprietà sono molto vicine a quelle di un filtro su V, mancando solamente quella della chiusura rispetto all'intersezione. Mostreremo dunque che l'ipotesi della monotonicità, ossia che se A vince su B, e B vince su C, allora A vince su C, è equivalente alla chiusura rispetto all'intersezione degli insiemi decisivi di V. Quanto sopra è l'enunciato del teorema. Dimostrazione Supponiamo che non sia decisivo. Allora, per la proprietà 3, lo è il suo complementare . Quindi, se X fa vincere A su B, e Y B su C, vediamo come ogni votante esprimerebbe le sue preferenze: 1. per ogni elettore di A vince su B, e B su C (ABC) 2. per ogni elettore di 3. per ogni elettore di 4. per ogni elettore di B su C, e B su A (BCA) C su B, e A su B (CAB) C su B, e B su A (CBA) Allora A vince su B perché X è decisivo, B vince su C perché è decisivo Y e C vince su A perché è decisivo. Quindi abbiamo il paradosso di Condorcet. Viceversa, dato un qualunque ordine delle prefenze, siano X, Y e Z rispettivamente i votanti che preferiscono A a B, B a C ed A a C. Tutti e tre sono decisivi. Vediamo ora che ogni votante di preferisce A a B, e B a C, e poiché l'ordine individuale è lineare, A a C. Dunque . E dunque, poiché è decisivo, lo è anche Z. Per le proprietà viste prima, gli insiemi decisivi che rispettano la chiusura rispetto all'intersezione formano un ultrafiltro, e dato che l'insieme dei votanti è, per fortuna, finito, anche un filtro principale. Esiste, dunque, un singolo votante, che Arrow chiama il dittatore, che da solo determina il risultato della votazione: egli è l'intersezione di tutti gli insiemi decisivi. Quindi, con le ipotesi che abbiamo fatto, delle due l'una: o accettiamo il paradosso di Condorcet, e quindi l'esito delle votazioni dipende dall'ordine in cui vengono effettuate, oppure in un sistema che esclude questa possibilità, ogni insieme decisivo comprende un dittatore, ossia un votante che da solo determina il risultato della votazione. Entrambe le possibilità sono in contrasto con l'idea istintiva di democrazia rappresentativa, che è quindi matematicamente impossibile. Contrariamente a quanto possa sembrare, sono possibili alternative che consentano ad una Costituzione di attuare una democrazia rappresentativa senza il paradosso di Condorcet, però queste forme devono necessariamente rinunciare ad una o più delle ipotesi viste in precedenza. Data la semplicità delle ipotesi di partenza, e la complessità della spiegazione del perché sono inaccettabili, è arduo ipotizzare che sia possibile far varare una legge elettorale conforme alle soluzioni prospettate. Teorema dell'impossibilità di Arrow Interpretazioni Il teorema di Arrow è un risultato matematico, ma è spesso espresso in termini non matematici, con affermazioni come: nessun sistema di voto è equo, qualunque sistema di voto può essere manipolato, o il solo sistema di voto non manipolabile è la dittatura. Queste affermazioni rappresentano semplificazioni del risultato di Arrow che non si possono considerare universalmente vere. Arrow usa il termine fair (equo) con riferimento ai suoi criteri. In effetti alcuni di essi, quali l'ottimo paretiano o la richiesta di assenza di imposizioni, possono apparire banali. Non così, ad esempio, per il criterio dell'indipendenza dalle alternative irrilevanti. Si consideri il seguente esempio: Dave, Chris, Bill e Agnes concorrono per uno stesso posto di lavoro; si supponga che Agnes abbia un chiaro vantaggio rispetto agli altri concorrenti. Ora, in base al risultato di Arrow, si potrebbe avere una situazione in cui, se Dave si ritira, Bill, e non Agnes, ottiene il posto. Ciò potrebbe apparire non equo a molti; tuttavia il teorema di Arrow implica che situazioni di questo tipo non possono in generale essere evitate. Diversi teorici, e non, hanno proposto di rilassare, ossia rendere meno restrittivo, il criterio dell'indipendenza dalle alternative irrilevanti al fine di risolvere il paradosso. I fautori di sistemi di voto basati su ordinamenti delle alternative affermano che il criterio sarebbe restrittivo senza ragione, e che non troverebbe applicazione nella maggioranza delle situazioni concrete. In effetti, tale criterio è escluso da diversi meccanismi di voto di comune impiego, così come in generalizzazioni quali il metodo di Borda. Il teorema di Gibbard-Satterthwaite, un tentativo di rilassare le condizioni che portano al risultato di Arrow, sostituisce al criterio dell'indipendenza dalle alternative irrilevanti un criterio di non-manipolabilità. Il teorema, tuttavia, giunge alle stesse conclusioni (paradossali) di Arrow, dimostrando così l'equivalenza tra il criterio dell'indipendenza dalle alternative irrilevanti e la non-manipolabilità. In conclusione, il teorema di Arrow mostra che il voto è un gioco non banale, e che la teoria dei giochi potrebbe essere impiegata per predire l'esito della maggior parte dei meccanismi di voto. Ciò potrebbe essere interpretato come un risultato scoraggiante, dal momento che un gioco non ha necessariamente un equilibrio efficiente (o desiderabile dal punto di vista sociale). L'alternativa sarebbe di traslare i risultati ottenuti da Sen nel campo dell'economia, al campo della politica elettorale, che però richiedono di rilassare una delle condizioni viste all'inizio. Conseguenze Nel 1970, applicando lo stesso principio di Arrow, il Premio Nobel per l'economia Amartya Sen ha mostrato l'impossibilità matematica del liberismo paretiano. Tramite una generalizzazione del metodo ad insiemi di vettori ad n dimensioni, l'economista Herbert Scarf ha mostrato nel 1962 l'inesistenza della mano invisibile per mercati con più di due beni i cui prezzi siano interdipendenti. Il risultato di Arrow rappresenta uno dei primi approcci alle scienze sociali tramite il formalismo matematico; tramite questo e altri lavori Kenneth Arrow ha contribuito significativamente all'evoluzione dell'economia politica nel corso del XX secolo nella direzione di un maggior rigore matematico. 251 Teorema dell'impossibilità di Arrow Voci correlate • • • • • • Amartya Sen Mano invisibile Paradosso Paradosso di Condorcet Teorema di Gibbard-Satterthwaite Teorema di May Bibliografia • Arrow, K.J., A Difficulty in the Concept of Social Welfare [1], Journal of Political Economy, 58, 328–346, 1950 • Arrow, K.J., Social Choice and Individual Values, Yale University Press, 1951, ISBN 0300013647. Liberamente scaricabile da [2], sia la versione del 1951 che del 1963. • Ed. Italiana: "Scelte sociali e valori individuali", Etas, 2003, ISBN 8845312224 • MacKay, A.F., Arrow's Theorem: The Paradox of Social Choice, Yale University Press, New Haven, 1980 • Odifreddi, P., C'era una volta un paradosso - storie di illusioni e verità rovesciate, Einaudi, 2001, ISBN 8806150901 • Scarf, H.E., An analysis of markets with a large number of participants [3], 1962, Princeton University Conference Paper. Presente in Recent Advances in Game Theory, Philadelphia, The Ivy Curtis Press, 1962 • Sen, A.K. "The Impossibility of a Paretian Liberal", Journal of Political Economy, n. 78, 1970, pp 152-157. Collegamenti esterni • • • • Three Brief Proofs of Arrow’s Impossibility Theorem [4] Discussion of Arrow’s Theorem and Condorcet’s method [5] The Solution to Arrow's problem [6] Sito personale [7] di Herbert Scarf 252 Teorema della probabilità composta Teorema della probabilità composta Il teorema della probabilità composta deriva dal concetto di probabilità condizionata per cui la probabilità che due eventi si verifichino contemporaneamente è pari alla probabilità di uno dei due eventi moltiplicato con la probabilità dell'altro evento condizionato al verificarsi del primo. Nel caso di indipendenza stocastica si ottiene che la probabilità congiunta è pari al prodotto delle probabilità: A volte la probabilità congiunta viene anche indicata con Voci correlate • probabilità • probabilità condizionata • teorema della probabilità assoluta • teorema di Bayes Teorema di Duggan-Schwartz Il Teorema di Duggan-Schwartz fornisce la dimostrazione che ogni sistema elettorale che scelga un insieme non vuoto di vincitori, secondo un sistema di preferenze individuali, e dove siano almeno tre o più candidati, vale almeno una delle seguenti: 1. 2. 3. 4. Il sistema non è anonimo (alcuni votanti sono trattati in maniera differente), oppure Il sistema è impositivo (alcuni candidati non vincono mai), oppure Ogni preferito dei votanti è nell'insieme dei vincitori, oppure Il sistema è manipolato da un pessimista o da un ottimista Le prime due condizioni sono proibite in qualsiasi elezione onesta, la terza condizione richiede che molti candidati si uniscano per la vittoria. La conclusione generale, allora, è la stessa che di solito è data dal teorema di Gibbard-Satterthwaite: i sistemi di votazione possono essere manipolati. Il risultato essenzialmente permane anche quando le unioni sono autorizzate nelle votazioni; in quel caso esiste all'incirca un dittatore debole tale che all'incirca uno dei candidati che siano pari merito in cima ai risultati dell'elezione, sia un vincitore. Il teorema di Gibbard-Satterthwaite è un teorema che restringe il set di vincitori ad uno. Similmente il Teorema dell'impossibilità di Arrow tratta dei sistemi che danno una lista di preferenza dei singoli candidati, invece che scegliere vincitori. 253 Teorema di Duggan-Schwartz 254 Riferimenti • J. Duggan and T. Schwartz, "Strategic manipulability is inescapable: Gibbard-Satterthwaite without resoluteness", Working Papers 817, California Institute of Technology, Division of the Humanities and Social Sciences, 1992. • J. Duggan and T. Schwartz, "Strategic manipulability without resoluteness or shared beliefs: Gibbard-Satterthwaite generalized", Social Choice and Welfare, Vol. 17 (2000), pp. 85-93. • Alan D. Taylor, "The manipulability of voting systems", The American Mathematical Monthly, April 2002. • Alan D. Taylor, "Social Choice and the Mathematics of Manipulation", Cambridge University Press, 1st edition (2005), ISBN 0-521-00883-2. Chapter 4: Non-resolute voting rules. Teoria della probabilità La teoria della probabilità è lo studio matematico della probabilità. I matematici si riferiscono alle probabilità come a numeri nell'intervallo da 0 a 1, assegnati ad "eventi" la cui ricorrenza è casuale. Le probabilità sono assegnate ad eventi secondo gli assiomi della probabilità. La probabilità che un evento dato avvenga dato il verificarsi noto di un evento ; il suo valore numerico è condizionale di dato (finché è la probabilità condizionata di è diverso da zero). Se la probabilità è la stessa della probabilità ("non condizionale") di eventi indipendenti. Che questa relazione tra and che è la stessa cosa che dire , allora ed sono detti sia simmetrica, può essere visto più chiaramente osservando . Due concetti cruciali nella teoria della probabilità sono quelli di variabile casuale e di distribuzione probabilistica di una variabile casuale. In altri termini descrivere in termini probabilistici o statistici una fenomeno aleatorio nel tempo, caratterizzabile dunque da una variabile aleatoria, vuol dire descriverlo in termini di densità di distribuzione di probabilità e dei suoi parametri di media o valore atteso e varianza. Una visione astratta della probabilità I matematici ritengono che la teoria della probabilità sia lo studio di uno spazio astratto di probabilità (su cui sono ad esempio definite le variabili casuali o aleatorie), un approccio introdotto da Kolmogorov nel 1930 (anche detto approccio assiomatico). Uno spazio di probabilità è una terna , dove: • è un insieme non vuoto, a volte chiamato spazio campionario, ognuno dei cui membri si può pensare come un potenziale risultato di un esperimento casuale. Per esempio, se 100 votanti devono essere estratti a caso tra tutti i votanti di un insieme e ad essi viene chiesto per chi voteranno, allora l'insieme di tutte le sequenze dei 100 votanti sarebbe lo spazio campionario . • è una sigma-algebra di insiemi di i cui elementi sono chiamati eventi. Per esempio, l'insieme di tutte le sequenze di 100 elettori di cui almeno 60 voteranno per un certo candidato viene identitificato con l'"evento" che almeno 60 dei 100 elettori estratti voteranno in quel dato modo. Dire che F è una sigma-algebra implica necessariamente che il complemento di ogni evento è un evento, e l'unione di ogni sequenza (finita o infinita numerabile) di eventi è un evento. • P è una misura della probabilità in F, cioè una misura tale per cui P(Ω) = 1. È importante notare che P è definita in F e non in Ω. Con Ω numerabile possiamo definire F := insieme di potenza(Ω) che è banalmente una sigma-algebra ed il più grande che si possa creare usando Ω. In uno spazio discreto possiamo quindi omettere F e scrivere solo (Ω, P) per definirlo. Se d'altra parte Ω è non numerabile e si usa F = insieme di potenza(Ω) cadiamo nella difficoltà di definire la nostra misura di probabilità P perché F è 'immenso'. Quindi dobbiamo usare una sigma-algebra F più piccola (per esempio l'algebra di Borel di Ω). Si definisce questo tipo di spazio probabilistico uno spazio probabilistico continuo e ci porta Teoria della probabilità alcuni problemi nella teoria della misura quando proviamo a definire P. Una variabile casuale è una funzione misurabile in Ω. Per esempio, il numero di elettori che voteranno per un dato candidato nel campione di 100 dell'esempio precedente è una variabile casuale. Se X è una variabile casuale, l'insieme { ω in Ω : X(ω) ≥ 60 } è un "evento", e la notazione P(X ≥ 60) è un'abbreviazione di P({ ω in Ω : X(ω) ≥ 60 }). Per una alternativa algebrica all'approccio di Kolmogorov, vedi algebra delle variabili casuali. Filosofia delle applicazioni della probabilità Alcuni statistici assegneranno delle probabilità solo agli eventi che si pensano essere casuali, in base alle loro frequenze relative, o a sottoinsiemi di popolazione in relazione al tutto; questi sono frequentisti. Altri assegnano probabilità a proposizioni incerte o secondo gradi soggettivi di confidenza nella loro verità, o a livelli logicamente giustificabili di confidenza nella loro verità. Tali persone sono Bayesiani. Un Bayesiano può assegnare una probabilità alla proposizione che c'era vita su Marte un miliardo di anni fa, dal momento che questo è incerto; un frequentista non assegnerebbe una probabilità a tale proposizione, poiché non si tratta di un evento casuale che abbia una frequenza relativa a lungo termine. Voci correlate • • • • • • • • Probabilità Misura di probabilità Funzione di probabilità Valore atteso Evento Assiomi della probabilità Variabile casuale, distribuzione di probabilità Indipendenza statistica Bibliografia • • • • • • Billingsley Patrick, Probability and measure, 3rd ed., John Wiley & Sons, New York 1995, ISBN 0-471-00710-2. Jeffreys Harold (1939) The Theory of Probability Kolmogorov Andrey N. (1933) Grundbegriffe der Wahrscheinlichkeitrechnung. Laplace, Pierre S. (1812) Theorie Analytique des Probabilités. Nelson Edward (1987) Radically Elementary Probability Theory Yuri A. Rozanov (1995) Probability Theory, Random Processes and Mathematical statistics, Kluwer, ISBN 0-7923-3764-6 Altri progetti • Wikimedia Commons contiene file multimediali: http://commons.wikimedia.org/wiki/ Category:Probability theory 255 Tertium non datur Tertium non datur Tertium non datur (traduzione: un terzo (o una terza) non è dato/a) è una locuzione che appartiene al repertorio delle celebri frasi in lingua latina entrate a pieno diritto nel patrimonio culturale mondiale e non solo in quello italiano. Sta a significare che una terza soluzione (una terza via, o possibilità) non esiste rispetto a una situazione che paia prefigurarne soltanto due. Si potrebbe leggere quindi come: Non ci sono altre possibilità eccetto queste due. L'articolazione della frase - nella sua secchezza e laconicità - è piuttosto semplice: dove datur è la terza persona singolare passiva del verbo dare (quindi = "è dato") e tertium figura come aggettivo neutro (perciò non indicativamente maschile oppure femminile) sostantivato. La negazione non compare con lo stesso uso che ne fa la lingua italiana. Principio del terzo escluso L'espressione entra nella formulazione del principio logico del terzo escluso, che afferma che una proposizione P è o vera o falsa, non esiste una terza possibilità (Tertium non datur). Esso si trova già formulato nella Metafisica di Aristotele. Non è in altre parole possibile che due proposizioni contrarie siano entrambe non vere. Il principio del tertium non datur implica ed è più generale del principio di non-contraddizione, per il quale se una proposizione è vera, non lo è il suo contrario, fatto che a priori non esclude che entrambe possano essere non vere. La fondazione della matematica - in particolare attraverso la scuola intuizionista - non ne dà oggi per scontata l'autoevidenza. Anzi, esistono logiche alternative che negano esplicitamente la sua validità, ad esempio la logica fuzzy. È importante evidenziare che questo principio si differenzia dal principio di non contraddizione (o di consistenza), di cui non è un sinonimo. Voci correlate • Locuzioni latine 256 Valore atteso condizionato 257 Valore atteso condizionato Nella teoria della probabilità, il valore atteso condizionato (o media condizionata) di una variabile casuale è il suo valore atteso rispetto ad una distribuzione di probabilità condizionata. Trattamento discreto Il punto di partenza è la definizione di probabilità condizionata: dati due eventi A e B, la probabilità di A dato B è Allo stesso modo si può estendere la probabilità condizionata quando A e B sono esiti di due variabili casuali: (se il denominatore è diverso da 0; 0 altrimenti). In particolare, se B={y} e A={x}, si ha che, lasciando fisso y, può essere mediato: definendo quindi E[X|Y] come quella variabile casuale che vale E[X|Y=y] quando Y=y. Questa definizione, tuttavia, è consistente solamente nel caso in cui X e Y siano discrete, ma perde di senso quando sono continue, in quanto la probabilità che Y sia un certo valore y (così come quella che X sia x) è sempre 0. Per eliminare queste difficoltà la definizione prende strade diverse. Definizione Data una variabile casuale X e una σ-algebra , un valore atteso condizionato di X rispetto a è una variabile casuale Y tale che • Y è misurabile rispetto a ; • Y è in L1, cioè il suo modulo |Y| ha media finita; • per ogni (1 è la funzione indicatrice). Il risultato fondamentale che rende questa definizione sensata è l'esistenza, per ogni variabile casuale integrabile X e per ogni σ-algebra, di un valore atteso condizionato; inoltre due variabili casuali con queste caratteristiche sono uguali quasi certamente, e quindi possono essere considerate sostanzialmente "le stesse"; in tal caso si scrive Tale risultato può essere dimostrato a partire dal teorema di Radon-Nikodym, oppure tramite un argomento di approssimazione. La definizione è consistente con quella elementare se si pone cioè se si considera la σ-algebra generata dalla variabile casuale Z. Il valore atteso condizionato può essere interpretato come la miglior approssimazione che è possibile fare di X data l'"informazione" contenuta nella σ-algebra : così come la media E[X] minimizza la funzione quando c è un numero reale (ovvero una funzione misurabile sulla σ-algebra banale condizionato minimizza tra le variabili casuali ), così il valore -misurabili. Ovviamente questa Valore atteso condizionato 258 interpretazione può essere data solo quando X appartiene a L2. Proprietà Il valore atteso condizionato verifica tutte le maggiori proprietà del valore atteso: è positivo (cioè se allora ), lineare, e verifica i teoremi della convergenza monotona, della convergenza dominata e il lemma di Fatou quando le ipotesi sono verificate dalla successione {Xn}: ad esempio, se le Xn sono positive e la successione è crescente verso X, allora Un'altra proprietà fondamentale è la possibilità di calcolare una media attraverso il condizionamento: per ogni variabile casuale X e per ogni σ-algebra si ha formula che è utile nel calcolo di alcune medie, come nel caso in cui X è una variabile casuale definita da un parametro che è anch'esso causale. (Ad esempio, X potrebbe essere una variabile casuale binomiale in cui il numero di lanci è una variabile di Poisson.) Un'altra caratteristica è la "proprietà della torre": se sono due σ-algebre,, allora Bibliografia • David Williams, Probability with Martingales, Cambridge Mathematical Textbooks, 1991. ISBN 978-0-521-40605-5 Voci correlate • Martingala (matematica) Fonti e autori delle voci Fonti e autori delle voci Paradosso Fonte:: http://it.wikipedia.org/w/index.php?oldid=46365846 Autori:: A.g.allegretta, Albert2810, Alec, Alfredxz, Alonso 4ever, Ask21, Aushulz, Blakwolf, Carlo.Ierna, Durras, Fidio, Fluctuat, Freude.schoner.gotterfunken, Gabrio, Gacio, Gatto Nero, Goemon, Gspinoza, Helios, Hellis, Horcrux92, Ilfuria.awt, Ippogrifo, Kal-El, Kamina, L736E, Lorenz-pictures, Lucas, Luisa, Luke86, Magma, MarcoRosa, Marcok, Maurice Carbonaro, Morpheu5, Nemo bis, Oni link, OrbiliusMagister, Ostilio, Padanda, Pap3rinik, PersOnLine, Phantomas, Pietrodn, Pokipsy76, RanZag, Ranma25783, Senza nome.txt, Skywolf, Superchilum, Taueres, Tenebroso, TheLondoner, Trevinci, Twice25, UncleZeiv, ViciDig, Vituzzu, Vmoscarda, 48 Modifiche anonime Elenco di paradossi Fonte:: http://it.wikipedia.org/w/index.php?oldid=46819186 Autori:: .mau., Albert2810, Alberto da Calvairate, Alfreddo, Barbaking, Blakwolf, Camoz87, Carlo.Ierna, Dega180, Dr Zimbu, Felyx, Francesco8868, Frog, Ft1, Guam, Hellis, Ianezz, Johnlong, Laurom, Luca Antonelli, Lucas, Lucio Di Madaura, MLWatts, Marcok, Marcol-it, No2, Number 21, Pap3rinik, Piddu, Roberto.zanasi, Rossa1, Senza nome.txt, Sgrunf!, Shaka, Shivanarayana, Snowdog, Tomi, UncleZeiv, ViciDig, Vmoscarda, 38 Modifiche anonime Algebra di Boole Fonte:: http://it.wikipedia.org/w/index.php?oldid=46066888 Autori:: .snoopy., AKappa, Alberto da Calvairate, Alecobbe, AnyFile, Avemundi, Beta16, Blakwolf, Contezero, DaniDF1995, Davide, Depagen, Digitalone, DnaX, Durras, Enry17, Eumolpo, Fabexplosive, Fede Reghe, Fioravante Patrone, Fiox, Francesco Betti Sorbelli, Gabstef, Gionnico, Goemon, Ketersephirot, Kibira, Klemen Kocjancic, Lucat, Luigicaiffa, Marcel Bergeret, Marco Plassio, Marius, MartinoK, Mess, Paolovenezia, Pegua, Phantomas, Piddu, Pietrodn, Pracchia-78, Qualc1, RamsesII, Red Power, Rossa1, Salvatore Ingala, SkY`, Snowdog, Taueres, The Black, TierrayLibertad, Tridim, Trovatore, Ulisse0, Woodstock1, Ylebru, ^musaz, 117 Modifiche anonime Antinomie kantiane Fonte:: http://it.wikipedia.org/w/index.php?oldid=46702814 Autori:: Antonio G Colombo, Blakwolf, Carlo.Ierna, Cog, Evan60, Gierre, Guidomac, Iron Bishop, No2, Paphlagon, Sanremofilo, Senza nome.txt, Thespeaker8, Ulrich von Wilamowitz-Moellendorff, ViciDig, 5 Modifiche anonime Aristotele Fonte:: http://it.wikipedia.org/w/index.php?oldid=46550679 Autori:: .jhc., Acolleoni, Agostino64, Airon90, Alberto da Calvairate, Alec, Alessandrovittorio 19971962, Alfio, Alpi84genova, Amarvudol, Andreabrugiony, AnjaManix, Antiedipo, Antonio F. Rosanova, Aphaia, Arbaiten, Ares, Aristide Donadio, Aristo.tele6, Aristofane di bisanzio, Aristotele82, Arm991, Ary29, Askeron, Assianir, AttoRenato, Aushulz, Barbaking, Biopresto, Bonavolontà rocco, Borce, Brownout, Buggia, Carlo.Ierna, CavalloRazzo, Cesalpino, Ciceronianus900, Clovepower, Codas, Davide, Dedomonti, Demart81, Detextor, Dr Zimbu, Elcaracol, Elwood, Emisin, Emptywords, Ermetis, Ernesttico, Eugenio.Graziano, Eumolpo, Exorcist Z, F l a n k e r, F. Cosoleto, F.DelDongo, F.chiodo, Fabio Vescarelli, Fale, Felyx, Filippo Cantù, Filos96, Firegas, Flippo, FognettinaDolce, Francescorussig, Franco Ferracani, Franco3450, Franz Liszt, Frazzone, Fredericks, Frieda, Frigotoni, G.S., Gac, Gian-, Gierre, Giovdi, Glauco92, Guidomac, Guybrush Threepwood, Hashar, Hellis, Henrykus, Hrundi V. Bakshi, Iacoyeah, Ignlig, Incola, Irreprensibile, Jalo, Jorunn, K92, KS, KaeZar, Kamerroue, Kar.ma, Karloff, Kibira, Knight.93, L736E, Larry Yuma, Leonard Vertighel, Limonc, Lonrelu, Lord Anthony, Luisa, Luisius, M7, MM, Mac'ero, MapiVanPelt, Marco Bernardini, MarcoRosa, Marimal, Mark91, Marko86, Maryam Toumi, Mauro742, Maxzamboni, Mediatime, Megalexandros, Microsoikos, Minyatur, Nanae, Nicolaennio, No2, Omino di carta, OrbiliusMagister, Oroxon, Osk, Palica, Panairjdde, Paolo Di Febbo, Papesatan, Paphlagon, Pennac, Peppolinoscatafrongia, Phantomas, Piero, PieroSpeleo, Pracchia-78, Provinciale, Pyotr, Quatar, Resigua, Retaggio, Ricesco, Ripepette, Rojelio, Roscelese, Ruthven, Sailko, Sannita, Sbisolo, Seics, Septem, Shivanarayana, Simone.lippi, Square87, Squattaturi, Starlight, Starwars, Suisui, Syrio, Tartarox, Taueres, Template namespace initialisation script, Tenan, Thespeaker8, Ticket 2010081310004741, Tirinto, Torsolo, Trambolot, Truman Burbank, Twice25, Tycheros, Una giornata uggiosa '94, Valepert, Valerio79, Vincenzo Fatigati, Webinkiostrer, Werther W, Wikit2006, XScratchAx, Xavier121, Xinstalker, 313 Modifiche anonime Autoriferimento incrociato Fonte:: http://it.wikipedia.org/w/index.php?oldid=43615567 Autori:: AnjaManix, Bramfab, Eumolpo, Mizardellorsa, Piddu, 14 Modifiche anonime Beni di Giffen Fonte:: http://it.wikipedia.org/w/index.php?oldid=41666405 Autori:: Balfabio, GiorgioWiki, Leitfaden, Luckyz, No2, 6 Modifiche anonime Calcolo combinatorio Fonte:: http://it.wikipedia.org/w/index.php?oldid=45526298 Autori:: Abbax, Airon90, Alberto da Calvairate, Aleb, Bizio, Fale, Frazzone, Frieda, Frigotoni, Gim²y, Guido Maccioni, Guido Magnano, Hobione, Jalo, Kamina, Labba94, Leitfaden, Mikimouse3, Nick, Parerga, Phantomas, Pracchia-78, Qualc1, Ripepette, Shivanarayana, Snowdog, Tomi, Toobaz, Unriccio, Ylebru, 110 Modifiche anonime Combinazione Fonte:: http://it.wikipedia.org/w/index.php?oldid=46018436 Autori:: Alberto da Calvairate, Balzanilo, EH101, Fiaschi, Franztanz, Frieda, Gokhan, Gragusa, Hashar, Leitfaden, Leonard Vertighel, Llayumri, Phyk, Tomi, Utente, Ylebru, Zetazeti, h27.rcost.unisannio.it, 12 Modifiche anonime Dismutazione (matematica) Fonte:: http://it.wikipedia.org/w/index.php?oldid=34115853 Autori:: .mau., Heps, Nchiriano, No2, Squee, Stradanico, Tigerjak, Toobaz, Ylebru, 4 Modifiche anonime Disposizione Fonte:: http://it.wikipedia.org/w/index.php?oldid=37076182 Autori:: Agosteeno, Alberto da Calvairate, Fiaschi, Gierre, Gragusa, Leitfaden, Marcopil64, Michele-sama, Piddu, Pracchia-78, Rraucci, Sesquipedale, Wiso, Ylebru, Zetazeti, 6 Modifiche anonime Effetto Mpemba Fonte:: http://it.wikipedia.org/w/index.php?oldid=46466151 Autori:: Aushulz, BerlinerSchule, Bonarma, Caulfield, Moreno Bardazzi, Nevermindfc, Phantomas, 9 Modifiche anonime Effetto Venturi Fonte:: http://it.wikipedia.org/w/index.php?oldid=46665525 Autori:: A.C.95, A7N8X, Alberto Orlandini, Amaseca, Archenzo, Auro, Beard, Blakwolf, Cymon, Domyinik, Egretta, Eumolpa, F l a n k e r, Gabriele85, Gianluigi, Hill, Iron Bishop, Lucamanu, Luisa, MaD70, Miao, Mox83, Oile11, Poldo328, Pracchia-78, Qbert88, Retaggio, Robyvecchio, Simone, The Rain Keeper, Twice25, Vmoscarda, Ylebru, Zetazeti, 15 Modifiche anonime Esperimento immaginato Fonte:: http://it.wikipedia.org/w/index.php?oldid=30591731 Autori:: Albert2810, Andrea.gf, Chietta, Elitre, Felyx, Ggg, Kernel2037, Mr buick, Nickanc, Poldo328, SkedO, 4 Modifiche anonime Esperimento mentale Fonte:: http://it.wikipedia.org/w/index.php?oldid=45537442 Autori:: Albert2810, Andrea.gf, Chietta, Elitre, Felyx, Ggg, Kernel2037, Mr buick, Nickanc, Poldo328, SkedO, 4 Modifiche anonime Ex falso sequitur quodlibet Fonte:: http://it.wikipedia.org/w/index.php?oldid=45924997 Autori:: 4v4l0n42, AD10492, Ary29, Blakwolf, Brownout, Bultro, Earcar, GIM, Numerettiano, Phantomas, Pokipsy76, Rossa1, 7 Modifiche anonime Giovanni Buridano Fonte:: http://it.wikipedia.org/w/index.php?oldid=45818450 Autori:: Alberto da Calvairate, AndreA, AttoRenato, Bramfab, Carlo.Ierna, Cesalpino, DaveBlack, Helios, Luiclemens, Maria.martelli, Mr buick, O--o, Ontoraul, Patty, Phantomas, Progettualita, Salvatore Ingala, Sergiovaccaro, Snowdog, Vituzzu, 15 Modifiche anonime Guglielmo di Ockham Fonte:: http://it.wikipedia.org/w/index.php?oldid=46345372 Autori:: .jhc., AKappa, Accurimbono, Adert, Alec, Alpi84genova, AndreA, Andreabrugiony, Antiedipo, Askeron, Basilero, Basilicofresco, Bonavolontà rocco, Bua333, Carlo.Ierna, Daĉjo, Drossi, Federico di Svevia, Fluctuat, Fragolino, Francesco da Firenze, Frieda, GJo, Giorces, Goro!, Helios, Hellis, Ignlig, Ita01, Lingtft, Lp, Luigi.Vampa, Maitland, Malemar, Matgio, Medan, Metaphysicus, Moloch981, Nicola Gianinazzi, Ontoraul, Orion21, Phantomas, Pil56, Pinea, Pracchia-78, Rossa1, Sailko, Scriban, Shivanarayana, Snowdog, Starwars, Tappete, TierrayLibertad, Truman Burbank, Twice25, Webwizard, 46 Modifiche anonime Indipendenza stocastica Fonte:: http://it.wikipedia.org/w/index.php?oldid=43201816 Autori:: 213.21.174.xxx, Arodichevski, Basilero, Buggia, Eumolpo, Flyingstar16, Gala.martin, Lacurus, Lgentema, Piddu, Pokipsy76, Pracchia-78, Simone, Tomi, 5 Modifiche anonime Insieme sfocato Fonte:: http://it.wikipedia.org/w/index.php?oldid=42542115 Autori:: Aubrey, Aushulz, Bonand, DixonD, Hellis, L'alchimista, Massimiliano Lincetto, Megalexandros, Piddu, Rescartino, Salvatore Ingala, Sbisolo, Simone, Tomi, Toobaz, Wiso, Zo, cerberus.dis.uniroma1.it, pppfree166-188-bz.aknet.it, 7 Modifiche anonime Insieme sfumato Fonte:: http://it.wikipedia.org/w/index.php?oldid=8194182 Autori:: Aubrey, Aushulz, Bonand, DixonD, Hellis, L'alchimista, Massimiliano Lincetto, Megalexandros, Piddu, Rescartino, Salvatore Ingala, Sbisolo, Simone, Tomi, Toobaz, Wiso, Zo, cerberus.dis.uniroma1.it, pppfree166-188-bz.aknet.it, 7 Modifiche anonime Asino di Buridano Fonte:: http://it.wikipedia.org/w/index.php?oldid=45922222 Autori:: Airon90, Dome, Fiertel91, Gean, Guerrinho, Llorenzi, Luckyz, Sailko, Sanremofilo, Sergiovaccaro, Tenebroso, Teocrito, Vale maio, Vituzzu, 2 Modifiche anonime Logica fuzzy Fonte:: http://it.wikipedia.org/w/index.php?oldid=45015411 Autori:: *Raphael*, .snoopy., AD10492, Aangelo, Alberto da Calvairate, AttoRenato, Aushulz, Beetstra, Blakwolf, Blucheri, Carlo.Ierna, Carlo.milanesi, Chem, Ciro07, Davser, Derfel74, Dommac, Frieda, Gerla, Hashar, Hellis, Krzysiulek, Larry.europe, Laurentius, Marcok, Maurice Carbonaro, Michail, Nemo bis, Nickanc, Patafisik, Piddu, Pier Paolo Ramon, Piero, Stemby, Tomi, Vasta, Wiso, Xander2k, Ylebru, pppfree166-188-bz.aknet.it, 50 Modifiche anonime Logica polivalente Fonte:: http://it.wikipedia.org/w/index.php?oldid=45106440 Autori:: AD10492, Basilero, Bina78, Bjankuloski06it, Cobalttempest, Dega180, Derfel74, Digitmaster, Krdan, Megalexandros, 8 Modifiche anonime Oggetto impossibile Fonte:: http://it.wikipedia.org/w/index.php?oldid=41390662 Autori:: ARTE, Chrx, Guam, MaxDel, Numbo3, Twice25, 8 Modifiche anonime 259 Fonti e autori delle voci Paradossi dell'infinito Fonte:: http://it.wikipedia.org/w/index.php?oldid=45297923 Autori:: Buggia, Colom, Gac, Hellis, Kal-El, Matra dj, Nickanc, Piddu, Remulazz, Uahlim, ViciDig, 3 Modifiche anonime Paradossi di Zenone Fonte:: http://it.wikipedia.org/w/index.php?oldid=45508128 Autori:: *Alby*, .mau., Airon90, Albert2810, Alfio, Andrea Jagher, Ares, Auro, Blakwolf, Broglie, ChemicalBit, Dante78, DarkAp, Elwood, Francia8870, Giovypedia, Guam, Guidomac, Gvittucci, Icaro, Ilario, Iron Bishop, Jacopo, Jadajava, LGB, Limonc, Luisa, MapiVanPelt, Maquesta, Marko86, Menion89, Michele Bergadano, Nevermore, Nickanc, Numala, Panairjdde, Paolo Lipparini, Pokipsy76, Restu20, Riccioli72, Salvo da Palermo, Sartore, Senza nome.txt, Snowdog, THeK3nger, Tarlo88, Taueres, Tia solzago, Titian1962, ViciDig, Vituzzu, Wikit2006, 81 Modifiche anonime Paradosso asiatico (cardiologia) Fonte:: http://it.wikipedia.org/w/index.php?oldid=18484817 Autori:: Harlock81, Marcordb, Medan, Superchilum Paradosso dei corvi Fonte:: http://it.wikipedia.org/w/index.php?oldid=34546464 Autori:: Blakwolf, Buggia, Carlo.Ierna, Cesalpino, Megalexandros, Phantomas, Piddu, Senza nome.txt, 6 Modifiche anonime Paradosso dei due bambini Fonte:: http://it.wikipedia.org/w/index.php?oldid=45175590 Autori:: Cloj, Garibaldino, Hellis, LucAndrea, Lucbie, Lumage, Merovingian, Nrykko, Piddu, Sandrobt, Tomi, Toobaz, 10 Modifiche anonime Paradosso dei gemelli Fonte:: http://it.wikipedia.org/w/index.php?oldid=46353338 Autori:: Alfio, Ares, Aushulz, Blakwolf, Buggia, Davricci, Edgardof, Elwood, Galessandroni, Ggg, Gianluigi, Guam, Lukius, MaiDireChiara, Massimiliano Lincetto, Mtt, Nick, Omino di carta, PaoloC2008, Spinoziano, Ticket 2010081310004741, ^musaz, 33 Modifiche anonime Paradosso del bibliotecario Fonte:: http://it.wikipedia.org/w/index.php?oldid=41477081 Autori:: Ares, Blakwolf, Guam, Laurom, Lola Voss, LucaLuca, MLWatts, Marcol-it, Massimiliano Lincetto, Mtt, Piddu, Schickaneder, Snowdog, Spirit, Stefano Bit, Taccolamat, 2 Modifiche anonime Paradosso del Comma 22 Fonte:: http://it.wikipedia.org/w/index.php?oldid=46049688 Autori:: Baruneju, Blakwolf, Geralt93, Guam, Hellis, Horatius, Marcok, Maurice Carbonaro, Newneo, Nyc99, Piddu, Poweruser, Sbisolo, Senza nome.txt, Sid-Vicious, Tonii, Twice25, Vituzzu, 18 Modifiche anonime Paradosso del compleanno Fonte:: http://it.wikipedia.org/w/index.php?oldid=45843252 Autori:: *Raphael*, .mau., Abisys, Alez, Blue star 19, Cenncroithi, Colom, Fafabifiofo, Gi87, Guam, Hellis, Leo72, Luciodem, Marius, Mauron, Michele-sama, Pacionet, Piddu, Poeta60, Rael, Sbisolo, Simo ubuntu, Tomi, Wanblee, Wikiradar, Wolland, Yoruno, 17 Modifiche anonime Paradosso del gatto di Schrödinger Fonte:: http://it.wikipedia.org/w/index.php?oldid=46759794 Autori:: .jhc., Adamanttt, Airon90, Albert2810, Alexsergio, Andreinho10, Annuale, Antonio la trippa, Ares, B3t, Bangone, Belphagor, Beniy, Blakwolf, Buzzbomber, CavalloRazzo, Cinerino, Cloj, Codas, Codeberry, Dammister, Davidesrt95, Dr Zimbu, Elassar, Enrr-ve, Ercolano, Fabrizio.ciacchi, Federico Fiandro, Fenice1956, Filippof, FoLg0re, Fondamentale mancante, Gabstef, Gepgenius, Gianluigi, Gliu, Guam, Hannibale23, Hashar, Hellis, Imdrunk, Ivan Grebenshikov, Kaeso, Kataskematico, Klodjo, Koji, Kruiser, Lenore, Lucasalvatori, Mac'ero, Mago Merlino, MapiVanPelt, Mark91, Matt425, Maurice Carbonaro, Mda, Midnight bird, Misterakko, Misterioso, Morgoth92, Pask77, Pberta, PhOeNixX, Piddu, Pokipsy76, Popop, Pracchia-78, PravoSlav, R.Q. - Deiv, Remulazz, Restu20, Retaggio, Roccopozzi, Rossa1, Senza nome.txt, Simo82, Soltanto uno, Tamaalurda, Template namespace initialisation script, Ticket 2010081310004741, Tomi, Tommaso Ferrara, Tr8lina, Tralfamadore, Tscondor, Twice25, UgoBerlino, Wadysh, Winged Zephiro, Xavor85, Ylebru, Zaldo, 217 Modifiche anonime Paradosso del gatto imburrato Fonte:: http://it.wikipedia.org/w/index.php?oldid=46792293 Autori:: .mau., Adamanttt, Almadannata, AnjaManix, Barbaking, Basilero, Beechs, Borgil, Buggia, Calogero P.1597, CavalloRazzo, ChemicalBit, Dariuz borghigiano, Desmodromico, Dogah, EnergyDome, Fabrizio.ciacchi, Fidech, FollowTheMedia, Gig, Guido Magnano, Guidomac, Harlock81, Hellis, Jacopo.luppino, Jaqen, Lenore, Llorenzi, Maquesta, Marcol-it, Marluk, Massimiliano Lincetto, Mda, Mikelima, Moroboshi, Nickanc, No2, OppidumNissenae, Pequod76, Pietrofdm, Pirru, Pokipsy76, Raptor87, Red devil 666, Riccardoghinelli, Rojelio, Rollopack, Sailko, Shaka, SunOfErat, Talon, Tomfox, Toobaz, Twice25, Una giornata uggiosa '94, ViciDig, WikiKiwi, Zerosei, Zénon Kitieùs, 34 Modifiche anonime Paradosso del Grand Hotel di Hilbert Fonte:: http://it.wikipedia.org/w/index.php?oldid=46682774 Autori:: ARTE, Dega180, Francescorussig, Jaqen, Lucha, MM, Mtt, Piddu, Salvatore Ingala, 10 Modifiche anonime Paradosso del mentitore Fonte:: http://it.wikipedia.org/w/index.php?oldid=44333013 Autori:: AD10492, Andrea Jagher, Andrea994, Baruneju, Blakwolf, Cisco79, Ernest H, Fiertel91, Frieda, Gierre, Jollyroger, Kal-El, Kerron, Leitfaden, Littoria, Lucius, Mattepiero, Mikispag, No2, Orion21, Pequod76, Phantomas, Piddu, Romagnolo 2, Senza nome.txt, Stefano Bit, Tonyfroio, WinstonSmith, ZioNicco, 31 Modifiche anonime Paradosso del nonno Fonte:: http://it.wikipedia.org/w/index.php?oldid=45189523 Autori:: Ares, Ary29, Berto, Delas, Eumolpo, Franz Liszt, Freude.schoner.gotterfunken, Gabrasca, GinoC, Gspinoza, Hellis, Iafusco, IvaTrieste, JEDI, Jaqen, Kal-El, Kasper2006, Ladycry84, Lenore, Lfabria, Luca Z.za, Marcok, Mtt, Number 21, Piracmone, Pyotr, Quatar, Rgrg, Senza nome.txt, Skywolf, Trapanator, Valepert, Zanzarino, 36 Modifiche anonime Paradosso del quiz Fonte:: http://it.wikipedia.org/w/index.php?oldid=25168110 Autori:: Antiedipo, Basilero, Gierre, Soprano71, 8 Modifiche anonime Paradosso del sorite Fonte:: http://it.wikipedia.org/w/index.php?oldid=40786664 Autori:: Dr Zimbu, Eumolpo, Phantomas, 8 Modifiche anonime Paradosso dell'Alabama Fonte:: http://it.wikipedia.org/w/index.php?oldid=25240699 Autori:: .mau., Alfio, Amarvudol, Blakwolf, Ft1, Helios, Senpai, Shaka, Twice25, 4 Modifiche anonime Paradosso dell'amico di Wigner Fonte:: http://it.wikipedia.org/w/index.php?oldid=45354262 Autori:: Codicorumus, Grigio60, Lenore, Pasqui23, Winged Zephiro, 3 Modifiche anonime Paradosso dell'area scomparsa Fonte:: http://it.wikipedia.org/w/index.php?oldid=39182531 Autori:: Bayle, Bjankuloski06it, Franco56, Gatto Epicuro, Guam, Guidomac, Gusme, Paginazero, Phantomas, Piddu, Snark, 15 Modifiche anonime Paradosso dell'avvocato Fonte:: http://it.wikipedia.org/w/index.php?oldid=45920942 Autori:: Airon90, Ary29, Civvì, Dede4metal, Fantasma, Infovarius, Senpai, Senza nome.txt, SpeDIt, 1 Modifiche anonime Paradosso dell'edonismo Fonte:: http://it.wikipedia.org/w/index.php?oldid=39102121 Autori:: Carlomorino, Phantomas, 4 Modifiche anonime Paradosso dell'impiccagione imprevedibile Fonte:: http://it.wikipedia.org/w/index.php?oldid=32499697 Autori:: .jhc., Baruneju, Ft1, Gierre, Gvittucci, Luca Carati, Lucas, Oks, PersOnLine, Piddu, Senpai, Snowdog, ViciDig, 3 Modifiche anonime Paradosso dell'informazione del buco nero Fonte:: http://it.wikipedia.org/w/index.php?oldid=43028448 Autori:: Black Shadow, Carlog3, Chietta, EffeX2, Jaakko, Marko86, Z-angel, ^musaz, 4 Modifiche anonime Paradosso dell'ipergioco Fonte:: http://it.wikipedia.org/w/index.php?oldid=41835598 Autori:: Blakwolf, Castagna, Kal-El, Luca Antonelli, Moongateclimber, Nalegato, Piddu, Sandrobt, Spirit, 19 Modifiche anonime Paradosso dell'onnipotenza Fonte:: http://it.wikipedia.org/w/index.php?oldid=43521539 Autori:: BlimpyZo, Grigio60, H Plus, L'Essere corretto dal Forse, Lucas, Mickey83, Paola Severi Michelangeli, PersOnLine, RanZag, Superzen, Tenebroso, 7 Modifiche anonime Paradosso dell'onniscienza Fonte:: http://it.wikipedia.org/w/index.php?oldid=30146154 Autori:: *Raphael*, AD10492, Aki 01, Blakwolf, G.dallorto, GIM, Gala.martin, Giovannigobbin, GuidoGer, HowlingMad, Iscritto, Jcer, Kal-El, Lillolollo, Lorenz-pictures, Lucas, Makenor13, Marcus90, Marius, Maxcarli, Mickey83, Mtt, Pap3rinik, PersOnLine, Pokipsy76, Riccardov, Rob-ot, RobertoReggi, Saint-Just, Smèagol, Ticket2009082110052454, Tzu, Ulisse0, 40 Modifiche anonime Paradosso dell'uovo e della gallina Fonte:: http://it.wikipedia.org/w/index.php?oldid=44624855 Autori:: Barbaking, Carlo.Ierna, Delfo Curioso, Dobby, Dr Zimbu, Eumolpo, Francesca Viale, Galloramenu, Gnumarcoo, Kriss4Christ, Lotho2, Mark91, Midnight bird, Nickanc, PersOnLine, Piddu, Pracchia-78, RaminusFalcon, RanZag, Smèagol, Starwars, Superchilum, UgoBerlin, 28 Modifiche anonime Paradosso della linea scomparsa Fonte:: http://it.wikipedia.org/w/index.php?oldid=35520683 Autori:: Buggia, Guam, Piddu, 1 Modifiche anonime Paradosso della nave di Teseo Fonte:: http://it.wikipedia.org/w/index.php?oldid=43534986 Autori:: .mau., AmonSûl, Ares, Carlo.Ierna, Hellis, La Nuova Idea (mia), Madaki, Mela, Piddu, Senza nome.txt, Snowdog, Tkt2008123110019475, Uahlim, 4 Modifiche anonime Paradosso della votazione Fonte:: http://it.wikipedia.org/w/index.php?oldid=1532023 Autori:: .jhc., Alberto da Calvairate, Amanconi, Amux, Ary29, Ayanami Rei, Blakwolf, Emanuel, Fioravante Patrone, Guam, Guidomac, Gvittucci, Kanchelskis, Moroboshi, Paulkh, Peppedeninno, Pomo 00, Salvatore Ingala, Sannita, Sbisolo, Senza nome.txt, 19 Modifiche anonime 260 Fonti e autori delle voci Paradosso delle due buste Fonte:: http://it.wikipedia.org/w/index.php?oldid=44513128 Autori:: .mau., Al Pereira, Antiedipo, Avemundi, Fioravante Patrone, Gac, Gim²y, Jalo, Kaspo, LucaLuca, Mykelyk, Piddu, Pokipsy76, Rdocb, Shivanarayana, Tia solzago, Toobaz, ViciDig, ZioNicco, 5 Modifiche anonime Paradosso delle tre carte Fonte:: http://it.wikipedia.org/w/index.php?oldid=45400576 Autori:: Andpagl, Andrea.gf, Baroc, Basilero, Cloj, F l a n k e r, Godaime, MapiVanPelt, Michele-sama, Mp3.7, Pequod76, PersOnLine, Piddu, Tomi, Toobaz, 14 Modifiche anonime Paradosso di Abilene Fonte:: http://it.wikipedia.org/w/index.php?oldid=37537108 Autori:: Al Pereira, Ary29, Berto77, Bultro, Crikkola, Fredericks, Helios, Jón, Moloch981, Stefano Bit, White wolf, 5 Modifiche anonime Paradosso di Achille e la tartaruga Fonte:: http://it.wikipedia.org/w/index.php?oldid=46287256 Autori:: Albert2810, Dr Zimbu, Elitre, Francisco83pv, Hybridslinky, LGB, Michele Bergadano, Sanremofilo, Tirinto, Wolland, 4 Modifiche anonime Paradosso di Berry Fonte:: http://it.wikipedia.org/w/index.php?oldid=45494470 Autori:: .mau., Alberto da Calvairate, Alefalco, Gianluigi, Guam, Mitchan, Piddu, Poweruser, Sbisolo, Tomi, Vittoso, 2 Modifiche anonime Paradosso di Bertrand Fonte:: http://it.wikipedia.org/w/index.php?oldid=46364966 Autori:: A. di M., Avemundi, Eumolpo, Guardianodelfaro, Hellis, Incnis Mrsi, Mattiabona, Maxos, Piddu, ViciDig, 3 Modifiche anonime Paradosso di Buridano Fonte:: http://it.wikipedia.org/w/index.php?oldid=39157404 Autori:: Airon90, Dome, Fiertel91, Gean, Guerrinho, Llorenzi, Luckyz, Sailko, Sanremofilo, Sergiovaccaro, Tenebroso, Teocrito, Vale maio, Vituzzu, 2 Modifiche anonime Paradosso di Condorcet Fonte:: http://it.wikipedia.org/w/index.php?oldid=44574286 Autori:: Al Pereira, Blakwolf, Castagna, DanGarb, F.chiodo, Helios, Luckyz, Moroboshi, Numbo3, Salvatore Ingala, ViciDig, Vmoscarda, Voldemort87, 10 Modifiche anonime Paradosso di Curry Fonte:: http://it.wikipedia.org/w/index.php?oldid=46305169 Autori:: Alec, Theaetetus, 5 Modifiche anonime Paradosso di D'Alembert Fonte:: http://it.wikipedia.org/w/index.php?oldid=15020032 Autori:: Al Pereira, F l a n k e r, Lusum, Nemo bis, Omino di carta, Salvatore Ingala, Senpai, Ub, 10 Modifiche anonime Paradosso di Easterlin Fonte:: http://it.wikipedia.org/w/index.php?oldid=45384017 Autori:: AnjaQantina, Avemundi, Bultro, Casol, Fabio.gastone, Pipep, 14 Modifiche anonime Paradosso di Einstein-Podolsky-Rosen Fonte:: http://it.wikipedia.org/w/index.php?oldid=46501601 Autori:: Alberto da Calvairate, Andsalomoni, Angelo Mascaro, Antonio d'alessandro, AttoRenato, BCtl, Batmang, Berto, Blakwolf, Codas, Cruccone, Ermopan, Estragon, Eumolpo, Franco3450, Fredericks, Guam, Hellis, Leccher, Lenore, Lie, LoStrangolatore, Loox, Lucio Di Madaura, Marcok, Montinar, Nick, Ormagandalf, Phantomas, Piddu, Rojelio, Rupertsciamenna, Sbisolo, Senza nome.txt, Sergio.ballestrero, Skywolf, UgoBerlin, Wanblee, ^musaz, 56 Modifiche anonime Paradosso di Epimenide Fonte:: http://it.wikipedia.org/w/index.php?oldid=1240245 Autori:: AD10492, Andrea Jagher, Andrea994, Baruneju, Blakwolf, Cisco79, Ernest H, Fiertel91, Frieda, Gierre, Jollyroger, Kal-El, Kerron, Leitfaden, Littoria, Lucius, Mattepiero, Mikispag, No2, Orion21, Pequod76, Phantomas, Piddu, Romagnolo 2, Senza nome.txt, Stefano Bit, Tonyfroio, WinstonSmith, ZioNicco, 31 Modifiche anonime Paradosso di Fermi Fonte:: http://it.wikipedia.org/w/index.php?oldid=45980161 Autori:: AgenteMulder, Alfio, BRG, Bramfab, CioDu, Codas, Cog, Emanu, F.cioni, FSosio, Gab.pr, Gac, Giulianorock, Guam, Hill, Ignlig, Johnlong, Lingam, Linusrocks, LoStrangolatore, Mactep, Marcok, Mda, OliverZena, Pasquale.Carelli, Phantomas, Pracchia-78, Prodocevano, Rupertsciamenna, SPKirsch, Snowdog, Starmaker, Udufruduhu, Ulisse0, WinstonSmith, Wizard, 59 Modifiche anonime Paradosso di Gibbs Fonte:: http://it.wikipedia.org/w/index.php?oldid=42265135 Autori:: A. di M., A7N8X, Antal, AttoRenato, Aushulz, ChemicalBit, Cisco79, Koji, MenoUNO, Nase, 7 Modifiche anonime Paradosso di Hempel Fonte:: http://it.wikipedia.org/w/index.php?oldid=1241627 Autori:: Blakwolf, Buggia, Carlo.Ierna, Cesalpino, Megalexandros, Phantomas, Piddu, Senza nome.txt, 6 Modifiche anonime Paradosso di Moore Fonte:: http://it.wikipedia.org/w/index.php?oldid=29464390 Autori:: Guam, Jaqen, Larry Yuma, Phantomas, Tommaso67, Vmoscarda, 1 Modifiche anonime Paradosso di Newcomb Fonte:: http://it.wikipedia.org/w/index.php?oldid=8461303 Autori:: A.g.allegretta, Albert2810, Alec, Alfredxz, Alonso 4ever, Ask21, Aushulz, Blakwolf, Carlo.Ierna, Durras, Fidio, Fluctuat, Freude.schoner.gotterfunken, Gabrio, Gacio, Gatto Nero, Goemon, Gspinoza, Helios, Hellis, Horcrux92, Ilfuria.awt, Ippogrifo, Kal-El, Kamina, L736E, Lorenz-pictures, Lucas, Luisa, Luke86, Magma, MarcoRosa, Marcok, Maurice Carbonaro, Morpheu5, Nemo bis, Oni link, OrbiliusMagister, Ostilio, Padanda, Pap3rinik, PersOnLine, Phantomas, Pietrodn, Pokipsy76, RanZag, Ranma25783, Senza nome.txt, Skywolf, Superchilum, Taueres, Tenebroso, TheLondoner, Trevinci, Twice25, UncleZeiv, ViciDig, Vituzzu, Vmoscarda, 48 Modifiche anonime Paradosso di Olbers Fonte:: http://it.wikipedia.org/w/index.php?oldid=46520158 Autori:: Alexander VIII, Alfio, Aushulz, Blakwolf, Cesalpino, Cog, Guam, Gvf, Joana, Kirill, Luisa, Lukius, Mizardellorsa, Natalia.missana, Paperoastro, Romanm, Starmaker, Starwars, 22 Modifiche anonime Paradosso di Protagora Fonte:: http://it.wikipedia.org/w/index.php?oldid=1240293 Autori:: Airon90, Ary29, Civvì, Dede4metal, Fantasma, Infovarius, Senpai, Senza nome.txt, SpeDIt, 1 Modifiche anonime Paradosso di Richard Fonte:: http://it.wikipedia.org/w/index.php?oldid=43234901 Autori:: .mau., Alberto da Calvairate, Ares, ArtAttack, AttoRenato, Aushulz, Cruccone, Gianluigi, Giorgian, Guam, Hellis, Hill, Piddu, Pokipsy76, Poweruser, Sbisolo, Snowdog, Wing, 3 Modifiche anonime Paradosso di Russell Fonte:: http://it.wikipedia.org/w/index.php?oldid=46387483 Autori:: ArmandoEdera, Askeron, Azrael555, Beta16, Blakwolf, Carlo.Ierna, Dave4mame, Davide, Dome, Elwood, Engineer123, Ephestione, Erinaceus, Eumolpo, Faaabio, Frieda, Ft1, Gaspy81, Giacomo Ritucci, Gian-, Gianluigi, Giomol, Giorgian, Guam, Guidomac, Inciampandosulleacque, Jacopo, Jethro85, MLWatts, MartinBk, Melmood, MisterMicro, Mizardellorsa, Mtt, NeRi, Nicoli, Pap3rinik, Piddu, Popop, Pracchia-78, Razzairpina, Red devil 666, Salvatore Ingala, Sandrobt, Snowdog, Suisui, Taueres, Tomi, Twice25, Voldemort87, 74 Modifiche anonime Paradosso di San Pietroburgo Fonte:: http://it.wikipedia.org/w/index.php?oldid=44055279 Autori:: .mau., ARTE, Albert2810, Ask21, Basilicofresco, Buggia, Elwood, PersOnLine, Piddu, Pil56, Raffo 83, Trixt, ViciDig, 10 Modifiche anonime Paradosso di Simpson Fonte:: http://it.wikipedia.org/w/index.php?oldid=43753741 Autori:: .mau., Amanconi, Arodichevski, Avesan, Goochelaar, Guam, Gvittucci, Mox83, Piddu, Tomi, Utente, 8 Modifiche anonime Paradosso di Smale Fonte:: http://it.wikipedia.org/w/index.php?oldid=46467347 Autori:: Baroc, Felyx, Piddu Paradosso di Stein Fonte:: http://it.wikipedia.org/w/index.php?oldid=44292897 Autori:: Andrisano Antonio, EffeX2, Fabio.gastone, Pablowsky, RanZag, 1 Modifiche anonime Paradosso Einstein-Podolsky-Rosen Fonte:: http://it.wikipedia.org/w/index.php?oldid=16932442 Autori:: Alberto da Calvairate, Andsalomoni, Angelo Mascaro, Antonio d'alessandro, AttoRenato, BCtl, Batmang, Berto, Blakwolf, Codas, Cruccone, Ermopan, Estragon, Eumolpo, Franco3450, Fredericks, Guam, Hellis, Leccher, Lenore, Lie, LoStrangolatore, Loox, Lucio Di Madaura, Marcok, Montinar, Nick, Ormagandalf, Phantomas, Piddu, Rojelio, Rupertsciamenna, Sbisolo, Senza nome.txt, Sergio.ballestrero, Skywolf, UgoBerlin, Wanblee, ^musaz, 56 Modifiche anonime Paradosso idrostatico Fonte:: http://it.wikipedia.org/w/index.php?oldid=41341067 Autori:: Ask21, Sleuvis, Vmoscarda, 5 Modifiche anonime Paradosso temporale Fonte:: http://it.wikipedia.org/w/index.php?oldid=42757642 Autori:: ArtAttack, Basilero, Black mamba, Giovanni Parisi, Hellis, Ianezz, Kelvinclein, KingFanel, Lenore, Marcok, Mau db, Mess, PaoloBarabucci, Patafisik, PersOnLine, Senpai, Shìnzon, Tridim, Walecs, 21 Modifiche anonime Paradosso teologico Fonte:: http://it.wikipedia.org/w/index.php?oldid=45470487 Autori:: *Raphael*, AD10492, Aki 01, Blakwolf, G.dallorto, GIM, Gala.martin, Giovannigobbin, GuidoGer, HowlingMad, Iscritto, Jcer, Kal-El, Lillolollo, Lorenz-pictures, Lucas, Makenor13, Marcus90, Marius, Maxcarli, Mickey83, Mtt, Pap3rinik, PersOnLine, Pokipsy76, Riccardov, Rob-ot, RobertoReggi, Saint-Just, Smèagol, Ticket2009082110052454, Tzu, Ulisse0, 40 Modifiche anonime 261 Fonti e autori delle voci Permutazione Fonte:: http://it.wikipedia.org/w/index.php?oldid=46505932 Autori:: 213.21.175.xxx, Actam, Aldur, Alfio, Andreas Carter, Arodichevski, Baruneju, Cesalpino, DanGarb, Delas, Fabuio, Gabrasca, Gassendi, Leitfaden, Piddu, Pokipsy76, Romanm, Salvatore Ingala, Sandrobt, Simone, Snowdog, Squee, Suisui, Tomi, Toobaz, Ylebru, Zirius, 19 Modifiche anonime Principio dei cassetti Fonte:: http://it.wikipedia.org/w/index.php?oldid=43808281 Autori:: .mau., Alberto da Calvairate, Aldur, Avesan, Freddo, Goochelaar, HT, Hellis, Horcrux92, J.t.carbo, Piddu, Roberto.zanasi, Ylebru, 13 Modifiche anonime Principio di non contraddizione Fonte:: http://it.wikipedia.org/w/index.php?oldid=42559045 Autori:: .anaconda, AD10492, Andrea Jagher, Blakwolf, Bultro, Carlo.Ierna, GIM, Grigio60, Horcrux92, Johnlong, Jotar, Maurizio.Zani, Michail, No2, Pokipsy76, 18 Modifiche anonime Probabilità Fonte:: http://it.wikipedia.org/w/index.php?oldid=45185361 Autori:: 213.21.174.xxx, Alberto da Calvairate, Alearr, Alec, Angela Bonora, Blakwolf, Cesalpino, Codicorumus, Erasmo Barresi, F.chiodo, Fredericks, Gabriel96, Gacio, Gcappellotto, GiovanniS, Giovannigobbin, Gipiz, Giulio.Nic, Guidomac, Hashar, Ilario, Jalo, Joana, Leitfaden, Luisa, M7, Massimiliano Lincetto, Mau db, MenoUNO, Michele-sama, Mr buick, Phantomas, Piddu, Profste, Riccioli72, Shaka, Snowdog, StefaPorce, Suisui, Tener, Ticket 2010081310004741, Tomi, Toobaz, Twice25, Valitutti, Vituzzu, Ylebru, ^musaz, pppfree165-26-bz.aknet.it, 91 Modifiche anonime Probabilità condizionata Fonte:: http://it.wikipedia.org/w/index.php?oldid=45918990 Autori:: 213.21.174.xxx, Andrisano Antonio, Arodichevski, Barrfind, Buggia, Emptywords, Felisopus, Joevinegar, Leitfaden, Piddu, Pokipsy76, Simone, Suisui, Tomi, Tridim, 19 Modifiche anonime Probabilità congiunta Fonte:: http://it.wikipedia.org/w/index.php?oldid=4837264 Autori:: 213.21.174.xxx, Amanconi, Arodichevski, Baroc, Buggia, Llorenzi, Piddu, Salvatore Ingala, Sandrobt, Simone, Tomi Problema di Monty Hall Fonte:: http://it.wikipedia.org/w/index.php?oldid=46649458 Autori:: .mau., Airon90, Amanconi, Assianir, Aushulz, Avesan, B3t, Camera 9, Carlo.milanesi, CavalloRazzo, Diego Petrucci, Doctor Dodge, Dr Zimbu, Etienne, Eumolpo, EvilPrince, Fradelpra, Gvittucci, Hellis, Hires, Holdme, Il Teu, Incola, Jakbest, Joana, Kasper2006, LaseriumFloyd, Luca Antonelli, Lumage, Marco.parrilla, Matrix87, Metallo, Michele-sama, Mp3.7, Mpitt, Noieraieri, Phantomas, Piddu, Sandrobt, Sesquipedale, Snowdog, Square87, Stark79, Superzen, The Kraff, Tia solzago, Ticket 2010081310004741, Tomi, Toobaz, Trixt, Ylebru, 90 Modifiche anonime Questione ipotetica (teologia) Fonte:: http://it.wikipedia.org/w/index.php?oldid=34729660 Autori:: Ggg, Guidomac, RobertoReggi, 1 Modifiche anonime Teorema dell'impossibilità di Arrow Fonte:: http://it.wikipedia.org/w/index.php?oldid=39089593 Autori:: .jhc., Alberto da Calvairate, Amanconi, Amux, Ary29, Ayanami Rei, Blakwolf, Emanuel, Fioravante Patrone, Guam, Guidomac, Gvittucci, Kanchelskis, Moroboshi, Paulkh, Peppedeninno, Pomo 00, Salvatore Ingala, Sannita, Sbisolo, Senza nome.txt, 19 Modifiche anonime Teorema della probabilità composta Fonte:: http://it.wikipedia.org/w/index.php?oldid=43716481 Autori:: 213.21.174.xxx, Amanconi, Arodichevski, Baroc, Buggia, Llorenzi, Piddu, Salvatore Ingala, Sandrobt, Simone, Tomi Teorema di Duggan-Schwartz Fonte:: http://it.wikipedia.org/w/index.php?oldid=35921992 Autori:: Andrisano Antonio, Blakwolf, Pracchia-78 Teoria della probabilità Fonte:: http://it.wikipedia.org/w/index.php?oldid=44747751 Autori:: Amanconi, Avesan, Beewan1972, Cesalpino, Dr Zimbu, Frieda, Gala.martin, Joevinegar, Leitfaden, Lgentema, Lyell01, Microsoikos, Nihil, No2, Piddu, Piero Montesacro, Pil56, Rollopack, Sigifredobau, Tomi, Tonello, Ylebru, ^musaz, 17 Modifiche anonime Tertium non datur Fonte:: http://it.wikipedia.org/w/index.php?oldid=46291381 Autori:: .mau., AD10492, Aspasia, Blakwolf, Bramfab, Carlo.Ierna, Laurom, Michail, Pegua, Red83, Rossa1, Salvo da Palermo, Twice25, ViciDig, 2 Modifiche anonime Valore atteso condizionato Fonte:: http://it.wikipedia.org/w/index.php?oldid=46684608 Autori:: Dr Zimbu, Kamina, Pracchia-78, 2 Modifiche anonime 262 Fonti, licenze e autori delle immagini Fonti, licenze e autori delle immagini Immagine:Commons-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Commons-logo.svg Licenza: logo Autori:: SVG version was created by User:Grunt and cleaned up by 3247, based on the earlier PNG version, created by Reidab. Immagine:Wiktionary-ico-de.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wiktionary-ico-de.png Licenza: logo Autori:: Bobit, F l a n k e r, Melancholie, Mxn, Nodulation, Rocket000, Saibo Immagine:Wikiquote-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikiquote-logo.svg Licenza: Public Domain Autori:: -xfi-, Dbc334, Doodledoo, Elian, Guillom, Jeffq, Krinkle, Maderibeyza, Majorly, Nishkid64, RedCoat, Rei-artur, Rocket000, 11 Modifiche anonime File:NOT ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:NOT_ANSI.svg Licenza: Public Domain Autori:: jjbeard File:OR ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:OR_ANSI.svg Licenza: Public Domain Autori:: jjbeard File:AND ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:AND_ANSI.svg Licenza: Public Domain Autori:: jjbeard File:XOR ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:XOR_ANSI.svg Licenza: Public Domain Autori:: jjbeard File:Buffer ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Buffer_ANSI.svg Licenza: Public Domain Autori:: Inductiveload File:NOR ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:NOR_ANSI.svg Licenza: Public Domain Autori:: jjbeard File:NAND ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:NAND_ANSI.svg Licenza: Public Domain Autori:: jjbeard File:XNOR ANSI.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:XNOR_ANSI.svg Licenza: Public Domain Autori:: jjbeard File:Aristotle by Raphael.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Aristotle_by_Raphael.jpg Licenza: Public Domain Autori:: ALE!, Dencey, Pe-Jo, Tomisti File:Ancient stagira greece 01.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Ancient_stagira_greece_01.jpg Licenza: Copyrighted free use Autori:: Christaras A File:Aristotle tutoring Alexander by J L G Ferris 1895.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Aristotle_tutoring_Alexander_by_J_L_G_Ferris_1895.jpg Licenza: Public Domain Autori:: Damiens.rf, Howcheng, Shakko, Tarawneh File:Aristoteles Statue.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Aristoteles_Statue.jpg Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: Daphni File:Formella 21, platone e aristotele o la filosofia, luca della robbia, 1437-1439dettaglio.JPG Fonte:: http://it.wikipedia.org/w/index.php?title=File:Formella_21,_platone_e_aristotele_o_la_filosofia,_luca_della_robbia,_1437-1439dettaglio.JPG Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: sailko File:CiceroBust.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:CiceroBust.jpg Licenza: Public Domain Autori:: User:Infrogmation File:Aristotle Altemps Inv8575.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Aristotle_Altemps_Inv8575.jpg Licenza: Public Domain Autori:: User:Jastrow File:Schema Sillogismo.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Schema_Sillogismo.png Licenza: Creative Commons Attribution-Sharealike 3.0,2.5,2.0,1.0 Autori:: Oroxon File:Quattro elementi.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Quattro_elementi.png Licenza: Public Domain Autori:: Reame Immagine:Wikisource-logo.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Wikisource-logo.svg Licenza: logo Autori:: Nicholas Moreau File:Tubo di venturi.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Tubo_di_venturi.jpg Licenza: GNU Free Documentation License Autori:: Eio, Mess File:Venturifixed2.PNG Fonte:: http://it.wikipedia.org/w/index.php?title=File:Venturifixed2.PNG Licenza: Public Domain Autori:: User:HappyApple File:Strozzatura.PNG Fonte:: http://it.wikipedia.org/w/index.php?title=File:Strozzatura.PNG Licenza: Public domain Autori:: Vmoscarda File:Effetto venturi.JPG Fonte:: http://it.wikipedia.org/w/index.php?title=File:Effetto_venturi.JPG Licenza: GNU Free Documentation License Autori:: Frieda, Robyvecchio Immagine:William of Ockham - Logica - 1341.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:William_of_Ockham_-_Logica_-_1341.jpg Licenza: Public Domain Autori:: Cirt, Dsmdgold, GDK, JPS68, Leinad-Z, 1 Modifiche anonime File:Deliberations of Congress.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Deliberations_of_Congress.jpg Licenza: Public Domain Autori:: W. A. Rogers File:Fuzzy logic temperature en.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Fuzzy_logic_temperature_en.svg Licenza: Creative Commons Attribution-ShareAlike 3.0 Unported Autori:: fullofstars Immagine:Impossible cube.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Impossible_cube.jpg Licenza: GNU Free Documentation License Autori:: Bukk, Guam, Lobo, Qwertyytrewqqwerty, Ricordisamoa Immagine:Penrose triangle.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Penrose_triangle.png Licenza: Public Domain Autori:: AnonMoos, Bromskloss, Harp, Red devil 666, 2 Modifiche anonime Immagine:Blivet.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Blivet.png Licenza: Public Domain Autori:: Original uploader was Heron at en.wikipedia Later version(s) were uploaded by Ciphergoth2, Fotinakis at en.wikipedia. Immagine:Impossible staircase.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Impossible_staircase.svg Licenza: Public Domain Autori:: Sakurambo File:SegmentoDoppio.PNG Fonte:: http://it.wikipedia.org/w/index.php?title=File:SegmentoDoppio.PNG Licenza: Public domain Autori:: Giac83, ViciDig Immagine:Corvus corax (FWS).jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Corvus_corax_(FWS).jpg Licenza: Public Domain Autori:: Stolz, Gary M. File:Minkowski.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Minkowski.png Licenza: Public domain Autori:: Ggg, Snowdog File:Birthday Paradox.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Birthday_Paradox.svg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Rajkiran g File:Schrodingers cat.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Schrodingers_cat.svg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Dhatfield Immagine:Buttered cat.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Buttered_cat.png Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Image:Buttered_cat_comic.jpg : Greg Williams derivative work: Pengo File:Missing square puzzle.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Missing_square_puzzle.svg Licenza: GNU Free Documentation License Autori:: JamesCrook, Julia W, Lobo, Pro bug catcher File:Missing Square Animation.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Missing_Square_Animation.gif Licenza: Public Domain Autori:: Original uploader was Trekky0623 at en.wikipedia Image:BlackHole.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:BlackHole.jpg Licenza: Public Domain Autori:: Holycharly, Keraunoscopia, Mattes, Shellabella17, St0rm, TheDJ, Vanderdecken, 4 Modifiche anonime File:Egg in straw nest.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Egg_in_straw_nest.jpg Licenza: GNU Free Documentation License Autori:: Fir0002, Ies, Man vyi, Norro Immagine:Vanished line paradox.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Vanished_line_paradox.jpg Licenza: GNU Free Documentation License Autori:: Guam, Warden, 1 Modifiche anonime File:bertrand1-figure.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand1-figure.svg Licenza: GNU Free Documentation License Autori:: Original uploader was Timecop at en.wikipedia File:bertrand2-figure.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand2-figure.svg Licenza: GNU Free Documentation License Autori:: Original uploader was Timecop at en.wikipedia File:bertrand3-figure.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand3-figure.svg Licenza: GNU Free Documentation License Autori:: Original uploader was Timecop at en.wikipedia File:bertrand1-scatterplot.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand1-scatterplot.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Original uploader was Sakurambo at en.wikipedia File:bertrand2-scatterplot.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand2-scatterplot.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Original uploader was Sakurambo at en.wikipedia File:bertrand3-scatterplot.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand3-scatterplot.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Original uploader was Sakurambo at en.wikipedia File:bertrand1-chords.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand1-chords.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Original uploader was Sakurambo at en.wikipedia 263 Fonti, licenze e autori delle immagini File:bertrand2-chords.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand2-chords.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Original uploader was Sakurambo at en.wikipedia File:bertrand3-chords.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Bertrand3-chords.svg Licenza: Creative Commons Attribution-Sharealike 2.5 Autori:: Sakurambo at en.wikipedia File:Paradosso EPR.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Paradosso_EPR.jpg Licenza: Public domain Autori:: Lie Image:Soviet Union-1967-Stamp-0.16. Satellite of Extraterrestrial Civilization.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Soviet_Union-1967-Stamp-0.16._Satellite_of_Extraterrestrial_Civilization.jpg Licenza: Public Domain Autori:: Post of Soviet Union File:Stub astronomia.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Stub_astronomia.png Licenza: GNU Free Documentation License Autori:: Guybrush Threepwood, Lucas Immagine:Willard Gibbs.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Willard_Gibbs.jpg Licenza: Public Domain Autori:: User:YebisYa Immagine:Similitudine-entropia configurazionale.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Similitudine-entropia_configurazionale.gif Licenza: sconosciuto Autori:: Nase Immagine:JohnvonNeumann-LosAlamos.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:JohnvonNeumann-LosAlamos.jpg Licenza: Public Domain Autori:: Fastfission, Frank C. Müller, Harp, Kilom691, Mdd, Polarlys, Shizhao File:Cielo notturno simulato.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Cielo_notturno_simulato.jpg Licenza: GNU Free Documentation License Autori:: Guam, Pko File:Olber's Paradox - All Points.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Olber's_Paradox_-_All_Points.gif Licenza: GNU Free Documentation License Autori:: Kmarinas86 File:Honourable Bertrand Russell.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Honourable_Bertrand_Russell.jpg Licenza: Public Domain Autori:: Photographer not identified Immagine:Petersburg-Paradox.png Fonte:: http://it.wikipedia.org/w/index.php?title=File:Petersburg-Paradox.png Licenza: Public Domain Autori:: Maksim, Mdd, Paradoctor, Solbris, 2 Modifiche anonime File:MorinSurfaceFromTheTop.PNG Fonte:: http://it.wikipedia.org/w/index.php?title=File:MorinSurfaceFromTheTop.PNG Licenza: GNU Free Documentation License Autori:: Anarkman, Dbenbenn File:TooManyPigeons.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:TooManyPigeons.jpg Licenza: GNU Free Documentation License Autori:: Pigeons-in-holes.jpg by en:User:BenFrantzDale; this image by en:User:McKay File:6sided dice.jpg Fonte:: http://it.wikipedia.org/w/index.php?title=File:6sided_dice.jpg Licenza: Creative Commons Attribution-Sharealike 3.0 Autori:: Diacritica File:Paradosso di Monty Hall.gif Fonte:: http://it.wikipedia.org/w/index.php?title=File:Paradosso_di_Monty_Hall.gif Licenza: Public domain Autori:: Iraiscoming223 File:Monty open door.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door.svg Licenza: Public Domain Autori:: Cepheus File:Monty open door chances.svg Fonte:: http://it.wikipedia.org/w/index.php?title=File:Monty_open_door_chances.svg Licenza: Public Domain Autori:: Cepheus 264 Licenza Licenza Creative Commons Attribution-Share Alike 3.0 Unported //creativecommons.org/licenses/by-sa/3.0/ 265