John von Neumann: una biografia

annuncio pubblicitario
John von Neumann: una biografia
Ruggero Bergaglio, Cristina Marchiol, Rosanna
Giannantonio,
Tesi per i Corsi di Storia ed Epistemologia della Scienza I e II
Indice generale
Bibliografia dei tre saggi
Prima parte, redatta da Ruggero Bergaglio:
Giovinezza e formazione nei primi del ’900 in
Ungheria e Germania
1.1 Il contesto storico
1
1.3 Considerazioni sulla cultura e la fisica ungherese
1.4 John von Neumann: la giovinezza e la formazione
1.5 Il modello di ricerca in matematica e in fisica matematica
1.6 Hilbert e il metodo assiomatico
1.7 La fisica quantistica e la crisi del determinismo
Seconda parte, redatta da Cristina Marchiol: John
von Neumann – Negli Stati Uniti, tra guerra e
computer
2.1 L’emigrazione negli Stati Uniti
2.2 La ricerca universitaria
2.3 L’inizio della ricerca militare
2.4 Il calcolo automatico
2.5 I primi calcolatori
2.6 L’esperto di fiducia degli organismi militari e governativi
2.7 Altre armi per la guerra preventiva
2.8 La Big Science
1
2.9 La guerra fredda
2.10 Un difficile equilibrio
2.11 La democrazia liberale e l’elite scientifica
Terza parte, redatta da Rosanna Giannantonio: Teoria
dei Giochi, Calcolatore elettronico e Teoria
degli Automi
3.1 I primi contributi per un’economia matematica
3.2 L’incontro con Morgenstern e la Teoria dei Giochi
3.3 I primi studi sull’analogia fra il funzionamento del cervello e gli apparati di calcolo
automatico
3.4 L’incontro con Goldstine
3.5 Il first draft
3.6 I primi calcolatori
3.8 I risultati nel campo della ricerca meteorologica
3.9 Gli Automi Cellulari
3.10 Fu ucciso dalle radiazioni
3.11 Conclusioni (di Rosanna Giannantonio)
Scheda biografica di John von Neumann
Bibliografia generale delle tre parti della biografia di John von Neumann
2
John von Neumann: una biografia
Ruggero Bergaglio
Giovinezza e formazione nei primi del ’900 in Ungheria e Germania
1.1 Il contesto storico
Nei primi anni del Novecento, l’Ungheria era un paese straordinariamente dinamico e promettente e, al tempo stesso,
assai instabile e dal futuro incerto.
Dal 1867, quando Francesco Giuseppe I era salito al trono, il paese centro-europeo aveva attraversato un periodo di
tranquillità e sviluppo. L’economia, pur conservando un carattere prevalentemente agricolo, era stata sensibilmente
influenzata dal rilevante sviluppo industriale e l’Ungheria aveva assunto i connotati di un paese europeo moderno.
Sebbene la politica estera e militare fosse decisa a Vienna, era l’aristocrazia nobiliare a reggerne i destini, impartendo
ordini da Budapest. Questa classe dirigente mostrava un grande dinamismo e non sembrava preoccuparsi delle tensioni
sociali che erano conseguenza del contrasto fra la persistente arretratezza del mondo contadino e l’impetuoso sviluppo
dell’industria, del formarsi di un proletariato industriale e dei problemi di convivenza di numerose minoranze nazionali,
per lo più di origine slava (croati, rumeni, slovacchi, serbi).
Anche all’interno della classe dirigente si facevano sentire le contraddizioni frutto di uno sviluppo economico e sociale
accelerato. Essa era sufficientemente moderna ed evoluta da mostrarsi disponibile ad accogliere coloro che
possedevano capacità e spirito competitivo e a integrarli nel tessuto dell’aristocrazia nobiliare (tale, ad esempio, fu il
caso del padre di von Neumann), ma, d’altro canto, era fortemente influenzata da idee politiche conservatrici.
Budapest, il centro politico e culturale dell’Ungheria, era il simbolo della vitalità e delle contraddizioni di un paese
proiettato impetuosamente verso il futuro, ma oppresso dal presentimento di un’incombente catastrofe. All’inizio del
secolo, una buona parte della popolazione di Budapest era costituita da famiglie ebree: molte di queste, inizialmente
dedite ad attività agricole nelle povere aree rurali, si erano successivamente stabilite nella capitale, partecipando
attivamente allo sviluppo economico del paese e migliorando la propria posizione sociale.
La prima guerra mondiale e la disfatta dell’Impero Austro-Ungarico significarono per l’Ungheria una catastrofe di
proporzioni enormi e, per la minoranza ebraica, la fine di una condizione favorevole. Il florido stato centro-europeo perse
gran parte del suo territorio e più di tre milioni di ungheresi passarono sotto la sovranità di tre nuovi stati: la
Cecoslovacchia, la Romania e la Iugoslavia. Carlo IV abdicò nell’ottobre del 1918. All’inizio del 1919, il potere passò
nelle mani dei comunisti di Béla Kun. La Repubblica Sovietica Ungherese durò soltanto cinque mesi. Dopo l’invasione
del territorio ungherese da parte dell’esercito rumeno, il potere fu preso da un movimento controrivoluzionario guidato da
Miklòs Horthy. Il regime di Horthy scatenò una violenta repressione e adottò misure antisemite, pur risparmiando i
banchieri e gli industriali ebrei che considerava utili per la ricostruzione del paese. Fra le varie misure, va ricordata
l’introduzione di una quota di ammissione all’università: gli ebrei non potevano eccedere il 5 per cento degli studenti
universitari.
La matematica ebbe uno sviluppo fondamentale in Ungheria, fin dagli ultimi decenni dell’Ottocento, in connessione con
lo sviluppo tecnico e industriale del paese. I piani di studio delle scuole secondarie tecniche dedicavano uno spazio
crescente a questa materia e grande impegno in tal senso profusero anche gli ambienti universitari.
Un contributo importante, in questa direzione, fu la formazione di una comunità nazionale di matematici dotata di
istituzioni autonome, sul modello del rinnovamento del mondo scientifico europeo nella seconda metà dell’Ottocento.
Prima di allora, in tutto il vecchio continente erano state le Accademie i principali centri propulsori di tali studi. Da quel
periodo in poi le singole discipline scientifiche, e in particolare la matematica, si erano organizzate in forma autonoma,
sia creando società scientifiche - come la London Mathemarical Society (1865) la Société Mathématique de France
(1873) e la Deutsche Mathematiker Vereinigung (1890) -, sia promuovendo pubblicazioni periodiche specificamente
dedicate alla matematica.
In Ungheria, la prima associazione di matematici fu fondata nel 1891 (Società Matematica e Fisica di Ungheria). Nello
stesso periodo iniziarono le pubblicazioni della rivista «Mathematikai és Physikai Lapok» (Rivista di matematica e fisica)
e, nel 1893, di quella in tedesco «Mathematische und Naturwissenschaftliche Berichte aus Ungarn», che permise il
sorgere di un’intensa collaborazione con i matematici di altri paesi, superando l’ostacolo rappresentato dalla lingua
ungherese.
In quegli anni iniziava la carriera di due matematici, Lipót Fejér e Frigyes Riesz, la cui attività sarebbe stata uno dei
capisaldi della ricerca ungherese nella prima metà del secolo. Entrambi erano ebrei: la scelta della matematica da parte
3
di molti ebrei era dovuta, almeno in parte, al carattere autonomo e ideologicamente «neutrale» di questa disciplina. La
professione ideale, per chi non aveva ancora acquisito una piena parità di diritti civili ed era un potenziale emigrato,
doveva risultare universalista, internazionale e apolitica; nulla più delle discipline scientifiche si avvicinava a tale modello,
in special modo la matematica.
La matematica ungherese era assai aperta alle nuove tendenze che si affermavano in questa disciplina agli inizi del
Novecento. Accanto agli studi di analisi classica e funzionale, nel paese, conobbe importanti sviluppi la cosiddetta
«matematica discreta» e «finita». La ricerca in tale ambito aveva una lunga tradizione storica: essa era stata tuttavia
oscurata, a partire dal Seicento, dalla supremazia del calcolo infinitesimale di Newton e Leibniz, con un particolare
interesse per la «matematica del continuo», ovvero i problemi di carattere infinito e in particolare quelli in cui l’infinità ha
la proprietà di essere «continua». Agli inizi del Novecento, in relazione con la crescente influenza dell’approccio
algebrico e lo sviluppo della teoria degli insiemi, la matematica discreta e quella finita conobbero una rinascita nella
quale il lavoro ungherese svolse un ruolo importante.
Questo brillante panorama fu oscurato dalla disfatta austro-ungarica nella Grande Guerra, che pesò negativamente sul
florido ambiente scientifico, come su ogni aspetto della vita del paese.
Gli eventi politici del periodo successivo aggravarono pesantemente la situazione. Negli Anni Venti iniziò un’emigrazione
progressiva dall’Ungheria sia di scienziati maturi, sia di molti giovani di talento desiderosi di completare i propri studi, tutti
ormai consapevoli che a Budapest non vi erano più prospettive. I punti di destinazione erano soprattutto i centri più
importanti della cultura germanica come Zurigo, Berlino e Göttingen, essi rappresentavano una concreta prospettiva
d’integrazione del paese nelle correnti moderne e avanzate dell’Europa occidentale.
Successivamente, negli Anni Trenta, molti di questi scienziati emigrarono negli Stati Uniti, dapprima per la difficoltà di
ottenere posti di docente in Germania, vista l’enorme inflazione di giovani ricercatori, e subito dopo a causa dell’ascesa
del nazionalsocialismo hitleriano.
Molte giovani promesse ungheresi avevano già abbandonato il paese quando la situazione peggiorò ulteriormente: nel
1932 era stato nominato primo ministro Gyula Gömbös, fascista e antisemita dichiarato. Il suggello finale a questo
drammatico periodo fu dato dall’ingresso delle truppe tedesche in Ungheria, nel 1944. Il regime collaborazionista sorto in
quel tempo decretò la deportazione in massa degli ebrei ungheresi. Il sopraggiungere della Seconda Guerra Mondiale
spense la vita stimolante e allegra di Budapest, ricca di avventure intellettuali, portando in cambio soltanto un’onda di
persecuzioni e di morte che fu poi perpetuata dal regime comunista installatosi dopo la fine della guerra.
1.3 Considerazioni sulla cultura e la fisica ungherese
La straordinaria fioritura intellettuale che ebbe luogo in Ungheria agli inizi del Novecento è almeno in parte ascrivibile al
senso di incertezza e di timore del futuro. Lo stesso von Neumann individuò questo aspetto come centrale nella sua
esperienza. In un contesto così fragile e insicuro, assumevano un’importanza primaria la lotta per il successo nell’ambito
professionale e sociale, la propensione a impegnarsi nella vita pubblica.
Si manifestava, inoltre, uno stato psicologico che potrebbe essere descritto come un sentirsi perpetuamente pronti a
partire dal proprio paese per evitare la catastrofe, e quindi la propensione a vivere come «cittadini del mondo». Tale
atteggiamento aiutò molti ungheresi a inserirsi facilmente nella realtà di altri paesi, e, in ambito scientifico, a comportarsi
secondo le tendenze più moderne e avanzate, tese a vedere la ricerca come un’impresa internazionale.
Dal punto di vista della cultura e della scienza Budapest divenne una delle capitali più ricche e vivaci, non solo in ambito
europeo, ma mondiale, in cui la componente ebraica ebbe un ruolo di primo piano. Possiamo citare a supporto di tale
affermazione alcuni nomi di grandi fisici ungheresi, divenuti famosi a livello internazionale: come Tódor Kármán (che
cambiò il nome in Theodore von Kármán dopo l’emigrazione negli Stati Uniti), Ede (poi Edward) Teller, Jenö Pál (noto
come Eugene P. Wigner), Leo Szilard e Dénes (Denis) Gabor.
1.4 John von Neumann: la giovinezza e la formazione
John von Neumann nacque a Budapest il 28 dicembre 1903. Il suo nome in ungherese era János Neumann. Egli era il
primogenito di Miksa e Margit Neumann, membri della comunità ebraica della capitale. La madre, Margit, veniva da una
famiglia agiata: il nonno Jakab Kann era di umili origini, ma si era arricchito nel commercio di attrezzature agricole. Miksa
Neumann era un avvocato che, alla nascita del primo figlio, lavorava da qualche tempo come direttore di una delle
principali banche ungheresi. Nel 1907 nacque il secondo figlio, Mihály, e nel 1911 il terzo, Miklós. La posizione della
famiglia Neumann era simile a quella di tante altre famiglie di ebrei ricchi e colti della capitale: tanto promettente quanto
instabile.
János Neumann ricevette un’ottima istruzione: studiò con precettori privati fino all’età di dieci anni e poi seguì gli studi
secondari nel Ginnasio Luterano, uno dei migliori centri d’insegnamento della capitale, che disponeva di docenti di alto
4
livello e consentiva una formazione religiosa differenziata, per cui János studiò lingua e letteratura ebraica con un
rabbino. Fin dai primi mesi di studio nel Ginnasio, si manifestarono le capacità matematiche straordinarie del giovane. Il
suo professore consigliò alla famiglia di fornire allo studente una formazione complementare e si consultò con alcuni
professori universitari per trovare un precettore privato per János. Il primo fu Gabor Szegö e, quando questi lasciò
Budapest, il suo posto fu preso da Mihály Fekete. Entrambi erano membri del gruppo di Fejér.
Furono soprattutto gli studi con Fekete a dare risultati significativi: ancor prima di completare il Ginnasio, János scrisse in
collaborazione con Fekete un articolo, in cui veniva generalizzato un risultato di Fejér sulle radici dei polinomi di Čebičev,
pubblicato nel 1922 sulla rivista dell’Unione dei matematici tedeschi «Jahresbericht der Deutsche Matematische
Vereinigung».
La formazione di János Neumann, in realtà, non fu orientata fin dall’inizio in senso rigidamente matematico, con
l’esclusione dell’interesse per altri temi. Al contrario, gli anni della sua formazione risultano pieni di stimoli e i brillanti
professori del Ginnasio luterano lo fecero avvicinare a molti temi filosofici e scientifici. Il giovane era un lettore
instancabile. Di grande importanza fu anche il ruolo della famiglia e, in particolare, del padre, che lo interessava alla sua
attività economica, evidenziandone i successi e i rischi.
I primi segni che le condizioni favorevoli alla realizzazione del miracolo ungherese stavano svanendo si manifestarono
fin dalla prima giovinezza di János. L’anno del suo ingresso nel Ginnasio Luterano fu proprio quello in cui cominciò la
Prima Guerra Mondiale, che coincise con l’inizio della catastrofe per il paese. Il fallimento del progetto politico del conte
Károlyi, cui seguì l’avvento della Repubblica Sovietica di Béla Kun indusse la famiglia Neumann a rifugiarsi in Austria e
poi sulla costa adriatica. Dopo cinque mesi, i Neumann rientrarono a Budapest, trovando una situazione inquietante a
causa della forte ondata di repressione attuata dal regime di Horthy. L’ondata di antisemitismo che si accompagnò a
questi sviluppi era anche motivata dal pretesto che lo stesso Béla Kun era un intellettuale giudeo. Tuttavia, la relativa
tolleranza di Horthy nei confronti dell’élite industriale e finanziaria ebraica permise alla famiglia Neumann di proseguire
senza troppi problemi la sua esistenza. Nel 1921, János superò i rigorosi controlli di fedeltà al regime e poté seguire gli
studi di matematica all’Università di Budapest, entro la quota di ammissione fissata dal Parlamento per gli studenti ebrei.
Tuttavia, le prospettive future non apparivano rosee e, negli Anni Venti, la vita di János cominciò ad allontanarsi dalle
vicende del suo paese. Egli iniziò dapprima una fase intensa di formazione in Germania, frequentando l’Università di
Budapest soltanto in occasione degli esami. Fra il 1921 e il 1923 von Neumann seguì vari corsi all’università di Berlino,
che era allora il centro universitario più famoso della Germania: assistette alle lezioni di chimica di Fritz Haber, di
meccanica statistica di Albert Einstein ed entrò in contatto con il matematico Erhard Schmidt. In quel periodo egli divise
la sua formazione culturale e scientifica in un incessante peregrinare fra Budapest, Vienna e Berlino.
Fra il 1923 e il 1925 seguì le lezioni di ingegneria chimica al Politecnico di Zurigo, una delle istituzioni di insegnamento
tecnico superiore più prestigiose nell’Europa dell’epoca. Lo fece soprattutto per dare soddisfazione a suo padre, che lo
spingeva verso gli studi direttamente applicati. È indubbio che alcuni degli interessi di von Neumann per temi non
strettamente matematici maturarono in tale periodo: non soltanto la passione per la tecnologia e l’ingegneria, ma anche
quella per l’economia teorica e per altri aspetti delle applicazioni della matematica. Tuttavia in lui maturava sempre di più
l’idea che la matematica dovesse essere lo strumento principale e il linguaggio privilegiato.
The most vitally characteristic fact about mathematics is, in my opinion, its quite peculiar relationship to the natural
science, or more generally, to any science which interprets experience on a higher than purely desciptive level.
[J. VON NEUMANN, The Works of the Mind, The University of Chicago Press 1947]
Nell’estate e nell’autunno del 1925, von Neumann, visitò per la prima volta Göttingen, dove conobbe personalmente il
grande David Hilbert, che si rivelò subito l’interlocutore ideale dei suoi interessi per la logica matematica, l’assiomatica e
la teoria degli insiemi. Quella città era all’epoca il centro più importante della ricerca scientifica mondiale, così il nuovo
ambiente ebbe un ruolo cruciale per la vita scientifica e professionale di von Neumann: segnò la fine della sua fase
giovanile e l’ingresso nella piena maturità.
1.5 Il modello di ricerca in matematica e in fisica matematica
Agli inizi del Novecento, la tradizionale competizione fra la scienza fisico-matematica francese e tedesca, dopo un
periodo di supremazia della prima, appariva risolta a favore della seconda. Indubbiamente, la matematica e la fisicomatematica francese potevano contare su un genio universale come Remi Poincaré. Tuttavia, Poincaré era un
personaggio abbastanza isolato. Per quanto grande fosse la sua influenza nel mondo scientifico nazionale e
internazionale, egli sviluppava i suoi progetti e le sue concezioni in solitudine e, difatti, non aveva allievi che ne
seguissero le orme. Personalità come Felix Klein e David Hilbert non raggiunsero la prolificità scientifica e l’acume di
Poincaré, ma lasciarono tracce assai più profonde e durevoli nello sviluppo della scienza, costruendo una scuola vasta e
strutturata, così da determinare le caratteristiche di un modo di fare scienza che avrebbe influenzato tutto il secolo.
Un aspetto fondamentale consisteva nella concezione dell’attività scientifica come un’impresa collettiva e non più
soltanto la somma delle opere di singoli personaggi più o meno isolati. Di qui la centralità delle scuole scientifiche.
Il giovane von Neumann partecipò sia alle discussioni promosse dal Circolo di Vienna sui fondamenti della matematica,
sia a numerose sessioni del Mathematische Kolloquium, nell’ambito del quale maturò e trasmise alcuni fondamentali
5
contributi alla matematizzazione dell’economia. Vienna, oltre a Berlino e Zurigo, rappresentò uno dei centri scientifici e
culturali che più contribuirono alla sua formazione, ma fu Göttingen l’ambito in cui si concretizzarono le sue prime grandi
realizzazioni scientifiche.
Questa città esprimeva al massimo livello le nuove caratteristiche della scienza tedesca sopra citate: la ricerca scientifica
era intesa come progetto coerente attorno a temi ben definiti, perseguito da una comunità di studio fortemente integrata
e coesa. Così l’organizzazione della ricerca anticipava alcuni degli aspetti caratteristici della scienza contemporanea, in
particolare la coscienza di promuovere un’attività internazionale e di valore universale.
Il matematico Felix Klein, che conquistò una posizione di primo piano in ambito tedesco, per le sue brillanti ricerche, fu
una figura di riferimento nella scuola di Göttingen e nel 1885, conseguì la cattedra in quella università. Essa allora era
una piccolo ateneo, non paragonabile per dimensioni e importanza a Berlino, anche se tra gli insegnanti aveva
annoverato grandi matematici come Gauss e Riemann. In quegli anni, abbandonate la ricerca di prima linea, si dedicava
sempre di più al ruolo suo di organizzatore. Verso la metà degli Anni Novanta, Klein maturò il progetto di aggregare
nell’Università di Göttingen un gruppo di matematici capaci di ridare lustro a quel centro. Il nucleo culturale del progetto
doveva essere il rapporto fra matematica e fisica e l’approccio geometrico nello studio di ogni sorta di problemi. Per
realizzare questo progetto egli perseguì una politica aggressiva di espansione delle cattedre di matematica.
Una delle più brillanti «reclute» di Klein fu David Hilbert, che condivideva con lui una concezione ampia della matematica
e la fiducia nel valore delle idee unificanti contro la specializzazione, oltre alla convinzione della necessità di assumere
un atteggiamento di apertura internazionale nella ricerca. Sotto la guida di Klein e Hilbert, la scuola matematica di
Göttingen divenne un importante fenomeno culturale, caratteristico della Repubblica di Weimar. Nel periodo fra le due
guerre mondiali, in particolare dopo la morte di Klein, nel 1925, l’influsso di Hilbert divenne dominante. Il gruppo si
separò progressivamente dal resto dei membri della Facoltà di Filosofia, cui apparteneva formalmente, che era dominata
da posizioni conservatrici e nazionaliste tipiche di certi settori della docenza universitaria tedesca. L’apertura
internazionale fu all’origine del modo in cui la ricerca scientifica è intesa ancora oggi e fece di Göttingen un centro di
attrazione di studiosi delle più diverse provenienze, fra cui numerosi ebrei.
La comunicazione diretta fra ricercatori nei seminari e nelle riunioni scientifiche aveva un ruolo di grande importanza,
assieme all’attività di pubblicazione di libri e di articoli sulle riviste. Crebbe così non soltanto il numero dei Privatdozenten
di matematica, ma anche quello degli allievi e vennero organizzati corsi di aggiornamento per i professori di ginnasio. I
mezzi materiali a disposizione della comunità scientifica erano straordinari, fra essi vi era una splendida collezione di
modelli e strumenti e una ricca biblioteca organizzata con il sistema del libero accesso, al fine di stimolare i contatti
informali fra gli studiosi.
Questo dinamismo era stato ispirato dalla visione di Klein secondo cui la matematica andava pensata in un contesto
scientifico ampio e unitario, assieme alle scienze naturali e anche alla tecnologia. Il rapporto con il mondo dell’ingegneria
e della produzione era assai concreto, poiché lo stesso Klein aveva stabilito relazioni con l’industria tedesca, che
avevano determinato un appoggio crescente da parte degli industriali alle infrastrutture scientifiche e avevano posto in
essere il primo esempio di sostegno privato alla ricerca tecnico-scientifica. Per questi motivi, la figura di Klein aveva
assunto un grande rilievo sulla scena politica ed economica tedesca. Tuttavia, agli inizi del secolo, l’enfasi posta da Klein
sui rapporti fra matematica pura e ricerca aveva ceduto il passo a una concezione della matematica di carattere
fortemente astratto, che divenne l’aspetto più caratteristico del contributo di Göttingen alla storia della disciplina.
Agli inizi del Novecento, la matematica conosceva una frammentazione e una specializzazione crescenti. Probabilmente,
proprio l'approccio astratto e assiomatico, che slegava la matematica dall'antico riferimento unitario empirico, aveva
portato a questi sviluppi. Di fronte alla frantumazione che le nuove tendenze sembravano introdurre nella ricerca, Hilbert
proponeva proprio il metodo assiomatico come punto di partenza per un processo di riunificazione capace di mettere in
luce l'intima struttura unitaria della matematica. In tal senso, Hilbert rappresenta una delle ultime grandi figure
scientifiche (al pari di Einstein) ispirate da una visione unitaria della scienza e capaci di dominarne l'insieme con un unico
sguardo.
Questo era l'ambiente e il contesto culturale con cui entrò in contatto il giovane von Neumann nel 1925. Per quanto
stimolanti fossero state altre esperienze e, in particolare, quella di Zurigo, il clima di Göttingen risultò subito in perfetta
sintonia con le aspirazioni del giovane. Tre aspetti del suo pensiero erano già marcatamente evidenti fin dal periodo
ungherese: la matematica intesa come strumento logico di portata universale; l'interesse per i nuovi approcci astratti
della disciplina e, in particolare, per la teoria degli insiemi; la passione per le applicazioni e la convinzione che in esse la
matematica dovesse avere un ruolo centrale. Queste tre aspirazioni trovavano una risposta perfetta nello stile di
Göttingen e nella visione assiomatica hilbertiana. Il giovane von Neumann si inserì immediatamente nel gruppo di studio
e sviluppò i temi di ricerca della assiomatizzazione della teoria degli insiemi e del problema dei fondamenti.
Per un giovane aspirante alla carriera accademica, tuttavia, in Germania c’erano poche prospettive, la carriera
universitaria era lunga, difficile e, inizialmente, poco o per nulla remunerata. Alla fine degli Anni Venti, in Germania, la
competizione per ottenere un posto di Professore Ordinario era durissima. Per queste ragioni, nel 1929, von Neumann
accettò il posto di Professore Invitato di fisica matematica, presso l’Università di Princeton. Von Neumann aveva 26 anni,
suo padre era morto da poco e la responsabilità della famiglia ricadeva su di lui. Prima di partire per Princeton egli si
sposò con Mariette Kövesi - ungherese di religione cattolica, figlia di un medico di Budapest, amico di famiglia - e, in
questa circostanza, si convertì al cattolicesimo. Ebbe così inizio la fase statunitense della vita di von Neumann, anche
se, fino al 1933, egli continuò sistematicamente a recarsi in Germania. In quell’anno, Adolf Hitler fu nominato Cancelliere
del Reich ed ebbe inizio un’ondata di destituzioni e dimissioni di professori universitari, che pose fine alla brillante
6
esperienza di Göttingen e segnò il distacco di von Neumann dall’Europa.
1.6 Hilbert e il metodo assiomatico
Nei suoi Fondamenti della geometria del 1899, Hilbert aveva ridotto il problema della coerenza della geometria a quello
della coerenza dell’insieme dei numeri reali, cioè, dei numeri che vengono associati agli infiniti punti di una retta
.
I numeri reali erano stati studiati assiomaticamente e si era dimostrato che la coerenza della loro teoria è una
conseguenza della coerenza dell’aritmetica, ovvero del sistema di assiomi che definiscono l’insieme dei numeri interi
naturali: 0, 1, 2, 3, …. Tale sistema di assiomi era stato proposto dal matematico italiano Giuseppe Peano. Si fondava
sul postulato dell’esistenza di un «primo numero» (lo zero), su quello dell’esistenza del «successivo» di ogni numero e
sul cosiddetto «principio d’induzione», secondo cui, se un insieme di numeri contiene lo zero e se, contenendo un
numero, contiene anche il suo «successivo», allora contiene tutti i numeri naturali. Le ricerche matematiche sviluppate
verso la fine dell’Ottocento conducevano alla conclusione che la chiave di una fondazione soddisfacente dell’intera
matematica risiedeva nella coerenza dell’insieme dei numeri naturali, quelli legati all’operazione elementare del contare.
Hilbert, invece, non era di tale avviso.
Tuttavia, già due anni dopo iniziò la scoperta di una serie di paradossi o contraddizioni della teoria degli insiemi, che
aprirono una crisi profonda. Il più famoso di questi era il paradosso scoperto da Russell nel 1902: se si ammette la
nozione di insieme degli «insiemi che non contengono se stessi come elementi», si vede che tale insieme è e non è
elemento di se stesso. Infatti, se non lo è, in quanto insieme di tutti gli insiemi che non contengono se stessi come
elementi, lo è; e se lo è, in quanto contiene soltanto insiemi che non contengono se stessi come elementi, non lo è.
Hilbert iniziò a occuparsi in prima persona di questo argomento nel 1904, poi lo lasciò da parte, concentrandosi sullo
studio di questioni di analisi e di fisica matematica. Comunque, il tema era divenuto centrale nell’ambiente dei sostenitori
del metodo assiomatico hilbertiano, la cui strategia era la ricerca di un’assiomatica della teoria degli insiemi che,
eliminando le imprecisioni del linguaggio non formalizzato utilizzato da Cantor, rendesse impossibile l’emergere di
antinomie.
Questa tematica aveva appassionato il giovane von Neumann fin dai suoi primi studi matematici. Non dobbiamo
dimenticare il lavoro pubblicato nel 1925, che riguardava l’assiomatizzazione della teoria degli insiemi; e la tesi dottorale
presentata in Ungheria da von Neumann, su la costruzione assiomatica della teoria degli insiemi.
L’assiomatizzazione da lui proposta per la teoria degli insiemi introduceva la distinzione fra «classi» e «insiemi». L’idea
chiave era di considerare un nuovo gruppo di enti, le classi, la cui caratteristica è quella di non poter essere contenuti in
altri insiemi o classi, mentre gli insiemi sono particolari classi che possono essere elementi di una classe. Con questa
distinzione era possibile eliminare antinomie come quella di Russell.
Il lavoro di von Neumann e gli sviluppi che egli ne diede dopo il 1925 si inserivano in modo spontaneo nel programma di
ricerca hilbertiano ed era altrettanto naturale che von Neumann divenisse uno dei più accesi adepti dell’approccio
assiomatico della scuola hilbertiana.
Negli anni successivi, il giovane matematico ungherese, affascinato da altri temi di ricerca, distolse la sua attenzione
dalle questioni di logica matematica, senza per questo disinteressarsi del programma di Hilbert. Difatti, nel settembre del
1930, egli partecipò a un Congresso sull’Epistemologia delle scienze esatte che si tenne a Königsberg, sotto gli auspici
dell’Associazione Ernst Mach e della Società per le scienze empiriche di Berlino, su iniziativa di alcuni esponenti del
Circolo di Vienna. Nel corso di questo stesso Congresso: Kurt Gödel annunciò un risultato (il corollario del teorema noto
oggi come teorema di incompletezza di Gödel) che, nella versione definitiva, completa di tutte le dimostrazioni e le
implicazioni, sarebbe stato pubblicato l’anno seguente. Il risultato di Gödel dimostrava l’impossibilità di conseguire una
dimostrazione completa della coerenza dell’aritmetica nel contesto delle regole stabilite per la metamatematica e
comportava una sconfitta senza appello del programma hilbertiano.
In realtà, nel corso del Congresso di Königsberg nessuno degli illustri partecipanti si rese subito conto della portata e
delle implicazioni del risultato annunciato da Gödel, con la sola eccezione di von Neumann, il quale, dopo la discussione,
si incontrò con Gödel per farsi spiegare meglio la sua intuizione e l’approfondì al termine del Congresso. Dopo meno di
due mesi scriveva a Gödel annunciando di aver dimostrato l’indimostrabilità della coerenza dell’aritmetica, come
conseguenza del teorema di incompletezza. Gödel gli rispose di aver ottenuto nel frattempo lo stesso risultato e gli inviò
copia del lavoro già presentato per la pubblicazione.
Von Neumann, successivamente a tale episodio, abbandonò definitivamente le ricerche di logica matematica, ma non
l’idea che la logica dovesse avere un ruolo fondamentale nella prassi matematica. Per un verso il risultato di Gödel fu
sentito da lui come un’autentica disfatta, che influenzò la sua visione dei limiti del rigore matematico. D’altro lato, però,
egli continuò a credere fermamente nel valore della pratica matematica fondata su un approccio logico-formale. Sotto
questo profilo, la fiducia nel valore del metodo assiomatico, liberato dai vincoli del programma formalista hilbertiano,
divenne un caposaldo del pensiero matematico di von Neumann, il quale si propose, in tal modo, come uno dei principali
attori di una ricostruzione «pragmatica» della fiducia dei matematici nel valore della loro disciplina.
7
1.7 La fisica quantistica e la crisi del determinismo
All’inizio del Novecento si verificò uno straordinario sviluppo di ricerche nel campo della fisica, che condusse a un
radicale cambiamento delle convinzioni fondamentali dei fisici e a una profonda crisi della fisica matematica classica. Si
parla di solito di tre «rivoluzioni» avvenute nella fisica nei primi decenni del secolo: l’emergere della teoria della relatività
ristretta e poi generale, la sostituzione su scala macroscopica della teoria newtoniana con queste ultime e l’emergere
delle teorie quantistiche, che proponevano una spiegazione dei fenomeni della fisica atomica. Questi sviluppi segnarono
gli inizi della cosiddetta «fisica teorica» e portarono a una svolta negli strumenti di analisi matematica del mondo fisico.
Molti studiosi si cimentarono nell’impresa di conseguire una trattazione matematica adeguata delle nuove teorie fisiche.
Nel caso della relatività einsteiniana, era disponibile una branca matematica già sviluppata nell’ambito della geometria
differenziale: il calcolo differenziale assoluto. Le maggiori difficoltà si presentarono nella trattazione matematica della
meccanica quantistica; questo fu uno dei principali temi di ricerca nell’ambiente di Göttingen.
Il problema teorico che si poneva era di fornire una spiegazione dei dati sperimentali disponibili circa la struttura e la
dinamica degli atomi. Nel primo ventennio del secolo si era accumulata una gran massa di dati sperimentali - in parte
derivanti dagli studi sulla radiazione - che apparivano in contraddizione con le leggi newtoniane del moto o con le
formulazioni matematiche equivalenti, come quella «variazionale» data da William R. Hamilton. Se, ad esempio, l’atomo
era formato da un nucleo pesante e da un gruppo di elettroni attorno a esso, secondo il modello di Ernest Rutherford,
perché l’elettrone non perdeva energia e non cadeva sul nucleo, come sembravano prevedere le leggi del moto? In altre
parole, il modello risultava in disaccordo con la teoria elettrodinamica classica secondo la quale ogni variazione di
velocità e direzione del moto di una carica elettrica (l’elettrone) è accompagnata dall’emissione di onde
elettromagnetiche. Gli elettroni, dunque, dovrebbero continuamente irradiare energia elettromagnetica con una
frequenza pari a quella del loro moto di rivoluzione attorno al nucleo. La conseguente perdita di energia cinetica e
potenziale porterebbe l’elettrone ad avvicinarsi sempre di più al nucleo secondo una traiettoria a spirale sino a
precipitare sul nucleo stesso.
Fra il 1925 e il 1926, furono presentati quasi contemporaneamente due schemi esplicativi. Uno di essi fu formulato a
Göttingen da Werner Heisenberg, Max Born e Pascual Jordan. In modo puramente algebrico, generalizzando le variabili
di base che la formulazione hamiltoniana della meccanica classica associa a una particella, la posizione e il momento di
un elettrone venivano rappresentati da matrici infinite, ovvero da oggetti matematici aventi la proprietà secondo cui il loro
prodotto non è commutativo e per questa via si ottenevano generalizzazioni appropriate delle equazioni di Hamilton.
Lo schema esplicativo fornito da Ernst Schrödinger, invece, rispondeva soprattutto a considerazioni fisiche e si basava
sulla constatazione di una «natura» duale delle particelle subatomiche, viste al contempo come onde e corpuscoli: in
effetti, i dispositivi sperimentali mettevano in evidenza talora un comportamento ondulatorio, talora un comportamento
corpuscolare delle particelle. Niels Bohr, direttore dell’Istituto di fisica di Copenaghen, aveva inquadrato tale fenomeno in
un «principio di complementarità», che egli considerava estensibile a tutti i campi della realtà, inclusa la biologia e la
psicologia, e che indicava i limiti stessi delle conoscenze. Secondo questo principio, le particelle elementari presentano
due aspetti complementari, ognuno dei quali spiega soltanto una parte dei processi subatomici. Una manifestazione di
questo aspetto era l’esistenza di variabili complementari, come la posizione e il momento di una particella, che non
possono essere determinate contemporaneamente (il cosiddetto «principio di indeterminazione» di Heisenberg). Nella
«meccanica ondulatoria» di Schrödinger, a ogni elettrone veniva associata un’equazione differenziale (o «equazione
d’onda»), la cui risoluzione, nel caso dell’atomo di idrogeno, permetteva di ottenere le lunghezze d’onda rilevabili
sperimentalmente. Schrödinger aveva dimostrato inoltre che, a partire dalla sua equazione, era possibile ottenere la
matrice di Heisenberg, indicando così la sostanziale equivalenza delle due descrizioni. Tuttavia, sussisteva una
divergenza fondamentale fra il punto di vista di Heisenberg e Bohr (quest’ultimo proponeva un’interpretazione statistica
della meccanica quantistica) e quello di Schrödinger, sostenuto da Einstein, che difendeva la necessità di ristabilire una
descrizione deterministica della realtà.
Un problema importante era la determinazione di una formulazione matematica adeguata sia alla meccanica ondulatoria,
sia alla meccanica matriciale e una teoria astratta, che era stata sviluppata senza connessione con queste
problematiche fisiche - la teoria degli spazi funzionali di Hilbert - si mostrò la più adeguata allo scopo.
Nell’ambito della meccanica quantistica, Heisenberg aveva già descritto alcune grandezze del sistema fisico mediante
matrici infinite. L’idea chiave dell’applicazione degli spazi di Hilbert fu di rappresentare lo stato di un atomo mediante un
vettore di uno spazio di Hilbert - assegnato da un numero infinito di coordinate, ognuna delle quali è un numero
complesso - mentre le grandezze fisiche osservabili, come la posizione, il momento o l’energia, erano descritte mediante
operatori lineari di tipo particolare (hermitiani o autoaggiunti). Nel caso dell’operatore rappresentativo dell’energia, gli
autovalori dell’operatore indicavano i livelli energetici di un elettrone e gli autovettori corrispondenti mostravano i rispettivi
stati quantici stazionari del sistema. La constatazione fisica fondamentale in meccanica quantistica, secondo cui una
misura perturba il sistema e i risultati delle misure successive di due grandezze osservabili dipendono dal loro ordine
temporale, corrisponde, in questa rappresentazione matematica, al fatto che gli operatori non commutano: in tal modo, il
principio di indeterminazione di Heisenberg (ovvero la precisione con cui possono essere determinate la posizione e la
quantità di moto di una particella sono interdipendenti tra loro: ) veniva associato a una proprietà matematica. Quest’idea
fu presentata per la prima volta da Paul A. Dirac e Pascual Jordan nel 1927.
L’assiomatizzazione della meccanica quantistica era un problema centrale per Hilbert e per l’ambiente di Göttingen.
8
Occuparsi di questo tema significava mettersi sulla cresta dell’onda. Von Neumann, all’inizio, collaborò direttamente con
Hilbert, pubblicando, nel 1927, un lavoro sui fondamenti della meccanica quantistica, in cui si sosteneva la necessità di
separare l’interpretazione fisica dal formalismo matematico, se si voleva conseguire una vera comprensione della teoria.
Successivamente, decise di migliorare i risultati ottenuti, utilizzando una formulazione assiomatica del concetto di spazio
di Hilbert astratto. In due lavori pubblicati nel 1929 e nel 1930 sulla rivista «Mathematische Annalen», egli presentò la
teoria generale degli operatori lineari hermitiani su uno spazio di Hilbert qualsiasi (detta teoria spettrale).
Alla fine degli Anni Venti e agli inizi del decennio successivo, pubblicò molti studi sulla meccanica quantistica, alcuni dei
quali in collaborazione con Wigner, e si interessò agli aspetti fisici della teoria, come il concetto di misura, uno dei punti
più ostici da affrontare. La meccanica classica era basata sull’idea che, in ogni osservazione sperimentale, l’errore
dovuto alle perturbazioni prodotte dallo strumento di misura sull’oggetto osservato possa essere sempre corretto:
ammettendo, quindi, di essere in grado di costruire strumenti capaci di garantire una lettura oggettiva e indipendente
dall’osservatore. Questo presupposto di base era ormai in discussione: Bohr e Heisenberg avevano messo in evidenza
l’impossibilità di conseguire una descrizione oggettiva della realtà fisica. Secondo il loro punto di vista, l’osservatore
umano consegue una lettura oggettiva dei segnali dello strumento, ma essa si riferisce alla combinazione dell’oggetto
con lo strumento. Pertanto, ogni previsione circa lo stato futuro dell’atomo non può che essere di tipo statistico.
Questa perdita della certezza, analoga a quella verificatasi in matematica, fu affrontata da alcuni fisici fedeli al
determinismo, come Einstein, sostenendo l’esistenza di «parametri nascosti» che, una volta determinati, avrebbero
eliminato l’incertezza.
Von Neumann, invece, ricorse all’approccio assiomatico per eliminare la fonte delle difficoltà interpretative ed evitare la
rottura con la concezione classica della fisica. Da un lato, egli introdusse, come proposizione interna alla teoria, il
carattere assolutamente naturale della meccanica quantistica, ovvero l’impossibilità dell’esistenza di teorie equivalenti
con «parametri nascosti»; d’altro lato, sviluppò una teoria della misurazione formalizzata in termini puramente
matematici.
Per conseguire questo obbiettivo, von Neumann proponeva un’audace rottura con la distinzione tradizionale tra
osservatore e strumento di misura: a suo parere, essa era arbitraria, perché ogni osservazione è necessariamente
soggettiva. La sua teoria della misura permetteva di ottenere una descrizione dello stato del sistema osservato e dello
strumento di misura. La presa di coscienza da parte dell’osservatore del risultato dell’osservazione modifica questo stato
e soltanto così si spiega il processo di misura.
La formulazione assiomatica di von Neumann fu considerata, in seguito, come l’esposizione canonica dei principi della
meccanica quantistica e il suo prestigio si consolidò quando la sua trattazione matematica si mostrò capace di includere
sviluppi come la meccanica quantistica relativistica e, almeno in parte, la teoria quantistica del campo.
By and large it is uniformly true that in mathematics there is a time lapse between a mathematical discovery and the
moment it becomes useful; and that this lapse of time can be anything from 30 to 100 years, in some cases even more
[… ].
[J. VON NEUMANN, Collected Works Vol. VI. Theory of Games, Astrophysics, Hydrodynamics and
Meteorology, Pergamon Press 1961]
L’influenza della formalizzazione di von Neumann sulla pratica della ricerca fu più limitata e i fisici utilizzarono
prevalentemente la presentazione di Dirac. In effetti, negli anni successivi, la sintesi fra fisica teorica e matematica, che
era sembrata così solida si attenuò, dando progressivamente luogo a una profonda separazione delle due discipline. Lo
stesso von Neumann abbandonò questi studi, concentrandosi sullo sviluppo puramente matematico della teoria degli
operatori negli spazi di Hilbert.
Con le ricerche del periodo di Göttingen, von Neumann contribuì, come pochi altri, a ridare forza all’idea che la
conoscenza scientifica consegue conoscenze oggettive, nella misura in cui fa ricorso all’uso sistematico della
matematica, che sola è capace di dare senso all’idea di legge scientifica. Ormai erano trascorsi i tempi della fiducia
nell’oggettività assoluta della scienza. La scienza non era più quella di Newton e di Galileo, pervasa dall’idea di poter
svelare le leggi universali che reggono il mondo fisico, essa era ormai la scienza dei modelli:
The sciences do not try to explain, they hardly even try to interpret, they mainly make models. By a model is meant a
mathematical construct which, with the addition of certain verbal interpretations, describes observed phenomena. The
*
justification of such a mathematical construct is solely and precisely that it is expected to work. ( )
[J. VON NEUMANN, Method in the physical sciences, 1961]
La definizione di scienza di von Neumann è, tuttavia, riduttiva poiché ritiene che gli unici modelli in grado di interpretare
la realtà siano quelli matematici. Questa concezione di scienza esclude, pertanto, ambiti come le scienze naturali o la
biologia hanno sviluppato alcune teorie che interpretano determinati fatti senza fare ricorso a modelli matematici. La
scienza razionalista, ovvero la scienza intesa come processo, in contrapposizione alla scienza tradizionale di stampo
positivista ed empirista, prevede un approccio di ricerca ed analisi continua dei fatti basata sulla cosiddetta “innovazione
concettuale”. Essa procede “tra incertezza ed insuccessi e si risolve in un sapere ipotetico, contingente e storicamente
determinato”.
9
2.1 L’emigrazione negli Stati Uniti
Nel settembre del 1928, von Neumann partecipò, come membro della delegazione tedesca, al Congresso internazionale
dei matematici di Bologna. Al Congresso conobbe Oswald Veblen (1880-1960), importante esponente della comunità
scientifica statunitense. Quest’incontro mutò il corso della vita di von Neumann, allontanandolo progressivamente
dall’Europa.
Veblen era professore all’Università di Princeton, dove era stato assunto nel 1905. Oltre all’attività scientifica, egli
svolgeva un’intensa attività organizzativa e istituzionale nel suo paese. Uno dei principali obiettivi di Veblen era di
elevare al massimo grado, il livello della ricerca e dell’insegnamento universitario della matematica negli Stati Uniti. Fin
quasi alla fine dell’Ottocento il livello delle università statunitensi era più basso delle università europee. La maggior
parte dei professori svolgeva una gran mole di attività didattica. La ricerca e la pubblicazione non erano considerate né
un obbligo né un merito. Nel 1888 fu fondata la Società matematica di New York, il cui scopo era mettere in contatto
persone interessate alla matematica e appartenenti agli ambienti più disparati: professori universitari e delle scuole
secondarie, economisti, ingegneri. Qualche anno dopo, quest’istituzione prese il nome di “Società matematica
americana” (AMS, American Mathematical Society).
L’Università di Princeton poteva contare su un buon numero di ottimi professori di matematica, ma ancora agli inizi degli
anni venti era soprattutto un centro di insegnamento che non prevedeva l’attività di ricerca. Nel biennio 1923-24, Veblen,
come presidente della “Società matematica americana” (AMS), s’impegnò per ottenere finanziamenti governativi per le
pubblicazioni e le attività della Società. Uno dei suoi obiettivi era fondare a Princeton un istituto di ricerca in cui potessero
lavorare matematici di alto livello, riproducendo il modello organizzativo di Goettingen, in Germania, dove von Neumann
stava lavorando.
Alla fine degli anni venti, quando von Neumann conobbe Veblen, la fase economica era in crescita. Grazie a varie
donazioni, l’università di Princeton iniziò la costruzione di un edificio per il Dipartimento di Matematica e si istituirono
alcune cattedre. Veblen propose di utilizzare i fondi ancora disponibili per invitare professori stranieri: il suo candidato fu
von Neumann e congiuntamente fu invitato anche il suo compatriota e amico di infanzia Eugene Wigner (1902-1995;
premio Nobel per la fisica nel 1963). Successivamente furono invitati altri professori europei, tra cui Albert Einstein
(1879-1955; premio Nobel nel 1921).
Il nuovo edificio fu completato nel 1931: la biblioteca, le aule, gli studi e le sale comuni offrivano le migliori condizioni per
lo studio, la ricerca e gli scambi informali fra professori ed allievi. A Princeton si ricreò l’ambiente cosmopolita e
appassionante che von Neumann aveva conosciuto a Goettingen. Una generosa donazione del 1930 permise di istituire
a Princeton l’”Istituto di studi avanzati” (IAS, Institute of Advanced Studies) e Veblen fu eletto primo professore.
Mentre i centri della scienza tedesca e di altri paesi europei venivano decimati dall’epurazione nazista, a Princeton si
creò l’ambiente ideale per la ricerca matematica. L’istituto divenne, infatti, il primo centro mondiale della ricerca e
dell’istruzione superiore.
Molti furono gli scienziati europei che contribuirono a tutto ciò. Nell’aprile del 1933 iniziarono le di destituzioni di
professori universitari in Germania per motivi razziali e politici. Questa fuga di scienziati si aggravò nel 1938, con
l’invasione dell’Austria e della Cecoslovacchia da parte della Germania, la promulgazione delle leggi razziali in Italia e
poi con lo scoppio della guerra mondiale. I luoghi di accoglienza furono la Gran Bretagna, gli Stati Uniti ed alcuni paesi
dell’America Latina. Negli Stati Uniti in particolare, la legge di immigrazione esentava i professori universitari dalle quote
fisse di immigrazione, facilitando l’ingresso di coloro che erano stati invitati da un’istituzione del paese. I professori
stranieri furono aiutati in modo da favorire l’eccellenza scientifica, cercando di evitare che i rifugiati occupassero il posto
del personale docente del posto, ed evitare reazioni nazionalistiche xenofobe e antisemite. I professori stranieri potevano
concentrarsi sulla ricerca, svolgendo soltanto corsi di perfezionamento. Ciò suscitò in realtà anche invidie poiché i
ricercatori non dovevano sostenere i pesanti carichi di insegnamento delle università americane.
Veblen, in questo contesto, fu una delle figure chiave nell’organizzazione dell’emigrazione dei matematici dall’Europa.
Per quanto riguarda l’immigrazione ebraica, il filosofo ebreo esiliato Ignaz Maybaum (1897-1976) ricordava: “La Shoah ci
ha gettato senza pietà in un nuovo mondo, dove sono inefficaci sia le formule del XIX secolo sia lo stesso Shulchan Aruk
[il codice classico del diritto ebraico]. Dobbiamo ancora ricominciare”. La parola d’ordine di un’intera generazione fu,
infatti “ricominciare”, non solo come distacco negativo dal passato antisemita, ma anche come risposta alle promesse di
libertà della società americana. Questa posizione, diffusa tra gli immigrati ebrei negli Stati Uniti, ci può aiutare a
comprendere l’intensa collaborazione di von Neumann con le forze armate che descriveremo nei prossimi paragrafi ed in
particolare la sua posizione riguardo agli armamenti nucleari.
2.2 La ricerca universitaria
A Princeton, nel 1930, von Neumann tenne il suo primo corso sulla statistica quantistica come professore invitato.
Nell’anno seguente tenne corsi di fisica matematica e di idrodinamica. Nel 1933 fu nominato professore dell’”Istituto di
studi avanzati” (IAS) e ciò gli garantì una posizione tranquilla e sicura. Avrebbe, infatti, ricoperto tale posizione fino alla
sua morte, nel 1957.
10
Era il professore più giovane ed era spesso scambiato per uno studente. Stupiva matematici e fisici per la velocità con
cui risolveva problemi complessi. Nell’ambiente universitario si raccontava che “i matematici dimostrano quello che
possono, von Neumann dimostra quello che vuole”.
Tenne quindi corsi sulla teoria della misura, sulla teoria degli operatori e sulla teoria dei reticoli. Durante questo periodo
di insegnamento, von Neumann non interruppe i suoi rapporti con l’Europa, dove continuò a recarsi tutte le estati, fino al
1938. Si recava anche sistematicamente in Ungheria, dove ancora risiedeva la famiglia. Nel 1935 nacque negli Stati
Uniti, la sua unica figlia, Marina, attualmente professore di “Business Administration and Public Policy” presso
l’Università del Michigan. Due anni dopo divorziò dalla prima moglie, Marietta Koevesi. Nell’autunno del 1938 fece il suo
ultimo viaggio in Europa prima dello scoppio della guerra. Durante tale viaggio, organizzò il suo matrimonio con Klàra
Dàn, figlia di un’agiata famiglia ebrea di Budapest. Durante tale occasione si convertì al cattolicesimo. Subito dopo il
matrimonio, i due partirono per gli Stati Uniti.
Gli anni di Princeton, fino al 1938, furono per von Neumann un periodo di intenso lavoro scientifico in cui applicò il suo
rigore matematico all’idrodinamica, alla balistica, alla meteorologia, alla teoria dei giochi, alla statistica ed alla meccanica
quantistica. I suoi primi lavori in inglese apparvero nel 1932 sulla rivista dell’Accademia nazionale delle scienze degli
Stati Uniti.
L’elevato numero di temi cui abbiamo in parte accennato, fu affrontata da von Neumann in modo frenetico. Il suo
prestigio negli anni precedenti la guerra mondiale era ormai grande. Era metodico nello stile di lavoro e dotato di grande
capacità di concentrazione. È rimasto famoso per la straordinaria velocità nella soluzione dei più svariati problemi;
svolgeva un ruolo cruciale la sua capacita di formularli teoricamente nel modo da identificare gli aspetti rilevanti. Per lui il
lavoro matematico era un autentico piacere. A tal proposito, affermò: “Se la gente non crede che la matematica sia
semplice è solo perché non ha compreso quanto sia complicata la vita”.
La sua capacità intellettuale e il suo potere di astrazione si accompagnavano ad un carattere di uomo pratico e
mondano. Si caratterizzava per l’entusiasmo, la curiosità intellettuale e l’atteggiamento estremamente razionalista.
Il periodo tranquillo di Princeton, dedicato soprattutto alla ricerca scientifica, si concluse nel 1938. In tutta l’Europa gli
sviluppi della situazione politica colpivano l’attività degli scienziati. Lo scoppio della guerra e il successivo intervento degli
Stati Uniti interruppero il corso tranquillo della vita accademica di Princeton e produssero una svolta nella vita e nelle
attività scientifiche di von Neumann.
Dopo questo periodo di diversificati interessi, gli ambiti di ricerca più noti di von Neumann diventarono: lo sviluppo delle
armi nucleari e l’invenzione dei moderni computer digitali.
2.3 L’inizio della ricerca militare
Von Neumann ottenne la nazionalità americana nel 1937. Subito dopo Veblen fece da tramite per una proposta di
collaborazione con le forze armate. Il Laboratorio di ricerca balistica del Dipartimento di equipaggiamento e armamento
dell’Esercito, situato ad Aberdeen (Maryland), era in fase di riorganizzazione, a causa della situazione prebellica in
Europea. Nel laboratorio di Aberdeen, egli ebbe contatto diretto con le esigenze della scienza applicata e stabilì i primi
rapporti con le istituzioni militari.
La gratitudine di rifugiato e la simpatia per un paese che lo aveva accolto in modo così generoso, furono i motivi di base
della sua disponibilità a collaborare con la ricerca militare. Inoltre egli aveva già dimostrato un grande interesse per le
applicazioni della matematica ai contesti più diversi. I problemi di balistica e lo studio delle onde d’urto erano legati a
questioni di fisica matematica che sollevavano la sua curiosità al di là degli aspetti pratici.
In quegli anni, von Neumann non trascurò la ricerca scientifica in senso stretto. Tuttavia, dall’inizio della guerra in Europa
e soprattutto dopo l’entrata in guerra degli Stati Uniti, nel dicembre 1941, le ricerche militari assorbirono sempre di più il
suo tempo. Stava diventando un protagonista di spicco di un nuovo periodo storico, in cui i luoghi della ricerca non erano
più soltanto i laboratori pubblici (università, centri di ricerca statali a carattere civile), ma anche i laboratori di ricerca
militari e quelli industriali (privati).
Nel 1940, von Neumann fu nominato membro del nuovo “Comitato di consulenza scientifica” del Laboratorio di
Aberdeen, e nel corso dello stesso anno, consulente di balistica in un comitato per la preparazione alla guerra creato nel
1939 dalla “Società matematica americana” (AMS) e dalla “Associazione matematica dell’America” (MAA, Mathematical
Association of America).
Il primo organismo civile istituito allo scopo di offrire un’assistenza scientifica sistematica alle forze armate fu il “Comitato
di ricerche per la difesa nazionale” (NDRC, National Defence Research Commettee); il comitato organizzava il lavoro di
scienziati e ingegneri su temi come la guerra sottomarina, il radar, le contromisure elettroniche, gli esplosivi, i razzi. Nel
1941, von Neumann iniziò a collaborare con il comitato per lo studio delle onde di detonazione, al fine di perfezionare la
preparazione delle cariche esplosive e di dirigere e concentrare l’effetto della detonazione. L’anno successivo egli iniziò
a lavorare nel settore della guerra di mine per la Marina. Questo lavoro lo condusse prima a Washington e poi in
Inghilterra, dove soggiornò fra il gennaio e il luglio del 1943. Nei laboratori inglesi si occupò di questioni di dinamica dei
gas, importanti in artiglieria. In questo contesto iniziò a interessarsi per la prima volta alle applicazioni delle tecniche di
11
calcolo automatico.
2.4 Il calcolo automatico
Durante gli anni trenta e agli inizi degli anni quaranta, un numero crescente di matematici statunitensi aveva iniziato ad
occuparsi calcolo automatico, non soltanto in ambito militare, ma anche in relazione ai problemi di elaborazione
dell’informazione nell’amministrazione del paese e nella gestione delle imprese. I problemi di elaborazione
dell’informazione demografica per i censimenti della popolazione, e quelli legati alla contabilità e ad altri aspetti di
gestione delle imprese private, furono la chiave del successo commerciale della International Business Machines (IBM,
nome adottato nel 1924). I suoi sistemi di trattamento automatico dei dati (schede perforate) furono uno strumento
importante nella realizzazione pratica della politica razziale antiebraica del governo della Germania nazista. L’IBM
avrebbe svolto un ruolo importante negli sviluppi ulteriori delle tecnologie informatiche. In quegli anni, la maggior parte
dei calcoli era realizzata da operatori detti “calcolisti” o “calcolatori” – o “calcolatrici”, poiché in molti casi si trattava di
donne - con l’aiuto di semplici macchine di calcolo. Per quanto riguarda lo sviluppo del calcolo automatico, in quegli anni
erano partiti vari progetti con lo scopo di realizzare macchine rapide e potenti capaci di sostituire gli operatori umani:
erano comunque sforzi isolati di scarsa importanza economica e scientifica. Ne sono degli esempi le progettazioni di
calcolatrici elettromeccaniche da parete di Howard Aiken nell’Università di Harvard e di George R. Stibitz, nei laboratori
della Bell Telephone; un altro esempio è la progettazione di una calcolatrice elettronica da parte di John Atanasoff,
nell’Università dello Iowa.
Le esigenze belliche spinsero il governo a rivolgersi a questi pionieri per sperimentare le nuove macchine: si apriva così
una rivoluzionaria fase dello sviluppo del calcolo, nel quale von Neumann avrebbe svolto un ruolo decisivo. Aveva,
infatti, colto l’importanza delle possibili applicazioni dei computer alla matematica applicata per quanto riguarda specifici
problemi, mentre molti vedevano il computer solo come uno strumento per fare i calcoli in un modo più veloce. Il
riconoscimento dei suoi contributi avvenne soltanto qualche anno dopo la morte, forse a causa delle sue posizioni in
campo militare. Infatti, nel 1943, iniziò a collaborare come consulente con il “Laboratorio scientifico di Los Alamos”
(Nuovo Messico), dove si sviluppava in segreto il “Progetto Manhattan” (Manhattan Engineering District Project), diretto
dal fisico americano Robert Oppenheimer (1904 - 1967). Von Neumann continuò a lavorare principalmente nel suo
ufficio all’”Accademia Nazionale di Scienze” di Washington, D.C., ma visitando occasionalmente Los Alamos. Al
“Progetto Manhattan” collaborava il fisico italiano, Enrico Fermi (1901-1954, premio Nobel nel 1938). Si era rifugiato negli
Stati Uniti per salvare la moglie dal razzismo fascista. Oltre ad essere un grande fisico (pochi mesi prima dell’arrivo di
von Neumann aveva realizzato la prima “pila” atomica), era un grande organizzatore, contrariamente ad Oppenheimer.
L’obiettivo del “Progetto Manhattan” era la costruzione della bomba atomica che avrebbe dovuto imprimere una svolta
strategica all’andamento della guerra. Von Neumann era stato chiamato come consulente di idrodinamica, ma i suoi
contributi andarono ben oltre questo campo. Grazie ai suoi precedenti studi sugli esplosivi, suggerì di applicare la tecnica
di implosione per la detonazione della bomba. La simulazione dell’implosione era fondamentale per capire il
comportamento di questa possibile nuova arma, però richiedeva calcoli lunghi e complicati. All’inizio, i “computer” erano
delle persone (incluse le mogli di alcuni scienziati) che usavano calcolatrici da tavolo, ma alla fine del 1943 si cominciò a
far uso di una macchina IBM a schede perforate. Von Neumann volle apprendere personalmente l’uso della macchina. I
calcoli rimanevano però lenti e richiedevano verifiche manuali. Von Neumann, grazie alla sua enorme rete di contatti in
tutto il paese ed all’estero (ad esempio Alan Turing che aveva studiato sotto la sua supervisione a Princeton dal 1936 al
1938), seguiva le continue novità nell’ambito dell’automatizzazione del calcolo e dava consigli per migliorare le
apparecchiature disponibili a Los Alamos. Alla fine della guerra, gli scienziati di Los Alamos usavano i primi computer
elettronici.
2.5 I primi calcolatori
Dagli inizi del 1944 von Neumann era anche responsabile di un contratto di ricerca dell’”Istituto di studi avanzati” (IAS) di
Princeton. Il progetto principale aveva come obiettivo la soluzione di problemi matematici complessi di natura militare;
allo IAS in particolare, fu affidato lo studio di metodi numerici per risolvere i problemi di onde d’urto. Negli ultimi mesi
della guerra questo progetto si estese alla ricerca di metodi per i cosiddetti “calcolatori ad alta velocità”. Sul
“Memorandum sul programma del computer ad alta velocità” pubblicato l’8 novembre 1945, von Neumann evidenziò un
progetto che andava oltre la costruzione del computer: “Dovranno essere fatte delle ulteriori ricerche in parallelo con lo
sviluppo e la costruzione della macchina. Comunque, il lavoro principale dovrà essere fatto quando la macchina sarà
completa e disponibile, usando la macchina stessa come strumento di sperimentazione”.
Von Neumann conosceva tutti i progetti in corso, in particolare quello di George Stibitz (computer con relay
elettromeccanici) e del calcolatore “Mark I” (ASCC) di Howard Aiken, costruito con l’aiuto dell’IBM e poi donato
all’Università di Harvard. “Mark I” fu completato nel 1944 e cominciò a funzionare a pieno ritmo per la marina militare.
Il progetto più importante, ma segreto, era quello di una macchina elettronica in costruzione presso la Scuola Moore di
Ingegneria elettrica dell’Università di Filadelfia, in Pennsylvania; che avrebbe segnato il passaggio definitivo dai
calcolatori ai moderni elaboratori elettronici. Si trattava dell’ENIAC (Electronic Numerator, Integrator, Analyser and
Computer), un progetto iniziato nel 1943 dal Laboratorio di Aberdeen per affrontare i complessi calcoli balistici richiesti
per le tavole di tiro. Quando von Neumann visitò per la prima volta la Scuola Moore, il progetto ENIAC era in fase
12
avanzata. Nel giro di quindici giorni, il progetto del calcolatore fu modificato per permettere la memorizzazione interna del
programma. La programmazione, che fino a quel momento richiedeva una manipolazione diretta ed esterna dei
collegamenti, era così ridotta ad un'operazione dello stesso tipo dell'inserimento dei dati; l'ENIAC diventava la prima
realizzazione della macchina universale inventata da Alan Turing nel 1936: in altre parole, un computer programmabile
nel senso moderno del termine.
Nel frattempo un nuovo modello di computer, l'EDVAC (Electronic Discrete Variable Computer), era in cantiere, e von
Neumann ne assunse la direzione. Proseguì dopo la guerra la sua collaborazione nella realizzazione del calcolatore
EDVAC, delle sue copie in giro per il mondo e in altri sviluppi della tecnologia informatica.
All'”Istituto di studi avanzati” di Princeton, in particolare, egli si dedicò alla progettazione di un nuovo calcolatore,
producendo una serie di lavori che portarono alla definizione di quella che oggi è nota come architettura von Neumann:
in particolare, la distinzione tra memoria primaria (ROM) e secondaria (RAM), e lo stile di programmazione mediante
diagrammi di flusso. Questa macchina fu inaugurata solo nel 1952, con una serie di calcoli per la bomba all'idrogeno, e
fu smantellata nel 1957 a causa dell'opposizione dei membri dell'Istituto, che decisero da allora di bandire ogni
laboratorio sperimentale.
Molti dei lavori di von Neumann non furono pubblicati perché coperti da segreto militare. Nel 1946 fu nominato, in un
contesto non strettamente militare, presidente del “Comitato del calcolo ad alta velocità” del “Comitato nazionale di
ricerca”. Parte dei suoi sforzi era volta all’organizzazione scientifica dell’informatica e delle tecnologie connesse, anche
se, a suo parere, non erano ancora maturi i tempi per fondare una società scientifica che si dedicasse sullo sviluppo dei
calcolatori veloci. Continuò comunque a sviluppare le sinergie tra le potenzialità dei computer e le necessità di soluzioni
computazionali di problemi nucleari.
2.6 L’esperto di fiducia degli organismi militari e governativi
La bomba atomica fu sperimentata con successo nel luglio del 1945, nel deserto del Nuovo Messico. Il nuovo presidente
americano Harry Truman (Roosevelt era morto il 12 aprile 1945) decise di impiegarla contro il Giappone. Il 6 ed il 9
agosto del 1945, le bombe atomiche esplosero sopra Hiroshima e Nagasaki, all'altezza calcolata da von Neumann
affinché esse producessero il maggior danno aggiuntivo. In entrambi i casi le conseguenze furono spaventose: i morti
furono circa 100.000 a Hiroshima e 60.000 a Nagasaki, i sopravvissuti subirono le conseguenze delle radiazioni per un
lungo periodo e le due città furono completamente distrutte. Come testimoniato da Sam Cohen che lavorava a Los
Alamos, la notizia della prima esplosione fu accolta con entusiasmo, con l’orgoglio di chi apprende che ciò che ha
costruito ha funzionato; gli scienziati e l’opinione pubblica, però, non furono informati subito del reale numero di morti
civili che erano stati provocati. La sera del 6 agosto, la BBC aveva annunciato che la bomba era stata sganciata su una
base militare giapponese, e non su una città di 290.000 civili e 43.000 soldati.
L’obiettivo del bombardamento fu raggiunto con la firma dell’armistizio del 2 settembre 1945: si concludeva il secondo
conflitto mondiale. Forse c’erano altri modi per far finire in fretta la guerra, minimizzando le perdite per gli Stati Uniti, ma
sicuramente il comitato di quattro scienziati (Fermi, Compton, Oppenheimer, Lawrence) che doveva consigliare il
governo americano sull’uso delle nuove bombe, non disponeva di tutte le informazioni per prendere una decisione simile.
L’invasione del Giappone era inevitabile, perché così era stato loro detto. Il ricorso alla consulenza di questo comitato è
un esempio dell’influenza degli scienziati sulle scelte politiche; non bisogna però dimenticare che gli scienziati, in questa
situazione, sono anche stati usati dal potere politico in quanto non erano in grado di valutare le possibile alternative al
lancio delle due bombe e molte informazioni furono loro nascoste.
La partecipazione di von Neumann al progetto di Los Alamos non si limitò agli aspetti scientifici, ma ebbe intensi rapporti
con le istanze militari che controllavano il progetto; ad esempio, fece parte del comitato che decise gli aspetti tattici
dell’uso militare della bomba e la localizzazione degli obiettivi giapponesi del bombardamento.
La posizione di von Neumann sull’utilizzo della bomba atomica a Hiroshima e Nagasaki era allineata alle posizioni del
Governo; difese gli interessi e la politica degli Stati Uniti anche nel periodo postbellico.
Il periodo nazista aveva riunito molti scienziati di varie nazionalità attorno al progetto di Los Alamos. Il bombardamento
creò divergenti opinioni nella comunità scientifica. Dopo la guerra, alcuni scienziati, come Oppenheimer, contribuirono
alla politica nucleare americana; altri, come Einstein, iniziarono una campagna pacifista per impedire un ulteriore
sviluppo delle armi atomiche. Si formò anche una Federazione di scienziati americani che si opponevano allo sviluppo
degli armamenti nucleari.
Von Neumann prese fin dall’inizio le distanze dalle iniziative dei suoi colleghi pacifisti ed evitò ogni pronunciamento
pubblico circa l’uso militare dell’energia atomica; affermava che, in quanto esperto, la sua competenza era strettamente
tecnica. Nel luglio del 1946 egli partecipò come osservatore ufficiale ai test atomici realizzati nell’atollo Bikini delle Isole
Marshall nel Pacifico meridionale.
La decisione di Truman di impiegare contro il Giappone la nuova “arma letale” aveva avuto lo scopo di abbreviare il
conflitto, ma aveva avuto anche l’obiettivo di mostrare al mondo, e soprattutto ai sovietici, la potenza militare americana.
Infatti, una volta vinto il nazismo, il nuovo nemico era l’Unione Sovietica. Mentre l’Europa era impegnata nella
ricostruzione, soltanto gli Stati Uniti e l’URSS potevano aspirare a conservare il loro ruolo di potenza mondiale. L’ideale,
almeno ufficialmente, dell'Unione Sovietica era fondato sul principio di una rivoluzione sociale che avrebbe eliminato lo
sfruttamento delle classi povere e realizzato l'uguaglianza e la giustizia sociale. Il messaggio americano era l’espansione
13
della democrazia liberale, in regime di pluralismo politico, di concorrenza economica e di ampia libertà individuale.
In questa situazione, si esprimevano le caratteristiche personali di von Neumann, il suo interesse per l’attività pubblica e
per le relazioni ad alto livello, la capacità non soltanto di dare consigli a livello scientifico-tecnico, ma anche di
collaborare alla macchina esecutiva con una prospettiva politica generale. In particolare egli dimostrava una gran
naturalezza nel rapporto con i militari, che non riusciva sempre facile ad altri scienziati. Il contributo di von Neumann fu
riconosciuto nel 1947, quando ricevette la Medaglia al merito dal Presidente degli Stati Uniti e una decorazione per il
servizio civile prestato nella Marina. In questo modo, fu consolidata la sua posizione di esperto di fiducia degli organismi
militari e governativi.
2.7 Altre armi per la guerra preventiva
Le ricerche proseguivano a Los Alamos, dove si pensava alla costruzione della bomba H o termonucleare. Von
Neumann dimostrò che era possibile fabbricarla e che sarebbe stata efficace.
Dopo il primo test atomico sovietico e l’inizio della guerra di Corea nel 1950, iniziò un’ampia discussione sulla politica
militare orientata a mantenere la supremazia statunitense. Si diffuse l’idea – sostenuta, a quante pare, dallo stesso von
Neumann – di una guerra preventiva. In un articolo pubblicato sulla rivista Life, pubblicato poco dopo la sua morte, si
scrisse che von Neumann affermò: “Se tu dici perché non una bomba domani, io dico, perché non oggi. Se tu dici alle
cinque, io dico perché non all’una”.
La sua teoria dei giochi, ed in particolare la strategia minimax, fu applicata estesamente alla problematica della guerra
preventiva, in particolare nelle analisi strategiche sviluppate dalla RAND Corporation, fondata dall’aviazione nel 1946, e
con la quale von Neumann collaborò sistematicamente dal 1948.
Il Presidente Truman decise di procedere con le ricerche per la bomba H. Von Neumann aveva sostenuto l’idea di
sviluppare un’unica bomba, mente Oppenheimer era più orientato a produrre piccole armi nucleari tattiche. Le ricerche
culminarono con il primo test realizzato nelle Isole Marshall nel 1952. Nello stesso anno, von Neumann ricoprì un posto
vacante nel “Comitato dei consulenti scientifici dell’aviazione”, mentre Oppenheimer cominciò a perdere rapidamente
influenza.
Alla fine del 1952, fu eletto Presidente il generale Eisenhower che aveva dichiarato di voler contenere lo sviluppo degli
armamenti. Paradossalmente si scelse di diminuire le armi convenzionali a favore di quelle atomiche che a minori costi
ottenevano maggiore potenza. La posizione di von Neumann all’interno dell’aviazione non è ben conosciuta, perché
molti dei verbali dei comitati cui partecipava, anche come presidente, sono ancora segreti.
Nel 1953, von Neumann divenne presidente del “Sottocomitato per le armi” e sembra che propugnasse uno sviluppo
senza intralci della tecnologia nucleare, in particolare la produzione di bombe sempre più potenti, la necessità di fare i
test atomici e il perfezionamento dei sistemi di lancio. Nello stesso anno divenne presidente del panel di scienziati sulle
armi nucleari dell’aviazione e del gruppo di valutazione dei missili strategici, conosciuto anche come “ Comitato von
Neumann”. Nel 1954, questo comitato consigliò di dare la massima priorità allo sviluppo di un missile balistico
intercontinentale, il progetto “Atlas”. Questo progetto destava perplessità e opinioni contrastanti, anche legate alle rivalità
tra Esercito che sosteneva lo sviluppo di missili a medio raggio, Marina e Aviazione, quest’ultima da poco costituita in
arma autonoma. Alla fine il progetto fu approvato ed affidato ad una compagnia privata fondata da due ex-membri del
“Comitato von Neumann”, con la quale con Neumann collaborò come consulente. Sotto la sua supervisione si studiò
problemi di traiettoria, problemi di resistenza al calore e la miniaturizzazione dei componenti. Il primo test del missile
Atlas fu realizzato nel 1958 con un lancio di 2500 miglia.
Nel 1954, von Neumann divenne membro del “Comitato tecnico di consulenza sull’energia atomica” del Dipartimento
della Difesa. Raggiunse il vertice della carriera l’anno dopo, quando fu nominato membro della “Commissione
dell’Energia Atomica” (AEC), la massima posizione ufficiale che uno scienziato potesse raggiungere nel Governo
statunitense, diventando lo scienziato con il maggiore potere politico negli Stati Uniti.
2.8 La Big Science
Nel dopoguerra, militari, uomini politici e opinione pubblica erano consapevoli che i risultati della ricerca scientifica, dal
radar alla bomba, erano stati decisivi per l’esito della guerra. Ciò dava agli scienziati un credito indiscusso. Sulla scorta
del prestigio acquisito durante la guerra, ebbero buon gioco nel chiedere risorse e finanziamenti. L’accelerazione
imposta dalle necessità belliche portò alla maturazione del fenomeno della Big Science, l’organizzazione e la
realizzazione di progetti di ricerca che impiegavano capitali su scala mai vista prima. Il “Progetto Manhattan” ne era stato
il prototipo. Dopo l’esperienza di questo progetto scientifico, la potenza di un paese sarebbe dipesa dal grado del suo
progresso scientifico.
Quest’impresa collettiva che portò tra il 1942 ed il 1945 alla costruzione dei primi ordigni nucleari, conciliava la creatività
di gruppo con la rigidità dei vincoli militari. Come illustrato nei paragrafi precedenti, il contributo degli scienziati europei fu
determinante, perché esportarono negli Stati Uniti una cultura ed una tradizione orientate all’organizzazione della
14
creatività collettiva, originata nei centri di ricerca artistica e scientifica del vecchio continente. Le peculiarità organizzative
che erano state sviluppate in questi centri e che furono replicate nel “Progetto Manhattan” furono: interdisciplinarietà,
informalità, stile di leadership carismatico-partecipativo, forte senso di appartenenza alla comunità scientifica.
Trapiantata a Los Alamos, questa cultura fu potenziata dalle enormi disponibilità finanziarie statunitensi, da una struttura
logistica protetta e pensata ad hoc, da una spinta ideologica in cui l’orgoglio scientifico e l’obiettivo patriottico si
esalteranno a vicenda.
2.9 La guerra fredda
Oppenheimer, come presidente di un consiglio di consulenza sul disarmo creato da Eisenhower nel 1953, chiese al
Presidente di rendere pubblica la discussione sugli armamenti. Nello stesso anno Oppenheimer fu dichiarato pericoloso
per la sicurezza del paese dalla “Commissione dell’energia atomica”; fu accusato di tentare di affondare il programma
della bomba H e di cospirare con elementi comunisti. Una commissione d’inchiesta, dopo un lungo e difficile processo,
assolse Oppenheimer dalle accuse nel giugno 1954. Von Neumann fu scosso dalle accuse al collega Oppenheimer e
nella sua dichiarazione di fronte alla commissione d’inchiesta lo appoggiò. Nonostante questa esperienza, von Neumann
si oppose a qualsiasi politica di disarmo o anche di controllo degli esperimenti atomici.
Ricordiamo che nel 1955 era stato nominato membro della “Commissione dell’Energia Atomica” (AEC). Nello stesso
anno, in una conferenza su “L’impatto dell’energia atomica sulle scienze fisiche e chimiche” tenuta al MIT
(Massachusetts Institute of Technology), egli parlò delle nuove responsabilità dello scienziato nell’era atomica e della
necessità che questi non fosse soltanto competente nella sua disciplina, ma anche nella storia, nel diritto, nell’economia
e nell’amministrazione. In tal modo, egli difendeva il ruolo che poteva essere assolto da una élite di alto livello, capace di
giudicare e decidere razionalmente la politica più favorevole per il paese. Il ruolo della scienza non si restringeva allo
sviluppo della tecnologia, ma investiva i processi di decisione e di direzione della politica e della società.
La sua visione politica si basava due elementi: il predominio dell’analisi logica e strategica, che trovavano la loro
realizzazione nella teoria dei giochi; la fedeltà alla causa della sua nuova patria. La conoscenza delle caratteristiche degli
ordigni atomici (effetti distruttivi immediati e di massa) e la sua fiducia nell’analisi dei sistemi e nell’analisi operativa, lo
portarono ad appoggiare l’idea di equilibrio strategico del terrore.
Von Neumann conduceva il suo lavoro scientifico in modo ottimistico, ma non ignorava le potenzialità negative. In un
articolo di studi strategici pubblicato sulla rivista Fortune nel giugno del 1955, egli si pose la domanda “Potremo
sopravvivere alla tecnologia?”. In tale articolo affermava che le tecnologie sono sempre costruttive e utili, direttamente o
indirettamente, ma le loro conseguenze tendono ad aumentare l’instabilità. In altre parole, considerava la tecnologia e le
scienze come neutre, nel senso che potevano essere usate per fare del bene o per fare del male. I nuovi strumenti
tecnologici, che avevano permesso la creazione delle armi nucleari e forse un giorno il controllo del clima, sarebbero
stati sicuramente usati e avrebbero modificato le relazioni sociali e politiche, richiedendo nuove forme politiche.
“Tutto il globo sta rapidamente maturando una crisi”. Sottolineò che la crisi dell’umanità “non nasce da eventi casuali o
da errori umani. È inerente alla relazione della tecnologia con la geografia da una parte e con l’organizzazione politica
dall’altra. La tecnologia che si sta sviluppando e che dominerà nei prossimi decenni sembra essere in totale conflitto con
le unità ed i concetti geografici e di politica tradizionali e momentaneamente ancora validi. Questa è la crisi della
tecnologia che sta maturando. Sarà quindi necessario sviluppare nuove forme politiche e procedimenti. Tutte le
esperienze mostrano che cambiamenti tecnologici anche più piccoli di quelli in programma, trasformeranno
profondamente le relazioni politiche e sociali”. “Non c’è cura per il progresso” perché il progresso non può essere
fermato. “I problemi del futuro dell’umanità”, scrisse concludendo con una nota di ottimismo, “non possono essere risolti
con una singola ricetta, ma solo con opportune misure, giorno per giorno, e con la fiducia nelle qualità umane
necessarie: pazienza, flessibilità, intelligenza”.
Il messaggio era che si può lasciare alle spalle le crisi e vivere il progresso scientifico e tecnologico solo se si combina
con una flessibile attività statale e di pubblica amministrazione, come pure con il progresso sociale. Questo accade solo
se scienziati, ingegneri e politici si capiscono e cooperano.
2.10 Un difficile equilibrio
L’approccio di von Neumann alla ricerca e la sua adesione ai valori della nuova patria, gli permisero di affrontare, a
differenza di altri suoi colleghi, i limiti della ricerca scientifica nell’ambito militare e industriale. Infatti, svolse ricerche
coperte dal segreto e dai brevetti e rinunciò alla pubblicazione dei risultati e alla loro diffusione nella comunità scientifica
internazionale. D’altro lato, la ricerca era limitata a programmi orientati verso la tecnologia, rinunciando alla libertà
scientifica ed aderendo ad una concezione utilitaristica. Anche se egli collaborò più volte con imprese private come
consulente, difese rigidamente la divisione di competenze fra la ricerca industriale, quella accademica e quella svolta al
servizio del Governo.
Il rifiuto di una visione puramente utilitaristica emerge negli appunti scritti per la dichiarazione davanti al “Comitato
speciale” del Senato americano, i cui lavori portarono alla legge per l’energia atomica. Qui von Neumann, richiamandosi
ad una visione genuinamente classica della scienza, metteva in guardia contro possibili errori nell’ambito dell’intervento
15
delle agenzie governative (e, in particolare, militari) nella direzione della ricerca scientifica e nella progettazione della
politica nazionale. La ricerca scientifica doveva basarsi soprattutto su due pietre angolari: la libertà nella scelta dei temi
della ricerca di base, e la libertà di pubblicare i suoi risultati.
Questo avvertimento si univa ad una posizione radicalmente ostile ad ogni intralcio nella ricerca militare: si trattava di un
equilibrio assai difficile, poiché molte delle sue ricerche furono mantenute segrete per le loro implicazioni militari.
L’equilibrio era reso ancora più difficile se si considera che la sua difesa della ricerca in ambito militare e il suo rifiuto del
puro utilitarismo, convivevano con una concezione radicalmente liberista, anche sul terreno della ricerca nucleare.
Era cosciente che una politica irresponsabile o brutale combinata con la fisica nucleare poteva rendere la superficie della
terra inabitabile, ma la regolamentazione della scienza non poteva andare troppo in là.
Di fatto, egli difese la legittimità dei rischi dei test nucleari, anche dopo alcuni incidenti, e si oppose alla elaborazione di
un rapporto per l’ONU sui rischi della pioggia radioattiva, considerandolo contrario agli interessi degli Stati Uniti.
2.11 La democrazia liberale e l’elite scientifica
Le scelte di von Neumann furono probabilmente sempre dettate da convinzioni radicate in una visione etica ben precisa,
e in particolare nel valore primario della democrazia liberale, che considerava un bene da difendere ad ogni costo. La
democrazia liberale si fonda sul primato dell’individuo e von Neumann aveva tutti gli strumenti culturali, caratteriali e di
competenze per emergere ed esprimersi al meglio. Secondo John Stuart Mill, teorico del liberalismo, “il genio può
respirare liberamente soltanto in una atmosfera di libertà” e questo fu quello che fece von Neumann. Inoltre, von
Neumann concordava con la convinzione di Mill che la regolamentazione della scienza da parte dello Stato è necessaria
soltanto per evitare danni all’umanità. È certo che la scienza e la visione scientifica delle cose furono il centro di gravità
di tutti i sui pensieri. Di qui la convinzione profonda che ogni questione potesse essere risolta o avviata ad una
risoluzione quanto meno ragionevole e accettabile purché fosse affrontata secondo i principi della razionalità scientifica.
Da questa convinzione nasce il ruolo centrale che egli attribuiva alla comunità scientifica come guida illuminata della
società. Così può essere spiegata anche la sua adesione entusiastica agli ideali della società americana.
Abraham Pais (1918-2000), olandese di origine ebrea, collega di A. Einstein a Princeton, ricordava: “La percezione
diffusa” era quella “dello scienziato non come individuo, ma come membro di una casta, lo sciamano dell’era atomica”.
Il peso crescente che assumevano personaggi di estrazione scientifica come von Neumann, in stretto collegamento con
l’apparato militare e industriale, determinò la formazione di una élite scientifico-tecnologica che finì per esercitare un
potere smisurato, capace non soltanto di contendere spazi al potere politico, ma persino di condizionarne le scelte. Tale
rischio fu riconosciuto dall’ex-Presidente Eisenhower, durante un suo discorso del 1961 (nel 1960 era scaduto il suo
secondo mandato ed era stato eletto John Fitzgerald Kennedy).
Un esempio dell’influenza che gli scienziati hanno esercitato in passato è quello del comitato chiamato ad esprimersi dal
Presidente americano Truman sull’uso della bomba atomica nel conflitto con il Giappone. Il comitato non poteva essere
obiettivo in quanto non disponeva di tutte le informazioni e, di conseguenza, non era nelle condizioni di dare un
eventuale giudizio neutrale.
La società in cui viviamo è sempre più complessa e diventa inevitabile il ricorso alla collaborazione degli specialisti da
parte del potere politico. Si parla di élite scientifica e tecnologica perché è composta sia da scienziati, che in Italia
provengono principalmente dal mondo accademico, che da “tecnici” che provengono dall’imprenditoria privata, i quali,
utilizzando la leva del “parere tecnico” possono influenzare nel bene e nel male le decisioni politiche.
Anche ai giorni nostri, rimane il pericolo che la politica pubblica ponga totale fiducia in una élite scientifico-tecnologica, in
grado di fornire da sola tutti gli strumenti per una gestione razionale e “giusta” della società.
3.1 I primi contributi per un’economia matematica
Il contributo di von Neumann alla Matematica negli anni Quaranta fu notevole e riguarda soprattutto l’applicazione della
Matematica allo studio delle scienze sociali.
Il processo di matematizzazione delle scienze sociali, anche se fu accelerato dagli sviluppi scientifici legati alla guerra,
aveva radici ben più profonde. I primi tentativi di estendere a tutti i campi del sapere l’approccio scientifico, che aveva
*
conseguito tanti successi nella fisica, risalgono alla fine del Settecento ( ). L’idea fondamentale era quella di
matematizzare le discipline più disparate imitando il modello della meccanica Newtoniana. Questo progetto si sviluppò in
economia nel corso dell’Ottocento grazie ai contributi di William S. Jevons, Francis Y. Edgeworth e soprattutto di Lèon
Walras. Walras enunciò una teoria dell’equilibrio economico che si basava su un sistema di equazioni algebriche non
lineari in cui il numero delle equazioni uguagliava il numero delle incognite. Gli economisti dell’epoca non accettavano
affatto l’idea di un’economia matematica e soprattutto la pretesa di tradurre in numeri la “libertà umana”. Agli economisti
si affiancavano i matematici il cui scetticismo era dovuto al fatto che i risultati ottenuti erano molto scarsi. Ed era proprio
16
per combattere questo scetticismo che Walras sottolineava l’importanza del risultato ottenuto “numero delle equazioni
uguale al numero delle incognite”.
I problemi che la teoria dell’equilibrio economico presentava, se da un lato erano alla base dello scetticismo dei
matematici tanto da determinare la piena crisi della teoria agli inizi del Novecento, dall’altro costituivano una sfida per la
scuola matematica centroeuropea sempre più propensa ad affrontarli con un approccio assiomatico. Von Neumann
studiò la teoria dell’equilibrio economico di Walras nel 1927 criticandola sia da un punto di vista concettuale che da un
punto di vista matematico. Egli fu uno dei primi ad interessarsi alla risoluzione dei problemi che da tale teoria scaturivano
spinto anche dai contatti con il Circolo di Vienna e con il Mathematische Kolloquium di Karl Menger. Fu proprio grazie a
Menger che i problemi matematici della teoria dell’equilibrio economico divennero un tema di grande interesse nel
Kolloquium negli anni trenta.
Karl Menger era figlio del noto economista Carl Menger fondatore della “Scuola economica austriaca” e nel 1931, allo
scopo di studiare i problemi matematici della teoria dell’equilibrio economico, mise in contatto il banchiere ed economista
ungherese Karl Schlesinger, che si era occupato della teoria della moneta ed aveva dato una nuova formulazione delle
equazioni di Walras, con il giovane matematico romeno Abraham Wald che stava ultimando i suoi studi universitari a
Vienna. Da questa preziosa collaborazione che integrava studi di economia e di matematica venne fuori il lavoro di Wald
che conteneva la prima dimostrazione dell’esistenza e dell’unicità dell’equilibrio ricavata mediante tecniche infinitesimali
classiche. Il lavoro di Wald fu molto apprezzato da von Neumann perché gli ricordava il modello economico di crescita
lineare che lui stesso aveva illustrato in un seminario all’Institute of Advanced Study (IAS) di Princeton nel 1932. Tale
modello si basava su una dimostrazione dell’esistenza dell’equilibrio in un’economia di produzione ottenuta con metodi
matematici molto avanzati.
Nel 1937 fu pubblicato il lavoro di Von Neumann dal titolo Sopra un sistema di equazioni economiche e una
generalizzazione del teorema del punto fisso di Brouwer che costituisce la base delle moderne presentazioni formali
della teoria dell’equilibrio. In questo scritto veniva eliminata ogni distinzione tra fattori di produzione e prodotti e
l’economia si riduceva a un meccanismo di trasformazione dei beni che era descritta mediante un sistema di equazioni e
disequazioni lineari. Von Neumann arrivò alla soluzione del problema circa l'esistenza di situazioni di equilibrio nei
modelli matematici dello sviluppo del mercato, basati sulla domanda e sull'offerta (attraverso prezzi e costi) e scoprì che
un modello andava espresso mediante disequazioni (come si fa oggi) e non con equazioni (come si era fatto fino ad
allora) e trovava poi una soluzione applicando il teorema del punto fisso (di Luitzen Brouwer).
3.2 L’incontro con Morgenstern e la Teoria dei Giochi
L’invasione nazista di Vienna del 1937 segna la fine del Kolloquium di Menger, lo stesso Menger è costretto ad emigrare
negli Stati Uniti, ma non interrompe l’attività di von Neumann che riprende con lo stesso spirito dell’ambiente viennese a
Princeton grazie all’incontro con Oskar Morgenstern.
Morgenstern era un economista che aveva frequentato la Scuola Superiore e l’Università a Vienna, dove aveva ottenuto
il dottorato nel 1925. Nei successivi tre anni aveva viaggiato parecchio per l’Europa e l’America mentre lavorava nella
Fondazione Rockfeller e nel 1929 era ritornato in Austria per occupare il posto di assistente incaricato all’Università di
Vienna, e quello di professore universitario nel 1935. Frequentatore del Kolloquium di Menger nel 1938 lasciò Vienna a
causa dell’occupazione dell’Austria da parte dei Nazisti e fu chiamato all’Università di Princeton. L’insoddisfazione
crescente sullo stato della teoria economica lo aveva allontanato sempre di più dagli ambienti degli economisti
avvicinandolo a Vienna a Menger e a Princeton a von Neumann. L’interesse di Morgenstern per gli studi sulla meccanica
quantistica e sui fondamenti della matematica, cui von Neumann lo aveva avvicinato, fece si che nonostante la sua
formazione di economista si dedicasse con molto impegno e sacrificio allo studio della matematica.
La teoria dei giochi è una disciplina matematica molto recente. La sua nascita viene convenzionalmente fissata con
l’uscita del famoso libro di von Neumann e Morgenstern Theory of Games and Economic Behavior pubblicato nel 1944.
Questo non vuol dire che prima del 1944 non ci siano stati importanti contributi allo studio matematico dei giochi, ma il
libro di von Neumann e Morgenstern è il primo a proporre questo programma in maniera sistematica e soprattutto in
relazione allo studio delle scienze sociali. Nella prima parte del libro di von Neumann e Morgenstern è presente una
critica radicale alla teoria Walrasiana dell’equilibrio economico generale, responsabile secondo gli autori di non tenere in
considerazione l’influsso che le reazioni con altri individui hanno sulle decisioni di ogni singolo individuo. La vera
rivoluzione non è usare i metodi matematici utili per lo studio della fisica applicandoli all’economia, ma costruire una
“matematica nuova”, che fornisca uno strumento adatto allo studio di questi argomenti: la teoria dei giochi. Il libro di von
Neumann e Morgenstern suscitò enormi attese ed ebbe un fortissimo impatto ma, dopo alcuni anni di successo,
subentrò un periodo di sfiducia nella teoria dei giochi, che è diventata strumento importante per l’analisi economica solo
negli anni ’80. Von Neumann e Morgenstern fanno una classificazione tra giochi non cooperativi e giochi cooperativi.
La teoria cooperativa studia il formarsi di coalizioni tramite la possibilità di sottoscrivere accordi vincolanti, perché questi
possono essere di vantaggio ai singoli componenti. La teoria non cooperativa si occupa dei meccanismi delle decisioni
dei singoli, sulla base di ragionamenti individuali, in assenza di alleanze tra individui. Questa distinzione non implica che
nei giochi cooperativi siano presenti atteggiamenti non altruistici: le eventuali scelte altruistiche sono già nel modello e
vengono rappresentate dalle funzioni di utilità dei singoli. Si potrebbe dire che la Teoria dei giochi è una disciplina molto
seria con un nome molto fuorviante, che le è rimasto dal libro di von Neumann e Morgenstern. In realtà i giochi in senso
letterale (scacchi, carte ecc.) vengono usati come “palestre” per imparare a modellizzare interazioni economiche e
sociali, qualcosa di analogo a quanto accade per i cosiddetti giochi d’azzardo in relazione alla probabilità. In quest’ottica
17
si ha che un gioco contro il “caso” (per esempio il lotto o la roulette) in cui c’è un solo giocatore che gioca contro la sorte
non è un gioco nel senso della teoria dei giochi. Per esserci un gioco vero devono esserci almeno due giocatori.
E’ importante osservare che l’interesse di Von Neumann non era tanto per il concetto di equilibrio quanto per il processo
di formazione delle decisioni che si rivolgeva ad un contesto ben più vasto di quello economico, investendo questioni
industriali, militari, politiche e di gestione cercando di risolvere i problemi della programmazione economica e dell’uso
ottimale delle risorse scarse. In altre parole il problema era quello di studiare i metodi per ottenere al minimo costo un
obiettivo economico determinato. Von Neumann fornì dei risultati importanti anche in questo campo.
L’interesse di von Neumann per la risoluzione numerica di problemi specifici come “il calcolo del costo minimo di un vitto
per le forze aeree in grado di soddisfare i requisiti minimi giornalieri di nove principi nutritivi a partire da sessantasette
alimenti” lo portò alla pubblicazione nel 1954 di un articolo che illustrava questi temi. Un altro lavoro teorico sempre su
questi temi, fu pubblicato postumo. Infatti, come affermavano Kuhn e Tucker, un importante risultato per von Neumann
poteva rimanere in un cassetto anche per anni o reso noto solo durante le conversazioni con amici.
Dopo la pubblicazione del libro con Morgenstern, von Neumann smise di occuparsi di problemi di economia, di
programmazione e decisione rivolgendo i suoi studi all’analisi numerica e al calcolo automatico che meglio
rispondevano alle esigenze della guerra.
3.3 I primi studi sull’analogia fra il funzionamento del cervello e gli apparati di
calcolo automatico
Negli anni che vanno dal 1939 al 1941 von Neumann ebbe un intenso scambio epistolare con il fisico ungherese Rudolf
Ortvay per discutere l’analogia fra il funzionamento del cervello e gli apparati di calcolo automatico. Nella corrispondenza
Ortvay descriveva il cervello come una rete i cui nodi erano cellule attraverso cui si trasmettevano gli impulsi e faceva
riferimento alle differenze e analogie con i sistemi di calcolo elettronico e con altre unità tecniche come le centrali
telefoniche o le installazioni radio. Ortvay nel ricercare un nucleo teorico che permettesse di distinguere gli aspetti
semplici e basilari del problema, credeva nella possibilità di assiomatizzare i sistemi complessi e organizzati soltanto con
la mentalità del matematico o del fisico e non con quella del medico o del fisiologo. Queste discussioni riproponevano
l’antico sogno circa la possibilità di realizzare esseri artificiali e svelare il segreto della mente umana e costituivano la
base teorica per lo sviluppo di quella disciplina che avrebbe poi preso il nome di Intelligenza Artificiale o anche IA,
dall’inglese Artificial Intelligence.
Nel 1943 il neuropsichiatria ungherese Warren McCulloch in collaborazione con il matematico Walter Pitts pubblicò
quello che viene tradizionalmente considerato il primo articolo sull’IA. In questo lavoro era presentato un modello di
neurone artificiale, in grado di rappresentare delle proposizioni logiche; si dimostrava inoltre che tutti i connettivi logici
sono implementabili tramite semplici reti di neuroni e si ipotizzava che una rete potesse avere capacità di
apprendimento. Lo studio di McCulloch e Pitts si basava su tre punti fondamentali: l’analisi fisiologica del cervello, la
teoria della computazione di Alan Turing e l’analisi formale della logica di Russel e Whitehead. I due autori sono quindi
considerati come i precursori di entrambi gli approcci di ricerca sull’IA, ovvero quello connessionista e quello logico.
L’articolo di McCulloch e Pitts costituì il punto di partenza per von Neumann nello sviluppo del progetto che lo portò alla
realizzazione del calcolatore EDVAC, una macchina con un’ampia memoria e unità di comando interna basata sul
concetto fondamentale della memorizzazione nella sua memoria centrale non solo dei dati, ma anche del programma.
Von Neumann nel progetto espone l’analogia tra il calcolatore EDVAC e il sistema nervoso partendo da due presupposti
fondamentali: si tratta di sistema di trattamento dell’informazione ed inoltre i triodi elettronici che venivano utilizzati
svolgevano la stessa funzione dei neuroni ideali di McCulloch e Pitts.
3.4 L’incontro con Goldstine
Fu molto importante per von Neumann l’incontro nel 1944 con Herman Goldstine. In un afoso pomeriggio dell’Agosto del
1944, nella sala d’aspetto della stazione di Aberdeen, il luogotenente Herman Goldstine, riconobbe in un altro
viaggiatore come lui in attesa di un treno, il famoso matematico di origine ungherese John von Neumann. L’incontro, a
cui assistettero pochi testimoni annoiati e accaldati, passò al momento del tutto inosservato ma era destinato a
rivoluzionare l’intera storia dell’informatica.
Goldstine, un insegnante di matematica precipitosamente richiamato nell’esercito statunitense all’indomani del
bombardamento di Pearl Habor, era stato infatti incaricato dal suo Stato Maggiore si seguire la costruzione dell’ENIAC, il
primo calcolatore realizzato utilizzando esclusivamente la tecnologia elettronica. Ideato da due ingegneri dell’Università
della Pennsylvania, Prosper Eckert e John Mauchly, l’ENIAC era stato progettato per automatizzare e velocizzare i
calcoli balistici legati alle esigenze belliche anche se venne completato solo nel 1946, a guerra ormai finita. Composto da
18.000 valvole termoioniche, particolari dispositivi che permettevano il passaggio dell’elettricità, aveva dimensioni
enormi: pesava 30 tonnellate e occupava una superficie di 160 metri quadrati. Soprattutto consumava 150.000 watt di
energia elettrica, sufficiente per illuminare una piccola città e produceva un calore con cui si sarebbe potuto riscaldare un
intero edificio. L’ENIAC poteva essere programmato solo posizionando manualmente interruttori e cavi di collegamento,
una tecnica laboriosa che richiedeva un’enorme quantità di tempo.
18
Incontrando von Neumann, Goldstine immaginò subito i preziosi contributi che il famoso matematico avrebbe potuto
portare allo sviluppo e alla realizzazione dell’ENIAC. Von Neumann non tardò a mettere a suo agio Goldstine che,
all’inizio un po’ timido ma poi sempre più tranquillo di fronte all’affabilità e alla simpatia del matematico, gli parlò a lungo
dell’ENIAC.
Anche von Neumann era in quegli stessi giorni impegnato in un importante e segretissimo progetto militare: doveva
risolvere le complesse equazioni necessarie per costruire la prima bomba atomica e gli sarebbe stato quindi
estremamente utile uno strumento di calcolo potente, rapido e affidabile. Promise a Goldstine di recarsi personalmente
nei laboratori dell’Università della Pennsylvania per incontrare gli ideatori dell’ENIAC e vedere le parti della macchina già
realizzate. Von Neumann mantenne la sua promessa e in poco tempo, dalla collaborazione con Eckert e Mauchly,
nacque il progetto di una macchina profondamente rivoluzionaria nota come “architettura di von Neumann”.
E’ importante osservare che fino ad allora i calcolatori, incluso l’ENIAC, erano delle macchine costruite per svolgere solo
ben determinate operazioni (come le calcolatrici tascabili di oggi) e il programma era concettualmente e praticamente
disgiunto dai dati su cui operava. In altre parole il programma si “metteva” in una parte della macchina mentre i dati si
“mettevano” in un’altra. Nelle macchine dotate dell’architettura di von Neumann invece, dati e programmi sono fra loro
indistinguibili e vengono memorizzati su un’unica memoria, usando le stesse tecniche di gestione. In questo modo è
quindi possibile collegare fra loro più programmi, modificarne agevolmente la struttura ed eventualmente scambiarli fra
macchine diverse.
Gli odierni impressionanti risultati dell’informatica sarebbero stati del tutto impensabili con macchine prive
dell’architettura di von Neumann e ancora oggi, la quasi totalità dei computer è strutturata secondo l’originale modello di
von Neumann.
3.5 Il first draft
Alla fine della guerra Eckert e Mauchly, prevedendo le grandi potenzialità di questa nuova macchina e le sue possibili
applicazioni non solo in ambito scientifico e militare ma anche e soprattutto nell’industria e nel commercio, pensarono di
brevettarne il modello. Von Neumann con un colpo di mano degno di un giovane hacker, li anticipò pubblicando il suo
ormai famosissimo “first draft”, “Il primo abbozzo” di una relazione sulla struttura dei moderni calcolatori. Nel 1947 un
tribunale federale ritenne il progetto della nuova macchina non più brevettabile.
L’architettura di von Neumann si basava su cinque unità di base del calcolatore:
·
·
·
·
·
l’unità aritmetica centrale, che eseguiva le operazioni aritmetiche, logiche e di confronto su dati prelevati
dall’unità di
memoria;
l’unità di memoria, che immagazzinava i dati e le istruzioni codificati in termini numerici;
l’unità centrale di controllo, che controllava la sequenza delle operazioni e coordinava il funzionamento
delle altre unità;
le unità di input, per l’introduzione dei dati;
le unità di output, per l’emissione dei risultati.
L’analogia che von Neumann faceva con il sistema nervoso era la seguente: l’unità centrale svolgeva le funzioni dei
neuroni associativi e le unità di input e output si comportavano allo stesso modo dei neuroni sensoriali e motori. Nel fare
questa analogia veniva però sottolineata la differenza tra il sincronismo del calcolatore, che segue il suo orologio interno,
e l’asincronismo degli impulsi tra neuroni.
Von Neumann nel suo piano di lavoro distingue l’aspetto tecnico da quello logico procedendo ancora una volta con un
criterio assiomatico astratto.
3.6 I primi calcolatori
Negli anni successivi alla stesura del “first draft “ vari laboratori inglesi e americani realizzarono quelli che possono
essere considerati i primi calcolatori moderni. La strada per l’evoluzione e la diffusione dei computer era ormai
definitivamente aperta e soprattutto negli Stati Uniti l’accelerazione tecnologica fu particolarmente forte soprattutto grazie
agli investimenti militari.
L’idea di Von Neumann fu applicata contemporaneamente in Inghilterra con l’EDSAC e in America con l’EDVAC
(Electronic Discrete Variable Automatic Computer) alla cui costruzione, terminata nel 1952, partecipò lo stesso von
Neumann. L’EDVAC era costituito da una memoria primaria, realizzata mediante il tubo Selectron della RCA e da una
memoria secondaria realizzata con pellicole o nastri magnetici su cui erano registrati i dati che dovevano essere trasferiti
alla memoria principale. I numeri venivano rappresentati all’interno del calcolatore in binario e si utilizzava la
rappresentazione a virgola fissa.
*
Il primo lavoro eseguito con l’EDVAC fu l’elaborazione di un modello di bomba H ( ). In seguito l’EDVAC fu utilizzato per
lo studio di problemi legati alla soluzione delle equazioni alle derivate parziali nella teoria della turbolenza e in
meteorologia.
19
Le nuove esigenze di impiego del calcolatore e lo sviluppo della tecnologia fecero sì che il calcolatore di von Neumann
venisse sostituito nel giro di pochi anni da nuove macchine più sempre potenti. Nel 1955 infatti venne presentato il primo
computer, chiamato TRADIAC, basato interamente sui transistor, ne aveva ben 800 ognuno nel proprio contenitore.
Alcune parti del calcolatore di von Neumann si trovano attualmente presso il National Museum of American History di
Washington.
3.6 Lo studio dei metodi dell’Analisi Numerica
Parallelamente allo sviluppo del progetto che portò alla realizzazione di EDVAC, von Neumann si dedicò allo studio
dell’analisi numerica, ovvero a quella parte della matematica che, in corrispondenza di particolari coefficienti e parametri
che costituiscono lo stato iniziale di un sistema di equazioni matematiche, cerca di determinare i valori numerici delle
soluzioni. Le difficoltà di calcolo determinate dall’esigenza di risolvere sistemi molto complessi spinse sempre di più von
Neumann insieme a Goldstine a ricercare dei metodi numerici basati sull’uso del calcolatore, in questo modi i due
matematici diedero origine allo sviluppo di tecniche di programmazione dei problemi per poterli processare sui
calcolatori.
Von Neumann e Goldstine nel sottolineare le enormi difficoltà che si presentavano quando bisognava codificare i
problemi matematici in istruzioni che il calcolatore era in grado di eseguire, compresero l’importanza dell’utilizzo del
“diagramma di flusso”. Questo strumento logico si prestava benissimo a descrivere il processo che avviene nel
calcolatore, processo in cui i vari passi da compiere non si succedono in modo sequenziale ma in modo dinamico: alcuni
passi devono essere eseguiti più volte, altri invece vengono eseguiti solo se si verificano determinate condizioni altri
ancora richiedono delle sostituzioni in base ai risultati intermedi ottenuti.
I due matematici intuirono anche la grande importanza della “programmazione strutturata”, un programma strutturato è
costituito da un programma principale da cui inizia l’esecuzione del programma e da sottoprogrammi chiamati “funzioni
o subroutine” che possono essere invocati dal programma principale quando è necessario. Se è necessario eseguire
uno stesso blocco di istruzioni più volte in diverse parti del programma, è conveniente scrivere il codice del blocco una
sola volta in modo che questo posso essere richiamato ogni volta che serve. In questo modo i programmi sono molto più
leggibili e soprattutto manutenibili. Gli studi di von Neumann e Goldstine sull’importanza dell’uso del “diagramma di
flusso” e della programmazione strutturata sono descritti in un rapporto in tre parti intitolato Planning and Coding
Problems for an Electronic Computing Instrument pubblicato nel 1947.
Von Neumann e Goldstine cercarono, attraverso l’analisi numerica, di dare una soluzione al problema
dell’accumulazione degli inevitabili errori di arrotondamento che si verificavano in un grande numero di operazioni al fine
di evitare che l’amplificarsi di tali errori cambiasse completamente i risultati. I due matematici arrivarono alla conclusione
che era necessario valutare la complessità (durata e numero di calcoli necessari) dell’algoritmo numerico utilizzato, infatti
per la risoluzione di problemi di grandi dimensioni la complessità poteva essere impraticabile. Le considerazioni di von
Neumann e Goldstine sul problema degli errori si trovano in un articolo pubblicato nel 1947.
Fino ad allora la fisica e la fisica matematica avevano sempre affrontato lo studio di equazioni lineari, ovvero di equazioni
in cui le funzioni o le derivate parziali erano di primo grado. Ciò secondo von Neumann e Goldstine costituiva un limite
per lo sviluppo delle applicazioni della matematica. In un rapporto scritto nel 1946 dal titolo On the Principles of Large
Scale Computing Machines i due matematici cercarono di ribadire la grande importanza che invece avrebbe avuto
l’implementazione dei metodi dell’analisi numerica ai calcolatori sia per la risoluzione di problemi non lineari che per lo
studio di problemi che richiedevano un numero elevato di calcoli.
3.8 I risultati nel campo della ricerca meteorologica
La convinzione che l’uso del calcolatore avrebbe permesso di affrontare con successo problemi complessi fece sì che il
progetto più ambizioso e affascinante sviluppato da von Neumann fosse quello legato alla ricerca meteorologica. In
questo modo la meteorologia poteva abbandonare i vecchi metodi basati sulle interpretazioni dei dati disponibili da parte
dei meteorologi. Von Neumann con l’aiuto del calcolatore elettronico e di tecniche numeriche adeguate, perseguiva una
descrizione analitica dell’atmosfera. Il suo scopo era quello di migliorare la trattazione dell’informazione lottando contro il
tempo al fine di ottenere previsioni affidabili nell’arco di 24 ore. E’ importante osservare che gli studi di von Neumann nel
campo meteorologico non escludevano il trattamento probabilistico - statistico ma lo subordinavano a quello classico.
All'inizio del '900 infatti i dati sul tempo venivano raccolti praticamente in tutte le regioni della Terra e le osservazioni,
inviate dalle stazioni, diventavano tabulati, statistiche, mappe, analisi, descrizioni. Venivano impiegati gli strumenti più
avanzati, e anzi la meteorologia diventava una scienza di frontiera, dove si sperimentavano le nuove tecnologie. Alle
stazioni su terra, alle navi meteo, ai palloni sonda e agli aquiloni, si aggiungevano via via le boe galleggianti, gli aerei
dell'aviazione militare e civile, i radar, i satelliti mobili e quelli geostazionari (come il celebre Meteosat). La massa di dati
fornita da queste strumentazioni diventava presto imponente, ma la capacità pratica di elaborare tali misure, agli inizi del
XX secolo, era minima nonostante le regole di questa scienza, enunciate dal chimico francese Antoine Laurent de
Lavoisier nel Settecento, si fossero ormai trasformate in equazioni matematiche grazie a personaggi come il
meteorologo norvegese Vilhelm Bjerknes e il matematico inglese Lewis Fry Richardson.
Richardson in un libro pubblicato nel 1922 da titolo Weather Prediction by Numerical Proces, illustrava che la
complessità della previsione meteorologica derivava dal gran numero di calcoli necessari. Egli stimava che la previsione
del tempo su tutto il pianeta avrebbe richiesto 64.000 calcolatori umani. In questo scenario appariva chiaro che un
20
grande contributo per risolvere il problema poteva essere dato dal trattamento automatico dei dati numerici. Partendo da
questa idea von Neumann, Vladimir K. Zworykin (un ingegnere che collaborava all’Electronic Computer Project (ECP) e
che è considerato il padre della televisione), Francis W. Reichelderfer (direttore del servizio meteorologico statunitense)
e il meteorologo Carl-Gustav Rossby diedero vita ad una serie di ricerche meteorologiche che costituirono un vero
progetto nell’ambito dell’ECP. Partendo dall’obiettivo di migliorare i risultati di Richardson, furono elaborati modelli
dell’atmosfera a due e a tre dimensioni che vennero messi alla prova applicandoli a casi specifici e nel 1953 furono
affrontati gli aspetti teorici e numerici del problema della circolazione generale dell’atmosfera. I risultati raggiunti fecero sì
che il servizio meteorologico civile e le diverse organizzazioni militari si interessassero al progetto tanto che nel 1954
nacque la Joint Numerical Water Prediction Unit.
3.9 Gli Automi Cellulari
Von Neumann si interessò anche agli studi diretti dal biofisico Max Delbrück sul batteriofago. Egli riteneva infatti che lo
studio di tale organismo, semplice ma abbastanza complesso da presentare i tipici aspetti del trattamento
dell’informazione, era più promettente dal punto di vista matematico dello studio estremamente complesso del sistema
nervoso umano.
Nel 1949 von Neumann, in una conferenza sugli automi, assumendo come modello assiomatico le reti neuronali di
McCulloch e Pitts, fece una descrizione comparativa della struttura e della complessità del calcolatore e del sistema
nervoso umano considerati come i principali esempi di automi. Tale descrizione si basava fondamentalmente
sull’organizzazione e sul funzionamento dei due sistemi. Egli esaminava la complessità degli automi ricorrendo alla
Macchina di Turing. Una Macchina di Turing universale è un modello astratto di computazione in grado di eseguire
qualsiasi algoritmo opportunamente codificato: rappresenta il concetto matematico di computabilità.
Partendo dal lavoro di Turing sugli automi e dal lavoro del suo collega Stanislaw Ulam sul comportamento dei sistemi
complessi, Von Neumann formulò il modello di una macchina auto diretta (un automa) esistente in un piano
bidimensionale, capace di auto riprodursi ed in grado di risolvere problemi computabili: un Automa Cellulare. In altre
parole von Neumann partendo dal principio che “la riproduzione” è forse la proprietà “fondamentale” degli esseri viventi,
si poneva il seguente interrogativo: può un essere artificiale o addirittura una macchina riprodursi? Egli si pose questa
domanda alla fine degli anni quaranta e per rispondere ad essa formulò il modello di Automa Cellulare. Von Neumann
voleva investigare la logica della riproduzione, ma bisogna considerare che a quei tempi non era stato ancora scoperto il
DNA. I modelli convenzionali di computazione, come la ben nota macchina di Turing, mantengono una forte distinzione
tra la parte strutturale di un computer, che è fissa, e i dati sui quali opera il computer stesso, che è la parte variabile. In
altre parole, il computer non è in grado di operare su sé stesso, ovvero sulla materia di cui esso è composto: non può
estendersi, modificarsi o riprodursi, costruendo altri computer. Al contrario, in un Automa Cellulare oggetti che possono
essere interpretati come dati passivi ed oggetti che possono essere interpretati come dispositivi di computazione sono
assemblati assieme in un’unica tipologia strutturale e sono entrambi soggetti alle stesse leggi di evoluzione del sistema:
in altre parole, la computazione e la costruzione (o auto riproduzione) sono solo due possibili modalità di funzionamento
o stati del sistema, tant’è vero che esistono Automi Cellulari in grado di costruire e replicare circuiti elettronici artificiali in
una simulazione al computer. I meccanismi che Von Neumann propose per ottenere strutture auto riproducentesi in un
Automa Cellulare ricalcano quasi fedelmente quelli realmente implicati nell’evoluzione della vita biologica. È evidente che
l’interesse principale di Von Neumann negli Automi Cellulari risiedeva nella possibilità di fornire modelli fisici di
spiegazione di certi fenomeni biologici di forte impronta riduzionistica.
Egli si pose le seguenti domande cruciali sugli Automi Cellulari:


sarebbe possibile realizzare un automa universale, in grado di risolvere qualsiasi problema logico
finito, postulato che tale classe di automi finiti esista?
sarebbe possibile per un automa costruire un altro automa a partire da materiali elementari
basilari di cui esso stesso è composto, e se sì a quale classi di automi finiti apparterrebbe il
prodotto di tale riproduzione?
a partire da queste due domande fondamentali, e posto che un automa sia in grado di costruire un altro automa:

potrebbe esso costruire una copia identica di sé stesso?
 potrebbe esso costruire un automa appartenente a una qualsiasi classe?
 potrebbe esso costruire un automa appartenente ad una nuova classe, ovvero potrebbe esso
costruire un automa in grado di evolversi autonomamente in una nuova classe di automi, al limite
più complessi?
Von Neumann progettò cinque differenti modelli di Automi Cellulari tutti in grado di riprodursi almeno in linea teorica. La
formulazione di questi modelli, però, era troppo complicata per avere una realizzazione pratica, finché Codd non riuscì
ad ottenere delle simulazioni di automi in grado di
auto riprodursi attraverso notevoli semplificazioni dei modelli originari di Von Neumann. Intorno agli anni Ottanta,
Stephen Wolfram, dell’Institute for Advanced Study, lavorò a lungo su modelli di Automi Cellulari monodimensionali e
bidimensionali e, basandosi sull’osservazione del loro comportamento durante le simulazioni, arrivò a formulare la
seguente prima classificazione di queste macchine:

automi semplici: l’automa evolve verso uno stato stabile caratterizzato dall’assenza di qualsiasi
configurazione di cellule diversa da quella in cui tutte le cellule assumono lo stesso stato;
21



automi stabili: l’automa evolve verso uno stato caratterizzato dalla presenza di configurazioni
stabili (fisse) o instabili (oscillatorie) di cellule;
automi disorganizzati: l’automa evolve verso uno stato disorganizzato, in cui non si individua
alcuna configurazione strutturata di cellule, né stabile né instabile;
automi caotici: l’automa evolve indefinitamente nel tempo, mostrando un comportamento
estremamente complesso, caratterizzato da un instabile susseguirsi di configurazioni strutturate e
assembramenti disorganizzati di cellule.
Successivamente, altri si cimentarono nella realizzazione di modelli di Automi Cellulari, e nei primi anni Settanta un
articolo del matematico Gardner pubblicato su “Scientific American” e riguardante il gioco “Life” di Conway, basato su un
Automa Cellulare, portò all’attenzione del pubblico questi nuovi modelli di Vita Artificiale (ALife) che tuttora
rappresentano una delle linee di ricerca più promettenti per lo studio di fenomeni naturali simulati di una certa
complessità.
Un Automa Cellulare, così come lo concepì von Neumann dopo un primo modello che abbandonò perché molto legato a
considerazioni fisico – geometriche, è un sistema dinamico a stati discreti il cui comportamento è completamente
determinato dall’azione a livello locale (a livello delle singole cellule che lo compongono) di regole deterministiche
stabilite globalmente per il sistema (regole di evoluzione dell’automa).
Un Automa Cellulare può anche essere considerato un universo in miniatura, stilizzato attraverso una simulazione al
computer. Lo spazio è rappresentato da una griglia uniforme, le cui celle possono essere vuote oppure occupate da
cellule aventi determinate caratteristiche. Il tempo in questo universo procede per passi discreti e le regole che
governano l’evoluzione del sistema sono espresse secondo delle tipiche tabelle di stato tramite le quali ogni cellula
computa il suo stato successivo sulla base dello stato delle celle vicine. Dunque, le regole del sistema agiscono a livello
locale, uniforme e, soprattutto, parallelo su tutte le celle della griglia di questo universo artificiale.
Gli Automi Cellulari forniscono modelli attendibili per molte ricerche su fenomeni nelle scienze naturali, nel calcolo
combinatorio e nella teoria della computazione parallela. Essi rappresentano un metodo comunemente usato nello studio
dell’evoluzione di grandi sistemi fisici o biologici, simulati artificialmente. Anche se l’Automa Cellulare più noto è il gioco
“Life” di Conway, simulazione dell’evoluzione di agglomerati cellulari (crescita, morte, riproduzione di strutture cellulari
arbitrariamente formate), esistono diversi altri tipi di automi interessanti in grado di simulare sistemi biologici complessi,
come un formicaio o un ecosistema. Jefferson dell’University of California di Los Angeles, ha realizzato un Automa
Cellulare capace di simulare l’equilibrio predatore-preda. In questo automa l’evoluzione del sistema è molto simile a
quella prevista dalle equazioni differenziali di Volterra - Lotka che descrivono la relazione predatore - preda.
Il principio di programma auto replicante utilizzato per la costruzione dei virus informatici si basa proprio sul concetto di
Automa Cellulare ed è per questo che la nascita dei virus informatici o quantomeno l’idea di programma inquinante la si
fa risalire al 1948, quando von Neumann, per la prima volta dimostrò matematicamente che era possibile costruire una
macchina o un programma in grado di replicarsi autonomamente. Circa 10 anni dopo, nel 1959, il concetto di
autoreplicazione di un programma venne applicato in un gioco per computer, Core Wars, ideato e realizzato da alcuni
programmatori del Bell Laboratories della AT&T.
Gli Automi Cellulari sono trattati da Von Neumann nell’articolo rimasto incompleto dal titolo Theory of Self – Reproducing
Automata pubblicato nel 1966 dal suo collaboratore Arthur Burks e nello scritto inedito e anch’esso incompleto intitolato
The Theory of Automata: Construction, Reproduction, Homogeneity.
Uno dei problemi fondamentali legato allo studio degli automi che von Neumann trattò in una serie di conferenze tenute
nel 1952 con il titolo Probabilistic Logics and the Synthesis of Reliable Organism from Unreliable Components riguarda
“l’affidabilità degli automi”. Egli partiva dal presupposto che l’organismo è capace di diagnosticare l’errore e di limitare i
suoi effetti per cui i sistemi naturali non necessitano di interventi esterni. Il cervello degli animali e dell’uomo pur essendo
costituito da strutture fragili e poco affidabili, i neuroni e le sinapsi, continua a funzionare anche quando si verificano
danni alle sue parti. Le macchine artificiali, invece, sono progettate in modo che ogni errore si amplifichi per cui è
necessario identificarlo rapidamente per una riparazione o una sostituzione del componente difettoso. Per questo era
necessario costruire codici per la trasmissione di informazioni in grado di essere affidabili anche quando la trasmissione
dei segnali e dei simboli è poco attendibile e soggetta a rumori.
Nel 1955 John Kemeny pubblicò su “Scientific American” un articolo dal titolo L’uomo visto come una macchina. Questo
articolo, che suscitò diverse reazioni, rappresentava la sintesi del pensiero che von Neumann aveva espresso nel libro,
anch’esso incompiuto e pubblicato postumo, dal titolo The Computer and the Brain. In questo scritto von Neumann, dopo
aver illustrato i principi del calcolatore, descrive il sistema nervoso umano in quanto sistema di trattamento
dell’informazione e nel confrontare i due sistemi sottolinea aspetti quali la velocità, il consumo di energia, le dimensioni e
l’efficienza. Questo libro che può essere considerato il testamento intellettuale di von Neumann, costituisce un punto di
riferimento per gli studiosi di scienze biomediche. Va sottolineato che, come ha ricordato Shannon, von Neumann non
cercò mai di identificare l’uomo con la macchina consapevole delle difficoltà che ostacolano simili analogie.
22
3.10 Fu ucciso dalle radiazioni
Von Neumann collaborò con la Standard Oil per consulenze nella localizzazione, la produzione e la raffinazione del
petrolio e, poiché credeva molto nell’importanza che la ricerca teorica aveva nello sviluppo delle applicazioni della
matematica, durante questa collaborazione sviluppò studi importanti di dinamica dei fluidi applicata all’esplorazione
petrolifera analizzando la stabilità delle soluzioni numeriche delle equazioni alle derivate parziali. Nel 1951 firmò un
contratto con la IBM che chiedeva una sua consulenza per problemi legati al funzionamento dell’azienda che andavano
dal miglioramento dell’efficacia degli impianti con l’aiuto di metodi di programmazione lineare allo sviluppo di sistemi
informatici affidabili a basso costo, fino alla progettazione di nuovi prodotti. Il contributo di von Neumann per la crescita
dell’IBM fu così importante che come affermerà più tardi il suo amico Edward Teller: “l’IBM deve metà dei suoi soldi alle
idee di von Neumann”.
Il 1955 fu un anno importante per von Neumann che fu nominato conferenziere delle tradizionali “Silliman Lectures”
presso l’Università di Yale, dove espose i suoi recenti studi sulla teoria degli automi, e membro dell’Atomic Energy
Commission. Lo stesso anno però segna l’inizio della sua malattia. Egli soffriva di gravi dolori alla spalla sinistra e, dopo
un intervento chirurgico, gli fu diagnosticato un cancro osseo che fu molto probabilmente il risultato delle numerose
esposizioni ad alte dosi di radiazioni cui si sottopose. Egli infatti insieme ad Enrico Fermi e Robert Oppenheimer
assistette nel luglio del 1945 nel deserto del New Mexico all’esplosione della prima bomba atomica, un ordigno del
potere di oltre 15.000 tonnellate di tritolo. Dopo von Neumann furono colpiti da cancro Oppenheimer e decine di tecnici,
scienziati e generali che avevano assistito alle prime esplosioni nucleari.
Von Neumann cercò inizialmente di ignorare la sua malattia continuando ad impegnarsi al massimo nei lavori dell’Atomic
Energy Commission (AEC) che, secondo lui, avrebbe avuto un ruolo fondamentale nello sviluppo dell’informatica
cosciente del fatto che i calcolatori non potevano più essere costruiti da singoli gruppi di scienziati. Egli riteneva infatti
che era necessario sostenere finanziariamente le imprese private per la produzione di calcolatori e allo stesso tempo
favorire la formazione in ambito accademico di specialisti in questo campo. Nel 1956, sebbene fosse immobilizzato su
una sedia a rotelle, accettò di collaborare con l’Università della California e in particolare con i Dipartimenti di Scienze
della Terra per portare avanti una serie di ricerche nel campo delle applicazioni alla geofisica e alla meteorologia. Ma la
sua malattia avanzava implacabilmente tanto che nell’aprile del 1956 fu ricoverato. Neppure il ricovero riuscì a fermare la
sua attività, continuava a partecipare alle riunioni trasportato in ambulanza e collaborava con l’AEC telefonicamente.
John von Neumann morì a Washington l’8 febbraio del 1957.
Von Neumann ricevette due Premi Presidenziali, la Medaglia al Merito nel 1947, e la Medaglia per la Libertà nel 1956.
Sempre nel 1956, egli ricevette il Premio Commemorativo Albert Einstein e il Premio Enrico Fermi.
3.11 Conclusioni di Rosanna Giannantonio
L’analisi dell’operato di von Neumann ci permette di apprezzare la genialità di un uomo che ha permesso di apportare
contributi significativi, e talora assolutamente nuovi, in ogni campo della ricerca, dalla matematica alla meccanica
statistica, dalla meccanica quantistica alla cibernetica, dall'economia all'evoluzione biologica, dalla teoria dei giochi
all'intelligenza artificiale e, naturalmente, alla bomba atomica. Ma nell’apprezzarne la genialità emergono i seguenti
interrogativi:



era veramente un “alieno di un altro pianeta”, un “semidio dei numeri”, come molti hanno pensato?
quanto ha inciso il suo operato sullo sviluppo scientifico e tecnologico di oggi?
se la sua esistenza non fosse stata così breve quali altri importanti contributi avrebbe potuto dare alla
scienza?
In merito al primo interrogativo si può dire che attorno alla figura di von Neumann sono state scritte e costruite molte
storie che non hanno fatto altro che caratterizzare nell'eccesso questo incredibile personaggio, gran parte della quali,
però, dettate più che altro da una certa ostilità e avversione nei confronti del suo pensiero politico e sociale piuttosto forte
e, per certi versi, estremo. Io penso che se le capacità sono il nostro essere potenziale (capacità logica, critica,
motivazionale, espressiva, creativa, sociale, operativa, di porre e risolvere problemi, di elaborare le emozioni, di amare
ecc.), molto probabilmente in von Neumann queste capacità non solo c’erano ma erano presenti ad un livello “molto alto”
e poi si sono sviluppate grazie all’ambiente in cui è vissuto. Non dimentichiamo infatti che von Neumann, nasce da una
ricca famiglia di banchieri ebraici e nel 1911 entra nel Ginnasio Luterano dove le sue capacità matematiche non passano
inosservate tanto che Laszlo Ratz, il suo prestigioso professore di matematica del ginnasio, si adopera affinché al
giovane von Neumann non manchi un precettore privato universitario che lo segua e lo introduca a poco a poco
nell'ambiente matematico. In questo ambiente ricco di stimoli culturali, di contatti con gli ambienti più colti e influenti della
società, von Neumann matura a poco a poco la convinzione che gli aspetti economici e sociali della società e le relazioni
tra individui possono essere trattati in termini matematici. Abbiamo visto come questa visione "pan matematica" del
mondo caratterizzerà il pensiero e la vita del giovane genio fino alla fine dei suoi giorni.
Ho ritenuto opportuno evidenziare che in von Neumann alcune capacità non solo c’erano ma erano presenti ad un livello
“molto alto” perché penso che se molti dei risultati ottenuti da von Neumann erano dettati dalle esigenze dell’epoca e
quindi dal contesto socio – culturale in cui lo studioso è vissuto (abbiamo visto il grande contributo dato da von Neumann
23
per la matematizzazione dell’economia e abbiamo anche ricordato che questa idea riprendeva alcuni progetti
dell’Ottocento) altri, come il modello di Automa Cellulare, è stato possibile ottenerli solo grazie alle sue grandi capacità e
alla sua geniale fantasia. La psicologia contemporanea ritiene che i fattori genetici delineano l’ambito delle potenzialità
di sviluppo di un individuo, ma non la sua particolare realizzazione; la realizzazione di un talento dipende dall’interazione
con le esperienze e le opportunità offerte dall’ambiente, sia prossimale (famiglia, scuola) sia distale (cultura). Alla luce
delle considerazioni fatte, nel caso di von Neumann, ciò è vero in parte. Queste considerazioni ci devono far riflettere
come futuri insegnanti. E’ importante saper leggere e comprendere le capacità degli allievi in modo tale da indirizzarne lo
sviluppo nella giusta direzione.
Per quanto riguarda invece il secondo interrogativo bisogna innanzitutto considerare che l’idea del calcolatore moderno
era probabilmente già definita, ma la partecipazione di von Neumann alla sua realizzazione ha enormemente accelerato
la maturazione di questo processo. I contributi dati da von Neumann alla scienza e alla tecnica sono tanti ma penso che
la cosa più importante da osservare è che egli riconosce alle macchine calcolatrici e alla loro potenza di calcolo la
capacità, potenziale, di rappresentare i comportamenti a vari livelli della natura. Non solo i comportamenti dei sistemi
fisici, ma persino quei comportamenti dei sistemi biologici ritenuti così complessi da essere considerati, da sempre,
intrattabili. Questo riconoscimento come abbiamo già ricordato avviene negli anni '50, quando lo studioso elabora i
modelli matematici giusti per dar vita ai primi Automi Cellulari che operano nell'ambiente virtuale del computer sulla base
di poche semplici regole, simulando alcuni comportamenti delle cellule viventi reali. In questo modo von Neumann pone
le basi per la nascita di una scienza che si avvale della simulazione al computer e che si basa quindi sullo studio
simulato al computer del battito di un cuore umano, del clima del pianeta Terra, del comportamento in volo di un aereo
ecc.
Abbiamo già detto che von Neumann, partendo dalla considerazione che il cervello degli animali e dell’uomo pur
essendo costituito da strutture fragili e poco affidabili continua a funzionare anche quando si verificano danni alle sue
parti a differenza delle macchine artificiali che sono invece progettate in modo che ogni errore si amplifichi, riteneva
necessario costruire codici per la trasmissione di informazioni in grado di essere affidabili anche quando la trasmissione
dei segnali e dei simboli è poco attendibile e soggetta a rumori. Questa idea di von Neumann è alla base delle ricerche
sulla commutazione di pacchetto iniziate nel 1960 ad opera di Paul Baran che costituiscono un momento molto
importante per la nascita e lo sviluppo di Internet.
Nell’analizzare il contributo dato da von Neumann alla scienza più volte mi sono posta il terzo interrogativo. Dopo circa
50 anni dalla nascita dell’EDVAC, sembra che il numero dei personal computer venduti nel mondo abbiano superato i
cento milioni e che gli utenti di Internet crescano al ritmo del 50% l'anno. In Italia, l'Istat informa, una famiglia su cinque
possiede un personal computer e un terzo dei ragazzi fra i quindici e i diciassette anni lo utilizza abitualmente; quanto
agli utenti italiani di Internet, avrebbero superato la quota di dieci milioni. Per quanto riguarda la diffusione di Internet tutti
conosciamo bene i problemi legati alla diffusione di massa della “Rete delle Reti” che vanno dai problemi di sicurezza a
quelli di gestione dei dati del World Wide Web e della rete. Penso che la mente geniale di von Neumann avrebbe
sicuramente inventato dei sistemi di sicurezza capaci di bloccare anche il più abile degli hacker e degli antivirus in grado
di rilevare e debellare il più potente “cavallo di Troia”. Ma una mente capace di tutto ciò è anche in grado di fare il
contrario! Sicuramente von Neumann avrebbe inventato nuovi protocolli per l’Internetworking molto più affidabili e veloci
di quelli che utilizziamo oggi.
Come tutti sappiamo, i computer che da 50 anni a questa parte sono stati costruiti e che lavorano sulle nostre scrivanie
osservano ancora le specifiche dell’architettura di von Neumann, celebrando tuttora il suo genio visionario. Sulla base di
ciò penso che se l’esistenza di von Neumann non fosse stata così breve, l’hardware che useremo tra dieci anni, che sarà
totalmente differente da quello odierno (anche se “in che modo” e “quanto più efficiente” è difficile a dirsi), probabilmente
lo avremmo potuto utilizzare già oggi.
E’ stato ricordato che lo scritto The Computer and the Brain pubblicato postumo e anch’esso incompiuto costituisce un
punto di riferimento per gli studiosi di scienze biomediche. Se gli studi di von Neumann non fossero stati interrotti dalla
malattia, probabilmente avrebbe potuto dare un contributo ancora più grande per la comprensione del funzionamento del
cervello che nonostante i progressi della biologia, della medicina e della tecnica rimane ancora in gran parte oscuro.
Nel corso della ricerca su John von Neumann, abbiamo potuto constatare che il contesto storico, sociale e culturale
dell’Europa nord-occidentale dei primi anni del Novecento ha fortemente influenzato la formazione dello scienziato,
indirizzandolo verso lo studio di una materia “apolitica” quale la matematica. Inoltre, il clima di persecuzione razziale che
si stava instaurando in quegli anni in Germania e nei paesi limitrofi, ha contribuito a fargli maturare la decisione di
trasferirsi negli Stati Uniti, dove ha trovato la situazione ideale in termini di organizzazione, finanziamenti e politica per
raggiungere notevoli risultati sia a livello teorico, sia a livello applicativo.
Nel suo impegno e sforzo nel perseguire gli obiettivi della ricerca a cui si dedicava si intuisce un duplice atteggiamento
emotivo: da un lato la riconoscenza nei confronti del paese ospitante e dall’altro il piacere che nasce dalla
consapevolezza di osteggiare l’arroganza nazista prima e sovietica poi. Bisogna osservare che la componente
caratteriale che lo spingeva ad una ricerca continua finalizzata talvolta unicamente dalla gratificazione della scoperta.
Tuttavia, la sola motivazione personale ad eccellere in ambito tecnico-scientifico non è sufficiente a giustificare la
potenza di ragionamento e le abilità logiche dello scienziato: bisogna, infatti, ammettere che genialità e fantasia di cui era
particolarmente dotato sono stati determinanti in tal senso. Del resto, anche Feymann riconosceva il ruolo fondamentale
della fantasia nella ricerca scientifica e nello sviluppo della personalità dello scienziato.
24
Ma la figura di John von Neumann è caratterizzata non solo dalla “sregolatezza” intellettuale che lo portava ad applicarsi
in molteplici settori con esiti brillanti. Diversi autori riportano che lo scienziato gradiva andare a feste sfarzose e bere in
maniera smoderata e diversi aneddoti, ad esempio la dichiarazione d’amore alla sua futura sposa, “io e te potremmo
divertirci assieme, visto che ad entrambi piace bere”, o le barzellette sconvenienti che amava raccontare, si pongono in
netto contrasto con la sua grande capacità di concentrazione e con il carattere metodico con cui affrontava i problemi
lavorativi e lo studio della matematica.
La domanda che ci poniamo è quanto ha inciso la sua sregolatezza, ovvero la sua particolare concezione di morale,
sulla scelta di aderire al progetto Manhattan. Inoltre ci siamo chiesti se lo scienziato fosse consapevole degli utilizzi che
avrebbero avuto gli esiti delle sue ricerche. La risposta che ci siamo dati, sulla base delle informazioni che abbiamo
acquisito al riguardo, è che lui fosse solo in parte a conoscenza di quello che sarebbe stato l’uso della bomba. Infatti, lo
scienziato ben conosceva gli effetti dell’esplosione ed addirittura aveva calcolato l’altezza che ne massimizzava le
conseguenze. Tuttavia la sua concezione neutrale nei confronti di tecnologie e scienze, intese come mezzi per fare del
bene o per fare del male, pare costituire un’attenuante. In conclusione, l’insegnamento che ne traiamo può essere
riassunto dalla celebre frase di Rabelais François di quasi cinque secoli fa “scienze senza coscienza è solo rovina
dell’anima”, nel senso che il progresso scientifico dovrebbe essere finalizzato al miglioramento delle condizioni di vita
dell’umanità e non alla sua distruzione.
25
Scarica