Note del corso di Analisi Matematica I

annuncio pubblicitario
Università di Tor Vergata – Dipartimento di Ingegneria Civile ed Ingegneria Informatica
Note del corso di Analisi Matematica I∗
Alberto Berretti
∗
Quest’opera è distribuita con licenza “Creative Commons - Attribuzione - Non commerciale - Non opere derivate 3.0 Italia (CC BY-NC-ND 3.0)” (v.
licenses/by-nc-nd/3.0/it/deed.it).
http://creativecommons.org/
Numero pondere et mensura Deus omnia condidit - Isaac Newton, 1643 – 1727.
Ciò che può essere detto, può essere detto in modo semplice - Ludwig Wittgenstein, 1889 – 1951.
2
Indice
1. Fondamenti
8
1.1. Richiami di Logica e di Teoria degli Insiemi . . . . . . . . . . . . . . . . . . . .
8
1.1.1. I simboli della logica formale . . . . . . . . . . . . . . . . . . . . . . . .
8
1.1.2. Insiemi ed operazioni sugli insiemi . . . . . . . . . . . . . . . . . . . .
10
1.1.3. Insiemi complessi, relazioni, funzioni . . . . . . . . . . . . . . . . . . .
13
1.2. I numeri reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
1.2.1. Numeri naturali, interi e razionali . . . . . . . . . . . . . . . . . . . . .
18
1.2.2. Numeri reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
1.3. Funzioni reali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
1.3.1. Proprietà elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
1.3.2. Funzioni elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
1.3.3. Le funzioni in geometria . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
1.4. Successioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
1.4.1. Proprietà elementari . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
66
1.4.2. Alcune successioni notevoli . . . . . . . . . . . . . . . . . . . . . . . . .
69
1.4.3. Il fattoriale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
74
2. I numeri complessi
78
2.1. Il piano complesso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
78
2.1.1. Definizione ed operazioni . . . . . . . . . . . . . . . . . . . . . . . . . .
78
2.1.2. Il diagramma di Argand ed le formule di De Moivre . . . . . . . . . .
85
2.2. Numeri complessi ed equazioni algebriche . . . . . . . . . . . . . . . . . . . .
87
2.2.1. Radici di numeri complessi . . . . . . . . . . . . . . . . . . . . . . . . .
88
2.2.2. Equazioni algebriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
93
2.2.3. Esercizi di ricapitolazione sulle equazioni nel campo complesso . . . .
98
2.3. Trasformazioni del piano complesso . . . . . . . . . . . . . . . . . . . . . . . . 100
2.3.1. Trasformazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
2.3.2. Trasformazioni lineari-frazionarie . . . . . . . . . . . . . . . . . . . . . 101
2.3.3. Altre trasformazioni del piano complesso . . . . . . . . . . . . . . . . . 103
3
Alberto Berretti
Analisi Matematica I
3. Limiti e funzioni continue
104
3.1. La nozione di limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.1.1. Definizione matematica di limite . . . . . . . . . . . . . . . . . . . . . . 104
3.2. Proprietà dei limiti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.2.1. Unicità del limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
3.2.2. Teorema della permanenza del segno . . . . . . . . . . . . . . . . . . . 113
3.2.3. Teorema del confronto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
3.2.4. Operazioni algebriche sui limiti . . . . . . . . . . . . . . . . . . . . . . . 116
3.2.5. Sottosuccessioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.2.6. Limite di funzioni composte . . . . . . . . . . . . . . . . . . . . . . . . 117
3.2.7. Successioni e funzioni monotone . . . . . . . . . . . . . . . . . . . . . . 119
3.2.8. Qualche disuguaglianza e alcuni limiti notevoli . . . . . . . . . . . . . 120
3.2.9. Il teorema “ponte” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
3.2.10. Infiniti, infinitesimi e confronti; i simboli di Landau . . . . . . . . . . . 125
3.3. Limiti notevoli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
3.3.1. Potenze, esponenziali e fattoriali . . . . . . . . . . . . . . . . . . . . . . 128
3.3.2. Limiti trigonometrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
3.3.3. Il numero e . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
3.3.4. Altri limiti notevoli contenenti esponenziali e logaritmi . . . . . . . . . 135
3.3.5. Limite superiore e limite inferiore . . . . . . . . . . . . . . . . . . . . . 136
3.4. Nozioni di topologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
3.4.1. Punti esterni, interni, di frontiera e di accumulazione . . . . . . . . . . 138
3.4.2. Insiemi aperti e chiusi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
3.4.3. Teorema di Bolzano-Weierstrass . . . . . . . . . . . . . . . . . . . . . . 143
3.4.4. Compattezza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
3.4.5. Successioni fondamentali . . . . . . . . . . . . . . . . . . . . . . . . . . 148
3.5. Funzioni continue: definizioni e proprietà elementari . . . . . . . . . . . . . . 149
3.5.1. Definizioni ed esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
3.5.2. Teorema dell’esistenza degli zeri . . . . . . . . . . . . . . . . . . . . . . 153
3.5.3. Continuità della funzione inversa . . . . . . . . . . . . . . . . . . . . . 155
3.6. Funzioni continue in un intervallo chiuso e limitato . . . . . . . . . . . . . . . 157
3.6.1. Teorema di Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
3.6.2. Continuità uniforme e teorema di Heine-Cantor . . . . . . . . . . . . . 158
3.7. Esempi ed esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
4
Alberto Berretti
Analisi Matematica I
4. Derivate e studio di funzioni
164
4.1. Definizioni ed interpretazione geometrica . . . . . . . . . . . . . . . . . . . . . 164
4.1.1. Definizione di derivata . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
4.1.2. Interpretazione geometrica . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.1.3. Alcuni esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
4.1.4. Derivate di ordine superiore . . . . . . . . . . . . . . . . . . . . . . . . 168
4.2. Proprietà elementari delle derivate . . . . . . . . . . . . . . . . . . . . . . . . . 169
4.2.1. Calcolo delle derivate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
4.2.2. Derivate delle funzioni elementari . . . . . . . . . . . . . . . . . . . . . 172
4.3. Funzioni derivabili in un intervallo . . . . . . . . . . . . . . . . . . . . . . . . . 175
4.3.1. Teorema di Fermat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
4.3.2. Teorema di Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
4.3.3. Teorema di Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
4.3.4. Teorema di Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
4.4. Approssimazione di funzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
4.4.1. Formula di L’Hôpital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
4.4.2. Formule di Taylor con resto di Peano . . . . . . . . . . . . . . . . . . . 183
4.4.3. Formule di Taylor con resto di Lagrange . . . . . . . . . . . . . . . . . 185
4.4.4. Esempi ed esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
4.5. Studio di funzioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
4.5.1. Monotonia ed estremi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
4.5.2. Convessità . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
4.5.3. Asintoti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
4.5.4. Metodo generale per lo studio di una funzione . . . . . . . . . . . . . . 200
4.5.5. Le funzioni iperboliche . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4.5.6. Altri esempi ed esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
4.6. Uno strumento utile: esponenziale, seno e coseno nel campo complesso . . . 208
5. Introduzione all’Analisi per funzioni di piú variabili
211
5.1. Limiti di funzioni di piú variabili . . . . . . . . . . . . . . . . . . . . . . . . . . 213
5.2. Nozioni di topologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
5.2.1. Il teorema di Bolzano-Weierstrass . . . . . . . . . . . . . . . . . . . . . 217
5.2.2. Compattezza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
5.2.3. Successioni fondamentali . . . . . . . . . . . . . . . . . . . . . . . . . . 219
5.3. Funzioni continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
5
Alberto Berretti
Analisi Matematica I
5.4. Nozioni elementari di calcolo differenziale . . . . . . . . . . . . . . . . . . . . 222
5.4.1. Definizione di derivata parziale e nozione di differenziabilità . . . . . 222
5.4.2. Il Teorema della Derivata Totale e le sue conseguenze . . . . . . . . . . 224
5.4.3. Il teorema della funzione implicita in due dimensioni . . . . . . . . . . 228
5.4.4. Derivabilità e differenziabilità di ordine superiore . . . . . . . . . . . . 230
6. Integrali
233
6.1. La definizione dell’integrale di Riemann . . . . . . . . . . . . . . . . . . . . . . 233
6.1.1. Somme superiori ed inferiori e loro proprietà . . . . . . . . . . . . . . . 234
6.1.2. Definizione dell’integrale di Riemann . . . . . . . . . . . . . . . . . . . 237
6.2. Funzioni integrabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
6.2.1. Un criterio di integrabilità . . . . . . . . . . . . . . . . . . . . . . . . . . 239
6.2.2. Integrabilità delle funzioni continue . . . . . . . . . . . . . . . . . . . . 239
6.2.3. Integrabilità delle funzioni monotone . . . . . . . . . . . . . . . . . . . 240
6.3. Proprietà dell’integrale di Riemann . . . . . . . . . . . . . . . . . . . . . . . . . 240
6.3.1. Linearità ed additività . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
6.3.2. Il teorema fondamentale del calcolo e le sue conseguenze . . . . . . . . 247
6.3.3. Integrazione per sostituzione . . . . . . . . . . . . . . . . . . . . . . . . 251
6.3.4. Integrazione per parti . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
6.4. Metodi di integrazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
6.4.1. Integrazione di funzioni razionali . . . . . . . . . . . . . . . . . . . . . 255
6.4.2. Integrazione di funzioni connesse
con le coniche . . . . . . . . . . . . . 264
 r

Z
 n ax + b 

 . . . . . . . . . . . . . . . . . . . 267
6.4.3. Integrali del tipo
dxR x,
cx + d 
6.4.4. Integrazione di funzioni razionali di sin x e cos x . . . . . . . . . . . . . 268
6.4.5. Integrazione di funzioni razionali di ex . . . . . . . . . . . . . . . . . . 272
6.4.6. Altri esempi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
6.5. Integrali impropri . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
6.5.1. Definizione di integrale improprio . . . . . . . . . . . . . . . . . . . . . 274
6.5.2. Criteri di convergenza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
6.5.3. Convergenza assoluta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
7. Serie numeriche
284
7.1. Definizione di convergenza e prime proprietà . . . . . . . . . . . . . . . . . . . 284
7.2. Serie a termini positivi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
7.2.1. Criterio del confronto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
7.2.2. Criterio del confronto asintotico . . . . . . . . . . . . . . . . . . . . . . 290
6
Alberto Berretti
Analisi Matematica I
7.2.3. Criterio del confronto con l’integrale improprio . . . . . . . . . . . . . 290
7.3. Convergenza assoluta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
7.4. Serie a segni alterni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293
7.5. Riordinamento dei termini delle serie . . . . . . . . . . . . . . . . . . . . . . . 296
7.6. I criteri della radice e del rapporto . . . . . . . . . . . . . . . . . . . . . . . . . 298
7.6.1. Il criterio della radice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
7.7. Il criterio del rapporto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
8. Introduzione alle equazioni differenziali ordinarie
300
8.1. Definizioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
8.2. Separazione delle variabili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305
8.3. Equazioni differenziali lineari a coefficienti costanti . . . . . . . . . . . . . . . 307
A. Tabella delle lettere greche
319
7
1. Fondamenti
Questo capitolo, dopo una breve introduzione ai prerequisiti logico-insiemistici dell’analisi
matematica, introduce i principali oggetti su cui l’analisi matematica lavora: sostanzialmente
i numeri, dai numeri naturali ai numeri reali, e le funzioni elementari, richiamando anche
alcune nozioni elementari che dovrebbero essere già note (logaritmi, trigonometria). Prenderemo anche brevemente in considerazione l’utilizzo delle funzioni per descrivere oggetti
geometrici nel piano e nello spazio.
1.1. Richiami di Logica e di Teoria degli Insiemi
1.1.1. I simboli della logica formale
La logica formale è una parte estremamente profonda e difficile della matematica, e non vogliamo minimamente entrare nelle complesse problematiche che devono essere affrontate per
studiarla. Ci accontentiamo di introdurre alcuni simboli ed alcuni concetti molto elementari,
che saranno frequentemente utilizzati nel seguito.
Una proposizione è una affermazione che può essere vera o falsa. A partire da proposizioni
date si possono costruire delle proposizioni piú complesse la cui verità o falsità dipende ad
quella delle proposizioni con le quali sono costruite: in altri termini, possiamo introdurre
delle vere e proprie “operazioni” sulle proposizioni, il che conduce ad un vero e proprio
“calcolo proposizionale”. Nella tabella seguente introduciamo i simboli per le principali
operazioni sulle proposizioni.
non p
¬p
peq
p∧q
è vera se e solo se sia p che q sono vere
poq
p∨q
è vera se almeno una di p o q è vera
se p allora q
p⇒q
è vera se ogni volta che p è vera
p⇔q
è vera se p e q sono vere e false insieme
p se e solo se q
è vera se e solo se p è falsa
allora anche q è vera
8
Alberto Berretti
Analisi Matematica I
I simboli introdotti sono ridondanti: si potrebbe tranquillamente utilizzare addirittura un
unico operatore logico (ad es. NAND(p, q) = ¬(p ∧ q)), ma per ovvie ragioni di convenienza
si utilizzano in pratica tutti gli operatori indicati. Nella tabella seguente sono elencate alcune
“equivalenze” fra operazioni logiche, tutte piuttosto ovvie anche al senso comune, che ci
saranno utili in seguito.
¬(p ∧ q)
equivale a
¬p ∨ ¬q
¬(p ∨ q)
equivale a
¬p ∧ ¬q
p⇒q
equivale a
¬(p ∧ ¬q)
p⇔q
equivale a
ovvero
¬p ∨ q
(p ⇒ q) ∧ (q ⇒ p)
Gli operatori logici soddisfano anche le seguenti proprietà.
idempotenza
p∨p=p∧p=p
commutatività di ∨
p∨q=q∨p
commutatività di ∧
p∧q=q∧p
p ∨ (p ∨ r) = (p ∨ q) ∨ r
associatività di ∨
p ∧ (q ∧ r) = (p ∧ q) ∧ r
associatività di ∧
p ∨ (q ∧ r) = (p ∨ r) ∧ (p ∨ r)
p ∧ (q ∨ r) = (p ∧ r) ∨ (p ∧ r)
¬(¬p) = p;
p ∨ ¬p è vero;
¬(p ∨ q) = ¬p ∧ ¬q
distributività di ∨ rispetto a ∧
p ∧ ¬p è falso
distributività di ∧ rispetto a ∨
prima legge di De Morgan
seconda legge di De Morgan
¬(p ∧ q) = ¬p ∨ ¬q
Possiamo andare piú a fondo ed “entrare” nelle proposizioni: in genere, una proposizione
consisterà in una affermazione su qualcosa, e quindi potrà essere considerata come qualcosa
che dipende da alcune “variabili”, la cui verità dipende dal valore di tali variabili: in tal caso
si parla di predicati. Una proposizione che può essere vera o falsa a seconda del valore che
assumono le variabili che in essa appaiono può essere, ad es., sempre vera o sempre falsa, o
vera per almeno qualche valore delle variabili. Per indicare tali situazioni, si introducono i
quantificatori:
9
Alberto Berretti
Analisi Matematica I
Quantificatore universale
Quantificatore esistenziale
∀x P(x)
“per ogni” valore della variabile x
∃x P(x)
“per qualche” valore della variabile x
P(x) è vera
P(x) è vera
ovvero “esiste almeno un” valore
della variabile x per cui P(x) vera
Consideriamo ovvie le seguenti equivalenze tra quantificatori, a cui occorre prestare molta
attenzione in quanto verranno utilizzate spesso nel seguito.
¬(∀x P(x))
equivale a
∃x ¬P(x)
¬(∃x P(x))
equivale a
∀x ¬P(x)
Abbiamo dunque espresso formalmente il concetto, di per sé ovvio, che se non è vero che
per ogni x P(x) è vera, deve essere falsa per qualche x, e se non esiste un x per cui P(x) è vera,
deve essere falsa per ogni x.
A volte sono comode le seguenti notazioni:
∄x P(x)
come abbreviazione di
∃!x P(x)
vuol dire
¬(∃x P(x))
esiste esattamente un x
tale che P(x) vera
Inoltre, nelle formule, la frase “tale che” viene scritta spesso con il simbolo “|” (barra
verticale).
1.1.2. Insiemi ed operazioni sugli insiemi
Siamo fortemente tentati dal definire un insieme nel modo seguente: un insieme è un
aggregato qualsiasi di oggetti detti elementi.
In realtà, è quasi ovvio e ben noto sin dalla fine del XIX secolo che c’è qualcosa che non
va in tale (pseudo-)definizione (“pseudo”-definizione perché, dicendo che un insieme è un
aggregato, sta semplicemente sostituendo una parola con un’altra). Infatti, se ammettiamo
che un insieme possa essere una collezione arbitraria di oggetti, allora cadiamo in una serie
di paradossi logici di cui il seguente è il piú semplice: basta chiedersi se l’insieme di tutti gli
insiemi che non contengono se stessi contenga o no se stesso; se contiene se stesso, allora non
può contenere se stesso perché contiene se stesso, mentre se non contiene se stesso allora per
10
Alberto Berretti
Analisi Matematica I
definizione contiene se stesso (si tratta sostanzialmente di una variante dell’antico paradosso
di Epimenide il Cretese). La migliore via di uscita da tale pantano logico, via a cui si è giunti
dopo un travaglio concettuale durato decenni – sostanzialmente tutta la prima metà del XX
secolo – consiste nel non definire gli insiemi, bensí nell’enunciare degli assiomi che permettano
di parlarne in modo rigoroso, senza porsi il problema di cosa un insieme effettivamente sia.
Noi non seguiremo questa strada, perché perderemmo molto tempo a capire il significato
di tali assiomi e sostanzialmente ci aggireremmo nei bassifondi della matematica senza mai
ottenere, al nostro livello, risultati concreti. La moderna teoria assiomatica degli insiemi è
dovuta sostanzialmente a Ernst Zermelo (1871-1953) e Abraham Halevi Fraenkel (1891-1965).
Per indicare che l’oggetto x è un elemento dell’insieme S (ovvero che x “appartiene” ad S)
si scrive x ∈ S. La sua negazione (x non è elemento di S, ovvero x non appartiene ad S) si
scrive x < S.
Se due insiemi hanno gli stessi elementi, allora sono lo stesso insieme (questo in effetti
sarebbe il primo assioma nella teoria degli insiemi, l’assioma di estensionalità).
Un insieme privo di elementi (ed ovviamente esiste solo un insieme privo di elementi!) è
detto insieme vuoto ed è indicato con il simbolo ∅ (la sua esistenza è il secondo assioma nella
teoria degli insiemi).
Si noti la differenza fra un oggetto a e l’insieme {a}: il secondo non è a, ma l’insieme il cui
unico elemento è a; sono due cose diverse.
Se tutti gli elementi di A sono anche elementi di B (ma in B ci possono essere elementi che
non sono anche in A) allora si dice che A è un sottoinsieme di B e si scrive A ⊆ B oppure
B ⊇ A. Se ogni elemento di A è contenuto in B e ci sono elementi di B che non sono in A allora
si dice che A un sottoinsieme proprio di B e si scrive A
B oppure B ! A. Le notazioni
suggerite non si prestano ad equivoci; è molto frequente, però, l’utilizzo dei simboli ⊂, ⊃;
in questo caso vi è un ambiguità: secondo alcuni autori, tali simboli sono sinonimi di ⊆, ⊇,
mentre altri autori considerano i simboli ⊆, ⊇, ⊂, ⊃ simili ai simboli ≤, ≥, <, > e pertanto ⊂, ⊃
sarebbero sinonimi di , !. Noi cercheremo sempre di essere chiari nell’utilizzo dei simboli
per i sottoinsiemi, ma tendiamo ad utilizzarli nella seconda interpretazione indicata.
Ovviamente l’insieme vuoto è un sottoinsieme di qualsiasi insieme.
L’insieme di tutti i sottoinsiemi di A viene detto insieme potenza o insieme delle parti di
A ed indicato con P(A) oppure con la notazione (apparentemente bizzarra) 2A . Ad es., se
A = {0, 1, 2}, allora abbiamo:
P(A) = {∅, {0}, {1}, {2}, {2, 3}, {1, 3}, {1, 2}, {1, 2, 3}}.
La ragione per cui l’insieme delle parti viene anche detto insieme potenza ed indicato come una potenza
di 2 è che l’insieme delle parti di un insieme di n elementi è formato da esattamente 2n elementi, come
11
Alberto Berretti
Analisi Matematica I
piú avanti dimostreremo.
Le principali operazioni che possiamo eseguire sugli insiemi riflettono le operazioni
logiche.
Dati due insiemi A e B, A ∪ B è l’unione degli insiemi A e B, ovvero l’insieme i cui elementi
sono elementi di A o elementi di B; A∩B è l’intersezione degli insiemi A e B, ovvero l’insieme
i cui elementi sono elementi sia di A che di B. La differenza di due insiemi A e B, indicata
con A \ B, è l’insieme degli elementi di A che non appartengono a B:
(1.1)
x ∈ A \ B ⇔ x ∈ A ∧ x < B.
Definiamo anche la differenza simmetrica tra due insiemi:
A △ B = (A \ B) ∪ (B \ A),
(1.2)
per cui un elemento appartiene a A △ B se appartiene a A o a B ma non ad entrambe.
Dato un insieme contesto U di cui A è sottoinsieme, il suo complemento rispetto ad U
indicato con ∁U A (o brevemente ∁A se l’insieme contesto U è ovvio) è la differenza U \ A,
cioè l’insieme degli elementi di U che non appartengono a A. Lo scopo dell’insieme contesto
è quello di far sí che il complemento non contenga troppe cose (ad es. non è ragionevole
ammettere che il complemento dell’insieme di tutti i numeri pari contenga, ad es., anche gli
aerei che in questo momento stanno volando per il semplice fatto che questi ultimi non sono
numeri pari).
Le proprietà di tali operazioni sugli insiemi sono piuttosto ovvie e dipendono da quelle
della logica formale. Nella tabella seguente riassiumiamo le loro principali proprietà: si
tratta di cose piuttosto ovvie e ben note perlomeno dalle scuole superiori. Si noti come siano
formalmente le stesse proprietà degli operatori logici ∨ e ∧.
idempotenza
A∪A = A∩A = A
commutatività dell’unione
A∪B= B∪A
commutatività dell’intersezione
A∩B= B∩A
A ∪ (B ∪ C) = (A ∪ B) ∪ C
associatività dell’unione
A ∩ (B ∩ C) = (A ∩ B) ∩ C
associatività dell’intersezione
A ∪ (B ∩ C) = (A ∪ C) ∩ (A ∪ C)
distributività di ∪ rispetto a ∩
A ∩ (B ∪ C) = (A ∩ C) ∪ (A ∩ C)
A∪∅=A
∁(∁A) = A;
A∩∅=∅
A ∪ ∁A = U;
∁(A ∪ B) = ∁A ∩ ∁B
distributività di ∩ rispetto a ∪
A ∩ ∁A = ∅
prima legge di De Morgan
seconda legge di De Morgan
∁(A ∩ B) = ∁A ∪ ∁B
12
Alberto Berretti
Analisi Matematica I
1.1.3. Insiemi complessi, relazioni, funzioni
La cosa interessante è che con gli insiemi possiamo costruire altri insiemi.
Dati due insiemi A e B il prodotto cartesiano A × B è l’insieme delle coppie ordinate (a, b)
tali che a ∈ A e b ∈ B. È importante sottolineare che (a, b) è molto diverso dall’insieme {a, b}:
infatti, ad es. {a, b} = {b, a} mente invece (a, b) , (b, a).
Questa è una definizione informale. Una definizione formale di A × B è, ad es., la seguente:
A × B = {{{a, b}, a}, a ∈ A, b ∈ B},
cioè l’insieme formato da coppie di oggetti: il primo è a sua volta un insieme di due elementi formato
da un elemento del primo insieme ed uno del secondo, mentre il secondo è l’elemento che deve essere
considerato il primo nella coppia ordinata. Sottolineiamo che non vi è nulla di “magico” in questa
definizione, semplicemente occorre introdurre il concetto di “primo elemento di due” in qualche
modo e tale definizione lo fa in modo semplice.
Analogamente possiamo definire terne, quaterne, ed in generale n-uple ordinate di elementi
di tre, quattro ed in generale n insiemi Ai . Se A , B i due insiemi A×B e B×A sono ovviamente
diversi. Se A = B, si scrive A2 invece che A × A, e cosí via per terne, quaterne etc.
Una relazione tra due insiemi A e B è un predicato binario r(a, b) con a ∈ A e b ∈ B, cioè
una affermazione che può essere vera o falsa e che dipende da due oggetti a ∈ A e b ∈ B. Il
sottoinsieme di A × B per cui r(a, b) è vera viene detto grafico di r e si indica con Γr o graph(r).
Viceversa dato un sottoinsieme G ⊆ A × B è automaticamente definita la relazione:




Vero se (a, b) ∈ G,
rG (a, b) = 


Falso se (a, b) < G,
di cui G è il grafico.
Definiamo ora tre tipi importanti di relazioni.
Relazioni d’ordine
Una relazione r(a, b), dove a, b ∈ A, è una relazione d’ordine (che indichiamo nel seguito
con la notazione a 4 b ovvero b < a, leggi a precede b ovvero b segue a) se:
∀a ∈ A : a 4 a
∀a, b ∈ A : a 4 b ∧ b 4 a ⇒ a = b
∀a, b, c ∈ A : a 4 b ∧ b 4 c ⇒ a 4 c
proprietà analoghe valgono naturalmente per <.
13
(proprietà riflessiva),
(1.3a)
(proprietà antisimmetrica),
(1.3b)
(proprietà transitiva);
(1.3c)
Alberto Berretti
Analisi Matematica I
Se a 4 b ma a , b allora diremo che la relazione d’ordine fra i due elementi considerati è
stretta e scriveremo a ≺ b; analogamente se a < b ma a , b scriveremo a ≻ b. L’essere in
relazione d’ordine stretta è una proprietà di a e b, non della relazione d’ordine 4!
Un insieme dotato di una relazione d’ordine viene detto insieme ordinato. Se ∀a, b ∈ A
vale o a 4 b o b 4 a (cioè se ∀a, b ∈ A a, b sono confrontabili allora la relazione d’ordine è
una relazione d’ordine totale e l’insieme A viene detto totalmente ordinato (altrimenti è
solo parzialmente ordinato).
Esempio 1. L’insieme delle parti di un insieme dato è ordinato dalla relazione di inclusione
⊆. Ovviamente si tratta di una relazione d’ordine parziale (due sottoinsiemi possono essere
disgiunti e quindi non confrontabili).
Esempio 2. L’insieme dei punti che giacciono su una retta orientata è un insieme totalmente
ordinato dalla relazione “P1 giace a sinistra di P2 ”.
Ritorneremo piú avanti a riflettere sugli insiemi ordinati, nel contesto di insiemi numerici.
Funzioni
Una funzione è una relazione r tra due insiemi A e B tale che:
∀a ∈ A ∃b ∈ B : r(a, b),
(1.4a)
∀a ∈ A ∀b1 , b2 ∈ B : r(a, b1 ) ∧ r(a, b2 ) ⇒ b1 = b2 .
Nota. Una funzione viene detta talvolta applicazione.
(1.4b)
“Applicazione” è sinonimo di
funzione.
Cosa vuol dire questa definizione? (1.4a) vuol dire che ad ogni a ∈ A corrisponde un
elemento di B che è in relazione con a, e (1.4b) vuol dire che se b1 , b2 sono in relazione con
a allora b1 = b2 , cioè che l’elemento di B con cui a ∈ A è in relazione è unico. Visto che ciascun
elemento di A è in relazione con un unico elemento di B, possiamo pensare alla funzione
come ad una “regola” che, dato a ∈ A, genera un ben definito b ∈ B. Se indichiamo tale
“regola” con f , allora scriviamo la funzione come b = f (a) invece che r(a, b), dove f indica la
funzione, e l’unico elemento di B che è in relazione con a ∈ A viene quindi indicato con f (a). È
importante sottolineare che non dobbiamo pensare ad una funzione come ad una ricetta di calcolo
esplicitamente data tramite una formula: una qualunque relazione che soddisfa le condizioni
(1.4a) e (1.4b) è una funzione, anche se una formula nel senso tradizionale del termine non è
data. Definire una funzione è una cosa, sapere come calcolarla grazie ad una formula o altro è
completamente un altro problema.
14
Alberto Berretti
Analisi Matematica I
Per scrivere che f è una funzione dall’insieme A all’insieme B si può scrivere nel modo
seguente:
f
f : A 7→ B oppure A →
− B.
Esempio 3. La funzione che fa corrispondere ad ogni numero reale (da definire piú avanti!) il
suo quadrato è una funzione, perché possiamo calcolare il quadrato di ogni numero e perché
il quadrato di un numero è unico.
Esempio 4. La “funzione” che fa corrispondere ad ogni numero reale positivo o nullo le
sue radici quadrate non è una funzione, perché appunto ogni numero positivo ha due radici
quadrate (viene violata la (1.4b)).
L’insieme A viene detto dominio della funzione, e si scrive A = dom( f ). Il dominio è parte
integrante della definizione di una funzione! Se abbiamo due funzioni f : A 7→ B, g : C 7→ B,
tali che A ⊂ C e che ∀x ∈ A f (x) = g(x), si dice che g estende f . Talora per abuso di linguaggio
si usa il medesimo simbolo per le due funzioni, anche se, visto che il dominio è parte integrante
della definizione di una funzione come abbiamo appena detto, trattasi a rigore di due funzioni
differenti. Viceversa sia f : A 7→ B, D ⊂ A. Allora possiamo considerare una nuova funzione
g : D 7→ B tale che ∀a ∈ D : g(a) = f (a) (cioè tale che f sia un’estensione di g). Allora g è detta
restrizione di f ad D e viene di solito indicata con il simbolo f |D .
Il codominio (“range” in inglese) è il sottoinsieme degli elementi di B che sono in relazione
funzionale con qualche elemento di A, ovvero è l’insieme di tutti gli elementi di B che possono
essere scritti come f (a) per qualche a ∈ A, ovvero è l’insieme dei valori che può assumere f .
Viene indicato con il simbolo ran( f ).
Se ran( f ) = B, cioè se il codominio di f consiste nell’intero B, si dice che f è suriettiva. Se
inoltre:
∀a1 , a2 ∈ A f (a1 ) = f (a2 ) ⇒ a1 = a2 ,
(1.5)
cioè se ogni valore di f (a) può essere ottenuto solo a partire da un unico elemento di A
(leggere la formula precedente: se a1 e a2 danno lo stesso valore di f , allora a1 e a2 sono
uguali) allora si dice che la f è iniettiva. Una funzione f iniettiva e suriettiva allo stesso
tempo viene detta biiettiva o corrispondenza biunivoca: fa infatti corrispondere ad ogni
elemento di A un unico elemento di B e viceversa. Se esiste una corrispondenza biunivoca fra
due insiemi allora si dice che i due insiemi sono equipotenti ovvero che hanno la medesima
cardinalità. È ovvio che due insiemi finiti equipotenti hanno lo stesso numero di elementi
(in realtà questa è – quasi! – la definizione di quelli che in teoria degli insiemi si chiamano numeri
cardinali; ma noi non ci vogliamo addentrare in simili problematiche).
15
Alberto Berretti
Analisi Matematica I
Data una funzione f : A 7→ B ed una funzione g : B 7→ C, possiamo definire la funzione
composta h : A 7→ C come segue:
∀a ∈ A : h(a) = g( f (a)),
(1.6)
ovvero la funzione ottenuta applicando ad un elemento di A prima la funzione f (ottenendo
quindi un elemento di B) e poi la funzione g (ottenendo quindi un elemento di C. Si può
anche scrivere nel modo seguente:
h
A
f
/B
g
#
/C
(1.7)
oppure:
f
/B
❄❄
❄❄
❄ g
h ❄❄ A❄
(1.8)
C
Il significato di questa scrittura è molto semplice: dice che andare da A a C mediante la
funzione h è la stessa cosa che andare da A a B mediante la funzione f e poi da B a C
mediante la funzione g. Per indicare che h è composta da f e g nel modo indicato (prima
applico f , poi applico g) si scrive h = g ◦ f . Si noti che in generale (cioè se gli insiemi A,
B, C sono diversi) non ha senso nemmeno chiedersi se f ◦ g e g ◦ f siano uguali, poiché
se è possibile definire l’una non è possibile definire l’altra. Se gli insiemi A, B e C sono lo
stesso insieme, allora è abbastanza evidente che non sono la stessa cosa, e cioè in tal caso la
composizione di funzioni non è commutativa.
Dato un insieme qualsiasi A, è sempre definita una funzione (trivialmente iniettiva e
suriettiva!) IdA : A 7→ A definita da IdA (a) = a, cioè che associa ad ogni elemento di
A se stesso. IdA viene detta funzione identità dell’insieme A. Poiché è evidente che ogni
insieme ha la sua funzione identità, aggiungiamo al simbolo Id un indice che indica l’insieme
di riferimento. Nel caso di insiemi numerici ovviamente non ci sarà bisogno di indicare
l’insieme di riferimento e scriveremo spesso semplicemente Id, qualora non vi sia rischio di
ambiguità.
Sia ora f : A 7→ B iniettiva. Allora ∃g : ran( f ) ⊆ B 7→ A tale che:
∀A ∈ A : g( f (a)) = a,
∀b ∈ ran( f ) : f (g(b)) = b,
(1.9)
cioè tale che g ◦ f = IdA , f ◦ g = Idran( f ) . Infatti, essendo f iniettiva, b deriva dall’applicazione
della funzione f ad un unico elemento a di A, che viene preso come valore della g su b. g
viene detta funzione inversa della f e si indica con il simbolo f −1 . Se f è anche suriettiva,
16
Alberto Berretti
Analisi Matematica I
allora ancora meglio: f in tal caso è una corrispondenza biunivoca, che fa corrispondere ad
ogni elemento di A un unico elemento di B viceversa, per cui la funzione inversa è definita su
tutto B e non c’è bisogno di fare riferimento al codominio di f .
Relazioni di equivalenza
Sia A un insieme, e r(a, b) una relazione tra elementi di A. Si dice che r è una relazione di
equivalenza, che indichiamo con il simbolo a ≈ b, se soddisfa le seguenti proprietà:
∀a ∈ A : a ≈ a
∀a, b ∈ A : a ≈ b ⇒ b ≈ a
(proprietà riflessiva),
(1.10a)
(proprietà simmetrica),
(1.10b)
(proprietà transitiva).
(1.10c)
∀a, b, c ∈ A : a ≈ b ∧ b ≈ c ⇒ a ≈ c
L’insieme degli elementi b di A equivalenti ad un elemento fissato a (cioè tali che b ≈ a)
viene detto classe di equivalenza di a ed indicato con il simbolo [a]≈ . L’indice ≈ apposto
sta a ricordarci a quale relazione di equivalenza ci stiamo riferendo: se ciò fosse naturale dal
contesto, come in genere avviene, indichiamo la classe di equivalenza di a semplicemente
con [a]. Se a ≈ b allora [a] = [b] e viceversa (per la proprietà transitiva!); è altrettanto ovvio
che ciascun elemento di A appartiene a qualche classe di equivalenza (la sua!); quindi ciascun
elemento di A appartiene ad una unica classe di equivalenza. Pertanto è ben definito l’insieme
delle classi di equivalenza di A rispetto alla relazione di equivalenza ≈, detto insieme quoziente
di A rispetto a ≈ ed indicato con il simbolo A/≈.
Sia ora f : A 7→ B una funzione suriettiva dall’insieme A all’insieme B, e ∼, ≈ due relazioni
di equivalenza in A ed in B rispettivamente. Allora f è detta compatibile con le relazioni di
equivalenza ∼, ≈ se:
∀a1 , a2 ∈ A : a1 ∼ a2 ⇒ f (a1 ) ≈ f (a2 ),
(1.11)
cioè se f manda elementi equivalenti di A in elementi equivalenti di B. In tal caso, possiamo
definire una nuova funzione g : A/∼ 7→ B/≈ ponendo:
g([a]) = [ f (a)],
(1.12)
ovvero g calcolata sulla classe di equivalenza di a è pari alla classe di equivalenza di f (a).
È un semplice esercizio che permette di verificare la comprensione di quanto finora letto
verificare che la definizione (1.12) è ben posta se f soddisfa (1.11). Infatti se rappresento la
classe [a] mediante un altro elemento a′ ∈ A tale che a′ ∼ a, f (a′ ) ≡ f (a) per cui [ f (a′ )] = [ f (a)] e la
proprietà (1.4b) della definizione di funzione è soddisfatta dalla g.
17
Alberto Berretti
Analisi Matematica I
1.2. I numeri reali
Gli oggetti fondamentali dell’analisi matematica sono i numeri reali e le loro funzioni. Una
introduzione relativamente rigorosa alla costruzione dei numeri reali è essenziale per una
comprensione approfondita dell’analisi.
1.2.1. Numeri naturali, interi e razionali
Iniziamo introducendo i numeri piú semplici da “costruire” e da capire, perché “vivono
ancora nel mondo del discreto”: i numeri naturali, i numeri interi (relativi) ed i numeri
razionali.
Numeri naturali
Gli oggetti fondamentali della matematica sono i numeri naturali, cioè, grossolanamente, i
numeri che “si contano con le dita” (ammettendo di avere dita a sufficienza), e che esprimono,
per dirla in modo molto approssimato, la molteplicità degli insiemi (“quest’insieme ha tot
elementi”) o la posizione all’interno di una relazione d’ordine totale (“il primo, secondo, etc.
di una fila”).
I numeri naturali possono essere “costruiti” a partire dagli assiomi della teoria degli
insiemi, oppure possono essere presi come oggetti primitivi, definiti da un loro sistema di
assiomi (sostanzialmente dovuto al matematico italiano Giuseppe Peano, 1858-1932). Di
nuovo, non ci addentriamo nei bassifondi della matematica e consideriamo il concetto di
numero naturale (0, 1, 2, . . . ) come elementare e ben noto.
L’insieme di tutti i numeri naturali viene indicato con il simbolo N. L’insieme dei numeri
naturali è totalmente ordinato dalla relazione d’ordine ≤. Le operazioni elementari (somma,
moltiplicazione e loro operazioni inverse – sottrazione e divisione –, cosí come le potenze di
esponente intero positivo) sono ben note.
Un insieme infinito che può essere messo in corrispondenza biunivoca con l’insieme dei
numeri interi viene detto numerabile. Lavorare con insiemi infiniti è sempre una cosa
delicata, e quindi l’idea intuitiva che due insiemi in corrispondenza biunivoca hanno lo stesso
numero di elementi viene messa in questione nel caso di insiemi infiniti. Ad es. l’insieme
dei numeri pari è un sottoinsieme proprio dei numeri naturali, per cui intuitivamente “piú
piccolo”, ma può cionondimeno essere messo in corrispondenza biunivoca con l’insieme dei
naturali in modo estremamente semplice: ad es. ad n pari facciamo corrispondere l’intero
n/2 (che esiste perché n è pari!), e all’intero m facciamo corrispondere il pari 2m; che si tratti di
una corrispondenza biunivoca è immediato. Esistono insiemi infiniti che non possono essere
messi in corrispondenza biunivoca con i naturali, e quindi che non sono numerabili? La
18
Alberto Berretti
Analisi Matematica I
risposta a questa domanda è affermativa: vedremo piú avanti che l’insieme dei numeri reali
non è infatti numerabile, ma ha una cardinalità maggiore (contiene cioè “molti piú elementi”
di N).
L’unico punto importante da sottolineare parlando dei numeri interi è il seguente principio logico, in cui la successione degli interi ha un ruolo essenziale e che è molto usato in
matematica: il principio di induzione matematica.
Proposizione 1. Sia A un insieme. Se:
0∈A
(1.13a)
∀n ∈ N : n ∈ A ⇒ n + 1 ∈ A
(1.13b)
allora A ⊇ N.
Dimostrazione. Supponiamo che m ∈ N, m < A. Allora deve essere anche m − 1 < A, e quindi
anche m − 2 < A, e cosí via; dopo m passi, arriviamo a 0 < A, contraddicendo (1.13a). Quindi
deve essere m ∈ A.
Il principio di induzione matematica è tipicamente utilizzato come tecnica di dimostrazione, quando bisogna dimostrare che una certa proposizione Pn , che dipende da n ∈ N, è vera
∀N. In tal caso si può dimostrare che Pn vale per ogni n ∈ N semplicemente dimostrando
che vale P0 e poi che ∀n ∈ N Pn ⇒ Pn+1 . Infatti, basta definire A come l’insieme degli N per
cui Pn è vera ed applicare il principio di induzione per ottenere che A = N, cioè Pn è sempre
vera.
La tecnica di dimostrazione per induzione è molto importante e nel seguito la utilizzeremo
molto spesso. Una delle prime applicazioni sarà la dimostrazione della formula del binomio
di Newton piú avanti.
Numeri interi
Per “numeri interi” si intendono i numeri interi dotati di segno. Di nuovo, le loro proprietà
sono ben note fin dalle scuole inferiori. L’insieme dei numeri interi viene indicato con il
simbolo Z (dal tedesco Zahl, numero).
Ricordiamo la definizione di valore assoluto o modulo di n, indicato con il simbolo |n|,
come il piú grande fra n e −n:
|n| = max{n, −n}.
(1.14)
Il valore assoluto soddisfa le seguenti proprietà:
|n| ≥ 0,
(1.15a)
19
Alberto Berretti
Analisi Matematica I
|n| = 0 ⇒ n = 0,
(1.15b)
(1.15c)
|n + m| ≤ |n| + |m|.
Si osservi che se n ≥ 0 allora |n| = n, mentre se n < 0 allora |n| = −n. Le (1.15a), (1.15b), (1.15c)
ci dicono che il valore assoluto “è una norma”. La (1.15c) si chiama disuguaglianza triangolare
ed è molto importante.
La dimostrazione di queste tre proprietà è elementare. Per quanto riguarda la prima,
osserviamo che se n = 0 allora |n| = e quindi è soddisfatta; se n > 0 allora |n| = n > 0 e quindi
è soddisfatta; se n < 0 allora |n| = −n > 0 e quindi à ancora soddisfatta. La seconda è ovvia
(da quanto appena detto, se n , 0 allora |n| > 0).
La disuguaglianza triangolare può essere dimostrata considerando i varî casi. Se n, m > 0
allora n + m > 0 e pertanto |n + m| = n + m = |n| + |m|, e quindi è verificata. Se n, m < 0
allora |n + m| = −n − m = |n| + |m| e quindi è verificata. Se n > 0, m < 0 con n > −m, allora
|n + m| = n + m = n − (−m) < n + (−m) = |n| + |m| e quindi è verificata. Se n > 0, m < 0 con
n < −m, allora |n + m| = −(n + m) = −n − m < n − m = |n| + |m|, e quindi è verificata. Gli altri
due casi (n < 0, m > 0 con m > −n e n < 0, m > 0 con m < −n) sono identici ai due precedenti
(basta scambiare n con m). Se inoltre n o m sono 0 la disuguaglianza diventa ovvia.
Diamo per scontate le nozioni di divisore, di massimo comun divisore (indicato con gcd),
di minimo comune multiplo, di numero primo e di scomposizione di un intero in fattori
primi.
È abbastanza facile costruire i numeri interi a partire dai numeri naturali come classi di equivalenza
di coppie di numeri naturali.
Consideriamo l’insieme N2 delle coppie ordinate (n, m) di numeri naturali.
In tale insieme
introduciamo una relazione di equivalenza ∼ nel modo seguente:
(n, m) ∼ (p, q) se
n + q = m + p.
(1.16)
Tale relazione di equivalenza non è scelta a caso; infatti due coppie sono equivalenti se la differenza
tra n e m è uguale: il problema è che se n < m la differenza negli interi non ha senso. Quindi
sostanzialmente identifichiamo i numeri negativi con l’insieme di tutte le possibili sottrazioni che
generano il numero negativo considerato.
è un esercizio banale verificare che effettivamente le proprietà riflessiva, simmetrica e transitiva
sono soddisfatte. Quindi definiamo Z come l’insieme quoziente N/∼. Definiamo poi somma e
moltiplicazione come:
(n, m) + (p, q) = (n + p, m + q),
(n, m) · (p, q) = (np + mq, mp + nq).
Definiamo inoltre l’operazione “cambio di segno” ponendo −(n, m) = (m, n). Tali operazioni sono
compatibili con la relazione di equivalenza ∼ e quindi definiscono operazioni sulle classi di equiva-
lenza (cioè su Z). A questo punto identifichiamo N con le classi della forma [(n, 0)] (interi positivi),
20
Alberto Berretti
Analisi Matematica I
ed indichiamo le classi della forma [(0, n)] con −n (interi negativi). La relazione d’ordine totale ≤
viene definita in Z distinguendo i segni: se n,m sono positivi, li interpretiamo come numeri naturali e
definiamo la relazione d’ordine nel modo usuale; se uno è negativo e l’altro positivo, allora il positivo
è sempre maggiore del negativo, e se entrambe sono negativi, poniamo n ≤ m se −m ≤ −n (−m, −n
sono positivi!). Infine, definiamo |n| (modulo o valore assoluto di n) come il piú grande tra n e −n. È
elementare verificare che queste definizioni sono scelte esattamente in modo tale da generare le note
proprietà di quelli che sono noti alle scuole inferiori come numeri relativi.
L’insieme dei numeri interi è numerabile. Ecco una corrispondenza biunivoca fra interi e
naturali:
Z
0
1
−1
2
−2
3
−3
...
N
0
1
2
3
4
5
6
...
Anche se non abbiamo scritto esplicitamente la formula l’idea dovrebbe essere chiara.
Esempio 5. Esistono infiniti numeri primi. Infatti, ammettiamo che esistano un numero
finito di numeri primi (chiamiamoli p1 , p2 , . . . , pN ) e che quindi l’ultimo numero primo sia pN .
Poniamo allora:
M = p1 · p2 · . . . · pN + 1.
Chiaramente M − 1 è divisibile per ogni numero primo (minore o uguale ad pN , cioè per
ipotesi tutti), per cui M darebbe resto 1 alla divisione per qualsiasi numero primo, quindi
sarebbe primo, ed è palesemente maggiore di pN : abbiamo ottenuto una contraddizione, per
cui l’ipotesi di partenza (e cioè che i numeri primi siano finiti) deve essere falsa.
La dimostrazione, mutatis mutandis, è dovuta ad Euclide di Alessandria (325 a. C.-265 a. C.).
Da oltre duemila anni si cerca, invano, di scorgere delle regolarità nella successione dei numeri
primi, che, come dice il matematico D. Zagier, “crescono come gramigna nella successione dei numeri
interi”. Il piú grande numero primo noto ad oggi (maggio 2014) è 257885161 −1 ed ha 17425170 cifre deci-
mali, e mantiene tale record dal gennaio 2014. La pagina web http://primes.utm.edu/largest.html
contiene informazioni aggiornate sui piú grandi numeri primi noti.
Numeri razionali
La definizione elementare di numero razionale è quella di frazione i cui numeratori e denominatori sono numeri interi (con il denominatore diverso da 0), avendo identificato le frazioni
simili. L’insieme dei numeri razionali viene indicato con il simbolo Q (da “quoziente”).
Le operazioni, la relazione d’ordine ≤ ed il valore assoluto sono definiti nel modo naturale e
noto fin dalle scuole inferiori. È importante sottolineare che le proprietà del valore assoluto,
21
Alberto Berretti
Analisi Matematica I
che verranno utilizzate pesantemente in tutto il corso, continuano a valere per i numeri
razionali.
I numeri razionali possono essere costruiti molto facilmente a partire dagli interi usando il linguaggio delle classi di equivalenza, semplicemente formulando in tale linguaggio la teoria delle frazioni.
Anzi, il linguaggio delle classi di equivalenza costituisce una generalizzazione del linguaggio della
teoria delle frazioni a relazioni di equivalenza arbitrarie.
Infatti, è immediato verificare che l’insieme delle frazioni è l’insieme Z×Z∗, dove con Z∗ indichiamo
l’insieme degli interi diversi da 0 (il denominatore non può essere 0!), e che la relazione di similitudine
fra frazioni è una relazione di equivalenza.
L’insieme dei numeri razionali è totalmente ordinato. Infatti, siano x = p/q, y = r/s numeri
razionali, scritti come frazioni ridotte ai minimi termini con q, s ≥ 0. Allora diremo che x ≤ y
se ps ≤ rq. La verifica che si tratta davvero di una relazione d’ordine totale è elementare.
I numeri razionali godono di due importanti proprietà.
Proposizione 2 (Densità dei numeri razionali). Dati due razionali distinti esiste sempre un
razionale compreso fra i due:
∀x, y ∈ Q, x < y, ∃x ∈ Q : x < z < y.
(1.17)
Dimostrazione. Basta prendere:
x+y
;
2
ovviamente z è compreso fra x e y (ne è la media!) ed è razionale.
z=
Conseguentemente ne esistono infiniti: infatti avremo z1 fra x e y, z2 tra x e z1 , z3 tra x e z2 ,
e cosí via.
Proposizione 3 (Proprietà archimedea dei numeri razionali).
∀x, y > 0, x, y ∈ Q, ∃n ∈ N tale che nx > y.
(1.18)
Dimostrazione. Sia x = p/q, y = r/s, p, q, r, s > 0 interi. Allora basta prendere n > rq:
nx > rq
p
r
= rp > .
q
s
In particolare, preso qualsiasi razionale, arbitrariamente piccolo, possiamo sempre moltiplicarlo per un intero in modo tale che il risultato sia ad es. maggiore di 1, di 0.1, di 0.0000001
o di 100000000.
L’insieme dei numeri razionali è numerabile. Un modo per numerare (cioè mettere corrispondenza biunivoca con i naturali) Q è il seguente. Per ogni razionale r, scritto come
22
Alberto Berretti
Analisi Matematica I
frazione ridotta ai minimi termini con denominatore positivo nella forma p/q, chiamiamo
“altezza” di r l’intero |p| + q. Ad es. non esistono numeri di altezza 0, l’unico numero di
altezza 1 è 0 = 0/1, i numeri di altezza 2 sono −1 = −1/1 e 1 = 1/1, e cosí via; per ogni
valore dell’altezza cè un numero finito di razionali. Possiamo quindi numerare i razionali
disponendoli prima in ordine di altezza, e all’interno di quelli della medesima altezza li
ordiniamo in modo crescente. Ad es.:
|p| + q
1
2
3
p/q ∈ Q
0/1
−1/1
1/1
−2/1
−1/2
1/2
2/1
−3/1
−1/3
1/3
3/1
...
m∈N
0
1
2
3
4
5
6
7
8
9
10
...
Esercizio 1. Rappresentare le frazioni
4
p
q
...
geometricamente come punti di Z2 , utilizzando p e
q come coordinate (ovviamente rimuovendo il semipiano q ≤ 0!), ed evidenziare le frazioni
che hanno la medesima “altezza”.
è evidente che esistono molti altri modi, alcuni geometricamente intuitivi, per realizzare
la corrispondenza biunivoca fra naturali ed interi.
1.2.2. Numeri reali
Si potrebbe pensare che i numeri razionali siano sufficienti per gli usi che se ne devono fare
in geometria ed in fisica. In realtà non è cosí, come è noto sostanzialmente da Pitagora (569
a. C.-475 a. C.). Infatti, consideriamo un quadrato di lato 1, e calcoliamone la diagonale.
Utilizzando, appunto, il teorema di Pitagora, otteniamo che la diagonale d del quadrato
soddisfa d2 = 12 + 12 = 2. Il problema è che non esiste alcun numero razionale il cui quadrato
è 2.
Infatti, sia p/q ∈ Q tale che p2 /q2 = 2. Allora deve essere p2 = 2q2 . In realtà ciò è impossibile;
se infatti scomponiamo sia p che q in fattori primi, ciascuno di essi avrà un certo numero di
fattori 2 nella scomposizione in fattori primi; pertanto p2 , essendo un quadrato, avrà un numero
pari di fattori 2, ed analogamente q2 . Ma allora 2q2 ha un numero dispari di fattori due (quelli
di q2 piú uno!) e quindi non può essere uguale a p2 .
Questo fatto si può generalizzare a intere classi di numeri al di là della radice quadrata di 2. Vale
infatti la seguente proposizione.
Proposizione 4. Una qualsiasi equazione algebrica della forma:
xn + a1 xn−1 + a2 xn−2 + · · · + an = 0,
in cui tutti i coefficienti ai siano interi, non può avere radici razionali che non siano anche intere.
23
Alberto Berretti
Analisi Matematica I
In altri termini, tutte le sue radici o sono intere o non sono razionali. Tale proposizione, dunque, ci
permette di costruire un’ampia classe di numeri reali irrazionali come radici di equazioni algebriche.
Dimostrazione. Se scriviamo x come frazione ridotta ai minimi termini x = p/q, otteniamo:
p
q
!n
+ a1
p
q
!n−1
+ a2
p
q
!n−2
+ · · · + an = 0,
e moltiplicando per qn−1 otteniamo:
−
pn
= a1 pn−1 + a2 pn−2 q + · · · + an qn−1 ,
q
che, uguagliando una frazione propria con un numero intero, è impossibile.
Questa dimostrazione, dovuta al matematico tedesco Carl Gauss (1777-1855), è presa da G. H. Hardy, A Course of Pure Mathematics, Cambridge 1955.
La costruzione dei numeri reali è piuttosto complessa, ed esistono diverse varianti. La
costruzione piú famosa, storicamente la prima e concettualmente la piú chiara, è quella
dovuta al matematico tedesco Richard Dedekind (1831-1916). Nel seguito introdurremo i
numeri reali nel modo in cui sono definiti alle scuole inferiori, e cioè come sviluppi decimali
non periodici, e descriveremo la costruzione di Dedekind in dettaglio come complemento:
tale costruzione ci permetterà di dimostrare che una proprietà dei numeri reali, essenziale per
l’analisi matematica, effettivamente vale.
Assumendo nota la notazione posizionale per i numeri razionali (nel seguito useremo
quasi esclusivamente quella in base 10, o notazione decimale) assumiamo come note ed
elementari le seguenti proprietà:
1. Se r = p/q ∈ Q, allora r è rappresentato in forma decimale come segue:
± am am−1 . . . a1 a0 .b1 . . . bk (c1 . . . cn ),
(1.19)
dove ai ,bi e ci sono cifre decimali (cioè interi compresi fra 0 e 9), e le parentesi intorno
agli ci indicano che la quella successione di cifre si ripete infinitamente. Se gli ai non
ci sono vuol dire che la parte intera del numero decimale è nulla; gli bi formano il
cosiddetto antiperiodo, che può non esserci (poniamo in tal caso k = 0), e la sequenza
periodica degli ci , che può anche lei non esserci (n = 0), è il periodo.
2. Viceversa, uno sviluppo decimale della forma (1.19) definisce un unico numero razionale r (che piú avanti impareremo a calcolare).
È importante osservare che ogni numero decimale non periodico può essere sempre scritto
come periodico, con un periodo che consiste nella singola cifra 9: ad es. 1 = 0.(9), o
24
Alberto Berretti
Analisi Matematica I
0.37 = 0.36(9). Per eliminare tale ambiguità, imporremo che i numeri con periodo costituito
dalla singola cifra 9 siano immediatamente riscritti come numeri decimali non periodici.
I numeri decimali che non rientrano nella categoria precedente, e cioè i numeri decimali
che non terminano e la cui infinita sequenza di cifre non è periodica vengono detti numeri
irrazionali. I numeri reali, il cui insieme viene denotato con il simbolo R, sono i numeri
razionali e i numeri irrazionali. Le operazioni sono definite su di essi nel modo noto fin dalle
scuole inferiori, cosí come la relazione d’ordine totale ≤. Definiamo quindi il modulo di un
numero reale nel modo solito:
|x| = max{x, −x};
continuano a valere le proprietà (1.15a), (1.15b) ed (1.15c) del valore assoluto.
L’insieme dei numeri reali è totalmente ordinato dalla relazione d’ordine <. Se definiamo
un numero reale come allineamento decimale, il significato di tale relazione d’ordine è ovvio
e ben noto.
Ordinamento di insiemi numerici
Definiamo ora alcuni concetti molto importanti relativi all’ordinamento di insiemi numerici.
Consideriamo nel seguito insiemi di numeri, che potranno essere naturali, interi, razionali
o reali: la cosa importante è che sia definita la relazione d’ordine ≤ (e quindi i simboli associati
≥, <, >).
Sia S un insieme numerico (e cioè uno degli insiemi fino ad ora introdotti: l’insieme dei
numeri naturali, dei numeri interi, dei numeri razionali o dei numeri reali), e sia A ⊆ S. x ∈ S
è un maggiorante di A se ∀y ∈ A x ≥ x; è un minorante di A se ∀y ∈ A x ≤ x. A è limitato
superiormente se possiede almeno un maggiorante, ed è limitato inferiormente se possiede
almeno un minorante. È limitato se è limitato sia superiormente che inferiormente.
Un maggiorante di A che fa anche parte di A è un massimo di A; un minorante di A che fa
anche parte di A è un minimo di A.
Il lettore dovrebbe fermarsi a riflettere un attimo su queste definizioni formali, e comprendere che
effettivamente sono la versione rigorosa dell’idea intuitiva di massimo, minimo, e di limitatezza di
un insieme.
Proposizione 5. Il massimo ed il minimo di un insieme, qualora esistono, sono unici.
Dimostrazione. Siano x1 , x2 massimi di A, e x1 , x2 : ad es. x1 < x2 (altrimenti basta scambiare
x1 con x2 . . . ); quindi x1 non è un maggiorante di A (perché x2 ∈ A), contraddicendo l’ipotesi.
Analogamente per il minimo.
25
Alberto Berretti
Analisi Matematica I
Sia di nuovo A ⊆ S. Il massimo dei minoranti di A viene detto estremo inferiore di A,
mentre il minimo dei maggioranti viene detto estremo superiore di A. Si usano le seguenti
notazioni:
max A
massimo di A
min A
minimo di A
sup A
estremo superiore di A
inf A
estremo inferiore di A
Essendo gli estremi superiore/inferiore dei minimi/massimi rispettivamente, la proposizione precedente si applica per cui se essi esistono sono unici. Abbiamo inoltre la seguente
proposizione.
Proposizione 6. Valgono le seguenti relazioni tra estremi superiore/inferiore e massimi/minimi:
1. Se x = max A allora x = sup A
2. Se x = sup A e x ∈ A allora x = max A
3. Se x = min A allora x = inf A
4. Se x = inf A e x ∈ A allora x = min A
Dimostrazione. (1) Se x = max A allora x ∈ A e x è un maggiorante di A. Sia ora B l’insieme
dei maggioranti di A. Ora, x ∈ B per ipotesi. Inoltre, x è un minorante di B; infatti, se non lo
fosse, ∃y ∈ B tale che y < x, cioè esisterebbe un y, maggiorante di A perché elemento di B,
tale che y < x, il che contraddice l’ipotesi che x ∈ A. Quindi x è il minimo dei maggioranti,
e cioè sup A. (2) è praticamente la definizione di massimo. (3) e (4) Le dimostrazioni sono
analoghe alle precedenti.
Proposizione 7. Se A ⊆ S è un sottoinsieme finito (non vuoto!) di un insieme numerico S, allora A
ha massimo e minimo.
Dimostrazione. è ovvia e “costruttiva”: se A ha n elementi, con n − 1 confronti si determina il
massimo (analogamente il minimo). Oppure alternativamente: supponiamo che non esista il
massimo; allora se x1 ∈ A x1 non è un maggiorante, quindi ∃x2 > x1 , x2 ∈ A. Ma nemmeno x2
è un maggiorante per la medesima ragione, per cui esiste x3 > x2 , x3 ∈ A: e cosí via. Quindi
A ha infiniti elementi, il che contraddice l’ipotesi che sia un insieme finito.
Le due precedenti proposizioni possono sembrare inutili e sciocche in quanto ovvie. In
realtà, il massimo ed il minimo di un insieme sono stati definiti in un modo preciso e formale
26
Alberto Berretti
Analisi Matematica I
e quindi il rigore vuole che tutte le proprietà del massimo e del minimo vengano dedotte
formalmente da tali definizioni, e non appellandosi al significato che tali parole hanno nel
linguaggio comune (che non è formalmente rigoroso come il linguaggio matematico). A
volte diremo che un certo teorema o una certa proposizione è ovvia: ciò non significa che una
dimostrazione non è necessaria perché al senso comune il fatto appare scontato, ma vuole dire che
il lettore giunto al livello di sofisticazione matematica necessario è in grado di fornire una
dimostrazione formalmente rigorosa dopo qualche attimo di riflessione. A volte gli enunciati
che al senso comune appaiono piú ovvî in matematica sono di dimostrazione molto ardua,
o comunque non banale.
L’esistenza o meno degli estremi superiore o inferiore di un insieme limitato superiormente
o inferiormente è la proprietà fondamentale che distingue i numeri reali dai numeri razionali.
Infatti, i numeri reali godono della importante proprietà di completezza o proprietà di
Dedekind, che i numeri razionali non possiedono:
Teorema 1. Sia A ⊂ R, limitato superiormente. Allora esiste a = sup A.
Questa proprietà è palesemente falsa per i numeri razionali. Ad es. l’insieme:
A = {x ∈ Q : x2 ≤ 2}
non possiede, in Q, alcun estremo superiore (altrimenti la radice quadrata di 2 sarebbe
razionale, il che non è!).
La dimostrazionde della proprietà di completezza dei numeri reali a partire dalla definizione di numero reale come allineamento decimale è complessa e, a nostro parere, innaturale.
Utilizzando la definizione di numero reale secondo Dedekind, invece, potremo darne una
dimostrazione molto piú naturale.
La costruzione di Dedekind
Sia (L, R) una partizione di Q in due insiemi tali che:
L ∪ R = Q,
∀x ∈ L, y ∈ R : x < y.
(1.20a)
(1.20b)
La coppia (L, R) viene detta coppia di classi contigue di numeri razionali o taglio di Q.
Per chiarire il concetto di taglio, facciamo qualche esempio notevole.
Esempio 6. L = {x ∈ Q : x < 0} e R = {x ∈ Q : x > 0} non è un taglio, perché la condizione (1.20a) non
è soddisfatta (0 non è incluso né in L né in R).
Esempio 7. L = {x ∈ Q : x ≥ 0} e R = {x ∈ Q : x < 0} non è un taglio, perché la condizione (1.20b) non
è soddisfatta (i numeri in L sono maggiori dei numeri in R).
27
Alberto Berretti
Analisi Matematica I
Esempio 8. L = {x ∈ Q : x ≤ 0} e R = {x ∈ Q : x ≥ 0} non è un taglio, perché la condizione (1.20b) non
è soddisfatta (0 appartiene ad entrambe gli insiemi!).
Esempio 9. L = {x ∈ Q : x < 0} e R = {x ∈ Q : x ≥ 0} è un taglio.
Esempio 10. L = {x ∈ Q : x ≤ 1} e R = {x ∈ Q : x > 1} è un taglio.
Esempio 11. L = {x ∈ Q : x ≤ 0 oppure x2 < 2} e R = {x ∈ Q : x2 ≥ 2 e x > 0} è un taglio.
L viene detta classe sinistra e R viene detta classe destra (infatti, se rappresentiamo i razionali
come punti su una retta orientata verso destra come d’abitudine, i numeri in L stanno a sinistra di
quelli in R). La coppia o taglio (L, R) viene detta coppia di classi contigue per la seguente ragione.
Proposizione 8. ∀ε > 0 ∃x ∈ L, y ∈ R :
arbitrariamente vicini fra loro).
y − x < ε (in altri termini, esistono in L e R razionali
Dimostrazione. Supponiamo che la proposizione sia falsa. Allora:
∃ε > 0 ∀x ∈ L, y ∈ R : y − x ≥ ε.
(1.21)
Siano allora x̄ ∈ L, ȳ ∈ R qualsiasi. Per la proprietà di densità dei razionali ∃N ∈ N tale che:
δ=
ȳ − x̄
< ε.
N
Consideriamo gli N + 1 razionali:
x0 = x̄, x1 = x̄ + δ, x2 = x̄ + 2δ, . . . , xN = x̄ + Nδ = ȳ.
Per definizione di classi contigue, essi devono tutti appartenere a L o a R, anzi, per l’esattezza, i primi
– diciamo fino a che l’indice è minore o uguale a k – devono appartenere a L, e gli altri – quindi
quelli con indice che è maggiore di k – devono appartenere ad R. Ora, xk ∈ L, e xk+1 ∈ R, ma la loro
differenza è δ < ε, che contraddice la (1.21). La (1.21) non può quindi essere vera (perché implica una
contraddizione!) per cui deve essere vera la tesi.
Si osservi che L è limitato superiormente (da qualsiasi numero in R) e che R è limitato inferiormente
(da qualsiasi numero in L). Potrebbero avere massimo o minimo. Sono infatti possibili tre tipi di
tagli:
(1) L ha massimo e R non ha minimo (ad es. l’esempio 10), (2) L non ha massimo e R ha
minimo (ad es. l’esempio 9), (3) L non ha massimo e R non ha minimo (ad es. l’esempio 11). Il
quarto caso che potrebbe teoricamente essere dato (L ha massimo e R ha minimo) non è in realtà
possibile. Sia infatti l = max L e r = min R; l e r sono razionali (essendo massimi e minimi fanno parte
dei rispettivi insiemi: ed in ogni caso null’altro che i razionali v’è al momento!). Ma allora (l + r)/2
sarebbe razionale, maggiore di l e minore di r (essendone la media!), quindi non sarebbe contenuto
né in L né in R, contraddicendo la definizione di taglio.
Ovviamente, tutte le classi del tipo (1) sono della forma:
L′ = {x ≤ r}, R′ = {x > r}
28
per qualche r ∈ Q,
Alberto Berretti
Analisi Matematica I
mentre tutte quelle del tipo (2) sono della forma:
L′′ = {x < r}, R′ = {x ≥ r}
per qualche r ∈ Q.
Quindi se consideriamo equivalenti le coppie (L′ , R′ ), (L′′ , R′′ ) definite come sopra, l’insieme dei tagli di tipo
(1), (2) è in corrispondenza biunivoca con Q, perché ad ogni razionale r corrispondono esattamente
due tagli, uno di tipo (1) ed uno di tipo (2). Noi pertanto identifichiamo con Q l’insieme dei tagli di tipo
(1), (2), avendo avuto cura di identificare le coppie equivalenti. A questo punto estendiamo Q aggiungendo
le coppie di classi del tipo (3), che palesemente non corrispondono a nessun numero razionale. Una
classe di tipo (3) definirà un numero irrazionale α.
L’insieme di tutti i numeri razionali ed irrazionali (cioè di tutti i tagli, avendo avuto cura di
identificare i tagli corrispondenti di tipo (1) e (2)) è l’insieme dei numeri reali, denotato con il
simbolo R.
Nonostante le apparenze, si tratta di una definizione intuitiva: infatti un numero irrazionale non può
mai essere enunciato nella sua interezza, con precisione assoluta, perché occorrerebbe dare un numero
infinito di cifre (mentre un numero razionale ha uno sviluppo decimale periodico o addirittura finito).
Quindi dobbiamo immaginare che, “in pratica”, una quantità reale (continua) sia determinata da
un susseguirsi di approssimazioni per difetto e per eccesso, vieppiú precise, che la determinano
approssimandola dall’alto e dal basso.
è facile mostrare come R sia un insieme totalmente ordinato. Infatti, diremo che due numeri reali
α, β diversi tra loro sono in relazione α < β se le classi corrispondenti (Lα , Rα ), (Lβ , Rβ ) soddisfano:
Lα ⊂ Lβ ,
Rα ⊃ Rβ .
è necessario escludere α = β perché allora, nel caso in cui entrambe siano razionali, sorgerebbe qualche
problema se rappresentiamo α con una classe del tipo (2) e β con una classe di tipo (1). Ovviamente
α ≤ β se α < β o α = β.
Definiamo ora le operazioni elementari sui numeri reali. Abbiamo innanzitutto:
α + β = γ = (Lγ , Rγ ),
dove:
Lγ = {x + y, x ∈ Lα , y ∈ Lβ }, Rγ = {x + y, x ∈ Rα , y ∈ Rβ }.
è banale verificare che (Lγ , Rγ ) è un taglio, e che nel caso in cui α e β siano razionali il risultato
corrisponde al razionale somma di α e β, e cioè che tale definizione estende senza contraddire la
definizione di somma tra razionali ai reali. L’opposto −α è definito dalle classi:
L−α = {−x, x ∈ Rα }, R−α = {−x, x ∈ Lα },
e α − β = α + (−β). E poi, naturalmente, definiamo |α| = max(α, −α).
La definizione di moltiplicazione è piú macchinosa a causa dei segni. Definiamola prima per i
numeri positivi (per cui, dunque, la classe inferiore Lα contiene tutti i numeri negativi). Se α ≥ 0, β ≥ 0
(cosicché Lα ⊇ {x ∈ Q, x ≤ 0}, Rα ⊆ {x ∈ Q, x ≥ 0} ed analogamente per β), definiamo il prodotto α · β
o brevemente αβ mediante le due classi:
Rαβ = {x · y, x ∈ Rα , y ∈ Rβ }, Lαβ = {x · y, x ∈ Lα , y ∈ Lα , e x, y > 0} ∪ {x ∈ Q, x ≤ 0}.
29
Alberto Berretti
Analisi Matematica I
È opportuno fermarsi un attimo a riflettere per convincersi che le due classi formano effettivamente
un taglio, e che tale definizione estende senza contraddire la nozione di prodotto fra razionali ai reali;
è necessario costruire la classe sinistra in quel modo apparentemente macchinoso perché, se fosse
definita semplicemente in analogia con la definizione della classe destra, non otterremo un taglio:
infatti il prodotto di due grandi numeri negativi nelle classi sinistre di α e β darebbe un grande numero
positivo e quindi “fuori posto” nella classe sinistra del prodotto.
Se α, β sono positivi definiamo poi:
(−α)β = −αβ, α(−β) = −αβ, (−α)(−β) = αβ.
Se α > 0, definiamo
1
α
tramite le classi:
1
1
R1/α = x ∈ Q, ∈ Lα , e x > 0 , L1/α = x ∈ Q, ∈ Rα ∪ {x ∈ Q, x ≤ 0},
x
α
e poniamo 1/(−α) = −(1/α). Definiamo quindi α/β, con β , 0, come α · (1/β).
è facile, anche se piuttosto laborioso, dimostrare che le operazioni cosí definite sui reali estendano
senza contraddire le nozioni delle analoghe operazioni sui razionali, e che le note proprietà delle
operazioni elementari effettivamente valgono sui reali.
Accingiamoci ora a dimostrare il teorema di completezza 1. Per farlo, cosideriamo coppie di classi
contigue di numeri reali o tagli dell’insieme R dei numeri reali, invece che razionali. La definizione è
identica al caso dei razionali, e cioè diremo che (L, R) è un taglio dei reali se L ∪ R = R e se ∀x ∈ L,
∀y ∈ R vale y > x. In modo del tutto analogo al caso razionale, si dimostra che ∀ε > 0 ∃x ∈ L, ∃y ∈ R
tali che y − x < ε. Vale allora il seguente teorema.
Teorema 2 (Dedekind). Se (L, R) è un taglio dei reali, allora ∃α ∈ R tale che L contiene tutti i reali minori di
α, R contiene tutti i reali maggiori di α e α appartiene o a L o a R.
Dimostrazione. Come nel caso dei numeri razionali, sono possibili in linea di principio 4 casi: (1) L
ha massimo l e R ha minimo r, (2) L ha massimo l e R non ha minimo, (3) L non ha massimo e R ha
minimo r, (4) L non ha massimo e R non ha minimo. Ora, il caso (1) non è possibile: se fosse vero
allora l < (l + r)/2 < r ed (l + r)/2 non apparterrebbe allora né a L né a R, come nel caso dei tagli dei
razionali. Ma, a differenza del caso dei tagli dei razionali, ora nemmeno il caso (4) è possibile!. Infatti,
se tale caso è possibile, poiniamo L′ = L ∩ Q, R′ = R ∩ Q. Ovviamente (L′ , R′ ) è taglio dei razionali e
quindi definisce un numero reale β. β deve appartenere a L o a R; se appartiene a L, allora deve essere
il massimo di L (altrimenti detto β′ un elemento di L maggiore di β, fra β e β′ c’è almeno un razionale
β′′ ∈ L′ maggiore di β e quindi in R ed essendo razionale anche in R′ , il che contraddice il fatto che
(L′ .R′ ) è un taglio dei razionali); se appartiene a R allora deve necessariamente esserne il minimo (per
un ragionamento analogo al precedente). Quindi il caso (4) non può essere dato.
A questo punto il teorema di Dedekind è dimostrato perché nel caso (2) α = l mentre nel caso (3)
α = r, e non sono possibili altri casi.
Dimostrazione del teorema di completezza. Sia A ⊂ R limitato superiormente.
insiemi:
R = {insieme dei maggioranti di A},
30
L = R \ R.
Consideriamo i due
Alberto Berretti
Analisi Matematica I
è evidente che (L, R) è un taglio dei reali. Essa definisce pertanto un numero reale α per il teorema di
Dedekind. Dimostriamo ora che α = sup A.
Se α > sup A, esisterebbe un maggiorante di A in L il che è assurdo. Se α < sup A, esisterebbe in
R un reale che non è maggiorante di A, il che contraddice la definizione di R. Quindi non può che
essere α = sup A.
Osserviamo a questo punto che le operazioni sui numeri reali possono essere interpretate come
operazioni sui tagli dei reali allo stesso modo in cui sono state definite sui tagli dei razionali.
L’insieme dei reali viene anche detto continuo. Il concetto di numero reale è centrale nell’analisi,
e con esso quello di continuità.
Ulteriori proprietà dei numeri reali
Anche se che R è formato da infiniti elementi come N, Z, Q, si tratta di un infinito di
“ordine” piú elevato: si dice che R non è numerabile. Per l’esattezza, dimostriamo che non
è possibile mettere in corrispondenza biunivoca l’insieme dei reali compresi tra 0 e 1 ed i
numeri naturali.
Ammettiamo infatti che sia possibile. Potremmo allora numerare i reali fra 0 e 1 nel modo
seguente:
(1) (1) (1) (1)
1
0.a1 a2 a3 a4 . . .
2
0.a1 a2 a3 a4 . . .
3
0.a1 a2 a3 a4 . . .
4
0.a1 a2 a3 a4 . . .
(2) (2) (2) (2)
(1) (3) (3) (3)
(1) (4) (4) (4)
...
...
(i)
dove le a j è la j-esima cifra decimale del i-esimo numero reale nella lista. Un numero reale
non compreso nella lista è allora quello il cui sviluppo decimale è:
β = 0.b1 b2 b3 b4 . . . ,
(i)
dove le cifre decimali bi soddisfano bi , ai (scelta che è sempre possibile fare, avendo cura
di scegliere bi , 9 e i numeri nella lista scritti in modo “normale”, senza cifre 9 periodiche).
Ci si soffermi un attimo a riflettere che effettivamente β non appare nella lista; se apparisse,
sarebbe il primo, o il secondo, o il terzo, etc.: ma le cifre di β sono scelte appunto in modo da
evitare che possa essere il primo (perché la prima cifra differisce), il secondo (perché la seconda
cifra differisce), il terzo (perché la terza cifra differisce), e cosí via. L’idea della dimostrazione,
dovuta al matematico tedesco Georg Cantor (1845-1918), è detta metodo diagonale.
31
Alberto Berretti
Analisi Matematica I
Un numero reale che è radice di una equazione algebrica a coefficienti razionali viene
√
√
detto algebrico: ad es. tutti i razionali sono algebrici, 2 è algebrico, ( 5 − 1)/2 è algebrico
cosí come qualsiasi espressione costruita mediante operazioni elementari a partire da radici
quadrate o in generale n-esime, e la radice di x5 + x − 1 = 0 è un numero algebrico anche se
non è possibile scriverla in termini di radici ed operazioni elementari.
Un numero reale che non è algebrico viene detto trascendente. Ad es. è noto che il
numero π, pari al rapporto tra l’area del cerchio ed il quadrato del suo raggio, è trascendente.
In generale, le dimostrazioni della trascendenza di un numero irrazionale sono difficili.
Intervalli di numeri reali
Poiché R è totalmente ordinato, possiamo definire gli intervalli come segue:
[a, b] = {x ∈ R : a ≤ x ≤ b}
intervallo chiuso
(a, b) = {x ∈ R : a < x < b}
intervallo aperto
[a, b) = {x ∈ R : a ≤ x < b}
intervallo chiuso a sinistra e aperto a destra
(a, b] = {x ∈ R : a < x ≤ b}
intervallo chiuso a destra e aperto a sinistra
[a, +∞) = {x ∈ R : x ≥ a}
intervallo chiuso a sinistra e infinito a destra
(−∞, a] = {x ∈ R : x ≤ a}
intervallo chiuso a infinito a sinistra
(a, +∞) = {x ∈ R : x > a}
intervallo aperto a sinistra e infinito a destra
(−∞, a) = {x ∈ R : x < a}
intervallo aperto a destra e infinito a sinistra
Si osservi che +∞ e −∞ non sono numeri ma sono solo dei simboli che caratterizzano l’il-
limitatezza dell’intervallo in questione. In pratica, la parentesi quadra indica l’inclusione
dell’estremo nell’intervallo e la parentesi tonda la sua esclusione; non essendo numeri, ±∞
sono sempre esclusi.
1.3. Funzioni reali di variabile reale
Introduciamo ora i concetti piú elementari relativi alle funzioni di una variabile reale, e poi
introduciamo le piú note funzioni elementari: potenze, esponenziali, logaritmi, polinomi,
funzioni razionali, funzioni trigonometriche e poche altre. Studieremo quindi come ricavare
le proprietà elementari di funzioni composte a partire da queste, e introdurremo in modo
assolutamente introduttivo ed elementare alcune applicazioni geometriche interessanti (i
32
Alberto Berretti
Analisi Matematica I
sistemi di coordinate curvilinee nel piano e nello spazio, le equazioni di alcune curve e
superfici elementari).
1.3.1. Proprietà elementari
Studiamo ora le proprietà elementari delle funzioni reali di una variabile reale:
f : A ⊂ R 7→ R,
e cioè introduciamo i concetti di crescenza e decrescenza, le proprietà di simmetria, e cosí
via.
Crescenza e decrescenza
Sia I ⊂ R un intervallo in cui la funzione f è definita ( f potrebbe essere definita anche fuori da
I!). Valgono le seguenti definizioni.
∀x, y ∈ I
x ≤ y ⇒ f (x) ≤ f (y)
∀x, y ∈ I
x < y ⇒ f (x) < f (y)
∀x, y ∈ I
∀x, y ∈ I
f è crescente
x ≤ y ⇒ f (x) ≥ f (y)
f è decrescente
f è strettamente crescente
x < y ⇒ f (x) > f (y)
f è strettamente decrescente
Nei primi due casi si dice anche che la f è monotòna, mentre negli altri due casi si dice che è
strettamente monotòna. È evidente che una funzione strettamente crescente o strettamente
decrescente è anche crescente o decrescente! in altri termini, “strettamente” specifica che non
può essere costante ma deve effettivamente crescere o decrescere. È anche evidente che una
funzione può essere crescente in alcuni intervalli contenuti nel suo dominio, e decrescente in
altri.
È importante capire che le proprietà di crescenza o decrescenza sono proprietà di una
funzione in un intervallo; qualora questo non venga menzionato, si sottintende l’intero dominio
di definizione (come è stato fatto nel capitolo precedente in un contesto astratto).
Esempio 12. La funzione costante f (x) = a, dove a ∈ R qualsiasi, è sia crescente che
decrescente nell’intero dominio di definizione R, ma non strettamente tale.
L’unica funzione contemporaneamente crescente e decrescente in un intervallo è la funzione ivi
costante.
Esempio 13. La funzione identità sui reali f (x) = x è ovviamente strettamente crescente
nell’intero dominio di definizione R.
33
Alberto Berretti
Analisi Matematica I
Esempio 14. La funzione f (x) = x2 è strettamente crescente nell’intervallo [0, +∞) e strettamente decrescente nell’intervallo (−∞, 0]. Si verifichi, utilizzando la definizione di stretta
crescenza e decrescenza, che gli entrambe gli intervalli di crescenza e decrescenza contengono lo zero.
Esempio 15. La funzione f (x) = x3 è strettamente crescente nell’intero dominio di definizione
R. Incluso lo zero!
Esempio 16. La funzione f (x) = sin x è strettamente crescente nell’intervallo [−π/2, π/2]
e strettamente decrescente nell’intervallo [π/2, 3π/2]. Non è né crescente né decrescente
nell’unione dei due intervalli [−π/2, 3π/2]!
Richiameremo la definizione e le proprietà delle funzioni indicate piú avanti; intanto assumiamo
che lo studente le conosca già dalle scuole superiori.
È facile rendersi conto che la composta di due funzioni crescenti è crescente, che la composta
di due funzioni decrescenti è crescente, e che la composta di una funzione crescente ed una
decrescente è decrescente. Inoltre la somma di due funzioni crescenti è crescente, la somma di due
funzioni decrescenti è decrescente, mentre non possiamo dire nulla della somma di una funzione
crescente ed una funzione decrescente (quella crescente potrebbe “crescere di piú” di quanto
quella decrescente decresca, o viceversa!). Per quanto riguarda il prodotto la situazione è piú
complicata a causa del segno; il prodotto di due funzioni crescenti e positive è crescente; infatti, se:
x ≤ y ⇒ 0 < f (x) ≤ f (y), 0 < g(x) ≤ g(y)
allora moltiplicando membro a membro le due disuguaglianze otteniamo:
0 < f (x)g(x) ≤ f (y)g(y),
cioè la crescenza del prodotto. Analogamente per la decrescenza. Gli altri casi possono
essere dedotti tenendo conto delle proprietà delle disuguaglianze.
Esempio 17. La funzione (sin x)2 , funzione composta di sin x e x2 , è crescente nell’intervallo
[π, 3π/2]: infatti (i) nell’intervallo [π, 3π/2] la funzione sin x è decrescente e negativa, (ii) per
valori negativi del suo argomento, la funzione quadrato è decrescente quindi la composta di
due funzioni decrescenti negli intervalli considerati è crescente.
Infine, il reciproco 1/ f (x) di una funzione crescente e positiva f (x) è decrescente; infatti, se:
x ≤ y ⇒ 0 < f (x) ≤ f (y)
allora invertendo l’ultima disuguaglianza otteniamo:
1
1
≤
.
f (y)
f (x)
34
Alberto Berretti
Analisi Matematica I
Lo stesso risultato vale se la funzione è crescente e negativa:
f (x) ≤ f (y) < 0 ⇒
f (x)
1
1
≥1⇒
≥
,
f (y)
f (x)
f (y)
ma non se la funzione, pur monotona nell’intervallo, è sia negativa che positiva! Tutti gli altri casi si
possono ottenere, in questo caso ed in quello del prodotto, dallo studio delle disuguaglianze prestando
sempre attenzione ai segni.
È importante osservare che se una funzione è ad es. crescente nell’intervallo A e nell’intervallo B non è affatto detto che sia crescente nell’unione di tali intervalli! Infatti la funzione
potrebbe essere crescente in A e crescente in B con l’intervallo B a destra di A (e quindi
contenente numeri maggiori) ma tutti i valori della funzione in B potrebbero essere minori
dei valori che la funzione ha in A. Ad es. se consideriamo la seguente funzione:




x + 1 per x ∈ [−1, 0),
f (x) = 


x − 1 per x ∈ [0, 1],
abbiamo che la funzione, definita nell’intero intervallo [−1, 1], è crescente in ciascuno degli
intervalli [−1, 0) e [0, 1], ma non nell’intero intervallo di definizione perché, ad es., f (−1/2) =
1/2 > f (1/2) = −1/2 (v. fig. 1.1). V. anche l’esempio 16 sopra.
1
0.5
-1
-0.5
0.5
1
-0.5
-1
Figura 1.1.: Funzione crescente in due intervalli ma non nella loro unione.
Un teorema importante, anche se di dimostrazione ovvia, è il seguente.
Teorema 3. Se f : A ⊂ R 7→ R è strettamente monotona nel suo dominio A, allora f è invertibile.
Dimostrazione. È infatti evidente che f deve essere iniettiva, cioè due valori uguali di f (x)
non possono essere ottenuti per valori diversi di x, perché altrimenti la funzione non potrebbe
essere monotona.
35
Alberto Berretti
Analisi Matematica I
Positività
Una funzione si dice positiva se per ogni x nel suo dominio f (x) ≥ 0, strettamente positiva
se f (x) > 0, negativa se f (x) ≤ 0, strettamente negativa f (x) < 0.
Se f (x) è una funzione reale qualsiasi, allora possiamo definire la sua parte positiva:
| f (x)| + f (x)
= max{ f (x), 0},
2
(1.22)
| f (x)| − f (x)
= − min{ f (x), 0} = max{− f (x), 0}.
2
(1.23)
f + (x) =
e la sua parte negativa:
f − (x) =
Si noti che f + (x) + f − (x) = | f (x)|, f + (x) − f − (x) = f (x).
Ovviamente f − (x) ≤ f (x) ≤ f + (x).
Estremi
Abbiamo già definito il massimo, il minimo, l’estremo superiore e l’estremo inferiore di un
insieme contenuto in un insieme numerico. Aggiungiamo la seguente notazione: se un
insieme A ⊂ R è illimitato superiormente allora diremo che il suo estremo superiore è infinito e
scriveremo sup A = +∞, mentre se è illimitato inferiormente diremo che il suo estremo inferiore
è (meno) infinito e scriveremo inf A = −∞.
Definiamo ora il massimo, il minimo, l’estremo superiore, l’estremo inferiore di una
funzione.
Il massimo di una funzione f (x) in un insieme A contenuto nel suo dominio di definizione
è il massimo dell’insieme dei valori che la funzione f (x) assume al variare di x in A. In formule:
max f (x) = max{ f (x), x ∈ A};
(1.24)
min f (x) = min{ f (x), x ∈ A}.
(1.25)
x∈A
analogamente:
x∈A
Il o i valori di x ∈ A per i quali f (x) = maxx∈A f (x) (che devono esistere per definizione di
massimo di un insieme!) vengono detti punti di massimo. Il o i valori di x ∈ A per i quali
f (x) = minx∈A f (x) vengono analogamente detti punti di minimo.
Definizioni simili valgono per gli estremi superiore ed inferiore:
sup f (x) = sup{ f (x), x ∈ A},
x∈A
inf f (x) = inf{ f (x), x ∈ A}.
x∈A
(1.26)
Se l’indicazione dell’insieme manca, si sottintende che il massimo, minimo, estremo superiore, estremo inferiore è preso sull’intero dominio della funzione. Inoltre, se la cosa non desta
ambiguità, si può scrivere max invece che max e cosí via.
A
x∈A
36
Alberto Berretti
Analisi Matematica I
Non si deve fare confusione con gli estremi locali di una funzione reale, che saranno definiti e studiati
piú avanti.
Esempio 18. Se f (x) = x2 , allora:
max f (x) = max [0, 4] = 4,
[0,2]
min f (x) = min [0, 2] = 0,
[0,2]
sup f (x) = sup (0, +∞) = +∞,
(0,+∞)
inf f (x) = inf (0, +∞) = 0,
(0,+∞)
min f (x) non esiste.
(0,+∞)
L’ultimo minimo non esiste perché l’insieme:
{x2 , x ∈ (0, +∞)} = (0, +∞)
contiene numeri reali positivi arbitrariamente piccoli, ma non contiene lo zero; quindi non esiste un
numero piú piccolo di tutti, perché preso un qualsiasi numero in tale insieme, per quanto piccolo,
ne esiste sempre un altro nell’insieme ancora piú piccolo (ad es. la sua metà). L’estremo inferiore
invece esiste: infatti ogni numero negativo e lo zero sono suoi minoranti, e di tale insieme lo zero è il
massimo.
Simmetrie
Una funzione è pari se soddisfa:
f (−x) = f (x),
(1.27)
f (−x) = − f (x).
(1.28)
e dispari se soddisfa:
Ovviamente affinché tali definizioni abbiano senso, la funzione f deve essere definita in un
dominio A simmetrico rispetto all’origine, cioè tale che:
x ∈ A ⇒ −x ∈ A.
(1.29)
Ovviamente una funzione può essere né pari né dispari.
Esempio 19. La funzione x2 è pari. La funzione x3 è dispari. La funzione sin x è dispari. La
funzione cos x è pari. La funzione x + x2 non è né pari né dispari.
37
Alberto Berretti
Analisi Matematica I
Se f (x) è una funzione definita in un insieme A simmetrico rispetto all’origine, possiamo definirne
la parte pari:
f (x) + f (−x)
2
f (e) (x) =
(“e” per “even”),
(1.30)
e la parte dispari:
f (x) − f (−x)
(“o” per “odd”).
(1.31)
2
È immediato verificare che f (e) (x) è pari e che f (o) (x) è dispari, e naturalmente f (e) (x) + f (o) (x) = f (x).
f (o) (x) =
In fig. 1.2 abbiamo un esempio di una funzione pari e di una funzione dispari.
15
10
5
-1.5
-1.0
0.5
-0.5
1.0
1.5
(a) Una funzione pari
20
10
-2
1
-1
2
-10
-20
(b) Una funzione dispari
Figura 1.2.: Funzioni pari e dispari.
Le proprietà di parità di una funzione sono delle proprietà di simmetria rispetto all’origine, perché
hanno a che fare con l’inversione rispetto all’origine x 7→ −x. Si potrebbero definire analoghe proprietà
di simmetria rispetto ad altri punti. Ad es. l’inversione rispetto al punto x = x0 è data dalla formula:
x 7→ x0 − (x − x0 ) = 2x0 − x,
(1.32)
per cui una funzione pari rispetto ad x0 è una funzione tale che f (2x0 − x) = f (x), ed una funzione
dispari rispetto a x0 è una funzione tale che f (2x0 − x) = − f (x). Va da sé che il dominio di definizione
dovrà essere simmetrico rispetto al punto x0 .
38
Alberto Berretti
Analisi Matematica I
È assolutamente elementare verificare che se una funzione è pari ed è crescente in un
intervallo I contenuto nei positivi, allora è decrescente nell’intervallo simmetrico contenuto
nei negativi. Se invece una funzione è decrescente in un intervallo I contenuto nei positivi,
allora è crescente nell’intervallo simmetrico contenuto nei negativi. L’opposto vale se è dispari.
Un’altra proprietà di simmetria importante è la periodicità. Una funzione f viene detta
periodica se esiste un reale T , 0 tale che:
f (x + T) = f (x).
(1.33)
Si dice che il numero T è un periodo della funzione f . È evidente che se T è un periodo, allora
anche 2T, 3T, ed in generale nT, dove n è un intero, sono periodi della funzione. Il periodo
T > 0 della funzione con il piú piccolo valore, se esiste, viene detto periodo fondamentale o
a volte semplicemente il periodo della funzione.
Le funzioni trigonometriche (seno, coseno, tangente) sono esempi famosi ed importanti di
funzioni periodiche.
È chiaro che una funzione periodica non può essere definita solo in un intervallo, perché la traslazione espressa dalla definizione di periodicità porterebbe fuori dal dominio della funzione. Basta
riflettere un istante ad es. sul caso della funzione tan x per capire che non è necessario che il dominio sia tutto R: basta che anche gli eventuali punti in cui la funzione non è definita si ripetano
periodicamente con il medesimo periodo.
1.3.2. Funzioni elementari
Introduciamo ora alcune funzioni elementari, in realtà ben note fin dalle scuole inferiori, e
studiamone le principali proprietà.
Potenze e radici
Sia a ∈ R, n ∈ N; allora:
an = a · . . . · a .
| {z }
(1.34)
n volte
Si definisce inoltre a0 = 1. Se m ∈ Z ed m < 0, allora si definisce:
am =
1
a−m
(1.35)
(si osservi che se m < 0 allora −m > 0 quindi −m ∈ N!).
√q
La radice q-esima a, q ∈ Z, è definita come l’operazione inversa dell’elevamento a
potenza q-esima, per a ≥ 0.
39
Alberto Berretti
Analisi Matematica I
Per definire in modo corretto la radice q-esima (q ∈ N) è necessario utilizzare la costruzione di
Dedekind. La radice q-esima di un numero reale a ≥ 0 è definita dal seguente taglio dei numeri reali:
R = {x ∈ R : x > 0 e xn ≥ a},
L = R \ R = {x ∈ R : x < 0 o xn < a}.
(L, R) è effettivamente un taglio dei reali perché per costruzione ogni reale appartiene a R o a L, e
perché essendo xn una funzione crescente di x, tutti i reali di L sono minori di quelli in R. Quindi (L, R)
√q
identifica un unico numero reale che indichiamo con a, per ogni a > 0. Bisogna inoltre dimostrare,
√q
affinché la definizione sia di qualche ausilio, che ( a)q = a. Ma ciò è ovvio interpretando la potenza
q-esima in termini di tagli dei reali:
√q
( a)q = (L′ , R′ ),
dove:
R′ = {y > 0 e y ≥ a},
L′ = {y < 0 o y < a},
per cui (L′ , R′ ) è esattamente il taglio dei reali che corrisponde ad a.
Le radici di argomento negativo ovviamente pongono dei problemi, perché le potenze pari
di numeri negativi sono sempre positive. Quindi, se q è dispari, definiamo per a < 0:
√q
√q
a = − −a,
mentre per q pari
√q
(1.36)
a non è definita se a < 0. Si osservi inoltre che con la nostra definizione,
nel caso q pari la radice q-esima di un numero positivo è la sua radice positiva. Qualora
sia necessario indicare la radice pari di segno negativo di un numero positivo, si indica
√q
esplicitamente il segno cosí: − a.
Definiamo quindi ar per r ∈ Q, r = p/q e a ≥ 0 come segue:
p
aq =
√q
ap .
(1.37)
Le proprietà delle potenze dei numeri reali sono quelle ben note fin dalle scuole inferiori
e non verrano ripetute qui.
Infine, definiamo ax nel caso in cui a ∈ R, a ≥ 0 e x ∈ R qualsiasi, quindi anche irrazionale.
Definiamo quindi per a > 1:
ax = sup{ar , r ∈ Q, r ≤ x}.
(1.38)
La definizione è corretta, perché l’insieme considerato palesemente non è vuoto ed è limitato
(basta prendere qualsiasi razionale r̄ maggiore di x per ottenerne il maggiorante ar̄ !). Inoltre,
tale definizione estende senza contraddire le definizioni precedenti, perché se x ∈ Q allora
l’estremo superiore è proprio il massimo dell’insieme.
Inoltre la proprietà fondamentale delle potenze aα+β = aα · aβ continua ad essere soddisfatta:
aα+β = sup{ar , r ∈ Q, r ≤ α + β} = sup{ar1 +r2 , r1 , r2 ∈ Q, r1 ≤ α, r2 ≤ β} =
40
Alberto Berretti
Analisi Matematica I
= sup{ar1 , r1 ∈ Q, r1 ≤ α} · sup{ar2 , r2 ∈ Q, r2 ≤ β} = aα · aβ . (1.39)
Per una trattazione completa ed esaustiva della questione si possono consultare ad es. gli appunti di
Analisi Matematica 1 di Paolo Acquistapace http://www.dm.unipi.it/~acquistp/ana1.pdf.
Per 0 ≤ a < 1, definiamo:
x
1
a =
,
a
x
(1.40)
essendo 1/a > 1, e per a = 1 definiamo 1x = 1.
Avendo risolto il problema della definizione di potenze e radici, studiamo le loro proprietà
ed il loro andamento.
Consideriamo dapprima le potenze f (x) = xn con n ∈ N, cioè naturale. Il dominio è sempre
l’intero insieme dei reali.
Se n = 0 allora f (x) = 1, e la funzione è costante.
Se n , 0 allora f (0) = 0.
Se n = 1 allora f (x) = x e la funzione è la funzione identità.
Se n , 0 è pari, la funzione è pari, strettamente crescente in [0, +∞) e strettamente
decrescente in (−∞, 0].
Se n è dispari, la funzione è dispari, strettamente crescente in tutto R.
È evidente che se n , 0 allora xn può essere arbitrariamente grande: basta osservare che
xn > x se x > 1 e n > 0. Quindi sup xn = +∞, dove si intende che l’estremo superiore è preso
in tutto R. Se n è pari, xn ≥ 0; se n è dispari, invece, è positiva sui positivi e negativa sui
negativi (essendo dispari!). Ne segue che, sempre per n > 0, inf xn = 0 per n pari (in effetti
l’estremo inferiore è un minimo) e inf xn = −∞ per n dispari.
In fig. 1.3 vediamo il grafico di alcune potenze intere.
Osserviamo infine che se x ∈ (0, 1) allora xn diventa sempre piú piccolo man mano che n
cresce: infatti moltiplicando per ulteriori fattori x, 0 < x < 1 non facciamo altro che diminuire
il prodotto (v. fig. 1.4); al contrario, per x ∈ (1, +∞) xn diventa sempre piú grande man mano
che n cresce: infatti moltiplicando per ulteriori fattori x > 1 non facciamo altro che ingrandire
il prodotto.
Consideriamo ora potenze intere negative. Basta in realtà considerare f (x) = 1/x, e poi
comporre tale funzione con le potenze intere positive viste precedentemente.
Innanzitutto, la funzione 1/x non è definita se x = 0, è (strettamente) positiva per x > 0
e (strettamente) negativa per x < 0. In ciascuno degli intervalli (−∞, 0) e (0, ∞) essa è
decrescente. Si osservi che nell’unione di tali intervalli non possiamo dire che la funzione 1/x
è decrescente! Infatti ad es. −1 < 1 ma 1/(−1) < 1/1 e non il contrario.
Anche se la nozione precisa di limite verrà introdotta piú avanti, si verifica immediatamente
che se x è preso molto piccolo, sufficientemente piccolo allora 1/x diventa molto grande,
41
Alberto Berretti
Analisi Matematica I
8
10
7
7.5
6
5
5
2.5
4
-2 -1.5 -1 -0.5
3
0.5 1 1.5 2
-2.5
2
-5
1
-7.5
0.250.50.75 1 1.251.51.75 2
-10
(a) x, x2 , x4 e x8
(b) x, x2 , x3 , x4 e x5
Figura 1.3.: Grafici di alcune potenze intere.
arbitrariamente grande, e viceversa se x viene preso molto grande, sufficientemente grande,
allora 1/x diventa molto piccolo, arbitrariamente piccolo.
Gli andamenti qualitativi delle funzioni 1/xn vengono dedotti facilmente a partire da quelli
delle potenze xn e di 1/x, componendo le due funzioni. In fig. 1.5 vediamo i grafici delle
funzioni 1/x, 1/x2 , 1/x5 , 1/x6 .
Per quanto riguarda le radici, abbiamo che le radici di indice pari sono definite solo per
valori dell’argomento maggiori o uguali a 0, mentre quelle di indice dispari per ogni valore
dell’argomento. Sono tutte strettamente crescenti nel loro dominio. In fig. 1.6 vediamo i
grafici di alcune radici.
Le potenze di esponente frazionario o reale, tipicamente definite solo per valori positivi
del loro argomento, hanno andamenti che è facile dedurre a partire dai risultati precedenti.
Polinomi
Ricordiamo che un polinomio di grado n in una variabile x è una espressione della forma:
P(x) = an xn + an−1 xn−1 + · · · + a2 x2 + a1 x + a0 ,
42
an , 0.
(1.41)
Alberto Berretti
Analisi Matematica I
1
0.8
0.6
0.4
0.2
0.2
0.4
0.6
0.8
1
Figura 1.4.: Grafici delle funzioni x, x2 , x5 , x6 e x7 nell’intervallo x ∈ [0, 1].
Un polinomio è naturalmente definito per ogni valore della variabile x. La nozione di
polinomio è ben nota fin dalle scuole inferiori e non c’è bisogno di altre definizioni.
Esercizio 2. Disegnare il grafico di x2 e x3 . Disegnare poi il grafico del polinomio x3 + x2
prestando rispettivamente attenzione al comportamento del polinomio per x piccoli e per
x grandi; confrontare con i grafici separati delle due potenze (ad es. disegnando insieme i
grafici delle tre funzioni prendendo come intervallo per la variabile x prima [−0.05, 0.05] e
poi [−50, 50]).
Funzioni razionali
Una funzione razionale è una funzione che, eventualmente dopo semplificazioni algebriche, può
essere scritta come quoziente di due polinomi:
R(x) =
P(x)
.
Q(x)
(1.42)
Una funzione razionale può dunque essere anche scritta come una piú generale espressione
algebrica, che però contenga solo potenze della variabile x, somme, sottrazioni, moltiplicazioni e divisioni. Una tale espressione può sempre essere scritta nella forma (1.42); occorre però
osservare che, nel corso dei passaggi e delle semplificazioni che portano alla forma (1.42),
il dominio della funzione può subire delle modifiche. Ad es. la seguente è una funzione
43
Alberto Berretti
Analisi Matematica I
20
2
15
10
1
5
-2
-1
1
2
-4
-2
4
2
-5
-10
-1
-15
-2
-20
Figura 1.5.: Grafici di 1/x, 1/x2 , 1/x5 ,
Figura 1.6.: Grafici di
√
x,
√
3
x,
√
4
x.
1/x6 .
razionale:
R(x) =
1
1
+
,
x(x + 1) x(x − 1)
peché è costruita usando esclusivamente le operazioni anzidette; il dominio di R(x) è formato
da tutti gli x reali e diversi da 0, 1 e −1. Ora, è anche vero che:
∀x ∈ R, x , 0, 1, −1 :
R(x) =
x2
2
,
−1
come un semplice calcolo mostra immediatamente, ma ora la funzione 2/(x2 − 1) è definita
per ogni x reale diverso da ±1, 0 incluso! Quindi durante i passaggi che hanno portato
dalla forma “estesa” della funzione R alla sua rappresentazione (1.42) come quoziente di
polinomi è avvenuta una semplificazione di un fattore x a numeratore e denominatore, che ha
portato all’estensione del dominio della funzione. In altri termini, le due funzioni:
1
1
+
x(x + 1) x(x − 1)
e
x2
2
−1
devono essere considerate, a rigore, due funzioni diverse perché il dominio delle due funzioni
è diverso, anche se poi ovviamente esse sono uguali ovunque siano entrambe definite. Nei
corsi di matematica elementare si parla di diverse “condizioni di esistenza”, come lo studente
accorto capisce quando realizza che per fare la semplificazione indicata occorre assumere
x , 0.
In opportuno contesto, la differenza fra due funzioni come sopra verrà sostanzialmente cancellata.
È anche evidente che da qualunque punto di vista “pratico”, nelle applicazioni concrete, le due
funzioni sono “la stessa cosa”. Ciò non vuol dire che non si debba stare attenti a cosa succede al dominio di
una funzione quando si fanno passaggi e semplificazioni apparentemente inoffensivi!
44
Alberto Berretti
Analisi Matematica I
Esponenziale e logaritmo
Le funzioni esponenziali sono funzioni del tipo:
f (x) = ax ,
a > 0.
(1.43)
Il caso a = 1 è insignificante (in tal caso infatti ax = 1 per ogni x e la funzione è costante!), per
cui nel seguito assumeremo sempre 0 < a < 1 o a > 1.
Piú avanti vedremo che c’è un valore “speciale” di a che sarà particolarmente interessante, che si
denota con la lettera e, e per funzione esponenziale si intenderà quella che ha per base appunto il
numero e.
Una funzione esponenziale è definita per ogni x. Dalle proprietà delle potenze seguono
facilmente le sue proprietà. Innanzitutto, ax > 0 per ogni x reale. Inoltre, se 0 < a < 1
la funzione è monotona decrescente, mentre se a > 1 la funzione è monotona crescente.
Ovviamente, piú a > 1 è grande piú la fuzione “cresce in fretta” e piú a < 1 è piccolo piú la
funzione “decresce in fretta”; anche se ancora non sappiamo dare un significato rigoroso a
tali espressioni, una rapida occhiata ai grafici di fig. 1.7 dovrebbe far capire esattamente di
cosa parliamo.
14
12
10
8
6
4
2
-3
-2
-1
1
2
3
Figura 1.7.: Grafici di 2x , 3x , 4x .
Si osservi anche che se a < 1 allora 1/a > 1 e ax = (1/a)−x , per cui possiamo ricondurre lo
studio di esponenziali di base compresa fra 0 e 1 a quello di esponenziali di base maggiore di
1 dopo aver fatto la sostituzione x 7→ −x (che graficamente vuol dire invertire l’asse delle x).
D’ora in poi consideriamo sempre basi maggiori di 1, visto che è sempre possibile ricondursi
a tale caso.
45
Alberto Berretti
Analisi Matematica I
2.5
4
2
6
8
10
-2.5
-5
-7.5
-10
-12.5
Figura 1.8.: Grafico di log2 x.
Poiché l’esponenziale è strettamente monotona, è invertibile, e la sua inversa prende è il
logaritmo; in altri termini, se ay = x, allora scriviamo:
y = loga x
(logaritmo in base a di x).
(1.44)
I logaritmi sono stati introdotti dal matematico scozzese John Napier (1550-1617) nella sua opera
Mirifici logarithmorum canonis descriptio del 1614, quindi in una epoca piuttosto antica. Furono definiti
in modo un po’ diverso dal modo odierno, ed il loro principale scopo era quello dell’aiuto al calcolo
numerico. Una loro importante applicazione pratica da questo punto di vista,in uso fino a circa gli anni
’70, cioè all’epoca in cui le calcolatrici elettroniche sono diventate sufficientemente economiche, era il
regolo calcolatore, un semplicissimo dispositivo meccanico che permetteva di calcolare moltiplicazioni,
divisioni e potenze molto facilmente anche con 3-4 cifre decimali di precisione.
Chiaramente:
log 1 x = − loga x,
a
(1.45)
per cui possiamo considerare solo il caso a > 1 (il caso a = 1 non si pone, perché 1y = 1
sempre!).
Poiché ay > 0, loga x esiste solo se x > 0. Inoltre, poiché a0 = 1, loga 1 = 0, Poiché ay è
funzione crescente di y, anche loga x è funzione crescente di x.
Il logaritmo soddisfa alcune proprietà, che dovrebbero essere ben note fin dalle scuole
superiori; le riassumiamo nella seguente tabella, in cui assumiamo che la base del logaritmo
sia sempre un reale positivo e diverso da 1.
46
Alberto Berretti
Analisi Matematica I
aloga x = x
∀x > 0 :
∀x, y > 0 :
loga xy = loga x + loga y
∀x > 0 :
loga
∀x, y > 0 :
loga
∀x > 0, b ∈ R :
1
= − loga x
x
x
= loga x − loga y
y
loga xb = b loga x
∀x > 0, x , 1 :
loga x =
1
logx a
∀x > 0 :
logb x =
loga x
loga b
Le regole in tabella vanno applicate cum grano salis. Infatti se x < 0 abbiamo:
loga x2 = 2 loga |x|,
(1.46)
e se x · y > 0 (pur avendo, eventualmente, x e y negativi!) abbiamo:
loga xy = loga |x| + loga |y|.
(1.47)
Occorre riflettere su queste due ultime identità e capire bene perché esse valgono, onde non
cadere in molteplici errori facendo calcoli utilizzando i logaritmi.
L’andamento qualitativo del logaritmo può essere facilmente ricavato da quello dell’esponenziale, semplicemente “scambiando gli assi” x e y. In particolare, per valori maggiori di
1 della base è strettamente crescente, assume valori arbitrariamente grandi per valori dell’argomento sufficientemente grandi ed assume valori arbitrariamente grandi e negativi per
valori sufficientemente piccoli dell’argomento. Nella fig. 1.8 seguente vediamo ad es. il
grafico della funzione log2 x.
Funzioni trigonometriche
Richiamiamo ora la definizione delle funzioni trigonometriche.
Con riferimento alla figura 1.9, considerato il cerchio di centro O e raggio OA = 1, detto
cerchio trigonometrico, sia x il doppio dell’area del settore circolare OPA. Definiamo allora
le funzioni:
sin x = OR,
cos x = OQ,
(1.48)
dove le lunghezze dei segmenti sono prese con il segno del semiasse in cui giacciono. Tali
funzioni sono dette rispettivamente seno e coseno di x.
47
Alberto Berretti
Analisi Matematica I
B
R
P
O
Q
A
Figura 1.9.: Il cerchio trigonometrico
Si osservi che in questo modo il numero π è automaticamente definito come l’area del cerchio
unitario.
Dobbiamo pensare che il numero x, che misura l’angolo PÔA, indichi effettivamente la
posizione del punto P sul cerchio: x vale 0 in A, e vale 2π quando si trova di nuovo in A
dopo aver fatto un giro intero; pertanto possiamo immaginare che x assuma qualsiasi valore
reale, inclusi valori negativi, e che valori reali che differiscano di 2π o suoi multipli interi
corrispondano alla medesima posizione sul cerchio. Ad es. se il punto P si trova nel quarto
quadrante potremo dire che x è compreso fra −π/2 e 0 – quindi negativo –, oppure che è
compreso fra 3π/2 e 2π (ma non fra 3π/2 e 0!). In tal modo le funzioni trigonometriche sono
automaticamente definite come funzioni periodiche di periodo 2π.
Definiamo inoltre:
tan x =
sin x
,
cos x
cot x =
cos x
,
sin x
sec x =
1
,
cos x
csc x =
1
,
sin x
(1.49)
dette rispettivamente tangente, cotangente, secante e cosecante di x; le ultime tre sono
usate di rado.
Si osservi che tan x è uguale alla lunghezza del segmento AB ovvero al doppio dell’area
del triangolo OAB, sempre facendo riferimento alla fig. 1.9. Ovviamente tenendo conto del
segno.
Quella che abbiamo dato in realtà è una definizione carente. Infatti, mentre è abbastanza chiaro
48
Alberto Berretti
Analisi Matematica I
cosa vuol dire la lunghezza di un segmento1 , non è affatto chiaro cosa voglia dire l’area di una certa
regione geometrica, in particolare se limitata da una curva. Il concetto di area di una regione del
piano sarà reso rigoroso solo piú avanti mediante l’integrale. Una alternativa potrebbe essere definire
x come la lunghezza dell’arco AP: ma di nuovo non abbiamo ancora definito la lunghezza di una
curva, cosa che faremo piú avanti sempre per mezzo di un’integrale. Le definizioni tradizionali
delle funzioni trigonometriche sono pertanto equivalenti alle definizioni analitiche per mezzo di un
integrale. È importante sottolineare che non si tratta dell’unica definizione analitica delle funzioni
trigonometriche, e nemmeno della migliore. La definizione “liceale” tradizionale – utilizzando la
lunghezza dell’arco – è piú difficile da rendere rigorosa di quella che utilizza l’area del settore circolare
perché la nozione di lunghezza di una curva è piú difficile da rendere rigorosa di quella di area. 2 .
È facile dalla definizione di seno e coseno ricavare i loro grafici qualitativi e da questi quelli
delle altre funzioni trigonometriche, che riportiamo nella figura 1.10 seguente.
1
20
1
15
0.5
10
0.5
5
-6
-4
-2
2
4
6
-6
-4
-2
2
4
6
-6
-4
-2
2
4
6
4
6
-5
-0.5
-0.5
-1
-1
-10
-15
(a) sin x
-6
-4
-20
(b) cos x
(c) tan x
20
20
20
15
15
15
10
10
10
5
5
-2
2
-5
4
6
-6
-4
-2
5
2
4
6
-6
-4
-2
2
-5
-5
-10
-10
-10
-15
-15
-15
-20
-20
-20
(d) cot x
(e) sec x
(f) csc x
Figura 1.10.: I grafici delle funzioni trigonometriche.
Le funzioni trigonometriche soddisfano una quantità di identità algebriche estremamente
notevoli, di cui elenchiamo le piú importanti.
Innanzitutto abbiamo (dal teorema di Pitagora, o – il che è la stessa cosa – dalla definizione
1
2
La lunghezza del segmento i cui estremi sono i punti P = (xP , yP ) e Q = (xQ , yQ ) è definita pari a dPQ =
p
(xP − xQ )2 + (yP − yQ )2 . Non introduciamo alcun concetto “operativo” – e cioè fumoso ed euristico – di
misura.
In realtà, la definizione piú conveniente delle funzioni trigonometriche, e cioè quella che rende piú semplice
determinarne le proprietà, è quella in termini di serie di potenze, dovuta al matematico tedesco Edmund
Georg Hermann Landau (1877–1938), ma richiede dei concetti che verranno introdotti nel corso di Analisi
Matematica 2.
49
Alberto Berretti
Analisi Matematica I
di distanza fra due punti):
sin2 x + cos2 x = 1,
(1.50)
da cui segue immediatamente che, com’è ovvio anche dalla definizione geometrica, | sin x| ≤
1, | cos x| ≤ 1. Si osservi che invece di scrivere (sin x)2 scriviamo, come è uso, sin2 x. È anche
evidente che la funzione seno è dispari e la funzione coseno è pari (da ovvie proprietà di
simmetria del cerchio trigonometrico), cosí come le seguenti formule, dette formule degli archi
associati:
π
) = cos x,
2
π
cos(x + ) = − sin x,
2
π
sin(x − ) = − cos x,
2
π
cos(x − ) = sin x,
2
sin(x + π) = sin(x − π) = − sin x,
sin(x +
cos(x + π) = cos(x − π) = − cos x,
(1.51a)
(1.51b)
(1.51c)
(1.51d)
(1.51e)
(1.51f)
da cui si possono ricavare formule analoghe per le altre funzioni trigonometriche.
Vale poi il notevolissimo teorema di addizione:
sin(x + y) = sin x cos y + cos x sin y,
(1.52a)
cos(x + y) = cos x cos y − sin x sin y,
(1.52b)
È molto facile dimostrare il teorema di addizione. Dimostreremo infatti la formula analoga
alla (1.52b) per il coseno della differenza di due angoli, dopodiché è chiaro che basta utilizzare
le formule degli archi associati per ottenere le (1.52a)-(1.52b).
Con riferimento alla figura 1.11, abbiamo infatti che i segmenti AB e CD, che insistono su
due angoli uguali e pari a x − y, sono uguali. Utilizzanto quindi il teorema di Pitagora per
calcolarne la lunghezza, abbiamo che:
q
q
2
2
(cos(x − y) − 1) + sin (x − y) = (cos x − cos y)2 + (sin x − sin y)2 ,
(1.53)
da cui svolgendo i quadrati si ricava immediatamente:
2 − 2 cos(x − y) = 2 − 2 cos x cos y − 2 sin x sin y,
(1.54)
cos(x − y) = cos x cos y + sin x sin y,
(1.55)
ovvero:
da cui le formule di somma si ricavano immediatamente.
50
Alberto Berretti
Analisi Matematica I
C
D
B
y
x
x-y
O
A
Figura 1.11.: Costruzione per calcolare il coseno della differenza di due angoli.
Dal teorema di addizione si ricavano immediatamente le formule di duplicazione:
sin 2x = 2 sin x cos x,
(1.56a)
cos 2x = cos2 x − sin2 x = 2 cos2 x − 1 = 1 − 2 sin2 x,
(1.56b)
e con un po’ di sforzo si possono ricavare le formule per gli altri multipli di un angolo dato.
Dalle formule di duplicazione si ricavano le formule di bisezione:
r
1 − cos x
x
,
sin = ±
2
2
r
x
1 + cos x
cos = ±
,
2
2
(1.57a)
(1.57b)
dove bisogna scegliere il segno + o − a seconda del quadrante in cui giace x/2.
Notevoli sono anche le formule che esprimono il prodotto di seni e coseni in termini di
seni e coseni delle somme algebriche degli argomenti (dette formule di Werner dal matematico
tedesco Johann Werner (1468–1522)):
2 sin x sin y = cos(x − y) − cos(x + y),
2 sin x cos y = sin(x − y) + sin(x + y),
2 cos x cos y = cos(x − y) + cos(x + y),
51
(1.58a)
(1.58b)
(1.58c)
Alberto Berretti
Analisi Matematica I
che si ricavano immediatamente dal teorema di addizione, e da cui si ricavano a loro volta
le formule di prostaferesi, anch’esse molto utili:
x−y
x+y
sin
,
2
2
x−y
x+y
sin
,
sin x − sin y = 2 cos
2
2
x−y
x+y
cos x + cos y = 2 cos
cos
,
2
2
x−y
x+y
sin
.
cos x − cos y = −2 sin
2
2
sin x + sin y = 2 cos
(1.59a)
(1.59b)
(1.59c)
(1.59d)
Consideriamo ora la funzione tangente. La funzione tan x è definita ovunque cos x , 0,
cioè per x ∈ R, x , π/2 + kπ, k ∈ Z.
Cosa vuol dire quello che abbiamo appena scritto? vuol dire che 1. x è reale, 2. x non deve essere
uguale a π/2 piú un qualsiasi multiplo intero di π.
Dalle (1.51e) ed (1.51f) si evince immediatamente che tale funzione è periodica di periodo
π (infatti se mandiamo x in x + π sia il seno che il coseno cambiano segno, e quindi il loro
quoziente non cambia). Anche per la tangente vale un teorema di addizione che si ricava
immediatamente da quello per le funzioni seno e coseno:
tan(x + y) =
da cui:
tan 2x =
e:
x
tan = ±
2
r
tan x + tan y
,
1 − tan x tan y
(1.60)
2 tan x
,
1 − tan2 x
(1.61)
sin x
1 − cos x
=
.
1 + cos x cos x + 1
(1.62)
Consideriamo ora le funzioni trigonometriche inverse. Innanzitutto, le funzioni seno e
coseno non sono monotone nel loro dominio, per cui non possiamo pensare di invertirle.
Possiamo però considerare le loro restrizioni ad intervalli in cui esse sono monotone, ed
invertire tali restrizioni. È tradizione restringere la funzione seno all’intervallo [−π/2, π/2]
in cui essa è strettamente crescente, e la funzione coseno all’intervallo [0, π] in cui essa è
strettamente decrescente. Le inverse sono le funzioni arcoseno ed arcocoseno, indicate
rispettivamente con arcsin e arccos, di cui riportiamo i grafici nella figura 1.12 seguente.
Per quanto riguarda invece la tangente, essa è monotona crescente in ciascun intervallo di
periodicità (−π/2+kπ, π/2+kπ), k ∈ Z, per cui basta sceglierne uno e invertirne la restrizione a
tale intervallo; tipicamente si sceglie k = 0, cioè l’intervallo che contiene l’origine (−π/2, π/2);
tale funzione inversa prende il nome di arcotangente e si indica con il simbolo arctan x; ne
riportiamo il grafico in figura 1.12.
52
Alberto Berretti
Analisi Matematica I
-1
1.5
3
1
2.5
0.5
2
-0.5
1.5
1
0.5
-0.5
1
-1
0.5
-1.5
-1
(a) arcsin x
-0.5
0.5
1
(b) arccos x
1.5
1
0.5
-10
-5
5
10
-0.5
-1
-1.5
(c) arctan x
Figura 1.12.: Grafici delle funzioni trigonometriche inverse.
È chiaro che l’arcoseno e l’arcotangente sono funzioni strettamente crescenti mentre l’arcocoseno è una funzione strettamente decrescente. Inoltre l’arcoseno e l’arcocoseno sono
definite nell’intervallo [−1, 1], mentre l’arcotangente è definita per ogni x reale; il codominio di arcsin x è l’intervallo [−π/2, π/2], il codominio di arccos x è l’intervallo [0, π] ed il
codominio di arctan x è l’intervallo (−π/2, π/2).
L’arcotangente soddisfa la seguente curiosa identità:

π

1 
2
arctan x + arctan = 

x 
− π2
se x > 0,
se x < 0.
(1.63)
Infatti, ponendo x = tan y, abbiamo per x > 0:
sin( π2 − y)
cos y
π
1
1
= tan( − y),
=
=
=
π
x tan y
sin y
cos( 2 − y)
2
da cui:
arctan
1 π
= − arctan x,
x
2
che è la tesi. Poiché sia arctan x che arctan(1/x) sono funzioni dispari, segue la tesi anche nel caso
x < 0.
Nella tabella 1.1, infine, riportiamo i valori di seno, coseno e tangente per alcuni valori
speciali dell’argomento.
Una rassegna completa di trigonometria è chiaramente fuori luogo in questa sede. Si
rimanda chi fosse interessato a qualsiasi libro di trigonometria.
53
Alberto Berretti
Analisi Matematica I
sin x
x
0
π
12
π
10
√
π
8
π
4
3π
10
π
3
3π
8
2π
5
5π
12
π
2
tan x
0
1
√
3−1
√
2 2
√
5−1
4
√
1+√ 3
2 2
q √
5+ 5
1
2
2
0
√
2− 3
√
2− 2
2
√
1
2
π
6
π
5
cos x
q
√
5− 5
2
√
2
2
√
5+1
4
√
3
2
√ √
2+ 2
2
q √
5+ 5
1
2
2
√
1+√ 3
2 2
1
2
√
2 2
2
√
3
2
√
5+1
4
√
2
2
q √
5− 5
1
2
2
1
2
√ √
2− 2
2
√
5−1
4
√
3−1
√
2 2
1
q
0
1−
√
√2
5
2−1
√1
3
q
√
5−2 5
1
q
1+
√2
5
√
3
1+
q
√
2
√
5+2 5
√
2+ 3
non definita
Tabella 1.1.: Alcuni valori speciali delle funzioni trigonometriche.
Raccolte complete di formule trigonometriche, insieme a tante altre, si puossono trovare sulle
tradizionali “tavole dei logaritmi” o sul libro di trigonometria delle scuole superiori. Esistono poi
libri come ad es. M. Abramowitz, I. A. Stegun, Handbook of Mathematical Functions with Formulas,
Graphs and Mathematical Tables, U. S. National Bureau of Standards, 1972 che contengono raccolte
piú che complete di tabelle e formulari per le funzioni trigonometriche e molto, molto altro. Infine
sul sito http://functions.wolfram.com/ si trova un formulario assai completo per una quantità di
funzioni.
Ovviamente, l’uso di tabelle e formulari non solo non sostituisce la conoscenza diretta delle cose,
ma necessita tale conoscenza, altrimenti non si è nemmeno in grado di cercare la formula desiderata
ed interpretare le tabelle.
54
Alberto Berretti
Analisi Matematica I
Altre funzioni
Quelle che abbiamo nominato sono solo alcune funzioni elementari che sono note ed utilizzate
fin dalle scuole superiori. Introduciamo ora altre funzioni a cui vale la pena dare un nome a
causa del loro frequente utilizzo.
La parte intera di un numero reale x è definita come:
[x] = max{n ∈ Z : n ≤ x},
(1.64)
cioè come il piú grande intero minore o uguale al reale considerato. Ad es. [1.5] = 1, [3] = 3,
[−2.5] = −3 (si raccomanda di riflettere su quest’ultimo caso!).
A volte conviene distinguere due tipi di funzione parte intera, la funzione pavimento e la funzione
soffitto:
⌊x⌋ = [x] = max{n ∈ Z : n ≤ x}
(funzione pavimento),
(1.65a)
(funzione soffitto).
(1.65b)
⌈x⌉ = min{n ∈ Z : n ≥ x}
In parole, la funzione pavimento è la stessa cosa della parte intera come precedentemente definita,
mentre il soffitto di un reale x è il piú piccolo intero maggiore o uguale al reale dato; ad es. ⌈1.5⌉ = 2,
⌈3⌉ = 3, ⌈−2.5⌉ = −2 (si confronti con la funzione pavimento). La funzione pavimento dunque
approssima il suo argomento con il miglior intero dal basso, mentre la funzione soffitto approssima il
suo argomento con il migliore intero dall’alto, da cui i nomi.
La parte frazionaria di un numero reale x è definita come:
hxi = x − [x],
(1.66)
cioè il numero medesimo, meno la sua parte intera. Ovviamente la parte frazionaria di
qualsiasi numero intero è nulla.
In fig. 1.13 vediamo i grafici di queste tre funzioni.
La funzione segno è definita come:




−1 se x < 0,





sign(x) = 
0
se x = 0,






1
se x > 0.
(1.67)
In molte applicazioni non importa come venga definita la funzione segno quando il suo argomento è
nullo; noi abbiamo scelto che valga 0 per semplicità, a volte viene definita come 1 o −1 o addirittura
non definita nell’origine.
Ricordiamo che il valore assoluto di un numero reale x, detto anche modulo di x, è definito
come:
|x| = max{x, −x}.
55
(1.68)
Alberto Berretti
-3
Analisi Matematica I
-2
3
3
2
2
1
1
-1
1
2
3
-3
-2
-1
1
-1
-1
-2
-2
-3
-3
(a) ⌊x⌋
2
3
(b) ⌈x⌉
1
0.5
-3
-2
-1
1
2
3
(c) hxi
Figura 1.13.: Funzione parte intera (o pavimento), funzione soffitto, funzione parte frazionaria.
Notiamo che:




−x se x < 0,
|x| = x sign(x) = 


x
se x ≥ 0.
(1.69)
|x + y| ≤ |x| + |y|,
(1.70)
Ricordiamo la proprietà:
detta disuguaglianza triangolare, che abbiamo già dimostrato.
Nella fig. 1.14 riportiamo il grafico della funzione valore assoluto.
5
4
3
2
1
-4
-2
2
4
Figura 1.14.: Grafico di |x|.
Conviene introdurre anche la funzione gradino o funzione di Heaviside (dal nome del
56
Alberto Berretti
Analisi Matematica I
fisico e matematico inglese Oliver Heaviside, 1850-1925):




0
H(x) = 


1
se x ≤ 0,
se x > 0.
Di nuovo, il valore della funzione di Heaviside in 0 è inessenziale in qualsiasi applicazione. La
funzione di Heaviside viene anche indicata a volte con il simbolo Θ(x) (cosa assai infelice
perché le cosiddette “funzioni ϑ” sono in matematica ben altra cosa).
A partire da funzioni note, come ad es. quelle che abbiamo visto fin’ora, ne possiamo
costruire altre non solo mediante operazioni elementari o mediante composizione, ma anche
mediante una speciale “chirurgia” sulle funzioni, nota come definizione per intervalli. La
funzione segno e la funzione di Heaviside ne sono degli esempi: il valore della funzione è sí
definito tramite formule, ma da formule diverse a seconda dell’intervallo in cui la variabile
x giace. Non c’è nulla di speciale in tali definizioni: basta solo prestare attenzione alla
espressione da utilizzare nei varî intervalli.
Infine, non dimentichiamo mai che qualsiasi relazione che soddisfa la definizione di funzione data
nel capitolo precedente è, appunto, una funzione. Non è detto che sia semplice, data da una formula
esplicita, o nemmeno che dobbiamo conoscere un modo per calcolarla o che addirittura abbia un
grafico che è possibile disegnare. Due esempi:
• Consideriamo la funzione:




0
µ(x) = 


1
se x < Q,
se x ∈ Q,
(1.71)
cioè la funzione che è 0 sugli irrazionali e 1 sui razionali. È chiaro che per sapere quanto vale
dobbiamo sapere se il suo argomento è razionale o meno, il che non è detto che sia banale
(esistono numeri che sono definiti da formule molto semplici di cui a tutt’oggi non si sa se siano
razionali o meno). Inoltre non è possibile disegnare concretamente un grafico significativo di
tale funzione: infatti un tentativo di disegnarla non potrà che dare due linee orizzontali y = 0
e y = 1, su cui i punti che rappresentano la funzione sono densi.
• È noto, per ragioni che vedremo piú avanti, che una equazione algebrica di quinto grado (in
generale di grado dispari) ha sempre almeno una radice reale (eventualmente di piú, al massimo
in numero pari al grado dell’equazione). Quindi possiamo definire la funzione f (a) come la piú
grande radice reale ad es. dell’equazione di quinto grado x5 + ax4 + x3 + x + 1 = 0. È noto però
che non esiste alcuna formula in termini di funzioni elementari per scriverla, salvo casi particolari.
Quindi una funzione come la f (a) sopra definita può essere calcolata con la precisione che
vogliamo utilizzando dei metodi di calcolo numerico, ma è noto a priori che non esiste nessuna
formula per scriverla, in termini di funzioni elementari.
57
Alberto Berretti
Analisi Matematica I
Composizione di funzioni elementari
Mediante composizione di funzioni possiamo definirne quante altre ce ne pare. L’unica cosa
a cui dobbiamo stare attenti che non abbiamo ancora considerato è cosa accade al dominio
della funzione composta.
Infatti, quando una funzione è assegnata, in pratica, da una formula, in genere non viene
specificato il dominio: si sottintende che il dominio è l’insieme dei reali per cui la formula
data ha senso. Il problema diventa appunto trovare tale insieme. Ad es., se abbiamo la
funzione h(x) = g( f (x)), non è detto che il dominio di h sia uguale al dominio di f , come
potrebbe sembrare a prima vista: infatti preso un x nel dominio di f , f (x) è certamente
ben definito, ma potrebbe giacere fuori dal dominio di g! Quindi non solo x deve giacere nel
dominio di f , ma i valori ottenuti di f (x) al variare di x devono essere contenuti nel dominio
di g; in questo modo è possibile che il dominio della funzione composta sia piú piccolo del
dominio della f . Facciamo un esempio.
Sia:
f (x) = log2 arcsin x.
Qui la nostra funzione è composta delle due funzioni arcsin e log2 . La funzione arcsin
è definita per x compresi nell’intervallo [−1, 1], ed è positiva per x nell’intervallo (0, 1],
negativa o nulla in [−1, 0]. La funzione log2 è definita per valori strettamente positivi del suo
argomento, quindi sono accettabili solo valori di x nel dominio della funzione composta tali
che arcsin x > 0. Quindi dom( f ) = (0, 1].
È chiaro che se la funzione considerata è composta da parecchie funzioni, allora può
diventare delicato ricavarne il dominio.
1.3.3. Le funzioni in geometria
Il linguaggio delle funzioni in geometria è estremamente fecondo di applicazioni. Ben
lungi dal fare un corso di complementi di geometria, introduciamo in modo molto semplice ed informale alcuni concetti che ci serviranno per sostanziare quando appreso finora e
comprenderne l’utilità.
I reali come retta; il piano e lo spazio cartesiano
È noto che possiamo rappresentare i numeri reali su una retta, scegliendo un punto O
qualsiasi, detto origine, su tale retta, scegliendo una unità di misura per misurare le distanze
dall’origine e scegliendo una direzione sulla retta per definire la relazione d’ordine sui reali
(cioè in pratica scegliendo un altro punto U ed associandolo al numero reale 1). In tal senso
si parla di retta reale.
58
Alberto Berretti
Analisi Matematica I
Possiamo rappresentare le coppie ordinate di numeri reali su un piano, scegliendo un punto
O qualsiasi, l’origine, e due rette distinte r1 e r2 passanti per O, dette assi coordinati, su
ciascuna delle quali abbiamo scelto un punto U1 e U2 che definisce l’unità di misura e la
scelta del verso su ciascun asse. Indi, dato un punto P qualsiasi nel piano, consideriamo le
sue proiezioni P1 e P2 sugli assi r1 e r2 rispettivamente, condotte parallelamente agli assi. I
due numeri reali che corrispondono ai punti P1 e P2 sulle due rette sono una coppia di numeri
reali x1 e x2 detti coordinate cartesiane del punto P rispetto al sistema di riferimento O r1 r2 .
Viceversa, data una coppia ordinata di numeri reali (x, y) possiamo considerare il punto P
del piano che ha, rispetto ad un sistema di riferimento dato, quei numeri come coordinate
cartesiane. In genere, gli assi coordinati vengono scelti perpendicolari e le unità di misura
uguali su entrambe gli assi.
Una costruziona analoga può essere fatta nello spazio tridimensionale, rappresentando
quindi i punti nello spazio tramite una terna ordinata di numeri reali, che ne esprimono le
sue coordinate cartesiane in un sistema di riferimento definito da un’origine O e da tre assi
coordinati r1 , r2 e r3 (in genere scelti perpendicolari).
Coordinate polari, cilindriche, sferiche
Le coordinate cartesiane sono ben lungi dall’essere le uniche possibili, o le uniche utili,
anzi: in genere è opportuno scegliere nello studio di un determinato problema il sistema di
coordinate che meglio si adatta alle simmetrie del problema considerato.
Qui noi definiremo semplicemente tre sistemi di coordinate, uno nel piano e due nello
spazio, utili in molti problemi concreti. Ulteriori nozioni si possono trovare su qualsiasi
buon libro di geometria (ad es. B. A. Dubrovin, S. P. Novikov, A. T. Fomenko, Geometria
Contemporanea, Vol. 1, Ed. Riuniti, 1999; si tratta comunque di un testo relativamente
avanzato che presuppone alcune nozioni che studieremo solo piú avanti, in particolare
calcolo differenziale ed integrale per funzioni di piú variabili reali ed algebra lineare).
Le coordinate polari nel piano sono definite come segue. Nel piano individuiamo un
punto O, l’origine o polo, ed una semiretta t partente da O. Dato un punto P, le sue coordinate
polari sono la distanza r del punto P da O e l’angolo θ fra la semiretta OP e la semiretta t (per
convenzione preso positivo nel verso antiorario).
La relazione tra coordinate cartesiane e coordinate polari è ovviamente molto semplice,
se scegliamo come origine per le coordinate cartesiane quella delle coordinate polari e come
asse x la retta che contiene la semiretta t (v. fig. 1.15). Abbiamo infatti chiaramente:




x = r cos θ,



 y = r sin θ,
59
(1.72)
Alberto Berretti
e le inverse:
Analisi Matematica I

p



x2 + y2 ,
r
=





y


θ = arctan x





y

θ = arctan x + π







θ = π2






θ = − π2
se x > 0,
(1.73)
se x < 0,
se x = 0, y > 0,
se x = 0, y < 0.
L’espressione per θ è (apparentemente!) complicata perché la funzione arcotangente è sempre
compresa fra −π/2 e π/2, mentre θ varia in tutto il cerchio trigonometrico, quindi è necessario
distinguere il caso del primo e del quarto quadrante e quello del secondo e terzo quadrante
(che non sono nel codominio della arcotangente!). Un attimo di riflessione ci convincerà che
le formule precedenti sono corrette.
y
P
r
O Θ
x
Figura 1.15.: Coordinate polari.
Sono evidenti i seguenti fatti:
• r ≥ 0;
• se r = 0 l’angolo θ è inutile perché P è nell’origine indipendemente dal valore di θ;
• l’angolo θ può essere preso variabile ad es. in un intervallo come [0, 2π), oppure (−π, π]
– basta che tale intervallo sia lungo 2π.
C’è dunque una sorta di “discontinuità” nella variabile θ: se ad es. scegliamo θ ∈ [0, 2π),
muovendo il punto P con continuità , quando questo attraversa il semiasse x negativo θ
60
Alberto Berretti
Analisi Matematica I
“salta” da 0 a 2π (o viceversa); se scegliamo θ ∈ (−π, π], tale salto avviene quando il punto
P attraversa il semiasse x positivo. Ne segue che le coordinate polari non sono un “buon”
sistema di coordinate nell’origine, perché coppie di coordinate polari distinte corrispondono
al medesimo punto – l’origine –, ed in piú abbiamo il problema del “taglio” nella variabile θ,
a cui occorre prestare attenzione interpretando sempre θ come un angolo, cioè una variabile
reale definita a meno di multipli interi di 2π.
Esempio 20. Le semirette che partono dall’origine sono rappresentate in coordinate polari
dall’equazione θ = α, dove α è una costante. I cerchi con centro nell’origine sono rappresentati da r = a, dove a > 0 è una costante. Le rette in coordinate polari hanno per equazione
r = p/ cos(θ − α), dove p > 0, α sono costanti (qual’è il significato geometrico di p e α?). L’e-
quazione r = 2a cos θ rappresenta un cerchio di centro (0, a) che passa per l’origine, mentre
l’equazione generale di un cerchio è data da r2 + c2 − 2rc cos(θ − α) = A2 , dove c, α e A sono
costanti.
Nello spazio ci sono due sistemi di coordinate simili alle coordinate polari del piano: le
coordinate cilindriche e le coordinate sferiche. In entrambe i casi, immaginiamo di avere
nello spazio un sistema di coordinate cartesiane ortogonali OXYZ, in cui le coordinate sono
espresse da una terna di numeri reali (x, y, z).
Le coordinate cilindriche del punto P nello spazio sono ottenute proiettando il punto P nel
piano XY, ottenendo su tale piano un punto P′ ; le coordinate cilindriche di P sono dunque i
tre numeri ρ, ψ, z, dove ρ, ψ sono le coordinate polari di P′ nel piano XY mentre la coordinata
z, detta quota di P per ovvî motivi, è la stessa di prima. Ne segue che la relazione fra le
coordinate cilindriche e le coordinate cartesiane è data dalle formule:




x = ρ cos ψ,






y = ρ sin ψ,






z = z.
(1.74)
Le formule inverse sono praticamente identiche a quelle per le coordinate polari!
p
Si osservi la quantità ρ = x2 + y2 è la distanza dall’asse z, quindi l’insieme dei punti che
soddisfano ρ = (cost.) è un cilindro (infinito) che ha per asse l’asse Z e raggio ρ. Da ciò deriva
il nome di coordinate cilindriche.
Le coordinate sferiche sono invece date dalle formule:




x = r cos θ sin ϕ,






y = r cos θ cos ϕ,






z = r sin θ.
61
(1.75)
Alberto Berretti
Analisi Matematica I
Le coordinate r, θ, ϕ variano rispettivamente negli intervalli [0, +∞), [−π, π], e ad es. [0, 2π).
Si noti che talvolta vengono usate notazioni leggermente diverse per le coordinate sferiche,
ad es. sin θ e cos θ sono scambiate.
p
Si osservi inoltre che r = x2 + y2 + z2 , cioè r è la distanza dall’origine. Per capire l’interpretazione delle due coordinate “angolari” θ, ϕ, riflettiamo un attimo sulla loro costruzione
geometrica. Poiché z = r sin θ, l’angolo θ è l’angolo tra l’asse Z e la semiretta OP che parte
dall’origine e passa per il punto P. Indicando come prima con P′ la proiezione del punto P
sul piano XY, di coordinate (x, y) = (r cos θ sin ϕ, r cos θ cos ϕ), è evidente che le coordinate
polari di P′ sul piano XY sono r cos θ e ϕ, per cui ϕ è l’angolo tra l’asse X e la semiretta
OP′ sul piano XY. Gli intervalli di variazione delle variabili angolari seguono da queste
(semplici) considerazioni geometriche. Per ragioni piuttosto ovvie, la coordinata θ viene
detta latitudine e la coordinata ϕ viene detta longitudine.
Ovviamente l’insieme dei punti che soddisfano r = (cost.) è una sfera di raggio r, da cui il
nome di coordinate sferiche.
Curve e superfici in forma esplicita, implicita, parametrica
Non è nostra intenzione qui dare definizioni rigorose di curva e di superficie, che sarebbero
inevitabilmente complicate e sottili: ci accontentiamo dell’idea intuitiva di tali concetti.
Una curva nel piano può essere rappresentata analiticamente in forma esplicita:
y = f (x)
oppure
x = g(y)
(1.76)
(nel primo caso si parla di curva rappresentata esplicitamente rispetto a y e nel secondo di
curva rappresentata esplicitamente rispetto a x), oppure in forma implicita:
o infine in forma parametrica:
F(x, y) = 0,
(1.77)




x = ϕ(t),



 y = ψ(t).
(1.78)
Si può passare dall’una all’altra forma, anche se i teoremi che garantiscono il passaggio
da una forma all’altra non sono banali e verranno presi in considerazione piú avanti. Nel
frattempo possiamo immaginare che si possa passare da una forma all’altra perlomeno
quando è possibile fare i conti esplicitamente.
Esempio 21. L’equazione del cerchio unitario in forma esplicita rispetto ad y è:
√
y = ± 1 − x2
62
Alberto Berretti
Analisi Matematica I
(si osservi che sono due equazioni! una con il + ed una con il −; ciascuna descrive un semicherchio:
quella con il + il semicerchio superiore, quella con il − il semicerchio inferiore). In forma
implicita è data da:
x2 + y2 − 1 = 0,
ed in forma parametrica da:




x = cos t,



 y = sin t,
t ∈ [0, 2π).
È importante rendersi conto che una stessa curva può essere rappresentata da funzioni
diverse. Tanto per fare un esempio banale, tutte le equazioni del tipo:
(x2 + y2 − 1)n = 0
rappresentano il cerchio unitario.
Le superfici nello spazio possono essere rappresentate, in modo analogo alle curve nel
piano, in forma esplicita rispetto a ciascuna delle tre variabili (ad es. rispetto alla z come
z = f (x, y)), in forma implicita come F(x, y, z) = 0, ed in forma parametrica come:




x = ϕ(u, v),






y = ψ(u, v),






z = χ(u, v).
(1.79)
Il fatto che, in forma parametrica, una superficie ha bisogno di due parametri per essere rappresentata
ha ovviamente a che fare con il fatto che la superficie è un oggetto intrinsecamente bidimensionale. I
parametri u, v possono essere interpretati come coordinate locali sulla superficie medesima.
Non ha molto senso rappresentare una curva nello spazio in forma esplicita, in quanto
occorrerebbe esplicitare due variabili e la cosa non ha molto senso pratico. In forma implicita,
una curva nello spazio viene rappresentata da due funzioni:
F(x, y, z) = 0,
G(x, y, z) = 0,
(1.80)
pensando quindi alla curva come all’intersezione di due superfici. In forma parametrica
invece è data semplicemente da:




x = ϕ(t),





y = ψ(t),






z = χ(t).
Abbiamo un solo parametro perché la curva è un oggetto unidimensionale.
63
(1.81)
Alberto Berretti
Analisi Matematica I
Curve e superfici notevoli
Descriviamo ora alcune curve e superfici famose.
Esempio 22. Una conica è una curva piana di equazione implicita:
ax2 + bxy + cy2 + dx + ey + f = 0,
cioè una curva rappresentata in forma implicita da un polinomio di secondo grado nelle due
variabil x, y. Il nome deriva dal fatto che una qualsiasi conica può essere ottenuta dall’intersezione
di un cono con un piano. È ben lontano dai nostri scopi fare qui la teoria generale delle coniche,
i cui aspetti salienti sono ben noti dal liceo e sono considerati acquisiti.
Esempio 23. Le curve della forma:
y2 = ax3 + bx2 + cx + d
sono delle cubiche (ovvero curve rappresentate in forma implicita da un polinomio di terzo
grado nelle due variabili x, y) particolarmente famose e sono dette curve ellittiche (anche
se non hanno praticamente nulla a che fare con le ellissi, per lo meno non in modo diretto).
Esercizio 3. Disegnare (anche rozzamente, per punti!) i grafici qualitativi delle curve di
equazione implicita:
y2 = x3 − x,
y2 = x3 + x,
y2 = x3 + x2 .
Esempio 24. Consideriamo la curva rappresentata in coordinate polari dall’equazione:
r2 = a2 cos 2θ.
Tale curva è detta lemníscata.
Osserviamo che affinché l’equazione sia possibile, deve essere cos 2θ ≥ 0, per cui ci saranno
punti appartenenti alla curva solo nei settori |θ| ≤ π/4, |θ − π| ≤ π/4. Inoltre, per θ = 0, θ = π
r = a, che è il massimo valore che r, cioè la distanza di un punto sulla curva dall’origine,
può avere. Inoltre, essendo il coseno una funzione pari, l’andamento della curva andando
da θ = 0 verso θ = π/4 è il medesimo che andando da θ = 0 verso θ = π/4, cioè decrescente
(verso 0, che è il valore di cos 2θ per θ = π/4). Analogamente nel secondo e terzo quadrante.
La forma implicita in coordinate cartesiane di tale curva si ricava facilmente; infatti:
r2 = a2 cos 2θ ⇒ r4 = r2 a2 (cos2 θ − sin2 θ),
64
Alberto Berretti
Analisi Matematica I
da cui:
(x2 + y2 )2 = a2 (x2 − y2 ),
per cui la lemniscata è un’esempio di quartica, cioè di curva data in forma implicita da un
polinomio di quarto grado.
In fig. 1.16 abbiamo riportato il grafico della lemniscata con a = 1.
Esempio 25. Consideriamo la curva rappresentata in coordinate polari come:
r = 2a(1 + cos θ).
Per ricavarne l’espressione in coordinate cartesiane, facciamo i seguenti passaggi:
r = 2a(1 + cos θ) ⇒ r2 = 2ar + 2ar cos θ,
da cui:
x2 + y2 − 2ax = 2a
q
x2 + y2 ,
e quindi abbiamo un’altra quartica:
(x2 + y2 − 2ax)2 = 4a2 (x2 + y2 ).
Tale curva è detta cardioide a causa della sua forma, come si vede dal grafico in fig. 1.17.
1.5
-1
0.4
1
0.2
0.5
-0.5
0.5
-0.5
1
0.5
-0.2
-0.5
-0.4
-1
1
1.5
2
-1.5
Figura 1.16.: Lemniscata.
Figura 1.17.: Cardioide.
La curva è simmetrica rispetto all’asse x, cioè non cambia se cambiamo il segno di y. Inoltre,
osservando la sua espressione in coordinate polari, ci accorgiamo che r = 0 per θ = ±π, e r ha
il suo valore massimo (r = 4a) per θ = 0. Fra −π e 0 r cresce monotonicamente da 0 a 4a, e fra
0 e π r decresce monotonicamente da 4a a 0. Inoltre siccome r è ben definita, come funzione
di θ, per ogni angolo valore del suo argomento, ne segue che lungo il lato di ogni angolo θ
incontriamo un (unico) punto della curva. Uno studio piú approfondito della curva richiede
un tipo di argomenti che verrà trattato piú avanti.
65
Alberto Berretti
Analisi Matematica I
Esempio 26. Le superfici rappresentate in forma implicita da equazioni del tipo:
a11 x2 + a22 y2 + a33 z2 + 2a12 xy + 2a13 xz + 2a23 yz + b1 x + b2 y + b3 z + c = 0
vengono dette quadriche. Esempi di quadriche sono la sfera, gli ellissoidi, i paraboloidi, gli
iperboloidi, i coni. Li vedremo con maggiore attenzione piú avanti.
Esempio 27. Un esempio di curva sghemba, cioè di curva nello spazio che non è contenuta
in nessun piano, è ad es. la seguente elica che si scrive in forma parametrica come:




x = a cos t,






y = a sin t,






z = bt,
t ∈ R.
Tale curva ha la forma di una molla: infatti la sua proiezione sul piano XY è un cerchio di
centro l’origine e raggio a, mentre la variabile z, che esprime la quota del punto che corre
sulla curva, cresce proporzionalmente a t.
1.4. Successioni
Una funzione f : N 7→ R, cioè dall’insieme dei numeri naturali ai reali, viene detta successio-
ne. È evidente che potremmo denotarle con il simbolo f (n) come si fa per qualsiasi funzione,
però per ragiono di comodità e di uso si preferisce indicarle con il simbolo fn , cioè indicando
l’argomento in un indice. La successione nel suo insieme, pensata come una funzione, viene
indicata in genere con il simbolo {cn }n∈N , leggasi “l’insieme dei cn al variare di n in N”, o
brevemente {cn }. Di nuovo, usiamo la lettera n per caso, potremmo usare qualsiasi altra
lettera purché ci si metta d’accordo che rappresenta un intero (in genere ma certamente non
sempre si usano le lettere tra i e n – le iniziali di “intero” e “numero” – per indicare i numeri
interi).
Non vi è nulla di speciale, in teoria, in una funzione definita sui naturali invece che sui reali;
in pratica, però, le successioni giocano un ruolo importante per cui si preferisce dargli un nome
(successioni) ed una notazione loro. Inoltre, potremmo considerare anche funzioni f : Z 7→ R; per
tali oggetti, che potremmo definire per ovvie ragioni successioni bilatere, la teoria non differisce
granché da quella delle successioni normali per cui non le menzioneremo oltre.
1.4.1. Proprietà elementari
Le successioni sono funzioni definite su un insieme totalmente ordinato, per cui le definizioni
di crescenza, decrescenza, crescenza e decrescenza stretta, monotonia etc. si applicano alla
66
Alberto Berretti
Analisi Matematica I
lettera. Ovviamente non ha senso parlare di funzione inversa di una successione, ed anche
la composizione di successioni in genere non ha senso (perché le successioni sono in genere
a valori in R, non in N, quindi comporne due non ha senso).
La cosa che piú si avvicina al concetto di funzione composta è la seguente. Se {kn } è una
successione strettamente crescente a valori in N, una sottosuccessione di una successione
data {an } è la successione {akn }, cioè la successione ottenuta prendendo, dalla successione {an },
prima il k1 -esimo elemento, poi il k2 -esimo elemento, poi il k3 -esimo, e cosí via.
Possiamo parlare di successioni positive o negative esattamente come per le funzioni. In
caso di successioni bilatere, potremmo persino parlare di successioni pari o dispari. Infine, ha senso
anche parlare di successioni periodiche, dove però il periodo deve essere un numero intero.
I simboli di sommatoria e di produttoria
Lavorando con le successioni, capiterà spesso di voler applicare una operazione elementare
perlomeno ad una parte della successione, ad es. vogliamo poter scrivere in modo semplice
espressioni tipo “la somma dei primi 100 elementi di una successione”, o “il prodotto degli
elementi dal quindo al diciannovesimo di una successione” e cose an analoghe; ovviamente
potremmo usare le notazioni “con i puntini” tipo le seguenti:
a1 + a2 + · · · + a99 + a100 ,
b5 b6 . . . b19 ,
ma è evidente che si tratta di notazioni scomode ed ambigue.
P
Introduciamo pertanto il simbolo di sommatoria nel modo seguente. Con la notazione:
m
X
ak
(1.82)
k=n
intendiamo la somma di tutti i numeri ak , al variare di k da n a m. Volendo si può anche
scrivere:
X
ak .
n≤k≤m
Si intende che sotto il simbolo di sommatoria appare il valore inferiore che assume l’indice
di sommatoria k, e che sopra il simbolo di sommatoria appare il valore superiore che assume
l’indice di sommatoria. L’indice di sommatoria viene in genere indicato sotto, insieme al
valore inferiore (k = n nel caso preso ad esempio), ma se è chiaro di cosa si tratta dal contesto
a volte viene anche omesso:
m
X
ak .
n
Si sottointende che l’indice di sommatoria (k nell’esempio) sale da n a m a passi di 1 (cioè
assume di volta in volta i valori n, n + 1, n + 2, fino a m). Se è necessario specificare un modo
67
Alberto Berretti
Analisi Matematica I
di procedere dell’indice di sommatoria speciale, o viene specificato a parole scrivendolo
sotto il simbolo di sommatoria, o viene modificata la formula opportunamente. Ad esempio,
immaginiamo che vogliamo indicare la somma di quegli elementi della successione {ak } con
k che varia da 2n a 2m e con indice k pari; possiamo dunque scrivere in uno dei due modi:
X
m
X
oppure
ak
2n≤k≤2m,
k pari
a2l .
l=n
È assolutamente importante sottolineare che l’indice di sommatoria è quella che si chiama
variabile muta: ha senso solo all’interno del simbolo di sommatoria medesimo, e si può utilizzare
la lettera che ci pare senza che la sommatoria cambi in alcun modo. In altri termini, le due
sommatorie:
100
X
100
X
e
ai
i=1
ak
k=1
sono assolutamente la stessa cosa!. Ripetiamo: sono assolutamente la stessa cosa. Inoltre,
espressioni come la seguente sono proibite perché non hanno senso:
k
100
X
← Non ha senso!
ak
k=1
Infatti k varia da 1 a 100 dentro la sommatoria, per cui fuori non vuol dire nulla.
Per chi avesse un minimo di familiarità con qualche linguaggio di programmazione, il simbolo di
sommatoria ha una certa relazione logica con il for del linguaggio C e con il DO del FORTRAN.
Ovviamente l’operazione che viene fatta in un simbolo di sommatoria è sempre una
somma, per cui le ordinarie proprietà della somma continuano a valere. Ad es. possiamo
portare fattori comuni fuori dal simbolo di sommatoria applicando la proprietà distributiva
della moltiplicazione (o della divisione) rispetto alla somma; ad es.:
m
X
3a j = 3
j=1
ma non:
m
X
oppure
ak
k=1
m
X
k=1
kak = k
m
X
m
X
a
m
l=1
j=1
1X
=
a j,
b
b
l
← Non ha senso!
ak
k=1
(si osservi che a volte abbiamo cambiato volutamente il simbolo utilizzato per l’indice di
sommatoria per rendere evidente come questo sia inessenziale; in pratica non si fa per
evitare di confondere le idee a chi legge la formula).
Per convenzione, la sommatoria vuota vale 0. Ad es.:
N
X
ak
k=1
68
Alberto Berretti
Analisi Matematica I
vale automaticamente 0 quando N < 1.
Mediante simbolo di produttoria possiamo scrivere in modo compatto i prodotti invece
che le somme. Ad es. con la notazione:
m
Y
(1.83)
ak
k=n
intendiamo il prodotto di tutti i numeri ak , al variare di k da n a m. Le proprietà del simbolo
di produttoria sono perfettamente analoghe a quelle del simbolo di sommatoria, con l’ovvia
differenza che si parla di prodotti invece che di somme; ad es.:
m
Y
m
2al = 2
m
Y
al ,
l=1
l=1
in quanto ogni fattore nel prodotto contiene un fattore 2, ed avendo m fattori nella produttoria
(l varia da 1 a m!) possiamo mettere in evidenza un fattore 2m .
Per convenzione, la produttoria vuota vale 1 (perché mentre 0 è l’elemento neutro della
somma, l’elemento neutro del prodotto è 1).
1.4.2. Alcune successioni notevoli
Introduciamo ora alcune successioni particolari, che è utile conoscere per il loro frequente
utilizzo nel seguito.
Successioni lineari
Una successione lineare, detta anche progressione aritmetica, è una successione della forma:
p, q ∈ R.
an = pn + q,
(1.84)
È ovvio che si tratta di una successione strettamente crescente se p > 0, strettamente
decrescente se p < 0, e costante se p = 0.
L’unica cosa che ci interessa notare, perché è occasionalmente utile, è la seguente: è molto
facile calcolare la somma dei primi N elementi di una successione lineare. Calcoliamo infatti:
N
X
j,
j=1
cioè la somma dei primi N interi. Per farlo, osserviamo che possiamo rappresentare la somma
di tali numeri, rappresentando l’intero j con j palline, arrangiandoli a triangolo, come ad es.
nel modo seguente per rappresentare la somma degli interi da 1 a 5:
69
Alberto Berretti
Analisi Matematica I
A questo punto è chiaro che il doppio di tale somma può essere rappresentata nel modo
seguente:
e cioè in forma di rettangolo di base N e altezza N + 1 (nel caso preso ad esempio, di base 5 e
di altezza 6). Per cui il numero di palline cercato sarà N(N + 1)/2, cioè la metà dell’area del
rettangolo (15 = (5 · 6)/2 nell’esempio considerato). Questa formula fu trovata dal matematico
tedesco Carl Gauss (1777-1855) quando a sette anni gli fu assegnato per punizione dal maestro di
calcolare la somma di tutti gli interi da 1 a 100.
Esercizio 4. Dimostrare le seguenti formule:
1.
n
X
k=1
2.
X
k=1
(8k − 5) = n(4n − 1),
n(2n + 2k − 1) = 3n2 .
Somme di quadrati e altre potenze
Non è difficile, con un po’ di fantasia, capire come trovare la somma della potenza k-esima dei primi
N interi. Ovviamente il metodo inventato dal giovane Gauss non funziona. Però possiamo osservare
che la somma delle potenze 0-esime dei primi N interi, cioè la somma di N volte 1, è N, cioè una espressione
lineare – di grado 1 – in N, mentre la somma delle potenze prime dei primi N interi, che abbiamo appena
calcolato, è pari a (N2 + N)/2, cioè un polinomio di grado 2 in N. È facile congetturare che la somma
delle potenze k-esime dei primi N interi sia dunque un polinomio nella variabile intera N di grado
k + 1. Ad es. congetturiamo che la somma dei quadrati dei primi N interi sia:
N
X
j2 = a + bN + cN2 + dN3 .
j=1
70
Alberto Berretti
Analisi Matematica I
Resta da trovare le costanti a, b, c, d. Queste possono essere trovate facilmente ponendo N = 0, 1, 2, 3 a
turno nella formula precedente, e ricavando delle identità per le incognite a, b, c, d. Infatti otteniamo
facilmente:




a = 0,







b + c + d = 1,




2b + 4c + 8d = 5,






3b + 9c + 27d = 14,
e cioè un semplice sistema di equazioni lineari che, risolto, da i seguenti valori:
a = 0,
b=
1
,
6
c=
1
,
2
d=
1
,
3
e quindi la somma dei quadrati dei primi N interi sarebbe:
N
X
j2
j=1
2N3 + 3N2 + N
.
6
(1.85)
Si può controllare a mano qualche altro caso e verificare che effettivamente la formula sembra essere
quella giusta: ma non è ancora stata dimostrata! Una dimostrazione – ora che siamo sostanzialmente
convinti che la formula trovata è quella giusta – può però facilmente essere ottenuta per induzione.
Infatti, Si verifica immediatamente che:
• La formula è giusta per N = 1, infatti la la formula da il risultato giusto, che è, banalmente, 1.
• Assumento che la formula sia vera per il valore N, allora è immediato verificare che vale anche
per il valore N + 1:
2(N + 1)3 + 3(N + 1)2 + (N + 1)
2N3 + 3N2 + N
+ (N + 1)2 =
,
6
6
come un semplice calcolo dimostra.
Quindi la formula è dimostrata, per il principio di induzione matematica.
In effetti è possibile ricavare anche la (1.85) mediante un argomento geometrico simile a quello di
Gauss, ma piú complesso. Si veda ad es. qui http://bit.ly/ptOuc4.
Analogamente, ma con maggior sforzo, si possono trovare le altre somme di potenze degli interi.
Un fatto estremamente curioso è che il quadrato della somma degli interi da 1 a n è esattamente
uguale alla somma dei cubi degli interi da 1 a n per ogni n.
Progressione geometrica
Una successione del tipo:
cn = arn ,
n = 0, 1, 2, . . .
(1.86)
viene detta progressione geometrica. È facile calcolare la somma dei termini con n che varia
da 0 ad N (i primi N + 1) di una progressione geometrica (ed è evidente che a tale scopo
71
Alberto Berretti
Analisi Matematica I
possiamo prendere a = 1!). Infatti, sia:
SN =
N
X
r j.
j=0
Ne segue:
SN+1 = SN + rN+1 = rsN + 1,
cosa di cui ci si può convincere con un semplicissimo calcolo. Quindi:
(1 − r)SN = 1 − rN+1 ,
da cui:
SN =
1 − rN+1
,
1−r
(1.87)
che è peraltro una regola ben nota di fattorizzazione dei polinomi.
La successione armonica
Consideriamo la seguente successione:
n
X
1
,
cn =
n
(1.88)
j=1
il cui n-esimo termine è quindi la somma dei reciproci degli interi da 1 a n.
Si tratta evidentemente di una successione positiva. Inoltre, è anche una successione
crescente: infatti ciascun termine è ottenuto dal precedente aggiungendo una quantità positiva,
per cui è ovviamente maggiore.
Si tratta inoltre di una successione illimitata, cioè tale che i suoi termini possono assumere
valori arbitrariamente grandi. Consideriamo infatti termini della forma c2K −1 , cioè le somme
dei reciproci dei primi 2K − 1 termini; ad es. per K = 4 consideriamo c15 :
1+
1 1 1 1 1 1 1 1
1
1
1
1
1
1
+ + + + + + + +
+
+
+
+
+ .
2 3 4 5 6 7 8 9 10 11 12 13 14 15
(1.89)
Possiamo raggruppare i termini della somma in blocchi di lunghezza crescente, pari alle
successive potenze di 2 (prima un blocco loungo 1, poi un blocco lungo 2, poi un blocco
lungo 4, etc.); ad es. nel caso di c15 abbiamo quattro blocchi lunghi 1, 2, 4 e 8:
1 1 1 1 1 1 1 1
1
1
1
1
1
1
+
+
+
+
+ ;
1 + + + + + + + + +
|{z} 2 3 4 5 6 7 8 9 10 11 12 13 14 15
|{z} |
{z
} |
{z
}
1
>2
> 12
> 12
> 21
72
(1.90)
Alberto Berretti
Analisi Matematica I
è dunque evidente che ad es. c15 > 4·(1/2) = 2, ma se la logica che soggiace al raggruppamento
dei termini nella somma è chiara, è evidente che:
1
c2K −1 > K · ,
2
(1.91)
e quindi la successione è illimitata (basta prendere K sufficientemente grande). Nota bene:
abbiamo dimostrato che i termini della forma c2K −1 sono illimitati; ma se una successione
possiede una sottosuccessione illimitata, è evidente che è anch’essa illimitata. Ripetiamo: se
la successione cn è limitata, vuol dire che:
(1.92)
∀n |cn | < L,
per qualche L > 0; ma se la successione contiene una sottosuccessione illimitata, ciò vuol dire
che su alcuni elementi la stima nella (1.92) è violata, e ciò è sufficiente per dire che la (1.92) è
falsa.
La disuguaglianza aritmetico-geometrica
Dati n numeri positivi x1 , . . . , xn , definiamo la loro media aritmetica come:
Pn
xi
µ = i=1 ,
n
e la loro media geometrica come:
v
t
γ=
n
n
Y
(1.93)
(1.94)
xi .
i=1
Vale allora la disuguaglianza:
(1.95)
γ ≤ µ,
detta appunto disuguaglianza aritmetico-geometrica. Si parla di “medie” perché, come è
banale dimostrare, sia µ che γ sono compresi fra il piú grande ed il piú piccolo dei valori
degli xi .
La dimostrazione è molto semplice, ma istruttiva. Si noti tra l’altro che nel caso n = 2 si
tratta di qualcosa di ovvio (basta porre x1 = a2 , x2 = b2 , cosa sempre possibile visto che si
tratta di numeri positivi, e poi considerare la disuguaglianza (a − b)2 ≥ 0).
Sia infatti x j = maxi xi il piú grande degli xi e xk = mini xi il piú piccolo degli xi (se ce ne
sono piú di uno con lo stesso valore ne prendiamo uno qualsiasi, ad es. quello con indice
maggiore). Chiaramente xk ≤ γ ≤ x j . Sostituiamo ora x′j a x j e x′k a xk , dove:
x′j = γ,
x′k =
73
x j xk
γ
.
Alberto Berretti
Analisi Matematica I
Chiaramente la media geometrica γ′ degli x cosí modificati non cambia, mentre cambia la
media aritmetica; infatti, poiché:
x′j + x′k − x j − xk =
(x j − γ)(xk − γ)
≤ 0,
γ
perché xk ≤ γ ≤ x j , e quindi µ′ ≤ µ. Quindi γ = γ′ , µ ≥ µ′ .
Ora, il gioco si può ripetere di nuovo, per ottenere nuovi x, una nuova media geometrica
γ′′
ed una nuova media aritmetica µ′′ , e naturalmente ragionando come sopra otteniamo:
γ = γ′ = γ′′ ,
µ ≥ µ′ ≥ µ′′ .
Ripetendo l’argomento al massimo n − 1 volte, ci riconduciamo al caso in cui tutti gli x sono
oramai uguali, ed uguali precisamente a γ, per cui le loro medie aritmetiche e geometriche
coincidono (con γ) ed inoltre abbiamo ottenuto:
γ = . . . = γn−1 = µn−1 ≤ µn−2 ≤ . . . ≤ µ,
da cui la tesi.
1.4.3. Il fattoriale
Definiamo il fattoriale di un numero naturale n, indicato con n!, come:




0! = 1,

Q


n! = n · (n − 1) · (n − 2) · . . . · 1 = n j.
(1.96)
j=1
In parole, il fattoriale di n è il prodotto di tutti i naturali (0 escluso ovviamente!) minori o
uguali ad n. Per convenzione 0! è 1 (ricordiamoci che per convenzione la produttoria vuota
è 1).
Il fattoriale cresce molto velocemente con n. Ad es., 100! è un numero di 158 cifre decimali, e
1000! è un numero di 2568 cifre decimali. Pú avanti, quando avremo un modo quantitativo per
misurare quanto velocemente una funzione cresce, troveremo anche il modo di quantificare
un po’ meglio la crescenza del fattoriale.
Nelle espressioni con il fattoriale bisogna stare attenti alle semplificazioni. Infatti ad es.:
n!
= n,
(n − 1)!
n!
= n(n − 1),
(n − 2)!
e cosí via.
74
n!
1
=
,
(n + 1)! n + 1
Alberto Berretti
Analisi Matematica I
Il doppio fattoriale
Talvolta è utile introdurre il doppio fattoriale definito come segue:




(2n)!! = (2n) · (2n − 2) · (2n − 4) · · · · · 4 · 2,



(2n + 1)!! = (2n + 1) · (2n − 1) · (2n − 3) · · · · · 3 · 1,
(1.97)
e cioè per n pari, il prodotto di tutti i pari minori o uguali ad n, e per n dispari, il prodotto di tutti i
dispari minori o uguali ad n.
Ovviamente:
(2n)!! = 2n n!,
(2n + 1)!! =
(1.98a)
(2n + 1)! (2n + 1)! (2n + 1) · (2n) · (2n − 1) · · · · · (n + 2) · (n + 1)
.
=
=
(2n)!!
2n n!
2n
(1.98b)
I coefficienti binomiali e la formula del binomio di Newton
Si chiama coefficiente binomiale
n
k
(leggasi “n su k”) la seguente espressione:
!
n
n!
,
=
k!(n − k)!
k
(1.99)
ovviamente definito per n ≥ 0, 0 ≤ k ≤ n. I coefficienti binomiali soddisfano le seguenti
proprietà:
!
!
n
n
= 1,
=
n
0
!
!
n
n
= n,
=
n−1
1
!
!
n
n
,
=
n−k
k
!
!
!
n−1
n−1
n
+
=
.
k−1
k
k
(1.100a)
(1.100b)
(1.100c)
(1.100d)
L’unica non banale è la (1.100d), che comunque può essere verificata mediante un calcolo
diretto:
!
!
(n − 1)!
(n − 1)!
n−1
n−1
+
=
+
=
k−1
k
((k − 1)!(n − k)! k!(n − k − 1)!
!
n(n − 1)!
(n − 1)!k + (n − 1)!(n − k)
n
.
=
=
=
k!(n − k)!
k!(n − k)!
k
La (1.100d), riflettendoci sopra un attimo, è la proprietà che permette di calcolare i coefficienti
binomiali per mezzo del famoso triangolo di Pascal-Tartaglia che si studia alle scuole superiori.
75
Alberto Berretti
Analisi Matematica I
I coefficienti binomiali sono utili perchè permettono di dimostrare la seguente formula,
detta sviluppo binomiale, che permette di espandere la potenza n-esima di un binomio:
!
n
X
n k n−k
(a + b) =
ab .
k
n
(1.101)
k=0
Tale formula può facilmente essere dimostrata per induzione utilizzando la (1.100d). Infatti,
innanzitutto la (1.101) è banalmente vera per n = 1: infatti in tal caso tale formula ci dice che
(a + b)1 = a + b, il che è ovvio. Quindi, è sufficiente dimostrare che, asssumendola vera nel caso
n − 1, è vera per n per averne dimostrata la validità per ogni n. Abbiamo dunque:

 n−1
!

X n − 1
ak bn−1−k  (a + b) =
(a + b)n = (a + b)n−1 (a + b) = 
k
k=0
!
!
n−1
n−1
X
n − 1 k+1 n−1−k X n − 1 k n−k
ab
=
a b
+
=
k
k
k=0
k=0
!
!
n−1
n−2
X
n − 1 k+1 n−1−k X n − 1 k n−k
n
a b + bn =
a b
+
=a +
k
k
k=1
k=0
!
!
n−1
n−1
X
X
n − 1 k n−k
n − 1 k n−k
n
a b + bn =
ab +
=a +
k
k−1
k=1
k=1
!!
!
n−1
X
n − 1 k n−k
n−1
n
a b + bn =
+
=a +
k
k−1
k=1
!
!
n−1
n
X
X
n k n−k
n k n−k
n
n
=a +
a b +b =
ab ,
k
k
k=1
k=0
il che conclude la dimostrazione.
Questi passaggi sono veramente semplici: si tratta solo di leggere le formule chiedendosi ad ogni
passaggio cosa è successo, e di ricordarsi che viene fatto uso della (1.100d) in un punto cruciale, e cioè
nel settimo passaggio. La comprensione di tale dimostrazione è una buona verifica della familiarità
con il simbolo di sommatoria.
La (1.101) ci permette di dimostrare un’altra proprietà dei coefficienti binomiali:
!
n
X
n
= 2n .
k
k=0
Basta infatti porre a = b = 1 nella (1.101) per ottenere la (1.102).
Ovviamente, possiamo scrivere:
(a + b)n = (a + b) . . . (a + b),
|
{z
}
n volte
76
(1.102)
Alberto Berretti
Analisi Matematica I
e facendo uso delle proprietà commutativa ed associativa della moltiplicazione, otteniamo, svolgendo
i prodotti, esattamente 2n addendi: esattamente un addendo sarà ottenuto prendendo ogni volta a e
quindi sarà pari ad an proprio come esattamente un addendo sarà ottenuto prendendo ogni volta b
e quindi sarà pari a bn , esattamente n addendi saranno ottenuti prendendo un fattore b da ciascuno
degli n termini (a + b) da moltiplicare e un fattore a dagli altri n − 1 e quindi saranno pari a an−1 b e cosí
via. Si capisce dunque che il coefficiente binomiale nk non è altro che il numero di modi in cui posso
scegliere k oggetti tra n dati (infatti ciascun addendo ottenuto moltiplicando n volte il fattore a + b è
ottenuto scegliendo b k volte e a le altre n − k volte).
Ora, dato un insieme di n elementi, un sottoinsieme di k elementi è dato ovviamente da una scelta
qualsiasi di k suoi elementi, che per quanto detto posso fare in nk modi: pertanto un insieme di n
elementi ha esattamente nk sottoinsiemi di k elementi, e per la (1.102) il numero di sottoinsiemi di un
insieme di n elementi è 2n .
Sono definite moltissime altre funzioni aritmetiche, spesso apparentemente interessanti solo per chi
si occupa di argomenti astratte come l’algebra e la teoria dei numeri. In realtà, man mano che l’algebra
e la teoria dei numeri sono diventate discipline di interesse pratico a causa delle loro applicazioni
in crittografia, molte funzioni della teoria dei numeri hanno acquistato interesse pratico. Si rimanda
comunque ad un corso di algebra o di matematica discreta per ogni approfondimento.
77
2. I numeri complessi
Introduciamo ora una importante estensione dei numeri reali, che ci permetterà ad es. di
calcolare le radici quadrate – ed in generale di esponente pari – di qualsiasi numero, anche
quelli negativi, e piú in generale che permetterà di trovare le radici di qualsiasi equazione
algebrica. In altri termini, mentre se restiamo nei numeri reali esistono delle equazioni
algebriche che non hanno soluzione (ad es. x2 + 1 = 0), nei complessi ogni equazione algebrica
ha almeno una soluzione. I numeri complessi sono inoltre molto utili per rappresentare le
rotazioni nel piano, e come tali sono importanti in tutte quelle applicazioni in cui occorre
rappresentare matematicamente fenomeni ondulatori in cui il concetto di “fase” gioca un
ruolo importante.
2.1. Il piano complesso
Definiamo ora i numeri complessi come punti nel piano sui quali le usuali operazioni
algebriche sono definite in modo opportuno.
Si osservi che nei corsi di matematica elementari (ad es. al liceo scientifico o all’istituto
tecnico) è abitudine introdurre i numeri complessi dicendo “la radice di −1 che prima non
esisteva ora è i”. Questo però è un modo puramente intuitivo di procedere che non soddisfa
le esigenze di rigore anche piú elementari. Perché allora non dire “1/0 prima non esisteva ed
ora è <inserire simbolo a caso>”? Ogni oggetto matematico deve essere costruito a partire
da qualcosa di preesistente per poter essere definito.
2.1.1. Definizione ed operazioni
I numeri complessi come punti nel piano
Un numero complesso è semplicemente una coppia ordinata di numeri reali:
(a, b),
a, b ∈ R.
(2.1)
Ci si può chiedere a che possa servire una tale definizione. La risposta a questa domanda è nei
paragrafi seguenti, in cui definiamo le principali operazioni algebriche sui numeri complessi
ed introduciamo una notazione speciale che ne rende la manipolazione particolarmente
agevole ed intuitiva.
78
Alberto Berretti
Analisi Matematica I
L’insieme dei numeri complessi (e cioè l’insieme R2 delle coppie ordinate di numeri reali
dotato delle operazioni che andiamo a definire nel seguito) viene usualmente denotato con
il simbolo C.
Somma e sottrazione di numeri complessi
Definiamo la somma di due numeri complessi z1 = (x1 , y1 ), z2 = (x2 , y2 ) come la loro somma
vettoriale:
z1 + z2 = (x1 + x2 , y1 + y2 ).
(2.2)
È evidente che la somma cosí definita soddisfa tutte le ordinarie proprietà della somma, e
cioè è commutativa ed associativa, ed il numero complesso (0, 0) ne è l’elemento neutro.
L’opposto di z = (x, y) è definito nel modo ovvio come:
− z = (−x, −y),
(2.3)
e soddisfa tutte le proprietà che ci aspettiamo dall’opposto di un numero, ad es. z + (−z) = 0.
La differenza di due numeri complessi viene definita quindi come la somma del primo con
l’opposto del secondo, e quindi, con le notazioni usate nella (2.2):
z1 − z2 = (x1 − x2 , y1 − y2 ).
(2.4)
Trattandosi essenzialmente di una somma vettoriale, se rappresentiamo i numeri complessi
come punti nel piano, la loro somma viene ottenuta con la ben nota regola del parallelogramma,
illustrata in fig. 2.1.
z+w
z
w
O
Figura 2.1.: Somma di numeri complessi
79
Alberto Berretti
Analisi Matematica I
Moltiplicazione di numeri complessi
Ovviamente è sempre possibile moltiplicare un numero complesso con un numero reale:
λ ∈ R, z = (x, y) ∈ C :
λz = (λx, λy).
(2.5)
Tale operazione soddisfa tutto quello che ci aspettiamo da una moltiplicazione, eccetto che resta una moltiplicazione tra reali e complessi, mentre noi vogliamo definire una operazione di
moltiplicazione fra complessi, e che inoltre soddisfi tutte le proprietà della ordinaria moltiplicazione
fra numeri reali.
È facile rendersi conto che la cosa apparentemente ovvia, e cioè la moltiplicazione componente per componente, non è una buona idea; infatti non sarebbe difficile verificare che non
sarebbero mantenute tutte le ordinarie proprietà della moltiplicazione, ed inoltre sarebbe
una definizione “stupida”, in quanto a questo punto non si capisce a cosa servirebbero le due
componenti di un numero complesso se esse non si “mescolano” mai mediante una qualche
operazione importante.
La corretta definizione di moltiplicazione fra numeri complessi è apparentemente curiosa
ed originale, e ci convinceremo che è quella buona solo piú avanti, quando ne avremo
compreso tutte le proprietà. Ponendo dunque z1 = (x1 , y1 ), z2 = (x2 , y2 ), definiamo:
z1 · z2 = (x1 x2 − y1 y2 , x1 y2 + x2 y1 ).
(2.6)
Bisogna verificare che tale operazione soddisfa (i) la proprietà commutativa z1 · z2 = z2 · z1 ,
(ii) la proprietà associativa (z1 · z2 ) · z3 = z1 · (z2 · z3 ), (iii) la proprietà distributiva rispetto alla
somma z1 · (z2 + z3 ) = z1 · z2 + z1 · z3 .
La proprietà commutativa è però ovvia se notiamo che possiamo scambiare gli indici 1 e 2
nella (2.6) senza che la formula cambi. La verifica delle proprietà associativa e distributiva
è un esercizio estremamente noioso e sostanzialmente banale. È anche immediato verificare
che il numero complesso (1, 0) è l’elemento neutro per la moltiplicazione cosí definita, e
che la moltiplicazione di qualsiasi numero complesso per (0, 0) dà (0, 0). Pertanto possiamo
chiamare (0, 0) lo zero complesso e (1, 0) la unità complessa. Inoltre, e ciò è essenziale, se
identifichiamo il numero reale λ con il numero complesso (λ, 0) allora la moltiplicazione tra
numeri reali e la moltiplicazione di un numero complesso per uno reale come definita in (2.5)
coincide con la moltiplicazione fra complessi:
λ, µ ∈ R :
(λ, 0) · (µ, 0) = (λµ, 0),
λ ∈ R, z ∈ C :
(λ, 0) · (x, y) = (λx, λy) = λ(x, y)
(l’analoga proprietà per la somma è ovvia). Ciò vuol dire che possiamo identificare i numeri
reali con i numeri complessi della forma (x, 0), e le operazioni sui complessi possono essere
interpretate come generalizazione delle corrispondenti operazioni sui reali.
80
Alberto Berretti
Analisi Matematica I
Il numero i
Cosa sono “gli altri” numeri, cioè quelli che non corrispondono ai reali? Che proprietà
hanno? Cominciamo col calcolare il seguente semplice prodotto:
(0, 1) · (0, 1) = (0 · 0 − 1 · 1, 0 · 1 + 1 · 0) = (−1, 0).
(2.7)
In altri termini, (0, 1) è quel numero complesso che, moltiplicato per se stesso, dà il reale
−1 (ovvero il numero complesso che corrisponde al reale −1: ma d’ora in poi identificheremo
i reali con i complessi che gli corrispondono). Dunque nei complessi, il quadrato di un numero può
essere un reale negativo e quindi l’introduzione dei numeri complessi ci permette di calcolare
le radici quadrate dei numeri negativi. In realtà i numeri complessi fanno molto di piú, e cioè nei
complessi è vero che qualsiasi equazione algebrica ammette almeno una soluzione, cosa che non è
vera nei reali, e che non è totalmente banale da dimostrare; si dice pertanto che i complessi sono un
completamento algebrico dei reali.
A questo punto è estremamente conveniente utilizzare la seguente notazione: scriviamo
direttamente tutti i numeri complessi della forma (x, 0) come il numero reale x corrispondente,
e denotiamo il numero (0, 1) con il simbolo i; numero complesso (x, y) può allora essere scritto
come x + iy, e tutte le proprietà delle operazioni elementari sui numeri complessi si ricavano dalle
corrispondenti proprietà delle operazioni elementari sui reali e dalla proprietà (2.7), cioè, con la
nuova notazione, i2 = −1. Si osservi che, com’è ovvio, anche (−i)2 = −1.
Esercizio 5. Calcolare le seguenti operazioni fra numeri complessi:
1. (1 + i)(1 − i),
√
√
2. ( 2 + i)( 2 − i),
3. (2 +
√
√
3i)( 3 − 2i),
4. (cos x + i sin x)(cos x − i sin x).
Potenze di numeri complessi
Non vi è nulla di speciale nella definizione di potenza di esponente intero positivo di un numero
complesso: semplicemente si tratta di una moltiplicazione ripetuta, come per i numeri reali.
Esercizio 6. Calcolare le seguenti potenze di numeri complessi:
• in , per n ∈ N; che proprietà ha la successione {in }?
• (1 + i)2 ,
81
Alberto Berretti
Analisi Matematica I
• (1 + i)4 ,
• (1 +
√
2i)3 ,
• (cos x + i sin x)2 .
Parte reale, parte immaginaria, complesso coniugato, modulo ed argomento
Definiamo ora alcune particolari operazioni definite sui numeri complessi.
Dato un numero complesso z = x + iy, definiamo la sua parte reale Re z come il numero
reale x, la sua parte immaginaria Im z come il numero reale y, per cui z = Re z + i Im z).
Definiamo dunque il complesso coniugato z (indicato a volte con z∗ ) come Re z − i Im z, cioè
il numero complesso con la stessa parte reale e parte immaginaria opposta). Se il numero
z è reale, allora Re z = z, Im z = 0, e z = z. Se il numero z ha parte reale nulla si dice che è
immaginario o, per chiarezza, immaginario puro; in tal caso i Im z = z e z = −z. Si noti che in
un numero reale non vi è nulla di piú reale che in un numero immaginario e viceversa; la terminologia
ha origini storiche.
Il modulo o valore assoluto |z| è definito come:
|z| =
p
(Re z)2 + (Im z)2 ,
(2.8)
e quindi non è altro che la distanza del punto che rappresenta il numero complesso z nel
piano complesso dall’origine. Si osservi che, se z è reale, allora la definizione di modulo data
√
dalla (2.8) equivale a quella data precedentemente per i numeri reali, in quanto x2 = |x|. Si
osservi inoltre che:
zz = |z|2 .
(2.9)
Il valore assoluto cosí definito soddisfa le seguenti proprietà:
|z| ≥ 0,
(2.10a)
|z| = 0 ⇒ z = 0,
|z1 · z2 | = |z1 | · |z2 |,
|z1 + z2 | ≤ |z1 | + |z2 |.
(2.10b)
(2.10c)
(2.10d)
La (2.10a) è ovvia. La (2.10b) è anche essa ovvia in quanto se |z| = 0 allora la somma dei
quadrati delle parti reali ed immaginarie di z è nulla, e ciò è possibile solo se sia la sua parte
reale che la sua parte immaginaria sono nulle. La (2.10c) deriva da un calcolo diretto; infatti
ponendo z1 = x1 + iy1 e z2 = x2 + iy2 abbiamo:
q
q
q
2
2
2
2
(x1 x2 − y1 y2 ) + (x1 y2 + x2 y1 ) = x1 + y1 x22 + y22 ,
82
Alberto Berretti
Analisi Matematica I
da cui, elevando al quadrato ambo i membri, otteniamo:
(x1 x2 − y1 y2 )2 + (x1 y2 + x2 y1 )2 = (x21 + y21 )(x22 + y22 ),
e svolgendo i quadrati otteniamo un’identità. Ovviamente la (2.10c) si può iterare per cui
abbiamo:
|z1 · z2 · . . . · zn | = |z1 | · |z2 | · . . . · |zn |.
Infine la (2.10d), che è di nuovo la disuguaglianza triangolare, va dimostrata in modo diverso
che in R. Notiamo innanzitutto che, come è ovvio dalla definizione di valore assoluto,
abbiamo:
−|z| ≤ Re z ≤ |z|,
−|z| ≤ Im z ≤ |z|.
Quindi, grazie alla (2.9), abbiamo:
|z1 + z2 |2 = |z1 |2 + |z2 |2 + 2 Re(z1 z2 ).
Dalle ultime due segue dunque che:
|z1 + z2 |2 ≤ |z1 |2 + |z2 |2 + 2|z1 | · |z2 |,
e quindi la disuguaglianza triangolare.
È immediato, e lasciato per esercizio, verificare che allo stesso modo si ottiene:
|z1 − z2 |2 ≥ |z1 |2 + |z2 |2 − 2|z1 | · |z2 |,
da cui la non meno utile disuguaglianza:
|z1 − z2 | ≥ ||z1 | − |z2 ||.
Infine definiamo l’argomento di un numero complesso z, indicato con arg z, come l’angolo
tra la semiretta congiungente l’origine con il punto che rappresenta z sul piano complesso
ed il semiasse delle x positive. In altri termini, vale la formula:


z

arg z = arctan Im
se Re z > 0,


Re z




arg x = arctan Im z + π se Re z < 0,


Re z


arg z = π

se Re z = 0, Im z > 0,

2





arg z = − π
se Re z = 0, Im z < 0.
2
(2.11)
Osservazione importante: l’argomento di un numero complesso è un angolo, ovvero è
definito a meno di multipli di 2π. In altri termini, arg z non ha un valore definito, ma ne ha
infiniti, che differiscono per multipli di 2π; quindi a rigore arg z non è una funzione di z. Se
83
Alberto Berretti
Analisi Matematica I
y
z
Im z
ÈzÈ
0 arg z
Re z
x
Figura 2.2.: Parte reale, parte immaginaria, modulo ed argomento di un numero complesso
restiamo in un contesto di angoli, possiamo manipolare tranquillamente arg z come se fosse
una funzione, come abbiamo fatto nella (2.11), in cui si intende che arg z è definito come il
membro destro delle varie uguaglianze, a meno di multipli di 2π. Se si vuole una autentica
funzione di z, occorre restringere l’insieme di valori in cui l’argomento può variare, ad es.
all’intervallo [0, 2π); in tal caso è conveniente utilizzare un altro simbolo per la funzione cosí
ottenuta, ad es. Arg z con la maiuscola.
In fig. 2.2 rappresentiamo graficamente le operazioni introdotte in questo paragrafo.
Divisione di numeri complessi
La divisione di un numero complesso per un numero reale è calcolata nel modo naturale:
λ ∈ R, z ∈ C :
z
Re z
Im z
=
+i
,
λ
λ
λ
(2.12)
ovvero dividiamo parte reale e parte immaginaria di z separatamente per il reale λ. Ma come
procedere se dobbiamo dividere un complesso per un altro complesso? Ovviamente non
siamo liberi di prendere una definizione qualsiasi, perché la divisione deve essere l’operazione inversa della moltiplicazione che è già stata definita. Quindi dobbiamo usare in modo
intelligente quanto sappiamo dell’algebra dei numeri complessi. Approfittando della (2.12),
ci riconduciamo a tale caso nel modo seguente:
z1 z1 z2 z1 z2
=
=
,
z2 z2 z2
|z2 |2
84
(2.13)
Alberto Berretti
Analisi Matematica I
che si calcola come in (2.12) in quanto il denominatore è reale.
Si osservi che la procedura è formalmente analoga a quella nota come “razionalizzazione
del denominatore” in una frazione. Ad es., se abbiamo:
1
3+
√
2
e vogliamo eliminare il termine irrazionale al denominatore, moltiplichiamo numeratore
√
e denominatore per il fattore “algebricamente coniugato” 3 − 2 in modo da ottenere a
√
denominatore una espressione priva del radicale 2.
In realtà l’analogia non è solo formale e c’è sotto qualcosa di importante relativo a quel ramo della
matematica noto come teoria dei numeri.
Esercizio 7. Calcolare i seguenti quozienti:
1−i
,
1+i
√
2+i
,
2. √
2−i
1.
3.
(1 + i)3
,
1−i
4.
1
,
z
5.
1
,
cos x + i sin x
6.
(cos x − i sin x)2
.
cos 2x + i sin 2x
2.1.2. Il diagramma di Argand ed le formule di De Moivre
È chiaro che il modulo e l’argomento di un numero complesso sono le coordinate polari del
punto che lo rappresenta nel piano complesso. L’interpretazione geometrica che ne consegue
dei numeri complessi prende tradizionalmente il nome di diagramma di Argand (dal nome
di Jean Robert Argand, 1768-1822, ragioniere svizzero e matematico dilettante, che la introdusse).
Rappresentazione polare dei numeri complessi
Ponendo dunque:




ρ = |z|,



ϕ = arg z,
85
(2.14)
Alberto Berretti
Analisi Matematica I
abbiamo che (ρ, ϕ) sono le coordinate polari del punto che rappresenta il numero complesso
z sul piano complesso. Dunque:




Re z = ρ cos ϕ,



Im z = ρ sin ϕ.
(2.15)
Altri modi per dire la medesima cosa sono:
z = ρ(cos ϕ + i sin ϕ) = |z|(cos arg z + i sin arg z).
(2.16)
Interpretazione geometrica delle operazioni sui numeri complessi
È a questo punto interessante capire se le operazioni sui numeri complessi hanno un
significato geometrico.
La somma è stata già discussa: trattandosi della normale somma vettoriale, può essere
interpretata in termini della nota “regola del parallelogramma”.
È interessante invece discutere l’interpretazione geometrica del prodotto di numeri complessi. Sia dunque:
z1 = ρ1 (cos ϕ1 + i sin ϕ1 ),
z2 = ρ2 (cos ϕ2 + i sin ϕ2 ).
(2.17)
Allora:
z1 z2 = ρ1 ρ1 (cos ϕ1 + i sin ϕ1 )(cos ϕ2 + i sin ϕ2 ) =
= ρ1 ρ1 ((cos ϕ1 cos ϕ2 − sin ϕ1 sin ϕ2 ) + i(cos ϕ1 sin ϕ2 + cos ϕ2 sin ϕ1 )) =
= ρ1 ρ2 (cos(ϕ1 + ϕ2 ) + i sin(ϕ1 + ϕ2 )), (2.18)
da cui ricaviamo che 1. il modulo del prodotto è il prodotto dei moduli (cosa già vista in
precedenza), 2. l’argomento del prodotto è la somma degli argomenti. Quest’ultimo è un fatto
importante per cui lo riproponiamo esplicitamente:
arg z1 z2 = arg z1 + arg z2 .
(2.19)
Ciò vuol dire che la moltiplicazione per un numero complesso z di modulo ρ = |z| ed argo-
mento ϕ = arg z equivale ad una rotazione di un angolo ϕ, e ad un riscalamento omogeneo
di un fattore ρ (una dilatazione se ρ > 1, una contrazione se ρ < 1). In particolare, i numeri
complessi di modulo 1 (e quindi della forma cos ϕ + i sin ϕ) corrispondono a rotazioni (di un
angolo ϕ) intorno all’origine del piano complesso.
Applichiamo ora quanto detto alle potenze di z = ρ(cos ϕ + i sin ϕ). Dalla (2.18), ponendo
z1 = z2 = z, abbiamo:
z2 = ρ2 (cos 2ϕ + i sin 2ϕ);
86
(2.20)
Alberto Berretti
Analisi Matematica I
è altresí evidente che possiamo continuare ad iterare l’applicazione della (2.18), ottenendo
dunque la formula generale per la potenza n-esima di un numero complesso in forma polare:
zn = ρn (cos nϕ + i sin nϕ).
(2.21)
Le formule (2.18)-(2.21) prendono il nome di formule di De Moivre, dal nome del matematico
francese Abraham De Moivre (1667-1754) che le introdusse.
Tali formule sono intimamente legate alla definizione di prodotto di due numeri complessi (2.6).
Infatti, la somiglianza fra la (2.6) e le formule di somma di coseno e seno dovrebbe saltare agli occhi.
L’importante significato geometrico della moltiplicazione tra numeri complessi giustifica la scelta
della definizione della moltiplicazione tra numeri complessi che è stata fatta.
Esercizio 8. Calcolare le sequenti espressioni complesse:
(1 + 2i)2 − (1 − i)3
,
(3 + 2i)3 − (2 + i)2
√
2. (−1 + 3i)60 ,
1.
3. (2 − 2i)7 ,
√
4. ( 3 − 3i)6 ,
√ !40
1 + 3i
5.
,
1−i
6.
7.
8.
1−i 8
,
1+i
(1 + i)9
,
(1 − i)7
(1 + i)(3 − 3i)
.
√
√
( 2 + 6i)5
2.2. Numeri complessi ed equazioni algebriche
Abbiamo accennato precedentemente al fatto che, nei complessi C, è possibile calcolare
radici quadrate di numeri negativi. Approfondiamo ora tale idea, discutendo il significato
geometrico delle radici in C e discutendo la natura delle soluzioni delle equazioni algebriche,
in particolare di secondo e terzo grado.
87
Alberto Berretti
Analisi Matematica I
2.2.1. Radici di numeri complessi
Una radice n-esima di un numero complesso z è un numero complesso w tale che wn = z.
Per calcolare – e contare! – le radici n-esime di un numero complesso utilizziamo le formule
di De Moivre che abbiamo visto nel paragrafo precedente.
Il caso della radice quadrata
Per capire meglio i concetti, cominciamo con il caso, facile, delle radici quadrate.
Sia z = ρ(cos ϕ + i sin ϕ) e w = σ(cos θ + i sin θ), e ricordiamoci che deve essere w2 = z.
Quindi, per De Moivre:


2


σ = ρ,



2θ = ϕ.
(2.22)
Ma ricordiamoci che nella prima delle (2.22) sia σ che ρ sono ≥ 0, e soprattutto che θ, ϕ
sono angoli, quindi l’identità (2.22) vale a meno di un multiplo qualsiasi di 2π; in altri termini, la
seconda delle (2.22) va interpretata nel modo seguente:
∃k ∈ Z : 2θ = ϕ + 2kπ;
(2.23)
qualsiasi θ che soddisfa la (2.23) va bene. D’altra parte, dalla (2.23) si ricava immediatamente:
θ=
ϕ
+ kϕ,
2
(2.24)
k ∈ Z.
Ora, è cruciale osservare quanto segue. Mentre tutti gli angoli ϕ = 2kπ sono equivalenti (cioè
corrispondono al medesimo punto sul piano complesso), le loro metà non lo sono piú: infatti gli
angoli ϕ/2 + kπ differiscono fra di loro per multipli di π, non di 2π! Quindi quando trattasi di
multipli pari abbiamo angoli equivalenti, mentre quando trattasi di multipli dispari abbiamo
angoli opposti (cioè che differiscono di π).
Quindi a seconda che in (2.24) scegliamo un multiplo pari o dispari di π abbiamo due valori
della radice quadrata di z:

√ ϕ
ϕ


w
=

ρ
cos
+
i
sin
1

2
2

ϕ

√

w2 = ρ cos + π + i sin ϕ + π = − √ρ cos ϕ + i sin ϕ
2
2
2
2
per k pari,
per k dispari,
(2.25)
dove si è fatto uso delle identità trigonometriche per gli angoli che differiscono di π nella
seconda. Quindi ogni numero complesso z , 0 ha due radici distinte ed opposte (che ovviamente
per lo zero sono la medesima radice, e cioè zero).
A rigore, la radice complessa non è una funzione. Infatti il simbolo
√
z indica entrambe le
radici di z, e quindi non essendo univoco non può essere una funzione. Talvolta nell’analisi
88
Alberto Berretti
Analisi Matematica I
complessa si introduce la nozione di funzione a piú valori per indicare tali casi: ma di questo
parleremo molto piú avanti. Inoltre, al contrario che nel caso reale, non è possibile sceglierne
una in modo non eccessivamente arbitrario per la ragione seguente.
√
È opportuno spendere qualche parola sul significato del simbolo . Se sotto radice appare
un numero reale, allora intendiamo la usuale radice quadrata reale di un numero reale,
che esiste solo per valori non negativi del suo argomento e che per convenzione si assume
√
positiva (utilizzando la esplicita menzione del segno − qualora si voglia indicare che serve
la radice negativa). Se invece sotto radice appare un numero complesso, si intende la radice
complessa.
Esempio 28. Ecco alcuni esempi elementari.
•
√
1 = ±1 (visto come numero complesso). Infatti:
|1| = 1,
per cui:
arg 1 = 0 (+2kπ),
√
| 1| = 1,
arg
√
1 = kπ,
e quindi otteniamo +1 o −1 a seconda che k sia pari o dispari.
•
√
−1 = ±i. Infatti:
per cui:
| − 1| = 1,
√
| −1| = 1,
arg(−1) = π (+2kπ),
arg
√
π
−1 = + kπ,
2
e quindi otteniamo +i o −i a seconda che k sia pari o dispari.
•
√
√
i = ±(1 + i)/ 2. Infatti:
per cui:
|i| = 1,
arg i =
√
| i| = 1,
arg
π
(+2kπ),
2
√
π
i = + kπ,
4
√
e cioè il risultato indicato tenendo conto che sin π/4 = cos π/4 = 1/ 2.
•
√
√
−i = ±(−1 + i)/ 2. (Perché. . . ?)
Nella figura 2.3 abbiamo disegnato il numero complesso 2 + 3i e le sue due radici quadrate.
Si osservino gli angoli che corrispondono agli argomenti delle radici e del radicando.
89
Alberto Berretti
Analisi Matematica I
3
2
1
-3
-2
1
-1
2
3
-1
-2
-3
Figura 2.3.: Le radici quadrate di 2 + 3i
Il caso generale
Sia ora z = ρ(cos ϕ + i sin ϕ) e w = σ(cos θ + i sin θ), e ricordiamoci che deve essere wn = z.
Quindi, per De Moivre:


n


σ = ρ,



nθ = ϕ.
(2.26)
Di nuovo, la seconda delle (2.26) vale a meno di multipli di 2π, ovvero va interpretata come:
∃k ∈ Z : nθ = ϕ + 2kπ;
(2.27)
qualsiasi θ che soddisfa la (2.27) va bene. D’altra parte, dalla (2.27) si ricava immediatamente:
θ=
ϕ 2kϕ
+
,
n
n
k ∈ Z.
(2.28)
Quindi, quando k varia fra 0 ed n − 1 otteniamo n angoli distinti:
θ=
ϕ
ϕ 2π
ϕ 2π · (n − 1)
, θ= +
, ..., θ = +
,
n
n
n
n
n
(2.29)
mentre il successivo valore:
ϕ 2π · n ϕ
+
= + 2π
(2.30)
n
n
n
è lo stesso angolo che ϕ/n, cioè il caso n = 0, e così via. Esistono quindi n radici n-esime,
θ=
che differiscono da loro per una fase pari a 2π/n, cioè per un fattore cos 2π/n + i sin 2π/n.
Si osservi che il caso n = 2 dà un fattore cos 2π/2 + i sin 2π/2 = −1, cioè due valori opposti,
come trovato in precedenza e come ben noto dalle scuole inferiori.
90
Alberto Berretti
Analisi Matematica I
Le radici di 1 e −1
Come esempio, determiniamo le radici n-esime di 1 e di −1. Cominciamo dal primo caso.
Abbiamo:
1 = 1 · (cos 0 + i sin 0)1,
(2.31)
cioè - banalmente! - 1 ha modulo 1 ed argomento 0. Quindi la sua radice n-esima deve avere
modulo 1. Inoltre la fase deve essere data da:
θ=
2kπ
,
n
(2.32)
k = Z.
Al variare di k tra 0 e n − 1 abbiamo gli n valori della radice n-esima:
√
2kπ
n
2kπ
1 = cos
+ i sin
,
n
n
k = 0, . . . , n − 1.
(2.33)
Tali valori sono disposti sul piano complesso a formare i vertici di un n-agono regolare,
iscritto al cerchio unitario, un cui vertice è nel punto che corrisponde al numero complesso
1 (perchè 1 è sempre radice n-esima di 1, in quanto 1n = 1 - è il caso k = 0 nella (2.33)).
Ad esempio, le tre radici cubice dell’unità sono date da:
√
√
2π
2π −1 + i 3
2π
2π −1 − i 3
1, cos
+ i sin
=
, cos
− i sin
=
3
3
2
3
3
2
(2.34)
(rispettivamente i casi k = 0, 1, 2 con n = 3 nella (2.33)); le quattro radici quarte dell’unità
sono date da:
1,
cos
π
π
+ i sin = i,
2
2
cos π + i sin π = −1,
cos
3π
3π
+ i sin
= −i.
2
2
(2.35)
In figura 2.4 abbiamo disegnato le radici quarte e quinte di 1.
Nel caso di −1, abbiamo invece:
− 1 = 1 · (cos π + i sin π),
(2.36)
e cioè −1 ha modulo 1 ed argomento π. Quindi la sua radice deve avere argomento 1 ed
argomento dato da:
π 2kπ
+
, k = 0, . . . , n − 1.
(2.37)
n
n
Tali valori sono disposti sul piano complesso a formare i vertici di un n-agono regolare,
θ=
iscritto al cerchio unitario, un cui vertice è nel punto che corrisponde al numero complesso
cos πn + i sin πn (il caso k = 0 nella (2.37).
Ad esempio, le radici cubiche di −1 sono date da:
√
π 1+i 3
3π
3π
π
, cos
+ i sin
= −1,
cos + i sin =
3
n
2
3
3
91
√
5π
5π 1 − i 3
cos
+ i sin
=
; (2.38)
3
3
2
Alberto Berretti
-1.0
Analisi Matematica I
1.0
1.0
0.5
0.5
0.5
-0.5
1.0
-1.0
0.5
-0.5
-0.5
-0.5
-1.0
-1.0
(a) Radici quarte di 1
1.0
(b) Radici quinte di 1
Figura 2.4.: Radici pari e dispari di 1
le quattro radici quarte di −1 sono date da:
cos
π
π 1+i
+ i sin = √ ,
4
4
2
3π
3π −1 + i
+ i sin
= √ ,
4
4
2
5π
5π −1 − i
cos
+ i sin
= √ ,
4
4
2
cos
cos
7π
7π 1 − i
+ i sin
= √ . (2.39)
4
4
2
In figura 2.5 abbiamo disegnato le radici quarte e quinte di −1.
Esercizio 9. Disegnare sul piano complesso le radici terze e quarte di 1 e −1 che abbiamo
appena calcolato. Calcolare le radici seste di 1 e −1 e disegnarle sul piano complesso.
Esercizio 10. Calcolare le seguenti espressioni contenenti radici:
√
1. i,
q
√
2.
2 − 2 3i,
3.
4.
5.
6.
7.
√
3
i,
√
3
i − 1,
√
4
−i,
√
4
1 − i,
q
5 √
3 + i.
92
Alberto Berretti
-1.0
Analisi Matematica I
1.0
1.0
0.5
0.5
0.5
-0.5
1.0
-1.0
0.5
-0.5
-0.5
-0.5
-1.0
-1.0
(a) Radici quarte di −1
1.0
(b) Radici quinte di −1
Figura 2.5.: Radici pari e dispari di −1
2.2.2. Equazioni algebriche
L’introduzione dei numeri complessi permette non solo di calcolare radici che nell’ambito
dei numeri reali non esistevano, ma permette di affermare l’importante teorema seguente.
Teorema 4 (Teorema fondamentale dell’algebra). Ogni equazione algebrica possiede almeno una
soluzione in C.
La dimostrazione di questo teorema, per quanto semplice, presuppone nozioni di teoria
delle funzioni di variabile complessa tali che una sua dimostrazione sarà possibile solo molto
piú avanti.
Il teorema afferma, dunque, che qualsiasi equazione algebrica, di qualsiasi grado, con
coefficienti qualsiasi:
P(z) = 0
dove P(z) è un polinomio qualsiasi
(2.40)
ammette una soluzione z1 :
P(z1 ) = 0.
(2.41)
Sia n il grado del polinomio P(z). utilizzando un’elementare principio di fattorizzazione dei
polinomi – noto dalle scuole superiori come “regola di Ruffini” (Paolo Ruffini, 1765-1822) –
possiamo dunque dividere P(z) per il binomio z − z1 senza resto ed ottenere dunque:
P(z) = (z − z1 )Q(z) = 0,
93
(2.42)
Alberto Berretti
Analisi Matematica I
dove Q(z) è un polinomio di grado n − 1. Questo a sua volta avrà una soluzione z2 che
ovviamente per la (2.42) è anche soluzione di P(z) = 0; Q(z) quindi a sua volta sarà divisibile
per z−z2 generando un nuovo polinomio di grado n−2 a cui applichiamo di nuovo il teorema
fondamentale dell’algebra, e cosí via finché possiamo dividere, cioè n volte. Otteniamo cosí
che una equazione algebrica di grado n possiede n soluzioni, che però ovviamente possono
essere in tutto o in parte coincidenti.
Non possiamo dire altro per ora sulle soluzioni di una equazione algebrica qualsiasi a
coefficienti complessi. Possiamo dire qualcosa di piú nel caso in cui i suoi coefficienti siano
reali. Osserviamo innanzitutto che, se z0 è una soluzione di P(z) = 0, allora il suo complesso
coniugato z0 è una soluzione dell’equazione P(z) = 0, cioè dell’equazione algebrica ottenuta
con il polinomio che ha per coefficienti i complessi coniugati dei corrispondenti coefficienti
di P:
P(z) =
n
X
j=0
a j z j ⇒ P(z) =
n
X
a jz j,
j=0
(2.43)
P(z0 ) = 0 ⇒ 0 = P(z0 ) = P(z0 );
tenendo conto che il complesso coniugato della somma è la somma dei complessi coniugati,
che il complesso coniugato del prodotto è il prodotto dei complessi coniugati e che il complesso coniugato della potenza è la potenza del complesso coniugato, si tratta di un fatto
assolutamente ovvio. Ora, se il polinomio P(z) ha coefficienti reali, allora P = P e quindi
abbiamo che se z0 è la soluzione di una equazione algebrica a coefficienti reali, allora anche
z0 è soluzione della medesima equazione. I casi possibili sono allora due: (i) z0 è reale, e
allora z0 = z0 e non abbiamo in realtà un’altra soluzione, (ii) z0 non è reale, ed allora abbiamo
un’altra soluzione dell’equazione, complessa coniugata della prima.
In altri termini, le soluzioni di una equazione algebrica a coefficienti reali sono o reali, o coppie di
soluzioni complesse coniugate.
L’equazione di secondo grado
Richiamiamo ora la soluzione dell’equazione di secondo grado:
ax2 + bx + c = 0.
Come è ben noto fin dall’inizio delle scuole superiori, le sue soluzioni sono date da:
√
−b ± b2 − 4ac
x1,2 =
.
2a
Infatti, “completando il quadrato” otteniamo:
!
!2
b2
b
b2
b2 − 4ac
b
2
·x+ 2 +c−
=a x+
= 0,
−
a x +2·
2a
4a
2a
4a
4a
94
(2.44)
(2.45)
Alberto Berretti
Analisi Matematica I
da cui otteniamo banalmente la (2.45) risolvendo rispetto ad x.
Immaginiamo ora che i coefficienti siano reali. Pertanto se ∆ = b2 − 4ac, detto discrimi-
nante dell’eqazione, è positivo, abbiamo due radici soluzioni distinte, se ∆ è nullo abbiamo
due soluzioni reali coincidenti, mentre se ∆ è negativo abbiamo due soluzioni complesse coniugate. Se i coefficienti sono complessi, le soluzioni sono in generale complesse e possiamo
solo dire che se ∆ = 0 le due soluzioni coincidono.
L’equazione di terzo grado: le formule di Cardano
È abbastanza elementare ricavare la formula che risolve l’equazione di terzo grado:
ax3 + bx2 + cx + d = 0.
(2.46)
Poiché a , 0 (altrimenti l’equazione sarebbe di secondo grado!) possiamo sempre dividere
ambo i membri dell’equazione per a e cosí ricondurci al caso a = 1, cosa che d’ora in poi
assumeremo. Inoltre, mediante la sostituzione:
x = y−
b
3
(2.47)
è possibile cancellare il termine di secondo grado, ottenendo, a calcoli svolti, l’equazione:
!
2b3 bc
b2
3
y+
−
+ d = 0.
y + c−
3
27
3
Possiamo quindi considerare equazioni cubiche della forma:
y3 + py + q = 0
(2.48)
senza perdere in generalità, perché a detto caso ci si può sempre ricondurre con semplici
sostituzioni.
La cubica (2.48) può essere risolta in modo assai semplice riconducendola ad un sistema
simmetrico di due equazioni in due variabili nel modo seguente. Poniamo:
y = u + v,
(2.49)
y3 = u3 + 3u2 v + 3uv2 + v3 = u3 + v3 + 3uv(u + v) = u3 + v3 + 3uvy.
(2.50)
da cui otteniamo immediatamente:
Sostituendo nella (2.48) otteniamo:
u3 + v3 + (3uv + p)y + q = 0.
95
(2.51)
Alberto Berretti
Analisi Matematica I
A questo punto utilizziamo la libertà di avere a disposizione le due variabili ausiliarie u e v
per realizzare che tale equazione sarà risolta se u, v soddisfano:


3
3


u + v = −q,



uv = − p ,
(2.52)
3
ed elevando alla terza potenza la seconda equazione del sistema precedente otteniamo infine
il sistema simmetrico nelle due incognite u3 , v3 :


3
3


u + v = −q,

3


u3 v3 = − p ,
(2.53)
27
che può essere risolto in modo elementare, riconducendolo alla soluzione di una equazione
di secondo grado. Infatti, poiché u3 e v3 devono avere per somma −q e per prodotto −p3 /27,
come è ben noto sono le due radici dell’equazione di secondo grado:
p3
= 0,
(2.54)
27
detta risolvente della cubica (2.48). Risolvendola e prendendo le radici cubiche delle soluzioni
z2 + qz −
abbiamo quindi:
s
3
y= u+v =
q
− +
2
r
s
q2 p3
+
+
4
27
3
q
− −
2
r
q2 p3
+ .
4
27
(2.55)
Le formule cosí ottenute prendono il nome di formule di Cardano, dal nome del matematico
italiano Girolamo Cardano (1501-1576) che per primo le pubblicò nel 1545, anche se in realtà
sono dovute a Scipione del Ferro (1465-1526), di cui non sono pervenute opere scritte.
Il problema, a parte la discussione del discriminante della risolvente q2 /4 + p3 /27, è il
fatto che ora sappiamo che una radice cubica ha tre valori possibili, e che quindi nella (2.55)
scegliendo in tutti i modi possibili i tre valori abbiamo nove soluzioni, un po’ troppe per una
equazione di terzo grado! Assumendo ora che il caso che ci interessa è quello dell’equazione a
coefficienti reali, discutiamo dunque il segno del discriminante q2 /4 + p3 /27 e, tenendo conto
della seconda delle (2.52), vediamo come dobbiamo scegliere le radici cubiche in modo tale
che u · v = −p/3 sia reale.
√
√
Sia ε = cos(2π/3) + i sin(2π/3) = (−1 + i 3)/2, cosí che 1, ε e ε2 = (−1 − i 3)/2 sono le tre
radici cubiche di 1. Osserviamo che ε2 = ε. Consideriamo i tre casi possibili.
[1] Il discriminante è positivo: q2 /4 + p3 /27 > 0. Allora otteniamo per u3 e v3 due valori reali
e distinti, e quindi:
r

q

3

q2
q
p3


u
=
u
=
−
+
+
, u = u1 = εu0 , u = u2 = ε2 u0 ,

0
2
4
27

r

q


3
3
2


 v = v0 = − q − q + p , v = v1 = εv0 , v = v2 = ε2 v0 .
2
4
27
96
(2.56)
Alberto Berretti
Analisi Matematica I
Otteniamo valori reali di uv (anzi, lo stesso valore reale di uv, e cioè −p/3!) solo se combiniamo
u e v in uno dei tre modi seguenti: u0 v0 , u1 v2 e u2 v1 (dove ovviamente teniamo conto che
ε3 = 1!). Quindi le tre soluzioni dell’equazione di terzo grado sono:




y1 = u0 + v0 ,






y2 = u1 + v2 ,






 y3 = u2 + v1 .
(2.57)
Si verifica immediatamente che y1 è reale e y2 , y3 sono complesse coniugate.
[2] Il discriminante è nullo: q2 /4 + p3 /27 = 0. La discussione è identica alla precedente, solo
che ora u j = v j . Pertanto y2 = y3 , e l’unico modo per cui due numeri complessi coniugati tra
loro siano uguali è che siano reali. Pertanto in tal caso abbiamo una radice reale e due radici
reali coincidenti. (È banale verificare che le radici sono tutte e tre uguali solo se p = q = 0 e
pertanto y1 = y2 = y3 = 0).
[3] Il discriminante è negativo: q2 /4+p3 /27 < 0. In tal caso u3 , v3 sono due numeri complessi,
coniugati fra loro. Anche le loro radici cubiche, dunque, sono numeri complessi coniugati fra loro:


2

 u = u0 = α + iβ, u = u1 = εu0 , u = u2 = ε u0 ,
(2.58)


 v = v0 = α − iβ, v = v1 = εv0 , v = v2 = ε2 v0 ,
dove α, β sono numeri reali. Di nuovo, gli unici modi in cui possiamo combinarli per ottenere
sempre lo stesso valore reale di uv = −p/3 sono u0 v0 , u1 v2 e u2 v1 (in quanto il prodotto dei due
numeri complessi coniugati è reale e ε3 = 1). Ma come sono le tre soluzioni corrispondenti
y1 , y2 e y3 ? Abbiamo:




y1 = u0 + v0 = 2α ∈ R,






y2 = u1 + v2 = ε(α + iβ) + ε2 (α − iβ) ∈ R,






 y3 = u2 + v1 = ε2 (α + iβ) + ε(α − iβ) ∈ R,
(2.59)
dove abbiamo utilizzato il fatto che ε2 = ε e che la somma di due numeri complessi coniugati
è reale. Dunque in questo caso le tre soluzioni sono reali e distinte!. Osserviamo che è proprio
nel caso in cui il discriminante è negativo, per cui è impossibile risolvere l’equazione di terzo
grado senza passare per i numeri complessi, che le tre soluzioni sono reali e distinte. Per
questa ragione il caso del discriminante negativo per l’equazione di terzo grado fu detto da Cardano
casus irriducibilis e sostanzialmente portò all’introduzione dei numeri complessi.
Esercizio 11. Risolvere le seguenti equazioni di terzo grado utilizzando le formule di
Cardano:
97
Alberto Berretti
Analisi Matematica I
1. x3 − 4x2 − 22x + 52 = 0,
2. 27x3 + 54x2 − 45x + 8 = 0,
3. 2x3 − 10x2 + 15x − 9 = 0.
Nel seguito non faremo praticamente mai uso delle formule di Cardano, in quando ogni
volta che ci capirerà un’equazione di terzo grado, faremo in modo che sia una equazione risolubile in modo “semplice”, riconducendoci ad un’equazione di grado inferiore o calcolando
immediatamente una radice.
2.2.3. Esercizi di ricapitolazione sulle equazioni nel campo complesso
Quando si tratta di risolvere un’equazione nel campo complesso, occorre ricordare che
l’uguaglianza tra due numeri complessi equivale a due uguaglianze fra numeri reali, ad es.
la parte reale e la parte immaginaria. Siano dunque L e R due espressioni complesse nella
variabile complessa z = x + iy, dove ovviamente x, y ∈ R. Allora:
L = R ⇔ Re L = Re R,
Im L = Im R,
L, R ∈ C.
Quindi una equazione nel campo complesso equivale ad un sistema di due equazioni reali
in due incognite reali x e y. Questo modo di procedere però non porta necessariamente alla
soluzione del problema nel modo piú semplice.
In alcuni casi ad es. invece che uguagliare le parti reale ed immaginaria del lato destro
e sinistro dell’equazione conviene uguagliare il modulo dei due lati dell’equazione, e poi
considerare che gli argomenti dei due lati devono essere uguali, a meno di multipli di 2π:
L = R ⇔ |L| = |R|,
Arg(L) = Arg(R) + 2kπ,
L, R ∈ C, k ∈ Z.
A volte è immediato ricavare l’argomento dell’incognita (ad es. ricavare che l’incognita è
reale, o è immaginaria pura), ed in questo caso il problema si semplifica immediatamente,
perché resta solo da determinare l’argomento.
Esercizio 12. Risolvere le seguenti equazioni di secondo grado:
1. z2 + 4z + 5 = 0,
2. z2 + 2iz + 3 = 0,
3. z2 − 2z + 1 − i = 0,
4. z2 − 2z −
√
3i = 0,
98
Alberto Berretti
Analisi Matematica I
√
5. z2 + 2(2 3 + i)z + 7.
In queste equazioni basta usare ovviamente la semplice formula per la soluzione dell’equazione di secondo grado.
Esercizio 13. Risolvere le seguenti equazioni di grado superiore:
1. z3 + 1 = 0,
2. z3 + z2 + z + 1 = 0,
3. z4 − 4z2 + 8 = 0,
4. z4 − 2iz2 − 2 = 0,
2z + 1 4
5.
= 1,
2z − 1
6. z5 − 1 = 0,
7. (z + 1)5 − (z − 1)5 = 0,
8. z6 + 27 = 0,
1+i
.
9. z8 = √
3−i
In queste equazioni è sufficiente utilizzare i normali “trucchi” per la soluzione di equazioni
di grado superiore al secondo che vengono utilizzati anche per le equazioni reali (astute
fattorizzazioni, equazioni reciproche, biquadratiche, etc.).
Esercizio 14. Risolvere le seguenti equazioni complesse non algebriche:
1. z4 − z2 (|z|2 + 4i) + 4i|z2 | = 0,
2. z4 − z2 (|z|2 − 9i) − 9i|z2 | = 0,
3. z2 − i = |z|2 + Re(z),
4. z2 |z2 | = 16i,
5. z2 |z2 | = −81i,
6.
z2
i
= ,
2
5
1 + |z|
7. z2 (1 + |z2 |) = 2i,
8. z4 = |z2 |2 ,
99
Alberto Berretti
Analisi Matematica I
9. z2 + |z|2 = 2iz̄,
10. z2 − |z|2 = 2z̄,
11. z|z2 | = 8i,
12. z|z| = 2 + 2i.
Queste equazioni invece non sono rappresentate da espressioni “algebriche”, cioè espressioni che contengono solo le quattro operazioni, potenze e radici; abbiamo infatti moduli, parti
reali ed immaginarie, complessi coniugati. Le equazioni vanno risolte pertanto riconducendosi a parte reale ed immaginaria, a modulo ed argomento e, in alcuni casi, l’argomento
dell’incognita è evidente.
2.3. Trasformazioni del piano complesso
Consideriamo ora una funzione di variabile complessa a valori complessi f : C 7→ C. Tale
funzione può essere interpretata – se il dominio è l’intero piano complesso C eccetto al
massimo qualche punto – come una trasformazione del piano complesso, cioè come una
specie di “deformazione” che “sposta” i punti del piano complesso. Ad es. la funzione
f (z) = −z riflette i punti sul piano rispetto all’origine, mentre la funzione f (z) = z, cambiando
segno alla sola coordinata y, riflette i punti del piano complesso rispetto all’asse reale. Questo
modo di vedere “geometricamente” le funzioni di una variabile complessa è molto utile e
verrà utilizzato in corsi successivi.
Esercizio 15. Quale funzione riflette i punti del piano complesso rispetto all’asse immaginario?
Noi considereremo solo alcune semplicissime trasformazioni del piano complesso, in quanto si tratta di un argomento in realtà abbastanza avanzato e piuttosto profondo che verrà
trattato alla fine dei corsi di analisi.
2.3.1. Trasformazioni lineari
Le trasformazioni lineari del piano complesso sono quelle date da funzioni del tipo:
f (z) = az + b,
a, b ∈ C.
(2.60)
È importante osservare che queste non sono le piú generali trasformazioni lineari del piano, ma
solo quelle realizzate mediante operazioni algebriche sui numeri complessi visti come punti
del piano.
100
Alberto Berretti
Analisi Matematica I
Se a = 0, abbiamo una traslazione: il punto rappresentato dal numero complesso z si
sposta nel punto z + b. Se poniamo b = b′ + ib′′ , allora le coordinate che rappresentano z
vengono incrementate rispettivamente di b′ e b′′ .
Se b = 0 e a ∈ R, allora entrambe le coordinate di ciascun punto vengono moltiplicate per
un fattore a: chiaramente se 0 < a < 1 si tratta di una contrazione, se a > 1 si tratta di una
espansione, se a = 1 non cambia nulla, se a = 0 tutti i punti vengono mandati nell’origine (e
non abbiamo dunque una “buona” trasformazione del piano. . . ) mentre se a < 0 la nostra
trasformazione è la composta di z 7→ −z e di z 7→ (−a)z con −a > 0, cioè la composta di una
dilatazione o espansione composta con una riflessione.
Sia ora b = 0, a ∈ C, |a| = 1. In tal caso a = cos θ + i sin θ e quindi la moltiplicazione per a,
per la formula di De Moivre, rappresenta una rotazione di un angolo θ nel piano complesso.
Il caso generale az+b può essere ricondotto alla composizione dei casi precedenti, ponendo
a = |a| · (cos arg a + i sin arg a) e dunque alla composizione di una traslazione – determinata
da b –, di una dilatazione – determinata da |a| – e di una rotazione – determinata da arg a.
2.3.2. Trasformazioni lineari-frazionarie
Le trasformazioni lineari-frazionarie sono le trasformazioni del piano complesso realizzate da funzioni della forma:
f (z) =
az + b
,
cz + d
(2.61)
dove ad − bc , 0 (altrimenti la frazione si semplificherebbe in una costante in quanto
numeratore e denominatore sarebbero proporzionali).
L’inversa di una trasformazione lineare-frazionaria è ancora lineare-frazionaria ed è molto
facile da calcolare. Infatti, ponendo ζ = (az + b)/(cz + d), abbiamo:
czζ + dζ = az + b,
(2.62)
(cζ − a)z = −dζ + b,
(2.63)
da cui:
e quindi:
z=
−dζ + b
.
cζ − a
(2.64)
Si osservi che se ad = bc allora è impossibile passare dalla (2.63) alla (2.64) perché sparisce ζ
dalla (2.63)!
Tali trasformazioni sono importanti per una quantità di ragioni, tra cui la seguente.
Teorema 5. L’insieme di tutte le rette e di tutti i cerchi nel piano complesso è trasformato nell’insieme
di tutte le rette e di tutti i cerchi sotto l’azione di una trasformazione lineare-frazionaria.
101
Alberto Berretti
Analisi Matematica I
In altri termini, data una retta o un cerchio qualsiasi nel piano complesso, se facciamo
agire su di esso una trasformazione lineare frazionaria, otterremo di nuovo o una retta o un
cerchio.
Dimostrazione. Dobbiamo innanzitutto scrivere l’equazione generale della retta e del cerchio
nel piano complesso, cioè usando non le coordinate x, y ma la “coordinata complessa” z.
Una retta nel piano complesso può essere scritta come:
βz + βz + γ = 0,
(2.65)
dove β = β′ + iβ′′ ∈ C e γ ∈ R. Infatti βz + βz = 2 Re(βz) = 2β′ x − 2β′′ y e quindi abbiamo
proprio l’equazione di una retta. L’equazione in un cerchio in C invece è data da:
αzz + βz + βz + γ = 0,
(2.66)
dove α, γ ∈ R e β ∈ C; basta infatti tenere conto che zz = |z|2 = x2 + y2 . Ora, osserviamo che
la (2.66) è piú generale della (2.65), che altro non è che il caso a = 0 della (2.66). Quindi per
dimostrare l’asserto basta dimostrare che qualsiasi curva sul piano complesso di equazione
(2.66) diventa, dopo l’applicazione di una trasformazione lineare-frazionaria, una curva del
medesimo tipo, con altri coefficienti.
Poniamo allora:
az + b
,
(2.67)
cz + d
la cui inversa è data dalla (2.64). Sostituendo dunque la (2.64) nella (2.66) otteniamo:
ζ=
−dζ + b
αzz + βz + βz + γ = α
cζ − a
!
!
!
−dζ + b
−dζ + b
−dζ + b
+β
+γ=0⇒
+β
cζ − a
cζ − a
cζ − a
⇒ α(−dζ + b)(−dζ + b) + β(−dζ + b)(cζ − a) + β(−dζ + b)(cζ − a) + γ(cζ − a)(cζ − a) =
= α̃ζζ + β̃ζ + β̃ζ + γ̃ = 0, (2.68)
dove:




α̃ = d2 α − βcd − bcd − γcc ∈ R,






β̃ = −αdb + βda + βcc − γca ∈ C,






γ̃ = αbb − βba − βba + γaa ∈ R.
(2.69)
Abbiamo dunque ottenuto che nella nuova variabile ζ, l’equazione del luogo geometrico ottenuta
è ancora l’equazione di una retta o di un cerchio, a seconda che α̃ = 0 o meno.
Ovviamente non è detto un cerchio si trasformi in cerchio ed una retta si trasformi in retta:
abbiamo solo ottenuto che una l’insieme di tutte le rette e cerchi si trasforma nell’insieme di
tutte le rette e cerchi, con possibili “scambi”.
102
Alberto Berretti
Analisi Matematica I
Esercizio 16. In cosa si trasformano gli assi coordinati nel piano complesso:
Im(z) = 0,
Re(z) = 0
sotto l’effetto della trasformazione ζ = 1/z?
Esercizio 17. Determinare in cosa si trasforma l’asse reale sotto l’azione della trasformazione:
ζ=
z+i
.
z−i
(2.70)
Esercizio 18. Determinare in cosa si trasforma l’asse immaginario sotto l’azione della trasformazione:
ζ=
z+1
.
z−1
(2.71)
Esercizio 19. Determinare in cosa si trasforma il cerchio unitario |z| = 1 sotto l’azione della
trasformazione (2.71).
2.3.3. Altre trasformazioni del piano complesso
Lo studio delle proprietà geometriche di altre trasformazioni del piano complesso, sia pure
restringendosi alle semplici operazioni viste fino ad ora (potenze, radici) è relativamente
complicato, anche se risulta molto utile in una quantità di problemi pure legati ad applicazioni
concrete dell’Analisi Matematica, ad es. nei problemi di elettrostatica nel piano. Pertanto il
loro studio viene rimandato alla fine dei corsi di Analisi Matematica.
103
3. Limiti e funzioni continue
3.1. La nozione di limite
In questo capitolo iniziamo ad occuparci dei concetti fondamentali dell’analisi matematica,
introducendo la nozione di limite e quella di continuità di una funzione di variabile reale.
È utile iniziare spiegando con molta calma le definizioni che verranno fatte, in modo che
esse appaiano come qualcosa di naturale. Le definizioni di limite sono infatti definizioni di
carattere “tecnico”, che possono apparire inutilmente complicate ed astruse in prima lettura:
occorre quindi arrivarci lentamente, in modo da capirne le motivazioni.
Ci siamo spesso imbattuti, discutendo l’andamento di una funzione, in affermazioni del
tipo “se x diventa grande, tanto grande, grande quanto ci pare, allora f (x‘) diventa arbitrariamente vicina a l”, oppure ”se x diventa vicino a x0 , tanto vicino quanto ci pare, allora f (x)
diventa arbitrariamente grande”, “al variare di x in un intervallo f (x) varia senza fare salti”
e cosí via. Si tratta ovviamente di affermazioni qualitative, in quanto in matematica (ma non
solo! anche in fisica. . . ) “grande” e “piccolo” non vogliono dire nulla come concetti assoluti:
solo “più grande di” e “più piccolo di” vogliono dire qualcosa.
È necessario dunque dare un senso matematicamente solido ad affermazioni – altrimenti
puramente euristiche – del tipo di quelle fatte sopra.
3.1.1. Definizione matematica di limite
Consideriamo la successione cn = 1/n, e chiediamoci “a cosa si avvicina cn quando n cresce
sempre di piú?” Ora, è piuttosto evidente che man mano n cresce senza limite alcuno, i valori
di cn diminuiranno sempre di piú. Fino a quanto? è abbastanza evidente che cn diventerà
arbitrariamente vicino a 0 man mano che n cresce, ma questo modo di esprimersi rientra
ancora nel linguaggio comune e non nel linguaggio rigoroso della matematica.
Un modo piú preciso per dirlo è il seguente: possiamo rendere cn vicino a 0 quanto vogliamo
purché prendiamo n sufficientemente grande. Perché questo è un modo piú preciso per dirlo?
perché le affermazioni di “vicinanza” e “grandezza”, altrimenti totalmente relative, ora sono
opportunamente precisate da “quanto vogliamo” e “sufficientemente”. In altri termini,
l’affermazione che “cn si avvicina a 0 man mano che n cresce” può essere formulata in modo
(quasi) rigoroso dicendo la cosa seguente:
104
Alberto Berretti
Analisi Matematica I
Posso avere cn distante da 0 meno di un numero positivo ε qualsiasi, purché
io prenda n piú grande di un certo N.
Ovviamente l’N che deve essere superato da n affinché cn sia distante da 0 meno di ε
dipenderà da ε stesso: piú piccolo è l’ε scelto, piú grande sarà, tipicamente, N. Nel caso
specifico della successione da noi considerata, basta che n sia maggiore di 1/ε affinché cn sia
compreso tra 0 e ε, per cui possiamo prendere N pari a qualsiasi numero maggiore di 1/ε.
Ciò si può formulare in termini matematici come segue:
Per ogni ε positivo esiste un numero N tale che se n > N allora 0 < cn < ε.
È necessario ora liberarci dall’esempio concreto della specifica successione considerata, e
dare finalmente la definizione formale di limite, prima per una successione (leggermente piú
facile) e poi per una funzione.
Data una successione cn , diremo che:
lim cn = l
n→∞
se:
∀ε > 0
∃N
tale che
n > N ⇒ |cn − l| < ε.
Si osservi che dire che |cn − l| < ε vuol dire affermare che cn dista da l meno di ε (cioè è
“vicino” a l!). Quindi secondo la definizione data, cn tende a l se per possiamo rendere cn
vicino a l quanto vogliamo, cioè distante meno di un ε > 0 arbitrario, purché n sia sufficiente
grande, cioè maggiore di un N che naturalmente dipende da ε.
Si osservi inoltre che lim cn = l non vuol dire né che per qualche n cn = l, né il contrario, e
n→∞
cioè che cn non è mai pari ad l. Il limite di cn può infatti essere o no un valore assunto dalla
successione.
A volte ci interessa dire che una successione cn assume valori arbitrariamente grandi, e positivi, o arbitrariamente grandi, e negativi, man mano che n cresce. A tale scopo introduciamo
le seguenti definizioni.
Data una successione cn , diremo che:
lim cn = +∞
n→∞
se:
∀M > 0 ∃N
tale che
105
n > N ⇒ cn > M.
Alberto Berretti
Analisi Matematica I
Data una successione cn , diremo che:
lim cn = −∞
n→∞
se:
∀M > 0 ∃N
tale che
n > N ⇒ cn < −M.
Cosa ci dicono queste due definizioni? La prima ci dice che possiamo rendere cn arbitrariamente grande, cioè maggiore di un M arbitrariamente scelto, purché si prenda n sufficientemente grande, cioè maggiore di un N che dipende ovviamente da M. La seconda ci
dice che possiamo rendere cn arbitrariamente grande in valore assoluto e negativo, cioè minore
di un numero negativo −M, M > 0 arbitrariamente scelto, purché di nuovo si prenda n
sufficientemente grande, cioè maggiore di un N che dipende ovviamente da M.
Osservazione 1. Lo studente rifletta sul fatti che nelle due definizioni appena date la condizione M > 0 è irrilevante e potrebbe essere omessa: se so già dimostrare che, ad es., cn > 100
quando n > 1000, è evidente allora che sempre per n > 1000 cn è maggiore di qualsiasi
numero negativo! Nel seguito a volte scriveremo esplicitamente la condizione M > 0 perché
ci aiuta a focalizzare la dimostrazione del limite dato nella direzione giusta, ma aggiungerla
non è essenziale.
Affermare che il limite della successione cn è l, pertanto, vuol dire avere a disposizione un
meccanismo, una specie di “scatola nera”, in cui “entra” la “tolleranza” che imponiamo a
cn (quanto ammettiamo che cn possa essere al massimo distante dal valore del limite l), ed
“esce” la condizione che dobbiamo imporre su n affinché la tolleranza desiderata sia ottenuta.
Mutatis mutandis se il limite è ±∞.
Si noti che non ha senso parlare di limite di una successione per n che tende a qualcosa di
diverso da ∞: infatti n, essendo una variabile discreta, non può avvicinarsi ad uno specifico
numero intero n0 : o è uguale a n0 , o dista da n0 al minimo 1.
In modo analogo possiamo definire il limite di una funzione f (x) quando x tende ad un
numero x0 o a ±∞. In tal caso, però, abbiamo una difficoltà aggiuntiva. Quando consideriamo
il limite per x che tende ad un numero reale x0 , allora devono essere chiari i seguenti punti.
Innanzitutto, non c’è alcuna ragione per la quale il numero x0 debba far parte del dominio
della funzione: ad es. se vogliamo prendere il limite per x che tende a 0 della funzione 1/x,
è evidente che si tratta di una richiesta perfettamente legittima anche se x = 0 non fa parte
del dominio della funzione (analogamente, ∞ non è un numero e purtuttavia facciamo il
limite per n → ∞ di una successione!). D’altra parte, è chiaro che se chiedo di fare il limite
106
Alberto Berretti
per x → 2 di una funzione come
Analisi Matematica I
√
1 − x2 , che è definita solo per −1 ≤ x ≤ 1, ci stiamo
ponendo una domanda priva di senso: infatti al punto in cui voglio calcolare il limite, e
cioè 2, non ci posso arrivare arbitrariamente vicino. Pertanto richiederemo che, se vogliamo
definire i limite per x che tende a x0 di una funzione f (x), la funzione f sia definita almeno
in un intervallo I di cui x0 fa parte, o di cui è uno degli estremi pur senza farne parte (ad es.
se f non è definita in x0 ); se invece vogliamo definire il limite per x → +∞ o x → −∞, allora
richiederemo che la funzione f sia definita almeno per un intervallo illimitato della forma
(M, +∞), o rispettivamente (−∞, M).
Piú avanti vedremo che volendo c’è un modo piú preciso e rigoroso di porre una condizione sul
dominio della funzione per poterne definire il limite per x → x0 o x → ±∞, ma non è una condizione
necessaria per la maggior parte delle applicazioni del limite che ci interessano.
Chiarito quanto precede, definiamo i limiti per x → x0 di una funzione, in analogia con
quanto abbiamo fatto per i limiti di successioni.
Nelle seguenti definizioni, come abbiamo appena spiegato, supponiamo che il dominio
della funzione f (x) contenga un insieme del tipo I\{x0 }, cioè un intervallo I da cui abbiamo
tolto il punto x0 , perché, come abbiamo visto, vogliamo poter calcolare il limite di una
funzione anche quando il punto x0 non fa parte del dominio, ma ci possiamo avvicinare
ad esso arbitrariamente rimanendo nel dominio medesimo. Abbiamo allora le seguenti
definizioni.
Diremo che:
lim f (x) = l
x→x0
se:
∀ε > 0 ∃ δ > 0 tale che
0 < |x − x0 | < δ ⇒ | f (x) − l| < ε.
Leggiamo bene cosa abbiamo scritto. Abbiamo scritto che per ogni ε > 0 possiamo avere
f (x) distante da l meno di ε, cioè che possiamo avere f (x) vicino a l quanto ci pare, purché
prendiamo x distante da x0 meno di δ, cioè purché prendiamo x sufficientemente vicino a x0 . A
quale scopo chiediamo |x − x0 | > 0? Lo chiediamo perché dobbiamo imporre che l’x qualsiasi
sufficientemente vicino a x0 non sia x0 , in quanto è possibile che f non sia nemmeno definita
in x0 , e comunque il valore del limite non ha a che fare necessariamente qualcosa con il valore della
funzione qualora questo esista, in generale. Ripetiamo: il fatto che la funzione f sia definita o
meno in x0 è totalmente irrilevante allo scopo di definire il limite di f : non solo f può essere
o non essere definita in x0 , ma nel caso in cui sia definita in x0 il suo valore in tale punto è
107
Alberto Berretti
Analisi Matematica I
totalmente irrilevante allo scopo di sapere quant’è il suo limite (essendo il punto x0 escluso
dall’insieme dei valori di x in cui calcoliamo la f !).
Analogamente abbiamo i limiti infiniti:
Diremo che:
lim f (x) = +∞
x→x0
se:
∀M > 0 ∃ δ > 0 tale che
0 < |x − x0 | < δ ⇒ f (x) > M.
Diremo che:
lim f (x) = −∞
x→x0
se:
∀M > 0 ∃ δ > 0 tale che
0 < |x − x0 | < δ ⇒ f (x) < −M.
Ovviamente dobbiamo definire i limiti quando, come nelle successioni, x tende a ±∞.
Sempre in analogia con quanto abbiamo fatto nelle successioni, abbiamo allora le seguenti
definizioni.
Diremo che:
lim f (x) = l
x→+∞
se:
∀ε > 0
∃L > 0 tale che
x > L ⇒ | f (x) − l| < ε.
Diremo che:
lim f (x) = +∞
x→+∞
se:
∀M > 0 ∃L > 0
tale che
108
x > L ⇒ f (x) > M.
Alberto Berretti
Analisi Matematica I
Diremo che:
lim f (x) = −∞
x→+∞
se:
∀M > 0 ∃L > 0
tale che
x > L ⇒ f (x) < −M.
Diremo che:
lim f (x) = l
x→−∞
se:
∀ε > 0
∃L > 0 tale che
x < −L ⇒ | f (x) − l| < ε.
Diremo che:
lim f (x) = +∞
x→−∞
se:
∀M > 0 ∃L > 0
tale che
x < −L ⇒ f (x) > M.
Diremo che:
lim f (x) = −∞
x→−∞
se:
∀M > 0 ∃L > 0
tale che
x < −L ⇒ f (x) < −M.
Quando abbiamo definito il limite per x → x0 , abbiamo assunto che f sia definita sia a
destra che a sinistra di x0 – ma non necessariamente in x0 , ripetiamolo ancora! –, e abbiamo
richiesto che f si avvicini arbitrariamente a l purché x sia sufficientemente vicino a x0 , senza
specificare da quale lato x debba avvicinarsi a x0 . Ovviamente potrebbe accadere che il limite sia
diverso se x si avvicina ad x0 da un lato o dall’altro, o che il limite esista da un lato ma non
dall’altro. Per questa ragione conviene introdurre il concetto di limite da destra e di limite da
sinistra come segue.
109
Alberto Berretti
Analisi Matematica I
Diremo che:
lim f (x) = l
x→x+0
se:
∀ε > 0 ∃ δ > 0 tale che
0 < x − x0 < δ ⇒ | f (x) − l| < ε.
Diremo che:
lim f (x) = +∞
x→x+0
se:
∀M > 0 ∃ δ > 0 tale che
0 < x − x0 < δ ⇒ f (x) > M.
Diremo che:
lim f (x) = −∞
x→x+0
se:
∀M > 0 ∃ δ > 0 tale che
0 < x − x0 < δ ⇒ f (x) < −M.
Diremo che:
lim f (x) = l
x→x−0
se:
∀ε > 0
∃ δ > 0 tale che
− δ < x − x0 < 0 ⇒ | f (x) − l| < ε.
Diremo che:
lim f (x) = +∞
x→x−0
se:
∀M > 0
∃δ > 0
tale che
− δ < x − x0 < 0 ⇒ f (x) > M.
110
Alberto Berretti
Analisi Matematica I
Diremo che:
lim f (x) = −∞
x→x−0
se:
∀M > 0
∃δ > 0
tale che
− δ < x − x0 < 0 ⇒ f (x) < −M.
La scrittura x → x+0 si legge “x tende a x0 da destra”, mentre l’espressione x → x−0 si legge
“x tende a x0 da sinistra”. Si osservi che invece di scrivere 0 < |x − x0 | < δ possiamo anche
scrivere x0 − δ < x < x0 + δ, x , x0 ; invece di scrivere 0 < x − x0 < δ possiamo scrivere
x0 < x < x0 + δ, ed invece di scrivere −δ < x − x0 < 0 possiamo scrivere x0 − δ < x < x0 .
Infine, a volte ci può far comodo caratterizzare come f (x) – o anche una successione cn –
tende a l: e cioè dire se tende a l per valori maggiori di l, cioè si avvicina ad l dall’alto, o
per valori minori di l, cioè si avvicina ad l dal basso (ovviamente potrebbe non interessarci,
o potrebbe tenderci oscillando). In tal caso scriveremo che il limite è “l+ ” o rispettivamente
“l− ”, e nella definizione sostituiremo la condizione | f (x) − l| < ε – ovvero per le successioni
|cn − l| < ε – con, rispettivamente, le condizioni l < f (x) < l + ε e l − ε < f (x) < l (l < cn < l + ε
e l − ε < cn < l, naturalmente, per le successioni).
Se un limite di successione o di funzione esiste ed è un numero reale l, si dice che è
convergente; nel caso di successioni, si dice che la successione medesima è convergente. Se
il limite ovvero la successione non è convergente si dice che è divergente. Talora si riserva
la parola “divergente” per indicare il fatto che il limite è ±∞, e in caso il limite non esista (nel
senso che non è nemmeno infinito) si dice che la successione (o la funzione) oscilla.
Osservazione 2. Il δ (o lo L) che appare nella definizione di limite dipende in generale da ε
(o da M), cioè ovviamente quanto devo prendere vicino x a x0 se il limite è per x → x0 , quanto
devo prendere grande x se il limite è per x → ±∞, dipende in generale da ε (o da M, se il limite
non è un valore finito ma ±∞). Pertanto potremmo talvolta far notare tale aspetto scrivendo
δε , oppure Lε , e notazioni analoghe per gli altri casi. È importante anche notare che non è
affatto necessario che il valore di δ che dobbiamo determinare per stabilire un certo limite (o
di N se è un limite all’infinito) dipenda in modo ottimale da ε, cioè che per 0 < |x − x0 | < δ valga
| f (x) − l| < ε ma se |x − x0 | > δ no; in altri termini, la condizione 0 < |x − x0 | < δ deve essere
una condizione sufficiente per avere | f (x) − l| < ε, ma non deve essere necessariamente anche
necessaria; se, in parole povere, ho dimostrato che | f (x) − l| < ε quando 0 < |x − x0 | < δ, ho
già dimostrato il limite, ed il fatto che | f (x) − l| < ε anche quando, tanto per fare un esempio,
111
Alberto Berretti
0 < |x − x0 | <
δ
2
Analisi Matematica I
è irrilevante. Questo fatto ritorna utile in pratica, quando vogliamo calcolare
qualche limite direttamente dalla definizione e dobbiamo fare delle stime (maggiorazioni
o minorazioni): queste non dovranno essere ottimali, potranno essere anche molto grezze.
Applicheremo questo principio molte volte nel seguito.
Osservazione 3.
Importante:
Se dico che il limite per x → x0 – ma negli altri casi
la situazione è assolutamente identica – è l, sto dicendo, come abbiamo visto, che posso
prendere f (x) vicino ad l quando voglio purché io prenda x vicino a x0 quanto necessario.
Abbiamo scritto la cosa in modo formale dicendo che ∀ε > 0 ∃δ > 0 tale che 0 < |x − x0 | < δ ⇒
| f (x) − l| < ε; a parole, se prendiamo x , x0 distante a x0 meno di δ, allora f (x) dista da l meno
di ε, ed un tale δ esiste sempre, per ogni ε. Ne segue che se definissi il limite dicendo che ad es.
∀ε > 0 ∃δ > 0 tale che 0 < |x − x0 | < δ ⇒ | f (x) − l| < 2ε, o < 3ε, o < ε/2, o addirittura < ε2 non
cambierebbe assolutamente nulla e la definizione di limite sarebbe la stessa. Infatti, considerata
l’arbitrarietà di ε > 0, se riesco a rendere una determinata quantità minore di 2ε chiunque sia
ε > 0, è evidente che riesco a renderla minore di ε, di ε/2, di ε2 , etc. (è necessario essere ben
convinti di questo fatto e si prega di rifletterci sopra un attimo). Talora si usa l’espressione
“utilizzare l’arbitrarietà di ε” per indicare questa situazione.
Se ad es. scegliendo un certo δ = δε riesco a rendere | f (x) − l| < 2ε purché 0 < |x − x0 | < δε , allora
basta prendere 0 < |x − x0 | < δε/2 per avere | f (x) − l| < 2(ε/2) = ε.
Analogamente se per dimostrare che cn tende a ∞ ricaviamo che ∀M > 0 cn > 2M, o
cn > M/2, o cn > M2 , è la stessa cosa, “per l’arbitrarietà di M”.
Osservazione 4.
Importante:
Il fatto che una successione sia convergente, divergente,
oscillante, ed in caso sia convergente il fatto che converga ad l non cambia se modifichiamo
i primi N elementi della successione, per quanto grande sia N. Infatti nella definizione di
limite appare una proprietà che deve essere valida per n > M, per qualche M; quindi se
modifico i primi N elementi della successione, la proprietà in questione (ad es. |cn − l| < ε)
continua a valere, per n > max{N, M}. Ne segue che, quando enunceremo dei teoremi sui
limiti che dipendono da qualche proprietà della successione, è in realtà sufficiente che tale
proprietà sia valida se n > N, per qualche N, e non che sia realmente valida per ogni n. Talora
in questi casi si dice che la proprietà in questione vale definitivamente (“definitivamente” =
“a partire da un certo valore dell’indice in poi”).
3.2. Proprietà dei limiti
Dopo aver definito il limite, dimostriamo le principali proprietà ed i principali teoremi sui
limiti. Prima di calcolare anche i limiti piú elementari, infatti, dovremo avere a nostra disposizione degli strumenti che ci permettano di ricavare il limite senza dover passare attraverso la
112
Alberto Berretti
Analisi Matematica I
definizione, cioè senza dover trovare ad es. un δ > 0 che dipende da un ε > 0 tale che etc.,
altrimenti non riusciremo a calcolare se non i limiti piú banali a caro prezzo.
3.2.1. Unicità del limite
Se una successione, o una funzione, tende a limite l o ±∞ per n → ∞ o per x → x0 o per
x → ±∞, non può tendere contemporaneamente ad altro limite. Tale affermazione, che sembra
ovvia, va comunque dimostrata. Lo dimostriamo nel caso delle successioni che tendono a
l ∈ R, gli altri casi sono analoghi.
Teorema 6. Se lim cn = l1 e lim cn = l2 , allora l1 = l2 .
n→∞
n→∞
Dimostrazione. La dimostrazione è molto facile. Assumiamo ad es. l1 < l2 , allora ∃ ε > 0 tale
che ε < (l2 − l1 )/2 (minore cioè della metà della distanza tra l1 e l2 ), e quindi l1 + ε < l2 − ε.
Ma ∀ε > 0, quindi anche per questo ε, esistono M1 , M2 tali che se n è maggiore di entrambe
allora:
l1 − ε < cn < l1 + ε < l2 − ε < cn < l2 + ε,
il che implica cn < cn che è assurdo. Il caso l1 > l2 viene escluso in modo identico, per cui i
due limiti non possono che essere uguali.
3.2.2. Teorema della permanenza del segno
Il teorema della permanenza del segno ci dice che se un limite è positivo, o negativo, allora vicino al punto in cui calcoliamo il limite (ovvero per valori grandi dell’indice n della
successione o della variabile x della funzione, se il limite è all’infinito) la funzione avrà il
medesimo segno. Enunciamo il teorema e dimostriamolo nel caso in cui il limite è positivo
(la dimostrazione nel caso in cui il limite è negativo è sostanzialmente identica).
Teorema 7 (Teorema della permanenza del segno). Sia:
lim cn = l > 0.
n→∞
Allora esiste N tale che:
n > N ⇒ cn > 0.
Analogamente, se:
lim f (x) = l > 0 ovvero lim f (x) = l > 0
x→+∞
x→−∞
allora esiste N tale che:
x > N ⇒ f (x) > 0 ovvero x < N ⇒ f (x) > 0.
113
Alberto Berretti
Analisi Matematica I
Nel caso di limiti per x → x0 invece se:
lim f (x) = l > 0,
x→x0
allora esiste δ > 0 tale che:
0 < |x − x0 | < δ ⇒ f (x) > 0.
Dimostrazione. Dimostriamolo esplicitamente solo nel caso del limite di successione e nel
caso di limite di funzione per x → x0 (l’altro caso è simile).
Nel primo caso, abbiamo che:
∀ε > 0 ∃M tale che n > M ⇒ l − ε < cn < l + ε.
Basta quindi prendere ε = l/2 per avere cn > l − l/2 = l/2 > 0 non appena n > M.
Nel secondo caso, abbiamo che:
∀ε > 0 ∃ δ > 0 tale che 0 < |x − x0 | < δ ⇒ l − ε < f (x) < l + ε.
Basta quindi prendere ε = l/2 per avere f (x) > l − l/2 = l/2 > 0 quando 0 < |x − x0 | < δ.
Osservazione 5. Si osservi che se il limite è +∞ invece di l > 0 il teorema continua a valere.
Infatti avremo che cn > L > 0 ovvero f (x) > L > 0 nella dimostrazione invece di cn > l/2 > 0
ovvero f (x) > l/2 > 0.
Osservazione 6. Se cn ammette limite e cn ≥ 0 allora lim cn ≥ 0; se cn > 0 allora lim cn ≥ 0:
n→∞
n→∞
il limite può essere 0; ad es. cn = 1/n > 0 e lim 1/n = 0. In caso contrario sarebbe violato il
teorema della permanenza del segno.
n→∞
Osservazione 7. Se una successione è convergente allora è limitata. Infatti se la successione è
convergente, allora ∀ε ∃M tale che se n > M allora l − ε < cn < l + ε. Prendiamo allora ε = 1, e
sia K1 = min{c0 , . . . , cM }, K2 = max{c0 , . . . , cM }. Quindi ∀n: min{K1 , l − 1} ≤ cn ≤ max{K2 , l + 1}.
Analogamente (ed omettiamo la semplicissima dimostrazione, che può essere ricavata
dallo studente per esercizio) se una successione tende a +∞ allora è limitata inferiormente,
se tende a −∞ allora è limitata superiormente.
Osservazione 8. Al contrario, se una funzione f (x) ammette limite per x → ±∞ non è affatto
detto che sia limitata! Basta ad es. prendere f (x) = 1x : tende a 0 per x → ±∞ ma non è limitata
perché diverge in x → 0.
114
Alberto Berretti
Analisi Matematica I
3.2.3. Teorema del confronto
Enunciamo e dimostriamo il teorema del confronto per le successioni.
Teorema 8 (Teorema del confronto, successioni). Abbiamo:
1. Se an ≤ bn definitivamente e an → +∞, allora anche bn → +∞.
2. Se an ≤ bn definitivamente e bn → −∞, allora anche an → −∞.
3. Se an ≤ bn ≤ cn definitivamente e an , cn → l, allora anche bn → l.
Dimostrazione. Dimostriamo la prima affermazione. Abbiamo che ∀L ∃M tale che n > M ⇒
an > L. Ma se bn ≤ an per n > N, allora n > max{M, N} ⇒ bn > L e quindi anche il limite di bn
è +∞. La dimostrazione della seconda è praticamente identica.
Per quanto riguarda la terza, abbiamo che ∀ε > 0 ∃M tale che se n > M allora l−ε < an < l+ε,
l − ε < cn < l + ε. Ma allora se n > max{N, M} l − ε < an ≤ bn ≤ cn < l + ε, e quindi anche bn
tende a l.
Un teorema assolutamente identico, con ovvie differenze puramente “tecniche”, vale per i
limiti di funzioni. Per semplicità lo enunciamo e lo dimostriamo solo nel caso del limite per
x → x0 , ma la il caso x → ±∞ è praticamente la stessa cosa.
Teorema 9 (Teorema del confronto, funzioni). Siano f (x), g(x), h(x) definite in A = (x0 − η, x0 ) ∪
(x0 , x0 + η) per qualche η > 0. Allora:
1. Se f (x) ≤ g(x) in A e f (x) → +∞ per x → x0 , allora anche g(x) → +∞ per x → x0 .
2. Se f (x) ≤ g(x) in A e g(x) → −∞ per x → x0 , allora anche g(x) → −∞ per x → x0 .
3. Se f (x) ≤ g(x) ≤ h(x) in A e f (x), h(x) → l per x → x0 , allora anche g(x) → l per x → x0 .
Dimostrazione. Anche la dimostrazione è praticamente identica. Per quanto riguarda il primo
caso,∀L ∃ δ > 0 tale che 0 < |x − x0 | < δ ⇒ f (x) > L. Ma se in A g(x) ≥ f (x), allora preso
δ̄ = min{δ, η}, abbiamo che 0 < |x − x0 | < δ̄ ⇒ g(x) ≥ f (x) > L e quindi anche g(x) → +∞. Il
secondo caso è analogo.
Per quanto riguarda il terzo caso, abbiamo che ∀ε > 0 ∃ δ > 0 tale che 0 < |x − x0 | < δ ⇒
l − ε < f (x), h(x) < l + ε, e definendo δ̄ come sopra dunque abbiamo che 0 < |x − x0 | < δ̄ ⇒
l − ε < f (x) ≤ g(x) ≤ h(x) < l + ε, per cui anche g(x) → l.
L’insieme A nelle ipotesi del teorema del confronto per le funzioni gioca il ruolo dell’avverbio “definitivamente” nell’analogo teorema per le successioni.
Il teorema del confronto è uno strumento essenziale per il calcolo dei limiti. È necessario
che lo studente ne abbia ben chiaro sia l’enunciato che la dimostrazione.
115
Alberto Berretti
Analisi Matematica I
3.2.4. Operazioni algebriche sui limiti
Dimostriamo ora il teorema che ci permette di ricondurre il limite della somma, del prodotto,
del quoziente e cosí via ai limiti elementari. Lo enunciamo e dimostriamo nel caso delle
successioni, ma come al solito il teorema vale anche per limiti di funzioni, con una dimostrazione
sostanzialmente identica.
Teorema 10. Per n → ∞:
1. Se α ∈ R, an → l, allora αan → αl.
2. Se α ∈ R, α > 0, an → +∞, allora αan → +∞.
3. Se α ∈ R, α < 0, an → +∞, allora αan → −∞.
4. Se α ∈ R, α > 0, an → −∞, allora αan → −∞.
5. Se α ∈ R, α < 0, an → −∞, allora αan → +∞.
6. Se an → l, bn → m, allora an + bn → l + m.
7. Se an → +∞, bn è limitata dal basso, allora an + bn → +∞.
8. Se an → −∞, bn è limitata dall’alto, allora an + bn → −∞.
9. Se an → 0, bn è limitata, allora an bn → 0.
10. Se an → l, bn → m, allora an bn → lm.
11. Se an → +∞ ed ∃K > 0 tale che definitivamente bn ≥ K, allora an bn → +∞.
12. Se an → +∞ ed ∃K < 0 tale che definitivamente bn ≤ K, allora an bn → −∞.
13. Se an → −∞ ed ∃K > 0 tale che definitivamente bn ≥ K, allora an bn → −∞.
14. Se an → −∞ ed ∃K < 0 tale che definitivamente bn ≤ K, allora an bn → +∞.
15. Se an → 0+ , an , 0, allora
16. Se an → 0− , an , 0, allora
1
an
1
an
17. Se an → l , 0, an , 0, allora
→ +∞.
→ −∞.
1
an
→ 1/l.
18. Se an → l, bn → m , 0, bn , 0, allora
an
bn
→
l
m.
Dimostrazione. Le dimostrazioni di molte delle affermazioni fatte nel teorema sono sostanzialmente identiche e differiscono solo per qualche segno, per cui dimostriamo solo i casi
essenziali. In questa dimostrazione è essenziale ricordarsi dell’osservazione 3, a cui non faremo
riferimento esplicito ogni volta che la usiamo perché la usiamo praticamente in continuazione.
Nel caso 1, abbiamo che se n > M, allora an ∈ (l − ε, l + ε); quindi se α > 0, αan ∈
(αl − αε, αl + αε), se α < 0, αan ∈ (αl + αε, αl − αε), e quindi in entrambe i casi il limite è αl. Se
α = 0, αan = 0 ∀n ed il limite è ovviamente 0 = αl.
Nel caso 2, abbiamo che se n > M, allora an > L; quindi se α > 0, αan > αL ed il limite è
sempre +∞. I casi 3, 4 e 5 sono identici.
Nel caso 6, se n > M1 allora l − ε < an < l + ε e se n > M2 allora m − ε < bn < m + ε;
quindi se n > max{M1 , M2 } sommando membro a membro le due disuguaglianze abbiamo
116
Alberto Berretti
Analisi Matematica I
(l + m) − 2ε < an + bm < (l + m) + 2ε, che per l’arbitrarietà di ε è la tesi (questo modo di
procedere viene talvolta chiamato argomento a due ε per evidenti ragioni).
Nel caso 7, se n > M allora an > L e bn > K, per cui an + bn > L + K e per l’arbitrarietà di L
anche an + bn tende a +∞. Il caso 8 è identico.
Nel caso 9, se n > M allora |an | < ε e |bn | ≤ K, per cui |an bn | < Kε, e per l’arbitrarietà di ε
anche an bn tende a 0.
Nel caso 10, poniamo an bn = ((an − l) + l)bn = (an − l)bn + lbn ; ora, per il punto 6 an − l tende
a 0 mentre bn ammette limite quindi è limitata, per cui per il punto 9 (an − l)bn tende a 0; per
il punto 1 lbn tende a lm, da cui la tesi.
Nel caso 11, se n > M an > L e se n > N bn > K, per cui se n > max{M, N} allora an bn > KL
quindi per l’arbitrarietà di L anche an bn tende a +∞. I casi 12, 13 e 14 sono analoghi.
Nel caso 15, se n > M allora 0 < an < ε per cui
1
an
>
1
ε,
cioè an > L purché ε sia
sufficientemente piccolo. Il caso 16 è analogo.
Nel caso 17, sia bn = an − l, cosí bn → 0. Allora:
|bn |
1 1
an − l = |l||l + bn | .
Ora, il denominatore di quest’ultima frazione tende a l2 , per cui ∃M̄ tale che se n > M̄ allora
|l||bn + l| >
l2
2.
Allora ∀ε > 0 ∃M′ tale che se n > M′ allora |bn | < ε, perché bn → 0. Quindi se
n > max{M̄, M′ } allora:
da cui per l’arbitrarietà di ε la tesi.
2ε
|bn |
< 2,
|l||l + bn |
l
Il caso 18 segue dal caso 10 e dal caso 17.
3.2.5. Sottosuccessioni
Nella seconda parte abbiamo definito cos’è una sottosuccessione. Enunciamo ora un semplicissimo risultato sul limite delle sottosuccessioni di successioni di limite noto. Torneremo
sull’argomento limiti di sottosuccessioni piú avanti in un altro contesto.
Teorema 11. Se lim an = l ∈ R o ±∞, allora ogni sottosuccessione di an tende al medesimo limite.
n→∞
Dimostrazione. Se lim an = l, allora ∀ε > 0 ∃M tale che se n > M allora |an − l| < ε. Sia ank una
n→∞
sottosuccessione di an , nk ր +∞. Allora ∀M > 0 ∃N tale che se n > N allora nk > M. Quindi
∀ε > 0 ∃N tale che se n > N allora nk > M e quindi |ank − l| < ε.
3.2.6. Limite di funzioni composte
Consideriamo ora il limite di funzioni composte. Vale il seguente teorema.
117
Alberto Berretti
Analisi Matematica I
Teorema 12. Sia h(x) = f (g(x)), dove il dominio di f contiene il codominio di g. Sia lim g(x) = y0 ,
x→x0
lim f (y) = l. Assumiamo inoltre che ∃ β > 0 tale che se 0 < |x − x0 | < β allora g(x) , y0 . Allora
y→y0
lim h(x) = l.
x→x0
Dimostrazione. Poiché lim f (y) = l, abbiamo:
y→y0
∀ε ∃ η :
0 < |y − y0 | < η ⇒ | f (y) − l| < ε.
(3.1)
Poiché lim g(x) = y0 , ponendo y = g(x) abbiamo:
x→x0
∀η ∃ δ :
0 < |x − x0 | < δ ⇒ |y − y0 | < η.
(3.2)
Avendo posto y = g(x), dato ε > 0 esiste un η > 0, e per tale η > 0 esiste un δ > 0, tale che
se 0 < |x − x0 | < min(β, δ) allora |y − y0 | < η perché 0 < |x − x0 | < δ, e 0 < |y − y0 | perché
|x − x0 | < β, e quindi | f (y) − l| < ε, e cioè la tesi.
Ci si può chiedere l’origine dell’ipotesi secondo la quale deve esistere β > 0 tale che se
0 < |x − x0 | < β allora g(x) , y0 . Bisogna ricordare che nella (3.1) è richiesto, come deve essere
per la definizione di limite, che sia 0 < |y − y0 | < η, e la (3.2) ci assicura che solo la seconda
disuguaglianza, non la prima (e cioè y , y0 ), e quindi è necessaria un’ipotesi aggiuntiva. Per
capire meglio questo fatto, facciamo un esempio.
Esempio 29. Sia g(x) = 0 identicamente, e sia:




 y se y , 0,
f (y) = 


1 se y = 0.
Allora è evidente che h(x) = f (g(x)) = 1 identicamente, per cui lim h(x) = 1, anche se
x→0
lim g(x) = 0 e lim f (y) = 0, e non 1.
x→0
y→0
Il caso piú semplice, e quello che si manifesta piú frequentemente in pratica, è quello in
cui ∃ β > 0 tale che nell’insieme {0 < |x − x0 | < β} la funzione g(x) è monotona.
Se g(x) è monotona nell’intervallo considerato, allora è anche invertibile. Se prendiamo
f (y) = g−1 (y), abbiamo quindi:
lim g−1 (g(x)) = lim x = x0
x→x0
x→x0
ma per il teorema 12:
lim g−1 (g(x)) = lim g−1 (y),
x→x0
y→y0
per cui:
lim g−1 (y) = x0 .
y→y0
118
Alberto Berretti
Analisi Matematica I
Sottolineiamo infine che il teorema 12 viene spesso utilizzato per calcolare i limiti “per
sostituzione”; in altri termini, dovendo calcolare lim f (x), cerchiamo una funzione g(t), che
x→x0
soddisfi le ipotesi del teorema (e cioè in pratica invertibile dove necessario) tale che, scrivendo
il limite dato come lim f (g(t)), la funzione composta f (g(t)) sia piú semplice della funzione
t→t0
originale f (x).
3.2.7. Successioni e funzioni monotone
In molti casi, l’applicazione della definizione di limite risulta essere in pratica problematica
perchè, per stabilire che una funzione o una successione ha un determinato limite usando la
definizione occorre conoscere il valore del limite medesimo. In molti casi importanti, vogliamo
dimostrare che una successione o una funzione ammette limite, senza che tale limite sia
precedentemente noto. Il caso tipico, che affronteremo fra poco, è quello del numero e,
definito appunto come limite di una successione, la cui esistenza dovrà essere dimostrata
con altri mezzi in quanto non è precedentemente noto il valore del limite stesso.
Uno strumento prezioso da questo punto di vista (ma non l’unico) è il seguente teorema.
Teorema 13. Sia {cn } una successione monotona crescente. Se cn è limitata superiormente allora
∃l ∈ R tale che lim cn = l. Se cn è illimitata superiormente allora lim cn = +∞. Analogamente, se
n→∞
n→∞
{cn } è monotona decrescente e limitata inferiormente allora ammette limite finito mentre se è illimitata
inferiormente allora tende a −∞.
Dimostrazione. Consideriamo prima il caso in cui la successione {cn } è limitata superiormente.
In tal caso allora per la proprietà di completezza dei numeri reali esiste il suo estremo
superiore:
sup cn = l.
Quindi ∀ε > 0 ∃M tale che l − ε < cM ≤ l, altrimenti sup cn sarebbe minore di l. Ma se
l − ε < cM ≤ l allora ∀n > M deve essere ugualmente l − ε < cn ≤ l; infatti essendo la
successione crescente, cn ≥ cM > l − ε, ed essendo l l’estremo superiore della successione
deve essere cn ≤ l. Abbiamo dunque dimostrato che ∀ε > 0 ∃M tale che se n > M allora
l − ε < cn ≤ l, e cioè la tesi.
Sia ora cn illimitata. Dato dunque L > 0 ∃M tale che cM > L. Ma essendo la successione
crescente, ∀n > M cn ≥ cM > L, e quindi la successione tende a +∞ per la definizione di
limite.
La dimostrazione nel caso di successioni decrescenti è analoga.
Il teorema analogo per i limiti di funzioni monotone è analogo, e solo leggermente piú
complesso per ragioni puramente tecniche che a questo punto dovrebbero essere evidenti.
119
Alberto Berretti
Analisi Matematica I
Teorema 14. Consideriamo l’intervallo (a, +∞) e sia la funzione f (x) definita e monotona crescente in
tale intervallo. Se è anche limitata superiormente, allora ∃l ∈ R tale che lim f (x) = l; se è illimitata
x→+∞
superiormente, allora lim f (x) = +∞.
x→+∞
Consideriamo l’intervallo (a, x0 ) e sia la funzione f (x) definita e monotona crescente in tale intervallo. Se è anche limitata superiormente, allora ∃l ∈ R tale che lim+ f (x) = l; se è illimitata
x→x0
superiormente, allora lim+ f (x) = +∞.
x→x0
Risultati analoghi valgono per funzioni monotone decrescenti, per limiti a −∞ e per x → x−0 .
Dimostrazione. La dimostrazione è praticamente identica al caso delle successioni. Se la
funzione è limitata, allora essa ammette estremo superiore l. Ragionando come nel caso delle
successioni, si verifica immediatamente che tale l è proprio il limite. Analogamente nel caso
in cui la funzione è illimitata.
Osservazione 9. Una funzione f monotona in (a, b) è limitata in ogni intervallo [c, d], a < c <
d < b (infatti ∀x ∈ [c, d] f (c) < f (x) < f (d)). Una funzione f monotona crescente nell’intervallo
(a, b) è limitata superiormente in ogni intervallo (a, c] (infatti ∀x ∈ (a, c] f (x) < f (c)), ed è
limitata inferiormente in ogni intervallo [c, b) (infatti ∀x ∈ [c, b) f (c) < f (x)). Una funzione
f monotona decrescente nell’intervallo (a, b) è limitata inferiormente in ogni intervallo (a, c]
(infatti ∀x ∈ (a, c] f (x) > f (c)), ed è limitata superiormente in ogni intervallo [c, b) (infatti
∀x ∈ [c, b) f (x) < f (c)).
3.2.8. Qualche disuguaglianza e alcuni limiti notevoli
Introduciamo ora alcune disuguaglianze che saranno molto utili nel seguito (v. G. H. Hardy,
A Course of Pure Mathematics, Cambridge University Press, p. 143 e seg. e G. H. Hardy, J. E.
Littlewood, G. Pólya, Inequalities, Cambridge University Press, p. 39 e seg.).
Sia α > 1 e r un intero positivo. Allora è evidente che:
rαr > αr−1 + αr−2 + . . . + 1;
infatti a destra abbiamo r addendi ciascuno minore di αr . Moltiplicando ambo i membri per
α − 1 otteniamo:
rαr (α − 1) > αr − 1,
e sommando r(αr − 1) ad ambo i membri otteniamo:
r(αr+1 − 1) > (r + 1)(αr − 1).
Dividendo ambo i membri per r(r + 1) otteniamo finalmente:
αr+1 − 1 αr − 1
>
,
r+1
r
120
Alberto Berretti
Analisi Matematica I
e cioè che la successione ar =
αr −1
r
è una successione crescente. Quindi ar > a1 , e cioè, come si
verifica immediatamente:
αr > 1 + r(α − 1).
(3.3)
Ponendo α = 1 + x, x > 0, tale disuguaglianza può essere dunque scritta come (1 + x)r > 1 + rx.
Viceversa, sia 0 < β < 1 e r come sopra. Allora analogamente:
rβr < βr−1 + βr−2 + . . . + 1,
moltiplicando per 1 − β:
rβr (1 − β) < 1 − βr ,
sommando r(1 − βr ):
r(1 − βr+1 ) < (r + 1)(1 − βr ),
ed infine dividendo per r(r + 1):
1 − βr+1 1 − βr
<
,
r+1
r
e cioè la successione br =
1−βr
r
è decrescente. Quindi br < b1 e cioè:
βr > 1 + r(β − 1).
(3.4)
Ponendo β = 1 + x, −1 < x < 0, anche questa disuguaglianza può essere scritta come
(1 + x)r > 1 + rx.
Abbiamo cosí dimostrato il seguente lemma.
Lemma 1 (Disuguaglianza di Bernoulli, esponente intero). Sia x > −1 ed r un intero positivo.
Allora:
(1 + x)r ≥ 1 + rx,
(3.5)
e l’uguaglianza vale solo se x = 0 o se r = 1.
Osservazione 10. La (3.5) può essere anche dimostrata per induzione nel modo seguente.
Il caso r = 1 è ovvio: infatti se r = 1 allora la disuguaglianza si riduce ad un’identità.
Assumiamola vera per r e dimostriamola vera per r + 1:
(1 + x)r+1 = (1 + x)r (1 + x) ≥ (1 + rx)(1 + x) = 1 + (r + 1)x + rx2 ≥ 1 + (r + 1)x.
Il vantaggio della dimostrazione, piu’ complessa, che abbiamo dato è che come vediamo
adesso può essere generalizzata al caso in cui r non è intero, oltre al fatto che abbiamo
ottenuto dei risultati intermedi che ci saranno presto utili.
121
Alberto Berretti
Analisi Matematica I
Le disuguaglianze di cui sopra valgono anche nel caso in cui r sia un numero razionale
positivo. Infatti la disuguaglianza di Bernoulli discende direttamente dal fatto che le successioni ar e br sopra definite sono rispettivamente crescente e decrescente, cioè che se r > s
allora:
αr − 1 αs − 1
>
,
r
s
1 − βr 1 − βs
<
.
r
s
(3.6)
In realtà le (3.6) valgono appunto anche nel caso in cui r, s siano razionali positivi. Prendendo
ad es. la prima, poniamo r = a/b, s = c/d; allora ad > bc poiché r > s. Ponendo poi α = γbd e
dividendo ambo i membri per bd otteniamo immediatamente:
γad − 1 γbc − 1
>
,
ad
bc
e ci siamo dunque ricondotti al caso di esponenti interi. Analogamente per la seconda delle
(3.6). Ne segue che le (3.3), (3.4) valgono anche per r ∈ Q, r > 1. Non solo, ma sia ora s ∈ Q,
0 < s < 1. Allora prendendo r = 1 nella (3.6) otteniamo:
as − 1
< α − 1,
s
da cui:
as < 1 + s(α − 1),
e:
(3.7)
1 − bs
> 1 − β,
s
da cui:
βs < 1 + s(β − 1).
(3.8)
Si osservi che le (3.7), (3.8) sono rispettivamente uguali alle (3.3), (3.4) ma hanno 0 < s < 1 invece che
r > 1 ed il verso della disugaglianza invertito. Ponendo nelle (3.3), (3.4), (3.7), (3.8) α, β = 1 + x
otteniamo dunque la generalizzazione della disuguaglianza di Bernoulli al caso di esponente
razionale.
Lemma 2 (Disuguaglianza di Bernoulli, esponente razionale). Sia x > −1 ed r un razionale
positivo. Allora:
(1 + x)r ≥ 1 + rx
(1 + x)r ≤ 1 + rx
e l’uguaglianza vale solo se x = 0.
122
se r > 1,
se 0 < r < 1,
(3.9)
(3.10)
Alberto Berretti
Analisi Matematica I
Osservazione 11. In realtà come si può facilmente immaginare tale disuguaglianza vale
per qualsiasi r reale e positivo. Utilizzando la monotonia di
αr −1
r
e
1−βr
r
in r, r razionale, e
la definizione di numero reale di Dedekind si potrebbe ottenere una di mostrazione, però
troppo complicata per noi. Piú avanti avremo degli strumenti utili per poter dimostrare la
disuguaglianza di Bernoulli anche nel caso reale in modo semplice. D’ora in poi consideremo
valida la (3.9) anche nel caso di esponenti reali.
Otteniamo ora un’altra serie di utili disuguaglianze, conseguenza diretta della disugaglianza di Bernoulli.
Abbiamo sopra dimostrato che se r, s sono razionali, r > 1 e 0 < s < 1, e α, β sono numeri
reali, α > 1 e 0 < β < 1, allora valgono le seguenti disuguaglianze che sono banalmente
equivalenti alle (3.3), (3.4):
αr − 1 > r(α − 1),
1 − βr < r(1 − β).
(3.11)
Sostituendo allora α = 1/β, 0 < β < 1 nella prima e β = 1/α, α > 1 nella seconda otteniamo
facilmente:
αr − 1 < rαr−1 (α − 1),
1 − βr > rβr−1 (1 − β).
(3.12)
1 − βs > s(1 − β).
(3.13)
Analogamente, dalle:
αs − 1 < s(α − 1),
(che sono banalmente equivalenti alle (3.7), (3.8)) otteniamo per mezzo della medesima
sostituzione:
αs − 1 > sαs−1 (α − 1),
1 − βs < sβs−1 (1 − β).
(3.14)
Combinando la (3.11) e la (3.12) otteniamo:
r(α − 1) < αr − 1 < rαr−1 (α − 1),
rβr−1 (1 − β) < 1 − βr < r(1 − β).
(3.15)
(3.16)
Analogamente dalle (3.13) e la (3.14) otteniamo:
sαs−1 (α − 1) < αs − 1 < s(α − 1),
s(1 − β) < 1 − βs < sβs−1 (1 − β).
(3.17)
(3.18)
Possiamo ora utilizzare queste disuguaglianze per calcolare il limite di una potenza per
esponenti razionali (per esponenti interi il risultato discende dal caso 10 del teorema 10; per
esponenti reali, il risultato vale ugualmente perché, come abbiamo detto nell’osservazione
11, le disuguaglianze che stiamo utilizzando valgono in realtà anche per r, s reali).
123
Alberto Berretti
Analisi Matematica I
Proposizione 9.
lim xa = xa0 .
x→x0
Dimostrazione. Ponendo x = x0 t, ci riconduciamo al caso:
lim ta = 1.
t→1
Ma tale limite discende immediatamente dalla (3.15) (limite da destra, a > 1), dalla (3.16)
(limite da sinistra, a > 1), dalla (3.17) (limite da destra, a < 1) e dalla (3.18) (limite da sinistra,
a < 1), per il teorema del confronto.
Le precedenti uguaglianze possono essere utilizzate anche per il seguente limite.
Proposizione 10. Sia a > 0. Allora:
lim ax = ax0 .
x→x0
Dimostrazione. Per dimostrare che lim ax = ax0 , poniamo y = x − x0 e quindi ax = ay ax0 . Basta
quindi dimostrare che lim ay = 1.
x→x0
y→0
Ora, se a > 1 la (3.15) implica il limite desiderato quando y tende a 0 da destra e la (3.17)
quando y tende a 0 da sinistra; se a < 1 la (3.16) implica il limite desiderato quando y tende
a 0 da destra e la (3.18) quando y tende a 0 da sinistra.
Ovviamente dobbiamo tenere conto che, essendo ay una funzione monotona definita ovunque, in qualsiasi intervallo limitato la funzione è limitata, il che ci permette di ottenere il
risultato grazie al caso 9 del teorema 10.
Osservazione 12. Utilizzando il teorema sul limite delle funzioni composte otteniamo anche:
lim logb x = logb x0 .
x→x0
3.2.9. Il teorema “ponte”
Il teorema seguente può essere utilizzato sia per dimostrare l’esistenza di un limite, sia per
determinare che una determinata funzione non tende a nessun limite, e costituisce un legame
tra il limite di una funzione ed il limite delle successioni che da questa si possono ricavare.
Teorema 15. Le due seguenti affermazioni sono equivalenti:
1. lim f (x) = l
x→x0
2. Per ogni successione {cn } tale che cn , l e lim cn = x0 vale lim f (cn ) = l.
n→∞
124
n→∞
Alberto Berretti
Analisi Matematica I
Il teorema può essere adoperato per determinare il limite di f (x), nel caso – raro – che
calcolare il limite di f (cn ) per ogni successione cn sia piú facile che calcolare direttamente il
limite di f (x). Ma può essere anche utilizzato per determinare che f (x) non ammette limite,
ad es. trovando due successioni distinte {an } e {bn }, entrambe tendenti a x0 , tali che f (an ) e
f (bn ) tendono a limiti diversi.
Dimostrazione. Dimostriamo prima che (1) implica (2). lim f (x) = l vuol dire che ∀ε > 0
x→x0
∃ δ > 0 tale che 0 < |x − x0 | < δ ⇒ | f (x) − l| < ε. Se cn tende a x0 , allora ∀δ > 0 ∃M tale
che n > M ⇒ |cn − x0 | < δ, ed inoltre abbiamo che cn , x0 . Allora ∀ε > 0 ∃ δ > 0, e in
corrispondenza di tale δ > 0 esiste un M – quindi ∀ε > 0 ∃M – tale che n > M ⇒ | f (cn ) − l| < ε.
Dimostriamo che (2) implica (1) per assurdo. Assumiamo dunque che la (2) sia vera e la
(1) falsa, e ricaviamo una contraddizione.
Se la (1) è falsa, cioè se non è vero che il limite di f (x) per x → x0 è 0, allora, negando la
definizione di limite, otteniamo:
∃ ε > 0 tale che ∀δ > 0:
∃x tale che 0 < |x − x0 | < δ e | f (x) − l| > ε.
Preso dunque tale ε, scegliamo δ = 1/n, e per ciascun tale valore di δ esisterà allora un valore
di x = xn tale che 0 < |xn − x0 | < 1/n e | f (xn ) − l| > ε. Abbiamo cosí costruito una successione
{xn } che tende a x0 , perché |xn − x0 | < 1/n, e tale che f (xn ) non tende a l, perché per un certo
ε > 0 | f (xn ) − l| > ε. ciò contraddice la (2), che si assumeva vera.
Osservazione 13. Il teorema continua a rimanere valido anche nel caso di limiti per x → ±∞
e nel caso di limiti infiniti.
Esempio 30. Il limite per x → +∞ (ed ovviamente anche −∞!) di sin x non esiste. Infatti, sia
an = πn e bn = π/2+ 2πn. Allora sin an = 0 e sin bn = 1, per cui lim sin an = 0 , 1 = lim sin bn .
n→∞
n→∞
3.2.10. Infiniti, infinitesimi e confronti; i simboli di Landau
Introduciamo ora alcuni concetti importanti ed una utilissima notazione, che sarà molto utile
per calcolare in pratica i limiti e che permette di scrivere in modo molto semplice ed intuitivo
ma rigoroso taluni limiti.
Si dice che una successione an è infinitesima o è un infinitesimo se lim an = 0. Se invece
n→∞
lim an = ±∞ si dice che la successione è infinita o che è un’infinito. Analogamente, se
n→∞
consideriamo il limite per x → x0 , +∞ o −∞ di una funzione è infinitesima o è un infinitesimo
se il limite considerato è 0, mentre è infinita ovvero è un’infinito se il limite considerato è
±∞.
125
Alberto Berretti
Analisi Matematica I
Osservazione 14.
Importante: Per una successione an possiamo solo considerare il limite
per n → ∞, mentre per una funzione possiamo considerare una molteplicità di limiti, per
x che tende a diversi valori. La natura infinitesima o infinita di una funzione dipende
dunque dal limite che stiamo considerando.
Siano date due successioni infinitesime an e bn . Diremo che an tende a zero piú velocemente
di bn se lim an /bn = 0, diremo che an tende a zero piú lentamente di bn se lim an /bn = ±∞.
n→∞
n→∞
Abbiamo delle buone ragioni per non parlare di successioni che tendono a 0 allo stesso modo
in termini eccessivamente semplici (v. infra).
Analogamente, siano date due successioni infinite an e bn . Diremo che an tende a infinito
piú velocemente di bn se lim an /bn = ±∞, diremo che an tende a infinito piú lentamente di
bn se lim an /bn = 0.
n→∞
n→∞
Si parla in questo caso di confronto fra infinitesimi o infiniti.
È evidente che il confronto fra infinitesimi o infiniti può essere fatto anche per due funzioni
f e g; ovviamente, ricordando quanto sottolineato nell’osservazione 14, il confronto fra
funzioni andrà fatto specificando a cosa tende x.
Per rendere precise queste considerazioni, introduciamo i simboli di Landau o, O, ∼
(rispettivamente ‘o piccolo”, ‘o grande” e ‘asintotico”). Nel seguito assumiamo bn > 0,
g(x) > 0.
• Se:
an
= 0,
n→∞ bn
lim
allora scriviamo:
an = o(bn ).
• Se:
lim
x→x0
f (x)
= 0,
g(x)
allora scriviamo:
f (x) = o(g(x)) per x → x0
(stessa cosa se abbiamo ±∞ invece di x0 ).
• Se:
∃K > 0 tale che |an | < Kbn ,
allora scriviamo:
an = O(bn ).
• Se:
∃K > 0 tale che | f (x)| < Kg(x) quando 0 < |x − x0 | < δ,
126
δ > 0,
Alberto Berretti
Analisi Matematica I
allora scriviamo:
f (x) = O(g(x)) per x → x0
(analogamente per x → ±∞; ricordarsi la definizione di limite per x → ±∞ per avere la
condizione su x in questo caso).
• Se:
an
= 1,
n→∞ bn
lim
allora scriviamo:
an ∼ bn .
• Se:
lim
x→x0
f (x)
= 1,
g(x)
allora scriviamo:
f (x) ∼ g(x) per x → x0
(stessa cosa se abbiamo ±∞ invece di x0 ).
In particolare, scrivere an = O(1) vuol dire scrivere che la successione an è limitata, scrivere
an = o(1) vuol dire scrivere che la successione an è infinitesima. Scrivere f (x) = O(1) per
x → x0 vuol dire che per 0 < |x − x0 | < δ, per qualche δ > 0, f (x) è limitata, ovvero che la f (x)
è limitata “vicino” a x0 , e scrivere f (x) = o(1) per x → x0 vuol dire che f (x) tende a 0 per x che
tende a x0 .
Il simbolo O fu introdotto dal matematico tedesco Paul Bachmann nel 1894. Tale notazione
fu adottata dal matematico tedesco Edmund Landau ed estesa con il simbolo o nel 1909.
Esistono anche altre notazioni che rappresentano varî tipi di relazione tra successioni, alcune
delle quali particolarmente popolari nella teoria della complessità degli algoritmi, ma non
sono necessarie nel nostro contesto. Il simbolo O (O maiuscola) sta per il tedesco “Ordnung”,
“ordine”. Nel corso degli anni il significato preciso di questi simboli è a volte cambiato da
autore ad autore, noi ci atteniamo alla definizione “standard”, che è quella data da G. H.
Hardy e E. M. Wright nel libro An Introduction to the Theory of Numbers.
Osservazione 15.
Importante:
o(. . .), O(. . .) sono a rigore insiemi, non funzioni. Non
esiste nulla che è davvero uguale a o(. . .) o a O(. . .), qualsiasi cosa ci sia dentro i simboli
o, O. Le uguaglianze che abbiamo introdotto sono solo delle notazioni simboliche che
esprimono l’appartenenza all’insieme considerato e quindi la relazione fra due successioni o
due funzioni in un passaggio a limite.
Detto in altri termini: stabilito un passaggio a limite (per n → ∞, per x → x0 ), scrivere
an = O(bn ), an = o(bn ), f (x) = O(g(x)), f (x) = o(g(x)) significa dire che an , f (x) appartengono
ad un certo insieme di successioni o funzioni (nei casi indicati sopra, le successioni che
127
Alberto Berretti
Analisi Matematica I
divise per b(n) danno luogo ad una successione limitata, le successioni che tendono a 0 più
rapidamente di bn , le funzioni che divise per g(x) sono limitate, le funzioni che tendono a 0
più rapidamente di g(x). Scrivere ad es. sin x = x + o(x) per x → 0, cosa che dimostreremo
più avanti, vuol dire che sin x è uguale a x piú qualcosa che tende a zero piú rapidamente di
x per x → 0, senza aver specificato esattamente cosa.
Osservazione 16. Ciononostante i simboli o, O possono essere (quasi) tranquillamente utilizzati come se fossero davvero delle funzioni. Ad es., sia x → x0 ; se f (x) = o(x) allora f (x)/x → 0;
ma allora come si verifica immediatamente x f (x) = o(x2 ), f (x)/x = o(1), e cosí via. In altri
termini, abbiamo posto x o(x) = o(x2 ), o(x)/x = o(1), etc.
Osservazione 17. L’espressione o(an ) va interpretata come “qualcosa che tende divisa per an
tende a zero”. Non una cosa in particolare, ma qualsiasi cosa (analogamente per le funzioni).
Quindi ad es.:
• x + o(1) = o(1), x → 0: infatti l’unica cosa che possiamo dire di x piú qualcosa che
tende a 0, magari anche molto lentamente (o(1)) è che tende a 0, magari anche molto
lentamente.
• o(x) + o(x2 ) = o(x), x → 0: infatti o(x) indica una cosa qualsiasi che divisa per x tende a
0, per cui se la divido per potenze maggiori di x potrebbe non tendere piú a zero.
Osservazione 18. Occorre fare molta attenzione se si vuole introdurre il concetto di “ordine
di infinito”/“ordine di infinitesimo”, come se fosse qualcosa di numerico che può essere
misurato e quantificato. La natura infinita o infinitesima di una successione, o di una
funzione in un certo limite, può solo essere confrontata con un’altra, ma non quantificata
in termini assoluti. Qualsiasi tentativo al riguardo può portare a paradossi e a conclusioni
errate se applicato come se fosse una metafora, senza fare attenzione alla sostanza delle cose.
Noi eviteremo pertanto di dare un significato ad espressioni come “l’ordine di infinitesimo
di 1/n2 è 2” e simili, che preferiremo quindi evitare.
Nel seguito faremo largo utilizzo dei simboli di Landau, e diventeranno il principale
strumento per calcolare i limiti riconducendoli ai limiti notevoli che dimostreremo fra poco.
3.3. Limiti notevoli
Abbiamo ora tutti gli strumenti necessari per calcolare i principali limiti notevoli (non del
tutto banali).
3.3.1. Potenze, esponenziali e fattoriali
Consideriamo alcuni limiti elementari concernenti potenze, esponenziali e fattoriali.
128
Alberto Berretti
Analisi Matematica I
Proposizione 11. Per ogni α ∈ R e per ogni a > 1 abbiamo:
xα
= 0.
x→+∞ ax
lim
Dimostrazione. Se α ≤ 0 il limite è ovvio. Consideriamo allora α > 0 ed utilizziamo il teorema
ponte. Basta dimostrare che per ogni successione bn → +∞: bαn /abn → 0.
√
Innanzitutto abbiamo n/an → 0 (caso bn = n, α = 1/2). Infatti, facendo uso della
disuguaglianza di Bernoulli e ponendo a = 1 + h abbiamo:
√
√
√
n
n
n
1
0< n =
≤
= √ → 0.
n
a
(1 + h)
hn
h n
(3.19)
Eliminiamo ora la restrizione al caso α = 1/2 osservando che:
√ !2α
n
nα
=
→ 0,
n
1/2α
a
(a
)n
utilizzando la (3.19) ed il fatto che a1/2α > 1.
Inoltre, per il teorema 11, data qualsiasi successione a valori interi cn → +∞ allora
pure a 0, in quando {cn } è una sottosuccessione della successione {n}.
cαn
tende
acn
Infine, consideriamo una successione bn qualsiasi che tende a +∞ ed utilizziamo il fatto
che ⌊bn ⌋ ≤ bn ≤ ⌊bn ⌋ + 1:
0<
bαn
(⌊bn ⌋ + 1)α (⌊bn ⌋ + 1)α
<
=
a → 0 · a = 0.
abn
a⌊bn ⌋
a⌊bn ⌋+1
I seguenti limiti seguono immediatamente dalla preposizione 11:
lim
x→−∞
lim
x→+∞
lim
x→+∞
lim
x→0+
ax |x|α = 0,
ax xα = 0,
| logb x|α
se α ∈ R, a > 1,
se α ∈ R, 0 < a < 1,
= 0, se α ∈ R, β > 0, b > 0, b , 1,
xβ
xβ | logb x|α = 0, se α ∈ R, b > 0, b , 1, β > 0.
Il primo si riconduce alla proposizione 11 ponendo x = −y. Il secondo vi si riconduce
ponendo a = 1/b. Il terzo ponendo logb x = y se b > 1 e logb x = −y se 0 < b < 1. Il quarto si
riconduce al terzo ponendo x < 1/y. Lasciamo i dettagli delle sostituzioni per esercizio.
Si osservi che, se x → +∞, allora un esponenziale con base maggiore di 1 tende a infinito
piú rapidamente di qualsiasi potenza positiva di x, mentre un esponenziale con base positiva
minore di 1 tende a 0 piú rapidamente di qualsiasi potenza negativa di x. Analogamente, Se
x → 0+ , allora un logaritmo di base maggiore di 1 tende a infinito piú lentamente di qualsiasi
potenza positiva di x.
Confrontiamo ora esponenziali e fattoriali.
129
Alberto Berretti
Analisi Matematica I
Proposizione 12. Sia a > 0; allora abbiamo:
an
= 0,
n→∞ n!
lim
e:
lim
n→∞
n!
= 0.
nn
Dimostrazione. Il primo è ovvio se 0 < a ≤ 1, quindi assumiamo a > 1. In tal caso abbiamo:
0<
an
a
aa
a
a
a
a
a
·
=
· ...· = ·... ·
· . . . · < a⌈a⌉−1 · → 0.
n! 1 2
n 1
⌈a⌉ − 1 ⌈a⌉
n
n
|
{z
} | {z }
⌈a⌉−1 fattori ≤ a
fattori ≤ 1
Per quanto riguarda il secondo, abbiamo:
0<
n!
1
1
nn−1
· . . . · < 1 · 1 · . . . · 1 · → 0.
=
n
n
n n
n
n
Quindi, il fattoriale tende a +∞ piú rapidamente di qualsiasi esponenziale con base arbitrariamente
grande, ma piú lentamente di nn .
3.3.2. Limiti trigonometrici
R
P
Q
O
Figura 3.1.: Limiti trigonometrici
Dimostriamo i limiti fondamentali delle funzioni trigonometriche.
130
Alberto Berretti
Analisi Matematica I
Teorema 16. Abbiamo:
lim sin x = 0,
(3.20)
lim cos x = 1,
(3.21)
lim tan x = 0.
(3.22)
x→0
x→0
x→0
Dimostrazione. La (3.21) segue immediatamente dalla (3.20) dal momento che:
p
cos x = ± 1 − sin2 x
e che se −π/2 < x < π/2 allora cos x > 0, e la (3.22) è ovvia date le (3.20) e (3.21).
Per dimostrare la (3.20), si faccia riferimento alla figura 3.1. L’area del triangolo OPQ è
minore dell’area del settore circolare OPQ; quindi se x > 0:
0<
sin x x
< ,
2
2
e quindi per il teorema del confronto lim+ sin x = 0. Essendo la funzione sin x dispari, il
x→0
medesimo limite vale anche per x → 0− .
Utilizzando i simboli di Landau possiamo scrivere le (3.20), (3.21) e (3.22) come sin x = o(1),
cos x = 1 + o(1) e tan x = o(1), per x → 0.
Teorema 17. Abbiamo:
sin x
= 1,
x→0 x
1 − cos x 1
lim
= ,
x→0
2
x2
tan x
= 1.
lim
x→0 x
lim
(3.23)
(3.24)
(3.25)
Dimostrazione. La (3.24) segue immediatamente dalle (3.23), (3.21):
1 − cos x (1 − cos x)(1 + cos x)
1
1
sin x 2
→ ,
=
=
2
2
x
1 + cos x
2
x
x (1 + cos x)
e la (3.25) è ovvia date le (3.23), (3.21).
Per dimostrare la (3.23), si faccia nuovamente riferimento alla figura 3.1 e si consideri il
limite per x → 0+ . L’area del settore circolare OPQ è compresa tra l’area del triangolo OPQ e
quella del triangolo ORQ, e quindi:
sin x x
sin x
< <
.
2
2 2 cos x
Moltiplicando i tre membri di questa disuguaglianza per 2/ sin x (che è positivo per 0 < x <
π/2) otteniamo:
1<
x
1
<
,
sin x cos x
131
Alberto Berretti
Analisi Matematica I
ed invertendo:
cos x <
sin x
< 1,
x
se 0 < x < π/2. Per il teorema del confronto allora il limite richiesto è ottenuto per x → 0+ .
Tenendo conto che la funzione sin x/x è pari, il medesimo limite vale anche se x → 0− ,
dimostrando quindi la (3.23).
Utilizzando i simboli di Landau possiamo scrivere:
sin x
= 1 + o(1),
x
e quindi:
sin x = x + o(x).
Analogamente abbiamo:
1
cos x = 1 − x2 + o(x2 )
2
e:
tan x = x + o(x).
Ovviamente otteniamo mediante sostituzione i limiti:
lim
x→0
e:
arcsin x
= 1,
x
arctan x
= 1,
x→0
x
lim
cioè arcsin x = x + o(1), arctan x = x + o(1).
3.3.3. Il numero e
Dimostriamo ora che il seguente limite esiste ed è un numero compreso fra 2 e 3 che
chiameremo e (numero di Nepero).
Teorema 18. Il seguente limite esiste finito:
1 n
e = lim 1 +
.
n→∞
n
(3.26)
Vale inoltre 2 < e < 3.
I limiti notevoli che dimostreremo nel paragrafo seguente ne chiariranno l’importanza.
132
Alberto Berretti
Analisi Matematica I
Dimostrazione. Iniziamo col dimostrare che la successione cn = (1 + 1/n)n è crescente. Infatti
utilizzando la formula del binomio di Newton abbiamo:
n
n
X
1 n X
n!
1
1 n · (n − 1) · (n − 2) · . . . · (n − k + 1)
cn = 1 +
=
=
=
1
+
1
+
k
n
k!(n − k)! n
k!
n· n · n · ...· n
k=0
k=2
!
n
X
1
2
k−1
1
. (3.27)
1· 1−
· 1−
· ...· 1−
=2+
k!
n
n
n
k=2
Da ciò si evince immediatamente che cn è una somma di termini positivi, che il numero di
tali termini cresce con n (infatti nella sommatoria (3.27) ci sono esattamente n + 1 termini!), e
che ciascun termine di tale sommatoria è una funzione crescente di n, come è evidente dall’ultimo
modo di scrivere cn nella (3.27) (somma di prodotti di fattori positivi crescenti in n). Quindi
cn è una successione crescente, e quindi se illimitata tende a +∞, se limitata tende a limite
finito per il teorema 13.
Resta da dimostrare dunque che cn è una successione limitata. Noi dimostreremo che
2 < cn < 3 se n ≥ 3, da cui la tesi.
Se n ≥ 3, allora è evidente che cn > 2: infatti cn è crescente e c3 = 64/27 > 2. Utilizzando di
nuovo la (3.27) abbiamo:
!
n
X
1
2
k−1
1
1
1
1
cn = 2 +
· 1−
· ... · 1 −
1· 1−
<
< 2 + + + ... +
k!
n
n
n
2! 3!
n!
k=2
<2+
n−1
n−1
k=1
k=1
X 1
X 1
1
1
1
+ 2 + . . . + n−1 = 2 +
<
2
+
lim
= 3. (3.28)
n→∞
2 2
2
2k
2k
Gli ultimi due passaggi nella (3.28) sono giustificati dalle seguenti osservazioni. Innanzin−1
X
1
tutto, è ovvio che la successione
è una successione crescente, quindi se tende a limite
k
2
k=1
finito allora è minore del limite. Infine usando la formula per la somma della successione
geometrica abbiamo:
per n → ∞.
n−1
X
1
1 1 − 1/2n−1
→1
=
2 1 − 1/2
2k
k=1
È molto semplice infine ottenere le seguenti generalizzazioni del limite appena dimostrato.
Teorema 19. Abbiamo:
1 x
lim 1 +
= e,
x→+∞
x
1 x
= e,
lim 1 +
x→−∞
x
α x
lim 1 +
= eα .
x→±∞
x
133
(3.29)
(3.30)
(3.31)
Alberto Berretti
Analisi Matematica I
Dimostrazione. La (3.29) viene dimostrata facendo uso del teorema ponte. Sia {bn } una
successione a valori in N che tende a +∞; quindi:
∀L > 0 ∃M > 0 : n > M ⇒ bn > L.
La (3.26) può essere scritta come:
1 k
<e+ε
∀ε > 0 ∃L > 0 : k > L ⇒ e − ε < 1 +
k
per la definizione di limite di successione. Quindi abbiamo che:
1 bn
∀ε > 0 ∃M > 0 : n > M ⇒ bn > L ⇒ e − ε < 1 +
< e + ε.
bn
Quindi abbiamo dimostrato che:
1 bn
lim 1 +
= e.
n→∞
bn
Sia ora an una qualsiasi successione che tende a +∞. Se dimostriamo che per ogni tale
successione lim (1 + 1/an )an = e, allora per il teorema ponte abbiamo dimostrato la (3.29). Per
n→∞
dimostrare questo, utilizziamo le ovvie disuguaglianze ⌊an ⌋ ≤ an ≤ ⌈an ⌉, ⌈an ⌉−1 ≤ an ≤ ⌊an ⌋+1:
1 ⌈an ⌉
⌈an ⌉
+ ⌈a1n ⌉
1+
1
1 ⌈an ⌉−1
1
1 ⌊an ⌋+1
1 an
1 ⌊an ⌋
1+
= 1+
≤ 1+
≤ 1+
= 1+
⌈an ⌉
an
⌊an ⌋
⌊an ⌋
⌊an ⌋
ma {⌊an ⌋}, {⌈an ⌉} sono sottosuccessioni di {n}, per cui per l’osservazione precedente 1 +
⌊an ⌋
→ e, e 1 + ⌈a1n ⌉ → 1, 1 + ⌊a1n ⌋ → 1, da cui la tesi.
→ e, 1 + ⌊a1n ⌋
1 ⌈an ⌉
⌈an ⌉
Per quanto riguarda la (3.30), ponendo y = −x → +∞, abbiamo:
!−y
!−y
!y
!y
!y−1
!
y−1
y
1 x
1
1
1
1
1+
1+
= 1−
=
=
= 1+
= 1+
→ e.
x
y
y
y−1
y−1
y−1
y−1
|
{z
} | {z }
→e
→1
Infine la (3.31) segue dalla (3.29) o dalla (3.30) a seconda se α/x sia positivo o negativo (ed
è ovvia se α = 0). Infatti:
!α
1 x/α
α x
= 1+
,
1+
x
x/α
e x/α → ±∞.
134
Alberto Berretti
Analisi Matematica I
3.3.4. Altri limiti notevoli contenenti esponenziali e logaritmi
Dimostriamo ora altri limiti notevoli relativi a esponenziali e logaritmi in base e. Tali limiti
notevoli, importantissimi, chiariranno l’importanza del numero di Nepero e. Nel seguito
scriveremo sempre log x, senza indicare la base, intendendo loge x, cioè il logaritmo base e
(logaritmo naturale o neperiano). Si tratta di limiti molto semplici da ricavare.
Innanzitutto, dalle (3.29), (3.30) e dall’osservazione 12 ricaviamo immediatamente:
!y
log(1 + x)
1
1/x
lim
= 1.
= log lim(1 + x) = log lim 1 +
y→±∞
x→0
x→0
x
y
Utilizzando i simboli di Landau possiamo scrivere questo limite come:
log(1 + x) = x + o(x),
x → 0.
(3.32)
Consideriamo ora:
ex − 1
.
x→0
x
Ponendo y = ex − 1 → 0 per x → 0 abbiamo:
lim
y
ex − 1
=
→1
x
log(1 + y)
per x → 0. Utilizzando i simboli di Landau scriviamo questo limite come:
ex = 1 + x + o(x),
Infine, dato α ∈ R consideriamo:
x → 0.
(3.33)
(1 + x)α − 1
.
x→0
x
lim
Abbiamo allora:
(1 + x)α − 1 eα log(1+x) − 1 eαx+o(x) − 1 1 + αx + o(x) − 1
=
=
=
= α + o(1),
x
x
x
x
e quindi il limite considerato vale α. Possiamo scriverlo utilizzando i simboli di Landau nel
modo seguente:
(1 + x)α = 1 + αx + o(x),
x → 0.
(3.34)
Osservazione 19. Nel caso in cui la base del logaritmo o dell’esponenziale non sia e, ci
riconduciamo facilmente ai casi (3.32) e (3.33) nel modo seguente:
log x
x
=
+ o(x),
log a log a
x → 0,
(3.35)
ax = ex log a = 1 + x log a + o(x),
x → 0.
(3.36)
loga x =
e:
Possiamo scrivere la medesima cosa come:
loga (1 + x)
1
lim
=
,
x→0
x
log a
135
ax − 1
= log a.
x→0
x
lim
Alberto Berretti
Analisi Matematica I
3.3.5. Limite superiore e limite inferiore
Generalizziamo ora la nozione di limite. Iniziamo dal caso del limite di successione.
Definiamo il limite superiore di una successione nel modo seguente:
lim sup cn = lim sup ck .
n→∞
n→∞
(3.37)
k≥n
Se la successione {cn } è illimitata superiormente, allora ∀n sup ck = +∞ e quindi il limite superiore della
k≥n
successione è +∞. Se invece la successione è limitata superiormente, allora sup ck è una successione
k≥n
decrescente: infatti al crescere di n determiniamo l’estremo superiore di una porzione sempre piú
piccola della successione ck , e quindi l’estremo superiore non può aumentare. Poiché una successione
monotona decrescente o tende a limite finito o tende a −∞, abbiamo che il limite superiore di una
successione qualsiasi esiste sempre, finito o infinito. Non solo: essendo la successione sup ck monotona
k≥n
decrescente, il suo limite sarà il suo estremo inferiore, per cui possiamo anche dire che:
lim sup cn = inf sup ck ,
n
n→∞
k≥n
senza utilizzare il concetto di limite.
Analogamente definiamo il limite inferiore:
lim inf cn = lim inf ck .
n→∞
(3.38)
n→∞ k≥n
Se la successione {cn } è illimitata inferiormente, allora ∀n inf ck = −∞ e quindi il limite inferiore della
k≥n
successione è −∞. Se invece la successione è limitata inferiormente, allora la successione inf ck è crescente,
k≥n
e quindi il limite inferiore esiste finito o è +∞. Anche il limite inferiore dunque esiste sempre, finito o
infinito, e per ragioni analoghe a quanto visto per il limite superiore può essere scritto come:
lim inf cn = sup inf ck .
n→∞
n
k≥n
Una notazione alternativa per il limite superiore ed il limite inferiore che viene talvolta utilizzata è la
seguente: lim cn e lim cn .
n→∞
n→∞
Osservazione 20. Dalla definizione di limite superiore e limite inferiore segue immediatamente che
lim inf cn ≤ lim sup cn .
n→∞
n→∞
Vale il seguente teorema.
Teorema 20. Se lim sup cn = lim inf cn , allora esiste anche lim cn ed è uguale ai limiti inferiore e superiore.
n→∞
n→∞
n→∞
Viceversa, se il limite della successione esiste (finito o infinito), allora i limiti superiore ed inferiore coincidono
con esso.
Dimostrazione. Sia lim inf cn = +∞. Allora inf ck → +∞ cioè ∀L > 0 ∃M tale che se n > M allora
n→∞
k≥n
inf ck > L. Ma allora in particolare cn > L da cui segue che anche il limite di cn deve essere +∞.
k≥n
Sia lim sup cn = −∞. Allora sup ck → −∞ cioè ∀L > 0 ∃M tale che se n > M allora sup ck < −L. Ma
n→∞
k≥n
allora in particolare cn < −L da cui segue che anche il limite di cn deve essere −∞.
136
k≥n
Alberto Berretti
Analisi Matematica I
Infine, sia lim sup cn = lim inf cn = l. Allora tenendo conto della monotonia delle successioni sup ck ,
n→∞
n→∞
k≥n
inf ck , abbiamo:
k≥n
∀ε > 0 ∃ M1 :
n > M1 ⇒ l < sup ck < l + ε,
k≥n
e quindi in particolare se n > M1 allora cn < l + ε; e poi:
∀ε > 0 ∃ M2 :
n > M2 ⇒ l − ε < inf ck < l,
k≥n
e quindi in particolare se n > M2 allora l − ε < cn . Quindi se n > max(M1 , M2 ) allora l − ε < cn < l + ε,
il che implica che il limite di cn esiste ed è l.
L’ultima affermazione può essere dimostrata in modo elementare. Se cn tende a +∞, cioè se
∀L > 0 ∃M tale che n > M ⇒ cn > L , allora inf ck ≥ L se n > M e quindi il limite inferiore è +∞
k≥n
e per l’osservazione 20 anche il limite superiore. Se cn tende a −∞, cioè se ∀L > 0 ∃M tale che
n > M ⇒ cn < −L , allora sup ck ≤ −L se n > M e quindi il limite superiore è −∞ e quindi anche il
k≥n
limite inferiore.
Se infine cn tende a l, allora ∀ε > 0 ∃M tale che n > M ⇒ l − ε < cn < l + ε, e quindi se n > M
l − ε ≤ inf ck ≤ sup ck ≤ l + ε, da cui segue che sia il limite inferiore che quello superiore sono pari a
k≥n
k≥n
l.
Esempio 31. Se cn = sin n, allora lim sup cn = 1, lim inf cn = −1.
n→∞
n→∞
Per quanto riguarda il limite superiore ed inferiore di funzioni, definiamo:
lim sup f (x) = lim
x→x0
sup
f (x),
inf
f (x).
η→0 x∈(x −η,x +η),
0
0
x,x0
e:
lim inf f (x) = lim
x→x0
η→0 x∈(x0 −η,x0 +η),
x,x0
Il senso di queste definizioni dovrebbe essere ovvio. Il caso di limite superiore e inferiore per x → ±∞
è sostanzialmente analogo a quello delle successioni. In ogni caso, i limiti superiore ed inferiore di
funzioni godono delle medesime proprietà di quelli delle successioni, come sarebbe facile dimostrare
ricorrendo alle medesime tecniche utilizzate nel caso dei limiti di successioni.
3.4. Nozioni di topologia
Per poter andare avanti e dimostrare risultati importanti, abbiamo bisogno di qualche altro
concetto generale che ci permetterà peraltro di comprendere meglio il concetto di limite.
Le nozioni che introduciamo in questo paragrafo fanno parte di quella parte dell’analisi
matematica che prende il nome di topologia, di cui esponiamo le idee piú elementari.
Noi lavoreremo sempre in R, cioè nella retta reale; tutti i concetti qui esposti si generalizzano
però senza problemi, in genere senza alcuna modifica sostanziale alle dimostrazioni, a Rn , n > 1,
137
Alberto Berretti
Analisi Matematica I
cioè a spazi di dimensione (finita) qualsiasi, come vedremo piú avanti. Qualche teorema può
avere una dimostrazione piú semplice se si sfrutta esplicitamente l’unidimensionalità, ma
noi preferiremo la dimostrazione facilmente generalizzabile al caso multidimensionale.
3.4.1. Punti esterni, interni, di frontiera e di accumulazione
Nel seguito, ogni volta che menzioneremo il complemento ∁A di un insieme A ⊂ R, si
intende che l’insieme contesto è tutto R.
Dato un punto a ∈ R, un intorno di a è l’intervallo aperto Iε (a) = (a − ε, a + ε). Dato un
insieme A ⊂ R, un punto b ∈ R si dice interno ad A se esiste un intorno di b contenuto in
A, cioè se ∃ ε > 0 tale che (b − ε, b + ε) ⊂ A. Si dice che b è esterno ad A se è interno al
complementare di A, cioè se ∃ ε > 0 tale che (b − ε, b + ε) ⊂ ∁A. Si dice che b è di frontiera
per A se non è interno né esterno, cioè se ∀ε > 0 (b − ε, b + ε) contiene sia punti che fanno
parte di A che punti che non fanno parte di A.
Le affermazioni contenute nei seguenti esempi sono banali e andrebbero verificate per
esercizio.
Esempio 32. Se A = (a, b) è un intervallo aperto, tutti gli x tali che a < x < b (cioè tutti i punti
di A) sono interni, tutti gli x tali che x < a o x > b sono esterni, a e b sono di frontiera.
Esempio 33. Se A = [a, b] è un intervallo chiuso, tutti gli x tali che a < x < b sono interni, tutti
gli x tali che x < a o x > b (cioè tutti i punti che non fanno parte di A) sono esterni, a e b sono
di frontiera.
Esempio 34. Sia A = {1/n}, n ∈ N. Nessun punto è interno; tutti gli x ∈ R tali che x , 0 e
x , 1/n sono esterni, 0 e tutti i punti di A sono punti di frontiera.
Esempio 35. Consideriamo l’insieme Q dei numeri razionali come sottoinsieme dei reali.
Allora nessun punto è interno né esterno ed ogni numero reale (razionale o meno) è un
punto di frontiera. Infatti ogni intervallo (α, β), per quanto piccolo, contiene sia numeri razionali
che numeri irrazionali.
L’interno o parte interna di un insieme A è l’insieme dei suoi punti interni, e si indica
con il simbolo Å. La frontiera di un insieme A è l’insieme dei suoi punti di frontiera e si
indica con il simbolo ∂A.
Esempio 36. Facendo riferimento agli esempi precedenti, l’interno di un intervallo aperto
(a, b) coincide con l’intervallo medesimo, l’interno di un intervallo chiuso [a, b] è l’intervallo
aperto (a, b), l’interno dell’insieme A dell’esempio 34 e l’interno dell’insieme dei razionali è
l’insieme vuoto. La frontiera di un intervallo aperto o chiuso coincide con i suoi estremi, la
138
Alberto Berretti
Analisi Matematica I
frontiera dell’insieme A dell’esempio 34 è A ∪ {0}, e la frontiera dell’insieme dei razionali è
l’insieme di tutti i reali.
Un punto b si dice punto di accumulazione per l’insieme A se ogni intorno di b contiene
un elemento di A diverso da b, cioè se ∀ε ∃ c ∈ Iε (b) tale che c , b, c ∈ A. La condizione che
il punto c debba essere diverso da b è, come vedremo, essenziale per dare una definizione
interessante ed utile. L’insieme dei punti di accumulazione di A viene detto insieme derivato
di A e si indica con A′ .
Un punto b si dice punto isolato dell’insieme A se b ∈ A e ∃ ε > 0 tale (b − ε, b + ε) non
contiene altri punti di A (cioè se (b − ε, b + ε) ∩ A = {b}).
Esempio 37. Sempre facendo riferimento agli esempi precedenti, sia nel caso dell’esempio 32
che in quello dell’esempio 33, tutti i punti di un intervallo, aperto o chiuso che sia, cosí come
i suoi estremi sono punti di accumulazione, e nessun punto è isolato; nel caso dell’esempio
34 solo 0 è un punto di accumulazione e tutti i punti di A sono isolati, mentre ogni numero
reale è un punto di accumulazione dei razionali (e nessun punto è isolato). La verifica di
queste affermazioni è banale.
Proposizione 13. Se b è un punto di accumulazione per l’insieme A, allora ogni intorno di b contiene
infiniti punti di A.
Dimostrazione. Se b è un punto di accumulazione, allora ∃ x1 tale che x1 , b, x1 ∈ A. Sia
ε1 = |x1 − b| > 0; allora, essendo b un punto di accumulazione per A, in (b − ε1 , b + ε1 ) esiste
un x2 , x2 , b, x2 ∈ A, ed ovviamente x2 , x1 (perché per costruzione x2 è piú vicino a b di
x1 ). Sia ε2 = |x2 − b| > 0; allora, essendo b un punto di accumulazione per A, in (b − ε2 , b + ε2 )
esiste un x3 , x3 , b, x3 ∈ A, diverso da x2 e da x1 , e cosí via.
Ne segue che se un insieme possiede almeno un punto di accumulazione, allora l’insieme
contiene infiniti elementi (solo insiemi infiniti possono avere punti di accumulazione).
Non vi è alcuna relazione tra l’essere punto di accumulazione e l’appartenere all’insieme
considerato: un punto di accumulazione può far parte o può non far parte dell’insieme di cui
è punto di accumulazione. Tutti i punti interni di un insieme sono punti di accumulazione,
com’è ovvio (Å ⊂ A′ ), mentre i punti di frontiera possono essere di accumulazione come
possono non esserlo. Tutti i punti esterni ad un insieme invece non possono essere punti
di accumulazione. Tutti i punti isolati di un insieme sono punti di frontiera, ed ogni punto
di frontiera è o isolato o di accumulazione (infatti se un punto b ∈ ∂A non è isolato, allora
∀ε > 0 esiste un elemento di A diverso da b contenuto in A, e cioè è di accumulazione).
La definizione di limite di funzione per x → x0 potrebbe essere a questo punto modificata
nel modo seguente:
139
Alberto Berretti
Analisi Matematica I
Sia x0 un punto di accumulazione del dominio D della funzione f ; allora diremo che lim f (x) = l
se ∀ε > 0 ∃ δ > 0 tale che x ∈ D, 0 < |x − x0 | < δ ⇒ | f (x) − l| < ε.
x→x0
Infatti non è necessario chiedere che la funzione f sia definita ovunque nell’intervallo
0 < |x − x0 | < δ, ma è necessario che mi possa avvicinare arbitrariamente a x0 rimanendo nel
dominio D di f , e cioè che comunque scelga δ > 0 l’insieme 0 < |x − x0 | < δ contenga punti
di A, cioè che l’intervallo (x0 − δ, x0 + δ) contenga punti di D diversi da x0 , ovvero che x0 sia
appunto un punto di accumulazione per D. Questa definizione, leggermente generalizzata,
permette di dare senso a limiti come:
lim
x→0
Infatti la funzione
sin(1/x)
sin(1/x)
sin 1x
sin 1x
= 1.
è definita per x ∈ R ma x , 0 e x , 1/kπ, k ∈ Z, e vale 1 laddove
essa è definita. La definizione data precedentemente di limite per x → 0 non sarebbe stata
applicabile, perché non esiste alcun intervallo della forma (0, a) o (b, 0), a > 0, b < 0, in
cui la funzione è definita (infatti per ogni a, b tali intervalli contengono punti della forma
1/kπ in cui la funzione non è definita, per qualche k sufficientemente grande). Ma l’origine
è chiaramente un punto di accumulazione del campo di definizione per cui è possibile
utilizzare la definizione, piú generale, data dianzi.
3.4.2. Insiemi aperti e chiusi
Un insieme A viene detto aperto se A = Å, cioè se tutti i punti di A sono interni; in altri
termini, A è aperto se ∀x ∈ A ∃ ε > 0 tale che (x − ε, x + ε) ⊂ A. Detto ancora in un altro modo,
un insieme è aperto se ogni punto dell’insieme ammette un intorno contenuto nell’insieme
medesimo. L’insieme vuoto ∅ viene considerato aperto per definizione. Un insieme A viene
detto chiuso se il suo complementare è aperto.
Esempio 38. R è chiuso, perché il complementare, l’insieme vuoto, per definizione è aperto.
R è aperto, perché ogni numero reale possiede un intorno (qualsiasi intorno!) contenuto in
R. Quindi l’insieme vuoto, che è il complementare di R, è chiuso. Abbiamo cosí verificato
che tutto R e l’insieme vuoto sono contemporaneamente aperti e chiusi. Si potrebbe dimostrare
che sono gli unici insiemi contemporaneamente aperti e chiusi.
Esempio 39. Un intervallo aperto è un insieme aperto. Infatti, sia A = (a, b); allora x ∈ A vuol
dire a < x < b, e quindi basta prendere 0 < ε < min(x − a, b − x) per avere x − ε > a, x + ε < b
per cui (x − ε, x + ε) ⊂ (a, b). Analogamente (−∞, b) e (a, +∞) sono insiemi aperti.
Esempio 40. Un intervallo chiuso è un insieme chiuso. Infatti, sia A = ∁[a, b] il complementare dell’intervallo chiuso [a, b], e dimostriamo che A è aperto. Ora, se x ∈ A, allora x < a o
140
Alberto Berretti
Analisi Matematica I
x > b. Nel primo caso, sia 0 < ε < a − x: allora x + ε < a per cui (x − ε, x + ε) ⊂ A. Nel secondo
caso, sia 0 < ε < x − b: allora x − ε > b per cui (x − ε, x + ε) ⊂ A. Analogamente anche (−∞, b]
e [a, +∞) sono chiusi.
Esempio 41. Intervalli del tipo (a, b] e [a, b) sono esempi di insiemi né aperti né chiusi.
Enunciamo il primo dei due principali teoremi sugli insiemi aperti e chiusi. Per farlo
dobbiamo introdurre una semplice notazione.
Sia S un insieme arbitrario di sottoinsiemi di R. Indichiamo con
S
A l’unione di tutti gli insiemi A che fanno parte di S, cioè:
[
A se ∃A ∈ S tale che x ∈ A.
x∈
[
A o semplicemente con
A∈S
A∈S
Indichiamo con
parte di S, cioè:
\
A o semplicemente con
T
A l’intersezione di tutti gli insiemi A che fanno
A∈S
x∈
\
A∈S
A
se ∀A ∈ S : x ∈ A.
Si noti che in questo modo abbiamo dato significato all’unione o all’intersezione di un numero
infinito di insiemi.
Vale allora il seguente teorema.
Teorema 21. Le unioni ed intersezioni di insiemi aperti o chiusi soddisfano le seguenti proprietà:
[
A di un insieme arbitrario S di insiemi aperti è aperto.
1. L’unione
A∈S
n
\
Ak è aperto.
2. L’intersezione di un numero finito di insiemi aperti
k=1
\
A di un insieme arbitrario S di insiemi chiusi è chiuso.
3. L’intersezione
A∈S
4. L’unione di un numero finito di insiemi chiusi
n
[
Ak è chiuso.
k=1
[
A vuol dire che esiste un A0 ∈ S tale che x ∈ A0 . Essendo A0 aperto,
A∈S
[
A, da cui il punto 1 del
∃ ε > 0 tale che (x − ε, x + ε) ⊂ A0 e quindi anche (x − ε, x + ε) ⊂
Dimostrazione. Se x ∈
A∈S
teorema.
Siano ora A1 , . . . , An insiemi aperti. Se x ∈
n
\
k=1
Ak allora x ∈ Ak , k = 1, . . . , n, quindi
∃ ε1 , . . . , εn > 0 tali che (x − ε1 , x + ε1 ) ⊂ A1 , . . . , (x − εn , x + εn ) ⊂ An . Ponendo ε =
min(ε1 , . . . , εn ) > 0 abbiamo dunque che per k = 1, . . . , n (x − ε, x + ε) ⊂ (x − εk , x + εk ) ⊂ Ak , e
n
\
Ak , da cui il punto 2 del teorema.
quindi (x − ε, x + ε) ⊂
k=1
141
Alberto Berretti
Analisi Matematica I
Se teniamo conto che il complementare di un insieme aperto è chiuso e viceversa, che
il complementare dell’unione è l’intersezione dei complementari e che il complementare
dell’intersezione è l’unione dei complementari il punto 3 segue dal punto 1 ed il punto 4
segue dal punto 2.
Nel caso dell’intersezione di aperti e dell’unione di chiusi l’ipotesi della finitezza del
numero di insiemi è essenziale. Infatti, consideriamo il seguente insieme infinito di intervalli
aperti:
1
1
Ik = −1 − , 1 + ,
k
k
k ∈ N, k ≥ 2.
L’intersezione di tutti gli intervalli Ik è allora l’intervallo chiuso [−1, 1]: infatti tutti gli x ∈ R,
−1 ≤ x ≤ 1 sono contenuti in tutti gli Ik , mentre ogni x > 1, x < −1 non è contenuto in tutti gli
Ik con k sufficientemente grande (basta prendere k > 1/(x − 1) se x > 1 ovvero k > 1/(−x − 1)
se x < −1). Analogamente, consideriamo il seguente insieme infinito di intervalli chiusi:
1
1
Jk = −1 + , 1 − ,
k
k
k ∈ N, k ≥ 2.
L’unione di tutti gli intervalli Jk è allora l’intervallo aperto (−1, 1): infatti tutti gli x ≥ 1, x ≤ −1
non fanno parte di nessun Jk , mentre ogni x tale che −1 < x < 1 fa parte di tutti i Jk con k
sufficientemente grande (basta prendere k > 1/(1 − x) se 0 < x < 1 ovvero k > 1/(x + 1) se
−1 < x < 0).
Esempio 42. Ogni insieme finito {x1 , . . . , xN } è chiuso. Infatti il suo complementare è l’unione
degli intervalli aperti (−∞, x1 ), (x1 , x2 ), . . . , (xN , +∞).
Proposizione 14. La parte interna Å di un insieme è un insieme aperto.
Dimostrazione. Sia x ∈ Å: allora ∃ε > 0 tale che (x − ε, x + ε) ⊂ A. Dimostriamo ora che
tutto l’intervallo (x − ε, x + ε) è in realtà contenuto in Å: prendiamo x′ ∈ (x − ε, x + ε) e
sia min(x′ − (x − ε), (x + ε) − x′ ) la distanza di x′ dagli estremi dell’intervallo in questione;
prendendo 0 < δ < min(x′ − (x − ε), (x + ε) − x′ ) abbiamo che (x′ − δ, x′ + δ) ⊂ (x − ε, x + ε) ⊂ A
per cui anche x′ ∈ Å, cioè tutti i punti dell’intervallo (x − ε, x + ε) fanno parte di Å, che quindi
è aperto.
La chiusura Ā di un insieme A è l’unione di A e della sua frontiera:
Ā = A ∪ ∂A.
Il nome è giustificato dalla seguente proposizione.
Proposizione 15. La chiusura di un insieme è un insieme chiuso.
142
Alberto Berretti
Analisi Matematica I
Dimostrazione. Dato un insieme A, ogni punto x è o interno, o esterno o di frontiera; se è
interno fa parte di A, se è esterno non fa parte di A. Il complementare della chiusura di A
dunque coincide con l’insieme dei punti esterni ad A. Ricordando la definizione di punto
esterno, la tesi segue immediatamente.
Osservazione 21. La parte interna Å di un insieme è “il piú grande” insieme aperto contenuto
in A. La chiusura Ā di un insieme A è “il piú piccolo” insieme chiuso contenente A.
Un insieme A si dice denso in B se A ⊂ B e Ā = B. Ad es. i razionali sono densi nei reali:
Q̄ = R.
Teorema 22. Dato A ⊂ R, le seguenti tre affermazioni sono equivalenti:
1. A è chiuso,
2. ∂A ⊂ A,
3. A contiene i suoi punti di accumulazione (A′ ⊂ A).
Dimostrazione. È sufficiente dimostrare che 1 ⇒ 2 ⇒ 3 ⇒ 1.
1 ⇒ 2. Bisogna dimostrare che se A è chiuso e x < A allora x < ∂A. Ma se A è chiuso allora
∁A è aperto per cui se x < A allora x è esterno ad A e quindi non è di frontiera.
2 ⇒ 3. Se x è un punto di accumulazione di A allora x non è esterno ad A, per cui x è o
interno ad A (e quindi ∈ A) o di frontiera. Quindi x ∈ A ∪ ∂A, ma se ∂A ⊂ A allora x ∈ A.
3 ⇒ 1. Se x ∈ ∁A allora poiché A contiene i suoi punti di accumulazione x non è un punto
di accumulazione e quindi ∃ ε > 0 tale che (x − ε, x + ε) non contiene alcun punto di A. Quindi
(x − ε, x + ε) ⊂ ∁A, quindi ∁A è aperto, quindi A è chiuso.
3.4.3. Teorema di Bolzano-Weierstrass
Questo paragrafo è dedicato ad un teorema che dimostra l’esistenza di punti di accumulazione per un insieme sotto opportune condizioni. È un teorema centrale per l’analisi, da cui
dipendono molti altri teoremi importanti.
Teorema 23 (Bolzano-Weierstrass). Un insieme limitato e infinito possiede almeno un punto di
accumulazione.
Dimostrazione. La tecnica di dimostrazione utilizzata è altrettanto importante del teorema
medesimo, e verrà utilizzata per dimostrare altri importanti teoremi.
Sia A ⊂ R, limitato – e cioè A ⊂ [a, b] per qualche a, b ∈ R – e infinito – cioè A possiede
infiniti elementi. Sia c = (a + b)/2, cioè il punto medio dell’intervallo [a, b] che contiene A;
allora, se consideriamo i due intervalli [a, c] e [c, b], almeno uno dei due deve contenere infiniti
elementi di A: altrimenti A non sarebbe un insieme infinito; quindi possiamo sempre scegliere
143
Alberto Berretti
Analisi Matematica I
tra i due semi-intervalli uno che contenga infiniti elementi di A (se entrambe contengono
infiniti elementi di A, ne scegliamo uno arbitrariamente, ad es. scegliamo quello piú a destra).
Tale nuovo intervallo lo chiamiamo [a1 , b1 ]: chiaramente o a1 = a, b1 = c o a1 = c, b1 = b, a
seconda se abbiamo preso quello di destra o quello di sinistra. Ma se anche [a1 , b1 ] contiene
infiniti elementi di A, possiamo ripetere la costruzione appena fatta dividendo tale intervallo
a metà e scegliendo una delle due metà che contiene infiniti elementi di A, ottenendo un
intervallo [a2 , b2 ] che contiene anch’esso infiniti elementi di A e così via.
In definitiva, abbiamo ottenuto una successione {[ak , bk ]} di intervalli, tutti contenuti l’uno
dentro l’altro, e che contengono tutti infiniti elementi di A. Osserviamo che:
1. la successione {ak } è crescente: ak+1 ≥ ak ;
2. la successione {bk } è decrescente: bk+1 ≤ bk ;
3. la successione {ak } è limitata dall’alto: ak < b;
4. la successione {bk } è limitata dal basso: bk > a.
Ne segue che per il teorema 13 ak → α e bk → β per k → ∞. Ma bk − ak = (b − a)/2k , per cui
bk − ak → 0, e quindi β = α.
Abbiamo dunque definito un punto α. Dimostriamo ora che α è un punto di accumulazione
per A.
Sia ε > 0 qualsiasi, anche molto piccolo, e consideriamo l’intervallo (α − ε, α + ε). Poiché
ak ր α esiste k1 tale che ∀k ≥ k1 ak ∈ (α − ε, α), e poiché bk ց β = α esiste k2 tale che ∀k ≥ k2
bk ∈ (α, α + ε). Ponendo K = max(k1 , k2 ), abbiamo allora che l’intervallo [aK , bK ] è contenuto in
(α − ε, α + ε). Poiché [aK , bK ] contiene infiniti elementi di A, ne contiene almeno uno diverso
da α, che quindi è un punto di accumulazione.
3.4.4. Compattezza
In questo paragrafo dimostreremo importanti proprietà degli insiemi chiusi e limitati. Le
conseguenze dei teoremi, apparentemente astratti, che dimostreremo adesso sono molto
importanti.
Un insieme chiuso e limitato viene detto anche compatto.
Teorema 24. Sia A un insieme chiuso e limitato. Allora A ammette massimo e minimo.
Dimostrazione. Noi sappiamo già che un insieme semplicemente limitato ammette estremo
superiore ed estremo inferiore. Si tratta ora di dimostrare che se è anche chiuso allora gli
estremi superiore ed inferiore sono rispettivamente il massimo ed il minimo.
Sia α = inf A. α non può essere interno ad A, perché allora esisterebbero elementi di A
minori di α e quindi α non sarebbe un maggiorante, e non può nemmeno essere esterno ad
A, perché innanzitutto essendo un minorante non possono esistere elementi di A minori di α,
144
Alberto Berretti
Analisi Matematica I
e se fosse esterno esisterebbero anche numeri maggiori di α che non fanno parte di A e quindi
α non sarebbe il massimo dei minoranti. Quindi è un punto di frontiera, ed essendo l’insieme
A chiuso per il teorema 22 α ∈ A, e quindi è il minimo.
Si ragiona in modo simile per l’estremo superiore. Sia β = sup A. Per ragioni analoghe, β
deve essere punto di frontiera per A, ed essendo A chiuso β ∈ A e quindi è il massimo.
Il seguente teorema caratterizza gli insiemi compatti in termini delle successioni in essi
contenute.
Teorema 25. Ogni successione a valori in un insieme chiuso e limitato A ammette una sottosuccessione convergente con limite in A. Viceversa, se ogni successione a valori in un insieme A ammette
una sottosuccessione convergente con limite in A, allora A è chiuso e limitato.
Dimostrazione. Dimostriamo la prima delle due affermazioni. Sia A chiuso e limitato, e sia {ak }
una successione contenuta in A: ak ∈ A. Ora, si osservi che i valori assunti dalla successione
al variare di k non devono essere necessariamente tutti diversi, quindi l’insieme dei valori
assunti dalla successione non è necessariamente infinito; ad es. se A = [−2, 2] e ak = (−1)k ,
l’insieme dei valori assunti dalla successione {ak } è formato solo dai numeri −1 e 1 e quindi è
un insieme finito.
Assumiamo dunque che {ak } assuma un insieme finito di valori in A. Allora almeno uno
di questi valori α ∈ A deve essere assunto per una infinità di valori dell’indice k, che posso
ordinare in modo crescente:
akn = α,
kn ր ∞,
e quindi abbiamo costruito banalmente una sottosuccessione convergente (addirittura costante!) che ammette limite in A.
Assumiamo ora invece che {ak } assuma un insieme infinito di valori in A. Allora tale insieme
ammette almeno un punto di accumulazione α per il teorema di Bolzano-Weierstrass, essendo
infinito e limitato (perché contenuto in A, che è limitato per ipotesi). Essendo A chiuso, α ∈ A.
Sia ora εn = 1/n. Essendo α punto di accumulazione dell’insieme dei valori della successione,
∀n ∃ kn tale che akn ∈ (α − εn , α + εn ), akn , α. Poiché in ciascuno degli intorni considerati
di α per la proposizione 13 posso scegliere kn grande a piacere, posso scegliere kn > kn−1 e
quindi kn ր ∞. Abbiamo cosí costruito una sottosuccessione {akn } che tende a α ∈ A poiché
|akn − α| < εn → 0.
Dimostriamo ora la seconda affermazione contenuta nel teorema.
A deve essere limitato. Se A non è limitato superiormente, allora ∀k ∈ N ∃ ak ∈ A
tale che ak > k; ma allora ak ր +∞ e non contiene alcuna sottosuccessione convergente.
Analogamente si dimostra che A è limitato inferiormente.
145
Alberto Berretti
Analisi Matematica I
Se A ha un numero finito di elementi allora è chiuso e non abbiamo altro da dimostrare.
Assumiamo pertanto che A ha un numero finito di elementi. Allora per il teorema di
Bolzano-Weierstrass ammette punti di accumulazione. Sia α un punto di accumulazione di
A, e dimostriamo che α ∈ A. Utilizzando la medesima tecnica di prima, sia εn = 1/n; quindi
ogni intervallo (α − εn , α + εn ) contiene un elemento an di A diverso da α. Ma la successione
cosí costruita converge ovviamente ad α, insieme a tutte le sue sottosuccessioni, e quindi per
ipotesi α ∈ A. Poiché dunque A contiene i suoi punti di accumulazione, per il teorema 22 A
è chiuso.
Osservazione 22. In realtà un insieme viene definito compatto se ogni successione a valori in esso
possiede una sottosuccessione convergente. Il teorema precedente dunque dimostra che in R ogni
insieme compatto è chiuso e limitato, e viceversa. In realtà tale teorema vale, come tutti gli altri in
questo paragrafo, anche in Rn , cioè in spazi di dimensione n > 1. Esistono insiemi chiusi e limitati che
non sono compatti (cioè per i quali il teorema precedente è falso) solo in spazi infinito-dimensionali,
e quindi largamente al di sopra del nostro livello. Per questo abbiamo scelto di dare la definizione
piú semplice di insieme compatto come insieme chiuso e limitato.
Sia A ⊂ R. Un ricoprimento di A è insieme arbitrario F di insiemi aperti tali che:
[
A⊂
U,
U∈F
cioè tale che A sia contenuto nell’unione degli insiemi aperti di F (si dice anche che A è ricoperto
dagli insiemi U che fanno parte di F ). In altre parole, ogni x ∈ A è anche elemento di qualche U ∈ F .
Sia F un ricoprimento di A, e sia F1 ⊂ F , cioè un sottoinsieme dell’insieme F degli aperti U che
ricoprono A, tale che anche il sottoinsieme F1 ricopra A: gli aperti U contenuti in F1 sono sufficienti
in altri termini a ricoprire A. Allora F1 viene detto sottoricoprimento del ricoprimento F . Un
ricoprimento viene detto finito se è formato da un numero finito di insiemi aperti U1 , . . . , UM .
Vale allora il seguente fondamentale teorema.
Teorema 26 (Heine-Borel). Un insieme A è chiuso e limitato se e solo se ogni ricoprimento ammette un
sottoricoprimento finito.
Dimostrazione. Dimostriamo prima che se A è chiuso e limitato allora ogni ricoprimento di A ammette
un sottoricoprimento finito.
A è limitato, quindi A ⊂ [a, b]. Assumiamo per assurdo che esista un ricoprimento F di A che non
ammetta alcun sottoricoprimento finito. Utilizzando la stessa tecnica utilizzata per dimostrare il teorema
di Bolzano-Weierstrass, dividiamo l’intervallo [a, b] in due parti uguali [a, c] e [c, b]; allora A ∩ [a, c] e
A ∩ [c, b] sono anch’essi chiusi e limitati, ed esistono due sottoinsiemi F ′ e F ′′ di F tali che F ′ ricopre
A ∩ [a, c], F ′′ ricopre A ∩ [c, b] e F ′ ∪ F ′′ = F (si tratta di una affermazione banale: basta mettere in
F ′ tutti gli U di F che hanno intersezione non vuota con A ∩ [a, c] e in F ′′ tutti gli U di F che hanno
intersezione non vuota con A ∩ [c, b]). Almeno uno dei due ricoprimenti F ′ di A ∩ [a, c] e F ′′ di A ∩ [c, b]
non deve ammettere un sottoricoprimento finito: se entrambe ammettessero un sottoricoprimento finito,
146
Alberto Berretti
Analisi Matematica I
l’unione dei due sottoricoprimenti finiti sarebbe un sottoricoprimento finito di F ma noi abbiamo fatto
l’assunzione che tale sottoricoprimento finito non esista. Sia dunque [a1 , b1 ] uno dei due intervalli
[a, c], [c, b], tale che A1 = A ∩ [a1 , b1 ] ha un ricoprimento F1 che non ammette un sottoricoprimento
finito (F1 è F ′ o F ′′ a seconda di quale intervallo abbiamo scelto).
A1 si trova nelle medesime condizioni di A, per cui possiamo ripetere la medesima costruzione ed
ottenere un insieme A2 ricoperto da F2 il quale non ammette un sottoricoprimento finito, e cosí via.
Ragionando come nella dimostrazione del teorema di Bolzano-Weierstrass, abbiamo due succes-
sioni ak ր α, bk ց β = α, ed esiste un K grande a piacere tale che AK ⊂ [aK , bK ], che contiene elementi
di A1 , è ricoperto da Fk che non ammette sottoricoprimento finito. Ma ciò e impossibile. Infatti, sia
a ∈ Ak ⊂ [aK , bK ], e sia U ∈ F , U ∋ a. Essendo U aperto, se K è sufficientemente grande [aK , bK ] ⊂ U,
e quindi posso mettere in Fk solo U, ottenendo un ricoprimento finito la cui esistenza era stata negata per
assurdo. La prima parte del teorema è quindi dimostrata.
Per quanto riguarda la seconda parte del teorema, dimostriamo prima che l’insieme A è limitato.
Possiamo costruire un ricoprimento di A considerando l’insieme F degli intervalli della forma (x −
1, x + 1), ∀x ∈ A: è evidente che si tratta di un ricoprimento. Se esiste un sottoricoprimento finito,
formato da M intervalli, allora l’insieme A è contenuto nella loro unione, e quindi è contenuto al
massimo in un intervallo lungo M, e quindi è limitato.
Per dimostrare la seconda parte del teorema, dobbiamo dimostrare che A è chiuso. Se A è vuoto, è
chiuso. Se A è un insieme finito, è pure chiuso. Resta quindi solo da considerare il caso in cui A sia
un insieme infinito. Dimostreremo in questo caso per assurdo che l’insieme A contiene i suoi punti
di accumulazione e quindi è chiuso per il teorema 22.
Se A è infinito, essendo limitato per quanto osservato sopra deve possedere almeno un punto di
accumulazione x0 , per il teorema di Bolzano-Weierstrass, ed ammettiamo per assurdo che x0 < A.
Costriuamo un ricoprimento F nel modo seguente: per ogni x ∈ A, sia 0 < ε(x) < |x − x0 |, cioè
un numero positivo minore della distanza tra x ed il punto di accumulazione x0 (x0 non fa parte
di A quindi la distanza tra un punto qualsiasi di A e x0 è sempre maggiore di 0), e ricopriamo
A con F = {(x − ε(x), x + ε(x))}. F è ovviamente un ricoprimento di A, in quanto ogni punto x
di A è contenuto in almeno uno degli intervalli che costituiscono F (ad es. (x − ε(x), x + ε(x))); si
osservi che nessuno di tali intervalli contiene il punto di accumulazione x0 . Ma per ipotesi ammettiamo
che esista un sottoricoprimento finito di F : sia tale sottoricoprimento finito formato dagli intervalli
Ik = (xk − ε(xk), xk + ε(xk), k = 1, . . . , M. Ora, nessuno di tali intervalli contiene x0 , e quindi nemmeno la
M
[
loro unione B =
Ik . Ma la distanza di x0 da ciascun intervallo Ik è maggiore di 0 e quindi anche la
k=1
distanza da B da x0 è maggiore di 0, e quindi x0 è esterno a B. Ma siccome B contiene A (è l’unione di
intervalli che formano un ricoprimento di A), x0 è anche esterno a A, il che contraddice l’ipotesi che
x0 sia un punto di accumulazione.
1
Ak non può essere vuoto. Infatti se lo fosse allora potrei prendere Fk vuoto e ricoprire il nulla col nulla,
ottenendo un ricoprimento finito, perché costituito da 0 elementi.
147
Alberto Berretti
Analisi Matematica I
3.4.5. Successioni fondamentali
Ci resta da dimostrare un importante teorema che ci permette di affermare l’esistenza del
limite per tutte le successioni che soddisfano una semplice condizione. Tale teorema dipende
dal teorema di Bolzano-Weierstrass, e quindi viene dimostrato solo adesso.
Una successione {an } viene detta successione fondamentale ovvero successione di Cauchy
se ∀ε > 0 ∃N tale che n, m > N ⇒ |an − am | < ε. In altri termini, in una successione
fondamentale la differenza tra due valori della successione è piccola a piacere, purché prenda
gli indici sufficientemente grandi: per valori grandi dell’indice una successione fondamentale
“varia poco”, sempre di meno man mano che gli indici diventano sempre piú grandi.
Proposizione 16. Una successione fondamentale è limitata.
Dimostrazione. Prendiamo nella definizione di successione fondamentale ε = 1. Dunque ∃N
tale che se n, m > N allora |an − am | < 1. In particolare, posso prendere m = N + 1 ed ottenere:
∀n > N :
aN+1 − 1 < an < aN+1 + 1,
cioè se n > N allora la successione è compresa fra aN+1 − 1 e aN+1 + 1. D’altra parte, se n ≤ N,
abbiamo un numero finito di elementi della successione, ed un insieme finito di numeri
ammette sempre massimo e minimo: sia pertanto an1 il piú piccolo e an2 il piú grande degli
a1 , . . . , aN . Allora chiaramente:
∀n :
min(an1 , aN+1 − 1) ≤ an ≤ max(an2 , aN+1 + 1).
Teorema 27. Una successione ammette limite finito se e solo se è fondamentale.
Dimostrazione. Se lim an = l, allora:
n→∞
ε
n > N ⇒ |an − l| < .
2
∀ε > 0 ∃ N :
Quindi se sia n che m sono maggiori di N abbiamo:
|an − am | = |an − l + l − am | ≤ |an − l| + |am − l| <
ε ε
+ = ε,
2 2
e la prima metà del teorema è dimostrata.
Viceversa, sia {an } una successione fondamentale. Per la proposizione 16, {an } è limitata e
per il teorema 25 ammette una sottosuccessione {ank } convergente:
lim ank = l,
k→∞
148
Alberto Berretti
Analisi Matematica I
cioè:
∀ε > 0 ∃ K :
Ma nk → ∞ e quindi:
k > K1 → |ank − l| <
∀M > 0 ∃ K2 > 0 :
ε
.
2
nk > M,
ed essendo {an } una successione fondamentale abbiamo pure:
∀ε > 0 ∃ M :
n, m > M ⇒ |an − am | <
ε
.
2
Quindi ∀ε > 0 se n > M e k > max(K1 , K2 ):
|an − l| = |an − ank + ank − l| ≤ |an − ank | + |ank − l| <
ε ε
+ = ε,
2 2
ed il teorema è dunque dimostrato.
3.5. Funzioni continue: definizioni e proprietà elementari
Una funzione continua è intuitivamente una funzione “che non fa salti”. Questo concetto
intuitivo è tuttavia molto lontano da una formulazione matematica esatta, in grado di portare
a risultati utili. Definiamo ora in modo matematicamente corretto il concetto di continuità
di una funzione di una variabile reale, e studiamo le proprietà elementari delle funzioni
continue di una variabile reale.
3.5.1. Definizioni ed esempi
Una funzione f (x) è continua in un punto x0 appartenente al proprio dominio dom( f ) se
lim f (x) = f (x0 ). In altri termini, la funzione f (x) è continua in x0 se:
x→x0
∀ε > 0 ∃ δ > 0 :
|x − x0 | < δ ⇒ | f (x) − f (x0 )| < ε.
(3.39)
Per poter parlare di continuità della funzione f nel punto x0 , pertanto, non solo il punto
x0 deve far parte del dominio della funzione (altrimenti non possiamo scrivere f (x0 )), ma
deve avere senso parlare di limite per x → x0 : pertanto per poter dare un senso alla (3.39)
dobbiamo assumere che x0 sia un punto di accumulazione del dominio della funzione: ad es.
(ma non solo) un punto interno al dominio, o, se il dominio è un intervallo, uno degli estremi
dell’intervallo. La definizione data dunque non si applica se il punto x0 è un punto che fa
parte del dominio della funzione, ma non è un punto di accumulazione, e cioè se x0 è un
punto isolato del dominio; tipicamente una funzione viene definita continua “per default” in
un punto isolato, ma la continuità delle funzioni definite in un solo punto non è un argomento
che ci appassiona.
149
Alberto Berretti
Analisi Matematica I
Noi siamo passati dal definire la continuità di una funzione in un punto utilizzando il
limite alla (3.39) utilizzando la definizione di limite in modo diretto, “in termini di ε e δ”.
Si osservi che non abbiamo scritto 0 < |x − x0 | < δ, ma solo |x − x0 | < δ: infatti essendo la
funzione definita in x0 non abbiamo bisogno di escludere tale punto, ed essendo il valore del
limite esattamente uguale al valore della funzione in x0 il secondo membro dell’implicazione
contenuta nella (3.39) è automaticamente soddisfatto quando x = x0 .
I.
Una funzione è continua in un insieme I ⊂ dom( f ) se è continua in ogni punto dell’insieme
Se lim+ f (x) = f (x0 ) si dice che la funzione f è continua da destra in x0 . Analogamente se
x→x0
lim− f (x) = f (x0 ) si dice che la funzione f è continua da sinistra.
x→x0
Esempio 43. Tutti i teoremi che abbiamo dimostrato precedentemente sui limiti ci forniscono
una ampia dotazione di funzioni continue. In particolare:
• Una funzione costante f (x) = c è continua.
• La funzione identità f (x) = x è continua.
• La somma di due funzioni continue è una funzione continua.
• Il prodotto di due funzioni continue è una funzione continua.
• Il quoziente di due funzioni continue è una funzione continua.
• La funzione f (x) = xα , α ∈ R, è continua per ogni x in cui è definita (cioè per ogni x se
α ≥ 0, e per ogni x , 0 se α < 0).
• Le funzioni f (x) = ax (a > 0), f (x) = loga x (a > 0, a , 1) sono continue nel loro dominio.
• Un polinomio è una funzione continua.
• Una funzione razionale è una funzione continua dove è definita (cioè dove il denominatore non si annulla).
È utile rintracciare i teoremi e le osservazioni sui limiti che permettono di verificare tali
asserzioni.
Esempio 44. È immediato verificare che se f , g sono funzioni continue in A ⊂ R allora
max( f, g) e min( f, g) sono pure funzioni continue in A. Da questo segue che se f è una
funzione continua, anche | f | = max( f, − f ) è una funzione continua (e quindi anche la parte
positiva f+ = ( f + | f |)/2 e la parte negativa f− = (| f | − f )/2).
Esempio 45. Sia h(x) = f (g(x)), dove il dominio di f contiene il codominio di g, sia g continua
in x0 e f continua in g(x0 ). Allora h(x) è continua in x0 : ciò segue immediatamente dal teorema
sul limite delle funzioni composte. Si osservi che la condizione aggiuntiva, per la quale in
un intorno di x0 la funzione g deve assumere il valore g(x0 ) solo in x0 , non è necessaria per la
medesima ragione per la quale nella definizione di continuità (3.39) scriviamo solo |x− x0 | < δ
e non 0 < |x − x0 | < δ.
150
Alberto Berretti
Analisi Matematica I
Esempio 46. La funzione f (x) = sin x è continua in ogni x. Infatti:
| sin x − sin x0 | = 2 cos
x − x0
x − x0
x + x0
sin
≤ 2 sin
,
2
2
2
il cui limite per x → x0 è 0. La continuità della funzione cos x, che potrebbe comunque essere
dimostrata in modo analogo, segue dalle formule della trigonometria elementare, cosí come
la continuità della funzione tan x ove definita.
Esempio 47. Consideriamo la funzione gradino:




0
f (x) = 


1
se x ≤ 0,
se x > 0.
Allora f (x) è continua per ogni x , 0, e discontinua in x = 0.
Esempio 48. In questo esempio abbiamo un esempio di una funzione definita ovunque ed
ovunque discontinua. Sia µ(x) la funzione di Dirichlet:




0
µ(x) = 


1
se x ∈ R \ Q,
se x ∈ Q.
Allora µ(x) è discontinua ∀x ∈ R. Infatti in ogni intervallo (x − δ, x + δ), sia se x è razionale sia
se x è irrazionale, esistono sempre sia numeri razionali che numeri razionali, per quanto sia
piccolo δ > 0, e quindi in ogni tale intervallo esistono punti in cui la funzione vale 0 e punti
in cui la funzione vale 1, che quindi non può essere continua.
Esempio 49. È immediato verificare che la funzione xµ(x) è continua per x = 0 e discontinua
per ogni altro numero reale.
Esempio 50. Quest’esempio è ancora piú “esotico” ed è piuttosto lontano dal concetto intuitivo di funzione continua perché “non fa salti”. Scriviamo ogni numero razionale x come
frazione p/q, ridotta ai minimi termini (gcd(p, q) = 1): come è noto, ciò può essere fatto in
modo unico, a meno del segno. Definiamo quindi:




0
f (x) = 


 12
q
se x ∈ R \ Q,
se x ∈ Q.
Allora f (x) è continua sugli irrazionali e discontinua sui razionali. Infatti, se x0 è razionale,
f ha un valore 1/q2 > 0, ma in ogni intervallo (x0 − δ, x0 + δ) esistono degli irrazionali
(infiniti irrazionali), in cui la funzione vale 0: pertanto, per quanto piccolo prenda δ, la
differenza fra f (x0 ) = 1/q2 e alcuni dei punti in (x0 − δ, x0 + δ) (gli irrazionali in cui f vale 0)
151
Alberto Berretti
Analisi Matematica I
resta pari a 1/q2 e quindi non può essere resa piccola a piacere; quindi f è discontinua sui
razionali. Viceversa, se x0 è irrazionale, consideriamo di nuovo l’intervallo (x0 − δ, x0 + δ);
allora f (x0 ) = 0, e man mano che prendiamo δ sempre piú piccolo i razionali contenuti in
(x0 − δ, x0 + δ) approssimano sempre meglio l’irrazionale x0 , e quindi hanno dei denominatori
q sempre piú grandi: pertanto nei razionali dell’intervallo (x0 − δ, x0 + δ) la funzione f ha un
valore pari a 1/q2 > 0 ma q → ∞ quando δ → 0 pertanto f (x) → 0 = f (x0 ) quando x → x0 , da
cui la sua continuità.
Un altro teorema sui limiti che si generalizza immediatamente alle funzioni continue è il
seguente.
Teorema 28 (Permanenza del segno). Sia f (x) definita in un intervallo I, sia x0 ∈ I e sia f continua
in x0 , f (x0 ) > 0. Allora esiste un intorno di x0 in cui f (x) > 0.
Ovviamente vale un risultato analogo se f (x0 ) < 0.
Dimostrazione. Segue immediatamente dal teorema della permanenza del segno per il limite
e dalla definizione di funzione continua.
È utile anche classificare la natura dei punti in cui una funzione non è continua. Se
lim f (x) = lim− f (x) , f (x0 ), cioè i limiti per x → x0 da destra e da sinistra esistono e sono
x→x+
0
x→x0
uguali ma differiscono dal valore della funzione in x0 , si dice che x0 è una discontinuità
rimuovibile: in fatti in tal caso cambiando la definizione della funzione in un punto – definendo
cioè f (x0 ) pari al limite richiesto – la funzione può essere trasformata in una funzione continua
in x0 . Se invece lim+ f (x) , lim− f (x), cioè i limiti da destra e da sinistra in x0 esistono ma sono
x→x0
x→x0
diversi, si dice che x0 è una discontinuità di prima specie o di salto, per ovvie ragioni. In
tutti gli altri casi (ad es. anche uno solo dei due limiti da destra o da sinistra non esiste o è
infinito) si parla di discontinuità di seconda specie.
Esempio 51. Sia:


sin x


 x
f (x) = 


0
se x , 0,
se x = 0.
Il limite per x → 0 di f (x) è 1, ma la funzione nell’origine vale 0, per cui x = 0 è una
discontinuità rimuovibile: cambiando la definizione di f in 0 – definendola pari a 1 –
otterremmo una funzione continua.
Esempio 52. La funzione gradino definita nell’esempio 47 ha una discontinuità di prima
specie o di salto nell’origine. Infatti il limite per x → 0 da destra è 1 mentre il limite per x → 0
da sinistra è 0.
152
Alberto Berretti
Esempio 53. Sia:
Analisi Matematica I


1


x
f (x) = 


0
se x , 0,
se x = 0.
Allora il limite per x → 0 da destra è +∞ mentre il limite per x → 0 da sinistra è −∞, per cui
si tratta di una discontinuità di seconda specie.
Esempio 54. Sia:


1/x


e
f (x) = 


0
se x , 0,
se x = 0.
Allora il limite per x → 0 da destra è +∞ mentre il limite per x → 0 da sinistra è 0, per cui si
tratta ancora di una discontinuità di seconda specie.
Esempio 55. Sia:


1


sin x
f (x) = 


0
se x , 0,
se x = 0.
Allora i limiti per x → 0 da destra e da sinistra non esistono, per cui si tratta di nuovo di una
discontinuità di seconda specie.
Osservazione 23. Facendo riferimento all’esempio precedente, se avessimo definito semplicemente f (x) = sin(1/x), allora l’origine non sarebbe stata un punto di discontinuità di
seconda specie, perché in questo caso la funzione non è definita in 0. In altri termini, per poter
parlare di continuità o discontinuità di una funzione in x0 , la funzione deve essere definita in x0 .
Importante: alla domanda “ f (x) = 1x è una funzione continua?” si deve rispondere “si”,
perché nel punto x = 0 dove si potrebbe pensare che la funzione sia discontinua la funzione
in realtà non è definita, e quindi non si può parlare di continuità o meno.
3.5.2. Teorema dell’esistenza degli zeri
Il teorema dell’esistenza degli zeri enuncia una delle proprietà piú importanti delle funzioni
continue, e giustifica il nome che viene loro dato.
Teorema 29. Sia f una funzione continua nell’intervallo chiuso e limitato [a, b] e sia f discorde agli
estremi dell’intervallo (cioè f (a) f (b) < 0). Allora esiste α ∈ (a, b) tale che f (α) = 0.
In parole povere, se una funzione continua “parte da a” e “arriva fino a b”, in a ha un certo
segno ed in b ha il segno opposto, “da qualche parte in mezzo” è passata per lo 0, “senza
saltare”, appunto.
153
Alberto Berretti
Analisi Matematica I
Dimostrazione. Daremo ben due dimostrazioni di questo risultato, perché entrambe sono
interessanti di per sé. In entrambe le dimostrazioni assumiamo che f (a) < 0, f (b) > 0: l’altro
caso è sostanzialmente identico.
Prima dimostrazione. Sia A = {x ∈ [a, b] : f (x) < 0} =⊂ [a, b]. L’insieme A non è vuoto,
perché contiene almeno a. L’insieme A è limitato superiormente, perché tutti gli x in A sono
minoridi b. Poiché A è non vuoto e limitato superiormente, possiede un estremo superiore
α. f (α) non può essere positivo: infatti se lo fosse per il teorema della permanenza del segno
esisterebbe δ > 0 tale che se x ∈ (α − δ, α) allora f (x) > 0, e quindi l’estremo superiore di A
sarebbe inferiore a α. f (α) non può essere negativo: infatti se lo fosse per il teorema della
permanenza del segno esisterebbe δ > 0 tale che se x ∈ (α, α + δ) allora f (x) < 0, e quindi
l’estremo superiore di A sarebbe superiore a α. Quindi f (α) deve essere 0.
Seconda dimostrazione. Dividiamo l’intervallo [a, b] in due parti uguali [a, c] e [c, b], c =
(a + b)/2. I casi sono tre: f (c) = 0, f (c) > 0 o f (c) < 0. Nel primo caso abbiamo trovato lo
zero richiesto ed il teorema è dimostrato. Nel secondo caso poniamo a1 = a, b1 = c. Nel terzo
caso poniamo a1 = c, b1 = b. Ci ritroviamo comunque con un intervallo lungo la metà tale
che f (a1 ) < 0, f (b1 ) > 0. Possiamo quindi ripetere la costruzione prendendo c1 = (a1 + b1 )/2
ed ottenendo o f (c1 ) = 0, in qual caso la dimostrazione del teorema è terminata, o un nuovo
intervallo [a2 , b2 ] tale che f (a2 ) < 0, f (b2 ) > 0 e lungo la metà del precedente, e cioè un quarto
di quello di partenza. La costruzione può essere iterata finché non arriviamo ad un k tale che
f (ck ) = 0, in qual caso la dimostrazione del teorema è terminata, o in caso non termini mai
può essere iterata all’infinito. In questo secondo caso, abbiamo ottenuto due successioni {ak },
{bk }, tali che (i) ak ր (ii) bk ց (iii) ak < b (iv) bk > a (v) bk − ak = (b − a)/2k → 0. Ragionando
come nella dimostrazione dei teoremi di Bolzano-Weierstrass e di Heine-Borel, esiste allora
un α ∈ [a, b] tale che lim ak = lim bk = α. f (α) non può essere positivo: se lo fosse, ∃ δ > 0
k→∞
k→∞
tale che in (α − δ, α) f > 0 per il teorema della permanenza del segno; ma in tale intervallo,
poiché ak ր α, esistono sempre degli ak (basta prendere k sufficientemente grande!) nei quali
f (ak ) < 0, ottenendo dunque una contraddizione. f (α) non può essere negativo: se lo fosse,
∃ δ > 0 tale che in (α, α + δ) f < 0 per il teorema della permanenza del segno; ma in tale
intervallo, poiché bk ց α, esistono sempre dei bk (basta prendere k sufficientemente grande!)
nei quali f (bk ) > 0, ottenendo dunque un’altra contraddizione. Dunque f (α) = 0, e quindi
ovviamente α non può essere né a né b quindi α ∈ (a, b).
Si noti che il teorema dell’esistenza degli zeri ci dimostra che nelle ipotesi indicate esiste
almeno uno zero. In realtà potrebbe esisterne piú di uno, come è ovvio.
Le seguenti sono alcune conseguenze, piú o meno elementari, del teorema dell’esistenza
degli zeri.
154
Alberto Berretti
Analisi Matematica I
Corollario 1. Sia f definita e continua nell’intervallo [a, b] e sia f (a) < y, f (b) > y; allora ∃ α ∈ (a, b)
tale che f (α) = y.
Dimostrazione. Basta applicare il teorema alla funzione h(x) = f (x) − y.
Corollario 2. Siano f , g funzioni definite e continue nell’intervallo [a, b], e sia f (a) < g(a), f (b) >
g(b); allora ∃α ∈ (a, b) tale che f (α) = g(α).
Dimostrazione. Basta applicare il teorema alla funzione h(x) = f (x) − g(x).
Corollario 3. Sia f definita e continua in un intervallo I. Allora f assume in I tutti i valori compresi
tra inf f e sup f .
I
I
Dimostrazione. Si osservi che non è necessario che I sia chiuso e limitato. Se inf f < y < sup f ,
I
I
allora esistono a, b ∈ I tali che f (a) < y < f (b). Se consideriamo l’intervallo [a, b] se a < b,
ovvero [b, a] se a > b, siamo nelle condizioni del corollario 1.
Corollario 4. Sia f una funzione continua in un intervallo I. Allora l’immagine f (I) è un intervallo.
Dimostrazione. È una conseguenza diretta del corollario precedente e del significato della
parola “intervallo”.
3.5.3. Continuità della funzione inversa
La continuità della funzione inversa non è automaticamente vera. È facile infatti trovare dei
controesempi, cioè delle funzioni continue in ogni punto del loro dominio la cui inversa non
è continua. Un esempio classico è il seguente.
Esempio 56. La funzione:




x
f (x) = 


x − 1
se x < 0,
se x ≥ 1
è definita in (−∞, 0) ∪ [1, +∞) ed è continua in ogni punto del suo dominio. La sua funzione
inversa è data da:




y
g(y) = 


y + 1
se y < 0,
se y ≥ 0,
è definita ∀y ∈ R ed ha una discontinuità di prima specie in 0 (v. fig. 3.2)
È chiaro che il risultato apparentemente paradossale è stato ottenuto giocando con il
dominio della funzione f , che non è un intervallo. In effetti vale il seguente teorema.
155
Alberto Berretti
Analisi Matematica I
2.0
1.5
1.0
1.0
0.5
0.5
-1.0
-1.0
- 0.5
0.5
1.0
1.5
- 0.5
0.5
1.0
2.0
- 0.5
- 0.5
-1.0
-1.0
(a) f (x)
(b) g(y)
Figura 3.2.: Discontinuità dell’inversa di una funzione continua.
Teorema 30. Sia f : I 7→ R una funzione continua e invertibile nell’intervallo I. Allora la funzione
inversa è continua.
Il teorema discende dalla seguente proposizione.
Proposizione 17. Sia f : I 7→ R una funzione continua ed invertibile nell’intervallo I. Allora f è
strettamente monotona.
Dimostrazione. Siano x1 , x2 , x3 ∈ I tali che x1 < x2 < x3 . Dobbiamo dimostrare che o f (x1 ) <
f (x2 ) < f (x3 ) o f (x3 ) < f (x2 ) < f (x1 ).
Sia f (x1 ) < f (x3 ), e assumiamo che f (x1 ) < f (x3 ) < f (x2 ). Allora per il corollario 1 esiste
un x̄ ∈ (x1 , x2 ) tale che f (x̄) = f (x3 ) il che contraddice l’invertibilità della f . Se assumiamo
che f (x2 ) < f (x1 ) < f (x3 ), allora per il medesimo corollario deve esistere x̄ ∈ (x1 , x2 ) tale
che f (x̄) = f (x3 ) contraddicendo di nuovo l’invertibilità della f , e pertanto deve essere
f (x1 ) < f (x2 ) < f (x3 ).
Sia f (x3 ) < f (x1 ), e assumiamo che f (x3 ) < f (x1 ) < f (x2 ). Allora esiste x̄ ∈ (x1 , x2 ) tale che
f (x̄) = f (x3 ), contraddicendo l’invertibilità di f . Se assumiamo che f (x2 ) < f (x3 ) < f (x1 ),
allora esiste x̄ ∈ (x1 , x2 ) tale che f (x̄) = f (x3 ) contraddicendo ancora l’invertibilità di f , e
pertanto deve essere f (x3 ) < f (x2 ) < f (x1 ).
Dimostriamo ora il teorema.
Dimostrazione. Se f è continua e invertibile nell’intervallo I, per la proposizione precedente
è monotona. Possiamo immaginare che la f sia crescente: in caso contrario la dimostrazione
156
Alberto Berretti
Analisi Matematica I
differisce di poco. Anche la f −1 è dunque crescente, e quindi esistono i limiti l+ = lim+ f −1 (y),
y→y0
l− = lim− f
y→y0
−1
(y), che soddisfano l− ≤ l+ . Se l− = l+ allora
f −1
è continua e quindi abbiamo
fatto. Se l− < l+ allora ∃x̄ tale che l− < x̄ < l+ ; in tal caso, per la monotonia di f abbiamo che
∀δ > 0:
f (l− − δ) < f (x̄) < f (l+ + δ)
(ovviamente δ deve essere sufficientemente piccolo da far sí che l− − δ, l+ + δ stiano nel
dominio di f !). Abbiamo quindi per la monotonia della f :
f (x̄) ≥ y0 ,
f (x̄) ≤ y0
(per la monotonia della f e per la definizione di limite, ovvero facendo tendere δ a 0 nella
formula precedente). Quindi f (x̄) = y0 . Ne segue una alternativa fra due cose entrambe
impossibili: o in (l− , l+ ) c’è un solo punto in cui la f è definita, e quindi il suo dominio
contrariamente all’ipotesi non è un intervallo, o ∀x ∈ (l− , l+ ) la f vale y0 , ma allora non è
invertibile perché non iniettiva.
3.6. Funzioni continue in un intervallo chiuso e limitato
Le funzioni continue in un intervallo chiuso e limitato godono di alcune proprietà importanti.
3.6.1. Teorema di Weierstrass
Il teorema che dimostriamo in questo paragrafo, importantissimo, garantisce l’esistenza degli
estremi delle funzioni continue definite in un intervallo chiuso e limitato.
Teorema 31. Sia f : [a, b] 7→ R una funzione continua nell’intervallo chiuso e limitato [a, b]. Allora
f è limitata in [a, b].
Dimostrazione. La dimostrazione segue il medesimo schema del teorema di Bolzano-Weierstrass e di Heine-Borel.
Supponiamo che f sia illimitata in [a, b], e ponendo c = (a + b)/2, dividiamo tale intervallo
nelle due metà [a, c] e [c, b]. Se f è illimitata in [a, b], allora dovrà essere illimitata o in [a, c] o
in [c, b] (o in entrambe); sia [a1 , b1 ] quello dei due intervalli in cui la funzione è illimitata (uno
qualsiasi se è illimitata in entrambe). Chiaramente a1 ≥ a, b1 ≤ b e b1 −a1 = (b−a)/2. Possiamo
ripetere il medesimo argomento con l’intervallo [a1 , b1 ], ottenendo un intervallo [a2 , b2 ] tale
che a2 ≥ a1 , b2 ≤ b1 e b2 − a2 = (b1 − a1 )/2, e cosí via. Otteniamo dunque due successioni {ak },
{bk }, ak ր e < b, bk ց e > a, e quindi ak ր α, bk ց β. Poiché bk − ak = (b − a)/2k → 0 deve
essere β = α.
157
Alberto Berretti
Analisi Matematica I
Ora, osserviamo che essendo f continua in [a, b] e quindi anche in α, ∀ε > 0 ∃ δ > 0 tale che
se x ∈ (α − δ, α + δ) allora f (α) − ε < f (x) < f (α) + ε, e quindi ∃ δ > 0 tale che in (α − δ, α + δ)
la f è limitata. Ma poiché ak ր α e bk ց α, ∀δ > 0 ∃K tale che [aK , bK ] ⊂ (α − δ, α + δ), ed
essendo f illimitata in [aK , bK ] abbiamo ottenuto una contraddizione.
Teorema 32 (Weierstrass). Sia f continua nell’intervallo chiuso e limitato [a, b]. Allora f ammette
in tale intervallo massimo e minimo.
Dimostrazione. Se f è continua nell’intervallo chiuso e limitato [a, b] per il teorema precedente
è limitata, quindi ammette estremo inferiore m ed estremo superiore M.
Se m è l’estremo inferiore della funzione f nell’intervallo [a, b], allora esiste una successione
{xk }, xk ∈ [a, b], tale che lim f (xk ) = m. Ma la successione {xk } è limitata perché contenuta
k→∞
nell’intervallo limitato [a, b], e quindi possiede per il teorema di Bolzano-Weierstrass una
sottosuccessione convergente xkn → x̄, x̄ ∈ [a, b]. Chiaramente f (xkn ) è una sottosuccessione
di f (xk ) e quindi tende a m; essendo allora f continua, f (x̄) = m, cioè l’estremo inferiore della
funzione è effettivamente un valore della funzione assunto in un punto dell’intervallo [a, b]
e quindi è un minimo.
La dimostrazione che M è un massimo è sostanzialmente identica.
Il seguente corollario è ovvio.
Corollario 5. Nelle ipotesi del teorema precedente, f ([a, b]) = [m, M].
3.6.2. Continuità uniforme e teorema di Heine-Cantor
Sia f una funzione continua nell’intervallo I. Allora abbiamo che:
∀x ∈ I ∀ε > 0 ∃ δε,x > 0 ∀x′ ∈ I :
|x − x′ | < δ ⇒ | f (x) − f (x′ )| < ε.
(3.40)
Ovviamente δ dipende da ε, come è naturale, ma dipende anche da x. Nella (3.40) abbiamo
evidenziato tale dipendenza indicandola esplicitamente scrivendo δε,x . Abbiamo anche
sottolineato in precedenza (ad es. nell’osservazione 2) che il valore di δε,x che abbiamo
determinato non è necessariamente ottimale, cioè il migliore (in questo caso il piú grande)
valore di δ per cui vale | f (x) − f (x′ )| < ε.
Una questione di grande interesse che si pone (molto importante nella dimostrazione del-
l’integrabilità delle funzioni continue, come vedremo piú avanti, ma anche in altri problemi)
è quella di stabilire se sia possibile, per una funzione continua in un intervallo I o comunque
in un insieme I, anche se non si tratta di un intervallo, determinare δε,x in modo tale che
non dipenda da x, cioè determinare un valore di δ che, dipendendo solo da ε, sia valido per
determinare la continuità della funzione f in tutti i punti di I.
158
Alberto Berretti
Analisi Matematica I
Definiamo dunque una funzione f definita in I come uniformemente continua in I se:
∀ε > 0 ∃ δε ∀x, x′ ∈ I :
|x − x′ | < δε ⇒ | f (x) − f (x′ )| < ε.
(3.41)
Cosa è cambiato rispetto alla (3.40)? Abbiamo “solo” spostato un quantificatore (il ∀x ∈ I)
dopo la condizione di esistenza di δ, che pertanto non dipende da x: in altri termini, ora
quanto devono essere vicini x e x′ affinché f (x) e f (x′ ) siano vicini quanto richiesto (cioè meno di ε)
non dipende da x e x′ .
Osservazione 24. È evidente che se una funzione è uniformemente continua in I allora è
anche continua in ogni punto di I.
Osservazione 25. Dunque una funzione f soddisfa la (3.40) e ∃ δ̄ε : 0 < δ̄ε ≤ δε,x ∀x ∈ I se e
solo se la f è uniformemente continua. In altri termini, è possibile scegliere δε,x nella (3.40)
in modo tale che inf δε,x = δ̄ε > 0 se e solo se f è uniformemente continua in I.
x∈I
Osservazione 26. Mentre ha senso parlare di continuità di una funzione in un punto, anzi
il concetto di continuità è un concetto che vale per una funzione in un punto, e poi si dice
che è continua in un insieme se è continua in tutti i punti dell’insieme, non ha senso parlare
di continuità uniforme di una funzione in un punto. Il concetto di uniformità vuol dire che
qualcosa non dipende dal punto, e quindi non ha senso applicarlo quando il punto in cui
studiamo la questione non varia.
Esempio 57. Sia f (x) = x2 , I = [0, 1]. Allora abbiamo che ∀x1 , x2 ∈ [0, 1] |x21 − x22 | = |x1 + x2 | |x1 −
x2 | < 2|x1 − x2 |, pertanto se prendiamo δε = ε/2, abbiamo che |x1 − x2 | < δε ⇒ |x21 − x22 | < ε, da
cui l’uniforme continuità della funzione nell’intervallo indicato.
Esempio 58. Sia f (x) = 1/x e sia Iα = [α, 1], 0 < α < 1. Allora f è uniformemente continua in
[
ogni intervallo Iα , ma non nella loro unione
[α, 1] = (0, 1]. Infatti:
α∈(0,1)
′
′
1 1 |x − x | |x − x |
=
−
≤
,
x x′ |x x′ |
α2
per cui scegliendo δε = α2 ε abbiamo che |x − x′ | < δε ⇒ |1/x − 1/x′ | < ε. Ma non possiamo
prendere α = 0 perché deve essere δε > 0. In effetti, la funzione non è uniformemente continua
in (0, 1]; infatti, prendiamo x′ = x + δ, allora:
δ
1 1 x − x′ = x(x + δ) ,
che, fissato δ, tende a +∞ per x → 0+ . Pertanto non è possibile scegliere δ cosí piccolo da
rendere |1/x − 1/x′ | < ε indipendentemente da x.
159
Alberto Berretti
Analisi Matematica I
Esempio 59. La funzione f (x) =
√
x è uniformemente continua tutto il suo dominio [0, +∞).
Infatti se a, b ≥ 0 vale la seguente, banale, disuguaglianza:
|a − b| ≤ a + b
(se a > b, |a − b| = a − b = a + b − 2b ≤ a + b, se a < b, |a − b| = b + a − 2a ≤ a + b e se a = b,
a − b = 0 ≤ a + b). Quindi:
√
√
√
√
√
√
| x − x′ |2 ≤ | x − x′ | · ( x + x′ ) = |x − x′ |,
√
√
quindi se |x − x′ | < δ = ε2 allora | x − x′ | < ε.
Fortunatamente il seguente teorema ci permette di evitare di stimare δε,x ogni volta che
dobbiamo determinare se una funzione è uniformemente continua.
Teorema 33 (Heine-Cantor). Una funzione continua in un intervallo chiuso e limitato è anche
uniformemente continua nel medesimo intervallo.
Dimostrazione. La dimostrazione utilizza la medesima tecnica dei teoremi di Bolzano-Weierstrass, di Heine-Borel e di Weierstrass.
Lemma 3. Sia f uniformemente continua negli intervalli [a, c] e [c, b]. Allora f è uniformemente
continua nell’intervallo [a, b].
Dimostrazione. Siccome f è uniformemente continua in [a, c] abbiamo che:
∀ε > 0 ∃δ1 > 0 ∀x′ , x′′ ∈ [a, c] :
|x′ − x′′ | < δ1 ⇒ | f (x′ ) − f (x′′ )| < ε.
Siccome f è uniformemente continua in [c, b] abbiamo che:
∀ε > 0 ∃δ2 > 0 ∀x′ , x′′ ∈ [c, b] :
|x′ − x′′ | < δ2 ⇒ | f (x′ ) − f (x′′ )| < ε.
Cosa succede se però x′ ∈ [a, c] e x′′ ∈ [c, b]? In questo caso, sfruttiamo il fatto che f è continua
in c e pertanto:
∀ε > 0 ∃δ3 > 0 :
|x − c| < δ3 ⇒ | f (x) − f (c)| <
ε
,
2
quindi se x′ ∈ [a, c], x′′ ∈ [c, b] e |x′ − x′′ | < δ3 abbiamo:
| f (x′ ) − f (x′′ )| = | f (x′ ) − f (c) + f (c) − f (x′′ )| ≤ | f (x′ ) − f (c)| + | f (x′′ ) − f (c)| <
ε ε
+ = ε.
2 2
Quindi comunque prendiamo x′ , x′′ nell’intervallo [a, b] abbiamo che:
|x′ − x′′ | < δ = min(δ1 , δ2 , δ3 ) ⇒ | f (x′ ) − f (x′′ )| < ε.
160
Alberto Berretti
Analisi Matematica I
Supponiamo ora che f : [a, b] 7→ R sia continua in [a, b] ma non uniformemente continua.
Come nelle dimostrazioni dei teoremi sopra citati, dividiamo l’intervallo [a, b] in due metà
[a, c] e [c, b], dove c = (a + b)/2. Allora per il lemma precedente f non è uniformemente
continua in almeno uno dei due intervalli [a, c] o [c, b]. Scegliamo dunque di questi due
intervalli uno in cui la f non è uniformemente continua, e chiamiamolo [a1 , b1 ]. Ripetendo
l’argomento, otteniamo due successioni ak , crescente e limitata superiormente da b, e bk ,
decrescente e limitata inferiormente da a, e tali che bk − ak = (b − a)/2k → 0. Pertanto
entrambe convergono e convergono al medesimo limite α ∈ [a, b].
Ora, la f è continua in α quindi ∀ε > 0 ∃δ > 0 tale che se |x − α| < δ allora | f (x) − f (α)| < ε/2,
quindi ∀ε > 0 ∃δ > 0 tale che se x′ , x′′ sono contenuti in (α − δ, α + δ) allora | f (x′ ) − f (x′′ )| ≤
| f (x′ ) − f (α)| + | f (x′′ ) − f (α)| < ε. Ma ∃k tale che ak ∈ (α − δ, α), bk ∈ (α, α + δ) e quindi
[ak , bk ] ⊂ (α − δ, α + δ); siccome l’intervallo [ak , bk ] è stato costruito in modo che la f non
sia uniformemente continua in tale intervallo, ∃ε > 0 tale che ∀δ > 0 ∃x′ , x′′ ∈ [ak , bk ] ⊂
(α − δ, α + δ) tali che | f (x′ ) − f (x′′ )| ≥ ε, il che costituisce una contraddizione.
Osservazione 27. Non è difficile, utilizzando il medesimo argomento utilizzato nella dimostrazione del teorema di Heine-Borel, dimostrare che se f è continua in un qualunque insieme
I chiuso e limitato (non necessariamente un intervallo) allora è uniformemente continua in I.
3.7. Esempi ed esercizi
Raccogliamo qui alcuni esercizi di ricapitolazione sul calcolo dei limiti e sul confronto fra
ordini di infinito o infinitesimo.
Esercizio 20. Calcolare il limite:
n
1 2
lim 1 + n .
n→∞
3
Soluzione. Abbiamo:
e 1+
n
1 3
3n
n
n !(2/3)n
1 3
1 2
,
= 1+ n
1+ n
3
3
k
è una sottosuccessione di 1 + 1k → e. Quindi:
n
1 2
n
n
n
1+ n
= (e + o(1))(2/3) = e(2/3) (1 + o(1))(2/3) → 1.
3
Esercizio 21. Calcolare il limite:
3
ex − cos(sin x)
.
lim
x→0 log(1 + tan 3x2 )
161
Alberto Berretti
Analisi Matematica I
Soluzione. Abbiamo:
3
ex − cos(sin x) = 1 + x3 + o(x3 ) − cos(x + o(x)) = 1 + x3 + o(x3 ) − 1 +
(x + o(x))2
=
2
x2
=
+ o(x2 ),
2
e:
log(1 + tan 3x2 ) = log(1 + 3x2 + o(x2 )) = 3x2 + o(x2 ),
per cui:
3
ex − cos(sin x) x2 /2 + o(x2 ) 1/2 + o(1) 1
1
= + o(1) → .
=
=
2
2
2
3
+
o(1)
6
6
log(1 + tan 3x
3x + o(x )
Esercizio 22. Disporre in ordine di infinitesimo crescente per x → 0+ le seguenti funzioni:

x2


1−e1−e

f
(x)
=

log
tan
x,





g(x) = (log(1 + tan x))2 ,





2

 h(x) = (ex /2 − cos x) log sin x.
Soluzione. Abbiamo:
2
f (x) =
2
x2 + o(x2 )
1 − e−x +o(x )
=
,
log(x + o(x)) log x + o(1)
perché log(x + o(x)) = log(x(1 + o(1)) = log x + log(1 + o(1)) = log x + o(1), pertanto:
f (x) =
x2 (1 + o(1))
x2 (1 + o(1))
=
,
(1 + o(1)/ log x) log x (1 + o(1)) log x
perché o(1)/ log x → 0 e quindi è o(1), e allora:
!
x2
x2
x2
(1 + o(1)) =
+o
.
f (x) =
log x
log x
log x
Poi:
g(x) = (log(1 + x + o(x)))2 = (x + o(x))2 = x2 + o(x2 ).
Infine:
h(x) = (1 + x2 /2 + o(x2 ) − 1 + x2 /2 + o(x2 )) log(x + o(x)) = x2 log x(1 + o(1)) =
= x2 log x + o(x2 log x).
Quindi l’ordinamento corretto è h, g, f . Infatti tutte e tre contengono la potenza x2 , ma h
è “rallentata” dal fattore log x che tende a ∞ per x → 0, mentre f è “accelerata” dal fattore
1/ log x che invece tende a 0 per x → 0.
162
Alberto Berretti
Analisi Matematica I
Esempio 60. Sia f (x) = x e g(x) = x + log x. Allora per x → +∞ f (x) ∼ g(x), cioè sono del
log x
medesimo ordine, in quanto ovviamente lim (x+ log x)/x = lim (1+
) = 1. Componendo
x→+∞
x→+∞
x
però f e g con la medesima funzione non è detto che continuino ad essere del medesimo ordine!
Ad esempio, se f˜(x) = e f (x) = ex e g̃(x) = eg(x) = xex allora g̃(x) tende a +∞ piú rapidamente di
f˜(x).
Esercizio 23. Disporre in ordine di infinitesimo crescente per x → 0+ le seguenti funzioni:




f (x) = (xx/2 − 1) sin(x log x),





4
2
x

g(x) = sin
+ ex − cos x3 ,

sin x2



(log x)(sin x) 2


h(x) = (1−etan log x ) .
Esercizio 24. Disporre in ordine di infinitesimo crescente per x → 0+ le seguenti funzioni:


1


f (x) = (1 − cos(1 − cos x)) log(1 + tan e− x ),






g(x) = log(1 + tan2 x2 ) + e1−cos x − etan x ,



x


x2

h(x) = e 1−x − cos x3 log 1+x
2.
Esercizio 25. Disporre in ordine di infinitesimo crescente per x → 0+ le seguenti funzioni:




f (x) = (xx − 1) sin(x log x),





4
2

g(x) = log cos x2 + ex − ex ,





1−cos(x log x)

h(x) =
.
log x
Esercizio 26. Sia:









f (x) = 







2|x|−x2
x
+
1+x2
1−x
+
sin πx
x−2
se x , 0, 1, 2
0 se x = 0, 1,
5
3
+ π se x = 2.
Determinare i punti in cui la funzione è continua e la natura degli eventuali punti di
discontinuità.
163
4. Derivate e studio di funzioni
Il concetto di derivata, introdotto sostanzialmente da Isaac Newton nel XVII secolo, rende
matematicamente rigoroso il concetto di tasso di variazione istantaneo di qualche quantità,
e quindi è cruciale per poter parlare in fisica di velocità, accelerazione etc.; praticamente
tutte le leggi fondamentali della fisica (ed in primis la seconda legge di Newton, F = ma) si
esprimono in termini di derivate.
4.1. Definizioni ed interpretazione geometrica
Definiremo prima la derivata, dandone successivamente l’importante interpretazione geometrica che aprirà la strada all’utilizzo dell’analisi per lo studio del grafico delle funzioni.
Quindi definiremo le derivate di ordine superiore ed alcune importanti classi di funzioni.
4.1.1. Definizione di derivata
Sia f : D 7→ R una funzione definita in D e sia x0 ∈ D. La derivata della funzione f nel
punto x0 è definita dal seguente limite (se esiste):
lim
h→0
f (x0 + h) − f (x0 )
f (x) − f (x0 )
= lim
.
x→x0
h
x − x0
(4.1)
Se la funzione f ammette derivata in x0 si dice che f è derivabile in x0 . Ovviamente se f è
derivabile ∀x ∈ I si dice che f è derivabile in I. Se f è derivabile in I, allora la sua derivata al
variare di x ∈ I è una funzione di x detta funzione derivata di f , o brevemente derivata di f
(intesa come funzione).
Per indicare la derivata della funzione f nel punto x0 possono essere utilizzate svariate
notazioni:
df
(x0 ) = f ′ (x0 ) = f˙(x0 ) = Dx f (x0 ),
dx
(4.2)
da attribuire rispettivamente a Leibniz, Lagrange, Newton ed Eulero. La notazione di Leibniz
è molto utile per ricordare alcune regole di derivazione a memoria, ma può essere fuorviante.
La notazione di Newton è spesso usata in fisica. Se è ovvio l’argomento della funzione f (ad
es. x), nella notazione di Eulero l’indice x viene in genere omesso. Infine, la notazione piú
usata dai matematici è in genere quella di Lagrange. Noi le useremo tutte, se ci fa comodo.
164
Alberto Berretti
Analisi Matematica I
Il limite nella (4.1) potrebbe non esistere perché i limiti da destra e da sinistra esistono ma
sono diversi tra di loro. In tal caso definiamo la derivata destra e la derivata sinistra nel
modo naturale:
f+′ = lim+
h→0
f−′ = lim−
h→0
f (x) − f (x0 )
f (x0 + h) − f (x0 )
= lim+
,
h
x − x0
x→x0
(4.3)
f (x0 + h) − f (x0 )
f (x) − f (x0 )
= lim−
.
h
x − x0
x→x0
(4.4)
Ovviamente se la derivata destra e la derivata sinistra esistono in x0 e sono uguali allora
la funzione è derivabile in x0 .
f (x) − f (x0 )
che appare nella definizione di derivata viene detto rapporto
Il rapporto
x − x0
incrementale della funzione f tra x0 e x, per cui la derivata è il limite del rapporto incrementale
su un intervallo che tende al punto x0 .
Proposizione 18. Se la funzione f è derivabile in x0 allora è anche continua in x0 .
Dimostrazione. La dimostrazione è praticamente ovvia. Poniamo:
∆(x) =
f (x) − f (x0 )
.
x − x0
Allora f (x) = f (x0 ) + ∆(x)(x − x0 ). Se ∆(x) tende a limite finito per x → x0 allora chiaramente
f (x) deve tendere a f (x0 ).
Osservazione 28. Si osservi che il risultato è valido anche se f ammette in x0 derivata sinistra
e derivata destra diverse.
1.2
1.1
1.0
Retta tangente
0.9
f(x)
0.8
Retta secante
1.1
1.2
1.3
1.4
1.5
1.6
1.7
Figura 4.1.: Significato geometrico del rapporto incrementale e della derivata.
165
Alberto Berretti
Analisi Matematica I
4.1.2. Interpretazione geometrica
La derivata ha una semplice interpretazione geometrica (v. fig. 4.1). Consideriamo una
funzione f definita ad es. in un intervallo I, e siano x0 , x1 ∈ I. Allora la secante al grafico di f
che passa per i punti (x0 , f (x0 )) , (x1 , f (x1 )) ha equazione:
y = f (x0 ) +
f (x1 ) − f (x0 )
(x − x0 ),
x1 − x0
(4.5)
per cui il rapporto incrementale è il coefficiente angolare della secante al grafico della funzione
f tra i punti indicati.
Al tendere di x1 a x0 , il rapporto incrementale tende – se il limite esiste – alla derivata
f ′ (x0 ), e la retta secante tende alla retta tangente al grafico della curva nel punto (x0 , f (x0 )):
y = f (x0 ) + f ′ (x0 )(x − x0 ),
(4.6)
da cui l’interpretazione importante della derivata di una funzione in un punto come coefficiente
angolare della retta tangente al grafico della funzione nel punto considerato.
Il rapporto incrementale di una funzione f (x) tra i valori x0 e x1 della variabile indipendente
x esprime il tasso di variazione medio tra x0 e x1 della quantità espressa dalla funzione f al variare
di x (“quanto varia f diviso quanto varia x”). Il suo limite quando x1 tende a x0 può essere
quindi interpretato come tasso di variazione istantanea della quantità espressa da f al variare
di x per x = x0 .
Sia ad es. x = f (t) la legge oraria che esprime la posizione x di un punto che si muove
su una retta al variare del tempo t. Allora la velocità media tra gli istanti di tempo t0 e t1 è
data dal rapporto incrementale ( f (t1 ) − f (t0 ))/(t1 − t0 ) , e la velocità instantanea nell’istante
di tempo t0 è data dal suo limite per t1 → t0 pari alla derivata f ′ (t0 ).
f (x) − f (x0 )
Se il limite del rapporto incrementale
tende a +∞ o a −∞ per x → x0 allora
x − x0
la posizione della retta tangente è verticale: in questo caso si dice che f ha in x0 un punto a
tangente verticale. Se la derivata destra e la derivata sinistra esistono (finite) e sono diverse,
allora si dice che f ha in x0 un punto angoloso. Se invece i limiti del rapporto incrementale
tendono a +∞ da un lato e a −∞ dall’altro, si dice che la funzione presenta in x0 una cuspide
(v. fig. 4.2).
4.1.3. Alcuni esempi
Esempio 61. La funzione costante f (x) = c ha derivata nulla. Infatti:
e quindi il limite è 0.
f (x) − f (x0 )
=0
x − x0
166
(4.7)
Alberto Berretti
Analisi Matematica I
1.0
1.0
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
- 0.5
-1.0
0.5
1.0
- 0.5
-1.0
(a) Punto angoloso
0.5
1.0
(b) Cuspide
1 .0
0 .5
- 1 .0
- 0 .5
0 .5
1 .0
- 0 .5
- 1 .0
(c) Tangente verticale
Figura 4.2.: Alcuni punti di non derivabilità.
Esempio 62. La funzione f (x) = x ha derivata pari a 1. Infatti:
f (x) − f (x0 ) x − x0
=
= 1,
x − x0
x − x0
e quindi il limite è 1.
(4.8)
Esempio 63. La funzione f (x) = x2 ha derivata pari a 2x. Infatti:
quando x → x0 .
f (x) − f (x0 ) x2 − x20
=
= x + x0 → 2x0
x − x0
x − x0
(4.9)
Esempio 64. La funzione f (x) = xn , n ∈ N, ha come derivata nxn−1 . Infatti, facendo uso della
cosiddetta “regola di Ruffini”, otteniamo:
quando x → x0 .
Pn−1 k n−1−k
(x✘
−✘
x✘
f (x) − f (x0 ) xn − xn0 ✘
0 ) k=0 x0 x
→ nxn−1
=
=
0
✘x✘
x−
x − x0
x − x0
✘
0
Esempio 65. Le funzioni utilizzate per i grafici della figura 4.2 sono:


2

se x ≥ 0,

x
f (x) = 


1 − (1 + x)2 se x < 0
nel caso del punto angoloso in 0, f (x) =
della tangente verticale in 0.
(4.10)
√
√
|x| nel caso della cuspide in 0 e f (x) = 3 x nel caso
167
Alberto Berretti
Analisi Matematica I
4.1.4. Derivate di ordine superiore
Se una funzione f è derivabile in D, allora come abbiamo visto è definita in D la funzione
derivata f ′ (x). Ovviamente ci possiamo chiedere se la derivata medesima sia a sua volta
derivabile, se cioè esista:
lim
h→0
f ′ (x + h) − f ′ (x)
.
h
(4.11)
Se tale limite esiste, cioè se esiste la derivata della derivata, allora diremo che esiste la derivata
seconda di f , che viene indicata con:
d2 f
= f ′′ (x) = f¨(x) = D2 f (x),
dx2
(4.12)
a seconda che si usi la notazione di Leibnitz, Lagrange, Newton o Eulero.
Possiamo iterare l’operazione, e definire per induzione - se esiste - la derivata di ordine n
di una funzione come la derivata della derivata di ordine n − 1. Indicheremo tali derivate
come:
dn f
= f (n) (x) = Dn f (x).
dxn
(4.13)
In fisica raramente occorrono derivate di ordine superiore al secondo pertanto la notazione
di Newton per le derivate di ordine qualsiasi non esiste.
È evidente che se una funzione ammette derivata n-esima tutte le derivate di ordine
inferiore esistono e sono funzioni continue.
L’insieme di tutte le funzioni derivabili con derivata continua in D viene indicato con il
simbolo C1 (D) (si legge “C uno”), e tali funzioni vengono dette funzioni di classe C1 in D.
L’insieme delle funzioni derivabili fino all’ordine n con derivata n-esima continua viene indicato
con il simbolo Cn (D) (si legge “C enne”) e tali funzioni vengono dette funzioni di classe
Cn in D. L’insieme delle funzioni che ammettono derivate di ogni ordine viene indicato con
il simbolo C∞ (D) (si legge “C infinito”), e tali funzioni vengono dette funzioni di classe
C∞ . Per analogia, l’insieme delle funzioni continue (ma non necessariamente derivabili) in
D viene indicato con il simbolo C0 (D).
Esempio 66. Per quanto riguarda le derivate di ordine superiore di una potenza, abbiamo le
seguenti formule degne di nota:
Dn xn = n!,
Dn+1 xn = 0,
n ∈ N.
(4.14)
Ne segue che la derivata n-esima di un polinomio di grado n è una costante e che la derivata
n + 1-esima, coí come quelle di ordine superiore, è nulla.
168
Alberto Berretti
Analisi Matematica I
4.2. Proprietà elementari delle derivate
Determiniamo ora le prime proprietà delle derivate, in particolare quelle che ci permetteranno di calcolare le derivate di funzioni senza dover necessariamente passare per il calcolo
del limite del rapporto incrementale e quelle legate alla crescenza e alla decrescenza delle
funzioni.
4.2.1. Calcolo delle derivate
Iniziamo con il seguente teorema.
Teorema 34. Siano f , g due funzioni derivabili in x0 , α ∈ R. Allora α f , f + g, f g, 1/ f e f /g sono
pure derivabili in x0 e le rispettive derivate sono date da:
(α f )′ = α f ′ ,
(4.15)
( f + g)′ = f ′ + g′ ,
(4.16)
( f g)′ = f ′ g + f g′ ,
!′
f′
1
= − 2,
f
f
!′
′
f
f g − f g′
.
=
g
g2
(4.17)
(4.18)
(4.19)
Ovviamente nel penultimo caso assumiamo che f (x0 ) , 0 e nell’ultimo che g(x0 ) , 0.
Le prime due formule di questo teorema ci dicono invece che la derivata è una operazione
lineare: la derivata di una combinazione lineare di due funzioni è la combinazione lineare
delle derivate delle funzioni:
(α f + βg)′ = α f ′ + βg′ .
(4.20)
Dimostrazione. Tutte le proprietà enunciate nel teorema discendono immediatamente da
proprietà elementari dei limiti.
La prima e la seconda sono ovvie:
lim
x→x0
e:
lim
x→x0
α f (x) − α f (x0 )
f (x) − f (x0 )
= α lim
= α f ′ (x0 ),
x→x0
x − x0
x − x0
f (x) − f (x0 )
g(x) − g(x0 )
f (x) + g(x) − f (x0 ) − g(x0 )
= lim
+ lim
= f ′ (x0 ) + g′ (x0 ).
x→x0
x→x0
x − x0
x − x0
x − x0
La terza è dimostrata mediante un semplice argomento:
lim
x→x0
f (x)g(x) − f (x0 )g(x) + f (x0 )g(x) − f (x0 )g(x0 )
f (x)g(x) − f (x0 )g(x0 )
= lim
=
x→x0
x − x0
x − x0
169
Alberto Berretti
Analisi Matematica I
= lim
x→x0
g(x) − g(x0 )
f (x) − f (x0 )
g(x) + f (x0 ) lim
= f ′ (x0 )g(x0 ) + f (x0 )g′ (x0 ).
x→x
x − x0
x − x0
0
Per quanto riguarda la quarta:
lim
1
f (x)
−
1
f (x0 )
x − x0
x→x0
= lim
x→x0
f (x0 ) − f (x)
f ′ (x0 )
.
=−
(x − x0 ) f (x) f (x0 )
f (x0 )2
La quinta segue dalla terza e dalla quarta.
È interessante determinare la formula per le derivate di ordine superiore del prodotto di
due funzioni. Abbiamo infatti la seguente formula.
Proposizione 19. Se f , g sono funzioni n volte derivabili, allora:
(n)
( f (x)g(x))
!
n
X
n (k)
=
f (x)g(n−k) (x).
k
(4.21)
k=0
Osserviamo che si tratta della medesima combinatoria che appare nella formula del
binomio di Newton dimostrata alla fine del cap. 2.
Dimostrazione. Trattandosi della medesima combinatoria del binomio di Newton, anche la
dimostrazione sarà identica. Procedendo per induzione, osserviamo che, nel caso n = 1,
questa formula si riduce alla usuale formula per la derivata del prodotto di funzioni, ed è
dunque vera. Quindi andiamo avanti dimostrando il caso (n) assumendo che la formula sia
vera nel caso (n − 1) nel modo seguente:
 n−1
′
!
X n − 1

(k)
(n−1−k)

( f (x)g(x)) = (( f (x)g(x))
) = 
f (x)g
(x) =
k
k=0
!
!
n−1
n−1
X
X
n − 1 (k+1)
n − 1 (k)
(n−1−k)
=
f
(x)g
(x) +
f (x)g(n−k) (x) =
k
k
k=0
k=0
!
!
n−2
n−1
X
X
n − 1 (k+1)
n − 1 (k)
(n)
(n−1−k)
= f (x) +
f
(x)g
(x) +
f (x)g(n−k) (x) + g(n) (x) =
k
k
k=0
k=1
!
n−1
n−1
X n−1
X n − 1!
(n)
(k)
(n−k)
= f (x) +
f (x)g
(x) +
f (k) (x)g(n−k) (x) + g(n) (x) =
k−1
k
k=1
k=1
!
!!
n−1
X n−1
n−1
(n)
= f (x) +
+
f (k) (x)g(n−k) (x) + g(n) (x) =
k−1
k
k=1
!
!
n−1
n
X
X
n (k)
n (k)
(n)
(n−k)
(n)
= f (x) +
f (x)g
(x) + g (x) =
f (x)g(n−k) (x),
k
k
(n)
(n−1) ′
k=1
k=0
come volevasi dimostrare.
170
Alberto Berretti
Analisi Matematica I
La dimostrazione della formula per la derivazione delle funzioni composte è un po’ piú
complessa.
Teorema 35 (Regola della catena). Sia:
g : (x0 − δ, x0 + δ) 7→ (y0 − η, y0 + η),
g(x0 ) = y0 ,
derivabile, e sia:
f : (y0 − η, y0 + η) 7→ I,
pure derivabile. Allora la funzione composta f (g(x)) è anche essa derivabile e la sua derivata è:
( f (g(x0 )))′ = f ′ (g(x0 ))g′ (x0 ).
(4.22)
Considerando il punto x0 come variabile possiamo quindi dire semplicemente che se le funzioni derivabili f e g hanno domini e codomini tali da essere possibile la loro composizione,
vale la regola ( f (g(x)))′ = f ′ (g(x))g′ (x).
Dimostrazione. Se g non vale mai y0 nell’intervallo (x0 − δ, x0 + δ) eccetto x0 (o comunque in
un altro intervallo aperto che contiene x0 , anche piú piccolo: se è chiaro il concetto di limite
ed il metodo degli ε e δ dovrebbe essere ovvio) allora è possibile dimostrare la regola della
catena in modo molto semplice:
lim
x→x0
f (g(x)) − f (g(x0 ))
f (y) − f (y0 )
g(x) − g(x0 )
= lim
· lim
= f ′ (y0 )g′ (x0 ),
y→y0
x→x0
x − x0
y − y0
x − x0
cioè la tesi. Questa dimostrazione però non funziona se non esiste nessun intorno di x0 in
cui g(x) non vale mai g(x0 ) (ad es. nel caso banale in cui g è costante!), perché l’oggetto del
primo limite cessa di essere definito (assumendo la forma 0/0) nell’intorno del punto y0 e
quindi il limite non è definito. Occorre quindi ragionare in modo leggermente diverso.
Definiamo dunque:

f (y) − f (y0 )




 y − y0
F(y) = 



 f ′ (y0 )
se
y , y0 ,
se
y = y0 .
Ovviamente F è continua e limitata in un intorno di y0 (perché?), ed inoltre vale:
f (g(x)) − f (g(x0 ))
g(x) − g(x0 )
= F(g(x)) ·
,
x − x0
x − x0
da cui segue immediatamente la tesi passando al limite per x → x0 .
Infine occorre trovare la formula per la derivata della funzione inversa di una funzione
data. Questa segue immediatamente dalla regola della catena.
171
Alberto Berretti
Analisi Matematica I
Teorema 36 (Derivata della funzione inversa). Siano date f (x), g(y), tali che nell’intervallo I
valga:
g( f (x)) = x,
Allora:
g′ (y) =
∀x ∈ I.
1
.
f ′ (g(y))
(4.23)
Dimostrazione. La dimostrazione di per sé è ovvia, in quanto (g( f (x)))′ = 1 dalle ipotesi, e per
la regola della catena (g( f (x)))′ = g′ (y) f ′ (x). Ma ponendo y = f (x) abbiamo x = g(y) e la tesi
segue immediatamente.
Può essere utile anche la seguente proposizione.
Proposizione 20. Sia f una funzione derivabile. Se f è una funzione pari, f ′ è una funzione dispari
e se f è una funzione dispari f ′ è una funzione pari.
Dimostrazione. Sia f pari. Allora:
f ′ (−x) = lim
h→0
f (−x + h) − f (−x)
f (x − h) − f (x)
f (x + h) − f (x)
= lim
= − lim
= − f ′ (x).
h
h
h
h→0
h→0
Analogamente se f è dispari.
4.2.2. Derivate delle funzioni elementari
Abbiamo ora gli strumenti per calcolare le derivate delle funzioni elementari, e a partire
da esse possiamo calcolare le derivate di quasi tutto utilizzando le regole del paragrafo
precedente (manca ancora una regola di derivazione, che estende la regola della catena, e
che introdurremo piú avanti).
Abbiamo già calcolato la derivata di una potenza intera n:
Dxn = nxn−1 .
(4.24)
Tale formula vale anche se n è un intero negativo:
Dxn = D
1
1
= − −2n (−n)x−n−1 = nx2n−n−1 = nxn−1
−n
x
x
(4.25)
(ricordarsi che −n è un intero positivo!).
Calcoliamo ora la derivata dell’esponenziale e del logaritmo (in base e). Abbiamo: ex+h −
ex = ex (eh − 1); dividendo per h e passando al limite per h → 0 otteniamo immediatamente:
Dex = ex ,
172
(4.26)
Alberto Berretti
Analisi Matematica I
ossia la derivata dell’esponenziale è l’esponenziale medesima (in base e). La derivata dell’esponenziale in altre basi si calcola immediatamente riconducendola all’esponenziale in base e:
infatti ax = ex log a , da cui Dax = ax log a. Il logaritmo è la funzione inversa dell’esponenziale,
per cui, ponendo x = ey , abbiamo che:
D log x =
1
1
1
= y = .
y
De
e
x
(4.27)
Scrivendo il logaritmo in base arbitraria in termini del logaritmo in base e otteniamo banalmente la sua derivata:
D loga x =
D log x
1
=
.
log a
x log a
(4.28)
Possiamo ora calcolare la derivata di una potenza di esponente arbitrario:
Dxα = Deα log x = eα log x
α
= αxα−1 ,
x
(4.29)
e cioè la medesima formula che vale per nel caso di esponente intero.
Calcoliamo ora le derivate delle funzioni trigonometriche. Abbiamo innanzitutto:
sin(x + h) − sin x sin x cos h + cos x sin h − sin x
cos h − 1
sin h
=
= sin x
+ cos x
,
h
h
h
h
(4.30)
e poiché cos h − 1 = O(h2 ) e sin h/h → 1 abbiamo che D sin x = cos x. Analogamente:
cos(x + h) − cos x cos x cos h − sin x sin h − cos x
cos h − 1
sin h
=
= cos x
− sin x
,
h
h
h
h
(4.31)
da cui otteniamo che D cos x = − sin x.
Da queste si ricavano immediatamente le derivate di tangente e cotangente:
1
sin x
cos2 x + sin2 x
=
= 1 + tan2 x,
=
2
2
cos x
cos x
cos x
(4.32)
cos x − sin2 x − cos2 x
1
=
= − 2 = −1 − cot2 x.
2
sin x
sin x
sin x
(4.33)
D tan x = D
e:
D cot x = D
Ricaviamo ora la formula per la derivata dell’arcotangente. Poiché abbiamo arctan tan x =
x, applichiamo la formula per la derivata della funzione inversa, ottenendo:
D arctan x =
1
,
D tan y
per cui:
D arctan x =
dove x = tan y,
1
1
=
.
2
1 + tan y 1 + x2
(4.34)
La derivazione di arcoseno e arcocoseno è solo leggermente piú complessa. Ricordiamo
che la funzione arcoseno viene definita come l’inverso della funzione seno quano l’argomento
173
Alberto Berretti
Analisi Matematica I
del seno varia in [−π/2, π/2], e la funzione arcocoseno viene definita come l’inverso della
funzione coseno quando l’argomento del coseno varia in [0, π]. Ricordandoci di questo,
proseguiamo con l’utilizzo della formula per la derivata della funzione inversa:
D arcsin x =
1
1
=
.
D sin y cos y
Come abbiamo detto sopra, y ∈ [−π/2, π/2]; in x = ±1, che corrisponde a y = ±π/2, l’arcoseno
non è dunque derivabile. Quando y ∈ (−π/2, π/2), invece, cos y è positivo: se lo esprimiamo
in termini di x = sin y otteniamo dunque:
D arcsin x = √
1
1 − x2
(4.35)
.
Per quanto riguarda l’arcocoseno, ragioniamo in maniera analoga:
D arccos x = −
1
1
=−
.
D sin y
sin y
In x = ±1, che corrisponde a y = 0, π, l’arcocoseno non è dunque derivabile. Quando
y ∈ (0, π), invece, sin y è positivo: se lo esprimiamo in termini di x = cos y otteniamo dunque:
1
.
D arccos x = − √
1 − x2
(4.36)
Riassumiamo le derivate delle funzioni elementari nella seguente tabella.
f (x)
f ′ (x)
xα
αxα−1
ex
ex
log x
1
x
sin x
cos x
cos x
− sin x
tan x
cot x
arcsin x
arccos x
arctan x
1
= 1 + tan2 x
cos2 x
1
− 2 = −1 − cot2 x
sin x
1
√
1 − x2
1
−√
1 − x2
1
1 + x2
174
Alberto Berretti
Analisi Matematica I
4.3. Funzioni derivabili in un intervallo
Studiamo ora le proprietà delle funzioni derivabili in un intervallo. L’ipotesi tipica sarà
quella di avere una funzione f (x) definita per x ∈ [a, b], continua in [a, b] e derivabile in (a, b).
4.3.1. Teorema di Fermat
Si dice che x0 è un punto di massimo locale (stretto) di una funzione f in un intervallo se
esiste un intorno I di x0 in cui x0 è un punto di massimo della funzione, ovvero se ∃δ > 0
tale che ∀x ∈ (x0 − δ, x0 + δ), x , x0 abbiamo f (x) < f (x0 ). Il valore f (x0 ) viene detto massimo
locale. Analogamente si dice che x0 è un punto di minimo locale (stretto) di una funzione
f in un intervallo se esiste un intorno I di x0 in cui x0 è un punto di minimo della funzione,
ovvero se ∃δ > 0 tale che ∀x ∈ (x0 − δ, x0 + δ), x , x0 abbiamo f (x) > f (x0 . Il valore f (x0 )
viene detto minimo locale. Se al posto della disuguaglianza stretta (< o >) abbiamo la
disugualianza non stretta (≤ o ≥) abbiamo punti di massimo o di minimo locali non stretti.
Per la funzione costante f (x) = c ad es. ogni punto è un punto di massimo locale non stretto e
di minimo locale non stretto. In genere non è molto interessante studiare punti di massimo o
minimo locale non stretto, per cui spesso omettiamo la dicitura “stretto” pur intendendo un
massimo o minimo locale stretto; dal contesto normalmente si capisce (il linguaggio comune
non è un linguaggio formale, per fortuna). Un punto di massimo o di minimo locale viene
detto punto di estremo locale, ed il rispettivo valore estremo locale.
Data una funzione f (x) derivabile in un intervallo I, i punti di I in cui la derivata si annulla
vengono detti punti critici ed i corrispondenti valori della funzione vengono detti valori
critici.
In questo contesto, il massimo ed il minimo di una funzione in un intervallo I, cosí come
definiti nel cap. 2, vengono detti in genere massimo assoluto e minimo assoluto, ed i punti in
cui tali valori vengono assunti vengono detti punto di massimo assoluto e punto di minimo
assoluto.
È evidente che se la funzione f è definita nell’intervallo (a, b) e in tale intervallo ha un
punto x0 di massimo o di minimo assoluto, allora tale punto sarà anche di massimo o di
minimo locale.
Vale il seguente teorema.
Teorema 37 (Fermat). Sia f derivabile nel punto x0 , e sia tale punto un punto di massimo o di
minimo locale. Allora f ′ (x0 ) = 0.
175
Alberto Berretti
Analisi Matematica I
Dimostrazione. La dimostrazione è elementare. Sia ad es. x0 un punto di massimo locale.
Allora, f derivabile in x0 abbiamo:
lim−
x→x0
f (x) − f (x0 )
≥ 0,
x − x0
in quanto essendo x0 un massimo locale il numeratore è negativo, ed essendo il limite da
sinistra il denominatore è pure negativo. Inoltre:
lim+
x→x0
f (x) − f (x0 )
≤ 0,
x − x0
in quanto essendo x0 un massimo locale il numeratore è negativo, ed essendo il limite da
destra il denominatore è positivo. Ma la funzione è derivabile in x0 , per cui i due limiti
devono essere uguali, e quindi il loro valore non può che essere zero. Il caso del minimo
locale è analogo: stavolta il limite da sinistra dovrà essere ≤ 0 ed il limite da destra dovrà
essere ≥ 0 e pertanto la derivata dovrà essere di nuovo nulla.
È evidente che tale teorema sarà uno strumento potente per lo studio delle funzioni, come
vedremo piú avanti. Ma ha anche altri utilizzi.
4.3.2. Teorema di Rolle
Il teorema di Rolle fornisce una semplice condizione per l’esistenza di punti critici di una
funzione derivabile in un intervallo. Pur essendo non particolarmente utile di per sé, è uno
strumento importantissimo per la dimostrazione dei risultati che seguiranno. In fig. 4.3
possiamo vederne il significato geometrico.
Teorema 38 (Rolle). Sia f una funzione continua in [a, b] e derivabile in (a, b). Se f (a) = f (b) allora
esiste almeno un c ∈ (a, b) tale che f ′ (c) = 0.
Dimostrazione. Se f è continua nell’intervallo chiuso e limitato [a, b], allora per il teorema
di Weierstrass (dimostrato nel cap. 4) essa ammette massimo e minimo assoluto. Esistono
pertanto nell’intervallo [a, b] due punti xm , xM , rispettivamente di minimo e di massimo
assoluto. Ora, vediamo dove possono stare tali punti. Se stanno entrambe agli estremi, e cioè
xm = a e xM = b o viceversa, allora f (xm ) = f (xM ), cioè il massimo ed il minimo di f sono
uguali, e quindi la funzione è costante: quindi la sua derivata si annulla ovunque in (a, b).
Se invece almeno uno dei due punti di estremo assoluto giace all’interno dell’intervallo (a, b),
questo è anche un punto di estremo locale, in cui per il teorema di Fermat la derivata si deve
annullare.
176
Alberto Berretti
Analisi Matematica I
0 .4
0 .2
- 1 .0
- 0 .5
0 .5
1 .0
- 0 .2
- 0 .4
Figura 4.3.: Significato geometrico del teorema di Rolle.
Osservazione 29. La derivabilità di f agli estremi a, b dell’intervallo non è necessaria, come
si può constatare nel seguente esempio. Sia:




0 se x = 0 o 1,
f (x) = 

x(1 − x) sin 1

x(1−x)
se x , 0 e x , 1.
È allora evidente che f è continua nell’intervallo chiuso [0, 1] e derivabile solo nell’intervallo
aperto (0, 1), e che esistono molti punti in (0, 1) in cui f ′ (x) = 0 (in effetti, infiniti punti).
Osservazione 30. La continuità di f agli estremi però è necessaria: senza di essa il massimo
o il minimo di f potrebbero infatti anche non esistere.
4.3.3. Teorema di Lagrange
Il teorema di Lagrange fornisce una sorta di relazione quantitativa tra valore del rapporto
incrementale e derivata della funzione. È di fondamentale importanza nel seguito.
Teorema 39 (Lagrange). Sia f una funzione continua in [a, b] e derivabile in (a, b). Allora esiste
almeno un c ∈ (a, b) tale che:
f ′ (c) =
f (b) − f (a)
.
b−a
(4.37)
In fig. 4.4 possiamo vedere il significato geometrico del teorema di Lagrange. Si osservi
che se f (a) = f (b) il teorema di Lagrange è il teorema di Rolle, a cui comunque si riconduce
banalmente nella dimostrazione.
177
Alberto Berretti
Analisi Matematica I
4
3
2
1
- 1 .0
- 0 .5
0 .5
1 .0
1 .5
2 .0
- 1
Figura 4.4.: Significato geometrico del teorema di Lagrange.
Dimostrazione. Si ponga:
h(x) = f (x) −
f (b) − f (a)
(x − a).
b−a
Chiaramente h è continua in [a, b], derivabile in (a, b) e h(a) = h(b) = f (a), pertanto h soddisfa
le ipotesi del teorema di Rolle. Esiste dunque c ∈ (a, b) tale che h′ (c) = 0, e quindi:
f ′ (c) −
f (b) − f (a)
= 0,
b−a
cioè la tesi.
Il teorema di Lagrange ha anche altre formulazioni leggermente diverse sul piano verbale
ma totalmente equivalenti.
Ad es. possiamo scrivere x al posto di a e x + h al posto di b se h > 0, x al posto di b e x + h
al posto di a se h < 0, e riformulare il teorema dicendo che, nelle opportune ipotesi:
∃ξ compreso fra x e x + h tale che f (x + h) = f (x) + f ′ (ξ)h,
(4.38)
oppure possiamo dire che:
∃θ ∈ (0, 1) tale che f (x + h) = f (x) + f ′ (x + θh)h.
(4.39)
Viceversa, se una funzione definita in un intorno del punto x soddisfa la (4.39), allora si
dice che f è differenziabile in x. Per il teorema di Lagrange, l’espressione “derivabile” e l’espressione “differenziabile” possono essere usate in modo sostanzialmente intercambiabile,
nel caso di funzioni di una variabile. Vedremo piú avanti che nel caso di funzioni di piú variabili
il concetto di derivabilità e quello di diffenrenziabilità sono due cose diverse.
178
Alberto Berretti
Analisi Matematica I
4.3.4. Teorema di Cauchy
Il seguente teorema è una generalizzazione del teorema di Lagrange che ci sarà utile piú
avanti in alcune dimostrazioni.
Teorema 40 (Cauchy). Siano f , g funzioni continue in [a, b], derivabili in (a, b), e sia inoltre
g(b) , g(a). Allora esiste c ∈ (a, b) tale che:
f ′ (c)
f (b) − f (a)
=
.
′
g (c)
g(b) − g(a)
(4.40)
Si osservi che il teorema di Cauchy diventa il teorema di Lagrange se poniamo g(x) = x.
Dimostrazione. La dimostrazione è identica a quella del teorema di Lagrange. Basta porre:
h(x) = f (x) −
f (b) − f (a)
(g(x) − g(a)).
g(b) − g(a)
Infatti chiaramente h soddisfa le ipotesi del teorema di Rolle (con h(a) = h(b) = f (a)), e da
h′ (c) = 0 si ricava immediatamente la (4.40).
4.4. Approssimazione di funzioni
Ora dimostreremo alcune formule che consentono di approssimare le funzioni nell’intorno
di un punto dato. Le applicazioni saranno molteplici, ed tra le altre cose avremo un potente
strumento per calcolare limiti anche complicati.
Iniziamo con una formula che verrà utilizzata piú che altro come strumento per dimostrare
altre formule.
4.4.1. Formula di L’Hôpital
La formula di l’Hôpital spesso viene usata per calcolare limiti di “forme indeterminate”, e cioè
limiti che possono essere ricondotti al quoziente di due funzioni o successioni che tendono
entrambe a 0 o ad ∞. Noi preferiamo utilizzare altri metodi, ed in particolare gli “o piccolo”,
pertanto l’utilizzo della formula di l’Hôpital è fortemente
sconsigliato negli esercizi e nelle
applicazioni. Enunciamo e dimostriamo la formula di l’Hôpital solo ed esclusivamente per la
sua importanza storica e per il fatto che è necessaria per dimostrare una delle versioni della
formula di Taylor, che costituisce la parte centrale di questo paragrafo.
Il teorema di L’Hôpital ha diverse varianti, che vengono dimostrate in modo leggermente
diverso. La differenza principale è quella tra il “caso 0/0” ed il “caso ∞/∞”.
179
Alberto Berretti
Analisi Matematica I
Teorema 41 (L’Hôpital, caso 0/0, limite al finito da sinistra). Siano f , g funzioni continue in
(a, b], derivabili in (a, b), e sia g(x) , 0 in (a, b). Sia inoltre lim− f (x) = lim− g(x) = 0. Allora
x→b
abbiamo:
lim−
x→b
x→b
f (x)
= lim
.
g(x) x→b− g′ (x)
f ′ (x)
(4.41)
Dimostrazione. La dimostrazione è una semplice applicazione del teorema di Cauchy dimostrato nel paragrafo precedente.
Si osservi che la condizione di continuità in b, necessaria per l’applicazione del teorema
di Cauchy, non è davvero una limitazione: infatti, se f , g non fossero continue in b, il loro
limite per ipotesi dovrebbe ugualmente esistere ed essere 0. In tal caso, nulla cambia se le
due funzioni vengono ridefinite in b in modo da essere continue (è necessario ricordarsi che
il valore di una funzione nel punto in cui viene calcolato il limite non ha nulla a che fare
con il valore del limite medesimo!). Pertanto in quanto segue teniamo conto che assumiamo
f (b) = g(b) = 0.
Dunque abbiamo:
lim
x→b−
f (x)
f (x) − f (b)
f ′ (cx )
= lim
= lim ′
,
g(x) x→b− g(x) − g(b) x→b− g (cx )
dove cx ∈ (x, b). Ma se x → b− anche cx → b− e quindi abbiamo:
lim
x→b−
f ′ (x)
f ′ (cx )
=
lim
g′ (cx ) x→b− g(x)
e quindi la tesi.
Teorema 42 (L’Hôpital, caso 0/0, limite al finito da destra). Siano f , g funzioni continue in [a, b),
derivabili in (a, b), e sia g(x) , 0 in (a, b). Sia inoltre lim+ f (x) = lim+ g(x) = 0. Allora abbiamo:
x→a
lim+
x→a
x→a
f (x)
f ′ (x)
= lim+ ′ .
g(x) x→a g (x)
(4.42)
Dimostrazione. La dimostrazione è identica a quella del caso precedente, con le modifiche del
caso.
Teorema 43 (L’Hôpital, caso 0/0, limite al finito bilatero). Siano f , g funzioni continue in
(a, b)\{x0 }, derivabili in (a, b)\{x0 }, e sia g(x) , 0 in (a, b)\{x0 }. Sia inoltre lim f (x) = lim g(x) = 0.
x→x0
Allora abbiamo:
lim
x→x0
x→x0
f (x)
f ′ (x)
= lim ′ .
g(x) x→x0 g (x)
Dimostrazione. La dimostrazione si ottiene combinando i due teoremi precedenti.
180
(4.43)
Alberto Berretti
Analisi Matematica I
Teorema 44 (L’Hôpital, caso 0/0, limite all’infinito). Siano f , g funzioni continue in (b, +∞),
derivabili in (b, +∞), e sia g(x) , 0 in (b, +∞). Sia inoltre lim f (x) = lim g(x) = 0. Allora
x→+∞
abbiamo:
x→+∞
f (x)
f ′ (x)
lim
= lim ′ .
x→+∞ g(x)
x→+∞ g (x)
(4.44)
Un enunciato analogo vale se x → −∞.
Dimostrazione. La dimostrazione si riconduce ai primi due teoremi: basta porre infatti y = 1/x
ed i limiti per x → ±∞ diventano limiti per y → ±0. In altri termini, invece che fare ad es. il
limite per x → +∞ di f (x)/g(x), facciamo il limite per y → 0+ di f (1/y)/g(1/y). Si osservi che:
d f (1/y)
(−1/y2 ) f ′ (1/y)
dy
f ′ (1/y)
f ′ (x)
=
=
=
,
dg(1/y)
g′ (1/y)
g′ (x)
(−1/y2 )g′ (1/y)
dy
il che permette di concludere.
Teorema 45 (L’Hôpital, caso ∞/∞, limite al finito da sinistra). Siano f , g funzioni derivabili
f ′ (x)
= l. Allora
in (a, b), e sia g(x) , 0 in (a, b). Sia inoltre lim− f (x) = lim− g(x) = +∞ e lim− ′
x→b
x→b
x→b g (x)
abbiamo:
f ′ (x)
f (x)
= lim− ′
= l.
(4.45)
lim−
x→b g (x)
x→b g(x)
Dimostrazione. Consideriamo prima il caso in cui l è un numero (“finito”), e successivamente
il caso in cui il limite del quoziente delle derivate è infinito (ad es. +∞).
Nel primo caso, Abbiamo che:
′
f (x)
∀ε∃δ1 : x ∈ (b − δ1 , b) ⇒ ′
− l < ε.
g (x)
È evidente che f e g soddisfano le ipotesi del teorema di Cauchy nell’intervallo [b − δ1 , x]
(dove x, facendo riferimento alla formula precedente, è compreso tra b − δ1 e b). Pertanto ∃c,
compreso fra b − δ1 e x e quindi a maggior ragione fra b − δ1 e b, tale che:
f (x) − f (b − δ1 )
f ′ (c)
= ′ .
g(x) − g(b − δ1 )
g (c)
Da qui ricaviamo facilmente:
g(b − δ1 )
f (x)
g(x)
f ′ (c)
=
· ′ .
f (b − δ1 ) g (c)
g(x)
1−
f (x)
1−
181
Alberto Berretti
Poniamo:
Analisi Matematica I
g(b − δ1 )
g(x)
h(x) =
.
f (b − δ1 )
1−
f (x)
1−
Abbiamo allora:
′
f ′ (c)
f (c)
f (x)
g(x) − l = h(x) g′ (c) − h(x)l + h(x)l − l ≤ |h(x)| g′ (c) − l + |h(x) − 1||l| = (A).
Ora, è chiaro che h(x) → 1 quando x → b− , perché f , g tendono a +∞. Quindi:
∀ε ∃δ2 x ∈ (b − δ2 , b) ⇒ |h(x) − 1| < ε.
Quindi ponendo δ = min(δ1 , δ2 ) abbiamo che se x ∈ (b − δ, b) allora:
f (x)
g(x) − l ≤ (A) < (1 + ε)ε + |l|ε = (l + 1 + ε)ε,
e quindi piccolo a piacere prendendo ε sufficientemente piccolo.
f ′ (x)
Se invece ′
→ +∞, procediamo come segue. Abbiamo innanzitutto:
g (x)
∀M ∃δ1 > 0 : x ∈ (b − δ1 , b) ⇒
f ′ (x)
> M.
g′ (x)
Proseguiamo il ragionamento come nel caso del limite finito, definendo h(x) in modo analogo
e verificando che h(x) → 1 per x → b− . Quindi:
1
∃δ2 : x ∈ (b − δ2 , b) ⇒ h(x) > ,
2
e quindi:
f ′ (c) M
f (x)
= h(x) ′
≥ ,
g(x)
g (c)
2
da cui la tesi.
Valgono teoremi analoghi nel caso ∞/∞ quando il limite è al finito da destra, quando il
limite è bilatero, quando il limite è all’infinito. Inoltre abbiamo enunciato il teorema nel
caso +∞/ + ∞, le altre possibili combinazioni di segno sono ovvie. Omettiamo in questi casi
non solo le banali dimostrazioni, riconducibili a quelle delle altre versioni del teorema di
l’Hôpital, ma anche gli altrettanto banali enunciati.
Le ragioni per cui sconsigliamo fortemente l’utilizzo del teorema di l’Hôpital nel calcolo
dei limiti sono le seguenti. Innanzitutto, fatta eccezione per i casi piú semplici, il calcolo
del limite del quoziente delle derivate è tipicamente piú complesso del calcolo del limite
da cui si parte. Inoltre, i casi “semplici” in cui la tentazione di utilizzare il teorema di
182
Alberto Berretti
Analisi Matematica I
l’Hôpital è forte sono quei casi “fondamentali” (come i limiti notevoli dimostrati nel capitolo
precedente) che è bene dimostrare in modo elementare (dove per elementare non si intende
un modo “facile”, ma un modo che dipende dal minor numero possibile di ipotesi); non
sin x
vogliamo fare le dimostrazioni di mezzo calcolo differenziale per capire che il limite di
x
è 1, quando abbiamo a portata di mano una dimostrazione che racchiude i concetti essenziali.
Infine, il metodo degli “o-piccolo” che abbiamo già visto nel capitolo precedente e che verrà
ora potenziato notevolmente dall’uso delle formule di Taylor ci dà uno strumento molto piú
potente per il calcolo di limiti complicati.
4.4.2. Formule di Taylor con resto di Peano
Noi sappiamo che, se f è derivabile in x0 , allora:
f (x) = f (x0 ) + f ′ (x0 )(x − x0 ) + o(x − x0 ),
x → x0 .
(4.46)
Infatti tale formula vuol dire che:
f (x) − f (x0 )
= f ′ (x0 ) + o(1),
x − x0
x → x0 ,
cioè che esiste il limite del rapporto incrementale (e che è uguale, ovviamente, alla derivata).
Questa formula può essere interpretata come una formula di approssimazione: il valore di f
“vicino” ad x0 è uguale, nell’ipotesi considerata, a f (x0 ) piú una “correzione al primo ordine
in x−x0 ”, cioè proporzionale a x−x0 , della forma data (e cioè f ′ (x0 )(x−x0 )), piú non specificati
“termini di ordine superiore” o(x − x0 ), e cioè quantità che tendono a zero piú rapidamente
di x − x0 . Lo scopo delle formule di Taylor con resto di Peano è quello di migliorare tale
approssimazione, nel caso in cui esistano derivate di ordine superiore al primo di f in x0 .
Definiamo il polinomio di Taylor di ordine n per la funzione f intorno al punto x0 come
segue:
n
X
f (k) (x0 )
Tn, f (x) =
(x − x0 )k .
k!
(4.47)
k=0
Ovviamente f deve essere n volte derivabile in x0 .
Vale il seguente lemma.
Lemma 4. Sia f n volte derivabile in x0 . Allora:
DTn, f (x) = Tn−1, f ′ (x),
cioè la derivata del polinomio di Taylor di ordine n per f è il polinomio di Taylor di ordine n − 1 per la
derivata di f .
183
Alberto Berretti
Analisi Matematica I
Dimostrazione. La dimostrazione è un banale calcolo diretto:
n
n−1
n
X
X
X
f (k) (x0 )
( f ′ )(k−1) (x0 )
f (k) (x0 )
k
k−1
(x − x0 ) =
k(x − x0 )
=
(x − x0 )k−1 = Tn−1, f ′ (x).
D
k!
k!
(k − 1)!
k=1
k=0
k=0
Teorema 46 (Taylor con resto di Peano). Sia f derivabile n volte in (a, b) e sia x0 ∈ (a, b). Allora:
f (x) = Tn, f (x) + o((x − x0 )n ),
x → x0 .
(4.48)
Dimostrazione. Basta dimostrare che:
f (x) − Tn, f (x)
(x − x0 )n
→ 0,
x → x0 .
(4.49)
La dimostrazione procede per induzione. La (4.49) è vera nel caso n = 1, perché allora
coincide con la (4.46). Assumiamo che sia vera nel caso (n − 1) e dimostriamola nel caso (n).
Utilizzando il teorema di l’Hôpital e il lemma precedente abbiamo:
lim
x→x0
f (x) − Tn, f (x)
(x − x0 )n
= lim
x→x0
f ′ (x) − DTn, f (x)
n(x − x0 )n−1
=
f ′ (x) − Tn−1, f ′ (x)
1
=0
lim
n x→x0
(x − x0 )n−1
per l’ipotesi induttiva.
Da questo segue banalmente l’“unicità” dei polinomi di Taylor nel senso seguente.
Proposizione 21. Sia f derivabile n volte in (a, b) e sia x0 ∈ (a, b). Sia P(x) un polinomio di grado n
tale che f (x) = P(x) + o((x − x0 )n ) quando x → x0 . Allora P(x) = Tn, f (x).
In altri termini, il polinomio di Taylor è l’unico polinomio di grado n che approssima la
funzione in un intorno di x0 all’ordine o((x − x0 )n ).
Dimostrazione. La dimostrazione è elementare. Abbiamo le due seguenti equazioni, la prima
per ipotesi e la seconda dal teorema 46:
f (x) = P(x) + o((x − x0 )n ),
f (x) = Tn, f (x) + o((x − x0 )n ).
Sottraendole membro a membro otteniamo:
P(x) − Tn, f (x) = o((x − x0 )n ).
Scrivendo dunque entrambe i polinomi come somma di potenze di x − x0 , vediamo immedia-
tamente che i loro coefficienti devono essere uguali, altrimenti la loro differenza tenderebbe
a zero al massimo come (x − x0 )n .
184
Alberto Berretti
Analisi Matematica I
4.4.3. Formule di Taylor con resto di Lagrange
Abbiamo ricavato una approssimazione di una funzione f n volte derivabile nel punto x0 ,
ottenendo un resto caratterizzato semplicemente in termini di ordine di infinitesimo. Se
assumiamo che la funzione sia n + 1 volte derivabile, possiamo ottenere una stima piú
accurata del resto, in analogia con quanto segue.
Se f è semplicemente una funzione continua, allora abbiamo che f (x) = f (x0 ) + o(1) per
x → x0 ; se invece assumiamo anche che f sia derivabile, allora possiamo applicare il teorema
di Lagrange e precisare la natura del resto: quell’o(1) è piú precisamente f ′ (ξ)(x − x0 ), dove
ξ è compreso fra x e x0 (ed è dunque in realtà un O(x − x0 )).
La formula di Taylor con resto di Lagrange generalizza al caso di funzioni derivabili
piú di una volta questo fatto.
Teorema 47 (Taylor con resto di Lagrange). Sia f (n + 1) volte derivabile in (a, b) con derivata
n-esima continua in [a, b]. Allora esiste c ∈ (a, b) tale che:
n
X
f (k) (a)
f (n+1) (c)
f (b) =
(b − a)k +
(b − a)n+1 .
k!
(n + 1)!
(4.50)
k=0
Per n = 0 abbiamo il teorema di Lagrange:
f (b) = f (a) + f ′ (c)(b − a).
Per n = 1 abbiamo:
f ′′ (c)
(b − a)2 .
2
La dimostrazione è concettualmente identica a quella del teorema di Lagrange, di cui questo
f (b) = f (a) + f ′ (a)(b − a) +
è generalizzazione: ci si riconduce, introducendo una opportuna funzione ausiliaria, al
teorema di Rolle.
Dimostrazione. Sia:
g(x) = f (b) −
n
X
f (k) (x)
(b − x)k .
k!
k=0
Si osservi che g(a) è esattamente il resto che dobbiamo stimare e che g(b) = 0. Poniamo poi:
b−x
h(x) = g(x) −
b−a
!n+1
g(a).
Si verifica immediatamente che h(a) = g(a) − g(a) = 0 e che h(b) = g(b) − 0 · g(a) = 0. La
continuità di h in [a, b] e la derivabilità in (a, b) seguono subito dalle ipotesi enunciate su f .
Possiamo quindi applicare il teorema di Rolle e dire che ∃c ∈ (a, b) tale che h′ (c) = 0. L’unico
problema è calcolare, con un po’ di pazienza, h′ (x):
185
Alberto Berretti
Analisi Matematica I
n
n
X
X
f (k) (x)
f (k+1) (x)
(b − x)n
k
(b
−
x)
+
(b − x)k−1 =
g(a)
−
k!
(k − 1)!
(b − a)n+1
k=1
k=0
 n+1

n
(k)
(k) (x)
X
X
n


f
(x)
f
(b − x)
(b − x)k−1 −
(b − x)k−1  =
g(a) − 
= (n + 1)
n+1
(k − 1)!
(k − 1)!
(b − a)
h′ (x) = (n + 1)
k=1
k=1
!
f (n+1) (x)
f (n+1) (x)
(b − x)n
(b − x)n
n
n+1
(b − x) = (n + 1)
(b − a)
g(a) −
g(a) −
.
= (n + 1)
n!
(n + 1)!
(b − a)n+1
(b − a)n+1
Quindi se h′ (c) = 0 allora deve essere:
g(a) =
f (n+1) (c)
(b − a)n+1 ,
(n + 1)!
cioè la tesi.
Esattamente come abbiamo fatto nel caso del teorema di Lagrange, possiamo dire che se f
è n + 1 volte derivabile tra x0 ed x, con derivata n-esima continua in tra x0 ed x estremi inclusi,
allora esiste uno ξ compreso tra x0 ed x tale che:
f (x) = Tn, f (x) +
f (n+1) (ξ)
(x − x0 )n+1 .
(n + 1)!
(4.51)
Utilizzando un’altra notazione, assumendo f n + 1 volte derivabile tra x e x + h, con derivata
n-esima continua tra x ed x + h estremi inclusi, abbiamo che esiste un θ ∈ (0, 1) tale che:
f (x + h) =
n
X
f (k) (x) k f (n+1) (x + θh) n+1
h +
h .
k!
(n + 1)!
(4.52)
k=0
4.4.4. Esempi ed esercizi
Esempio 67. Determiniamo i polinomi di Taylor per la funzione f (x) = 1/(1 − x). Il calcolo
di tutte le derivate della funzione è molto semplice:
f ′ (x) =
1
,
(1 − x)2
f ′′ (x) =
2
,
(1 − x)3
f ′′′ (x) =
3!
,...,
(1 − x)4
da cui si ricava molto facilmente che:
f (k) (x) =
k!
,
(1 − x)k+1
f (k) (0) = k!.
Abbiamo dunque (Taylor-Peano):
n
X
1
xk + o(xn ).
= 1 + x + x2 + . . . + xn + o(xn ) =
1−x
k=0
186
(4.53)
Alberto Berretti
Analisi Matematica I
Ovviamente la funzione considerata ammette derivate di ogni ordine, per cui (per TaylorLagrange) quell’o(xn ) è in realtà un O(xn+1 ):
n
X
1
=
xk + Rn+1 (x),
1−x
(4.54)
k=0
dove:
Rn+1 (x) =
dove ξ è compreso tra 0 e x.
xn+1
,
(1 − ξ)n+2
(4.55)
In questo caso possiamo permetterci il lusso di calcolare esattamente, in forma esplicita, il resto
Rn+1 (x) e addirittura il valore di ξ nella formula del resto di Lagrange. Questo perché siamo talmente
fortunati da poter calcolare la somma del polinomio di Taylor in forma esplicita, come abbiamo visto
nel cap. 2:
n
X
xk =
k=0
1 − xn+1
.
1−x
pertanto:
Quindi:
1 − xn+1
xn+1
1
xn+1
−
=
.
=
R
(x)
=
n+1
1−x
1−x
1−x
(1 − ξ)n+2
ξ=1−
√
n+2
1 − x.
È elementare osservare che se |x| < 1 allora lo ξ cosí calcolato è compreso fra 0 e x ed inoltre per
n → ∞ Rn (x) → 0. Raramente saremo talmente fortunati da poter fare un calcolo altrettanto esplicito.
Si osservi inoltre che, come è naturale che sia, ξ dipende da n.
Esempio 68. Sia ora f (x) = sin x. Allora:


m


(−1) cos x se k = 2m + 1,
f (k) (x) = 


(−1)m sin x se k = 2m.
pertanto:


m


(−1)
(k)
f (0) = 


0
se k = 2m + 1,
se k = 2m.
Quindi nei polinomi di Taylor del seno sono presenti solo potenze dispari; possiamo dunque scrivere
(Taylor-Peano):
sin x =
n
X
(−1)m 2m+1
x
+ o(x2n+1 ).
(2m + 1)!
(4.56)
m=0
In realtà la funzione seno ha derivate di ogni ordine, pertanto quell’o(x2n+1 ) è un O(x2n+3 ) (e
non O(x2n+2 ): sappiamo che non ci sono potenze pari nei polinomi di Taylor del seno!) e vale
187
Alberto Berretti
Analisi Matematica I
la formula di Taylor-Lagrange:
n
X
(−1)m 2m+1
x
+ R2m+3 (x),
sin x =
(2m + 1)!
(4.57)
m=0
dove:
D(2m+3) sin ξ 2m+3
x
,
(2m + 3)!
R2m+3 (x) =
(4.58)
e quindi |R2m+3 (x)| = |x|2m+3 /((2m + 3)!). Osserviamo che da ciò segue che ∀x Rn (x) → 0
quando n → ∞.
Esempio 69. Un risultato analogo vale per il coseno. Sia dunque f (x) = cos x. Allora:


m+1 sin x se k = 2m + 1,


(−1)
(k)
f (x) = 


(−1)m cos x
se k = 2m.
pertanto:




0
f (k) (0) = 


(−1)m
se k = 2m + 1,
se k = 2m.
Quindi nei polinomi di Taylor del coseno sono presenti solo potenze pari; possiamo dunque scrivere
(Taylor-Peano):
cos x =
n
X
(−1)m
m=0
(2m)!
x2m + o(x2n ).
(4.59)
In realtà la funzione coseno ha derivate di ogni ordine, pertanto quell’o(x2n ) è un O(x2n+2 ) (e
non O(x2n+1 ): sappiamo che non ci sono potenze dispari nei polinomi di Taylor del coseno!) e
vale la formula di Taylor-Lagrange:
cos x =
n
X
(−1)m
(2m)!
m=0
dove:
R2m+2 (x) =
x2m + R2m+2 (x),
D(2m+2) cos ξ 2m+2
x
,
(2m + 2)!
(4.60)
(4.61)
e quindi |R2m+2 (x)| = |x|2m+2 /((2m + 2)!). Osserviamo che da ciò segue che ∀x Rn (x) → 0
quando n → ∞.
Esempio 70. Sia ora f (x) = ex . Si tratta di un caso molto semplice: infatti in questo caso
f k (x) = ex e f k (0) = 1, per cui:
x
e =
n
X
xk
k=1
k!
188
+ o(xn ).
(4.62)
Alberto Berretti
Analisi Matematica I
Poiché f (x) ha derivate di ogni ordine, per Taylor-Lagrange quell’o(xn ) è in realtà un O(xn+1 )
ed inoltre:
x
e =
n
X
xk
k=1
+ Rn+1 (x),
(4.63)
eξ
xk+1 .
(n + 1)!
(4.64)
k!
dove:
Rn+1 (x) =
Si osservi che anche in questo caso ∀x Rn (x) → 0 per n → ∞.
Esempio 71. Sia f (x) = log(1 + x). Allora si ricava con qualche semplice calcolo che:
f k (x) = (−1)k−1
(k − 1)!
, e quindi f k (0) = (−1)k−1 (k − 1)!.
(1 + x)k
Ne segue che per la funzione indicata i polinomi di Taylor di ordine n sono dati da:
n
X
xk
(−1)k−1 .
k
(4.65)
k=1
Lasciamo la discussione del resto per esercizio.
Esempio 72. Se f (x) = (1 + x)α , allora è facile ricavare che il polinomio di Taylor di ordine n
centrato in 0 di f (x) è dato da:
n
X
α(α − 1) . . . (α − k + 1)
k!
k=0
xk .
(4.66)
Se α è un intero positivo, da k = α + 1 in poi α(α − 1) . . . (α − k + 1) = 0 e quindi tutti i polinomi
di Taylor di ordine superiore a α sono uguali a quello di ordine α (e sono dati peraltro, come
si constata immediatamente, dalla formula del binomio di Newton). È interessante, ed utile
negli esercizi, rendere esplicita la formula precedente nei casi α = 1/2 e α = −1/2.
Nel primo caso abbiamo per k ≥ 2:
1 1
1
1
1
1
1
1
2− ... k − 1 −
=
−1
− 2 . . . − k + 1 = (−1)k−1 1 −
2 2
2
2
2
2
2
2
(−1)k−1 (2k − 3)!!
(−1)k−1
1
·
1
·
3
·
.
.
.
·
(2k
−
3)
=
,
2k
2k
e pertanto:
√
n
X (−1)k−1 (2k − 3)!!
1
xk + O(xk+1 ).
1+x =1+ x+
2
2k k!
(4.67)
k=2
Se invece α = −1/2, lavorando come nel caso precedente ricaviamo:
1
√
1+x
= 1+
n
X
k=1
(−1)k
(2k − 1)!! k
x + O(xk+1 ).
k
2 k!
189
(4.68)
Alberto Berretti
Analisi Matematica I
Esempio 73. Un semplice ed interessante trucco ci permette di trovare i polinomi di Taylor
dell’arcotangente. Ricordiamo che il lemma 4 ci fornisce una utile relazione tra il polinomio
di Taylor di una funzione ed il polinomio di Taylor della sua derivata:
Tn−1, f ′ = (Tn, f )′ .
Sia ora f (x) = arctan x. Allora f ′ (x) =
1
e quindi:
1 + x2
T2n, f ′
n
X
=
(−1)k x2k ,
k=0
come si verifica immediatamente prendendo t = −x2 ed utilizzando lo sviluppo di
abbiamo determinato sopra. Ovviamente x2k è la derivata di
che:
T2n+1, f = (cost.) +
x2k+1
, e da questo segue subito
2k + 1
n
X
(−1)k x2k+1
k=0
2k + 1
1
che
1−t
,
dove abbiamo dovuto aggiungere una costante che si annulla derivando. Ma tale costante,
che sarebbe il valore dell’arcotangente in 0, è nulla pertanto:
arctan x =
n
X
(−1)k x2k+1
k=0
2k + 1
+ o(x2n+1 )
(ovviamente il resto in realtà è O(x2n+3 )).
Introducendo nel corso di Analisi Matematica 2 il concetto di convergenza uniforme impareremo a manipolare derivate ed integrali di “sommatorie infinite” (le serie) in modo tale da
generare moltissimi altri sviluppi interessanti.
Osserviamo che in modo analogo, partendo dallo sviluppo di Taylor di √
x2 )−1/2 , potremmo ottenere l’espressione dei polinomi di Taylor dell’arcoseno.
1
1 − x2
= (1 −
I polinomi di Taylor con centro in x0 = 0 vengono anche detti polinomi di MacLaurin.
Si potrebbe pensare che, nel caso di funzioni di classe C∞ (cioè dotate di derivate di ogni
ordine), in cui pertanto esistono polinomi di Taylor di grado arbitrario, il limite per n → ∞
del polinomio di Taylor tenda alla funzione medesima quando x appartenga ad un qualche
intervallo - eventualmente tutto R come nel caso del seno, del coseno e dell’esponenziale.
Ovvero, detto in altri termini, che in questo caso esiste un intervallo I tale che se x ∈ I allora
Rn (x) → 0 per n → ∞, come in tutti gli esempi visti fino ad ora. L’esempio seguente dimostra
che questo non è il caso: si tratta infatti di una funzione C∞ per la quale la successione dei
polinomi di Taylor converge si, ma ad un’altra funzione, e pertanto Rn (x) non tende a 0.
190
Alberto Berretti
Analisi Matematica I
Esempio 74. Sia:




0
f (x) = 


e−1/x2
se x = 0,
(4.69)
se x , 0.
2
Osserviamo che e−1/x tende a 0 per x → 0 piú rapidamente di qualsiasi potenza. È dunque
immediato calcolare:




0
′
f (x) = 


e−1/x2
se x = 0,
2
x3
se x , 0.
Continuando a derivare, ci accorgiamo che la derivata k-esima avrà la seguente struttura:




0
f (k) (x) = 


e−1/x2 Pk (1/x)
se x = 0,
se x , 0,
dove Pk (t) è un polinomio di grado 3k in t. Infatti tale affermazione è vera per k = 1 (come
abbiamo visto dal calcolo della derivata prima), e poi si può dimostrare per induzione; se
infatti è vero per la derivata (k − 1)-esima, allora che f (k) (0) sia 0 è ovvio per l’osservazione
precedente, mentre per x , 0 abbiamo che la derivata di ordine k è data da:
−1/x2
e
2
1 ′
Pk−1 (1/x) + 2 Pk−1 (1/x) ,
x3
x
e l’espressione tra parentesi tonde è ovviamente un polinomio in 1/x di grado 3k. Quindi
tutte le derivate di f nell’origine sono nulle, e dunque i polinomi di Taylor di ogni ordine
centrati in 0 sono identicamente nulli. Si osservi che questo è perfettamente compatibile con i
teoremi di Taylor; ad es.:
2
∀n : e−1/x = 0 + o(xn )
2
vuol dire semplicemente che e−1/x tende a 0 piú rapidamente di qualsiasi potenza. In questo
caso, però, il resto – che coincide con la funzione medesima, essendo il polinomio di Taylor
nullo! – non tende a 0 per n → ∞.
Determinare un criterio per stabilire quali funzioni di classe C∞ hanno il resto di Taylor
che tende a 0 per n → ∞ e quali no è una questione molto importante, che però non può
essere risolta ora.
Questi sviluppi possono essere utilizzati per calcolare limiti di forme indeterminate senza
usare il teorema dell’Hôpital in cui avvengono “cancellazioni di ordine superiore”.
Esempio 75. Calcoliamo:
8
log(1 + 2x) − sin 2x − cos 2x + ex
lim
.
√
2
x→0
x arctan x − ex + 1 + x3
191
Alberto Berretti
Analisi Matematica I
Abbiamo che:
log(1 + 2x) = 2x − 2x2 +
8x3
+ O(x4 ),
3
sin 2x = 2x −
4x3
+ O(x5 ),
3
cos 2x = 1 − 2x2 + O(x4 ),
8
ex = 1 + O(x8 ),
da cui ricaviamo che il numeratore è dato da:
4x3 + O(x4 ).
Inoltre:
x arctan x = x2 + O(x4 ),
√
2
ex = 1 + x2 + O(x4 ),
1 + x3 = 1 +
x3
+ O(x6 ),
2
da cui ricaviamo che il denominatore è dato da:
x3
+ O(x4 ).
2
Quindi:
4x3 + O(x4 )
→8
x3
4
+ O(x )
2
per x → 0. Osserviamo che in questo caso le “cancellazioni di ordine superiore”, che
rendono necessario espandere le funzioni in polinomi di Taylor di ordine superiore al primo,
sono presenti solo al numeratore. Osserviamo anche che svolgere questo limite usando il
teorema dell’Hôpital avrebbe reso necessario calcolare le derivate terze del numeratore e del
denominatore, il che non è esattamente un calcolo banale.
Ci si può chiedere, in questo tipo di esercizi, di che ordine debbano essere i polinomi di
Taylor per poter calcolare un limite con questo metodo. La risposta è il piú basso possibile
che renda il limite, dopo aver svolto tutte le cancellazioni, non quello di una forma indeterminata.
Tipicamente si prova ad un ordine sufficientemente basso – ad es. al primo ordine – e se
si ottiene ancora una forma indeterminata si sale all’ordine successivo, finché non si ottiene
piú 0/0. Spesso con un po’ di pratica si capisce direttamente al primo colpo qual’è l’ordine
minimo necessario. Se si sviluppa ad un ordine troppo alto, non è tecnicamente un errore,
ma vengono fatti calcoli inutili che fanno perdere tempo.
Esercizio 27. Calcolare il seguente limite:
2 /2
sin x log(1 + x) − x2 e−x
lim
√
x→0
1 − 2x − cos x2
192
.
Alberto Berretti
Analisi Matematica I
Esercizio 28. Calcolare il seguente limite:
e2x + 4 cos x − 5 − sin 2x
.
x→0
tan3 x
lim
Esercizio 29. Calcolare il seguente limite:
lim
x→0
e3x + 9 cos x − 10 − tan 3x
sin3 x
.
Esercizio 30. Calcolare il seguente limite:
e−2x + cos 2x − 2 + sin 2x
.
x→0
tan3 x
lim
Esercizio 31. Calcolare il seguente limite:
lim
x→0
e3x +
sin 3x
− 4 − sin 3x
x
.
(log(1 + x))3
4.5. Studio di funzioni
Vogliamo ora fare uso del calcolo differenziale per studiare l’andamento di una funzione, e
quindi ricavare il suo comportamento qualitativo (regioni di crescenza, decrescenza, estremi,
concavità e convessità, punti di flesso, e cosí via) e riuscire a disegnarne un grafico che catturi
gli aspetti qualitativi essenziali della funzione medesima.
4.5.1. Monotonia ed estremi
Iniziamo dallo studio della monotonia di una funzione e dalla sua relazione con il segno
della derivata.
Teorema 48. Sia f (x) definita e derivabile nell’intervallo I; allora:
1. f è crescente in I ⇒ ∀x ∈ I :
2. f è decrescente in I ⇒ ∀x ∈ I :
f ′ (x) ≥ 0;
f ′ (x) ≤ 0.
Dimostrazione. La dimostrazione è elementare. Se f è crescente, allora f (x + h) − f (x) ha lo
stesso segno di h e quindi il rapporto incrementale è maggiore o uguale a 0: e quindi il suo
limite per h → 0 è pure maggiore o uguale a 0. Se invece f è decrescente, allora f (x + h) − f (x)
ha segno opposto rispetto a h, il rapporto incrementale è minore o uguale a 0 e il suo limite è
pure minore o uguale a 0.
193
Alberto Berretti
Analisi Matematica I
Si osservi che una funzione può essere strettamente crescente ma avere in qualche punto
derivata nulla: ad es. f (x) = x3 è strettamente crescente ovunque ma la derivata nell’origine
vale 0.
Teorema 49. Sia f (x) definita e derivabile nell’intervallo I; allora:
1. ∀x ∈ I :
f ′ (x) > 0 ⇒ f è strettamente crescente in I;
2. ∀x ∈ I :
f ′ (x) < 0 ⇒ f è strettamente decrescente in I;
3. ∀x ∈ I :
f ′ (x) ≥ 0 ⇒ f è crescente in I;
4. ∀x ∈ I :
f ′ (x) ≤ 0 ⇒ f è decrescente in I.
Dimostrazione. La dimostrazione è elementare e si basa sul teorema di Lagrange.
Sia f ′ (x) > 0 in I, e siano x1 < x2 in I. Allora:
∃c ∈ I, f ′ (x) > 0, tale che: f (x2 ) − f (x1 ) = f ′ (c)(x2 − x1 ) > 0,
perché f ′ (c) > 0 e x2 > x1 .
Sia f ′ (x) < 0 in I, e siano x1 < x2 in I. Allora:
∃c ∈ I, f ′ (x) < 0, tale che: f (x2 ) − f (x1 ) = f ′ (c)(x2 − x1 ) < 0,
perché f ′ (c) < 0 e x2 > x1 .
Sia f ′ (x) ≥ 0 in I, e siano x1 < x2 in I. Allora:
∃c ∈ I, f ′ (x) ≥ 0, tale che: f (x2 ) − f (x1 ) = f ′ (c)(x2 − x1 ) ≥ 0,
perché f ′ (c) ≥ 0 e x2 > x1 .
Sia f ′ (x) ≤ 0 in I, e siano x1 < x2 in I. Allora:
∃c ∈ I, f ′ (x) ≤ 0, tale che: f (x2 ) − f (x1 ) = f ′ (c)(x2 − x1 ) ≤ 0,
perché f ′ (c) ≤ 0 e x2 > x1 .
Chiaramente la dimostrazione del secondo, terzo e quarto caso è stata scritta facendo copia
e incolla e modificando un segno di maggiore in un segno di minore, di maggiore-o-uguale o
di minore-o-uguale. In questo caso ho scritto la dimostrazione esplicita di ciascun caso, ma
semplici varianti nell’enunciato e nella dimostrazione devono essere colte dal lettore senza
che sia necessario scriverle esplicitamente ogni volta.
194
Alberto Berretti
Analisi Matematica I
A questo punto abbiamo uno strumento per determinare i punti di estremo locale – massimi locali e minimi locali – di una funzione. Sia infatti f definita e derivabile nell’intervallo
(a, b) (ovviamente f può essere definita anche fuori da (a, b)!), e sia c ∈ (a, b). Se f è crescente
in (a, c) e decrescente in (c, b) allora c è un punto di massimo locale; se f è decrescente in (a, c)
e crescente in (c, b) allora c è un punto di minimo locale. Si parla di estremi locali perché la f
potrebbe essere definita anche fuori dall’intervallo (a, b) ed avere ivi valori maggiori o minori
rispettivamente di f (c).
Ovviamente se f ammette derivata continua in (a, b) allora possiamo individuare i punti
candidati ad essere punti di estremo locale risolvendo l’equazione f ′ (x) = 0. La natura di tali
estremi viene quindi determinata studiando il segno di f (x) intorno ad essi.
L’uso della derivata è utile anche per trovare gli estremi assoluti di una funzione in un
intervallo assegnato I in cui essa è definita. Sia infatti I = [a, b] e sia f derivabile in I. f è
anche continua e quindi, essendo I chiuso e limitato, ammette massimo e minimo assoluto.
Come determinarli? I punti in cui f ammette massimo e minimo assoluto o sono interni
all’intervallo I (sono cioè contenuti nell’intervallo aperto (a, b)) o sono in a o in b. Se sono
interni ad I, allora sono anche estremi locali, e quindi in essi f ′ (x) = 0. Per determinare gli
estremi assoluti di f in [a, b] dunque procediamo come segue:
1. Risolviamo f ′ (x) = 0, trovando un insieme di punti {x1 , x2 , . . . , xN }. Tale insieme po-
trebbe essere vuoto (N = 0), o anche infinito (nel qual caso il problema potrebbe essere
complicato, come vedremo).
2. Calcoliamo i valori che la funzione assume in tali punti e definiamo il loro insieme
S0 = { f (x1 ), f (x2 ), . . . , f (xN )}. Tali valori sono possibili massimi e minimi assoluti.
3. Aggiungiamo a tale insieme di valori i valori che la funzione assume in a ed in b:
S = S0 ∪ { f (a), f (b)}. Otteniamo un insieme di N + 2 possibili valori tra i quali ci sono
il massimo ed il minimo assoluto di f .
4. Troviamo il massimo ed il minimo di tali valori, prendendo nota del punto in cui sono
assunti da f : abbiamo cosí trovato il massimo ed il minimo assoluto di f in [a, b] ed i
relativi punti di massimo e di minimo assoluto.
È evidente che se N è infinito, cioè se troviamo infinite soluzioni all’equazione f ′ (x) = 0
in I, possiamo avere qualche difficoltà a determinare il massimo ed il minimo dell’insieme
infinito S.
195
Alberto Berretti
Analisi Matematica I
Osservazione 31. In un punto di estremo locale la derivata si annulla, ma non è ovviamente
vero il viceversa. Due esempi: f (x) = x3 e:




0
g(x) = 
1

2

e−1/x sin
x2
se x = 0,
se x , 0.
Nel primo caso, f ′ (0) = 0 ma f è strettamente crescente. Nel secondo caso si potrebbe
verificare, con un minimo di sforzo, che tutte le derivate in 0 sono nulle, che 0 è un punto di
accumulazione di massimi e di minimi locali e che in ogni intorno di 0, per quanto piccolo,
la funzione assume valori maggiori e minori di 0.
Esercizio 32. Determinare il massimo ed il minimo assoluto della funzione:
f (x) = x2 e−2x
quando x varia nell’intervallo [−1/2, 3].
Esercizio 33. Determinare il massimo ed il minimo assoluto della funzione:
f (x) =
e3x
x
quando x varia nell’intervallo [1/10, 1].
Esercizio 34. Determinare il massimo ed il minimo assoluto della funzione:
f (x) =
log 2x
x
quando x varia nell’intervallo [1, 3].
4.5.2. Convessità
Una funzione f definita nell’intervallo I si dice convessa se:
∀x1 , x2 , x3 ∈ I, x1 < x2 < x3 : f (x2 ) ≤
x3 − x2
x2 − x1
f (x1 ) +
f (x3 ).
x3 − x1
x3 − x1
(4.70)
Osserviamo che questa condizione può essere scritta anche come:
∀x1 , x2 ∈ I ∀α ∈ (0, 1) : f (αx1 + (1 − α)x2 ) ≤ α f (x1 ) + (1 − α) f (x2 ).
(4.71)
Una funzione f dunque è convessa nell’intervallo I se comunque scegliamo due punti P1 =
(x1 , f (x1 )) e P2 = (x2 , f (x2 )) sul grafico della funzione, x1 , x2 ∈ I, il grafico della funzione
compreso tra questi due punti giace sempre sotto la retta che unisce i due punti P1 e P2 (v. fig.
4.5).
196
Alberto Berretti
Analisi Matematica I
4
3
2
1
-1.0
- 0.5
0.5
1.0
1.5
2.0
Figura 4.5.: Funzione convessa.
La funzione f invece si dice concava se nelle (4.70), (4.71) vale la disuguaglianza opposta,
ovvero se − f è convessa. Geometricamente, vuol dire che il grafico della funzione tra due
punti P1 e P2 giace sempre sopra la retta che unisce tali punti.
Una funzione f si dice strettamente convessa o strettamente concava se le disuguaglianze citate sono strette (<, > piuttosto che ≤, ≥, in analogia con “crescente” vs. “strettamente
crescente” etc.).
Lemma 5. f è convessa nell’intervallo I se e solo se:
∀x1 , x2 , x3 ∈ I, x1 < x2 < x3 :
f (x2 ) − f (x1 )
f (x3 ) − f (x2 )
≤
.
x2 − x1
x3 − x2
(4.72)
In caso di stretta convessità abbiamo la medesima formula, con la disuguaglianza stretta. In caso di
concavità (stretta o meno) vale la disuguaglianza opposta.
Dimostrazione. Dimostriamo la (4.72), le varianti sono analoghe. La (4.72) è equivalente a:
(x3 − x2 )( f (x2 ) − f (x1 )) ≤ (x2 − x1 )( f (x3 ) − f (x2 ));
isolando a sinistra i termini contenti f (x2 ) e sommando e sottraendo x2 f (x2 ) otteniamo:
f (x2 )(x3 − x2 + x2 − x1 ) ≤ (x3 − x2 ) f (x1 ) + (x2 − x1 ) f (x3 ),
da cui dividendo per x3 − x1 otteniamo la (4.70).
Vale l’ovvio corollario.
197
Alberto Berretti
Analisi Matematica I
Corollario 6. Sia f convessa nell’intervallo I. Allora, se x1 , x2 , x3 , x4 ∈ I, x1 < x2 < x3 < x4 ,
abbiamo:
f (x2 ) − f (x1 )
f (x4 ) − f (x3 )
≤
x2 − x1
x4 − x3
(4.73)
Dimostrazione. Infatti applicando due volte il lemma 5 otteniamo:
f (x2 ) − f (x1 )
f (x3 ) − f (x2 )
f (x4 ) − f (x3 )
≤
≤
.
x2 − x1
x3 − x2
x4 − x3
Il lemma ed il corollario ci dicono sostanzialmente che, nel caso di una funzione f convessa,
il rapporto incrementale della f è è una funzione crescente dei valori tra i quali esso viene
calcolato.
Il principale strumento che abbiamo per determinare la convessità o concavità di una
funzione derivabile è dato dai due seguenti teoremi.
Teorema 50. Sia f definita e derivabile nell’intervallo I; allora:
1. f è convessa in I ⇒ f ′ è crescente in I,
2. f è concava in I ⇒ f ′ è decrescente in I.
Dimostrazione. La dimostrazione fa uso del corollario al lemma 5. Sia f convessa; allora
abbiamo:
f (x2 ) − f (x1 )
f (x4 ) − f (x3 )
≤
.
x2 − x1
x4 − x3
Facendo tendere x2 a x1 e x4 a x3 otteniamo che f ′ (x1 ) < f ′ (x3 , cioè la tesi. Il caso della
concavità è del tutto analogo.
Teorema 51. Sia f definita e derivabile in I; allora:
1. f ′ è strettamente crescente ⇒ f è strettamente convessa,
2. f ′ è strettamente decrescente ⇒ f è strettamente concava,
3. f ′ è crescente ⇒ f è convessa,
4. f ′ è decrescente ⇒ f è concava.
Dimostrazione. Dimostriamo il primo caso. La dimostrazione del secondo è identica, basta
invertire il verso della disuguaglianza, e la dimostrazione del terzo e del quarto è differisce
solo nel fatto che abbiamo disuguaglianze non strette (≤, ≥ invece di <, >). Sia f ′ dunque
198
Alberto Berretti
Analisi Matematica I
strettamente crescente, e siano x1 , x2 , x3 ∈ I, x1 < x2 < x3 . Allora per il teorema di Lagrange
∃ξ, η, x1 < ξ < x2 , x2 < η < x3 e quindi ξ < η, tali che:
f (x2 ) − f (x1 )
= f ′ (ξ),
x2 − x1
f (x3 ) − f (x2 )
= f ′ (η).
x3 − x2
Ma per la stretta crescenza di f ′ abbiamo f ′ (ξ) < f ′ (η), e quindi per il lemma 5 abbiamo la
tesi.
Il seguente corollario è ovvio.
Corollario 7. Sia f definita e due volte derivabile nell’intervallo I. Allora:
1. f ′′ > 0 ⇒ f è strettamente convessa,
2. f ′′ < 0 ⇒ f è strettamente concava,
3. f ′′ ≥ 0 ⇔ f è convessa,
4. f ′′ ≤ 0 ⇔ f è concava.
Sia f definita in (a, b), c ∈ (a, b). Se f è convessa in (a, c) e concava in (c, b) o viceversa allora
si dice che c è un punto di flesso. Se f è due volte derivabile in (a, b) con derivata seconda
continua, allora nel punto di flesso f ′′ (c) = 0.
4.5.3. Asintoti
Sia f definita in (a, b). Allora si dice che f ha un asintoto verticale in x = a o in x = b se:
lim f (x) = ±∞.
x→a o b
La retta verticale x = a o x = b è l’asintoto verticale. È immediato verificare che se f è pure
derivabile allora anche la derivata tende a ±∞.
Sia ora f definita in (a, +∞) o (−∞, a). Allora si dice che f ha un asintoto orizzontale se
esiste un numero l tale che:
lim f (x) = l.
x→±∞
La retta orizzontale y = l è l’asintoto orizzontale. L’asintoto orizzontale è a destra o a sinistra
a seconda che il limite sia per x → +∞ o x → −∞.
Osservazione 32. Non è vero che la retta y = l è la posizione limite della tangente al grafico
di f quando il punto di tangenza tende a ±∞. Basta considerare l’esempio:
f (x) =
sin x2
.
x
199
Alberto Berretti
Analisi Matematica I
È evidente che f (x) → 0 per x → ±∞, per cui la retta y = 0 è un asintoto destro e sinistro,
sin x2
, che chiaramente non ammette limite per x → ±∞. Quindi
ma f ′ (x) = 2 cos x2 −
x2
l’asintoto cosí definito non è la posizione limite della tangente quando il punto di tangenza
tende all’infinito. Nell’esempio considerato, la retta tangente nel punto (x0 , sin x20 /x0 ) è data
da:


2
sin
x
sin x20


0
2


y = 2 cos x0 −
 (x − x0 ) +
x0
x20 
il cui coefficiente angolare pertanto non ha limite per x → ±∞ e pertanto la retta tangente in
x0 continua ad oscillare quando x0 → ±∞.
Sia ancora f definita in (a, +∞) o (−∞, a). Si dice che f ammette la retta y = mx + q come
asintoto obliquo se:
lim ( f (x) − mx) = q.
x→±∞
L’asintoto obliquo è a destra o a sinistra a seconda che il limite sia per x → +∞ o x → −∞.
Vale anche nel caso degli asintoti obliqui un’osservazione analoga alla precedente per gli
asintoti orizzontali. L’asintoto orizzontale ovviamente è il caso particolare dell’asintoto
obliquo quando m = 0.
Nel caso degli asintoti obliqui, un problema concreto può essere quello della determinazione del valore corretto di m. Si osservi che nel caso piú comune, in cui non solo vale la
condizione indicata ma anche:
∃ lim f ′ (x) = m,
x→±∞
allora il valore di m è determinato da tale equazione. In questo caso l’asintoto obliquo
è effettivamente la posizione limite della tangente quando il punto di tangenza tende
all’infinito.
4.5.4. Metodo generale per lo studio di una funzione
Abbiamo ora a portata di mano tutti gli strumenti che possiamo utilizzare per determinare
un grafico (piú o meno) qualitativo di una funzione f di una variabile reale.
Riassiumiamo nella “checklist” seguente lo schema di risoluzione di uno studio di funzione.
1. Determinare il dominio di f .
2. Determinare eventuali simmetrie della funzione f (ad es. parità, periodicità).
3. Studiare la continuità di f .
200
Alberto Berretti
Analisi Matematica I
4. Calcolare i limiti di f agli estremi del dominio e negli eventuali punti di discontinuità,
determinandone dunque la natura (rimuovibili, di prima specie o di seconda specie).
5. Studiare la derivabilità di f ed individuare gli eventuali punti di non derivabilità.
6. Determinare gli eventuali asintoti di f .
7. Determinare gli intervalli di crescenza e decrescenza di f , e gli eventuali massimi e
minimi relativi.
8. Determinare gli intervalli di convessità e concavità di f , e gli eventuali flessi.
9. Unire queste informazioni e ricavare un grafico qualitativo di f .
Se richiesto, si dovranno anche determinare gli estremi assoluti nel dominio o in un
intervallo indicato. A volte potrebbe essere utile calcolare le intersezioni con gli assi, cioè
calcolare f (0) e risolvere, se possibile, f (x) = 0; si osservi che in genere non c’è nulla di
speciale nel valore x = 0 o f (x) = 0 per cui non è affatto detto che le intersezioni con gli assi
siano qualcosa di utile da determinare.
Osservazione 33. È possibile che la funzione da studiare abbia qualche punto di non derivabilità: un caso tipico è quello in cui sia presente nell’espressione della funzione il valore
assoluto in modo tale da rendere non derivabile la funzione in qualche punto (il che non
accade sempre: ad es. |x|3 è derivabile ovunque, mentre |x| non è derivabile nell’origine).
In questo caso è opportuno suddividere il dominio della funzione in intervalli in cui essa
è derivabile e studiarla separatamente intervallo per intervallo, calcolando poi i limiti agli
estremi di tali intervalli per vedere come i “pezzi” del grafico si “attaccano” e per studiare
la continuità e la derivabilità in tali punti. Se presenti eventuali simmetrie della funzione
possono aiutare in questi casi.
Vediamo ora alcuni esempi ed esercizi.
4.5.5. Le funzioni iperboliche
Introduciamo ora alcune funzioni che, pur essendo banalmente esprimibili in termini dell’esponenziale o del logaritmo, risultano essere comode in svariate circostanze.
Definiamo il seno iperbolico ed il coseno iperbolico tramite le seguenti formule
sinh x =
ex − e−x
,
2
cosh x =
201
ex + e−x
.
2
(4.74)
Alberto Berretti
Analisi Matematica I
Chiaramente entrambe le funzioni sono definite su tutto R ed il seno iperbolico è una funzione
dispari mentre il coseno iperbolico è una funzione pari. È anche banale verificare che:
lim sinh x = ±∞,
lim cosh x = +∞.
x→±∞
x→±∞
(4.75)
Sono altresí funzioni continue e derivabili in tutto R. Calcoliamone le derivate:
D sinh x =
ex − (−e−x ) ex + e−x
=
= cosh x,
2
2
D cosh x =
ex − (+e−x ) ex − e−x
=
= sinh x,
2
2
(4.76)
valgono cioè formule analoghe a quelle per le derivate delle funzioni trigonometriche, ma
con un segno − mancante. Ricaviamo inoltre la seguente semplice identità:
cosh2 x − sinh2 x =
e2x + e−2x + 2 − e2x − e−2x + 4 4
= = 1,
4
4
(4.77)
da cui si ricava a sua volta:
cosh2 x = 1 + sinh2 x,
sinh2 x = cosh2 x − 1;
(4.78)
osserviamo di nuovo come queste formule siano analoghe a quelle per le funzioni trigonometriche ma di nuovo con un segno opposto; osserviamo anche come la seguente:




x = cosh t,



 y = sinh t
sia dunque l’equazione parametrica di un ramo dell’iperbole equilatera standard x2 − y2 = 1,
fatto a cui tali funzioni devono il loro nome. Lasciamo al lettore di verificare le formule:
cosh(x + y) = cosh x cosh y + sinh x sinh y,
sinh(x + y) = sinh x cosh y + cosh x sinh y, (4.79)
ancora una volta uguali alle equivalenti formule trigonometriche, a parte il segno. Si dimostrano banalmente sostituendo la definizione di sinh e cosh nel lato destro di ciascuna uguaglianza,
espandendo i prodotti e facendo alcune cancellazioni.
Da esse si ricava:
cosh 2x = cosh2 x + sinh2 x,
sinh 2x = 2 sinh x cosh x.
(4.80)
Osserviamo poi che ∀x ∈ R cosh x > 0, e pertanto sinh x debba essere strettamente cre-
scente. Chiaramente sinh x > 0 se x > 0 e sinh x < 0 se x < 0, per cui cosh x è crescente in
x > 0 e decrescente in x < 0 ed il coseno iperbolico ha nell’origine un punto di minimo (che
è ovviamente assoluto). Poiché cosh 0 = 1, ne segue che in effetti cosh x ≥ 1. Alla luce delle
precedenti osservazioni sul segno di tali funzioni, possiamo dire che:
p
p
cosh x = 1 + sinh2 x, sinh x = sign x cosh2 x − 1.
202
(4.81)
Alberto Berretti
Analisi Matematica I
Osserviamo anche che non è necessario far uso delle derivate per ricavare la crescenza e
la decrescenza delle funzioni iperboliche. Infatti, poniamo y = ex ed osserviamo che y > 0
e che y è crescente con x. Quindi essendo sinh x = (y − 1/y)/2 abbiamo immediatamente
che il seno iperbolico è crescente, in quanto somma di due funzioni crescenti come y e −1/y
(la divisione per 2 essendo ovviamente irrilevante per la crescenza). Per quanto riguarda il
coseno iperbolico la faccenda è solo leggermente piú complessa. Essendo il coseno iperbolico
pari, ci basta dimostrarne la crescenza per x > 0 e allora avremo subito la decrescenza
per x < 0; se x > 0, y > 1, e dobbiamo dimostrare dunque che se 1 < y1 < y2 allora
y1 + 1/y1 < y2 + 1/y2 . Ma tale disuguaglianza equivale alla:
y2 − y1
1
1
−
=
< y2 − y1 ,
y1 y2
y1 y2
che equivale a:
1
<1
y1 y2
che è ovvia perché y1 , y2 > 1.
A volte può far comodo introdurre la funzione tangente iperbolica:
tanh x =
sinh x
e2 − e−x
= x
.
cosh x e + e−x
(4.82)
Lasciamo al lettore il semplice compito di determinare le sue principali proprietà.
In fig. 4.6 possiamo vedere i grafici delle funzioni iperboliche.
Introduciamo ora le funzioni iperboliche inverse.
Sia x = sinh y. La funzione seno iperbolico è definita ovunque ed ovunque strettamente
crescente, e quando y varia da −∞ a +∞ anche x varia da −∞ a +∞, per cui la funzione inversa
y = sectsinh x (settor seno iperbolico di x) è anch’essa definita su tutto R, strettamente
crescente e tende a ±∞ quando x tende a ±∞. Come il seno iperbolico anche la sua funzione
inversa è una funzione dispari.
Sia x = cosh y. La funzione coseno iperbolico è pari, per cui non è possibile invertirla
ovunque: siamo nella stessa situazione di quando definiamo la radice quadrata come inverso
del quadrato. Ad ogni valore di x ≥ 1 corrisponde uno o due valori di y: un solo valore, y = 0,
quando x = 1, e due valori opposti quando x > 1; dobbiamo sceglierne uno per avere una
funzione ben definita, e sceglieremo quello positivo. Quindi la funzione inversa del coseno
iperbolico, il settor coseno iperbolico che indicheremo con sectcosh x è una funzione che
ha come dominio l’intervallo [1, +∞), in esso positiva e strettamente crescente da 0 a +∞.
Osserviamo che usando lo stesso argomento utilizzato per determinare le derivate dell’ar-
coseno e dell’arcocoseno ricaviamo:
1
D sectsinh x = √
,
1 + x2
1
.
D sectcosh x = √
x2 − 1
203
(4.83)
Alberto Berretti
Analisi Matematica I
4
c o sh
x
2
- 4
ta n h
si n h
- 2
x
x
2
4
- 2
- 4
Figura 4.6.: Grafici di sinh x, cosh x e tanh x.
È interessante notare come sia possibile calcolare esplicitamente, in termini di funzioni
elementari, le funzioni iperboliche inverse. Abbiamo infatti per il seno iperbolico inverso:
x=
ey − e−y
,
2
da cui ricaviamo:
ey − 2x − e−y = 0,
e moltiplicando ambo i membri per ey otteniamo:
(ey )2 − 2xey − 1 = 0,
che può essere interpretata come una equazione di secondo grado nell’incognita ey . Risolvendola otteniamo:
ey = x ±
√
x2 + 1,
ed essendo ey > 0 dobbiamo scegliere il segno positivo. Quindi:
y = sectsinh x = log(x +
204
√
x2 + 1).
(4.84)
Alberto Berretti
Analisi Matematica I
Per il coseno iperbolico abbiamo:
x=
ey + e−y
,
2
da cui ricaviamo:
ey − 2x + e−y = 0,
e moltiplicando ambo i membri per ey otteniamo:
(ey )2 − 2xey + 1 = 0,
che può essere interpretata come una equazione di secondo grado nell’incognita ey . Risolvendola otteniamo:
ey = x ±
√
x2 − 1.
La scelta corretta del segno è un po’ piú complicata. x ≥ 1 e per la scelta del segno che
abbiamo fatto definendo il settor coseno iperbolico, y ≥ 0 quindi ey ≥ 1. Ora, in x ≥ 1 la
√
funzione x + x2 − 1 è crescente, e vale 1 quando x = 1, per cui è sempre ≥ 1, per cui la scelta
corretta del segno è quella positiva.
Se avessimo scelto il segno meno, avremmo avuto x −
x−
√
x2 − 1 =
√
x2 − 1, sempre per x ≥ 1. Ma:
1
√
x + x2 − 1
√
x2 − 1 è una funzione decrescente. Poiché vale 1 in
come un semplice calcolo dimostra, e quindi x −
x = 1, per x > 1 è minore di 1 e quindi è la scelta sbagliata.
Quindi:
y = sectcosh x = log(x +
√
x2 − 1).
(4.85)
4.5.6. Altri esempi ed esercizi
Vediamo ora qualche altro esempio ed esercizio.
Esempio 76. Non sempre è richiesto di fare uno studio completo di funzione. A volte ci
interessa qualche specifica proprietà di una funzione e vogliamo utilizzare gli strumenti
che abbiamo visto in questo capitolo per dimostrarne la validità. Ad es. sia richiesto di
dimostrare che:
sin πx
≤ 4.
x(1 − x)
A prima vista non sembra essere uno “studio di funzione”, ma per dimostrare questa stima
∀x ∈ (0, 1) :
π<
dovremo proprio studiare il comportamento della funzione indicata nell’intervallo (0, 1).
Poniamo dunque:
f (x) =
sin πx
.
x(1 − x)
205
Alberto Berretti
Analisi Matematica I
Iniziamo osservando che f è simmetrica intorno al punto x = 1/2, cioè:
f (1 − x) = f (x),
come si verifica immediatamente. Inoltre f (1/2) = 4 e lim f (x) = π, per cui considerando
x→0 o 1
la simmetria della funzione, il valore in 1/2 ed i limiti agli estremi dell’intervallo assegnato,
se f fosse crescente in (0, 1/2) e quindi per simmetria decrescente in (1/2, 1) avremmo concluso. Basta dunque dimostrare che f (x) è crescente per x ∈ (0, 1/2), la simmetria fa il resto.
Sembrerebbe facile: calcoliamo la derivata di f (x) e verifichiamo che f ′ (x) ≥ 0 in questo
intervallo. Ma:
f ′ (x) =
πx(1 − x) cos πx − (1 − 2x) sin πx
.
x2 (1 − x)2
Essendo il denominatore ovviamente positivo, basterebbe dimostrare che per x ∈ (0, 1/2):
πx(1 − x) cos πx − (1 − 2x) sin πx ≥ 0.
Un’idea potrebbe essere dividere tutto per (1 − 2x) cos πx e tentare di risolvere:
tan πx ≤
πx(1 − x)
.
1 − 2x
Il problema è che entrambe le funzioni di x a sinistra e a destra di questa disequazione sono
funzioni crescenti che tendono a 0 per x che tende a 0 e che tendono a +∞ per x che tende a 1/2
da sinistra: quindi è estremamente difficile riuscire a confrontarle; non abbiamo imboccato
una buona strada.
Consideriamo allora:
g(x) = πx(1 − x) cos πx − (1 − 2x) sin πx.
Abbiamo g(0) = g(1/2) = 0. Ma come si comporta g(x) tra 0 e 1/2? Proviamo a derivarla:
g′ (x) = (π2 x2 − π2 x + 2) sin πx.
Ora, in (0, 1/2) sin πx > 0, per cui il segno di g′ è determinato dal polinomio di secondo grado
π2 x2 − π2 x + 2. Tale polinomio rappresenta una parabola con concavità rivolta verso l’alto,
vale 2 in 0, in 1/2 vale 2 − π2 /4 < 2 − 9/4 < 0 ed in 1 vale 2, pertanto le sue radici sono una
compresa tra 0 ed 1/2 e l’altra compresa tra 1/2 ed 1; in particolare, esiste c ∈ (0, 1/2) tale che
g′ > 0 in (0, c) e g′ < 0 in (c, 1/2). Quindi g cresce fra 0 e c e decresce fra c e 1/2; poiché vale 0
in 0 ed in 1/2 g > 0 in (0, 1/2), il che conclude la dimostrazione. [Quest’esempio è dovuto a
G. H. Hardy.]
206
Alberto Berretti
Analisi Matematica I
Esercizio 35. Data la funzione:
f (x) = | log(x2 − 5|x| + 6)|,
determinarne il dominio, gli intervalli di crescenza e di decrescenza, gli eventuali massimi
e minimi locali, gli intervalli di convessità e di concavità, gli eventuali punti di flesso, e gli
eventuali asintoti. Disegnarne il grafico.
Esercizio 36. Determinare il dominio, i limiti agli estremi del dominio, gli eventuali asintoti, gli intervalli di crescenza e decrescenza, gli estremi locali, gli intervalli di concavità e
convessità ed i punti di flesso della seguente funzione:
f (x) = arctan
x
.
|1 + x|
Esercizio 37. Determinare il dominio, i limiti agli estremi del dominio, gli eventuali asintoti,
gli intervalli di crescenza e decrescenza e gli estremi locali della seguente funzione:
f (x) = 3 arctan x − log
1+x
.
1−x
Esercizio 38. Data la funzione:
f (x) = log
1
,
x2 − 7|x| + 12 determinarne il dominio, gli intervalli di crescenza e di decrescenza, gli eventuali massimi
e minimi locali, gli intervalli di convessità e di concavità, gli eventuali punti di flesso, e gli
eventuali asintoti. Disegnarne il grafico.
Esercizio 39. Data la funzione:
r
f (x) =
x2
1
,
− 7|x| + 10
determinarne il dominio, gli intervalli di crescenza e di decrescenza, gli eventuali massimi
e minimi locali, gli intervalli di convessità e di concavità, gli eventuali punti di flesso, e gli
eventuali asintoti. Disegnarne il grafico.
Esercizio 40. Determinare il dominio, le proprietà di simmetria, gli eventuali asintoti, intervalli di crescenza e decrescenza, gli estremi locali, gli intervalli di concavità e convessità, i
punti di flesso e disegnare un grafico approssimativo della funzione:
log(sin x + | cos x|).
207
Alberto Berretti
Analisi Matematica I
Esercizio 41. Sia:
e−x
.
x2 − 5x + 6
Determinare il dominio, gli intervalli di crescenza e decrescenza, gli eventuali estremi e gli
f (x) =
eventuali asintoti di f (x).
Esercizio 42. Sia:
f (x) = log(1 − | sin x|)).
Determinare il dominio, gli intervalli di crescenza e decrescenza, gli eventuali estremi, gli
intervalli di concavità e di convessità, gli eventuali flessi e gli eventuali asintoti di f (x).
Determinare il periodo di f (x).
4.6. Uno strumento utile: esponenziale, seno e coseno nel campo complesso
Quando abbiamo iniziato ad utilizzare le funzioni seno e coseno abbiamo sottolineato che la
loro definizione geometrica, come data alle scuole superiori, non è in pieno rigore accettabile,
perché non è chiaro cosa si intenda per la misura dell’angolo (la lunghezza dell’arco richiederebbe il calcolo integrale per definire la lunghezza di una curva, cosa che ancora peraltro non
abbiamo fatto). Vi è stata inoltre una certa vaghezza nel considerare le potenze con esponenti
reali, ed un particolare l’esponenziale ex . Bene, non è ancora questo il momento per sciogliere
queste ambiguità: piú avanti, potremmo definire in termini di integrali le rispettive funzioni
inverse, in particolare l’arcoseno ed il logaritmo, e tramite esse ricostruire la teoria delle
funzioni trigonometriche e dell’esponenziale, ma ciò risulta essere complesso, anti-intuitivo
e particolarmente scomodo rispetto ad un altro metodo, che però richiede la teoria delle serie
di funzioni e pertanto è rimandato al corso di Analisi Matematica 2. Chi fosse interessato alla
teoria rigorosa dell’esponenziale e delle funzioni trigonometriche definite attraverso le loro
inverse, a loro volta definite tramite integrali, può consultare ad es. il libro di G. H. Hardy,
A Course of Pure Mathematics, già citato. Uno dei vantaggi dell’approccio basato sulle serie
di funzioni è che l’esponenziale e le funzioni trigonometriche vengono automaticamente
definite nel campo complesso e le loro relazioni risultano ovvie e naturali.
Poiché la relazione tra funzioni trigonometriche ed esponenziale nel campo complesso è
uno strumento estremamente utile, in particolare per la teoria (e per la risoluzione concreta)
delle equazioni differenziali lineari che tratteremo piú avanti, anticipiamo qualcosa ora,
anche se le definizioni che faremo avranno l’aria di essere arbitrarie e non scaturiranno da
una “visione” dello sviluppo della materia. Dopotutto le definizioni sono arbitrarie.
Definiamo quindi:
eiy = cos y + i sin y, y ∈ R.
208
(4.86)
Alberto Berretti
Analisi Matematica I
Definiamo in altri termini la potenza con base e ed esponente immaginario puro nel modo
indicato.
Si osservi che grazie a questa definizione valgono le normali regole della potenza:
e−iy =
1
,
eiy
eiy1 · eiy2 = ei(y1 +y2 ) ,
come si verifica direttamente a partire dalla definizione facendo uso della definizione di
quoziente di numeri complessi per la prima e delle regole di somma del seno e del coseno
per la seconda.
Definiamo quindi la potenza con base e ed esponente complesso arbitrario in modo tale da
continuare a far valere le medesime proprietà delle potenze:
ez = ex+iy = ex (cos y + i sin y).
Quindi nel caso di base reale positiva arbitraria definiamo:
az = ez log a .
Il caso di a complesso qualsiasi richiederebbe la definizione di logaritmo nel campo complesso
e questo a questo punto sarebbe troppo.
Osserviamo che dalla (4.86) discendono immediatamente le formule di Eulero:
cos x =
eix + e−ix
,
2
sin x =
eix − e−ix
,
2i
tan x =
1 eix − e−ix
.
i eix + e−ix
(4.87)
Risulta anche possibile dunque scrivere un numero complesso in coordinate polari come:
z = ρeiθ ,
dove ρ = |z| e θ = Arg z.
Dalle formule di Eulero è facile ricostruire l’intero formulario trigonometrico facendo uso
delle proprietà dell’esponenziale. Ad es.:
sin 2x =
(eix − e−ix )(eix + e−ix )
eix − e−ix eix + e−ix
e2ix − e−2ix
=
=2
= 2 sin x cos x.
2i
2i
2i
2
Ricavare tutte le altre formule trigonometriche facendo uso delle formule di Eulero è un
esercizio molto istruttivo.
Osserviamo inoltre che se w(x) = u(x) + iv(x) è una funzione a valori complessi di una
variabile reale x, allora possiamo definire la derivata w′ (x) nel modo ovvio facendo uso della
linearità della derivata:
w′ (x) = u′ (x) + iv′ (x).
209
Alberto Berretti
Analisi Matematica I
Questo ci permette di dire che ad es.:
(eiαx )′ = −al sin x + iα cos x = iα(cos x + i sin x) = iαeiαx ,
Le regole del calcolo differenziale per l’esponenziale in altri termini continuano a valere.
Si può verificare altrettanto facilmente che anche nel caso delle funzioni trigonometriche
valgono le medesime regole di derivazione.
La definizione di esponenziale, seno e coseno nel campo complesso mette in luce anche la relazione fra funzioni trigonometriche e funzioni iperboliche.
immediatamente che:
cos iy =
sin iy =
e−y −e y
2i
e−y +e y
2
= cosh y,
= 2i (ey − e−y ) = i sinh y,
cosh iy =
eiy +e−iy
2
= cos y,
sinh iy =
eiy −e−iy
= i sin y.
2
210
Infatti si verifica
5. Introduzione all’Analisi per funzioni di piú variabili
Buona parte dei concetti e dei risultati che abbiamo visto fino ad ora, ma non tutti, possono essere generalizzati in un modo o nell’altro al caso di funzioni di piú variabili: limiti,
topologia, continuità e derivate. Ci sono alcune differenze, come vedremo, importanti.
Useremo spesso la notazione vettoriale:
x = (x1 , x2 , . . . , xn ).
Questo ci permetterà di scrivere semplicemente f (x) invece che f (x1 , x2 , . . . , xn ). Inoltre
porremo:
q
||x|| =
x21 + x22 + . . . + x2n ,
la norma euclidea del vettore x ed utilizzeremo il prodotto scalare di due vettori x, y:
x·y=
n
X
xk yk .
k=1
Ovviamente:
x · y = y · x,
x · 0 = 0, dove 0 = (0, . . . , 0),
(λx) · y = λ(x · y) e x · (λy) = λ(x · y).
Si noti che ||x||2 = x · x. Si noti anche che, se x, y rappresentano due punti in Rn , allora ||x − y||
non è altro che la distanza tra i due punti. Ovviamente, inoltre, ||x|| ≥ 0 e ||x|| = 0 ⇒ x = 0 (la
norma euclidea di un vettore non è mai negativa e se è nulla allora il vettore è nullo).
Ci servono dapprima alcune disuguaglianze.
Proposizione 22 (Disuguaglianza di Cauchy-Schwarz).
|u · v| ≤ ||u|| ||v||.
(5.1)
Dimostrazione. La dimostrazione è molto semplice. Se v = 0 allora la disuguaglianza è ovvia.
Assumiamo dunque v , 0 e poniamo:
w=u−
u·v
v.
v·v
211
Alberto Berretti
Analisi Matematica I
Allora chiaramente:
w·v =u·v−
Quindi:
u·v ✘
v ·✘
v = u · v − u · v = 0.
✘
✘
v ·✘
v
✘
u=w+
e cosí:
u·v
v,
v·v
✟
(u · v)2
(u · v)2 (u · v)2
u ·✟
v
2
✟
+
≥
,
2v
·
w
=
||w||
+
✟
✟ v·v
||v||2
||v||2
||v||2
✟
da cui discende immediatamente la tesi prendendo la radice quadrata di ambo i membri.
||u||2 = u · u = ||w||2 +
Se x · y = 0 si dice che x e y sono ortogonali. Si osservi che la disuguaglianza di
Cauchy-Schwarz implica, per vettori non nulli, che:
−1 ≤
x·y
≤ 1;
||x||||y||
ciò ci permette di definire l’angolo fra due vettori x e y come:
θ = arccos
x·y
,
||x||||y||
0 ≤ θ ≤ π.
Dalla disuguaglianza di Cauchy-Schwarz segue immediatamente la disuguaglianza triangolare in piú variabili.
Proposizione 23. Vale la seguente generalizzazione della disuguaglianza triangolare in Rn :
||u + v|| ≤ ||u|| + ||v||.
(5.2)
Dimostrazione. La dimostrazione è immediata. Infatti elevando al quadrato ambo i membri
otteniamo:
||u||2 + ||v||2 + 2u · v ≤ ||u||2 + ||v||2 + 2||u|| ||v||,
da cui semplificando:
u · v ≤ ||u|| ||v||,
che se il prodotto scalare a sinistra è negativo è ovvia, e se è positivo è vera per la disuguaglianza di Cauchy-Schwarz.
Osservazione 34. Il norma euclidea di un vettore ha esattamente le medesime proprietà del
valore assoluto di un numero reale, ed ha anche esattamente lo stesso significato geometrico:
il valore assoluto della differenza di due numeri è la distanza fra i due punti sulla retta
reale, e la norma euclidea della differenza di due vettori in Rn è la distanza fra i punti che
rappresentano tali vettori.
212
Alberto Berretti
Analisi Matematica I
Osservazione 35. In realtà, qualunque funzione || · || : Rn 7→ R che soddisfa le seguenti proprietà
viene detta norma:
1. ||v|| ≥ 0,
2. ||v|| = 0 ⇒ v = 0,
3. ||u + v|| ≤ ||u|| + ||v||.
In Rn tutte le norme possibili sono equivalenti, in un senso molto preciso di questa parola, pertanto
si può utilizzare la norma piú conveniente dal punto di vista dei calcoli (ad es. la norma euclidea che abbiamo introdotto sopra). Non è nostra intenzione addentrarci ulteriormente in queste
problematiche.
Esempio 77. In R il valore assoluto è una norma, in quanto soddisfa tutte e tre le proprietà elencate
sopra.
Esempio 78. La seguente:
||v||1 =
n
X
k=1
|vk |
e la seguente:
||v||∞ = max |vk |
1≤k≤n
sono norme in Rn : è elementare verificare che le tre proprietà che definiscono la norma sono
soddisfatte.
5.1. Limiti di funzioni di piú variabili
In analogia con le considerazioni fatte quando abbiamo definito i limiti di funzioni di una
variabile, definiamo per funzioni di n variabili il limite nel modo seguente:
Diremo che:
lim f (x) = l
x→x0
se:
∀ε > 0 ∃ δ > 0 tale che
0 < ||x − x0 || < δ ⇒ | f (x) − l| < ε.
Osservazione 36. L’unica cosa che è cambiata è l’utilizzo del simbolo di vettore e della norma al
posto del valore assoluto là dove necessario, e che pertanto il caso n = 1 della definizione appena
data coincide con la usuale definizione di limite in R. Poiché le proprietà della norma sono
le stesse del valore assoluto (il valore assoluto è una norma!) ne segue che tutte le proprietà
dei limiti che utilizzano solo le proprietà del valore assoluto continuano a valere anche nel
caso di limiti in Rn , e le corrispondenti dimostrazioni sono sostanzialmente identiche.
213
Alberto Berretti
Analisi Matematica I
Osservazione 37. Al contrario, non possiamo definire i limiti all’infinito in un modo sensato:
infatti mentre in una dimensione abbiamo due direzioni e basta (appunto distinguiamo il
limite per x → +∞ e per x → −∞), in piú di una dimensione abbiamo non solamente infinite
direzioni, ma infiniti modi nei quali un punto può allontanarsi dall’origine facendo tendere a +∞ la
sua distanza da essa.
Facciamo qualche esempio di come modificare le dimostrazioni dei teoremi sui limiti in R per
adattarle al caso di funzioni in Rn .
Teorema 52 (Teorema della permanenza del segno). Sia:
lim f (x) = l 0;
x→x0
allora ∃δ > 0 tale che se ||x − x0 || < δ allora f (x) > 0.
Dimostrazione. Abbiamo:
∀ε > 0∃δ > 0 :
0 < ||x − x0 || < δ ⇒ l − ε < f (x) < l + ε.
Se prendiamo dunque ε = l/2 otteniamo che se 0 < ||x − x0 || < δ allora f (x) > l − l/2 = l/2 > 0.
Il teorema del confronto ed il teorema sulle operazioni algebriche sui limiti hanno una dimostrazione
assolutamente identica al caso delle funzioni di una variabile, basta sostituire il simbolo di norma || · ||
a quello di valore assoluto | · |.
Il teorema sul limite delle funzioni composte è piú complicato da enunciare e dimostrare, perché
non ha senso comporre due funzioni da Rn ad R. Il discorso può farsi complicato, amenoche’ non si
ricorra ad un punto di vista piú generale che però non è opportuno a questo livello. Ci accontentiamo
pertanto di dimostrare il seguente teorema.
Teorema 53. Sia f : D ⊂ Rn 7→ R e gk (x) : I ⊂ R 7→ R, k = 1, . . . , n, tali che ∀x ∈ I (g1 (x), . . . , gn (x)) ∈ D.
Sia inoltre h(x) : I ⊂ R 7→ R definita da:
h(x) = f (g1 (x), . . . , gn (x)),
ed inoltre sia:
lim f (y) = l, dove ȳ = ( ȳ1 , . . . , ȳn ).
y→ ȳ
e:
lim gk (x) = ȳk ,
x→x0
k = 1, . . . , n.
Assumiamo inoltre che ∃β > 0 e ∃j tali che se 0 < |x − x0 | < β allora g j (x) , ȳ j . Allora:
lim h(x) = l.
x→x0
Dimostrazione. Dobbiamo dimostrare che ∀ε > 0 ∃δ > 0 tale che se 0 < |x − x0 | < δ allora |h(x) − l| < ε.
Sappiamo che ∀η > 0 esistono δk > 0 tali che se 0 < |x − x0 | < δk allora |gk (x) − ȳk | < η, e sappiamo pure
p
che ∀ε > 0 ∃ζ > 0 tale che se 0 < (y1 − ȳ1 )2 + . . . + (yn − ȳn )2 < ζ allora | f (y) − l| < ε.
214
Alberto Berretti
Analisi Matematica I
ζ
Prendiamo dunque η = √ e δ = min(β, δ1 , . . . , δn ) (ovviamente δ > 0). Dunque per 0 < |x − x0 | < δ
n
otteniamo che (y1 , . . . , yn ) , ( ȳ1 , . . . , ȳn ) (perché almeno uno degli yk , precisamente y j , è diverso da ȳ j !)
ζ2
e (y1 − ȳ1 )2 + . . . + (yn − ȳn )2 < n ·
= ζ2 e quindi la tesi.
n
(Confrontare con la dimostrazione del risultato analogo in R).
Il concetto di monotonia in Rn non ha molto senso per cui il teorema sui limiti delle funzioni
monotone non si generalizza.
5.2. Nozioni di topologia
Le nozioni di topologia che abbiamo visto nel capitolo precedente si generalizzano facilmente
a funzioni di piú variabili, con alcune difficoltà tecniche che per essere superate in modo
concettualmente limpido necessiterebbero di un approccio radicalmente diverso, cosa che di
nuovo non è opportuna al nostro livello.
Dato un punto a ∈ Rn un intorno di a è l’insieme Bε (a) = {x ∈ Rn : ||x − a|| < ε} , cioè l’insieme dei
punti x ∈ Rn tali che:
n
X
k=1
(xk − ak )2 < ε2 ,
ovvero la “sfera” n-dimensionale di centro a e raggio ε (superficie sferica esclusa: la cosiddetta palla
aperta di centro a e raggio ε). Dato un insieme A ⊂ Rn un punto b ∈ Rn si dice interno ad A se esiste
un intorno di b contenuto in A, cioè se esiste ε > 0 tale che Bε (b) ⊂ A; si dice che b è esterno ad A se è
interno al complementare di A, e che è di frontiera se non è né interno né esterno.
L’interno o parte interna di un insieme A è l’insieme dei suoi punti interni, e si indica con il
simbolo Å. La frontiera di un insieme A è l’insieme dei suoi punti di frontiera e si indica con il
simbolo ∂A.
Un punto b si dice punto di accumulazione per l’insieme A se ogni intorno di b contiene un
elemento di A diverso da b. L’insieme dei punti di accumulazione di A viene detto insieme derivato
di A e si indica con A′ .
Un punto b si dice punto isolato dell’insieme A se b ∈ A e ∃ ε > 0 tale Bε (b) non contiene altri
punti di A.
Proposizione 24. Se b è un punto di accumulazione per l’insieme A, allora ogni intorno di b contiene infiniti
punti di A.
La dimostrazione di questa proposizione è identica alla dimostrazione della analoga proposizione
13 nel capitolo precedente: basta sostituire agli intervalli aperti del tipo (b − ε, b + ε) le palle aperte
Bε (b).
Tutte le altre considerazioni fatte sui punti di accumulazioni ovviamente continuano a valere.
Un insieme A viene detto aperto se A = Å, cioè se tutti i punti di A sono interni; quindi A è aperto
se ∀x ∈ A ∃ ε > 0 tale che Bε (x) ⊂ A. L’insieme vuoto ∅ viene considerato aperto per definizione. Un
215
Alberto Berretti
Analisi Matematica I
insieme A viene detto chiuso se il suo complementare è aperto. Si potrebbe dimostrare che l’insieme
vuoto e tutto Rn sono gli unici insiemi contemporaneamente aperti e chiusi.
Continua a valere il seguente teorema.
Teorema 54. Le[
unioni ed intersezioni di insiemi aperti o chiusi soddisfano le seguenti proprietà:
1. L’unione
A di un insieme arbitrario S di insiemi aperti è aperto.
A∈S
n
\
2. L’intersezione di un numero finito di insiemi aperti
Ak è aperto.
k=1
\
3. L’intersezione
A di un insieme arbitrario S di insiemi chiusi è chiuso.
A∈S
4. L’unione di un numero finito di insiemi chiusi
n
[
Ak è chiuso.
k=1
Dimostrazione. Al solito, la dimostrazione è identica alla dimostrazione dell’analogo teorema nel caso
unidimensionale, purché si sostituisca ad ogni intervallo aperto di centro a e raggio ε la palla aperta
di centro a e raggio ε.
Come esempio, dimostriamo il punto 1. Se x ∈
[
A vuol dire che esiste un A0 ∈ S tale che
[
x ∈ A0 . Essendo A0 aperto, ∃ ε > 0 tale che Bε (x) ⊂ A0 e quindi anche Bε (x) ⊂
A, da cui la tesi.
A∈S
A∈S
Analogamente gli altri punti.
Come nel caso unidimensionale, segue immediatamente dalla definizione di punto interno di un
insieme che la parte interna di un insieme è un insieme aperto.
La chiusura di un insieme A è l’unione di A e della sua frontiera. Come nel caso unidimensionale,
la chiusura di un insieme è un insieme chiuso (la dimostrazione è identica al caso unidimensionale).
Come nel caso unidimensionale, un insieme A si dice denso in B se A ⊂ B e Ā = B.
Continua a valere il seguente teorema, con delle modifiche triviali nella dimostrazione.
Teorema 55. Dato A ⊂ Rn , le seguenti tre affermazioni sono equivalenti:
1. A è chiuso,
2. ∂A ⊂ A,
3. A contiene i suoi punti di accumulazione (A′ ⊂ A).
Dimostrazione. Come al solito, è sufficiente dimostrare che 1 ⇒ 2 ⇒ 3 ⇒ 1.
1 ⇒ 2. Bisogna dimostrare che se A è chiuso e x < A allora x < ∂A. Ma se A è chiuso allora ∁A è
aperto per cui se x < A allora x è esterno ad A e quindi non è di frontiera (la dimostrazione è identica
al caso unidimensionale).
2 ⇒ 3. Se x è un punto di accumulazione di A allora x non è esterno ad A, per cui x è o interno ad
A (e quindi ∈ A) o di frontiera. Quindi x ∈ A ∪ ∂A, ma se ∂A ⊂ A allora x ∈ A (anche in questo caso la
dimostrazione è identica).
3 ⇒ 1. Se x ∈ ∁A allora poiché A contiene i suoi punti di accumulazione x non è un punto di
accumulazione e quindi ∃ ε > 0 tale che Bε (x) non contiene alcun punto di A. Quindi Bε (x) ⊂ ∁A,
quindi ∁A è aperto, quindi A è chiuso (abbiamo usato la palla aperta Bε (x invece dell’intervallo aperto,
altrimenti la dimostrazione è identica).
216
Alberto Berretti
Analisi Matematica I
5.2.1. Il teorema di Bolzano-Weierstrass
Il teorema di Bolzano-Weierstrass continua a valere, e la dimostrazione, sostanzialmente identica, è tecnicamente piú complicata, anche se non di molto. Noi dimostriamo il teorema di Bolzano-Weierstrass
in due variabili (x, y): la dimostrazione generale è chiaramente identica e solo piú macchinosa.
Teorema 56 (Bolzano-Weierstrass). Un insieme limitato e infinito possiede almeno un punto di accumulazione.
Dimostrazione. Dimostriamolo nel caso bidimensionale.
Sia A ⊂ R2 , limitato – e cioè A ⊂ [a′ , b′ ] times[a′′ , b′′ ] per qualche a′ , b′ , a′′ , a′′ ∈ R, a′ < b′ e a′′ < b′′ ,
– e infinito – cioè A possiede infiniti elementi. Sia c′ = (a′ + b′ )/2, c′′ = (a′′ + b′′ )/2, e cioè siano c′ ,
c′′ i punti medi degli intervalli [a, b] che contengono A; allora, se consideriamo i quattro rettangoli
[a′ , c′ ] × [a′′ , c′′ ], [a′ , c′ ] × [c′′ , b′′ ], [c′ , b′ ] × [a′′ , c′′ ] e [c′ , b′ ] × [c′′ , b′′ ] in cui abbiamo diviso il rettangolo
originale, almeno uno dei quattro deve contenere infiniti elementi di A: altrimenti A non sarebbe un insieme
infinito; quindi possiamo sempre scegliere tra i quattro rettangoli in cui abbiamo diviso il rettangolo
originale uno che contenga infiniti elementi di A. Tale nuovo rettangolo lo chiamiamo [a′1 , b′1 ]×[a′′
, b′′
].
1
1
Ma se anche [a′1 , b′1 ] × [a′′
, b′′
] contiene infiniti elementi di A, possiamo ripetere la costruzione appena
1
1
fatta dividendo tale rettangolo in quattro parti e scegliendone una che contiene infiniti elementi di A,
′′
ottenendo un intervallo [a′2 , b′2 ] × [a′′
2 , b2 ] che contiene anch’esso infiniti elementi di A e così via.
] di rettangoli, tutti contenuti l’uno
, b′′
In definitiva, abbiamo ottenuto una successione [a′k , b′k ] × [a′′
k
k
dentro l’altro, e che contengono tutti infiniti elementi di A. Osserviamo che:
1. la successione {a′k } è crescente: a′k+1 ≥ a′k ;
2. la successione {b′k } è decrescente: b′k+1 ≤ b′k ;
;
≥ a′′
} è crescente: a′′
3. la successione {a′′
k
k+1
k
4. la successione {b′′
} è decrescente: b′′
≤ b′′
;
k
k+1
k
5. la successione {a′k } è limitata dall’alto: a′k < b′ ;
6. la successione {b′k } è limitata dal basso: b′k > a′ .
7. la successione {a′′
} è limitata dall’alto: a′′
< b′′ ;
k
k
8. la successione {b′′
} è limitata dal basso: b′′
> a′′ .
k
k
→ α′′ e b′′
→ β′′ per k → ∞. Ma b′k − a′k = (b′ − a′ )/2k ,
Ne segue che per il teorema 13 a′k → α′ , b′k → β′ , a′′
k
k
per cui b′k − a′k → 0, e quindi β′ = α′ , e e per la stessa ragione β′′ = α′′ .
Abbiamo dunque definito un punto x = (α′ , α′′ ). Dimostriamo ora che (α′ , α′′ ) è un punto di
accumulazione per A.
Sia ε > 0 qualsiasi, anche molto piccolo, e consideriamo la palla aperta Bε (x). Chiaramente il
√
√
√
√
quadrato Q = [α′ − ε/ 2, α′ + ε/ 2] × [α′′ − ε/ 2, α′′ + ε/ 2] è contenuto in Bε (x). Poiché a′k ր α′
√
esiste k1 tale che ∀k ≥ k1 a′k ∈ (α′ − ε/ 2, α′ ), e poiché b′k ց β′ = α′ esiste k2 tale che ∀k ≥ k2
√
√
′′
′′
′′
ր
α
esiste
k
tale
che
∀k
≥
k
a
∈
(α
−
ε/
2, α′′ ), e
b′k ∈ (α′ , α′ + ε/ 2); analogamente poiché a′′
3
3
k
k
√
poiché b′′
ց β′′ = α′′ esiste k4 tale che ∀k ≥ k4 b′′
∈ (α′′ , α′′ + ε/ 2). Ponendo K = max(k1 , k2 , k3 , k4 ),
k
k
′′
′
′
′′ ′′
abbiamo allora che il rettangolo [a′K , b′K ] × [a′′
K , bK ] è contenuto in Q ⊂ Bε (x). Poiché [aK , bK ] × [aK , bK ]
contiene infiniti elementi di A, ne contiene almeno uno diverso da x = (α′ , α′′ ), che quindi è un punto
di accumulazione.
217
Alberto Berretti
Analisi Matematica I
5.2.2. Compattezza
Un insieme chiuso e limitato viene detto anche compatto.
Poiché in Rn non vi è una relazione d’ordine, non ha senso di parlare di massimo e minimo di un
sottoinsieme di Rn .
Il seguente teorema però continua a valere.
Teorema 57. Ogni successione a valori in un insieme chiuso e limitato A ammette una sottosuccessione convergente con limite in A. Viceversa, se ogni successione a valori in un insieme A ammette una sottosuccessione
convergente con limite in A, allora A è chiuso e limitato.
Dimostrazione. Dimostriamo la prima delle due affermazioni. Sia A chiuso e limitato, e sia {ak } una
successione contenuta in A: ak ∈ A. Come nel caso unidimensionale, si osservi che i valori assunti
dalla successione al variare di k non devono essere necessariamente tutti diversi, quindi l’insieme dei
valori assunti dalla successione non è necessariamente infinito.
Assumiamo dunque che {ak } assuma un insieme finito di valori in A. Allora almeno uno di questi
valori α ∈ A deve essere assunto per una infinità di valori dell’indice k, che posso ordinare in modo
crescente:
akn = α,
kn ր ∞,
e quindi abbiamo costruito banalmente una sottosuccessione convergente (addirittura costante!) che
ammette limite in A.
Assumiamo ora invece che {ak } assuma un insieme infinito di valori in A. Allora tale insieme
ammette almeno un punto di accumulazione α per il teorema di Bolzano-Weierstrass, essendo infinito
e limitato (perché contenuto in A, che è limitato per ipotesi). Essendo A chiuso, α ∈ A. Sia ora
εn = 1/n. Essendo α punto di accumulazione dell’insieme dei valori della successione, ∀n ∃ kn tale
che akn ∈ Bε (α), akn , α. Poiché in ciascuno degli intorni considerati di α per la proposizione 13 posso
scegliere kn grande a piacere, posso scegliere kn > kn−1 e quindi kn ր ∞. Abbiamo cosí costruito una
sottosuccessione {akn } che tende a α ∈ A poiché |akn − α| < εn → 0.
Dimostriamo ora la seconda affermazione contenuta nel teorema.
A deve essere limitato. Se A non è limitato allora contiene una successione (illimitata) che soddisfa
ad es. ||ak || > k, da cui non posso estrarre nessuna sottosuccessione limitata e dunque nessuna
sottosuccessione convergente.
Se A ha un numero finito di elementi allora è chiuso e non abbiamo altro da dimostrare. Assumiamo
pertanto che A ha un numero finito di elementi. Allora per il teorema di Bolzano-Weierstrass ammette
punti di accumulazione. Sia α un punto di accumulazione di A, e dimostriamo che α ∈ A. Utilizzando
la medesima tecnica di prima, sia εn = 1/n; quindi ogni palla aperta Bε (a) contiene un elemento an
di A diverso da α. Ma la successione cosí costruita converge ovviamente ad α, insieme a tutte le sue
sottosuccessioni, e quindi per ipotesi α ∈ A. Poiché dunque A contiene i suoi punti di accumulazione,
per il teorema 55 A è chiuso.
218
Alberto Berretti
Analisi Matematica I
5.2.3. Successioni fondamentali
Le definizioni ed i teoremi sulle successioni fondamentali si trasportano al caso di Rn senza particolari
difficoltà, ma bisognerebbe definire - cosa assolutamente banale - i limiti per successioni (e naturalmente anche funzioni) a valori in Rn , cosa che non è strettamente necessaria per completare il nostro
programma e che quindi viene posposta al corso di Analisi Matematica 2.
5.3. Funzioni continue
Definiamo la continuità di una funzione f di n variabili in un punto x0 del suo dominio:
f è continua in x0 se lim f (x) = f (x0 ).
x→x0
La condizione di continuità di f in x0 si può anche scrivere come:
∀ε > 0 ∃δ > 0 : ||x − x0 || < δ ⇒ | f (x) − f (x0 )| < ε.
Come nel caso dei limiti, è banale verificare che i principali teoremi sulle funzioni continue
continuano a valere, in particolare somme, prodotti e quozienti (quando il denominatore non
si annulla) di funzioni continue sono continue, e la composizione di funzioni continue dà
luogo a funzioni continue; vale altresí il teorema della permanenza del segno, mentre non
ha senso generalizzare a piú di una dimensione il teorema dell’esistenza degli zeri.
Osservazione 38. Se una funzione è continua in x0 allora il limite quando x → x0 è lo
stesso indipendentemente dal modo in cui x tende a x0 . In altri termini, se facciamo muovere
il punto x lungo una curva che lo conduce al punto x0 , otteniamo sempre lo stesso limite
indipendentemente dalla curva scelta. In formule, sia x = ϕ(t) la parametrizzazione di una
curva continua (cioè le funzioni ϕ1 , ϕ2 , . . . , ϕn sono tutte continue) tale che ϕ(0) = x0 ; allora:
lim f (ϕ(t)) = l
t→0
qualunque siano le ϕ(t) scelte. Questo segue immediatamente dal teorema sulla continuità
delle funzioni composte.
Esempio 79. Sia f (x, y) = x2 + y3 . Tale funzione è continua per ogni (x, y) ∈ R2 .
Esempio 80. Questo è un esempio importante. Sia:




se (x, y) = (0, 0),

0
f (x, y) = 
xy



 x2 + y2 se (x, y) , (0, 0).
219
Alberto Berretti
Analisi Matematica I
f è continua fuori dall’origine. Nell’origine, la funzione non è continua. Infatti, calcoliamone
il limite lungo le rette y = mx; abbiamo:
m
mx2
=
x→0 x2 + m2 x2
1 + m2
lim
che dipende da m, cioè dal cammino scelto per tendere all’origine. Si osservi che se consideriamo separatamente ciascuna variabile, cioè se prima prendiamo f come funzione di x considerando y come un parametro, e poi come funzione di y considerando x come parametro,
allora la funzione risulta separatamente in ciascuna delle due variabili; esplicitamente:
lim f (x, 0) = 0,
x→0
lim f (0, y) = 0,
y→0
per la semplice ragione che f (x, 0) = f (0, y) = 0 identicamente.
Quindi in generale
limx→x0 lim y→y0 . . . , lim(x,y)→(x0 ,y0 ) . . . in due (o piú) variabili. In un caso come questo
si dice che la f è separatamente continua in x e y nell’origine, ma non congiuntamente
continua. La nozione “vera” di continuità è quella “congiunta”.
Per capire, dunque, come dimostrare la continuità di una funzione di due o piú variabili,
ritorniamo alla sua definizione. Per essere concreti, consideriamo il caso di una funzione di
due variabili; abbiamo che f è continua in x0 se:
∀ε > 0 ∃δ > 0 tale che ∀x ∈ Bδ (x0 ) ⇒ | f (x) − f (x0 )| < ε.
Poniamo x = x0 + r, ||r|| = r, e:
(5.3)




r1 = r cos θ,



r2 = r sin θ,
cioè scriviamo il vettore r in coordinate polari (in tre dimensioni avremmo usato le coordinate sferiche, in piú di tre dimensioni avremmo usato l’opportuna generalizzazione delle
coordinate sferiche). Abbiamo allora:
∀ε > 0 ∃δ > 0 tale che ∀r : r < δ ⇒ | f (x0 + r) − f (x0 )| < ε.
(5.4)
Ponendo x0 = (x0,1 , x0,2 ) abbiamo f (x0 + r) = f (x0,1 + r cos θ, x0,2 + r sin θ), cioè una funzione
delle due variabili r e θ.
Apparentemente la (5.4) sembra voler dire che:
∀θ ∀ε > 0 ∃δ > 0 : r < δ ⇒ | f (x0 + r) − f (x0 )| < ε,
cioè:
∀θ
lim f (x0 + r) = f (x0 ).
r→0
220
(5.5)
Alberto Berretti
Analisi Matematica I
Ciò però non è vero, perché nella (5.5) δ può dipendere da θ, mentre nella (5.4) non dipende da
θ, come è evidente dalla (5.3): il quantificatore “∃δ” precede la condizione “ ∀x : ||x − x0 || < δ”
e quindi δ non dipende dalla posizione di x nella disco di centro x0 e raggio r, cioè da θ. In
altri termini, per avere la continuità in x0 il limite in r deve essere uniforme in θ. Il concetto
di uniformità del limite verrà studiato in profondità nel corso di Analisi Matematica 2.
In pratica, il metodo migliore per ottenere il limite uniforme consiste nel fare una stima di
| f (x) − f (x0 )| in termini di qualcosa che dipende solo da r e non da θ, e poi dimostrare che
tale quantità tende a 0 per r che tende a 0.
Nel caso dell’esempio 79 abbiamo ad es., per (x, y) → (0, 0):
| f (r cos θ, r sin θ)| = |r2 cos 2θ + r3 sin3 θ| = r2 | cos2 θ + r sin3 θ| ≤ 2r2 → 0
se r < 1.
Nel caso dell’esempio 80 abbiamo invece:
| f (r cos θ, r sin θ)| = cos θ sin θ
che ovviamente ha limite per r → 0 che dipende da θ!
Il seguente esempio chiarisce invece la questione dell’uniformità in θ.
Esempio 81. Sia (v. fig. 5.1):




1
f (x, y) = 


0
se x2 < y < 2x2 ,
altrimenti.
Ora, qualsiasi semiretta incidente nell’origine io scelga per tendere all’origine, lungo tale
semiretta il limite è sempre 0, e cioè, fissando θ:
lim f (r cos θ, r sin θ) = 0,
r→0
come si constata immediatamente sulla base di considerazioni geometriche; infatti facendo
riferimento alla figura 5.1, se si tende all’origine con π ≤ θ ≤ 2π, cioè dal semipiano inferiore,
allora f è sempre 0 quindi il limite è 0; se si tende all’origine con 0 < θ < π, cioè dal semipiano
superiore, allora se r è sufficientemente piccolo siamo sempre all’interno della parabola piú
stretta in cui f vale 0; ovviamente piú θ è vicino a 0 o a π, piú dovremo prendere piccolo r
per entrare nella parabola piú stretta in cui f vale 0, e pertando il limite non è “uniforme”
in θ. Che la funzione non sia continua nell’origine dovrebbe essere evidente, in ogni caso
basta fermarsi un attimo a considerare che in ogni disco aperto r < δ esistono punti compresi
tra le due parabole in cui f vale 1 e punti esterni a tale regione in cui f vale 0.
221
Alberto Berretti
Analisi Matematica I
1 .0
1
0
1
0 .5
- 1 .0
- 0 .5
0 .5
1 .0
0
- 0 .5
- 1 .0
Figura 5.1.: Definizione della funzione dell’es. 81.
5.4. Nozioni elementari di calcolo differenziale
Introduciamo ora il calcolo differenziale in Rn . Qui le differenze con il caso unidimensionale
inizieranno a diventare significative, e comunque uno studio completo del calcolo differenziale in Rn , incluso lo studio delle derivate di ordine superiore, degli estremi locali e globali,
liberi e vincolati, e l’equivalente dello ”studio di funzione” in Rn richiede troppo tempo e
pertanto è rimandato al corso di Analisi Matematica 2.
5.4.1. Definizione di derivata parziale e nozione di differenziabilità
Definiamo ora i concetti di derivabilità e di differenziabilità per le funzioni di piú variabili,
concetti che risulteranno essere due cose diverse, al contrario che nel caso delle funzioni di una
variabile.
Definiamo le derivate parziali di una funzione f (x) come segue:
∂f
f (x1 , . . . , xk + h, . . . , xn ) − f (x1 , . . . , xk , . . . , xn )
= Dxk f = lim
;
∂xk
h
h→0
222
(5.6)
Alberto Berretti
Analisi Matematica I
in altri termini, variamo xk e consideriamo tutte le altre variabili come parametri, mantenendole costanti. Essendo le altre variabili dei semplici parametri, le usuali regole e proprietà
elementari delle derivate si applicano al calcolo delle derivate parziali.
Una funzione di n variabili ha dunque n derivate parziali, che insieme formano un vettore
detto gradiente della funzione f :
!
∂f
∂f
grad f = ∇ f =
,...,
.
∂x1
∂xn
Il simbolo ∇ si legge nabla; in genere noi useremo la notazione con il simbolo grad. Il nome
“nabla” sembra derivare da un antico strumento a corda della tradizione ebraica europea, di forma
simile ad un’arpa, a cui il simbolo somiglierebbe.
Ora, mentre nel caso di funzioni di una variabile la derivabilità è un concetto importante,
implica la continuità e tante altre proprietà interessanti di una funzione, in piú di una variabile
il concetto di derivabilità vuol dire molto poco. Una funzione derivabile non è nemmeno
detto che sia continua, come chiarisce l’esempio seguente.
Esempio 82. Sia f (x, y) la funzione dell’esempio 80. Possiamo verificare immediatamente
che f è derivabile nell’origine, anche se non è continua:
lim
h→0
f (h, 0) − f (0, 0)
0−0
= lim
= 0,
h
h
h→0
e:
f (0, h) − f (0, 0)
0−0
= lim
= 0,
h
h
h→0
h→0
perché f (h, 0) = f (0, h) = f (0, 0) = 0.
lim
Questo fatto non deve sorprendere. La derivabilità di una funzione di due o piú variabili
ci dice solo qualcosa sul comportamento della funzione quando una variabile cambia ma le altre
restano costanti, cioè quando il punto in cui è calcolata la funzione si muove lungo direzioni
parallele agli assi coordinati. Non ci dice assolutamente nulla su come varia la funzione quando il
punto in cui è calcolata si muove lungo le altre direzioni.
Il concetto importante è quello di differenziabilità. Una funzione di n si dice differenziabile in x0 quando:
∃v ∈ Rn tale che per x → x0 f (x) = f (x0 ) + v · (x − x0 ) + o(||x − x0 ||).
(5.7)
In pratica, una funzione di n variabili è definita come differenziabile se per essa vale la
formula di Taylor al primo ordine.
È evidente che la differenziabilità implica la continuità e la derivabilità. Infatti si vede
subito dalla (5.7) che se x → x0 allora f (x) → f (x0 ). Per quanto riguarda la derivabilità, sia ek
223
Alberto Berretti
Analisi Matematica I
il versore dell’asse x̂k (e quindi il vettore che ha tutte componenti nulle meno la componente
k-esima pari a 1); abbiamo quindi:
∂ f f (x0 + hek ) − f (x0 )
= v · ek = vk ,
= lim
∂xk x=x0 x→x0
h
per cui:
il vettore v nella (5.7) = grad f (x0 ),
e possiamo pertanto scrivere che, se f è differenziabile, allora è anche derivabile e:
per x → x0 f (x) = f (x0 ) + grad f (x0 ) · (x − x0 ) + o(||x − x0 ||).
(5.8)
Ma in generale una funzione semplicemente derivabile non sarà differenziabile, perché potrebbe essere addirittura discontinua. Nel paragrafo seguente dimostreremo un teorema che
ci dirà sotto quali condizioni una funzione derivabile è anche differenziabile.
Esercizio 43. Determinare la continuità, la derivabilità e la differenziabilità nell’origine della
seguente funzione:
q
f (x, y) =
4
x2 y2 (1 + xy).
5.4.2. Il Teorema della Derivata Totale e le sue conseguenze
Vogliamo ora dimostrare, innanzitutto, un teorema non solo importante in concreto, ma
anche come strumento per la dimostrazione di altri importanti teoremi.
Data una funzione di n variabili f (x) = f (x1 , . . . , xn ) e date n funzioni di una variabile
ϕ(t) = (ϕ1 (t), . . . , ϕn (t)) possiamo ottenere una funzione di una variabile componendole nel
modo seguente:
F(t) = f (ϕ(t)) = f (ϕ1 (t), . . . , ϕn (t)).
(5.9)
Ad es. nel caso di due variabili date f (x, y) e ϕ(t), ψ(t) potremmo scrivere:
F(t) = f (ϕ(t), ψ(t)),
(5.10)
con le ovvie condizioni sul dominio di f ed i codomini di ϕ e ψ. Vogliamo scrivere la derivata
di F(t) in termini delle derivate parziali di f e delle derivate delle ϕk , generalizzando la regola
della catena.
Noi enunceremo il teorema nella sua forma generale, ma lo dimostreremo nel caso n = 2:
dalla dimostrazione sarà evidente come modificare la dimostrazione in modo che valga in
un numero arbitrario di dimensioni. Inoltre, dimostreremo tale teorema con delle ipotesi leggermente superiori allo stretto necessario, allo scopo di semplificare l’enunciato del
teorema.
224
Alberto Berretti
Analisi Matematica I
Teorema 58 (della Derivata Totale). Sia f una funzione di n variabili definita in D ⊂ Rn aperto e
ϕ1 , . . . , ϕn n funzioni di una variabile definite nell’intervallo I, e siano i loro codomini R1 , . . . , Rn
tali che R1 × . . . × Rn ⊂ D, in modo tale da poter definire in I F(t) = f (ϕ1 (t), . . . , ϕn (t)). Siano le ϕk
derivabili in I e la f derivabile in D con derivate continue. Allora F è derivabile e la sua derivata vale:
′
F (t) =
n
X
∂f
k=1
∂k
(ϕ1 (t), . . . , ϕn (t)) ϕ′k (t) = grad f (ϕ(t)) · ϕ′ (t).
(5.11)
In due variabili abbiamo la funzione f (x, y) definita in D e le funzioni ϕ(t), ψ(t) definite in
I, tali che al variare di t in I il punto (ϕ(t), ψ(t)) ∈ D in modo da poterle comporre con la f :
F(t) = f (ϕ(t), ψ(t)).
(5.12)
In tal caso, se la f è derivabile con derivate parziali continue e le ϕ, ψ sono derivabili, allora
anche la F è derivabile e la sua derivata vale:
F′ (t) =
∂f
∂f
(ϕ(t), ψ(t)) ϕ′ (t) +
(ϕ(t), ψ(t)) ψ′ (t).
∂x
∂y
(5.13)
Dimostriamo ora la (5.13). La dimostrazione della (5.11) è identica, solo piú complessa
nella gestione degli indici.
Dimostrazione. Procediamo in analogia con la dimostrazione del teorema 35. Sia t0 ∈ I,
x0 = ϕ(t0 ), y0 = ψ(t0 ), (x0 , y0 ) ∈ D. Poniamo:

f (x, y) − f (x0 , y)





x − x0
Φ(x, y) = 

∂
f


 (x0 , y)
∂x
e:

f (x0 , y) − f (x0 , y0 )






y − y0
Ψ(y) = 

∂
f



 ∂y (x0 , y0 )
se x , x0
se x = x0 ,
se y , y0
se y = y0 .
La funzione Ψ è ovviamente continua: infatti è definita in y0 esattamente in modo da renderla
tale. Per quanto riguarda la Φ, consideriamola come funzione della x trattando y come un
parametro. Allora applicando il teorema di Lagrange abbiamo che esiste un ξ compreso fra
x0 e x tale che:
f (x, y) − f (x0 , y) ∂ f
=
(ξ, y);
x − x0
∂x
Ma se il punto (x, y) tende a (x0 , y) anche (ξ, y) tende a (x0 , y), e per la continuità della derivata
parziale rispetto a x
f (x,y)− f (x0 ,y)
x−x0
tende a
∂f
(x ,
∂x 0
y); anche la Φ è dunque continua.
Calcoliamo ora il rapporto incrementale di F tra t e t0 :
225
Alberto Berretti
Analisi Matematica I
f (ϕ(t), ψ(t)) − f (x0 , y0 )
f (ϕ(t), ψ(t)) − f (x0 , ψ(t))
f (x0 , ψ(t)) − f (x0 , y0 )
F(t) − F(t0 )
=
=
+
=
t − t0
t − t0
t − t0
t − t0
ψ(t) − ψ(t0 )
ϕ(t) − ϕ(t0 )
= Φ(ϕ(t), ψ(t))
+ Ψ(ψ(t))
. (5.14)
t − t0
t − t0
Basta ora fare il limite per t → t0 per ottenere la tesi. La continuità delle derivate parziali è
stata necessaria perché la derivata parziale che definisce la Φ quando x = x0 è calcolata in y,
non in y0 , e dobbiamo assumere che tenda alla derivata parziale in y0 quando y tende a y0 .
Si noti che abbiamo “separato” le derivate parziali di f sommando e sottraendo un termine nella
(5.14). Con n variabili, avremmo dovuto sommare e sottrarre n − 1 termini complicando la dimostra-
zione nella forma ma non nella sostanza. In una variabile, non dobbiamo sommare e sottrarre nulla,
non c’è il problema che una derivata è calcolata in un punto leggermente spostato e non è quindi
necessaria la continuità della derivata della funzione esterna nella composizione. Si noti anche che
la continuità delle derivate parziali è richiesta in (x0 , y0 ), e che in effetti è richiesta solo la continuità
di una derivata parziale, quella rispetto a x nella nostra dimostrazione; in n variabili sarebbe in effetti
necessaria solo la continuità di n − 1 derivate parziali.
Il teorema della derivata totale assume una forma particolarmente suggestiva quanto
imprecisa nella (5.15) seguente, in cui viene spesso scritto nei testi di Fisica. In Fisica in genere
il nome di una funzione rappresenta una qualche quantità, e lo stesso nome viene usato per
la medesima quantità indipendentemente dalle variabili da cui viene fatta dipendere. Ciò è
fonte di numerosi problemi di notazione ad es. in Termodinamica. Se ad es. è data f (x, ψ(x))
(cioè il caso ϕ(x) = x), un fisico scriverebbe tranquillamente:
f (x) = f (x, ψ(x))
usando il medesimo simbolo per la f come funzione della sola x e come funzione della x e
della y = ψ(x), perché esse rappresentano la medesima quantità fisica. Derivando, abbiamo
la necessità di distinguere fra la derivata della f come funzione della sola x (la “derivata
totale”) e la f come funzione della x e della y (le “derivate parziali”):
df
∂ f ∂ f dψ
=
+
.
dx
∂x ∂y dx
(5.15)
Questa è l’origine storica dei nomi “derivata parziale”, “derivata totale”, e del simbolo della
derivata parziale.
Ora abbiamo in mano lo strumento che ci permetterà in modo semplice di dimostrare la
generalizzazione del teorema di Lagrange alle funzioni di n variabili.
Teorema 59 (Lagrange). Sia f una funzione di n variabili definita in D aperto, derivabile con
derivate continue in x0 ∈ D. Sia B un intorno di x0 : B = {x : ||x − x0 || < r}, con r > 0. Allora se
226
Alberto Berretti
Analisi Matematica I
x ∈ B abbiamo:
f (x) = f (x0 ) + grad f (ξ) · (x − x0 ),
(5.16)
dove ciascun ξk è compreso fra x0,k e xk , k = 1, . . . , n.
Ad es. in due variabili la (5.16) assume la forma:
f (x, y) = f (x0 , y0 ) +
∂f
∂f
(ξ, η)(x − x0 ) +
(ξ, η)(y − y0 ),
∂x
∂y
dove ξ è compreso fra x0 e x e η è compreso fra y0 e y.
Dimostrazione. Poniamo:
F(t) = f (x0 + t(x − x0 )),
e poniamo:
ϕ(t) = x0 + t(x − x0 ).
Osserviamo che:
F(0) = f (x0 ),
F(1) = f (x).
Applichiamo ora il teorema di Lagrange per funzioni di una variabile alla F:
✘
F(1) = F(0) + F′ (τ)✘
(1✘
−✘
0).
Quindi usando il teorema della derivata totale per scrivere la derivata di F (è immediato
ricavare che F′ (t) = grad f (ϕ(t)) · (x − x0 )) otteniamo:
f (x) = f (x0 ) + grad f (ϕ(τ)) · (x − x0 ),
che ponendo ξ = ϕ(τ) è la tesi.
Dimostriamo infine il seguente teorema.
Teorema 60. Sia f una funzione di n variabili definita in D aperto. Se f è derivabile in D con derivate
parziali continue, allora f è differenziabile.
Dimostrazione. La dimostrazione è una semplice applicazione del teorema di Lagrange. Se
x → x0 abbiamo:
f (x) = f (x0 ) + grad f (ξ) · (x − x0 ),
dove naturalmente ξ → x0 . Ma la continuità delle derivate parziali di f ci dice che grad f (ξ) →
grad f (x0 ), cioè:
grad f (ξ) = grad f (x0 ) + o(1).
Quindi:
f (x) = f (x0 ) + grad f (x0 ) · (x − x0 ) + o(||x − x0 ||),
che è la tesi.
227
Alberto Berretti
Analisi Matematica I
Sia infine f una funzione differenziabile in D. Definiamo derivata direzionale di f nella
direzione del versore k̂ il seguente limite:
df
dk̂
= lim
h→0
f (x + hk̂) − f (x)
.
h
(5.17)
Si tratta sostanzialmente della “derivata parziale nella direzione di k̂”. Infatti si verifica
immediatamente che, se êk è il versore dell’asse xk , allora la derivata parziale rispetto a xk è
appunto la derivata direzionale nella direzione di êk . Dalla definizione di differenziabilità di
f si ricava facilmente che:
df
= grad f · k̂.
dk̂
Il concetto di derivata direzionale viene talora utilizzato in Fisica.
5.4.3. Il teorema della funzione implicita in due dimensioni
Il teorema della funzione implicita permette di definire funzioni come soluzioni di equazioni.
Pertanto è di importanza fondamentale nell’analisi matematica, ed ha diverse versioni in
diversi contesti. Nel contesto delle funzioni differenziabili di n variabili è già anche troppo
complesso per essere qui trattato, ma è possibile una formulazione semplice di tale teorema
in due variabili, che ha fortunatamente una dimostrazione assai semplice, che purtroppo
non si applica al caso generale in n dimensioni.
Teorema 61 (della funzione implicita o del Dini, caso bidimensionale). Sia f una funzione
derivabile con derivate parziali continue definita nell’aperto D ⊂ R2 , e sia (x0 , y0 ) ∈ D tale che
∂f
f (x0 , y0 ) = 0; sia inoltre
(x0 , y0 ) , 0. Allora esiste un intorno I = (x0 − δ, x0 + δ) di x0 ed una
∂y
funzione ϕ di x definita in I tale che:
∀x ∈ I : f (x, ϕ(x)) = 0.
Inoltre ϕ è derivabile in x0 e la sua derivata vale:
∂f
(x0 , y0 )
ϕ′ (x0 ) = − ∂x
.
∂f
(x0 , y0 )
∂x
Questo teorema permette di passare dalla formulazione implicita di una relazione funzionale alla sua formulazione esplicita:
f (x, y) = 0 ⇒ y = ϕ(x),
dando le opportune ipotesi sotto le quali ciò è possibile e ricavando che la ϕ ha sostanzialmente le stesse proprietà “analitiche” (in questo caso, differenziabilità) della f . Varî tipi di
228
Alberto Berretti
Analisi Matematica I
teorema della funzione implicita si possono differenziare anche sulla base della categoria
di funzioni in cui lavoriamo: nel nostro caso, f e ϕ sono funzioni derivabili con derivate
continue; teoremi piú complessi possono ottenere condizioni piú strette sulla ϕ a partire dalle
medesime condizioni sulla f .
(x0 − m, y0 + l)
(x0 + m, y0 + l)
(x0 , y0 + l)
(x, y)
(x0 , y0 )
(x0 , y0 − l)
(x0 − m, y0 − l)
(x0 + m, y0 − l)
Figura 5.2.: Il teorema della funzione implicita in due dimensioni.
∂f
(x0 , y0 ) > 0. Per il teorema della per∂y
manenza del segno esiste un intorno di (x0 , y0 ), ad es. B = {(x − x0 )2 + (y − y0 )2 < r2 }, in cui
∂f
(x, y) > 0. Allora, essendo f (x, y) una funzione crescente di y ad x fissato, ∃l > 0 tale che
∂y
f (x0 , y0 + l) > 0 e f (x0 , y0 − l) < 0, rimanendo sempre all’interno di B. Consideriamo ora
Dimostrazione. Sia f (x0 , y0 ) = 0, e assumiamo che
f (x, y) come funzione di x a y fissato; per il teorema della permanenza del segno, ∃m > 0 tale
che lungo tutto il segmento y = y0 + l, x0 − m ≤ x ≤ x0 + m la f resta positiva, e lungo tutto
il segmento y = y0 − l, x0 − m ≤ x ≤ x0 + m la f resta negativa, sempre restando all’interno
di B. Consideriamo ora il rettangolo di vertici (x0 − m, y0 + l), (x0 + m, y0 + l), (x0 − m, y0 − l),
(x0 + m, y0 − l); per le considerazioni appena fatte lungo il lato superiore f è positiva e lungo
il lato inferiore f è negativa. Fissiamo ora x tale che x0 − m ≤ x ≤ x0 + m, e consideriamo
f come funzione di y con y0 − l < y < y0 + l: per il teorema di esistenza degli zeri ∃y in
229
Alberto Berretti
Analisi Matematica I
tale intervallo tale che f (x, y) = 0; per la monotonia di f come funzione di y, tale y è unico:
poniamo dunque y = ϕ(x).
Abbiamo dunque definito una funzione ϕ(x) definita in un intorno di x0 tale che f (x, ϕ(x)) =
0, come richiesto. Resta da dimostrare che ϕ(x) è continua e derivabile e calcolarne la derivata.
Ma questo segue immediatamente dal teorema di Lagrange; infatti abbiamo:
0 = f (x, ϕ(x)) − f (x0 , ϕ(x0 )) =
∂f
∂f
(ξ, η)(x − x0 ) +
(ξ, η)(ϕ(x) − ϕ(x0 )).
∂x
∂y
(5.18)
Ora, quando x tende a x0 anche ξ tende a x0 , ma non sappiamo se anche η tende a y0 : infatti
non abbiamo ancora dimostrato che ϕ è continua e quindi non sappiamo se ϕ(x) tende a ϕ(x0 ),
e siccome tutto quello che sappiamo di η è che è compreso fra ϕ(x) e ϕ(x0 ) non possiamo
∂f
concludere nulla. Ma dalla (5.18), tenendo conto che in tutto B vale
, 0, abbiamo che per
∂y
x → x0 deve essere ϕ(x) → ϕ(x0 ), e cio è la continuità della ϕ. Quindi anche η → y0 , e cioè
(ξ, η) → (x0 , y0 ) quando x → x0 . Sempre dalla (5.18) segue dunque:
∂f
∂f
(ξ,
η)
(x0 , y0 )
ϕ(x) − ϕ(x0 )
∂x
∂x
=−
→−
x − x0
∂f
∂f
(ξ, η)
(x0 , y0 )
∂y
∂y
quando x → x0 .
Ovviamente se avessimo avuto
modifiche. Ugualmente se è
∂f
< 0 in (x0 , y0 ) la dimostrazione vale ancora, con le ovvie
∂y
∂f
ad essere , 0.
∂x
5.4.4. Derivabilità e differenziabilità di ordine superiore
Come abbiamo definito le derivate di ordine superiore nel caso di funzioni di una variabile,
cosí possiamo definire le derivate parziali di ordine superiore: infatti se le derivate parziali
di una funzione di n variabili sono a loro volta funzioni di n variabili, possiamo pensare di
continuare a derivarle a loro volta. Se abbiamo però n derivate parziali del primo ordine,
abbiamo n2 derivate parziali del secondo ordine, n3 derivate parziali del terzo ordine, e cosí
via. Si pone ovviamente il problema dell’ordine in cui faccio le derivate parziali in un punto
dato: se derivo prima rispetto alla variabile xk e poi rispetto alla variabile xh o viceversa,
ottengo o no il medesimo risultato? Vale dunque l’importante teorema seguente.
Teorema 62 (Schwarz). Sia f derivabile n volte nel punto x0 , con derivate parziali n-esime continue
in x0 . Allora ciascuna derivata parziale n-esima non dipende dall’ordine in cui vengono fatte le
derivate.
230
Alberto Berretti
Analisi Matematica I
Dimostrazione. Basta dimostrare che:
∂n f
∂n f
=
,
∂xh ∂xk ∂xi1 ∂xi2 . . . ∂xin−2
∂xk ∂xh ∂xi1 ∂xi2 . . . ∂xin−2
(5.19)
cioè basta dimostrare il teorema nel caso di un singolo scambio dell’ordine di due variabili.
Inoltre basta dimostrare il teorema nel caso delle derivate seconde di una funzione di due
variabili, perché, facendo riferimento alla (5.19), possiamo applicare il teorema di Schwarz
in tale caso alla funzione:
∂n−2 f
∂xi1 ∂xi2 . . . ∂xin−2
considerata come funzione delle sole xh , xk , le altre variabili essendo trattate come parametri.
Consideriamo dunque f (x, y) : D 7→ R, D ⊂ R2 aperto che contiene (x0 , y0 ) (ad es. D =
{(x − x0 )2 + (y − y0 )2 < η per qualche η > 0), e supponiamo che le derivate parziali seconde di
f esistano in D e siano continue in (x0 , y0 ). Siano dunque δ > 0, ε > 0 tali che (x0 − δ, x0 + δ) ×
(y0 − ε, y0 + ε) ⊂ D, e poniamo:
ϕ : (−δ, δ) 7→ R, ϕ(t) = f (x0 + t, y0 + s) − f (x0 + t, y0 ),
ψ : (−ε, ε) 7→ R, ψ(s) = f (x0 + t, y0 + s) − f (x0 , y0 + s),
dove nella prima trattiamo s come un parametro ∈ (−ε, ε) e nella seconda trattiamo t come
un parametro ∈ (−δ, δ). È evidente che ∀t, s:
ϕ(t) − ϕ(0) = ψ(s) − ψ(0)
(basta sostituire nella definizione per rendersene conto). Ma facendo uso del teorema di
Lagrange due volte abbiamo:
!
∂f
∂f
∂2 f
ϕ(t) − ϕ(0) = tϕ (τ1 ) = t
(x + 0 + τ1 , y0 + s) −
(x0 + τ1 , y0 ) = ts
(x0 + τ1 , y0 + σ1 ),
∂x
∂x
∂y∂x
′
dove τ1 è compreso fra 0 e t e σ1 è compreso fra 0 e s. Analogamente facendo di nuovo uso
del teorema di Lagrange due volte ma stavolta lavorando su ψ abbiamo:
!
∂f
∂f
∂2 f
′
ψ(s) − ϕ(0) = sψ (σ2 ) = s
(x + 0 + t, y0 + σ2 ) −
(x0 , y0 + σ2 ) = st
(x0 + τ2 , y0 + σ2 ),
∂y
∂y
∂x∂y
dove τ2 è compreso fra 0 e t e σ2 è compreso fra 0 e s. Quindi:
∂2 f
∂2 f
(x0 + τ1 , y0 + σ1 ) =
(x0 + τ2 , y0 + σ2 ),
∂y∂x
∂x∂y
e facendo tendere t e s a 0 otteniamo per la continuità delle derivate parziali seconde che:
∂2 f
∂2 f
(x0 , y0 ) =
(x0 , y0 ),
∂y∂x
∂x∂y
cioè la tesi.
231
Alberto Berretti
Analisi Matematica I
Diremo che una funzione è due volte differenziabile in x0 se esiste un vettore v ed una
matrice H = {hi, j }ni, j=1 (detta matrice hessiana) tali che per x → x0 :
f (x) = f (x0 ) +
n
X
i=1
vk (xi − x0,i ) +
n
1X
hi, j (xi − x0,i )(x j − x0, j ) + o(||x − x0 ||2 ).
2
(5.20)
i, j=1
Si potrebbe verificare facilmente che, come v = grad f (x0 ) è il vettore delle derivate parziali
di f , la matrice H ha per elementi di matrice le derivate parziali seconde di f , per cui grazie
al teorema di Schwarz possiamo dire che è una matrice simmetrica.
In generale diremo che f è m volte differenziabile in x0 se per x → x0 :
n
1 X ∂f
f (x) = f (x0 ) +
(x0 )(xi − x0,i ) + . . . +
2
∂xi
i=1
n
∂k f
1 X
+
(x0 )(xi1 − x0,i1 ) . . . (xik − x0,ik ) + . . . +
k!
∂xi1 . . . ∂xik
i1 ,...,ik =1
n
X
1
m!
i1 ,...,im =1
∂m f
(x0 )(xi1 − x0,i1 ) . . . (xim − x0,im ) + o(||x − x0 ||m ). (5.21)
∂xi1 . . . ∂xim
Ciò è piú complicato da scriversi che da capire.
Questi concetti saranno notevolmente approfonditi nel corso di Analisi Matematica 2.
232
6. Integrali
Il concetto di integrale ha una storia molto antica che risale a ben prima del concetto di
derivata. Infatti l’integrale risolve problemi piú semplici ed immediati come calcolare la
lunghezza di una curva o l’area di una regione del piano. Le idee che stanno dietro al
concetto di integrale dunque risalgono ad un’epoca molto lontana, e precisamente al metodo
di esaustione di Eudosso (circa 370 a. C.) e ad Archimede. Un metodo analogo fu introdotto
dal matematico cinese Liu Hui nel III sec. a. C.
L’idea moderna di integrale è dovuta indipendentemente a I. Newton e a G. Leibniz nel
XVII sec.; ma solo nel XIX sec., grazie all’opera di B. Riemann, è stata data la prima definizione
matematicamente rigorosa (in senso moderno) dell’integrale.
Noi utilizzeremo appunto la nozione di integrale secondo Riemann. In epoca successiva
(a cavallo fra il XIX ed il XX sec.) è stata introdotta, ad opera del matematico francese H.
Lebesgue, una nozione di integrale distinta, che coincide nella maggioranza dei casi con
l’integrale di Riemann ma ne differisce in alcuni casi (nel senso che esistono funzioni che
non sono integrabili con la definizione di Riemann ma lo sono con quella di Lebesgue;
quando sono entrambi definiti, coincidono). La principale ragione per cui i matematici
moderni utilizzano in genere la definizione di Lebesgue non è tanto quella di permettere
l’integrazione di alcune funzioni non altrimenti integrabili secondo Riemann, quanto quella
di semplificare drasticamente alcuni teoremi, la cui dimostrazione sarebbe altrimenti assai
difficile utilizzando la definizione di Riemann. La teoria dell’integrazione di Lebesgue però
è piú complessa di quella di Riemann e si presta ad una esposizione molto astratta, pertanto
nei corsi standard di Analisi Matematica 1 si utilizza in genere la definizione di Riemann,
piú che sufficiente per gli usi elementari, lasciando ai corsi di Analisi Matematica Superiore
la definizione di Lebesgue.
6.1. La definizione dell’integrale di Riemann
La definizione di integrale di Riemann è significativamente piú complessa della definizione
di derivata. Intuitivamente, potremmo pensare di definire l’integrale nel modo seguente.
Data una funzione f (x) definita per x ∈ [a, b] potremmo calcolare:
n
b−aX
f (xi ),
n
dove xi = a + i
k=1
233
b−a
,
n
Alberto Berretti
Analisi Matematica I
e poi prendere il limite per n → ∞. In altri termini, potremmo mettere nell’intervallo [a, b] una
griglia di n − 1 punti uniformemente distribuiti, calcolare la somma dei valori della funzione in
tali punti e moltiplicare per la lunghezza dell’intervallino fra un punto e l’altro della griglia;
successivamente si prenderebbe il limite per n → ∞, migliorando dunque l’approssimazione
nel limite. Una procedura come questa però, che in teoria potrebbe anche sembrare una definizione
corretta, porta a notevoli difficoltà nel momento in cui si tenta di dimostrare qualche proprietà dell’integrale cosí definito. Infatti, non ha senso prendere una griglia di punti uniformemente
distribuita: quando ad es. volessimo dimostrare l’additività dell’integrale, e cioè che l’integrale in un intervallo piú l’integrale in un altro intervallo adiacente è pari all’integrale
nell’unione dei due intervalli, avremmo dei problemi perché le griglie nei due intervalli piú
piccoli sarebbero “incompatibili” tra di loro e con la griglia che dovremmo mettere nell’intervallo piú grande. Dobbiamo quindi trovare un modo per definire l’integrale usando griglie
formate da punti qualsiasi e non equispaziati, e quindi siamo costretti a rinunciare all’utilizzo
del limite per definire l’integrale.
6.1.1. Somme superiori ed inferiori e loro proprietà
Cominciamo ad introdurre i concetti di base. Consideriamo un intervallo I = [a, b] limitato ed
una funzione f limitata in tale intervallo. Una suddivisione D dell’intervallo I è un insieme
finito di punti {xk , k = 0, . . . , n} contenuti in I che soddisfano la condizione:
a = x0 < x1 < . . . < xn = b.
(6.1)
La suddivisione D cosí definita contiene dunque n + 1 elementi e divide l’intervallo I in n
intervallini adiacenti la cui unione è l’intervallo I intero.
L’insieme di tutte le suddivisioni di un intervallo I possiede una relazione d’ordine parziale
naturale, che è l’inclusione. In particolare, diremo che la suddivisione D1 è piú fine della
suddivisione D2 se D2 ⊂ D1 , cioè se D1 contiene dei punti in piú rispetto a D1 . Gli
intervallini “ritagliati” in I da D1 sono dunque ottenuti dividendo alcuni di quelli “ritagliati”
da D2 .
Osservazione 39. Esiste una suddivisione meno fine di tutte, quella formata dai soli estremi
dell’intervallo I: D0 = {a, b}. Viceversa, non esiste una suddivisione piú fine di tutte, perché
possiamo sempre aggiungere altri punti ad una suddivisione data.
Osservazione 40. È anche evidente che si tratta di un’ordinamento parziale e quindi esistono suddivisioni non confrontabili; ad es. due suddivisioni potrebbero avere in comune
addirittura solo gli estremi a e b.
234
Alberto Berretti
Analisi Matematica I
Osservazione 41. Però, date due suddivisioni qualsiasi D1 e D2 è sempre possibile trovare
una sudddivisione D3 confrontabile con entrambe; basta ad es. prendere D3 = D1 ∪ D2 .
Definiamo inoltre:
|D| = max (xk − xk−1 ),
k=1,...,n
(6.2)
e cioè la lunghezza dell’intervallino piú lungo tra quelli definiti dai punti che costituiscono
la suddivisione.
Se f è limitata in I, è ovviamente limitata in ciascuno degli intervallini [xi−1 , xi ] definiti da
una data suddivisione D; quindi esistono in [xk−1 , xk ] gli estremi superiore ed inferiore di f :
mk = inf
[xk−1 ,xk ]
f,
Mk = sup f,
k = 1 . . . , n.
(6.3)
[xk−1 ,xk ]
Definiamo dunque per la funzione f nella suddivisione D la somma inferiore:
s(D, f ) =
n
X
k=1
e la somma superiore:
S(D, f ) =
n
X
k=1
mk (xk − xk−1 ),
(6.4)
Mk (xk − xk−1 ).
(6.5)
Figura 6.1.: Significato geometrico delle somme superiori ed inferiori.
Se f ≥ 0, allora il suo grafico giace interamente sopra l’asse x e s(D, f ), S(D, f ) hanno
un significato geometrico molto semplice. In ciascun intervallo [xk−1 , xk ] sostituiamo ad f
il suo estremo inferiore mk o il suo estremo superiore Mk rispettivamente, e consideriamo
i rettangoli di base xk − xk−1 ed altezza rispettivamente mk , Mk . La somma delle aree dei
235
Alberto Berretti
Analisi Matematica I
rettangoli piú piccoli, di altezza mk , è allora la somma inferiore e la somma delle aree dei
rettangoli piú grandi, di altezza Mk , è allora la somma superiore.
È evidente che la somma inferiore per una suddivisione data è inferiore alla somma
superiore per la medesima suddivisione:
s(D, f ) ≤ S(D, f ).
(6.6)
Le somme superiori ed inferiori godono anche delle seguenti proprietà.
Proposizione 25. Sia D1 ⊂ D2 (D2 piú fine di D1 ). Allora:
1. s(D2 , f ) ≥ s(D1 , f ),
2. S(D2 , f ) ≤ S(D1 , f ).
Prendendo cioè suddivisioni piú fini le somme inferiori crescono e le somme superiori
calano.
Dimostrazione. Possiamo dimostrare la 25 nel caso in cui D2 è formata da un solo punto ξ in
piú rispetto a D1 : D2 = D1 ∪ {ξ}; se ci sono anche altri punti in piú, ripetiamo il ragionamento
per ogni punto. Ricordiamoci inoltre che l’intervallo J1 è contenuto nell’intervallo J2 allora
inf J1 f ≥ inf J2 f e supJ1 f ≤ supJ2 f , cioè l’estremo inferiore cresce e l’estremo superiore cala
se riduco l’intervallo in cui sono presi. Sia dunque D1 = {a, x1 , . . . , xn−1 , b} e sia ξ tale che
x j−1 < ξ < x j , per un certo j. Abbiamo allora:
s(D1 , f ) =
j−1
X
k=1
e:
s(D2 , f ) =
j−1
X
k=1
mk (xk − xk−1 ) + m j (x j − x j−1 ) +
n
X
k=j+1
mk (xk − xk−1 )
mk (xk − xk−1 ) + m′j(ξ − x j−1 ) + m′′j (x j − ξ) +
n
X
k=j+1
mk (xk − xk−1 ),
dove m′j = inf[x j−1 ,ξ] f e m′′j = inf[ξ,x j ] f , da cui:
s(D2 , f ) − s(D1 , f ) = m′j (ξ − x j−1 ) + m′′j (x j − ξ) − m j (x j − x j−1 ) ≥
≥ m j (ξ − x j−1 ) + m j (x j − ξ) − m j (x j − x j−1 ) = 0.
La dimostrazione per le somme superiori è identica, basta invertire il segno della disuguaglianza.
Proposizione 26. Ogni somma inferiore è minore o uguale a qualsiasi somma superiore:
∀D1 ∀D2 : s(D1 , f ) ≤ S(D2 , f ).
236
(6.7)
Alberto Berretti
Analisi Matematica I
Dimostrazione. La dimostrazione è elementare. D1 , D2 potrebbero anche non essere confron-
tabili fra di loro, ma sicuramente entrambe sono confrontabili con D3 = D1 ∪ D2 e D3 è per
costruzione piú fine di D1 e D2 . Quindi per la proposizione 25 abbiamo:
s(D1 , f ) ≤ s(D3 , f ) ≤ S(D3 , f ) ≤ S(D2 , f ).
6.1.2. Definizione dell’integrale di Riemann
Una conseguenza, banale ma importante, della proposizione 26 è che l’insieme dei valori
delle somme inferiori è limitato superiormente (ad es. dal valore di una qualsiasi somma
superiore), e l’insieme dei valori delle somme superiori è limitato inferiormente (ad es. dal
valore di una qualsiasi somma inferiore). Quindi esistono rispettivamente l’estremo superiore e
l’estremo inferiore:
∃ s( f ) = sup s(D, f ),
S( f ) = inf S(D, f ),
D
D
dove gli estremi superiori sono presi al variare di D tra tutte le possibili suddivisioni
dell’intervallo I. Chiaramente s( f ) ≤ S( f ), e ∀ε∃D1 , D2 : S( f, D1 ) < S( f ) + ε, s( f, D2 ) >
s( f ) − ε.
Diremo allora che la funzione f , definita e limitata nell’intervallo I = [a, b], è integrabile
secondo Riemann o brevemente integrabile se s( f ) = S( f ), cioè se:
sup s(D, f ) = inf S(D, f ).
D
D
Tale valore si chiama integrale secondo Riemann o brevemente integrale di f tra a e b talora integrale definito per ragioni che saranno chiare fra poco -, e si scrive come:
Z
b
dx f (x).
a
Osservazione 42. La posizione del dx è totalmente irrilevante, può essere scritto indifferentemente prima o dopo la funzione, basta che sia scritto dopo il segno di integrale.
Osservazione 43. Scrivere ad es.:
Z
a
x
dx f (x) ← sbagliato!
è sbagliato in quanto se x è un estremo di integrazione non può contemporaneamente variare
tra a ed x (che sarebbe se stesso!).
237
Alberto Berretti
Analisi Matematica I
Osservazione 44. Scrivere invece:
Z b
Z
b
dx f (x) oppure
a
dy f (y)
a
o qualsiasi altra lettera per la variabile d’integrazione è assolutamente irrilevante e oggetto di scelta solo sulla base dell’estetica, esattamente come l’indice di sommatoria in una
sommatoria può essere qualsiasi.
La funzione f viene detta integrando, e l’intervallo [a, b] intervallo di integrazione.
Il significato geometrico dell’integrale dovrebbe essere chiaro. Se f ≥ 0 in [a, b], allora ogni
somma inferiore rappresenta una minorazione dell’area compresa tra l’asse x ed il grafico di
f , ed ogni somma superiore ne rappresenta una maggiorazione. Quindi l’integrale di una
funzione positiva è proprio l’area racchiusa tra l’asse x ed il grafico di f . È chiaro che questo è un
discorso intuitivo: non avendo modo di definire l’area di una regione delimitata da curve in
modo rigoroso prima di introdurre il concetto di integrale, non possiamo dire che l’integrale è
un’area, se a quest’ultimo concetto non è stato dato senso. Pertanto utilizzando il concetto di
integrale possiamo definire l’area delimitata dall’asse x ed il grafico di una funzione positiva
come integrale.
Esempio 83. Sia f (x) = c (costante) in [a, b]. Allora un calcolo elementare dimostra che:
∀D : s(D, f ) = S(D, f ) = c(b − a),
pertanto:
Z
a
Esempio 84. Sia:
b
c dx = c(b − a)




1
f (x) = 


0
se x ∈ Q,
altrimenti,
cioè la funzione che vale 1 sui razionali e 0 sugli irrazionali (la funzione di Dirichlet). f è
ovviamente limitata ma non è integrabile secondo Riemann. Infatti in ogni intervallo esistono
sia razionali che irrazionali, per cui s(D, f ) = 0 e S(D, f ) = b − a per ogni suddivisione D
di [a, b]. Quindi m j = 0 e M j = 1 per ogni j, cosicché ogni somma inferiore vale 0 ed ogni
somma superiore vale b − a.
6.2. Funzioni integrabili
Questa definizione di integrabilità non servirebbe a nulla se non avessimo da una parte
dei semplici criteri di integrabilità e dall’altra un’ampia classe di funzioni importanti che
risultano integrabili.
238
Alberto Berretti
Analisi Matematica I
6.2.1. Un criterio di integrabilità
La seguente proposizione ci fornisce uno strumento che verrà utilizzato per dimostrare l’integrabilità di due classi importanti di funzioni, le funzioni continue e le funzioni
monotone.
Proposizione 27. Una funzione f definita e limitata nell’intervallo [a, b] è integrabile secondo
Riemann se e solo se vale la seguente condizione:
∀ε ∃Dε tale che S(Dε , f ) − s(Dε , f ) < ε.
(6.8)
Dimostrazione. La dimostrazione è elementare. Dimostriamo prima che se f è integrabile
allora vale la (6.8). Infatti, se non valesse, allora negandola otterremmo:
∃ε ∀D : S(D, f ) − s(D, f ) ≥ ε,
e quindi:
inf(S(D, f ) − s(D, f )) ≥ inf S(D, f ) − sup s(D, f ) ≥ ε,
D
D
il che contraddice l’integrabilità.
D
Se invece la f non è integrabile, allora infD S(D, f ) − supD s(D, f ) = η > 0 e quindi ∀D1 , D2
S(D1 , f ) − s(D2 , f ) ≥ η > 0, che contraddice la (6.8).
6.2.2. Integrabilità delle funzioni continue
A questo punto è elementare dimostrare l’integrabilità delle funzioni continue, il che ci
fornirà una classe estremamente ampia di funzioni integrabili.
Teorema 63. Sia f continua in [a, b]. Allora f è integrabile in [a, b].
Dimostrazione. La dimostrazione è davvero elementare. Innanzitutto per il teorema di Weierstrass f è limitata per cui la questione dell’integrabilità può porsi. Inoltre per il teorema di
Heine-Cantor, essendo continua in un intervallo chiuso e limitato, essa è uniformemente
continua:
∀ε ∃δ : |x′ − x′′ | < δ ⇒ | f (x′ ) − f (x′′ )| <
ε
b−a
(aver diviso ε per b−a ovviamente è perfettamente ammissibile per l’“arbitrarietà di ε”, come
discusso quando abbiamo definito il limite).
Per ogni ε > 0 esiste dunque una suddivisione Dε cosí fine che ∀j x j − x j−1 < δ. Allora:
S(Dε , f ) − s(Dε , f ) =
n
X
(M j − m j )(x j − x j−1 ) = (A).
j=1
239
Alberto Berretti
Analisi Matematica I
Ora, per il teorema di Weierstrass M j , m j sono il massimo ed il minimo di f in [x j−1 , x j ],
e quindi esistono in [x j−1 , x j ] due punti x′ , x′′ tali che M j = f (x′ ), m j = f (x′′ ); ovviamente
|x′ − x′′ | ≤ x j − x j−1 < δ e quindi per il teorema di Heine-Cantor M j − m j < ε/(b − a). Allora:
n
ε X
ε
✘
(A) <
(x j − x j−1 ) = ✘
(b✘
−✘
a) = ε,
✘
✘
b−a
b −✘
a
j=1
che implica l’integrabilità per la proposizione 6.2.1.
In realtà è sufficiente richiedere che la f abbia nell’intervallo [a, b] al massimo una quantità
numerabile di punti di discontinuità. Dopo aver dimostrato l’additività dell’integrale, dimostreremo una versione leggermente piú debole dell’enunciato, assumendo che la f abbia
in [a, b] al massimo un numero finito di discontinuità.
6.2.3. Integrabilità delle funzioni monotone
Anche le funzioni monotone sono integrabili. Si osservi innanzitutto che se f è monotona
in [a, b] allora è limitata: ad es. se f è crescente ∀x ∈ [a, b] f (a) ≤ f (x) ≤ f (b) (viceversa se è
decrescente).
Teorema 64. Sia f monotona nell’intervallo [a, b]. Allora f è integrabile in [a, b].
Dimostrazione. Noi dimostriamo il teorema per una funzione crescente. La dimostrazione si
adatta banalmente al caso di funzioni decrescenti.
Se f (a) = f (b) allora f è costante, e quindi integrabile (ed abbiamo calcolato l’integrale
nell’esempio 83). Se f (a) , f (b) allora ∀ε > 0 ∃Dε :
|Dε | <
ε
.
f (b) − f (a)
Inoltre, per la monotonia abbiamo Mk = f (xk e mk = f (xk−1 ). Quindi:
S(Dε , f ) − s(Dε , f ) =
n
X
k=1
n
(Mk − mk )(xk − xk−1 ) ≤
X
ε
( f (xk ) − f (xk−1 )) = ε
f (b) − f (a)
k=1
|
{z
}
f (b)− f (a)
da cui l’integrabilità per la prop. 27.
6.3. Proprietà dell’integrale di Riemann
Studiamo ora le principali proprietà degli integrali di Riemann, e ricaviamo gli strumenti
fondamentali per il loro calcolo.
240
Alberto Berretti
Analisi Matematica I
6.3.1. Linearità ed additività
L’integrale di Riemann è lineare e additivo, come il teorema seguente dimostra insieme ad
altre proprietà utili.
Teorema 65. Sia a < b < c e siano f , g integrabili in [a, b], [b, c], α, β ∈ R. Allora abbiamo:
Z b
Z b
1. α f è integrabile e
α f (x)dx = α
f (x)dx;
a
a
Z
Z
b
( f (x) + g(x))dx =
2. f + g è integrabile e
Z
b
a
g(x)dy;
a
Z
a
Z
b
Z
b
(α f (x) + βg(x))dx = α
3. α f + βg è integrabile e
b
f (x)dx +
a
f (x)dx + β
a
Z
4. se in [a, b] f (x) ≤ g(x) allora
a
Z
b
f (x)dx ≤
b
g(x)dx;
a
b
g(x)dx;
a
Z b
Z b
| f (x)|dx;
f (x)dx ≤
5. | f | è integrabile e a
a
Z b
f (x)dx ≤ (b − a) sup | f (x)|;
6. a
[a,b]
Z
Z
c
f (x)dx.
b
a
a
c
f (x)dx +
f (x)dx =
7. f è integrabile in [a, c] e
Z
b
Dimostrazione. Ricordiamo le seguenti proprietà degli estremi superiore ed inferiore:
sup( f + g) ≤ sup f + sup g,
I
I
I
inf( f + g) ≥ inf f + inf g,
I
se α > 0 :
I
I
sup(α f ) = α sup f,
I
se α < 0 :
I
sup(α f ) = α inf f,
I
I
se α > 0 :
inf(α f ) = α inf f,
se α < 0 :
inf(α f ) = α sup f.
I
I
I
I
Per quanto riguarda il caso 1, abbiamo che se α > 0:
S(D, α f ) = αS(D, f ),
s(D, α f ) = αs(D, f ),
da cui segue immediatamente la tesi. Se invece α < 0:
S(D, α f ) = αs(D, f ),
s(D, α f ) = αS(D, f ),
241
Alberto Berretti
Analisi Matematica I
e:
inf S(D, α f ) = inf(αs(D, f )) = α sup s(D, f ),
sup s(D, α f ) = sup(αS(D, f )) = α inf S(D, f )
da cui di nuovo la tesi. Se α = 0 è ovvio.
Per quanto riguarda il caso 2, iniziamo dimostrando che se f e g sono integrabili allora
anche f + g è integrabile. Abbiamo infatti:
S(D, f + g) =
n
X
k=1
n
n
X
X
(xk − xk−1 ) sup ( f + g) ≤
(xk − xk−1 ) sup f +
(xk − xk−1 ) sup g =
[xk−1 ,xk ]
k=1
[xk−1 ,xk ]
k=1
[xk−1 ,xk ]
= S(D, f ) + S(D, g), (6.9)
e analogamente:
n
n
X
X
(xk − xk−1 ) inf
(xk − xk−1 ) inf ( f + g) ≥
s(D, f + g) =
k=1
[xk−1 ,xk ]
[xk−1 ,xk ]
k=1
n
X
(xk − xk−1 ) inf g =
f+
k=1
[xk−1 ,xk ]
= s(D, f ) + s(D, g), (6.10)
da cui:
S(D, f + g) − s(D, f + g) ≤ S(D, f ) − s(D, f ) + S(D, g) − s(D, g).
(6.11)
Ora, siccome f e g sono integrabili, ∀ε > 0 ∃D1 , D2 tali che:
S(D1 , f ) − s(D1 , f ) <
ε
,
2
S(D2 , g) − s(D2 , g) <
ε
,
2
e ponendo D = D1 ∪ D2 abbiamo:
S(D, f + g) − s(D, f + g) ≤
ε ε
+ = ε,
2 2
da cui l’integrabilità di f + g. Dobbiamo ora dimostrare non solo che f + g è integrabile, ma
anche che l’integrale di f + g è la somma degli integrali di f e g.
Per definizione di estremo inferiore, abbiamo che ∀ε > 0 ∃D1 , D2 tali che:
ε
S(D1 , f ) < S( f ) + ,
2
ε
S(D2 , g) < S(g) + .
2
Ponendo D = D1 ∪ D2 abbiamo dunque:
ε
S(D, f ) ≤ S(D1 , f ) < S( f ) + ,
2
ε
S(D, g) ≤ S(D2 , g) < S(g) + ,
2
e quindi:
S( f + g) ≤ S(D, f + g) ≤ S(D, f ) + S(D, g) < S( f ) + S(g) + ε,
242
Alberto Berretti
Analisi Matematica I
da cui per l’arbitrarietà di ε:
S( f + g) ≤ S( f ) + S(g).
Analogamente, abbiamo che ∀ε > 0 ∃D1 , D2 tali che:
ε
s(D1 , f ) > s( f ) − ,
2
ε
s(D2 , g) > s(g) − .
2
Ponendo D = D1 ∪ D2 abbiamo dunque:
ε
s(D, f ) ≥ s(D1 , f ) > s( f ) − ,
2
ε
s(D, g) ≥ s(D2 , g) > s(g) − ,
2
e quindi:
s( f + g) ≥ s(D, f + g) ≥ s(D, f ) + S(D, g) > s( f ) + s(g) − ε,
da cui per l’arbitrarietà di ε:
s( f + g) ≥ s( f ) + s(g).
Abbiamo quindi:
S( f + g) ≤ S( f ) + S(g) = s( f ) + s(g) ≤ s( f + g),
cioè S( f + g) ≤ s( f + g). Poiché abbiamo già dimostrato che S( f + g) = s( f + g), tutti i ≤ sono
in effetti dei segni di uguaglianza e la tesi è dimostrata.
Il caso 3 segue immediatamente dai casi 1 e 2.
Z
Per quanto riguarda il caso 4, consideriamo che se f ≥ 0 allora
a
b
f (x)dx ≥ 0; infatti tutti
gli mk , Mk nelle definizioni delle somme inferiori e superiori sono ≥ 0 e quindi anche le
somme inferiori e superiori sono ≥ 0, e quindi anche l’integrale. Il caso 4 segue allora dal
caso 3 considerando la funzione f − g.
Per quanto riguarda il caso 5, dimostriamo intanto che f+ = max( f, 0) e f− = − min( f, 0)
sono integrabili. Sia S un intervallo qualsiasi in cui f è definita; allora abbiamo che se in S
f ≤ 0 allora supS f+ − infS f+ = 0 ≤ supS f − infS f perché in tal caso in S f+ = 0; se invece in S
f ≥ 0 allora in S f+ = f e quindi supS f+ − infS f+ = supS f − infS f ; se invece in S la f è a volte
> 0 e a volte < 0, abbiamo che supS f+ = supS f e infS f+ = 0 > infS f , pertanto in questo caso
supS f+ − infS f+ < supS f − infS f . Pertanto in ogni possibile caso vale sempre:
sup f+ − inf f+ ≤ sup f − inf f.
S
S
S
S
Applicando questa disuguaglianza alla definizione delle somme superiori ed inferiori di f+
ed f otteniamo immediatamente che:
S(D, f+ ) − s(D, f+ ) ≤ S(D, f ) − s(D, f ).
243
Alberto Berretti
Analisi Matematica I
Ma f è integrabile per cui ∀ε > 0 ∃D tale che:
S(D, f+ ) − s(D, f+ ) ≤ S(D, f ) − s(D, f ) < ε,
per cui anche la f+ è integrabile.
Il caso della f− è analogo. Se infatti in S f ≥ 0 allora supS f− − infS f− = 0 ≤ supS f − infS f
perché in tal caso in S f− = 0; se invece in S f ≤ 0 allora in S f− = − f e quindi supS f− −infS f− =
− infS f + supS f ; se invece in S la f è a volte > 0 e a volte < 0, abbiamo che supS f− = − infS f
e infS f− = 0 > − supS f , pertanto in questo caso supS f− − infS f− < − infS f + supS f . Pertanto
in ogni possibile caso vale sempre:
sup f− − inf f− ≤ sup f − inf f.
S
S
S
S
Applicando questa disuguaglianza alla definizione delle somme superiori ed inferiori di f−
ed f otteniamo immediatamente che:
S(D, f− ) − s(D, f− ) ≤ S(D, f ) − s(D, f ).
Ma f è integrabile per cui ∀ε > 0 ∃D tale che:
S(D, f− ) − s(D, f− ) ≤ S(D, f ) − s(D, f ) < ε,
per cui anche la f− è integrabile.
Ne segue che per la linearità dell’integrale dimostrata ai punti precedenti anche | f | = f+ + f−
è integrabile, e ricordando che f = f+ − f− abbiamo:
Z b
Z b
Z b
Z b
Z b
f− (x)dx =
f+ (x)dx + f+ (x)dx −
f− (x)dx ≤ f (x)dx = a
a
a
a
a
Z b
Z b
Z
=
f+ (x)dx +
f− (x)dx =
a
a
a
b
| f (x)|dx,
dove abbiamo usato il fatto che f+ ed f− sono positive e quindi i loro integrali sono positivi
e possiamo dunque omettere i valori assoluti.
Il caso 6 segue banalmente dai punti 4 e 5 tenendo conto che in [a, b] | f (x)| ≤ sup[a,b] | f (x)|.
Per quanto riguarda il caso 7, essendo f integrabile sia in [a, b] che in [b, c], ∀ε > 0 esistono
una suddivisione D′ε di [a, b] ed una suddivisione D′′
ε di [b, c] tali che:
ε
S(D′ε , f ) − s(D′ε , f ) < ,
2
ε
′′
′′
S(Dε , f ) − s(Dε , f ) < .
2
244
Alberto Berretti
Analisi Matematica I
Definiamo allora la suddivisione di [a, c]: Dε = D′ε ∪ D′′
ε . Si verifica immediatamente che
′′
′
S(Dε , f ) = S(D′ε , f ) + S(D′′
ε , f ), s(Dε , f ) = s(Dε , f ) + s(Dε , f ) e quindi:
S(Dε , f ) − s(Dε , f ) < ε,
quindi f è integrabile in [a, c]. Inoltre abbiamo:
Z
Z
c
f (x)dx −
a
Z
b
f (x)dx −
a
c
b
f (x)dx ≤ S(Dε , f ) − s(D′ε , f ) − s(D′′
ε , f) =
✭✭
✭✭✭
′ ✭
, f✭
)✭
− s(D
, f ) − s(D′′
= S(Dε , f ) − s(Dε , f ) + s(Dε✭
✭✭ε✭
ε , f ) < ε,
✭✭
e:
Z
Z
c
a
f (x)dx −
a
Z
b
f (x)dx −
c
b
f (x)dx ≥ s(Dε , f ) − S(D′ε , f ) − S(D′′
ε , f) =
✭
✭
✭✭✭✭
′ ✭
′′
✭✭
= s(Dε , f ) − S(Dε , f ) + S(Dε , ✭
f )✭
−✭
S(D
ε , f ) − S(Dε , f ) > −ε,
✭✭✭
da cui:
Z c
Z b
Z c
f (x)dx −
f (x)dx −
f (x)dx < ε,
a
a
b
e quindi per l’arbitrarietà di ε la tesi.
Le conseguenze di questo semplice ma importante teorema sono molteplici. La proprietà
espressa al punto 3 viene detta linearità dell’integrale. Quella espressa al punto 7 viene
detta additività.
L’additività può essere generalizzata in modo tale che la formula la punto 7 del teorema 65
sia valida indipendentemente dall’ordine in cui sono i punti a, b e c. Definiamo infatti l’integrale
definito anche se b < a nel modo seguente:
Z
b<a:
e poniamo:
Z
b
a
f (x)dx = −
Z
a
a
f (x)dx,
(6.12)
b
f (x)dx = 0.
(6.13)
a
Con queste definizioni è immediato, ancorché leggermente noioso, verificare quanto affermato.
Siano I = [a, b] e J = [c, d] due intervalli che hanno al piú un estremo in comune. Scriviamo:
Z
Z
f (x)dx =
I
Z
Z
b
J
a
245
d
f (x)dx =
f (x)dx,
f (x)dx.
c
Alberto Berretti
Analisi Matematica I
È suggestivo definire I + J come l’unione dei due intervalli I e J. In tal caso, se i due intervalli sono
adiacenti (b = c) abbiamo dimostrato che:
Z
Z
Z
f (x)dx.
f (x)dx +
f (x)dx =
(6.14)
J
I
I+J
Se i due intervalli non sono adiacenti, I + J non è un intervallo e quindi a priori l’integrale non è
definito. È tuttavia suggestivo usare la (6.14) per definire l’integrale esteso all’unione di due intervalli
anche quando questi non sono adiacenti. Possiamo inoltre pensare che l’intervallo I sia pensato come
orientato dal suo estremo inferiore verso il suo estremo inferiore, e denotare l’intervallo orientato in
senso opposto (dal suo estremo superiore al suo estremo inferiore) con −I. In questo caso abbiamo
allora:
Z
Z
−I
f (x)dx = −
f (x)dx.
I
Questo modo di pensare sarà utile nel corso di Analisi Matematica 2 quando generalizzeremo in varî
modi il concetto di integrale a funzioni di piú variabili.
È facile ora dimostrare che una funzione che ha al piú un numero finito di discontinuità in
un intervallo [a, b] è in esso integrabile.
Teorema 66. Sia f una funzione limitata in [a, b] e con al piú un numero finito di discontinuità in
tale intervallo. Allora f è integrabile in [a, b].
Dimostrazione. Siano ck , k = 1, N, i punti di discontinuità della funzione nell’intervallo
considerato. Allora utilizzando l’additività dell’integrale possiamo sempre scrivere:
Z b
Z cj
Z c1
Z b
dx f (x) + . . . +
dx f (x),
dx f (x) + . . . +
dx f (x) =
a
c j−1
a
cN
e quindi ricondurci a casi in cui i punti di discontinuità siano agli estremi dell’intervallo di
integrazione. Dividendo poi ulteriormente, se necessario, l’intervallo di integrazione in due
in un punto in cui la funzione è continua ci possiamo ricondurre al caso in cui la discontinuità
sta in un solo estremo dell’intervallo di integrazione. In quanto segue supponiamo dunque
di voler dimostrare l’integrabilità di f in [a, b] quando la funzione è continua in [a, b); la
dimostrazione nel caso di continuità in (a, b] è analoga.
Per ipotesi f è limitata, quindi ∃K tale che | f (x)| < K in [a, b]. Allora ∀ε > 0 sia x̄ ∈ [a, b] tale
ε
che b − x̄ <
. f è continua in [a, x̄] e quindi integrabile, pertanto ∃D′ε , una suddivisione di
4K
[a, x̄], tale che:
ε
S(D′ε , f ) − s(D′ε , f ) < .
2
′
Consideriamo allora Dε = Dε ∪ {b}, che è una suddivisione di [a, b]. Poniamo M̄ = sup f (x),
[x̄,b]
m̄ = inf f (x). Abbiamo:
[x̄,b]
S(Dε , f ) − s(Dε , f ) = S(D′ε , f ) − s(D′ε , f ) + (M̄ − m̄)(b − x̄) <
da cui l’integrabilità per la proposizione 6.2.1.
246
ε
ε
+ 2K
= ε,
2
4K
Alberto Berretti
Analisi Matematica I
6.3.2. Il teorema fondamentale del calcolo e le sue conseguenze
Dimostriamo ora alcuni teoremi fondamentali che costituiscono il legame tra il calcolo differenziale ed il calcolo integrale e che ci permetteranno, tra le altre cose, di “costruire” la nostra
tabella di integrali “fondamentali” a partire dei quali possiamo calcolarne altri con metodi
piú complessi.
Iniziamo con il teorema della media integrale.
Teorema 67 (della media). Sia f integrabile in [a, b] e siano m = inf f , M = sup f . Allora:
[a,b]
1
m≤
b−a
Z
[a,b]
b
a
f (x)dx ≤ M.
(6.15)
Dimostrazione. La dimostrazione è ovvia. Infatti chiamando D0 la suddivisione meno fine di
tutte {a, b}, abbiamo:
Z
m(b − a) = s(D0 , f ) ≤
b
f (x)dx ≤ S(D0 , f ) = M(b − a).
a
Se f è anche continua in [a, b], allora m = min f , M = max f , e vale il seguente corollario.
[a,b]
[a,b]
Corollario 8. Sia f continua in [a, b] allora ∃c ∈ [a, b] tale che:
1
b−a
Z
b
f (x)dx = f (c).
a
Dimostrazione. Essendo m e M il minimo ed il massimo di f in [a, b] esistono dei punti in
[a, b] in cui la f assume tali valori. Pertanto essendo continua essa assume in qualche punto
dell’intervallo tutti i valori compresi tra m e M.
Z b
1
La quantità
f (x)dx viene detta media integrale o semplicemente media della
b−a a
funzione f nell’intervallo [a, b].
Ora siamo pronti a dimostrare uno dei principali teoremi di questo capitolo.
Teorema 68. Sia f integrabile in [a, b], sia c ∈ [a, b] e sia:
Z x
F(x) =
dξ f (ξ),
c
definita per x ∈ [a, b]. Se f è continua in x0 ∈ [a, b] allora F è derivabile in x0 e vale:
F′ (x0 ) = f (x0 ).
247
Alberto Berretti
Analisi Matematica I
Dimostrazione. Scriviamo il rapporto incrementale della F:
Rc
Rx
Rx
Rx
R x0
dξ
f
(ξ)
+
dξ f (ξ)
dξ
f
(ξ)
dξ
f
(ξ)
dξ
f
(ξ)
−
F(x) − F(x0 )
x
x
c
c
= c
= 0
= 0
,
x − x0
x − x0
x − x0
x − x0
dove è stato fatto uso sostanziale dell’additività dell’integrale. Essendo f continua in x0 , ∀ε
∃δ tale che in (x0 − δ, x0 + δ) (intervallo che possiamo assumere contenuto in [a, b], semmai
possiamo sempre prendere δ piú piccolo del necessario):
f (x0 ) − ε < f (x) < f (x0 ) + ε.
Ma f (x0 ) ± ε sono costanti, pertanto:
Rx
Rx
Rx
dξ(
f
(x
)
−
ε)
dξ
f
(ξ)
dξ( f (x0 ) + ε)
0
x
x
x
f (x0 ) − ε = 0
< 0
< 0
= f (x0 ) + ε.
x − x0
x − x0
x − x0
Abbiamo cioè dimostrato che ∀ε ∃δ tale che se |x − x0 | < δ allora:
R
x dξ f (ξ)
x0
F(x) − F(x0 )
− f (x0 ) = − f (x0 ) < ε,
x − x0
x − x0
e cioè la tesi.
Corollario 9 (Teorema fondamentale del calcolo). Sia f continua in [a, b], c ∈ [a, b]. Allora:
Z x
F(x) =
dξ f (ξ)
c
è derivabile con derivata continua (cioè è di classe C1 ) in [a, b], e:
F′ (x) = f (x).
Inoltre se G è una funzione definita in [a, b] tale che G′ (x) = f (x), allora:
Z b
dx f (x) = G(b) − G(a).
(6.16)
a
Una funzione G che soddisfa le ipotesi del corollario 9 viene detta funzione primitiva o
semplicemente primitiva di f .
Lemma 6. Siano F, G derivabili in [a, b], tali che in [a, b] F′ (x) = G′ (x). Allora G(x) = F(x) + (cost.).
Dimostrazione. Sia g(x) = G(x) − F(x). Allora in [a, b] g′ (x) = 0. Basta dimostrare che g è
costante in [a, b]. Siano x1 , x2 ∈ [a, b]; applicando il teorema di Lagrange abbiamo:
g(x1 ) − g(x2 ) = g′ (ξ)(x1 − x2 ) = 0
e quindi g è costante.
248
Alberto Berretti
Analisi Matematica I
Dimostrazione. La prima parte del corollario discende automaticamente dal teorema 68 e
dalla continuità della f in tutto [a, b]. La seconda parte segue dal lemma; infatti:
G(x) = F(x) + k,
e quindi:
Z
Z
b
dx f (x) =
a
c
Z
b
dx f (x) −
c
a
dx f (x) = F(b) − F(a) = G(b) − k − G(a) + k = G(b) − G(a).
Sia f integrabile nell’intervallo [a, b]. Allora indichiamo con:
Z
f (x)dx,
(6.17)
senza indicare gli estremi di integrazione, una qualsiasi primitiva della funzione f . La scrittura
(6.17) viene detta integrale indefinito della funzione f e non indica una funzione, ma un insieme
di funzioni che differiscono a meno di una costante arbitraria detta costante di integrazione, in
quanto sono tutte funzioni che hanno la medesima derivata. Quando si indica il valore di un
integrale indefinito, va sempre indicata la costante arbitraria di integrazione.
In generale, quando dobbiamo calcolare l’integrale definito di una funzione, calcoleremo
una sua primitiva, ovvero l’integrale indefinito, e poi faremo uso del teorema fondamentale
del calcolo 9.
Osservazione 45. In realtà andando a fondo nell’argomento potremmo scoprire che in generale è piú difficile calcolare gli integrali indefiniti che gli integrali definiti. Questo perché
esistono delle tecniche che permettono di calcolare specifici integrali definiti di certe funzioni in intervalli speciali, anche in mancanza di un metodo che consenta di determinare la
primitiva. Queste tecniche richiedono conoscenze superiori di analisi e non sono oggetto del
nostro corso.
Grazie al teorema fondamentale del calcolo, leggendo la tabella delle derivate del capitolo
precedente al contrario abbiamo una tabella di integrali noti sostanzialmente gratis, senza
dover passare attraverso il calcolo – che sarebbe estremamente laborioso – di somme integrali
e loro estremi.
249
Alberto Berretti
Analisi Matematica I
R
f (x)
xα+1
f (x)dx
xα , α , −1
α+1
1
x
log |x| + (cost.)
ex
ex + (cost.)
+ (cost.)
sin x
cos x + (cost.)
cos x
− sin x + (cost.)
sinh x
cosh x + (cost.)
cosh x
sinh x + (cost.)
1
, 1 + tan2 x
cos2 x
1
, 1 + cot2 x
2
sin x
1
√
1 − x2
1
1 + x2
1
√
1 + x2
1
√
x2 − 1
tan x + (cost.)
− cot x + (cost.)
arcsin x + (cost.), − arccos x + (cost.)
arctan x
sectsinh x + (cost.), log(x +
√
sectcosh x + (cost.), log(x +
√
1 + x2 ) + (cost.)
x2 − 1) + (cost.)
Osservazione 46. La derivata di log x è 1/x, ma un calcolo banale mostra che anche la derivata
di log(−x) è 1/x, da cui il valore assoluto nella primitiva di 1/x.
√
Osservazione 47. Il fatto che possiamo scrivere la primitiva di 1/ 1 − x2 sia come arcsin x
che come − arccos x vuol dire semplicemente che l’arcoseno e l’arcocoseno, laddove sono
entrambe definite, differiscono per una costante. In effetti è banale verificare che arcsin x +
arccos x = π/2.
Purtroppo c’è una differenza notevole tra come vengono calcolate le derivate e come
vengono calcolati gli integrali. Infatti, mentre per le derivate esistono formule per calcolare
esplicitamente la derivata non solo di una combinazione lineare di funzioni, ma anche il
prodotto di funzioni e la composizione di funzioni, nel caso degli integrali abbiamo solo
la linearità dell’integrale e in generale non abbiamo alcun metodo per calcolare l’integrale del
prodotto di due funzioni o l’integrale della composta di due funzioni, anche quando sappiamo calcolare
250
Alberto Berretti
Analisi Matematica I
gli integrali dei fattori o dei componendi. Questo rende il calcolo degli integrali qualcosa di meno
meccanico e piú complesso del calcolo delle derivate.
Esempio 85. I seguenti integrali:
Z
Z
sin x
−x2
e dx,
dx,
x
Z
dx
r
1−
sin2 x
2
Z
,
dx
p
P(x)
dove nell’ultimo integrale P è un polinomio di grado maggiore o uguale a 3 sono esempi di
integrali indefiniti di funzioni che sono perfettamente integrabili, ma che non possono essere
scritti in termini di funzioni elementari. Gli integrali degli esempi scelti sono integrali che
provengono da applicazioni concrete.
Osservazione 48. Questo fatto non deve stupire né deve generare sconforto. Ad es. noi
possiamo definire:
Z
Q(x) =
x
0
2
dξe−ξ .
Il fatto che non sappiamo scrivere Q(x) in termini di funzioni già note vuol dire solamente
che abbiamo definito una nuova funzione attraverso l’integrale.
Osservazione 49. In effetti, abbiamo già detto all’inizio del corso che la definizione delle
funzioni trigonometriche non era matematicamente accettabile, perché non avevamo una
definizione precisa di angolo che ci permettesse di dire chi è x quando scriviamo sin x (non
avendo ancora una definizione di lunghezza di una curva e avendo appena ricavato una
definizione di area di una regione piana tramite l’integrale definito). Una possibile via di
uscita consiste appunto nel definire:
Z
arcsin x =
x
0
dξ
,
p
1 − ξ2
ricavare da questa le proprietà dell’arcoseno e a partire dall’arcoseno definire tutte le altre
funzioni trigonometriche. Noi prenderemo in considerazione questa via piú avanti, anche
se nel corso di Analisi Matematica 2 preferiremo prendere un’altra strada.
6.3.3. Integrazione per sostituzione
Abbiamo bisogno di altre regole oltre alla linearità per calcolare esplicitamente integrali.
Possiamo sfruttare il teorema fondamentale del calcolo e “leggere al contrario” le regole di
derivazione per ricavare alcune regole utili. Iniziamo con l’integrazie per sostituzione,
ottenuta dalla regola della catena.
251
Alberto Berretti
Analisi Matematica I
Sia f continua in [a, b] e g di classe C1 in [c, d]; sia inoltre g : [c, d] 7→ [a, b] suriettiva.
Esistono allora α, β ∈ [c, d] tali che g(α) = a, g(β) = b. Sia inoltre F una primitiva di f , cioè
F′ = f , in [a, b]. Allora:
d
F(g(x)) = F′ (g(x))g′ (x) = f (g(x))g′ (x),
dx
∀x ∈ [c, d] :
il che vuol dire che F(g(x)) è una primitiva di f (g(x))g′ (x). Quindi:
Z b
Z β
dt f (t) = F(b) − F(a) = F(g(α)) − F(g(β)) =
dx f (g(x))g′ (x).
α
a
Questa formula può essere scritta nel modo seguente per gli integrali definiti:
Z g(β)
Z β
dt f (t) =
dt f (g(x))g′ (x),
(6.18)
α
g(α)
e nel modo seguente per gli integrali indefiniti:
Z
Z
dt f (t) =
dx f (g(x))g′ (x).
(6.19)
In quest’ultimo caso occorre ricordare che, se è richiesto di calcolare un integrale di una
funzione di x ( f (g(x))g′ (x) nella fattispecie) dobbiamo sostituire nel risultato F(t) t = g(x) per
ottenere una funzione di x, primitiva di quella indicata.
Osservazione 50. Questa regola è facile da ricordare se dopo aver posto t = g(x) uno immagina
che la seguente scrittura abbia senso:
dt = g′ (x)dx,
dg(x)
, ricordando che t = g(x).
dx
Sottolineiamo che ciò non ha sostanzialmente senso, e che è solo una metodologia mnemonica.
che sembrerebbe (se avesse senso) seguire da g′ (x) =
Esempio 86. Facciamo prima un esempio banale. Supponiamo di conoscere la primitiva F(x)
1
di f (x). Allora la primitiva di f (αx) è F(αx). Infatti basta porre s = αx, s′ = α e quindi:
α
Z
Z
Z
1
1
1
1
dx f (αx) =
dxα f (αx) =
ds f (s) = F(s) = F(αx).
α
α
α
α
Z
Esempio 87. Calcoliamo
dx cos3 x. Abbiamo:
Z
Z
3
dx cos x =
Z
2
dx cos x cos x =
dx(1 − sin2 x)(sin x)′ ;
ponendo sin x = t abbiamo:
Z
1
dt(1 − t2 ) = t − t3 + (cost.).
3
252
Alberto Berretti
Analisi Matematica I
Ora bisogna ricordarci che ci è stato richiesto di calcolare l’integrale di una funzione di x, non
di t, quindi occorre scrivere il risultato di nuovo in termini di x ponendo t = sin x e quindi:
Z
1
dx cos3 x = sin x − sin3 x + (cost.).
3
Esempio 88. Calcoliamo l’integrale della tangente:
Z
Z
Z
sin x
1
dx tan x =
dx
=
dx
sin x;
cos x
cos x
se poniamo dunque t = cos x, t′ = − sin x abbiamo:
Z
Z
1
dx tan x = − dt = − log |t| + (cost.) = − log | cos x| + (cost.).
t
Osservazione 51. Facendo finta di prendere sul serio la notazione a cui si allude all’osservazione 50, possiamo facilmente ricordarci come si integra per sostituzioni scrivendo ad
esempio (facendo riferimento all’esempio precedente):
t = cos x e quindi dt = − sin xdx,
per cui:
dx sin x = −dt,
per cui:
Z
Z
dx tan x =
1
=−
dx sin x
cos x
Z
1
dt = etc.
t
Esempio 89. Il caso seguente è abbastanza comune nelle applicazioni:
Z
f ′ (x)
dx
= log | f (x)| + (cost.).
f (x)
La sostituzione impiegata è ovvia.
Postponiamo altri esempi al paragrafo appositamente dedicato ai metodi di integrazione
di specifiche classi di funzioni.
6.3.4. Integrazione per parti
L’altra regola importante di integrazione è la regola di integrazione per parti. Ricordiamo
la regola per la derivata del prodotto di due funzioni:
( f (x)g(x))′ = f ′ (x)g(x) + f (x)g′ (x).
Abbiamo quindi dai due lati dell’uguaglianza la stessa funzione. Quindi i rispettivi integrali
indefiniti saranno uguali:
Z
Z
Z
′
′
dx( f (x)g(x)) =
dx f (x)g(x) +
dx f (x)g′ (x),
253
Alberto Berretti
Analisi Matematica I
e dal teorema fondamentale del calcolo otteniamo:
Z
Z
f (x)g(x) =
dx f ′ (x)g(x) +
dx f (x)g′ (x).
Questa formula può essere scritta in questo modo:
Z
Z
′
dx f (x)g(x) = f (x)g(x) −
dx f (x)g′ (x),
e quindi per gli integrali definiti:
Z b
b Z
′
dx f (x)g(x) = f (x)g(x)a −
a
b
(6.20)
dx f (x)g′ (x),
(6.21)
a
b
dove abbiamo posto f (x)g(x) a = f (b)g(b) − f (a)g(a) (si legge “ f (x)g(x) calcolato tra a e b”).
Esempio 90. Calcoliamo l’integrale del logaritmo:
Z
Z
Z
1
dx log x =
dx1 · log x = x log x −
dxx · = x log x − x + (cost.) = x(log x − 1) + (cost.),
x
dove abbiamo considerato 1 come la derivata di x.
Esempio 91. I seguenti usano il medesimo principio ma sono leggermente piú complessi.
Calcoliamo l’integrale dell’arcoseno:
Z
Z
Z
x
dx arcsin x =
dx1 · arcsin x = x arcsin x −
dx √
.
1 − x2
L’integrale che abbiamo ottenuto si calcola per sostituzione, ponendo t = 1−x2 ; allora t′ = −2x
e quindi:
Z
Z
Z
√
1
1
x
1
=−
(−2x) = −
dx √
dx √
dtt−1/2 = −t1/2 + (cost.) = − 1 − x2 + (cost.),
2
2
1 − x2
1 − x2
per cui:
Z
√
dx arcsin x = x arcsin x + 1 − x2 + (cost.).
Calcoliamo poi l’integrale dell’arcotangente:
Z
Z
Z
dx arctan x =
dx1 · arctan x = x arctan x −
dx
x
.
1 + x2
Anche l’integrale che abbiamo ottenuto questa volta si calcola per sostituzione, ponendo
stavolta t = 1 + x2 ; allora t′ = 2x e quindi:
Z
Z
Z
1
1 1
1
x
1
1
dx
dt = log t + (cost.) = log(1 + x2 ) + (cost.),
dx
=
(2x) =
2
2
2
2
t
2
2
1+x
1+x
per cui:
Z
1
log(1 + x2 ) + (cost.).
2
Si osservi che non c’è stato bisogno del valore assoluto nell’argomento del logaritmo perché
dx arctan x = x arctan x −
t = 1 + x2 > 0.
254
Alberto Berretti
Analisi Matematica I
Esempio 92. La formula di integrazione per parti può ovviamente essere iterata una o piú
volte. Ad esempio:
Z
Z
2 x
2 x
dxx e = x e − 2
!
Z
2 x
x
x
dxxe = x e − 2 xe −
x
dxe
=
= x2 ex − 2xex + 2ex + (cost.) = ex (x2 − 2x + 2) + (cost.).
Z
Z
Z
Z
2
Esercizio 44. Calcolare
dxx sin x,
dxx cos x,
dxx sin x,
dxx2 cos x.
Esempio 93. Il seguente esempio è piú complesso e costituisce un buon esempio di quello che
R
R
si può fare con l’integrazione per parti. Vogliamo calcolare C = dxex cos x e S = dxex sin x.
Applicando la formula di integrazione per parti 6.20 prendendo nell’integrando f = ex e g il
coseno o il seno abbiamo:
Z
Z
x
x
x
x
dxe cos x = e cos x +
e:
Z
dxex sin x
Z
dxe sin x = e sin x −
cioè:
dxex cos x,


x


C − S = e cos x,



C + S = ex sin x,
da cui si ricava immediatamente:
Z
Z
1 x
1
x
dxe cos x = e (sin x + cos x) + (cost.),
dxex sin x = ex (sin x − cos x) + (cost.).
2
2
Z
Z
Esercizio 45. Calcolare
dxeαx cos βx,
dxeαx sin βx.
6.4. Metodi di integrazione
Facendo uso degli strumenti a nostra disposizione, e cioè, oltre agli integrali ottenuti direttamente invertendo la tabella delle derivate e oltre alla linearità, la formula di integrazione per
sostituzione e la formula di integrazione per parti, vediamo come integrare esplicitamente
alcune classi interessanti di funzioni.
6.4.1. Integrazione di funzioni razionali
P(x)
può essere sempre ricondotto
Q(x)
all’integrazione di particolari funzioni razionali dette fratti semplici. Una funzione razionale
Il problema dell’integrazione di funzioni razionali f (x) =
è un fratto semplice se (i) il denominatore è un polinomio irriducibile (cioè non ulteriormente
255
Alberto Berretti
Analisi Matematica I
fattorizzabile in polinomi di grado inferiore) o una potenza di un polinomio irriducibile
(ii) il numeratore è un polinomio di grado inferiore al polinomio irriducibile che appare a
denominatore, indipendentemente dal fatto che sia elevato a potenza o meno.
Qui assumiamo sempre che i polinomi siano polinomi su R, cioè a coefficienti reali, di
cui ci interessa la fattorizzazione in polinomi a coefficienti reali. Pertanto, i polinomi che
possono apparire a denominatore in un fratto semplice sono lineari (x − a) o quadratici con
discriminante negativo (x2 + px + q, p2 − 4q < 0).
Ovviamente possiamo sempre assumere che il coefficiente del termine di grado massimo
di Q(x) sia 1, raccogliendo una costante.
Esempio 94. I seguenti sono esempi di fratti semplici:
A
,
x−a
A
,
(x − a)3
Ax + B
,
+ px + q
x2
(x2
Ax + B
.
+ px + q)2
Esempio 95. I seguenti sono esempi di funzioni razionali che non sono fratti semplici:
Ax + B
,
(x − a)2
Ax2 + Bx + C
1
.
,
2
2
(x + px + q) 1 + x4
Infatti nel primo il numeratore è un polinomio di grado uguale, e non minore, del polinomio
irriducibile che appare a denominatore a parte la potenza a cui esso è elevato, e la stessa cosa
accade nel secondo caso. Il denominatore che appare nel terzo caso è riducibile:
√
√
√
1 + x4 = 1 + 2x2 + x4 − 2x2 = (1 + x2 )2 − ( 2x)2 = (1 + 2x + x2 )(1 − 2x + x2 ).
Prima di procedere, impariamo a calcolare gli integrali di funzioni razionali elementari,
ed in particolar modo di fratti semplici.
Integrali di funzioni razionali elementari
È evidente in quanto segue che lo studente non deve imparare a memoria le formule che
andiamo ricavando, ma deve capire la procedura che è stata usata e riutilizzarla quando è
necessario nel caso concreto.
I seguenti integrali sono ovvî:
Z
1
dx
= log |x − a| + (cost.),
x−a
Z
n≥2:
dx
1
1
1
=−
+ (cost.). (6.22)
n
(x − a)
n − 1 (x − a)n−1
Consideriamo ora integrali della seguente forma:
Z
1
.
dx 2
x + px + q
Consideriamo il discriminante del denominatore ∆ = p2 − 4q.
256
Alberto Berretti
Analisi Matematica I
Se ∆ > 0, allora possiamo scrivere:
x2 + px + q = (x − a)(x − b),
dove a, b sono le soluzioni reali di x2 + px + q = 0. Poniamo dunque:
(A + B)x − (Ab + aB)
1
A
B
=
+
=
,
(x − a)(x − b) x − a x − b
(x − a)(x − b)
(6.23)
e poiché questa deve essere un’identità, deve essere A + B = 0, Ab + aB = −1. Quindi B = −A,
1
1
A(a − b) = 1 e A =
,B=−
per cui:
a−b
a−b
Z
1
1
dx
=
(log |x − a| − log |x − b|) + (cost.).
(6.24)
(x − a)(x − b) a − b
Osservazione 52. La (6.23) è un esempio facile di scomposizione in fratti semplici.
Se ∆ = 0, allora x2 + px + q = (x − a)2 e ci siamo ricondotti ad uno dei casi della (6.22).
Se invece ∆ < 0 allora il polinomio a denominatore è irriducibile e dobbiamo ragionare
diversamente. In questo caso infatti ci ricondurremo ad un caso noto del medesimo tipo, e
cioè al caso in cui il denominatore è 1 + x2 , utilizzando il trucco del completamento del quadrato:
p 2
p2
x2 + px + q = x +
+q− ;
2
4
p2 − 4q
p2
=−
> 0 essendo ∆ < 0. Ne segue:
4
4


2
!
2
2 
2


4q
−
p
4q
−
p
p
p
2x
4



 p
 + 1 =
+
1
=
x2 + px + q =
+
x
+
p




4
2
4
4q − p2
4q − p2
4q − p2
osserviamo che q −
= A((y + B)2 + 1), (6.25)
dove:
A=
4q − p2
p
2
, B= p
, y= p
x.
4
4q − p2
4q − p2
(6.26)
Pertanto:
Z
Z
2
1
2
1
= p
dy
= p
arctan(y + B) + (cost.) =
dx 2
2
x + px + q
(y + B) + 1
4q − p2
4q − p2
2x + p
2
= p
arctan p
+ (cost.).
4q − p2
4q − p2
A questo punto è facile ricondurre al caso precendente anche il seguente integrale:
Z
Ax + B
.
dx 2
x + px + q
257
Alberto Berretti
Analisi Matematica I
Infatti:
B − pA/2
Ax + B
A 2x + p
=
+ 2
,
2
2 x + px + q x + px + q
+ px + q
x2
dove nella prima espressione fratta a secondo membro il numeratore è la derivata del
denominatore. Pertanto:
!Z
Z
Z
2x + p
pA
1
Ax + B
A
dx 2
dx 2
dx 2
=
+ B−
=
2
2
x + px + q
x + px + q
x + px + q
!Z
pA
1
A
2
dx 2
,
= log |x + px + q| + B −
2
2
x + px + q
ed abbiamo già visto come calcolare l’integrale rimasto.
Vogliamo ora capire come calcolare integrali del tipo:
Z
1
dx 2
.
(x + px + q)2
Se il polinomio a denominatore ha discriminante positivo, allora applicheremo il metodo
della scomposizione in fratti semplici descritto piú avanti. Se ha discriminante nullo, allora
siamo in uno dei casi banali indicati all’inizio di questo paragrafo. Dobbiamo capire dunque
cosa fare se il discriminante è negativo ed il polinomio a denominatore non è quindi fattorizzabile. Senza ripetere calcoli noiosi ma banali, possiamo usare il trucco del completamento
del quadrato e ricondurci, come nel caso precedente, al seguente integrale:
Z
1
.
dx
(1 + x2 )2
Questo integrale può essere calcolato in almeno tre modi: per parti, mediante un’astuta
assunzione che viene verificata a posteriori e mediante una sostituzione trigonometrica. Il
terzo metodo ci porterebbe ad un integrale trigonometrico di un tipo non ancora discusso e
pertanto ne omettiamo la discussione; vediamo gli altri due. Volendo risolvere tale integrale
per parti abbiamo:
Z
1
dx
=
(1 + x2 )2
Z
!
Z
1
−2x
1
1
1
1
1
dx
dx −
−
· 2 =
=− ·
2
2
2
2
2x (1 + x )
2x 1 + x
2
1+x x
|{z} | {z }
g, g′ =
=−
1
2x2
f ′, f =
1
1+x2
Z
1
1
1
1
1
1
1
1
1
−
−
=− ·
+
dx
·
+ arctan x + (cost.) =
2x 1 + x2 2
2x 1 + x2 2x 2
x2 1 + x2
1
1
x
1
1
+ arctan x + (cost.) =
+ arctan x + (cost.).
1−
=
2x
2
2 1 + x2
1 + x2
Un metodo alternativo, che si generalizza piú facilmente al caso di potenze maggiori di 2 di
1 + x2 , si basa sulle seguenti considerazioni. Osserviamo innanzitutto che la funzione integranda è una funzione pari, quindi una sua primitiva (a meno della costante di integrazione
258
Alberto Berretti
Analisi Matematica I
x
sono
1 + x2
appunto dispari e le loro derivate “somigliano” in un certo senso alla funzione integranda:
arbitraria!) è una funzione dispari. Osserviamo inoltre che le funzioni arctan x e
D arctan x =
1
,
1 + x2
D
x
1 − x2
=
.
1 + x2 (1 + x2 )2
x
, ma si può sperare – e
1 + x2
chi ha occhio se ne accorge subito – che una opportuna combinazione lineare di arctan x e
x
sia la primitiva cercata, perché con la scelta giusta dei coefficienti si potrebbe ottenere
1 + x2
la cancellazione del termine in piú a numeratore. Proviamo:
(A + B) − (A − B)x2
A − Ax2
B
Ax
+
B
arctan
x
=
+
=
.
D
1 + x2
(1 + x2 )2 1 + x2
(1 + x2 )2
Abbiamo un “−x2 ” di troppo a numeratore nella derivata di
Basta dunque imporre:




A + B = 1,



A − B = 0
1
per avere la soluzione, il che dà immediatamente A = B = , e quindi:
2
1
1
x
D
+ arctan x =
,
2
2 1+x
(1 + x2 )2
e quindi abbiamo trovato la primitiva cercata.
L’integrazione per parti indicata si applica anche al caso di integrali simili ma con potenze
maggiori di 2, ad es.:
Z
1
,
(1 + x2 )3
ma è abbastanza complicato. In questi casi il secondo metodo ci porta rapidamente al
dx
risultato. Non vale la pena fare i calcoli – molto intricati – nel caso generale, ma qui faremo
vedere solamente come calcolare l’integrale sopra indicato.
Abbiamo anche in questo caso che la funzione integranda è una funzione pari, e quindi
cerchiamo una primitiva dispari. Ora a denominatore abbiamo (1 + x2 )3 , quindi dobbiamo provare con qualcosa che a denominatore abbia (1 + x2 )2 , in modo da ottenere il cubo
derivando. Proviamo con:
Ax3 + Bx
+ C arctan x.
(1 + x2 )2
Infatti il denominatore della frazione algebrica è di quarto grado, pertanto proviamo con un
denominatore di terzo grado, in cui abbiamo omesso termini in x2 e costanti in quanto avrebbero distrutto la natura dispari della funzione. Derivando e facendo qualche semplificazione
abbiamo:
!
(B + C) + (3A − 3B + 2C)x2 + (C − A)x4
Ax3 + Bx
D
+
C
arctan
x
=
.
(1 + x2 )2
(1 + x2 )3
259
Alberto Berretti
Otteniamo dunque
Analisi Matematica I
1
se:
(1 + x2 )3




B + C = 1,






3A − 3B + 2C = 0,






−A + C = 0.
Risolvendo questo semplice sistema lineare otteniamo:
A=
da cui:
Z
3
,
8
B=
5
,
8
C=
3
,
8
!
1 3x3 + 5x
1
=
+ 3 arctan x .
dx
(1 + x2 )3 8 (1 + x2 )2
È chiaro che integrali del medesimo tipo con potenze ancora piú grandi possono essere
calcolati in modo analogo ma con maggiore difficoltà tecnica.
Esempio 96.
Z
!
1
1 15x5 + 40x3 + 33x
+ 15 arctan x .
dx
=
(1 + x2 )3
(1 + x2 )4 48
Esempio 97.
Z
!
1
1 105x7 + 385x5 + 511x3 + 279x
dx
=
+ 105 arctan x .
(1 + x2 )5 384
(1 + x2 )4
Caso generale: scomposizione in fratti semplici
L’idea del metodo consiste nel fatto che possiamo sempre ricondurci al calcolo di integrali di
fratti semplici, che sappiamo, in linea di principio, calcolare utilizzando le tecniche viste sopra.
Il metodo è semplice se applicato a casi semplici, anche se la sua formulazione generale può
intimidire nella sua complicazione, che però non è di sostanza.
Osserviamo innanzitutto che possiamo sempre assumere che il grado di P sia inferiore al
grado di Q: infatti se non lo è, allora possiamo scrivere:
P(x)
P2 (x)
= P1 (x) +
,
Q(x)
Q(x)
dove P1 (x) è il quoziente e P2 è il resto della divisione di P per Q; sappiamo calcolare l’integrale
di un polinomio e il grado di P2 è inferiore al grado di Q.
Possiamo anche immaginare che il coefficiente del termine di grado maggiore di Q sia 1,
cioè che, se Q ha grado m, allora Q(x) = xm + termini di grado inferiore (se cosí non fosse,
possiamo sempre raccogliere una costante dall’integrale e ricondurci a questo caso).
260
Alberto Berretti
Analisi Matematica I
Dall’Algebra abbiamo che ogni polinomio Q(x) può essere sempre fattorizzato in un prodotto di polinomi di primo grado, eventualmente elevati a potenza, e di polinomi irriducibili
di secondo grado, eventualmente elevati a potenza:
Q(x) = (x − a1 )m1 · · · (x − ak )mk · (x2 + p1 x + q1 )n1 · · · (x2 + ph x + qh )nh ,
dove naturalmente m1 + · · · + mk + 2n1 + · · · + 2nh è ovviamente pari al grado di Q.
Sia M il grado di Q(x). Assumiamo dunque che P(x) abbia grado N < M, e quindi contenga
M coefficienti (che possono essere anche nulli ovviamente, ad es. se P ha grado minore
di M − 1). Allora possiamo scrivere la funzione razionale indicata come somma di fratti
semplici, cioè funzioni razionali con denominatore non piú fattorizzabile o sua potenza:
(1)
(m )
(1)
(m )
Ak
Ak 1
A1
A1 1
P(x)
=
+ ···+
+ ··· +
+ ··· +
+
Q(x) x − a1
(x − a1 )m1
x − ak
(x − ak )mk
(1)
+
(1)
B 1 x + c1
x2 + p1 x + q1
(n )
+ ···+
(1)
(n )
B 1 1 x + c1 1
(x2 + p1 x + q1 )n1
+ ··· +
(1)
B h x + ch
x2 + ph x + qh
(n )
+ ··· +
(n )
Bh 1 x + ch 1
(x2 + ph x + qh )nh
.
È evidente che i denominatori dei fratti semplici a destra nell’uguaglianza sono quelli corretti
per ottenere come denominatore comune Q(x). Osserviamo inoltre che nei numeratori dei
(•)
(•)
(•)
fratti semplici appaiono esattamente M = m1 + · · · + mk + 2n1 + · · · + 2nh costanti A• , B• , C• ,
e cioè esattamente tante quante le costanti che appaiono come coefficienti nel polinomio P(x),
che è di grado al massimo M − 1. Quindi risolvendo un sistema lineare di M equazioni nelle
(•)
(•)
(•)
M incognite A• , B• , C• possiamo scrivere la funzione razionale indicata come somma di
fratti semplici. Ovviamente resterebbe da dimostrare che tale sistema lineare è effettivamente
risolvibile (utilizzando il teorema di Rouché-Capelli), ma questo è un problema di Algebra
Lineare, complicato ma non sostanzialmente difficile, che esce dagli scopi di questo corso.
Inoltre nell’applicazione concreta del metodo la risolubilità del sistema lineare è un fatto che
viene constatato praticamente mediante la sua risoluzione effettiva.
Una volta fatta la scomposizione in fratti semplici, basta saper integrare ciascun fratto
semplice, cosa che in linea di principio sappiamo fare perché abbiamo visto come si fa nel
paragrafo precedente.
Noi ci accontenteremo di saper fare in pratica tale scomposizione in casi semplici. Il modo migliore
per ottenere questo risultato è quello di fare qualche esempio.
Esempio 98. Vogliamo calcolare:
Z
1
.
− 1)
Il denominatore in questo caso è x(x + 1)(x − 1), pertanto poniamo:
dx
x(x2
1
B
C
A
+
.
= +
x x+1 x−1
− 1)
x(x2
261
Alberto Berretti
Dunque:
e quindi:
Analisi Matematica I
−A + (−B + C)x + (A + B + C)x2
A
B
C
+
+
=
,
x x+1 x−1
x(x + 1)(x − 1)




−A = 1,






−B + C = 0,






A + B + C = 0,
1
1
da cui A = −1, B = , C = . Quindi:
2
2
Z
Z
Z
Z
1
1 1
1
1
1
dx 2
= − dx +
dx
dx
+
=
x 2
x+1 2
x−1
x(x − 1)
1
= − log |x| + log |x2 − 1| + (cost.). = log
2
Esempio 99. Calcoliamo:
Z
dx
p
|x2 − 1|
+ (cost.).
|x|
1
.
4 + x4
Abbiamo:
x4 + 4 = x4 + 4x2 + 4 − 4x2 = (x2 + 2)2 − (2x)2 = (x2 + 2x + 4)(x2 − 2x + 4).
Si osservi che i discriminanti dei polinomi in cui abbiamo fattorizzato il denominatore sono
pari a 22 − 4 · 4 = −12 < 0 e pertanto sono i polinomi sono irriducibili. Effettuiamo la
scomposizione in fratti semplici.
x4
1
Cx + D
Ax + B
+ 2
=
= 2
+ 4 x + 2x + 2 x − 2x + 2
(2B + 2D) + (2A − 2B + 2C + 2D)x + (−2A + B + 2C + D)x2 + (A + C)x3
=
x4 + 4
da cui:



2B + 2D = 1,








2A − 2B + 2C + 2D = 0,




−2A + B + 2C + D = 0,






A + C = 0.
Questo sistema lineare, anche se in quattro incognite, è facile da risolvere: basta infatti usare
la prima equazione per eliminare D e la quarta equazione per eliminare C ottenendo un
sistema lineare nelle sole due incognite A e B, banale da risolvere, e da A e B troviamo C e D
usando la prima e la quarta equazione rispettivamente. In questo modo si ricava facilmente:
1
A= ,
8
1
B= ,
4
1
C=− ,
8
262
1
D= .
4
Alberto Berretti
Quindi:
Analisi Matematica I
Z
Z
Z
1
1
1
1
1
x+2
x−2
dx
−
= I1 − I2 .
=
dx 2
dx 2
4
8
8
x + 2x + 2 8
x − 2x + 2 8
4+x
Dobbiamo quindi calcolare gli integrali I1 e I2 con il metodo del completamento del quadrato.
Abbiamo:
Z
Z
Z
1
1
1
1
2x + 2
2
I1 =
+
dx 2
= log(x + 2x + 2) +
=
dx 2
dx 2
2
x + 2x + 2
x + 2x + 2 2
x + 2x + 2
Z
1
1
1
2
= log(x2 + 2x + 2) + arctan(x + 1) + (cost.);
= log(x + 2x + 2) +
dx
2
2
(x + 1) + 1 2
e poi:
Z
Z
1
1
1
2
dx 2
= log(x − 2x + 2) −
=
dx 2
x − 2x + 2 2
x − 2x + 2
Z
1
1
1
= log(x2 − 2x + 2) −
dx
= log(x2 − 2x + 2) − arctan(x − 1) + (cost.).
2
(x − 1)2 + 1 2
1
I2 =
2
Z
2x − 2
−
dx 2
x − 2x + 2
Pertanto:
Z
1
1
1
1
1
dx
=
log(x2 + 2x + 2) −
log(x2 − 2x + 2) + arctan(x + 1) + arctan(x − 1) + (cost.).
16
8
8
4 + x4 16
Esempio 100. Calcoliamo:
Z
x+2
dx 2
.
x (x + 1)
Abbiamo:
B + (A + B)x + (A + C)x2
A B
C
x+2
=
+
.
+
=
x x2 x + 1
x2 (x + 1)
x2 (x + 1)
Quindi:




B = 2,






A + B = 1,






A + C = 0.
Quindi:
A = −1,
B = 2,
C = 1,
e quindi:
Z
Z
Z
Z
x+2
1
1
1
2
dx 2
= − dx + 2 dx 2 +
dx
= − log |x| − + log |x + 1| + (cost.).
x
x+1
x
x (x + 1)
x
Esercizio 46. Calcolare:
Z
x
dx
,
(x − 1)(x2 + 1)
Z
x
dx
,
1 + x3
Z
dx
x3
(x − 1)2 (x3 + 1)
[Esercizi d’esame a Cambridge rispettivamente nel 1924, 1926, 1934.]
Esercizio 47. Calcolare:
Z
1
,
dx 4
x + x2 + 1
Z
263
dx
x4
x
.
+ x2 + 1
Alberto Berretti
Analisi Matematica I
6.4.2. Integrazione di funzioni connesse con le coniche
Un problema che si pone spesso in molte applicazioni consiste nel calcolare integrali del tipo:
Z
dxR(x, y),
dove R è una funzione razionale di x, y e x, y sono le coordinate di un punto su una conica:
P(x, y) = 0,
Pun polinomio di secondo grado,
e quindi y dipende implicitamente da x.
Si potrebbe dimostrare che tali integrali possono sempre essere calcolati esplicitamente.
Noi ci limiteremo a calcolare solo alcuni casi di interesse particolare.
Z
Integrali del tipo
dx √
1
ax2 + bx + c
Questi integrali si calcolano con il metodo del completamento del quadrato, ed occorre
distinguere varî casi a secondo del segno del discriminante del polinomio sotto radice P(x) =
ax2 + bx + c e a secondo del segno di a (se a = 0 sotto radice abbiamo un’espressione lineare e
quindi l’integrale si calcola direttamente).
Iniziamo ad escludere alcuni casi. Se il discriminante ∆ di P è negativo e a < 0 allora
∀x ∈ R il radicando è negativo, e quindi la funzione integranda ha dominio vuoto (di fatto
non esiste). Inoltre, se il discriminante di P è nullo ed a < 0 allora il radicando è sempre
negativo eccetto che per un valore x̄ di x per il quale vale 0, per cui la funzione ha come
dominio il solo punto x̄ e pertanto l’integrale è banale (è definito solo l’integrale da x̄ a x̄
p
√
che è nullo). Infine, se il discriminante è nullo e a > 0 allora P(x) = a|x − α|, e l’integrale
si calcola banalmente in termini del logaritmo di |x − α|. I casi da considerare sono dunque
(i) ∆ > 0, a > 0, (ii) ∆ > 0, a < 0 e (iii) ∆ < 0, a > 0.
√
Caso (i) - Raccogliendo 1/ a e scrivendo p = b/a, q = c/a ci riconduciamo all’integrale:
Z
1
dx p
.
x2 + px + q
Facendo uso del trucco del completamento del quadrato otteniamo analogamente alle (6.25),
(6.26):
!
p 2
p 2 p2 − q p2 − q
4
x+
x + px + q = x +
−
−1 =
=
2
4
4
2
p2 − 4q


2


p
p2 − 4q 
2x
 − 1 = C((y + D)2 − 1), (6.27)
 p
x
+
=
p



4
p2 − 4q
p2 − 4q
2
264
Alberto Berretti
Analisi Matematica I
dove abbiamo posto:
p2 − 4q
,
C=
4
p
D= p
,
p2 − 4q
2
y= p
x.
2
p − 4q
(6.28)
Quindi:
Z
dx p
1
Z
1
dy p
= sectcosh(y + D) + (cost.) =
x2 + px + q
(y + D)2 − 1
p
2x + p + 2 x2 + px + q
2x + p
= sectcosh p
+ (cost.) = log
+ (cost.).
p
p2 − 4q
p2 − 4q
=
√
Caso (ii) - Raccogliamo 1/ −a e scrivendo p = −b/a, q = −c/a ci riconduciamo a:
Z
1
dx p
.
2
−x + px + q
Analogamente alla (6.27) abbiamo:
!
p 2
p 2 p2 − q p2 − q
4
+
=
=
1− 2
x−
− x + px + q = − x −
2
4
4
2
p − 4q


2 

 
p
p2 − 4q 
2x
  = C(1 − (y − D)2 ), (6.29)
x− p
=
1 −  p 2
 
4
p − 4q
p2 − 4q
2
dove C, D e y sono date di nuovo dalla (6.28). Quindi:
Z
dx p
Z
1
−x2
=
+ px + q
1
=
dy p
1 − (y − D)2
2x − p
= arcsin(y − D) + (cost.) = arcsin p
+ (cost.).
p2 − 4q
√
Caso (iii) - Raccogliendo 1/ a e scrivendo p = b/a, q = c/a ci riconduciamo all’integrale:
Z
1
dx p
,
2
x + px + q
dove però stavolta p2 −4q < 0. Possiamo dunque usare direttamente le (6.25), (6.26) e scrivere:
Z
dx p
x2
Z
1
dy p
= sectsinh(y + B) + (cost.) =
+ px + q
(y + B)2 + 1
p
2x + p + 2 x2 + px + q
2x + p
+ (cost.) = log
+ (cost.).
= sectsinh p
p
4q − p2
4q − p2
1
=
265
Alberto Berretti
Analisi Matematica I
Z
dx √
Integrali del tipo
Ax + B
ax2 + bx + c
Questi integrali si riconducono in modo elementare a quelli del paragrafo precedente. Infatti:
Ax + B =
2aB − Ab
A
(2ax + b) +
,
2a
2a
pertanto:
Z
Ax + B
A
dx √
=
2a
2
ax + bx + c
Z
Z
1
2aB − Ab
dx √
dx √
+
=
2a
2
2
ax + bx + c
ax Z+ bx + c
2aB − Ab
A√ 2
1
,
ax + bx + c +
=
dx √
2
a
2a
ax + bx + c
2ax + b
dove il primo integrale è stato calcolato per sostituzione e l’integrale rimasto si calcola come
nel paragrafo precedente.
Z
Integrali del tipo
√
dx ax2 + bx + c
Questo tipo di integrali si possono calcolare sia mediante sostituzione trigonometrica o
iperbolica, sia per parti. Come al solito, mediante il trucco del completamento del quadrato
ci possiamo ricondurre ad uno dei seguenti tre integrali:
Z
Z
Z
√
√
√
dx 1 + x2 ,
dx 1 − x2 ,
dx x2 − 1,
che corrispondono rispettivamente ai casi (i) ∆ < 0 e ovviamente a > 0, (ii) ∆ > 0, a < 0,
(iii) ∆ > 0, a > 0.
Caso (i) - Calcoliamo il primo integrale. Abbiamo:
Z
I=
Z
√
√
x2
2
2
dx 1 + =
=
dx1 · 1 + x = x 1 + x −
dx √
1 + x2
Z
Z
Z
√
√
1 + x2
1
1
2
2
−
dx √
=x 1+x +
− I;
dx √
dx √
=x 1+x +
1 + x2
1 + x2
1 + x2
√
Z
x2
quindi:
I=
1 √
x 1 + x2 + sectsinh x + (cost.).
2
(6.30)
Caso (ii) - Analogamente:
Z
I=
Z
Z
√
√
√
x2
dx 1 − x2 =
=
dx1 · 1 − x2 = x 1 − x2 +
dx √
1 − x2
Z
Z
Z
√
√
1 − x2
1
1
2
2
=x 1−x +
−
dx √
=x 1−x +
− I;
dx √
dx √
2
2
1−x
1−x
1 − x2
266
Alberto Berretti
Analisi Matematica I
quindi:
I=
1 √
x 1 − x2 + arcsin x + (cost.).
2
(6.31)
Caso (iii) - Infine:
Z
dx
I=
quindi:
√
Z
Z
√
√
x2
2
2
=
−1=
dx1 · x − 1 = x x − 1 −
dx √
x2 − 1
Z
Z
Z
√
√
x2 − 1
1
1
2
2
−
dx √
=x 1−x −
− I;
=x 1−x −
dx √
dx √
x2 − 1
x2 − 1
x2 − 1
x2
I=
1 √ 2
x x − 1 + sectcosh x + (cost.).
2
Esempio 101. Calcoliamo:
Z
I=
(6.32)
√
dx x − x2 .
Facciamo il completamento del quadrato:
x − x2 =
1
1 2 1
=
− x−
1 − (2x − 1)2 .
4
2
4
Poniamo t = 2x − 1. Quindi applicando la (6.31):
Z
Z
Z
√
√
p
1
1
dx 1 − (2x − 1)2 =
dt 1 − t2 =
dx x − x2 =
2
4
p
1
1
1
1 − (2x − 1)2 + arcsin(2x − 1) + (cost.) =
= (2x − 1)
4
2
8
√
1
1
= (2x − 1) x − x2 + arcsin(2x − 1) + (cost.).
4
8
Esercizio 48. Calcolare:
Z
1
,
dx √
x2 + 2x + 2
Z
6.4.3. Integrali del tipo
Z
dx √
x
x4 + 2x2 + 2
Z
,
dx √
2x + 1
x2 + x + 3
.
 r

 n ax + b 

dxR x,
cx + d 
Questi integrali, in linea di principio, si riconducono ad integrali di funzioni razionali usando
la sostituzione:
tn =
ax + b
.
cx + d
È chiaro che tipicamente verranno integrali piuttosto complicati. Vediamo un esempio
relativamente semplice.
267
Alberto Berretti
Analisi Matematica I
Esempio 102. Calcoliamo:
r
Z
dx
Qui poniamo:
t2 =
da cui:
x=
Quindi l’integrale diventa:
t2
,
t2 − 1
x
.
x−1
x
,
x−1
dx = −
(t2
2t
dt.
− 1)2
Z
t2
,
(t2 − 1)2
che può essere calcolato mediante scomposizione in fratti semplici. Poniamo infatti:
−2
dt
A
C
B
D
t2
=
+
,
+
+
2
2
2
t + 1 (t + 1)
t − 1 (t − 1)2
(t − 1)
da cui, sommando ed espandendo il denominatore del membro sinistro, otteniamo:
t2 = (A + B − c + D) + (−A − 2B − C + 2D)t + (−A + B + C + D)t2 + (A + C)t3 ,
da cui:
pertanto:
Z
− 2 dt
1
A=− ,
4
1
B= ,
4
1
C= ,
4
1
D= ,
4
t2
1
1
1
=
log
|t
+
1|
−
log
|t
−
1|
+
+ (cost.) =
+
t+1 t−1
(t2 − 1)2 2
1
t
t + 1 + (cost.).
+ log = 2
t − 1
t −1 2
Sostituendo t otteniamo:
r
x
x − 1 + 1 p
1
+ (cost.),
x(x − 1) + log r
2
x
− 1 x−1
espressione che volendo potrebbe essere ulteriormente semplificata lavorando sul logaritmo.
6.4.4. Integrazione di funzioni razionali di sin x e cos x
Gli integrali di funzioni razionali di sin x e cos x possono essere sempre ricondotti al caso
degli integrali di funzioni razionali per sostituzione mediante l’uso delle cosiddette formule parametriche che esprimono una funzione trigonometrica in termini della tangente del
semiangolo:
sin x =
2t
,
1 + t2
cos x =
268
1 − t2
,
1 + t2
Alberto Berretti
ed inoltre, poiché t = tan
Analisi Matematica I
x
e quindi x = 2 arctan t abbiamo:
2
2
dt′′ .
1 + t2
“dx =
Ovviamente questo metodo è un metodo “di ultima istanza”, in quanto la funzione razionale
di t che risulta dalla sostituzione è in genere piuttosto complicata. Vediamo quindi alcuni
casi particolari.
Integrali di prodotti di potenze di sin x e cos x - Consideriamo integrali della forma:
Z
dx sinm x cosn x.
Consideriamo prima il caso in cui una delle due potenze m, n è un intero dispari, ad es.
m = 2p + 1. In tal caso possiamo sostituire t = cos x nel modo seguente:
Z
Z
2p
n
dx sin x sin x cos x = − dt(1 − t2 )p tn
e ricondurci al caso dell’integrale di un polinomio. Ci comportiamo analogamente se è la
potenza del coseno ad essere dispari. Se lo sono entrambe possiamo scegliere.
Se sia m che n sono pari, allora usiamo le formule di bisezione per dimezzare le potenze
finché non arriviamo ad una potenza dispari del seno o del coseno. Ciò è piú facile a farsi
che a dirsi, quindi vediamo un esempio. Le formule che usiamo sono le seguenti:
sin2 x =
1 − cos 2x
,
2
cos2 x =
1 + cos 2x
.
2
Esempio 103. Abbiamo:
Z
Z
1
1
1
2
dx sin x =
dx(1 − cos 2x) = x − sin 2x + (cost.),
2
2
4
Z
Z
1
1
1
dx(1 + cos 2x) = x + cos 2x + (cost.).
dx cos2 x =
2
2
4
Esempio 104. Calcoliamo:
Z
I=
dx sin2 x cos2 x.
Usando le formule indicate poco sopra otteniamo:
Z
Z
Z
1
1
1
x
1
2
2
sin 4x + (cost.).
dx(1 − cos 2x) =
dx sin 2x =
dx(1 − cos 4x) = −
I=
4
4
8
8 32
Esercizio 49. Calcolare:
Z
Z
3
2
dx sin x cos x,
Z
4
dx sin x,
269
dx cos4 x.
Alberto Berretti
Analisi Matematica I
Altri esempi di integrali trigonometrici - Vediamo ora altri esempi di integrali trigonometrici
che possono essere calcolati con trucchi specifici o con uso delle formule parametriche.
Esempio 105. Calcoliamo:
Z
1
dx
,
sin x
Z
dx
1
.
cos x
Questi integrali possono essere calcolati facilmente mediante le formule parametriche. Rix
cordandoci che t = tan abbiamo:
2
Z
Z
✘✘
1
x x x 1+
t2
2✁ ✘
dx
=
dt ✘✘
= log tan + (cost.) = log sin − log cos + (cost.).
✘
sin x
1 + t2 2✁t
2
2
2
Per quanto riguarda il secondo abbiamo:
Z
1
=
dx
cos x
Z
✘
✘t2
2 ✘
1+
dt ✘✘
=2
✘
1 + t2 1 − t2
Z
Z
1
1
1
+
dt
=
dt
=
dt
2
1−t
1+t
1−t
1 + tan x cos x + sin x 2 + (cost.) = log 2
2 + (cost.),
= log x
x
1 − tan x cos − sin 2
2
2
Z
dove abbiamo fatto una semplicissima scomposizione in fratti semplici per calcolare l’integrale in dt.
Esempio 106. Calcoliamo:
Z
dx
1
.
2 + sin x
Usiamo le formule parametriche ottenendo subito l’integrale:
Z
Z
1
2
1
=
dt 2
dt
,
2
2t
1+t
t +t+1
2+
1 + t2
x
dove t = tan .
2
quadrato:
Z
Quest’ultimo integrale si calcola subito mediante completamento del
1
=
dt 2
t +t+1
pertanto:
Z
Z
dt 2t + 1
1
2
= √ arctan √ + (cost.),
2
1
3
3
3
t+
+
2
4
x
2
tan
+1
2
1
2
= √ arctan
dx
+ (cost.).
√
2 + sin x
3
3
[Abbiamo cominciato a fare qualche passaggio “veloce”.]
270
Alberto Berretti
Analisi Matematica I
Esempio 107. Il seguente integrale può essere calcolato in varî modi:
Z
1
dx
.
cos x sin3 x
Ovviamente potremmo usare le formule parametriche, ma il calcolo sarebbe lunghissimo.
Una possibilità è scrivere l’1 a numeratore come cos2 x + sin2 e quindi ricondurci alla somma
di due integrali leggermente piú semplici. Ma possiamo anche ragionare come segue. Moltiplichiamo numeratore e denominatore nella funzione integranda per cos x e sostituiamo
s = sin x, “ds = cos xdx”:
Z
dx
Z
cos x
cos2 x sin3 x
ds
=
1
.
(1 − s2 )s3
A questo punto ci siamo ricondotti ad una funzione razionale, per cui applichiamo la
scomposizione in fratti semplici:
da cui:
1
A B
C Ds + E (D − A)s4 + (E − B)s3 + (A − C)s2 + Bs + C
+
,
=
+
+
=
s
(. . .)
(1 − s2 )s3
s2 s3
1 − s2
A = D, B = E, A = C, B = 0, C = 1,
per cui:
Z
da cui:
1
=
ds
(1 − s2 )s3
Z
dx
Z
ds
1 1
s
1 1
= log |s| − 2 − log(1 − s2 ) + (cost.),
+ 3+
2
s s
2
1−s
s
1
= log | sin x| − log | cos x| −
1
+ (cost.).
cos x sin x
sin2 x
Esempio 108. Un trucco divertente è il seguente. Immaginiamo di dover calcolare gli integrali
3
definiti:
2π
Z
0
2
Z
dx sin x,
0
2π
dx cos2 x.
Ovviamente abbiamo calcolato le primitive per cui il calcolo dell’integrale definito è cosa
fatta. Ma c’è un metodo che ci permette di calcolare quegli integrali definiti, per quegli estremi
di integrazione che corrispondono ad un intero periodo delle due funzioni senza fare nemmeno un
calcolo degno di questo nome. Infatti, poiché sin e cos differiscono solo per una differenza di fase
di π/4, i due integrali, essendo estesi all’intero periodo, sono uguali (quello che “esce” da
una parte del grafico “rientra” dall’altra). Quindi ciascuno è uguale alla metà dell’integrale
della somma. Ma la somma delle funzioni integrande è 1, che integrata fra 0 e 2π dà appunto
2π. Quindi ciascun integrale vale π.
Esercizio 50. Calcolare:
Z
sin x + cos x
dx
,
2 + sin x
Z
cos 2x + sin 2x
dx
,
tan x
271
Z
dx √
cos x
1 + cos2 x
.
Alberto Berretti
Analisi Matematica I
6.4.5. Integrazione di funzioni razionali di ex
È elementare anche calcolare integrali del tipo:
Z
dxR(ex ),
dove R è una funzione razionale. È piú facile capire perché tramite qualche esempio.
Esempio 109. Calcoliamo:
Z
e2x
.
e2x + 1
Poniamo t = ex , cosí che “dt = ex dx”, in modo da ottenere:
Z
1
t
= log(t2 + 1) + (cost.),
dt 2
t +1 2
dx
e quindi l’integrale proposto vale:
1
log(e2x + 1) + (cost.).
2
Esempio 110. Calcoliamo:
Z
1
.
+ e3x
Poniamo sempre t = ex come nell’esempio precedente. Abbiamo allora:
Z
1
dt 2 4 .
t +t
dx
ex
È facile fare la seguente scomposizione in fratti semplici:
1
1
1
= 2− 2
+ 1) t
t +1
t2 (t2
(conviene usare t2 , e non t, come variabile!), e quindi:
Z
1
1
dt 2 4 = − − arctan t + (cost.),
t
t +t
e quindi il nostro integrale vale:
e−x − arctan ex + (cost.).
Esempio 111. Ricordandici la definizione delle funzioni iperboliche, è quindi facile calcolare
integrali di funzioni razionali di funzioni iperboliche. Ad esempio:
Z
Z
1
1
sinh x − cosh x cosh 2x sinh 2x
dx
=
−
+
(cost.),
dx
=
−
+ (cost.).
2
tanh
x
sinh x + cosh x
2
2
sinh x
Lasciamo i dettagli per esercizio.
272
Alberto Berretti
Analisi Matematica I
6.4.6. Altri esempi
Utilizzando le regole, i metodi e le idee che abbiamo visto possiamo calcolare, riflettendoci
sopra un attimo, moltissimi altri tipi di integrali. Spesso basta solo un po’ d’occhio.
Esempio 112.
Z
sinh x + cos x
= log(cosh x + sin x) + (cost.),
sin x + cosh x
infatti si vede subito che il numeratore è la derivata del denominatore. Si osservi che non c’è
dx
bisogno del valore assoluto nell’argomento del logaritmo perché ∀x ∈ R cosh x + sin x > 0.
Esempio 113.
Z
1
x
= arcsin x2 + (cost.).
dx √
2
4
1−x
2
Basta infatti accorgersi che “d(x ) = 2xdx” per capire che la sostituzione t = x2 risolve il
problema.
Esempio 114. Quest’integrale richiede un po’ di fantasia:
Z
1
.
dx √
x2 x2 − 1
Chiaramente x > 1 o x < −1 altrimenti la radice non è definita. La funzine integranda
è pari, per cui (a meno della costante arbitraria di integrazione) la primitiva sarà dispari.
Quindi possiamo assumere x > 1 e semplificare leggermente le notazioni in quanto segue.
Raccogliamo x2 sotto la radice in modo da ottenere (qui assumiamo x positivo altrimenti
avremmo bisogno di un valore assoluto!):
Z
1
1
dx 3 r
.
x
1
1− 2
x
1
1
risolve il problema: infatti 3
2
t
x
è proporzionale alla derivata di t rispetto ad x. Facendo bene la sostituzione otteniamo:
Z
√
1
1
dt √
−
= 1 − t + (cost.),
2
1−t
A questo punto ci accorgiamo subito che la sostituzione t =
per cui l’integrale vale:
r
1
1 − 2 + (cost.) =
x
√
x2 − 1
+ (cost.).
x
Esempio 115. Il seguente integrale, pur non rientrando nei casi già visti, si calcola mediante
una semplice integrazione per parti:
Z
Z
√
√
x arctan x
1
dx √
= x2 + 1 arctan x −
= x2 + 1 arctan x − sectsinh x.
dx √
1 + x2
1 + x2
273
Alberto Berretti
Analisi Matematica I
Esempio 116. Calcoliamo:
Z
dx arcsin
Poniamo
√
x.
√
x = t, x = t2 , “dx = 2tdt”. Allora:
Z
Z
√
dx arcsin x =
d(2t)t arcsin t,
che per parti dà:
√
= t arcsin t −
dt √
+
dt 1 − t2 =
dt √
1 − x2
1 − t2
√
1
1
1 √
1
= t2 arcsin t−arcsin t+ t 1 − t2 + arcsin t+(cost.) = t2 − arcsin t+ t 1 − t2 +(cost.).
2
2
2
2
Z
2
Z
d(2t)t arcsin t = t arcsin t −
Pertanto:
Z
dx arcsin
t2
Z
2
1
Z
√
√
1
1√ √
x = x − arcsin x +
x 1 − x + (cost.).
2
2
Si rimanda ad un buon libro di esercizi per ulteriori esempi.
6.5. Integrali impropri
Fino ad ora abbiamo assunto che (i) l’intervallo di integrazione sia limitato (ii) la funzione
integranda sia limitata nell’intervallo di integrazione . Se anche una di queste due condizioni
non è rispettata, non si può porre il problema dell’integrazione. Questa è però una condizione
troppo restrittiva, perché nelle applicazioni è spesso necessario calcolare integrali di funzioni
illimitate, o estesi ad intervalli illimitati. In questo caso si può definire l’integrale mediante
una procedura di limite, ottenendo quelli che vengono chiamati integrali impropri.
Osservazione 53. Noi daremo piú definizioni, ciascuna valida in un caso particolare. Una
teoria generale ci porterebbe inevitabilmente fuori dalla teoria dell’integrazione di Riemann.
6.5.1. Definizione di integrale improprio
Supponiamo come prima cosa di avere un intervallo di integrazione limitato ma una funzione
integranda illimitata in tale intervallo. Supponiamo per concretezza di avere f definita in
[a, b), limitata in [a, c] per ogni c ∈ (a, b) e illimitata in (c, b); ad es. può essere lim f (x) = ±∞.
x→c
In tal caso, essendo f limitata in [a, c], possiamo porre la questione dell’integrabilità di f in
[a, c]. Supponiamo quindi che ∀c ∈ (a, b) f sia integrabile in [a, c]: ad es. potrebbe essere
continua, o monotona. Definiamo allora:
Z b
Z c
dx f (x) = lim−
dx f (x)
a
c→b
274
a
(6.33)
Alberto Berretti
Analisi Matematica I
se il limite esiste; in tal caso si dice che l’integrale improprio è convergente. Se il limite non
esiste si dice che l’integrale improprio è divergente.
In altre parole, restringiamo l’intervallo di integrazione ad un intervallo [a, c] in cui la f
è limitata e integrabile, e poi prendiamo il limite dell’integrale quando c tende all’estremo
desiderato b.
Analogamente se f è limitata ed integrabile in [c, b] ∀c ∈ (a, b) definiamo:
Z b
Z b
dx f (x) = lim+
dx f (x),
c→a
a
(6.34)
c
se il limite esiste.
Un caso leggermente piú complicato è quello in cui il punto “intorno al quale” la funzione
integranda è illimitata è interno all’intervallo di integrazione. Supponiamo ad es. che f sia
definita in [a, c) ∪ (c, b], e limitata ed integrabile in [a, c′ ], [c′′ , d] ∀c′ ∈ (a, c) e ∀c′′ ∈ (c, b) ma
illimitata in (c′ , c), (c, c′′ ). Allora definiamo:
Z c′
Z b
Z
dx f (x) + ′′lim+
dx f (x) = lim
′
−
c →c
a
c →c
a
b
dx f (x),
(6.35)
c′′
se entrambe i limiti esistono.
Se abbiamo ancora altri punti intorno ai quali la funzione f non è limitata nell’intervallo di
integrazione, dobbiamo introdurre altri limiti in modo analogo ed ogni limite deve esistere
finito affinché l’integrale improprio converga.
È evidente che questa situazione non è soddisfacente in generale. Ad es. ci potrebbero essere infiniti
punti “intorno ai quali” f è illimitata. Questo genere di problemi viene superato dalla definizione di
integrale di Lebesgue, in cui la limitatezza della funzione integranda non gioca un ruolo significativo
e pertanto non vi è distinzione tra integrali “propri” ed impropri.
Un altro caso è quello in cui l’intervallo di integrazione è illimitato. Supponiamo ad es. di
avere un intervallo di integrazione del tipo [a, +∞). Allora definiamo:
Z +∞
Z b
dx f (x) = lim
dx f (x),
b→+∞
a
(6.36)
a
se il limite esiste; altrimenti l’integrale improprio sarà divergente.
Se l’intervallo di integrazione è del tipo (−∞, b] definiamo:
Z b
Z b
dx f (x) = lim
dx f (x),
sempre se il limite esiste.
a→−∞
−∞
(6.37)
a
Se invece l’intervallo di integrazione è (−∞, +∞) definiamo:
Z +∞
Z c
Z b
dx f (x) = lim
dx f (x) + lim
dx f (x),
−∞
a→−∞
b→+∞
a
275
c
(6.38)
Alberto Berretti
Analisi Matematica I
dove c è un punto arbitrario e dove si assume che entrambe i limiti esistano finiti; altrimenti
l’integrale improprio è divergente.
Esempio 117. Calcoliamo:
1
Z
dx
0
1
,
xα
α > 0.
Se infatti α ≤ 0 l’integrale non è improprio. Se α > 1 abbiamo:
1
Z
a
1
1 1
1
1
1
− 1 → +∞
dx α = −
=
x
α − 1 xα−1 a α − 1 aα−1
per a → 0+ , per cui l’integrale improprio diverge. Se 0 < α < 1 invece:
1
Z
dx
a
1
1 1−α 1
1
1
=
x
(1 − a1−α ) →
=
a
xα
1−α
1−α
1−α
per a → 0+ , per cui l’integrale improprio converge ed ha il valore indicato. Se invece α = 1
abbiamo:
1
Z
a
per a →
0+ ,
1
= − log a → +∞
x
per cui l’integrale improprio diverge.
Esempio 118. Consideriamo ora:
Z
+∞
1
dx
1
.
xα
Se α < 1 abbiamo:
Z
b
1
1
1 1−α b
1
dx α =
x =
(b1−α − 1) → +∞
1
x
1−α
1−α
per b → +∞, pertanto l’integrale improprio diverge. Se α > 1 abbiamo:
Z
b
1
dx
1
1 b
1
1
1
1
→
=
−
=
xα
α − 1 xα−1 1 α − 1 1 − bα−1
α−1
per b → +∞, per cui l’integrale improprio converge ed ha il valore indicato. Se infine α = 1
abbiamo:
Z
1
b
1
dx = log b → +∞
x
per b → +∞, per cui l’integrale improprio diverge.
Esempio 119. Il caso α = 1 è pertanto il “caso limite” negli esempi precedenti. Consideriamo
ora:
Z
2
+∞
dx
1
x logβ x
276
.
Alberto Berretti
Analisi Matematica I
1
Sostituiamo y = log x, “dy = dx ”, ottenendo:
x
Z b
Z log b
1
1
dx
=
dy β .
β
y
x log x
2
log 2
Abbiamo dunque ottenuto un caso sostanzialmente uguale a quello dell’esempio precedente.
Pertanto ragionando in modo analogo otteniamo che l’integrale improprio converge se β > 1
e diverge se β ≤ 1.
Esercizio 51. Ragionando come negli esempi precedenti, discutere la convergenza dell’integrale improprio:
Z
+∞
dx
10
1
x log x log logγ x
al variare di γ.
Osservazione 54. Se abbiamo un integrale improprio ad es. del tipo (6.36), la sua natura
convergente o divergente non dipende da a, ma dal comportamento della funzione f per
x → +∞ (qualora convergente, il valore dell’integrale improprio dipenderà da a!). Analoga-
mente, se abbiamo un integrale improprio del tipo (6.33), la natura convergente o divergente
dell’integrale non dipende da a, ma dal comportamento della funzione f per x → b− . E cosí
via per gli altri casi.
Osservazione 55. Si potrebbe erroneamente pensare che, nel caso di integrali impropri del
tipo (6.36), se l’integrale improprio converge allora debba essere necessariamente f (x) → 0
per x → +∞. Non è possibile produrre un esempio elementare di questo fatto senza aver
fatto la teoria delle serie.
Esempio 120. Consideriamo:
Z
1
1
dx .
x
−1
Si tratta di un integrale improprio divergente, in quanto sono divergenti i due integrali
impropri:
Z
0
1
dx ,
x
−1
1
Z
0
1
dx ,
x
come abbiamo visto nell’esempio 117, caso α = 1. Il seguente modo di procedere è sbagliato:
Z 1
Z 0
Z 1
Z 1
Z 1
1
1
1
1
1
dx =
dx +
dx = −
dy +
dx = 0 ← sbagliato!
x
x
x
y
x
−1
−1
0
0
0
dove è stata fatta la sostituzione y = −x nell’integrale tra −1 e 0. Questo modo di procedere,
che è appunto sbagliato, equivale a calcolare questo integrale improprio come:
!
!
Z 1
Z 1
Z −c
Z 1
1
1
1
1
lim
dx = lim+ −
dx = 0,
dx +
dy +
c→0+
c→0
x
x
y
x
c
c
−1
c
277
Alberto Berretti
Analisi Matematica I
che è un calcolo esatto ma non è la definizione di integrale improprio quando la funzione
integranda sia illimitata in un punto interno all’intervallo di integrazione. Infatti in questo
caso abbiamo due limiti indipendenti che devono essere entrambe convergenti, mentre noi abbiamo
calcolato in questo modo un unico limite.
Esercizio 52. Verificare la convergenza e calcolare i seguenti integrali impropri:
Z 1
•
dx log x
0
Z
•
+∞
dxe−x
0
Z
1
•
−1
Z
dx √
+∞
dx
•
−∞
1
1 − x2
1
1 + x2
6.5.2. Criteri di convergenza
È chiaro che se ogni volta che dobbiamo stabilire la convergenza di un integrale improprio
dovessimo essere in grado di calcolare la primitiva della funzione integranda per poter fare
poi il limite avremmo seri problemi. È necessario trovare dei criteri che ci permettano di
stabilire se un integrale improprio converge o diverge senza dover necessariamente calcolare
la primitiva della funzione integranda.
È naturalmente piú facile, in generale, dimostrare la convergenza di integrali impropri di
funzioni positive. Infatti, in caso di funzioni il cui segno varia, la convergenza può avvenire
grazie a cancellazioni fra regioni in cui la funzione integranda è positiva e regioni in cui la
funzione integranda è negativa, che possono essere molto difficili da individuare e da tenere
in considerazione. Prendiamo pertanto in considerazione inizialmente la convergenza di
integrali impropri di funzioni positive.
Proposizione 28 (Criterio del confronto). Sia I un intervallo finito o infinito, e sia 0 ≤ f (x) ≤ g(x)
in I. Allora:
1. Se l’integrale improprio di f (x) è divergente, anche l’integrale improprio di g(x) è divergente.
2. Se l’integrale improprio di g(x) è convergente, anche l’integrale improprio di f (x) è convergente.
Dimostrazione. La dimostrazione è elementare e si riconduce al teorema del confronto per i
limiti. Dovremmo considerare separatamente i vari tipi di integrale improprio: siccome il
metodo di dimostrazione è lo stesso, consideriamo soltanto il caso di integrale improprio in
un intervallo del tipo [a, +∞); gli altri casi sono totalmente analoghi.
278
Alberto Berretti
Analisi Matematica I
Se l’integrale improprio di f diverge, allora:
Z
Z
b
a
dxg(x) ≥
b
a
dx f (x) → +∞ se b → +∞,
il che dimostra il primo punto.
Per quanto riguarda il secondo punto, essendo f e g positive gli integrali:
Z
Z
b
b
dx f (x),
a
dxg(x)
a
sono funzioni crescenti di b, quindi il loro limite per b → ∞ o è +∞ oppure è finito. Ma
l’integrale improprio di g converge, per cui:
Z
a
Z
b
dx f (x) ≤
b
a
dxg(x) → L < +∞ se b → +∞,
e quindi anche l’integrale improprio di f converge.
Per dimostrare la convergenza di un integrale improprio di una funzione positiva pertanto dovremo cercare di maggiorare la funzione integranda con un’altra di cui sia nota la
convergenza, mentre per dimostrare la divergenza dovremo cercare di minorare la funzione
integranda con un’altra di cui sia nota la divergenza dell’integrale improprio.
Spesso è molto utile la seguente conseguenza del criterio del confronto, detta criterio del
confronto asintotico. Di tale criterio dovremmo dare una versione diversa per ogni tipo di
integrale improprio. Noi diamo solo due casi come esempio, di cui poi ne dimostreremo
addirittura solo uno, essendo le dimostrazioni sostanzialmente identiche.
Proposizione 29 (Criterio del confronto asintotico). Sia [a, b) un intervallo limitato, e siano f ,
g ≥ 0 in [a, b), e siano inoltre limitate in [a, c] ed illimitate in (c, b) per ogni c ∈ (a, b). Sia inoltre
f (x)
f ∼ g per x → b− , cioè
→ 1 per x → b− . Allora gli integrali impropri di f e g nell’intervallo
g(x)
[a, b) convergono o divergono insieme.
Dimostrazione. Se f ∼ g per x → b− allora:
lim−
x→b
f (x)
= 1,
g(x)
e quindi dalla definizione di limite:
∀ε > 0∃δ > 0 : x ∈ (b − δ, b) ⇒ 1 − ε <
f (x)
< 1 + ε,
g(x)
cioè:
(1 − ε)g(x) < f (x) < (1 + ε)g(x),
279
Alberto Berretti
Analisi Matematica I
ad es. prendendo ε = 1/2:
3g(x)
g(x)
< f (x) <
.
2
2
A questo punto basta applicare il criterio del confronto per verificare subito che se l’integrale
improprio di g diverge allora diverge anche quello di f e che se l’integrale improprio di f
converge allora converge anche quello di f .
Analogamente si dimostra:
Proposizione 30 (Criterio del confronto Zasintotico). Siano f , g ≥ 0 in [a, +∞) e sia f ∼ g
+∞
per x → +∞. Allora l’integrale improprio
dx f (x) converge o diverge se converge o diverge
a
Z +∞
l’integrale improprio
dxg(x).
a
Ovviamente nel caso di un intervallo finito (a, b] con integrale improprio in a o nel caso di
intervallo infinito (−∞, b] valgono criteri analoghi.
Osservazione 56. Esattamente come nel caso dei limiti, è sufficiente che le proprietà richieste
per i criteri del confronto siano valide in un intorno del punto in cui l’integrale risulta improprio,
e cioè vicino a b nel primo caso, per x grande nel secondo caso, ovvero devono essere valide
definitivamente per x → b− o per x → +∞ etc.
Il criterio del confronto asintotico ci permette di studiare la convergenza o la divergenza
di un integrale improprio riconducendo dunque il problema alla determinazione dell’ordine
di infinito o di infinitesimo di una funzione.
Esempio 121. Consideriamo un integrale improprio del tipo:
Z
0
b
dx f (x),
con 0 ≤ f (x), f (x) → +∞ per x → 0+ . Allora l’integrale improprio considerato converge se
1
1
f (x) ∼ α , α < 1, e diverge se f (x) ∼ α , α ≥ 1. Questo segue immediatamente dall’esempio
x
x
117.
Esempio 122. Consideriamo un integrale improprio del tipo:
Z +∞
dx f (x),
a
con 0 ≤ f (x) e f (x) → 0 per x → +∞. Allora l’integrale improprio considerato converge se
1
1
f (x) ∼ α , α > 1, e diverge se f (x) ∼ α , α ≤ 1. Questo segue immediatamente dall’esempio
x
x
118.
280
Alberto Berretti
Analisi Matematica I
Esempio 123. Consideriamo un integrale improprio del tipo:
Z +∞
dx f (x),
a
con 0 ≤ f (x), siano f , g infinitesime per x → +∞ e sia f infinitesima di ordine superiore a
g. Allora se l’integrale improprio di g converge allora converge anche quello di f . Se invece
f è infinitesima di ordine inferiore a g e l’integrale improprio di g diverge allora diverge
anche l’integrale improprio di f . Questo segue immediatamente dalla definizione di ordine
di infinitesimo superiore o inferiore e dal criterio del confronto.
Risultati analoghi valgono per le altre tipologie di integrale improprio.
Vediamo dunque che lo studio degli ordini di infinito o infinitesimo relativi fra due funzioni
diventa uno strumento utilissimo per valutare la convergenza o la divergenza degli integrali
impropri.
Esempio 124. Consideriamo:
1
Z
0
dx
(2 + sin x) log(1 + xα )
.
x2
Vogliamo determinare per quali α tale integrale improprio converge.
Innanzitutto 1 ≤ 2 + sin x ≤ 3 pertanto quel fattore è ininfluente per la convergenza o la
divergenza dell’integrale. In dettaglio, chiamando f (x) la funzione integranda abbiamo che:
3 log(1 + xα )
log(1 + xα )
≤
f
(x)
≤
,
x2
x2
pertanto basta studiare la convergenza dell’integrale improprio con funzione integranda
log(1 + xα )
.
x2
Se α < 0 allora xα → +∞ per x → 0+ e quindi log(1 + xα ) ∼ log xα = α log x. Ci siamo
ricondotti quindi a:
α log x
,
x2
che tende a ∞ per x → 0+ piú rapidamente di 1/x2 (e, per la cronaca, piú lentamente di
1/x2+η , ∀η > 0). Quindi diverge.
Se α = 0 ci riconduciamo a 1/x2 e quindi l’integrale improprio diverge.
Se α > 0 invece log(1 + xα ) ∼ xα , per cui ci si riconduce a:
1
xα
= 2−α ,
2
x
x
pertanto l’integrale improprio converge se α > 1.
281
Alberto Berretti
Analisi Matematica I
Esempio 125. Consideriamo l’integrale:
Z 1
dx
0
eα(x+4) − e8
.
tan x · log sin x
L’integrale può essere improprio perché il denominatore della funzione integranda tende a
0 quando x → 0: infatti tan x ∼ x e log sin x ∼ log x per cui il denominatore è ∼ x log x → 0
quando x → 0. L’integrale sarà improprio o no a seconda del comportamento del numeratore
per x → 0.
Quando x → 0, il numeratore tende a e4α − e8 che si annulla se e solo se α = 2. Quindi
dovremo distinguere due casi: α = 2 e α , 2.
Se α = 2, e2x+8 − e8 = e8 (e2x − 1) = 2e8 x + o(1) ∼ 2e8 x. In questo caso la funzione integranda
diventa:
e2x+8 − e8
2e8 x✁
∼
,
tan x · log sin x x✁ log x
che tende a 0 per x → 0 e pertanto l’integrale non è nemmeno improprio, quindi ovviamente
“converge”.
Se α , 2, allora per x → 0 abbiamo:
eα(x+4) − e8
e4α − e8
∼
;
tan x · log sin x
x log x
Z
b
1
come abbiamo visto diverge, pertanto per il criterio del
0 x log x
confronto asintotico anche l’integrale dato diverge.
ma l’integrale improprio
In questo esempio è necessario osservare un fatto banale ma importante.
Abbiamo
confrontato la funzione originale con 1/x log x solo per x → 0, non nell’intero intervallo
(0, 1), cosa che ci avrebbe portato ad un risultato sbagliato (1/x log x diverge anche quando
x → 1!). Infatti per x → 1 non è vero che tan x · log sin x ∼ x log x, ed infatti per x → 1
tan x · log sin x → tan 1 · log sin 1 ≈ 1.73001 . . . , 0. Ricordiamo che ogni volta che si scrive
“∼ . . .”, oppure “o(. . .)” o “O(. . .)” un limite x → . . . è sempre considerato, esplicitamente
indicato o inteso implicitamente dal contesto.
Esercizio 53. Studiare al variare di α ∈ R la convergenza dei seguenti integrali impropri:
Z 1/2
eα(x+1) − e2
1.
dx
1
0
log(x + 1) · log
x
Z 1
(eα(x+2) − e4 ) · log x
2.
dx
√
0
1 − cos x
Z 1
(eα(x+3) − e6 ) · log sin x
3.
dx
arctan x
0
282
Alberto Berretti
√
5
Z
4.
0
5.
3
ex +α − e3
dx
sin(x7/2 )
√
2
Z
0
Analisi Matematica I
2
dx
ex +α − e2
log(1 + x5/2 )
6.5.3. Convergenza assoluta
Z
b
Diremo che l’integrale improprio
dx f (x) (assumiamo che sia improprio, quindi o f è
a
illimitata in [a, b] o l’intervallo considerato è in realtà infinito) è assolutamente convergente
Z b
se è convergente l’integrale improprio
dx| f (x)|, cioè l’integrale improprio di | f (x)| (il
a
valore assoluto di f , da cui l’avverbio “assolutamente”).
Proposizione 31. Se l’integrale improprio di f converge assolutamente, allora converge anche in
senso ordinario.
Dimostrazione. La dimostrazione usa un trucco standard. Ricordiamoci che possiamo sempre
scrivere la funzione f come:
f (x) = f+ (x) − f− (x),
dove f+ , f− sono la parte positiva e la parte negativa di f definite nel secondo capitolo:
f+ (x) = max( f (x), 0) ≥ 0,
f− (x) = − min( f (x), 0) ≥ 0.
Chiaramente:
| f (x)| = f+ (x) + f− (x),
f+ (x), f− (x) ≤ | f (x)|.
pertanto se l’integrale improprio di | f | converge allora convergono anche gli integrali im-
propri di f+ , f− per il criterio del confronto, e quindi converge l’integrale improprio di
f = f+ − f− .
Osservazione 57. Ovviamente non è vero il contrario, e cioè un integrale improprio può
convergere ma non essere convergente assolutamente. Un esempio di questo fatto sarebbe
troppo complicato da fare a questo punto.
Qual è l’utilità del concetto di convergenza assoluta? Questa domanda è purtroppo prematura ed una idea chiara dell’utilità del concetto di convergenza assoluta si potrà avere solo
nel contesto delle serie, che sono “parenti” molto strette degli integrali impropri. Intanti ci
basti considerare che i criteri di convergenza che abbiamo enunciato sopra sono validi solo
per integrali di funzioni positive, e pertanto se abbiamo una funzione che ad es. diverge
oscillando non abbiamo strumenti utili per dimostrare la convergenza o la divergenza di un
suo integrale improprio, amenoché in qualche modo non ne dimostriamo la convergenza
assoluta e cioè ci riconduciamo ad una funzione positiva.
283
7. Serie numeriche
In questo capitolo inizieremo lo studio delle serie, e cioè lo studio delle proprietà delle
“somme infinite” di numeri. Vogliamo cioè dare un senso ad espressioni del tipo:
∞
X
(7.1)
ak .
k=0
Si osservi che mentre una scrittura tipo
Pn
k=0 ak
ha perfettamente senso per ogni n, in quan-
to trattasi della somma di un numero finito di termini, la (7.1) non ha senso perché non
sappiamo cosa vuol dire sommare un numero infinito di numeri. In questo capitolo ci preoccuperemo solo di studiare le proprietà di espressioni come la (7.1) quando i termini della
serie sono espressioni numeriche, senza preoccuparci del fatto se possano o meno dipendere da parametri e quindi senza preoccuparci di come la somma risultante dipende da tali
parametri: quest’ultimo problema è il problema dello studio delle serie di funzioni, in cui
il concetto di convergenza uniforme gioca un ruolo importante, e verrà studiato nel corso di
Analisi Matematica 2.
7.1. Definizione di convergenza e prime proprietà
Come definire dunque una somma infinita di numeri? Il concetto di limite ovviamente ci
viene subito alla mente, per cui definiamo:
∞
X
k=0
an = lim
n→∞
n
X
an .
k=0
In altri termini, sommiamo i primi n termini, e prendiamo il limite per n che tende a ∞ del
risultato. Se tale limite esiste e vale S, si dice che la serie converge ad S. Se tale limite diverge,
∞
X
si dice che la serie diverge. Se tale limite è ±∞ si può scrivere
ak = ±∞
k=0
Osservazione 58. Il fatto che la somma parta da 0 è irrilevante. Può partire da 0, 1, 42 o
quello che ci pare, la definizione di convergenza di una serie è sempre la stessa.
Data la serie (7.1) la quantità:
Sn =
n
X
k=0
284
an
Alberto Berretti
Analisi Matematica I
viene detta somma parziale n-esima della serie; pertanto il valore di una serie convergente è
dato dal limite della successione delle somme parziali:
S=
∞
X
an = lim Sn .
n→∞
k=0
La quantità ak che appare sotto il simbolo di sommatoria viene invece in genere detta termine
generico della serie.
Vediamo ora alcuni esempi di serie convergenti o divergenti.
Esempio 126. Consideriamo la serie
∞
X
k=1
1. Chiaramente Sn = n → ∞ e la serie è divergente.
Esempio 127. Consideriamo la serie:
∞
X
1
k
k=1
,
detta serie armonica. Essendo tutti i termini della serie positivi, la successione delle somme
parziali:
Sn =
n
X
1
k=1
k
è crescente. Nel paragrafo 1.4.2 del capitolo 1 abbiamo dimostrato che:
S2m −1 >
m
,
2
pertanto la successione {Sn } è illimitata. Essendo illimitata e crescente, la successione delle
somme parziali tende a +∞ e la serie è divergente.
Esempio 128. Consideriamo la serie:
∞
X
rk ,
(7.2)
k=0
detta serie geometrica. Nel paragrafo 1.4.2 del capitolo 1 abbiamo dimostrato che:
n
X
k=0
rk =
1 − rn+1
.
1−r
Se dunque |r| < 1 allora rn+1 → 0 quindi:
1
1 − rn+1
=
,
n→∞ 1 − r
1−r
lim
1
. Se invece |r| > 1 allora |rn+1 | → ∞ e quindi la serie
1−r
∞
X
1, le somme parziali sono date da Sn = n + 1 → ∞ e la
diverge. Se r = 1 la serie diventa
e pertanto la serie converge a
k=0
285
Alberto Berretti
Analisi Matematica I
serie diverge. Se infine r = −1 allora si verifica con un po’ di pazienza che le somme parziali
sono date da:




S2m = 0,



S2m+1 = −1;
la successione delle somme parziali chiaramente oscilla senza convergere, per cui la serie è
divergente. In definitiva, la serie geometrica (7.2) converge se |r| < 1 e diverge se |r| ≥ 1.
Osservazione 59. In relazione all’ultimo esempio, si osservi che la somma della serie geometrica, che converge solo per r < 1, è una funzione di r che in realtà è definita anche quando la
serie diverge (non è definita solo per r = 1). Si potrebbe pensare che una serie divergente non
abbia significato, ma in realtà non è cosí. Esistono circonstanze ad es. in Fisica in cui quantità
misurabili empiricamente sono date da serie divergenti, a cui pertanto occorre trovare un
modo per assegnare un senso. Ovviamente si tratta di un argomento avanzato fuori posto
nel corso di Analisi Matematica 1.
Osservazione 60. Raramente abbiamo un modo per calcolare esplicitamente la somma di
una serie. Infatti, in genere non abbiamo nemmeno un modo per calcolare esplicitamente la
successione delle somme parziali. A questo punto, sembrerebbe senza speranza la possibilità
di determinare la convergenza o meno di una serie, in quanto non abbiamo tipicamente
nemmeno l’espressione precisa della successione delle somme parziali (il caso della serie
geometrica visto poco fa è un raro caso fortunato). In realtà, vedremo che abbiamo a
disposizione numerosi criteri per determinare la convergenza o meno di una serie senza
dover calcolare esplicitamente la successione delle somme parziali, e tantomeno il suo valore
in caso converga.
Il risultato piú semplice che possiamo dimostrare sulle serie è dato dal seguente teorema.
Teorema 69. Sia data la serie
∞
X
k=0
ak . Se la serie è convergente, allora ak → 0.
Questo teorema ci fornisce un semplice criterio di divergenza per una serie: se il termine
generico della serie non tende a 0 la serie diverge. Ovviamente se il termine generico della
serie è infinitesimo non è detto che la serie converga: ad es. nel caso della serie armonica vista
1
sopra, il termine generico della serie tende a 0 ma la serie diverge.
k
Dimostrazione. Abbiamo:
an =
n
X
k=0
ak −
n−1
X
k=0
ak = Sn − Sn−1 → S − S = 0.
286
Alberto Berretti
Analisi Matematica I
Esempio 129. Se riprendiamo l’esempio della serie geometrica, vediamo immediatamente
che se r ≥ 1 il termine generico della serie non tende a 0 pertanto la serie diverge, senza
bisogno di fare altri calcoli.
Come abbiamo visto, una serie è essenzialmente un limite. Come tale, tutte le proprietà
pertinenti dei limiti si applicano alle serie. In particolare vale il seguente teorema.
Teorema 70. Siano date le due serie
∞
X
ak e
k=0
• se
∞
X
∞
X
bk . Allora:
k=0
ak converge allora:
k=0
∞
X
αak = α
∞
X
k=0
• se
∞
X
k=0
ak diverge e α , 0 allora
∞
X
ak ;
k=0
αak diverge;
k=0
• se entrambe le serie convergono:
∞
X
(ak + bk ) =
k=0
∞
X
ak +
k=0
∞
X
bk ;
k=0
• la combinazione lineare di due serie convergenti è convergente;
• se una delle due serie converge e l’altra diverge, la somma delle due serie diverge.
Ovviamente non possiamo dire nulla della combinazione lineare di due serie divergenti:
il risultato potrebbe essere convergente o divergente.
Dimostrazione. Si tratta di applicare proprietà elementari dei limiti.
Per quanto riguarda il primo punto, abbiamo:
n
X
αak = α
n
X
ak
k=0
k=0
e passando al limite per n → ∞ otteniamo il risultato.
Per quanto riguarda il secondo punto, ragioniamo in modo identico, osserviamo solo che
se α = 0 allora stiamo sommando 0 e quindi la serie converge banalmente.
Per quanto riguarda il terzo punto, abbiamo:
n
n
n
X
X
X
bk
ak +
(ak + bk ) =
k=0
k=0
287
k=0
Alberto Berretti
Analisi Matematica I
e di nuovo passando al limite per n → ∞ otteniamo il risultato.
Il quarto punto segue immediatamente dal primo e dal terzo.
∞
∞
∞
X
X
X
Il quinti punto è ovvio; sia ad es.
ak convergente e
bk divergente. Se
(ak + bk )
k=0
k=0
fosse convergente, allora la combinazione lineare di due serie convergenti
convergerebbe, ma quest’ultima non è altro che
∞
X
∞
X
k=0
k=0
((ak + bk ) − ak )
bk che per ipotesi diverge.
k=0
7.2. Serie a termini positivi
Le serie a termini positivi (quelle cioè con ak > 0) sono particolarmente semplici, in quanto
la successione delle somme parziali in questo caso è monotona crescente. e quindi la serie
o converge ad una somma finita o diverge a +∞; ad esempio, per il teorema 13 del capitolo
3 se si riesce a dimostrare che la successione delle somme parziali è limitata la serie risulta
convergente, mentre se si riesce a dimostrare che la successione delle somme parziali è
illimitata la serie risulta divergente (abbiamo già usato questo tipo di considerazione per
dimostrare la divergenza della serie armonica poco sopra). Per esse possiamo dunque
enunciare alcuni criteri di convergenza particolarmente semplici ma molto importanti.
Osservazione 61. Ovviamente se una serie ha termini negativi non cambia nulla: l’importante
è che i termini della serie abbiano segno costante. Le modifiche in quanto segue per una serie
a termini negativi sono ovvie.
Osservazione 62. Non è importante che la serie abbia termini positivo ∀k: è sufficiente che
i termini siano positivi ∀k > k0 , cioè a partire da un determinato valore dell’indice. Questo
tipo di argomento l’abbiamo già visto studiando i limiti di successione: ad es., il teorema sui
limiti delle successioni monotone si applica non solo alle successioni monotone per ogni n, ma
anche alle successioni monotone a partire da un certo n0 . Come abbiamo già visto nel capitolo
sui limiti, il limite di una successione non cambia se modifichiamo i primi n0 elementi della
successione, qualsiasi sia n0 , e la somma di una serie non è altro che il limite della successione
delle somme parziali.
7.2.1. Criterio del confronto
Questo criterio è un semplice corollario del criterio del confronto per i limiti di successione.
288
Alberto Berretti
Analisi Matematica I
Teorema 71 (Criterio del confronto per le serie). Sia 0 ≤ ak ≤ bk ∀k > k0 . Allora se
converge allora
∞
X
ak converge, mentre se
∞
X
ak diverge allora
bk
k=0
bk diverge.
k=0
k=0
k=0
∞
X
∞
X
La dimostrazione è praticamente ovvia, l’unica ragione per cui potrebbe risultare leggermente complessa è perché teniamo conto esplicitamente dal fatto che la positività dei termini
e la loro relazione d’ordine valgono a partire da un certo valore k0 dell’indice.
Dimostrazione. Sia {Sn } la successione delle somme parziali per la serie
successione delle somme parziali per la serie
∞
X
∞
X
k=0
ak e {Tn } la
bk . Sia n > k0 ; abbiamo:
k=0
Sn =
n
X
k=0
n
X
ak = Sk0 +
ak ,
Tn =
n
X
k=k0 +1
k=0
k=k0 +1
n
X
bk = Tk0 +
bk ,
n
X
ak =
k=0
k0
X
k=0
ak +
n
X
k=k0 +1
ed entrambe le successioni delle somme parziali sono monotone a partire da k0 . Chiaramente:
Tn − Sn = Tk0 − Sk0 +
n
X
k=k0 +1
|
(bk − ak ) ≥ Tk0 − Sk0 .
{z
}
≥0
Nel primo caso, la serie
per cui:
∞
X
k=0
bk converge e quindi la successione monotona {Tn } è limitata,
Sn ≤
Sk0 − Tk0
| {z }
+Tn ,
termine costante
ed essendo {Tn } limitata anche {Sn } lo è e quindi essendo monotona è convergente.
∞
X
Nel secondo caso, la serie
ak diverge e quindi la successione monotona {Sn } è illimitata,
per cui:
k=0
Tn ≥ Tk0 − Sk0 + Sn ,
ed essendo {Sn } illimitata anche {Tn } lo è e quindi essendo monotona è divergente.
Il criterio del confronto è il criterio piú importante per stabilire la convergenza o la
divergenza delle serie, e sostanzialmente tutti gli altri criteri discendono da esso.
289
Alberto Berretti
Analisi Matematica I
7.2.2. Criterio del confronto asintotico
La seguente variante del criterio del confronto è particolarmente semplice da applicare.
Teorema 72 (Criterio del confronto asintotico per le serie). Sia ak , bk > 0. Abbiamo allora:
1. se ak ∼ bk e
2. se ak ∼ bk e
∞
X
ak converge allora anche
ak diverge allora anche
k=0
3. se ak = o(bk ) e
∞
X
∞
X
∞
X
bk diverge;
k=0
bk converge allora anche
k=0
4. se ak = o(bk ) e
bk converge;
k=0
k=0
∞
X
∞
X
∞
X
ak converge;
k=0
ak diverge allora anche
k=0
∞
X
ak diverge.
k=0
Dimostrazione. Si tratta di scrivere la relazione asintotica tra ak e bk ed applicare il criterio del
confronto.
l
ak
→ l > 0 per k → ∞. Se prendiamo ε =
bk
2
nella definizione di limite, abbiamo dunque che ∃k0 tale che se k > k0 allora:
Nel primo e nel secondo caso, abbiamo che
l
3l
a
< k < ,
2 bk
2
cioè:
Quindi se
l
3l
bk < ak < bk .
2
2
∞
X
ak converge utilizziamo la prima disuguaglianza nella (7.3), se
k=0
(7.3)
∞
X
ak diverge
k=0
utilizziamo la seconda, e facciamo uso del criterio del confronto.
a
a
Nel terzo caso, k → 0 quindi ∃k0 tale che se k > k0 allora k < 1 (prendere ε = 1 nella
bk
bk
definizione di limite), e quindi per k > k0 ak < bk ed il risultato segue dall’applicazione del
teorema del confronto.
Nel quarto caso, ragioniamo come nel terzo, ma usiamo la disuguaglianza nel senso
opposto: per k > k0 vale bk > ak , ed il risultato segue dall’applicazione del teorema del
confronto.
7.2.3. Criterio del confronto con l’integrale improprio
Infine, molti casi importanti a cui poi ci si riconduce facendo uso dei teoremi del confronto
sopra dimostrati si possono determinare in modo semplice facendo il confronto con un
integrale improprio.
290
Alberto Berretti
Analisi Matematica I
Teorema 73 (Criterio del confronto con l’integrale improprio). Per k ≥ k0 sia ak = f (k), dove
∞
X
ak converge se
f (x) è definita per x ≥ k0 , f (x) > 0 e monotona decrescente. Allora la serie
k=0
Z ∞
l’integrale improprio
dx f (x) converge e diverge se l’integrale improprio diverge.
k0
Figura 7.1.: Il criterio del confronto con l’integrale improprio
Dimostrazione. Se k ≥ k0 , allora avendo ak = f (k) ed essendo f (x) monotona decrescente, vale
la disuguaglianza:
∀x ∈ [k, k + 1] : f (x) ≤ ak = f (k) ≤ f (x − 1).
Inoltre f è integrabile essendo monotona, e poiché f > 0 la sua primitiva F deve essere
monotona crescente. Pertanto F(x) tende a limite finito per x → ∞ se l’integrale improprio
Z
∞
dx f (x) converge e tende a +∞ se l’integrale improprio diverge.
k0
Supponiamo ora che l’integrale improprio converga. Abbiamo allora:
Sn = Sk0 −1 +
n
X
k=k0
Z
ak ≤ Sk0 −1 +
n+1
dx f (x) = Sk0 −1 + F(n + 1) − F(k0 ),
k0
che è limitata perché F lo è, per cui la serie converge.
Se invece l’integrale improprio diverge, possiamo procedere come segue:
Sn = Sk0 +
n
X
k=k0 +1
Z
ak ≥ Sk0 +
n+1
k0 +1
dx f (x − 1) = Sk0 + F(n) − F(k0 ),
che tende a +∞ perché a questo tende F, per cui la serie diverge.
291
Alberto Berretti
Analisi Matematica I
Esempio 130. Abbiamo già considerato la serie geometrica
∞
X
rk . Se 0 < r < 1 il criterio del
k=0
confronto asintotico ci fornisce direttamente la convergenza della serie, essendo il seguente
integrale improprio:
Z
∞
1
Z
∞
x
dx r =
1
dx e−x·log(1/r)
convergente (log(1/r) > 0 perché 0 < r < 1).
Esempio 131 (Serie armonica generalizzata). Consideriamo la serie:
∞
X
1
.
kα
(7.4)
k=1
1
non tende a 0 (tende a ∞ se α < 0 e ad 1 se α = 0) e quindi la serie diverge.
kα
Consideriamo quindi α > 0. Applichiamo il criterio del confronto con l’integrale improprio
1
prendendo f (x) = α . Sappiamo dalla teoria degli integrali improprio che l’integrale improx
Z ∞
1
prio
dx α converge se α > 1 e diverge se α < 1, per cui anche la serie (7.4) converge se
x
1
α > 1 e diverge se α ≤ 1.
Se α ≤ 0
Esempio 132. Consideriamo la serie:
∞
X
1
k=2
k logβ k
.
log|β| k
1
> e per il criterio del confronto (con la serie
β
k
k
k log k
armonica) la serie considerata diverge. Consideriamo pertanto β > 0. Applichiamo
Z ∞ il criterio
1
,
del confronto con l’integrale imprioprio, utilizzando l’integrale improprio
dx
x logβ x
2
che abbiamo considerato nell’esempio 119 del capitolo 6. Facendo riferimento al risultato di
Se β < 0 allora per k > 2
1
=
quell’esempio, otteniamo che la serie converge se β > 1 e diverge se β < 1.
7.3. Convergenza assoluta
Cosa si può dire sulla convergenza delle serie arbitrarie, i cui termini hanno segno qualsiasi?
In generale, molto poco, in quanto la convergenza può dipendere da cancellazioni arbitrarie
fra termini qualsiasi, rendendo il problema di determinare la convergenza di una serie
arbitraria un problema potenzialmente molto complesso.
Lo strumento principale che abbiamo per dimostrare la convergenza di una serie qualsiasi
consiste nel ricondurci al caso di serie a termini positivi, introducendo la convergenza assoluta.
292
Alberto Berretti
Diremo che la serie
Analisi Matematica I
∞
X
ak converge assolutamente se converge la serie
k=0
∞
X
k=0
con i valori assoluti del termine generico ak .
|ak |, formata
Proposizione 32. Ogni serie assolutamente convergente è convergente.
Questa proposizione, se vista esclusivamente con gli occhi della lingua italiana, è fastidiosamente ovvia: dopotutto abbiamo espresso un concetto – quello di convergenza assoluta –
aggiungendo un aggettivo (“assoluta”) – al sostantivo “convergenza”. Si tratta però di una
questione puramente linguistica, e l’utilizzo di un semplice aggettivo vicino a “convergenza”
è proprio giustificato dal fatto che vale tale proposizione. Quindi c’è effettivamente qualcosa
da dimostrare.
Dimostrazione. Utilizzeremo la parte positiva e la parte negativa di ak . Poniamo:
bk = max(ak , 0),
ck = − min(a)k, 0).
Allora:
ak = bk − ck ,
|ak | = bk + ck ,
come si verifica immediatamente. Abbiamo:
0 ≤ bk ≤ |ak |,
0 ≤ ck ≤ |ak |,
∞
∞
X
X
e quindi per il criterio del confronto convergono le serie
bk e
ck . Quindi converge
anche la serie
∞
X
k=0
(bk − ck ) =
∞
X
k=0
ak .
k=0
k=0
Osservazione 63. Se però una serie è convergente, non è detto che sia assolutamente convergente. Quindi per dimostrare la convergenza di una serie possiamo tentare la strada
della convergenza assoluta: ma se la serie in questione non fosse assolutamente convergente,
potrebbe convergere ugualmente. In altri termini, la convergenza assoluta e’ una condizione
sufficiente, ma non necessaria, per la convergenza. Nel prossimo paragrafo vedremo alcuni
esempi di serie convergenti ma non assolutamente convergenti.
7.4. Serie a segni alterni
Una famiglia di serie non a termini positivi la cui convergenza è spesso facile da determinare
è quella delle serie a segni alterni:
∞
X
k=0
(−1)k ak ,
con ak ≥ 0.
Per questo tipo di serie vale il seguente criterio di convergenza.
293
Alberto Berretti
Analisi Matematica I
Teorema 74 (Criterio di Leibniz). Sia {ak } una successione positiva che converge monotonicamente
a 0:
Allora la serie
ak ≥ 0,
∞
X
(−1)k ak converge.
ak ց 0.
k=0
Dimostrazione. Consideriamo le due successioni delle somme parziali di un numero dispari
di termini {S2n+1 } e di un numero pari di termini {S2n }. Facciamo vedere che ciascuna è una
successione monotona limitata e quindi convergente, e concludiamo facendo vedere che i
due limiti sono lo stesso limite.
Abbiamo:
S2n+1 = (a0 − a1 ) + (a2 − a3 ) + . . . + (a2n − a2n+1 ),
| {z } | {z }
| {z }
>0
>0
>0
da cui si vede subito che si tratta di una successione crescente, in quanto per ottenere il
termine seguente dobbiamo sommare a2n+2 − a2n+3 che è positivo come tutte le altre coppie
di termini che abbiamo raggruppato in parentesi (per la decrescenza di {ak }). Inoltre:
S2n+1 = a0 − (a1 − a2 ) − (a3 − a4 ) − . . . − (a2n−1 − a2n ) −a2n+1 < a0 ,
| {z }
| {z } | {z }
>0
>0
>0
sempre grazie alla decrescenza di {ak }. Quindi ∃α: S2n+1 → α.
Analogamente, abbiamo:
S2n = a0 − (a1 − a2 ) − (a3 − a4 ))> 0 − . . . − (a2n−1 − a2n ),
| {z } | {z }
| {z }
>0
>0
per cui {S2n } è una successione decrescente, ed inoltre:
S2n = (a0 − a1 ) + (a2 − a3 ) + . . . + (a2n−2 − a2n−1 ) +a2n > 0,
|
{z
}
| {z } | {z }
>0
>0
>0
per cui ∃β: S2n → β.
Quindi:
|β − α| = lim |S2n+1 − S2n | = lim a2n+1 = 0,
n→∞
n→∞
per cui α = β e quindi l’intera successione Sn converge, cioè la serie converge.
∞
(−1)k X
(−1)k
= 1 ց
Esempio 133. La serie armonica a segni alterni
è convergente: infatti k k
k
k=1
0 e quindi le ipotesi del criterio di Leibniz sono verificate. Si osservi che la serie non converge
assolutamente.
294
Alberto Berretti
Analisi Matematica I
In questo caso, ci possiamo anche permettere il lusso di calcolare esplicitamente il valolre
della serie. Consideriamo infatti la formula di Taylor con resto di Lagrange per la funzione
− log(1 + x). Facendo riferimento all’esempio 71 del capitolo 4 abbiamo:
n
X
(−1)k
− log(1 + x) =
Prendiamo x = 1; allora:
|Rn+1 (1)| =
e chiaramente |Rn+1 (1)| ≤
k
k=1
ξn+1
,
n+1
+ Rn+1 (x).
ξ ∈ (0, 1),
1
→ 0 per n → ∞, da cui otteniamo immediatamente:
k+1
∞
X
(−1)k
k=1
Esempio 134. Consideriamo la serie:
k
∞
X
xk
k=1
Se |x| > 1 la serie diverge: infatti in questo caso
necessaria per la convergenza.
= − log 2.
k
.
xk
9 0 e quindi non è verificata la condizione
k
Se |x| < 1 la serie converge: infatti se |x| < 1 allora ∃c: |x| < c < 1 e:
k
xk x
ck
=
.
k
c
k
|{z} |{z}
(A)
(B)
Ora, il fattore (A) tende a 0 esponenzialmente, ed il fattore (B) tende a 0 anche esso ed è
pertanto limitato:
(B) ≤ C,
pertanto:
k
xk x
≤ C ,
k
c
x
e quindi la serie converge per il confronto con la serie geometrica di ragione < 1. Si
c
osservi che avento fatto uso dei valori assoluti, la convergenza è assoluta.
Se x = 1, la serie coincide con la serie armonica ed è quindi divergente. Se x = −1 la serie
coincide con quella dell’esempio precedente, e quindi converge ma non assolutamente.
In definitiva, possiamo dire che la serie considerata converge assolutamente se x ∈ (−1, 1)
e converge se x ∈ [−1, 1).
295
Alberto Berretti
Analisi Matematica I
7.5. Riordinamento dei termini delle serie
Le serie assolutamente convergenti godono di molte importanti proprietà. Consideriamo ad
esempio il seguente problema: cosa succede se sommo i termini di una serie convergente
in un ordine diverso? la somma ordinaria, e cioè di un numero finito di termini, gode delle
proprietà associativa e commutativa, per cui se devo sommare n termini, lo posso fare in
qualsiasi ordine. Se ne ho infiniti (ovvero se ho una serie), cosa succede se riarrangio l’ordine
dei termini? la serie continua a convergere, e a convergere al medesimo valore, oppure il suo
comportamento cambia?
Vediamo un esempio. Abbiamo prima calcolato il valore della serie armonica a segni
alterni; segue banalmente:
∞
X
(−1)k+1
k=1
k
= log 2
(cambiando segno ad ambo i membri). Proviamo a sommare questa serie ordinando i
termini in un modo diverso: invece che prendere alternativamente un termine positivo ed
uno negativo, prendiamo un termine positivo e due negativi; otteniamo allora:
1−
1 1 1 1 1 1
1
1
1
1
1
− + − − + −
−
+ −
−
+ ... =
2 4 3 6 8 5 10 12 7 14 16
1
1
1
1
1 1
1
1
1
1
1
−
+
−
+
−
+
−
+ ... =
−
−
−
= 1−
2
4
3 6
8
5 10
12
7 14
16
1 1 1 1
1
1
1
1
= − + − +
−
+
−
+ ... =
2 4 6 8 10 12 14 16
log 2
1 1 1 1 1 1 1
1
1 − + − + − + − + ... =
=
,
2
2 3 4 5 6 7 8
2
e cioè un valore diverso! Quindi in generale non possiamo riordinare i termini di una serie mantenendo
necessariamente il suo valore. Questo fatto, che appare paradossale, deve in realtà apparire
come una cosa naturale: la somma di una serie non è una somma ordinaria, ma un limite.
Se riordiniamo i termini della serie, stiamo facendo il limite di un’altra successione, e pertanto
non vi è nessuna ragione a priori per cui debba venire lo stesso risultato.
In realtà si può dimostrare il Teorema di Riemann del riordinamento, che afferma che data una serie
convergente ma non assolutamente convergente, esiste sempre un riordinamento dei suoi termini tali
che essa converga a qualsivoglia numero, o che diverga.
Fortunatamente, nel caso delle serie assolutamente convergenti i termini della serie possono essere riordinati senza cambiare il valore della serie. Abbiamo bisogno prima della
seguente proposizione.
Proposizione 33. Sia
∞
X
ak una serie convergente a termini positivi. Allora ogni suo riordinamento
k=0
converge al medesimo limite.
296
Alberto Berretti
Dimostrazione. Sia
Analisi Matematica I
n
X
ak = Sn ,
n
X
ap(k) = Tn , dove p(k) è una funzione biunivoca di N in N
k=0
k=0
(il riordinamento degli indici). Per ipotesi, Sn ր S e quindi anche An ≤ S. Vogliamo ora
dimostrare che Tn ≤ S. Infatti, ∀K ∈ N ∃M ∈ N tale che:
{p(1), p(2), . . . , p(K)} ⊂ {1, 2, . . . , M}
(basta infatti prendere M = max(p(1), p(2), . . . , p(n))). Quindi evidentemente Tn ≤ SM ≤ S.
Ne segue che Tn ր T ≤ S: la serie riordinata converge anch’essa a T ≤ S. Ma possiamo
considerare a sua volta la prima serie come il riordinamento della seconda, ottenuto mediante
una funzione biunivoca di N in N che sia la funzione inversa della p(·). Applicando il
medesimo ragionamento, avremmo allora S ≤ T, pertanto deve essere S = T.
Siamo ora pronti per dimostrare il caso generale.
Teorema 75. Sia
∞
X
ak una serie assolutamente convergente ad S. Allora per ogni riordinamento
k=0
p(·) : N 7→ N dei suoi termini, la serie
∞
X
ap(k) converge assolutamente al medesimo valore S.
k=1
Dimostrazione. Innanzitutto dobbiamo dimostrare che anche la serie riordinata è assolutamente convergente, ma questo è facile. Sia infatti:
An =
n
X
k=0
|ak |,
Bn =
n
X
k=0
|ap(k) |.
An è positiva, crescente e convergente: An ր A pertanto An ≤ A, cioè An è limitata. Ma Bn è
ottenuto sommando alcuni dei termini che contribuiscono alla somma di un Aq , per qualche
q, pertanto Bn ≤ Aq ≤ A, e quindi anche Bn è limitata. Essendo crescente, ammette limite,
quindi anche la serie riordinata è assolutamente convergente, e quindi convergente.
Poniamo ora bk = max(ak , 0), ck = − min(ak , 0). Allora ak = bk − ck , e, argomentando come
∞
∞
X
X
nella dimostrazione della proposizione 32, abbiamo che le serie
bk e
ck sono convergenti
k=0
k=0
e a termini positivi. Pertanto ad esse si può applicare la proposizione 33. Quindi:
∞
X
k=0
ap(k) =
∞
X
k=0
bp(k) −
∞
X
cp(k) =
∞
X
k=0
k=0
bk −
∞
X
k=0
ck =
∞
X
ak .
k=0
297
Alberto Berretti
Analisi Matematica I
7.6. I criteri della radice e del rapporto
I seguenti due criteri sono molto semplici e forniscono spesso una soluzione al problema di
determinare se una serie a termini positivi è convergente, o se una serie qualsiasi è assolutamente convergente. Come tutti i “criteri” vanno applicati con cautela: dalla dimostrazione si
capirè immediatamente come tali criteri non siano altri che un metodo per applicare il criterio
del confronto con la serire geometrica in modo “organizzato”, senza fare esplicitamente le
stime; bene, non tutte le serie si studiano facendo il confronto con la serie geometrica, ed in
molti casi (la maggioranza, crediamo) è piú facile fare direttamente il confronto che applicare
meccanicamente il criterio della radice o del rapporto alla serie cosí come è stata data.
Osserviamo inoltre che un enunciato completo e corretto di questi criteri richiederebbe l’uso
del concetto di limite superiore, che noi abbiamo considerato come un argomento opzionale e
non fa parte integrante del corso.
7.6.1. Il criterio della radice
Iniziamo con la seguente semplice proposizione.
Proposizione 34. Sia
∞
X
ak una serie a termini positivi. Allora:
k=0
• se lim
√k
ak = l < 1 la serie converge,
• se lim
√k
ak = l > 1 la serie diverge.
k→∞
k→∞
Si osservi che se l = 1 il criterio non è di utilità alcuna.
Dimostrazione. La dimostrazione è semplicissima. Nel primo caso, abbiamo:
∀ε > 0 ∃K : k > K ⇒ l − ε <
√k
ak < l + ε;
prendiamo ε cosí piccolo che l + ε = l̃ < 1, ed otteniamo che per k > K ak < l̃k , e poiché l̃ < 1
la convergenza segue tal criterio del confronto (con la serie geometrica).
Nel secondo caso, invece, abbiamo sempre:
∀ε > 0 ∃K : k > K ⇒ l − ε <
√k
ak < l + ε;
ma l > 1 pertanto scegliamo ε cosí piccolo che l − ε = l̃ > 1; quindi per k > K abbiamo
ak > l̃k e la serie diverge per il criterio del confronto (sempre con la serie geometrica, stavolta
divergente).
In realtà non è nemmeno necessario che il limite esista. Vale infatti il seguente risultato.
298
Alberto Berretti
Analisi Matematica I
∞
X
Proposizione 35. Sia
ak una serie a termini positivi. Supponiamo che esista K tale che ∀k > K
k=0
√k
√
ak ≤ l < 1: allora la serie converge. Se invece esiste K tale che ∀k > K k ak ≥ l > 1 allora la serie
diverge.
Dimostrazione. Nel primo caso abbiamo ak ≤ lk per k > K da cui la convergenza segue per il
criterio del confronto. Nel secondo caso abbiamo ak ≥ lk per k > K da cui la divergenza segue
sempre per il criterio del confronto.
7.7. Il criterio del rapporto
Il criterio del rapporto può essere utile per studiare serie che contengono fattoriali.
Proposizione 36. Sia
P∞
k=0 ak
una serie a termini strettamente positivi (cioè ak > 0). Allora:
ak+1
= l < 1 la serie converge,
k→∞ ak
• se lim
ak+1
= l > 1 la serie diverge.
k→∞ ak
• se lim
ak+1
= l allora:
k→∞ ak
Dimostrazione. Se lim
∀ε > 0 ∃K : k > K ⇒ (l − eps)ak < ak+1 < (l + eps)ak .
Consideriamo il primo caso. Allora essendo l < 1 possiamo prendere ε cosí piccolo che
l̃ = l + ε < 1. Quindi per k > K:
ak < l̃ak−1 < l̃2 ak−2 < . . . < l̃k−K aK ,
ed essendo l̃ < 1 la convergenza segue dal confronto con la serie geometrica.
Consideriamo il secondo caso. Allora essendo l > 1 possiamo prendere ε cosí piccolo che
l̃ = l − ε > 1. Quindi per k > K:
ak > l̃ak−1 > l̃2 ak−2 > . . . > l̃k−K aK ,
ed essendo l̃ > 1 la convergenza segue dal confronto con la serie geometrica.
299
8. Introduzione alle equazioni differenziali ordinarie
In generale, una equazione differenziale è una equazione la cui incognita è una funzione (o
piú funzioni, nel caso di sistemi di equazioni differenziali) che appare anche sotto il segno di
derivata (del primo ordine o di ordini superiori). Se la funzione incognita è una funzione di
piú variabili e nell’equazione appaiono le sue derivate parziali rispetto a piú di una variabile,
si parla di equazione differenziale alle derivate parziali, mentre se la funzione appare derivata
solo rispetto ad una variabile (ad es. perché è una funzione di una sola variabile) si parla di
equazione differenziale ordinaria. Le equazioni differenziali alle derivate parziali sono in genere
piú difficili da studiare ed in questa brevissima introduzione all’argomento non verranno
mai menzionate.
Lo studio delle equazioni differenziali è una delle parti principali dell’Analisi Matematica,
e ne costituisce una delle motivazioni piú importanti. Infatti, l’Analisi Matematica moderna
nasce dalla constatazione che le leggi della natura si esprimono in termini, appunto, di
equazioni differenziali: si pensi alla legge di Newton ma = F, che collega la derivata seconda
del vettore posizione con il vettore forza agente su un punto materiale, o si pensi nella teoria
dell’elettromagnetismo alle equazioni di Maxwell, che costituiscono un sistema di equazioni
alle derivate parziali per i campi elettrico e magnetico.
Lo studio anche elementare delle equazioni differenziali non può prescindere da alcuni
concetti di Analisi Matematica che verranno studiati nel corso di Analisi Matematica 2, pertanto in questo capitolo daremo solo una breve presentazione dell’argomento, introducendo
un po’ di terminologia e illustrando alcuni metodi di soluzione di alcune famiglie di equazioni differenziali. Deve però essere ben chiaro che i metodi di soluzione esatta delle equazioni
differenziali sono un problema secondario: nella maggior parte dei casi pratici, quello che
conta non è saper risolvere “esattamente” (ovvero, come si suol dire, “in forma chiusa”)
l’equazione differenziale, ma saper ricavare dall’equazione differenziale alcune proprietà
della soluzione, a partire ovviamente dalla sua esistenza ed eventuale unicità, per arrivare a
problemi piú complessi ma estremamente importanti nelle applicazioni pratiche come quelli
relativi alla stabilità delle soluzioni rispetto a piccole variazioni delle condizioni iniziali, dei
parametri che possono apparire nell’equazione o rispetto a variazioni della forma funzionale
dell’equazione. Si tratta di problemi spesso oggetto, a tutt’oggi, di intensa attività di ricerca
e ricchi di applicazioni pratiche.
300
Alberto Berretti
Analisi Matematica I
8.1. Definizioni
Sia x(t) : I ⊂ R 7→ R una funzione differenziabile a valori reali definita su un intervallo I.
Una equazione differenziale ordinaria del primo ordine è una relazione:
F(t, x, x′ ) = 0.
Se tale relazione è del tipo:
x′ = f (t, x)
allora l’equazione differenziale viene detta risolta rispetto alla derivata. Se F o f sono
indipendenti da t, l’equazione differenziale è indipendente dal tempo o autonoma.
D’ora in poi considereremo (quasi) esclusivamente equazioni differenziali risolte rispetto
alla derivata (quelle non risolte rispetto alla derivata possono presentare delle difficoltà
aggiuntive di cui non vogliamo proprio preoccuparci in questa fase).
Una equazione differenziale di ordine n è una relazione del tipo:
F(t, x, x′ , . . . , x(n) ) = 0,
dove naturalmente assumiamo che x sia almeno n volte differenziabile. Una equazione
differenziale di ordine n è risolta rispetto alla derivata se è della forma:
x(n) = f (t, x, x′ , . . . , x(n−1) )
ed è autonoma se non dipende da t.
Un sistema di equazioni differenziali (del primo ordine, risolte rispetto alle derivate) è
un sistema di equazioni del tipo:



′


x1 = f1 (t, x1 , . . . , xn ),




... ... ... ...






x′m = fm (t, x1 , . . . , xn ).
è praticamente evidente che una singola equazione differenziale di ordine n è sempre riconducibile ad un sistema di n equazioni differenziali del primo ordine; infatti, se l’equazione
di ordine n è data da:
x(n) = f (t, x, x′ , . . . , x(n−1) ),
possiamo porre:



y1 = x,






′


 y2 = x ,




... ...






 yn = x(n−1) ,
301
Alberto Berretti
ed ottenere dunque:
Analisi Matematica I



′

 y1 = y2 ,






y′2 = y3 ,






... ...







y′n−1 = yn ,






 y′n = f (t, y1 , y2 , . . . , yn−1 ).
Questo è importante per gli sviluppi della teoria perché vuol dire che invece che dimostrare
teoremi di carattere generale per ciascun tipo di equazione differenziale ordinaria basta dimostrare tali teoremi solo per i sistemi di equazioni differenziali del primo ordine, potendoci
sempre ricondurci ad essi.
Ci interessa in particolare il seguente tipo di problema. Sia U ⊂ Rn un aperto, e sia
v(x, t) : U × R 7→ Rn differenziabile. v(x, t) è un campo vettoriale su U. Consideriamo dunque
il sistema di equazioni differenziali:



′


x1 = v1 (x1 , . . . , xn , t),




... ... ...






x′n = vn (x1 , . . . , vn , t).
(8.1)
La determinazione di una soluzione ϕ : (t1 , t2 ) ⊂ R 7→ U (cioè di una funzione di t ∈ (t1 , t2 )
a valori in U che soddisfi le (8.1)), tale che per un certo t̄ ∈ (t1 , t2 ) valga ϕ(t̄) = x̄ per un
certo x̄ ∈ U, ovvero la determinazione di una soluzione che per un certo valore fissato t̄
della variabile indipendente assume un valore prescritto, viene detta problema di Cauchy
o problema alle condizioni iniziali per il sistema (8.1). Una tale soluzione viene detta
traiettoria passante per il punto x̄ al “tempo” t̄. Si osservi che l’esistenza di una soluzione per
il problema di Cauchy, e la sua unicità, sono, in generale, ben lungi dall’essere evidenti. La curva
percorsa in U dalla traiettoria ϕ(t) al variare di t viene detta orbita.
Osservazione 64. Tenderemo a pensare alla variabile indipendente t come un “tempo” e
alla variabile dipendente x come alla posizione, o alla configurazione, di un sistema in un
certo istante di tempo, sistema la cui “dinamica” ha per modello l’equazione differenziale
considerata. In un contesto del genere, l’insieme U in cui ha luogo la dinamica del sistema
considerato viene chiamato spazio delle fasi.
Il risultato principale nella teoria delle equazioni differenziali ordinarie, che a questo livello
non ci sogniamo nemmeno di dimostrare, è il seguente.
302
Alberto Berretti
Analisi Matematica I
Dato un sistema di n equazioni differenziali del primo ordine in n funzioni
incognite x1 , . . . , xn :



′


x1 = v1 (x1 , . . . , xn ),




... ... ...






x′n = vn (x1 , . . . , vn ),
dove v : U 7→ Rn , U ⊂ Rn aperto, v tale che le sue componenti siano funzioni
continue con derivate parziali continue, allora per ogni condizione condizione
iniziale x(t̄) = x̄ esiste una unica soluzione definita in un intorno di t̄.
In altri termini, se x̄ ∈ U, allora il problema di Cauchy x′ = v(x), x(t̄) = x̄ ammette una unica
soluzione x = ϕ(t, x̄), definita in un intorno di t̄ (eventualmente molto piccolo), e dipendente
peraltro in modo continuo dalla condizione iniziale x̄, purché v soddisfi delle ipotesi piuttosto
blande di regolarità. Formulato in tale linguaggio, tale risultato resta vero anche se il campo
vettoriale dipende da t e sotto ipotesi su v leggermente meno forti della differenziabilità.
Per una singola equazione differenziale, il problema di Cauchy si può scrivere nel modo
seguente:


′


x (t) = f (x(t), t),



x(t0 ) = x0 .
(8.2)
Il risultato sopra citato ci garantisce che, se la funzione f (x, t) è una funzione continua con
derivate parziali continue (in realtà è sufficiente una condizione leggermente piú debole),
almeno in un intorno di t0 (sulla cui dimensione nulla possiamo dire, allo stato attuale delle
cose) esiste una unica soluzione x = ϕ(t; x0 ), una funzione di t che ovviamente dipende dal
parametro x0 , la condizione iniziale. Si può dimostrare che tale soluzione, sotto le ipotesi
sopra indicate per f , dipende in modo continuo dal parametro x0 .
Osservazione 65. Il problema della dipendenza dalle condizioni iniziali è un problema di
importanza cruciale nelle applicazioni delle equazioni differenziali ai fenomeni concreti. In
ogni problema concreto, il dato iniziale è sempre conosciuto con una certa precisione che non è
mai assoluta, pertanto è importantissimo sapere cosa succede alla soluzione se “spostiamo”
leggermente la condizione iniziale nello spazio delle fasi (problema della stabilità delle
soluzioni). Altrettanto importante, nel caso di equazioni differenziali che dipendono da
qualche parametro, è sapere cosa succede quando variamo il parametro, ovvero sapere come
dipende la soluzione da eventuali parametri dai quali dipende la funzione f (x, t) (problema
della stabilità strutturale).
303
Alberto Berretti
Analisi Matematica I
È possibile scrivere in altro modo il problema di Cauchy (8.2) (in realtà anche il problema
di Cauchy per sistemi di equazioni) nel modo seguente:
Z
t
ds f (x(s), s).
x(t) = x0 +
(8.3)
t0
Si tratta di una equazione integrale, cioè di una equazione la cui soluzione è una funzione
che appare anche sotto il segno di integrale. È immediato verificare che la (8.3) è equivalente
al problema di Cauchy (8.2): infatti la verifica che la x(t) soddisfa la condizione iniziale è
ovvia (se t = t0 l’integrale è nullo), e derivando termine a termine otteniamo esattamente
l’equazione differenziale.
Perché scrivere l’equazione differenziale in termini di una equazione integrale, quando
tipicamente le equazioni integrali sono piú difficili da studiare e da risolvere delle equazioni
differenziali? La ragione sta nel fatto che a partire dalla (8.3) possiamo ricavare una successione di funzioni xn t che, sotto le blande ipotesi di regolarità per f che abbiamo sopra
menzionato, approssimano la soluzione x(t) convergendo ad essa (e fornendo quindi la chiave per dimostrare il risultato sopra citato). Tale successione di approssimanti della soluzione
è ottenuta nel modo seguente.
Poniamo:
x0 (t) = x0 ,
e quindi:
(la costante che costituisce la condizione initiale)
Z
Z
t
x1 (t) = x0 +
ds f (x0 , s),
t
x2 (t) = x0 +
t0
ds f (x1 (s), s),
...,
t0
ovvero:
Z
t
xn (t) = x0 +
ds f (xn−1 (s), s).
t0
È allora perlomeno intuitivamente chiaro che se possiamo scambiare il limite per n → ∞ con
l’integrale (un grosso se), allora se il limite per n → ∞ di xn (t) esiste (altro grosso se), tale
limite soddisfa l’equazione integrale (8.3) e quindi è soluzione del problema di Cauchy
(8.2). Purtroppo, per trasformare i due se in certezze occorrono alcune nozioni di Analisi
Matematica che trovano il loro posto nel corso di Analisi Matematica 2.
E però evidente che, se non specifichiamo la condizione iniziale, allora avremo soluzioni
distinte per ogni possibile condizione iniziale che avremmo potuto scegliere. In altri termini,
se non specifichiamo la condizione iniziale, la soluzione che otteniamo va a dipendere da
una costanti arbitrarie, che sarebbe fissata da una scelta della condizione iniziale.
Per sistemi di equazioni differenziali, ovvero quando lo spazio delle fasi ha piú di una dimensione, valgono considerazioni assolutamente identiche e gli argomenti sopra accennati vengono
304
Alberto Berretti
Analisi Matematica I
ripetuti in modo assolutamente identico, aggiungendo trasformando scalari in vettori quando necessario. In particolare, se abbiamo un sistema di n equazioni differenziali del primo
ordine ovvero una singola equazione differenziale di ordine n, le condizioni iniziali che dovremo specificare sono n (e cioè le n coordinate del punto iniziale nello spazio delle fasi U),
e quindi se non specifichiamo la condizione iniziale avremo una soluzione che dipenderà da
n costanti arbitrarie.
La soluzione del problema di Cauchy, in cui la condizione iniziale è determinata, prende
talvolta il nome di soluzione particolare, mentre quando non specifichiamo la condizione
iniziale ed abbiamo dunque un certo numero di costanti arbitrarie nella soluzione si parla di
soluzione generale.
Ad esempio, nel caso di equazioni differenziali del secondo ordine abbiamo che il problema
di Cauchy si scrive come:




x′′ = f (t, x, x′ ),






x(t0 ) = x0 ,






x′ (t0 ) = v0 ,
dove (x0 , v0 ) sono due costanti che ci danno rispettivamente i valori di x ed x′ quando t = t0 .
Tale equazione è eqivalente al sistema di due equazioni del primo ordine seguente:




x′ = v,




 ′

v = f (t, x, v),






x(t0 ) = x0 , v(t0 ) = v0 .
Lo spazio delle fasi ha dimensione 2 ed il numero di costanti arbitrarie che appare nella
soluzione generale dell’equazione differenziale x′′ = f (t, x, x′ ) è dunque 2.
Vediamo ora alcuni esempi elementari di equazioni differenziali ed alcune tecniche semplici per la loro soluzione.
8.2. Separazione delle variabili
La seguente procedura formale è quasi l’unico modo per risolvere le equazioni differenziali
(l’altro caso di risolubilità esplicita essendo quello delle equazioni differenziali lineari).
Consideriamo:
x′ = f (x)g(t).
Allora:
dx
= g(t)dt,
f (x)
305
Alberto Berretti
Analisi Matematica I
e quindi:
Z
dx
=
f (x)
Z
g(t)dt.
(8.4)
Calcolando due integrali indefiniti otteniamo:
F(x) = G(t),
ed invertendo la funzione F determiniamo la soluzione.
Questa procedura ovviamente ha poco senso: cosa vuol dire infatti che x′ = dx/dt trattato
come un normale rapporto? cosa vuol dire dx/ f (x) e g(t)dt senza segno di integrale? e cosí
via. . . Tuttavia tale metodo “funziona”, nel senso che effettivamente fornisce la soluzione
dell’equazione considerata, per cui va preso sul serio.
Consideriamo dunque il problema di Cauchy:


′


x = f (x)g(t),



x(t0 ) = x0 ,
(8.5)
dove f (x) è una funzione differenziabile definita in I ⊂ R, intervallo aperto contenente x0 ,
e g(t) è una funzione differenziabile definita in J ⊂ R, intervallo aperto contenente t0 . Una
tale equazione differenziabile viene detta a variabili separabili, e la procedura euristica che
porta a (8.4) viene detta separazione delle variabili.
Proposizione 37. Se f (x0 ) , 0, allora esiste una soluzione di (8.5) che soddisfa:
Z
x(t)
x0
dy
=
f (y)
Z
t
ds g(s)
(8.6)
t0
Dimostrazione. La condizione iniziale è banalmente soddisfatta. Se f (x0 ) , 0, allora f (x) , 0
per x in un intorno di x0 e quindi l’integrale a sinistra nella (8.6) è ben definito, perlomeno
per x in un intorno di x0 . Derivando la (8.6) rispetto a t otteniamo immediatamente:
x′ (t)
= g(t),
f (x(t))
e quindi x(t) soddisfa la (8.5).
Consideriamo ora il caso f (x0 ) = 0. è allora evidente che x(t) = x0 è una soluzione di
(8.5). Se f (x) è differenziabile, allora per il risultato generale che dimostreremo nel capitolo
seguente e che abbiamo citato prima, tale soluzione è unica. In effetti, se f (x) è differenziabile
in un intorno di x0 , allora f (x) = O(|x − x0 |) per x → x0 e quindi l’integrale improprio:
Z x
dy
f
x0 (y)
306
(8.7)
Alberto Berretti
Analisi Matematica I
diverge. Se però, non essendo f (x) differenziabile in x0 , f (x) tende a zero per x → x0 piú
lentamente di |x − x0 | – ad es. come |x − x0 |β , 0 < β < 1 – allora l’integrale improprio (8.7)
converge e quindi abbiamo due soluzioni distinte del problema di Cauchy (8.5): una costante,
ed una data dalla procedura di separazione delle variabili. Si noti che in tal caso f (x) non
soddisfa le ipotesi necessarie per far valere il già citato risultato generale.
Esempio 135. Consideriamo x′ = x2/3 , x(0) = 0. Allora x(t) = 0 è soluzione, ma abbiamo
anche:
Z
x
0
dy
=
y2/3
Z
t
ds,
0
ovvero:
3x1/3 = t,
da cui:
x(t) =
t 3
3
,
che è pure soluzione del problema di Cauchy ma è ovviamente distinta dalla soluzione
costante.
8.3. Equazioni differenziali lineari a coefficienti costanti
ATTENZIONE: In questo paragrafo la nozioni di spazio vettoriale, di dipendenza ed indipendenza
lineare di vettori e di base di uno spazio vettoriale giocano un ruolo importante.
Una equazione differenziale lineare di ordine n è una equazione della forma:
an (t)x(n) + · · · + a1 (t)x′ + a0 (t)x = b(t).
Se b(t) = 0, allora l’equazione è omogenea. Se i coefficienti ak (t), k = 0, . . . , n, sono delle
costanti, allora l’equazione è a coefficienti costanti. Lo studio delle equazioni differenziali lineari a coefficienti non costanti è in generale potenzialmente molto difficile. Noi ci
limiteremo dunque a studiare le equazioni differenziali lineari a coefficienti costanti.
Consideriamo dunque:
n
X
ak x(k) (t) = 0.
(8.8)
k=0
La funzione x(t) può essere a valori in R, e le costanti ak reali, oppure a valori in C, e le
costanti ak complesse. Quest’ultimo caso, piú generale, risulta essere piú facile da risolvere
per le ragioni che ora vedremo.
La seguente proposizione è elementare ma esprime una delle proprietà piú importanti
delle equazioni differenziali lineari.
307
Alberto Berretti
Analisi Matematica I
Proposizione 38 (Principio di sovrapposizione). L’insieme di tutte le soluzioni di (8.8) è uno
spazio vettoriale reale o complesso (a seconda del campo a cui appartengono i coefficienti ak e la x(t))
di dimensione n. In altri termini, l’equazione (8.8) possiede n soluzioni linearmente indipendenti.
Dimostrazione. Se x1 , x2 sono soluzioni di (8.8) allora anche λ1 x1 + λ2 x2 , λ1 , λ2 ∈ R o C, lo
è, perché la moltiplicazione per una costante e la derivata sono operazioni lineari. Inoltre,
poiché (8.8) è equivalente ad un sistema di n equazioni lineari del primo ordine, il cui secondo
membro è un campo vettoriale lineare e quindi differenziabile su Rn o Cn , ne segue che il
problema di Cauchy ha soluzione unica, e quindi la soluzione generale dipende da n costanti
arbitrarie (reali o complesse). Dunque lo spazio vettoriale delle soluzioni ha dimensione n
ed è generato da n soluzioni linearmente indipendenti.
Per dimostrare la proposizione abbiamo fatto uso del risultato generale citato sopra sull’esistenza ed unicità delle soluzioni del problema di Cauchy, risultato che però non abbiamo
dimostrato. Con molta fatica, è possibile ottenere direttamente una dimostrazione del principio di sovrapposizione, ma non vale la pena quando esiste un modo semplice per dimostrarlo
che si basa su principi generali comunque importanti. Si osservi che la parte difficile non è
dimostrare che se x1 e x2 sono soluzioni allora ogni combinazione lineare è pure soluzione,
ma il fatto che le soluzioni linearmente indipendenti sono in numero uguale all’ordine n
dell’equazione differenziale, e cioè che se x1 , . . ., xn+1 sono soluzioni queste non possono
essere tutte linearmente indipendenti.
Conviene far uso di una scrittura simbolica molto comoda. Indichiamo con D l’operatore
derivata, e cioè l’operazione di derivazione di una funzione:
(Dx)(t) = x′ (t).
Indichiamo quindi con D2 , D3 , . . ., Dn l’applicazione successiva due, tre, n volte della derivata
e quindi la derivata seconda, terza, n-esima. Possiamo allora scrivere l’equazione (8.8) nel
modo seguente:
Lx = 0,
dove L =
Pn
k=0 ak D
k
è un operatore differenziale lineare a coefficienti costanti di ordine
n; L è lineare perché:
L(λ1 x1 + λ2 x2 ) = λ1 Lx1 + λ2 Lx2 ,
e viene detto differenziale perché costruito mediante l’operatore derivata D : x 7→ x′ , e median-
te moltiplicazioni per costanti (reali o complesse). Noi indicheremo con LR o LC l’insieme
di tutti gli operatori differenziali lineari a coefficienti costanti rispettivamente in R o in C.
308
Alberto Berretti
Analisi Matematica I
È immediato verificare che, dal punti di vista algebrico, l’insieme degli operatori differenziali
lineari si comporta esattamente come l’insieme dei polinomi in una variabile. Infatti dati due operatori differenziali lineari a coefficienti costanti L1 e L2 anche una qualsiasi loro combinazione
lineare è un operatore differenziale lineare a coefficienti costanti, che si ottiene dal punto
di vista del calcolo pratico come la somma di due polinomi, trattando D come se fosse la
variabile. Analogamente se interpreto L1 · L2 , il prodotto di due operatori differenziali lineari
a coefficienti costanti, come l’applicazione successiva dei due operatori ad una funzione, con
alcune semplici considerazioni che lasciamo al lettore si verifica subito che l’operatore prodotto si calcola di nuovo come il prodotto di due polinomi nella variabile D (in particolare, il
prodotto è commutativo, cosa che non è valida nel caso in cui i coefficienti non siano costanti
perché ad es. la moltiplicazione per t e la derivata D rispetto a t non commutano!).
Se l’algebra di LR e di LC è identica all’algebra dei polinomi in una variabile rispettivamen-
te reale o complessa, tutte le operazioni e tutti i teoremi di natura algebrica che conosciamo
per i polinomi continuano a valere per gli operatori differenziali lineari a coefficienti costanti.
Possiamo dunque fattorizzare gli operatori differenziali lineari a coefficienti costanti come se fossero
ordinari polinomi; ad es.:
x′′ − 5x′ + 6x = (D2 − 5D + 6)x = (D − 3)(D − 2)x = (x′ − 2x)′ − 3(x′ − 2x).
Il compito di risolvere l’equazione Lx = 0 è facilitato se fattorizziamo L:
L = L1 L2 . . . Lm ,
in fattori non ulteriormente riducibili Lk . Per le considerazioni svolte pocanzi sulla struttura
algebrica dell’insieme degli operatori differenziail lineari a coefficienti costanti, se fattorizziamo un operatore L a coefficienti reali in operatori non ulteriormente fattorizzabili (“irriducibili”) a coefficienti reali Lk , gli Lk hanno ordine 1 o 2, mentre se fattorizziamo un operatore
a coefficienti complessi in operatori irriducibili a coefficienti complessi quest’ultimi hanno
ordine 1 (si tratta delle ben note proprietà della fattorizzazione dei polinomi reali o complessi). Poiché l’operazione di moltiplicazione tra tali operatori è commutativa, basta dunque
risolvere (8.8) quando L è del primo ordine nel caso complesso, e quando L è del primo o del
secondo ordine nel caso reale. Infatti se Li x̄ = 0 allora:
L1 . . . Li . . . Lm x̄ = L1 . . . Li−1 Li+1 . . . Lm Li x̄ = 0.
|{z}
0
Per questa ragione è piú facile risolvere la (8.8) se ci poniamo in C, cosa dunque che
inizialmente faremo.
309
Alberto Berretti
Analisi Matematica I
Poiché le soluzioni di (D − λ)x = 0 sono proporzionali a eλt , risolviamo la (8.8) nel caso
complesso ponendo x = eλt e ricavando un’equazione algebrica per λ, detta equazione
caratteristica:
n
X
k=0
ovvero:
λk eλt · ak = 0,
n
X
ak λk = 0,
(8.9)
k=0
poiché eλt , 0 ∀t, λ. Abbiamo allora la seguente proposizione.
Proposizione 39. Se l’equazione algebrica di grado n (8.9) ha n radici λ1 , . . . , λn distinte, allora la
soluzione generale della (8.8) è data da:
x(t) =
n
X
ck eλk t ,
k=1
Dimostrazione. Il polinomio P(λ) =
Pn
k
k=0 ak λ
ck ∈ C.
(8.10)
∈ C[λ] che appare nell’equazione caratteristica
corrisponde nell’isomorfismo sopra menzionato all’operatore L. Quindi se P(λ) = ak (λ − λ1 ) ·
· · · · (λ − λn ), allora:
L = ak (D − λ1 ) · · · · · (D − λn ).
Quindi le funzioni xk (t) = eλk t sono n soluzioni di (8.8), palesemente linearmente indipendenti
perché i λk sono distinti. Quindi per il principio di sovrapposizione la (8.10) è una soluzione
di (8.8) che dipende da n costanti complesse arbitrarie c1 , . . . , cn , e quindi è la soluzione
generale.
Verifichiamo ora che il problema di Cauchy Lx = 0 con condizioni iniziali x(0) = x0 , . . . , x(n−1) (0) =
(n−1)
x0
ha, nell’ipotesi della proposizione, esattamente una soluzione della forma (8.10), mentre se vi
sono radici uguali allora devono apparire termini di tipo diverso. Imponendo le condizioni iniziali
alla (8.10) otteniamo il sistema lineare:




c1 + c2 + · · · + cn = x0 ,




(1)


λ1 c1 + λ2 c2 + · · · + λn cn = x0 ,




... ... ...





(n−1)

n−1
λn−1
c1 + λn−1
,
2 c2 + · · · + λn cn = x0
1
di matrice caratteristica:

 1
1

 λ
λ2
 1
Λn = 
. . . . . . . . .

 n−1
λ1
λn−1
2

1 

...
λn 
 ;
. . . . . . . .

. . . λnn−1
(8.11)
...
(8.12)
è di immediata verifica che det Λn è un polinomio omogeneo di grado n(n − 1)/2 completamente
antisimmetrico nelle n variabili λ1 , . . . , λn , detto determinante di Vandermonde.
310
Alberto Berretti
Analisi Matematica I
Lemma 7. det Λn = 0 se e solo se due delle λk sono uguali; inoltre:
Y
det Λn =
(λi − λ j ).
(8.13)
i> j
Dimostrazione. Se λi = λ j , i , j, allora due colonne di (8.12) sono uguali e quindi il determinante è
nullo. L’asserzione inversa segue dalla (8.13), che ora dimostriamo.
La (8.13) vale per det Λ2 = λ2 − λ1 come si può verificare immediatamente (e anche per det Λ1 = 1,
poiché una produttoria vuota è 1 per convenzione). Ragioniamo dunque per induzione, assumendo
la (8.13) valida per det Λn e dimostrandola allora per det Λn+1 . Utilizziamo lo sviluppo di Leibnitz di
det Λn+1 secondo la prima riga:
det Λn+1 =
n+1
X
(−1)k−1
Y
k=1
λl
(A) =
Y
i> j
(8.14)
i> j
i, j,k
l,k
Vogliamo dimostrare:
Y
(λi − λ j ) = (A).
(λi − λ j ).
(8.15)
Ma ciascun termine nella sommatoria della (8.14) contiene tutti e soli i termini nello sviluppo di
det Λn+1 che non contengono λk ; d’altra parte, se in (8.15) raccogliamo tutti i termini che non contengono
λk , 1 ≤ k ≤ n+ 1, otteniamo esattamente il termine generico della sommatoria in (8.14), come si verifica
immediatamente.
Quindi, se λ1 , . . . , λn sono tutte distinte allora det Λn , 0 ed ogni condizione iniziale dà luogo ad
un’unica soluzione della forma (8.10). Se invece abbiamo radici multiple, det Λn = 0, il codominio
della matrice Λn non è tutto Cn e quindi esistono delle condizioni iniziali che danno luogo a soluzioni
diverse dalla (8.10).
Se λ1 , . . . , λn non sono tutte distinte, le soluzioni della forma (8.10) formano uno spazio
vettoriale di dimensione minore di n. Occorre dunque trovare soluzioni di un altro tipo; per
capire quale, consideriamo un caso concreto.
Esempio 136. Consideriamo:
x′′ − 2ax′ + a2 x = 0.
(8.16)
Abbiamo dunque L = D2 −2aD+a2 = (D−a)2 per cui il polinomio caratteristico P(λ) = (λ−a)2
ha una radice doppia a.
Verifichiamo con un calcolo diretto che:
x1 (t) = eat ,
x2 (t) = teat
sono due soluzioni (ovviamente linearmente indipendenti!) di (8.16), per cui la soluzione
generale è data da:
x(t) = (c1 + c2 t)eat .
311
Alberto Berretti
Analisi Matematica I
Infatti, x1 è banalmente soluzione; per quanto riguarda x2 , abbiamo:
at
x′′
2 = (2 + at)ae ,
x′2 = (1 + at)eat ,
− 2ax′2 + a2 x2 = 0 identicamente.
e quindi x′′
2
Questo suggerisce il seguente teorema.
Teorema 76. Sia data l’equazione differenziale lineare omogenea a coefficienti costanti di ordine n:
Lx =
n
X
ak Dk x = 0,
k=0
ak ∈ C, an , 0.
Siano λ1 , . . . , λp , p ≤ n, le radici distinte del polinomio caratteristico:
PL (λ) =
n
X
ak λk ,
k=0
di molteplicità rispettivamente α1 , . . . , αp , α1 +· · ·+αp = n. Allora la soluzione generale dell’equazione
è data da:
x(t) =
p
X
Ck (t)eλk t ,
k=1
dove Ck (t), k = 1, . . . , p, sono polinomi in t di grado αk − 1.
Tale teorema si riduce alla proposizione 39 se le molteplicità delle radici α1 , . . . , αp sono tutte
1 (e quindi p = n), perché allora i polinomi “di grado 0” sono delle semplici costanti complesse;
inoltre il teorema dà il numero giusto di costanti arbitrarie: infatti ciascun polinomio di grado
αk − 1 contiene αk costanti arbitrarie, e quindi in totale abbiamo α1 + · · · + αp = n costanti
arbitrarie.
Dimostrazione. Fattorizziamo L ∈ C[D]:
L = an (D − λ1 )α1 · · · (D − λp )αp .
Se yk (t) è tale che (D − λk )αk yk (t) = 0 allora vale anche Lyk (t) = 0, perché la moltiplicazione tra
operatori differenziali lineari è una operazione commutativa e quindi possiamo riarrangiare
i fattori nella fattorizzazione di L come ci pare, allo stesso modo che nella dimostrazione
della proposizione 39. Basta quindi dimostrare che le yk (t) sopra introdotte sono della forma:
yk (t) = Ck (t)eλk t ,
dove Ck (t) è un polinomio di grado αk − 1.
312
Alberto Berretti
Analisi Matematica I
Sia P(t) un polinomio di grado r; allora D − λ applicato alla funzione P(t)eλt dà Q(t)eλt ,
dove Q(t) è un polinomio di grado r − 1:
(D − λ)(tr + . . . )eλt = (rtr−1 + . . . )eλt + (λtr + . . . )eλt +
+ (−λtr + . . . )eλt = (. . . )eλt ,
dove i puntini di sospensione . . . indicano termini di grado ≤ r − 1.
Quindi applicando D − λk αk volte a Ck (t)eλk t otteniamo 0. La tesi segue per linearità.
Il caso reale è leggermente piú complicato perché, non essendo R algebricamente chiuso,
un polinomio in R[D] non può essere sempre fattorizzato in un prodotto di binomi lineari ma
al piú in un prodotto di binomi lineari e trinomi quadratici irriducibili. Potremmo procedere
restando sempre in R determinando la soluzione generale dell’equazione (D2 + aD + b)α x = 0,
dove (D2 + aD + b) è irriducibile, ma sarebbe inutilmente complicato; infatti è molto piú
semplice, e spesso utile, procedere come segue:
1. “complessifichiamo” l’equazione considerandola come una equazione a coefficienti
complessi e condizioni iniziali complesse, “casualmente” reali;
2. determiniamo n soluzioni complesse linearmente indipendenti su C (applicando il
teorema 76);
3. scriviamo la soluzione generale complessa, che dipende da n costanti complesse, cioè
2n reali: troppe per l’equazione reale di partenza, che deve dipendere da n costanti reali
arbitrarie;
4. imponiamo che la soluzione generale trovata sia reale, determinanto delle relazioni che
devono essere soddisfatte dalle n costanti complesse, riducendo il numero di quelle
complesse a n costanti reali.
Tutto ciò è piú facile a farsi che a dirsi, per cui vediamo qualche esempio concreto.
Esempio 137 (Oscillatore armonico). Consideriamo l’equazione:
x′′ + ω2 x = 0.
Il polinomio caratteristico è:
λ2 + ω2 = 0,
le cui radici sono λ1,2 = ±ω. La soluzione complessa è:
x(t) = C1 eiωt + C2 e−iωt ,
313
Alberto Berretti
Analisi Matematica I
dove:
C1 = C′1 + iC′′
1 ∈ C,
C2 = C′2 + iC′′
2 ∈ C.
Poiché la soluzione deve essere reale per condizioni iniziali reali, deve essere:
Im(x(t)) = 0,
che implica:
′
′′
C′1 sin ωt + C′′
1 cos ωt − C2 sin ωt + C2 cos ωt = 0,
ovvero:
C′1 = C′2 ,
′′
C′′
1 = −C2 ,
e cioè:
C2 = C∗1 .
Quindi:
x(t) = 2C′1 cos ωt − 2C′′
1 sin ωt = A cos ωt + B sin ωt,
dove A, B ∈ R sono costanti reali arbitrarie. Osserviamo che è possibile porre:
x(t) = C sin(ωt + γ).
Esercizio 54. Scrivere C e γ in termini di A e B e viceversa; determinare le costanti A, B (e C,
γ) in termini delle condizioni iniziali.
Esempio 138 (Oscillatore armonico smorzato). Consideriamo l’equazione:
x′′ + 2γx′ + ω2 x = 0
(γ > 0).
Il polinomio caratteristico è:
λ2 + 2γλ + ω2 = 0,
il cui discriminante è γ2 − ω2 . Distinguiamo i tre casi:
1. γ2 − ω2 > 0: smorzamento supercritico,
2. γ2 − ω2 < 0: smorzamento sottocritico,
3. γ2 − ω2 = 0: smorzamento critico.
314
Alberto Berretti
Analisi Matematica I
Caso 1 – Abbiamo due radici reali:
q
λ1,2 = γ ±
negative perché
forma reale:
γ2 − ω2 < 0,
p
γ2 − ω2 < γ. Essendo reali, la soluzione puè essere scritta direttamente in
√
√ 2 2
2
2
x(t) = Aeλ1 t + Beλ2 t = eγt Ae γ −ω t + Be− γ −ω t ,
dove A, B ∈ R sono costanti arbitrarie.
Caso 2 – Abbiamo due radici complesse coniugate:
q
λ1,2 = γ ± i ω2 − γ2 .
La soluzione complessa è:
√
√
2
2
2
2
x(t) = eγt C1 ei ω −γ t + C2 e−i ω −γ t ;
procedendo come nell’esempio precedente, otteniamo la soluzione reale nella forma:
q
q
x(t) = eγt A cos ω2 − γ2 t + B sin ω2 − γ2 t .
Caso 3 – Abbiamo una radice reale di molteplicità 2:
λ = −ω.
Possiamo scrivere direttamente l’equazione reale nella forma:
x(t) = (A + Bt)e−ωt .
Consideriamo ora il caso non omogeneo:
Lx = b.
(8.17)
In pratica, basta determinare una soluzione particolare x̄ della (8.17) e la soluzione generale
dell’equazione omogenea associata Lx = 0 per determinare la soluzione generale di (8.17):
infatti, se Lx̄ = b e Ly = 0, allora L(x̄ + y) = Lx̄ + Ly = b e quindi x̄ + y – che dipende dal
numero corretto di costanti arbitrarie – è la soluzione generale di (8.17).
Per determinare una soluzione particolare di una equazione lineare non omogenea esistono
svariati metodi (serie e trasformate di Fourier, trasformate di Laplace, etc.), molto importanti
sia nelle applicazioni che dal punto di vista teorico. Il loro studio, però, esce dai limiti che ci
siamo prefissi.
315
Alberto Berretti
Analisi Matematica I
Esempio 139 (Il metodo degli annichilatori). Sia b(t) tale che esiste un operatore differenziale
lineare a coefficienti costanti A (l’“annichilatore”) tale che Ab = 0. Allora una soluzione di
Lx = b è anche soluzione di ALx = 0, che è omogenea. Se n è l’ordine di L e p è l’ordine
di A, AL ha ordine n + p per cui la soluzione dell’equazione omogenea ALx = 0 dipende
– linearmente! – da n + p costanti arbitrarie: imponendo che tale soluzione soddisfi anche
Lx = b otteniamo p equazioni lineari in tali costanti, che risolte ne determinano p in termini
delle altre n. Pertanto in tal caso la soluzione di una equazione inomogenea viene ridotta
alla soluzione di una equazione omogenea di ordine superiore e di un sistema di equazioni
lineari.
Esempio 140 (Oscillatore armonico forzato). Come applicazione di questo metodo, consideriamo l’equazione:
x′′ + 2γx′ + ω2 x = α sin βt.
(8.18)
In questo caso L = D2 + 2γD + ω2 D e A = D2 + β2 .
Consideriamo prima γ , 0. In tal caso il polinomio caratteristico di L ha radici con parte
reale non nulla mentre il polinomio caratteristico di A ha radici con parte immaginaria nulla,
per cui il polinomio caratteristico di AL, che è il prodotto dei due, non può avere radici
doppie che non siano anche radici doppie del polinomio caratteristico di L. La soluzione di
ALx = 0 pertanto ha la forma:
x(t) = x0 (t) + C1 sin βt + C2 cos βt,
(8.19)
dove x0 (t) è la soluzione generale di Lx = 0, che abbiamo ricavato precedentemente. Sostituendo (8.19) in (8.18) otteniamo:
Lx0 + C1 L sin βt + C2 L cos βt = α sin βt.
Quindi:
da qui ricaviamo:


2
2


2γβC1 + (ω − β )C2 = 0,



(ω2 − β2 )C1 − 2γβC2 = α;

α(ω2 −β2 )



C1 = (ω2 −β2 )2 +4γ2 β2 ,



C2 = − 2 2αβγ
.
(ω −β2 )2 +4γ2 β2
(8.20)
Se γ > 0, allora limt→+∞ x0 (t) = 0, e quindi per t sufficientemente grande l’unica “componente” della soluzione apprezzabile è il contributo dovuto al “termine forzante” b(t), di
ampiezza:
|α|
A= p
(ω2 − β2 )2 + 4γ2 β2
316
Alberto Berretti
Analisi Matematica I
(oscillazioni forzate). In figura 8.1 abbiamo l’andamento dell’ampiezza delle oscillazioni
forzate al variare della frequenza β del termine forzante nel caso |γ| < ω, cioè di smorzamento
sottocritico; si noti il massimo per β2 = ω2 − γ2 (risonanza).
Figura 8.1.: Curva di risonanza nel caso dello smorzamento sottocritico
In figura 8.2 abbiamo l’andamento dell’ampiezza delle oscillazioni forzate al variare di
β nel caso |ga| < ω, cioè di smorzamento supercritico; il caso dello smorzamento critico è
analogo.
Figura 8.2.: Curva di risonanza nel caso dello smorzamento supercritico
Se γ = 0, β , ω allora tutto procede come sopra e possiamo utilizzare le medesime
formule (8.20) utilizzate nel caso γ , 0. Se però γ = 0, β = ω, allora otteniamo uno zero
a denominatore nelle 8.20 che quindi perdono validità. Ciò è legato al fatto che nel caso
317
Alberto Berretti
Analisi Matematica I
che stiamo considerando L e A hanno radici – ±β = ±ω – uguali, quindi nella soluzione di
LAx = 0 appaiono termini diversi da quelli che appaiono nelle soluzioni di Ax = 0.
Esercizio 55. Calcolare le soluzioni di 8.18 nel caso γ = 0, β = ω.
Esercizio 56. Calcolare le soluzioni generali di:
1. x′′ − 5x′ + gx = 2e3t ,
2. x′′ + ω2 x = αt sin βt.
318
319
Alberto Berretti
Analisi Matematica I
A. Tabella delle lettere greche
α, A
alpha
la maiuscola è uguale alla “A” latina
β, B
beta
la maiuscola è uguale alla “B” latina
γ, Γ
gamma
δ, ∆
delta
ε, E
epsilon
la maiuscola è uguale alla “E” latina
ζ, Z
zeta
la maiuscola è uguale alla “Z” latina
η, H
eta
la maiuscola è uguale alla “H” latina
θ, Θ
theta
ι, I
iota
κ, K
kappa
λ, Λ
lambda
µ, M
mu
la maiuscola è uguale alla “M” latina
ν, N
nu
la maiuscola è uguale alla “N” latina
ξ, Ξ
csi
o, O
omicron
π, Π
pi
ρ, P
rho
σ, Σ
sigma
τ, T
tau
la maiuscola è uguale alla “T” latina
υ, Y
upsilon
la maiuscola è uguale alla “Y” latina
ϕ, Φ
phi
χ, X
chi
ψ, Ψ
psi
ω, Ω
omega
la maiuscola è uguale alla “I” latina
la maiuscola è uguale alla “K” latina
uguali alle “o”, “O” latine
la maiuscola è uguale alla “P” latina
ς non si usa in matematica
la maiuscola è uguale alla “X” latina
320
Scarica