Si parla spesso di differenziale di una funzione: si tratta di un’applicazione lineare che rende vera una certa uguaglianza. Ma che cosa sono, in generale, i differenziali? Quei “$dx$” che troviamo negli integrali, che cosa indicano? In questo articolo cercheremo di dare una risposta a questi interrogativi.
Lo spazio euclideo $n-$dimensionale $\mathbb{R}^n$ possiede una base canonica, formata dai versori fondamentali, che chiamiamo $\mathbf{e}_1$, $\mathbf{e}_2$, $\dots$, $\mathbf{e}_n$ (nello spazio tridimensionale si chiamano, di norma, $\mathbf{i}$, $\mathbf{j}$ e $\mathbf{k}$); in questa base, poniamo che lo spazio $\mathbb{R}^n$ abbia coordinate $(x_1, \dots, x_n)$. Come ogni spazio vettoriale, $\mathbb{R}^n$ possiede uno spazio duale, $(\mathbb{R}^n)^*$, lo spazio delle applicazioni lineari su $\mathbb{R}^n$: la base duale di $\mathbf{e}_1, \dots, \mathbf{e}_n$ verrà denotata con $dx_1, \dots, dx_n$. Questo significa che, dato un vettore $\underline{v}$ di componenti $ v_1, \dots , v_n$ (sulla base $\mathbf{e}_i$), $dx_i (\underline{v}) = v_i$, ossia $dx_i$ restituisce l’$i-$esima componente di un vettore.
Una forma differenziale su $\mathbb{R}^n$ è una funzione $\omega$ che a ciascun punto $P$ di $\mathbb{R}^n$ associa un’applicazione lineare $\omega_P$ (che dipende dal punto). Quindi possiamo dire che una forma differenziale su $\mathbb{R}^n$ è una funzione del tipo$$ \omega: \mathbb{R}^n \longrightarrow \left(\mathbb{R}^n\right)^*$$Ricordiamo che un campo vettoriale associa a un punto di $\mathbb{R}^n$ un vettore, mentre le forme differenziali associano applicazioni lineari, anche note come covettori. Come vedremo, esiste un legame profondo tra forme differenziali e campi vettoriali. Ad ogni modo, così come i campi vettoriali possono essere scritti in componenti, così per una forma differenziale $\omega$ su $\mathbb{R}^n$ è possibile determinare dei coefficienti $\omega_i$ tali per cui $\omega = \sum_{i=1}^n \omega_i dx_i$: questi coefficienti sono effettivamente $n$ funzioni di $n$ variabili reali, cioè applicazioni da $\mathbb{R}^n$ a $\mathbb{R}$. Quindi una forma differenziale può identificarsi con i suoi coefficienti $\omega_i$, una volta fissata la base $\mathbf{e}_1, \dots, \mathbf{e}_n$. Una forma differenziale $\omega$ si dice continua o di regolarità $\mathcal{C}^k$, ecc., se lo sono, rispettivamente, tutti i suoi coefficienti. Infine, se $P$ è un punto di $\mathbb{R}^n$ e $v$ un vettore sempre di $\mathbb{R}^n$, l’espressione $\omega_P (v)$ indica l’applicazione lineare $\omega_P$ applicata al vettore $v$; se abbiamo a disposizione le componenti di $\omega$ e di $v$, abbiamo che $\omega_P (v) = \omega_1 (P) v_1 + \dots +\omega_n (P) v_n$.
Come abbiamo anticipato campi vettoriali e forme differenziali sono strettamente legati. Facciamo subito un esempio.
Sia $f$ una funzione da $\mathbb{R}^n$ a $\mathbb{R}$, e richiediamo che sia differenziabile. Chiamiamo differenziale della funzione $f$, e lo indichiamo con $df$, la forma differenziale che ha per coefficienti le derivate parziali della funzione: avremo dunque $df_i = \frac{\partial f}{\partial x_i}$, ossia, in una formula:$$ df= \sum_{i=1}^n \frac{\partial f}{\partial x_i} dx_i$$Ricordiamo che il gradiente di una funzione $f$ differenziabile è il campo vettoriale che ha per componenti le derivate parziali di $f$, cioè $ \nabla f= \sum_{i=1}^n \frac{\partial f}{\partial x_i} \mathbf{e}_i$: a parte il fatto che sono uno il duale dell’altro, gradiente e differenziale sono “praticamente” la stessa cosa.
Potremmo anche cercare di interpretare i coefficienti di una forma differenziale come le componenti di un campo vettoriale; così facendo, però, perdermmo che una forma differenziale può essere applicata a un vettore, punto per punto, come un covettore, mentre un campo vettoriale questa caratteristica non la possiede.
Così come è importante sapere quando un campo vettoriale è il gradiente di una funzione (guardiamo ad esempio al mondo della fisica: avremmo in questo caso un campo conservativo), allo stesso modo è importante sapere quando una certa forma differenziale è il differenziale di una funzione. Questo perchè è importante sapere che ci sono forme differenziali che non sono il differenziale di una funzione.
Ad esempio consideriamo la forma differenziale $\omega = y \ dx + dy$, definita su $\mathbb{R}^2$. Se fosse il differenziale di una funzione $f$, dovremmo avere $\nabla f = (y,1)$, ossia dovrebbe essere verificato il sistema$$\begin{cases} \displaystyle{\frac{\partial f }{\partial x}} = y \\ \displaystyle{\frac{\partial f}{\partial y}} = 1 \end{cases}$$Questo è un sistema di equazioni alle derivate parziali, che è legato alle equazioni differenziali, ma è in generale molto più complicato da risolvere. Però in questo caso siamo fortunati: dalla seconda equazione, integrando rispetto ad $y$, otteniamo necessariamente che $f(x,y) = y + h(x)$, dove $h(x)$ è una opportuna funzione (incognita) che dipende solo da $x$. Sostituendo questa espressione per $f$ nella prima equazione, troviamo $h’(x) = y$, che dipendendo $h$ solo da $x$ è impossibile. Quindi $\omega = y \ dx + dy$ non può essere il differenziale di nessuna $f: \mathbb{R}^2 \rightarrow \mathbb{R}$.
Distinguiamo le forme differenziali che sono il differenziale di una funzione dicendo che sono forme esatte: più precisamente una forma differenziale $\omega$ su $\mathbb{R}^n$ è esatta, o è un differenziale esatto, su un aperto $A \subset \mathbb{R}^n$ se $\omega$ è continua su $A$ ed esiste una funzione $f$ da $\mathbb{R}^n$ a $\mathbb{R}$, definita e differenziabile su $A$, tale che $ \omega = df$. In un’unica espressione,$$ \omega \text{ esatta su } A \leftrightarrow \omega \in \mathcal{C}^0(A) \quad \text{ e } \exists f: \mathbb{R}^n \rightarrow \mathbb{R} \text{ tale che } df = \omega.$$Una tale $f$ si dice potenziale di $\omega$ (su $A$). Si noti la dipendenza dall’insieme $A$, che giocherà un ruolo fondamentale nel seguito.
Così come le funzioni di più variabili reali, anche le forme differenziali possono essere integrate lungo curve. Se $\phi: [a,b] \rightarrow \mathbb{R}^n$ è una curva regolare e $\omega$ è una forma differenziale in $\mathbb{R}^n$, definita su un aperto contente il sostegno di $\phi$, definiamo l’integrale curvilineo della forma $\omega$ lungo la curva $\phi$ come$$ \int_{\phi} \omega = \int_a^b \omega_{\phi(t)} \left(\phi’ (t) \right) \ dt $$Notare nell’espressione a sinistra la mancanza, tipica degli altri integrali di linea, dell’elemento di lunghezza d’arco infinitesimo “$ds$”: un differenziale, per così dire, l’abbiamo già a disposizione, la forma $\omega$. L’integrale a destra invece è un ordinario integrale di Riemann: la forma $\omega$ associa al punto $\phi(t)$ sul sostegno della curva il covettore $\omega_{\phi(t)}$; questo covettore viene applicato al vettore tangente alla curva, $\phi’ (t)$. Se abbiamo a disposizione i coefficienti $\omega_i$ della forma differenziale e le componenti $\phi_i$ della curva, l’integrale può essere riscritto in termini di componenti:$$ \int_\phi \omega = \int_a^b \sum_{i=1}^n\omega_i (\phi(t)) \ \phi’_i (t) \ dt$$Un concetto analogo, valido per i campi vettoriali, è il lavoro di un campo lungo una curva (o la circuitazione, nel caso in cui la curva sia chiusa), che usualmente viene calcolato mediante il teorema di Stokes.
A differenza di quanto accade per le funzioni, l’integrale di linea di una forma differenziale lungo curve equivalenti non è sempre lo stesso: l’unica cosa che cambia è il segno. Più precisamente, siano $\phi$ e $\psi$ due curve equivalenti. Allora, se $\psi$ ha la stessa orientazione di $\phi$, avremo che $\int_\phi \omega = \int_\psi \omega$; se invece $\psi$ e $\phi$ hanno orientazioni opposte $\int_\phi \omega = - \int_\psi \omega$.
Ora enunciamo un importante proposizione che lega differenziali esatti e i loro integrali curvilinei.
Sia $\phi: [a,b] \rightarrow \mathbb{R}^n$ una curva regolare, e sia $\omega$ una forma differenziale definita e continua in un aperto contenente il sostegno di $\phi$. Se $\omega$ è esatta in $A$, con potenziale $f$ su $A$, allora$$ \int_\phi \omega = \int_\phi df = f \left( \phi(b) \right) - f \left( \phi(a) \right)$$
In altre parole, questa proposizione afferma che l’integrale di una forma differenziale esatta lungo una curva dipende solo dagli estremi di una curva. Ricorda molto il teorema fondamentale del calcolo integrale, ed infatti si può dimostrare usando proprio questo risultato.
Quanti sono i possibili potenziali di una forma differenziali? Sappiamo dai corsi precedenti di analisi che le primitive di una funzione reale di una variabile reale differiscono tra loro di una costante. Sussite una simile proposizione per le forme differenziali, ma dobbiamo aggiungere un’ipotesi fondamentale sulla forma dell’insieme su cui $\omega$ è esatta (che nel caso delle funzioni è fatta passare sotto il tappeto):
Sia $\omega$ una forma differenziale definita, continua e esatta su una aperto connesso $A$ di $\mathbb{R}^n$, e siano $f$ e $g$ due potenziali di $\omega$ su $A$. Allora $f$ e $g$ differiscono solo per una costante, ossia esiste $c \in \mathbb{R}$ tale che $f = g + c$.
Ricordiamo che un insieme aperto connesso è un sottoinsieme di $\mathbb{R}^n$ che non possa essere scritto come unione disgiunta di due aperti non banali: in simboli, diciamo che $A\subset\mathbb{R}^n$ è connesso se non esistono $B,C \subset \mathbb{R}^n$ tali che $\emptyset \neq B,C \neq A$, $\overline{B} \cap C = \emptyset$ e $B \cap \overline{C} = \emptyset$.
Questa ipotesi è irrinunciabile: ad esempio, proviamo a cercare un potenziale per la forma differenziale $\omega = \frac{1}{x} dx + dy$. Questa forma è definita e continua su $\mathbb{R}^2$ meno che sull’asse $y$: facciamo notare che questo insieme è fatto di due “parti”, il semipiano delle ascisse positive e quello delle ascisse negative, che sono insiemi aperti, non banali, e ad intersezione disgiunta. Ma possiamo trovare due potenziali per $\omega$ che non differiscono di una costante: ad esempio, le due funzioni$$ f(x,y) = \begin{cases} \log(x) + y +2 & \text{ per } x> 0 \\ \log(-x) + y -3 & \text{ per } x < 0 \end{cases} \qquad g(x,y)= \log(|x|) + y$$soddisfano entrambe alla condizione che definisce il potenziale (difatti $df = dg = \omega$), ma non differiscono per una costante: su semipiano delle ascisse positive la loro differenza è $2$ mentre sul semipiano delle ascisse negative è $-3$.
Nel caso delle funzioni reali di una variabile reale, le primitive erano pensate definite sull’insieme più grande possibile. Salendo di dimensione, e passando alle forme differenziabili, questo non è sempre il caso più preferibile: scegliendo l’insieme più grande possiamo perdere l’unicità (o addirittura l’esistenza) del potenziale.
Come diretta conseguenza di questo fatto, abbiamo il seguente teorema.
Sia $\omega$ una forma differenziale definita e continua su un aperto $A$ di $\mathbb{R}^n$. Richiediamo inoltre che $A$ sia connesso. Allora sono equivalenti le seguenti affermazioni:
-
$\omega$ è esatta su $A$.
-
Comunque fissati due punti $P, Q \in A$ e comunque prese due curve regolari $\phi$ e $\psi$ (anche non equivalenti tra loro) che inizino in $P$ e finiscano in $Q$, con sostengo interamente contenuto in $A$, gli integrali curvilinei di $\omega$ lungo $\phi$ e $\psi$ sono uguali: $\int_\phi \omega = \int_\psi \omega$.
-
Comunque presa una curva chiusa $\eta$ il cui sostegno sia interamente contenuto in $A$, l’integrale di $\omega$ lungo tale curva è nullo: $\int_\eta \omega = 0$.
Un uso estensivo di questo teorema lo possiamo trovare nella termodinamica: il primo principio ed il secondo principio della termodinamica lo sfruttano per definire, rispettivamente, l’energia interna e l’entropia, funzioni di stato i cui differenziali sono esatti.
Anche se questo teorema sembra essere molto potente, controllare che l’integrale di una forma lungo tutte le curve chiuse sia nullo potrebbe essere complicato almeno quanto trovarne un potenziale, se non di più. Quindi, se da una parte abbiamo delle immediate, importanti conseguenze per una forma esatta, cioè delle condizioni necessarie, non abbiamo un facile sistema per determinare quando una forma differenziale sia esatta (a parte esibirne un potenziale), cioè condizioni sufficienti che siano agevoli da controllare.
Una importante definizione è quella di forma differenziale chiusa. Sia $\omega$ una forma differenziale su $\mathbb{R}^n$, definita e di regolarità $\mathcal{C}^1$ su di un aperto connesso $A$. $\omega$ si dice chiusa in $A$ se le “derivate in croce” si equivalgono su tutto $A$, cioè se$$ \frac{\partial \omega_i}{\partial x_j} (P) = \frac{\partial \omega_j}{\partial x_i} (P) \quad \forall(P) \in A, \forall i,j = 1, \dots, n$$Facciamo notare che queste equazioni sono $\frac{n(n-1)}{2}$ controlli. Questa nozione è importante poichè sussiste il seguente teorema:
Sia $\omega$ una forma differenziale in $\mathbb{R}^n$, definita e $\mathcal{C}^1$ su un aperto connesso $A$ di $\mathbb{R}^n$. Sotto queste ipotesi, se $\omega$ è esatta su $A$, allora $\omega$ è chiusa su $A$.
In altre parole, su insiemi connessi (e ancora una volta questa ipotesi è molto importante) tutte le forme esatte sufficientemente regolari sono chiuse.
L’equivalente di una forma chiusa, dal punto di vista dei campi vettoriali, sono i campi vettoriali irrotazionali: si tratta di campi il cui rotore è nullo. Usualmente, il rotore di un campo vettoriale è coinvolto nel teorema di Stokes.
Ma vale anche il contrario? Ossia, le forme chiuse sono esatte? In generale, no.
Ad esempio, prendiamo la forma differenziale $\omega$ in $\mathbb{R}^2$ definita da $\omega = \frac{y}{x^2 +y^2} dx - \frac{x}{x^2 + y^2} dy$. Questa forma è definita, continua e di classe $\mathcal{C}^\infty$ sul piano meno l’origine, cioè $\mathbb{R}^2 \setminus (0,0)$. È anche chiusa:$$ \frac{\partial}{\partial y} \left( \frac{y}{x^2 +y^2} \right) = \frac{x^2 - y^2}{x^2 + y^2} = \frac{\partial}{\partial x} \left( \frac{-x}{x^2 + y^2} \right) $$Purtroppo, però, non è esatta. Con un po’ di conti ci si accorge che un possibile potenziale su $\mathbb{R}^2 \setminus (0,0)$ dovrebbe essere una funzione che vale $\arctan\left( \frac{x}{y} \right) + \text{ (costante)}$ non sull’asse $x$, dove questa quantità non è definita. Quindi avrei due possibili definizioni di un potenziale per i due semipiani individuati da $y > 0$ e $y<0$. Una banale condizione di continuità impone che un potenziale definito su entrambi i semipiani debba avere la forma$$ f(x,y) = \begin{cases} \arctan\left( \frac{x}{y} \right) + c & \text{ per } y>0 \\ \arctan\left( \frac{x}{y} \right) + c - \pi & \text{ per } y<0\end{cases}$$Infatti, fissato $\overline{x} \in \mathbb{R}$, abbiamo che, se $\overline{x} > 0$, $\lim_{y \to 0^+} f(\overline{x},y) = c+\frac{\pi}{2}$, e similmente $\lim_{y \to 0^-} f(\overline{x},y) = c - \frac{\pi}{2} + \pi = c+\frac{\pi}{2}$. Ma se ora prendessimo un $\overline{x} <0$, avremmo $\lim_{y \to 0^+} f(\overline{x},y) = c-\frac{\pi}{2}$, mentre $\lim_{y \to 0^-} f(\overline{x},y) = c + \frac{\pi}{2} + \pi = c + \frac{3 \pi}{2}$. Ogni tentativo di estendere un putativo potenziale ad $\mathbb{R}^2 \setminus (0,0)$ non produce nemmeno una funzione continua. Male, perchè avrebbe dovuto essere $\mathcal{C}^\infty$.
Purtroppo, la questione è abbastanza complicata: il problema non risiede tanto nelle forme differenziali o le loro caratteristiche, quanto nella forma stessa di $A$. Ad esempio, prendendo la forma precedente ma restringendoci al semipiano superiore $y>0$ non avremmo alcun problema. La branca matematica che studia queste proprietà si chiama coomologia. Senza perderci in queste questioni le quali, sebbene molto importanti, sposterebbero il punto del discorso, enunciamo una condizione sufficiente per l’esattezza.
Per farlo abbiamo bisogno di alcune nozioni che riguardano la forma dei sottoinsiemi di $\mathbb{R}^n$.
Sia $A$ un sottoinsieme di $\mathbb{R}^n$. Diamo le seguenti definizioni.
- $A$ si dice connesso per archi se comunque presi due suoi punti $P$ e $Q$ esiste una curva (l’“arco”) che colleghi $P$ e $Q$.
- $A$ si dice stellato se esiste almeno un suo punto $P$ tale per cui, comunque preso un altro punto $Q$, il segmento $PQ$ è interamente contenuto in $A$.
- $A$ si dice convesso se per ogni coppia di suoi punti $P$ e $Q$ il segmento $PQ$ è interamente contenuto in $A$.
Abbastanza facilmente si può dimostrare che tutti i convessi sono stellati, tutti gli stellati sono connessi per archi, e tutti i connessi per archi sono connessi, almeno in $\mathbb{R}^n$. Tuttavia, esistono stellati non convessi, esistono insiemi connessi per archi ma non stellati.
Con queste nozioni, possiamo enunciare il seguente risultato:
Sia $\omega$ una forma differenziale in $\mathbb{R}^n$, definita e continua su un insieme $A$ aperto e stellato. Se $\omega$ è chiusa in $A$, allora è anche esatta su $A$.