Il teorema fondamentale del calcolo integrale costituisce una delle pietre miliari dell’analisi matematica, che lega aspetti computazionali (il calcolo della primitiva) a concetti geometrici (l’area sottesa ad un grafico). Quello che vogliamo fare in questo articolo è cercare di generalizzare questo risultato, per quanto possibile, a dimensioni superiori: ciò che scopriremo sono numerosi teoremi, che vanno generalmente sotto il nome di “teorema di Gauss” e di “teorema di Stokes”. Questi legano, rispettivamente, il flusso di un campo vettoriale attraverso un “bordo” o la circuitazione di un campo lungo una curva chiusa ad integrali multipli, calcolati su opportuni insiemi. Per farlo, dobbiamo introdurre numerosi concetti.
Iniziamo a definire i campi vettoriali. In fisica si incontrano spesso, ma in matematica non li abbiamo mai incontrati prima. Si definisce un campo vettoriale in $\mathbb{R}^n$ una funzione che ad ogni punto dello spazio $n-$dimensionale associa un vettore della stessa dimensione. Identificando un vettore con una $n-$upla di numeri reali (le sue componenti), possiamo dire che un campo vettoriale in $\mathbb{R}^n$ è una funzione del tipo$$ F: \mathbb{R}^n \longrightarrow \mathbb{R}^n$$un campo vettoriale è quindi costituito da $n$ componenti, $F = (F_1, \dots, F_n)$, le quali sono a loro volta funzioni reali di $n$ variabili reali. Queste possono essere differenziabili, nel senso del differenziale delle funzioni reali di più variabili reali; in generale, un campo vettoriale si dice di regolarità $\mathcal{C}^k$ se ogni sua componente è di regolarità $\mathcal{C}^k$.
Per ogni campo vettoriale $F: \mathbb{R}^n \rightarrow \mathbb{R}^n$ possiamo definire la sua divergenza $\text{div } F$:$$ \text{div } F = \frac{\partial F_1}{\partial x_1} + \dots + \frac{\partial F_n}{\partial x_n} = \sum_{i=1^n} \frac{\partial F_i}{\partial x_i}$$Ricordando la definizione di matrice jacobiana e di traccia di una matrice, dall’espressione precedente si deduce facilmente che $\text{div }F = \text{ tr}\left( \text{J} F \right)$. Notiamo che la divergenza di un campo vettoriale in $\mathbb{R}^n$ è una funzione reale di $n$ variabili reali. La divergenza di un campo vettoriale $F$ si indica anche con $\nabla \cdot F$.
Un campo vettoriale $F$ in $\mathbb{R}^n$ si dice conservativo se è il gradiente di una funzione reale di $n$ variabili reali. $F: \mathbb{R}^n \rightarrow \mathbb{R}^n$ è quindi conservativo se esiste una funzione $f : \mathbb{R}^n \rightarrow \mathbb{R}$ tale per cui$$\text{grad } f = \nabla f = F$$In particolare, vale l’uguaglianza $F_i = \frac{\partial f}{\partial x_i}$ per $i=1, \dots, n$. Se ciò accade, la funzione $f$ si dice potenziale del campo $F$. La terminologia ricalca quella della fisica: vedremo in seguito che numerosi esempi di utilizzo dei teoremi che vogliamo enunciare sono proprio tratti da questa materia.
Ora specializziamo il discorso per il piano euclideo, ossia per $\mathbb{R}^2$. I protagonisti in questo caso sono funzioni $F:\mathbb{R}^2 \rightarrow \mathbb{R}^2$. Per quanto riguarda il piano in sé, le coordinate si chiameranno $x,y$ piuttosto che $x_1, x_2$. Un insieme limitato $\Omega$ nel piano si dice dominio regolare se può essere scritto come unione finita di domini semplici i cui interni non si intersechino. La frontiera $\partial \Omega$ di un dominio regolare, definito in questo modo, può essere sempre vista come il sostegno di una curva regolare e chiusa: per ogni dominio regolare $\Omega \subset \mathbb{R}^2$ esiste sempre quindi una curva regolare e chiusa $\phi: [a,b] \rightarrow \mathbb{R}^2$ tale per cui il suo sostegno sia proprio la frontiera $\partial \Omega$:
Se per una curva regolare è possibile descrivere la retta tangente, nel piano possiamo anche descrivere il vettore (o il versore) normale: si tratta del vettore $\nu$, che individua la direzione perpendicolare alla tangente curva, in ogni suo punto, e ha norma $1$. Se la curva $\phi: [a,b] \rightarrow \mathbb{R}^2$ ha componenti $\phi(t) = (x(t), y(t))$, allora abbiamo che il versore tangente $T$ ed il versore normale $\nu$ hanno descrizione$$ T = \frac{1}{\sqrt{(x’(t))^2 + (y’(t))^2}} \left(\begin{array}{c} x’(t) \\ y’(t) \end{array}\right) \ ; \quad \nu = \frac{1}{\sqrt{(x’(t))^2 + (y’(t))^2}} \left(\begin{array}{c} y’(t) \\ -x’(t) \end{array}\right) $$Anche con queste precisazioni, il verso di percorrenza della frontiera di un dominio regolare è ambiguo: può essere orario o antiorario. Se non faremo ulteriori precisazioni, tutte le frontiere di domini in $\mathbb{R}^2$ verranno percorse di modo che il versore normale $\nu$ punti all’esterno del dominio: chiameremo questa orientazione “orientazione positiva” del bordo di $\Omega$
Infine, indicheremo con lettere latine minuscole funzioni reali di due variabili reali: $f: \mathbb{R}^2 \rightarrow \mathbb{R}$. Queste avranno comunque un ruolo.
Enunciamo subito i principali risultati per campi vettoriali in dimensione due: essi sono il teorema di Gauss, o della divergenza, e il teorema di Stokes, o del rotore, entrambi in $\mathbb{R}^2$.
Il teorema di Gauss in $\mathbb{R}^2$ afferma quanto segue.
Sia $F$ un campo vettoriale in $\mathbb{R}^2$, definito e $\mathcal{C}^1$ su un sottoinsieme aperto di $\mathbb{R}^2$; sia inoltre $\Omega$ un dominio regolare interamente contenuto in tale aperto. Allora$$ \iint_{\Omega} \text{div }F \ dxdy = \int_{\partial \Omega} F \cdot \nu \ ds$$
Il primo termine è un integrale doppio, esteso a tutto $\Omega$, di una funzione reale di due variabili reali: la divergenza del campo $F$. Il secondo termine è un integrale di linea, svolto lungo la frontiera del dominio $\Omega$; l’integranda è il prodotto scalare tra il campo $F$ ed il versore normale $\nu$ a $\partial \Omega$, che è una funzione reale di due variabili reali. Questo termine rappresenta il flusso del campo $F$ attraverso la frontiera di $\Omega$. Coinvolgendo la divergenza di $F$, questo teorema spesso si chiama anche teorema della divergenza in $\mathbb{R}^2$. Leggendo il teorema all’incontrario, possiamo anche enunciarlo in questo modo: “Il flusso di un campo vettoriale in $\mathbb{R}^2$ attraverso una curva chiusa è pari all’integrale della sua divergenza esteso al dominio che la curva racchiude”.
Un uso interessante di questo teorema è il calcolo di aree in $\mathbb{R}^2$. L’area di un dominio regolare $\Omega$ infatti è semplicemente $\iint_{\Omega} \ dx dy = \iint_{\Omega} 1 \ dx dy$: basta trovare un campo vettoriale in $\mathbb{R}^2$ la cui divergenza sia (costantemente) $1$ e il gioco è fatto. Di questi campi ce ne sono molti: ad esempio, $F(x,y) = \left( \begin{array}{c} x \\ 0 \end{array} \right)$, oppure $F(x,y) = \left( \begin{array}{c} 0 \\ y \end{array} \right)$, o ancora $F(x,y) = \frac{1}{2} \ \left( \begin{array}{c} x \\ y \end{array} \right)$; tutti questi campi sono caratterizzati da $\text{div } F = 1$.
Il teorema di Stokes in $\mathbb{R}^2$ stabilisce quanto segue.
Sia $F$ un campo vettoriale in $\mathbb{R}^2$, definito e $\mathcal{C}^1$ su un certo aperto di $\mathbb{R}^2$ di componenti $F_x , F_y$; sia inoltre $\Omega$ un dominio regolare interamente contenuto in tale aperto. Allora$$ \iint_{\Omega} \frac{\partial F_y}{\partial x} - \frac{\partial F_x}{\partial y} \ dxdy = \int_{\partial \Omega} F \cdot T \ ds$$
Il primo termine è un integrale doppio, esteso al dominio $\Omega$, della differenza tra alcune derivate parziali delle componenti del campo $F$. Impropriamente, questo viene a volte detto “rotore” del campo $F$. Il secondo termine è l’integrale di linea, lungo la frontiera di $\Omega$, del prodotto scalare tra il campo vettoriale e il versore tangente $T$ alla curva $\partial \Omega$. Come nel caso precedente, anche questa è una funzione reale di due variabili reali. Questo termine di destra rappresenta la circuitazione del campo $F$: mutuando il linguaggio della fisica, se pensiamo a $ds$ come uno spostamento infinitesimo lungo $\partial \Omega$, l’integrale al secondo membro rappresenta il lavoro svolto dal campo $F$ (pensato come campo di forze) lungo il bordo di $\Omega$; essendo questo una curva chiusa, si parla di circuitazione, in quanto una curva chiusa è, per l’appunto, un “circuito”. A volte questo risultato viene chiamato teorema del Rotore (in $\mathbb{R}^2$), o anche teorema di Green.
Possiamo sfruttare il teorema di Green ed il teorema di Schwarz per dedurre un risultato fondamentale della fisica: il lavoro svolto da un campo conservativo lungo un percorso chiuso è nullo.
Consideriamo infatti una curva chiusa $\phi$, il cui sostegno sia la frontiera di un dominio regolare $\Omega$. Consideriamo inoltre un campo vettoriale $F$ su $\mathbb{R}^2$, con componenti $F_x$ ed $F_y$, e supponiamo che sia conservativo, con potenziale $f$. $f$ è quindi una funzione da $\mathbb{R}^2$ a $\mathbb{R}$ tale per cui $\frac{\partial f}{\partial x} = F_x$ e $\frac{\partial f}{\partial y} = F_y$. Immaginiamo che tutte le funzioni coinvolte siano tutte sufficientemente regolari: in particolare, richiediamo che $f$ sia $\mathcal{C}^1$ su un aperto di $\mathbb{R}^2$ contenente $\Omega$.
Il teorema di Green afferma che la circuitazione di $F$ lungo $\partial \Omega$, $\int_{\partial \Omega} F \cdot T \ ds$, è pari a $ \iint_{\Omega} \frac{\partial F_y}{\partial x} - \frac{\partial F_x}{\partial y} \ dxdy $. Sostituendo l’espressione delle componenti di $F$ in funzione del potenziale $f$, otteniamo$$ \int_{\partial \Omega} F \cdot T \ ds = \iint_{\Omega} \frac{\partial^2 f}{\partial y \partial x} - \frac{\partial^2 f}{\partial x \partial y} \ dxdy $$Guardiamo l’integranda dell’ultimo termine: essa è costituita dalle derivate parziali seconde miste di $f$. Ma il teorema di Schwarz afferma che esse sono uguali! Di conseguenza, l’integrale in questione vale $0$, essendo l’integranda la differenza tra due quantità uguali. Facciamo notare che un risultato simile esiste anche per forme differenziali che ammettano un potenziale.
Abbandoniamo ora il piano $ \mathbb{R}^2$ e andiamo nello spazio euclideo $\mathbb{R}^3$. Le coordinate dello spazio le chiameremo $x,y,z$, al posto di $x_1, x_2 x_3$, e i campi vettoriali $F: \mathbb{R}^3 \rightarrow \mathbb{R}^3$ avranno componenti $F_x, F_y, F_z$. Cercheremo adesso di spostare i concetti di “flusso” e “circuitazione” da dimensione $2$ a dimensione $3$. Per fare questo abbiamo bisogno di un armamentario piuttosto ricco, che riassumeremo di seguito senza soffermarci troppo sugli aspetti tecnici.
Consideriamo un dominio regolare $\Omega$ in $\mathbb{R}^2$, e richiediamo che $\Omega$ sia un insieme connesso. Per evitare confusione, le coordinate di $\mathbb{R}^2$ saranno indicate da $u,v$. Chiamiamo parametrizzazione di una superficie regolare una funzione $\Phi: \Omega \longrightarrow \mathbb{R}^3$ che soddisfi i seguenti requisiti:
- $\Phi$ è $\mathcal{C}^1$ su un insieme aperto di $\mathbb{R}^2$ che contiene $\Omega$.
- $\Phi$ è iniettiva sull’interno di $\Omega$.
- La matrice jacobiana di $\Phi$, che è una matrice $3 \times 2$, ha rango $2$ sull’interno di $\Omega$.
Le componenti di $\Phi$ le indichiamo con $\Phi_x, \Phi_y$ e $\Phi_z$. Con un piccolo abuso di notazione, indichiamo con $\frac{\partial \Phi}{\partial u}$ il vettore delle derivate parziali rispetto ad $u$ delle componenti di $\Phi$, ossia il vettore $\left(\frac{\partial \Phi_x}{\partial u},\frac{\partial\Phi_y}{\partial u},\frac{\partial\Phi_z}{\partial u} \right)$; allo stesso modo definiamo $\frac{\partial \Phi}{\partial v}$. La richiesta sul rango equivale a richiedere che il prodotto vettore $\frac{\partial \Phi}{\partial u} \times \frac{\partial \Phi}{\partial v}$ sia sempre ben definito e diverso da $0$. Infatti, i vettori in questione sono le colonne della matrice jacobiana di $\Phi$, e il loro prodotto vettoriale è nullo se e solo se essi sono linearmente dipendenti; se sono linearmente dipendenti, il rango di $\text{J} \Phi$ è al massimo $1$. Il si dice versore normale alla (parametrizzazione di una) superficie il versore$$\nu = \frac{1}{\left\| \frac{\partial \Phi}{\partial u} \times \frac{\partial \Phi}{\partial v} \right\|} \ \frac{\partial \Phi}{\partial u} \times \frac{\partial \Phi}{\partial v}$$Se $\Phi$ è una parametrizzazione di superficie regolare, la sua immagine $\mathcal{S} = \Phi(\Omega)$ è effettivamente quello che noi chiamiamo generalmente “superficie”, nel linguaggio comune:
Sia $\Phi$ una parametrizzazione di una superficie regolare, di dominio $\Omega \subset \mathbb{R}^2$ e immagine $\mathcal{S} \subset \mathbb{R}^3$. Se $f$ è una funzione reale di tre variabili reali, cioè $f : \mathbb{R}^3 \longrightarrow \mathbb{R}$, e il suo dominio contiene l’immagine di $\Phi$, è possibile definire l’integrale di superficie di $f$:$$ \int_{\mathcal{S}} f \ dA = \iint_{\Omega} f \left( \Phi (u,v) \right) \ \left\| \frac{\partial \Phi}{\partial u} \times \frac{\partial \Phi}{\partial v} \right\| \ dudv$$La definizione è del tutto analoga a quella data per l’integrale curvilineo: $\left\| \frac{\partial \Phi}{\partial u} \times \frac{\partial \Phi}{\partial v} \right\| \ dudv $, che viene indicato con $dA$, è l’elemento infinitesimo di superficie, e svolge lo stesso ruolo dell’elemento di lunghezza d’arco $ds$ negli integrali di linea; l’integrale in questione è un integrale doppio, cioè l’integrale di una funzione reale di due variabili reali ($u$ e $v$): la norma di un vettore è un numero reale; la funzione composta $f \left( \Phi (u,v) \right)$ viaggia da $\mathbb{R}^2$ ad $\mathbb{R}^3$ mediante $\Phi$, e poi da $\mathbb{R}^3$ ad $\mathbb{R}$ tramite $f$.
Analogamente a quanto fatto nel caso delle curve, è possibile definire una relazione di equivalenza tra parametrizzazioni di superfici regolari, di modo che si possa effettivamente integrare su, attraverso o lungo il bordo di una superficie a prescindere dalla parametrizzazione che ne diamo.
Due parametrizzazioni di superfici regolari, $\Phi: \Omega \rightarrow \mathbb{R}^3$ e $\Phi’: \Omega’ \rightarrow \mathbb{R}^3$, si dicono equivalenti se esiste $\psi: \Omega’ \rightarrow \Omega$ tale per cui:
- $\Phi’ ( \psi (u,v)) = \Phi(u,v)$ per ogni $(u,v) \in \Omega$; ossia, come funzione composta, $\Phi = \Phi’ \circ \psi$.
- $\psi$ è continua su un aperto contenente $\Omega$, ed ivi $\mathcal{C}^1$.
- $\psi$ è iniettiva su $\Omega$
- Il determinante della matrice jacobiana $\text{J} \psi$ è sempre diverso da $0$ su $\Omega$.
Con questa definizione, è possibile mostrare che l’integrale di superficie di una determinata funzione non cambia se la superficie viene riparametrizzata da una parametrizzazione equivalente alla precedente.
Data la parametrizzazione di una superficie regolare $\Phi$, il versore normale $\nu$ induce un campo vettoriale in $\mathbb{R}^3$: a ciascun punto $P$ sulla superficie $\mathcal{S} = \Phi (\Omega)$ associa il versore normale alla superficie in quel punto. Va tutto bene sinchè non cerchiamo di raggiungere la frontiera $\partial \mathcal{S} = \Phi (\partial \Omega)$: qui il campo indotto dal versore normale $\nu$ ha dei problemi di definizione, continuità e regolarità. Esistono parametrizzazioni regolarissime di superfici che, però, non ammettono una definizione del versore normale sul proprio bordo. Un esempio principe di questa situazione è il nastro di Möbius.
Se una parmatrizzazione di una superficie regolare $\Phi$ ammette un campo vettoriale normale definito e continuo su tutto il dominio $\Omega$, soprattutto sulla frontiera $\partial \Omega$, quella parametrizzazione si dice orientabile; con un abuso di notazione, si indica orientabile anche una superficie, a prescindere dalla sua parametrizzazione.
Infine, diamo la seguente definizione. Si consideri un volume limitato $\Xi$, cioè un sottoinsieme limitato di $\mathbb{R}^3$. Questo si dice volume regolare se la sua frontiera $\partial \Xi$ è l’unione finita di superifici regolari orientabili $\mathcal{S}_1$, $\mathcal{S}_2$, $\dots$, le quali si intersechino al più solo lungo la propria frontiera. Lungo la frontiera $\partial \Xi$ è possibile definire un “campo normale”, che indichiamo ancora con $\nu$: questo si può fare scegliendo, su ciascuna superficie $\mathcal{S}_j$, orientazioni coerenti le une con le altre. Ove non indicato, sceglieremo l’orientazione di $\partial \Xi$ in cui il versore normale $\nu$ punta all’esterno di $\Xi$.
Con tutte queste premesse, siamo in grado di enunciare, e comprendere, il teorema di Gauss propriamente detto, cioè quello in $\mathbb{R}^3$:
Siano $\Xi$ un volume regolare in $\mathbb{R}^3$ ed $F$ un campo vettoriale in $\mathbb{R}^3 $, definito su un aperto di $\mathbb{R}^3$ contenente $\Xi$ e ivi di regolarità $\mathcal{C}^1$. Allora$$\iiint_{\Xi} \text{div }F \ dxdydz = \int_{\partial \Xi} F \cdot \nu \ dA$$
Nella formula precedente, il membro di sinistra è l’integrale triplo della divergenza del campo $F$ su tutto il volume $\Xi$: per questo motivo questo teorema va anche sotto il nome di teorema della divergenza (in $\mathbb{R}^3$). Il membro di destra è l’integrale di superficie della funzione reale di tre variabili reali $F \cdot \nu$, ossia il prodotto scalare tra il campo $F$ ed il versore normale $\nu$, esteso alla superficie $\partial \Xi$ che racchiude $\Xi$. Come nel caso bidimensionale, questo termine rappresenta il flusso del campo $F$ attraverso la frontiera di $\Xi$.
Riformulando il teorema di Gauss, possiamo dire che esso afferma che “Il flusso di un campo vettoriale in $\mathbb{R}^3$ attraverso una superficie è pari all’inegrale della sua divergenza esteso al volume racchiuso da tale superficie”.
Proprio sfruttando questo teorema è possibile dimostrare il teorema di Gauss nel caso di un campo elettrico.
Inoltre, sempre pescando esempi dal vasto mare della fisica, possiamo dedurre che la divergenza del campo magnetico è pari a $0$. Difatti, consideriamo una qualsiasi volume regolare: il flusso magnetico attraverso la sua superficie di bordo sarà pari a $0$, per una caratteristica fondamentale del campo magnetico (o per l’inesistenza di monopoli magnetici). Questo accade per qualunque volume considerato: l’unica opzione possibile è che la divergenza del campo magnetico sia nulla.
In generale, se un campo vettoriale $F$ ha divergenza identicamente nulla, cioè se $\text{div }F =0$ in ogni punto di $\mathbb{R}^3$, il campo viene detto solenoidale: e in effetti, il campo magnetico è proprio un campo solenoidale.
Introduciamo l’ultimo protagonista: il rotore di un campo vettoriale in $\mathbb{R}^3$. Dato un campo vettoriale $F: \mathbb{R}^3 \longrightarrow \mathbb{R}^3$, di componenti $\left( F_x, F_y, F_z \right)$, e di regolarità $\mathcal{C}^1$, definiamo il suo rotore $\text{rot } F$ come il seguente campo vettoriale:$$ \text{rot }F = \left( \frac{\partial F_z}{\partial y} - \frac{\partial F_y}{\partial z}, \frac{\partial F_x}{\partial z} - \frac{\partial F_z}{\partial x}, \frac{\partial F_y}{\partial x} - \frac{\partial F_x}{\partial y} \right)$$Il rotore di un campo può anche essere calcolato mediante il seguente “determinante misto”: indicando con $\mathbf{i}, \mathbf{j}, \mathbf{k}$ i tre versori fondamentali di $\mathbb{R}^3$, abbiamo che$$ \text{rot }F = \text{det } \begin{array}{|ccc|} \mathbf{i} & \mathbf{j} & \mathbf{k} \\ \frac{\partial}{\partial x} & \frac{\partial}{\partial y} & \frac{\partial}{\partial z} \\ F_x & F_y & F_z \end{array} $$Il rotore di un campo vettoriale $F$ si indica anche con $\nabla \times F$.
Nel caso bidimensionale la quantità $\frac{\partial F_y}{\partial x} - \frac{\partial F_x}{\partial y}$ era stata chiamata “rotore” di un campo $F: \mathbb{R}^2 \rightarrow \mathbb{R}^2$. Come possiamo vedere dal caso in $\mathbb{R}^3$, questa quantità è la componente lungo l’asse $z$ del rotore (propriamente detto) di un campo vettoriale in $\mathbb{R}^3$.
Per enunciare il teorema del rotore dobbiamo metterci in una condizione molto particolare: dobbiamo definire una superficie “bucata”. Per farlo, consideriamo innanzitutto una curva $\gamma: [a,b] \longrightarrow \mathbb{R}^2$ semplice, chiusa e regolare; definiamo il dominio $\Omega$ in $\mathbb{R}^2$ come l’area contenuta all’interno della curva $\gamma$: automaticamente abbiamo a disposizione un dominio regolare, con frontiera pari proprio al sostegno di $\gamma$. Poi consideriamo una parametrizzazione di superficie regolare $\Phi$ proprio a partire da questo $\Omega$: avremo quindi $\Phi: \Omega \rightarrow \mathbb{R}^3$. La superficie $\mathcal{S} = \Phi(\Omega)$ ha un “bordo”, costituito dalla curva $\Gamma = \Phi(\gamma)$, ossia la curva in $\mathbb{R}^3$ parametrizzata da $\Gamma(t) = \Phi(\gamma (t))$.
Il teroema del Rotore (in $\mathbb{R}^3$) dice quanto segue.
Siano $\gamma$, $\Omega$, $\Phi$, $\mathcal{S}$ e $\Gamma$ definiti come sopra. Sia inoltre $F$ un campo vettoriale in $\mathbb{R}^3$, definito e $\mathcal{C}^1$ su un aperto che contiene $\mathcal{S}$. Allora$$ \int_{\mathcal{S}} \text{rot }F \ dA = \int_{\Gamma} F \cdot T \ ds $$
In questo caso, il termine di destra è l’integrale di linea del prodotto scalare tra il campo $F$ e il versore tangente alla curva $\Gamma$: abbiamo già visto che questa quantità si può identificare con il lavoro del campo $F$ lungo $\Gamma$, ed essendo $\Gamma$ chiusa, comunemente è noto come circuitazione del campo $F$. Il primo termine, invece, è il flusso del rotore di $F$ uscente dalla superficie $\mathcal{S}$. Questo teorema è anche noto con il nome di teorema di Stokes (in $\mathbb{R}^3$), o teorema di Kelvin-Stokes.
Riformulando questo teorema possiamo dire che “Il flusso del rotore di un campo vettoriale attraverso una superficie è pari alla circuitazione del campo lungo la curva di bordo di tale superficie”.
Grazie a questo teorema è possibile dimostrare che la circuitazione del campo elettrostatico è nulla.
Per ottenere questo importante risultato, consideriamo una curva chiusa nello spazio $\Gamma$ (il nostro circuito), e immaginiamo di “incollarvi” sorpa una superficie $\mathcal{S}$ che abbia quella curva come bordo: non importa molto la forma di questa superficie, basta che sia regolare. Il teorema del rotore afferma che la circuitazione del campo elettrostatico $E$ è pari al flusso del suo rotore $\text{rot } E$ attraverso la superficie immaginaria da noi costruita. Ricordiamo che abbiamo a disposizione il potenziale elettrostatico $V$: si tratta di una funzione $V : \mathbb{R}^3 \rightarrow \mathbb{R}$ tale per cui, in ciascun punto, $\nabla V = -E$. In altre parole, $E_x = -\frac{\partial V}{\partial x}, E_y = -\frac{\partial V}{\partial y}, E_z = -\frac{\partial V}{\partial z}$. Procediamo al calcolo del rotore:##KATEX##\begin{aligned}\text{rot }E &= \left( \frac{\partial E_z}{\partial y} - \frac{\partial E_y}{\partial z}, \frac{\partial E_x}{\partial z} - \frac{\partial E_z}{\partial x}, \frac{\partial E_y}{\partial x} - \frac{\partial E_x}{\partial y} \right) =\\ & = \left( - \frac{\partial^2 V}{\partial z \partial y} + \frac{\partial^2 V}{\partial y \partial z}, - \frac{\partial^2 V}{\partial x \partial z} + \frac{\partial^2 V}{\partial z \partial x}, - \frac{\partial^2 V}{\partial y \partial x} + \frac{\partial^2 V}{\partial x \partial y} \right) \end{aligned}##KATEX##Essendo il potenziale elettrostatico $V$ una funzione almeno $\mathcal{C}^1$ in $\mathbb{R}^3$ (a meno di insiemi di misura nulla), per il teorema di Schwarz le derivate seconde miste sono uguali fra loro: il rotore del campo elettrico è un vettore sempre nullo! A maggior ragione, anche il flusso attraverso la $\mathcal{S}$ da noi immaginata sarà nullo. Di conseguenza, per il teorema del rotore, la circuitazione lungo la curva $\Gamma$ del campo elettrostatico $E$ vale zero.
Gli esempi riguardano il campo elettrico e quello magnetico non per caso: infatti, i teoremi sopra elencati stanno alla base delle equazioni di Maxwell per il campo elettromagnetico.