Spazi vettoriali a dimensione infinita
Geometria
di Giuseppe Sottile


Uno spazio vettoriale a dimensione infinita è uno spazio in cui dato un certo numero \( n\) di vettori linearmente indipendenti se ne possono trovare sempre un numero maggiore \( n+1\) che siano ancora linearmente indipendenti. Iterando questo procedimento si ottiene uno spazio vettoriale a dimensione infinita \( dim(V) = \infty \).


Distanza

Se ci troviamo in uno spazio normato, possiamo definire una distanza che eredita tutte le proprietà della norma (in generale esistono distanze non indotte da norme). Questo concetto si esprime attraverso la distanza indotta dalla norma (In questo modo, lo spazio normato diventa spazio metrico): $$ dist(x, y) = ||x-y|| $$


Limite di una successione di vettori

Avendo a disposizione la distanza, automaticamente possiamo definire il concetto limite di una successione di vettori. Data una successione di vettori \( \{x_i\}_{i\in N} \) ed un certo vettore \( \overline x \). Allora la successione tende a \( \overline x \) se: $$ \lim_{n \to \infty} \{x_i\}_{i\in N} = \overline x \iff \lim_{n \to \infty} dist(x_n, \overline x ) = 0 $$

Le successioni che ammettono limite finito si chiamano successioni convergenti


Successioni fondamentali di Cauchy

Una successione di Cauchy è una successione in cui man mano che \(n\) aumenta, i termini della successione si avvicinano sempre piu' (la loro distanza tende a zero). Tradotto in formule $$ \forall \epsilon > 0 \hspace{2mm} \exists \hspace{1mm} n_\epsilon \hspace{2mm} t.c.: \hspace{2mm} \forall n, n' > n_\epsilon $$ $$ dist(x_n, x_{n'}) = ||x_n, x_{n'}|| < \epsilon $$



Completezza di uno spazio Euclideo

Se abbiamo uno spazio vettoriale \( V \) definito su un campo \( \mathbb{K = C, R}\) a dimensione finita in cui la distanza è indotta dalla norma che a sua volta è indotta da un prodotto scalare (spazio euclideo), la completezza è automatica.

$$ Euclideo \Rightarrow Completo $$ $$ d(x, y) = ||x-y|| = \sqrt{\langle x-y, x-y\rangle} $$

DIM:

Supponiamo di essere in possesso in questo spazio di una base ortonormale: (\( \hat v_1, \hat v_2.... \hat v_n \)). Un generico vettore \(x\in V\) si potrà esprimere come: $$ x = \sum_i \xi_i\hat v_i = \sum_i \langle\hat v_i, x\rangle\hat v_i $$

Noi sappiamo che quando una successione fondamentale implica la convergenza allora si ha la completezza. Consideriamo una successione fondamentale: \( \{x_n\}_{n\in N} \) questo significa che: $$ \forall \epsilon > 0 \hspace{2mm} \exists n_\epsilon \hspace{2mm} t.c: \hspace{2mm} \forall n, n' > n_\epsilon $$ $$ ||x^{(n)}- x^{(n')}||< \epsilon $$

Ma se lo spazio è euclideo, la norma si puo esprimere come la radice del prodotto scalare del vettore per se stesso (argomento della norma). Ricordando che i vettori si decompongono nella base ortonormale come: \( x^{(n)} = \sum_i \langle\hat v_i, x^{(n)}\rangle\hat v_i \) ed il secondo \( x^{(n')} = \sum_i \langle\hat v_i, x^{(n')}\rangle\hat v_i \) possiamo riscrivere la norma come: $$ \left|\left| \sum_i \langle\hat v_i, x^{(n)}\rangle\hat v_i - \sum_i \langle\hat v_i, x^{(n')}\rangle\hat v_i\right|\right| = \left|\left| \sum_i \xi_i^{(n)}\hat v_i - \sum_i \xi_i^{(n')}\hat v_i\right|\right| $$ $$ = \left|\left| \sum_i (\xi_i^{(n)}-\xi_i^{(n')})\hat v_i \right|\right| = $$ $$ = \sqrt{ \left\langle \sum_i (\xi_i^{(n)}-\xi_i^{(n')})\hat v_i, \sum_i (\xi_i^{(n)}-\xi_i^{(n')})\hat v_i \right\rangle } = \sqrt{ \sum_i |(\xi_i^{(n)}-\xi_i^{(n')})|^2 } < \epsilon $$

E' chiaro che per un generico indice \(j = 1... n\) il generico termine sarà minore di tutta la radice: $$ |(\xi_j^{(n)}-\xi_j^{(n')})| \leq \sqrt{ \sum_i |(\xi_i^{(n)}-\xi_i^{(n')})|^2 } < \epsilon $$

Cioè questa successione è di Cauchy, perchè all'aumentare dell'indice \(n\) la quantità in modulo va a zero. (Sapendo che \( \mathbb C\) è completo sappiamo che le successioni fondamentali convergono in \( \mathbb C\) stesso). Quindi la successione \( \{\xi_j^{(n)}\} \) è convergente ad un certo \( \xi_j \) per \( n \to \infty \).

Riconsideriamo ora il generico vettore: \( x = \sum_i \xi_i\hat v_i \).
Vogliamo dimostrare che \( x \) è proprio il vettore a cui converge la successione \(\{x_n\}\), ossia che: $$ \lim_{n \to \infty} || x - x^{(n)}|| = 0 $$

$$ \forall \epsilon > 0 \hspace{5mm} \exists \nu_\epsilon \hspace{5mm} \forall n > n_\epsilon ||x-x^{(n)}||<\epsilon$$

Sappiamo che: (osservate che abbiamo sostituito al posto di \( \xi_i^{(n)} \) il suo valore di convergenza \(\xi_i\)). $$|| x - x^{(n)}|| = \sqrt{ \sum_i |(\xi_i-\xi_i^{(n)})|^2 } $$

Applicando ripetutamente la disuguaglianza elementare (valida nello spazio euclideo): \( \sqrt{a^2+b^2} \leq |a|+|b| \), abbiamo che: $$\sqrt{ \sum_i |(\xi_i-\xi_i^{(n)})|^2 } \leq \sum_i |(\xi_i-\xi_i^{(n)})| $$ Per costruzione siccome: $$ \xi_1 = \lim_{n\to\infty}\xi_1^{(n)} \Rightarrow \exists \nu_1, \forall n>\nu_1 \hspace{5mm} |\xi_1 -\xi_1^{(n)}|<{\epsilon \over n} $$ $$ \xi_2 = \lim_{n\to\infty}\xi_2^{(n)} \Rightarrow \exists \nu_2, \forall n>\nu_2 \hspace{5mm} |\xi_2 -\xi_2^{(n)}|<{\epsilon \over n} $$ $$...$$ $$ \xi_n = \lim_{n\to\infty}\xi_n^{(n)} \Rightarrow \exists \nu_n, \forall n>\nu_n \hspace{5mm} |\xi_n-\xi_n^{(n)}|<{\epsilon \over n} $$ Se ora poniamo \( \nu_\epsilon > max\{\nu_1, \nu_2, ..., \nu_n \} \), tuttle le \(n\) condizioni saranno soddisfatte contemporaneamente \(\forall n > \nu_\epsilon\) e quindi $$\sqrt{ \sum_i |(\xi_i-\xi_i^{(n)})|^2 } \leq \sum_i |(\xi_i-\xi_i^{(n)})| < {\epsilon \over n} n = \epsilon $$ $$ \square $$






Torna alla home