Due parole sul Prodotto Tensoriale
di Giuseppe Sottile
10/01/2023


Vettore e Covettore

Un vettore ed un covettore si combinano nel modo seguente: $$ \mathcal L = \vec{w}\xi = (w^i\vec e_i)(\xi_j\epsilon^j) = w^i\xi_j\vec e_i \epsilon^j = X^i_je_i \epsilon^j $$ è facile mostrare che le componenti \( X^i_j\) sono ottenute dal Prodotto di Kronecker di \(\vec w\) e \(\xi\).

\( \begin{pmatrix} w^1 \\ w^2 \end{pmatrix} \otimes \begin{pmatrix} \xi_1 & \xi_2 \end{pmatrix} \) \( = \begin{pmatrix} \begin{pmatrix} w^1 \\ w^2 \end{pmatrix} \xi_1 & \begin{pmatrix} w^1 \\ w^2 \end{pmatrix} \xi_2 \end{pmatrix} = \) \( \begin{pmatrix} \begin{pmatrix} w^1\xi_1 \\ w^2\xi_1 \end{pmatrix} & \begin{pmatrix} w^1\xi_2 \\ w^2\xi_2 \end{pmatrix} \end{pmatrix} \)




Covettore e Covettore

Combinando due covettori si genera una Forma Bilineare $$ \mathcal B = \xi\psi = (\xi_i\epsilon^i)(\psi_j\epsilon^j) = \xi_i\psi_j\epsilon^i\epsilon^j = \mathcal B_{ij}\epsilon^i\epsilon^j $$ Nuovamente, le componenti \( \mathcal B_{ij} \) si ottengono facilmente dal Prodotto di Kronecker di \(\xi\) e \(\psi\).

\( \begin{pmatrix} \xi_1 & \xi_2 \end{pmatrix} \otimes \begin{pmatrix} \psi_1 & \psi_2 \end{pmatrix} \) \( = \begin{pmatrix} \begin{pmatrix} \xi_1 & \xi_2 \end{pmatrix}\psi_1 & \begin{pmatrix} \xi_1 & \xi_2 \end{pmatrix}\psi_2 \end{pmatrix} \) \( = \bigl( \begin{pmatrix} \xi_1\psi_1 & \xi_2\psi_1 \end{pmatrix} \hspace{5mm} \begin{pmatrix} \xi_1\psi_2 & \xi_2\psi_2 \end{pmatrix} \bigr) \)

$$ \diamond $$ Proprietà del Prodotto Tensore
Supponiamo di considerare \( \vec v \) e \(\vec w\) vettori; \( \xi \) e \(\psi\) covettori e \( k \) scalare. Valgono le seguenti proprietà:

Riscalamento tensoriale
$$ k(\vec v \otimes \xi) = (k\vec v) \otimes \xi = \vec v \otimes (k\xi) $$ Dalle regole precedenti, sostituendo al vettore ed al covettore le loro decomposizioni rispetto alla base diretta e duale ed operando il prodotto di kronecker si osserva come l'uguaglianza è soddisfatta:

\( k \begin{pmatrix} w^1 \\ w^2 \end{pmatrix} \otimes \begin{pmatrix} \xi_1 & \xi_2 \end{pmatrix} \) \( = k \begin{pmatrix} \begin{pmatrix} w^1\xi_1 \\ w^2\xi_1 \end{pmatrix} & \begin{pmatrix} w^1\xi_2 \\ w^2\xi_2 \end{pmatrix} \end{pmatrix} \)
\( \begin{pmatrix} kw^1 \\ kw^2 \end{pmatrix} \otimes \begin{pmatrix} \xi_1 & \xi_2 \end{pmatrix} \) \( = \begin{pmatrix} \begin{pmatrix} kw^1\xi_1 \\ kw^2\xi_1 \end{pmatrix} & \begin{pmatrix} kw^1\xi_2 \\ kw^2\xi_2 \end{pmatrix} \end{pmatrix} \)
\( \begin{pmatrix} w^1 \\ w^2 \end{pmatrix} \otimes \begin{pmatrix} k\xi_1 & k\xi_2 \end{pmatrix} \) \( = \begin{pmatrix} \begin{pmatrix} w^1k\xi_1 \\ w^2k\xi_1 \end{pmatrix} & \begin{pmatrix} w^1k\xi_2 \\ w^2k\xi_2 \end{pmatrix} \end{pmatrix} \)

Se ad esempio volessimo calcolare il prodotto tra il numero reale \(k\) ed un insieme di vettori o covettori, questa proprietà ci dice che possiamo moltiplicare per \(k\) uno qualsiasi dei vett-covettori senza alterare il risultato finale: \( k\bigl( \vec v\otimes\xi\otimes \vec u \otimes \psi \bigr) \) \( = \bigl( (k\vec v)\otimes\xi\otimes \vec u \otimes \psi \bigr) \) \( = \bigl( \vec v\otimes (k\xi) \otimes \vec u \otimes \psi \bigr) \) \( = \bigl( \vec v\otimes\xi\otimes (k\vec u) \otimes \psi \bigr) \) \( = \bigl( \vec v\otimes\xi\otimes \vec u \otimes (k \psi) \bigr) \)



Distributività tensoriale
$$ (\vec v \otimes \xi) + (\vec v \otimes \psi) = \vec v \otimes(\xi + \psi) $$ $$ (\vec v \otimes \xi) + (\vec w \otimes \xi) = (\vec v+\vec w)\otimes \xi $$

Dimostrare per esercizio. Se ad esempio abbiamo una somma di piu tensori in cui vi è qualcosa in comune, questa proprietà ci consente di raccogliere sia a destra che a sinistra: \( \vec v \otimes \xi \otimes \vec u \otimes \psi \otimes \vec w + \vec v \otimes \xi \otimes \vec s \otimes \psi \otimes \vec w \) = \( (\vec v \otimes \xi) \otimes (\vec u \otimes \psi \otimes \vec w) + \) \( (\vec v \otimes \xi) \otimes (\vec s \otimes \psi \otimes \vec w) \) = \( (\vec v \otimes \xi) \otimes (\vec v + \vec s) \otimes (\psi \otimes \vec w) \)



Spazi Vettoriali di Tensori (Spazi Tensoriali)

Le operazioni di somma e riscalamento ci hanno suggerito che il prodotto tensore soddisfa alle regole di spazio vettoriale, in sostanza succede che: (possiamo fare un po di ordine e capire dove vivono i nostri oggetti algebrici:

Riassumendo, tutto quanto si riconduce sempre ai due spazi \(V \) e \(V^*\). Attraverso il prodotto tensore, si construiscono numerosi (infiniti) spazi vettoriali di tensori (spazi tensoriali) i cui oggetti sono cimbinazioni di vettori e covettori mediante il prodotto tensore \( \otimes\):


\( V \otimes V \hspace{5mm} V^* \otimes V \hspace{5mm} \) \( V \otimes V^* \hspace{5mm} V^* \otimes V \otimes V\)
\( V \otimes V \hspace{5mm} V^* \otimes V \otimes V^* \hspace{5mm} \) \( V \otimes V^* \hspace{5mm} V^* \otimes V^* \otimes V\)
\( ... \)

Osservazione: Le componenti di un tensore appartenente a \( V\otimes V\) sono controvarianti: \(T^{ij}\), mentre la sua base avra componenti covarianti \(e_i\otimes e_j\). Le componenti di un tensore appartenente a \( V^*\otimes V^*\) sono covarianti: \(T_{ij}\), mentre la sua base avra componenti controvarianti \(\epsilon^i\otimes \epsilon^j\), per le altre combinazioni basta ricordarsi che base e componenti funzionano "al contrario".
Un trucco per risordarsi le componenti è quello di ricordarsi che le componenti di base duale hanno indici alti (controvarianti) mentre quelle della base diretta hanno indici bassi (covarianti) perciò le componenti del tensore saranno al contrario (In questo modo le somme alla Einstein saranno sempre consistenti).

Dato un generico tensore (le sue componenti) ad esempio \(T^{ijk}_{rs}\), con esso possiamo formare nuovi tensori operando dei prodotti (tra le componenti) o con altri tensori.

Da osservare che il simbolo \( \large \otimes \) è stato impiegato in diversi contesti: (come prodotto di Kronecker per combinare vettori), come (prodotto tensore tra vettori e covettori) e come (prodotto tensore tra spazi vettoriali e duali).




Applicazioni Multilineari

I tensori sono a tutti gli effetti delle applicazioni multilineari Nel senso che, facendo variare un solo input (moltiplicandolo per una costante o sommandolo ad un altro input o ad una sua combinazione lineare nello stesso indice) il risultato non cambia. Una mappa multilineare è una funzione che è lineare quando tutti gli input vengono mantenuti costanti tranne uno, in formule (valgono le due proprietà): $$ T(x_1, x_2, \ldots, nx_i, \ldots, x_n) = nT(x_1, x_2, \ldots, x_i, \ldots, x_n) $$ $$ T(x_1, x_2, \ldots, x_i+y_i, \ldots, x_n) = T(x_1, x_2, \ldots, x_i, \ldots, x_n) + T(x_1, x_2, \ldots, y_i, \ldots, x_n) $$ $$ \forall i $$



Torna alla home