Tensores y álgebra Tensorial

Conceptos y Principios Básicos

Cuando en álgebra lineal queremos manejar varias variables, es preciso utilizar la noción de Tensor que generaliza los Vectores, Matrices y constantes. Veremos en qué sentido. Todo espacio vectorial de dimensión finita n, V es isomorfo a \( \mathbb{R}^n \) así que en adelante consideraremos que, de hecho \( V= \mathbb{R}^n \).

Cualquier aplicación lineal

\( f: \mathbb{R}^n \mapsto \mathbb{R} \)

es de la forma

\(f(x)=v^tx\) , con \( v, x \in \mathbb{R}^n \) (aquí t es transpuesto, no es un exponente).

Es decir, el espacio dual de \( \mathbb{R}^n \) es él mismo, o mejor dicho, son isomorfos trasponiendo vt en v.

Si dada una base de V, \(B=\{e^1, ..., e^n\}\), \(B^*=\{e_1, ..., e_n\}\) es una base de su dual V* caracterizada por

\( \begin{matrix} e^j e_i=0, \forall i\neq j \\ e^j e_i=1, \forall i=j \end{matrix} \)

Este isomorfismo, llamémosle φ entre V y su dual V* permite que podamos considerar cualquier aplicación lineal de la forma

\(f:V^n \mapsto V \)

como

\(F:V^* \times V^n \mapsto \mathbb{R} \)

siendo

\( F=\varphi \circ f \), es decir, después de aplicar f, aplicamos el elemento del dual para obtener un escalar. Así podemos considerar funciones multilineales vectoriales como funciones multilineales escalares, multiplicando por elementos del dual. A este argumento de pasar de un vector a un número mediante un elemento del dual, se le llama contracción y lo veremos un poco más adelante repetidamente.

Definición de Tensor


Se define un Tensor r veces contravariante y s veces covariante o Tensor de tipo (r,s) a una aplicación multilineal del tipo

\begin{matrix} T: V^* \times ... (r)... \times V^* \times V \times...(s)...\times V & \mapsto & \mathbb{R} \\ u_1, ... u_r , v^1, ... v^s & \mapsto & T(u_1, ... u_r , v^1, ... v^s) \end{matrix}

siendo

\( u_i \in V^* , \; v^j \in V \)

Obsérvese que los subíndices son para coordernadas contravariantes y los superíndices para las covariantes.

Si un tensor es de tipo (0,n) diremos simplemente que es n veces covariante.

Si un tensor es de tipo (s,0) diremos simplemente que es s veces contravariante.
Así, los endomorfismos y matrices bidimensionales que considerábamos en las secciones Diagonalización de matrices y Forma Canónica de Jordan

\( \begin{matrix} F:V\rightarrow V & \\ \,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,x \in V \rightarrow F(x) = Ax\in V \end{matrix} \)

son, según nuestra definición F, es un Tensor (1,1).

También un vector (columna) es un tensor de tipo (1,0), contravariante porque aplica cualquier vector fila (elemento del dual) en una constante.

El producto escalar en V es un tensor de tipo (0,2), o sea dos veces covariante ya que aplica dos vectores en una constante.

Finalmente una constante, consideramos que es un tensor (0,0).

Teoría en extensión

Dado T un tensor (r,s) tiene como coordenadas

\( T_{j1..j_r}^{i1..i_s} = T( e_1, ... e_r , e^1, ... e^s)\).

Siendo \( B=\{e^1, ... e^s\} \) una base de V y \( B^*=\{e_1, ... e_r\} \) una base del dual V*.

Por tanto, un tensor de tipo (r,s) sobre \( \mathbb{R} \) tiene \(n^{r+s} \) componentes.

Existe un producto tensorial que denotamos por ⊗, que se define como sigue, si T es un tensor (r,s) y S es un tensor (m,n), el producto tensorial es un tensor (r+m,s+n) que consiste en

\( T\otimes S(u_1,..,u_r, u_1,..,u_m, v^1, ..v^s, v^1, ..v^n)=T(u_1,..,u_r,v^1, ..v^s)\cdot S(u_1,..,u_m,v^1, ..v^n) \).

La notación tensotrial puede complicarse mucho ya que estamos manejando coordenadas e índices covariantes y contravariantes de diferentes dimensiones, por ejemplo uno de los tensores que nos interesará es el tensor de Riemann, el cual es un tensor tipo (1,3) ya que aplica un contravector de \( (z_1,z_2, z_3, z_4 ) \) y 3 vectores \( (u^1,u^2,u^3,u^4) , (v^1,v^2,v^3,v^4),(v^1,v^2,v^3,v^4) \) de \( \mathbb{R}^4 \) para denotar la aplicación del tensor en los vectores tendríamos que escribir

\( \sum_{i=1}^{4}\sum_{j=1}^{4}\sum_{k=1}^{4}\sum_{l=1}^{4}R^l_{ijk}z_lu^iv^jw^k \)

Con el Convenio de sumación de Einstein esta ecuación queda reducida a

\( R^l_{ijk}z_lu^iv^jw^k \)

Es decir, el Convenio de sumación de Einstein consiste en que todo indice duplicado con un subindice se entiende que hay un sumatorio, por ejemplo un tensor representado por \( v^i_lw^j_k \) es un tensor de tipo (2,2), sin embargo \( v^i_jw^j_k \) es un tensor de tipo (1,1) porque se entiende que hay un sumatorio en el índice duplicado arriba y abajo j. A esto le llamamos contracción.

Por tanto, podemos considerar que una constante k es un tensor (0,0) porque es la contracción de un tensor (1,0) con un tensor (0,1) (o al contrario):

\( k= v^iw_i \)

Tensores en Variedades Diferenciales



En una variedad diferenciable M, se puede definir un campo tensorial o simplemente un tensor de tipo (r,s) como una aplicación que que asigna a cada punto p de la variedad un tensor de tipo (r,s) tal que

\( T: T_p(M)^* \times ... (r\;veces)... \times T_p(M)^* \times T_p(M) \times...(s\;veces)...\times T_p(M) \mapsto \mathbb{R} \).

Es decir, en cada punto el tensor opera sobre el espacio tangente, otra manera de decirlo es que el tensor actúa sobre el fibrado tangente).

Un tensor muy importante, en geometría diferencial es el llamado Tensor métrico que denotaremos por

\( G=g_{ij} \).

Este es el tensor que extiende al producto escalar en el fibrado tangente de la variedad. Con dicho tensor es con el que podemos hacer geometría en \( T_p(M) \), calcular distancias, curvaturas, etc.

Ejemplo: el plano \(\mathbb{R}^2 \)



En el plano podemos definir el tensor métrico correspondiente al producto escalar usual:

\( T= dx^1 \otimes dx^1 + dx^2 \otimes dx^2 \)

Dado cualquier vector del espacio tangente v= (a, b)

\( v = a \partial_1 + b \partial_2 \; \Rightarrow \; T(v) = a^2 + b^2 \)


Dado un elemento v=vi de V, entonces v es un tensor (1,0) se puede aplicar el tensor métrico así

\( w_j=g_{ij}v^i \)

Obteniéndose w un tensor (0,1), es decir, un elemento del espacio dual. A las coordenadas vi se les llama coordenadas covariantes de v y a las wj se les llama coordenadas contravariantes .

Finalmente, a este proceso de igualar indices con superíndices y sumar en ellos (de nuevo el convenio de sumación de Einstein) es la contracción que hemos visto antes, pero ahora usando el tensor métrico para pasar un elemento del espacio a un elemento del dual y viceversa.

Cambio de coordenadas tensoriales



Dadas dos cartas \( C=(\varphi , U), \; K=(\zeta , V) \) con coordenadas \( (x^1, ..., x^n), \; (y^1, ..., y^n) \) respectivamente. Existe una aplicación

\( \zeta\circ\varphi^{-1} \)

de cambio de coordenadas y que su matriz diferencial se escribe en la forma

\( \displaystyle \frac{{\partial x^i}}{{\partial y^j}} \)

y su inversa \( \displaystyle \frac{{\partial y^j}}{{\partial x^i}} \)

En cada carta tendremos los campos

\(\displaystyle\frac{{\partial }}{{\partial x^1}}, ...,\frac{{\partial }}{{\partial x^m}} \) junto con \( dx^1, ..., dx^m \)

\( \displaystyle \frac{{\partial }}{{\partial y^1}}, ..., \frac{{\partial }}{{\partial y^m}} \) junto con \( dy^1, ..., dy^m \)

Respectivamente y la relacción entre ellas es

1) \( \displaystyle \frac{{\partial}}{{\partial y^j}} = (\frac{{\partial x^i}}{{\partial y^j}}) \frac{{\partial}}{{\partial x^i}} \)

2) \( \displaystyle dy^i= (\frac{{\partial y^i}}{{\partial x^j}}) dx^j \)


Ejemplo: de nuevo el plano \(\mathbb{R}^2 \)



En el plano podemos teníamos el tensor métrico correspondiente al producto escalar usual en coordenadas cartesianas:

\( T= dx^1 \otimes dx^1 + dx^2 \otimes dx^2 \)

Si ahora hacemos el cambio a polares, donde

\( \begin{cases} x_1 = r cos \theta \\ x_2 = r sin \theta \end{cases}\).

Usamos las fírmolas anteriores y obtenemos

\(dx_1 = cos \theta dr - r sin \theta d \theta \)

\(dx_2 = sin \theta dr - r cos \theta d \theta \)

Y así obtenemos que

\( T= (cos \theta dr - r sin \theta d \theta) \otimes (cos \theta dr - r sin \theta d \theta) + \)

\( + (sin \theta dr - r cos \theta d \theta) \otimes (sin \theta dr - r cos \theta d \theta) = \)

\( = dr\otimes dr + r^2 d \theta \otimes d \theta \)


Sencillo, no? Vamos ahora a definir la métrica en una variedad inducida por el espacio ambiente en que se encuentra, en nuestro caso, vamos a pensar solo en variedades inmersas en \(\mathbb{R}^n \), llamadas también subvariedades, aunque hablaremos de forma genérica como variedades aquí para no complicarnos con más definiciones.

En todo \(\mathbb{R}^n \) euclídeo con el producto escalar usual se tiene la métrica usual dada por:

\( ds^2= dx^1 \otimes dx^1 + ... + dx^n \otimes dx^n \)

Se suele escribir en la forma mas abreviada y que será la que usemos a partir de ahora

\( ds^2= (dx^1)^2 + ... + (dx^n)^2 \)

Si tenemos una variedad con una parametrización dada en coordenadas como \( \rho = (y^1, ..., y^n) \), entonces, por nuestra defición el cambio de coordenadas (ver el punto 2) queda

\( dx^i=\frac{\partial y^i}{\partial x^k} dx^k \)

Ahora aplicando \( ds^2 \) obtenemos la métrica inducida por la usual en la variedad

\( \delta_{ij}\frac{\partial y^i}{\partial x^k} \frac{\partial y^j}{\partial x^l} dx^k dx^l \).

Donde \( \delta_{ij} = \begin{cases} 1 & \text{ si } i=j \\ 0 & \text{ si } i \neq j \end{cases} \).

Ejemplo: la circunferencia unidad \( S^1 \)



Es una variedad en \(\mathbb{R}^2 \), una parametrización puede ser

\(\sigma(t)=(sin t, cos t) /)

Entonces \(dx=-sin t\,dt, \;\; dy=cos t\,dt\)

Por tanto la métrica inducida queda


\( (dx)^2 + (dy)^2 =sin^2 (dt)^2 + cos^2 t (dt)^2 = (dt)^2 \)


Finalmente, y solo para completar, dejamos la definición de variedad Riemanniana, que no es mas que una variedad diferenciable dotada de un tensor métrico:

Variedades Riemannianas



Se llama una variedad Riemanniana a una variedad Diferenciable junto con un Tensor métrico actuando sobre ella cuya matrix de coeficientes es definida positiva.

Cuando la matriz de coeficientes del Tensor métrico es semidefinida positivo se dice que la variedad es Semirimanniana.





Ha sido util? Alguna idea para complementar el texto?



Deja tu post

Comentarios de otros usuarios

Lácides R. Pinto Mindiola:

2019-09-29 18:26:52
Realmente, extraordinario el aporte. No podemos menos, que expresarles mis más emotivos agradecimientos por el apoyo recibido por su 'herramienta matemática'. Me siento satisfecho y agradecido, por el material suministrado. Me gustaría poder conocer algún material que pueda ayudarnos, tales como, algunos contenidos relacionados con los conceptos matemáticos previos del "Álgebra Lineal" y lo básico en matemáticas, como para aprender en la forma más clara la teoría en la que se apoya "DEEP LEARNING".

Gracias,
Lácides R. Pinto M.




Deja tu post