Cuando en álgebra lineal queremos manejar varias variables, es preciso utilizar la noción de Tensor que generaliza los Vectores, Matrices y constantes. Veremos en qué sentido.
Todo espacio vectorial de dimensión finita n, V es
isomorfo a \( \mathbb{R}^n \) así que en adelante consideraremos que, de hecho \( V= \mathbb{R}^n \).
Cualquier aplicación lineal
\( f: \mathbb{R}^n \mapsto \mathbb{R} \)
es de la forma
\(f(x)=v^tx\) , con \( v, x \in \mathbb{R}^n \) (aquí t es transpuesto, no es un exponente).
Es decir, el espacio dual de \( \mathbb{R}^n \) es él mismo, o mejor dicho, son
isomorfos trasponiendo v
t en v.
Si dada una base de V, \(B=\{e^1, ..., e^n\}\), \(B^*=\{e_1, ..., e_n\}\) es una base de su dual V
* caracterizada por
\( \begin{matrix} e^j e_i=0, \forall i\neq j \\ e^j e_i=1, \forall i=j \end{matrix} \)
Este
isomorfismo, llamémosle φ entre V y su dual V
* permite que podamos considerar cualquier aplicación lineal de la forma
\(f:V^n \mapsto V \)
como
\(F:V^* \times V^n \mapsto \mathbb{R} \)
siendo
\( F=\varphi \circ f \), es decir, después de aplicar f, aplicamos el elemento del dual para obtener un escalar. Así podemos considerar
funciones multilineales vectoriales como
funciones multilineales escalares, multiplicando por elementos del dual. A este argumento de pasar de un vector a un número mediante un elemento del dual, se le llama contracción y lo veremos un poco más adelante repetidamente.
Definición de Tensor
Se define un Tensor r veces contravariante y s veces covariante o Tensor de tipo (r,s) a una
aplicación multilineal del tipo
\begin{matrix}
T: V^* \times ... (r)... \times V^* \times V \times...(s)...\times V & \mapsto & \mathbb{R}
\\
u_1, ... u_r , v^1, ... v^s & \mapsto & T(u_1, ... u_r , v^1, ... v^s)
\end{matrix}
siendo
\( u_i \in V^* , \; v^j \in V \)
Obsérvese que los subíndices son para coordernadas contravariantes y los superíndices para las covariantes.
Si un tensor es de tipo (0,n) diremos simplemente que es n veces covariante.
Si un tensor es de tipo (s,0) diremos simplemente que es s veces contravariante.
Así, los
endomorfismos y matrices bidimensionales que considerábamos en las secciones Diagonalización de matrices y Forma Canónica de Jordan
\( \begin{matrix}
F:V\rightarrow V &
\\
\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,\,x \in V \rightarrow F(x) = Ax\in V
\end{matrix} \)
son, según nuestra definición F, es un Tensor (1,1).
También un vector (columna) es un tensor de tipo (1,0), contravariante porque aplica cualquier vector fila (elemento del dual) en una constante.
El producto escalar en V es un tensor de tipo (0,2), o sea dos veces covariante ya que aplica dos vectores en una constante.
Finalmente una constante, consideramos que es un tensor (0,0).
Dado T un tensor (r,s) tiene como coordenadas
\( T_{j1..j_r}^{i1..i_s} = T( e_1, ... e_r , e^1, ... e^s)\).
Siendo \( B=\{e^1, ... e^s\} \) una base de V y \( B^*=\{e_1, ... e_r\} \) una base del dual V*.
Por tanto, un tensor de tipo (r,s) sobre \( \mathbb{R} \) tiene \(n^{r+s} \) componentes.
Existe un producto tensorial que denotamos por ⊗, que se define como sigue, si T es un tensor (r,s) y S es un tensor (m,n), el producto tensorial es un tensor (r+m,s+n) que consiste en
\( T\otimes S(u_1,..,u_r, u_1,..,u_m, v^1, ..v^s, v^1, ..v^n)=T(u_1,..,u_r,v^1, ..v^s)\cdot S(u_1,..,u_m,v^1, ..v^n) \).
La notación tensotrial puede complicarse mucho ya que estamos manejando coordenadas e índices covariantes y contravariantes de diferentes dimensiones, por ejemplo uno de los tensores que nos interesará es el tensor de Riemann, el cual es un tensor tipo (1,3) ya que aplica
un contravector de \( (z_1,z_2, z_3, z_4 ) \) y 3 vectores \( (u^1,u^2,u^3,u^4) , (v^1,v^2,v^3,v^4),(v^1,v^2,v^3,v^4) \) de \( \mathbb{R}^4 \) para denotar la aplicación del tensor en los vectores tendríamos que escribir
\( \sum_{i=1}^{4}\sum_{j=1}^{4}\sum_{k=1}^{4}\sum_{l=1}^{4}R^l_{ijk}z_lu^iv^jw^k \)
Con el
Convenio de sumación de Einstein esta ecuación queda reducida a
\( R^l_{ijk}z_lu^iv^jw^k \)
Es decir, el
Convenio de sumación de Einstein consiste en que todo indice duplicado con un subindice se entiende que hay un sumatorio, por ejemplo un tensor representado por \( v^i_lw^j_k \)
es un tensor de tipo (2,2),
sin embargo \( v^i_jw^j_k \) es un tensor de tipo (1,1) porque se entiende que hay un sumatorio en el índice duplicado arriba y abajo j. A esto le llamamos contracción.
Por tanto, podemos considerar que una constante k es un tensor (0,0) porque es la contracción de un tensor (1,0) con un tensor (0,1) (o al contrario):
\( k= v^iw_i \)
Tensores en Variedades Diferenciales
En una variedad diferenciable M, se puede definir un campo tensorial o simplemente un tensor de tipo (r,s) como una aplicación que que asigna a cada punto p de la variedad un
tensor de tipo (r,s) tal que
\( T: T_p(M)^* \times ... (r\;veces)... \times T_p(M)^* \times T_p(M) \times...(s\;veces)...\times T_p(M) \mapsto \mathbb{R} \).
Es decir, en cada punto el tensor opera sobre el espacio tangente, otra manera de decirlo es que el tensor actúa sobre el fibrado tangente).
Un tensor muy importante, en geometría diferencial es el llamado
Tensor métrico que denotaremos por
\( G=g_{ij} \).
Este es el tensor que extiende al producto escalar en el fibrado tangente de la variedad. Con dicho tensor es con el que podemos hacer geometría en \( T_p(M) \), calcular distancias, curvaturas, etc.
Ejemplo: el plano \(\mathbb{R}^2 \)
En el plano podemos definir el tensor métrico correspondiente al producto escalar usual:
\( T= dx^1 \otimes dx^1 + dx^2 \otimes dx^2 \)
Dado cualquier vector del espacio tangente v= (a, b)
\( v = a \partial_1 + b \partial_2 \; \Rightarrow \; T(v) = a^2 + b^2 \)
Dado un elemento v=v
i de V, entonces v es un tensor (1,0) se puede aplicar el tensor métrico así
\( w_j=g_{ij}v^i \)
Obteniéndose w un tensor (0,1), es decir, un elemento del espacio dual. A las coordenadas v
i se les llama coordenadas covariantes de v y a las w
j se les llama coordenadas contravariantes .
Finalmente, a este proceso de igualar indices con superíndices y sumar en ellos (de nuevo el
convenio de sumación de Einstein) es la contracción que hemos visto antes, pero ahora usando el tensor métrico para pasar un elemento del espacio a un elemento del dual y viceversa.
Cambio de coordenadas tensoriales
Dadas dos cartas \( C=(\varphi , U), \; K=(\zeta , V) \) con coordenadas \( (x^1, ..., x^n), \; (y^1, ..., y^n) \) respectivamente. Existe una aplicación
\( \zeta\circ\varphi^{-1} \)
de cambio de coordenadas y que su matriz diferencial se escribe en la forma
\( \displaystyle \frac{{\partial x^i}}{{\partial y^j}} \)
y su inversa \( \displaystyle \frac{{\partial y^j}}{{\partial x^i}} \)
En cada carta tendremos los campos
\(\displaystyle\frac{{\partial }}{{\partial x^1}}, ...,\frac{{\partial }}{{\partial x^m}} \) junto con \( dx^1, ..., dx^m \)
\( \displaystyle \frac{{\partial }}{{\partial y^1}}, ..., \frac{{\partial }}{{\partial y^m}} \) junto con \( dy^1, ..., dy^m \)
Respectivamente y la relacción entre ellas es
1) \( \displaystyle \frac{{\partial}}{{\partial y^j}} = (\frac{{\partial x^i}}{{\partial y^j}}) \frac{{\partial}}{{\partial x^i}} \)
2) \( \displaystyle dy^i= (\frac{{\partial y^i}}{{\partial x^j}}) dx^j \)
Ejemplo: de nuevo el plano \(\mathbb{R}^2 \)
En el plano podemos teníamos el tensor métrico correspondiente al producto escalar usual en coordenadas cartesianas:
\( T= dx^1 \otimes dx^1 + dx^2 \otimes dx^2 \)
Si ahora hacemos el cambio a polares, donde
\( \begin{cases} x_1 = r cos \theta \\ x_2 = r sin \theta \end{cases}\).
Usamos las fírmolas anteriores y obtenemos
\(dx_1 = cos \theta dr - r sin \theta d \theta \)
\(dx_2 = sin \theta dr - r cos \theta d \theta \)
Y así obtenemos que
\( T= (cos \theta dr - r sin \theta d \theta) \otimes (cos \theta dr - r sin \theta d \theta) + \)
\( + (sin \theta dr - r cos \theta d \theta) \otimes (sin \theta dr - r cos \theta d \theta) = \)
\( = dr\otimes dr + r^2 d \theta \otimes d \theta \)
Sencillo, no? Vamos ahora a definir la métrica en una variedad inducida por el espacio ambiente en que se encuentra, en nuestro caso, vamos a pensar solo en variedades inmersas en \(\mathbb{R}^n \), llamadas también subvariedades, aunque hablaremos de forma genérica como variedades aquí para no complicarnos con más definiciones.
En todo \(\mathbb{R}^n \) euclídeo con el producto escalar usual se tiene la métrica usual dada por:
\( ds^2= dx^1 \otimes dx^1 + ... + dx^n \otimes dx^n \)
Se suele escribir en la forma mas abreviada y que será la que usemos a partir de ahora
\( ds^2= (dx^1)^2 + ... + (dx^n)^2 \)
Si tenemos una variedad con una parametrización dada en coordenadas como \( \rho = (y^1, ..., y^n) \), entonces, por nuestra defición el cambio de coordenadas (ver el punto 2) queda
\( dx^i=\frac{\partial y^i}{\partial x^k} dx^k \)
Ahora aplicando \( ds^2 \) obtenemos la métrica inducida por la usual en la variedad
\( \delta_{ij}\frac{\partial y^i}{\partial x^k} \frac{\partial y^j}{\partial x^l} dx^k dx^l \).
Donde \( \delta_{ij} = \begin{cases} 1 & \text{ si } i=j \\ 0 & \text{ si } i \neq j \end{cases} \).
Ejemplo: la circunferencia unidad \( S^1 \)
Es una variedad en \(\mathbb{R}^2 \), una parametrización puede ser
\(\sigma(t)=(sin t, cos t) /)
Entonces \(dx=-sin t\,dt, \;\; dy=cos t\,dt\)
Por tanto la métrica inducida queda
\( (dx)^2 + (dy)^2 =sin^2 (dt)^2 + cos^2 t (dt)^2 = (dt)^2 \)
Finalmente, y solo para completar, dejamos la definición de variedad Riemanniana, que no es mas que una variedad diferenciable dotada de un tensor métrico:
Variedades Riemannianas
Se llama una variedad Riemanniana a una variedad Diferenciable junto con un
Tensor métrico actuando sobre ella cuya matrix de coeficientes es definida positiva.
Cuando la matriz de coeficientes del
Tensor métrico es semidefinida positivo se dice que la variedad es Semirimanniana.
if (!function_exists("utf8_encode")){
function utf8_encode($var){
return is_null($var) ? false : $var;
}
}
?>