1.1. NOTACIÓN INDICIAL.
El convenio de sumación de Einstein, notación de Einstein o notación indicial a la
convención utilizada para abreviar la escritura de sumatorios, en el que se suprime el
símbolo de sumatorio (representado con la letra griega sigma - Σ). El convenio fue
introducido por Albert Einstein en 1916. Se aplica en matemáticas en especial a los
cálculos realizados en álgebra lineal destinados a la física. El convenio se aplica sólo a
sumatorias sobre índices repetidos. El convenio se usa especialmente
con tensores donde es muy frecuente la operación de suma sobre índices repetidos y
sería muy fatigoso escribir explícitamente los signos de sumatorios.
Definición. Dada una expresión lineal en en la que se escriben todos sus términos
de forma explícita:
𝒖 = 𝑢1 𝑥1 + 𝑢2 𝑥2 + ⋯ + 𝑢𝑛 𝑥𝑛
Esta puede expresarse convencionalmente como el sumatorio:
𝑛
𝒖 = ∑ 𝑢𝑖 𝑥𝑖
𝑖=1
La notación de Einstein obtiene una expresión aún más condensada eliminando el
signo de sumatorio y entendiendo que en la expresión resultante un índice indica suma
sobre todos los posibles valores del mismo.
𝒖 = 𝑢𝑖 𝑥𝑖
Índice. Un índice utilizado en la notación de Einstein puede aparecer en forma de
producto hasta dos veces en mismo término de una expresión, por lo que las siguientes
expresiones son válidas:
𝑘𝑖 𝑥𝑖
𝑽𝑖 = 𝑢𝑖𝑗 𝑥𝑗 𝐶𝑖𝑗𝑘 𝑒𝑖 𝑒𝑗 𝑒𝑘
Y las siguientes expresiones no se encuentran definidas o son inválidas:
𝑥𝑖 𝑦𝑖 𝑧𝑖
𝑎𝑚 𝑥𝑚𝑗 𝑦𝑚𝑘
En cálculo de tensores es también común utilizar una de las ocurrencias como un
subíndice y la otra como un superíndice. Por ejemplo, en la siguiente expresión en .
𝑎𝜇 𝑏𝜇 = 𝑎0 𝑏0 + 𝑎1 𝑏1 + 𝑎2 𝑏2 + 𝑎3 𝑏3
Un índice que se repite dos veces en el mismo término de una ecuación se conoce
como índice mudo, por ejemplo:
𝐴 = 𝐴𝑖 𝑒𝑖
Un índice que se repite en cada uno de los términos de una expresión a excepción de
los términos constantes se conoce como índice libre:
𝑆𝑟 = 𝑎𝑟 𝑥𝑖 + 𝑏𝑟 𝑥𝑗 + 𝑐𝑟 − 1
Los índices libres no se expanden en forma de sumatorio, sino que representan un
sistema de ecuaciones independientes.
Representación vectorial. Se emplea el convenio de Einstein en Álgebra lineal para
distinguir fácilmente entre vectores columna y vectores fila. Se puede, por ejemplo,
poner índices sobre-escritos para representar elementos en una columna e índices
subscritos para representar elementos en una fila. Siguiendo esta convención,
entonces:
𝑢 = 𝑢𝑖 = [𝑢1 , 𝑢2 … 𝑢𝑛 ] Para 𝑖 = 1,2,3, … , 𝑛
Representa 1 𝑥 𝑛 vector fila y representa 𝑛 𝑥 1 vector columna.
𝑢1
𝑗
𝑉 = 𝑣 = [ 𝑢2 ] Para 𝑗 = 1,2,3, … , 𝑛
𝑢𝑛
En matemática y en física teórica y en particular en la relatividad general, los vectores
fila representan vectores contravariantes mientras que los vectores columna
representan vectores covariantes.
La notación indicial es una notación abreviada que se utiliza para facilitar la escritura de
ecuaciones.
Por ejemplo, un vector referido a un sistema de ejes cartesianos con tres
componentes (𝐴1 , 𝐴2 , 𝐴3 ) en notación indicial se representa por 𝐴𝑖 en donde el
subíndice 𝑖 toma los valores 1, 2,3.
Si se quiere representar un conjunto de 9 cantidades, se utiliza doble subíndice 𝐵𝑖𝑗 , en
donde ambos subíndices 𝑖 y𝑗 toman los valores 1, 2, 3. Si el conjunto tiene 27
cantidades, se necesitan tres subíndices 𝐷𝑖𝑗𝑘 . finalmente, si se tiene 3𝑛 cantidades se
utilizan 𝑛 subíndices 𝐵𝑖𝑗𝑘……𝑛 .
Existen dos tipos de subíndices:
Índice libre: es aquel que aparece solo una vez y toma los valores 1, 2,[Link]
número de términos que existen en la expresión es 3𝑛 en donde 𝑛 es el número
de índices libres.
Índice mudo: aparece dos veces e indica una suma de 1 a 3 lo que constituye el
convenio de la suma o de Einstein.
Como regla general, un subíndice no puede aparecer repetido más de dos veces en un
monomio. Así, la expresión 𝐴𝑖𝑗𝑗 esta escrita correctamente en notación indicial. El
subíndice 𝑗, que aparece dos veces, es el índice mudo y representa una suma desde
𝑗=1 a 𝑗=3. Es decir
Sin embargo, la expresión 𝐴𝑖𝑖𝑖 no es correcta puesto que el subíndice 𝑖 aparece 3
veces. Es importante señalar que la letra con la que se representen los subíndices
mudos es indiferente, siempre y cuando se respeten las reglas mencionadas, por lo
que
La diferenciación con respecto a las tres variables independientes (𝑥1 , 𝑥2 , 𝑥3 ) se indica
mediante la coma
Esta expresión está constituida por 32 =9 cantidades, puesto que tanto 𝑖 como 𝑗 son
índices libres.
En determinadas ocasiones, existe un doble subíndice pero no se desea indicar suma.
Esto se representa introduciendo los índices entre paréntesis. Por ejemplo, los términos
individuales de un tensor de orden 2, 𝐴11 , 𝐴22 , etc., se pueden representar mediante
𝐴(𝑖𝑖).
Por último, el convenio de PI sirve para expresar producto. Por ejemplo, el producto de
las tres componentes de un vector se expresa
Como ejemplo se desarrollara a continuación algunas expresiones escritas en notación
indicial.
Ejemplo 1:
En este caso el subíndice 𝑖 es un índice mudo, luego el número de términos es 30 =1, o
sea un escalar
Y efectivamente esta expresión representa el producto escalar de los vectores 𝐴𝑖 𝑦 𝐵𝑖 .
Ejemplo 2:
1.2. Operaciones de Tensores.
Producto tensorial y producto exterior. Dados dos tensores se puede definir entre
ellos el llamado producto tensorial cuyo resultado es un tensor de tipo más complejo
cuyas componentes pueden obtenerse a partir de los tensores originales.
El producto de dos tensores es un tensor cuyo rango es la suma de los rangos dados
por los dos tensores. Este producto implica la multiplicación ordinaria de los
componentes de un tensor y es llamado producto exterior.
Por ejemplo:
𝒋𝒌 𝒋𝒌𝒍
𝑨𝒊 𝑩𝒍𝒎 = 𝑪𝒊𝒎
Subir y bajar índices. En una variedad riemanniana existe la posibilidad de definir una
operación sobre tensores, que en general no puede realizarse en una variedad
cualquiera. Esa operación permite substituir en los cálculos un tensor de tipo por
otro de tipo con tal que . Esta operación se denomina
usualmente ley de subir o bajar índices.
Esa operación se basa en la existencia de un isomorfismos entre espacios
de tensores covariantes y contravariantes definidos sobre una variedad
riemanniana o pseudoriemanniana . Por tanto para emplear, la subida y
bajada de índices es necesario usar el tensor métrico (y su inverso , llamado
co-tensor métrico).
Estas operaciones resultan muy útiles en la teoría general de la relatividad donde
cualquier magnitud física puede ser representada por tensores covariantes o
contravariantes indistintamente, y sin alterar el significado físico, según las necesidades
del problema planteado.
Así para cualquier magnitud física representada por un tensor de tercer rango, puede
ser representado por varios conjuntos de magnitudes relacionables gracias a la
operación de "subir y bajar índices":
Contracción. La contracción de tensores es una operación que reduce el orden total
de un tensor. Esta operación reduce un tensor tipo (𝒏, 𝒎) a otro tipo (𝒏 − 𝟏, 𝒎 − 𝟏). En
términos de componentes, esta operación se logra sumando el índice de un tensor
contravariante y un covariante. Por ejemplo, un tensor (1,1) puede ser contraído a
un escalar a través de ; donde el convenio de sumación de Einstein es empleado.
Cuando el tensor (1,1) se lo interpreta como un mapeo lineal, esta operación es
conocida como la traza.
La contracción se utiliza usualmente con el producto tensorial para contraer el índice de
cada tensor. La contracción puede también entenderse en términos de la definición de
un tensor como un elemento de un producto tensorial de copias del espacio con el
espacio , descomponiendo primero el tensor en una combinación lineal de tensores
más simples, y posteriormente aplicando un factor de a un factor de . Por
ejemplo:
Puede ser escrito como la combinación lineal de
La contracción de en el primero y último espacio es entonces el vector:
Producto interno. El producto interno de dos tensores se produce al contraer
el producto exterior de los tensores. Por ejemplo, dados dos
tensores y su producto externo es Igualando índices, ,
se obtiene el producto interno: .
1.3. MÉTODOS PARA EL CÁLCULO DE VALORES Y VECTORES PROPIOS.
Los vectores propios, autovectores o eigenvectores de un operador lineal son los
vectores no nulos que, cuando son transformados por el operador, dan lugar a un
múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar λ
recibe el nombre valor propio, autovalor, valor característico o eigenvalor. A menudo,
una transformación queda completamente determinada por sus vectores propios y
valores propios. Un espacio propio, autoespacio es el conjunto de vectores propios con
un valor propio común.
Las transformaciones lineales del espacio como la rotación, la reflexión, el
ensanchamiento o cualquier combinación de las anteriores; pueden interpretarse
mediante el efecto que producen en los vectores. Los vectores pueden visualizarse
como flechas de una cierta longitud apuntando en una dirección y sentido determinado.
LOS VECTORES PROPIOS: Son vectores que, o no se ven afectados por la
transformación o se ven multiplicados por un escalar, y por tanto no varían su
dirección.
EL VALOR PROPIO DE UN VECTOR PROPIO: Es el factor de escala por el que
ha sido multiplicado.
UN ESPACIO PROPIO: Es un espacio formado por todos los vectores propios del
mismo valor propio, además del vector nulo, que no es un vector propio.
LA MULTIPLICIDAD GEOMÉTRICA DE UN VALOR PROPIO: Es la dimensión del
espacio propio asociado.
Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado
en el eje de rotación sobre el cual se realiza la rotación. El valor propio correspondiente
es 1 y el espacio propio contiene a todos los vectores paralelos al eje. Como es un
espacio de una dimensión, su multiplicidad geométrica es uno. Es el único valor propio
del espectro (de esta rotación) que es un número real.
Formalmente, se definen los vectores propios y valores propios de la siguiente manera:
Si A: V → V es un operador lineal en un cierto espacio vectorial V, v es un vector
diferente de cero en V y c es un escalar tales que
𝐴𝒗 = 𝑐𝒗
Entonces decimos que v es un vector propio del operador A, y su valor propio asociado
es c. Si v es un vector propio con el valor propio c entonces cualquier múltiplo diferente
de cero de v es también un vector propio con el valor propio c. De hecho, todos los
vectores propios con el valor propio asociado c junto con 0, forman un subespacio
de V, el espacio propio para el valor propio c. Observe además que un un espacio
propio Z es un subespacio invariante de A, es decir dado w un vector en Z, el
vector Aw también pertenece a Z. espacio propio Z es un subespacio invariante de A,
es decir dado w un vector en Z, el vector Aw también pertenece a Z.
CASOS DE INTERES ESPECIAL.
Intuitivamente, para las transformaciones lineales del espacio de dos dimensiones ,
los vectores propios son:
ROTACIÓN: ningún vector propio de valores reales (existen en cambio pares
valor propio, vector propio complejos).
REFLEXIÓN: los vectores propios son perpendiculares y paralelos al eje de
simetría, los valores propios son -1 y 1, respectivamente.
ESCALADO UNIFORME: todos los vectores son vectores propios, y el valor
propio es el factor de escala.
PROYECCIÓN SOBRE UNA RECTA: los vectores propios con el valor propio 1
son paralelos a la línea, vectores propios con el valor propio 0 son paralelos a la
dirección de la proyección.
CALCULO DE VALORES Y VECTORES PROPIOS DE MATRICES
Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se
puede calcular simbólicamente usando el polinomio característico. Sin embargo, a
menudo resulta imposible para matrices extensas, caso en el que se debe usar
un método numérico.
CÁLCULO SIMBÓLICO
Una herramienta importante para encontrar los valores propios de matrices cuadradas
es el polinomio característico: decir que λ es un valor propio de A es equivalente a
decir que el sistema de ecuaciones lineales A v = λ v --> A v - λ v = 0
(Factorizando por v queda) (A - λI) v = 0 (donde I es la matriz identidad) tiene una
solución no nula v (un vector propio), y de esta forma es equivalente al determinante:
det(𝐴 − 𝜆𝐼) = 0
Característico de A: los valores propios de una matriz son los ceros de
su característico. La función p(λ) = det(𝐴 − 𝜆𝐼) es un polinomio de λ pues los
determinantes se definen como sumas de productos.
Todos los valores propios de una matriz A pueden calcularse resolviendo la ecuación:
Si A es una matriz 𝑛 × 𝑛, entonces tiene grado 𝑛 y 𝐴 tiene como máximo 𝑛 valores
propios.
El teorema fundamental del algebra dice que esta ecuación tiene exactamente n raíces
(ceros), teniendo en cuenta su multiplicidad. Todos los polinomios reales de grado
impar tienen un número real como raíz, así que para n impar toda matriz real tiene al
menos valor propio real. En caso de las matrices reales para n par e impar, los valores
propios no reales son pares conjugados.
ENCONTRANDO VECTORES PROPIOS.
Una vez que se conocen los valores propios λ, los vectores propios se pueden hallar
resolviendo el sistema de ecuaciones homogéneo:
Una forma más sencilla de obtener vectores propios sin resolver un sistema de
ecuaciones lineales se basa en el teorema de Cayley-Hamilton que establece que cada
matriz cuadrada satisface su propio polinomio característico. Así, si son
los valores propios de A se cumple que
Por lo que los vectores columna de son vectores propios de
.
EJEMPLO DE MATRIZ SIN VALORES PROPIOS REALES.
Un ejemplo de matriz sin valores propios reales es la rotación de 90 grados en el
sentido de las manecillas del reloj:
Cuyo polinomio característico es y sus valores propios son el par de
conjugados complejos i, -i. Los vectores propios asociados tampoco son reales.
EJEMPLO
Considérese la matriz
Que representa un operador lineal R³ → R³. Si se desea computar todos los valores
propios de A, se podría empezar determinando el polinomio característico:
Y porque p(x) = - (x - 2) (x - 1) (x + 1) se ve que los valores propios de A son 2, 1 y -1.
El teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su propio
polinomio característico. Es decir:
Efectivamente, para el caso del valor propio 2, se puede comprobar que
De donde (1, 1, -1) es un vector propio asociado a 2.
CÁLCULO NUMÉRICO
En la práctica, los valores propios de las matrices extensas no se calculan usando el
polinomio característico. Calcular el polinomio resulta muy costoso, y extraer las raíces
exactas de un polinomio de grado alto puede ser difícil de calcular y expresar: el
teorema de Abel-Ruffini implica que las raíces de los polinomios de grado alto (5 o
superior) no pueden expresarse usándose simplemente raíces enésimas. Existen
algoritmos eficientes para aproximar raíces de polinomios, pero pequeños errores en la
estimación de los valores propios pueden dar lugar a errores grandes en los vectores
propios. En consecuencia, los algoritmos generales para encontrar vectores propios y
valores propios son iterativos. La manera más fácil es el método de las potencias se
escoge un vector aleatorio v y se calcula una secuencia de vectores unitarios.
, , , ...
Esta sucesión casi siempre convergerá a un vector propio correspondiente al mayor
valor propio. Este algoritmo es sencillo, pero no demasiado útil aisladamente. Sin
embargo, para resolverlos se aplica el método de la descomposición QR, que es
la descomposición o factorización QR de una matriz es una descomposición de la
misma como producto de una matriz ortogonal por una triangular superior. La
descomposición QR es la base del algoritmo QR utilizado para el cálculo de
los vectores y valores propios de una matriz.
1.4 Gradiente, divergencia y rotacional.
Gradiente. En cálculo vectorial, el gradiente de un campo escalar es un campo
vectorial. El vector gradiente de evaluado en un punto genérico del dominio de
, ( ), indica la dirección en la cual el campo varía más rápidamente y su módulo
representa el ritmo de variación de en la dirección de dicho vector gradiente. El
gradiente se representa con el operador diferencial nabla seguido de la función
(cuidado de no confundir el gradiente con la divergencia, ésta última se denota con un
punto de producto escalar entre el operador nabla y el campo). También puede
representarse mediante , o usando la notación . La generalización del
concepto de gradiente a campos vectoriales es el concepto de matriz Jacobiana.
Si se toma como campo escalar el que se asigna a cada punto del espacio una presión
P (campo escalar de 3 variables), entonces el vector gradiente en un punto genérico
del espacio indicará la dirección en la cual la presión cambiará más rápidamente. Otro
ejemplo es el de considerar el mapa de líneas de nivel de una montaña como campo
escalar que asigna a cada pareja de coordenadas latitud/longitud un escalar altitud
(campo escalar de 2 variables). En este caso el vector gradiente en un punto genérico
indicará la dirección de máxima inclinación de la montaña. Nótese que el vector
gradiente será perpendicular a las líneas de contorno (líneas "equiescalares") del
mapa. El gradiente se define como el campo vectorial cuyas funciones coordenadas
son las derivadas parciales del campo escalar, esto es:
Esta definición se basa en que el gradiente permite calcular fácilmente las derivadas
direccionales. Definiendo en primer lugar la derivada direccional según un vector:
Una forma equivalente de definir el gradiente es como el único vector que, multiplicado
por el vector unitario, da la derivada direccional del campo escalar:
Con la definición anterior, el gradiente está caracterizado de forma unívoca. El
gradiente se expresa alternativamente mediante el uso del operador nabla:
Interpretación del gradiente. De forma geométrica el gradiente es un vector que se
encuentra normal (perpendicular) a la curva de nivel en el punto que se está estudiando,
llámese (𝑥, 𝑦), (𝑥, 𝑦, 𝑧), (tiempo, temperatura), etcétera. Algunos ejemplos son:
Considere una habitación en la cual la temperatura se define a través de un campo
escalar, de tal manera que en cualquier punto ∅(𝑥, 𝑦, 𝑧), la temperatura es ∅(𝑥, 𝑦, 𝑧).
Asumiremos que la temperatura no varía con respecto al tiempo. Siendo esto así,
para cada punto de la habitación, el gradiente en ese punto nos dará la dirección en
la cual se calienta más rápido. La magnitud del gradiente nos dirá cuán rápido se
calienta en esa dirección.
Considere una montaña en la cual su altura en el punto (𝑥, 𝑦) se define como
𝐻(𝑥, 𝑦). El gradiente de H en ese punto estará en la dirección para la que hay un
mayor grado de inclinación. La magnitud del gradiente nos mostrará cuán empinada
se encuentra la pendiente.
Propiedades. El gradiente verifica que:
Es ortogonal a las superficies equiescalares, definidas por =cte.
Apunta en la dirección en que la derivada direccional es máxima.
Su módulo es igual a esta derivada direccional máxima.
Se anula en los puntos estacionarios (máximos, mínimos y puntos de silla).
El campo formado por el gradiente en cada punto es siempre irrotacional, esto es,
Divergencia. La divergencia de un campo vectorial mide la diferencia entre el flujo
entrante y el flujo saliente de un campo vectorial sobre la superficie que rodea a un
volumen de control, por tanto, si el campo tiene "fuentes" o "sumideros" la divergencia
de dicho campo será diferente de cero.
Divergencia de un campo vectorial. La divergencia de un campo vectorial en un
punto es un campo escalar, y se define como el flujo del campo vectorial por unidad de
volumen conforme el volumen alrededor del punto tiende a cero:
Donde es una superficie cerrada que se reduce a un punto en el límite. El
símbolo representa el operador nabla.
Esta definición está directamente relacionada con el concepto de flujo del campo.
Como en el caso del flujo, si la divergencia en un punto es positiva, se dice que el
campo posee fuentes. Si la divergencia es negativa, se dice que tiene sumideros. El
ejemplo más característico lo dan las cargas eléctricas, que dan la divergencia del
campo eléctrico, siendo las cargas positivas manantiales y las negativas sumideros del
campo eléctrico. Se llaman fuentes escalares del campo al campo escalar que se
obtiene a partir de la divergencia de
La divergencia de un campo vectorial se relaciona con el flujo a través del teorema de
Gauss o teorema de la divergencia.
Coordenadas cartesianas. Cuando la definición de divergencia se aplica al
caso de un campo expresado en coordenadas cartesianas,
El resultado es sencillo:
Coordenadas ortogonales. Sin embargo, para un caso más general
de coordenadas ortogonales curvilíneas, como las cilíndricas o las esféricas,
la expresión se complica debido a la dependencia de los vectores de la base
con la posición. La expresión para un sistema de coordenadas ortogonales
es:
Donde los son los factores de escala del sistema de coordenadas, relacionados con
la forma del tensor métrico en dicho sistema de coordenadas. Esta fórmula general,
para el caso de coordenadas cartesianas ( ) se reduce a la
expresión anterior.
Para coordenadas cilíndricas ( ) resulta:
Para coordenadas esféricas ( ) resulta
Coordenadas generales. En sistemas de coordenadas generales, no
necesariamente ortogonales, la divergencia de un vector puede expresarse
en términos de las derivadas parciales respecto a las coordenadas y el
determinante del tensor
métrico:
Rotacional. En el cálculo vectorial, el rotacional o rotor es un operador vectorial que
muestra la tendencia de un campo vectorial a inducir rotación alrededor de un punto.
Matemáticamente, esta idea se expresa como el límite de la circulación del campo
vectorial, cuando la curva sobre la que se integra se reduce a un punto:
Aquí, es el área de la superficie apoyada en la curva , que se reduce a un punto.
El resultado de este límite no es el rotacional completo (que es un vector), sino solo su
componente según la dirección normal a y orientada según la regla de la mano
derecha. Para obtener el rotacional completo deberán calcularse tres límites,
considerando tres curvas situadas en planos perpendiculares.
Fuente vectorial y escalar. Al campo vectorial, J, que se obtiene calculando el
rotacional de un campo F en cada punto,
𝐉=∇×𝐉
Se conoce como las fuentes vectoriales de F (siendo las fuentes escalares las que se
obtienen mediante la divergencia).
Un campo cuyo rotacional es nulo en todos los puntos del espacio se
denomina irrotacional o se dice que carece de fuentes vectoriales. Y si está definido
sobre un dominio simplemente conexo entonces dicho campo puede expresarse como
el gradiente de una función escalar, o dicho de otra forma, el campo deriva de un
potencial:
Expresión en formas cartesianas.
Partiendo de la definición mediante un límite, puede demostrarse que la expresión,
en coordenadas cartesianas, del rotacional es
Que se puede expresar de forma más concisa con ayuda del operador nabla como un
producto vectorial, calculable mediante un determinante:
Debe tenerse muy presente que dicho determinante en realidad no es tal pues los
elementos de la segunda fila no tienen argumento y por tanto carecen de sentido.
Además dicho determinante sólo puede desarrollarse por la primera fila. En definitiva,
la notación en forma de determinante sirve para recordar fácilmente la expresión del
rotacional.
En la notación de Einstein, con el símbolo de Levi-Civita se escribe como:
Propiedades:
Todo campo potencial (expresable como el gradiente de un potencial escalar)
es irrotacional y viceversa, esto es,
Todo campo central (radial y dependiente sólo de la distancia al centro) es
irrotacional.
En particular, el campo electrostático de una carga puntual (y por
superposición, cualquier campo electrostático) es irrotacional.
El rotacional de un campo vectorial es siempre un campo solenoidal, esto es,
su divergencia siempre es nula:
Ejemplos:
En un tornado los vientos están rotando sobre el ojo, y un campo vectorial que
muestra las velocidades del viento tendría un rotacional diferente de cero en el ojo,
y posiblemente en otras partes .
En un campo vectorial que describa las velocidades lineales de cada parte
individual de un disco que rota, el rotacional tendrá un valor constante en todas las
partes del disco.
Si una autopista fuera descrita con un campo vectorial, y los carriles tuvieran
diversos límites de velocidad, el rotacional en las fronteras entre los carriles sería
diferente de cero.
La ley de Faraday de la inducción y la ley de Ampère-Maxwell, dos de
las ecuaciones de Maxwell, se pueden expresar muy simplemente usando el
rotacional. La primera indica que el rotacional de un campo eléctrico es igual a la
tasa de variación de la densidad del flujo magnético, con signo opuesto debido a
la Ley de Lenz; la segunda indica que el rotacional de un campo magnético es igual
a la suma de la densidad de corrientes y la derivada temporal de la densidad de
flujo eléctrico.
1.4. Teoremas de Green y de Stokes.
Teorema de Green. En física y matemáticas, el teorema de Green da la relación entre
una integral de línea alrededor de una curva cerrada simple C y una integral doble sobre la
región plana D limitada por C. El teorema de Green se llama así por el científico
británico George Green y es un caso especial del más general teorema de Stokes. El teorema
afirma:
Sea C una curva cerrada simple positivamente orientada, diferenciable por trozos, en el
plano y sea D la región limitada por C. Si L y M tienen derivadas parciales continuas en
una región abierta que contiene D,
A veces la notación
Se utiliza para establecer que la integral de línea está calculada usando la orientación
positiva (antihoraria) de la curva cerrada C.
Relación con el teorema de la divergencia:
El teorema de Green es equivalente a la siguiente analogía bidimensional del teorema
de Stokes:
Donde es el vector normal saliente en la frontera.
Para ver esto, considere la unidad normal en la parte derecha de la ecuación.
Como es un vector apuntando tangencialmente a través de una curva,
y la curva C está orientada de manera positiva (es decir, en contra del sentido de las
agujas del reloj) a través de la frontera, un vector normal saliente sería aquel que
apunta en 90º hacia la derecha, el cual podría ser .
El módulo de este vector es:
Por lo tanto:
Tomando los componentes de:
El lado derecho se convierte en:
Que por medio del teorema de Green resulta:
Teorema de Stokes. El teorema de Stokes en geometría diferencial es una proposición
sobre la integración de formas diferenciales que generaliza varios teoremas del cálculo
vectorial. Se nombra así por George Gabriel Stokes (1819-1903), a pesar de que la
primera formulación conocida del teorema fue realizada por William Thomson y
aparece en una correspondencia que él mantuvo con Stokes.
El teorema fundamental del cálculo establece que la integral de una función f en
el intervalo [a, b] puede ser calculada por medio de una antiderivada F de f:
El teorema de Stokes es una generalización de este teorema en el siguiente sentido:
Para la F elegida, . En el lenguaje de las formas diferenciales es decir
que f(x) dx es la derivada exterior de la 0-forma (como por ejemplo una
función) F: dF = f dx. El teorema general de Stokes aplica para formas diferenciales
mayores en vez de F.
En un lenguaje matemático, el intervalo abierto (a, b) es una variedad matemática
unidimensional. Su frontera es el conjunto que consiste en los dos puntos a y b.
Integrar f en ese intervalo puede ser generalizado como integrar formas en una
variedad matemática de mayor orden. Para esto se necesitan dos condiciones
técnicas: la variedad matemática debe ser orientable, y la forma tiene que ser
compacta de manera que otorgue una integral bien definida.
Los dos puntos a y b forman parte de la frontera del intervalo abierto. Más
genéricamente, el teorema de Stokes se aplica a variedades orientadas M con
frontera. La frontera ∂M de Mes una variedad en sí misma y hereda la orientación
natural de M. Por ejemplo, la orientación natural del intervalo da una orientación de
los dos puntos frontera. Intuitivamente ahereda la orientación opuesta a b, al ser
extremos opuestos del intervalo. Entonces, integrando F en los dos puntos
frontera a, b es equivalente a tomar la diferencia F(b) − F(a).
Por lo que el teorema fundamental relaciona la integral de una función sobre un
intervalo, con una integral o suma de la primitiva de la función en los límites que
encierran dicho intervalo:
Por otro lado el teorema de Green hace algo similar en dos dimensiones, relaciona la
integral a lo largo de una curva simple con la integral de una combinación de derivadas
sobre un área limitada por la curva simple:
Similarmente el teorema de la divergencia relaciona la integral de una función sobre
una superficie con la integral de una combinación de derivadas sobre el interior del
conjunto:
El teorema de Stokes generaliza todos estos resultados, relacionando la integral sobre
una frontera con la integral de una función "derivada" sobre el interior de la región
limitada por la frontera.
Formulación General. Sea M una variedad de dimensión n diferenciable por trozos
orientada compacta y sea ω una forma diferencial en M de grado n-1 y de clase C. Si
∂ M denota el límite de M con su orientación inducida, entonces
aquí d es la derivada exterior, que se define usando solamente la estructura de
variedad. El teorema debe ser considerado como generalización del teorema
fundamental del cálculo y, de hecho, se prueba fácilmente usando este teorema.
El teorema se utiliza a menudo en situaciones donde M es una subvariedad orientada
sumergida en una variedad más grande en la cual la forma ω se define.
El teorema se extiende fácilmente a las combinaciones lineales de las
subvariedades diferenciables por trozos, las, así llamadas, cadenas. El teorema de
Stokes demuestra entonces que las formas cerradas definidas módulo una forma
exacta se pueden integrar sobre las cadenas definidas módulo borde. Ésta es la base
para el apareamiento entre los grupos de homología y la cohomología de de Rham.
El clásico teorema de Kelvin-Stokes:
que relaciona la integral de superficie del rotacional del campo vectorial sobre una
superficie Σ en el 3-espacio euclidiano a la integral de línea del campo vectorial sobre
su borde, es un caso especial del teorema de Stokes generalizado (con n = 2) una vez
que identifiquemos el campo vectorial con una 1-forma usando la métrica en el 3-
espacio euclidiano.
Asimismo el teorema de Ostrogradsky-Gauss o Teorema de la divergencia:
Es un caso especial si identificamos un campo vectorial con la n-1 forma obtenida
contrayendo el campo vectorial con la forma de volumen euclidiano.
El teorema fundamental del cálculo y el teorema de Green son también casos
especiales del teorema de Stokes generalizado.
La forma general del teorema de Stokes que usa formas diferenciales es de más
alcance que los casos especiales, por supuesto, aunque los últimos son más
accesibles y a menudo son considerados más convenientes por físicos e ingenieros.
Otra forma de escribir el mismo teorema es la siguiente:
Donde es un campo vectorial cualquiera.
Establece que la integral de superficie del rotacional de un campo vectorial sobre una
superficie abierta es igual a la integral (curvilínea) cerrada del campo vectorial a lo largo
del contorno que limita la superficie.
Bibliografía
Fuentes Virtuales:
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]
[Link]