100% encontró este documento útil (1 voto)
61 vistas47 páginas

Matemáticas I: Trigonometría y Cálculo

Este documento trata sobre los temas de matemáticas I, incluyendo trigonometría, números complejos, cálculo diferencial, integración, ecuaciones diferenciales ordinarias y cálculo vectorial.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
100% encontró este documento útil (1 voto)
61 vistas47 páginas

Matemáticas I: Trigonometría y Cálculo

Este documento trata sobre los temas de matemáticas I, incluyendo trigonometría, números complejos, cálculo diferencial, integración, ecuaciones diferenciales ordinarias y cálculo vectorial.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

MATEMÁTICAS I

ÍNDICE

TEMA 0 TRIGONOMETRÍA .......................................................................................... 3


El círculo unitario............................................................................................................... 3
Trigonometría con triángulos ............................................................................................ 3
Ángulos destacados ........................................................................................................... 4
Función seno y coseno ....................................................................................................... 4
TEMA 1 NÚMEROS COMPLEJOS ................................................................................. 5
DEFINICIÓN NÚMERO COMPLEJO ...................................................................................... 5
RAÍCES DE NÚMEROS COMPLEJOS ..................................................................................... 9
POLINOMIOS ................................................................................................................... 10
TEOREMA FUNDAMENTAL DEL ÁLGEBRA ........................................................................................ 10
TEMA 2. CÁLCULO DIFERENCIAL............................................................................... 11
FUNCIONES REALES ......................................................................................................... 11
LÍMITES ........................................................................................................................... 11
PROPIEDADES DE LOS LÍMITES PARA SU CÁLCULO .......................................................................... 12
TEOREMA DEL SANDWICH ............................................................................................................... 13
DERIVADAS DE UNA FUNCIÓN REAL (DIFERENCIACIÓN)................................................... 13
NOTACIÓN LEIBNIZ ........................................................................................................................... 13
PROPOSICIÓN PROPIEDADES DE LA DERIVADA ................................................................ 14
REGLA E DIFERENCIACIOMN DE SUMAS, DIFERENCIAS Y PRODUCTOS POR COSNTANTES. ............ 14
REGLA DEL PRODUCTO..................................................................................................................... 14
REGLA DE LA INVERSA ...................................................................................................................... 14
REGLA DEL COCIENTE ....................................................................................................................... 14
REGLA DE LA CADENA ...................................................................................................................... 14
SIGNIFICADO GEOMÉTRICO DE LA DERIVADA .................................................................. 15
POLINOMIOS DE TAYLOR ................................................................................................. 15
FORMULA DE TAYLOR...................................................................................................... 16
FUNCIONES HIPERBÓLICAS .............................................................................................. 16
CÁLCULO DIFERENCIAL DE FUNCIONES DE VARIAS VARIABLES ......................................... 17
DERIVADAS DIRECCIONALES ............................................................................................ 18
DERIVADAS PARCIALES .................................................................................................... 18
VECTOR GRADIENTE ........................................................................................................ 19
MATRIZ JACOBIANA ........................................................................................................ 20
REGLA DE LA CADENA MATRICIAL.................................................................................... 20
CAMBIOS DE VARIABLES .................................................................................................. 21
COORDENADAS POLARES ................................................................................................ 22
CAMBIO DE COORDENADAS CARTESIANAS A COORDENADAS POLARES......................................... 22
DIRECCIONES DE MAYOR Y MENOR CRECIMIENTO .......................................................... 23
SUPERFICIES .................................................................................................................... 23
VECTOR TANGENTE A UNA SUPERFICIE ............................................................................ 23
PLANO TANGENTE A UNA SUPERFICIE Y RECTAS NORMALES ........................................... 24
DERIVADAS PARCIALES DE ORDEN SUPERIOR .................................................................. 25
TEOREMA DE SCHWARTZ................................................................................................. 25
DERIVACIÓN DE FUNCIONES IMPLICITAS ......................................................................... 25
TEMA 3. INTEGRACIÓN ............................................................................................ 27
CÁLCULO INTEGRAL DE UNA VARIABLE ............................................................................ 27
INTEGRAL INDEFINIDA...................................................................................................................... 27
PROPOSICIÓ (PROPIETATS DE LES PRIMITIVES) ............................................................................... 27
INTEGRALES..................................................................................................................... 27
INTEGRAL DEFINIDA ........................................................................................................ 31
CÁLCULO DE ÁREAS .......................................................................................................................... 31
AREA DETERMINADA POR DOS CURVAS .......................................................................................... 31
VOLUMENES POR SECIONES – PRINCIPIO DE CAVALIERI ................................................................. 32
CÁLCULO DEL VOLUMEN DE UN ELIPSOIDE ..................................................................................... 32
INTEGRALES ITERADAS – INTEGRAL DOBLE ...................................................................... 32
TEOREMA DE FUBINI ........................................................................................................................ 33
INTEGRALES SEPARABLES ................................................................................................................. 33
INTEGRALES DOBLES EN RECINTOS ACOTADOS ............................................................................... 33
CAMBIO DE VARIABLES EN UNA INTEGRAL DOBLE .......................................................................... 34
TRES CAMBIOS DE VARIABLES COMUNES ........................................................................ 34
COORDENADAS POLARES ................................................................................................................. 34
COORDENADAS ESFÉRICAS 3D ......................................................................................................... 35
COORDENADAS CILÍNDRICAS 3D ...................................................................................................... 35
INTEGRALES TRIPLES........................................................................................................ 35
TEMA 4. ECUACIONES DIFERENCIALES ORDINARIAS ................................................. 36
RESOLUCIÓN DE DIFERENTES TIPOS DE ECUACIONES ....................................................... 36
ECUACIONES DEL TIPO 𝑦′𝑥 = 𝑓𝑥 ..................................................................................................... 36
ECUACIONES DE VARIABLES SEPARADAS ......................................................................................... 37
PROBLEMAS DE VALOR INICIAL ....................................................................................... 37
EDO LINEAL DE ORDEN UNO ............................................................................................ 38
EDOs DE ORDEN DOS CON COEFICIENTES CONSTANTES ................................................... 40
RECORDATORIO: RESOLVIENDO LA EDO COMPLETA ........................................................ 41
TEMA 5. CÁLCULO VECTORIAL ................................................................................. 42
5.1. ALGUNOS OPERADORES DIFERENCIALES ................................................................... 42
5.2. INTEGRALES DE CAMPOS EN CURVAS Y SUPERFICIES ................................................ 42
5.3. INTEGRALES DE FUNCIONES ESCALARES EN CURVAS Y SUPERFICIES .......................... 43
5.4. ALGUNOS TEOREMAS FUNDAMENTALES DEL CÁLCULO VECTORIAL .......................... 44
TEMA 0 TRIGONOMETRÍA

El círculo unitario

Es el círculo en un plano x y de radio 1 centrado


en el origen de coordenadas. Su ecuación es
𝑥! + 𝑦! = 1

Trigonometría con triángulos

Si en un triángulo rectángulo se denomina <<hip>> a la hipotenusa; <<ady>> al cateto


adyacente y <<opu>> al cateto opuesto a un ángulo q, entonces

𝑎𝑑𝑦
cos 𝑡 =
ℎ𝑖𝑝
𝑜𝑝𝑢
sin 𝑡 =
ℎ𝑖𝑝

Estas razones dependen de un ángulo t, y no de un triangulo en


particular, ya que todos los triángulos rectángulos con un ángulo agudo
t son similares. Pero necesitamos unas definiciones más generales de
sin 𝑡 y cos 𝑡, como funciones ∀𝑡 ∈ ℝ, no sólo para ángulos agudos. Estas
definiciones las establecemos en una circunferencia C.
Se supone que todos los ángulos se miden en radianes a menos que se
indique explícitamente.

Dado un numero real t, el coseno de t corresponderá al eje x y el seno de


t corresponderá al eje y.

Además de las funciones seno y coseno, también existen otras:


"#$ ()# ()# %&'
tan (𝑡) = csc (𝑡) = sec (𝑡) = cot (𝑡) =
%&' "#$ %&' "#$
Podemos hacer uso de las identidades recíprocas para calcular estas funciones
* * * 23+ (0) +,- (0)
csc (𝑡) = +,- (0) sec (𝑡) = 23+ (0) cot (𝑡) = 45- (0) = +,- (0) tan (𝑡) = 23+ (0)

Muchas propiedades importantes de cos t y sin t se desprenden del hecho de que son las
coordenadas de un punto Pt, sobre la circunferencia 𝑥 ! + 𝑦 ! = 1
Las coordenadas de 𝑥 = cos (𝑡) e 𝑦 = sin (𝑡), del punto Pt deben cumplir la ecuación de la
circunferencia. Por tanto, ∀𝑡 ∈ ℝ:
cos ! 𝑡 + sin! 𝑡 = 1
Esto es una identidad pitagórica, también tenemos las siguientes:
tan! 𝑡 + 1 = sec ! 𝑡 1 + cot ! 𝑡 = csc ! 𝑡

Ángulos destacados
La siguiente tabla resume los valores del seno y del coseno en los ángulos múltiplos de 30o y 45o,
entre 0o y 180o.
Grados 0o 30o 45o 60o 90o 120o 135o 150o 180o
Radianes 0 𝜋 𝜋 𝜋 𝜋 2𝜋 3𝜋 5𝜋 𝜋
6 4 3 2 3 4 6
Coseno 1 √3 1 1 0 1 1 √3 −1
− − −
2 √2 2 2 √2 2
Seno 0 1 1 √3 1 √3 1 1 0
2 √2 2 2 √2 2

Función seno y coseno


El rango del coseno y del seno para todo número real t 𝐷𝑜𝑚𝑓: ℝ 𝑅𝑔𝑓: [−1,1]
En una circunferencia C, tenemos que dicha circunferencia mide 2𝜋 radianes, por lo tanto,
tendremos que sumar 2𝜋 a un valor de t que hace que el punto Pt describa una vuelta completa
alrededor de la circunferencia C y termine en el mismo sitio. Por lo tanto ∀𝑡:

cos(𝑡 + 2𝜋) = cos(𝑡) y sin(𝑡 + 2𝜋) = sin (𝑡)

Esto quiere decir que las funciones de seno y coseno son periódicas en 2𝜋.
El coseno es una función par. El seno es una función impar. Como la circunferencia 𝑥 ! + 𝑦 ! = 1
es simétrica respecto al eje x, los puntos Pt y P-t tienen la misma coordenada x, y coordenadas y
opuestas.
cos(−𝑡) = cos 𝑡 y sin(−𝑡) = − sin 𝑡
6
La diferencia gráfica entre la función seno y la función coseno es que tienen un desfase de !
hacia la izquierda.
6
Dos ángulos son complementarios si suman ! . Los puntos 𝑃7!890 y Pt son reflexiones respecto a
"
la resta 𝑦 = 𝑥, por lo que la coordenada x de cada uno de ellos es la coordenada y del otro, y
viceversa. Así:
6 6
cos O! − 𝑡P = sin 𝑡 y sin O! − 𝑡P = cos 𝑡
Dos ángulos son suplementarios al sumar p. Como la circunferencia 𝑥 ! + 𝑦 ! = 1 es simétrica
respecto al eje x, los puntos Pt y P-t tienen la misma coordenada x, y coordenadas y opuestas.
cos(𝜋 − 𝑡) = − cos 𝑡 y sin(𝜋 − 𝑡) = sin 𝑡
Algunas gráficas de las funciones trigonométricas

TEMA 1 NÚMEROS COMPLEJOS


Toda ecuación lineal
𝑎𝑥 = 𝑏, (𝑎, 𝑏 ∈ ℚ, 𝑎 ≠ 0)
Tiene una solución 𝑥 = 𝑏/𝑎 en ℚ, pero la ecuación cuadrática
𝑥! = 2
No tiene solución en ℚ. Una nueva extensión enriquece el conjunto de números racionales para
formar el conjunto de los números reales ℝ en algunas ecuaciones como 𝑥 ! = 2 tienen solución.
Sin embargo, otras ecuaciones cuadráticas como, por ejemplo
𝑥 ! = −1
No tienen solución incluso dentro del conjunto de los números reales. Para poder resolver
cualquier ecuación cuadrática necesitamos extender el sistema de los números reales para
formar un conjunto mayor que se denomina sistema de los números complejos.

DEFINICIÓN NÚMERO COMPLEJO


Empezaremos por definir el símbolo 𝑖, denominado unidad imaginaria, que tiene la propiedad
𝑖 ! = −1
Por tanto, también denominaremos a 𝑖 raíz cuadrada de -1 y lo expresaremos como √−1. Por
supuesto, 𝑖 no es un número real; ningún número real tiene como raíz cuadrada un número
negativo.

DEFINCIÓN 1.
Un número complejo es una expresión de la forma
𝑎 + 𝑏𝑖 o 𝑎 + 𝑖𝑏
Siendo 𝑎 y 𝑏 números reales, e 𝑖 la unidad imaginaria.

A menudo es conveniente representar un número complejo mediante una única letra; 𝑤 y 𝑧 se


utilizan frecuentemente para este fin. Si 𝑎, 𝑏, 𝑥 e 𝑦 son números reales, y
𝑤 = 𝑎 + 𝑏𝑖 y 𝑧 = 𝑥 + 𝑦𝑖
Podemos entonces referirnos a los números complejos 𝑤 y 𝑧. Nótese que 𝑤 = 𝑧 si y sólo si
𝑎 = 𝑥 y 𝑏 = 𝑦.
DEFINICIÓN 2.
Si 𝑧 = 𝑥 + 𝑦𝑖 es un número complejo, denominaremos a x, parte real de 𝑧 y la indicaremos
como 𝑅𝑒(𝑧). Denominaremos a 𝑦 parte imaginaria de 𝑧 y la indicaremos como 𝐼𝑚(𝑧):
𝑅𝑒(𝑧) = 𝑅𝑒(𝑎 + 𝑏𝑖) = 𝑥, 𝐼𝑚(𝑧) = 𝐼𝑚(𝑎 + 𝑏𝑖) = 𝑦

Como los números complejos se construyen a partir de parejas de números reales representar
gráficamente a los números complejos como puntos en un plano cartesiano es lo más normal.
Utilizaremos pues, el punto de coordenadas (𝑎, 𝑏) para representar al número complejo
𝑤 = 𝑎 + 𝑏𝑖.

Esta representación de los números complejos como puntos


en un plano se denomina diagrama de Argand. Como todo número complejo está representado
por un único punto del plano, el conjunto de todos los números complejos se denomina plano
complejo. El símbolo ℂ se usa para representar al conjunto de los complejos, y también al plano
complejo:
ℂ = {𝑎 + 𝑏𝑖 ∶ 𝑥, 𝑦, 𝜖 ℝ}
Los puntos del eje x del plano complejo corresponden a los números reales (𝑥 = 𝑎 + 0𝑖), por lo
que el eje x se denomina eje real. Los puntos del eje y del plano complejo corresponden a
números imaginarios (𝑦𝑖 = 0 + 𝑏𝑖), por lo que el eje y se denomina eje imaginario.

Puede ser de utilidad emplear las coordenadas polares de un punto en el plano complejo.
DEFINICIÓN 3
La distancia desde el origen hasta el punto (𝑎, 𝑏) corresponde al número complejo 𝑤 = 𝑎 +
𝑏𝑖 se denomina módulo de 𝑤 y se escribe |𝑤| 𝑜 |𝑎 + 𝑏𝑖|:
|𝑤| = |𝑎 + 𝑏𝑖| = _𝑎! + 𝑏!

DEFINICIÓN 4
Si la recta que va desde el origen hasta (𝑎, 𝑏) forma un ángulo q con la dirección positiva del
eje real, entonces q se denomina fase del número complejo 𝑤 = 𝑎 + 𝑏𝑖 y se escribe arg(𝑤)o
arg(𝑎 + 𝑏𝑖)

El módulo de un número complejo es siempre real y no negativo. Es positivo a menos que el


número complejo sea 0. Las fases de los números complejos no son únicas. Si 𝑤 = 𝑎 + 𝑏𝑖 ≠ 0
entonces todos los posibles valores de arg (𝑤) difieren en un múltiplo de 2𝜋. El símbolo arg (𝑤)
no representa un solo número, sino un conjunto de números. Cuando escribimos arg(𝑤) = 𝜃
estamos diciendo que el conjunto de arg(𝑤) contiene todos los números de la forma 𝜃 + 2𝑘𝜋
siendo 𝑘 un entero. De forma similar, la afirmación arg(𝑧) = arg (𝑤) dice que los dos conjuntos
son idénticos.
Si 𝑤 = 𝑎 + 𝑏𝑖, con 𝑅𝑒(𝑤) ≠ 0, entonces
𝑏
tan arg(𝑤) = tan arg(𝑎 + 𝑏𝑖) =
𝑎
:
Esto significa que tan 𝜃 = % ∀𝜃 𝑒𝑛 𝑒𝑙 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜 𝑑𝑒 arg(𝑤).
Es conveniente restringir 𝜃 = arg (𝑤) a un intervalo de amplitud 2𝜋, es decir, 0 ≤ 𝜃 ≤ 2𝜋 o
−𝜋 ≤ 𝜃 ≤ 𝜋, de forma que los números complejos distintos de 0 tendrán fases únicas. El valor
entre −𝜋 ≤ 𝜃 ≤ 𝜋 será la fase principal, y se escribe como 𝐴𝑟𝑔(𝑤). Todo número complejo 𝑤
excepto del 0 tiene una fase principal única 𝐴𝑟𝑔 (𝑤).

'
Si 𝑧 = 𝑥 + 𝑦𝑖 y 𝑅𝑒(𝑧) = 𝑥 > 0, entonces 𝐴𝑟𝑔(𝑧) = tan9* O; P.
Dado el módulo 𝑟 = |𝑤| y cualquier valor de la fase 𝜃 = arg(𝑤) de un número complejo 𝑤 =
𝑎 + 𝑏𝑖, tenemos que 𝑎 = 𝑟𝑐𝑜𝑠𝜃 y 𝑏 = 𝑟𝑠𝑖𝑛𝜃, por lo que 𝑤 se puede expresar en función de su
módulo y fase como:
𝑤 = 𝑟𝑐𝑜𝑠𝜃 + 𝑖𝑟𝑠𝑖𝑛𝜃
La expresión del miembro derecho se denomina representación polar.
DEFINICIÓN 5
El conjugado o complejo conjugado de un número 𝑤 = 𝑎 + 𝑏𝑖 es otro número complejo,
simbolizado por 𝑤
m, y dado por
𝑤
m = 𝑎 − 𝑏𝑖

Como los números reales, los números complejos se pueden sumar, restar, dividir y
multiplicar.
Si 𝑤 = 𝑎 + 𝑏𝑖 y 𝑧 = 𝑥 + 𝑦𝑖, siendo 𝑎, 𝑏, 𝑥 𝑒 𝑦 números reales, entonces
𝑤 + 𝑧 = (𝑎 + 𝑥) + (𝑏 + 𝑦)𝑖
𝑤 − 𝑧 = (𝑎 − 𝑥) + (𝑏 − 𝑦)𝑖
La suma compleja obedece también a las mismas reglas que la suma real.
La multiplicación de dos números complejos se realiza multiplicando formalmente las
expresiones binominales y sustituyendo 𝑖 ! = −1:

𝑤𝑧 = (𝑎 + 𝑏𝑖)(𝑥 + 𝑦𝑖) = 𝑎𝑥 + 𝑎𝑦𝑖 + 𝑏𝑥𝑖 + 𝑏𝑦𝑖 ! = (𝑎𝑥 − 𝑏𝑦) + (𝑎𝑦 − 𝑏𝑦)𝑖

Lo mismo ocurre con la división entre dos números complejos, pero esta vez se emplea el
conjugado del denominador:
𝑎 + 𝑏𝑖 𝑎 + 𝑏𝑖 𝑥 − 𝑦𝑖 𝑎𝑥 + 𝑏𝑦 + 𝑖(𝑏𝑥 − 𝑎𝑦)
= n o=
𝑥 + 𝑦𝑖 𝑥 + 𝑦𝑖 𝑥 − 𝑦𝑖 𝑥! + 𝑦!
El producto entre un numero complejo y su conjugado nos da el módulo de ese complejo al
cuadrado:
𝑤𝑤 m = |𝑤|!
La multiplicación compleja comparte muchas propiedades con la multiplicación real.
El conjugado de un producto es el producto de los conjugados

m𝑧̅ = rrrrrrrrrrrrrrrrrrrrrrrrrrrrrr
𝑤 (𝑎𝑥 − 𝑏𝑦) + (𝑎𝑦 + 𝑏𝑥)𝚤
= (𝑎𝑥 − 𝑏𝑦) − (𝑎𝑦 + 𝑏𝑐)𝑖
= (𝑎 − 𝑏𝑖)(𝑥 − 𝑦𝑖) = 𝑤 m𝑧̅

Es sencillo determinar el producto de módulos complejos expresados en forma polar. Si


𝑤 = 𝑟(cos 𝜃 + 𝑖 sin 𝜃) y 𝑧 = 𝑠(cos 𝜙 + 𝑖 sin 𝜙)
Siendo 𝑟 = |𝑤|, 𝜃 = arg(𝑤), 𝑠 = |𝑧|, 𝜙 = arg(𝑧), entonces
𝑤𝑧 = 𝑟𝑠(cos 𝜃 + 𝑖 sin 𝜃)(cos 𝜙 + 𝑖 sin 𝜙)
= 𝑟𝑠(cos 𝜃 + cos 𝜃 − sin 𝜙 sin 𝜙) + 𝑖(sin 𝜃 cos 𝜙 + cos 𝜃 sin 𝜙)
= 𝑟𝑠(cos(𝜃 + 𝜙) + 𝑖 sin(𝜃 + 𝜙))

Como las fases sólo están determinadas hasta un múltiplo entero 2𝜋, hemos demostrado que
el módulo y fase de un producto son

|𝑤𝑧| = |𝑤||𝑧| y arg(𝑤𝑧) = arg(𝑤) + arg(𝑧)

La segunda de estas ecuaciones dice que el conjunto arg(𝑤𝑧) está formado por todos los
números 𝜃 + 𝜙, donde 𝜃 ∈ arg (𝑤) y 𝜙 ∈ arg (𝑧). Si 𝑤* , 𝑤! , …,𝑤< son números complejos,
entonces
|𝑤* 𝑤! … 𝑤< | = |𝑤* ||𝑤! | … |𝑤< |
arg(𝑤* 𝑤! … 𝑤< ) = arg(𝑤* ) arg(𝑤! ) … arg(𝑤< )

La multiplicación de un número complejo por 𝑖 tiene una interpretación


geométrica particularmente simple en un diagrama de Argand. Como
6
|𝑖| = 1 y arg(𝑖) = , la multiplicación de 𝑤 = 𝑎 + 𝑏𝑖 por 𝑖 gira el vecor
!
de posición de 𝑤 en sentido contrario a las agujas del reloj 90o alrededor
del origen.

Sea 𝑧 = cos 𝜃 + 𝑖 sin 𝜃. Entonces |𝑧| = 1 y arg(𝑧) = 𝜃. Como el


módulo de un producto es el producto de los módulos de los factores y la fase de un producto
es la suma de las fases de los factores, tenemos |𝑧 < | = |𝑧|< = 1 y arg(𝑧 < ) = 𝑛 arg(𝑧) = 𝑛𝜃.
Por tanto,

𝑧 < = cos 𝑛𝜃 + 𝑖 sin 𝑛𝜃

Y hemos demostrado el Teorema de de Moivre

(cos 𝜃 + 𝑖 sin 𝜃)< = cos 𝑛𝜃 + 𝑖 sin 𝑛𝜃

De Moivre se puede usar para generar identidades trigonométricas de los múltiplos de un


ángulo. Por ejemplo, para 𝑛 = 2 tenemos

cos 2𝜃 + 𝑖 sin 2𝜃 = (cos 𝜃 + sin 𝜃)! = cos ! 𝜃 − sin! 𝜃 + 2𝑖 cos 𝜃 sin 𝜃

Por tanto, cos 2𝜃 = cos ! 𝜃 − sin! 𝜃 y sin 2𝜃 = 2 sin 𝜃 cos 𝜃.


El inverso de un número complejo distinto de 0 𝑤 = 𝑎 + 𝑏𝑖 se puede calcular multiplicando el
numerador y el denominador de la expresión del inverso por el conjugado de 𝑤:

1 1 𝑎 − 𝑏𝑖 𝑎 − 𝑏𝑖 𝑤
m
𝑤 9* = = = = ! =
𝑤 𝑎 + 𝑏𝑖 (𝑎 + 𝑏𝑖)(𝑎 − 𝑏𝑖) 𝑎 + 𝑏 ! |𝑤|!

Como |𝑤
m| = |𝑤| y arg(𝑤
m) = −arg (𝑤), tenemos que

1 |𝑤
m| 1 1
u u= = 𝑦 arg n o = −arg(𝑤)
𝑤 |𝑤| ! |𝑤| 𝑤
El cociente 𝑧/𝑤 de dos números complejos 𝑧 = 𝑥 + 𝑦𝑖 y 𝑤 = 𝑎 + 𝑏𝑖 es el producto de 𝑧 y 1/𝑤 ,
por lo que

𝑧 𝑧𝑤
m (𝑥 + 𝑦𝑖)(𝑎 − 𝑏𝑖) 𝑥𝑎 + 𝑦𝑏 + 𝑖(𝑦𝑎 − 𝑥𝑏)
= = =
𝑤 |𝑤| ! 𝑎! + 𝑏 ! 𝑎! + 𝑏 !

Tenemos que el módulo y la fase de un cociente son


𝑧 |𝑧| 𝑧
v v= 𝑦 arg O P = arg(𝑧) − arg (𝑤)
𝑤 |𝑤| 𝑤
=
El conjunto arg O> P está formado por todos los números 𝜃 − 𝜙 donde 𝜃 ∈ arg(𝑧) y 𝜙 ∈ arg(𝑤).

RAÍCES DE NÚMEROS COMPLEJOS

Si 𝑎 es un número real positivo, existen dos números reales diferentes cuyos cuadrados es 𝑎. Se
denominan √𝑎 y −√𝑎.
Todo número complejo 𝑧 = 𝑥 + 𝑦𝑖 distinto de 0 tiene dos raíces cuadradas; si 𝑤* es un número
complejo tal que 𝑤*! = 𝑧, entonces 𝑤! = −𝑤* también cumple 𝑤!! = 𝑧. Es interesante señalar
una de estas raíces para denominarlas √𝑧.

Sea 𝑟 = |𝑧|, de forma que 𝑟 > 0. Sea 𝜃 = 𝐴𝑟𝑔 (𝑧). Por tanto, −𝜋 < 𝜃 ≤ 𝜋. Como

𝑧 = 𝑟(cos 𝜃 + 𝑖 sin 𝜃)
El número complejo
𝜃 𝜃
𝑤 = √𝑟 ncos + 𝑖 sin o
2 2

Cumple claramente 𝑤 ! = 𝑧. Denominaremos a 𝑤 raíz cuadrada principal de 𝑧 y lo escribiremos


√𝑧. Las dos soluciones e la ecuación 𝑤 ! = 𝑧, son, por tanto, 𝑤 = √𝑧 y 𝑤 = −√𝑧.
6
Obsérvese que la parte real de √𝑧 es siempre no negativa puesto que cos(𝜃/2) ≥ 0 para − ! <
6 ?
𝜃 ≤ ! . En este intervalo sin O!P = 0 sólo si 𝜃 = 0 enc cuyo caso √𝑧 es real y positiva.

Dado un número complejo 𝑧 distinto de 0, se pueden obtener n números complejos distintos 𝑤


que cumplen 𝑤 < = 𝑧. Estos n números se denominan las raíces n-ésimas de 𝑧. Por ejemplo, si
𝑧 = 1 = cos 0 + 𝑖 sin 0 , entonces todos los números son

𝑤* = 1
2𝜋 2𝜋
𝑤! = cos + 𝑖 sin
𝑛 𝑛
4𝜋 4𝜋
𝑤@ = cos + 𝑖 sin
𝑛 𝑛
6𝜋 6𝜋
𝑤A = cos + 𝑖 sin
𝑛 𝑛


2(𝑛 − 1)𝜋 2(𝑛 − 1)𝜋
𝑤< = cos + 𝑖 sin
𝑛 𝑛

Cumplen 𝑤 < = 1 y, por tanto, son raíces n-ésimas de 1. En general, las raíces n-ésimas de la
unidad estarán en una circunferencia de radio 1 centrada en el origen, y sus vértices formarán
un polígono regular de n lados con uno de sus vértices en 1.

Si 𝑧 es un número complejo distinto de 0 y q es la fase principal de 𝑧(−𝜋 < 𝜃 ≤ 𝜋), entonces el


número
* 𝜃 𝜃 * )?
𝑤* = |𝑧|< ncos + 𝑖 sin o = |𝑧|< ℮ <
𝑛 𝑛

Se denomina raíz principal n-ésima de 𝑧. Todas las raíces n-ésimas de 𝑧 están en una
#
circunferencia de radio |𝑧|$ centrada en el origen y ocupan los vértices de un polígono regular
de n lados con uno de sus vértices en 𝑤* . Las otras n raíces son
# # %('()"!)
?B!(<9*)6 ?B!(<9*)6
𝑤< = |𝑧|$ Ocos <
+ 𝑖 sin <
P = |𝑧|$ ℮ $

POLINOMIOS
TEOREMA FUNDAMENTAL DEL ÁLGEBRA

El teorema fundamental del álgebra establece que todo polinomio de grado mayor que cero
tiene una raíz.
Un polinomio complejo de grado n es una función de la forma
< <
< <9* ! D
𝑃< (𝑧) = 𝑎< 𝑧 + 𝑎<9* 𝑧 + ⋯ + 𝑎! 𝑧 + 𝑎* 𝑧 + 𝑎C = | 𝑎D 𝑧 = 𝑎< }(𝑧 − 𝑏𝑖)
DEC )E*
Donde 𝑎C , 𝑎* , … , 𝑎< son números complejos y 𝑎< ≠ 0. Los números 𝑎) (0 ≤ 𝑖 ≤ 𝑛) se
denominan coeficientes del polinomio. Si todos ellos son números reales, entonces 𝑃< (𝑥) se
denomina polinomio real.

Un número complejo 𝑧C que cumple la ecuación 𝑃< (𝑧C ) = 0 se denomina cero o raíz del
polinomio. Todo polinomio de grado 1 tiene un 0: si 𝑎* ≠ 0, entonces 𝑎* 𝑧 + 𝑎C tiene un 0 𝑧 =
−𝑎C /𝑎* . Este cero es real si 𝑎* y 𝑎C son reales.
De forma similar, todo polinomio complejo de grado 2 tiene dos ceros. Si el polinomio es

𝑃! (𝑧) = 𝑎! 𝑧 ! + 𝑎* 𝑧 + 𝑎C

Con 𝑎! ≠ 0, entonces los ceros se pueden calcular mediante la fórmula de la ecuación de


segundo grado
−𝑎* − _𝑎*! − 4𝑎! 𝑎C −𝑎* + _𝑎*! − 4𝑎! 𝑎C
𝑧* = z = 𝑦 𝑧! = z =
2𝑎! 2𝑎!
En este caso 𝑃! (𝑧) tiene dos factores lineales:
𝑃! (𝑧) = 𝑎! (𝑧 − 𝑧* )(𝑧 − 𝑧! )

Incluso si cada 𝑎*! − 4𝑎! 𝑎C = 0, de modo que 𝑧* = 𝑧! , podemos considerar todavía que el
polinomio tiene dos ceros (iguales), cada uno correspondiente a cada factor. Si los coeficientes
𝑎C , 𝑎* 𝑦 𝑎! son números reales, los ceros serán reales siempre que 𝑎*! ≥ 4𝑎! 𝑎C . Cuando los
coeficientes reales cumplen que 𝑎*! ≤ 4𝑎! 𝑎C , entonces los ceros son complejos, de hecho,
complejos conjugados: 𝑧! = 𝑧m* .
El teorema Fundamental del álgebra asegura que todo polinomio complejo de grado positivo
tiene unos cero complejos.

TEMA 2. CÁLCULO DIFERENCIAL


(apuntes bases sobre este tema están por separado)
FUNCIONES REALES

Dados dos conjuntos A y B, una aplicación de A en B es una asociación f que a cada elemento de
A le asigna un único elemento B.
Decimos pues, que A es el dominio de la función f y se llama imagen o rango de la función. Una
función real es una aplicación de su dominio y condominio.

Algunas de las funciones más comunes son


· Polinómicas:
𝑃(𝑥) = 𝑎< 𝑥 < + 𝑎<9* 𝑥 <9* + ⋯ + 𝑎* 𝑥 + 0C
· Racionales:
𝑃(𝑥)
𝑅(𝑥) = ; 𝑃(𝑥) 𝑦 𝑄(𝑥) → 𝑝𝑜𝑙𝑖𝑛𝑜𝑚𝑖𝑜𝑠
𝑄 (𝑥)
·Exponenciales:
𝑓(𝑥) = 𝑎 ; ; 𝑎 > 0 𝑦 𝑎 ≠ 1
·Logarítmicas:
𝑦 = log % (𝑥) ↔ 𝑎 ' = 𝑥
·Trigonométricas:
sin(𝑥) , cos(𝑥) , tan(𝑥) , sec(𝑥) , csc(𝑥) , cot (𝑥)
·Trigonométricas inversas o recíprocas:
𝑎𝑟𝑐𝑠𝑖𝑛, 𝑎𝑟𝑐𝑐𝑜𝑠, 𝑎𝑟𝑐𝑡𝑎𝑛

LÍMITES
DEFINICIÓN 1 (Definición informal de límite)

Si 𝑓(𝑥) está definida por todo x cerca de 𝑎, con la posible excepción del propio 𝑎, y se puede
asegurar que 𝑓(𝑥) se acerca todo lo que queramos a 𝐿 a medida que x va estando lo
suficientemente cerca de 𝑎, se dice que la función 𝑓 se aproxima al límite 𝐿 cuando x tiende
a 𝑎, y se escribe.
lim 𝑓(𝑥) = 𝐿
;→%

*
Una función 𝑓 puede estar definida a ambos lados de 𝑥 = 𝑎. Por ejemplo, la función 𝑓(𝑥) = ;
no tiene límite cuando x tiende a 0. Los valores de 1/x crecen en valor absoluto sin límite a
medida que x se aproxima a 0. No se aproxima a ningún número 𝐿

Los límites son únicos, Si lim 𝑓(𝑥) = 𝐿 y lim 𝑓(𝑥) = 𝑀, entonces 𝐿 = 𝑀. Aunque una función
;→% ;→%
𝑓 sólo puede tener un límite en un punto en particular, resulta de utilidad poder describir el
comportamiento de funciones que se aproximan a números diferentes cuando x se aproxima al
valor 𝑎 por un lado o por el otro.

DEFINICIÓN 2. (Definición informal de límites por la izquierda y por la derecha)

Si 𝑓(𝑥) está definida en algún intervalo (𝑏, 𝑎) a la izquierda de 𝑥 = 𝑎, y si se puede asegurar


que 𝑓(𝑥) se acerca cuanto deseemos a 𝐿 cuando x se acerca cada vez más a 𝑎 por la izquierda,
se dice que el límite por la izquierda de 𝑓(𝑥) cuando tiende a 𝑎 es 𝐿, y se escribe
lim+ 𝑓(𝑥) = 𝐿
;→%

Si se define en (𝑎, 𝑏), el límite por la derehca de 𝑓(𝑥) cuando tiende a 𝑎 es 𝑀, y se escribe
lim( 𝑓(𝑥) = 𝑀
;→%

Una función 𝑓(𝑥) tiene límite 𝐿 en 𝑥 = 𝑎 si y sólo si existen dos límites por la izquierda y por la
derecha en ese punto u ambos son iguales a 𝐿:
lim 𝑓(𝑥) = 𝐿 ↔ lim+ 𝑓(𝑥) = lim( 𝑓(𝑥) = 𝐿
;→% ;→% ;→%

PROPIEDADES DE LOS LÍMITES PARA SU CÁLCULO

Los siguientes teoremas facilitan la tarea del cálculo de límites, y de límites unilaterales para
muchos tipos de funciones.

Si lim 𝑓(𝑥) = 𝐿, lim 𝑔(𝑥) = 𝑀, y 𝑘 es una constante, entonces


;→% ;→%

·lim [𝑓(𝑥) ± 𝑔(𝑥)] = lim 𝑓(𝑥) ± lim 𝑔(𝑥)


;→% ;→% ;→%
·lim [𝑓(𝑥) · 𝑔(𝑥)] = lim 𝑓(𝑥) · lim 𝑔(𝑥)
;→% ;→% ;→%
H,I G(;)
·lim [𝑓(𝑥)]G(;) = lim [𝑓(𝑥)],→. si 𝑔(𝑥) ≠ 0
;→% ;→%
·lim log 𝑓(𝑥) = log lim 𝑘(𝑥)
;→% ;→%
·lim 𝑘 = 𝑘, 𝑘∈ℝ
;→%
·lim 𝑥 = 𝑎
;→%
·lim 𝑘 = 𝑘𝑓(𝑥) = 𝑘 lim 𝑓(𝑥)
;→% ;→%
·lim 𝑘𝑓(𝑥) = 𝑘𝐿
;→%
J(;) K
·lim G(;) = L , 𝑠𝑖 𝑀 ≠ 0
;→%
·lim [𝑓(𝑥)]M/< = 𝐿M/< , siempre que 𝐿 > 0 cuando 𝑛 es par, y 𝑚 < 0
;→%

Si i 𝑓(𝑥) ≤ 𝑔(𝑥) en un intervalo que contiene a 𝑎 en su interior, entonces.


𝐿≤𝑀
TEOREMA DEL SANDWICH

Supongamos que la condición 𝑓(𝑥) ≤ 𝑔(𝑥) ≤ ℎ(𝑥) se cumple ∀𝑥 𝜖 ] − ∞, +∞[: 𝑥 = 𝑎 , con la


posible excepción del propio 𝑥 = 𝑎. Supongamos también que

lim 𝑓(𝑥) = lim ℎ(𝑥) = 𝐿


;→% ;→%
Entonces, también lim 𝑔(𝑥) = 𝐿. Lo mismo se aplica para el caso de límites laterales por la
;→%
izquierda y por la derecha.

DERIVADAS DE UNA FUNCIÓN REAL (DIFERENCIACIÓN)

Dada una función real de f decimos que un punto 𝑎 es un punto interior de f si existe en un
intervalo abierto del domino de f que contienen a 𝑎
DEFINICIÓN 3
La derivada de una función 𝑓 es otra función 𝑓′ definida como

𝑓(𝑎 + ℎ) − 𝑓(𝑎) 𝑓(𝑥) − 𝑓(𝑎)


𝑓 O (𝑥) = lim = lim
(→C ℎ ;→% 𝑥−𝑎

En todos los puntos x donde el límite exista (sea un número finito). Si existe 𝑓 O (𝑥), se dice que
f es derivable en x.

NOTACIÓN LEIBNIZ

Como las funciones se pueden escribir de diferentes formas, resulta de utilidad tener más de
una notación para representar las derivadas. Si 𝑦 = 𝑓(𝑥), se puede usar la variable dependiente
y ara representar la función, e indicar la derivada de ducha función respecto a x de laguna de las
siguientes formas:
𝑑𝑦 𝑑
𝐷; 𝑦 = 𝑦 O = = 𝑓(𝑥) = 𝑓 O (𝑥) = 𝐷; 𝑓(𝑥) = 𝐷𝑓(𝑥)
𝑑𝑥 𝑑𝑥

Así que, para la función derivada de f, escribiremos:


𝑑‹𝑓(𝑥)Œ
𝑑𝑥

El valor de la derivada de una función en un unto particular 𝑥C de su dominio se puede expresar


también de diversas formas:

O 𝑑𝑦 𝑑
𝐷; 𝑦|;E;/ = 𝑦′|;E;/ = u = 𝑓(𝑥)u = 𝑓′(𝑥C ) = 𝐷; 𝑓(𝑥C )
𝑑𝑥 ;E;/ 𝑑𝑥 ;E;/
Y las derivadas de orden superior se escriben como

𝑑< ‹𝑓(𝑥)Œ
𝑑𝑥 <
PROPOSICIÓN PROPIEDADES DE LA DERIVADA
REGLA E DIFERENCIACIOMN DE SUMAS, DIFERENCIAS Y PRODUCTOS POR COSNTANTES.
Si las funciones f y g son diferenciables en x, y C es unas constantes, entonces las funciones f+g,
f-g y Cf son diferenciables en x e y.

(𝑓 + 𝑔)O (𝑥) = 𝑓 O (𝑥) + 𝑔O (𝑥)


(𝑓 − 𝑔)O (𝑥) = 𝑓 O (𝑥) − 𝑔O (𝑥)
(𝐶𝑓)O (𝑥) = 𝐶𝑓 O (𝑥)

REGLA DEL PRODUCTO


Si las funciones f y g son diferenciables en x. entonces y producto 𝑓 · 𝑔 es también
diferenciable en x y.
(𝑓𝑔)O (𝑥) = 𝑓(𝑥)O 𝑔(𝑥) + 𝑓(𝑥)𝑔O (𝑥)
REGLA DE LA INVERSA
Si f es diferenciable en 𝑥 𝑦 𝑓(𝑥) ≠ 0, entonces 1/𝑓 es diferenciable en x y
1 O −𝑓 O (𝑥)
n o (𝑥) = !
𝑓 ‹𝑓(𝑥 )Œ
La regla de la inversa se puede utilizar la regla general de la potencia para enteros negativos:
𝑑 9<
𝑥 = −𝑛𝑥 9<9*
𝑑𝑥
Que ya hemos demostrado para enteros positivos. Tenemos que
𝑑 9< 𝑑 1 𝑛𝑥 <9*
𝑥 = = − = −𝑛𝑥 9<9*
𝑑𝑥 𝑑𝑥 𝑥 < (𝑥 < )!

REGLA DEL COCIENTE


La regla del Producto y La Regla de la Inversa se pueden combinar para obtener una regla de
diferenciación del cociente de dos funciones. Obsérvese que

𝑑 𝑓(𝑥) 𝑑 1 1 −𝑔O (𝑥) 𝑓 O (𝑥)𝑔(𝑥) − 𝑓(𝑥)𝑔O (𝑥)


Ž •= n𝑓(𝑥) · o = 𝑓 O (𝑥) + 𝑓(𝑥) • ! ‘ = !
𝑑𝑥 𝑔(𝑥) 𝑑𝑥 𝑔(𝑥 ) 𝑔(𝑥) ‹𝑔(𝑥)Œ ‹𝑔(𝑥)Œ
Por tanto, hemos demostrado la regla del cociente.
Si f y g son diferenciables en 𝑥 𝑦 𝑔(𝑥) ≠ 0, entonces el cociente 𝑓/𝑔 es diferenciable en x y
𝑓 O 𝑓 O (𝑥)𝑔(𝑥) − 𝑓(𝑥)𝑔O (𝑥)
n o (𝑥) = !
𝑔 ‹𝑔(𝑥)Œ
REGLA DE LA CADENA
La regla de la cadena es la siguiente
𝑑
𝑓‹𝑔(𝑥)Œ = 𝑓 O ‹𝑔(𝑥)Œ𝑔O (𝑥)
𝑑𝑥
Si 𝑓(𝑢) es diferenciable en 𝑢 = 𝑔(𝑥) y 𝑔(𝑥) es diferenciable en x, entonces la función
compuesta 𝑓 ∘ 𝑔(𝑥) = 𝑓‹𝑔(𝑥)Œ y es diferenciable en x y
(𝑓 ∘ 𝑔)O (𝑥) = 𝑓 O ‹𝑔(𝑥)Œ𝑔O (𝑥)
Sea 𝑢 una función diferenciable en x e 𝑦 = 𝑢< . La aplicación de la regla de la cadena produce
𝑑 < 𝑑𝑦 𝑑𝑦 𝑑𝑢 𝑑𝑢
𝑢 = = = 𝑛𝑢<9*
𝑑𝑥 𝑑𝑥 𝑑𝑢 𝑑𝑥 𝑑𝑥
La fórmula
𝑑 < 𝑑𝑢
𝑢 = 𝑛𝑢<9*
𝑑𝑥 𝑑𝑥
&
Es simplemente la formula &; 𝑥 < = 𝑛𝑥 <9* donde se ha incluido la regla de la cadena para que se
pueda emplear con funciones de x, en vez de sólo con x. Algunas otras reglas de diferenciación
donde se puede aplicar la regla de la cadena son

𝑑 1 −1 𝑑𝑢
n o= ! (𝑟𝑒𝑔𝑙𝑎 𝑑𝑒 𝑙𝑎 𝑖𝑛𝑣𝑒𝑟𝑠𝑎)
𝑑𝑥 𝑢 𝑢 𝑑𝑥
𝑑 1 𝑑𝑢
√𝑢 = (𝑟𝑒𝑔𝑙𝑎 𝑑𝑒 𝑙𝑎 𝑟𝑎𝑖𝑧 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑎)
𝑑𝑥 2√𝑢 𝑑𝑥
𝑑 O 𝑑𝑢
𝑢 = 𝑟𝑢P9* (𝑟𝑒𝑔𝑙𝑎 𝑔𝑒𝑛𝑒𝑟𝑎𝑙 𝑑𝑒 𝑙𝑎 𝑝𝑜𝑡𝑒𝑛𝑐𝑖𝑎)
𝑑𝑥 𝑑𝑥
𝑑 𝑑𝑢 𝑢 𝑑𝑢
|𝑢| = 𝑠𝑔𝑛 𝑢 = (𝑟𝑒𝑔𝑙𝑎 𝑑𝑒𝑙 𝑣𝑎𝑙𝑜𝑟 𝑎𝑏𝑠𝑜𝑙𝑢𝑡𝑜)
𝑑𝑥 𝑑𝑥 |𝑢| 𝑑𝑥

SIGNIFICADO GEOMÉTRICO DE LA DERIVADA

La derivada de una función en un punto 𝑎 coincide con la pendiente de la recta tangente a una
curva definida por una función en el punto ‹𝑎, 𝑓(𝑎)Œ.
La recta tangente a 𝑦 = 𝑓(𝑥) en el punto ‹𝑎, 𝑓(𝑎)Œ será

𝑦 = 𝑓 O (𝑎) · (𝑥 − 𝑎) + 𝑓(𝑎)
Las pendientes en los que la grafica de una función tienen
pendiente positiva o negativa proporcionan información de
utilidad sobre el comportamiento de una función.

Véase que, si la derivada de x es igual a cero, es decir, 𝑓 O (𝑥) = 0 entonces pueden existir
máximos o mínimos relativos:

· Si 𝑓 O (𝑎) = 0 y 𝑓 OO (𝑎) < 0 entonces ese punto a, es un máximo relativo o local.


· Si 𝑓 O (𝑎) = 0 y 𝑓 OO (𝑎) > 0 entonces ese punto a, es un mínimo relativo o local.

POLINOMIOS DE TAYLOR
La linealización de la función 𝑓(𝑥) en 𝑥 = 𝑎, es decir, la función lineal
𝑃* (𝑥) = 𝐿(𝑥) = 𝑓(𝑎) + 𝑓 O (𝑎)(𝑥 − 𝑎)

Describe el comportamiento de f cerca de 𝑎 mejor que cualquier otro polinomio de grado 1 por
tanto, P1 como f tienen el mismo valor y la misma derivada en 𝑎:
𝑃* (𝑎) = 𝑓(𝑎) 𝑦 𝑃*O (𝑎) = 𝑓 O (𝑎)
Se utiliza el símbolo 𝑃* en vez de 𝐿 para subrayar el hecho de que la linealización es un polinomio
de grado máximo 1.
Se pueden obtener mejores aproximaciones a 𝑓(𝑥) utilizando polinomios de segundo grado o
de grado superior y ajustando más derivadas en 𝑥 = 𝑎. Por ejemplo, si 𝑓 es dos veces
diferenciable cerca de 𝑎, entonces el polinomio
𝑓 O (𝑎)
𝑃! (𝑥) = 𝑓(𝑎) + 𝑓 O (𝑎)(𝑥 − 𝑎) + (𝑥 − 𝑎)!
2

cumple 𝑃! (𝑥) = 𝑓(𝑎), 𝑃!O (𝑥) = 𝑓 O (𝑎) y 𝑃!OO (𝑥) = 𝑓 OO (𝑎) y describe el comportamiento de 𝑓
alrededor de 𝑎 mejor que cualquier otro polinomio de grado máximo 2.
En general, si 𝑓 (<) (𝑥) existe en un intervalo abierto que contiene a 𝑥 = 𝑎, entonces el polinomio
𝑓 O (𝑎) 𝑓 OO (𝑎) 𝑓 OOO (𝑎) 𝑓 (<) (𝑎)
𝑃< (𝑥) = 𝑓(𝑎) + (𝑥 − 𝑎) + (𝑥 − 𝑎)! + (𝑥 − 𝑎)@ + ⋯ + (𝑥 − 𝑎)<
1! 2! 3! 𝑛!

se ajusta a 𝑓 y a sus n primeras derivadas en 𝑥 = 𝑎,


(<)
𝑃< (𝑎) = 𝑓(𝑎), 𝑃<O (𝑎) = 𝑓 O (𝑥), . . ., 𝑃< (𝑎) = 𝑓 (<)(𝑎)
Y, por tanto, describe el comportamiento de 𝑓(𝑥) cerca de 𝑥 = 𝑎 mejor que cualquier otro
polinomio de grado máximo n. Pn se denomina polinomio de Taylor de orden n alrededor de a
(los polinomios de Taylor alrededor de 0 se denominan generalmente polinomios de MaClaurin).
El polinomio de Taylor de orden n para f alrededor de 𝑎 se denomina a veces polinomio de Taylor
de grado n, pero su grado será en realidad menor que n si 𝑓 (<) (𝑎) = 0.

FORMULA DE TAYLOR
El siguiente teorema proporciona una fórmula para el error en una aproximación de Taylor
𝑓(𝑥) ≈ 𝑃< (𝑥), similar a la proporcionada para la aproximación lineal.

Si la derivada de orden (𝑛 + 1), 𝑓 (<B*)(𝑡), existe para todo t en un intervalo que contiene a 𝑎 y
a 𝑥, y si 𝑃< (𝑥) es el polinomio de Taylor de orden n para 𝑓 alrededor de 𝑎, es decir,
𝑓 O (𝑎) 𝑓 OO (𝑎) 𝑓 (<) (𝑎)
𝑃< (𝑥) = 𝑓(𝑎) + (𝑥 − 𝑎) + (𝑥 − 𝑎)! + ⋯ + (𝑥 − 𝑎)<
1! 2! 𝑛!
Entonces el Error 𝐸< (𝑥) = 𝑓(𝑥) − 𝑃< (𝑥) en la aproximación 𝑓(𝑥) ≈ 𝑃< (𝑥) se expresa como
𝑓 (<B*) (𝑠)
𝐸< (𝑥) = (𝑥 − 𝑎)<B*
(𝑛 + 1)!
Siendo s un número entre 𝑎 y 𝑥. La formula resultante
𝑓 O (𝑎) 𝑓 OO (𝑎) 𝑓 (<) (𝑎)
𝑓(𝑥) = 𝑓(𝑎) + (𝑥 − 𝑎) + (𝑥 − 𝑎)! + ⋯ + (𝑥 − 𝑎)<
1! 2! 𝑛!
𝑓 (<B*) (𝑠)
+ (𝑥 − 𝑎)<B*
(𝑛 + 1)!
se denomina fórmula de Taylor con resto de Lagrange (𝐸< (𝑥))

FUNCIONES HIPERBÓLICAS

Cualquier función definida en la recta real se puede expresar como la suma de una función par
y una función impar. Las funciones hiperbólicas cosh 𝑥 y sinh 𝑥 y son, respectivamente, las
funciones par e impar cuya suma es la función exponencial 𝑒 ;

DEFINICIÓN 4
Para cualquier número real x el coseno y el seno hiperbólicos se definen como

𝑒 ! + 𝑒 "! 𝑒 ! − 𝑒 "!
cosh 𝑥 = sinh 𝑥 =
2 2

Recuérdese que el seno y el coseno se denominan funciones circulares debido a


que, para todo t, el punto (cos 𝑡 , sin 𝑡) está en la circunferencia cuya ecuación
es 𝑥 ! + 𝑦 ! = 1. De forma similar, cosh y sinh se denominan funciones
hiperbólicas porque el punto t (cosh 𝑡 , sinh 𝑡) está en la hipérbola rectangular
cuya ecuación es 𝑥 ! − 𝑦 ! = 1,
cosh! 𝑡 − sin! 𝑡 = 1. ∀𝑡 ∈ ℝ
De forma similar a los correspondientes valores de cos 𝑥 𝑦 sin 𝑥, tenemos que
cosh 𝜃 = 1 𝑦 sinh 𝜃 = 0
Y que tanto el coseno y el coseno hiperbólico son funciones pares y seno
hiperbólico y seno son funciones impares.

La imagen de la función seno hiperbólico es definida en toda la recta real, y la


imagen de la función coseno hiperbólico está definido en el intervalo
[+1, +∞[.

Como podemos ver, las identidades trigonométricas funcionan de igual forma


para todas las otras funciones trigonométricas hiperbólicas.

CÁLCULO DIFERENCIAL DE FUNCIONES DE VARIAS VARIABLES

La notación 𝑦 = 𝑓(𝑥) se utiliza para indicar que la variable y depende de la única variable real
x, es decir, que y es la función de x. El dominio de esa función f es un conjunto de números
reales. Existen muchas magnitudes que dependen de más de una variable real y, por tanto, que
son funciones de más de una variable. Por ejemplo, el voluemn de un cilindro circular de radio r
y altura h se expresa como 𝑉 = 𝜋𝑟 ! ℎ, se dice que V es en función de dos variables: r y h. Si
denominamos f a esta función, entonces expresaremos 𝑉 = 𝑓(𝑟, ℎ), siendo
𝑓(𝑟, ℎ) = 𝜋𝑟 ! ℎ, (𝑟 ≥ 0, ℎ ≥ 0)

Así, 𝑓 es una función de dos variables cuyo dominio es el conjunto de puntos en el plano 𝑟ℎ
cuyas coordenadas (𝑟, ℎ), cumplen (𝑟 ≥ 0, ℎ ≥ 0). De forma similar, la relación 𝑤 =
𝑓(𝑥, 𝑦, 𝑧) = 𝑥 + 2𝑦 − 3𝑧, define 𝑤 como función de las variables 𝑥 𝑦 𝑧, cuyo dominio es ℝ@ .
Por analogía con la correspondiente definición de funciones de una variable, definiremos una
función de n variables de la siguiente forma:

DEFINICIÓN 5

Una función 𝑓 de 𝑛 variables reales es una regla que asigna un único número real
𝑓(𝑥* , 𝑥! , … , 𝑥< ) de algún subconjunto 𝔇(𝑓) de ℝ< . 𝔇(𝑓) se denomina dominio de 𝑓. El
conjunto de números reales 𝑓(𝑥* , 𝑥! , … , 𝑥< ) obtenido a partir de los puntos del dominio se
denomina rango de 𝑓.
Como en el caso de funciones de 𝑛 variables, la convención del dominio especifica que el
dominio de una función de 𝑛 variables es el máximo conjunto de puntos (𝑥* , 𝑥! , … , 𝑥< ) para
el que 𝑓(𝑥* , 𝑥! , … , 𝑥< ) tiene sentido como numero real, a menos que el dominio se establezca
explícitamente como un conjunto menor.

Distinguiremos dos clases de funciones de varias variables:

· Las funciones escalares son funciones de 𝑛 variables que toman valores reales:
𝑓 ∶ 𝒟 ⊆ ℝ< ⟼ ℝ

· Las funciones vectoriales son funciones de 𝑛 variables que toman valores vectoriales:
𝑓 ∶ 𝒟 ⊆ ℝ< ⟼ ℝM

DERIVADAS DIRECCIONALES

Las derivadas direccionales primeras 𝑓* (𝑎, 𝑏) y 𝑓! (𝑎, 𝑏) proporcionan las tasas de cambio de
𝑓(𝑥, 𝑦) en (𝑎, 𝑏), medidas en las direcciones de los ejes 𝑥 e 𝑦 positivos, respectivamente. Si se
dese conocer con qué rapidez cambia 𝑓(𝑥, 𝑦) cuando nos movemos por el dominio de 𝑓 dese el
punto (𝑎, 𝑏) en alguna otra dirección, se requiere una derivada direccional más general.
Podemos especificar la dirección mediante un vector distinto de cero. Es más cómodo utilizar
un vector unitario.

DEFINICIÓN 6

Sea 𝒖 = 𝑢𝒊 + 𝑣𝒋 un vector unitario, tal que 𝑢! + 𝑣 ! = 1. La derivada direccional de 𝑓(𝑥, 𝑦)


en el punto (𝑎, 𝑏) y en la dirección de 𝒖 es la tasa de cambio de 𝑓(𝑥, 𝑦) con respecto a la
distancia medida desde (𝑎, 𝑏), siguiendo un rayo en la dirección de 𝒖 en el plano xy. La
derivada direccional se expresa como

𝑓(𝑎 + ℎ𝑢, 𝑏 + ℎ𝑣) − 𝑓(𝑎, 𝑏)


𝐷$ 𝑓(𝑎, 𝑏) = lim(
(→C ℎ

Tambien se puede expresar como

𝑑
𝐷$ 𝑓(𝑎, 𝑏) = 𝑓(𝑎 + ℎ𝑢, 𝑏 + ℎ𝑣)u
𝑑𝑡 0EC
Si existe la derivada del miembro derecho.

DERIVADAS PARCIALES

Una función de 𝑛 variables tiene 𝑛 derivadas parciales de primer orden, una von respecto a cada
una de sus variables independientes. En el caso de una función de dos variables, precisaremos
esta idea en la siguiente definición

DEFINICIÓN 7

Las primeras derivadas parciales de la función 𝑓(𝑥, 𝑦) con respecto a las variables x e y son
las funciones 𝑓* (𝑥, 𝑦) y 𝑓! (𝑥, 𝑦) dadas por
𝑓(𝑥 + ℎ, 𝑦) − 𝑓(𝑥, 𝑦) 𝜕𝑓* (𝑥, 𝑦)
𝑓* (𝑥, 𝑦) = lim =
(→C ℎ 𝜕𝑥
𝑓(𝑥, 𝑦 + ℎ) − 𝑓(𝑥, 𝑦) 𝜕𝑓! (𝑥, 𝑦)
𝑓! (𝑥, 𝑦) = lim =
D→C 𝑘 𝜕𝑦
Suponiendo que los limites existen.

𝑒* = (1,0,0, … ,0)
𝑒 = (0,1,0, … ,0)
Denotamos los vectores canónicos de ℝ< como ¢ !

𝑒< = (0,0,0, … ,1)
Dada una función escalar 𝑓: 𝔇 ⊆ ℝ< ⟼ ℝ y un punto 𝑎 del interior del dominio de 𝑓, definimos
las derivadas parciales de 𝑓 en el punto 𝑎 como
𝜕𝑓(𝑎)
= 𝐷Q# 𝑓(𝑎)
𝜕𝑥*
𝜕𝑓(𝑎)
= 𝐷Q" 𝑓(𝑎)
𝜕𝑥!

𝜕𝑓(𝑎)
= 𝐷Q$ 𝑓(𝑎)
𝜕𝑥<
En la practica, para calcular las derivadas parciales haremos uso de las reglas de derivación de
funciones de una variable suponiendo que todas las variables respecto de las que no se está
derivando son constantes.

VECTOR GRADIENTE
Para empezar, es útil combinar las derivadas parciales primeras de una función en una única
función vector denominada gradiente. Por motivos de sencillez, desarrollaremos e
interpretaremos el gradiente para funciones de dos variables. La extensión a funciones de tres
o más variables es directa y se presentará más adelante.

DEFINICIÓN 8

En cualquier punto (𝑥, 𝑦) donde existan las derivadas parciales de la función 𝑓(𝑥, 𝑦), se define
el vector gradiente ∇𝑓(𝑥, 𝑦) = 𝑔𝑟𝑎𝑑 𝑓(𝑥, 𝑦) como

∇𝑓(𝑥, 𝑦) = 𝑓* (𝑥, 𝑦)𝒊 + 𝑓! (𝑥, 𝑦)𝒋

El símbolo ∇ se denomina nabla, i es un operador de diferenciación vectorial


𝜕 𝜕
∇= 𝒊 +𝒋
𝜕𝑥 𝜕𝑦
Se puede aplicar este operador a una función 𝑓(𝑥, 𝑦) escribiendo el operador a la izquierda de
la función. El resultado es el gradiente de dicha función.
𝜕 𝜕
∇𝑓(𝑥, 𝑦) = n𝒊 + 𝒋 o 𝑓(𝑥, 𝑦) = 𝑓* (𝑥, 𝑦)𝒊 + 𝑓! (𝑥, 𝑦)𝒋
𝜕𝑥 𝜕𝑦
Entonces el vector gradiente de una función escalar se define:
Dada una función escalar 𝑓: 𝔇 ⊆ ℝ< ⟼ ℝ y un punto 𝑎 del interior el dominio de 𝑓
donde la función admite derivadas parciales, definimos el vector gradiente de 𝑓 en el
punto 𝑎 como el vector 𝑛-dimensional
𝜕𝑓(𝑎) 𝜕𝑓(𝑎) 𝜕𝑓(𝑎)
∇𝑓(𝑎) = Ž , ,…, •
𝜕𝑥* 𝜕𝑥! 𝜕𝑥<
Podemos usar el gradiente para calcular derivadas direccionales también.

Si 𝑓 es diferenciable en (𝑎, 𝑏) y 𝒖 = 𝑢𝒊 + 𝑢𝒋 es un vector unitario, entonces la derivada


direccional de 𝑓 en el punto (𝑎, 𝑏) y en la dirección de 𝒖 se expresa como

𝐷$ (𝑎, 𝑏) = 𝒖 · ∇f(a, b)

La demostración es la siguiente:

Por la regla de la cadena:


𝑑
𝐷$ 𝑓(𝑎, 𝑏) = 𝑓(𝑎 + 𝑡𝑢, 𝑏 + 𝑡𝑣)u = 𝑢𝑓* (𝑎, 𝑏) + 𝑢𝑓! (𝑎, 𝑏) = 𝒖 · ∇f(a, b)
𝑑𝑡 0EC

Ya sabemos que tener derivadas parciales en un punto no implica que la función sea continua
en dicho punto, y ni siquiera que sea diferenciable. Lo mismo se puede decir sobre las derivadas
direccionales. Es posible que una función tenga una derivada direccional en cualquier dirección
desde un punto dado y aun así que no sea continua en dicho punto.
Dado cualquier vector 𝒗 distinto de cero, siempre que puede obtener un vector unitario en la
misma dirección dividiendo 𝒗 por su longitud. La derivada direccional de 𝑓 en (𝑎, 𝑏) y en la
dirección de 𝒗 se expresa, por tanto, como

𝒗
𝐷 𝒗 𝑓(𝑎, 𝑏) = · ∇𝑓(𝑎, 𝑏)
|𝒗| |𝒗|

MATRIZ JACOBIANA
En el caso de que tengamos una función vectorial 𝑓: 𝔇 ⊆ ℝ< ⟼ ℝM el equivalente al vector
jacobino es la matriz jacobina definida como
𝜕𝑓* 𝜕𝑓*
⎡ ⋯ ⎤
𝜕𝑓 𝜕𝑓 ⎢ 𝜕𝑥* 𝜕𝑥< ⎥
𝐽𝑓(𝑎) = ¨ ,…, ©=⎢ ⋮ ⋱ ⋮ ⎥
𝜕𝑥* 𝜕𝑥<
⎢𝜕𝑓M ⋯ 𝜕𝑓M ⎥
⎣ 𝜕𝑥* 𝜕𝑥< ⎦

La transformación lineal representada por la matriz jacobina se denomina derivada de la


transformación f.
Podemos usar el vector gradiente y la matriz jacobina para calcular las derivadas direccionales
en el correspondiente punto, multiplicando la matriz jacobina por el vector direccional.

REGLA DE LA CADENA MATRICIAL


La regla de la cadena que usamos para derivar funciones de una variable compuestas se extiende
de modo natural a composición de funciones de varias variables usando el producto matricial.

Una función escalar de dos variables, por ejemplo 𝑓(𝑥, 𝑦), se puede ver como una
transformación de ℝ! en ℝ. Su derivada es entonces la transformación lineal cuya matriz es

𝐷𝑓(𝑥, 𝑦) = ‹𝑓* (𝑥, 𝑦), 𝑓! (𝑥, 𝑦)Œ

La matriz jacobina de la composición de dos transformaciones de este tipo es producto de sus


matrices jacobinas.
Sea 𝑦 = 𝑓(𝑥) una transformación de ℝ< en ℝM como se ha descrito antes, y sea 𝑧 = 𝑔(𝑦) otra
transformación de ℝM en ℝD dada por
𝑧* = 𝑔* (𝑦* , 𝑦! , … , 𝑦M )
𝑧! = 𝑔! (𝑦* , 𝑦! , … , 𝑦M )

𝑧D = 𝑔D (𝑦* , 𝑦! , … , 𝑦M )

cuya matriz jacobiana 𝑘 × 𝑚 es


𝜕𝑧* 𝜕𝑧*

⎛𝜕𝑦* 𝜕𝑦M ⎞
𝐽𝑔(𝑦) = ⎜ ⋮ ⋱ ⋮ ⎟
𝜕𝑧D 𝜕𝑧D

⎝𝜕𝑦* 𝜕𝑦M ⎠

Entonces la composición 𝑧 = 𝑔 ∘ 𝑓(𝑥) = 𝑔‹𝑓(𝑥)Œ dada por


𝑧* = 𝑔* (𝑓* (𝑥* , 𝑥! , … , 𝑦< ), … , 𝑓M (𝑥* , 𝑥! , … , 𝑦< ))
𝑧! = 𝑔! (𝑓* (𝑥* , 𝑥! , … , 𝑦< ), … , 𝑓M (𝑥* , 𝑥! , … , 𝑦< ))

𝑧D = 𝑔D (𝑓* (𝑥* , 𝑥! , … , 𝑦< ), … , 𝑓M (𝑥* , 𝑥! , … , 𝑦< ))

tiene, de acuerdo con la Regla de la Cadena, la matriz jacobiana 𝑘 × 𝑛

𝜕𝑧* 𝜕𝑧* 𝜕𝑧* 𝜕𝑧* 𝜕𝑧* 𝜕𝑧*


⋯ ⋯ ⋯
⎛𝜕𝑥* 𝜕𝑥M ⎞ ⎛𝜕𝑦* 𝜕𝑦M ⎞ ⎛𝜕𝑥* 𝜕𝑥M ⎞
⎜ ⋮ ⋱ ⋮ ⎟=⎜ ⋮ ⋱ ⋮ ⎟⎜ ⋮ ⋱ ⋮ ⎟
𝜕𝑧D 𝜕𝑧D 𝜕𝑧D 𝜕𝑧D 𝜕𝑧D 𝜕𝑧D
⋯ ⋯ ⋯
⎝𝜕𝑥* 𝜕𝑥M ⎠ ⎝𝜕𝑦* 𝜕𝑦M ⎠ ⎝𝜕𝑥* 𝜕𝑥M ⎠

que es, de hecho, la Regla de la Cadena para composiciones de transformaciones:


𝐽(𝑔 ∘ 𝑓)(𝑥) = 𝐽𝑔‹𝑓(𝑥)Œ · 𝐽𝑓(𝑥)

La transformación 𝑦 = 𝑓(𝑥) define también un vector 𝑑𝑦 de diferenciales de las varias variables


y, en términos del vector 𝑑𝑥 de diferenciales de las variables 𝑥T . Expresando 𝑑𝑦 𝑑𝑥 como
vectores columna tenemos
𝜕𝑦* 𝜕𝑦*
𝑑𝑦* ⋯ 𝑑𝑥*
𝑑𝑦! ⎛𝜕𝑥* 𝜕𝑥M ⎞
𝑑𝑥!
𝑑𝑦 = ¸ ¹=⎜ ⋮ ⋱ ⋮ ⎟¸ ¹ = 𝐽𝑓(𝑥)𝑑𝑥
⋮ 𝜕𝑦D 𝜕𝑦D ⋮
𝑑𝑦M ⋯ 𝑑𝑥M
⎝𝜕𝑥* 𝜕𝑥M ⎠
CAMBIOS DE VARIABLES
Si tenemos una función escalar de dos variables 𝑓: ℝ! ⟶ ℝ, 𝑓(𝑥, 𝑦), aplicar un cambio de
variable implica sustituir las variables x e y por funciones 𝑥 = 𝑥(𝑢, 𝑣) e 𝑦 = 𝑦(𝑢, 𝑣) que
dependen de dos nuevas variables obteniendo una función 𝑓‹𝑥(𝑢, 𝑣), 𝑦(𝑢, 𝑣)Œ
G G
ℝ! → ℝ! → ℝ
(𝑢, 𝑣)⇝(𝑥, 𝑦)⇝(𝑓 ∘ 𝑔)(𝑢, 𝑣)
Aplicando la regla de la cadena obtenemos que
𝜕𝑥 𝜕𝑥
𝜕𝑧 𝜕𝑧 𝜕𝑢 𝜕𝑣½
𝐽(𝑓 ∘ 𝑔)(𝑢, 𝑣) = 𝐽𝑓[𝑔(𝑢, 𝑣)] · 𝐽𝑔(𝑢, 𝑣) = 𝐽𝑧(𝑥, 𝑦) · 𝐽𝑔(𝑢, 𝑣) = n o·¼
𝜕𝑥 𝜕𝑦 𝜕𝑦 𝜕𝑦
𝜕𝑢 𝜕𝑣
𝜕𝑧 𝜕𝑥 𝜕𝑦 𝜕𝑦 𝜕𝑦 𝜕𝑧 𝜕𝑧 𝜕𝑦
=n · + · , · + · o
𝜕𝑥 𝜕𝑢 𝜕𝑦 𝜕𝑢 𝜕𝑢 𝜕𝑥 𝜕𝑦 𝜕𝑣
U= U'
Por tanto, igualando coeficientes con ∇𝑧(𝑢, 𝑣) = OU$ , UV P obtenemos que
⎧ 𝜕𝑧 = 𝜕𝑧 · 𝜕𝑥 + 𝜕𝑦 · 𝜕𝑦
⎪𝜕𝑢 𝜕𝑥 𝜕𝑢 𝜕𝑦 𝜕𝑢
⎨ 𝜕𝑧 = 𝜕𝑦 · 𝜕𝑧 + 𝜕𝑧 · 𝜕𝑦
⎪𝜕𝑣 𝜕𝑢 𝜕𝑥 𝜕𝑦 𝜕𝑣

COORDENADAS POLARES
CAMBIO DE COORDENADAS CARTESIANAS A COORDENADAS POLARES

Las coordenadas polares son un sistema de coordenadas bidimensional en el que cada punto
del plano se determina por una distancia y un ángulo.

Las coordenadas polares (𝜌, 𝜃) se definen como:


· La coordenada 𝜌 es la distancia del unto (𝑥, 𝑦) al origen. Puede variar entre [0, +∞[
𝜌 = _𝑥 ! + 𝑦 !
· La coordenada 𝜃 es el ángulo que forma el vector 𝜌⃗ con el eje vertical de la x en sentido
horario. Puede variar entre [0, +2𝜋[.

𝑦
𝜃 = arctan O P
𝑥

En este caso, dadas las coordenadas polares (𝜌, 𝜃), tenemos que las coordenadas cartesianas
están dadas por
𝑥 = 𝜌 cos 𝜃
𝑦 = 𝜌 sin 𝜃

La matriz jacobina asociada al cambio de coordenadas

𝜙(𝜌, 𝜃) = (𝜌 cos 𝜃 , 𝜌 sin 𝜃)


𝑦
𝜓(𝑥, 𝑦) = O_𝑥 ! + 𝑦 ! , arctan O PP
𝑥
es

cos 𝜃 −𝜌 sin 𝜃
𝜙 O (𝜌, 𝜃) = n o
sin 𝜃 𝜌 cos 𝜃
𝑥 𝑦
! ! _𝑥 ! + 𝑦 ! ⎞
⎛ _𝑥 + 𝑦
𝜓 O (𝑥, 𝑦) = ⎜ 𝑦 1 ⎟
⎜ 𝑥 ! 𝑥 ⎟

𝑦 ! 𝑦 !
⎝ 1 + O𝑥 P 1 + O𝑥 P ⎠
DIRECCIONES DE MAYOR Y MENOR CRECIMIENTO
Una dirección del plano se puede especificar mediante un ángulo polar. La dirección que forma
un ángulo 𝜙 con la dirección positiva del eje x corresponde al vector unitario

𝒖W = cos 𝜙 𝒊 + sin 𝜙 𝒋

por lo que la derivada direccional de 𝑓 en (𝑥, 𝑦) en esa dirección es

𝐷W 𝑓(𝑥, 𝑦) = 𝐷𝒖0 𝑓(𝑥, 𝑦) = 𝒖W · ∇𝑓(𝑥, 𝑦)


= 𝑓* (𝑥, 𝑦) cos 𝜙 + 𝑓! (𝑥, 𝑦) sin 𝜙

Nótese el uso de 𝐷W 𝑓(𝑥, 𝑦) para indicar la derivada de 𝑓 con respecto a la distancia medida en
la dirección 𝜙.
Dado cualquier vector unitario u tenemos
𝐷$ 𝑓(𝑎, 𝑏) = 𝒖 · ∇𝑓(𝑎, 𝑏) = |∇𝑓(𝑎, 𝑏)| cos 𝜃
siendo 𝜃 el ángulo que forman los vectores 𝒖 y ∇𝑓(𝑎, 𝑏). Como cos 𝜃 sólo toma valores entre el
-1 y el +1, 𝐷$ 𝑓(𝑎, 𝑏) sólo toma valores entre −|∇𝑓(𝑎, 𝑏)| y |∇𝑓(𝑎, 𝑏)|. Es más 𝐷$ 𝑓(𝑎, 𝑏) =
−|∇𝑓(𝑎, 𝑏)| si y sólo si u apunta dirección opuesta que ∇𝑓(𝑎, 𝑏) y 𝐷$ 𝑓(𝑎, 𝑏) = |∇𝑓(𝑎, 𝑏)| si
apunta en la misma dirección que ∇𝑓(𝑎, 𝑏). La derivada direccional es cero en la dirección 𝜃 =
𝜋/2; esta es la dirección de la curva de nivel de 𝑓 que pasa por (𝑎, 𝑏).

El producto escalar de dos vectores u, v coincide con la siguiente fórmula matemática:


𝑢 · 𝑣 = |𝑢||𝑣| · cos 𝛼
Por tanto, si v es un vector unitario, tenemos que
𝐷V 𝑓(𝑎) = 𝒖 · ∇𝑓(𝑎) = |∇𝑓(𝑎)| cos 𝜃
De este modo obtenemos que:
·𝐷V 𝑓(𝑎) será máxima ⟺ 𝛼 = 0 ⟺ ∇𝑓(𝑎) y v tienen la misma dirección y sentido.
·𝐷V 𝑓(𝑎) será mínimo ⟺ 𝛼 = 𝜋 ⟺ ∇𝑓(𝑎) y tienen la misma dirección, pero sentido
opuesto.

SUPERFICIES
Un subconjunto de ℝ@ del siguiente modo se llama superficies;

𝑆 = {(𝑥, 𝑦, 𝑧) ∈ ℝ@ : 𝐹(𝑥, 𝑦, 𝑧) = 0},

Donde asumimos que la función 𝐹 que llamamos ecuación implícita tiene buenas propiedades
de derivación.

VECTOR TANGENTE A UNA SUPERFICIE


Un vector 𝑣 = (𝑎, 𝑏, 𝑐) ∈ ℝ@ se dice que es tangente a una superficie S en un punto P de S si
existe una curva
G
𝛾 ∶ [−𝛿, +𝛿] → ℝ@
𝑡 ⇝ ‹𝑥(𝑡), 𝑦(𝑡), 𝑧(𝑡)Œ
Tal que
· 𝛾(0) = 𝑃
· 𝛾(𝑡) ∈ 𝑆, ∀𝑡 ∈ [−𝛿, +𝛿]
· 𝛾 admite derivadas y 𝛾 O (0) = 𝑣

Si consideramos la función 𝜙 = 𝐹 ∘ 𝛾 tenemos que 𝜙(𝑡) = 0 ∀𝑡 ∈ [−𝛿, +𝛿]. En particular


0 = 𝜙 O (0) = ∇𝐹‹𝛾(0)Œ · 𝛾 O (0) = ∇𝐹(𝑃) · 𝑣

Por lo tanto, los vectores ∇𝐹(𝑃) 𝑦 𝑣 son ortogonales.

PLANO TANGENTE A UNA SUPERFICIE Y RECTAS NORMALES

Si la grafica de 𝑧 = 𝑓(𝑥, 𝑦) es una superficie << suave >> cerca del punto P cuyas coordenadas
son ‹𝑎, 𝑏, 𝑓(𝑎, 𝑏)Œ, entonces dicha gráfica tendrá un plano tangente y una recta normal en P. La
recta normal es la recta que pasa por P u es perpendicular a la superficie; por ejemplo, una recta
que une un punto de una esfera con su centro es normal a dicha esfera. Cualquier vector distinto
de cero sea paralelo a la recta normal en P se denomina vector normal a la superficie en P. El
plano tangente a la superficie 𝑓(𝑥, 𝑦) en P es aquel que pasa por P y es perpendicular a la recta
en P.

Supongamos que la superficie 𝑧 = 𝑓(𝑥, 𝑦) tiene un plano tangente no vertical en el punto P. El


plano tangente corta al plano vertical 𝑦 = 𝑏 en una recta que es tangente en P a la curva de
intersección de la superficie 𝑧 = 𝑓(𝑥, 𝑦) con el plano 𝑦 = 𝑏. La pendiente de esta recta es
𝑓* (𝑎, 𝑏), por lo que es paralela al vector 𝑻𝟏 = 𝒊 + 𝑓* (𝑎, 𝑏)𝑘. De forma similar, el plano tangente
corta al plano vertical en 𝑥 = 𝑎 en una recta cuya pendiente es 𝑓! (𝑎, 𝑏). Por tanto, esta recta es
paralela al vector 𝑻𝟐 = 𝒋 + 𝑓! (𝑎, 𝑏)𝒌. Se deduce entones que el plano tangente, y por tanto la
propia superficie 𝑧 = 𝑓(𝑥, 𝑦), tiene como vector normal

𝒊 𝒋 𝒌
𝒏 = 𝑻𝟏 × 𝑻𝟐 = Î0 1 𝑓! (𝑎, 𝑏)Î = 𝑓* (𝑎, 𝑏)𝒊 + 𝑓! (𝑎, 𝑏)𝒋 − 𝒌
1 0 𝑓* (𝑎, 𝑏)
Como el plano tangente pasa por 𝑃 = ‹𝑎, 𝑏, 𝑓(𝑎, 𝑏)Œ, su ecuación es
𝑧 = 𝑓(𝑎, 𝑏) + 𝑓* (𝑎, 𝑏)(𝑥 − 𝑎) + 𝑓! (𝑎, 𝑏)(𝑦 − 𝑏)
escrito de otra forma:
𝐴(𝑥 − 𝑎) + 𝐵(𝑦 − 𝑏) + 𝐶‹𝑧 − 𝑓(𝑎, 𝑏)Œ = 0
Aunque, de forma general, un plano tangente a S en un punto P definido como el de antes es

𝜕𝐹 𝜕𝐹 𝜕𝐹
𝜋[ (𝑃) ≡ u · (𝑥 − 𝑎) + u · (𝑦 − 𝑏) + u · ‹𝑧 − 𝑓(𝑎, 𝑏)Œ = 0
𝜕𝑥 \ 𝜕𝑦 \ 𝜕𝑥 \
U] U] U]
Y el vector normal o perpendicular del plano 𝜋[ (𝑃) es nU; v , U'v , U= v o.
\ \ \

La recta normal a 𝑧 = 𝑓(𝑥, 𝑦) en ‹𝑎, 𝑏, 𝑓(𝑎, 𝑏)Œ tiene como vector director
𝑓* (𝑎, 𝑏)𝒊 + 𝑓! (𝑎, 𝑏)𝒋 − 𝒌 y por tanto, sus ecuaciones son

𝑥−𝑎 𝑦−𝑏 𝑧 − 𝑓(𝑎, 𝑏)


= =
𝑓* (𝑎, 𝑏) 𝑓! (𝑎, 𝑏) −1

De esta forma, la recta normal a la superficie S en el punto P es la recta que pasa por P y es
perpendicular al plano tangente 𝜋[ (𝑃). La recta normal viene definida por la siguiente ecuación

𝑥−𝑎 𝑦−𝑏 𝑧 − 𝑓(𝑎, 𝑏)


= =
𝑓* (𝑎, 𝑏) 𝑓! (𝑎, 𝑏) 𝑓@ (𝑎, 𝑏)
DERIVADAS PARCIALES DE ORDEN SUPERIOR
Las derivadas parciales de orden segundo y superior se calculan tomando las derivadas parciales
de otras derivadas parciales ya calculadas previamente. La notación utilizada indica el orden en
el que se realiza las diferenciaciones. Si 𝑧 = 𝑓(𝑥, 𝑦), se pueden calcular como derivadas parciales
de segundo orden, concretamente dos derivadas parciales segundas puras con respecto a x e y.
𝜕!𝑧 𝜕 𝜕𝑧
!
= = 𝑓** (𝑥, 𝑦) = 𝑓;; (𝑥, 𝑦)
𝜕𝑥 𝜕𝑥 𝜕𝑥
!
𝜕 𝑧 𝜕 𝜕𝑧
= = 𝑓!! (𝑥, 𝑦) = 𝑓'' (𝑥, 𝑦)
𝜕𝑦 ! 𝜕𝑦 𝜕𝑦

Y dos derivadas parciales segundas mixtas con respecto a x e y.

𝜕!𝑧 𝜕 𝜕𝑧
= = 𝑓!* (𝑥, 𝑦) = 𝑓'; (𝑥, 𝑦)
𝜕𝑥𝜕𝑦 𝜕𝑥 𝜕𝑦
𝜕!𝑧 𝜕 𝜕𝑧
= = 𝑓*! (𝑥, 𝑦) = 𝑓;' (𝑥, 𝑦)
𝜕𝑦𝜕𝑧 𝜕𝑦 𝜕𝑥

De forma similar, si 𝑤 = 𝑓(𝑥, 𝑦, 𝑧), entonces


𝜕^𝑤 𝜕 𝜕 𝜕 𝜕 𝜕𝑤
!
= = 𝑓@!!*! (𝑥, 𝑦, 𝑧) = 𝑓='';' (𝑥, 𝑦, 𝑧)
𝜕𝑦𝜕𝑥𝜕𝑦 𝜕𝑧 𝜕𝑦 𝜕𝑥 𝜕𝑦 𝜕𝑦 𝜕𝑧
TEOREMA DE SCHWARTZ

O teorema de la igualdad de las derivadas cruzadas es una condición suficiente de la


igualdad de las derivadas parciales cruzadas de una función de varias variables. El
teorema establece que si las derivadas parciales cruzadas existen y son continuas,
entonces son iguales.

· CASO GENERAL
Sea 𝑓: 𝐴 → ℝ con 𝐴 ⊆ ℝ< un conjunto abierto tal que existen sus derivadas cruzadas de
cualquier orden y son continuas en A, entonces para cualquier punto (𝑎* , 𝑎! , … , 𝑎< ) ∈ 𝐴 se
cumple que

𝜕< 𝑓 𝜕< 𝑓
(𝑎* , 𝑎! , … , 𝑎< ) = (𝑎 , 𝑎 , … , 𝑎< )
𝜕𝑥) … 𝜕𝑥T 𝜕𝑥T … 𝜕𝑥) * !
·EN DOS VARIABLES

Sea 𝑓: Ω → ℝ una función de dos variables definida en un conjunto abierto Ω ⊆ ℝ! , si existen


las segundas derivadas cruzadas y son continuas en Ω, esto es, 𝑓 ∈ 𝐶 ! (Ω) entonces estas son
iguales, es decir:

𝜕!𝑓 𝜕!𝑓
=
𝜕𝑥𝜕𝑦 𝜕𝑦𝜕𝑥

DERIVACIÓN DE FUNCIONES IMPLICITAS

Al estudiar el cálculo de funciones de una variable, encontramos ejemplos de funciones que se


definían implícitamente como soluciones de ecuaciones de dos variables. Supongamos, por
ejemplo, que 𝐹(𝑥, 𝑦) = 0 es una de esas ecuaciones. Supongamos también que el punto (𝑎, 𝑏)
satisface la ecuación, y que F tiene derivadas parciales primeras continuas en todos los puntos
próximos a (𝑎, 𝑏). ¿Se puede despejar y como función de x en la ecuación, cerca del punto
(𝑎, 𝑏)? Es decir, ¿existe alguna función 𝑦(𝑥) definida en algún intervalo 𝐼 = (𝑎 − ℎ, 𝑎 +
ℎ)(𝑠𝑖𝑒𝑛𝑑𝑜 ℎ > 0) que cumpla que 𝑦(𝑎) = 𝑏, y tal que

𝐹(𝑥, 𝑦) = 0

se cumpla para todo x en el intervalo 𝐼? Si existe tal función 𝑦(𝑥), podemos intentar calcular su
derivada en 𝑥 = 𝑎, diferenciando la ecuación 𝐹(𝑥, 𝑦) = 0 implícitamente con respecto a x y
evaluando el resultado en (𝑎, 𝑏):

𝑑𝑦
𝐹* (𝑥, 𝑦) + 𝐹! (𝑥, 𝑦) =0
𝑑𝑥
de forma que

𝑑𝑦 𝐹* (𝑎, 𝑏)
u =− , 𝑠𝑖𝑒𝑚𝑝𝑟𝑒 𝑞𝑢𝑒 𝐹! (𝑎, 𝑏) ≠ 0
𝑑𝑥 ;E% 𝐹! (𝑎, 𝑏)

Obsérvese, sin embargo, que la condición 𝐹! (𝑎, 𝑏) ≠ 0 requerida para el cálculo de 𝑦 O (𝑎)
garantiza en sí misma que la solución 𝑦(𝑥) existe. Esta condición, junto con la diferenciabilidad
de 𝐹(𝑥, 𝑦) cerca de (𝑎, 𝑏), implica que la curva de nivel 𝐹(𝑥, 𝑦) = 𝐹(𝑎, 𝑏)tiene una tangente no
vertical cerca de (𝑎, 𝑏), por lo que alguna parte de la curva de nivel cerca de (𝑎, 𝑏) debe ser la
gráfica de una función de x. Éste es un caso especial del teorema de la Función Implícita.

Cuando la ecuación es de varias variables, la situación es similar. Por ejemplo, podemos


preguntarnos si la ecuación

𝐹(𝑥, 𝑦, 𝑧) = 0

Define 𝑧 como función de 𝑥 e 𝑦 cerca de algún punto 𝑃C con coordenadas que cumpla la
ecuación. Si es así, y si las derivadas parciales primera de F son continuas cerca de 𝑃C , entonces
se pueden las derivadas parciales de 𝑧 en (𝑥C , 𝑦C ) mediante diferenciación implícita de la
ecuación 𝐹(𝑥, 𝑦, 𝑧) = 0 con respecto a 𝑥 e 𝑦:

𝜕𝑧 𝜕𝑧
𝐹* (𝑥, 𝑦, 𝑧) + 𝐹@ (𝑥, 𝑦, 𝑧) =0 𝐹! (𝑥, 𝑦, 𝑧) + 𝐹@ (𝑥, 𝑦, 𝑧) =0
𝜕𝑥 𝜕𝑦

de forma que

𝜕𝑧 𝐹* (𝑥C , 𝑦C , 𝑧C ) 𝜕𝑧 𝐹! (𝑥C , 𝑦C , 𝑧C )
u =− 𝑦 u =−
𝜕𝑥 (;/ ,'/) 𝐹@ (𝑥C , 𝑦C , 𝑧C ) 𝜕𝑦 (;/ ,'/ ) 𝐹@ (𝑥C , 𝑦C , 𝑧C )

Siempre que 𝐹@ (𝑥C , 𝑦C , 𝑧C ) ≠ 0. Como 𝐹@ es la componente 𝑧 del gradiente de 𝐹, esta condición


implica que la superficie de nivel de 𝐹 que pasa por el punto 𝑃C no tiene un vector normal
horizontal, por lo que no es vertical. Por tanto, parte de la superficie cerca de 𝑃C debe ser de
hecho la gráfica de una función 𝑧 = 𝑧(𝑥, 𝑦). De forma similar, en 𝐹(𝑥, 𝑦, 𝑧) = 0 se puede
despejar x como función de 𝑦 y 𝑧 cerca de los puntos donde 𝐹* ≠ 0 y 𝑦 = 𝑦(𝑥, 𝑧) cerca de los
puntos donde 𝐹! ≠ 0.
TEMA 3. INTEGRACIÓN
CÁLCULO INTEGRAL DE UNA VARIABLE
INTEGRAL INDEFINIDA

Dada una función 𝐹: [𝑎, 𝑏] → ℝ es una primitiva de f en el intervalo [𝑎, 𝑏] si F es derivable en el


intervalo [𝑎, 𝑏] y ∀𝑥 ∈ [𝑎, 𝑏].
𝐹 O (𝑥) = 𝑓(𝑥)
PROPOSICIÓ (PROPIETATS DE LES PRIMITIVES)

· Si F(x) y G(x) son primitivas de f(x) i g(x) respectivamente, y 𝜆, 𝜇 ∈ ℝ, entonces


𝜆 · 𝐹(𝑥) + 𝜇 · 𝐺(𝑥) es primitiva de 𝜆 · 𝑓(𝑥) + 𝜇 · 𝑔(𝑥).

· Si F(x) y G(x) son dos primitivas de una misma función f(x) en el mismo intervalo, entonces F y
G se diferencian en una constante, es decir, ∃𝐶 ∈ ℝ tal que
𝐺(𝑥) = 𝐹(𝑥) + 𝐶

INTEGRALES

Si F(x) es una primitiva de f(x), solemos escribir que


× 𝑓(𝑥)𝑑𝑥 = 𝐹(𝑥) + 𝐶
Donde el primer termino se lee como integral, o integral indefinida de la función f(x) o también
integral primitiva general. C recibe el nombre de constante de integración.
Una primitiva particular f es una primitiva de f donde en lugar de la constante de integración C
tenemos una constante fija determinada por el valor en cualquier punto del dominio.
Algunas de las primitivas elementales son:
× 𝑘𝑑𝑥 = 𝑘𝑥 + 𝐶
𝑥 \B*
× 𝑥 \ 𝑑𝑥 = + 𝐶, ∀𝑥 ∈ ℝ, 𝑃 ≠ 1
1+𝑃
1
× 𝑑𝑥 = log|𝑥| + 𝐶
𝑥
× 𝑒 ; 𝑑𝑥 = 𝑒 ; + 𝐶

;
𝑎;
× 𝑎 𝑑𝑥 = + 𝐶, ∀𝑎 > 0, 𝑎 ≠ 1
log(𝑎 )
× sin 𝑥 𝑑𝑥 = − cos 𝑥 + 𝐶

× cos 𝑥 𝑑𝑥 = sin 𝑥 + 𝐶
1
× 𝑑𝑥 = × 1 + tan! 𝑥 𝑑𝑥 = tan(𝑥) + 𝐶
cos ! 𝑥
1
× 𝑑𝑥 = arcsin 𝑥 + 𝐶
√1 − 𝑥 !
1
× 𝑑𝑥 = arctan 𝑥 + 𝐶
1 + 𝑥!
1
× 𝑑𝑥 = argsinh 𝑥 + 𝐶
√1 + 𝑥 !
1
× 𝑑𝑥 = argcosh 𝑥 + 𝐶
√𝑥 ! − 1
INTEGRACIÓN POR PARTES

El siguiente método general que se presenta para la obtención de primitivas se denomina


integración por partes. De la misma forma que el método de sustitución se puede ver como el
inverso de la diferenciación mediante la Regla de la Cadena, el método de integración por partes
se puede ver como el inverso de la diferenciación mediante la Regla del Producto.
Supongamos que U(x) y V(x) son dos funciones diferenciables. De acuerdo con la Regla del
Producto,
𝑑 𝑑𝑉 𝑑𝑈
‹𝑈(𝑥) · 𝑉(𝑥)Œ = 𝑈(𝑥) + 𝑉(𝑥)
𝑑𝑥 𝑑𝑥 𝑑𝑥
Integrando en los dos miembros de esta ecuación y ordenando términos, se obtiene
𝑑𝑉 𝑑𝑈
× 𝑈(𝑥) 𝑑𝑥 = 𝑈(𝑥)𝑉(𝑥) − × 𝑉(𝑥) 𝑑𝑥
𝑑𝑥 𝑑𝑥
O de forma más simple
× 𝑈𝑑𝑉 = 𝑈𝑉 − × 𝑉𝑑𝑈
La formula anterior nos sirve de modelo para realizar la integración por partes. En cada
aplicación del método, dividimos el integrando en un producto de dos partes U y V’, donde V’
es fácil de integral y ∫ 𝑉𝑈 O 𝑑𝑥 es en general un integrando más simple que ∫ 𝑈𝑉 O 𝑑𝑥. La técnica
se denomina integración por partes porque sustituye la integral por la suma de un término
integrado y otra integral que hay que calcular. Es decir, realiza sólo parte de la integración
original.

Fórmulas de reducción
Consideremos el problema de calcular ∫ 𝑥 A 𝑒 9; 𝑑𝑥. Podríamos utilizar integración por partes
cuatro veces. Cada vez se reduciría la potencia de x en una unidad. Como es repetitivo y tedioso,
es preferible el siguiente procedimiento. Para 𝑛 ≥ 0, o sea
𝐼< = × 𝑥 < 𝑒 9; 𝑑𝑥
Deseamos calcular 𝐼< . Si integramos por partes, se obtiene una fórmula de 𝐼< en función de 𝐼<9* :
𝐼< = × 𝑥 < 𝑒 9; 𝑑𝑥 𝑆𝑒𝑎 𝑈 = 𝑥<, 𝑑𝑉 = 𝑒 9; 𝑑𝑥
Entonces 𝑑𝑈 = 𝑛𝑥 <9* 𝑑𝑥, 𝑉 = −𝑒 9;
= −𝑥 < 𝑒 9; + 𝑛 × 𝑥 <9* 𝑒 9; 𝑑𝑥 = −𝑥 < 𝑒 9; + 𝑛𝐼<9*
La formula
𝐼< = −𝑥 < 𝑒 9; + 𝑛𝐼<9*
Se denomina fórmula de reducción porque permite obtener el valor de la integral 𝐼< en función
de 𝐼<9* , una integral con un valor reducido de del exponente 𝑛. Empezando con
𝐼C = × 𝑥 C 𝑒 9; 𝑑𝑥 = × 𝑒 9; 𝑑𝑥 = −𝑒 9; + 𝐶
Se puede aplicar 4 veces la fórmula de reducción, con lo que se obtiene que
𝐼* = −𝑥𝑒 9; + 𝐼C = −𝑒 9; (𝑥 + 1) + 𝐶
𝐼! = −𝑥 ! 𝑒 9; + 𝐼* = −𝑒 9; (𝑥 ! + 2𝑥 + 2) + 𝐶
𝐼@ = −𝑥 @ 𝑒 9; + 𝐼! = −𝑒 9; (𝑥 @ + 3𝑥 ! + 6𝑥 + 6) + 𝐶
𝐼A = −𝑥 A 𝑒 9; + 𝐼! = −𝑒 9; (𝑥 A + 4𝑥 @ + 12𝑥 ! + 24𝑥 + 24) + 𝐶

INTEGRACIÓN POR CAMBIO DE VARIABLE


× 𝑓(𝑦) · 𝑦 O 𝑑𝑥 = × 𝑓′(𝑦)𝑑𝑦
La regla de integración por cambio de variable se deduce de la regla de la cadena:
(𝑓 ∘ 𝑔)O (𝑥) = 𝑓 O ‹𝑔(𝑥)Œ𝑔O (𝑥)
Las integrales de radicales cuadráticos son integrales de la forma:
× 𝑅 O_𝑎𝑥 ! + 𝑏𝑥 + 𝑐P 𝑑𝑥
Donde 𝑅‹√𝑎𝑥 ! + 𝑏𝑥 + 𝑐Œ es una función dependiendo de √𝑎𝑥 ! + 𝑏𝑥 + 𝑐.
Reorganizando la expresión mediante la completitud de cuadrados obtenemos que 𝑎𝑥 ! + 𝑏𝑥 +
𝑐 puede escribirse como una de las siguientes expresiones
P;B`
· 𝑘 ! − (𝑟𝑥 + 𝑠)! ⟹ D = sin 𝑡
P;B`
· 𝑘 ! + (𝑟𝑥 + 𝑠)! ⟹ D
= sinh 𝑡
P;B`
· (𝑟𝑥 + 𝑠)! − 𝑘 ⟹ D
= cosh 𝑡

La primera opción para intentar resolver estas integrales es realizar los cambios de variable
indicados.
Estas se pueden resolver realizando sustituciones inversas.

INTEGRALES DE FUNCIONES RACIONALES – MÉTODO DE LAS FRACCIONES SIMPLES


En esta sección vamos a considerar integrales de la forma
𝑃(𝑥)
× 𝑑𝑥
𝑄 (𝑥 )
Siendo P y Q polinomios. Recuérdese que un polinomio es una función de P de la forma
𝑃(𝑥) = 𝑎< 𝑥 < + 𝑎<9* 𝑥 <9* + ⋯ + 𝑎! 𝑥 ! + 𝑎* 𝑥 + 𝑎C
Siendo n un entero no negativo, 𝑎C , 𝑎* , 𝑎! …, 𝑎< constantes u 𝑎< ≠ 0. Denominamos n al grado
del polinomio P. Un cociente P(x)/Q(x) de dos polinomios se denomina función racional. En
general sólo será necesario considerar funciones racionales en las que el grado de P sea menor
que el grado de Q. Si el grado de P es mayor o igual al grado de Q, entonces se dividen los
polinomios para expresar la fracción en forma de un polinomio sumando con otra fracción
R(x)/Q(x), el resto de la división es siempre de grado menor que Q.
DENOMINADORES LINEALES Y CUADRÁTICOS
Supongamos que Q(x) es de grado 1. Por tanto, 𝑄(𝑥) = 𝑎𝑥 + 𝑏, con 𝑎 ≠ 0. Entonces P(x) debe
\(;) b
tener grado 0 y ser, por tanto, una constante C. Tenemos que a(;) = %;B:. El cambio 𝑢 = 𝑎𝑥 +
𝑏 profuce
𝑐 𝑐 𝑑𝑢 𝑐
× 𝑑𝑥 = × = 𝑙𝑛|𝑢| + 𝐶
𝑎𝑥 + 𝑏 𝑎 𝑢 𝑎
De modo que para c=1, tenemos el caso del denominador lineal
1 1 𝑑𝑢 1
× 𝑑𝑥 = × = 𝑙𝑛|𝑢| + 𝐶
𝑎𝑥 + 𝑏 𝑎 𝑢 𝑎
Supongamos ahora que Q(x) es una función cuadrática, es decir, de grado 2. A efectos de esta
presentación, podemos suponer que Q(x) es o bien de la forma 𝑥 ! + 𝑎! o bien de la forma 𝑥 ! −
𝑎! , ya que completando el cuadrado y realizando el cambio de variable apropiado se puede
reducir siempre el denominador a esta forma. Como P(x) puede ser como máximo una función
lineal, 𝑃(𝑥) = 𝐴𝑥 + 𝐵, esto nos lleva a considerar las cuatro integrales siguientes:
𝑥 𝑥 1 1
× ! 𝑑𝑥 , × ! 𝑑𝑥 , × ! 𝑑𝑥 , × ! 𝑑𝑥
𝑥 + 𝑎! 𝑥 − 𝑎! 𝑥 + 𝑎! 𝑥 − 𝑎!
Si 𝑎 = 0, sólo hay dos integrales que se pueden calcular fácilmente. En las dos primeras
integrales se aplica el cambio 𝑢 = 𝑥 ! ± 𝑎! . La tercera es una integral conocida, y la cuarta se
puede resolver mediante el cambio a 𝑥 = 𝑎 sin 𝜃 𝑠𝑖 |𝑥| < |𝑎|, o el cambio a 𝑥 =
𝑎 sec 𝜃 𝑠𝑖 |𝑥| > |𝑎|, pero se puede calcular también mediante otro método que veremos
posteriormente. Los valores de las cuatro integrales se presentan a continuación:

CASO DE DENOMINADOR CUADRÁTICO


𝑥 1
× ! !
𝑑𝑥 = ln|𝑥 ! + 𝑎! | + 𝐶
𝑥 +𝑎 2
𝑥 1
× ! !
𝑑𝑥 = ln|𝑥 ! − 𝑎! | + 𝐶
𝑥 −𝑎 2
1 1 𝑥
× ! !
𝑑𝑥 = tan9* + 𝐶
𝑥 +𝑎 𝑎 𝑎
1 1 𝑥−𝑎
× ! 𝑑𝑥 = ln v v+𝐶
𝑥 − 𝑎! 2𝑎 𝑥+𝑎
Para obtener la última de las fórmulas anteriores, expresamos el integrando como una suma de
dos fracciones con denominadores lineales:
1 1 𝐴 𝐵 𝐴𝑥 + 𝐴𝑎 + 𝐵𝑥 − 𝐵𝑎
= = + =
!
𝑥 −𝑎 ! (𝑥 − 𝑎)(𝑥 + 𝑎 ) 𝑥 − 𝑎 𝑥 + 𝑎 𝑥 ! − 𝑎!
Donde en el último paso se han sumado las dos fracciones. Si esta ecuación se cumple para todo
x(excepto 𝑥 = ±𝑎), entonces los numeradores de los dos miembros deben ser polinomios
idénticos en x. La ecuación (𝐴 + 𝐵)𝑥 + (𝐴𝑎 − 𝐵𝑎) = 1 = 0𝑥 + 1 se cumplirá para todo x sólo
si
𝐴+𝐵 =0
𝐴𝑎 − 𝐵𝑎 = 1
Resolviendo este sistema de dos ecuaciones lineales se obtiene el valor de las incógnitas A y B,
* *
𝐴 = !% y 𝐵 = − !%. Por tanto,

1 1 1 1 1
× 𝑑𝑥 = × 𝑑𝑥 − × 𝑑𝑥
𝑥! −𝑎 ! 2𝑎 𝑥 − 𝑎 2𝑎 𝑥 + 𝑎
1 1
= ln|𝑥 − 𝑎| − ln|𝑥 + 𝑎| + 𝐶
2𝑎 2𝑎
1 𝑥−𝑎
ln v v+𝐶
2𝑎 𝑥+𝑎
Por lo tanto, para integrar una función racional, la descomponemos en una suma de fracciones
simples.

1. Dividimos primero si el grado de P(x) es mayor o igual que el grado de Q(x), obteniendo:

𝑃(𝑥) 𝑅(𝑥)
= 𝑀(𝑥) +
𝑄( 𝑥) 𝑄 (𝑥 )
2. Factorizamos Q(x) como producto de polinomios de grado 1 y 2 usando las raíces reales
de Q(x).
3. Descomponemos R(x)/Q(x) en fracciones simples.

Si por ejemplo el polinomio Q(x) se descompone como un monomio con raíz real 𝑎 con
multiplicidad 1, un monomio asociado a una raíz real 𝑏 con multiplicidad 3, y un polinomio de
\(;)
grado dos sin raíces reales, la descomposición de la función en fracciones simples es:
a( ;)
𝑅(𝑥) 𝑅(𝑥)
=
(
𝑄 𝑥 ) (𝑥 − 𝑎 𝑥 − 𝑏)@ (𝑐𝑥 ! + 𝑑𝑥 + 𝑒)
)(
𝑅(𝑥) 𝐹 𝐺 𝐻 𝐼 𝑗𝑥 + 𝐾
= + + + + !
(
𝑄 𝑥 ) 𝑥−𝑎 𝑥−𝑏 (𝑥−𝑏 ) ! (𝑥−𝑏 ) @ 𝑐𝑥 + 𝑑𝑥 + 𝑒
De donde hemos de obtener las variables F, G,H,I,K resolviendo el sistema de variables asociado
a la expresión anterior.

INTEGRAL DEFINIDA
CÁLCULO DE ÁREAS
Supongamos que tenemos una función 𝑓: [𝑎, 𝑏] → ℝ, acotada, tal que 𝑓(𝑥) ≥ 0, ∀𝑥𝜖[𝑎, 𝑏].

El área que encierra la gr á fica de f por encima del eje OX


entre las rectas x = a y x = b se puede calcular y su valor se
denota por
:
× 𝑓(𝑥)𝑑𝑥
%
Además, si F es una primitiva de f, tenemos que
:
× 𝑓(𝑥)𝑑𝑥 = 𝐹(𝑏) − 𝐹(𝑎)
%

AREA DETERMINADA POR DOS CURVAS


De modo similar podemos calcular el área que encierran la gráfica de dos funciones f(x)
y g(x) entre las rectas x=a y x=b
VOLUMENES POR SECIONES – PRINCIPIO DE CAVALIERI
Supongamos que queremos calcular el volumen de un sólido V que se encuentra
acotado lateralmente por el intervalo [a,b], del que conocemos, ∀𝑥𝜖[𝑎, 𝑏] el área de la
sección de V correspondiente a x que denotamos por A(x). Entonces
#
𝑣𝑜𝑙(𝑉) = ; 𝐴(𝑥)𝑑𝑥
$
En particular, un sólido V se llama superficie de revolución si V está generado por el giro
de una curva alrededor de un eje. La curva que genera esta superficie se llama curva
generatriz 𝑓: [𝑎, 𝑏] → ℝ. En este caso la sección de cada punto 𝑥 ∈ [𝑎, 𝑏] es un círculo
de radio f(x) y el área de la sección 𝐴(𝑥) = 𝜋𝑓(𝑥)% . Por tanto
# # #
𝑣𝑜𝑙(𝑉) = ; 𝐴(𝑥)𝑑𝑥 = ; 𝜋𝑓(𝑥)% 𝑑𝑥 = 𝜋 ; 𝑓(𝑥)% 𝑑𝑥
$ $ $
El área de una superficie de revolución viene dada por la fórmula
#
2𝜋 ; D1 + 𝑓 & (𝑥) 𝑑𝑥
$

CÁLCULO DEL VOLUMEN DE UN ELIPSOIDE


Supongamos que la elipse esta definida por la siguiente ecuación
𝑦% 𝑧%
+ =1
𝑏% 𝑐 %
Con 𝑏 > 0 y 𝑐 > 0.
Por tanto, el área de la elipse es 𝜋𝑏𝑐. Por el principio de Cavalieri tenemos que el
volumen del elipsoide es

𝑥% 𝑦% 𝑧%
K(𝑥, 𝑦, 𝑧) ∈ ℝ' : + + ≤ 1M
𝑎% 𝑏% 𝑐 %

$ $
𝑥%
𝑣𝑜𝑙(𝑉) = ; 𝑆(𝑥)𝑑𝑥 = 𝜋𝑏𝑐 ; O1 − P 𝑑𝑥
"$ "$ 𝑎%
$
𝑥' 4
= 𝜋𝑏𝑐 · R𝑥 − % T = 𝜋𝑎𝑏𝑐
3𝑎 "$ 3

INTEGRALES ITERADAS – INTEGRAL DOBLE


Un rectángulo en ℝ% es un conjunto del siguiente modo:

ℛ = [𝑎, 𝑏] × [𝑐, 𝑑 ] = {(𝑥, 𝑦) ∈ ℝ% : 𝑎 ≤ 𝑥 ≤ 𝑏, 𝑐 ≤ 𝑦 ≤ 𝑑 }

Calcular una integral doble o integral iterada de una función f(x,y) en un rectángulo ℛ
se reduce a calcular la integral de la función f(x,y) respecto de una variable y después
calcular la integral de la función resultante respecto de la otra variable.
) # # )
𝐼( = ; O; 𝑓(𝑥, 𝑦)𝑑𝑥 P 𝑑𝑦 𝐼% = ; O; 𝑓(𝑥, 𝑦)𝑑𝑦P 𝑑𝑥
* $ $ *

TEOREMA DE FUBINI
La integral respecto al producto cartesiano de dos intervalos en el espacio 𝐴 × 𝐵
puede ser escrita como:

; O; 𝑓(𝑥, 𝑦)𝑑𝑦P 𝑑𝑥 = ; O; 𝑓(𝑥, 𝑦)𝑑𝑥P 𝑑𝑦 = ; 𝑓(𝑥, 𝑦)𝑑(𝑥, 𝑦)


, + + , ,×+

Las primeras dos integrales son simples, mientras que la tercera es una integral en el
producto de dos intervalos.
Por otra parte si:
𝑓(𝑥, 𝑦) = 𝑓(𝑥)𝑔(𝑦)
Entonces:

; 𝑓(𝑥)𝑑𝑥 ; 𝑔(𝑦)𝑑𝑦 = ; 𝑓(𝑥)𝑔(𝑦)𝑑(𝑥, 𝑦)


, + ,×+
Por lo tanto la integral doble es reducible al producto de dos integrales simples.
El significado geométrico de la integral doble es el volumen del cuerpo definido por el
plano OXY, el rectángulo ℛ y la función f(x,y) que nos da la “tapadora” del cuerpo.
INTEGRALES SEPARABLES

Si estamos calculando una integral iterada de una función f(x,y) que verifica las
siguientes propiedades:
- El recinto de integración es un rectángulo [𝑎, 𝑏] × [𝑐, 𝑑]
- La función f(x,y) se puede expresar como el producto de dos funciones
𝜓(𝑥), 𝜙(𝑦) donde 𝜓(𝑥) solo depende de la variable x y 𝜙(𝑦) de la variable y,
es decir
𝑓(𝑥, 𝑦) = 𝜓(𝑥) · 𝜙(𝑦)
Entonces, tenemos que:
) # # )
; ; 𝑓(𝑥, 𝑦)𝑑𝑥 𝑑𝑦 = O; 𝜓(𝑥)𝑑𝑥P O; 𝜙(𝑦)𝑑𝑦P
* $ $ *

INTEGRALES DOBLES EN RECINTOS ACOTADOS


Existen dos tipos de recintos acotados sencillos:
1. Tipo I, Recintos horizontalmente simples:

𝐴 = {(𝑥, 𝑦) ∈ ℝ% : 𝑎 < 𝑥 < 𝑏, 𝑔( (𝑥) < 𝑦 < 𝑔% (𝑥)}


# .! (!)
; 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ; O; 𝑓(𝑥, 𝑦)𝑑𝑦P 𝑑𝑥
, $ ." (!)
2. Tipo II, Recintos verticalmente simples:

𝐴 = {(𝑥, 𝑦) ∈ ℝ% : 𝑐 < 𝑦 < 𝑑, 𝑓( (𝑦) < 𝑥 < 𝑓(𝑦)}


) 1! (2)
; 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦 = ; O; 𝑓(𝑥, 𝑦)𝑑𝑥 P 𝑑𝑦
, * 1" (2)

CAMBIO DE VARIABLES EN UNA INTEGRAL DOBLE


Una transformación regular en ℝ% es una aplicación 𝑇: 𝐷 ⊆ ℝ% → ℝ% que es inyectiva,
admite derivadas parciales continuas y además el determinante de su matriz jacobina
es distinto de cero.
𝜕𝑇( 𝜕𝑇(
𝜕𝑥 𝜕𝑦 d 𝜕𝑇( 𝜕𝑇% 𝜕𝑇( 𝜕𝑇%
𝐽𝑇 = dd = ∗ − ∗
𝜕𝑇% 𝜕𝑇% d 𝜕𝑥 𝜕𝑦 𝜕𝑦 𝜕𝑥
𝜕𝑥 𝜕𝑦
TEOREMA DEL CAMBIO DE VARIABLE EN UNA INTEGRAL DOBLE
Sea 𝑇: 𝐷 ⊆ ℝ% → ℝ% , des definida como 𝑇(𝑢, 𝑣) = (𝑥, 𝑦), una transformación regular.
Si 𝑓: 𝑎 ⊆ ℝ% → ℝ es una función que admite una integral doble en un recinto A,
entonces, si llamamos 𝐵 = 𝑇 "( (𝐴) tenemos que

h 𝑓(𝑥, 𝑦)𝑑𝑥 𝑑𝑦 = h 𝑓i𝑇(𝑢, 𝑣)j𝑑𝑢 𝑑𝑣


, +

TRES CAMBIOS DE VARIABLES COMUNES


COORDENADAS POLARES
En el plano de ejes xy con centro de coordenadas en el
punto O se puede definir un sistema de coordenadas
polares de un punto M del plano, definidas por la
distancia r al centro de coordenadas, y el ángulo q del
vector de posición sobre el eje x.

Definido un punto en coordenadas polares por su ángulo


q sobre el eje x, y su distancia r al centro de coordenadas,
se tiene:
𝑥 = 𝜌 cos 𝜃
𝜙(𝜌, 𝜃) = (𝑥, 𝑦) = m
𝑦 = 𝜌 sin 𝜃
Donde cambios los dominios:
−∞ < 𝑥 < ∞ 0 ≤ 𝜃 ≤ 2𝜋
n−∞ < 𝑦 < ∞ ⇄ m
0≤𝜌≤∞
Con Jacobino:
cos 𝜃 −𝜌 sin 𝜃
|𝐽𝜙(𝜌, 𝜃)| = r r=𝜌
sin 𝜃 𝜌 cos 𝜃
COORDENADAS ESFÉRICAS 3D
En el sistema de coordenadas esféricas un punto P en el espacio tridimensional se
representa por un triplete ordenado [𝜌, 𝜃, 𝜏].
𝑥 = 𝜌 cos 𝜃 sin 𝜏
𝜙(𝜌, 𝜃, 𝜏) = (𝑥, 𝑦, 𝑧) = t 𝑦 = 𝜌 sin 𝜃 sin 𝜏
𝑧 = 𝜌 cos 𝜏
Donde los dominios son
−∞ < 𝑥 < ∞ 0 ≤ 𝜃 ≤ 2𝜋
K−∞ < 𝑦 < ∞ ⇄ t 0 ≤ 𝜌 ≤ ∞
−∞ < 𝑧 < ∞ 0≤𝜏≤𝜋
Con Jacobino:
cos 𝜃 sin 𝜏 −𝜌 cos 𝜃 sin 𝜏 𝜌 cos 𝜃 cos 𝜏
|𝐽𝜙(𝜌, 𝜃, 𝜏)| = u sin 𝜃 sin 𝜏 𝜌 cos 𝜃 sin 𝜏 𝜌 sin 𝜃 cos 𝜏 u
cos 𝜏 0 −𝜌 sin 𝜏
% %
= |−𝜌 sin 𝜏| = 𝜌 sin 𝜏

COORDENADAS CILÍNDRICAS 3D
El sistema de coordenadas cilíndricas es muy conveniente en aquellos casos en que se
tratan problemas que tienen simetría de tipo cilíndrico o azimutal. Se trata de una
versión en tres dimensiones de las coordenadas polares de la geometría analítica plana.
Un punto P en coordenadas cilíndricas se representa por [𝜌, 𝜃, 𝜏].
𝑥 = 𝜌 cos 𝜃
𝜙(𝜌, 𝜃, 𝜏) = (𝑥, 𝑦, 𝑧) = t 𝑦 = 𝜌 sin 𝜃
𝑧=𝜏
Con Jacobino:
cos 𝜃 −𝜌 sin 𝜃 𝜌 cos 𝜃
|𝐽𝜙(𝜌, 𝜃, 𝜏)| = u sin 𝜃 𝜌 cos 𝜃 𝜌 sin 𝜃 u = 𝜌
0 0 1

INTEGRALES TRIPLES

Ahora que ya sabemos cómo extender la integración definida a dominios


bidimensionales, la extensión a dominios de tres (o más) dimensiones es directa.
Dada una función acotada f (x, y, z) definida en una caja rectangular B (𝑥3 ≤ 𝑥 ≤
𝑥( , 𝑦3 ≤ 𝑦 ≤ 𝑦( , 𝑧3 ≤ 𝑧 ≤ 𝑧( ), la integral triple de f en B,

v 𝑓(𝑥, 𝑦, 𝑧) 𝑑𝑥 𝑑𝑦 𝑑𝑧
+
Las integrales triples en dominios más generales se definen extendiendo la función para
que sea cero fuera del dominio e integrando en una caja rectangular que contenga al
dominio.
De igual forma, las integrales triples se resuelven de la misma forma que las integrales
dobles. En particular, una función continua es integrable en un dominio cerrado y
acotado. Si f (x, y, z) = 1 en el dominio D, entonces la integral triple da el volumen de D:

𝑣𝑜𝑙𝑢𝑚𝑒𝑛 𝑑𝑒 𝐷 = v 𝑑𝑥 𝑑𝑦 𝑑𝑧
+
TEMA 4. ECUACIONES DIFERENCIALES ORDINARIAS
Por ecuación diferencial ordinaria, o para abreviar EDO, se entiende como una
ecuación en la que intervienen una función de una variable y=y(x), sus derivadas y la
variable. Explícitamente:
𝑓i𝑥, 𝑦, 𝑦 & , 𝑦 && , … , 𝑦 (4) j = 0
Se llama orden de la ecuación diferencial al mayor orden de derivación que aparece en
la ecuación.

RESOLUCIÓN DE DIFERENTES TIPOS DE ECUACIONES


ECUACIONES DEL TIPO 𝑦 & (𝑥) = 𝑓(𝑥)

El caso más sencillo de ecuaciones diferenciales que podemos encontrarnos es aquel


en el que no aparece explícitamente la incógnita y, es decir, se corresponden con el
tipo 𝑦 & = 𝑓(𝑥). Para resolverlas, se procede de la siguiente forma:

𝑑𝑦
𝑦`(𝑥) = 𝑓(𝑥) ⟺ = 𝑓(𝑥) ⟺ 𝑑𝑦 = 𝑓(𝑥)𝑑𝑥
𝑑𝑥
Integrando en cada miembro de la ecuación respecto de cada variable obtenemos la
solución general:
; 𝑑𝑦 = ; 𝑓(𝑥)𝑑𝑥 ⟺ 𝑦 = ; 𝑓(𝑥)𝑑𝑥 + 𝐶
Como puede observarse, se trata de ecuaciones sencillas cuya resolución se lleva por
integración directa.

ECUACIONES DE VARIABLES SEPARADAS


Llamamos así a las ecuaciones que pueden escribirse de la siguiente forma:
𝐹(𝑥)𝐺(𝑦) 𝐻(𝑥)𝑃(𝑦)
𝑑𝑥 = − 𝑑𝑦
𝐻(𝑥)𝐺(𝑥) 𝐺(𝑥)𝐻(𝑥)
A continuación, simplificamos para separar las variables:
𝐹(𝑥) 𝑃(𝑦)
𝑑𝑥 = − 𝑑𝑦
𝐻(𝑥) 𝐺(𝑦)
La ecuación queda resuelta integrando cada miembro respecto de su variable:
𝐹(𝑥) 𝑃(𝑦)
; 𝑑𝑥 = − ; 𝑑𝑦
𝐻(𝑥) 𝐺(𝑦)
Y la solución general es:
𝑓(𝑥) + 𝑔(𝑥) = 𝐶
En resumen, se trata de aislar en cada lado del igual una variable y otra, es decir, que
en un lado nos quede una función f(x) junto a un diferencial de x, o sea dx, y en el otro
lado una función con variable y, y su diferencial de y, dy.

PROBLEMAS DE VALOR INICIAL


A continuación, vamos a resolver una EDO donde nos dan una condición inicial:
𝑦& = 𝑦 + 3
m
𝑦(0) = 2
Procedemos a resolver la EDO
𝑑𝑦 𝑑𝑦 𝑑𝑦
=𝑦+3 ⟺ 𝑑𝑦 = (𝑦 + 3)𝑑𝑥 ⟺ = 𝑑𝑥 ⟺ ;
𝑑𝑥 𝑦+3 𝑦+3
= ; 𝑑𝑥 ⟺ ln(|𝑦 + 3|) + 𝐶( = 𝑥 + 𝐶% , {𝐶( , 𝐶% } ∈ ℝ
Podemos reemplazar las constantes C1 y C2 por C, ya que, ambas son constantes
arbitrarias. Por tanto
ln(|𝑦 + 3|) = 𝑥 + 𝐶; 𝐶 ∈ ℝ
⟺ |𝑦 + 3| = 𝑒 !56 ⟺ |𝑦 + 3| = 𝑒 ! · 𝑒 6 ⟺ |𝑦 + 3| = 𝐶𝑒 !
Utilizando la definición de valor absoluto, reescribimos la ecuación de valor absoluto
como dos ecuaciones
𝑦 = 𝐶𝑒 ! − 3
𝑦 = −𝐶𝑒 ! − 3
Ahora aplicando el valor o condición iniciales que nos han dado para 𝑦, sacamos el valor
de la constante C, la cual nos debe de salir como C=5, quedando la solución de la EDO
así:
𝑦(𝑥) = 5𝑒 ! − 3

Por si no ha quedado claro, vamos a resolver otra EDO con valor o condición inicial:
𝑦 & (1 + 𝑒 ! )𝑦 = 𝑒 !
m
𝑦(0) = 1
Procedemos a resolver la EDO:
& (1 ! )𝑦 ! &
𝑒! 𝑒!
𝑦 +𝑒 =𝑒 ⟺ 𝑦 ·𝑦 = ⟺ ; 𝑦 · 𝑑𝑦 = ; 𝑑𝑥
1 + 𝑒! 1 + 𝑒!
𝑦%
⟺ = ln(1 + 𝑒 ! ) + 𝐶 ⟺ 𝑦(𝑥) = D2 ln(1 + 𝑒 ! ) + 𝐶 ; 𝐶 ∈ ℝ
2
A continuación, calculamos la solución que cumpla con la condición inicial 𝑦(0) = 1.
Para ello, imponemos la condición inicial a la solución general y determinamos C.

Como el procedimiento es solamente sustituir, tendremos que 𝐶 = 1 − ln 4. Por tanto,


la solución del problema del valor inicial es:
𝑦(𝑥) = D2 ln(1 − 𝑒 ! ) + 1 − ln 4
Podemos simplificarlo un poco:
1 + 𝑒! %

𝑦(𝑥) = ln … † +1
2

EDO LINEAL DE ORDEN UNO

Las EDO lineal de orden uno son de la forma:

𝑦 & = 𝑎(𝑥)𝑦 + 𝑏(𝑥) ⟷ 𝑦 & + 𝑎(𝑥)𝑦 = 𝑏(𝑥)

Donde si observamos bien tenemos una ecuación homogénea, 𝑦 & (𝑥) = 0 y la EDO lineal
de orden uno 𝑦 & = 𝑎(𝑥)𝑦 + 𝑏(𝑥). Estas ecuaciones se resuelven primero aplicando
variables separadas:
≪ 𝑦 & = 𝑎(𝑥)𝑦 ≫
1
; 𝑑𝑦 = ; 𝑎(𝑥)𝑑𝑥 ⟺ ln|𝑦| = 𝐴(𝑥) + 𝐶 ⟺ 𝑦(𝑥) = ±𝑒 6 · 𝑒 ,(!)
𝑦
Así la solución general de la Homogénea será:
𝑦(𝑥) = 𝐶𝑒 ,(!) ; 𝐶 ∈ ℝ
Donde
𝐴(𝑥) = ; 𝑎(𝑥)𝑑𝑥
Una vez hallada 𝑦(𝑥) = 𝐶𝑒 ,(!) cambiamos la constante C por una función C(x) a
determinar imponiendo que sea solución de la EDO lineal completa: 𝑦 & = 𝑎(𝑥)𝑦 + 𝑏(𝑥).

Para entender mejor este tipo de EDO resolvamos un ejemplo:


𝑦 & + 2𝑥𝑦 = 4𝑥

Se trata de una EDO de primer orden. Donde consideramos la ecuación homogénea


𝑦 & + 2𝑥𝑦 = 0, la cual vamos a resolver.
&
𝑦& 𝑑𝑦
𝑦 + 2𝑥𝑦 = 0 ⟺ = −2𝑥 ⟺ ; = ; −2𝑥 𝑑𝑥 ⟺ ln|𝑦| = −𝑥 % + 𝐶 ⟺
𝑦 𝑦
!
𝑦 = ±𝑒 6 · 𝑒 "! ; 𝐶 ∈ ℝ

La solución a la EGH (ecuación homogénea ) es


!
𝑦 = 𝐶𝑒 "!

Ahora, como la solución de la homogénea es la expresión anterior, proponemos como


solución de la EDO completa la función
!
𝑦 = 𝐶(𝑥) · 𝑒 "!

Donde C(x) es una función a determinar tal y como sigue:


𝑦 & + 2𝑥𝑦 = 4𝑥 ⟺
! !
𝑦 & = 𝐶 & (𝑥)𝑒 "! − 2𝑥𝐶(𝑥)𝑒 "! ⟺ 𝑦 & + 2𝑥𝑦 = 4𝑥
! ! ! !
⟺ 𝐶 & (𝑥)𝑒 "! − 2𝑥𝐶(𝑥)𝑒 "! + 2𝑥𝐶(𝑥)𝑒 "! = 4𝑥 ⟺ 𝐶 & 𝑒 "! = 4𝑥
!
⟺ 𝐶 & (𝑥) = 4𝑥𝑒 !

Integrando obtenemos C(x) :


! ! !
𝐶(𝑥) = ; 4𝑥𝑒 ! 𝑑𝑥 = 2 ; 2𝑥 · 𝑒 ! 𝑑𝑥 = 2𝑒 ! + 𝑘; 𝑘 ∈ ℝ
Por lo tanto, la solución general de la EDO 𝑦 & + 2𝑥𝑦 = 4𝑥 es
! ! !
𝑦(𝑥) = i2𝑒 ! + 𝑘j · 𝑒 ! 𝑒 "! = 2 + 𝑘𝑒 "! ; 𝑘 ∈ ℝ
Otro ejemplo de EDO lineal de orden uno es la siguiente:
𝑦 & − 2𝑦 = 𝑥 % + 𝑥
Donde podemos considerar la ecuación homogénea 𝑦 & − 2𝑦 = 0.
Podemos proponer una solución particular de la EDO completa de la siguiente forma:
𝑦7 = 𝑎𝑥 % + 𝑏𝑥 + 𝑐
K & ⇒ 𝐼𝑚𝑝𝑜𝑛𝑒𝑚𝑜𝑠 𝑞𝑢𝑒 𝑠𝑒𝑎 𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛:
𝑦 7 = 2𝑎𝑥 + 𝑏
𝑦′7 − 2𝑦7 = 𝑥 % + 𝑥 ⟺ 2𝑎𝑥 + 𝑏 − 2(𝑎𝑥 % + 𝑏𝑥 + 𝑐) = 𝑥 % + 𝑥
⟺ −2𝑎𝑥 % + (2𝑎 − 2𝑏)𝑥 − 2𝑐 + 𝑏 = 𝑥 % + 𝑥
A continuación, cogemos los coeficientes de cada x para calcular los parámetros a,b y c:
−2𝑎 = 1 1 1
t 2𝑎 − 2𝑏 = 1 → 𝑎 = − ; 𝑏 = −1; 𝑐 = −
2 2
−2𝑐 + 𝑏 = 0
Luego, una solución particular de la EDO completa es
1 1 1 1
𝑦7 = − 𝑥 % − 𝑥 − = − (𝑥 % + 2𝑥 + 1) = − (𝑥 + 1)%
2 2 2 2
Tenemos la solución particular, ahora vamos a calcular la solución a la ecuación
homogénea:
𝑑𝑦
𝑦 & − 2𝑦 = 0 ⟺ ; = ; 2𝑑𝑥 ⟺ 𝑦 = 𝐶𝑒 %! ; 𝐶 ∈ ℝ
𝑦
Por lo tanto, la propuesta de solución a la EDO completa es:
𝑦 = 𝐶(𝑥)𝑒 %! & %
m & & (𝑥)𝑒 %! %! ⇒ 𝑦 − 2𝑦 = 𝑥 + 𝑥
𝑦 =𝐶 + 𝐶(𝑥) · 2𝑒
⟺ 𝐶 & (𝑥)𝑒 %! + 𝐶(𝑥)2𝑒 %! − 2𝐶(𝑥)𝑒 %! = 𝑥 % + 𝑥
𝐶 & (𝑥)𝑒 %! = 𝑥 % + 𝑥
Procedemos a integrar ambas partes:
1
𝐶(𝑥) = ;(𝑥 % + 1)% 𝑒 "%! 𝑑𝑥 = − (𝑥 % + 1)% 𝑒 "%! + 𝑘
2
Por lo tanto, la solución general es
1 1
𝑦 = …− (𝑥 + 1)% 𝑒 "%! + 𝑘† 𝑒 %! = − (𝑥 + 1)% + 𝑘𝑒 %! ; 𝑘 ∈ ℝ
2 2

EDOs DE ORDEN DOS CON COEFICIENTES CONSTANTES


La EDO lineal de 2º orden con coeficientes constantes tiene la forma canónica
siguiente:
𝑎𝑦 && + 𝑏𝑦 & + 𝑐𝑦 = 𝑓(𝑥)

Siendo 𝑎, 𝑏, 𝑐 números reales y f(x) una función exclusiva en la variable x con buenas
propiedades. Para resolverla, como hicimos en el caso de las lineales de primer orden,
primero resolvemos la ecuación homogénea asociada.

La ecuación homogénea asociada es:


𝑎𝑦 && + 𝑏𝑦 & + 𝑐𝑦 = 0
Para resolver la EDO homogénea formamos la llamada ecuación característica asociada
a la EDO homogénea:
𝑎𝜆% + 𝑏𝜆 + 𝑐 = 0
La que resolveremos para 𝜆. Se trata de una ecuación de grado 2. Al calcular sus
soluciones se nos presentará uno de los tres siguientes casos:
- Tiene dos soluciones reales distintas
- Tiene una única solución real
- No tiene soluciones reales y, por tanto, tiene dos soluciones complejas
conjugadas.

Si tiene dos soluciones distintas: 𝜆( , 𝜆% ∈ ℝ con : 𝜆( ≠ 𝜆% :


𝑦(𝑥) = 𝐶( 𝑒 8" ! + 𝐶% 𝑒 8! ! ; 𝐶( , 𝐶% ∈ ℝ

Tiene una única solución real: 𝜆( , 𝜆% ∈ ℝ con : 𝜆( = 𝜆% = 𝜆


𝑦(𝑥) = (𝐶( + 𝐶% )𝑒 8! ; 𝐶( , 𝐶% ∈ ℝ
No tiene soluciones reales y, por tanto, tiene dos soluciones complejas conjugadas:
𝜆( , 𝜆% ∈ ℂ con 𝜆( = 𝑎 + 𝑏𝑖 y 𝜆% = 𝑎 − 𝑏𝑖
(𝑥) = (𝐶( cos(𝑏𝑥) + 𝐶% sin(𝑏𝑥)) 𝑒 $! ; 𝐶( , 𝐶% ∈ ℝ

RECORDATORIO: RESOLVIENDO LA EDO COMPLETA


Para hallar la solución general de la EDO completa
𝑎𝑦 && + 𝑏𝑦 & + 𝑐𝑦 = 𝑓(𝑥)
Primeros tenemos que hallar la solución general 𝑦9 (𝑥) de la ec. Homogénea asociada.
Luego, hay que buscar una solución particular 𝑦7 (𝑥) de la EDO completa.
De esta forma, la solución general de la EDO completa es igual a la suma de la solución
general de la homogénea más la solución particular:
𝑦(𝑥) = 𝑦9 (𝑥) + 𝑦7 (𝑥)
TEMA 5. CÁLCULO VECTORIAL

5.1. ALGUNOS OPERADORES DIFERENCIALES

Consideremos la función que actúa en un campo vectorial 𝐹⃗ = (𝐹( , 𝐹% , 𝐹' ). Definimos la


divergencia y el rotacional como:

𝜕𝐹( 𝜕𝐹% 𝜕𝐹'


𝑑𝑖𝑣 𝐹⃗ = ∇ · 𝐹⃗ = + +
𝜕𝑥 𝜕𝑦 𝜕𝑧
𝒊 𝒋 𝒌
𝜕𝐹 𝜕𝐹 𝜕𝐹 𝜕𝐹 𝜕𝐹 𝜕𝐹
⃗ ⃗ 𝜕
𝑟𝑜𝑡 𝐹 = ∇ × 𝐹 = š ! 𝜕2 𝜕: š = … ' − % , ( − ' , % − ( †
𝜕𝑦 𝜕𝑧 𝜕𝑧 𝜕𝑥 𝜕𝑥 𝜕𝑦
𝐹( 𝐹% 𝐹'

Propiedad rotacional: existe una función 𝑓, llamada potencial, que verifica ∇𝑓 = 𝐹⃗


cuando 𝑟𝑜𝑡 𝐹⃗ = 0
ž⃗ . Los campos que cumplen que ∇𝑓 = 𝐹⃗ son conservativos.

Cuando calculamos la divergencia de un campo conservativo obtenemos la suma de las


derivadas parciales segundas. Como esta situación es común, recibe un nombre: se dice
que es el laplaciano del potencial y se denota con ∆. En general, dada 𝑓, se define su
laplaciano como

𝜕 % 𝐹( 𝜕 % 𝐹% 𝜕 % 𝐹'
∆𝑓 = 𝑑𝑖𝑣(∇𝑓) = ∇% 𝑓 = + +
𝜕𝑥 % 𝜕𝑦 % 𝜕𝑧 %

El laplaciano aparece en problemas para resolver el átomo de hidrógeno con la ecuación


de schrödinger y se calculan los orbitales atómicos. Para ello es útil usar el laplaciano en
coordenadas esféricas.

1 𝜕 % 𝜕𝑓 1 𝜕 𝜕𝑓 1 𝜕%𝑓
∆𝑓 = % …𝑟 †+ % …sin 𝛽 †+ % %
𝑟 𝜕𝑟 𝜕𝑟 𝑟 sin 𝛽 𝜕𝛽 𝜕𝛽 𝑟 sin 𝛽 𝜕𝛼 %

Para 𝑓 = 𝑔(𝑟) solo depende el del radio (función radial), se tiene ∇𝑓 = 𝑟 "% (𝑟 % 𝑔& )& =
2𝑟 "( 𝑔& + 𝑔&& .

5.2. INTEGRALES DE CAMPOS EN CURVAS Y SUPERFICIES

Sea una función 𝜎: [𝑎, 𝑏 ] → ℝ' . 𝜎 asigna a cada valor 𝑎 ≤ 𝑡 ≤ 𝑏 un punto, podemos
interpretarla como ecuación de movimiento de una partícula y describirá una curva 𝐶
recorrida en cierta dirección. Se dice que 𝜎 es una parametrización de la curva porque
para cada valor del parámetro 𝑡 da un punto de 𝐶. Se define una integral de línea de un
campo vectorial 𝐹⃗ sobre 𝐶 como

#
; 𝐹⃗ · 𝑑𝜎 = ; 𝐹⃗ i𝜎(𝑡)j · 𝜎′(𝑡)𝑑𝑡
6 $
Veamos como integrar un campo en una superficie. Veamos ahora cómo integrar un
campo en una superficie. El hecho de que una superficie tenga dos dimensiones se
traduce en que ahora las parametrizaciones deben tener dos parámetros, es decir, una
parametrización de una superficie 𝑆 vendrá dada por una función Φ que a cada par de
parámetros (𝑢, 𝑣) le asigna un punto en ℝ' de forma que al variar (𝑢, 𝑣) en cierto rango
𝑅, los valores de 𝜙(𝑢, 𝑣) describen la superficie. Se define la integral de superficie de un
campo vectorial 𝐹⃗ sobre 𝑆 como

; 𝐹⃗ · 𝑁
ž⃗ 𝑑𝑆 = h 𝐹⃗i𝜙(𝑢, 𝑣)j · 𝑁
ž⃗ (𝑢, 𝑣) 𝑑𝑢𝑑𝑣
; <
Donde 𝑁 ž⃗ (𝑢, 𝑣) = => × =>, es decir, todo funciona como en la
ž⃗ (𝑢, 𝑣) es la normal y 𝑁
=? =@
integral de línea cambiando 𝜎′(𝑡), que es un vector tangente, por 𝑁 ž⃗ (𝑢, 𝑣), que es
normal.
La integral de superficie no depende de la parametrización que demos a la superficie,
sólo depende de la forma de la superficie en sí y del sentido que se especifique para la
normal.

5.3. INTEGRALES DE FUNCIONES ESCALARES EN CURVAS Y SUPERFICIES

En alguna aplicación surge de manera natural la idea de integrar una función (escalar,
no un campo) a lo largo de curvas y superficies. La definición es análoga al caso de
integrales de campos vectoriales excepto que 𝜎 & y 𝑁 ž⃗ se sustituyen por sus módulos o
ž⃗ §. Concretamente si 𝐶 es una curva parametrizada por 𝜎 = 𝜎(𝑡) con
normas ‖𝜎 & ‖ y §𝑁
𝑎 ≤ 𝑡 ≤ 𝑏, se define la integral a lo largo de 𝐶 de una función 𝑓

#
; 𝑓 𝑑𝜎 = ; 𝑓(𝜎(𝑡))‖𝜎 & ‖𝑑𝑡
6 $

De la misma forma para una superficie parametrizada por 𝜙 = 𝜙(𝑢, 𝑣) con (𝑢, 𝑣) en
cierta región, se define la integral de 𝑓 sobre 𝑆 como

ž⃗(𝑢, 𝑣)§ 𝑑𝑢𝑑𝑣


; 𝑓 𝑑𝑆 = h 𝑓i𝜙(𝑢, 𝑣)j§𝑁
; <

El producto escalar es el producto de los módulos para vectores que apuntan en la


misma dirección (y sentido) por tanto las expresiones anteriores coinciden con
integrales de campos de módulo f con las direcciones de la tangente y la normal.
Físicamente

𝑀𝑎𝑠𝑎 = ; 𝑓𝑑𝜎 𝑀𝑎𝑠𝑎 = ; 𝑓𝑑𝑆


6 ;
donde en el primer caso 𝜌 es la densidad lineal de la curva y en el segundo caso la
densidad superficial. El caso 𝜌 = 1 da lugar a las fórmulas geométricas:

𝐿𝑜𝑛𝑔𝑖𝑡𝑢𝑑 𝑑𝑒 𝐶 = ; 1𝑑𝜎 𝐴𝑟𝑒𝑎 𝑑𝑒 𝑆 = ; 1𝑑𝑆


6 ;
5.4. ALGUNOS TEOREMAS FUNDAMENTALES DEL CÁLCULO VECTORIAL

Comencemos por una propiedad que permite evaluar las integrales de línea fácilmente
en el caso de campos conservativos. Si 𝐹⃗ = ∇𝑓, entonces por la definición de integral de
línea y regla de la cadena

# #
𝑑
; 𝐹⃗ · 𝑑𝜎 = ; ∇𝑓i𝜎(𝑡)j𝜎 & (𝑡)𝑑𝑡 = ; 𝑓i𝜎(𝑡)j𝑑𝑡 = 𝑓i𝜎(𝑏)j − i𝜎(𝑎)j
6 $ $ 𝑑𝑡

Si 𝐹⃗ es conservativo y 𝑓 es un potencial entonces la integral de línea para una curva que


va de un punto inicial a uno final es simplemente

; 𝐹⃗ · 𝑑𝜎 = 𝑓i𝑃1 j − 𝑓(𝑃A )
6

Es decir, que para campos conservativos la integral de línea no depende de la curva, sólo
del punto inicial y del final. En el caso especial donde coinciden se deduce que la integral
de línea de un campo conservativo a lo largo de una curva cerrada es nula.

El milagro de los campos conservativos ha ocurrido porque a la postre estábamos


integrando una derivada. Todo se reducía al teorema fundamental del cálculo. Cabe
preguntarse cómo se generaliza esto a dos o tres dimensiones, es decir, cómo hay que
derivar para que la integral de la derivada sea la función en el borde (en el caso habitual
son los extremos del intervalo). La respuesta es que esas formas de derivar son los
operadores diferenciales divergencia y rotacional que ya habíamos visto.
Concretamente, se tienen los siguientes resultados:

Teorema de la divergencia de Gauss


Sea 𝑉 una región sólida acotada y 𝑆 la superficie cerrada determinada por su frontera
orientada con el normal exterior. Entonces para cualquier campo vectorial 𝐹⃗ se verifica

v 𝑑𝑖𝑣 𝐹⃗ · 𝑁
ž⃗ 𝑑𝑆 = ; 𝐹⃗ · 𝑁
ž⃗ 𝑑𝑆
B ;

Teorema de Stokes
Sea 𝐶 una curva cerrada en el espacio que es la frontera de una superficie 𝑆. Entonces
para cualquier campo vectorial 𝐹⃗ se verifica

; 𝑟𝑜𝑡 𝐹⃗ · 𝑁
ž⃗ 𝑑𝑆 = ; 𝐹⃗ · 𝑑𝜎
; 6

Donde la normal de 𝑆 y el sentido en que se recorre 𝐶 verifican la regla de la mano


derecha.
Estos teoremas dan un indicio acerca de la oportunidad de usar los nombres divergencia
y rotacional. El primer operador está relacionado con la cantidad de campo que sale de
una superficie y el segundo con cómo se aprovecha el campo a lo largo de una curva
cerrada.

Teorema de Green
Sea 𝐶 una curva cerrada en el plano que es la frontera de una región 𝑅. Entonces para
cualquier campo vectorial 𝐹⃗ se verifica

𝜕𝐹% 𝜕𝐹%
h … − † 𝑑𝑥𝑑𝑦 = ; 𝐹⃗ · 𝑑𝜎
< 𝜕𝑥 𝜕𝑦 6

Donde la curva 𝐶 se recorre en sentido positivo (antihorario)


2 !
Si tomamos 𝐹⃗ = ª− % , %« el primer miembro es ∬< 1𝑑𝑥𝑑𝑦, el área de 𝑅. Se puede
calcular el área de una región paseándose por su frontera. Esta consecuencia curiosa del
teorema de Green e puede escribir como

1
𝐴< = ; (−𝑦𝑑𝑥 + 𝑥𝑑𝑦)
2 6
TEMA 6. SISTEMAS LINEALES Y MATRICES

6.1. SISTEMA DE ECUACIONES LINEALES

Un sistema de ecuaciones lineales es de la forma indicada a la izquierda y se suele


representar por una matriz (una tabla) como la de la derecha

𝑎(( 𝑥( + 𝑎(% 𝑥% + ⋯ + 𝑎(4 𝑥4 = 𝑏( 𝑎(( 𝑎(% … 𝑎(4 𝑏(


𝑎%( 𝑥( + 𝑎%% 𝑥% + ⋯ + 𝑎%4 𝑥4 = 𝑏% 𝑎%( 𝑎%% … 𝑎%4 𝑏%
° ⋮ ⋮ ⋮ ⋮ ±
⋮ ⋮
𝑎C( 𝑥( + 𝑎C% 𝑥% + ⋯ + 𝑎C4 𝑥4 = 𝑏C 𝑎C( 𝑎C% … 𝑎C4 𝑏C

Un sistema de este tipo puede tener solución única (compatible determinado), infinitas
soluciones (compatible indeterminado) o no tener solución (incompatible).

La matriz de un sistema es una matriz escalonada (o el sistema está en forma


escalonada) si cada fila no nula tiene siempre más ceros a la izquierda que la que está
por encima y las filas nulas, si las hubiera, están colocadas al final.
Siempre es posible reducir un sistema a forma escalonada empleando tres trans-
formaciones elementales sobre las ecuaciones (o equivalentemente sobre las filas de la
matriz):
1. Sumar a una ecuación un múltiplo de otra.
2. Multiplicar una ecuación por un número no nulo.
3. Intercambiar dos ecuaciones.
Todas ellas se pueden invertir, así que no se pierden soluciones del sistema al apli-
carlas.
El algoritmo de reducción de Gauss consiste en aplicar estos tres procesos (el segundo
no es estrictamente necesario) para producir ceros por columnas en la matriz y llegar a
la forma escalonada.

6.2. MATRICES Y SUS OPERADORES

Una matriz 𝑚 × 𝑛 no es más que una tabla de números con m filas y n columnas. Se
suele denotar 𝑎AD al elemento que está en la fila 𝑖 y en la columna 𝑗 de una matriz 𝐴.

Escribiremos ℳC×4 para indicar el conjunto de todas las matrices de m filas y n


columnas.
Las matrices de ℳC×4 se suman de la forma esperada: sumando los elementos en las
mismas posiciones. Para multiplicarlas por un número 𝜆.
La multiplicación de dos matrices sólo se define si el número de columnas de la primera
coincide con el número de filas de la segunda. Si 𝐴 ∈ ℳC×4 y 𝐵 ∈ ℳC×4 entonces 𝐴𝐵 ∈
ℳC×4 . El elemento 𝑖𝑗 del producto se calcula con la fórmula ∑ 𝑎AE 𝑏DE . Esto equivale a
decir que se hace el producto escalar habitual de la fila por la columna.

También podría gustarte