0% encontró este documento útil (0 votos)
68 vistas176 páginas

1-Teoría - 2021 Matemática Avanzada

Este documento presenta un índice general de los temas que serán tratados en el curso de análisis de señales y sistemas. Incluye cinco capítulos principales que cubren temas de variable compleja, análisis en el dominio natural, análisis de Fourier, transformada de Laplace y variables de estado. Cada capítulo contiene entre 10 y 18 secciones detallando los diferentes subtemas a abordar.

Cargado por

exi yaya
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
68 vistas176 páginas

1-Teoría - 2021 Matemática Avanzada

Este documento presenta un índice general de los temas que serán tratados en el curso de análisis de señales y sistemas. Incluye cinco capítulos principales que cubren temas de variable compleja, análisis en el dominio natural, análisis de Fourier, transformada de Laplace y variables de estado. Cada capítulo contiene entre 10 y 18 secciones detallando los diferentes subtemas a abordar.

Cargado por

exi yaya
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Índice general

1. Temas de variable compleja 7


1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Transformación conforme . . . . . . . . . . . . . . . . . . . . . . 9
1.3. Integración en el plano complejo . . . . . . . . . . . . . . . . . . 14
1.4. Series de potencias . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2. Análisis en el dominio natural 32


2.1. Señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.2. Sistemas dinámicos . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.3. Respuesta al impulso y convolución . . . . . . . . . . . . . . . . . 64

3. Análisis de Fourier 75
3.1. Introducción y motivación . . . . . . . . . . . . . . . . . . . . . . 75
3.2. Sucesiones ortogonales . . . . . . . . . . . . . . . . . . . . . . . . 77
3.3. Series de Fourier generalizadas . . . . . . . . . . . . . . . . . . . 79
3.4. Series trigonométrica y exponencial de Fourier . . . . . . . . . . 83
3.5. Respuesta permanente a funciones periódicas . . . . . . . . . . . 90
3.6. Simetrı́a de ondas periódicas . . . . . . . . . . . . . . . . . . . . 91
3.7. Espectro discreto de frecuencias . . . . . . . . . . . . . . . . . . . 94
3.8. Propiedades del espectro discreto . . . . . . . . . . . . . . . . . . 99
3.9. Espectro de potencia . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.10. Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . . 103
3.11. Transformada de algunas señales sencillas . . . . . . . . . . . . . 105
3.12. Transformada de Fourier de funciones absolutamente integrables 109
3.13. Propiedades de la transformada de Fourier . . . . . . . . . . . . . 111
3.14. Espectro de energı́a . . . . . . . . . . . . . . . . . . . . . . . . . . 117
3.15. Transmisión de señales a través de filtros lineales (SLIT) . . . . . 118
3.16. Transformada de Fourier de funciones no absolutamente integrables120
3.17. Transformadas de Fourier seno y coseno . . . . . . . . . . . . . . 124

4. Transformada de Laplace 125


4.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
4.2. Transformada unilateral de Laplace . . . . . . . . . . . . . . . . . 126
4.3. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
4.4. Teoremas del valor inicial y del valor final . . . . . . . . . . . . . 135
4.5. Transformada inversa de Laplace . . . . . . . . . . . . . . . . . . 137
4.6. Resolución de ecuaciones diferenciales . . . . . . . . . . . . . . . 139

1
ÍNDICE GENERAL 2

4.7. Función de transferencia . . . . . . . . . . . . . . . . . . . . . . . 140


4.8. Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

5. Variables de estado 143


5.1. Introducción y concepto de estado . . . . . . . . . . . . . . . . . 143
5.2. Ejemplos introductorios . . . . . . . . . . . . . . . . . . . . . . . 144
5.3. Modelos para sistemas SISO . . . . . . . . . . . . . . . . . . . . . 147
5.4. Segunda forma canónica . . . . . . . . . . . . . . . . . . . . . . . 148
5.5. Solución temporal de las variables de estado. Matriz de transición
de los estados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
5.6. Análisis del modelo en variables de estado con transformada de
Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
5.7. Transformaciones de semejanza . . . . . . . . . . . . . . . . . . . 160

A. Operador anulador 167

B. Fórmula de Leibniz 170

C. Algunas formas de onda 171

D. Cálculo de φ(t) 173


Introducción

Estos apuntes de cátedra tienen la finalidad de guiar al alumno en el estudio


de los diferentes temas de la asignatura. No debe considerarse único material
para el estudio de los contenidos impartidos, sino que debe ser complementado
con la bibliografı́a detallada en las páginas siguientes y con el material de apoyo
online que se propone al final de cada sección.
Para comprender sin dificultades los contenidos, se requiere tener conocimiento
y habilidad en la resolución de ejercicios de los siguientes temas:
Álgebra de números complejos.
Topologı́a del plano complejo.
Funciones de variable compleja.
Condiciones necesarias y suficientes de Cauchy-Riemann.
Funciones analı́ticas.
Funciones armónicas.
Familia de curvas ortogonales.
Integrales curvilı́neas de una función compleja.
Los alumnos deberán leer, siguiendo el cronograma, los temas relacionados con
la clase siguiente. Durante las teorı́as, los profesores desarrollarán los temas,
realizarán ejemplos y explicarán los nuevos conceptos fundamentándolos con las
demostraciones más importantes, aclararán las dudas presentadas e integrarán
los conocimientos.
Los responsables de las prácticas explicarán distintos tipos de ejercicios integra-
dores y atenderán consultas de los alumnos.
Se recomienda asistir a las clases teóricas y prácticas ya que se realizarán ex-
plicaciones conceptuales complementarias necesarias para la comprensión de los
distintos temas.

3
ÍNDICE GENERAL 4

Integrantes de la cátedra
Dra. Gabriela Messineo (responsable de cátedra)
Ing. Carlos Chiuro (JTP)
Dra. Vanesa Galli
Ing. Mg. Alberto López

Objetivos generales de la asignatura


Familiarizar al alumno con el vocabulario adecuado para permitirle una
mayor comprensión de los contenidos impartidos en las asignaturas usua-
rias de ésta.
Capacitar al alumno para profundizar los temas de acuerdo con las nece-
sidades de cada especialidad.
Relacionar los diferentes conceptos, a fin de lograr un manejo integral de
los mismos y plantear situaciones nuevas.

Régimen de promoción
La evaluación de la asignatura a lo largo del cursado se realizará en las siguientes
instancias:
2 exámenes parciales teórico prácticos que serán calificados en la escala de
1 a 100 puntos. La ausencia a un parcial significa cero como nota.
Seminarios con Matlab u Octave (software libre), que deberán realizar-
se antes de cada parcial. Serán de asistencia obligatoria, siendo ésta la
condición indispensable para poder rendir el parcial correspondiente.
1 único recuperatorio que puede utilizarse para reemplazar la nota del
parcial con menor puntaje o para compensar una inasistencia justificada
a alguna de las instancias de evaluación regulares.
1 coloquio para definir la calificación final en los casos en que la cátedra
lo considere necesario.
El cierre de notas es posterior a la finalización de la cursada y hasta esa fecha
la cátedra podrá realizar evaluaciones.
- Las inasistencias se consideran justificadas si se presentan certificados médicos
o de trabajo.
- NO están justificadas la inasistencias por viajes.

Cumplidas esas etapas el alumno podrá estar:


PROMOCIONADO: Si la suma de los dos parciales es de 140 puntos, con una
nota mı́nima del 40 % en cada instancia de examen y sin haber hecho uso del
recuperatorio. Se harán excepciones en caso de haber recurrido al recuperatorio
por inasistencia justificada.
ÍNDICE GENERAL 5

HABILITADO: Si la suma de los dos parciales es de 100 puntos como mı́nimo


(sin puntaje mı́nimo en ninguno de ellos).En este caso podrá aprobar la asigna-
tura rindiendo un examen TOTALIZADOR para el cual tiene tres posibilidades.
La nota final del alumno en la asignatura resulta de las notas obtenidas en el
totalizador y en los parciales, y la aprobación del totalizador requiere un puntaje
mı́nimo de 50/100, en cuyo caso corresponde la calificación mı́nima (4(cuatro)).
DESAPROBADO: Si no cumple con las condiciones anteriores. En este caso el
alumno deberá recursar la materia.

Programa analı́tico
1. Variable Compleja
a) Transformación conforme Transformación lineal. Transformación
inversa. Transformación bilineal.
b) Integración. Polos y residuos. Integrales en el campo complejo.
Singularidades aisladas. Definición de residuos. Teorema de Cauchy-
Goursat. Consecuencias. Teorema de los residuos. Fórmula de la in-
tegral de Cauchy y de la Derivada de la integral de Cauchy.
c) Series de potencias. Series de Taylor. Series de Laurent. Méto-
dos prácticos. Desarrollos en serie. Convergencia. Fórmulas para el
cálculo de residuos.
2. Análisis de señales y sistemas en el dominio natural.
a) Clasificación y propiedades de Señales. Análisis de señales en
el dominio del tiempo. Señales periódicas y no periódicas. Señales de
energı́a y de potencia. Tipos de señales. Función impulso. Función
impulso como lı́mite de otra función. Propiedades.
b) Sistemas lineales e invariantes en el tiempo. Ejemplos de Mecáni-
ca y Electrotecnia. Función operacional del sistema. Solución de ecua-
ciones diferenciales en el dominio del tiempo. Solución transitoria y
permanente de un sistema estable. Aplicaciones a sistemas lineales.
Diagramas en bloques.
c) Convolución y respuesta al impulso. Cálculo y propiedades de la
integral de convolución. Cálculo de la respuesta al impulso. Solución
libre y forzada de un sistema lineal e invariante. Respuesta a funciones
exponenciales. Estabilidad de un sistema. Relación entre la respuesta
al escalón y la respuesta al impulso. Ejercicios de aplicación.
3. Análisis de señales y sistemas en el dominio transformado.
a) Series de Fourier. Sistemas ortogonales. Serie generalizada de Fou-
rier. Aproximación cuadrática. Coeficientes de Fourier. Identidad de
Parseval. Series trigonométrica y exponencial de Fourier. Simetrı́a de
la forma de onda. Integración y diferenciación de las series de Fou-
rier. Espectro de frecuencia discreta. Espectro de amplitud y de fase.
Propiedades. Espectro de potencia. Respuesta de un sistema lineal a
una función periódica.
ÍNDICE GENERAL 6

b) Transformada e integral de Fourier. Forma trigonométrica de la


integral de Fourier. Convergencia de la integral de Fourier. Transfor-
mada de Fourier. Propiedades. Transformadas seno y coseno. Trans-
formada inversa de Fourier. Propiedades. Convolución.
c) Transformada de Laplace. Teoremas de existencia. Convergen-
cia. Propiedades. Transformada inversa. Propiedades. Métodos para
calcularla. Aplicaciones. Función de transferencia. Análisis de la es-
tabilidad de un sistema. Diagramas de bloques.
4. Análisis de señales y sistemas en el dominio transformado.
a) Variable de estado. Modelado de sistemas lineales e invariantes en
el tiempo mediante variables de estado. Concepto de estado. Obten-
ción del modelo de variables de estado para sistemas de una entrada-
una salida. Problemas de aplicación. Modelo de la segunda forma
canónica. Definición de la matriz de transición de los estados. Esta-
bilidad.
b) Análisis y solución del modelo en variables de estado me-
diante la Transformada de Laplace. Propiedades de la matriz de
transición de los estados. Relación con la función de transferencia.
Estabilidad. Transformaciones de semejanza.

Bibliografı́a
E.KREYSZIG: Matemáticas avanzadas para Ingenierı́a. Ed. Limusa.
R.V.CHURCHILL; J.W.BROWN: Variable compleja y aplicaciones. Ed. Mc
Graw Hill.
M.R.SPIEGEL: Variable compleja. Serie Schaum. Ed. Mc Graw Hill.
R.A.GABEL, R.A. ROBERTS: Señales y Sistemas lineales. Ed. Limusa S.A.
C.D.MC GILLEN, H.R.COOPER: Continuos and Discrete Signal and System
Analysis. Ed.Holt-Rinehart and Winston.
R.V.CHURCHILL: Series de Fourier y problemas de contorno. Ed. Mc Graw
Hill.
H.R.HSU: Análisis de Fourier. Fondo educativo interamericano S.A.
M.R.SPIEGEL: Transformada de Laplace. Serie Schaum. Mc Graw Hill.
A.PAPOULIS: The Fourier Integral and its Aplications. Mc Graw Hill.
M.R.SPIEGEL: Análisis de Fourier. Serie Schaum. Ed. Mc Graw Hill.
OPPENHEIN –WILLSKY: Señales y Sistemas. Prentice Hall.
C.L.PHILLIPS - J.M.PARR: Signals, Systems, and Transforms. Prentice Hall.
http://www.jhu.edu/ signals
Capı́tulo 1

Temas de variable compleja

1.1. Introducción
Función analı́tica
La función ω = f (z), definida para los números complejos z = x+jy, es analı́tica
en un punto dado z0 ∈ D si la misma es derivable tanto en el propio punto z0
como en un cierto entorno del mismo.
Es condición necesaria (aunque no suficiente) para la derivabilidad de este tipo
de funciones que se verifiquen las Condiciones de Cauchy-Riemann (C-R), dos
ecuaciones diferenciales parciales, básicas en el análisis de funciones complejas
de variable compleja.
Recordamos las condiciones de C-R para f (z) = x(u, v) + jy(u, v):

∂u ∂v ∂v ∂u
= ; =− ,
∂x ∂y ∂x ∂y

que en forma abreviada pueden escribirse como: ux = vy ; vx = −uy .


Es condición necesaria y suficiente para que una función f (z) continua sea
analı́tica en un punto (x, y), que se verifiquen las condiciones de C-R y que las
derivadas parciales de u y de v sean continuas en ese punto.

Función entera: una función f (z) que es analı́tica en todo el plano.

Singularidades
El punto z0 es una singularidad de f (z) si f (z) es analı́tica en algún punto de
cierto entorno de z0 pero no lo es en el propio punto.

Singularidad aislada: Si existe cierto entorno de un punto singular de un


función f (z) en todo el cual f es analı́tica, excepto en el propio punto, entonces
dicho punto es un punto singular aislado de f .

7
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 8

Otra forma de definirla es la siguiente: f (z) tiene una singularidad aislada en


z = z0 si es analı́tica en un entorno reducido de z0 .

Tipos de singularidades aisladas: clasificamos a las singularidades como


polo, singularidad esencial y singularidad evitable.
Polo
f (z) tiene un polo en z = z0 si lı́m |f (z)| = ∞
z→z0

Para que un punto z0 sea un polo de orden m de f (z), es necesario y


suficiente que f (z) pueda expresarse de la forma:

ϕ(z)
f (z) =
(z − z0 )m

con ϕ(z) analı́tica en z0 .


Similarmente, podemos decir que z0 será un polo de orden m si

lı́m f (z)(z − z0 )m = k; k 6= 0.
z→z0

Singularidad esencial
z = z0 es una singularidad esencial de f (z) si no existe lı́m f (z)
z→z0

Singularidad evitable
z = z0 es una singularidad evitable de f (z) si lı́m f (x) = L; L 6= 0.
z→z0

Función racional. Cociente entre 2 polinomios.


Es analı́tica salvo en los valores de z tales que el polinomio del denominador es
cero; esos valores serán puntos singulares de f (z)

Ceros de una función


Supongamos que f (z) es analı́tica en cierto punto z0 . Dicho punto se llama cero
de la función f (z) de orden n si se cumplen las siguientes condiciones:

f (z0 ) = 0; f 0 (z0 ) = 0; f 00 (z0 ) = 0; ...; f (n−1) (z0 ) = 0; f (n) (z0 ) 6= 0

Si n = 1, entonces z0 es un cero simple.

Ejercicios
Singularidades
Analizar las singularidades de cada función:
sen(z)
1. f (z) = z en z0 = 0; Rta.: Singularidad evitable
sen(z)
2. f (z) = z3 en z0 = 0; Rta.: Polo de segundo orden
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 9

1−e−z
3. f (z) = z en z0 = 0; Rta.: Singularidad evitable
1
4. f (z) = e z en z0 = 0; Rta.: Singularidad esencial
1−cos(z)
5. f (z) = z7 en z0 = 0; Rta.: Polo de quinto orden

Ceros
Determinar el orden de los ceros de las siguientes funciones:
6. f (z) = (z − a)3 ; Rta.: z = a es un cero de tercer orden de f (z).
7. f (z) = 1 − ez ; Rta.: z = 2πkj son ceros simples de f (z).

1.2. Transformación conforme


Definición: Una función w = f (z) analı́tica y no constante transforma un
dominio D del plano Z en otro dominio f (D) del plano W . En los puntos en los
que f 0 (z) 6= 0 una aplicación de este tipo posee la propiedad de ser conforme.
Esto significa que, si dos curvas cualesquiera se cortan en un punto de D, sus
imágenes en f (D) se cortan formando el mismo ángulo que aquellas.
En cada punto z de un dominio donde f es analı́tica y f 0 (z) 6= 0 la transforma-
ción w = f (z) es conforme.

C1
C1*
a
C2

Plano Z
C2*
Plano W

Figura 1.1: Transformación conforme.

A continuación presentamos las tres trasnformaciones lineales que estudiaremos.

Transformacion lineal

Tiene la forma general w = Az + B, con A, B constantes complejas.


A = 1; w = z + B
Como tenemos la suma de dos número complejos (z y B), conviene expre-
sarlos en forma cartesiana:
z = x + jy, B = br + jbi .
Además, w = u + jv.
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 10

Por lo tanto:

u + jv = x + jy + br + jbi = x + br + j(y + bi ),

u = x + br
de donde salen la parte real y la parte imaginaria de w:
v = y + bi
Las ecuaciones de arriba son las denominadas coordenadas de transforma-
ción y permiten ver que esta transformación implica un corrimiento de br
unidades en el eje de abscisas y bi unidades en el eje de ordenadas.
B = 0; w = Az
Como tenemos el producto de dos número complejos (z y A), en este caso
conviene expresarlos en forma polar.
z = rejθ , A = Rejα .
Además, w = ρejφ .
Por lo tanto:
ρejφ = Rejα rejθ = Rrej(α+θ) ,

de donde salen el módulo y la fase de w:



ρ = rR
φ=α+θ

Puede verse que en este caso la transformación implica un cambio de


tamaño (según el módulo de A) y una rotación (según la fase de A) de la
región a transformar.
Es importante tener en cuenta que tanto la rotación como el cambio de
tamaño son con respecto al origen de coordenadas.
w = Az + B es una transformación que implica tanto una traslación como
un cambio de tamaño y una rotación.

Transformación inversa
1 1
Su forma general es w = z oz= w.

Excepto para z = 0 y w = 0, que no tienen imagen, existe una correspondencia


uno a uno entre puntos de ambos dominios. Por ejemplo, z = 2 se transforma
en w = 1/2, y w = 2 se transforma en z = 1/2.

En coordenadas polares

ρ = 1r

1
ρejφ = ⇒
rejθ φ = −θ

Puede obsevarse que existe una simetrı́a con respecto al eje real, ya que las fases
son opuestas. Entonces, si la fase de cierto punto z0 es, por ejemplo, π/6, la
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 11

fase de su imagen en el plano W será −π/6. De la misma manera, hay simetrı́a


con respecto a la circunferencia de radio 1. Cualquier punto que en el plano Z
se encuentre dentro de dicha circunferencia tendrá una imagen en el plano W
fuera la misma (si r > 1 ⇒ ρ < 1, y a la inversa).

En coordenadas cartesiana

1
w=
z
 x
1 x − jy  u = x2 +y2
u + jv = = 2 ⇒
x + jy x + y2
v = x2−y

+y 2

1
Análogamente, para z = w,

u −v
x= ;y = 2
u2 +v 2 u + v2

Transformación inversa de una familia de circunferencias y rectas

Si (a, b, c, d) ∈ R, la ecuación de una familia de circunferencias o rectas (depen-


diendo de si a 6= 0 o a = 0) en el plano Z es:

a(x2 + y 2 ) + bx + cy + d = 0

Si se aplica la transformación inversa a los puntos que cumplen con la igualdad


de arriba, tenemos que en el plano W la ecuación transformada es:
u −v u v
a(( )2 + ( 2 )2 ) + b 2 −c 2 +d=0
u2 + v 2 u + v2 u + v2 u + v2

u2 + v 2 u v
a 2 2 2
+b 2 2
−c 2 +d=0
(u + v ) u +v u + v2

Entonces, en el plano W tendremos:

a + bu − cv + d(u2 + v 2 ) = 0

Ası́ vemos cómo una familia de circunferencias y rectas en un plano se transforma


en otra familia de circunferencias y rectas en el otro plano.

El punto del infinito

Una aplicación de la transformada inversa es que permite encontrar la imagen


del punto del infinito (notación: z = ∞)
Analı́ticamente se considera z 0 = z1 , pues si z → ∞, entonces z 0 → 0.
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 12

Utilizando esta sustitución puede simplificarse en algunos casos la tarea en el


cálculo de lı́mites.
El punto del infinito recibe el nombre de punto impropio llamado ∞.
El plano complejo más el punto infinito, recibe el nombre de plano complejo
extendido, sin ese punto se llama plano complejo finito.

Transformación bilineal (lineal fraccionaria u homográfica)


az+b
La forma general es w = cz+d , ad − bc 6= 0 y a, b, c, d ∈ C.
Las transformaciones de este tipo transforman circunferencias y rectas en cir-
cunferencias y rectas.
La transformación bilineal puede descomponerse en tres transformaciones suce-
sivas: una lineal, una inversa y una segunda transformación lineal. Para mostrar
esto, escribamos a la transformación haciendo el cociente de ambos polinomios.
Entonces, si c 6= 0:
a bc − ad 1
w= +
c c cz + d

Ası́, llamando z 0 = cz + d tenemos la primera transformación lineal.


Luego, z 00 = 1
z0 es una transformación inversa.
a bc−ad 00
Y finalmente podemos escribir w = c + c z , que es la segunda transforma-
ción lineal.

Puede encontrarse una transformación bilineal que transforme tres puntos cua-
lesquiera, z1 , z2 , z3 en tres puntos w1 , w2 , w3 , respectivamente, mediante la fórmu-
la:
(z − z1 )(z2 − z3 ) (w − w1 )(w2 − w3 )
=
(z − z3 )(z2 − z1 ) (w − w3 )(w2 − w1 )

Prueba:
La fórmula anterior puede escribirse como:

(z − z1 )(z2 − z3 )(w − w3 )(w2 − w1 ) = (w − w1 )(w2 − w3 )(z − z3 )(z2 − z1 )

- Si z = z1 el primer miembro de la ecuación es cero y w = w1 .


- Si z = z3 el segundo miembro de la ecuación es cero y w = w3 .
- Si z = z2 la ecuación se reduce a (w − w3 )(w2 − w1 ) = (w − w1 )(w2 − w3 ), que
puede simplificarse a w(w1 − w3 ) = w2 (w1 − w3 ) y de donde sale que w = w2 .
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 13

Ejercicios
Transformación lineal
1. Se desea encontrar la imagen de la región 0 ≤ x ≤ 1; 0 ≤ y ≤ 2 mediante
la transformación w = (1 + j)z + 2 − j. ¿Cómo afectan los coeficientes A
y B a la región original?

Respuesta: A = 1 + j, B = 2 − j
- Rotación dada por el argumento de A: π/4

- Magnificación dada por el módulo de A: 2
- Traslación según B: 2 unidades a la derecha y 1 para abajo.
Transformación inversa
2. Transformar x2 + y 2 − 4x + 2y = 0 mediante la transformación inversa.
Respuesta: v = −2u + 21 .
3. Hallar analı́tica y gráficamente mediante la transformación inversa, la ima-
gen de la región sombreada:

Respuesta: 

 u≤0



u2 + (v + 1)2 ≤ 1




u + (v + 12 )2 ≥ 21
 2

Punto del infinito


4z 4
4. Transformar el punto z = ∞ mediante la transformación w = (1−z)2 .

Respuesta: w = 4.

Transformación bilineal
5. Encontrar la transformación que mapea: z1 = 1, z2 = 0, z3 = −1 en los
puntos w1 = j, w2 = 1, w3 = ∞. (Sugerencia: utilice la definición del punto
del infinito)
1+z(2j−1)
Respuesta: w = z+1
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 14

6. Mediante w = z−j
z+j , transformar x > 0, y > 0.

 v<0
Respuesta:
 2
u + v2 < 1
7. Hallar la transformación bilineal del cı́rculo |z| < 5 en el cı́rculo |w| < 1,
de tal modo que los puntos z1 = −5, z2 = 4 + 3j y z3 = 5 se transformen
en los puntos w1 = −1, w2 = j y w3 = 1, respectivamente.
2z−5
Respuesta: w = 10−z

Para ver ejemplos y explicaciones:


Transformación conforme: https://youtu.be/AZv- a87fJE

1.3. Integración en el plano complejo


Una integral de lı́nea o curvilı́nea es aquella integral cuya función es evaluada
sobre una curva, por ejemplo, la curva C que va de del punto A al punto B. La
curva C se llama trayectoria de integración.

Figura 1.2: Trayectoria de integración entre A y B.

Esta integral es una generalización de la definición de la integral definida real.


Sin embargo, su interpretación no es tan sencilla como la de la integral definida
del cálculo elemental (área bajo la curva descripta por el integrando).
Ejemplos prácticos de su utilización pueden ser:
- el cálculo de la longitud de una curva en el espacio;
- el cálculo del volumen de un objeto descrito por una curva, objeto del que
se posee una función (campo escalar) que describe su volumen a lo largo de la
curva;
- el cálculo del trabajo que se realiza para mover algún objeto a lo largo de
una trayectoria teniendo en cuenta campos de fuerzas (descritos por campos
vectoriales) que actúen sobre el mismo.

Teorema de Green

Este teorema se enuncia para integrales reales en el plano, pero es de utilidad


para demostrar uno de los teoremas más importantes para resolver integrales
en el plano complejo.
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 15

El teorema de Green da la relación entre una integral de lı́nea alrededor de una


curva cerrada simple C y una integral doble sobre la región plana R limitada
por C, como se muestra en el gráfico.

Figura 1.3

Sean 2 funciones P (x, y) y Q(x, y) y sus primeras derivadas parciales funcio-


nes continuas en toda una región cerrada R, constituida por todos los puntos
interiores a un contorno cerrado C junto con el contorno mismo. Entonces:
Z ZZ
∂Q(x, y) ∂P (x, y)
P (x, y)dx + Q(x, y)dy = ( − )dxdy,
C R ∂x ∂y

con C que se recorre en sentido antihorario (positivo).


En el caso de una curva cerrada en dos dimensiones, la integral curvilı́nea se
llama también integral de contorno.

Integrales de lı́nea complejas

Consideremos una función f (z) = u(x, y)+jv(x, y), analı́tica en todos los puntos
interiores y sobre un contorno cerrado C, y es tal que es continua allı́. Se quiere
evaluar la integral curvilı́nea: Z
f (z)dz.
C

Es fácil ver que las integrales de lı́nea complejas pueden expresarse en términos
de integrales de lı́nea reales, en función de sus componentes. Si se sustituye
f (z) = u(x, y) + jv(x, y) y dz = dx + jdy en la integral y se opera, resulta:
Z Z Z
(u(x, y)+jv(x, y))(dx+jdy) = u(x, y)dx−v(x, y)dy+j v(x, y)dx+u(x, y)dy.
C C C

Y de esta manera tenemos a la integral de lı́nea compleja expresada en términos


de integrales curivilı́neas reales.
Con la integral expresada de esta manera y haciendo uso del Teorema de Green,
estamos en condiciones de probar el siguiente teorema.
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 16

Teorema de Cauchy-Goursat
Sea f (z) una función analı́tica en un dominio simplemente conexo D. Entonces,
dado un contorno cerrado simple C contenido en D, tenemos:
Z
f (z)dz = 0.
C

Demostración:
Recordemos que podemos escribir a la integral compleja como:
Z Z Z
f (z)dz = u(x, y)dx − v(x, y)dy + j v(x, y)dx + u(x, y)dy.
C C C

Además, por ser f (z) analı́tica, u, v y sus derivadas parciales son continuas en
D. Por lo tanto, es posible aplicar el Teorema de Green y la ecuación anterior
queda:
Z ZZ ZZ
∂u(x, y) ∂v(x, y) ∂u(x, y) ∂v(x, y)
f (z)dz = − ( + )dxdy+j ( − )dxdy.
C R ∂y ∂x R ∂x ∂y

Luego, como f (z) es analı́tica, cumple las condiciones de Cauchy-Riemann:


(ux = vy ; uy = −vx ), lo que anula al segundo miembro de la ecuación ante-
rior. Con esto queda de mostrado que
Z
f (z)dz = 0.
C

Esta demostración, basada en el teorema de Green, exige que f 0 (z) sea continua
en R, ya que de lo contrario no podrı́amos aplicar dicho teorema.
Cauchy obtuvo en 1814 por primera vez este resultado valiéndose de una fórmula
equivalente, ya que Green no habı́a aún explicitado su teorema.
Otra demostración, menos restrictiva, fue formulada a fines del siglo XIX por
Goursat, que no requiere que f 0 (z) sea continua. Estas deducciones se conocen
como Teorema de Cauchy-Goursat, o a veces únicamente como teorema de la
integral de Cauchy.

Consecuencias del teorema de Cauchy-Goursat

Consecuencia 1
Supongamos que f (z) es analı́tica en una región comprendida entre dos curvas
C y C1, es decir, en un dominio doblemente conexo como el que se muestra
sombreado en la figura.
En ese caso puede probarse que:
Z Z
f (z)dz = f (z)dz
C C1
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 17

Figura 1.4: Dominio doblemente conexo.

Demostración:
El dominio doblemente conexo puede transformarse en uno simplemente conexo
con un corte que una los puntos A y B, y entonces se puede aplicar el teorema
de Cauchy-Goursat:
Z Z A Z Z B
f (z)dz + f (z)dz + f (z)dz + f (z)dz = 0
C B −C1 A

Obsérvese que el contorno del dominio simplemente conexo está dado por la
¯ la
curva C recorrida en sentido positivo a partir del punto B, el segmento BA,
¯
curva C1 recorrida en sentido negativo y el segmento AB.
RA RB R R
Como B f (z)dz = − A f (z)dz y −C1 f (z)dz = − C1 f (z)dz, podemos escri-
bir Z Z B Z Z B
f (z)dz − f (z)dz − f (z)dz + f (z)dz = 0,
C A C1 A

de donde sale lo querı́amos demostrar:


Z Z
f (z)dz = f (z)dz.
C C1

Esta concecuenia puede extenderse a dominios múltiplemente conexos limitados


por curvas C, C1 , C2 , ...Cn , como el que se muestra en la zona sombreada de la
figura:

Figura 1.5: Dominio múltiplemente conexo.


CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 18

En ese caso
Z Z Z Z
f (z)dz = f (z)dz + f (z)dz + ... + f (z)dz
C C1 C2 Cn

todas recorridas en sentido positivo (antihorario).

Consecuencia 2
La segunda consecuencia del teorema de Cauchy-Goursat establece el principio
de independencia de la trayectoria.

Supongamos una función f (z) analı́tica en un domino simplemente conexo D. Si


tomamos dos puntos A y B cualesquiera contenidos en D, y dos caminos abiertos
C1 y C2 , también contenidos en dicho dominio y que unen dichos puntos, se
puede deducir que:
Z Z
f (z)dz = f (z)dz.
AB≡C1 AB≡C2

Luego, la integral no depende del camino entre A y B.


Demostración:
Si partimos de A por C2 hasta B, y volvemos a A por C1 , nos queda determinado
un contorno cerrado C ∗ = C2 + (−C1 ), donde la función f (z) es analı́tica, al
igual que en la región encerrada por el mismo. Entonces, puede aplicarse el
teorema de Cauchy-Goursat:
Z Z Z
f (z)dz = f (z)dz + f (z)dz = 0.
C∗ AB≡C2 BA≡−C1

R R
Luego, como BA≡−C1
f (z)dz = − AB≡C1 f (z)dz, tenemos que
Z Z
f (z)dz = f (z)dz.
AB≡C2 AB≡C1

Puede verse que el resultado de la integral no depende del camino de integración


cuando f (z) es analı́tica en el dominio definido arriba. En ese caso, la integral
puede tratarse como en el caso de las integrales definidas reales.
Integral definida
Una integral definida puede calcularse por el incremento que sufre la variable
en la integral indefinida, como en el caso de integrales reales:
Z β
f (z)dz = F (β) − F (α),
α
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 19

donde los caminos de integración están contenidos en un dominio simplemente


conexo, en el que f(z) es analı́tica.

Residuos
Definición
Sea f (z) una función analı́tica en un contorno cerrado C simplemente conexo y
en todo punto del interior de C, salvo en z0 . Se denomina residuo de la función
f (z) en una singularidad aislada z = z0 al número definido por:
Z
1
Resz=z0 f (z) = f (z)dz
2πj C

Toda función tiene un residuo en cada uno de sus puntos singulares aislados.
Sin embargo, ese residuo puede ser cero.
- El residuo de una singularidad evitable es siempre cero.
- Cuando las singularidades son polos el cálculo de los residuos puede hacerse
utilizando las fórmulas que se dan abajo, y que demostraremos luego de estudiar
las series de potencias.
Polos simples
Si z0 es un polo simple tenemos dos fórmulas para calcular el residuo de la
función en ese punto.
Primero, recordemos que en este caso la función puede escribirse como f (z) =
φ(z)
z−z0 , con φ(z) analı́tica en z0 y φ(z0 ) 6= 0. Probaremos más adelante que

Resz=z0 f (z) = lı́mz→z0 f (z)(z − z0 ).

P (z)
La segunda fórmula puede usarse cuando f (z) = Q(z) , con P (z) y Q(z) analı́ticas
0
en z0 , P (z0 ) 6= 0, Q(z0 ) = 0 y Q (z0 ) 6= 0. Entonces

P (z0 )
Resz=z0 f (z) =
Q0 (z0 )

Polos múltiples
Si z0 es un polo de multiplicidad m, entonces la función puede escribirse como
φ(z)
f (z) = (z−z 0)
m , con φ(z) analı́tica en z0 . Entonces puede probarse que

φ(m−1) (z0 )
Resz=z0 f (z) =
(m − 1)!

Teorema de los residuos


El teorema de los residuos es consecuencia directa del Teorema de la integral de
Cauchy y forma parte fundamental de la teorı́a matemática de Análisis Com-
plejo. Sea C una curva cerrada en el plano complejo tal que la función f (z) es
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 20

analı́tica en el interior de C y sobre C, excepto en un número finito de puntos


singulares aislados interiores a C, z1 , z2 , ...zm . Entonces:
Z m
X
f (z)dz = 2πj Resz=zi f (z)
c i=1

Demostración:
Encerramos a cada uno de los puntos singulares zi en un cı́rculo Ci con radio
pequeño para que queden separados todos esos m cı́rculos y C. Entonces f (z)
es analı́tica en el dominio multiplemente conexo limitado por C, C1 , C2 , ..., Cm
y sobre la frontera.

Figura 1.6

Observemos, entonces, que podemos aplicar la primera consecuencia del teorema


de Cauchy-Goursat:
Z Z Z Z
f (z)dz = f (z)dz + f (z)dz + ... + f (z)dz.
C C1 C2 Cm

1
R
Además, vimos que Resz=zi f (z) = 2πj Ci
f (z)dz. Por lo tanto,

Z
f (z)dz = 2πjResz=z1 f (z) + 2πjResz=z2 f (z) + ... + 2πjResz=zm f (z),
C

con lo que llegamos a lo que se buscaba demostrar:


Z m
X
f (z)dz = 2πj Resz=zi f (z).
c i=1

El teorema de los residuos junto con los diferentes métodos para el cálculo de
residuos nos permiten calcular integrales en el plano complejo cuando la función
integrando no cumple con las condiciones requeridas por el teorema de Cauchy-
Goursat.
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 21

Fórmula de la integral de Cauchy


Esta fórmula es otra herramienta para tratar las integrales en el plano complejo.
A diferencia del teorema de los residuos, que puede aplicarse cuando la función
integrando tiene cualquier tipo de singularidad, esta fórmula se usa solamente
si las singularidades son polos simples.
Sea φ(z) analı́tica (y unı́voca en un domino simplemente conexo) en todos los
puntos interiores y sobre un contorno cerrado C, si z0 es cualquier punto interior
a C se tiene Z
1 ϕ(z)
ϕ(z0 ) = dz.
2πj C (z − z0 )

Esta fórmula permite relacionar el valor de la función en el punto con ciertos


valores en el contorno que rodea al punto.
Demostración:
Sea C0 una circunferencia con centro en z0 tal que su radio r0 es lo suficiente-
mente pequeño como para que C0 sea interior a C.

Figura 1.7

φ(z)
La función z−z 0
es analı́tica en todos los puntos interiores y sobre C, excepto en
el punto z0 . Por lo tanto, es analı́tica en la región doblemente conexa entre ambos
contornos y, según la primera consecuencia del teorema de Cauchy-Goursat:
Z Z
ϕ(z) ϕ(z)
dz = dz,
C z − z0 C0 z − z0

donde ambas integrales se toman en sentido positivo.


El segundo miembro puede reescribirse sumando y restando ϕ(z0 ) en el nume-
rador del integrando:

ϕ(z) − ϕ(z0 ) + ϕ(z0 )


Z Z
ϕ(z)
dz = dz,
C z − z0 C0 z − z0

para luego separarlo en dos integrales:

ϕ(z) − ϕ(z0 )
Z Z Z
ϕ(z) 1
dz = dz + ϕ(z0 ) dz.
C z − z0 C0 z − z0 C0 z − z0
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 22

Veamos lo que ocurre con la primera de ellas.


Como ϕ(z) es analı́tica dentro de C, entonces es continua en z0 , lo que im-
plica que debe existir un cierto  > 0, tal que para |z − z0 | < δ (δ > 0),
|ϕ(z) − ϕ(z0 )| < .
En particular, considerando |z − z0 | = r0 y tomando el módulo de la integral,
vemos que:

ϕ(z) − ϕ(z0 ) ϕ(z) − ϕ(z0 )


Z Z Z
 
dz ≤ dz < dz = 2πr0 → 0,
C0 z − z0 C0 z − z0 r0 C0 r0

Puesto que  puede ser tan pequeño como se desee, el valor absoluto de la
integral también puede hacerse arbitrariamente pequeño. Reducir  equivale
simplemente a reducir el radio de C0 .
En cuanto a la segunda integral, vamos a escribir los números en coordenadas
polares, con lo que la integral queda en la variable θ.

z = z0 + r0 ejθ ; dz = jr0 ejθ dθ


Z 2π Z 2π
jr0 ejθ
Z
1
ϕ(z0 ) dz = ϕ(z0 ) dθ = jϕ(z0 ) dθ = 2πjϕ(z0 )
C0 z − z0 0 z0 + r0 ejθ − z0 0

De esta forma, hemos demostrado lo que buscábamos:

ϕ(z) − ϕ(z0 )
Z Z Z
ϕ(z) 1
dz = dz + ϕ(z0 ) dz
C z − z0 C0 z − z0 C0 z − z0
Z
ϕ(z)
dz = 0 + 2πjϕ(z0 )
C z − z0
Z
1 ϕ(z)
ϕ(z0 ) = dz.
2πj C (z − z0 )

Fórmula de la derivada de la integral de Cauchy


Ası́ como la fórmula anterior es útil cuando la singularidad en el integrando de
la función es un polo simple, hay una fórmula que sirve cuando el integrando
tiene singularidades del tipo polo múltiple.
Si la función ϕ(z) es analı́tica en un recinto D y en su frontera C, entonces para
cualquier número natural n y para cierto z0 incluido en D se verifica la fórmula:
Z
n! ϕ(z)
ϕ(n) (z0 ) = dz.
2πj C (z − z0 )n+1

Esta fórmula se puede demostrar partiendo de la fórmula de la integral de


Cauchy y derivando sucesivamente respecto de z0 . Ası́, por inducción se llega a
lo que se deseaba.
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 23

Ejercicios
ez dz = 0 para toda trayectoria cerrada en el plano complejo.
R
1. Probar que C
z 2 −2z+3
2. Determinar el residuo de f (z) = z−2 en sus singularidades.
Respuesta: Resz=2 f (z) = 3.

Resolver las siguientes integrales aplicando el teorema de los residuos.


3z 3 +2
R
3. C:|z|=2 (z−1)(z 2 +9) dz Respuesta: πj
1 π
R
4. C:|z|=2 z3 (z+4) dz Respuesta: 32 j
1
R
5. C:|z|=4 sh(z) dz Respuesta: −2πj

Resolver las siguientes integrales usando la fórmula de la integral de Cauchy.


R 2 +1
6. C zz2 −1 dz; C : |z − a| = 1, con
a=1 Respuesta: 2πj
a = 1/2 Respuesta: 2πj
a = −1 Respuesta: −2πj
a=j Respuesta: 0
7. Dado el camino C mostrado en la siguiente figura:

R cos(z)
Calcule C z−1 dz; Respuesta: cos(1)
R cos(z)
Calcule C z+1 dz; Respuesta: 0
8. Reconsidere la función del ejercicio 6 y calcule la integral a lo largo del
cı́rculo de radio 2 con centro en 0. Discuta el resultado en relación al
obtenido en el ejercicio 6 cuando a = j.
Respuesta: 0.
9. Considere ahora la misma curva que en el ejercicio 8 para integrar dos
nuevas funciones:
z
R
C z 2 −1
dz; Respuesta: 2πj
R 3z2 +1
C z(z−1)
dz; Respuesta: 6πj
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 24

2z+1
R
10. Calcule C:|z|=4 (z−1)(z+2)(z−3)
dz; Respuesta: 0

Calcular usando la fórmula de la derivada de la integral de Cauchy y/o la


fórmula de la integral de Cauchy, según corresponda.
e2z
Respuesta: 4e2 πj
R
11. C:|z|=4 (z−1) 3 dz;

ch(z)
Respuesta: − πj
R
12. C:|z|=2 (z+1) 3 (z−1) dz; 2e

Para ver ejemplos y explicaciones:


Integración en el plano complejo: https://youtu.be/PbRS7V3G5IE

1.4. Series de potencias


Una serie de potencias es una serie, en general infinita, de la forma:

X
cn (z − a)n = c0 + c1 (z − a) + c2 (z − a)2 + ...
n=0

donde z es la variable; c0 , c1 , c2 ... son los coeficientes; y a es una constante que


recibe el nombre de centro de la serie.
En particular, si a = 0, se obtiene una serie de potencias en z:

X
cn z n .
n=0

Se sabe que las series de potencias convergen para ciertos valores de la variable.
Las series de variables real convergen para un cierto intervalo. En cambio, en las
series de variable compleja lo que tenemos es una región de convergencia (RC)
en el plano complejo.
La región de convergencia queda determinada como un cı́rculo de centro a y
radio R, tal que en |z − a| < R la serie es convergente y en |z − a| > R es
divergente. El cı́rculo se llama cı́rculo de convergencia y su radio recibe el nombre
de radio de convergencia.
El radio se calcula a partir de los coeficientes de la serie, y según la fórmula de
Cauchy-Hadamard:
1
R= ,
L
donde
cn+1
L = lı́m .
n→∞ cn

En los casos extremos tenemos que


-L = 0 ⇒ R = ∞ y la serie converge en todo el plano.
-L = ∞ ⇒ R = 0 y la serie converge en solamente en el centro.
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 25

Serie de Taylor
Sea f (z) analı́tica en todos los puntos interiores a una circunferencia C0 con
centro en z0 y radio R. En cada punto z interior a C0 la función queda
representada por una serie de Taylor, que tiene la forma:

f 00 (z0 ) f n (z0 )
f (z) = f (z0 ) + f 0 (z0 )(z − z0 ) + (z − z0 )2 + ... + (z − z0 )n + ... + Rn
2! n!

Luego, la serie infinita converge a f (z) si Rn → 0 cuando n → ∞. La conver-


gencia está garantizada si f (z) es analı́tica en el interior de C0 .
La RC es siempre una región abierta y el radio R es la distancia desde el
punto z0 hasta el punto singular de f (z) que esté más próximo a z0 , ya que la
función es analı́tica en todos los puntos interiores a C0 .

Serie de Laurent
Si una función f (z) no es analı́tica en z0 , no podemos aplicar el teorema de
Taylor en ese punto. No obstante, muchas veces es posible hallar una repre-
sentación de f (z) en forma de una serie que contiene tanto potencias positivas
como negativas de z − z0 . Es la denominada serie de Laurent.

Figura 1.8: Región de convergencia de la serie de Laurent (zona intermendia).

Sea f (z) una función analı́tica en el anillo r2 < |z − z0 | < r1 centrado en z0 .


Sea C cualquier camino cerrado simple, orientado positivamente, que rodea a
z0 y está contenido en ese dominio anular. Entonces, en cada punto z de esa
región, f (z) está representada por una serie convergente de potencias positivas
y negativas de z − z0 , llamada SERIE DE LAURENT:

X ∞
X
f (z) = an (z − z0 )n + bn (z − z0 )−n ,
n=0 n=1

donde los coeficientes de la serie son:


Z
1 f (z)
an = dz; n = 0, 1, 2, ...
2πj C (z − z0 )n+1
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 26

y Z
1 f (z)
bn = dz; n = 1, 2, ...
2πj C (z − z0 )−n+1

En general, obtendremos los coeficientes de la serie de Laurent por métodos


prácticos y no por las fórmulas anteriores.
- La zona r2 < |z − z0 | < r1 es la denominada zona intermedia y en ella la
serie contiene tanto potencias negativas como positivas.
- En el caso en que f (z) sea analı́tica en todo punto interior a C1 , excepto en z0 ,
el radio r2 puede tomarse arbitrariamente pequeño. Ası́ el desarrollo es válido
en 0 < |z − z0 | < r1 , la denominada zona cercana.
- Si f (z) es analı́tica en todos los puntos interiores a C1 , la integral sobre C es
igual a cero (por teorema de Cauchy-Goursat) y la serie se reduce a una serie
de Taylor (contiene sólo potencias positivas).
P∞
- En particular, en |z − z0 | > r1 la serie es f (z) = n=1 bn (z − z0 )−n .Esta es
la denominada zona lejana y la serie contiene solamente potencias negativas.
Una serie de potencias representa una función analı́tica en todo punto interior a
su región de convergencia. En dicho anillo de convergencia, la serie de Laurent
es única. Sin embargo, f (z) puede tener diferente serie de Laurent en distintos
anillos del mismo centro.
Dado cierto centro para la serie de Laurent, las distintas zonas de convergencia
quedarán determinadas por las singularidades de la función. Es decir, cada singu-
laridad delimita una zona de converencia, que es cerrada. Por eso, dependiendo
de la cantidad de singularidades, es posible tener varias regiones intermedias.

Singularidades aisladas y su relación con la serie de Laurent


Cuando z0 , el centro de la serie, es un punto singular aislado de f (z), existe un
número positivo r1 tal que la función es analı́tica en cada punto z para el cual
0 < |z − 0| < r1 (la zona cercana) y en este dominio la función está representada
por la serie de Laurent:

X ∞
X
f (z) = an (z − z0 )n + bn (z − z0 )−n .
n=0 n=1

La segunda sumatoria de la expresión anterior se la llama parte principal de


f (z) en el entorno de z0 , y su cantidad de términos depende del carácter del
centro de la serie.
Polo de orden m en z = z0
Decimos que una función tiene un polo de orden m en el punto z0 , si la parte
principal de su desarrollo de Laurent alrededor de dicho punto contiene hasta
un número finito m de términos. Su desarrollo de Laurent es:

X b1 b2 bm−1 bm
f (z) = an (z − z0 )n + + + ... + + ,
n=0
(z − z0 ) (z − z0 )2 (z − z0 )m−1 (z − z0 )m
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 27

con bm 6= 0; bm+1 = bm+2 = ... = 0. El resto de los coeficientes de la parte


principal pueden cer cero o no.
Si m = 1 el polo es simple.
Prueba
Recordemos la expresión para calcular estos coeficientes:
Z
1 f (z)
bn = dz; n = 1, 2, ...
2πj C (z − z0 )−n+1

ϕ(z)
Si z0 es un polo de orden m, entonces f (z) = (z−z0 )m , con ϕ(z) analı́tica en z0 .
Reescribiendo:
Z
1 ϕ(z) 1
bn = dz; n = 1, 2, ...,
2πj C (z − z0 )m (z − z0 )−n+1

vemos que cuando n > m los coeficientes se hacen cero porque el integrando es
una función analı́tica en z = z0 y en ese caso se verifica el teorema de Cauchy-
Goursat.

Singularidad esencial en z = z0
Decimos que el punto z0 es un punto singular esencial de la función, si la parte
principal contiene un número infinito de términos.

Singularidad evitable en z = z0
Si la Serie de Laurent carece de parte principal, y la función no es analı́tica en
z0 pero puede hacerse analı́tica utilizando una adecuada definición de la misma,
entonces el punto z0 es un punto singular evitable.

Se habı́a visto que la naturaleza de una singularidad se podı́a determinar ana-


lizando el lı́mite.
En particular, si f (z) tiene un polo en z = z0 , entonces lı́mz→z0 |f (z)| = ∞.
También puede afirmarse que para que un punto z0 sea un polo de orden m de
f (z), es necesario y suficiente que f (z) pueda expresarse de la forma

ϕ(z)
f (z) = ,
(z − z0 )m

con ϕ(z) analı́tica en z0 .


Ahora estamos en condiciones de probar la propiedad anterior, la que resulta
del siguiente teorema.
z0 es un polo de orden m de f (z) si y sólo si existe:

lı́m f (z)(z − z0 )m = k, k 6= 0.
z→z0
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 28

Demostración
Si z0 es un polo de orden m, existe lı́mz→z0 f (z)(z − z0 )m = k, k 6= 0.
La serie de Laurent de f (z) es:

X b1 b2 bm−1 bm
f (z) = an (z−z0 )n + + +...+ + .
n=0
(z − z0 ) (z − z0 )2 (z − z0 )m−1 (z − z0 )m

Puede verse claramente que en este caso

lı́m f (z)(z − z0 )m = bm , bm 6= 0.
z→z0

Partamos ahora de que

lı́m f (z)(z − z0 )m = k, k 6= 0,
z→z0

de donde se deduce de inmediato que

lı́m |f (z)| = ∞.
z→z0

Residuos y su relación con la serie de Laurent


Recordemos la definición de residuo y comparémosla con la fórmula para el
cálculo de los coeficientes de la parte principal de la serie de Laurent.
Sea f (z) una función analı́tica en un contorno cerrado C, simplemente conexo, y
en todo punto del interior de C salvo z0 . Entonces el residuo de f (z) en z = z0 ,
está definido por la integral:
Z
1
Resz=z0 f (z) = f (z)dz.
2πj C

También vimos que Z


1 f (z)
bn = dz.
2πj C (z − z0 )−n+1

Comparando ambas expresiones, vemos que el residuo es igual al coeficiente de


la primera potencia negativa de la serie de Laurent (n = 1):

Resz=z0 f (z) = b1 .

Dicho desarrollo es el que corresponde a la zona cercana. La serie de Laurent


alrededor del punto representa la función en todo entorno del punto, excepto en
el propio punto.

Fórmula para el cálculo de residuos


Ya vimos que cuando se trata de singularidades de tipo polo es posible determi-
nar el valor del residuo de la función a partir de diferentes fórmulas. Recordemos
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 29

que el residuo en las singularidades evitables es cero, y para las singularidades


esenciales se obtiene el residuo a partir de la serie de Laurent.
Veamos un breve resumen y las deducciones para llegar las fórmulas del cálculo
del residuo en los polos.
Polos simples
Resz=z0 f (z) = limz→z0 f (z)(z − z0 ).
Demostración: como z0 es un polo simple su serie de Lauent en la zona
cercana (0 < |z − z0 | < r1 ) es

X b1
f (z) = an (z − z0 )n + , b1 6= 0
n=0
z − z0

Multiplicando a f (z) por z − z0 tenemos:



X
f (z)(z − z0 ) = an (z − z0 )n+1 + b1 ,
n=0

Luego, tomando el lı́mite cuando z → z0

limz→z0 f (z)(z − z0 ) = b1 = Resz=z0 f (z),

como se querı́a mostrar.


P (z)
Si f (z) = Q(z) , con P y Q analı́ticas en z0 , P (z0 ) 6= 0, Q(z0 ) = 0 y
Q0 (z0 ) 6= 0, entonces:

P (z0 )
Resz=z0 f (z) = .
Q0 (z0 )

Demostración: Si Q(z) es analı́tica en z = z0 se puede desarrollar en serie


de Taylor. Entonces, usando la fórmula anterior:

P (z)
Resz=z0 f (z) = limz→z0 f (z)(z − z0 ) = limz→z0 (z − z0 )
Q(z)

y escribiendo a Q(z) según su serie de Taylor:

P (z) P (z)(z − z0 )
limz→z0 (z−z0 ) = limz→z0 00 .
Q(z) Q(z0 ) + Q0 (z0 )(z − z0 ) + Q 2!(z0 ) (z − z0 )2 + ...

Como Q(z0 ) = 0 y Q0 (z0 ) 6= 0, la expresión anterior se reduce a:

P (z) P (z0 )
Resz=z0 f (z) = limz→z0 Q00 (z0 )
= ,
Q0 (z0 ) + (z − z0 ) + ... Q0 (z0 )
2!

como se deseaba demostrar.


CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 30

Polos de orden superior


Sea f (z) una función que tiene un polo de orden m, entonces bm 6= 0 y el
desarrollo de la serie de Laurent es de la forma:

bm bm−1 b1 X
f (z) = m
+ m−1
+ ... + + an (z − z0 )n .
(z − z0 ) (z − z0 ) z − z0 n=0

Si se multiplica a ambos miembros por (z − z0 )m se construye una función


auxiliar analı́tica en z0 que denominamos ϕ(z):

X
m−1
ϕ(z) = bm + bm−1 (z − z0 ) + ... + b1 (z − z0 ) + an (z − z0 )n+m .
n=0

Además, como ϕ(z) es analı́tica puede expresarse por su serie de Taylor:

ϕ(m−1) (z0 ) ϕ(m) (z0 )


ϕ(z) = ϕ(z0 )+ϕ0 (z0 )(z−z0 )+...+ (z−z0 )m−1 + (z−z0 )m +...
(m − 1)! m!

Luego, comparando los coeficientes de ambas expresiones de ϕ(z) se llega a la


fórmula para calcular el residuo de un polo de orden m:

ϕ(m−1) (z0 )
Resz=z0 f (z) = b1 = .
(m − 1)!

Ejercicios
Determinar los radios y las regiones de convergencia de las siguientes series:
P∞ zn
1. n=1 n Respuesta: R = 1; |z| < 1
P∞ n(z−1)n
2. n=1 2n Respuesta: R = 2; |z − 1| < 2

Serie de Taylor
1
3. Determinar el radio de convergencia de la serie de Taylor para f (z) = z−1 ,
siendo z0 = j el centro de la serie.

Respuesta: R = 2
2
4. Hallar la serie de Taylor de f (z) = z−3 en potencias de z − 1. (Ver desa-
rrollo en el video)
Serie de Laurent (Ver desarrollos en el video)
2
5. Hallar la serie de Laurent de f (z) = z−3 en potencias de z − 1 en la zona
lejana
1
6. Hallar todas las series de Laurent de f (z) = − (z−1)(z−2) con centro en
z0 = 0
1
7. Encontrar todas las series de Laurent de f (z) = 1−z 2 con centro en z0 = 1
Residuos. Determinar el residuo de cada una de las siguientes funciones
en sus respectivas singularidades.
CAPÍTULO 1. TEMAS DE VARIABLE COMPLEJA 31

z−2
8. f (z) = z 2 −4 Respuesta: Resz=2 f (z) = 0; Resz=−2 f (z) = 1
2
9. f (z) = e1/z Respuesta: Resz=0 f (z) = 0
e−z
10. f (z) = (z−1)2 Respuesta: Resz=1 f (z) = −e−1
1
11. f (z) = z 4 +1

Respuesta:

e−j3π/4 e−jπ/4
Resz=ejπ/4 f (z) = ; Resz=ej3π/4 f (z) =
4 4
ejπ/4 ej3π/4
Resz=ej5π/4 f (z) = ; Resz=ej7π/4 f (z) =
4 4
4−3z
12. f (z) = z 2 −z Respuesta: Resz=0 f (z) = −4; Resz=1 f (z) = 1
13. f (z) = z 3 sen z12 Respuesta: Resz=0 f (z) = 0

Para ver ejemplos y explicaciones:


Series de potencias: https://youtu.be/d6Z6ZtXHpXU
Capı́tulo 2

Análisis en el dominio
natural

2.1. Señales
Una señal es la abstracción de una cantidad medible y puede ser representada
por una función de una o más variables independientes. Puede también inter-
pretarse a una señal como una perturbación que experimenta un medio (cambio
en su estado). Lo relevante de una señal es que ese cambio puede desplazarse,
es decir, la señal puede propagarse. Según la naturaleza del cambio es posible
distinguir diferentes dominios de propagación.
Llamamos dominio natural de la señal a aquel en el que el fenómeno fı́sico
medido está ocurriendo. Es decir, podemos tener transmisión de una señal que
dependa del tiempo, del espacio (en cualquier dimensión) o señales que varı́en
tanto en el tiempo como en el espacio.
Una señal tiene como una de sus propiedades relevantes la capacidad de co-
municar y/o transmitir información. La información a que nos referimos
podrı́a ser también la respuesta de un sistema a una solicitación. Esa informa-
ción toma la forma de perturbación y las perturbaciones pueden ser de diferente
ı́ndole. Por ejemplo, las señales de radio son perturbaciones electromagnéticas
que se propagan en el espacio. En este caso se trata de un estado de tensión
eléctrica del medio que se propaga. Las señales acústicas son perturbaciones
de presión que se propagan en un medio material. Las señales telegráficas son
perturbaciones eléctricas que se propagan a través de un conductor etc.
Para fı́sicos e ingenieros las señales tienen además un propósito no menos im-
portante que el anterior. En muchas oportunidades aplicamos señales para es-
tudiar un fenómeno de la naturaleza. En este caso lo relevante es que la señal
es modificada por el fenómeno que se estudia y aquı́ el énfasis no se hace en
evitar que la señal se distorsione sino en que la distorsión de ésta sea originada
por el fenómeno relevante que nos interesa estudiar. Entonces, resulta de gran
importancia tener información acerca del mecanismo de distorsión de la señal
generada.

32
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 33

Se podrı́a afirmar que el mundo moderno está repleto de señales. La mayor parte
de ellas no es posible percibirlas con los receptores de que está dotado el hombre
en forma natural y muchas, aún captadas con ayudas creadas por la inventiva
del ser humano, necesitan ser analizadas para obtener de ellas información útil.
De eso trata el análisis de señales. Esta disciplina es un conjunto de ideas
y recursos que permiten la interpretación de las señales naturales o artificiales
que inundan nuestro universo. Los recursos son de dos tipos, unos que modifican
las señales para su interpretación y otros que las toman y las ponen de forma
que resulten evidentes sus principales caracterı́sticas. En este curso daremos
una introducción a la primera parte de estas técnicas, es decir, aprenderemos a
analizar señales para obtener de ellas la información que nos interesa.
Desde tiempos muy antiguos los seres humanos han empleado señales de dife-
rentes tipos para comunicar acontecimientos importantes o dar voces de alarma.
Como ejemplos podemos citar:
- Haces luminosos que empleaban los griegos y romanos para fines militares.
- Señales de humo tradicionalmente empleadas por indios para enviar mensajes.
- Señales acústicas de tambores para comunicarse en sitios de difı́cil acceso
- Señales producidas por faros para guı́a de barcos y comunicación de noticias.
A fines del siglo dieciséis, Inglaterra empleó un sistema de faros para alertar
sobre la proximidad de la armada española. En esa época se acuñó el término
de “señal” para denotar un signo o noticia perceptible por el oı́do o la vista,
destinada a advertir, transmitir una información o comunicar alguna noticia. El
sistema de semáforos (del griego: “sema” = seña; “phoro” = portador) estaba
en Inglaterra tan perfeccionado en el año 1806, que era posible transmitir una
señal desde Plymouth a Londres obteniendo una confirmación en tan solo tres
minutos. En el año 1852, Morse inventó un código, el que junto a la invención del
telégrafo produjo un gran avance en las comunicaciones, tanto desde el punto
de vista de su rapidez como el de su confiabilidad.
Las señales de radar comienzan a ser aplicadas durante la segunda guerra mun-
dial para detectar aviones y alertar sobre la posibilidad de bombardeo. El sonar,
inventado por Langevin (1917), permitió aplicar señales acústicas a los sistemas
de detección de submarinos. Estas señales atraviesan una porción del espacio
cuyas condiciones cambian de forma azarosa, perturbándolas e impidiendo, a
veces, que estas cumplan con los objetivos para los que fueron generadas. Esta
circunstancia hizo que se desarrollara la teorı́a de señales desde el punto de vista
de su generación, mejorando la electrónica asociada para hacer las señales más
robustas. Desde el punto de vista de la detección, se desarrolló la herramien-
ta estadı́stica para buscar las caracterı́sticas relevantes de la información que
llegaba alterada a los sistemas de detección.
En el área de las comunicaciones, entonces, la misión de la teorı́a de señales
cumple múltiples propósitos: debe mejorar su generación para hacerlas inmunes
a las perturbaciones del medio, facilitar su recuperación e incluso hacer que la
transmisión de éstas sea más económica.
Una señal puede ser también un proyectil cuya trayectoria se altera por la pre-
sencia de un obstáculo, o una modificación en la amplitud y en el contenido
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 34

de frecuencia de una onda que se hace incidir sobre una zona afectada por un
fenómeno determinado, como una turbulencia, por ejemplo. Estas son las ideas
que subyaceb bajo el funcionamiento del radar, del sonar o de la ecografı́a ul-
trasónica.
Para fines de investigación las señales las generamos mediante dispositivos que
transforman el fenómeno de interés en tensiones eléctricas y viceversa. Un siste-
ma que transforma señales de un tipo en otras se llama transductor. Hay tantos
transductores como las interacciones que gobiernan su capacidad de transfor-
mación, ası́ tenemos transductores eléctrodinámicos (un buen ejemplo de estos
son los parlantes de las radios), magnéticos, electromagnéticos, piezoeléctricos,
termoeléctricos, etc.
Las señales, desde el punto de vista temporal se pueden dividir en continuas
y discretas, y ambas pueden ser periódicas o no periódicas. En este curso nos
ocuparemos de señales continuas.
En la próxima sección describimos las señales periódicas y sus principales carac-
terı́sticas, la mayorı́a de las cuales nos son familiares: perı́odo, amplitud, forma
de onda. También consideraremos señales no periódicas, más ligadas a even-
tos no repetitivos. Estas señales no son tan fáciles de describir. Sin embargo,
basándose en la forma en que éstas se despliegan en el tiempo, es posible dar
algunas de sus más importantes caracterı́sticas.

Señales periódicas y no periódicas


Una señal periódica es aquella que se repite a sı́ misma cada cierto intervalo
de tiempo T (perı́odo). Ası́, puede definirse el perı́odo como el tiempo que tarda
la señal y su derivada en adquirir el mismo valor.
Nuestra capacidad de analizar señales se ve considerablemente fortalecida si
las expresamos como relaciones matemáticas, y ası́ podemos beneficiarnos de
la potencia de esta disciplina para el análisis de sus propiedades. Cuando esto
es posible, se facilita significativamente la obtención de la información que las
señales contienen. Consideremos primero alguna de las propiedades elementales
de las señales periódicas expresadas como funciones matemáticas.
Una señal periódica se puede expresar como una función matemática periódica
de perı́odo T. Recordemos que el perı́odo no necesariamente es temporal, ya que
la señal puede tambier tener una variación espacial.
Dicha función cumple los siguientes teoremas:
1. Si f (x) es periódica con perı́odo T : f (x) = f (x+T ), entonces, mT también
es un perı́odo de la misma función

f (x) = f (x + mT ),
con m = 1, 2, 3...
Demostración:
Sea f (x + mT ) = f (x + T ) = f (x) con m = 1, entonces,
si m=2:
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 35

f (x + 2T ) = f ((x + T ) + T ) = f (x + T ) = f (x),
si m=n:
f (x + nT ) = f (x + (n − 1)T + T ) = f (x + (n − 1)T ) = ... = f (x).
2. Si f (x) es periódica y tiene perı́odo T , entonces f (ax) tiene periodo T /a.
Demostración:
Sea g(x) = f (ax).
Es evidente que g(x) es periódica. Entonces, supongamos que τ es el pe-
riodo de g(x).
Luego, g(x) = g(x + τ ) y f (ax) = f (a(x + τ )).
Como f (ax) = f (ax + aτ ), entonces aτ es el perı́odo de f (ax) y, por lo
tanto aτ = T ⇒ τ = Ta .
3. Si f (x) es periódica de perı́odo T1 y g(x) es periódica de perı́odo T2 ,
entonces si existe un valor T = aT1 = bT2 , con a/b un número racional, una
nueva función definida como la suma de las anteriores, y(x) = f (x) + g(x),
será periódica, de perı́odo T .
Esto es equivalente a decir que la relación entre los perı́odos de las señales
sumando debe ser un número racional.

Una señal no periódica o aperiódica, es aquella para la cual no existe un T


que satisfaga la condición f (x) = f (x + T ), ∀x.
Hay señales no periódicas definidas para intervalos finitos del dominio, y otras
definidas ∀x. Se analizará más adelante que las primeras pueden representarse
en términos de señales periódicas.

Valores medios
En ciertas oportunidades resulta muy útil describir las señales, periódicas o no,
mediante un número limitado de parámetros que reflejan magnitudes más fáciles
de interpretar desde el punto de vista fı́sico. Estos valores están relacionados con
las propiedades que las funciones tienen en promedio.
Valor medio o valor PN promedio. Magnitud que es muy familiar en su
forma discreta: N1 i=1 fxi , donde fxi es el valor de cada muestra (punto
discreto) de la señal, y N el número de muestras. Cuando se trata de una
señal continua esta expresión se transforma en la bien conocida expresión
para el valor medio de una señal continua f (x) definida en a ≤ x ≤ b:
Z b
1
Vm = f (x)dx.
b−a a

Valor cuadrático medio o valor RMS (root mean square). Cuando


se quiere hacer un estudio de las variaciones de una señal en el tiempo,
es posible que su valor medio se anule por causa de las fluctuaciones. En
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 36

este caso es más conveniente emplear el valor cuadrático medio, que es


independiente de los signos de la señal:
s
Z b
1
VRM S = f 2 (x)dx.
b−a a

Valor absoluto promedio. También es independiente del signo y de-


pende solo de la magnitud de una señal. Conceptualmente es idéntico al
anterior y está dado por:
Z b
1
|f (x)|dx.
b−a a

Señales de energı́a y señales de potencia


Una señal puede ser de energı́a o de potencia, nunca de ambas. También hay
señales de potencia infinita, que son las llamadas de orden superior.
Recordemos que si f (t) es una señal definida en el intervalo (t1 , t2 ), su energı́a
se define como: Z t2
E= |f (t)|2 dt.
t1

Si f (t) está definida en (−∞, ∞), entonces:


Z L
E = lı́m |f (t)|2 dt.
L→∞ −L

Una señal tiene energı́a finita si E < ∞. En ese caso, caracterizaremos a f (t)
como una señal de energı́a.

Recordemos que si f (t) es una señal en el intervalo (t1 , t2 ), entonces la potencia


media de f(t) se define como:
Z t2
1
Pm = |f (t)|2 dt.
t2 − t1 t1

Por otro lado, si f (t) es periódica de perı́odo T :


Z t0 +T
1
Pm = |f (t)|2 dt.
T t0

Diremos que la señal f (t), definida en (−∞, ∞), es una señal de potencia si:
Z L
1
0 < lı́m |f (t)|2 dt < ∞.
L→∞ 2L −L
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 37

Puede probarse también que toda señal periódica es siempre una señal de po-
tencia, y que toda señal acotada en tiempo y amplitud de las llamadas “pulso”,
es siempre de energı́a.
Hay señales que no pertenecen a ninguna de las familias anteriores, que son las
de potencia infinita. Para estas señales:
Z L
1
lı́m |f (t)|2 dt = ∞.
L→∞ 2L −L

Señales causales, no causales y anticausales


Las señales causales son señales que tienen valor nulo en los tiempos negativos, y
las señales anticausales tienen valor cero en los tiempos positivos. Las señales no-
causales son señales con valor distinto de cero para tiempos positivos y negativo
Señal causal: vale 0 para t < 0.
Señal anticausal: vale 0 para t > 0.
Señal no causal: puede tomar valores distintos de cero ∀t.

Figura 2.1: Señales causales, anticausales y no causales.

Señales pares e impares


Una señal par es cualquier señal f (t) que satisface f (t) = f (−t). Las
señales pares se pueden detectar fácilmente por que son simétricas en el
eje vertical.
Una señal impar es una señal que satisface la relación f (t) = −f (−t).
Se puede demostrar que cualquier señal puede descomponerse en la suma de
una señal par, fp (t) y una señal impar, fi (t). Es decir,

f (t) = fp (t) + fi (t),

con
1
fp (t) = (f (t) + f (−t)])
2
y
1
fi (t) = (f (t) − f (−t)).
2
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 38

Figura 2.2: Señales pares e impares

Para mostrar esto, veamos un ejemplo considerando la función de la Fig. 2.3,


que no tiene ningún tipo de simetrı́a:

Figura 2.3

Sumando f (t) y f (−t) se obtiene una función par, y restándolas se obtiene una
función impar.
Luego, puede verse que sumando las dos funciones obtenidas se vuelve a tener

(a) Señal par. (b) Señal impar.

Figura 2.4
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 39

la f (t) dada.

Figura 2.5: Descomposisición de una señal en sus componentes par e impar.

Señales seccionalmente continuas


Una función f (t) sobre [a, b] se dice seccionalmente continua en [a, b] si es conti-
nua en todo el intervalo excepto en un número finito de puntos de discontinuidad
de primera especie (o con salto finito).

Figura 2.6: Función seccionalmente continua.

Para tales funciones existen los lı́mites por izquierda y por derecha en el intervalo
[a,b], es decir lı́mt→a+ f (t) = f (a) y lı́mt→b− f (t) = f (b). Además, existen los
lı́mites por derecha y por izquierda en cada punto de discontinuidad con salto
finito.
Q[a, b] es el espacio de funciones seccionalmente continuas en [a, b], y Q0 [a, b]
simboliza el espacio de funciones seccionalmente continuas en [a, b], diferencia-
bles con continuidad por tramos en [a, b].
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 40

Algunas señales usuales


Veremos un conjunto de señales que son de uso frecuente en el análisis de señales
y sistemas.
Rampa unitaria 
 0 si t<0
r(t) =
t si t≥0

Figura 2.7: Rampa unitaria.

Si se quiere una pendiente distinta de 1, sólo es necesario multiplicar por


una constante: 
 0 si t < 0
br(t) =
bt si t ≥ 0

También podemos encontrar la rampa desplazada en a unidades:



 0 si t < a
r(t − a) =
t − a si t ≥ a

Si a > 0 el desplazamiento es hacia la derecha, y si a < 0 es hacia la


izquierda.

Escalón unitario
También llamada función de Heaviside.

 0 si t<0
us (t) =
1 si t≥0

Si se quiere un escalón de alto k, basta multiplicar a la función por esa


constante: 
 0 si t < 0
kus (t) =
k si t ≥ 0

CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 41

Figura 2.8: Escalón unitario.

En la Fig. 2.9 se muestran algunos ejemplos de distintas operaciones rea-


lizadas sobre el escalón unitario, tales como una inversión con respecto al
eje de ordanadas (1), un corrimiento en t (2) o un corrimiento junto con
un escalamiento en amplitud (3).
1. 
 1 si t≤0
us (−t) =
0 si t>0

2. 
 0 si t < −2
us (t + 2) =
1 si t ≥ −2

3. 
 0 si t<2
−0, 7us (t − 2) =
−0,7 si t≥2

Por otro lado, de la definición de la rampa unitaria surge que

dr(t)
=0 t<0
dt
y
dr(t)
=1 t ≥ 0.
dt
Por lo tanto, la derivada de la rampa unitaria es el escalón unitario

dr(t)
= us (t).
dt
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 42

Figura 2.9: Ejemplos.

Pulso rectangular de ancho a



 0 si |t| > a/2
Pa (t) =
1 si |t| ≤ a/2

Figura 2.10: Pulso rectangular centrado de ancho a.

Esta señal puede escribirse como la suma de dos escalones unitarios:

Pa (t) = us (t + a/2) − us (t − a/2).

Como las señales mencionadas antes, el pulso rectangular también puede


ser afectado por el corrimiento en el eje de abscisas o por es escalado en
el eje de ordenadas.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 43

Pero además, esta señal es particularmente útil para ilustrar la propiedad


de compresión o dilatación en el tiempo. Si el argumento de la función es
afectado por una constante k, tal que k < 1, entonces la señal se verá ex-
pandida en el tiempos (más ancha). Esta situación equivale a comprimir el
eje de abscisas. Lo opuesto ocurre cuando k > 1, la señal luce comprimida
en t (más angosta).
Pulso triangular centrado de ancho 2b

 0 si |t| > b
T2b (t) =
1 − | bt | si |t| ≤ b

Figura 2.11: Pulso triangular centrado.

Esta señal también puede escribirse como combinación de rampas, o esca-


lones y rampas:
1 2 1
T2b = r(t + b) − r(t) + r(t − b),
b b b
o
1 1
T2b = r(t + b)us (−t) + r(b − t)us (t).
b b
Rampa finita 
 0 si t<0
x(t) = t si 0 ≤ t ≤ 1
1 si t>1

Ver Fig.2.12.

Función sinc
sen(t)

si t 6= 0
sinc(t) = t
1 si t=0

La función en t = 0 es el
sen(t)
lı́m = 1,
t→0 t
ya que t = 0 es una singularidad evitable de sinc(t).
La sinc(t) cumple con las siguientes propiedades:
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 44

Figura 2.12: Rampa finita.

sen(t) sen(t)
1. lı́mt→∞ t = 0 y lı́mt→−∞ t = 0 pues,
|sen(t)|
lı́mt→∞ | sen(t)
t | = lı́mt→∞ |t| ≤ lı́mt→∞ 1
|t| = 0,
sen(t)
⇒ lı́mt→∞ t =0
De la misma manera se analiza el caso para t → −∞.
2. Los ceros de la sinc(t) ocurren en t = kπ, k ∈ Z − {0}.
sen(t)
sinc(t) = 0 ⇔ = 0 ⇔ sen(t) = 0 ⇔ t = kπ; k ∈ Z.
t
El valor de k = 0 se excluye porque, como se mostró arriba, la sinc(t)
vale 1 en t = 0.
3. La función sinc(t) es par.
sen(−t) −sen(t) sen(t)
sinc(−t) = = = = sinc(t).
−t −t t

4. De la definición surge que sinc(t) es continua en t = 0.

Figura 2.13: sinc(t).


CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 45

Función impulso unitario o función delta de Dirac.


Desde el punto de vista matemático puro la delta de Dirac es una distri-
bución. No es una función de acuerdo a la definición matemática de tal,
pues no toma un valor definido para cada punto de su dominio.
Sin embargo, desde el punto de vista de disciplinas más aplicadas, como
la fı́sica o la ingenierı́a, el impulso puede verse como una función genera-
lizada.
Definición. La función delta de Dirac, puede definirse a partir de un pulso
de alto (amplitud) 1/a y ancho a, centrado en el origen: a1 Pa (t).

Figura 2.14: Pulso rectangular de área 1.

La función impulso se define como:


1
δ(t) = lı́m Pa (t).
a→0 a

El área asociada al pulso es 1, cualquiera sea el valor de a.


Puede pensarse, intuitivamente, que δ(t) tiene un ancho infinitamente pe-
queño y su alto es infinitamente grande, con área unitaria.
La definición dada puede expresarse no solo en base a un pulso rectangular,
sino también con otra función cualquiera. Podrı́a expresarse entonces, con
el mismo concepto que antes, del siguiente modo:

δ(t) = lı́m bf (bt),


b→∞

siempre que Z ∞
f (t)dt = 1.
−∞

Otra forma de definir a la función impulso es mediante las siguientes re-


laciones:
- δ(t) = 0 en t 6= 0, y no está definida en t = 0.

- lı́mε→∞ −ε δ(t)dt = 1.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 46

Figura 2.15: Representación gráfica de la delta de Dirac.

Si la delta viene de una función con una área asociada a 6= 1, entonces se


tendrá una delta de peso a.
Obsérvese que la función impulso se representa gráficamente mediante una
“flecha” en cero con una altura igual al peso de la delta.

Función impulso desplazado


Sea el pulso de alto 1/a, ancho a, centrado en t = t0 :
 1
1  a |t − t0 | ≤ a2
Pa (t − t0 ) =
a
0 |t − t0 | > a2

El área asociada es 1 y se puede definir:


1
δ(t − t0 ) = lı́m Pa (t − t0 ).
a→0 a

Figura 2.16: Delta de Dirac desplazada.

Propiedades de la delta de Dirac


1. Si f (t) es continua en t = 0 entonces: f (t)δ(t) = f (0)δ(t).
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 47

2. Si f (t) es continua en t = −t0 entonces: f (t − t0 )δ(t) = f (−t0 )δ(t).


3. Si f (t) es continua en t = t0 entonces: f (t)δ(t − t0 ) = f (t0 )δ(t − t0 ).
R∞
4. Si f (t) es continua en t = 0 entonces: −∞ f (t)δ(t)dt = f (0).
R∞
5. Si f (t) es continua en t = −t0 entonces: −∞ f (t − t0 )δ(t)dt = f (−t0 ).
R∞
6. Si f (t) es continua en t = t0 entonces: −∞ f (t)δ(t − t0 )dt = f (t0 ).
dus (t)
7. dt = δ(t).
Prueba. Apartir de la rampa finita de pendiente 1/a:


 0 si t<0



1
f (t) = at si 0 ≤ t ≤ a ,




1 si t>a

y considerando que
lı́m f (t) = us (t).
a→0

Entonces,
dus (t) d lı́ma→0 f (t)
= .
dt dt
Finalmente, dado que puede intercambiarse el lı́mite con la derivada, y
que
df (t) 1
= Pa (t − a/2)
dt a
podemos escribir

df (t) 1
lı́m = lı́m Pa (t − a/2) = δ(t).
a→0 dt a→0 a

Rt
8. De la propiedad anterior surge que −∞ δ(t)dt = us (t).
Rt
9. t12 f (t)δ (k) (t − t0 )dt = (−1)k f (k) (t0 ), con t1 < t0 < t2 .
10. δ(t) = δ(−t).
11. Toda señal x(t) se puede expresar como un continuo de impulsos ponde-
rados.
Demostración. Según la propiedad 3, x(t)δ(t − t0 ) = x(t0 )δ(t − t0 ), que
si hacemos t0 = τ queda x(t)δ(t − τ ) = x(τ )δ(t − τ ). Integrando ambos
miembros: Z ∞ Z ∞
x(t)δ(t − τ )dτ = x(τ )δ(t − τ )dτ
−∞ −∞
Z ∞ Z ∞
x(t) δ(t − τ )dτ = x(τ )δ(t − τ )dτ,
−∞ −∞
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 48

R∞
y considerando que −∞
δ(t − τ )dτ = 1, queda:
Z ∞
x(t) = x(τ )δ(t − τ )dτ.
−∞

Luego, como se dijo, la señal x(t) quedó expresada como una suma conti-
nua de impulsos ponderados.

Ejercicios
1. Calcular la energı́a de la señal

 0 si t<0
f (t) =
 −bt
ae si t≥0
a2
Respuesta: E = 2b si b ∈ R+ .
2. Probar que la señal f (t) = e−at con t ∈ (−∞, ∞) no es una señal de
energı́a ni de potencia.
3. Escriba como combinación de escalones y grafique P4 (t), P4 (2t), P4 (2 − t)
y P4 (t/2).
4. Verificar analı́ticamente y gráficamente que la rampa finita se puede ex-
presar como
x(t) = r(t) − r(t − 1).

5. Graficar la forma de onda que resulta de considerar


x(t) = −r(t + 1) + 2r(t) − r(t − 2) − us (t − 3).

6. Encontrar los ceros de la función sinc(3t).


7. Verificar las siguientes identidades:
et cos (t)δ(t) = δ(t); et sen(t)δ(t) = 0.

Z b  g(t0 ) si a < t0 < b
g(t)δ(t − t0 )dt =
a 
0 si a > t0 ∨ b < t0
con g(t) continua en t0 y a < b.
R t2
t1
δ(λ − t)δ(λ − t0 )dλ = δ(t − t0 ) con t1 < t0 < t2 .
Rt
−∞
δ(τ − t0 )dτ = us (t − t0 ).
R∞ R∞
−∞
1
δ(at − t0 )dt = |a| −∞
δ(t − ta0 )dt.
R ∞ −2t
0
e δ(λ − t)δ(λ − 2)dλ = e−4 δ(t − 2).

Para ver ejemplos y explicaciones:


Señales: https://youtu.be/UyrwSlgb9Ts
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 49

2.2. Sistemas dinámicos


En general, llamamos sistema a la abstracción de “algo” (un proceso, un me-
canismo, un circuito, etc.) que toma una señal de entrada, opera sobre ella, y
produce una señal de salida. En otras palabras, un sistema establece una relación
entre su entrada y su salida.
Un ejemplo de un sistema es un auto, en donde la entrada puede ser la posición
del acelerador y la salida la velocidad del auto. Otro ejemplo puede ser una
cámara de fotos en donde la señal de entrada es la luz que entra a la lente, y la
salida es la fotografı́a. Los sistemas no necesariamente están restringidos a siste-
mas fı́sicos. Pueden ser biológicos, económicos, computacionales, informáticos,
sociales, etc.
Los sistemas están afectados por estı́mulos y, en base a esos estı́mulos y a sus
propias caracterı́sticas y estado, el sistema genera una salida o respuesta. Los
estı́mulos o señales externas que pueden ser manipuladas son usualmente lla-
madas entradas y son las que conducen o dirigen al sistema. En tanto que las
perturbaciones son señales (que pueden ser externas o internas) que afectan el
comportamiento del sistema de manera no deseada.

Figura 2.17: Representación esquemática de un sistema.

Un sistema se representará esquemáticamente como una caja negra sobre la que


actúan señales de entrada x1 (t), x2 (t), ...xn (t), que generan salidas y1 (t), y2 (t), ...ym (t).
Estos sistemas suelen denominarse MIMO (Multiple Input Multiple Output).

Figura 2.18: Representación esquemática de un sistema MIMO.

Las entradas xi (t), i = 1, 2, ...n y las salidas yj (t), j = 1, 2, ...m serán en general
señales de tiempo. Es decir, cualquier variable fı́sica que varı́e con el tiempo.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 50

En este curso se analizarán sistemas de una entrada y una salida (SISO: Single
Input Single Output), sin perturbaciones externas.

Figura 2.19: Representación esquemática de un sistema SISO.

Clasificación de sistemas
De acuerdo a determinadas caracterı́sticas, existen diferentes clasificaciones para
los sistemas.
Con memoria (dinámico) y sin memoria (estático).
Un sistema en el cual la salida en el instante t depende exclusivamente
de la entrada en ese instante es llamado sistema estático o sin memoria.
En contraposición, un sistema dinámico es uno en el cual la salida en el
instante t depende también de valores pasados y/o futuros de la entrada,
además del valor en t. Se lo llama también sistema con memoria.
Ejemplo. El sistema formado por un capacitor C con la entrada definida
como la corriente i(t) que circula por el mismo tiene memoria de duración
infinita, ya que la salida
1 t
Z
v(t) = i(t)dt
C −∞
indica que la salida depende de la entrada en todo el intervalo (−∞, t).
Causales y no causales.
Un sistema es causal si su respuesta a una entrada no depende de valores
futuros de esa entrada y/o valores futuros de salidas. Un sistema que no
verifica esta propiedad es llamado no causal. En particular, un sistema se
dice anticausal si su respuesta a una entrada depende exclusivamente de
valores futuros de esa entrada y/o valores futuros de salidas
De tiempo continuo y de tiempo discreto.
Un sistema es un sistema de tiempo continuo si opera sobre señales defini-
das en un intervalo continuo de tiempo y produce como respuesta señales
también continuas en el tiempo. Por otra parte, si el sistema procesa
señales que están definidas únicamente en instantes particulares de tiempo
(generalmente equiespaciados), es llamado de tiempo discreto. Para indi-
car el valor de estas señales en los instantes de tiempo tk se usa la notación
xk o x(k).
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 51

Lineal y no lineal.
Un sistema es lineal si verifica el principio de superposición, tanto para
entradas como para condiciones iniciales. Este principio se definirá más
adelante. Un sistema que no verifica el principio de superposición es no
lineal.
Invariante y variante.
Un sistema es invariante (estacionario) si su salida es siempre la misma
cada vez que se aplica la misma entrada para las mismas condiciones
iniciales, sin importar el instante en que se aplique la entrada.
Los sistemas invariantes en el tiempo se modelan mediante ecuaciones
diferenciales con coeficientes constantes.
Una caracterización sencilla de los sistemas invariantes en el tiempo se
tiene desplazando en el tiempo a la señal de entrada. El sistema es inva-
riante si x(t) → y(t) y x(t − T ) → y(t − T ). Es decir, que la misma entrada
desplazada genera la misma salida desplazada.

Análisis de sistemas
Una de las clasificaciones de sistemas los separa en lineales y no lineales. Y
aunque un sistema fı́sico nunca es completamente lineal, en ciertas áreas de
aplicación un modelo lineal se puede usar para representar apropiadamente al
sistema. El análisis de sistemas lineales es importante pues existe una gran
cantidad de teorı́as matemáticas que permiten analizarlos.
Por el contrario, los sistemas no lineales requieren análisis particulares, es decir,
cada sistema no lineal debe estudiarse como un caso único. No hay métodos
generales ni soluciones generales.
Como ingenieros, no sólo interesa el análisis, sino también la sı́ntesis o diseño de
sistemas, que constituye la parte creativa de la ingenierı́a. De aquı́ que, como en
otras actividades creativas, para abordar el diseño de sistemas primero se debe
aprender a analizarlo.
El análisis de sistemas puede dividirse en tres fases:
El desarrollo de un modelo matemático apropiado para el problema fı́sico
que se trate. En esta parte se deben obtener las ecuaciones de movimien-
to, condiciones de frontera o iniciales, valores de parámetros, etc. Es la
denominada etapa de modelado.
Después de obtener un modelo apropiado, se resuelven las ecuaciones re-
sultantes para encontrar la solución. Para ello, pueden aplicarse diversos
métodos.
Luego, la solución del modelo matemático se relaciona o interpreta en fun-
ción del problema fı́sico. Es evidente que lo descripto en el primer recuadro
debe ser tan exacto que permita hacer predicciones significativas concer-
nientes al sistema fı́sico. Esta última fase es la denominada validación
del modelo.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 52

Principio de superposición
Un sistema es lineal si satisface el principio de superposición, que engloba las
propiedades de homogeneidad (escalado) y aditividad.
Homogeneidad
Si para la entrada x(t) se obtiene la salida y(t), y para la entrada αx(t)
se obtiene αy(t), cualquiera sea la constante α, entonces decimos que se
cumple la propiedad de homogeneidad. Es decir:

x(t) → y(t)

αx(t) → αy(t)

Aditividad
Si
x1 (t) → y1 (t)
y
x2 (t) → y2 (t),
entonces
x1 (t) + x2 (t) → y1 (t) + y2 (t).

Ambas proposiciones se combinan para dar el Principio de superposición:

αx1 (t) + βx2 (t) → αy1 (t) + βy2 (t).

Una forma frecuente de representar la transformación de entrada a salida de un


sistema es mediante un operador funcional:

y(t) = Lx(t),

donde L representa una transformación lineal. Es decir:

L(αx1 (t) + βx2 (t)) = αLx1 (t) + βLx2 (t) = αy1 (t) + βy2 (t).

Modelado de SLIT
Cuando la función de entrada x(t) y la función de salida y(t) de un sistema
dinámico están relacionadas por una ecuación diferencial lineal ordinaria a co-
eficientes constantes (EDO), entonces puede probarse que ese sistema es lineal
e invariante en el tiempo (SLIT). Además, como la EDO involucra derivadas, el
sistema es dinámico o con memoria. Para sistemas de una sola entrada-salida,
la ecuación general puede ser:

an y (n) (t) + ... + a1 y 0 (t) + a0 y(t) = bm x(m) (t) + ... + b1 x0 (t) + b0 x(t),
dk y(t)
donde y (k) (t) = dtk .
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 53

El uso de un operador lineal que representa la derivada suele facilitar la operato-


ria al resolver las ecuaciones diferenciales. Si reescribimos la ecuación diferencial
dk
haciendo uso del operador derivador (Dk = dt k ) tenemos:

an Dn y(t) + ... + a1 Dy(t) + a0 y(t) = bm Dm x(t) + ... + b1 Dx(t) + b0 x(t),

que podemos reorganizar como:

(an Dn + ... + a1 D + a0 )[y(t)] = (bm Dm + ... + b1 D + b0 )[x(t)].

El cálculo operacional nos permite escribir la relación entre la entrada y la salida


del sistema de esta manera:
bm Dm + ... + b1 D + b0 B(D)
y(t) = n
[x(t)] == [x(t)] = H(D)[x(t)],
an D + ... + a1 D + a0 A(D)

donde
B(D)
H(D) =
A(D)
es la función operacional del sistema, un operador que actúa sobre la función
de entrada para producir la salida.
Finalmente, la ecuación diferencial escrita en forma operacional es:

y(t) = H(D)[x(t)].

Ejemplos de modelos fı́sicos que corresponden a sistemas lineales e


invariantes con memoria, de segundo orden
Circuito RLC serie

Figura 2.20: Circuito RLC serie.

Ecuación diferencial:
Z t
0 1
v(t) = Li (t) + Ri(t) + i(t)dt
C −∞

1
v(t) = Lq 00 (t) + Rq 0 (t) + q(t)
C
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 54

Variables: v=tensión eléctrica; i=corriente eléctrica; q=carga en el capa-


citor.
Parámetros: R=resistencia; C=capacitor; L=inductor.
Circuito RLC paralelo

Figura 2.21: Circuito RLC paralelo.

Ecuación diferencial:
Z t
0 1 1
i(t) = Cv (t) + v(t) + v(t)dt
R L −∞

Variables: v=tensión eléctrica; i=corriente eléctrica.


Parámetros: R=resistencia; C=capacitor; L=inductor.
Vibraciones longitudinales

Figura 2.22: Sistema masa-resorte-amortiguador.

Ecuación diferencial:

f (t) = mx00 (t) + bx0 (t) + kx(t)

Variables: f =fuerza excitadora; x=desplazamiento.


Parámetros: m=masa; b=coeficiente de amortigución; k=constante del re-
sorte.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 55

Vibraciones de torsión
Ecuación diferencial:

M(t) = J ϕ00 (t) + cϕ0 (t) + µϕ(t)

Variables: M=par excitador; ϕ=desplazamiento angular.

Figura 2.23: Sistema de vibrador torsional.

Parámetros: J =inercia; c=coeficiente de amortigución; µ=constante elásti-


ca de torsión.
Resonador de Helmholtz

Figura 2.24: Resonador acústico de Helmholtz.

Ecuación diferencial:
1
P (t) = M V 00 (t) + Ra V 0 (t) + V (t)
Ca

Variables: P =presión exterior; V =volumen de desplazamiento.


Parámetros: M =coeficiente de inercia acústica; Ra =resistencia acústica;
Ca =capacidad acústica.

Representación con diagramas en bloques


Una propiedad importante de los sistemas descritos por ecuaciones diferencia-
les lineales con coeficientes constantes es que se pueden representar fácilmente
mediante interconexiones de diagramas de bloques de operaciones elementales.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 56

En la siguiente figura observamos los elementos básicos para la representación


en diagrama de bloque de sistemas: (a) sumador; (b) multiplicador por un co-
eficiente (ganancia); (c) diferenciador; (d) integrador.

Figura 2.25: Elementos básicos para diagramas en bloques.

La combinación de estos elementos permite la representación de cualquier EDO.


Ejemplo. Se desea hallar un diagrama en bloques para la siguiente ecuación
diferencial de primer orden:
dy(t)
+ ay(t) = bx(t).
dt

Para cierto sistema dado, no hay un único diagrama en bloques que lo represente.
Veamos que si reescribimos la ecuación diferencial anerior como
1 dy(t)
y(t) = (bx(t) − ),
a dt

el diagrama en bloques que lo representa es el de la siguiente figura:

Figura 2.26: Diagrama en bloques 1.

En cambio, si reescribimos la ecuación diferencial despejando la derivada,


dy(t)
= bx(t) − ay(t),
dt
obtenemos este otro diagrama que contiene un bloque integrador (D−1 ):
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 57

Figura 2.27: Diagrama en bloques 2.

Los sistemas de mayor orden se representan por interconexiones más complejas


de los bloques básicos o elementales.

Respuesta de sistemas dinámicos


Consideremos una ecuación diferencial ordinaria con coeficientes constantes don-
de el lado derecho de la ecuación no contiene derivadas, es decir:

dn y(t) dn−1 y(t) dy(t)


an n
+ a n−1 n−1
+ ... + a1 + a0 y(t) = x(t).
dt dt dt

Esa ecuación, escrita en forma operacional es

(an Dn + an−1 Dn−1 + a1 D + a0 )[y(t)] = x(t),

que en forma aún más reducida puede ponerse como:

A(D)[y(t)] = x(t).

Una ecuación diferencial tiene infinitas soluciones, dependiendo de la entrada


que se aplique y de las condiciones iniciales de las variables. En cursos anteriores
ya se han esudiado métodos para resolver este tipo de ecuaciones diferenciales,
que repasaremos aquı́.
Uno de esos métodos propone descomponer a la solución del sistema en una
solución homogénea o natural y una solución particular:

y(t) = yh (t) + yp (t).

La primera de ellas es solución de la ecuación diferencial homogénea (sin entrada


aplicada) y, como se verá más adelante, es la parte transitoria de la respuesta
cuando el sistema representado por la ecuación diferencial es estable y causal;
la segunda es la solución que depende de la forma de la excitación y también
suele llamarse solución permanente o de estado estable.
Solución homogénea o natural
Es solución de A(D)[yh (t)] = 0.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 58

La forma general de esta solución es

yh (t) = c1 y1 (t) + c2 y2 (t) + ... + cn yn (t),

donde n es el orden del sistema, la función yk (t) depende de la raiz k-ésima


de la ecuación caracterı́stica, y los coeficientes se calculan en base a las
condiciones iniciales sobre y(t).
La ecuación caracterı́sitica asociada a la ecuación diferencial es

f (r) = an rn + an−1 rn−1 + ... + a1 r + a0 ,

donde los coeficientes son los mismo del operador A(D). Esa ecuación tiene
n raı́ces, que son las que determinan la forma de las funciones yk (t).
1. Raı́ces reales distintas r1 , r2 , ..., rn , entonces

yh (t) = c1 er1 t + c2 er2 t + ... + cn ern t

2. Raı́ces reales múltiples. Entonces, por cada raı́z de multiplicidad m


en la respuesta homogénea aparecerán m términos de la forma

c1 ert + c2 tert + ... + cm tm−1 ert

3. Raı́ces complejas conjugadas simples. Por cada par de raı́ces comple-


jas conjugadas, r = a ± jb, en la respuesta homogénea aparecerá dos
términos de la forma

c1 eat cos (bt) + c2 eat sen(bt)

4. Raı́ces complejas conjugadas múltiples. Por cada par de raı́ces com-


plejas conjugadas de multilpicidad m, r = a ± jb, en la respuesta
homogénea aparecerán 2m términos de la forma

c1 eat cos (bt) + c2 eat sen(bt) + c3 teat cos (bt) + c4 teat sen(bt)

+... + c2m−1 tm−1 eat cos (bt) + c2m tm−1 eat sen(bt)

Para determinar los valores de las constantes ci con i = 1, 2, ...n se utilizan


las condiciones iniciales o de frontera del problema, aplicadas a la solución
completa.
Solución particular
Existen varios métodos. Uno de ellos es el de los coeficientes indetermi-
nados, normalmente considerado en los cursos de Análisis Matemático.
Repasemos este método resolviendo el siguiente ejemplo sencillo, donde
encontraremos también la solución homogénea.
Ejemplo. Suponga la ecuación diferencial de primer orden,

y 0 (t) + y(t) = x(t).

Verifique que para y(0) = 1 y x(t) = 3, la solución es y(t) = 3 − 2e−t .


CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 59

Solución.
- Solución homogénea. En primer lugar, buscamos las raı́ces de la ecua-
ción caracterı́stica, que en este caso es:

f (r) = r + 1,

y que tiene como única raiz (por ser sistema de primer orden) a r = −1.
La forma de la solución homogénea será:

yh (t) = c1 e−t .

Para calcular el valor de c1 debemos considerar la solución completa.


-Solución particular. Se propone una solución particular que tiene la
misma forma que la entrada. La entrada es una constante, entonces:

yp (t) = c2

Como la solución particular es solución de la ecuación diferencial, entonces


debe satisfacerla
yp0 (t) + yp (t) = x(t),
es decir,
0 + c2 = 3,
de donde sale c2 = 3 y, entonces:

yp (t) = 3.

- Solución total: y(t) = yh (t) + yp (t) = c1 e−t + 3.


Para calcular el coeficiente restante tenemos en cuenta que y(0) = 1:

y(0) = c1 e0 + 3

1 = c1 + 3,
de donde c1 = −2.
Y ası́, vemos que
y(t) = −2e−t + 3.

Otro método, también estudiado previamente, que permite hallar la so-


lución total del sistema es el Método del operador anulador (Apéndice
A).

Solución libre y solución forzada


En el análisis realizado antes hemos descompuesto la solución total del sistema
en una solución homogénea yh y otra solución particular yp , tal que y(t) =
yh (t) + yp (t).
Sin embargo, para el análisis de sistemas lineales existe otra forma útil de des-
componer la respuesta total. Esta descomposición implica separar la respuesta
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 60

provocada por la energı́a inicial almacenada, de la respuesta debida a la entrada


del sistema.
Si el sistema tiene energı́a almacenada, es decir, las condiciones iniciales son
no nulas y no hay entrada aplicada, la respuesta del sistema es la denominada
libre. En cambio, cuando el sistema está en reposo (condiciones iniciales nulas)
y se aplica una entrada determinada, se tiene la solución forzada. Cuando en
el sistema hay condiciones iniciales distintas de cero y además se aplica una
entrada x(t), la respuesta total es la sumas de la libre y la forzada.

Figura 2.28: Descomposición de la respuesta total en respuesta libre y respuesta


forzada.

La solución de fuente libre, yl (t), se obtiene con una señal de entrada


igual a cero, y depende del sistema y de sus condiciones iniciales. Es una
solución de la ecuación diferencial homogénea y constituye una parte de
la solución transitoria de la respuesta del sistema.
La solución forzada, yf (t), es consecuencia tanto del sistema como de la
señal de entrada. Esta solución comprende la solución de estado estable,
por un lado, pero también incluye un transitorio. Para hallarla se resuelve
la ecuación diferencial no homogénea considerando condiciones iniciales
(n−1)
nulas. Esto implica yf (0) = yf0 (0) = ... = yf = 0.
Cuando en el sistema se tienen condiciones iniciales distintas de cero y una cierta
entrada aplicada, la solución total puede obtenerse como la suma de la solución
homogénea y la solución forzada:
y(t) = yl (t) + yf (t).

Cuando estudiamos la descomposición en solución homogénea y solución parti-


cular dijimos que, en los sistemas estables, la solución homogénea es transitoria
y la solución particular es la que representa el régimen estacionario. Cuando se
descompone la solución total en libre y forzada, la solución estacionaria o per-
manente está en la forzada, pero esta tiene también una parte del transitoria.
Esto es esperable porque partimos del sistema en reposo y aplicamos una entra-
da, entonces el sistema tomará un tiempo en establecerse en su comportamiento
permanente. Por otro lado, la solución libre es toda estacionaria.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 61

Entonces, es claro que

yl (t) 6= yh (t); yf (t) 6= yp (t),

aún cuando
y(t) = yl (t) + yf (t) = yh (t) + yp (t).

Resolvamos el ejemplo de la sección anterior pero calculando ahora la solución


libre y la solución forzada.
Ejemplo. Dada la ecuación diferencial de primer orden,

y 0 (t) + y(t) = x(t).

Para y(0) = 1 y x(t) = 3, hallar la solución libre y la solución forzada de este


sistema.
Solución.
Recordemos que se habı́a obtenido

yh (t) = −2e−t ;

yp (t) = 3
y la solución total resultó:

y(t) = −2e−t + 3.

Ahora calculemos las soluciones libre y forzada.


- Solución libre. Supongamos en primer lugar que no hay entrada aplicada, con
y(0) = 1. Como la solución libre es solucón de la ecuación homogénea, tendrá
la misma forma que yh (t):
yl (t) = k1 e−t .
Y al aplicar la condición inicial se ve que

yl (t) = e−t .

Observemos que con este método se aplican las condiciones iniciales a la solución
libre, ya que la forzada tiene condiciones inciales nulas.
- Solución forzada. Esta respuesta se halla mediante la operación de con-
volución que estudiaremos más adelante. Entonces, es esta instancia vamos a
proponer una forma para la solución forzada en base a la entrada que se aplica
(que es una constante) y a las caracterı́sticas propias del sistema, con condiciones
iniciales nulas. Se propone:

yf (t) = k2 + k3 e−t .

Como yf (t) es solución de la ecuación diferencial:

yf0 (t) + yf (t) = 3;


CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 62

−k3 e−t + k2 + k3 e−t = 3,


de donde
k2 = 3.

Además, debe satisfacer


yf (0) = 0,
es decir,
yf (0) = 3 + k3 = 0,
de donde
k3 = −3.

Ası́,
yf (t) = 3 − 3e−t .

Ahora, sumando las respuestas libre y forzada se llega a la misma solución total
que sumando la homogénea y la particular:

y(t) = −2e−t + 3.

Figura 2.29: Comparación entre las dos descomposiciones de la respuesta total.

Como puede verse en la figura anterior y tal como ya se mencionó, tanto la


solución homogénea como la particular se hacen cero luego de cierto tiempo, es
decir, son transitorias.
En cuanto a la solución particular, es una constante. Se comporta exactamente
como la entrada y es igual a la solución en régimen permanente, que es la que se
alcanza una vez que los transitorios se extinguen. Puede verse que esta solución
tiene un sentido puramente matemático y no refleja el comportamiento fı́sico
del sistema en función del tiempo.
En cambio, la solución forzada, que tiene una parte transitoria y luego alcanza
el régimen permanente, sı́ muestra cómo se comporta un sistema representado
por esa ecuación diferencial de primer orden cuando se le pone una entrada
constante y se tienen condiciones iniciales nulas.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 63

Recordemos que el sistema alcanzará el régimen permanente únicamente si es


estable, lo que quedará debidamente justificado en la siguiente sección. La so-
lución permanente es la que se establece a tiempos grandes como consecuencia
de la entrada aplicada.

Estabilidad y causalidad
Sistema causal
Se dice que un sistema es causal o no anticipativo si la salida en el instante
t0 solo depende de la entrada para t ≤ t0 . Informalmente, podrı́amos decir
que la entrada es la causa de la salida. En otras palabras, la salida actual
no depende de valores futuros de la entrada. Intuitivamente, es claro que
todo sistema mecánico o eléctrico de existencia fı́sica en el mundo real es
inherentemente causal.
Sin embargo, actualmente hay una cantidad de situaciones ingenieriles que
requieren la formulación de sistemas no-causales. Por ejemplo, la “inteli-
gencia artificial” se basa justamente en sistemas anticipativos. En muchos
casos, se puede prevenir una salida, o anticipar la decisión. Esto sucede
en edificios inteligentes, seguimiento de satélites, calefacción de ambientes,
etc.
Para pensar: denominamos como ”derivador puro” a un sistema que se
define por la relación: y(t) = dx(t)
dt ¿Será éste un sistema causal?

Sitema estable
Una descripción intuitiva del concepto de estabilidad es la siguiente. Su-
ponga un sistema en reposo, sin entrada ni salida. En un instante, se pro-
porciona una entrada a ese sistema, que podrá ser una energı́a eléctrica,
mecánica, acústica o electromagnética. Si la señal de entrada desaparece
luego de un cierto tiempo o se mantiene en un valor constante, el sistema
será estable siempre que la señal de salida desaparezca o se mantenga en
un valor finito, respectivamente, luego de cierto tiempo. Si, por el contra-
rio, la señal de salida crece y crece cuando la señal de entrada se mantiene
acotada, entonces diremos que el sistema es inestable.
Ası́, un criterio de estabilidad dice que, si la entrada de un sistema es
acotada, la salida es acotada (BIBO: Bounded-Input Bounded-Output).
Entonces, el sistema es estable si:
para |x(t)| < M , ∀t resulta que |y(t)| < K, ∀t, con M y K constantes
reales.
Hemos visto que
y(t) = yh (t) + yp (t),
donde yp (t) tiene la misma forma que la entrada. Ası́, si la entrada está
acotada en amplitud, la solución particular también lo estará. Entonces,
para que la solución total esté acotada la solución homogénea debe hacerse
cero.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 64

Recordemos que

yh (t) = c1 y1 (t) + c2 y2 (t) + ... + cn yn (t),

y que las funciones yk (t) dependen de las raı́ces, rk = σk + jωk , de la


ecuación caracterı́stica asociada a la ecuación diferencial.
El término general de la parte homogénea de la respuesta toma la forma
ck erk t . La magnitud de ese término es

|ck erk t | = |ck ||e(σk +jωk )t | = |ck ||eσk t ||ejωk )t | = |ck ||eσk t |.

Si σk > 0 la magnitud del término se hace no acotada cuando t → ∞.


Contrariamente, si σk < 0, el término general tenderá a cero.
Luego, será condición necesaria y suficiente para la estabilidad, que las
raı́ces de la ecuación caracterı́stica del sistema estén en el semiplano
izquierdo del plano complejo Z, o, dicho de otro modo, que tengan parte
real negativa.

Ejercicios
1. Sea un sistema con relación de entrada-salida dada por la ecuación lineal
y(t) = ax(t) + b. Verificar si el sistema es lineal o no.
2. Verificar si es lineal el sistema dado por la relación Lx(t) = 3x(t)(t + 4).

Halle la forma de las soluciones homogéneas de las siguientes ecuaciones


diferenciales:
3. y 000 (t) − y 00 (t) − 4y 0 (t) + 4y(t) = 0
Respuesta: yh (t) = c1 et + c2 e2t + c3 e−2t
4. y 000 (t) − 2y 00 (t) − 4y 0 (t) + 8y(t) = 0
Respuesta: yh (t) = c1 e−2t + c2 e2t + c3 te2t
5. y 000 (t) − y 00 (t) + y 0 (t) − y(t) = 0
Respuesta: yh (t) = c1 et + c2 cos (t) + c3 sen(t)

Para ver ejemplos y explicaciones:


Sistemas dinámicos 1: https://youtu.be/L1cKsYtYDYg

2.3. Respuesta al impulso y convolución


En este capı́tulo se define la respuesta al impulso y se deduce la operación
de convolución, una herramienta importante para el análisis de sistemas en el
dominio temporal.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 65

Un problema fundamental en el análisis de sistemas LIT es la obtención de la


respuesta a una entrada determinada. Ya se vio que, analı́ticamente, hay distin-
tas formas de hallar esa respuesta. Una forma consiste en resolver la ecuación
diferencial que modela el sistema, dadas la entrada y las condiciones iniciales.
Otra de las formas consiste en la aplicación del método de convolución.

Definición de respuesta al impulso


La respuesta al impulso, h(t), es uno de los conceptos fundamentales en la teorı́a
de sistemas LIT. Es una caracterización completa del sistema y está ı́ntimamente
relacionada con la forma operacional, H(D).
La respuesta al impulso es la respuesta del sistema cuando la entrada es una
señal δ(t), con condiciones iniciales nulas.

Figura 2.30: h(t): respuesta del sistema cuando x(t) = δ(t).

Conocer la respuesta al impulso es equivalente a conocer el comportamiento


completo del sistema. Ya se verá que esta función permite analizar la causalidad
y la estabilidad del sistema y, además, es la herramienta que necesitamos para
hallar la solución forzada. Para encontra esta solución, es decir, la respuesta
del sistema a cualquier entrada x(t) con condiciones iniciales nulas, se hace la
convolución entre esa entrada y h(t).
Si bien δ(t) es una señal matemática en rigor no realizable fı́sicamente, en la
práctica señales aproximadas a δ(t) se utilizan para los denominados ensayos
impulsivos en el estudio de comportamiento de transformadores, equipos de
maniobra, etc.
En algunos sistemas sencillos, h(t) puede hallarse de manera directa poniendo
un impulso en la entrada y ”siguiendo” su camino a lo largo del sistema (ver
video del final de la sección). Pero en sistemas más complejos este análisis no
podrá hacerse y se verá más adelante un método para calcular la respuesta al
impulso de sistemas modelados con una EDO de orden n.

La integral de convolución
Consideremos un sistema LIT con condiciones iniciales nulas al que se le aplica
un impulso de peso k. La salida será kh(t) porque el sistema es lineal:

kδ(t) → kh(t).
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 66

Además, como es invariante en el tiempo,

kδ(t − t0 ) → kh(t − t0 ).

Por lo dicho, si entra una combinación lineal de señales delta desplazadas en el


tiempo, sale la misma combinación lineal de h(t) igualmente desplazada en el
tiempo. Por ejemplo:

2δ(t) − 3δ(t − 2) + δ(t − 4) → 2h(t) − 3h(t − 2) + h(t − 4).

Por otro lado, y como ya vimos antes, cualquier función puede escribirse como
una suma continua de funciones impulso:
Z ∞
x(t) = x(τ )δ(t − τ )dτ.
−∞

Si esta integral se expresa como una suma de infinitos términos y se aplica el


lı́mite para ∆t tendiendo a cero tenemos que:

X
x(t) = lı́m x(i∆t)δ(t − i∆t).
∆t→0
i=−∞

Por lo dicho antes, es claro que la salida será:



X
y(t) = lı́m x(i∆t)h(t − i∆t),
∆t→0
i=−∞

que si escribimos en su forma integral queda:


Z ∞
y(t) = x(τ )h(t − τ )dτ.
−∞

La salida del sistema con condiciones iniciales nulas queda expresada por una
integral, dadas la entrada x(t) y la respuesta al impulso h(t), llamada integral
de convolución.
La notación abreviada para convolución es:

y(t) = x(t) ∗ h(t).

La convolución entre 2 señales cualesquieras es:


- asociativa
- distributiva
- conmutativa
Demostración de la propiedad conmutativa.
Z ∞
y(t) = x(t) ∗ h(t) = x(τ )h(t − τ )dτ
−∞
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 67

Hacemos: s = t−τ , ⇒ τ = t−s y dτ = −ds, y además, cuando τ → ∞, s → −∞


y cuando τ → −∞, s → ∞. Entonces, la integral de convolución queda:
Z −∞ Z ∞
y(t) = x(t) ∗ h(t) = − x(t − s)h(s)ds = x(t − s)h(s)ds = h(t) ∗ x(t).
∞ −∞

Ejemplo. Hallar la integral de convolución entre δ(t) y la respuesta al impulso.


Z ∞ Z ∞
δ(t) ∗ h(t) = δ(τ )h(t − τ )dτ = δ(t − τ )h(τ )dτ = h(t).
−∞ −∞

La integral anterior se resolvió aplicando primero la propiedad conmutativa


de la convolución, y luego la propiedad de integración del impulso por una
función desplazada. Con el ejemplo anterior también se comprueba que cuando
x(t) = δ(t) la salida es h(t).
En general, para cualquier función f (t) se da que f (t) ∗ δ(t) = f (t), pues
Z ∞
f (τ )δ(t − τ )dτ = f (t),
−∞

y f (t) ∗ δ(t − t0 ) = f (t − t0 ) ∗ δ(t) = f (t0 ).


Debido a que en muchas aplicaciones la respuesta al impulso es una función
causal, es decir, h(t) = 0 para t < 0, en estos casos serı́a:
h(t − τ ) = 0 para t − τ < 0 ⇒ τ > t,
y se puede cambiar el lı́mite superior de integración, de infinito por t. Si x(t)
también es causal el lı́mite inferior cambia por 0. Ası́ se pueden presentar cuatro
casos posibles:
R∞
-x(t) ∗ h(t) = −∞ x(τ )h(t − τ )dτ , con x(t) y h(t) funciones generales.
Rt
- x(t) ∗ h(t) = −∞ x(τ )h(t − τ )dτ , con x(t) general y h(t) causal.
R∞
-x(t) ∗ h(t) = 0 x(τ )h(t − τ )dτ , con x(t) causal y h(t) general.
Rt
-x(t) ∗ h(t) = 0 x(τ )h(t − τ )dτ , con x(t) y h(t) funciones causales.

Causalidad, estabilidad y la respuesta al impulso


Como se mencionó anteriormente, la respuesta al impulso permite caracterizar
al sistema. En cuanto a la causalidad del sistema, podemos asegurar que el
sistema es causal si la respuesta al impulso es causal.
Analicemos ahora lo que ocurre con la estabilidad, suponiendo que la entrada
al sistema está acotada en amplitud, es decir:

|x(t)| < M, ∀t

siendo M una constante real.


CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 68

Interesa analizar la cota de la salida del sistema. Para ello, se aplica el concepto
de valor absoluto a ambos miembros de la igualdad dada por la integral de
convolución, y se obtiene que:
Z ∞ Z ∞ Z ∞
|y(t)| = | x(t − τ )h(τ )dτ | < |x(t − τ )||h(τ )|dτ < M |h(τ )|dτ.
−∞ −∞ −∞

R∞
Puede verse que y(t) está acotada si −∞
|h(τ )|dτ < ∞, es decir, si h(t) es
absolutamente integrable.

Cálculo de la integral de convolución


La integral de convolución es un cálculo que puede ser operativamente compli-
cado cuando las señales son continuas por tramos. Debe tenerse presente que τ
es la variable de integración, y que t pasa a actuar como parámetro a los fines
de integrar. La integral debe evaluarse para todos los posibles valores reales de
t.
Para pasar de x(t) a x(τ ) se hace un cambio de variables, y para obtener h(−τ )
se hace un cambio de variables y una reflexión.
Para encontrar h(t − τ ) basta con desplazar horizontalmente h(−τ ) según sean
los valores de t. Si t > 0 el desplazamiento es hacia la derecha y si t < 0 es hacia
la izquierda.
Ver ejemplos en video.

Cálculo de la respuesta al impulso de sistemas causales


A continuación, se presenta un método sencillo y poderoso para encontrar la
respuesta al impulso de sistemas lineales causales descriptos por una ecuación
diferencial. Este método se basa en el conocimiento de las soluciones homogéneas
de la ecuación.
Supongamos en primer lugar una ecuación donde el lado derecho corresponde a
la entrada y no existen derivadas sobre ella, y donde además an = 1:

y (n) (t) + an−1 y (n−1) (t) + ... + a1 y 0 (t) + a0 y(t) = x(t).

(Dn + an−1 Dn−1 + ... + a1 D + a0 )y(t) = A(D)y(t) = x(t).

Para hallar la respuesta al impulso, h(t), se tendrá que x(t) = δ(t) y que las
condiciones iniciales del sistema son nulas:

y(0) = y 0 (0) = ... = y (n−1) (0) = 0.

Puede probarse que la función respuesta al impulso debe satisfacer la ecuación


homogénea
A(D)y(t) = 0, si t > 0,

con condiciones iniciales

h(0) = h0 (0) = ...h(n−2) = 0; h(n−1) = 1.


CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 69

Entonces, la respuesta al impulso tendrá la misma forma que la solución ho-


mogénea y la solución libre:

h(t) = c1 y1 (t) + c2 y2 (t) + ... + c3 y3 (t),

donde las condiciones iniciales anteriores se emplean para calcular los coeficien-
tes de h(t).
Prueba. Consideremos el caso de la ecuación A(D)[y(t)] = x(t). Su solución,
cuando x(t) y h(t) son causales, puede expresarse como:
Z t
y(t) = x(τ )h(t − τ )dτ.
0

Por el teorema de la derivación bajo el signo integral (ver apéndice B) pueden


obtenerse expresiones para las derivadas sucesivas de y(t).
En nuestro caso, u(t) = 0 y v(t) = t, entonces:

d t
Z Z t
d
y 0 (t) = f (t, τ )dτ = f (t, τ )|τ =t + f (t, τ )dτ,
dt 0 0 dt
con f (t, τ ) = x(τ )h(t − τ ).
Ası́, queda que:

d t
Z Z t
d
y 0 (t) = x(τ )h(t − τ )dτ = x(t)h(t − τ )|τ =t + (x(τ )h(t − τ ))dτ
dt 0 0 dt

Z t
0
y (t) = x(t)h(0) + x(τ )h0 (t − τ )dτ.
0

Como h(t) debe ser tal que las condiciones iniciales sobre la salida del sistema
sea cero, Z 0
0
y (0) = x(0)h(0) + x(τ )h0 (0 − τ )dτ = 0,
0
se ve que
h(0) = 0.

Volviendo a aplicar la regla de Leibniz se obtiene la expresión para la segunda


derivada de la salida:
d t
Z Z t
00 0 0
y (t) = x(τ )h (t − τ )dτ = x(t)h (0) + x(τ )h00 (t − τ )dτ,
dt 0 0

y generalizando para la derivada enésima:

d t
Z Z t
(n) (n−1) (n−1)
y (t) = x(τ )h (t − τ )dτ = x(t)h (0) + x(τ )h(n) (t − τ )dτ.
dt 0 0

Supongamos el caso sencillo de un sistema de segundo orden, cuya ecuación


diferencial es
(D2 + a1 D + a0 )[y(t)] = x(t).
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 70

Si reemplazamos a y(t) y a sus dereivadas por las expresiones anteriores, ten-


dremos:
Z t
0
x(t)h (0) + x(τ )(h00 (t − τ ) + a1 h0 (t − τ ) + a0 h(t − τ ))dτ = x(t).
0

Puede verse que la ecuación se verifica si:


-h0 (0) = 1
-La integral vale cero
Lo segundo ocurre si h00 (t − τ ) + a1 h0 (t − τ ) + a0 h(t − τ ) = 0.
Luego, h(t) será solución de la ecuación homogénea y debe cumplir que h(0) = 0
y que h0 (0) = 1.
La generalización de esta demostración lleva a lo enunciado al comienzo de la
sección para los sistemas de orden n.

Si el lado derecho de la EDO que modela al sistema es de la forma B(D)[x(t)],


con B(D) 6= 1, entonces el método se modifica como se explica a continuación.
Si se desea hallar la respuest al impulso de un sistema representado por la
ecuación diferencial A(D)[y(t)] = B(D)[x(t)], se obtiene primero ĥ(t), que co-
rresponda al sistema A(D)[y(t)] = x(t) y luego se obtiene la respuesta al impulso
del sistema original como
h(t) = B(D)[ĥ(t)].

Todo esto se basa en la suposición de que el grado de B(D) es menor al de


A(D). De no ser ası́, aparecerán en h(t) términos adicionales que incluirán a
δ(t) y sus derivadas, pues las derivadas de h(t) de orden (n − 1) o mayor, en
general no son cero en t = 0.
Ejemplo
Considere el circuito de la figura, donde la entrada x(t) es la tensión de alimen-
tación, y la salida y(t) es la tensión en el capacitor:

Figura 2.31: Circuito eléctrico. Sistema de segundo orden.

La ecuación diferencial que modela la relación entre ambas señales, para ciertos
valores de los parámetros, es:

(D2 + 2D + 2)[y(t)] = (D + 1)[x(t)].


CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 71

Se desea determinar la respuesta al impulso de este sistema.


Solución
Como B(D) 6= 1, en primer lugar se calculará ĥ(t), que es la respuesta al impulso
del sistema dado por la ecuación diferencial

(D2 + 2D + 2)[y(t)] = x(t).

La ecuación caracterı́stica tiene raı́ces r = −1 ± j, y por lo tanto la respuesta


al impulso será:

ĥ(t) = (c1 e−t cos(t) + c2 e−t sen(t))us (t).

Se vio que las condiciones inciales son ĥ(0) = 0; ĥ0 (0) = 1, por lo tanto:

ĥ(0) = c1 = 0 ⇒ ĥ(t) = (c2 e−t sen(t))us (t).

ĥ0 (t) = (−c2 e−t sen(t) + c2 e−t cos(t))us (t) + c2 e−t sen(t)δ(t),

y considerando que c2 e−t sen(t)δ(t) = 0δ(t) = 0, tendremos que

ĥ0 (0) = c2 → c2 = 1

y
ĥ(t) = e−t sen(t)us (t).

Ahora, puede encontrarse la respuesta al impulso del sistema de la figura apli-


cando el operador B(D) a ĥ(t).

h(t) = (D + 1)[ĥ(t)] = D[e−t sen(t)us (t)] + e−t sen(t)us (t),

h(t) = (−e−t sen(t) + e−t cos(t))us (t) + e−t sen(t)δ(t) + e−t sen(t)us (t).

Por propiedad de la función impulso, el término que contiene δ(t) se hace cero,
y entonces:
h(t) = e−t cos(t)us (t).

Entonces, para este sistema con condiciones iniciales nulas y con una cierta
entrada x(t) causal, la salida y(t) puede expresarse como:
Z t
y(t) = x(τ )e−(t−τ ) cos(t − τ )dτ.
0

También se puede demostrar que se cumple la siguiente igualdad:

A(D)[h(t)] = B(D)[δ(t)],

que para este ejemplo es:

(D2 + 2D + 2)[e−t cos(t)us (t)] = (D + 1)δ(t).


CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 72

Se calculan las derivadas sucesivas de h(t):

D[h(t)] = (−e−t cos (t) − e−t sen(t))us (t) + e−t cos(t)δ(t)

D[h(t)] = (−e−t cos (t) − e−t sen(t))us (t) + δ(t)

D2 [h(t)] = (e−t cos (t) + 2e−t sen(t) − e−t cos (t))us (t)+
+(−e−t cos (t) − e−t sen(t))δ(t) + δ 0 (t)
D2 [h(t)] = 2e−t sen(t)us (t) − δ(t) + δ 0 (t).

Reemplazando luego en la ecuación diferencial:

(D2 + 2D + 2)[h(t)] = 2e−t sen(t)us (t) − δ(t) + δ 0 (t)+

+2(−e−t cos (t) − e−t sen(t))us (t) + 2δ(t)+


+2e−t cos(t)us (t) = δ 0 (t) + δ(t) = (D + 1)δ(t),

como se querı́a demostrar.

Relación entre la respuesta al escalón y la respuesta al impulso


La respuesta al escalón de un sistema lineal g(t), es la salida provocada por
la función escalón us (t) como entrada. Ası́ si L representa la transformación
realizada por el sistema lineal, entonces: g(t) = L[us (t)].
La función respuesta al escalón, g(t), se puede obtener convolucionando us (t)
con la respuesta al impulso. Si el sistema es causal, será:
Z t Z t Z t
g(t) = us (t) ∗ h(t) = us (τ )h(t − τ )dτ = h(τ )us (t − τ )dτ = h(τ )dτ.
0 0 0

Entonces, la respuesta al escalón de un sistema es la integral de su


respuesta al impulso.
Puede verificarse también que por diferenciación de g(t) se obtiene la respuesta
al impulso:

d t
Z Z t Z t
dg(t) d
= h(τ )us (t−τ )dτ = h(τ ) us (t−τ )dτ = h(τ )δ(t−τ )dτ = h(t).
dt dt 0 0 dt 0

Ejemplo
Sea la respuesta al impulso de cierto sistema h(t) = e−3t us (t). La respuesta del
sistema cuando la entrada es un escalón será:
Z t Z t
−3τ 1 − e−3t
g(t) = e us (τ )dτ = e−3τ dτ = us (t).
0 0 3

Puede verificarse este resultado diferenciando la respuesta al escalón para obte-


ner la respuesta al impulso dada.
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 73

Respuesta permanente a funciones exponenciales


La respuesta de sistemas lineales a funciones de entrada que sean funciones ex-
ponenciales permanentes en el tiempo son de especial importancia en el análisis
de sistemas lineales ESTABLES.
Como ya se vio, la salida de un sistema ante una entrada x(t) es
Z ∞
y(t) = x(τ )h(t − τ )dτ.
−∞

Puede demostrarse que la respuesta de un sistema lineal e invariable a una fun-


ción exponencial compleja también es una función exponencial compleja pro-
porcional a la entrada. Es decir, si x(t) = ejωt , entonces y(t) = Kejωt .
Como la salida es la convolución entre la entrada y la respuesta al impulso del
sistema, se tendrá en este caso
Z ∞ Z ∞
y(t) = h(τ )e jω(t−τ )
dτ = e jωt
h(τ )e−jωτ dτ.
−∞ −∞

El resultado de la integral es un valor constante en t que solamente depende la


ω, que es la frecuencia de la entrada. Entonces, la salida será:

y(t) = ejωt K(ω).

Observemos que ejωt es una función periódica con frecuencia ω y perı́odo T =


2π/ω. Es decir, la frecuencia de la señal de entrada se mantiene en la señal de
salida. K(ω) es un número complejo que, en general, modificará en módulo y
ángulo a la función exponencial compleja. Podrı́a también tomar valor nulo para
algunos valores de ω, y en ese caso la señal de salida serı́a nula.
Vale aclarar que K(ω) = H(D = jω), la función operacional del sistema H(D)
especializada en jω, H(jω). Se denomina función del sistema a H(jω) (que
suele llamarse simplemente H(ω)).

Ejercicios
1. Determinar si es causal y/o estable el sistema cuya respuesta al impulso
está dada por h(t) = e−3t us (t) .
2. Sea x(t) = us (t) y h(t) = e−t us (t). Halle y(t) = x(t) ∗ h(t).
Respuesta: y(t) = 1 − e−t , t ≥ 0.
3. Hallar la convolución entre x(t) = us (t) − us (t − 4) y h(t) = e−2t us (t).

 0


si t<0


1 1 −2t
Respuesta: y(t) =
 2 − 2e si 0 ≤ t ≤ 4


 1 −2t 8

2e (e − 1) si t>4
CAPÍTULO 2. ANÁLISIS EN EL DOMINIO NATURAL 74

4. Considere que la señal x(t) = us (t) es la entrada de un SLIT con una


respuesta al impulso, h(t) = us (t + 2). ¿Cuál es la salida del sistema si hay
condiciones iniciales nulas? Observe en qué valor de t se aplica la entrada
y cuándo comienza la salida. ¿Qué puede concluir sobre la causalidad del
sistema?
5. Dada A(D)[y(t)] = (D2 + 2D + 2)[y(t)] = x(t), hallar la respuesta al
impulso del sistema al que representa.
6. Escriba la expresión integral para y(t) en el caso del sistema anterior si
y(0) = y 0 (0) = 0.
7. Escriba la expresión integral que resulta para g(t) en el caso en que el
sistema sea no causal.
8. Escriba la expresión de la solución en régimen permanente de un sistema
cuya función operacional es H(D) cuando la entrada es x(t) = cos(ωt).
9. Repita el inciso anterior si x(t) = sen(ωt).

Para ver ejemplos y explicaciones:


Sistemas dinámicos 2: https://youtu.be/S084YAx8jxo
Capı́tulo 3

Análisis de Fourier

3.1. Introducción y motivación


El desarrollo de las técnicas del análisis de Fourier tiene una larga historia, desde
los babilonios hasta sus numerosas aplicaciones en la ciencia moderna.
La idea básica del análisis de Fourier es la aproximación de funciones usando
funciones armónicas.El concepto de “sumas trigonométricas”, esto es, sumas de
senos y cosenos o de exponenciales complejas periódicas armónicamente relacio-
nadas, se utiliza para describir fenómenos periódicos . Especı́ficamente, veremos
que si la entrada a un sistema SLIT se expresa como una combinación lineal
de exponenciales complejas periódicas o senoidales, la salida también se pue-
de expresar de esta forma, con los coeficientes puestos en forma conveniente
en términos de los de la entrada. Esto facilita en gran parte el análisis de los
sistemas SLIT.
Si deseamos describir una señal, periódica o no, en términos matemáticos, se
tienen varias posibilidades. Una de ellas, muy familiar a los estudiantes de in-
genierı́a y ciencias experimentales, es el conocido método de ajuste de curvas,
un ajuste de curva puede ser considerado como un modelo para una serie tem-
poral de valores de una variable (señal). Estos métodos se presentan en varias
versiones.
a) Aproximación por polinomios,

f (t) = a0 + a1 t + a2 t2 + ... + an tn + ...,

Aquı́ se trata de representar una señal de forma que se pueda manejar con
formas potenciales. Una alternativa consiste en suponer que es posible ajustar
un polinomio para que sus valores representen los de la señal. Para esto se debe
obtener un sistema de ecuaciones con las que se determinan los coeficientes del
polinomio. Mientras mayor sea el número de puntos del polinomio que coincidan
con los de la curva que se pretende ajustar, mayor será el grado del polinomio
a considerar. Esto sugiere que el método es bastante potente y que se puede
conseguir tanta precisión como se quiera en el citado ajuste. Sin embargo, que el
sistema propuesto presenta ciertas debilidades para el caso de señales periódicas.

75
CAPÍTULO 3. ANÁLISIS DE FOURIER 76

El sentido del método es bastante claro y para ciertas curvas resulta suficiente,
pero la función resultante de este ajuste no es periódica, por lo tanto, es aplicable
solo a un ciclo de una señal periódica (o parte de él). Por esta razón sólo da
valores suficientemente aproximados para los puntos que se ha tomado para
hacer el cálculo (y su entorno) y la precisión de la representación se va perdiendo
rápidamente a medida que nos alejamos de los puntos de referencia.
b) Serie de potencias

X
f (t) = an (t − c)n ,
n=−∞

es una serie de potencias con centro en t = c.


Esta aproximación tiene también el problema de no ser periódica y por lo tanto
con este tipo de representación podemos aspirar, como máximo, a ajustar la
señal en un intervalo de tiempo finito, no obtener una expresión para la función
en todo el dominio del tiempo. Puede observarse también que la aproximación
por serie de potencias tiene una forma similar a la polinómica.
c) La otra posibilidad es representar nuestra señal en otro dominio de validez
usando una base ortonormal de funciones. Por ejemplo, supongamos que quere-
mos ajustar la señal periódica que se presenta debajo:

Figura 3.1: Señal tipo diente de sierra de amplitud π/2.

Pese a lo aparentemente complicado que resulta representar esta señal en un


intervalo de tiempo infinito, hay una expresión que la aproxima bien:
1 1 1
f (t) = sen(ω0 t) − sen(2ω0 t) + sen(3ω0 t) − sen(4ω0 t) + ...
2 3 4
(Se sugiere que represente esta función usando herramientas como Matlab u
Octave). Reconozca además la lógica de generación de términos para obtener la
representación con un número creciente de términos, verificando la forma en que
se mejora la precisión en la representación a medida que se agrega componentes
a la serie.
CAPÍTULO 3. ANÁLISIS DE FOURIER 77

Figura 3.2: Aproximación de la señal tipo diente de sierra de amplitud π/2.

El “ajuste” de la serie a la curva es evidente en la figura anterior. El gráfico se


construyó con los primeros cinco términos de la serie, e irá mejorando a medida
que se agreguen los otros términos. Se muestra la habilidad de las funciones pe-
riódicas para representar señales a través de una serie ponderada de un conjunto
de funciones periódicas linealmente independientes. A continuación, veremos las
propiedades de estas funciones y haremos una generalización de ellas.

3.2. Sucesiones ortogonales


El concepto de sistema ortogonal de funciones es una generalización natural del
concepto de sistema ortogonal de vectores; esto es, de un sistema de vectores
mutuamente perpendiculares. De hecho, una función puede considerarse como
un vector generalizado, y por ello las propiedades de un sistema de vectores
sugieren las propiedades análogas de un sistema de funciones.
Recordemos los conceptos de producto interior y norma.
Producto interior, interno o escalar de dos funciones reales, gm (t) y
gn (t), definidas para todos los valores del intervalo a ≤ t ≤ b:
Z b
hgm (t), gn (t)i = gm (t)gn (t)dt,
a

en analogı́a con el producto interior de vectores.


Dos funciones son ortogonales si su producto interno es nulo:

hgm (t), gn (t)i = 0.

Norma de una función gm (t) se simboliza kgm (t)k y es la raı́z cuadrada


del producto interno de la función consigo misma:
s s
Z b Z b
kgm (t)k = gm (t)gm (t)dt = 2 (t)dt.
gm
a a
CAPÍTULO 3. ANÁLISIS DE FOURIER 78

Esta generalización de funciones como vectores no conserva el significado de la


terminologı́a geométrica. La norma de una función g(t) tiene la interpretación de
ser una medida asociada con ella, calculada como la raı́z cuadrada del área bajo
la gráfica de g 2 (t). La ortogonalidad de dos funciones no tiene ningún significado
en cuanto a perpendicularidad, quiere decir solamente que el producto de las
dos funciones toma tantos valores positivos como negativos en el intervalo, de
modo que el producto interno es cero.
En general, el producto interno o escalar entre dos señales gm (t) y gn (t) (reales
o complejas), en el intervalo [a, b] está dado por:
Z b
hgm (t), gn (t)i = gm (t)gn (t)dt.
a

Nótese que el producto interno no conmuta, excepto en el caso de funciones


reales.
Luego, dos señales son ortogonales en un intervalo finito de tiempo [a, b] si:

 0 si m 6= n
hgm (t), gn (t)i =
kgm (t)k2 si m = n

con m, n = 1, 2, ...

Sistema o conjunto ortogonal de funciones


Es toda sucesión de funciones gr (t), r = 1, 2, 3... ortogonales dos a dos en un
cierto intervalo.
Además, el sistema se llama ortonormal cuando las funciones están normali-
zadas, es decir, todas tienen norma 1.
Considere entonces un sistema ortogonal {gr }. Si se forma una nueva sucesión
{φr }, donde φr = kggrr k , es normal y ortogonal, esta nueva sucesión es ortonor-
mal en el intervalo.
Por ejemplo, la suceción {sen( nπ c t)} p(n = 1, 2, ...) es ortogonal en el intervalo
[0, c], y la norma de las funciones es c/2. Entonces, la sucesión
(r )
2 nπ
sen( t) , n = 1, 2, ...
c c

es ortonormal en [0, c].


Sistemas o conjuntos ortogonales (y ortonormales)
Sistema trigonométrico
Sea Q = [− T2 , T2 ], y B = {1, cos (nω0 t), sen(nω0 t)}, con ω0 = 2π
T . Puede
probarse que B es ortogonal, ya que:

h1, cos (nω0 t)i = 0 n 6= 0

h1, sen(nω0 t)i = 0 ∀n


CAPÍTULO 3. ANÁLISIS DE FOURIER 79

hcos (mω0 t), cos (nω0 t)i = 0 n 6= m


hsen(mω0 t), sen(nω0 t)i = 0 n 6= m
hcos (mω0 t), sen(nω0 t)i = 0 ∀m, n

Puede probarse que los productos escalares de las funciones del conjunto
tomadas de a pares dan cero, por lo tanto podemos asegurar que el sistema
es ortogonal.
Además, el correspondiente sistema ortonormal, B 0 , se puede deducir di-
vidiendo a cada función de B por su correspondiente norma:
( r r )
0 1 2 2
B = √ , cos (nω0 t), sen(nω0 t)
T T T

Sistema exponencial
Sea Q = [− T2 , T2 ], y B = {ejnω0 t }, con ω0 = 2π T . Puede probarse que B es
ortogonal, ya que:
R T /2
hejnω0 t , ejmω0 t i = −T /2 ejnω0 t e−jmω0 t dt = 0 si m 6= n.
Por otro lado, cuando m = n, se tiene la norma al cuadrado de las funcio-
R T /2
nes: hejnω0 t , ejnω0 t i = −T /2 ejnω0 t e−jnω0 t dt = T .
Ası́ que el sistema ortonormal que se obtiene a partir de B es
 
0 1 jnω0 t
B = √ e
T
.

3.3. Series de Fourier generalizadas


Los conjuntos ortogonales proporcionan tipos importantes de desarrollos en serie
en una forma relativamente sencilla. En efecto, sea B = {φ1 (t), φ2 (t), ...φn (t), ...},
cualquier conjunto ortogonal de funciones sobre un intervalo a ≤ t ≤ b, puede
que resulte posible representar una función f dada arbitrariamente en aquel
intervalo por medio de una combinación lineal de esas funciones, generalizada a
una serie infinita:

f (t) = k1 φ1 (t) + k2 φ2 (t) + ... + kn φn (t) + ...

En el caso de que la serie converja a f (t), si después de multiplicar todos los


términos de la expresión anterior por φm (t) (m fijo), la serie que resulta en el
segundo miembro es integrable, y suponiendo que es permisible la integración
término a término, entonces podremos obtener los coeficientes kn que son los
coeficientes de Fourier.
La integral de f (t)φm (t) no es otra cosa que el producto interno entre f (t) y
φm (t):
CAPÍTULO 3. ANÁLISIS DE FOURIER 80

Rb R b P∞
hf (t), φm (t)i = a
f (t)φm (t)dt = a n=1 kn φn (t)φm (t)dt
Intercambiando el orden de la sumatoria con la integral queda:
Rb Rb Rb
hf (t), φm (t)i = a k1 φ1 φm dt + a k2 φ2 φm dt + ... + a km φm φm dt + ...
Por brevedad, en la expresión anterior se omitió la dependencia de t de las
funciones.
Como la sucesión de funciones de la base es ortogonal, el único término de la
sumatoria que no se hace cero es el que corresponde a n = m:
Rb
hf (t), φm (t)i = km a φm φm dt = km kφm (t)k2 .
Entonces, la fórmula para calcular los coeficientes de una serie de Fourier que
represente a la función f (t) usando un conjunto de funciones ortogonales φn (t)
es:
hf (t), φn (t)i
kn = .
kφn (t)k2

Si la sucesión de funciones de la base fuese ortonormal, la fórmula para el cálculo


de los coeficientes se reduce a:

kn = hf (t), φn (t)i.

Error cuadrático medio y la identidad de Parseval


Si f (t) se aproxima por su suma parcial de Fourier, definida como:
m
X
Sm (t) = kn φn (t),
n=1

entonces se comete un error dado por la diferencia entre la función y su aproxi-


mación hasta el término m: Em = f (t) − Sm (t).
Se denomina error cuadrático medio a
Z b Z b
1 1
εm = |Em |2 dt = |f (t) − Sm (t)|2 dt.
b−a a b−a a

Puede probarse que εm , m ∈ N es una sucesión real no negativa decreciente.


Y como la sucesión de sumas parciales de Fourier, Sm (t), converge a f (t) en la
media cuadrática, es decir,

lı́m |f (t) − Sm (t)| = 0,


n→∞

entonces
lı́m εm = 0.
n→∞

Por lo tanto, si se aproxima una función f (t) por una serie finita de Fourier
Sm (t), dicha aproximación tiene la propiedad de tener el mı́nimo error cuadráti-
co medio.
CAPÍTULO 3. ANÁLISIS DE FOURIER 81

Si la condición: Z b
lı́m |f (t) − Sm (t)|2 dt = 0,
n→∞ a
es satisfecha por cualquier función f en nuestro espacio funcional, diremos que
el sistema ortonormal {φn (t)} es cerrado en el sentido de la convergencia en
media.
Desarrollando el integrando de la ecuación anterior y teniendo presente la defi-
nición de kn , se llega a que:
(Z m
)
b X
2 2 2
lı́m |f (t)| dt − |kn | kφn k = 0,
n→∞ a n=1

de donde se deduce la expresión conocida como identidad de Parseval:


Z b ∞
X
|f (t)|2 dt = |kn |2 kφn k2 .
a n=1

La demostración de la deducción anterior puede verse en el video cuyo vı́nculo


se da al final de la sección.
Si el sistema utilizado fuese ortonormal, la expresión anterior se modificarı́a:
Z b ∞
X
|f (t)|2 dt = |kn |2 .
a n=1

De todo lo anterior surge que el error cuadrático de la aproximación respecto


de f en el intervalo fundamental será, para cualquier sistema ortogonal, cuando
se utilizan las primeras m componentes:
(Z m
)
b
1 2
X
2 2
εm = |f (t)| dt − |kn | kφn k
b−a a n=1

Aproximación cuadrática
Las series de Fourier, como se dijo, desempeñan un papel fundamental en la
aproximación de funciones por medio de funciones más simples. Esta área es
conocida como teorı́a de aproximaciones. A continuación se demostrará que los
coeficientes de la serie de Fourier hallados en el apartado anterior son aquellos
que proporcionan la aproximación con menor error cuadrático medio.
Sea f (t) una función que puede representarse por una serie de Fourier en el espa-
cio de funciones seccionalmente continuas en [a, b], y sean φ1 (t), φ2 (t), ..., φm (t),
m funciones de una sucesión ortonormal {φn (t)}, (n = 1, 2, ...) en dicho inter-
valo, y Km es una combinación lineal de las mismas:

Km (t) = γ1 φ1 (t) + γ2 φ2 (t) + ... + γm φm (t).

Es natural preguntarse si la ecuación anterior es la “mejor” aproximación a f ,


considerando que “mejor” significa que el error de la aproximación es mı́nimo.
CAPÍTULO 3. ANÁLISIS DE FOURIER 82

Desde luego, debe definirse primero qué se entiende por el error E de esta
aproximación. Elegimos una definición que mida la bondad de la concordancia
entre f (t) y Km (t) en el intervalo, considerando el caso particular en que {φn (t)}
y f (t) son funciones reales solo a los efectos de simplificar la demostración.
Se elige:
Z b
E= [f (t) − Km (t)]2 dt,
a
que puede considerarse una medida de error, y se desea que sea lo más pequeña
posible. Esta es una aproximación a f (t) por mı́nimos cuadrados. Obsérvese que
E es el cuadrado de la distancia generalizada kf − Km k entre las funciones f (t)
y Km (t).
El error puede expresarse entonces como:
Z b
E= [f (t) − γ1 φ1 (t) − γ2 φ2 (t) − ... − γm φm (t)]2 dt,
a

que al desarrollar el cuadrado queda:


Z b
E= {[f (t)]2 −2f (t)[γ1 φ1 −γ2 φ2 −...−γm φm ]+[γ1 φ1 −γ2 φ2 −...−γm φm ]}2 +dt.
a

Sean kn = hf (t), φn (t)i los coeficientes de Fourier de f (t), con {φn (t)} ortonor-
mal, entonces, reemplazando en el segundo término del integrando anterior a
f (t) por su representación en serie y considerendo todos los productos internos
que se anulan, la expresión queda simplemente:
Z b
E= {[f (t)]2 dt − 2k1 γ1 − 2k2 γ2 − ... − 2km γm φm + γ12 + γ22 + ... + γm
2
.
a

Si sumamos y restamos k12 , k22 , ..., km 2


para completar cuadrados, tendremos:
Z b
E= {[f (t)]2 dt − k12 − k22 − ... − km
2
+ (γ1 − k1 )2 + (γ2 − k2 )2 + ... + (γm − km )2 .
a

Como el E ≥ 0, puede observarse de la expresión anterior que el error de la


aproximación es mı́nimo cuando γ1 = k1 , γ2 = k2 , ..., γm = km , en cuyo caso:
Z b
E= {[f (t)]2 dt − k12 − k22 − ... − km
2
.
a

Entonces, podemos asegurar que los coeficientes de Fourier de una función f (t)
con respecto a las funciones φ1 (t), φ2 (t), ....., φm (t) de un sistema ortonormal
son aquellos para los cuales una combinación lineal de las m funciones resulta
ser la aproximación cuadrática óptima a f (t) en el intervalo.
El error cuadrático total de la aproximación, respecto de f (t) en el intervalo
fundamental es mı́nimo si y sólo si los coeficientes de dicha aproximación son
los coeficientes de Fourier de f (t):
hf (t), φn (t)i
kn = .
kφn (t)k2
CAPÍTULO 3. ANÁLISIS DE FOURIER 83

3.4. Series trigonométrica y exponencial de Fou-


rier
Como ya se mencionó, una forma de onda compleja periódica (de perı́odo T )
puede ser analizada y representada en términos de un número de funciones or-
togonales relacionadas armónicamente. La componente de la onda de frecuencia
más baja se la suele llamar frecuencia fundamental y es ω0 = 2π T . Las sucesi-
vas armónicas son las frecuencias múltiplos enteros de la frecuencia fundamental.
La expresión general de una componente armónica es fk (t) = Ak cos (kω0 t + θk ),
donde
Ak : amplitud,
kω0 : frecuencia,
θk : fase inicial
de la armónica k-ésima.
Nos ocuparemos en profundidad de 2 representaciones diferentes pero equiva-
lentes para una misma señal:

a0 X
f (t) = + an cos (nω0 t) + bn sen(nω0 t)
2 n=1

y

X
f (t) = cn ejnω0 t .
n=−∞

Ası́, la armónica k-ésima podrá representarse como

fk (t) = ak cos (kω0 t) + bk sen(kω0 t)

o
fk (t) = c−k e−jkω0 t + ck ejkω0 t .

Cuando k = 1 se tiene la primera armónica o armónica fundamental.


Una clase de señales que se puede representar mediante las series de Fourier es
la señal periódica con energı́a finita sobre un perı́odo, es decir, una señal para
la cual Z T /2
|f (t)|2 dt < ∞;
−T /2

esta condición garantiza que los coeficientes cn sean finitos.


Debido a que la mayorı́a de las señales periódicas que consideramos tienen
energı́a finita sobre un solo perı́odo, consecuentemente tienen representaciones
en series de Fourier.
Para poder ser representadas por esta serie las funciones deben cumplir las
condiciones de Dirichlet. Estas condiciones son satisfechas por prácticamente
todas las señales con las cuales trataremos, y nos garantizan que f (t) será igual
CAPÍTULO 3. ANÁLISIS DE FOURIER 84

a su representación en serie de Fourier excepto en valores aislados de t para los


cuales f (t) es discontinua.
Condiciones de Dirichlet:
Sobre cualquier perı́odo f (t) debe ser absolutamente integrable. Esto es
Z
|f (t)|dt < ∞.
T

Una señal periódica que no cumple esta condición, y por lo tanto no puede
representarse con una serie de Fourier, es la que se muestra en la siguiente
figura:
1
f (t) = ; 0 < t ≤ 1; f (t) = f (t + 1)∀t.
t

Figura 3.3: Señal no absolutamente integrable en un perı́odo.

f (t) está acotada en cualquier intervalo finito de tiempo, y no tiene más


que un número finito de máximos y mı́nimos durante cualquier perı́odo de
la señal.
Un contraejemplo de esta propiedad se muestra en la Fig. 3.4, donde se re-
presenta una función que tiene infinitos máximos y mı́nimos en un perı́odo,
y por lo tanto no tiene representación en serie de Fourier:
1
f (t) = sen( ); 0 < t ≤ 1; f (t) = f (t + 1)∀t.
t

En cualquier intervalo finito de tiempo hay sólo un número finito de dis-


continuidades. Además, cada una de estas discontinuidades debe ser finita.

Convergencia de la serie de Fourier


Teorema
Sea f ∈ Q[a, b], su serie de Fourier converge en cada punto t ∈ [−T /2, T /2] y la
suma

a0 X
S(t) = + an cos (nω0 t) + bn sen(nω0 t)
2 n=1
satisfece que:
CAPÍTULO 3. ANÁLISIS DE FOURIER 85

Figura 3.4: Señal con infinitos máximos y mı́nimos en un perı́odo.

1. Si f (t) es continua en t0 y −T /2 < t0 < T /2, entonces S(t) = f (t).



f (t+
0 )+f (t0 )
2. Si f (t) es discontinua en t0 y −T /2 < t0 < T /2, entonces S(t) = 2 .
f (−T /2+ )+f (T /2− )
3. S(−T /2) = S(T /2) = 2 .

Figura 3.5: Convergencia de la serie de Fourier.

Si una función no es periódica, pero está definida en un intervalo cerrado, en-


tonces la convergencia establecida se restringe al intervalo de definición de la
función

Serie trigonométrica de Forier


Sea Q[−T /2, T /2] , con T > 0 y ω0 = 2π/T , con B = {1, cos (nω0 t), sen(nω0 t)},
ortogonal. La suma parcial de Fourier está dada por:
m
a0 X
Sm (t) = + an cos (nω0 t) + bn sen(nω0 t),
2 n=1

y los coeficientes se deducen como sigue:

T /2
hf (t), 1i
Z
a0 1
= = f (t)dt
2 k1k2 T −T /2
CAPÍTULO 3. ANÁLISIS DE FOURIER 86

Como se ve en la ecuación anterior, el coeficiente a20 es el valor medio de la


señal.

hf (t), cos (nω0 t)i 2 T /2


Z
an = = f (t) cos (nω0 t)dt, n∈N
k cos (nω0 t)k2 T −T /2

T /2
hf (t), sen(nω0 t)i
Z
2
bn = = f (t)sen(nω0 t)dt, n∈N
ksen(nω0 t)k2 T −T /2

Como f (t) = lı́mm→∞ Sm (t), entonces



a0 X
f (t) = + an cos (nω0 t) + bn sen(nω0 t).
2 n=1

El error cuadrático medio es


m
1 T /2 a2 X a2n + b2n
Z
εm = |f (t)|2 dt − 0 − ,
T −T /2 4 n=1
2

y como lı́mm→∞ εm = 0, tenemos ası́ la identidad de Parseval para la serie


trigonométrica de Fourier:
T /2 ∞
a20 X a2n + b2n
Z
1
|f (t)|2 dt = + .
T −T /2 4 n=1
2

Obsérvese que la identidad de Parseval da una herramienta para calcular la


ponecia media de la señal a partir de los coeficientes de la serie.
Cada uno de los términos de la serie es periódico en t con perı́odo T . Cuando la
serie converge a f (t) en el intervalo fundamental (−T /2, T /2), converge a una
función periódica de perı́odo T que coincide con f en el intervalo fundamenta.
Es decir, la serie representa la extensión periódica de f para todos los valores
de t. En el caso de que f (t + T ) = f (t), la serie representa a f para cualquier
valor de t.
Sintetizando, la serie de Fourier: a) representa una función definida en el inter-
valo (−T /2, T /2) para valores de t en ese intervalo, o b) representa una función
periódica, con perı́odo T , para todos los valores de t. Evidentemente no puede
representar una función para todo valor de t si la función no es periódica.

Serie compleja o exponencial de Fourier


Sea Q[−T /2, T /2] , con T > 0 y ω0 = 2π/T , con B = {ejnω0 t }, ortogonal. La
suma parcial de Fourier está dada por:
m
X
Sm (t) = cn ejnω0 t ,
n=−m

y los coeficientes son:


CAPÍTULO 3. ANÁLISIS DE FOURIER 87

T /2
hf (t), ejnω0 t i
Z
1
cn = = f (t)e−jnω0 t dt, n ∈ Z.
kejnω0 t k2 T −T /2

Si n = 0 tendremos el coeficiente del término de frecuencia 0, que corresponde


al valor medio de la señal:
1 T /2
Z
c0 = f (t)dt.
T −T /2

Como f (t) = lı́mm→∞ Sm (t) = 0, resulta



X
Sm (t) = cn ejnω0 t ,
n=−∞

Por otro lado el error cuadrático medio de la aproximación es


m
1 T /2
Z X
εm = |f (t)|2 dt − |cn |2 ,
T −T /2 n=−m

Como lı́mm→∞ εm (t) = 0, la identidad de Parseval para la serie compleja de


Fourier es:

1 T /2
Z X
|f (t)|2 dt = |cn |2 .
T −T /2 n=−∞

Ver ejemplos en el video al final de la sección.

Relación entre los coeficientes de la serie trigonométrica y los de la exponecial


Sea f (t) real definida en t ∈ [−T /2, T /2] y el desarrollo en serie exponencial
(compleja) de Fourier es

X
f (t) = cn ejnω0 t ,
n=−∞

con ω0 = 2π/T y donde


Z T /2
1
cn = f (t)e−jnω0 t dt.
T −T /2

Entonces:
1 R T /2 a0
- Para n = 0, c0 = f (t)dt =
T −T /2 2

a0
c0 =
2

- Para n ∈ N,

1 T /2 1 T /2 1 T /2
Z Z Z
cn = f (t)e−jnω0 t dt = f (t) cos (nω0 t)dt−j f (t)sen(nω0 t)dt
T −T /2 T −T /2 T −T /2
CAPÍTULO 3. ANÁLISIS DE FOURIER 88

an bn an − jbn
cn = −j = .
2 2 2
- De manera análoga puede probarse que
an bn an + jbn
c−n = +j = .
2 2 2

Ası́ se muestra que teniendo la representación en serie trigonométrica de Fou-


rier de cierta función f (t), puede hallarse la serie exponencial sin calcular los
coeficientes por definición.
A la inversa, si se cuenta con los coeficientes de la serie exponencial puede
mostrarse que los coeficientes de la serie trigonomética son:
an = cn + c−n ,
bn = j(cn − c−n ).

Puede observarse que para una f (t) real cn = c−n .


Ejemplo Halle la serie trigonométrica de un tren de impulsos unitarios:

X
δT (t) = δ(t − nT ).
n=−∞

Solución. En primer lugar grafiquemos la función cuya serie deseamos hallar.

Figura 3.6: Tren de impulsos.

Ahora, calcularemos los coeficientes de la serie trigonométrica, observando que


la función entre −T /2 y T /2 es simplemente δ(t). Entonces:

1 T /2
Z
a0 1
= δ(t)dt = ,
2 T −T /2 T
Z T /2
2 2
an = δ(t) cos (nω0 t)dt =
T −T /2 T
y
Z T /2
2
bn = δ(t)sen(nω0 t)dt = 0.
T −T /2
CAPÍTULO 3. ANÁLISIS DE FOURIER 89

Entonces, la serie trigonométrica de Fourier de un tren de impulsos de perı́odo


T es:

1 X 2
δT (t) = + cos (nω0 t).
T n=1 T

Si se desea, también es posible hallar la serie compleja de Fourier recordando la


relación entre los coeficientes de ambas series:
an − jbn 2/T − j0 1
cn = = = ,
2 2 T
y la serie exponencial de Fourier del tren de impulsos es:

X 1 jnω0 t
δT (t) = e .
n=−∞
T

En el Apéndice C se dan algunas formas de onda usuales con sus respectivos


coeficientes complejos de Fourier.

Ejercicios
1. Hallar la serie de Fourier correspondiente a la función

 0 si −π < x ≤ 0
f (t) =
t si 0 < x ≤ π

en el intervalo (−π, π).


2. Dada la función

 A si −d/2 ≤ x ≤ d/2
f (t) =
0 si d/2 < x < 3d/2

f (t) = f (t + T ); T = 2d.
a) Graficar la función.
b) Hallar ambas series de Fourier de f (t).
c) Escribir ambas expresiones de la identidad de Parseval.
3. Verificar todas las expresiones del apéndice C.

Para ver ejemplos y explicaciones:


Series de Fourier 1: https://youtu.be/LFakeR6xXCE
CAPÍTULO 3. ANÁLISIS DE FOURIER 90

3.5. Respuesta permanente a funciones periódi-


cas
La respuesta de un sistema lineal con función H(jω) a una función de perı́odo
T es otra función de perı́odo T .
Sea un SLIT cuya respuesta al impulso es h(t). Según vimos en el capı́tulo
anterior la respuesta a una entrada x(t) es:
Z ∞
y(t) = h(τ )x(t − τ )dτ.
−∞

Si la entrada es una exponencial compleja de la forma ejωt , definida para todo


t (es decir, no es causal), la respuesta estacionaria o permanente del sistema es:
Z ∞ Z ∞
y(t) = h(τ )ejω(t−τ ) dτ = ejωt h(τ )e−jωτ dτ.
−∞ −∞

La integral resulta ser un valor complejo para cada valor de ω, y es la denomina-


da función del sistema (o respuesta en frecuencia): H(jω) (o H(ω)). Entonces,
la respuesta en régimen permanente a entradas exponenciales complejas es:

y(t) = H(jω)ejωt .

Para hallar la respuesta y(t) de un SLIT a una entrada periódica que puede
representarse por una serie de Fourier,

X
x(t) = cn ejnω0 t ,
n=−∞

utilizamos la propiedad de superposición de un SLIT.


Como para cada entrada de frecuencia nω0 la salida es H(jnω0 )ejnω0 t , entonces,
la salida para una entrada x(t) será:

X
y(t) = cn H(jnω0 )ejnω0 t ,
n=−∞

donde H(jnω0 ) es la función operacional, H(D), especializada en jnω0 .


La última ecuación nos dice que la señal de salida es una suma de exponenciales
con coeficientes dn = cn H(jnω0 ). Nótese que como H(jnω0 ) es una constante
compleja para cada valor de n, la salida es también periódica y sus coeficientes
de Fourier son dn . Por otro lado, como la frecuencia fundamental de y(t) es ω0 ,
que es también la frecuencia fundamental de x(t), los perı́odos de las dos señales
son iguales.
Por lo tanto, la respuesta de un SLIT a una entrada periódica de perı́odo T es
periódica con el mismo perı́odo.
CAPÍTULO 3. ANÁLISIS DE FOURIER 91

3.6. Simetrı́a de ondas periódicas


Recordemos que:
f (t) definida en [−T /2, T /2] es par ⇔ f (t) = f (−t)
f (t) definida en [−T /2, T /2] es impar ⇔ f (t) = −f (−t)
Además, sabemos que toda función f (t) arbitraria definida en [−T /2, T /2] puede
escribirse como la suma de una función par, fp (t), y una impar, fi (t).
Demostración.
f (t) + f (t) f (t) + f (t) + f (−t) − f (−t)
f (t) = = =
2 2
f (t) + f (−t) f (t) − f (−t)
= + .
2 2

Ahora nótese que f (t)+f


2
(−t)
es una función par y f (t)−f (−t)
2 es una función
impar. Por lo tanto
f (t) = fp (t) + fi (t).

Ejemplo.
f (t) = et = cosh (t) + senh(t), siendo cosh (t) una función par y senh(t) una
función impar.

et + e−t et − e−t
f (t) = et = cosh (t) + senh(t) = + = et .
2 2

Observar que, para f (t) y g(t) funciones definidas en [−T /2, T /2] se cumple que:
Si ambas son pares, entonces su producto es par.
Si ambas son impares, entonces su producto es par.
Si una es par y la otra es impar, entonces su producto es impar.

Influencia de la simetria de la función en la serie exponencial

Z T /2 Z T /2 Z T /2
1 −jnω0 t 1 1
cn = f (t)e dt = f (t) cos (nω0 t)dt−j f (t)sen(nω0 t)dt
T −T /2 T −T /2 T −T /2

Si f (t) es real y par,


Z T /2
f (t)sen(nω0 t)dt = 0,
−T /2

y entonces
Z T /2
1
cn = f (t) cos (nω0 t)dt ∈ R ∀n ∈ Z
T −T /2
CAPÍTULO 3. ANÁLISIS DE FOURIER 92

Si f (t) es real e impar,


Z T /2
f (t) cos (nω0 t)dt = 0,
−T /2

y entonces
Z T /2
1
cn = −j f (t)sen(nω0 t)dt es imaginario puro ∀n ∈ Z
T −T /2

Influencia de la simetria de la función en la serie trigonométrica


Si f (t) es real y par, entonces f (t) = f (−t) y
Z T /2 Z T /2
a0 1 2
= f (t)dt = f (t)dt
2 T −T /2 T 0

Z T /2 Z T /2
2 4
an = f (t) cos (nω0 t)dt = f (t) cos (nω0 t)dt
T −T /2 T 0

bn = 0
La serie trigonométrica es entonces:

a0 X
f (t) = + an cos (nω0 t).
2 n=1

Si f (t) es real e impar, entonces f (t) = −f (−t) y


a0
=0
2
an = 0
Z T /2 Z T /2
2 4
bn = f (t)sen(nω0 t)dt = f (t)sen(nω0 t)dt
T −T /2 T 0

La serie trigonométrica es entonces:



X
f (t) = bn sen(nω0 t).
n=1

Aplicación
El uso más obvio de las simetrı́as de las ondas es la simplificación en los cálculos
de los coeficientes. Pero además, nos permite hallar de manera eficiente desa-
rrollos en serie de Fourier para señales no periódicas definidas entre [0, t0 ].
Una señal cualquiera, definida en un intervalo, puede expresarse en ese intervalo
mediante diferentes series, según se proponga lo que llamaremos una extensión
par de la misma o una extensión impar.
CAPÍTULO 3. ANÁLISIS DE FOURIER 93

Se supondrá por simplicidad que el intervalo [0, t0 ] es la mitad del perı́odo de


la señal periódica que se propondrá: t0 es T /2.
Entonces f (t) ∈ [0, T /2] puede extenderse al intervalo [−T /2, 0] y dicha exten-
sión puede ser:
Par en [−T /2, T /2]:

 f (t) si 0 ≤ t ≤ T /2
fˆ(t) =
f (−t) si −T /2 ≤ t < 0

Impar en [−T /2, T /2]:




 f (t) si 0 < t ≤ T /2



fˆ(t) = 0 si t=0




−f (−t) si −T /2 ≤ t < 0

Además, por ser las extensiones funciones periódicas, fˆ(t) = fˆ(t + T ).


Debajo se muestra un ejemplo de una señal cualquiera y de dos posibles exten-
siones.

Figura 3.7: Señal definida en [0, T /2] y sus extensiones par e impar.

La serie trigonométrica de Fourier que representa a las extensiones son las ha-
lladas antes para señales con alguna simetrı́a. Pero estas series son las corres-
pondientes a las funciones periódicas fˆ(t). Para representar a la señal original
(no periódica) debe hacerse cero todo lo que está fuera del intervalo [0, T /2]:

!
a0 X
f (t) = + an cos (nω0 t) PT /2 (t − T /4) extensión par
2 n=1
o

!
X
f (t) = bn sen(nω0 t) PT /2 (t − T /4) extensión impar
n=1
CAPÍTULO 3. ANÁLISIS DE FOURIER 94

Simetrı́a de media onda


Sea f (t) definida en [−T /2, T /2], se dice que tiene simetrı́a de media onda si
f (t) = −f (t + T /2).
Gráficamente, puede verse que si la señal se desplaza medio perı́odo queda es-
pejada con la señal original con respecto al eje de abscisas. Debajo se muestra
un ejemplo.

Figura 3.8: Señal de media onda.

Propiedad: la serie de Fourier de una función periódica f (t) con simetrı́a de


media onda, contiene solamente armónicas impares.

3.7. Espectro discreto de frecuencias


Existen dos formas de representar una señal. Una es su representación temporal,
en la que la función queda definida por su expresión funcional; la otra es su
representación en frecuencias, en la que la función queda definida por su espectro
de frecuencias, que en el casp de una señal periódica es discreto.
El espectro de frecuencias de una señal nos da una idea del contenido de frecuen-
cias de la misma, es decir, qué frecuencias la componen y cuál es la amplitud y
la fase de cada una. Esta información está contenida en el espectro de amplitud
y en el espectro de fase, respectivamente.
Sea una función de perı́odo T , que puede ser representada por una serie de
Fourier

X
f (t) = cn ejnω0 t =
−∞
−j2ω0 t −jω0 t
= ... + c−2 e + c−1 e + c0 + c1 ejω0 t + c2 ej2ω0 t + ...,
que muestra la suma de armónicos de frecuencia fundamental ω0 = 2π/T .
La primera armónica o componente de frecuencia fundamental está dada por
c−1 e−jω0 t +c1 ejω0 t , la segunda armónica es c−2 e−j2ω0 t +c2 ej2ω0 t , y ası́ siguiendo.
CAPÍTULO 3. ANÁLISIS DE FOURIER 95

Puede verse en las expresiones anteriores que cada función armónica está afec-
tado por el respectivo coeficientes y, justamente, esos coeficientes son los que
componen el espectro discreto de frecuencias de la señal que, para una función
f (t) los denominaremos como Fn (nω0 ):
Z T /2
1
F (nω0 ) = f (t)e−jnω0 t dt.
T −T /2

La frecuencia ω = nω0 , con n ∈ Z, se llama frecuencia discreta. Si bien ω


puede tomar valores negativos: −2ω0 , −ω0 , ..., estos valores de frecuencia no
existen desde el punto de vista fı́sico y surgen al efectuar un modelo matemático
complejo de la descomposición espectral de una señal periódica f (t).
El espectro discreto de frecuencias de una función periódica f (t) es el conjunto
de valores: {F (nω0 ) n ∈ Z}, que es un conjunto discreto.
El conjunto de los segmentos que representan los valores de F (nω0 ) se llama
espectro de lı́nea, y la curva que une los extremos de estos segmentos, se llama
envolvente del espectro.
En general, F (nω0 ) es un número complejo, del que se conoce su módulo y su
argumento:
F (nω0 ) = |F (nω0 )|ejθ(nω0 ) .

Entonces tendremos
espectro discreto de amplitud: |F (nω0 )| y
espectro discreto de fase: θ(nω0 ).
Ejemplo 1. Se desea encontrar el espectro discreto de frecuencias y graficar el
espectro de amplitud y el de fase de la señal definida como:

0 si −π < t ≤ 0
x(t) =
t si 0<t≤π

x(t) = x(t + 2π) ∀t.


La señal en el dominio temporal se muestra en la siguiente figura:

Figura 3.9: Señal de perı́odo 2π.


CAPÍTULO 3. ANÁLISIS DE FOURIER 96

El espectro distreto de x(t) está dado por


Z π
1
X(nω0 ) = te−jnt dt.
2π 0

Operando, se obtiene:
cos (nπ) − 1 cos (nπ)
X(nω0 ) = +j n 6= 0,
2n2 π 2n
que es
1
X(nω0 ) = j n par
2n
−1 1
X(nω0 ) = −j n impar.
n2 π 2n
Además, para n = 0 tenemos el valor medio de la señal:
Z π
1 π
X(0) = tdt =
2π 0 4
Calculando la fase y la amplitud de X(nω0 ) se obtienen los espectros discretos
que se muestran debajo:

Figura 3.10: Espectros discretos de x(t).

Ejemplo 2. Sea f (t) la señal dada por la Fig. 3.11.


Los coeficientes de Fourier de su serie exponencial están dados por:
1 d/2
Z  
−jnω0 t A nω0 d
cn = Ae dt = sen ∀n ∈ Z.
T −d/2 nπ 2

Operando debidamente, se llega a que el espectro es:


   
Ad nω0 d Ad nπd
F (nω0 ) = cn = sinc = sinc ∀n ∈ Z.
T 2 T T
CAPÍTULO 3. ANÁLISIS DE FOURIER 97

Figura 3.11: Señal rectangular de perı́odo T .

Puede verse que el espectro de una señal periódica rectangular está dada por
una sinc discreta. Esto significa que los valores del espectro, a diferencia del
ejemplo anterior, son números reales positivos o negativos. Estudiemos algunos
casos particulares de valores de d y T .
d = 1/10; T = 1/2; ω0 = 4π ⇒ d/T = 1/5
En este caso el espectro es:
A  nπ 
F (nω0 ) = sinc ∀n ∈ Z.
5 5
El valor medio de la señal es F (0) = A/5.
La otra caracterı́stica importante de este espectro son los valores de fre-
cuencias en los que se hace cero. Los ceros de esta función se dan para:

= kπ ∀k ∈ Z − {0},
5
n = 5k ∀k ∈ Z − {0},

Esto significa que entre cada cero del espectro hay 5ω0 . En este caso los
ceros están en ω = nω0 = 5kω0 = 20kπ.
Como el espectro discreto está formado por números reales, es posible
graficarlo en un único gráfico como el que se muestra en la Fig. 3.12.

Figura 3.12: Espectro de una señal rectangular con relación d/T = 1/5 y fre-
cuencia fundamental ω0 = 4π.
CAPÍTULO 3. ANÁLISIS DE FOURIER 98

También puede observarse en el gráfico que el espacio entre las barras del
espectro es ω0 = 4π.
Aunque el espectro esté formado por números reales, también pueden ha-
cerse los gráficos de los espectros de amplitud y de fase. El espectro de
amplitud es sencillamente (Fig.3.13).

A  nπ 
|F (nω0 )| = sinc ∀n ∈ Z.
5 5

Figura 3.13: Espectro de amplitud de y(t) con d/T = 1/5.

En cuanto al espectro de fase, como se trata de números reales, su fase


vale 0 cuando son positivos y vale π o −π cuando son negativos. Debemos
tener en cuenta que la fase de los coeficientes es una función impar de nω0 ,
propiedad que se demostrará más adelante. Entonces, el espectro de fase
es como se muestra en la Fig. 3.14.

Figura 3.14: Espectro de fase de y(t) con d/T = 1/5.

d = 1/10; T = 1; ω0 = 2π ⇒ d/T = 1/10


El espectro es ahora:
A  nπ 
F (nω0 ) = sinc ∀n ∈ Z.
10 10
El valor medio de la señal es F (0) = A/10.
CAPÍTULO 3. ANÁLISIS DE FOURIER 99

Los ceros de esta función se dan en este caso cuando:



= kπ ∀k ∈ Z − {0},
10
n = 10k ∀k ∈ Z − {0},

Esto significa que entre cada cero del espectro hay ahora 10ω0 . Y como
ω0 = 2π, los ceros caen nuevamente en ω = nω0 = 10kω0 = 20kπ.
En el siguiente gráfico se observa cómo los ceros están en el mismo lugar,
pero las barras están más cercanas entre sı́, ya que la frecuencia de esta
señal es menor:

Figura 3.15: Espectro de una señal rectangular con relación d/T = 1/10 y
frecuencia fundamental ω0 = 2π.

3.8. Propiedades del espectro discreto


1. Simetrı́a de los espectros de amplitud y de fase.
El espectro de amplitud de una función real periódica f (t) es una función
par de nω0 y el espectro de fase es una función impar de nω0 .
Demostración
Recordamos la propiedad ya vista de los coeficientes complejos de la Serie
de Fourier: c−n = cn , lo que equivale a

F (−nω0 ) = F (nω0 )

- Aplicando módulo se tendrá:

|F (−nω0 )| = |F (nω0 )| = |F (nω0 )|,

y se ve que el espectro de amplitud es una función par.


- Al ser F (nω0 ) una función compleja, podemos expresarlo en su forma
polar, que resulta:

|F (−nω0 )|ejθ(−nω0 ) = |F (nω0 )|e−jθ(nω0 ) ,


CAPÍTULO 3. ANÁLISIS DE FOURIER 100

y como |F (−nω0 )| = |F (nω0 )|, surge inmediatamente que

θ(−nω0 ) = −θ(nω0 ).

Es decir, que el espectro de fase es impar.


2. Función trasladada en el tiempo.
Si f (t) es una función periódica real de perı́odo T y t0 ∈ R, entonces
el espectro de amplitud de f (t − t0 ) es |F (nω0 )| y el espectro de fase es
α(nω0 ) = θ(nω0 ) − nω0 t0 .
Esto significa que el espectro de amplitud de la señal retardada es el mismo
que el de la señal original y el espectro de fase se ve afectado por una fase
adicionada por el retardo.
Demostración
La señal periódica tiene una representación en serie exponencial de Fourier,
con coeficientes cn = F (nω0 ):

X
f (t) = F (nω0 )ejnω0 t .
n=−∞

La señal trasladada en el tiempo será entonces:



X ∞
X
f (t − t0 ) = F (nω0 )ejnω0 (t−t0 ) = F (nω0 )e−jnω0 t0 ejnω0 t .
n=−∞ n=−∞

Los coeficientes de la señal desplazada quedan:

F (nω0 )e−jnω0 t0 = |F (nω0 )|ejθ(nω0 ) e−jnω0 t0 = |F (nω0 )|ej(θ(nω0 )−nω0 t0 ) .

Como se pretendı́a mostrar, el espectro de amplitud no cambia y el de fase


es θ(nω0 ) − nω0 t0 .
3. Diferenciación en el tiempo.
Si f (t) es una función de perı́odo T que admite derivada seccionalmen-
te continua en [−T /2, T /2] hasta el orden k inclusive, f (k−1) (−T /2) =
f (k−1) (T /2) para k ∈ N, entonces el espectro de frecuencia discreta de
f (k) (t) estará dado por:

(jnω0 )k F (nω0 ), n ∈ Z.

Prueba
Si

X
f (t) = F (nω0 )ejnω0 t ,
n=−∞

entonces

X
0
f (t) = jnω0 F (nω0 )ejnω0 t ,
n=−∞
CAPÍTULO 3. ANÁLISIS DE FOURIER 101

y el espectro de la derivada primera es jnω0 F (nω0 ).


La prueba de esta propiedad se completa por inducción, haciendo las de-
rivadas sucesivas de f (t), de modo que:

X
f (k) (t) = (jnω0 )k F (nω0 )ejnω0 t ,
n=−∞

y el espectro de la derivada k-ésima de f (t) es (jnω0 )k F (nω0 ).


4. Integración en el tiempo.
Rt
Sea f (t) una función de perı́odo T , continua, y sea g(t) = −∞
f (λ)dλ.
Entonces g(t) es una función periódica de perı́odo T si y sólo si
Z T /2
f (t)dt = 0,
−T /2

es decir, f (t) tiene valor medio cero.


El espectro de frecuencias discretas de g(t) es:
 F (nω )
 jnω0
 0
si n 6= 0
G(nω0 ) =
 G(0) = 1 R T /2 g(t)dt

si n=0
T −T /2

5. Desplazamiento en frecuencia.
Sea f (t) una función periódica de perı́odo T y a ∈ R, entonces la función
g(t) = ejaω0 t f (t)
es periódica de perı́odo T y su espectro de frecuencia discreta es:
G(nω0 ) = F (nω0 − aω0 ) = F ((n − a)ω0 ), n ∈ Z.

6. Convolución en frecuencia.
Si f (t) y g(t) son funciones periódicas de perı́odo T y h(t) = f (t)g(t) es
una función de perı́odo T > 0, entonces el espectro de frecuencia discreta
de h(t) es:

X
H(nω0 ) = F (nω0 ) ∗ G(nω0 ) = F (kω0 )G((n − k)ω0 ), n ∈ Z.
k=−∞

7. Convolución en el tiempo.
Si f (t) y g(t) son funciones periódicas de perı́odo T , pertenecientes al
Q[−T /2, T /2], entonces la función
1 T /2
Z
h(t) = f (τ )g(t − τ )dτ
T −T /2
es continua en (−T /2, T /2), es periódica de perı́odo T y su espectro de
frecuencias discreta es:
H(nω0 ) = F (nω0 )G(nω0 ).
CAPÍTULO 3. ANÁLISIS DE FOURIER 102

3.9. Espectro de potencia


Recordemos que la potencia media asociada a una señal periódica, f (t), se define
como:
1 T /2
Z
Pm = |f (t)|2 dt,
T −T /2
expresión que permite calcular la potencia media de una señal en el dominio del
tiempo.
Calcularemos ahora la potencia de una señal operando en el dominio de la
frecuencia. Recordemos que cuando se expresa a una señal f (t) por su serie de
Fourier se cumple la identidad de Parseval. Para hacer consistente la simbologı́a
con la del espectro discreto llamaremos a los coeficientes de Fourier cn = Fn .
Ya se vio la identidad de Parseval:

1 T /2
Z X
2
|f (t)| dt = |Fn |2 .
T −T /2 n=−∞

La sumatoria puede escribirse también como:



X −1
X ∞
X
|Fn |2 = |Fn |2 + |F0 |2 + |Fn |2 =
n=−∞ n=−∞ n=1


X ∞
X
|F− n|2 + |F0 |2 + |Fn |2 .
n=1 n=1

Luego, recordando que si f (t) es real, |F− n| = |Fn |, entonces la potencia media
de la señal puede expresarse en el dominio de la frecuencia como:
Z T /2 ∞
1 X
|f (t)|2 dt = |F0 |2 + 2 |Fn |2 .
T −T /2 n=1

Esta ecuación indica que la potencia media total de f (t) se puede calcular su-
mando todas potencias medias asociadas a cada componente de frecuencia nω0
de f (t).
El conjunto de las potencias de las componentes, |Fn |2 , como función de nω0 se
llama
 espectro de potencia de f (t). O sea, el espectro de potencia de f (t)
es |Fn |2 n ∈ Z .
Al igual que con el espectro de frecuencia discreta de una señal de perı́odo T ,
aquı́ también tenemos el espectro de lı́nea de potencia media de f (t) y la curva
de ecuación η = |F (ω)|2 es la envolvente del espectro de potencia media.

Ejercicio
Para una señal rectangular como la del Ejemplo 2, con d = 1/40 y T = 1/8, se
pide:
1. Hallar analı́tica y gráficamente el espectro de potencia media, e indicar el
correspondiente espectro discreto y su envolvente.
CAPÍTULO 3. ANÁLISIS DE FOURIER 103

2. ¿Qué porcentaje de la potencia total está contenida hasta el primer cruce


en cero de la envolvente del espectro de f (t)? ¿Y hasta el cuarto?
3. Calcule el error cuadrático medio entre la señal exacta y su aproximación
con una serie de Fourier truncada.

Para ver ejemplos y explicaciones:


Series de Fourier 2: https://youtu.be/iRVRK-TzSJc

3.10. Transformada de Fourier


Se vio que una señal periódica puede considerarse como la descomposición de
una señal en componentes de frecuencias armónicas. El espectro de dicha señal
es discreto y toma valores para las frecuencias múltiplos de la frecuencia funda-
mental.
Vamos a suponer ahora que el perı́odo T de la señal aumenta, lo que significa que
la frecuencia fundamental se hace más pequeña y, por lo tanto, el espacio entre
los valores del espectro de frecuencias también disminuye. Luego, en el lı́mite
cuando T → ∞ la señal deja de ser periódica, ω0 = 2π/T → 0 y el espectro de
la señal pasa a ser una función continua de ω. Esta situación se ilustra en la
siguiente figura.

Figura 3.16

El espectro de la señal no periódica es la ransformada de Fourier de esa función


que se denota: F{f (t)}.
La transformada de Fourier es una de las técnicas de procesamiento de señales
más usadas. Es una transformación matemática que sirve para encontrar la
representación frecuencial de una señal a partir de su representación temporal.
Una vez en el dominio frecuencial, es posible analizar el contenido de frecuencia
de la señal, es decir, la proporción relativa de las diferentes frecuencias presentes
en la misma.
CAPÍTULO 3. ANÁLISIS DE FOURIER 104

La transformación está dada por la siguiente integral:


Z ∞
F{f (t)} = F (ω) = f (t)e−jωt dt.
−∞

Ası́mismo, si se tiene la transformada de Fourier de cierta función, puede hallarse


esa función mediante la transformada inversa de Fourier:
Z ∞
−1 1
F {F (ω)} = f (t) = F (ω)ejωt dω.
2π −∞

Esta última expresión puede interpretarse como una suma continua de expo-
nenciales complejas, ejωt . Y las funciones f (t) y F (ω) forman lo que se llama
un par transformado, que se representa mediante la notación

f (t) ←→ F (ω).

Ası́ como F (nω0 ) es el espectro discreto de frecuencias de una función periódica,


F (ω) es el espectro continuo de frecuencias de una función no periódica. En
general, F (ω) será una función compleja de la variable real ω y, por lo tanto, se
puede escribir como:
F (ω) = |F (ω)|ejθ(ω) ,
donde |F (ω)| es el espectro de amplitud, y θ(ω) es el espectro de fase de f (t).
Puede utilizarse también la forma trigonométrica de la integral de Fourier:
Z ∞ Z ∞
F (ω) = f (t) cos (ωt)dt − j f (t)sen(ωt)dt,
−∞ −∞

donde claramente se aprecian la parte real y la parte imaginaria de F (ω).

Teorema de la integral de Fourier


No todas las funciones se pueden desarrollar en suma continua de exponenciales
complejas ejωt .
Si f (t) definida en −∞ < t < ∞ cumple con las condiciones de Dirichlet, es
decir,
1. en todo intervalo
es acotada,
tiene un número finito de máximos y mı́nimos,
tiene un número finito de discontinuidades y
2. es absolutamente integrable en R, es decir:
Z ∞
|f (t)|dt < ∞,
−∞
CAPÍTULO 3. ANÁLISIS DE FOURIER 105

entonces, la transformada de Fourier existe y es única, y también existe su


transformada inversa:
F −1 {F{f (t)}} = f (t),
siendo F y F −1 operadores lineales.

Demostración
Z ∞ Z ∞Z ∞
1 1
F −1 {F{f (t)}} = F (ω)ejωt dω = f (x)e−jωx dxejωt dω =

−∞ 2π −∞ −∞
Z ∞Z ∞ Z ∞ Z ∞
1 1
= f (x)e−jω(x−t) dxdω = f (x) e−jω(x−t) dωdx =
2π −∞ −∞ 2π −∞ −∞
Z ∞
1 e−jΩ(x−t) − ejΩ(x−t)
= f (x) lı́m dx =
2π −∞ Ω→∞ −j(x − t)
Z ∞
1
f (x) lı́m 2Ωsinc (Ω(x − t)) dx.
2π −∞ Ω→∞

Como el área de la función sinc es igual a π

lı́m Ωsinc (Ω(x − t)) = πδ(t − x)


Ω→∞

y entonces
Z ∞
1
F −1 {F{f (t)}} = f (x)2πδ(x − t)dx = f (t).
2π −∞

Observar que las condiciones de Dirichlet son condiciones suficientes, pero no


necesarias. Muchas señales útiles no cumplen estas condiciones, como las señales
de potencia, y sin embargo se pueden analizar mediante la transformada de
Fourier, como se verá más adelante.

3.11. Transformada de algunas señales sencillas


Ahora se considerarán varios ejemplos de transformadas de Fourier de señales
de energı́a sencillas a fin de dar una idea de cómo obtener el espectro continuo
de frecuencia para una función f (t).
Transformada de Fourier de un pulso rectangular.
Vamos a estudiar esta transformada resolviendo un ejemplo.
Para la señal f (t) = Pa (t) de la figura 3.17:
1. Calcular y graficar el espectro de frecuencia continua.
2. Determinar el espectro de amplitud y el de fase y dibujarlos.
3. Determinar la representación integral de Fourier de Pa (t).
4. Expresar en forma trigonométrica la integral anterior y calcular su
valor para t = 0.
CAPÍTULO 3. ANÁLISIS DE FOURIER 106

Figura 3.17: Pulso rectangular de ancho a

La función pulso rectangular que se muestra tiene una ecuación dada por:

 1 si |t| ≤ a/2
f (t) = Pa (t) =
0 otros t

Solución
1) Su transformada, o espectro continuo de frecuencia F (ω), está dada por
la transformada de Fourier de Pa (t).
Z a/2
e−jωa/2 − ejωa/2 2  aω 
F (ω) = e−jωt dt = = sen ,
−a/2 −jω ω 2
que puede escribirse como
 aω 
F (ω) = a sinc .
2

Figura 3.18: Espectro del pulso rectangular de ancho a

Obsérvese que por ser el espectro una función real de ω puede verse en
un único gráfico. Si fuese una función compleja tendrı́a que mostrarse el
CAPÍTULO 3. ANÁLISIS DE FOURIER 107

espectro de amplitud y el espectro de fase, como se pide en el próximo


inciso.
2) Ası́, el espectro de amplitud es:
 aω 
|F (ω)| = a sinc ,
2

y el espectro de fase:


 0 si F (ω) > 0



θ(ω) = π si F (ω) < 0, ω > 0




−π si F (ω) < 0, ω < 0

El gráfico de estos espectros muestra la misma información que el de la


Fig.3.18.

Figura 3.19: Espectros de amplitud y de fase del pulso rectangular de ancho a

3) La representación integral de esta función temporal se obtiene mediante


la transformada inversa de Fourier y es:
Z ∞
1  aω 
Pa (t) = a sinc ejωt dω.
2π −∞ 2

4) Si representamos la expresión anterior en su forma trigonométrica ten-


dremos:
Z ∞ Z ∞
1  aω  1  aω 
Pa (t) = a sinc cos ωtdω + j a sinc sen(ωt)dω.
2π −∞ 2 2π −∞ 2
Como la función sinc es par, la segunda integral se hace cero. Y especia-
lizando en t = 0 se llega a:
Z ∞
a  aω 
Pa (t = 0) = sinc dω.
2π −∞ 2
CAPÍTULO 3. ANÁLISIS DE FOURIER 108

Puede probarse que la integral de esa sinc da 2π/a, con lo que se muestra
que
Pa (t = 0) = 1.

Empleando este par transformado se puede ilustrar una propiedad muy


general de la transformada de Fourier.
Como se vio en secciones anteriores, la mayor parte de la energı́a de la señal
(potencia para el caso periódico) está contenida en las bajas frecuencias.
En el caso del espectro del pulso rectangular puede observarse lo que hay
hasta el primer cruce por cero, que ocurre a una frecuencia ω = 2π a . Si
disminuye el ancho a del pulso, el primer cruce en cero se desplaza a una
frecuencia mayor. Por el contrario, si aumenta el ancho a del pulso el
primer cruce en cero se acerca al origen.
Esta es una propiedad general de todos los pares de transformada tiempo-
frecuencia. Mientras menor sea la duración de una señal de tiempo, más
extenso será su espectro y viceversa. Este análisis se ampliará cuando se
traten las propiedades de la transformada.
Transformadas de Fourier de un pulso exponencial
Como se ha visto, la función exponencial se emplea frecuentemente en el
análisis de sistemas lineales.
Sea, f (t) = Ae−at us (t), Re(a) > 0.

Figura 3.20: Pulso exponencial decreciente (exponente real)

Su transformada de Fourier se deduce aplicando la definición:


Z ∞ Z ∞
−at −jωt
F (ω) = Ae e dt = A e−(a+jω)t dt,
0 0

A
F (ω) = .
a + jω
CAPÍTULO 3. ANÁLISIS DE FOURIER 109

Los espectros de amplitud y de fase de esta señal son, respectivamente:


A  ω
|F (ω)| = √ ; θ(ω) = arctan − ,
a + ω2
2 a

que se grafican debajo:

Figura 3.21: Espectros de amplitud y de fase del pulso exponencial

Transformada de pulso triangular


Un pulso triangular tiene una expresión analı́tica dada por:
(  
A 1 − |t|b si |t| ≤ b
T2b (t) =
0 si |t| > b

Ejercicio
1. Grafique la señal en el dominio temporal.
2. Demuestre que el espectro continuo de frecuencias es Absinc2 (ωb/2).
3. Grafique el espectro encontrado y analice algunas de sus caracterı́sti-
cas.

3.12. Transformada de Fourier de funciones ab-


solutamente integrables
Si además de ser absolutamente integrable f (t) es real, entonces pueden anali-
zarse varias caracterı́sticas de la transformada de Fourier dada por la expresión:
Z ∞
F{f (t)} = F (ω) = f (t)e−jωt dt.
−∞
R∞
1. F (0) = −∞
f (t)dt representa el área delimitada por la función.
CAPÍTULO 3. ANÁLISIS DE FOURIER 110

2. La transformada también puede expresarse en forma cartesiana:

F{f (t)} = R(ω) + jX(ω).


R∞
R(ω) = −∞
f (t) cos (ωt)dt es una función par.
Demostración
R∞ R∞
R(−ω) = −∞ f (t) cos (−ωt)dt = −∞ f (t) cos (ωt)dt = R(ω), por ser el
coseno una función par.

R∞
X(ω) = − −∞
f (t)sen(ωt)dt es una función impar.
Demostración
R∞ R∞
X(−ω) = − −∞ f (t)sen(−ωt)dt = −∞ f (t)sen(ωt)dt = −X(ω), por ser
el seno una función impar.
3. F (−ω) = F (ω)
Demostración
A partir de lo que se demostró en 2.:

F (−ω) = R(−ω) + jX(−ω) = R(ω) − jX(ω) = F (ω).

4. El espectro de amplitud |F (ω)| es una función par de ω.


Demostración
p p
|F (−ω)| = (R(−ω))2 + (X(−ω))2 = (R(ω))2 + (−X(ω))2 =
p
= (R(ω))2 + X((ω))2 = |F (ω)|

El espectro de fase θ(ω) es una función impar de ω.


Demostración
X(−ω) −X(ω) X(ω)
θ(−ω) = arctan = arctan = − arctan = −θ(ω)
R(−ω) R(ω) R(ω)

5. La fórmula de inversión puede desarrollarse en todos los casos de la forma


Z ∞ Z ∞
1 jωt 1
f (t) = F (ω)e dω = (R(ω)+jX(ω))(cos (ωt)+jsen(ωt))dω.
2π −∞ 2π −∞

La expresión anterior puede separarse en sus partes real e imaginaria:


Z ∞
1
Re(f (t)) = R(ω) cos (ωt) − X(ω)sen(ωt)dω,
2π −∞
Z ∞
1
Im(f (t)) = R(ω)sen(ωt) + X(ω) cos (ωt)dω.
2π −∞
CAPÍTULO 3. ANÁLISIS DE FOURIER 111

Obviamente, ya que se están estudiando funciones reales, la parte imagi-


naria debe valer cero. Esto es evidente en la segunda expresión anterior,
que se anula debido a que el integrando es impar.
Entonces, la expresión integral para una función real de t puede escribirse
simplemente:

1 ∞ 1 ∞
Z Z
f (t) = R(ω) cos (ωt)dω − X(ω)sen(ωt)dω.
π 0 π 0

6. Si f (t) es real y par de t, resultará que:


Z ∞
X(ω) = f (t)sen(ωt)dt = 0,
−∞

y entonces Z ∞
F (ω) = 2 f (t) cos (ωt)dt, ∈ R.
0
Y, de acuerdo a lo visto en 5.:
Z ∞
1
f (t) = R(ω) cos (ωt)dω.
π 0

La propiedad recı́proca también es cierta: si la transformada de Fourier es


real, entonces f (t) es par.
7. Si f (t) es real e impar de t, resultará que:
Z ∞
R(ω) = f (t) cos (ωt)dt = 0,
−∞

y entonces Z ∞
F (ω) = −2j f (t)sen(ωt)dt, ∈ Imag.
0
Y, de acuerdo a lo visto en 5.:
Z ∞
1
f (t) = − X(ω)sen(ωt)dω.
π 0

La propiedad recı́proca también es cierta: si la transformada de Fourier es


imaginaria, entonces f (t) es impar.

3.13. Propiedades de la transformada de Fourier


Como ya se ha dicho, la transformada de Fourier es otro método de represen-
tación de una función f (t). Tanto la descripción temporal como la descripción
en frecuencia son útiles en ingenierı́a porque a menudo alguna de ellas es más
fácil de emplear en una aplicación particular o es más intuitiva en determinado
problema. Por supuesto, la elección depende de cada caso.
La transformación entre los dos dominios es relativamente directa empleando las
definiciones. Sin embargo, es útil estudiar el efecto que se produce en uno de los
CAPÍTULO 3. ANÁLISIS DE FOURIER 112

dominios al operar en el otro. Esto no sólo permite pasar de un dominio a otro,


sino también observar ciertos aspectos fı́sicos básicos de la señal y del sistema,
que de otra manera no se observarı́an (como la relación inversa entre el tiempo de
duración y el ancho del espectro o ancho de banda). Ası́, se podrı́a preguntar,
por ejemplo, ¿cuál es la relación entre la transformadas de una función del
tiempo y su integral? ¿Qué le sucede a la transformada inversa de una función
en el dominio de la frecuencia si esta se traslada en frecuencia? En esta sección
se da respuesta a este tipo de preguntas, analizando algunas propiedades de la
transformada de Fourier.
1. Linealidad
La transformada de Fourier es una operación lineal. Es decir, si

f1 (t) ←→ F1 (ω)

y
f2 (t) ←→ F2 (ω),
entonces
af1 (t) + bf2 (t) ←→ aF1 (ω) + bF1 (ω).

La comprobación de la ecuación anterior es inmediata, ya que las trans-


formadas son integrales y la integración es una operación lineal.
2. Simetrı́a o dualidad
Observemos las ecuaciones de f (t) y de su transformada F (ω):
Z ∞
F (ω) = f (t)e−jωt dt;
−∞
Z ∞
1
f (t) = F (ω)ejωt dω.
2π −∞

Es evidente su simetrı́a respecto a las variables t y ω. Esta simetrı́a se


puede emplear provechosamente para ampliar la tabla de pares de trans-
formadas:
f (t) ←→ F (ω)
F (t) ←→ 2πf (−ω)

Prueba
En Z ∞
1
f (t) = F (ω)ejωt dω
2π −∞

reemplacemos ω por ω 0 y escribamos la expresión de f (−t):


Z ∞
1 0
f (−t) = F (ω 0 )e−jω t dω 0 .
2π −∞
Cambiando luego el nombre de la variable t por ω podemos poner:
Z ∞
0
2πf (−ω) = F (ω 0 )e−jω ω dω 0 .
−∞
CAPÍTULO 3. ANÁLISIS DE FOURIER 113

Por último, cambiamos ω 0 por t y llegamos a la expresión buscada:


Z ∞
2πf (−ω) = F (t)e−jωt dt = F{F (t)}.
−∞

3. Escala
f (t) ←→ F (ω)
1 ω
f (at) ←→ F
|a| a

Prueba:
Z ∞ Z ∞
−jωt dτ
F{f (at)} = f (at)e dt = f (τ )e−jωτ /a ,
−∞ −∞ a

donde se hizo la sustitución at = τ (dt = dτ /a).


- a > 0 entonces a = |a| y la integral anterior queda simplemente
Z ∞
1 ω 1
F{f (at)} = f (τ )e−j a τ dτ = F (ω/a).
|a| −∞ |a|

- a < 0 entonces a = −|a| y, además se invierten los lı́mites de integración:


Z −∞
1 ω
F{f (at)} = − f (τ )e−j a τ dτ.
|a| ∞

Si se invierten nuevamente los lı́mites de la integral queda finalmente la


misma expresión que para a > 0:
Z ∞
1 ω 1
F{f (at)} = f (τ )e−j a τ dτ = F (ω/a).
|a| −∞ |a|

Observe que la propiedad de escala cuantifica la relación tiempo de dura-


ción-ancho de banda entre una función de tiempo y su transformada. Si
|a| > 1 entonces f (at) es la función f (t) con una escala de tiempo redu-
cida en un factor a. De la misma manera, F (ω/a) representa la función
F (ω) con una escala de frecuencia expandida por el factor a. En cam-
bio, si |a| < 1 entonces f (at) representa una expansión de f (t) y F (ω/a)
representa una compresión de F (ω).
Ası́, cuando se reduce el tiempo de duración de una señal se aumenta
la distribución de su espectro de frecuencia. Al comprimir el tiempo de
duración de una señal se producen transiciones mas rápidas y por lo tanto
se requieren componentes de alta frecuencia en el espectro (mayor ancho
de banda). De igual modo, al aumentar el tiempo de duración de la señal
las transiciones se producen en intervalos mayores, lo que se puede lograr
con componentes de frecuencia menor en el espectro.
4. Convolución en el tiempo
La convolución es una caracterización muy importante de la relación entrada-
salida de los sistemas lineales invariantes en el tiempo, pero no siempre
CAPÍTULO 3. ANÁLISIS DE FOURIER 114

es fácil de resolver. El dominio de la trasformada proporciona un método


conveniente para relacionar la salida con la entrada del sistema sin realizar
esta operación.
Si x(t) ←→ X(ω) y h(t) ←→ H(ω), entonces

y(t) = x(t) ∗ h(t) ←→ Y (ω) = X(ω)H(ω).

Demostración
Z ∞ Z ∞ Z ∞
Y (ω) = y(t)e−jωt dt = x(τ )h(t − τ )dτ e−jωt dt
−∞ −∞ −∞
Z ∞ Z ∞ Z ∞ Z ∞
= x(τ ) h(t − τ )e−jωt dtdτ = x(τ ) h(λ)e−jω(λ+τ ) dλdτ
−∞ −∞ −∞ −∞
Z ∞ Z ∞ Z ∞
−jωλ −jωτ
= x(τ ) h(λ)e dλe dτ = x(τ )H(ω)e−jωτ dτ =
−∞ −∞ −∞
Z ∞
= H(ω) x(τ )e−jωτ dτ = H(ω)X(ω).
−∞

5. Convolución en frecuencia
Si x(t) ←→ X(ω) y g(t) ←→ G(ω), entonces
1
x(t)G(t) ←→ X(ω) ∗ G(ω).

La demostración es similar a la anterior y se parte de la transformada


inversa de X(ω) ∗ G(ω).
6. Desplazamiento en el tiempo

f (t) ←→ F (ω)
f (t − t0 ) ←→ F (ω)e−jt0 ω

Prueba
Z ∞
F{f (t − t0 )} = f (t − t0 )e−jωt dt,
−∞

que haciendo x = t − t0 se puede reescribir como


Z ∞ Z ∞
F{f (t − t0 )} = f (x)e−jω(x+t0 ) dx = e−jt0 ω f (x)e−jωx dx
−∞ −∞

F{f (t − t0 )} = e−jt0 ω F (ω)

La función f (t − t0 ) representa a f (t) retardada t0 segundos. La propie-


dad establece que el espectro original esta multiplicado por e−jt0 ω .Esta
CAPÍTULO 3. ANÁLISIS DE FOURIER 115

multiplicación no afecta al espectro de amplitud. Sin embargo, cada com-


ponente de frecuencia esta desplazada en fase una cantidad −ωt0 . Esto es
lógico, ya que el desplazamiento t0 en el tiempo corresponde a un cambio
de fase de −ωt0 para una componente de frecuencia de ω rad/s.
Ejemplo
Volvamos al pulso exponencial estudiado en la sección 3.11:
A
Ae−at us (t) ←→ = |F (ω)|ejθ(ω) ,
a + jω
donde el espectro de amplitud es
A
|F (ω)| = √ ,
a2+ ω2
y el espectro de fase, ω
θ(ω) = − arctan .
a
Si se desplaza el pulso una cantidad t0 tendremos el siguiente par trans-
formado:
A
Ae−a(t−t0 ) us (t − t0 ) ←→ e−jt0 ω .
a + jω
Si escribimos el espectro en forma polar:
A
e−jt0 ω = |F (ω)|ejθ(ω) e−jt0 ω = |F (ω)|ej(θ(ω)−t0 ω) ,
a + jω
se ve claramente que el espectro de amplitud no se modifica y que el
nuevo espectro de fase es (θ(ω) − t0 ω). En el siguiente gráfico se muestran
el espectro original, la fase adicional y el nuevo espectro de fase.

Figura 3.22: Espectro de fase del pulso exponencial (original y desplazado)

7. Desplazamiento en frecuencia (modulación)


La traslación o desplazamiento en frecuencia es una operación importante
en sistemas de comunicación. Si
f (t) ←→ F (ω)
CAPÍTULO 3. ANÁLISIS DE FOURIER 116

f (t)ejω0 t ←→ F (ω − ω0 )

Prueba Z ∞
F{f (t)e jω0 t
}= f (t)ejω0 t e−jωt dt =
−∞
Z ∞
= f (t)e−j(ω−ω0 )t dt = F (ω − ω0 ).
−∞

8. Diferenciación en el tiempo
Si
f (t) ←→ F (ω)

dn f (t)
←→ (jω)n F (ω)
dtn
Demostración: partiendo de la fórmula de inversión se deriva con respecto a
t ambos miembros de la ecuación. El procedimiento se repite y la propiedad
se demuestra por inducción.
9. Diferenciación en frecuencia
Si
f (t) ←→ F (ω)

dn F (ω)
(−jt)n f (t) ←→
dω n
Demostración: es similar a la de la propiedad 8., pero se parte de la fórmula
de la transformada y se llega, también por inducción, derivando ambos
miembros con respecto a ω.
10. Integración
Si f (t) y g(t) son dos funciones que tienen transformada de Fourier y,
además, Z t
g(t) = f (t)dt,
−∞

la transformada de Fourier de g(t) es:

F (ω)
G(ω) = + πF (0)δ(ω)

11. Integración restringida


Si en el caso anterior f (t) tiene valor medio nulo (F (0) = 0), se tendrá el
par transformado
F (ω)
g(t) ←→ G(ω) = .

Este caso se denomina de integración restringida porque puede aplicarse
únicamente cuando la señal integrando tiene valor medio cero.
CAPÍTULO 3. ANÁLISIS DE FOURIER 117

3.14. Espectro de energı́a


Cuando se trabajó con funciones periódicas, se demostró que la potencia en el
tiempo se puede asociar con la potencia contenida en cada componente armóni-
ca de la señal. Es posible aplicar estos resultados a las señales no periódicas
representadas por sus transformada de Fourier. La energı́a de las señales abso-
lutamente integrables en el intervalo (−∞, ∞) es finita, mientras que la potencia
(energı́a por unidad de tiempo) en el mismo intervalo es cero. Ası́, el concepto
de espectro de energı́a, en vez de espectro de potencia, es más útil para el caso
de señales de energı́a no periódicas.
La energı́a asociada a f (t), función real de t, se define como:
Z ∞
E= f 2 (t)dt.
−∞

Si usamos la representación integral de f (t) tendremos:


Z ∞ Z ∞ Z ∞ Z ∞
1 1
E= f (t) F (ω)ejωt dωdt = F (ω) f (t)ejωt dtdω =
−∞ 2π −∞ 2π −∞ −∞
Z ∞ Z ∞
1 1
= F (ω)F (−ω)dω = F (ω)F (ω)dω.
2π −∞ 2π −∞

Como f (t) es real, ya se vió que F (−ω) = F (ω). Luego F (ω)F (ω) = |F (ω)|2 y
se tiene la relación de Parseval para señales de energı́a:
Z ∞ Z ∞
1
E= f 2 (t)dt = |F (ω)|2 dω.
−∞ 2π −∞

La relación de Parseval expresa la energı́a de f (t) en términos de su espectro


continuo de frecuencia, la que resulta igual al área bajo la curva de la función

|F (ω)|2
.

Esta es una función par y real de ω, por lo cual puede escribirse la integral dos
veces entre cero e infinito, con lo que resulta:
Z ∞ Z ∞
1 2
E= |F (ω)| dω = S(ω)dω.
π 0 0

Ası́ queda definida la densidad espectral de energı́a:

|F (ω)|2
S(ω) = ω ≥ 0,
π
que permite calcular la cantidad de energı́a comprendida en un cierto rango de
frecuencias.
Cuando se analizaron las funciones periódicas se asoció cierta cantidad de po-
tencia con cada armónica. En el caso de las señales de energı́a, se asocia la
CAPÍTULO 3. ANÁLISIS DE FOURIER 118

energı́a con bandas continuas de frecuencia. La energı́a contenida en la banda


de frecuencia (ω1 , ω2 ) es simplemente el área bajo S(ω) comprendida entre ω1
y ω2 .
Ejemplo
Supongamos la función f (t) = e−2|t| , real y par. Por tabla podemos ver que su
4
espectro es F (ω) = 4+ω 2 . La densidad espectral de energı́a es para esta señal:

|F (ω)|2 1 16
S(ω) = = .
π π (4 + ω 2 )2

Supongamos que queremos saber cuál es la energı́a que aportan las frecuencias
comprendidas entre ω1 = 2 rad/s y ω2 = 3 rad/s. Entonces, debemos resolver
la integral: Z 3
1 16
Eb = 2 2
dω.
2 π (4 + ω )
2
En el gráfico siguiente se muestran la señal y su transformada, la función |F (ω)|

y la densidad espectral de energı́a. También se señala la banda de frecuencias
cuya energı́a se desea calcular, energı́a que está dada por el área bajo la función
comprendida entre ω1 = 2 rad/s y ω2 = 3 rad/s.

Figura 3.23: Energı́a de señales no periódicas.

Para ver ejemplos y explicaciones:


Transformada de Fourier 1: https://youtu.be/laP0HYVO5N8

3.15. Transmisión de señales a través de filtros


lineales (SLIT)
Después del estudio de las propiedades de la transformada de Fourier estamos
en condiciones de analizar algunas otras caracterı́sticas de los sistemas lineales
CAPÍTULO 3. ANÁLISIS DE FOURIER 119

e invariantes en el tiempo en el dominio frecuencial.


1. Llamando X(ω) a la transformada de Fourier de la entrada del sistema,
e Y (ω) a la transformada de Fourier de la salida del sistema, entonces la
función del sistema se puede escribir como:
Y (ω)
H(D = jω) = ,
X(ω)
para X(ω) 6= 0.
2. Además, para sistemas estables, ya que h(t) es una señal de energı́a, será
también cierto que

H(D = jω) = H(ω) = F{h(t)}

La prueba es directa a partir de la relación ya deducida en el dominio


temporal, y(t) = x(t) ∗ h(t).
3. Haciendo uso de la transformada de Fourier es posible probar que un
sistema modelado por una ecuación diferencial donde los coeficientes son
constantes y no nulos, es invariable con respecto al tiempo. Partiendo de
la siguiente ecuación:
dn y(t) dn−1 y(t) dy(t)
an n
+ an−1 + ... + a1 + a0 y(t) =
dt dtn−1 dt
dm x(t) dm−1 x(t) dx(t)
= bm m
+ am−1 + ... + b1 + b0 x(t),
dt dtm−1 dt
supongamos t0 ∈ R arbitrario pero fijo y, además, y(t) es la respuesta del
sistema a la entrada x(t), e y1 (t) es la respuesta del sistema a la entrada
x(t − t0 ). Resulta entonces que:

dn y1 (t) dn−1 y1 (t)


an + an−1 + ... + a0 y1 (t) =
dtn dtn−1
dm x(t − t0 ) dm−1 x(t − t0 )
= bm + am−1 + ... + b0 x(t − t0 ).
dtm dtm−1
Si se aplica transformada de Fourier a ambos miembros de la igualdad
resulta:

an (jω)n Y1 (ω) + an−1 (jω)n−1 Y1 (ω) + ... + a0 Y1 (ω) =

= bm (jω)m X(ω)e−jt0 ω + am−1 (jω)m−1 X(ω)e−jt0 ω + ... + b0 X(ω)e−jt0 ω


(an (jω)n + an−1 (jω)n−1 + ... + a0 )Y1 (ω) =
= (bm (jω)m + am−1 (jω)m−1 + ... + b0 )X(ω)e−jt0 ω .
Y utilizando la forma operacional para los polinomios en jω, se puede
escribir:
An (jω)Y1 (ω) = Bm (jω)X(ω)e−jt0 ω .
La transformada de la salida cuando la entrada está desplazada es:
Bm (jω)
Y1 (ω) = X(ω)e−jt0 ω = H(jω)X(ω)e−jt0 ω .
An (jω)
CAPÍTULO 3. ANÁLISIS DE FOURIER 120

Como H(jω)X(ω) = Y (ω),

Y1 (ω) = Y (ω)e−jt0 ω

y haciendo la transformada inversa tendremos que:

y1 (t) = y(t − t0 ),

es decir, una entrada desplazada genera la misma salida que la señal sin
desplazar, pero desplazada.
4. Relación entre la densidad espectral de energı́a de la entrada y la salida
de un sistema. La densidad espectral de energı́a de la salida del sistema
es:
|Y (ω)|2
Sy (ω) = , ω ≥ 0.
π
Si la ponemos en función de la transformada de la entrada tendremos:
|H(ω)X(ω)|2
Sy (ω) = = |H(ω)|2 Sx (ω), ω ≥ 0.
π

3.16. Transformada de Fourier de funciones no


absolutamente integrables
Señales como la función escalón, la función signo, y funciones periódicas, cum-
plen con las condiciones de Dirichlet, salvo la de absoluta integrabilidad. Estas
señales son de potencia ya que su energı́a no es finita, pero su potencia sı́ lo es.
La caracterı́stica de las señales de potencia es que la transformada de Fourier
presenta, en general, funciones impulso. Y siempre es cierto que si la señal
tiene funciones impulsos en el dominio transformado, entonces es una señal de
potencia.
Transformadas de Fourier donde aparece la función impulso
* En el dominio temporal

f (t) = δ(t − t0 )

Calculando la transformada por definición:


Z ∞
F (ω) = δ(t − t0 )e−jωt dt = e−jωt0 ,
−∞

entonces tendremos el par transformado

δ(t − t0 ) ←→ e−jωt0 ,

y para el caso particular en que t0 = 0

δ(t) ←→ 1.

* En el dominio de la frecuencia

F (ω) = δ(ω − ω0 ).
CAPÍTULO 3. ANÁLISIS DE FOURIER 121

La transformada inversa es
Z ∞
1 1 jω0 t
f (t) = δ(ω − ω0 )ejωt dt = e .
2π −∞ 2π

El par transformado queda entonces

ejω0 t ←→ 2πδ(ω − ω0 ),

que para ω0 = 0 se reduce a

1 ←→ 2πδ(ω).

Transformadas de Fourier de señales que contienen funciones sinusoidales


Comenzaremos por analizar las transformadas de Fourier de las funciones
seno y coseno:

cos (ω0 t) ←→ π[δ(ω + ω0 ) + δ(ω − ω0 )]

sen(ω0 t) ←→ jπ[δ(ω + ω0 ) − δ(ω − ω0 )]


Más sencillo que demostrar estas reclaciones haciendo la transformada de
las funciones temporales es hacer la transformada inversa:
Z ∞
1 ejω0 t + e−jω0 t
π[δ(ω − ω0 ) + δ(ω + ω0 )]ejωt dω = = cos (ω0 t);
2π −∞ 2

e−jω0 t + ejω0 t
Z
1
jπ[δ(ω + ω0 ) − δ(ω − ω0 )]ejωt dω = j = sen(ω0 t).
2π −∞ 2

Las expresiones anteriores constituyen la base matemática necesaria para


comprender la modulación. Por ejemplo, la multiplicación de una función
del tiempo f (t) (señal moduladora) por una sinusoide, cos (ω0 t) (portado-
ra), implica un corrimiento en frecuencia del espectro de la moduladora:
1
F{f (t) cos (ω0 t)} = F (ω) ∗ π[δ(ω + ω0 ) + δ(ω − ω0 )].

Luego, por propiedades de la función impulso:
1
F{f (t) cos (ω0 t)} = [F (ω + ω0 ) + F (ω − ω0 )],
2
entonces, el espectro de la señal modulada será proporcional al espectro de
la moduladora desplazado a (con centro en) la frecuencia de la portadora.
Función signo
La función signo se define como:

 −1 si t<0
f (t) = Sgn(t) = 0 si t=0
1 si t>0

CAPÍTULO 3. ANÁLISIS DE FOURIER 122

Como en este caso la función tiene valor medio cero, puede usarse la di-
ferenciación en t para calcular la transformada. La derivada de la función
signo es
df (t)
= 2δ(t) = g(t).
dt
Luego, por la propiedad de derivación sabemos que
 
df (t)
F = jωF (ω) = G(ω),
dt
que en este caso es
jωF (ω) = G(ω) = 2.
Por lo tanto, la transformada de la función signo es
2
F (ω) = .

Sin embargo, no necesariamente la integración y la derivación son opera-


ciones inversas, y cuando se hace el pasaje de jω a dividir a G(ω) se está
dando por sentado que f (t) es la integral de g(t), sin tener en cuenta el
valor medio. Esto es cierto en el caso de la función Sgn, pero no es algo
que pueda generalizarse.
Aplicar esta propiedad es posible porque la función que se deriva tiene
valor medio nulo. De no ser ası́, recordemos que por la propiedad de inte-
gración,
G(ω)
F (ω) = + kπδ(ω),

donde k es el valor medio de la función de g(t).
Para seguir analizando esto, calcule utilizando este mismo procedimiento
la transformada de un escalón de alto 2 y compare con lo que se obtiene
transformando por tabla.
Función escalón unitario
El escalón unitario puede escribirse en términos de la función Sgn:
1
us (t) = (1 + Sgn(t)),
2
y la transformada puede hallarse por tabla y usando la transformada de
la función signo que se calculó antes:
 
1 2
F{us (t)} = 2πδ(ω) + .
2 jω

El par transformado es entonces:


1
us (t) ←→ πδ(ω) + .

CAPÍTULO 3. ANÁLISIS DE FOURIER 123

Transformadas de Fourier de Funciones periódicas


Las funciones periódicas se pueden representar empleando una suma de
exponenciales complejas, y ya que se puede obtener la transformada de
exponenciales complejas, entonces cualquier función periódica se puede
representar utilizando la integral de Fourier.
Supóngase que f (t) es periódica con periodo T . Entonces, f (t) puede ex-
presarse en términos de una serie de Fourier como:

X
f (t) = Fn ejnω0 t
n=−∞

Por lo tanto, la transformada de Fourier de la seña periódica es:


( ∞ ) ∞
X X
jnω0 t
Fn F ejnω0 t

F{f (t)} = F Fn e =
n=−∞ n=−∞

X
F{f (t)} = 2π Fn δ(ω − nω0 ).
n=−∞

La ecuación anterios establece que la transformada de Fourier de una


función periódica está formada por impulsos localizados en las frecuencias
armónicas de f (t). Es decir, el espectro de la señal periódica no es un
espectro continuo.
El área asociada a cada impulso es igual a 2π veces el coeficiente de Fourier
obtenido por medio de la serie exponencial de Fourier. Dicha ecuación no
es más que otra representación de la información contenida en la serie
exponencial de Fourier.
Además, observemos que será posible escribir una relación entre los
coeficientes de la serie exponencial de Fourier de una señal pe-
riódica y la transformada de Fourier del pulso correspondiente
a un perı́odo.
El coeficiente de la serie de Fourier de una señal perı́odica se calcula como
1 T /2
Z
Fn = f (t)e−jnω0 t dt.
T −T /2
Por otro lado, si se aisla un perı́odo de la señal periódica se tendrá una
señal de energı́a fT (t), cuya transformada de Fourier es
Z T /2
FT (ω) = f (t)e−jωt dt.
−T /2

Luego, de comparar ambas expresiones surge la relación mencionada antes:


1
Fn = FT (ω)
T ω=nω0

que permite calcular los coeficientes de la serie exponencial a partir de la


transformada de un perı́odo de la señal.
CAPÍTULO 3. ANÁLISIS DE FOURIER 124

3.17. Transformadas de Fourier seno y coseno


Siendo f (t) causal se definen dos nuevas transformadas.
Transformada de Fourier coseno
Z ∞
Fc (ω) = Fc {f (t)} = f (t) cos (ωt)dt; ∀ω,
0
y su transformada inversa:
Z ∞
2
f (t) = Fc (ω) cos (ωt)dω; t ≥ 0
π −∞

Transformada de Fourier seno


Z ∞
Fs (ω) = Fs {f (t)} = f (t)sen(ωt)dt; ∀ω,
0
y su transformada inversa:
Z ∞
2
f (t) = Fs (ω)sen(ωt)dω; t ≥ 0
π −∞

Pueden probarse las siguientes relaciones:


1. La transformada de Fourier de una señal causal es

F (ω) = Fc (ω) − jFs (ω)

2. Para funciones no causales:


a) Si f (t) es par F (ω) = 2Fc (ω)
b) Si f (t) es impar F (ω) = −2jFs (ω)

Para ver ejemplos y explicaciones:


Transformada de Fourier 2: https://youtu.be/s7XFaj4Dvco
Capı́tulo 4

Transformada de Laplace

4.1. Introducción
La transformada de Laplace es una de las transformadas más importantes en
el análisis de sistemas lineales. Se la utiliza para descomponer una señal en la
suma continua de funciones exponenciales de la forma est , donde s = σ + jω es
una frecuencia compleja. La misma ofrece ventajas interesantes.
El análisis de la respuesta a entradas arbitrarias de sistemas fı́sicos que pue-
dan considerarse lineales e invariantes en tiempo continuo (SLIT) involucra la
solución de ecuaciones diferenciales ordinarias o, si se conoce la respuesta al
impulso del sistema, la evaluación de la integral de convolución entre la en-
trada y la respuesta al impulso. Estas técnicas de análisis suelen implicar la
realización de tediosas operaciones matemáticas aún para el caso de señales de
entrada relativamente simples. El uso de la Transformada de Laplace simplifica
considerablemente la solución del problema ya que convierte las ecuaciones dife-
renciales ordinarias en ecuaciones algebraicas en las transformadas, y la integral
de convolución en un producto de transformadas.
Otra ventaja del uso de la Transformada de Laplace para el análisis de SLIT
es que posibilita la obtención de la respuesta total (respuesta libre + respuesta
forzada), y que permite incluir automáticamente las condiciones iniciales en la
solución del problema.
Esta transformada, como la de Fourier, también ofrece transformada inversa:

f (t) ←→ F (s)
Z ∞
F (s) = L{f (t)} = f (t)e−st dt
0
Z C+j∞
1
f (t) = L−1 {F (s)} = F (s)est ds
2πj C−j∞

125
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 126

4.2. Transformada unilateral de Laplace


Sea f (t) una función definida para la variable t real en (−∞, ∞), tal que f (t) = 0
para t < 0. La aplicación L que a cada función f (t) le asigna la función
Z ∞
F (s) = L{f (t)} = f (t)e−st dt,
0

se llama Transformación de Laplace Unilateral.


s es el número complejo, s = σ + jω, llamado frecuencia compleja.
σ = Re(s) se llama atenuación;
ω = Im(s) es la frecuencia.
F (s) es una función compleja de la variable compleja s, y sus componentes real
e imaginaria son, respectivamente, R(σ, ω) y X(σ, ω):

F (s) = R(σ, ω) + jX(σ, ω).

Región de convergencia (RC)


La transformada de Laplace existe si la función f (t) es de orden exponencial, es
decir, si existen números reales M , σ y T para los cuales

|f (t)| < M eσt , ∀t > T.

Otra forma de escribir la misma condición es:

lı́m |f (t)e−σt | = 0.
t→∞

El mı́nimo valor de σ para el cual se verifica esta condición se denomina abscisa


de convergencia, σc .
R∞
Con esta condición, podrá afirmarse que la integral 0 f (t)e−st dt converge en
la región
Re(s) > σc ,
que se denomina Región de Convergencia (RC).

Figura 4.1: RC de la transformada unilateral de Laplace de f (t) de orden expo-


nencial.
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 127

Se ve que la región de convergencia es un semiplano en el plano s:

RC : {s ∈ C/Re(s) > σc , σc ∈ R}

Podrı́a definirse a la RC como el conjunto de valores de s para los cuales la


integral de la transformada de Laplace puede ser evaluada.

Condiciones suficientes para la existencia de la transformada de Laplace


Sea f una función definida en (−∞, ∞), tal que f (t) = 0 para t < 0 y cumple
que:
es seccionalmente continua y
es de orden exponencial σ,
R∞
entonces, la transformada de Laplace es F (s) = 0
f (t)e−st dt, pues f (t)e−st es
absolutamente convergente para {Re(s) > σc }.
Algunas observaciones:
1. f (t)/|f (t)| ≤ K/t > 0 es una función de orden exponencial cero. Por lo
tanto, sen(ωt) y cos (ωt) son funciones de orden exponencial cero.
2.  3
et si t≥0
f (t) =
0 si t<0
no es de orden exponencial y, por consiguiente, no tiene transformada de
Laplace. Es condición necesaria que la función sea de orden exponencial.
3.
t−1/2

si t≥0
f (t) =
0 si t<0
no es integrable en cada intervalo [0, T ] y no cumple la primera condición
del teorema de existencia y sin embargo tiene transformada de Laplace.

Cálculo de la transformada de algunas funciones especiales


1. Función exponencial
f (t) = eat us (t), con a ∈ R.

∞ ∞ L
e−(s−a)t
Z Z
F (s) = eat e−st dt = e−(s−a)t dt = lı́m .
0 0 L→∞ −(s − a) 0
Si se escribe la exponencial separando su esponente real de su exponente
imaginaro, se tiene:
L
e−(σ−a)t e−jωt e−(σ−a)L e−jωL 1
F (s) = lı́m = lı́m − ,
L→∞ −(s − a) 0
L→∞ −(s − a) −(s − a)
y se ve que la integral converge, es decir, la transformada de la Laplace
existe si σ > a (y entonces la exponencial e−(σ−a) L se hace cero cuando
L → ∞).
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 128

Entonces,
1
L{e−at us (t)} = ,
s−a
converge para Re(s) > a.
Analice como se modificarı́a lo anterior si a fuese imaginario y si fuese
complejo.
2. Función escalón unitario
f (t) = us (t).
Z ∞ L L
e−st e−σt e−jωt e−σL e−jωL 1
F (s) = e−st dt = lı́m = lı́m = lı́m + .
0 L→∞ −s L→∞ −s L→∞ −s s
0 0

En este caso la integral converge para Re(s) > 0 y la transformada del


escalón unitario es
1
L{us (t)} = .
s
3. Función impulso unitario
f (t) = δ(t). Z ∞
F (s) = δ(t)e−st dt = e−st t=0
= 1,
0
y converge en todo el plano. Ası́ se obtiene el par transformado
L{δ(t)} = 1.

4. Función rampa unitaria


f (t) = r(t). Z ∞
F (s) = te−st dt.
0
Para resolver esta integral puede hacerse la sustitución u = −st, y enton-
ces, dt = − 1s ds. Ası́, se tendrá:
−∞
1 −∞ u
Z
1
F (s) = 2 ue du = 2 eu (u − 1) =
s 0 s 0
 
1 L
= 2 lı́m e (L − 1) − (−1) .
s L→−∞
Además,
L1
lı́m eL (L − 1) = lı́m eL L − lı́m eL = lı́m − − 0,
L→−∞ L→−∞ L→−∞ L1 →∞ eL 1
que por regla de L’Hôpital queda
1
lı́m − =0
L1 →∞ eL 1
Entonces, para esta función se tiene el par transformado
1
L{r(t)} = ,
s2
que converge para Re(s) > 0.
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 129

Relación entre la transformada unilateral de Laplace y la


transformada de Fourier
Sea f (t) causal. Entonces,
Z ∞ Z ∞
L{f (t)} = f (t)e−st dt = f (t)e−st dt =
0 −∞
Z ∞ Z ∞
= f (t)e−(σ+jω)t dt = f (t)e−σt e−jωt dt = F{f (t)e−σt }
−∞ −∞

4.3. Propiedades
1. Linealidad
Si f1 (t) y f2 (t) son funciones que admiten transformada de Laplace, y a
y b son constantes reales o complejas, entonces resulta que:

L{af1 (t) + bf2 (t)} = aL{f1 (t)} + bL{f2 (t)},

y la región de convergencia es la intersección de las regiones de convergen-


cia de cada una de las transformadas de Laplace de f1 (t) y de f2 (t).
Demostración
Z ∞
L{af1 (t) + bf2 (t)} = (af1 (t) + bf2 (t))e−st dt =
0
Z ∞ Z ∞
=a f1 (t)e−st + b f2 (t)e−st dt = aL{f1 (t)} + bL{f2 (t)}.
0 0

Ejemplo
Hallar la transformada de Laplace de f (t) = cosh (at)us (t).
El coseno hiperbólico puede escribirse como

eat + e−at
cosh (at) =
2
y entonces, la transformada del coseno hiperbólico puede calcularse como
 
1 1 1 1 1 s
F (s) = L{eat } + L{e−at } = + = 2 ,
2 2 2 s−a s+a s − a2

que converge para Re(s) > a, con a > 0.


Ejercicio
Usando esta propiedad hallar las transformadas de Laplace de las funciones
sen(at)us (t) y cos (at)us (t). Verificar los resultados que se muestran en la
tabla.
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 130

2. Cambio de escala

1 s
L{f (at)} =
F ,
a a
RC: Re(s) > aσf , con a > 0 y σf la abscisa de convergencia de F (s).
Demostración Z ∞
L{f (at)} = f (at)e−st dt.
0
Haciendo la sustitución τ = at, queda

1 ∞
Z
s 1 s
L{f (at)} = f (τ )e− a τ dτ = F .
a 0 a a

3. Traslación en t
Sea t0 una constante real positiva,

L{f (t − t0 )us (t − t0 )} = e−t0 s F (s).

Demostración
Z ∞
L{f (t − t0 )us (t − t0 )} = f (t − t0 )us (t − t0 )e−st dt,
0

que haciendo t0 = t − t0 queda


Z ∞
0
L{f (t − t0 )us (t − t0 )} = f (t0 )us (t0 )e−s(t +t0 ) dt0 =
−t0
Z ∞ Z ∞
0 0
f (t0 )e−s(t +t0 ) dt0 = e−st0 f (t0 )e−st dt0 = e−t0 s F (s).
0 0

La región de convergencia es la misma que la de F (s).


4. Traslación en s.
L{eat f (t)} = F (s − a),
con RC: Re(s) > σf + a.
Demostración
Como Z ∞
F (s) = f (t)e−st dt,
0
entonces
Z ∞ Z ∞
−(s−a)t
F (s − a) = f (t)e dt = f (t)eat e−st dt = L{eat f (t)}.
0 0

5. Convolución en t
Sean f (t) y g(t) funciones causales. Se sabe que la convolución entre ellas
Rt
es f (t) ∗ g(t) = 0 f (τ )g(t − τ )dτ .
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 131

La transformada de Laplace de la convolución entre dos funciones es:

L{f (t) ∗ g(t)} = F (s)G(s),

RC: al menos la intersección de las regiones de convergencia de F (s) y de


G(s).
Prueba
Como las funciones son causales podemos escribir:
Z ∞Z ∞
L{f (t) ∗ g(t)} = f (τ )us (τ )g(t − τ )us (t − τ )dτ e−st dt =
0 −∞
Z ∞ Z ∞
= f (τ )g(t − τ )us (t − τ )dτ e−st dt =
0 0
Z ∞ Z ∞
= f (τ ) g(t − τ )us (t − τ )e−st dtdτ =
0 0
Z ∞ Z ∞
= f (τ ) g(x)e−s(x+τ ) dxdτ =
0 0
Z ∞ Z ∞
= f (τ )e−sτ dτ g(x)e−sx dx = F (s)G(s).
0 0

6. Diferenciación en t

L{f (n) (t)} = sn F (s) − sn−1 f (0) − sn−2 f 0 (0) − ... − f (n−1) (0).

Prueba
Para la derivada de primer orden,
Z ∞
df (t) −st
L{f 0 (t)} = e dt,
0 dt

que se resuelve por partes con u = e−st y dv = dfdt(t) dt, con du = −se−st dt
y v = f (t). Entonces, queda:
Z ∞

L{f 0 (t)} = f (t)e−st 0 + s f (t)e−st dt
0

= lı́m f (L)e−Ls − f (0) + sF (s).


L→∞

Como existe F (s), sabemos que lı́mL→∞ f (L)e−Ls = 0 y entonces

L{f 0 (t)} = sF (s) − f (0).

Para la derivada de segundo orden es:

L{f 00 (t)} = sL{f 0 (t)} − f 0 (0) = s [sF (s) − f (0)] − f 0 (0)

L{f 00 (t)} = s2 F (s) − sf (0) − f 0 (0).


El caso general se obtiene aplicando en forma repetida el proceso anterior.
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 132

Esta propiedad de la transformada unilateral de Laplace proporciona un


método muy conveniente para resolver problemas de transitorios en siste-
mas lineales, ya que las condiciones iniciales de un sistema se incorporan
con facilidad a las soluciones.
Debe recalcarse que si f (t) y sus derivadas no fuesen continuas en t =
0, entonces la propiedad de derivación vale también, pero evaluando las
condiciones iniciales en 0+ .
7. Integración en t

Z t 
F (s)
L f (x)dx =
0 s
A pesar de estar estudiando la transformada unilateral de Laplace, que se
aplica a funciones causales, también podemos mostrar que
Z t 
F (s) kf
L f (x)dx = + ,
−∞ s s

donde, por definición: Z 0


kf = f (x)dx
−∞

Comprobación
a) Por definición
Z t  Z ∞ Z t
L f (x)dx = f (x)dxe−st dt.
0 0 0
Rt
Se resuelve por parte, con u = 0 f (x)dx y dv = e−st dt, y entonces
−st
du = f (t)dt y v = e−s . Por lo tanto, queda:

t t ∞ ∞
e−st
Z  Z Z
1
L f (x)dx =− f (x)dx + f (t)e−st dt =
0 s 0 0 s 0
!
Z 0 Z L
1 0 −Ls F (s)
= e f (x)dx − lı́m e f (x)dx + .
s 0 L→∞ 0 s
El primer término de la expresión anterior es cero porque, para
Re(s) > 0, la exponencial es cero en el lı́mite superior, ya que
Rt
0
f (x)dx puede probarse que es también una función de orden ex-
ponencial. También en el lı́mite inferior la integral es cero. Entonces
Z t 
1 F (s) F (s)
L f (x)dx = (0 − 0) + =
0 s s s

en al menos la región dada por la intersección entre la RC de F (s) y


Re(s) > 0.
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 133

Rt
b) Cuando se quiere encontrar la transformada de −∞
f (x)dx se tiene:
Z t  Z 0  Z t 
L f (x)dx =L f (x)dx + L f (x)dx .
−∞ −∞ 0
R0
Como por definición kf = −∞
f (x)dx, entonces
Z t 
F (s)
L f (x)dx = L {kf } + .
−∞ s

Y como kf es un valor constante,


Z t 
kf F (s)
L f (x)dx = + .
−∞ s s

Obsérvese que kf es el valor acumulado por la función f (t) hasta


t = 0, por los que esta propiedad también nos permite incorpo-
rar las condiciones iniciales en la resolución de ecuaciones integro-
diferenciales.
Ejercicio de aplicación. Encuentre la corriente que se establece en un
circuito RLC si en t = 0 la carga del capacitor es q0 , la corriente en
la bobina es i0 y la tensión que se aplica es V (t). (Ver resolución en
el video)
8. Diferenciación en s
Sea f (t) una función tal que (−t)k f (t)e−at es absolutamente integrable
para k = 0, 1, ..., n con a en la región de convergencia de F (s). Entonces:

dk F (s)
L (−t)k f (t) =

,
dsk
con RC igual a la de F (s)

Analiticidad de F (s)
Si e−σt f (t) es absolutamente integrable, F (s) = L{f (t)}, con t ≥ 0, es analı́tica
en la región del plano Re(s) > σ y lı́ms→∞ F (s) = 0 para Re(s) ≥ σ.
F (s) es analı́tica en su región de convergencia.

Transformada de Laplace de funciones periódicas


Consideremos una señal periódica tal que f (t) = f (t + T ), ∀t. Esta señal puede
expresarse también como

X
f (t) = fn (t),
n=1

con fn (t) = f1 (t − (n − 1)T ) y f1 (t) es el pulso que se repite como se muestra


en la Fig. 4.2.
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 134

Figura 4.2: Función periódica.

Se tendrá entonces:
∞ ∞
( )
X X
F (s) = L{f (t)} = L fn (t) = L {fn (t)}
n=1 n=1

X
F (s) = Fn (s).
n=1
Además,
Fn (s) = L{fn (t)} = L{f1 (t − (n − 1)T )} = F1 (s)e−(n−1)T s .
Entonces:

X ∞
X ∞
X
F (s) = F1 (s)e−(n−1)T s = F1 (s)e−nT s = F1 (s) e−nT s .
n=1 n=0 n=0

Recordando la expresión para el desarrollo de la serie geométrica:



1 X
= αn ,
1 − α n=0

la transformada de Laplace de una función periódica puede calcularse como:


1
F (s) = F1 (s) ,
1 − e−st
donde F1 (s) es la transformada de Laplace del primer perı́odo de la función
f (t).
Ejemplo. Hallar la transformada de Laplace de un tren de impulsos de perı́odo
T = 5, dado por la expresión:

X
f (t) = δ(t − 5n).
n=0

En este caso, f1 (t) = δ(t) y entonces F1 (s) = 1. Ası́


(∞ )
X 1
L δ(t − 5n) = F (s) = .
n=0
1 − e−5s
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 135

4.4. Teoremas del valor inicial y del valor final


Los teoremas del valor inicial y del valor final permiten, determinar los valores
de f (t = 0+ ) y f (t → ∞) a partir de F (s), sin necesidad de volver al dominio
temporal.

Teorema del valor inicial


Sea f (t) una función que admite transformada de Laplace, y además existen el
lı́m f (t) y lı́m sF (s). Entonces,
t→0 s→∞

lı́m f (t) = lı́m sF (s).


t→0 s→∞

Demostración
La propiedad de diferenciación en el tiempo establece que
Z ∞
L{f 0 (t)} = f 0 (t)e−st dt = sF (s) − f (0).
0

Aplicando lı́mite a dicha igualdad se tiene:


Z ∞
lı́m f 0 (t)e−st dt = lı́m (sF (s) − f (0))
s→∞ 0 s→∞

0 = lı́m sF (s) − f (0)


s→∞

lı́m sF (s) = f (0).


s→∞

La demostración anterior es estrictamente cierta siempre que f (t) sea continua


en el origen, y por lo tanto f 0 (t) sea un valor finito.
Sin embargo la expresión se modifica cuando f (t) es discontinua en el origen,
en cuyo caso
lı́m sF (s) = f (0+ )
s→∞

Demostración
Si f (t) es discontinua en el origen, entonces f 0 (t) contiene un impulso de peso
f (0+ ) − f (0− ). Es decir, en el origen f 0 (t) = [f (0+ ) − f (0− )]δ(t). La pregunta
que surge es, entonces, cómo considerar el lı́mite inferior en la integral, si en
t = 0+ o en t = 0− .
Tomando t = 0− como lı́mite inferior de integración:
Z ∞
lı́m f 0 (t)e−st dt = lı́m (sF (s) − f (0− ))
s→∞ 0− s→∞

Z 0+ Z ∞
lı́m [f (0+ ) − f (0− )]δ(t)e−st dt + lı́m f 0 (t)e−st dt =
s→∞ 0− s→∞ 0+

= lı́m (sF (s) − f (0− ))


s→∞
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 136

La primera de las integrales se resuelve usando propiedades de la delta, y


en el lı́mite cuando s → ∞, la segunda integral da cero.

[f (0+ ) − f (0− )] + 0 = lı́m sF (s) − f (0− ),


s→∞

de donde sale
lı́m sF (s) = f (0+ )
s→∞

Tomando t = 0+ como lı́mite inferior de integración se tiene directamente:


Z ∞
lı́m f 0 (t)e−st dt = lı́m (sF (s) − f (0+ ))
s→∞ 0+ s→∞

0 = lı́m sF (s) − f (0+ )


s→∞

De donde también sale

lı́m sF (s) = f (0+ )


s→∞

Teorema del valor final


Sean f (t) y su derivada f 0 (t) funciones que admiten transformada de Laplace,
y además existen el lı́m f (t) y lı́m sF (s). Entonces,
t→∞ s→0

lı́m f (t) = lı́m sF (s).


t→∞ s→0

Demostración
Se parte nuevamente de transformada de f 0 (t)
Z ∞
L{f 0 (t)} = f 0 (t)e−st dt = sF (s) − f (0)
0

y se toma el lı́mite cuando s → 0:


Z ∞
lı́m f 0 (t)e−st dt = lı́m (sF (s) − f (0))
s→0 0 s→0
Z ∞
f 0 (t)dt = lı́m sF (s) − f (0)
0 s→0

lı́m f (t) − f (0) = lı́m sF (s) − f (0).


t→∞ s→0

Ası́ queda demostrado que

lı́m f (t) = lı́m sF (s).


t→∞ s→0

Para ver ejemplos y explicaciones:


Transformada de Laplace 1: https://youtu.be/w5ARqLnemZw
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 137

4.5. Transformada inversa de Laplace


La transformada de Laplace es una operación matemática que permite expresar
prácticamente cualquier señal continua en el tiempo mediante una suma de
exponenciales complejas de la forma Kest .
Sea f (t) una función causal, la fórmula de inversión es:
Z C+j∞
1
f (t) = F (s)est ds,
2πj C−j∞

con C en la región de convergencia de F (s).


Existen varios métodos prácticos para calcular la transformada inversa de La-
place.
1. Fórmula de inversión compleja
Puede demostrarse que la integral de lı́nea a lo largo de la lı́nea σ = C
es igual a la integral a lo largo de una curva cerrada C0 como la gra-
ficada abajo, en sentido anti-horario. La región encerrada por C0 es un
semicı́rculo de radio infinito.

Figura 4.3: Camino de integración para transformada inversa.

Como C está dentro de la región de convergencia de F (s), todos los polos


de la función F (s)est quedan encerrados por el camino de integración C0
y la transformada inversa puede calcularse aplicando el teorema de los
residuos:

I n
1 st
X
f (t) = F (s)e ds = Ress=sk F (s)esk t ,
2πj C0 k=1
st
con sk los polos de F (s)e .
Raramente usaremos esta expresión para calcular en la práctica una trans-
formada inversa. Generalmente, el procedimiento que se utilizará consistirá
en manipular la expresión de la transformada dada hasta obtener formas
de transformadas que aparecen en la tabla.
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 138

El siguiente método es apropiado para eso y es, quizá, el método más


usado debido a su versatilidad.
2. Descomposición en suma de fracciones simples
Este método se aplica para transformadas que son funciones racionales en
s, es decir, razones de polinomios en s cuya forma general es:

b0 + b1 s + b2 s2 + ... + bm sm
F (s) = .
a0 + a1 s + a2 s2 + ... + an sn

Se supone m < n. Si éste no es el caso, F (s) siempre se puede escribir como


la suma de un polinomio de grado m − n, más una razón de polinomios
con un numerador un grado menor que el grado del denominador.
Las funciones racionales se pueden expresar como suma de fracciones más
simples para las cuales se tiene tabulada su transformada inversa, y para
obtener el desarrollo en fracciones simples deben obtenerse los polos de
F (s).
Polos reales simples
La función tiene n polos p1 , p2 , ..., pn , entonces se puede descomponer
en la suma de n fracciones simples:

b0 + b1 s + b2 s2 + ... + bm sm c1 c2 cn
F (s) = = + +...+ ,
an (s − p1 )(s − p2 )...(s − pn ) s − p1 s − p2 s − pn

y una de la forma de obtener los coeficientes es:

ck = (s − pk ) F (s)|s=pk ,

con k = 1, 2, ..., n.
Polos reales múltiples
El desarrollo debe incluir, para cada polo múltiple, tantos términos
como la multiplicidad del polo. Por ejemplo, si el polo pi tiene mul-
tiplicidad r, se incluyen por ese polo los términos:
c1 c2 cr
+ + ... + .
s − pi (s − pi )2 (s − pi )r

Polos complejos
Las ecuaciones anteriores son válidas también para polos comple-
jos. Sin embargo, cuando se tienen polos complejos conjugados como
pc1,2 = α±jβ, por cada par complejo conjugado se tendrá un término
de la forma:
c1 s + c2
(s − α)2 + β 2 .
Las constantes del numerador se resuelven, generalmente, planteando
un sistema de ecuaciones de dos incógnitas.
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 139

3. Fórmula del desarrollo de Heaviside


Sean P (s) y Q(s) polinomios tales que gr(P (s)) < gr(Q(s)), y Q(s) solo
tiene raı́ces simples. Entonces, la transformada inversa de Laplace unila-
P (s)
teral de la función F (s) = Q(s) es

n
X P (pk ) −pk t
f (t) = e ,
Q0 (pk )
k=1

donde pk son las raı́ces simples de Q(s).


4. Inversión para señales periódicas
Se vio que la transformada de Laplace, F (s), de una función periódica se
daba en función de la transformada de su primer perı́odo, F1 (s):
1
F (s) = F1 (s) .
1 − e−sT
Se estudiará la transformada inversa a partir del siguiente ejemplo.
Suponga que la transformada de Laplace de cierta f (t) está dada por

1 − e−5s
F (s) = .
s(1 − e−10s )

Se pide hallar f (t).


De la forma del denominador se deduce que f (t) es periódica de perı́odo
T = 10. Y además, puede verse que
1
F1 (s) = (1 − e−5s ),
s
cuya transformada inversa es un escalón unitario menos otro escalón uni-
tario desplazado 5 unidades de tiempo:

f1 (t) = us (t) − us (t − 5),

es decir, f (t) es un pulso rectangular de ancho 5 y altura 1 que se repite


cada 10 unidades de tiempo:

X
f (t) = us (t − 10n) − us (t − 5 − 10n).
n=0

4.6. Resolución de ecuaciones diferenciales


Las ecuaciones diferenciales lineales ordinarias con coeficientes constantes pue-
den reducirse a ecuaciones algebraicas en el dominio transformado.
Sea la ecuación diferencial

an y (n) (t) + an−1 y (n−1) (t) + ... + a1 y 0 (t) + a0 y(t) = x(t),


CAPÍTULO 4. TRANSFORMADA DE LAPLACE 140

donde se conocen los coeficientes y la función x(t). Se aplica la transformada de


Laplace a ambos miembros de la ecuación:

L{an y (n) (t) + an−1 y (n−1) + ... + a1 y 0 (t) + a0 y(t)} = L{x(t)}

an (sn Y (s)−sn−1 y(0)−...−y (n−1) (0))+an−1 (sn−1 Y (s)−sn−2 y(0)−...−y (n−2) (0))+...
... + a1 (sY (s) − y(0)) + a0 Y (s) = X(s).
Agrupando por un lado los términos del primer miembro que involucran a la
función Y (s) y, por otro lado a los que contienen condiciones iniciales, se tendrá:

(an sn + an−1 sn−1 + ... + a1 s + a0 )Y (s) − (an sn−1 + an−1 sn−2 + ... + a1 )y(0)−

−(an sn−2 + an−1 sn−3 + ... + a2 )y 0 (0) − ... − an y (n−1) (0) = X(s).
Si se agrupan todos los términos que incluyen condiciones iniciales como C(s),
se tendrá:

(an sn + an−1 sn−1 + ... + a1 s + a0 )Y (s) − C(s) = X(s),

y en la expresión final de Y (s) puede distinguirse claramente la parte que de-


pende de la función de excitación de la que depende de las condiciones iniciales:

X(s) C(s)
Y (s) = + .
an sn + an−1 sn−1 + ... + a1 s + a0 an sn + an−1 sn−1 + ... + a1 s + a0

4.7. Función de transferencia


En forma análoga a lo que se hizo con transformada de Fourier, se puede trabajar
con el caso más general de la transformada de Laplace. Consideremos un SLIT
cuya entrada es una señal genérica x(t), y su respuesta una señal y(t). Si se
aplica la transformada de Laplace a la ecuación diferencial ordinaria que modela
el sistema, y considerando que el sistema tiene condiciones iniciales
nulas, se obtendrá una igualdad en el dominio transformado dada por:

(an sn + an−1 sn−1 + ...a1 s + a0 )Y (s) = (bm sm + am−1 sm−1 + ...b1 s + b0 )X(s).

Utilizando la forma operacional para los polinomios en s, se puede escribir:

An (s)Y (s) = Bm (s)X(s),

y entonces
Bm (s)
Y (s) = X(s) = H(s)X(s).
An (s)
Bm (s) Y (s)
H(s) = =
An (s) X(s)
es la función de transferencia del sistema, una función racional que re-
presenta la relación entrada-salida en el dominio s, obtenida cuando el sistema
tiene condiciones iniciales nulas.
Si la entrada que se aplica al sistema es de la forma es0 t , la salida será: H(s0 )es0 t .
La demostración es totalmente análoga a la hecha para las funciones ejω0 t , caso
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 141

que está incluido en el anterior, ya que son equivalentes con σ0 = 0. Todo esto
es cierto para todo s del plano complejo.
Además, la función de transferencia se puede encontrar haciendo la transforma-
da de Laplace de la respuesta al impulso del sistema, y entonces, para el caso
de sistemas causales será:
H(s) = L{h(t)}.

Relación entre la función de transferencia y la respuesta en frecuencia


Considere un SLIT causal con respuesta al impulso h(t). Es fácil verificar que
si el sistema es estable (h(t) es aboslutamente integrable), la relación entre la
función del sistema y la función de transferencia está dada por:

H(ω) = H(s)|s=jω

La relación anterior se cumple para toda señal, no solamente para h(t). Luego,
para una señal cualquiera x(t), podrá afirmarse que:

X(ω) = X(s)|s=jω

solo si x(t) es absolutamente integrable.


Respuesta transitoria y de estado estacionario
Los conceptos de respuesta transitoria y respuesta permanente o estacionaria
estudiados en el dominio del tiempo también se pueden ilustrar en el dominio
de la frecuencia.
Supongamos que se aplica x(t) a un sistema cuya respuesta al impulso es h(t).
Y consideramos que sus transformadas están dadas por:

Bm (s) Bm (s)
H(s) = =
An (s) (s − p1 )(s − p2 )...(s − pn )
y
Bx (s) Bx (s)
X(s) = = .
Ax (s) (s − q1 )(s − q2 )...(s − qr )
Se sabe que la salida del sistema, con condiciones iniciales nulas, en el dominio
transformado es:
Bm (s)Bx (s)
Y (s) = .
(s − p1 )(s − p2 )...(s − pn )(s − q1 )(s − q2 )...(s − qr )

Desarrollando en fracciones simples se tendrá:


c1 c2 cn k1 k2 kr
Y (s) = + + ... + + + + ... + .
(s − p1 ) (s − p2 ) (s − pn ) (s − q1 ) (s − q2 ) (s − qr )

La transformada inversa da la respuesta del sistema a la entrada x(t) con con-


diciones iniciales nulas:
n
X r
X
y(t) = ci epi t + ki eqi t
i=1 i=1
CAPÍTULO 4. TRANSFORMADA DE LAPLACE 142

La primera sumatoria depende solamente de las singularidades de H(s), p1 , p2 , ..., pn


y, en sistemas es estables, es la componente transitoria de la respuesta forzada.
Los coeficientes ci dependen de tanto de H(s) como de X(s).
La segunda sumatoria es la parte de estado estacionario de la respuesta y(t)
cuando el sistema es estable. Estos términos se deben a las singularidades de
X(s), q1 , q2 , ..., qr .
Cuando el sistema tiene condiciones iniciales no nulas, como se sabe, la respuesta
transitoria tendrá otra componente que dependerá de las mismas.

4.8. Estabilidad
La definición de sistema estable dice que si la entrada es acotada, la salida que
produce también debe estar acotada (BIBO).
Hay diferentes formas de asegurar la estabilidad en este sentido:
Con respecto a su región de convergencia
Diremos que un sistema es estable si y solo si el eje imaginario (σ = 0)
está contenido en la región de convergencia de H(s). Esto es equivalente
a decir que todos los polos de H(s) deben estar en el semiplano izquierdo.
Con respecto a su ecuación caracterı́stica.
Las raı́ces de esta ecuación deben tener parte real negativa.
Con respecto a su respuesta al impulso
Si h(t) es absolutamente integrable, entonces el sistema es estable.
Por otro lado, el requerimiento de que el grado del polinomio del denomi-
nador de H(s) es mayor o igual al grado del polinomio del numerador está
relacionado con la causalidad del sistema.
Observe la forma que se usó para descomponer la salida del sistema en dos
sumatorias en la sección anterior. En los sistemas estables, los términos de la
primera sumatoria tienden a cero cuando se incrementa t, mientras que los
de la segunda sumatoria pueden contener términos que son distintos de cero
indefinidamente. Esta parte, contiene las singularidades de la entrada. Por lo
tanto, si la entrada es acotada, esta parte también lo será. Por consiguiente, la
salida será no acotada si al menos uno de los términos de la respuesta natural
(ci epi t ) se hace no acotado. Esto ocurre solamente si la parte real de al menos
uno de los polos pi es positivo o cero.
Ejercicio.
Proponga un sistema cuya función de transferencia tenga polos en el semiplano
izquierdo del plano complejo. Encuentre la respuesta al impulso y analice la
estabilidad de acuerdo al tercero de los criterios de arriba.
Repita para el caso en que los polos están en el semiplano derecho.
Para ver ejemplos y explicaciones:
Transformada de Laplace 2: https://youtu.be/ZLBqf4v2oGo
Capı́tulo 5

Variables de estado

5.1. Introducción y concepto de estado


Hemos visto anteriormente que un SLIT puede ser caracterizado por una ecua-
ción diferencial de orden n, o alternativamente por su respuesta al impulso,
h(t).
También se estudiaron métodos para encontrar la respuesta y(t), para t ≥ t0
a una entrada x(t) válida para t ≥ t0 , para un conjunto dado de condiciones
iniciales, a partir de la ecuación diferencial. Por otro lado, analizamos que la
respuesta y(t) a una entrada x(t) puede encontrarse mediante la integral de
convolución, utilizando la respuesta al impulso.
Estudiaremos ahora la representación de SLIT mediante variables de estado.
Esta representación es un método alternativo de análisis y resolución con las
siguientes ventajas:
1. Permite conocer no sólo el comportamiento de la entrada y la salida del
sistema, sino también el de ciertas variables internas del mismo.
2. Se puede adaptar fácilmente para su solución utilizando computadoras.
3. Se puede extender a sistemas no lineales o variantes en el tiempo.
4. Permite manejar sistemas con múltiples entradas y salidas.
En este capı́tulo se verá la formulación en variables de estado. Ası́, un sistema
lineal modelado con una ecuación diferencial ordinaria de orden n, podrá repre-
sentarse por medio de un sistema de n ecuaciones diferenciales de primer orden
acopladas. El modelo obtenido se denomina modelo de estados.

Concepto de estado
Se define estado del sistema en algún tiempo t0 a la información que, junto con
todas las entradas para todos los tiempos subsiguientes a t0 , determina el com-
portamiento del sistema para t ≥ t0 . Es decir, es la información suficiente acerca
del sistema en algún instante t0 , en el sentido de que permite el cálculo de las
salidas del sistema para todo tiempo posterior a t0 . Las variables que contienen

143
CAPÍTULO 5. VARIABLES DE ESTADO 144

esta información se conocen como variables de estado. En otras palabras, el co-


nocimiento del estado del sistema en t0 , basta para predecir el comportamiento
futuro, siendo innecesaria alguna información acerca del comportamiento ante-
rior del sistema.

5.2. Ejemplos introductorios


Para introducir el modelado en variables de estado se partirá de un caso parti-
cular.
Ejemplo 1
Considere un circuito serie RLC, cuya descripción matemática está dada por las
ecuaciones:
di(t)
L + Ri(t) + vc (t) = vi (t);
dt
1 t
Z
vc (t) = i(x)dx,
C −∞
donde vi (t) es la tensión de entrada, que es conocida, y las variables desconocidas
son la corriente i(t) y la tensión en el capacitor vc (t).
Las ecuaciones pueden escribirse en forma operacional, usando el operador
d
D = dt . De esta manera se simplifica el trabajo operativo con las ecuaciones
diferenciales:
LDi(t) + Ri(t) + vc (t) = vi (t);
1 −1
vc (t) = D i(t) ⇒ i(t) = CDvc (t).
C
Como es un sistema de segundo orden, se definen 2 variables de estado, o sim-
plemente 2 estados, con la notación xi (t), i = 1, 2. Por ejemplo:

x1 (t) = i(t);

x2 (t) = vc (t).

Sustituyendo con la nomenclatura elegida para las variables de estado en la


ecuación diferencial se tiene:

LDx1 (t) + Rx1 (t) + x2 (t) = vi (t);

x1 (t) = CDx2 (t).

que al despejar las derivadas de las variables de estado, permite llegar al siguiente
sistema acoplado de ecuaciones diferenciales de primer orden:
R 1 1
ẋ1 (t) = − x1 (t) − x2 (t) + vi (t);
L L L
1
ẋ2 (t) = x1 (t).
C
CAPÍTULO 5. VARIABLES DE ESTADO 145

Para completar el modelo se escribe la ecuación que relacione la salida del siste-
ma con las variables de estado. En este caso, la salida es vc (t). Luego, la ecuación
que falta es:
y(t) = x2 (t).

La formulación se simplifica si se utiliza notación matricial, en donde además la


entrada, vi (t) es denominada como u(t):
 R 1
− L − L1 

  
ẋ1 (t) L
=  x1 (t) +   u(t)
ẋ2 (t) x2 (t)
− C1 0 0
 
 x1 (t)
y(t) = 0 1
x2 (t)

Estas dos ecuaciones matriciales son las ecuaciones de estado para el circuito
RLC. Esta representación no es la única posible ya que las variables de estado
pueden definirse arbitrariamente. Entonces, dependiendo de las variables que se
elijan, se tendrán diferentes modelos en variables de estado.

Ecuaciones de estado
En general, la forma estándar para las ecuaciones de estados de un SLIT de
múltiples entradas y múltiples salidas es:

ẋ(t) = Ax(t) + Bu(t)

y(t) = Cx(t) + Du(t),


donde
x(t): vector de estados (nx1)
u(t): vector de entradas (rx1)
y(t): vector de salidas (px1)
A: matriz del sistema o matriz de estados (nxn)
B: matriz de entrada (nxr)
C: matriz de salida (pxn)
D: matriz de orden (pxr)

Ejemplo 2
Considere ahora el sistema de la figura formado por dos resortes y dos masas,
al que se le aplica una fuerza externa f (t). La fuerza provoca el desplazamiento
de las masas m1 y m2 , z1 (t) y z2 (t), respectivamente.
Puede verificarse que el sistema queda representado por dos ecuaciones diferen-
ciales de segundo orden:

d2 z1 (t)
m1 = −k1 z1 (t) + k2 (z2 (t) − z1 (t))
dt2
CAPÍTULO 5. VARIABLES DE ESTADO 146

Figura 5.1: Sistema de cuarto orden.

d2 z2 (t)
m2 = −k2 (z2 (t) − z1 (t)) + f (t).
dt2
La representación en variables de estado de este sistema estará dada por un
modelo con cuatro variables de estado.
Una elección clásica de variables para este tipo de sistemas es:

x1 (t) = z1 (t)

x2 (t) = z10 (t)


x3 (t) = z2 (t)
x4 (t) = z20 (t)
En base a esta definición de las variables de estado y a partir de las ecuaciones
diferenciales del sistema podemos obtener las siguientes ecuaciones acopladas:

ẋ1 (t) = x2 (t)

k1 + k2 k2
ẋ2 (t) = − x1 (t) + x3 (t)
m1 m1
ẋ3 (t) = x4 (t)
k2 k2
ẋ4 (t) = x1 (t) − x3 (t) + f (t)
m2 m2

Como es usual en el análisis de sistemas con variables de estado, las ecuaciones


anteriores se ponen en forma matricial. Considerando que m1 = 2kg, m2 = 1kg,
k1 = 4kg/s2 y k2 = 2kg/s2 , se tienen las siguientes ecuaciones:
   
0 1 0 0 0
−3 0 1 0 0
ẋ(t) = 
 0 0 0 1 x(t) + 0 f (t).
  

2 0 −2 0 1

Para completar el modelo es necesario definir la salida del sistema. Puede to-
marse, por ejemplo, y(t) = z1 (t). Entonces, la ecuación faltante del modelo es:

y(t) = 1 0 0 0 x(t).
CAPÍTULO 5. VARIABLES DE ESTADO 147

5.3. Modelos para sistemas SISO


Los sistemas de una entrada y una salida están representados por ecuaciones
diferenciales ordinarias. Se considerará en primer lugar una sistema en el que
la ecuación diferencial no tiene derivadas en la entrada y el coeficiente de la
derivada de mayor orden de la salida es an = 1. Entonces, el sistema está dado
por:
y (n) (t) + an−1 y (n−1) (t) + ... + a1 y 0 (t) + a0 y(t) = b0 u(t).
Una forma muy conveniente para denominar a las variables de estado es:

x1 (t) = y(t)

x2 (t) = y 0 (t) = ẋ1 (t)


x3 (t) = y 00 (t) = ẋ2 (t)
...
(n−1)
xn (t) = y (t) = ẋn−1 (t),
y además

ẋn (t) = y n (t) = −an−1 y (n−1) (t) − ... − a1 y 0 (t) − a0 y(t) + b0 u(t)

ẋn (t) = −a0 x1 (t) − a1 x2 (t) − ... − an−1 xn (t) + b0 u(t)


La salida del sistema en términos de las variables de estado resulta:

y(t) = x1 (t).

Enotonces, el modelo en su forma matricial es:

ẋ(t) = Ax(t) + Bu(t)

y(t) = Cx(t) + Du(t),

con    
0 1 0 ... 0 0
 0 0 1 ... 0  0
   
 ...
A= ...
; B= 

 0 0 0 ... 1  0
−a0 −a1 −a2 ... an−1 b0


C= 1 0 0 ... 0 ; D=0

Este modelo en variables de estado tiene una representación en diagramas en


bloques equivalente a la que se encuentra a partir de la ecuación diferencial
despejando la derivada de mayor orden. Es un diagrama en bloques compuesto
únicamente por sumadores, ganancias e integradores, con las variables de estado
a la salida de los integradores.
Ejercicio. Verifique la afirmación del párrafo anterior dibujando el diagrama en
bloques del modelo hallado.
CAPÍTULO 5. VARIABLES DE ESTADO 148

5.4. Segunda forma canónica


La segunda forma canónica es un modelo en variables de estado que ”funciona”
cuando se tienen derivadas de la entrada en la ecuación diferencial. Es decir:

y (n) (t) + an−1 y (n−1) (t) + ... + a1 y 0 (t) + a0 y(t) =

= bm u(m) (t) + bm−1 u(m−1) (t) + ... + b1 u0 (t) + b0 u(t).


Obsérvese que an = 1.
Ejemplo 3
Se comenzará el estudio a partir del siguiente diagrama en bloques (ver resolu-
ción en el video):

Figura 5.2: Modelo de la segunda forma canónica.

Se pide:
1. Verificar que la ecuación diferencial es

y 00 (t) + 4y 0 (t) + 3y(t) = 5u00 (t) + 4u0 (t) + 2u(t).

2. Verificar que las matrices del modelo correspondiente a este diagrama en


bloques es son:    
0 1 0
A= ; B=
−3 −4 1

 
C = 2 − 15 4 − 20 = −13 −16 ; D=5

Observe la relación directa que hay entre los coeficientes de la ecuación diferen-
cial y los elementos de las matrices A, B, C y D.

Puede probarse, que para el caso de la ecuación de orden n, el diagrama en


bloques que se muestra en la figura siguiente corresponde al modelo en variables
de estado cuyas matrices se forman directamente utilizando los coeficientes de
la ecuación diferencial.
CAPÍTULO 5. VARIABLES DE ESTADO 149

Figura 5.3: Modelo de la segunda forma canónica.

Las variables de estado son las salidas de los integradores, y las ecuaciones de
estados quedan:
ẋ1 (t) = x2 (t)
ẋ2 (t) = x3 (t)
...
ẋn (t) = −a0 x1 (t) − a1 x2 (t) − ... − an−1 xn (t) + u(t)
Y la ecuación de la salida es:

y(t) = b0 x1 (t)+b1 x2 (t)+...+bn−1 xn (t)+bn (u(t)−a0 x1 (t)−a1 x2 (t)−...−an−1 xn (t))

y(t) = (b0 − bn a0 )x1 (t) + (b1 − bn a2 )x2 (t) + ... + (bn−1 − bn an−1 )xn (t) + bn u(t)

Las ecuaciones anteriores pueden ponerse en forma matricial y se observa cla-


ramente que este modelo puede escribirse de manera directa a partir de los
coeficientes de la ecuación diferencial. La forma del modelo que se obtiene si-
guiendo este procedimiento es conocida como segunda forma canónica, forma
canónica de la variable de fase o forma canónica controlable.
   
0 1 0 ... 0 0
 0 0 1 ... 0  0
   
 ...
ẋ(t) =   x(t) + ... u(t).
  
 0 0 0 ... 1  0
−a0 −a1 −a2 ... an−1 1

y(t) = b0 − bn a0 b1 − bn a1 ... bn−1 − bn an−1 x(t) + bn u(t).
Como puede verse, esta expresión puede obtenerse directamente de la ecuación
diferencial ubicando los coeficientes en las posiciones correctas en la matriz.
Se verá más adelante que lo mismo puede hacerse a partir de la función de
transferencia.
CAPÍTULO 5. VARIABLES DE ESTADO 150

El coeficiente bn es el que corresponde a la derivada n-ésima de la entrada y será


distinto de cero únicamente cuando la mayor derivada de la entrada es igual al
orden del sistema.
Ejemplo 4
1. Modificar el sistema del ejemplo 3 considerando b2 = 0 y encontrar el
modelo en VE de la segunda forma canónica forma canónica.
Solución
En el ejemplo 3, b2 = 5 y el modelo que se presenta ahı́ es el de la segunda
forma canónica. Ahora, si se modifica la ecuación diferencial como se pide,
queda:
y 00 (t) + 4y 0 (t) + 3y(t) = 4u0 (t) + 2u(t).

A partir de los coeficientes de la nueva ecuación diferencial pueden encon-


trarse las matrices del modelo de la segunda forma canónica de este nuevo
sistema (obsérvese que se modificó la ecuación diferencial):
   
0 1 0
A= ; B=
−3 −4 1

C= 2 4 ; D=0
Obsérvese en la Fig. 5.2, que hacer b2 = 0 equivale a anular la conexión
directa que hay entre la entrada y la salida. Eso mismo se refleja en la
ecuación de la salida del modelo, donde ahora D = 0.
2. Verificar que el siguiente diagrama corresponde al mismo SLIT, pero a
otro modelo en VE.

Figura 5.4: Modelo ejemplo 4.2.

Solución
El modelo representa al mismo sistema si tiene la misma ecuación diferen-
cial. Entonces, se trata de hallar la ecuación diferencial que corresponde
a este diagrama en bloques.
Para eso, se nombran dos variables auxiliares a la salida de ambos ambos
integradores: v1 y v2 . Luego se escriben las ecuaciones de los dos sumadores
usando el operador D para representar las derivadas.
CAPÍTULO 5. VARIABLES DE ESTADO 151

En el primer sumador se tiene

Dv2 (t) = 2u(t) − 3v1 (t) ⇒ v2 (t) = D−1 [2u(t) − 3v1 (t)],

y la ecuación del segundo sumador es

Dv1 (t) = 4u(t) − 4v1 (t) + v2(t).

Reemplazando v2 (t) en esta última ecuación, queda:

Dv1 (t) = 4u(t) − 4v1 (t) + D−1 [2u(t) − 3v1 (t)]

Dv1 (t) = 4u(t) − 4v1 (t) + 2D−1 u(t) − 3D−1 v1 (t)


Dv1 (t) + 4v1 (t) + 3D−1 v1 (t) = 4u(t) + 2D−1 u(t)
Derivando ambos miembros se tiene la siguiente ecuación diferencial:

D2 v1 (t) + 4Dv1 (t) + 3v1 (t) = 4Du(t) + 2u(t)

Además,
y(t) = v1 (t)
Por lo tanto, la ecuación diferencial que corresponde a este modelo es

D2 y(t) + 4Dy(t) + 3y(t) = 4Du(t) + 2u(t),

que es la misma que corresponde al modelo del punto 4.1. Ese modelo es
el de la segunda forma canónica y tiene su correspondiente diagrama en
bloques. Se verá ahora que este diagrama en bloques corresponde a otro
modelo en variables de estado del mismo sistema.
Como es usual, consideremos que las variables de estado son las funcio-
nes que están a la salida de los integradores, v1 y v2 . Y en este caso las
ecuaciones de estado se obtienen de manera directa, ya que v̇1 y v̇2 son las
salidas de ambos sumadores. Entonces:

v̇1 = −4v1 (t) + v2 (t) + 4u(t)

v̇2 = −3v1 (t) + 2u(t)


y(t) = v1 (t)
De las ecuaciones anteriores se ve que
   
−4 1 4
A= ; B=
−3 0 2

C= 1 0 ; D=0

Con el ejemplo anterior se mostró que un mismo sistema puede tener más de
un modelo en variables de estado y que cada modelo queda representado por su
correspondiente diagrama en bloques.
CAPÍTULO 5. VARIABLES DE ESTADO 152

5.5. Solución temporal de las variables de esta-


do. Matriz de transición de los estados
El modelo en VE permite hallar tanto la solución del sistema, es decir, la salida
y(t), como la solución de los estados, x(t). Esta última es la que muestra el
comportamiento de cada una de las n variables de estado del modelo en el
tiempo.
Pueden hallarse esas soluciones usando expresiones que involucran las matrices
del modelo. A continuación se deducirán dichas expresiones.
Consideremos el modelo general:

ẋ(t) = Ax(t) + Bu(t)

y(t) = Cx(t) + Du(t).

Primero se tratará de encontrar la solución natural, libre o no forzada de los


estados, es decir, xl (t).
Como u(t) = 0, entonces la primera ecuación del modelo se simplifica y queda:

ẋ(t) = Ax(t).

Se propone una solución que depende del estado del sistema en el tiempo inicial,
t0 :
xl (t) = eA(t−t0 ) x(t0 ),
donde x(t0 ) es el valor inicial de los estados.
Si t0 = 0 la ecuación es:
xl (t) = eAt x(0),
con eAt = φ(t) la matriz de transición de los estados.
Por definición:
∞ k
X t
eAt = Ak ,
k!
k=0
k
donde A = AA...A, k veces.
Una caracterı́stica de esta matriz es que

deAt
= AeAt = eAt A
dt

Demostración

∞ ∞ ∞ ∞
deAt d X tk k X d tk k X k k−1 k X tk−1
= A = A = t A = AAk−1 =
dt dt k! dt k! k! (k − 1)!
k=0 k=0 k=0 k=1

∞ k
X t
=A Ak = AeAt .
k!
k=0
CAPÍTULO 5. VARIABLES DE ESTADO 153

Ahora puede verificarse que xl (t) = eAt x(0) es solución de ẋ(t) = Ax(t).
Para eso, simplemente se reemplazan xl (t) y su derivada en la ecuación diferen-
cial, dando la identidad:

AeAt x(0) = AeAt x(0).

De esta manera queda verificado que la solución libre de los estados es

xl (t) = eA(t−t0 ) x(t0 ).

Para la solución forzada de los estados se propone una solución de la forma

xf (t) = eAt q(t),

donde q(t) es un vector de funciones desconocidas a determinar. Por sustitución


en la ecuación de los estados se obtiene que:

ẋf (t) = Axf (t) + Bu(t)

AeAt q(t) + eAt q̇(t) = AeAt q(t) + Bu(t).


Simplificando y despejando:

q̇(t) = e−At Bu(t),

cuya solución se encuentra integrando.


Ası́, se obtiene: Z t
q(t) = q(t0 ) + e−Aτ Bu(τ )dτ.
t0

Entonces, la solución forzada es:


Z t
xf (t) = eAt q(t) = eAt q(t0 ) + eA(t−τ ) Bu(τ )dτ.
t0

La solución completa de los estados queda:


Z t
A(t−t0 ) At
x(t) = e x(t0 ) + e q(t0 ) + eA(t−τ ) Bu(τ )dτ,
t0

que si se especializa en t = t0 permite ver que q(t0 ) = 0. Entonces:


Z t
A(t−t0 )
x(t) = e x(t0 ) + eA(t−τ ) Bu(τ )dτ.
t0

Finalmente, reemplazando esta expresión en la ecuación del modelo correspon-


diente a la salida, tenemos la respuesta del sistema:
Z t
A(t−t0 )
y(t) = Ce x(t0 ) + CeA(t−τ ) Bu(τ )dτ + Du(t).
t0

El primer sumando es la respuesta cuando u(t) = 0, es decir, la respuesta libre


que depende de las condiciones iniciales. Los otros dos sumandos constituyen
CAPÍTULO 5. VARIABLES DE ESTADO 154

la respuesta cuando x(t0 ) = 0, es decir, la respuesta forzada. De estos últimos


términos podemos obtener la respuesta al impulso.
Se sabe que la respuesta al impulso es la respuesta del sistema cuando la entrada
es u(t) = δ(t), entonces en ese caso la solución forzada es:
Z t
h(t) = CeA(t−τ ) Bδ(τ )dτ + Dδ(t),
t0

de donde, por propiedades del impulso se llega a que

h(t) = CeAt B + Dδ(t)

es la respuesta al impulso del sistema.

Propiedades de la matriz de transición


La matriz de transición, eAt = φ(t), tiene las siguientes propiedades:
1. φ(0) = I
Demostración
Se parte de la expresión para la solución libre de los estados para t0 = 0:

x(t) = φ(t)x(0),

y si se evalúa la solución anterior en t = 0

x(0) = φ(0)x(0),

de donde es evidente que


φ(0) = I.

2. φ(t1 + t2 ) = φ(t1 )φ(t2 ) = φ(t2 )φ(t1 )


Demostración
Nuevamente se parte de la solución libre de los estados pero para un t0
general:
x(t) = φ(t − t0 )x(t0 ).
La solución del sistema en t = t1 + t2 con t0 = 0 es, según la ecuación de
la solución:
x(t1 + t2 ) = φ(t1 + t2 )x(0). 1
Ahora, se va a calcular la misma solución pero en dos etapas. Supongamos
que primero se busca la solución en t = t1 con t0 = 0:

x(t1 ) = φ(t1 )x(0);

luego, con t1 como tiempo inicial, se llega a la solución en t1 + t2 :

x(t1 + t2 ) = φ(t1 + t2 − t1 )x(t1 )

x(t1 + t2 ) = φ(t2 )φ(t1 )x(0). 2


CAPÍTULO 5. VARIABLES DE ESTADO 155

Luego, comparando las expresiones 1 y 2, se ve que

φ(t1 + t2 ) = φ(t2 )φ(t1 ).

Para probar que φ(t1 + t2 ) = φ(t1 )φ(t2 ) puede seguirse el mismo procedi-
miento que antes pero yendo primero de t = 0 a t = t2 , y luego de t = t2
a t = t1 + t2 .
3. φ−1 (t) = φ(−t)
Demostración
Otra vez se considera la solución

x(t) = φ(t − t0 )x(t0 ).

Si t0 = 0, para cualquier tiempo tf la solución es:

x(tf ) = φ(tf )x(0). 3

Un aspecto interesante de la matriz de transición es que no necesariamente


el ”tiempo inicial”tiene que ser menor que el ”tiempo final”. Esta matriz
permite encontrar la solución de los estados en cualquier instante, cono-
ciendo el valor de los estados en otro momento, no importa si es anterior
o posterior. Entonces, se puede calcular la solución en t = 0 si se conocen
los estados en t = tf :

x(0) = φ(0 − tf )x(tf ).

Si en esta última expresión se despeja x(tf ) se tiene:

x(tf ) = φ−1 (−tf )x(0). 4

Ahora, comparando 3 y 4, se ve que

φ(tf ) = φ−1 (−tf )

φ(−tf ) = φ−1 (tf ),


que se cumple para cualquier tf :

φ(−t) = φ−1 (t).

Estabilidad
Un SLIT es estable si los autovalores de la matriz de estados (A) tienen parte
real negativa. Para fundamentar esta propiedad debe analizarse la relación de los
autovalores con la ecuación caracterı́stica del sistema. Este análisis se completará
cuando se estudien los modelos en variables de estado en el dominio de Laplace.
Ejemplo 5
Analice la estabilidad del SLIT cuyo modelo está dado por las siguientes matri-
ces:    
0 1 0
A= ; B=
−2 −3 1
CAPÍTULO 5. VARIABLES DE ESTADO 156

C= 4 5 ; D=0

Suponga también conocida la matriz transición de los estados:

2e−t − e−2t e−t − e−2t


 
eAt =
−2e−t + 2e−2t −e−t + 2e−2t

y encuentre la respuesta al impulso.


Solución
Para analizar la estabilidad del sistema se obtienen los autovalores de la matriz
de estados. Esos autovalores deben tener parte real negativa para que el sistema
sea estable.
Los autovalores de A son la solución de la siguiente ecuación:

det(λI − A) = 0
   
λ 0 0 1
det − =0
0 λ −2 −3
 
λ −1
det =0
2 λ+3
λ2 + 3λ + 2 = 0,
de donde sale que los autovalores son λ1 = −2 y λ2 = −1, que son valores reales
negativos y, por lo tanto, el sistema es estable.
La respuesta al impulso se calcula de acuerdo a la fórmula obtenida antes:

h(t) = CeAt B + Dδ(t)

e−t − e−2t 2e−t − e−2t


  
 0
h(t) = 4 5 −t −2t + 0δ(t)
−2e + 2e −e−t + 2e−2t 1
 2e − e−2t
 −t 
h(t) = 4 5
−e−t + 2e−2t
h(t) = 8e−t − 4e−2t − 5e−t + 10e−2t ; t≥0
h(t) = 3e−t + 6e−2t ; t≥0

Ejercicio para seguir pensando: si el modelo dado es el de la segunda forma


canónica, se pide reconstruir la ecuación diferencial, hallar las raı́ces de la ecua-
ción caracterı́stica y comparar los valores encontrados con los autovalores de
A.
CAPÍTULO 5. VARIABLES DE ESTADO 157

5.6. Análisis del modelo en variables de estado


con transformada de Laplace
Es posible transformar la ecuación de los estados con el mismo criterio que se
utiliza cuando se resuelve una ecuación diferencial mediante la transformada de
Laplace. De esta manera, se pueden hacer todos los cálculos de las soluciones
en el dominio transformado, que se sabe que son más simples. Finalmente, se
puede volver al dominio temporal haciendo la transformada inversa.
Si se tienen en cuenta las ecuaciones del modelo

ẋ(t) = Ax(t) + Bu(t)

y(t) = Cx(t) + Du(t),


y se desarrollan, por ejemplo, las dos primeras filas de la primera de ellas, se
obtiene:

ẋ1 (t) = a11 x1 (t) + a12 x2 (t) + ... + a1n xn (t) + b11 u1 (t) + ... + b1r ur (t)

ẋ2 (t) = a21 x1 (t) + a22 x2 (t) + ... + a2n xn (t) + b21 u1 (t) + ... + b2r ur (t)
donde aij y bij son los elementos de las matrices A y B, respectivamente.
Ahora, aplicando la transformada de Laplace en ambos miembros de las dos
ecuaciones resulta:

sX1 (s) − x1 (0) = a11 X1 (s) + a12 X2 (s) + ... + a1n Xn (s) + b11 U1 (s) + ... + b1r Ur (s)

sX2 (s) − x2 (0) = a21 X1 (s) + a22 X2 (s) + ... + a2n Xn (s) + b21 U1 (s) + ... + b2r Ur (s)

El resto de las ecuaciones mantiene la misma estructura, y por lo tanto la trans-


formada de todas las ecuaciones también se puede escribir en forma matricial:

sX(s) − x(0) = AX(s) + BU(s)

Y(s) = CX(s) + DU(s)

De la ecuación de los estados se puede obtener directamente la expresión para


la respuesta de los estados en el dominio transformado:

sX(s) − x(0) = AX(s) + BU(s)

sX(s) − AX(s) = x(0) + BU(s)


(sI − A)X(s) = x(0) + BU(s)
X(s) = (sI − A)−1 x(0) + (sI − A)−1 BU(s)

La solución de los estados es la transformada inversa de Laplace de X(s).


Si se compara la expresión de la solución de los estados en el dominio transfor-
mado con la expresión en el dominio temporal, puede verse que

(sI − A)−1 = φ(s) = L{φ(t)}


CAPÍTULO 5. VARIABLES DE ESTADO 158

Entonces, para hallar la matriz de transición de los estados, aunque hay otros
métodos (ver Apéndice D), el método más sencillo consiste en hacer:

φ(t) = L−1 {(sI − A)−1 } = L−1 {φ(s)},

Ejemplo 6
Verificar que la matriz de transición de los estados del modelo del Ejemplo 5 es
la dada en ese enunciado.
Solución  −1
−1 s −1
φ(s) = (sI − A) =
2 s+3
 T  
1 s+3 −2 1 s+3 1
φ(s) = =
(s2 + 3s + 2) 1 s (s2 + 3s + 2) −2 s

Luego, !
s+3 1
(s+2)(s+1) (s+2)(s+1)
φ(s) = −2 s .
(s+2)(s+1) (s+2)(s+1)

Finalmente, se hace el desarrollo en fracciones simples de todos los elementos


de la matriz: !
2 1 1 1
(s+1) − (s+2) (s+1) − (s+2)
φ(s) = 2 2 1 2 ,
− (s+1) + (s+2) − (s+1) + (s+2)

cuya transformada inversa es inmediata:

2e−t − e−2t e−t − e−2t


 
eAt =
−2e−t + 2e−2t −e−t + 2e−2t

Ejemplo 7
Halle la salida para el sistema anterior si u(t) = us (t) y las condiciones iniciales
de los estados son x1 (0) = 2 y x2 (0) = −1.
Solución
1. Solución libre de los estados
Como ya se tiene φ(t), esta solución puede calcularse directamente en el
dominio temporal:
xl (t) = φ(t)x(0)
2e − e−2t
−t
e−t − e−2t
  
2
xl (t) =
−2e−t + 2e−2t −e−t + 2e−2t −1
4e−t − 2e−2t − e−t + e−2t
  −t
3e − 1e−2t
 
xl (t) = =
−4e−t + 4e−2t + e−t − 2e−2t −3e−t + 2e−2t
Puede observarse que la solución de los estados es un vector (2x1) en este
caso, ya que tenemos un sistema de segundo orden con una entrada.
CAPÍTULO 5. VARIABLES DE ESTADO 159

2. Solución libre del sistema


Esta solución es simplemente

yl (t) = Cxl (t)


 3e−t − 1e−2t
 
yl (t) = 4 5
−3e−t + 2e−2t
yl (t) = 12e−t − 4e−2t − 15e−t + 10e−2t
yl (t) = −3e−t + 6e−2t ; t≥0

3. Solución forzada de los estados


Como ahora interviene la entrada, si se trabaja en el dominio temporal
se deberá resolver una integral de convolución. Por lo tanto, volvemos
al dominio transformado, donde la solución forzada de los estados en el
dominio transformado es:

Xf (s) = φ(s)BU (s)


! 
s+3 1
(s+2)(s+1) (s+2)(s+1) 0 1
Xf (s) = −2 s
(s+2)(s+1) (s+2)(s+1) 1 s
!
1
(s+2)(s+1)s
Xf (s) = s
(s+2)(s+1)s

Si se desea hallar la solución forzada de los estados, xf (t), debe hacerse la


transformada inversa de este vector.
4. Solución forzada del sistema
Otra vez, la solución del sistema se calcula con la ecuación de la salida del
modelo. Esta vez con la salida forzada:

Yf (s) = Cφ(s)BU (s) + DU (s)

Yf (s) = CXf (s) + DU (s)


!
1
 (s+2)(s+1)s
Yf (s) = 4 5 s + 0U (s)
(s+2)(s+1)s

5s + 4 2 1 3
Yf (s) = = + −
(s + 2)(s + 1)s s s+1 s+2
yf (t) = 2 + e−t − 3e−2t ; t≥0

Finalmente, se obtiene la solución total del sistema o la de los estados sumando


las respectivas soluciones libres y forzadas.

Función de transferencia y estabilidad


Considerando condiciones iniciales nulas, el modelo en VE en el dominio trans-
formado es
sX(s) = AX(s) + BU(s)
CAPÍTULO 5. VARIABLES DE ESTADO 160

Y(s) = CX(s) + DU(s)


Se vio que despejando X(s) en la primera ecuación, se tiene

X(s) = (sI − A)−1 BU(s),

que si se reemplaza en la ecuación de la salida nos da:

Y(s) = C(sI − A)−1 BU(s) + DU(s).

Recordando que la función de transferencia es el cociente entre la transformada


de Laplace de la entrada y la salida. Para condiciones iniciales nulas, resulta
para el caso de sistemas de una entrada y una salida:

C(sI − A)−1 BU (s) + DU (s)


H(s) = =
U (s)

H(s) = C(sI − A)−1 B + D

Un SLIT es estable (entrada acotada, salida acotada) cuando los polos de la


función de transferencia H(s) están en el semiplano izquierdo.
Como
Adj(sI − A)
C(sI − A)−1 B = C B
det(sI − A)
El polinomio del denominador es det(sI − A). Luego, los polos de la función de
transferencia son los autovalores de la matriz de estados, o raı́ces de la ecuación
caracterı́stica del sistema.
Ejercicio para pensar: en las soluciones halladas en el ejemplo 7 trate de iden-
tificar la función de transferencia.

5.7. Transformaciones de semejanza


Como ya se mencionó, el modelo de variables de estado de un cierto SLIT no
es único, sino que hay un número ilimitado de modelos de estado que pueden
representar a ese sistema.
Una transformación de semejanza es aquella que transforma un modelo en otro
semejante, es decir, otro modelo en el que la relación entrada-salida no se mo-
difica con respecto a la del modelo original, aunque sı́ lo hacen las variables
internas (variables de estado).
Se considera el caso de una entrada y una salida:

ẋ(t) = Ax(t) + Bu(t)

y(t) = Cx(t) + Du(t)


Se propone un nuevo vector de funciones de dimensión n, v(t), que se representa
como una combinación lineal de los elementos del vector de estados x(t).

v1 (t) = q11 x1 (t) + q12 x2 (t) + ...q1n xn (t)


CAPÍTULO 5. VARIABLES DE ESTADO 161

v2 (t) = q21 x1 (t) + q22 x2 (t) + ...q2n xn (t)


...
vn (t) = qn1 x1 (t) + qn2 x2 (t) + ...qnn xn (t)
En forma matricial esta ecuación puede escribirse como

v(t) = Qx(t),

donde el nuevo vector v(t) es el vector de estados transformados.


Luego,
x(t) = Q−1 v(t) = Pv(t),
donde P = Q−1 es la matriz de transformación.
Sustituyendo en el modelo original x(t) = Pv(t):

Pv̇(t) = APv(t) + Bu(t)

y(t) = CPv(t) + Du(t),


queda el modelo semejante o modelo transformado:

v̇(t) = Av v(t) + Bv u(t)

y(t) = Cv v(t) + Dv u(t),


donde Av = P−1 AP, Bv = P−1 B, Cv = CP y Dv = D.
Las matrices de estados para los modelos resultantes de aplicar transformaciones
de semejanza cumplen con ciertas propiedades.
1. det(λI − Av ) = det(λI − A)
Para la demostración se utilizan las propiedades del determinante:
det(MN) = det(M) det(N)
det(M−1 ) = 1/ det(M)

det(λI − Av ) = det(λI − P−1 AP) = det(λP−1 IP − P−1 AP) =

= det(P−1 (λI − A)P) = det(P−1 ) det(λI − A) det(P) = det(λI − A)

2. det(Av ) = det(A) = λ1 λ2 ...λn


El determinante de las matrices del sistema está dado por el producto de
sus autovalores.
Esta propiedad se prueba con las mismas propiedades del determinante
usadas en la propiedad 1.
3. tr(Av ) = tr(A) = λ1 + λ2 + ... + λn
La traza de las matrices del sistema es igual a la suma de sus autovalores.
CAPÍTULO 5. VARIABLES DE ESTADO 162

4. Hv (s) = H(s)
Como es de suponer, si la transformación de semejanza no cambia la re-
lación entrada-salida del sistema, entonces la función de transferencia no
debe verse modificada.
Para la siguiente demostración se tiene en cuenta la propiedad de las
matrices: (MN)−1 = N−1 M−1 .
Demostración

Hv (s) = Cv (sI − Av )−1 Bv + Dv = CP(sI − P−1 AP)−1 P−1 B + D =

= CP(sP − AP)B + D = C(sPP−1 − APP−1 )−1 B + D


= C(sI − A)−1 B + D = H(s)

Ejemplo 8
Para el mismo sistema lineal de segundo orden considerado en el ejemplo 4.1,
suponga la transformación dada por:

v1 (t) = x1 (t) + x2 (t)

v2 (t) = x1 (t) + 2x2 (t)


1. Hallar las matrices Q y P.
Solución
Se escriben las matrices de transformación en forma matricial
 
1 1
v(t) = x(t),
1 2

de donde se ve claramente que


 
1 1
Q= ,
1 2

y entonces  
2 −1
P= .
−1 1

2. Obtener las ecuaciones de estados transformadas.


Solución
Se calculan las matrices del modelo transformado:
      
1 1 0 1 2 −1 −2 −2 2 −1
Av = P−1 AP = =
1 2 −2 −3 −1 1 −4 −5 −1 1
 
−2 0
Av =
−3 −1
    
−1 1 1 0 1
Bv = P B = =
1 2 1 2
CAPÍTULO 5. VARIABLES DE ESTADO 163
 
 2 −1 
Cv = CP = 4 5 = 3 1
−1 1
Dv = D = 0

Ası́ que el nuevo modelo es:


   
−2 0 1
v̇(t) = v(t) + u(t)
−3 −1 2

y(t) = 3 1 v(t).

3. Calcular la respuesta al impulso del sistema.


Solución
Lo más conveniente es trabajar en el dominio transformado, hallar la fun-
ción de transferencia de este modelo y luego hacer la transformada inversa
de Laplace para obtener la respuesta al impulso.
Como
Hv (s) = Cv (sI − Av )−1 Bv + Dv ,
se necesita calcular primero la transformada de la matriz de transición de
los estados:
 −1  T
s+2 0 1 s + 1 −3
φv (s) = (sI−Av )−1 = =
3 s+1 (s + 1)(s + 2) 0 s+2
 1 
s+2 0
φv (s) =  
−3 1
(s+1)(s+2) s+1

La función de transferencia es entonces:


 1 
s+2 0     1
 1 3 3 1
Hv (s) = 3 1   = s+2 − (s+1)(s+2) s+1
−3 1 2 2
(s+1)(s+2) s+1

3 3 2 5s + 4
Hv (s) = − + =
s + 2 (s + 1)(s + 2) s + 1 (s + 1)(s + 2)
Si se hace el desarrollo en fracciones simples queda:
6 1
Hv (s) = − ,
s + 2 (s + 1)
por lo que
h(t) = (6e−2t − e−t )us (t).

4. Verificar las propiedades verificadas antes.


det(λI − Av ) = det(λI − A)
   
λ+2 0 λ −1
det = det
3 λ+1 2 λ+3

(λ + 2)(λ + 1) = λ2 + 3λ + 2
CAPÍTULO 5. VARIABLES DE ESTADO 164

det(Av ) = det(A) = λ1 λ2 ...λn


   
−2 0 0 1
det = det
−3 −1 −2 −3

2 = 2 = (−1)(−2)

tr(Av ) = tr(A) = λ1 + λ2 + ... + λn


   
−2 0 0 1
tr = tr
−3 −1 −2 −3

−3 = −3 = −2 − 1

Hv (s) = H(s)
Quedó verificado en el punto 3.

Transformación de autovalores
La transformación de autovalores es un caso particular de transformación de
semejanza en el que la matriz de estados transformada es una matriz diagonal,
que en este caso se denomina Λ.
Si A tiene n autovalores distintos, entonces puede diagonalizarse usando la
transformación
Λ = P−1 AP,

siendo P una matriz cuyas columnas son los autovectores de la matriz A, resul-
tando la matriz Λ una matriz diagonal cuyos elementos son los autovalores de
A.
Prueba
Para cada autovalor puede escribirse la ecuación

Aχ1 = λ1 χ1

Aχ2 = λ2 χ2
...
Aχn = λn χn
donde χi es el autovector correspondiente al autovalor λi , con i = 1, 2, ..., n.
Ahora, las n ecuaciones de arriba, pueden escribirse en forma matricial como:

AP = PΛ,

con P formada por los autovectores ubicados como columnas.


Luego, si se elige como matriz de transformación la matriz formada por los
autovectores, se obtendrá un modelo en variables de estado, con una matriz de
estados diagonal, cuyos elementos son los autovalores del sistema:

Λ = P−1 AP.
CAPÍTULO 5. VARIABLES DE ESTADO 165

Ejemplo 9.
Encuentre el modelo de variables de estado semejante al dado en el ejemplo 4.1,
realizando la transformación por los autovectores.
Solución
Para este sistema ya se halló un modelo semejante en el ejemplo 8. En este
caso vamos a encontrar otro modelo semajante aplicando la transformación de
autovalores.
Ya se conocen los autovalores de este sistema: λ1 = −1 y λ2 = −2. Lo siguiente
es calcular los autovectores, χi , que conformarán la mátriz de transformación y
que responden a la ecuación:

(λi I − A)χi = ~0.

Entonces, para el primer autovalor:


     
−1 0 0 1 χ11
− = ~0
0 −1 −2 −3 χ12
  
−1 −1 χ11
= ~0,
2 2 χ12
de donde salen dos ecuaciones linealmente dependiente que establecen

χ11 = −χ12

Entonces, se tiene la libertad de elegir cualquier autovector cuyos elementos


cumplan con esa relación. Por ejemplo, se propone:
 
1
χ1 =
−1

Haciendo el mismo planteo para el otro autovalor:


     
−2 0 0 1 χ21
− = ~0
0 −2 −2 −3 χ22
  
−2 −1 χ21
= ~0
2 1 χ22
sale la relación
2χ21 = −χ22
y se propone el autovector  
1
χ2 =
−2
Entonces, una posible matriz de transformación es
 
    1 1
P = χ1 χ2 = ,
−1 −2

y su inversa,  
−1 2 1
P = .
−1 −1
CAPÍTULO 5. VARIABLES DE ESTADO 166

Luego, las matrices del modelo transformado quedan:


      
2 1 0 1 1 1 −2 −1 1 1
Λ= =
−1 −1 −2 −3 −1 −2 2 2 −1 −2
 
−1 0
Λ= ,
0 −2
verficándose ası́ que la matriz de estados del modelo transformado es diagonal.
El resto de las matrices del modelo son:
      
2 1 0 1  1 1 
Bv = = ; Cv = 4 5 = −1 −6
−1 −1 −1 −1 −1 −2

y Dv = D = 0. Entonces las ecuaciones del modelo transformado son


   
−1 0 1
v̇(t) = x(t) + u(t)
0 −2 −1

y(t) = −1 −6 x(t)
También puede verificarse que este modelo efectivamente represente al siste-
ma original. Para ello debe comprobarse que la función de transferencia (o la
respuesta al impulso) es la misma.
Para calcular la función de transferencia usando las matrices del modelo se
debe contar con φv (s). Cuando la matriz de estados es diagonal, el cálculo de
la matriz de transición es inmediato. Verifique que para este modelo es:
 1 
s+1 0
φv (s) =  ,
1
0 s+2

y observe la relación con la matriz A.


Entonces, la función de tranferencia es:

Hv (s) = Cv φv (s)Bv + Dv
 1 
 s+1 0    
 1 = −1 −6 1

Hv (s) = −1 −6  s+1 s+2
1 −1 −1
0 s+2

6 1 5s + 4
Hv (s) = − = ,
s+2 s+1 (s + 1)(s + 2)
que es la misma función de transferencia del resto de los modelos semejantes
que representan al mismo sistema (misma relación entrada-salida).

Para ver ejemplos y explicaciones:


Variables de estado: https://youtu.be/rX3YCOkucAs
Apéndice A

Operador anulador

El método del operador anulador permite encontrar la solución completa, y(t),


de una ecuación diferencial dada

an y (n) (t) + an−1 y (n−1) (t) + ... + a1 y 0 (t) + a0 y(t) = x(t),

con cierta entrada x(t) y condiciones iniciales y(0), y 0 (0), ..., y (n−1) (0).
El procedimiento requiere, como primer paso, encontrar un operador, LA , que
anule la función particular dada, x(t). Es decir,

LA [x(t)] = 0.

LA siempre se puede encontrar si x(t) es solución de una ecuación homogénea


con coeficientes constantes.
Ejemplos:
Si x(t) = eat , entonces LA = D − a, porque

(D − a)[eat ] = aeat − aeat = 0

Si x(t) = A cos (bt) + Bsen(bt), entonces LA = D2 + b2 , porque

(D2 + b2 )[A cos (bt) + Bsen(bt)] =

= −b2 A cos (bt) − b2 Bsen(bt) + b2 A cos (bt) + b2 Bsen(bt) = 0

Una vez hallado LA , se aplica a ambos miembros de la ecuación completa ori-


ginal. Haciendo ésto se obtiene una ecuación diferencial homogénea. Es decir,
dada la ecuación
A(D)[y(t)] = x(t),
aplicamos el operador anulador:

LA {A(D)[y(t)]} = LA [x(t)],

167
APÉNDICE A. OPERADOR ANULADOR 168

y obtenemos
LA {A(D)[y(t)]} = 0.

Ahora se tiene una ecuación diferencial homogénea pero de mayor orden que la
ecuación original. Por lo tanto, la nueva ecuación caracterı́stica asociada tendrá,
además de las n raı́ces originales, nuevas raı́ces que le imponga el operador
anulador. Entonces, la solución propuesta será:

c1 y1 (t) + c2 yn (t) + ... + cn yn (t) + cL1 yL1 (t) + cL2 yL2 (t) + ... + cLr yLr (t).

Las n primeras funciones satisfacen A(D)[y(t)] = 0 y conforman la parte ho-


mogénea de la solución; entonces,

LA {A(D)[y(t)]} = LA {A(D)[cL1 yL1 (t) + cL2 yL2 (t) + ... + cLr yLr (t)]} = 0.

Los términos que quedan son los que provienen de la función particular de
excitación (entrada) y corresponden a la solución particular estudiada antes.
En este método no es necesario proponer una forma para la solución particular.
Sı́ es necesario, por el contrario, encontrar la forma del operador anulador.
Ejemplo. Considere la ecuación diferencial A(D)[y(t)] = (D2 + 1)[y(t)] = sen(t),
con condiciones iniciales y(0) = 1; y 0 (0) = 0.
Solución. En primer lugar se busca el operador que anule a la función x(t). En
este caso:
LA = D2 + 1.

Luego se aplica el operador LA a la ecuación diferencial dada:

(D2 + 1){A(D)[y(t)]} = (D2 + 1)(D2 + 1)[y(t)] = (D2 + 1)sen(t),

que pasa a ser una ecuación homogénea de cuarto orden:

(D2 + 1)(D2 + 1)[y(t)] = 0.

El siguiente paso es proponer la solución, cuya forma dependerá de las raı́ces de


la ecuación caracterı́stica, que surgen de

(r2 + 1)(r2 + 1) = 0.

Claramente las raı́ces son j y −j, dobles. Entonces, la solución que se propone
es la que corresponde a raı́ces complejas conjugadas múltiples:

y(t) = c1 cos (t) + c2 sen(t) + c3 t cos (t) + c4 tsen(t).

Si se sustituye esta función en la ecuación original, se obtiene:

A(D){c1 cos (t) + c2 sen(t) + c3 t cos (t) + c4 tsen(t)} = sen(t),

(D2 + 1){c1 cos (t) + c2 sen(t)} + (D2 + 1){c3 t cos (t) + c4 tsen(t)} = sen(t).
APÉNDICE A. OPERADOR ANULADOR 169

El primer término es 0 porque corresponde a la forma de la solución homogénea


de la ecuación original. Con el segundo término, operamos e igualamos coefi-
cientes. La derivada segunda de ese término es:

D2 {c3 t cos (t) + c4 tsen(t)} = −2c3 sen(t) − c3 t cos (t) + 2c4 cos (t) − c4 tsen(t).

Ası́,
(D2 + 1){c3 t cos (t) + c4 tsen(t)} = sen(t)
puede ponerse como:

−2c3 sen(t) + 2c4 cos (t) = sen(t).

Luego, igualando coeficientes se llega a que c3 = − 21 y c4 = 0. Entonces, la parte


de la solución que corresponde a la entrada (la solución particular vista antes)
es:
1
yp (t) = − t cos (t).
2
Ahora estamos en condiciones de escibir la solución completa:
1
y(t) = c1 cos (t) + c2 sen(t) − t cos (t).
2

Para obtener los coeficientes restantes se aplican las condiciones iniciales.


La derivada de y(t) es:
1 1
y 0 (t) = −c1 sen(t) + c2 cos (t) − cos (t) + tsen(t).
2 2

Luego, especializando en cero tenemos:

y(0) = c1 = 1;
1 1
y 0 (0) = c2 − = 0 ⇒ c2 = .
2 2
Y ası́ se obtiene la solución completa de esta ecuación diferencial con la entrada
y las condiciones inciales dadas:
1 1
y(t) = cos (t) + sen(t) − t cos (t).
2 2
Apéndice B

Fórmula de Leibniz

La Regla de Leibniz y varios teoremas asociados, permiten afirmar que es legı́ti-


mo derivar bajo el signo integral cuando el integrando es función continua del
grupo de variables y parámetros. Entonces, para una función, f , integrable sobre
el intervalo [u, v], se define F sobre [u, v] como
Z v(t)
F (t)) f (t, τ )dτ.
u(t)

Si f es continua en (u, v) entonces F es derivable.


Una consecuencia directa de lo anterior es la siguiente igualdad:
Z v(t) Z v(t)
d d
f (t, τ )dτ = f (t, v(t))v 0 (t) − f (t, u(t))u0 (t) + f (t, τ )dτ.
dt u(t) u(t) dt

170
Apéndice C

Algunas formas de onda

Se muestran debajo los coeficientes complejos de Fourier para formas de ondas


de uso frecuente.

171
APÉNDICE C. ALGUNAS FORMAS DE ONDA 172
Apéndice D

Cálculo de φ(t)

Método de Cayley-Hamilton
Este método permite el cálculo directo de la matriz de transición, sin pasar por
el dominio de la transformada de Laplace. Sin embargo, por lo general tiene una
mayor dificultad operativa.
Para A diagonal, con elementos diferentes aii , i = 1, 2, ..n, puede demos-
trarse que φ(t) siempre será también una matriz nxn diagonal, cuyos
elementos son eaii t , i = 1, 2, ..n.
Para A cualquiera, debe calcularse mediante alguna de las siguientes ex-
presiones:
∞ k
X t k
eAt = A
k!
k=0
n−1
X
eAt = γi (t)Ai
i=0

La última expresión es la que corresponde al método de Cayley-Hamilton. La


reducción de la serie infinita de a una serie de n términos se debe al teorema que
establece que solamente las primeras n − 1 potencias de la matriz de orden nxn
son linealmente independientes; es decir, todas las potencias más altas de A
pueden expresarse en términos de I, A, A2 ,... , An−1 . La ventaja es, entonces,
que se reduce una suma de infinitos términos a una suma de n términos.
El Método de Cayley–Hamilton indica que cualquier matriz arbitraria A de
tamaño nxn satisface su ecuación caracterı́stica, es decir:
det(λI − A) = 0,
donde los escalares λi con i = 1, 2..., n que satisfacen la ecuación caracterı́stica
anterior son los autovalores de A. Se puede demostrar que eAt puede escribirse
como una combinación lineal de potencias de A:
n−1
X
eAt = γi (t)Ai ,
i=0

173
APÉNDICE D. CÁLCULO DE φ(T ) 174

donde las funciones γi (t) se obtienen resolviendo el sistema de n ecuaciones


n−1
X
eλj t = γ0 (t) + γi (t)λij ,
i=1

con j = 1, 2, ..., n.
El método se aplica directamente cuando todos los autovalores son diferentes.
Ejemplo D.1.
Hallar la matriz de transición de los estados del modelo cuya matriz de estados
es  
−3 1 0
A =  1 −3 0 
0 0 −3

La ecuación caracterı́stica de la matriz de estados es


 
λ+3 −1 0
det(λI − A) = det  −1 λ+3 0 =0
0 0 λ+3

λ3 + 9λ3 + 26λ + 24 = 0,
de donde salen los tres autovalores;

λ1 = −2; λ2 = −3; λ3 = −4.

Entonces, ya puede escribirse el sistema de tres ecuaciones con tres incógnitas:


2
X
eλj t = γ0 (t) + γi (t)λij
i=1

e−2t = γ0 (t) − 2γ1 (t) + 4γ2 (t)


e−3t = γ0 (t) − 3γ1 (t) + 9γ2 (t)
e−4t = γ0 (t) − 4γ1 (t) + 16γ2 (t)

De esas ecuaciones salen las funciones:

γ0 (t) = 6e−2t − 8e−3t + 3e−4t


7 −2t 5
γ1 (t) = e − 6e−3t + e−4t
2 2
1 1
γ2 (t) = e−2t − e−3t + e−4t
2 2
Una vez que se cuenta con las funciones γi ya puede calcularse la matriz de
transición:
n−1
X
eAt = γi (t)Ai
i=0
APÉNDICE D. CÁLCULO DE φ(T ) 175
     
1 0 0 −3 1 0 10 −6 0
eAt = γ0 (t) 0 1 0 + γ1 (t)  1 −3 0  + γ2 (t) −6 10 0
0 0 1 0 0 −3 0 0 9
 1 −2t 1 −4t 1 −2t 1 −4t 
2e + 2e 2e − 2e 0
eAt =  12 e−2t − 12 e−4t 12 e−2t + 12 e−4t 0 
−3t
0 0 e

Cuando hay autovalores múltiples se hace una modificación, como se muestra


en el siguiente ejemplo.
Ejemplo D.2.
Hallar la matriz de transición de los estados del modelo cuya matriz de estados
es  
−1 1 0
A =  0 −4 4 ,
0 −1 0
que tiene autovalores
λ1 = −1; λ2 = −2 doble.

Las dos primeras ecuaciones para obtener γi (t) son

e−t = γ0 (t) − γ1 (t) + γ2 (t)

e−2t = γ0 (t) − 2γ1 (t) + 4γ2 (t)


Para obtener una tercera ecuación se deriva

eλj t = γ0 (t) − λj γ1 (t) + λ2j γ2 (t)

con respecto de λj :
teλj t = γ1 (t) + 2λj γ2 (t),
lo que nos da la tercera ecuación:

te−2t = γ1 (t) − 4γ2 (t).

Ası́ que el sistema queda:

e−t = γ0 (t) − γ1 (t) + γ2 (t)

e−2t = γ0 (t) − 2γ1 (t) + 4γ2 (t)


te−2t = γ1 (t) − 4γ2 (t).
Luego se sigue con el procedimiento de la misma manera que en el ejemplo
anterior.

También podría gustarte