0% encontró este documento útil (0 votos)
28 vistas54 páginas

Movimiento Armónico Simple en Física

Cargado por

davidamk24
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
28 vistas54 páginas

Movimiento Armónico Simple en Física

Cargado por

davidamk24
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

FÍSICA

1. ONDAS

1.1. MOVIMIENTO ARMÓNICO SIMPLE (MAS)

El movimiento armónico simple (se abrevia movimiento, la fuerza que actúa sobre la
m.a.s.), también denominado movimiento partícula es proporcional a su desplazamiento
vibratorio armónico simple (abreviado respecto a dicho punto y dirigida hacia éste.
m.v.a.s.), es un movimiento periódico que queda
descrito en función del tiempo por una función
Consideremos como ejemplo de sistema que
armónica (seno o coseno). Si la descripción de
describe un movimiento armónico simple una
un movimiento requiriese más de una función
masa m unida al extremo de un muelle elástico
armónica, en general sería un movimiento
de constante k, como se muestra en la figura. El
armónico, pero no un m.a.s..
otro extremo del muelle está fijo. El movimiento
En el caso de que la trayectoria sea rectilínea, la horizontal de la masa puede describirse
partícula que realiza un m.a.s. oscila alejándose utilizando la segunda ley de Newton: la única
y acercándose de un punto, situado en el centro fuerza que actúa sobre la masa es la fuerza
de su trayectoria, de tal manera que recuperadora del muelle, que es proporcional y
su posición en función del tiempo con respecto a de sentido opuesto a su alargamiento x desde
ese punto es una sinusoide. En este una posición de equilibrio estable.
1.1.1. Ecuación del movimiento

1.1.1.1. Elongación. En un movimiento armónico simple la magnitud de la fuerza ejercida sobre la partícula
es directamente proporcional a su elongación, esto es la distancia a la que se encuentra ésta respecto a
su posición de equilibrio. En un desplazamiento a lo largo del eje Ox, tomando el origen O en la posición de
equilibrio, esta fuerza es tal que donde es una constante positiva y es la elongación. El
signo negativo indica que en todo momento la fuerza que actúa sobre la partícula está dirigida hacía la
posición de equilibrio; esto es, en dirección contraria a su elongación (la "atrae" hacia la posición de
equilibrio).
Aplicando la segunda ley de
Newton, el movimiento armónico simple se
define entonces en una dimensión
mediante la ecuación diferencial:

(1)
Siendo la masa del cuerpo en desplazamiento. Escribiendo se obtiene la siguiente ecuación
donde es la frecuencia angular del movimiento:

(2)
La solución de la ecuación diferencial (2) puede escribirse en la forma

(3)
donde:
es la elongación de la partícula. es la amplitud del
movimiento (elongación máxima).
es la frecuencia angular
es el tiempo.
es la fase inicial e indica el estado de oscilación o vibración (o fase) en el instante t = 0 de la
partícula que oscila.
Además, la frecuencia de oscilación puede escribirse como esto:

(4)
, y por lo tanto el
periodo como

La velocidad y aceleración de la partícula pueden obtenerse derivando respecto del tiempo la expresión
.
1.1.1.2. Velocidad. La velocidad instantánea de un punto material que ejecuta un movimiento armónico
simple se obtiene por lo tanto derivando la posición respecto al tiempo:
(5)
1.1.1.3. Aceleración. La aceleración es la variación de la velocidad del movimiento respecto al tiempo y se
obtiene por lo tanto derivando la ecuación de la velocidad respecto al tiempo:

(6)

1.1.1.4. Amplitud y fase inicial. La amplitud y la fase inicial se pueden calcular a partir de las
condiciones iniciales del movimiento, esto es de los valores de la elongación y de la velocidad iniciales.

(7)

(8)
Sumando miembro a miembro las dos ecuaciones (7) y (8) obtenemos

(9)

Dividiendo miembro a miembro las dos ecuaciones (7) y (8) obtenemos

(10)

1.1.2. Dinámica del Movimiento Armónico Simple. En el movimiento armónico simple la fuerza que actúa
sobre el móvil es directamente proporcional al desplazamiento respecto a su posición de equilibrio, donde la
fuerza es nula. Esta fuerza va siempre dirigida hacia la posición de equilibrio y el móvil realiza un movimiento
de vaivén alrededor de esa posición.
(11)
Un ejemplo de MAS sería el que realiza un objeto unido al extremo un muelle, en ese caso k sería la constante
de elasticidad del muelle.
Aplicando la segunda ley de newton tendríamos:

(12)

Comparando esta ecuación y la que teníamos para la aceleración (6) se deduce:

(13)
Esta ecuación nos permite expresar el periodo (T) del movimiento armónico simple en función de la masa de
la partícula y de la constante elástica de la fuerza que actúa sobre ella:

(14)

1.1.3. Energía del Movimiento Armónico Simple. Las fuerzas involucradas en un movimiento armónico
simple son centrales y, por tanto, conservativas. En
consecuencia, se puede definir un campo
escalar llamado energía potencial (Ep) asociado a la
fuerza. Para hallar la expresión de la energía potencial,
basta con integrar la expresión de la fuerza (esto es
extensible a todas las fuerzas conservativas) y
cambiarla de signo, obteniéndose:

(15)
La energía potencial alcanza su máximo en los
extremos de la trayectoria y tiene valor nulo (cero) en el punto x = 0, es decir el punto de equilibrio.
La energía cinética cambiará a lo largo de las oscilaciones pues lo hace la velocidad:

(16)
La energía cinética es nula en -A o +A (v=0) y el valor máximo se alcanza en el punto de equilibrio (máxima
velocidad Aω).

(17)
Como sólo actúan fuerzas conservativas, la energía mecánica (suma de la energía cinética y potencial)
permanece constante.

(18)
Finalmente, al ser la energía mecánica constante, puede calcularse fácilmente considerando los casos en
los que la velocidad de la partícula es nula y por lo tanto la energía potencial es máxima, es decir, en los
puntos . Se obtiene entonces que,
(19)
O también cuando la velocidad de la partícula es máxima y la energía potencial nula, en el punto de equilibrio

(20)

EJERCICIOS……
1. Un objeto que describe un movimiento armónico simple tiene su máximo desplazamiento, 0,2m en t=0s, y
hace 8 oscilaciones en 1 segundo, a) Hallar los instantes en que las posiciones respecto del punto de
equilibrio son por primera vez 0,1m, 0m, -0,1m y – 0,2m, respectivamente. b) Hallar la velocidad en
dichos instantes.

2. Un objeto en movimiento en movimiento armónico simple con frecuencia de 10Hz tiene una velocidad
m
máxima de 3 ¿Cuál es la amplitud del movimiento? s
3. La frecuencia de una partícula que oscila en los extremos de un resorte es de 5Hz. ¿Cuál es la aceleración
de la partícula cuando el desplazamiento es 0,15m?.

4. Un resorte se estira 0,05m cuando se le cuelga una partícula de 0,3kg. a) ¿Cuál es la constante del resorte?
b) ¿Cuál es la frecuencia de vibración de la partícula en el extremo del resorte?

5. El periodo de una partícula de 0,75kg que oscila unida a un resorte es de 1,5s ¿Cuál es la constante del
resorte?

m
6. Un objeto unido a un resorte describe un m.a.s. Su velocidad máxima es 3 y su amplitud 0,4m. s
m
Cuál es su desplazamiento cuando v =1,5 ?. s
1.3. SUPERPOSICIÓN DE ONDAS

En física, la interferencia es un fenómeno en el que dos o más ondas se superponen para formar una
onda resultante de mayor o menor amplitud. El efecto de interferencia puede ser observado en cualquier
tipo de ondas, como luz, radio, sonido, ondas en la superficie del agua, etc.

En la mecánica ondulatoria la interferencia es el resultado de la superposición de dos o más ondas,


resultando en la creación de un nuevo patrón de ondas. Aunque la acepción más usual para interferencia
se refiere a la superposición de dos o más ondas de frecuencia idéntica o similar. Matemáticamente, la
onda resultante es la suma algebraica de las ondas incidentes, de tal forma que la función de onda en
un punto es la suma de todas las funciones de onda en ese punto.

Una de las propiedades de la ecuación de onda es que se trata de una ecuación lineal, esto quiere decir
que admite el principio de superposición. Esto significa que si y1 e y2 son las soluciones de la misma
ecuación de onda
(esto es, ambas representan posibles ondas que se pueden propagar por la misma cuerda), entonces su
suma también es solución

Esto se aplica cualquiera que sean las ondas componentes. En el caso particular de pulsos de onda el
resultado es que, aunque durante el periodo de coincidencia, la deformación de la cuerda puede adoptar
formas extrañas, cuando se separan ambos pulsos continúan sin haber sido afectados en absoluto por
la “colisión” con el otro.

En el caso de ondas sinusoidales, el principio es el mismo. Sin embargo, dado que estas ondas se
extienden (en teoría) indefinidamente en el espacio, la coincidencia se produce en todas partes todo el
tiempo. Además, la forma de las ondas resultantes a menudo posee interpretación por sí misma. Por ello,
interesa estudiar el resultado de la superposición de ondas armónicas, y no solo considerarlas como
compuestas de sus ondas componentes (que a menudo son desconocidas o irrelevantes, pues lo que se
observa es el resultado de la superposición.

1.3.1. Mismo sentido

1.3.1.1. Misma frecuencia

- Misma amplitud. Comenzamos suponiendo el caso más sencillo posible: dos ondas que se propagan
por la misma cuerda en el mismo sentido, con la misma frecuencia y la misma amplitud, diferenciándose
exclusivamente en su desfase. Podremos escribir estas dos señales como
donde hemos tomado la primera señal como
referencia y con desfase 0. A menudo, para
hablar del desfase entre las dos ondas, en lugar
del ánguloφ se emplea la distancia ∆x entre un
máximo de una onda y el máximo de la otra, de
forma que se habla de que están desfasadas
“media longitud de onda” o “un cuarto de longitud
de onda”, por ejemplo. La relación entre este
desfase y el ángulo φ es

Para estas dos señales, la superposición será

Aplicando aquí la relación trigonométrica que transforma sumas en productos

la superposición de ondas se nos convierte en

con

Podemos interpretar este resultado de forma sencilla: la suma de dos ondas viajeras en el mismo sentido
con la misma frecuencia y amplitud es una nueva onda viajera con un desfase que es la media de los
desfases respectivos y cuya amplitud depende del desfase.

Atendiendo al valor del desfase tenemos dos casos importantes:

• Interferencia constructiva: Cuando el desfase entre las ondas es un múltiplo par de π, o en


términos de la distancia entre máximos de las ondas, si están desfasados en un número entero de
longitudes de onda

en este caso las ondas son completamente coincidentes y la onda resultante es una en fase con ellas y con
amplitud el doble de la cada una

Se dice entonces que estas ondas están en fase y poseen interferencia constructiva.

Nótese que al ser la amplitud el doble, la energía de la onda resultante es el cuádruple de la de las ondas
componentes y lo mismo ocurre con la potencia, esto es, que la energía de la suma no es igual a la suma
de las energías.
• Interferencia destructiva: Cuando el desfase entre las ondas es un múltiplo impar de π, o en
términos de la longitud, cuando se diferencian en un múltiplo semientero de la longitud de onda
(media longitud de onda, longitud y media, dos longitudes y media,…)

Si las ondas se encuentran en esta situación (denominada contrafase u oposición de fase) las ondas son
exactamente iguales, pero de signo contrario, con lo que se cancelan mutuamente y el resultado es una
onda nula (de ahí lo de interferencia destructiva).

Para esta interferencia la energía almacenada es naturalmente nula y lo mismo ocurre con la potencia.

De nuevo comprobamos que la energía de la suma no es la suma de las energías.

• Otras interferencias: cuando las ondas se encuentran en una situación intermedia entre estar en
fase o en oposición de fase, el resultado es una onda cuya amplitud es intermedia entre 0 y 2A0.
En particular, existe un desfase para el cual la suma de las ondas tiene exactamente la misma
amplitud que cada una de los sumandos.

- Diferente amplitud. Supongamos ahora que tenemos dos ondas de la misma frecuencia propagándose
en el mismo sentido, pero de diferente amplitud y fase:

En este caso, el uso de relaciones trigonométricas no es tan simple como en el caso anterior, así que
primero consideraremos dos casos sencillos y posteriormente daremos la solución general, con ayuda
del cálculo fasorial.

• Interferencia constructiva: Si el desfase es nulo, las dos ondas están en fase y el resultado es una
onda con amplitud la suma de ambas

• Interferencia destructiva: Si la s ondas se encuentran en


contrafase ( φ = π ), no se produce la a nulación completa, por ser
una de las ondas de mayor amplitud que la otra. La suma de
ambas señales da

Si tenemos en cuenta q ue la amplitu d siempre la consideramos


positiva, esta superposición debe escribir se de forma correcta como

con

En el caso general de amplitudes diferentes y fase arbitraria, podemos


hacer uso del cálculo fasorial. Cada una de las señales se
puede poner en la forma

siendo los fasores de cada una

Cuando sumemos estas dos ondas, el resultado será una nueva


onda, con fasor

Esta suma de números complejos la posemos escribir como un


solo fasor que combina la amplitud y el desfase de la onda
resultante

La amplitud de las oscilaciones será el módulo del número complejo

y, aplicando la fórmula de Euler obtenemos finalmente


Este módulo es el de la suma vectorial de los dos fasores, considerados como vectores en el plano complejo.

Podemos comprobar que los dos casos anteriores están contenidos en este resultado:

• Si , y la amplitud se reduce a

• Si , y queda la amplitud

También podemos reobtener el caso de que ambas señales tengan la misma amplitud, para cualquier fase.
Si A1 =A2 = A0

Además de la amplitud, obtenemos el desfase de la onda resultante como el argumento del fasor

En cuanto a la energía de la onda resultante, aplicando la fórmula para la energía contenida en una onda nos
queda

que se lee como que la energía de la suma es igual a la suma de las energías, más un término que
depende de las amplitudes y del desfase, y que puede ser tanto positivo (en interferencia constructiva)
como negativo (en interferencia destructiva).

1.3.2. Sentido opuesto

1.3.2.1. Misma amplitud. Vamos a examinar ahora el caso de que tengamos dos ondas viajeras de la misma
frecuencia y amplitud y propagándose en sentidos opuestos:
En este caso no es necesario introducir la constante porque, para ondas que van en sentidos opuestos
el concepto de desfase no tiene mucho sentido. Se puede incluir esta constante, pero los resultados no
se diferencian en lo esencial de lo que se obtiene sin ella.

La superposición de estas dos señales se puede transformar aplicando relaciones trigonométricas

Esta es la ecuación de una onda estacionaria, que se puede escribir en la forma

Lo que nos dice esta ecuación es que aunque tenemos la superposición de dos ondas viajeras, la suma es
una onda en que todos los puntos oscilan en fase, con una amplitud dependiente de su posición. En los
puntos en que resulta una amplitud A(x) negativa, debe entenderse que la amplitud es el valor absoluto de
esta cantidad y que los puntos correspondientes están en oposición de fase (esto es, tienen una constante
de fase igual a π).

Nodos. La amplitud varía como un coseno, lo cual implica que existen puntos para los cuales la amplitud de
oscilación es nula. Estos puntos se denominan nodos. La posición de estos nodos la da la condición

La distancia entre nodos consecutivos es media longitud de onda

Vientres. Los puntos en que la amplitud de oscilación es máxima se denominan vientres. Los vientres se
encuentran en los puntos medios entre nodos, y por tanto la distancia entre vientres consecutivos es también
media longitud de onda, y la distancia de un vientre al nodo más próximo es λ / 4.

1.3.2.2. Diferente amplitud. Si las dos ondas no son de la misma amplitud,


la superposición se compone de una parte estacionaria y de una parte viajera.

Supongamos que A1 > A2. Para la primera onda podemos escribir trivialmente

Sumando con la segunda

Comparando las figuras siguientes que el primer caso (dos ondas viajeras) tiene la misma suma que la
segunda (una onda viajera -naranja-y una estacionaria -verde-)

1.3.3. Pulsaciones o batidos. Si se da el caso de que la frecuencia de ambas ondas no es igual (


), pero si son valores muy cercanos entre sí, la onda resultante es una onda modulada en amplitud
por la llamada "frecuencia de batido" cuyo valor corresponde
a , la frecuencia de esta onda modulada corresponde a la media de las
frecuencias que interfieren.

Este fenómeno se usa por ejemplo, para afinar instrumentos (por ejemplo, un piano y un diapasón), ya que
cuando las pulsaciones desaparecen, esto quiere decir que las frecuencias de ambos instrumentos son
iguales (o casi iguales a un nivel que el batido no es detectable).
1.4. ONDAS SONORAS

Una onda sonora es una onda longitudinal que transmite lo que se asocia con sonido. Si se propaga en un
medio elástico y continuo genera una variación local de presión o densidad, que se transmite en forma de
onda esférica periódica o cuasiperiódica. Mecánicamente las ondas sonoras son un tipo de onda elástica.
Las variaciones de presión, humedad o temperatura del medio, producen el desplazamiento de las moléculas
que lo forman. Cada molécula transmite la vibración a las que se encuentren en su vecindad, provocando un
movimiento en cadena. Esa propagación del movimiento de las moléculas del medio, producen en el oído
humano una sensación descrita como sonido.

1.4.1. Modo de propagación. El sonido está formado por ondas sonoras que no son sino ondas mecánicas
elásticas longitudinales u ondas de compresión en un medio. Eso significa que:

- Para propagarse precisan de un medio material (aire, agua, cuerpo sólido) que transmita la
perturbación (viaja más rápido en los sólidos, luego en los líquidos aún más lento en el aire, y en el vacío no
se propaga). Es el propio medio el que produce y propicia la propagación de estas ondas con su compresión
y expansión. Para que pueda comprimirse y expandirse es imprescindible que éste sea un medio elástico, ya
que un cuerpo totalmente rígido no permite que las vibraciones se transmitan. Así pues, sin medio elástico
no habría sonido, ya que las ondas sonoras no se propagan en el vacío.

- Además, los fluidos sólo pueden transmitir movimientos ondulatorios en que la vibración de las
partículas se da en dirección paralela a la velocidad de propagación o lo largo de la dirección de propagación.
Así los gradientes de presión que acompañan a la propagación de una onda sonora se producen en la misma
dirección de propagación de la onda, siendo por tanto éstas un tipo de ondas longitudinales(en los sólidos
también pueden propagarse ondas elásticas transversales).

1.4.2. Propagación en medios. Las ondas sonoras se desplazan también en tres dimensiones y sus frentes
de onda en medios isótropos son esferas concéntricas que salen desde el foco de la perturbación en todas

las direcciones. Por esto son ondas esféricas. Los cambios de presión p2 que
En el caso de las ondas sonoras ordinarias, casi siempre son la superposición de ondas de diferentes
frecuencias y longitudes de onda, y forman pulsos de duración finita. Para estas ondas sonoras la velocidad
de fase no coincide con la velocidad de grupo o velocidad de propagación del pulso. La velocidad de fase es
diferente para cada frecuencia y depende al igual que antes de la relación c=ν•λ. El hecho de que la velocidad
de fase sea diferente para cada frecuencia, es responsable de la distorsión del sonido a grandes distancias.

1.4.3. Percepción humana de las ondas sonoras. El hercio (Hz) es la unidad que expresa la cantidad de
vibraciones que emite una fuente sonora por unidad de tiempo (frecuencia). Se considera que el oído humano
puede percibir ondas sonoras de frecuencias entre los 20 y los 20.000 Hz, si bien también se consideran
rangos entre 16 Hz (aproximadamente la nota más grave de un órgano de iglesia: do0 = 16,25 Hz) y 16.000
Hz (o 16 kHz). Las ondas que poseen una frecuencia inferior a la audible se denominan infrasónicas y las
superiores ultrasónicas.
La sensación de sonoridad es la percepción sonora que el hombre tiene de la intensidad de un sonido. La
sonoridad se mide mediante una magnitud llamada fonio, que utiliza una escala arbitraria cuyo cero (el
llamado umbral de audición) corresponde a I0=1 × 10-12 W/m² a 1 kHz.

Con un generador de baja frecuencia y un altavoz podemos producir sonido. Con micrófono recibirlo. Si
conectamos los bornes que salen del generador a una de las vías, la A por ejemplo, de un osciloscopio, en
éste, observaremos las ondas emitidas. Si conectamos los bornes del altavoz a la otra vía del osciloscopio,
la B, observaremos una onda de la misma longitud de onda y frecuencia, pero de diferente Amplitud,
consecuencia de que la energía que emite el altavoz se tiene que repartir entre todos los puntos del espacio
que se encuentren, con relación al altavoz, a la misma distancia que el micrófono.
Colocamos el micrófono a una distancia del altavoz tal que los valles de la onda que se observa en A coincida
con las crestas de la onda que aparece en B.

Alejamos el altavoz siguiendo una regla que hemos colocado en la mesa de experimentación. Se observa
que la onda de la vía B se va desplazando con relación a la onda de la vía A, al mismo tiempo que pierde
amplitud. Llegamos a una situación en la cual las crestas de la vía A y de la vía B coinciden. La distancia

recorrida por el altavoz es . Si tomamos nota de la frecuencia emitida por el generador de baja
frecuencia, podremos calcular la velocidad del sonido en el aire en esas condiciones de presión y
temperatura.

No obstante, siempre se puede medir como hizo Galileo. Desde un punto situado a una distancia conocida
del lugar donde nos encontramos en el campo, se puede ver un fogonazo resultado de una explosión, el ruido
de la explosión no nos llega hasta pasado unos segundos. Obtener v es sencillo. De hecho en los fuegos
artificiales es fácil observarlo, pues hoy los cohetes alcanzan una altura notable.
De un modo general, la velocidad del sonido en un gas es:

Donde es el coeficiente adiabático de un gas, que depende de si las moléculas de la sustancia son
monoatómicas (caso de un gas noble), biatómicas (caso del aire) o triatómicas (caso del dióxido de carbono).

Para el aire
es la densidad del gas, su volumen, su presión y la temperatura, la constante de los
gases, la masa molecular (para el aire 28,89), su masa y el número de moles.

Dado que , se obtiene la forma última de


expresar la ecuación

EJERCICIOS……
1.- Dos ondas transversales polarizadas con el mismo plano de polarización, se propagan en una cuerda en
la misma dirección, tienen la misma frecuencia (100 Hz), longitud de onda (82 m) y amplitud (0.02 m), pero
están desfasadas en 60º. Calcular:

a) La velocidad de propagación de las ondas en esa cuerda.

b) La amplitud de la onda resultante y su ecuación de onda.

c) La velocidad máxima de un punto cualquiera de la cuerda.

2. La función de onda correspondiente a una onda armónica en una cuerda es Ψ(x, t) = 0,001
sen(314t+62,8x), escrita en el SI. a) ¿En qué sentido se mueve la onda? b) ¿Cuál es su velocidad? c)
¿Cuál es la longitud de onda, frecuencia y periodo? d) ¿Cuál es el desplazamiento máximo de un segmento
cualquiera de la cuerda? e) ¿Cuál es la ecuación de la velocidad y aceleración de una partícula de la
cuerda que se encuentre en el punto x = – 3 cm?
3. Una onda sinusoidal transversal que se propaga de derecha a izquierda tiene una longitud de onda de
20 m, una amplitud de 4 m y una velocidad de propagación de 200 ms-1Hallar: a) La ecuación de la onda.
b) La velocidad transversal máxima de un punto alcanzado por la vibración. c) Aceleración transversal máxima
de un punto del medio.

4.- Dos focos sonoros emiten simultáneamente ondas de la misma frecuencia f = 425 Hz, siendo la velocidad
del sonido en el aire v = 340 m/s. Si colocamos un aparato registrador de sonidos a x1 = 100m del primer
foco y a x2 = 101.2 del segundo ¿Se registrará sonido en el aparato?

5.- Dos altavoces se excitan mediante el mismo oscilador a una frecuencia de 2000 Hz. La separación entre
los altavoces es de 3 m, como se muestra en la figura. Un escucha está originalmente en el punto O, situado
a 8 m medidos sobre el eje axial central. ¿Cuánto debe caminar el oyente perpendicularmente a ese eje,
antes de alcanzar el primer mínimo en la intensidad sonora?
2. LA LUZ

Se llama luz a la parte de la radiación electromagnética que


puede ser percibida por el ojo humano. En física, el término
luz se usa en un sentido más amplio e incluye todo el campo
de la radiación conocido como espectro electromagnético,
mientras que la expresión luz visible señala específicamente
la radiación en el espectro visible.La luz visible está formada
por ondas electromagnéticas que pueden interferir entre sí.
La interferencia de ondas de luz causa, por ejemplo, las
irisaciones que se ven a veces en las burbujas de jabón. La
luz blanca está compuesta por ondas de luz de distintas
longitudes de onda. Las ondas de luz reflejadas en la
superficie interior de la burbuja interfieren con las ondas de
esa misma longitud reflejadas en la superficie exterior. En
algunas de las longitudes de onda, la interferencia es
constructiva, y en otras destructiva. Como las distintas
longitudes de onda de la luz corresponden a diferentes
colores, la luz reflejada por la burbuja de jabón aparece
coloreada.

2.1. NATURALEZA DE LA LUZ

La luz presenta una naturaleza compleja: depende de cómo la observemos se manifestará como una onda o
como una partícula. Estos dos estados no se excluyen, sino que son complementarios. Sin embargo, para
obtener un estudio claro y conciso de su naturaleza, podemos clasificar los distintos fenómenos en los que
participa según su interpretación teórica:

2.1.1. Teoría ondulatoria. Esta teoría, desarrollada por Christiaan Huygens, considera que la luz es una
onda electromagnética, consistente en un campo eléctrico que varía en el tiempo generando a su vez un
campo magnético y viceversa, ya que los campos eléctricos variables generan campos magnéticos (ley de
Ampère) y los campos magnéticos variables generan campos eléctricos (ley de Faraday). De esta forma, la
onda se autopropaga indefinidamente a través del espacio, con campos magnéticos y eléctricos generándose
continuamente. Estas ondas electromagnéticas son sinusoidales, con los campos eléctrico y magnético
perpendiculares entre sí y respecto a la dirección de propagación.
Para poder describir una onda electromagnética podemos utilizar los parámetros habituales de cualquier
onda:

Amplitud (A): Es la longitud máxima respecto a la posición de equilibrio que alcanza la onda en su
desplazamiento.
Periodo (T): Es el tiempo necesario para el paso de dos máximos o mínimos sucesivos por un punto fijo
en el espacio.
Frecuencia (ν): Número de oscilaciones del campo por unidad de tiempo. Es una cantidad inversa al
periodo.
Longitud de onda (λ): Es la distancia lineal entre dos puntos equivalentes de ondas sucesivas.
Velocidad de propagación (V): Es la distancia que recorre la onda en una unidad de tiempo. En el caso
de la velocidad de propagación de la luz en el vacío, se representa con la letra c.
La velocidad, la frecuencia, el periodo y la longitud de onda están relacionadas por las siguientes ecuaciones:

2.1.1.1. Fenómenos ondulatorios. Algunos de los fenómenos más importantes de la luz se pueden
comprender fácilmente si se considera que tiene un comportamiento ondulatorio.
El principio de superposición de ondas nos permite explicar el fenómeno de la interferencia: si
juntamos en el mismo lugar dos ondas con la misma
longitud de onda y amplitud, si están en fase (las
crestas de las ondas coinciden)
formarán una interferencia constructiva y la
intensidad de la onda resultante será máxima e igual a
dos veces la amplitud de las ondas que la conforman.
Si están desfasadas, habrá un punto donde el desfase
sea máximo (la cresta de la onda coincida exactamente
con un valle) formándose una
interferencia destructiva, anulándose la onda. El
experimento de Young, con sus rendijas, nos permite
obtener dos focos de luz de la misma longitud de onda
y amplitud, creando un patrón de interferencias sobre
una pantalla.
Las ondas cambian su dirección de propagación al cruzar un obstáculo puntiagudo o al pasar por una abertura
estrecha. Como recoge el principio de Fresnel -
Huygens, cada punto de un frente de ondas es un
emisor de un nuevo frente de ondas que se propagan
en todas las direcciones. La suma de todos los nuevos
frentes de ondas hace que la perturbación se siga
propagando en la dirección original. Sin embargo, si por
medio de una rendija o de un obstáculo puntiagudo, se
separa uno o unos pocos de los nuevos emisores de
ondas, predominará la nueva dirección de propagación
frente a la original.

La difracción de la luz se explica fácilmente si se tiene en cuenta este efecto exclusivo de las ondas. La
refracción, también se puede explicar utilizando este principio, teniendo en cuenta que los nuevos frentes
de onda generados en el nuevo medio, no se transmitirán con la misma velocidad que en el
anterior medio, generando una distorsión en la dirección
de propagación:

Otro fenómeno de la luz fácilmente identificable con su


naturaleza ondulatoria es la polarización. La luz no
polarizada está compuesta por ondas que vibran en todos
los ángulos, al llegar a un medio polarizador, sólo las
ondas que vibran en un ángulo determinado consiguen
atravesar el medio, al poner otro polarizador a continuación, si el ángulo que deja pasar el medio coincide
con el ángulo de vibración de la onda, la luz pasará íntegra, sino sólo una parte pasará hasta llegar
a un ángulo de 90º entre los dos polarizadores, donde no pasará nada de luz.

2.1.2. Teoría corpuscular. La teoría corpuscular estudia la luz como si se tratase de un torrente de partículas
sin carga y sin masa llamadas fotones, capaces de portar todas las formas de radiación electromagnética.
Esta interpretación resurgió debido a que, la luz, en sus interacciones con la materia, intercambia energía
sólo en cantidades discretas (múltiplos de un valor mínimo) de energía denominadas cuantos. Este hecho es
difícil de combinar con la idea de que la energía de la luz se emita en forma de ondas, pero es fácilmente
visualizado en términos de corpúsculos de luz o fotones.
2.1.2.1. Fenómenos corpusculares. Existen tres efectos que demuestran el carácter corpuscular de la luz.
Según el orden histórico, el primer efecto que no se pudo explicar por la
concepción ondulatoria de la luz fue la radiación del cuerpo negro.

Un cuerpo negro es un radiador teóricamente perfecto que absorbe toda la


luz que incide en él y por eso, cuando se calienta se convierte en un emisor
ideal de radiación térmica, que permite estudiar con claridad el proceso de
intercambio de energía entre radiación y materia. La distribución de
frecuencias observadas de la radiación emitida por la caja a una temperatura
de la cavidad dada, no se correspondía con las predicciones teóricas de la
física clásica. Para poder explicarlo, Max Planck, al comienzo del siglo XX,
postuló que para ser descrita correctamente, se tenía que asumir que la luz
de frecuencia ν es absorbida por múltiplos enteros de un cuanto de energía
igual a hν, donde h es una constante física universal llamada Constante de Planck.

En 1905, Albert Einstein utilizó la teoría cuántica recién desarrollada por


Planck para explicar otro fenómeno no comprendido por la física
clásica: el efecto fotoeléctrico. Este efecto consiste en que cuando un rayo monocromático de radiación
electromagnética ilumina la superficie de un sólido (y, a veces, la de un líquido), se desprenden electrones
en un fenómeno conocido como fotoemisión o efecto fotoeléctrico externo. Estos electrones poseen una
energía cinética que puede ser medida electrónicamente con un colector con carga negativa conectado a la
superficie emisora. No se podía entender que la emisión de los llamados "fotoelectrones" fuese inmediata e
independiente de la intensidad del rayo. Eran incluso capaces de salir despedidos con intensidades
extremadamente bajas, lo que excluía la posibilidad de que la superficie acumulase de alguna forma la
energía suficiente para disparar los electrones. Además, el número de electrones era proporcional a la
intensidad del rayo incidente. Einstein demostró que el efecto fotoeléctrico podía ser explicado asumiendo
que la luz incidente estaba formada de fotones de energía hν, parte de esta energía hν0 se utilizaba para
romper las fuerzas que unían el electrón con la materia, el resto de la energía aparecía como la energía
cinética de los electrones emitidos:

donde m es la masa del electrón,


vmáx la velocidad máxima observada, ν es la frecuencia de la luz iluminante y ν0 es la frecuencia umbral
característica del sólido emisor.
La demostración final fue aportada por Arthur Compton que observó como al hacer incidir rayos X sobre
elementos ligeros, estos se dispersaban con menor energía y además se desprendían electrones (fenómeno
posteriormente denominado en su honor como efecto Compton). Compton, ayudándose de las teorías
anteriores, le dio una explicación satisfactoria al problema tratando la luz como partículas que chocan
elásticamente con los electrones como dos bolas de billar. El fotón, corpúsculo de luz, golpea al electrón: el
electrón sale disparado con una parte de la energía del fotón y el fotón refleja su menor
energía en su frecuencia. Las direcciones relativas en las que salen despedidos ambos están de acuerdo con
los cálculos que utilizan la conservación de la energía y el momento.
Otro fenómeno que demuestra la teoría corpuscular es la presión luminosa.

2.1.3. Teorías cuánticas. La necesidad de reconciliar las ecuaciones de Maxwell del campo
electromagnético, que describen el carácter ondulatorio
electromagnético de la luz, con la naturaleza corpuscular de los
fotones, ha hecho que aparezcan varías teorías que están aún
lejos de dar un tratamiento unificado satisfactorio. Estas teorías
incorporan por un lado, la teoría de la electrodinámica cuántica,
desarrollada a partir de los artículos de Dirac, Jordan, Heisenberg
y Pauli, y por otro lado la mecánica cuántica de Broglie,
Heisenberg y Schrödinger.

Paul Dirac dio el primer paso con su ecuación de ondas que


aportó una síntesis de las teorías ondulatoria y corpuscular, ya
que siendo una ecuación de ondas electromagnéticas su
solución requería ondas cuantizadas, es decir, partículas. Su
ecuación consistía en reescribir las ecuaciones de Maxwell de
tal forma que se pareciesen a las
ecuaciones hamiltonianas de la mecánica clásica. A
continuación, utilizando el mismo formalismo que, a través de la
introducción del cuanto de acción hν, transforma las ecuaciones
de mecánica clásica en ecuaciones de mecánica ondulatoria,
Dirac obtuvo una nueva ecuación del campo
electromagnético. Las soluciones a esta ecuación requerían ondas cuantizadas, sujetas al principio de
incertidumbre de Heisenberg, cuya superposición representaban el campo electromagnético. Gracias a esta
ecuación podemos conocer una descripción de la probabilidad de que ocurra una interacción u observación
dada, en una región determinada.
Existen aún muchas dificultades teóricas sin resolverse, sin embargo, la incorporación de nuevas teorías
procedentes de la experimentación con partículas elementales, así como de teorías sobre el comportamiento
de los núcleos atómicos, nos han permitido obtener una formulación adicional de gran ayuda.
2.1.3.1. Luz en movimiento. La primera de estas situaciones inexplicables se
producía cuando la luz se emitía, se transmitía o se recibía por cuerpos o medios
en movimiento. Era de esperar, según la física clásica, que la velocidad en estos
casos fuese el resultado de sumar a la velocidad de la luz, la velocidad del
cuerpo o del medio. Sin embargo, se encontraron varios casos en los que no era
así: En 1818, Augustin Fresnel propuso un experimento para medir la velocidad
a la que la luz atravesaba un líquido en movimiento. Para ello, se haría atravesar
a la luz una columna de un líquido que fluyese a una velocidad v relativa al
observador. Conociendo la velocidad v' a la que se trasmite la luz a través de
ese medio (a través del índice de refracción), se calculó que la velocidad total
de la luz en ese fluido sería:

Sin embargo, cuando en 1851, el físico francés Hippolyte Fizeau llevó a cabo
el experimento, comprobó que la velocidad a la que la luz atravesaba el líquido en movimiento no era la
calculada sino:

es decir, que la velocidad del fluido contaba menos en la velocidad final si la velocidad con la que atravesaba
la luz ese fluido era mayor.
En 1725, James Bradley descubrió que la posición observada de las estrellas en el firmamento variaba
anualmente con respecto a la posición real en un intervalo de 41 segundos de arco. La teoría que propuso
para explicarlo fue que esta variación se debía a la combinación de la velocidad de la tierra al rotar alrededor
del sol con la velocidad finita de la luz. Gracias a esta teoría fue capaz de calcular la velocidad de la luz de
una forma aceptable. Basándose en este efecto, el astrónomo inglés George Airy comparó el ángulo de
aberración en un telescopio antes y después de llenarlo de agua, y descubrió que, en contra de sus
expectativas, no había diferencia en sus mediciones (la luz no variaba de velocidad a pesar de que el fluido
se movía a la velocidad de la tierra).
Teniendo en cuenta este experimento, dos astrónomos, el alemán Albert Michelson y el estadounidense
Edward Morley propusieron un experimento (véase Experimento de Michelson y Morley) para medir la
velocidad a la que fluía el éter con respecto a la tierra. Suponían que el éter se movía en una dirección
concreta con una velocidad determinada, por eso, debido a la translación de la Tierra alrededor del Sol habría
épocas del año en el que tendríamos una componente de esa velocidad a favor y otras épocas en contra,
por lo que supusieron que cuando lo tuviésemos a favor, la velocidad de la luz sería superior y cuando lo
tuviésemos en contra sería inferior. Para ello midieron la velocidad de la luz en diferentes estaciones del año
y observaron que no había ninguna diferencia. Y lo más curioso: que ni siquiera había diferencias debidas a
la propia velocidad de translación de la Tierra (30 km/s).
En 1905, Albert Einstein dio una explicación satisfactoria con su teoría de la relatividad especial, en la que,
en su segundo postulado propone que la velocidad de la luz es isótropa, es decir, independiente del
movimiento relativo del observador o de la fuente.

2.1.3.2. Distorsiones espectrales. Al comparar el espectro de la luz


procedente de algunos cuerpos celestes, con los espectros medidos en el
laboratorio de los mismos elementos que los que contienen esos cuerpos, se
observa que no son iguales, ya que las líneas espectrales procedentes del
espacio están desplazadas hacia posiciones de mayor longitud de onda, es
decir, hacia el lado rojo del espectro en lugares de menor energía.
Se han encontrado dos tipos diferentes de desplazamientos de líneas
espectrales:
- Desplazamiento nebular. Uno, el más común, llamado
desplazamiento nebular es un desplazamiento sistemático de los espectros
procedentes de las estrellas y galaxias. Edwin Hubble tras estudiar el
corrimiento de los espectros de las nebulosas, lo interpretó como el resultado
del efecto Doppler debido a la expansión continua del universo. Gracias a esto
propuso una fórmula capaz de calcular la distancia que nos separa de un
cuerpo determinado analizando el corrimiento de su espectro:

donde ∆λ es la diferencia entre las longitudes de onda del espectro del cuerpo y la esperada, λ es la longitud
de onda esperada y d, la distancia en pársecs.
- Desplazamiento gravitacional. El otro, mucho más extraño se llama desplazamiento gravitacional
o efecto Einstein, observado en espectros de cuerpos extremadamente densos. El ejemplo más famoso es
el espectro del llamado compañero oscuro de Sirio. La existencia de este compañero fue predicha por
Friedrich Bessel en 1844 basándose en una perturbación que observó en el movimiento de Sirio, pero debido
a su débil luminosidad, no fue descubierto hasta 1861. Este compañero es una enana blanca que tiene una
masa comparable a la del Sol pero en un radio aproximadamente cien veces menor, por lo que su densidad
es inmensa (61.000 veces la del agua). Al estudiarse su espectro, se observa un desplazamiento de 0,3 Å
de la línea ß de la serie Balmer del hidrógeno.
2.1.4. Teoría de la relatividad general. Para que su anterior teoría de la relatividad especial abarcase
también los fenómenos gravitatorios, Albert Einstein, entre
1907 y 1915 desarrolló la teoría de la relatividad general. Una de las
principales conclusiones de esta teoría es que la propagación de la luz está
influenciada por la gravedad, representada en la teoría por el potencial
gravitatorio Φ, descripto por:

donde G es la Constante de gravitación universal, M la masa y R el radio del


cuerpo.

Einstein encontró que la luz, al pasar por un campo gravitatorio de potencial


Φ sufría una disminución de su velocidad, según la fórmula:

donde c0 es la velocidad de la luz sin campo gravitatorio y c es la velocidad con él.


También se ve modificada la frecuencia de la luz emitida por una fuente en un campo gravitatorio

lo que explica el desplazamiento


gravitacional. Otro ejemplo que confirma experimentalmente este punto de la teoría son las líneas espectrales
del sol, que están desplazadas hacia el rojo dos millonésimas veces cuando sea comparan con las generadas
por los mismos elementos en la Tierra.

Por último, en esta relación entre luz y gravedad, esta teoría predijo que los rayos de luz al pasar cerca de
un cuerpo pesado se desviaba un ángulo α determinado por el efecto de su campo gravitatorio, según la
relación:

Este punto de la teoría fue confirmado experimentalmente estudiando el desvío de la luz que provocaba el
sol, para ello los científicos estudiaron la posición de las estrellas del área alrededor del sol aprovechando
un eclipse en 1931. Se vio que, como predecía la teoría, estaban desviadas hasta 2,2 segundos de arco
comparadas con fotos de la misma área 6 meses antes.
2.1.5. Radiación y materia. Al formular su ecuación de ondas para un electrón libre, Paul Dirac predijo que
era posible crear un par de electrones (uno cargado positivamente y otro negativamente) a partir de un campo
electromagnético que vibrase extremadamente rápido. Esta teoría fue rápidamente confirmada por los
experimentos de Irene Curie yFrédéric Joliot y por los de James Chadwick, Stuart Blackett y Giuseppe
Occhialini al comparar el número de electrones con carga negativa y el número de electrones con carga
positiva (estos últimos llamados positrones) desprendidos por los rayos γ de alta frecuencia al atravesar
delgadas láminas de plomo y descubrir que se obtenía la misma cantidad de unos que de los otros.
Pronto se encontraron otras formas de crear pares positrón-electrón y hoy en
día se conocen una gran cantidad de métodos:

Haciendo chocar dos partículas pesadas.


Haciendo pasar a un electrón a través del campo de un núcleo atómico.
La colisión directa de dos electrones.
La colisión directa de dos fotones en el vacío.

La acción del campo de un núcleo atómico sobre un rayo γ emitido por el


mismo núcleo.

También ocurre el proceso en sentido contrario: al colisionar un electrón y un


positrón (ellos solos tienden a juntarse, ya que tienen cargas eléctricas
opuestas), ambos se aniquilan convirtiendo toda su masa en energía radiante. Esta radiación se emite en
forma de dos fotones de rayos γ dispersados en la misma dirección, pero diferente sentido.

Esta relación entre materia-radiación, y viceversa (y sobre todo la conservación de la energía en esta clase
de procesos) está descrita en la famosa ecuación de Albert Einstein:

enmarcada en la teoría de la relatividad especial y que originalmente formuló así:

Si un cuerpo de masa m desprende una cantidad de energía E en forma de radiación, su masa disminuye el
c2.

Albert Einstein en Zur Elektrodynamik bewegter Körper.

ACTIVIDAD……

- Defina que es óptica y describa en forma breve su desarrollo histórico


- Escriba las teorías propuestas por Newton y Huygens respectivamente sobre la naturaleza de la luz
- ¿Cuáles son los fenómenos que no se pueden explicar con la teoría corpuscular de la luz?
- Explique qué concepto tenían antiguamente los físicos sobre la sustancia o medio material llamado
éter
- ¿Según Maxwell como está formada la luz y cuáles son sus características?
- ¿Qué descubrimientos hubo al final del siglo XIX, que hicieron renacer la teoría corpuscular de la luz?
2.2. ESPEJOS PLANOS Y ESFÉRICOS

Siempre que se observa un objeto por medio de un aparato de óptica sencillo como un espejo plano, o más
complicado como un microscopio un telescopio, lo que se ve no es el objeto, sino su imagen con respecto a
dicho aparato de óptica. Una imagen que puede ser del mismo tamaño que el objeto, o más grande, o más
pequeña, derecha, invertida y real o virtual.

Imagen real. Cuando una imagen se forma mediante rayos que pasan realmente por la posición donde se
encuentra el objeto, decimos que este tipo de imagen irreal. Por lo tanto, una imagen real puede proyectarse
sobre una pantalla. Dicho de otra forma, una imagen irreal cuando los rayos reflejados tocan la imagen
producida por el objeto.

Imagen virtual. Una imagen virtual se forma trazando la prolongación "hacia atrás" de las trayectorias de los
rayos reflejados, tal como ocurre en un espejo plano. Dicho de otra forma, una imagen será virtual cuando
los rayos reflejados no toquen la imagen producida por el objeto.

2.2.1. Espejos planos. La reflexión la podemos considerar como un caso particular de refracción, el medio
es el mismo luego el valor del índice de refracción, n, será el mismo y que el rayo cambia de
sentido equivale a que el índice de refracción es de distinto signo, es decir: n = -n´ Aplicando la
ecuación del dioptrio plano se obtiene que:
s´ = -s
Como en el dioptrio plano, el tamaño de la imagen es igual que el del objeto:
y´ = y

En un espejo plano las posiciones s y s´ de un objeto y su imagen están relacionadas: s = -s´ La


imagen es virtual, pues se forma con las prolongaciones de los rayos.

2.2.2. Espejos esféricos. Un espejo esférico está caracterizado por su radio de curvatura R. En el caso de
los espejos esféricos solo existe un punto focal F=F´=R/2 cuya posición coincide con el punto medio entre el
centro del espejo y el vértice del mismo. Se encontrará a la izquierda del vértice para los espejos cóncavos
y a la derecha para los espejos convexos.

Por el convenio de signos: Convexos R > 0 y Cóncavos R < 0


La ecuación fundamental se obtiene a partir de la ecuación del dioptrio esférico y teniendo en cuenta que n
= -n´

1/s + 1/s´ = 2/R

de ahí se deduce que f = f´ = R/2


El aumento del espejo será ML =y´/y y dependerá de la curvatura del espejo y de la posición del objeto. Su
ecuación se obtiene de la correspondiente del dioptrio esférico.

ML = y´/y = -s´/s

Entre los espejos que no son planos, los más importantes son los esféricos, es decir, aquellos cuya forma
corresponde a un casquete esférico, o sea la superficie que resulta cuando una esfera se corta con un plano.

Los espejos esféricos o casi esféricos, se utilizan en sistemas ópticos, como son los telescopios, microscopios
o los concentradores solares. Las características que
hacen importantes a este tipo de espejos y por
consiguiente su utilización en los aparatos ya
mencionados, es que en estos se pueden aprovechar
ciertos parámetros que nos permiten modificar el
tamaño (aumento) y la posición o ubicación de una
imagen. Los espejos esféricos pueden ser de dos
clases: cóncavos, que reflejan la luz hacia adentro y
convexos, que son los que reflejan la luz hacia afuera.

Consideremos los rayos emergentes de un. P


incidiendo sobre el espejo cóncavo de la figura. La
línea que une el objeto con el centro de curvatura C
del espejo se denomina eje óptico. Todos los rayos
próximos al eje óptico, denominados rayos
paraxiales, se reflejan muy cerca de un mismo punto
P´, que forma la imagen de P. Por el contrario,
los rayos no paraxiales difuminan esta imagen, este efecto se denomina aberración esférica. En la práctica,
los instrumentos están provistos de espejos esféricos para minimizar esta pérdida de nitidez, seleccionando
sólo los rayos prácticamente paraxiales.

ACTIVIDAD……

1. si usted se encuentra a 2 m de un espejo plano, la distancia a la que ve su imagen es:

A) 1m B) 2m C) 3m D) 4m E) 6m

2. si usted se aleja 1 m de un espejo plano, la imagen tiene un desplazamiento de:

A) 0,5m B) 1m C) 1,5m D) 2m E) 4m

3. una persona de 1,80m de altura se encuentra de pie delante de un espejo. El tamaño mínimo del
espejo para que esa persona se vea de cuerpo entero es:
A) 0,45m B) 0,90m C) 1,20m D) 1,50m E) 1,90m

4. se coloca un objeto de 1cm de altura en el centro de curvatura de un espejo cóncavo de radio r.


la imagen está situada:

A) en el vértice del espejo. B) en el foco del espejo. C) en el centro de curvatura del espejo. D) a una
distancia 2r del vértice. E) en el infinito.

5. la altura de la imagen del objeto de la pregunta 4 es:

A) 0,25cm B) 0,5cm C) 1cm D) 2cm E) 4cm

6. Se considera un espejo plano EF y una pulga situada en A, como lo muestra la figura.

La imagen de la pulga está en:

A) A

B) B

C) C

D) D

E) E

7. La pulga:

A) Verá su imagen dos veces más grande.

B) Vera su imagen al tamaño normal.

C) Verá su imagen a la mitad del tamaño normal.

D) Verá solamente la mitad de su imagen.

E) No verá su imagen.
2.3. LENTES E INSTRUMENTOS ÓPTICOS

Una lente es un medio transparente limitado por dos superficies. Las lentes se utilizan generalmente para
formar imágenes por refracción en los instrumentos ópticos, como cámaras fotográficas, telescopios,
microscopio, etc. Las imágenes generadas por una lente pueden ser reales o virtuales, una imagen real es
aquella que se forma en realidad, es decir, si se coloca una pantalla en el punto adecuado, se formará sobre
ella la imagen del objeto. Por otro lado, una imagen virtual representa la posición desde la que parece que
procede la luz que llega a nuestros ojos a través de la lente. Sin embargo, la luz nunca pasa en realidad por
aquella posición y si colocáramos una pantalla no se observaría ninguna imagen sobre ella.

2.3.1. Cámara fotográfica. Una cámara fotográfica o cámara de fotos es un dispositivo utilizado para tomar
fotografías. Es un mecanismo antiguo para proyectar imágenes en el que una habitación entera hacía las
mismas funciones que una cámara fotográfica actual por dentro, con la diferencia que en aquella época no
había posibilidad de guardar la imagen a menos que ésta se trazara manualmente. Las cámaras actuales
pueden ser sensibles al espectro visible o a otras porciones del espectro electromagnético y su uso principal
es capturar el campo visual.

2.3.2. Cámara cinematográfica. Para impresionar las películas se usa la cámara cinematográfica que no es
más que una cámara fotográfica, con la diferencia de que tiene un rollo de película que va pasando
rápidamente entre el objetivo, impresionando de 22 a 28 fotografías por segundo, esta película va
enrollándose en el mismo aparato, para ser luego revelada y fijada por esto son perpendiculares.

2.3.3. Anteojo de Galileo. Este aparato para observaciones a distancia, en él se dispone un ocular
constituido por una lente divergente y un objetivo que es una lente convergente, este aparato no da aumentos
muy grandes, pero son prácticos por su pequeño tamaño. Era muy útil ya que permitía un mayor alcance de
vista a larga distancia por medio del lente óptico. El ojo humano es capaz de percibir movimientos en una
serie de imágenes gracias al efecto de la persistencia retiniana.

2.3.4. Anteojo astronómico. Este aparato, empleado en la observación de los cuerpos celestes consta de
dos lentes convergentes: un objetivo y un ocular. El objetivo brinda una imagen real e invertida y mediante el
ocular el observador ve una imagen virtual del mismo sentido, es decir invertida respecto al objeto. La
distancia entre el objetivo y el ocular debe ser igual a la suma de sus respectivas distancias focales.

2.3.5. Telescopios. Es un aparato el cual le permite ver al ser humano ver a través del espacio por medio de
una serie de lentes los cuales se gradúan a la distancia preferida por el usuario para ver los diferentes
fenómenos espaciales.

2.3.6. Microscopio óptico. El tipo de microscopio más utilizado es el microscopio óptico, que se sirve de la
luz visible para crear una imagen aumentada del objeto. El microscopio óptico más simple es la lente convexa
doble con una distancia focal corta. Estas lentes pueden aumentar un objeto hasta 15 veces. Por lo general,
se utilizan microscopios compuestos, que disponen de varias lentes con las que se consiguen aumentos
mayores. Algunos microscopios ópticos pueden aumentar un objeto por encima de las 2.000 veces. El
microscopio compuesto consiste en dos sistemas de lentes, el objetivo y el ocular, montados en extremos
opuestos de un tubo cerrado.

El objetivo está compuesto de varias lentes que crean una imagen real aumentada del objeto examinado.
Las lentes de los microscopios están dispuestas de forma que el objetivo se encuentre en el punto focal del
ocular. Cuando se mira a través del ocular se ve una imagen virtual aumentada de la imagen real. El aumento
total del microscopio depende de las distancias focales de los dos sistemas de lentes. El equipamiento
adicional de un microscopio consta de un armazón con un soporte para el material examinado y de un
mecanismo que permite acercar y alejar el tubo para enfocar la muestra. Los especímenes o muestras que
se examinan con un microscopio son transparentes y se observan con una luz que los atraviesa; se suelen
colocar sobre un rectángulo fino de vidrio.
El soporte tiene un orificio por el que pasa la luz. Bajo el soporte se encuentra un espejo que refleja la luz
para que atraviese el espécimen. El microscopio puede contar con una fuente de luz eléctrica que dirige la
luz a través de la muestra. La fotomicrografía, que consiste en fotografiar objetos a través de un microscopio,
utiliza una cámara montada por encima del ocular del microscopio.

La cámara suele carecer de objetivo, ya que el microscopio actúa como tal. Fotomicrografía, se refiere a una
técnica de duplicación y reducción de fotografías y documentos a un tamaño minúsculo para guardarlos en
un archivo. Los microscopios que se utilizan en entornos científicos cuentan con varias mejoras que permiten
un estudio integral del espécimen.

Dado que la imagen de la muestra está ampliada muchas veces e invertida, es difícil moverla de forma
manual. Por ello los soportes de los microscopios científicos de alta potencia están montados en una
plataforma que se puede mover con tornillos micrométricos. Algunos microscopios cuentan con soportes
giratorios. Todos los microscopios de investigación cuentan con tres o más objetivos montados en un cabezal
móvil que permite variar la potencia de aumento.

2.3.7. Microscopios ópticos especiales. Hay diversos microscopios ópticos para funciones especiales. Uno
de ellos es el microscopio estereoscópico, que no es sino un par de microscopios de baja potencia colocados
de forma que convergen en el espécimen. Estos instrumentos producen una imagen tridimensional. El
microscopio de luz ultravioleta utiliza el rango de los colores del espectro luminoso en lugar del rango visible,
bien para aumentar la resolución con una longitud de onda menor o para mejorar la calidad en el detalle
tomando selectivamente distintas longitudes de la banda ultravioleta y ultra roja.
2.3.8. Microscopio compuesto. Es el microscopio
comúnmente conocido y está constituido de manera
fundamental por dos lentes: el ocular y el objetivo.
El objetivo: Posee una pequeña distancia focal y
está colocado en las cercanías del objeto a
observar. El ocular: Posee una mayor distancia
focal que el anterior y es aquel inmediato al ojo del
observador. Ambos lentes están ubicados en un
tubo y de tal modo que sus ejes coinciden. Este tubo
puede subir o bajar mediante un tornillo
micrométrico para lograr el enfoque necesario del
objeto. Entonces la imagen obtenida será real,
invertida y mayor.
Formación de imágenes. El
tipo de microscopio más utilizado es el
microscopio óptico, que se sirve de la luz visible
para crear una imagen aumentada del
objeto. El microscopio óptico más simple es la
lente convexa doble con una distancia focal corta.
Estas lentes pueden aumentar un objeto hasta 15
veces. Por lo general se utilizan microscopios
compuestos, que disponen de varias lentes con las
que se consiguen aumentos mayores. Algunos
microscopios ópticos pueden aumentar un objeto
por encima de las 2.000 veces.
El microscopio compuesto consiste en dos
sistemas de lentes, el objetivo y el ocular,
montados en extremos opuestos de un tubo
cerrado. El objetivo está compuesto de varias
lentes que crean una imagen real aumentada del
objeto examinado. Las lentes de
los microscopios están dispuestas de forma que el
objetivo se encuentre en el punto focal del ocular.
Cuando se mira a través del ocular se ve una
imagen virtual aumentada de la imagen real. El
aumento total del microscopio depende de las
longitudes focales de los dos sistemas de lentes.

2.3.9. Periscopio. Instrumento óptico para


observar desde una posición oculta o protegida.
Un periscopio simple consiste en espejos o prismas
situados en los extremos opuestos de un tubo con
las superficies de reflexión paralelas entre sí en el
eje del tubo. El denominado periscopio de campo o
de tanque se ha usado en las trincheras, detrás de
parapetos y terraplenes y en tanques,
permitiendo ver sin correr riesgos. El periscopio

3. ELECTROSTÁTICA

La electrostática es la rama de la física que estudia los efectos mutuos que se producen entre los cuerpos
como consecuencia de su carga eléctrica, es decir, el estudio de las cargas eléctricas en reposo, sabiendo
que las cargas puntuales son cuerpos cargados cuyas dimensiones son despreciables frente a otras
dimensiones del problema. La carga eléctrica es la propiedad de la materia responsable de los fenómenos
electrostáticos, cuyos efectos aparecen en forma de atracciones y repulsiones entre los cuerpos que la
poseen.
Históricamente, la electrostática fue la rama del electromagnetismo que primero se desarrolló. Con la
postulación de la Ley de Coulomb fue descrita y utilizada en experimentos de laboratorio a partir del siglo
XVII, y ya en la segunda mitad del siglo XIX las leyes de Maxwell concluyeron definitivamente su estudio y
explicación, y permitieron demostrar cómo las leyes de la electrostática y las leyes que gobiernan los
fenómenos magnéticos pueden ser estudiadas en el mismo marco teórico denominado electromagnetismo.

3.1. CARGAS Y CAMPO ELÉCTRICO

3.1.1. Carga eléctrica. La materia se compone por átomos. Los mismos tienen un núcleo de protones (que
tienen carga positiva) y neutrones (carga neutra). En la periferia del átomo, se encuentran los electrones
(carga negativa) describiendo órbitas alrededor del núcleo.

Los electrones de las órbitas más alejadas (electrones libres) pueden abandonar el átomo y agregarse a otro
cercano. El átomo que tiene un electrón menos queda cargado positivamente, mientras el átomo que ganó
un electrón tiene carga negativa.

Por ejemplo, cuando se frotan dos materiales distintos como plástico y vidrio ocurre eso con muchos de sus
átomos, liberan y aceptan electrones, por lo tanto, uno de los materiales queda cargado positivamente (sus
átomos liberaron electrones) y el otro negativamente (con más electrones).

La unidad con la que se mide es:

La carga eléctrica se mide en Coulomb. Un


Coulomb es una unidad de carga grande por lo
que es común usar submúltiplos como el micro
Coulomb (1 µC = 1 10 -6 C). La ley de
conservación de cargas dice que dado un sistema
aislado no hay cargas que se creen ni se
destruyan, sino que la carga se conserva.

La carga eléctrica de un material siempre es


múltiplo de la carga eléctrica de un electrón. El
signo de la carga eléctrica indica si se trata de
carga negativa o positiva.

3.1.2. Campo eléctrico. El campo eléctrico existe


cuando existe una carga y representa el vínculo
entre ésta y otra carga al momento de determinar
la interacción entre ambas y las fuerzas ejercidas.
Tiene carácter vectorial (campo vectorial) y se
representa por medio de líneas de campo. Si la
carga es positiva, el campo eléctrico es radial y
saliente a dicha carga. Si es negativa es radial y
entrante.
La letra con la que se re presenta el campo Algunas caracterís ticas
eléctrico es la E.
- En el interior de un conductor el campo
Al existir una carga sabemo s que hay un campo eléctrico es 0.
eléctrico entrante o saliente de la misma, pero - En un conductor con cargas eléctricas, las
éste es comprobable única mente al incluir una mismas se encuentr an en la superficie.
segunda carga (denominada carga de prueba) y
medir la existencia de una fuerza sobre esta
segunda carga.

3.2. POTENCIAL Y CONDE NSADORES

Un condensador o capacitor, nombre por el cual


se le conoce frecuentemente en el ámbito de la
electrónica y otras ramas de la física aplicada), es
un dispositivo pasivo, utilizado en electricidad y
electrónica, capaz de almacenar energía
sustentando un campo eléctrico. Está formado por
un par de superficies conductoras, generalmente
en forma de láminas o placas, en situación de
influencia total (esto es, que todas las líneas de
campo eléctrico que parten de una van a parar a la
otra) separadas por un material dieléctrico o por el
vacío. Las placas, sometidas a una diferencia de
potencial, adquieren una determinada carga eléctrica, positiva en una de ellas y negativa en la otra, siendo
nula la variación de carga total.

Aunque desde el punto de vista físico un


condensador no almacena carga ni corriente eléctrica, sino simplemente energía mecánica latente; al ser
introducido en un circuito se comporta en la práctica como capaz de almacenar la energía eléctrica que recibe
durante la carga, a la vez que la cede de igual forma durante la descarga.
El valor de la capacidad de un condensador viene definido por la siguiente fórmula:

en donde:
: Capacitancia
: Carga eléctrica almacenada en la placa 1.
: Diferencia de potencial entre la placa 1 y la 2.
Nótese que en la definición de capacidad es indiferente que se considere la carga de la placa positiva o la de
la negativa, ya que

aunque por convenio se suele considerar la carga de la placa positiva.


En cuanto al aspecto constructivo, tanto la forma de las placas o armaduras como la naturaleza del material
dieléctrico son sumamente variables. Existen condensadores formados por placas, usualmente de aluminio,
separadas por aire, materiales cerámicos, mica, poliéster, papel o por una capa de óxido de aluminio obtenido
por medio del electrólisis.
Energía almacenada. El condensador almacena carga eléctrica, debido a la presencia de un campo eléctrico
en su interior, cuando aumenta la diferencia de potencial en sus terminales, devolviéndola cuando ésta
disminuye. Matemáticamente se puede obtener que la energía, almacenada por un condensador con
capacidad, que es conectado a una diferencia de potencial, viene dada por:

3.3.
CORRIENTE Y RESISTENCIA
3.3.1.2. Sentido de circulación de la corriente
ELÉCTRICA
eléctrica. Cuando hay una corriente eléctrica
quiere decir que se están moviendo los electrones
y los mismos tienen carga negativa, por lo tanto,
3.3.1. Corriente eléctrica. Cuando existen dos
van hacia el positivo. Entonces el sentido físico de
puntos con diferente potencial eléctrico (o dos
circulación es de negativo a positivo.
elementos con diferente carga) y los mismos son
unidos por un conductor se produce un Sin embargo, el hecho de que se muevan los
movimiento de cargas llamado corriente eléctrica electrones significa un movimiento de cargas
que tiende a equilibrar las cargas entre un lado y negativas en el mismo sentido y por lo tanto un
otro. El sistema siempre tenderá a un equilibrio de movimiento de cargas positivas en sentido
cargas. contrario, lo que quiere decir que una corriente
eléctrica también se puede representar como un
movimiento de cargas (positivas) desde el positivo
3.3.1.1. Unidad de medida de la corriente. La
al negativo.
corriente eléctrica se mide de la misma forma que
se mediría la cantidad de un líquido que pasa a
través de un caño, es decir en una determinada
unidad de medida del mismo sobre la unidad de
tiempo (cuanto pasa por unidad de tiempo).

Debido a que medirlo en electrones por segundo


daría un número elevado, se lo mide en cantidad
de carga por segundo, es decir Coulomb /
Para la resolución de ejercicios y el análisis de
circuitos se suele tomar este último sentido de
circulación de la corriente (positivo a negativo) ya
que facilita el cálculo y se lo llama sentido técnico.
El otro, llamado sentido físico, corresponde al
Segundo. Esta unidad se denomina Ampere.
movimiento de los electrones.
3.3.2. Resistencia eléctrica. La resistencia
eléctrica es una propiedad que tienen los
aplicada a cada resistencia es la misma que la - Corriente por cada resistencia. La corriente
aplicada entre A y B. se divide en cada nodo de tal forma que la suma
de todas las corrientes en paralelo es igual a la
V1 = V2 = V3 corriente total.

I = I1 + I2 + I3

3.4. CORRIENTE CONTINUA Y CIRCUITOS ELÉCTRICOS

3.4.1. Fuentes de tensión y corriente. Para que


las cargas estén en movimiento, en los circuitos
eléctricos debe haber al menos una fuente
de alimentación que establezca diferencias
de potencial. Existen dos tipos de fuentes, las de
tensión y las de corriente.

3.4.1.1. Fuentes de tensión. Son los tipos más


comunes de fuentes de alimentación que
encontramos en prácticamente cualquier
circuito. Entre sus bornes proveen una diferencia
de potencial (o tensión) constante, por ese motivo la
corriente que entregan depende del valor de la
resistencia del circuito o de la resistencia de carga
que conectemos.

Por ejemplo si tenemos una fuente de tensión de


12 Volt y le conectamos una resistencia de 2 Ohm,
circularán 6 Amper. Si en cambio conectamos
una resistencia de 6 Ohm,
circularán 2 Amper. (Ver ley de Ohm). Pero siempre
la tensión entre los bornes de la fuente es
constante.

En los circuitos una fuente de tensión se simboliza


con dos líneas de distinto tamaño, correspondiendo
la más grande al polo positivo.

V = 10 V

R=5Ω
3.4.1.2. Fuentes de corriente. Las fuentes de
corriente son aquellas que proveen una corriente
constante al circuito o resistencia que
se les conecta. Por lo tanto si cambia el valor de
la resistencia de carga, la fuente aumenta o
Calcular la intensidad de la corriente circulando por
el circuito

3.4.3. Leyes de Kirchhoff. Definiciones:

Nodo: Punto de un circuito en el que se unen tres o


más conductores.
Rama: Parte del circuito unida por dos nodos.
Malla: Recorrido cerrado dentro de un circuito.

3.4.3.1. Ley de nodos. La suma algebraica de las


corrientes en un nodo es igual a cero.

VAB = V1 + V2 + V3

3.4.4. Método de las mallas. Mediante el método de las mallas es posible resolver circuitos con varias mallas
y fuentes. Consiste en plantear las corrientes de cada malla como su intensidad por su resistencia y sumar
o restar las intensidades por las resistencias relacionadas con mallas adyacentes.

1) Se asigna un sentido arbitrario de circulación de corriente a cada malla (las que se quieren calcular).
El sentido no tiene porqué ser el real (de hecho, antes de calcularlo no se lo conoce). Si se obtiene como
resultado alguna corriente negativa, el sentido real de la misma es al revés del utilizado para esa malla.
2) Se plantea a la suma de las fuentes de cada 3.4.6 . Teorema de Thévenin. Cualquier parte
malla como I por R de la malla y se le restan las de un circuito formada por fuentes y resistencias
ramas comunes con otras mallas. El signo que se puede ser reemplazado por una única fuente de
les pone a las fuentes depende del sentido de tensión con una resistencia en serie. Esto quiere
circulación elegido para la corriente. Si se pasa a decir que si una resistencia está conectada a un
través de la fuente de negativo a positivo con el circuito entre los puntos A y B y reemplazamos
sentido elegido, se utiliza (+), de lo contrario (- el circuito por el otro equivalente, por la
). resistencia circula la misma corriente.

Malla 1

El valor de la fuente del circuito equivalente se


Malla 2 denomina tensión de Thévenin y se obtiene
+ V2 = I2 (R2 + R3 + R4) – I1 (R2) – I3 (R4) calculando la tensión del circuito entre A y B sin
la resistencia de carga (circuito abierto).
Malla 3
- V3 = I3 (R4 + R5) – I2 (R4) El valor de la resistencia en serie se denomina
resistencia de Thévenin y se calcula como la
3) Los valores de resistencias y de tensiones se resistencia que existiría entre los puntos A y B
conocen, por lo tanto quedan 3 ecuaciones con 3 sin la resistencia de carga y poniendo en
incógnitas (para 3 mallas interiores) en donde cada cortocircuito a todas las fuentes
incógnita es la corriente de malla. Resolviendo el (reemplazándolas por un conductor).
sistema se obtienen las corrientes. Si se obtiene Ejemplo de aplicación
alguna corriente negativa quiere decir que el sentido
real es al revés del elegido. Hallar el equivalente de Thévenin para el
siguiente circuito
3.4.5. Potencia eléctrica en corriente continua. La
potencia eléctrica es la cantidad de trabajo que V1 = 20 V
realiza una corriente por unidad de tiempo. R1 = 15 Ω
R2 = R3 = 10 Ω

Se calcula multiplicando a la diferencia de potencial


por la corriente o elevando la corriente al cuadrado
y multiplicando por la resistencia. Se mide en Watt. Calculo de la tensión de Thévenin
P=VI R2,3 = 5 Ω
P = I2 R R1,2,3 = 20 Ω
I3 = 0,5 A Corriente entregada por V sin RL = 1 Ampere
VAB = V3 = I3 R3 = 0,5 A 10 Ω = 5V a la fuente por un conductor, quedan todas
Tensión de Thévenin = 5V las resistencias en paralelo, por lo tanto:

Cálculo de la resistencia de Thévenin Resistencia de Thévenin = 3,75 Ω


Para el circuito del ejemplo, reemplazando
Circuito equivalente de Thévenin

Vt = 5V Rt = 3,75 Ω

3.4.7. Teorema de Norton. El teorema de Norton Ri = RL


dice que cualquier parte de un circuito formada
por fuentes y resistencias puede ser reemplazado
por una única fuente de corriente y una Ri = Resistencia interna
resistencia en paralelo. De este teorema podemos
RL = Resistencia de carga
deducir que cualquier circuito
equivalente de Thévenin también puede ser
reemplazado por un equivalente de Norton.
Si la resistencia de carga es más baja que la
interna, aumenta la corriente por el circuito, pero
la resistencia interna en serie disipa más
potencia (al estar en la misma rama la corriente

que pasa por ambas es la misma por lo tanto la


resistencia de mayor valor disipa mayor potencia).
La resistencia de Norton tiene el mismo valor Si la resistencia de carga es más alta, disipa
que la resistencia de Thévenin. La corriente mayor potencia que la resistencia interna, pero
de Norton se calcula como la corriente que
circula por el equivalente de Thévenin disminuye la corriente total de tal forma de ser
poniendo en cortocircuito a los terminales A y menos a la que circula cuando ambas resistencias
B, es decir Vt/Rt.
son del mismo valor y por lo tanto la potencia
3.4.8. Teorema de la transferencia máxima de entregada a la carga es menor.
potencia. Cualquier circuito o fuente de
alimentación posee una resistencia interna. Si
consideramos que el valor de tensión y el valor de
la resistencia interna permanecen constantes,
podemos calcular cuando la potencia entregada a
la carga es máxima. Esto ocurre cuando la
resistencia de carga es igual a la resistencia
interna de la fuente.
EJERCICIOS……

1. Dos cargas puntuales q1 = 5.10-5C y q2 desconocida se encuentran separadas a 0,3 m y se repelen con
una fuerza de 2 N. Calcular el valor de q2.

2. Tres cargas eléctricas puntuales están ubicadas en el vacío como indica la


figura, siendo q1 = 4.10-5C ; q2 = 8.10-5C y q3 = 10-5C. Calcular la fuerza
resultante que actúan sobre la carga tres.

3. ¿Cuántas clases de cargas eléctricas existen y cómo se las denomina?


4. ¿Cómo está constituido un átomo neutro?
5. ¿Cómo se explica la electrificación por frotamiento?
6. Enuncie los principios de la electrostática.
7. ¿Qué diferencia existe entre un aislante y un conductor?
8. Si dos esferas conductoras se ponen en contacto, estando una cargada eléctricamente y la otras
descargas. ¿Qué sucede?:
9. Si ambas esferas son iguales. ¿Qué sucede?
10. ¿Qué es un electroscopio de hojas?
11. ¿En qué consiste el fenómeno de inducción electrostática y cómo se explica?
12. ¿Qué es una carga eléctrica puntual?

13. Tres cargas eléctricas, q1=8.10-4C; q2=9.10-5C y q3 desconocida


están ubicadas en el vacío como indica la figura. Calcular el
valor de q3 para que q2 se encuentre en equilibrio.

14. Tres cargas eléctricas se encuentran ubicadas en el vacío como indica la figura. Si el valor de la fuerza
resultante que actúa sobre q2 es 300N. Calcular el valor y signo de q1 y q3.

15. Calcular las fuerzas resultantes que actúan sobre q1 y q3 en el caso del problema anterior.

16. En el modelo de Bohr correspondiente al átomo de hidrógeno, un electrón describe una órbita circular
alrededor de un núcleo que contiene un solo protón. Si el radio de la órbita es aproximadamente
0,53.10-10m, y la masa del electrón es me = 9,1 10-31 Kg. Calcular la velocidad del electrón y el número
de revoluciones que da por segundo. (frecuencia).
4. ELECTROMAGNETISMO

El electromagnetismo es una rama de la


física que estudia y unifica
los fenómenos eléctricos y magnéticos
en una sola teoría, cuyos fundamentos
fueron sentados por Michael Faraday y
formulados por primera vez de modo
completo por James Clerk Maxwell. La
formulación consiste en
cuatro ecuaciones vectoriales que
relacionan el campo eléctrico, el campo
magnético y sus respectivas
fuentes materiales (corriente
eléctrica, polarización eléctrica y
polarización magnética), conocidas
como ecuaciones de Maxwell.
El electromagnetismo es una teoría de
campos; es decir, las explicaciones y
predicciones que provee se basan en magnitudes físicas vectoriales o
tensoriales dependientes de la posición en el espacio y del tiempo. El electromagnetismo describe los
fenómenos físicos macroscópicos en los cuales intervienen cargas eléctricas en reposo y en movimiento,
usando para ello campos eléctricos y magnéticos y sus efectos sobre las sustancias sólidas, líquidas y
gaseosas. Por ser una teoría macroscópica, es decir, aplicable sólo a un número muy grande de partículas
y a distancias grandes respecto de las dimensiones de éstas, el electromagnetismo no describe los
fenómenos atómicos y moleculares, para los que es necesario usar la mecánica cuántica.
El electromagnetismo considerado como fuerza es una de las cuatro fuerzas fundamentales del universo
actualmente conocido.

4.1. CAMPO MAGNÉTICO

El campo magnético es una región del espacio en la cual


una carga eléctrica puntual de valor q, que se desplaza a una
velocidad , sufre los efectos de una fuerza que
esperpendicular y proporcional tanto a la velocidad v como al
campo B. Así, dicha carga percibirá una fuerza descrita con
la siguiente igualdad.

donde F es la fuerza, v es la velocidad y B el campo


magnético, también llamado inducción magnética y
densidad de flujo magnético. (Nótese que tanto F como v
y B son magnitudes vectoriales y el producto vectorial tiene
como resultante un vector perpendicular tanto a v como a B).
El módulo de la fuerza resultante será

4.1.1. Nombre. El nombre de campo magnético La inducción magnética o campo B, que en la


o intensidad del campo magnético se aplica a actualidad se considera el auténtico campo
dos magnitudes: magnético, y se representa con B.
Desde un punto de vista físico, ambos son
La excitación magnética o campo H es la equivalentes en el vacío, salvo en una constante
primera de ellas, desde el punto de vista de proporcionalidad que depende del sistema de
histórico, y se representa con H. unidades: 1 en el sistema de
4.1.1.2. Determinación del campo de inducción
Gauss, en el SI.
magnética B. El campo magnético para
Solo se diferencian en medios materiales con el
fenómeno de la magnetización. cargas que se mueven a
velocidades pequeñas comparadas con velocidad
de la luz, puede representarse por un campo
4.1.1.1. Uso. El campo H se ha considerado vectorial. Sea una carga eléctrica de prueba en un
tradicionalmente el campo principal o intensidad
punto P de una región del espacio moviéndose a
de campo magnético, ya que se puede relacionar
una cierta velocidad arbitraria v respecto a un
con unas cargas, masas o polos magnéticos por
medio de una ley similar a la de Coulomb para la cierto observador que no detecte campo eléctrico.
electricidad. Maxwell, por ejemplo, utilizó este Si el observador detecta una deflexión de la
enfoque, aunque aclarando que esas cargas eran trayectoria de la partícula entonces en esa región
ficticias. Con ello, no solo se parte de leyes existe un campo magnético. El valor o intensidad
similares en los campos eléctricos y magnéticos de dicho campo magnético puede medirse
(incluyendo la posibilidad de definir un potencial mediante el llamado vector de inducción
escalar magnético), sino que en medios magnética B, a veces llamado simplemente
materiales, con la equiparación matemática de H "campo magnético", que estará relacionado con la
con E, por un lado, y de B con D, por otro, se
fuerza F y la velocidad v medida por dicho
pueden establecer paralelismos útiles en las
condiciones de contorno y las relaciones observador en el punto P: Si se varía la dirección
termodinámicas; la fórmulas correspondientes en de v por P, sin cambiar su magnitud, se encuentra,
el sistema electromagnético de Gauss son: en general, que la magnitud de F varía, si bien se
conserva perpendicular a v . A partir de la
observación de una pequeña carga eléctrica de
prueba puede determinarse la dirección y módulo
En electrotecnia no es raro que se conserve este de dicho vector del siguiente modo:
punto de vista porque resulta práctico.
La dirección del "campo magnético" se define
Con la llegada de las teorías del electrón de operacionalmente del siguiente modo. Para
Lorentz y Poincaré, y de la relatividad de Einstein, una cierta dirección de v, la fuerza F se anula.
quedó claro que estos paralelismos no se Se define esta dirección como la de B.
corresponden con la realidad física de los Una vez encontrada esta dirección el módulo del
fenómenos, por lo que hoy es frecuente, sobre "campo magnético" puede encontrarse
todo en física, que el nombre de campo magnético fácilmente ya que es posible orientar a v de tal
se aplique a B (por ejemplo, en los textos de manera que la carga de prueba se desplace
Alonso-Finn y de Feynman). En la formulación perpendicularmente a B. Se encuentra,
relativista del electromagnetismo, E no se agrupa entonces, que la F es máxima y se define la
con H para el tensor de intensidades, sino con B. magnitud de B determinando el valor de esa
fuerza máxima:
En 1944, F. Rasetti preparó un experimento para
dilucidar cuál de los dos campos era el
fundamental, es decir, aquel que actúa sobre una
carga en movimiento, y el resultado fue que el
campo magnético real era B y no H. En consecuencia: Si una carga de prueba positiva
se dispara con una velocidad v por un punto P
Para caracterizar H y B se ha recurrido a varias y si obra una fuerza lateral F sobre la carga que se
distinciones. Así, H describe cuan intenso es el mueve, hay una inducción magnética B en el
campo magnético en la región que afecta, punto P siendo B el vector que satisface la
mientras que B es la cantidad de flujo magnético relación:
por unidad de área que aparece en esa misma
región. Otra distinción que se hace en ocasiones
es que H se refiere al campo en función de sus La magnitud de F, de acuerdo a las reglas del
fuentes (las corrientes eléctricas) y B al campo en producto vectorial, está dada por la expresión:
función de sus efectos (fuerzas sobre las cargas).

Expresión en la que es el ángulo entre v y B.


La figura muestra las relaciones entre los vectores.
perpendiculares. Así pues, un campo magnético
estático no puede cambiar la energía cinética de
una carga en movimiento.
Si una partícula cargada se mueve a través de una
región en la que coexisten un campo eléctrico y
uno magnético la fuerza resultante está dada por:

Esta fórmula es conocida como Relación de


Lorentz

Se observa que: (a) la fuerza magnética se anula 4.1.2. Fuentes del campo magnético. Un campo
cuando , (b) la fuerza magnética se anula magnético tiene dos fuentes que lo originan. Una
de ellas es una corriente eléctrica de conducción,
que da lugar a un campo magnético estático. Por
otro lado una corriente de desplazamiento origina
un campo magnético variante en el tiempo, incluso
aunque aquella sea estacionaria.
si v es paralela o antiparalela a la
dirección de B (en estos casos o bien y ) y (c) si La relación entre el campo magnético y una
v es perpendicular a B ( ) la fuerza desviadora corriente eléctrica está dada por la ley de Ampère.
tiene su máximo valor dado por El caso más general, que incluye a la corriente de
desplazamiento, lo da la ley de Ampère-Maxwell.
El hecho de que la fuerza magnética sea siempre
perpendicular a la dirección del movimiento
implica que el trabajo realizado por la misma sobre 4.1.2.1. Campo magnético producido por una
la carga, es cero. En efecto, para un elemento de carga puntual
longitud
trayectoria de la partícula, el trabajo El campo magnético generado por una única carga
en movimiento (no por una corriente eléctrica) se
calcula a partir de la siguiente expresión:
Donde .
es que vale cero por ser
Esta última expresión define un campo vectorial distribución de carga viene dado por:
solenoidal, para distribuciones de cargas en
movimiento la expresión es diferente, pero puede
probarse que el campo magnético sigue siendo un
campo solenoidal.
4.1.2.2. Campo magnético producido por una
distribución de cargas

La inexistencia de cargas magnéticas lleva a que


el campo magnético es un campo corriente
mediante la relación:

5. DE LA FÍSICA CLÁSICA A LA FÍSICA MODERNA


En los temas anteriormente tratados, la física
Se denomina física clásica a la física basada en clásica no servía para resolver los problemas
los principios previos a la aparición de la mecánica presentados, ya que estos se basan en certezas y
cuántica. Incluye estudios del electromagnetismo, la física moderna en probabilidades, lo que
óptica, mecánica y dinámica de fluidos, entre provocó dificultades para adaptarse a las nuevas
otras. La física clásica se considera determinista ideas. Los temas tratados anteriormente no
(aunque no necesariamente computable o podían ser resueltos por la física clásica.
computacionalmente predictible), en el sentido de
En 1905, Albert Einstein, publicó una serie de
que el estado de un sistema cerrado en el futuro
trabajos que revolucionaron la física,
depende exclusivamente del estado del sistema
principalmente representados por “La dualidad
en el momento actual.
onda-partícula de la luz” y “La teoría de la
Algunas veces se reserva el nombre físico clásica relatividad” entre otros. Estos y los avances
para la física prerrelativista, sin embargo, desde el científicos como el descubrimiento de la existencia
punto de vista teórico la teoría de la relatividad de otras galaxias, la superconductividad, el
introduce supuestos menos radicales que los que estudio del núcleo del átomo, y otros, permitieron
subyacen a la teoría cuántica. Por esa razón lograr que años más tarde surgieran avances
resulta conveniente desde un punto de vista tecnológicos, como la invención del televisor, los
metodológico considerar en conjunto las teorías
rayos x, el radar, fibra óptica, el computador etc.
físicas no-cuánticas.

La física moderna comienza a principios del siglo


XX, cuando el alemán Max Planck, investiga sobre
el “cuanto” de energía, Planck decía que eran
partículas de energía indivisibles, y que éstas no
eran continuas como lo decía la física clásica, por
ello nace esta nueva rama de la física que estudia
las manifestaciones que se producen en los
átomos, los comportamientos de las partículas que
forman la materia y las fuerzas que las rigen.
(También se le llama física cuántica).
La misión final de la física actual es comprender la 5.1. FÍSICA CUÁNTICA
relación que existe entre las fuerzas que rigen la
naturaleza: la gravedad, el electromagnetismo, la universo y sus partículas. Se conoce,
fuerza nuclear fuerte y la fuerza nuclear débil. generalmente, por estudiar los fenómenos que se
Comprender y lograr una teoría de unificación, producen a la velocidad de la luz o valores
para así poder entender el cercanos a ella o cuyas escalas espaciales son del
orden del tamaño del átomo o inferiores.

La física cuántica, también conocida como mecánica ondulatoria, es la rama de la física que estudia el
comportamiento de la materia cuando las dimensiones de ésta son
tan pequeñas, en torno a 1.000 átomos, que empiezan a notarse
efectos como la imposibilidad de conocer con exactitud la posición
de una partícula, o su energía, o conocer simultáneamente su
posición y velocidad, sin afectar a la propia partícula (descrito según
el principio de incertidumbre de Heisenberg).

Surgió a lo largo de la primera mitad del siglo XX en respuesta a los


problemas que no podían ser resueltos por medio de la física
clásica.

Los dos pilares de esta teoría son:

• Las partículas intercambian energía en múltiplos enteros de una


cantidad mínima posible, denominado quantum (cuanto) de
energía.
• La posición de las partículas viene definida por una función que
describe la probabilidad de que dicha partícula se halle en tal posición en ese instante

5.1.1. Ratificación Experimental. El hecho de que la energía se intercambie de forma discreta se puso de
relieve por hechos experimentales, inexplicables con las herramientas de la mecánica clásica, como los
siguientes:

Según la Física Clásica, la energía radiada por un cuerpo


negro, objeto que absorbe toda la energía que incide sobre él,
era infinita, lo que era un desastre. Esto lo resolvió Max Plank
mediante la cuantización de la energía, es decir, el cuerpo
negro tomaba valores discretos de energía cuyos paquetes
mínimos denominó “quantum”. Este cálculo era, además,
consistente con la ley de Wien (que es un resultado de la
termodinámica, y por ello independiente de los detalles del
modelo empleado). Según esta última ley, todo cuerpo negro
irradia con una longitud de onda (energía) que depende de su
temperatura.

La dualidad onda corpúsculo, también llamada onda partícula,


resolvió una aparente paradoja, demostrando que la luz y la
materia pueden, a la vez, poseer propiedades de partícula y
propiedades ondulatorias. Actualmente se considera que la
dualidad onda - partícula es un "concepto de la mecánica
cuántica según el cual no hay diferencias fundamentales entre
partículas y ondas: las partículas pueden comportarse como
ondas y viceversa".

5.1.2. Aplicaciones de la Teoría Cuántica. El marco de aplicación de la


Teoría Cuántica se limita, casi exclusivamente, a los niveles atómico,
subatómico y nuclear, donde resulta totalmente imprescindible. Pero
también lo es en otros ámbitos, como la electrónica (en el diseño de
transistores, microprocesadores y todo tipo de componentes electrónicos),
en la física de nuevos materiales, (semiconductores y superconductores),
en la física de altas energías, en el diseño de instrumentación médica
(láseres, tomógrafos, etc.), en la criptografía y la computación cuánticas, y
en la Cosmología teórica del Universo temprano.

Un nuevo concepto de información, basado en la naturaleza cuántica de las partículas elementales, abre
posibilidades inéditas al procesamiento de datos. La nueva unidad de información es el qubit (quantum bit),
que representa la superposición de 1 y 0, una cualidad imposible en el universo clásico que impulsa una
criptografía indescifrable, detectando, a su vez, sin esfuerzo, la presencia de terceros que intentaran
adentrarse en el sistema de transmisión. La otra gran aplicación de este nuevo tipo de información se
concreta en la posibilidad de construir un ordenador cuántico, que necesita de una tecnología más avanzada
que la criptografía, en la que ya se trabaja, por lo que su desarrollo se prevé para un futuro más lejano.

En la medicina, la teoría cuántica es utilizada en campos tan diversos como la cirugía láser, o la exploración
radiológica. En el primero, son utilizados los sistemas láser, que aprovechan la cuantificanción energética de
los orbitales nucleares para producir luz monocromática, entre otras características. En el segundo, la
resonancia magnética nuclear permite visualizar la forma de de algunos tejidos al ser dirigidos los electrones
de algunas sustancias corporales hacia la fuente del campo magnético en la que se ha introducido al paciente.

Otra de las aplicaciones de la mecánica cuántica es la que tiene que ver con su propiedad inherente de la
probabilidad. La Teoría Cuántica nos habla de la probabilidad de que un suceso dado acontezca en un
momento determinado, no de cuándo ocurrirá ciertamente el suceso en cuestión.

Cualquier suceso, por muy irreal que parezca, posee una probabilidad de que suceda, como el hecho de que
al lanzar una pelota contra una pared ésta pueda traspasarla. Aunque
la probabilidad de que esto sucediese sería infinitamente pequeña,
podría ocurrir perfectamente.

La teleportación de los estados cuánticos (qubits) es una de las


aplicaciones más innovadoras de la probabilidad cuántica, si bien
parecen existir limitaciones importantes a lo que se puede conseguir en
principio con dichas técnicas. En 2001, un equipo suizo logró teleportar
un fotón una distancia de 2 km, posteriormente, uno austriaco logró
hacerlo con un rayo de luz (conjunto de fotones) a una distancia de 600
m., y lo último ha sido teleportar un átomo, que ya posee masa, a 5
micras de distancia...

5.2. FÍSICA NUCLEAR

5.2.2. Fuerzas nucleares. Los protones y neutrones del núcleo se encuentran en un espacio muy reducido,
a distancias muy cortas unos de otros. A estas distancias tan cortas es muy grande la repulsión
electromagnética entre protones, que de acuerdo a la ley de Coulomb

5.2.3. Análisis energético de la formación del núcleo. Al estar compuesto el núcleo de protones y
neutrones, la masa del núcleo supuestamente será la suma de las masas de sus constituyentes.
Experimentalmente sabemos que la masa de los núcleos estables es siempre un poco menor que la suma de
las masas de sus constituyentes. Si la masa de un núcleo es M = M ( Z, A ) y las masas de un protón y un
neutrón son respectivamente mp y mn, la cantidad Dm = Z. mp + N. mn recibe el nombre de defecto másico
y es una medida de la estabilidad del núcleo. Conocido es que la teoría de la relatividad equipara masa y
energía, relacionándolas mediante la famosa ecuación.

Los núcleos atómicos tienen distintas formas geométricas, con tamaños del orden de varios fermis (10-15m).
Al ser de tan pequeño tamaño, la materia está muy concentrada en los núcleos, con densidades muy altas
(del orden de 1018 kg/m3). Esta densidad no depende del número másico A, los cual nos indica que su
volumen es proporcional a A (pues para ser constante la densidad al crecer la masa A también ha de crecer
el volumen proporcionalmente), y su radio, asimilando el núcleo a una esfera, a la raíz cúbica de A. De hecho,
muchos experimentos indican que el radio nuclear vale:
R = R0 . A1/3.
DE = Dm . c2. Así, aplicando el Principio de Conservación de la energía, tenemos que la energía que
obtengamos será la diferencia entre la energía del núcleo y la que tendrían todos los nucleones si estuviesen
en reposo lo bastante separados para no sentir la fuerza nuclear fuerte entre ellos. Esta importante cantidad
se conoce como energía de enlace o de ligadura, E: moviéndose rápidamente, y en 1909 lo demostró
experimentalmente.

5.2.5. Tipos de Radiactividad.

5.2.5.1. Radiación alfa. Es un tipo de radiación poco penetrante que puede ser detenida por una simple hoja
de papel. Rutherford sugirió que los rayos alfa son iones de átomos de Helio (He2+)
E = (Z. mp + N. mn ) . c2

5.2.5.2. Radiación beta. Su poder de penetración es mayor que las alfa. Son frenadas por metros de aire,
una lámina de aluminio o unos cm de agua.

Existen dos tipos de radiación


beta:
Radiación Beta menos
Radiación Beta mas

5.2.5.3. Radiación gamma. En este tipo de radiación el núcleo no pierde su identidad. Mediante esta radiación
el núcleo se desprende de la energía que le sobra para pasar a otro estado de energía más baja. Emite rayos
gamma, o sea fotones muy energéticos. Este tipo de emisión acompaña a las radiaciones alfa
y beta.

5.2.4. La Radiactividad. El fenómeno de la radiactividad fue descubierto casualmente por Henri Becquerel
en 1896.Estudiaba los fenómenos de fluorescencia y fosforescencia, para lo cual colocaba un cristal de
Pechblenda, mineral que contiene uranio, encima de una placa fotográfica envuelta en papel negro y las
exponía al sol. Cuando desenvolvía la placa la encontraba velada, hecho que atribuía a la fosforecencia del
cristal. Los días siguientes no hubo sol y dejó en un cajón la placa envuelta con papel negro y con la sal de
Uranio encima.
Cuando sacó la placa fotográfica estaba velada, y no podía deberse a la fosforescencia ya que nohabía
sido expuesta al sol. La única explicación era que la sal de uranio emitía una radiación muy penetrante. Sin
saberlo Becquerel había descubierto lo que Marie Curie llamaría más tarde radiactividad.

5.2.6. Ley de desintegración radiactiva. En 1902 Ernest Rutherford y Frederick Soddy, sugirieron que el
ritmo con que una sustancia radiactiva emitía partículas radiactivas disminuía exponencialmente con el
tiempo. La desintegración de un núcleo cualquiera se produce al azar, y el número de núcleos que se
desintegran en un intervalo de tiempo dt es directamente proporcional al tiempo y al número de núcleos
existentes.
5.3. TEORÍA DE LA RELATIVIDAD

La teoría de la relatividad, desarrollada El segundo postulado afirma que la velocidad de la


fundamentalmente por Albert Einstein, pretendía luz es siempre constante con respecto a cualquier
originalmente explicar ciertas anomalías en el observador. De sus premisas teóricas obtuvo una
concepto de movimiento relativo, pero en su serie de ecuaciones que tuvieron consecuencias
evolución se ha convertido en una de las teorías importantes e incluso algunas desconcertantes,
más importantes en las ciencias físicas y ha sido la como el aumento de la masa con la velocidad. Uno
base para que los físicos demostraran la unidad de sus resultados más importantes fue la
esencial de la materia y la energía, el espacio y el equivalencia entre masa y energía, según la
tiempo, y la equivalencia entre las fuerzas de la conocida fórmula E=mc², en la que c es la
gravitación y los efectos de la aceleración de un velocidad de la luz y E representa la energía
sistema. obtenible por un cuerpo de masa m cuando toda su
masa sea convertida en energía.
La teoría de la relatividad, tal como la desarrolló
Einstein, tuvo dos formulaciones diferentes. La Dicha equivalencia entre masa y energía fue
primera es la que corresponde a dos trabajos demostrada en el laboratorio en el año 1932, y dio
publicados en 1906 en los Annalen der Physik. Es lugar a impresionantes aplicaciones concretas en
conocida como la Teoría de la relatividad especial el campo de la física (tanto la fisión nuclear como
y se ocupa de sistemas que se mueven uno la fusión termonuclear son procesos en los que una
respecto del otro con velocidad constante parte de la masa de los átomos se transforma en
(pudiendo ser igual incluso a cero). La segunda, energía). Los aceleradores de partículas donde se
llamada Teoría de la relatividad general (así se obtiene un incremento de masa son un ejemplo
titula la obra de 1916 en que la formuló), se ocupa experimental clarísimo de la teoría de la relatividad
de sistemas que se mueven a velocidad variable. especial.

La teoría también establece que en un sistema en


movimiento con respecto a un observador se
verifica una dilatación del tiempo; esto se ilustra
claramente con la famosa paradoja de los
gemelos: "imaginemos a dos gemelos de veinte
años, y que uno permaneciera en la Tierra y el otro
partiera en una astronave, tan veloz como la luz,
hacia una meta distante treinta años luz de la
Tierra; al volver la astronave, para el gemelo que
se quedó en la Tierra habrían pasado sesenta
años; en cambio, para el otro sólo unos pocos
días".

5.3.2. Teoría de la relatividad general. La teoría


de la relatividad general se refiere al caso de
5.3.1. Teoría de la relatividad especial. Los movimientos que se producen con velocidad
postulados de la relatividad especial son dos. El variable y tiene como postulado fundamental el
primero afirma que todo movimiento es relativo a principio de equivalencia, según el cual los efectos
cualquier otra cosa, y por lo tanto el éter, que se
había considerado durante todo el siglo XIX como
medio propagador de la luz y como la única cosa
absolutamente firme del Universo, con movimiento
absoluto y no determinable, quedaba fuera de
lugar en la física, que no necesitaba de un
concepto semejante (el cual, además, no podía
determinarse por ningún experimento).
producidos por un campo gravitacional equivalen a ambas, la anormalmente alargada órbita del
los producidos por el movimiento acelerado. planeta Mercurio, que presenta un efecto de
rotación del eje mayor de la elipse
(aproximadamente un grado cada diez mil años)
observado experimentalmente algunos años antes
de enunciarse la teoría de la relatividad, y no
explicado con las leyes de Newton, sirvió de
confirmación experimental de la teoría de Einstein.
Un efecto que corroboró tempranamente la teoría
de la relatividad general es la deflexión que sufren
los rayos de luz en presencia de campos
gravitatorios. Los rayos luminosos, al pasar de una
región de un campo gravitatorio a otra, deberían
sufrir un desplazamiento en su longitud de onda (el
Desplazamiento al rojo de Einstein), lo que fue
comprobado midiendo el desplazamiento aparente
La revolucionaria hipótesis tomada por Einstein fue de una estrella, con respecto a un grupo de
provocada por el hecho de que la teoría de la estrellas tomadas como referencia, cuando los
relatividad especial, basada en el principio de la rayos luminosos provenientes de ella rozaban el
constancia de la velocidad de la luz sea cual sea el Sol.
movimiento del sistema de referencia en el que se
mide (tal y como se demostró en el experimento de
Michelson y Morley), no concuerda con la teoría de La verificación se llevó a cabo aprovechando un
la gravitación newtoniana: si la fuerza con que dos eclipse total de Sol (para evitar el deslumbramiento
cuerpos se atraen depende de la distancia entre del observador por los rayos solares, en el
ellos, al moverse uno tendría que cambiar al momento de ser alcanzados por la estrella); la
instante la fuerza sentida por el otro, es decir, la estrella fue fotografiada dos veces, una en
interacción tendría una velocidad de propagación ausencia y otra en presencia del eclipse. Así,
infinita, violando la teoría especial de la relatividad midiendo el desplazamiento aparente de la estrella
que señala que nada puede superar la velocidad. respecto al de las estrellas de referencia, se
de la luz. obtenía el ángulo de desviación que resultó ser
Tras varios intentos fallidos de acomodar la muy cercano a lo que Einstein había previsto.
interacción gravitatoria con la relatividad, Einstein
sugirió que la gravedad no es una fuerza como las El concepto de tiempo resultó profundamente
otras, sino que es una consecuencia de que el afectado por la relatividad general. Un
espacio-tiempo se encuentra deformado por la sorprendente resultado de esta teoría es que el
presencia de masa (o energía, que es lo mismo). tiempo debe transcurrir más lentamente cuanto
Entonces, cuerpos como la tierra no se mueven en más fuerte sea el campo gravitatorio en el que se
órbitas cerradas porque haya una fuerza llamada mida. Esta predicción también fue confirmada por
gravedad, sino que se mueven en lo más parecido la experiencia en 1962. De hecho, muchos de los
a una línea recta, pero en un espacio-tiempo que modernos sistemas de navegación por satélite
se encuentra deformado por la presencia del sol. tienen en cuenta este efecto, que de otro modo
darían errores en el cálculo de la posición de varios
kilómetros.
Los cálculos de la relatividad general se realizan en
un espacio-tiempo de cuatro dimensiones, tres Otra sorprendente deducción de la teoría de
espaciales y una temporal, adoptado ya en la Einstein es el fenómeno de colapso gravitacional
teoría de la relatividad restringida al tener que que da origen a la creación de los agujeros negros.
abandonar el concepto de simultaneidad. Sin Dado que el potencial gravitatorio es no lineal, al
embargo, a diferencia del espacio de Minkowsy y llegar a ser del orden del cuadrado de la velocidad
debido al campo gravitatorio, este universo no es de la luz puede crecer indefinidamente,
euclidiano. Así, la distancia que separa dos puntos apareciendo una singularidad en las soluciones. El
contiguos del espacio-tiempo en este universo es estudio de los agujeros negros se ha convertido en
más complejo que en el espacio de Minkowsky. pocos años en una de las áreas de estudio de
mayor actividad en el campo de la cosmología.
Con esta teoría se obtienen órbitas planetarias muy
similares a las que se obtienen con la mecánica de
Newton. Uno de los puntos de discrepancia entre
Actividades

Las preguntas 1 a 5 se responden de acuerdo En el siguiente gráfico de V vs. t se describe el


con el siguiente gráfico, el cual, de x contra t, movimiento de una partícula.
describe el movimiento de una partícula que
sigue una trayectoria.

1. El desplazamiento total de la partícula es: 7. El movimiento de la partícula


a) 8 m. b) -2m. c) 2m. d) 24m. es uniformemente acelerado en los
intervalos:
2. La distancia total recorrida por la partícula es: a) t = 0 y t = 2
a) 16m. b) 20m. c) 24m. d) 22m. b) t = 6 y t = 9
c) t = 2 y t = 3
3. La velocidad media de la partícula entre t= 4s y d) t = 3 y t = 6
t=6s es:
a) 3m/s. b) -3m/s. c) 6m/s. d) -1m/s. 8. El movimiento de la partícula es uniformemente
desacelerado en los intervalos:
4. La rapidez media de la partícula entre t=0s y a) t = 0 y t = 2
t=2s es: b) t = 6 y t = 9
a) 4m/s. b) 8m/s. c) 6m/s. d) 2m/s. c) t = 2 y t = 3
d) t = 3 y t = 6
5. La velocidad de la partícula entre t=6s y t=7s es:
a) 6m/s. b) 4m/s. c) 2m/s. d) 1m/s. 9. La aceleración de la partícula en los intervalos t
= 2 y t = 3 es:
6. Un cuerpo parte del reposo con una aceleración a) 6 m/s2.
contratante, y al cabo de 40 m de recorrido b) 7 m/s2.
alcanza una velocidad de 8 m/s. su aceleración c) 5 m/s2.
es:
d) 4 m/s2.
a) 0,4 m/s2.
b) 1,6 m/s2.
10. Un cuerpo es lanzado verticalmente hacia
c) 0,8 m/s2. arriba con una velocidad de 6 m/s, el tiempo que
d) 1 m/s2. tarda el cuerpo en caer es: (g = 10 m/s2)
a) 0,6 s
b) 0,3 s
c) 2,4 s
d) 1,2 s

Las preguntas 11 a 13 se responden de acuerdo


con la siguiente información.
b) Velocidad constante hacia atrás.
c) Aceleración constante hacia delante.
d) Velocidad constante hacia delante.

Se coloca un bloque de masa m sobre un carro con


una superficie rugosa, con longitud L, quedando en
reposo con respecto al carro. Las superficies
tienen un coeficiente estático µs y un coeficiente
17. Un cuerpo de masa M se desplaza por una
cinético µk.
carretera de longitud L. Para conocer su
rapidez promedio se necesita:
11. Si el bloque se encuentra en reposo a) Conocer la masa.
respecto al carro mientras éste acelera, la fuerza
b) Conocer la aceleración.
que ejerce el bloque sobre carro es igual a:
c) Conocer el tiempo.
a) mg √1 + µs2 d) Conocer la longitud y el tiempo.
b) mg √1 + µk2
c) mg (1 + µs) Para sostener una masa M se tienen dos
d) mg (1 + µk) cuerdas: A y B. T1 es la tensión ejercida por la
cuerda A y T2 es la tensión ejercida por la
cuerda B.

14. Un objeto es lanzado una y otra vez hacia


arriba en un carro sin ventanas. Se observa que el
objeto cae siempre detrás del punto de
lanzamiento a la misma distancia. De lo anterior se
puede concluir el carro se mueve con:
a) Aceleración constante hacia atrás.

12. Si el carro se mueve con aceleración hacia


la derecha, y su superficie fuera lisa, el bloque:
a) Permanecería en reposo con respecto al
carro.
b) Permanecería en reposo con respecto al
piso. b) d)
c) Se movería aceleradamente con
respecto al piso.
d) Se movería con velocidad constante con
respecto al piso.

13. Si el carro acelera hacia la derecha, la fuerza


que ejerce el carro sobre el bloque se puede
representar en:
a) c)

16. Desde un avión que viaja a velocidad


constante se deja caer un paquete justo sobre el
punto 2. Cuando el avión pasa sobre la bandera
que se observa en la figura, el paquete cae al
b) d) piso. El lugar en que cae el paquete está entre
los puntos (desprecie la resistencia del aire):

a) 3 y 4. b) 1 y 2. c) 4 y 5. d) 2 y 3.
b) d)

Las preguntas 23 y 24 se responden de acuerdo


con la siguiente información.

18. Si β > α, es correcto afirmar que:

a) T1 = T2 b) T1 ≠ T2 c) T1 > T2 d) T1 < T2

19. Si β = α, es correcto afirmar que: Hay dos bloques que están en contacto sobre una
superficie sin fricción y se aplica sobre ellos una
a) T1 = T2 b) T1 ≠ T2 c) T1 > T2 d) T1 < T2 fuerza F.

20. Si β < α, es correcto afirmar que: 23. Si el sistema no se mueve con una
velocidad constante, su aceleración es igual a:
a) T1 = T2 b) T1 ≠ T2 c) T1 > T2 d) T1 < T2
a) c)
21. Un bloque de masa M pende de dos
cuerdas iguales atadas a postes. Las tensiones en b) d)
las cuerdas son iguales. Si no se conoce la masa,
se puede decir que el bloque tiene un peso de:

24. Si M2 > M1, es correcto decir que la fuerza


a) 2T. de contacto es aproximadamente igual a:
b) T Sen a) 2F b) F/2 c) CERO d) F
Θ.
c) 2T Sen 25. Un observador se encuentra en reposo
Θ. mientras una patrulla de policía se acerca a él con
d) 2T Cos una velocidad de VF. Si la frecuencia de la sirena
Θ. es de FF, para calcular la frecuencia que percibe
por el observador, es correcto afirmar que:

22. El diagrama de fuerzas que actúa sobre la


esfera es: N = normal, W = peso
A un bloque de 5Kg de masa, que se encuentra
sobre una superficie sin fricción, se aplican dos
fuerzas: F1 = 10N y F2 = 5N como lo indica la
figura.

a) c)
¿Cuál es el factor de escala de las longitudes?

a) c) a) 100. b) 10. c) 15. d) 30.

29. De dos dinamómetros iguales cuelga un


b) d) cuerpo de masa 30 Kg, como se muestra en la
figura. La lectura de cada dinamómetro es:

Las preguntas 26 y 27 se responden de


acuerdo con la siguiente información. a) 60 N.
b) 30 N.
c) 150 N.
d) 15 N.

30. Si no se tiene la ayuda de un termómetro y se


desea comparar las temperaturas de dos
porciones de un gas ideal de masas iguales,
confinados en recipientes de igual volumen, se
26. La fuerza neta que actúa sobre el bloque es: debe conocer:
a) 15 N c) – 5N
b) b) -15 N d) 5 N a) La presión de cada uno de los gases.
b) El volumen de los recipientes.
27. El bloque es movido con una aceleración de: c) La capacidad calorífica de cada uno de los
a) 10 m/s2. c) 5 m/s2. gases.
d) Las masas de los gases.
b) 1 m/s2. d) 15 m/s2.
28. Dos triángulos semejantes tienen,
respectivamente, hipotenusas de 3 cm y 30 cm.

También podría gustarte