0% encontró este documento útil (0 votos)
44 vistas110 páginas

Introducción a la Biofísica 2024-2025

La biofísica es una disciplina interdisciplinaria que combina principios de la física y la biología para explicar fenómenos biológicos, utilizando modelos simplificados para proporcionar comprensión y predicción. Se enfoca en el estudio de sistemas complejos, tanto a nivel microscópico como macroscópico, y abarca diversas ramas como biomecánica, bioelectricidad y bioenergética. La medición y clasificación de magnitudes son esenciales en biofísica, con un sistema de unidades basado en el Sistema Internacional.

Cargado por

Copy Center23
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
44 vistas110 páginas

Introducción a la Biofísica 2024-2025

La biofísica es una disciplina interdisciplinaria que combina principios de la física y la biología para explicar fenómenos biológicos, utilizando modelos simplificados para proporcionar comprensión y predicción. Se enfoca en el estudio de sistemas complejos, tanto a nivel microscópico como macroscópico, y abarca diversas ramas como biomecánica, bioelectricidad y bioenergética. La medición y clasificación de magnitudes son esenciales en biofísica, con un sistema de unidades basado en el Sistema Internacional.

Cargado por

Copy Center23
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Biofísica

INGRESO 2024-2025

Apunte
Equipo de trabajo:
[Link] Susana Carratú
Prof Marisa Seva

UNIVERSIDAD CATÓLICA DE CUYO – FACULTAD DE


CIENCIAS MÉDICAS
Unidad N°1 – Introducción a la Biofísica

La física es la ciencia que se ocupa de estudiar sistemas simples, sin


modificar la naturaleza de la materia que los constituye, que se
pueden caracterizar por unos pocos parámetros, enfatizando siempre
los aspectos cuantitativos de las leyes que rigen su comportamiento,
lo que implica un alto grado de formalización matemática.
La biología, por su parte, se ocupa de los sistemas más complejos
que existen en el mundo, los seres vivos, cuyo comportamiento no
puede caracterizarse con ayuda de unos pocos parámetros y cuya estructura no puede
entenderse fuera del marco evolutivo, por lo cual resulta una disciplina más descriptiva,
menos deductiva y su lenguaje no es altamente formalizado de las matemáticas.
Sin embargo los seres vivos forman parte de un mundo físico y, por lo tanto, son
afectados por las leyes generales que rigen el comportamiento de cualquier sistema
físico, ya sea la gravedad, la tensión superficial, los intercambios de energía con el
entorno, el movimiento de los fluidos o las interacciones electromagnéticas.
En este contexto la biofísica es la disciplina que aúna los conocimientos de las ciencias
mencionadas, se podría decir que la biofísica es una sub-disciplina o rama de la Biología,
desde nuestra posición es una ciencia interdisciplinar que explica los fenómenos
biológicos aplicando los principios físicos fundamentales de la naturaleza.

Tanto la física, la química y la biología forman parte del entramado de las ciencias
naturales, que a su vez se consideran ciencias experimentales, que tienen por objeto el
estudio de fenómenos naturales siguiendo cierta metodología no necesariamente estricta
denominada método experimental, método científico o quehacer científico.
El quehacer científico, desde los aportes de la filosofía de la ciencia hoy sabemos que la
metodología de las ciencias, es decir toda práctica científica, en ciencias fácticas
(sociales y naturales), involucra distintos tipos de actividades, de las cuales pueden
distinguirse tres ámbitos diferentes
Ámbito de creación
Ámbito de justificación
Ámbito de aplicación

En el primero de estos ámbitos encontramos las actividades que los científicos


desarrollan cuando necesitan dar cuenta de diferentes fenómenos y generar alguna
propuesta explicativa tendiente a proporcionar comprensión sobre el fenómeno o hecho.
En tanto, en el segundo de los ámbitos, esas propuestas explicativas enunciadas en
forma de hipótesis se ponen a prueba derivando consecuencias observacionales
(enunciados) que se comparan con enunciados provenientes de datos experimentales.
El tercer ámbito da cuenta de cómo se usan las teorías para resolver problemas o para
brindar comprensión sobre ciertos fenómenos.

Página 1
Es decir, es simplemente otra manera de preguntarse el por qué de los fenómenos y
formular modelos explicativos sobre los mismos.

Las ciencias naturales, por su parte, se apoyan en el razonamiento lógico y el


aparato metodológico de las ciencias formales, especialmente de la matemática y
la lógica, cuya relación con la realidad de la naturaleza es indirecta.

La metodología de las ciencias no responde a un único método porque la resolución de


un problema no tiene un orden, se debe cambiar sobre la marcha, adoptando las
estrategias que se consideren más convenientes, es decir, no existen guías universales
en las investigaciones. Las nuevas concepciones de método científico afirman, de
manera general, que consiste en un conjunto de prácticas (operaciones, reglas y
procedimientos) llevadas a cabo por los científicos en sus investigaciones con el
fin de resolver problemas.
La secuencia fenómeno – idea – terminología implica enseñar los conceptos científicos,
como se van organizando y como van adquiriendo significación por la teoría de la que
forman parte y por la aplicación al resolver problemas.
No tiene la misma relevancia, el contexto de aplicación, si se da al final del desarrollo
del tema que si se toma como disparador de inquietudes y eje durante el desarrollo del
tema.

Para algunos autores, La biofísica es una ciencia reduccionista porque establece que
todos los fenómenos observados en la naturaleza tienen una explicación científica
predecible.
…si nosotros no podemos explicar algunos fenómenos en la actualidad no se debe a que
estos no tengan una explicación científica, sino que nosotros aún no tenemos los
implementos necesarios para estudiar las causas subyacentes a esos fenómenos aún
inexplicables…

Página 2
Para llevar a cabo a su cometido las ciencias proponen representaciones
simplificadas, llamadas modelos, cuya finalidad es proporcionar explicación,
comprensión y predicción sobre diferentes fenómenos.
Por su gran diversidad, los modelos científicos pueden clasificarse en tres tipos:
Modelos Formales: se trata de construcciones utilizadas en investigación a fin
de proporcionar explicación sobre algún fenómeno escasamente perceptible, por
ejemplo: modelos atómicos, teoría de la relatividad, etc.
Modelos Materiales: generalmente son representaciones concretas de modelos
formales, expresados a través de lenguaje específico, pueden ser
representaciones en dos o tres dimensiones como las imágenes que entrega un
microscopio, ecografías, radiografías, tomografías, mapas o dibujos, en tres
dimensiones como los órganos del cuerpo humano, el esqueleto, etc.
Modelos Matemáticos: son representaciones (símbolos, gráficos y diagramas)
con una gran carga matemática mediante ecuaciones o formulas y cuya solución
en algunos casos describen un determinado comportamiento, por ejemplo: la
ecuación general del estado gaseoso, la ecuación de Einstein para interconvertir
masa y energía, etc.

En la medida de lo posible durante el desarrollo de esta materia trataremos de


comprender los fenómenos o hechos desde dos puntos de vista, de procesos
estocásticos a nivel microscópico (principios microfísicos) y determinísticos a nivel
macroscópico (principios macrofísicos).
Un sistema estocástico es aquel cuyos estados microscópicos tienen causas
subyacentes al azar (no determinado sino probable). Un sistema determinístico es aquel
cuyos estados macroscópicos tienen causas subyacentes reconocibles. Ambos tipos de
procesos son los sujetos de estudio de la biofísica.

Por ejemplo, la biofísica estudia la transferencia de energía de una partícula a otra dentro
del complejo motor molecular conocido como ATP sintetasa, o la mecánica del esqueleto
humano, o la dinámica de fluidos en un saltamontes, etc.

Página 3
Un concepto importante en biofísica, al igual que en termodinámica y mecánica cuántica,
es el de sistema, en general, entendido como un agregado de elementos incluidos entre
límites reales o imaginarios.

Al estudiar sistemas con un elevadísimo número de partículas, que poseen


movimiento relativo entre ellas; estos sistemas nos resultan muy familiares como el aire
que respiramos, el agua que bebemos, los sólidos, los fluidos y los seres vivos.
En un sistema de tal número de partículas, las magnitudes mecánicas, como la
velocidad, la cantidad de movimiento o la energía, no son iguales para todas las
partículas, sino que toman valores muy diferentes.

En el estudio de los sistemas físicos de un elevado número de partículas caben dos


aproximaciones claramente diferenciadas, por un lado deben estudiarse las relaciones
entre las magnitudes macroscópicas del sistema como son la presión, la temperatura y
otras. En contraste la otra aproximación es el enfoque microscópico, este método parte
del conocimiento del comportamiento individual de las partículas del sistema.
Entenderemos como magnitudes microscópicas aquellas que caracterizan a las
moléculas como por ejemplo: la masa, la velocidad, la energía cinética o potencial, de

cada una de ellas o un promedio de estas magnitudes sobre un conjunto de moléculas


debido al movimiento y los choques de las moléculas. Por magnitudes macroscópicas
se entienden aquellas que caracterizan al sistema en su conjunto como, la presión, la
temperatura y el volumen.

Página 4
En la mayoría de los casos se suele confundir temperatura y calor, por lo cual es
necesario diferenciar dichos conceptos
La temperatura es una magnitud macroscópica que se refiere a la energía cinética
asociada a un determinado comportamiento (estado) de un sistema formado por un
gran número de partículas, por ello decimos que es una variable de estado
En tanto que calor se define como la manifestación de transferencia de energía entre
dos cuerpos que se encuentran a diferente temperatura.

En la vida diaria el concepto de calor se utiliza frecuentemente con imprecisión, se


habla de contenido calorífico cuando debería decirse contenido energético. A esta
confusión contribuye la frecuente utilización de unidades caloríficas como la caloría, en
lugar de las unidades habituales de energía.

RAMAS DE LA BIOFÍSICA
Las ramas de la biofísica son las siguientes:
Biomecánica: Estudia la mecánica del movimiento en los seres vivientes; por
ejemplo, la locomoción, el vuelo, la natación, el equilibrio anatómico, la mecánica de
los fluidos corporales, la fabricación de prótesis móviles, etc. Si bien la biomecánica
está presente en diversos ámbitos, tres de ellos son los más destacados en la
actualidad:
 La biomecánica médica: evalúa las patologías que aquejan al hombre para
generar soluciones capaces de evaluarlas, repararlas o paliarlas.
 La biomecánica deportiva: analiza la práctica deportiva para mejorar su
rendimiento, desarrollar técnicas de entrenamiento y diseñar complementos,
materiales y equipamientos de altas prestaciones.
 La biomecánica ocupacional: estudia la interacción del cuerpo humano con los
elementos con que se relaciona en diversos ámbitos (en el trabajo, en casa, en
la conducción de automóviles, en el manejo de herramientas, etc.) para
adaptarlos a sus necesidades y capacidades. En este ámbito se relaciona con
la ergonomía.

Bioelectricidad: Estudia los procesos electromagnéticos y electroquímicos que


ocurren en los organismos vivientes así como también los efectos de los procesos
electromagnéticos abióticos sobre los seres vivientes; por ejemplo, la transmisión de
los impulsos neuroeléctricos, el intercambio iónico a través de las biomembranas, la

Página 5
generación biológica de electricidad (anguilas, rayas, etc.), la aplicación de la
electrónica en biomedicina, etc.
Bioenergética (termodinámica biológica): Se dedica al estudio de las
transformaciones de la energía que ocurren en los sistemas vivientes; por ejemplo,
la captura de energía por los biosistemas, la transferencia de energía desde y hacia
el entorno del biosistema, el almacenamiento de energía en la célula, etc.
Bioacústica: Investiga y aplica la transmisión, captación y emisión de ondas sonoras
por los biosistemas.
Biofotónica: Estudia las interacciones de los biosistemas con los fotones; por
ejemplo, la visión, la fotosíntesis, etc.
Radiobiología: Estudia los efectos biológicos de la radiación ionizante y la no
ionizante y sus aplicaciones en las técnicas biológicas de campo y de laboratorio.

Unidad N°2 - Magnitudes y Mediciones

“MAGNITUDES Y MEDICIONES”
En el estudio de la materia nos encontramos con cualidades,
características o particularidades que nos permiten comenzar un
estudio descriptivo de la materia.
Dichas cualidades o características las denominamos
propiedades de la materia o de los materiales.
Ahora bien, muchas de las propiedades son cualitativas, es decir
denotan alguna característica no asociada a un número, por
ejemplo el color de ojos. Pero el concepto biofísico
incluye a los agregados de materia y a los elementos que
constituyen un proceso dentro de límites estructurales
y/o correspondientes a la fase espacio-tiempo.
La observación de un fenómeno es en general,
incompleta a menos que dé lugar a una información
cuantitativa. Para obtener dicha información, se requiere
la medición de una propiedad física. Así, la medición constituye una buena parte de la
rutina diaria del físico experimental

La medición es la técnica por medio de la cual asignamos un número a una


propiedad física, como resultado de una comparación de dicha propiedad con otra
similar tomada como patrón, la cual se ha adoptado como unidad.

Las magnitudes son propiedades medibles que presentan la materia y los


materiales. Cuando medimos una propiedad de una muestra (porción de materia), lo que
en esencia estamos haciendo es compararla con una unidad estándar de dicha
propiedad.
Página 6
Como sabemos, para efectuar una medición es necesario escoger una unidad para cada
magnitud, entendiendo como unidad una cantidad definida utilizada como patrón de
medida. El establecimiento de unidades, reconocidas internacionalmente, también es
imprescindible en el comercio y en el intercambio entre países.

Tipos de magnitudes
Entre las distintas propiedades medibles puede establecerse una clasificación básica. Un
grupo importante de ellas quedan perfectamente determinadas cuando se expresa
su cantidad mediante un número seguido de la unidad correspondiente. Este tipo
de magnitudes reciben el nombre de magnitudes escalares. La longitud, el volumen,
la masa, la temperatura, la energía, son sólo algunos ejemplos.
Sin embargo, existen otras que
precisan para su total definición
que se especifique, además de los
elementos anteriores, una dirección o
una recta de acción y un sentido:
son las llamadas magnitudes
vectoriales o dirigidas.

Las magnitudes vectoriales requieren de ciertos elementos matemáticos que pueden


representar intensidad, dirección y sentido, denominados vectores (segmento orientado).

Las magnitudes puede denominarse fundamentales o derivadas, en el primer caso se


consideran magnitudes fundamentales aquellas que por definición queda
perfectamente expresada y su unidad es producto de comparación, en tanto se
consideran magnitudes derivadas aquellas que por definición resultan de alguna
operación entre magnitudes fundamentales.
Cuando se ha elegido ese conjunto reducido y completo de magnitudes
fundamentales y se han definido correctamente sus unidades correspondientes, se
dispone entonces de un sistema de unidades.
Entonces, las unidades base del Sistema Internacional de Unidades son:

MAGNITUD BASE NOMBRE SIMBOLO


longitud metro m
masa kilogramo kg
tiempo segundo s
corriente eléctrica Ampere A
temperatura termodinámica Kelvin K
cantidad de sustancia mol mol
intensidad luminosa candela cd

Página 7
Algunas de las magnitudes derivadas, con sus respectivas unidades, más utilizadas se
muestran en la siguiente tabla

MAGNITUD NOMBRE SIMBOLO


Volumen metro cúbico m3
fuerza newton N
presión pascal Pa
energía Julio J
potencia watio W
carga eléctrica culombio C
velocidad metro/segundo m/s

Algunas mediciones realizadas en el ámbito de la salud

El SIMELA (SISTEMA MÉTRICO LEGAL ARGENTINO): acepta y toma las unidades,


múltiplos y submúltiplos del SISTEMA INTERNACIONAL (SI).
La definición de unidades dentro de un sistema se atiene a diferentes criterios. Ha de ser
constante y ha de ser reproducible con relativa facilidad en un laboratorio.
En el estudio, a menudo nos encontraremos con magnitudes expresadas con números
muy grandes o muy pequeños, lo cual resulta incómodo y difícil su enunciado en forma
oral, es por ello que resulta más útil expresarlas mediante el empleo de múltiplos y
submúltiplos de 10, a cada uno de los cuales se le asigna un nombre especial

factor prefijo símbolo factor prefijo símbolo


1012 tera T 10-1 deci D
109 giga G 10-2 centi C
106 mega M 10-3 mili M
103 kilo k 10-6 micro µ
102 hecto h 10-9 nano N
101 deca d 10-12 pico P

Página 8
Desde el punto de vista fisicoquímico resulta de gran interés una magnitud denominada
densidad, la cual se define como la cantidad de masa que posee un cuerpo por
unidad de volumen.
𝒎𝒂𝒔𝒂 (𝒎)
𝒅𝒆𝒏𝒔𝒊𝒅𝒂𝒅 (𝒅) =
𝒗𝒐𝒍𝒖𝒎𝒆𝒏 (𝒗)

Tal cual podemos apreciar se trata de una magnitud derivada que resulta de relacionar
la masa (magnitud fundamental) y el volumen (magnitud derivada).
El valor de la densidad es independiente de la cantidad de sustancia que se tome para
su determinación, ya que al aumentar la cantidad de sustancia también aumentara el
espacio que ocupa, por tanto la relación se mantiene.
A este tipo de propiedades independientes de la cantidad de materia, como el punto de
ebullición, punto de fusión, viscosidad, solubilidad, etc. se les denomina propiedades
intensivas, mientras que a las propiedades que dependen de la cantidad de materia se
las denomina propiedades extensivas, por ejemplo: masa, longitud, volumen, peso,
superficie, etc. Cada vez que se realiza una medición se pueden dar dos situaciones: que
sea exacta o precisa, o ambas.

Precisión: es la aproximación entre múltiples mediciones del mismo


tipo, realizadas sobre una magnitud física.

Exactitud: es la proximidad entre el valor real y el resultado obtenido


de una medición efectuada sobre una magnitud física.

Cuando una medición resulta poco exacta se debe a la presencia de errores en


la dicha medición, Las causas que motivan tales desviaciones pueden ser debidas
al observador, al aparato o incluso a las propias características del proceso de medida.

Cuanto mayor es la exactitud de una medición, menor es el error cometido.


Cuanto menor es la exactitud de una medición, mayor es el error cometido.

Los errores en mediciones se pueden clasificar en:


Error sistemático o de observación: pueden ser debido a fallas en el instrumento, el
método o la persona.
Error aleatorio: no se puede establecer con claridad cuál es la causa de error,
generalmente se atribuye a condiciones que no pueden fijarse con anticipación.
Para determinar el error de observación se realiza el siguiente cuadro
LECTURA PROMEDIO ERROR ABSOLUTO ERROR RELATIVO ERROR PORCENTUAL

L1

L2

L3

Página 9
Promedio: se obtiene sumando las mediciones y dividiendo por el número total de las mismas:
Error absoluto: se determina restanto a cada medición el valor promedio
Error relativo: se determina dividiendo el error absoluto por el promedio
Error porcentual: se determina multiplicando el error relativo por 100.

¿Cómo expresar el valor de una magnitud derivada, por ejemplo densidad?

Al determinar la densidad de una sustancia, por ejemplo oro, se puede realizar el cálculo a
partir de los datos (masa 100 g y volumen 5,18 cm 3 y obtener un valor 19,305019… g/cm3, no
podemos preguntar ¿cómo expresar el valor en forma correcta y precisa?

EL NÚMERO DE DÍGITOS DE UNA CANTIDAD MEDIDA EXPERIMENTALMENTE,


QUE EXPRESA LA PRECISIÓN CON QUE SE CONOCE DICHA CANTIDAD, SE
DENOMINA CIFRAS SIGNIFICATIVAS.

Para establecer el número de cifras significativas en una cantidad determinada, se tienen


en cuenta determinados criterios:
1. Todos los dígitos distintos de cero son cifras significativas
2. Los ceros situados entre cifras significativas son también significativos.
3. Los ceros situados al final de un número y a la derecha del punto decimal son cifras
significativas.
4. Los ceros que preceden al primer dígito distinto de cero, es decir a la izquierda de
un número, no son cifras significativas.

Como así también respecto de las operaciones a realizar con dichas cifras.
a) Adición y sustracción: el resultado se expresa teniendo en cuenta el número que menor
cantidad de cifras decimales posee.
b) Multiplicación y división: para expresar el resultado se debe verificar el factor que
presenta el menor número de cifras significativas. Por ejemplo: al multiplicar 3,67 x 2,3 se
obtiene 8,441 a través del cálculo, pero como el factor de menor número de cifras
significativas es 2,3, el resultado debe ser expresado en función de él.

Otro tipo de notación muy frecuente en las ciencias naturales es la notación científica,
que permite expresar números tan grandes o tan pequeños, mediante la forma Ax10n,
donde A es un número comprendido entre 0 y 9 y n es número entero que puede ser
positivo o negativo. Por ejemplo:
[Link].[Link] quedando 6,02x1023.
0,[Link].[Link].19 quedando 3,8x1023

Factor de conversión: Esta estrategia se conoce como análisis dimensional o método


del factor de conversión. La estrategia general consiste en multiplicar la cantidad
conocida y sus unidades por uno o más factores de conversión
(equivalente a 1) que permitan obtener la respuesta en las unidades
deseadas.
Página
10
Unidad N°3 - La Materia y el Átomo

“Materia es todo aquello que tiene masa e inercia, ocupa un lugar en el espacio y
es perceptible a través de los sentidos”. Es materia el aire que respiramos, el agua
que bebemos, el vidrio que forma un vaso, etc. Es conveniente aclarar los conceptos de
masa e inercia.
La definición de materia como algo que ocupa un lugar en el espacio es muy amplia.
Cuando se estudia la materia es conveniente usar una porción o muestra de la misma, o
lo que es lo mismo un cuerpo. Es decir que un Cuerpo es una porción limitada de
materia.
Todo cuerpo tiene límites reales y peso: son cuerpos un lápiz, un litro de agua, un balón
de aire, un corpúsculo de polvo, etc.
Si tenemos varios cuerpos de igual forma y tamaño, por ejemplo cubos de: azúcar, vidrio,
plástico, etc., estamos en presencia de porciones limitadas de materia. Pero además son
clases de materia que se diferencian entre sí, estamos en presencia de varias sustancias.
Definimos entonces Sustancia como una clase especial de materia. Una sustancia
determinada presenta siempre las mismas propiedades físicas y químicas bajo idénticas
condiciones de observación. Son sustancias el agua, el hierro, etc.
La materia presenta propiedades intrínsecas tales como:
Masa: Es la cantidad de materia contenida en un objeto y es invariable. Es necesario no
confundir con peso, que es la fuerza gravitacional con que un objeto es atraído por la
tierra. La fuerza depende de la aceleración de la gravedad, por lo tanto el peso de un
cuerpo tiene distintos valores según el lugar donde se determine, de ahí que debe
hablarse de peso local.

Resumiendo: masa y peso son conceptualmente distintos si bien se hallan estrechamente


vinculados y, para un mismo lugar de la tierra, son numéricamente iguales. En algunos
casos pueden ser trabajos como conceptos equivalentes.
Inercia: Es la propiedad por la cual un objeto tiende a seguir en el estado en que se
encuentra mientras no actúe sobre él una fuerza externa.
Al arrancar un coche con violencia, los pasajeros son proyectados hacia atrás. Este y
otros hechos de experiencia corriente nos dicen que los objetos son inertes; esto es:
incapacidad de modificar por si mismos su situación de reposo.

MATERIALES Y SUS PROPIEDADES


Se denomina materiales a tipos de materia con características específicas, vendrían a
representar distintos tipos de materias másicas (medibles en cantidad); en efecto, existen
formas de materia que carecen de masa, como por ejemplo la luz o como la radiación
electromagnética, siendo los materiales formas de materias másicas. Estos pueden tener
distintas características según su composición, en función de las propiedades que les
son inherentes.

Página
11
Existen materiales de muy diversas variedades que se pueden clasificar según su origen
o procedencia y según sus propiedades.
Las propiedades son características o cualidades que presentan los materiales y que
permite diferenciarlos.

Según su origen:

Materiales naturales: se encuentran directamente en el medio natural. Estos


recursos naturales pueden ser:

 Renovables: no existe peligro de que se agoten con el paso del tiempo.

 No renovables: los que se agotan con el paso de los años.

Materiales sintéticos: son el resultado de la actividad del hombre mediante algún


proceso de fabricación.

Según sus propiedades:

Propiedades sensoriales: son aquellas propiedades que se pueden percibir a través


de los sentidos, como el color, el brillo, el aroma, la dureza o la textura.

Para el estudiante de ciencias resulta de mayor provecho aquellas propiedades que


pueden ser cuantificadas y evaluadas mediante diferentes ensayos en los materiales, en
este contexto resulta importante que el alumno tenga conocimiento de las propiedades
mecánicas que a continuación se describen:

Propiedades mecánicas: son aquellas propiedades que se relacionan con la


resistencia de los materiales ante distintas cargas y esfuerzos.

 Dureza: resistencia que presenta un material a ser rayado o cortado por otro.

 Tenacidad: resistencia que presenta un material a romperse cuando se le golpea.

 Fragilidad: propiedad de la materia que indica con qué facilidad se puede romper
un cuerpo al sufrir un golpe suave.

 Flexibilidad: capacidad que tiene un material de poder doblarse sin romperse.

 Rigidez: propiedad de los materiales de romperse al ser sometidos a una tensión.

Página
12
 Elasticidad: capacidad que tiene un material de recuperar su forma por sí solo,
después de haberlo estirado, comprimido o retorcido.

 Plasticidad: capacidad de los materiales de adoptar una nueva forma al ser


sometidos a una tensión deformante.

 Transparencia: Facilidad con la que un material permite que lo atraviese la luz y


que se visualice una imagen a través de él.

 Translúcido: se denomina así al material que permite el paso de luz pero que no
se visualice una imagen a través de él, generalmente la imagen se observa
distorsionada.

 Opaco: se denomina así al material que impide el paso de luz y por consiguiente
no se puede observar una imagen a través del mismo.

 Maleabilidad: es la capacidad de algunos materiales para extenderse en láminas


delgadas.

 Ductilidad: es la capacidad de los materiales para formar hilos o alambres.

 Conductividad eléctrica: capacidad de los materiales de permitir el paso de


corriente eléctrica, indica si el material es buen o mal conductor de la electricidad.

 Dilatación térmica: aumento de volumen que experimenta un material cuando se


le proporciona energía en forma de calor.

 Porosidad: propiedad de tener espacio libre entre sus moléculas y poder absorber
líquidos o gases.

 Colabilidad: capacidad de un metal fundido para producir piezas completas y sin


defecto, un material colable debe poseer gran fluidez para poder llenar
completamente el molde.

ENSAYOS EN MATERIALES

Los ensayos tienen como finalidad determinar las características de los materiales.
Clasificación de los ensayos:
Ensayos de características
 Químico: Determinar la composición de los materiales.
 Estructuras:
Cristales: Determinar la forma de cristalización.
Microscópicos: Determinar el grano.
Macroscópicos: Determinar la fibra
Página
13
 Térmicos:
Puntos de fusión.
Puntos críticos.
 Constituyentes: (Ej. Carburo de ...)
Ensayos destructivos: (E.D.)
Ensayos de propiedades mecánicas:
Estáticos:
Durezas Tracción Fluencia
Compresión Cizalladura
Flexión Pandeo
Dinámicos:
Resistencia al choque
Desgaste
Fatiga

Ensayos tecnológicos: Determinan el comportamiento de los materiales ante


operaciones industriales
Doblado, Plegado, Forja, Embutición, Soldadura, Laminación,...

Ensayos No destructivos: (Por orden de importancia)


Rayos X.
Rayos Gamma: Se usa un isótopo reactivo, uso de radiografías.
Ultrasonidos.
Partículas magnéticas.
Líquidos penetrantes.
Corrientes Inducidas.
Magnéticos.
Sónicos: Es el más utilizado, un material sin grietas tiene un sonido agudo; si el
material tiene grietas el sonido es más grave.

Estas pruebas, permitirán detectar y evaluar discontinuidades o propiedades de los


materiales sin modificar sus condiciones de uso o aptitud para el servicio.
Los diferentes métodos de ensayos no destructivos se basan en la aplicación de
fenómenos físicos tales como ondas electromagnéticas, elásticas, emisión de
partículas subatómicas, capilaridad, absorción y cualquier tipo de prueba que no
implique un daño a la muestra examinada. Dentro de los ensayos no destructivos
podemos mencionar: radiografía, ultrasonido, inspección visual y tintas penetrantes.

Página
14
ESTADOS DE AGREGACIÓN DE LA MATERIA
El estudio de las características de los estados de agregación se puede profundizar
teniendo en cuenta la teoría cinético-corpuscular. Los principios básicos de esta teoría
son los siguientes:

1.- La materia está compuesta por partículas discretas, extraordinariamente


pequeñas llamadas moléculas
2.- Estas moléculas están dotadas de energía cinética, y por lo tanto poseen
movimiento
3.- La energía cinética depende exclusivamente de la temperatura. A mayor
temperatura, mayor energía cinética de las moléculas
4.- Las moléculas están dotadas de campos de fuerza, de manera que cada una de
ellas ejerce una atracción sobre las restantes

La fuerza de atracción que tiende a aproximar una molécula a las otras recibe el nombre
de fuerza de cohesión. Por otro lado, debido a los choques que se producen entre las
moléculas como consecuencia de su movimiento, se manifiesta una fuerza contraria a la
cohesión que es la fuerza de repulsión.

De acuerdo a la teoría cinético-corpuscular, existen entre las partículas fuerzas de


atracción y fuerzas de repulsión.
Según la magnitud de esa interacción y de la temperatura a la que se encuentra la
materia, ésta se presenta en distintos estados de agregación: sólido, líquido o gaseoso.
La presión también es un factor que se debe tener en cuenta para determinar el estado
de agregación de un material.
Existe un cuarto estado denominado plasma (aunque pueden generarse otros estados),
del que no nos ocuparemos aquí.
En general, a temperatura ambiente y presión atmosférica normal, los metales (salvo el
mercurio, que es líquido) y las sustancias formadas por iones se encuentran en estado
sólido, mientras que las sustancias formadas por moléculas pueden ser
sólidas, líquidas o gaseosas.
Cada uno de estos estados de agregación tiene características físicas
propias que permiten diferenciarlos.

DESCRIPCIÓN CINÉTICO-MOLECULAR DE LOS ESTADOS DE


AGREGACIÓN

ESTADO SÓLIDO:

Los sólidos pueden considerarse formados por pequeñas partículas


esféricas entre las cuales las fuerzas de atracción son mayores a las de repulsión.
Página
15
Generalmente se encuentran ordenadas formando un conjunto compacto. De esta
manera se puede explicar que los cuerpos sólidos tengan forma y volumen propio. Estas
partículas no poseen movimiento de traslación; solamente pueden vibrar en posiciones
relativamente fijas.
Los sólidos son incompresibles, ya que entre las partículas no existe espacio vacío para
poder acercarlas.
Si bien los sólidos se caracterizan porque las partículas forman un agrupamiento
compacto, en algunos casos las partículas no están ordenadas. Esto permite hacer una
clasificación de los sólidos en dos tipos: sólidos cristalinos y sólidos amorfos.
En los sólidos cristalinos las partículas se disponen en forma ordenada, mientras que
en los sólidos amorfos no, es decir, la distribución es al azar.

ESTADO LÍQUIDO:

Las partículas están mucho más lejos unas de otras que en el estado
sólido, ya que existe un cierto equilibrio entre las fuerzas de repulsión
y atracción entre ellas, pero no tanto como en el estado gaseoso. Se
forman pequeños grupos de partículas debido a las fuerzas de
cohesión presentes. El orden aumenta cuando se disminuye la
temperatura a valores próximos a la congelación porque disminuye
la energía cinética. Toda molécula de un líquido se encuentra dentro
del campo de atracción de las moléculas vecinas. Los espacios intermoleculares son
mayores que en el estado sólido.
Las moléculas pueden trasladarse y rotar, y los átomos que las forman pueden vibrar. El
movimiento de traslación de las partículas en los líquidos permite explicar su capacidad
de fluir. El pequeño espacio que existe entre las moléculas es suficiente para que puedan
deslizarse y tomar la forma del recipiente que los contiene.
La cercanía entre las partículas es la responsable de que sean prácticamente
incompresibles. No hay espacio suficiente entre las moléculas como para que se observe
una disminución del volumen al comprimir un líquido.
La energía cinética de las moléculas de un líquido es mayor que la energía cinética de
las moléculas de un sólido y menor que la energía cinética de las moléculas de un gas,
considerándolos todos a la misma temperatura. El valor de energía cinética es tal, que
no permite que las moléculas abandonen el campo de atracción de las restantes, pero es
lo suficientemente elevada como para que las mismas puedan desplazarse, cambiando
constantemente de vecinas. Esto se traduce, en que el volumen de un líquido no
cambia pero si la forma, (dada por el recipiente que contiene el líquido) y por
consiguiente los líquidos pueden fluir.
Cuando se hallan en reposo presentan una superficie libre plana horizontal, límite bien
definido pero sin rigidez.

Página
16
La fuerza de atracción entre las moléculas de la superficie de los líquidos puede ser tan
grande que permite que pequeños insectos se posen sobre ella sin hundirse. Esta fuerza
se conoce como tensión superficial.

ESTADO GASEOSO:

En el estado gaseoso las partículas, generalmente moléculas, se


encuentran en continuo movimiento y, al desplazarse, chocan entre
sí y con las paredes del recipiente que las contiene.
Hay una propiedad que refleja la cantidad de choques que las
partículas tienen contra las paredes del recipiente: la presión. Es
decir, que a mayor cantidad de partículas dentro de un recipiente,
mayor será la presión, ya que mayor será el número de choques de
estas partículas contra las paredes del recipiente. Los choques entre las partículas, según
el modelo cinético, son elásticos por lo que no hay pérdida de energía en ellos y no se
tienen en cuenta para calcular la presión que el gas ejerce dentro del recipiente que lo
contiene.
La velocidad de las partículas de un gas es enorme y, cuando chocan, rebotan y vuelven
a separarse. Al chocar se alejan lo más posible unas de otras, ya que prevalecen entre
ellas las fuerzas de repulsión sobre las de atracción (cohesión).
Presentan los tres grados de libertad traslación, rotación y vibración.
Cuando se calienta un gas, su temperatura aumenta, y de manera proporcional aumenta
la energía de sus partículas, y con ello la velocidad con que se trasladan sus moléculas,
como así también la rapidez de rotación y la de vibración de los átomos. De esta manera
los gases tienen la capacidad de fluir, es decir que sus moléculas se trasladen
continuamente.
Cuando las moléculas chocan y se alejan, tienden a ocupar todo el espacio disponible,
por eso los gases no poseen forma ni volumen propio, adoptan el volumen y la forma del
recipiente que los contiene.
Además, los gases tienen la propiedad de ser compresibles, esto se debe a que
(siguiendo el modelo cinético), al estar las moléculas tan separadas unas de otras, es
posible acercarlas y reducir el espacio vacío que hay entre ellas. Si las partículas se

Página
17
acercan lo suficiente, comienzan a prevalecer las fuerzas de atracción entre ellas y el gas
se transforma en líquido.
Resumiendo lo expresado respecto de los tres estados de agregación, se puede
hacer la siguiente representación:

CAMBIOS DE ESTADO
Toda sustancia que se encuentra en un estado de agregación (sólido, líquido o gaseoso)
puede cambiar a otro si se dan las condiciones adecuadas.
Se puede decir que los cambios de estado, desde un punto de vista energético, se
dan cuando un sistema absorbe o libera energía, generalmente en forma de calor.
Por ejemplo, cuando un sólido absorbe calor, va aumentando la energía cinética de las
partículas que lo forman hasta que se llega a vencer la fuerza de atracción entre ellas y
se rompe la estructura cristalina (si es un sólido cristalino), pasando al estado líquido. Si
se sigue calentando, es decir entregando energía al líquido, la energía cinética de las
moléculas sigue aumentando hasta el punto de vencer por completo las fuerzas de
atracción entre ellas y la sustancia pasa al estado gaseoso.
Si el proceso ocurre en sentido inverso, es decir el sistema libera energía, pierde calor
y se enfría, entonces las partículas tienen cada vez menos energía cinética y las fuerzas
de atracción adquieren cada vez mayor influencia.
Cada uno de estos cambios de estado tiene un nombre particular:

esto puede entrar


en el examen

Página
18
A lo largo de los años, los científicos han procurado dar cuenta sobre la estructura de la
materia, sobre sus propiedades comunes y sobre aquellas propiedades diferenciadoras,
para llevar a cabo a su cometido proponían construcciones teóricas, llamadas modelos,
que debían sostenerse sobre tres pilares fundamentales:
 Capacidad explicativa sobre los fenómenos observables.

 Capacidad predictiva sobre los fenómenos no observables.

 Coherencia interna en sus postulados para evitar contradicciones.

La vigencia o permanencia de algún modelo estaba determinada por estos tres pilares,
es decir si el modelo ante un descubrimiento o avance científico-tecnológico carece de
predicción, de explicación o de coherencia va perdiendo vigencia hasta que surge un
nuevo modelo.
EXPLICACION

A lo largo de la historia de la ciencia se han desarrollado varios modelos que


intentaban dar cuenta de la estructura del átomo y que fueron significativos por sus
aportes, entre ellos podemos mencionar:

John Dalton:
 La materia está formada por partículas pequeñísimas llamadas
“átomos”.

 Estos átomos no se pueden dividir ni romper.

 Los átomos de un mismo elemento son iguales entre sí.

Algunas de estos planeamientos perdieron vigencia con el tiempo.


Hoy sabemos que los átomos sí se pueden dividir y que no todos
los átomos de un mismo elemento son iguales; pero es innegable
que fueron muy importantes para la ciencia.

Página
19
Joseph Thomson: a raíz de sus experiencias sobre descargas de gases a baja presión
 Identifica una partícula subatómica de carga negativa
 El átomo consistía en una esfera de carga eléctrica
positiva, en la cual estaban incrustados los electrones en
número suficiente para neutralizar la carga positiva.
 La materia es continua
Se plantea una interpretación de una
estructura estática ya que los electrones se
encuentran atrapados en la masa positiva, a su vez hacía predicciones
incorrectas sobre la distribución de la carga positiva en el interior de los
átomos

Ernest Rutherford: a partir de sus experiencias con sustancias radiactivas


 Considera una concentración de cargas en el centro del átomo
(posteriormente llamado núcleo).
 Las cargas negativas (electrones) giran alrededor de la
concentración de cargas positivas.
 En la concentración de cargas se reúne toda la carga eléctrica
positiva y casi toda la masa del átomo.
El modelo debió afrontar algunos
cuestionamientos, por un lado se planteó el problema de cómo un
conjunto de cargas positivas podían mantenerse unidas en un volumen
tan pequeño y por otro lado, se decía que si los electrones son
partículas con carga eléctrica, para mantenerse en órbita necesitan una
aceleración, con lo cual producirían radiación electromagnética y eso
les haría perder energía.

Niels Bohr:
 Trató de incorporar en él la teoría de “cuantos de energía”
desarrollada por Max Planck y el efecto fotoeléctrico
observado por Albert Einstein.
 Los electrones solamente pueden estar en órbitas fijas muy
determinadas, negando todas las demás.
 Planeta una ecuación para determinar la cantidad de
electrones en cada orbita 2n2
 En cada una de estas órbitas, los electrones tienen asociada una determinada
energía, que es mayor en las órbitas más externas.
 Los electrones no irradian energía al girar en torno al núcleo.

Página
20
 El átomo emite o absorbe energía solamente cuando un
electrón salta de una órbita a otra.

A. Sommerfeld: sugirió que los electrones además de


orbitas circulares, describen órbitas elípticas que se
multiplican hasta destinar una para cada electrón.

El modelo actual se basa en la TEORÍA MECANOCUÁNTICA, la cual tiene en cuenta


los aportes realizados por el modelo de Bohr, el efecto fotoeléctrico de Einstein, los
espectros atómicos y el Principio de Incertidumbre de Heisemberg.

1.- Modelo atómico de Bohr: “el electrón puede girar alrededor del núcleo solamente
en aquellas órbitas circulares en las que la cantidad de movimiento circular lleva
implícito el conocimiento simultáneo y exacto de los valores de v (velocidad del electrón)
y de r (posición radial del electrón)”.

2.- El efecto fotoeléctrico. Einstein explica este fenómeno como un comportamiento


dual de la luz, en forma de onda y de partícula.

3.- La teoría de Planck. “La energía (para sistemas de partículas microscópicas) no es


absorbida ni emitida en forma continua sino en cantidades pequeñas y
perfectamente definidas llamadas cuantos:

4.- La Hipótesis de De Broglie: Considera que “toda partícula en movimiento


(macroscópica o microscópica) lleva una onda asociada”, es decir una partícula en
movimiento puede ser estudiada por la onda asociada a ella (por ejemplo el
electrón girando en órbitas alrededor del núcleo).

5.- El Principio de Incertidumbre de Heisemberg que dice: “No es posible medir en


forma exacta y simultánea la velocidad (v) y la posición (x = r) de partículas
microscópicas” (como el electrón).
Tal es así que propone un átomo formado por

Página
21
Los electrones se encuentran distribuidos en orbitales, que a su vez se encuentran
en zonas de energía denominadas niveles energéticos.
Para poder realizar la distribución de los electrones es necesario tener en cuenta
el número atómico (Z) que indica la cantidad de protones de un átomo, y si este es neutro
debe presentar la misma cantidad de electrones.
El número de neutrones puede determinarse a partir del número másico (A) que
representa la masa del átomo, como el aporte a la masa de los electrones es
insignificante, la masa está concentrada en el núcleo y depende de la cantidad de
protones y neutrones.
A = p+ + n numero másico= proton + neutron
De esta expresión se puede determinar la cantidad de neutrones conociendo el
número atómico y el número másico.

Los orbitales se pueden diferenciar por su forma y orientación espacial, por


ejemplo:
Orbitales s

Orbitales p

Orbitales d

Página
22
La presente representación teórica del átomo deriva de interpretar los
números cuánticos, estos últimos son la resolución matemática de la ecuación de
onda de Schrödinger

h2 d 2

 + V(x) = E

ESTA FORMULA
NOOOOO VA
2m dx2
simplificando H  E

La ecuación incluye comportamiento ondulatorio de las partículas y la fusión de la


probabilidad de su ubicación. Los números cuánticos permiten resolver cada función de
onda y de su interpretación resulta el concepto de orbital

La distribución de los electrones en los orbitales atómicos para el estado


fundamental, se denomina configuración electrónica.
La configuración electrónica permitió ordenar los elementos en la tabla periódica a
partir del número atómico creciente, separados en bloques según el subnivel que se
encuentren llenando.
SEPARACIÓN DE LA TABLA PERIÓDICA EN BLOQUES

Página
23
Uno de los aspectos más importantes de la química es la Ley Periódica, que
en su forma moderna establece que las propiedades de los elementos no son
arbitrarias sino que dependen de la estructura del átomo y varían simultáneamente
con el número atómico (Z).

Iones
Los iones son partículas con carga eléctrica. Es decir que el número de protones no es
igual al número de electrones. Esto puede deberse a una pérdida o ganancia de
electrones.
Si un átomo pierde electrones, se transforma en ión positivo llamado catión, y queda
con tantas cargas positivas como electrones haya perdido.
Si un átomo gana electrones, se transforma en ión negativo llamado anión, y queda con
tantas cargas negativas como electrones haya ganado.

Isótopos
Se llaman isótopos cada una de las variedades de un átomo de cierto elemento químico
que presentan el mismo número atómico pero difieren en la cantidad de neutrones por
ejemplo:
iso= igual
topo= lugar

Introducción a la radiactividad
El núcleo ocupa una porción muy pequeña del volumen total del átomo, la enorme
densidad del núcleo lleva a plantear la pregunta ¿cómo es posible que partículas de igual
carga se mantengan unidas de manera tan fuerte?. Se esperaría que, de acuerdo con la
Ley de Coulomb las cargas iguales (protón-protón) se repelan, sobre
todo si consideramos lo cercanas que deben estar en un núcleo
atómico.

Página
24
Sin embargo, además de la repulsión coulómbica existe otro tipo de fuerzas protón-
protón, protón-neutrón, neutrón-neutrón que es una atracción de corto alcance.

La estabilidad de cualquier núcleo puede determinarse sencillamente a partir de la


relación entre las fuerzas de repulsión coulómbicas y de atracción de corto
alcance. Si la repulsión es mayor que la atracción, el núcleo se desintegra y emite
partículas y/o radiación. Si las fuerzas de atracción predominan, el núcleo es estable.
La relación entre ambos tipos de partículas, o simplemente la cantidad, puede determinar
que un núcleo en particular sea “estable” o “inestable”. En el caso de las reacciones
nucleares, la inestabilidad se debe a la relación entre neutrones y protones existentes en
el núclido en cuestión. Es decir, la relación nº / p+
Observando la clasificación periódica, podemos ver que hasta el elemento Ca (Calcio), Z
= 20 y A = 40, no es de esperar actividad nuclear, debido a que nº / p+ = 1, es decir, que
el núcleo contiene aproximadamente la misma cantidad de protones y neutrones. 1= estable
A partir de este elemento la relación nº / p+ se aleja de lo ideal y esto provoca inestabilidad
en el núcleo, esto es, que emita partículas o radiaciones electromagnéticas de manera
espontánea, fenómeno denominado: “Radiactividad”.
La inestabilidad puede estar dada por:
 Un exceso de neutrones, donde la relación nº / p+  a la esperada.
 Un déficit de neutrones, donde la relación nº / p+  a la esperada.
 Un Z mayor de 82.
La utilización de las radiaciones nucleares en sus usos benéficos ha sido desarrollada en
forma intensiva en los últimos años. Muchas son las aplicaciones en medicina nuclear,
en diagnóstico y terapia como por ejemplo para el estudio de la glándula tiroides, cáncer,
problemas de médula ósea, etc.
Sin embargo, a pesar de su utilidad, existe el problema de los desechos y de las
radiaciones residuales que afectan seriamente a los organismos vivos y el medio
ambiente, y de los cuales el hombre no siempre ha tomado conciencia.
La radiactividad puede ser natural o artificial, en la primera un núcleo inestable emite
radiación de partículas y/o energía, mientras que la segunda requiere de la inestabilidad
de un núcleo estable mediante bombardeo de partículas.

Radiactividad saber si o si

Natural artificial

bombardeo de
alfa beta (+) beta (-) captura k gamma fusión y fisión
particulas

Página
25
La radiactividad puede ser: natural o artificial
A- Natural
DESINTEGRACIÓN ALFA
La radiación alfa está formada por núcleos de átomos de helio y, consecuentemente, el
elemento emisor disminuye su número másico en cuatro unidades y su número atómico
en dos.
A A-4 4
X Y + He
Z Z-2 2

DESINTEGRACION BETA NEGATIVA (n  p)


La desintegración beta negativa ( -) es una emisión de electrones de una velocidad
comparable con la de la luz; estos se forman a partir de la transformación espontánea
de un neutrón que origina un protón, un electrón y un antineutrino ().
A A
X Y +  - + 
no tan importante
Z Z+1

DESINTEGRACIÓN BETA POSITIVA (n  p)


La desintegración beta positiva ( +) implica la emisión de positrones (e +) los que son
considerados como una antipartícula del electrón dado que tiene su misma masa pero
carga de signo [Link] explicar su existencia se utiliza él concepto, ya explicado,
del neutrino dado que esta desintegración esta caracterizada por la conversión de un
protón en un neutrón y la emisión de un neutrino
A A
X Y +  + + 
Z Z-1

Esta desintegración ocasiona la peédida de un protón por lo cual el radionúclido


desciende una unidad en su número atómico pero no cambia su número de masa.
Tanto el concepto de neutrino, como el de antineutrino, fue desarrollado por Fermi para explicar los
espectros de energía provenientes de las desintegraciones beta; ambos son partículas sin masa y sin carga
que se mueven con la velocidad de la luz y, consecuentemente, tienen pobre o nula interacción con la
materia representando la falta o el exceso de energía en los espectros.

CAPTURA ELECTRÓNICA
La captura electrónica es un proceso de desintegración que sufre un núcleo cuando
captura un electrón de las órbitas próximas a él. En este caso la reacción se expresa así:
p + e- n + 

Página
26
Ocurre cuando un electrón se une a un protón originando un neutrón y la emisión de un
neutrino; así que las consecuencias son las mismas que en una emisión beta positiva
pero, en este caso, el lugar dejado por el electrón capturado es ocupado por otro
proveniente de una órbita superior produciéndose la emisión de energía característica.

EMISIÓN DE NEUTRONES
La emisión de neutrones ocurre en aquellos átomos que se convierten en isótopos dado
que su número atómico no cambia mientras que el másico desciende una unidad.
A A-1
X Y + n
Z Z

La cantidad de energía que se emite es pequeña y con escaso valor de penetrabilidad en


la materia.

DESINTEGRACIÓN GAMMA
La radiación gamma, tercera componente de la radiactividad natural, penetra en la
materia mucho más que la alfa y la beta siendo sus principales características la ausencia
de carga y masa. Se trata de una radiación electro-magnética cuyo origen es múltiple
dado que pueden formarse en varios de los procesos de desintegración ya vistos.

B- Artificial
BOMBARDEO DE PARTICULAS
Estas reacciones no son espontáneas, sino que al bombardear un núcleo (blanco) con
una partícula (proyectil) se logra inestabilizarlo y producto de ello se realiza la emisión.
Los proyectiles pueden ser: partículas positivas o neutrones. Generalmente los
bombardeos se representan de la siguiente manera:

A A
X (, p) Y
Z Z

Fusión nuclear: La fusión de determinados núcleos de elementos ligeros es uno de los


dos orígenes de energía nuclear.
En la fusión intervienen los isótopos de hidrógeno (deuterio, tritio). Cuando se fusionan
los núcleos de dichos isótopos se observa la aparición de energía que procede de la
perdida de de masa, de acuerdo con la relación de Einstein E=m.c2.
La fusión de los átomos ligeros presenta dificultades especiales tanto desde el punto de
vista teórico como del tecnológico. Esto ocurre por estar los núcleos cargados
positivamente.

Página
27
Fisión nuclear: La fisión es la división de un núcleo atómico pesado (Uranio, Plutonio,
etc.)en dos o más fragmentos causado por el bombardeo de neutrones, con liberación de
una enorme cantidad de energía y varios neutrones.
Los nucleos se denominan nucleos flexibles.
Para que se produzca la fisión hace falta que el neutrón incidente reúna unas condiciones
determinadas. Para actuar sobre el Uranio 235 y 233 y el Plutonio 239, el neutrón ha de
ser un neutrón térmico cuya energía es de la orden 1/40 eV, lo cual responde a una
velocidad de 2 Km/s. El Uranio 238es igualmente fisible pero con neutrones rápidos cuya
energía es 1MeV.

La primera aplicación de la fisión nuclear fue el desarrollo de la bomba atómica, donde el


factor crucial en el diseño de la bomba es la determinación de la masa crítica. Como se
sabe un mol de 235U o 235g de U libera 2x1013J de energía cuando se fisiona. De este
modo, la masa de isótopo presente en una bomba pequeña debe ser de por lo menos:

(235g . 8x1013J) / 2x1013J ≡ 1x103g = 1kg

Por razones obvias, una bomba atómica nunca se arma con la masa crítica ya instalada.
En su lugar, la masa crítica se construye usando un explosivo convencional para hacer
que las secciones fusionables se unan.

NOTACIÓN DE LAS REACCIONES NUCLEARES


nova
Notación química: se expresa de manera semejante a las reacciones químicas
14 + 4 He  17 + 1H
N O
Notación física: se coloca el núclido reactivo, luego entre paréntesis la partícula que bombardea
y la que se obtiene como producto, finalmente el núclido producto.
19
9
F , p 22
10
Ne

TIPOS DE NÚCLIDOS

Tipo A Z N Ubicación en tabla


Isótopos  =  Filas
Isóbaros =   Diagonales
Isótonos   = Columnas
Isómeros = = =

Los núclidos se encuentran ordenados en una tabla, denominada “Tabla o Carta de


Núclidos” donde se distingue:
 Los núclidos estables están pintados de negro.
 Los núclidos emisores  están pintados de amarillo.

Página
28
 Los núclidos emisores (-) están pintados de azul y están siempre debajo de los
estables.
 Los núclidos emisores (+) están pintados de rojo y están siempre por encima de
los estables.
 En cada casillero de los núclidos estables se indica la abundancia relativa del
mismo.
 En cada casillero de los núclidos inestables se indica el tiempo de vida media de
su transmutación.

Unidad N°4 - Temperatura y Calor

Hasta ahora hemos estudiado sistemas, donde considerábamos una composición


de pocas partículas discretas o bien de un sistema de partículas agrupadas en un sólido
rígido.
En esta oportunidad comenzaremos a estudiar sistemas con un elevadísimo
número de partículas, que poseen movimiento relativo entre ellas; estos sistemas nos
resultan muy familiares como el aire que respiramos, el agua que bebemos, los sólidos,
los fluidos y los seres vivos.
En un sistema de tal número de partículas, las magnitudes mecánicas, como la
velocidad, la cantidad de movimiento o la energía, no son iguales para todas las
partículas, sino que toman valores muy diferentes.
En el estudio de los sistemas físicos de un elevado número de partículas caben
dos aproximaciones claramente diferenciadas, por un lado deben estudiarse las
relaciones entre las magnitudes macroscópicas del sistema como son la presión, la
temperatura y otras. En contraste la otra aproximación es el enfoque microscópico, este
método parte del conocimiento del comportamiento individual de las partículas del
sistema.
Entenderemos como magnitudes microscópicas aquellas que caracterizan a las
moléculas como por ejemplo: la masa, la velocidad, la energía cinética o potencial, de
cada una de ellas o un promedio de estas magnitudes sobre un conjunto de moléculas
debido al movimiento y los choques de las moléculas. Por magnitudes macroscópicas
se entienden aquellas que caracterizan al sistema en su conjunto como, la presión, la
temperatura y el volumen.
Es preciso notar que estado de equilibrio se refiere a las magnitudes
macroscópicas del sistema considerado. El movimiento microscópico de sus
moléculas no se detiene pero es de tal naturaleza que no altera la constancia de
dichas magnitudes macroscópicas.

Página
29
Los seres humanos nos sentimos familiarizados con la noción de temperatura, que
solemos describir mediante los conceptos de frio y caliente, lo cual percibimos mediante
unas terminales neuronales denominadas termoreceptores, situados en la piel y en el
interior del cuerpo responden a estímulos térmicos y son los responsables de los
mecanismos de regulación de temperatura del cuerpo.
Los termoreceptores se dividen en dos grupos, los sensibles al frío y al calor
respectivamente. En el lenguaje cotidiano se toma de modo natural como referencia la
temperatura del cuerpo humano; una sustancia esta fría si su temperatura es inferior a la
del cuerpo y está caliente si es superior.
La sensación de frio y calor (en realidad caliente) procede de la percepción de
un intercambio de energía.
En esta sensación térmica intervienen distintos factores
además de la verdadera temperatura del cuerpo. Ellos son:
 Las sensaciones previas: si sumergimos la mano izquierda
en agua fría y la mano derecha en aguas calientes y luego
ambas en agua templada, la mano izquierda (que venía
fría) la sentirá caliente y la mano derecha (que venía del
agua caliente) la sentirá fría.

 La sensibilidad de la piel: no se siente lo mismo si sumergimos en agua caliente la


mano o el codo.

 El material del que está hecho un cuerpo: un piso de madera nos parecerá más
cálido que uno de mármol, aunque ambos estén a la misma temperatura.

Podemos decir entonces, que la sensación térmica es el grado de frío o


cálido que percibimos a través de nuestra piel, y depende de los factores antes
mencionados.
Si un cuerpo está a temperatura muy alta, sus moléculas tienen mucha energía, y
por lo tanto se mueven a mayor velocidad. Por el contrario,
si el cuerpo está a temperatura muy baja sus moléculas
tienen poca energía, y por lo tanto poco movimiento.
Podríamos definir entonces, la temperatura de un cuerpo
como la manifestación observable de los movimientos
que, a nivel microscópico, tienen las moléculas que lo
forman.
Las partículas de todas las sustancias experimentan
un movimiento continuo, que denominamos movimiento
térmico, la temperatura es una medida de dicho
movimiento.

Página
30
La temperatura es una magnitud macroscópica que se refiere a un
determinado comportamiento (estado) de un sistema formado por un gran número
de partículas, por ello decimos que la temperatura es una variable de estado.

Medición de la Temperatura
Ya vimos que las sensaciones que transmite nuestra piel no representan una
buena forma de medir la temperatura de un cuerpo. Las propiedades de los cuerpos que
cambian con la temperatura son útiles para la fabricación de termómetros y por
ello se denominan propiedades termométricas. Por ejemplo, el volumen,
conductividad eléctrica, intensidad luminosa.
Para una medición correcta se necesita un instrumento
llamado TERMÓMETRO.

Características de un
termómetro.

1. No cambiar la temperatura del Tubo


cuerpo con el que toma contacto, Capilar
sino que adquiere por equilibrio nova
térmico la temperatura del mismo.

2. Indica la temperatura del cuerpo


mediante el cambio notable de
alguna propiedad, por ejemplo:
Bulbo
color, tamaño, presión, etc.

Termómetro Líquido
Son los que usan como propiedad indicadora del
cambio de temperatura, el cambio de volumen de un líquido.
El líquido utilizado suele ser de mercurio o alcohol. El
termómetro consta de un depósito donde se ubica el líquido,
llamado Bulbo, y un tubo que del lado de afuera lleva una
escala y cuyo diámetro es similar al de un cabello (por eso
se llama Capilar) por donde el líquido asciende. Cuanto más
estrecho es el tubo, más claramente se detectan los cambios de volumen y más sensible
es el termómetro.

Página
31
ESCALAS TERMOMÉTRICAS

 Escala Cesius o centígrada


La escala más usada en la
mayoría de los países del mundo
es la Escala centígrada (°C),
también llamada Celsius desde
1948, en honor a Anders Celsius
(1701-1744). En esta escala, el
cero (0 °C) y los cien (100 °C)
grados corresponden
respectivamente a los puntos de
congelación y de ebullición del
agua, ambos a la presión de 1
atmósfera.

 Escala Fahrenheit
Fahrenheit (°F), propuesta por Daniel Gabriel Fahrenheit, es la unidad de
temperatura en el sistema anglosajón de unidades, utilizado principalmente en Estados
Unidos. En 1724 Fahrenheit finalizó su escala termométrica, que publicó en la revista
Philosophical Transactions (Londres, 33, 78, 1724).

 Escala Kelvin o absoluta


Kelvin (°K) o temperatura absoluta, unidad de temperatura del Sistema
Internacional de Unidades. Su cero es inalcanzable y equivale a -273,16°C.
Hasta ahora hemos podido comprobar que existe una estrecha relación entre el calor de
un cuerpo y su temperatura. ¿Será lo mismo calor y temperatura?

Consideremos algunos ejemplos para probar que no.

 El calor se mide en calorías, la temperatura en grados.

 El calor fluye de un cuerpo que está a mayor temperatura al cuerpo que está a
menor temperatura.

 Cuando calentamos un cuerpo puede suceder que su temperatura aumente (por


ejemplo, si caliento un líquido hasta llegar a la temperatura de ebullición) o que no
varíe (por ejemplo, si caliento agua que está en ebullición, su temperatura no varía,
se queda a 100ºC)

 La llama de un fósforo encendido está a una temperatura elevada, sin embargo


esta llama no puede suministrar el calor suficiente para fundir un cubito de hielo.

Página
32
Si en cambio colocamos un termo lleno con agua de la canilla y el cubito adentro,
éste se funde porque el agua, a pesar de su baja temperatura tiene el calor
suficiente para producir la fusión.

 Si calentamos dos recipientes iguales, uno con agua y el otro con aceite, con la
misma fuente de calor y durante el mismo tiempo, veremos que el agua alcanzará
una temperatura menor que el aceite, a
pesar de que las cantidades de calor
proporcionadas eran iguales.

CALOR
Un sistema también puede intercambiar
energía con otro sin ninguna variación del volumen.
La manifestación de transferencia de energía entre
dos cuerpos que se encuentran a diferente temperatura se denomina calor. Si no hay
causas que lo impidan, continúa hasta que se alcanza el equilibrio térmico, es decir, hasta
que las temperaturas de ambos sistemas es la misma.

En la vida diaria el concepto de calor se utiliza frecuentemente con imprecisión, se


habla de contenido calorífico cuando debería decirse contenido energético. A esta
confusión contribuye la frecuente utilización de unidades caloríficas como la caloría, en
lugar de las unidades habituales de energía.

Los procesos mediante los cuales se produce la transferencia de calor son tres:

 Conducción: transferencia de energía sin desplazamiento de materia desde


zonas de un cuerpo que se encuentra a mayor temperatura a las de menor
temperatura se denomina conducción.
Algunos materiales presentan la propiedad de ser mejores conductores del calor
que otros. Los malos conductores del calor se denominan aislantes (aunque cabe aclarar
que la aislación nunca es perfecta).

Los metales en general son mejores conductores del calor que otros materiales
como la madera, el vidrio, el corcho, el telgopor, etc.

Página
33
 Convección: transferencia de energía con desplazamiento
de materia, mediante corrientes convectivas, movimientos
ascendentes y descendentes de un fluido.
Este fenómeno se puede observar también en las capas de
aire que rodean la Tierra que provocan cambios climáticos
según sus características. Estas masas de aire pueden ser
más cálidas en ciertas zonas que en otras, más húmedas (por
contener mayor cantidad de vapor de agua), más secas, de mayor o menor
presión.

 Radiación: Esta transferencia de energía no se da


por intercambio de calor entre cuerpos que se encuentran a
distintas temperaturas, ni por trabajo. Involucran transferencias
de energía por medio de ondas electromagnéticas. Así por
ejemplo, entre dos antenas se transfiere energía por radiación.
En la radiación, los cuerpos emiten parte de su energía térmica
como ondas electromagnéticas. Esta emisión se hace normalmente en ondas infrarrojas,
invisibles; pero cuando la temperatura es alta, se llega a emitir también radiación visible.

La termografía es una técnica de diagnóstico en medicina que permite detectar


tumores próximos a la piel mediante la radiación que emite el cuerpo humano, la cual
provoca una pequeña diferencia de temperatura, de algunas décimas de grado, que
produce el tumor en la piel.

CALORIMETRIA:
Es la rama de la física que estudia la medición de las cantidades de energía
calórica transferida entre dos o más cuerpos. Por lo tanto la ecuación que permite calcular
intercambios de calor es: calor específico
calorimetria Q = c · m · ΔT variacion de temperatura experimental
Página
34
Donde Q es el calor intercambiado por un cuerpo de masa m, constituido por una
sustancia cuyo calor específico es c, siendo ΔT la variación de temperatura
experimentada. Por convención, se adopta el signo positivo para Q cuando la variación
de temperatura es mayor que cero, es decir cuando el cuerpo aumenta su temperatura.
En caso contrario, cuando la variación de temperatura es menor que cero, el cuerpo
disminuye su temperatura y el signo de Q será negativo.

CAPACIDAD CALORIFICA Y CALOR ESPECÍFICO aprender a relacionar las formulas


Se define la capacidad calorífica, propiedad extensiva, como la cantidad
de calor que hay que suministrar a un cuerpo para elevar su temperatura en una
unidad (kelvin o grado Celsius). Se la representa con la letra C (mayúscula). Para medir
la capacidad calorífica bajo unas determinadas condiciones es necesario comparar el
calor absorbido por una sustancia (o un sistema) con el incremento de temperatura
resultante.
∆𝑄
𝖢=
∆𝑡
Por ejemplo: si a un cuerpo A se le proporciona una cantidad de calor igual a 100
cal y su temperatura se eleva 20°C; pero si se suministra esa misma cantidad de calor a
otro cuerpo, B, y su temperatura aumenta en 10°C, la capacidad calorífica de cada cuerpo
se determina:
∆𝑄𝐵 100 𝑐𝑎𝑙
𝖢𝐴 =
∆𝑄𝐴
=
100 𝑐𝑎𝑙
=5
𝑐𝑎𝑙 𝖢 = = = 10 𝑐𝑎𝑙/°𝐶
∆𝑡 20°𝐶 °𝐶 𝐵 ∆𝑡 10°𝐶
Estos resultados indican que debemos proporcionar al cuerpo A 5 cal para que su
temperatura se eleve en 1 grado, mientras que para el cuerpo B se debe proporcionar 10
cal.
De forma análoga, el calor específico es una propiedad intensiva que se define
como la cantidad de calor que hay que suministrar a la unidad de masa de una
sustancia o sistema termodinámico para elevar su temperatura en una unidad
(kelvin o grado Celsius). En general, el valor del calor específico depende de dicha
temperatura inicial, se le representa con la letra c (minúscula).
Por lo tanto, el calor específico es el cociente entre la capacidad calorífica y la
masa, esto es
𝖢
𝑐= donde m es la masa de la sustancia.
𝑚
Para el ejemplo, si la sustancia A se trata de un bloque de plomo de 170 g de
masa, cuya capacidad calorífica es de 5 cal/°C, se puede determinar el calor específico
para dicha sustancia

Página
35
𝖢 5 𝑐𝑎𝑙/°𝐶 𝑐𝑎𝑙
𝑐= = = 0,030 °𝐶
𝑚 170 𝑔 𝑔

TABLA DE CALORES ESPECÍFICOS

nova

Cuando dos cuerpos de masas iguales reciben iguales cantidades de calor, el de


menor calor específico tiene un aumento de temperatura.

CALOR CORPORAL
Para mantener constante la temperatura, el cuerpo humano ha desarrollado una
serie de mecanismos fisiológicos con los que conserva, produce o elimina el calor
corporal.
La fuente principal de calor del ser humano es la producida por el metabolismo del
propio cuerpo (calor metabólico). Cuando se acelera el metabolismo, bien como
consecuencia del trabajo o como consecuencia de procesos internos (por ejemplo la
digestión), el calor aumentará. Otras fuentes de calor provienen del medio ambiente,
mediante convección o radiación, si la temperatura del aire y la temperatura de los objetos
que nos rodean, respectivamente, es más alta que la de la piel, también existirá un
aumento de calor o, lo que es lo mismo, una temperatura ambiente provoca perdida de
calor.

CONCEPTO DE TERMOTERAPIA
Dado que los conceptos de calor y frío no poseen significado físico, tomando como
referencia la temperatura del cuerpo humano en condiciones basales, la elevación de
temperatura se describe como calor o calentamiento y la disminución, como frío o
enfriamiento.
Página
36
Por termoterapia se entiende la aplicación del calor como agente terapéutico. El
término crioterapia se reserva para las aplicaciones del frío con finalidad terapéutica.
Según si el calentamiento se realiza superficialmente o en profundidad, se distinguen dos
tipos de termoterapia: superficial y profunda. Por último, la termoterapia puede ser por
conducción y convección térmica o por conversión de otras formas de energía en calor,
de acuerdo con el mecanismo físico predominante de producción o transmisión de calor
en los tejidos.

TERMOTERAPIA

SUPERFICIAL PROFUNDA

CONDUCCIÓN CONVECCIÓN CONVERSIÓN CONVERSIÓN

Los agentes y medios termoterápicos, según su profundidad de acción, se


clasifican en superficiales y profundos. Los superficiales sólo producen un calentamiento
de la superficie corporal, ya que su penetración es muy baja, por absorberse
cutáneamente casi en su totalidad. Por ejemplo, la radiación infrarroja procedente de
lámparas luminosas tiene una penetración entre 2 y l0 mm. Aunque se produzca paso de
calor a tejidos más profundos (por conducción o por la acción convectiva de la
circulación), sus acciones terapéuticas van a ser mediadas fundamentalmente por
mecanismos reflejos, más que por un calentamiento directo de la zona. Por el contrario,
los medios profundos producen efectos biológicos gracias al calentamiento directo de los
tejidos situados en mayor profundidad. Este grupo incluye: onda corta, microondas y
ultrasonidos.

Unidad N°5 - Principios Termodinámicos

Introducción

La Termodinámica es una subdisciplina de la fisicoquímica que estudia los fenómenos


físicos y químicos, mediante el cual se trata de determinar condiciones de equilibrio de

Página
37
los sistemas, así como estudiar las transformaciones de un tipo de energía en otro y
cuando estás son posibles. Es de nuestro interés el estudio de los cambios de calor en
los procesos químicos.

Puntos de vista (macroscópico y microscópico) del estudio termodinámico

Para definir la situación de un sistema y estudiar sus interacciones con el medio puede
adoptarse dos puntos de vista: macroscópico y microscópico.

Se adopta un punto de vista macroscópico cuando se describe el sistema mediante


magnitudes que indican propiedades del mismo que afectan a los sentidos del hombre y
cuya definición es independiente del conocimiento que se tenga sobre la composición
íntima de la materia. Por ejemplo, para una mezcla de gases encerrados en un cilindro
con un pistón, una descripción macroscópica consistirá en conocer: composición
(cantidades relativas), volumen, presión, temperatura.

Una descripción microscópica de un sistema en cambio implica admitir hipótesis


acerca de la estructura de la materia, este tipo de descripción solo puede manejarse con
los métodos de la mecánica estadística.

Para el ejemplo de la mezcla de gases, debemos partir del conocimiento que los gases
están formados por moléculas en movimiento, y que para una descripción microscópica
de la situación de la mezcla será necesario indicar para cada molécula la posición y la
velocidad; es decir se requieren seis parámetros por molécula y para todo el sistema de
N moléculas se necesitara de un gran número de parámetros (6N).

Conceptos fundamentales

Para entender con mayor precisión lo mencionado, es necesario brindar una


definición de términos empleados en dicho desarrollo, como son: sistema, límite,
ambiente, universo, estado, parámetro o variable, transformación, energía, trabajo,
etc.

Sistema: se denomina de esta manera a la parte del universo, real o imaginaria,


cuyas modificaciones e interacciones con el resto del mismo nos interesa estudiar. Un
sistema podrá ser un cierto número de cuerpos o también una cierta región del espacio.

Límite: se denomina así a la superficie de


separación entre el sistema y el medio ambiente,
pudiendo ser esta real o imaginaria. También suele
denominarse como interfase.

Entorno: se denomina entorno o simplemente


ambiente al resto del universo que no pertenece al
sistema.
Página
38
Universo: se denomina así al conjunto formado por el sistema y el medio ambiente
que lo rodea.

Estado: se denomina así a una situación o comportamiento particular de un


sistema. Pueden clasificarse en estados de equilibrio o fuera de equilibrio.

Los únicos estados que pueden ser definidos realmente y descriptos son los de los
sistemas que están en equilibrio.

Parámetro o variable de estado: un parámetro indica una característica del


sistema, pudiendo ser extensivo o intensivo. Las variables de estado permiten definir
un estado. Por ejemplo: temperatura, presión y volumen. Esta variables de estado
tienen un valor definido para cada estado y se caracterizan porque la variación en
ellas solo depende del estado. Dichas variables pueden ser extensivas o intensivas.

Ecuación de estado: un estado puede definirse mediante un cierto número de


parámetros elegidos de entre un número mayor, es decir que conocido un par de
parámetros (volumen, temperatura, presión) existirá una función que los vincula
f (V,T,P) = 0

Es decir que una ecuación de estado es una función que vincula los
parámetros que pueden utilizarse para definir un estado particular de un sistema.
Por lo tanto, expresa algo peculiar de un sistema particular y no puede establecerse sino
partiendo de la experiencia o mediante teorías sobre la constitución de la materia.

Transformación: se dice que un sistema ha experimentado una transformación


cuando partiendo de un estado evoluciona pasando por sucesivos estados y
alcanza finalmente un estado final.

Ciclo: Si un sistema experimenta una transformación de modo que coinciden el


estado inicial de partida y el estado final que alcanza se dice que ha descripto un
ciclo, denominada a veces transformación cerrada.

Energía: se define así a la capacidad de producir cambios en los sistemas.

Trabajo: se denomina trabajo a una interacción entre sistema y medio, tal que lo
que ocurre en el medio es equivalente al cambio realizado en el sistema.

Clasificación de sistemas

Los sistemas pueden clasificarse según su límite:

 Sistema cerrado: se define que un sistema es cerrado si durante el proceso en


estudio no entra ni sale masa del mismo, pero puede intercambiar calor con el
medio.

Página
39
 Sistema aislado o adiabático: se define como sistema aislado aquel que durante
el proceso no entra ni sale masa del mismo y no hay intercambio de calor con el
medio.

 Sistema abierto: se denomina sistema abierto aquel que durante el fenómeno en


estudio entra y sale masa del mismo, como así también intercambia calor.

Abierto cerrado aislado

Los sistemas abiertos pueden subdividirse en sistemas circulantes y sistemas


abiertos en régimen no permanente.

 Sistema abierto circulante: se denomina así cuando la cantidad de masa que


penetra al sistema es igual a la que sale del mismo durante el fenómeno en
estudio; es decir presenta un flujo de masa en régimen permanente.

 Sistema abierto en régimen no permanente: se denomina así cuando solo


entra masa a él y no sale, o sólo sale y no entra o la cantidad que sale no es
igual a la que entra o viceversa; es decir que la cantidad de masa que integra
el sistema varía durante el fenómeno en estudio.

Una segunda clasificación de los sistemas se realiza atendiendo a la composición


química de los mismos y desde este punto de vista se clasifican en sistemas de un
componente y sistemas de varios componentes.
 Sistema de un componente: es un sistema en que toda la masa que lo integra
pertenece a una única especie química.

 Sistema de varios componentes: es un sistema en que la masa que lo integra


pertenece a más de una especie química. Así mismo si se encuentra el sistema
en equilibrio puede presentarse dos casos diferentes: homogéneo y heterogéneo.

Página
40
Se puede decir que un sistema está en equilibrio cuando sus parámetros no se
modifican con el transcurso del tiempo. Este equilibrio termodinámico implica la
coexistencia de tres equilibrios particulares: mecánico, térmico y químico.

Equilibrio mecánico: se denomina así cuando la presión tiene el mismo valor en


todas las partes en el sistema o hay una variación continua de ella en el sistema y además
el valor de presión en el sistema coincide con la presión que el medio ejerce contra el
sistema.

Equilibrio térmico: se denomina así cuando el parámetro temperatura es único


en todo el sistema, y además esta temperatura coincide con la que reina en el
medio, salvo que ambos, sistema y medio estén separados por una pared adiabática.

Primer principio de la termodinámica


Para referirnos a las diversas formas de energía que poseen las moléculas y los
átomos (partículas) de un cuerpo, utilizábamos el concepto de energía interna, es decir
la energía total que existe en el interior del sistema.

Cuando un sistema pasa de estado inicial a otro final, generalmente intercambia


energía con su vecindad, ya sea absorbe o libera calor, y efectúa o recibe trabajo, por
consiguiente su energía sufre variaciones U = Uf – Ui

Según el principio de conservación de la energía, la energía que pierde o


gana un sistema tiene que ser igual a la energía que gana o pierde el entorno, o lo
que es lo mismo la energía del universo permanece constante

Cualquier sistema está constituido por un gran número de partículas que se mueven o
interactúan entre sí; el valor de energía interna de un sistema en un estado es muy difícil
de conocer, debido al elevado número de partículas y las interacciones entre ellas, en
cambio se puede conocer la variación de energía interna en un proceso.

Página
41
La variación de la energía interna U, durante un proceso termodinámico, es igual al
calor Q transferido al sistema desde el entorno menos el trabajo W realizado por el
sistema contra un agente externo. Es decir:

U = Q - W

Se puede interpretar que cada vez que el sistema realice trabajo, es decir entregue
energía al medio será

U1  U2

y en cambio en el caso que en la transformación el sistema reciba trabajo será


U1  U2

Esta es la ecuación correspondiente al primer principio de la termodinámica,


que en definitiva es una expresión del principio de conservación de la energía.

El valor de la variación de la energía interna en un proceso es independiente del


camino seguido, solo depende del estado inicial y final, por tanto, la variación de energía
interna es una función de estado

Cuando el sistema ceda calor a su vecindad se debe atribuir a Q signo negativo,


pues la liberación de calor contribuye a la disminución de la energía interna del sistema.

Nótese que un sistema no almacena calor, sino energía interna. Tampoco


almacena trabajo. La energía interna de un sistema puede cambiar mediante
transferencia de calor o mediante la realización de un trabajo. Es decir, que el calor y el
trabajo solo se distinguen por el tipo de interacción del sistema con su entorno durante el
proceso.

Página
42
En los organismos vivos, el primer principio se aplica con frecuencia a situaciones
en las que el aporte de energía al sistema también procede de la liberada por reacciones
químicas a partir de los alimentos ingeridos.

Teniendo en cuenta que la termogénesis es la capacidad del cuerpo de generar


calor en el organismo debido a las reacciones metabólicas, se define como valor calórico
fisiológico a la cantidad de calor que un gramo de alimento desprende cuando es
metabolizado en el organismo, para los glúcidos es de 4,2 kcal/g, para los lípidos es de
9,4 kcal/g y para los prótidos es de 4,4 kcal/g.

Veremos ahora cómo aplicamos la ecuación operativa del Primer Principio de la


Termodinámica y para ello, es conveniente identificar tipos de procesos termodinámicos.

De las cuales y por simplificar el análisis, dejaremos una constante. Tales variables
físicas se modificarán en los procesos termodinámicos, de acuerdo a la interacción que
ocurre entre el sistema y su entorno. Esto es, si hay intercambio de energía en forma de
calor o como trabajo o ambas.

1. Proceso Isotérmico: En este caso, dado que la temperatura es constante, si hay


intercambio de calor entre el sistema y el entorno, ocurre “muy lentamente“, tal que
se mantenga el equilibrio térmico entre sistema y entorno. Un proceso isotérmico
implica que no hay cambios en las energías cinéticas ni potenciales de interacción
de las moléculas, por lo tanto, el cambio de energía interna es nulo ( Δ U = 0 ) ,
por lo cual la energía que ingrese al sistema como calor ( Q + ) la invertirá
totalmente en realizar un trabajo sobre el entorno ( W + ).

Aplicando la ecuación del 1° principio:


ΔU=Q-W=0 ⇒ Q=W
Foco o baño térmico: en los razonamientos termodinámicos se utiliza con frecuencia el
concepto de foco térmico, entendiendo como tal un sistema que puede intercambiar calor
con otro, pero manteniendo una temperatura constante. Ello implica que la temperatura
del foco no cambia al recibir o transferir energía en forma de calor. En la práctica un
sistema desempeña el papel de foco térmico si es muy grande con respecto al que se
estudia, por ejemplo: en los procesos que se producen en el interior del cuerpo de un
mamífero, reacciones metabólicas, son procesos a temperatura constante, ya que el
cuerpo hace de foco térmico.

2. Proceso isobárico: Es un proceso termodinámico que ocurre a presión


constante. En este caso, para calcular el cambio de energía interna (Δ U) aplicamos
la expresión:

Δ U = Q - W = Q - (P . Δ V)

Página
43
Por ejemplo cuando hervimos agua a la presión atmosférica (constante) es un proceso
donde el sistema “consume” energía como calor de cambio de fase ( L f ) y el agua al
transformarse en vapor, aumenta su volumen, por lo cual hay un trabajo realizado de
expansión ( W + ), La energía interna del sistema se modifica, de modo que :

Δ U = Q - W = ( Lf . m ) - ( P . Δ V ) = ( Lf . m ) - P . ( Vf – Vi )

3. Proceso isocórico: hay transformaciones termodinámicas que pueden ocurrir


con intercambio de calor, pero sin cambios en el volumen del sistema. En ese caso,
el trabajo.

W es nulo, porque Δ V = 0. Por lo tanto, el cambio en la energía interna Δ U se calculará:

ΔU=Q-W=Q-(P.ΔV)
y como Vf = Vi ⇒ Δ V = 0 y W = P . Δ V = 0
Por lo tanto: Δ U = Q - 0 = Q

4. Proceso adiabático: Cuando un sistema está aislado del entorno, de modo que
no pueda haber transferencia de calor (Q ), el proceso termodinámico que ocurriera
"sin intercambio de calor" entre el sistema y el entorno, se denomina adiabático.

En realidad, es poco probable lograr un aislamiento perfecto entre el sistema y su entorno;


sin embargo, hay procesos naturales y experimentales, considerados de carácter
adiabático. Por ejemplo, en la atmósfera, las grandes masas de aire que forman “nubes”
de grandes proporciones, tienen un comportamiento adiabático durante su formación por
expansión, por cuanto no intercambian calor con el aire circundante.

Antes de analizar algunos ejemplos, veamos cómo se resuelve el cálculo del cambio de
energía interna (Δ U ) de un sistema en una transformación adiabática.
En un proceso adiabático, Q = 0 ⇒ Δ U = Q - W = 0 - W
Por lo tanto: Δ U = - W = - (P. Δ V)

En algunos casos, aunque no hay intercambio de energía puede verificarse cambios de


temperatura.

Consideremos los procesos cíclicos

Se denominan procesos cíclicos a aquellos que comienzan en un estado del sistema y


terminan en el mismo estado. En dicho proceso la energía interna del sistema es la
misma al principio y al final, por ser esta magnitud una función de estado y, por tanto,
su incremento es nulo.

Página
44
Uf = Ui ΔU = 0 entonces Q-W=0 Q=W

En los seres vivos se pude suponer, aunque muy complejo, que una persona al levantarse
de la cama por la mañana en dos días consecutivos está en el mismo estado
termodinámico, con los mismos valores de la magnitudes que describen su estado, es
decir, con el mismo peso, temperatura, reserva de grasas, composición de tejidos, etc.
En ese intervalo de tiempo la persona se ha alimentado, obteniendo energía del entorno,
y ha realizado una serie de funciones vitales que implican la realización de trabajo
mecánico e intercambio de calor con el entorno. De acuerdo con la hipótesis de que su
estado termodinámico es el mismo en ambas mañanas, puede asegurarse que su
energía interna es la misma en las dos situaciones. Es decir, que la energía adquirida
mediante los nutrientes entre esos dos momentos se han utilizado íntegramente en la
realización de trabajo mecánico y en calor transferido al entorno.

Las consideraciones expuestas en el ejemplo anterior dejan de ser considerables si el


ser vivo al que nos referimos se trata de un niño, ya que su energía interna irá
aumentando cada día como corresponde a su aumento de masa.

Para sistemas termoelásticos

Se define como sistema termoelástico a un sistema que puede variar su volumen por
variación de temperatura o de presión. Un ejemplo de sistema termoelástico cerrado es
el constituido por una cierta masa de una sustancia gaseosa.

Si el sistema en equilibrio se transforma, trabajo de expansión, partiendo del volumen V


que ocupaba, pasando a ocupar otro volumen mayor V + dV, habrá realizado trabajo;
qué no es otra cosa que la variación de volumen del sistema en el proceso elemental

 L = p dV

El valor del trabajo dependerá no sólo del estado inicial y final del sistema, sino también
de todos los estados intermedios por los cuales pasa.

Para tratar de simplificar el análisis se considera que el sistema es aislado, de manera


que no intercambia ni masa ni energía con el medio, es decir, que debería estar cerrado
y separado del medio por una pared rígida y adiabática y que no está vinculado con el
medio ni por un campo magnético ni eléctrico.

Página
45
Para dicho sistema “El trabajo que el sistema intercambia con el medio en una
transformación adiabática, depende del estado inicial del que parte y del estado
final al que llega; con independencia de los estados intermedios por los que pasa.”

Al realizar trabajo en forma adiabática, la energía en el sistema disminuye y al recibirlo


aumenta. De aquí que denominaremos a la función U como la energía interna del sistema.

En general podemos decir que U y p.V dependen del estado termodinámico del sistema,
y que la suma U + p.V para cada estado tendrá un valor, que sólo dependerá del estado.
En efecto la energía interna ya sabemos que es una función de estado, p y v son
parámetros del estado y por lo tanto su producto será otra función de estado y la suma
de dos funciones de estado es también una función de estado, que denominaremos
entalpía y designaremos con la letra H

H = U + p.V

Donde el producto p.V se lo denomina por muchos autores Trabajo de flujo

Germain Henry Hess (Ginebra, 1802-San Petesburgo, 1850) fue un fisicoquímico ruso de
origen suizo que sentó las bases de la termodinámica actual. Trabajó fundamentalmente
la química de gases, y enunció la ley que nos disponemos a comentar ahora:

Ley de Hess:
“En una reacción química expresada como la suma (o diferencia) algebraica
de otras reacciones químicas, puesto que es función de estado, la entalpía
de reacción global es también la suma (o diferencia) algebraica de las
entalpías de las otras reacciones.”

En otra palabras: “si una reacción química se produce en varias etapas, el cambio
entálpico total es igual a la suma de los cambios entálpicos parciales de las etapas
y es independiente de los procesos intermedios en que se han producido las
etapas”.
Teniendo esto en cuenta, la entalpía de la reacción que queremos será:
∆𝒓 𝑯° = ∆𝒓° − ∆𝒓 𝑯° + ∆𝒓 𝑯°
𝑨→𝑩 𝑨→𝑪 𝑫→𝑪 𝑫→𝑩

Ley de Lavoisier- Laplace


“En cada reacción química, el cambio entálpico en un sentido es igual en valor
absoluto pero de signo opuesto al del sentido inverso de tal reacción”. Por lo tanto,
si en un sentido es exotérmica, en el sentido opuesto es endotérmica.
La entalpía total de un sistema no puede ser medida directamente; la variación de
entalpía de un sistema sí puede ser medida en cambio.

Página
46
La variación de entalpía se define mediante la siguiente ecuación:

∆𝐻 = ∆𝐻𝑓𝑖𝑛𝑎𝑙 − ∆𝐻𝑖𝑛𝑖𝑐𝑖𝑎𝑙

La entalpia de los alimentos

Los alimentos que consumimos pueden dividirse en tres categorías: hidratos de carbono,
grasas y proteínas. La entalpia de combustión de la glucosa es de -2,8 MJ/mol, que
corresponde a una entalpia específica de -15,6 KJ/g. la oxidación completa de 1gramo
de glucosa proporciona 16KJ de energía, la entalpia específica media de todos los
carbohidratos digeribles, incluidos los almidones, es de unos 17KJ/g, equivalentes a
4kcal/g.

Las grasas son la segunda fuente importante de energía para los seres vivos, la entalpia
específica media de combustión de las grasas es de 39KJ/g, equivalente a 9,3 kcal/g,
muy superior a la de los carbohidratos, esta diferencia se debe a que los carbohidratos
ya están parcialmente oxidados, mientras que las grasas lo están muy poco.

Las proteínas son moléculas muy grandes que pueden alcanzar un peso molecular de
hasta 106 y están constituidas por unidades más pequeñas, denominadas aminoácidos.
También pueden oxidarse en el organismo, pero no completamente, ya que forma urea
que es expulsada al exterior. Esta oxidación parcial de proteínas tiene una entalpia
específica de unos 23KJ/g, algo mayor que los carbohidratos.

Entropía (Segunda Ley de la termodinámica)

En termodinámica, la entropía (simbolizada como S) es la magnitud física que mide la


parte de la energía que no puede utilizarse para producir trabajo. En un sentido más
amplio se interpreta como la medida de la uniformidad de la energía de un sistema.
Es una función de estado de carácter extensivo y su valor, en un sistema aislado, crece
en el transcurso de un proceso que se dé de forma natural. La palabra entropía procede
del griego (ἐντροπία) y significa evolución o transformación.
Cuando se plantea la pregunta: ¿por qué ocurren los sucesos de la manera que ocurren,
y no al revés? se busca una respuesta que indique cuál es el sentido de los sucesos en
la naturaleza. Por ejemplo, si se ponen en contacto dos trozos de metal con distinta
temperatura, se anticipa que eventualmente el trozo caliente se enfriará, y el trozo frío se
calentará, logrando al final una temperatura uniforme. Sin embargo, el proceso inverso,
un trozo calentándose y el otro enfriándose es muy improbable a pesar de conservar la
energía. El universo tiende a distribuir la energía uniformemente, es decir, maximizar la
entropía.

Página
47
La función termodinámica entropía, S, es central para la segunda Ley de la
Termodinámica. La entropía puede interpretarse como una medida de la distribución
aleatoria de un sistema. Se dice que un sistema altamente distribuido al azar tiene una
alta entropía. Puesto que un sistema en una condición improbable tendrá una tendencia
natural a reorganizarse a una condición más probable (similar a una distribución al azar),
esta reorganización resultará en un aumento de la entropía. La entropía alcanzará un
máximo cuando el sistema se acerque al equilibrio, alcanzándose la configuración de
mayor probabilidad.
La entropía coloquialmente puede considerarse como el orden de un sistema, es decir,
cuán homogéneo está el sistema.

Por ejemplo, si tenemos dos gases diferentes en un recipiente separados por una pared
(a igual presión y temperatura) tendremos un sistema de menor entropía que al retirar la
pared, donde los dos gases se mezclarán de forma uniforme, consiguiendo dentro del
recipiente una mayor homogeneidad que antes de retirar la pared y un aumento de la
entropía.

La variación de entropía nos muestra la variación del orden molecular ocurrido en una
reacción química. Si el incremento de entropía es positivo, los productos presentan un
mayor desorden molecular (mayor entropía) que los reactivos. En cambio, cuando el
incremento es negativo, los productos son más ordenados.

Interpretación estadística de la entropía


En los años 1890 - 1900 el físico austríaco Ludwig Boltzmann y otros, desarrollaron
las ideas de lo que hoy se conoce como mecánica estadística, teoría profundamente
influenciada por el concepto de entropía.
Según estas ideas, la entropía queda definida por la ecuación
𝑆 = 𝑘. ln 𝛺
Donde S es la entropía, k la constante de Boltzmann y Ω el número de microestados
posibles para el sistema (ln es la función logaritmo neperiano).
La célebre ecuación se encuentra grabada sobre la lápida de la tumba de Boltzmann en
el Zenmtralfriedhof de Viena, quien se suicidó en 1906, profundamente deprimido por la
poca aceptación de sus teorías en el mundo académico de la época.

La cantidad de entropía de un sistema es proporcional al logaritmo natural


de su número de microestados posibles.
Ahora bien, su significado final es aún materia de discusión en física teórica, dado el
profundo alcance que posee.

Página
48
Cero Absoluto
Sólo se pueden calcular variaciones de entropía. Para calcular la entropía de un sistema
es necesario fijar la entropía del mismo en un estado determinado.

La Tercera ley de la termodinámica fija un estado estándar: para sistemas


químicamente puros, sin defectos estructurales en la red cristalina, de densidad
finita, la entropía es nula en el cero absoluto (0 K).

Esta magnitud permite definir la Segunda ley de la termodinámica, de la cual se deduce


que un proceso tiende a darse de forma espontánea en un cierto sentido solamente. Por
ejemplo: un vaso de agua no empieza a hervir por un extremo y a congelarse por el otro
de forma espontánea, aun cuando siga cumpliéndose la condición de conservación de la
energía del sistema (Primera ley de la termodinámica).

Reversibilidad de los procesos termodinámicos

La entropía global del sistema es la entropía del sistema considerado más la entropía de
los alrededores. También se puede decir que la variación de entropía del universo, para
un proceso dado, es igual a su variación en el sistema más la de los alrededores:
∆𝑆𝑈𝑛𝑖𝑣𝑒𝑟𝑠𝑜 = ∆𝑆𝑆𝑖𝑠𝑡𝑒𝑚𝑎 + ∆𝑆𝐴𝑙𝑟𝑒𝑑𝑒𝑑𝑜𝑟𝑒𝑠

Si se trata de un proceso reversible, ΔS (universo) es cero pues el calor que el sistema


absorbe o desprende es igual al trabajo realizado. Pero esto es una situación ideal, ya
que para que esto ocurra los procesos han de ser extraordinariamente lentos y esta
circunstancia no se da en la naturaleza. Por ejemplo, en la expansión isotérmica (proceso
isotérmico) de un gas, considerando el proceso como reversible, todo el calor absorbido
del medio se transforma en trabajo y Q=W. Pero en la práctica real el trabajo es menor
ya que hay pérdidas por rozamientos, por lo tanto, los procesos son irreversibles.

Para llevar al sistema, de nuevo, a su estado original hay que aplicarle un trabajo mayor
que el producido por el gas, dando como resultado una transferencia de calor hacia el
entorno, con un aumento de la entropía global.

Como los procesos reales son siempre irreversibles, siempre aumentará la entropía. Así
como "la energía no puede crearse ni destruirse", la entropía puede crearse pero no
destruirse. Podemos decir entonces que "como el Universo es un sistema aislado, su
entropía crece constantemente con el tiempo". Esto marca un sentido a la evolución del
mundo físico, que llamamos "Principio de evolución".

Página
49
Cuando la entropía sea máxima en el universo, esto es, exista un equilibrio entre todas
las temperaturas y presiones, llegará la muerte térmica del Universo (enunciado por
Clausius). Toda la energía se encontrará en forma de calor y no podrán darse
transformaciones energéticas.

LEY CERO DE LA TERMODINAMICA

De manera que, mientras el calor es energía en tránsito, la temperatura es una


expresión de la energía cinética molecular media. Por lo tanto, cuando expresamos en el
lenguaje coloquial que “un cuerpo está más caliente que otro”, tendremos presente,
desde la definición de temperatura, que las moléculas del primero poseen un contenido
en energía cinética media mayor que el segundo. Por lo tanto, la expresión correcta en
lo que a temperatura se refiere, es que “un cuerpo está a mayor temperatura que otro”.

También podemos imaginar que si esos dos cuerpos se ponen en “contacto”


llegará un momento en que la temperatura entre ambos alcanzará el mismo valor, es
decir, alcanzarán el equilibrio térmico.

Experimentalmente, podemos comprobar esta situación si entre los cuerpos en


contacto se coloca un termómetro (tercer cuerpo) cuyo registro nos permitirá conocer la
temperatura de equilibrio de los tres.

Este ejemplo tan sencillo se puede generalizar en un enunciado que se denomina


Ley cero de la Termodinámica.

Si dos cuerpos separados entre sí están en equilibrio térmico con un tercer


cuerpo, entonces, los dos primeros estarán en equilibrio térmico entre sí.

Página
50
Es preciso hacer algunas aclaraciones de orden experimental a fin de comprender
la ley enunciada. Podríamos imaginar dos cuerpos o sistemas relacionados con un
tercero del modo siguiente:

Energía Libre. Procesos endergónicos y exergónicos.

En los sistemas biológicos, es de interés la energía interna que le es “útil” al sistema. Esta
magnitud se denomina energía libre de Gibbs (G) ( * ) y su medición tiene sentido como
función de estado, es decir, que interesa el cambio o variación de G (Δ G) y no su valor
absoluto.

( * ) En honor al químico norteamericano Josiah Willard Gibbs ( 1.839 – 1.903 )

La ecuación de Gibbs, nos permite integrar a la energía libre, las magnitudes


termodinámicas más importantes que hemos visto hasta aquí.

La ecuación de Gibbs expresa:

ΔG = Δ H - T . Δ S

Se puede enunciar:

La variación de energía útil de un sistema en una transformación es igual a la


variación en su contenido calórico o entálpico menos el producto de la temperatura
absoluta por el cambio de entropía..

Si un proceso termodinámico ocurre a temperatura y presión constantes, podemos


expresar la ecuación de Gibbs, del modo que sigue:

ΔG = Δ U + P . Δ V - T . Δ S

Esta última expresión es muy versátil para su aplicación en procesos que ocurren en
seres vivos y en experimentos de laboratorio.

Cuando la transformación de un sistema cursa a temperatura y presión constantes, si


ocurre :

Con ΔG < 0 ( negativa ), es un proceso espontáneo en la dirección de la


disminución de G.

Con ΔG > 0 ( positiva ), es un proceso que no puede ocurrir espontáneamente.

Con ΔG = 0 ( nula ), el sistema está en equilibrio.

Es importante re-significar el concepto del término “libre “, puesto que energía libre
significa energía “útil o disponible para realizar un trabajo”. Luego, si un proceso
Página
51
ocurre con gasto de energía libre (ΔG < 0 o negativo) esto garantiza que el proceso es
espontáneo a la temperatura dada.

Energía libre y procesos biológicos.

Los procesos biológicos ocurren sobre la base de reacciones químicas, a partir de las
cuales y por transformaciones de la energía en sus diferentes tipos, redundan en un
efecto que puede ser químico, mecánico y eléctrico.

La variación de la energía libre ( ΔG ) de las reacciones biológicas conocidas es afectada


por la temperatura, la presión y la concentración inicial de reactivo y productos.

Bioenergética.

La Bioenergética es una aplicación de la termodinámica que ha permitido comprender,


justificar y predecir procesos biológicos desde la perspectiva de la utilización de la
energía.

En los organismos vivos la energía libre es transferida permanentemente a través del


acoplamiento de procesos exergónicos y endergónicos. Esto justifica no sólo el principio
de conservación de la energía (Primer Principio) sino que los organismos vivos sostienen
su orden molecular a expensas del incremento del desorden en su entorno (Segundo
Principio) ya que en todo proceso con intercambio de energía útil o libre, también
intercambio con el entorno la forma menos útil de la energía que es el calor.

El entorno de los organismos vivos resulta esencial para su vida no sólo como fuente de
materia sino de energía.

Desde la perspectiva de la Termodinámica, podemos expresar que:

La célula es un sistema abierto que no está en equilibrio, sino que se encuentra en


estado estacionario, puesto que permanentemente extrae energía libre o útil del
entorno, al cual le origina un aumento de su entropía (desorden ). Se trata entonces,
de que la célula es un sistema muy eficaz en el uso de la energía y la materia.

El hombre concebido como un sistema termodinámico en interacción con su


entorno es un sistema abierto en estado estacionario que mantiene constante algunos
parámetros:

temperatura corporal
pH sanguíneo
concentración de iones extracelulares,
entre otros, por lo que puede caracterizarse:

Página
52
El hombre es un sistema abierto en estado estacionario, que mantiene constantes
sus propiedades, a pesar del intercambio de masa y energía con su entorno, el
medio ambiente

El cuerpo humano puede ser considerado como un sistema termodinámico abierto, que
debe mantener su temperatura constante de 35,8 a 37,2 ºC.

Por otra parte el cuerpo humano está continuamente intercambiando materia y energía
con sus alrededores (metabolismo), consumiendo
energía para desarrollar los trabajos internos y externos, y para fabricar moléculas
estables (anabolismo) para lo cual necesita alimentarse, ingiriendo moléculas de gran
energía libre (nutrición) que a partir de determinadas reacciones de combustión dan
lugar a productos de menor energía (catabolismo).
El cuerpo humano, tiene la peculiaridad de que su entropía es mínima, por eso es un
sistema termodinámico inestable lo que provoca su evolución permanente, o sea la vida
misma. Para que el organismo vivo pueda mantenerse en dicho estado es necesario
que elimine el exceso de entropía que se produce continuamente inherente a los
procesos vitales: circulación de la sangre, respiración etc.

Conceptos de temperatura central, superficial y corporal

 Temperatura central (Tc)

Página
53
Está constituido por los contenidos de la cabeza, cavidades torácicas y abdominales. La
temperatura central permanece relativamente constante y es mantenida constante
dentro de límites bastante estrechos.

 Temperatura Superficial (Ts)


Está constituida por la piel, el tejido subcutáneo y el grueso de la masa muscular, el
promedio de la temperatura de la piel, superficial, aumenta con el incremento de la
temperatura ambiental.

 Temperatura Corporal (Tco)


Es una sumatoria de la temperatura superficial y central (mencionadas anteriormente),
las cuales se multiplican por una constante (Tc y Ts respectivamente) que a su vez
dependen de la temperatura ambientes.

Tco= 0.65Tc + 0.35Ts

*Esto solo se aplica para un medio ambiente considerado como temperatura neutral
(28°C) y las contantes son 0.65 y 0.35.

 En un medio ambiente frío eñ valor de la constante seria 0.4 para la Ts y 0.6


para la Tc

Tco=0.6Tc + 0.4Ts

 En un medio ambiente de calor , los factores serian de 0.2 y 0.8 para las Ts y Tc

Tco= 0.8Tc + 0.2Ts

Balance térmico y cambios en el contenido de calor del organismo

Página
54
Página
55
Unidad N°6 - Hidrostática-Hidrodinámica-Gases
INTRODUCCIÓN

Si bien la materia se presenta en tres estados de agregación ampliamente difundidos, al


referirnos a fluidos hacemos mención a los estados de la materia que presentan
como característica fundamental la denominada fluidez.
Un fluido cambia de forma de manera continua cuando está sometido a un esfuerzo
cortante, por muy pequeño que sea éste, es decir, un fluido no es capaz de soportar
un esfuerzo cortante sin moverse durante ningún intervalo de tiempo. Por ejemplo,
Unos líquidos se moverán más lentamente que otros, pero ante un esfuerzo cortante se
moverán siempre. La medida de la facilidad con que se mueve vendrá dada por la
viscosidad que se trata más adelante, relacionada con la acción de fuerzas de
rozamiento.

Dentro de los fluidos, la principal diferencia entre líquidos y gases estriba en las distintas
compresibilidades de los mismos, ya que ambos presentan a nivel microscópico los
mismos grados de libertad (rotación, traslación y vibración):

Gases. Los gases presentan una gran compresibilidad, que influye sobre las
características del flujo, ya que tanto el volumen como la densidad varían con
facilidad. En el caso de los gases el movimiento térmico vence a las fuerzas
atractivas y, por tanto tienden a ocupar todo el volumen del recipiente que los
contiene.
Líquidos. En el caso de los líquidos, por el contrario, la compresibilidad es muy
débil. Ésto es debido a que las fuerzas atractivas entre las moléculas del líquido
vencen al movimiento térmico de las mismas, colapsando las moléculas y
formando el líquido. Al contrario que en el caso de los gases, que tendían a ocupar
todo el volumen que los contiene, los líquidos tienden a formar una superficie libre.
En consecuencia los líquidos tienen volumen definido tomando la forma del
recipiente que los contiene, pero no lo llenan necesariamente.

La rama de la Física que estudia los efectos de las fuerzas que actúan sobre los fluidos
se denomina Mecánica de Fluidos, tradicionalmente subdividida en dos partes estática y
dinámica.
Estática de los fluidos, estudia el equilibrio de los fluidos bajo la acción de fuerzas
estacionarias.
Dinámica de los fluidos, estudia el movimiento de los fluidos y las causas que la
producen, sostienen o se oponen a este movimiento.
Para facilitar el abordaje del tema comenzaremos describiendo los líquidos como
fluidos y posteriormente describiremos los gases con las correspondientes salvedades.

Página
56
Fluidos - Líquidos
Estática de los fluidos
El término, en sí mismo, es elocuente, al referirse a la materia de estudio,
expresando “ESTáTICA” como comportamiento de fluidos (líquidos) en reposo o
equilibrio.
Previo a cualquier desarrollo del tema es necesario recordar algunas propiedades
específicas del estado líquido que nos permitan lograr una comprensión más integradora
del tema a desarrollar.

Tensión superficial
En la superficie del líquido las moléculas presentan una interacción muy particular, ya
que las moléculas de la superficie interaccionan con sus vecinas y con las del seno
del líquido generando una tensión

característica, denominada tensión


superficial.

Capilaridad
La ascensión de un líquido en el interior de un tubo de sección circular
(capilar) se conoce por capilaridad y dichos tubos delgados se llaman
capilares.
Este fenómeno se produce por la concurrencia de las fuerzas adhesivas
y cohesivas. Así, el agua sube en un tubo de vidrio en tanto que mercurio baja, debido a
que el agua colocada en un capilar se adhiere a este, debido a que las fuerzas adhesivas
entre las moléculas de agua y las moléculas de las paredes del capilar son más grandes
que las fuerzas cohesivas entre las moléculas de agua.

El contacto de un líquido con las paredes del tubo de sección circular que lo contiene se
realiza formando un menisco o ángulo de contacto, θ. La cantidad real que sube (o que
baja) depende de la tensión superficial (puesto que es ésta la que mantiene unida a la
superficie del líquido), así como del ángulo de contacto θ, y el radio r del tubo

Página
57
Viscosidad
Viscosidad de un fluido es la resistencia de un fluido a una fuerza cortante o al
desplazamiento de una capa sobre otra de un fluido. Propiedad que se debe
fundamentalmente al tipo de interacción entre las moléculas del fluido.
Para poder definirla, debemos considerar el estudio de la ley de Newton de la viscosidad.
Consideremos dos placas paralelas muy grandes como se muestra en la figura, el
espacio entre las placas está lleno con un fluido. Las capas del fluido próximas al sólido
tienen velocidades más bajas que
la alejada debida a los procesos
disipativos, parte de la energía cinética
se transforma en calor.
La viscosidad presenta una
fuerte dependencia de la temperatura.

Líquidos con altas viscosidades no forman salpicaduras.


La viscosidad es característica de todos los fluidos, tanto líquidos como gases, si bien,
en este último caso su efecto suele ser despreciable, están más cerca de ser fluidos
ideales.

Los líquidos, a diferencia de los sólidos, no transmiten fuerzas, sino


presiones. Si pretendo aplicar una fuerza a un sólido, simplemente la aplico,
empujándolo o tirando de él o ejerciendo cualquier contacto mecánico con ese cuerpo,
ya sea en forma directa o indirecta, tal como ya hemos visto en estática y en dinámica.
En cambio, si tengo líquido en un recipiente (agua en un vaso), y deseo
comunicarle alguna fuerza al agua, en forma directa, simplemente me mojo el dedo, sin
conseguir otra cosa que eso o tal vez provocar algunas salpicaduras.

Página
58
En la figura N°1 vemos la acción de una fuerza sobre un bloque sólido y a su
derecha, un dedo mojándose y salpicando agua al pretender hacer lo mismo con un
líquido.

En virtud de ello, advertimos que para poder comunicar alguna acción a un líquido,
éste deberá estar encerrado en un recipiente cilíndrico, similar a una jeringa, en el cual
podamos desplazar una de las superficies que hacen de tapa. Esto se denomina émbolo
o pistón (similar como el del motor de un auto). Figura N°2

La presión es, por lo visto, el cociente entre la fuerza ejercida sobre el émbolo
(normalmente o perpendicularmente) y la superficie de dicho émbolo.
La presión es una magnitud escalar, ya que como veremos más adelante (Principio
de Pascal), cuando se ejerce presión, ella se detecta en todas las direcciones.

Unidades de presión:
En este curso, hemos empleado para todas las magnitudes, las unidades del
sistema M.K.S. En el caso de la presión, la unidad que resulta es:
[𝑭] 𝑵𝒆𝒘𝒕𝒐𝒏
[𝑷] = = = 𝑷𝒂𝒔𝒄𝒂𝒍 (𝑷 )
[𝑺] 𝒎𝟐 𝒂

El Pascal, es la presión que se ejerce cuando sobre una superficie de 1 m 2 actúa


una fuerza de 1 Newton. Es evidente, que dicha unidad es a los fines prácticos, muy poco
útil, salvo que se empleen sus múltiplos.
Por ejemplo para expresar la presión atmosférica normal, el informe meteorológico
indica 1013 HectoPascales (1013 HPa = 101300 Pascales). Es por ello, y sin pretender
apartarnos aquí del S.I.M.E.L.A. (Sistema Métrico Legal Argentino), que mencionamos
las unidades de presión más frecuentes de encontrar en talleres, estaciones de servicio
y en instrumentos que permiten medir presiones en diversos casos:

a) Kgf/cm2 ;
b) Libra/plg2 (PSI) (POUNDS SQUARE INCHES) (Presión de neumáticos);
c) mm de Hg (presión sanguínea); Bar (1 Bar = 106 barias) (1 baria =1dina/cm2 );
d)Atmósferas (1 atm = presión atmosférica normal).
Página
59
RELACION ENTRE UNIDADES DE PRESIÓN
1 mmHg = 133 N/m2
1 atm. = 1,01 x 105 N/m2 1 atm= 1,01 x 10elevado5 pascal
1 atm. = 1 kgf/cm2
1 kgf/cm2 = 14.2 lb/plg2

Presión hidrostática
Se llama presión hidrostática a la presión que ejercen los líquidos cuando
están en reposo, es la que se manifiesta en el interior de toda masa
líquida, provocada por el peso de la columna de líquido que debe
soportar un cuerpo sumergido.

Si no hay gravedad la presión es la misma en todo el fluido que se encuentre en


el recipiente; en cambio, si hay gravedad, el valor de presión en cada región del fluido
depende de su peso específico, de la profundidad, y además de las presiones adicionales
que pudieran ser aplicadas al fluido, tales como la atmosférica o la de un pistón sometido
a fuerza.

Para calcular la presión hidrostática a una profundidad hA , efectuamos el cociente


entre su peso y la superficie de su base, luego como el peso específico ρ= P/V, entonces
se puede despejar P = ρ. V, mientras que V = S.h
esa P se llama Roh
y significa la densidad del líquido
𝑷 𝝆𝒍. 𝑽 𝝆𝒍. 𝑺. 𝒉𝑨
𝑷𝒉(𝑨) = = = = 𝝆𝒍. 𝒉𝑨
𝑺 𝑺 𝑺
Es de uso habitual en química y física el considerar al peso específico como
propiedad de los sólidos y la densidad o masa especifica como propiedad de los líquidos.
Si bien su significado es diferente se trabajan con las mismas unidades.

Página
60
Por lo que hemos desarrollado anteriormente, concluimos que: “La presión
hidrostática en el interior de una masa líquida a una profundidad hA es igual a la
densidad del líquido multiplicado por dicha profundidad”.

𝑷 𝝆𝒍. 𝑽 𝝆𝒍. 𝑺. 𝒉𝑨 𝑷 𝝆𝒍. 𝑽 𝝆𝒍. 𝑺. 𝒉𝑨


𝑷𝒉(𝑨) = = = = 𝝆𝒍. 𝒉𝑨𝑷𝒉(𝑨) = = = = 𝝆𝒍. 𝒉𝑨
𝑺 𝑺 𝑺 𝑺 𝑺 𝑺
La densidad o masa especifica se representa con la letra griega ρ (rho)

Diferencia de presión entre dos puntos


Aplicando el resultado obtenido antes, podemos enunciar que: “La diferencia de
presión entre dos puntos de una masa líquida es igual a la densidad del líquido
multiplicado por la diferencia entre las profundidades de dichos puntos”.
Expresado matemáticamente

∆𝑷𝑨𝑩 = 𝑷𝑨 − 𝑷𝑩 = 𝝆𝒍. (𝒉𝑨 − 𝒉𝑩)

El enunciado anterior se conoce como Teorema Fundamental de la


Hidrostática.

Principio de Pascal:
Este principio, expresa que “Toda presión ejercida sobre la superficie de un
líquido contenido en un recipiente, se transmite con igual intensidad a todos los
puntos de dicho recipiente”.
La figura siguiente, muestra la verificación experimental de este principio:

APLICACIONES DEL PRINCIPIO DE PASCAL: Prensa Hidráulica


La prensa hidráulica, es un dispositivo que permite, mediante el concurso de
la presión, multiplicar la fuerza que se requiere en diversas operaciones
industriales y técnicas. Las vemos instaladas en las estaciones de servicios, para
elevar los autos a los fines del lavado de chasis y el engrase.
Página
61
Las prensas hidráulicas, forman parte de los dispositivos extrusores que se
emplean en la fabricación de caños de plomo, perfiles de aluminio (para ventanas, etc.),
son los comandos oleodinámicos instalados en máquinas topadoras, camiones
volqueteros, palas mecánicas y los encargados de mover los alerones en los aviones de
gran porte.

Ejemplo:
En el laboratorio de Física, se construye una pequeña prensa hidráulica,
empleando una jeringa de 1 ml de capacidad y otra de 20 ml, que miden 10 cm de largo
y se conectan entre sí por medio de una manguerita.

Calcular la relación de fuerzas que transmite dicha prensa.

a) Cálculo de la superficie del émbolo:

𝑉1 1 𝑐𝑚3
𝑆1 = = = 0,1 𝑐𝑚2
𝑙 10 𝑐𝑚

𝑉2 20𝑐𝑚3
𝑆2 = = = 2 𝑐𝑚2
𝑙 10𝑐𝑚
b) Cálculo de la relación de fuerzas

𝐹2 𝑆2 2 𝑐𝑚2
= = = 20
𝐹1 𝑆1 0,1 𝑐𝑚2

La prensa transmitirá una fuerza 20 veces mayor que la que se aplica en el émbolo
pequeño.

Vasos Comunicantes
Se denomina así, a los conocidos tubos en “U”, situación que se presenta similar, cuando
dos recipientes que contienen líquido, se comunican por su parte inferior.
Página
62
Cuando los dos recipientes comunicados, tienen una sola clase de líquido, en
ambas ramas se alcanza la misma altura, independientemente de la forma de cada
recipiente, dado que la presión hidrostática en cualquier punto del fondo debe dar
el mismo resultado, cualquiera sea la rama por la que se calcule.

La paradoja hidrostática de la fig. sig. ilustra esta situación: …cualquiera podría suponer
que la presión en el tubo cónico debería ser mayor en la parte inferior de dicho tubo, pero
esto no sucede…

Una aplicación por demás interesante de los vasos comunicantes lo constituyen los tubos
en “U”, ya que los mismos pueden ser utilizados para determinar la densidad de líquidos
inmiscibles entre sí, como muestra la figura.

La diferente altura que los mismos alcanzan en cada rama del tubo por
encima del nivel de la interfase, está en relación inversamente proporcional a sus
densidades.
Estas alturas, las podemos relacionar entre sí, igualando la presión hidrostática (mediante
el principio de Pascal) en la interfase:
𝝆𝒓. 𝒉𝒓 = 𝝆𝒂. 𝒉𝒂

O bien como la relación de alturas:


𝒉𝒂 𝝆𝒓
=
𝒉𝒓 𝝆𝒂

Algunas aplicaciones de los tubos en “U”

En ambos ejemplos se puede conocer el nivel de líquido en el interior


con solo observar un tubo externo transparente conectado al cuerpo del recipiente.

Principio de Arquímedes
Este principio explica lo que le ocurre a un cuerpo que se ha sumergido total o
parcialmente en un líquido, y permite conocer a través de las propiedades del cuerpo y
del líquido, si habrá flotación o el cuerpo se hundirá, aún sin efectuar la operación
experimental.
La expresión de dicho principio, es la que sigue:

“Todo cuerpo sumergido en un líquido, recibe un empuje en dirección vertical y


con sentido hacia arriba, igual al peso del volumen del líquido desalojado por el
cuerpo”.

Es de esperar que el peso del cuerpo se haya


modificado al encontrarse sumergido en el líquido, lo que se
denomina peso aparente al peso del cuerpo en un líquido.
Pesoap = Peso - Empuje
Página
63
CALCULO DEL EMPUJE:
Hay dos maneras de expresar el empuje (E), según los datos que se suministren:
a) En función del peso del cuerpo en el aire (PC) y de lo que aparenta pesar al
sumergirlo (PA); y
b) En función de la densidad del líquido ρL y del volumen del cuerpo (VC).

a) E = PC – PA
b) E = ρL . VC

Se presentan tres situaciones, según los valores relativos de peso y empuje


referidos a un cuerpo que se sumerge en un líquido:

1) E < PC El cuerpo se hunde.


2) E = PC El cuerpo permanece en equilibrio en el seno del líquido.
3) E > PC El cuerpo emerge parcialmente hasta que se equilibra: E = PC

En el caso en que el cuerpo sea macizo, podemos establecer para cada una de las
situaciones antes enunciadas, las siguientes relaciones:
1) ρL < ρC (densidad del líquido menor que el del cuerpo).
2) ρL = ρC (densidad del líquido igual que el del cuerpo).
3) ρL > ρC (densidad del líquido mayor que el del cuerpo).

La presión ejercida por un fluido puede medirse usando técnicas ya sean estáticas
o dinámicas. Los métodos dinámicos se basan en la velocidad de flujo de un fluido en
movimiento, mientras que los métodos estáticos se basan en la presión atmosférica como
nivel de referencia y miden la diferencia entre la presión real y la presión atmosférica,
llamada presión manométrica. La presión real en un punto del fluido se llama presión
absoluta, que es entonces la presión atmosférica más la presión manométrica.
𝑷 = 𝑷𝒂𝒕𝒎 + 𝝆𝑳. 𝒈. 𝒉
Un manómetro de tubo abierto mide la presión, consta de un tubo en forma de U
lleno de líquido, el tubo está abierto por un extremo a la atmosfera y conectado en el otro
extremo al tanque cuya presión deseamos medir.

𝒑 − 𝒑𝟎 = 𝝆𝒈𝒉
Entonces, la presión manométrica, 𝒑 − 𝒑𝟎, es proporcional a la diferencia de altura
en las columnas del líquido del tubo en U.

Página
64
Cuando se desea trasvasar un líquido de un recipiente a otro se puede utilizar un
tubo (manguera) en forma de U invertido con el único auxilio de la diferencia de sus
niveles, este dispositivo comúnmente se denomina sifón.

Clasificación de fluidos según la viscosidad (Newtonianos y No Newtonianos)

Un fluido newtoniano es un fluido cuya viscosidad puede considerarse constante


en el tiempo. Los fluidos newtonianos son uno de los fluidos más sencillos de describir.
A medida que aumenta la temperatura de un fluido líquido, disminuye su viscosidad. Esto
quiere decir que la viscosidad es inversamente proporcional al aumento de la
temperatura.
La curva que muestra la relación entre el esfuerzo o cizalla (tensión cortante)
contra su velocidad de deformación es lineal, el mejor ejemplo de este tipo de fluidos es
el agua. Un buen número de fluidos comunes se comportan como fluidos newtonianos
bajo condiciones normales de presión y temperatura: el aire, la gasolina, el vino y algunos
aceites minerales.

Página
65
Un fluido no newtoniano es aquel fluido cuya viscosidad varía con la temperatura
y la tensión cortante que se le aplica. Como resultado, un fluido no newtoniano no tiene
un valor de viscosidad definido y constante, a diferencia de un fluido newtoniano. Por
ejemplo: pegamento, la miel o los geles y sangre que son ejemplos de fluido no
newtoniano.
Aunque el concepto de viscosidad se usa habitualmente para caracterizar un
material, puede resultar inadecuado para describir el comportamiento mecánico de
algunas sustancias, en concreto, los fluidos no newtonianos. Estos fluidos se pueden
caracterizar mejor mediante otras propiedades reológicas, propiedades que tienen que
ver con la relación entre el esfuerzo y los tensores de tensiones bajo diferentes
condiciones de flujo, tales como condiciones de esfuerzo cortante oscilatorio.
Un ejemplo barato y no tóxico de fluido no newtoniano puede hacerse fácilmente
añadiendo almidón de maíz en una taza de agua. Se añade el almidón en pequeñas
proporciones y se revuelve lentamente. Cuando la suspensión se acerca a la
concentración crítica es cuando las propiedades de este fluido no newtoniano se hacen
evidentes. La aplicación de una fuerza con la cucharilla hace que el fluido se comporte
de forma más parecida a un sólido que a un líquido. Si se deja en reposo recupera su
comportamiento como líquido. En realidad, es posible revolver lentamente, pero en
cuanto aumentamos la velocidad de agitación, la resistencia al movimiento crece
notablemente. Con un movimiento lento no será dificultoso hundir la cucharita hasta el
fondo, pero si intentamos un movimiento brusco, se encontrará nuevamente una gran
resistencia.
Se investiga con este tipo de fluidos para la fabricación de chalecos antibalas,
debido a su capacidad para absorber la energía del impacto de un proyectil a alta
velocidad, pero permaneciendo flexibles si el impacto se produce a baja velocidad.

Dinámica de Fluidos
En este apartado nos dedicaremos al estudio del fluido en movimiento,
denominado flujo de un fluido.
La Cinemática de Fluidos tiene una correspondencia biunívoca con el Primer
Principio de la Termodinámica aplicado a sistemas abiertos. En un fluido en
movimiento, cada partícula posee una velocidad V que depende de la posición
(x,y,z) de dicha partícula y del tiempo t.
El flujo de un fluido puede ser extremadamente complejo, como se puede ver en
la corriente de un rio “crecido”, a pesar de esto algunas situaciones se pueden
representar por modelos idealizados relativamente simples.
Un fluido ideal es un fluido cuyo flujo es incompresible y no tiene fricción
interna o viscosidad. La suposición de incompresibilidad usualmente es una buena
aproximación para líquidos y escasa para gases.
Cuando se desprecia la viscosidad, no se toman en cuenta los esfuerzos cortantes
producidos por fuerzas de fricción internas, de capas adyacentes del fluido que se
mueven una relativa a la otra.

Línea de flujo y tubo de corriente


La trayectoria de una partícula en un fluido en movimiento se conoce como línea
de flujo

Página
66
Las líneas de flujo que pasan de un extremo a otro del borde de un elemento de
área imaginario A formaran un tubo llamado tubo de flujo.

Si dichas líneas de flujo son siempre equidistantes, se dice que el flujo es


incompresible

Si toda la configuración (velocidad en cada punto) del flujo no cambia con el tiempo
se le conoce como flujo estacionario; en un flujo estacionario cualquier elemento que
pasa a través de un punto dado seguirá la misma línea de flujo; por el contrario en
aquellos fluidos en los cuales la velocidad de rotación es nula, es decir, no existen
turbulencias (remolinos) se denomina flujo irrotacional.
Cuando las capas adyacentes de un fluido resbalan suavemente sin producir
esfuerzos cortantes, se dice que el flujo es laminar, de lo contrario si los cambios en el
fluido son suficientemente grandes o las superficies de fronteras producen cambios en la
velocidad, el flujo se hace irregular y caótico, este es llamado flujo turbulento.

Caudal a través de una superficie elemental


En general, el caudal Q de una corriente para una sección determinada, es el
volumen de fluido que la atraviesa en la unidad de tiempo, m 3 /seg.

Ecuación de continuidad
En base a las precisiones brindadas hasta ahora, consideremos que el flujo de un
río con anchura constante es el mismo a lo largo de cierta longitud, entonces el agua
deberá correr más rápido en la superficie del río que en las partes más profundas. Para
comprender este razonamiento es necesario suponer lo siguiente:

Página
67
Consideremos un tubo de flujo entre dos secciones transversales con áreas A1 y
A2, la velocidad del fluido en dichas secciones son Ʋ1 y Ʋ2 respectivamente. En el
intervalo de tiempo Δt un elemento de fluido recorre aproximadamente la distancia Ʋ.Δt.
Entonces el fluido que cruce A1 en el intervalo de tiempo Δt tiene un volumen de A1.Ʋ1.
Δt, aproximadamente.

Si su densidad en esa ubicación es ρ1, entonces la masa de fluido Δm1 que cruza
por A1 es

Δm1 = ρ1. A1.Ʋ1. Δt

De esta manera se puede definir flujo de masa, como la masa de fluido por unidad
de tiempo que pasa por cualquier sección transversal, aproximadamente, es

Δm1 /Δt = ρ1. A1.Ʋ1

La expresión determinada es aplicable a cualquier sección transversal de un tubo


de flujo, y es constante, dicha expresión recibe el nombre de ecuación de continuidad

ρ1. A1.Ʋ1 = constante

Es decir que si no existen fuentes (lugares por donde se introduzca materia nueva)
ni sumideros (lugares por donde la materia que fluye pueda escapar), entonces la masa
contenida en cualquier volumen debe permanecer constante.
La tasa de flujo (A1. Ʋ1), establece que la rapidez de un fluido es mayor cuando
se reduce el área transversal del tubo por que fluye.

Principio de Bernoulli
El principio de Bernoulli, también denominado ecuación de Bernoulli o
Trinomio de Bernoulli, describe el comportamiento de un fluido moviéndose a lo largo
de una línea de corriente, es decir, describe la dinámica de un fluido en una conducción
al relacionarla con la presión y con la velocidad. Por ello utiliza el principio de
conservación de la energía mecánica, afirmando que el trabajo mecánico que se realiza
desde el exterior sobre el fluido es igual al incremento de su energía mecánica.
Página
68
Recordar que la EM = EC + EP, es decir, EM = ½ m . v2 + m . g . h
El principio expresa que en un fluido ideal (sin viscosidad ni rozamiento) en
régimen de circulación por un conducto cerrado, la energía que posee el fluido
permanece constante a lo largo de su recorrido. La energía de un fluido en cualquier
momento consta de tres componentes:
1. Cinético: es la energía debida a la velocidad que posea el fluido.
2. Potencial gravitacional: es la energía debido a la altitud que un fluido posea.
3. Energía de flujo: es la energía que un fluido contiene debido a la presión que
posee.

La siguiente ecuación conocida como "Ecuación de Bernoulli" (Trinomio de


Bernoulli) consta de estos mismos términos.
𝒗𝟐𝝆
+ 𝑷 + 𝝆𝒈𝒉 = 𝒄𝒐𝒏𝒔𝒕𝒂𝒏𝒕𝒆
𝟐
Donde:
 v = velocidad del fluido en la sección considerada.
 g = aceleración gravitatoria
 h = altura en la dirección de la gravedad desde una cota de referencia.
 P = presión a lo largo de la línea de corriente.
 ρ = densidad del fluido.
El primer término de la ecuación se denomina presión dinámica y la
combinación del segundo y tercer término se denomina presión estática.
𝑷𝟎 = 𝑷𝑫 + 𝑷𝑺
La presión dinámica depende de la velocidad y la densidad del fluido.

La ecuación de Bernoulli está enunciada para dos secciones cualesquiera de la


vena fluida y expresa la igualdad de las alturas totales h en estas secciones; puesto que
estas secciones se han tomado libremente, para cualquier otra sección de la vena líquida,
la altura total tendrá el mismo valor. De este modo, para el fluido ideal en movimiento,
la suma de las tres alturas citadas, de posición, de presión y dinámica, es una
magnitud constante a lo largo de la citada vena fluida.
El sentido energético de la ecuación de Bernoulli para una vena líquida
elemental de fluido ideal consiste en que la energía específica total del fluido se
mantiene constante a lo largo de la vena líquida.

Página
69
La ecuación de Bernoulli expresa, por consiguiente, la ley de conservación de
la energía mecánica para un fluido ideal en movimiento, la cual puede presentarse
en tres formas, la de posición, la de presión y la cinética.
Durante el movimiento de un fluido ideal, una forma de energía puede
transformarse en otra, pero la energía específica total, queda siempre invariable.

Dinámica de fluidos reales

Los fluidos reales se distinguen de los ideales en que poseen una cierta viscosidad,
es decir, un rozamiento interior que origina tensiones tangenciales entre los filetes fluidos.
Los movimientos de circulación de los fluidos se pueden dividir en dos tipos:
a) Movimientos laminares, o de Poiseuille, que son flujos regulares en los que la masa
fluida está formada por filetes yuxtapuestos, perfectamente individualizados, en los que
las superficies libres son lisas y unidas; en realidad sólo se dan en algunos casos muy
particulares o en fluidos muy viscosos; el número de Reynolds en flujos por el interior de
tubos es inferior a 2.000.
b) Movimientos turbulentos, o hidráulicos, en los que los filetes líquidos se
entrecruzan no conservan su individualidad; las superficies libres son turbulentas y
estriadas, y son los movimientos que con más frecuencia se presentan en la práctica.

Para un fluido se puede predecir si el flujo es laminar o turbulento ya que depende


de la velocidad, la viscosidad y la densidad de dicho fluido. El científico Osborne Reynolds
expreso mediante una ecuación la relación entre variables que permite descubrir una
magnitud sin dimensión, denominada número de Reynolds
𝝆𝒗𝑹
𝑵𝑹 =
ɳ
Si en cada punto de una masa fluida en movimiento turbulento se miden las
velocidades instantáneas, se observa que estas varían en magnitud y dirección sin
ninguna regularidad, con una frecuencia a veces muy grande, pero no se apartan jamás
de un valor medio, alrededor del cual oscilaran más o menos rápidamente; otro tanto
sucede con las presiones. Los valores medios, de velocidades y presiones, definen un
régimen ficticio que se conoce como movimiento medio, o régimen de Bazin, siendo sus
características las que normalmente aparecen en las formulas prácticas de Hidráulica.

a) Flujo laminar b) Flujo turbulento c) Flujo ideal

Mediante este modelo, el movimiento de un fluido en cualquier tipo de régimen,


laminar o turbulento, puede asimilarse al de un fluido perfecto, salvo en las zonas
próximas a las paredes, en que la existencia de elevados gradientes de velocidad.

Página
70
La sangre como fluido

El flujo sanguíneo (caudal) es la cantidad de sangre que atraviesa la sección de


un punto dado de la circulación en un período determinado. Normalmente se expresa en
mililitros por minuto o litros por minuto, se abrevia Q.
El análisis de los factores que determinan el flujo sanguíneo es relativamente
complejo ya que es un flujo pulsátil (con variaciones periódicas), que discurre por un
circuito cerrado de tubos distensibles con múltiples ramificaciones y de calibre variable.
Además el fluido circulante, la sangre, es un fluido pseudoplástico con propiedades no
lineales y compuesto de líquido (plasma) y elementos formes (hematíes, leucocitos,
plaquetas y otros). Esto explica que se recurra a modelos y simplificaciones que no
siempre se pueden aplicar de manera directa.
Valores normales en el humano
El flujo sanguíneo global de la circulación de un adulto en reposo es de unos 5000
ml min-1, cantidad que se considera igual al gasto cardíaco porque es la cantidad que
bombea el corazón en la aorta en cada minuto.
El gasto cardíaco disminuye en posición sentado y de pie frente a su valor en
decúbito, por el contrario, aumenta de manera importante con el ejercicio, con el aumento
de la temperatura corporal y en los estados de ansiedad. Este aumento se produce sobre
todo por el aumento de la frecuencia cardíaca más que por el del volumen sistólico.

Históricamente la medida del flujo sanguíneo no fue cosa fácil y esto explica que
el flujo sanguíneo se utilice menos que otros parámetros cardiovasculares, como la
presión arterial, más fáciles de medir. Clásicamente, el flujo se ha medido aplicando el
principio de Fick a la dilucción de un indicador químico o térmico. Esta situación está
cambiando con la introducción de los medidores electromagnéticos y los de ultrasonidos
mediante efecto Doppler que permiten medir el flujo sin abrir el vaso sanguíneo y con las
técnicas de imagen con marcadores para medir el flujo en un determinado territorio.
Si la sangre se comportase como un fluido ideal, es decir sin viscosidad, se podría
utilizar el teorema de Bernouilli y considerar que en cualquier punto del fluido situado a
una altura h, con velocidad v y con presión absoluta p se cumplirá:

p/ρg + v2/2g + h = constante = carga del fluido

donde ρ es la densidad del fluido y g es la aceleración de la gravedad


 p/ρg es la altura piezométrica es decir la altura necesaria para producir la presión
p. En el sistema circulatorio esta presión es producida por la sístole ventricular y
resulta de la contracción de las fibras musculares sobre el fluido incompresible que
es el volumen de sangre existente en el ventrículo al final del periodo de llenado
ventricular.

 v2/2g es la altura cinética es decir la altura necesaria para producir en caída libre
la velocidad v a la que se mueven las partículas de fluido

Página
71
 h es la altura geométrica, este término es importante en el organismo ya que,
mientras que en la posición de decúbito todo el sistema circulatorio está a una
altura similar, en la posición de pie los miembros inferiores añaden a la presión
intramural la que corresponde a una columna de más de un metro de altura y en
los vasos pulmonares, cercanos a los vértices, hay que restar la presión que
corresponde a una altura del orden de 30 cm lo cual es importante en un sistema
de baja presión como el pulmonar.

En estas condiciones las partículas que se encuentren en un punto avanzarán, en el


tiempo t, una distancia que será v.t y por lo tanto el volumen de fluido desplazado habrá
sido V=A.v.t y el flujo, es decir el volumen por unidad de tiempo será Q= A.v. De aquí se
obtiene una primera conclusión importante ya que siendo la sangre un fluido
incompresible el principio de continuidad indica que el volumen por una determinada
sección es siempre el mismo y por lo tanto el producto Av, de donde se deduce que,
cuando aumenta la sección del vaso la velocidad disminuye y al contrario. En el sistema
circulatorio la sección, del conjunto del lecho vascular, aumenta progresivamente desde
la raíz de la aorta hasta los capilares, por lo tanto, la velocidad de la sangre es
progresivamente menor. Desde el sistema capilar al venoso el área de sección vuelve a
disminuir con el consiguiente aumento de velocidad.
NO NEWTONIANO - CORREGIR
La idea de que la sangre es un fluido ideal es poco realista y es más razonable
considerarla como un fluido newtoniano. Los fluidos newtonianos presentan una
resistencia, que se opone al movimiento en su seno de alguna de sus partes y que se
denomina viscosidad, cuyo valor es constante, independiente de la velocidad y propio de
cada fluido.
Cuando la velocidad del fluido en el tubo aumenta, se observa que no se cumple la
ecuación de Poiseuille. Esto se debe a que el flujo pasa de laminar a turbulento y las
partículas en lugar de desplazarse como láminas concéntricas se desplazan formando
torbellinos. Esto aumenta la resistencia al flujo y modifica la forma de la curva de perfil de
velocidad que se aplana por el frente de avance. Parte de la energía se disipa como
energía acústica provocando sonidos audibles como los murmullos.
En consecuencia en el sistema circulatorio humano se pueden obtener números
de Reynolds superiores a 2000 en algunos lugares como el tronco de la arteria pulmonar
y la aorta ascendente. En la mayor parte del sistema cardiovascular el flujo seria laminar
salvo a nivel de las válvulas cardíacas, alguna bifurcación de grandes vasos o en lugares
con alteraciones patológicas de la pared que supongan obstáculos para el flujo.

La sangre no se comporta exactamente como un fluido newtoniano (uniforme y de


viscosidad constante) sino como un fluido pseudoplástico de manera que la viscosidad
aumenta cuando disminuye la velocidad. Por otra parte la viscosidad depende del
hematocrito (proporción de glóbulos rojos) aumentando cuando aumenta éste
(policitemia) y también del calibre del vaso ya que las células tienden a acumularse en el
eje axial de los vasos disminuyendo la viscosidad con el calibre de éstos.

Página
72
En los territorios en que el flujo se mantiene constante existen mecanismos de
autorregulación de manera que ocurre así aunque varíe la presión arterial dentro de un
amplio rango, esto se logra modificando la resistencia de manera semejante al cambio
de presión de forma que, aparentemente, el flujo parece independiente de la presión. La
distribución del flujo por los diversos territorios depende de los valores de la resistencia
vascular en cada territorio y naturalmente, implica una redistribución del flujo, de manera
que aumenta en los territorios donde disminuye la resistencia y disminuye en los
restantes, hasta incluso superar los mecanismos de autorregulación.

El flujo sanguíneo se distribuye por los diversos territorios del organismo mediante
las diversas ramificaciones del sistema arterial. En algunos territorios el flujo es
relativamente constante como en el territorio cerebral (13% del flujo total) y el renal (19%),
en otros es dependiente de la actividad funcional como en el territorio coronario (4%, que
aumenta con la frecuencia cardíaca), el esplácnico (24% en los periodos interdigestivos,
aumentando en los periodos digestivos), el territorio muscular (21% en reposo y mucho
mayor durante el ejercicio) y el territorio cutáneo (9% normalmente, aumentando con el
calor y disminuyendo con el frío)3

La presión sanguínea, de gran utilidad médica, suele medirse estrangulando


momentáneamente las arterias del brazo hasta que ya no circule sangre sobre ellas. Esto
se consigue con la ayuda de una bolsa ajustada alrededor del brazo, que se infla por
medio de una perilla, con una presión de aire que se puede leer en una escala.

Cuando se alivia la presión del aire, dejándolo escapar lentamente, hasta que la
sangre comienza a circular de manera intermitente, pues las arterias permiten el paso de
sangre cada vez que el corazón late, a este valor de presión se le denomina máximo. Si
se suelta más aire se alcanza una presión a la cual la sangre circula normalmente,
denominada mínima. Un estetoscopio colocado entre la bolsa y el brazo permite oír en
qué momento circula o no la sangre. Sí bien no es universal y depende de cada
organismo, una persona joven suele tener una presión arterial de 12 – 8 como máxima
y mínima respectivamente.

Fluidos - Gases
El estado gaseoso tiene la característica
de ser un estado disperso de la materia, es
decir, que las moléculas están separadas unas
de otras por distancias mucho más grandes
que el diámetro real de las mismas. El volumen
ocupado por el gas (V) depende de la presión
(P), de la temperatura (T) y de la cantidad o
número de moles (n). Por ello pueden ser
estudiados en términos de las variables de
estado: presión, volumen y temperatura.
Es normal en el alumnado la confusión entre gas o vapor, es por ello que al usar
el término vapor nos referimos al gas que se forma por evaporación de un líquido o

Página
73
sublimación de un sólido y suele utilizarse el término al hacer mención a la coexistencia
de las fases en el cambio de estado.
Todo estudio del comportamiento de una sustancia se realiza a través de un
modelo o de establecer un estado ideal que luego permita ajustarlo a la realidad y dar
mayor precisión sobre dicho comportamiento, tal es el caso del estado gaseoso para el
cual se define el gas ideal o perfecto.

Gas Ideal: Es un modelo teórico en el que no existen fuerzas de atracción ni de repulsión


entre las partículas. Se considera que poseen masa puntual, es decir que dichas
partículas no ocupan volumen y toda la energía de sus moléculas es energía cinética
traslacional.
A baja presión y elevada temperatura los gases reales se comportan como ideales.
En condiciones de laboratorio los gases aproximan su comportamiento al ideal, ya que
las desviaciones exhibidas son mínimas con lo cual pueden despreciarse.
Cuando se trabaja con gases, las variables a tener en cuenta son: presión,
volumen, temperatura y masa, siendo las unidades más utilizadas las señaladas en el
siguiente cuadro:

P V T m
atm; mm Hg; Torr; Pa l; ml; cm3 K g
(1 Torr = 1 mm Hg)
(1 atm = 760 mm Hg)
(1 atm = 101,325 Pa)
(1 mm Hg = 133,3 Pa)

LEYES DE LOS GASES IDEALES


Las leyes de Boyle-Mariotte y Charles-Gay Lussac estudian el sistema para una
masa constante de gas.
Si se mantiene la temperatura constante, las variables serán: P y V, según lo
expresa la siguiente ley:
Ley de Boyle-Mariotte: “El volumen que ocupa una masa fija de un gas es inversamente
proporcional a la presión aplicada, cuando la temperatura se mantiene constante”.
1
V
P
Para eliminar la proporcionalidad, se introduce la constante de proporcionalidad
(k), obteniendo la siguiente igualdad:
1
V k
P
Despejando k (constante de proporcionalidad) se tendrá: P.V = k
Esta ecuación indica que el producto P.V es igual a una constante, es decir que si
aumente la presión debe disminuir el volumen para que el producto de ambos se
mantenga constante.
Si se considera un estado inicial y un estado final, la expresión quedará:

Pi  V i  P f  V f  k
Reagrupando:

Página
74
𝑉𝑖 𝑃𝑓
= =𝑘
𝑉𝑓 𝑃𝑖

Si representamos gráficamente la presión en función del volumen a temperatura


constante para un gas ideal, obtendremos:

Lo que se obtiene de la representación gráfica es una hipérbola equilátera


denominada “isoterma”. Si varía la temperatura no varía el tipo de la curva.

Si se mantiene la presión constante, las variables serán: T y V, según lo expresa la


siguiente ley:
Ley de Charles,(Jacques): “A presión constante el volumen de una masa constante de
gas varía directamente con la temperatura absoluta”, es decir que, un aumento en el
volumen debe estar acompañado de un aumento en la temperatura y viceversa:

VT

Para eliminar la proporcionalidad, se introduce una constante de proporcionalidad


(k), obteniendo la siguiente igualdad:

𝑉= k
𝑇

Si se considera un estado inicial y un estado final, la expresión quedará:

Vi  Tf  Vf  Ti  k

Finalmente, reagrupando:

Página
75
𝑉𝑖 𝑉𝑓
= =𝑘
𝑇𝑖 𝑇𝑓

Lord Kelvin, físico inglés, advirtió que la extrapolación (prolongación) de las


líneas temperatura-volumen a volumen cero se interceptaban en un punto común
a -273,15°C sobre el eje de la temperatura. Kelvin le dio el nombre de cero absoluto,
determinando una nueva escala de temperatura que lleva su nombre.
A – 273°C, el volumen se hace cero, para un gas ideal. Para un gas real nunca
puede ser cero, en primer lugar porque a temperaturas tan bajas los gases se licuan
pasando al estado líquido e inclusive sólido, y en segundo lugar porque sus moléculas
ocupan cierto volumen.

V V

2 V0 2 V0

V0
Vt

- 273 0 273 t°C - 273 0 273 t°C


0 273 546 TK 0 273 546 TK

Representación gráfica de V Vs. T.


La nueva escala de temperatura se expresa en grados Kelvin (K), donde el cero
absoluto corresponde a – 273°C. Por lo tanto – 273°C es la temperatura más baja que se
puede alcanzar. Las temperaturas medidas a partir del cero absoluto se llaman
temperaturas absolutas y se simbolizan con T.

Si se mantiene el volumen constante, las variables serán: P y T, según lo expresa


la siguiente ley:
Ley de Joseph Gay Lussac: “A volumen constante la presión de un gas es proporcional
a la temperatura absoluta”, es decir que cuando se calienta un gas en un recipiente a
volumen constante su presión aumenta y viceversa:

P T
Introduciendo la constante de proporcionalidad (k) y reordenando:

𝑃 =k
𝑇

Si se considera un estado inicial y un estado final, la expresión quedará:

Pi  Tf  Pf  Ti  k

Entonces, reordenando:
Página
76
𝑃𝑖 𝑃𝑓
= =𝑘
𝑇𝑖 𝑇𝑓

Combinando las leyes de Boyle y Mariotte con las de Charles y Gay Lussac, se
puede arribar a la Ecuación General de Estado:

Se debe tener en cuenta que siempre se utiliza la escala absoluta de temperatura.


Para transformar una temperatura en grados centígrados a grados Kelvin, se emplea:

T enK  T enC  273

Generalmente se trabaja en condiciones normales de presión y temperatura


(CNPT):

T = 273 K y P = 1 atm

Recordando que el volumen molar es el volumen que ocupa un mol de


cualquier sustancia al estado gaseoso en condiciones normales de presión y
temperatura (CNPT) y que es igual a 22,4 litros, se puede calcular el valor de la
Constante Universal de los Gases, se representa con la letra “R”. Así, para un mol de
gas (n = 1), se tendrá:

P  V P0  V0
  cte.  R
T T0

P0  V0 1 atm  22,4 l atm  l


Para: R   0,082
T0 273 K  1 mol K  mol

La Constante Universal de los Gases (R) puede tomar diferentes valores


según las unidades con que se trabaje:

atm  l  82,05 atm  ml  2 cal J


R  0,08205  8,314
K  mol K  mol K  mol K  mol

PV
Luego: R
T

Reordenando, para 1 mol de gas: P V  RT

Para “n” moles de gas: P V  n  RT (1)

Página
77
m
Teniendo en cuenta que: n
M

Donde:
n: Número de moles del gas = mol
m: Masa del gas = g
M: Peso molecular del gas = g mol

Reemplazando en (1), se tiene:

(2)

Las ecuaciones (1) y (2) permiten calcular: presión (P), volumen (V), temperatura
(T) , número de moles (n), peso molecular (M), concentración ( c  nV ) y densidad (  mV
) del gas, conociendo las demás variables.

MEZCLAS DE GASES IDEALES

Ley de Dalton: “Dada una mezcla de gases que no reaccionan químicamente,


encerrada en un recipiente a temperatura y volumen constantes, la presión total es la
suma de las presiones parciales de cada uno de los gases en la mezcla”.

Presión Parcial: Es la presión que ejerce cada uno de los gases de una mezcla y
es igual a la que ejercería si estuviera encerrado solo en el mismo recipiente. La presión
parcial de cada gas es independiente de las presiones parciales del resto de los
componentes.

La ley de Dalton se expresa matemáticamente:

Ptotal  PA  PB  PC    PN
donde:

Ptotal: Presión ejercida por la mezcla.


PA, PB, PC y PN: Presión parcial ejercida por los componentes A, B, C y N
respectivamente.

La presión ejercida por un gas es directamente proporcional al número de


moléculas del mismo e independiente de su naturaleza.

Ley de Amagat: “Dada una mezcla de gases que no reaccionan químicamente,


encerrada en un recipiente a temperatura constante, el volumen total es la suma de los
volúmenes parciales de cada uno de los gases en la mezcla”.

Página
78
𝑽𝒕𝒐𝒕𝒂𝒍 = 𝑽𝑨 + 𝑽𝑩 + 𝑽𝑪 + … … … + 𝑽𝑵

LEY DE DIFUSIÓN DE GRAHAM


Se entiende por difusión al fenómeno de interposición de las moléculas de una
sustancia en el seno de otra, es decir buscan distribuirse uniformemente en el espacio
que las encierran. Las moléculas de los gases tienen movimientos muy rápidos (energía
cinética alta) y tienden a difundirse en el seno de otro gas.
El proceso de difusión puede verificarse a través de materiales porosos:

x o x o o
x x o
o tiempo x x o
x o o o o
x x o x
o
x o x o o o
x o
x o x x x x

Material poroso

Este proceso se realiza aun en contra de las fuerzas de gravedad. Si, por ejemplo,
tenemos hidrógeno y oxígeno en dos tubos y los juntamos por la boca, dejando el tubo
de hidrógeno arriba, al cabo de un tiempo ambos se mezclarán íntimamente y ello se
verifica acercando una llama que producirá una pequeña explosión.
La difusión es una consecuencia del movimiento continuo y elástico de las
moléculas gaseosas. Los gases difunden con velocidades diferentes. La velocidad
de difusión depende de las masas de las partículas y de la temperatura. Graham
demostró experimentalmente que en las mismas condiciones de presión y
temperatura las velocidades relativas de difusión de dos gases distintos son
inversamente proporcionales a las raíces cuadradas de las densidades relativas, lo
que se conoce como la Ley de Graham.
𝒗𝟏 √𝒅𝟐
=
𝒗𝟐 √𝒅𝟏
donde v1 y v2 son las velocidades de difusión de los gases que se comparan y d1 y d2 sus
respectivas densidades.

Las densidades se pueden relacionar con la masa y el volumen, por tanto si m es


igual a la masa molecular y v al volumen molecular, podemos establecer la siguiente
relación entre las velocidades de difusión de los gases y su peso molecular:

𝑚2
𝑣1 √𝑣
2
=
𝑚1 𝑣2
√𝑣
2
si consideramos que en condiciones iguales de temperatura y presión los volúmenes son
los idénticos la ecuación anterior se reduce a

Página
79
𝑣1 √𝑚2
=
𝑣2 √𝑚1

Es decir: “la velocidad de difusión de un gas es inversamente proporcional a


la raíz cuadrada de su peso molecular”.

GASES REALES
Las leyes estudiadas son cumplidas exactamente por los gases ideales. Los gases
reales no las cumplen fundamentalmente por dos razones:
a) Las moléculas de los gases reales ejercen entre sí una cierta atracción aunque de
pequeña magnitud (fuerzas de Van der Waals).
b) El volumen de las moléculas, si bien es pequeño, no es despreciable comparado
con el volumen del recipiente, lo que trae como consecuencia que el espacio que
tienen las moléculas para desplazarse sea inferior al considerado para los gases
ideales.
Ya hemos visto que los gases reales se aproximan al comportamiento del gas ideal
cuando más lejos se encuentran de su licuación.

Licuación de Gases
Para licuar un gas hay dos caminos: enfriarlo o someterlo a presión (comprimirlo);
en algunos casos son necesarios ambos procedimientos. Las moléculas del gas poseen
una energía cinética que tiende a separarlas (fuerzas de repulsión) y unas fuerzas de
atracción que tienden a unirlas. Las fuerzas de atracción se hacen mayores al disminuir
la distancia intermolecular. Al enfriar un gas, la energía cinética de sus moléculas
disminuye, lo que hace que sean más significativas las fuerzas de Van der Waals (fuerzas
de atracción), que aumentan hasta producir la condensación del gas.
Al comprimir un gas, el volumen disminuye viéndose las moléculas forzadas a
acercarse y su energía cinética a disminuir, aumentando así las fuerzas de atracción
intermolecular hasta condensarlo.

Efecto de Joule-Thompson
Cuando se comprime bruscamente un gas, disminuye la energía cinética de sus
moléculas y por lo tanto debe disminuir la temperatura de las mismas, para lo cual, el
exceso de energía es liberado en forma de calor hacia la propia masa gaseosa con lo
cual el gas se calienta. Cuando el gas se expande bruscamente, las moléculas aumentan
su energía cinética, para lo cual deben absorber energía, en forma de calor, de la propia
masa gaseosa, con lo cual el gas se enfría. Estos fenómenos se conocen como “Efecto
de Joule-Thompson”.
Como resultado de esto, al comprimir un gas el mismo se calienta. Al
expandirlo, se enfría pues las moléculas han de vencer a las fuerzas de Van der
Waals y aumentar su energía cinética a expensas de su propio calor.
Ecuación de estado para gases reales. Ecuación de Van Der Waals.

Página
80
Para que la ecuación de los gases ideales represente el comportamiento de los
gases reales será necesario efectuar correcciones en la presión y el volumen, que tengan
en cuenta las fuerzas de atracción y repulsión entre las moléculas y el volumen real de
las moléculas. Esto fue realizado por Van der Waals, quien estableció una nueva
ecuación semejante a la de los gases ideales pero con términos que corrigen el volumen
y la presión. Se debe corregir la presión porque en los gases reales existen fuerzas de
interacción intermoleculares, y se debe corregir el volumen porque las moléculas de un
gas real no son puntuales (es decir, ocupan un volumen).

Volumen Molecular
El volumen de las moléculas de los gases reales no se puede
despreciar y para su consideración se plantea la existencia de un
volumen límite que es aproximadamente igual a cuatro veces el
volumen real de la molécula. De aquí se deduce que el volumen A
disponible no es el volumen total del recipiente sino que es el
volumen del recipiente menos el volumen real de las moléculas,
llamado “covolumen” y que es igual a: (V – b), donde V es el
volumen del recipiente y b está vinculado con el volumen límite de la
molécula. Para n moles, la expresión anterior será: (V – n . b). Representación de la
influencia de las fuerzas
de interacción con la
Corrección de la Presión
El fenómeno de licuación demuestra la existencia de débiles fuerzas de atracción
intermolecular, debido a esas atracciones la presión que se mide es menor que la
predicha.
Consideremos una molécula A a punto de chocar con las paredes del recipiente;
antes de hacerlo se ve atraída por el resto del gas debido a las fuerzas intermoleculares,
como no existen otras moléculas entre ella y la pared, la molécula es retenida, el impacto
será menor y la presión será menor. Cuando la concentración del gas es mayor las
fuerzas atractivas aumentan porque participan más moléculas. La fuerza ejercida sobre
la molécula a punto de chocar será proporcional al número de moléculas existentes en la
fase del gas y proporcional a su densidad. Además, el número de moléculas que chocan
también será proporcional a la densidad, de modo que la fuerza atractiva total será
proporcional a la densidad al cuadrado (2). La fuerza atractiva total (hacia adentro) será
igual a:
Ft = a . 2
siendo a una constante de proporcionalidad. La densidad del gas no es más que el
número de moles por unidad de volumen, por lo que nos quedará:
n2
Ft  a  2
v
donde v es el volumen molecular.
Recordando la ecuación de los gases ideales:
P  V  n R  T (gas ideal)


  V - n  b  n  R  T (gas real)
 

Página
81
a y b son constantes que dependen de la naturaleza del gas. Los valores de a son
mayores para moléculas polares que para moléculas no polares, ya que aquellas tienen
mayor energía de interacción; b se relaciona con el volumen molecular.
P es la presión leída en el manómetro.
n es el número de moles.
a
recibe el nombre de “presión interna”
v2
v es el volumen molar de un mol de moléculas.
b es el covolumen. Equivale a cuatro veces el volumen real de la molécula.
R es la constante universal de los gases.
T es la temperatura absoluta.

Aplicaciones de gases
Efectos de la presión sobre los buzos: Hay dos inconvenientes graves en el buceo
de gran profundidad cuando no se usa batiscafo, submarino u otra envoltura rígida que
soporte la presión hidrostática. Uno de ellos ocurre al descender, ya que el buzo necesita
de aire a la misma presión que la del agua de las profundidades para respirar, sino tendría
que hacer enormes esfuerzos de inhalación.
En esas condiciones, la sangre se encuentra a mayor presión y los gases del aire
resultan más solubles, con lo cual tiene gran cantidad de oxígeno y nitrógeno disuelto en
sangre. Los gases se combinan entre sí formando óxido nitroso, conocido como gas
hilarante, y cuyo exceso provoca la llamada borrachera de las profundidades con riesgo
para la salud y su vida.
El otro problema ocurre al ascender, la presión disminuye y la sangre libera el
exceso de gas que ya no puede mantener disuelto; ese gas forma burbujas que obstruyen
la circulación y sobrevienen trastornos por embolia gaseosa.

Los cilindros de oxígeno


El aire que nos rodea suele contener el 21% de oxígeno. Si se aumenta el contenido de
oxígeno al 24 %, se duplicará la velocidad de combustión. Con un 40% de oxígeno en
el aire, la velocidad de combustión será diez veces más alta de lo normal. Si se produce
un incendio en esas condiciones, se extenderá con tanta rapidez que será imposible
apagarlo mientras quede sustancia combustible. Debe considerarse también que
cuanto más alto el nivel de oxígeno, tanto menor será la energía necesaria para la
ignición.
Por ello, no se debe emplear nunca oxígeno para otros usos a los cuales no está
destinado. Por ejemplo:

Nunca limpiar la ropa de trabajo soplando con oxígeno.


Nunca use oxígeno para herramientas neumáticas o en equipos de pintura a
pistola.
Nunca usar oxígeno para limpiar sistemas de tuberías.
Nunca use oxígeno para ventilación o refrigeración.
El aceite o la grasa en contacto con el oxígeno, especialmente a alta presión,
puede incendiarse de forma explosiva. Por ello, asegurarse siempre de que los
reguladores y las conexiones estén absolutamente libres de aceite y grasa.
Página
82
Unidad N°7 - Electromagnetismo

El electromagnetismo constituye uno de los fenómenos físicos de mayor relevancia y


trascendencia en la vida del ser humano, basado en la relación de fenómenos eléctricos
y fenómenos magnéticos.

FENÓMENOS
ELÉCTRICOS

FENÓMENOS
MAGNÉTICOS

ELECTROMAGNETISMO

Para comenzar presentamos un cuadro comparativo entre fenómenos eléctricos y


fenómenos magnéticos, a modo de permitirnos recordar ciertos conceptos de interés para
nuestro desarrollo.

Fenómenos eléctricos Fenómenos magnéticos


Pueden ser producidos por: Pueden ser producidos por:
Frotamiento Frotamiento
Contacto Contacto
Inducción Inducción

Se generan a partir de cargas eléctricas Se generan a partir de imanes naturales o


artificiales
Se producen interacciones atractivas o Se producen interacciones atractivas o
repulsivas entre cargas repulsivas entre polos de imanes
Los materiales pueden ser aislantes o Los materiales pueden ser
conductores ferromagnéticos, paramagnéticos y
diamagnéticos
La interacción de la carga y el ambiente La interacción de los polos de un imán y el
origina un campo eléctrico ambiente origina un campo magnético

Página
83
El flujo de cargas eléctricas a través de un conductor se denomina
corriente eléctrica. Dicho movimiento de cargas se debe a una diferencia
de potencial entre dos puntos, comúnmente simbolizado con la letra (V).
Se denomina potencial eléctrico al trabajo realizado para trasladar una
carga unitaria q de un punto a otro, las unidades para el potencial eléctrico
son de (Joules/Coulombs o Volts). La diferencia entre los potenciales
de dos puntos entre los cuales se va a desplazar una carga se
denomina diferencia de potencial (V). A la diferencia de potencial también se le suele
llamar VOLTAJE o TENSION.

De modo tal, que al indicarse que el voltaje en un enchufe es de 220 voltios, se está
manifestando que entre las dos terminales del mismo existe esa diferencia de potencial,
si ambos se conectan mediante un conductor, la carga se nueve de uno a otro debido a
la diferencia energética entre dichos puntos.

La cantidad de carga eléctrica que atraviesa la sección de un conductor por unidad de


tiempo de denomina Intensidad de corriente eléctrico (I), cuya unidad se denomina
amperio (A), 1A = 1C/1s.

El flujo de la carga a través de cualquier material encuentra una fuerza opuesta similar,
en muchos aspectos, a la fricción mecánica. Esta oposición, debida a las colisiones entre
electrones, y entre electrones con átomos del material, que transforma la energía
eléctrica en calor, se denomina resistencia del material. La unidad de medición de la
resistencia es el ohmio (Ω) y se define como la cantidad de resistencia que permite que
fluya un ampere de corriente en un circuito al aplicarse al mismo un volt.
El libre flujo de circulación de las cargas eléctricas o electrones atenuando o frenando
depende del coeficiente de resistividad o resistividad específica “ρ” de dicho material
(tabulado), la longitud que posee y el área de su sección transversal
𝒍
𝑹= 𝝆.
𝒔
Hasta ahora sabemos que la corriente eléctrica son cargas negativas (electrones) que
fluyen por un conductor ante la existencia de un potencial
eléctrico. Si la corriente se forma por una diferencia de
potencial, existirá una tensión, por lo tanto ambos
fenómenos deben de estar relacionados de alguna forma.

El dispositivo por el cual se desplazan las cargas eléctricas


se denomina circuito eléctrico, es un dispositivo donde se
produce un trayecto continuo de corriente eléctrica, está
compuesto por conductores y dispositivos conductores,
que incluye una fuente de fuerza electromotriz que transporta la corriente por el circuito.

Página
84
Un circuito de este tipo se denomina circuito cerrado, y aquéllos en los que el trayecto no
es continuo se denominan abiertos.

Los circuitos pueden clasificarse en serie o en paralelo según como se ordenen sus
elementos, es decir se puede disponerlos de forma lineal, uno detrás del otro, este tipo
de circuito se denomina “circuito en serie”. Otra manera de conectarlo sería que cada
bombilla tuviera su propio suministro eléctrico, de forma totalmente independiente, y así,
si una de ellas se funde, la otra puede continuar funcionando. Este circuito se denomina
“circuito en paralelo”.

Es necesario precisar que la corriente fluye por un circuito eléctrico siguiendo varias leyes
definidas. La ley básica del flujo de la corriente es la ley de Ohm, así llamada en honor a
su descubridor, el físico alemán George Ohm.
Según la ley de Ohm, la cantidad de corriente que fluye por un circuito formado por
resistencias puras es directamente proporcional a la fuerza electromotriz aplicada
al circuito, e inversamente proporcional a la resistencia total del circuito. Esta ley
suele expresarse mediante la fórmula
I  RV
Siendo I la intensidad de corriente en amperios, V la fuerza electromotriz en voltios y R
la resistencia en ohmios.
Un circuito eléctrico se encuentra conformado por numerosos componentes, el siguiente
cuadro muestra algunos de los más comunes:

Página
85
La descripción de cada componente no forma parte de los objetivos de este curso, por
tanto quedará a criterio del lector el profundizarlo para más adelante.

El movimiento de cargas en un cable es desordenado, esto provoca continuos choques


entre ellos y como consecuencia un aumento de la temperatura en el propio cable, es
decir, parte de la energía cinética de las cargas se transforma en calor y es un fenómeno
irreversible que se conoce como efecto Joule, en honor a su descubridor, el físico
británico James Prescott Joule.
La circulación de corriente eléctrica a través de un conductor creaba un campo magnético
alrededor del conductor siguiendo la regla de la mano derecha

Este campo forma unos círculos alrededor del cable como se muestra en la figura. Hay
círculos cerca y lejos al cable en forma simultánea.
El campo magnético es más intenso cuánto más cerca está del cable y esta intensidad
disminuye conforme se aleja de él hasta que su efecto es nulo. Se puede encontrar el
sentido que tiene el flujo magnético si se conoce la dirección que tiene la corriente en el
cable y con la ayuda de la ley de la mano derecha. Este efecto es muy fácil visualizar en
corriente continua.
Si este conductor lo cerramos formando espiras, los campos magnéticos de todas las
espiras se suman en el interior de la bobina, produciendo un campo magnético mayor

Este proceso es reversible, es decir, si en el interior de una bobina hacemos que varíe
un campo magnético, conseguiremos que circule corriente por la bobina

Página
86
A este campo magnético generado eléctricamente se le llama electromagnetismo. Fué
descubierto de forma accidental en 1821 por el físico danés Hans Christian Oersted. El
electromagnetismo se utiliza tanto en la conversión de energía mecánica en energía
eléctrica (en generadores), como en sentido opuesto, en los motores eléctricos.

INDUCCIÓN ELECTROMAGNÉTICA
La inducción electromagnética constituye una pieza destacada en el sistema de
relaciones mutuas entre electricidad y magnetismo que se conoce con el nombre de
electromagnetismo.

Las experiencias de Faraday

Las experiencias que llevaron a Faraday al descubrimiento de la inducción


electromagnética pueden ser agrupadas en dos categorías: experiencias con corrientes
y experiencias con imanes.

Primera experiencia de Faraday

En primer lugar preparó dos solenoides, uno arrollado


sobre el otro, pero aislados eléctricamente entre sí.
Uno de ellos lo conectó a una pila y el otro a un
galvanómetro y observó que cuando accionaba el
interruptor del primer circuito la aguja (magnética) del
galvanómetro del segundo circuito se desplazaba,
volviendo a cero tras unos instantes.
Sólo al abrir y al cerrar el interruptor el galvanómetro
detectaba el paso de una corriente que desaparecía con
el tiempo. Además, la aguja se desplazaba en sentidos
opuestos en uno y otro caso.

Segunda experiencia de Faraday

En el segundo grupo de experiencias Faraday utilizó un


imán recto y una bobina conectada a un galvanómetro.
Al introducir bruscamente el imán en la bobina observó
una desviación en la aguja, desviación que desaparecía
si el imán permanecía inmóvil en el interior de la bobina.
Cuando el imán era retirado la aguja del galvanómetro
se desplazaba de nuevo, pero esta vez en sentido
contrario. Cuando repetía todo el proceso completo la
aguja oscilaba de uno a otro lado y su desplazamiento
era tanto mayor cuanto más rápido era el movimiento del imán entrando y saliendo en el
interior de la bobina. Lo mismo sucedía cuando mantenía quieto el imán y movía la bobina
sobre él.

Página
87
En resumen, en la primera experiencia una corriente induce un campo magnético,
mientras que en la segunda experiencia el movimiento de un imán genera una
corriente inducida.
La representación del campo magnético en forma de líneas de fuerza permitió a Faraday
encontrar una explicación intuitiva para este tipo de fenómenos: Para que se produjera
una corriente inducida en la bobina era necesario que las líneas de fuerza producidas por
el imán fueran cortadas por el hilo conductor de la bobina como consecuencia del
movimiento de uno u otro cuerpo.
Las experiencias anteriores a las de Faraday, al no tener en cuenta los aspectos
dinámicos, o de cambio con el tiempo, de esta clase de fenómenos, no pudieron detectar
este tipo de corrientes que aparecen en un circuito eléctrico sin que exista dentro del
propio circuito ninguna pila que las genere.

FLUJO MAGNÉTICO

La representación de la influencia magnética de un imán o de una corriente eléctrica en


el espacio que les rodea mediante líneas de fuerza fue ideada por Faraday y aplicada en
la interpretación de la mayor parte de sus experimentos sobre electromagnetismo.
Mediante este tipo de imágenes Faraday compensaba su escasa preparación
matemática, apoyándose así su enorme habilidad gráfica y su no inferior intuición
científica. La noción de flujo magnético recoge esa tradición iniciada por Faraday de
representar los campos mediante líneas de fuerza, pero añade, además, un significado
matemático.
Dado que la intensidad del campo magnético B disminuye con la distancia a los polos,
parece razonable relacionar ambos hechos y establecer por convenio una
proporcionalidad directa entre la intensidad del campo B y la cantidad de líneas de fuerza
que atraviesan una superficie de referencia.
El número de líneas de fuerza del campo B que atraviesa una superficie unidad
depende de cómo esté orientada tal superficie con respectó a la dirección de
aquéllas.
Así, para un conjunto de líneas de fuerza dado, el número de puntos de intersección o de
corte con la superficie unidad será máximo para una orientación perpendicular y nula para
una orientación paralela.
El número de líneas de fuerza del campo B que atraviesa perpendicularmente una
superficie constituye entonces una forma de expresar el valor de la intensidad de dicho
campo.
Se define el flujo del campo magnético B a través de una superficie, y se representa por
la letra griega Φ, como el número total de líneas de fuerza que atraviesan tal superficie.

Página
88
La idea de flujo se corresponde entonces con la de «cantidad» de campo magnético que
atraviesa una superficie determinada. En el Sistema Internacional se expresa en weber
(Wb).
En términos matemáticos, para un campo magnético constante y una superficie plana de
área S, el flujo magnético se expresa en la forma:
Φ = B · S · cos θ

Siendo θ el ángulo que forman las líneas de fuerza (el vector B) con la perpendicular a la
superficie.

FUERZA ELECTROMOTRIZ INDUCIDA


La ley de Faraday-Henry
Independientemente de Faraday, Joseph Henry, en los Estados Unidos, había observado
que un campo magnético variable produce en un circuito próximo una corriente eléctrica.
Los resultados concordantes de las experiencias de ambos físicos pueden resumirse en
un enunciado que se conoce como ley de Faraday-Henry: La fuerza electromotriz
inducida en un circuito es proporcional a la rapidez con la que varía el flujo
magnético que lo atraviesa. En forma matemática:

ε = - ΔΦ/Δ t
Siendo ε la fuerza electromotriz inducida y ΔΦ la variación de flujo magnético que se
produce en el intervalo de tiempo Δt.
De acuerdo con esta ecuación, la magnitud de f. e. m. inducida coincide con lo que varía
el flujo magnético por unidad de tiempo. La presencia de la fuerza electromotriz ε en la
ley de Faraday-Henry en lugar de la intensidad de corriente resalta una característica de
la inducción, su capacidad para sustituir a un generador, es decir, para producir los
mismos efectos que éste en un circuito eléctrico.
Por su parte, el signo negativo recoge el hecho, observado experimentalmente por
Faraday y Henry, de que aumentos (ΔΦ > 0) y disminuciones (ΔΦ < 0) de flujo magnético
producen corrientes inducidas de sentidos opuestos.

Página
89
Si no hay variación con el tiempo del flujo magnético que atraviesa un circuito, el
fenómeno de la inducción electromagnética no se presenta.
Cuando la ley de Faraday-Henry se aplica a una bobina formada por N espiras iguales
toma la forma

El sentido de las corrientes inducidas

Aunque la ley de Faraday-Henry, a través de su signo


negativo, establece una diferencia entre las corrientes
inducidas por un aumento del flujo magnético y las que
resultan de una disminución de dicha magnitud, no explica
este fenómeno.
Lenz (1904-1965), un físico alemán, propuso la siguiente
explicación del sentido de circulación de las corrientes
inducidas que se conoce como ley de Lenz: Las corrientes
que se inducen en un circuito se producen en un
sentido tal que con sus efectos magnéticos tienden a
oponerse a la causa que las originó.
Así, cuando el polo norte de un imán se aproxima a una
espira, la corriente inducida circulará en un sentido tal que
la cara enfrentada al polo norte del imán sea también Norte, con lo que ejercerá una
acción magnética repulsiva sobre el imán, la cual es preciso vencer para que se siga
manteniendo el fenómeno de la inducción.
Inversamente, si el polo norte del imán se aleja de la espira, la corriente inducida ha de
ser tal que genere un polo Sur que se oponga a la separación de ambos.
Sólo manteniendo el movimiento relativo entre espira e imán persistirán las corrientes
inducidas, de modo que si se detiene el proceso de acercamiento o de separación
cesarían aquéllas y, por tanto, la fuerza magnética entre el imán y la espira
desaparecería.

Página
90
La ley de Lenz, que explica el sentido de las corrientes inducidas, puede ser a su vez
explicada por un principio más general, el principio de la conservación de la energía.
La producción de una corriente eléctrica requiere un consumo de energía y la acción de
una fuerza desplazando su punto de aplicación supone la realización de un trabajo.

PRODUCCIÓN DE CORRIENTE ALTERNA

La corriente alterna se caracteriza porque su sentido cambia alternativamente con


el tiempo. Ello es debido a que el generador que la produce invierte periódicamente sus
dos polos eléctricos, convirtiendo el positivo en negativo y viceversa, muchas veces por
segundo.
La ley de Faraday-Henry establece que se induce una fuerza electromotriz (f. e .m.) ε en
un circuito eléctrico siempre que varíe el flujo magnético Φ que lo atraviesa. Pero de
acuerdo con la definición de flujo magnético, éste puede variar porque varíe el área S
limitada por el conductor, porque varíe la intensidad del campo magnético B o porque
varíe la orientación entre ambos dada por el ángulo θ.
En las primeras experiencias de Faraday las corrientes inducidas se conseguían variando
el campo magnético B; no obstante, es posible provocar el fenómeno de la inducción sin
desplazar el imán ni modificar la corriente que pasa por la bobina, haciendo girar ésta en
torno a un eje dentro del campo magnético debido a un imán.
En tal caso el flujo magnético varía porque varía el ángulo.

Generador de corriente alterna


Utilizando el tipo de razonamiento de Faraday, podría decirse que la bobina al rotar corta
las líneas de fuerza del campo magnético del imán y ello da lugar a la corriente inducida.
En una bobina de una sola espira la f. e. m. media que se induce durante un cuarto de
vuelta al girar la bobina desde la posición paralela (θ = 90º) a la posición perpendicular
(θ = 0º) puede calcularse a partir de la ley de Faraday - Henry en la forma:

∆∅ 𝑩. 𝑺
𝜺= − = −
∆𝒕 𝒕

Como el flujo inicial es cero (cos 90º = 0) y el final es B · S (cos 0º = 1), la variación ΔΦ
o diferencia entre ambos es igual al producto B · S. Considerando el instante inicial igual
a cero, resulta Δt = t - 0 = t, siendo t el tiempo correspondiente al instante final después
de un cuarto de vuelta. De este modo se obtiene el resultado anterior.

Sentido de la corriente alterna


Si se hace rotar la espira uniformemente, ese movimiento de rotación periódico da lugar
a una variación también periódica del flujo magnético o, en otros términos, la cantidad de
líneas de fuerza que es cortada por la espira en cada segundo toma valores iguales a
intervalos iguales de tiempo.
La f. e. m. inducida en la espira varía entonces periódicamente con la orientación y con
el tiempo, pasando de ser positiva a ser negativa, y viceversa, de una forma alternativa.

Página
91
1.- El alternador
Es el nombre que recibe el generador de corriente alterna. Se basa en la producción de
una fuerza electromotriz alterna mediante el fenómeno de inducción electromagnética.

Funcionamiento
El imán que genera el campo magnético se
denomina inductor y la bobina en la que se
induce la fuerza electromotriz recibe el
nombre de inducido. Los dos extremos de
hilo conductor del inducido se conectan a
unos anillos colectores que giran junto con
la bobina. Las escobillas, que suelen ser de
grafito, están en contacto permanente,
mediante fricción, con los anillos colectores
y transmiten la tensión eléctrica producida a
los bornes del generador en donde puede
conectarse a un circuito exterior.

Por lo general, la bobina del inducido se


monta sobre un núcleo de hierro. La elevada
permeabilidad magnética de este material
hace que el campo magnético que atraviesa
la bobina aumente; ello significa que las líneas de fuerza se aproximan entre sí
aumentando el flujo magnético y, consiguientemente, el valor máximo de la f. e. m.
inducida. Un efecto semejante se consigue aumentando el número de espiras del
inducido.

Tipos de alternador
En los grandes alternadores, el inducido está fijo y es el inductor el que se mueve, de
modo que en este caso no son necesarios los anillos colectores ni las escobillas.
Aunque la inducción electromagnética depende del movimiento relativo entre el campo
magnético y el conductor, con este procedimiento se consigue salvar algunos
inconvenientes relacionados con el paso de corrientes elevadas por el colector y las
escobillas.
Página
92
Aplicaciones
Los alternadores son los elementos esenciales en las centrales eléctricas. En ellos se
genera una muy alta tensión eléctrica que se transporta a través de una red de tendidos
eléctricos y es transformada en estaciones intermedias para llegar finalmente hasta los
enchufes domésticos con un valor eficaz de 220 V. La frecuencia de oscilación de esta
tensión alterna es en Europa de 50 Hz, lo que equivale a 50 ciclos por segundo.

Corriente trifásica
Cuando una bobina gira dentro de un campo magnético uniforme se genera en ella una
fuerza electromotriz alterna, si en vez de instalar una sola bobina se instalan tres,
posicionadas formando entre sus ejes físicos un ángulo de 120°, al girar el imán se
producirá en cada una de las tres bobinas tres fuerzas electromotrices independientes,
que puede tener el mismo valor, la misma frecuencia pero desfasadas entre sí en un
ángulo de 120°.

2.- La dinamo
Puede ser considerada como una modificación del alternador que permite generar
corrientes continuas.
Funcionamiento
Para lograr que la corriente que circula por la bobina tenga un único sentido, se han de
invertir las conexiones justo en el instante en el que la f.e.m. cambia de signo. Ello se
consigue sustituyendo los anillos colectores por un cilindro metálico compuesto de dos
mitades aisladas entre sí o delgas y conectadas cada una a un extremo de hilo conductor
de la bobina.
Esa pieza se denomina conmutadora porque cambia o conmuta en cada media vuelta la
polaridad del generador, de tal forma que la tensión que llega a los bornes a través de
las escobillas tiene siempre el mismo signo y al conectarlo al circuito exterior produce una
corriente continua.

Tipo de corriente producida


En las dinamos sencillas la tensión producida, aunque tiene siempre el mismo signo, no
mantiene un mismo valor, sino que varía de una forma ondulada o pulsante. Sin embargo,
es posible conseguir una f. e. m. prácticamente constante introduciendo un número
suficiente de bobinas, dividiendo otras tantas veces el anillo colector y añadiendo los
correspondientes pares de escobillas.
Por este procedimiento la ondulación de la tensión, que es pronunciada en una dinamo
sencilla, se reduce a un ligero rizado despreciable.

Página
93
Aplicaciones
Las bicicletas utilizan la dinamo para producir luz a partir del movimiento. Tratándose por
lo general de una dinamo sencilla, puede observarse cómo a baja velocidad la intensidad
luminosa aumenta y disminuye alternativamente a un ritmo que depende de la velocidad.
Cuando ésta es suficiente, la rapidez de la oscilación unida a la inercia del sistema hace
que la intensidad luminosa de la lámpara se mantenga prácticamente constante. Este
efecto es semejante al que se consigue al aumentar el número de bobinas, de delgas y
de escobillas.
La dinamo es una máquina reversible que puede actuar como motor si se le aplica a
través de las escobillas una corriente continua de intensidad conveniente. En el primer
caso, funcionando como dinamo, la máquina transforma energía mecánica en energía
eléctrica; en el segundo transforma energía eléctrica en movimiento.

FUNDAMENTO DEL TRANSFORMADOR

La fabricación de un transformador se
consigue situando en un núcleo de hierro dos
bobinas o arrollamientos, el primario y el
secundario, tales que efectúen la elevación o
la reducción de tensión.

Los fenómenos de la autoinducción y de la


inducción mutua constituyen el fundamento
del transformador eléctrico, un aparato que
permite elevar o reducir tensiones alternas.

Funcionamiento
Un transformador consta, en esencia, de dos bobinas arrolladas a un mismo núcleo de
hierro. La bobina o arrollamiento donde se aplica la f. e. m. alterna exterior recibe el
nombre de primario y la bobina en donde aquélla aparece ya transformada se denomina
secundario.

Página
94
Aplicaciones de interés para la salud

Cada célula del cuerpo humano es una pequeña pila eléctrica. El ser humano está
compuesto de billones de células, es decir por billones de unidades eléctricas. Estas
células vibran y oscilan en ciertas frecuencias y reciben de la atmósfera su
funcionamiento eléctrico individual.
Si aceptamos que la Tierra es un imán gigantesco, que todas las formas de vida están
bajo la influencia de la fuerza magnética de los polos terrestres y que cada individuo está
compuesto por células (cada célula es una unidad eléctrica), la aplicación del
Biomagnetismo en beneficio de los seres vivos es una opción sana y natural.

La Biomagnética es una rama de la Biofísica, que estudia los efectos de los campos
magnéticos sobre los seres vivos. Los tratamientos realizados por profesionales en
Biomagnética (terapia por aplicación de imanes) son eficaces en el tratamiento de los
niveles de colesterol en la sangre, actúan con éxito en muchos trastornos neurológicos,
son eficaces en casos de bronquitis crónica y en todas las enfermedades de la piel.
La acción terapéutica de los imanes es mucho más rápida que la aplicación del calor,
los rayos infrarrojos, las píldoras anti-inflamatorias, las infiltraciones y otros métodos
conocidos en terapia del dolor.
La aplicación de calor no puede estimular la
capacidad reparadora de un tejido lesionado, éste
necesita un aporte de sangre oxigenada. La
recuperación de un músculo necesita que se
consiga el aporte necesario de sangre en la
región afectada. Los imanes de campo
permanente forman parte de modernas rodilleras,
cinturones lumbares y otros dispositivos que
producen inmediato alivio del dolor y una rápida
recuperación de la zona lesionada. En Medicina
del Deporte se emplea con mucho éxito la terapia con imanes debido a la rapidez de la
reinserción del deportista lesionado y la seguridad de una recuperación libre de
secuelas traumáticas.

Página
95
RESONANCIA MAGNÉTICA
Un estudio de Resonancia Magnética (RM) consiste en la
obtención de imágenes detalladas de los órganos y tejidos
internos, empleando para ello ondas de radiofrecuencia y
un imán muy potente.
La RM utiliza ondas de radiofrecuencia y un campo
magnético muy potente en lugar de utilizar rayos X para
obtener imágenes de gran detalle de los órganos y tejidos
internos. La RM utiliza esta tecnología para identificar
regiones o áreas del cerebro donde existe un mayor aporte
vascular, se están produciendo cambios químicos o hay un
aumento de la cantidad de oxígeno, todos estos procesos se producen cuando un área
cerebral se tiene que activar para enviar las instrucciones para que se activen diferentes
partes del organismo.
Está constituido por un complejo conjunto de aparatos emisores de electromagnetismo,
antenas receptoras de radio frecuencias y computadoras que analizan datos para
producir imágenes detalladas, de dos o tres
dimensiones. Este poderoso imán atrae a los
protones que están contenidos en los átomos de
hidrógeno que conforman los tejidos humanos, los
cuales, al ser estimulados por las ondas de radio
frecuencia, salen de su alineamiento normal.
Cuando el estímulo se suspende, los protones
regresan a su posición original, liberando energía
que se transforma en señales de radio para ser
captadas por una computadora que las transforma
en imágenes, que describen la forma y
funcionamiento de los órganos.
Las resonancias magnéticas se utilizan para
detectar una variedad de afecciones, entre las que
se encuentran los problemas cerebrales, de la
médula espinal, el esqueleto, el tórax, los pulmones, el abdomen, la pelvis, las muñecas,
las manos, los tobillos y los pies.
En algunos casos, proporciona imágenes claras de partes del cuerpo que no se pueden
ver con tanta claridad con las radiografías, las tomografías computadas o las ecografías.
Esto hace que sea una herramienta sumamente valiosa para diagnosticar problemas en
los ojos, los oídos, el corazón y el sistema circulatorio. La capacidad
de la resonancia magnética para resaltar los contrastes en los tejidos

Página
96
blandos hace que resulte muy útil para descifrar
problemas en las articulaciones, los cartílagos, los
ligamentos y los tendones.

Electroterapia
Arte y ciencia del tratamiento de lesiones y
enfermedades por medio de la electricidad (fines
terapéuticos)

 Anti- inflamatorio
 Analgésico
 Mejora el tropismo
 Potenciación neuro-muscular
 Térmico

Estas técnicas utilizan diferentes tipos de corrientes como ser:

 Corriente Continua o Galvánica


 Corriente variable (Baja y Media frecuencia)
 Corriente de Alta frecuencia

Cuando se aplica corriente del tipo variable se pueden obtener los siguientes resultados

 Baja Frecuencia: Se busca sustituir estímulos fisiológicos naturales por un


estímulo artificial que se consigue a partir de un equipo generador
 Media Frecuencia: Se consigue una baja sensación de corriente, y según la
frecuencia aplicada, se conseguirá un efecto excito-motor.
Generalmente este tipo de corriente se aplica en el tratamiento de

 Cuadros dolorosos, agudos y crónicos


 Potenciación muscular
 Relajación muscular
 Elongación muscular
 Bombeo circulatorio activo y pasivo
 Contracturas musculares
 Ayudar en la regeneración tisular.

IMPORTANTE
Desde nuestra posición consideramos importante que el alumno se familiarice con las
diferentes señales referidas a riesgo eléctrico. El alumno debe indagar sobre las mismas.
Las señales azules, generalmente obligan.
Las señales rojas, prohíben.
Las señales amarillas, advierten.

Página
97
Unidad N°8 - Ondas y Óptica

ÓPTICA
Las ondas son perturbaciones capaces de propagarse
en un medio (ondas mecánicas) o en el vacío (ondas
electromagnéticas). Estas últimas se propagan como
ondas transversales que sufren dos tipos de
perturbaciones, una eléctrica y una magnética,
perpendiculares entre sí. La luz constituye el
ejemplo más relevante de ondas electromagnéticas,
también las ondas de radio y TV, radiación ultravioleta,
etc.

La óptica es la rama de la física que estudia el comportamiento de la luz, sus


características y sus manifestaciones. Abarca el estudio de la reflexión, la refracción, las
interferencias, la difracción, la formación de imágenes y la interacción de la luz con la
materia.

La luz
La energía radiante o luz tiene una naturaleza dual, y obedece leyes que pueden
explicarse a partir de una corriente de partículas o paquetes de energía, los llamados
fotones, o a partir de un tren de ondas transversales.
 Naturaleza ondulatoria: Cuando de describe la luz en función de ondas, el efecto
de un prisma sobre el haz luminoso, permite dispersar la luz original según las
longitudes de onda de los campos eléctricos y magnéticos que constituyen el haz.
El paso a través del prisma desvía los componentes de corta longitud de onda del
haz luminoso mucho más que los componentes de onda mayor. Por tanto, puede
asignarse una escala de longitud de onda, así también como una escala de color,
al espectro.

Página
98
 Naturaleza cuántica: Un cierto número de
situaciones experimentales sugiere la idea de
que la radiación consta de un flujo de paquetes
de energía, llamados fotones o cuantos, que se
trasladan en la dirección del haz a la velocidad
de la luz. Esta interpretación de la naturaleza de
la radiación como un flujo de paquetes de
energía es también conveniente cuando nos referimos a la absorción de la
radiación por moléculas de una muestra a través de la cual pasa el haz.

Las dos formas diferentes de considerar la naturaleza de la luz, aunque aparentemente


antagónicas, están de hecho íntimamente relacionadas, es decir, ambos puntos de vista
eran correctos y que diferían debido a que describían diferentes facetas del
comportamiento de la radiación. La relación básica que permite pasar de una
aproximación a otra, procedimiento con frecuencia necesario, es:  = h..
Donde h, constante de proporcionalidad entre , energía de un cuanto, y  frecuencia
del movimiento ondulatorio, se conoce como constante de Planck.
La relación de Planck permite pasar, cuantitativamente, del concepto de la radiación
como onda a la de flujo o corriente de cuantos; es decir, un haz con una longitud de onda
o frecuencia dada, sea considerado como flujo de cuantos de determinada energía.

Las ondas luminosas son ondas electromagnéticas cuya frecuencia está dentro del
rango de la luz visible.

En las ondas de luz, como en todas las ondas electromagnéticas, existen campos
eléctricos y magnéticos en cada punto del espacio, que fluctúan con rapidez. Como estos
campos tienen, además de una magnitud, una dirección determinada, son cantidades
vectoriales. Los campos eléctrico y magnético son perpendiculares entre sí y
también perpendiculares a la dirección de propagación de la onda.

La onda luminosa más sencilla es una onda sinusoidal pura, llamada así porque una
gráfica de la intensidad del campo eléctrico o magnético trazada en cualquier momento
a lo largo de la dirección de propagación sería la gráfica de una función seno.
Página
99
El número de oscilaciones o vibraciones por segundo en un punto de la onda
luminosa se conoce como frecuencia. La longitud de onda es la distancia a lo largo
de la dirección de propagación entre dos puntos con la misma ‘fase’, es decir,
puntos que ocupan posiciones equivalentes en la onda.
La frecuencia de la onda electromagnética puede tomar valores con un rango de variación
enorme, lo constituye el espectro electromagnético.
La luz blanca es una mezcla de todas las longitudes de onda visibles. No existen límites
definidos entre las diferentes longitudes de onda, pero puede considerarse que la
radiación ultravioleta va desde los 350 nm hasta los 10 nm. Los rayos infrarrojos, que
incluyen la energía calorífica radiante, abarcan las longitudes de onda situadas
aproximadamente entre 750 nm y 1 mm. La velocidad de una onda electromagnética es
el producto de su frecuencia y su longitud de onda.

La onda al propagarse puede sufrir una atenuación debido a una pérdida neta de
energía, ya sea por absorción (en forma de calor) o dispersión (redistribución
direccional), en ambos casos la disminución de la intensidad de la onda I se puede
describir por una expresión exponencial decreciente, conocida como Ley de Beer -
Lambert
𝐼(𝑥) = 𝐼0 . exp(−𝛼𝑥) donde  recibe el nombre de coeficiente de extinción

Cuando luz llega a un objeto, este se comporta de distinta manera


según el material que lo forma. Esta característica nos permite
clasificar los materiales en tres grupos:

Materiales transparentes: los materiales transparentes son


los que dejan pasar la luz sin dispersarla. Son los objetos por
los que a través de él podemos ver otros objetos claramente.

Materiales translúcidos: son los materiales que dejan


pasar la luz pero la dispersan, es decir, que la imagen se ve
borrosa al dispersarse los rayos de luz.

Página
100
Materiales opacos: son los materiales que no dejan pasar la
luz. Por ejemplo un trozo de madera.

La interacción de la luz con la materia deriva en cierto tipo de


fenómenos físicos, por ejemplo:
 Reflexión

 Refracción

 Difracción

 Polarización

La reflexión es el fenómeno físico que explica la incidencia de las ondas contra un


material y su curso posterior cuando el material sobre el cual incide no absorbe la onda.

Las leyes de reflexión se pueden precisar


de la siguiente manera:
1) Primera ley: el rayo incidente, el
rayo reflejado y la normal
(perpendicular a la superficie) están
en un mismo plano.

2) El ángulo de incidencia es igual al


ángulo de reflexión, se tiene que i =
r

La refracción es el fenómeno físico que explica la incidencia de las ondas contra un


material y su curso posterior cuando el material sobre el cual incide absorbe la onda.

Es decir que el rayo incidente sufre una desviación al pasar de un medio transparente a
otro.

Página
101
Las leyes de la refracción se pueden precisar de la siguiente manera:
1) Primera ley: el rayo incidente, el rayo refractado y la normal (perpendicular a la
superficie) están en un mismo plano.

2) Segunda ley: el cociente entre el seno del ángulo de incidencia y el seno del
ángulo de refracción es constante para todos los rayos refractados. sen i = sen r

Índice de refracción
Se denomina índice de refracción de una sustancia A con respecto a otra B al cociente
entre el seno del ángulo incidente y el seno del ángulo de refracción, cuando la luz pasa
desde B hacia A.
𝒔𝒆𝒏 𝒊
= 𝒄𝒐𝒏𝒔𝒕𝒂𝒏𝒕𝒆 = 𝒏
𝒔𝒆𝒏 𝒓

Difracción: es la capacidad de las ondas para cambiar la dirección alrededor de


obstáculos en su trayectoria, esto se debe a la propiedad que tienen las ondas de
generar nuevos frentes de onda. Cuando un frente de onda es interceptado por una
barrera en la que hay un orificio de dimensiones semejantes a la longitud de onda. Las
ondas se propagan desde el orificio en todas direcciones.

Polarización: es la propiedad por la cual uno o más de los múltiples planos en que
vibran las ondas de luz se filtra impidiendo su paso. Esto produce efectos como
eliminación de brillos.

La polarización encuentra una gran aplicación en la determinación de la actividad


óptica de algunas sustancias, en dextrógira (derecha) o levógira (izquierda).

Página
102
Los espejos y las imágenes
De un objeto salen infinitos rayos, cuando lo miramos, un delgado haz de luz de ellos
entra en cada ojo y nos permite verlo directamente. Cuando el haz que entra en uno de
nuestros ojos se ha reflejado previamente en un espejo, entonces ya no vemos el
objeto sino su imagen.
Los espejos son superficies reflectantes, pueden ser planos o curvos, los curvos
pueden ser casquetes de esfera, paraboloides u otros sólidos de revolución, los más
utilizados son los casquetes de esfera, de acuerdo a su forma pueden ser: cóncavos o
convexos.
En lo espejos esféricos se cumplen también las leyes de la reflexión, para hallar la
imagen en un espejo esférico dibujaremos tres rayos notables.

Lentes e imágenes
Una lente es un medio transparente limitado por dos superficies. Las lentes se
utilizan generalmente para formar imágenes por refracción en los instrumentos ópticos,
como cámaras fotográficas, telescopios, microscopio, etc.
Las imágenes generadas por una lente pueden ser reales o virtuales, una imagen real
es aquella que se forma en realidad, es decir, si se coloca una pantalla en el punto
adecuado, se formará sobre ella la imagen del objeto. Por otro lado, una imagen virtual
representa la posición desde la que parece que procede la luz que llega a nuestros ojos

Página
103
a través de la lente. Sin embargo, la luz nunca pasa en realidad por aquella posición y
si colocáramos una pantalla no se observaría ninguna imagen sobre ella.

A continuación daremos algunas definiciones para lentes delgadas. Se consideran


lentes delgadas, aquellas lentes cuyo espesor es pequeño comparado con los radios de
curvatura de las superficies limitantes.

LA PERCEPCIÓN DE IMAGEN

El 50 % de la información que recibimos de nuestro entorno la recibimos a través


de los ojos. La información que recibimos en un simple vistazo a nuestro entorno se
guarda durante un segundo en nuestra memoria y luego la desechamos casi toda.
El ojo humano es un sistema óptico formado por
un dioptrio esférico = que reciben el nombre de córnea

una lente = que reciben el nombre de cristalino

una superficie interna denominada retina, que es una zona sensible a la luz.

Iris = que es un diafragma que regula el paso de luz

La pupila = abertura por la que pasa la luz hacia el interior del ojo

El cristalino enfoca las imágenes sobre la envoltura interna del ojo, la retina. Esta
envoltura contiene fibras nerviosas (prolongaciones del nervio óptico), denominadas
fotoreceptores, que terminan en unas pequeñas estructuras denominadas conos y
bastones muy sensibles a la luz.
Para que la imagen se forme en la retina, los músculos ciliares se contraen, y el
grosor del cristalino aumenta, acortando la distancia focal imagen. Por el contrario
si el objeto está distante los músculos ciliares se relajan y la lente adelgaza. Este
ajuste se denomina acomodación o adaptación.

Los fotorreceptores realizan la conversión de la luz en impulsos nerviosos que el


cerebro transforma en imágenes. Mediante este mecanismo es posible que podamos
reconocer formas, tamaños, colores y movimiento y seamos capaces de desenvolvernos
en la vida cotidiana.
En la visión humana, los conos captan la luz en la retina del ojo. Hay tres tipos de conos
(denominados en inglés S, M, y L), cada uno de ellos capta solamente las longitudes de
onda señaladas en el gráfico. Transformadas en el cerebro se corresponden
aproximadamente con el azul, verde y rojo. Los bastones captan las longitudes de onda
señaladas en la curva R.

Página
104
La primera parte del sistema visual se encarga de formar la imagen óptica del estímulo
visual en la retina (sistema óptico), donde sus células son las responsables de procesar
la información. Otras células de la retina se encargan de transformar dicha luz en
impulsos electroquímicos y en transportarlos hasta el nervio óptico. Desde allí, se
proyectan al cerebro. En el cerebro se realiza el proceso de formar los colores y
reconstruir las distancias, movimientos y formas de los objetos observados.

Las células sensoriales de la retina reaccionan de forma distinta a la luz y a su longitud


de onda. Los bastones se activan en la oscuridad, y sólo permiten distinguir el negro, el
blanco y los distintos grises. Los conos sólo se activan cuando los niveles de iluminación
son suficientemente elevados. Los conos captan radiaciones electromagnéticas, rayos
de luz, que más tarde darán lugar a impresiones ópticas. Los conos son acumuladores
de cuantos de luz, que transforman esta información en impulsos eléctricos del órgano
de la vista.

Todo el mecanismo antes mencionado determina nuestra capacidad visual:


Agudeza visual: determina el nivel de detalle con el que observamos los
objetos

Visión binocular: es la visión conjunta y coordinada de ambos ojos.

Campo visual: es la totalidad del espacio percibido, manteniendo la


mirada fija en un punto. abarca aproximadamente unos 170 grados.

Sensibilidad luminosa: es la capacidad de adaptarse y de ver en


condiciones de poca o excesiva iluminación.

Página
105
La percepción y la atención a la conducción: es cómo procesamos la
información y el grado de concentración.

Visión del color: es la capacidad de distinguir los diferentes colores en


sus distintos atributos.

El elevado número de accidentes de tránsito se debe a que en numeradas ocasiones


nuestra capacidad visual se afectada por enfermedades propias de la visión o por el
consumo de sustancias inapropiadas.

En el caso de enfermedades de la vista podemos mencionar:


MIOPÍA: conlleva un déficit de agudeza visual
en visión lejana, es decir el conductor puede
percibir una señal cercana pero pierde la
referencia del contexto (que sucede más
adelante en la ruta)

ASTIGMATISMO: produce una visión


deformada o borrosa, el conductor no percibe
de forma nítida o clara las situaciones
(peatón cruzando, señales de tránsito, la
referencia de otros vehículos circulando).

HIPERMETROPÍA: produce una visión


borrosa o deformada de los objetos más
cercanos, el conductor tiene dificultades para
leer señales, mapas o navegadores.

Con la sola consulta al oftalmólogo estos problemas se pueden evitar

Página
106
SONIDO
Para la física, el sonido implica un fenómeno vinculado a la difusión de una onda de
características elásticas que produce una vibración en un cuerpo, aun cuando estas
ondas no se escuchen.
El sonido audible para los seres humanos está formado por las variaciones que se
producen en la presión del aire, que el oído convierte en ondas mecánicas para que el
cerebro pueda percibirlas y procesarlas.
Al propagarse, el sonido transporta energía pero no materia. Las vibraciones se generan
en idéntico rumbo en el que se difunde el sonido
Generalmente se utilizan cuatro cualidades subjetivas para describir un sonido musical:
intensidad, altura o tono, timbre y duración. Cada uno de estos atributos depende de uno
o más parámetros físicos que pueden ser medidos.
Las cualidades principales del sonido son la altura (grave, agudo o medio, según
la frecuencia de las ondas), la duración (el tiempo en el cual se mantiene el sonido),
el timbre (su rasgo característico) y la intensidad (la cantidad de energía que
contiene).

Desde el punto de vista de la intensidad, los sonidos pueden dividirse en fuertes y


débiles. La intensidad depende principalmente de la presión sonora (intensidad), pero
también del espectro de parciales y de la duración.
El tono o altura es la cualidad que nos permite distinguir entre un sonido agudo o alto y
otro grave o bajo. Para un sonido puro el tono viene determinado principalmente por la
frecuencia, aunque también puede cambiar con la presión y la envolvente.
El timbre de un sonido es la cualidad en virtud de la que podemos distinguir dos sonidos
de igual frecuencia e intensidad emitidos por dos focos sonoros diferentes. El timbre se
debe a que generalmente un sonido no es puro y depende principalmente del espectro.
Pero también depende en gran manera de la envolvente y de la frecuencia.
La duración física de un sonido y la percibida están muy relacionadas aunque no son
exactamente lo mismo. La duración percibida es aquel intervalo temporal en el que el
sonido persiste sin discontinuidad.
La altura de un sonido está directamente relacionada con la frecuencia. Pues mientras
mayor sea la altura, mayor será la frecuencia, y mientras más bajo, una menor frecuencia
tendrá.

La altura o tono está determinada por características en los instrumentos como:


El tamaño: mientras más grande sea un instrumento musical, más grave será el
sonido; al contrario, cuánto más pequeño será más agudo.

Página
107
La longitud: mientras más larga una cuerda, más grave será el sonido; por el
contrario, al ser más corta, el sonido es más agudo.
La tensión: mientras más tensa se encuentre una cuerda, más agudo será el
sonido; en cambio, mientras menos tensa esté la cuerda, más grave será el sonido
La presión: mientras mayor sea la presión del aire, más agudo será el sonido; por
el contrario, si la presión es menor, más grave será el sonido.
La inmensa cantidad de sonidos perceptibles por el oído, está directamente
relacionada con la intensidad, que corresponde a la energía que se propaga en el
medio y que puede ser medida, como la intensidad acústica o intensidad sonora.
La intensidad acústica se define como la cantidad de energía transportada por una onda
sonora en la unidad e tiempo y de superficie, o la potencia por unidad de superficie, la
cual se mide en watt/m²
En cambio, la intensidad sonora se mide en decibel, (dB) y es definida con una escala
logarítmica no sólo porque el intervalo de intensidades a las que resulta sensible el oído
es inmenso, sino también porque la sensación de fuerza sonora tiene una dependencia
logarítmica con la intensidad.

Ultrasonidos 2D, 3D y 4D
Otra de las aplicaciones en las que son utilizados los ultrasonidos es en la creación de
imágenes de partes internas del cuerpo enviándolas éstas hacia la zona deseada. Estas
ondas sonoras de alta frecuencia reflejan (eco) en las estructuras corporales de distinta
forma, ya que se atenúan de una forma diferente, siendo posteriormente recogidas e
interpretadas por un computador que crea así la imagen. Generalmente, a mayor
Página
108
frecuencia se logra menor penetración y viceversa, a menor frecuencia podemos lograr
mayor penetración.

Monitoreo Fetal Ecografia 3D

Página
109

También podría gustarte