BIOFÍSICA
UNIDAD III: TERMODINÁMICA, ACÚSTICA Y AUDICIÓN, ÓPTICA Y VISIÓN
SEMANA 9: SISTEMAS: ABIERTO, CERRADO Y AISLADO, Y LA PRIMERA LEY.
TEMPERATURA Y CALOR: SENSIBLE LATENTE. TRANSFERENCIA DE CALOR POR
CONDUCCIÓN, CONVECCIÓN, RADIACIÓN Y EVAPORACIÓN
Un sistema termodinámico (también llamado materia de trabajo) se define como la parte del
universo que se investiga. Los sistemas termodinámicos incluyen células, personas, vapor en
máquinas de vapor, mezclas de gasolina y aire en máquinas térmicas y la atmósfera terrestre.
Un sistema termodinámico puede estar separado del resto del universo (llamado entorno del
sistema) por una pared real o imaginaria. En el último caso, el sistema bajo investigación se
convierte en parte de un sistema más grande, por ejemplo. Las paredes que separan el sistema
de su entorno pueden ser aislantes (llamadas paredes aislantes) o permitir el flujo de calor
(aislantes). Los sistemas termodinámicos pueden ser aislados, cerrados o abiertos.
Sistema aislado: Un sistema que no intercambia materia ni energía con el medio ambiente.
Sistema cerrado: intercambia energía (calor y trabajo) pero es independiente del entorno (la
masa permanece constante).
Sistema abierto: Un sistema que intercambia energía y materia con el medio ambiente.
LA PRIMERA LEY
La primera ley de la termodinámica es una generalización de la conservación de la energía en
los procesos térmicos. Esto se basa en la conclusión de Joule sobre la equivalencia de la
energía térmica. Pero para hacer esto, debes evitar algunas trampas.
Siguiendo las conclusiones de Joule, podríamos tener la tentación de llamar a la energía
térmica "intrínseca" a la temperatura. Entonces podemos sumar el calor a la energía potencial y
cinética del sistema y llamar a esta suma energía total, que es la cantidad de energía que
puede contener. De hecho, esta solución se aplica a varios fenómenos diferentes, incluido el
experimento de Joule. La idea del "contenido" calórico del sistema es problemática. Por
ejemplo, cuando un sólido se calienta hasta su punto de fusión, la "entrada de calor" adicional
provoca la fusión pero no eleva la temperatura. A partir de este sencillo experimento podemos
ver que la simple consideración de la energía térmica medida por el aumento de temperatura
como parte de la energía total del sistema no produce una ley completamente general.
En lugar de "calor" podemos usar el concepto de energía interna, la energía de un sistema que
puede tomar una forma que no está directamente relacionada con la temperatura. Entonces
podemos usar la palabra "calor" para referirnos a la transferencia de energía entre el sistema y
su entorno. Además, no usamos la palabra trabajo para describir lo que está contenido en un
sistema, sino para describir la transferencia de energía de un sistema a otro. Entonces, el calor
y el trabajo son dos formas en que se transfiere energía, no energía.
Estas definiciones no permiten declaraciones simples como "La entrada de calor a un sistema
aumenta su energía interna y el trabajo realizado en el sistema aumenta su energía mecánica".
Agregar calor a un sistema puede tener otros efectos además de aumentar la energía interna.
Por ejemplo, en una máquina de vapor, la entrada de calor aumenta la energía mecánica del
pistón. Asimismo, el trabajo sobre un sistema puede tener otras consecuencias además del
aumento de la energía mecánica. Por ejemplo, cuando nos frotamos las manos cuando hace
frío, el trabajo que hacemos aumenta la energía interna en la piel de la mano, que en este caso
se manifiesta como un aumento de la temperatura.
TEMPERATURA Y CALOR: SENSIBLE LATENTE
El calor sensible es en realidad el cambio de temperatura que todo el mundo imagina. Calienta
un vaso de agua en el microondas de forma gradual y continua de 10 a 30 grados.
En las unidades de aire acondicionado, el calor sensible funciona de la siguiente manera: A
medida que aumentan las temperaturas, la unidad debe utilizar su potencia mecánica para
superar la temperatura del aire.
Calor latente
Los expertos en clima definen el calor latente como el calor que se libera cuando la materia
cambia de estado (sólido a líquido, líquido a gas, etc.). El cambio ocurre sin cambio de
temperatura.
Un ejemplo de este tipo de calor es el que se produce en una olla cuando el agua hirviendo
comienza a evaporarse. Al llegar a los 100 °C, el agua cambia de un estado a otro sin
aumentar el grado del segundo estado con respecto al primero.
Un dispositivo de calor latente transferido al sistema de aire acondicionado aumenta la
humedad del ambiente sin cambiar significativamente la temperatura.
Transferencia de calor por conducción, convección, radiación y evaporación
La conducción, la convección y la radiación son tres tipos de transferencia de calor. El calor
es energía que se transfiere de un objeto o sistema a otro. La transferencia de calor solo ocurre
cuando hay una diferencia de temperatura entre dos cosas. En la conducción, la transferencia
de calor ocurre cuando un cuerpo u objeto entra en contacto con otro.
La convección, por otro lado, es causada por el movimiento de gases o líquidos a diferentes
temperaturas. La radiación en sí misma es la transferencia de calor sin contacto físico. Por lo
que viene dada por la energía emitida por las ondas electromagnéticas. La conducción es un
tipo de transferencia de calor que ocurre cuando dos objetos entran en contacto, o cuando el
calor se transfiere de un lado del mismo objeto al otro.
El mecanismo de transferencia de calor por conducción se basa en el movimiento de los
átomos. A medida que aumenta la temperatura, los átomos se mueven más rápido y también
empujan a los átomos vecinos, transfiriéndoles calor. La capacidad de un material para
conducir el calor se denomina conductividad térmica. Por ejemplo, el aire tiene baja
conductividad eléctrica, como la madera. Por otro lado, los metales como el aluminio y el hierro
tienen una alta conductividad térmica. Estos materiales son muy eficientes para conducir el
calor porque contienen electrones libres que transfieren energía más rápidamente desde las
áreas cálidas del cuerpo hacia las áreas frías.
La convención
Debido a que el aire caliente es menos denso, los globos aerostáticos flotan. Esto sucede
debido a la convección. La convección es una forma de transferencia de calor causada por el
movimiento de líquidos y gases de áreas calientes a áreas frías. Cuando un líquido se calienta,
su densidad disminuye, lo que hace que aumente. Las nubes se forman debido a procesos de
convección: el vapor de agua y el aire caliente se elevan desde la superficie de la tierra y luego
se condensan en el aire en forma de nubes.
Esta convección es natural o libre sin la intervención de fuerzas externas. Por otro lado, la
convección forzada ocurre cuando se aplica una fuerza para mover el fluido. Esto sucede
cuando usamos un ventilador para mover aire caliente a una habitación, o cuando movemos
algo en una olla sobre la estufa.
La evaporación es un proceso físico que consiste en una transición lenta y escalonada del
estado líquido al estado gaseoso después de ganar suficiente energía para superar la tensión
superficial.
A diferencia de la ebullición, la evaporación puede ocurrir a cualquier temperatura y es más
rápida a temperaturas más altas. No es necesario que toda la masa alcance el punto de
ebullición.
Si hay espacio libre encima del líquido, algunas de sus moléculas están en forma gaseosa. En
equilibrio, la cantidad de gas se define como la presión de vapor saturado, independiente del
volumen, pero dependiente del tipo de líquido y la temperatura. Si la cantidad de gas está por
debajo de la presión de vapor saturado, algunas de las moléculas cambiarán de la fase líquida
a la fase gaseosa. Esto es evaporación. La ebullición ocurre cuando la presión de vapor es
igual a la presión atmosférica.1
En hidrología, la evaporación es una de las variables hidrológicas clave para establecer el
balance hídrico de una cuenca hidrográfica particular o parte de ella. Se debe hacer una
distinción entre la evaporación del espacio abierto y la evaporación del suelo. La evaporación
del agua es importante y esencial porque cuando el vapor de agua se condensa, forma nubes y
regresa como lluvia, nieve, niebla o rocío.
SEMANA 10: LA ENTALPIA Y ENTROPÍA. APLICACIONES CLÍNICAS DE
TEMPERATURAS BAJAS. PROCESO DE TERMORREGULACIÓN CORPORAL EN BASE
A: GENERACIÓN, AISLAMIENTO Y PÉRDIDA TÉRMICA. DESCRIBE Y COMPARA LA
HIPOTERMIA E HIPERTERMIA.
Entalpía
Es una cantidad termodinámica denotada por la letra H mayúscula, y su cambio representa la
cantidad de energía absorbida o liberada por el sistema termodinámico, es decir, la cantidad de
energía intercambiada por el sistema con su entorno. A lo largo de la historia de la
termodinámica se han utilizado diferentes términos para denotar lo que hoy conocemos como
entalpía. Se cree que el término fue acuñado originalmente por Emile Clapeyron y Rudolf
Clausius utilizando la relación Clausius-Clapeyron publicada en Steam Tables and Diagrams de
Mollier en 1827, pero el término "entalpía" fue definido y utilizado por primera vez por el
holandés Heike. , a principios del siglo XX.1
Más concretamente, es una función del estado de la termodinámica, cuyo cambio puede
expresar calor en trabajo en proceso de transformación isobárica, es decir, a presión constante
en un sistema termodinámico, dado que cualquier objeto conocido puede entenderse como un
sistema termodinámico. Es un proceso que puede recibir o dar energía (por ejemplo, energía
para trabajo mecánico). En este sentido, la entalpía es numéricamente igual al intercambio de
calor con el medio exterior al sistema en cuestión. En la unidad SI, la entalpía generalmente se
mide en julios, que se introdujeron originalmente como unidad de trabajo. La entalpía más
típica es la llamada entalpía termodinámica. De ésta se puede distinguir la función de Gibbs,
que corresponde a la entalpía libre, mientras que la entalpía molar es un mol de la componente
del sistema. La presencia de un término de presión también permite el uso de la entalpía como
marcador de energía en ramas asociadas con diferencias de presión de volumen constante.
Este es el caso, por ejemplo, en el análisis del ciclo del gas, donde la entalpía se usa como una
variable de energía termodinámica porque permite una agrupación más compacta de los
términos de presión y energía interna.
Entropía
La entropía es una cantidad física con la que podemos determinar la fracción de energía que
no se puede utilizar para realizar trabajo. Es una función estatal amplia cuyo valor crece a
través de un proceso que ocurre naturalmente en un sistema aislado. La entropía describe la
irreversibilidad de un sistema termodinámico. La palabra entropía proviene del griego
(ἐντροπία) que significa evolución o transformación. Rudolf Clausius lo nombró y lo desarrolló
en la década de 1850; Ludwig Boltzmann descubrió una forma matemática de expresar este
concepto. La entropía de la función termodinámica es el núcleo de la segunda ley de la
termodinámica. La entropía se puede interpretar como una medida de la distribución aleatoria
de un sistema. Se dice que los sistemas que son altamente aleatorios tienen una entropía alta.
Los sistemas en condiciones inverosímiles tienden naturalmente a reorganizarse a condiciones
más probables (correspondientes a una distribución aleatoria), y el reordenamiento conduce a
un aumento de la entropía. A medida que el sistema tiende al equilibrio, la entropía alcanzará
un máximo y luego se alcanzará la configuración de mayor probabilidad.
La hipotermia y la hipertermia pueden estar asociadas con condiciones climáticas extremas
como: B. Largas estancias en climas fríos o, por el contrario, exposición al sol en climas
desérticos. Pero las personas mayores no tenemos que estar expuestas a ambientes extremos
para ser afectados.
Los cambios rápidos de temperatura, ambiente y humedad se encuentran entre las causas de
la mala salud en los ancianos. En Cuidum queremos mostrarte los riesgos que existen y la
mejor forma de protegerte de ellos.
Podemos hacer una pausa aquí por un momento y explicar en detalle qué es y cómo afecta a
las personas mayores. La hipotermia es una caída de la temperatura corporal por debajo de su
límite normal (p. ej., 35 °C), lo que provoca la pérdida de la capacidad del cuerpo para regular
la temperatura corporal, dificultad para moverse, confusión mental e insuficiencia de ciertos
órganos.
Este descenso de la temperatura corporal es muy común en las personas mayores, ya que los
mecanismos de termorregulación van cambiando con la edad y van acompañados de bajas
temperaturas en invierno. Reconocer el tipo de vigilancia que debemos imponer a las personas
mayores es una advertencia.
SEMANA 11: SONIDO, VELOCIDAD, LONGITUD DE ONDA Y FRECUENCIA. INTENSIDAD,
NIVEL SONORO Y POTENCIA ACÚSTICA. RANGO AUDITIVO Y EXPLICA LAS FASES DE
AUDICIÓN LOS ULTRASONIDOS. EL EFECTO DOPPLER Y SUS APLICACIONES EN
CIENCIAS DE LA SALUD
Las ondas sonoras son la propagación gradual de perturbaciones caracterizadas por la
vibración de las moléculas en el medio alrededor de sus posiciones de equilibrio (o estados de
reposo). De hecho, las moléculas experimentan un pequeño cambio de presión (presión
acústica) después de la perturbación inicial provocada por una fuente mecánica. Las moléculas
chocan entre sí para transferir deformaciones (rupturas), lo que resulta en
microdesplazamientos. Cuando pasa la perturbación, las moléculas vuelven a sus posiciones
originales. El sonido es la propagación de energía en un medio material sin transporte material.
Las ondas sonoras son la compresión/expansión continua de las moléculas. En esta animación,
la molécula se ve vibrando alrededor de su posición de equilibrio, moviéndose solo unas pocas
micras. longitud de onda
Una longitud de onda es la distancia que separa dos moléculas sucesivas en el mismo estado
vibracional (misma presión y velocidad del sonido), o la distancia que recorre una onda en un
período de tiempo determinado. En un entorno dado, la frecuencia y la longitud de onda están
relacionadas por la siguiente fórmula: λ = c / f = c * T ; donde λ es la longitud de onda en metros
(m) y c es metros por segundo (ms-1) La unidad es la velocidad de propagación de la onda, f
es la frecuencia (Hz) y T es el periodo (s). Para una frecuencia sinusoidal de 10 Hz y una
velocidad de onda igual a 340 ms-1, la longitud de onda es de 34 metros. Cuanto más larga es
la longitud de onda, más se reduce la frecuencia. Por el contrario, cuanto más corta es la
longitud, mayor es la frecuencia. volumen
La potencia sonora, expresada en vatios, es la energía que entrega una fuente sonora en un
determinado intervalo de tiempo. Se puede definir mediante la fórmula: P = E / At; donde P es
la potencia del sonido en vatios (W), E es la energía del sonido en julios (J) y At es el intervalo
de tiempo (s). Esta variable depende únicamente de las propiedades de la fuente. Tenga en
cuenta que esto no tiene nada que ver con la potencia eléctrica del sistema de sonido (como
los altavoces), que a veces es de decenas de vatios. La electricidad te permitirá crear energía
sonora. Intensidad del sonido (o densidad de potencia)
Expresada en vatios por metro cuadrado (Wm-2), la intensidad sonora corresponde a la
energía sonora que atraviesa una onda sonora perpendicular a una unidad de superficie en un
segundo. En el caso de una fuente de onda esférica, se relaciona con la potencia por la
fórmula: I = W / (4 * π * r ²), donde I es la intensidad del sonido (Wm-2), W es el volumen (W ) )
y r es el sonido Distancia r entre la fuente y el punto de medición (m). Por lo tanto, la fuerza
depende no solo de las características de la fuente, sino también de la distancia entre la fuente
y el punto de medición. Si se duplica la distancia entre el punto de medición y la fuente de luz,
la intensidad se divide por cuatro. Presión de sonido
La presión p es la tensión aplicada a la superficie del objeto. Corresponde a la potencia por
unidad de superficie. En reposo, la molécula está bajo presión atmosférica. Cuando cambia el
entorno, el movimiento de las moléculas provocará un cambio de presión local, que es la
presión del sonido. La relación entre presión sonora e intensidad sonora es: I = p² / (ρ * c),
donde I es la intensidad sonora (Wm-2), p es la presión sonora en un punto dado en Pascal
(Pa), y ρ es la densidad (kg.m-3), la velocidad de propagación de la onda c (ms-1). Cuando se
duplica la presión, la intensidad del sonido se multiplica por 4. período
Depende de cuándo se perturbe el medio ambiente. La unidad utilizada es el segundo (s). La
influencia de los medios en el sonido
Velocidad de onda: la velocidad del sonido
La respuesta de un fluido (medio) sometido a presión y expansión depende directamente del
estado del fluido y de su elasticidad. Por lo tanto, las ondas sonoras viajan a diferentes
velocidades dependiendo de ciertas características del medio por el que viajan: compresibilidad
(es decir, la capacidad de volver a su forma original después de la deformación) y densidad.
Estos dos componentes se ven afectados por varios parámetros como la temperatura, la
presión y los cambios ambientales. Cuanto mayor sea la velocidad (velocidad) de la onda,
menos importantes son estos dos componentes. La densidad se ve afectada por cosas como la
temperatura, la presión y cualquier cambio en el medio ambiente.
El efecto doppler y sus aplicaciones en ciencias de la salud
El efecto Doppler consiste en variaciones en la frecuencia y la longitud de onda recibidas en
relación con la frecuencia y la longitud de onda transmitidas causadas por el movimiento
relativo entre la fuente de onda y el receptor. Esto fue propuesto en 1842 por Christian Doppler
(1803-1853) en su artículo "Sobre los colores de la luz de las estrellas binarias y otras
estrellas". Fizeau descubrió de forma independiente el mismo fenómeno en 1848 (conocido en
Francia como el efecto Doppler Fizeau).
La ecografía Doppler es una prueba de imagen que utiliza ondas sonoras para mostrar el flujo
sanguíneo en los vasos sanguíneos. La ecografía convencional también utiliza ondas sonoras
para crear imágenes de las estructuras internas del cuerpo, pero no puede mostrar la sangre
circulante. La ecografía Doppler mide las ondas sonoras reflejadas por objetos en movimiento,
como los glóbulos rojos. Esto se conoce como el efecto Doppler. Para una mejor comprensión
del efecto Doppler, puede utilizar la animación moderus adjunta. En esta animación, un punto
focal emite una onda circular de cierta frecuencia y longitud de onda. Puede cambiar la
velocidad del punto focal, la longitud de onda de emisión y comprobar el efecto en la onda
recibida. Mientras que la fuente está estacionaria, los frentes de onda a su alrededor son
concéntricos y están igualmente espaciados en todas las direcciones. En todas partes, la
longitud de onda y la frecuencia recibidas son las mismas que las emitidas. Sin efecto Doppler.
Sin embargo, a medida que el punto focal se mueve, emite frentes de onda sucesivos desde
diferentes posiciones. Los frentes de onda ya no son concéntricos porque la velocidad de
propagación de la onda es independiente del movimiento de este punto focal. El frente de onda
se comprime en la dirección en que se mueve el foco y se separa en la dirección en que se
aleja el foco. Como resultado, la longitud de onda recibida será mayor en las áreas donde el
transmisor se aleja y menor en las áreas donde se acerca. A menudo sucede lo contrario.
SEMANA 12: NATURALEZA Y FENÓMENOS DE LA LUZ VISIBLE. EL PROCESO DE
VISIÓN NORMAL: ACOMODACIÓN, AGUDEZA Y CAMPO VISUAL. LOS LENTES Y LA
FORMACIÓN DE IMÁGENES REALES Y VIRTUALES. LA MIOPÍA, HIPERMETROPÍA,
PRESBICIA Y ASTIGMATISMO. LA VISIÓN DE COLORES
Son estas diferencias las que hacen que una onda electromagnética sea diferente de otra.
Cuando las ondas electromagnéticas se ordenan según su frecuencia o longitud de onda,
forman un espectro electromagnético continuo. La luz visible es sólo una pequeña parte de ella.
Con longitudes de onda en el estrecho rango de 380 nanómetros a 780 nanómetros, componen
la luz visible, que es un espectro entre violeta y rojo. Las longitudes de onda más cortas que la
luz se denominan luz ultravioleta. Están iluminados por el sol. Esta radiación es dañina para los
seres vivos de nuestro planeta, pero es absorbida y transformada por la capa de ozono de la
Tierra. Los más cortos son los rayos X, cuyas longitudes de onda son comparables al tamaño
de un átomo. Finalmente, los rayos gamma tienen las longitudes de onda más cortas y son tan
pequeños como los núcleos atómicos. Se producen en reacciones nucleares. Las ondas con
longitudes de onda más largas que la luz visible son ondas de luz infrarroja que tienen
longitudes de onda más largas que la luz roja. La radiación infrarroja solo puede ser detectada
por el calor que emite. El universo está bañado en radiación de onda larga, que se cree que es
un remanente frío del Big Bang. Esto incluye no solo la radiación infrarroja, sino también las
microondas. Las microondas son la primera parte del espectro cuyas frecuencias son lo
suficientemente bajas como para generar corriente alterna artificial en los circuitos electrónicos.
El universo también está lleno de ondas de radio, y estas ondas de radio con longitudes de
onda de centímetros, metros o incluso kilómetros forman el espectro visible.
UNIDAD IV: ELECTROMAGNETISMO, RADIACIONES IONIZANTES Y PROCESO DE
OBTENCIÓN DE IMÁGENES MEDIANTE RAYOS X, RESONANCIA MAGNÉTICA,
TOMOGRAFÍA, ETC.
SEMANA 13: INTERACCIÓN ENTRE CARGAS ELÉCTRICAS, LEY DE COULOMB. LA
CORRIENTE, RESISTENCIA Y POTENCIAL. CAMPO ELÉCTRICO Y CONDENSADORES.
CIRCUITOS ELÉCTRICOS. LEY DE KIRCHHOFF
La historia de la electricidad nos dice que la primera experiencia de los fenómenos eléctricos
fue la observación de que ciertas sustancias, rozándose unas con otras, adquieren la propiedad
de atraer a otras sustancias (triboelectrificación). Se dice que estos objetos adquieren una
nueva propiedad llamada electricidad, a través de la cual pueden ejercer un nuevo tipo de
fuerza: interacción o electricidad. A menudo se dice que estos objetos están cargados o
cargados. Formalmente, la ley de Coulomb para esta interacción eléctrica es muy similar a la
ley gravitatoria para las interacciones gravitatorias: en ambos casos, la fuerza entre dos
cuerpos es inversamente proporcional al cuadrado de la distancia que los separa; En el caso
de la gravedad, la fuerza es proporcional al producto de las cargas, y en el caso de la
gravedad, al producto de las masas. Sin embargo, existen algunas diferencias importantes
entre ambas: mientras que todas las masas se atraen, como ya hemos visto, las cargas son de
dos tipos (positivas y negativas), y las fuerzas entre ellas pueden atraerse (si las cargas son de
signo opuesto) o se repelen (si las cargas tienen el mismo signo); la interacción eléctrica es
mucho más fuerte que la interacción gravitatoria: las fuerzas eléctricas son típicamente de 1036
a 1040 veces más fuertes que la gravedad. De hecho, las interacciones eléctricas son la razón
por la cual los átomos y las moléculas interactúan, mientras que las interacciones gravitatorias
resultan ser demasiado débiles para mostrar estas estructuras: las interacciones eléctricas son
del orden necesario para formar enlaces entre átomos para formar moléculas, o electrones y
átomos forman enlaces. . entre protones.
Ley de Coulomb
La ley de Coulomb se usa en física para calcular la fuerza eléctrica entre dos cargas en reposo.
De acuerdo con esta ley, es posible predecir cuánta atracción o repulsión electrostática existe
entre dos partículas, dependiendo de su carga y la distancia entre ellas. La ley de Coulomb
lleva el nombre del físico francés Charles Augustine de Coulomb, quien la formuló en 1875 y
constituye la base de la electrostática.
La corriente
La corriente es la velocidad a la que el flujo de electrones pasa a través de un punto en un
circuito completo. Básicamente corriente = flujo.
Ampere (AM-pir) o A es la unidad internacional de corriente eléctrica. Indica el número de
electrones (también llamados "carga") que pasan por un punto del circuito en un tiempo
determinado.
Una corriente de 1 amperio significa que 1 culombio de electrones, equivalente a 6,24 billones
(6,24 x 1018) de electrones, pasa por un punto del circuito en 1 segundo. Este cálculo es
similar a medir el flujo de agua. Es decir, la cantidad de galones (galones por minuto o GPM)
que fluyen por el mismo punto de la tubería en un minuto.
Resistencia y potencial
La potencia es la velocidad a la que se consume la energía.
La potencia también se puede definir como la energía producida o consumida en una unidad de
tiempo.
Si la potencia (P) se mide en vatios (W), la energía (E) se expresa en julios (J) y el tiempo (t) en
segundos, en honor al vatio de Santiago.
La resistencia eléctrica es un término que describe la resistencia al flujo de corriente en un
conductor. El principio que hoy lleva su nombre.
Campo eléctrico y condensadores
Un capacitor es un dispositivo que almacena carga debido a la diferencia de potencial entre dos
placas y el campo eléctrico que se ve a través del capacitor cuando se aplica una fuente de
voltaje. Se crea una diferencia de potencial por el transporte de electrones desde el terminal
positivo al terminal negativo del capacitor y la formación de un campo eléctrico dentro del
capacitor. Esta diferencia de carga almacena energía eléctrica en forma de potencial de carga,
proporcional a la densidad de carga en cada placa. Fórmula de campo eléctrico de un capacitor
Al igual que las cargas positivas y negativas, las placas del condensador actúan como placas
aceptoras y donantes cuando la fuente pasa a través de ellas. El terminal positivo del capacitor
emite electrones y estos electrones libres son recogidos por el terminal negativo del capacitor.
Debido a la movilidad de la carga libre, el flujo de electricidad ingresa al capacitor y todo el
campo eléctrico ingresa al capacitor. La densidad de carga en la placa de un capacitor se
denomina densidad superficial y se expresa como la carga presente en la superficie de la placa
por unidad de área, expresada como σ = P/R. del condensador. campo electrico en un
capacitor
Un condensador tiene dos placas con dos densidades de carga diferentes. La corriente pasa a
través de ambos lados de cada placa, por lo que el área = 2A. Imagine dos placas con
densidades de carga superficial positiva y negativa separadas por una distancia 'd'. Sea A el
área de la placa. Las líneas de campo magnético se extienden desde la placa cargada
positivamente hasta la placa con más portadores de carga negativa
Ley de Kirchhoff
Las leyes de Kirchhoff fueron formuladas en 1824 por Gustav Robert Kirchhoff, un físico
alemán especializado en circuitos eléctricos. A partir de las ecuaciones de Maxwell, es posible
derivar las leyes de los circuitos eléctricos, también llamadas leyes de red. Estas dos leyes de
Kirchhoff son las mismas leyes que se encuentran en los circuitos eléctricos y están
respaldadas por el principio de la energía. Las leyes de Kirchhoff consisten en dos leyes de
Kirchhoff:
• Nodo o ley de corriente = la suma de las corrientes que se encuentran en un nodo dado
(conexión de dos o más conductores) es igual a la suma de las corrientes salientes totales.
Conservación de la carga: ∑I entrada = ∑I salida
• Ley de Circuitos Eléctricos o Ley de Voltaje = Ley de Circuitos Eléctricos también puede
llamarse Ley de Red o Ley de Voltaje. Esta ley establece que la suma algebraica de voltajes en
un circuito cerrado es igual a cero. Aunque oficialmente hay 2 leyes, hay una relación porque
hay una diferencia entre actual y atención. Ventajas de las Leyes de Kirchhoff
Las leyes de Kirchhoff nos permiten calcular simplemente la corriente y el voltaje. Por otro lado,
la simplificación y el análisis de circuitos cerrados pueden invertirse. Aplicación de las leyes de
Kirchhoff
En ingeniería eléctrica, las dos leyes de Kirchhoff se utilizan para obtener corriente y voltaje en
un punto dado de un circuito. Las ecuaciones de Kirchhoff nos permiten calcular el aumento de
entalpía a diferentes temperaturas. Dependiendo de la temperatura podemos encontrar
diferentes tipos de entalpía tales como: entalpía de formación, entalpía de descomposición,
entalpía de combustión y entalpía de neutralización. El cálculo de la entalpía es una ecuación
que es importante para la termodinámica. Según la ley de radiación térmica de Kirchhoff, esta
establece que la emisividad de una superficie es igual a su absorción. Para determinar la suma
de n resistencias, usando las leyes de Kirchhoff, podemos encontrar las resistencias en serie y
en paralelo. En las resistencias en serie, están conectadas espalda con espalda como se
muestra en la figura, por lo que si una deja de funcionar, también lo hacen las demás. En las
resistencias en paralelo, por el contrario, tienen las mismas entradas pero diferentes salidas;
por lo tanto, si uno deja de funcionar, los demás no se ven afectados y continúan trabajando.
SEMANA 14: LA ESTRUCTURA ATÓMICA, ISOTOPOS, NUCLEÍDOS. LA RADIACTIVIDAD
DE ELEMENTOS; RADIACIONES ALFA, BETA, GAMMA. EFECTOS FOTOELÉCTRICOS Y
COMPTON. LA DOSIMETRÍA Y LOS EFECTOS BIOLÓGICOS.
En un átomo, distinguimos dos partes: el núcleo y la capa externa. - El núcleo es la parte
central del átomo y contiene partículas con carga positiva, protones y partículas sin carga, es
decir, neutrones neutros. La masa de un protón es aproximadamente igual a la masa de un
neutrón. Todos los átomos de un elemento químico tienen el mismo número de protones en el
núcleo. El número que identifica a cada elemento y lo distingue de los demás es el número
atómico, denotado con la letra Z. - La cáscara es la superficie exterior del átomo. Aquí hay
electrones, cargados negativamente.
Están dispuestos en diferentes capas que giran alrededor del núcleo. La masa de un electrón
es unas 2000 veces menor que la masa de un protón. Los átomos son eléctricamente neutros
porque tienen el mismo número de protones que de electrones. Por tanto, el número atómico
también coincide con el número de electrones.
Isótopo
La suma del número de protones y neutrones en un átomo se llama número de masa, indicado
por la letra A. Aunque todos los átomos de un mismo elemento se caracterizan por el mismo
número atómico, pueden tener diferente número de neutrones. Nos referimos a formas
atómicas del mismo elemento que difieren en número de masa como isótopos.
Para denotar un isótopo, el número de masa (A) y el número atómico (Z) del isótopo se deben
dar a la izquierda del símbolo del elemento como un subíndice y un subíndice,
respectivamente.
SEMANA 15: LOS PRINCIPIOS FÍSICOS Y EFECTOS DE OPERATIVIDAD DE SISTEMAS
DE RADIOLOGÍA, TOMOGRAFÍA, GAMMAGRAFÍA, ETC. SUSTENTACIÓN DE TRABAJOS
DE INVESTIGACIÓN
Sistema de Radiología
En general, la radiología es una rama de la medicina que utiliza imágenes para diagnosticar y
tratar lesiones y enfermedades. Se originó a fines del siglo XIX cuando Wilhelm Roentgen
descubrió los rayos X en 1895; un descubrimiento que le valió el Premio Nobel de Física en
1901. Aunque inicialmente se debatió la aplicación médica del descubrimiento de Roentgen, ya
en 1903 se publicaron las primeras imágenes de rayos X de la neumonía, así como el potencial
de la técnica en la lucha contra la tuberculosis, la principal enfermedad de la época. Durante la
Primera Guerra Mundial, el Ejército de los EE. UU. usó rutinariamente rayos X para reducir las
bajas.
Tomografía
Se conoce como tomografía a una técnica que permite registrar imágenes de diferentes planos
o partes del cuerpo. Este método implica el uso de un dispositivo llamado tomoscanner, que le
permite obtener tomogramas (las imágenes correspondientes). Por ejemplo, las tomografías
computarizadas se utilizan para diagnosticar, investigar y tratar el cáncer. También brindan la
oportunidad de estudiar los vasos sanguíneos, diagnosticar infecciones o como guía para los
cirujanos. Si una persona tropieza y se golpea la cabeza durante una caída, el médico puede
solicitar una tomografía computarizada del cráneo. Gracias a estas imágenes, podrás ver si hay
daño cerebral, sangrado o daño por choque. Usando estos datos, los especialistas pueden
hacer recomendaciones de tratamiento.
Gammagrafía
Los radionúclidos se utilizan en la gammagrafía para producir imágenes. Un radionúclido es
una forma radiactiva de un elemento, lo que significa que es un átomo inestable que se vuelve
más estable cuando libera energía en forma de radiación. La mayoría de los radionúclidos
liberan fotones de alta energía, como los rayos gamma (rayos X que se producen naturalmente,
no los produce el hombre) o partículas (como los positrones, que se utilizan en la tomografía
por emisión de positrones). (Consulte también Introducción a las lesiones por radiación y las
pruebas de diagnóstico por la imagen).
Los radionúclidos se usan para tratar ciertas enfermedades, como la enfermedad de la tiroides.
SEMANA 16: LOS PRINCIPIOS FÍSICOS Y EFECTOS DE RESONANCIA MAGNÉTICA,
VALORANDO EN RELACIÓN A OTROS SISTEMAS DE DIAGNÓSTICO DE IMÁGENES.
SUSTENTACIÓN DE TRABAJOS DE INVESTIGACIÓN
La resonancia magnética es una técnica de imagen no invasiva que produce imágenes
tridimensionales detalladas de la anatomía sin el uso de radiación dañina. A menudo se utiliza
para la detección de enfermedades, el diagnóstico y el seguimiento del tratamiento. Se basa en
una tecnología sofisticada que estimula y registra los cambios en la dirección del eje de
rotación de los protones en el agua que forma el tejido vivo.
¿Cómo funciona una resonancia magnética?
La resonancia magnética utiliza imanes potentes para crear un fuerte campo magnético que
hace que los protones del cuerpo se alineen con ese campo. Cuando los pulsos de corriente de
radiofrecuencia pasan a través del paciente, los protones son estimulados y desequilibrados
por la fuerza del campo magnético. Cuando el campo de radiofrecuencia está apagado, el
sensor MR puede detectar la energía liberada cuando los protones chocan con el campo
magnético.
El tiempo que tardan los protones en adaptarse al campo magnético y la cantidad de energía
liberada varía según el entorno y la química de la molécula. Los médicos pueden usar estos
magnetismos para distinguir entre diferentes tipos de tejido. Para obtener una imagen de
resonancia magnética, el paciente se coloca dentro de un imán muy grande y debe permanecer
quieto durante el procedimiento para que la imagen no se vea borrosa. Se puede administrar
un agente de contraste (que generalmente contiene el elemento gadolinio) por vía intravenosa
a los pacientes antes o durante una resonancia magnética para aumentar la velocidad a la que
los protones se adaptan al campo magnético.
Cuanto más rápido se reordenan los protones, más brillante es la imagen. Un nuevo método de
resonancia magnética de difusión proporciona información sin precedentes sobre las
conexiones en el cerebro. Los escáneres de resonancia magnética son particularmente buenos
para obtener imágenes de partes del cuerpo que no son esqueléticos ni tejidos blandos. Se
diferencian de la tomografía computarizada (TC) en que no utilizan la dañina radiación
ionizante de los rayos X. El cerebro, la médula espinal y los nervios, así como los músculos, los
ligamentos y los tendones, son más claramente visibles en una resonancia magnética que en
una resonancia magnética. Rayos X regulares y tomografías computarizadas; por esta razón, la
resonancia magnética se usa a menudo para obtener imágenes de lesiones en la rodilla y el
hombro.
En el cerebro, la resonancia magnética puede distinguir la materia blanca de la materia gris y
también se puede usar para diagnosticar aneurismas y tumores. Debido a que la resonancia
magnética no utiliza rayos X u otra radiación, es el método de imagen de elección cuando se
requieren imágenes frecuentes para el diagnóstico o tratamiento, particularmente del cerebro.
Pero la resonancia magnética es más costosa que la radiografía o la tomografía
computarizada. Un tipo especializado de MRI es la resonancia magnética funcional (fMRI). Se
utiliza para observar las estructuras cerebrales y determinar qué áreas del cerebro se "activan"
(utilizan la mayor cantidad de oxígeno) durante diversas tareas cognitivas. Se está utilizando
para mejorar nuestra comprensión de la organización del cerebro y proporciona un nuevo
estándar potencial para evaluar el estado neurológico y el riesgo neuroquirúrgico.