0% encontró este documento útil (0 votos)
229 vistas147 páginas

Bioingeniería Teoría Parcial

La bioingeniería aplica principios de ingeniería a sistemas biológicos y tecnologías biomédicas. Los estudiantes de bioingeniería aprenden fundamentos de biología e ingeniería que les permiten especializarse en áreas como la ingeniería de tejidos, dispositivos médicos, y bacterias diseñadas para producir químicos. Los graduados tienen éxito en la academia, la medicina y diversas industrias.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
229 vistas147 páginas

Bioingeniería Teoría Parcial

La bioingeniería aplica principios de ingeniería a sistemas biológicos y tecnologías biomédicas. Los estudiantes de bioingeniería aprenden fundamentos de biología e ingeniería que les permiten especializarse en áreas como la ingeniería de tejidos, dispositivos médicos, y bacterias diseñadas para producir químicos. Los graduados tienen éxito en la academia, la medicina y diversas industrias.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

UCLA berkeley

La bioingeniería es una disciplina que aplica principios de ingeniería de diseño y


análisis a sistemas biológicos y tecnologías biomédicas.
Los ejemplos de investigación en bioingeniería incluyen bacterias diseñadas para producir
químicos, nueva tecnología de imágenes médicas, dispositivos portátiles de diagnóstico de
enfermedades y órganos diseñados por ingeniería de tejidos.

Los estudiantes de bioingeniería están capacitados en fundamentos de biología e


ingeniería, que pueden incluir elementos de ingeniería eléctrica y mecánica, ciencias
de la computación, ciencia de materiales, química y biología.
Esta amplitud permite a los estudiantes y profesores especializarse en sus áreas de interés y
colaborar ampliamente con investigadores en campos afines.

Los graduados continúan con carreras exitosas en la academia, la medicina y una amplia
variedad de industrias.
britanico
Bioingeniería, la aplicación del conocimiento de la ingeniería a los campos de la
medicina y la biología. El bioingeniero debe estar bien fundamentado en biología y
tener un amplio conocimiento de ingeniería, basado en disciplinas de ingeniería
eléctrica, química, mecánica y otras.
El bioingeniero puede trabajar en una amplia gama de áreas. Uno de ellos es la provisión de
medios artificiales para ayudar a las funciones corporales defectuosas, como audífonos,
miembros artificiales y órganos de apoyo o sustitutos. En otra dirección, el bioingeniero
puede utilizar métodos de ingeniería para lograr la biosíntesis de productos animales o
vegetales, como en los procesos de fermentación.

Historia
Antes de la Segunda Guerra Mundial, el campo de la bioingeniería era esencialmente
desconocido y existía poca comunicación o interacción entre el ingeniero y el científico de
la vida. Sin embargo, conviene señalar algunas excepciones.
El ingeniero agrícola y el ingeniero químico, involucrados en los procesos de
fermentación, siempre han sido bioingenieros en el sentido más amplio de la
definición, ya que se ocupan de sistemas biológicos y trabajan con biólogos.
El ingeniero civil, especializado en saneamiento, ha aplicado principios biológicos en el
trabajo. Los ingenieros mecánicos han trabajado con la profesión médica durante muchos
años en el desarrollo de miembros artificiales. Otra área de la ingeniería mecánica que
pertenece al campo de la bioingeniería es el campo del aire acondicionado.
A principios de la década de 1920, la Sociedad Estadounidense de Ingenieros de
Calefacción y Ventilación contrató a ingenieros y fisiólogos para estudiar los efectos
de la temperatura y la humedad en los seres humanos y proporcionar criterios de
diseño para los sistemas de calefacción y aire acondicionado.

Hoy en día existen muchos más ejemplos de interacción entre biología e ingeniería,
particularmente en los campos médico y de soporte vital. Además de una mayor conciencia
de la necesidad de comunicación entre el ingeniero y el asociado en las ciencias de la vida,
existe un reconocimiento cada vez mayor del papel que el ingeniero puede desempeñar en
varios de los campos biológicos, incluida la medicina humana, y, asimismo, un conciencia
de las contribuciones que la ciencia biológica puede hacer a la solución de problemas de
ingeniería.

Gran parte del aumento de la actividad de bioingeniería se puede atribuir a los ingenieros
eléctricos.
En la década de 1950, las reuniones de bioingeniería estaban dominadas por sesiones
dedicadas a la electrónica médica.
instrumentación médica y la electrónica médica siguen siendo las principales áreas de
interés, pero el modelado biológico, la dinámica del flujo sanguíneo, la prótesis, la
biomecánica (dinámica del movimiento corporal y la resistencia de los materiales), la
transferencia biológica de calor, los biomateriales y otras áreas ahora se incluyen en la
conferencia programas.
La bioingeniería se desarrolló a partir de deseos o necesidades específicos:
el deseo de los cirujanos de evitar el corazón, la necesidad de órganos de reemplazo, la
necesidad de soporte vital en el espacio y muchos más. En la mayoría de los casos, la
interacción y la educación tempranas fueron el resultado de contactos personales entre el
médico o el fisiólogo y el ingeniero. La comunicación entre el ingeniero y el científico de la
vida se reconoció inmediatamente como un problema. La mayoría de los ingenieros que
incursionaron en el campo en sus primeros días probablemente tuvieron una exposición a la
biología a través de un curso de la escuela secundaria y no trabajaron más. Para superar este
problema, los ingenieros comenzaron a estudiar no solo el tema, sino también los métodos
y técnicas de sus contrapartes en medicina, fisiología, psicología y biología. Gran parte de
la información fue autodidacta o se obtuvo a través de asociaciones y discusiones
personales. Finalmente, reconociendo la necesidad de ayudar a superar la barrera de la
comunicación, así como a preparar a los ingenieros para el futuro, las escuelas de ingeniería
desarrollaron cursos y planes de estudio en bioingeniería.
Ramas de la bioingeniería
Ingeniería médica. La ingeniería médica se refiere a la aplicación de principios de
ingeniería a problemas médicos, incluida la sustitución de órganos dañados,
instrumentación y sistemas de atención de la salud, incluidas las aplicaciones de
diagnóstico de las computadoras.
Ingeniería Agricola. Esto incluye la aplicación de principios de ingeniería a los problemas
de la producción biológica y a las operaciones externas y al entorno que influyen en esta
producción.
Biónica. La biónica es el estudio de los sistemas vivos para que el conocimiento adquirido
se pueda aplicar al diseño de sistemas físicos.
Ingeniería bioquímica. La ingeniería bioquímica incluye la ingeniería de fermentación, la
aplicación de principios de ingeniería a sistemas biológicos microscópicos que se utilizan
para crear nuevos productos por síntesis, incluida la producción de proteínas a partir de
materias primas adecuadas.
Ingeniería de factores humanos. Se trata de la aplicación de la ingeniería, la fisiología y la
psicología a la optimización de la relación hombre-máquina.
Ingeniería en salud ambiental. También llamada ingeniería bioambiental, este campo se
refiere a la aplicación de principios de ingeniería al control del medio ambiente para la
salud, la comodidad y la seguridad de los seres humanos. Incluye el campo de los sistemas
de soporte vital para la exploración del espacio ultraterrestre y el océano.
Ingeniería genética. La ingeniería genética se ocupa de la manipulación, modificación y
recombinación artificial de ácido desoxirribonucleico (ADN) u otras moléculas de ácido
nucleico para modificar un organismo. Las técnicas empleadas en este campo han llevado a
la producción de productos de importancia médica, incluida la insulina humana, la hormona
del crecimiento humana y la vacuna contra la hepatitis B.
Los editores de la Encyclopaedia Britannica

Bioing31 es bueno

Also called biomedical engineering. the application of engineering principles and


techniques to problems in medicine and biology, as the design and production of artificial
limbs miembros and organs.
the branch of engineering that deals with applications of biological processes to the
manufacture of products, as the use of fermentation to produce beer.

la aplicación de principios, prácticas y tecnologías de ingeniería a los campos de la


medicina y la biología, especialmente en la resolución de problemas y la mejora de la
atención (como en el diseño de dispositivos médicos y equipos de diagnóstico o la creación
de biomateriales y productos farmacéuticos): INGENIERÍA BIOMÉDICA
2: la aplicación de técnicas biológicas (como la recombinación genética) para crear
versiones modificadas de organismos (como cultivos)
Dominios de la ingeniería basada en biología.

Fondo
Blanco bioingeniería (ingeniería biomédica),
Gris biotecnología e ingeniería biológica
Diagonal ingeniería agrícola
Punteado ingeniería ambiental
Ladrillo ingeniería industrial
blanco / gris o diagonal / asociados con más de un campo
gris

Aunque el alcance de la bioingeniería es grande, no agota ni posibles interacciones entre


biología e ingeniería. La figura 1.1 muestra una colección de subdisciplinas que representan
muchas de las áreas en las que la biología y la ingeniería intersecarse. Los que tienen
fondos blancos serían considerados por la mayoría expertos como bioingeniería. Los que
tienen fondos grises son biotecnología, y los que están sombreados de blanco a gris son
áreas importantes tanto para la bioingeniería y biotecnología. En particular, áreas de
enfoque en bioinformática y biomolecular la ingeniería está surgiendo en más
departamentos de ingeniería biomédica. Diagonal la eclosión representa la ingeniería
agrícola, el punteado representa el medio ambiente la ingeniería y los antecedentes de
ladrillo son áreas frecuentemente asociadas con la industria o ingeniería mecánica.) están
asociados con más de un campo
Bioing32
La bioingeniería se define generalmente como una actividad básica orientada a la
investigación estrechamente relacionada con la biotecnología y Ingeniería genética, es decir,
la modificación de células animales o vegetales, o partes de células, para mejorar las plantas.o
animales o para desarrollar nuevos microorganismos con fines beneficiosos. En la industria
alimentaria, por ejemplo, este ha supuesto la mejora de cepas de levadura para fermentación.
En agricultura, los bioingenieros pueden ser preocupado por la mejora de los rendimientos
de los cultivos mediante el tratamiento de plantas con organismos para reducir las heladas
dañar. Está claro que los bioingenieros del futuro tendrán un impacto tremendo en las
cualidades de vida humana. El potencial de esta especialidad es difícil de imaginar. Considere
las siguientes actividades de
bioingenieros:
• Desarrollo de especies mejoradas de plantas y animales para la producción de
alimentos.
• Invención de nuevas pruebas de diagnóstico médico para enfermedades.
• Producción de vacunas sintéticas a partir de células clonadas
• Ingeniería bioambiental para proteger la vida humana, animal y vegetal de sustancias
tóxicas y contaminantes
• Estudio de las interacciones proteína-superficie
• Modelado de la cinética de crecimiento de células de levadura e hibridoma
• Investigación en tecnología de enzimas inmovilizadas
• Desarrollo de proteínas terapéuticas y anticuerpos monoclonales

Los ingenieros biomédicos, por otro lado, aplican sistemas eléctricos, mecánicos, químicos,
ópticos y otros principios de ingeniería para comprender, modificar o controlar sistemas
biológicos (es decir, humanos y animales), como así como diseñar y fabricar productos que
puedan monitorear las funciones fisiológicas y ayudar en el diagnóstico y tratamiento de
pacientes. Cuando los ingenieros biomédicos trabajan en un hospital o clínica, son más
llamados ingenieros clínicos.

Actividades de los ingenieros biomédicos


La amplitud de actividad de los ingenieros biomédicos es ahora significativa. El campo ha
pasado de ser principalmente con el desarrollo de instrumentos médicos en las décadas de
1950 y 1960 para incluir una un conjunto de actividades más amplio. Como se ilustra a
continuación, el campo de la ingeniería biomédica ahora incluye muchas áreas profesionales
nuevas (ver Figura 1), cada una de las cuales se presenta en este manual. Estas áreas incluyen:
• Aplicación de análisis de sistemas de ingeniería (modelado fisiológico, simulación y
control) para problemas biológicos
• Detección, medición y monitoreo de señales fisiológicas (es decir, biosensores y
biomédicos instrumentación)
• Interpretación de diagnóstico mediante técnicas de procesamiento de señales de datos
bioeléctricos
• Procedimientos y dispositivos terapéuticos y de rehabilitación (ingeniería de
rehabilitación)
• Dispositivos para reemplazo o aumento de funciones corporales (órganos artificiales)
• Análisis informático de datos relacionados con el paciente y toma de decisiones clínicas
(es decir, informática médica e inteligencia artificial)
• Imágenes médicas, es decir, la visualización gráfica de detalles anatómicos o funciones
fisiológicas
• La creación de nuevos productos biológicos (es decir, biotecnología e ingeniería de
tejidos)
• El desarrollo de nuevos materiales para ser utilizados dentro del cuerpo (biomateriales).
Por lo tanto, las actividades típicas de los ingenieros biomédicos incluyen:
• Investigación en nuevos materiales para órganos artificiales implantados
• Desarrollo de nuevos instrumentos de diagnóstico para análisis de sangre.
• Modelado por computadora de la función del corazón humano
• Software de escritura para el análisis de datos de investigación médica
• Análisis de los peligros de los dispositivos médicos para su seguridad y eficacia.
• Desarrollo de nuevos sistemas de diagnóstico por imagen
• Diseño de sistemas de telemetría para seguimiento de pacientes
• Diseño de sensores biomédicos para la medición de variables de sistemas fisiológicos
humanos
• Desarrollo de sistemas expertos para el diagnóstico de enfermedades.
• Diseño de sistemas de control de circuito cerrado para la administración de medicamentos
• Modelado de los sistemas fisiológicos del cuerpo humano
• Diseño de instrumentación para medicina deportiva
• Desarrollo de nuevos materiales dentales
• Diseño de ayudas a la comunicación para minusválidos
• Estudio de la dinámica del fluido pulmonar
• Estudio de la biomecánica del cuerpo humano
• Desarrollo de material para ser utilizado como reemplazo de la piel humana.
La ingeniería biomédica, entonces, es una rama interdisciplinaria de la ingeniería que va
desde la teoría, compromisos no experimentales con aplicaciones de última generación.
Puede abarcar investigación, desarrollo, Implementación y operación. En consecuencia, al
igual que la práctica médica en sí, es poco probable que ningún persona puede adquirir
experiencia que abarca todo el campo. Sin embargo, debido a la naturaleza interdisciplinaria
de esta actividad, existe una interacción considerable y una superposición de intereses y
esfuerzos entre ellos.
Por ejemplo, los ingenieros biomédicos que participan en el desarrollo de biosensores pueden
interactuar con aquellos interesado en dispositivos protésicos para desarrollar un medio para
detectar y utilizar la misma señal bioeléctrica para alimentar un dispositivo protésico.
Quienes se dedican a la automatización del laboratorio de química clínica pueden colaborar
con los que desarrollan sistemas expertos para ayudar a los médicos a tomar decisiones
basadas en datos de laboratorio específicos.

Las posibilidades son infinitas.


Quizás un beneficio potencial mayor que se obtiene del uso de la ingeniería biomédica es la
identificación de los problemas y necesidades de nuestro sistema de salud actual que se
pueden resolver utilizando la ingeniería existente tecnología y metodología de sistemas. En
consecuencia, el campo de la ingeniería biomédica ofrece esperanza en la batalla continua
para brindar atención de alta calidad a un costo razonable. Si está debidamente dirigido a
resolver problemas relacionados con enfoques médicos preventivos, servicios de atención
ambulatoria y similares, biomédicos los ingenieros pueden proporcionar las herramientas y
técnicas para hacer que nuestro sistema de atención médica sea más efectivo y eficiente;
y en el proceso, mejorar la calidad de vida de todos.

Origen de las señales biomédicas (Pag 1-2)

De la amplia definición de señal biomédica presentada en la sección anterior, queda claro


que Las señales biomédicas difieren de otras señales solo en términos de la aplicación:
señales que se utilizan en el campo biomédico. Como tal, las señales biomédicas se
originan en una variedad de fuentes. Lo siguiente es un breve descripción de estas fuentes:

1. Señales bioeléctricas. La señal bioeléctrica es exclusiva de los sistemas biomédicos. Es


generado por células nerviosas y células musculares. Su fuente es el potencial de membrana,
que en determinadas condiciones puede excitarse para generar un potencial de acción. En
mediciones de celda única, donde se utilizan microelectrodos específicos como sensores, el
potencial de acción en sí mismo es la señal biomédica. En medidas más brutas, donde, para
Por ejemplo, los electrodos de superficie se utilizan como sensores, el campo eléctrico
generado por la acción de muchas células, distribuida en las proximidades del electrodo,
constituye la señal bioeléctrica. Las señales bioeléctricas probablemente las bioseñales más
importantes. El hecho de que los biosistemas más importantes usen células excitables hace
que posible utilizar bioseñales para estudiar y monitorizar las principales funciones de los
sistemas. El campo eléctrico se propaga a través del medio biológico y, por lo tanto, el
potencial puede adquirirse en condiciones relativamente convenientes ubicaciones en la
superficie, eliminando la necesidad de invadir el sistema. La señal bioeléctrica requiere un
transductor relativamente simple para su adquisición. Se necesita un transductor porque la
conducción eléctrica en el medio biomédico se realiza por medio de iones, mientras que la
conducción en el sistema de medición es por electrones. Todo esto lleva al hecho de que la
señal bioeléctrica se usa ampliamente en la mayoría de los campos de la biomedicina.

2. Señales de bioimpedancia. La impedancia del tejido contiene información importante


sobre su composición, volumen sanguíneo, distribución sanguínea, actividad endocrina,
actividad automática del sistema nervioso, y más. La señal de bioimpedancia generalmente
se genera inyectando en el tejido bajo prueba sinusoidal corrientes (rango de frecuencia de
50 kHz – 1 MHz, con densidades de corriente bajas del orden de 20–20 mA). Los rango de
frecuencia se elige para minimizar los problemas de polarización del electrodo, y las bajas
densidades de corriente son elegido para evitar daños en los tejidos debido principalmente a
los efectos del calentamiento. Las mediciones de bioimpedancia suelen realizado con cuatro
electrodos. Dos electrodos de fuente están conectados a una fuente de corriente y se utilizan
para inyectar la corriente en el tejido. Los dos electrodos de medición se colocan en el
tejido debajo investigación y se utilizan para medir la caída de voltaje generada por la
corriente y la impedancia del tejido.

3. Señales bioacústicas. Muchos fenómenos biomédicos crean ruido acústico. La medida de


este El ruido acústico proporciona información sobre el fenómeno subyacente. El flujo de
sangre en el corazón a través de las válvulas del corazón o de los vasos sanguíneos genera un
ruido acústico típico. El flujo de aire a través de las vías respiratorias superiores e inferiores
y en los pulmones crea sonidos acústicos. Estos sonidos, conocidos como la tos, los ronquidos
y los ruidos del pecho y los pulmones se utilizan ampliamente en medicina. También se
generan sonidos en el tracto digestivo y en las articulaciones. También se ha observado que
el músculo que se contrae produce un ruido acústico (ruido muscular). Dado que la energía
acústica se propaga a través del medio biológico, la La señal bioacústica se puede adquirir
convenientemente en la superficie, utilizando transductores acústicos (micrófonos o
acelerómetros).

4. Señales biomagnéticas. Varios órganos, como el cerebro, el corazón y los pulmones,


producen campos magnéticos. Las medidas de estos campos proporcionan información no
incluida en otras bioseñales Señales biomédicas 1-3 (como señales bioeléctricas). Debido al
bajo nivel de los campos magnéticos a medir, las señales biomagnéticas suelen tener una
relación señal / ruido muy baja. Se debe tener extrema precaución al diseñar la adquisición
sistema de estas señales.

5. Señales biomecánicas. El término señales biomecánicas incluye todas las señales


utilizadas en la biomedicina. campos que se originan a partir de alguna función mecánica
del sistema biológico. Estas señales incluyen movimiento y señales de desplazamiento,
presión y tensión y señales de flujo, entre otros. La medición de biomecánica Las señales
requieren una variedad de transductores, no siempre simples y económicos. La mecanica
El fenómeno no se propaga, al igual que los campos eléctrico, magnético y acústico. La
medida por lo tanto, generalmente debe realizarse en el lugar exacto. Esto muy a menudo
complica la medición y lo obliga a ser invasivo.
6. Señales bioquímicas. Las señales bioquímicas son el resultado de mediciones químicas
de los seres vivos tejido o de muestras analizadas en el laboratorio clínico. Midiendo la
concentración de varios iones dentro y en las proximidades de una celda por medio de
electrodos de iones específicos es un ejemplo de dicha señal.
Presiones parciales de oxígeno (pO2) y dióxido de carbono (pCO2) en la sangre oen la sangre
o el sistema respiratorio son otros ejemplos. Las señales bioquímicas suelen ser señales de
muy baja frecuencia. La mayoría de las señales bioquímicas son en realidad, señales de CC.

7. Señales bioópticas. Las señales bioópticas son el resultado de funciones ópticas del
sistema biológico, que ocurren naturalmente o inducido por la medición. La oxigenación de
la sangre se puede estimar midiendo la luz transmitida y retrodispersada de un tejido (in
vivo e in vitro) en varias longitudes de onda. Importante La información sobre el feto se
puede adquirir midiendo las características de fluorescencia del amniótico líquido. La
estimación de la producción cardíaca se puede realizar mediante el método de dilución de
tinte, que requiere la seguimiento de la aparición de colorante recirculado en el torrente
sanguíneo. El desarrollo de la fibra óptica La tecnología ha abierto vastas aplicaciones de
señales bioópticas.

La aureola IR y salud
Sensores

Electrochemical sensores cap 50

Bioing33 handbook
Biosensores Cap 23 pag 581
Biomateriales Part 3 pag 309
Tambien Bioing31 cap 6

Biotransporte Bioing31 cap 2

Bioing14 defi review Bioengineering/Biomedical Engineering


Education and Career Development:
Literature Review, Definitions, and
Constructive Recommendations*
ZIAD O. ABU-FARAJ

La educación en bioingeniería / ingeniería biomédica ha evolucionado desde finales de la


década de 1950 y está progresando. en las principales instituciones académicas de todo el
mundo. Hoy, bioingeniería / ingeniería biomédica se considera uno de los campos de mayor
reputación en el ámbito mundial, y probablemente ser la base de cualquier avance futuro en
medicina y biología. Este documento está destinado a proporcionar un estudio detallado del
desarrollo profesional en bioingeniería / ingeniería biomédica, en conjunto con un conjunto
de estrategias y recomendaciones que deben seguir los individuos y / o entidades que buscan
planificar y diseñar carreras y / o planes de estudio en este campo. El documento tiene como
objetivo abordar la internacional estudiante que está considerando la bioingeniería /
ingeniería biomédica como una carrera, con un énfasis en estudiantes de países en desarrollo
y en transición donde falta orientación profesional.
El documento también está dirigido a instituciones académicas de educación superior,
ministerios de educación, y otras agencias gubernamentales, principalmente dentro de dichos
países, que tienen la intención de lanzar o reformar sus planes de estudio de bioingeniería /
ingeniería biomédica. Una licenciatura integral plan de estudios que se ha implementado
recientemente en la Universidad Americana de Ciencias y Technology, Beirut, Líbano, se
presenta aquí como un prototipo de un moderno y bien desarrollado plan de estudios en
Ingeniería Biomédica. Este programa está considerado como uno de los planes de estudio de
primer nivel en Bioingeniería / Ingeniería Biomédica. El documento también proporciona
una completa revisión de la literatura seguida de una definición completa del campo y sus
subdivisiones.

BIOINGENIERÍA Y INGENIERIA BIOMÉDICA

Posteriormente a esta extensa revisión de la literatura, Es imperativo que las definiciones


completas y adecuadas de Bioingeniería e Ingeniería Biomédica estan bien formulado y
sus divisiones clave estan correctamente resaltado y descrito. Las definiciones de los dos
campos se han compilado a partir de organizaciones profesionales que tienen reconoci-
miento mundial.

Definiciones
La definición de trabajo de Bioingeniería según a los Institutos Nacionales de Salud (NIH,
Bethesda, MD, EE. UU.) Es [36]: `La bioingeniería integra ciencias físicas, químicas o
matemáticas y principios de ingeniería para el estudio de la biología, medicina, comporta-
miento o salud. Avanza fundamental conceptos, crea conocimiento a nivel molecular para
los sistemas de órganos, y se desarrolla materiales, procesos, biológicos innovadores,
implantes, dispositivos y enfoques informáticos para la prevención, diagnóstico y tratamiento
de enfermedades para el paciente rehabilitación, y para mejorar la salud. '

La Fundación Whitaker definió Ingeniería Biomedica como [37]: una disciplina que avanza
conocimientos en ingeniería, biología y medicina, y mejora la salud humana a través de
disciplinas actividades que integran las ciencias ingeniería con las ciencias biomédicas y
clínicas práctica. Incluye:
1. La adquisición de nuevos conocimientos y comprensión de los sistemas vivos a través de
la innovación y aplicación sustantiva de técnicas experimentales y analíticas basadas en las
ciencias de la ingeniería.
2. El desarrollo de nuevos dispositivos, algoritmos, procesos y sistemas que hacen avanzar
la biología y la medicina y mejorar la práctica médica y prestación de servicios de salud ”.

Además, la Sociedad de Ingeniería Biomédica


(BMES, Landover, MD, EE. UU.) Proporcionó la siguiente definición para el ingeniero
biomédico [38]: Un ingeniero biomédico utiliza la ingeniería tradicional. experiencia para
analizar y resolver problemas en biología y medicina, proporcionando una mejora de la
asistencia sanitaria. Los estudiantes eligen el campo de la ingeniería biomédica al servicio de
personas, para participar de la emoción de trabajar con sistemas vivos, y aplicar tecnología
avanzada a los complejos problemas de la atención médica.
El ingeniero biomédico trabaja con otros servicios de salud. profesionales de la atención,
incluidos médicos, enfermeras, terapeutas y técnicos. Ingenieros biomédicos puede ser
utilizado en una amplia gama de capacidades:
• Diseñar instrumentos, dispositivos y software, para llevar juntos conocimientos de
muchas fuentes técnicas
• Desarrollar nuevos procedimientos o realizar investigaciones. necesario para
resolver problemas clínicos. '

Divisiones
Según Bronzino, Ingeniería Biomédica puede clasificarse en 15 divisiones clave [8, 39],
donde casi cualquiera de estas subdivisiones podría considerarse como campo de estudio por
derecho propio. Estos componentes interconectados y, en ocasiones, superpuestos se
mencionan principalmente en [38 ± 41], y son descrito aquí con algunas modificaciones con
la adición de Bioelectromagnetismo [42] y Bioética [43 ± 45]:

1. El bioelectromagnetismo es una división de Bioingeniería / Ingeniería Biomédica que


investiga abrir las puertas eléctricas, electromagnéticas y magnéticas con fenómenos que
surgen en los tejidos biológicos, de ahí resultando en la aparición de tres nuevos áreas, a
saber, bioeléctrica, bioelectromagnética, y fenómenos biomagnéticos. Estas áreas abarcan el
estudio del comportamiento de excitables tejido, las corrientes eléctricas y los potenciales en
el conductor, el campo magnético en y más allá del cuerpo, la respuesta de células excitables
, a la estimulación del campo eléctrico y magnético, y las propiedades eléctricas y magnéticas
intrínsecas del tejido. El hecho de que el bioelectromagnetismo emplea medición y
estimulación metodología la convierte en un campo interdisciplinario que vincula las ciencias
de la vida con la física y ciencias de la ingeniería. Posteriormente, esta división tiene especial
interés en biofísica, bioingeniería, biotecnología, electrónica médica, y física médica [42].

2. La bioética aborda las cuestiones éticas planteadas por desarrollos en las ciencias
biológicas, y su aplicación a la práctica médica. Como lo dijo por Potter, Bioética enfatiza
`los dos más ingredientes importantes para lograr el nuevo sabiduría que se necesita tan
desesperadamente: conocimiento biológica y valores humanos '[43, 44]. En otra palabras, la
bioética reconoce los aspectos morales relacionados con aplicaciones y experimentos en
humanas, sociales, ambientales y globales.

Según Veatch, los cuatro niveles de El `` discurso moral '' en orden ascendente son:
`Casos (Casuística), Normas y Derechos (Código de Ética), Ética Normativa y Metaética
'[45].

3. Los biomateriales implican la investigación y el diseño de materiales sintéticos seguros


y confiables que pueden en contacto íntimo con sistemas y tejidos vivos en fisiológica-mente
aceptable y farmacológicamente de forma inerte; es decir, estos materiales tienen que ser
químicamente inerte, no trombogénico, no tóxico y no cancerígeno. Adicional los requisitos
son mecánicos adecuados resistencia y fatiga, peso y densidad adecuado y de uso
reproducibles y rentables a la fabricación a gran escala [40]. Allí Hay cuatro clases
principales de biomateriales: metales, cerámicas, polímeros y compuestos. Está Vale la pena
señalar que varios materiales biológicos, como huesos y piel, son de origen natural
biomateriales compuestos.
4. La biomecánica aplica los principios de la mecánica clásica para resolver problemas
relacionados en biología y medicina a través de la determinación de características
temporales y espaciales de los sólidos, fluidos y materiales viscoelásticos en respuesta a los
sistemas impuestos de Fuerzas internos y externas. Además, la biomecánica mejora el
conocimiento sobre la estructura y función de varios sistemas fisiológicos tanto en salud
como en enfermedad, así como en proporcionar pistas cuantificables sobre los mecanismos
de fallas o lesiones necesarias para comprender y modificar el entorno del objetivo pobla-
ción [40].

5. La instrumentación biomédica está involucrada en el diseño, desarrollo y utilización de


dispositivos para monitorear y medir variables fisiológicas y parámetros aplicando interdi-
sciplinariedad de principios de ingeniería Biomédico. La instrumentación incluye equipos
utilizados para mejorar o mantener la salud y el bienestar de un paciente. Esta división
también comprende el desarrollo de sensores biomédicos [40].

6. Sensores biomédicos, también conocidos como biosensores, son dispositivos que detectan
y convierten biológicamente señales significativas en eléctricas, ópticas o los físicos. Dichos
sensores llevan diagnósticos, aplicaciones terapéuticas y de monitorización. También se
utilizan en investigación biomédica. y desarrollo [40].

7. La bionanotecnología es una división de rápida aparición de Bioingeniería / Ingeniería


Biomédica que emana del área más global de la nanotecnología. Este último proporciona la
capacidad de construir y dar forma a la materia un átomo a la vez con una nanoescala que
significa una parte de un mil millones. En consecuencia, la nanobiotecnología se refiere a
estructuras, dispositivos biológicamente natural o sintético y fenómenos que son en una
escala entre distancias atómicas y la longitud de onda de la luz visible. Aplicaciones Típicas
de la bionanotecnología incluyen:

(1) la creación de nanomáquinas dirigidas para su uso en nanomedicina;


(2) la construcción de computadoras de ADN;
(3) el desarrollo de biosensores;
(4) la producción de nuevos biomateriales mediante autoensamblaje;
(5) el aprovechamiento de motores moleculares; y
(6) el desarrollo de híbridos de bionanomaquinaria con materiales inorgánicos [46].

8. La biotecnología, o tecnología biológica, es reconocido por tener un potencial incon-


mensurable para promover el bienestar humano mediante el cumplimiento necesidades
críticas de alimentación, agricultura y cuidado de la salud; de ahí la atención adicional a este
subdivisión aquí. Convención de las Naciones Unidas sobre la diversidad biológica
proporcionó siguiente definición [47]:
`Biotecnología significa cualquier aplicación tecnológica que utilice sistemas biológicos,
organismos vivos o derivados del mismo, para fabricar o modificar productos o procesos para
uso específico. ' Además, el Protocolo Cartagena de Bioseguridad Biotecnología moderna
reconoce como 'tener una gran potencial para la promoción del bienestar humano,particu-
larmente para satisfacer las necesidades críticas de alimentación, agricultura y atención
sanitaria ». Este Protocolo añade la siguiente definición del término:
ʻa) Técnicas de ácidos nucleicos in vitro, incluidas ácido desoxirribonucleico recombinante
(ADN) e inyección directa de ácido nucleico en las células u orgánulos, o
b) fusión de células más allá del familia taxonómica, que supera la fisiología natural barreras
reproductivas o de recombinación y que no son técnicas utilizadas en cría y selección
tradicionales »[48].
En general, hasta el final del último la biotecnología del milenio no se consideró una
disciplina sino más bien una colección de procedimientos y técnicas mediante las cuales un
científico o un ingeniero intentó crear o modificar biológicos organismos en beneficio de la
humanidad [40]. Estos intentos han evolucionado a lo largo los milenios de una biotecnología
tradicional a uno moderno en constante desarrollo. Ellos incluyen, en orden cronológico,
fermentación microbiana, fijación biológica de nitrógeno, vegetal cultivo de tejidos,
transferencia de embriones de animales, producción de anticuerpos clonales y policlonales,
tecnología de ADN recombinante, ingeniería genética de plantas, ingeniería genética de
animales, y genómica [49]. Hoy, se debate que la biotecnología se ha convertido en una
disciplina sí mismo, uno que un estudiante puede alcanzar un nivel de tres grado
(Licenciatura / Maestría / Doctorado) en el campo indicado.

Cuatro procesos clave básicos de la biotecnología que rigen su amplio espectro se presentan
siguiente. Sin embargo, vale la pena que el lector siga otros procesos clave en este espectro,
a saber, amarillo, marrón, oscuro, morado y dorado, a fondo.

i) Biotecnología blanca, también reconocida como biotecnología gris, se aplica a los


procesos industriales. Hace uso de células vivas como mohos, levaduras y bacterias, así como
enzimas para producir bienes y servicios. Los ejemplos incluyen la producción de
antibióticos, vitaminas, vacunas y proteínas para uso médico. Se espera que la biotecnología
blanca reduciría la contaminación y desperdicio; disminuir el uso de energía, cruda materiales
y agua; darse cuenta de una mejor calidad productos alimenticios; y crear nuevos materiales
y biocombustibles a partir de productos de desecho.

ii) Biotecnología roja, también conocida como biotecnología de salud, se aplica a los
procesos médicos. Desempeña un papel importante en producción contemporánea de
medicamentos y vacunas, así como en la aparición de terapias genéticas y con células madre.
Se espera que esta biotecnología permitiría desarrollo de técnicas innovadoras para la
prevención, diagnóstico, tratamiento y cura de enfermedades incurables existentes. Ejemplos
incluir antibióticos producidos especialmente con organismos diseñados y curas genéticas
diseñado mediante manipulación genómica.

iii) Biotecnología verde, también conocida como planta biotecnología, se aplica a los
procesos agrícolas. Uno de los intentos de esta biotecnología es producir ambientalmente
soluciones amistosas no obtenidas de manera plausible por la agricultura industrial
convencional.
El objetivo potencial de la biotecnología verde es introducir genes extraños en especies de
plantas vitales, lo que resulta en cultivos mejora y producción de nuevos productos en
plantas. Hoy, biotecnología vegetal gira alrededor de tres áreas principales:
cultivo de tejidos vegetales, ingeniería genética vegetal, y plantas asistidas por marcadores
moleculares cría.
iv) La biotecnología azul se aplica a zonas costeras, procesos marinos y acuáticos. Su
principal El objetivo es explorar la diversidad genética. de estos ecosistemas. Ejemplos de
esta biotecnología es incluir el uso de ciertos microorganismos bioluminiscentes que
luminiscen en agua de mar por la noche para identificar niveles de toxinas en minutos. Otro
contemplado se está desarrollando una aplicación prospectiva acuicultura salud de peces,
cría, y alimentación.

9. La Ingeniería Clínica está especializada en el soporte y el avance de la atención al


paciente mediante la aplicación habilidades de ingeniería y tecnología de gestión para el
cuidado de la salud. . El ingeniero clínico es miembro de el equipo sanitario dentro de un
hospital o una clínica. Las prácticas de ingeniería clínica incluyen salud gestión de
tecnología, seguridad, médico servicio de dispositivo, aplicación de tecnología, tecnología
de información , educación y formación, investigación y desarrollo, instalaciones clínicas,
y normas y reglamentos [40, 50].

10. La medicina y la bioinformática son dos campos multidisciplinarios, aunque comparten


la misma metodología aplicada a sus sistemas de información, informática médica se
preocupa por la interpretación de los datos y ayuda en la decisión clínica [40]. Por otro lado,
la bioinformática implica la matemática, estadística y computacional análisis de datos
biomoleculares. Los diferentes métodos utilizados en informática médica y la bioinformática
incluyen la ingeniería de sistemas, sistemas expertos, inteligencia artificial, redes neuronales,
diseño de bases de datos y aplicaciones matemáticas y estadística.

11. Análisis médico y biológico, también conocido como análisis de señales biomédicas,
se ocupa de procesamiento de señales biomédicas que se extraen de las señales fisioló-
gicas.
El procesamiento implica una mejora de la reducción de ruido técnicas así como divulga-
ción de información, técnicas de transformación. `Fuentes de Las señales biomédicas
incluyen:
(1) señales bioeléctricas generadas por células nerviosas y músculos células;
(2) señales de bioimpedancia de la impedancia de tejido;
(3) señales bioacústicas del flujo de sangre y aire y sonidos en el tracto digestivo, las
articulaciones y la contracción músculos;
(4) señales biomagnéticas de varios órganos, como el cerebro y el corazón;
(5) señales biomecánicas resultantes de mecánicas función, como movimiento,
desplazamiento, presión, tensión y flujo;
(6) bioquímico señales que surgen de mediciones químicas; y
7) señales bioópticas tanto naturales como funciones ópticas inducidas »[40].

12. Medical Imaging proporciona visualizaciones gráficas de estructuras anatómicas y


funciones fisiológicas. Ejemplos de imágenes médicas convencionales Las modalidades de
ging incluyen: endoscopia, radiografías, imágenes de resonancia magnética (IRM),
positrones tomografía por emisión (PET), de fotón único tomografía computarizada de
emisión (SPECT), ecografía y tomografía computarizada (TC).
La microscopía de resonancia magnética es una extensión de la resonancia magnética
utilizada en estudios histológicos, estudios toxicológicos y biología del desarrollo.
Proporciona imágenes tridimensionales no invasivo y no destructivo de alta resolución
de muestras biológicas. La realidad virtual es otra Modalidad moderna de imágenes
médicas que juega un papel importante en los estudios de anatomía y fisiología, cirugías
virtuales, telemedicina, y telecirugía [40].

13. Neural Engineering es una división emergente de Bioingeniería / Ingeniería Biomédica


enfatizando investigación mediante el uso de la técnicas ingeniería para investigar la función
y manipular el comportamiento de sistema nervioso central o periférico. Esta división
depende de neurociencia experimental y computacionales , neurología clínica, ingeniería
eléctrica, y procesamiento de señales de tejido en neuronas vivas
La ingeniería neuronal también se basa en robótica, ingeniería informática, ingeniería de
tejidos, ciencia de materiales y nanotecnología.
Robinson proporcionó un informe más formal y completo de definición de ingeniería
neuronal, que fue compilado a partir de datos científicos, tecnológicos, perspectivas clínicas
y del usuario final. Él afirmó que `la ingeniería neuronal es sinérgica y matrimonio altamente
interdisciplinario de la disciplinas neurociencia y las de la ingeniería e informática. Busca
hacer tapping directamente o indirectamente en el sistema nervioso para obtener señales
sensoriales o de mando y control, para activar las señales neuronales salientes y / o influir en
el procesamiento dentro del sistema nervioso central sistema. La ingeniería neuronal también
busca métodos para restaurar unción neurológico perdido o comprometido
La Ingeniería Neural está involucrada en diseñar, analizar y probar funcional interfaces entre
sistemas neuroprotésicos y sistemas neurobiológicos. Ingeniería neuronal también prueba
todos estos componentes como sistemas, tanto en un sentido de ingeniería como en un sentido
fisiológico. Objetivos de diseño de Neural Engineering, alcanzable a través de investigación
clínica rigurosos in vitro, in vivo y , avanzar en la comprensión de neurociencia
sensoriomotora; y producir neuronales prótesis fiables, robustas, seguras y funcionales
transparente y esteticamente aceptable '
[51].

14. Modelado, simulación y control fisiológicos

Hacer uso de simulaciones por computadora para Desarrollar una comprensión de fisiología
relaciones. El modelado fisiológico ayuda a:
(1) investigación y desarrollo biomédico por validando hipótesis o destacando áreas para
estudio adicional;
(2) el refinamiento de la enseñanza y métodos de formación utilizados en las escuelas de
medicina;
(3) aplicaciones clínicas en áreas tales como diagnóstico, determinación de regímenes
farmacológicos o diseño de dispositivos biomédicos que incluyen prótesis o sistemas de
administración de fármacos.
La simulación, a diferencia del modelado, tiene como objetivo reproducir los datos
experimentales sin identificar los mecanismos responsables de la observaciones en
experimentación [40].
En control fisiológico, La teoría de control se utiliza en el análisis de fisiología problemas y
el diseño de relacionados soluciones estratégicas aplicando el control clásico, control de
espacio de estado, control difuso y métodos de control adaptativo entre otros.
15. Dispositivos protésico-ortopédicos y artificiales
Órganos, o tecnología de rehabilitación, es eso segmento de tecnología de asistencia diseñado
específicamente para rehabilitar personas con ciertos discapacidades con el fin de mejorar su
limitaciones, ya sea de forma temporal o permanente. Convencionalmente, las ortesis son
dispositivos que aumentan la función de una extremidad, mientras que las prótesis
reemplazan una parte del cuerpo tanto estructural y funcionalmente. Cuando la prótesis
dispositivo reemplaza todo o parte de un órgano, se conoce como un órgano artificial que
lleva leve parecido con su contraparte natural
[40].

16. La ingeniería de rehabilitación es la aplicación de ciencia y tecnología para aliviar la


gravedad de las discapacidades en las personas discapacitadas, por lo tanto
(1) restaurando la capacidad parcial o completo para realizar actividades de la vida diaria y
(2) ayudando a retener esta habilidad. A fin de que lograr los objetivos anteriores, ingeniería
de rehabilitación generalmente implica el diseño y desarrollo de dispositivos y
procedimientos terapéutica y rehabilitación teniendo en cuenta lo biológico, fisiológico,
psicológico, aspectos sociales y financieros de la individuo rehabilitado [40].

17. La ingeniería de tejidos es el estudio de dinámica de tejidos que coordina la reparación,


el reemplazo, y reconstrucción. Esta división de Combinaciones de bioingeniería / ingeniería
biomédica ciencias biológicas básicas, fundamentos ingeniería, aspectos clínicos y
biotecnología para producir procedimientos y terapias en qué células biológicas actúan como
agentes terapéuticos[40, 52]. La ingeniería de tejidos puede ser más dividido en dos
categorías principales [40]:
i) Los métodos ex vivo o in vitro implican el uso de tejidos bio-artificiales que son híbridos
de material sintético y vivo. Por ejemplo, un uso típico de tejido ex vivo o in vitro la
ingeniería está en reemplazo de órganos en lugar de un trasplante de órgano.
ii) Aplicaciones in vivo, intente modificar el crecimiento y función de las células. Por
ejemplo, una aplicación típica in vivo usaría tubos poliméricos implantados para promover
regeneración nerviosa reconectando nervios dañados en el sistema nervioso periférico

El campo de la Bioingeniería / Ingeniería Biomédica está cambiando continuamente debido


al salto de avances en tecnología. No hay duda de que se introducirán nuevas áreas en este
campo en la divisiones bien establecidas descritas anteriormente;
Harris et al. llamó la atención sobre el hecho de que ha habido numerosos 'cambios de
paradigma' que se extienden desde 1975 hasta 1995 en biología, medicina e ingeniería

New trend in Green chemistry


Capitulo 11 biocatalisis
Bioing341-libro Bueno para iniciar
Bioprocesos02 transferencia de masa
Bioreacttres01 mo0delo de reacción

Biomoleculas (Biotec01 Maria Antonieta)


Biofisica
Bioquimica

CAPITULO 2 BIOMOLECULAS
1. LIPIDOS
a) Ceras
b) Trigliceridos
Los mamíferos no pueden elaborar ácidos grasos poliinsaturados, por lo que
tienen que ser ingeridos (de pescado o aceites vegetales)
Su ausencia produce desordenes metabólicos. A partir de ellos se sintetizan
compuestos de la contracción de músculos lisos, presión sanguínea etc
c) Fosfolipidos

(Biolo11) (Biolo07)

Cefalinas (etanolamina) y lecitinas (colina)

d) Esteroides (base androstano)


Colesterol, hormonas, testosterona estradiol, corticoides
testosterona

Diosgenina
e) Prostaglandinas

Regulacion de presion sanguínea, coagulación, respuesta alérgica inflamatoria,


sistema digestivo, trabajo de parto

f) Terpenos

2. AMINOACIDOS Y PROTEINAS

2.1 Los amino acidos


Los aminoácidos son los compuestos orgánicos que forman a las proteínas, que son
cadenas de aminoácidos. Como su nombre lo indica, estos contienen tanto grupos
básicos (amino, NH2) como grupos ácidos (carboxilo, COOH).

Se han descrito más de 200 aminoácidos distintos, pero los estudiosos de la materia han
determinado que las proteínas de todos los seres vivos (simples o complejos) están
formadas siempre por los mismos 20, los cuales se unen entre sí para formar secuencias
lineales características.

AMINOÁCIDOS ESENCIALES

 Los aminoácidos esenciales no los puede producir el cuerpo. En consecuencia,


deben provenir de los alimentos.

 Los 9 aminoácidos esenciales son: histidina, isoleucina, leucina, lisina,


metionina, fenilalanina, treonina, triptófano y valina.

AMINOÁCIDOS NO ESENCIALES

No esencial significa que nuestros cuerpos producen un aminoácido, aun cuando no lo


obtengamos de los alimentos que consumimos. Los aminoácidos no esenciales incluyen:
alanina, arginina, asparagina, ácido aspártico, cisteína, ácido glutámico, glutamina,
glicina, prolina, serina y tirosina.
Arginina
https://www.lifeder.com/aminoacidos-funciones/

Además de esta clasificación, los 20 aminoácidos proteicos (de los que forman
proteínas) pueden ser separados de acuerdo con las características de sus grupos R en:

– Aminoácidos no polares o alifáticos: glicina, alanina, prolina, valina, leucina,


isoleucina y metionina.

– Aminoácidos con grupos R aromáticos: fenilalanina, tirosina y triptófano.

– Aminoácidos polares sin carga: serina, treonina, cisteína, asparagina y glutamina.

– Aminoácidos polares con carga positiva: lisina, histidina y arginina.

– Aminoácidos polares con carga negativa: ácido aspártico y ácido glutámico.

2.2 Punto isoeléctrico

Ejm para el aminoacido Valina, en pH igual a 5,97 , se encuentra con carga neta 0
Cual será la carga si subo el pH a 7 , respuesta es negativa
Cual será la carga si bajo el pH a 5, respuesta es positiva
Electroforesis

Lisina PI 9,7

A lanina PI 6,0

Fenilalanina PI 5,5

pH 6,0
2.3 Enlace peptídico péptidos y proteínas

2.4 Clasificacion de proteínas

Proteinas fibrosas, colageno, alfa queratina


Proteinas globulares, insulina, hemoglobimna
Clasificacion de las proteinas según su funcion
(Biolo09)
2.5 Estructura de las proteínas
a) Estructura primaria
Secuencia de aminoácidos y enlaces disulfuro
b) Estructura secundaria
Forman arreglos ordenados unidos por puentes hidrogeno
La hélice alfa y hoja plegada corresponde a esta estructura.
c) Estructura terciaria
Corresponde a la estructura secundaria y las transiciones entre ellas
d) Estructura cuaternaria
Corresponde a la asociación de dos o mas cadenas peptídicas.
La hemoglobina consiste en cuatro cadenas peptídicas acopladas.
(Biolo09)

Desnaturalizacion de proteinas

3. CARBOHIDRATOS

ACIDOS NUCLEICOS

Son el ARN y ADN

3.1 Estructura de ARN

a) Bases Nitrogenadas en ARN


b) Ribonucleosidos en ARN
c) Ester fosfato de ribosa

Estados de ionización de fosfato segun pH

d) Ribonucleotidos en ARN

e) Estructura de los enlaces del ARN


3.2 Estructura de ADN

a) Bases Nitrogenadas en ADN


b) Ribonucleosidos en ADN

c) Ribonucleotidos en ADN

d) Apareamiento de las bases


e) La doble helice

Por lo tanto tendemos a referirnos a ~3.000 millones de letras (o nucleótidos) como


tamaño de nuestro genoma, cuando en realidad queremos decir ~3.000 millones de
pares de bases (que, sensu stricto, corresponderían a 6.000 millones de letras, dado que
cada par de bases contiene dos letras, dos nucléotidos)

a actual son exactamente 3.272.116.950 pares de bases,


3.3 Los genes

Son las unidades de almacenamiento de información genética, segmentos de ADN


que contienen la información sobre cómo deben funcionar las células del organismo.

Tienen elementos que indican de dónde a dónde se tiene que leer, y su contenido
determina la composición de las proteínas que se forman.

En el genoma humano compartimos el 99,8 % de los genes, lo que nos hace diferentes
es solo el 0,2%.

3.4 Organismos transgénicos

Los transgénicos son organismos modificados mediante ingeniería genética en los que se
han introducido uno o varios genes de otras especies.
También se denomina organismos modificados genéticamente (OMG).
Ingenieria genética en animales

https://www.youtube.com/watch?v=V_tK6XqpLSA

CRISPER CAS9

https://www.youtube.com/watch?v=5DKhuPb4Z-0

entrevista Genoma

https://www.youtube.com/watch?v=HB23jPLuUl4

testosterona

https://www.youtube.com/watch?v=xiGzNNjHJa4

genoma
https://www.youtube.com/watch?v=a2m_9Zgaa40

CAPITULO 1: Bioingenieria generalidades

CAPITULO 2: Biomoleculas

CAPITULO 3: La biología como ciencia base de la bioingenieria

CAPITULO 4: El biotransporte

CAPITULO 5: Las bioseñales y biosensores

CAPITULO 6: Biomatertiales

CAPITULO 7: La biotecnologia

CAPITULO 8: Aplicaciones

Patos plantacio arroz

https://www.facebook.com/zootecniabc/videos/373284287296124/

Bases Nitrogenadas

a) Pirimidinicas:
 Citosina
 Timina ( no ARN)
 Uracilo ( no ADN)

b) Puricas
 Adenina
 Guanina

LA BIOLOGIA IMPORTANCIA EN LA BIOINGENIERIA
1. ORIGEN DE LA VIDA
El origen de la vida, teoría

El origen de la vida ha tenido en todas las civilizaciones una explicación cuyo


denominador común era la intervención divina. La ciencia, sin embargo, ante esta gran
pregunta necesitaba buscar causas, reglas o mecanismos que dieran a ese hecho una
justificación constatable.

La generación espontánea de la vida fue una teoría autorizada y desautorizada


consecutivamente en varias ocasiones entre 1668 y 1862, año éste último en que que se
disipó la incógnita (Teorías evolucionistas). En 1668 el médico italiano Francesco Redi
demostró que las larvas de mosca de las carnes en descomposición se producían a causa
de puestas previas, y no espontáneamente por la propia carne. La generación espontánea
quedaba en parte desautorizada (no exenta de polémica) a pesar del arraigo que esa teoría
tenía en la historia de la biología.

La polémica sobre la generación espontánea se avivó aún más cuando en 1677 Antoni
Van Leeuwenhoek, un fabricante de microscopios y pionero en descubrimientos sobre los
protozoos, desautorizó de nuevo la antigua teoría cuando experimentó sobre
microorganismos sólo visibles al microscopio, ante la aparente constatación de que estos
seres aparecían espontáneamente en los alimentos en descomposición. Demostró que las
pulgas y gorgojos no surgían espontáneamente a partir de granos de trigo y avena, sino
que se desarrollaban a partir de diminutos huevos.

Tuvieron que transcurrir cien años para que en 1768 el fisiólogo italiano Lazzaro
Spallanzani (uno de los fundadores de la biología experimental) demostrase la
inexistencia de generación espontánea. Hirviendo un caldo que contenía
microorganismos en un recipiente de vidrio, y cerrándolo después herméticamente para
evitar la entrada de aire, el líquido se mantuvo claro y estéril. Los inmovilistas de esa
época no dieron validez al experimento, a pesar de su rotundidad, y expusieron como
argumento que se había alterado el aire del interior del recipiente por efecto del calor,
eliminando los principios creadores de la vida.
El problema seguía sin resolverse definitivamente en la segunda mitad del siglo XIX,
hasta que el biólogo francés Louis Pasteur se propuso emprender una serie de
experimentos para solventar la cuestión de la procedencia de esos microorganismos que,
en apariencia, se generaban espontáneamente. En 1862 Pasteur llegó a la conclusión de
que los gérmenes penetraban en las sustancias procedentes de su entorno.
Ese descubrimiento dio lugar a un debate feroz con el biólogo francés Félix Pouchet, y
más tarde con el respetado bacteriólogo inglés Henry Bastion; éste último mantenía que
la generación espontánea podía darse en condiciones apropiadas. Una comisión de la
Academia de Ciencias aceptó oficialmente en 1864 los resultados de Pasteur, a pesar de
ello los debates duraron hasta bien entrada la década de 1870.

En la actualidad, la base de referencia de la teoría evolutiva del origen de la vida, se debe


al bioquímico soviético Alexandr Ivánovich Oparin, aunque el británico John Burdon
Sanderson Haldane sostuvo una idea similar. Oparin postuló en 1924 que las moléculas
orgánicas habían podido evolucionar reuniéndose para formar sistemas que fueron
haciéndose cada vez más complejos, quedando sometidos a las leyes de la evolución.
Según esta teoría, los océanos contenían en sus orígenes gran cantidad de compuestos
orgánicos disueltos. En un proceso que requirió mucho tiempo, esas moléculas se fueron
agrupando en otras mayores y éstas a su vez en complejos temporales. Alguno de esos
complejos se convirtió en un protobionte tras adquirir una serie de propiedades, por las
cuales podía aislarse e introducir en su interior ciertas moléculas que le rodeaban y liberar
otras. Las funciones metabólicas, la reproducción y el crecimiento habrían aparecido
después de que el protobionte adquiriera la capacidad de absorber e incorporar las
moléculas a su estructura, para finalmente conseguir separar porciones de sí mismo con
iguales características.

La teoría de Oparin fue experimentada con validez por Stanley Miller en 1953, como
parte de su tesis doctoral dirigida por H. Urey; consiguiendo obtener compuestos
orgánicos complejos después de reproducir las condiciones primitivas del planeta en un
aparato diseñado al efecto. Miller creó un dispositivo, en el cual la mezcla de gases que
imitan la atmósfera primitiva, es sometida a la acción de descargas eléctricas, dentro de
un circuito cerrado en el que hervía agua y se condensaba repetidas veces. Se producían
así moléculas orgánicas sencillas, y a partir de ellas otras más complejas, como
aminoácidos, ácidos orgánicos y nucleótidos.
Se abrió así camino a la obtención de numerosas moléculas orgánicas. En condiciones de
laboratorio se han conseguido sintetizar azúcares, glicerina, aminoácidos, polipéptidos,
ácidos grasos, o porfirinas que es la base de la clorofila y hemoglobina, etc

En resumen, la vida surgió en unas condiciones ambientales muy distintas a las actuales,
las de la Tierra primitiva, a partir de moléculas orgánicas que no competían con ningún
otro organismo vivo. Mediante la intervención de la selección natural se habrían ido
diversificando hasta los actuales organismos.

Una condición indispensable para la evolución de la vida a partir de materia orgánica no


viva, era la existencia de una atmósfera terrestre carente de oxígeno libre (Formación de
las primeras células). En opinión de Haldane, que sostenía esa idea, durante el proceso
biogenético los compuestos orgánicos no podrían ser estables en una atmósfera oxidante
(con O2); serían los organismos fotosintéticos los que posteriormente producirían el O2
atmosférico actual.

Formación de las primeras células


Se ha convenido que el proceso de formación de las primeras células debió superar varias
etapas de evolución, tres de carácter prebiológico (química) y una biológica: constitución
de la Tierra, síntesis prebiológica, fase subcelular y fase protocelular.
Constitución de la Tierra...
Se estima que tuvo lugar hace unos 5.000 millones de años. El enfriamiento de las rocas
emitía gases a la atmósfera ricos en compuestos de carbono y carentes de oxígeno
(reductores).

Durante la constitución de la Tierra la atmósfera era reductora, debido a la carencia de


oxígeno de los gases emitidos al enfriarse las rocas

Síntesis prebiológica

Se produce a partir de los monómeros, o moléculas sencillas procedentes de los gases de


la atmósfera primitiva, que posteriormente quedarían disueltos en el medio líquido.
Aminoácidos, azúcares y bases orgánicas se irían formando mediante diferentes tipos de
energía, descargas eléctricas o radiaciones ultravioletas. Éstos, en el medio acuoso,
tendrían una polimerización gradual dando lugar a macromoléculas o cadenas proteicas
y de ácidos nucleicos.

Las descargas eléctricas y radiaciones ultravioleta darían lugar a la polimerización


gradual en el medio acuoso.

Diferentes tipos de energía, como descargas eléctricas o radiaciones ultravioleta irían


formando aminoácidos, azúcares y bases orgánicas.

Fase subcelular

Las microesferas de proteinoides (según Fox) o coacervados (según Oparin), consistentes


en gotitas ricas en polímeros, inician su separación dentro del medio acuoso, que
primitivamente tenía una consistencia de sopa. Por selección química, se generarían
posteriormente protobiontes individualizados independientes del entorno (formados por
proteínas y ácidos nucleicos).

Fase protocelular

Se activa un mecanismo de autorreproducción, y una evolución biológica por selección


natural. Ese mecanismo genético asegura que las protocélulas hijas adquieran las mismas
propiedades químicas y metabólicas de las protocélulas padre, es decir, se realiza una
transmisión hereditaria, que a su vez permite la existencia de mutaciones (evolución
biológica).

Las actuales bacterias anaeróbicas como las de tipo Clostridium (fermentadoras), serían
parecidas a las que en el origen de la Tierra tendrían los primeros seres vivos, que,
probablemente, consistirían en formas unicelulares heterótrofas; de todas formas, estas
bacterias actuales requieren adquirir en el entorno moléculas energizadas constituidas por
reacciones no biológicas. Las primeras células que dependían, como ya se dijo, de materia
orgánica formada por diferentes fuentes de energía como las descargas eléctricas (que
comenzaría a escasear), prescindieron progresivamente de esa energía cuando la
fotosíntesis entró en acción. La atmósfera comenzó entonces a recibir O2, y por evolución
aparecerían las cianobacterias o algas azules, cuyos sedimentos fueron identificados en
microfósiles de hace unos 3.500 millones de años.

La atmósfera del planeta cambió de reductora a oxidante en los 2.000 millones que
siguieron a los procesos descritos. De cada cinco moléculas una era de O2. Con la
formación de la capa de ozono se redujeron las radiaciones ultravioleta, y por esa razón
las condiciones que permitieron la aparición de la vida desaparecieron definitivamente.

Por tanto, la instauración plena de vida eliminó las condiciones originales que la
hicieron posible. La aparición por evolución de los primeros eucarióticos
unicelulares y pluricelulares, se sitúan alrededor de hace unos 2.000 millones de
años.

2. BIOLOGIA CELULAR Y MOLECULAR


Ciencia encargada del análisis de las moléculas y los componentes celulares.
2.1 LA CELULA
Etimología: Del latín cellula (celda pequeña), cella que significa celda y el sufijo “–
ula” que significa pequeño.
Definición: Unidad estructural y fundamental de todo ser vivo.

2.2 CARACTERISTICAS GENERALES DE LA CELULA

A) CELULA PROCARIOTA
Células que carecen de carioteca, es decir, que no poseen envoltura nuclear,
carecen de núcleo.

ESTRUCUTRA Y FUNCION:

 Pared celular
Estructura rígida y resistente conformada por peptidoglucano. El
peptidoglucano es una macromolécula conformada por carbohidratos
y péptidos cortos.
 Membrana plasmática
Estructura lipoproteína, regula la entrada y salida de solutos al medio
interno de la célula (protoplasma). Esta membrana presenta
invaginaciones denominadas mesosomas, los cuales están
relacionados con el anclaje del ADN bacteriano y poseen sistemas
enzimáticos relacionados con síntesis de compuestos y con la
respiración bacteriana.
 Nucleoide
Región donde se localiza el material genético. El material genético de
las procariotas está conformado por ADN circular de doble hebra y
desnudo, es decir, sin proteínas denominadas histonas.
 Ribosomas 70s
Complejos supramoleculares conformados por ARN y proteínas.
Presentan dos subunidades: la mayor 50s y la menos 30s.

Estructuras variables
 Capsula
Estructura formada por polisacáridos. Dicha estructura constituye
una capa protectora adicional a la pared celular.
 Flagelos
Estructura que sirven como medios de locomoción.
 Pili o fimbria
Apéndices filamentosos (no confundir con flagelos; ya que, no
proporcionan motilidad) que sirven para la adherencia al sustrato y el
intercambio de material genético (conjugación bacteriana).

 Endosporas
La endospora se forma cuando las condiciones del medio externo no
son propicias para desarrollo y metabolismo de la bacteria. Estas
endosporas le conceden resistencia a las bacterias ante los factores
adversos.

https://lh3.googleusercontent.com/proxy/BEvzc0RuUTDDpwM2Vqseh3fom
YmUrjR81mFOR9IQl98_0URqOQyGQyJg4Z7ps9ANxDIYAz-
IqXIJxZJ94qM76xmqcbfoeoPxUYkkEv5ZuoJfg4NnGk_L3biZ_V-
2Ur6EQCgdr5IAF3650S77eqUV4c_cch-pHcy68e2QdpOF

B) CELULA EUCARIOTA
Células con carioteca, es decir, con núcleo. Estas células son más complejas
que las procariotas, puesto que, además de poseer núcleo, poseen oganelas y
sistemas de endomembranas.
ESTRUCTURA Y FUNCION:
 Membrana celular
Estructura lipoproteica que separa el medio extracelular del
intracelular. Está formada por una bicapa lipídica unidas a ella ácidos
grasos, las proteínas pueden ubicarse en la superficie tanto interna
como externa, así como también pueden estar embebidas en ellas.
Dicha membrana se dice que es selectiva puesto que permite el
paso de ciertas sustancias tales como iones, agua glucosa, entre otros.
El paso de tales sustancias también serán regulados por dicha
membrana.

 Pared celular
La pared célula es una estructura adicional a la membrana celular que
le brinda protección a la célula, dicha estructura solo las encontramos
en algunas células como en las células vegetales cuya pared celular
está conformada por principalmente celulosa. En las células de los
hongos y levaduras dicha estructura está conformada por quitina.
 Citosol
Es el medio interno de la célula. En este medio se realizan la ciclosis,
movimiento ameboideo, clivaje celular, tixotropía (cambio de sol a
gel).
 Citoesqueleto
Estructura proteica responsable de la forma de la célula. Conformada
por microfilamentos, filamentos intermedios, microtúbulos, entre
otros.
 Ribosomas 80s
Complejos supramoleculares conformados por ARN y proteínas,
conformadas por dos subunidades 60s y 40s pueden encontrarse
libres en citosol o unidas al retículo endoplasmático rugoso, también
pueden encontrase en grupos aislados (polirribosomas).Dichas
estructuras participan de la síntesis de proteínas.
 Retículo endoplasmático
Estructura más extensa del sistema de endomembranas. Está
compuesto por sacos aplanados de túbulos. Presentan dos clases:
Retículo endoplasmático rugoso (R.E.R) presenta ribosomas
adheridos a su superficie externa. Retículo endoplasmático liso
(R.E.L) carece de ribosomas adheridos; responsable de la
detoxificación, síntesis de lípidos y la glucogenólisis.

 Complejo de Golgi
Estructura conformada por sacos aplanados túbulos y vesículas. En
dicha estructura se procesan las moléculas que provienen del retículo
endoplasmático, las cuales se incorporan a los endosomas o son
secretadas por exocitosis.
 Endosomas
Estructura encargada de recibir enzimas hidrolíticas del complejo de
Golgi, así como también sustancias que han ingresado a la célula por
endocitosis.
 Lisosomas
Organoide polimorfo que contienen enzimas hidrolíticas para la
digestión celular. También realizan la autofagia.
 Mitocondrias
Organela compuesta por dos membranas, una membrana externa y
otra membrana interna que al plegarse forma las crestas. La función
de las mitocondrias es oxidar moléculas combustibles y la
producción de ATP. Las mitocondrias son estructuras que presentan
cierta autonomía, puesto que contienen su propio ADN y ribosomas
donde realizan la síntesis de ciertas proteínas.

 Plastidios
Organelas propias de la célula vegetal

 Cloroplastos
Estructura conformada por doble membrana, la membrana
interna se repliega formando estructuras denominadas
granum, las cuales están constituidos por una serie de capas
membranosas conocidas como tilacoides (contiene los
pigmentos fotosintéticos), aquí se lleva a cabo de fase
luminosa de la fotosíntesis. La fase oscura de la fotosíntesis
se lleva a cabo en el estroma (gel fluido homogéneo) de los
cloroplastos.
Los cloroplastos también son organelas semiautónomas.
 Leucoplastos
Son plastidios incoloros, almacenan ciertas sustancias de
reserva como almidón (amiloplasto), proteínas
(proteinoplastos), aceites (oleoplastos), entre otros.
 Cromoplastos
Plastidios que contienen pigmentos carotenoides, tales como
el caroteno, xantófila, licopeno, etc.

 Peroxisomas
Estructuras vinculadas a la degradación de peróxido de hidrógeno.
 Vacuolas
Vesículas rodeadas por una membrana denominada tonolasto. En las
células vegetales cumplen la función de almacenamiento de
sustancias de reserva, subproductos del metabolismo, ya que plantas
carecen de sistema excretor. También cumplen la función de la
regulación osmótica y almacenamiento de agua.
 Núcleo
Estructura característica de la célula eucariota cuya función es ser el
centro del control celular. En el núcleo podemos distinguir ciertos
componentes:

 Carioteca
Envoltura nuclear, presenta poros en su superficie para llevar
cabo la entrada y salida de iones, ciertas proteínas y de ácido
ribonucleico (ARN). En su superficie externa presenta
ribosomas adheridos.
 Nucleoplasma
También denominada cariolinfa, sustancia coloidal donde se
encuentran los iones, enzimas y proteínas estructurales.
 Cromatina
Estructuras fibrosas compuestas por acido
desoxirribonucleico (ADN) e histonas (proteínas).
 Nucléolo
Estructura en cuya zona se produce la maduración de
precursores ribosómicos y el ensamblaje de las subunidades
ribosómicas (40s y 60s).
Imagen de una célula vegetal
https://lh3.googleusercontent.com/proxy/mYkCdzsKg9e_-
O8kq-0o7KbhmuC88GnBj-
5WS07NI6oHdXBnvIQZOCt08Cqidk4MeKSrUaSYnC2rwX
0LKN34vemhD1aHvQmzwI5u0rvLOFvVZdqTvIlRIJv7pNfI
WzO3-etL

Microfotografía de una célula animal


https://www.google.com/url?sa=i&url=https%3A%2F%2Fbio
logiacompartida.wordpress.com%2Fbyg-1o-
bachillerato%2Ftema-1%2Fla-organizacion-
celular%2F&psig=AOvVaw1Mv4s8KFhKzT_cAcc-
QS6i&ust=1604779064057000&source=images&cd=vfe&ve
d=0CAIQjRxqFwoTCLCJroXa7uwCFQAAAAAdAAAAAB
AK
Microfotografía de la estructura nuclear
https://lh3.googleusercontent.com/proxy/oJ0BhyDGYaVyvKGTJAPvWePihnB
CF90N9wkFx5tjAOtBuOvOrKrMccn09CHfL889XLa1UaHdns-
FSeuXqlv4OFh96iXb9kjV31HX2dsEl-
NsHCRWcB39ZmCTUPUYcqbwNbNrvJ5xEUDK1bzc_BUAXi5kY_qIFEBL0
Dufgu6JKSGJ35NN1FawyG28kdmGcVudTjIvWw
Cuadro comparativo entre una célula procariota y eucariota
https://d20ohkaloyme4g.cloudfront.net/img/document_thumbnails/77580822375d17909
200cea8205cf494/thumb_1200_927.png

3. MICROBIOLOGIA
Ciencia que estudia los microrganismos microscópicos, ya sea, células aisladas o
agrupadas también estudia a los virus.
3.1 INTRODUCCION

 Microbiología como ciencia básica


Los microorganismos proporcionan a la ciencia herramientas para el
conocimiento de la naturaleza de los procesos vitales.
 Microbiología como ciencia aplicada
 Se encarga de relacionar a los microrganismos con actividades
industriales, agropecuarias, su relación con las enfermedades que
podrían ser provocadas con alguna de ellas, etc.

 Microrganismo
Organismo microscópico constituido por una solo célula o varias
células, también incluye a los virus.
 Importancia de microrganismos
 Su importancia reside en su vínculo con los demás seres vivos
existentes en la Tierra, ya sean, plantas, animales, el hombre, etc. Son
importantes para el mantenimiento de la vida en el planeta Tierra.
 Importancia de la vida microbiana
 Agricultura: fijación del nitrógeno en plantas leguminosas. (Ej.
Nitrobacter)
 Alimentación: conservación de alimentos, fermentación de
alimentos, aditivos alimentarios (glutamato, levadura, etc.)
 Energía y medio ambiente: biocarburante, biorremediación,
biolixiviación, etc.
 Biotecnología: organismos modificados genéticamente, obtención de
fármacos, terapia génica para algunas enfermedades, etc.

3.2 DIVERSIDAD MICROBIANA


Resultado de la evolución microbiana

 DIVERSIDAD FISIOLOGICA DE LOS MICRORGANISMOS

Energía y carbono
Toda célula requiere de energía y lo obtienen por oxidación de ciertos compuestos
obteniendo finalmente ATP (trifosfato de adenosina). Algunos microorganismos pueden
obtener energía oxidando compuestos en presencia de oxígeno, aquellos son
denominados aeróbicos. En cambio, los que oxidan compuestos en ausencia de
oxígeno, son los denominados anaeróbico.
Por la fuente de energía:
 Quimiorganotrofos: Obtienen energía a partir de la oxidación de
compuestos orgánicos. Aquí encontramos la mayor parte de organismos
que se han logrado cultivar.
 Quimiolitótrofos: Obtienen energía a partir de la oxidación de compuestos
inorgánicos. Esta clasificación es exclusiva de procariotas, ya sea en
especies de Bacterias como en Archaeas.
 Fotótrofo: Contienen pigmentos fotosintéticos. Utilizan la luz solar como
fuente de energía.
Por la fuente de carbono:
 Heterótrofo: Requieren compuestos orgánicos como fuente de carbono.
 Autótrofo: Obtienen el carbono del dióxido de carbono (C02).
 Tolerancia a las condiciones ambientales extremas
Existen procariotas que no solamente son tolerantes a condiciones extremos para
desarrollarse, sino que requieren de estos ambientes para crecer. Por dicha razón, a estos
microrganismos se les denomina extremófilos.
A continuación mostraremos algunos ejemplos.

 Halófito: Se desarrollan en ambientes de alta salinidad.


 Hipertermófilo: Se desarrollan en ambientes de elevada temperatura.
 Acidófilo: Se desarrollan en ambientes que presentan alta acidez (pH
menor de 5)
 Alcalófito: Se desarrollan en ambientes alcalinos.
 Barófilo: Se desarrollan en ambientes de bajas presiones.
CLASES Y EJEMPLOS DE EXTREMOFILOS

 Diversidad de procariontes
Los procariontes están constituidos por dos dominios evolutivos,
Archaea y Bacterias.

 Bacterias
- Proteobacterias
- Cianobacterias
 Archaea
En este grupo encontramos a las extremófilos

 Microrganismos eucariontes
Filogenéticamente constituyen el dominio Eukarya. Los eucariontes más
primitivos carecen de mitocondrias y otras organelas importantes, tales
como las diplomónadas del tipo Giardias.

 Algas
Organismos autótrofos, poseen cloroplastos. Las algas se
encuentran en el suelo y en ambientes acuáticos y son los
principales productores primarios de la naturaleza. Las algas
pueden vivir tan solo a expensas de unos cuantos minerales,
CO2 y luz.
 Hongos
Los hongos carecen de pigmentos fotosintéticos. Se puede
clasificar en unicelulares (levaduras) y filamentosos (mohos).
Los hongos cumplen una función importante en la naturaleza,
ya que, son los principales agentes de la biodegradación.
 Protozoos
Tenemos a los flagelados que son de aparición temprana;
mientras que los ciliados son filogenéticamente posteriores.
 Líquenes
Son un claro ejemplo de mutualismo. Están formados por un
hongo y un microrganismo fotógrafo que puede ser un alga
(eucariota) o una cianobacteria (procariota). El componente
fotótrofo quien es el producto primario y el hongo que brinda
anclaje al sustrato y además protección.

https://image.slidesharecdn.com/microbiologia-ilse-valderrama-1216944679089306-9-
091019182648-phpapp01/95/microbiologia-generalidades-16-728.jpg?cb=1255976974

4 NUTRICION Y METABOLISMO DE MICRORGANISMO

La nutrición microbiana consiste en suministrar ingredientes químicos (nutrientes) a las


células para que ellas puedan formar monómeros. Diferentes microrganismos necesitan
distintos tipos de nutrientes. A estos nutrientes podemos clasificarlos en dos grupos, los
macronutrientes si se requieren en grandes cantidades o en micronutrientes si se
requieren en pocas cantidades.

 Carbono y nitrógeno
Muchos microrganismos necesitan algún compuesto carbonado como
fuente de carbono. En tanto la importancia del nitrógeno radica en la
síntesis de proteínas, ácidos nucleicos (grupo amino) y en otros
componentes celulares.
 Otros macronutrientes: P, S, K, Mg, Ca, Na
El fosforo es fundamental para la síntesis de ácidos nucleicos (forma
parte del grupo fosfato) y fosfolípidos.
El azufre es un componente de ciertos aminoácidos tales como la
cisteína y metionina, también está presente en ciertas vitaminas y en la
coenzima A. En la naturaleza, el azufre sufre unas series de
transformaciones químicas, de las cuales muchas de ellas son llevadas a
cabo exclusivamente por los microrganismos.
El potasio es requerido por diversas enzimas.
El magnesio brinda estabilidad a los ribosomas, membranas, ácidos
nucleicos, y además es necesario para la actividad de diversas enzimas.
El calcio brinda estabilidad a la pared celular y cumple una función
importante en cuanto a la termorresistencia de las endosporas.
El sodio es requerido según el tipo de habitad en que se desarrollan los
microrganismos. Por ejemplo los microrganismos marinos requieren lo
en mayor cantidad que los microrganismos de agua dulce.
 Micronutrientes
También denominados elementos traza, estos se requieren en una
mínima cantidad.

4.1 ENERGIA Y ENZIMAS

 Bioenergética
Definimos energía como la capacidad de realizar trabajo. Bien sabemos
que en las reacciones químicas se producen un cambio de energía.
Cuando las reacciones químicas liberan energía se les denominan
reacciones exotérmicas, en cambio cuando requieren energía se les
denomina reacciones endotérmicas.
 Catálisis y enzimas
Las enzimas son estructuras que actúan como catalizadores. La enzima
se adhiere al sustrato y se denomina complejo enzima-sustrato. Después
de la reacción se forma el producto y la enzima se libera en su estado
normal.
4.2 OXIDACION-REDUCCION Y COMPUESTOS DE ALTA ENERGIA

El resultado de la energía liberada del as reacciones genera compuestos de


alta energía como el ATP.
El proceso oxidación-reducción utiliza la energía liberada.
En bioquímica no solo consideramos la transferencia de electrones cuando
hablamos de reacciones oxido-reducción sino también de átomos completos
de hidrogeno.
4.3 NAD, TRANSPORTADOR REDOX DE ELECTRONES
La transferencia de electrones en una reacción redox oxido-reducción
necesita de un transportado de electrones para ello denominaremos un
donador primario y un aceptor final.

4.4 ALMACENAMIENTO DE ENERGIA

La energía liberada de las reacciones redox debe almacenarse, dicha energía


se almacena en enlaces de adenosina trifosfato (ATP).

5 REPRODUCION EN MICRORGANISMOS

5.1 Bacterias
El mecanismo de reproducción de las bacterias se denomina bipartición. La
bipartición de consta de 4 etapas.

A. Concentración: Se concentra el ADN


B. Replicación: Se duplica el ADN
C. División
D. Citocinesis

5.2 Protozoos

 Asexual
 Fisión binaria: La reproducción asexual de protozoos se
denomina fisión binaria, es un proceso muy similar a la
bipartición

 Gemación
 Esporulación

 Sexual
Este tipo de reproducción no se da en todos los protozoos, solo se da en
los protozoos ciliados. Podemos clasificarlo en dos tipos, singamia y
autogamia, según la unión de los gametos. La primera consiste cuando
las dos células de los protozoos se convierten en gametos para finalmente
unirse. La segunda consiste en la unión de dos gametos formados dentro
de una misma célula.

5.3 Hongos

 Asexual
 Esporulación:
 Gemación
 Fragmentación: En este tipo de reproducción se separa un pedazo
de micelio, este micelio formara un nuevo hongo.

 Sexual
Se produce cuando dos hifas haploides se fusionan para formar un nuevo
hongo.
5. Aplicaciones de la biología (Elene De Erice –Arturo Gonzalez)

La biología tiene un sinnúmero de aplicaciones en la vida diaria; enseguida se presentan


algunas de ellas:
Medicina y salud En la fabricación de vacunas, como la del vph (virus del papiloma
humano) y de nuevos antibióticos que sustituyen aquellos contra los cuales las bacterias
han creado resistencia.
Área pecuaria Contribuye a reforzar y crear nuevos alimentos para animales de
consumo humano, como cerdos, vacas y pollos.
Agricultura Colabora en la creación de pesticidas más eficaces, como los biológicos
(venenos obtenidos de plantas o bacterias), así como en la localización de las especies
de insectos que se alimentan de otros insectos, el mejoramiento de semillas para
obtener, mediante técnicas transgénicas, cultivos más resistentes al ataque de plagas.
Medio ambiente Investiga el origen, la degradación y los efectos de diversos
contaminantes del agua, el suelo y el aire. Aporta propuestas para un mejor desarrollo
sustentable de los recursos que posee cada una de las regiones del país.
Investigación Experimenta en las diferentes ramas (genética, etología, entomología,
paleontología, biología molecular, biología humana, biología marina, inmunología,
etcétera), con lo que determina e identifica ca nuevos conocimientos.
Biotecnología Colabora en el manejo y perfeccionamiento de técnicas que lleven a la
obtención de nuevos productos, útiles para el hombre, como medicamentos, semillas
mejoradas, fertilización in vitro, etcétera.
Genética Investiga sobre la eugenesia, la clonación terapéutica y reproductiva, la
lectura del genoma de varias especies, entre ellas el del hombre.
Estas son algunas aplicaciones de la biología
A los biólogos les interesa conocer y estudiar todas las áreas en las que su materia
tiene algo que investigar, determinar, desarrollar o conocer y profundizar; por ejemplo,
como es un escarabajo, en que se diferencia de otros, de donde vienen, su relación con
otros organismos como las plantas, si se comen o causan danos, como han evolucionado
o por que hay en algunos sitios y en otros no.

6 Lecturas

Lectura 1
recaución
Contra lo que se cree, la ciencia no siempre proporciona respuestas tajantes, sobre todo
en las fronteras del conocimiento. Visualicemos el conocimiento científico como un
círculo que va creciendo a lo largo de la historia.
En su centro está lo que sabemos con certeza casi completa, como que la Tierra es
esférica o que el ADN es una doble hélice. Al alejarnos del centro del círculo
encontramos conocimiento más reciente que, aunque sólido, puede ser cuestionado. Las
posibles causas del cáncer o el significado de la teoría cuántica son dos ejemplos. Y en
el perímetro del círculo hallamos teorías que todavía están en discusión: los expertos
aún no han llegado a un consenso.
Quizá queden dentro del círculo, o quizá fuera.
A veces estas teorías en duda afectan directamente al ser humano o al ambiente, como
ocurre con la discusión sobre el calentamiento global o la siembra de vegetales
transgénicos.
Se cree que el actual aumento de la temperatura atmosférica se debe a gases de
invernadero como el dióxido de carbono, liberado por la actividad humana. Si es así,
como estudios muy numerosos indican, sería urgente dejar de producirlo.
Pero el costo de sustituir la tecnología basada en la quema de combustibles por otras
fuentes de energía sería inmenso. Y los vegetales transgénicos tienen el potencial de
aumentar la productividad
alimentaria para combatir el hambre, pero podrían contaminar los genes de cultivos
tradicionales y causar un daño ecológico difícil de predecir y controlar.
¿Qué decisión tomar, en casos así, si ni los expertos se ponen de acuerdo?
Desde hace algunos años se acepta que la solución más adecuada es el llamado principio
de precaución, que indica que si hay razones para creer que una acción pudiera causar
daño público o ambiental, y no hay certeza científica de que esto no ocurrirá, debemos
abstenernos de realizar dicha acción.
Suena simple. Pero el balance de costos y beneficios es complejo: someter a la
economía global a una presión adicional podría causar mucho daño innecesario. Y dejar
de producir alimento necesario ante un posible daño al ambiente puede ser no solo un
error, sino una falta de ética.
Afortunadamente el círculo del conocimiento sigue creciendo; las incertidumbres van
dejando de serlo. Hoy existe consenso casi total respecto al cambio climático: es claro
que dejar de emitir dióxido de carbono debe ser una prioridad para todos los países. El
asunto de los transgénicos no es todavía tan claro, pero sin duda, la discusión e
investigación continua ayudarán pronto a tomar la mejor decisión.
La ciencia puede ser útil y benéfica, pero también peligrosa. Por eso, el conocimiento
que produce debe aplicarse con cuidado y sabiduría.
1. Explica por escrito el significado de la frase: “La ciencia puede ser útil y benéfica,
pero también peligrosa”.
2. Comparte con tus compañeros tu respuesta y comenten entre todos acerca del tema de
la lectura.
Fuente: Martín Bonfil Olivera. “Principio de precaución”. En: ¿Cómo ves?

Lectura 2 En la filosofía de la vida


Si el objetivo central de esta disciplina es el estudio de la vida, éste debe de
preservarla, el de acercar satisfactores que así lo permitan, todo lo que atente
contra ello es cuestionable, como por ejemplo: ¿Se aprueba el aborto?, por lo que
habremos de determinar ¿Cuándo y en qué momento ya se tiene vida? ¿Qué
postura tomar ante la eutanasia y ante la pena de muerte? ¿Nos podemos erigir en
autoridades que determinen, quién vive o quién muere? Esta postura no sólo será
cuando se habla del ser humano. (Pasará lo mismo con el reino animal) Tú que
opinas, de la muerte sin compasión, del dolor innecesario, para saciar el hambre
conforme al instinto, como en una corrida de toros, una pelea de gallos o de
perros. La cacería indiscriminada cobijada por el “deporte”, o por probar qué tan
buena puntería tenemos, aunque dejemos a nuestra presa como una basura por
nuestro paso. Y que decidir: ¿Clonamos o no clonamos? ¿Le daremos luz verde a
los organismos transgénicos? ¿Qué pasará con la privacidad génica de cada uno
de nosotros? ¿Servirá para determinar si somos sanos y tenemos derecho al
trabajo remunerado? Y finalmente ¿A quién le pertenece la secuencia génica, al
que la descifró o al medio ambiente natural y social, que lo gestaron a lo largo de
cientos de generaciones? En otras palabras, el fríjol, el maíz o la papa, le pertenecen a
los Mexicanos, Peruanos o a los Estadounidenses, sin duda, muchas otras preguntas de
igual relevancia han colocado un nuevo escenario en el que se mueve la Biología a
través de la Bioética.

Produccion de penicilina
Acido cítrico
Velasquez, J. A.I,II Beltran, D.I Padilla, L.I y Giraldo, G.III
I Laboratorio Diseno de Nuevos Productos, Universidad del Quindio. Calle 12 Norte Cra 15, Armenia,
Colombia.
II [email protected]
III Director del Grupo de Investigacion
Archivo Bioing112-ac citrico

El ácido cítrico ha sido conocido como una sustancia natural de las plantas desde fi
nales del siglo XIX, y desde 1893 l

En cuanto a la producción de ácido cítrico, Grewal y Kalra (6) afi rman que el pH inicial
requerido depende de la fuente de carbono utilizada, y Ruijter y sus colegas (7)
mencionan que los hongos fi lamentosos Aspergillus niger acumulan altas
concentraciones de ácido cítrico a partir de hexosas o disacáridos cuando es cultivado
bajo condiciones particulares. El plátano Dominico Hartón en estado maduro es un fruto
rico en carbohidratos, por lo que en el trabajo del que acá damos cuenta se empleó como
sustrato en un proceso de fermentación por lotes, utilizando como agente fermentante el
hongo Aspergillus niger, y evaluando el pH inicial y la concentración del sustrato sobre
la producción de ácido cítrico.
Cultivo
Se empleo la cepa de Aspergillus niger, donada por el centro de biotecnologia de la
universidad EAFIT, sede Medellin. La preparacion del preinoculo se realizo con base
en la metodologia descrita por Delgado (8), desarrollando el proceso en una cabina
de fl ujo laminar para evitar la contaminacion de los tubos inoculados. La preparacion
de la suspension de esporas se hizo conforme a la metodologia descrita por Saez
y colegas (5): para lograr homogeneidad en el inoculo se mezclo la suspension de
varios tubos y se inoculo el sustrato de platano maduro Dominico Harton (Musa
AAB Simmonds) con 5% de suspension de esporas a una concentracion de 1.0X107
esporas/mL. Para todos los cultivos microbiologicos se utilizo un fermentador tipo
tanque agitado con capacidad para 5 L, utilizando un volumen de trabajo de 2 L. El
fermentador consta de un sistema de agitacion de dos turbinas provistas de 6 paletas
con eje vertical, operando a una velocidad de agitacion de 350 rpm. La temperatura
de incubacion se mantuvo constante a 30 ± 1.C durante el periodo de fermentacion
y se mantuvo una velocidad de fl ujo de aire en 1 vvm. Se empleo como antiespumante
10% de polietilenglicol de uso industrial. El porcentaje de saturacion de oxigeno
se mantuvo por encima de 75%. El pH del sustrato se ajusto al valor deseado con
adicion de HCl o NaOH 1.0 N, la concentracion de 100 g/L de azucares reductores
en el sustrato se empleo para evaluar el pH inicial de 4.0, 5.0 y 6.0. Para evaluar la
concentracion del sustrato se ajusto, diluyendo con agua o aumentando la concentracion
utilizando rotavapor a 60 .C y 75 mbar, para evaluar las concentraciones de 50,
100 y 150 g/L de azucares reductores, se utilizo el pH inicial de 5.0. Se tomaron las
muestras cada 0, 24, 48, 72, 96, 120 y 144 horas para realizar los respectivos analisis.
Acido glutámico
Archivo Bioing113-ac glutamico

OBTENCIÓN Y PURIFICACIÓN DE ÁCIDO GLUTÁMICO A PARTIR DE HIDROLIZADOS DE RAQUIS


DE PALMA AFRICANA (Elaeis guineensis), POR FERMENTACIÓN CON LA BACTERIA
Corynebacterium glutamicum ATCC 13032

ANDREA MARCELA ROSERO BERNAL


Produccion de insulina
Archivo Bioing114-insulina
Biolo15. Amada: mecanismo de transporte Pag.53
Es el intercambio de materia entre el interior de la célula y su ambiente externo. La bicapa
lipídicade la membrana actúa como una barrera que separa dos medios acuosos, el medio
donde vivela célula y el medio interno celular. Las células requieren nutrientes del exterior
y deben eliminar sustancias de desecho procedentes del metabolismo y mantener estable su
medio interno. La membrana presenta una permeabilidad selectiva, ya que permite el paso
de pequeñas moléculas y bloquea el paso de otras.
El transporte a través de la membrana depende del tamaño de las moléculas y se divide en
dos grandes grupos: los de moléculas de bajo peso molecular y los de moléculas de elevado
peso molecular.
La función de la membrana plasmática es crítica porque la vida de la célula depende de que
su composición normal se mantenga constante. Esta membrana puede realizar sus funciones
debido a que es selectivamente permeable, de tal manera que algunas sustancias pueden
entrar y salir a través de ella y otras no.
En general, sustancias tales como el dióxido de carbono, oxígeno, glicerol, agua y alcohol
pueden cruzar libremente la membrana. Son capaces de pasar entre las cabezas hidrofílicas
de los fosfolípidos y atravesar las colas hidrofóbicas de la membrana. Se dice que estas
moléculas siguen su gradiente de concentración a medida que se mueven. Las moléculas
siguen su gradiente de concentración y se mueven de un área donde su concentración es
alta a un área donde su concentración es baja. En la figura 2.8 se ilustra cuáles sustancias
pueden atravesar la membrana celular mediante difusión y cuáles requieren ser
transportadas por proteínas y / o requieren energía.

Biolo16. Calvo: microtransporte Pag.167

el gradiente de concentración es la fuerza impulsora del transporte. Varios son los


factores que afectan a la difusión simple:
• Tamaño del soluto: cuanto más pequeño es el soluto, más fácil será atravesar la
membrana y penetrar entre las moléculas de fosfolípidos.
• Polaridad: debido a la composición lipídica de la membrana plasmática, las
moléculas no polares se disuelven con más rapidez en la fase hidrófoba y, así, pueden
atravesar más rápidamente la doble capa de lípidos, mientras que las moléculas
polares son repelidas.
• Liposolubilidad: se mide por el cociente de reparto K , que corresponde al cociente
r

entre la solubilidad del soluto en aceite y su correspondiente solubilidad en agua.


Cuanto más liposoluble sea el soluto, mayor será el cociente de reparto. La
permeabilidad de la membrana plasmática a una molécula aumenta paralelamente a
su cociente de reparto (fig. 4-2).
• Gradiente de concentración: el gradiente de concentración mide la diferencia de
concentración entre los dos lados separados por la membrana plasmática. Se refiere a
la fuerza impulsora de la difusión, de forma que, lógicamente, cuanto más grande es el
gradiente, mayor es la difusión.
1
• Carga: las sustancias cargadas tienen una mayor dificultad a la hora de penetrar en la fase
hidrófoba de la bicapa lipídica. Por esta razón, en los ácidos y bases débiles, las formas no
disociadas difunden con más facilidad.

FIGURA 4-1 Permeabilidad relativa de la membrana plasmática a diferentes moléculas.

Representación del cociente de reparto de algunas moléculas frente a su permeabilidad. Obsérvese que los
solutos que poseen un similar cociente de reparto no son igualmente permeables debido a la diferencia de
tamaño.
Cotransporte

Cotransporte de Na+/glucosa. Los transportadores SGLT, situados en la membrana apical,


aprovechan el flujo de entrada del Na+ a favor de gradiente para introducir glucosa en
contra de gradiente. La glucosa sale por difusión facilitada a través de los transportadores
GLUT situados en la membrana basolateral.
Contransporte
Ejemplos de contratransportes (transporte activo de tipo indirecto o secundario): transporte
de intercambio de Na+/Ca2+ y de Na+/H+. (Ilustración de: E. Maldonado.)
Biolo21. Evans: transporte a través de membranae Pag.53

Biolo27. audersik: toro belga. evolucion

Bioing31
Biotransporte
Visión general
El cuerpo humano está formado por estructuras complejas y delicadas. Estas estructuras son
continuamente sometidas a diversas perturbaciones. Por ejemplo, todas las células requieren
un suministro constante de nutrientes como oxígeno, glucosa y agua para apoyar varios
funciones. Hay un tráfico continuo incesante de moléculas e iones dentro y fuera las células
y el cuerpo. Varias membranas biológicas que recubren las células y los tejidos actúan como
barreras para el transporte de moléculas mientras regula las funciones biológicas en cada
nivel. Por lo tanto, se puede visualizar que el transporte de moléculas ocurre en cinco niveles.
1. A través de diferentes tejidos;
2. Entre diferentes tipos de células;
3. Entre las células del mismo tipo;
4. Desde el exterior hacia el interior de la célula;
5. Dentro de una célula.
Por ejemplo, el flujo de moléculas e iones entre la célula y su entorno está regulada con
precisión por sistemas de transporte específicos. Movimiento regulado de varios iones a
través de las membranas celulares conduce a la presencia de gradientes iónicos, que son
vitales para estimular los nervios y los músculos. Además, vital funcional moléculas como
la insulina secretada por las células β pancreáticas necesitan ser transportadas a todo el
cuerpo.
Una comprensión fundamental de cómo la homeostasis (una palabra griega que significa
mismo "y" en pie ", un estado de relativa constancia de su entorno interno) es mantenido en
varios compartimentos del cuerpo es fundamental para el diseño y desarrollo de sustitutos
sintéticos, que efectivamente podrían interferir y / o reemplazar el tejido enfermo o
disfuncional.
“La homeostasis (del griego homos (ὅμος), ‘similar’, y stasis (στάσις), ‘estado’, ‘estabilidad’)
es una propiedad de los organismos vivos que consiste en su capacidad de mantener una
condición interna estable compensando los cambios en su entorno mediante el intercambio
regulado de materia y energía con el exterior (metabolismo). Se trata de una forma de
equilibrio dinámico que se hace posible gracias a una red de sistemas de control
realimentados que constituyen los mecanismos de autorregulación de los seres vivos.
Ejemplos de homeostasis son la regulación de la temperatura y el balance
entre acidez y alcalinidad (pH).”

Por ejemplo, dispositivos de apoyo externos como máquinas de diálisis, máquinas de


circulación extracorpórea, ventiladores mecánicos y agentes de contraste utilizados durante
la obtención de imágenes biomédicas, tienen que ayudar a mantener la homeostasis.
Dializando, La solución utilizada en diálisis solo debe eliminar las toxinas y el exceso de
agua electrolitos no importantes. Además, modelar varios procesos fisiológicos como
alteraciones en los flujos de calcio durante un ciclo cardíaco (y eventos posteriores) ayuda a
comprender el proceso de regeneración de tejidos. Aunque la transferencia molecular a
grandes distancias ocurre junto con el flujo de fluido (denominado como flujo convectivo),
discutiremos los mecanismos de transporte básicos a través de varios barreras biológicos en
este capítulo. Primero, las terminologías básicas como diferentes compartimentos, Se definen
el pH, la presión y la concentración. A continuación, difusión, ósmosis describe el transporte
de moléculas a través de diferentes tejidos. Finalmente, movimiento de macromoléculas a
través de células individuales.
Factores fundamentales
A) Compartimentos de fluidos
El agua es el fluido principal del cuerpo a través del cual se mueven las biomoléculas desde
una región a la otra. El líquido en el cuerpo es intracelular o extracelular. Intracelular hay
líquido dentro de las células. El líquido extracelular está presente fuera de la célula cuerpo.
El líquido extracelular se subdivide en los siguientes compartimentos:
1. El plasma, que ocupa el espacio extracelular dentro de los vasos sanguíneos y el corazon.
2. El líquido intersticial, que ocupa los espacios entre los tejidos excluyendo vasos
sanguíneos. Una gran fracción de sangre en los capilares que rodean un el espacio del tejido
se filtra al espacio del tejido como líquido intersticial. Por lo tanto, intersticial el líquido baña
las células en el espacio del tejido. Por tanto, todos los requisitos de células tales como
nutrientes y señales y sus productos sintetizados son transportado a través del espacio
intersticial.
3. El fluido transcelular, que incluye los fluidos formados durante actividades de transporte
(es decir, no dentro de las células, sino separadas del plasma e intersticial fluido por barreras
celulares). Los ejemplos incluyen líquido en la vejiga, líquido en tracto gastrointestinal,
líquido cefalorraquídeo y sudor.
En la Figura se muestra una distribución general de los compartimentos de líquidos para un
macho de 70 kg. 2.2 (a). La cantidad total de líquido intracelular es la fracción más grande
de volumen líquido en el cuerpo, contribuyendo a casi el 40% del peso corporal. En relación
al peso corporal, el contenido de agua disminuye desde la infancia (~ 75% del peso corporal)
a la vejez, y la mayor disminución ocurre dentro de los primeros 10 años de vida. En machos
adultos, el agua representa casi el 60% del peso corporal, mientras que las hembras adultas
tienen menos contenido de agua (casi el 50% del peso corporal) en su cuerpo. Esto se debe a
más tejido adiposo (graso) subcutáneo (debajo de la piel), que contiene menos agua.
La temperatura del cuerpo humano se mantiene a 37,4 ° C y hay alteraciones en el cuerpo La
temperatura está regulada por muchos mecanismos, incluida la sudoración durante el
ejercicio. Redistribución y reposición adecuadas del agua perdida debido a diversos factores
fisiológicos procesos como el metabolismo son esenciales para la salud normal. Un
desequilibrio en la distribución diaria de agua puede causar anomalías en la función corporal.
Acumulación de agua en varias partes del cuerpo causa una serie de riesgos para la vida
enfermedades que incluyen edema pulmonar y edema cerebral.
A medida que el agua del sudor se evapora de la piel, el enfriamiento por evaporación algo
del calor corporal, lo que ayuda a enfriar el cuerpo. Junto con el agua, el sudor contiene
electrolitos que incluyen sodio, potasio, calcio, magnesio, cloruro, bicarbonato, fosfato y
sulfato. Normalmente, 1 litro de sudor contiene 0,02 g de calcio, 0,05 g de magnesio, 1,15 g
de sodio, 0,23 g de potasio y 1,48 g de cloruro, pero la composición de electrolitos del sudor
varía de un individuo a otro. Excesivo la pérdida de agua puede provocar deshidratación y
agotamiento. La pérdida de lo esencial Los electrolitos, que pueden provocar calambres,
pueden reducir la transferencia de nutrientes y agua dentro y fuera de la célula (conocida
como respiración celular) porque las células requieren un equilibrio preciso para la máxima
eficiencia celular. Por lo tanto, reemplazar el agua perdida es esencial para una vida sana.
B) Concentración
Concentración es el término utilizado para relacionar la masa de un componente en una
mezcla con el volumen de la mezcla. En un sistema de flujo, la concentración se relaciona
con el caudal másico del componente al caudal volumétrico. Si la concentración está definida
por el masa por unidad de volumen de la mezcla (kg / m3), entonces se llama concentración
de masa. La concentración también se puede definir en moles por unidad de volumen donde
un mol es el peso molecular de ese componente (kmol / m3). Esta definición de concentración
molar es más útil para evaluar sistemas donde se está produciendo una reacción.
Para cargar moléculas, la concentración también se define en equivalentes por litro para
representar la alcalinidad o acidez de esos componentes. Un equivalente es la cantidad de
sustancia que se combinará con o reemplazará un mol de iones H + en una reacción química.
Así, Eq / L se puede convertir en términos de g / L o mol / L usando la valencia del
componente.
Ejemplo 2.1: Un paciente tiene una concentración sérica de magnesio de 2,7 mEq / L. Cual
es la concentración en mg / dL?
Solución: De la definición de mEq, mEq = mmol × valencia
mmol = 2,7 (mEq / L) / 2 = 1,35 (mmol / L)
= 1,35 × 24,3 mg / mmol = 32,8 mg / L o 3,28 mg / dL
La membrana celular es una membrana semipermeable (es decir, permite atravesar algunas
sustancias, pero no todos). Por lo tanto, el líquido intracelular tiene un distintivo composición
iónica, diferente del líquido extracelular [Figura 2.2 (b)]. El líquido El intracelular tiene una
composición similar en todos los tipos de células y contiene altos niveles de iones K + y bajos
niveles de iones Na +. Por el contrario, el líquido extracelular contiene niveles elevados de
iones Na + y niveles bajos de iones K +. Estas diferencias son importantes para varios
funciones biológicas, que se describirán más adelante en este capítulo y en el capítulo 3. La
composición del líquido intersticial es similar a la del plasma sanguíneo, excepto contiene
una menor concentración de proteínas que el plasma y, por lo tanto, un poco mayor
concentración de agua. La linfa tiene casi la misma composición que la de líquido intersticial
original.
Las diferencias en las concentraciones a través de una barrera son una de las fuerzas
impulsoras de el transporte de moléculas en sistemas biológicos. La segunda ley de la
termodinámica establece que los procesos naturales del universo proceden de estados que
están más ordenados a estados que están más desordenados ( también de estados de alta
energía a baja energía). El movimiento de cualquier molécula hacia arriba (hasta un
concentración más alta) o hacia abajo (a una concentración más baja) un gradiente de
concentración implica un cambio en la energía libre (ΔG: hacia abajo libera energía, por lo
que ΔG es negativo; hacia arriba consume energía, por lo que ΔG es positivo). Idealmente,
la cantidad de energía libre liberada o consumido se calcula utilizando
(2.1)
donde ΔG es el cambio en la energía libre de Gibbs por mol; R es la constante de gas universal
(1.987 cal.mol − 1.K − 1 o 8.314 J.mol − 1.K − 1); T es la temperatura absoluta, que debe
estar en Kelvin (K = 273 + ° C) o Rankine (° R = 459.67 + ° F); Cin es el concentración
dentro de la célula (mM); Cout es la concentración fuera de la célula (mM); z es la carga
eléctrica de las especies transportadas; F es la constante de Faraday y ΔV es el voltaje a través
de la membrana (discutido en el Capítulo 3). La constante de Faraday es la número de
unidades de carga estática por mol de carga, que es 96,484.5 Coulomb / mol (= 23,062
calorías / V.mol) liberado cuando un mol de iones desciende por un gradiente de voltaje de
1 voltio (1.000 mV). La ecuación (2.1) supone que las concentraciones representan la
actividad de ese componente en cada compartimento y no hay interacciones con otras
especies.
El primer término del lado derecho de (2.1) se debe al gradiente químico a través de la
membrana y se llama potencial químico. Es la cantidad por la cual La energía libre del
sistema cambiaría si se introduce una partícula adicional sin alterando las distribuciones y el
volumen del sistema. El segundo término a la derecha lado de (2.1) proporciona energía
debido al gradiente eléctrico, normalmente denominadoderiva, y se analiza en el Capítulo 3.
Para el transporte de moléculas no cargadas, la La contribución del segundo término se
desprecia y la energía libre total de Gibbs es calculado conociendo el cambio total en el
número de moles en el sistema.
Ejemplo 2.2
La concentración de glucosa dentro de la célula es de 0,5 mM y la concentración de glucosa
fuera de la celda es de 5 mM. Suponiendo una temperatura corporal de 37 ° C, calcule ΔG.
Solución: usando (2.1) sin el gradiente eléctrico
A medida que avanza el proceso con la liberación de energía libre, puede continuar
espontáneamente si la bicapa de fospolípidos permite que la glucosa pase a través de ella. Sin
embargo, el fosfolípido bicapa no es permeable a la glucosa y necesita otros medios de
transporte (discutido en la Sección 2.3.2).

C) Presión
La presión se define como la fuerza por unidad de área. La unidad SI de presión es N / m2 y
se llama Pascal. Otras unidades de presión son atmósfera, bar, torr, milímetros de mercurio
(1 atm = 760 mmHg) y dinas por centímetro cuadrado. Debido a la contracción del corazón,
la presión arterial en la aorta normalmente aumenta a 120 mmHg durante sístole, mientras
que cae a 80 mmHg durante la diástole. La presión de la sangre arterial se disipa en gran
medida cuando la sangre entra en los capilares. Aunque el diámetro de un solo capilar es
pequeño (7-10 μm), el número de capilares suministrados por un solo arteriola es tan grande
que el área de sección transversal total disponible para el flujo de sangre es significativamente
más. Por lo tanto, la presión de la sangre cuando ingresa a los capilares disminuye. Cuando
la sangre sale de los capilares y entra en las vénulas y venas, poco permanece la presión para
forzarlo. La presión en las venas es casi una décima parte de la de las arterias. Por lo tanto,
la sangre en las venas debajo del corazón se ayuda a regresar al corazón.por el efecto de
compresión de los músculos contraídos presentes en las venas. Las venas también tienen
válvulas unidireccionales llamadas válvulas venosas para evitar el reflujo dentro de las venas.
Uno de las funciones del riñón son controlar la presión arterial y tomar medidas correctivas
si cae secretando la enzima renina.
La presión también surge debido a la gravedad de la Tierra. La presión en el fondo de un
líquido estancado de altura (Δh) se expresa en términos de la densidad (ρ) del fluido (para
sangre = 1.050 kg / m3) como
ΔP = ρgcΔh
donde gc es la constante gravitacional y es 9.81 m / s2 en unidades SI. Esta presión es también
llamada presión hidrostática. Si la persona está acostada (lo que se denomina posición
supina), entonces se ignora la presión hidrostática. Si la presión arterial se mide en la altura
de la cabeza, las lecturas de presión sistólica / diastólica son casi 35 mmHg menos en
comparación con las lecturas tomadas a nivel del corazón, mientras que a la altura del suelo
la presión las lecturas serán 100 mmHg mayores. La presión en cualquier punto de un fluido
actúa igualmente en todas direcciones. Esto se llama ley de Pascal de la presión del fluido.
La presión arterial se controla mediante un dispositivo llamado esfigmomanómetro, que no
requiere intervención quirúrgica. Consiste en un manguito inflable, una goma bulbo para
inflar el manguito, una válvula para controlar la presión y un manómetro como como un
manómetro. El brazalete se envuelve alrededor de la parte superior del brazo
aproximadamente al mismo altura vertical como la ubicación del corazón. Luego, el
manguito se infla apretando el perilla de goma a una presión más alta (típicamente 180
mmHg) que la presión sistólica. La diferencia de presion entre el interior (Pinside) y el exterior
(Poutside) de un vaso se llama presión transmural, que regula la forma de un vaso. Cuando la
presión externa aplicada es más alta que la presión sistólica, la arteria colapsa y el flujo
sanguíneo se detiene temporalmente. Luego, la válvula se abre para liberar el presión del
brazalete muy lentamente. Cuando la presión del manguito alcanza la presión sistólica, la
arteria se vuelve a abrir permitiendo que la sangre pulse en la arteria, lo que hace un sonido
silbido debido a vibraciones contra las paredes arteriales. Este sonido se escucha por primera
vez con la ayuda de un estetoscopio. Con la ayuda de un manómetro, la presión
correspondiente a ese sonido se graba. El flujo de sangre a través de la arteria aumenta
constantemente hasta que la presión del brazalete desciende por debajo de la presión
diastólica.
La presión a la que se escucha el sonido por segunda vez es la presión diastólica. Con
medidores digitales, estas presiones se registran y muestran directamente. La diferencia la
presión entre dos sitios diferentes dentro de un vaso se denomina presión de perfusión. Esta
diferencia de presión es necesaria para que fluya el fluido.
En el cuerpo también existe el intercambio de gases. La sangre transporta el CO2 de las
células y entrega O2 a las células. Al discutir el movimiento de gases, usando concentración
para describir la fuerza impulsora no es la medida apropiada porque gran parte de los gases
disueltos en los fluidos corporales están unidos a otro componente (p. ej., oxígeno a
hemoglobina) o transformado en otra forma química (por ejemplo, CO2 a bicarbonato). El
uso de la concentración total da una fuerza impulsora erróneamente alta, ya que incluye
moléculas unidas que no son libres de moverse solas. Al discutir movimiento de gases, una
medida precisa de la fuerza impulsora es la presión parcial. En una mezcla de gases, la presión
parcial de un componente es la presión ejercida por ese componente si estaba presente solo
en el mismo volumen y temperatura. Si P es la presión total de un sistema que contiene el
componente A en una fracción molar de yA, entonces la presión parcial viene dada por
pA = yAP
La presión total debida a todos los componentes es la suma de los parciales individuales
presiones. Esto se llama ley de Dalton. Si hay cuatro componentes, entonces la presión total
se obtiene usando
P=p+p+p+p
La ley de Dalton supone que las moléculas no interactúan entre sí, lo que es válido para
gases respiratorios (O2, CO2, N2 y H2O). Sobre una base molar, aire seco al nivel del mar
contiene 21% de O2, 79% de N2 y casi 0% de CO2. Dado que la presión total es de
aproximadamente 760 mmHg (o 1 atm), los principios anteriores, digamos, la presión parcial
de el oxígeno O2 (P) es 160 mmHg (= 0,21 × 760 mmHg). Del mismo modo, la presión
parcial de nitrógeno N2 (P) es 600 mmHg al nivel del mar. Para los gases, el potencial
químico entre Los sistemas de fase gaseosa adyacentes en (2.1) se pueden calcular usando
(2.3)
donde pin y pout son las presiones parciales de un componente. Para convertir la presión a una
concentración a una temperatura conocida, la relación más utilizada es la ley de los gases
ideales (o perfectos). Según la ley de los gases ideales, un sistema que ocupa un volumen V
a una presión absoluta P y la temperatura absoluta T están relacionadas por
(2.4)
donde n es el número de moles y C es la concentración. La presión absoluta se refiere a la
presión medida en relación con un vacío perfecto. Usando gas ideal, un mol de aire a una
temperatura y presión estándar (STP), que son 273 ° C y 1 atm, ocupa un volumen de 22.415L
(o 359.05 ft3). La aproximación de gas ideal es adecuada para la mayoría de las aplicaciones
biomédicas que involucran gases, que ocurre arriba 0 ° C y cerca de 1 atmósfera.
Ejemplo 2.3
Mary Joy está inhalando 500 mL de aire con cada respiración a una velocidad de 12
respiraciones por minuto. Las composiciones molares de los gases inspirado y espirado son
las que se indican en la tabla. El gas inspirado está a 25 ° C y 1 atm, y el gas expirado está a
la temperatura corporal y presión (es decir, 37 ° C y 1 atm). El nitrógeno no se transporta
dentro o fuera de la sangre en el pulmon.
Calcule las masas de O2, CO2 y H2O transferidas desde el gases pulmonares a la sangre o
viceversa (especificar cuál) por minuto.
(b) Calcule el volumen de aire exhalado por mililitro inhalado
Especies O2 CO2 N2 H2O
Gas inspirado (%) 21 0 77 2
Gas expirado (%) 15 4 75 6
(c) ¿A qué velocidad (g / min) Mary Joy pierde peso al respirar?
Solución: el volumen de gases cambia con la temperatura y la presión. Sin embargo, el
número de moles no cambia si no hay reacción. Por tanto, el primer paso es convertirv olumen
a moles
En STP, 1 mol de gas ocupa 22.414L.
Por lo tanto,
(ver ejemplo 2.3)
Los fluidos corporales no absorben nitrógeno. Por tanto, la misma cantidad de nitrógeno que
ingresa al sistema sale del sistema. Usando esta relación, el total de moles exhalados puede
ser calculado.
Es decir,
0,77 * 0,2246 = 0,75 * n salida
Reordenamiento, n salida = 0,252 mol exhalados / min
Sabiendo el total de moles exhalados,
O2 transferido a la sangre: (0.245 * 0.21 - 0.252 * 0.15 (mol O2 / min) = 0.439 g / min
CO2 transferido de la sangre: (0.252 * 0.04 (molCO2 / min)) * 44 g / mol = 0.443 g / min
H2O transferido de la sangre: (0.252 * 0.06 - 0.245 * 0.02 (mol H2O / min)) = 0.184 g /
min.
Al respirar, este individuo pierde 0,184 g en un minuto.
Los gases se disuelven en líquidos cuando entran en contacto. La solubilidad de un gas en un
líquido depende en temperatura, la presión parcial del gas sobre el líquido, propiedades del
líquido y el gas. Comprender la solubilidad de los gases en el agua es importante en muchas
aplicaciones. Por ejemplo, evaluar la solubilidad de un agente anestésico por inhalación en
sangre es importante para evaluar el tiempo necesario para establecer la inconsciencia
necesario para un procedimiento quirúrgico. Alternativamente, midiendo El nivel de alcohol
la sangre también es posible. Cuando moléculas como el oxígeno y el CO2, que no
condensarse en un líquido en STP están en contacto con una solución, la cantidad de que la
molécula disuelta en líquidos se estima utilizando la ley de Henry, particularmente para
moléculas que tienen una solubilidad muy baja (concentración cercana a cero). De acuerdo a
Ley de Henry, la fracción molar de un gas que permanece en la solución depende de su
presión parcial, pA (Figura 2.3). La fracción molar de un componente, xA, en la solución es
dado por
(2.5)
donde HA es la constante de la ley de Henry para el soluto A en un solvente específico, P es
la presión total y yA es la fracción molar de A en la fase gaseosa. La ley de Henry constante
para algunos de los gases comunes que se encuentran en aplicaciones biomédicas es dado en
la Tabla 2.1. Para otros elementos, la constante puede obtenerse de varios manuales. Sin
embargo, hay que comprobar las unidades, ya que se puede expresar la ley de Henry. en
diferentes formas. La ecuación (2.5) se expresa en fracciones molares. Cuando Henry La ley
se expresa en términos de molalidad (moles de soluto / kg de solución), la constante tendrá
moles adicionales de soluto por kilogramo de unidades de disolvente. Cuando Henry la ley
se expresa en concentración, la constante tendrá moles adicionales por litro de unidades de
solución. Sin embargo, la constante de la ley de Henry es función de la temperatura y
generalmente aumenta al aumentar la temperatura. La constante de la ley de Henry no
incluyen los productos de solubilidad de los iones.
(Ver tabla 2.1)
Ejemplo 2.4
Calcule la concentración de oxígeno disuelto en agua saturada de aire en condiciones
atmosféricas normales condiciones a 25 ° C y a 37 ° C.
Solución: Las condiciones atmosféricas normales son 21% molares de oxígeno, lo que hace
que presión parcial de oxígeno 0.20948 atm o 20.67 kPa. Desde (2.5),
Considere 1 litro de agua, que equivale a 998 g, con una densidad de 0,998 g / mL a 25 ° C
Luego el numero de moles es:
Usando la definición de fracción molar

D) pH corporal
pH es una escala que mide qué tan ácida o alcalina es una solución. El logarítmico de una
concentración de iones H + en un fluido se expresa en unidades de pH. La escala va desde 1
a 14, siendo 1 muy ácido, 7 neutro y 14 muy alcalino. Números de pH más altos indican un
mayor potencial para absorber más iones H + mientras que los números más bajos indican
un mayor potencial para la donación de iones H +. Los diferentes fluidos del cuerpo tienen
diferentes valores de pH. El líquido en el estómago está entre uno y tres, la orina es un poco
ácida, la bilis tiene un pH de 7,8 y la sangre humana tiene un pH de aproximadamente 7,4.
Aunque el pH de los fluidos del estómago es muy ácido, la superficie del estómago es estable
a un pH de 8. En el intestino, existen gradientes de pH a lo largo de la barrera epitelial.
El pH corporal es muy importante porque controla la velocidad de los procesos bioquímicos
del cuerpo. reacciones controlando la actividad enzimática y las señales eléctricas. Por tanto,
el pH delos fluidos corporales deben regularse. El nivel de pH del cuerpo es un resultado
directo de lo que come o bebe la persona. Actividades como beber café negro (pH = 5) o
alcohol, el ejercicio intenso, que produce ácido láctico, altera el pH local. Normalmente, una
sangre El pH por debajo de 7.0 o por encima de 7.8 es peligroso. Acidosis es la palabra que
se usa cuando el cuerpo está expuesto a condiciones ácidas y alcalosis es la palabra que se
usa cuando el cuerpo está expuesto a condiciones alcalinas.
El cuerpo tiene dos mecanismos para ajustar el pH alterado: excreción y amortiguación. La
excreción ocurre en los pulmones como CO2 o por los riñones. Hay búfer agentes que limitan
los cambios de pH al aceptar los iones H + producidos dentro de la célula como así como
fuera de la celda. Un ácido A puede disociarse en un anión A− y iones H +,que está escrito
en la forma de reacción como:
HA ____________ A− + H +,
En equilibrio, las velocidades de reacción en cada dirección son iguales. Podemos describir
esta relación con una constante de equilibrio KA,
Dado que la reacción se escribe para la disociación del ácido, la constante de equilibrio se
denomina constante de disociación ácida, KA. Tomando el registro negativo ambos lados da
(2.6)
La ecuación (2.6) se denomina ecuación de Henderson-Hasselbach, que se utiliza como una
guía para preparar soluciones tampón y estimar cargas en especies ionizables en solución,
como cadenas laterales de aminoácidos en proteínas. Se debe tener precaución al usar esta
ecuación porque el pH es sensible a los cambios de temperatura y la concentración sal en la
solución que se está preparando.
La acción amortiguadora es más eficaz si los valores de pK están más cerca de los valores de
pH. Un mecanismos de control pH en el cuerpo (tanto en fluidos intracelulares como
extracelulares) es amortiguado por bicarbonatos. El CO2 liberado de los tejidos ingresa a los
glóbulos rojos vía plasma y se combina con agua para formar ácido carbónico. Esta reacción
se cataliza por una enzima llamada anhidrasa carbónica, que también disocia el ácido
carbónico al CO2 y al agua. El ácido carbónico se disocia en HCO3- e iones H +.
Además, el CO2 puede reaccionar con las bases para formar iones de bicarbonato, que
ayudan tampón en el plasma.
El intercambio de CO2 proporciona control del pH en la sangre y los tejidos. Para estas
reacciones, la ecuación de Henderson-Hasselbach se escribe como
(2.7)
De (2.7), un aumento en la concentración de CO2 reduce el pH (es decir, acidosis) y un
aumento de HCO3 - la concentración aumenta el pH (es decir, alcalosis). Mientras utilizando
máquinas corazón-pulmón, (2.7) se utiliza para predecir los niveles de bicarbonato a partir
del pH y CO2 midiendo directamente el pH mediante electrodos. Sin embargo, una La
aplicación es recordar las consecuencias de subir o bajar uno de los componentes del sistema.
Aunque H2CO3 y HCO3- participan en el control del pH, El tampón de bicarbonato no es
un sistema tampón importante porque su pKA es 6.1, que está lejos del pH sanguíneo.
Ejemplo 2.5
Su asesor de tesis no tiene dinero para equipos y es la única incubadora para cultivar células
en 37 ° C en el laboratorio está roto. Después de comprobar que no es reparable, decide
construya uno usted mismo. Esta incubadora de baja tecnología consta de una caja en la que
colocó una controlador de temperatura, que mantiene una temperatura uniforme de 37 ° C.
Una cacerola con agua es colocado en el fondo de la caja para humedecer la atmósfera. Dado
que no hay controlador nivel de CO2 disponible, llenará la cámara de gas con CO2 al 5%. Y
se balancea co aire Cómo ¿Cuánto NaHCO3 agregaría para obtener un pH fisiológico? Los
siguientes datos están disponibles (todos los valores medidos a 37 ° C):
donde K1 es 4.7 × 10−3 y K2 es 1.7 × 10−4. La solubilidad del CO2 en agua es 0.03 mM /
mmHg y la presión de vapor del agua a 37 ° C es 47,4 mmHg. (Cortesía del Dr. Berthiaume,
Harvard Escuela de Medicina.)
Para determinar [CO2]
[CO2] = (Solubilidad del CO2 en H2O) * PCO2
Según la ley de Dalton, la presión total dentro de la incubadora
Por lo tanto, La composición del gas dado es 5% pCO2 y 95% aire seco
Por lo tanto pCO2 = 0.05* 712.6 = 35.63 mmHg
Por lo tanto, [CO2] = solubilidad de CO2 en H2O * PCO2 = 0.03 [mM / mmHg] 35.63
[mmHg] = 1.07× 10−3M
Para determinar [H +]: pH = −log [H +] = 7.4 o [H +] = 10−7.4 = 4 × 10−8M
Sustituyendo en (E.2.1), la cantidad de HCO3- requerido para mantener el fisiológico el pH
es [HCO3-] = (4.7 × 10−3) (1.7 × 10−4) (1.07 × 10−3) / (4 × 10−8) = 0.021M
Entonces, cantidad de NaHCO3 = 84.01 (g / mol) × 0.021 (mol / L) = 1.76 g / L

Hay algunas proteínas intracelulares (por ejemplo, hemoglobina) y fosfato que contienen
moléculas (por ejemplo, fosfocreatina), que ayudan a amortiguar. Las proteínas son las
tampones más importantes del cuerpo. En particular, la hemoglobina juega un papel
fundamental en la amortiguación del pH, y una capacidad aún mayor cuando se desoxigena.
Las proteínas plasmáticas también son tampones pero su cantidad es pequeña en comparación
con las proteínas intracelulares. Las moléculas de proteína poseen grupos básicos y ácidos,
que actúan como aceptores de iones H + o donantes, respectivamente, si el ion H + se añade
o se elimina. Tampones de fosfato (H2PO4- y H2PO42−) son moderadamente eficientes
cuando el pK es 6,8 y más cercano al pH del plasma.
La concentración de fosfato es baja en el líquido extracelular, pero el sistema tampón de
fosfato es un tampón urinario importante. Estos mecanismos son complementarios a los
cambios a largo plazo (días) regulados por los riñones. Esencialmente, riñones actúan como
unidades de separación por tamaño para la sangre, haciendo uso de los diferentes tamaños de
partículas y filtrarlas. Los riñones cambian los electrolitos del líquido extracelular a mantener
el pH a 7,4. A diferencia de los cambios de pH debido al CO2, que el sistema respiratorio
puede producir (minutos), la compensación renal es lenta. Además, hay limitaciones a la
acidez de la orina.
Los riñones no pueden producir un pH urinario de mucho menos de 4.4. Los ácidos fuertes
pueden eliminarse de la sangre y excretarse en la orina reaccionando con la sal básica de
ácido fosfórico en la orina sin producir una reducción del pH de la orina, o por la adición de
NH3 (una base) a la orina. La amortiguación por vía renal ocurre solo cuando los
componentes que cambian el pH están en exceso. Si el cambio de pH se debe a una
deficiencia de un componente que no sea ácido carbónico, la regulación del pH por los
riñones no es posible a menos que esa deficiencia sea restaurada por suplementación.
2.3 Difusión
La difusión es un movimiento aleatorio de moléculas, que resulta en el movimiento de
moléculas de un área de mayor concentración a un área de menor concentración. Una vez la
concentración se vuelve uniforme, no hay transferencia neta de moléculas de una región al
otro aunque el movimiento aleatorio continúa ocurriendo. Considere la figura2.4 donde dos
regiones, L y R, que contienen un disolvente (por ejemplo, agua) están separadas por una
membrana, que es permeable a un soluto A (por ejemplo, sal común). Si una gran cantidad
de A se agrega a la región R, luego las moléculas comienzan a moverse aleatoriamente, lo
que da como resultado moléculas que cruzan a la región L. Como la región L no tenía A, los
resultados de la difusión en la ganancia neta de A.
La transferencia de moléculas por difusión es uno de los principales procesos a través de qué
moléculas se mueven en muchos procesos fisiológicos. Por ejemplo, el lípido Las membranas
bicapa y basal son permeables a las moléculas de agua y algunas moléculas pequeñas sin
carga como O2, CO2, N2, NH3, ácidos grasos y algunos alcoholes.
Estos se difunden libremente dentro y fuera de la celda. Sin embargo, la bicapa lipídica no
es permeable a iones como K +, Na +, Ca2 + (llamados cationes a medida que migran hacia
el cátodo), Cl−, HCO3- (llamados aniones porque migran hacia el ánodo), o pequeñas
moléculas hidrofílicas como glucosa, proteínas y ARN.
La eliminación de toxinas de la sangre mediante diálisis también funciona por difusión entre
la sangre y el dializado, el fluido externo utilizado en el proceso.
2.3.1Difusión libre
Difusión que ocurre espontáneamente debido a la presencia de una concentración favorable
o gradientes de presión es difusión libre. Adolf Fick (fisiólogo alemán) observó que las leyes
utilizadas para la conducción de calor y electricidad también se aplican a la difusión libre en
una solución homogénea en general. Según Fick, la cantidad de sustancia A cruza un área
determinada en el tiempo dt es proporcional al gradiente de concentración (dcA /dx en
kgmoles / m4) de A en la dirección x. Esto se conoce comúnmente como la primera ley de
Fick y escrito matemáticamente como
(2.8)
donde JD es el flujo de difusión (es decir, el número de moléculas que se mueven desde un
región a través de una unidad de área del límite por unidad de tiempo) y DAB es la difusividad
constante del soluto A a través del disolvente B. De (2.8), el movimiento neto de moléculas
se duplica si el gradiente de concentración se duplica. Además, el tiempo requerido que una
molécula se difunda entre dos puntos es proporcional al cuadrado de la distancia que separa
los dos puntos. La primera ley de Fick se aplica a todos los fluidos, aunque la difusión
molecular es mucho más rápida en un gas que en un líquido. Hormonas como la progesterona,
la testosterona y el estrógeno atraviesan la pared celular por difusión libre.
Un ejemplo de difusión libre es la respiración donde el aire ingresa a los pulmones
(inspiración) y salidas de los pulmones (espiración). Durante cada respiración, el intercambio
de gases se produce entre los espacios alveolares de los pulmones y la sangre en el pulmón
capilares, llamado respiración externa (o pulmonar) (Figura 2.5). La sangre gana O2 y pierde
CO2 por difusión. Presión parcial de oxígeno (p CO2 en el aire alveolar es de 105 mmHg y
el p CO2 en la sangre desoxigenada que ingresa a los capilares pulmonares es de 40 mmHg.
Dado que el O2 se encuentra en una concentración más alta en el alvéolo, se difunde desde
alveolo en sangre hasta que el p CO2 alcanza 105 mmHg. Por otro lado, el p CO2 en
pulmonares la sangre desoxigenada es de 45 mmHg y el p CO2 en los alvéolos alcanza los
40 mmHg..
Por tanto, el CO2 se difunde de la sangre al alvéolo hasta que el p CO2 alcanza los 40 mmHg.
Difusión durante la respiración externa es ayudado por un espesor reducido de la membrana
de respiración,, gran superficie, gran número de capilares y exposición máxima de las células
sanguíneas. El intercambio de gases entre la sangre en pequeños capilares y tejidos. Las
células, llamadas respiración interna, también se realizan por difusión libre. p CO2 en
capilares arteriales es de 105 mmHg pero 40 mmHg en el tejido circundante. Por lo tanto, el
oxígeno se difunde de la sangre en tejidos. Por otro lado, la p CO2 en el tejido circundante
es de 45 mmHg y 40mmHg en sangre. Dentro de las células, llamado respiración celular, los
procesos bioquímicos consumen O2 y emiten CO2 durante la producción de fosfatos de alta
energía como el trifosfato de adenosina (ATP). Suministro y eliminación continuos de O2 y
El CO2 está asegurado por diferencias en las presiones parciales entre el interior y el exterior.
La constante de difusividad (DAB) de un soluto varía con el solvente, la temperatura y
viscosidad. Para cuantificar la difusión en un medio biológico complejo, es necesario aplicar
la ecuación de difusión mediante el uso de algunas propiedades macroscópicamente eficaces,
como la concentración media local y la difusividad de la solución libre. Usando los
fundamentos de la ecuación de movimiento (descritos en el Capítulo 4) para difusividad de
un soluto esférico rígido de radio rse en una solución diluida, Einstein (también conocida
como relación Stokes-Einstein) llegó a la expresión..
(2.9)
Figura 2.5: Difusión libre en el intercambio de oxígeno y dióxido de carbono en varias partes
del cuerpo.
donde D∞ se llama difusividad en solución libre [m2 / s], NA es el número de Avogadro
(6.023× 1023 moléculas / mol), y μ es la viscosidad del disolvente (kg / m⋅s, Pa.s o N.s / m2).
Ya que la constante de gas es el producto de la constante de Boltzmann y el número de
Avogadro, (2.9) también se escribe en términos de la constante de Boltzmann. El radio de
Stokes rse también es referido como el radio hidrodinámico de la molécula de difusión cuya
forma es se supone que es rígido y esférico. Se ha demostrado que la ecuación (2.9)
proporciona unas buenas predicciones de difusividad para moléculas grandes esféricas o
partículas en disolventes, que mostrar menos deslizamiento. La ecuación (2.9) también se
usa para estimar el radio de Stokes efectivo del soluto si se conoce su difusividad. Se dan los
valores de algunas de las moléculas en la Tabla 2.2
Para determinar la difusividad de un soluto, se estima su radio de Stokes efectivo asumiendo
que es igual al radio molecular del soluto esférico sólido, que da la expresión
(2.10)
Tabla2.2

donde ρ es la densidad del soluto y típicamente varía entre 1.265-1.539 g / cm3 para proteínas
globulares. Las ecuaciones (2.9) y (2.10) estiman la difusividad libre de solutos en un medio
homogéneo. Sin embargo, la presencia de otras moléculas afecta la constante de difusividad.
Para tener en cuenta algunas de las alteraciones, la difusividad de la solución libre está
relacionada con la constante de difusividad en la primera ley de Fick por
donde kD se denomina coeficiente de impedimento para la difusión. En ausencia de
especificidad interacciones tales como adsorción y efectos eléctricos, kD para solutos
esféricos en membranas con poros cilíndricos es una función de la relación entre el radio del
soluto y el radio de los poros de la membrana. Sin embargo, la dependencia con la
temperatura de coeficiente difusión de una molécula esférica, no es lineal. La dependencia
con temperatura de la constante difusividad también surge de los cambios de viscosidad.
Ejemplo 2.6
Un componente proteico principal en suero es 4,5 g por 100 ml de albúmina (PM = 75.000;
diámetro = 70Å). Calcule el coeficiente de difusión del componente a 37 ° C en agua.
Solución: resolver los coeficientes de difusión

El valor D∞ informado experimentalmente (Tabla 2.2) es ligeramente menor que este valor.
Un enfoque alternativo es el desarrollo de ecuaciones empíricas, que relacionan la constante
de difusividad con el peso molecular (MW) de la molécula de soluto. Una de estas
correlaciones empíricas para solutos en una solución acuosa diluida a 37 ° C es:
(2.11)
Sin embargo, la combinación de (2.10) y (2.8) da:
(2.12)
donde f es el coeficiente de fricción. Cuando el gradiente de concentración a través de una
membrana porosa es lineal en una ubicación, la primera ley de Fick (2.8) se puede escribir
en una forma simple como:
(2.13)
donde Pmem es la permeabilidad de la membrana a la molécula (también conocido como
coeficiente de transferencia de masa local). La permeabilidad tiene en cuenta la naturaleza
química de los medios porosos permisivos. La permeabilidad depende de la difusividad del
sustrato y del espesor efectivo, d, a través del cual debe difundirse el sustrato.
Normalmente, se supone que el espesor efectivo es el espesor de la barrera. Cuando una serie
de barreras están presentes en una serie, la permeabilidad efectiva se puede obtener
utilizando:
(2.14)
donde Pmem, i es la permeabilidad de la barrera individual.
Ejemplo 2.7
Una empresa de bioingeniería está evaluando una película (150 mm de espesor) hecha de
polietileno y nailon para dos aplicaciones: (1) envasar un medicamento, que debe evitar la
transferencia de oxígeno a 30 ° C, y (2) como oxigenador de membrana en un corazón. -
máquina pulmonar. La presión parcial de O2 en el aire es de 0,21 atm y la presión interior
permitida es de 0,001 atm. Calcule la difusión de O2 en estado estable. ¿Cuál es más
adecuado en cada aplicación? La permeabilidad del oxígeno a 30 ° C en una película de
polietileno es 4.17 × 10-12 m / s.atm y en nailon es 0.029 × 10-12 m / s.atm).
Solución: Suponga que las resistencias a la difusión en el exterior y el interior de la película
son insignificantes en comparación con la resistencia de la película. La ecuación (2.14) se
define para concentraciones, y para usarla para este problema, la presión debe expresarse en
concentración. Suponiendo una ley de gas ideal, a una temperatura estándar (273 K) y presión
(1 atm), 1 mol de gas ocupa 22,414 L.

Una película de nailon tiene un valor de permeabilidad al oxígeno mucho menor y constituiría
una barrera más adecuada. Sin embargo, para una aplicación de oxigenador de membrana, el
polietileno sería más adecuado.
La ecuación (2.14) supone que el soluto es fácilmente soluble en el medio en el que se define
la permeabilidad. Sin embargo, la transferencia molecular se reduce en escenarios donde la
solubilidad es limitada. Por ejemplo, existe un gradiente de concentración de glucosa entre
el líquido extracelular y el líquido intracelular, pero las membranas no permiten la
transferencia de glucosa de un compartimento al otro. Para cruzar la bicapa lipídica de la
membrana celular, una sustancia debe entrar (o dividirse) en la matriz química de la
membrana. Los lípidos no interactúan eficazmente con moléculas polares, como el agua o
sustancias como la glucosa que se disuelven fácilmente en agua. Por tanto, las moléculas
polares experimentan una resistencia significativa al entrar en la bicapa lipídica. En
consecuencia, incluso en presencia de un gradiente de concentración química favorable, la
difusión de glucosa a través de la membrana celular es muy lenta. Un enfoque general para
incluir el efecto de la solubilidad en el cálculo de la permeabilidad es incorporar un factor
llamado coeficiente de partición, ϕ, que se define como la relación entre la solubilidad del
compuesto en lípidos y la del agua. Entonces
(2.15)
2.3.2 Difusión facilitada
La bicapa lipídica es una barrera semipermeable. Varias moléculas no pueden difundirse
libremente, a pesar de la presencia de gradientes electroquímicos, ya que la bicapa lipídica
es impermeable. Una forma a través de la cual algunas moléculas se transportan dentro y
fuera de las células es mediante el uso de estructuras especializadas llamadas transportadores.
Este proceso se denomina difusión facilitada y no requiere un gasto de energía.
Los transportadores son típicamente proteínas, o conjuntos de proteínas, incrustadas en la
bicapa lipídica. Los transportistas se clasifican ampliamente en dos grupos: transportistas y
canales. Los portadores son proteínas altamente específicas, que interactúan con la molécula
que se transporta en sitios específicos llamados sitios receptores. Esos sitios tienen una forma
tridimensional, lo que permite la interacción con moléculas que tienen una configuración
tridimensional coincidente. Esta disposición proporciona especificidad, similar a una llave
específica de una cerradura. Moléculas con una forma que no coincide con un sitio de unión.
no se pueden unir al transportador y por lo tanto no se transportan. A diferencia de la difusión
libre, en la que el transporte de una molécula es linealmente proporcional a su concentración
[Figura 2.6 (a)], el transporte de una molécula mediado por un portador es proporcional a su
concentración sólo cuando hay un exceso de portadores. Cuando todos los portadores están
unidos a la molécula (o saturados), un aumento en la concentración de la molécula no altera
la velocidad de transporte. Considere el transporte de glucosa, que necesita transportadores
para pasar a través del labio. Se puede considerar que la difusión facilitada de glucosa ocurre
en tres pasos [Figura 2.6 (b)]:
1. La glucosa en el entorno extracelular se une a un portador.
2. La unión hace que el portador experimente un cambio transformacional que resulta en una
apertura en el otro extremo.
3. La glucosa se libera por el otro lado.
Si todos los portadores se dedican a transportar glucosa, la presencia de exceso de glucosa
no altera la velocidad de transporte de glucosa. Entonces, la velocidad a la que el
transportador se acopla y desacopla de una molécula de glucosa determina la velocidad de
transporte. Por tanto, las características del transportador influyen en la velocidad de
transferencia, y comprender las características del transportador es importante en muchas
aplicaciones terapéuticas.
La difusión facilitada de moléculas también se produce a través de proteínas transmembrana
llamadas canales, que forman un poro hidrófilo a través de la membrana. Estos canales se
abren o cierran (de ahí que se denominen cerrados) por estímulos externos como estrés
mecánico, cambios en el potencial de membrana o sustancias químicas. Los canales son
menos selectivos que los portadores y el transporte, y no están limitados por el número de
canales, a diferencia de los portadores. Muchos canales se abren o cierran en respuesta a la
unión de una molécula pequeña (figura 2.7), que no es la sustancia transportada cuando se
abre el canal. Estos se denominan ligandos y pueden originarse en entornos extracelulares o
intracelular según la necesidad de la célula. Un ejemplo es el receptor de acetilcolina
nicotínico neuronal (nAChR), que se distribuye ampliamente en el cerebro de los
vertebrados. El nAChR se une al ligando acetilcolina así como al ligando nicotina (n). La
unión de ligandos provoca un cambio conformacional y abre el canal iónico. Estos canales
transportan iones de sodio, calcio y potasio y propagan señales sinápticas. Por tanto, los
nAChR median las propiedades gratificantes de la nicotina.
Figura 2.6: Difusión facilitada: (a) alteración en los riñones de transporte y (b) pasos en el
transporte de glucosa.
Figura 2.7: Transporte a través de un canal controlado por ligando.
Además, los canales controlados por ligandos regulan varias funciones centrales como la
memoria y la atención, el sueño y la vigilia, la ansiedad y el dolor. Son respondedores rápidos.
En células excitables como neuronas y células musculares, algunos canales se abren o cierran
en respuesta a cambios en el potencial de membrana a través de la membrana plasmática.
Estos canales se denominan canales iónicos activados por voltaje. Los ejemplos incluyen los
canales de sodio y potasio activados por voltaje de nervios y músculos, y los canales de calcio
activados por voltaje. Hay canales con compuerta mecánica (por ejemplo, mediante ondas de
sonido) y canales con compuerta de luz como la canalrodopsina, que se abre por la acción de
la luz. Los canales activados por voltaje son mensajeros rápidos.

2.3.3 Transporte activo


El transporte de moléculas contra su gradiente de concentración o potencial eléctrico con
gasto de energía se denomina transporte activo. La fuente de energía puede ser ATP,
transporte de electrones o luz, y muchas moléculas del cuerpo son transportadas en el cuerpo
por este mecanismo de transporte activo. El uso de energía para impulsar moléculas implica
que el propio sistema de transporte debe ser capaz de aprovechar la energía en una forma
particular y usarla para transportar un soluto contra una concentración o gradiente eléctrico.
Según cómo se aprovecha la energía, el transporte activo se agrupa en dos tipos principales,
primarios y secundarios.
En el transporte primario,
la energía se acopla directamente al movimiento de la sustancia deseada a través de una
membrana, independientemente de cualquier otra especie. La energía libre requerida para el
proceso de transporte puede ser proporcionada por enlaces de fosfato de alta energía. El
gradiente de iones Na + a través de los dos lados de la membrana plasmática es creado por el
transporte activo del ión Na + fuera de la célula por la ATPasa Na + / K + [Figura 2.8 (a)], el
único usuario de energía en el cuerpo. Primero, la unión de un grupo fosfato hace que el
transportador (también llamado bombas, ya que usan energía) experimente un cambio
transformacional y la liberación de tres iones Na + al líquido extracelular. Además, dos iones
K + se transportan al citosol cuando el grupo fosfato se desacopla del transportador. Un
transportador activo impulsado por ATP incluye iones Na +, iones K +, iones Ca2 +, ATPasas
Vacuolor H + y glucoproteínas resistentes a múltiples fármacos. Ejemplos de flujo de luz y
electrones son los transportadores de H +, Na + o Cl− y las citocromo oxidasas de las
mitocondrias.
En este tipo de transporte también intervienen proteínas de membrana transportadoras,
pero éstas requieren energía en forma de ATP para poder transportar las moléculas al otro
lado de la membrana, por lo tanto este transporte se realiza en contra del gradiente
electroquímico. La bomba de sodio y potasio (Na+/K+) es un ejemplo de trasporte activo.
Esta bomba requiere una proteína que bombea 3 iones de sodio (3Na+) hacia el exterior de
la membrana y 2 iones de potasio (2K+) hacia el interior. Esta proteína actúa contra el
gradiente de concentración, gracias a su actividad enzimática como ATPasa, ya que rompe
el ATP para obtener la energía necesaria para el transporte y genera ADP + P (adenosin-
difosfato +fosfato). Biolo 15
En el transporte activo secundario, el proceso de transporte se acopla a otro proceso de
transporte con un gradiente de concentración descendente. El transporte de solutos a través
de una membrana podría ocurrir en la dirección opuesta, lo que se denomina contratransporte
(anti-transporte) o en la misma dirección, que se denomina cotransporte (simportación). En
el contratransporte [Figura 2.8 (b)], un soluto se transfiere de una región de alta concentración
a una región de baja concentración, lo que produce la energía para impulsar el transporte del
otro soluto desde una región de baja concentración a una región de alta concentración. Un
ejemplo de contratransporte es el intercambiador de sodio-calcio o antiportador, que permite
que tres iones de sodio ingresen a la célula para transportar un Ca2 + hacia afuera. Muchas
células también poseen una ATPasa de calcio, enzimas que pueden operar a bajas
concentraciones intracelulares de calcio y establecen la concentración normal o en reposo de
este importante segundo mensajero. Pero la ATPasa exporta iones de calcio más lentamente:
sólo 30 por segundo frente a 2000 por segundo del intercambiador. El intercambiador entra
en servicio cuando la concentración de calcio aumenta abruptamente y permite una rápida
recuperación.
El cotransporte [Figura 2.8 (c)] utiliza el flujo de una especie de soluto de una concentración
alta a una baja para mover otra molécula. Un ejemplo es el simportador de glucosa, que
cotransporta dos iones Na + por cada molécula de glucosa que importa a la célula. Además,
el transporte activo de pequeñas moléculas orgánicas como los aminoácidos está mediado
por un cotransporte de iones Na +. El transporte activo también puede transportar en grupo,
lo que se denomina translocación de grupo.
Figura 2.8 Transporte activo de moléculas: (a) transporte primario, (b) contratransporte
secundario y (c) cotransporte secundario.
Ejemplo 2.8: Una célula se encuentra en un entorno en el que la concentración de iones Na
+ exterior es 140 mM y la concentración de glucosa es 0,005 mM. El interior de la celda tiene
10 mM de iones Na + y 5 mM de glucosa. La diferencia de potencial a través de la membrana
es de -70 mV. El sistema de transporte celular facilita el cotransporte de iones Na + y glucosa.
Por cada ingesta de moléculas de glucosa, se importan dos iones de Na +. Si ambas moléculas
necesitan ser transportadas al interior de la célula, ¿será suficiente la energía liberada por la
transferencia de iones Na + para el transporte de glucosa en su gradiente?

Para dos moléculas en movimiento, la energía liberada es de 27,2 kJ. Para la glucosa, no hay
gradiente eléctrico. Por lo tanto,

Dado que se mueve una molécula de glucosa, la energía liberada por dos iones Na + es
suficiente para importar glucosa a la célula.

2.4 Osmosis
La ósmosis es un tipo especial de difusión que implica el movimiento del agua hacia un área
de mayor concentración de solutos. Considere un tubo en U (Figura 2.9) donde dos
soluciones salinas acuosas, 10 mM (10 milimoles por litro) en la rama B y 100 mM en la
rama A, están separadas por una membrana selectivamente permeable (o semipermeable)
solo al agua Dado que las moléculas de sal no pueden atravesar la membrana, permanecen
en la rama A, pero las moléculas de agua se difunden desde la región de menor concentración
de soluto a la región de mayor concentración de soluto. Por tanto, el agua se movería de la
rama B a la rama A en el diagrama. Desde la perspectiva del agua, su concentración es mayor
en la solución salina 10 mM que en la solución salina 100 mM. Por tanto, las moléculas de
agua descenderían por su gradiente de concentración. La presión ejercida por una solución
sobre otra a través de la membrana se llama presión osmótica, π. En la figura 2.9, se puede
ver que la solución en la rama A ejerce una presión a través de la membrana semipermeable.
El número de partículas formadas por un soluto determinado determina la presión osmótica.
Cada partícula no difusora en la solución contribuye en la misma cantidad a la presión
osmótica independientemente del tamaño de la partícula.

Fig 2.9
A diferencia de la difusión, la ósmosis es un proceso reversible (es decir, la dirección del
flujo de agua a través de la membrana se puede invertir controlando la presión externa sobre
la solución). En la Figura 2.9, la presión osmótica (P) también se puede ver como la presión
hidrostática requerida para detener el flujo osmótico. Si la presión aumenta a más de la
presión osmótica, entonces el flujo se invierte. Este es el principio utilizado en las unidades
de filtración de ósmosis inversa (hiperfiltración).
Las dos soluciones de la figura 2.9 son análogas a los líquidos intracelular y extracelular. El
agua se transfiere a través de las membranas celulares dentro del cuerpo, ya sea desde los
glóbulos rojos al plasma sanguíneo, o desde dentro de las células de los diversos tejidos del
cuerpo (como los músculos) al líquido intersticial (el líquido entre las células). La diferencia
de presión osmótica entre los fluidos intersticial y plasmático se debe a las proteínas
plasmáticas, ya que las proteínas no atraviesan fácilmente la pared capilar. La presión
osmótica creada por las proteínas recibe el nombre de presión osmótica coloide o presión
oncótica. Para el plasma humano, la presión oncótica es de 28 mmHg, 19 mmHg causada por
las proteínas plasmáticas y 9 mmHg causada por los cationes dentro del plasma que se
retienen a través de la interacción electrostática con las cargas superficiales negativas de las
proteínas. La albúmina es la más abundante de las proteínas plasmáticas y las globulinas
representan la mayor parte del resto.
2.4.1 Osmolaridad
Osmole se define como un mol de una sustancia no se difunde ni se disocia. Un mol de una
sustancia disociable como el NaCl equivale a dos osmoles.
1 osmol = cantidad de sustancia que se disocia en solución para formar 1 mol de partículas
con actividad osmótica
Por ejemplo (suponiendo una disociación completa):
• 1 osmol/l de NaCl contiene 0,5 moles del ion Na+ y 0,5 moles del ion Cl−.
• 1 osmol/l de sacarosa contiene 1 mol de sacarosa.
• 3 osmol/l de CaCl2 contienen 1 mol del ion Ca2+ y 2 moles del ion Cl−.

El número de osmoles por litro de solución se llama osmolaridad. (La osmolalidad es una
medida de los osmoles de soluto por kilogramo de solvente). Una solución que es isosmótica
(iso = "igual") a otra solución tiene la misma concentración de partículas de soluto. Una
solución que es hiperosmótica (hiper = "sobre") a otra solución tiene una mayor
concentración de soluto, y una solución que es hiposmótica (hipo = "debajo") a otra solución
tiene una menor concentración de soluto. Para soluciones fisiológicas, es conveniente
trabajar en términos de miliosmoles (mOsm) o miliosmolares (mOsM).
La tabla 2.3 enumera las composiciones de los fluidos corporales en miliosmolares.
Aproximadamente el 80% de la osmolaridad total del líquido intersticial y el plasma es
producido por iones de sodio y cloruro. La composición de estos dos fluidos es muy similar
ya que el fluido intersticial surge de la filtración de plasma. Los fluidos extracelulares e
intracelulares tienen la misma presión osmótica.
Los cambios en el volumen de agua en los fluidos corporales alteran la osmolaridad de los
fluidos corporales, la presión arterial y la presión del líquido intersticial. La sensación de sed
se debe a un aumento de la osmolaridad de los líquidos extracelulares y a una reducción del
volumen plasmático. Las células dentro del hipotálamo pueden detectar un aumento de la
osmolaridad del líquido extracelular e iniciar la actividad en los circuitos neurales que resulta
en una sensación consciente de sed. Los barorreceptores, grupos de fibras nerviosas
especialmente adaptados dentro de las paredes de algunos vasos sanguíneos y del corazón,
también pueden influir en la sensación de sed. Cuando detectan una disminución de la presión
arterial, se envían señales al sistema nervioso central a lo largo de las neuronas sensoriales
para influir en la sensación de sed. La presión arterial baja asociada con el shock
hemorrágico, por ejemplo, se correlaciona con una intensa sensación de sed.
Ejemplo 2.9
Se utiliza clínicamente NaCl al 0,9%, comúnmente llamado solución salina. ¿Cuál es la
osmolaridad de esta solución? Solución: el NaCl se disocia en iones Na + y Cl−.
La solución de NaCl al 0,9% contiene 0,9 gramos de NaCl por 100 ml de agua o 9 gramos
por litro. El PM de NaCl es 58,5. Por lo tanto, hay 9 / 58.5 o 0.154 mol o 154 mmol / L de
NaCl de solución. Por tanto, la osmolaridad es 154 × 2 = 308 mOsM.

2.4.2 Tonicidad
Se refiere al efecto de una solución sobre la forma de una celula. Se dice que una solución
que no cambia la forma de una celula es isotónica. En una solución isotónica, la célula está
en equilibrio (es decir, el movimiento de agua y solutos hacia la célula es igual al movimiento
de agua y solutos fuera de la célula). Por tanto, la celula sigue siendo del mismo tamaño. Una
celula colocada en una solución hipotónica se hinchará debido al agua que ingresa a la celula.
Alternativamente, si una célula se coloca en una solución hipertónica, la célula se encogerá
debido al movimiento osmótico del agua.
Para comprender la diferencia entre tonicidad y osmolaridad, considere el líquido
intracelular de una célula animal, que tiene una osmolaridad de 290 mOsm. Las células
animales normalmente no contienen urea, aunque sus membranas celulares son permeables
a la urea. Cuando se coloca una célula animal en una solución de urea de 290 mOsm, la urea
entra en la célula. La presencia de urea en el interior hace que aumente la presión osmótica,
lo que a su vez ayuda a que ingrese más agua a la célula por ósmosis. El aumento del
contenido de agua y urea dentro de la célula hace que la célula se hinche (y reviente). Por
tanto, una solución de urea isosmótica es hipotónica para las células animales. Dentro de las
células, los lisosomas contienen material osmóticamente activo y se hinchan y se rompen
rápidamente si se suspenden en soluciones hipotónicas. Los lisosomas suspendidos en una
solución isoosmótica de un soluto no permeante están en equilibrio osmótico y son estables.
Se inyectan grandes volúmenes de una solución de albúmina humana al 5% en pacientes
sometidos a un procedimiento llamado plasmaféresis. La albúmina se disuelve en solución
salina fisiológica (NaCl al 0,9%) y, por tanto, es isotónica al plasma humano. Si las
soluciones al 5% no están disponibles, los farmacéuticos pueden sustituirlas por una dilución
adecuada de una solución de albúmina al 25%. Mezclar 1 parte de la solución al 25% con 4
partes de un diluyente da como resultado la solución correcta de albúmina al 5%. Si el
diluyente utilizado es agua estéril, no solución salina fisiológica, la solución resultante es
fuertemente hipotónica para el plasma humano. El resultado es una hemólisis masiva que
pone en peligro la vida de los pacientes.
Las bebidas deportivas también se pueden agrupar en función de la tonicidad. Las bebidas
isotónicas (por ejemplo, Gatorade) reemplazan rápidamente los líquidos perdidos por la
sudoración y proporcionan un aumento de carbohidratos. Esta bebida se hace típicamente
para el atleta promedio. Las bebidas hipotónicas reemplazan rápidamente el líquido perdido
y son las mejores para atletas con baja transpiración, como jinetes y gimnastas. Las bebidas
hipertónicas (por ejemplo, Powerade) complementan la ingesta diaria de carbohidratos
normalmente después del ejercicio para aumentar las reservas de glucógeno. Esta bebida se
usa principalmente para atletas como corredores de larga distancia que necesitan
carbohidratos y electrolitos adicionales.
2.4.3 Presión osmótica
La diferencia de presión entre las regiones A y B en equilibrio es la presión osmótica (π) de
la región A. La expresión para calcular π se deriva utilizando principios termodinámicos.
Considere el estado de equilibrio de las mezclas líquidas en las dos regiones de la figura 2.9.
El agua se difunde desde la región B hacia la región A hasta que la energía libre por mol de
agua en cada lado de la membrana es la misma. Para una solución ideal con una concentración
de soluto muy pequeña, se puede demostrar que
π= RT ΔC (2.16)
donde ΔC es la diferencia de concentración del soluto a través de la membrana
semipermeable (moles / litro). La ecuación (2.16) se llama ecuación de Van’t Hoff y es para
un solo soluto. Un método común para lidiar con las desviaciones de las soluciones diluidas
ideales es usar el coeficiente osmótico, φ. Con el coeficiente osmótico, la ecuación de Van’t
Hoff se escribe como:
π=φ RT C
donde φ es el coeficiente osmótico molal. Para no electrolitos como la glucosa, φ> 1 a
concentraciones fisiológicas. Para los electrolitos, φ <1 debido a las interacciones eléctricas
entre los iones (p. Ej., El NaCl en concentraciones fisiológicas tiene un coeficiente osmótico
de 0,93). Para las macromoléculas, la desviación se vuelve mucho más dramática; la
hemoglobina tiene un coeficiente osmótico de 2,57 y el de la parvalbúmina presente en el
mioplasma de rana es de casi 3,7.
Ejemplo 2.10
Usando los valores dados en el Ejemplo 2.5, calcule la presión osmótica debida a cada
componente. (Estos resultados son inexactos debido a los efectos eléctricos).
Solución: para la albúmina

2.4.4Osmómetros
La monitorización de la osmolalidad es importante para mejorar la atención del paciente
mediante la medición directa de la osmolaridad de los fluidos corporales, las soluciones de
transfusión e infusión y la función renal. Además, las medidas de la presión osmótica se
utilizan para determinar los pesos moleculares de proteínas y otras macromoléculas. La
ecuación de Van’t Hoff establece una relación lineal entre la concentración y la presión
osmótica, cuya pendiente depende de la temperatura. Si la solución ideal diluida contiene N
solutos ideales, entonces

(2.17)
La ecuación (2.17) también se puede escribir en términos de la concentración de masa ρS

donde ρS es la densidad del soluto en el solvente (relación de masa de soluto a volumen de


solvente y MWS es el peso molecular del soluto. La ecuación (2.17) se reordena para calcular
el peso molecular del soluto. Hay varios osmómetros disponibles para medir Las presiones
osmóticas. Una técnica simple es usar osmómetros de membrana que se muestran en la Figura
2.10. El solvente puro se separa de la solución que contiene soluto por una membrana
semipermeable, que se mantiene firmemente entre las dos cámaras. En el equilibrio, la
presión hidrostática, que corresponde a la presión osmótica , se calcula usando el aumento

Figura 2.10 Osmómetro de membrana


en el nivel de líquido (h); ρ es la densidad de la solución. La sensibilidad de las mediciones
del osmómetro de membrana se ve afectada por la asimetría de la membrana observada
cuando ambas celdas están llenas con el mismo solvente pero tienen una diferencia de presión
entre las dos células causadas por fugas de membrana, compresión, contaminación de solutos
o gradientes de temperatura. El globo causado por diferenciales de presión es otra p problema
y se detecta midiendo los cambios de presión a medida que se agrega o elimina el solvente
de la celda de solvente. Alternativamente, los osmómetros de presión de vapor se utilizan
solos o en combinación con osmómetros de membrana. Sin embargo, un método más robusto
para determinar la osmolaridad de los fluidos biológicos es midiendo la depresión en el punto
de congelación entre la solución de muestra y el agua pura.
2.5 Transporte a través de membranas
El líquido de interés regula la forma del vaso manteniendo una presión constante, al tiempo
que proporciona un medio de transporte adecuado para los nutrientes y los productos de
desecho entre las células y la sangre capilar. Las membranas de tejido poroso permiten
selectivamente que varias moléculas pasen a través de ellas. Las pequeñas moléculas
transportadas en el plasma pasan al líquido intersticial para suministrar nutrientes a las
células, pero las células sanguíneas y las plaquetas son demasiado grandes para atravesar las
paredes capilares. De manera similar, las sustancias (es decir, los desechos) pasan a través de
los poros de las paredes capilares desde el espacio intersticial. En 1896, el fisiólogo británico
Ernest H. Starling describió la regulación del intercambio de fluidos a través de los capilares
sanguíneos hacia los espacios de los tejidos. Según Starling, tres factores locales regulan la
dirección y la velocidad de transferencia de fluidos entre el plasma y los fluidos tisulares en
una ubicación:
.1. Las presiones hidrostáticas a cada lado de las membranas capilares;
2. Las presiones osmóticas del plasma y los fluidos tisulares a través de las membranas
capilares;
3. Las propiedades físicas de las membranas capilares.

Figura 2.11 Fuerzas de Starling que regulan la transferencia de moléculas.


Considere un vaso sanguíneo rodeado de líquido interstial (figura 2.11). La diferencia de
presión hidrostática normal (presión sanguínea capilar, Pinside, menos la presión del líquido
en el espacio intersticial, Poutside) a través del capilar favorece la filtración de agua fuera del
capilar hacia el espacio intersticial. Sin embargo, la diferencia de presión osmótica a través
del capilar (presión osmótica debida a proteínas plasmáticas, π dentro, menos la presión
osmótica debida a proteínas en el espacio interstial, π fuera) favorece la retención. La
hipótesis de Starling se puede utilizar para estimar si el agua en cualquier punto dado a lo
largo del capilar tendrá una tendencia a entrar o salir del capilar. Por ejemplo, la presión
arterial en el extremo arterial (33 mmHg) es significativamente más alta que en el extremo
venoso (14 mmHg). La diferencia de presión neta en el extremo arterial (+12 mmHg)
favorece el transporte de agua fuera del capilar, mientras que la diferencia de presión neta (-
7 mmHg) en el extremo venoso favorece el transporte de agua al capilar. Comprender estos
factores es importante para determinar el equilibrio hídrico en todo el cuerpo, particularmente
en la formación de edema pulmonar y función renal. El líquido filtrado desde el espacio
vascular hacia el intersticio luego se filtra a través del intersticio para ingresar a los linfáticos
iniciales. Cuando aumenta la presión neta de filtración transcapilar o la permeabilidad de la
barrera endotelial microvascular pulmonar, como en la hipertensión pulmonar aguda o
crónica o en el síndrome de dificultad respiratoria aguda (SDRA), un desequilibrio en la tasa
de líquido filtrado en el intersticio pulmonar y la tasa de líquido que sale del sistema linfático.
Esto resulta en la acumulación de líquido dentro del intersticio pulmonar y conduce a un
estado llamado edema pulmonar.
El caudal volumétrico (Jv) de agua a través de la membrana se puede calcular utilizando:

donde Lp se denomina conductancia hidráulica ya que el agua es el solvente típico en


aplicaciones biológicas, S es el área de superficie de la membrana y σ es el coeficiente de
reflexión de Staverman, que es una medida de la efectividad de la membrana para mantener
las proteínas plasmáticas sin transferir a través del lecho vascular. El coeficiente de reflexión
capilar para la albúmina es 0,9 y para la glucosa es 0,025-0,05. El LpS también se denomina
coeficiente de filtración y Jv en el transporte renal se denomina tasa de filtración glomarular,
TFG (consulte el capítulo 10 para obtener más detalles).
El término σ (π dentro - π fuera) se llama fuerza oncótica Starling. Si la membrana es
impermeable, entonces se experimenta el gradiente de presión oncótico completo entre el
interior (típicamente plasma en un capilar o líquido intracelular) y el exterior (típicamente
líquido intersticial o líquido extracelular). Esto daría como resultado una σ de 1. Si, por otro
lado, la membrana es completamente permeable a todas las proteínas, entonces no existe
gradiente y el fluido se escapa por completo como lo expresa el gradiente de presión
hidrostática. Esto resultaría en una σ de 0. La ecuación (2.18) se puede reorganizar para
comprender la dirección del flujo de disolvente
Cuando Pinside - σπinside> Poutside - σπoutside, el flujo es de adentro hacia afuera. La práctica
normal es expresar el transporte por unidad de área y estimar la presión osmótica mediante
la ecuación de Van’t Hoff. Así

(2.19)
El transporte de soluto a través de una membrana se produce mediante dos procesos: difusión
y acompañado por el flujo del disolvente. Usando (2.13) como término difusivo, el transporte
de solutos se puede calcular usando la ecuación

(2.20)
donde Pmem es la permeabilidad difusiva, σf es el coeficiente de arrastre o ultrafiltración del
disolvente, que describe el retraso de los solutos debido a la restricción de la membrana, y C
es la concentración media de soluto intramembrana. Las ecuaciones (2.18) y (2.19) se
conocen popularmente como ecuaciones de Kedem-Katchalsky en la literatura. Aunque estas
ecuaciones se derivan de la termodinámica lineal de procesos irreversibles, se han aplicado
ampliamente en estudios sobre la permeación de sustancias a través de membranas artificiales
y biológicas.
Ejemplo 2.11
Una empresa de desarrollo de dispositivos biomédicos está interesada en desarrollar una
membrana asimétrica de acetato de celulosa para su uso en diálisis peritoneal. Se determina
que el flujo de agua pura a través de la membrana a 37 ° C es de 75 μL / min cuando la
diferencia de presión es de 10 cmH2O. Dado que la presión osmótica es importante, se
consideró realizar un experimento utilizando una solución de glucosa al 1% con Pinside = 200
cmH2O y Poutside = 20 cm H2O a 37 ° C. Encuentre Jv si el coeficiente de reflexión de la
glucosa es 0.1. Si se utilizan membranas de 100 μm de espesor con una superficie de 1 m 2,
¿cuánta glucosa se pierde? Suponga que el coeficiente de arrastre del disolvente es cero y el
coeficiente de impedimento es 1 (densidad de glucosa = 1,54 g / cm3).
Solución: A partir de (2.18), podemos determinar el producto LpS a partir de los datos de
flujo de agua pura cuando (πfeed - πpermeate) = 0

Cuando el lado de alimentación es una solución de glucosa al 1% en peso, se debe determinar


la presión osmótica. Usando la ecuación de Van’t Hoff, la presión osmótica en el lado de la
alimentación viene dada por
π = RT ΔCS
Para ello, primero debe determinarse la concentración de glucosa. La densidad de la glucosa
es de 1,54 g / cm3 y la densidad del agua es de 1 g / cm3. Para 1000 g de solución de glucosa
al 1% en peso, tenemos 990 g de agua y 10 g de glucosa. Dado que el peso molecular de la
glucosa es 180,16, CS se calcula como

Con la constante de gas ideal R = 82.057 cm3⋅atm / mol⋅K, la presión osmótica para el lado
de alimentación es
π = (82.057)(298.15)(5.57 × 10−5) = 1.147 atm = 1.147 [atm]*760*1.36 [cmH2O/atm] =
1,465.234 cmH2O
Luego se determina el caudal de disolvente

De la tabla 2.2, la difusividad libre de solvente de la glucosa es 9.55 × 10−10 m2 / s


Suponiendo que el espesor efectivo es el espesor de la membrana y el coeficiente de partición
es 1, Pmem se puede calcular a partir de (2.16)

Para el transporte transendotelial, σf es similar al coeficiente de reflexión σ. La permeabilidad


se puede calcular multiplicando (2.16) por el número de poros presentes en la membrana. La
ecuación de transporte se puede aplicar para el transporte de plasma entre el capilar con
subíndice C y el líquido intersticial circundante con subíndice si.

(2.21)
La conductancia hidráulica es función de las características de la membrana. La difusión
también se centra en la permeabilidad de la matriz (es decir, la arquitectura porosa de la
membrana). Dado que las diferentes membranas de los tejidos del cuerpo tienen diferentes
conductancias hidráulicas y realizan diferentes funciones, modelar las características de la
membrana es útil para comprender las diferencias fundamentales entre las diferentes
membranas y desarrollar terapias de intervención. Aunque la discusión detallada de este tema
está más allá del alcance de este libro, el modelo unidimensional de conductancia hidráulica
para una membrana que contiene un poro cilíndrico se puede describir mediante

(2.22)
donde N es el número de poros por unidad de superficie de la pared del vaso, R es el radio
de los poros, L es el grosor de la pared del vaso o la profundidad de la hendidura medida
desde la luz hasta el tejido y μ es la viscosidad de el fluido. La ecuación (2.22) se obtiene
utilizando el supuesto de flujo de Poiseuille (descrito en el Capítulo 4). Si se supone que los
poros son rectangulares con una longitud total Ljt, ancho W y apertura fraccionaria f,
entonces la conductancia hidráulica se puede escribir como

(2.23)
La teoría de la matriz de fibras se utiliza para describir la transferencia molecular a través de
membranas, ya que las membranas están hechas de fibras. La conductividad hidráulica de
una membrana fibrosa se escribe como

(2.24)
donde Sfiber es el área de la vía llena de fibra y Kp es la conductancia hidráulica de Darcy,
que se relaciona con el espacio entre las fibras. Sin embargo, estos modelos deben probarse
para cada aplicación y no se pueden utilizar en todos los escenarios.

2.6 Transporte de macromoléculas


Las membranas tisulares ofrecen rutas entre la sangre y el tejido para la difusión de
moléculas, que son atraídas por lípidos (lipófilos) y moléculas de pequeño peso molecular,
que son atraídas por agua (hidrófilas). Por ejemplo, las células del hígado secretan albúmina,
la principal proteína del plasma sanguíneo necesaria para la homeostasis. Todos los días se
reemplaza casi el 2% de la albúmina plasmática. La difusión de la albúmina (véase el ejemplo
2.6) es significativamente menor que la del oxígeno y otras moléculas más pequeñas.
Además, las paredes vasculares son impermeables a macromoléculas como proteínas
grandes, polisacáridos o polinucleótidos. Esta impermeabilidad de las paredes
microvasculares es un requisito previo para el establecimiento y mantenimiento de un
equilibrio de líquidos entre los compartimentos de líquido intravascular y extravascular. Por
otro lado, un gran número de otras sustancias macromoleculares deben tener acceso continuo
al espacio intersticial para ser finalmente devueltas al plasma a través del sistema linfático.
Esto es de particular importancia en condiciones inflamatorias y para la respuesta inmune. El
transporte de proteínas a través de la barrera epitelial alveolar es un proceso crítico en la
recuperación del edema pulmonar y también es importante para mantener el medio alveolar
en el pulmón sano normal.
Una estrategia utilizada por las células para transportar selectivamente macromoléculas se
llama transcitosis, también conocida como transporte vesicular. Los componentes de la
membrana, como los lípidos y las proteínas, se transportan continuamente desde el complejo
de Golgi a la membrana celular a través de vesículas de forma continua. La transcitosis es de
importancia crítica para varios procesos fisiológicos, incluida la formación de hueso
(osificación endocondral) y la cicatrización de heridas. Los fibroblastos en el tejido conectivo
secretan procolágeno grande, que madura en colágeno en el tejido conectivo y se transporta
mediante transcitosis. La albúmina se transporta en grandes cantidades a través de la
transcitosis. Palade postuló por primera vez la existencia de transcitosis en la década de 1950.
La transcitosis implica la formación secuencial y la fusión de vesículas delimitadas por
membranas. Las células ingieren moléculas utilizando una parte de la membrana celular para
formar una vesícula. La sustancia a ingerir es encerrada progresivamente por una pequeña
porción de la membrana plasmática, que primero se invagina y luego se pellizca para formar
una vesícula intracelular que contiene el material ingerido. El proceso se llama endocitosis.
La naturaleza de los componentes internalizados, ya sean fluidos o partículas de diferentes
tamaños, delinea los diversos procesos de internalización. Según el tamaño de las partículas
engullidas, la endocitosis se denomina fagocitosis (comer células) y pinocitosis (beber
células).
La fagocitosis implica la entrada de partículas grandes, típicamente de 1 mm o más, incluidas
partículas tan diversas como perlas inertes, células apoptóticas y microbios. Los primeros
eventos que conducen a la absorción de partículas durante la fagocitosis son complejos e
involucran diferentes mecanismos. En general, las células invaginan su superficie celular
para formar un fagosoma y la ingestión ocurre en regiones especializadas, llamadas caveolas,
presentes dentro de la membrana plasmática. Se forma una vacuola que contiene el material
envuelto, que se fusiona con el lisosoma para ser degradado o transportado a otras partes de
las células. Las células especializadas (también denominadas fagocitos) como los neutrófilos,
las células dendríticas y los macrófagos utilizan la fagocitosis como mecanismo para eliminar
los patógenos. El reconocimiento de sitios específicos en la partícula por las moléculas de la
superficie celular de los fagocitos inicia el proceso fagocítico. La fagocitosis y la subsiguiente
destrucción de microbios en los fagosomas forman la base de la defensa innata de un
organismo contra los patógenos intracelulares. La pinocitosis se refiere a engullir
macromoléculas más pequeñas del entorno extracelular. Al igual que en la fagocitosis, se
forma una vesícula que contiene las moléculas que ingresaron a la célula. Las vacuolas y
vesículas producidas por fagocitosis y pinocitosis pueden fusionarse con lisosomas y la
molécula ingerida se degrada. En algunos casos, la degradación de patógenos en el fagosoma
produce péptidos, que son presentados por células fagocíticas para activar linfocitos B o
linfocitos T. La fagocitosis y la pinocitosis eliminan la membrana de la superficie celular
para formar vacuolas que contienen el material envuelto. La vacuola formada luego se mueve
a través de la célula para expulsar la molécula a través del otro extremo de la membrana
celular mediante el proceso inverso. Las células liberan macromoléculas (exocitosis) y
partículas mediante un mecanismo similar, pero con la secuencia invertida. Una característica
importante de ambos procesos es que las macromoléculas secretadas o ingeridas están
secuestradas en vesículas y no se mezclan con otras macromoléculas u orgánulos en el
citoplasma. Además, se fusionan con la membrana plasmática sin cruzarse con otras vías de
membrana en la célula.
Las células tienen otras estrategias que no involucran vesículas de membrana para moverse
selectivamente a través de barreras celulares más pequeñas utilizando receptores. Además,
el transporte paracelular, el movimiento entre células adyacentes, se logra mediante la
regulación de la permeabilidad de la unión estrecha. Se pueden encontrar más detalles sobre
estos temas en textos o artículos avanzados (consulte la Bibliografía seleccionada).
Biosensores

9.1 Visión general

La detección y medición de varios componentes son esenciales en medicina. Aparte de una


observación visual general, los signos vitales se controlan continuamente antes, durante y
después de un procedimiento quirúrgico o una enfermedad grave. Por lo general, se realiza un
seguimiento de la frecuencia cardíaca, el ECG, la presión arterial, la frecuencia y la calidad
respiratorias, la saturación de oxígeno de la sangre y la temperatura corporal. Los conceptos
involucrados en el desarrollo de estas herramientas se discutieron en capítulos anteriores. Una
herramienta de biosensores común es un electrodo simple para medir y registrar biopotenciales
en el cuerpo de forma no invasiva para aplicaciones como ECG. Aparte de estas medidas, se
rastrean otras moléculas para evaluar la salud de una persona. Muchos pacientes diabéticos
utilizan un biosensor de glucosa en el control rutinario de la glucosa en sangre. Otras
herramientas de biosensores que incluyen unidades de prueba de embarazo caseras, monitores
de colesterol y monitores de oxígeno. Estos dispositivos analíticos que incorporan un sistema de
bioreconocimiento se denominan biosensores en general. Las herramientas de biodetección son
esenciales en otras aplicaciones. En la industria de defensa, la detección de agentes de guerra
biológica como las esporas de ántrax es esencial. Otras aplicaciones se encuentran en el control
de la contaminación ambiental y en el control de procesos en las industrias alimentaria y
farmacéutica (para la contaminación por E. coli o Salmonella) donde existe una demanda para
la determinación in situ de los niveles de contaminantes.

Un biosensor consta de un elemento sensor biológico, un transductor y un procesador de datos


que genera una señal (Figura 9.1). El elemento sensor podría ser células, microorganismos,
iones, receptores celulares, enzimas, anticuerpos, ácidos nucleicos, productos naturales,
materiales de origen biológico o materiales biomiméticos (por ejemplo, catalizadores sintéticos,
ligandos combinatorios, polímeros impresos). Los transductores convierten la actividad química
/ bioquímica en una señal medible, como señales eléctricas o de intensidad luminosa. Una
relación previamente establecida entre la salida del transductor y la concentración de analito
(llamada curva de calibración) permite la cuantificación del analito. Los datos obtenidos se
procesan en un formato útil que se puede mostrar o manipular. Las herramientas de biosensores
miniaturizadas también ofrecen una serie de beneficios potenciales que incluyen tamaños de
muestra reducidos, una reducción en el costo y la posibilidad de dispositivos desechables de un
solo uso. Los avances en el desarrollo de dispositivos de laboratorio en chip reducen y
potencialmente simplifican las pruebas de laboratorio como el análisis de ADN, la detección de
antígenos y la genotipificación de alto rendimiento. Los ensayos biológicos de alto rendimiento
basados en la tecnología de microarrays, capaces de analizar simultáneamente miles de genes y
productos génicos, han revolucionado el descubrimiento de agentes terapéuticos. En este
capítulo, se discuten los fundamentos de varios elementos biosensores y su integración con
diferentes transductores. Además, las tecnologías de microfabricación utilizadas en la
miniaturización de herramientas de biosensores se discuten junto con la tecnología de
microarrays de alto rendimiento.

9.2 Bioelectrodos

La cuestión clave en el desarrollo de un biosensor es convertir el reconocimiento de objetivos


en una señal medible. La parte del transductor del sensor sirve para transferir la señal desde el
dominio de salida del sistema de reconocimiento. La parte del transductor de un sensor también
se llama detector, sensor de s o an electrodo, pero se prefiere el término transductor para evitar
confusiones. Entre los diversos dispositivos de detección desarrollados hasta ahora, el método
electroquímico es, en general, superior a los métodos ópticos debido a su rápida respuesta,
manejo simple y fácil y bajo costo. Los bioelectrodos funcionan como una interfaz entre las
estructuras biológicas y los sistemas electrónicos para medir los biopotenciales (discutidos en el
Capítulo 3) generados en el cuerpo debido al flujo de corriente iónica. Los bioelectrodos llevan
a cabo una función de transducción y convierten el flujo de corriente iónica en el cuerpo en
corriente electrónica en el biosensor. Para comprender cómo funcionan los bioelectrodos, a
continuación se analizan los mecanismos básicos del proceso de transducción y el efecto sobre
las características de los bioelectrodos.

9.2.1 Interfase electrodo-electrolito

Cuando un electrodo (material capaz de transportar cargas como los metales) se coloca en un
electrolito (una solución conductora de iones donde la carga es transportada por el movimiento
de iones), se desarrolla inmediatamente una interfaz electrificada. Las reacciones químicas
ocurren en la superficie mediante las cuales se transfieren electrones entre el electrodo y el
electrolito. La reacción en la que se produce la pérdida de un electrón (e−) se denomina reacción
de oxidación (figura 9.2).

Figura 9.2. Interfase electrodo-electrolito: a) oxidación b) reducción

donde M es el átomo de metal (por ejemplo, plata), Mm + representa el catión del metal y m es
la valencia del catión. Si el metal tiene el mismo material que el catión en el electrolito, entonces
este material se oxida y entra al electrolito como un catión.
y los electrones permanecen en el electrodo y fluyen en el circuito externo. Las reacciones son
reversibles y también se producen reacciones de reducción (ganancia de e−). De manera similar,
un anión en el electrolito se oxida en el electrodo para formar un átomo neutro con la liberación
de electrones dados al electrodo.

donde An− representa un anión (por ejemplo, Cl−), y n es la valencia del anión. Las reacciones
de oxidación y reducción son dos reacciones en competencia que finalmente alcanzan una
condición de equilibrio en la que las corrientes debidas a la transferencia de electrones hacia y
desde el metal son iguales. Esta densidad de corriente de intercambio de equilibrio fluye a través
de la interfaz en ambas direcciones dando como resultado una corriente neta de cero. La
reacción dominante se puede inferir de si la corriente fluye del electrodo al electrolito
(oxidación) o si la corriente fluye del electrolito al electrodo (reducción).

La concentración local de Mm + en la interfaz cambia y el electrolito que rodea al metal tiene un


potencial diferente del resto de la solución. Las reacciones de oxidación o reducción en la
interfase electrodo-electrolito conducen a una doble capa eléctrica, similar a la que existe a lo
largo de las membranas celulares biológicas eléctricamente activas (discutidas en el Capítulo 3).
Esto da como resultado la formación de un campo eléctrico entre el electrodo y el electrolito.
La diferencia de potencial establecida por el electrodo y el electrolito que lo rodea se denomina
potencial de media celda. El potencial de media celda depende del electrodo y la concentración
de iones en la solución y la temperatura.

La medición del potencial eléctrico desarrollado por un electrodo en una solución de electrolito
cuando el flujo de corriente neta (o en el equilibrio de las reacciones de reducción y oxidación)
es cero a través del electrodo y la interfaz del electrolito se denomina potenciometría. La
ecuación de Nernst (discutida en el Capítulo 3) relaciona el potencial con la concentración de
algún ion en solución. Para la reacción de media celda, el potencial de media celda bajo cualquier
condición se escribe como

Ec. 9.1

donde ΔΦhc, 0 es el potencial de media celda en condiciones estándar (25 ° C y 1 atm) y α


representa la actividad (es decir, concentraciones termodinámicas ideales de estados oxidado y
reducido). En soluciones diluidas, la actividad es casi igual a la concentración. Sin embargo, la
actividad es menor que la concentración en soluciones concentradas debido a los efectos
intermoleculares. A menudo, el estado reducido es un metal, en cuyo caso αM es una constante
igual a 1. Es más conveniente considerar concentraciones en lugar de actividades. Estos
parámetros están relacionados por el coeficiente de actividad, γ,

Por tanto, la ecuación de Nernst se reescribe como


Ec. 9.2

donde ΔΦ′hc, 0 es el potencial formal y está relacionado con el potencial estándar por la
ecuación:

La ecuación (9.2) relaciona la concentración del electrolito con el potencial eléctrico. Se podría
calcular la concentración desconocida del electrolito conociendo el potencial. Sin embargo, los
potenciales de media celda no se pueden medir porque la conexión entre el electrolito y un
terminal del dispositivo de medición de potencial no se puede completar. Por tanto, la
diferencia de potencial se mide entre el potencial de media celda del electrodo y un segundo
electrodo llamado electrodo de referencia. El electrodo de referencia se refiere a un electrodo
que proporciona un voltaje de referencia particular para las mediciones registradas desde el
electrodo de trabajo. El potencial de media celda del electrodo de hidrógeno normal (NHE) se
utiliza como electrodo de referencia. NHE que consiste en un alambre de platino sumergido en
una solución de ácido clorhídrico (1,18 M correspondiente a la actividad unitaria de H +) y
actúa como el electrodo sobre el cual se burbujea gas hidrógeno (1 atm de presión a 25 ° C). La
reacción se representa como

Los dos electrodos están conectados internamente por medio de un puente conductor
eléctricamente (Figura 9.3) (llamado puente de sal) y externamente a un voltímetro. Cuando se
incorpora el potencial del electrodo de referencia, el potencial neto de la celda es

donde ΔΦLJ es el potencial de unión líquida. Un aspecto que a menudo se pasa por alto es la
variación del potencial del electrodo de referencia con la temperatura. Por ejemplo, el potencial
de media celda de la plata / cloruro de plata a 25 ° C es + 0,222 V frente a NHE.
Figura 9.3. Medición del potencial de un electrodo de media celda

Por lo general, cambia entre 0,5 y 1 mV / ° C. En consecuencia, las mediciones de potencial


precisas requieren el uso de un aparato de temperatura constante. Además, siempre se debe
informar la temperatura a la que se realizan las mediciones. La ausencia de cualquier control de
temperatura limita la precisión de las mediciones a ~ 5–10 mV, aunque este nivel de precisión
puede ser aceptable para algunos experimentos.

Ejemplo 9.1.

Un electrodo de plata-cloruro de plata saturado contiene KCl 0,01M. Calcule el potencial de


media celda desarrollado a 25 ° C, asumiendo una disociación completa de KCl.

Solución: Solo hay una variable que contribuye a la ecuación de Nernst, la concentración
(actividad) del ion cloruro, ya que Ag y AgCl están en estado puro y, por lo tanto, tienen
actividades de 1. De (9.2),

9.2.2. Polarización

Si hay un flujo de corriente a través de la interfaz, entonces se altera el potencial de media celda
observado. La diferencia se debe a lo que se llama polarización del electrodo. La diferencia entre
el potencial de media celda observado con y sin el flujo de corriente se conoce como
sobrepotencial. El sobrepotencial es contribuido por tres mecanismos (Figura 9.4):

1. Sobrepotencial óhmico, es decir, el voltaje cae a lo largo del camino de la corriente, la


corriente cambia la resistencia de un electrolito y, por lo tanto, una caída de voltaje no sigue la
ley de Ohm;

2. Sobrepotencial de concentración, es decir, la corriente cambia la distribución de iones en la


interfaz electrodo-electrolito;

3. Sobrepotencial de activación, es decir, la corriente cambia la tasa de oxidación y reducción.


Dado que las barreras energéticas para la oxidación y la reducción son diferentes, la energía de
activación neta depende de la dirección de la corriente y esta diferencia aparece como voltaje.
Figura 9.4. Polarización de electrodos

Los electrodos perfectamente polarizables son aquellos en los que ninguna carga real cruza la
interfaz electrodo-electrolito cuando se aplica una corriente. El electrodo se comporta como un
condensador y la corriente a través de la interfaz es una corriente de desplazamiento. Un
ejemplo son los metales nobles como el electrodo de platino. Los electrodos perfectamente no
polarizables son aquellos en los que la corriente pasa libremente a través de la interfaz
electrodo-electrolito, sin requerir energía para hacer la transición. Estos electrodos no ven
sobrepotenciales y el potencial no varía con la corriente. Los electrodos no polarizables
generalmente consisten en un metal recubierto con su sal relativamente insoluble sumergido
en una solución que contiene un ion de la sal. Como el ión se puede recubrir o liberar en cada
electrodo, la corriente puede fluir con una resistencia muy baja. Los ejemplos incluyen un
electrodo de plata / cloruro de plata (Ag / AgCl) y un mercurio / cloruro de mercurio (Hg / Hg2Cl2)
(también denominado electrodo de calomelanos).

Ejemplo 9.2.

Utilizando una solución de NADH de 10 μM en un electrodo de carbono vítreo, se midió el


potencial de media celda (con SHE) de 700 mV. Calcule el sobrepotencial con el potencial de
media celda de Nernst desarrollado a 25 ° C, asumiendo una disociación completa de NADH.

Solución: De (9.2), el potencial desarrollado por NADH es

El potencial medido es de 700 mV.

Por lo tanto, sobrepotencial = 700 - 295.882 = 404.112 mV

9.2.3. Electrodos de monitoreo de potencial


Un bioelectrodo comúnmente utilizado en aplicaciones biomédicas es el electrodo Ag / AgCl
(Figura 9.5), que consiste en un alambre de plata recubierto con cloruro de plata y sumergido
en una solución que contiene iones cloruro, típicamente una solución de KCl. El AgCl es
ligeramente soluble en agua y permanece muy estable en un líquido que tiene una gran cantidad
de Cl− como el fluido biológico. Las dos reacciones químicas de Ag / AgCl son:

Ec. 9.3.

donde ΔΦ0 es el potencial estándar (es decir, el potencial del electrodo en la actividad de la
unidad en condiciones estándar). Ag / AgCl se fabrica en una forma reutilizable, pero se usa
con mayor frecuencia como electrodo desechable. Los bioelectrodos que se pueden unir a la
superficie de la piel se pueden agrupar en dos categorías. La primera categoría incluye los
bioelectrodos empaquetados con el electrolito contenido en la cavidad o receptáculo del
electrodo. En un electrodo preempacado, el almacenamiento y las fugas son preocupaciones
importantes. La fuga de contenido del receptáculo da como resultado un estado inoperativo o
defectuoso. Además, dichos electrodos precargados son difíciles de aplicar porque el sello
protector que cubre la abertura del electrodo y retiene el fluido dentro de la cavidad del
receptáculo debe retirarse antes de la aplicación a la superficie de la piel. Después de retirar
este sello protector, a menudo se producen derrames al intentar colocar el electrodo en la
superficie de la piel. Tal derrame perjudica el contacto adhesivo deseado del electrodo con la
superficie de la piel y también anula una parte de la cavidad del receptáculo. La consiguiente
pérdida de fluido electrolítico tiende a interrumpir el contacto eléctrico con la placa de
electrodo contenida en el mismo y, de otro modo, interrumpe el gradiente de potencial
uniforme preferido que se va a aplicar.

El segundo tipo de bioelectrodo es un electrodo de estado seco compuesto por una placa de
electrodo con una superficie superior que tiene los medios para conectar eléctricamente el placa
de electrodo a un cable conductor y una superficie inferior de contacto con el cuerpo hecha de
un material conductor para mejorar una conexión eléctrica con la piel. El material conductor
comprende un polímero hidrófilo sintético no irritante dérmicamente que contiene una sal de
un ácido carboxílico. Los electrodos en estado seco tienen numerosas ventajas en cuanto a la
facilidad de almacenamiento y una mayor adaptabilidad para varios tipos de aplicaciones de
electrodos.

Figura 9.5. Electrodo de Ag-AgCl: (a) electrodo húmedo, (b) electrodo seco y (c) un electrodo
disponible comercialmente.

Para monitorear los biopotenciales generados en el cuerpo humano, se fabrican diferentes


formas de bioelectrodos en función de los requisitos. Hay electrodos de placa metálica,
electrodos flotantes, electrodos de succión, electrodos flexibles, electrodos internos (por
ejemplo, detección de electrocardiograma fetal durante el trabajo de parto, mediante agujas
intracutáneas) y microelectrodos. Los electrodos aislantes consisten en un metal o
semiconductor con una capa superficial dieléctrica delgada, de modo que la señal bioeléctrica
se acopla capacitivamente desde la piel al sustrato. Un electrodo de succión metálico se utiliza
a menudo como electrodo precordial en electrocardiógrafos clínicos. No hay necesidad de cinta
ni adhesivo y se puede utilizar con frecuencia. Hay una impedancia de fuente más alta ya que el
área de contacto es pequeña. Puede encontrar más información para cada tipo en [1].

9.3. Elementos biosensores

Los bioelectrodos responden directamente a la actividad cambiante de los iones de los


electrodos o al cambio de la actividad iónica en una solución mediante la formación de
complejos. Sin embargo, no son muy selectivos. Por tanto, la detección de otros elementos
biológicos es necesaria para diversas aplicaciones. Un enfoque para incorporar la selectividad es
la introducción de varios elementos basados en los requisitos. Los elementos sensores en
aplicaciones biomédicas se pueden agrupar ampliamente en las siguientes categorías.

9.3.1 Biosensores basados en enzimas

Las enzimas se utilizan como elementos de reconocimiento bioquímico para catalizar


selectivamente la reacción de un sustrato para producir un producto. El analito podría ser un
sustrato o un producto de la reacción enzimática. La especificidad de las enzimas con respecto
al reconocimiento de sustratos permite a los sensores que incorporan enzimas con una gama
limitada de sustratos para lograr una selectividad mucho mayor para una especie objetivo. Por
lo general, la enzima participa activamente en la transformación del sustrato en un producto
pero permanece sin cambios al final de la reacción. Además de los aminoácidos, muchas enzimas
también contienen componentes no aminoácidos fuertemente unidos llamados grupos
protésicos como el dinucleótido de nicotinamida y adenina (NAD), el dinucleótido de flavina y
adenina (FAD), el hemo, la quinina, Mg2 + y Ca2 +. Las enzimas más utilizadas en el diseño de
biosensores enzimáticos contienen oxidorreductasas, que catalizan la oxidación o reducción de
un sustrato. Dado que las reacciones redox se controlan fácilmente mediante bioelectrodos, las
oxidorreductasas se recubren sobre un bioelectrodo y se utilizan para controlar el analito. Las
enzimas de este tipo son las oxidasas como la glucosa oxidasa (GOX) y la colesterol oxidasa
(ChOX) y las deshidrogenasas dependientes de pirroloquinolinquinona (PQQ).

Ejemplos incluyen biosensores de glucosa en sangre, dispositivos de control de colesterol y


biosensores de urea. Algunos grupos protésicos mejoran la actividad enzimática y sirven como
trampas temporales de electrones o vacantes de electrones y permanecen unidos a la proteína
durante todo el ciclo redox. Por ejemplo, GOX cataliza selectivamente las siguientes dos
reacciones:

GOX-FAD representa el estado oxidado y GOX-FADH2 representa el estado reducido del sitio
activo de flavina dentro de la enzima glucosa oxidasa. Las enzimas oxidasa (figura 9.6) actúan
oxidando sus sustratos, aceptando electrones en el proceso y cambiando así a un estado
reducido inactivado. Estas enzimas vuelven a su estado oxidado activo transfiriendo los
electrones al oxígeno (llamado cosustrato), lo que resulta en la producción de peróxido de
hidrógeno (H2O2). Este mecanismo se utiliza fácilmente en un dispositivo biosensor
amperométrico. Debido a que tanto el O2 como el H2O2 son electroquímicamente activos, el
progreso de la reacción bioquímica puede rastrearse reduciendo el O2 u oxidando el H2O2.

Figura 9.6 Biosensores enzimáticos: (a) primera generación, (b) segunda generación y (c) tercera
generación.

Las reacciones electroenzimáticas siguen las interacciones receptor-ligando (discutidas en el


Capítulo 7) y la cinética de la reacción está representada por
Ec. 9.4

donde I es la respuesta amperométrica en estado estacionario del electrodo enzimático a


concentraciones de sustrato específicas S, kM es la constante electroquímica de Michaelis-
Menten. La respuesta máxima Imax = nFAkcatS que se puede obtener del biosensor es una
función directa del número de electrones transferidos n, la constante de Faraday F, el área de
superficie del electrodo A, la constante de velocidad de rotación de la enzima kcat y la
concentración de sustrato. KM depende de las propiedades de difusión de las especies en el
sistema biosensor. Se evalúan los valores de Imax y KM, y las sensibilidades se estiman como
Imax / KM. Se han desarrollado estrategias alternativas como mediadores (electrodos de
segunda generación) y biosensores de transferencia directa (biosensor de tercera generación)
para mejorar el rendimiento de los biosensores mediados por enzimas. Estos se analizan junto
con los electrodos amperométricos en la Sección 9.4.2.

9.3.2 Biosensores basados en anticuerpos

Los biosensores basados en anticuerpos también se denominan inmunosensores y dependen de


las interacciones anticuerpo-antígeno. Los anticuerpos son proteínas, llamadas
inmunoglobulinas, producidas por el sistema inmunológico de animales de orden superior en
respuesta a la entrada de materiales extraños (virus, bacterias y dispositivos médicos
implantados) en el cuerpo. A diferencia de las enzimas, los anticuerpos (normalmente) no
catalizan transformaciones químicas, sino que experimentan una transformación física. Se unen
fuertemente al material extraño (el antígeno) que provocó la respuesta y lo marcan para el
ataque de otros elementos del sistema inmunológico. Los anticuerpos también son muy
específicos para reconocer y unirse a la sustancia extraña únicamente y no a materiales nativos
del organismo. Esta especificidad se utiliza para reconocer varios analitos.

(a) Estructura de anticuerpo en forma de Y


(b) Esto cambiará algunos parámetros fisicoquímicos (generalmente una masa o un
parámetro óptico) del entorno en la superficie del transductor del sensor test embarazo
(c) Uno de estos inmunosensores se desarrolla para detectar la proteína de la
gonadotropina coriónica humana (hCG) (en particular, su subunidad beta libre, hCGβ)
en la orina
(d)

Cada anticuerpo consta de cuatro polipéptidos: dos cadenas pesadas y dos cadenas ligeras
unidas para formar una estructura en forma de Y [Figura 9.7 (a)]. Las regiones terminales de las
cadenas ligera y pesada tienen diferentes secuencias de aminoácidos entre diferentes
anticuerpos y esta región se denomina región variable. Sin embargo, la secuencia de
aminoácidos en algunas regiones se conserva (es decir, es constante en todas las moléculas de
anticuerpo y esta región se denomina región constante). La región variable le da al anticuerpo
su especificidad para la unión al antígeno y la región constante determina el mecanismo utilizado
para destruir los antígenos. El tratamiento del anticuerpo con una proteasa puede escindir la
región variable, produciendo fragmento de unión al antígeno (Fab) que incluye los extremos
variables de un anticuerpo. Los anticuerpos se dividen en cinco clases principales, IgM, IgG, Iga,
IgD e IgE, según su estructura de región constante y función inmune.

Normalmente, los anticuerpos dirigidos específicamente contra la sustancia de interés (es decir,
el analito deseado) se inmovilizan en el transductor del biosensor. Luego, el sensor se expone al
medio previsto. Si el antígeno está presente en ese medio, se unirá al anticuerpo al complejo
antígeno-anticuerpo. Esto cambiará algunos parámetros fisicoquímicos (generalmente una
masa o un parámetro óptico) del entorno en la superficie del transductor del sensor [Figura 9.7
(b)] y ese cambio se detecta posteriormente. Uno de estos inmunosensores se desarrolla para
detectar la proteína de la gonadotropina coriónica humana (hCG) (en particular, su subunidad
beta libre, hCGβ) en la orina [Figura 9.7 (c)]. La hCG es una enzima, cuya concentración aumenta
geométricamente después de la concepción durante el crecimiento fetal. Por tanto, el
seguimiento de la hCGβ proporciona información sobre el progreso del embarazo y la salud del
feto. Se han desarrollado anticuerpos monoclonales que se unen específicamente a hCG: el anti-
α-hCG se une al dominio α y el anti-β-hCG se une al dominio β en la hCG y ambos se utilizan en
dispositivos de prueba de embarazo domésticos. La orina se recoge y se conduce a través de un
muestreador absorbente que sobresale de un extremo. Un biosensor se mantiene durante unos
segundos en el chorro de orina. Si la hCG está presente en la orina, se transporta hacia los
anticuerpos de hCG marcados con un tinte. Se forma un complejo de colorante / anticuerpo
hCG-hCG y se mueve hacia una ventana en el caso de que exista otro conjunto de anticuerpos
hCG. En la ventana, estos se combinan para formar un complejo anticuerpo hCG / tinte-hCG-
anticuerpo hCG. La acumulación de complejos se muestra como una línea de tinte en la ventana,
lo que indica una prueba de embarazo positiva. Los kits de prueba de embarazo comerciales
pueden detectar concentraciones nanomolares (o 10-9 M) de hCG. Si no aparece la línea, esto
podría deberse a la ausencia de la hormona o la orina insuficiente en la punta absorbente. Para
tener en cuenta las variaciones insuficientes del tamaño de la muestra, los controles positivos
se construyen dentro del dispositivo.

9.3.3 Biosensores basados en ácidos nucleicos

Los biosensores de ácidos nucleicos utilizan la naturaleza complementaria de los ácidos


nucleicos para la capacidad de reconocimiento selectivo. Están diseñados para la detección de
secuencias de ADN o ARN generalmente asociadas con ciertas bacterias, virus o condiciones
médicas determinadas. Las sondas de ADN podrían usarse para diagnosticar susceptibilidad
genética, enfermedades y pruebas de paternidad. Los biosensores de ácido nucleico
generalmente inmovilizan hebras simples (llamadas sondas) de una doble hélice de ADN (o ARN)
en una superficie como especie de reconocimiento. El material de ácido nucleico en una muestra
de prueba dada se desnaturaliza y se pone en contacto con el agente aglutinante. Si las hebras
de la muestra de prueba son complementarias de las hebras utilizadas como agente de unión
(figura 9.8), el ácido nucleico se unirá debido a la capacidad de emparejamiento de bases. Este
proceso se llama hibridación. Luego, el ácido nucleico se marca uniendo un tinte fluorescente y
se pone en contacto con las sondas inundando el chip con la solución de muestra. El ADN se
puede extender, cortar o unir de una manera muy precisa mediante un conjunto de
herramientas enzimáticas polimerasas, nucleasas y ligasas que la naturaleza ha desarrollado en
el curso de la evolución.

Figura 9.8 Biosensores basados en ácidos nucleicos

La interacción se controla por diversos medios, como un cambio de masa en la superficie del
sensor o la presencia de una señal fluorescente o radiactiva. Se utilizan diferentes estrategias
para transducir este evento de hibridación en una señal medible, incluido el método popular y
eficaz de etiquetar la diana con una molécula fluorescente, aprovechando la unión diferencial
de una pequeña molécula informadora al ADN de doble hebra en relación con el ADN de hebra
sencilla o mediante el uso de una etiqueta. -Técnicas libres como la resonancia de plasmón
superficial o la microbalanza de cristal de cuarzo. Todos estos enfoques indican que se ha
producido la adsorción del ADN diana en la superficie, pero en sí mismos proporcionan poca o
ninguna información sobre la naturaleza del adsorbato, como si se ha formado un dúplex de
ADN o si pueden estar presentes desajustes estables. Este problema se aborda parcialmente
mediante el uso de conjuntos de sondas comparativas de emparejamiento perfecto / desajuste
(PM / MM) para desajustes conocidos o mediante el uso de modificaciones tales como ácidos
nucleicos peptídicos que muestran un comportamiento de discriminación mejorado.

9.3.4 Biosensores basados en células

A lo largo de su ciclo de vida dentro de tejidos y órganos específicos, varios tipos de células
responden a una variedad de señales químicas y físicas por diferentes medios (es decir,
produciendo proteínas específicas o radicales libres específicos). Algunos de estos eventos se
pueden volver a crear utilizando una técnica de cultivo celular in vitro (que se analiza en el
Capítulo 7). Luego, las respuestas específicas de las células se pueden utilizar para obtener
información de seguridad química y farmacéutica. Conociendo el resultado deseado, se
selecciona un tipo de célula específico y se cultiva en un sustrato. Los sensores que contienen
células vivas (células de mamíferos, bacterias y levaduras) pueden usarse para monitorear
cambios fisiológicos o metabólicos inducidos por la exposición a perturbaciones ambientales
tales como tóxicos, patógenos u otros agentes que están en desarrollo. Se utilizan para la
caracterización funcional y el descubrimiento de fármacos de alto rendimiento o la detección de
patógenos, tóxicos y odorantes y diagnósticos clínicos. A diferencia de otros biosensores, como
los sensores basados en ácidos nucleicos o anticuerpos, los biosensores basados en células no
son específicos para ciertos compuestos, pero son capaces de responder a una amplia gama de
compuestos biológicamente activos y ofrecen el potencial de recopilar mayor contenido de
información que los sensores biomoleculares.

Para ser utilizado como biosensor, la señal celular generada en el transductor debe determinarse
de manera no invasiva. Las células eléctricamente excitables, como las neuronas y los
cardiomiocitos, son particularmente útiles en este sentido, ya que la actividad de las células
puede monitorizarse mediante los registros extracelulares utilizando microelectrodos. Para
mediciones electroanalíticas y biosensores, los dispositivos de electrodo y biosensor se pueden
miniaturizar hasta una escala de tamaño de celda utilizando tecnología de microfabricación y se
pueden colocar directamente en las proximidades de la superficie de la celda, donde las
sustancias de señalización celular se capturan antes de que se difundan. En el caso de
biosensores, se puede realizar una monitorización in situ de alta sensibilidad. Aunque
cuantitativamente la señal es muy pequeña, se mejora a través de amplificadores de circuito o
reacciones catalíticas en el biosensor. Los biosensores basados en células pueden tener un
tiempo de respuesta más largo y menos especificidad para un solo analito de interés debido a la
presencia de otras enzimas en las células.

Se utilizan muchos tipos de células no excitables para la detección de diversas clases de


materiales que no reaccionan con las células excitables. Los transductores pueden ser ópticos
en lugar de eléctricos. Las células inmunes y los hepatocitos son buenos ejemplos de células no
excitables utilizadas para biosensores basados en células. Por ejemplo, se han utilizado
hepatocitos para evaluar y predecir los efectos de sustancias tóxicas. Muchos compuestos no
producen una respuesta inmediata o toxicidad. En este caso, la motilidad y la adhesión celular
también se pueden utilizar como señal celular. También se han desarrollado células modificadas
genéticamente que reconocen e informan la presencia de un analito específico. Las células se
producen con una secuencia de ácido nucleico en la que los genes que codifican las enzimas
luciferasa o galactosidasa se colocan bajo el control de un promotor que reconoce el analito de
interés. Debido a que el sistema de reconocimiento biológico del organismo está vinculado al
sistema de notificación, la presencia del analito da como resultado la síntesis de enzimas
inducibles que luego catalizan reacciones que dan como resultado la producción de productos
detectables.

Muchos biosensores basados en microorganismos se utilizan para evaluar toxinas, ya que son
menos costosos de construir en comparación con otros tipos de células. Además, los
microorganismos son más tolerantes a algunas condiciones de ensayo que serían perjudiciales
para una proteína aislada, ya que los microorganismos tienen mecanismos para regular su
entorno interno en función de las condiciones externas. Los biosensores basados en
microorganismos se basan en el uso del analito como sustrato respiratorio o como inhibidor de
la respiración. Los biosensores que detectan compuestos orgánicos biodegradables medidos
como demanda biológica de oxígeno (DBO) son los biosensores basados en microorganismos
más ampliamente reportados que utilizan este mecanismo. Las limitaciones generales de los
biosensores basados en células son los largos tiempos de ensayo, incluida la respuesta inicial y
el retorno a la línea de base.

9.4. Elementos transductores


Un elemento biosensor está estrechamente integrado dentro de un transductor fisicoquímico o
microsistema transductor. La naturaleza de la interacción del elemento biológico con el analito
de interés influye en la elección de la tecnología de transducción. Por ejemplo, las señales del
movimiento iónico se pueden transducir utilizando bioelectrodos. Sin embargo, si no hay
movimiento iónico en las interacciones analito-biosensores, entonces se deben desarrollar
estrategias alternativas. Un sistema de biosensores exitoso requerirá el desarrollo de métodos
efectivos de muestreo, junto con un modelo biológico del proceso. A continuación se describen
diferentes tecnologías de transductores.

9.4.1 Biosensores electroquímicos

Un enfoque para aprovechar la tecnología de bioelectrodos es incorporar un elemento sensor


que también podría desempeñar un papel en la transferencia de electrones. Los transductores
electroquímicos son los métodos de transducción más establecidos. Aunque algunos electrodos
se acercan al comportamiento ideal no polarizable a bajas corrientes, no hay ningún electrodo
que se comporte en una condición ideal no polarizable. En consecuencia, el potencial interfacial
del contraelectrodo en el sistema de dos electrodos varía a medida que pasa la corriente a través
de la celda. Este problema se supera mediante el uso de un sistema de tres electrodos (Figura
9.9), en el que las funciones del contraelectrodo se dividen entre el electrodo de referencia y el
de trabajo. El electrodo de referencia asegura que el potencial entre los electrodos de trabajo y
de referencia esté controlado y que la corriente pase entre los electrodos de trabajo y auxiliares.
La corriente que pasa a través del electrodo de referencia se reduce aún más utilizando un
amplificador operacional de alta impedancia de entrada para la entrada del electrodo de
referencia. Un electrodo de referencia utilizado anteriormente fue el electrodo de calomelanos
saturado (con una gran superficie de mercurio). Sin embargo, dado que la corriente que pasa a
través del electrodo de referencia en el sistema de tres electrodos es muchos órdenes de
magnitud menor que la corriente que pasa a través del sistema de dos electrodos, los requisitos
para el electrodo de referencia son menos exigentes; por tanto, se utilizan electrodos más
pequeños y polarizables. Los requisitos para el contraelectrodo del sistema de dos electrodos
incluyen una alta corriente de intercambio (cinética de transferencia rápida de electrones), una
superficie muy grande (para reducir la densidad de corriente) y una alta concentración de las
especies implicadas en la reacción redox, de modo que las concentraciones no se modifican
significativamente por el paso de una corriente.
Figura 9.9 Sensores electroquímicos: (a) sistema de tres electrodos y (b) electrodos Clark.

Se han desarrollado dos enfoques en aplicaciones de biosensores, ya que la corriente y el voltaje


cambian mientras se utilizan electrodos polarizables. Las técnicas de electroquímica se basan en
la medición de la corriente (i) en función de la tensión (ΔΦappl). El componente electrónico
clave para la medición electroquímica es un potenciostato, que se puede configurar para lectura
potenciométrica (aplicar corriente fija y medir voltaje de salida) o amperométrica (aplicar voltaje
fijo y medir corriente de salida). Se utiliza un potenciostato para aplicar un potencial constante
al electrodo de trabajo con respecto a un contraelectrodo (un electrodo de referencia). Un
potenciostato es un circuito electrónico simple que se puede construir usando una batería, dos
amplificadores operacionales y varias resistencias. Un problema con los sensores
potenciométricos en aplicaciones de sensores es el requisito de una cinética de electrodos
rápida para una respuesta más rápida. El potencial redox estándar de dos semiceldas acopladas
que generan un voltaje ΔΦ0 está relacionado con el cambio de energía libre de la reacción,
mediante la siguiente ecuación:

ΔG0 = zFE0 Ec. 9.5

donde F es la constante de Faraday yz es el número de electrones transferidos. Dado que ΔG se


puede relacionar con el valor de KD, E0 es una función de la cinética de la reacción. Sin embargo,
muchas reacciones biológicas son interacciones lentas.

Ejemplo 9.3.

Usando alcohol de levadura deshidrogenasa, que contiene NAD, el Sr. Dickerson probó la
conversión de alcohol en acetaldehído. Al final de la reacción, NAD (la forma oxidada) se reduce
a NADH. A 25 ° C, se determinó que la constante de disociación era 50 mM. Calcule el potencial
del electrodo. Solución: De (7.3),

Igualando a 9.4

9.4.1.1 Transductores amperométricos

Los biosensores voltamétricos se basan en medir una corriente con un cambio de voltaje. La
subtécnica en voltamperometría son los biosensores amperométricos donde la corriente a un
potencial fijo da un valor estable con el tiempo. En la categoría amperométrica, un elemento
biosensor se acopla típicamente a un electrodo amperométrico y, cuando el elemento biosensor
reacciona con el sustrato, se produce una corriente que se correlaciona con la concentración de
analito. El potencial del electrodo se utiliza para impulsar una reacción redox interfacial y se
mide la corriente resultante de esa reacción. La corriente que fluye es directamente
proporcional a la concentración de analito.

Los transductores amperométricos son más versátiles que los dispositivos potenciométricos. La
detección amperométrica se basa en medir la oxidación o reducción de un compuesto
electroactivo en el electrodo de trabajo (sensor). La velocidad de la reacción del analito se
controla mediante la variación de la corriente. La señal medida es una variación en la corriente,
a potencial constante, dependiendo de la variación en la concentración de especies reactivas: la
relación es lineal. En funcionamiento continuo existe el riesgo de intoxicación superficial; Se
prefieren las mediciones en estado no estacionario para evitar este problema. La sensibilidad es
mayor para un sensor amperométrico (LOD de aproximadamente 10−8 M en comparación con
10−6 M para un dispositivo potenciométrico). Normalmente, se utiliza Ag / AgCl o un electrodo
de calomelanos saturado (SCE) como electrodo de referencia, de modo que se produce una
oxidación / reducción reversible a un potencial fijo en el electrodo de referencia. El potencial
aplicado es una fuerza impulsora electroquímica que provoca la reacción de oxidación o
reducción. Con una gran concentración de Cl−, la reacción Ag / AgCl produce un potencial
estable. Según la ley de electroquímica de Faraday, la cantidad de sustancia consumida o
producida en uno de los electrodos de una celda electrolítica es directamente proporcional a la
cantidad de electricidad que pasa a través de la celda. La respuesta actual, I,

I = zF dn/dt Ec. 9.6.

donde F es la constante de Faraday, z es la valencia del reactivo y dn / dt es la tasa de oxidación


o reducción [moles]. La ecuación (9.4) también se puede derivar de (3.17). La velocidad de
reacción depende tanto de la velocidad de transferencia de electrones en la superficie del
electrodo como del transporte de masa del analito.

Ejemplo 9.4

Un grupo de investigadores está tratando de desarrollar un biosensor electroquímico con el


requisito de detectar una corriente constante de 50 mA durante 1 hora. Si la valencia del analito
es +2, calcule el número mínimo de moles de analito necesarios para estar presente.

Solución: reorganizar (9.6),

Integrando respecto al tiempo

Dado que se requiere una corriente constante, I es independiente del tiempo y la ecuación se
reduce a

Con la mayoría de las reacciones redox, la velocidad de transferencia de electrones puede


acelerarse aumentando el potencial al que se coloca el electrodo. Por tanto, la calidad de la
velocidad de reacción es menos importante que en los bioelectrodos potenciométricos, ya que
las reacciones lentas de los electrodos se activan a través del potencial de electrodo aplicado.
Por lo general, la constante de velocidad para ET aumenta en un factor de 10 por cada aumento
de 120 mV en el potencial del electrodo. A medida que aumenta el potencial, la reacción alcanza
el punto en el que la velocidad está limitada por el transporte de masa del reactivo al electrodo.
Cuando la reacción en la superficie del electrodo es suficientemente rápida, la concentración de
analito en el electrodo es cero y se alcanza una velocidad de reacción global máxima. Esta tasa
general está limitada por la tasa de transferencia de masa y se puede obtener combinando la
ley de difusión de Fick:

I= nAFD (dC/dx)x =0 Ec. 9.7.


donde C es la concentración de las especies electroactivas, A es el área del electrodo, D es el
coeficiente de difusión yx es el espesor a través del cual debe producirse la difusión. Además, el
espesor cero (x = 0) representa la superficie del electrodo. La velocidad de transporte de masa
a la superficie del electrodo depende de la concentración global de analito, la forma y el área
del electrodo y las condiciones de difusión. El uso de electrodos amperométricos se complica
por la regeneración del componente electroactivo del analito. La concentración del componente
electroactivo en la superficie del electrodo se ve afectada por la difusión del producto a través
de la capa de enzima, la actividad de la enzima y la difusión del analito. Los sensores
potenciométricos no perturban la concentración de analito en la interfaz, ya que no hay
consumo neto de este último. Por tanto, la transferencia de masa de analito no es importante.
La señal potenciométrica puede verse alterada por ruido electrónico. Sin embargo, los sensores
amperométricos tienen un agotamiento significativo del analito junto a la superficie del sensor,
por lo que debe controlarse la transferencia de masa del analito al sensor desde la solución a
granel.

9.4.1.2 Electrodo de oxígeno de Clark

El sensor de oxígeno disuelto de Clark es el biosensor amperométrico más conocido de este tipo.
El control del consumo de oxígeno es importante durante el cultivo celular y el desarrollo
microbiano. Entre las diversas herramientas para determinar el oxígeno, el sensor de oxígeno
de Clark (llamado así en honor a Leland C. Clark, Jr.) es el más utilizado y se ha aplicado en análisis
clínicos, monitoreo de fermentación y desarrollo de biosensores. El electrodo de Clark consiste
en un electrodo de trabajo (cátodo) mantenido a un potencial externo negativo en relación con
un electrodo de referencia (ánodo) y el electrolito [Figura 9.9 (b)]. El cátodo está hecho de
metales nobles, como Pt o Au, por lo que la superficie del electrodo no participa en las
reacciones químicas. La corriente se produce por la reducción química de oxígeno en la
superficie del cátodo, expresada por:

En muchas muestras, a menudo existen otras especies electroactivas reducibles al mismo


potencial y / o especies tensioactivas adsorbibles en la superficie del cátodo que podrían
interferir con la reducción de oxígeno. Por tanto, el compartimento del electrodo está aislado
de la cámara de reacción mediante una fina membrana polimérica (teflón, polipropileno), que
permite que la difusión del oxígeno llegue al cátodo. Como resultado, el oxígeno disuelto (OD)
en la muestra debe difundirse a través de la membrana y el electrolito entre la membrana y el
cátodo.

Una vez que se aplica un potencial externo negativo al electrodo de trabajo, la superficie
proporcionará electrones a la molécula de oxígeno. La reducción permite que fluya una
corriente. A potenciales bajos, la corriente del electrodo se rige por la densidad de la corriente
de intercambio y el sobrepotencial de las reacciones anteriores. A potenciales más altos, la
concentración de oxígeno (actividad) y la superficie se vuelven insignificantes. El valor específico
del potencial de polarización varía con el material utilizado para el cátodo. En el potencial de
polarización, la velocidad de reacción de reducción de oxígeno es rápida y hay poca o ninguna
acumulación de oxígeno en la superficie del cátodo. Por lo tanto, la velocidad de reacción está
limitada únicamente por la velocidad de difusión del oxígeno desde la muestra a la superficie
del cátodo. En consecuencia, la corriente límite es linealmente proporcional a la presión (o
actividad) parcial de oxígeno en contacto con la superficie externa de la membrana. La corriente
que fluye es proporcional a la actividad del oxígeno siempre que la solución se agite
constantemente para minimizar la formación de una capa sin agitar junto a la membrana. En
estas condiciones, la corriente se vuelve independiente del voltaje. Los electrodos de tipo Clark
han experimentado un desarrollo y una miniaturización significativos desde su primer
desarrollo. Utilizando el principio de los electrodos sensores de oxígeno de tipo Clark, se han
desarrollado varios biosensores inmovilizando enzimas, anticuerpos o microorganismos que
catalizan la oxidación de compuestos orgánicos bioquímicos.

9.4.1.3 Electrodo de enzima amperométrica

Las estrategias comunes en las que se construye un electrodo de enzima amperométrica para
monitorear un sustrato son las siguientes:

1. Los biosensores enzimáticos de primera generación [Figura 9.6 (b)] fueron las
extensiones del electrodo de oxígeno donde una enzima que consume oxígeno se
inmoviliza a un electrodo de platino y la reducción de oxígeno en el electrodo produce
una corriente que es inversamente proporcional a concentración analito. Normalmente,
la enzima oxidasa se inmoviliza sobre la membrana en la superficie de un electrodo de
platino. El consumo de O2 o la formación de H2O2 se mide posteriormente en un
electrodo de platino. El límite de detección para sensores basados en H2O2 es
generalmente mejor que para los sistemas de detección de oxígeno. Un problema con
esta disposición es la pérdida de selectividad entre el evento de biorreconocimiento y
la detección amperométrica de H2O2. Además, tiene características de respuesta lenta,
dificultades de miniaturización y baja precisión y reproducibilidad. Sin embargo, una
limitación importante del enfoque de detección de H2O2 es el alto potencial de
oxidación (700 mV frente al electrodo de referencia Ag / AgCl) necesario para que la
oxidación del H2O2 produzca una interferencia sustancial por la oxidación de otros
compuestos como el ácido ascórbico (también llamado vitamina C), ácido úrico y
acetaminofén en matrices complejas.

2. La segunda generación se centra en reducir el potencial de trabajo por medio de un


mediador de electrones artificiales [Figura 9.6 (b)]. El aceptor de electrones es
reemplazado por el mediador, que transporta los electrones involucrados en el proceso
redox desde la enzima hacia el electrodo o viceversa. La mayoría de las oxidasas no son
selectivas con respecto al agente oxidante, lo que permite la sustitución de una variedad
de agentes oxidantes artificiales. Se da un ejemplo de glucosa oxidasa en la siguiente
reacción:

Estos mediadores catalizan la oxidación de H2O2 en el electrodo de los biosensores. Reactivos


tales como ferrocianuro, derivados de ferroceno, tintes de quinonas similares a quinoides, sales
conductoras orgánicas y viológenos se han coinmovilizado como mediadores entre H2O2 y
electrodos. También se utiliza una especie de enzima férrica, peroxidasa de rábano picante
(HRP). En estos electrodos se mide una corriente de reducción, resultante de la transferencia de
electrones directa o mediada, a un potencial aplicado bajo, evitando así los problemas de
interferencia encontrados durante la oxidación electroquímica de H2O2.

La selección de mediadores con potenciales redox apropiados permite un mejor desempeño del
electrodo de trabajo en un rango de potencial donde otros componentes en la matriz de la
muestra no se oxidan o reducen. La baja solubilidad de O2 en soluciones acuosas y la dificultad
asociada con el control de la presión parcial de O2 fueron desventajas de los biosensores
basados en la reacción O2 / H2O2. Cuando se usa un mediador artificial altamente soluble, la
tasa de renovación de la enzima no está limitada por la concentración del cosustrato (O2). Por
lo tanto, eliminar la dependencia del O2 facilita el control de la reacción enzimática y el
rendimiento del sensor. Además, el uso de mediadores distintos del O2 permite la explotación
de otras enzimas oxidorreductasa como las deshidrogenasas y las peroxidasas. A diferencia de
las oxidasas, estas enzimas no utilizan O2 como cosustrato aceptor de electrones. Un ejemplo
es la base del biosensor de ácido láctico en lactato deshidrogenasa, que cataliza la siguiente
reacción:

Otra forma de medir el H2O2 a un potencial de oxidación bajo es mediante el uso de carbón con
partículas dispersas de rodio, rutenio o iridio. Aunque son efectivos para reducir el potencial
operativo, la mayoría de los electrodos mediados todavía sufren alguna interferencia de ácido
ascórbico y ácido úrico. Además, los mediadores son moléculas pequeñas y la difusión excesiva
fuera de la película inmovilizada en la superficie del electrodo da como resultado una pérdida
de mediador, lo que da como resultado una pérdida de actividad catalítica. Además, puede
haber competencia entre el mediador oxidado y el oxígeno por la oxidación del sitio activo.

3. La tercera generación se basa en la transferencia directa de electrones entre el sitio activo de


una enzima redox y el transductor electroquímico [Figura 9.6 (c)]. Por tanto, la transducción de
señales elimina el consumo de oxígeno en el electrodo. Un enfoque implica la unión de centros
activos redox (mediadores) y enzimas en una matriz polimérica inmovilizada en la superficie de
un electrodo. Se desarrolla una serie de tales sistemas basados en enzimas y generalmente se
denominan electrodos enzimáticos "cableados". En efecto, el mediador conectó la enzima a un
electrodo. Las enzimas conectadas pudieron transferir equivalentes redox desde el sitio activo
de la enzima a través del mediador hasta un electrodo. Adam Heller desarrolló originalmente
electrodos enzimáticos con cable como una solución para evitar la difusión de los mediadores
fuera de la película. Los mediadores de estos sistemas son complejos de bipiridina de osmio,
que son catiónicos y, por tanto, se unen electrostáticamente a la glucosa oxidasa aniónica.

El principio de enzima por cable dio como resultado el desarrollo posterior de polímeros redox
que inmovilizan enzimas. La coinmovilización de la enzima y el mediador se logra mediante el
marcaje del mediador redox de la enzima seguido de la inmovilización de la enzima en un
polímero redox o la inmovilización de una enzima y el mediador en un polímero conductor
(como los polipiroles). También se han desarrollado diferentes configuraciones de un biosensor
de colesterol con una colesterol oxidasa atrapada en una película de polipirrol. Estos polímeros
transfieren eficazmente electrones desde los sitios de flavina GOX reducidos en glucosa a los
centros redox unidos al polímero. Una serie de reacciones redox en cadena dentro y entre
polímeros transfieren los equivalentes a la superficie de un electrodo. Esto permite el fácil
intercambio de electrones entre los centros de osmio de los complejos y el sitio activo de la
enzima.

Para estas posibilidades, la técnica de inmovilización es importante para asegurar que el centro
redox esté lo suficientemente cerca del electrodo para permitir una rápida transferencia de
electrones. Para las enzimas redox grandes, como la glucosa oxidasa, esto es difícil de realizar
ya que sus sitios activos están ocultos dentro de la estructura de la proteína. Para estas enzimas,
es importante que estén inmovilizadas en una superficie de electrodo compatible de manera
que sea factible la transferencia de electrones desde el centro catalítico al electrodo sin la
desnaturalización de la enzima. Además, la inmovilización de enzimas (discutida en la Sección
9.5.2) es importante en términos de estabilidad operativa del biosensor y uso a largo plazo. Dado
que este factor es, hasta cierto punto, una función de la estrategia utilizada, la elección de la
técnica de inmovilización es fundamental. Se puede encontrar un gran número de informes,
como se revisó en otra parte, que involucran enzimas física o químicamente (covalentemente)
atrapadas en el transductor.

Dado que no se deben agregar ni mediador ni enzima, este diseño facilita mediciones repetidas.
El uso del sensor para múltiples análisis minimiza las presiones de costos en el diseño del sensor.
También se deduce que dicho sensor podría permitir la monitorización continua de analitos. La
enzima redox y el alambre se inmovilizan mediante reticulación para formar hidrogeles epoxi
redox tridimensionales. Una gran fracción de las enzimas unidas en el gel epoxi redox 3D están
conectadas al electrodo. Estos cables proporcionan un enfoque general para biosensores de
tercera generación, sensibles a la glucosa y otros componentes como sarcosina, L-lactato, D-
aminoácidos, L-glicerofosfato, celobiosa y colina.

9.4.2 Transductores ópticos

Los transductores ópticos forman un grupo que muestra directamente características,


haciéndolos ventajosos sobre otros sistemas tales como transductores electroquímicos,
sensibles a la masa, térmicos, acústicos u otros. Generalmente, estos métodos utilizan un
sustrato que se convierte en un color diferente o genera un color debido a una reacción con el
analito.

9.4.2.1 Técnicas basadas en la absorción

Las técnicas basadas en la absorción involucran las tiras reactivas colorimétricas y los ensayos
inmunoabsorbentes ligados a enzimas (ELISA) que se utilizan habitualmente en las interacciones
antígeno-anticuerpo. Las tiras colorimétricas son almohadillas de celulosa desechables de un
solo uso, impregnadas con elementos sensores y reactivos. Un ejemplo es un biosensor de
glucosa para el control de la sangre total en el control de la diabetes. Se utilizan las reacciones
utilizadas en la producción de señales electroquímicas. Sin embargo, el peróxido producido en
la reacción se acopla a un cromógeno (por ejemplo, o-toluidina o 3,3 ', 5,5'-tetrametilbencidina)
en lugar de a un electrodo, que se convierte en un tinte en presencia de peroxidasa de rábano
picante. (HRP).
Las cintas teñidas son útiles cuando solo se necesitan señales positivas o negativas. Las tiras
incluyen glucosa oxidasa, HRP y un cromógeno. Se encuentra disponible comercialmente una
amplia variedad de tiras reactivas que involucran varias enzimas. Sin embargo, los
espectrofotómetros se utilizan junto con ELISA para la cuantificación de la concentración de una
molécula específica (por ejemplo, una hormona o un fármaco) en un líquido como el suero o la
orina.

Figura 9.10 Esquema que muestra los pasos del ensayo inmunoabsorbente ligado a enzimas.

El anticuerpo se fija a una superficie sólida (Figura 9.10) y luego se agrega la muestra que
contiene el antígeno. Además, también se prepara el mismo anticuerpo acoplado a una enzima
como HRP o β-galactosidasa. Este complejo produce un producto coloreado a partir de un
sustrato incoloro. Los indoxilos y algunos de sus derivados se emplean como sustratos en
ensayos espectrofotométricos. Sin embargo, la detección espectrofotométrica puede tener
inconvenientes porque algunas mediciones toman un tiempo excesivamente largo o las mezclas
de muestras son turbias. Un ejemplo de biosensor basado en absorción es el oxímetro de pulso,
que es el dispositivo más común utilizado en cuidados intensivos para medir la saturación de
oxígeno en sangre. A diferencia de otros sensores de oxígeno, este oxímetro de pulso es una
técnica no invasiva y permite un monitoreo continuo. Se basa en la diferencia en las
características de absorción de luz infrarroja de la hemoglobina oxigenada (HbO2) y
desoxigenada (Hb). Por lo general, los diodos emisores de luz (LED) son capaces de emitir dos
luces (Figura 9.11) de diferentes longitudes de onda: luz infrarroja (longitud de onda de 800 a
1000 nm) y luz roja (longitud de onda de 650 nm), colocadas en un dedo.

Figura 9.11. Oxímetro de pulso


Las luces son absorbidas en parte por la hemoglobina y la intensidad de la luz que pasa es
detectada por un fotodiodo colocado en el lado opuesto. Las absorciones por oxihemoglobina y
hemoglobina desoxigenada en cada longitud de onda son significativamente diferentes. La
hemoglobina oxigenada absorbe más luz infrarroja mientras transmite la mayor parte de la luz
roja, mientras que la hemoglobina desoxigenada transmite la mayor parte de la luz infrarroja,
pero absorbe más luz roja. Calculando la absorción en las dos longitudes de onda, se calcula el
porcentaje de hemoglobina oxigenada. Sin embargo, además de la absorción de la hemoglobina,
la intensidad de la luz detectada por el fotodetector también depende de la opacidad de la piel,
el reflejo de los huesos y la dispersión de los tejidos. Más importante aún, la absorción
corresponde a la cantidad de sangre en el lecho vascular, que varía según el latido del corazón y
produce una intensidad de luz pulsátil en el detector, de ahí el nombre oxímetro de pulso,
aunque se utilizan fuentes de luz directa. Sin embargo, las lecturas del oxímetro se ven afectadas
por condiciones anormales del flujo sanguíneo, como hipotermia, shock y movimiento vigoroso.
Además, un un oxímetro de pulso no puede discriminar entre la unión de O2 y CO, ya que los
cambios en la hemoglobina son similares.

9.4.2.2 Técnicas basadas en fluorescentes

Las etiquetas fluorescentes (descritas en el Capítulo 8) hacen que una biomolécula (o un sistema
biológico) sea fluorescente para que sea susceptible de espectroscopia de fluorescencia. El
etiquetado de proteínas con fluoróforos es un enfoque en el desarrollo de una serie de
inmunoensayos. El proyecto del genoma humano se basa en el marcaje fluorescente de ácidos
nucleicos, lo que permite una secuenciación más rápida que otros métodos. Las etiquetas se
unen a las especies de interés mediante unión covalente a través de un grupo reactivo que forma
un enlace químico con otros grupos como amino, hidroxi, sulfhidrilo o carboxi. Se espera que las
etiquetas sean inertes a otras especies químicas presentes en el medio ambiente, por ejemplo,
al pH. Las etiquetas tienen preferiblemente excitación y emisión de onda larga para reducir la
luminiscencia de fondo de la materia biológica y / o tiempos de desintegración prolongados, de
modo que la luminiscencia de fondo se desintegra mucho más rápido que la luminiscencia de la
etiqueta. Como resultado, existe un interés sustancial en el diseño de etiquetas luminiscentes
de onda larga y de decaimiento largo.

Una sub-técnica dentro de la fluorescencia se basa en la transferencia de energía por resonancia


de fluorescencia (FRET), que es un proceso en el que la energía de un fluoróforo (el donante de
energía, D) en un estado excitado se transfiere a otro cromóforo (el aceptor de energía, A). . El
donante y el aceptor se seleccionan de manera que el espectro de absorción del aceptor esté en
la misma región de longitud de onda que el espectro de emisión del donante. Los biosensores
FRET se utilizan para estudiar eventos moleculares desde células individuales hasta organismos
completos. Son únicos debido a su fluorescencia espontánea y su especificidad dirigida tanto a
los orgánulos como a los tejidos. El físico alemán Theoder Förster, en cuyo honor algunos se
refieren a FRET como la transferencia de energía de resonancia de Forster, desarrolló una teoría
cuantitativa basada en el supuesto de que la transferencia de energía ocurre a través de
interacciones dipolo-dipolo del donante y el aceptor. La eficiencia de la transferencia de energía
(ηtr), que puede medirse experimentalmente por las intensidades de fluorescencia o por la vida
útil del fluoróforo, se expresa en términos de una constante de distancia de Forster R0 como

Ec. 9.8

donde δ es la distancia entre el aceptor y el donante. La ventaja de FRET es la dependencia (y


por lo tanto la sensibilidad) de la eficiencia de transferencia de energía de la sexta potencia de
la distancia (δ) entre los cromóforos. Por lo tanto, FRET también se usa para medir cambios en
las distancias en las interacciones moleculares. R0 depende del grado de superposición de la
emisión del donante y el espectro de absorción del aceptor y se calcula utilizando la relación

Ec. 9.9

donde J es el grado de superposición de energía entre el espectro de emisión del donante y el


espectro de absorbancia del aceptor, κ2 es la orientación relativa entre los dipolos donante y
aceptor (para la orientación aleatoria, se supone κ2 = 2/3), qd es el rendimiento cuántico del
donante en ausencia de aceptor, yn es el índice de refracción del medio.

Cuando δ es igual a R0 [Å unidades], la eficiencia de transferencia de energía es el 50% del


máximo. Una macromolécula marcada en la que el fluoróforo donante está aproximadamente
dentro de 0.5R0-1.5R0 del sitio activo exhibiría una disminución aparente más rápida de su
fluorescencia debido a la transferencia de energía; La transferencia de energía es, por tanto, un
mecanismo de extinción y también se observa una disminución en la intensidad de la
fluorescencia. Al colocar al donante mucho más cerca del sitio activo, se produce una extinción
cuantitativa, mientras que si el donante está más lejos, la extinción es modesta debido a la sexta
dependencia de la potencia. Un ejemplo son los puntos cuánticos (QD), descritos en el capítulo
8, conjugados con una función de proteína de unión a maltosa (MBP) como donantes de
transferencia de energía de resonancia. Los tintes no fluorescentes unidos a la ciclodextrina
sirven como aceptores de transferencia de energía. En ausencia de maltosa, los complejos de
ciclodextrina-colorante ocupan los sitios de unión a proteínas. La transferencia de energía del
QD a los tintes apaga la fluorescencia QD (Figura 9.12). Cuando está presente maltosa,
reemplaza los complejos de ciclodextrina y se recupera la fluorescencia QD. Dado que la
intensidad de la fluorescencia es proporcional a la cantidad de maltosa en la muestra, se
determina la concentración de maltosa.

La quimioluminiscencia se produce por la oxidación de ciertas sustancias, generalmente con


oxígeno o peróxido de hidrógeno, para producir luz visible. La bioluminiscencia es producida por
ciertas sustancias biológicas, como las luciferinas producidas por la luciérnaga. Un biosensor que
implica luminiscencia utiliza la luciferina Photinus-luciferin 4-monooxigenasa (hidrolización de
ATP) para detectar la presencia de bacterias en alimentos o muestras clínicas. Las bacterias se
lisan específicamente y el ATP liberado (casi proporcional al número de bacterias presentes)
reacciona con la D-luciferina y el oxígeno en una reacción que produce luz amarilla con un alto
rendimiento cuántico.

La espectroscopía de luminiscencia utiliza la medición de la intensidad de la luz, su tiempo de


desintegración, polarización, rendimiento cuántico y eficiencia de extinción, transferencia de
energía radiativa y no radiativa y muchas otras combinaciones. Los fluorocromos luminiscentes
pueden excitarse con luz (incluida la luz láser), electroquímicamente, mediante energía
bioquímica, presión o sonido. La luminiscencia se mide en gaseoso, líquido, sólidos, tejidos y
células, iluminando directamente el objeto o utilizando guías ópticas de guía de ondas que
incluyen fibras ópticas. La luciferasa de luciérnaga es una enzima muy cara, que solo se puede
obtener de las colas de las luciérnagas salvajes. Por tanto, el uso de luciferasa inmovilizada
reduce en gran medida el coste de estos análisis.
Figura 9.12 Utilización de FRET en el desarrollo de un biosensor de maltosa.

Los biosensores ópticos se han adoptado a lo largo de los diagnósticos clínicos y la investigación
en ciencias biológicas debido a su breve tiempo de respuesta y sensibilidad en comparación con
otras técnicas. Además, utilizando la tecnología de fibra óptica, se puede acceder a algunas
partes internas del cuerpo que son inaccesibles mediante otras técnicas. Los anticuerpos se
inmovilizan en el extremo de una sonda de fibra óptica para su uso en evaluación in vitro e in
vivo. Se utiliza una sola fibra para transmitir la radiación de excitación a la muestra y recoger la
emisión de fluorescencia del antígeno. Sin embargo, los biosensores ópticos tienen
inconvenientes en las mezclas de muestras que son turbias. Algunos cromóforos también son
inestables; por tanto, los procedimientos de ensayo que implican especies no cromógenas
pueden ser útiles. Algunos biosensores ópticos requieren el uso de amplificación del objetivo de
manera que la señal se mejore a un nivel mensurable. De estos métodos de amplificación, la
reacción en cadena de la polimerasa (PCR) ha surgido como una técnica para la detección de
ácidos nucleicos. Sin embargo, la PCR tiene varias limitaciones, que incluyen un requisito de
tiempo para el procesamiento y la amplificación de la muestra, falsos positivos de la
contaminación de la muestra o del reactivo y altos costos de instrumentación y mano de obra.

REVISADO

9.4.3 Transductores acústicos

Los cristales piezoeléctricos (discutidos en el capítulo 8) utilizados en la ecografía también se


utilizan como transductores. La utilidad del cristal piezoeléctrico como sensor de masa surge de
la relación lineal entre el cambio en la masa (o viscosidad) en la superficie del cristal y el cambio
en su frecuencia de oscilación. La vibración de los cristales piezoeléctricos produce un campo
eléctrico oscilante en el que la frecuencia de resonancia del cristal depende de su naturaleza
química, tamaño, forma y masa. Al colocar el cristal en un circuito oscilante, la frecuencia se
mide en función de la masa. Cuando el cambio de masa (Δm) es muy pequeño en comparación
con la masa total del cristal, el cambio en la frecuencia vibratoria (f) del cristal en el circuito se
relaciona am de la siguiente manera:

Ec 9.10.

donde A es el área del cristal y b es una constante determinada por el material y el espesor del
cristal. Dado que by A son constantes para un cristal, la frecuencia de oscilación del cristal
cambia linealmente con el cambio de masa en el cristal a una frecuencia particular. Los
transductores acústicos utilizan esta propiedad única en una amplia variedad de
configuraciones. Cuando los anticuerpos o antígenos se inmovilizan sobre la superficie del
cristal, la unión del antígeno o del anticuerpo en la muestra cambia la masa del cristal. La
cantidad de analito se determina correlacionando un cambio de frecuencia con la masa. Las
proteínas inmovilizadas (enzimas y anticuerpos) para la detección de contaminantes
atmosféricos han demostrado su utilidad en varias aplicaciones.

El formaldehído en el rango de concentración de 1 a 100 partes por mil millones se analiza en la


fase gaseosa utilizando formaldehído deshidrogenasa sin interferencia de otros aldehídos o
alcoholes.

Una ventaja de las técnicas acústicas es la detección, en tiempo real, de reacciones de unión de
compuestos químicos (en forma gaseosa o disueltos en solución) con la superficie sólida del
cristal. Esta característica permite la evaluación cinética de interacciones de afinidad
(típicamente entre anticuerpos y antígenos). Además, el coste del aparato es bajo. Las
limitaciones de este método de transducción implican requisitos de formato y calibración. Cada
cristal debe calibrarse porque su frecuencia depende de la geometría del cristal y de la técnica
de inmovilización utilizada para recubrir la superficie (generalmente cuarzo dorado) con el
antígeno o anticuerpo. La principal fuente de variabilidad es la uniformidad de la proteína
inmovilizada en la superficie.

9.4.4 Otros transductores

El enfoque calorimétrico de la transducción de señales aprovecha los cambios térmicos en una


solución. La calorimetría es un esquema de detección general y es un método conveniente para
detectar cualquier reacción química, bioquímica o física. Algunas reacciones mediadas por
enzimas producen calor durante la conversión del sustrato en un producto. El calor liberado
cambia la temperatura de la solución, que se puede controlar mediante termistores. También
se pueden formar termistores miniaturizados. La sensibilidad (10−4 M) y el rango (10−4-10−2
M) de los biosensores de termistor son bajos para la mayoría de las aplicaciones en relación con
otros métodos de transducción.

Un enfoque alternativo para detectar la temperatura y / o la tensión se basa en el voladizo


micromecanizado. Los microcantilevers son dispositivos micromecánicos con dimensiones del
orden de 100 μm de longitud con 30-40 μm de ancho y menos de 1 μm de espesor (Figura 9.13).
La deflexión del voladizo se mide con precisión y se aprovecha para detectar la temperatura
recubriendo un lado del voladizo con una capa de metal para crear una viga bimetálica. Los
diferentes coeficientes de expansión térmica asociados con cada capa hacen que el voladizo se
desvíe con el cambio de temperatura. Considerando la baja masa de un voladizo
micromecanizado y la sensibilidad con la que se puede medir la deflexión, la sensibilidad a la
temperatura es del orden de microgrados y la sensibilidad a la energía es del orden de 10-12
julios. El pequeño espesor del voladizo también permite respuestas sensibles a la tensión
mecánica. Por tanto, se puede descifrar la distinción entre tensiones inducidas térmicamente y
mecánicamente.

Los microcantilevers también pueden excitarse en resonancia por varios medios, incluido el
movimiento térmico ambiental. La frecuencia de resonancia de un microcantilever varía
sensiblemente con la adsorción molecular. Por ejemplo, la exposición de microcantilevers
recubiertos con un anticuerpo al antígeno provoca una desviación mecánica debido a la unión
del antígeno. La amplitud de la deflexión se compara con la de un voladizo de control. Además,
los microcantilevers también se doblan (Sección 5.3.5) debido a la adsorción de un elemento
biosensor inmovilizado. Si las dos superficies del voladizo son químicamente diferentes
(bimaterial, por ejemplo, silicio sobre oro), una adsorción molecular diferencial da como
resultado una tensión superficial diferencial entre las superficies superior e inferior del voladizo.
La tensión superficial producida cuando las moléculas se adsorben en un voladizo se observa
como cambios en la deflexión del voladizo. La tensión superficial diferencial entre las superficies
en voladizo debido a la adsorción molecular aumenta mediante la elección de elementos
bimateriales o cambiando la selectividad química de una superficie sobre la otra.

Figura 9.13 Tecnología de microcantilever: (a) con proteína inmovilizada para una bacteria
específica y (b) doblado después de la adsorción de bacterias a la proteína.

Ejemplo 9.5

Utilizando nitruro de silicio (E = 385 GPa), se desarrolla un microcantilever de 200 μm de


longitud, 20 μm de ancho y 0,6 μm de grosor, para su uso en una detección bacteriana. Los
anticuerpos específicos de esas bacterias se inmovilizan solo en la punta. Si se observa una
desviación de 10 mm, ¿cuántas bacterias deben adherirse al voladizo? Suponga que cada
bacteria pesa 53 ng.

Solución

Para cargar en la punta del voladizo, usando (5.31)

Las capacidades de reconocimiento del ADN (o ARN) monocatenario para su secuencia


complementaria hacen del ADN una molécula ideal para la fabricación a escala molecular de
nanoestructuras como cubos y rejillas moleculares. Hay cambios en las propiedades mecánicas
y eléctricas de los ácidos nucleicos. La longitud de persistencia del ADN cambia de 1 nm para el
ADN monocatenario a aproximadamente 50 nm para el ADN bicatenario, según la secuencia de
bases y las condiciones iónicas.
Aproximadamente 100 nucleótidos de ADN monocatenario se consideran flexibles, mientras
que la longitud equivalente del ADN bicatenario es similar a una varilla rígida. Igualmente
importante para la construcción de nanodispositivos y biosensores es el hecho de que las
propiedades de transferencia de electrones cambian con la hibridación, y el ADN monocatenario
posee propiedades de transporte de carga considerablemente mayores que el ADN bicatenario.

9.5 Tecnología de fabricación

9.5.1 Parámetros de rendimiento

La tecnología de fabricación debe permitir un biosensor de un tamaño apropiado para su uso en


grandes cantidades, a bajo costo y con un tiempo de respuesta rápido, es decir, un resultado
dentro de la escala de tiempo del proceso / prueba de diagnóstico, autocalibrado (acción mínima
por parte del usuario), y un modo no invasivo de detección de indicadores. Algunos de los
parámetros básicos a través de los cuales se caracterizan los biosensores se describen más
adelante.

La selectividad es principalmente la capacidad de discriminar entre diferentes sustratos o


analitos. Los sensores solo deben responder al analito que se está cuantificando. Por ejemplo,
la presencia de una enzima que promueve selectivamente una reacción introduce selectividad.
La sensibilidad de los biosensores aumenta significativamente con la conversión del sustrato.
Muchas veces puede haber otros componentes o contaminantes que podrían reaccionar con el
material selectivo; esto reduce la selectividad. En esos escenarios, la selectividad podría
mejorarse con membranas con permeabilidad selectiva frente a sustancias interferentes. Por
ejemplo, el sensor de glucosa basado en H2O2 sufre la presencia de ácido ascórbico. Es
necesario agregar una membrana que excluya el ácido ascórbico de la superficie de reacción.
Los sensores basados en anticuerpos son generalmente más específicos que los basados en
enzimas, pero todavía se producen reacciones cruzadas. La selectividad del biosensor se expresa
como la relación entre la salida de señal con el analito solo y la de las sustancias interferentes.

La sensibilidad es la medida de cuánto cambia la señal para un cambio dado en la concentración


de analito. Se mide por la pendiente del gráfico de respuesta de la señal de salida del biosensor
frente a la concentración de analito. Por ejemplo, la sensibilidad se describe mediante mA por
mmol / L de un analito para un biosensor amperométrico. Cuanto mayor sea la pendiente, más
sensible será el biosensor. En algunos biosensores se alcanza la sensibilidad hasta el límite de
detección femtomolar. La sensibilidad también se mejora mejorando la selectividad.

En algunos casos, las curvas de respuesta pueden no ser lineales. Luego, la sensibilidad se cotiza
en un rango definido de concentraciones de analito. Además, deben considerarse otros efectos.
Por ejemplo, al utilizar transductores basados en fluorescencia, el fotoblanqueo, es decir, la
destrucción fotoquímica de los fluoróforos, es un factor crítico para determinar la sensibilidad
del biosensor. Esto se aborda con una elección adecuada de la etiqueta fluorescente y ajustando
convenientemente la potencia de la fuente láser. La determinación de muchos compuestos
nitrogenados biológicos se ha basado en el seguimiento del amoniaco liberado de las reacciones
enzimáticas mediante un control potenciométrico directo utilizando gas amoniaco o electrodos
sensibles al amonio. Alternativamente, este amoniaco se puede transformar en derivados
activos espectrofotométricos y fluorométricos. Un problema común que se encuentra en tales
métodos es la presencia de amoníaco endógeno en las muestras de prueba, lo que significa que
la respuesta medida corresponde al amoníaco total (es decir, el amoníaco producido por las
reacciones enzimáticas y el inicialmente presente en la muestra). Por tanto, los sistemas de
detección que controlan los iones de amonio o el amoniaco son de escaso interés en el análisis
de muestras reales que contienen amoniaco endógeno. Se prefiere la elección de otros tipos de
transductores electroquímicos para evitar estos graves inconvenientes.

El límite de detección se define como la concentración de analito más baja y más alta que puede
detectar el biosensor considerando la relación señal / ruido. Para un electrodo de Clark, un límite
de detección inferior es de hasta 0,5 mg / L a 25 ° C. Reducir el límite de detección es el objetivo
de muchas tecnologías de fabricación. El rango dinámico se calcula como la respuesta medida o
extrapolada de la sonda a una concentración de analito cero más dos (o tres) desviaciones
estándar. A veces es ventajoso tener un sensor que pueda medir un amplio rango de
concentración. Por ejemplo, los sensores que dan una salida de señal logarítmica podrían tener
varias órdenes de magnitud. Sin embargo, un sensor debe dar la misma señal cada vez que se
coloca en una nueva solución de analito. Una medida de reproducibilidad es el coeficiente de
variación, la relación entre la desviación estándar y el valor medio.

El tiempo de respuesta es el tiempo necesario para alcanzar un valor de estado estable. El


tiempo de respuesta depende de la naturaleza del elemento receptor. Los receptores biológicos
son más lentos que los receptores químicos simples. El tiempo de respuesta también depende
de la velocidad de transporte del analito y del producto a través de diferentes capas de
membrana. Por tanto, el espesor y la permeabilidad de las diferentes capas son parámetros
fundamentales. Para un electrodo de Clark, el 90% de la respuesta en estado estable se obtiene
dentro de los 20 segundos posteriores a la adición del analito en la celda. Para enzimas
individuales, se informan tiempos de respuesta de 1 a 3 minutos. Los biosensores
electroquímicos tienen un tiempo de respuesta rápido y una relación señal / ruido relativamente
alta. Si se reutiliza un sensor, otro parámetro a considerar es el tiempo de recuperación (es decir,
el tiempo antes de que un sensor pueda analizar la siguiente muestra). Debería ser razonable
para un cribado de alto rendimiento.

La estabilidad del biosensor está diseñada por la vida útil, que se define como el tiempo de
almacenamiento o operativo necesario para que la sensibilidad, dentro del rango de
concentración lineal, disminuya en un factor de 10% o 50%. Hay tres aspectos de la vida útil: (1)
la vida activa del biosensor en uso, (2) la vida útil del biosensor en almacenamiento y (3) la vida
útil del biocomponente en almacenamiento antes de ser inmovilizado. Por lo tanto, es necesario
especificar si la vida útil es de almacenamiento (estante) u operativa (uso) y especificar las
condiciones de almacenamiento y operativas necesarias. Además, se debe especificar el modo
de evaluación para determinar la vida útil. La vida útil activa de un biosensor depende del tipo
de biocomponente utilizado y depende de la aplicación. La vida útil de un sensor puede variar
de unos días a unos meses. Generalmente, las enzimas puras tienen la estabilidad más baja,
mientras que las preparaciones de células y tejidos tienen una vida útil más larga.

9.5.2 Estrategias de inmovilización

La inmovilización se define como la unión de un elemento biosensor a una superficie que resulta
en una reducción o pérdida de movilidad. Es fundamental que el biocomponente esté
correctamente inmovilizado en el transductor. La forma en que se inmovilizan los elementos
biosensores determina las propiedades del biosensor. En algunos casos, la inmovilización
conduce a una pérdida parcial o total de la bioactividad. Para retener completamente la
actividad biológica, los elementos biosensores deben unirse al transductor sin afectar la función.
Generalmente, la elección de una estrategia de inmovilización adecuada está determinada por
las propiedades fisicoquímicas y químicas tanto de la superficie del transductor como del
elemento biosensor. Por ejemplo, la actividad o función de la proteína depende
fundamentalmente de su estructura 3D, que es muy sensible al entorno físico y químico local.
Mantener una molécula de proteína inmovilizada en un estado nativo y preservar su función es
un desafío importante. Se han desarrollado muchas técnicas de inmovilización, que se basan
principalmente en los tres mecanismos de inmovilización física, covalente y bioafinidad.

9.5.2.1 Atrapamiento físico

Esta técnica implica la simple adsorción del biocomponente sobre la superficie del electrodo.
Las proteínas se adsorben en las superficies mediante fuerzas intermoleculares, principalmente
enlaces iónicos e interacciones hidrófobas y polares [Figura 9.14 (a)]. La adsorción se clasifica
como adsorción física (fisisorción) y adsorción química (quimisorción). La fisisorción suele ser
débil y se produce mediante la formación de enlaces de van der Waals o enlaces de hidrógeno
entre el sustrato y la enzima. La quimisorción es mucho más fuerte e implica la formación de
enlaces covalentes. La capacidad de adsorción de las superficies planas está limitada por el
tamaño geométrico de las proteínas inmovilizadas. Sin embargo, la adsorción física muestra una
orientación aleatoria y una unión débil.

Una alternativa es encapsular físicamente el elemento biosensor usando películas delgadas de


polímero [Figura 9.14 (b)]. Se polimeriza un monómero adecuado en presencia de una enzima.
El polímero resultante puede ser conductor (tal como polipirroles) o no conductor (tal como
polifenoles), dependiendo del monómero empleado. El espesor de la película se controla
ajustando la concentración de monómero. Además de inmovilizar los elementos biosensores,
podrían actuar como membranas para mejorar la selectividad y proporcionar una barrera contra
el ensuciamiento de los electrodos. También se utilizan membranas microporosas delgadas (que
utilizan materiales como nailon y nitrato de celulosa) para encapsular un biocomponente.
Debido al pequeño grosor de la membrana, el biocomponente y el transductor están muy cerca
uno del otro, lo que maximiza la respuesta del biosensor. La unión adicional del biocomponente
a la superficie del transductor se puede realizar usando un polímero conductor (polipirrol).

La membrana se selecciona por su capacidad para cumplir funciones adicionales, como la


permeabilidad selectiva, la conductividad electroquímica mejorada o la mediación de una
transferencia de electrones.

Figura 9.14 Inmovilización física de elementos biosensores en la superficie: (a) adsorción física,
(b) encapsulación y (c) atrapamiento en una matriz.

Alternativamente, las células o enzimas puras están físicamente restringidas (atrapadas) para
permanecer dentro de una matriz 3D [Figura 9.14 (c)]. Los materiales adecuados (tanto
naturales como sintéticos) para el atrapamiento incluyen aquellos que permiten una
distribución celular uniforme y tienen biocompatibilidad y buenos mecanismos de transporte.
Dado que los hidrogeles proporcionan un entorno hidrófilo para el biocomponente, se utilizan
como agente de atrapamiento de biosensor. Se han explorado los polisacáridos de origen
natural tales como agar, agarosa, alginato y carragenina y polímeros sintéticos tales como
poliacrilamida, poliestireno y poliuretano. Los polímeros sintéticos generalmente tienen un
tamaño de poro más pequeño, lo que puede conducir a una menor fuga del biocomponente y,
por lo tanto, a una mayor estabilidad; sin embargo, los polímeros sintéticos son generalmente
tóxicos y el proceso de inmovilización va acompañado de la generación de calor y la producción
de radicales libres. Los polímeros naturales generalmente no son tóxicos y el proceso de
inmovilización es menos estresante para el biocomponente. Sin embargo, los polímeros
naturales proporcionan menos resistencia mecánica y estabilidad, y su tamaño de poro más
grande conduce a la fuga del biocomponente.

Los biosensores preparados mediante adsorción física y mediador de transferencia de


electrones en las superficies de los electrodos se utilizan en disolventes hidrófobos en los que la
enzima u otros materiales del electrodo no son solubles. Sin embargo, en algunos solventes
hidrófilos o en medios de agua solvente, la película de enzima en la superficie del electrodo
puede perder gradualmente el contacto con la superficie del electrodo cuando el medio solvente
compite con la superficie del electrodo por la interacción electrostática con la película de
enzima. Los métodos físicos de inmovilización enzimática tienen el beneficio de su aplicabilidad
a muchos elementos biosensores y pueden proporcionar poca o ninguna perturbación de la
estructura nativa y la función de la enzima. Los biosensores basados en la adsorción física directa
de un elemento biosensor sobre una superficie generalmente muestran una escasa estabilidad
a largo plazo debido a la fuga de enzimas.

9.5.2.2 Enlace covalente

Para mejorar la estabilidad a largo plazo, un método consiste en unir covalentemente (que son
enlaces fuertes) el elemento sensor con el transductor. Los enlaces covalentes son
particularmente útiles como biosensores sin reactivo porque en sistemas que requieren
mediadores de transferencia de electrones, estos pueden incorporarse como parte del material
del sensor. La confección de sistemas bioelectrónicos requiere el ensamblaje de materiales
sobre soportes conductores sólidos y el diseño de la comunicación electrónica adecuada entre
la matriz biológica y el elemento de soporte. Un grupo particular presente en el biocomponente,
que no participa en la acción catalítica, está unido a la matriz de soporte (transductor o
membrana) mediante un enlace covalente. Para retener la actividad biológica, la reacción debe
realizarse en condiciones suaves. Para proteger el sitio activo, la reacción se lleva a cabo en
presencia de un sustrato. Los enlaces covalentes se forman principalmente entre grupos
funcionales de biocomponentes expuestos a la cadena lateral con soportes adecuadamente
modificados, lo que resulta en una unión irreversible y produce una alta cobertura de superficie.
Las proteínas se unen covalentemente al soporte de inmovilización a través de grupos
funcionales accesibles de aminoácidos expuestos.

El enlace covalente de proteínas a soportes conductores, semiconductores o no conductores a


menudo utiliza la disponibilidad de grupos funcionales en la superficie del soporte sólido. Los
óxidos metálicos como TiO2 y SnO2 contienen grupos hidroxilo de superficie que son útiles en
el acoplamiento de materiales orgánicos. Los metales nobles (Au, Pt) se pretratan química o
electroquímicamente para generar funcionalidades superficiales. En la figura 9.15 se muestran
algunos de los grupos funcionales potencialmente disponibles en las proteínas para la
inmovilización y las funcionalidades requeridas en las superficies.

La unión química a través de cadenas laterales de aminoácidos suele ser aleatoria, ya que se
basa en residuos típicamente presentes en el exterior de la proteína. Como resultado, se obtiene
heterogeneidad en los modos de unión y orientación de proteínas con respecto a la superficie.
La alineación estructural de la proteína redox en relación con el soporte conductor es esencial
para muchas aplicaciones bioelectrónicas, por lo que es importante el desarrollo de métodos
para la unión y alineación específicas de proteínas en superficies. En algunos casos, se obtiene
una inmovilización orientada si la proteína posee un solo aminoácido reactivo en la estructura.
Por ejemplo, la cisteína que contiene un grupo funcional tiol (SH) único es un residuo de
aminoácido poco común en las proteínas. Un solo residuo de cisteína en la periferia de la
proteína o un componente de cisteína modificado genéticamente en la proteína permite el
enlace de la proteína a la superficie en un solo punto. La unión química también se guía de
manera ordenada para lograr una inmovilización orientada. La inmovilización específica del sitio
requiere la funcionalización de la molécula o la alteración de la superficie o ambos. El ADN
tiolado también se utiliza para el autoensamblaje en transductores de oro. El enlace covalente
a la superficie del oro a través de monocapas funcionales basadas en alcanotiol es un enfoque
utilizado en el desarrollo de monocapas de ADN altamente organizadas. Las proteínas también
se adhieren a las superficies en una estructura ordenada, lo que permite la reproducibilidad y la
estabilidad conformacional.

9.5.2.3 Afinidad

Las interacciones de afinidad entre una enzima y su sustrato, una proteína receptora y su par de
reconocimiento, o pares de antígeno / anticuerpo, se caracterizan a menudo por constantes de
asociación elevadas de los complejos resultantes. Esto ha permitido el uso de interacciones de
reconocimiento específicas para construir capas de proteínas sobre soportes sólidos. Las
reacciones de afinidad bioquímica ofrecen una inmovilización orientada de proteínas,
proporcionando una ventaja importante sobre otras técnicas de inmovilización. Además, no solo
se obtiene una unión orientada y homogénea, sino que también es posible desprender proteínas
y hacer uso repetido de la misma superficie. Por ejemplo, las interacciones antígeno-anticuerpo
[Figura 9.16 (a)] se utilizan para organizar monocapas y multicapas de GOX en electrodos de
carbono vítreo. Alternativamente, se recubren electrodos de carbono vítreo con gelatina y se
adsorben anticuerpos IgG de conejo sobre la gelatina. Se agrega un conjugado que consiste en
GOX unido al anticuerpo IgG anti-conejo para interactuar y formar un complejo con la superficie
del electrodo de carbono vítreo modificado. Los electrodos enzimáticos multicapa se generan
mediante la aplicación de un conjugado X anti-IgG-GOX y un anticuerpo Y IgG y anti-GOX como
componentes de enlace. La mediación homogénea se utiliza utilizando ferrocenilmetanol como
mediador de libre difusión. La corriente aumenta con un aumento de la carga enzimática en la
superficie.

Una tecnología popular se basa en interacciones de afinidad avidina-biotina. La avidina es una


glicoproteína tetramérica soluble en soluciones acuosas y estable en amplios rangos de pH y
temperatura. La biotina (o vitamina H) es una vitamina natural que se encuentra en todas las
células vivas. Solo se requiere un pequeño fragmento de biotina para la interacción con la
avidina. La avidina puede unir hasta cuatro moléculas de biotina a través de un fuerte enlace no
covalente (KD = 1015 M − 1). La estreptavidina es una proteína tetramérica estrechamente
relacionada, con una afinidad similar a la biotina. Dado que la biotina es una molécula pequeña,
su conjugación con macromoléculas no afecta la conformación, el tamaño ni la funcionalidad.
Tanto la biotina como la avidina / estreptavidina se unen a una variedad de sustratos. Una
multicapa típica de biotina / avidina / biotina [Figura 9.16 (b)] se compone de la inmovilización
directa de biotina y avidina, creando una capa secundaria para la unión de moléculas
biotiniladas. Este enfoque se prefiere generalmente debido a la mayor organización obtenida en
comparación con la inmovilización directa de avidina. También es una opción el uso de ADN
biotinilado para la formación de complejos con una avidina o estrepavidina confinada en la
superficie. También se producen mediante ingeniería genética varias proteínas recombinantes
de alta afinidad, que luego se acoplan con etiquetas de afinidad. Las etiquetas se colocan en
posiciones definidas en las proteínas, preferiblemente lejos del sitio activo para lograr una
accesibilidad óptima de los ligandos. Poly (His) es la etiqueta más popular utilizada en estas
situaciones debido a las ventajas de tamaño pequeño, compatibilidad con disolventes orgánicos,
baja inmunogenicidad y purificación eficaz en condiciones nativas y desnaturalizantes.

9.5.3 Sistemas microelectromecánicos (MEMS)

La tecnología de microfabricación se toma prestada de los circuitos integrados


microelectrónicos y se utiliza para miniaturizar dispositivos y desarrollar biosensores portátiles.

Figura 9.16 Inmovilización por afinidad de elementos biosensores en la superficie: (a)


inmovilización basada en antígeno-anticuerpo y (b) inmovilización basada en avidina-biotina.

La microfabricación permite manipulaciones a nivel de micras en los patrones de diseño. El


desarrollo de capacidades para miniaturizar dispositivos y componentes analíticos ofrece una
serie de beneficios potenciales, que incluyen tamaños de muestra reducidos, dispositivos
desechables de un solo uso, consumo reducido de reactivos, la capacidad de construir sistemas
integrados, la reducción del consumo de energía, dispositivos paralelos y Procesos más rápidos
que conducen a un alto rendimiento, la posibilidad de integrar multifuncionalidad y dispositivos
portátiles.

La miniaturización de la electrónica a lo largo de los años ha dado lugar a un pequeño dispositivo


de dos piezas que se utiliza en los implantes cocleares. Una parte, que consta de un receptor y
un estimulador, se implanta debajo de la piel detrás de la oreja. La otra parte, que consta de un
micrófono, un procesador de sonido y un transmisor, se coloca externamente sobre el receptor.
Ambas partes se mantienen en su lugar magnéticamente, sin necesidad de conexión de cables,
lo que reduce el riesgo de infección y daños al dispositivo. En el caso de los niños pequeños, el
procesador de sonido se lleva en una riñonera o arnés. Para crear sonido, el micrófono capta y
amplifica los ruidos que filtra el procesador de sonido, dando prioridad al habla audible. El
procesador envía señales eléctricas al transmisor, que, a su vez, envía las señales de sonido
procesadas al receptor interno de forma electromagnética. El receptor y el estimulador
convierten las señales en impulsos eléctricos, que se envían a una matriz de hasta 24 electrodos.
Ellos, a su vez, envían los impulsos a las células ciliadas y al cerebro a través del nervio auditivo.
Las dos docenas de electrodos deben cubrir las 16.000 células ciliadas que se utilizan
normalmente para la audición.

9.5.3.1 Fotolitografía

Los procesos de microfabricación establecen patrones específicos de varios materiales que


pueden depositarse o eliminarse de las superficies planas de una manera que permita una alta
reproducibilidad y control sobre las características dimensionales. El proceso de definir estos
patrones en la oblea se conoce como fotolitografía. Primero, las superficies planas, típicamente
obleas de silicio, se limpian y se colocan en capas con un material sensible a la luz llamado
fotorresistente (Figura 9.17). Se genera una máscara que contiene el patrón requerido y se
transfiere a la oblea exponiéndola a la luz. El patrón transferido podría ser positivo (es decir, una
copia exacta de los patrones de máscara) o negativo, según el tipo de fotorresistente utilizado.
Los fotorresistentes se clasifican en tipos positivos o negativos.

Los fotorresistentes positivos se vuelven más solubles en solventes químicos tras la exposición
a la radiación, formando una imagen positiva en la oblea.

Figura 9.17 Ilustración esquemática de la tecnología de microfabricación. Los patrones formados


podrían usarse para modelar superficies o para desarrollar dispositivos de microfluidos.
Los fotorresistentes positivos se componen de un compuesto fotoactivo disuelto en un
disolvente y una resina de bajo peso molecular. Sin embargo, una vez que este inhibidor de
disolución fotoactivo es destruido por la luz, la resina se vuelve soluble en el revelador. Por otro
lado, los fotoprotectores negativos se vuelven menos solubles (o más duraderos) en disolventes
químicos tras la exposición a la radiación y forman imágenes negativas de los patrones de la
máscara en la oblea. Los fotorresistentes negativos consisten en materiales orgánicos
poliméricos y consisten en un caucho de poliisopreno químicamente inerte y un agente
fotoactivo. Cuando se expone a la luz, el agente fotoactivo reacciona con el caucho,
promoviendo la reticulación entre las moléculas de caucho que las hacen menos solubles en el
revelador. Los fotoprotectores positivos son el tipo dominante utilizado en la industria, ya que
los procesos fotoprotectores negativos son más susceptibles a una resolución reducida y una
distorsión de los patrones.

9.5.3.2 Litografía blanda

La fotolitografía es la tecnología dominante en la fabricación electrónica. Tiene menos utilidad


en aplicaciones de biosensores. Por ejemplo, generar un patrón es costoso, ya que debe
realizarse en salas (denominadas salas blancas) que tienen una cantidad insignificante de
contaminantes. Más importante aún, las superficies de las obleas ofrecen muy poca flexibilidad
para generar patrones de funcionalidades químicas específicas en superficies (por ejemplo, para
inmovilizar proteínas). Para trabajar con otros materiales, los sellos se generan a partir de
polímeros elastoméricos utilizando un patrón de patrón fotolitográfico. El uso de elastómeros
como polidimetilsiloxano (PDMS) tiene muchas ventajas sobre sustratos de silicio o vidrio. El
PDMS es más barato que el silicio, es más flexible y se adhiere más fácilmente a otros materiales
que el silicio o el vidrio. PDMS se adapta a la superficie del sustrato en un área grande y puede
ajustarse a superficies que no son planas. PDMS es un material óptico transparente homogéneo
hasta 300 nm. PDMS es impermeable y permeable a los gases. Las propiedades superficiales del
PDMS pueden cambiarse mediante la exposición de la superficie en plasma de oxígeno que
permite la reticulación con otros materiales. Los sellos se crean vertiendo PDMS líquido (Figura
9.17), prepolímeros en el maestro, desgasificando para eliminar las burbujas de aire atrapadas
dentro del molde y curando a temperaturas entre 20 ° C y 80 ° C durante hasta 48 horas. Estas
plantillas elastoméricas modeladas se pueden usar para generar membranas porosas de
características de poro definidas o células modeladas o dispositivos microfluídicos. Por ejemplo,
se pueden formar patrones de proteínas en una variedad de superficies diferentes y luego se
moldea poliuretano contra el maestro de PDMS secundario. De esta forma, se realizan múltiples
copias sin dañar la plantilla maestra original.

Tal reproducibilidad y control dimensional permiten la producción a gran escala de dispositivos


micromecánicos que incluyen microcantilevers. Se pueden construir diferentes componentes
del biosensor capa por capa. Por ejemplo, se establece una estructura que comprende un sensor
de base adecuado. A continuación, se establecen estructuras adicionales, como una película
sólida semipermeable o una capa selectivamente permeable, sobre el sensor base resultante.
La película sólida semipermeable puede comprender además compuestos o moléculas que
sirven para sensibilizar el sensor de base a una especie preseleccionada (por ejemplo, ión
amonio). Además, tales capas selectivas pueden funcionar como promotores de la adhesión
mediante los cuales el receptor de ligando preseleccionado se inmoviliza en la realización de
biosensor basada en ligando / receptor de ligando totalmente microfabricado. Los biosensores
electroquímicos de ADN se desarrollan utilizando electrodos de grafito o carbono. Sin embargo,
los electrodos a base de carbono generalmente no se adaptan a la tecnología MEMS cuando se
necesitan dimensiones pequeñas (menos de un micrómetro).

9.5.3.3 Dispositivos de microfluidos

Los microfluidos se refieren al flujo de fluido en microcanales (es decir, una de las dimensiones
del flujo se mide en micrómetros). Se desarrollan utilizando las plantillas elastoméricas de los
patrones de canal requeridos sellando ambos extremos y creando puntos de entrada y salida en
la capa superior (Figura 9.17). Los sustratos microestructurados proporcionan control sobre el
flujo de fluido a través de una forma geométrica y la química de la superficie. Por ejemplo, la
manipulación pasiva de las fuerzas centrífugas de los fluidos se puede utilizar para controlar el
flujo. Se están desarrollando varios dispositivos para su uso en diversas aplicaciones, incluidas
bioseparaciones, microdiálisis, detección de drogas de alto rendimiento, análisis de ADN,
espectroscopía de masas que garantizan la seguridad del aire, los alimentos y el agua, y la lucha
contra el terrorismo y la guerra biológica.

Existen barreras técnicas que deben superarse para que los dispositivos de microfluidos
alcancen su máximo potencial para aplicaciones de biosensores. Un problema común que se
encuentra a menudo en microfluidos es la obstrucción de los canales debido a la contaminación
de partículas, que requiere el prefiltrado de muestras líquidas. Dado que los dispositivos de
microfluidos activan el fluido en movimiento, los efectos capilares, el microbombeo y la tensión
superficial deben considerarse junto con el diseño y la fabricación de los conductos de flujo de
tamaño micro. El área de la superficie es un factor importante a microescala. Por ejemplo, un
plato de 35 mm de diámetro lleno hasta la mitad con 2,5 ml de agua tiene una relación de
superficie a volumen de 4,2 cm2 / cm3, mientras que un microcanal de 50 μm de alto, 50 μm de
ancho y 30 mm de largo lleno con 75 nL de agua tiene una relación superficie-volumen de 800
cm2 / cm3. Una relación muy grande de área superficial a volumen hace que la electroforesis
capilar sea más eficiente en microcanales al eliminar el exceso de calor más rápidamente. Las
fuerzas adhesivas (fuerza de van der Waals, fuerzas electrostáticas, tensión superficial) son más
dominantes que la gravedad en la microescala. Los flujos de microfluidos tienen un número de
Reynolds (NRe) normalmente bajo debido a las escalas de longitud muy pequeñas. Esto hace
que el flujo turbulento sea virtualmente imposible de lograr y la mezcla de fluidos es
generalmente lenta y la difusión controlada. La mezcla se puede mejorar en el régimen de flujo
laminar sometiendo el fluido a un patrón de flujo caótico. En un flujo caótico, se crean patrones
complejos que permiten que el fluido se estire y pliegue. La mezcla se ve reforzada en gran
medida por la tendencia de las partículas fluidas a dispersarse homogéneamente y por una
disminución en la escala de longitud para la difusión entre componentes diferentes.

Hay dos métodos comunes mediante los cuales se logra la actuación de fluido a través de
microcanales. En un flujo impulsado por presión, el fluido se bombea a través del dispositivo
mediante bombas de desplazamiento positivo, como bombas de jeringa. Con el supuesto de una
condición de frontera sin deslizamiento (la velocidad del fluido en las paredes debe ser cero), el
flujo laminar produce un perfil de velocidad parabólico dentro del canal (Capítulo 4). El perfil de
velocidad parabólica tiene implicaciones significativas para la distribución de moléculas
transportadas dentro de un canal. El flujo impulsado por presión es relativamente económico y
bastante reproducible para bombear fluidos a través de microdispositivos. Con los esfuerzos
crecientes en el desarrollo de microbombas, el flujo impulsado por presión también es
susceptible de miniaturización. La resistencia al flujo de fluido en los microcanales se aproxima
usando la ley de Poiseuille [(4.9)] (es decir, la tasa de flujo dentro de un microcanal viene dada
por ΔP = Q * R donde ΔP es la caída de presión a través del canal, Q es el flujo tasa y R es la
resistencia del canal). Para un microcanal rectangular con una relación de aspecto muy alta, la
resistencia se aproxima por

Ec 9.11.

Ejemplo 9.6

Se coestructura un dispositivo microfluídico rectangular de 2 mm de largo, 0,5 mm de ancho y


0,1 mm de alto. Si el agua fluye a través del dispositivo a 0,2 ml / min, ¿cuál es la caída de presión
en el dispositivo?

Solución

Otra técnica para bombear fluidos a través de microcanales es el flujo impulsado


electroosmótico. Si las paredes de un microcanal tienen carga eléctrica, se formará una doble
capa eléctrica de contraiones en las paredes (Figura 9.18). Cuando se aplica un campo eléctrico
a través del microcanal, los iones de la doble capa se mueven hacia los electrodos de polaridad
opuesta. Esto crea un movimiento del fluido cerca de las paredes y se transfiere mediante
fuerzas viscosas al movimiento convectivo del fluido a granel. El caudal se controla ajustando el
potencial en diferentes puntos de un dispositivo. El flujo electro-osmótico tiene un perfil de flujo
plano en comparación con un flujo impulsado por presión. Esto da como resultado un
ensanchamiento reducido de tapones de solución discretos a medida que se mueven a través
de un sistema de microfluidos. El perfil de velocidad plano evita muchas irregularidades
inducidas por la difusión que se observan en un flujo impulsado por presión. Sin embargo, la
dispersión de la muestra en forma de ensanchamiento de banda es una preocupación para el
flujo electro-osmótico. Otra ventaja del flujo electro-osmótico es la facilidad de acoplar otras
aplicaciones electrónicas en el chip. Sin embargo, el flujo electroosmótico a menudo requiere
voltajes muy altos, lo que hace que sea una tecnología difícil de miniaturizar sin fuentes de
alimentación fuera del chip. Otra desventaja significativa del flujo electro-osmótico es la
sensibilidad tanto a la química de la solución como a la química de la superficie del canal. Por
ejemplo, la adsorción de proteínas a las paredes cambia sustancialmente las características de
carga superficial y cambia la velocidad del fluido. Esto a menudo conduce a cambios no deseados
en el flujo durante un análisis, que comprometen la reproducibilidad y la cuantificación. Cuando
se transportan fluidos mediante flujo electro-osmótico, la gran relación de superficie a volumen
permite que las macromoléculas se difundan rápidamente y se adsorban en las superficies de
los canales, lo que reduce la eficiencia del bombeo. Es importante desarrollar una comprensión
fundamental de la interacción de la química de la superficie, la química de la solución y la
mecánica de fluidos en los dispositivos de microfluidos para aprovechar todo el potencial de
estos sistemas.

Figura 9.18 Flujo electroosmótico en un microcanal.

9.5.4 Tecnología de micromatrices


El desarrollo de matrices de moléculas inmovilizadas en la superficie para su uso como sensores
es útil para aumentar la capacidad de prueba. La selectividad molecular se logra mediante una
reacción de unión con un elemento sensor que a menudo comprende una macromolécula
biológica (por ejemplo, ácido nucleico y proteína). En los biosensores convencionales, los
conjuntos de elementos relacionados (por lo general, fragmentos de ADN, péptidos o fármacos)
se prueban por lotes. Los microarrays utilizan una disposición de elementos precisa y ordenada
espacialmente que permite examinarlos uno al lado del otro. Los microarrays ofrecen muchas
ventajas sobre las herramientas de biosensores convencionales: la capacidad de analizar
simultáneamente una variedad de analitos en la misma muestra, las cantidades de muestra
requeridas con un consumo mínimo y bajo de reactivos escasos y un alto rendimiento de la
muestra. La tecnología de microarrays se utiliza para evaluar el gran tamaño de información
genética (genómica) o proteínas.

9.5.4.1 Genómica

La genómica es el estudio sistemático de la información genética de un organismo o una célula.


Las aplicaciones de la genómica incluyen la identificación de enfermedades genéticas complejas,
el descubrimiento de fármacos y estudios de toxicología, nuevos métodos de diagnóstico de
mutaciones y polimorfismos, el análisis de patógenos, los fármacos dirigidos a genotipos
específicos para el procesamiento de alimentos y el desarrollo de productos agrícolas. Las
principales herramientas y métodos relacionados con la genómica son el análisis genético, la
medición de la expresión génica y la determinación de la función genética. Se pueden analizar
diferentes expresiones de genes a lo largo del tiempo, entre tejidos en estados sanos y
enfermos. Sin embargo, la tecnología de microarrays de ADN basada en el procesamiento
paralelo se utiliza para monitorear las expresiones de genes a gran escala simultáneamente.
Cuando se combina con la actividad metabólica, uno puede comprender los cambios en diversas
condiciones.

El Proyecto del Genoma Humano predijo entre 100.000 y 150.000 genes. El número real de
genes fue de casi 30.000 a 400.000. Tener información sobre todos los genes es útil, pero
también debe entenderse la interacción entre los genes. La tecnología de microarrays permite
el análisis de muchos genes a la vez y permite la determinación de las variaciones en las
expresiones de los genes. La tecnología de microarrays de ADN evolucionó a partir del uso de
sustratos sólidos en la realización de experimentos de transferencia Southern. El principio básico
de funcionamiento de una micromatriz de ADN consta de tres pasos principales (Figura 9.19):

1. Desarrollo del chip de microarrays. Es decir, la inmovilización de diferentes secuencias de ADN


en diferentes posiciones (sondas). Las sondas de ADN que representan muchos (cientos o miles)
genes se posicionan mediante dos enfoques:

a. El enfoque más común consiste en una serie de agujas de impresión por contacto que primero
se sumergen en una placa de múltiples pocillos que contiene las diversas soluciones de sonda y
luego se colocan en el chip sobre un sustrato activado, como un portaobjetos de vidrio donde
las agujas dejan los puntos de la sonda al impresión de contactos.

b. Para mejorar la relación señal-ruido, es crucial maximizar la densidad de la etiqueta y


minimizar la unión no específica con condiciones de lavado rigurosas. Para lograr densidades de
sonda más altas, se utilizan técnicas más sofisticadas y, en estos casos, las sondas de ADN se
sintetizan directamente in situ (es decir, en el chip). Las dos técnicas más representativas se
basan en procesos fotolitográficos, donde se utilizan grupos de protección para controlar el
crecimiento de las moléculas de ADN, y se eliminan mediante luz ultravioleta.
2. Hibridación. Una vez realizado el experimento biológico de interés, en pacientes, animales o
cultivo celular in vitro, se aísla el ácido nucleico a analizar. El ácido nucleico luego se marca
uniendo un tinte fluorescente y se pone en contacto con las sondas inundando el chip con la
solución de muestra. Debido a la capacidad de emparejamiento de bases, los ácidos nucleicos
se hibridan con el gen.

3. Lectura. Después de lavar la micromatriz para eliminar todas las moléculas no unidas, la
micromatriz hibridada se escanea para adquirir las imágenes fluorescentes como emisión del
marcador incorporado en el ácido nucleico hibridado con la matriz de la sonda. Las imágenes en
color generadas se analizan luego mediante el uso de software de análisis de imágenes. Dado
que se conoce la secuencia y posición de cada sonda en la matriz, se determina la identidad del
ácido nucleico diana unido después de las reacciones de hibridación. En función de las
intensidades de fluorescencia que son proporcionales al número de genes unidos en cada punto,
se determinan los niveles de expresión de genes particulares.

Figura 9.19 Un esquema que muestra los pasos de la tecnología de microarrays de ADN.

Dependiendo del objetivo del estudio, se puede inferir la significancia estadística de la expresión
diferencial, realizar varios análisis de datos exploratorios, clasificar las muestras según sus
subtipos de enfermedades y realizar análisis de vías. Esto permite dilucidar los patrones de
expresión génica que pueden estar asociados con estados de salud y enfermedad. Debido a la
escala de la información generada, el análisis y la gestión de estos datos a veces limitan las
técnicas de microarrays. Las técnicas bioinformáticas (discutidas en la Sección 9.6) permiten la
interpretación significativa de datos de microarrays.

9.5.4.2 Proteómica

Este término se acuñó para hacer una analogía con la genómica. La proteómica se refiere a todo
el complemento proteico en una célula, tejido u organismo dado, y evalúa las actividades de las
proteínas, las localizaciones de modificación y la interacción de las proteínas en los complejos.
Al estudiar los patrones globales de contenido y actividad de proteínas y cómo cambian durante
el desarrollo o en respuesta a una enfermedad, la investigación de la proteómica se plantea para
mejorar nuestra comprensión del comportamiento celular a nivel de sistemas. Sin embargo, la
proteómica es mucho más complicada que la genómica. Un hallazgo del Proyecto del Genoma
Humano es que hay muchos menos genes que codifican proteínas en el genoma humano que
proteínas en el proteoma humano (~ 22.000 genes frente a ~ 200.000 proteínas). La totalidad
de las proteínas que existen en un organismo a lo largo de su ciclo de vida, o en una escala más
pequeña, y la totalidad de las proteínas que se encuentran en un tipo de célula particular bajo
un tipo particular de estimulación se denominan proteoma del organismo o tipo de célula.
respectivamente. Si bien el genoma es una entidad bastante constante, el proteoma cambia
constantemente a través de sus interacciones bioquímicas con el genoma y el medio ambiente.
Un organismo tendrá una expresión de proteínas radicalmente diferente en diferentes partes
de su cuerpo, en diferentes etapas de su ciclo de vida y en diferentes condiciones ambientales.
Aunque el perfil de expresión génica ayuda a identificar diferencias en la expresión de proteínas
entre células, implica la suposición de que los niveles de ARNm se correlacionan bien con los
niveles de expresión de proteínas.

Se cree que el gran aumento en la diversidad de proteínas se debe al corte y empalme


alternativo y la modificación postraduccional de proteínas. Por tanto, el comportamiento de los
productos génicos es difícil de predecir a partir de una secuencia genética únicamente. Incluso
si se transcribe un gen, su expresión puede regularse al nivel de la traducción, y los productos
proteicos están sujetos a un mayor control mediante modificaciones postraduccionales, vidas
medias variables y compartimentación en complejos proteicos. Esta limitación del cribado de la
expresión génica ha llevado a un creciente interés en el análisis sistemático de la expresión de
proteínas.

La proteómica cierra la brecha entre la secuencia del genoma y el comportamiento celular y


tiene sus raíces en las técnicas bioquímicas tradicionales de caracterización de proteínas,
particularmente la electroforesis en gel 2D. Esencialmente, las proteínas en una célula o extracto
de tejido se separan primero en una dimensión sobre la base de la carga, y luego en una segunda
dimensión sobre la base del tamaño molecular, dando como resultado un patrón definido de
manchas. Las manchas se aíslan de geles 2D y se analizan mediante espectrometría de masas o
se digieren químicamente / enzimáticamente para producir productos de degradación de
proteínas únicos que luego se pueden analizar mediante espectrometría de masas. Usando este
proceso, es posible derivar información de la secuencia de aminoácidos, que luego puede usarse
para buscar bases de datos de proteínas o genomas para identificar la proteína en la mancha de
gel original.

El interés en la tecnología de microarrays de proteínas también se deriva en gran medida de la


exitosa tecnología de microarrays de ADN. La tremenda variabilidad en la naturaleza de las
proteínas y, en consecuencia, en el requisito de su detección e identificación también hace que
el desarrollo de chips de proteínas sea una tarea particularmente desafiante. Normalmente, los
microarrays de proteínas se desarrollan utilizando dispensadores robóticos como los
desarrollados para crear microarrays de ADN. Se hace que las muestras de proteína se adhieran
a los portaobjetos de vidrio mediante diversas estrategias de inmovilización descritas
anteriormente. Los sustratos blandos como membranas de poliestireno, poli (fluoruro de
vinilideno) y nitrocelulosa, que se han utilizado para unir proteínas en análisis bioquímicos
tradicionales (p. Ej., Análisis de inmunotransferencia y presentación de fagos), a menudo no son
compatibles con los microarrays de proteínas. Estas superficies a menudo no permiten una
densidad de proteína alta adecuada, el material manchado puede extenderse sobre la superficie
y / o pueden no permitir relaciones óptimas de señal a ruido. Por lo tanto, se eligen portaobjetos
de vidrio para microscopio u otros materiales que se han derivatizado para unir proteínas en su
superficie a alta densidad. Estos portaobjetos tienen un fondo de fluorescencia bajo y son
compatibles con la mayoría de los ensayos. La detección de objetivos unidos a proteínas es
considerablemente más compleja que la detección de microarrays de ADN. Entre una variedad
de métodos de detección, el método preferido de detección es la fluorescencia, porque
generalmente es seguro, extremadamente sensible y simple, puede tener una resolución muy
alta y es compatible con los escáneres de microarrays estándar. Cuatro barreras principales en
el desarrollo de microarrays de proteínas son: (1) minimizar el ruido de fondo; (2) preservar el
estado nativo y la orientación de la proteína; (3) detección e identificación de proteínas; y (4)
velocidad de producción y purificación de proteínas o anticuerpos.

Los métodos de detección de fluorescencia son generalmente el método de detección preferido


porque son simples, seguros y extremadamente sensibles y pueden tener una resolución muy
alta. También son compatibles con los escáneres de microarrays de ADN estándar. Por lo
general, un chip se prueba directamente con una molécula fluorescente (p. Ej., Proteína o
molécula pequeña) o en dos pasos usando primero una sonda etiquetada (p. Ej., Biotina), que
luego se detecta en un segundo paso usando un reactivo de afinidad marcado con fluorescencia
(por ejemplo, estreptavidina). Uno de los desafíos que se presentan para la detección directa de
proteínas en matrices como sangre total, suero o plasma es el rango de carga de patógenos y
concentraciones de proteínas dentro de la muestra. Los niveles de proteína difieren hasta en
nueve órdenes de magnitud en estas condiciones, pero el rango de detección es solo de tres a
cuatro órdenes de magnitud (es decir, solo una fracción del proteoma es examinada por un
experimento dado). Como las constantes de unión de anticuerpos se encuentran comúnmente
en el rango nanomolar, no están bien equipadas para medir directamente los objetivos de baja
abundancia, que pueden estar presentes en el rango picomolar, sin preconcentración de la
muestra.

Al medir objetivos de baja abundancia, como partículas de virus, se requieren estrategias


alternativas. En este caso, los métodos de diagnóstico aprovechan los marcadores sustitutos o
la amplificación de la señal por parte del sistema inmunológico y miden los anticuerpos
expresados contra el patógeno. Por tanto, la construcción de una serie de antígenos es un
método conveniente para medir la concentración de anticuerpos y relacionarla con la infección.
Otra alternativa es utilizar moléculas sonda con mayor afinidad de unión. Un candidato
excelente para este enfoque son los aptámeros, que son oligómeros monocatenarios de ADN o
ARN que exhiben una afinidad extremadamente alta por las moléculas de unión, como pequeñas
moléculas orgánicas, fármacos y proteínas. Los aptámeros se generan mediante un proceso de
selección in vitro denominado SELEX (evolución sistemática de ligandos por enriquecimiento
exponencial). En SELEX, se prueba una gran biblioteca de secuencias de oligómeros aleatorias
de la misma longitud para determinar la afinidad de unión con un ligando diana dado. Las
secuencias con mayor afinidad se separan y amplifican mediante PCR y el proceso se repite hasta
que la biblioteca se ha refinado en un subconjunto de secuencias con la mayor afinidad de unión.
Por tanto, se pueden generar aptámeros con una alta afinidad por anticuerpos o antígenos y
aplicarse a una micromatriz para su análisis. Las afinidades de unión de los aptámeros podrían
estar en el rango picomolar, mucho más altas que muchos anticuerpos.

9.6. Bioinformatica

Con la posibilidad de acumular una gran cantidad de datos, se requieren nuevos enfoques
sistemáticos para analizar interacciones complejas entre genes y proteínas. Para comprender
los resultados de salida de los microarrays de ADN, por ejemplo, uno tiene que desarrollar
herramientas estadísticas sofisticadas que puedan ayudar a establecer la red de información
involucrada en las vías reguladoras que controlan la actividad de los organismos vivos. Mirar
archivos de texto estándar (llamados archivos planos) y herramientas es fácil y tiene la ventaja
de que no se requieren herramientas especiales. Sin embargo, los archivos de texto estándar
son menos eficientes cuando los conjuntos de datos se vuelven muy grandes (es decir, más de
decenas y cientos de gigabits de tamaño de archivo). Es esencial diseñar bases de datos
eficientes que estén optimizadas para la eficiencia y que operen en un gran volumen para que
la información se pueda encontrar rápidamente en base a ciertos índices.

La bioinformática se ocupa de organizar y comprender los datos biológicos utilizando el poder


de las herramientas computacionales para que el análisis de datos y el intercambio de grandes
conjuntos de datos sean posibles. Una tarea fundamental se refiere a la creación y
mantenimiento de bases de datos de información biológica que ya están disponibles. Por
ejemplo, se conocen secuencias de ácido nucleico para muchos genes y secuencias de
aminoácidos para muchas proteínas. El almacenamiento y organización de millones de
nucleótidos es complejo. Diseñar una base de datos y desarrollar una interfaz mediante la cual
los investigadores puedan acceder a la información existente y enviar nuevas entradas es solo
el comienzo. Existen principios estadísticos metodológicos comunes, como los modelos ocultos
de Markov y las estadísticas bayesianas para diseñar y aplicar sistemas de información, que son
la base de todo trabajo en informática. Para obtener más información sobre los principios
metódicos y el desarrollo de bases de datos, consulte [3]. Las bases de datos son principalmente
financiadas por el gobierno, como el Centro Nacional de Información Biotecnológica (NCBI,
www.ncbi.nih.gov) y son accesibles al público con un navegador de Internet típico. Se puede
acceder a los conceptos básicos del uso de diferentes motores de búsqueda en el sitio web. Un
ejemplo es comparar un gen o un producto génico como se indica a continuación.

Una vez que se identifica una nueva secuencia de ADN, se pueden comparar dos o más
secuencias de genes en busca de similitudes para obtener una medida de su relación. Esto se
puede utilizar para agrupar genes en subconjuntos que podrían dar una indicación de la función
o actividad de los miembros de estos subconjuntos basándose en lo que se sabe sobre las
proteínas codificadas por la pertenencia a ese subconjunto. Una comparación también permite
examinar la taxonomía, así como dibujar árboles de parentesco, y se pueden obtener
conocimientos sobre la evolución de la secuencia. Se podría utilizar una base de datos pública
de secuencias de nucleótidos como la base de datos GenBank, creada y distribuida por el Centro
Nacional de Información Biotecnológica (NCBI) de los Institutos Nacionales de Salud
(http://www.ncbi. Nlm.nih.gov/Genbank/ GenbankSearch.html). Hay dos formas de buscar en
la base de datos de GenBank: se puede enviar una consulta basada en texto a través del sistema
Entrez, o se puede enviar una consulta de secuencia a través de la familia de programas Basic
Local Alignment Search Tool (BLAST) (consulte http: // www .ncbi.nlm.nih.gov / BLAST /).

Comenzando con una secuencia de genes, se puede determinar la secuencia de proteínas


utilizando una base de datos de proteínas como SWISS-PROT (http://us.expasy.org/sprot/) y la
base de datos de proteínas Entrez con gran certeza. Las secuencias de proteínas también se
pueden comparar usando varios métodos, se puede medir su parentesco y luego se pueden
asignar familias a proteínas estrechamente relacionadas. Se podrían identificar o diseñar
ligandos que puedan unirse a la proteína identificada y usarlos para desarrollar un nuevo
biosensor o para desarrollar terapias. Para obtener más información sobre bases de datos
biológicas, análisis del genoma, análisis del proteoma y la revolución bioinformática en la
medicina, consulte [4].

También podría gustarte