0% encontró este documento útil (0 votos)
19 vistas195 páginas

Informática Traslacional PDF

El libro 'Informática Traslacional' aborda la intersección entre la informática y la salud, destacando la importancia de las tecnologías de información en la mejora de la atención médica. Incluye capítulos sobre investigación clínica, biología molecular, bioinformática, bioingeniería e inteligencia artificial, ofreciendo un enfoque multidisciplinario para la formación de profesionales en el área. Se presenta como un recurso educativo para estudiantes y profesionales interesados en la informatización de la salud y sus aplicaciones prácticas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
19 vistas195 páginas

Informática Traslacional PDF

El libro 'Informática Traslacional' aborda la intersección entre la informática y la salud, destacando la importancia de las tecnologías de información en la mejora de la atención médica. Incluye capítulos sobre investigación clínica, biología molecular, bioinformática, bioingeniería e inteligencia artificial, ofreciendo un enfoque multidisciplinario para la formación de profesionales en el área. Se presenta como un recurso educativo para estudiantes y profesionales interesados en la informatización de la salud y sus aplicaciones prácticas.
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Informática traslacional

Sonia Benitez

Jorge Garbino

Marcelo Risk
Benitez, Sonia Elizabeth

Informática traslacional / Sonia Elizabeth Benitez; Garbino Jorge; Marcelo Raúl Risk;
contribuciones de Susana Alonso; Burgos Valeria; Victoria O'donnell; editado por Daniel Luna;
Fernan Gonzalez Bernaldo de Quiros. - 1a ed. - Ciudad Autónoma de Buenos Aires: Sociedad
Italiana de Beneficencia en Buenos Aires, 2018.

Libro digital, EPUB

Archivo Digital: online

ISBN 978-987-46878-7-6

1. Informática. 2. Investigación Aplicada. 3. Bioingeniería. I. Alonso, Susana, colab. II. Valeria,


Burgos, colab. III. O'donnell, Victoria, colab. IV. Luna,Daniel, ed. V. Gonzalez Bernaldo de Quiros,
Fernan, ed. VI. Título.

CDD 005
Primera edición: septiembre de 2018
Sonia Benitez
Jorge Garbino
Marcelo Risk

Editores:
Daniel Luna
Fernán González Bernaldo de Quirós

© Departamento de Informática en Salud


© Hospital Italiano de Buenos Aires
Gascón 450 -
C1181ACH
Ciudad Autónoma de Buenos Aires – Argentina
[Link]/infomed

Derechos reservados en todos los idiomas

ISBN: 978-987-46878-7-6
Queda hecho el depósito que previene la ley 11.723
Copyright © 2018 Todos los derechos reservados. La reproducción total o parcial de este
libro o su transmisión o exhibición por cualquier medio y en cualquier plataforma solo se
permite con la autorización previa y por escrito de los autores.

Equipo editorial: Alina Arcidiacono, Soledad Casanova, Jacky Celis, Soledad Kitroser, María Eugenia
Nuñez.
Índice
Presentación

Capítulo 1. Introducción a la investigación clínica

1.1. Introducción

1.2. El método científico

1.3. Estudios clínicos

1.4. Ética en la investigación clínica

1.5. Bibliografía

Capítulo 2. Conceptos básicos de biología molecular

2.1. Introducción

2.2. La célula

2.3. Los componentes de los ácidos nucleicos

[Link]ón: del ADN a ARNm

2.5. Traducción

2.6. Bibliografía

Capítulo 3. Bioinformática y medicina de precisión

3.1. Introducción

3.2. Aplicaciones de la bioinformática

3.3. Bases de datos biológicos

3.4. Herramientas de búsqueda y análisis de genes y proteínas

3.5. Proyecto Genoma Humano

3.6. La revolución de las ‘ómicas’

3.7. ¿Cuáles son las tecnologías de análisis de genes a gran escala?

3.8. Rol de la bioinformática en la genómica

3.9. Minería de datos

3.10. Medicina de precisión

[Link]ía

Capítulo 4. Bioingeniería

4.1. Introducción

4.2. Secciones
4.2.1. Sección 1. Ingeniería biomédica

4.2.2. Sección 2. El cuerpo humano como sistema físico

[Link]. Análisis de los sistemas

[Link]. Modelización y simulación de sistemas

[Link]. Simulación en computadoras o “en silicio”

[Link]. Otros tipos de modelización

[Link]. Magnitudes significativas del sistema cardiovascular

[Link]. Magnitudes significativas del sistema respiratorio

4.2.3. Sección 3. Instrumentación biomédica

[Link]. Sistemas de medición. Conceptos básicos

[Link].Conversión de analógico a digital

[Link]. Etapa de muestreo

[Link]. Etapa de cuantificación

[Link]. Características estáticas de los sistemas de medición

[Link]. Características dinámicas de un sistema de medición

[Link]. Instrumentos del ámbito clínico

4.2.4. Sección 4. Integración de signos vitales y señales a los sistemas de historia


clínica electrónica

[Link]. El escenario

[Link]. Conectividad del equipamiento de diagnóstico por imágenes

[Link]. Estándares y protocolos de captura, representación y comunicación

de signos vitales y señales

[Link]. Iniciativas vigentes para el avance de la interoperabilidad

[Link].1. Integrating the HealthCare Enterprise (IHE)

[Link].2. Personal Connected Health Alliance (PCHAlliance)

[Link]. Otros estándares para estructurar datos médicos complejos

[Link].1. DICOM Waveforms

[Link].2. OpenECG

[Link].3. EDF/EDF Plus

4.3. Bibliografía

Capítulo 5. Inteligencia artificial y sus aplicaciones


5.1. ¿Qué es la inteligencia artificial?

5.2. Definición

5.3. Aplicaciones

5.4. Limitaciones

5.4.1. Incertidumbre

5.4.2. Probabilidad

[Link]. ¿Cómo se calcula?

[Link]. Posibilidades

5.4.3. El teorema de Bayes

[Link]. Posibilidades previas y posteriores

[Link]. Fórmula del teorema de Bayes

[Link]. El teorema de Bayes en la práctica: detección del cáncer de mama

5.5. Ejemplos de uso de la inteligencia artificial

5.5.1. Autos autónomos

5.5.2. Recomendación de contenido

5.5.3. Procesamiento de imágenes y video

5.6. Campos relacionados

5.6.1. Robótica

5.6.2. Aprendizaje automático (machine learning)

5.7. Ciencia de datos (data science)

5.7.1.¿Cuál es la diferencia entre ciencia de datos y big data?

5.7.2. Principales tareas en la ciencia de datos

5.7.3. Principales aplicaciones en la ciencia de datos en salud

5.7.4. Paso a paso (posible) de un proyecto de ciencia de datos

5.7.5. Elección de algoritmos

[Link]. Tipos de problemas

[Link]. Tipos de variables de interés

[Link]. Algoritmos más comunes de problemas supervisados

[Link]. Aprendizaje no supervisado

5.8. Riesgos y desafíos éticos del uso de grandes datos

5.9. Precaución sobre el uso de la inteligencia artificial. El sesgo algorítmico


5.10. Bibliografía

Editores

Daniel Luna

Fernán González Bernaldo de Quirós

Acerca de los autores

Sonia E. Benitez

Jorge Garbino

Marcelo Risk

Colaboradores

María Susana Alonso

Valeria Burgos

Natalia Pérez López


Presentación

En la época actual ya es innegable que el uso de las Tecnologías de Información y


Comunicación han sido el motor de cambio y de desarrollo social y económico y su
uso ya es parte de nuestra vida diaria.

En el ámbito de la salud, este desarrollo está camino a convertirse en la


herramienta para poder brindar un cuidado de salud a la población que sea de
calidad, seguro y equitativo.

En los países de la región latinoamericana existen diferentes factores que limitan el


acceso a una atención médica oportuna y de calidad, por razones como la escasez
de recursos humanos, infraestructura, equipamiento, medicamentos e insumos,
sumado a la creciente demanda de los servicios de salud por el aumento de las
enfermedades crónicas y el envejecimiento poblacional.

El Departamento de Informática del Hospital Italiano de Buenos Aires viene


trabajando en el desarrollo de Sistemas de Información en Salud desde hace 20
años y en la formación de recurso humano calificado para el liderazgo de proyectos
de informatización en Salud.

En el año 2001 se crea la Residencia de Informática Médica, con el claro objetivo


de formar especialistas que acompañen el desarrollo del modelo de
informatización de la institución.

Luego de de mas 15 cohortes de residentes, en el último año se ha lanzado la


especialidad como multidisciplinaria, por lo que tanto médicos, odontólogos,
licenciados en Farmacia, Bioquímica, Enfermería, Fonoaudiología, Kinesiología,
Psicología, Nutrición, Educación, Pedagogía, Psicopedagogía, y Sociología
pueden postularse al programa de 3 años de formación presencial.

Por otra parte, con la idea de contribuir a la formación de profesionales en la


disciplina, en el año 2006 se lanzó el primer curso virtual de “Introducción a los
Sistemas de Información de Salud” en forma conjunta con la Oregon Health
Science University y la American Medical Informatics Association. El mismo tiene
una duración de 16 semanas y la finalidad del programa es introducir en los
sistemas de información tanto clínicos como administrativos, a las personas que
trabajan en distintas organizaciones de la salud, y que conozcan cómo las
tecnologías de la información colaboran en mejorar la calidad, seguridad y
costo-efectividad de la atención médica, a través del rediseño de los procesos en
dichas organizaciones. Hasta el día de hoy, este curso ha tenido más de 1500
alumnos.

Nuestra experiencia en formación de recurso humano en Informática en Salud nos


impulsó a seguir avanzando y crear la Maestría de Informática Salud, donde
combinamos la experiencia de todos estos años para no solo capacitar a nuestros
residentes sino también a todos aquellos que deseen un nivel de formación
académico mayor en la disciplina.

Somos conscientes que la disciplina ha evolucionado fortaleciendo la interacción


entre profesionales que provienen de las ciencias de la computación, la
comunicación, la información y las tecnologías y su aplicación en biomedicina y
salud. Esta integración muestra la necesidad de formación de recursos humanos
capacitados en los núcleos propios de la Informática en Salud y en aquellos
conocimientos y habilidades necesarias para la resolución eficaz de problemas
relacionados con los Sistemas de Información en Salud.

La Maestría tiene una modalidad semipresencial con un gran componente virtual


donde los maestrandos cursan 13 materias a lo largo de 2 años y medio (Gestión
de Proyectos en Informática en Salud; Sistemas de Información en Salud;
Principios de Interoperabilidad en Salud y Estándares; Sistemas de soporte a la
toma de decisiones; Programación; Bases de Datos e Inteligencia de negocios;
Aspecto organizacional y manejo del cambio; Ética, legislación y Propiedad
Intelectual; Ubicuidad de los sistemas de información; Ingeniería del Software;
Evaluación e Investigación en Informática en Salud; Informática aplicada a la
investigación clínica; y Gestión Sanitaria), además de talleres de prácticas y un
Trabajo Final.

Dichas materias representan áreas de gran importancia dentro de la disciplina, por


lo que hemos decidido que cada una debía tener un manual que acompañe la
cursada y también sirva como material de consulta para todo aquel interesado en
profundizar conocimientos sobre ese tema en particular.

El formato de e-book da las ventajas de portabilidad, para su rápida consulta y la


posibilidad de actualizarlo con cierta periodicidad a medida que surja nuevo
contenido que sea de interés. Cada uno de ellos cuenta con material extra (entre
los que encontrarán videos, plantillas, bibliografía, recursos interactivos,
comentarios de lectores, y más) que sirve como complemento de los temas
abordados. Podrán acceder al mismo registrándose en nuestra web, donde
encontrarán el botón “Material extra” en el espacio correspondiente a cada
libro.

Esperamos que esta serie de libros electrónicos sea de utilidad no solo para
nuestros alumnos, sino también para toda la comunidad interesada en la disciplina.

Departamento de Informática en Salud


Capítulo 1. Introducción a la investigación clínica

María Susana Alonso

1.1. Introducción

Según el Diccionario de la lengua española, la ciencia es el “conjunto de


conocimientos obtenidos mediante la observación y el razonamiento,
sistemáticamente estructurados y de los que se deducen principios y leyes
generales con capacidad predictiva y comprobables experimentalmente” (“Ciencia”,
2017). Debido a que de este conjunto de conocimientos se deducen principios y
leyes, surgen teorías que permiten explicar y predecir los fenómenos. La ciencia
apunta a las causas del conocimiento y es el conjunto unificado de conocimientos e
investigaciones de carácter objetivo. Este conjunto se desarrolla sobre las
relaciones entre los hechos observados y confirmados por medio de métodos
empíricos definidos.

El conocimiento científico se obtiene mediante la investigación; el investigador


fundamenta sus conocimientos a partir de la observación, la obtención de datos y
las pruebas que confirman o no lo observado. Los experimentos científicos son la
base de los desarrollos tecnológicos; sin embargo, no hay que confundir ciencia con
tecnología, que es el “conjunto de teorías y de técnicas que permiten el
aprovechamiento práctico del conocimiento científico” (“Tecnología”, 2017).

Para el desarrollo de la ciencia se necesita de la investigación, que es el conjunto


de actividades intelectuales y procesos con el objetivo de obtener información;
luego, mediante el análisis de esa información y los resultados obtenidos se pueden
resolver los problemas por los cuales se desarrolla una investigación específica. Los
resultados que se obtienen por medio de la investigación científica se basan en el
método científico, que es un conjunto de procesos sistemáticos, críticos y
empíricos que se aplican al estudio de los fenómenos o problemas a resolver, que
procuran que la información obtenida sea relevante y veraz, para poder entender,
verificar, corregir o aplicar conocimiento.

El proceso del desarrollo del método científico implica prácticas utilizadas por la
comunidad científica y aceptadas como válidas, por lo que es posible comunicar y
confirmar las teorías alcanzadas. Las teorías científicas explican, de acuerdo con
los conocimientos vigentes, un sector de la realidad en estudio que ha sido
observado; la comunidad científica corrobora o refuta las teorías aparecidas con el
tiempo, ya que los nuevos conocimientos pueden variar las bases que las
sostienen.

En general, por el tipo de investigación y la metodología utilizada, que están


relacionados con los objetivos de investigación planteados, los científicos
consideran que la ciencia es básica o aplicada.

1.1.1. Ciencia básica vs. ciencia aplicada

Generalmente, los científicos clasifican a las ciencias en fundamentales (puras) y


aplicadas. La ciencia pura o básica, según Bunge, es aquella que, a partir de las
investigaciones científicas, solo busca obtener conocimiento o comprender los
aspectos fundamentales de los fenómenos y los hechos observables, porque el
objetivo es únicamente la búsqueda del conocimiento, sin pretensión práctica
alguna. Comprende los trabajos experimentales o teóricos que se desarrollan para
obtener conocimientos nuevos acerca de los fundamentos de los fenómenos y los
hechos observados de la realidad; solo pretende conocer el mundo circundante.
Estos trabajos no tienen objetivos relacionados con su aplicación o utilización
(Bunge, 2014).

Es habitual que la ciencia básica sea conducida en laboratorios y abarque amplios


estudios en disciplinas como la biología, la bioquímica y la genética. Tanto la ciencia
básica como la aplicada intentan descubrir leyes para la comprensión de la realidad.
(Aparasu, s/f). Los científicos involucrados en la ciencia básica solo están
enfocados en la generalización del conocimiento. La ciencia básica constituye la
base teórica del conocimiento, que es el fundamento de la ciencia aplicada o la
tecnología. La investigación sobre la estructura del ácido desoxirribonucleico (ADN)
a mediados del siglo pasado es un ejemplo de ciencia básica.

A diferencia de la ciencia básica, la ciencia aplicada toma el conocimiento


científico obtenido de ella para ser utilizado en la resolución de los problemas que
afectan a la vida del ser humano y su ambiente. Un ejemplo de ciencia aplicada es
la biomedicina, que toma ese conocimiento y lo aplica por medio del desarrollo de
productos o aplicaciones como medicaciones, servicios, etc. Distintas áreas están
involucradas en la investigación biomédica; por ejemplo, la farmacología, la
bioquímica aplicada a la medicina y la industria farmacéutica.
Es interesante tomar en cuenta las definiciones del Ministerio de Ciencia,
Tecnología e Innovación Productiva de la Presidencia de la Nación en cuanto a las
actividades de investigación y desarrollo: “Investigación básica: trabajos
experimentales o teóricos que se emprenden principalmente para obtener nuevos
conocimientos acerca de los fundamentos de fenómenos y hechos observables, sin
prever ninguna aplicación o utilización determinada o específica. Investigación
aplicada: trabajos originales realizados para adquirir nuevos conocimientos, pero
fundamentalmente dirigidos hacia un objetivo práctico específico. Desarrollo
experimental: trabajos sistemáticos basados en los conocimientos existentes,
derivados de la investigación y/o la experiencia práctica, dirigidos a la producción de
nuevos materiales, productos y dispositivos, al establecimiento de nuevos procesos,
sistemas y servicios, o a la mejora sustancial de los ya existentes, es decir producir
una tecnología” (Dirección Nacional de Información Científica,
Subsecretaría de Estudios y Prospectiva, 2013).

Un ejemplo importante de la investigación científica aplicada es la investigación


clínica (IC), cuyo objetivo es utilizar los conocimientos básicos obtenidos para
desarrollar productos o aplicaciones; por ejemplo, medicaciones nuevas,
tratamientos, dosis o aplicaciones de drogas o servicios que mejoren la salud de las
personas. En la investigación básica y la IC están involucrados diversos conjuntos
de conocimientos y metodologías característicos y diferentes (Aparasu, s/f).

Como ya expresamos anteriormente, la investigación básica se realiza sin fines


prácticos. Apunta a producir conocimiento general y a la comprensión de la
naturaleza y sus leyes. Los conocimientos obtenidos proporcionan las herramientas
necesarias para responder a una cantidad de problemas prácticos importantes,
aunque tal vez no se llegue a tener una respuesta específica para ellos. En cambio,
la función de la investigación aplicada, como la IC, es proporcionar respuestas a los
problemas de la práctica clínica y todo lo que ella involucra (Aguirrezabala et al.,
2012).

1.1.2. Investigación clínica

Para la Administración Nacional de Medicamentos, Alimentos y Tecnología Médica


(ANMAT), según lo destacado en la resolución 1480/2011 del Ministerio de Salud de
la Nación, la investigación en salud humana es una actividad trascendente para la
comunidad, pues contribuye a mejorar la calidad de vida, la protección de la salud y
la atención de la enfermedad de los individuos que la componen. Además, esta
norma destaca que toda investigación que involucre a seres humanos debe basarse
en valores éticos fundados en el respeto por la dignidad de las personas, el
bienestar y la integridad física y mental de quienes participan en ella (Administración
Nacional de Medicamentos,
Alimentos y Tecnología Médica, 2016).

La IC, como ciencia aplicada, tiene cuestiones propias y comprende los asuntos
relacionados con la investigación en salud y las enfermedades de los seres humanos.

El objetivo principal de la IC o la investigación médica es cuidar y mejorar la salud


de los pacientes por medio de las innovaciones aprobadas y evaluadas
científicamente y del mejoramiento en las tecnologías preventivas, diagnósticas,
terapéuticas y de rehabilitación. Es la investigación que se realiza con sujetos
humanos, sanos o enfermos, o con material de origen humano, como tejidos,
muestras y fenómenos cognitivos, cuando el investigador interactúa directamente
con ellos. Los estudios in vitro que utilizan tejidos humanos, que no pueden
vincularse con un individuo vivo, están excluidos de esta definición. En este tipo de
investigación se incluyen los mecanismos de enfermedades humanas, las
intervenciones terapéuticas, los ensayos clínicos y el desarrollo de nuevas
tecnologías. También se consideran los estudios epidemiológicos y de
comportamiento y la investigación de los resultados y los servicios de salud
(McGartland Rubio et al., 2010).

La IC es un proceso sistemático, organizado y objetivo, que se orienta a responder


a una pregunta determinada. El proceso es sistemático porque a partir de una
hipótesis o un objetivo de trabajo se reúnen datos según un protocolo
preestablecido; luego, estos datos se analizan e interpretan para obtener resultados
que pueden ser nuevos conocimientos sobre los ya existentes.

El proceso es organizado, porque todo el equipo involucrado responde a un plan de


investigación planteado antes del comienzo, conoce perfectamente el protocolo del
estudio y aplica con exactitud los mismos criterios a todos los sujetos participantes.
Por ejemplo, los ensayos clínicos (EC) se guían por manuales incorporados en el
protocolo, cuyas directivas rigen para enfrentar cualquier duda o problema.

Por último, es un proceso objetivo, porque las conclusiones obtenidas no se basan


en la subjetividad de los investigadores, sino en datos observados y mediciones
estrictamente realizadas, de acuerdo con los planteos del método científico. De esta
manera, en la interpretación de los datos se evitan conflictos de interés que puedan
tener los autores (“Funcionamiento de una investigación: aspectos básicos”, s/f).

Según el Instituto Nacional del Cáncer de los Estados Unidos, la IC es el estudio


que incluye a las personas, sus datos o muestras de tejido humano, para la
comprensión de la salud y la enfermedad. Por medio de la IC se pueden encontrar
nuevas y mejores formas de detectar, diagnosticar, tratar y prevenir enfermedades.
Los estudios de IC incluyen los EC, que evalúan nuevos tratamientos para una
enfermedad y, también, los estudios que recopilan información y analizan datos
sobre el estado de salud (no enfermedad) para comprender cómo se desarrollan y
progresan las enfermedades a lo largo del tiempo (Instituto Nacional del Cáncer,
s/f).

Los métodos de referencia (gold standard) de los diseños de IC son los EC. Estos
estudios se realizan con sujetos humanos y evalúan de manera prospectiva
diagnósticos, terapias, profilaxis con medicamentos, dispositivos específicos,
conductas y procedimientos que serán aplicados a la práctica médica o a la
prevención de las enfermedades. Los EC se realizan por el análisis de dos grupos:
uno de tratamiento y uno de control o comparación.

Las normas vigentes para el desarrollo de la IC farmacológica se pueden consultar

en la página de la ANMAT (ANMAT, s/f).

Uno de los objetivos de la IC es el estudio de los medicamentos que serán aplicados

a la práctica médica o a la prevención de las enfermedades. El estudio de la IC es

muy extenso para ser tratado en este eBook, solo presentamos las bases de los

temas más relevantes.


Debemos destacar que la investigación permite obtener la mayor evidencia posible
sobre los tratamientos, las causas de las enfermedades o las conductas que
pueden afectar a los individuos o a las comunidades. La práctica clínica implica que
se trabaja de acuerdo con la mejor evidencia a la que se pueda acceder.

[Link]. Medicina basada en la evidencia

La medicina basada en la evidencia (MBE) “es el uso concienzudo, explícito,


juicioso y razonable de la mejor evidencia que se puede conseguir para tomar
decisiones sobre el cuidado de pacientes individuales”. De la definición anterior se
deduce que la práctica de la MBE significa que la experiencia clínica individual debe
integrarse con una evaluación crítica de la mejor evidencia clínica que esté
disponible (de la investigación sistemática).
La experiencia clínica individual es la competencia y el juicio que adquieren los
médicos personalmente mediante la experiencia y la práctica clínica. A mayor
experiencia, entre otras cosas, se obtiene un diagnóstico más eficaz y eficiente, que
respeta los derechos y las preferencias de cada paciente al tomar decisiones
clínicas sobre el cuidado de su salud.

La mejor evidencia clínica disponible se refiere a la investigación clínicamente


relevante; en general, de las ciencias básicas de la medicina y, en especial, de la IC
centrada en el paciente. También, se relaciona con la exactitud y la precisión de las
pruebas diagnósticas (incluidos los exámenes clínicos), los factores pronósticos y la
eficacia y la seguridad de los tratamientos terapéuticos, de rehabilitación y
preventivos (Masic, Miokovic, & Muhamedagic, 2008; Sackett, 2005).

Por lo tanto, la práctica de la MBE significa incorporar, al trabajo individual de los


profesionales clínicos (a su experiencia clínica), la mejor evidencia científica
disponible obtenida de investigaciones válidas y fiables, también, integrando la
elección de los pacientes. Un aspecto para tomar en cuenta es que la evidencia
externa disponible permite tener información, pero no debe reemplazar a la
experiencia clínica del profesional; según esta experiencia, se decide si la evidencia
externa disponible se aplica a los pacientes individuales y, si es así, se analiza
cómo esta se integra en una decisión clínica (Masic et al., 2008; Sackett, 2005).

En la MBE, la experiencia clínica de los profesionales y los valores obtenidos de los


pacientes, como también la mejor información disponible en investigación, están
totalmente relacionados (Figura 1).

Figura 1. Tríada de la medicina basada en la evidencia


Fuente: adaptado de Masic et al., 2008.

Para alcanzar los objetivos de la MBE debe fomentarse el acceso y la práctica de la


IC de alta calidad para la toma de decisiones clínicas; también, el profesional clínico
requiere de habilidades nuevas, como la búsqueda eficiente y exhaustiva en la
bibliografía clínica y la aplicación de reglas formales de evidencia para evaluarla. La
práctica de la MBE se desarrolla mediante un proceso de aprendizaje continuo de
los clínicos, basado en problemas sobre el diagnóstico, el pronóstico, la terapia, etc.
La buena aplicación brinda una mejor atención de salud a los pacientes y mayor
rentabilidad.

Los diseños de los estudios de investigación tienen pros y contras: los estudios
observacionales son los que menos evidencia proporcionan; en cambio, los
experimentales, especialmente los EC, son los que aportan la mayor evidencia
(Masic et al., 2008) (Figura 2).

La diferencia entre la MBE y la medicina tradicional es que la primera exige mayor


información de la que se usa tradicionalmente. Un gran éxito de la MBE es el
desarrollo de revisiones sistemáticas y metanálisis. Por medio de estos métodos,
los clínicos y los investigadores pueden identificar numerosos estudios sobre un
tema específico.

Figura 2. Grado de evidencia de los estudios clínicos y cantidad


de estudios publicados. Los de menor evidencia son los
observacionales, en la base de la pirámide Fuente: adaptado de
Masic et al., 2008.

[Link]. Investigación traslacional

A pesar de que hace más de una década toma impulso la investigación traslacional,
dentro de la comunidad de investigadores aún existen desacuerdos sobre su
definición. Tanto la investigación básica como la IC están claramente definidas, pero
no sucede lo mismo con la definición de la investigación traslacional, que sigue
siendo menos clara que las otras. Por medio de la investigación rigurosa se genera
conocimiento de alta calidad; de esta manera, se desarrollan herramientas
terapéuticas que mejoran continuamente y que suponen un avance en la prevención
y la reducción de los efectos producidos por las enfermedades y su curación; esto
permite la mejoría de la calidad de
vida de las personas y aumenta la esperanza de vida. El objetivo a largo plazo de la
investigación traslacional es mejorar la salud de las poblaciones (McGartland Rubio
et al., 2010).

La investigación traslacional comprende un proceso en el que los hallazgos de la


investigación básica se trasladan del laboratorio del investigador (o “banco” del
investigador) a los pacientes y la comunidad. Hay dos áreas involucradas en la
traducción: una es la aplicación de los hallazgos generados durante la investigación
en el laboratorio y en estudios preclínicos, para destinarlos al desarrollo de ensayos
y estudios en seres humanos; de esta manera, el conocimiento obtenido por la
investigación básica se transfiere a la IC. La segunda área de traducción involucra
la investigación destinada a mejorar la adopción de las mejores prácticas para el
beneficio de la comunidad; así, los resultados de los EC se transfieren para mejorar
la salud de la comunidad. La investigación traslacional también involucra la
rentabilidad de las estrategias de prevención y tratamiento (McGartland Rubio et al.,
2010).

Además, la investigación traslacional es un proceso unidireccional, a veces largo y


costoso; por ejemplo, la identificación y la validación de los biomarcadores. En estos
casos, se recomienda alentar a la asociación privada, para que, junto con la
industria farmacéutica y las instituciones científicas, unan esfuerzos para generar
datos clínicos de alto valor para el desarrollo de medicamentos personalizados. Es
sumamente necesaria la unión entre las instituciones y la industria para obtener
resultados rentables, válidos, seguros y en menos tiempo; también, es importante
contar con el aporte de la población (McGartland Rubio et al., 2010). Por ejemplo,
en las patologías tumorales se necesitan EC
complejos, con un fuerte componente de investigación traduccional para obtener
avances fundamentales en la comprensión de los tipos específicos de cáncer, que
colaboren en la definición de nuevos estándares personalizados de atención al
paciente. Por medio de EC con diseños adecuados se pueden investigar fármacos
nuevos o combinaciones múltiples de ellos en distintos tipos de cáncer; esto implica
identificar biomarcadores para comprender mejor la biología de la enfermedad que,
junto con la caracterización molecular de los tumores, puede predecir la actividad o
la toxicidad (Sharma & Annigeri, 2018).

Otro ejemplo que ilustra las características de la investigación traslacional y su


importancia en la medicina es el caso de las guías clínicas japonesas para el
cáncer. Debido a que se encuentra utilidad clínica en pacientes con cáncer
colorrectal con mutación BRAF V600E o deficiencia de reparación de los errores de
emparejamiento de ADN, además de la mutación RAS, en 2008 y 2014,
respectivamente, la Japanese Society of Medical Oncology publica dos ediciones de
estas guías clínicas (Pautas japonesas para la prueba de la mutación del gen KRAS
en cáncer colorrectal y Pautas clínicas de la Japanese Society of Medical Oncology:
mutación RAS [KRAS/NRAS]. Prueba en pacientes con cáncer colorrectal) que
contribuyen al uso adecuado de pruebas de las mutaciones de KRAS en la primera
guía y de RAS, en la segunda. Basadas en la evidencia científica reciente, estas
guías pautan los requisitos básicos para las pruebas de esas alteraciones
genéticas. Por lo tanto, gracias a los avances recientes en la investigación de la
biología molecular se van comprendiendo las alteraciones genéticas que se hallan
en los resultados clínicos del cáncer colorrectal (Sharma & Annigeri, 2018).

Además de avanzar en la comprensión de los sistemas biológicos, tanto en el


laboratorio de ciencia básica como en la cabecera del paciente, se pueden aplicar
las nuevas herramientas, poderosas, como la genómica, la proteómica, los modelos
animales transgénicos, la biología estructural, la bioquímica y las tecnologías de
estudios por imágenes, de suma importancia en el contexto traslacional.

En este momento, el nuevo desafío en el desarrollo de medicamentos contra el


cáncer no consiste solo en demostrar la seguridad y la eficacia del fármaco, sino
también determinar cómo llegar a lograrlos de una manera rápida y rentable. Lo que
se espera es una exposición mínima de los pacientes en los EC y a las terapias
ineficaces, mientras se intenta la interacción fuerte entre la industria y las
instituciones científicas, como destacamos anteriormente. Para esto, es necesario
crear equipos multidisciplinarios para desarrollar estudios futuros, cuyos resultados
permitan implementar intervenciones efectivas que mejoren la calidad de vida y la
supervivencia de los pacientes oncológicos. La modalidad de este tipo de trabajo
colaborativo permitiría disminuir los tiempos entre los hallazgos científicos hasta
llegar al uso clínico (Sharma & Annigeri, 2018).

La traducción se divide en cuatro pasos: la fase de investigación (T1) busca


trasladar un descubrimiento básico a una aplicación de salud específica; la fase T2
evalúa el valor de la aplicación de T1 para el desarrollo de pautas basadas en la
evidencia; la fase T3 intenta que las guías basadas en la evidencia se apliquen en
la práctica de la salud, por medio de su entrega, distribución e investigación de
difusión; por último, la fase de investigación T4 intenta evaluar los resultados de
salud en la práctica diaria de una aplicación T1.

Los estudios de ciencia básica permiten determinar mecanismos biomoleculares de


los tumores, posibilitando que los EC que establecen la eficacia de los
medicamentos en cáncer sean más efectivos para comprender mejor los distintos
tipos de patologías. De esta manera, los estándares de atención son más
personalizados (Sharma & Annigeri, 2018).

Las herramientas de investigación traslacional que utiliza actualmente la comunidad


científica son la biología traslacional, la toxicología predictiva, la extrapolación in
vitro-in vivo, la farmacología cuantitativa, los biomarcadores y los puntos finales
sustitutos. Para que pueda desarrollarse la investigación traslacional, realmente hay
que atravesar unos cuantos obstáculos, que exceden el alcance de este texto, pero
que están relacionados con el desafío de traducir descubrimientos científicos
básicos en EC, es decir, la traducción de EC a la práctica clínica y la política de
atención médica. Según consideran algunos autores, también hay un tercer
obstáculo filosófico.

Para que los avances sean efectivos y, también, se realicen más rápido y de
manera rentable, se necesita un buen equipo de epidemiólogos, clínicos,
estadísticos y bioinformáticos que, en conjunto, trabajen con una metodología
apropiada que, en principio, responda a las pautas del método científico (Sharma &
Annigeri, 2018).

1.2. El método científico

Jacques Monod, ganador del Premio Nobel, se refirió al supuesto básico, el


“postulado de la objetividad”, considerando que las leyes que gobiernan las fuerzas
y los fenómenos del universo no están sujetas a cambio (Naranjo, 2013).

Durante la evolución de la investigación se determina que, para el estudio de los


fenómenos, al tratar de comprender el mundo natural, surge la importancia de
aplicar un proceso en investigación: el método científico. Su aplicación implica que
los términos utilizados por los profesionales para describir las ideas científicas
tienen significados muy diferentes de los empleados por las personas que no son
científicos (pseudociencia).

Los científicos son personas formadas en ciencia, que aplican de modo riguroso el
método científico para entender el mundo natural. Las investigaciones que realizan
se basan en observaciones medibles y reproducibles y, además, deben exponer
con honestidad los resultados de sus investigaciones.

Se da por sentado que, en las ciencias, la información se genera bajo un conjunto


de normas mundialmente aceptadas por la comunidad científica. Este conjunto de
normas se denomina, también, método científico. Estas normas, que conducen los
experimentos científicos para confirmar las teorías propuestas, surgen de las
prácticas realizadas científicamente, por lo que están validadas por la comunidad
científica. Permiten trabajar de manera objetiva, y no subjetiva, para llegar al
conocimiento real de la manera más desinteresada posible y libre de sesgos, desde
la pregunta de investigación hasta la obtención de los resultados (Figura 3).

Figura 3. Ciclo de investigación en el que se


trabaja según el método científico
Cuando el método científico se aplica en las investigaciones, un presupuesto señala
que estas deben ser reproducibles: cualquier experimento podrá reproducirse con el
mismo procedimiento realizado, en cualquier lugar y por cualquier científico. Otro
presupuesto a tomar en cuenta en el método es la falsabilidad, es decir que todas
las proposiciones científicas pueden verificarse con el diseño de experimentos que
desmientan o nieguen los enunciados o las teorías científicas puestas a prueba. Por
lo tanto, las teorías nuevas se aceptan provisionalmente, nunca son verificadas
(Trejos, 2012).

1.2.1. Etapas del método científico

[Link]. Observación: es la observación de un objeto o fenómeno, o el


análisis de investigaciones previas, para estudiarlos tal como se
presentan en la realidad.

[Link]. Planteamiento de la pregunta de investigación y


formulación del problema.
[Link]. Formulación de la hipótesis: las hipótesis son explicaciones tentativas del
fenómeno a investigar. Se derivan de la teoría existente y se formulan como
proposiciones. Son posibles respuestas al problema de investigación planteado,
deben ser fundadas y contrastables.

[Link]. Contrastación de la hipótesis, experimentación: en esta etapa se


comprueba la o las hipótesis mediante experimentos diseñados adecuadamente.
El objetivo es garantizar que las hipótesis están bien planteadas. Por lo tanto, las
hipótesis se comprueban o contrastan. Solo las hipótesis contrastables
(falsables) son científicas (Ibáñez, 2007).

[Link]. Luego de la contrastación, se interpretan los resultados.

[Link]. Teorías y leyes: si la hipótesis se rechaza, es probable que se realicen


nuevas observaciones para recoger más datos que permitan encontrar la
respuesta a la pregunta de investigación, como también formular problemas
nuevos que deriven de ella. Si la hipótesis se confirma, pueden deducirse teorías
y leyes, que es la forma de plasmar el conocimiento (Trejos, 2012).

1.2.2. Investigación cuantitativa y cualitativa

En la investigación científica encontramos dos enfoques importantes: el enfoque


cuantitativo y el cualitativo. Los dos enfoques emplean procesos rigurosos,
metódicos y empíricos para generar conocimiento durante el trayecto de la
investigación. En la investigación cuantitativa se recogen y analizan datos
cuantitativos sobre variables, se estudia la asociación o relación que existe entre
esas variables y cuál es la fuerza de esa relación y cómo es la asociación; cuando
es posible, se parte de una muestra, para luego realizar generalizaciones de los
resultados a la población de la que procede la muestra. Para ello, se efectúan
mediciones numéricas y se trabaja con la estadística.

En cambio, en la investigación cualitativa se evita la cuantificación, se realizan


registros narrativos de los fenómenos estudiados mediante técnicas como la
observación de los participantes y las entrevistas abiertas no estructuradas; se trata
de identificar la naturaleza profunda de la realidad, cómo son sus relaciones, su
estructura; por lo tanto, se basa más en descripciones y observaciones.

Además, estos enfoques o métodos utilizan, por lo menos, cuatro estrategias en común: 1. parten de
la observación y la evaluación de fenómenos; 2. elaboran ideas e hipótesis luego de las
observaciones para tratar de interpretar los fenómenos que estudian; 3. buscan demostrar, por
medio de pruebas y análisis, que sus ideas o hipótesis tienen un fundamento; 4. luego, sugieren
realizar otras observaciones y análisis para fundamentar o modificar y, si es posible, elaborar
hipótesis o teorías nuevas acerca de sus descubrimientos.

Tanto el enfoque cuantitativo como el cuantitativo tienen semejanzas en su metodología,


pero cada uno posee características específicas que los diferencian.

Durante el proceso del método científico se elabora/n la/s hipótesis y los


experimentos a desarrollar; luego de planteada la hipótesis, esta se somete a
prueba experimental (Pita Fernández y Pértegas Díaz, 2002; Sampieri, 2000).

1.3. Estudios clínicos

Son los estudios de investigación con sujetos humanos, cuyos objetivos residen en
encontrar asociaciones entre las enfermedades y sus factores de riesgo (FR),
mejorar los tratamientos y la calidad de vida de las personas (“¿Qué son los
estudios clínicos?”, 2016).

Cuando planteamos un trabajo de investigación, en realidad estamos respondiendo


a una pregunta que nos hacemos para encontrar respuestas a algún dilema
relacionado con el tema de trabajo; en este caso, la práctica clínica en medicina. La
pregunta de investigación debe estar bien planteada; en realidad, para llegar a ella,
se siguen varias etapas de refinamiento y se realiza una búsqueda bibliográfica
exhaustiva. En las etapas del estudio se vuelve a la pregunta varias veces
(iteración), ya que es la que guía la investigación. En el momento de publicar o
plasmar los resultados en un trabajo comunicable, la pregunta planteada aparece
como el objetivo del estudio. De la pregunta planteada depende el diseño que se
elige para realizar el trabajo de investigación.

1.3.1. Características de los diseños de investigación

Los estudios son de tipo descriptivo o analítico de acuerdo con la pregunta de


investigación planteada. Los estudios descriptivos, tal como su denominación lo
indica, detallan un hallazgo o un hecho determinado; por ejemplo, una enfermedad
rara. En cambio, en los estudios analíticos se plantean hipótesis que se demuestran
con la comparación de dos grupos de estudio (uno de ellos se denomina,
comúnmente, grupo control). Los estudios clínicos también se realizan desde otro
punto de vista; por ejemplo, según se trate
de realizar una intervención o no, los estudios son observacionales, que pueden ser
descriptivos o analíticos, se limitan a informar lo hallado como producto de la
investigación. En cambio, en los estudios experimentales, que solo son analíticos, el
investigador realiza una intervención en uno de los dos grupos de estudio. Estos
estudios son los que demuestran la mayor evidencia en cuanto a la posible
asociación causal entre variables del estudio. Además, los estudios pueden ser
prospectivos, cuando el evento (variable resultado) no ocurre en el momento de
comenzar el estudio, y retrospectivos, cuando el evento ya ocurrió y lo que se
averigua es si hay algún factor que afecte al sujeto de estudio que puede haber
causado el evento. En cuanto al momento en el que se consideran las variables de
exposición (a un FR) y el momento en el que se produce el evento, los estudios
clínicos pueden ser longitudinales, cuando hay distancia en el tiempo de registro
entre las dos variables, y transversales, cuando en el mismo momento el
investigador reúne la información de las dos variables (Bellido Blasco, 2016).

1.3.2. Estudios clínicos y epidemiológicos. Clasificación

[Link]. Experimentales vs. no experimentales

Estos estudios epidemiológicos se diseñan para comprobar o refutar hipótesis, que


se elaboran intentando responder científicamente las preguntas clínicas o
epidemiológicas, que son los interrogantes que se hacen los investigadores y la
comunidad médica. Se realizan según métodos y técnicas característicos para
seleccionar sujetos, reunir datos y analizar e interpretar la información, para luego
comunicar los resultados a la comunidad científica y médica. Para determinar qué
tipo de estudio se va a desarrollar, hay que tener claro el objetivo concreto que se
busca con la investigación, el grado de eficacia que se quiere alcanzar y cuáles son
los recursos disponibles para realizarla (la factibilidad del estudio). Los métodos
para responder a la pregunta de investigación tienen que ser adecuados para
determinar la validez del estudio, como también el grado de evidencia y los recursos
necesarios.

Los estudios epidemiológicos pueden ser experimentales y no experimentales u


observacionales, como comentamos anteriormente. A continuación, señalamos
algunos de los estudios que corresponden a esta clasificación (Figura 4).

Figura 4. Tipos de estudios epidemiológicos


Fuente: extraído de Molina Arias & Ochoa Sangrador, 2013.

Con los estudios observacionales, los investigadores proponen hipótesis que luego
son probadas con EC. Aunque los resultados arrojen que existe asociación entre
algunas de las variables, con este tipo de estudios no se puede determinar que un
factor sea la causal de una enfermedad (“¿Por qué los investigadores realizan
distintos tipos de estudios clínicos?”, s/f).

1.3.3. Diseño de estudios clínicos

Los investigadores plantean el problema de investigación en conjunto con expertos


en el tema a estudiar, definen los alcances de la investigación y formulan las
hipótesis. Para responder a la pregunta de investigación y los objetivos que se
determinan deben estudiar qué diseño utilizan para desarrollar el trabajo. El diseño
es la estrategia o el plan por desarrollar, que tiene que ser adecuado para generar
conocimiento; un diseño que no corresponde a la pregunta de investigación y a los
objetivos puede hacer fracasar toda la investigación, con todo lo que ello implica
(Pita Fernández y Pértegas Díaz, 2002; Bellido Blasco, 2016).

En esta sección solo analizamos los diseños más generales y representativos.

[Link]. Estudios de corte transversal

Son estudios observacionales y descriptivos. En ellos, el investigador recoge


información sobre la exposición y la enfermedad de los sujetos en estudio, de
manera simultánea y en un momento determinado. Hace un corte de la realidad.
Por esta razón, no se puede asegurar si la exposición precede a la enfermedad o
viceversa, salvo, por ejemplo, en el caso de una mutación genética heredada, ya
que, si la hay, siempre precede a una enfermedad asociada con esa mutación.

El momento de la obtención de los datos es en un período determinado, no muy


corto, pero definido o, también, puede ser en un momento de la historia del sujeto
de investigación; por ejemplo, la obtención puede llevar un día o un año, depende
del tiempo necesario hasta obtener todos los pacientes que se necesitan, según el
tamaño de la muestra.

Principalmente, estos estudios se utilizan para conocer la frecuencia de un evento


determinado, la prevalencia de una enfermedad o de un FR; en estos casos, se
denominan estudios de prevalencia. La información que se obtiene en ellos es muy
útil para valorar el estado de salud poblacional y determinar acciones de salud
pública. También, a partir de los resultados obtenidos se pueden generar hipótesis
para resolver en estudios que brinden más evidencia sobre los efectos causales de
las enfermedades. Los estudios de corte transversal son descriptivos, pero en
algunos casos, analíticos. Son estudios analíticos cuando, por ejemplo, se realiza
una encuesta nacional de salud que reúne varios FR, como el tabaquismo, la dieta,
etc., para un solo evento; luego, se compara la frecuencia del evento entre las
personas expuestas al FR con aquellas no expuestas y se analiza cómo se asocian
esos factores. Como se expresó anteriormente, algunas de las ventajas que poseen
es que permiten determinar la prevalencia de muchas enfermedades:

Prevalencia = cantidad de enfermos (casos) en un momento dado/población de


estudio en el mismo momento.
Una de las ventajas de los estudios de corte transversal es que se realizan en
períodos cortos y son de bajo costo, además de muy importantes para la salud
pública. Como desventaja, no es posible, en la mayoría de los casos, determinar
una asociación causal del FR y la enfermedad; además, si la enfermedad es corta y
mortal, los pacientes mueren pronto y, tal vez, no entren en el estudio por no poder
ser detectados. Por lo tanto, los resultados obtenidos no son válidos (Bellido Blasco,
2016).

[Link]. Estudios de casos y controles

Son estudios observacionales y analíticos. En estos, el investigador identifica


pacientes con una enfermedad específica (u otra variable de interés) e, inicialmente,
conforma dos grupos: uno de sujetos sanos (grupo control) y otro de sujetos
enfermos; luego, se comparan las frecuencias de exposición a uno o más factores
entre ambos grupos. En la elección de los controles se considera que tienen que
tener la misma probabilidad de haber estado expuestos que los casos y que sean
representativos de la población de donde estos provienen. En estos estudios, como
en los transversales, se reúne la información sobre el evento y el factor de
exposición al mismo tiempo. Se utilizan cuando el número de casos es reducido; por
ejemplo, en enfermedades raras o con un período largo de latencia. No son
estudios experimentales. Aunque tienen cierta simplicidad y bajo costo,
son muy susceptibles a sesgos (Bellido Blasco, 2016).

[Link]. Estudio de cohortes (o de seguimiento)


Son estudios observacionales y analíticos. En los estudios de cohorte se trabaja con
dos grupos: uno lo conforman todos los sujetos libres del evento o la enfermedad de
interés, el grupo control, en el que el investigador agrupa sujetos que no estén
expuestos al FR elegido para realizar el estudio. El otro grupo está expuesto al o los
FR. Luego, se sigue a todos los sujetos por un período largo para observar la
frecuencia de aparición del evento de interés y se comparan los dos grupos. En los
estudios de cohorte, los sujetos se eligen siempre de acuerdo con la exposición de
interés. Son los estudios más importantes para evaluar el riesgo. Se analiza la
incidencia entre los dos grupos cuando finaliza el estudio: si la incidencia de la
enfermedad es mayor en el grupo expuesto, hay una asociación estadística entre la
exposición al FR y la incidencia de la enfermedad. Para una mayor comprensión se
presentan las fórmulas básicas: Incidencia es el número de casos nuevos en un
período. Incidencia acumulada son los casos nuevos durante un período
determinado/población en riesgo de enfermarse al principio del período que se
determinó. Incidencia en expuestos (Iex)/incidencia en no expuestos (Ino ex) es el
riesgo relativo.

Es el único método que permite establecer directamente la incidencia.


En los estudios de cohorte, como todos los sujetos están libres de la enfermedad al
inicio del seguimiento, se determina la secuencia temporal entre exposición y
enfermedad. El diseño de estos estudios permite que se puedan analizar eventos
resultantes de un factor determinado de exposición. Pueden ser prospectivos y
retrospectivos, según la relación temporal que existe entre el comienzo del estudio y
la aparición de la enfermedad. Además, se evalúan muchos resultados de riesgos y
beneficios que pueden estar asociados
con la exposición. No obstante, se debe analizar la factibilidad de llevarlos a cabo,
ya que pueden ser muy largos y costosos; a veces, se pierden muchos sujetos con
el tiempo, por lo que los resultados pueden ser dudosos. En estos estudios pueden
suceder distintos tipos de sesgos, por lo que hay que prestar mucha atención para
prevenirlos (Bellido Blasco, 2016).

[Link].Ensayos clínicos

Los EC son estudios experimentales. Se consideran el método de referencia (gold


standard) de los estudios epidemiológicos, ya que la evidencia obtenida es la más
alta; son de gran importancia clínica, especialmente para la toma de decisiones en
la práctica de cualquier disciplina de salud. Se utilizan principalmente para evaluar
la eficacia de diferentes terapias y medicaciones, actividades de prevención
(conductas, por ejemplo) o de planificación y programación sanitarias,
especialmente para probar medicamentos nuevos o combinaciones de ellos;
también, procedimientos y dispositivos quirúrgicos nuevos. Se caracterizan porque
el investigador manipula las condiciones de la investigación, decide a qué FR o
tratamiento expone a los sujetos del estudio, lo que permite una muy buena
interpretación de las asociaciones causales, principalmente entre las variables de
exposición y resultado, pero de otras que también están en juego. Se trabaja con
dos grupos de sujetos o comunidades, elegidos si presentan o no el evento o
enfermedad. Todos los sujetos o las comunidades son sometidos al mismo
tratamiento. Luego, se compara la frecuencia del evento o el resultado entre ambos
grupos. Los grupos evaluados deben ser similares en las variables más
importantes, porque esto determina el grado de validez del estudio; esto se logra
mediante un proceso de aleatorización que hace que los grupos sean lo más
similares posible en esas variables relacionadas con el objetivo del estudio. A pesar
de que los EC proveen una evidencia muy fuerte de causalidad, por sus aspectos
éticos son difíciles de llevar a cabo, ya que solamente se pueden evaluar
intervenciones con efectos potencialmente beneficiosos para todos los sujetos, sin
excepción. En general, son estudios terapéuticos o de prevención.

En general, los EC, son aleatorizados, controlados y a ciego. La aleatorización


refiere al azar: cada paciente que ingresa al estudio tiene la misma probabilidad de
ser asignado a cualquiera de los grupos de intervención. La aleatorización se utiliza
para comparar los grupos y controlar factores de confusión y sesgos, para que los
grupos sean lo más parecidos posible y que la única diferencia entre ellos sea,
prácticamente, la intervención. De esta manera, las características de los sujetos de
estudio se reparten de manera homogénea entre los grupos; para que esto se
cumpla, el número de sujetos (n de la muestra) debe ser muy grande.

En los EC controlados, uno de los grupos es asignado a la intervención o el


tratamiento nuevo y el otro no recibe la intervención o es tratado con la terapia
habitual; este último grupo se denomina control o testigo. En los EC a ciego, todos
los sujetos sometidos a la investigación desconocen si pertenecen al grupo de
intervención o no y, en los casos a doble ciego, los sujetos y los investigadores, los
técnicos y todos los que intervienen en el estudio desconocen en qué grupo se
realiza la intervención que se aplica, lo que evita que ocurran sesgos, dado que un
tercer observador analiza los resultados (Figura 5). Puede suceder que no se
analice un tratamiento habitual; en ese caso, el grupo control recibe placebo, pero
con el desconocimiento de los sujetos de investigación. Todos los factores
analizados contribuyen a la validez de los resultados en los EC.

A la hora de realizar un EC, son muy importantes las consideraciones éticas y la


justificación del trabajo. Debe considerarse y analizar bien cuál es la población a
estudiar, cómo se seleccionan los pacientes y cómo se efectúa su seguimiento, cuál
es el consentimiento informado para los pacientes (avalado por un comité de ética),
cuál es el método de aleatorización y la intervención, cómo se mide el evento y
cómo se realiza la comparación de los resultados en los dos grupos, los métodos
estadísticos, etc.; por último, cómo se comunican los resultados (Rothman &
Greenland, s/f; Pita Fernández, 2001).
Figura 5. Esquema de un ensayo clínico controlado

Fuente: Bellón, 2014

[Link]. Estudios ecológicos

En este caso, la unidad de observación no son los sujetos, sino las poblaciones. Se
describe o compara qué sucede en ella al analizar la frecuencia del evento en
poblaciones que tienen distintos niveles de exposición. Son simples y económicos,
ya que se estudian frecuencias de eventos registrados anteriormente, como tasas
de suicidios, nacimientos, etcétera (Bellido Blasco, 2016).

1.3.4. Sesgos y confundidores

[Link].Sesgos

El objetivo principal de los estudios epidemiológicos es lograr precisión y exactitud


para determinar la frecuencia de que un evento suceda y la estimación de cuál es la
asociación entre los FR que se consideran y la enfermedad en estudio. Estos
estudios tienen tres amenazas a tomar en cuenta: el azar, los sesgos y los
confundidores.

Los resultados de un estudio son válidos si se minimizan los errores o sesgos y si


se puede estimar el parámetro verdadero de la población de estudio. Los estudios
epidemiológicos siempre están sujetos a cierto margen de error. Conocer cuáles y
de dónde vienen esos errores y cómo minimizar el impacto que pueden producir en
los resultados es imprescindible para que una investigación sea de calidad.

Los errores pueden ser sistemáticos o no aleatorios y no sistemáticos o aleatorios;


es de suma importancia controlarlos adecuadamente para que no afecten la validez
de los estudios.

El error aleatorio (no sistemático) sucede cuando las mediciones repetidas,


obtenidas en el mismo sujeto o en distintos pacientes de la población en estudio,
varían de manera no predecible. En el error sistemático (no aleatorio), las medidas
obtenidas varían de manera predecible, por lo que se tiende a sobrestimar o
subestimar el valor verdadero de esas medidas repetidas.

Los estudios tienen validez interna cuando, independientemente de algún error


aleatorio, las diferencias informadas del evento entre los dos grupos de estudio
(individuos expuestos y no expuestos) solo se pueden atribuir al FR (exposición en
estudio). Los sesgos son errores sistemáticos que pueden ocurrir en el diseño y
tienen una dirección
determinada mientras se realiza el estudio, durante el análisis de los resultados y
cuando se publica. Por ejemplo, el peso de los sujetos de investigación, que puede
medirse con distorsión debido a que el equipo arroja un error mayor al real;
entonces, todos los pacientes registran un peso mayor al que tienen realmente. La
validez interna puede verse afectada por un sesgo que ocurra en el diseño o en la
conducción del estudio de investigación. Dos tipos de sesgos muy importantes son
el de selección y el sesgo de información.

La validez de un estudio hace referencia a la ausencia de error o sesgo. La validez


interna se relaciona con errores cometidos durante el proceso de selección de los
sujetos a estudiar, con las mediciones que se realizan en ellos o por errores
surgidos por la falta de comparabilidad de los grupos del estudio. La validez externa
se asocia con la generalización de los resultados observados en los sujetos de
estudio (Hernández-Ávila, Garrido, y Salazar-Martínez, 2000).

Los sesgos, que son un problema general en los estudios de IC, y que es
imprescindible evitarlos, pueden prevenirse eligiendo correctamente el diseño
adecuado según la hipótesis del estudio y, también, en la etapa de preparación de
la investigación hay que establecer de manera correcta y rigurosa cuáles son los
procedimientos para el empleo de los datos y las definiciones de las exposiciones y
los resultados. Hay que tomar un tiempo necesario para trabajar en estos aspectos.

El sesgo aparece como un problema extremadamente importante en la IC. Hay que


realizar una evaluación crítica y analizar, mientras se arma el protocolo de trabajo,
cuáles son los posibles sesgos y cómo se pueden prevenir.

¿Cómo identificar los sesgos? Se toman como ejemplo los estudios


observacionales, como el de casos y controles, y los analíticos, como el de
cohortes. Algunas preguntas para tomar en cuenta:
● ¿La población del estudio está definida?
● ¿La población en estudio representa la población objetivo?
● ¿Son claras las definiciones de exposición y enfermedad?
● Si el diseño es de casos y controles, ¿está bien definido el caso?, ¿la definición es
precisa?
● ¿Están bien definidos los criterios de inclusión y exclusión?
● Si el diseño es de casos y controles, ¿los controles representan la población de la cual

provienen los casos?

● Si es un estudio de cohortes, ¿los grupos de estudio son semejantes, excepto por la

exposición?

● Si es un diseño de casos y controles, ¿la exposición puede llegar a influir en la


selección

de los casos o los controles?

● ¿Las mediciones son lo más objetivas posible?


● ¿El seguimiento es adecuado?
● ¿El seguimiento es el mismo en los dos grupos (expuesto y no expuesto)?
● ¿El análisis estadístico es el apropiado?
● ¿Los resultados soportan la interpretación estadística?

Los sesgos no son el único problema grave en los estudios de investigación. Es


muy importante, a la hora de analizar los resultados, si hay otras variables que
interfieren con ellos, como los confundidores que, como el término lo indica, pueden
confundir las asociaciones arrojadas por los resultados preliminares
(Hernández-Ávila et al., 2000; Sitthi amorn & Poshyachinda, 1993).

[Link]. Confundidores o factores de confusión

En general, los resultados de los estudios de investigación pueden estar


distorsionados por los sesgos, los confundidores y el azar. Los confundidores o
factores de confusión son variables que actúan alterando la asociación que se
estudia entre un FR y un evento o enfermedad. Debido a la confusión provocada
entre las tres variables, el FR, el evento y el confusor, se analizan las asociaciones
informadas, ya que a veces no resultan verdaderas. El confundidor da una
explicación alternativa a la asociación de interés encontrada, confundiendo la
asociación en estudio. Si la variable confundidora está relacionada tanto con la
exposición como con el evento (resultado) de interés, hay confusión.
Características de una variable confundidora en el marco de una investigación

causal

a. Tiene que ser un factor asociado con la exposición de interés (asociación causal o

no).

b. Tiene que ser un FR para el evento en estudio (asociación entre FR y evento).

c. No tiene que estar en el camino causal del factor de exposición en estudio


(entre el FR del estudio y el evento). El efecto del factor de exposición en
estudio no causa el evento en estudio mediado por el confundidor.

Por ejemplo, si se realiza un estudio para encontrar una asociación entre el café y
el cáncer de páncreas se obtiene un resultado X. Al incorporar la variable
‘tabaquismo’, el resultado a obtener puede ser uno diferente de X, que fortalece la
asociación o la debilita. El factor de confusión puede ser el auténtico FR para el
evento. Así, estudiamos si el café produce cáncer de páncreas, pero hay una
variable que puede confundir la posible asociación: el tabaquismo (Figura 6).

Figura 6. Ejemplo de un factor de confusión; en este caso, el tabaquismo

Si al controlar el factor de confusión, la asociación:

● se debilita o desaparece: el factor de confusión es positivo;


● se fortalece: el factor de confusión es negativo.

Los confundidores se controlan principalmente en la fase de diseño; el efecto de los


factores de confusión no medidos o no conocidos solo se controla mediante la
asignación al azar en los estudios con un tamaño de la muestra (n) muy grande, y
en la de análisis. A los resultados se les puede aplicar, ante la sospecha de un
confusor, un análisis “estratificado” (los FR se dividen en categorías o estratos para
su estudio), siempre que el tamaño de la muestra sea grande y no haya muchos
confusores; la estratificación tiene esa limitación. También, durante el análisis de los
datos se puede realizar un análisis de regresión multivariable (estudio de la relación
entre las variables independientes o predictoras [FR] y la variable dependiente o
variable de respuesta). Si hay factores de confusión no identificados, no pueden
controlarse mediante el análisis estadístico (Pannucci & Wilkins, 2010).

1.4. Ética en la investigación clínica

El objetivo final de toda investigación biomédica que involucra a las personas es


mejorar los procedimientos diagnósticos, terapéuticos y de prevención; también, el
conocimiento de las causas de las enfermedades y su patogénesis. Pero las
investigaciones deben incluir la protección de los individuos como principio.
Para que el desarrollo de las investigaciones con seres humanos se enmarque en
principios éticos generales, en la reunión celebrada en 1964, entre investigadores
de la World Medical Association, se promulgó la Declaración de Helsinki con los
principios éticos imprescindibles para la investigación médica en seres humanos,
incluidas la investigación con material humano (muestras biológicas) y con
información de los datos de carácter personal para su identificación. La Declaración
de Helsinki se constituye en el referente internacional en la ética en investigación
humana y es incorporada a varias legislaciones nacionales. Con el tiempo, es
sometida a siete revisiones; la última es del 19 de octubre de 2013, realizada en
Fortaleza, Brasil.

Como puntos destacables, mencionamos el papel de los comités de ética de


investigación, que regulan las implicancias de las investigaciones en salud; su
objetivo es proteger los derechos fundamentales de los seres humanos
involucrados en los protocolos de investigación, pero también reforzar la necesidad
de promover la investigación en salud y la firma de un consentimiento informado.

El consentimiento informado contempla el respeto por los derechos de las personas


que participan como sujetos de estudio; especialmente, el cuidado de su autonomía
y la garantía al acceso a la información para que puedan decidir voluntariamente
acerca de su incorporación y permanencia durante el desarrollo de la investigación.
Otra implicancia del consentimiento informado es el cuidado de los sujetos que
pertenecen a poblaciones vulnerables y la atención a las cuestiones relacionadas
con su cultura.
Figura 7. Principios de la bioética
Fuente: adaptado de Rivas Muñoz, 2013.

La bioética es una rama de la ética, más abarcadora que la ética médica. No se


puede prescindir de sus principios a la hora de desarrollar IC. Esta disciplina se rige
por cuatro principios básicos: el principio de autonomía, el de beneficencia, el de
justicia y el principio de no maleficencia (Figura 7).

Principio de autonomía: se refiere a la obligación moral de respetar a los sujetos


en sus decisiones sobre su salud y el derecho a recibir, por parte de los
profesionales, la verdad sobre su situación clínica, para lograr un mayor
entendimiento de esta.

● Principio de beneficencia: los profesionales de la salud se ven obligados a


hacer el bien a los individuos bajo su responsabilidad, respetando la opinión
que los sujetos consideran.
● Principio de justicia: considera la equidad, donde se reparten
obligatoriamente los beneficios y las cargas, como también el acceso, de
manera justa, a los recursos en salud.
● Principio de no maleficencia: los profesionales de la salud se ven obligados a
evitar y prevenir el daño intencionado, tanto físico como psíquico, y moral o
social.

Terminamos el capítulo con los principios éticos básicos que deben atravesar toda
la investigación en seres humanos; ajustarnos a estos principios rigurosamente
significa obtener una investigación de calidad, que respete los principios humanos.
Lamentablemente, la proclamación de los principios éticos en esta área surge de los
abusos que se produjeron en la historia contra las personas, que no respetaron su
dignidad como tales y avasallaron sus derechos. Los derechos de la persona sobre
la cual se investiga está sobre todo interés personal de los investigadores. La
responsabilidad del profesional y su honestidad deben ser lo suficientemente
importantes para evitar todo “manejo” que pueda significarle un rédito personal. Lo
mismo para los conflictos de interés; no se acepta que exista un conflicto de interés
en los investigadores y, si trabajan para la industria farmacéutica o instituciones
relacionadas con la necesidad de obtener resultados determinados de las
investigaciones, esto se debe denunciar. El trabajo de investigación va de la mano
de la ética en cada disciplina; uno sin el otro no pueden arrojar resultados
significativos para el aporte a la humanidad, siempre esperanzada en
descubrimientos nuevos que puedan aliviar los males que padece.

1.5. Bibliografía

Administración Nacional de Medicamentos, Alimentos y Tecnología Médica


(ANMAT), Ministerio de Salud, Presidencia de la Nación. (2016, marzo 21). La
ANMAT y la investigación clínica. Recuperado septiembre 3 2018, de
[Link]

Aguirrezabala, I. A., López Santiago, A., González Valverde, F. M., Ruiz Merino,
G., García García, T., ... & López Martínez, A. (2012). Metodología de la
investigación y práctica clínica basada en la evidencia: Programa Transversal y
Complementario del Residente (PTCR). Murcia: Comunidad Autónoma, Consejería
de Sanidad.

ANMAT. (s/f). Acerca de las normas vigentes de la ANMAT para el desarrollo de la


investigación clínica farmacológica. Recuperado agosto 21 2018, de
[Link] Aparasu, R. R. (s/f). The scientific approach to research and
practice. Recuperado septiembre 3 2018, de [Link]

Bellido Blasco, J. B. (2016). Introducción a los estudios epidemiológicos.


Valencia: Escola Valenciana d’Estudis de la Salut. Recuperado septiembre 4 2018,
de [Link] Bellón, J. M. (2014, marzo 1). Estudios
epidemiológicos IV: ensayos clínicos. EMEI. Recuperado agosto 21 2018, de
[Link]

Bunge, M. (2014). La ciencia, su método y su filosofía. Sudamericana.


Bunge, M. (2004). La investigación científica (4a ed.). México DF: Siglo XXI.
Recuperado agosto 21 2018, de [Link]

Dirección Nacional de Información Científica, Subsecretaría de Estudios y


Prospectiva. (2013, marzo). Sistema integrado de indicadores de ciencia,
tecnología e innovación. Anexo metodológico. Secretaría de Planeamiento y
Políticas, Ministerio de Ciencia, Tecnología e Innovación Productiva, Presidencia de
la Nación. Recuperado septiembre 3 2018, de [Link]

Funcionamiento de una investigación: aspectos básicos. (s/f).

Recuperado septiembre 3 2018, de [Link]

Hernández-Ávila, M., Garrido, F., y Salazar-Martínez, E. (2000,


septiembre-octubre). Sesgos en estudios epidemiológicos. Salud Pública de
México, 42(5), 438-46. Ibáñez, J. J. (2007, febrero 10). Las teorías científicas según
Karl Popper: la falsabilidad. Un universo invisible bajo nuestros pies. Recuperado
agosto 21, 2018, de [Link] Instituto Nacional del Cáncer. (s/f).
Investigación clínica. Diccionario de cáncer. Recuperado septiembre 4 2018, de
[Link]

Masic, I., Miokovic, M., & Muhamedagic, B. (2008). Evidence based


medicine—new approaches and challenges. Acta Inform Med, 16(4), 219-25.

McGartland Rubio, D., Schoenbaum, E. E., Lee, L. S., Schteingart, D. E.,


Marantz, P. R., … & Esposito, K. (2010, marzo). Defining translational research:
implications for training. Acad Med, 85(3), 70- 475.

Molina Arias, M., Ochoa Sangrador, C. (2013, septiembre). Tipos de estudios


epidemiológicos. Evidencias en Pediatría, 9(3), 53. Recuperado de
[Link] Naranjo, S. (2013, julio-diciembre). El azar y la necesidad
en Jacques Monod. Hacia el encuentro de los opuestos. Revista Venezolana de
Análisis de Coyuntura, XIX(2), 243-59. Recuperado de [Link] Pannucci,
C. J., & Wilkins, E. G. (2010, agosto). Identifying and avoiding bias in research.
Plast Reconstr Surg, 126(2), 619-25.
Pita Fernández, S. (2001). Tipos de estudios clínico epidemiológicos.
Recuperado de [Link]

Pita Fernández, S., Pértegas Díaz, S. (2002). Investigación cuantitativa y


cualitativa.

Cad Aten Primaria, 9, 76-8. Recuperado de [Link]

¿Por qué los investigadores realizan distintos tipos de estudios clínicos? (s/f).

National Institutes of Health. Recuperado de [Link]

¿Qué son los estudios clínicos? (2016, junio 27). Instituto Nacional del Cáncer.

Recuperado septiembre 3 2018, de [Link]


Real Academia Española. (2017). Ciencia. Diccionario de la lengua española ( 23

a ed.). Madrid. Recuperado de [Link]

Real Academia Española. (2017). Tecnología. Diccionario de la lengua española

(23a ed.). Madrid. Recuperado de [Link]

Rivas Muñoz, R. (2013). Principios fundamentales de la bioética. Recuperado

agosto 22 2018, de [Link]

Rothman, K. J., & Greenland, S. (s/f). Types of epidemiologic studies.

Recuperado de [Link]

Sackett, D. L. (2005). Evidence-based medicine. Encyclopedia of biostatistics.

Sampieri, R. H. (2000). Metodología de la investigación (6a ed.).


Sharma, N., & Annigeri, R. G. (2018, enero-marzo). Translational research in oral
cancer: “A challenging key step in moving the bench to bedside”. J Cancer Res
Ther, 14(2), 245-8. Sitthi-amorn, C., Poshyachinda, V. (1993, julio). Bias. Lancet,
342(8866), 286-8.
Trejos B., O. I. (2012). Consideraciones sobre el método científico y su papel en el
desarrollo del pensamiento científico del ingeniero de sistemas. Scientia Et
Technica, XVII(50), 90-6. Recuperado de [Link]
Capítulo 2. Conceptos básicos de biología molecular

María Susana Alonso


Valeria Burgos

2.1. Introducción

El estudio de las células y la dinámica de sus moléculas ha tenido un avance muy


importante en los últimos años y a partir del Proyecto Genoma Humano se avanzó
en el conocimiento de los mecanismos moleculares relacionados con los genes y la
producción de las proteínas. La investigación básica de la biología molecular y
celular fue clave para el descubrimiento de los mecanismos del metabolismo celular
y de la herencia de la información genética, lo que trajo como consecuencia la
transformación profunda del campo de la medicina e impulsó el desarrollo de la
investigación biomédica porque se incrementó la producción de conocimiento y los
avances en las tecnologías aplicadas a la medicina.

De particular importancia para la biología molecular son los ácidos nucleicos (ADN
y ARN) y las proteínas construidas sobre la base de las instrucciones codificadas
en ellos. También pueden estudiarse otras biomoléculas, como los carbohidratos y
los lípidos, y sus interacciones con los ácidos nucleicos y las proteínas.

2.2. La célula

La célula es el componente básico de todos los seres vivos. Proporciona estructura


para el cuerpo, absorbe los nutrientes de los alimentos, convierte esos nutrientes en
energía y lleva a cabo funciones especializadas. Las células también contienen el
material hereditario y pueden hacer copias de sí mismas.

Todas las células pertenecen a una de dos amplias categorías: procariota y


eucariota. Solo los organismos unicelulares de los dominios Bacteria y Archaea se
clasifican como procariotas (pro significa antes y cariota deriva del término griego
núcleo). Los animales, las plantas, los hongos y los protistas son eucariotas (eu
significa verdadero) y están formados por células eucariotas.

Independientemente de si una célula es procariota o eucariota, todas comparten cuatro

componentes clave:

● la membrana plasmática: es una cubierta externa que separa el interior de la célula


de su entorno circundante;

● el citoplasma: es una solución que llena cada célula y está encerrada por la
membrana plasmática. Está compuesto principalmente por agua, sales y
proteínas. En las células eucariotas, el citoplasma incluye todo el material
dentro de la célula y fuera del núcleo. Aunque parece que el citoplasma no
tiene forma o estructura, en realidad está muy organizado. Un marco de
andamios proteicos denominado citoesqueleto proporciona su estructura al
citoplasma y a la célula;
● el ADN: es el material genético de la célula;
● los ribosomas: son las maquinarias moleculares que sintetizan proteínas.

A diferencia de las células procariotas, las células eucariotas tienen:

● núcleo, rodeado por una membrana que contiene el material genético de la célula;
● organelas rodeadas de membrana: son compartimentos con funciones especializadas

que flotan en el citoplasma;

● múltiples cromosomas lineales: a diferencia del cromosoma circular único de un

organismo procariota.

Las células eucariotas son mucho más complejas que las procariotas. Tienen una
variedad de estructuras subcelulares que desempeñan un papel importante en el
equilibrio energético, el metabolismo y la expresión génica (Figuras 8 y 9).

Figura 8. Esquema de una célula eucariota


Fuente: Nelson, 2018.
Figura 9. Esquema de una célula procariota
Fuente: Openstax Content, s/f.

2.3. Los componentes de los ácidos nucleicos

2.3.1. Estructura primaria

Los ácidos nucleicos son polímeros lineales formados por una larga cadena de
subunidades repetitivas denominadas nucleótidos. Desde el punto de vista químico,
existen dos tipos semejantes de ácidos nucleicos: el ácido desoxirribonucleico
(ADN) y el ácido ribonucleico (ARN). La función principal de los ácidos nucleicos es
la de almacenar y transmitir la información genética.

Cada nucleótido está compuesto por tres partes: un azúcar de cinco carbonos, un

grupo fosfato y una base nitrogenada.

● En el ARN, los nucleótidos contienen un azúcar denominado ribosa, mientras


que, en el ADN, los nucleótidos contienen el azúcar llamado desoxirribosa.
Esta diferencia ocurre debido a la presencia o ausencia (“desoxi”) de un
oxígeno en la posición 2’. Esta pequeña distinción entre el ARN y el ADN
influyen de manera importante en su función.
● En cuanto a las bases nitrogenadas, dos de ellas tienen una estructura
doble de anillo carbono-nitrógeno: adenina (A) y guanina (G). Se denominan
purinas. Las bases restantes son timina (T), citosina (C) y uracilo (U), que
tienen una estructura de anillo simple y se denominan pirimidinas. La timina
solo se halla en el ADN, mientras que la uridina es específica para el ARN
(Figura 10).
● El grupo fosfato (PO4) es el que da la propiedad de un ácido (es decir, una
sustancia que libera un ion H + en solución) en pH fisiológico al ADN y el ARN.
El grupo fosfato de un nucleótido se une de manera covalente con la
molécula de azúcar del nucleótido siguiente y así sucesivamente,formando un
polímero largo de monómeros de nucleótidos.

Figura 10. Las bases nitrogenadas presentes en el ADN y ARN

Fuente: adaptado de “Nucleotides and nucleic acids”, 2017.

2.3.2. Estructura secundaria

Las estructuras primarias del ADN y ARN en general son bastante similares. Sin
embargo, el ARN existe como una cadena única de polinucleótidos, una única
hebra. La estructura biológicamente activa del ADN es más compleja que la cadena
única de nucleótidos unidos por enlaces fosfodiéster. El ADN existe como dos
hebras entrelazadas que forman una estructura de doble hélice. Los grupos
azúcar-fosfato se alinean en una “columna vertebral” para cada hebra individual de
ADN y las bases de nucleótidos sobresalen de esta columna. Esta diferencia
estructural de hebra simple o doble es crítica en cuanto a las diferentes funciones
de ambos tipos de ácidos nucleicos. La estructura de doble hélice de la molécula de
ADN representa un ícono para la biología moderna.

2.3.3. Estructura del ARN

La molécula de ARN es mucho más pequeña que la de ADN y no forma doble


cadena. Su estructura es muy parecida, salvo que la pentosa que contiene es una
ribosa y el uracilo reemplaza a la timina del ADN. Existen muchos tipos de ARN,
con conformaciones variadas y tamaños diferentes, para realizar distintas funciones
en las células.

La estructura primaria de las moléculas de ARN está definida por la secuencia de


nucleótidos que las componen, que pueden adquirir una estructura secundaria al
aparearse las bases complementarias, generando horquillas o bucles de varios
tipos y, también, estructuras terciarias más complejas con dominios estructurados
semejantes a los de las proteínas. Algunos de esos dominios pueden tener
actividad catalítica. Por ejemplo, las ribozimas son moléculas de ARN catalíticos, tal
como las que participan en el proceso de splicing por el que se obtiene un ARN
maduro en la síntesis de proteínas.

Los tres ARN principales que están relacionados con la síntesis de proteínas son el ARN

mensajero (ARNm), el ARN de transferencia (ARNt) y el ARN ribosomal (ARNr).

2.3.4. Estructura del ADN

En la década del 50, Francis Crick y James Watson son investigadores que
trabajaban juntos en la University of Cambridge, en Inglaterra, para determinar la
estructura del ADN. Otros científicos, como Linus Pauling, Maurice Wilkins y
Rosalind Franklin, también exploran activamente este campo. Watson y Crick
proponen que el ADN está formado por dos hebras que se tuercen, una alrededor
de la otra, para hacer una hélice hacia la derecha, denominada doble hélice. El
emparejamiento de bases tiene lugar entre una purina y una pirimidina: es decir, A
se empareja con T y G se empareja con C. En otras palabras, la adenina y la timina
son pares de bases complementarias, y la citosina y
la guanina también son pares de bases complementarias. La adenina y la timina
están conectadas por dos enlaces de hidrógeno, en tanto que la citosina y la
guanina están conectadas por tres enlaces de hidrógeno. Las dos hebras son
antiparalelas por naturaleza (Figura 11).
Figura 11. Estructura de la molécula de ADN

Fuente: adaptado de “Nucleic acids”, s/f

Cuando una célula está por dividirse, el ADN es replicado y debe leerse la
información genética que contiene en su secuencia para codificar proteínas. Dado
que las moléculas de ADN pueden ser muy largas, están empaquetadas de manera
muy ordenada para ajustarse y funcionar dentro de la célula. Los organismos
procariotas son mucho más simples que los eucariotas en este sentido: la mayoría
de los procariotas contiene un cromosoma circular único que se halla en el área del
citoplasma denominada nucleoide.

En cambio, los organismos eucariotas, cuyos cromosomas consisten cada uno en


una molécula de ADN lineal, tienen un tipo diferente de estrategia de
empaquetamiento del ADN dentro del núcleo: el ADN se envuelve alrededor de las
proteínas, denominadas histonas, para formar estructuras llamadas nucleosomas.
Así, el ADN está envuelto firmemente alrededor del núcleo de la histona. Este
nucleosoma está vinculado al siguiente por una cadena corta de ADN, libre de
histonas. Los nucleosomas, con su ADN enrollado a su alrededor, se apilan uno
sobre el otro para formar una fibra de 30 nm de ancho. Esta fibra se enrolla aún más
en una estructura más gruesa y compacta (Figura 12).
Figura 12. Ilustración del grado de compactación de un cromosoma eucariota

2.3.5. Replicación del ADN

La replicación del ADN implica un mecanismo tal que permite la transmisión idéntica
de la información genética a la célula hija. Es el mecanismo esencial que permite al
ADN sintetizar una copia exacta de sí mismo. La información que contiene, para que
se pueda replicar, está incluida en la misma estructura doble y complementaria de la
hélice de la molécula. Las dos hebras complementarias del ADN original se abren y
las bases apareadas, que están unidas por puentes de hidrógeno, se separan; cada
una sirve de molde o guía para dirigir la síntesis de una nueva cadena
complementaria de esa cadena molde a lo largo de toda la hebra. De esta forma,
cada doble hélice nueva contiene una de las cadenas del ADN original. Por esta
razón, la duplicación del material genético se produce de acuerdo con un
mecanismo semiconservativo: cuando se divide una célula, las células hijas reciben
ADN de doble cadena; así, una de las cadenas es la original o parental (de la
generación progenitora) y la otra es la nueva, recién sintetizada (Figura 13). Este
proceso de replicación ocurre una vez en cada generación celular, en la fase S del
ciclo celular. Luego, continúa la división mitótica o la meiosis, según la célula
simplemente tenga que dividirse o formar gametas (en seres humanos,
espermatocitos y ovocitos).
Figura 13. Replicación semiconservativa del ADN
Fuente: “El DNA, el código genético y su traducción”, s/f.

Debido a la complejidad del genoma eucariota, la replicación del ADN es un proceso


que involucra a varias enzimas: además de la ADN polimerasa (que es la enzima
que añade nucleótidos uno por uno a la cadena de ADN en crecimiento e incorpora
solo aquellos que son complementarios a la cadena molde), intervienen la ADN
primasa, la ADN helicasa, la ADN ligasa y la topoisomerasa. El proceso ocurre en
tres etapas principales: iniciación, elongación y terminación.

Durante la iniciación, el ADN se hace accesible a las proteínas y las enzimas


involucradas en el proceso de replicación. Como el ADN en eucariotas está
fuertemente unido a histonas (que constituyen los nucleosomas) y, además, es muy
largo, el proceso de replicación parece bastante lento. Por ello, el cromosoma
eucariota cuenta con varios sitios denominados orígenes de replicación, que son
reconocidos por su secuencia y, así, permiten que el proceso se realice más
rápidamente. En el microscopio electrónico, la zona de síntesis del ADN se observa
como una burbuja, denominada burbuja de replicación. En esa región de replicación
se genera una estructura en forma de Y llamada horquilla de replicación, que
avanza a lo largo de la doble hélice parental.

Como características clave de las ADN polimerasas mencionamos que siempre


necesitan un molde, solo pueden agregar nucleótidos al extremo 3 ‘de una cadena
de ADN, requieren una cadena preexistente o un fragmento corto de nucleótidos
que sirve como primer o cebador y, a medida que van sintetizando, verifican y
eliminan los nucleótidos agregados incorrectamente a la cadena. La ADN helicasa
es la primera enzima en ubicarse en el origen de replicación. Su función consiste en
mover las horquillas de replicación “desenrollando” el ADN (es decir, rompiendo los
enlaces de hidrógeno entre los pares de bases nitrogenadas). Durante la
elongación, la enzima ADN polimerasa agrega nucleótidos de ADN al extremo 3’ del
molde. Sin embargo, primero necesita que la enzima ADN primasa produzca un
cebador de ARN, es decir, un tramo corto complementario a la cadena molde que
proporcione un extremo 3’ para que funcione la ADN polimerasa. El cebador
prepara la síntesis de ADN, es decir, la inicia. Una vez que el cebador de ARN está
en su lugar, la ADN polimerasa lo “extiende”, añadiendo nucleótidos uno por uno
para formar una nueva cadena de ADN, complementaria a la cadena molde.

La cadena que crece de manera continua se denomina adelantada o líder; la otra,


que se va sintetizando por fragmentos, es la cadena retrasada. En la horquilla de
replicación, la síntesis se realiza en el único sentido posible, 5’-3’ en la hebra
adelantada, y en la hebra retrasada se realiza por fragmentos de manera
discontinua, a partir de cebadores que se sintetizan cada cientos de nucleótidos.
Los fragmentos se denominan fragmentos de Okazaki. Luego, los fragmentos de
ARN de la hebra retardada se degradan y son reemplazados por ADN. Por último,
los fragmentos de Okazaki, según el orden en que fueron sintetizados, se unen a la
enzima ADN ligasa para formar la nueva cadena de ADN.

El desenrollamiento y la síntesis de las dos hebras ocurren de manera simultánea.


Mientras que, para la síntesis de la cadena adelantada, la ADN polimerasa necesita
un solo cebador para que la enzima se una y comience a actuar, la cadena
retrasada necesita varios primers, que son sintetizados por la enzima ARN primasa.
Esta enzima sintetiza pequeños primers de ARN, de aproximadamente 10
nucleótidos de longitud. Luego, los primers son elongados por la ADN polimerasa y,
de esta manera, se forman los fragmentos de Okazaki. La síntesis de los
fragmentos continúa hasta que la polimerasa contacta el primer de ARN que está
unido al extremo 5’ del fragmento anterior (Figura 14).

Figura 14. Esquema de la replicación del ADN

Fuente: “Molecular mechanism of DNA replication”, s/f.


2.3.6. Dogma central de la biología molecular

En 1957, Francis Crick denomina dogma central de la biología molecular a la


descripción del flujo de información que involucra el material genético. Este principio
fundamental establece que la información que se halla en la secuencia específica
de nucleótidos que codifican para una proteína es copiada a una molécula de
ARNm y luego traducida a una proteína. El dogma establece que la información no
se transmite de una proteína a otra ni de una proteína a un ácido nucleico. De todas
maneras, con el tiempo se descubre que existen excepciones: en los retrovirus
ocurre la síntesis de ADN a partir de ARN por medio de una enzima denominada
transcriptasa reversa (Figura 15).

El flujo de información de ADN a ARNm es la transcripción, y de ARNm a proteína,


traducción.

Figura 15. Dogma central de la biología molecular

Fuente: Garrigues, 2016.

Tanto en organismos procariotas como en eucariotas, la segunda función del ADN


(la primera es la replicación) es proporcionar la información necesaria para construir
las proteínas necesarias para que la célula realice todas sus funciones.

[Link]ón: del ADN a ARNm

Al comparar la transcripción entre una célula procariota y eucariota es que, en esta


última, el núcleo contiene el ADN. Así, la transcripción ocurre en el núcleo de la
célula y, luego, el ARNm debe ser transportado al citoplasma. Los procariotas
carecen de núcleos y la transcripción se produce en el citoplasma de la célula.
La transcripción es el primer paso en la expresión génica: la información de un gen
se usa para construir un producto funcional como una proteína. El objetivo de la
transcripción es hacer una copia de ARN de la secuencia de ADN de un gen. Para
un gen que codifica proteínas, la copia de ARN o transcripción lleva la información
necesaria para construir un polipéptido (proteína). Los transcriptos eucariotas deben
pasar por algunos pasos de procesamiento antes de la traducción a proteínas.

En el proceso de transcripción intervienen las enzimas denominadas ARN


polimerasas, que utilizan ADN molde de cadena simple para sintetizar una cadena
complementaria de ARN. La ARN polimerasa sintetiza una cadena de ARN en la
dirección 5’ a 3’, añadiendo cada nuevo nucleótido al extremo 3’ de la cadena
(Figura 15).

Antes de que ocurra la transcripción, la doble hélice de ADN debe relajar cerca de la
secuencia codificante para el gen a transcribir. El sitio en el ADN desde el cual se
transcribe el primer nucleótido de ARN se denomina +1 o sitio de inicio. Los
nucleótidos que vienen antes de este reciben números negativos y están “río
arriba”. Los nucleótidos que vienen después del sitio de iniciación están marcados
con números positivos y están “río abajo”.

2.4.1. Etapas de la transcripción

[Link]. Inicio

En eucariotas, para comenzar a transcribir un gen es necesario, primero, que se


forme un complejo de iniciación, que consta de un complejo de proteínas
denominadas factores de transcripción. Los factores de transcripción generales
reconocen la secuencia promotora del gen a transcribir y se ensamblan de manera
secuencial en un complejo proteico que colabora para que la ARN polimerasa se
ubique en el sitio de inicio de la transcripción. Además, muchos promotores
eucariotas tienen una secuencia denominada caja TATA, rica en adenina y timina.
La caja TATA es reconocida de manera específica por uno de los factores de
transcripción generales, lo que permite que otros factores de transcripción y,
eventualmente, la ARN polimerasa se unan.

[Link]. Elongación

Durante esta etapa se produce el crecimiento de la molécula de ARN. La ARN


polimerasa es fosforilada y se debilita su unión al promotor y se separa del complejo
de iniciación para, luego, abrir una región pequeña de la doble hélice, donde quedan
expuestos pocos nucleótidos de las dos cadenas de ADN. El complejo de iniciación
sigue unido al promotor, aunque la mayoría de los factores de transcripción
generales es liberada para ser utilizada nuevamente con otras moléculas de ARN
polimerasa. Durante la elongación, la ARN polimerasa se mueve a lo largo de una
cadena de ADN, denominada cadena molde, en la dirección 3’ a 5’. Para cada
nucleótido en la cadena molde, la ARN polimerasa agrega un nucleótido de ARN
complementario al extremo 3’ de la cadena de ARN. Las cadenas de ARN tienen la
base de uracilo (U) en lugar de timina (T).

Figura 16. Esquema del proceso de transcripción

Fuente: Molnar & Gair, 2013.

[Link].Terminación

En eucariotas, para que se termine de sintetizar la molécula de ARN, la ARN


polimerasa deja de actuar, se detiene, libera la cadena de ADN molde y la cadena
nueva de ARNm. Las moléculas nuevas de ARNm se denominan transcriptos
primarios.

2.4.2. Procesamiento del ARNm en eucariotas

A diferencia de las bacterias, cuyos transcriptos de ARN están listos para actuar
como ARN mensajeros y ser traducidos a proteínas de inmediato, en eucariotas, el
ARN directamente producido (pre-ARNm) debe madurar y ser procesado antes de
convertirse en una molécula de ARNm madura y ser transferida al citoplasma. Los
pasos adicionales implicados en la maduración de ARNm eucariota dan estabilidad
a la molécula. Estos pasos son:

● La adición de un casquete o cap al extremo 5’ del transcripto primario del ARNm.


● El agregado de una cola de poli-A (una secuencia de nucleótidos adenina)
en el extremo 3’ del transcripto primario del ARNm.

● El corte de secuencias no codificantes de proteínas y la unión de las secuencias

remanentes codificantes.

2.4.3. 5’ cap y poliadenilación

Ambos extremos de un pre-ARNm se modifican mediante la adición de grupos


químicos. El grupo al comienzo (extremo 5’) se denomina cap o casquete, mientras
que el grupo al final (extremo 3’) es la cola. Ambas modificaciones protegen al
transcripto y ayudan en su exportación, desde el núcleo hacia el citoplasma, para
ser traducidos en los ribosomas (que son las “máquinas” que producen proteínas).

El 5’ cap se agrega al primer nucleótido en el transcrito durante la transcripción. El


cap es un nucleótido modificado de guanina (G) y protege al transcripto de la
degradación. También, ayuda a que el ribosoma se una al ARNm y comience a
leerlo para formar una proteína.

En cuanto al agregado de la cola de poli-A, cuando aparece una secuencia


denominada señal de poliadenilación en una molécula de ARN durante la
transcripción, una enzima corta en ese sitio el ARN en dos. Otra enzima agrega
aproximadamente 100 a 200 nucleótidos de adenina (A) al extremo cortado,
formando una cola de poli-A (Figura 17).

Figura 17. Ilustración de las modificaciones postranscripcionales: adición del 5’ cap

y cola de poli-A

Fuente: adaptado de “Eukaryotic pre-mRNA processing”, s/f.

2.4.4. Splicing

Los genes eucariotas están compuestos por secuencias codificantes de proteínas


denominadas exones y secuencias intermedias (no codificantes) llamadas intrones.
Los intrones son eliminados durante el procesamiento y la maduración del
pre-ARNm. Es esencial que todos los intrones del pre-ARNm se eliminen
completamente antes de la síntesis de proteínas, para que luego los exones se
unan y así codifiquen a los aminoácidos correctos. El proceso de remover intrones y
reconectar exones se denomina splicing (Figura 18).
El splicing o corte y empalme representa una ventaja evolutiva en los organismos
eucariotas porque permite que aparezcan proteínas nuevas con diversas funciones
y especificidad para garantizar la supervivencia y la evolución de los organismos
muy complejos.

En el empalme de ARN, las partes específicas del pre-ARNm, denominadas intrones,

son reconocidas y eliminadas por un complejo de proteína y ARN llamado

espliceosoma.

El mecanismo simplificado de splicing es el siguiente: en un primer paso, se unen al


pre-ARNm unas partículas muy pequeñas de ARN nucleares (small nuclear ARNs
[snARNs]) asociadas con proteínas. Estos son los complejos denominados small
nuclear ribonucleoprotein particles (snRNP). Existen cinco tipos de snRNP, ricos en
uridina, que se unen a secuencias cortas ubicadas en los intrones, cercanas a los
exones (denominadas sitio dador en el extremo 5’ y sitio aceptor, en el extremo 3’).

La molécula de ARN del complejo reconoce a los intrones por apareamiento de


bases. Los snRNP realizan funciones de reconocimiento de esas secuencias y,
también, tienen funciones catalíticas. Luego, se añaden más proteínas, que con los
snRNP que forman un gran complejo que se denomina, en conjunto, espliceosoma.
Las funciones catalíticas del espliceosoma permiten que la reacción ocurra en
tiempos muy cortos. También, posibilita que el proceso de unión de ambos exones
sea específico, porque la unión entre ambos exones debe producirse exactamente
entre el último nucleótido del primer exón y el primer nucleótido del segundo exón. El
espliceosoma elimina los intrones y los exones del ADN que permanecen en el ARN,
que ahora es un ARNm maduro.
Figura 18. Ilustración del mecanismo de splicing en el proceso de maduración

del transcripto Fuente: adaptado de “Eukaryotic pre-mRNA processing”, s/f.

2.4.5. Splicing alternativo

En el proceso de splicing, a partir de un mismo transcripto primario, es posible


obtener más de un transcripto maduro. Esto está asociado con la obtención de uno
o muchos polipéptidos con funciones diferentes. Por lo tanto, el splicing alternativo
es un regulador clave de la expresión génica, ya que a partir de un único gen
codificante es posible obtener numerosos transcriptos, lo que aumenta en gran
medida el uso de la información genética (Figura 19). Por este proceso es posible
controlar la expresión génica, no solo eliminando los intrones, sino también según
las señales recibidas, uno o varios exones en distintas combinaciones y de manera
selectiva, de acuerdo con la proteína que la célula necesita producir. De esta
manera, la célula tiene un mecanismo importante que contribuye a la variabilidad de
la expresión génica específica en los tejidos y en las distintas etapas del desarrollo
del organismo. El proceso de splicing alternativo afecta a más del 88% de los genes
humanos que codifican proteínas (Kampa et al., 2004).
Figura 19. Proceso de splicing alternativo.

Fuente: adaptado de Belluscio, 2013.

2.5. Traducción

El proceso de traducción o síntesis de proteínas implica decodificar un mensaje a


partir del ARNm en un producto polipeptídico. Las estructuras generales y las
funciones de la maquinaria de síntesis de proteínas son comparables tanto en
bacterias como en células humanas. La traducción requiere una molécula de ARNm
como molde, ribosomas, ARNt y diversos factores enzimáticos.

Un ribosoma es una macromolécula compleja compuesta de ARNr estructurales y


catalíticos, y su función es la síntesis de polipéptidos. En procariotas, los ribosomas
se localizan en el citoplasma, mientras que en eucariotas lo hacen en el citoplasma
y el retículo endoplasmático. Los ribosomas están formados por una subunidad
grande y una subunidad pequeña que se unen para la traducción. La subunidad
pequeña es responsable de unir al ARNm, mientras que la subunidad grande se
une secuencialmente al ARNt (el ARNt es un tipo de molécula de ARN que
transporta aminoácidos a la cadena creciente del polipéptido). Cada molécula de
ARNm es traducida simultáneamente por muchos ribosomas; todos ellos sintetizan
proteínas en la misma dirección.

Existen entre 40 y 60 tipos de ARNt en el citoplasma. Los ARNt específicos se unen


a las secuencias en la molécula de ARNm molde y añaden el aminoácido
correspondiente a la cadena polipeptídica. Por lo tanto, los ARNt son las moléculas
que realmente “traducen” el lenguaje del ARN en el lenguaje de las proteínas.

2.5.1. El código genético


La información genética está establecida en la secuencia de bases del ARNm. El
código genético determina de qué manera la secuencia de bases se traduce en una
secuencia de aminoácidos que formarán las proteínas.

La transcripción genera ARNm, que es una copia de uno o más genes, con un
alfabeto de A, C, G y U. La traducción del ARNm convierte la información genética
basada en nucleótidos en un producto proteico. Las secuencias de proteínas
consisten en 20 aminoácidos. Por lo tanto, el alfabeto de proteínas consta de 20
letras. Cada aminoácido está definido por una secuencia de tres nucleótidos
denominada codón. La relación entre un codón de nucleótido y su aminoácido
correspondiente es lo que se denomina código genético.

El uso de un código de tres nucleótidos significa que hay un total de 64 (4 × 4 × 4)


combinaciones posibles. Por lo tanto, un aminoácido dado está codificado por más
de un triplete de nucleótidos (Figura 20).

Algunas características del código genético:

● es universal;
● es redundante (la mayoría de los aminoácidos está codificada por más de un codón);

de los 64 codones, 61 codifican aminoácidos. Los tres codones restantes (UGA,


UAG y UAA) actúan como señales de terminación en la síntesis de proteínas
(codones de terminación); existe un codón de iniciación (AUG), que brinda el
marco o cuadro de lectura que sirve para “leer” el mensaje de las bases del
ARNm. Si se modifica el marco de lectura, se altera por completo el mensaje y la
proteína puede sufrir alteraciones o no ser funcional.
Figura 20. Cuadro del código genético. El código genético es universal, funciona

en todos los seres vivos.

Representa los tripletes del ARNm (codones) que son complementarios de los anticodones

de los ARNt, que traducen el lenguaje del código a aminoácidos que formarán las proteínas

Fuente: adaptado de “El código genético”, s/f.

2.5.2. Mecanismo de síntesis de proteínas

Al igual que con la síntesis de ARNm, la síntesis de proteínas se puede dividir en


tres fases: iniciación, elongación y terminación. El proceso de traducción es similar
en procariotas y eucariotas.

En el caso de un organismo procariota representativo, Escherichia coli, la síntesis


de proteínas comienza con la formación de un complejo de iniciación. En E. coli,
este complejo implica la subunidad pequeña de ribosomas, la molécula de ARNm a
ser leída, tres factores de iniciación y un ARNt iniciador especial. El ARNt iniciador
tiene unida una forma especial del aminoácido metionina e interactúa con el codón
de inicio AUG. El aminoácido metionina inicial generalmente es eliminado del
polipéptido una vez que se completa la traducción.

Los pasos básicos de la elongación del polipéptido son similares en procariotas y


eucariotas. La gran subunidad ribosómica de E. coli consta de tres compartimentos:
el sitio A se une a ARNt cargados, cada uno, con sus aminoácidos específicos. El
sitio P se une a los ARNt cargados que llevan aminoácidos que han formado
enlaces con la cadena polipeptídica en crecimiento, pero que aún no se han
disociado de su correspondiente ARNt. El sitio E libera ARNt disociados para que
puedan recargarse con aminoácidos
libres (Figura 21). El ribosoma desplaza un codón a la vez, catalizando cada
proceso que ocurre en los tres sitios. Con cada paso, un ARNt cargado ingresa al
complejo, el polipéptido se convierte en un aminoácido más largo y se libera un
ARNt sin carga.

Figura 21. Esquema del mecanismo de la síntesis de proteínas

La terminación es la etapa en que se libera la cadena polipeptídica terminada.


Comienza cuando un codón de stop (UAG, UAA o UGA) ingresa en el ribosoma,
desencadenando una serie de eventos que separan la cadena de su ARNt y le
permiten liberarse del ribosoma. Luego de la terminación, el polipéptido aún puede
necesitar adquirir forma 3D correcta, someterse a procesamiento (como la
eliminación de aminoácidos), enviarse al lugar correcto en la célula o combinarse
con otros polipéptidos antes de que pueda hacer
su trabajo como una proteína funcional. Muchas proteínas poseen señales o
etiquetas específicas para ser dirigidas hacia distintos compartimentos dentro de la
célula o hacia el medio extracelular (núcleo celular, mitocondrias, peroxisomas,
membrana plasmática, etcétera).

2.5.3. Modificaciones postraduccionales de las proteínas

Las proteínas se pliegan de manera espontánea de acuerdo con las condiciones


fisiológicas. El plegamiento es un proceso complejo que está determinado por la
secuencia de aminoácidos y porque las proteínas tienden a adoptar la conformación
de mínima energía con base en esa secuencia. El plegamiento comienza durante la
traducción y las células poseen varios mecanismos para asegurarse que se realice
correctamente y, de esta manera, ser funcionales.

Una vez sintetizadas, la mayoría de las proteínas es modificada por la adición de


diversos grupos químicos a los residuos de aminoácidos. Estas modificaciones son
postraduccionales e incluyen la acetilación, la hidroxilación, la glicosilación y la
fosforilación. La importancia de las modificaciones que una proteína puede sufrir
luego de su síntesis radica en que se modifica la estructura y su función.

2.5.4. Regulación de la expresión génica

Por medio de la regulación de la expresión génica, las células manejan los tipos y
las cantidades de proteínas producidas por cada tipo celular (en el caso de
organismos eucariotas). Esta regulación se lleva a cabo a lo largo del desarrollo de
los organismos. Hay dos momentos fundamentales en la vida de los organismos
donde esta regulación debe ser eficiente: durante el desarrollo embriológico y
durante la diferenciación celular.

La célula ejerce controles en diferentes etapas de la expresión de los genes,

entre los cuales

se incluye:

● A nivel transcripcional, el ensamblaje de diversos factores de transcripción


generales es un punto importante de regulación y el remodelado de la
estructura de la cromatina mediante modificaciones postraduccionales de las
proteínas (metilación, fosforilación, acetilación y desacetilación de las
histonas).
● Control de los diversos pasos en el procesamiento del pre-ARNm.
● Transporte de ARNm y control de la localización y la regulación de la estabilidad.
● A nivel de la traducción, por modificación de los factores de iniciación, por
unión de proteínas represoras, por microARN no codificantes (tipo de ARN de
interferencia que regula la expresión génica).
2.6. Bibliografía

Alberts, B., Johnson, A., Lewis J., Raff, M., Roberts, K., & Walter, P. (2002).
Molecular biology of the cell (4th ed.). New York: Garland Science. Figure 6-90,
The production of a protein by a eucaryotic cell. Recuperado de:
[Link]

Belluscio, A. ( 2013, febrero 25). Los secretos del código celular. Conicet.

Recuperado agosto 30 2018, de [Link]

El Código Genético (s/f). Bioinnova. Recuperado septiembre 7 2018,

de [Link]

El DNA, el código genético y su traducción. (s/f). Panamericana.

Recuperado agosto 30, 2018, de [Link]

Eukaryotic pre-mRNA processing. (s/f). Khan Academy.

Recuperado septiembre 4 2018, de [Link]

Garrigues, F. (2016, noviembre 23). Dogma central de la biología molecular.

Genética médica blog. Recuperado agosto 29 2018, de [Link]

Kampa, D., Cheng, J., Kapranov, P., Yamanaka, M., Brubaker, S., … &
Gingeras, T. R. (2004, marzo). Novel RNAs identified de an in-depth analysis of
the transcriptome of human chromosomes 21 and 22. Genome Res 14(3), 331-42.
Recuperado de [Link]

Molecular mechanism of DNA replication. (s/f). Khan Academy.

Recuperado de [Link]

Molnar, C., & Gair, J. (2013). Transcription. In: Concepts of biology (1st Canadian ed.).

Rice University. Recuperado de [Link]

Nelson, D. (2018, febrero 27). Animal cell diagram. Science Trends.

Recuperado de [Link]

Nucleic acids. (s/f). [Link]. Recuperado agosto 29 2018, de [Link]

Nucleotides and nucleic acids (2017, junio 28). Chemistry LibreTexts.

Recuperado septiembre 4 2018, de [Link]

Openstax Content. (s/f). OpenStax: microbiology. Top Hat. Recuperado de [Link]


Capítulo 3. Bioinformática y medicina de precisión

Valeria Burgos
Marcelo Risk

3.1. Introducción

Con el avance de las tecnologías de alto rendimiento, la bioinformática ha ganado


relevancia como una disciplina dentro de la biología debido al constante crecimiento
en la generación de grandes cantidades de datos biológicos. El secuenciamiento de
los genomas de diversas especies, desde bacterias, plantas y animales, ha
producido amplias cantidades de información que encuentran sentido una vez que
los datos se organizan y analizan. A su vez, esta explosión de datos generó una
demanda de herramientas computacionales altamente eficientes para administrarlos
y analizarlos. El desarrollo de estas herramientas computacionales depende de
conocimientos generados a partir de un amplio rango de disciplinas, como
matemática, estadística, ciencias de la computación, tecnologías de la información y
biología molecular, cuya combinación propulsó el desarrollo de la bioinformática.

Si bien existen varias definiciones, en líneas generales, la bioinformática se


establece como el área de investigación multidisciplinaria que se enfoca en
administrar y analizar la información biológica; para ello, integra diversos campos,
como las ciencias de la computación, los métodos matemáticos y estadísticos, la
química y la biología (Harisha, 2010) (Figura 22). Dentro de la bioinformática se
definen tres áreas importantes:

● el desarrollo de algoritmos y la aplicación de métodos estadísticos para

evaluar las relaciones entre los datos;

● el análisis y la interpretación de los distintos tipos de datos;


● el desarrollo y la implementación de las herramientas para la administración y la

gestión de los datos.


Figura 22. La bioinformática emplea conocimientos y herramientas de varias disciplinas

Fuente: adaptado de “MS Bioinformatics”, s/f.

Los comienzos del área se remontan a principios de los años sesenta, cuando aún
no existía la definición de bioinformática: uno de los primeros proyectos en el área
fue liderado por Margaret Dayhoff, quien desarrolla una primera base de datos de
secuencias y estructuras proteicas (Atlas of protein sequence and structure), que
utiliza un sistema de programación basado en tarjetas perforadas. Si seguimos la
línea de tiempo, un paso fundamental en el desarrollo de la bioinformática ocurre en
1970 con el primer algoritmo de alineamiento de secuencias de Saul Needleman y
Christian Wunsch, quienes tienen como objetivo encontrar similitudes en las
secuencias aminoacídicas de dos proteínas. Otros hitos principales en el
establecimiento de la bioinformática suceden en 1980 con el establecimiento de
GenBank, una base de datos de secuencias nucleotídicas y proteicas de libre
acceso. Luego, con el desarrollo de algoritmos de búsqueda de bases de datos
rápidos y eficientes como FASTA (1985) y BLAST (1990). Sin embargo, el inicio del
Proyecto Genoma Humano (PGH), hacia fines de los años ochenta, representa un
estímulo importante para el desarrollo de la bioinformática (García-Sancho, 2012).

3.2. Aplicaciones de la bioinformática

Además de las áreas de la biología molecular y la genómica, la bioinformática tiene


un impacto importante en la biotecnología y las ciencias biomédicas; por ejemplo,
en las áreas siguientes:

3.2.1. Genómica comparativa y evolutiva

El estudio de los procesos evolutivos que ocurren en el genoma, la determinación


de las secuencias conservadas entre especies, y la acumulación de diferencias, son
algunas de las cuestiones en las que enfocarse a partir de la comparación de
genomas de especies cercanas o distantes.

3.2.2. Genómica funcional

Es el análisis exhaustivo de la función, la expresión y la interacción de todos los genes

en un organismo.

3.2.3. Diseño de drogas

Los estudios computacionales de interacciones proteína-ligando ofrecen una base


racional para la identificación de nuevas claves en el diseño de drogas. El
conocimiento de las estructuras 3D de las proteínas permite que las moléculas a ser
diseñadas puedan unirse a un sitio receptor con gran afinidad y alta especificidad.
De esta manera, existe una reducción significativa en tiempo y costo, necesarios
para desarrollar drogas con mayor potencia, menos efectos secundarios y menor
toxicidad, en comparación con el enfoque tradicional de prueba y error.

3.2.4. Agricultura

Las bases de datos de genomas de plantas y los perfiles de expresión de genes


han mostrado ser de gran importancia en el desarrollo de nuevas variedades de
cultivos con ciertas características, como mayor productividad y mayor resistencia a
enfermedades.

3.2.5. Medicina personalizada

Es un enfoque terapéutico que implica el uso de la información genética y


epigenética de un individuo para adaptar la terapia con medicamentos o la atención
preventiva. En este caso, la bioinformática representa un aporte importante, dado
que brinda herramientas y recursos para capturar, curar y analizar de manera
eficiente gran cantidad de información biológica, además de permitir a los médicos
el acceso a la información basada en la evidencia y la generación de modelos que
ayuden en las decisiones para el cuidado del paciente.

Con el avance de la biología molecular y el consecuente aumento en la generación


de diversos tipos de datos biológicos a gran escala surge la necesidad de
desarrollar sistemas eficientes de almacenaje y organización de los datos. Esto está
representado en la generación de bases de datos biológicos. En bioinformática, las
bases de datos son herramientas fundamentales para tratar con los volúmenes
gigantescos de información biológica, dado que integran cantidades enormes de
datos que sirven como recursos importantes y se vuelven cada vez más
indispensables para la comunidad científica. A continuación, brindamos una
descripción.

3.3. Bases de datos biológicos

Por definición, una base de datos es una colección de registros almacenados y


organizados, de manera tal que se puede extraer información con facilidad
mediante criterios determinados de búsqueda.

Los experimentos en biología molecular y genética llevados a cabo en la actualidad


generan grandes cantidades de datos crudos, impulsados principalmente por las
tecnologías de alto rendimiento y menores costos en la secuenciación de genomas.
A medida que el volumen de los muy variados tipos de datos biológicos aumentan,
se requieren metodologías computacionales eficientes para poder almacenarlos,
organizarlos y compartirlos en una manera estructurada, con el propósito de facilitar
su recuperación y visualización para el ojo humano. Además, las bases de datos
biológicas ofrecen interfaces de programación de aplicaciones para el intercambio y
la integración de datos a partir de varias fuentes de bases de datos de manera
automática. De esta manera, el desarrollo de bases de datos para manipular la
amplia cantidad de datos de biología molecular es una tarea fundamental en
bioinformática.

Las bases biológicas ponen los datos a disposición de la comunidad científica: la


mayor cantidad posible de un tipo particular de información debe estar disponible en
un solo lugar. Los datos publicados pueden ser difíciles de encontrar o acceder y
recopilarlos a partir de la bibliografía consume mucho tiempo. Además, no todos los
datos se publican de manera explícita en un artículo (por ejemplo, las secuencias de
los genomas). Asimismo, dado que el análisis de los datos biológicos casi siempre
involucra computadoras, tener la información en formato digital (en lugar de impreso
en papel) es un primer paso necesario en el estudio bioinformático.

3.3.1. Tipos de bases de datos biológicos

Las bases de datos biológicos se desarrollan para diversos propósitos, de acuerdo


con la heterogeneidad de los datos y sus métodos de curación. La información
biológica en las bases de datos se clasifica en datos de secuencia y estructura. Las
bases de datos de secuencias son aplicables tanto a ácidos nucleicos como a
proteínas, mientras que la base de datos de estructuras es aplicable solo a
proteínas. De esta manera, existen diferentes criterios aplicables a la clasificación
de las bases de datos, que se dividen en tres categorías: primarias, secundarias y
especializadas.

[Link]. Bases de datos primarias

La mayoría de los datos deriva directamente de experimentos y tienen un mínimo


nivel de anotación. Generalmente, los datos son contribuciones directas de los
autores y tienen carácter de archivo. Contienen solamente información de la
secuencia o de la estructura. Como ejemplos citamos:

● GenBank y DNA DataBank of Japan (DDBJ) para secuencias genómicas.


● Swiss-Prot y Protein Information Resource (PIR) para secuencias de proteínas.
● Protein DataBank para estructuras de proteínas.

[Link].1. Repositorios primarios de secuencias nucleotídicas

Existen tres bases de datos principales que almacenan y ofrecen acceso a datos
crudos correspondientes a secuencias de ácidos nucleicos:

● GenBank está físicamente localizada en los Estados Unidos.


● European Molecular Biology Laboratory (EMBL) está ubicado en el Reino
Unido.
● DDBJ está en Japón.

Los tres repositorios tienen formatos de datos uniformes (pero no idénticos) e


intercambian información frecuentemente. En el caso de GenBank, se accede
mediante el programa de búsqueda Entrez. Esta interfaz de búsqueda front-end
permite gran variedad de opciones de búsqueda.

GenBank es una colección pública de secuencias de ARN mensajeros (ARNm),


ADN genómicos y ARN ribosómico (Figura 23), además de un repositorio público;
cualquier investigador puede enviar secuencias. Sin embargo, una desventaja es
que todo lo que se envía es almacenado, incluidos los datos de distinta calidad de
secuenciación. De esta manera, puede haber múltiples secuencias para el mismo
gen o para el mismo ARNm (una secuencia puede tener varias versiones, que
representan modificaciones hechas por los autores).
Figura 23. Vista parcial de la página de inicio de GenBank

Fuente: “GenBank Overview”, s/f.

[Link]. Bases de datos secundarias

Los datos contenidos en estas bases se basan en información de numerosas


fuentes, incluida la proveniente de bases de datos primarias luego de procesarla. El
grado de procesamiento es variable: algunos son archivos simples de la traducción
de secuencias a partir de marcos de lectura en el ADN y otros representan
información y anotación adicionales correspondientes a diferentes niveles
estructurales y funcionales.

Swiss-Prot es una base de datos secundaria que contiene anotaciones detalladas


de la estructura, la función y la asignación a grupos de proteínas determinadas. Los
datos de secuencias derivan principalmente de Translated EMBL Nucleotide
Sequence Data Library (TrEMBL), una base de datos de secuencias nucleotídicas
traducidas y almacenadas en el sitio de EMBL. La bibliografía científica es una
fuente importante de información para realizar las anotaciones de cada entrada, que
están curadas de manera muy detallada por expertos en el área. Las anotaciones
de proteínas incluyen función, estructura del dominio, sitios catalíticos, unión de
cofactores, modificaciones postraduccionales, información de vías metabólicas,
asociación con enfermedades y similitud con otras secuencias. La anotación brinda
un valor adicional significativo a cada registro, además de ofrecer enlaces de
referencia a otras fuentes online. Swiss-Prot presenta un alto nivel de integración
con otras bases de datos primarias y secundarias, lo que la convierte en una
herramienta muy usada en la comunidad científica.

Otra base de datos secundaria relevante es UniProt, que representa una


combinación de las bases de datos Swiss-Prot, TrEMBL y PIR (Figura 24). De esta
manera, UniProt brinda una mayor cobertura que las tres por separado, mientras
que mantiene las características individuales, como la alta calidad de las
anotaciones, entre otras.

Figura 24. Vista parcial de la página inicial de UniProt, base de datos de secuencias
proteicas e información funcional de libre acceso
Fuente: “UniProt”, s/f.

[Link]. Bases de datos especializadas

Las bases de datos especializadas apuntan a una comunidad de investigación


específica o se enfocan en un organismo en particular. La información contenida en
estas bases de datos puede superponerse con los de las bases de datos primarias,
pero también tienen datos nuevos presentados directamente por los autores.
Debido a que los datos están curados por expertos en el área, estos pueden estar
organizados de una manera característica y tener anotaciones adicionales.

Existen muchas bases de datos especializadas que cubren áreas diversas en

bioquímica y bioinformática. Entre ellas, mencionamos:

International ImMunoGeneTics information System (IMGT): inmunogenética.

Kyoto Encyclopedia of Genes and Genomes (KEGG): vías metabólicas.

Online Mendelian Inheritance in Man (OMIM): trastornos genéticos en seres humanos.

Database Single Nucleotide Polymorphism (dbSNP): polimorfismos de nucleótido único.

PubMed: publicaciones científicas.


CATH, SCOP: clasificaciones estructurales de proteínas.

A continuación, la Figura 25 muestra una vista de la vía metabólica en el sitio de KEGG:

Figura 25. Vía metabólica en la página de KEGG; en este caso, corresponde a la

biosíntesis de N-glicanos. KEGG es una base de datos sobre genomas, vías biológicas,
enfermedades, drogas y sustancias químicas

Fuente: “KEGG: Kyoto Encyclopedia of Genes and Genomes”, s/f.

Recuperación de información a partir de bases de datos biológicas

En general, se requieren operadores booleanos para realizar consultas en las bases


de datos. Para llevar a cabo la recuperación de datos en bases de datos biológicas
existen varios sistemas. Uno de los más utilizados es Entrez.

Entrez

Es un sistema de recuperación de información en bases de datos biológicas. Fue


desarrollado y es mantenido por el National Center for Biotechnology Information
(NCBI). Permite realizar búsquedas basadas en texto para un amplio rango de
datos, incluidos la información de secuencias genéticas anotadas, la información
estructural, las citas bibliográficas y los resúmenes, las publicaciones completas y
los datos taxonómicos.

La característica principal de Entrez es su habilidad para integrar información, que


proviene de referencias cruzadas entre bases de datos pertenecientes al NCBI
(Figura 26). Esto representa una gran ventaja, porque los usuarios no necesitan
acceder a múltiples bases de datos ubicados en distintos sitios. Por ejemplo, en una
página de una secuencia de nucleótidos es posible encontrar enlaces referenciados
a la secuencia traducida de proteína, datos de mapeo en el genoma, información
bibliográfica relacionada de PubMed y, si está disponible, la estructura de la
proteína.

Figura 26. La página inicial de Entrez proporciona, de manera predeterminada,


acceso a la consulta global
Fuente: “Search NCBI databases”, s/f.

Una de las bases de datos de bibliografía biomédica a la que se puede acceder a


través de Entrez es PubMed (Figura 27). Esta base de datos es una máquina de
búsqueda gratuita que accede principalmente a otra base de datos, Medline, que
hace referencia a temas biomédicos y biológicos. Para recuperar la información,
PubMed utiliza un sistema de términos de encabezados de temas médicos, MeSH.
Este sistema consiste en un vocabulario controlado y estandarizado de términos;
así, PubMed convierte las palabras clave de búsqueda en términos estandarizados
para describir un concepto.

Figura 27. Vista parcial de la página inicial de PubMed Fuente: “PubMed”, s/f.

3.4. Herramientas de búsqueda y análisis de genes y proteínas

3.4.1. Alineamiento de secuencias

La comparación de secuencias es un punto central en el análisis bioinformático,


porque representa un primer paso hacia su análisis estructural y funcional. De esta
manera, se pueden identificar patrones de conservación o variación, que revelan
una relación evolutiva entre las secuencias o, por el contrario, cambios, como
sustituciones, inserciones o deleciones. Esta información puede usarse para
predecir potenciales funciones de la secuencia de búsqueda o ayudar en el análisis
filogenético o en el modelado de la estructura 3D.

El paso fundamental en este tipo de comparación es el alineamiento de secuencias.


Este es el proceso por el cual las secuencias se comparan mediante la búsqueda
de patrones en común y el establecimiento de una correspondencia uno a uno entre
secuencias relacionadas.

El alineamiento se clasifica en dos: 1. alineamiento de pares de secuencias


(pairwise sequence alignment); 2. alineamiento múltiple de secuencias (multiple
sequence alignment).
[Link]. Alineamiento de pares de secuencias

El alineamiento de pares de secuencia se utiliza para identificar regiones de


similitud que pueden indicar relaciones funcionales, estructurales o evolutivas entre
dos secuencias biológicas (ácido nucleico o proteína).

El objetivo principal es encontrar el mejor apareamiento de dos secuencias, de


manera tal que haya una correspondencia máxima entre cada una. Para conseguir
esto, una secuencia tiene que moverse en relación con la otra, para así encontrar la
posición con las coincidencias máximas. Los métodos de alineamiento se dividen
en global y local.

El alineamiento global se realiza sobre el largo total de las secuencias de interés


para encontrar el mejor alineamiento posible (Figura 28). En general, este método
tiene mejor aplicación sobre secuencias muy relacionadas o de longitudes
similares.

Figura 28. Esquema de alineamiento global para secuencias 1 y 2

En cambio, el alineamiento local encuentra el alineamiento óptimo entre


subregiones de las secuencias de interés, sin importar las regiones restantes. Este
método tiene mejor aplicación cuando se trata de secuencias diferentes que
contienen solamente módulos similares (Figura 29).
Figura 29. Esquema de alineamiento local para secuencias 1 y 2. En el
alineamiento local se identifican segmentos regionales más cortos, con un alto
grado de similitud. A menudo, estos segmentos regionales se pueden utilizar para
encontrar la longitud completa

[Link]. Alineamiento múltiple de secuencias

Es una extensión del alineamiento de pares, porque implica alinear varias


secuencias relacionadas de longitud similar y, así, encontrar similitudes de acuerdo
con una función de puntaje. Brinda más información biológica en comparación con
los alineamientos de pares, porque, por ejemplo, permite identificar patrones de
secuencias y motivos conservados en una familia de secuencias (que no se
identifican al comparar solo dos secuencias).

Entre las características compartidas de los algoritmos de alineamiento de


secuencias mencionamos el tipo de esquema de puntuación, que es la suma de
todas las posiciones alineadas y sus respectivas puntuaciones de gaps. En su
mayoría, usan una matriz para asignar una puntuación general a cada uno de los
alineamientos. La mayoría de las matrices se basa en uno de los criterios
siguientes:

● Identidad: a los residuos idénticos o nucleótidos pareados se les asigna una


puntuación positiva (generalmente, uno), mientras que a los no idénticos se les
asigna una puntuación de cero. La puntuación de identidad total se convierte a
identidad de porcentaje.
● Similitud química: en este método, los pares de residuos son ponderados de
acuerdo con una característica química y estructural. En el caso de las
proteínas, los esquemas de puntuación incorporan propiedades de los
aminoácidos, como la polaridad, la carga y el tamaño.
● Genético: este método considera el número mínimo de cambios de bases
a nivel genómico

● que se requiere para convertir un aminoácido en otro.

3.5. Proyecto Genoma Humano

El PGH es una colaboración internacional coordinada por los National Institutes of


Health y el Department of Energy (DOE) de los Estados Unidos, en la que, además,
contribuyen universidades de diversos países, como Inglaterra, Francia, Alemania,
Japón y China. El objetivo compartido del PGH reside en determinar la secuencia
del genoma humano e identificar los genes que éste contiene. El proyecto se inicia
formalmente en 1990 y se completa en 2003.

Hacia fines de los años noventa se desata una gran competencia entre el consorcio
del PGH y el ingreso de una empresa privada (Celera Genomics) en la carrera de la
secuenciación. El 15 de febrero de 2001 se publica el primer borrador del genoma
humano en Nature el y Celera Genomics publica su borrador en Science el 16 de
febrero del mismo año (Figura 30).

Figura 30. Tapa de Science al momento de la publicación del borrador

del Proyecto Genoma Humano

Fuente: The Human Genome. Special Issue, 2001.

3.5.1. Orígenes del Proyecto Genoma Humano

La idea de tener una referencia del genoma a gran escala para usarlo como
herramienta para el entendimiento de las enfermedades y los fenotipos en seres
humanos la inician de manera independiente y casi simultánea Robert Sinsheimer,
rector de la University of California-Santa Cruz; Renato Dulbecco, presidente del
Salk Institute, y Charles DeLisi, del DOE de los Estados Unidos, a principios de los
años ochenta.

Existen tres orígenes diferentes detrás de la concepción del secuenciamiento del


genoma humano: el reconocimiento de las profundas implicancias que tendría en
las ciencias biomédicas, la necesidad de tener una secuencia genómica de
referencia contra la cual comparar las mutaciones surgidas en el proceso de
evolución del cáncer en el Salk Institute y la continuación de un proyecto de
investigación genética en el DOE sobre los efectos heredables de las personas
expuestas a radiación luego de las bombas de Nagasaki e Hiroshima (Office of
Health and Environmental Research, 1987).

El PGH comienza a tomar forma cuando todavía no existía la capacidad de


secuenciación suficiente. Es decir, era un proyecto técnicamente posible, aunque
muy desafiante. En los comienzos existe gran controversia en la comunidad
científica, dado que se considera que hacer “ciencia grande” no es bueno, porque
divide los recursos de la ciencia “pequeña y real” (el modelo típico de ciencia
realizada por un único investigador). También, se argumenta que no vale la pena
secuenciar un genoma que probablemente sea, en su mayoría, “basura” y complejo,
y que es mejor esperar hasta que se desarrolle la tecnología adecuada (American
Association for the Advancement of Science, 2001).

3.5.2. ¿Qué consiguió el Proyecto Genoma Humano?

En abril de 2003, los investigadores del consorcio anuncian que el proyecto


completa una secuencia de alta calidad, esencialmente, todo el genoma humano.
Esta secuencia cierra los huecos del borrador del genoma publicado en 2001. Se
identifican las ubicaciones de muchos genes humanos y se proporciona información
sobre su estructura y organización. El PGH también impulsa el desarrollo de
herramientas para analizar los datos disponibles gratuitamente a través de internet.

Además del genoma humano, el PGH secuencia los genomas de otros modelos
experimentales, como el de la levadura de cerveza, el gusano redondo y la mosca
de la fruta. En 2002, los investigadores anuncian que también completan un
borrador de trabajo del genoma del ratón. El estudio de las similitudes y las
diferencias entre los genes humanos y los de otros organismos permite descubrir
las funciones de genes particulares e identificar cuáles son importantes para la vida.

Durante todo el proceso, el PGH es fundamental para impulsar el desarrollo de


tecnologías de alto rendimiento para preparar, mapear y secuenciar el ADN.
Además de proporcionar una base para estudios posteriores en la variación
genómica humana, tener un genoma de referencia demuestra ser esencial para el
desarrollo y el posterior uso generalizado de las tecnologías de secuenciación de
segunda generación, que comienza a mediados de 2000.

3.6. La revolución de las ‘ómicas’

La innovación tecnológica representada en instrumentos de secuenciación,


espectrometría de masas y otros desarrollos de alto rendimiento impulsa el análisis
a gran escala, en distintos niveles de organización, de la biología molecular y
promueve un cambio importante en el enfoque sobre los problemas en las ciencias
biomédicas.

El sufijo ‘ómica’ se refiere a las tecnologías que estudian grandes conjuntos de


datos biológicos para explorar roles, relaciones y acciones de diversas moléculas
biológicas en la célula de un organismo (Figura 31). Estos niveles incluyen a las
áreas siguientes:

● genómica,
● transcriptómica,
● proteómica,
● glicómica,
● metabolómica,
● epigenómica, entre otras.

Figura 31. Ciencias ‘ómicas’ y sus interacciones


Fuente: “What is metabolomics?”, s/f.
El conocimiento obtenido a partir de la integración de las diversas ‘ómicas’
representa un potencial enorme para el entendimiento de los mecanismos de las
enfermedades, de manera tal de facilitar el diagnóstico temprano, seleccionar una
estrategia terapéutica personalizada y

determinar su efectividad (Figura 32).

Figura 32. Esquema del flujo de trabajo basado en tecnologías ‘ómicas’


para el descubrimiento de biomarcadores clínicos
Fuente: Wheelock et al., 2013.

3.7. ¿Cuáles son las tecnologías de análisis de genes a gran escala?

En su momento, el análisis de ARN estuvo limitado a la detección individual de


transcriptos mediante las técnicas de northern blot o reacción en cadena de la
polimerasa (PCR) cuantitativa. Sin embargo, la transcriptómica de alto rendimiento
empezó a ser posible con el uso de microarrays; luego, con el desarrollo
tecnológico, aparecieron las tecnologías de secuenciación de alto rendimiento,
como next generation sequencing (NGS) y nanopore sequencing.

3.7.1. Microarrays
Entre los métodos de alto rendimiento utilizados para evaluar la expresión génica, la
tecnología de microarrays permite evaluar las diferencias en los niveles de ARNm
en muestras biológicas. De esta manera, el microarray es una herramienta que
posibilita la medición de manera simultánea de los niveles de expresión de miles de
genes en un único experimento.

El microarray consiste en un sustrato sólido (microchip) cubierto a alta densidad por


fragmentos pequeños de ácidos nucleicos (sondas) a los cuales se une ADN o ARN
complementario provenientes de la muestra de interés. Una vez ocurrida la
hibridación específica, se mide el nivel de hibridación entre las sondas y los
fragmentos de interés mediante fluorescencia y, mediante el análisis de las
imágenes, se evalúan los niveles de expresión de los genes en la muestra (Figura
33). Un ejemplo de utilidad del microarray es el desarrollo de fármacos y en la
investigación clínica, que requiere una evaluación rápida de genes específicos en
miles de muestras.

Sin embargo, los microarrays solo detectan secuencias conocidas, lo que significa
que no es útil en el descubrimiento. Aunque la tecnología de microarrays aún se
usa, la transcriptómica se ha expandido de manera exponencial en los últimos años
debido a los desarrollos en la secuenciación de ARN (RNA-seq).

Figura 33. Diagrama del diseño de un experimento de microarray

La secuenciación se refiere al proceso de determinar el orden preciso de los


nucleótidos en una molécula de ADN. Es decir, establecer el orden de los cuatro
nucleótidos: adenina (A), guanina (G), citosina (C) y timina (T) en una hebra de
ADN. En la secuenciación de ADN es posible saber la secuencia de un gen
individual, cromosomas enteros o genomas completos de un organismo. A
continuación, mencionamos dos tecnologías utilizadas en la secuenciación de alto
rendimiento.

3.7.2. Next generation sequencing

La NGS, secuenciación masiva paralela o de alto rendimiento son términos


relacionados que describen una tecnología de secuenciación de ADN que ha
revolucionado la investigación genómica y la biología molecular. Esta tecnología
permite secuenciar ADN y ARN de forma mucho más rápida y económica que la
secuenciación de Sanger utilizada anteriormente.

Con NGS se puede secuenciar un genoma humano completo en un solo día.


Existen varias plataformas de NGS (Illumina, Roche 454, Ion torrent, SOLiD) que,
aunque difieren en las tecnologías de secuenciación usadas, todas realizan la
secuenciación de millones de fragmentos pequeños de ADN en paralelo. NGS se
utiliza para secuenciar genomas completos o limitarlos a determinadas áreas de
interés.

Básicamente, en la secuenciación se extraen secuencias de ADN aleatorias cortas


de un genoma particular que se desea determinar. Sin embargo, como las
tecnologías actuales de secuenciación de ADN no pueden leer un genoma completo
a la vez, se leen fragmentos pequeños de ADN (entre 20 y 300 bases, según la
tecnología utilizada). Estos fragmentos cortos reciben la denominación de reads.
Luego de la secuenciación, se utilizan diversos softwares especiales para el
ensamblado de estos reads de acuerdo con la forma en la que se superponen, con
el fin de generar cadenas continuas llamadas contigs. Estas contigs representan el
genoma completo o partes de este. Se denomina ensamblaje de secuencias al
proceso de alineación y fusión de los fragmentos de una secuencia de ADN más
larga para reconstruir la secuencia original. Para obtener la secuencia completa del
genoma es necesario generar más y más reads aleatorios, hasta que los contigs
coincidan con el genoma objetivo (Figura 34).

La aplicación de la bioinformática se enfoca en unir los fragmentos secuenciados


como un rompecabezas, que mapea cada fragmento al genoma de referencia
humano. Cada una de las tres mil millones de bases en el genoma humano se
secuencia varias veces, proporcionando gran profundidad para brindar datos
precisos y una idea de la variación inesperada del ADN.
Figura 34. Esquema de los pasos involucrados en el
ensamblado de fragmentos de ADN luego de la
secuenciación

En la práctica clínica, existen numerosas oportunidades para usar NGS y, así, mejorar la

atención del paciente, por ejemplo:

● La tecnologías de NGS detectan un espectro más amplio de mutaciones que la


secuenciación de Sanger: en el genoma humano, las variaciones incluyen
cambios pequeños de bases (sustituciones), inserciones y deleciones de ADN,
grandes deleciones genómicas de exones o genes completos y
reordenamientos, como inversiones y translocaciones. La secuenciación
tradicional de Sanger está restringida al descubrimiento de sustituciones e
inserciones y eliminaciones pequeñas. En cambio, con NGS, estas variaciones
en el genoma se detectan con mayor sensibilidad.
● La mayor sensibilidad de NGS permite la detección de mutaciones en mosaico:
este tipo de mutaciones se adquieren como un evento posfertilización y, en
consecuencia, se presentan con frecuencia variable dentro de las células y los
tejidos de un individuo. NGS brinda una lectura mucho más sensible para
identificar variantes que residen en un número pequeño de células, incluida la
variación de mosaico.
● Microbiología: la utilidad principal de NGS en microbiología es brindar una
definición genómica de patógenos que reemplace a la caracterización
convencional por morfología, propiedades de tinción y criterios metabólicos.
● Oncología: la premisa principal de la genómica del cáncer es que la
enfermedad es causada por mutaciones adquiridas de manera somática y, en
consecuencia, es una enfermedad del genoma. Mediante NGS puede
estudiarse el genoma de distintos tipos de cáncer en su totalidad, representado
en varios proyectos de genómica del cáncer a gran escala en todo el mundo.
3.7.3. Nanopore sequencing

Las tecnologías utilizadas en la transcriptómica se actualizan continuamente. Ya


desde la década del 90 se propuso la posibilidad de secuenciar el ADN utilizando
sensores de nanoporos. Una ventaja de esta tecnología es que una sola molécula
de ADN o ARN puede ser secuenciada sin la necesidad de amplificación por PCR o
etiquetado químico de la muestra (pasos necesarios en los métodos de
secuenciación desarrollados previamente).

La idea es que, si cada nucleótido produce una corriente iónica diferente durante el
paso de ADN a través de un canal pequeño (nanoporo), entonces es posible
distinguir entre los diferentes nucleótidos. Los poros generalmente están en una
membrana biológica o en una película de estado sólido que separa dos
compartimentos que contienen electrolitos conductores. Los electrodos están
sumergidos en cada compartimento. El campo eléctrico resultante hace que los
electrolitos en solución se muevan a través del poro por electroforesis, generando
una señal de corriente iónica. Cuando el poro está bloqueado, debido al paso de
una biomolécula, el flujo de corriente también lo está. Las propiedades físicas y
químicas de las moléculas de interés se pueden determinar mediante el análisis de
la amplitud y la duración de los bloqueos. En la secuenciación de nanoporos, cada
nucleótido bloquea el canal de forma diferente y, así, da amplitud y duración
diferentes del bloqueo. Esta es la información de la secuencia de ADN (Figura 35).
Figura 35. Esquema del funcionamiento de nanopore sequencing

3.8. Rol de la bioinformática en la genómica

El análisis de los datos genómicos implica una gama diversa de enfoques debido a
la variedad de pasos involucrados en la lectura de una secuencia de genoma y la
obtención de información útil a partir de ella. En genómica médica y poblacional, la
identificación de variantes genómicas en cada genoma individual es una de las
fases más complejas en el sentido computacional. Luego de un experimento de
secuenciación, el resultado que se obtiene generalmente es una secuencia larga de
bases. Un mar de miles de bases. Para el ojo humano, esto es imposible de
interpretar y analizar de manera directa.

Para tener una dimensión de la gran cantidad de bases en el ADN, mencionamos el


ejemplo del primer genoma eucariota completado: el de la levadura del pan
(Saccharomyces cerevisiae), que tiene alrededor de 13 millones de pares de bases
(Mb) de tamaño. Un cromosoma humano de tamaño promedio es de alrededor de
150 Mb y un único genoma humano tiene alrededor de tres mil millones de pares de
bases (3 Gb).

En NGS se obtienen reads (generalmente, de 100 a 300 pares de bases de


longitud) en grandes cantidades, que permiten que cada par de bases sea
representado (“cubierto”) por un número promedio de reads independientes; por
ejemplo, 30. De esta manera, se considera una profundidad de cobertura de 30x.
Para un estudio de cáncer a gran escala que incluya 20.000 comparaciones de
tumor/normal se pueden generar 1016 bases masivas de ADN.

Otros enfoques experimentales, como la secuenciación completa del exoma (que


implica la secuenciación de la colección de exones en un genoma) y la
secuenciación del transcriptoma (RNA-seq), también generan grandes cantidades
de datos.

La gran cantidad de datos obtenidos en la secuenciación también puede


considerarse en términos de terabytes. Un byte es una unidad de información de
almacenamiento que consta de 8 bits y que codifica un carácter. El escritorio típico
de una computadora puede tener 500 gigabytes (Gb) de almacenamiento. Los
archivos planos sin comprimir del GenBank rondan los 600 Gb. Mil gigabytes
equivalen a un terabyte (1000 Gb = 1 Tb), que es la cantidad de almacenamiento
que algunos investigadores utilizan para estudiar un único genoma humano
completo (Pevsner, 2015).

Sacar conclusiones de los datos de secuenciación requiere un análisis


computacional sofisticado para interpretar los datos. Una de las áreas más activas
para inferir la estructura y los principios de los conjuntos de datos biológicos es el
uso de la minería de datos para resolver problemas biológicos.

3.9. Minería de datos

La cantidad de datos que producimos cada día es abrumadora. Diariamente,


creamos 2,5 quintillones de bytes de datos en internet, redes sociales,
comunicación, fotos digitales, servicios en línea e internet de las cosas (Marr, 2018).
La colección, el almacenamiento y el análisis de cantidades masivas de datos están
englobados en el concepto de big data. En la actualidad, la cantidad de datos no es
lo novedoso. Los datos han existido siempre. Lo novedoso es que, hasta hace un
par de décadas, muchas fuentes que generan los distintos tipos no existían, como
tampoco el amplio acceso a dispositivos electrónicos de alto desempeño y
almacenamiento. Estos dos factores se traducen en volumen, velocidad, variedad y
veracidad.

● Volumen: escala de los datos generados (kilobytes, megabytes, terabytes, etcétera).


● Velocidad: frecuencia de los datos entrantes a ser procesados.
● Variedad: diferentes formas de datos (texto, videos, imágenes, audio, etcétera).
● Veracidad: confiabilidad en el origen de los datos.
El gran crecimiento en la capacidad computacional y el almacenamiento de datos
indican que la verdadera revolución es que hoy se puede hacer algo con ellos. En
particular, esa revolución está reflejada en el mejoramiento de los métodos
estadísticos y computacionales, las nuevas formas de asociar bases de datos y en
formas creativas de visualizar la información. De esta manera, todo esto en conjunto
ayuda a encontrar el sentido a la enorme masa de información y favorece la
creación del conocimiento. De esto se ocupa la minería de datos.

La minería de datos (data mining) es el proceso de descubrir patrones o relaciones


que no se hallan plenamente, en principio, con los métodos tradicionales de análisis,
en grandes bases de datos. Es un campo interdisciplinario y forma parte de un
proceso aún más amplio denominado descubrimiento del conocimiento (knowledge
discovery) (Figura 36). Entre sus tareas se incluyen detectar relaciones entre
diferentes variables, agrupar datos similares y resumir la información de forma
concisa.

Figura 36. Minería de datos como uno de los pasos en el proceso de


descubrimiento del conocimiento
Fuente: adaptado de Han, Kamber, & Pei, 2011.

En general, el análisis de minería de datos implica una secuencia iterativa formada por
varios pasos:

● Preprocesamiento: identificación y tratamiento de valores atípicos y nulos,


transformación de los datos a un formato apropiado para su posterior análisis,
selección de los registros y características relevantes.
● Uso de métodos inteligentes para extraer asociaciones o patrones relevantes

(data mining).
● Presentación del conocimiento obtenido: aplicación de técnicas de
visualización de la información a partir de los datos analizados, presentación
comprensible al usuario.

La minería de datos es un campo multidisciplinario que incorpora elementos de


campos como el aprendizaje automático (machine learning), la inteligencia artificial,
los sistemas de bases de datos, la visualización de la información y los métodos
estadísticos, entre otros.

Una vez realizado el preprocesamiento y la limpieza de los datos, los objetivos de la


aplicación de diferentes métodos en minería de datos se dividen principalmente en
dos categorías: descripción y predicción. La parte descriptiva de la minería de datos
busca descubrir información implícita y previamente desconocida, que puede usarse
en la toma de decisiones por parte del usuario. Este tipo de análisis implica el uso
de técnicas de aprendizaje automático no supervisado, es decir, el aprendizaje está
caracterizado por un modelo que se ajusta a las observaciones y no hay un
conocimiento previo de la naturaleza de los datos. El propósito de la minería de
datos descriptiva es resumir el tipo de información que se puede obtener de los
datos, las limitaciones y los pasos subsiguientes para seguir en el análisis. La
búsqueda de patrones frecuentes en los datos, la identificación de asociaciones y
correlaciones entre las variables, el análisis de agrupamientos, de valores atípicos y
la evolución del conjunto de datos se incluyen entre los ejemplos de la minería de
datos descriptiva.

La parte predictiva de la minería de datos busca encontrar un modelo que pueda


predecir alguna característica importante (pero no descrita aún) de un sistema. El
análisis predictivo implica el uso de técnicas supervisadas de aprendizaje
automático. En este tipo de aprendizaje existe conocimiento a priori de los datos y,
luego de un entrenamiento, se crea un modelo que puede generalizar clasificando
correctamente datos pertenecientes a situaciones no vistas antes. Entre las técnicas
de aprendizaje supervisado se incluyen la regresión y la clasificación.

En el análisis de regresión se usa una ecuación para expresar la relación entre una
variable de interés (la respuesta) y un conjunto de variables predictoras
relacionadas. La salida de la función puede ser un valor numérico. En cambio, la
clasificación es una técnica que predice el valor de un atributo categórico, dispone
los datos en grupos predefinidos de clases. Existen varios métodos, como el
agrupamiento de vecinos más cercanos, redes neuronales, árboles de decisión,
entre otros.

3.9.1. Minería de datos en bioinformática

Una de las áreas más activas en el análisis computacional y la obtención de


resultados a partir de los grandes conjuntos de datos biológicos que se generan
constantemente es la de la minería de datos. A diferencia de su aplicación en otras
áreas, como los negocios o la industria (donde los problemas principales están
fundamentalmente relacionados con la obtención de ganancias), los objetivos de la
minería de datos en bioinformática son tan diversos como el espectro de preguntas
biológicas. El uso de diversas técnicas de minería de datos implica la predicción de
genes o estructuras en proteínas, clasificación de genes, análisis de variantes en
cáncer y expresión génica, entre otras.

Es claro que la biología se ha transformado en una ciencia de la información. Los


resultados de muchos proyectos diferentes de secuenciación de genomas de
diversas especies están disponibles. Actualmente, una tarea importante es buscar
formas que expliquen la organización y la función de cada genoma. Los algoritmos
de minería de datos se vuelven muy útiles para extraer los patrones de los datos y
presentarlos de forma tal que mejoren nuestra comprensión de la estructura, la
relación y la función de los sujetos.

En cuanto al área de la biomedicina, la información asociada con los pacientes


crece constantemente. El avance tecnológico de los últimos años ha permitido la
obtención rápida y eficaz de grandes cantidades de muestras biológicas e
imágenes, información que se traduce en mejoras en la evaluación de la presencia
de enfermedades, el análisis de biomarcadores o encontrar nuevos objetivos para
un tratamiento en particular, entre otras aplicaciones.

Una de las áreas de mayor interés en la medicina genómica es la oncología, en


donde hay una fuerte necesidad de definir estrategias terapéuticas individualizadas
a partir de datos de expresión de genes de los pacientes. Un ejemplo que ilustra el
potencial de aplicar técnicas de minería de datos sobre el perfil de expresión de
genes al momento de predecir un tratamiento es un estudio que evaluó las muestras
de cáncer de mama provenientes de una población y un algoritmo de agrupamiento
jerárquico (van’t Veer et al., 2002). Mediante el uso de microarrays que contienen
25.000 genes para estudiar, se determina que alrededor de 5000 genes muestran
una regulación positiva en su expresión. Con el uso de una técnica no supervisada
de agrupamiento como primer acercamiento se verifica que es posible diferenciar
entre tumores con pronóstico adverso y tumores con buen pronóstico sobre la base
de la aparición de metástasis dentro del período de estudio. Además, cuando estos
resultados se asocian con datos histopatológicos, el agrupamiento no supervisado
indica la existencia de dos subgrupos de cáncer que difieren en cuanto a la
infiltración linfocitaria y la marcación del receptor de estrógenos. Posteriormente, los
autores usan un método supervisado de clasificación y determinan que el pronóstico
adverso se asocia con el aumento en la expresión de los genes del ciclo celular,
invasión, metástasis y angiogénesis. El clasificador de pronóstico del tumor de
mama se valida con otro grupo de pacientes y deriva en parámetros adecuados de
precisión. De esta manera, los autores del estudio destacan la importancia del
clasificador desarrollado al momento de decidir el uso de una terapia hormonal
adyuvante, y los genes que están sobreexpresados en los tumores con pronóstico
adverso son objetivos para la creación de drogas nuevas.

3.10. Medicina de precisión

La medicina de precisión es un área de desarrollo de la medicina relativamente


reciente, que comparte conceptos e ideas derivados de la medicina personalizada.
Para algunos académicos, estos términos son sinónimos, mientras que, para otros,
son conceptos similares, pero distintos.

El objetivo principal de la medicina de precisión es lograr diagnósticos y


tratamientos más efectivos, basándose en la información disponible de un paciente
determinado. De esta forma, se logra la personalización. El concepto subyacente a
la medicina de precisión, de acuerdo con el tipo de información utilizada, es la
personalización individual basada en los genes, el estilo de vida y el medio
ambiente del paciente. Este concepto no es nuevo: hace más de un siglo, los
pacientes que reciben transfusiones son pareados con donantes según el tipo de
sangre.

Los avances tecnológicos y científicos en genética, junto con la creciente


disponibilidad de datos sobre el estado de salud de los pacientes mediante la
historia clínica electrónica, presentan una oportunidad para la implementación de
sistemas de medicina de precisión y, actualmente, posibilitan los primeros métodos
de diagnóstico y tratamiento personalizados.

El costo de los estudios genéticos ha disminuido, en especial desde que el primer


genoma humano se secuencia en 2001; de esta forma, la secuenciación del
genoma se incorpora a la práctica clínica, particularmente para diagnosticar
trastornos raros, cuando las técnicas convencionales fracasan. Con respecto a los
tratamientos, las terapias génicas se acercan cada vez más como una solución en
situaciones complejas.

Otra área en franco crecimiento es la farmacogenética, que al utilizar el genoma del


individuo permite indicar la droga más segura y efectiva. Actualmente, está en
desarrollo la infraestructura necesaria para que pueda aplicarse en un entorno
clínico, pero algunos investigadores argumentan que se requiere más evidencia
para adoptar realmente estos métodos nuevos de tratamiento.

La medicina de precisión se basa en la información, en forma de datos, de los

pacientes, por lo cual es un tema importante para la informática en salud.

Los registros y los códigos genéticos de los pacientes y los voluntarios sanos son
vitales y ayudan a tomar conciencia de su propio cuidado de la salud y a dirigir la
investigación en estos temas (Hodson, 2016).

La medicina de precisión es un nuevo enfoque para el tratamiento de los pacientes,


que permite a los médicos seleccionar las terapias que tienen mayor probabilidad
de eficacia, sobre la base de la comprensión genética de la enfermedad. Cómo está
basada en la genética del paciente en forma individual, se la considera
personalizada. Por ejemplo, los tratamientos tradicionales cuando se diagnostica
cáncer: los pacientes generalmente reciben el mismo tratamiento que el
administrado a otros que tienen el mismo tipo y etapa de cáncer. Aun así, diferentes
pacientes responden de manera distinta. Hasta hace poco, los médicos no sabían
por qué. En investigaciones recientes se demostró que los tumores tienen cambios
genéticos que hacen que el cáncer crezca y se disemine y que estos cambios
ocurren en algunos pacientes y pueden no ocurrir en otros que tienen el mismo tipo
de cáncer. Además, los mismos cambios se hallan en tipos diferentes de cáncer.
Entonces, la medicina de precisión es una esperanza para que los tratamientos se
adapten a los cambios genéticos en el cáncer de cada paciente. Según los
investigadores, en un futuro cercano, las pruebas genéticas ayudarán a decidir los
mejores tratamientos, es decir, aquellos con la mayor probabilidad de respuesta,
para así evitar que el paciente reciba terapias que posiblemente no lo ayuden.

En la actualidad, ya existen medicamentos que han demostrado su eficacia contra


el cáncer con cambios genéticos específicos y están aprobados por la Food and
Drug Administration de los Estados Unidos (“Precision medicine in cancer
treatment”, 2017).

3.10.1. Exactitud y precisión

Los conceptos de exactitud y precisión muestran distintas propiedades de una


medición. Por un lado, la exactitud es la propiedad de una medición de lograr el
valor más cercano al verdadero (exacto); entonces, cuanto menor es la diferencia
entre la medición y el valor exacto, la medición es más exacta. Por otro lado, la
precisión es la propiedad de un grupo de mediciones de lograr valores con la menor
dispersión posible; en otras palabras, de lograr un error acotado. Entonces, pueden
darse cuatro situaciones, como se ilustra en la Figura 37: a) alta exactitud y alta
precisión, b) alta exactitud y baja precisión, c) baja exactitud y alta precisión y d)
baja exactitud y baja precisión. La situación ideal, de acuerdo con la Figura 37, es la
situación A; en caso de no lograr alta exactitud, la mejor situación siguiente es la C.
En ambas situaciones, la alta precisión permite un menor margen de error.

Con la aplicación de estos conceptos de la teoría de la medición a la medicina de


precisión, ante la imposibilidad de lograr el mejor diagnóstico y el mejor tratamiento,
es decir, la personalización absoluta, alcanzar diagnósticos y tratamientos de alta
precisión permite acotar el margen de error y acercarse a la situación ideal.

Figura 37. Cuatro situaciones sobre exactitud y precisión

3.10.2. Implementación de un sistema de medicina de precisión

La implementación de un sistema de medicina de precisión requiere del


procesamiento de toda la información disponible de un paciente determinado y de
un grupo de pacientes; esto solo es posible mediante la informática en salud,
mediante las historias clínicas electrónicas.

En un artículo publicado en el John Harvard 's Journal (Shaw, 2015) se discute


acerca de la influencia de empresas como Amazon y Netflix, que utilizan toda la
información disponible acerca de sus clientes para personalizar la oferta de
productos y servicios. Cada vez son más las empresas que recolectan información
de sus clientes; luego, la analizan con técnicas de minería de datos y estadísticas y,
entonces, estratifican distintos grupos y determinan la mejor forma de atender sus
necesidades de productos y servicios; en otras palabras, una personalización
basada en grandes volúmenes de datos.

Otra visión de la forma de implementar un sistema de medicina de precisión es un


sistema de información que estratifique en capas los datos de los pacientes; por
ejemplo, de acuerdo con las características de sus exposomas, señales y síntomas,
genomas, epigenomas, microbiomas y otros datos relevantes, en una forma
análoga a como organiza la información de locaciones el sistema de Google Maps
(National Research Council, Committee on A Framework for Developing a New
Taxonomy of Disease, 2011). En esta analogía entre Google Maps con un sistema
de medicina de precisión, una locación o un paciente determinados, se hace un
recorrido entre las distintas capas de tipo de información, que permiten agrupar
locaciones o pacientes con características similares, como muestra la Figura 38.

Figura 38. Analogía entre Google Maps y un sistema de medicina de precisión

Fuente: adaptada de National Research Council, Committee on A Framework

for Developing a New Taxonomy of Disease, 2011.


Entonces, un sistema de medicina de precisión se visualiza como lo muestra la Figura 39.

Figura 39. Sistema de medicina de precisión


Fuente: adaptada de National Research Council, Committee on A Framework
for Developing a New Taxonomy of Disease, 2011.

Aquí, el sistema de información se nutre de datos provenientes de la historia clínica


electrónica, de la caracterización molecular de dichos pacientes y de los resultados
de investigaciones básicas y clínicas; luego, mediante técnicas de minería de datos,
estadística e inteligencia artificial (machine learning) estratifica la información y
determina grupos de pacientes con características similares.

El resultado de este sistema de información es una red de conocimiento, que se


puede utilizar para ayudar a investigaciones básicas y clínicas futuras, cuyos
resultados se realimentan, como lo muestra la Figura 40, y, de esta forma, podrían
ayudar a diseñar tratamientos nuevos y diferentes.
3.11. Bibliografía

American Association for the Advancement of Science. (2001). A history of the


Human

Genome Project. Science, 291(5507), 1195.

García-Sancho, M. (2012). Biology, computing, and the history of molecular


[Link] Macmillan.

GenBank Overview. (s/f). NCBI. Recuperado agosto 21 2018, de


[Link]

Han, J., Kamber, M., Pei, J. (2011). Data mining: concepts and techniques (3rd ed.).

Morgan Kaufmann.

Harisha, S. (2010). Fundamentals of bioinformatics. I. K. International.

Hodson, R. (2016). Precision medicine. Nature, 537, S49.

KEGG: Kyoto Encyclopedia of Genes and Genomes. (s/f). Recuperado agosto 21


2018, de [Link]

Marr, B. (2018, may 21). How much data do we create every day? The
mind-blowing stats everyone should read. Forbes. Recuperado agosto 22 2018, de
[Link] MS Bioinformatics. (s/f). NUST. Recuperado agosto 18 2018, de
[Link]
National Research Council, Committee on A Framework for Developing
A New Taxonomy of Disease. (2011). Toward precision medicine: building a
knowledge network for biomedical research and a new taxonomy of disease.
Washington, DC: National Academies Press.

Office of Health and Environmental Research (1987, abril). Report on the


Human Genome Initiative. Subcommittee on Human Genome, Health and
Environmental Research Advisory Committee, US Department of Energy.

Office of Energy Research. Recuperado de [Link]

Pevsner, J. (2015). Bioinformatics and functional genomics (3rd ed.). Wiley-Blackwell.

Precision medicine in cancer treatment. (2017, octubre 3). National Cancer Institute.

Recuperado de [Link]

PubMed. (s/f). Home. NCBI. Recuperado agosto 21 2018, de [Link]

Search NCBI databases. (s/f). NIH. Recuperado agosto 21 2018, de


[Link]

Shaw, J. (2015, mayo-junio). Toward precision medicine. Building scale in biomedical

informatics. John Harvard 's Journal.

The Human Genome. Special Issue. (2001). Science, 291(5507).

Recuperado de [Link]

UniProt. (s/f). Recuperado agosto 21 2018, de [Link]

van’t Veer, L. J., Dai, H., van de Vijver, M. J., He, Y. D., Hart, A. A., ... & Friend, S.
H. (2002, enero). Gene expression profiling predicts clinical outcome of breast cancer.
Nature, 415(6871), 530-6. What is metabolomics? (s/f). Train online. Recuperado
agosto 21 2018, de [Link]
Wheelock, C. E., Goss, V. M., Balgoma, D., Nicholas, B., Brandsma, J., ... &
U-BIOPRED Study Group. (2013). Application of ’omics technologies to biomarker
discovery in inflammatory lung diseases. Eur Respir J, 42(3), 802-25.
Capítulo 4. Bioingeniería

Jorge Garbino

4.1. Introducción

En la medicina actual confluyen varios factores que demandan soluciones creativas


para la procura, la gestión y la comunicación de la información clínica del paciente.

Por un lado, el crecimiento de la expectativa de vida poblacional y los malos hábitos


en el cuidado de la salud hacen que la demanda de atención se dispare y los tiempos
medios de atención por paciente individual se reduzcan notablemente.

Por otro lado, el pensamiento actual de calidad en la atención está muy marcado por
dos conceptos poderosos: uno, el de la medicina basada en la evidencia, que obliga
a la objetivación de los diagnósticos mediante un mayor control (monitorización) y
cantidad de estudios complementarios, lo que acarreando un crecimiento
exponencial del volumen de información clínica relevante generada por paciente, que
puede llegar a ser abrumador e inabordable. El segundo concepto relacionado con la
calidad de atención es el de una documentación rigurosa de la práctica, que debe
intercalarse durante la ejecución o en forma inmediata posterior a su finalización,
para no caer en olvidos y perder confiabilidad en el registro. Esto obviamente distrae
parte de la atención del profesional sobre el paciente.

Por último (y no menos importante), está el hecho de que los pacientes tienen fácil
acceso a información sobre su patología en internet y demandan del médico mejores
respuestas a sus inquietudes. Adicionalmente, se observó que es beneficioso volver
a los pacientes más conscientes de su estado de salud y cederles buena parte del
control del propio tratamiento (empoderamiento). No obstante, estos dos hechos
obligan al médico a aumentar la proporción del tiempo de la consulta dedicado a
lograr una comunicación efectiva con el paciente.

Surge, entonces, una pregunta: ¿cómo pueden los médicos y los enfermeros
procurar, procesar (analizar, interpretar) y registrar el mayor volumen de información
clínica relevante (generada por otros y por ellos mismos) si ahora disponen de menos
tiempo para hacerlo que antaño?

Existen varias disciplinas que han ido en auxilio de los profesionales de la salud y la
ingeniería

biomédica es una de las más importantes, sobre la cual tratamos en este capítulo.
En la sección 1 analizamos el marco de integración de esta disciplina con la
informática médica, en búsqueda del deseado objetivo de una mayor eficiencia en la
gestión de la información. En la sección 2 adoptamos la mirada mecanicista de esta
disciplina para el estudio cuantitativo de los principales sistemas del cuerpo humano,
mientras que en la sección 3 analizamos brevemente la tecnología de algunos
sensores utilizados para la medición de las magnitudes orgánicas más importantes,
descritas con los conceptos de signos vitales y señales biomédicas. Los signos vitales
son los parámetros orgánicos cuya dinámica puede monitorizarse fielmente a
intervalos de uno o más segundos (temperatura, presión arterial media, glucemia,
etc.), en tanto que la señal biológica o biomédica es el registro de un parámetro
orgánico que muestra variaciones significativas en tiempos cortos, del orden de pocos
milisegundos (electrocardiograma, presión arterial, etc.). Por último, en la sección 4
conocemos algunos de los estándares más difundidos en cuanto a los protocolos de
captura automática y comunicación y los formatos de representación de signos vitales
y señales biológicas, cuya implementación sistemática genera una reducción muy
significativa de errores y de tiempos de registro.

4.2. Secciones

4.2.1. Ingeniería biomédica. Marco conceptual. Integración con la informática médica.

4.2.2. El cuerpo humano como sistema físico. Subsistemas y magnitudes principales.

4.2.3. Instrumentación biomédica. Sistemas de medición. Instrumentos del ámbito


clínico.

4.2.4. Integración de signos vitales y señales a los sistemas de la historia clínica


electrónica (HCE). Estándares y protocolos de captura, representación y
comunicación de signos vitales y señales.

4.2.1. Sección 1. Ingeniería biomédica

[Link]. Marco conceptual

[Link].1. Qué es la ingeniería biomédica

Esta especialidad profesional es un campo interdisciplinario en constante cambio y


evolución, pero con una finalidad constante, la de imaginar, desarrollar e implementar
nuevas soluciones para los problemas de la salud humana y animal con el enfoque
sistémico de la ingeniería y la combinación del conocimiento de sus diversas ramas.

Respecto de la salud humana, la ingeniería biomédica estudia los problemas que


enfrenta la medicina con el objetivo de brindar nuevas herramientas para su
tratamiento a médicos y enfermeros. Así, se encuentran líneas de trabajo tan dispares
como el diseño y la fabricación de equipos médicos, la creación de nuevos
biomateriales y prótesis para reemplazo de tejidos biológicos y el desarrollo de
tecnologías, como el procesamiento de señales o la inteligencia artificial, entre otras.
Para dimensionar el impacto de las tecnologías en la medicina basta intentar encontrar
un área en la que no se aplique de manera significativa.

Las subdisciplinas clásicas de la ingeniería biomédica incluyen la biomecánica, la


biohidráulica, los biomateriales, la bioinstrumentación y el diagnóstico por imágenes.
Pero hay otras más recientes que cobran fuerza, como la ingeniería biomolecular, la
bionanotecnología y la neuroingeniería, por nombrar solo algunas. Un ingeniero
biomédico participa de equipos interdisciplinarios junto a médicos, enfermeros y
especialistas de otras ingenierías para atender problemas de los sistemas de salud en
general; además, puede trabajar en áreas en las que se hace uso intensivo de ciertas
tecnologías, como la informática médica, la ingeniería clínica y la ingeniería de
rehabilitación.

[Link].2. Cómo se relaciona la ingeniería biomédica con la informática

La informática, luego de desbordar los laboratorios de investigación y desarrollo en


física y electrónica, donde nace, pasa a los ámbitos empresarial y doméstico y
comienza a permear los espacios donde se utiliza el conocimiento como un insumo de
trabajo; entonces, las universidades son un destino obvio para su aplicación. En
particular, en las carreras basadas en las ciencias exactas y naturales se vuelve una
herramienta indispensable dada la gran cantidad de información científica que se
genera año a año y las evidentes ventajas que acarrea el almacenamiento digital de la
información versus la alternativa clásica del soporte analógico en papel.

Asimismo, el formato digital facilita tanto la comunicación social de la información que


hoy resulta impensable el regreso al papel, salvo para ocasiones muy puntuales, como
la escritura para tomar notas y la lectura como disfrute cultural.

Además, como el tratamiento cuantitativo de la información caracteriza a las


ingenierías, resultó obvia la adopción de la informática y las computadoras como las
herramientas ideales para combinar y procesar datos de todo tipo. En la ingeniería
biomédica en particular se manipulan datos de naturaleza física muy diferentes entre
sí, como los de origen biológico, resultantes de mediciones de los distintos parámetros
orgánicos o signos vitales del ser humano o de sus tejidos (tanto in vitro como in vivo),
junto con otros provenientes de mediciones sobre materiales artificiales o naturales
inorgánicos. Una vez representados todos estos datos en formato digital se vuelve
posible combinarlos y generar nuevas líneas de trabajo, como la simulación de
sistemas, tarea que resulta casi impracticable en otros formatos (algo más sobre este
tema se verá en la sección siguiente).

[Link].3. Cuál es la relación de la ingeniería biomédica con la informática médica

La finalidad de la informática médica es proveer al médico, en tiempo y forma, la mejor


información existente para la toma de una decisión diagnóstica o terapéutica, de
manera tal que esta sea la mejor opción posible para el paciente en el estado de salud
y contexto sanitario en que esté en un momento determinado.

El médico necesita acceder a fuentes de información dinámica, tanto internas como


externas a su institución, por lo que requiere de plataformas informáticas variadas,
según el ámbito de atención en que esté, que le sirvan no solamente de canal de
acceso a dicha información, sino también de punto de ingreso de información nueva
generada por él, que debe ser puesta a disposición de sus colegas.

La ingeniería biomédica, al diseñar y construir el equipamiento médico y los


instrumentos analíticos, es responsable por la generación y la gestión inicial de la
información más objetiva sobre el paciente que puede tener el médico a su
disposición. Asimismo, y mediante el trabajo diario de los ingenieros clínicos
(subespecialidad de la ingeniería biomédica) en campo, se debe garantizar, en la
medida de lo posible, que los sensores en los equipos e instrumentos médicos
funcionen correctamente, para que la información generada por ellos sea fidedigna y
no se induzcan errores médicos que puedan causar un daño posterior al paciente,
situación denominada iatrogenia.

Con el desarrollo científico y tecnológico, los equipos médicos y los instrumentos de


laboratorio comienzan a ofrecer mayor cantidad y variedad de datos, con mayor
precisión y en mejores condiciones de visualización. Con la revolución digital aparecen
los circuitos integrados de memoria de lectura y escritura RAM (random access
memory) y los equipos médicos comienzan a almacenar internamente (y a exhibir) a
demanda los parámetros o signos vitales previos del paciente durante períodos que
van desde minutos y horas hasta varios días.
Figura 40. Monitor multiparamétrico de paciente Philips IntelliVue

con exhibición de historial de signos vitales previos

Fuente: foto de monitor de un paciente en la Unidad de Terapia Intensiva

de Adultos del Hospital Italiano de Buenos Aires.

El desarrollo de sensores más precisos y rápidos, combinado con la capacidad de


memoria mencionada antes, habilitó el registro fiable de las señales biomédicas. Esto,
a su vez, permitió tener un seguimiento de la dinámica del paciente y, eventualmente,
poder anticipar la ocurrencia de descompensaciones y actuar en la prevención.

En la sección siguiente señalamos algunas características físicas de los sistemas


cardiovascular y respiratorio, los dos sistemas orgánicos objeto de mayor
monitorización instrumental y que sirven de sustrato para contextualizar el
subsiguiente sobre bioinstrumentación, en el que presentamos los conceptos básicos
de los sistemas de medición y detalles tecnológicos de algunos sensores
característicos de la monitorización de los dos sistemas descritos.

Una vez validada en el punto de origen, toda la información que deba ser almacenada
o consultada en otro punto del sistema de salud se introduce en un canal informático
adecuado y pasa al dominio de la informática médica. Para ello, numerosos equipos
incorporan la capacidad de conectarse a través de redes informáticas y envían sus
datos a la HCE del paciente de forma inmediata a su obtención mediante procesos
que revisamos en mayor detalle en la sección 4.
La figura muestra equipos de distintas especialidades médicas que integran sus datos
en repositorios centrales de signos vitales, señales e imágenes, de manera que los
datos estén disponibles para otros integrantes del equipo de salud pocos segundos
después de la realización de los estudios.

4.2.2. Sección 2. El cuerpo humano como sistema físico

Como se mencionó antes, el enfoque de trabajo de la ingeniería biomédica es el de


una ciencia exacta. De aquí resulta que el cuerpo humano se estudia como un sistema
complejo sujeto a las leyes de la física y se asume que sus componentes, los
subsistemas orgánicos, presentan mecanismos de funcionamiento interno y de
interacción mutua con relaciones causa-efecto, factibles de ser analizados y
explicados en un nivel de detalle creciente. La Tabla 1 lista los sistemas orgánicos con
sus funciones prioritarias.
Sistema Función
orgánico

Sistema Entradas sensoriales e integración entre sistemas para comando


neuroendocri y control.
no

Sistema Soporte y movimiento.


musculoesq
uelético

Sistema Transporte entre los tejidos internos y los que delimitan con el
cardiovascula ambiente.
r

Sistema Digestión de alimentos y absorción de nutrientes.


gastrointestin
al

Sistema Intercambio de gas con el aire y regulación de gases en sangre.


respiratorio

Sistema Regulación del volumen y la composición de los fluidos


renal corporales.

Sistema Protección contra la invasión microbiana y barrera de vapor de


epitelial (piel) agua.

Sistema Generación de descendientes de la especie.


reproductivo

Sistema Eliminación de microbios y otras materias extrañas.


inmune

Tabla 1. Sistemas orgánicos y sus funciones principales


[Link]. Análisis de los sistemas

El estudio de cómo los sistemas orgánicos cooperan para la función de la homeostasis


general del cuerpo corresponde a la fisiología, pero el aporte objetivo de la
cuantificación que permiten los instrumentos y los métodos de análisis de sistemas de
la ingeniería biomédica son de inestimable ayuda para el fisiólogo. A continuación, y a
modo de ejemplo, se bosqueja un esquema funcional del cuerpo entendido como un
sistema físico que intercambia masa y energía con el ambiente.

Figura 41. Esquema sistémico del cuerpo

Fuente: adaptado de Saltzman, 2009

El análisis del balance energético es importante para entender la dinámica de


cualquier sistema que interacciona con el ambiente. Todo buen análisis comienza con
la definición de los límites del sistema, es decir, la frontera entre el interior y el exterior
mediante la cual se producen las interacciones. En el caso del cuerpo, los límites
pueden definirse de más de una manera, lo que origina sistemas diferentes y marcos
de trabajo alternativos (Saltzman, 2009). En el esquema anterior, por ejemplo, hay dos
definiciones de límites alternativos:

● La frontera delineada en verde, limitada estrictamente al tejido epitelial y sus


especializaciones, que no incluye como parte del cuerpo los espacios virtuales
dentro de los sistemas respiratorio, digestivo, renal ni reproductivo,
● La frontera delineada en gris, que sí considera estos espacios incluidos dentro del
sistema corporal.
Una vez definidos los límites se puede comenzar a estudiar la dinámica del sistema en
relación con los flujos de masa o energía en un sentido global, pero también se puede
volver más restrictivo y considerar solo el movimiento de algunos elementos, como el
agua corporal, o de otras variables, como la carga eléctrica. El cuerpo también se
puede considerar un sistema cerrado cuando se lo evalúa solo durante momentos en
los que no ingresan o salen sustancias o ampliar el alcance y estudiarlo en su
completitud, como un sistema abierto.

[Link]. Modelización y simulación de sistemas

Las representaciones físicas o mentales de cualquier aspecto de la realidad, basado


en observaciones concretas o creencias sobre dicho aspecto, constituyen un modelo
de este trozo de realidad (Bronzino, 2006). Como ejemplo básico, planteamos el
balance de masa en el organismo de alguna sustancia nutritiva (glucógeno, por
ejemplo), para considerarlo un sistema abierto mediante la siguiente ecuación general
(Saltzman, 2009):

Variación de masa = Masa ingresada - Masa saliente + (Masa generada -

Masa consumida)

Se puede, entonces, asumir algunas hipótesis adicionales y analizar sus


consecuencias. La glucogenogénesis o glucogénesis es el proceso de síntesis de
glucógeno a partir de un precursor más simple, la glucosa-6-fosfato. Se lleva a cabo
principalmente en el hígado y, en menor medida, en el músculo. Por ejemplo, no hay
salida de glucógeno del sistema y su destrucción (glucogenólisis) y la generación
interna de este (glucogenogénesis) están balanceadas; luego, la ecuación anterior se
reduce a la siguiente:

Variación de masa (VM) = Masa ingresada (MING)

Para un cierto intervalo de tiempo dt, la masa ingresada de glucógeno MING será igual
al valor de la tasa de ingreso de glucógeno RGluco durante dicho intervalo, multiplicado
por el valor del intervalo, es decir:

VM = MING = RGluco * dt

Luego, la masa corporal de glucógeno (MCG) en un momento N cualquiera puede

calcularse como:

MCGN = MCGN-1 + Variación de masa = MCGN-1 + RGluco * dt, donde MCGN es la masa
corporal de glucógeno en el momento N y MCGN-1 es la masa corporal de glucógeno
en el momento (N-1) anterior (entre ambos transcurre el intervalo dt).
Si suponemos que durante un buen tiempo la tasa de ingreso de glucógeno será
constante (por ejemplo de 50 g/h en un paciente internado que usa bomba de
alimentación enteral), la última ecuación puede generalizarse para calcular la masa de
glucógeno corporal en cualquier momento del día, a partir de conocer su valor en
algún momento inicial (por ejemplo, de 3 kg a la 1) y se obtenemos el siguiente gráfico
de evolución:

Figura 42. Evolución de la masa de glucógeno

corporal según el modelo propuesto

La Figura 42 muestra que, con el paso del tiempo, el glucógeno corporal solo puede
aumentar a partir de su valor inicial de 3 kg. Si bien no se estudian aquí los
mecanismos específicos para tratar el glucógeno en el cuerpo, la fórmula anterior
permite hacer una predicción sobre la evolución general de su masa. Esta predicción
debe ser luego contrastada con observaciones reales sobre el sistema. Si estas son
coincidentes, entonces el modelo definido puede usarse como una herramienta de
predicción. Además, un modelo que realiza buenas predicciones sugiere que las
hipótesis sobre las que se basó pueden ser correctas (sin constituir una prueba de
ello). El caso de este ejemplo, donde a partir de las hipótesis pudo armarse una
ecuación matemática, constituye un “modelo matemático” del sistema bajo estudio; en
este caso, el balance del glucógeno corporal.

Dado que no es verdad que la cantidad de glucógeno corporal aumente linealmente


con el paso del tiempo, ni aun forzando su ingreso en forma constante, resulta
evidente que el modelo no predice la realidad, con lo que podemos afirmar que, si no
todas, al menos algunas de las hipótesis iniciales eran equivocadas, como resulta ser
en este caso, puesto que:
● Hay salida de glucógeno del cuerpo a través de las heces.
● Hay una producción neta de glucógeno (positiva o negativa) dada por la
necesidad de balancear el nivel de glucosa en sangre.
Tomando en cuenta estas y otras observaciones de la realidad se construyen modelos
matemáticos más complejos que el descrito, pero más ajustados a la realidad.

Un área donde se ha desarrollado extensamente la modelización matemática es en la


del estudio de la farmacocinética y la farmacodinámica de los medicamentos. La
farmacocinética es el estudio de la evolución temporal de la presencia de una droga
en el cuerpo en las etapas de absorción, distribución, metabolismo y excreción, en
tanto que la farmacodinámica estudia las relaciones entre la dosis y los efectos y los
mecanismos de acción por los cuales una droga produce efectos terapéuticos
(también se estudian los eventos adversos, para analizar cómo pueden mitigarse).
Una introducción a este tema se puede leer en este documento del Companion Web
generado por la American Society of Health-System Pharmacists, una organización
profesional de farmacéuticos que trabajan en hospitales y otros centros prestadores
de cuidados de salud.

No ahondamos en la modelización matemática compleja en el presente texto, pero

concluiremos con dos conceptos adicionales:

[Link]. Simulación en computadoras o “en silicio”

Una vez que un modelo matemático está bien definido, es decir que se han escrito
todas las ecuaciones matemáticas que representan la dinámica de las variables
orgánicas de interés, la herramienta obvia de elección para representar y trabajar con
dichos modelos es la simulación informática (“Simulación por computadora”, 2018).
Se trasladan, entonces, las ecuaciones a algoritmos de un lenguaje de programación
como C++ o Java y se desarrolla un programa de software que, al ejecutarse, permite
calcular y, eventualmente, graficar la evolución de las variables de interés para
distintas condiciones orgánicas simuladas. La ventaja de esta aproximación es que se
pueden testear situaciones límites que serían impracticables en pruebas clínicas con
seres humanos.

Cuando los objetivos buscados con la simulación son más ambiciosos, por ejemplo
durante el desarrollo de nuevos fármacos, donde puede verse afectada la salud
humana, se requiere obtener la mayor exactitud posible, por lo cual se intenta modelar
los fenómenos orgánicos partiendo de las leyes de la física y la química en los niveles
atómico y molecular (nano y microescala) e integrar los resultados previos evaluados
sobre millones y millones de partículas para llegar a la macroescala celular y,
eventualmente, hasta las escalas tisular y del organismo como un todo.

Los emprendimientos más prometedores son los gubernamentales, tanto de un solo


país, como los de los National Institutes of Health (NIH) de los Estados Unidos, como
los realizadas en consorcio de países europeos, como el proyecto Virtual Physiological
Human o la iniciativa Avicenna Alliance de la Unión Europea. Los NIH centralizan las
iniciativas de simulación de los centros estatales de investigación en tecnología
biomédica. Avicenna Alliance es la iniciativa de varios países para el desarrollo de la
medicina predictiva.

En el companion web del eBook se incluyen dos white papers muy interesantes con
los enfoques subyacentes a cada una de estas iniciativas.

También encontramos proyectos privados comerciales, como PhysioPD Research,


orientado al modelo business to business de los laboratorios farmacológicos, y otros
sin fines de lucro y más orientados a la investigación, como el proyecto Cajal Blue
Brain. PhysioPD Research es una plataforma de simulación fisiológica para el
desarrollo de medicamentos de la empresa ROSA.

Existen interesantes herramientas de simulación con fines puramente educativos,


tanto sin costo, como la de la Systemic Initiative for Modeling Investigations and
Opportunities with Differential Equations (SIMIODE, una iniciativa para el aprendizaje
colaborativo en modelización mediante ecuaciones diferenciales), de licencia mixta,
como Pulse Physiology Engine, y solo comerciales, como JustPhysiology. Pulse
Physiology Engine es un simulador fisiológico open source escrito en lenguaje C++, de
la empresa Kitware, que puede usarse para proyectos educativos y de investigación y
bajo licenciamiento en proyectos comerciales. JustPhysiology es un recurso web para
el aprendizaje en línea de la fisiología humana apoyado sobre el simulador HumMod.
Se utiliza mediante suscripción.

Los proyectos de mayor alcance requerirán supercomputadoras, denominadas


también HPC (high performance computing), fabricadas específicamente para este tipo
de tareas; las más conocidas son las de Cray. Cray Inc. es un fabricante de
supercomputadoras para tareas de cómputo intensivo, entre ellas, la simulación
dinámica de fenómenos a escala molecular.

Para conocer algunos de los métodos utilizados en diferentes tipos de simulación se


tienen disponibles dos artículos en el companion web: el primer documento, más
técnico, presenta el contexto, los beneficios y las condiciones para el uso óptimo del
programa NAMD (probablemente, el más utilizado para simulaciones realistas de la
dinámica de grandes moléculas orgánicas) (Phillips et al., 2005). El segundo artículo,
de la empresa Fujitsu, trata algunas consideraciones generales sobre la simulación
mediante supercomputadoras (Watanabe et al., 2012).

[Link]. Otros tipos de modelización

Una forma alternativa de generar modelos, que resulta más propia de la medicina, es
el modelo físico animal o, simplemente, modelo animal, por el cual se recrea un cuadro
patológico humano sobre un animal de experimentación para estudiar la evolución de
la enfermedad y sus posibles tratamientos. Como ejemplo, referenciamos un artículo
que analiza las ventajas y las desventajas de distintos modelos animales de
insuficiencia hepática fulminante (Newsome et al., 2000). Este modelo en particular es
importante, por ejemplo, para evaluar la eficiencia potencial de un sistema de soporte
hepático extracorpóreo (Filipponi & Mosca, 2001).

Por último, otra forma de modelizar la realidad es construir un modelo físico artificial.
Un ejemplo de esto resulta fácil de comprender con el modelo Windkessel del árbol
arterial (Westerhof et al., 2009). Este plantea la dinámica de la sangre arterial en
términos de resistencia y compliance de las arterias como elementos discretos, por lo
que los modelos físicos del sistema cardiovascular completo (o de partes de este) se
pueden construir conectando entre sí tubos rígidos y elásticos. Como ejemplo, en este
sitio alemán sobre lecciones de biología se enseña a construir un modelo físico
Windkessel, muy sencillo, para mostrar el fenómeno del retroceso elástico de la aorta
que, junto con el cierre de la válvula aórtica y la resistencia hidrodinámica elevada de
las arteriolas, genera un flujo continuo a nivel de los capilares. Al final de la página se
ofrece la descarga de un video demostrativo del efecto Windkessel que utiliza el
modelo físico construido. El material del sitio puede utilizarse bajo la licencia Creative
Commons.

En la Figura 43 se esquematiza la relación iterativa entre la observación, la


interpretación y la modelización cuantitativa.
Figura 43. Dinámica general del proceso de modelización cuantitativa
Fuente: adaptado de Bronzino, 2006.

El esquema de la Figura 43 muestra el flujo de trabajo para la modelización


cuantitativa: básicamente, a partir de la observación del sistema real se proponen
hipótesis sobre el funcionamiento del sistema (interpretación cualitativa) en relación
con la dinámica de algunas variables de interés con posibilidad de su traslado al
modelo cuantitativo de elección (matemático, animal o físico). Luego, el modelo se
implementa y se realizan las acciones necesarias para obtener resultados que puedan
contrastarse con las observaciones sobre el sistema real y midan la similitud entre el
modelo y el sistema real. Si las diferencias no son muy grandes, el modelo puede ser
viable haciendo algunos ajustes de reducción o ampliación, mientras que si aquellas
son muy significativas hay que replantear las hipótesis cualitativas para elaborar un
modelo diferente.

En los próximos apartados señalamos algunas características cuantitativas


estructurales y funcionales de dos de los sistemas fisiológicos más importantes para la
vida, como los sistemas cardiovascular y respiratorio, que han sido (y son) de los más
estudiados por la medicina y la ingeniería biomédica. De la buena interacción de estos
sistemas entre sí con los demás subsistemas orgánicos y con el ambiente depende en
buena medida el estado de salud del ser humano.

[Link]. Magnitudes significativas del sistema cardiovascular

Desde la óptica ingenieril, este sistema es de distribución, mediado por un fluido (la
sangre) de sustancias nutritivas, gases y mediadores químicos y de recolección de
desechos para todas las células del cuerpo y los sistemas orgánicos.
La Figura 44 muestra un esquema, acompañado por los porcentajes de reparto de la
volemia y del flujo circulatorio entre los distintos órganos y tejidos corporales en el
estado de reposo. La volemia es el volumen total de sangre contenida en el sistema
cardiovascular (corazón, arterias, capilares y venas). Supera los cinco litros para un
hombre de 75 kg.

Figura 44. Esquema funcional general del sistema cardiovascular

Fuente: Mulroney & Myers, 2009.

A continuación, describimos brevemente sus componentes principales:

● Un fluido de transporte, la sangre.


● Una bomba o elemento impulsor: el corazón.
● Una red de cañerías o conductos: los vasos sanguíneos.
● Un sistema de control.

La sangre

Este elemento heterogéneo se considera un tejido distribuido con elementos celulares


(hematocitos) suspendidos en un fluido rico en proteínas (el plasma). De los elementos
celulares, los principales son los glóbulos rojos o eritrocitos, que transportan el
oxígeno (O2) mediante una proteína transportadora (hemoglobina), los glóbulos
blancos, participantes del sistema inmune y las plaquetas, importantes en la
coagulación. La sangre tiene una densidad promedio de 1,05 g/cm3 y una viscosidad
de 3 cP (centipoise), que resulta tres veces o más mayor a la del agua. El volumen
sanguíneo representa del 7% a 9% del peso corporal total. La densidad es la relación
de la masa de un fluido sobre el volumen que ocupa, en tanto que la viscosidad es la
propiedad física que expresa la resistencia a deformarse y “fluir” de un líquido.

El corazón

Responsable de impulsar la sangre, se ubica dentro del tórax y pesa algo más de 300
g. Funcionalmente, comprende dos bombas en serie, el ventrículo izquierdo, que envía
la sangre oxigenada proveniente de los pulmones hacia todas las células del cuerpo a
través de la aorta y las arterias subsiguientes, y el ventrículo derecho, que envía la
sangre carboxigenada proveniente de los tejidos hacia los pulmones para la
eliminación del dióxido de carbono (CO2) y su oxigenación. Los otros dos
compartimentos (aurículas izquierda y derecha) básicamente realizan el llenado de los
ventrículos.

Para bombear la sangre, el corazón contrae de manera sincronizada las paredes


musculares que conforman las aurículas y los ventrículos aumentando la presión en el
interior de sus cavidades y expulsando la sangre hacia el sistema arterial. En cada
latido, la presión arterial en el ventrículo izquierdo pasa de una presión mínima
(diastólica) de 80 milímetros de mercurio (mm Hg) a una presión máxima (sistólica) de
120 mm Hg, para expulsar un promedio de 75 ml de sangre (volumen eyectado [VE]).

Las contracciones o latidos se producen con una frecuencia que naturalmente oscila,
en reposo, entre los 55 y 75 latidos por minuto (lpm), pero que puede superar los 200
lpm en algunos individuos entrenados en condiciones de alta exigencia física.

Si para cada latido multiplicamos la frecuencia cardíaca (FC) por el VE (estimado)


obtenemos una proyección del flujo sanguíneo a un minuto, que se denomina volumen
minuto cardíaco o gasto cardíaco (GC).

GC = FC x VE

El principal modificador fisiológico de la FC y, luego, del GC es el nivel de actividad


corporal. Este último puede oscilar desde los 5 lpm del reposo hasta 18 a 20 lpm para
un hombre de 75 kg bajo gran demanda física.
Los vasos sanguíneos

Arterias, venas y capilares constituyen una red de varios kilómetros que parten desde
la arteria aorta que recibe la sangre desde el ventrículo izquierdo y luego pasa a las
arterias principales y sus ramificaciones y, por último, a las arteriolas y la red capilar,
cuando prácticamente alcanza cada una de las células del cuerpo. Luego, a través del
lecho venoso, las vénulas, las venas principales y la vena cava se devuelve la sangre
al corazón en el ventrículo derecho. Según sea su ubicación en esta red, cambian su
cantidad, dimensiones y la estructura anatómica de la pared. En la Tabla 2 se ven, a
modo de ejemplo, las variaciones dimensionales para el ser humano y el área total
disponible en cada nivel para la circulación de la sangre como consecuencia de estas
diferencias.

Tipo de vaso Diámetro Función


(mm)

Aorta 25 Amortiguación del pulso y


distribución

Arterias elásticas 1-4 Distribución

Arterias musculares 0.2-1.0 Distribución y resistencia

Arteriolas 0.01-0.02 Resistencia (regulación


flujo/presión)

Capilares 0.006-0.010 Intercambio


gases/nutrientes/desechos

Vénulas 0.01-0.02 Intercambio, recogida y


capacitancia

Venas 0.2-5.0 Capacitancia (volumen


sanguíneo)

Vena cava 35 Recogida


Tabla 2. Propiedades mecánicas de los vasos en el ser humano
Fuente: “Arteria”, 2018.

La presión dentro de los vasos es siempre decreciente en el sentido de avance de la


sangre. En la Figura 45 se observan las variaciones en las presiones sistólica y
diastólica a medida que se recorre el lecho vascular. Es notable la gran reducción de
presión a nivel de las arteriolas, en las que cae un tercio de la presión, por su gran
resistencia hidráulica debida a su reducido diámetro interno que, sin embargo, puede
modificarse de manera dinámica gracias a que poseen en su pared una capa muscular
muy gruesa.

Figura 45. Variabilidad de la presión en la circulación sistémica

Fuente: “Física del sistema cardiovascular”, s/f.

[Link]. Magnitudes significativas del sistema respiratorio

Este sistema es uno de los más críticos para el mantenimiento de la vida, por lo que su
desajuste tiene consecuencias negativas en el corto plazo. Existen dos fenómenos
principales ligados al concepto de respiración que suceden en forma permanente y
simultánea dentro de nuestro cuerpo. El primero, denominado respiración celular, se
sitúa en el interior de cada célula de los tejidos y es el mecanismo por el cual se extrae
energía desde las moléculas orgánicas, con consumo de O2 y desecho de CO2, y el
otro, la respiración externa, que sucede en el interior de los pulmones y consiste en el
intercambio de gases con el exterior (ingreso de O2 y expulsión de CO2). Los
intercambios gaseosos en ambos lugares se producen por el mecanismo de la difusión
pasiva. La difusión pasiva es el movimiento del gas en el sentido definido por una
diferencia o gradiente de presión.

De una buena respiración externa depende, en parte, la posibilidad de realizar con


éxito la respiración celular. Ambos procesos se vinculan físicamente a través del
sistema circulatorio.

En la Figura 46 se esquematizan los pulmones y el alvéolo, que es la estructura


final dentro de ellos en la que se realiza el intercambio.

Figura 46. Esquemas del pulmón y el alvéolo

Fuente: “Sistema respiratorio”, s/f.

Cada alvéolo tiene un diámetro aproximado de 300 micrómetros (0.3 mm) y existen
aproximadamente 300 millones de alvéolos. El volumen total de aire en los alvéolos
alcanza los tres litros y se estima que el área de intercambio gaseoso supera los 80
m2. En el interior del alvéolo se halla una mezcla del aire inspirado con el remanente
de la espiración previa, no expulsado de la vía aérea (y con concentraciones
relativamente constantes), por lo que dicha mezcla tiene una concentración parcial de
O2(102 mm Hg) algo menor a la del aire atmosférico (150 mm Hg), pero mayor a la de
la sangre proveniente de los tejidos (PO2 = 40 mm Hg) que llega a los pulmones a
través la arteria pulmonar impulsada por el ventrículo derecho. Por el contrario, la
pCO2 de esta última arteria (46 mm Hg), mayor a la alveolar (40 mm Hg), impulsa la
difusión del CO2 desde el capilar hacia el alvéolo.

En un recurso educativo de la fundación Khan Academy se puede observar un


video donde se describe gráficamente este proceso.

El aire del exterior llega a los alvéolos a través del árbol bronquial, una red fina de
conductos que se ramifica desde los bronquios izquierdo y derecho que nacen en la
tráquea, y conecta con la boca y completa la vía aérea. Se estima que la vía tiene
aproximadamente 23 niveles de bifurcación: los 16 primeros (desde la tráquea) solo
tienen funciones de transporte de gases y comprenden un espacio total de 150 ml,
denominado “espacio muerto”, y, luego, hallamos los últimos siete, donde ya se
produce intercambio (Figura 47).

Figura 47. Patrón de bifurcación de la vía aérea


Fuente: Centros para el Control y la Prevención de Enfermedades,
Instituto Nacional de Enfermedades Respiratorias, 2007.

La ventilación

El ingreso y egreso del aire entre el exterior y los pulmones se produce por la
ventilación, que sucede en forma involuntaria, pero sobre la cual podemos tomar
control voluntario. La ventilación presenta dos fases: la inspiración, consistente en el
ingreso de aire atmosférico a los pulmones, y la espiración, la expulsión del aire
mezclado luego del intercambio alveolar (respiración externa). Ambas fases son
mediadas por la contracción sincrónica del diafragma y los músculos intercostales, que
rodean por debajo y a los costados los pulmones en el tórax. La ventilación puede ser
pasiva, como sucede en el reposo, o forzada, como es el caso del ejercicio.

El volumen que entra y sale en cada ciclo respiratorio se denomina volumen corriente
(tidal) y ronda los 500 ml. Al medir el tiempo inspiratorio se puede estimar un flujo
inspiratorio promedio de 12 litros por minuto (l/min). Asimismo, al saber que la caída
de presión entre la boca y los alvéolos que impulsa el aire a ingresar a estos últimos
es de cerca de 5 mm Hg, se puede utilizar la relación siguiente para estimar la
resistencia de la vía aérea:

Caída de presión = 5 mm Hg = Flujo x Resistencia = 12 l/min x Resistencia

Con estos parámetros se calcula una resistencia aérea promedio de 0,4 mm Hg x


min/l.

Las magnitudes respiratorias más importantes son, entre otras, las concentraciones de
los gases O2 y CO2 espirados, los flujos respiratorios y los volúmenes pulmonares
involucrados en la ventilación. Cuando un paciente presenta serias deficiencias
respiratorias, se lo asiste con ventiladores, que suplen la acción de los músculos
inspiratorios. Adicionalmente, el aire que se provee al paciente puede ser enriquecido
en O2.

4.2.3. Sección 3. Instrumentación biomédica

[Link]. Sistemas de medición. Conceptos básicos

La función obvia de un instrumento de medición es la de medir, acción que se define


como la asignación objetiva y empírica de un número y una referencia a una propiedad
o cualidad de un objeto o evento para describirla cuantitativamente. La referencia
puede ser una unidad de medida, un procedimiento de medida, un material o una
combinación de dos o más de estos.

Como señalamos anteriormente, la medicina actual de cualquier nivel de atención


utiliza gran cantidad de instrumentos para la medición de parámetros orgánicos que,
una vez registrados, pasan a denominarse signos vitales y señales, de acuerdo con su
grado de variabilidad con el tiempo.

En los distintos ámbitos de atención clínica encontramos algunos instrumentos


específicos y otros comunes a casi todos ellos; por ejemplo:

Instrumentos comunes a varios ámbitos

Termómetros, tensiómetros (presión arterial no invasiva).

Instrumental específico de ciertos ámbitos

● Ambulatorio: estetoscopios, balanzas, escalímetros.


● Internación: monitores de signos vitales, como temperatura, presión arterial,
saturación de O2(porcentaje de O2 en sangre), glucómetros, metabolímetros
(balance calórico), etcétera.
● Quirófano: monitores de gases en sangre y en vía aérea, medidores de nivel de
conciencia.
● Laboratorio: medidores de pH, glucemia, espectrómetros, microarrays para
identificación de genes, contadores de células (citómetros), medidores de
absorbancia, entre otros.

Todos estos instrumentos se consideran sistemas de medición debido a que


combinan más de un elemento para el logro de la función para la que fueron
diseñados. La Figura 48 muestra el esquema de un sistema de medición.

Figura 48. Esquema general de un sistema de medición

En el esquema anterior destacamos los siguientes componentes:

● Sensor o transductor
Es el elemento sensible a la magnitud a medir. Esto significa que posee alguna
propiedad física que se modifica al cambiar la magnitud, a la que, por lo tanto, se lo
expone en forma directa. Ese contacto directo o de extrema cercanía, inevitable para
un buen sensado, sin embargo, produce una indeseable transferencia de energía
desde el objeto o evento medido hacia el instrumento, la que debe minimizarse todo lo
posible para no afectar la magnitud y, por tanto, el resultado de la medición. Por
ejemplo, cuando medimos la temperatura de un objeto con un termómetro, el elemento
sensor, en este caso, su extremo en contacto con el objeto (sonda o probe), alcanza la
misma temperatura que este, para lo cual intercambiará calor y lo perturbará, de allí
que tecnológicamente se busque fabricar las sondas cada vez más pequeñas, para
que sean lo menos intrusivas posible.

Si bien las magnitudes potencialmente medibles son incontables, todas se ubican en


una de las seis categorías de señales conocidas, diferenciadas por el tipo de energía
subyacente. Estas son: mecánicas, térmicas, químicas (o moleculares), eléctricas,
magnéticas y electromagnéticas (también denominadas ópticas o lumínicas).

Cuando el sensor, por su principio físico de funcionamiento, produce un cambio en el


tipo de energía implicado, es decir que su salida es de naturaleza física diferente a la
de la magnitud a medir, se denomina transductor. Si bien hay transductores de varios
tipos, se prefieren los que tengan salida de magnitud de naturaleza eléctrica o
electrónica, por ser la forma de energía que el ser humano controla mejor y se obtiene
mayor versatilidad para usos posteriores. De allí que este tipo de señal (eléctrica) es la
forma habitual en que se transfiere la señal representativa de la magnitud a la etapa
siguiente de acondicionamiento.

● Acondicionador o procesador

Este elemento permite adaptar y adecuar la señal de salida de un transductor para su


entrega a un equipo de registro, display, comunicación o de post procesamiento
adicional. Su acción sobre la señal debe ser predecible y perfectamente conocida para
poder ser contemplada en los cálculos posteriores y no alterar el valor de la medición
en camino de ser establecida. Por lo general, es uno o más circuitos eléctricos o
electrónicos que, en etapas sucesivas, cumplen algunas funciones típicas, como las
de amplificación, filtrado de ruidos, adaptación de impedancias, modulación o
demodulación, conversión analógico digital, etc. La adaptación de impedancias es un
proceso que vincula dos circuitos con características eléctricas muy diferentes entre sí
para lograr optimizar la transferencia de energía o información de uno a otro.

Esta última etapa, más comúnmente denominada conversión A/D o, simplemente,


digitalización es la que, al combinarse con las memorias de estado sólido, permite el
almacenamiento de los signos vitales. Dada la revolución que genera la conversión
A/D, se explica con mayor detalle en el próximo apartado. Dada la relación física
estrecha entre el sensor y el acondicionador, muchas veces los fabricantes los
proveen combinados en una sola pieza.

● Registrador o exhibidor
Es el elemento final para el registro, display y eventual trasmisión del resultado de la
medición. Si bien puede estar integrado a los dos elementos anteriores, dado que su
etapa de entrada está completamente estandarizada, se tiene más libertad para
combinar el registrador de un fabricante con acondicionadores de varios fabricantes
distintos, en tanto cumplan las especificaciones para la interconexión electrónica entre
ellos.

En las primeras generaciones de equipos e instrumentos analógicos, los parámetros


orgánicos significativos o signos vitales se informaban de manera directa al usuario en
el frente de los equipos mediante displays analógicos, mecánicos o electromecánicos,
sin capacidad de memorización, con lo cual los médicos y los enfermeros debían
permanecer un tiempo apreciable frente al equipo para estimar la
estabilidad/variabilidad de los parámetros del paciente y, luego, estos debían ser
transcritos a papel para su uso en el punto de cuidado o su almacenamiento en la
historia clínica del paciente (también en formato papel).

La digitalización y la posibilidad de registro en memoria, sumadas a la evolución de las


tecnologías de visualización digital, desde los display de siete segmentos de leds
hasta las actuales pantallas de híper resolución y multitouch, revolucionaron
profundamente la forma de mostrar los datos médicos en los equipos.

[Link].Conversión de analógico a digital

Este proceso requiere una transducción previa de cualquier signo vital o señal de su
naturaleza original (térmica, mecánica, magnética, lumínica, etc.) a una de naturaleza
eléctrica. Dentro de las magnitudes eléctricas, la más frecuentemente utilizada es la
diferencia de potencial eléctrico o tensión eléctrica. Una vez realizada la transducción
se acomoda (es decir, amplificar o reducir) el rango de amplitud de la señal analógica
para hacerlo coincidir con el rango de trabajo del conversor. Luego de esto, se
presenta la señal eléctrica analógica en la entrada del conversor A/D y toma de su
salida la señal “digitalizada” como una secuencia de dígitos binarios.

La Figura 49 representa este proceso subdividido en dos etapas funcionalmente

diferentes: el muestreo y la cuantificación.


Figura 49. Proceso de conversión A/D en dos etapas
Fuente: “From analog to digital-part 2: the conversion process”, s/f.

[Link]. Etapa de muestreo

En esta etapa se toman las muestras de la señal, que son copias del valor instantáneo
de la señal analógica a la entrada del conversor a intervalos regulares determinados
por un reloj digital que tiene prefijada una frecuencia de muestreo. Cuantas más
muestras se tomen por segundo, mayor posibilidad de registrar con mayor fidelidad las
variaciones rápidas en la señal original. La mínima frecuencia a la que se debe
muestrear una señal está definida por el componente de mayor frecuencia de
variación presente en la señal analógica, según lo demuestra el teorema de Nyquist.
Cada muestra se conserva hasta la toma subsiguiente. Todo lo anterior es realizado
por el elemento S/H (sample & hold, en la Figura 49) o muestreo y retención.

A la salida de este elemento tenemos una nueva señal eléctrica (representada en la


parte superior de la Figura 49). Esta señal muestreada es interna al conversor y, por
tanto, inaccesible al usuario. Tiene una forma “escalonada” y, si bien resulta diferente
a la original, aún comparte con esta el hecho de que puede tomar infinitos valores de
tensión. Sin embargo, tiene la restricción de que mantiene cada valor que toma
durante todo el intervalo de muestreo y solo puede cambiarlo en los instantes de
muestreo fijados por el reloj digital.

[Link]. Etapa de cuantificación

Cada valor escalonado de la señal muestreada se presenta, entonces, a la entrada del


cuantificador (quantizer), que realiza una función de mapeo proporcional desde un
rango de tensión analógica acotado en su límites superior e inferior (aunque infinito en
los valores intermedios posibles) a un rango de números binarios finito y
predeterminado por la cantidad de bits del conversor. El mapeo se realiza truncando el
valor de tensión de entrada al más cercano que tenga asignado un número digital
(Dout) binario proporcional correspondiente según la función de mapeo o cuantificación.
Esta función, para un cuantificador de 12 bits (4094 valores binarios posibles), se
grafica en la Figura 50:

Figura 50. Función de mapeo del cuantificador

Fuente: Moxon, 2016.

La fórmula para el valor digital de salida Dout= 4095 * (Vin/3,3) en la Figura 54 permite
mapear el rango analógico completo de entrada, fijado, en este caso, de 0 a 3,3 volts,
al rango binario completo de 0 a 4095 (12 bits permiten generar 212 = 4096 valores
diferentes posibles).

Para determinar la calidad de un sistema de medición, este debe ser evaluado en


función de sus características estáticas y dinámicas, es decir, su comportamiento
cuando la magnitud a medir se mantiene constante o varía, respectivamente (según el
tipo de magnitud para la que se fabricó el sensor, serán relativamente más importantes
unas u otras).

[Link]. Características estáticas de los sistemas de medición

Las principales son la exactitud, la fidelidad y la sensibilidad.

● Exactitud

Se refiere a la capacidad de informar un valor muy cercano al verdadero de la


magnitud que se mide y en un sentido teórico. La fórmula de cálculo (teórica) para la
diferencia entre ambos valores, el real y el informado, mide la diferencia entre ambos
y, así, define el error absoluto de la medición:

Error absoluto = Verdadero valor - Resultado (medición del instrumento)

Dado que el verdadero valor de una magnitud es desconocido (e inaccesible), cuando

en la práctica se quiere establecer la exactitud del instrumento, se debe calibrar.

Calibración

Este procedimiento se realiza con patrones, que son elementos o procedimientos


físicos que generan magnitudes similares en naturaleza a la que mide el instrumento,
pero cuyos valores son conocidos con un nivel de exactitud de diez veces o más que
la esperable para el instrumento (de acuerdo con las especificaciones de fabricación).
Se miden, entonces, varios valores patrón distribuidos en el rango de medición del
instrumento y se arma la curva de calibración. Para minimizar los errores durante este
procedimiento se pueden repetir las mediciones de cada patrón y promediar los puntos
para obtener la curva de calibración por regresión lineal.

Luego se informa el error absoluto como el máximo medido durante la construcción de


la curva completa o por intervalos del rango calibrado. Una medición, entonces, se
informa como: Valor medido ± Error absoluto

Por ejemplo, una medición de temperatura corporal normal, de 36,7° C, realizada con
un termómetro clínico de mercurio, debe informarse más correctamente como 36,7° C
± 0,1° C o (36,7 ± 0,1) °C.

También puede informarse la exactitud con el error relativo como un porcentaje

de la medición:

Error relativo = Error absoluto/Valor medido


Esta fórmula tiende a sobredimensionar el error cuando el rango incluye valores muy
pequeños, por lo que se tenemos las alternativas siguientes para el error relativo:
Error relativo = Error absoluto/Rango de medición, o
Error relativo = Error absoluto /Fondo de escala (el valor máximo que puede
medirse)

● Fidelidad

También denominada precisión (solo en español). Se refiere a la capacidad de


informar el mismo resultado en mediciones repetidas bajo las mismas condiciones:
magnitud de entrada, ambientales, operador, etc. Se requiere, entonces, para la
fidelidad, una gran semejanza entre medidas sucesivas y un buen número de cifras
significativas.

Si bien la fidelidad es una condición necesaria para una gran exactitud, no resulta
suficiente y tampoco sucede a la inversa. El siguiente ejemplo clásico de tiro al blanco
lo explica de una manera bien gráfica:

Figura 51. Exactitud y fidelidad

Fuente: adaptado de Nogués, 2015.

Nota: En este ejemplo, el centro representa el valor verdadero o deseado y cada tiro es el
resultado de una medición individual (el tirador y su pistola serían el instrumento).

En el tablero, la precisión sube hacia los blancos superiores y la exactitud, hacia los de
la derecha, con lo cual obtenemos tenemos resultados con buena exactitud
(distribución pareja alrededor del centro) y buena fiabilidad (buen agrupamiento entre
los distintos disparos) en el blanco del cuadrante superior derecho (todos los demás
tienen una o más falencias de medición).

● Sensibilidad

Es el cociente entre la variación en el resultado de la medición sobre la variación


respectiva en la magnitud a medir. Matemáticamente puede calcularse como la
derivada de la curva de calibración y lo ideal es que tenga un valor alto y sea
constante durante todo el rango de medida. Esto último sucede cuando la curva de
calibración es una línea recta y, si este es el caso (como sucede, por ejemplo, en el
caso del cuantificador del conversor A/D), se puede calcular la sensibilidad (tratado
con mayor profundidad más adelante) del cuantificador como el cociente entre el
rango total de la salida, en este caso 4096 valores, sobre el rango total de entrada
(3300 milivoltios [mV]). El least significative bit (LSB) es el bit de menor valor. Esto
quiere decir que considera la unidad binaria.

Sensibilidad del cuantificador = 4096 LSB/3300 mV = 1,24 LSB/mV

Como el display de salida informa el resultado en mV, también se puede informar la


sensibilidad inversa, es decir, en este caso, cuántos mV representa cada unidad
binaria; entonces:

Sensibilidad = 3300 mV/4096 LSB = 0,81 mV/LSB

[Link]. Características dinámicas de un sistema de medición

Hay dos importantes: el error dinámico y la velocidad de respuesta.

● Error dinámico

Se define como el error absoluto entre el valor de la magnitud de entrada y el


resultado que indica el instrumento en el mismo instante. Del mismo modo que se hizo
para estimar el error estático, hay que utilizar un patrón, pero con la diferencia que
este debe tener un comportamiento variable en el tiempo predefinido.

● Velocidad de respuesta (o retardo)

Indica la rapidez con que el instrumento responde a los cambios en la magnitud de


entrada. En relación con la medición en sí, no tiene tanta importancia un mayor o
menor retardo en tanto se llegue a una estabilización que permita la lectura, pero sí se
vuelve importante el retardo cuando el sensor forma parte de un sistema de control de
lazo cerrado porque pueden producirse oscilaciones indeseables.

Un ejemplo en la ingeniería biomédica es un sistema de control del nivel de glucosa en


sangre (glucemia) formado por un sensor transdérmico que lee el valor de glucemia (o
de glucosa intersticial) y se informa a la computadora que controla la administración de
insulina embebida dentro una bomba portable adjunta al cinturón del paciente. Si el
sensor demora mucho en transmitir a la computadora los cambios en la glucemia o
envía valores muy fluctuantes porque demora en estabilizarse, el paciente puede sufrir
descompensaciones.

Para profundizar en el universo de las mediciones en un sentido general


recomendamos este material del Centro Español de Metrología sobre el Vocabulario
Internacional de Metrología definido por el Bureau International des Poids et Mesures.

También es interesante conocer, por su orientación informática, el Unified Code for


Units of Measure, que propone un sistema de codificación internacional de las
unidades de medida orientado a la comunicación de mediciones de manera
automática entre sistemas mediante protocolos electronic data interchange (EDI).

[Link]. Instrumentos del ámbito clínico

Los instrumentos de medición han aumentado enormemente la información


cuantitativa disponible sobre el organismo, por lo que su desarrollo y mejoramiento
continuo resultan un gran motor del avance de la medicina.

A continuación, repasamos algunos de los instrumentos de uso habitual para la


monitorización del estado de los pacientes; entre otros puntos, observamos los
principios físicos subyacentes a la medición, los rangos de normalidad y la tecnología
de los sensores utilizados.

● Medición de la temperatura

Uno de los primeros instrumentos médicos fue el termómetro. Si bien la temperatura


en general se empieza a medir a principios del siglo xvii (termoscopio de Galileo),
pasan más de doscientos años hasta que el médico austríaco Carl Wunderlich
propone utilizarlo como herramienta para detectar la aparición de fiebre y seguir la
evolución de la temperatura del paciente durante el curso de una enfermedad. En las
imágenes siguientes se muestran y describen distintos tipos de sistemas de medición
de la temperatura.

a. El clásico termómetro de mercurio encerrado en una ampolla de vidrio. Lentamente


se abandona por el riesgo de envenenamiento en caso de rotura. Se basa en la
dilatación térmica del mercurio al absorber calor del cuerpo. Se lo denomina de salida
directa porque no hay un acondicionamiento de la respuesta del instrumento. Tiene
una exactitud de ± 0,1° C y un tiempo de estabilización de lectura de 1,5 a 2,5
minutos.

b. Los sensores electrónicos basados en el cambio de resistencia eléctrica del


material con el cambio de temperatura que luego se convierte en un cambio de
tensión de acuerdo con la ley de Ohm y digitalizada. Según la ley de Ohm de la
electricidad, la diferencia de potencial (V) entre los extremos de un material es igual al
producto del valor de la resistencia eléctrica R del material por el valor de la
intensidad de corriente eléctrica (I) que la atraviesa, esto es: V = R x I. Por el pequeño
volumen de las sondas (probes) pueden fabricarse intravasculares.
Existen en distintas tecnologías según el material: metales conductores denominados
RTD (“RTD”, 2018; resistance temperature detector), cuya resistencia aumenta
linealmente con la temperatura (por ejemplo: sonda Pt100 de platino); los termistores
(“Termistor” 2018), que son compuestos semiconductores (generalmente, óxidos
metálicos) de dos tipos: NTC (negative temperature coefficient) y PTC (positive
temperature coefficient), cuya resistencia cae o crece de modo exponencial al subir la
temperatura y las termocuplas o termopares, formados mediante la soldadura de dos
metales con diferentes propiedades electroquímicas que generan una pequeña
corriente electrónica en la unión de ambos, variable con la temperatura.

c. El termómetro timpánico de infrarrojos basado en la tecnología LIR (long infrared)


se basa en la detección de parte de la radiación térmica emitida por el tímpano
(considerado buen referente de la temperatura corporal central por su excelente
irrigación). La radiación térmica se expresa cuantitativamente por la ley de Stefan-
Boltzmann (“Ley de Stefan-Boltzmann”, 2018). El detector, hecho de un material
piroeléctrico, es muy pequeño y sensible a este tipo de radiación y responde a
cambios en su conductividad eléctrica e, incluso, a veces, a cambios de forma al
absorberla. Cuando se usa correctamente, su exactitud oscila entre 0,15 y 0,3° C,
pero hay trabajos que informan una variabilidad en los resultados de un 20% a 40%
en función de la capacitación del operador (Amoateng-Adjepong et al., 1999).

d. La imagenología térmica (screening termograph) facial es una técnica novedosa


considerada la más eficiente para el screening de detección de fiebre (Ring et al.,
2010). Recientemente, se han desarrollado protocolos estándares para su utilización,
sobre todo para el posicionamiento del paciente y de la cámara (Ring et al., 2013). Su
aplicación clínica recién comienza a extenderse. Su precisión es igual o mayor de 1°
C.

● Medición de la actividad eléctrica cardíaca

Fuente: (Northrop, 2002).

Entre los primeros intentos de registros corporales no invasivos estuvo recoger las
corrientes eléctricas que genera el corazón a nivel de la superficie corporal como
exteriorización de la actividad de despolarización y repolarización eléctrica del
miocardio. El miocardio es el tejido muscular cardíaco.

Willem Einthoven, fisiólogo alemán, inventa la electrocardiografía usando un


dispositivo que deriva del galvanómetro de cuerdas, inventado en 1897 por el
francés Adler, para recibir las señales telegráficas. Einthoven realiza sus primeros
registros en 1901 y en 1923 recibe el Premio Nobel de Medicina por sus aportes a la
caracterización de las patologías cardíacas. La forma definida por Einthoven para la
colocación de los electrodos sobre el cuerpo es la que aún se utiliza para la
denominación de las señales o “derivaciones” a registrar.

Al registrarse directamente la actividad eléctrica no hay una traducción de la señal,


aunque sí hay que acondicionarla realizando, entre otros, los siguientes
procedimientos mínimos:

● Amplificación en amplitud: debido a lo pequeño de las señales originales

(entre -0,5 y 3 mV).

● Filtrado de ruidos: mediante filtros paso banda que eliminan señales

eléctricas por debajo de 0,05 Hz y 150 Hz, que no tienen origen cardíaco.

Si bien los primeros registradores captan variaciones de corriente eléctrica, muy


pronto se comienzan a utilizar amplificadores de tensión eléctrica porque tienen
mayor cantidad de circuitos electrónicos que proveen mayor versatilidad en el uso de
esta magnitud. En la actualidad, los dispositivos utilizados para el registro de estos
biopotenciales son los amplificadores operaciones diferenciales de aislación
(differential isolation amps). El amplificador diferencial de aislación permite la
amplificación de diferencias muy pequeñas de tensión entre sus dos terminales de
entrada, mientras que se ignoran las señales que se presentan en ambas terminales
a la vez (rechazo del modo común).

A continuación, la Figura 52 muestra un gráfico de la colocación de los electrodos y


amplificadores de aislación para el registro de las derivaciones aVR, aVL y aVF, que
son las versiones aumentadas en amplitud de las V1, V2 y V3 originales de los
miembros.

Figura 52. Puntos de colocación de electrodos y su conexión a los amplificadores


Fuente: Northrop, 2002.
VI: ventrículo izquierdo; VD: ventrículo derecho

Con esta configuración de electrodos se registran las derivaciones convencionales de


los miembros. La derivación V2 en particular se eligió para la medición de los
intervalos y amplitudes características de las ondas del ciclo cardíaco (Figura 53).
Figura 53. Componentes del registro de un ciclo eléctrico cardíaco
Fuente: “12-lead Electrocardiogram (EKG)”, s/f.

La onda P representa la despolarización y contracción de las aurículas; la onda o


complejo QRS, la despolarización y contracción de los ventrículos, y la onda T, la
repolarización y relajación muscular general. Otros componentes e interpretaciones
más detalladas del registro de electrocardiograma (ECG) de 12 derivaciones pueden
consultarse en este [Link] o en Ashley & Niebauer, 2004.

Las señales de tensión a la salida de los amplificadores se envían a uno o más


conversores analógico digitales y se “digitalizan“, es decir, se convierten a secuencias
ordenadas de números reales representativas del valor de la señal en cada momento.

Es interesante comentar que estas ondas se repiten con cada latido del corazón, por
lo cual se puede usar, por ejemplo, el complejo QRS (por ser el de mayor amplitud y
facilidad de detección) para medir su ocurrencia.

Con los años se desarrollan variados algoritmos informáticos para el procesamiento de


las señales de ECG digitalizadas que permiten detectar las diferentes ondas e
intervalos en forma automática. Como ejemplo se describe el algoritmo para calcular la
FC minuto (lpm) latido a latido:

Algoritmo de medición de la frecuencia cardíaca


Un algoritmo es una secuencia de pasos específica para la obtención de un resultado.
Se digitaliza una señal de la derivación 2 y sobre esta se ejecuta un algoritmo de
reconocimiento de los complejos QRS y se identifica el momento exacto de ocurrencia
de la onda R. Luego, se mide el tiempo entre dos ondas R consecutivas para obtener
la duración del intervalo R-R. Se calcula, entonces, la inversa de este intervalo y se
obtiene la FC en Hertz, esto es la cantidad de latidos que se producen por segundo.
Solo resta, entonces, multiplicar este valor por 60 para tener, con cada latido, una
estimación de la FC en lpm. Así:

Frecuencia cardíaca (FC) = (Intervalo R-R)-1 [s-1] x 60 [s/minuto]

Por ejemplo, un intervalo RR de 800 ms equivale a una FC de 0,25 Hz o de 75 lpm,


mientras que otro de 500 ms equivale a una FC de 2 Hz o 120 lpm. Este algoritmo es
el que utilizan los monitores multiparamétricos, situados en la cabecera del paciente
de cualquier cama de internación.
La American Heart Association ha publicado sus recomendaciones para estandarizar
la manipulación e interpretación del ECG, de manera de facilitar el intercambio de
estudios entre cardiólogos (Kligfield, et al., 2007).

● Medición de la presión

La presión arterial es uno de los signos vitales más importantes de cuantificar porque
provee información del estado y el funcionamiento del sistema cardiovascular. En
relación con el estado funcional, nos provee información muy rica; por ejemplo, para la
detección temprana de hipotensión durante situaciones especiales, como una cirugía,
la recuperación posquirúrgica, una internación crítica, el embarazo, el parto, etc., esto
es, situaciones en las que aumenta la probabilidad de hemorragia intensa,
insuficiencia cardíaca y shock orgánico. La hipotensión arterial es el descenso de la
presión arterial por debajo de su valor habitual. En el sentido inverso, es importante
detectar la aparición de hipertensión arterial en situaciones como el traumatismo
encefálico, el embarazo (preeclampsia), el desarreglo renal posquirúrgico o su
instalación crónica sin causa aguda evidente, entre otras. La hipertensión arterial es el
aumento de la presión arterial por encima de su valor habitual.

La presión arterial puede medirse tanto de manera invasiva como no invasiva y ambas
tienen su lógica de utilización según las circunstancias del paciente.

a. Medición de la presión en forma invasiva


Esta técnica se realiza en pacientes cuya condición es crítica o reciben drogas
vasoactivas. Aun con algo de riesgo por posibles infecciones en el sitio de acceso a la
circulación, estos pueden casi eliminarse con el empleo correcto de las vías de acceso
y hoy resulta el método más exacto y el único que permite un control continuo y fiable
de la presión durante cada ciclo cardíaco y de sus variaciones dentro de cada uno de
ellos, sin por ello estar exento de la posibilidad de errores (Romagnoli et al., 2014).

El transductor, del tipo galga extensiométrica o strain gauge (Figura 54 [a]), se coloca
sobre una membrana dentro de un receptáculo plástico (Figura 54 [b]) que se llena
con solución fisiológica y que a través de una llave de tres vías se conecta con un
catéter previamente inserto en una arteria (radial, braquial, femoral, etc.) de los
miembros superiores o inferiores y a una bolsa de solución fisiológica de lavado
presurizada que mantiene permeable las vías de conexión líquida, como se muestra
en la foto de la Figura 54 [c]

Figura 54. Elementos, esquema y foto de un sistema


de medición de presión invasiva intraarterial

Galga extensiométrica

Se disponen hasta cuatro sobre una membrana flexible. Al deformarse por el cambio
de presión, se modifican proporcionalmente su geometría y resistencia eléctrica,
generando, luego, un cambio de tensión eléctrica que es detectado y digitalizado
dentro del monitor.

Receptáculo del transductor

En su interior está la membrana flexible que contiene el transductor y que se vincula


mecánicamente con la sangre del paciente mediante la solución fisiológica que llena
el mismo receptáculo y las vías de acceso. A través del cable y el conector asociado,
se conecta eléctricamente con el monitor multiparamétrico de cabecera que muestra
la curva de presión en tiempo real.

Conexión del sensor al sistema circulatorio y sistema de lavado (Jobbágy &


Varga, 2014)

Se presuriza adecuadamente para evitar que el paciente pierda sangre a través del
acceso y que esta última eventualmente coagule y bloquee la vía de medición (esta
última función se denomina permeabilización de la vía).

Sistema de medición de presión intraarterial

Se observa (flechas rojas) el acceso vascular en la arterial radial y el sensor en el


fondo.

b. Medición no invasiva de la presión

Esta medición se realizó históricamente (y aún hoy se efectúa) en forma manual


usando el esfigmomanómetro.

La medición con esfigmomanómetro requiere la ejecución de una técnica que incluye


la presurización de una manga (cuff) que envuelve el brazo sobre el codo, con valores
de presión superiores a los generados por el corazón, para detener completamente la
circulación en la arteria braquial. Luego, se abre parcialmente una pequeña válvula
que libera en forma lenta y gradual la presión en la manga hasta que atraviesa el nivel
de la presión sistólica (PS) y la sangre comienza a fluir de manera intermitente, hecho
que se detecta como un ruido en el estetoscopio y como una oscilación en el sensor
de presión o manómetro aneroide (aneroid pressure gauge), asociado con la manga.
Identificado el valor de PS, el profesional lo guarda en su memoria si la maniobra fuera
totalmente manual. La presión en la manga sigue descendiendo hasta que alcanza el
valor de presión diastólica (PD) y el flujo en la arteria braquial se vuelve continuo. Esto
se aprecia nuevamente con un cambio sonoro en el estetoscopio y visual en el
manómetro y se identifica el valor de PD arterial.

La maniobra y las mediciones asociadas antes descritas pueden realizarse en forma


manual o en forma semiautomática, con equipos específicos, que poseen en su
interior una bomba de inflado, sensores y un microprocesador con la inteligencia
mínima para la realización de la técnica; solo se requiere que el operador coloque los
elementos y apriete un botón para iniciar el proceso. Estos dos métodos se usan más
en el ámbito de la consulta ambulatoria y el hogareño.

Otra forma de realizar esta medición en el ámbito de la internación hospitalaria es con


una técnica cuasi automática, porque solamente requiere la colocación de los
elementos y la programación de la frecuencia de medición en el monitor
multiparamétrico de cabecera que contiene la bomba de inflado de la manga y el
sensor de presión y en cuya pantalla se muestran los valores de presión medidos.

los Valores normales típicos de presión arterial medida en brazo con


esfigmomanómetro son:

PS (máxima): 120 mm Hg a los 15 años y 140 mm Hg a los 65 años en hombres y


118 mm Hg a los 15 años y 143 mm Hg a los 65 años en mujeres. PD (mínima): 75
mm Hg a los 15 años y 85 mm Hg a los 65 años en hombres y 72 mm Hg a los 15
años y 82 mm Hg a los 65 años en mujeres.
Con los valores sistólico y diastólico de la presión se puede calcular un valor estimado
para la presión arterial media (PAM), con la fórmula PAM = PD + ⅓ (PS - PD), que es
la media geométrica de la curva de presión arterial, como se muestra en la Figura 55.
Esta fórmula aplica más al estado de reposo, deben usarse otras fórmulas para otras
situaciones, por ejemplo, durante estados de mayor FC (taquicardia) (Papaioannou et
al., 2016).

Figura 55. Ubicación del valor de la presión arterial media en la curva de presión
continua
PS: presión sistólica; PD: presión diastólica; PAM: presión arterial media.
Fuente: Klabunde, 2014.

● Medición de la saturación de oxígeno u oximetría de pulso

La oximetría de pulso permite la medición no invasiva de la saturación de oxígeno


(SaO2) en la sangre periférica. Es una medida del grado de uso del sistema de
transporte arterial de oxígeno y en forma indirecta permite una evaluación del nivel
funcional del proceso de intercambio gaseoso a nivel pulmonar o “respiración
externa”. Cuantitativamente, la saturación de oxígeno es la relación entre la porción
de hemoglobina que está transportando oxígeno (oxihemoglobina [HbO2) y el total de
hemoglobina disponible (incluidas la desoxihemoglobina o hemoglobina reducida
[HbR] que no transporta oxígeno).

SaO2 (%) = [HbO2]/([HbO2] + [HbR])


El principio físico que posibilita esta medición es la absorción diferencial para la
radiación de luz roja e infrarroja que presentan ambas formas de Hb. La absorbancia
(A) se relaciona con la concentración C de una sustancia disuelta mediante la ley de
Lambert-Beer:
Absorbancia = K . L . C, donde K es el coeficiente de extinción molar propio de la
sustancia disuelta y L, el espesor del tejido atravesado. Absorbancia = - Log (T),
donde T es la transmitancia, es decir, la relación entre la intensidad recibida por el
sensor (Ir) y la emitida (Ie) (T = Ir/Ie).
Los parámetros K y L se mantienen constantes durante todo el latido, mientras que la
concentración de HbO2 y HbR2 varían cíclicamente en cada pulso mecánico. En la
Figura 56 se observa cómo varía el coeficiente de extinción molar con la longitud de
onda para los distintos estados de la hemoglobina.

Figura 56. Variabilidad del coeficiente de extinción molar con la longitud


de onda para los distintos estados de la hemoglobina
Fuente: De La Peña Sanabria, 2017.

Tanto los emisores de luz roja e infrarroja como el detector son diodos
semiconductores

que frecuentemente están enfrentados.

El detector recibe porciones de las radiaciones de luz roja e infrarroja emitidas por el
emisor, atenuadas por el tejido y la sangre y las convierte en una corriente eléctrica
proporcional a la absorbancia que, luego, es transformada en una señal de tensión y,
finalmente, digitalizada. El microprocesador del sensor calcula la absorbancia de cada
forma de hemoglobina (HbO2 y HbR) y sus relaciones para ambas bandas de emisión
y, finalmente, estima el valor de la SaO2. Con un valor normal de Hb, los valores de
saturación dependen casi exclusivamente de la presión de O2 y, en menor medida, del
pH. La Figura 57 muestra cómo la saturación se mantiene relativamente alta y dentro
de valores “saludables” (por encima de 95) para valores de presión relativamente
bajos (80 mm Hg), pero cae abruptamente si la presión desciende por debajo de 60
mm Hg.

Figura 57. Curva de saturación de O2 vs. la presión parcial de oxígeno


(PaO2) (Referencia)

Al igual que en los casos de la temperatura y la presión, la medición de la SaO2


también se ha integrado como un parámetro más de la monitorización del paciente
crítico.

4.2.4. Sección 4. Integración de signos vitales y señales a los sistemas de


historia clínica electrónica

Describiremos en este capítulo conceptos tecnológicos involucrados en procesos de


adquisición, representación y comunicación de los signos vitales y señales biomédicas
del paciente. La importancia de estas tecnologías reside en que participan de la
infraestructura física y lógica para la implementación de proyectos de medicina de
precisión en organizaciones de salud complejas.

[Link]. El escenario

El cuidado del paciente crítico en terapia intensiva requiere de la adquisición, el


registro y la comunicación de sus datos vitales en tiempos muy cortos. Es común,
incluso, ver a un paciente conectado a varios dispositivos de monitorización y registro
a la vez. Estos dispositivos generalmente pertenecen a fabricantes diferentes,
especializados en un tipo de medición, por ejemplo, cardiología, oximetría de pulso o
electroencefalografía. Si bien la mayoría de los equipos médicos modernos poseen
capacidades de comunicación, no existe un estándar para la interoperabilidad al que
adhieran los fabricantes de equipos de distintas marcas.

Adicionalmente, se necesita que los datos se transmitan a computadoras que pueden


estar físicamente al lado de la cama del paciente, en otra parte del mismo hospital o
en otro punto remoto del planeta. Los dos últimos requieren el uso de redes
informáticas y, en el último caso, incluso, se demanda el empleo de un servicio de
acceso a internet (ISP), tal como se muestra en la Figura 42 de la Sección 1: los
equipos de diagnóstico por imágenes y de monitorización en distintos ámbitos de
atención, como el quirófano y las unidades de cuidados críticos.

Dado que numerosos profesionales (médicos de diferentes especialidades,


enfermeras, kinesiólogos, farmacéuticos, etc.) tienen responsabilidades de registro de
datos, se vuelve muy necesario desarrollar métodos, estándares y estrategias para la
recolección automática, precisa y sistemática de los datos del paciente desde los
equipos médicos, y para su estructuración en formatos de datos. Esto significa que se
pueda representar, no solo al parámetro medido, sino el contexto de su medición y, por
último, lograr su comunicación segura hacia sistemas informáticos externos.

[Link]. Conectividad del equipamiento de diagnóstico por imágenes

Entre los primeros equipos que desarrollaron la conectividad informática están los de
diagnóstico por imágenes, por una iniciativa a principios de los años ochenta del
American College of Radiology y la National Electric Manufacturers Association. Estos
equipos se conectan a los sistemas hospitalarios (como HCE) a través de una red
dedicada, que se gestiona mediante el estándar Digital Imaging and Communications
in Medicine (DICOM). Este protocolo define un servidor y repositorio especial para el
almacenamiento (storage) de las imágenes denominado PACS (picture archiving and
communication system). Las imágenes se almacenan en el PACS acompañadas por
metadatos que describen el contexto del estudio (datos del paciente y del equipo,
fecha y hora, duración, protocolo, medio de contraste, niveles de radiación, si existen,
etc.). También se implementan funciones adicionales para la recuperación (retrieve) y
la impresión (print) de dichas imágenes. El sistema de HCE no interacciona en forma
directa con los equipos de diagnóstico, sino que lo hace a través del servidor de
PACS.

[Link]. Estándares y protocolos de captura, representación y comunicación

de signos vitales y señales

Por la misma época (década del 80) comienzan intentos parecidos de estandarizar la
conectividad informática para el resto del equipamiento médico, pero las asociaciones
profesionales de las distintas especialidades médicas no acuerdan para presionar de
manera efectiva a los fabricantes de los equipos médicos y, aunque participa de las
iniciativas de estandarización, muchas compañías deciden mantener protocolos
propietarios en sus equipos y, lamentablemente, no se alcanza en forma rápida un
nivel de estandarización como el logrado por el estándar DICOM.

No obstante lo anterior, el Institute of Electrical and Electronic Engineering (IEEE) logra


desarrollar un estándar muy potente, el P1073, “X73” o medical information bus (MIB)
(“ISO/IEEE Health informatics - Point-of-care medical device communication - Part
10101: nomenclature”, 2004). Esta iniciativa se origina en gran medida por el empuje
de varios hospitales americanos, con altos costos en las unidades de cuidados
críticos, que desean eliminar la transmisión oral, el registro en papel y la carga manual
de datos por parte del personal de enfermería y mejorar su capacidad de analizar
datos en forma cuantitativa (Glass, 1998).

Los trabajos recientes sobre la integración de datos a los sistemas de historia clínica
documentan claramente la posibilidad cierta de cometer errores durante la carga
manual (Zaleski, 2009). En la obra citada se estima un número de errores de registro
de cinco a 20 por paciente y por día, para un protocolo de registro de 15 signos vitales
por vez, con un intervalo de una hora entre sesión de registro y suponiendo un error
porcentual de entre 1% y 5%.

Por la mayor capacidad tecnológica para la comunicación y la descripción de los


signos vitales y las señales, en lo sucesivo el desarrollo del capítulo se centra en su
descripción.
● Estándar IEEE/ISO 11073 o medical information bus

El estándar crece de manera lenta, pero constante, en cantidad de fabricantes que


adhieren y de hospitales que lo implementan y, luego de cierto tiempo, se amplía su
alcance con la creación de un comité técnico conjunto con la International
Organization for Standarization (ISO), que administra la normatividad a nivel mundial y
se convierte, entonces, en el estándar internacional (IEEE/ISO 11073). Está
constituido, en realidad, por un numeroso conjunto de normativas coordinadas para
lograr que los equipos médicos y los sistemas de información médica se comuniquen
de manera adecuada para el entorno clínico y, en especial, para el entorno de atención
del paciente agudo.

A continuación, hacemos un repaso general de las principales características de este


estándar, aunque el objetivo de este texto no es enseñar en profundidad el protocolo ni
detallar una metodología para su implementación.

El estándar define la arquitectura general para las comunicaciones entre los


dispositivos médicos y las computadoras. Esta se basa fuertemente en el modelo
conceptual OSI (Open System Interconnection) (“Modelo OSI”, 2018), de referencia
para la interconexión de sistemas abiertos. OSI es un modelo de interoperabilidad de
siete capas definido en el estándar ISO/IEC 7498-1: 1994.

En la Figura 58 se muestra la correspondencia del modelo OSI con el modelo de


referencia del protocolo MIB y su modelo de implementación; además, se indica qué
parte del protocolo especifica cada capa.

Figura 58. Correspondencia entre los modelos OSI e IEEE


Fuente: “ISO/IEEE Health informatics - Point-of-care medical device communication -
Part 10101: nomenclature”, 2004.
Dentro de las siete capas del modelo OSI se diferencian dos grandes grupos:

a. El estrato de las cuatro capas inferiores, física, de enlace de datos, de red y de


transporte, está formado por elementos de hardware y un conjunto de servicios
orientados al establecimiento de conexiones entre dispositivos físicos. En el
esquema de la Figura 66, estas capas tienen preponderancia a nivel la
comunicación subyacente entre las interfaces físicas (por ejemplo, placas de red)
de la computadora y los nodos BCC en hubs concentradores dedicados o dentro de
otros equipos (monitores). Básicamente, en este nivel dominan dos protocolos
principales: uno de capa de transporte (como el TinyTP o el user datagram protocol
[UDP], que controlan el flujo de la comunicación) y otro que controla la
comunicación a nivel de la capa física. En este último caso, puede usarse el
protocolo de capa física irDA para dispositivos infrarrojos para conexiones serie,
tanto inalámbricas como cableadas, y el protocolo IP para conexiones en redes
LAN cableadas del tipo Ethernet 802.3. Las normas que lo describen son las
ISO11073.3xxxx (ex IEEE 1073.3) y apuntan a una audiencia de ingenieros y
técnicos de telecomunicaciones y networking.

b. El estrato de las tres capas superiores, aplicación, presentación y sesión, está


formado por el conjunto de elementos MDIB, que permiten la comunicación lógica
en el lenguaje de aplicación MDDL (expresa los eventos clínicos y el estado de los
equipos), mediada, en parte, por servicios extradefinidos por estándares previos
(pero optimizados aquí para reducir la sobrecarga de ancho de banda), como el de
establecimiento de sesión (ACSME) y otros de gestión de objetos (CMDISE) y de
ejecución de comandos en forma remota entre los equipos (ROSE). Esto se
describe en las normas 11073.2xxxx (ex IEEE 1073.2), apuntada a una audiencia
de ingenieros y arquitectos de sistemas, ingenieros biomédicos y desarrolladores
de software.

Una red del protocolo MIB se distingue de otros tipos de redes de área local (LAN)
convencionales en que sobre esta se aplican restricciones adicionales relacionadas
con la seguridad del paciente, la confiabilidad, la configuración, la tolerancia a cambios
de topología y la interacción del personal de salud con la red. Una red MIB tiene el
potencial de detectar en forma automática la conexión de equipos que soporten el
protocolo, identificarlos y permitir el inicio de una sesión entre ellos. Lo único que debe
hacer el usuario es conectarlos a la red. Dentro del estándar, la comunicación es
entendida y modelada como un conjunto de sistemas que intercambian mensajes
(Figura 59).

Figura 59. Esquema de la comunicación en una red MIB

Fuente: “ISO/IEEE Health informatics - Point-of-care medical device communication -

Part 10101: nomenclature”, 2004.

Además de la unidad de medida, las mediciones pueden ser contextualizadas

mientras acompaña el sitio, el procedimiento y el momento de realización.

Los sistemas y equipos reales (MDS y PCS) se modelan como sistemas virtuales o
virtual medical devices (VMD) con una metodología orientada a objetos a los fines de
representar la comunicación. Los VMD son, entonces, entidades lógicas funcionales
descritas por sus componentes y los mensajes que pueden emplear. No se impone
una implementación tecnológica en particular.
Los MDS se especializan cuando deben representar equipos médicos determinados,
como monitores, bombas de infusión, ventiladores de asistencia respiratoria mecánica,
etcétera.

Todas las definiciones del lenguaje MDDL (la nomenclatura, su sintaxis y semántica)
se detallan en la normativa 11073 parte 0101 (Nomenclature), mientras que la
descripción de todas las entidades (y sus posibles atributos), que son
representaciones de objetos, conceptos o eventos del mundo real, se detallan en la
normativa 11073 parte 10201, referida al modelo de información DIM (domain
information model).

Componentes de la red MIB

Una red MIB operativa requiere de la presencia de tres tipos de nodos: DCC, BCC y
PCS (Figura 60). El nodo DCC (device communication controller) está siempre dentro
de un dispositivo médico (MDS) y tiene hardware y software para comunicar al MDS
con el nodo BCC. El nodo BCC (bedside communication controller) posee hardware
para detectar las conexiones y desconexiones de los nodos DCC y el software mínimo
para actuar de nexo entre los nodos DCC y PCS. Este nodo también podría ser un
módulo de hardware independiente o estar implementado dentro de la computadora
que aloja el PCS.

Figura 60. Nodos de una red MIB: BCC integrado al PCS final,

BCC integrado en un MDS o PCS de relevo hacia el nodo PCS final

El esquema funcional del flujo de un mensaje entre las capas de aplicación desde un
nodo BCC en un equipo MDS, con un sistema PCS, por ejemplo, se muestra a
continuación:

Figura 61. Esquema de una sesión entre un equipo BCC y un

sistema informático PCS

* Los mensajes intercambiados consisten en pedidos (requests) de recuperación de


datos (poll/get) o de seteo de parámetros en el equipo (set). En una red LAN es habitual
que los mensajes se encapsulen en paquetes o datagramas del protocolo UDP sobre el
protocolo subyacente de internet (IP). El UDP es un protocolo de la capa 4 de transporte
del modelo OSI para el envío de mensajes, que no requiere el establecimiento de una
conexión previa (“Protocolo de datagramas de usuario”, 2018; Postel, 1980).
Las clases generales de datos que pueden intercambiarse son:

● signos vitales y ondas específicas,


● alertas clínicas del paciente o técnicas del equipo,
● datos demográficos del paciente,
● datos identificatorios del equipo,
● características de la sesión en curso.

Un ejemplo de mensaje simplificado para una medición de presión no invasiva se


muestra a continuación:

Figura 62. Esquema de un mensaje tipo poll request/result


Fuente: Personal Connected Health Alliance, 2017.

Las dos columnas de la derecha muestran el mensaje en formato hexadecimal (binario


simplificado), tal como se transmite encapsulado dentro de los correspondientes
campos de datos UDP de los protocolos de la capa superior de presentación y sesión
del estándar 11073. El mensaje resulta ininteligible hasta que se convierten los octetos
hexadecimales a los decimales correspondientes y se asocian con los códigos del
dominio informativo, de manera de hacer visibles los nombres de las distintas
entidades y sus atributos (columna de la derecha). El ejemplo, en este caso, muestra,
en las líneas 19 a 21, los valores de PS, PD y PAM, respectivamente, mientras que en
la línea 26 se incluye el valor de FC.
El presente del estándar 11073

En la actualidad y a más de 20 años de su creación, se considera que este estándar


sigue siendo una excelente solución técnica para lograr interoperabilidad en tiempo
real entre dispositivos médicos y sistemas informáticos.
Varias compañías grandes, como Philips, General Electric y Drager, entre otras,
soportan el desarrollo del estándar o lo implementan en sus equipos y proveen
manuales de programación de interfaces o guías de implementación.

El Hospital Italiano de Buenos Aires desarrolla un sistema propio basado en el


estándar ISO 11073 para la captura automática de signos vitales que utiliza desde
2010 en la unidad de terapia intensiva de adultos (Burgán et al., 2017).

El estándar está en plena evolución y en los últimos años se han agregado nuevas
partes, como la 20601 (“ISO/IEEE 11073-20601: 2016(E): ISO/IEC/IEEE International
Standard - Health informatics - Personal health device communication - Part 20601:
Application profile - Optimized exchange protocol”, 2016), que estandariza la
conectividad de dispositivos de baja potencia como los utilizados para monitorización
portátil en el área de la telemedicina, la medicina móvil (mHealth) o ubicua (uHealth).

Una de las primeras iniciativas de prueba del estándar consiste en la implementación


de un prototipo de sistema de monitorización remota domiciliario vestible, que se
comenta en Yao & Warren, 2005.

Otras secciones agregadas aún más recientemente son las partes 10207 (“IEEE Std
11073-10207-2017: IEEE health informatics - Point-of-care medical device
communication Part 10207: Domain information and service model for service-oriented
point-of-care medical device communication”, 2018) y 20702 (“IEEE Std
11073-20702-2016: Health informatics - Point-of-care medical device communication
Part 20702: medical devices communication profile for web services”, 2017), que
apuntan a estandarizar la interoperabilidad de equipos médicos entre sí y con
sistemas de HCE utilizando servicios web en un entorno de red distribuido, basado en
el direccionamiento de IP. Su utilidad y demostración práctica se comentan en
[Link] y en Kasparick et al., 2016.

[Link]. Iniciativas vigentes para el avance de la interoperabilidad

Existen varios proyectos de organismos estatales y consorcios de empresas e


instituciones de salud públicas y privadas que empujan el desarrollo de la
interoperabilidad del equipamiento, mayormente basados en la redacción de
recomendaciones de implementación en diversos contextos y, en algunos casos,
facilitando librerías de integración. En general, utilizan el estándar 11073 como base
conceptual para la nomenclatura de los diferentes contextos. A continuación, se
describen algunos de ellos brevemente.
[Link].1. Integrating the HealthCare Enterprise (IHE)

IHE es una iniciativa sin fines de lucro de profesionales de la salud y compañías de


tecnologías de la información en salud con el compromiso institucional de mejorar la
interoperabilidad entre los sistemas. En ella participan asociaciones profesionales,
prestadores, gobierno e industria y a la fecha de la publicación de este eBook ya
supera los 175 miembros en todo el mundo. En el esquema siguiente de la Figura 63
se grafica el mecanismo de trabajo de IHE.

Figura 63. Marco conceptual del trabajo IHE

Fuente: IHE International.

Básicamente, IHE reúne a usuarios clave y expertos en sistemas para la definición de


casos críticos de intercambio de información entre sistemas. Cada caso de uso se
especifica en detalle, incluyendo qué estándares de interoperabilidad, y qué partes de
ellos, son los más útiles de implementar para resolver cada uno. Con esto se generan
los denominados perfiles o IHE profiles (“Profiles”, s/f) . Al conjunto de perfiles del
mismo tipo (especialidad médica o área operativa organizacional) se organiza en los
denominados dominios IHE.

El dominio de la interoperabilidad de dispositivos médicos se denomina patient care


devices (PCD) y, mediante la actividad sostenida de un comité técnico, elabora y
mantiene un documento técnico principal, IHE Patient Care Device Technical
Framework (“Patient Care Device Technical Framework”, 2017), un conjunto de tres
documentos, integration profiles, transactions y semantic content, que especifican
técnicamente cómo implementar los perfiles previamente definidos.

El framework PCD actualmente tiene bien especificados los ocho perfiles siguientes:

1. [ACM] Alert communication management: permite gestionar dinámicamente la


comunicación remota de alarmas de los equipos médicos en el punto de atención,
de acuerdo con el estado de difusión y aceptación.

2. [DEC] Device enterprise communication: soporta la comunicación de datos del


paciente desde los equipos médicos al sistema de HCE mediante mensajes bien
formados y con contenido semánticamente correcto.

3. [DEC-SPD] Subscribe to patient data: se extiende del perfil DEC para la


comunicación

dirigida por un sistema de publicación y suscripción parametrizable.

4. [IDCO] Implantable device cardiac observation: especifica la creación, la


transmisión y el procesamiento de elementos de datos discretos e informes
adjuntos asociados con la implantación y el seguimiento de control de un
dispositivo cardíaco implantable (marcapasos).

5. [IPEC] Infusion pump event communication: permite que una bomba de infusión
envíe información detallada (no de alarma) para permitir el seguimiento y el registro
de todo el historial de la operación.

6. [PIV] Point-of-care infusion verification: soporta la comunicación de órdenes de


infusión validadas en los cinco ítems correctos requeridos (5-rights) desde un
sistema de registro de la administración por barcoding hacia las bombas de infusión
o un sistema de HCE. Opcionalmente, puede coordinarse con el perfil DEC para la
monitorización del estatus de las bombas.

7. [POI] Pulse oximetry integration: especifica cómo se pueden usar las


transacciones DEC y PCD-01 existentes para intercambiar conjuntos de
observación de pulsioximetría con sistemas de información clínica.

8. [RDQ] Retrospective data query: especifica un procedimiento para realizar


consultas de datos retrospectivos de múltiples fuentes y uniformarlas en un mismo
marco temporal para soportar la realización de informes.

9. [RTM] Rosetta terminology mapping: específica recursos (tablas xls y archivos


XML) de mapeo que permiten convertir los conceptos utilizados por los dispositivos
médicos de diversas marcas a un estándar determinado por la semántica del
protocolo 11073 y el sistema de unidades UCUM, incluidas las restricciones
adicionales para un parámetro, como los valores, las unidades y los sitios
corporales posibles que permiten una validación más rigurosa de los datos
intercambiados.
Además, hay líneas de trabajo en curso para generar perfiles adicionales relacionados
con la trasmisión de fragmentos de señales biomédicas en mensajes HL7, el apoyo a
la gestión del mantenimiento del equipamiento médico y fortalecer aún más la
asociación equipo-paciente, entre otros.

● Cumplimiento de los perfiles

Las empresas de soluciones de interoperabilidad eligen desarrollar sus soluciones con


base en los perfiles IHE y certificar luego su cumplimiento en eventos reales de testeo
de soluciones denominados IHE Connectathons, que se realizan anualmente en
distintos lugares del mundo, con cada vez mayor número de participantes. Esta es una
forma para que las instituciones de salud usuarias o “clientas” verifiquen que un
sistema ofrecido cumple con los perfiles que necesita para su actividad.

Solo a modo ilustrativo comentamos algunas características de un suplemento del


framework PCD, candidato a ser agregado como un perfil denominado Waveform
communication management (WCM), que definirá la manera de informar una onda
dentro de los perfiles de comunicación de datos clínicos [DEC] y de comunicación de
alarmas [ACM]. Se muestra a continuación la estructura del segmento OBX del
estándar HL7 v 2.5, que se sugiere para la trasmisión de una observación simple o un
fragmento de señal por parte de un equipo médico. Destacamos que los códigos de
identificación especificados a usarse son los del estándar 11073 antes descrito.
Figura 64. Estructura general del segmento OBX para un mensaje del perfil PCD
Fuente: IHE Patient Care Device Technical Committee, 2018.

En el campo OBX-5 se informa el valor del dato, que para el caso de una señal es un
array numérico restringido a valores enteros, con signo del tipo “XSD type”
(xs:integer), o sin él, y el símbolo ^como separador entre muestras individuales.

Dado que la señal provino de una conversión analógico digital (ADC) en el equipo, la
resolución del muestreo (o sensibilidad) se informar optativamente en el campo
OBX-6 como la magnitud del bit menos significativo (LSB), obtenida de dividir la
amplitud del rango total de medición por la cantidad de pasos, o a intervalos del
conversor ADC.

A continuación, se muestra el segmento OBX real que informa un fragmento de 250


muestras de una señal de ECG en el que se dejan los extremos de inicio y fin y se
omiten las 235 muestras centrales para abreviar. De un segmento OBR previo es
sabido que el período muestreado es de un segundo por defecto, por lo que la tasa de
muestreo resulta ser de 250 Hz. Ejemplo:

En el campo OBX-3 se identifica que el fragmento corresponde a la derivación I del


ECG (código 131329^MDC_ECG_ELEC_POTL_I). En el segmento OBX-6 se usa una
unidad de medida UCUM para un factor de escala fraccional que divide el rango
fisiológico total de 10 mV (± 5 V) por el rango de representación del conversor de 12
bits (4096 = 2 ^ 12), obteniendo una sensibilidad de 2.44 μV/LSB.

[Link].2. Personal Connected Health Alliance (PCHAlliance)

Este consorcio es creado como una empresa de innovación por la Healthcare


Information and Management Systems Society (HIMSS). Ambas son organizaciones
sin fines de lucro, con el objetivo de facilitar el mantenimiento de la salud y el
bienestar personal bajo la convicción de que estos trascienden la asistencia sanitaria.
PCHAlliance promueve el desarrollo de la salud personal conectada mediante, entre
otras actividades, el desarrollo, la publicación y la promoción de la adopción de las
pautas Continua design guidelines (CDG), que tienen el objetivo de ayudar a los
fabricantes de dispositivos portátiles con finalidad médica o deportiva para el diseño
de sensores, sistemas de ruteo y plataformas de servicios, de forma que el usuario
pueda tener opciones al momento de la compra que le garanticen la conectividad.
Para ello se define una arquitectura denominada “black-box on the wire”, que solo
define los datos que deben ser transmitidos entre dispositivos y los protocolos de
aplicación y transporte que aseguran la interoperabilidad entre sensores, hubs,
servicios en la nube y sistemas de HCE de diversos proveedores.

Esta actividad de la PCHAlliance y las CDG, orientadas a un entorno de uso personal


y doméstico, pueden entenderse como complementarias y sinérgicas con el accionar
y los perfiles del consorcio IHE orientado a un contexto de uso corporativo.

A continuación, se muestra la arquitectura de referencia punto a punto (o extremo a


extremo, E2E) propuesta por las pautas Continua (CDG).

Figura 65. Arquitectura E2E de las pautas “Continua”


Fuente: Personal Connected Health Alliance, 2017.

La arquitectura mostrada consta de los siguientes cuatro componentes, donde el


primero

y el cuarto constituyen los dos extremos de la cadena:


Componentes

● Personal health devices (PHD): son los dispositivos de salud personales, como
un medidor de presión arterial, un reloj de FC (cardiotacómetro), un podómetro o
un sistema de alarma personal.
● Personal health gateway (PHG): un teléfono celular, una PC o dispositivo

especializado para la recepción primaria de los datos.

● Health & fitness server (HFS): pensado como una plataforma de telemedicina

para monitorización remota.

● Health information system (HIS): el sistema de información en salud en el


extremo final, donde persisten los datos; típicamente, el registro del paciente en
un sistema de HCE de una institución o de un profesional médico.

Las pautas “Continua“ (CDG) fijan los requerimientos para las interfaces entre

estos componentes, a saber:

● PHD interfaz: es la interfaz entre los dispositivos PHD y el gateway PHG, que se
debe implementar mediante los estándares IEEE 11073 PHD montado sobre
protocolos bluetooth, NFC, USB y ZigBee.
● Services interface: la interfaz entre el gateway PHG y en el servidor HFS, que
aloja, por ejemplo, un servicio de telemedicina, puede emplear mensajes del tipo
PCD-01 (con el perfil DEC de IHE) empaquetados a través de servicios SOAP
con autenticación SAML o enviados a través del framework HL7 “hData“ acoplado
con el servicio de transporte REST “hData“. Otra opción puede ser el intercambio
de recursos HL7 FHIR a través de mensajes REST con autenticación OAuth.
● HIS interface: esta es la interfaz entre el HFS y el HIS (por ejemplo, una HCE
hospitalaria) debe emplear informes de monitorización personal basados en el
estándar HL7 CDA R2, empaquetados y enviados a través de servicios SOAP
sobre HTTP.

Las implementaciones comerciales de sistemas de monitorización remota de la salud


personal en general no se ajustan estrictamente a las recomendadas previamente.
Existen, sin embargo, publicaciones recientes que prueban y proponen arquitecturas
tecnológicas fáciles de implementar en plataformas de telemonitorización
estandarizadas, ajustadas a las pautas de IEEE 11073, IHE y PHCAlliance. Una de
ellas, por ejemplo, propone una plataforma de monitorización de pacientes punto a
punto que utiliza una red wireless ZigBee de baja potencia (Clarke et al., 2018) Otra
propone una arquitectura basada en la tecnología universal plug & play para conectar
dispositivos inalámbricos de salud personal (PHD) a redes domésticas estándares de
la electrónica de consumo (Martins et al., 2014), mientras que una tercera propone
usar el protocolo MQTT (message queue telemetry transport), muy conocido en el
dominio de internet de las cosas, para el envío de datos desde dispositivos PHD a
través de redes domésticas e internet (Gomes et al., 2015).

[Link]. Otros estándares para estructurar datos médicos complejos

Se hace a continuación una muy breve síntesis de otros estándares que pueden
usarse para la representación de signos vitales y señales; además, se indican algunas
referencias para su profundización posterior.
[Link].1. DICOM Waveforms

Ya comentamos anteriormente sobre el estándar DICOM en referencia a las imágenes;


sin embargo, este también tiene el “Suplemento 30”, cuya finalidad es especificar la
adquisición de formas de onda en el contexto de la realización de estudios de
diagnóstico por imágenes, por lo que se ha diseñado para el registro de ondas
analizadas junto con estudios transferidos y administrados utilizando el protocolo
DICOM. Se puede asociar con estudios de resonancia cardíaca, de estrés
ecocardiográfico y en laboratorios de cateterismo o electrofisiología, entre otros.
DICOM Waveforms permite agregar las ondas al contexto de la toma del estudio de
imagen como un dato secundario con un mínimo costo incremental. Además,
aprovecha la capacidad de persistencia de los objetos DICOM para mantener
relaciones referenciales con otros datos recopilados en un entorno multimodalidad,
incluidas las referencias necesarias para la sincronización.

El objeto waveform es una especialización de DICOM composite image information


objects, recientemente armonizado con el formato HL7 Waveform Observation nativo,
por lo que ya no es necesario que se transporte como encapsulated data dentro de los
mensajes HL7, dado que puede convertirse directamente en un mensaje del tipo HL7
Waveform.

Respecto de la visualización de las señales en las estaciones diagnósticas, el


estándar lo deja librado a cada fabricante. En este pdf se tiene una referencia
actualizada de esta especificación.

[Link].2. OpenECG

Esta iniciativa estandarizó el uso y la interoperabilidad en los equipos de ECG en toda


la Unión Europea del formato estándar ECG-SCP (standard communication protocol).
El proyecto tomó tal magnitud que se convirtió en el estándar ISO para la
estructuración de los estudios de ECG y la comunicación de estos equipos con
sistemas informáticos, por lo que fue agregado al estándar 11073 en 2009 como la
parte 91064. Dado que no fue inicialmente redactado dentro de un comité técnico de
IEEE, surgieron trabajos que revisaron la adecuación de esta parte con las otras
secciones del protocolo 11073 que regulan aspectos de interoperabilidad en equipos
de ECG (Trigo et al., 2010).

El Hospital Italiano de Buenos Aires inicia en 2003 el desarrollo de la primera versión


de su sistema de electrocardiografía digital, que genera un informe gráfico de las
derivaciones en formato pdf. En 2010 lanza la segunda versión, que ya incorpora el
almacenamiento numérico de todas las derivaciones en formato XML, cuya estructura
fue inspirada en la del ECG-SCP, pero utilizando XML no binario (Garbino et al., 2012).

En el web companion de este texto hay un estudio de ECG desidentificado de 12


derivaciones

para consultar su estructura interna.

[Link].3. EDF/EDF Plus

El European Data Format (EDF) es un formato simple y flexible para el intercambio y el


almacenamiento multicanal de señales biológicas y físicas, principalmente de estudios
de electroencefalografía y polisomnografía con video y sin él. Un grupo pequeño de
ingenieros biomédicos europeos lo desarrolla a partir de la idea de estandarizar un
formato de intercambio que permita poder aplicar sus algoritmos de análisis del sueño
a los estudios de los demás y comparar luego los resultados del análisis.

La primera especificación EDF se publica en 1992 y la segunda (EDF+), en 2003; esta


es la recomendada para adoptar, dado que todas las compañías de equipos de
neurología ya migraron a este formato.

El formato del archivo es muy sencillo, con un primer campo de registro o header en
formato ASCII subdividido por cantidad de caracteres y que contiene la información de
versión, identificación del paciente y del estudio, fecha ([Link]) y hora ([Link])
de inicio, tamaño en bytes del header, cantidad de registros de señal posteriores,
duración del estudio, cantidad de señales por registro y cantidad de muestras por
registro, tipo de transductores, dimensión de las magnitudes, valores máximos físicos
y digitales, tipos de filtrados realizados, etc. Luego cada, registro de señal posterior
simplemente indica el número de muestras, seguido por el vector de la señal en
formato de enteros binario de 2 bytes.

Se logró una adopción masiva del formato por parte de todos los fabricantes de
equipos de neurología, cuyos softwares permiten la exportación de los estudios bajo el
estándar. También, se consiguen visores gratuitos de EDF y EDF+ de buena calidad,
tanto cerrados, como Polyman, o de código abierto, como EDFViewer.

Beneficios adicionales de la captura “automática” de señales

Las ventajas que tiene la captura automática en la reducción de errores y el ahorro de


tiempo en la carga de datos ya se mencionaron anteriormente, al inicio de este
capítulo, como uno de los motores del desarrollo de los protocolos IEEE 1073.
Adicionalmente, la captura y el registro estructurado de los signos vitales y las señales
de un paciente (junto con otros datos) en las bases de datos dedicadas posibilita
nuevas líneas de trabajo en el campo de la investigación clínica.

Uno de los proyectos más ambiciosos en este sentido es Multiparametric Intelligent


Monitoring in Intensive Care (MIMIC II), implementado de manera conjunta por el
Laboratorio de Fisiología Computacional del Massachusetts Institute of Technology, la
clínica Beth Israel y la empresa Philips Healthcare (Saeed et al., 2011).

El proyecto consiste en la generación de una base de datos que hoy acumula más de
40.000 eventos de internación en una unidad de cuidados intensivos. En esta base se
almacenan todos los signos vitales y las señales en alta resolución registrados de los
pacientes durante toda su internación, junto con todos los registros de problemas,
medicaciones recibidas, prácticas realizadas y la evolución. Esta base de datos, una
vez quitada su identificación, se pone a disposición pública en el sitio Physionet para
grupos de investigación clínica que la soliciten mediante un mecanismo de suscripción
muy sencillo. Más de 600 grupos han aprovechado este material para la realización de
trabajos de todo tipo (Ghassemi et al., 2014; Zhang, 2014).

Una de las líneas de trabajo más interesantes que se habilitan es el procesamiento


masivo de estos datos para el reconocimiento de patrones con técnicas de data mining
o de big data en forma retrospectiva o prospectiva en tiempo real (Celi et al., 2013).
Los resultados de estos análisis pueden ayudar a clasificar mejor a los pacientes en
subgrupos con susceptibilidad diferenciada para ciertas enfermedades o tratamientos,
apoyando el concepto de la medicina de precisión.

En 2017, el Hospital Italiano comienza el desarrollo de un proyecto de


almacenamiento intensivo de signos vitales y señales en la unidad de terapia
intensiva, con un alcance
temporal acotado a las primeras 24 horas de la internación, durante las cuales se
produce la estabilización del paciente. El objetivo del proyecto es testear diferentes
algoritmos de data mining y big data con el objetivo de identificar patrones en la
dinámica de las señales que permitan predecir la posible evolución de un paciente a
partir de los datos iniciales registrados y prever protocolos de tratamiento
diferenciados. El proyecto aún está en una fase preliminar de pruebas de concepto y
perfeccionamiento de las herramientas tecnológicas (Astudillo et al., 2017).
4.3. Bibliografía

12-lead Electrocardiogram (EKG). (s/f). Washington Heart Rhythm Associates.

Recuperado de [Link]

Amoateng-Adjepong, Y., Del Mundo, J., & Manthous, C. A. (1999, abril). Accuracy
of an infrared tympanic thermometer. Chest, 115(4), 1002-5.

Ashley, E. A., & Niebauer, J. (2004). Cardiology explained. Remedica.

Astudillo, J., Zelechower, J., Traversaro, F., Redelico, F., Luna, D., ... & San
Román, E. (2017). “Big data in the ICU: experience in the Hospital Italiano de Buenos
Aires. Stud Health Technol Inform, 245, 1319.

Bronzino, J. D. (2006). Biomedical engineering fundamentals.

Burgán, J., Garbino, J. A., Risk, M. R., & Luna, D. (2017). Evolution of an automatic
vital signs acquisition system integrated to an electronic medical record. XXI Congreso
Argentino de Bioingeniería-SABI 2017.

Celi, L. A., Mark, R. G., Stone, D. J., & Montgomery, R. A. (2013, junio). “Big data”

in the intensive care unit. Closing the data loop. Am J Respir Crit Care Med,

187(11), 1157-60.

Centros para el Control y la Prevención de Enfermedades, Instituto Nacional de


Enfermedades Respiratorias (2007, marzo 1). Guía de NIOSH sobre entrenamiento
en espirometría. Morgantown: NIOSH.

Clarke, M., de Folter, J., Verma, V., & Gokalp, H. Interoperable end-to-end remote
patient monitoring platform based on IEEE 11073 PHD and ZigBee health care profile.
(2018, mayo). IEEE Trans Biomed Eng, 65(5), 1014-25.

De La Peña Sanabria, I., Ochoa Martelo, M., Baquero Latorre, H., Acosta-Reyes, J.
(2017, junio). Índice de perfusión periférica en la UCI neonatal: una respuesta a la
monitorización no invasiva del recién nacido crítico. Perinatología y Reproducción
Humana, 31(2), 85-90.

Energía y metabolismo II: respiración. (2011,marzo 21).Recuperado

de [Link]

Filipponi, F., & Mosca, F. (2001, octubre). Animal models of fulminant hepatic failure:

need to test liver support devices. Dig Liver Dis, 33(7), 607-13.
Física del sistema cardiovascular. (s/f). CubaEduca. Recuperado de

[Link]

From analog to digital-part 2: the conversion process. (s/f). Nutaq. Recuperado

de [Link]

Garbino, J., Vignau, G., Schachner, B., Campos, F., Luna, D., & González
Bernaldo de Quirós, F. (2012). Evolución de un sistema de electrocardiografía digital
asociado a una historia clínica electrónica en Argentina. XIII Congresso Brasileiro em
Informática em Saúde-CBIS.

Ghassemi, M., Marshall, J., Singh, N., Stone, D. J., & Celi, L. A. (2014, abril).
Leveraging a critical care database: selective serotonin reuptake inhibitor use prior to
ICU admission is associated with increased hospital mortality. Chest, 145(4), 745-52.

Ghosh, A. (2018, abril 2). 5 best pulse oximeters for home use. Vive Health.

Recuperado de [Link]

Glass, M. (1998, junio). ANSI/IEEE 1073: Medical Information Bus (MIB). Health
Informatics J, 4(2), 72-83.

Gomes, Y. F., Santos, D. F. S., Almeida, H. O., & Perkusich, A. (2015). Integrating
MQTT and ISO/IEEE 11073 for health information sharing in the internet of things.
2015 IEEE International Conference on Consumer Electronics (ICCE).

IEEE Std 11073-10207-2017: IEEE health informatics - Point-of-care medical device


communication Part 10207: Domain information and service model for service-oriented
point-of-care medical device communication. (2018, febrero 21). [Link]. Recuperado
de [Link]

IEEE Std 11073-20702-2016: Health informatics - Point-of-care medical device


communication Part 20702: medical devices communication profile for web services.
(2017, mayo 26). [Link]. Recuperado de [Link]

IHE International. Recuperado de [Link]

IHE Patient Care Device Technical Committee. (2018). Waveform content module.

IHE. Recuperado de [Link]

ISO/IEEE 11073-20601: 2016(E): ISO/IEC/IEEE International Standard - Health


informatics - Personal health device communication - Part 20601: Application profile -
Optimized exchange protocol. (2016, junio 15). [Link]. Recuperado de
[Link]
ISO/IEEE Health informatics - Point-of-care medical device communication - Part

10101: nomenclature. (2004). [Link]. Recuperado de [Link]

Jobbágy, Á., & Varga, S. (2014). Biomedical instrumentation. Recuperado de


[Link]

Kasparick, M., Schlichting, S., Golatowski, F., & Timmermann, D. (2016). Medical
DPWS: New IEEE 11073 standard for safe and interoperable medical device
communication. 2015 IEEE Conference on Standards for Communications and
Networking, CSCN 2015.

Klabunde, R. E. (2014, abril 23). Mean arterial pressure. Cardiovascular physiology

concepts. Recuperado de [Link]

Kligfield, P., Gettes, L. S., Bailey, J. J., Childers, R., Deal, B. J., … & Wagner, G. S.
(2007). Recommendations for the standardization and interpretation of the
electrocardiogram. Circulation, 115(10), 1306- 24. Recuperado de
[Link]

Ley de Stefan-Boltzmann. (2018). Wikipedia. Recuperado de [Link]

Martins, A. F., Santos, D. F. S., Perkusich, A., & Almeida, H. O. (2014). UPnP and
IEEE 11073: integrating personal health devices in home networks. 2014 IEEE 11th
Consumer Communications and Networking Conference (CCNC).

Modelo OSI. (2018). Wikipedia. Recuperado de [Link]

Moore, J. E., & Maitland, D. J. (2014). Biomedical technology and devices. CRC
Press.

Moxon, T. (2016, febrero 16). Converter circuits. GitHub. Recuperado de [Link]

Mulroney, S. E., & Myers, A. K. (2009). Netter’s essential physiology.

Saunders/Elsevier.

Newsome, P. N., Plevris, J. N., Nelson, L. J., & Hayes, P. C. (2000, enero). Animal
models of fulminant hepatic failure: a critical evaluation. Liver Transplant, 6(1), 21-31.
Nogués, G. (2015, diciembre 14). Tiro al blanco: precisión y exactitud. Cómo
sabemos. Recuperado de [Link]
Northrop, R. B. (2002). Noninvasive instrumentation and measurement in medical
diagnosis. CRC Press.

Papaioannou, T. G., Protogerou, A. D., Vrachatis, D., Konstantonis, G., Aissopou


E., ... & Sfikakis, P. P. (2016, septiembre). Mean arterial pressure values calculated
using seven different methods and their associations with target organ deterioration in
a single-center study of 1878 individuals. Hypertens Res, 39(9), 640-7.

Patient Care Device Technical Framework. (2017, noviembre 9). IHE. Recuperado
de [Link]

Personal Connected Health Alliance. (2017, octubre). White paper. Fundamentals

of data exchange. Recuperado de [Link]

Phillips, J. C., Braun, R., Wang, W., Gumbart, J., Tajkhorshid E., ... & Schulten K.
(2005, diciembre). Scalable molecular dynamics with NAMD. J Comput Chem, 26(16),
1781-802. Postel, J. (1980, agosto 28). User datagram protocol. Recuperado de
[Link]
Profiles. (s/f). IHE. Recuperado de [Link]

Protocolo de datagramas de usuario. (2018). Wikipedia. Recuperado de

[Link]

Rico Miranda, G. (2012, noviembre 15). Ventilación mecánica. Recuperado de


[Link]

Ring, E. F., Jung, A., Kalicki, B., Zuber, J., Vardasca, R., & Rusteka, A. (2013). New
standards for fever screening with thermal imaging systems. Journal of Mechanics in
Medicine and Biology, 13(2). Ring, E. F., McEvoy, H., Jung, A., Zuber, J., & Machin,
G. (2010, mayo). New standards for devices used for the measurement of human body
temperature. J Med Eng Technol, 34(4), 249-53.
Romagnoli, S., Ricci, Z., Quattrone, D., Tofani, L., Tujjar, O., ... & De Gaudio, A. R.
(2014, noviembre). Accuracy of invasive arterial pressure monitoring in cardiovascular
patients: an observational study. Crit Care, 18(6), 644.

RTD. (2018). Wikipedia. Recuperado de [Link]

Saeed, M., Villarroel, M., Reisner, A. T., Clifford, G., Lehman, L.-W., ... & Mark, R.
G. (2011, mayo). Multiparameter intelligent monitoring in intensive care II: a
public-access intensive care unit database. Crit Care Med, 39(5), 952-60.

Saltzman, W. M. (2009). Biomedical engineering: bridging medicine and technology.

Simulación por computadora. (2018). Wikipedia. Recuperado de [Link]


Sistema respiratorio. (s/f). AccessMedicina. Recuperado de
[Link]

Stone, D. C. & Ellis, J. (2013, octubre 25). Errors in the regression equation. Stats
tutorial-Instrumental analysis and calibration. Department of Chemistry, University of
Toronto. Recuperado de [Link]

Termistor. (2018). Wikipedia. Recuperado de [Link]

Trigo, J. D., Chiarugi, F., Alesanco, Á., Martínez-Espronceda, M., Serrano, L., ... &
García, J. (2010, noviembre). Interoperability in digital electrocardiography:
harmonization of ISO/IEEE x73-PHD and SCP-ECG. IEEE Trans Inf Technol Biomed,
14(6).

Watanabe, M., Suwa, T., Furuya, A., & Takai, K. (2012, julio). New technologies of
applications using supercomputer. Fujitsu Sci Tech, 48(3), 364-74.

Westerhof, N., Lankhaar, J.-W., & Westerhof, B. E. (2009, febrero). The arterial
[Link] Biol Eng Comput, 47(2), 131-41. Wikipedia. (2018). Arteria.
Recuperado de [Link]

Yao, J., & Warren, S. (2005, diciembre). Applying the ISO/IEEE 11073 standards to

wearable home health monitoring systems. J Clin Monit Comput, 19(6), 427-36.

Zaleski, J. (2009). Integrating device data into the electronic medical record: a
developer’s guide to design and a practitioner’s guide to application. Siemens.
Zenteno, T. (2017, marzo 17). Principios físicos del intercambio gaseoso. Recuperado
de [Link]

Zhang, Z. (2014, diciembre). Big data and clinical research: perspective from a

clinician. J Thorac Dis, 6(12), 1659-64.


Capítulo 5. Inteligencia artificial y sus aplicaciones

Victoria O'donnell
Natalia Perez
Sonia Benitez

En los últimos años, la acumulación de gran cantidad y variedad de datos, a la par del
aumento significativo en la capacidad de procesamiento en computación, dieron lugar
a implementaciones novedosas de técnicas de aprendizaje automático en el campo de
la salud. Estos métodos se enmarcan en un proceso más general denominado
inteligencia artificial (IA), en el que muchas de las tareas que antes requerían la
intervención de las personas ahora pueden automatizarse y ampliarse con el uso de
procesadores. En este sentido, en muchos casos ya no es necesario declarar qué es
lo importante en una base de datos ni cómo se relacionan las variables entre sí, sino
que esa tarea la realizan de forma automática los algoritmos que “aprenden” de
manera autónoma al ser expuestos a una cantidad significativa de datos. Para
entender mejor cómo funcionan los algoritmos es necesario comprender el contexto
general de la IA en los distintos ámbitos de nuestra época, para luego adentrarnos en
sus aplicaciones y contribuciones específicas en el campo de la salud.

5.1. ¿Qué es la inteligencia artificial?

Para algunos, la IA se trata de formas artificiales de vida que superan la inteligencia


humana y, para otros, define a casi cualquier tecnología de procesamiento de datos.
Es evidente que no es una pregunta fácil y esto se debe a las razones siguientes:

● No hay una definición oficialmente aceptada: incluso los investigadores de IA no


tienen una definición exacta. El campo se redefine constantemente cuando
algunos temas dejan de clasificarse como IA y surgen nuevos campos de acción.
● El legado de la ciencia ficción: la confusión sobre el significado de la IA empeora
con las visiones presentes en varias obras literarias y cinematográficas de ciencia
ficción. A menudo, las historias de ciencia ficción cuentan con seres humanoides
amigables que proporcionan diálogos ingeniosos o servidores que se vuelven
contra sus amos. La parte robótica de estas criaturas es mucho menor a su parte
humana, por eso no tenemos que tomarnos estos ejemplos como la realidad.
● Lo que parece fácil, en realidad es difícil...: otra fuente de dificultad para
comprender la IA es que es difícil saber qué tareas son fáciles y cuáles difíciles.
Miramos a nuestro alrededor y tomamos un objeto; ahora, consideremos los pasos
que seguimos: usamos los ojos para escanear el entorno, descubrimos dónde hay un
objeto adecuado para agarrar, elegimos y planificamos una trayectoria para que la
mano lo alcance; luego, movemos la mano contrayendo varios músculos y logramos
sujetar el objeto con la cantidad justa de fuerza para mantenerlo entre los dedos. Si
bien para nosotros es fácil agarrar objetos, para un robot es extremadamente difícil.
● Y lo que parece difícil, es realmente fácil: por el contrario, jugar al ajedrez y
resolver ejercicios matemáticos puede parecer muy difícil y requerir años de práctica
para dominar cada disciplina. Para una computadora, jugar al ajedrez es muy fácil, ya
que puede seguir reglas bastante simples y calcular muchas secuencias de
movimientos alternativos a un ritmo de miles de millones de cálculos por segundo.

5.2. Definición

Podemos definir la IA con base en sus propiedades características, la autonomía y


la adaptabilidad. La autonomía es la capacidad de realizar tareas en entornos
complejos sin la orientación constante de un usuario, en tanto que la adaptabilidad
es la capacidad de mejorar el rendimiento aprendiendo de la experiencia. El
término a menudo se atribuye a John McCarthy, considerado el padre de la IA. Su
declaración sobre IA fue clave: “El estudio debe proceder sobre la base de la
conjetura de que cada aspecto del aprendizaje o cualquier otra característica de la
inteligencia puede, en principio, ser descrito con tanta precisión que se puede hacer
que una máquina lo simule”. Es decir que cualquier elemento de la inteligencia se
divide en pasos pequeños para que cada uno de los pasos sea tan simple y
“mecánico” que se pueda simular. Esta afirmación fue y sigue siendo hoy una
conjetura, lo que significa que no podemos demostrar que sea verdadera. Sin
embargo, la idea es absolutamente fundamental en lo que respecta a la forma en
que consideramos a la IA.

Las palabras pueden ser engañosas

Cuando nos referimos a un sistema inteligente porque, por ejemplo, proporciona


instrucciones precisas de navegación o detecta signos de melanoma en fotografías
de lesiones cutáneas, la palabra ‘inteligente’ sugiere fácilmente que el sistema es
capaz de realizar cualquier tarea que una persona inteligente pueda realizar: ir al
supermercado y cocinar, lavar y doblar la ropa, entre otras cosas. Del mismo modo,
cuando señalamos que un sistema de visión por computadora (computer vision)
entiende las imágenes porque es capaz de segmentarlas en objetos distintos, como
automóviles, peatones, edificios, calles, etc., la palabra ‘entender’ sugiere
fácilmente que el sistema también comprende que si una persona usa una remera
que tiene una foto de una calle impresa en ella, no está bien conducir en esa calle
(y encima de la persona).

5.3. Aplicaciones

Con sus limitaciones, las aplicaciones están relacionadas con la planificación, el


manejo

de la incertidumbre y el uso de probabilidades.

● Planificación

Los algoritmos de planificación ayudan, por ejemplo, a una logística óptima para la
distribución de medicamentos, vacunas, insumos hospitalarios, etc., a todo el país,
desde los distintos proveedores. También, a elegir la ambulancia que está a un menor
tiempo de llegada de un lugar determinado (no siempre es la más cercana en
distancia, dado que deben considerarse las variables como el tránsito), del mismo
modo que un auto autónomo busca llegar de un punto a otro utilizando la mejor ruta.

Los problemas de planificación tiene tres componentes claves:

1. El espacio de estados: es el conjunto de situaciones posibles. Si la tarea consiste


en ir desde un lugar A hasta un lugar B, el espacio de estados es el conjunto de
ubicaciones definidas por sus coordenadas geográficas (latitud, longitud), que se
pueden alcanzar desde el punto de inicio A. También podemos usar un conjunto
restringido de ubicaciones, por ejemplo, diferentes direcciones de calles para que el
número de estados posibles sea limitado.

2. Transiciones: son movimientos posibles entre un estado y otro. Es importante


tener en cuenta que solo contamos las transiciones directas entre estados vecinos
como transiciones. Una secuencia de transiciones múltiples, por ejemplo, de A a C,
de C a D y de D a B (el objetivo), es una ruta en lugar de una transición única.

3. Costos: las diferentes transiciones, a menudo, no son todas iguales. Difieren en


formas que hacen que algunas sean más preferibles o más baratas (en un sentido
no necesariamente monetario de la palabra) y otras, más costosas. Esto puede
expresarse asociando cada transición con un cierto costo. Si el objetivo es
minimizar la distancia total recorrida, entonces el costo natural es la distancia
geográfica entre los estados. Si el objetivo consiste en minimizar el tiempo en lugar
de la distancia, el costo natural, obviamente, es el tiempo. Si todas las transiciones
son iguales, entonces podemos ignorar los costos.

5.4. Limitaciones

Así, parece que tenemos un método para resolver cualquier problema especificando
los estados, las transiciones y los costos entre ellos. Lamentablemente, las cosas son
más complicadas cuando queremos aplicar la IA a problemas del mundo real. Las
transiciones que llevan de un estado al siguiente, cuando elegimos una acción, no son
deterministas. Esto significa que lo que decidimos hacer no siempre determina por
completo el resultado, porque hay factores que están fuera de nuestro control y que a
menudo desconocemos; por ejemplo, si nos encontramos con un árbol caído que
obstruye la calle o una protesta social, entonces tenemos que tomar un camino distinto
al calculado.

5.4.1. Incertidumbre

Para un auto sin conductor se puede establecer la manera más eficiente para llegar de
A a B cumpliendo con la legislación de tránsito. Pero qué sucede si el tráfico empeora,
tal vez, debido a un accidente, comienza a nevar o una piedra golpea y rompe el
parabrisas. El auto autónomo necesita una variedad de sensores y cámaras para
detectar dónde está y qué hay a su alrededor. Estos sensores nunca son perfectos, ya
que sus datos siempre incluyen errores e imprecisiones denominados ruido.

5.4.2. Probabilidad

Una de las razones por las que los métodos modernos de IA realmente funcionan en
problemas del mundo real es su capacidad para manejar la incertidumbre. La
probabilidad ha resultado ser el mejor enfoque para razonar bajo incertidumbre y casi
todas las aplicaciones actuales de IA se basan, al menos en cierto grado, en las
probabilidades. La probabilidad posibilita tratar la incertidumbre como un número: los
números se pueden comparar y, con frecuencia, medir. Los números en probabilidad a
veces son subjetivos; no obstante, podemos evaluarlos críticamente. El hecho de que
se pueda cuantificar la incertidumbre es de suma importancia, por ejemplo, en la
decisión sobre vacunación u otras políticas públicas. Antes de ingresar al mercado,
cualquier vacuna es clínicamente probada, por lo que sus beneficios y riesgos son
cuantificados. Los riesgos no se conocen hasta el más mínimo detalle, pero su
magnitud generalmente alcanza un grado suficiente para argumentar si los beneficios
superan los riesgos.
[Link]. ¿Cómo se calcula?

Ejemplo: calcular la probabilidad de que al lanzar un dado salga el número 2:

[Link]. Posibilidades

Probablemente, la forma más fácil de representar la incertidumbre sea a través de


posibilidades.

Si tomamos el ejemplo anterior, las posibilidades de que al lanzar un dado salga el


número 2 son:

En general, las posibilidades de un evento se expresan con la forma x:y, y la


probabilidad de dicho evento es x/(x + y). Si retomamos el ejemplo: 1/(1 + 6) es 0,166,
como vimos en el otro apartado anterior.

5.4.3. El teorema de Bayes

[Link]. Posibilidades previas y posteriores

El teorema de Bayes puede expresarse de muchas formas. La más simple es en


términos de posibilidades. La idea es tomar las posibilidades de que algo suceda
(contra que no suceda); esto se denomina posibilidades previas. El término ‘previa’
refiere a la evaluación de las posibilidades antes de obtener una información nueva
que pueda ser relevante. El objetivo de la fórmula es actualizar las posibilidades
previas cuando esté disponible la información nueva, para obtener las probabilidades
posteriores o las posibilidades después de obtener la información.
[Link]. Fórmula del teorema de Bayes

[Link]. El teorema de Bayes en la práctica: detección del cáncer de mama


Un ejemplo clásico del uso de la regla de Bayes es el diagnóstico médico.
Consideremos el screening mamográfico para la detección del cáncer de mama. Cinco
de cada 100 mujeres tienen cáncer de mama. Si una mujer tiene cáncer de mama, la
prueba de mamografía la encuentra 80 veces de cada 100. Cuando aparece la prueba
que sugiere que hay cáncer de mama, el resultado es positivo, es decir, en forma
técnica, la sensibilidad de la prueba es del 80%. La prueba también puede indicar
cáncer de mama cuando no existe; esto se denomina hallazgo falso positivo. Si la
mujer que se evalúa en realidad no tiene cáncer de mama, las posibilidades de que la
prueba sea positiva son 10 en 100.

Primero, expresamos las probabilidades en términos de posibilidades. Las


posibilidades previas describen la situación antes de obtener el resultado de la prueba.
Como cinco de cada 100 mujeres tienen cáncer de mama, hay un promedio de cinco
mujeres con cáncer de mama por cada 95 sin este y, por lo tanto, las posibilidades
previas son de 5:95. El índice de verosimilitud es la probabilidad de que aparezca un
resultado positivo en caso de cáncer, dividido por la probabilidad de un resultado
positivo en caso de no tener cáncer. Con los números anteriores, esto da 80/100
dividido por 10/100, que es 8. Ahora, usemos el teorema de Bayes para obtener las
posibilidades posteriores de cáncer de mama dado el resultado positivo de la prueba:

Posibilidades posteriores = 8 * 5:95 = 40:95.

Entre las mujeres con resultado positivo hay, en promedio, 40 que tienen cáncer por
cada 95

que no lo tienen.

5.5. Ejemplos de uso de la inteligencia artificial

Los autos sin conductor, el procesamiento de imágenes y video o la recomendación de

contenido, entre otros, son ejemplos del uso de la IA.

5.5.1. Autos autónomos

Los autos sin conductor requieren una combinación de varias técnicas de IA que
deben funcionar con precisión casi perfecta para evitar accidentes. Algunas de estas
técnicas son la búsqueda y la planificación para encontrar la ruta más conveniente (la
más corta y rápida teniendo en cuenta las variables del tránsito), la visión por
computadora (computer vision) para identificar obstáculos y la toma de decisiones con
alto grado de incertidumbre para hacer frente al entorno donde se va a mover el auto,
que es complejo y dinámico.

5.5.2. Recomendación de contenido

Mucha de la información que encontramos en el transcurso de un día típico es


personalizada. Los ejemplos incluyen las recomendaciones de música en Spotify y en
YouTube; películas en Netflix; publicidad en Facebook, Twitter e Instagram; compras
en Mercado Libre y Amazon, etc. Muchos sitios de noticias y motores de búsqueda,
como Google, también personalizan el contenido que ofrecen según el usuario que
consultan. Los algoritmos que determinan el contenido que vemos están basados en
IA.

5.5.3. Procesamiento de imágenes y video

El reconocimiento del rostro ya es un producto instalado en el mercado. Las


aplicaciones comerciales lo utilizan para que sus usuarios ingresen a la aplicación
(Facebook y Google Fotos, entre otras, lo utilizan para reconocer automáticamente a
las personas y “etiquetarlas”). Estas aplicaciones también suelen organizar las fotos en
álbumes distintos de acuerdo con quién está presente en la foto.

Se utilizan técnicas similares para reconocer otros vehículos y obstáculos alrededor de


un auto autónomo, estimar poblaciones de vida silvestre o controlar la siembra en los
campos, solo por mencionar algunos ejemplos.

5.6. Campos relacionados

Dentro de los campos relacionados están la robótica, el aprendizaje automático


(machine learning)

y el aprendizaje profundo (deep learning) (Patterson & Gibson, 2017).

5.6.1. Robótica

La robótica se basa en construir y programar robots para que operen en escenarios


complejos y reales. Requiere una combinación de prácticamente todas las áreas de
IA; por ejemplo:

● visión por computadora y reconocimiento de voz para detectar el entorno;


● procesamiento de lenguaje natural, recuperación de información y razonamiento
bajo incertidumbre para procesar instrucciones y predecir consecuencias de
acciones potenciales;
● modelado cognitivo y computación afectiva para interactuar y trabajar en conjunto
con los seres humanos.

Muchos de los problemas de la IA relacionados con la robótica se abordan mediante el

aprendizaje automático.

¿Qué es un robot?

Un robot es una máquina que tiene sensores (que detectan el entorno) y actuadores
(que actúan sobre el medio ambiente), que se programan para realizar secuencias de
acciones. Las personas estamos acostumbradas a las representaciones de robots de
la ciencia ficción; muchas veces, figurados como máquinas humanoides. Actualmente,
la mayoría de los robots del mundo real son muy diferentes, ya que están diseñados
de acuerdo con una aplicación. La mayoría de las aplicaciones no se benefician de un
robot con forma humana, al igual que no tenemos robots humanoides para lavar los
platos, sino máquinas en las que colocamos los platos para lavarlos con chorros de
agua a presión.

Figura 66. Vinculación de los campos relacionados con la Inteligencia Artificial

5.6.2. Aprendizaje automático (machine learning)

El aprendizaje automático es un campo de la IA. Son sistemas que mejoran su


rendimiento en una tarea determinada teniendo en cuenta cada vez más experiencia o
datos. Es decir, el aprendizaje automático permite soluciones de IA que son
adaptativas.

5.6.3. Aprendizaje profundo (deep learning)


El aprendizaje profundo es un campo dentro del aprendizaje automático. La
“profundidad” se refiere a la complejidad de un modelo matemático. El aumento en el
poder de cómputo de las computadoras modernas permite incrementar esta
complejidad para alcanzar niveles que son diferentes de los anteriores en los aspectos
cuantitativo y cualitativo. Esto permite acercarse a un tema en particular, procesar una
cantidad cada vez mayor de conocimiento acumulado a través de los años y producir
conocimientos nuevos sobre el tema o, a veces, corregir el conocimiento anterior para
que sea más preciso.

5.7. Ciencia de datos (data science)

La ciencia de datos es el concepto que se utiliza actualmente para englobar las


distintas estrategias que se emplean para generar información relevante a partir de
datos. En los últimos años esto incluye incorporar el aprendizaje automático (o
machine learning) y el deep learning bajo la forma de algoritmos “inteligentes”,
capaces de encontrar patrones, asociaciones y hallazgos relevantes a una pregunta o
tema en particular de forma automática. Además de los algoritmos de aprendizaje
automático, para realizar ciencia de datos se requiere algún tipo de conocimiento de
dominio (por ejemplo, de salud), para contextualizar y comprender los resultados que
se obtienen; conocimientos de estadística, para transformar e interpretar los modelos,
y de programación y de base de datos, para obtener y consolidar los datos que se
necesitan como insumo antes de implementar cualquier algoritmo. Dado que es difícil
que una sola persona reúna un conocimiento avanzado en todos estos dominios,
muchas veces se generan equipos interdisciplinarios, que aportan a un proyecto en
común (Wickham & Grolemund, 2016; Zumel & Mount, 2014; Toomey, 2014).

En la ciencia de datos, aunque existe una etapa del proceso que se delega a la
automatización mediante el uso de algoritmos, la participación del investigador es
fundamental a la hora de delinear la pregunta y la información requerida, obtener y
consolidar los datos necesarios, reconocer hallazgos relevantes y contextualizar los
resultados.

5.7.1.¿Cuál es la diferencia entre ciencia de datos y big data?

Hay diferentes acepciones posibles, pero dentro de la ciencia de datos se suele


denominar big data al conjunto de datos masivos que no pueden procesarse usando
métodos estándares de gestión de bases de datos y análisis estadístico. Lo anterior,
muchas veces se entiende como un conjunto de información que excede la capacidad
de procesamiento de una sola computadora, es decir que es un término contextual. El
manejo del big data puede ser desafiante en diferentes niveles, pero también ofrece
oportunidades frente a lo que se denomina small data.

Dada la creciente digitalización de documentos médicos, contar con big data en el


campo de la salud es frecuente. La combinación de grandes estudios genómicos
poblacionales, estudios epidemiológicos poblacionales, el uso creciente de historias
clínicas electrónicas, resultados de laboratorio e imágenes, el empleo de dispositivos y
aplicaciones móviles y la utilización de redes sociales, sensores o biobancos, entre
otros, presenta desafíos en cuanto a su manipulación y procesamiento. Máxime si se
tiene en cuenta que a los datos de origen estrictamente médico se le incorpora
información asociada de manera menos convencional al campo, como datos de
compras que hacemos en el día a día, flujos de tránsito y, virtualmente, cualquier
información que pueda vincularse a las anteriores o entre ellas (Barranco Fragoso,
2012; Frizzo-Barker & Chow-White, 2014; Vayena, 2015; Via, 2017). Es en este
sentido que se considera que la cantidad de datos generada por las actividades
facilitadas por internet y las tecnologías móviles no tiene precedentes. La tasa de
penetración de la tecnología móvil en países en desarrollo es del 89%, en tanto que
cerca del 40% de la población mundial está conectada a internet. Además, el 82% de
la población mundial usa redes sociales y están disponibles más de 40.000
aplicaciones móviles de salud (Vayena, 2015).

Una idea comúnmente asociada con el big data es su descomposición en las cinco ‘V’,
que describen sus características: volumen, velocidad, variedad, variabilidad y valor
(Jain, 2016). Los datos grandes, primero y ante todo, tienen que ser “grandes” y el
tamaño, en este caso, se mide como volumen. ¿Cuán grande tiene que ser? Solo en
2012, ya había en internet 2,7 zettabytes de datos aproximadamente y un zettabyte
corresponde a 75 mil millones de iPads de 16 gigas (Rua, 2012), esto es, siete veces
la población mundial prevista para 2100 (11.200 millones de personas) (“La vieja
Europa: el 34% de la población tendrá más de 60 años en 2050”, 2015). La velocidad
en el contexto del big data se refiere a la velocidad cada vez mayor a la que se crean
datos nuevos mediante avances tecnológicos y a la correspondiente necesidad de que
esos datos se procesen y analicen casi sincrónicamente. En cuanto a la variedad, se
describe por la gran diversidad de tipos de datos que pueden coexistir. La siguiente V
corresponde a la variabilidad, que
significa que los datos solo se interpretan de manera significativa cuando se establece
el contexto. Por último, pero no menos importante, los grandes datos deben tener
valor. Es decir, si se va a invertir en la infraestructura necesaria para recopilar e
interpretar datos a gran escala, es importante asegurarse de que los conocimientos
que se generan se basan en datos precisos y conducen a mejoras.

5.7.2. Principales tareas en la ciencia de datos

Las tareas principales en la ciencia de datos están relacionadas con la predicción, la


exploración,

la asociación y la descripción, entre otras; a continuación, las desarrollamos:


● Predicción: es posible afirmar que este ha sido tradicionalmente el objetivo
principal de la ciencia de datos. Mediante el entrenamiento de un modelo a partir
de datos pasados, es la capacidad de anticiparse a eventos de interés con el fin
de intervenir sobre el resultado.
● Exploración: ante un conjunto de datos, el uso de ciertas técnicas permite
conocer mejor la información disponible, generar hipótesis a partir de lo
observado, explorar asociaciones, etcétera.
● Descripción: es posible utilizar herramientas de ciencia de datos de una forma
similar a la estadística tradicional: buscar asociaciones, factores de riesgo,
factores de protección, etc., de un fenómeno determinado. A diferencia de la
estadística clásica, los algoritmos generalmente permiten el procesamiento de
una mayor cantidad de dimensiones; sin embargo, provee un nivel menor de
inteligibilidad de sus resultados.
● Asociación: es el descubrimiento de las asociaciones o correlaciones entre un
conjunto (set) de ítems. A menudo, se expresan en forma de reglas que muestran
condiciones atributo-valor que ocurren juntas en un conjunto de datos. Una regla
de asociación de la forma X => Y se interpreta como duplas de la base de datos
que, sí satisfacen X, probablemente satisfagan Y. El análisis de asociación se usa
ampliamente en transacciones para marketing dirigido, diseño de catálogos y
otros procesos de toma de decisiones en negocios. Recientemente, se
desarrollaron investigaciones con resultados sustanciales que brindan algoritmos
eficientes, como el a priori para múltiples niveles, asociaciones
multidimensionales, mining para datos numéricos, categóricos e intercalares,
mining dirigido por metapatrones o basado en restricciones y mining sobre
correlaciones.
● Segmentación: esta tarea permite agrupar datos o individuos similares para, por
ejemplo, diseñar estrategias diferenciales que sean pertinentes para un segmento
determinado, en vez de para la totalidad de los casos.
● Reducción de la dimensionalidad: algunos algoritmos permiten transformar una
base significativamente grande de datos en pocas dimensiones para utilizarse
luego como insumo para técnicas que no permiten una gran cantidad de datos.
● Reconocimiento de imágenes: a partir de la información de los píxeles de una
imagen, algunos algoritmos determinan de qué objeto se trata, incluso con mayor
precisión que la visión humana. Esta tarea es particularmente útil en el campo
médico, para la identificación de tumores o anomalías en el diagnóstico por
imágenes.
● Reconocimiento de la voz: algunos algoritmos son capaces de identificar
sutilezas en la voz y en las modulaciones que permiten identificar al emisor y la
intención o sentimiento con la que emite las palabras.
● Análisis de texto: existen técnicas y algoritmos que permiten rescatar
información de campos de texto libre para obtener información valiosa, plausible
de analizar y procesar.

5.7.3. Principales aplicaciones en la ciencia de datos en salud

En cuanto a las aplicaciones en la ciencia de datos, mencionamos el reconocimiento


de imágenes, de señales, los avances en la genética y la genómica, el desarrollo de
drogas y la farmacovigilancia, la gestión hospitalaria y la atención al paciente o la
predicción de eventos clínicos (Bobriakov, 2018).

a. Reconocimiento de imágenes

El uso del aprendizaje automático en imágenes posee un enorme potencial y ya se


han hecho avances significativos en este campo. El objetivo de estas tareas suele ser
mejorar la capacidad de detección del ojo humano mediante el procesamiento
automático.

b. Reconocimiento de señales

Los dispositivos médicos utilizados para evaluar el estado de un paciente suelen


generar gran cantidad de datos que, tradicionalmente, ha sido difícil procesar y
analizar. En general, la gran ventaja de este tipo de datos, con respecto a los insumos
más subjetivos, como las evoluciones, es que suelen estar menos expuestos a sesgos
del emisor y a problemas de completitud o inconsistencia. Con la digitalización
creciente de los resultados y el avance del big data, descubrir patrones, extraer
información y realizar predicciones a partir de estos datos es cada vez más accesible.
c. Genética y genómica

La información genética posibilita un nuevo estadio de la medicina, donde las


prácticas se personalizan a las características específicas del paciente (medicina de
precisión). Sin embargo, para que esto sea posible, es necesario tener la capacidad
de almacenar y procesar volúmenes enormes de datos. Para esto, el aprendizaje
automático, dentro de la ciencia de datos, se convierte en un aliado indispensable
para avanzar en esta área.

d. Desarrollo de drogas y farmacovigilancia

Con el uso de técnicas de aprendizaje automático es posible contribuir al desarrollo


seguro de medicamentos nuevos. La capacidad de evaluar cómo reacciona la matriz
completa de los compuestos seleccionados entre sí, a la vez que se realizan
simulaciones a gran escala de distintos escenarios, acelera el proceso que conlleva
validar una droga nueva. Asimismo, el registro de la evolución de los distintos
tratamientos da una pauta de los efectos secundarios/adversos y las interacciones no
contempladas previamente.

e. Gestión hospitalaria y atención al paciente

Desde el reconocimiento de voz y de sentimiento, la personalización en el trato de


acuerdo con el historial personal, la optimización del uso de las instalaciones y la
anticipación de las necesidades del usuario, la ciencia de datos aplicada a la gestión
en salud mejora el proceso de atención general.

f. Predicción de eventos clínicos

La capacidad de procesar información de todas las consultas realizadas, los


antecedentes familiares, los factores de riesgo y de protección, de comportamiento,
genética y ambiental, entre otros, le permite al profesional de la salud anticiparse a
algunos eventos clínicos e intervenir de manera adelantada para prevenirlo o
atenuarlo.

5.7.4. Paso a paso (posible) de un proyecto de ciencia de datos

Es posible definir un cronograma tradicional de un analista que se dedica a la ciencia


de datos. Sin embargo, también es importante tener en cuenta que la metodología
varía sustancialmente entre profesionales y que se trata de un proceso dinámico e
iterativo, en el que continuamente se vuelve atrás para redefinir y mejorar las etapas
anteriores.
a. Comprensión del problema y revisión bibliográfica

A la hora de abordar una problemática en un proyecto de ciencia de datos resulta


especialmente beneficioso realizar una revisión bibliográfica de trabajos publicados y
afines al tema en cuestión. De esa forma, es posible conocer qué estrategias fueron
exitosas o no, qué fuentes de datos se utilizaron, qué metodologías resultan
relevantes, cuáles son los resultados, qué limitaciones encontraron otros al encarar un
tema similar, etc. Particularmente, conocer qué variables consideraron relevantes
otros investigadores o profesionales para el problema (y cuál fue el resultado) sirve de
guía o disparador para completar un proyecto. Asimismo, conversar e intercambiar
ideas con expertos o profesionales que conozcan del dominio de interés es
sumamente provechoso, ya que entender mejor el tema permite superar la estrategia
para abordar el problema, así como también su interpretación y validación.

Tener una idea y un registro escrito claros de cuál es el objetivo del proyecto, cuál es
la pregunta que deseamos responder, los pasos que debemos seguir, las posibles
amenazas, los alcances y las limitaciones puede resultar de máxima utilidad para
encauzar el resto del trabajo, así como también permitir la reproducibilidad y la
publicación de los resultados.

b. Búsqueda y recolección de fuentes

Una vez definida, por lo menos de forma provisoria, qué tipo de información es
relevante o útil para el proyecto, el paso siguiente es buscar esos datos en las fuentes
que se consideren apropiadas. Las fuentes para un proyecto de ciencia de datos son
diversas y de distintos tipos (y, probablemente, esto es lo más recomendable). Si se
trata de un proyecto institucional, seguramente se utilicen datos propios de la
organización (fuentes internas). A estas fuentes se le pueden sumar recursos de otros
organismos (fuentes externas), tanto de acceso público como rentadas. El ejemplo
típico de este último tipo de fuentes son los pronósticos del clima, los censos o los
datos demográficos. El objetivo a lo largo plazo del proyecto es aproximarnos al
problema con la mayor cantidad de información posible que esté asociada con el
fenómeno en cuestión.

c. Captura de datos y consolidación

Obtenidas las fuentes de datos con las que deseamos trabajar, lo que necesitamos
ahora es consolidarlas en una tabla que nos permita trabajar más cómodamente con
los datos. Este paso suele ser menos sencillo de lo esperado, especialmente en los
casos en los que se combinan fuentes de información, ya que generalmente las
distintas bases tienen unidades de análisis, horizontes temporales y geográficos e
identificadores propios.

d. Tipos de datos

Estructurados
Se denominan datos estructurados a los almacenados en campos delimitados
para ello, pueden indexarse fácilmente y tienen un tipo y una extensión
posible, predefinidos y limitados. Son ejemplos de datos estructurados, las
respuestas sobre el género de una persona en una pregunta cerrada de un
cuestionario, la edad, los problemas que se cargan mediante la
Systematized Nomenclature of Medicine (SNOMED), etcétera.

No estructurados

Los datos no estructurados no siguen reglas tan claras o identificables

como los estructurados y, por lo general, esto los convierte en datos

significativamente más difíciles de analizar, dado que tienen alta heterogeneidad

entre sí. El ejemplo más característico en salud lo conforman las evoluciones

o la epicrisis que los médicos escriben acerca de un paciente.

e. La calidad de los datos importa

Para construir un modelo que generalice bien fuera de los datos de entrenamiento,
estos últimos deben ser de calidad y contener información suficiente y relevante para
el problema en cuestión. Por ejemplo, si se crea un clasificador que se entrena solo
con datos de imágenes de tumores de mama, este modelo no puede utilizarse para
identificar otro tipo de tumores, ya que no “aprendió” a reconocerlos.

f. Limpieza y transformación del dataset

Como, generalmente, el objetivo en la recolección de datos en una base no es el


proyecto en cuestión, es muy probable que la información no se ajuste en calidad y
forma a lo deseado. Tal es el caso de las evoluciones médicas, por ejemplo: cuando
se genera el dato, el objetivo es de tipo asistencial, como apoyo al médico para
mejorar la atención, con lo cual las evoluciones no suelen estar exentas de errores de
tipeo, referencias personales, información incompleta. Asimismo, los niveles de
agregación, las ventanas temporales, etc., pueden no adecuarse al objetivo.
Adicionalmente, muchas veces se presentan valores que escapan a lo considerado
“normal” o “posible” (outliers), debido a comportamientos muy singulares o errores en
los sistemas. Por último, es frecuente que los datos no estén completos, debido a
distintas razones, con lo cual puede suceder que cuente con una variable que brinda
poca información sobre un fenómeno.

El científico de datos toma decisiones sobre cómo resolver o tratar estas cuestiones,
considerando el caso en cuestión y, de forma recomendada, dejando registro de lo
que se determinó y, en el mejor de los casos, el fundamento sobre el cual se basó la
decisión.

g. Exploración, visualización y descripción de la información

Este paso es fundamental y transversal a todo el proyecto. Conocer, familiarizarse,


corroborar y hacer un seguimiento de los datos es una de las formas que tiene el
profesional en ciencia de datos para garantizar que los resultados obtenidos sean
válidos y útiles. Para estas tareas, la visualización mediante gráficos y tablas, el
resumen de las medidas de tendencia central y dispersión y la revisión constante de
las transformaciones que realiza son requisitos indispensables y permiten mayor
control y confianza en los procesamientos que se realizan.

h. División de datos

En la aplicación de los algoritmos de aprendizaje automático es deseable que un


modelo se ajuste lo suficiente, pero no demasiado, a los datos con los que se
alimenta. Ajustarse demasiado a los datos lleva a overfitting (sobreajuste), que sucede
cuando un algoritmo aprende “demasiado” de la información brindada y se vuelve
poco generalizable a otros contextos. Es importante entender que todo conjunto de
datos tiene sus particularidades, no está exento de ruido y está determinado de
manera temporal y especial. Si como insumo se da que un conjunto de datos es toda
la realidad posible, entonces cualquier irregularidad será generalizable a todos los
escenarios y, muy probablemente, llevando a errores significativos y poca
adaptabilidad. Por el contrario, si el modelo no se ajusta a los datos que le proveemos,
entonces los resultados tendrán un sesgo alto, es decir que la diferencia entre lo
estimado y lo predicho será amplia.

La estrategia más utilizada hasta el momento para equilibrar ambas amenazas —de
sobreajuste, por un lado, y de sesgo, por el otro— es dividir el set de datos, utilizar
solo una porción para “entrenar” el modelo (implementarlo para que aprenda de forma
automática) y reservar otra para el testeo o la validación de la capacidad de
generalizar datos distintos. De esta forma, se busca atenuar el impacto del ruido y el
azar. Existen distintos tipos de estrategias para dividir el entrenamiento de la
validación: cross validation (usar dos tercios para entrar y un tercio para testear, por
ejemplo), k-fold, leave-one-out, etc. Aprender a evitar el sobreajuste y elegir un modelo
que no sea demasiado restringido o flexible es una de las habilidades vitales para el
científico de datos.

5.7.5. Elección de algoritmos

Para elegir cuál es el algoritmo más apropiado para aplicar a un problema


determinado es necesario realizar algunas preguntas claves que sirven de guía:

● ¿Cuál es el tema que nos interesa?


● ¿Qué tipo de tarea queremos realizar (predicción,exploración,segmentación,
etcétera)?

● El problema que queremos abordar, ¿tiene variable de interés o interesa la

estructura de los datos?

● Si el problema tiene un evento de interés, ¿qué tipo de variable es (binaria,

numérica, multinomial?

● Si el problema no tiene evento de interés, ¿nos interesa agrupar los datos

o las dimensiones?

● ¿Qué tipos (estructurados, no estructurados, imagen, voz, texto) y qué cantidad

de datos tenemos?

● ¿Qué capacidad de procesamiento tenemos y cuán óptimo necesitamos que

sea el modelo en el aspecto computacional?

Con el objetivo de ayudar a tener los recursos necesarios para responder este tipo de
preguntas para un proyecto, revisamos algunos de los algoritmos más conocidos, sin
que esta lista se considere exhaustiva del amplio universo que existe y que se genera
día a día.

[Link]. Tipos de problemas

Es posible clasificar a los algoritmos disponibles según el propósito con el que se

emplean:

● Aprendizaje supervisado

En los problemas supervisados existe un atributo de interés (variable objetivo o target)


que se intenta predecir o evaluar. La predicción requiere de datos retrospectivos sobre
los cuales el algoritmo “aprende” ciertos parámetros y, luego, devuelve una predicción
o resultado estimado ante eventos nuevos. Un problema típico de aprendizaje
supervisado es intentar predecir qué pacientes tienen riesgo de accidente
cardiovascular o infección intrahospitalaria, por ejemplo. Otro ejemplo posible es, a
partir de imágenes de lesiones cutáneas, identificar cuáles son melanoma y cuáles no.

● Aprendizaje no supervisado

En este tipo de problemas, a diferencia de los de aprendizaje supervisado, no hay


etiquetas ni resultados correctos. La tarea consiste en agrupar los datos o
dimensiones por similitud en distintos segmentos. Por ejemplo, agrupar pacientes por
síntomas comunes dentro de una misma enfermedad orienta mejor el tipo de
tratamiento a aplicar. De la misma forma, agrupar variables que portan información
muy similar entre ellas resulta en un modelo más parsimonioso y de menor exigencia
de procesamiento.

● Aprendizaje por refuerzo

Comúnmente, se usa en situaciones en las que un agente de IA, como un auto sin
conductor o de diagnóstico por imágenes en tiempo real, opera en un entorno donde la
retroalimentación sobre las buenas o malas decisiones está disponible con cierto
retraso.

Las categorías se superponen y son un tanto difusas, por lo que un método particular
a veces es difícil de ubicar en una categoría. Por ejemplo, como su nombre lo indica,
el aprendizaje semisupervisado está parcialmente supervisado.

● Aprendizaje supervisado

En lugar de anotar manualmente las reglas exactas para hacer la clasificación, el


aprendizaje automático supervisado se basa en tomar varios ejemplos, etiquetar cada
uno correctamente y usarlos para “entrenar” un método de IA para reconocer en forma
automática la etiqueta correcta de los ejemplos de entrenamiento, así como también
de cualquier otra imagen.

[Link]. Tipos de variables de interés

En los problemas de aprendizaje clasificado, el outcome o resultado es de distintos

tipos según la problemática que intentamos abordar:


● Outcome binario: en estos casos, la variable de interés tiene la forma de
presencia/ausencia de un evento. Son ejemplos enfermedad/no enfermedad,
muerte/no muerte, efecto adverso/sin efecto adverso. En términos
computacionales, este tipo de objetivo se escribe como 0 y 1; generalmente, 1 es
el estado que asume la variable que nos interesa predecir (por ejemplo, en el
caso de querer saber si un paciente va a tener diabetes o no, el 1 corresponde a
la presencia de diabetes y el 0, a la ausencia de la enfermedad).
● Outcome numérico: muchas veces, lo que nos interesa predecir no sigue el
formato mencionado anteriormente, de presencia o ausencia, sino que nos
centramos en abordar un evento con resultado numérico, como la cantidad de
personas que ingresa a la guardia en un día determinado, el número de
medicamentos que necesita para una circunstancia en particular, los días de
admisión, etcétera.
● Outcome multinomial: a su vez, existen otros casos no cubiertos anteriormente,
en los que la respuesta de interés son las categorías sin jerarquía entre sí y no
cuantificables. El ejemplo más típico con las imágenes: nos interesa saber si una
foto corresponde a un perro, un gato o un ave. Otra variable de interés es qué
bacteria corresponde a un set de características particulares. En este caso, no
podemos predecir que un tipo de bacteria es dos veces más que otra ni tampoco
se puede reducir a un problema binario. Tener en cuenta qué tipo de clasificación
intentamos realizar nos permite elegir, junto con otros factores, qué algoritmos
son los más apropiados.

[Link]. Algoritmos más comunes de problemas supervisados

● Clasificador del vecino más cercano: está entre los clasificadores más simples.
Cuando se da un elemento para clasificar, encuentra el elemento de datos de
entrenamiento más similar al elemento nuevo y emite su etiqueta. Usar la
distancia geométrica para decidir cuál es el elemento más cercano no siempre es
razonable o, incluso, posible: el tipo de entrada puede ser texto, donde no está
claro cómo se dibujan los elementos en una representación geométrica y cómo
deben medirse las distancias. Por lo tanto, se debe elegir la métrica de distancia
caso por caso.
● Regresión: forma parte del aprendizaje supervisado. Abordamos a continuación
los conceptos básicos de regresión lineal y regresión logística. Respecto de la
diferencia entre clasificación y regresión, un clasificador elige una etiqueta de
clase para cualquier elemento de un conjunto dado de alternativas (como correo
no deseado/correo legítimo o 0, 1, 2..., 9); en cambio, la regresión lineal produce
una predicción numérica que no está restringida a un número entero. Entonces, la
regresión es más adecuada en situaciones en las que la variable de salida puede
ser cualquier cantidad, como el precio de un producto, la distancia a un obstáculo,
etcétera.
a. Regresión lineal: la idea básica es sumar los efectos de cada una de las
variables de las características para producir el valor predicho. El término
técnico para el proceso de suma es una combinación lineal del efecto de
distintas variables sobre un target, independiente del efecto de las demás.
El efecto aislado de un cambio de una unidad de cada variable sobre el
outcome se denomina coeficiente o ponderación.
b. Regresión logística: convertimos los resultados del método de regresión
lineal en predicciones sobre etiquetas. La técnica se denomina regresión
logística. En realidad, en lugar de simplemente predecir una clase u otra, la
regresión logística también da una medida de incertidumbre de la
predicción. También es posible usar el mismo método para obtener
predicciones en más de dos etiquetas posibles; así, en lugar de predecir
siempre sí o no (comprar un teléfono nuevo o no, noticias falsas o reales,
etc.), usamos regresión logística para identificar, por ejemplo, dígitos
manuscritos, en cuyo caso hay diez etiquetas posibles.
● Árboles de decisión: se utilizan para clasificar mediante la separación sucesiva
del dataset de acuerdo con métricas de pureza u homogeneidad (entropía, chi al
cuadrado, entre otras). Se busca encontrar el punto de partición que permita
separar o “discriminar” los datos de la manera más óptima posible. Aunque
tradicionalmente los árboles de decisión se utilizan para clasificaciones binarias,
existen desarrollos relativamente recientes que permiten aplicarlos en problemas
tanto numéricos como multinomiales.
● Clasificador naïve de Bayes: una de las aplicaciones más útiles del teorema de
Bayes es el denominado clasificador naïve (ingenuo). Es una técnica de
aprendizaje automático que se usa para clasificar objetos, como documentos de
texto, en dos clases o más. El clasificador se prepara analizando un conjunto de
datos de entrenamiento, para los cuales se dan las clases correctas. Se utiliza
para determinar las probabilidades de las clases, dada una serie de
observaciones diferentes. La suposición en el modelo es que las variables
características son condicionalmente independientes dada la clase.

¿Por qué lo llamamos ingenuo? Porque no se considera la dependencia entre


palabras adyacentes del mensaje y el orden de las palabras no tiene significado. A
pesar de su ingenuidad, el método de Bayes tiende a funcionar muy bien en la
práctica. Este es un buen ejemplo de un dicho común en la estadística, “todos los
modelos son incorrectos, pero algunos son útiles” (Diez, Barr, & Çetinkaya-Rundel,
2015).

● Ensembles: particularmente, cuando el objetivo del desarrollo de un modelo es el


de predecir algún evento, la combinación de distintos algoritmos o modelos
(también denominado ensemble) puede redundar en una mejor performance
general que la que tienen individualmente. En gran medida, esto se debe a que
cada algoritmo tiene sus ventajas y desventajas; combinarlos puede compensar
las debilidades de cada uno y alcanzar un sistema general más óptimo. Tal es el
caso de las competencias más conocidas de data mining, en las que
generalmente el ganador que logra acercarse más a la respuesta correcta
implementa algún tipo de ensemble (por ejemplo, Kaggle) (Titericz & Semenov,
2015).

Existen tres grandes formas clásicas de combinar modelos y realizar los ensembles:

a. Bagging (bootstrap aggregating): en vez de utilizar el dataset de entrenamiento


original, en este método se “remuestran” (metodología de bootstrapping) los datos
sucesivamente con el objetivo de aumentar la cantidad de información disponible
para el aprendizaje. Mediante esta estrategia se reduce la varianza y mejora la
optimización entre el sobreajuste y el sesgo.

b. Boosting: en esta metodología se entrenan distintos modelos con diferentes


muestras de los datos y, luego, se combinan los resultados mediante una medida
de agregación que suele ser la mayoría en la votación (si la mayoría de los modelos
señala que el resultado es positivo, se le asigna esa categoría). A diferencia del
remuestreo en el ensemble vía bagging, aquí el remuestreo no es aleatorio, sino
que se ponderan con más peso los datos que se clasificaron incorrectamente. Este
proceso suele mejorar de manera significativa la capacidad predictiva en la
estimación.

c. Stacking: esta metodología es muy similar al boosting, con la diferencia que se


introduce un metamodelo que clasifica los datos utilizando como insumo el
etiquetado de los distintos modelos primarios (en vez del método por votación). En
este sentido, es una combinación de las dos técnicas anteriores, ya que mediante
esta estrategia se reduce la varianza, a la par que aumenta el poder predictivo
(como regla general).

Algunos de los algoritmos más famosos (y exitosos) que utilizan esta metodología de
combinar modelos y multiplicar los datos de entrenamiento son Random Forest
(bagging), AdaBoost (boosting) y Gradient Boosting (blending).
[Link]. Aprendizaje no supervisado

En el aprendizaje no supervisado no existe una respuesta correcta o variable objetivo


como sucede en el supervisado. Esto hace que la situación sea bastante diferente, ya
que el modelo no lo construimos haciendo que se ajuste a las respuestas correctas de
los datos de entrenamiento. También, la evaluación del rendimiento es más
complicada, dado que no podemos verificar si el modelo aprendido funciona bien. En
cambio, este tipo de modelos se evalúa sobre la base de las medidas armónicas
respecto de cuánto se parecen los objetos de un segmento entre ellos y cuán
diferentes son de los objetos en otros grupos.

Los métodos de aprendizaje no supervisados típicos intentan aprender algún tipo de


“estructura” subyacente a los datos. Esto significa, por ejemplo, la visualización de los
elementos similares colocados uno cerca del otro y los elementos diferentes, más
alejados unos de otros. También significa la agrupación en clústeres, donde los datos
se usan para identificar grupos de elementos que son similares entre sí, pero
diferentes de los datos en otros grupos.

● Algoritmos de clustering

Los algoritmos de clustering tienen como objetivo juntar los elementos similares entre
sí y distanciar los diferentes simultáneamente. Existen distintas implementaciones de
esta metodología. En general, lo que varía entre los algoritmos es la similitud o la
cercanía, la forma en la que se eligen los centroides, la forma de los segmentos que
se obtienen y el proceso de división o unión. El algoritmo más común es el
denominado K-Medias o K-Means, con una medida de distancia euclidiana y elección
de centroide al azar a partir de una semilla. En general, este tipo de algoritmo
devuelve segmentos esféricos y su división acontece de acuerdo con la distancia de
cada punto con respecto al centroide más cercano.

Otros algoritmos de clusterización son los jerárquicos (un clúster grande se subdivide
o, a la inversa, los elementos individuales se unen con base en una medida de
distancia predeterminada), de medianas, cluster fuzzy, entre otros.

● Algoritmos de reducción de dimensiones

Permite transformar un dataset de gran tamaño en un puñado de dimensiones


manteniendo la mayor cantidad de información posible. El caso más característico es
la implementación de un análisis de componentes principales que logra, mediante la
rotación de los ejes, resumir la mayor cantidad de heterogeneidad presente en los
datos en una cantidad pequeña de variables ortogonales entre sí. De esta forma, se
elimina la redundancia de muchas variables que tienen información similar entre sí y
las resume en un solo atributo.

Redes neuronales artificiales: ¿qué tienen de especial?

Separamos a las redes neuronales artificiales del resto de los algoritmos ya que no
son tan sencillas de clasificar según la división anterior y porque su uso extensivo
durante los últimos años las hacen merecedoras de un análisis más detallado.

● Pesos y entradas
El modelo de neurona artificial básica implica un conjunto de parámetros adaptativos,
denominados ponderaciones, como en la regresión lineal y logística. Al igual que en la
regresión, estos pesos se usan como multiplicadores en las entradas de la neurona,
que se suman. La suma de los pesos por las entradas se denomina combinación lineal
de las entradas. Los pesos casi siempre se aprenden de los datos usando las mismas
ideas que en la regresión lineal o logística.

Activaciones y salidas

Una vez que se calcula la combinación lineal, la neurona realiza una operación más.
Toma la combinación lineal y la pasa a través de la denominada función de activación.
Son ejemplos típicos de funciones de activación:

● función identidad: no hacer nada y solo generar la combinación lineal;


● función escalón: si los valores de la combinación lineal son mayores de cero,
envía un pulso

(on); de lo contrario, nada hace (off);

● función sigmoidal: una versión “suave” de la función escalón.

Debe tenerse en cuenta que, con la primera función de activación, la función identidad,
la neurona es exactamente igual a la regresión lineal. Esta es la razón por la cual la
función de identidad rara vez se usa en redes neuronales: no conduce a algo nuevo e
interesante.

La salida de la neurona, determinada por la combinación lineal y la función de


activación, se usa para extraer una predicción o una decisión. El aprendizaje o la
adaptación en la red se produce cuando los pesos se ajustan para que la red produzca
los resultados correctos, al igual que en la regresión lineal o logística. Muchas redes
neuronales son muy grandes y contienen cientos de miles de millones de pesos.
Optimizarlos puede ser una tarea desalentadora que requiere cantidades masivas de
capacidad de cómputo.
Perceptrón: la madre de todas las redes neuronales artificiales

Es uno de los primeros modelos formales de computación neuronal y, debido a su


papel fundamental en la historia de las redes neuronales, es justo llamarlo la “madre
de todas las redes neuronales artificiales”. Se usa como clasificador simple en tareas
de clasificación binarias.

En 1957, Frank Rosenblatt, psicólogo, presenta un método para aprender los pesos
del perceptrón a partir de los datos, denominado algoritmo perceptrón. No
estudiaremos este algoritmo. Basta señalar que es casi tan simple como el clasificador
del vecino más cercano. El principio básico es alimentar la red con los datos de
entrenamiento, un ejemplo a la vez. Cada clasificación errónea conduce a una
actualización en el peso.

Juntar las neuronas para formar redes

Una sola neurona es demasiado simple para tomar decisiones y realizar predicciones
de manera confiable en la mayoría de las aplicaciones de la vida real. Para liberar el
potencial de las redes neuronales, utilizamos la salida de una neurona como la
entrada de otras, cuyos resultados pueden ser la entrada de otras neuronas y, así,
sucesivamente. La salida de toda la red se obtiene como la salida de un cierto
subconjunto de las neuronas, que se denomina capa de salida.

Capas

La arquitectura de una red neuronal está compuesta por capas. Las capas se unen
hacia delante (feedforward) o hacia atrás (feedback). La capa de entrada consiste en
neuronas que obtienen sus entradas directamente de los datos. Entonces, por
ejemplo, en una tarea de reconocimiento de imágenes, la capa de entrada usa los
valores de los píxeles de la imagen como entrada. La red generalmente también tiene
capas ocultas que usan las salidas de las otras neuronas como su entrada, y cuya
salida se usa como entrada para otras capas de neuronas. Finalmente, la capa de
salida produce la salida de toda la red.

Redes neuronales avanzadas

En la sección anterior discutimos las ideas básicas detrás de la mayoría de los


métodos de redes neuronales: redes multicapa, funciones de activación no lineales y
reglas de aprendizaje, como el algoritmo de backpropagation.

● Redes neuronales convolucionales

Un área donde el aprendizaje profundo ha logrado gran éxito es en el procesamiento


de imágenes. Existe un tipo especial de redes neuronales o, más bien, de capas, que
se puede incluir en una red neuronal profunda. Este tipo especial se denomina capa
convolucional. Las redes que incluyen capas convolucionales se llaman redes
neuronales convolucionales (convolutional neuronal network [CNN]). Su propiedad
clave es que pueden detectar las características de la imagen, como puntos brillantes
u oscuros (o colores específicos), bordes en diversas orientaciones, patrones, etc.
Estas propiedades forman la base para detectar características más abstractas, como
las orejas de un gato,
el hocico de un perro, el ojo de una persona o la forma octogonal de una señal de
detención.
Normalmente, es difícil entrenar a una red neuronal para detectar estas características
en función de los píxeles de la imagen de entrada, ya que pueden aparecer en
posiciones, orientaciones y tamaños diferentes: mover el objeto o el ángulo de la
cámara cambia los valores de los píxeles de manera drástica, incluso si el objeto en sí
mismo parece igual. Para aprender a detectar una señal de detención obligatoria en
todas estas condiciones diferentes se requiere una gran cantidad de datos de
entrenamiento, porque la red solo detecta el signo en las condiciones en las que
aparece en los datos de entrenamiento. Entonces, por ejemplo, una señal de
detención en la esquina superior derecha de la imagen solo se detecta si los datos de
entrenamiento incluyen una imagen con la señal de detención en la esquina superior
derecha. Las CNN pueden reconocer el objeto en cualquier lugar de la imagen, sin
importar dónde se haya observado en las imágenes de entrenamiento.

Por qué necesitamos redes neuronales convolucionales

Las CNN usan un truco ingenioso para reducir la cantidad de datos de entrenamiento
requeridos para detectar objetos en diferentes condiciones. Básicamente, el truco
equivale a usar los mismos pesos de entrada para muchas neuronas, para que todas
se activen con el mismo patrón, pero con diferentes píxeles de entrada. Por ejemplo,
un conjunto de neuronas se activa por la oreja puntiaguda de un gato. Cuando la
entrada es la foto de un gato, se activan dos neuronas, una para la oreja izquierda y
otra para la derecha. También podemos permitir que los píxeles de entrada de la
neurona tomen un área más pequeña o más grande, de modo que las diferentes
neuronas se activen al aparecer el oído en diferentes escalas (tamaños), de modo que
podamos detectar las orejas de un gato pequeño incluso si los datos de entrenamiento
solo incluyen imágenes de felinos grandes.

Las neuronas convolucionales se suelen colocar en las capas inferiores de la red, que
procesa los píxeles de entrada. Las neuronas básicas (como la neurona perceptrón,
discutida anteriormente) se colocan en las capas superiores, que procesan la salida de
las capas inferiores. Generalmente, las capas inferiores se entrenan utilizando el
aprendizaje sin supervisión. Sus pesos se ajustan para detectar características que
aparecen con frecuencia en los datos de entrada. Por lo tanto, con fotos de animales,
las características típicas son orejas y hocicos, mientras que, en las imágenes de
edificios, las características son componentes arquitectónicos como paredes, techos,
ventanas, etc. Si se utiliza una mezcla de varios objetos y escenas como datos de
entrada, las características aprendidas por las capas inferiores son más o menos
genéricas. Esto significa que
las capas convolucionales entrenadas previamente pueden reutilizarse en muchas
tareas diferentes de procesamiento de imágenes. Esto es importante de manera
extremada, ya que es fácil obtener cantidades ilimitadas de datos de entrenamiento de
manera virtual sin etiquetar, que se pueden usar para entrenar las capas inferiores.
Las capas superiores siempre se entrenan mediante técnicas supervisadas de
aprendizaje automático, como la retropropagación.

Desarrollo del modelo

a) La(s) herramienta(s)

Para el prototipado de un modelo de ciencia de datos es importante contar con un


lenguaje y un software que nos permitan aplicar los distintos algoritmos que
consideramos pertinentes. La elección de la herramienta está condicionada por
distintos factores, entre ellos, qué lenguaje tiene implementado el algoritmo que
seleccionamos; con qué experiencia de programación contamos (algunos no
demandan saber programar, otros son muy accesibles de aprender, otros son más
complejos); si estamos en una institución, qué software se utiliza; de qué dominio
provenimos (estadística, ciencias de la computación, economía, etc.); si tenemos
recursos para gastar en la herramienta o no; si nos interesa que el código sea
reproducible; cómo es el resto de la infraestructura en la que desarrollamos el proyecto
(si tiene que tener compatibilidad con otro programa, por ejemplo), entre otros
factores.

Actualmente, existen dos grandes corrientes en lo que concierne a herramientas para


hacer ciencia de datos: el software propietario y el de libre acceso u open source. A
riesgo de simplificar, en general, los software pagos ofrecen como ventaja principal,
según el tipo de licencia, una curva de aprendizaje menos pronunciada, la posibilidad
de desarrollar modelos sin saber programar en un lenguaje, soporte técnico
personalizado, una infraestructura integrada de distintos módulos (de implementación,
edición colectiva y seguridad) y, a veces, mayor persistencia ante cambios o
actualizaciones. En los últimos tiempos, además, permiten integrar fácilmente
lenguajes de software libre y publicación de códigos. Entre sus desventajas, la más
clara es que, muchas veces, el costo de este tipo de programas puede ser privativo o
inaccesible para un porcentaje considerable de la población.

Además, las ventajas de las soluciones open source derivan en gran medida del hecho
de que son gratuitas y abiertas para el público. Esto no solo los convierte en
económicamente accesibles para todos, sino que también genera comunidades muy
fuertes en donde se debaten, no solo cuestiones de código, sino también metodología
y buenas prácticas. Si el código es compartido, esto además permite que los trabajos
que realizan los investigadores/profesionales sean factibles de reproducir, lo que
contribuye a un desarrollo más transparente y con mayor validez de la ciencia y de los
hallazgos.

Entre las desventajas del software libre mencionamos que, hasta el momento, no
existen opciones populares que permitan que una persona sin conocimiento de
programación pueda desarrollar un modelo; sin embargo, en general, se basan en
lenguajes accesibles para aprender.

La elección entre ambos, como señalamos previamente, tiene que tomar en


consideración distintos factores, particulares a cada situación. Dentro de cada una de
estas líneas existen diversas alternativas. Dentro de las open source, las más
populares hasta la fecha son los lenguajes R y Python. Entre ambas alternativas
existen cientos de recursos online (para muestra, basta escribir en el buscador “R vs.
Python) que debaten la conveniencia de uno u otro y se han generado bandos que
defienden cada una con vehemencia.

Se suele considerar que R es una mejor opción para profesionales que provienen de
áreas relacionadas con la estadística (no solo estadísticos, sino también economistas,
biólogos, psicólogos, etc.), mientras que Python suele ser más intuitivo para aquellos
que proceden de las ramas informáticas (ingeniería en sistemas, programadores, etc.).
En ese sentido, R tiene como ventaja sobre Python que cuenta con una enorme
cantidad de bibliotecas (o paquetes que se descargan) sobre estadística, econometría,
visualización, análisis de residuos, etc., mientras que Python generalmente está más
orientado a ser un lenguaje multipropósito, que puede utilizarse de manera fácil para
generar un modelo de aprendizaje automático o una página web. Tradicionalmente,
Python ha sido más veloz que R en la mayoría de los procesamientos de machine
learning, pero la brecha se ha acortado a lo largo de los años; asimismo, R solía tener
funciones que no existían en Python, pero que poco a poco se fueron añadiendo. En
suma, las diferencias que solían tener y que podían volcarse a elegir a uno u otro se
atenuaron y, al mismo tiempo, cada vez es más sencillo usar R desde la interfaz de
Python y Python desde la interfaz de R. Es importante aclarar en este punto que, a
pesar de que el uso de R y Python demanda cierto conocimiento de programación,
esto no significa que haya que desarrollar los algoritmos desde cero. Ya se
desarrollaron e implementaron los algoritmos más comunes (que mencionamos
previamente) y están “empaquetados” en bibliotecas (sklearn en Python, por ejemplo,
o Caret y H2O en R) que solo se descargan y utilizan como funciones. De todos
modos, queda libre la posibilidad de desarrollar un nuevo algoritmo o adaptar alguno
preexistente si así se requiere (Bowles, 2015).

Otras opciones open source son Java y Scala, entre otros, especialmente adecuados
para modelos que se usan casi en tiempo real (ya que son muy amenos para pasar y
mantener en producción), pero suelen ser más limitados en la cantidad de bibliotecas
y librerías de fácil alcance para realizar un proyecto de principio a fin en ciencia de
datos.

Dadas las distintas ventajas y limitaciones de las opciones que mencionamos, muchas
veces es posible recomendar la combinación de distintos lenguajes para diferentes
tareas y es frecuente que un científico de datos no conozca uno solo si no que,
aunque tenga alguno de preferencia, pueda desempeñarse con varios.

Para los profesionales que no sepan programar o no se sientan lo suficientemente


seguros para emprender un proyecto de ciencia de datos con alguna de estas
herramientas, la buena noticia es que existen abundantes recursos online, pagos o
gratuitos, en inglés o castellano, para aprender y desarrollarse. Algunas de estas
fuentes de capacitación son [Link], [Link], [Link],
[Link]. Sin embargo, una búsqueda simple en internet nos devuelve
cientos de opciones más con distintas alternativas de tema, lenguaje, idioma y tipo de
certificación. No existe un curso que sea universalmente mejor que los demás, sino
que en la evaluación de cada uno se comprometen cuestiones como el nivel de saber
previo, los objetivos y los recursos, entre otros.

b) Prototipado
A diferencia de la estadística clásica, donde el procesamiento es principalmente
ejecutar un diseño muy planificado y las desviaciones no suelen recomendarse (para
evitar el denominado p-hacking), en un modelo de aprendizaje automático se realizan
múltiples pruebas e implementaciones. A la hora de seleccionar un algoritmo no es
uno, sino varios, los que deben tenerse en cuenta para probar y evaluar. No existe un
algoritmo mejor para todos los casos y, muchas veces, es difícil predecir a priori cuál
es el que funciona mejor con los datos que trabajamos en ese momento. Por eso, lo
recomendado es elegir distintos algoritmos y probar todos, modificar las variables,
evaluar los resultados y tamizar para que permanezcan los modelos que desempeñen
una mejor performance en este ida y vuelta con los datos y las métricas.

c) Optimización de los parámetros para los modelos

Además de elegir algoritmos que resulten relevantes para el problema en cuestión, es


necesario ajustar los parámetros que alimentan los modelos, de forma que sean
óptimos para la información con la que contamos. Nuevamente, elegir parámetros
adecuados permite un mejor balance entre sobreajuste y sesgo. Para algunos
problemas, por ejemplo, la inclusión de 50 variables resulta en un sobreajuste,
mientras que, en otros, es lo adecuado. La forma más tradicional de seleccionar los
valores óptimos consiste en probar alternativas distintas (o todas, dentro de un rango
provisto) y evaluar las métricas para cada caso en el conjunto de validación y testeo.

d) Evaluación y comparación de modelos

En este punto, ya deberían existir prototipados de distintos algoritmos, con diferentes


parámetros cada uno. En este paso se selecciona cuál consideramos que brinda mejor
resultados para el problema en cuestión. Existen distintas métricas que se aplican a
diferentes tipos de problemas y, muchas veces, la elección está guiada por la
interpretación de una combinación de ellas. Los factores que determinan qué medidas
de evaluación son apropiadas son el tipo de problema (supervisado, no supervisado,
etc.); el tipo de variable objetivo, si es que la hay (numérica, binaria, multinomial, etc.);
las prioridades del modelo (falso positivo vs. falso negativo, entre otros); si existe una
matriz de costo económico asociado; el peso que tienen los errores significativos entre
la predicción y la estimación en términos de resultado, tiempos de procesamiento,
etcétera.

Además de los métodos ya estudiados, existen literalmente cientos, sino miles, de


técnicas diferentes de aprendizaje automático, pero todas se reducen a lo mismo:
intentar extraer patrones y dependencias de los datos y usarlos para comprender un
fenómeno o predecir resultados futuros.

Límites de la performance de un modelo de aprendizaje automático

Los factores que pueden afectar el buen resultado que queremos lograr incluyen:

● la dureza de la tarea: en el reconocimiento de los dígitos escritos a mano, si estos


están escritos de manera muy descuidada, incluso un ser humano no siempre
puede entender correctamente lo que el escritor quiso expresar;
● el método de aprendizaje automático: algunos métodos son mucho mejores para

una tarea en particular que otros;

● la cantidad de datos de entrenamiento: con solo algunos ejemplos, es

imposible obtener un buen clasificador;

● la calidad de los datos.

e) Implementación o puesta en producción

Una vez que se selecciona el modelo que mejor se adapta a las necesidades del
proyecto, es importante considerar qué se hace con ese modelo a continuación. El
proyecto puede requerir una respuesta por única vez (segmentar distintos tipos de
diabetes, por ejemplo), una respuesta periódica (qué pacientes tienen alta probabilidad
de presentar un accidente cerebrovascular, por ejemplo) o una respuesta inmediata
(cuál es la probabilidad de que una cirugía termine en un proceso infeccioso). De
acuerdo con cuál es la necesidad en la periodicidad de estimación existen estrategias
diferenciadas en su puesta en producción. Generalmente, las de respuesta de una
sola ocasión o entre períodos largos se implementan de forma relativamente sencilla,
mientras que aquellas que demandan una actualización continua en un lapso corto
necesitan de una ingeniería mayor de conexión inmediata o casi inmediata a la
generación del dato. Con frecuencia, este último tipo de tareas requiere del trabajo
articulado del data engineer o desarrollador como apoyo en la fase en puesta en
producción.

f) Monitorización y actualización

Independientemente de la ventana de periodicidad con la cual se actualicen las


estimaciones del modelo elegido, es de suma importancia revisar, cada cierto tiempo,
si las estimaciones se mantienen dentro de lo esperado y si los resultados son los
previstos. Puede suceder que un modelo que tenía buena performance en un
momento determinado deje de tenerla más adelante por algún cambio en la coyuntura.
Monitorizar habitualmente el modelo da la pauta de si es necesario actualizarlo con un
reentrenamiento para que acompañe el cambio de las circunstancias.

g) Comunicación de los resultados y documentación

Al finalizar el desarrollo o prototipado de un modelo pensado para un problema en


particular existe la posibilidad, en ciertos contextos, de publicar los resultados y la
metodología implementada. Para esto existen diferentes revistas especializadas, tanto
en el dominio del problema elegido como en la informática en general, que pueden ser
alternativas viables para la difusión. De todos modos, incluso si no existe la posibilidad
o el deseo de publicar el trabajo, dejar registro de todo lo realizado tiene como ventaja
un ahorro considerable de tiempo a la hora de retomar el proyecto para actualizar el
modelo o compartirlo con un colega. Asimismo, dejar asentadas las distintas
decisiones tomadas en cada momento posibilita el intercambio de ideas que puede
redundar en la mejora del modelo mediante el descubrimiento de alternativas no
pensadas previamente o por la detección de errores.

Riesgos y desafíos éticos del uso de grandes datos

La investigación con los datos masivos determina una serie de problemas referidos al
uso de la información personal de los individuos. Las preguntas que se plantean
refieren a “la información” (Chan, 2017).

1. ¿Qué constituye la información personal?

2. ¿A quién pertenece?

3. ¿Quién puede acceder a ella?

4. ¿Cómo puede usarse?


5. ¿Quién debe o debería tener el control para los diferentes propósitos que tiene
(incluso comercial)?

Las dificultades que se plantean en las preguntas se manifiestan en conceptos de


privacidad, confidencialidad y consentimiento informado, que focalizan en el interés de
los individuos sobre su información personal.

Según el Diccionario de la lengua española, la privacidad es el “ámbito de la vida


privada que se tiene derecho a proteger de cualquier intromisión” (“Privacidad”, 2017).

La confidencialidad es la propiedad de la información de garantizar que esta sea


accesible solo para los autorizados a ello (norma ISO/IEC 27002) (“Gestión de
Seguridad de la Información”, s/f), pero también es un principio ético, que en medicina
está asociado con el secreto profesional (Cabrera, 2013). El consentimiento informado
para actos médicos e investigaciones en salud (Lamm, 2017) es la declaración de
voluntad que expresa el individuo cuando recibe información sobre su estado de salud
y el procedimiento que le van a realizar, con los beneficios y los riesgos
correspondientes. El individuo voluntariamente puede renunciar a su derecho a otorgar
un consentimiento informado, que también implica su negativa a recibir información.
Dicho de otra manera, “nadie puede ser sometido a exámenes o tratamientos clínicos
o quirúrgicos sin su consentimiento libre e informado, excepto disposición legal en
contrario” (Lamm, 2017).

También existe preocupación sobre la protección de los datos y qué ocurre si existe un
problema de seguridad. Se define como seguridad (de la información) a los medios
utilizados para garantizar la confidencialidad y evitar la vulneración de la privacidad y
la pérdida de información (Luna, Otero, Plazzotta, & Campos, 2018).

En relación con el volumen y la variedad, la habilidad de recolectar y conectar a una


mayor variedad de datos y usarlos para propósitos relacionados con la salud puede
crear vías nuevas que infrinjan la privacidad y los individuos pueden estar expuestos a
nuevos daños. Existen implicancias para la privacidad al monitorizar el
comportamiento mediante las tecnologías. Los dispositivos electrónicos se volvieron
tan populares que permiten a los individuos monitorizar su actividad física y plan de
alimentación y, de alguna manera, estimularlos a ser más activos y a no salirse de su
régimen. Las consecuencias de esta monitorización pueden ir más allá que ser
juzgados por amigos o la sociedad en general; pueden usarse potencialmente para la
toma de decisiones, por ejemplo, decidir o no un procedimiento quirúrgico en función
de los hábitos que tiene el individuo que, a su vez, determinan su conducta. Este tipo
de monitorización puede considerarse un nivel de intrusión en el dominio privado.

Otros argumentos señalan que este grado de monitorización es justificable por los
beneficios a nivel de la salud pública, porque resulta más justo en términos de
distribución de los recursos de salud. Esto trae a colación nuevas instancias, donde la
pregunta pasa a ser si culpamos o absolvemos a los individuos por sus acciones, que
antes eran privadas y ahora son reveladas, y cómo debemos usar esos datos.
Además, hay que tener en cuenta el valor de esta información, quién la controla, quién
es el dueño y quién se beneficia y cuáles son las instancias de comercialización
posible. Los datos, en forma individual, en realidad no parecen tener valor, sino que
este aparece al asociarse con el resto de la información de otros individuos.

Otros problemas están relacionados con la interoperabilidad de los sistemas. Se


denomina interoperabilidad a la capacidad que tienen dos sistemas o componentes o
más para comunicarse, es decir, intercambiar información y usar aquella que se ha
intercambiado (Luna et al., 2018). Esto incluye la determinación de estándares para el
uso y la reutilización de los datos, en términos de formato y metadatos. Si no se presta
atención a estos temas puede haber consecuencias y representación
desproporcionada de participantes, lo que afecta la validez de la investigación.

A estas cuestiones se agregan el riesgo informacional (Frizzo-Barker & Chow-White,


2014) y cómo manejar los hallazgos incidentales y cuáles son los desafíos de
compartir (Frizzo-Barker & Chow-White, 2014; Via, 2017).

Además de los temas mencionados, es muy importante considerar el sesgo


algorítmico a la hora de desarrollar y, principalmente, evaluar y utilizar los resultados
de un modelo.

Precaución sobre el uso de la inteligencia artificial. El sesgo algorítmico

El sesgo algorítmico hace referencia a la incorporación de una tendencia a discriminar


de acuerdo con la etnia, el sexo u otros factores al tomar decisiones sobre solicitudes
de empleo, préstamos bancarios, etc. La razón principal del sesgo algorítmico es el
sesgo humano en los datos. Por ejemplo, cuando una herramienta que filtra solicitudes
de empleo está entrenada en decisiones hechas por seres humanos, el algoritmo de
aprendizaje automático aprende a discriminar contra mujeres o individuos con un
cierto origen étnico. Esto sucede incluso si se excluye la etnia o el sexo de los datos,
ya que el algoritmo explota la información en el nombre o la dirección del solicitante,
indicadores indirectos o implícitos. El sesgo algorítmico no es una amenaza hipotética
concebida por investigadores académicos. Es un fenómeno real que afecta a las
personas hoy. Algunos ejemplos:

Publicidad online: los anunciantes en línea, como Google, tienden a mostrar


anuncios de trabajos con salarios más bajos a las usuarias en comparación con los
hombres. Del mismo modo, hacer una búsqueda con un nombre que suene
afroamericano puede producir como resultado un anuncio de una herramienta para
acceder a los registros de antecedentes penales.

Redes sociales: dado que las redes sociales basan sus recomendaciones de
contenido esencialmente en los clics de otros usuarios, esto puede conducir
fácilmente a aumentar los sesgos existentes. Por ejemplo, en una búsqueda de
profesionales con nombres femeninos, LinkedIn le pregunta al usuario si en
realidad lo que busca es un nombre masculino similar: si busca a Andrea, el
sistema pregunta: “¿Querías decir Andrés?”. Si las personas ocasionalmente hacen
clic en el perfil de Andrés, quizás solo por curiosidad, el sistema impulsa a Andrés
aún más en búsquedas posteriores.

Bibliografía

Barranco Fragoso, R. (2012, junio 18). ¿Qué es big data? IBM. Recuperado abril
24,2018, de [Link]

Bobriakov, I. (2018, marzo 27). Top 7 data science use case in healthcare.
ActiveWizards: machine learning company. Recuperado septiembre 4 2018, de
[Link] Bowles, M. (2015). Machine learning in Python: essential techniques for
predictive analysis. Wiley.
Cabrera, R. F. (2013, julio 19). Ética, secreto profesional y protección de datos.
Observatorio Iberoamericano de Recuperación de Datos. Recuperado abril 24, 2018,
de [Link] Chan, S. (2017, septiembre-diciembre). Bioethics in the big data era:
health care and beyond. Revista de Bioética y Derecho, 41, 3-32.
Diez, D. M., Barr, C. D., & Çetinkaya-Rundel, M. (2015). OpenIntro statistics (3rd
ed.).

Frizzo-Barker, J., & Chow-White, P. (2014). From patients to petabytes: genomic big
data, privacy, and informational risk. Canadian Journal of Communication, 39(4),
615-25. Recuperado de [Link] Gestión de Seguridad de la Información.
(s/f). Recuperado abril 24, 2018, de [Link]
Wickham, H., & Grolemund, G. (2016). R for data science. O’Reilly Media.

Jain, A. (2016, septiembre 17). The 5 Vs of big data. Watson Health Perspectives.

Recuperado abril 24 2018, de [Link]

La vieja Europa: el 34% de la población tendrá más de 60 años en 2050. (2015, julio
30). [Link]. Recuperado abril 24 2018, de [Link]

Lamm, E. (2017, marzo). Consentimiento informado para actos médicos e


investigaciones en salud. Diccionario enciclopédico de la legislación sanitaria
argentina. Recuperado abril 24 2018, de [Link] Luna, D., Otero, C.,
Plazzotta, F., Campos, F., & González Bernaldo de Quirós, F. (ed.) (2018). Sistemas
de información para la salud. Amazon.
Patterson, J., & Gibson, A. (2017). Deep learning: a practitioner’s approach. O'Reilly
Media.
Real Academia Española (2017). Privacidad. Diccionario de la lengua española

(23a ed.). Madrid. Recuperado de [Link]

Rua, M. (2012, julio 15). El nuevo oro se llama Big data. La Nación Revista.
Recuperado abril 24 2018, de [Link]

Titericz, G., & Semenov, S. (2015). 1st place solution. Otto Group Product
Classification Challenge. Recuperado de [Link]

Toomey, D. (2014). R for data science. R data science tips, solutions and strategies.

Packt.

Vayena, E. (2015, octubre). Ethical challenges of big data in public health. European

Journal of Public Health, 25(Suppl. 3). Recuperado de [Link]

Via, M. (2017). Big data in genomics: ethical challenges and risks. Revista de Bioética
y Derecho, 41, 33-45. Welcome to the elements of artificial intelligence free online
course. (s/f). Recuperado de [Link]

Zumel, N., & Mount, J. (2014). Practical Data Science with R. Manning.
Editores

Daniel Luna

Médico graduado de la Universidad de Buenos Aires. Especialista en Medicina


Interna (MinSal). Magíster en Ingeniería de Sistemas de Información (UTN). Doctor
en Ingeniería Informática (ITBA). Certified professional in Health Information
Management Systems, HIMSS, Estados Unidos.

A cargo del Departamento de Informática en Salud del HIBA desde 2010. Lideró,
desde sus inicios, el diseño y la implementación del sistema de información clínica
del HIBA. Es codirector de la maestría y la residencia de Informática en Salud del
IUHI. Profesor titular de Informática Médica en la Escuela de Medicina del Instituto
Universitario CEMIC y de la Escuela de Medicina del HIBA. Miembro de AMIA,
AHIMA, HIMSS, AAIM. Ex chair del Working Group on Health Informatics for
Development (WG 09), International Medical Informatics Association (IMIA).

Miembro fundador del International Academy of Health Sciences Informatics


(IAHSI). Recibió el premio Vocación Académica 2005 en Ingeniería y Sistemas de
la Fundación El Libro. También fue galardonado como CIO innovador en 2012 por
sus pares en la reunión de CIO Cono Sur 2012. Seleccionado entre los diez CIO de
2012, 2015 y 2017 por la revista Information Technology.
Fernán González Bernaldo de Quirós

Médico graduado de la Universidad de Buenos Aires. Médico de planta de


Medicina Interna. En su paso por la Gerencia Médica del Plan de Salud, desarrolló
la Beca de Perfeccionamiento en gestión sanitaria. Impulsó la creación del
Departamento de Informática en Salud. Vicedirector de Planeamiento Estratégico
del HIBA. Magíster en Gobierno y Dirección de Sistemas de Salud de la
Universidad Oberta de Cataluña (UOC). Fellow del American College of Medical
informatics y Asesor de la Organización Mundial de la Salud como integrante del
eTAG (Technical Advisory group para eHealth) Asesor de Salud del Jefe de
Gobierno (CABA).

Personalidad Internacional con trayectoria más relevante en la Informática en


Salud a nivel global otorgado por la International Medical Informatics Association
(IMIA). Jefe del área de investigación en medicina interna del Hospital Italiano.
Profesor Titular y Jefe del Dpto. de Fisiología Humana del Instituto Universitario del
Hospital Italiano. Director del la carrera de especialista en Informática Médica y de
la Maestría en Informática en Salud del Instituto Universitario del Hospital Italiano.
Especialista en Medicina Interna (Ministerio de Salud Pública de la Nación).
Acerca de los autores

Sonia E. Benitez

Es médica Especialista en Medicina Interna (Universidad de Buenos Aires - UBA).

Desde el año 2013 se desempeña como médica de planta y coordina el portfolio


de Investigación y Evaluación del Departamento de Informática en Salud del
Hospital Italiano de Buenos Aires (HIBA), donde también supervisa el programa de
la Residencia de Informática en Salud.

Su formación de posgrado incluye la Maestría en Informática Biomédica (Oregon


Health & Science University - OHSU) en calidad de Fogarty Fellow, siendo en la
actualidad estudiante de la Maestría de Biología Molecular (UBA).

Es profesora adjunta tanto del Departamento de Informática Médica como del


Departamento de Idiomas del Instituto Universitario Hospital Italiano de Buenos
Aires (IUHIBA), donde es titular de la materia de Evaluación de los Sistemas de
Información para la Maestría de Informática en Salud , así como la materia de
Inglés Médico para la Facultad de Medicina.

Jorge Garbino

Bioingeniero recibido en la Universidad Nacional de Entre Ríos (UNER), Profesor


titular de Biofísica en las carreras de Farmacia y Bioquímica y profesor asistente en
la Maestría de Informática en Salud del Instituto Universitario del Hospital Italiano
de Buenos Aires (IUHIBA) y tesista de la Maestría en Educación para Profesionales
de la Salud del IUHIBA.

Lleva diez años liderando los desarrollos en Bioingeniería del Depto de Informática
en Salud (DIS) del Hospital Italiano de Buenos Aires (HIBA) haciendo foco en la
integración a la Historia Clínica Electrónica (HCE) de signos vitales y señales
biomédicas desde los equipos médicos y su procesamiento como fuente de nuevo
conocimiento para el soporte de la Medicina de Precisión.

Ferviente activista de la transdisciplina, desde el inicio de su carrera profesional


participó de equipos multidisciplinarios para el desarrollo de prácticas clínicas
novedosas como la Xeno-Hemo-Diafiltración para el tratamiento de la falla hepática
fulminante y la compactación por vacío para el tratamiento de fístulas
enterocutáneas en el Instituto de Medicina Traslacional e Ingeniería Biomédica,
IMTIB (ex ICBME/ex UME) de triple dependencia IU+ HIBA+CONICET como así
también ha liderado el desarrollo de diversos dispositivos biomédicos y sistemas
informáticos para la investigación básica y la clínica médica de diferentes
especialidades.

Ha participado como autor, coautor y disertante en publicaciones y presentaciones


en revistas y congresos nacionales e internacionales de Medicina, Bioingeniería e
Informática Médica.

Marcelo Risk

Doctor en Ingeniería de la Facultad de Ciencias Exactas, Físicas y Naturales,


Universidad Nacional de Córdoba, Doctor de la UBA de la Facultad de Medicina,
Universidad de Buenos Aires, Master en Administración de Empresas (MBA) en
Sistemas de Información, de la Escuela de Negocios, Universidad de Palermo, e
Ingeniero en Electrónica de la Facultad Regional Buenos Aires, Universidad
Tecnológica Nacional. Formación predoctoral y posdoctoral en la Fundación
Favaloro, Beth Israel Deaconess Medical Center y en Harvard Medical School,
Boston, MA, EEUU.

Actualmente es el Director del Instituto de Medicina Traslacional e Ingeniería


Biomédica (IMTIB) (CONICET-IUHI HIBA), Investigador de carrera del CONICET,
Director de la Carrera de Ingeniería Biomédica, y Profesor del Doctorado en
Ciencias de la Salud y de la Maestría en Informática en Salud, todos del Instituto
Universitario del Hospital Italiano. Anteriormente fue Director de los Departamentos
de Investigación y de Bioingeniería del Instituto Tecnológico de Buenos Aires
(ITBA).
Colaboradores

María Susana Alonso

Licenciada en Ciencias Biológicas (Universidad de Buenos Aires - UBA).


Profesional de apoyo a la Investigación del Instituto de Medicina Traslacional e
Ingeniería Biomédica (IMTIB) (CONICET-IUHI-HIBA). Docente del Instituto
Universitario del Hospital Italiano Buenos Aires. Miembro del Departamento de
Investigación del Instituto Universitario – Hospital Italiano de Buenos Aires.
Docente invitada curso post grado “La Trasplantología y la Sociedad” (UCA).
Actualmente por defender la tesis de la Maestría en Investigación Clínica (Instituto
Universitario del Hospital Italiano Buenos Aires).

Valeria Burgos

Bióloga de la Universidad de Buenos Aires. Investigadora del Instituto de Medicina


Traslacional e Ingeniería Biomédica (IMTIB) (CONICET-IUHI-HIBA). Docente
invitada en el Seminario de Complejidad del Doctorado en Ciencias de la Salud
(IUHI). Su formación de posgrado incluye un Doctorado en Biología (UBA),
Especialista en Explotación de Datos y Descubrimiento del Conocimiento (UBA) y
candidata a Magister en Explotación de Datos y Descubrimiento del Conocimiento
(UBA).

Victoria O'donnell

Socióloga, Magíster en Ciencia de Datos de la Universidad Austral y Magíster en


Métodos Cuantitativos en Ciencias Sociales de la Columbia University in the City of
New York, como becaria Fulbright.

Natalia Pérez López

Ingeniera en Sistemas de Información de la Universidad Tecnológica Nacional


Facultad Regional Buenos Aires (UTN FRBA), realizando la tesis de la Maestría en
Ingeniería Biomédica de la Universidad Favaloro. Actualmente se desempeña
como desarrolladora en el área de Ingeniería de Software del Departamento de
Informática en Salud del Hospital Italiano de Buenos Aires. Es docente de la
Asignatura Algoritmos y Estructuras de Datos en la Carrera de Ingeniería en
Sistemas de Información (UTN-FRBA) y de la Maestría en Informática en Salud del
Instituto Universitario del Hospital Italiano de Buenos Aires.

También podría gustarte