0% encontró este documento útil (0 votos)
90 vistas8 páginas

NGS

El documento describe la secuenciación de segunda generación (NGS), que permite la secuenciación masiva de ácidos nucleicos a menor costo y más rápido que las técnicas previas. NGS logra esto a través de la generación de más lecturas del genoma en paralelo, lo que facilita el ensamblaje. Sin embargo, las lecturas más cortas dificultan el análisis bioinformático posterior. Existen varias plataformas de NGS que utilizan diferentes métodos como PCR en emulsión o PCR puente para amplificar y secuenc

Cargado por

seor3
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
90 vistas8 páginas

NGS

El documento describe la secuenciación de segunda generación (NGS), que permite la secuenciación masiva de ácidos nucleicos a menor costo y más rápido que las técnicas previas. NGS logra esto a través de la generación de más lecturas del genoma en paralelo, lo que facilita el ensamblaje. Sin embargo, las lecturas más cortas dificultan el análisis bioinformático posterior. Existen varias plataformas de NGS que utilizan diferentes métodos como PCR en emulsión o PCR puente para amplificar y secuenc

Cargado por

seor3
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Concepto de secuenciación de segunda generación (NGS, por sus siglas en ingles) engloba todas

las tecnologías destinadas a llevar a cabo la secuenciación masiva a gran escala de cualquier ácido
nucleico en la actualidad. Nace luego de la finalización del proyecto genoma humano, con el
objetivo de diseñar nuevas estrategias para la secuenciación masiva de ácidos nucleicos con
menor tasa de error, más rápidas y baratas.

Esto se logró a través de la capacidad de generar una mayor cantidad de lecturas del genoma lo
que permite obtener resultados más sólidos, a precios más asequibles y en un menor periodo de
tiempo. Además, este avance permitió incorporar el análisis en paralelo de varias secuencias a la
vez.

Por todo esto, lo fundamental para conseguir estos logros fue reducir el tamaño de lectura, hecho
que a su vez dificulta el posterior análisis bioinformático. El tamaño de lectura es muy importante
a la hora de secuenciar, porque cuanto mayor sea la longitud de la secuencia, el fragmento del
genoma cubierto es también mayor, por lo que, en el posterior análisis bioinformático, hay un
menor número de lecturas que solapar. En cambio, si las lecturas son más cortas, el fragmento del
genoma cubierto es más pequeño, y con ello el número de lecturas finales parra tratar de cubrir el
genoma completo será mucho mayor, hecho que dificultará el ensamblaje en el posterior análisis.

Las plataformas de secuenciación NGS son múltiples y variadas, cada una con sus respectivas
particularidades, pero todas tienen en común que la detección del ácido nucleico no es aplicable a
una única molécula, por lo que se requiere de una previa amplificación del fragmento a secuenciar
para poder obtener lecturas secuenciadas del mismo. Este proceso puede llevarse a cabo de dos
maneras:

 PCR en emulsión: consiste en una emulsión aceite-agua creada para encapsular complejos
entre ADN y nanoesferas, dentro de gotículas de agua. Tras la emulsión se lleva a cabo la
amplificación, de tal manera que cada nanoesfera queda recubierta por varios miles de
copias de la misma secuencia molde formando una Polonia (nombre que recibe el
conjunto de copias de la misma secuencia). Dependiendo de la plataforma NGS, estas
nanoesferas se unen químicamente a una superficie de cristal (SOLID) o se depositan en
los pocillos de las placas multipocillo empleadas en dicha plataforma (454 Life Sciences y
Ion Torrent).
 PCR puente: la secuenciación tiene
lugar sobre una placa de vidrio, sobre
la que están dispuestos adaptadores
complementarios a los adaptadores
anclados en las secuencias
desnaturalizadas a secuenciar. Por lo
que, cada fragmento de ADN
monocatenario se unirá por uno de
sus extremos a uno de los
oligonucleótidos complementarios
presentes en la placa. Tras la acción de la polimerasa, que utiliza los adaptadores como
cebadores, se sintetiza la cadena complementaria, quedando inmovilizada. Seguidamente,
tendrá un nuevo ciclo de desnaturalización, provocando que las hebras desnaturalizadas
formen puentes gracias a la unión de su extremo libre con otro de los adaptadores
inmovilizados en la placa. Este proceso se repite varias veces hasta formar lo que se
conoce como clusters, una agrupación de secuencias idénticas inmovilizadas sobre una
superficie sólida. Este mecanismo es propio de Illumina. El inconveniente de esta etapa, es
la posible incorporación de errores debido a fallos en la polimerasa durante el proceso de
síntesis de nuevas copias.

Plataformas más comunes

a. 454 Life Sciencies

Es la tecnología de secuenciación masiva comercializada por Roche. Esta se fundamente en la


pirosecuenciación, una metodología que se basa en la detección quimioluminiscente del
pirofosfato liberado durante la elongación de la cadena complementaria de ADN, lo que permite la
rápida determinación de secuencias en tiempo real. A pesar de que el coste por carrera es
relativamente caro, es una tecnología capaz de ofrecer lecturas largas, de alrededor de 700 pb en
un periodo de tiempo más o menos corto. Sin embargo, es poco sensible en la detección de
homopolímeros. Hoy en día esta casi en desuso, ya que el resto de tecnologías disponibles ofrecen
mejores resultados a un menor precio.

b. SOLID (Support Oligonucleotide Ligation Direction

Es la única estrategia que lleva a cabo una secuenciación por ligación, tras su salida si bien fue
utilizada, presentó una alta tasa de error, además, generaba secuencias muy cortas de
aproximadamente 50 pares de bases, por lo que ha día de hoy es muy poco utilizada.

c. Ion Torrent Sequencing

Estrategia basada en el método de secuenciación mediante un ion semiconductor, de forma que


cada vez que se incorpora un nuevo nucleótido a la cadena, en síntesis, se libera un protón (H+),
que modifica el pH, detectando la incorporación del mismo. Para discernir cuál de los nucleótidos
se ha introducido, se repiten varios ciclos, cada uno de ellos con la adición de un único nucleótido.
Aunque esta plataforma no está destinada para la secuenciación de genomas completos, debido a
que el resultado obtenido a esta escala no es el más aconsejable, es altamente competitivo en
cuanto a precio, rapidez y calidad para paneles de genes pequeños y el análisis de exomas.
Además, por sus características de trabajo, es ideal para los laboratorios de diagnóstico, ajustados
a tiempos muy precisos.

d. Illumina

Es la más utilizada hoy en día ya que ofrece plataformas efectivas (MiniSeq o HiSeq XTen, entre
otras) capaces de ofrecer resultados competentes a precios razonables. Esta metodología es
caracteriza por el uso de nucleótidos marcados con fluoróforos que bloquean de forma reversible
la elongación de la cadena. De este modo, tras la detección de la incorporación del fluoróforo, y la
eliminación de mismo, es posible continuar con un nuevo ciclo de adición de un nuevo nucleótido,
lo que se conoce como secuenciación por síntesis. Requiere de una gran inversión inicial y
mantenimiento.

---------------------------------------------------------------o------------------------------------------------------------------

Secuenciación: determinación del orden de nucleótidos de una cadena de ADN.

Secuenciación de primera generación se refiere a Sanger.

NGS: secuenciación de segunda generación, tipo de secuenciación masiva paralela que ha surgido
hace más de una década y permite obtener información genómica de cientos de miles de
moléculas de ADN en un solo ensayo.

Solexa, luego llamado Illumina.

Secuenciación por síntesis con terminadores fluorescentes reversibles. Las bibliotecas eran
amplificadas en una celda de flujo mediante PCR-puente formando grupos o clusters. Al momento
de secuenciar, dada la adición de nucleótidos terminadores fluorescentes reversibles durante cada
flujo, se genera una señal al tiempo que la cadena se elonga.

----------------------------------------------------------------o----------------------------------------------------------------

Secuenciación del exoma La secuenciación del exoma completo (whole exome sequencing o WES
en inglés) es un tipo de secuenciación dirigida donde se enriquece aproximadamente 1 al 2% del
genoma humano. Está orientado a obtener la información genómica de los exones (las regiones
codificantes) de los casi 20.000 genes, cubriendo aproximadamente un 85% de las variantes que
causan enfermedades hereditarias, principalmente monogénicas. El exoma clínico (clinical exome
sequencing o CES en inglés) también es muy utilizado hoy en día. Se estudia la región codificante
de alrededor de 5.000 genes con relevancia clínica, aunque en ocasiones resulta insuficiente para
algunos pacientes, debido a la representación incompleta del exoma. La secuenciación del exoma
es de utilidad para la detección de variantes conocidas en genes relacionados a enfermedades
genéticas y también en el descubrimiento de nuevas variantes asociadas con patologías. Tanto es
así que, utilizando técnicas de WGS y WES, se ha aumentado la cantidad de genes asociados a
enfermedades en casi un 90% sólo desde 2007 a 2013. Estas estrategias fueron también
importantes en el descubrimiento de mutaciones recurrentes en el estudio de neoplasias, tanto en
tumores sólidos como hematológicos, y han contribuido significativamente en la detección de
mutaciones conductoras (driver mutations en inglés) y en el desarrollo de terapias dirigidas, y
posteriormente en el diseño de paneles de genes según patologías.

Secuenciación del ARN Existen también métodos de estudio del ARN por NGS. En estos casos, el
ARN es convertido a ADN copia (denominado cDNA en inglés) por medio de una
retrotranscripción, antes de poder ser secuenciado. Los métodos de secuenciación del
transcriptoma completo brindan información útil para obtener un perfil de expresión de
virtualmente todos los transcriptos de ARN (ARN mensajero), estudiar la secuencia codificante
(similar al exoma, pero restringido a genes expresados en ese tejido en particular), o bien para
evaluar empalmes alternativos en la muestra en cuestión. Otra opción es la secuenciación de ARN
dirigida, donde se enriquece la muestra para representar los transcriptos de interés y así evaluar
su expresión relativa. Los perfiles de expresión de ARN, pueden brindar información valiosa acerca
de activación de vías de señalización. Un tipo de estudio que ha cobrado relevancia es el perfil de
expresión de los microARNs (llamado miRNoma), con especial foco en regulación de vías de
señalización en el cáncer. Otra estrategia muy utilizada tomando como punto de partida el ARN es
aquélla que se utiliza para determinar presencia de fusiones génicas (translocaciones) en aquellos
casos que la misma genera una proteína quimérica. Debido a que generalmente los puntos de
ruptura y empalme entre genes fusionados se encuentran en regiones intrónicas profundas y son
muy variables, se han desarrollado estrategias a partir de ARN para poder detectar uniones exón-
exón entre dos genes (ej: BCR-ABL1, EML4-ALK, etc.).

Tipos de muestra Habitualmente, el ADN obtenido para estudiar enfermedades hereditarias


(patología germinal) proviene de leucocitos de sangre periférica, representando el genoma del
individuo. Sin embargo, las muestras pueden ser diversas y se puede obtener ADN de cualquier
tejido o fluido corporal: hisopados bucales, líquido amniótico, vellosidades coriónicas, líquido
cefalorraquídeo, muestras de tejido fresco, etc. En el caso de estudio de patología somática (en
neoplasias), frecuentemente se utiliza ADN y/o ARN extraído de sangre periférica o médula ósea
en tumores hematológicos, o de tejido fijado en formalina e incluido en bloques de parafina
cuando se trata de tumores sólidos. En los últimos años se ha experimentado un incremento del
estudio de lo que se denomina biopsia líquida, donde se puede obtener ADN tumoral a partir de
cualquier fluido, siendo el estudio de ADN libre de células en plasma el más frecuente, seguido por
células tumorales circulantes y exosomas o pequeñas vesículas.

Flujo de trabajo NGS

1. Preparación de bibliotecas: ya sea para la secuenciación del genoma completo o técnicas


de secuenciación dirigida, el objetivo esta orientado a la obtención de fragmentos cortos
de ADN, que varían según las plataformas utilizadas, pero habitualmente rondan entre 150
a 400 pb. Dependiendo de la estrategia la preparación de las bibliotecas pueden realizarse
antes o después del enriquecimiento. Enriquecimiento consiste en la adición de
adaptadores a ambos extremos de cada uno de los millones de fragmentos de ADN a
secuenciar (llamados insertos), además, en esta etapa se pueden añadir etiquetas
(secuencias establecidas de ADN para diferenciar cada muestra), por lo que en un mismo
ensayo se pueden combinar múltiples muestras sin riesgo de entrecruzamiento.
Los adaptadores son específicos para cada plataforma de secuenciación: se trata de
fragmentos de ADN de doble cadena con secuencias consenso donde se alinean los
cebadores para las etapas de amplificación del templado (ya sea por PCR-puente o PCR en
emulsión, según plataforma) y los cebadores para la secuenciación propiamente dicha.
Este punto probablemente sea una de las claves de NGS: la obtención de fragmentos
flanqueados por adaptadores con secuencias específicas permite que sea posible realizar
millones de reacciones a la vez para obtener la secuencia de cada inserto.
2. Enriquecimiento del blanco: en el caso de técnicas de secuenciación del genoma
completo, no requieren de enriquecimiento, pero si de fragmentación, la cual puede ser a
través de sonicación o proceso enzimático. Una vez fragmentado el ADN, se seleccionan
aquellas hebras de un rango de tamaño adecuado según la estrategia de secuenciación.
en cambio, para desarrollar cualquier protocolo de secuenciación dirigida, es necesario
enriquecer las regiones de interés a la vez se separa el resto del ADN genómico. Existen
diversos métodos para realizar el enriquecimiento, pero actualmente se engloban en dos
grupos mayormente: enriquecimiento basado en captura y enriquecimiento basado en
PCR.
A modo general, el método basado en captura, se fragmenta el DN de la muestra (por
sonicación o por métodos enzimáticos) para obtener fragmentos de ADN cortos. Luego de
preparar las bibliotecas con dichos fragmentos, esta se hibrida con sondas de ADN o ARN
complementarias a las regiones de interés. En un principio se utilizaron microarrays donde
las sondas con secuencias complementarias se encontraban en una fase sólida, pero
posteriormente fueron remplazadas por sondas en solución líquida, que han ganado en
ultima instancia mayor popularidad. Cabe mencionar que las sondas en solución se
encuentran marcadas (con biotina, por ejemplo) y, por lo tanto, pueden capturarse (con
perlas magnéticas con avidina, por ejemplo), para terminar, descartando todas las
secuencias indeseadas que no se han hibridado. Este método suele ser un poco más
costoso y consumir más tiempo que los que se describirán luego, pero tiene la ventaja de
ser capaz de enriquecer mayor cantidad de regiones (mejor funcionalidad en exomas o
grandes paneles de genes), además de eliminar la amplificación por PCR, un paso que
podría introducir errores en la amplificación, ya que las polimerasas habitualmente
cuentan con una tasa de error de entre 5x10-4 y 5,3x10-7 bases.
En cuanto a las técnicas de PCR se utilizan múltiples cebadores (primers) específicos en
una misma reacción para enriquecer las regiones de interés generando amplicones de
tamaño corto. Posteriormente, se completa la preparación de bibliotecas. Éste es un
método costo-efectivo, menos laborioso, se obtienen menos secuencias mapeadas fuera
de la región de interés y requiere menos tiempo que el anterior. Por otro lado, cuenta con
pasos de amplificación por PCR, y su potencial fuente de errores, como también la
posibilidad de caída o falta de la amplificación cuando se encuentren mutaciones o
variantes de secuencia en las regiones de apareamiento de los cebadores. Esta última
falencia puede mejorarse e incluso eliminarse con modificaciones en el diseño de los
amplicones, teniendo en cuenta variantes habituales en las regiones de interés. Por otra
parte, la utilización de los denominados “códigos de barra moleculares” en la etapa de
enriquecimiento hace que las lecturas con errores vinculados a la polimerasa puedan
eliminarse bioinformáticamente, y que además se filtren duplicaciones de lecturas.
3. Amplificación del templado y secuenciación masiva paralela: tanto plataformas de
Illumina como Ion Torrent utilizan las bibliotecas como templado de secuenciación, y
necesitan la amplificación del mismo para alcanzar la cantidad de señal necesaria según la
sensibilidad del método de detección. En plataformas Illumina las bibliotecas son cargadas
en una celda de flujo. Cada inserto de la biblioteca es amplificado clonalmente por medio
de una PCR-puente, para generar un grupo o cluster unido al soporte sólido, que se
utilizará como templado. Posteriormente se produce la secuenciación por síntesis con
terminadores reversibles, donde en cada flujo sucesivo de nucleótidos terminadores
(marcados con fluorescencia), los mismos compiten para elongar la cadena. Debido a la
presencia de terminadores, sólo se puede añadir un nucleótido por ciclo. El nucleótido
incorporado es excitado y su emisión lumínica es registrada por un dispositivo óptico.
Luego, el fluoróforo y el terminador se clivan y comienza un nuevo ciclo. Posteriormente,
las imágenes obtenidas de cada grupo (cluster) son procesadas para generar el llamado de
bases y obtener la secuencia de cada una de las lecturas. El proceso de secuenciación se
realiza en ambos sentidos (desde ambos adaptadores), por lo que se obtienen lecturas de
extremos pareados. En las plataformas Ion Torrent, se genera una PCR en emulsión con
perlas para amplificar clonalmente cada hebra de la biblioteca. Luego de romper la
emulsión y enriquecer las perlas recubiertas de ADN clonalmente amplificado (templado),
éstas son cargadas en un chip (semiconductor) que contiene millones de pocillos. De un
modo óptimo, cada perla se alojará dentro de un pocillo. Durante la reacción de
secuenciación por semiconductor se observan flujos secuenciales de cada uno de los
nucleótidos sobre el chip. Al incorporarse un nucleótido a la cadena, se genera la
liberación de un protón (ion hidrógeno). El cambio de pH se traduce a una señal eléctrica
(cambio de voltaje), indicando que en ese flujo fue añadido el nucleótido en cuestión. Si
durante un flujo no se adiciona un nucleótido, no existe diferencia de pH y por lo tanto
tampoco señal eléctrica. La señal eléctrica captada de cada pocillo es el dato crudo
necesario para obtener la secuencia de cada lectura. La secuenciación en plataformas Ion
Torrent genera lecturas en un solo sentido (llamadas single-end reads). Tanto Illumina
como Ion Torrent presentan una serie de secuenciadores de distinta escala y capacidad de
procesamiento. Además, cada uno de los instrumentos tiene capacidad para distintas
celdas de flujo o chips semiconductores. De esta forma, se puede elegir la estrategia más
adecuada para cada intención de uso.
4. Procesamiento de datos: Una parte primordial del flujo de trabajo en NGS es el
procesamiento bioinformático de los datos de secuenciación. Comienza con la señal cruda
obtenida por el secuenciador y finaliza con la interpretación de las variantes según el
objetivo que persiga el ensayo. Aunque a priori puede parecer sencillo, este tipo de
procesamiento y análisis consume una cantidad variable de tiempo (de horas a días), a la
vez emplea gran cantidad de recursos en computadoras y servidores. Los archivos
intermedios y finales del procesamiento ocupan un espacio de almacenamiento
considerable (desde MB a varios GB). Para el estudio de variantes puntuales (SNVs) e
inserciones o deleciones (indels) a nivel de ADN, el mismo consta de una serie de procesos
concatenados denominados análisis primario, secundario y terciario. A este flujo de
trabajo bioinformático se lo denomina habitualmente tubería o pipeline bioinformático
(por su nombre en inglés).
a. El análisis primario consta de la conversión de la señal cruda obtenida por el
secuenciador en millones de secuencias cortas de ADN, correspondientes a las
llamadas lecturas. Las lecturas pasan a ser la unidad de análisis del procesamiento
bioinformático y cada una de ellas se corresponde con un inserto de la biblioteca.
Por lo general este paso es generado por el instrumento de forma automática, y
su archivo resultante es habitualmente un archivo FASTQ. Este tipo de archivos
contienen la secuencia de cada una de las lecturas obtenidas, con un valor de
calidad para cada nucleótido (Phred score).
b. El análisis secundario consta de una serie de pasos de control de calidad, recorte o
eliminación de lecturas de baja calidad, mapeo de cada lectura a la secuencia de
referencia, alineamiento local y llamado de variantes. El mapeo de las lecturas
emite un archivo llamado SAM (Sequence Alignment/Map) que luego es
comprimido en forma binaria a BAM (Binary Alignment/Map). La información
contenida en estos archivos puede ser visualizada por el programa IGV (Integrative
Genomic Viewer) u otra herramienta de visualización genómica, mostrando la
secuencia, mapeo y alineamiento de cada una de las lecturas. A partir de este tipo
de archivos intermedios y luego de aplicar ciertos algoritmos por parte de una
serie de herramientas bioinformáticas, se logra por fin el llamado de variantes en
archivo VCF (Variant Call Format), un archivo de texto delimitado por tabulaciones
que incluye: genoma de referencia, coordenadas cromosómicas de la variante,
tipo de cambio de secuencia, valores de calidad del llamado de variantes, etc. En
este archivo son llamadas todas las variantes que muestran alguna diferencia con
el genoma de referencia, sin que esto signifique estrictamente patogenicidad.
c. El análisis terciario se realiza a partir del llamado de variantes. Consiste en la
anotación y el filtrado de cada una de las variantes según el objetivo del análisis.
La anotación se basa en la utilización de bases de datos y puede incluir
información genómica (gen, exón, variante en secuencia codificante y en la
proteína, etc.), información funcional, frecuencia poblacional de la variante,
predicciones bioinformáticas de patogenicidad, información fenotípica o clínica
vinculada a la variante, etc. Por último, el filtrado de las variantes se puede realizar
a partir de los elementos anotados, de esta forma se le asigna un valor clínico a
cada una de ellas. Existen algunos criterios y recomendaciones internacionales
para interpretar y reportar variantes germinales y somáticas.

Dos conceptos importantes de ser aclarados son la cobertura y la profundidad de un ensayo. La


cobertura (también entendida como cobertura horizontal o coverage breadth en inglés) se refiere
a la cantidad de información genómica representada por las lecturas obtenidas en el ensayo
contra una referencia. La referencia depende de la estrategia utilizada y puede ser el genoma
completo, exoma, paneles de genes, etc. En general la cobertura se expresa como el porcentaje de
lecturas mapeadas contra la referencia esperada. Mientras mayor sea el porcentaje, mejor
representado está el blanco de nuestro ensayo. Sin embargo, a lo largo del genoma humano
existen ciertas zonas dificultosas de enriquecer o secuenciar, y la cobertura puede reducirse. El
concepto de fuera de diana (off-target) se interpreta como el porcentaje de las lecturas que se
encuentran fuera del blanco de enriquecimiento. Es ADN secuenciado no informativo para el
ensayo. En general el fuera de diana es mayor en estrategias de captura. La profundidad (también
interpretada como cobertura vertical o coverage depth en inglés) se refiere a la cantidad de
lecturas mapeadas que representan un mismo locus, o vulgarmente hablando: muestra cuántas
veces fue secuenciado un locus en particular. La profundidad de expresa en x (ej: 50x significa que
el locus en particular fue cubierto por 50 lecturas). La secuenciación de patología somática en
general requiere mayor profundidad que la germinal debido a la frecuencia alélica esperada de las
variantes: a mayor profundidad, mayor confianza en la detección de variantes en baja frecuencia.
Dado que el rendimiento de las celdas de flujo o los chips semiconductores es fijo, se podría decir
que, a mayor cobertura de un ensayo, obtenemos menor profundidad, y viceversa. Para cierto tipo
de patologías, el valor de la detección de grandes deleciones, duplicaciones o amplificaciones, es
muy importante. Este tipo de alteraciones, englobadas bajo el nombre de variación del número de
copias (Copy Number Variation o CNV en inglés) puede también evaluarse por medio de diversos
métodos bioinformáticos siempre y cuando el diseño del ensayo lo permita. A nivel del ARN el
procesamiento bioinformático de las lecturas puede detectar presencia de fusiones génicas, y
también puede cuantificar las lecturas correspondientes a un transcripto, expresarla de forma
absoluta o relativa, etc. (expresión génica).

Calidad y cuestiones éticas en el diagnóstico clínico: Como en cualquier otra práctica diagnóstica,
se debe asegurar la calidad de los procesos preanalíticos, analíticos y postanalíticos de la
secuenciación NGS. Por un lado, los laboratorios deben estar acreditados por organismos
(nacionales o internacionales) que garanticen las buenas prácticas de trabajo y el correcto
monitoreo de los procesos. Por otro lado, a la hora de poner en marcha un ensayo de NGS para el
diagnóstico clínico, debemos conocer que existen requerimientos y recomendaciones para ofrecer
ensayos de NGS tanto para patologías germinales como somáticas. Podemos dividir el proceso en
familiarización, puesta a punto, validación e implementación. Un punto particularmente
importante es la validación de los ensayos. Se trata de analizar la funcionalidad de un test
utilizando muestras conocidas (controles de calidad externos, controles comerciales) o testeadas
por una técnica ortóloga considerada patrón oro, y obtener una serie de parámetros mensurables
y auditables: sensibilidad, especificidad, exactitud, repetibilidad intra- e interensayo, rango
reportable, límite de detección, etc. Esto brinda una visión del desempeño del ensayo, a la vez que
alerta sobre posibles eventualidades a tener en cuenta, como sesgos, errores sistemáticos,
interferencias, criterios de rechazo de muestras, etc. Se recomienda realizar controles de calidad
externos periódicamente para los tests ofrecidos. Algunos de los EQA más comunes en nuestro
medio provienen de organizaciones internacionales como CAP, EMQN, UKNEQAS, EuroGentest,
etc. Las cuestiones éticas ligadas a la secuenciación masiva son muchas, y aún hoy varias de ellas
siguen en discusión. Podríamos mencionar diversos tópicos como: la indicación médica de test
genético, requerimiento de un test genético por parte del paciente (directo al consumidor o DTC),
calidad de los tests diagnósticos, consentimiento informado, testeo genético en menores de edad,
reanálisis y seguimiento de variantes de significado incierto, reporte de hallazgos incidentales, etc.

Próxima generación de secuenciadores Si bien NGS es una herramienta novedosa y prometedora,


se han desarrollado nuevos secuenciadores con un concepto diferente. Se los denomina de tercera
generación: son capaces de secuenciar sin amplificación (secuenciación de molécula única), es
decir que carecen de pasos de amplificación. Al día de hoy están mayormente en etapas
experimentales. Las ventajas de este tipo de secuenciadores radican en la posibilidad de
secuenciar en tiempo real (sin necesidad de pausas entre los flujos de nucleótidos), y en leer
hebras de ADN de miles de bases de longitud. Por otro lado, la precisión de estos métodos es algo
menor que NGS

También podría gustarte