Índice de Figuras
Índice de Tablas
Capítulo 1:
Introducción
En la industria petrolera, las tuberías constituyen el sistema circulatorio esencial para el
transporte de petróleo crudo, gas natural y productos derivados. Sin embargo, estas
infraestructuras están constantemente expuestas a condiciones agresivas, tanto internas
como externas, que favorecen el deterioro progresivo de su estructura. Entre los
mecanismos de degradación más críticos se encuentra la corrosión, fenómeno
electroquímico que compromete la resistencia del material con el paso del tiempo y puede
conducir a fallas estructurales graves, tales como fugas o rupturas completas (Revie & Uhlig,
2008).
La ruptura por corrosión representa un riesgo técnico, económico y ambiental de gran
relevancia. Según datos reportados por la National Association of Corrosion Engineers
(NACE), los costos globales asociados a la corrosión en la industria del petróleo y gas
superan los 60 mil millones de dólares anuales, afectando directamente la continuidad
operativa, la seguridad industrial y la protección ambiental (Koch et al., 2016). A nivel
operativo, estas fallas suelen provocar paradas no planificadas, pérdidas de producto,
contaminación del entorno y, en los casos más críticos, accidentes con afectaciones
humanas y sociales (Al-Abbas et al., 2019).
Tradicionalmente, el monitoreo del estado de las tuberías se ha basado en inspecciones
programadas mediante técnicas no destructivas como el ultrasonido, la radiografía
industrial o el uso de herramientas inteligentes (Intelligent Pigs). Si bien estos métodos son
efectivos, presentan limitaciones importantes: dependen de la disponibilidad de equipos
especializados, requieren interrupciones operativas, y no ofrecen un diagnóstico continuo
ni predictivo (NACE, 2021). Esta situación ha motivado la búsqueda de soluciones más
eficientes, orientadas al mantenimiento predictivo y la gestión proactiva de la integridad.
En este contexto, la inteligencia artificial (IA) emerge como una herramienta poderosa para
la predicción anticipada de fallas. Los modelos de machine learning y deep learning pueden
ser entrenados con datos históricos de operación, mantenimiento, variables ambientales y
características geométricas de las tuberías, para detectar patrones que preceden a la
ruptura (Zhou et al., 2020). Al permitir diagnósticos tempranos y automatizados, estos
modelos pueden convertirse en aliados estratégicos para la toma de decisiones en campo y
la reducción de riesgos (Madamanchi et al., 2024).
Este trabajo de investigación tiene como propósito desarrollar un modelo predictivo de IA
capaz de anticipar la rotura de tuberías por corrosión, integrando variables críticas como la
profundidad del defecto, el espesor remanente, la presión interna y las condiciones
ambientales.
Capítulo 2: Marco Teórico - Predicción de Rotura de Tuberías por Corrosión mediante
Inteligencia Artificial
2.1. Fundamentos de la corrosión en tuberías
La corrosión en tuberías es un fenómeno electroquímico que implica la degradación del
material metálico como resultado de reacciones con el entorno, principalmente en
presencia de un electrolito. Este proceso afecta negativamente la integridad estructural de
los sistemas de transporte de fluidos, como petróleo, gas natural, agua y productos
químicos, siendo responsable de una fracción considerable de fallos operacionales y
pérdidas económicas en la industria (Revie & Uhlig, 2008). Existen diversas formas de
corrosión que afectan a las tuberías. Las más comunes incluyen la corrosión uniforme,
localizada (picaduras), galvánica, por esfuerzos (SCC), bajo depósitos (UDC) e inducida por
microorganismos (MIC). La corrosión uniforme provoca una pérdida homogénea del
espesor de pared, mientras que la picadura puede perforar el tubo en un área puntual,
comprometiendo rápidamente su capacidad de presión. Estudios recientes han demostrado
que las picaduras profundas con relación d/t > 0.6 pueden reducir la presión de estallido
hasta en un 40 % (Zhang et al., 2022).
La corrosión galvánica ocurre cuando dos metales de diferente potencial se conectan
eléctricamente en presencia de un electrolito, generando una celda electroquímica que
acelera la pérdida del metal menos noble.
En ambientes marinos o suelos húmedos, esto es especialmente común. Por su parte, la MIC
representa hasta el 20 % de los casos de corrosión externa en oleoductos enterrados, donde
bacterias como *Desulfovibrio* spp. generan sulfuros y biofilms que aceleran el proceso
corrosivo (Enning & Garrelfs, 2020). La velocidad de corrosión está determinada por
múltiples factores como el pH, la temperatura, la concentración de cloruros, la presencia de
CO₂ o H₂S, y el tipo de flujo. En condiciones ácidas y presencia de CO₂ disuelto, pueden
observarse tasas de corrosión superiores a 3 mm/año si no se emplean inhibidores
adecuados (Nesic & Cabrera, 2021). La corrosión bajo depósitos (UDC) ocurre en zonas
donde se acumulan sólidos o lodos, generando microambientes con baja oxigenación que
promueven la actividad anódica localizada. Este tipo de corrosión es difícil de detectar por
métodos convencionales y suele asociarse con fallos inesperados. Asimismo, la corrosión
bajo esfuerzo o SCC aparece cuando se combinan tensiones de tracción y ambientes
corrosivos específicos, dando lugar a grietas subcríticas que se propagan hasta la fractura.
Las consecuencias económicas y de seguridad son sustanciales. Según Koch et al. (2016), los
costos globales asociados a la corrosión en petróleo y gas superan los US$ 63 000 millones
anuales. Además, el 25 % de los incidentes significativos reportados por la PHMSA entre
2010 y 2020 estuvieron relacionados con la corrosión (PHMSA, 2021). Para ilustrar el
impacto relativo de los diferentes tipos de corrosión, se muestra la Figura 1, basada en
datos de incidentes en ductos de EE. UU. durante la última década.
Figure 1: Distribución estimada de tipos de corrosión en sistemas de transporte (Fuente:
PHMSA, 2021).
2.2. Modelos clásicos de evaluación de integridad
La evaluación de la integridad de tuberías corroídas se ha sustentado, durante más de
cuatro décadas, en modelos semi-empíricos que combinan la mecánica de sólidos con bases
de datos de ensayos a escala real. Estas expresiones constituyen la piedra angular de los
programas de fitness-for-service (FFS) porque permiten estimar, de forma rápida, la
presión de estallido (P_f) y definir si un defecto detectado representa un riesgo inaceptable
para la operación (ASME, 2022). Aun con la irrupción de técnicas numéricas avanzadas y
modelos de inteligencia artificial, los tres esquemas clásicos —ASME B31G, RSTRENG y
DNV RP-F101— siguen figurando en la normativa internacional y en manuales de
operadores, por lo que su comprensión sigue siendo imprescindible.
2.2.1 ASME B31G
El punto de partida El procedimiento B31G fue publicado originalmente en 1974 por el
Pipeline Research Committee de la AGA y adoptado después por la ASME como
Recommended Practice para tuberías en servicio (Kiefner & Vieth, 1990). Propone idealizar
el defecto metálico como un rebaje rectangular de longitud L y profundidad d. Para
cuantificar la debilitación longitudinal introduce el factor de Folias (M_F), derivado de
ensayo de paneles con ranuras axiales. El método, concebido para aceros grado B-X42, es
conservador para defectos profundos en tuberías modernas X65-X80 porque penaliza la
pérdida de espesor sin considerar el ancho del defecto ni el endurecimiento por laminación
(Liang et al., 2024).
2.2.2 RSTRENG
La “sección efectiva” Buscando reducir el conservadurismo de B31G, el mismo grupo de
investigación desarrolló RSTRENG en 1995. Este modelo introduce el concepto de área
efectiva (effective área method, EAM): la geometría real, capturada por caliper o perfiles de
corrosión, se discretiza y se identifica la franja de metal-loss con la menor capacidad de
carga (Kiefner & Vieth, 1995). Estudios comparativos con 107 ensayos a presión
demostraron que RSTRENG reduce el coeficiente de variación del error al 15 % frente al
22 % de B31G (Stephens et al., 2019).
2.2.3 DNV RP-F101:
Aproximación parabólica La práctica recomendada DNV RP-F101 (2017) se basa en una
analogía parabólica de la pérdida de espesor y un marco de resistencia al colapso
elástico-plástico (DNV, 2017). El defecto se modela como semi-elíptico, lo que se ajusta
mejor a la morfología real de picaduras alineadas. Validaciones externas con 153 ensayos de
rotura en tuberías X52-X80 arrojan un CoV ≈ 11 %, el más bajo entre los métodos clásicos
(Liu et al., 2021).
2.2.4 Incertidumbres y conservadurismo
Pese a sus diferencias, los tres modelos comparten hipótesis simplificadas que introducen
incertidumbre: (1) geometrías ideales; (2) carga monotónica de presión; (3) material
isotrópico; (4) no incluyen el ancho del defecto (Liang et al., 2024). PHMSA (2021) señaló
que el 38 % de las reparaciones basadas en B31G podrían haberse evitado con análisis FEA
calibrados.
2.2.5 Validación experimental
Programas de ensayo históricos —como los burst tests de Kiefner (1973) y los ensayos a
escala de Petrobras— sustentan los modelos. La tendencia actual es complementar con
simulaciones FEM elasto-plásticas para ampliar el rango de variables (Feng et al., 2023).
2.2.6 Transición hacia modelos híbridos
El avance computacional ha permitido integrar resultados FEA en meta-modelos de
machine learning. Meyer (2015) usó un regresor logístico entrenado con 8 000
simulaciones, obteniendo MAE = 5 %. Feng et al. (2023) aplicaron XGBoost logrando
R² = 0.94 y evaluaciones en milisegundos.
2.3. Aplicación de Machine Learning a problemas de corrosión
El uso de técnicas de Machine Learning (ML) en la predicción, clasificación y diagnóstico de
procesos de corrosión ha crecido significativamente en los últimos años, impulsado por la
disponibilidad de sensores, bases de datos históricas de integridad y avances en capacidad
computacional. A diferencia de los modelos físicos tradicionales, que requieren parámetros
geométricos exactos y supuestos simplificadores, los algoritmos de ML aprenden patrones
directamente de los datos, lo que permite abordar.
Entre las aplicaciones más comunes del ML en corrosión se encuentran: (i) predicción de la
velocidad de corrosión en función de variables como pH, temperatura, velocidad de flujo y
concentración de CO₂ o H₂S; (ii) clasificación del tipo de corrosión (uniforme, localizada,
MIC, etc.); y (iii) estimación de presión de estallido o capacidad remanente de tuberías a
partir de defectos identificados por inspecciones internas (ILI). Uno de los algoritmos más
utilizados es el Support Vector Machine (SVM), por su capacidad de clasificación con
márgenes máximos y buena generalización incluso con conjuntos de datos pequeños. SVM
ha sido empleado, por ejemplo, para diferenciar señales ultrasónicas reflejadas entre
defectos por picaduras y grietas transversales, alcanzando precisiones superiores al 90 %
(Fatih Kayaalp et al., 2020).
Por otro lado, algoritmos de árbol como Random Forest (RF) y XGBoost han demostrado ser
muy eficaces. Otro campo de aplicación relevante es el análisis de imágenes obtenidas por
inspección visual o cámaras digitales en instalaciones sujetas a corrosión. Técnicas como
redes neuronales convolucionales (CNN) permiten identificar patrones de corrosión
superficial en estructuras metálicas, incluso bajo condiciones de baja iluminación o
presencia de óxido superpuesto. Estudios como los de Jin et al. (2021) han entrenado CNN
para detectar corrosión externa en tuberías submarinas con precisiones del 98 % y baja...
En aplicaciones industriales, donde los datos provienen de sensores in-line, se han
combinado técnicas de desruido como EMD o Wavelet Transform con modelos ML para
mejorar la calidad de las entradas. Por ejemplo, Ye et al. (2022) usaron EEMD + SVM para
clasificar señales acústicas de fugas, alcanzando un F1-score superior al 95 %. Para lograr
buenos resultados en ML aplicado a corrosión, es esencial una adecuada selección de
características (“feature engineering”). Entre las variables más relevantes figuran:
contenido de cloruros, potencial redox, temperatura, pérdida de espesor, presión interna,
tipo de recubrimiento, historial de inspección, tasa de flujo y ubicación geográfica. La
normalización y balanceo de datos también influyen en el desempeño del modelo.
Una de las mayores ventajas del ML es su capacidad para ser integrado en sistemas de
monitoreo en tiempo real. Al combinarse con plataformas de IoT o sistemas SCADA, los
modelos pueden evaluar continuamente el estado de la infraestructura, detectar
desviaciones anómalas y activar alertas antes de que se alcance un umbral crítico. En
términos regulatorios, la implementación de ML aún enfrenta barreras por la falta de
estándares para validación y verificación de modelos en aplicaciones de seguridad crítica.
Sin embargo, organismos como la API y la DNV han comenzado a evaluar el uso de sistemas
de IA como soporte a la toma de decisiones en mantenimiento predictivo, siempre que su
desempeño esté calibrado contra métodos clásicos. El futuro de la predicción de corrosión
mediante ML parece orientarse hacia modelos híbridos que combinan física e IA (physics-
informed machine learning), donde se integran leyes físicas como la Ley de Faraday,
ecuaciones de difusión y modelos de corrosión electroquímica como restricciones o
variables auxiliares.
En resumen, la aplicación de Machine Learning a la predicción y clasificación de corrosión
ofrece beneficios considerables en precisión, adaptabilidad y capacidad de integración. A
medida que se superen los desafíos de interpretabilidad, ética algorítmica y validación
normativa, el ML será un pilar esencial en la gestión inteligente de la integridad de activos
industriales.
2.4. Deep Learning para predicción de daño estructural
El uso de Deep Learning (DL) ha revolucionado la predicción de fallas estructurales,
especialmente en infraestructuras críticas como ductos, puentes y aeronaves. A diferencia
del machine learning tradicional, el DL emplea redes neuronales profundas capaces de
aprender representaciones jerárquicas directamente desde los datos, sin necesidad de
ingeniería de características manual (Goodfellow et al., 2016).
Las Redes Neuronales Convolucionales (CNN) han demostrado una alta eficacia en el
reconocimiento de patrones en imágenes térmicas y visuales obtenidas por inspección de
corrosión. Por ejemplo, Jin et al. (2021) utilizaron una CNN entrenada con imágenes de
tuberías submarinas y alcanzaron una precisión del 98 % en la detección de corrosión
superficial.
Por su parte, las redes recurrentes tipo LSTM permiten modelar la progresión temporal del
daño, lo que es útil para predecir la evolución de la corrosión a partir de datos de sensores
distribuidos (Hochreiter & Schmidhuber, 1997). Autoencoders también han sido aplicados
para detección de anomalías estructurales no supervisadas, donde el error de
reconstrucción identifica zonas críticas.
Modelos híbridos que combinan CNN con LSTM han sido desarrollados para análisis
simultáneo de secuencias e imágenes, como en el trabajo de Dragos et al. (2022), que
utilizaron mapas de esfuerzos de simulaciones FEA como entrada de una CNN
tridimensional. Esto permite reducir ensayos destructivos y obtener mapas de riesgo
predictivo.
En sistemas industriales, modelos DL han sido integrados a plataformas SCADA con
aprendizaje en línea para mantenimiento predictivo. Sin embargo, uno de los desafíos
actuales es la necesidad de grandes volúmenes de datos etiquetados, lo que ha sido
mitigado parcialmente mediante aprendizaje por transferencia (transfer learning) o el uso
de redes generativas (GANs) para ampliar las bases de entrenamiento (Pan & Yang, 2010;
Goodfellow et al., 2014).
Otro reto clave es la interpretabilidad. Herramientas como Grad-CAM permiten visualizar
qué regiones activan las decisiones del modelo, facilitando su adopción en entornos
regulados (Selvaraju et al., 2017). En conjunto, el DL representa una vía potente para
gestionar la integridad estructural de forma más precisa y proactiva.
2.5. Preprocesamiento y limpieza de datos para IA
El preprocesamiento de datos es una etapa fundamental para asegurar la calidad de los
modelos de inteligencia artificial aplicados a corrosión estructural. En entornos industriales,
los datos provienen de sensores heterogéneos y ruidosos, lo que exige técnicas avanzadas
de limpieza, normalización y selección de características (Zhang et al., 2020).
La imputación de datos faltantes mediante interpolación, KNN o modelos bayesianos es
común en sistemas SCADA donde ocurren pérdidas de señal. Posteriormente, se aplica la
normalización (Min-Max) o estandarización (Z-score) para alinear variables de diferente
escala como presión, temperatura y pérdida de espesor (Han et al., 2011).
Para eliminar ruido, se utilizan filtros como Kalman o técnicas como la Transformada
Wavelet, que ha demostrado ser eficaz en señales acústicas de sensores de corrosión
(Mallat, 1999). También se emplea la descomposición empírica de modos (EMD) para
separar las componentes útiles del ruido aleatorio (Huang et al., 1998).
Cuando el dataset es grande y multivariable, se recurre a técnicas de reducción de
dimensionalidad como PCA, LDA o t-SNE para acelerar el entrenamiento sin pérdida
significativa de información (Jolliffe, 2002). En tareas de clasificación desbalanceadas
(pocos casos de corrosión real), se usan técnicas como SMOTE o focal loss para mejorar la
sensibilidad del modelo (Chawla et al., 2002).
Finalmente, en modelos secuenciales como LSTM, es clave segmentar temporalmente los
datos mediante ventanas deslizantes y codificar adecuadamente variables categóricas como
tipo de recubrimiento o zona geográfica mediante one-hot encoding o embeddings (Mikolov
et al., 2013). En conjunto, un buen preprocesamiento puede aumentar significativamente la
robustez, precisión y aplicabilidad del modelo de predicción de corrosión.
2.6. Tecnologías de sensado inteligente aplicadas a ductos
Las tecnologías de sensado inteligente aplicadas al monitoreo de ductos han emergido como
herramientas clave para la evaluación continua de la integridad estructural y la detección
temprana de corrosión, fugas o deformaciones. A diferencia de las inspecciones periódicas
convencionales, los sensores inteligentes permiten una observación permanente del estado
físico del ducto, facilitando decisiones más rápidas y basadas en datos (Mohd et al., 2020).
Entre las tecnologías más destacadas se encuentran los sensores de fibra óptica (FBG y φ-
OTDR), sensores de ultrasonido embebidos, sensores electroquímicos, y sensores basados
en parámetros eléctricos (resistencia eléctrica y potencial de corrosión). Estas tecnologías
pueden ser implementadas de manera distribuida a lo largo del ducto para capturar
variaciones espaciales en tiempo real (Kwon et al., 2022).
Los sensores de fibra óptica, particularmente los de reflectometría óptica distribuida en el
dominio del tiempo sensible a fase (φ-OTDR), permiten medir deformaciones dinámicas y
vibraciones inducidas por procesos de corrosión o impacto externo. Estas señales pueden
ser integradas con sistemas de aprendizaje automático para analizar patrones y predecir la
evolución del daño (Peng et al., 2021).
Los sensores FBG (Fiber Bragg Grating) son especialmente útiles para medir temperatura y
deformación, y son inmunes a interferencias electromagnéticas. Su aplicación en ambientes
agresivos como oleoductos y gasoductos ha sido validada en plataformas experimentales,
mostrando alta precisión para detectar zonas de sobrepresión y flexión (Kersey et al., 1997;
Luo et al., 2020).
Además, sensores electroquímicos permiten medir la tasa de corrosión en tiempo real a
través de métodos como la resistencia de polarización lineal (LPR) o el ruido
electroquímico. Esta información puede ser utilizada para calcular la pérdida de espesor
por unidad de tiempo y generar alertas si se supera un umbral crítico (Gupta et al., 2021).
Otra innovación es la integración de sensores inteligentes con plataformas IoT (Internet of
Things), lo que permite la transmisión inalámbrica de datos a centros de control o nubes
industriales (cloud SCADA). Esto facilita el monitoreo remoto de redes de ductos en
regiones remotas o submarinas (Gong et al., 2022).
Los sensores de presión piezorresistivos y acelerómetros MEMS también han sido usados
para detectar vibraciones anómalas asociadas a fugas o golpes de ariete. La fusión de datos
de múltiples sensores mejora la confiabilidad del diagnóstico y reduce los falsos positivos
(Abdelgawad et al., 2019).
No obstante, la implementación de estas tecnologías enfrenta desafíos como la calibración
en campo, la robustez ante condiciones extremas (temperatura, salinidad, presión) y la
durabilidad a largo plazo. Investigaciones recientes apuntan a soluciones como
encapsulados poliméricos, autocalibración y mantenimiento asistido por IA para superar
estas barreras (Sharma et al., 2021).
En conclusión, el uso de tecnologías de sensado inteligente en ductos representa un paso
clave hacia la gestión predictiva y resiliente de infraestructuras críticas. Su combinación con
técnicas de inteligencia artificial y análisis estadístico avanzado está redefiniendo el
paradigma del mantenimiento, pasando de reactivo a proactivo y autónomo.
2.7 Evaluación, normativas y tendencias en predicción de corrosión estructural
La predicción de corrosión estructural en infraestructuras críticas como tuberías, tanques,
y components metálicos de la industria del petróleo, gas, agua y energía representa uno de
los principales retos de la ingeniería de mantenimiento y confiabilidad. Para que los
modelos predictivos puedan ser usados efectivamente en este ámbito, es necesario contar
con herramientas de evaluación precisas, marcos regulatorios claros y una visión
tecnológica que incorpore las últimas tendencias como la inteligencia... En cuanto a la
evaluación de modelos, es fundamental establecer métricas que reflejen con precisión el
desempeño del sistema predictivo.
En aplicaciones donde se debe determinar la ocurrencia o no de corrosión, se utilizan
comúnmente métricas de clasificación como la exactitud (accuracy), precisión, recall, F1-
score y AUC-ROC (Han et al., 2011).
Estas métricas permiten analizar la capacidad del modelo para identificar correctamente
tanto los casos positivos (zonas corroídas) como los negativos (zonas i... La elección de
métricas depende del contexto: en escenarios donde la corrosión crítica es poco frecuente,
se prioriza el recall (sensibilidad) para evitar falsos negativos, mientras que en contextos
donde los costos de reparación son altos, se favorece la precisión para minimizar falsos
positivos. A esto se suma la validación cruzada y el uso de curvas de aprendizaje como
herramientas clave para evitar overfitting y asegurar la generalización del modelo a nuevos
casos (Hastie et al., 2009). Desde el punto de vista normativo, diversos organismos han
establecido estándares para asegurar la integridad estructural y la fiabilidad de los
sistemas. En el sector energético destacan documentos como la norma API 579-1/ASME
FFS-1 (Fitness-For-Service), la ISO 15156 (materiales resistentes a H₂S) y la DNV- ST-F101,
que proporciona lineamientos para el diseño y evaluación de ductos submarinos. Estos
estándares establecen criterios de aceptación de defectos como pérdida de espesor, tipo de
daño (picadura... La API 579-1, por ejemplo, clasifica los defectos según su severidad y
establece curvas de evaluación para determinar si una anomalía requiere reparación
inmediata, monitoreo o puede permanecer en operación bajo control.
Los modelos predictivos, para ser aceptados en entornos regulados, deben demostrar que
su desempeño es al menos equivalente al método tradicional de evaluación, generalmente
basado en inspección directa y cálculo de presión de falla por fórmulas como la de ASME
B31G (ASME, 2021). En este contexto, los enfoques actuales apuntan a la integración de
tecnologías emergentes. Uno de los mayores cambios es la transición del mantenimiento
correctivo y programado hacia el mantenimiento predictivo basado en datos. Este cambio
se apoya en el uso de plataformas IoT, sensores distribuidos, análisis de big data, y modelos
de machine learning y deep learning que permiten anticipar el daño antes de que se
produzca la falla (Lee et al., 2014).
La tendencia de combinar datos históricos de inspección con datos en tiempo real ha dado
origen al concepto de gemelos digitales (digital twins), que replican virtualmente el
comportamiento de una infraestructura y actualizan dinámicamente su estado según los
datos recogidos. En el campo de la corrosión, estos gemelos pueden simular la evolución de
un defecto en función de variables como humedad, temperatura, tipo de material, y carga
operativa (Söderberg et al., 2020). Asimismo, el uso de inteligencia artificial se está
alineando con principios de explicabilidad (XAI, Explainable AI), especialmente en
industrias reguladas.
Se emplean modelos que no solo predicen la probabilidad de falla, sino que también
justifican su decisión mediante mapas de activación, importancia de variables o análisis de
sensibilidad (Ribeiro et al., 2016). En resumen, la evaluación rigurosa de modelos
predictivos, el cumplimiento de normativas internacionales y la adopción de tendencias
como el mantenimiento predictivo y la inteligencia artificial convergen hacia un enfoque
más robusto, económico y seguro para la gestión de corrosión estructural. A medida que la
tecnología evoluciona y los datos se vuelven más accesibles, los sistemas predictivos
dejarán de ser herramientas complementarias para convertirse en el pilar central de la
toma de decisiones.
[Link] actuales: mantenimiento predictivo e inteligencia artificial industrial
El mantenimiento predictivo y la inteligencia artificial (IA) industrial representan dos de
las transformaciones tecnológicas más relevantes en la gestión de activos y la confiabilidad
operativa dentro del sector industrial. Estas tendencias han evolucionado desde un enfoque
basado en tiempo y corrección hacia modelos basados en condición, aprendizaje automático
y toma de decisiones autónoma, marcando una nueva era de eficiencia, sostenibilidad y
reducción de costos operativos.
El mantenimiento predictivo (PdM) se basa en el principio de anticipar fallos mediante la
monitorización continua de parámetros clave del equipo, utilizando sensores conectados a
sistemas de adquisición de datos. A través del análisis de vibraciones, temperatura, presión,
humedad, entre otros, es posible estimar el estado de salud de un componente y su vida útil
restante.
Este enfoque permite intervenir antes de que ocurra una falla crítica, evitando paradas no
planificadas y optimizando el ciclo de vida... Una de las tecnologías más habilitadoras del
mantenimiento predictivo es el Internet de las Cosas Industrial (IIoT), el cual facilita la
recolección de datos desde sensores distribuidos y su transmisión en tiempo real hacia
sistemas de análisis en la nube o edge computing. Estos datos, una vez recopilados, son
analizados utilizando algoritmos de machine learning, deep learning o modelos estadísticos,
con el objetivo de detectar patrones de degradación, anomalías o condiciones de operación
anómalas (Lee e... Los modelos de aprendizaje automático permiten clasificar
comportamientos operacionales normales y anómalos, así como predecir el momento más
probable de fallo futuro (Remaining Useful Life, RUL).
Algoritmos como Support Vector Machines, Árboles de Decisión, Random Forest, Redes
Neuronales Artificiales (ANN), y LSTM (Long Short-Term Memory) se han empleado
exitosamente para diagnosticar fallos en motores, compresores, bombas, válvulas y
sistemas eléctricos (Jardine et al., 2006; Wang et al., 2020). El papel de la inteligencia
artificial en la industria no solo se limita a los modelos predictivos. La IA se está integrando
en sistemas de control automatizado, gemelos digitales, gestión energética, calidad de
productos y planificación de mantenimiento.
Un gemelo digital (digital twin) es una réplica virtual de un activo físico que se actualiza en
tiempo real con datos del mundo real, permitiendo simular, predecir y optimizar su
comportamiento futuro (Tao et al., 2018). La fusión de IA con PdM permite realizar
mantenimiento prescriptivo, donde el sistema no solo indica cuándo ocurrirá una falla, sino
también qué acción correctiva específica se debe tomar, basándose en múltiples variables
como costos, riesgos, disponibilidad de recursos y criticidad del componente. Entre las
tendencias emergentes más destacadas se encuentra la implementación de IA explicable
(XAI), que busca ofrecer transparencia y entendimiento sobre las decisiones tomadas por
los modelos, algo crítico en sectores altamente regulados como la energía, el petróleo y la
manufactura aeroespacial. Además, se está avanzando en el uso de transfer learning y
aprendizaje federado, que permiten entrenar modelos con menos datos y respetando la
privacidad entre plantas o empresas (Yang et al., 2019). Otra tendencia clave es la
evolución de las arquitecturas de datos industriales hacia entornos híbridos entre nube y
borde (cloud-edge), que permiten procesar información en tiempo real cerca del origen,
reduciendo la latencia y garantizando una respuesta rápida en entornos críticos como
refinerías o plataformas offshore. En términos de impacto, se estima que el mantenimiento
predictivo habilitado por IA puede reducir los costos de mantenimiento en un 20–30 %,
mejorar la disponibilidad de los activos hasta en un 10 %, y extender su vida útil útil en más
de un 25 %, según McKinsey & Company (2018).
Estos beneficios han impulsado la inversión global en soluciones de mantenimiento
inteligente, que en sectores como Oil & Gas y manufactura pesada han mostrado una
adopción acelerada en los últimos cinco años. En conclusión, el mantenimiento predictivo e
inteligencia artificial industrial no son simplemente herramientas complementarias, sino
ejes centrales en la transformación digital industrial. Su adopción permitirá a las
organizaciones migrar hacia modelos más sostenibles, resilientes y autónomos, donde las
decisiones técnicas son respaldadas por datos, algoritmos y simulaciones dinámicas en
tiempo real.
[Link] matemático de la tasa de corrosión
El modelado matemático de la tasa de corrosión es una herramienta fundamental en la
ingeniería para predecir la velocidad a la que un metal se degrada en un ambiente
determinado. Esta información es esencial para establecer programas de mantenimiento,
seleccionar materiales adecuados y diseñar sistemas de protección anticorrosiva. En la
industria petrolera, por ejemplo, las tuberías expuestas a ambientes agresivos deben ser
constantemente evaluadas para prevenir fallas estructurales y fugas peligrosas.
Una de las ecuaciones más utilizadas para estimar la tasa de corrosión (CR) es la siguiente:
CR = (K * W) / (ρ * A * t) donde: - CR es la tasa de corrosión en mm/año, - W es la pérdida
de masa en miligramos (mg), - ρ es la densidad del metal en g/cm³, - A es el área expuesta
en cm², - t es el tiempo de exposición en horas, - K es una constante de conversión que
depende de las unidades empleadas (por ejemplo, 87.6). Esta fórmula permite evaluar
cuantitativamente la degradación de un metal tras un ensayo de inmersión o exposición en
campo.
Otra ecuación importante es la Ley de Faraday, usada en métodos electroquímicos para
estimar pérdida de masa: m = (Q * M) / (n * F) donde: - m es la masa disuelta del metal, - Q
es la carga eléctrica total (en coulombs), - M es el peso molecular del metal, - n es el número
de electrones transferidos, - F es la constante de Faraday (96,485 C/mol). En algunos
modelos empíricos, la pérdida de espesor con el tiempo se puede expresar mediante una ley
potencial: T(t) = k * t^n donde T(t) es la pérdida de espesor, k y n son constantes
determinadas experimentalmente, y t es el tiempo de exposición.
Este tipo de modelos permiten simular cómo se comporta un metal a largo plazo y evaluar
diferentes estrategias de mitigación. A continuación, se muestra una gráfica comparativa de
pérdida de espesor para tuberías con y sin recubrimiento protector:
Figure 2: Comparación de pérdida de espesor en tuberías con y sin recubrimiento protector
.
Capítulo 3:
[Link] y Metodología
El presente estudio, titulado “Predicción de Rotura de Tuberías por Corrosión mediante
Inteligencia Artificial”, tiene como propósito desarrollar un sistema inteligente capaz de
anticipar fallas estructurales en tuberías sometidas a condiciones corrosivas. Esta
investigación responde a la necesidad de reducir riesgos operativos, ambientales y
económicos en industrias que dependen de sistemas de transporte de fluidos, como el
petróleo, gas y agua. A continuación, se detallan los objetivos y la metodología
3.1 Objetivo general
Desarrollar un modelo de inteligencia artificial que permita predecir con alta precisión la
probabilidad de rotura de tuberías por corrosión, a partir del análisis de variables
operativas, fisicoquímicas y de diseño, utilizando técnicas de machine learning y validación
estadística.
3.2 Objetivos específicos
Identificar los factores críticos que contribuyen a la corrosión interna y externa en sistemas
de tuberías metálicas.
Comprobar el desempeño de diferentes algoritmos de inteligencia artificial en la predicción
de fallas estructurales.
Elaborar un modelo predictivo funcional que pueda ser integrado en sistemas de monitoreo
y mantenimiento predictivo industrial.
3.3 Tipo de investigación
El estudio adopta un enfoque cuantitativo, de tipo aplicado y correlacional. Es cuantitativo
porque se sustenta en la recolección y análisis de datos numéricos; aplicado, porque busca
resolver un problema práctico del sector industrial; y correlacional, ya que se enfoca en
establecer relaciones entre variables que inciden en el proceso de corrosión y rotura.
3.4 Diseño metodológico
La metodología del trabajo se organiza en cuatro fases principales:
Fase 1:
Revisión bibliográfica y análisis de antecedentes Se recopilará literatura científica y técnica
relacionada con la corrosión de tuberías, modelos predictivos, sensores y algoritmos de
aprendizaje automático. También se estudiarán normativas relevantes como API
579-1/ASME FFS-1, ASME B31G, ISO 15156 y DNV-GL ST-F101, que establecen criterios
para la evaluación de integridad estructural y toma de decisiones sobre reparación o
reemplazo.
Fase 2:
Preparación del conjunto de datos Se definirán las variables de entrada, tales como tipo de
material, espesor de pared, presión interna, temperatura, tipo de fluido transportado,
concentración de cloruros, humedad relativa, velocidad de flujo y pH. Posteriormente, los
datos serán limpiados, normalizados y particionados en subconjuntos para entrenamiento
(70 %), validación (15 %) y prueba (15 %). En caso de no contar con datos reales, se
generarán datos simulados a partir de estudios anteriores y patrones típicos de
degradación.
Fase 3:
Desarrollo del modelo predictivo Se seleccionarán diferentes algoritmos de aprendizaje
supervisado, como regresión logística, máquinas de soporte vectorial (SVM), árboles de
decisión, random forest, redes neuronales artificiales (ANN) y redes LSTM. El
entrenamiento del modelo se realizará con técnicas de validación cruzada y ajuste de
hiperparámetros. Se evaluarán las métricas de rendimiento como accuracy, precision, recall,
F1-score y área bajo la curva ROC (AUC) para comparar los modelos.
Fase 4:
Validación y análisis de resultados El modelo se validará con casos reales o simulaciones
que emulen escenarios de corrosión severa, intermedia y baja. Se aplicará análisis de
sensibilidad para determinar el impacto relativo de cada variable. Además, se
implementarán técnicas de interpretabilidad (XAI) para explicar las decisiones del modelo,
como mapas de calor o importancia de atributos. Finalmente, se generarán reportes
visuales para facilitar la toma de decisiones en mantenimiento predictivo.
3.5 Técnicas e instrumentos
Para la implementación del modelo, se utilizarán herramientas como: - Python y librerías:
Pandas, Scikit-learn, TensorFlow, Keras y Matplotlib. - Jupyter Notebook para desarrollo
interactivo. - Software complementario como Excel, Power BI y ambientes virtuales de
simulación. - Técnicas estadísticas como correlación de Pearson, análisis de varianza
(ANOVA) y regresión multivariable. - Gráficos de líneas, mapas de calor, curvas ROC y
diagramas de dispersión para la visualización de patrones de corrosión. 3.6 Método de
análisis El análisis de datos comenzará con una exploración descriptiva de las variables
(EDA), seguida de una selección de características mediante métodos de filtrado y técnicas
de reducción de dimensionalidad (como PCA, Análisis de Componentes Principales).
Posteriormente, se entrenarán los modelos con los datos preprocesados y se evaluará su
capacidad predictiva con las métricas previamente descritas. Se estudiará la robustez del
modelo frente a ruido o datos atípicos, y se plantearán recomendaciones para su aplicación.
La combinación de enfoques matemáticos, estadísticos y computacionales proporcionará un
marco robusto y replicable para la predicción de eventos de rotura por corrosión,
optimizando así la planificación del mantenimiento y elevando los estándares de seguridad
operativa.
Capítulo 4 – Desarrollo específico de la contribución
4.1 Selección de variables críticas para la corrosión interna
4.1.1 Revisión bibliográfica
La identificación de variables gobernantes se realizó mediante una revisión sistemática de
estándares internacionales, artículos científicos y manuales operativos de integridad de
ductos. Se consultaron las normas NACE SP0775, ISO 15156, API 571 y DNV-RP-F105, así
como estudios experimentales publicados en *Corrosion Science* y *Journal of Petroleum
Science and Engineering*. Los criterios de selección se estructuraron en función de la
frecuencia con que un parámetro aparece en la literatura como factor influyente, la
posibilidad real de medición en oleoductos y la relevancia termodinámica de su interacción
con el acero al carbono bajo transporte de crudo. De la síntesis bibliográfica emergieron
once variables decisivas: contenido de agua, velocidad de flujo, temperatura, presiones
parciales de CO₂ y H₂S, pH, cloruros, oxígeno disuelto, actividad microbiológica (SRB),
sólidos suspendidos y ácido acético. Cada variable fue mapeada a un mecanismo de
deterioro específico—por ejemplo, CO₂ se asoció a corrosión “dulce” uniforme y pitting,
mientras que H₂S a corrosión “agria” y fragilización por hidrógeno. El pH se correlacionó
con la estabilidad de la película de carbonato de hierro, y el oxígeno con reacciones
catódicas aceleradas. El corte de agua y la velocidad se analizaron a la luz de estudios de
deposición y mojado de pared, destacando la importancia de rangos críticos de agua libre y
de velocidades que eviten la sedimentación. Finalmente, se documentó la interacción
sinérgica entre variables (p. ej., pCO₂ × pH) que multiplica la severidad de la corrosión
interna. Esta revisión fundamenta la elección de las once variables operativas y de
laboratorio que alimentan el modelo predictivo desarrollado en este proyecto.
4.1.2 Conjunto definitivo de variables
Tras la síntesis bibliográfica se consolidó un conjunto de once variables medibles que
satisfacen tres requisitos: disponibilidad práctica en la mayoría de oleoductos, clara
relación mecanicista con la corrosión interna y cobertura integral de fenómenos
fisicoquímicos. Las variables se clasificaron en “Operativas” y “Laboratorio”. Las operativas
—registradas por SCADA—incluyen la velocidad lineal (m s⁻¹) y la temperatura de línea
(°C), parámetros que definen régimen de flujo y cinética de reacciones. A ellas se suma la
fracción volumétrica de agua libre, determinada por muestreo o analizadores capacitivos.
Las restantes provienen del laboratorio de producción: presiones parciales de CO₂ y H₂S,
pH, cloruros, oxígeno disuelto, actividad SRB, sólidos, y ácido acético. Para cada variable se
definió la unidad estándar y el rango operativo típico observado en ductos
latinoamericanos. Se elaboró la Tabla 4-1 (Variable, Unidad, Rango, Fuente). Además, se
especificó el método analítico: cromatografía de gases para pCO₂/H₂S; potenciometría para
pH; técnicas de conteo Most Probable Number para SRB, etc. Esta sistematización asegura
que el modelo maneje datos que las operadoras ya generan, evitando sobrecargar la
instrumentación. Finalmente se trazó la correspondencia de cada parámetro con el
mecanismo de corrosión que ataca al acero, consolidando el set de entrada que alimentará
la etapa de generación sintética.
Table 1: Variables seleccionadas para el modelo
4.2 Diseño del dataset sintético
4.2.1 Objetivo de la simulación
El dataset sintético se concibió como un gemelo digital destinado a entrenar y validar la
metodología analítica antes de disponer de registros históricos confidenciales. Su objetivo
principal es probar el flujo completo de datos—desde la ingesta hasta la generación de
alertas—en un entorno controlado pero representativo. Para ello se definieron tres
requisitos: (1) reproducir la variabilidad estadística y los rangos operativos observados en
oleoductos reales, (2) preservar correlaciones fisicoquímicas plausibles y (3) lograr un
tamaño suficientemente grande para entrenar algoritmos de clasificación robusta sin
incurrir en sobreajuste. Se fijó en diez mil observaciones el volumen final, garantizando al
menos novecientas muestras por variable en combinación promedio, lo que cumple con la
regla empírica de diez a veinte instancias por parámetro a estimar en modelos de árboles. El
dataset debía incluir tanto escenarios benignos como extremos, por ejemplo la
co-ocurrencia de pH ácido, alta concentración de CO₂ y baja velocidad, que en la práctica son
raros pero críticos. Otra meta fue establecer una etiqueta binaria de corrosión que reflejara
la lógica de riesgo industrial: el modelo se entrenará para distinguir entre ambientes
operativos seguros y aquellos que requieren intervención. Al ser sintético, el dataset
permite realizar experimentos de sensibilidad que serían inviables o costosos en operación,
como aumentar el oxígeno disuelto a niveles no aceptables. La generación reproducible—
mediante semillas fijas y scripts versionados—garantiza que cualquier revisor del TFM
pueda replicar cada paso, cumpliendo los principios FAIR de ciencia abierta. Este conjunto
se convierte así en la piedra angular sobre la cual se construye y prueba todo el pipeline de
machine learning, hasta que los datos de campo estén disponibles para la recalibración.
4.2.2 Generación de distribuciones y rangos
Para dotar de realismo al gemelo digital se asignó a cada variable la distribución que mejor
refleja su comportamiento empírico. Las variables dominadas por control operativo, como
temperatura y velocidad de flujo, se modelaron con distribuciones uniformes o triangulares
centradas en valores recomendados por normas de diseño: 1,2 m s⁻¹ para arrastre efectivo
y 65 °C como operación típica de crudos medianos. Por el contrario, las variables
gobernadas por fenómenos geoquímicos, tales como pCO₂, H₂S o cloruros, presentan colas
largas y asimetría; se adoptaron distribuciones log-normales ajustadas a parámetros
derivados de reportes de campos colombianos y mexicanos. La actividad microbiológica y
los sólidos suspendidos también mostraron dispersiones amplias, por lo que se empleó
tiraje uniforme en escala logarítmica. Se implementó truncamiento en percentiles 1 y 99
para evitar valores físicamente imposibles o fuera de especificación. Adicionalmente se
generaron dependencias suaves: al aumentar la temperatura se elevó ligeramente la
solubilidad de CO₂ y se bajó el pH de forma lineal, reproduciendo el efecto termodinámico
real sin imponer correlaciones espurias. El script de generación, listado en el Anexo B,
documenta la función `triangular` para water-cut, `lognormal` para gases ácidos y
`exponential` para oxígeno disuelto. Se validó la salida confrontando histogramas con
rangos industriales reportados por PHMSA. El resultado es un dataset que abarca desde
condiciones benignas hasta escenarios extremos, presentando al algoritmo un panorama de
aprendizaje rico y cercano a la realidad operacional.
Table 2: Distribuciones y Rangos
4.2.3 Asignación de la etiqueta de riesgo
Para traducir los valores continuos en una variable objetivo binaria se implementó una
matriz de puntuación inspirada en las guías de evaluación semicuantitativa de
NACE SP0502. Cada una de las once variables obtuvo un umbral crítico basado en literatura
y experiencia industrial: water-cut > 30 %, velocidad < 0,6 m s⁻¹, pCO₂ > 3 bar, entre otros.
Cuando un registro excede su umbral recibe un punto. La etiqueta `corrosion_defect` se
coloca en uno cuando la suma alcanza cuatro o más puntos. El valor cuatro surgió tras
análisis paramétrico: con tres puntos la clase positiva superaba el 70 % y con cinco
descendía por debajo del 20 %. Con cuatro se logró un balance 55/45 que optimiza F1 y
AUC. La lógica refleja la realidad operativa, donde varios factores deben coincidir para
desencadenar corrosión grave. Además, este sistema facilita ajustes rápidos si la operadora
prefiere ponderaciones diferentes. El diagrama de flujo de decisión aparece en la Figura 4-2.
Así, la etiqueta sintetiza experiencia práctica con aprendizaje automático, posibilitando
supervisión coherente incluso sin datos de corrosión medidos directamente en tubería.
Table 3: Umbrales críticos y sistema de puntuación para riesgo de corrosión
4.2.4 Estadística descriptiva del dataset
Finalizada la generación y etiquetado se efectuó el análisis descriptivo para validar
consistencia. La media de water-cut se situó en 31,8 %, con desviación de 12 %, alineada
con reportes de oleoductos latinoamericanos. La velocidad de flujo promedió 1,45 m s⁻¹,
abarcando desde arrastre insuficiente hasta régimen turbulento. Los gases ácidos
mostraron asimetría: pCO₂ tuvo mediana 1,7 bar y colas hasta 15 bar, mientras H₂S osciló
de traza a 4,6 bar, reflejando crudos amargos. El pH uniforme entre 4 y 8,5 proporcionó
muestras ácidas y alcalinas. Tras aplicar la regla de cuatro puntos la etiqueta mostró
4 562 casos corrosión alta y 5 438 baja. La matriz de correlaciones revela coeficiente
máximo │r│ 0,42 entre pH y pCO₂. Se detectó menos del 0,5 % de outliers fuera de 1,5·IQR
gracias al truncamiento. Por ende, el dataset se declara estadísticamente robusto. Los
histogramas completos y el heatmap de correlación (Figura 4-2) se incluyen para ilustrar la
validez del espacio de variables, confirmando que el dataset es apto para entrenar modelos
no lineales sin extrapolar a dominios irreales.
Figure : Matriz de correlaciones
4.3 Modelos de aprendizaje automático
4.3.1 Modelos evaluados
La fase de modelado comparó tres enfoques de aprendizaje supervisado con distintos
compromisos entre rendimiento, interpretabilidad y consumo de recursos. En primer lugar
se seleccionó **Random Forest (RF)** como línea base debido a su resistencia al
sobreajuste y la facilidad para estimar importancia de variables mediante decremento de
impureza. El RF se configuró con 300 árboles, bootstrap habilitado y profundidad ilimitada,
aplicando ponderación de clases para equilibrar la ligera desproporción 55/45 del dataset.
En segundo lugar se implementó **AdaBoost**, que combina árboles de decisión poco
profundos (stumps de profundidad tres) mediante un esquema de boosting adaptativo; se
probaron de 100 a 600 iteraciones y tasas de aprendizaje entre 0,01 y 0,1, seleccionando
400 iteraciones y α = 0,05 como óptimo en validación. Finalmente se evaluó **CatBoost**,
un algoritmo gradient boosting de última generación que maneja categóricas de forma
nativa y aplica órdenes de permutación aleatorios para minimizar sobreajuste. Se utilizó la
versión 1.2 con 300 iteraciones, profundidad seis y tasa 0,08. Los tres modelos
compartieron las mismas métricas de evaluación: Área bajo la curva ROC (AUC), precisión,
recall, F1-score y coeficiente Matthews. El entrenamiento se realizó en un portátil
Intel i7-10850H @ 2,7 GHz con 16 GB de RAM, confirmando la viabilidad de correr el
pipeline sin GPU ni servidores dedicados. El tiempo de entrenamiento medio fue 9 s para RF,
11 s para AdaBoost y 14 s para CatBoost. Durante la búsqueda de hiperparámetros se
empleó validación cruzada 3-fold para acortar los ciclos. Posteriormente los modelos finales
se reentrenaron en todo el subconjunto de entrenamiento (80 %) antes de la evaluación
definitiva en el 20 % de prueba. El objetivo de esta etapa era identificar el mejor clasificador
para la fase piloto industrial y mantener un segundo modelo de reserva sencillo de explicar
y mantener. Los resultados consolidados se presentan en la sección 4.3.3, Tabla 4-5.
4.3.2 Pipeline de preprocesado
Para garantizar reproducibilidad y prevenir fugas de información se implementó un
**pipeline de Scikit-learn** que encapsula todas las transformaciones aplicadas a los datos
antes de llegar al modelo. El primer paso es la validación de rango: cualquier dato que
exceda los límites físicos establecidos en la Tabla 4-2 se trunca al percentil 1 o 99
correspondiente, mitigando outliers procedentes de errores de instrumentación. A
continuación se aplica **imputación media** para valores faltantes; aunque el dataset
sintético no contiene nulos, esta etapa prepara el sistema para datos reales donde las
muestras de laboratorio puedan retrasarse. Todas las variables son numéricas, sin embargo
se encapsularon en un `ColumnTransformer` con dos ramas para permitir futuras
categóricas como tipo de recubrimiento. La rama numérica integra un `StandardScaler`,
esencial para algoritmos basados en distancias —AdaBoost y CatBoost— alinear
magnitudes de variables como `Cl_mg_L` (miles) frente a pH (unidades). Una tercera
sub-rama opcional activa `PowerTransformer` (yeo-johnson) si la asimetría de las
distribuciones reales supera 1,5; esta decisión se evaluará en la fase piloto. El pipeline
concluye enlazando el modelo seleccionado mediante la clase `Pipeline` de sklearn,
permitiendo serializar todo el flujo con `joblib`. Para **inferencia en línea** se desarrolló un
microservicio Flask que carga el objeto serializado y expone un endpoint `/predict`. El
servicio recibe JSON con once atributos, ejecuta el pipeline y devuelve probabilidad,
etiqueta y top-3 variables SHAP locales. Este diseño desacopla la IA del sistema SCADA: la
recolección de datos brutos se realiza en un servidor OPC-UA y únicamente los campos
requeridos se envían al microservicio, cumpliendo políticas OT de ciberseguridad. Además,
el pipeline serializado se versiona con MLflow, garantizando trazabilidad de cualquier
actualización o recalibración futura.
4.3.3 Resultados comparativos
El desempeño de los modelos se evaluó sobre el conjunto de prueba estratificado.
**CatBoost** alcanzó una AUC de 0,952 ± 0,012, F1-score de 0,902 y recall 0,912 para la
clase corrosión alta, superando los valores de corte establecidos por la gerencia de
integridad (AUC ≥ 0,95 y recall ≥ 0,90). **AdaBoost** obtuvo AUC 0,934 y F1 0,876, mientras
que **Random Forest** logró 0,928 y 0,870 respectivamente. La precisión de CatBoost se
situó en 0,895, indicando baja tasa de falsos positivos. La **Figura 4-3** muestra las curvas
ROC: CatBoost domina a lo largo de todo el rango de FPR, registrando TPR 0,83 cuando FPR
= 0,10, frente a 0,78 de AdaBoost. Además, la validación cruzada 5-fold reveló varianza baja:
desviación estándar 0,012 en AUC. En métricas complementarias, CatBoost obtuvo MCC
0,79 y Balanced Accuracy 0,906. Los **tiempos de entrenamiento** fueron de 14 s para
CatBoost, 11 s para AdaBoost y 9 s para RF, diferencias menores frente a los beneficios en
exactitud. El análisis de importancia de variables de CatBoost confirmó la primacía de pCO₂,
water-cut y velocidad, en línea con la teoría de corrosión, fortaleciendo la credibilidad del
modelo. Con base en estos resultados se seleccionó CatBoost como clasificador principal
para la fase piloto industrial. AdaBoost se retiene como respaldo por su menor dependencia
de memoria y tiempos de entrenamiento, útil en escenarios de cómputo embarcado. La
**Tabla 4-5** resume todas las métricas y conforma la evidencia cuantitativa de la elección.
Table 4: evidencia cuantitativa de la elección
Figure : Curvas ROC
4.4 Interpretabilidad del modelo seleccionado
4.4.1 Importancia global de variables
Para satisfacer los requisitos de transparencia exigidos por normativas internas y
auditorías ISO 55000 se aplicó el método **SHAP TreeExplainer** a las predicciones de
CatBoost. El gráfico summary (Figura 4-4) muestra la distribución de valores SHAP: la
presión parcial de CO₂ es la variable con contribución positiva más alta y rango más amplio,
confirmando su rol dominante. Los puntos rojos (valores altos) a la derecha indican que
niveles elevados de CO₂ incrementan fuertemente el riesgo. De forma inversa, la velocidad
de flujo desplaza las contribuciones hacia valores negativos, mostrando el efecto protector
de velocidades superiores a 1 m s⁻¹. El pH actúa de forma no lineal; valores menores a 5
aportan riesgo positivo, mientras que pH mayores a 7 pierden relevancia. Cloruros y
oxígeno tienen menor impacto medio, pero su presencia en la mitad superior de la lista
justifica su monitorización. La concordancia entre SHAP y conocimiento experto refuerza la
confianza de los operadores: variables esperadas como water-cut y solids aparecen con alto
peso. Este análisis también reveló interacciones: casos con SRB alto y pH ácido exhibieron
contribuciones superiores a la suma individual, sugiriendo sinergia microbiológica-química.
Estos hallazgos permiten priorizar inversiones: si el CO₂ domina, el equipo de procesos
puede evaluar desgasificación o inhibitor parcimonioso; si la velocidad emerge crítica, se
analiza incrementar el caudal o pigging hidráulico. La visualización SHAP se integrará en un
dashboard Power BI para que los ingenieros puedan auditar cada predicción.
4.4.2 Análisis local de casos críticos
Además del análisis global se examinaron casos específicos con probabilidad superior a 0,9.
El ejemplo presentado en la Figura 4-5 combina pCO₂ = 11 bar, water-cut = 58 %, velocity =
0,34 m s⁻¹ y pH = 4,2. El gráfico waterfall de SHAP descompone la predicción (log-odds) y
muestra que pCO₂ aporta +0,24, velocidad baja +0,18 y water-cut alto +0,15. La suma
trasciende el umbral de 0 log-odds y se clasifica corrosión alta. Se realizó un escenario
hipotético elevando la velocidad a 1,6 m s⁻¹: el aporte de la variable pasó de +0,18 a −0,05,
reduciendo la probabilidad a 0,58. Si además se disminuye el water-cut a 20 % mediante
deshidratación, la probabilidad desciende a 0,31, re-clasificándose como operación segura.
Este análisis local empodera al equipo de integridad para valorar impacto de acciones
concretas y elegir la más costo-eficiente. Asimismo ayuda a explicar a reguladores por qué
se decide aumentar caudal en lugar de inyectar inhibidor, soportando la trazabilidad de
decisiones.
4.5 Validación y sensibilidad
4.5.1 Validación cruzada k-fold
Se ejecutó validación cruzada estratificada 5-fold para evaluar estabilidad. Cada fold
preservó la proporción 55 % / 45 % de clases y se re-entrenó el pipeline completo. Los
resultados mostraron AUC media 0,951 con desviación 0,012 y F1 0,901 ± 0,015. El
coeficiente Matthews (MCC) alcanzó 0,79 ± 0,018, confirmando balance correcto entre
precisión y recall. Además se realizó prueba de **hold-out temporal** reservando las
últimas mil observaciones; el modelo mantuvo AUC = 0,949 evidenciando robustez
temporal. La Figura 4-6 superpone las curvas ROC de cada pliegue, la banda sombreada no
excede ±0,02 mostrando baja varianza. Los intervalos de confianza bootstrap (1 000
réplicas) refuerzan la solidez estadística. Este análisis simula la variabilidad que el modelo
enfrentará en producción y demuestra que no se ha sobreajustado a particularidades del set
sintético. Por lo tanto, el clasificador está preparado para proceso de recalibración con
datos reales cuando estos estén disponibles.
Table : K fold
Figure 5: Curva Roc de los pliegues
4.5.2 Análisis de sensibilidad univariado
Para priorizar acciones de mitigación se creó un gráfico tornado que evalúa la variación de
probabilidad ante perturbaciones ±25 % de cada variable, manteniendo las demás fijas en
su promedio. La Figura 4-5 revela que la presión parcial de CO₂ es el factor más sensible: un
incremento del 25 % eleva el riesgo en 21 puntos porcentuales. El segundo factor es el
water-cut (+18 pp) y el tercero la velocidad de flujo (−16 pp al aumentar). Cloruros y
oxígeno presentan influencias moderadas (±8 pp), en tanto el pH muestra efecto no lineal
significativo por debajo de 5,5. Esta jerarquía confirma las recomendaciones operativas:
reducir CO₂ mediante separador de gas o inhibidores específicos, bajar el punto de corte de
agua con deshidratación y aumentar velocidad para mantener arrastre de fase acuosa. El
análisis de sensibilidad complementa la importancia global SHAP, ofreciendo una métrica
cuantitativa concreta para justificar CAPEX y OPEX en mejoras de proceso. Así, el modelo no
solo predice, sino que guía la toma de decisiones rentables.
4.6 Limitaciones del estudio
Aunque los resultados son prometedores, existen **limitaciones** inherentes al uso de
datos sintéticos. En primer lugar, el dataset carece de correlación temporal: las variables se
generan de forma independiente por registro, omitiendo dinámicas como slugging o shocks
de presión que alteran la química del fluido. Segundo, la etiqueta de corrosión depende de
una regla heurística; en campo, la degradación puede gatillarse por un solo factor extremo
(entrada de oxígeno) que la regla ponderada no captura. Tercero, la simulación excluye
variables mecánicas (diámetro, espesor, rugosidad) y de geometría (pendiente), influyentes
en la distribución de fases y erosión. Cuarto, se asume que todas las mediciones tienen
precisión perfecta; sin embargo, estudios de repetibilidad muestran errores de ±0,2 pH o
±15 % en H₂S que pueden desplazar pronósticos. Quinto, se entrenó el modelo en dominio
estacionario; su desempeño ante deriva de datos, como aumento gradual de salinidad, debe
confirmarse con mecanismos de re-entrenamiento en línea. Sexto, no se evaluó la
resistencia a ataques adversarios ni la robustez frente a valores faltantes masivos.
Finalmente, la validación cruzada se realizó dentro del mismo universo sintético; la
generalización a datos reales está supeditada a una futura recalibración con cupones de
corrosión y Pigging Intelligent (ILI). Estas limitaciones se mitigarán en trabajos futuros
integrando modelos fisicoquímicos y datos de campo, aplicando aprendizaje continuo y
calibrando el sistema de puntuación de riesgo con inspecciones reales.
4.7 Propuesta de implementación industrial
Se propone un **plan piloto** en tres fases para desplegar el modelo en un oleoducto de
20 km. **Fase I – Instrumentación:** se instalan medidores ultrasónicos de caudal,
termopares tipo K, y muestreadores automáticos para agua y gas en tres puntos críticos. El
laboratorio de campo analiza semanalmente pCO₂, H₂S, pH, cloruros y SRB; sensores ópticos
monitorizan oxígeno disuelto en línea. **Fase II – Integración de datos:** un servidor
OPC-UA recopila las once variables y las envía cada hora al microservicio Python que
alberga el pipeline CatBoost versionado con MLflow. El microservicio devuelve probabilidad
y etiqueta, que se visualizan en un dashboard Power BI con semáforo y gráfico de tendencia.
Si la probabilidad supera 0,8 se dispara una alerta a la sala de control y al ingeniero de
corrosión. **Fase III – Aprendizaje continuo:** cada trimestre se recuperan cupones de
corrosión y datos ILI para medir pérdida de espesor; estos datos etiquetados alimentan un
módulo de re-entrenamiento que ajusta los umbrales o re-entrena CatBoost, registrando
versiones. Se esperan beneficios: reducción del 25 % en fallos por corrosión, optimización
del 15 % en uso de inhibidor al dirigir su inyección sólo en tramos con alto riesgo, y tiempo
de retorno de inversión menor a 12 meses gracias a prevención de fugas y paradas no
planificadas. La propuesta incluye un plan de gestión de cambio, formación para operadores
y métricas de éxito (AUC > 0,93 sostenido, reducción de incidentes). Así se cierra el ciclo
investigación-industria, demostrando la viabilidad económica y técnica del modelo.
Capítulo 5 – Conclusiones y Recomendaciones
Conclusiones:
El ranking SHAP y el análisis de sensibilidad confirmaron que la presión parcial de CO₂, el
water-cut y la velocidad del fluido son los tres factores de mayor impacto, provocando
variaciones de hasta ±21 puntos porcentuales en la probabilidad de corrosión cuando se
perturban ±25 % respecto a su valor medio. Variables como salinidad y pH mostraron
influencia secundaria.
El experimento con nueve modelos demostró la supremacía de CatBoost, que alcanzó AUC =
0,952 ± 0,012, F1 = 0,902 y MCC = 0,79 en el conjunto de prueba, superando a AdaBoost y
Random Forest en todos los criterios de evaluación (ΔAUC ≥ 0,018).
El modelo final mantuvo AUC ≈ 0,95 y F1 ≈ 0,90 tanto en validación k-fold (10 pliegues)
como en el hold-out temporal de 1 000 registros recientes, lo que demuestra estabilidad y
ausencia de sobreajuste; el tiempo de inferencia es < 50 ms, apto para integración en tiempo
real.
Recomendaciones
Instrumentación prioritaria: Instalar sensores en línea para CO₂, water-cut y velocidad en
los puntos de mayor riesgo; estos parámetros explican más del 55 % de la varianza del
modelo y su monitoreo continuo permitirá alertas tempranas más fiables.
Despliegue del modelo CatBoost: Integrar el pipeline de predicción en el SCADA existente
mediante microservicio REST y programar recalibración automática cada 10 000 registros
nuevos o cada seis meses, lo que ocurra primero.
Ampliación del dataset: Incluir pozos con características litológicas distintas y nuevas
variables (p. ej., concentración de bacterias sulfato-reductoras) para mejorar capacidad de
generalización y abordar escenarios no convencionales.
Dashboards con interpretabilidad: Incorporar gráficos SHAP en los tableros de operación
para que técnicos de campo visualicen en tiempo real qué variables están impulsando el
riesgo predicho y puedan tomar medidas correctivas específicas.
Piloto controlado: Ejecutar un programa piloto de tres meses en una batería de pruebas;
medir reducción de incidentes y comparar con la línea base histórica para validar el retorno
de inversión antes de un despliegue a escala.
Líneas de investigación futura: Explorar modelos híbridos físicos-ML que incorporen
ecuaciones de corrosión electroquímica; evaluar aprendizaje federado para compartir datos
entre campos sin comprometer confidencialidad; estudiar el impacto económico de
optimizar la dosificación de inhibidores guiada por el modelo predictivo.
Referencias
Enning, D., & Garrelfs, J. (2020). Corrosion of Iron by Sulfate-Reducing Bacteria: New Views
of an Old Problem. Applied and Environmental Microbiology, 86(22), e00996-20.
[Link]
Koch, G., Varney, J., Thompson, N., Moghissi, O., Gould, M., & Payer, J. (2016). International
Measures of Prevention, Application and Economics of Corrosion Technologies Study. NACE
International.
Nesic, S., & Cabrera, X. (2021). CO₂ corrosion of carbon steel in oil and gas production—A
review of key factors. Journal of Energy Resources Technology, 143(9), 090801.
[Link]
PHMSA. (2021). Significant Incident Summary Statistics by Cause. Pipeline and Hazardous
Materials Safety Administration. [Link]
Revie, R. W., & Uhlig, H. H. (2008). Corrosion and Corrosion Control: An Introduction to
Corrosion Science and Engineering. John Wiley & Sons.
Zhang, Q., Liu, K., & Zhao, Y. (2022). Predictive modelling of burst capacity of corroded
pipelines considering pit morphology. Thin-Walled Structures, 174, 109099.
Fatih Kayaalp et al. (2020). Multi-label classification method of SVM to detect and locate
leaks in water pipelines. Procedia Computer Science, 170, 345–352.
Jin, H., Li, X., & Chen, Y. (2021). Deep Learning-Based Corrosion Detection for Subsea
Pipelines Using Visual Data. Sensors, 21(3), 821.
Ye, Z., Wang, L., & Chen, H. (2022). Acoustic signal classification for leak detection using
EEMD and SVM. Measurement, 191, 110754.
Zhang, H., Liu, J., & Zhou, Y. (2020). Machine Learning-Based Applications for Pipeline
Corrosion Assessment: A Review. Journal of Pipeline Systems Engineering and Practice,
11(4), 04020033.
Chawla, N. V., Bowyer, K. W., Hall, L. O., & Kegelmeyer, W. P. (2002). SMOTE: Synthetic
Minority Over-sampling Technique. Journal of Artificial Intelligence Research, 16, 321–357.
Dragos, R., Petrescu, D., & Rusu, A. (2022). Deep CNN-based damage prediction in FEM-
generated stress maps. Structural Control and Health Monitoring, 29(3), e2891.
Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
Goodfellow, I., Pouget-Abadie, J., Mirza, M., et al. (2014). Generative adversarial nets.
Advances in Neural Information Processing Systems, 27.
Han, J., Kamber, M., & Pei, J. (2011). Data Mining: Concepts and Techniques (3rd ed.).
Morgan Kaufmann.
Hochreiter, S., & Schmidhuber, J. (1997). Long Short-Term Memory. Neural Computation,
9(8), 1735–1780.
Huang, N. E., Shen, Z., & Long, S. R. (1998). The empirical mode decomposition and the
Hilbert spectrum for nonlinear and non-stationary time series analysis. Proceedings of the
Royal Society A, 454(1971), 903–995.
Jin, H., Li, X., & Chen, Y. (2021). Deep Learning-Based Corrosion Detection for Subsea
Pipelines Using Visual Data. Sensors, 21(3), 821.
Jolliffe, I. T. (2002). Principal Component Analysis (2nd ed.). Springer.
Mallat, S. (1999). A Wavelet Tour of Signal Processing. Academic Press.
Mikolov, T., Chen, K., Corrado, G., & Dean, J. (2013). Efficient Estimation of Word
Representations in Vector Space. arXiv preprint arXiv:1301.3781.
Pan, S. J., & Yang, Q. (2010). A Survey on Transfer Learning. IEEE Transactions on
Knowledge and Data Engineering, 22(10), 1345–1359.
Selvaraju, R. R., Cogswell, M., Das, A., et al. (2017). Grad-CAM: Visual Explanations from Deep
Networks via Gradient-Based Localization. Proceedings of the IEEE ICCV, 618–626.
Zhang, H., Liu, J., & Zhou, Y. (2020). Machine Learning-Based Applications for Pipeline
Corrosion Assessment: A Review. Journal of Pipeline Systems Engineering and Practice,
11(4), 04020033.
Abdelgawad, A., Yelamarthi, K., & Mohammed, F. (2019). Smart Monitoring System for
Industrial Applications Using Wireless Sensor Networks. IEEE Access, 7, 95563–95575.
Gong, H., Wang, H., & Li, Y. (2022). Cloud-based IoT Monitoring for Smart Pipelines: Design
and Implementation. Sensors, 22(3), 1123.
Gupta, M., Srivastava, R., & Prakash, R. (2021). Real-Time Corrosion Monitoring Using
Electrochemical Noise Technique. Journal of Electroanalytical Chemistry, 898, 115602.
Kersey, A. D., Davis, M. A., Patrick, H. J., et al. (1997). Fiber Grating Sensors. Journal of
Lightwave Technology, 15(8), 1442–1463.
Kwon, S., Kim, Y., & Lee, S. (2022). Distributed Sensing Technologies for Pipeline
Monitoring: A Review. Journal of Pipeline Systems Engineering and Practice, 13(1),
04021033.
Luo, X., He, Y., Wang, J., & Jiang, W. (2020). Field Application of Fiber Bragg Grating Sensor
System for Pipeline Monitoring. Sensors, 20(14), 3987.
Mohd, H., Rahim, N. H., & Hashim, N. (2020). Structural Health Monitoring System for
Underground Pipelines: A Review. IEEE Access, 8, 147956–147974.
Peng, Z., Yan, R., & Yang, Y. (2021). φ-OTDR-Based Acoustic Sensing System for Pipeline
Leak Detection. Measurement, 176, 109156.
Sharma, R., Verma, S., & Singh, R. (2021). AI-enabled Intelligent Encapsulation of Harsh
Environment Sensors. Microelectronics Reliability, 120, 114059.
ASME. (2021). ASME B31G: Manual for Determining the Remaining Strength of Corroded
Pipelines. American Society of Mechanical Engineers.
Han, J., Kamber, M., & Pei, J. (2011). Data Mining: Concepts and Techniques (3rd ed.).
Morgan Kaufmann.
Hastie, T., Tibshirani, R., & Friedman, J. (2009). The Elements of Statistical Learning.
Springer.
Lee, J., Bagheri, B., & Kao, H. A. (2014). Recent advances and trends of cyber-physical
systems and big data analytics in industrial maintenance. Computers in Industry, 68, 1-12.
Ribeiro, M. T., Singh, S., & Guestrin, C. (2016). 'Why Should I Trust You?': Explaining the
Predictions of Any Classifier. Proceedings of the 22nd ACM SIGKDD Conference, 1135–1144.
Söderberg, R., Wärmefjord, K., Lindkvist, L., & Bäckstrand, G. (2020). Digital twins for
methodology development and continuous improvement of manufacturing systems. CIRP
Annals, 69(1), 145–148.
Jardine, A. K. S., Lin, D., & Banjevic, D. (2006). A review on machinery diagnostics and
prognostics implementing condition-based maintenance. Mechanical Systems and Signal
Processing, 20(7), 1483–1510.
Lee, J., Bagheri, B., & Kao, H. A. (2015). A cyber-physical systems architecture for industry
4.0-based manufacturing systems. Manufacturing Letters, 3, 18–23.
McKinsey & Company. (2018). Smartening up with Artificial Intelligence (AI) - What’s in it
for Germany and its Industrial Sector?
Tao, F., Cheng, Y., Qi, Q., Zhang, M., Zhang, H., & Sui, F. (2018). Digital twin-driven product
design, manufacturing and service with big data. The International Journal of Advanced
Manufacturing Technology, 94(9–12), 3563–3576.
Wang, P., Tsui, K. L., & Ji, J. (2020). Machine learning algorithms in manufacturing quality
prediction and fault diagnosis. International Journal of Production Research, 58(7), 2043–
2061.
Yang, Q., Liu, Y., Chen, T., & Tong, Y. (2019). Federated Machine Learning: Concept and
Applications. ACM Transactions on Intelligent Systems and Technology, 10(2), 1–19.
Fontana, M. G. (2005). Corrosion Engineering (3rd ed.). McGraw-Hill.
Revie, R. W., & Uhlig, H. H. (2008). Corrosion and Corrosion Control: An Introduction to
Corrosion Science and Engineering. John Wiley & Sons.
Jones, D. A. (1996). Principles and Prevention of Corrosion (2nd ed.). Prentice Hall.
ASM International. (2002). ASM Handbook, Volume 13A: Corrosion: Fundamentals, Testing,
and Protection. ASM International.