0% encontró este documento útil (0 votos)
357 vistas104 páginas

Curso Diseño de Procesos

El documento define la ingeniería química como la aplicación de la ciencia, en particular la química, física, biología y matemáticas, para convertir materias primas en productos más útiles. Los ingenieros químicos diseñan, operan y optimizan procesos industriales que involucran cambios físicos, químicos o bioquímicos. La ingeniería química ha evolucionado desde los estudios pioneros de termodinámica en el siglo XIX y ahora se aplica en una variedad de ind
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOC, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
357 vistas104 páginas

Curso Diseño de Procesos

El documento define la ingeniería química como la aplicación de la ciencia, en particular la química, física, biología y matemáticas, para convertir materias primas en productos más útiles. Los ingenieros químicos diseñan, operan y optimizan procesos industriales que involucran cambios físicos, químicos o bioquímicos. La ingeniería química ha evolucionado desde los estudios pioneros de termodinámica en el siglo XIX y ahora se aplica en una variedad de ind
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOC, PDF, TXT o lee en línea desde Scribd

1.- Introducción: ¿Qué es la Ingeniería Química?

En términos generales, la ingeniería química es la aplicación de la ciencia, en particular,


química, física, biología y matemática, al proceso de convertir materias primas o
productos químicos en productos más útiles, aprovechables o de mayor valor.

En términos más precisos, se puede decir que:

Ingeniería Química es la rama de la Ingeniería que se dedica al estudio, síntesis,


desarrollo, diseño, operación y optimización de todos aquellos procesos industriales que
producen cambios físicos, químicos y/o bioquímicos en los materiales.

La definición que aparece actualmente en la Constitución del Instituto Americano de


Ingenieros Químicos (AIChE) es:

Ingeniería Química es la profesión en la cual el conocimiento de la matemática, química


y otras ciencias básicas, ganados por el estudio, la experiencia y la práctica, es aplicado
con juicio para desarrollar maneras económicas de usar materiales y energía para el
beneficio de la humanidad.

Una breve Historia

En 1824, el físico francés Sadi Carnot, en su investigación "en la energía motiva del
fuego", fue el primero en estudiar la termodinámica de las reacciones de la combustión
en motores de vapor. Durante la década de los 1850s, el físico alemán Rudolf Clausius
comenzó a aplicar los principios desarrollados por Carnot a los sistemas de productos
químicos en lo atómico a escala molecular. Durante los años 1873 a 1876 en la
universidad de Yale, el físico matemático americano Josiah Willard Gibbs, fue el
primero en dirigir en los Estados Unidos, una serie de tres escritos, desarrolló una
metodología matemática basada, en la gráfica, para el estudio de sistemas químicos
usando la termodinámica de Clausius. En 1882, el físico alemán Hermann von
Helmholtz, publicó un escrito con fundamentos de la termodinámica, similar a Gibbs,
pero con una base más electro-química, en la cual él demostró esa medida de afinidad
química, es decir la "fuerza" de las reacciones químicas, que es determinada por la
medida de la energía libre del proceso de la reacción. Después de estos progresos
tempranos, la nueva ciencia de la Ingeniería Química comenzó a transformarse. Los
siguientes hechos demuestran algunos de los pasos dominantes en el desarrollo de la
ciencia de la ingeniería química:

1888 - Lewis M. Norton comienza un nuevo plan de estudios en el Instituto de


Tecnología de Massachusetts (MIT): Curso X, Ingeniería Química
1908 - Se funda el Instituto Americano de Ingenieros Químicos (AIChE).
1922 - Se funda la institución Británica de Ingenieros Químicos (IChemE).

Actividades del Ingeniero Químico

Los Ingenieros Químicos están involucrados en todas las actividades que se relacionen
con el procesamiento de materias primas (de origen animal, vegetal o mineral) que

1
tengan como fin obtener productos de mayor valor y utilidad. Por lo tanto, pueden
desarrollar sus actividades en:

Plantas industriales / Empresas Productivas


Empresas de construcción y/o montaje de plantas y equipos
Empresas proveedoras de servicios técnicos (consultoría, control de calidad,
mantenimiento, etc.)
Organismos gubernamentales o no gubernamentales de acreditación, control y
estándares
Instituciones de educación superior
Centros de Investigación y Desarrollo (Industriales / Académicos).

Las tareas que puede realizar un Ingeniero Químico son variadas; pueden mencionarse
las siguientes a modo de ejemplo:

Estudios de factibilidad técnico-económica


Especificación / Diseño de equipos y procesos
Construcción / Montaje de equipos y plantas
Control de Producción / Operación de Plantas Industriales
Gerencia y Administración
Control de Calidad de Productos
Compras y Comercialización
Ventas Técnicas
Control Ambiental
Investigación y Desarrollo de Productos y Procesos
Capacitación de Recursos Humanos.

Típicamente, los ingenieros químicos son empleados en industrias de sectores


tradicionales, como el químico, petroquímico, gas y petróleo, y de alimentos.
Recientemente, han ido ganando incumbencia en áreas como la ambiental y la
biotecnología.

Entre los sectores industriales más importantes que emplean a profesionales de la


Ingeniería Química se encuentran:

Industria Química / Petroquímica


Gas y Petróleo / Refinerías
Alimentos y Bebidas / Biotecnología
Siderúrgica / Metalúrgica / Automotriz
Materiales / Polímeros / Plásticos
Generación de energía
Otras (Farmacéutica, Textil, Papelera, Minera, etc.)

2
2. El Diseño de Procesos

Existen tres etapas fundamentales el la ingeniería de procesos: síntesis, análisis y


optimización.

La etapa de síntesis de un proceso implica el definir las entradas y salidas del sistema,
en este caso las características de materias primas y productos deseados y estipular la
estructura del proceso que se requiere para llevar a cabo la transformación deseada de
los reactivos a productos.

La etapa de análisis (o simulación) de un proceso consiste en definir las entradas o


materias primas y el diagrama de flujo del proceso para indagar las salidas que se
pueden obtener. Debe ser claro que cada solución al problema original de la síntesis de
un proceso implica un nuevo problema de análisis del proceso: una vez que se define el
diagrama de flujo del problema original se planeará el análisis o simulación para
establecer las salidas que se obtienen y compararlas con las que se habían estipulado
originalmente.

En la optimización de un proceso, una vez que se agotan los grados de libertad en forma
de variables de diseño se plantea una función objetivo que trata de minimizar algún tipo
de entradas o costos del proceso. O bien de maximizar algún tipo de salidas o beneficios
del proceso para en función de este objetivo obtener las mejores variables de diseño.

De nuevo existe una interrelación entre esta etapa y las otras dos de ingeniería de
procesos. La solución al problema de síntesis puede auxiliarse mediante alguna técnica
de optimización y cada punto de búsqueda del proceso de optimización puede implicar
la simulación del proceso bajo ese conjunto particular de condiciones de operación que
se están explorando en busca de la solución óptima.

3
Definición del problema
Aclaración de Objetivos
Requerimientos del Cliente Establecer requisitos del cliente
(Necesidades) Identificar restricciones
Establecer funciones

Verificación

Establecer especificaciones de
diseño. Diseño conceptual
Generar alternativas.

Modelo / Análisis del diseño. Diseño preliminar


Prueba / Evaluar el diseño.

Refinar / Optimizar diseño. Diseño de detalle

Diseño final y Revisión del Diseño y


documentación documentos

Validación
Producto final
(Objetivo del diseño)

Figura 2.1. Etapas del Diseño de Procesos

4
3. Ingeniería de Costos

Un proceso industrial (o un nuevo proceso) sólo tiene estabilidad en el mercado si su


aspecto económico es favorable. Se pueden identificar tres tipos de niveles en el diseño
de procesos:
1. Diseño preliminar.
2. Estudio de preinversión.
3. Diseño final (ingeniería de detalle).

En el primer nivel se toma información básica del proyecto con diseños aproximados y
escenarios económicos simples para llegar a un diagnostico preliminar sobre el
potencial económico del proceso. Esta etapa debe hacerse en forma tan rápida como sea
posible para tomar la decisión de continuar con el proyecto si existe un potencial
favorable. O terminarlo y no invertir tiempo adicional en él si es claro que el proceso no
tiene perspectivas económicas razonables.

En el segundo nivel el panorama promisorio del proceso amerita un diseño más


elaborado y un análisis económico más riguroso, con estimaciones de inversiones más
confiables y costos de operación más desglosados. Se aplica el mismo tipo de lógica: el
proceso debe volver a analizarse para examinar su potencial económico y dictaminar si
se debe continuar con el proyecto de comercialización.

El tercer nivel típicamente se lleva a cabo por una firma especializada con el fin de
elaborar diseños finales y planos para la construcción del equipo. Dada la información
que se genera en forma de un diseño final. Las estimaciones económicas a este nivel son
las más exactas que se pueden tener para la etapa de diseño del proceso y constituyen
los mejores pronósticos de lo que se espera durante la operación comercial del proceso.

Componentes de la economía de un proceso

Para establecer una actividad económica se requiere de una inversión. A cambio de esa
inversión se obtienen ingresos en forma de ventas las cuales deben ofrecer un excedente
adecuado sobre los costos que implica la operación del proceso para que este tenga un
potencial favorable de comercialización.

La inversión requerida puede descomponerse en una inversión fija I F y un capital de


trabajo IW:

I = I F + IW (3.1)

donde I es la inversión total.

EI costo de operación de un proceso puede evaluarse por unidad de tiempo ($/año) o por
unidad de producción ($/kg). Este concepto incluye los costos asociados con la
inversión, los costos variables y los costos de mano de obra :

C= aI + bMP + cE + dMO – pSP (3.2)

5
donde C es el costo de operación del proceso; a es un factor que considera gastos
anuales como regalías, mantenimiento, etc., los cuales no es posible predecir; b es el
costo unitario de cada materia prima MP; c es el costo de cada servicio E: dMO es el
coste de mano de obra y p es el precio de cada subproducto SP que se pudiera producir
en el proceso además del producto principal.

Si S son las ventas anuales la utilidad bruta R se define como la diferencia entre las
ventas y el costo de operación anual:

R=S–C (3.3)

La utilidad neta P se calcula restando de la utilidad bruta la depreciación del equipo y el


pago de impuestos:

P = R – eI – t(R - dI) (3.4)

donde e es el factor de depreciación para fines contables d es el factor de depreciación


para fines de impuestos y t es la tasa de impuestos.

En base a los principios presentados anteriormente se pueden establecer algunos


criterios para comparar alternativas en una base económica.

Tasa de Retorno (ROI)

La tasa de retorno o tasa de recuperación es una de las medidas mas usadas para medir
la rentabilidad de un proceso. Se define como el beneficio neto dividido por la inversión
total del proceso:

P
ROI  (3.5)
I

Para que una alternativa tenga atractivo, ROI debe ser mayor que un valor mínimo
establecido por la compañía.

Beneficio Extra (V)

El beneficio con respecto al beneficio mínimo establecido por la compañía es otro


criterio que puede usarse para evaluar alternativas:

V = P – iminI (3.6)

Resulta claro que si ROI > imin se cumple, entonces V será positivo, lo cual establece el
requisito para factibilidad económica usando este criterio.

El tiempo de recuperación de capital representa el tiempo que tardará el inversionista en


recuperar todo su capital en el caso hipotético de que todas las utilidades se utilizaran
para ese fin:

6
I
TR  (3.7)
P  eI

Efecto del Tiempo en la Inversión

Las inversiones para un proceso determinado se encuentran publicadas o se evalúan


típicamente en función de una capacidad base y de un tiempo base. Ambos aspectos
requieren de ajustes para tener la estimación de la inversión en el tiempo deseado y para
la capacidad requerida. En esta sección se considera el efecto del tiempo en la inversión
para luego tratar el efecto de la capacidad.

El efecto de la inflación en los costos de inversión de plantas químicas puede


cuantificarse mediante el uso de índices especializados. Para pasar la información de la
inversión de un proceso de un año base a un año deseado se utiliza la siguiente
expresión:
 índice _ del _ año _ 2 
I t ,2  I t ,1   (3.8)
 índice _ del _ año _ 1 

Existen varios índices que se publican en forma periódica. A continuación se muestran


los dos mas utilizados:

1.- Índice del Chemical Engineering Magazine


2.- Índice Nelson (exclusivo para refinerías) publicado por el Oil and Gas Journal.

A continuación se muestra una tabla completa con los índices publicados por Chemical
Engineering Magazine hasta el año 2007.

Tabla 3.1. Valores del Índice de Construcción de Plantas en Ingeniería Química.


Año Índice Año Índice
1957-59 100 1990 357.6
1966 107.2 1991 361.3
1968 113.7 1992 358.2
1970 125.7 1993 359.2
1975 182.4 1994 368.1
1976 192.1 1995 381.1
1977 204.1 1996 381.7
1978 218.8 1997 386.5
1979 238.7 1998 389.5
1980 261.2 1999 390.6
1981 297.0 2000 394.1
1982 314.0 2001 394.3
1983 316.9 2002 395.6
1984 322.7 2003 402.0
1985 325.3 2004 444.2
1986 318.4 2005 468.2
1987 323.8 2006 499.6
1988 342.5 2007 525.4
1989 355.4 2008 549.2

7
Ajuste de Inversiones debido a la Capacidad

Datos históricos de inversiones de diferentes tecnologías muestran que el ajuste de


inversión por efecto de la capacidad del proceso sigue una regla exponencial:
m
I 2  Q2 
  (3.9)
I 1  Q1 

donde m es un exponte característico de cada tecnología. En caso de no estar disponible


se usa típicamente m = 0.6.

Cálculo Costos de Equipos

Cuando una tecnología es bien conocida puede tenerse acceso a su costo de inversión a
través de fuentes especializadas. Cuando el proceso está en desarrollo a escala
laboratorio, sin embargo, esta estimación generalmente no esta disponible. Es necesario
en estos casos tener alguna estimación razonable del potencial económico del proceso
en desarrollo. Por lo que el cálculo del costo de los equipos es indispensable.

A continuación se comentan dos de los métodos mas utilizados para el cálculo de costo
de equipos:

Método de Lang

Esté método implica el sumar primero el costo base de los principales componentes del
proceso. En seguida se multiplica por una serie de factores de experiencia:

8
Ic   Ii (3.10)


If  Ic    fiIc  fl (3.11)

donde If es la estimación de la inversión completa del proceso, Ic es el costo de los


principales equipos, fi es un factor para 1a estimación del costo de tuberías,
instrumentación y edificios y fl toma en cuenta todos los gastos indirectos.
Arreglando la ecuación anterior:

 
If  1   fi  fl Ic (3.12)

O bien

If  FLIc (3.13)

Donde FL es el factor de Lang.

Esta es una de las principales aportaciones del método de Lang que implica que para
estimar la inversión total de un proceso a partir del costo de sus equipos principales se
puede usar un factor global de experiencia.

Método de Guthrie

Guthrie publicó en 1969 una de las mejores recopilaciones que se tengan sobre
estimaciones de costos. Para el manejo de esta información se divide la planta en
módulos. Esta técnica se usa para estimar el costo de una unidad instalada o una planta
instalada. La estimación del costo de un módulo de equipo de un proceso el costo de
construcción del equipo, el costo del material, mano de obra y costos indirectos por la
instalación del equipo.

El procedimiento propuesto por Guthrie para el cálculo del costo de un equipo se


resume de la siguiente manera:

1.- Obtención del costo base


2.- Ajuste del costo base
3.- Cálculo del costo del equipo.

Para llevar a cabo este procedimiento es necesario el uso de tablas y valores de ajuste
que se encuentran ampliamente reportados en la literatura de diseño de procesos.

Problemas Sección 3

9
Problema 3.1. (Tomado de Jiménez A., 2003) Una Planta para producir formaldehído a
partir de metanol requiere una inversión de $1.8 millones. Otros datos relevantes se dan
a continuación:

Capacidad de la planta: 25,000 T/año


Carga inicial del catalizador: 2.2 T @ $25/kg
Vida del catalizador: 1 año
Consumos por tonelada de formaldehído:
Metanol: 1.15 T @ $135/T
Electricidad: 256 kwh @$0.025/kwh
Agua de enfriamiento: 75 m3 @ $0.0104/m3
Agua de alimentación para hervidores: 3 m3 @ $0.025/m3
Vapor producido: 1.58 T @ $6.88/T

Si el precio de venta del producto es de 229 $/T, estime la tasa de retorno.

Problema 3.2. Una planta de producción de amoniaco para la producción de 50,000


toneladas por año se construyó en el año de 1977 con un costo de 1.75 millones de
dólares. Estimar el costo de la inversión para la misma planta de amoniaco pero para
una producción de 125,000 toneladas por año que se construirá en el 2007.

Problema 3.3. (Tomado de Jiménez A., 2003) Fenol, utilizado para fabricar resinas
fenólicas, como fenol – formaldehído, puede producirse a partir de cumeno,
produciendo acetona como subproducto. Los datos técnicos de esta tecnología se dan en
seguida:

Componente Coeficiente T/T de Producto


Acetona 0.61
Cumeno -1.35
Fenol 1.00
Hidróxido de sodio -0.01
Ácido sulfúrico -0.01

Requerimientos de energía: 0.38 FOET/T


Inversión unitaria para una planta de 91 kT (1977 $): 490 $/T
Estime el precio de venta del producto si se desea instalar una planta de 120,000 T/año,
basando sus cálculos al año 2000.

Problema 3.4. Estimar el costo de un intercambiador de calor tipo Kettle en el año


2000, de 1,500 pies cuadrados de área construido de acero inoxidable en los tubos y
acero al carbón en la coraza y que operará a 100 psia.

10
4. Síntesis de Procesos de Separación

Implica crear un proceso para lograr una separación, pero ese proceso debe ser el más
adecuado; es decir, el que presente una mejor función objetivo, por ejemplo, minimizar
el costo anual de operación, maximizar las ganancias, minimizar el consumo de
servicios, etc., Los métodos o técnicas de síntesis de procesos se pueden agrupar en
forma general en los siguientes grupos:

Métodos Heurísticos.- Se basan en reglas de experiencia, que se obtienen del estudio de


los procesos de separación por parte de investigadores e ingenieros de proceso; sin
embargo, estos métodos no garantizan la solución óptima, ya que las reglas de
experiencia son factibles pero no infalibles. La ventaja de estos métodos es que
rápidamente nos generan una solución al problema, con la menor cantidad posible de
cálculos.

Métodos Algorítmicos.- Garantizan una solución óptima, pero requieren de cálculos


más elaborados, generalmente del uso de una computadora y sobre todo del uso de una
función objetivo, tal función objetivo como se estableció con anterioridad, puede ser
minimizar el costo anual de operación, maximizar las ganancias, etc.,

Métodos Heurísticos - Evolucionarios.- Proponen una primera aproximación, mediante


el uso de las reglas heurísticas. Sin embargo, se realizan cambios sobre este esquema, si
el cambio logra una mejor función objetivo, se toma como nueva aproximación al
óptimo y en caso contrario se toma el esquema previo, se continúa hasta que se agotan
todos los cambios factibles de realizar.

En el estudio de síntesis de procesos de separación es importante tener en cuenta las


siguientes definiciones:

Secuencia.- Es un ordenamiento de módulos de separación; es decir, una combinación


de columnas de destilación, columnas de absorción, etc., El propósito es efectuar una
separación.

Las secuencias se suelen agrupar en dos grupos; es decir, las secuencias convencionales
(Figura 4.1), en las cuales no existen reciclos entre las unidades o módulos de
separación y además cada módulo es convencional, y las secuencias no convencionales
(Figura 4.2) en las cuales pueden existir reciclos entre los módulos los cuales pueden a
su vez ser convencionales o no convencionales.

11
Figura 4.1. Secuencia Convencional.

Figura 4.2. Secuencia No convencional.

Las secuencias convencionales se suelen agrupar en directas: sin n-1 componentes salen
por los domos de las columnas; indirectas si n-1 componentes salen por los fondos de
las columnas y mixtas si al menos n-2 componentes salen por los domos y/o fondos de
las columnas.

Split, Corte, Separación.- Es una separación o ruptura entre los componentes de una
mezcla alimentada a algún módulo separador.

12
Numero de Secuencias Convencionales para Efectuar una Separación (Ns)

Por ejemplo, en la separación de una mezcla de cuatro componentes (A,B,C,D)


se tienen 5 secuencias convencionales de separación. El número de secuencias se puede
calcular mediante:

( 2 ( N  1))!
Ns  (4.1)
( N )!( N  1)!

Número de Cortes o Splits (Nc).- Para las secuencias determinadas para una separación
cuaternaria ¿Cuántos cortes únicos se realizan?

( N )( N  1)( N  1)
Nc  (4.2)
6

(A/BCD) (AB/CD) (ABC/D) (A/BC) (AB/C) (B/CD) (BC/D)


(A/B) (B/C) (C/D)

Número de Grupos (Ng).- Partiendo de la mezcla anterior, determinar el número de


grupos que se pueden formar.

N ( N  1)
Ng  (4.3)
2

ABCD
ABC BCD
AB BC CD
A B C D

A continuación se resumen los diferentes métodos para la síntesis de procesos de


separación:

Métodos Heurísticos

Las reglas heurísticas fueron originalmente propuestas por Rudd y colaboradores en el


libro “Process Synthesis” (1973). En la Tabla 4.1 se muestran las reglas tal y como
fueron establecidas por Rudd y colaboradores.

13
Tabla 4.1. Reglas heurísticas (Versión de Rudd y Colaboradores. Tomado de Rudd
Powers y Siirola, Process Synthesis, Prentice Hall, 1973).

1. Of the many differences that may exist between the source and destination of
a stream, differences involving composition dominate. Select the separation
tasks first.
2. When possible, reduce the separation load by stream splitting and blending.
3. All other things being equal, aim to separate the more plentiful components
first. If amounts are equal, aim to separate into equal parts.
4. Remove the corrosive and hazardous material early.
5. The difficult separations are best saved for last.
6. All other things being equal, shy away from separations that require the use
of species not normally present in the processing. However, if a foreign
species is used to effect a separation, remove that species early.
7. Avoid excursions in temperature and pressure, but aim high rather than low.
8. In distillation, remove desired product species finally in a distillation.
9. In distillation favor the removal one by one of the more volatile components.

Como se puede ver las reglas heurísticas en la versión original no son directamente
útiles para la solución de problemas de síntesis de secuencias de procesos de separación.
Ante esto Seader y Westerberg en 1977 presentaron una versión de las reglas heurísticas
de fácil aplicación para la síntesis de procesos de separación:

Regla 1.- Cuando la volatilidad relativa entre pares adyacentes de componentes varía
grandemente, establézcase los cortes en el sentido decreciente de volatilidad relativa
(esta heurística en un principio se llamó lo más fácil primero).

Regla 2.- Cuando la volatilidad relativa no varía grandemente, pero en cambio la


fracción mol en la alimentación sí, establézcase los cortes en el sentido de fracción
molar decreciente (esta heurística en un principio se llamó lo más abundante primero).

Regla 3.- Cuando ni la volatilidad relativa, ni la fracción mol varían grandemente,


prefiera las secuencias directas, que separan los componentes uno por uno en los domos,
este tipo de esquemas se usan ampliamente en la industria.

Regla 4.- Cuando se usa un agente másico externo (MSA); por ejemplo, en destilación
extractiva, se debe remover en el separador siguiente, y de preferencia el MSA se debe
agregar al final. Además nunca se debe usar un MSA para separar otro que ya se agregó
con anterioridad.

Regla 5.- Cuando se especifican productos multicomponentes, se debe de favorecer la


secuencia que los produce con el mezclado mínimo.

14
Métodos Algorítmicos

Para la síntesis de sistemas de separación utilizando técnicas algorítmicas se emplea el


método de programación dinámica, desarrollado por Hendry y Huges (1972). El método
de programación dinámica se basa en el principio de optimización de Bellman, el cual
se enuncia de la siguiente manera:

"Un sistema acíclico, se optimiza si cada uno de los componentes o unidades se


optimiza a la vez para todo el conjunto de posibles valores de las variables que
provienen de la etapa anterior".

Con base en este principio se puede generar una tabla problema donde para cada corte
presente en una separación se pueden generar los óptimos para cada subsección
obteniendo al final del problema el óptimo global.

Método Heurístico - Evolucionario

Este método fue propuesto por Seader y Westerberg en 1977 como una versión
mejorada del uso de las reglas heurísticas para el diseño de trenes de separación. Es un
método iterativo que conduce a un diseño óptimo de secuencias de separación. El
método consta de dos pasos que se muestran a continuación:

Paso 1.- Generar una buena secuencia de separación, usando las reglas heurísticas.

Regla 1.- Separar lo más fácil primero. Esta regla se complementa, considerando que si
la volatilidad relativa es mayor a 2.0 pensar solamente en destilación ordinaria; sin
embargo, si la volatilidad relativa es inferior a 1.05 pensar en destilación extractiva,
absorción o extracción líquido-líquido.

Regla 2.- Separar lo más abundante primero.

Regla 3.- Favorecer secuencias directas.

Regla 4.- Remover el MSA tan pronto como sea posible.

Regla 5.- Cuando se desean productos multicomponentes, favorecer secuencias con el


mínimo de mezclado.

Paso 2.- Aplicar las reglas evolutivas de Seader y Westerberg, las cuales se enuncian en
los siguientes dos pasos.

a) Considerar todos los intercambios posibles entre columnas adyacentes.

b) Relajar la primera regla heurística y las siguientes y realizar el intercambio más


factible. Si el intercambio hecho logra una mejor función objetivo, se toma como nueva
aproximación al óptimo; sin embargo, si la función objetivo empeora, se toma la
secuencia anterior. Se continúa hasta que se hayan realizado todos los intercambios
factibles.

15
Síntesis de Secuencias de Separación Mediante Costos Marginales

Otra manera de encontrar la secuencia óptima es mediante costos marginales. Este


método consiste en calcular un costo base que todas las secuencias tienen como un
mínimo y luego adicionar los costos que diferencian una secuencia de otra. Se empieza
por calcular el costo para hacer las separaciones A/B, B/C, C/D, etc., considerando que
no están presentes las otras especies. Por lo tanto, el costo de una secuencia será el
anterior más los costos necesarios para realizar la separación cuando los otros
componentes están presentes.

El costo está relacionado directamente con el flujo de vapor marginal necesario para
llevar acabo la separación. Esta cantidad se puede evaluar fácilmente mediante el
empleo de métodos cortos de diseño. De lo anterior se desprende el hecho de que la
secuencia más económica será la que tenga el menor flujo marginal de vapor. Además,
esto implica que solamente se tomarán en cuenta las separaciones en las que existan
componentes no claves, ya que las separaciones binarias se presentarán en todas las
secuencias de separación. El flujo de vapor marginal se puede definir en la siguiente
forma:

V ( i / j, no claves.)

Por ejemplo, para la separación AB/CDE la función de flujo marginal queda expresado
de la siguiente manera V ( B / C , ADE ) .

El flujo de vapor necesario para efectuar una separación es un indicador del costo de la
columna y de los servicios. Una separación difícil requerirá un flujo de vapor grande, lo
cual necesitará de un reflujo alto y es bien sabido que el efecto de aumentar el reflujo
causa un mayor consumo de servicios y se requiere una columna de mayor diámetro y
consecuentemente el costo se incrementa. Consecuentemente, es razonable minimizar el
requerimiento de vapor en las columnas. Finalmente, se puede definir el flujo marginal
como sigue:

V ( i / j, no claves.)  V ( i / j, no claves)  V ( i / j)

Problemas Sección 4

Problema 4.1. Investigadores de la Universidad de California en Berkley, han estudiado


las 14 secuencias posibles para separar 200 lb-mol/h de la siguiente mezcla en sus
componentes con una pureza del 98%. Usando reglas heurísticas obtenga una
aproximación al óptimo para llevar a cabo esta separación.

Especie Símbolo ZF  relativa al nC5


PROPANO A 0.05 8.1
I-BUTANO B 0.15 4.3
N-BUTANO C 0.25 3.1
I-PENTANO D 0.20 1.25
N-PENTANO E 0.35 1.0

16
Problema 4.2.- El efluente procedente de un reactor contiene una mezcla de varios
derivados clorados del hidrocarburo RH3, justamente con el hidrocarburo y el HCl.
Basándose en reglas puramente heurísticas, descríbase dos secuencias para llevar a cabo
la separación.

Especie Lb-mol/h  relativa al RCl3


HCl 52 4.7
RH3 58 15
RCl3 16 1
RH2Cl 30 1.9
RHCl2 14 1.2

Problema 4.3.- Para los siguientes datos de coste de separación de la mezcla


(C3,B1,NB,B2,C5), use el método de programación dinámica para encontrar la mejor y
la peor secuencia de separación.
Corte Costo ($/año) Costo Total ($/año) Óptimo Local
C3/B1 15,000
B1/NB 190,000
NB/B2 420,000
B2/C5 32,000
C3,B1/NB 197,000
C3/B1,NB 59,000
B1,NB/B2 500,000
B1/NB,B2 247,000
NB,B2/C5 64,000
NB/B2,C5 460,000
C3,B1,NB/B2 510,000
C3,B1/NB,B2 254,000
C3/B1,NB,B2 85,000
B1,NB,B2/C5 94,000
B1,NB/B2,C5 530,000
B1/NB,B2,C5 254,000
C3,B1,NB,B2/C5 95,000
C3,B1,NB/B2,C5 540,000
C3,B1/NB,B2,C5 261,000
C3/B1,NB,B2,C5 90,000

Problema 4.4.- Usando programación dinámica encuentre la secuencia con el menor


consumo de servicios.

Corte Carga (Kcal/h) Carga total (Kcal/h) Öptimo Local


A/B 148,220
B/C 185,410
C/D 235,430
D/E 288,910
A/BC 168,920

17
AB/C 250,430
B/CD 210,110
BC/D 310,000
C/DE 266,440
CD/E 373,930
A/BCD 187,980
AB/CD 282,230
ABC/D 388,560
B/CDE 230,730
BC/DE 346,320
BCD/E 480,370
A/BCDE 208,720
AB/CDE 316,690
ABC/DE 436,760
ABCD/E 559,910

Problema 4.5.- Para el siguiente problema de separación de la mezcla (A,B,C,D,E,F),


de la cual se desean los siguientes productos A, BDE,C,F, utilice el método
evolucionario para obtener una buena secuencia de separación. La volatilidad relativa
entre CD es 1.03 si se usa destilación ordinaria; sin embargo, añadiendo fenol la
volatilidad relativa se incrementa hasta 1.7.

Símbolo Componente Flujo (Kmol/h) Volatilidad relativa


A Propano 4.55  AB =2.45
B Buteno-1 45.5  BC =1.18
C n-Butano 15.5  CD =1.03
D trans-Buteno-2 48.2
E cis-Buteno-2 36.8  EF =2.35
F n-Pentano 18.2

Problema 4.6.- Se desea separar una mezcla de 5 componentes (A,B,C,D,E) en los


siguientes productos A, BD, C, E. El flujo original de la alimentación es 1000 moles/h y
la fracción mol de la alimentación es (0.2, 0.4, 0.1, 0.1, 0.2). Se consideran 2
propiedades.

Propiedad I : Destilación ordinaria.


Propiedad II: Destilación extractiva con fenol.

Los valores de las volatilidades relativas usando cada propiedad son los siguientes:

Propiedad I :  AB =2.0;  BC =1.7;  CD =1.5;  DE =1.04


Propiedad II:  DE =1.7

Para la determinación de los costos de operación se pueden usar los siguientes modelos
reducidos:

18
Propiedad I : 100 * F /  PROPIEDAD I

Propiedad II : 150 * F /  PROPIEDAD II

Considerando F como la alimentación a la columna, determinar mediante el método


evolucionario una buena alternativa a la secuencia de separación.

Problema 4.7.- (Problema dado por A. Westerberg, durante XIV Seminario Anual de
Ingeniería Química, Instituto Tecnológico de Celaya, Enero de 1994) Determine
mediante un análisis de costos marginales la mejor secuencia de separación de la
siguiente mezcla de alcoholes la cual se encuentra a 1 atm y 25 C:

Componente Volatilidad Relativa Flujo (Kmol/h)


Isobutanol 3.3199 5.0
1-pentanol 1.7735 10.0
1-hexanol 1.0000 20.0
1-heptanol 0.6407 50.0
1-octanol 0.3542 15.0

19
5. Síntesis de Redes de Integración de Energía

El problema de la síntesis de redes de cambiadores de calor “HENS” (Heat exchanger


network synthesis) puede definirse como la determinación de una red costo-eficiencia
para intercambiar calor entre un conjunto de corrientes en un proceso. Donde cualquier
corriente caliente o fría que no sea satisfecha en la red será completada con servicios.

En el desarrollo de redes de transferencia de calor se deben de tener en cuenta tres


reglas heurísticas básicas usadas en el desarrollo de métodos algorítmicos basados en la
optimización secuencial. En particular, se asumirá que una red óptima o cerca del
óptimo exhibe las siguientes características:

1. Mínimo costo de servicio.


2. Mínimo número de unidades.
3. Mínimos costos de inversión.

Claramente, y en la mayoría de los casos, es posible tener conflictos entre estas reglas.
Por eso, se asumirá que la regla 1 tiene prioridad sobre la regla 2, y la regla 2 sobre la
regla 3. En este sentido el objetivo será considerar la primera red candidata que exhiba
costos de servicios mínimos, después, entre estas, las que tengan el número mínimo de
unidades, y finalmente, aquellas que tengan el costo mínimo de inversión. Para cada uno
de estos pasos se podrá desarrollar modelos de optimización apropiados para generar
redes con todas las opciones posibles para la secuenciación de separación de corrientes,
mezclado y by-pass.

La aplicación original de la metodología del punto de pliegue se enfocó al diseño de


redes de intercambio de calor. Sin embargo, posteriormente comenzó a tomar interés el
uso de éste método para realizar modificaciones a redes existentes. Por lo tanto, se
pueden distinguir dos categorías en la aplicación de la metodología del punto de
pliegue: diseño y rediseño.

El principal objetivo del rediseño de redes es reducir el consumo de servicios auxiliares


utilizando lo más eficientemente posible el área existente. Para quien quiera diseñar una
red de intercambio de calor se debe contar con la siguiente información:

 Corrientes calientes que deban ser enfriadas y corrientes frías que deban ser
calentadas.

 Temperaturas de entrada y de salida de todas las corrientes.

 Flujos másicos de las corrientes.

 Calores específicos (Cp) y coeficientes de transferencia de calor (h) de las


corrientes, con su dependencia de la temperatura.

 Caídas de presión permitidas para las corrientes.

 Costos para los cambiadores de calor en función del área.

20
La tecnología del punto de pliegue es una herramienta para resolver este tipo de
problemas. Reconoce la necesidad de plantear objetivos prediciendo cual es la mejor
realización que puede lograrse en el proceso. Así el “targeting” (búsqueda de objetivos)
permite al ingeniero de proceso determinar los requerimientos mínimos de área,
unidades, corazas y costos del diseño de la red de intercambio de calor. Por convención
se ha establecido que las corrientes calientes sean representadas con flechas que van de
izquierda a derecha y las corrientes frías con flechas que van de derecha a izquierda.
Los intercambiadores son dibujados como círculos que conectan la corriente caliente
con la fría, como se observa en la simbología de la Figura 5.1.

C Enfriador

Calentador
H

Intercambiador (recuperación de calor)

Figura 5.1. Simbología de los equipos.

La mayor ventaja de la representación del diseño de la mínima energía es que el punto


de pliegue puede identificarse fácilmente como una línea vertical de temperatura,
dividiendo la región arriba del punto de pliegue a la derecha y la región abajo del punto
de pliegue a la izquierda.

Cada corriente puede ser representada por un diagrama de temperatura - entalpía T-H.
En los cuales, la pendiente de la línea de la corriente da el recíproco de capacidad
calorífica de cada corriente 1/WCp.

Un paso importante en la tecnología del punto de pliegue es el combinar todas las


corrientes calientes para generar una curva compuesta caliente (HCC, hot composite
curve) y una curva compuesta fría (CCC cold composite curve). La combinación se
hace sumando los WCp de todas las corrientes del mismo tipo en cada intervalo de
temperatura. Notar que los límites de intervalos de temperatura corresponden a las
temperaturas de entrada y salida de las corrientes como se muestra en la Figura 5.3.

La HCC y la CCC proveen una gráfica comprensiva de la demanda y suplemento de


calor para el proceso en general, sobre todo el rango de temperatura. Todas las
corrientes pueden ser combinadas y visualizadas como una sola corriente caliente y una
sola corriente fría, en un arreglo en contra-corriente cuando las dos curvas compuestas
son dibujadas en el mismo eje de T-H. Su posición horizontal aún no está definida, pero
pueden situarse especificando una mínima diferencia de temperaturas de intercambio
(Tmin). Este punto es el llamado el punto de pliegue. Este representa la sección más
obligada para la recuperación de calor. Al punto de pliegue le corresponde un nivel
particular de temperatura y divide el proceso en dos regiones separadas

21
termodinámicamente. Arriba del punto de pliegue sólo serán necesarios equipos de
calentamiento, y por debajo de él sólo serán necesarios servicios de enfriamiento.
Donde las dos curvas compuestas se traslapan, el proceso caliente está en balance
entálpico con las corrientes de proceso frías como se muestra en la Figura 5.2.

TºC TºC

Cp=20

Cp=20+60=80
Cp=20 Cp=60

Cp=20

1000 1000 4000 1000

3000 3000 6000

a) H (kW) b) H (kW)

Figura 5.2. Combinación de las corrientes calientes para generar una curva.

Búsqueda de objetivos de la energía

La máxima recuperación de energía (MER, maximum energy recovery) implica el uso


de servicios mínimos. Si Qhu es el calor suministrado por un servicio de calentamiento y
Qcu es el calor removido por un servicio de enfriamiento, entonces los cálculos de la
búsqueda de objetivos de la energía involucran la determinación de los valores mínimos
de Qhu y Qcu.

Papel de las Leyes Termodinámicas

El cambio de entalpía de una corriente puede ser calculada simplemente al multiplicar


su capacidad calorífica y flujo másico (WCp) por el cambio de temperatura.

H = WCpT (5.1)

La cantidad máxima de servicio de enfriamiento y calentamiento puede ser calculada al


sumar los cambios de entalpía de todas las corrientes frías (Q c) y todos los de las
corrientes calientes (Qh), respectivamente. Esto maximiza el uso de servicios externos

22
utilizando sólo calentadores y enfriadores en la red. Pero aún no se aprovecha la ventaja
de que una corriente de proceso caliente puede ser usada para calentar una corriente de
proceso fría. Así se reducirían ambos servicios, el de enfriamiento y el de
calentamiento.

Servicio de
Curva compuesta
caliente QHmin
Calentamien
Temperatura

Punto de

Tmin
Proceso a Proceso
QCmi
Sevicios Curva Compuesta
Fría
de Entalpía

Figura. 5.3. Representación de la HCC y CCC en un diagrama T-H.

En este contexto, la primera Ley de la Termodinámica establece que:

Qh + Qhu = Qc +Qcu (5.2)

(Qhu – Qcu) = Qc – Qh (5.3)

No es necesariamente factible, como la segunda Ley de la termodinámica establece, que


la transferencia puede ocurrir sólo de altas temperaturas a temperaturas más bajas sino
que debe existir una diferencia de temperaturas positiva para que proporcione una
adecuada fuerza motriz para la transferencia de calor entre la corriente caliente y la fría.
Así para calcular objetivos parciales de energía, la cantidad máxima de transferencia de
calor posible con una diferencia mínima de temperatura estipulada (Tmin) debe ser
determinada y el calor faltante debe ser suministrado por un servicio externo.

23
Algoritmo de la tabla problema (PTA, Problem table Algorithm. Desarrollado por
Linnhoff y Flower, 1978)

Paso 1. Determinación de rangos de temperatura (Tint en la columna A de la Tabla 5.1).

Tmin/2 es restado a la temperatura de la corriente caliente y Tmin/2 es sumado a las


temperaturas de las corrientes frías. Estas temperaturas son entonces clasificadas en
orden descendente, omitiendo temperaturas en común en ambos lados de las corrientes
calientes y frías. Esto forma los límites de los varios intervalos de temperatura. Este
paso asegura que exista una adecuada fuerza motriz Tmin entre las corrientes calientes y
frías.

Paso 2. Cálculo del WCp neto de cada intervalo (WCP int en la columna B de la Tabla
5.1)

La suma de los valores de WCp de las corrientes calientes es restado de la suma de los
valores de WCp de las corrientes frías presentes en cada intervalo de temperatura y
registrados en la columna B contra el límite de temperatura menor de cada intervalo.

WCpint = WCpc – WCph (5.4)

Paso 3. Cálculo de la entalpía neta de cada intervalo (Q int en la columna C de la Tabla


5.1).

El WCpint (calculado en el paso 2) es multiplicado por la diferencia de temperatura del


intervalo para obtener el requerimiento de calor en cada intervalo y se colocan en una
columna C.

Paso 4. Cálculo de la cascada de calor (Qcas en la columna D de la Tabla 5.1)

La entalpía neta en los intervalos (obtenidas en el paso 3) es restada de la cascada de


calor del intervalo previo para obtener la cascada de calor en ese intervalo. Esta se pone
en la columna D por la fórmula:

Qcas, i = Qcas, i-1 – Qint. l (5.5)

Esta cascada involucra esencialmente la transferencia de calor de un intervalo de


temperatura al intervalo inferior siguiente, empezando con el más alto. Esta cascada
ofrece la ventaja de satisfacer algunos de los déficits de calor de intervalos inferiores.

24
Paso 5. Revisión de la cascada de calor (Rcas en la columna E de la Tabla 5.1).

El valor negativo de Qcas en la columna D de la Tabla 5.1 es restado de cada valor de


intervalo para obtener la cascada de calor revisada (R cas) y se ponen los valores en la
columna E.

Rcas, i = Qcas, i – min Qcas (5.6)

La cascada de calor necesita ser revisada dado que una transferencia negativa de calor
no es termodinámicamente factible. La transferencia de calor negativa es una
consecuencia del calor de intervalos más altos que son insuficientes para satisfacer los
requerimientos de los intervalos más bajos. Esto debe ser rectificado por la adición de
calor al intervalo de más alta temperatura (a través de servicio externo) para asegurar la
transferencia positiva de calor en cada intervalo. El exceso de calor en el intervalo de
menor temperatura no puede ser enviado a ninguna corriente fría y por eso constituye el
requerimiento mínimo de servicio de enfriamiento. Si todos los valores de la columna D
son positivos, la cascada no requiere más revisiones.

Paso 6. Determinación de los objetivos para la energía

El requerimiento mínimo de servicio de calentamiento (Qhu, min) y el requerimiento


mínimo de servicio de enfriamiento (Qcu, min) son el primero y el último valor en la
columna E. La temperatura en la columna que corresponde al cero de la columna de la
revisión de la cascada de calor E es llamada la temperatura del punto de pliegue.

Tabla 5.1. Algoritmo de la tabla problema.


Intervalo Columna A Columna B Columna C Column D Columna E
i
Tint WCp, int Qint Qcas Rcas
0 T0 WCp0 Q0
1 T1 WCp1 Q1
2 T2 WCp2 Q2

Si el servicio de calentamiento es aumentado, entonces el calor extra es transferido a


través del punto de pliegue y el servicio de enfriamiento requerido se incrementa en la
misma cantidad de acuerdo a la primera Ley. Entonces se incurre en una doble falta, la
cual es referida como el fenómeno de “más entradas, más salidas” como se dice en el
lenguaje de tecnología del punto de pligue.

Concepto del Punto de pliegue

La temperatura del punto de pliegue, divide el proceso en dos partes:

25
 Uno de alta temperatura, arriba del punto de pliegue o sumidero de
calor, donde el calor es aceptado sólo de servicios de calentamiento.
 Uno de baja temperatura, bajo el punto de pliegue o fuente de calor,
donde el calor es enviado a servicios de enfriamiento.

Del algoritmo de la tabla problema (PTA, Tabla 5.1), se puede ver que un servicio de
enfriamiento por arriba del punto de pliegue, llevará a un incremento en la carga de
servicios. Si x unidades de calor de cualquier intervalo de temperatura sobre el punto de
pliegue son intercambiadas a un servicio frío, habrá menos calor disponible para una
cascada a temperaturas menores, resultando una transferencia negativa de calor en el
punto de pliegue. Esto puede ser rectificado si damos x unidades más de calor mediante
servicios calientes. Los requerimientos de enfriamiento bajo el punto de pliegue
permanecen inalterados; así, el consumo total de servicios se ve incrementado por 2x
unidades. Un argumento análogo pasa para servicios de calentamiento puestos por
debajo del punto de pliegue.

Si x unidades de calor son transferidas a través del punto de pliegue, entonces los
servicios requeridos de calentamiento arriba del punto de pliegue, también como los
servicios requeridos por debajo de él, incrementan cada uno en x unidades. Como antes
se incurren en una doble falta de 2x unidades.

Vinculación de las corrientes con servicios mínimos

Habiendo determinado los servicios mínimos para el calentamiento y el enfriamiento de


las corrientes de proceso es común diseñar dos redes de intercambio de calor; una por
arriba de la temperatura del punto de pliegue, y otra por debajo de ésta, como se muestra
en la Figura 5.4.

Reglas para generar una red

Para el diseño de una red de intercambio de calor se tomarán en cuenta las siguientes
reglas:

1. Arriba del punto de pliegue solamente deben existir intercambiadores y/o


calentadores. No se debe usar enfriamiento, ya que aumentaría el consumo de vapor
externo.

26
H1 1 Punto 3
de
H2 2 Pliegue 4 C

H 2 3 4 C1

H 1 C2

Arriba del punto de pliegue Abajo del punto de pliegue

Figura 5.4. Red de intercambio de calor, con servicio de calentamiento arriba del punto
de pliegue y enfriamiento abajo del punto de pliegue.

2. Debajo del punto de pliegue solamente se deben usar cambiadores y/o


enfriadores. No debe usar calentamiento externo, ya que aumentará el consumo de
servicio de enfriamiento.

3. Para garantizar el consumo mínimo de servicios externos, en la cascada de


calor, debe existir un punto de pliegue.

4. Arriba del punto de pliegue realizar los intercambios de tal forma que el WCp
de las corrientes frías sea mayor que el WCp de las corrientes calientes.

5. Abajo del punto de pliegue seleccionar intercambios entre corrientes de tal


forma que el WCp de las corrientes frías sea menor que el WCp de las corrientes
calientes.

6. Empezar a realizar los intercambios para generar la red partiendo del punto de
pliegue ya que es la región más restringida de intercambio.

En resumen, se puede decir que los tres objetivos energéticos que debe cumplir
cualquier red de intercambio de calor son los siguientes:

1. No debe ocurrir intercambio de calor a través del punto de pliegue.

2. No deben usar servicios de enfriamiento arriba del punto de pliegue y;

3. No deben utilizarse calentadores por debajo del punto de pliegue.

Estas tres reglas básicas de diseño deben ser rigurosamente satisfechas, dado que están
basadas en la segunda Ley de la Termodinámica.

Para un diseño cualquiera, el satisfacer los objetivos de energía, significa que no debe
haber ningún intercambio de calor que cruce el punto de pliegue. Este es un principio de
diseño poderoso, la tarea compleja de optimización de energía de un sistema integrado,

27
se reduce a un diseño relativamente simple con el objetivo de cero transferencias de
calor a través del punto de pliegue. Esto puede ser fácilmente implementado para
cualquier diseño mediante el diseño por arriba y por abajo del punto de pliegue.

La gran curva compuesta.

La gran curva compuesta GCC (Grand composite curve) muestra la disponibilidad de


calor en varios intervalos de temperatura. También es una representación del flujo neto
de calor en el proceso, el cual es cero en el punto de pliegue.

En la GCC, un segmento de proceso de “sumidero” muestra un incremento en la


temperatura y un incremento en la entalpía. Un segmento de proceso “fuente” muestra
un decremento en la temperatura y, contrario a la convención, un incremento en la
entalpía. Así, un segmento de proceso “fuente” en la GCC usa un signo de convención
para la entalpía contrario al que normalmente es usado. Como se puede apreciar en la
Figura 5.5.

Aunque la cantidad total de servicios de calentamiento y enfriamiento se ven claramente


en las curvas compuestas, sus niveles de temperatura no se ven. Estos son idealmente
representados en una GCC, lo cual es particularmente útil para decidir la colocación de
los servicios de calentamiento y enfriamiento. La GCC es también útil para la relación
de perfiles durante estudios de integración de energía total.

La gran curva compuesta es una herramienta que sirve para identificar no únicamente la
cantidad de energía que requiere el proceso sino para identificar también los niveles de
temperatura en que se necesita la energía; esto permite ajustar adecuadamente la carga
térmica (cantidad) para evitar su degradación prematura al utilizar gradientes de
temperatura excesivos entre los servicios y los procesos del sistema.

Las curvas compuestas.

La gráfica de la curva compuesta caliente (HCC) y la curva compuesta fría (CCC) es un


eje Temperatura-Entalpía (llamada a veces gráfica de Hohmann-Lockhart). A
continuación se da un método algebraico para la determinación de los datos para esta
curva.

Paso 1. Arreglo de las temperaturas de las corrientes calientes (Th en la columna A)

Las temperaturas de las corrientes calientes son ordenadas en forma ascendente,


omitiendo valores repetidos.

Paso 2. Cálculo del WCp de las corrientes en cada intervalo (Sum WCp, h en la columna
B)

La suma de los valores de WCp de la corriente caliente en cada intervalo de temperatura


se calcula y son puestos en una columna B contra los límites de temperatura más altos
en el intervalo.

28
Intervalo Temperatura
Shifted
GC
Composite Curve QHmi CH
TH1
Interval Temp. = Actual n 1
(ºC)

Temp. + ½ Dtmin
+: Corriente fría
--: Corriente caliente H TH2
2
TPunto de pliegue
TC2
C
2

TC1
QCmi
Figura 5.5. La gran curva compuesta.
n
Entalpía
(H) C).
Paso 3. Cálculo de las entalpías en cada intervalo (Qint, h en la columna

La suma de WCp,h es cada intervalo es multiplicada por la diferencia de temperatura


para obtener los valores de entalpía, y son puestos en la columna C.

Paso 4. Cálculo de la entalpía acumulada (CumQh en la columna D).

Esta columna es calculada con la siguiente fórmula.

CumQh, i = CumQh, i-1 + Qint, hi (5.7)

para i=0, la CumQh, i = 0.

Paso 5. Graficar H vs T.

La columna A es graficada contra la columna D para obtener la HCC.

Paso 6. Generación de los datos de la CCC.

El procedimiento a seguir para generar la CCC (curva compuesta fría) es prácticamente


idéntico al de la HCC y se resume a continuación. Las temperaturas de las corrientes
frías se ordenan en forma ascendente, omitiendo los valores repetidos, para obtener T c
en la columna A. La suma de los valores de WCp de las corrientes frías presentes en
cada intervalo de temperatura se calcula y se ponen como una variable llamada
SumWCpc en la columna B contra la temperatura más alta en el límite de intervalo. Se

29
coloca un cero en el primer lugar de la columna B. El valor de SumWCp c de cada
intervalo es multiplicado por la diferencia de temperatura de cada intervalo para obtener
la entalpía de cada intervalo Qnt,c, y se ponen en la columna C. La entalpía acumulada
nombrada como CumQc se pone en la columna D y se calcula con la fórmula:

CumQc, i = CumQc, i-1 + Qint,ci (5.8)

donde CumQc,i = Qcu, min para i=0. Esta es la única diferencia entre el procedimiento de
graficación entre la HCC y la CCC. Mientras la HCC empieza de entalpía igual a cero,
la CCC se desplaza por el objetivo de servicio de enfriamiento.

Para recapitular, la HCC y la CCC combinan el efecto de todas las corrientes calientes y
las frías respectivamente. Cuando se ven en un diagrama sencillo Temperatura-Entalpía,
la región que se traslapa de las dos curvas representa el alcance de posible recuperación
de calor. Para una Tmin dada el exceso de la HCC en el lazo izquierdo representa el
requerimiento mínimo de calentamiento. La diferencia de temperatura entre las dos
curvas es mínima en el punto de pliegue, donde es igual al Tmin.

Entre mayor sea el valor de Tmin es mayor el consumo mínimo de servicios. Para un
Tmin grande, las curvas compuestas se separan más. Si la CCC es movida x unidades
a la derecha, entonces los excesos de ambas curvas se incrementan la misma cantidad.
Dado que el exceso representa el consumo de servicio, un incremento en el servicio
causa el incremento correspondiente en el otro.

La predicción del área mínima de transferencia juega un papel muy importante en la


etapa de pre-optimización para el rediseño de redes de intercambio de calor, ya que en
base a esta área se predice el costo capital de la red antes de diseño. En la etapa de pre-
optimización se establece el Tmin de diseño correspondiente al mejor compromiso
entre el costo de operación y de capital; es decir, al mejor costo total anual. La etapa de
determinación de objetivos en el rediseño de redes es el equivalente a la etapa de pre-
optimización en el diseño; sólo que el Tmin de rediseño se establece con base al
compromiso entre la inversión adicional y el ahorro potencial.

30
Problemas Sección 5

Problema 5.1.- Utilizar el método del punto de pliegue para detectar una red con el
menor consumo de energía para las siguientes corrientes:

Corriente TIN (OF) TOUT (OF) WCp (Btu/hr OF)


1 250 100 9500
2 180 100 8400
3 110 200 10000
4 110 230 9000

Problema 5.2.- Utilizar el método del punto de pliegue para detectar una red con el
menor consumo de energía para las siguientes corrientes:

Corriente TIN (OC) TOUT (OC) WCp (kcal/hr OC)


1 170 100 5
2 80 20 10
3 30 220 6
4 20 70 2

Problema 5.3.- (Tomado de Jiménez A., 2003) Considérese la red de intercambiadores


que se muestra en la Figura 5.6, la cual es parte de un proceso industrial que se
encuentra en operación. Los datos energéticos y los coeficientes de película de cada
corriente se dan en la siguiente tabla.

Corriente WCp (Kw/ºC) H (W/cm2)


1 228.5 400
2 20.4 300
3 53.8 250
4 93.3 150
5 196.1 500

Usando un valor de T = 19oC haga un diagnóstico de la red y proponga alguna red


modificada que mejore la eficiencia de la red existente.

31
Figura 5.6. Red de intercambio de calor.

32
6. Optimización de Procesos

La optimización (también denominada programación matemática). Un problema de


optimización trata entonces de tomar una decisión óptima para maximizar (ganancias,
velocidad, eficiencia, etc.) o minimizar (costos, tiempo, riesgo, error, etc.) un criterio
determinado. Las restricciones significan que no cualquier decisión es posible. De esta
forma intenta dar respuesta a un tipo general de problemas de la forma:

x  Rn (6.1)

Donde x = (x1,...,xn) es un vector y representa variables de decisión, f(x) es llamada


función objetivo y representa o mide la calidad de las decisiones (usualmente números
enteros o reales) y Ω es el conjunto de decisiones factibles o restricciones del problema.

Algunas veces es posible expresar el conjunto de restricciones Ω como solución de un


sistema de igualdades o desigualdades.

h x1 ,..., x n   0
(6.2)

Tipos de optimizaciones

Según el nivel de generalidad que tome el problema, será la resolución que se plantee:

Optimización clásica: si la restricción no existe, o es una restricción de igualdad, con


menor o igual número de variables que la función objetivo entonces, el cálculo
diferencial, da la respuesta, ya que solo se trata de buscar los valores extremos de una
función.

Optimización con restricciones de desigualdad - optimización no clásica: si la


restricción contiene mayor cantidad de variables que la función objetivo, o la restricción
contiene restricciones de desigualdad, existen métodos en los que en algunos casos se
pueden encontrar los valores máximos o mínimos.

Si tanto restricciones como función objetivo son lineales (Programación lineal o PL), la
existencia de máximo (mínimo), esta asegurada, y el problema se reduce a la aplicación
de unos simples algoritmos de álgebra lineal elemental los llamados método simplex; y
método dual. Sin embargo, si estas condiciones no se cumplen, existen, las llamadas
condiciones de Khun -Tucker, las cuales en algunos casos, pueden ser utilizables, para
encontrar puntos críticos, máximos o mínimos. Sin embargo, esta es un área aún muy
poco desarrollada de la matemática, frecuentemente, las condiciones de Khun y Tucker
fallan, o no son suficientes, para la existencia de extremos.

Optimización estocástica: cuando las variables del problema (función objetivo y/o
restricciones) son variables aleatorias el tipo de optimización realizada es optimización
estocástica.

33
Optimización con información no perfecta: en este caso la cantidad de variables, o más
aún la función objetivo puede ser desconocida o también variable. En este campo, la
matemática conocida como matemática borrosa, está realizando esfuerzos, por resolver
el problema. Sin embargo, como el desarrollo de esta área de la matemática es aún
demasiado incipiente, son escasos los resultados obtenidos.

Introducción

Los problemas de toma de decisiones se pueden clasificar en dos categorías: modelos de


decisión determinísticos y modelos de decisión probabilísticos. En los modelos
determinísticos, las buenas decisiones se basan en sus buenos resultados. Se consigue lo
deseado de manera "deterministica", es decir, libre de riesgo. Esto depende de la
influencia que puedan tener los factores no controlables, en la determinación de los
resultados de una decisión y también en la cantidad de información que el tomador de
decisión tiene para controlar dichos factores.

Aquellos que manejan y controlan sistemas de hombres y equipos se enfrentan al


problema constante de mejorar (por ejemplo, optimizar) el rendimiento del sistema. El
problema puede ser reducir el costo de operación y a la vez mantener un nivel aceptable
de servicio, utilidades de las operaciones actuales, proporcionar un mayor nivel de
servicio sin aumentar los costos, mantener un funcionamiento rentable cumpliendo a la
vez con las reglamentaciones gubernamentales establecidas, o "mejorar" un aspecto de
la calidad del producto sin reducir la calidad de otros aspectos. Para identificar la
mejora del funcionamiento del sistema, se debe construir una representación sintética o
modelo del sistema físico, que puede utilizarse para describir el efecto de una variedad
de soluciones propuestas.

Un modelo puede considerarse como una entidad que captura la esencia de la realidad
sin la presencia de la misma. Una fotografía es un modelo de la realidad ilustrada en la
imagen. La presión arterial puede utilizarse como un modelo de la salud de una persona.
Una campaña piloto de ventas puede utilizarse como un modelo de la respuesta de las
personas a un nuevo producto. Por último, una ecuación matemática puede utilizarse
como un modelo de la energía contenida en un determinado material. En cada caso, el
modelo captura algún aspecto de la realidad que intenta representar.

Ya que un modelo sólo captura determinados aspectos de la realidad, su uso puede no


ser apropiado en una aplicación en particular porque no captura los elementos correctos
de la realidad. La temperatura es un modelo de las condiciones climáticas pero puede
ser inapropiado si uno está interesado en la presión barométrica. Una foto de una
persona es un modelo de la misma pero brinda poca información acerca de sus logros
académicos. Una ecuación que predice las ventas anuales de un producto en particular
es un modelo de ese producto pero tiene poca utilidad si lo que nos interesa es el costo
de producción por unidad. Por lo tanto, la utilidad del modelo depende del aspecto de la
realidad que representa.

Un modelo puede ser inadecuado aun cuando intenta capturar los elementos apropiados
de la realidad si lo hace de una manera distorsionada o sesgada. Una ecuación que
pronostica el volumen mensual de ventas puede ser exactamente lo que el gerente de
ventas quiere pero podría generar grandes pérdidas si arroja constantemente cálculos de

34
ventas altos. Un termómetro que lee de más (o de menos) tendría poca utilidad para
realizar un diagnóstico médico. En consecuencia, un modelo útil es aquel que captura
los elementos adecuados de la realidad con un grado aceptable de precisión.

Un modelo matemático es una ecuación, desigualdad o sistema de ecuaciones o


desigualdades, que representa determinados aspectos del sistema físico representado en
el modelo. Los modelos de este tipo se utilizan en gran medida en las ciencias físicas, en
el campo de la ingeniería, los negocios y la economía.

Un modelo ofrece al analista una herramienta que puede manipular en su análisis del
sistema en estudio, sin afectar al sistema en sí. Por ejemplo, supóngase que se ha
desarrollado un modelo matemático para predecir las ventas anuales como una función
del precio de venta unitario. Si se conoce el costo de producción por unidad, se pueden
calcular con facilidad las utilidades anuales totales para cualquier precio de venta. Para
determinar el precio de venta que arrojará las utilidades totales máximas, se pueden
introducir en el modelo distintos valores para el precio de venta, uno a la vez,
determinando las ventas resultantes y calculando las utilidades anuales totales para cada
valor de precio de venta examinado. Mediante un proceso de prueba y error, el analista
puede determinar el precio de venta que maximizará las utilidades anuales totales.

Lo ideal sería que si el modelo matemático es una representación válida del rendimiento
del sistema, mediante la aplicación de las técnicas analíticas adecuadas, la solución
obtenida a partir del modelo debería ser también la solución para el problema del
sistema. Así, la efectividad de los resultados de la aplicación de cualquier técnica
operativa es en gran medida una función del grado en el cual el modelo representa al
sistema en estudio.

A fin de definir las condiciones que nos conducirán a la solución del problema del
sistema, el analista primero debe identificar un criterio según el cual se podrá medir el
sistema. Este criterio a menudo se denomina medida del rendimiento del sistema o
medida de efectividad. En aplicaciones empresariales, la medida de efectividad
generalmente son los costos o las utilidades, mientras que en aplicaciones
gubernamentales esta medida generalmente se define en términos de un índice
costo/beneficio.

El modelo matemático que describe el comportamiento de la medida de efectividad se


denomina función objetivo. Si la función objetivo es describir el comportamiento de la
medida de efectividad, debe capturar la relación entre esa medida y aquellas variables
que hacen que dicha medida fluctúe. Las variables del sistema pueden categorizarse en
variables de decisión y parámetros. Una variable de decisión es una variable que puede
ser directamente controlada por el decisor. También existen algunos parámetros cuyos
valores pueden ser inciertos para el decisor. Esto requiere un análisis de sensibilidad
después de descubrir la mejor estrategia. En la práctica, resulta casi imposible capturar
la relación precisa entre todas las variables del sistema y la medida de efectividad a
través de una ecuación matemática. En cambio, el analista de IO/CA debe tratar de
identificar aquellas variables que afectan en mayor grado la medida de efectividad y
luego debe intentar definir de manera lógica la relación matemática entre estas variables
y la medida de efectividad. Esta relación matemática es la función objetivo que se
emplea para evaluar el rendimiento del sistema en estudio.

35
La formulación de una función objetivo que tenga sentido normalmente es una tarea
tediosa y frustrante. Los intentos de desarrollo de una función objetivo pueden terminar
en un fracaso. Esto puede darse porque el analista elige el conjunto incorrecto de
variables para incluir en el modelo o bien, si el conjunto es el adecuado, porque no
identifica correctamente la relación entre estas variables y la medida de efectividad. En
un nuevo intento, el analista trata de descubrir las variables adicionales que podrían
mejorar su modelo descartando aquellas que parecen tener poca o ninguna relevancia.
No obstante, sólo se puede determinar si estos factores realmente mejoran el modelo
una vez realizadas la formulación y prueba de nuevos modelos que incluyan las
variables adicionales. Todo el proceso de selección y rechazo de variables puede
requerir reiteraciones múltiples hasta desarrollar una función objetivo satisfactoria. En
cada iteración, el analista espera lograr alguna mejora en el modelo, aunque no siempre
se tiene tanta buena suerte. Por lo general, el éxito final es precedido por una serie de
fracasos frustrantes y pequeños progresos.

En cada etapa del proceso de desarrollo, el analista debe evaluar la correspondencia o


validez del modelo. Normalmente se emplean dos criterios para realizar esta
determinación. El primero implica la experimentación del modelo: someter el modelo a
una serie de condiciones y registrar los valores asociados de la medida de efectividad
dada por el modelo en cada caso. Si la medida de efectividad varía de manera
antinatural con una sucesión de condiciones de entrada, es posible que la función
objetivo no sea válida. Por ejemplo, supóngase que se desarrolla un modelo destinado a
calcular el valor de mercado de viviendas unifamiliares. El modelo debe expresar el
valor de mercado en dólares como una función de la superficie cubierta en pies
cuadrados, cantidad de dormitorios, cantidad de baños y tamaño del lote. Después de
desarrollar el modelo, el analista lo aplica a la tasación de distintas viviendas, con
distintos valores para las características mencionadas y descubre que el valor de
mercado desciende a medida que aumenta la superficie cubierta expresada en pies
cuadrados. Dado que este resultado no concuerda con la realidad, el analista
cuestionaría la validez del modelo. Por otro lado, supóngase que el modelo es tal que el
valor de las viviendas es una función creciente de cada una de las cuatro características
citadas, como generalmente es de esperar. Si bien este resultado es alentador, no
necesariamente implica que el modelo es una representación válida de la realidad, dado
que la tasa de aumento de cada variable puede ser excesivamente alta o baja. La
segunda etapa de la validación del modelo requiere una comparación de los resultados
del modelo con los resultados obtenidos en la realidad.

Optimización
La humanidad hace tiempo que busca, o profesa buscar, mejores maneras de realizar las
tareas cotidianas de la vida. A lo largo de la historia de la humanidad, se puede observar
la larga búsqueda de fuentes más efectivas de alimentos al comienzo y luego de
materiales, energía y manejo del entorno físico. Sin embargo, relativamente tarde en la
historia de la humanidad, comenzaron a formularse ciertas clases de preguntas generales
de manera cuantitativa, primero en palabras y después en notaciones simbólicas. Un
aspecto predominante de estas preguntas generales era la búsqueda de lo "mejor" o lo
"óptimo". Generalmente, los gerentes buscan simplemente lograr alguna mejora en el
nivel de rendimiento, es decir, un problema de "búsqueda de objetivo". Cabe destacar
que estas palabras normalmente no tienen un significado preciso

36
Se han realizado grandes esfuerzos por describir complejas situaciones humanas y
sociales. Para tener significado, esto debería escribirse en una expresión matemática que
contenga una o más variables, cuyos valores deben determinarse. La pregunta que se
formula, en términos generales, es qué valores deberían tener estas variables para que la
expresión matemática tenga el mayor valor numérico posible (maximización) o el
menor valor numérico posible (minimización). A este proceso general de maximización
o minimización se lo denomina optimización.

La optimización, también denominada programación matemática, sirve para encontrar


la respuesta que proporciona el mejor resultado, la que logra mayores ganancias, mayor
producción o felicidad o la que logra el menor costo, desperdicio o malestar. Con
frecuencia, estos problemas implican utilizar de la manera más eficiente los recursos,
tales como dinero, tiempo, maquinaria, personal, existencias, etc. Los problemas de
optimización generalmente se clasifican en lineales y no lineales, según las relaciones
del problema sean lineales con respecto a las variables. Existe una serie de paquetes de
software para resolver problemas de optimización. Por ejemplo, LINDO o WinQSB
resuelven modelos de programas lineales y LINGO y What'sBest! resuelven problemas
lineales y no lineales.

La Programación Matemática, en general, aborda el problema de determinar


asignaciones óptimas de recursos limitados para cumplir un objetivo dado. El objetivo
debe representar la meta del decisor. Los recursos pueden corresponder, por ejemplo, a
personas, materiales, dinero o terrenos. Entre todas las asignaciones de recursos
admisibles, queremos encontrar la/s que maximiza/n o minimiza/n alguna cantidad
numérica tal como ganancias o costos.

El objetivo de la optimización global es encontrar la mejor solución de modelos de


decisiones difíciles, frente a las múltiples soluciones locales.

Programación Lineal (PL)

La programación lineal muchas veces es uno de los temas preferidos tanto de profesores
como de alumnos. La capacidad de introducir la PL utilizando un abordaje gráfico, la
facilidad relativa del método de solución, la gran disponibilidad de paquetes de software
de PL y la amplia gama de aplicaciones hacen que la PL sea accesible incluso para
estudiantes con poco conocimiento de matemáticas. Además, la PL brinda una excelente
oportunidad para presentar la idea del análisis what-if o análisis de hipótesis ya que se
han desarrollado herramientas poderosas para el análisis de post optimalidad para el
modelo de PL.

La Programación Lineal (PL) es un procedimiento matemático para determinar la


asignación óptima de recursos escasos. La PL es un procedimiento que encuentra su
aplicación práctica en casi todas las facetas de los negocios, desde la publicidad hasta la
planificación de la producción. Problemas de transporte, distribución, y planificación
global de la producción son los objetos más comunes del análisis de PL. La industria
petrolera parece ser el usuario más frecuente de la PL. Un gerente de procesamiento de
datos de una importante empresa petrolera recientemente calculó que del 5% al 10% del
tiempo de procesamiento informático de la empresa es destinado al procesamiento de
modelos de PL y similares.

37
La programación lineal aborda una clase de problemas de programación donde tanto la
función objetivo a optimizar como todas las relaciones entre las variables
correspondientes a los recursos son lineales. Este problema fue formulado y resuelto por
primera vez a fines de la década del 40. Rara vez una nueva técnica matemática
encuentra una gama tan diversa de aplicaciones prácticas de negocios, comerciales e
industriales y a la vez recibe un desarrollo teórico tan exhaustivo en un período tan
corto. Hoy en día, esta teoría se aplica con éxito a problemas de presupuestos de capital,
diseño de dietas, conservación de recursos, juegos de estrategias, predicción de
crecimiento económico y sistemas de transporte. Recientemente la teoría de la
programación lineal también contribuyó a la resolución y unificación de diversas
aplicaciones.

Es importante que el lector entienda desde el comienzo que el término "programación"


tiene un significado distinto cuando se refiere a Programación Lineal que cuando
hablamos de Programación Informática. En el primer caso, significa planificar y
organizar mientras que en el segundo caso, significa escribir las instrucciones para
realizar cálculos. La capacitación en una clase de programación tiene muy poca
relevancia directa con la otra clase de programación. De hecho, el término
"programación lineal" se acuñó antes de que la palabra programación se relacionara con
el software de computación. A veces se evita esta confusión utilizando el término
optimización lineal como sinónimo de programación lineal.

Cualquier problema de PL consta de una función objetivo y un conjunto de


restricciones. En la mayoría de los casos, las restricciones provienen del entorno en el
cual usted trabaja para lograr su objetivo. Cuando usted quiere lograr el objetivo
deseado, se dará cuenta de que el entorno fija ciertas restricciones (es decir, dificultades,
limitaciones) para cumplir con su deseo (vale decir, el objetivo).

Qué es una función: una función es una cosa que hace algo. Por ejemplo, una máquina
de moler café es una función que transforma los granos de café en polvo. La función
(objetivo) traza, traduce el dominio de entrada (denominado región factible) en un rango
de salida con dos valores finales denominados valores máximo y mínimo.

Cuando se formula un problema de toma de decisiones como un programa lineal, se


deben verificar las siguientes condiciones:

1. La función objetivo debe ser lineal. Vale decir que se debe verificar que todas las
variables estén elevadas a la primera potencia y que sean sumadas o restadas (no
divididas ni multiplicadas);

2. El objetivo debe ser ya sea la maximización o minimización de una función lineal. El


objetivo debe representar la meta del decisor; y

3. Las restricciones también deben ser lineales. . Asimismo, la restricción debe adoptar
alguna de las siguientes formas (>,<, o =, es decir que las restricciones de PL siempre
están cerradas).

38
Por ejemplo, el siguiente problema no es un problema de PL: Max X, sujeta a < 1. Este
problema tan sencillo no tiene solución.

Como siempre, se debe tener cuidado al categorizar un problema de optimización como


un problema de PL. ¿El siguiente problema es un problema de PL?

Max X2

sujeta a:

X1 + X2 < 0
X12 - 4 < 0

Aunque la segunda restricción parece "como si" fuera una restricción no lineal, esta
restricción puede escribirse también de la siguiente forma:

X1 > -2, y X2 < 2.

En consecuencia, el problema es de hecho un problema de PL.

Para la mayoría de los problemas de PL, podemos decir que existen dos tipos
importantes de objetos: en primer lugar, los recursos limitados, tales como terrenos,
capacidad de planta, o tamaño de la fuerza de ventas; en segundo lugar, las actividades,
tales como "producir acero con bajo contenido de carbono", y "producir acero con alto
contenido de carbono". Cada actividad consume o probablemente contribuye cantidades
adicionales de recursos. Debe haber una función objetivo, es decir, una manera de
discriminar una mala de una buena o una mejor decisión. El problema es determinar la
mejor combinación de niveles de actividades, que no utilice más recursos de los
disponibles. Muchos gerentes se enfrentan a esta tarea todos los días. Afortunadamente,
el software de programación lineal ayuda a determinar esto cuando se ingresa un
modelo bien formulado.

El método Simplex es un algoritmo de solución muy utilizado para resolver programas


lineales. Un algoritmo es una serie de pasos para cumplir con una tarea determinada.

Proceso de Formulación de un Problema de PL y su Aplicación

Para formular un problema de PL, recomiendo seguir los siguientes lineamientos


generales después de leer con atención el enunciado del problema varias veces.
Todo programa lineal consta de cuatro partes: un conjunto de variables de decisión, los
parámetros, la función objetivo y un conjunto de restricciones. Al formular un
determinado problema de decisión en forma matemática, debe practicar la comprensión
del problema (es decir, formular un Modelo Mental) leyendo detenidamente una y otra
vez el enunciado del problema. Mientras trata de comprender el problema, formúlese las
siguientes preguntas generales:

¿Cuáles son las variables de decisión? Es decir, ¿cuáles con las entradas controlables?
Defina las variables de decisión con precisión utilizando nombres descriptivos.

39
Recuerde que las entradas controlables también se conocen como actividades
controlables, variables de decisión y actividades de decisión.

Cuáles son los parámetros? Vale decir ¿cuáles son las entradas no controlables? Por lo
general, son los valores numéricos constantes dados. Defina los parámetros con
precisión utilizando nombres descriptivos.

¿Cuál es el objetivo? ¿Cuál es la función objetivo? Es decir, ¿qué quiere el dueño del
problema? ¿De qué manera se relaciona el objetivo con las variables de decisión del
dueño del problema? ¿Es un problema de maximización o minimización? El objetivo
debe representar la meta del decisor.

¿Cuáles son las restricciones? Es decir, ¿qué requerimientos se deben cumplir? ¿Debería
utilizar un tipo de restricción de desigualdad o igualdad? ¿Cuáles son las conexiones
entre las variables? Escríbalas con palabras antes de volcarlas en forma matemática.

Recuerde que la región factible tiene poco o nada que ver con la función objetivo
(minim. o maxim.). Estas dos partes en cualquier formulación de PL generalmente
provienen de dos fuentes distintas. La función objetivo se establece para cumplir con el
deseo (objetivo) del decisor mientras que las restricciones que forman la región factible
generalmente provienen del entorno del decisor que fija algunas limitaciones /
condiciones para lograr su objetivo.

A continuación, se incluye un problema ilustrativo muy sencillo. Sin embargo, el


abordaje del problema es igual para una gran variedad de problemas de toma de
decisión, mientras que el tamaño o la complejidad pueden variar. El primer ejemplo es
un problema de mix de productos y el segundo es un problema de mezcla.

El Problema del Carpintero

Durante un par de sesiones de brain-storming con un carpintero (nuestro cliente), éste


nos comunica que sólo fabrica mesas y sillas y que vende todas las mesas y las sillas
que fabrica en un mercado. Sin embargo, no tiene un ingreso estable y desea optimizar
esta situación.

El objetivo es determinar cuántas mesas y sillas debería fabricar para maximizar sus
ingresos netos. Comenzamos concentrándonos en un horizonte de tiempo, es decir, un
plazo de planificación, para revisar nuestra solución semanalmente, si fuera necesario.
Para saber más acerca de este problema, debemos ir al negocio del carpintero y observar
lo que sucede y medir lo que necesitamos para formular (para crear un modelo de) su
problema. Debemos confirmar que su objetivo es maximizar sus ingresos netos.
Debemos comunicarnos con el cliente.

El problema del carpintero se trata de determinar cuántas mesas y sillas debe fabricar
por semana; pero primero se debe establecer una función objetivo La función objetivo
es: 5X1 + 3X2, donde X1 y X2 representan la cantidad de mesas y sillas; y 5 y 3
representan los ingresos netos (por ejemplo, en dólares o décimas de dólares) de la
venta de una mesa y una silla, respectivamente. Los factores limitantes, que
normalmente provienen del exterior, son las limitaciones de la mano de obra (esta

40
limitación proviene de la familia del carpintero) y los recursos de materia prima (esta
limitación proviene de la entrega programada). Se miden los tiempos de producción
requeridos para una mesa y una silla en distintos momentos del día y se calculan en 2
horas y 1 hora, respectivamente. Las horas laborales totales por semana son sólo 40. La
materia prima requerida para una mesa y una silla es de 1 y 2 unidades,
respectivamente. El abastecimiento total de materia prima es de 50 unidades por
semana. En consecuencia, la formulación de PL es la siguiente:

Maximizar 5 X1 + 3 X2

Sujeta a:

2 X1 + X2 < 40 restricción de mano de obra


X1 + 2 X2 < 50 restricción de materiales

tanto X1 como X2 son no negativas.

Este es un modelo matemático para el problema del carpintero. Las variables de


decisión, es decir, las entradas controlables son X1, y X2. La salida o el resultado de
este modelo son los ingresos netos totales 5 X1 + 3 X2. Todas las funciones empleadas
en este modelo son lineales (las variables de decisión están elevadas a la primera
potencia). El coeficiente de estas restricciones se denomina Factores Tecnológicos
(matriz). El período de revisión es de una semana, un período conveniente dentro del
cual es menos probable que cambien (fluctúen) las entradas controlables (todos los
parámetros tales como 5, 50, 2,..). Incluso en un plazo de planificación tan corto,
debemos realizar el análisis what-if o de hipótesis para responder a cualquier cambio en
estas entradas a los efectos de controlar el problema, es decir, actualizar la solución
prescripta.

Nótese que dado que el Carpintero no va a ir a la quiebra al final del plazo de


planificación, agregamos las condiciones que tanto X1 como X2 deben ser no negativas
en lugar de los requerimientos que X1 y X2 deben ser números enteros positivos.
Recuerde que las condiciones de no negatividad también se denominan "restricciones
implícitas". Nuevamente, un Programa Lineal funcionaría bien para este problema si el
Carpintero continúa fabricando estos productos. Los artículos parciales simplemente se
contarían como trabajos en proceso y finalmente se transformarían en productos
terminados, en la siguiente semana.

Podemos intentar resolver X1 y X2 enumerando posibles soluciones para cada una y


seleccionado el par (X1, X2) que maximice 5X1 + 3X2 (los ingresos netos). Sin
embargo, lleva mucho tiempo enumerar todas las alternativas posibles y si no se
enumeran todas las alternativas, no podemos estar seguros de que el par seleccionado
(como una solución) es la mejor de todas las alternativas. Otras metodologías preferidas
(más eficientes y efectivas), conocidas como las Técnicas de Soluciones de
Programación Lineal están disponibles en el mercado en más de 4000 paquetes de
software de todo el mundo.

La solución óptima, es decir, la estrategia óptima, es establecer X1 = 10 mesas y X2 =


20 sillas. Programamos las actividades semanales del carpintero para que fabrique 10

41
mesas y 20 sillas. Con esta estrategia (óptima), los ingresos netos son de US$110. Esta
solución prescripta sorprendió al carpintero dado que debido a los mayores ingresos
netos provenientes de la venta de una mesa (US$5), el solía fabricar más mesas que
sillas.

¿Contratar o no contratar a un ayudante? Supóngase que el carpintero pudiera contratar


a un ayudante a un costo de US$2 por hora (adicionales $2) ¿Le conviene al carpintero
contratar a un ayudante? En caso afirmativo, ¿por cuántas horas?

X3 es la cantidad de horas extra, entonces el problema modificado es:

Maximizar 5 X1 + 3 X2 - 2 X3

Sujeta a:

2 X1 + X2 < 40 + X3 restricción de la mano de obra con horas adicionales desconocidas


X1 + 2 X2 < 50 restricción de materiales

En esta nueva condición, veremos que la solución óptima es X1 = 50, X2 = 0, X3 = 60,


con ingresos netos óptimos de US$130. Por lo tanto, el carpintero debería contratar a un
ayudante por 60 horas. ¿Qué pasaría si sólo lo contrata por 40 horas?

Un Problema de Mezcla

El taller de Joe se especializa en cambios de aceite del motor y regulación del sistema
eléctrico. El beneficio por cambio del aceite es $7 y de $15 por regulación. Joe tiene un
cliente fijo con cuya flota, le garantiza 30 cambios de aceite por semana. Cada cambio
de aceite requiere de 20 minutos de trabajo y $8 de insumos. Una regulación toma una
hora de trabajo y gasta $15 en insumos. Joe paga a los mecánicos $10 por hora de
trabajo y emplea actualmente a dos de ellos, cada uno de los cuales labora 40 horas por
semana. Las compras de insumos alcanzan un valor de $1.750 semanales. Joe desea
maximizar el beneficio total. Formule el problema.
Esto es una pregunta de programación linear. Una porción de un cambio del aceite o del
ajuste no es factible.

X1 = Cambios del aceite, ajuste


X2 = Ajuste

Maximizar 7X1 + 15X2

Sujeta a:

X1 > 30 Cuenta de la Flota


20X1 + 60X2 < 4800 De trabajo tiempo
8X1 + 15X2 < 1750 Primas Materias
X1 > 0, X2 > 0.

42
El coste de trabajo de $10 por hora no se requiere para formatear el problema desde el
beneficio por cambio del aceite y el ajuste toma en la consideración el coste de trabajo.

Otras Aplicaciones Comunes de PL

La programación lineal es una herramienta poderosa para seleccionar alternativas en un


problema de decisión y por consiguiente se aplica en una gran variedad de entornos de
problemas. La cantidad de aplicaciones es tan alta que sería imposible enumerarlas
todas. A continuación, indicamos algunas de las principales aplicaciones que cubren las
áreas funcionales más importantes de una organización empresarial.

Finanzas: el problema del inversor podría ser un problema de selección del mix de su
cartera de inversiones. En general, la variedad de carteras puede ser mucho mayor que
lo que indica el ejemplo y se pueden agregar muchas más restricciones distintas. Otro
problema de decisión implica determinar la combinación de métodos de financiación
para una cantidad de productos cuando existe más de un método de financiación
disponible. El objetivo puede ser maximizar las ganancias totales cuando las ganancias
de un producto determinado dependen del método de financiación. Por ejemplo, se
puede financiar con fondos internos, con deuda a corto plazo o con financiación
intermedia (créditos amortizados). Puede haber limitaciones con respecto a la
disponibilidad de cada una de las opciones de financiación, así como también
restricciones financieras que exijan determinadas relaciones entre las opciones de
financiación a los efectos de satisfacer los términos y condiciones de los préstamos
bancarios o financiación intermedia. También puede haber límites con respecto a la
capacidad de producción de los productos. Las variables de decisión serían la cantidad
de unidades que deben ser financiadas por cada opción de financiación.

Administración de Producción y Operaciones: muchas veces en las industrias de


proceso, una materia prima en particular puede transformarse en una gran variedad de
productos. Por ejemplo, en la industria petrolera, el crudo puede refinarse para producir
nafta, kerosene, aceite para calefaccionar y distintas clases de aceite para motor. Según
el margen de ganancia actual de cada producto, el problema es determinar la cantidad
que se debería fabricar de cada producto. Esta decisión está sujeta a numerosas
restricciones tales como límites de las capacidades de diversas operaciones de refinado,
disponibilidad de materia prima, demandas de cada producto y políticas
gubernamentales con respecto a la fabricación de determinados productos. En la
industria de productos químicos y de procesamiento de alimentos existen problemas
similares.

Recursos Humanos: los problemas de planificación de personal también se pueden


analizar con programación lineal. Por ejemplo, en la industria telefónica, la demanda de
servicios de personal de instalación / reparación son estacionales. El problema es
determinar la cantidad de personal de instalación / reparación y reparación de líneas que
debemos tener incorporada en la fuerza laboral por cada mes a fin de minimizar los
costos totales de contratación, despido, horas extras y salarios en horas ordinarias. El
conjunto de restricciones comprende restricciones con respecto a la demanda de servicio
que se debe satisfacer, uso de horas extra, acuerdos con los sindicatos y la
disponibilidad de personal calificado para contratar. Este ejemplo es opuesto a la
hipótesis de divisibilidad. Sin embargo, los niveles de fuerza laboral de cada mes

43
normalmente son lo suficientemente altos como para poder redondear al número entero
más cercano sin problemas, siempre y cuando no se violen las restricciones.

Marketing: se puede utilizar la programación lineal para determinar el mix adecuado de


medios de una campaña de publicidad. Supóngase que los medios disponibles son radio,
televisión y diarios. El problema es determinar cuántos avisos hay que colocar en cada
medio. Por supuesto que el costo de colocación de un aviso depende del medio elegido.
El objetivo es minimizar el costo total de la campaña publicitaria, sujeto a una serie de
restricciones. Dado que cada medio puede proporcionar un grado diferente de
exposición a la población meta, puede haber una cota inferior con respecto a la
exposición de la campaña. Asimismo, cada medio puede tener distintos ratings de
eficiencia para producir resultados deseables y por consiguiente puede haber una cota
inferior con respecto a la eficiencia. Además, puede haber límites con respecto a la
disponibilidad para publicar en cada medio.

Distribución: otra aplicación de programación lineal es el área de la distribución.


Considere un caso en el que existen m fábricas que deben enviar productos a n
depósitos. Una determinada fábrica podría realizar envíos a cualquier cantidad de
depósitos. Dado el costo del envío de una unidad del producto de cada fábrica a cada
depósito, el problema es determinar el patrón de envío (cantidad de unidades que cada
fábrica envía a cada depósito) que minimice los costos totales. Esta decisión está sujeta
a restricciones que exigen que cada fábrica no pueda enviar más productos de los que
tiene capacidad para producir.

Método de Solución Gráfica

Dado que somos una especie visual debido a nuestro sistema educativo, muchas de las
herramientas de enseñanza escolar utilizadas en la actualidad son de naturaleza gráfica.
Les enseñamos a leer mostrándoles figuras de las cosas. Les enseñamos a contar
mostrándoles el orden de los números. En consecuencia, nuestros receptores visuales se
agudizan a expensas de otras funciones cognitivas. También he descubierto que las
personas de negocios responden mejor a los gráficos y a los cuadros que a los números.
Procedimiento para el Método Gráfico de Solución de Problemas de PL:

¿El problema es un problema de PL? La respuesta es afirmativa si y sólo si:

Todas las variables están elevadas a la primera potencia y son sumadas o restadas (no
dividas ni multiplicadas). La restricción debe adoptar alguna de las siguientes formas
(<, >, o =, es decir que las restricciones de PL siempre están cerradas), y el objetivo
debe ser de maximización o minimización.

Por ejemplo, el siguiente problema no es un problema de PL: Max X, sujeta a <. Este
problema tan sencillo no tiene solución.

¿Puedo utilizar el método gráfico? La respuesta es afirmativa si la cantidad de variables


de decisión es 1 o 2.

44
Utilice papel milimetrado. Grafique cada restricción, una por una, como si fueran
igualdades (como si todo < y >, es = ) y luego trace la línea.

A medida que se crea cada línea, divida la región en 3 partes con respecto a cada línea.
Para identificar la región factible para esta restricción en particular, elija un punto en
cualquier lado de la línea y coloque sus coordenadas en la restricción, si satisface la
condición, este lado es factible, de lo contrario el otro lado es factible. En el caso de
restricciones de igualdad, sólo los puntos sobre la línea son factibles.

Elimine los lados que no son factibles.


Una vez graficadas todas las restricciones, debe generarse una región factible no vacía
(convexa), salvo que el problema sea no factible.

Cree (como mínimo) dos líneas de igual valor desde la función objetivo, fijando la
función objetivo en dos números distintos cualquiera. Grafique las líneas resultantes. Al
mover estas líneas paralelas, encontrará el vértice óptimo (punto extremo), si es que
existe.

En general, si la región factible se encuentra dentro del primer cuadrante del sistema de
coordenadas (es decir si X1 y X2 > 0), entonces, para los problemas de maximización,
usted debe mover la función objetivo de igual valor (función iso) paralela a sí misma
lejos del punto de origen (0, 0), como mínimo, teniendo a la vez un punto en común con
la región factible. Sin embargo, para los problemas de minimización, debe realizar lo
opuesto, es decir, mover la función objetivo de igual valor (función iso) paralela a sí
misma acercándola al punto de origen, a su vez teniendo como mínimo un punto en
común con la región factible. El punto común proporciona la solución óptima.

Recuerde que las restricciones de PL proporcionan los vértices y las esquinas. Un


vértice es la intersección de 2 líneas o en general, n hiperplanos en problemas de PL con
n variables de decisión. Una esquina es un vértice que además es factible.

Un Ejemplo Numérico: El Problema del Carpintero

Maximizar 5 X1 + 3 X2

Sujeta a:
2 X1 + X2 < 40
X1 + 2 X2 > 50

y X1, X2 son positivas. Ver la representación gráfica en la Figura 6.1.

Nota: Existe una alternativa del abordaje de la función objetivo de igual valor (función
iso) con problemas que tienen pocas restricciones y una región factible acotada. Primero
busque todas las esquinas, también llamadas puntos extremos. Luego, evalúe la función
objetivo en los puntos extremos para llegar al valor óptimo y a la solución óptima.

45
Figura 6.1. La estrategia óptima del carpintero

Por ejemplo, en el problema del carpintero, la región factible convexa proporciona los
puntos extremos con las coordenadas que figuran en la Tabla 6.1.

Table 6.1. Valor de la Función Objetivo en cada Esquina o Punto Extremo.


Coordenadas de los Puntos Función de los Ingresos
Elecciones del Decisor
Extremos Netos
Cantidad de Mesas o Sillas X1, X2 5 X1 + 3 X2
No fabricar ninguna mesa ni
0, 0 0
silla
Fabricar todas la mesas posibles 20, 0 100
Fabricar todas las sillas posibles 0, 25 75
Fabricar una combinación de
10, 20 110
productos

Dado que el objetivo es maximizar, de la tabla anterior surge que el valor óptimo es
110, el cual se obtiene si el carpintero sigue la estrategia óptima de X1 = 10 y X2 = 20.

La principal deficiencia del método gráfico es que se limita a resolver problemas


lineales que tengan sólo 1 o 2 variables de decisión. Sin embargo, la conclusión

46
principal y útil a la que podemos arribar a partir del análisis de los métodos gráficos es
la siguiente:

Si un programa lineal tiene una región factible acotada no vacía, la solución óptima es
siempre uno de los puntos extremos. .

La prueba de esta afirmación surge de los resultados de los siguientes dos hechos:

Hecho N° 1: La región factible de cualquier programa lineal es siempre un conjunto


convexo.

Debido a que todas las restricciones son lineales, la región factible (R.F.) es un
polígono. Además, este polígono es un conjunto convexo. En cualquier problema de PL
que tenga más de dos dimensiones, los límites de la región factible son partes de los
hiperplanos, y la región factible en este caso se denomina poliedro y también es
convexa. Un conjunto convexo es aquel en el cual si se eligen dos puntos factibles,
todos los puntos en el segmento de la línea recta que une estos dos puntos también son
factibles. La prueba de que la región factible de los programas lineales son siempre
conjuntos convexos surge por contradicción. La Figura 6.2 ilustra ejemplos de los dos
tipos de conjuntos: un conjunto no convexo y un conjunto convexo.

Figura 6.2. Tipos de conjuntos para regiones factibles de solución.

El conjunto de la región factible en cualquier programa lineal se denomina poliedro y si


está acotado se denomina politopo.

Hecho N° 2: El valor iso de una función objetivo de un programa lineal es siempre una
función lineal.

Este hecho surge de la naturaleza de la función objetivo de cualquier problema de PL.


Las Figura 6.3 ilustra las dos clases típicas de funciones objetivo de igual valor (función
iso).

47
Figura 6.3. Clases típicas de funciones objetivo de igual valor (función iso).

De la combinación de los dos hechos expresados arriba surge que si un programa lineal
tiene una región factible acotada no vacía, la solución óptima es siempre uno de los
puntos extremos.

Para superar la deficiencia del método gráfico, utilizaremos esta conclusión útil y
práctica en el desarrollo de un método algebraico aplicable a problemas de PL
multidimensionales.

La convexidad de la región factible de los programas lineales facilita la resolución de


problemas de PL. Debido a esta propiedad y a la linealidad de la función objetivo, la
solución es siempre uno de los vértices. Asimismo, dado que la cantidad de vértices es
limitada, todo lo que debemos hacer es buscar todos los vértices factibles y luego
evaluar la función objetivo en dichos vértices para encontrar el punto óptimo.

En el caso de programas no lineales, el problema es mucho más difícil de resolver


porque la solución podría estar en cualquier parte dentro de la región factible, en el
límite de la región factible o en un vértice.

Por suerte, la mayoría de los problemas de optimización empresarial son lineales y es


por eso que la PL es tan popular. Hoy en día, existen más de 400 paquetes de software
en el mercado para resolver problemas de PL. La mayoría se basa en la búsqueda de
vértices. Esto equivale a pasar de un vértice a otro cercano en busca de un punto óptimo.

Vínculo entre Programación Lineal y Sistemas de Ecuaciones

George Dantzig la programación lineal es estrictamente "la teoría y la solución de


sistemas lineales de desigualdad". Probablemente ya ha notado que las soluciones
básicas de un programa lineal son las soluciones de los sistemas de ecuaciones que
constan de restricciones en una posición obligatoria.

48
Por ejemplo, en el caso del Problema del Carpintero, se pueden calcular todas las
soluciones básicas, tomando dos ecuaciones cualesquiera y resolviéndolas al mismo
tiempo. Luego, se utilizan las restricciones de las otras ecuaciones para verificar la
factibilidad de esta solución. Si es factible, esta solución es una solución básica factible
que proporciona las coordenadas de un punto extremo de la región factible. Para ilustrar
el procedimiento, considere las restricciones del Carpintero en la posición obligatoria
(es decir todas con signo =):

2X1 + X2 = 40
X1 + 2X2 = 50
X1 = 0
X2 = 0

Aquí tenemos 4 ecuaciones con 2 incógnitas. Existen como máximo C 42 = 4! / (2! 2!) =
6 soluciones básicas. Si resolvemos los seis sistemas de ecuaciones resultantes tenemos:

Seis Soluciones Básicas con Cuatro Soluciones Básicas Factibles:

X1 X2 5X1 + 3X2
10 20 110*
0 40 No factible
20 0 100
0 25 75
50 0 No factible
0 0 0

Cuatro de las soluciones básicas que figuran arriba son soluciones básicas factibles que
satisfacen todas las restricciones y pertenecen a los vértices de la región factible. Al
incluir la solución básica factible en la función objetivo, podemos calcular el valor
óptimo. Entonces, de la tabla anterior surge que la solución óptima es X1 = 10, X2 = 20,
con un valor óptimo de US$110. Este abordaje puede aplicarse para resolver problemas
de PL de más dimensiones.

Extensión a Mayores Dimensiones

El Método Gráfico se limita a resolver problemas de PL con una o dos variables de


decisión. Sin embargo, proporciona una clara ilustración de dónde se encuentran las
regiones factibles y no factibles así como también los vértices. Desarrollar una
comprensión visual del problema contribuye a un proceso de pensamiento más racional.
Por ejemplo, ya vimos que: si un programa lineal tiene una región factible acotada no
vacía, la solución óptima es siempre uno de los vértices de su región factible (una
esquina o punto extremo). Como resultado, lo que debemos hacer es buscar todos los
puntos de intersección (vértices) y luego examinar cuál de todos los vértices factibles
proporciona la solución óptima. Ahora, aplicando conceptos de Geometría Analítica,

49
sortearemos esta limitación de la visión humana. El Método Algebraico está diseñado
para extender los resultados del método gráfico a problemas de PL multidimensionales.

Problemas Sección 6

Problema 6.1. (Tomado de Jiménez A., 2003) Para un sistema de intercambiadores de


calor en serie, estime los grados de libertad y seleccione las variables a optimizar
utilizando el algoritmo de Lee y Rudd.

Problema 6.2 Para el siguiente sistema de ecuaciones estime los grados de libertad y
seleccione las variables a optimizar utilizando el algoritmo de Lee y Rudd.

2X1+ 3X2 + 5X3 + 6X4 + X5= 10


4X2+ X3 + 3X4 + 4X5 = 20
X2 + 2X3·+ X4 + X5 = 25
3X3 + X4 + 2X5 = 15
2X1 + 7X2 + 6X3 + 9X4 + 5X5 = 30

Problema 6.3. Mediante el método de la sección dorada encuentre el máximo de la


x2
función f ( x )  2 senx  con xl = 0 y xu = 4 como rango de búsqueda.
10

Problema 6.4.- Mediante el método de Fibonacci encuentre el mínimo de la función


f ( x )  x 2  8 x  16 entre [0,9]. Usar dos iteraciones.

50
Problema 6.5.- (Tomado de Jiménez A., 2003) Se va a diseñar un proceso de extracción
líquido –líquido para recuperar un soluto valioso. Las variables relevantes de esta
operación se indican en el siguiente diagrama:

W1
y0

Q1
Q2
xF
y1

W2
Y1

El flujo de alimentación Q es de 1000 lb de solvente / hr, con una concentración de


soluto de 0.20 lb de soluto / lb de solvente. Esta corriente se va a poner en contacto con
un solvente de lavado W. Se desea detectar la cantidad de solvente de lavado que debe
usarse para maximizar la siguiente función objetivo:

max Q xF  x1   W 

donde Q xF  x1  representa la cantidad de soluto extraído y  es la relación del costo


unitario de solvente de lavado al valor unitario. Usando un valor de  = 0.05, determine
la cantidad óptima de solvente de lavado.

51
52
7. Biocombustibles

¿Qué son los biocombustibles?

El consumo de los combustibles fósiles no renovables es el sustento de la civilización


actual y el motor de la economía mundial. La posesión y el aseguramiento del petróleo
constituyen el centro de las estrategias energéticas de las naciones desarrolladas, de su
geopolítica, y hasta de su seguridad nacional.

El petróleo representa actualmente el 40% de la demanda mundial de energía, mientras


que el gas natural alcanza el 25% y el carbón, otro 25%. Así, los energéticos fósiles
cubren el 90% de la demanda energética actualmente. El mundo consume actualmente
más de 80 millones de barriles por día (MMb/d) y se estima que este consumo llegará a
cerca de 120 MMb/d para el año 2025. Con respecto al gas natural, el consumo fue de
2.35 terametros cúbicos (Tm3 ó 1012 m3) durante el año 2000; y será de 4.54 Tm 3 para
el año 2020.

Actualmente más de 50 países productores, incluyendo México, ya pasaron su pico de


producción y queda sólo una decena de países con capacidad de aumentarla. Este
modelo de extracción de recursos fósiles, así como el hecho de que el petróleo barato se
está acabando, es algo bastante aceptado por la comunidad científica y, cada vez más,
por la industria petrolera.

Al ritmo en que se consumió petróleo mundialmente en 2004 (cerca de 29 mil 300


millones de barriles) nos acabaríamos lo que queda en menos de 40 años. Aunque
resulte difícil de creer, para México la situación es, incluso, peor. Se estima que en
nuestro territorio sólo quedan aproximadamente 15 mil millones de barriles. Al ritmo
actual de producción, que asciende a cerca de mil 400 millones de barriles al año (de los
cuales vendemos casi el 45% a Estados Unidos) el petróleo mexicano no alcanzaría ni
para 11 años más. Sin embargo, debido a que, como mencionamos antes, el petróleo que
va quedando es cada vez más difícil de extraer, sería imposible mantener tal nivel de
producción y, al producir menos, se extiende la vida de los yacimientos.

En general para todo el mundo, a medida que avanza el tiempo los costos irán
aumentando por el echo de que será necesario invertir mas energía para extraer petróleo
y la ganancia neta de energía, entre lo que se gaste y lo que se genere será muy poca, sin
contar que el petróleo extraído será de menos calidad (mayor numero de impurezas) y
también se tendrá que invertir energía para su tratamiento. Ante esta perspectiva cabe la
posibilidad de buscar fuentes de energía alternativas para suplir la enorme demanda
energética, una de estas, es el uso de biocombustibles.

Definición y necesidad de uso

Los biocombustibles es una de las fuentes de energía renovables que puede fácilmente
sustituir a los combustibles fósiles, al tiempo que contribuyen a reducir las emisiones de
gases invernadero y la promoción de un desarrollo rural sostenible.

El Biodiesel es un Ester (similar al vinagre) que puede ser obtenido de diferentes tipos
de aceites o grasas animales o vegetales; como soja, colza, palmera, entre otras;

53
mediante un proceso denominado transesterificación, los aceites derivados
orgánicamente se combinan con el alcohol (etanol o metano) y son químicamente
alterados para formar ésteres grasos, como Etil o metilester. El Biodiesel funciona en
cualquier motor Diesel.

El bioetanol es un alcohol producido a partir de la fermentación de los azucares que se


encuentran en la remolacha, maíz, cebada, trigo, caña de azúcar, sorgo u otros cultivos
energéticos, que mezclado con la gasolina produce un biocombustible de alto poder
energético con características muy similares a la gasolina pero con una importante
reducción de las emisiones contaminantes en los motores tradicionales de combustión.

¿Por qué debemos desarrollar la bioenergía en un país petrolero?

El uso de la biomasa como fuente primaria de energía en México ha ido disminuyendo


desde 1965, cuando se constituyó 15,3% del suministro total de energía primaria. A
partir del año 2005, este porcentaje representa sólo el 5,3%. Mientras tanto, el uso de
combustibles fósiles ha aumentado de manera constante Y representaron el 87,7% del
valor bruto de energía primaria.

Hay varias razones para aumentar el uso de la bioenergía en México. Por un lado, la
creciente dependencia de los combustibles fósiles es problemático. En 2007, el
resultado nacional de las reservas de hidrocarburos son suficientes para apoyar la
producción anual de petróleo y gas de 9,6 y 8,9 años, respectivamente .Además la tasa
media de crecimiento anual de las emisiones de CO2 es de 4,3%, uno de los más altos
del mundo.

Hay varias razones para aumentar el uso de la bioenergía

En México. Por un lado, la creciente dependencia de los combustibles fósiles es


problemático. En 2007, el resultado nacional de las reservas de hidrocarburos son
suficientes para apoyar producción anual de petróleo y gas de 9,6 y 8,9 años,
respectivamente. La tasa media de crecimiento de las emisiones de CO2 es de 4,3%,
uno de los Más altos del mundo.

Por otra parte, la bioenergía tiene el potencial de convertirse en una pieza fundamental
en un sistema de energía sostenible, lo que contribuye no sólo a la energía del país y a la
estrategia de diversificación, sino también a la consignación de las nuevas tecnologías
de la energía. Esto puede contribuir a la Reducción de las emisiones de gases de
invernadero, y también a la generación de nuevos puestos de trabajo en las zonas rurales
y la mejora de la distribución de ingresos. Además, el crecimiento actual de las
importaciones de energía, principalmente de gasolina y diesel, esto es importante por
razones económicas y razones de seguridad nacional.

Obtención general

Bioetanol.
A manera general podemos generar la siguiente relación de pasos sencillos para la
obtención de bioetanol usando caña de azúcar como materia prima y partiendo de todo
el tratado de esta.

54
1. Recepción y Lavado
Una vez que la caña de azúcar llega al patio de recepción en el ingenio es descargada y
el exceso de tierra y piedras son removidos mediante el lavado de la caña. Esta etapa es
intensiva en el consumo de agua y uno de los puntos críticos de contaminación de no
tomarse las medidas para la recuperación y ahorro del agua utilizada, especialmente si
se descarga sucia a los ríos. Se lava la caña para eliminar las impurezas y materia
extraña como tierra que le resta pureza y color al azúcar refinado y disminuye el
rendimiento de azúcar por tonelada de caña molida.

2. Molienda o trapiche
Luego la caña lavada pasa a cuchillos picadores que reducen el tamaño de la estaca,
pasando entonces por los molinos que separa el bagazo del jugo o guarapo de caña. El
bagazo es aprovechado por los ingenios como fuente de combustible para las calderas
que suplen las necesidades energéticas del proceso, pudiendo lograr la autosuficiencia
de energía y incluso generar excedentes.

3. Clarificación
El jugo que lleva un color verde oscuro, es ácido con un grado de turbidez, pasa al
clarificador donde se remueven las impurezas solubles e insolubles. El proceso emplea
cal, cerca de medio kg por tonelada de caña, neutralizando la acidez. Al calentarse la
preparación se coagulan las albúminas, grasas, ceras y gomas y el precipitado atrapa los
sólidos que pasan a formar parte de la cachaza que puede ser utilizado como abono
orgánico.

4. Evaporación
El jugo clarificado pasa a un proceso de evaporación al vacío donde pierde dos terceras
parte de su agua al final de 3 o 4 de las torres de evaporación en serie, que van
produciendo un vacío progresivo. El vapor de la última torre va a un condensador donde
se puede recuperar agua para las necesidades del procesamiento en el ingenio.

5. Cristalización
El jarabe o meladura (65% sólidos y 35% agua) producido en la evaporación pasa a un
tacho donde se evapora al vacío aún más hasta alcanzar el punto de saturación. Se
añaden pequeños granos de azúcar al tacho para servir de semilla, del cual sirven de
núcleo para la formación de los cristales de azúcar.

6. Centrífugas
La mezcla espesa de miel y cristales de azúcar es conocido como “massecuite” y del
tacho pasa a las centrífugas donde se separa la melaza de la azúcar cruda mediante la
fuerza centrífuga. La melaza va a los tanques de almacenamiento y su uso final es
múltiple (alcoholes, licores, sucroquímicos y pienso animal).

7. Secadores
El azúcar crudo centrifugado pasa a los secadores para eliminar la humedad restante y
luego es almacenada en sacos o a granel. El azúcar crudo puede seguir al siguiente paso,
cual es la refinación, sin embargo el grueso de la producción se almacena y exporta en
este estado.

55
8. Refinación
En esta etapa se separa y clasifica el azúcar por su calidad y granulometría antes de
enviar al consumo nacional o exportación.

9. Fermentación
La fermentación alcohólica puede llevarse a cabo por lotes (80% de los casos en Brasil)
o en forma continua. El proceso típico de producción de alcohol a partir de melazas o
jugo de caña (proceso Melle-Boinot), comprende la esterilización previa de la materia
prima seguida del ajuste del pH con H2SO4 y de los azucares a valores de 14-22º Brix.
El mosto obtenido se somete a fermentación. El vino resultante se decanta y centrifuga
para enviar a destilación, mientras la levadura se recircula a los fermentadores, luego de
su reactivación. Durante la fermentación es necesario añadir algunas nutrientes como
fuentes de nitrógeno y fósforo para obtener óptimos resultados, siendo los principales
sulfato de amonio, urea y fosfato diamónico.

10. Destilación
La fermentación produce una solución diluida de etanol en agua de menos 10% en peso
de Etanol, buscando obtener una concentración más elevada, la separación del etanol del
vino se procesa en columnas de destilación que progresivamente concentran la solución
alcohólica, hasta el estado azeotrópico (aproximadamente 95,6% en peso de etanol). Un
subproducto importante de la destilación es la vinaza, un efluente con alto contenido de
potasa que puede ser usado como abono, producido a razón de cerca de 10 a 16 litros
por litro de etanol producido.

11. Deshidratación
Debido a que las mezclas de etanol y gasolina deben estar libres de agua para evitar
problemas de separación de fases en los tanques de almacenamiento y suministro, el
etanol a ser mezclado a la gasolina debe contener menos que 0,5% de agua. En ese caso
no es posible utilizar procesos clásicos de destilación, siendo necesario emplear otras
tecnologías, como la destilación azeotrópica empleando benceno, ciclohexano o pentano
como agentes de separación o la adsorción por balanceo de presión usando tamices
moleculares o monoetileno glicol.

Cabe reiterar que procesos empleando materias primas celulósicas todavía se encuentran
en desarrollo, con buenas perspectivas pero a mediano plazo, con pocas plantas
actualmente operando, generalmente en nivel experimental, como la planta de Iogen en
Canadá. Así, las biomasas azucaradas y amiláceas, respectivamente bien representadas
por la caña de azúcar y el maíz, como se vio en el apartado anterior, son las materias
primas de inmediato interés. Para la caña, adicionalmente será brevemente presentada la
utilización del bagazo y hojas de la caña como materia prima para producción de etanol
una tecnología prometedora, pero todavía en desarrollo. Actualmente el bagazo
representa una fuente de energía en el procesamiento de la caña y su utilización debe
considerar también los usos alternativos de ese producto.

Biodiesel.
La producción del biodiesel es bien conocida y citada extensamente en la literatura y a
través de diversos medios informativos. Básicamente se elabora mediante la
transesterificación de grasas y aceites con alcohol metílico en ambiente básico. Los

56
catalizadores a emplear pueden ser soda cáustica o metilato sódico, ambos en solución
metanólica.

Esta es la vía actualmente empleada para producirlo, ya que es la más económica,


ofreciendo entre otras las siguientes ventajas:

• Elevada conversión (98%) con pocas reacciones secundarias y reducido tiempo


de reacción.
• Conversión directa a Ester metílico sin pasos intermedios.
• Materiales de construcción estándar (AISI 304, acero al carbono y materiales
plásticos: PRFV, PP)

A diferencia de otros procesos comerciales existentes en el mercado el presente se


caracteriza por cuanto el equipamiento de la planta es de fácil obtención y/o
construcción en muchos países que poseen capacidad para producir calderería, sin
necesidad de tener que recurrir a equipos costosos, que requieren además
mantenimiento especializado (Ej., centrífugas), y los materiales para su construcción
poseen reducidos costos relativos. El proceso Batch puede ser conveniente en función
de la escala productiva y de la calidad de la materia prima a tratar. En el mismo la
reacción y la destilación del metanol en exceso es del tipo Batch, mientras a partir de la
decantación es continuo.

Este proceso prevé el empleo de aceites o grasas que contengan acidez libre, y en su
primera fase los ácidos grasos libres se transforman también en metilester. Esta es una
ulterior ventaja ya que no es necesario procesar previamente grasas y o aceites para
eliminar tales impurezas obteniéndose además un rendimiento superior respecto de los
triglicéridos de partida.

El esquema simplificado de una planta continua para producir el biodiesel se puede


observar en el diagrama siguiente:

Actualmente en México existen lugares donde ya se esta trabajando en la producción de


biodiesel como por ejemplo:

• la planta de biodiesel en Cadereyta (2006).


Donde, sobre la base de un estudio de viabilidad realizado en el ITESM y Grupo
Energéticos México, construyó la primera comercial planta de biodiesel en Cadereyta
Nuevo León. Tienen una inversión de de la pequeña escala de cerca de 16 millones de
dólares MX. La planta fue inaugurada en julio de 2005, y utiliza sebo de la carne de
vacuno, con un promedio de contenido de ácidos grasos libres (FFA) <3% como
materia prima con el actual nivel de producción de 300 m³ / mes.

• Proyecto de Biodiesel en la Universidad Vasconcelos de Oaxaca

Desde agosto de 2004 la Universidad José Vasconcelos en Oaxaca ha llevado a cabo


experimentos para producir biodiesel a partir de residuos de aceite vegetal. Promovido y
supervisado por su rector, Lic. Oswaldo García y diseñado por [Link]. Tiene una
capacidad de 3,6 m³ / mes (aproximadamente 38 t / a).

57
¿Dónde se usa y como?

Bioetanol
Existen al menos tres formas de ampliar el uso de etanol en el sector del transporte. Una
primera opción es el uso de etanol en la producción de Etil terbutil éter (ETBE), un
aditivo oxigenante que se mezcla con la gasolina en proporciones de hasta 15% en
volumen, como hace actualmente en Francia, España y Alemania. El ETBE aumenta el
octanaje y reduce el monóxido de carbono y las emisiones de hidrocarburos no
quemados. La composición del ETBE es 48 volumen% de etanol y 52% volumen
isobutileno (un subproducto de las refinerías de petróleo).En la actualidad existe un
sustituto para el ETBE el cual es el (MTBE), un aditivo que oxigenante aunque está
actualmente prohibida en algunos estados de [Link]., porque es un potencial
carcinógeno humano.

Una segunda opción es la mezcla de etanol anhidro (deshidratados) con la gasolina. En


este caso, el etanol anhidro es un aditivo que aumenta el octanaje. Actualmente, varios
países mezcla etanol anhidro en proporciones que oscilan entre el 5 al 26% volumen.
La tercera opción es el uso de etanol en su pura forma como el transporte de
combustible en los vehículos modificados especialmente para este fin. En Brasil,
aproximadamente de 100 de 5 millones de vehículos se han vendido desde 1979. Estas
ventas alcanzaron un máximo del 76% del total de vehículos.

Las ventas en 1986, pero ha ido disminuyendo desde entonces. Sin embargo, en el 2003,
una nueva tecnología se presentó y permitía el uso de cualquier mezcla de gasolina y
etanol. Vehículos con “Flex-fuel” o motores flexibles que pueden automáticamente -
ajustarse a los parámetros de cualquier proporción de gasolina-etanol anhidro.

Biodiesel
Puede ser utilizado en su forma pura o mezclada con diesel para uso en motores diesel
convencionales. Así también en:

• Transporte urbano de pasajeros en ciudades con elevado índice de smoke.

• Transporte en aeropuertos

• Navegación en lagos

• Reservas naturales y áreas protegidas

• Producción de cultivos orgánicos

¿Por que deben ser usados?

En la actualidad el motivo principal para la búsqueda de estas nuevas tecnologías en


combustibles es sobre el petróleo.

La producción mundial de gas y petróleo se acercan a su máxima (pico de petróleo) y el


mundo esta en la búsqueda de un nuevo barril de petróleo por cada cuatro que consume.

58
En consecuencia, una necesidad de la eficiencia energética y las estrategias viables para
transición hacia combustibles renovables se huelga en todos los sectores de la energía
del futuro próximo.

La sabiduría convencional es que los precios del petróleo han sido más volátiles que los
precios de la mayoría de los demás Productos básicos desde la crisis del petróleo en
1973.

Esta hipótesis ha sido utilizada para justificar la asignación de precios y los controles y,
recientemente, ha sido la base para las recomendaciones de la política en energía
nacional a fin de diversificar las fuentes de energía fuera de la petrolera. La
correspondiente hipótesis de que los precios de otros productos energéticos son más
volátil que los precios de los bienes no energéticos han utilizado para explicar el
comportamiento microeconómico y, en particular, la percepción de poca inversión en la
conservación de la energía y la tecnología por parte de los consumidores.

El petróleo crudo es la fuente más importante de la energía que representa el 35% del
consumo de energía del mundo. Con el aumento de la demanda de petróleo crudo, los
expertos han estimado que el "pico del petróleo" donde la mitad de los recursos en todo
el mundo están agotadas.

Aunque el petróleo crudo, gas natural y el carbón seguirá siendo la más importante
fuentes de energía por lo menos hasta el 2030, el problema de que se agoten las reservas
de petróleo ha sido reconocida, así como el hecho de que el uso de los recursos
renovables conduce a una mayor seguridad de suministro, un mejor medio ambiente y
un aumento de los ingresos en las regiones rurales.

Diversas materias primas y procesos se utilizan para producir biocombustibles, aunque


debido a la variedad de los biocarburantes y los factores de evaluación de los
combustibles, es que actualmente no existe una visión clara de las posibilidades de éxito
de los diferentes tipos de biocombustibles, a pesar de los numerosos estudios realizados.

A continuación, haremos un análisis económico sobre el bioetanol y biodiesel en


México, sobre los costos y los aspectos positivos de la producción de estos
biocombustibles.

Bioetanol
Existe una oportunidad importante para que México emprenda la producción de etanol a
gran escala, si bien deben superarse varios retos que se analizan con detalle en el
informe.

Para la conversión a etanol fueron considerados como insumos: caña de azúcar, maíz,
yuca, sorgo y remolacha azucarera, con las tecnologías maduras existentes y, en el caso
de la caña de azúcar, se analizó la producción de etanol a partir del bagazo, cuya
tecnología se encuentra en desarrollo. Con base en criterios de selección como:
disponibilidad de una tecnología madura, costos, necesidades de inversión, superficie
requerida, índice de energía neta y emisiones y mitigación de gases de efecto
invernadero se seleccionó a la caña de azúcar como el cultivo más promisorio de
inmediato, que puede ser complementada por otros cultivos a mediano y largo plazo.

59
El análisis económico mostró que con los insumos valorados a precio de costo actuales
y tres precios de venta de etanol, representativos del mercado reciente de etanol
combustible, todos en US$/m3: 450, 550 y 650. Considerando el precio de etanol en
US$ 0.45 el resultado económico neto seria negativo para todos los casos / considerando
precios de etanol de US$0.55 a US$ 0.65 el resultado seria positivo para caña de azúcar
y maíz./ l. El costo de la materia prima es el elemento más importante de los costos de
producción. De acuerdo con los datos del Annual Energy Outlook 2006 de la agencia de
la información de la energía, el precio de mercado de etanol es de US$ 1.17 por litro
para el 2006. Actualmente la fabricación de etanol en México para combustibles es
marginal. Sería posible, dentro de ciertos límites, tener un programa de etanol
combustible exitoso en México. Para eso, sería necesaria una disminución del costo de
materia prima con el aumento de la escala productiva y precios de etanol en la franja
superior del rango mencionado. El precio del etanol combustible tiende a vincularse al
precio de gasolina, cuya tendencia futura es creciente, augurando así una expectativa
positiva de viabilidad.

Basado en la experiencia internacional, un programa de etanol como combustible puede


ser ideado como parte de una transición hacia sistemas de transporte sustentables. No se
espera que el combustible etanol desplace completamente a la gasolina del mercado en
ningún momento. Por el contrario, el etanol puede alargar los recursos petrolíferos
logrando una moderada cuota de mercado y ahorrando gasolina para el futuro. En este
estudio se recomienda un programa de introducción gradual del etanol con tres fases o
escenarios. En la primera fase (2007-2012) se tendría como meta producir 411.9 miles
de m3 de etanol el cual se obtendría principalmente de mieles de caña de azúcar y se
dirigiría a reemplazar al metanol en los éteres producidos en el mercado nacional
(MTBE y TAME) para fabricar ETBE. El etanol como componente del ETBE fabricado
en México correspondería a una penetración del 5.7% en volumen de un porcentaje de
las gasolinas suministradas a las Zonas Metropolitanas.

Para 2012, y sobre la base de etanol de jugo de caña de azúcar de cultivo de temporal en
pastizales y tierras marginales, así como en proyectos de etanol que podrían
desarrollarse a partir de otros insumos, podría tener lugar la sustitución del 5.7% de
todas las gasolinas de las áreas metropolitanas, correspondiendo a una demanda de
1,110.6 miles de m3. De 2012 en adelante, y sobre la base de caña de azúcar y otros
posibles insumos, como el cultivo múltiple anual sorgo dulce o maíz, el 10% de todas
las gasolinas en México podría ser reemplazado por etanol, correspondiendo a una
producción de 4,406.3 miles de m3. En todos estos desarrollos podría haber
oportunidades para la exportación e importación de etanol, directamente o como ETBE.
Suponiendo que el jugo de caña de azúcar sea el insumo dominante, alcanzando una
mezcla de etanol en todo México del 10%, el número actual de empleos en la industria
se doblaría y se crearían unos 400 mil nuevos puestos de trabajo. El área necesaria
alcanzaría alrededor de 800 mil hectáreas, más del doble de la superficie de cultivo
actual de caña de azúcar en México.

Los requerimientos de tierra podrían cumplirse aparentemente sin comprometer la


producción de alimentos. Para lograr estas metas se requeriría una inversión de
alrededor de US$ 160 millones en los próximos años y a más largo plazo una inversión
en 45 destilerías independientes de jugo de caña supondría US$ 2.25 miles de millones
distribuidos a lo largo de varios años y más allá de 2012. México se beneficiaría de la

60
introducción del etanol como combustible de muchas formas: creación de empleo,
desarrollo de la economía rural, ampliación de las infraestructuras sociales en zonas
rurales, mejora de la seguridad energética, conservación de los recursos petrolíferos,
mejor gestión del agua, expansión de la agricultura a tierras más secas cosechando
cultivos resilientes, como cultivos anuales múltiples como el sorgo dulce, ahorro en los
intercambios exteriores, motivación de la comunidad científica y tecnológica, incentivos
a la industria de bienes de producción, mejora del medio ambiente local y global. El
equipamiento para la fabricación de etanol y la generación combinada de calor y
electricidad, en el caso del bagazo de caña, podrían tener un índice de nacionalización
de casi el 100% en México, creando empleos de calidad y fortaleciendo la industria. La
reducción de las importaciones de gasolina y MTBE para el escenario en que todas las
gasolinas en México fueran mezclas del 10% de etanol supondría un ahorro en la
balanza de pagos de hasta US$ 2.0 mil millones. La venta de bonos de carbono a través
de proyectos MDL podría potencialmente añadirse a este beneficio. Para el escenario de
mayor penetración de etanol se espera una mitigación de 10.6 millones toneladas
CO2/año con base en una producción a partir de caña de azúcar.

El éxito en el lanzamiento del programa de etanol dependerá en gran medida de un


programa de inspección y mantenimiento de las estaciones de venta o gasolineras
diseñado cuidadosamente e implementado de manera experta, en especial los tanques
subterráneos de almacenamiento, y de los vehículos, en particular aquéllos fabricados
antes de 1986. PEMEX y la industria automotriz mexicana tendrían un papel importante
que jugar aquí.

La estructura de la producción de etanol en México en el futuro podría tener diferentes


vías.
Posiblemente coexistirán dos sistemas. Uno sería similar a la situación actual, esto es:
un gran número de propietarios de tierra, superficies pequeñas, algunas organizadas en
cooperativas.

El otro sistema se basaría en participaciones mucho mayores. Estructuras apropiadas


(para ambos sistemas) conllevarán diferencias en la creación de empleos. Si se da
prioridad a la expansión a gran escala de la caña en pastizales y tierras marginales,
tendrá lugar un desarrollo regional en nuevas zonas, creando empleos y promoviendo
infraestructuras sociales donde antes apenas existían.

La revisión creativa del pacto social existente entre productores de caña e ingenios
podría ofrecer una oportunidad a mantener por los beneficiarios actuales y para ampliar
los beneficios sociales de los trabajadores rurales que no los disfrutan en el presente. Es
una tarea que requiere ingenio y creatividad, pero a no ser que haya avances en esta
área, el costo del etanol en México podría ser demasiado alto2 para los implicados a fin
de lograr un consenso hacia un programa de etanol como combustible en el país. La
experiencia brasileña de integración de intereses de productores e ingenios en un
acuerdo negociado libremente, dirigido por modelos técnicos y económicos y
supervisados por expertos de ambas partes podría ser de interés para México.
Comprender los fundamentos, oportunidades y barreras, así como las motivaciones de
los actores sociales clave en el programa de etanol, contribuirán a construir el consenso
que posibilitará la introducción del etanol en el mercado en México, dentro del marco
legal creado por las leyes y regulaciones a tal efecto. Los gobiernos son los iniciadores
naturales de este proceso transición. La implementación en sí se lleva a cabo a través de

61
una combinación de agentes públicos y privados. Deberían considerarse foros
nacionales de actores sociales clave para conseguir un consenso sobre un portafolio de
prioridades de acción. Esto puede traducirse en legislación, regulación, financiamiento,
presupuestos públicos y privados, asistencia técnica, cooperación técnica, llevando
todos estos aspectos a una implementación suave y sin problemas de un programa de
etanol.

Todo programa de etanol puesto en marcha en el mundo fue lanzado con el apoyo de
incentivos financieros y de todo tipo, inclusive mandatos y los contratos de compra
resultantes; impuestos diferenciales del etanol para ser mezclado con gasolina para
nivelar los costos del etanol y de la gasolina en la mezcla distribuida a través de la red
de venta y otros.

Esto tendría como resultado a corto plazo pérdidas para el Erario, que podrían ser
compensadas a través de fondos que deberían establecerse en la implementación de la
legislación mexicana sobre biocombustibles y energías alternativas.

Biodiesel
La producción de biodiesel a escala comercial puede ser factible en México en el
mediano plazo de realizar acciones integrales que deben incluir aspectos técnicos,
económicos y medioambientales, de concertación con el sector agrario y agroindustrial
así como un esfuerzo importante en investigación y desarrollo tecnológico.

El análisis económico muestra que en todos los casos los precios de producción del
biodiesel son mayores que el costo de oportunidad del diesel comercializado por
PEMEX. En este sentido, la situación en México no es muy diferente de la de otros
países, pero es más evidente dado el bajo costo del diesel de petróleo, el cual cuenta
incluso con subsidios especiales dentro del sector agrícola. Los costos de producción del
biodiesel tienen un rango de entre $5.3 a $12.4 pesos por litro equivalente. Los cultivos
más competitivos son la palma, girasol y soya. La jatropha es promisoria pero debe
resolverse el problema de posibles toxinas en la glicerina y otros subproductos
generados en el proceso. Los costos de los insumos agrícolas representan entre el 59% y
91% de los costos de producción del biodiesel. En muchos casos, como la soya, estos
costos dependen en gran medida de la posibilidad de vender los subproductos agrícolas.

Al igual que en el caso del etanol, este estudio sugiere una estrategia gradual de
introducción del biodiesel en México. De manera inmediata, la introducción del
biodiesel podría basarse sobre todo en el uso de materias primas de bajo costo como
aceites y grasas recicladas. En el mediano plazo se requerirán esquemas de incentivos
para la introducción del biodiesel de manera masiva a fin de permitir la sustitución de
entre el 2% y 5% del diesel de petróleo después del 2012. Para lograr estas metas se
necesita un plan de desarrollo del mercado de este combustible que contemple aspectos
como: establecer de manera inmediata el marco legal–por ejemplo, una directiva de
biodiesel con metas claras, estándares nacionales para este combustible e incentivos a la
producción agrícola y comenzar a desarrollar una industria nacional de producción de
biodiesel, incluyendo actividades de capacitación y de investigación y desarrollo.

Asimismo, se necesita aumentar de manera muy significativa el área de cultivos


oleaginosos, puesto que nuestro país no cubre actualmente ni siquiera la demanda de
aceites comestibles. Para llegar a sustituir un 5% del diesel de petróleo en el país será

62
necesario instalar 10 plantas industriales con capacidad de 100.000 t/año cada una o más
de 140 plantas pequeñas con capacidad de 5,000 t/año cada una. Para optimizar el
suministro de los cultivos agrícolas, y reducir el costo de distribución de biodiesel y sus
subproductos, las plantas de producción deben instalarse en las cercanías de refinerías o
de las plantas productores de aceites vegetales. Desde el punto de vista logístico, la
mejor opción son plantas integradas de producción de aceites vegetales y biodiesel.

Las inversiones estimadas para llegar al escenario de 5% de biodiesel alcanzan $3,100


millones de pesos, puesto que cada planta industrial de gran escala tiene un costo
unitario de $311 millones de pesos. Aunque la producción de biodiesel estaría orientada
al mercado nacional, el combustible podría también exportarse ocasionalmente a otros
mercados como Europa o los Estados Unidos. Las ventajas de un programa nacional de
biodiesel serían muy importantes. Desde el punto de vista ambiental, la sustitución de
diesel de petróleo por biodisel permitiría ahorrar alrededor de 1.7 millones de toneladas
de CO2/año hacia el año 2010 y 7.5 millones de toneladas de CO2/año hacia el 2014.

Dentro del sector rural, apropiadamente diseñado, un programa de introducción de


biodiesel podría presentar un balance ecológico positivo y ayudar al desarrollo de las
economías regionales y locales. Para lograr estos objetivos es muy importante que, en
las zonas tropicales, los cultivos de biodiesel –ej. Aquéllos basados en aceite de palma-
no se establezcan sobre bosques naturales. Asimismo, se debe evitar la competencia por
el uso de la tierra para fines de alimentación, o evitar la contaminación por el uso
intensivo de fertilizantes químicos y pesticidas. En este sentido, se debería enfatizar un
enfoque agroecológico e impulsar los cultivos perennes–como la Jatropha- que permitan
el uso de tierras de temporal y/o marginales y aseguren una mayor cobertura del suelo
para control de erosión.

De hecho, un programa nacional de biodiesel debería basarse en un esquema diverso e


integrado regionalmente tanto en aspectos de la demanda y procesamiento –utilizando
plantas de distintas capacidades- como en la oferta de cultivos. En todos los casos el
énfasis de un programa de biodiesel es la creación de valor agregado y empleo en
México. Para esto se recomienda que la producción y procesamiento de este
combustible se haga con tecnología diseñada y construida localmente. La transferencia
de tecnología en áreas específicas es importante, pero debe evitarse la importación
directa de las plantas.

Los principales cuellos de botella para la introducción del biodiesel en México están en
el sector agrícola. Por esta razón se tiene que establecer un amplio plan de apoyo a la
agricultura para lograr el suministro nacional de los insumos. Los estímulos para una
economía rural más dinámica deberían incluir los siguientes aspectos:

• Apoyar cultivos oleaginosos a pequeña escala, los cuales aumentan el valor añadido de
la agricultura rural y contribuyen a la biodiversidad, debería iniciarse un plan de
promoción específico (como ejemplo, el programa brasileño de biodiesel).

• Para algunos cultivos oleaginosos como la Jatropha es necesario un mejor


conocimiento del cultivo. Asimismo necesitan más tiempo para su establecimiento. Los
conocimientos resultantes de estas actividades de investigación tendrán que ser
transferidos a la población rural a través de programas educacionales.

63
• La formación de cooperativas especializadas, que permitirían crear sinergias a través
de una utilización conjunta de la maquinaria; debería fomentarse el acceso a
financiamiento y a asistencia técnica.

• Agencias de financiamiento, como FIRA, podrían crear programas especiales para el


biodiesel o su producción a tasas de interés preferenciales.

• Debería fomentarse la integración de la producción de semillas oleaginosas y prensado


de semillas/refinado de aceites/producción de biodiesel (siendo económicamente viable)
para crear una retención más fuerte de valor añadido en las áreas rurales.

La producción a gran escala de biodiesel en México requiere de un esfuerzo importante


en investigación y desarrollo. Las actividades que deberían enfatizarse son, por ejemplo,
el establecimiento de investigación agrícola para mejorar la productividad de cultivos
energéticos, especialmente para ampliar las variedades de las diferentes especies, y el
establecimiento de nuevos sistemas de cultivo.

Igualmente debería existir una cooperación con las investigaciones de PEMEX sobre el
conocimiento de las opciones de hidrogenación, en especial para el uso de aceite de
palma. Otra medida necesaria sería la creación de centros de investigación y desarrollo
regional sobre biodiesel/biocombustibles y aportar continuamente fondos. Las industrias
privadas deberían ser bienvenidas a participar, pero los fondos básicos deberían ser
aportados por el Gobierno para asegurar la disponibilidad de la información relevante de
los interesados. Estos fondos de base podrían ser aportados a través de un módico
impuesto estatal sobre los biocombustibles. En estos centros deberían llevarse a cabo
programas de alcance institucional y de asistencia técnica y parte de este esfuerzo
podría ser combinado con los centros existentes de investigación y tecnología agrícola
operados por Fideicomisos Instituidos en Relación con la Agricultura en el Banco de
México (FIRA).

Políticas y lineamientos

Legislaciones y Regulaciones que Afectan el Mercado de la Energía


En términos de legislaciones y regulaciones aplicables al mercado energético mexicano,
se pueden citar las siguientes:

• Ley Reglamentaria del Artículo 27 Constitucional en el Ramo del Petróleo


• Ley del Impuesto Especial sobre Producción y Servicios (IEPS)
• Ley del Impuesto al Valor Agregado (IVA)
• Ley de Energía para el Campo
• Proyecto de Decreto de la Ley para el Desarrollo y Promoción de Bioenergéticos
• NOM-086-SEMARNAT-SENER-SCFI-2005, Especificaciones de los combustibles
fósiles para la protección ambiental.

Estas regulaciones establecen las actividades de ejercicio exclusivo del Estado


Mexicano por mandato constitucional, las correspondientes a los gravámenes aplicables
a la comercialización en el territorio nacional y la importación de los combustibles
derivados del petróleo (gasolinas y diesel), los apoyos otorgados para el consumo de los
combustibles en las actividades agropecuarias, el proyecto sobre el desarrollo de los

64
bioenergéticos, así como las especificaciones presentes y futuras que deberán cumplir
todos los energéticos obtenidos de fuentes fósiles, los cuáles se emplean tanto en las
fuentes fijas (industria y servicios) como en las móviles ( vehículos a gasolina y a
diesel, combustibles para aviación, etc.).

Todas éstas tienen un impacto en diferentes ámbitos del sector energía. En el caso de la
Ley Reglamentaria del Artículo 27 Constitucional, se vincula a la facultad del estado
para la transformación del petróleo crudo en la industria de refinación, así como en el
transporte, distribución y venta de primera mano de los productos obtenidos de la
misma.

Si bien el etanol proviene del sector agrícola, su empleo en forma directa como
combustible no estaría supeditado a estas regulaciones. No así la mezcla de etanol con
gasolina (en cualquiera de sus proporciones), la cual sólo puede llevarla a cabo
Petróleos Mexicanos (PEMEX), a través de su Organismo Subsidiario PEMEX
Refinación, quién en primer lugar es responsable de la elaboración, transporte,
almacenamiento, distribución y las ventas de primera mano de los derivados del
petróleo, y además es el propietario y administrador de la Franquicia PEMEX, así como
el único suministrador de los combustibles que se comercializan en la estaciones de
servicio en el país.

La Ley del IEPS y el IVA, se aplican a la comercialización de las gasolinas y el diesel


que se expenden en la red de estaciones de servicio, así como a las importaciones de
éstos productos.

En la Ley del IEPS en su artículo 2o.-A, establece que los precios de referencia de las
gasolinas y el diesel importados se ajustaran por la calidad correspondiente, al producto
de esta operación se deberán sumar los costos de manejo y el costo neto de transporte a
las agencias de ventas de que se trate, éstos valores que se obtengan no incluirán el IVA.
En este contexto, la citada legislación establece en el articulo 2º, inciso B que el alcohol
(solución acuosa de etanol con impurezas que lo acompañan con graduación mayor a 55
grados Gay Lussacc, a una temperatura de 15 °C), alcohol desnaturalizado (solución
acuosa de etanol con las impurezas que la acompañan, con una graduación mayor a 55
grados Gay - Lussacc, a una temperatura de 15 °C, con la adición de la sustancias
desnaturalizantes autorizadas por la Secretaría de Salud) y las mieles incristalizables
tienen un gravamen de 50 por ciento.

La Ley de Energía para el Campo establece las reglas para el otorgamiento de apoyos a
las actividades agropecuarias, en donde se incluye la agricultura, la ganadería,
silvicultura, acuacultura y la pesca ribereña. A través de ésta la Secretaría de
Agricultura, Ganadería, Desarrollo Rural, Pesca y Alimentación (SAGARPA), establece
las cuotas energéticas a cada una de las actividades mencionadas para cada ciclo
productivo, las cantidades que serán sujetas a este tratamiento se establecen en el
Reglamento que para tal efecto emitió la Secretaría. Con relación al decreto de la Ley
para la Promoción y Desarrollo de Bioenergéticos dictaminada y aprobada en la Cámara
de Diputados, la cual se encuentra en proceso de revisión en la Cámara de Senadores, en
ella se establece la utilización de una concentración máxima de 10 por ciento en
volumen de bioetanol en la formulación de las gasolinas a nivel nacional, determinando
para ello la necesidad de evaluar y cuantificar la inversiones en infraestructura
productiva, así como los requerimientos de apoyos para la consolidación y viabilidad de

65
esta iniciativa, buscando en todo momento el desarrollo agrícola nacional aparejado a
esta medida.

En la NOM-086 publicada en el Diario Oficial de la Federación (DOF) del 30 de enero


de 2006, se definen las especificaciones que deberán cumplir cada uno de los
parámetros tanto de las gasolinas (PEMEX Magna y Premium), así como el diesel para
servicio automotriz (PEMEX Diesel) y el destinado a servicio marino y agrícola. En el
caso de las gasolinas, en particular la PEMEX Magna comercializadas en las Zonas
Metropolitanas de Guadalajara (ZMG), de Monterrey (ZMMTY) y del Valle de México
(ZMVM), la norma establece que deberán contener en su fórmula un valor máximo de
oxígeno de 2.7 por ciento en peso; además esta concentración se especifica a nivel
nacional para la PEMEX Premium, sin establecer el tipo de compuesto empleado para
tal fin pero si la necesidad de reportarlo.

La PEMEX Magna que se comercializa en las zonas metropolitanas antes citadas y la


PEMEX Premium, actualmente se oxigenan con éter metil terbutílico y el éter metil
teramílico (conocidos por sus siglas en inglés como MTBE y TAME) obtenidos en las
refinerías y el déficit registrado se obtiene vía importaciones por medio de MTBE,
producto ampliamente ofertado en el mercado internacional, no así el TAME cuya
obtención es muy limitada por la escasa disponibilidad de la materia prima empleada
para su producción (isoamilenos).

Por todo lo expuesto, será necesario efectuar un análisis más profundo de las
modificaciones que se requerirán en las leyes del IEPS, IVA y del proyecto de
Bioenergéticos, para lograr la viabilidad del empleo de etanol en la formulación de las
gasolinas. En este contexto habría que determinar los apoyos para las inversiones en
infraestructura de producción, almacenamiento y distribución, así como los impactos en
los costos de adquisición y de los productos finales.

Ventajas y Desventajas

Bioetanol
Desventajas:
Para poder utilizar el bioetanol como combustible puro (E100) se necesita llevar a cabo
varias modificaciones dentro del motor, de manera tal no alterar significativamente el
consumo.

Estas son:
Aumentar la relación de compresión.
Variar la mezcla de Combustible / aire.
Bujías resistentes a mayores temperaturas y presiones.
Conductos resistentes al ataque de alcoholes.
Se debe agregar un mecanismo que facilite el arranque en frío.

Ventajas:
El bioetanol es una fuente de combustible renovable y doméstico.
Reduce dependencia del petróleo del extranjero.

66
Es una fuente más limpia de combustible porque: emite un 40-80% menos de gases
invernaderos que los combustibles fósiles reduce la lluvia ácida, mejora la calidad del
aire en zonas urbanas, no contamina el agua y reduce los residuos.
Aumenta el octano del combustible con un coste pequeño.
Virtualmente utilizable en todos los vehículos.
Fácil de producir y almacenar.

Biodiesel
Ventajas:
Competitivo frente a otras tecnologías que reducen la contaminación.
Complementa todas las nuevas tecnologías de diesel para reducción de gases
contaminantes.
Rendimiento similar al del combustible diesel.
No requiere nueva infraestructura ni adiestramiento.
No es necesario cambiar o convertir motores.
No altera el equipo de mantenimiento.
No altera el tiempo de recarga de combustibles.
No altera el torque.
No altera el consumo.
Mejora notablemente la lubricación en el circuito y en la bomba de inyección.
Mejora las condiciones de funcionamiento invernal.
Mejora las condiciones anti-explosión e incendio.
La mezcla se puede hacer en el momento de carga o previamente.
La mezcla es estable y no se separa en fases.
Los esteres de soja se guardan en tanques similares a los de gasoil, no son tóxicos y no
forman mezclas explosivas con el aire.

Impacto Ambiental
Reduce en los escapes la fracción de carbono en partículas
Reduce la cantidad de monóxido de carbono
Reduce la cantidad de hidrocarburos no quemados
Reduce la emisión de hidrocarburos aromáticos policíclicos
Reduce la cantidad de óxidos de azufre
Los motores diesel ofrecen un beneficio neto de 45 a 71 % menos de emisiones de CO2
en comparación con la gasolina.
Los cultivos de semillas de aceite vegetal absorben el CO2 mientras crecen, por lo que
en el balance no hay aumento en las emisiones.

Impacto Económico
Aparición de un nuevo mercado
Valor agregado al material de base (semillas de aceite)
Inversiones en plantas y equipos
Mayor cantidad de empleos
Mayor base tributaria por las operaciones de planta e impuestos de utilidades

Desventajas
El biodiesel también presenta algunas desventajas en el vehículo que lo utiliza, entre las
que destacan:

67
A bajas temperaturas puede llegar a solidificarse y producir obstrucciones en los
conductos.
Es incompatible con algunos materiales ya que en estado puro puede llegar a dañar por
ejemplo el caucho y algunas pinturas.
Su utilización produce la pérdida de potencia del vehículo.
Produce un mayor consumo en los vehículos debido a que tiene menos poder calorífico
y tarda más tiempo en combustionar.

Otros
Consumo energético por sectores

Pronostico de demanda de biodiesel y bioetanol según algunos casos


• Escenario No. 1: Se plantea el uso de una mezcla de 5 por ciento de biodiesel y el 95
por ciento restante de PEMEX Diesel.

• Escenario No. 2: En este se usa de una mezcla de 10 por ciento de biodiesel y el 90 por
ciento restante de PEMEX Diesel.

• Escenario No. 3: Se evaluará el uso de una mezcla de 20 por ciento de biodiesel y el


80 por ciento restante de PEMEX Diesel.

68
8. Diseño de Productos

Introducción

El diseño de nuevos productos es crucial para la supervivencia de la mayoría de las


empresas. Aunque existen algunas firmas que experimentan muy poco cambio en sus
productos, la mayoría de las compañías deben revisarlas en forma constante. En las
industrias que cambian con rapidez, la introducción de nuevos productos es una forma
de vida y se han desarrollado enfoques muy sofisticados para presentar nuevos
productos.

El diseño del producto casi nunca es responsabilidad única de la función de operaciones,


sin embargo ésta se ve muy afectada por la introducción de nuevos productos y
viceversa. La función de operaciones es el "receptor" de la introducción de nuevos
productos. Al mismo tiempo, estos nuevos productos se ven limitados por las
operaciones existentes y la tecnología. Por lo tanto, resulta extremadamente importante
comprender el proceso de diseño de nuevos productos así como su interacción con las
operaciones.

Las decisiones sobre el producto afectan a cada una de las áreas de toma de decisiones
de operaciones, por lo tanto, las decisiones sobre los productos deben coordinarse de
manera íntima con las operaciones para asegurarse de que esta área queda integrada con
el diseño del producto. A través de una cooperación íntima entre operaciones y
mercadotecnia, la estrategia del mercado y la estrategia del producto se pueden integrar
con las decisiones que se relacionan con el proceso, la capacidad, inventarios, fuerza de
trabajo y calidad.

La definición del producto es el resultado del desarrollo de una estrategia empresarial.


Por ejemplo, la estrategia empresarial podría exigir una línea de productos completa
para servir a un sector particular de los clientes. Como resultado, se definirán nuevos
productos para completar la línea de productos. Estas definiciones de nuevos productos
se convierten entonces en un insumo para la estrategia de operaciones y las decisiones
de operaciones se ajustan para acoplarse a la estrategia de nuevos productos. Al tener
una participación activa desde el comienzo, las operaciones pueden asumir un papel de
apoyo externo de etapa 4 en términos de su estrategia de operaciones y toma de
decisiones.

El diseño del producto es un pre requisito para la producción al igual que el pronóstico
de volumen. El resultado de la decisión del diseño del producto se transmite a
operaciones en forma de especificaciones del producto. En estas especificaciones se
indican las características que se desea tenga el producto y así se permite que se proceda
con la producción.

Concepto de Producto.- Se puede definir al producto desde un aspecto psico-social


donde a la persona le mejora su imagen, su estatus, su exclusividad y vanidad.

También se puede decir que el producto representa a la empresa donde se muestra la


imagen y la calidad, siempre con el fondo de satisfacer las necesidades de los
consumidores. Ejemplo: Diseño de celulares.

69
Elementos Que Caracterizan Las Personalización Del Producto: -

La personalidad del producto es la capacidad de darnos a cada uno lo que deseamos.

Los elementos que lo caracterizan son:

El diseño: es aquello que hace que sea llamativo para los consumidores.

Surtido: tiene que ver con la comercialización para cada segmento de mercado se debe
elaborar un producto específico. Principalmente se enfoca en la capacidad adquisitiva
que tenga el consumidor,

La calidad: aspecto que implica modificar el diseño del producto.

Factores de Éxito y de Fracaso de un Producto.-

Costo de Producción mas bajo, nos induce a tener un mejor precio en el mercado.

Se constata la originalidad del producto, que sea algo nuevo y no una imitación.

La complejidad de hacer el producto.

La flexibilidad del proceso de producción de tal forma que debemos hacer un surtido de
productos.

Ciclo de Vida de un Producto.-

El ciclo de vida del producto es un concepto desarrollado y discutido ampliamente por


Theodore Levitt en su libro "Marketing Imagination", George Schwartz, Stanley
Shapiro y otras leyendas del Mercadeo. Pareciera un tema agotado, pero siempre hay
algo nuevo sobre él.

Para ver el gráfico seleccione la opción "Descargar" del menú superior

La teoría sugiere que cada producto o servicio tiene una vida finita. Si uno va a
monitorear ventas durante un periodo determinado, descubrirá que el patrón de ventas
de la mayoría de los productos sigue una curva consistente de crecimiento, madurez y
declinación. Es obvio que al principio las ventas son muy bajas; de forma gradual se van
aumentando y luego comienzan a decrecer.

70
El concepto del ciclo de vida del producto es cautivador en su sencillez, pero es una
noción de difícil aplicación en la práctica. La principal desventaja es que es muy difícil
anticipar el ciclo de vida de un producto. Muy pocos gerentes de producto diagnostican
con claridad la fase precisa del ciclo de vida en la cual se encuentran sus respectivos
productos. Por medio de evidencias circunstanciales se supone que el producto se
desplaza desde el crecimiento hasta la madurez. Si, por ejemplo, se observa que un
competidor aumenta su presupuesto para anuncios y (o) su oferta de descuentos
especiales, se infiere que la fase de crecimiento está por terminar. Todas éstas son
señales de sentido común, pero de dudoso valor científico.

Otro problema que afronta el mercadólogo que busca deducir las ventas del producto en
el transcurso del tiempo, es que la curva resultante es consecuencia de una mala
administración del producto más que un verdadero reflejo de la realidad del mercado.

Una compañía quizá descubra que sus propias ventas declinan y, el mercadólogo está
preparado para suponer que el ciclo de vida del producto está en su etapa de
declinación. Por otra parte, en posteriores investigaciones se observa que las ventas del
producto genérico todavía se incrementan. En el argot del ciclo de vida, el producto
genérico aún está en la fase de crecimiento. Es obvio que algo anda mal. Nuestro
mercadólogo está en lo correcto al percibir que en términos de su producto particular y
de la manera en que fue administrado y presentado al mercado en el pasado, su producto
está en declinación. Sin embargo, también debe explorar con cautela la posibilidad de
que ha administrado mal una oportunidad. Así, el ciclo de vida del producto de la
compañía es el resultado de una curva de mala administración más que de una tendencia
universal.

A medida que se requiere entender en qué punto del ciclo de vida se encuentran los
productos para propósitos de planificación, el concepto tiene un valor limitado.

La tendencia hacia ciclos de vida más cortos es una de las limitaciones al concepto.
Todas las evidencias indican que los ciclos de vida de los productos se vuelven más y
más cortos. Esto es particularmente verdadero en el campo de los aparatos domésticos y
de productos de alta tecnología, como computadoras y cámaras fotográficas.

Es claro que estas aseveraciones intranquilizarán a cualquier mercadólogo que trabaje


para las industrias mencionadas. La tendencia impone diversas implicaciones
estratégicas inevitables que deben tenerse en mente cuando se planifica una nueva
política de producto, en la actualidad.

Un producto que alcanzó su fase de declinación antes de que la inversión destinada a su


desarrollo y explotación haya sido recuperada, es difícil que logre el éxito. Un producto
debe ser capaz, de ganar suficientes fondos para recobrar la inversión completa que la
compañía le dedicó. Es más, cuando hablamos de inversión debemos incluir no sólo el
costo del diseño, la manufactura y el inventario, sino el costo pleno de los proyectos de
mercadotecnia, previos al lanzamiento como la investigación de mercado, la promoción,
el muestreo y la distribución física.

Todo esto significa que un gerente de producto debe asegurarse durante el ciclo de la
planeación que el programa de la mercadotecnia esté diseñado para obtener una rápida
recuperación de la inversión. Hay menor margen en el mundo de los noventa para

71
introducirse con un plan tentativo en el mercado. El lanzamiento de un producto debe
llevarse a cabo de manera enérgica y creativa, apoyada por todo el arsenal de las
herramientas promocionales, con el objeto de recuperar la inversión de la manera más
rápida posible. Sólo cuando la inversión se recupera es posible saborear los frutos del
esfuerzo propio y hablar de resultados y éxito.

Estrategias para la Introducción de Nuevos Productos

Existen tres maneras fundamentales de enfocar el proceso de introducción de nuevos


productos: se le puede considerar como un impulso del mercado, un impulso de la
tecnología o uno de la naturaleza interfuncional.

Impulso del Mercado.-

De acuerdo con este enfoque, " se debe fabricar lo que se puede vender". En este caso
los nuevos productos quedan determinados por el mercado dando muy poca
consideración a la tecnología existente y a los procesos de operaciones. Las necesidades
del cliente son la base primordial (o única) para la introducción de nuevos productos. Se
puede determinar el tipo de nuevos productos que se necesitan a través de la
investigación de mercados ola retroalimentación de los consumidores. Después se
producen estos productos.

Impulso de la Tecnología.-

Este enfoque sugiere que "se debe vender lo que se puede hacer". De acuerdo con esto,
los nuevos productos deben derivarse de la tecnología de producción, con poca
consideración al mercado. La tarea de mercadotecnia es la de crear un mercado y
"vender" los productos que se fabrican. Este enfoque queda dominado por el uso
vigoroso de la tecnología y la simplicidad en los cambios de operaciones. A través de un
enfoque agresivo en investigación y desarrollo y en operaciones, se crean productos de
tipo superior que tienen una ventaja "natural" en el mercado.

Interfuncional.-

Con este enfoque, la introducción de nuevos productos tiene una naturaleza


interfuncional y requiere de la cooperación entre mercadotecnia, operaciones, ingeniería
y otras funciones. El proceso de desarrollo de nuevos productos no recibe ni el impulso
del mercado ni el de la tecnología, sino que queda determinado por un esfuerzo
coordinado entre funciones. El resultado debe ser los productos que satisfacen las
necesidades del consumidor mientras que se utilizan las mayores ventajas posibles en la
tecnología.

El enfoque interfuncional casi siempre produce los mejores resultados. El enfoque


también resulta más difícil de implementar debido a las rivalidades y fricciones
interfuncionales. En muchos casos se utilizan mecanismos organizacionales especiales
como diseños de matriz o fuerza de apoyo, con el objeto de integrar distintos elementos
de la organización.

Proceso de Desarrollo de Nuevos Productos

72
Independientemente de cuál sea el enfoque organizacional que se utilice para el
desarrollo de nuevos productos, los pasos que se siguen para el desarrollo de nuevos
productos son casi siempre los mismos. La figura a continuación es un modelo del
proceso de desarrollo de nuevos productos que consta de los seis pasos que se describen
también a continuación.

Generación de la Idea.-

Las ideas se pueden generar a partir del mercado o a partir de la tecnología. Las ideas
del mercado se derivan de las necesidades del consumidor. Por ejemplo, puede existir la
necesidad de un nuevo alimento para desayunos que sea nutritivo y sabroso o la
necesidad de un nuevo tipo de pintura doméstica que no se desprenda de la pared. La
identificación de las necesidades del mercado puede llevar entonces al desarrollo de
nuevas tecnologías y productos para satisfacer estas necesidades.

Por otro lado, las ideas también pueden surgir de la tecnología disponible o nueva.
Cuando Du Pont inventó el nylon, se hizo posible tener una amplia gama de productos
nuevos. Ejemplos de otras tecnologías que han dado origen a nuevos productos son los
plásticos, semiconductores, circuitos integrados, computadoras y microondas. La
explotación de la tecnología es una fuente muy rica de ideas para nuevos productos.

Técnica para la generación de la Idea.-

Relación de atributos: Esta técnica requiere enumerar los principales atributos de un


producto existente y después de modificar cada uno de ellos en la búsqueda de un
producto mejorado.

Relaciones forzadas: Aquí varios objetos se consideran en relación con el resto.

Análisis morfológico: Este método busca identificar las dimensiones estructurales de un


problema y el examen de las relaciones entre ellos, la esperanza radica en encontrar
alguna combinación novedosa.

Identificación de necesidades y problemas: Las anteriores técnicas creativas no


requieren del consumidor para generar ideas. Los consumidores reciben una lista de
problemas y dicen cuales de ellos acuden a su mente cuando se mencionan dichos
problemas.

Tormenta de ideas: El problema de be ser específico, el grupo común para esta técnica,
consiste de seis a diez personas estimulando la creatividad del grupo por medio de la
tormenta de ideas. Las ideas comienzan a fluir, una idea sigue a la otra y en una hora es
probable grabar cien o más ideas. Se señalan cuatro principios para que una deliberación
alcance una máximo de eficacia:

73
No se permite la crítica (los comentarios negativos deben dejarse para después).

Es bienvenida la espontaneidad (Mientras más original sea la idea mejor).

Estimular la cantidad (más ideas, mayor probabilidad).

Estimular la combinación y mejora de ideas (Debe sugerir la forma de integrar las ideas
a otros aún más nuevos).

Selección del Producto.-

No todas las ideas nuevas deben desarrollarse para convertirlas en nuevos productos.
Las ideas para nuevos productos deben pasar por lo menos tres pruebas: 1) el potencial
del mercado, 2) la factibilidad financiera y 3) la compatibilidad con operaciones. Antes
de colocar la idea de un nuevo producto en el diseño preliminar, se le debe someter a los
análisis necesarios que se organizan alrededor de estas tres pruebas.

El propósito del análisis de selección de productos es identificar cuales son las mejores
ideas y no el de llegar a una decisión definitiva de comercialización y producción de un
producto. Después del desarrollo inicial se pueden hacer análisis más extensos a través
de pruebas de mercado y operaciones piloto antes de tomar la decisión final de
introducir el producto. De esta manera, el análisis de selección de productos puede tener
una naturaleza bastante subjetiva y basarse en información ciertamente limitada.

Se desarrollaron varios métodos para ayudar en el análisis del producto. Uno es un


método que utiliza una lista de mercado e involucra el desarrollo de una lista de factores
junto con un factor de peso específico para cada uno. Cada factor se califica de acuerdo
a una escala y se calcula una calificación total balanceada. Si la calificación total queda
por encima de cierto nivel mínimo, la idea del nuevo producto se puede seleccionar para
su desarrollo posterior. En forma alterna, puede utilizarse el método para calificar
productos en orden de prioridad para su selección. La tabla de abajo da un ejemplo de
este tipo de calificación.

Selección de Productos Mediante una Lista

Características Muy Peso

Del producto Malo Regular Bueno Excelente Específico

Precio de venta √ 15%

Calidad del producto √ 10%

Volumen de ventas √ 20%

Operaciones compatibles √ 10%

74
Ventaja sobre la competencia √ 10%

Riesgo técnico √ 15%

Concordancia con estrategia corporativa √ 20%

100%

La idea de un nuevo producto también puede someterse a un análisis financiero típico


mediante el cálculo de un rendimiento aproximado sobre la inversión. Para hacer esto,
es necesario estimar un flujo de efectivo de la inversión, y los ingresos y costos de las
ventas del producto en el futuro. En las etapas iniciales del desarrollo del producto
puede ser difícil, si es que no imposible, estimar el flujo efectivo con una exactitud
razonable debido a la gran falta de seguridad que habrá sobre la aceptación en el
mercado, los volúmenes, las utilidades y los costos. Sin embargo, es necesario hacer las
estimaciones lo más pronto posible para poder sentir el potencial financiero de un
producto. Estas estimaciones pueden actualizarse si se dispone de mayor información.

Diseño Preliminar del Producto.-

Esta etapa del proceso del diseño de un producto se relaciona con el desarrollo del
mejor diseño para la idea del nuevo producto. Cuando se aprueba un diseño preliminar,
se puede construir un prototipo o prototipos para someterlos a pruebas adicionales y
análisis. En el diseño preliminar se toma en cuenta un gran número de compensaciones
entre costo, calidad y rendimiento del producto. El resultado debe ser un diseño de
producto que resulte competitivo en el mercado y que se pueda producir operaciones.
Los objetivos de diseño son, por supuesto, difíciles de satisfacer.

Como resultado de la selección del producto, solamente se define su esqueleto. El


diseño preliminar del producto entonces identifica por completo el producto. Por
ejemplo, suponga que va a diseñar un nuevo radio de banda civil debido a que en la
etapa de selección del producto se identificó una falla en los productos existentes en el
mercado. Se considera que se puede diseñar un radio con un desempeño superior a un
precio medio si se incorporan los nuevos avances en miniaturización electrónica. Si se
puede construir este radio se dará una considerable importancia los esfuerzos de
mercadotecnia. Esta es toda la información disponible cuando termina la fase de
selección del producto.

Durante el diseño preliminar del radio, se tomaran varias decisiones de comparación. El


radio contendrá muchos componentes y cada uno de ellos influye tanto en el costo como
en el rendimiento. Más aún, el tamaño podría ser un problema si se supone que el radio
debe caber a larga en gabinetes pequeños. Durante el diseño preliminar todas las
decisiones de compensación deben basarse en el objetivo del diseño: un radio con un
precio cuyo rendimiento sea superior. Como parte del diseño preliminar es probable que
se construya un laboratorio para probar la integración y desempeño de los circuitos. Si
las pruebas tienen éxito, se harán dibujos de diseño preliminar.

Construcción del Prototipo.-

75
La construcción del prototipo puede tener varias formas diferentes. Primero, se pueden
fabricar a mano varios prototipos que se parezcan al producto final. Por ejemplo, en la
industria automotriz es normal hacer modelos de arcilla de los automóviles nuevos.

En la industria de servicios un prototipo podría ser un solo punto en donde se pueda


probar el concepto de servicio en su uso real. Se puede modificar del servicio, si es
necesario, para satisfacer mejor las necesidades del consumidor. Una vez que se ha
probado el prototipo con éxito, se puede terminar el diseño definitivo y dar el servicio
en franquicia y desarrollarlo a gran escala.

Ray Kroc, el propietario de los restaurantes McDonalds, comenzó con un restaurante


prototipo en San Bernardino, California. Se caracterizaba por tener una apariencia de
mucha limpieza, con los colores rojo y blanco originales, el menú limitado, precios
bajos y así sucesivamente. Ray Kroc duplicó esta instalación casi al pie de la letra
cuando comenzó la expansión de la franquicia McDonalds. El restaurante original fue,
en efecto, una instalación de tipo prototipo.

Pruebas.-

Las pruebas en los prototipos buscan verificar el desempeño técnico y comercial. Una
manera de apreciar el desempeño comercial es construir suficientes prototipos como
para apoyar una prueba de mercado para el nuevo producto. Las pruebas de mercado
casi siempre duran entre seis meses y dos años y se limitan a una región geográfica
pequeña. El propósito de una prueba de mercado es obtener cuantitativos sobre la
aceptación que tiene el producto entre los consumidores.

También se prueba el desempeño Técnico del producto en los prototipos. Por ejemplo,
todas las aeronaves militares nuevas se prueban mediante el uso de prototipos. Se
pueden construir hasta seis aeronaves prototipo y se les prueba de manera extensa antes
de que la administración apruebe el diseño definitivo del producto. Los cambios de
ingeniería que se inician como resultado de las pruebas en los prototipos incorporan
entonces al paquete de diseño final.

Diseño Definitivo del Producto.-

Durante la fase de diseño definitivo, se desarrollan dibujos y especificaciones para este


producto. Como resultado de las pruebas en los prototipos se pueden incorporar ciertos
cambios al diseño definitivo. Cuando se hacen cambios, el producto puede someterse a
pruebas adicionales para asegurar el desempeño del producto final. La atención se
enfoca entonces en la terminación de las especificaciones de diseño para que se pueda
proceder con la producción.

Sin embargo, la investigación y desarrollo no solo debe desarrollar especificaciones de


diseño para operaciones. Debe desarrollarse un paquete de información para asegurar la
factibilidad de producir el producto. Este paquete de información debe contener detalles
relacionados con la tecnología de proceso, datos de control de calidad, procedimientos
de prueba del rendimiento del producto y otras cuestiones parecidas. Es demasiado
frecuente que el diseño del producto termine con un juego de especificaciones y nada
más.

76
Estudio del Proceso de Desarrollo de Nuevos Productos

El proceso de desarrollo de nuevos productos descrito hasta ahora, puede considerarse


como un embudo o filtro. Al principio se genera un gran número de ideas, sin embargo
algunas pocas se introducen con éxito en el mercado bajo la forma de productos.

Filtrado de Ideas.-

El propósito de la generación de ideas es la creación de más de ellas, el objetivo de las


etapas subsiguientes, es reducir el número de ideas a unas cuantas que sean atractivas y
factibles, la primera etapa de la selección de ideas es el filtrado.

Al filtrar las ideas, la empresa debe evitar dos tipos de errores, ocurre un error de
exclusión, cuando la empresa elimina una buena idea. La forma más fácil de hacerlo es
eliminar las ideas de otras personas, si una empresa comete demasiados errores de
exclusión sus normas son muy conservadoras.

Desarrollo y Prueba de Concepto.-

Una idea atractiva debe desarrollarse para convertirla en un concepto del producto. Es
importante distinguir entre idea, concepto e imagen de un producto.

La idea de un producto es la sugerencia de un posible producto de ofrecer al mercado.

El concepto del producto es una versión detallada de la idea expuesta en términos


significativos al consumidor.

La imagen del producto es la forma en la cual los consumidores perciben un producto


real o potencial.

La prueba de concepto implica someter los conceptos de nuevos productos con grupos
de consumidores meta, los conceptos se pueden presentar en forma simple.

Análisis Del Negocio.-

Esto implica una revisión de ventas, costos y proyecciones de utilidades para un


producto nuevo, con la finalidad de averiguar si satisfacen los objetivos de la compañía,
si lo hace el producto puede avanzar en la etapa de desarrollo del producto.

Para calcular las ventas, se debe estudiar la historia de productos similares y debe hacer
una encuesta de opiniones de mercado, se deben calcular las ventas mínimas y máximas
para evaluar los riesgos. Elaborado el pronóstico de ventas se deben calcular los costos
y las utilidades esperadas, estos deben incluir los costos de mercadotecnia, investigación
y desarrollo, fabricación, contabilidad, para luego determinar el punto de equilibrio y la
rentabilidad del producto.

77
Desarrollo Del Producto.-

Luego de haber realizado la investigación y desarrollo convierte el concepto de


producto en un producto terminado o un producto físico, los prototipos deben someterse
a varias pruebas con la finalidad de observar el comportamiento del producto en forma
segura y efectiva.

El desarrollo de un producto requiere un gran riesgo e inversión, esto revelará si la idea


del producto puede transformarse en un producto factible.

Mercado de Prueba.-

En esta etapa el producto y el programa de mercadotecnia se introducen en escenarios


más realistas.

Esto permite a la empresa llevar a la realidad toda la parte teórica, es probar el producto
y todo su programa mercadológico, es decir su estrategia de posicionamiento,
publicidad, distribución, determinación de precios, marca y envasado así como los
niveles de presupuesto.

Comercialización.-

La comercialización es la introducción del nuevo producto al mercado, la empresa debe


decidir cual es el momento oportuno si es pionero o un fiel seguidor. En segundo debe
focalizar el ámbito donde va a lanzar el producto local, regional, distrital, nacional o
internacional.

Se debe tomar en cuenta la primera entrada disfruta de una ventaja de primer


movimiento que es la de ganar liderazgo, caso contrario también podemos obtener una
imagen defectuosa de la empresa y el producto.

Una entrada paralela con el producto competidor ambos financian los costos del
lanzamiento del producto.

Un ingreso tardío al mercado supone tres ventajas, haber sufragado los costos de educar
a los potenciales clientes, conocer el mercado y presentar un producto mejorado.

Interacción entre el Diseño del Producto y el Diseño del Proceso

Se ha estudiado el proceso del desarrollo de nuevos productos antes de la producción


inicial. Sin embargo, los productos también se desarrollan y sufren cambios durante su
ciclo de vida; esto podría llamarse rediseño de un producto. En esta sección se
enfocarán los procesos de innovación de los productos después de su introducción
inicial, con un énfasis especial en la naturaleza e la interacción entre los productos y los
procesos.

Los productos se someten constantemente, en el uso, a rediseños e innovaciones.


Algunos buenos ejemplos son los automóviles, teléfonos y artículos domésticos.
William Abernathy estudió el fenómeno de la innovación de los productos y los

78
procesos. Como resultado de sus estudios, Abernathy y Towsend (1975) sugieren que la
innovación de productos y procesos casi siempre sigue tres etapas.

Etapa I .-

La vida inicial de los productos se caracteriza por un cambio constante ocasionado por
la incertidumbre de las condiciones del mercado y de los avances tecnológicos. El
proceso de producción casi siempre se acopia a un bajo nivel de volumen y tiene una
naturaleza "poco coordinada". Casi siempre el producto se hace un equipo genérico, el
cual se puede cambiar conforme cambia el producto. Se puede describir la situación
tanto del producto como del proceso como una situación fluida. Las velocidades de
innovación en le proceso son altas y existe una gran diversidad de productos entre los
competidores. El proceso de producción mismo está muy poco coordinado entre las
distintas operaciones, existen cuello de botellas y exceso de capacidad debido a la falta
de un flujo estable en el producto. Las decisiones operativas se orientan hacia la
flexibilidad, que es el objetivo en esta etapa.

Aunque con frecuencia se piensa en términos de los productos físicos, la situación es


similar para los servicios. Por ejemplo, considérese la alta tasa de innovación inicial de
las organizaciones de mantenimiento de la salud, en los seguros automotores y en las
cadenas de alimentos rápidos. En estos casos, tanto el producto como el proceso pasaron
inicialmente por una etapa de fluidez.

Etapa II.-

Conforme tiene lugar el desarrollo, la competencia en los precios se vuelve más intensa.
Los administradores de operaciones responden con una mayor conciencia del costo. El
resultado es una mejor integración del flujo del producto, tareas más especializadas,
mayor automatización y más estricta planeación, y control de la producción. El proceso
se caracteriza mejor en esta etapa mediante el término "islas de mecanización". Algunos
subprocesos pueden volverse altamente automatizados con equipo de proceso muy
específico, mientras que otros siguen dependiendo del equipo genérico. Dicha
automatización no puede ocurrir, sin embargo, hasta que la vida de los productos sea lo
bastante madura como para tener un volumen suficiente y por lo menos algunos diseños
de productos estables. En esta etapa podría describirse mejor con la frase
"estandarización del producto y del proceso con una automatización cada vez mayor".

Etapa III .-

Conforme el producto alcanza su madurez, la competencia se vuelve aun más fuerte. Se


requiere una mayor estandarización y se enfatiza la reducción de costos, mientras se
mantienen estándares aceptables de servicio y calidad. En este punto, el proceso se
vuelve altamente integrado y automatizado. Es probable que un cambio en cualquiera de
las partes tenga impacto en yodo el proceso puesto que el producto y el proceso se
vuelven interdependientes y es difícil separarlos. Los cambios adicionales en el
producto son extremadamente difíciles y costosos. El cambio surge mas lentamente pero
puede también originarse en alteraciones repentinas en los insumos, reglamentos del
gobierno o del mercado. Algunos ejemplos de procesos que se encuentran en esta etapa
de desarrollo son las líneas de ensamble de automóviles, las plantas químicas, los

79
procesadores de alimentos y los servicios de alto volumen como la seguridad social, la
medicina social y la compañía telefónica.

Análisis del Valor

Existe la necesidad de mejorar constantemente los productos y los servicios que se


producen para seguir siendo competitivos. La innovación es una necesidad básica en
todo lo que se hace. El análisis del valor o ingeniería del valor proporciona una manera
conveniente de organizar la innovación, enfocada a mejorar el valor de los productos y
de los servicios.

El análisis del valor es una filosofía que busca eliminar todo aquello que origine costos
y no contribuya al valor ni a la función del producto o del servicio. Su objetivo es
satisfacer los requisitos de rendimiento del producto y las necesidades del cliente con el
menor costo posible. El análisis del valor también es un enfoque organizado para
analizar los productos y servicios en que se utilizan rutinariamente varias etapas y
técnicas.

Existe una diferencia importante entre el costo y el valor. El costo es un término


absoluto que se expresa en pesos y centavos y que mide los recursos que se utilizan para
crear un producto o servicio. El costo frecuentemente incluye la mano de obra, los
materiales y los costos indirectos. El valor, por otro lado, es la percepción que tiene el
cliente de la relación de utilidad del producto y servicio con su costo. La utilidad
incluye la calidad, confiabilidad y rendimiento de un producto para el uso que se le
busca dar. El valor es lo que busca el cliente: satisfacer sus necesidades con el menor
costo. Por lo tanto el valor de un producto, su puede mejorar incrementando su utilidad
con el cliente con el mismo costo o disminuyendo el costo con el mismo grado de
utilidad. Esto se hace mediante la eliminación de funciones innecesarias o costosas que
no contribuyan al valor.

En el análisis de valor se utilizan los siguientes términos o definiciones:

Objetivo: El propósito por el que existe el producto o servicio.

Función básica: Una función básica, si se elimina, haría que el producto dejara de tener
utilidad en términos de su objetivo.

Funciones secundarias: Las funciones secundarias existen para apoyar una función
básica debido a la manera en que se diseñó el producto en particular.

El análisis del valor casi siempre se realiza en cinco pasos: planeación, información,
diseño creativo, evaluación e implementación. La etapa de planeación comienza al
orientar a la organización hacia el concepto del análisis del valor. Se informa a la alta y
media gerencia del potencial de análisis del valor y de los procedimientos involucrados
para que puedan dar el apoyo necesario. Después se forma un equipo de análisis del
valor formado por aquellos afectados por los cambios potenciales.

80
La fase de información del estudio empieza al identificarse al objetivo del producto o
del servicio, las funciones básicas y las funciones secundarias. Las funciones se
describen normalmente con dos palabras: un juego de verbo y sustantivo.

En la tabla que tenemos a continuación se muestra este proceso de identificación de las


funciones básicas y secundarias en el caso de la sección de reclamaciones de una oficina
de seguros. En este caso, las funciones que se consideran como esenciales para la
producción del servicio que da la oficina son la recepción de reclamaciones, el
procesamiento de las reclamaciones y el pago de las mismas. También se identifican las
funcione secundarias pero éstas pueden cambiarse o eliminarse si se puede dar un valor
mejorado.

Como una manera de iniciar el análisis se determina el costo de cada función primaria y
secundaria. Después, el equipo busca la manera de consolidar funciones secundarias,
revisarlas o eliminarlas mientras se mejora la relación de valor.

La tercera fase del análisis del valor busca generar opciones creativas. Por ejemplo,
podría ser posible reorganizar la oficina de reclamaciones y reducir la necesidad de
ordenar correo o pude comprarse equipo nuevo para automatizar algunas de las etapas
del procesamiento. Durante esta fase debe mantenerse una atmósfera abierta y de
innovación en el equipo para no asfixiar las ideas.

Ejemplo de Análisis del Valor para Una oficina de Reclamaciones de seguros.

Funciones Costo Anual

Recepción de reclamaciones $110 000

Apertura de cartas 15 000

Lectura de correo 45 000

Codificación de cartas 42 000

Clasificación de Cartas 8 000

Procesamientos de reclamaciones 160 000

Solicitud de archivos 30 000

Revisión de archivos 80 000

Colocación de cartas en archivos 10 000

Evaluación de reclamaciones 40 000

Pago de reclamaciones 80 000

Autorización de pagos 20 000

81
Expedición de cheques 60 000

En la etapa de evaluación se observa la posibilidad de las ideas, su costo y la


contribución que dan el valor. Se consolidan las mejores ideas en un plan para la mejora
del producto o del servicio. El plan resultante lo ponen en operación los miembros del
equipo con la gente que tendrá que llevar a cabo los resultados del estudio del análisis
del valor. Esto genera entusiasmo y compromiso en el proceso de su implementación.

El análisis del valor es una manera organizada de mejorar la utilidad de un producto con
relación a su costo. El análisis del valor como un presupuesto con base cero en el hecho
de que se examina cada función del producto en busca de su posible eliminación o
mejoría. No se da nada por sentado. Los resultados pueden ser bastante dramáticos: casi
siempre obtiene una mejoría de valor más del 10% y en ocasiones hasta el 50% o más.

82
9. Referencias

Biegler, L.T., Grossmann, I.E., y A. W. Westerberg., Systematic Methods of Chemical


Process Design, Prentice Hall International Series, 1997.

Cussler, E. L., y G. Moggridge, Chemical Product Design, USA, Cambridge Press,


2001.

Doherty, M. F., y M. F. Malone, Conceptual Design of Distillation Systems, New York,


McGraw-Hill Higher Education, 2001.

Dym. C. L. y P. Little, Engineering Design: a project – based introduction, New York,


Wiley, 2000.

Floudas, C. A., Deterministic global optimization: theory, methods and applications.


Dordrecht, The Netherlands: Kluwer Academic Publishers, 2000.

Grossmann, I. E., Halemane, K. P., R. E. Swaney, 1983, Optimization strategies for


flexible chemical processes. Computers in Chemical Engineering, 7, 439.

Grossmann, I. E., y C.A., Floudas, 1987, Active constraint strategy for flexibility
analysis in chemical processes. Computers in Chemical Engineering, 6, 675.

Jiménez A., Diseño de Procesos en Ingeniería Química, Ed. Reverte. 2003.

Kister, H.Z., Distillation Design, New York, McGraw Hill, 1992.

Townsend, D. W., y B. Linnhoff, 1983, Heat and power networks in process design.
Part II. Design procedure for equipment selection and process matching. AIChE
Journal, 29(5), 748.

Turton, R., R. C. Bailie, W. B. Whiting y J. A. Shaeiwitz, Analysis, Synthesis, and


Design of Chemical Processes, Prentice Hall International Series, 1998.

Sánchez, A., y Macchietto, S., 1995, Design of procedural controllers for chemical
processes. Computers and Chemical Engineering, 19, S381–S386.

83
Seader J D, y E. Henley, Separation Process Principles, USA: John Wiley and Sons,
1998.

Siirola, J. J. 1995, An industrial perspective on process synthesis. Foundations of


computer aided process design American Institute of Chemical Engineers Symposium
Series No. 304., Vol. 91, 222.

Siirola, J. J.,1996, Industrial applications of chemical process synthesis, Advances in


chemical engineering, New York, Academic Press., Vol. 23, 1.

Siirola, J. J., 1996, Strategic process synthesis: Advances in the hierarchical approach.
Computers and Chemical Engineering, 20, S1637.

Siirola, J. J., y D. F. Rudd, 1971, Computer-aided synthesis of chemical process


designs. Industrial and Engineering Chemistry Fundamentals, 10, 353.

Smith, R., Chemical Process Design, Second Edition, Prentice Hall, 2005.

Van den Heever, S. A., y I.E. Grossmann, 2000, An iterative aggregation/


disaggregation approach for the solution of a mixed-integer nonlinear oilfield
infrastructure planning model. Industrial and Engineering Chemistry Research, 39,
1955.

Zamora, J. M., y I.E. Grossmann, 1999, A branch and bound algorithm for problems
with concave univariate. Journal of Global Optimization, 14, 217.

Zamora, J. M., y I.E. Grossmann, 1998, A global MINLP optimization algorithm for the
synthesis of heat exchanger networks with no stream splits. Computers and Chemical
Engineering, 22, 367.

Zamora, J. M., y I.E. Grossmann, 1998, Continuous global optimization of structured


process systems models. Computers and Chemical Engineering, 22, 1749.

84
Apéndice A. Métodos aproximados para
separaciones en múltiple etapa de
Cálculo de una secuencia de destilación sistemas multicomponentes.
usando Aspen Plus.
Métodos cortos [método de Fenske-
A.1 Objetivo. Underwood-Gilliland (FUG)].

Determinar el número de platos, El algoritmo para el método Fenske-


relaciones de reflujo, cargas térmicas y Underwood-Gilliland, mostrado en la
localización de las alimentaciones de las Figura A.1, para una columna de
columnas de destilación de una destilación simple como se muestra en
secuencia convencional. la Figura A.2. Para ilustrar la utilidad de
este método se ha optado de analizar un
A.2 Consideraciones teóricas. ejercicio donde se vean las bases
teóricas, ecuaciones y pasos a seguir en
su desarrollo, en vez de analizar las
bases teóricas de manera profunda y
rebuscada.
Comienzo

Especificar la alimentación

Calcule el número de etapas


Especificar las escisiones de dos teóricas para la relación de Correlación de Gilliland
componentes clave reflujo especificada > valor
mínimo

Estimar las escisiones de los Calcule la localización de la Ecuación de Kirkbride


componentes no clave etapa de alimentación

Determine la presión de la
Cálculos del punto de burbuja y Calcule los servicios del
columna y el tipo de Ecuación de Balances de Energía.
el punto de rocío condensador y del reboiler
condensador

Aplique el flash a la Use el procedimiento del Flash Salida


alimentación a la presión de la adiabático
Repita el procedimiento en caso de que columna
la estimación y el cálculo de las
escisiones de los componentes no clave
difiera considerablemente

Calcule el mínimo de etapas Ecuación de Fenske


teóricas

Calcule las escisiones de los Ecuación de Fenske


componentes no clave

Calcule la relación de reflujo Ecuación de Underwood


minima

Figura A.1. Algoritmo para la destilación multicomponente por el método FUG

Ejercicio de aplicación a los métodos 120 psia de forma que se obtenga una
cortos. destilado con 92.5moles% de n-C4 y
unas colas con 82moles% de i-C5.
La siguiente mezcla de alimentación ha
de separarse por destilación ordinaria a

85
Tabla A.1. Alimentación de la columna. columnas diseñadas para condensadores
Componente Lbmol/h parciales.
C3 5 Analizaremos lo que es ahora la
iC4 15 selección de los componentes clave
nC4 25
iC5 20
ligero (LK) y clave pesado (HK),
nC5 35 debido a que solo podremos sacar dos
Total 100 productos uno de destilado y otro de
fondo, se realiza un corte (sabiendo el
porque) y se designa de la siguiente
manera:

i. Componente clave ligero


(LK). Es el primer
C3 componente que esta encima
i-C4
LK n-C4
del corte y se distribuye
120 psia
HK i-C5
n-C5
entre el domo y el fondo
pero aparece en mucha
mayor cantidad en el
destilado.
Figura A.2. Columna de destilación simple
para la separación de cinco componentes. ii. Componente clave pesado
(HK). Es el primer
componente que esta debajo
Para el desarrollo del ejercicio del corte y se distribuye
primeramente debemos hacer una serie entre el destilado y fondos
de cuestionamientos que conforme se pero aparece en mayor
vea el desarrollo del mismo ejemplo cantidad en los fondos.
iremos resolviendo:
iii. Los demás componentes
a) ¿Cuál es la presión en la dependiendo si se
columna? encuentran arriba o debajo
b) ¿Qué tipo de condensador se de los componente LK y HK
usara? se denomina como NLK
c) Platos mínimos (componente no clave ligero
d) Reflujo mínimo normalmente solo esta en el
e) Platos reales domo) y NHK (componente
f) Plato de alimentación. no clave pesado
normalmente se encuentra en
La columna puede estar equipada con el fondo)
un condensador total ó parcial (en
nuestro caso utilizaremos total) por lo La recuperación se refiere al porcentaje
que en la Tabla A.2 se da a conocer el de los claves que se obtienen en los
número de grados de libertad para productos respecto de la alimentación.
nuestra columna, en este caso las
siguientes variables se especifican Tabla de Balance (Tabla A.3). Nuestra
considerando la zona del reboiler como primera suposición es que todos los
una etapa teórica más. Especificaciones NLK solo aparecen en el domo y los
similares pueden escribirse para NHK en el fondo.

86
Tabla A.2. Grados de libertad para una columna con condensador total
Número de especificación
Razón de Flujo de entrada 1
Fracciones mol de la alimentación C-1
Temperatura de alimentación 1
Presión de alimentación 1
Etapas adiabáticas (excepto reboiler) N-1
Presión de las etapas (incluyendo reboiler) N
Escisión del componente ligero LK 1
Escisión del componente pesado HK 1
Localización de la etapa de alimentación 1
Razón de reflujo (como un múltiplo de Rmin) 1
Temperatura de reflujo 1
Divisor adiabático de reflujo 1
Presión del condensador total 1
Presión en el divisor del reflujo 1
Grados de libertad (análisis total) 2N+C+9

Tabla A.3. Tabla de Balance de Materia


Componente F D xD B XB
(lbmol/h) (lbmol/h) (lbmol/h
)
C3 5 5 0.107 0 0
iC4 15 15 0.321 0 0
LK nC4 25 23.125 0.495 1.875 0.035
HK iC5 20 3.6 0.077 16.4 0.308
nC5 35 0 0 35 0.657
Total 100 46.725 1 53.275 1

Siguiendo los pasos descritos en el Como vemos que el valor es negativo


algoritmo FUG (ver figura A.1), el aumentamos el valor de Tb, aplicando la
siguiente paso es calcular los puntos de ecuación (1) después de 4 iteraciones
burbuja y de rocío de nuestra con 60, 56 y por ultimo 58cC, llegamos
alimentación ya localizada en la al resultado más exacto:
columna.
Cuarta iteración: con TbD=580C.
Calculamos la temperatura de Burbuja
del domo a partir de la presión P=120 KC3 KiC4 KnC4 KiC5 KnC5
psia =827.4 kPa. 2.25 1.08 0.78 0.375 0.295

Primera iteración: con T=500C. f D (580 C )  0.002

KC3 KiC4 KnC4 KiC5 KnC5 Por lo tanto la temperatura de burbuja


1.95 0.9 c
0.67 0.295 0.24 de los componentes en la zona del

(1) f D (T )   ki xi  1  0
destilado es de TbD=58 0C a P=120 psia.

Como hay una caída de presión de 10


psia desde el domo de la columna

i 1 [debido a la caída de presión en el

f D (50 C )  0.171
0 87
condensador (5 psia), caída de presión Para el domo:
en los platos (5 psia)], hasta el fondo de
la columna tenemos que PB=130 psia K LK K nC4 0.78
(3)  D     2.08
=896KPa. K HK K iC5 0.375

Por lo que evaluamos la temperatura de


burbuja de los fondos a una temperatura Para el fondo:
mayor que la del domo pero no superior
K LK K nC4 2
a la temperatura critica de los (3)  B     1.905
componentes; por sugerencia debe ser K HK K iC5 1.05
200F mayor que la TbD, por lo que
iniciare mis iteraciones con una Ecuación de Fenske
temperatura de 700C. Media geométrica.
( 4)    D B
 1.99
Calculamos la temperatura de burbuja
del fondo a partir de PB=130psia.
Aplicamos la ecuación de Fenske.
Primera iteración: con T=700C.

KC3 KiC4 KnC4 KiC5 KnC5  d  b 


2.45 1.21 0.9 0.44 0.36 log10  LK  hK  log10  23.125  16.4 
(6) N min   d HK  blK    3.6  1.875   5.90  6
10   10 1.99el

c
(2) f B (T )   ki xi  1  0 Otra logsituación que nos log plantea
i 1 ejercicio es el que el alumno suponga
f D (70 C )  0.5965
0 que la alimentación está en su punto de
burbuja, utilícese el método de
Como vemos que el valor es negativo Underwood para estimar la relación de
aumentamos el valor de Tb, aplicando la reflujo mínima.
ecuación (2) después de 3 iteraciones
con 100 y por ultimo 120cC, llegamos al Evaluando el punto de burbuja de la
resultado más exacto: alimentación.

Cuarta iteración: con TbB=1200C. (7 ) PF  120 psia  5 psia  2.5 psia  127.5 psia  880kPa

KC3 KiC4 KnC4 KiC5 KnC5 La caída de presión en el condensador


4.4 2.5 2 1.05 0.94 por seguridad la consideramos de 5psia
pero como la alimentación esta ‘a la
f B (1200 C )  0.01 mitad’ le agregamos 2.5psia.

*NOTA: las constantes K fueron obtenidas de la 580 C  1200 C


Figura 7.5 del [Link]/J.D. Seader. (8) TF   890 C  900 C
2
Primera iteración: con TF=900C.
Como primer objetivo el ejercicio nos
pide estimar el número mínimo de
KC3 KiC4 KnC4 KiC5 KnC5
etapas de equilibrio que se requieren
aplicando la ecuación de Fenske. 3.3 1.71 1.31 0.66 0.58

Evaluamos el número mínimo de


etapas, con las siguientes ecuaciones:

88
c
(2) f F (T )   k i x i  1  0
i 1

f F (90 C )  0.084 lo que para nuestro


0

analisis es suficiente
Reflujo real (regla general de diseño)
Reflujo mínimo.
L L L
1.1      1.5 
La ecuación de Underwood propone  D  min  D  real  D  min
obtener el reflujo mínimo mediante la
solución de las siguientes ecuaciones: Normalmente las columnas de
destilación se diseñan a 1.33 (L/D)min,
Ecuación de Underwood debido al costo de energía

( ir )  z iF Un a vez hecho esto el algoritmo en al


(9)  1 q ,
( ir )    figura 1 nos pide determinar el número
de etapas teóricas que se requieren por
Como es líquido en su punto de burbuja la correlación de Gilliland suponiendo
q=1. L/D=1.2 (L/D) min, un reboiler parcial
y un condensador total y Estimar la
Ki ( ir )  zi localización de la etapa de alimentación.
C3 3.3 5 0.05
iC4 1.71 2.59 0.15 Para calcular el número de platos
nC4 1.31 1.98 0.25 teóricos conozco la relación de reflujo
iC5 0.66 1 0.2 por lo que aplicamos las siguientes
nC5 0.58 0.88 0.35 ecuaciones:

Ki
Donde ( ir )   , sustituyendo los L L
   1.2   1.48
K HK D  D  min
datos de la tabla en la ecuación (9)
tenemos la siguiente expresión: R  R min 1.48  1.23
(11) X    0.101
R 1 1.48  1
5(0.05) 2.59(0.15) 1.98(0.25) 1(0.2) 0.88(0.35)
    0
5  2.59   1.98   1   (12)0.N88Nmin  1  exp  1  54.4 X  X  1  ,
N 1  
 11  117 .2 X  X
0 .5

Donde por aproximaciones podemos
sustituyendo la ecuación (11) en (12), obtengo :
confiar en que   1.37 , donde por
experiencia sabemos que 1.98    1

Por lo que sustituimos en la segunda N  N min


 1  0.4473  0.553
ecuación de Underwood. N 1
Resolviendo para N cuando Nmin  6 (inciso a)
( ir )  xiD L
(10)  1  
( ir )     D  min
N  14.66

Sustituyendo los datos de las fracciones


del destilado de la tabla de balance y
nuestros datos anteriores obtenemos la
siguiente expresión:
Para el palto de alimentación.
5(0.107) 2.59(0.321) 1.98(0.495) 1(0.077) L
    1  
5  2.59   1.98   1  D  min
89
L
   1.23
 D  min
0.206 Tabla A.4. Mezcla equimolar de
 z  xlK ,B   B 
2
N
(13) R   HK , F      hidrocarburos a la secuencia de
Ns  z LK , F  x   D  separación.
  HK ,D  
0.206 Componentes Alimentación
 0.2  0.035  2  53.275   (lbmol/hr)
      0.7091
(LK) A= n-pentano 25
 0.25  0.077   46.725  
(HK) B= n-hexano 25
C=n-heptano 25
(14) N R  N s  14.66 D=n-octano 25
Resolviendo el sistema de ecuaciones
tenemos que :
N R  6.082  7
N S  8.58  9

Con esto completamos el algoritmo para


los métodos cortos (FUG) y terminamos
lo que sería la sección teórica, pero en
esta ocasión la fue enfocada a un
ejercicio de aplicación con el cual creo
que queda mejor explicada que con
párrafos amplios y revoltosos de teoría.

A.3 Planteamiento del problema.

Obtenga el diseño de la secuencia de


destilación de la Figura A.3 para separar
una mezcla equimolar de n-pentano, n-
hexano, n-heptano y n-octano que se
encuentra como líquido saturado a
22.02 psia. Considere recuperaciones de
98% de los componentes claves.

Figura A.3. Secuencia de destilación


directa.

90
A.3.1. Diagrama de Flujo (DSTWU). A.3.2. Variables de diseño (DSTWU)

Paso n° 1. Primeramente haremos Pasounan° simulación


1. El primer paso es
mediante el el
proporcionar
uso de la ventana de columnas DSTWU al simulador
que es la opciónlaspara
unidades
los y
en el sistema que vamos a trabajar, al
métodos cortos de Winn-Underwood-Gilliland. Con esta
iniciar el vaciado de datos se nos abrirá
simulación nuestro objetivo será obtener las etapas,
primeramente la relación
una carpeta de
de nombre
reflujo, entre otros parámetros Setup
que ennosla permitirán hacer el
cual se nos proporcionara
cálculo de la altura de la columna
unay el diámetro
subcarpetade losdeplatosnombre
en
otra simulación pero esta vez de columnas [Link]í
Specifications debemos
proporcionar el sistema de unidades y el
nombre de la simulación en la ventana
de nombre global, en la ventana de
nombre Accouting debemos
proporcionar el usuario (importante)

Paso n° 2. Paso
Una vezn° hecho
2. Unalo que
vezse colocadas
explico en el
paso anterior, en este paso se abrirá otra carpeta
las columnas como
de nombre components la cual nos
las de la
figurauna
proporcionará 3, pasamos hacer
subcarpeta deloanombre
que
corresponde
Specifications, a la conexión
en esta subcarpeta de la
se habré
las corrientes,
tabla que están viendo a suseleccionamos la
izquierda en la cual
se hace laventana
selecciónMaterial
de los STREAMS
componentesy a
evaluar, solo
conse la
requiere
opciónqueMaterial
escriban elvemos
nombre
del componente
que correctamente
corrientes en ingles ó en su
debemos
defecto la formula química del componente.
proporcionar al simulador.

PasoPaso
n° 3.n°[Link]
Aquí carpeta
se pueden
es la de
apreciar
nombre lo que
Properties, son noslashabré
la cual
una corrientes para cada
subcarpeta de equipo,
nombre
note que lasy flechas
Specifications rojas son
en la pestaña Global
las corrientesel que
seleccionamos por lobase
método menos [Base
debemos
method proporcionar para
(CHAO-SEA)] al la
simulador,
evaluación de las
lascorrientes azules
propiedades de los
son del tipo [Link]
componentes .
anteriormente,

Paso n° 4.
Paso n° 4. Una vez analizadas las
Una vez seleccionado
corrientes que el método
debemosde
evaluación de propiedades,
proporcionar al simulador,la hacemos
siguiente
carpeta las
es conexiones
la de nombre Streams
pertinentes en los
entre esta
carpeta equipos
se habría creando
la subcarpeta que requiere
un diagrama de al
información
flujo de la alimentación
similar en nuestro
al del la figura 3.
caso esaPodemos
corriente y subcarpeta
nombrar es de nombre
nuestras
FEED corrientes
(ver diagrama de flujo),
y equipos delensimulador
la pestaña
de Specifications
presionandoenclickla sección
derecho de nombre
sobre el
State variable
númeroseleccionamos
de corrientelaóopción
bloqueVapor
y
Fraction en vez de la opción Temperatura,
seleccionando la opción que se abre
debido del
a que nuestro problema nos
menú Rename stream ó Rename dice que
es una alimentación
block, según liquida saturada.
sea el caso

91
Pason°n°5.7. LaHacemos
Paso siguienteelcarpeta
mismo esprocedimiento
la de nombrepara la
blocks
siguiente columna de nombre COLUMN3, en
cuya subcarpetas son aquellas que correspondientes a las este
caso lo que
columnas cambia es
mostradas en laelselección
diagramadedelosflujo,
componentes
la primer
clave ligeroesy pesado.
subcarpeta la correspondiente a la de nombre
COLUMN1, en esta parece una pestaña de nombre
Specifications, en esta proporcionamos en la opción
Column Specifications la relación de reflujo mínima
cuyo valor es -1.33 (valor más común de diseño por
razón de ahorro de energía y consumos), esto es debido Una vez finalizado el paso 7 procedemos a correr la
a que el simulador supone que si el valor es (-) simulaciónhace y a la obtención de resultados, éstos serán
referencia a un múltiplo de Rmin, en caso contrario un analizados en la siguiente sección del reporte por lo que ahora
valor (+) haría que el simulador interprete ese numero pasaremos a lo que el análisis de resultados variando la
como una relación de reflujo real. Después en la opción relación de reflujo, lo único que se debe hacer es reemplazar
de presión colocamos una presión en el condensador endela opción Reflux-ratio descrita en los pasos 5-7, otros
14.7 psia considerando una caída de presión a lo largo valores para nuestro estudio usaremos una relación de reflujo
de la columna hasta llegar al reboiler de 10 psia. En mínima
la de 1.1 y 1.5, esto nos permitirá ver una vez más el
opción de nombre Key Components Recovery, efecto que tiene la variación del reflujo en las columnas de
seleccionamos lo que es la fracción del componente destilación y su impacto que tiene en relación con el número
clave ligero que deseamos en el destilado de la columna de platos y la cantidad de carga térmica requerida (variables
1, al igual que la fracción del componente clave pesado analizadas en reportes anteriores), No es necesario
que puede haber en el destilado. esquematizar como se hace la variación pues ya fue descrito el
procedimiento de cambio por lo que solo nos limitaremos a ver
los resultados en la siguiente sección. Posteriormente haremos
la simulación de la secuencia de columnas con la opción
RadFract y la ayuda de los resultados obtenidos por nuestra
primera simulación.

Paso n° 6. Hacemos el mismo procedimiento para la


siguiente columna de nombre COLUMN2, en este caso lo
que cambia es la selección de los componentes clave ligero
y pesado.

92
A.3.3. Diagrama de Flujo (RadFract).

Paso n° 2. Nuevamente se nos proporciona la


carpeta correspondiente a los bloques del
diagrama
Paso ‘‘Blocks’’ la cual
n°1 Seleccionamos nos pide
la ventana de las
características
columnas de denombre
las nuevas columnas yen el
RadFract
diagrama de flujo RadFract, correspondiente a
utilizamos el modelo convencional de
las columnas 4, 5 y 6, utilizando los resultados
columna
obtenidos deen destilación
la simulaciónde con
nombre
columnas
Fract1
DSTWU, damos las variables correspondientes
a Number of stages, Reflux ratio, Destillate to
feed ratio, esta información es correspondiente a
la pestaña de Configuration.

Los siguientes pasos para la elaboración de un diagrama de


flujo con columnas RadFract son similares a los pasos para
la elaboración del diagrama descrita para las columnas
DSTWU, por lo cual no hay necesidad dePaso n° 3. Pasamos dentro de
repetir estos
la misma carpeta blocks a lo
pasos y solo les mostraremos el diagrama terminado.
que es la pestaña de Streams,
donde mediante el uso de los
resultados obtenidos en la
pasada simulación podemos
proporcionar en que etapa se
esta llevando la alimentación.

Paso n° 4. Pasamos dentro de la


misma carpeta blocks a lo que es la
pestaña de Pressure, donde
seleccionamos dentro de la ventana
View la opción Pressure profile,
donde proporcionamos las presiones
del la primera y ultima etapa de la
columna (condensador y reboiler)
A.3.4. Variables de diseño (RadFract)

Paso n° 1. Como estamos dentro de la misma


simulación que hicimos para el método
DSTWU, ya no es necesario especificar las
variables correspondientes a las carpetas
Setup, Components y Properties, pues se
manejan las mismas variables hasta ese
punto, donde si cambia un poco la cosa es
dentro de la carpeta Streams, donde nos
piden Paso n° 5. nuevamente
que demos Pasamos dentro de la pero
los valores misma
ahora carpeta blocks, desplazándonos
para la corriente de alimentacióndentro
FEED de
la subcarpetaa nuestro
1 correspondientes COLUMN4nuevo existe
diagramaotra
subcarpeta
de flujo realizado llamada Tray Sizing
con columnas que es la
RadFract.
opción que nos permite el cálculo del
diámetro y altura de la columna, lo que
debe hacerse es especificar desde que
etapa estará el primer plato hasta la
ultima (no debemos contar el reboiler y el
condensador).

93
Realizamos la misma secuencia de los resultados reportados en la
pasos comenzando desde el paso n°2 simulación DSTWU.
hasta el paso n°5, para las otras dos
columnas restantes de nombre Una vez hecho los pasos indicados para
COLUMN5 Y COLUMN6, utilizando las otras dos columnas procedemos a
ver lo que son los resultados.

A.4 Análisis de Resultados.


Tabla A.8. Columna 1, usando 10% superior al mínimo.
Resultados obtenidos de la simulación DSTWU.
Minimum reflux ratio: 1.43691015
Tabla A.5. Columna 1, usando 33% superior al mínimo. Actual reflux ratio: 1.58060117
Minimum number of stages: 8.26610406
Minimum reflux ratio: 1.43691015
Actual reflux ratio: 1.9110905 Number of actual stages: 22.7737257

Minimum number of stages: 8.26610406 Feed stage: 11.8970569

Number of actual stages: 15.7024023 Number of actual stages above feed: 10.8970569

Feed stage: 8.51348171 Reboiler heating required: 868006.528 Btu/hr

Number of actual stages above feed: 7.51348171 Condenser cooling required: 728204.823 Btu/hr

Reboiler heating required: 967689.955 Btu/hr Distillate temperature: 99.3789176 F

Condenser cooling required: 827888.25 Btu/hr Bottom temperature: 232.865146 F

Distillate temperature: 37.4327319 C Distillate to feed fraction: 0.25000282

Bottom temperature: 111.591751 C


Distillate to feed fraction: 0.25000282

Tabla A.6. Columna 2, usando 33% superior al mínimo. Tabla A.9. Columna 2, usando 10% superior al mínimo.

Minimum reflux ratio: 1.78026336 Minimum reflux ratio: 1.78026336


Actual reflux ratio: 2.36775026 Actual reflux ratio: 1.95828969
Minimum number of stages: 9.80415544 Minimum number of stages: 9.80415544
Number of actual stages: 18.2596428 Number of actual stages: 25.6102945
Feed stage: 9.75645833 Feed stage: 13.2814821
Number of actual stages above feed: 8.75645833 Number of actual stages above feed: 12.2814821
Reboiler heating required: 1081240.49 Btu/hr Reboiler heating required: 946645.794 Btu/hr
Condenser cooling required: 1062759.31 Btu/hr Condenser cooling required: 928164.618 Btu/hr
Distillate temperature: 69.7040642 C Distillate temperature: 157.467313 F
Bottom temperature: 131.038539 C Bottom temperature: 267.869362 F
Distillate to feed fraction: 0.3334707 Distillate to feed fraction: 0.3334707

Tabla A.7. Columna 3, usando 33% superior al mínimo. Tabla A.10. Columna 3, usando 10% superior al mínimo.

Minimum reflux ratio: 1.86101573


Actual reflux ratio: 2.04711731
Minimum number of stages: 11.1679074

94
Number of actual stages: 28.7445227
Minimum reflux ratio: 1.86101573
Feed stage: 14.5955887
Actual reflux ratio: 2.47515093
Number of actual stages above feed: 13.5955887
Minimum number of stages: 11.1679074
Reboiler heating required: 1008207.66 Btu/hr
Number of actual stages: 20.6443251
Condenser cooling required: 1043515.85 Btu/hr
Feed stage: 10.764356
Distillate temperature: 211.813 F
Number of actual stages above feed: 9.76435596
Bottom temperature: 296.989223 F
Reboiler heating required: 1159949.52 Btu/hr
Distillate to feed fraction: 0.5000994
Condenser cooling required: 1195257.72 Btu/hr
Distillate temperature: 99.896114 C
Bottom temperature: 147.21624 C
Distillate to feed fraction: 0.5000994

95
Tabla A.11. Columna 1, usando 50% superior al mínimo. Resultados obtenidos de la simulación RadFract.

Minimum reflux ratio: 1.43691015 Tabla A.14. Resultados del tamaño de platos en las columnas.
Actual reflux ratio: 2.15536523
Minimum number of stages: 8.26610406 Columna de destilación Diámetro de columna (m)
4 0.54
Number of actual stages: 14.6601257
5 0.6
Feed stage: 8.01476019
6 0.66
Number of actual stages above feed: 7.01476019
Reboiler heating required: 1038800.24 Btu/hr
Condenser cooling required: 898998.532 Btu/hr
Distillate temperature: 99.3789176 F
Bottom temperature:
DESTA1
232.865146 F
Distillate
FEED1 to feed fraction: 0.25000282

DESTC1

COLUMN4
Tabla A.12. Columna 2, usando 50% superior al mínimo.

Minimum reflux ratio: BOTTOM3 1.78026336


DESTB1

Actual reflux ratio: 2.67039503 COLUMN6

Minimum number of stages: 9.80415544


Number of actual stages: 16.9450511
COLUMN5 BOTTOM4

Feed stage: 9.12604254


Number of actual stages above feed: 8.12604254
Reboiler heating required: 1178592.44 Btu/hr BOTTOMD1

Condenser cooling required: 1160111.27 Btu/hr


Distillate temperature: 157.467313 F
Figura A.4. Diagrama de flujo con columnas RadFract.
Bottom temperature: 267.869362 F
Distillate to feed fraction: 0.3334707

Tabla A.13. Columna 3, usando 50% superior al mínimo.

Minimum reflux ratio: 1.86101573


Actual reflux ratio: 2.7915236
Minimum number of stages: 11.1679074
Number of actual stages: 19.1386282
Feed stage: 10.0521912
Number of actual stages above feed: 9.05219124
Reboiler heating required: 1270365.9 Btu/hr
Condenser cooling required: 1305674.1 Btu/hr
Distillate temperature: 211.813 F
Bottom temperature: 296.989223 F
Distillate to feed fraction: 0.5000994

Tabla A.15. Balance de corrientes descritas en la Figura A.4.

96
BOTTOMD
FEED1 DESTA1 BOTTOM3 DESTB1 BOTTOM4 DESTC1
1
Substream:
MIXED
Mole Flow
lbmol/hr
PENTANO 25 23.7134597 1.28654033 1.28651204 2.83E-05 2.83E-05 1.28E-13
HEXANO 25 1.28571613 23.7142839 22.6880674 1.02621643 1.0262011 1.53E-05
HEPTANO 25 0.00082369 24.9991763 0.7749612 24.2242151 23.4644249 0.75979019
OCTANO 25 5.00E-07 24.9999995 0.00045931 24.9995402 0.6343457 24.3651945
Total Flow
100 25 75 24.75 50.25 25.125 25.125
lbmol/hr
Total Flow lb/hr 9319.06 1821.81471 7497.24529 2125.72213 5371.52315 2512.1292 2859.39395
Total Flow cuft/hr 242.454381 47.8757765 198.548216 54.5094023 144.389542 65.4822784 77.3111893
Temperature F 182.921415 100.596697 231.224931 154.85752 266.682319 210.329847 296.266897
Pressure psi 22.02 14.7 24.7 14.7 24.7 14.7 24.7
Vapor Frac 0 0 0 0 0 0 0
Liquid Frac 1 1 1 1 1 1 1
Solid Frac 0 0 0 0 0 0 0
Enthalpy
-85329.421 -74175.623 -87279.789 -81380.921 -89775.672 -88549.653 -92390.351
Btu/lbmol
Enthalpy Btu/lb -915.64407 -1017.881 -873.11858 -947.52638 -839.8414 -885.62723 -811.81804
Enthalpy Btu/hr -8532942 -1854390.6 -6545984.2 -2014177.8 -4511227.5 -2224810 -2321307.6
Entropy
-156.04941 -129.98712 -163.41175 -147.89975 -172.21384 -167.08746 -181.74375
Btu/lbmol-R
Entropy Btu/lb-R -1.6745188 -1.7837588 -1.6347179 -1.7220119 -1.6110413 -1.6711212 -1.5969509
Density lbmol/cuft 0.41244873 0.52218475 0.37774201 0.45405012 0.3480169 0.38369161 0.32498531
Density lb/cuft 38.4363449 38.0529547 37.7603264 38.9973489 37.2016089 38.363498 36.9855132
Average MW 93.1906 72.8725886 99.9632705 85.887763 106.895983 99.9852419 113.806724
Liq Vol 60F
221.388779 46.2399099 175.148869 51.4723448 123.676524 58.6574274 65.0190969
cuft/hr

A.5 Conclusiones. ecuaciones y el algoritmo para la


solución rápida, exacta para la mayoría
Al revisar la tablas 4 a 12 vemos la de los casos de destilación
influencia que tiene la relación de multicomponente. Esta decisión fue
reflujo sobre lo que es el número de tomada debido a la forma en la que
platos y la carga térmica, podemos ver muchos de los estudiantes de la
que mientras mayor sea la relación de ingeniería química asimilan de manera
reflujo la cantidad de etapas de más digerida el conocimiento que es la
separación ira disminuyendo, pero este aplicación directa de las ecuaciones a un
efecto es un arma de doble filo pues al ejercicio de aplicación.
disminuir la cantidad de platos aumenta
los requerimientos de energía en el Nuevamente es importante hacer la
reboiler (mayor carga térmica), esto secuencia de simulación y construcción
tiene mucha relación con los costos de del diagrama de flujo para saber las
operación de las columnas por lo cual variables y parámetros que deben
volviendo a lo mencionado en la teoría seguirse para la obtención de buenos
la relación de reflujo para un diseño resultados.
optimo es la equivalente de 1.33Rmin.
A.6 Bibliografía:
Como lo han notado decidí revisar la
teoría en este reporte de una manera J. D. Seader, Ernest J. Henley.
más práctica, es decir, se puso en ‘‘Separation Process
desarrollo lo que es la aplicación de las

97
Principles’’. Second Edition. ingeniería química’’. Editorial
Editorial WILEY. Chapter 9. Reverte. Capitulo 12.

E. J. Henley, J. D. Seader. Bravo Cristofer. ‘‘Apuntes de


‘‘Operaciones de separación por Procesos de Separación 3’’.
etapas de equilibrio en Séptimo semestre. Periodo Ago-
Dic 2006.

98
Apéndice B. contiene el nombre que llevará cada
corriente.
Uso del Software SHE para resolver
problemas de Punto de pliegue Una vez ingresados los datos, debemos
escribir los T’s que corresponden a los
Sean las siguientes corrientes que desean intercambiadores y a cada uno de los
intercambiar calor (Tabla B.1). Encontrar servicios. En este ejercicio se eligió una
el punto de pliegue y construir la red T de 20ºF para los tres (ver Figura. B.2).
óptima que consume la mínima cantidad
de servicios.

Corriente T T WCp*104
s entrada salida Btu/hr ºF
ºF ºF
1 250 100 .95
2 180 100 .84 Fig. B.2 Datos del problema
3 110 200 1
4 110 230 .9
Tabla B.1. Corrientes para intercambio de Para este ejercicio se elige en el
calor. ComboBox la opción New with services
and pinch para dibujar las corrientes
divididas por el punto de pliegue.
Lo primero que se debe hacer es
reconocer cuantas corrientes calientes y A continuación se debe dar click en
frías contamos en el problema y Draw, lo que abrirá una nueva ventana
registrarlas en la EditBox correspondiente donde se dió el nombre de a al esquema
como se muestra en la Figura. B.1. con el cual se va a trabajar. Esta acción
dibujará a las corrientes y el nombre del
esquema aparecerá en el inicio del
ComboBox (Ver Figura. B.3).

Figura. B.1 Determinación de las corrientes


que participan en el problema

La elección del número de corrientes crea


en el grid el número de renglones
necesarios para ingresar los datos de cada
corriente. No se debe olvidar que la
primera columna de cada renglón
Figura. B.3 Nuevo esquema con división de corrientes

Al momento en que se dibujan las


corrientes se satisfacen sus Respetando el ΔT, solamente se pueden
requerimientos térmicos con servicios. realizar 2 intercambios iniciales que
deben ser entre H1 y C1 y entre H2 y C2.
Las cargas térmicas de estos servicios se
encuentran comparadas con las cargas Para realizar el intercambio entre H1 y C1
mínimas que se deben alcanzar con la se debe hacer click con el botón derecho
inclusión de intercambiadores de calor en cualquiera de estas corrientes y elegir
(Ver Figura. B.4). del menú Create a Heat Exchanger como
se muestra en la Figura B.5.

Figura. B.4 Comparación de las cargas


mínimas con las cargas térmicas iniciales

Arriba del punto de pliegue contamos con


2 corrientes calientes y 2 corrientes frías.
Para incluir los intercambiadores en orden
conviene empezar a partir del punto de
pliegue por ser el punto más restringido
de la red.
Figura. B.5 Creación un Intercambiador de Calor.

La elección anterior abrirá una ventana El intercambiador creado recibe el


donde deberá elegir dentro del número 1 por ser el primero que se
ComboBox la corriente con la cual desea agregó y la numeración continua con los
intercambiar calor (C1) y una de las 4 siguientes intercambiadores de calor.
opciones para el ingreso de los datos en
Accepting Data. La elección para Cabe recordar que los números asignados
ingresar los datos que nos conviene es a los intercambiadores de calor arriba y
que nos calcule la temperatura de entrada abajo del punto de pliegue son
de H1 al intercambiador. Esto se debe a independientes.
que, por simple inspección, notamos que
el WCp de C1 (1) no es mucho mayor que Cuando se agregó el intercambiador de
el de H1 (.95) y la temperatura de entrada calor se hizo internamente un análisis
de H1 (250ºF) es 50ºF mayor que la sobre si era necesario conservar algún
temperatura de salida de C1 (200ºF). De servicio en las corrientes que participaron
esto podemos deducir que seguramente en el intercambio.
C1 quedará completamente integrada con
el intercambio de calor con H1 (Ver En la corriente C1 no fue necesario ya
Figura B.6). que se integró totalmente; sin embargo, la
corriente H1 continúa con la necesidad de
un enfriador para alcanzar sus
requerimientos térmicos.

Se observa que las cargas térmicas de la


red han cambiado al agregar nuestro
primer intercambiador de calor
acercándose a las cargas mínimas como
se observa en la Figura B.7.

Fig. B.6 Elección de los datos para H1 y C1


Accepting Data sea la que nos calcula la
temperatura de C2 a la salida del
intercambiador. El intercambiador recibe
el número 2. La Figura B.8 muestra a los
2 intercambiadores arriba del punto de
pliegue.
Figura B.7 Cambio en las cargas térmicas de
la red.

El siguiente intercambio se debe hacer


entre H2 y C2. Con una inspección igual
a la anterior podemos pensar que la
corriente H2 se integraría completamente
por lo que conviene que la elección en

Figura B.8 Dibujo de la corrientes con 2 intercambiadores de calor.

Arriba del punto de pliegue no debe de salida de C2 del intercambiador 2. Para


existir enfriamiento por lo que se debe conocer, por ejemplo, la temperatura de
integrar la corriente H1 con C2, este H1 se debe hacer click con el botón
intercambio es ahora factible debido a que derecho del mouse al enfriador que se
la diferencia de temperaturas es ahora encuentra a la derecha del equipo 1 sobre
mucho mayor que la T mínima. H1 y elegir Data del menú. En la ventana
Data se puede copiar su temperatura de
Una vez en la ventana Create la elección salida que sería la temperatura de salida
de Accepting Data conveniente es la que de H1 en el 3er. Intercambiador. El
calcula la temperatura de salida de C2 del acceso a esta temperatura también se
intercambiador. Al momento de ingresar puede hacer copiándola a partir de los
los datos se observa que no se cuentan a datos del 1er. intercambiador siguiendo el
la vista con la temperatura de entrada de procedimiento anterior. La Figura B.9
H1 al intercambiador 1 y la temperatura muestra la red propuesta.
Figura B.9 La red resultante al problema propuesto.

Al ir agregando intercambiadores, las Se puede llevar a cabo el análisis


cargas térmicas de la red se iban económico en cualquier fase de la
acercando a las cargas mínimas. La solución del problema.. Por lo general es
Figura B.10 nos muestra las cargas conveniente hacerlo al inicio del
térmicas de la red con los 3 problema con puros servicios y al final
intercambiadores instalados. con la red propuesta, para comparar
ambas alternativas. La Figura B.11
muestra los resultados obtenidos en el
análisis económico de la red propuesta
asignando una U de 5 Btu/ft2 hr ºF para
todos los equipos.

Fig. 4.10 Función objetivo alcanzada

Figura B.11 Resultados del análisis económico de la red propuesta.


Apéndice C. Constantes para ecuación de Antoine (se encuentra en el CD anexo)
Referencia.
Yaws' Handbook of Thermodynamic and Physical Properties of Chemical Compounds
Physical, Thermodynamic and Transport Properties for 5,000 Organic Chemical Compounds
CARL L. YAWS
Professor of Chemical Engineering
Lamar University
Beaumont, Texas

También podría gustarte