0% encontró este documento útil (0 votos)
234 vistas13 páginas

Efectividad en Los Pronósticos para SCM

El documento discute la historia de la predicción y pronóstico desde el siglo XVII hasta la actualidad. Señala que matemáticos como Bernoulli, Bayes y Laplace sentaron las bases estadísticas para la predicción al desarrollar teorías de probabilidad. Posteriormente, en la década de 1950, la introducción de técnicas de suavizado exponencial y la computadora permitieron el desarrollo de métodos estadísticos más complejos y la aplicación de modelos econométricos. Sin embargo, los resultados de la predicción no han sido satisfactor
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
234 vistas13 páginas

Efectividad en Los Pronósticos para SCM

El documento discute la historia de la predicción y pronóstico desde el siglo XVII hasta la actualidad. Señala que matemáticos como Bernoulli, Bayes y Laplace sentaron las bases estadísticas para la predicción al desarrollar teorías de probabilidad. Posteriormente, en la década de 1950, la introducción de técnicas de suavizado exponencial y la computadora permitieron el desarrollo de métodos estadísticos más complejos y la aplicación de modelos econométricos. Sin embargo, los resultados de la predicción no han sido satisfactor
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

VOLVER

Efectividad en los pronósticos para SCM


El querer conocer lo que ocurrirá en el futuro, de acuerdo con los eventos históricos, es
una costumbre muy antigua en el ser humano. Es una preocupación que existe en todo
individuo, en toda persona con inteligencia e información básica. La gestión eficiente de la
cadena de suministro, implica, desde luego, el establecimiento de pronósticos que
posibiliten una toma de decisión más acertada a las condiciones del mercado y el
establecimiento de una estrategia apegada a la realidad. El pronóstico de la demanda
afecta a todos los eslabones de la cadena, desde el abastecimiento, producción, control
de inventarios en almacén, distribución, transporte, la presencia del producto en anaquel,
y hasta la entrega al usuario final.

En opinión del autor todo se puede pronosticar, el problema es identificar hasta qué punto
cada pronóstico tiene razón y el esfuerzo relativo asociado con cada uno de ellos.

La inquietud de conocer lo que ocurrirá en el futuro, de acuerdo con los eventos


históricos, es muy antigua en el ser humano. Es una preocupación que existe en todo
individuo, en toda persona con inteligencia e información básica. Cada acción que
emprendemos se asocia con una actividad respecto al futuro. De esta manera, todo se
puede pronosticar.
Por supuesto el problema es identificar hasta qué punto tiene razón cada pronóstico y el
esfuerzo relativo asociado con cada uno de ellos.

El principio básico es que la predicción puede ser derivada de la experiencia, sin el


conocimiento de las razones del porqué. Haciendo uso de una explicación adecuada o
una comprensión de las variables relevantes puede uno controlar o transformar una
situación. Así, agrupándolas de manera racional o irracional somos capaces de elaborar
una conjetura, que a diferencia de la primera, estipula un conjunto de predicados futuros
cuya ocurrencia debería ser explicable a partir de una teoría.

La predicción per se, sin explicación, es intuición, experiencia o suerte. La función de ella


debería ser reducir la incertidumbre; o bien, mediante la definición y, en consecuencia, el
contraste de una hipótesis, debería ser uno capaz de verificar los factores relevantes que
dan cuenta de un cambio pronosticado u observado.
Con el propósito principal de reducir la incertidumbre y adelantarse a los hechos, con la
utilización de los métodos de pronóstico, se generaron diversas hipótesis del
comportamiento de variables que afectaban y explicaban el comportamiento de una
sociedad cambiante.

Desde el siglo XVII, grandes matemáticos como Bernoulli, La Place y Bayes, aportaron de
manera significativa teorías que trataban de explicar el comportamiento de algunas
variables demográficas, económicas y sociales, basados principalmente en lo descrito con
anterioridad.

Con información limitada acorde a su tiempo y entorno, y por supuesto, diferente a la de


este siglo XXI, formularon sus propios postulados.

Dos siglos más tarde y utilizando también aquellos principios básicos, sucedieron dos
adelantos significativos en la elaboración de los pronósticos:

1. La introducción de técnicas de atenuación exponencial para extrapolar las series de


tiempo y, 2. La introducción de la computadora.

Estos hechos, ocurridos a mediados de 1950, propiciaron la elaboración de métodos


estadísticos de pronósticos más complejos y la puesta en práctica de técnicas y teorías
econométricas.

Si bien algunas de las teorías económicas como la de Karl Marx, David Ricardo y Adam
Smith sucedieron antes de esa época, no fue hasta entonces que se formalizó el campo
de la econometría. Así se generaron modelos y sistemas de pronósticos basados en
datos históricos o en relaciones causa-efecto.

El objetivo de este documento es mostrar que, desde el siglo XVII y hasta nuestros días,
en el uso de diversas técnicas para pronosticar y la aplicación de diferentes teorías
económicas los resultados no han sido satisfactorios y por el contrario han elevado el
nivel de incertidumbre. Asimismo, se muestra que desde entonces, los esfuerzos han
estado enfocados en tratar de encontrar una técnica que logre reducir la inseguridad en
lugar de encontrar aquellas variables que realmente la expliquen.
Finalmente, se invita a la reflexión, si con los argumentos expuestos es necesario
dedicarle tiempo y recursos a la actividad de pronosticar o bien olvidarse de esa tarea.

Precursores en el arte de pronosticar


 
La ciencia o el arte de pronosticar, para este autor, tiene sus orígenes en el siglo XVII. En
esta época Nicolás Bernoulli (1713), miembro de una familia de grandes geómatras,
publicó Ars conjectandi, libro que dejó incompleto su tío Jacob Bernoulli y que traducido
significa Arte de las conjeturas. Dicha obra tenía un gran significado para una nueva rama
de las matemáticas que se estaba gestando en esa época: la teoría de las probabilidades.
En una de las secciones de esa obra, Jacob introduce los números de Bernoulli, y
también resuelve una serie de problemas relacionados con los juegos de azar y propone
nuevas herramientas de cálculo, entre ellas la denominada distribución de Bernoulli o
distribución binomial. En su distribución de probabilidad establece que si realizamos “n”
veces un experimento en el que podemos obtener éxito, E, con probabilidad p y
fracaso, F, con probabilidad q donde q = 1 - p, diremos que estamos ante una distribución
binomial de parámetros n y p. En este caso la probabilidad de obtener k éxitos está dada
por la expresión matemática:
 
P(X = k) = ( n )pk q(n-k)
                 k

Para ejemplificar la fórmula suponga usted el siguiente caso: 10 por ciento de los
contenedores que se reciben en su bodega tienen faltantes, si en cierto día recibe 12 de
ellos, cuál sería la probabilidad que 5 de ellos tuvieran faltantes. La solución, por un lado,
sería revisar cada uno de los contendores y obtener el resultado; sin embargo con la
fórmula planteada por Bernoulli podríamos encontrar una respuesta más rápida.
Así y con la información anterior establecemos que p =0.20, q = 0.80, n = 12 y k = 5. Por
lo tanto y sustituyendo en la fórmula dichos valores tenemos que:

P(X = 5) =( 12 )(0.20)5 (.80)(12-5) = 5.31%


         5
Sin duda alguna la contribución más importante de este destacado matemático fue tratar
de encontrar una respuesta en el menor tiempo posible. Si analizamos un poco más la
fórmula nos podemos dar cuenta que nos estamos evitando la tarea de hacer
479,001,600 combinaciones, resultado de obtener 12 factorial (12!). Lo cual sería
prácticamente imposible de solucionar en forma manual. Como esta aportación al arte de
la conjetura le siguieron otros destacados personajes en el área, de los cuales no se
harán ejemplos para fines de este artículo.
Thomas Bayes, matemático británico, ordenado ministro presbiteriano y quien ejerció
como Pastor de 1720 a 1752, fue el primero en usar la determinación de la probabilidad
para reducir el grado de incertidumbre de las causas, a partir de los efectos observados
en el tiempo. El cálculo de dichas probabilidades recibió el nombre de Teorema de Bayes
que establece: Sea A1, A2, ..., An un sistema completo de sucesos, tales que la
probabilidad de cada uno de ellos es distinta de cero, y sea B un suceso cualquiera del
que se conocen las probabilidades condicionales P(B/Ai), entonces la
probabilidad P(Ai/B) viene dada por la expresión:

 
                                              P(Ai) . P(B/Ai)
P(Ai/B)= ----------------------------------------------------------------------------
                P(A1) . P(B/A1) + P(A2) . P(B/A2) + ...+ P(An) . P(B/An)

Posteriormente en 1812, Pierre Simon Laplace aseguró que los sucesos que se rigen por
las leyes del azar, como los que se dan en los juegos, son números aleatorios. En estos
casos, sostenía Laplace, dichos sucesos eran equiprobables, es decir, cada una de las
posibilidades tenía las mismas probabilidades de suceder, y para calcular la probabilidad
que tenía un suceso de que se produjera propuso la Ley de Laplace. Definiendo a la
probabilidad de un suceso como el cociente entre el número de casos favorables y
posibles.
A dichos precursores de la probabilidad que estudiaron las causas y efectos de diferentes
variables, le siguieron una serie de métodos y propuestas que generaron una gran
cantidad de modelos utilizados en diferentes áreas de las ciencias sociales y
administrativas.
Series de tiempo e introducción de la computadora
 
Con base en nuestros autores de referencia y antes de 1950 se contaba con algunas
metodologías, como las mencionadas, así como con las técnicas de Análisis de Regresión
y Descomposición de Series de Tiempo. Dichas herramientas, aunque robustas y de gran
utilidad (por la falta de información oportuna y por los cálculos largos y tediosos)
dificultaron su aplicación en muchas áreas de las ciencias administrativas. Sin embargo,
sucedieron dos hechos que cambiaron la aplicación de los pronósticos en las ciencias
administrativas.
El primero de los sucesos anteriormente mencionados fue la introducción de las técnicas
de atenuación o suavización exponencial, las cuales tenían bases empíricas, orientación
práctica, facilidad de cálculo y simplicidad conceptual. Y el segundo, fue el advenimiento
de la computadora, la cual no sólo permitió la aplicación de métodos simples de
atenuación exponencial, sino también el uso continuo de otras metodologías que eran
consideradas largas y tediosas.
 
Lamentablemente, dichos métodos tan simples no podían ser lo suficientemente exactos
para los pronosticadores de ese tiempo (Makridakis y Hibon, 1979). Se necesitaron casi
30 años para aceptar que dichos métodos eran muy útiles comparados con otros más
complejos (Makridakis, Hibon y Hogart, 1981).
En esa década, Brown (1956), Holt (1957), y Winters (1960) fueron quienes presentaron
los avances más significativos en las metodologías de atenuación exponencial de su
tiempo, y más tarde se desarrollaron técnicas que permitían el uso mecánico y
automatizado de los métodos de atenuación.
No mucho tiempo después las técnicas de descomposición de series de tiempo
comenzarían a despertar la atención de otros investigadores.
En 1955, Julios Shiskin, de la Oficina de Censos del gobierno de los Estados Unidos de
Norteamérica, propuso el Método II del Censo, el cual utilizaba datos empíricos
acumulados a través de decenas de miles de series carentes de estacionalidad,
descubriendo la forma de separar una por una las cuatro componentes de una serie de
tiempo:
 
- estacionalidad,
- tendencia,
- ciclo, y
- aleatoriedad.

A finales de 1960, la disminución de precio de las computadoras y el aumento de su


disponibilidad en el mercado propició el escenario para el uso de métodos más complejos,
y los modelos econométricos que poco o nada su usaban, se volvieron prácticos y se
utilizaron para probar y cuantificar la teoría econométrica con los datos empíricos. Otra
aportación significativa al campo de los pronósticos sucedió en 1969 cuando George Box
y Gwilym Jenkins proporcionaron un método sistemático para el análisis y pronóstico de
series de tiempo, el cual fue lo bastante general como para manejar prácticamente todos
los patrones de datos acerca de las series de tiempo observadas en forma empírica.
 
Posteriormente, se dio un importante impulso al método cuando varios estudios
comparativos de pronósticos demostraron que el método Box & Jenkins era, al menos, tan
exacto como los métodos econométricos.
A finales de 1970 surgió otra variante de Box & Jenkins, los métodos de promedio móvil
autorregresivo (ARIMA,por sus siglas en inglés) de parámetro adaptativo.
Pero no fue hasta esta década que los métodos de ARIMA lograron aceptación general,
puesto que en administración había cierta renuencia a aceptar pronósticos obtenidos
mediante métodos complejos y se desarrollaron técnicas de modelado más eficientes que
ayudaron a la interpretación de los resultados.
En ese mismo año, el estudio de los pronósticos se transformó en un campo de derecho
propio, así como para los profesionales que aplicaban alguna herramienta como para los
académicos. Se reconoció su importancia en cualquier forma de planeación y en áreas
tan diversas como los negocios, el gobierno, las instituciones no lucrativas y las
organizaciones militares. También se estableció que dicha elaboración no sólo tenía que
ver con las áreas de las estadísticas tradicionales, sino que también se relacionaba con
otras áreas como la psicología, la sociología, las ciencias políticas, las ciencias
administrativas, la economía y áreas relacionadas.
A principios de 1980, la metodología Delphi y la de matrices de impacto en el costo —
técnicas cualitativas de pronóstico—, intentaron manejar las tendencias a largo plazo de
las variables cuando no se disponía de los datos y patrones his- tóricos suficientes para
aplicar métodos estadísticos. Al mismo tiempo, se realizaron amplias investigaciones en el
campo de la mercadotecnia relacionada con los nuevos productos y el pronóstico de
nuevos mercados, de los cuales no existía información.

Pronósticos: anticiparse a los hechos


 
La tarea fundamental del pronóstico es tratar de anticiparse a los hechos para prevenir
contingencias y no sólo tratar de adivinarlas. Aún no existen modos exactos y confiables
para señalar cuándo y en qué lugar ocurrirá un hecho específico.
De cualquier manera, en el afán de entender y predecir el comportamiento de algunas
variables, instituciones e investigadores interesados en el tema han expuesto sus
resultados para su análisis y discusión. Con el fin de ejemplificar lo anterior, conozcamos
a continuación tres casos en los que las herramientas base de su investigación fueron las
descritas en párrafos anteriores.

Caso 1
 
El Instituto Tecnológico de Massachussets (MIT, por sus siglas en inglés) propuso un
sistema computarizado para tratar de prevenir el comportamiento y las catástrofes en el
mundo. La base fundamental de aquél modelo era que el mundo constituía un sistema a
partir de cinco variables principales: población, gasto de capital, recursos naturales,
contaminación e inversión de capital en agricultura.
Provisto de este modelo, el MIT concluyó que a finales del siglo XX comenzarían a
agotarse los recursos naturales del mundo, los cuales no serían suficientes para mantener
una población que para entonces habría crecido de manera acelerada, sumando varios
miles de millones.
Naturalmente, la propia institución reconoció los límites de su modelo y estudio, pocas
personas consideraron que contenía predicciones con apoyos sólidos.
 
Caso 2

Rudiger Dornbusch (2001) dedicó parte de su tiempo en prevenir las crisis particularmente
en los países en desarrollo.
Partió para ello de los estudios sobre deuda externa, estabilización y reformas
estructurales en América Latina. A partir de esas bases, Dornbusch desarrolló una serie
de ideas que se transformaron en 12 indicadores que se consideran previos a una crisis:
 
1) Creciente déficit de la cuenta corriente de la balanza
de pagos;
2) Aumento en el déficit de las finanzas públicas;
3) Presiones de corto plazo en el servicio de la deuda
externa;
4) Salida de capitales después de un período
de entradas considerables;
5) Sobrevaluación del tipo de cambio;
6) Reducción de las reservas internacionales;
7) Aumento del circulante;
8) Aumento de la relación pasivos / activos
de las empresas;
9) Problemas corporativos;
10) Caída del mercado cambiario;
11) Elevación de la cartera vencida de los bancos; y
12) Preferencia de los inversionistas locales por
los activos líquidos.
 
Dichos indicadores, como es de esperarse, no en todos los casos funcionan.

Caso 3

Daniel Kahneman, Premio Nobel de Economía 2002 (The Royal Swedish Academy of
Sciencies, 2002) propuso integrar la psicología cognoscitiva a la teoría económica de la
siguiente manera:
 
a) en lo relativo a la toma de decisiones bajo incertidumbre, demostró que esas
decisiones pueden desviarse de manera sistemática de aquellas que predice la teoría
estándar;
b) junto con Amos Tversky formuló la Prospect Theory, en donde definió prospect como
sinónimo de apuesta y como un contrato que arroja resultados xi con probabilidad pi,
donde p1 + p2 +…+ pn = 1”. y c) descubrió que el discernimiento humano puede seguir
caminos inesperados —-más cortos— que se desvían de los principios de la probabilidad.
Kahneman observó al ser humano como un sistema que codifica e interpreta la
información disponible, en el cual factores no plenamente conscientes gobiernan sus
decisiones.
Dichos factores serían la percepción, las emociones, los recuerdos de las decisiones
anteriores así como de sus consecuencias.
Según el Banco de Suecia, institución encargada de seleccionar cada año a la persona
que obtendrá el Premio Nobel en Ciencias Económicas, Kahenman probó que cuando la
gente toma decisiones en el mundo real no evalúa con frecuencia los eventos inciertos de
acuerdo a las leyes de probabilidad básicas. Aseguró también que no es capaz de
analizar con plenitud situaciones complejas y lo que si hace es tomar atajos heurísticos.
Menciona además que ante eventos aleatorios el común de las personas sigue la ‘la ley
de los pequeños números’ —si tal cosa sucede en promedio a nivel general, sucederá de
manera muy parecida aunque el número
de observaciones varíe drásticamente— lo que significa que ignora el hecho de que la
varianza disminuye conforme aumenta el tamaño de la muestra.
Lo descrito con anterioridad, según el Banco de Suecia, podría explicar significativamente
la volatilidad de los mercados financieros. Por supuesto que sería interesante también
probar cuántos de aquellos, que menciona este autor en su tesis, conocen siquiera algún
concepto de probabilidad por simple que éste fuera.
Los tres casos expuestos muestran situaciones diferentes en forma, pero iguales en
fondo. En los tres se usaron herramientas de pronósticos con el objetivo principal de tratar
de anticiparse al futuro con resultados no tan precisos pero que trataban de explicar el
comportamiento de alguna variable.

Alternativas de métodos de pronóstico

En cualquiera de los casos anteriores podrían surgir interrogantes como ¿qué técnicas
utilizaron para emitir sus conclusiones? ¿cuál fue su grado de precisión? ¿cuál fue el
horizonte de tiempo? o bien ¿cuál fue la más apropiada que les sirvió para dichos fines?
Makridakis y Wheelwright (1989) proponen una alternativa para seleccionar los propios
lineamientos en la selección de la mejor metodología de pronóstico. Para ellos la mayor
parte de las aplicaciones de pronósticos son de origen formal o intuitivo, los cuales
pueden ser subdividirse en implícitos y explícitos.
El pronóstico intuitivo se refiere a los procesos que son subjetivos para el planificador o
para el que toma decisiones.
Si una persona realiza un pronóstico es vulnerable a los diversos sesgos generados por la
estimación subjetiva o estimación a criterio. Por otro lado, los métodos formales son
aquellos que pueden describirse, y que cuando los aplican diferentes individuos,
proporcionan un pronóstico similar. Por lo tanto, una diferencia significativa entre estas
formas de pronosticar está en el grado en el que se puedan repetir los resultados de los
pronósticos.
La mayor parte de las aplicaciones de los pronósticos en un principio son de origen
intuitivo e implícito. Sin embargo,  el cambio hacia formas más explícitas y formales tiende
a conducir hacia mejoras importantes en el desempeño de los pronósticos. De cualquier
modo es necesario conocer las posibilidades y las limitaciones de las técnicas existentes,
de tal forma que se tengan expectativas realistas en la evaluación de los resultados.
Considerando las metodologías formales disponibles existen dos categorías principales:
los métodos de series de tiempo, y los de análisis causa-efecto. Los primeros buscan
simplemente extrapolar hacia el futuro los patrones de los datos del pasado. La base de
tales métodos consiste en que en una serie de tiempo existen fuerzas de inercia que
hacen que la serie de tiempo se repita al menos en el período que se quiere pronosticar.
El otro método causal o explicativo incluye los de regresión y los econométricos. Tales
métodos pretenden dar respuesta a interrogantes basadas en supuesto de hechos.
Desafortunadamente, uno de los problemas de las metodologías anteriores es que los
patrones o comportamientos en los que se basan se calculan con base en datos
históricos.
Si estos cambian —lo que siempre sucede— disminuye significativamente la precisión del
pronóstico. Más aún, cuando el propósito principal del pronóstico es proporcionar un
mejor conocimiento del ambiente y de los factores causales que actúan sobre él, la
precisión pasa a segundo término.
Otra característica del pronóstico, acerca de su papel y su estado actual, se relaciona con
el tema de la incertidumbre en la planeación y en la toma de decisiones.
En realidad la capacidad del pronóstico de reducir la incertidumbre es limitada por la
sencilla razón de que ésta existirá independientemente de lo que hagan los planificadores
y los que toman las decisiones.
Groff y Smoker (1995) sugieren que los estudios sobre el futuro deben realizarse
mediante metodologías variadas y diferenciadas; en otros términos, no resulta positivo
limitarse sólo a un método de conocimiento. Sin embargo, el efecto es contrario, a mayor
cantidad de pronósticos mayor será la incertidumbre.

Problemas de pronosticar
 
Como se ha descrito con anterioridad, durante años la investigación se centró en la
búsqueda de métodos que mejoraran la calidad de la técnica de pronósticos, en la
actualidad dicha actividad es sólo una pequeña parte del problema.
Todos los aspectos que envuelven al pronóstico exigen una cuidadosa consideración para
dimensionar la magnitud así como los efectos del pronóstico. Y en este sentido Fildes, R.
(1989) menciona que es necesario tomar en cuenta los siguientes aspectos:
 
a) El pronosticador y el que toma las decisiones. En la elaboración de un pronóstico,
de manera general, el pronosticador informa al encargado de la toma de decisiones las
consecuencias de un conjunto de planes previstos, empleando cierta información
recabada acerca del ambiente.
Para ello, el pronosticador adoptará un procedimiento específico tomando en cuenta el
costo de las diversas posibilidades, el tiempo disponible antes que se necesite el
pronóstico y alguna idea de la precisión probable de los métodos que puede aplicar en
forma competente.
El pronosticador posee experiencia profesional así como sus propias metas profesionales.
Por otro lado, los dueños de la organización, en la cual trabaja el pronosticador, también
tienen sus valores y es posible que ambos no coincidan. Aún cuando el pronosticador es
influenciado por dichos valores, no comparten los mismos puntos de vista. De hecho, el
pronosticador y el que toma las decisiones por lo general difieren (Wheelwrigth y Clarke,
1976). El pronosticador es demasiado técnico, no entiende los problemas del que toma
las decisiones y rara vez maneja los costos de manera adecuada.
Mientras que éste último entiende poco de los aspectos técnicos del pronóstico.
En ambos casos, si el resultado del pronósticos no es de su entera satisfacción, lo
modificarán usando fuentes alternativas de información y emitirán una recomendación. Lo
cual reducirá su efectividad si no se toman en cuenta los supuestos ocultos de las
diferentes partes de la organización que influirán en cualquier variable que se considere
crucial.
 
b) Las divisiones de la organización. En muchas organizaciones el pronóstico de las
mismas variables se elabora por diferentes divisiones de la organización.
Con frecuencia el resultado del pronóstico de mercadotecnia (optimista) no es el mismo
que el de contabilidad
(pesimista), lo que en la mayoría de las veces conduce a pronósticos y errores diferentes.
Dichas aseveraciones nos llevan a suponer que las relaciones entre la función de
pronósticos y la toma de decisiones son débiles en muchas organizaciones, entonces
¿cuáles son los diseños corporativos más favorables para hacer coincidir a los dos?
Wheelwrigth y Clarke (1976) proponen algunas soluciones. La clave para evaluar los
resultados de pronósticos es examinar la manera cómo se emplean los pronósticos, no
sólo cómo se producen.
 
c) La calidad de los sistemas de información. Cualquier procedimiento de pronóstico
tiene como premisa
que la información está disponible y es de fácil acceso, desafortunadamente se sabe, por
experiencia, que muchas empresas no llevan registros adecuados y ni siquiera siguen un
método consistente de información propia y, por lo tanto, sus pronósticos no son lo más
adecuados.
Es claro que la recopilación adecuada y rutinaria de datos es fundamental para la toma de
decisiones.
 
d) Las variables clave. Un elemento adicional es la selección de aquellas variables que
afectarán significativamente el comportamiento del pronóstico.
Jalland y Fildes (1978) indican que muchos administradores se confunden por las
diferencias existentes entre
pronósticos, presupuestos, planes y objetivos. El problema de esta confusión es que
aquellas variables que deberían considerarse como dependientes del pronóstico son
consideradas como fijas y constantes (flujo de efectivo, volumen de ventas, precio,
financiamiento, etc.) y que, por lo tanto, no cambian a través del tiempo.
 
e) Costos y beneficios del mejoramiento en la estrategia de los pronósticos. La
sensibilidad que tienen aquellas decisiones a los errores de pronósticos, también fija un
tope en los gastos del pronóstico.
Si un error de 10 por ciento en el pronóstico de ventas de un producto causa incrementos
en los costos (y por
consecuencia un pérdida de rendimientos) por $100 mil pesos, vale la pena invertir hasta
esa cantidad para eliminar ese error de 10 por ciento en el pronóstico. La mayor precisión
es una función de los gastos que se efectúan para el pronóstico, en tanto que el beneficio
que se obtiene también es una función de mayor precisión.
Por otro lado, un elemento adicional es la estimación de los probables beneficios
derivados de las mejoras en la precisión. Esto se puede realizar mediante el cálculo de las
consecuencias que tendrían diversos niveles de error de pronósticos, comparando el
resultado con lo que se hubiera obtenido si se hubiera contado con la información exacta.
 
f) Selección de un procedimiento para pronósticos. Nuestros primeros autores del
tema de pronósticos especulaban acerca de cuáles serían los métodos más precisos.
Wheelwrigth y Makridakis (1975) aseguraban que “entre más complicado mejor”,
olvidando con ello las implicaciones del costo. Con el tiempo se demostró que dichos
resultados, en circunstancias particulares, eran engañosos.
No es fácil encontrar reglas sencillas mediante las cuales el pronosticador podrá
seleccionar el método que le permitirá lograr el nivel de precisión deseado. Asimismo,
parece no razonable examinar todos los métodos posibles, salvo que se trate de un
proyecto demasiado importante. Por otro lado, y aunque resulte paradójico, no es
recomendable limitar los análisis a un número reducido de métodos de pronóstico.
Armstrong (1978) demuestra que se tienen ventajas al considerar más de un método y
que entre más difieran mejor.
 
g) Evaluación de los métodos de pronóstico. No es posible confiar en un solo método
para obtener los
mejores pronósticos.
En cualquier circunstancia, cada uno tiene sus ventajas y desventajas. En la tabla 1 se
describen los principales métodos utilizados para pronosticar, y se identifican con las
letras J, E y C a los de Juicio, Extrapolativos y Causales respectivamente.
Además, se puede apreciar en la tabla que las desventajas exponen la dudosa efectividad
del pronóstico en
todos los casos expuestos.
Con dicha información, en teoría, el pronosticador debería ser capaz de describir su
problema desde diversos puntos de vista, por ejemplo, ciertas estadísticas sencillas de la
variable por pronosticarse, el tiempo de entrega del pronóstico, el nivel de desagregación
de los datos, el tipo de sistema económico o social en el cual se genera la variable por
pronosticar.

También podría gustarte