Map 25 U3 PDF
Map 25 U3 PDF
Facultad: Posgrado
3
Denominación del programa: Maestría en Administración Pública.
ISBN: 978-958-652-928-0
2
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 2
2
Subdirección Académica
CONTENIDO
3
Resumen ..................................................................................................................................................................................................................... 5
UNIDAD
Competencias ........................................................................................................................................................................................................... 6
DIDÁCTICA Unidad didáctica 3 - Evaluación de políticas públicas
3
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 3
3
Subdirección Académica
3
1. Diseño del programa..................................................................................................................................................................................36
UNIDAD 1.1 Diseño estratégico (fines, propósitos y componentes)..........................................................................................................36
4
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 4
4
Subdirección Académica
Resumen
UNIDAD
3
La evaluación de las políticas públicas es una preocupación que tiene origen en la necesidad de los gobiernos, de
una parte, por controlar sus programas y proyectos, y por otra, de conocer los impactos de las acciones que propone la
DIDÁCTICA política, como un elemento indispensable para darle dirección a la sociedad.
Sin embargo, la evaluación de la política no es un ejercicio que realicen solamente los gobiernos, también lo realizan
interesados, Algunos de estos son organizaciones no gubernamentales (ONG), grupos de presión, demandantes de
Resumen política, gremios, entre otros. Por lo tanto, los propósitos e intereses al momento de evaluar la política son tan distintos
como el número de actores que participan y, así mismo, en este marco de relaciones complejas, se delimitan los enfo-
ques y las metodologías que son utilizadas en la evaluación.
Entonces, es fundamental reconocer en la formulación: el método, los objetivos y metas trazados en la política para
realizar el control mediante la evaluación ex post, es decir, que la evaluación de la política comienza en el momento en
que se formula el problema de la política. Allí inicia el proceso de evaluación, además, se formulan los indicadores y se
traza la operación que materializa la política.
Es de tener en cuenta que esta unidad se concentra en los métodos de evaluación, también, llamados concomitan-
tes, y los métodos ex post, ya que las premisas, enfoques y métodos internacionales han desarrollado la evaluación ex
ante con los procesos de planeación, ya que se presentan en el diseño de la política o programa. Es un tema central
cuando se habla de la formulación.
El texto consta de tres títulos que desarrollan los presupuestos generales con los que se debe abordar el ejercicio de
la evaluación. Se incluyen las discusiones sobre los valores que debe tener el evaluador y su importancia en el proceso
investigativo. Un segundo título nos muestra los enfoques, métodos y diseños, de la evaluación, formas de abordaje
de los mismos y su aplicabilidad. Se proporciona un contexto sobre algunos campos por trabajar en el ejercicio de la
evaluación. Por último, en el tercer título, se encuentran elementos de contexto que explican el surgimiento de mo-
delos de evaluación. Finalmente, se termina en uno de los modelos más trabajados en los últimos años, a partir de las
evaluaciones ejecutivas o también llamadas evaluaciones cortas.
El desarrollo de la unidad se centra en tres preguntas básicas que se desarrollan a lo largo del texto:
1. ¿Es necesario volver a introducir las discusiones sobre ética y valor en los asuntos públicos?
2. ¿Cómo logramos diseñar una investigación apropiada en medio de las tenciones originadas entre posturas
clásicas y nuevos contextos?
3. ¿Cómo aplicar las metodologías de los organismos multilaterales y estatales teniendo en cuenta las tensiones
expuestas en las dos preguntas anteriores?
5
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 5
5
Subdirección Académica
Competencias
3
Unidad didáctica 3: Evaluación de políticas públicas
UNIDAD
Tema Subtema Competencias generales Competencias especificas
DIDÁCTICA
Identifica los marcos teóricos y con-
ceptuales utilizados en la disciplina
de la administración pública para ana-
Competencias Tema 12: Ética y evalua- lizar los momentos de la política pú-
blica y la formulación de la acción de
ción evaluación, así como la investigación
en evaluación que permita tomar de-
cisiones al momento de realizar una
acción en evaluación.
6
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 6
6
Subdirección Académica
3
Identifica las estructuras de evalua-
ción validadas internacionalmente y
Subtema 13.1. La CEPAL
UNIDAD y los modelos de evalua-
ción en América Latina.
su aplicabilidad en América Latina,
reconociendo el papel que pueden
jugar los procesos desde los gobier-
DIDÁCTICA nos locales.
7
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 7
7
Subdirección Académica
3
Tema 1. Ética y evaluación.
UNIDAD La evaluación de políticas y programas públicos ha adquirido en las últimas décadas una mayor importancia en los
asuntos de gobierno; la necesidad de su legitimación y de lograr mayores impactos en sus cursos de acción política ha
DIDÁCTICA potenciado la necesidad de tener una constante actividad evaluadora que permita, no solamente, mostrar resultados
sino también la optimización de los recursos públicos, y la satisfacción de las ciudadanías en contextos de participa-
ción y transparencia. Lo anterior, hace de la formulación de la política pública como de su evaluación, un entramado
Tema 1. complejo de actores que aparecen indistintamente en los momentos de la formulación, la implementación y la evalua-
Ética y evaluación ción. Actores que no son siempre los mismos, con intereses que varían constantemente, y que en muchos casos, están
atravesados por los cambios de gobierno, lo cual deja los elementos iniciales de la formulación en contextos de cam-
bio permanente de la política. Son entonces necesarios unos presupuestos mínimos para precisar en este entramado
complejo, los propósitos de la evaluación, sus instrumentos y el papel político del ejercicio de evaluación.
Primer presupuesto. Se debe entender las políticas públicas como un proceso único con distintos momentos que
pueden, o no, cambiar los supuestos que dieron inicio al agendamiento de las políticas. Dicho de otra manera, una
necesidad puede cambiar en el tiempo y ello obliga a evaluar para redireccionar el curso de la acción de política, o
un cambio de gobierno puede desplazar su centro de interés a otros asuntos y revaluar las acciones que se venían
ejecutando.
Segundo presupuesto. Es fundamental reconocer la unidad interna de la política y su nivel de integralidad para
entender los momentos de la política, los cuales crean o imprimen nueva dirección a los cursos de acción, generan-
do una flexibilidad que también impacta, o debe impactar el ejercicio de evaluación. Debemos entender todos los
momentos de la política como un solo proceso, pero también, que en cada momento de la política pueden variar
las decisiones; así mismo, la política demanda una coherencia con cada uno de sus momentos y el evaluador debe
establecer esa coherencia (Luhmann, 1984; Zamorano, 2003).
Tercer Presupuesto. Aquí subyace una de las discusiones de la evaluación de las políticas públicas y de la cual se da-
rá cuenta más adelante. Consiste en evaluar el papel de la evaluación, y del evaluador como un actor que responde
a momentos políticos y que como tal no tiene toda la investidura que se pretende con la objetividad en la investiga-
ción científica. Dicho de otra manera, se entiende la importancia de la técnica, pero se debe entender la complejidad
de la política para identificar el conjunto de instrumentos y valores de la acción pública alrededor de los intereses
y necesidades de las distintas ciudadanías, en el entendido, de que toda acción de política pública, incluyendo la
evaluación de políticas públicas, “está motivada por la constante preocupación por determinar cuál debe ser el papel del
sector público en la sociedad” (Osuna, Márquez, 2004).
8
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 8
8
Subdirección Académica
Es por ello que la evaluación de políticas públicas encuentra en la investigación social un soporte importante para
3
su diseño y aplicación. House (1994) plantea que la evaluación es un producto de la modernidad con el cual se ha roto
la tradición, en el momento en que la investigación permite ver más cosas, generando más opciones para el mundo
UNIDAD material, bajo el supuesto que trae mayores beneficios para los seres humanos, la evaluación se convierte en un sopor-
te para poder elegir. En ciertos momentos, se convierte en un problema para quien toma la decisión, obligándolo a
DIDÁCTICA utilizar un método para llegar a la elección.
Cuarto presupuesto. Lo público no siempre es estatal, pero el Estado regula, controla, estabiliza los asuntos socia-
les, con mayor o menor injerencia, dependiendo del sistema político y del régimen. Aquí la norma cumple un papel
Tema 1. muy importante para no perder de vista el carácter social de lo público y su diferencia con los asuntos privados. Pero
Ética y evaluación también, de la acción del Estado para garantizar derechos y procurar la equidad social, por lo que se hace necesario
reconocer por lo menos tres imperativos que den coherencia al proceso de las políticas públicas. El imperativo legal
de cumplir con la exigencia legislativa y que sea obedecido. El imperativo racional burocrático de realizar lo que es
defendible; en el entendido que la racionalidad del ejecutivo y de la burocracia intentan solucionar los problemas. Y
el imperativo consensual de llegar a acuerdos entre las partes interesadas que actúan en cada uno de los momentos
de la política, como su preocupación principal en escenarios contradictorios (Rein; Rabinovitz, 2000).
En contextos de valores no compartidos entre los actores y donde el imperativo legal no cumple con las exigencias
legislativas, de manera frecuente, los momentos de evaluación están abocados a encontrar situaciones que no cum-
plen con alguno o con todos los imperativos de los que hablan Rein y Rabinovitz. Se cae en una zona gris en la que es
necesario revisar la o las pretensiones de las acciones de política en función de las metas, pero también del conjunto
de preceptos morales que representan los intereses de la sociedad.
Los evaluadores responden a muchas directrices cuyos intereses no siempre coinciden. Enfoques tradicionales de evalua-
ción, como la evaluación de la acción evaluativa y evaluación centrada en la utilización, asumen que el consenso se puede
alcanzar entre los “encargados de formular políticas, los administradores y la sociedad” sobre qué objetivos deben guiar un
programa y de lo bien que se está aplicando y qué impacto está teniendo. Sin embargo, las dos evaluaciones que se descri-
ben en este documento muestran que este modelo de consenso es inadecuado en muchos casos porque no hay una única
“realidad” acerca de los programas. A menudo hay múltiples realidades que son socialmente construidos por diferentes gru-
pos de interés, y estas realidades a menudo están en conflicto. (Palumbo; Halett, 1993) (Traducción libre del inglés).
Esto lleva a reconocer que no existe un solo camino para definir el marco sobre el cual se realiza la investigación
en evaluación, que los preceptos epistemológicos con los cuales hacemos investigación científica no satisfacen total-
mente ni las necesidades de la política, ni los satisfactores sociales, y que solamente es entendible desde el análisis de
campos relacionales Guba, L. (1989), Palumbo, H. (1993) & House (1999). Sobre todo, porque los campos relacionales
son escenarios en los que se encuentran: actores, instituciones, grupos sociales, individuos, con toda la carga subjetiva
9
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 9
9
Subdirección Académica
y de interés. Allí, la evaluación soporta nuevas decisiones, y por tanto, debe transitar sobre marcos éticos para definir
3
los instrumentos técnicos a utilizar, así como la forma en que se presentan los resultados.
Quinto presupuesto. Los evaluadores no siempre se encuentran en el sector público, también existen evaluadores
UNIDAD en el sector privado. Quienes contratan o tienen interés en la evaluación no necesariamente pertenecen al sector esta-
DIDÁCTICA tal, pero los resultados de una evaluación de política pública siempre estarán en el interés de la sociedad y, mayormen-
te, en los grupos objetivos o afectados.
El contratante y el contrato marcan la acción del evaluador en tanto existe un interés que media en el contrato, unos
Tema 1. tiempos de ejecución y unas condiciones (recursos de financiación, equipos de trabajo, planta física, recursos técnicos,
Ética y evaluación etc.), para realizar la evaluación, lo cual afecta los resultados. Es propio de un buen evaluador revisar estos aspectos
antes de generar el proceso de contratación.
Sexto presupuesto. El diseño de la evaluación es la pieza clave para realizar una buena evaluación, por tanto, debe
recurrir a todos los momentos de la política, haciéndose las preguntas correctas para lograr encontrar las respuestas
que permitan mejorar la acción, mediante el redireccionamiento, o encontrar las deficiencias estructurales que pueden
ser cambiadas en una sociedad, o sustentar y sostener la acción como una política exitosa.
Se da como cierto que la objetividad del método científico podría solucionar todos los problemas de la sociedad y
con la comprobación, la imposibilidad de refutar tal realidad mostrada. Sin embargo, en la evaluación de las políticas
públicas nos encontramos frente a unas construcciones discursivas que, en el campo de las ciencias sociales, ponen en
discusión la posibilidad de llegar a verdades absolutas ofrecidas por la clásica epistemología científica.
Un gran número de evaluadores dicen que es ilícito hacer juicios de valor. “La doctrina sin valores junto con una in-
adecuada idea de causalidad, ha impedido gravemente el progreso de la investigación social” (House; Kenneth 2001). Los
enunciados en evaluación están compuestos por datos y juicios de valor que son, o intentan ser objetivos, en la medida
en que podemos presentar pruebas que respaldan el enunciado, igualmente, ocurre con otro tipo de enunciados sin
pretensión de cientificidad. En ambos casos, los enunciados mezclan datos y valores, por ejemplo, cuando enunciamos
que debemos privatizar los servicios públicos por que el Estado es incapaz de administrar estos bienes. De una parte,
están las concepciones del Estado, del mercado y de lo público, y de otra los datos, que a favor o en contra se argumen-
tan para sostener o descalificar el Estado en la provisión de servicios (Cardoso, 2006).
Lo que aquí se desvela es una pretendida objetividad positivista que enajena la mirada (Izquierdo, 1999), en este ca-
so del evaluador. Más bien, se trata de buscar unos enunciados menos sesgados que desde las metodologías ofrecidas
por la disciplinas permitan construir formas de razonamiento que obedezcan a la solución de los problemas sociales en
marcos democráticos y de participación, reconociendo la diversidad como principio y la unidad para la acción (Bañon;
Ruano, 2003).
10
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 10
10
Subdirección Académica
3
2.1 La investigación social.
UNIDAD La evaluación se orienta y se apoya en los principios de la investigación, y por tener un carácter social, en el sentido
DIDÁCTICA de estudiar la sociedad y sus relaciones, particularmente, la investigación social. El investigador social hace la diferen-
cia con otras formas de investigación mediante una concepción de lo social, así como del lenguaje que utiliza para
hablar de lo social; algunos investigadores sociales argumentan que cuando hablan acerca de la sociedad usan el lenguaje
de las variables y de las relaciones entre variables para describir patrones de acción, (Ragin, 1994).
Tema 2.
Muchos otros campos de saber hablan de lo social, pero se tiene la idea que el investigador social sigue el método
Enfoques, científico. La construcción de hipótesis y su comprobación, mediante la construcción de datos, los cuales puede ob-
metodos y diseños tener directamente o apoyarse en datos, conceptos y teorías, elaborados por otros investigadores sociales. El método
científico genera un marco de restricción mediante la imposición de una ruta de acción investigativa que la podemos
de evaluación señalar como el estudio del estado del arte del asunto investigado, la formulación de una hipótesis, el desarrollo de un
diseño de investigación, la recolección de datos y su análisis de acuerdo con lo señalado en la hipótesis.
¿Qué es lo que hace que una representación de la vida social sea especialmente relevante para los científicos sociales?
De manera sintética, las audiencias sociocientíficas esperan que las representaciones sociocientíficas:
• Se ocupen de fenómenos que sean socialmente relevantes de alguna manera.
• Sean relevantes para la teoría social, directa o indirectamente.
• Estén basadas en un gran número de pruebas empíricas adecuadas y seleccionadas de manera consciente con un fin, o
que las incorporen.
• Sean producto de alguna forma sistemática de análisis de esas pruebas empíricas.
Aunque algunas de estas características se encuentran en muchas representaciones periodísticas de la vida social, es nor-
mal que todas ellas se encuentren en la mayoría de las representaciones sociocientíficas. Debido a que las representaciones
sociocientíficas de la vida social tienen estas cuatro características, tienden a estar más fundamentadas en las ideas y las
pruebas empíricas que otras clases de representaciones. En última instancia, es precisamente esta fundamentación sólida en
las ideas y en las pruebas empíricas la que hace que estas representaciones sean especialmente relevantes para los científicos
sociales. (Ragin, 1994)
La rigurosidad con la que se construyen y recolectan los datos, así como el diseño investigativo, marcan la calidad
de la investigación. En el mismo sentido House y Kenneth, plantean frente a la pretensión de ausencia de juicios de
valor en el investigador, el peligro de creer que todo tiene el mismo valor. Precisamente, es el diseño investigativo y el
método aplicado el que ayuda a darle valor al dato.
11
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 11
11
Subdirección Académica
Métodos cuantitativos en la investigación social. Buscan construir una imagen panorámica a partir de la cova-
3
riación existente entre atributos presentes en un número de casos. La identificación y selección de los datos, su
búsqueda y el esquema de análisis de estos datos componen este método que, mediante mediciones en la relación
UNIDAD de atributos que privilegian los datos numéricos, intenta construir parámetros que permitan entender o realizar
predicciones de los asuntos sociales.
DIDÁCTICA Métodos cualitativos en la investigación social. Construye imágenes del objeto de investigación, relacionándo-
los con los marcos analíticos, hace énfasis en el conocimiento en profundidad que se adecua a los fines de la inves-
tigación social de dar voz a los actores u objeto de investigación. También, de interpretar la importancia histórica
Tema 2. cultural y avanzar en la construcción teórica (Ragin, 1994).
Enfoques,
En el método cualitativo la selección de los casos y los sitios de investigación determinan el sentido y la relevancia
metodos y diseños social de la investigación, donde se utilizan categorías y marcos conceptuales que son depurados en el proceso in-
de evaluación vestigativo y permiten elaborar marcos conceptuales.
Métodos de comparación en la investigación social. Estudian patrones similares y diferenciados en un número
limitado de casos. Por tanto, el estudio minucioso de cada caso se convierte en la acción más importante del proceso
investigativo.
En la ciencia política el método de comparación ha permitido avanzar en el análisis político comparado, entre los
cuales se pueden identificar tres grandes rasgos:
(1) La comparación histórico-ilustrativa, conveniente para el procedimiento deductivo y que favorece la lógica de la ve-
rificación en la comprobación de sus resultados. O sea, se citan ex post uno o dos casos que confirman la tesis. En esta
aplicación no se suelen tomar en cuenta casos de contraste, o bien son definidos como casos divergentes que no afectan
los resultados logrados.
(2) La comparación histórico-sistemática. Esta procede de manera inductiva, investiga de forma cualitativa y emplea en
el control de sus resultados la lógica de la falsificación. Se da mucha importancia a la selección de los casos que entran
en el estudio comparativo, sobre todo a la presencia de casos de contraste que demuestran disimilitud en la variable de-
pendiente o en la independiente.
(3) La comparación empírico-estadística, que también procede de manera inductiva, investiga de forma macro-cuan-
titativa y consigue sus resultados gracias a la lógica de la correlación. No importan las características de los casos que
entran en la comparación; lo importante es que su número sea lo más alto posible. Existen mínimos necesarios de casos
estudiados para que el resultado de la comparación resulte válido (Nohlen, 2008).
12
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 12
12
Subdirección Académica
3
definición de los asuntos que se quieren investigar, mediante la utilización de enfoques y métodos que nos permiten
decidir sobre los instrumentos que mejor se aplican al caso (Bañon; Bustelo, 2003). En ese mismo sentido, ayuda a res-
UNIDAD ponder las preguntas básicas ¿Cuándo? ¿Dónde? ¿Para quién? ¿Qué? ¿Por qué?, que deben realizar los evaluadores en
la búsqueda de la identidad de la evaluación (Browne; Wildavsky, 1984).
DIDÁCTICA 2.2 Enfoques de evaluación de políticas públicas
En América Latina, a partir de las crisis económicas de los años setenta y ochenta del siglo XX, fundados bajo la
Tema 2. preocupación del Fondo Monetario Internacional (FMI) y el Banco Mundial (BM), se gestó un cambio de paradigma en
Enfoques, la administración y las finanzas públicas que dieron origen a las reformas de los Estados. Estas pretendían asegurar la
metodos y diseños inversión de estos organismos multilaterales en el “desarrollo” de los países latinoamericanos, mediante un estricto
seguimiento de la inversión pública en el marco de unas reglas de juego macroeconómicas definidas en la comunidad
de evaluación internacional, propiamente por los países inversionistas, y aplicadas por los Estados para asegurar los préstamos de
deuda externa (Cardoso, 2006).
Desde este contexto, la evaluación empieza a cobrar sentido e importancia para la administración pública en Amé-
rica Latina. Se privilegian los enfoques economicistas, los métodos cuantitativos, la organización y la sistematización
de los tiempos de las políticas y de los tiempos de la evaluación, ante, durante y ex – post. Mientras se desarrollan tra-
yectorias de operación mediante procesos de planeación que garanticen el logro de las metas y los objetivos trazados.
En el caso colombiano, el cambio de paradigma en el manejo de los asuntos de Estado y administración pública, si
bien se venían gestando desde 19601, es con la Constitución Política de 1991 que se estabiliza un nuevo modelo orien-
tado por la evaluación y la rendición de cuentas, como un plus del modelo, que fortalecía la democracia y desmontaba
formas discrecionales en el manejo de los asuntos públicos. Con lo que se disminuyó la incertidumbre para la inversión
pública de la banca multilateral (Launay, Pachón, 2011).
Es importante reconocer este contexto en los procesos de evaluación, teniendo en cuenta que es el origen de las
discusiones tanto epistemológicas, como metodológicas inmersas en la investigación evaluativa hoy.
Las tendencias de la evaluación han estado marcadas por los momentos coyunturales y los intereses desarrollados
en la sociedad desde la Constitución de 1991. Nuevos grupos demandantes han entrado en los escenarios de partici-
pación, complejizando los procesos de las políticas públicas y de la misma manera de la investigación evaluativa.
La evaluación en este contexto se ha orientado a la gestión de las organizaciones y al seguimiento de los responsa-
bles de la misma. Se han desarrollado modelos de gestión en las organizaciones, a partir de sistemas de monitoreo y
1 En el caso colombiano se reconocen acciones modernizadoras en el Gobierno de Carlos Lleras Restrepo, en él se institucionaliza la planeación
económica, se le da un manejo a la política económica creando un estatuto cambiario y se genera la reforma de 1968.
13
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 13
13
Subdirección Académica
seguimiento, que mediante auditorías constantes al plan de gestión van dando cuenta de los resultados. Se evalúa lo
3
programado sobre lo ejecutado, se valora el cumplimiento de las metas y los objetivos, se analiza el comportamiento
del gasto mediante la ejecución presupuestal, la planta física y el capital humano para el logro de las funciones misio-
UNIDAD nales.
DIDÁCTICA Existe otro campo de acción evaluativa que ha venido emergiendo con mucha fuerza en el medio organizacional
orientada a la satisfacción al cliente, en lo privado, y a las distintas ciudadanías en lo público y estatal, que en la legisla-
ción colombiana está anclado a la transparencia como principio de la democracia y de legitimación del buen gobierno.
Además, busca establecer la relación entre la eficiencia, la calidad de los bienes y servicios entregados, y la satisfacción
Tema 2. de los usuarios.
Enfoques,
Es decir, que además de las evaluaciones de gestión organizacional que pueden ser de control interno, gestión de
metodos y diseños la calidad, sistema integrado de gestión, o también externas, como las evaluaciones realizadas por la Contraloría, la
de evaluación Procuraduría, o el seguimiento realizado por las superintendencias sectorialmente (para el caso colombiano). En este
contexto de evaluación, se analizan el acceso (bienes, trámites y servicios) , la tecnología utilizada, la oportunidad del
servicio, las cadenas de valor público, la percepción ciudadana, el comportamiento de los servidores y las ciudadanías,
entre otros. Esta evaluación se puede hacer de manera interna con equipos de expertos o conocedores, o de manera
externa, por medio de veedurías y asociaciones de consumidores, o grupos de demandantes organizados.
Los métodos o enfoques utilizados son variados, se utilizan métodos objetivos y cuantitativos cuando se evalúa la
relación costo beneficio, por ejemplo: en el momento de abrir un nuevo punto de atención ciudadana. Pero también,
subjetivos y relativos, en los casos en que se realiza una encuesta de percepción del servicio, o subjetivos relativos en
el marco constructivista (Guba; Lincon, 1989). Mediante el diseño de un programa o servicio construido con una aso-
ciación de usuarios o un grupo demandante, se evalúa la efectividad o calidad del programa.
Es clave entender que muchas acciones evaluativas no son evaluación de políticas públicas, pero aportan informa-
ción importante en los procesos de evaluación de políticas públicas. Por lo tanto, existe la necesidad de revisarlas en
la medida que se integran a los procesos complejos de formulación e implementación y aportan a la toma decisiones
en los cursos de acción.
A continuación, se desarrollan algunos enfoques comúnmente utilizados en la evaluación de las acciones de políti-
ca, en el entendido de que han sido sometidos a prueba y que evaluadores profesionales han reflexionado sobre ellos.
El enfoque de análisis de sistemas. Parte de tener claro el programa o la acción, la normativa, y el plan, trabajando
los datos de resultado, buscando hallar las diferencias con los indicadores. En tal caso, se trata de establecer la rela-
ción causa – efecto entre acciones gubernamentales y sus resultados.
14
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 14
14
Subdirección Académica
Evaluación de objetivos conductuales. Centra su atención en el plan de acción, en el logro de metas y objetivos
3
previstos, así como de su eficiencia. Este modelo puede utilizar métodos cualitativos y cuantitativos. Además, el
modelo puede complementarse con el de análisis de sistemas.
UNIDAD Evaluación sin objetivos. Este enfoque parte del principio de objetividad del evaluador. Por tanto, el estudio pre-
DIDÁCTICA vio de las metas y objetivos del programa le dan un sesgo en la evaluación. Este modelo de evaluación se remite
a examinar los resultados. Contrario a los dos enfoques anteriores, no se centra en las acciones del responsable del
programa, un ejemplo de aplicabilidad se puede ver en las evaluaciones de servicio o satisfacción.
Tema 2. Evaluación orientada a la toma de decisiones. Esta evaluación se construye con el decisor, tiene como objetivo
Enfoques, facilitar la toma de decisiones mediante la identificación de patrones y relaciones generales. Se utilizan metodolo-
gías cuantitativas y cualitativas. En este enfoque es muy común el uso de instrumentos como las entrevistas, los
metodos y diseños cuestionarios, entre otros, etc.
de evaluación
Evaluación de la responsabilidad. La evaluación de la responsabilidad tiene como fin determinar el cumplimien-
to de las competencias, obligaciones y responsabilidades del personal y de las organizaciones participantes en los
procesos de las políticas públicas.
Evaluación de efectividad. Evalúa de manera conjunta la eficacia y la eficiencia. En esta medida, busca determinar
si la política y el programa púbico han logrado los objetivos propuestos de manera eficiente.
2.3. Tipos de evaluación de políticas públicas y su finalidad.
La evaluación evidencia dos grandes necesidades de la acción pública. Una está orientada al mejoramiento y la otra
a la necesidad de legitimación de quienes producen esta acción. Los enfoques orientan la construcción de la inves-
tigación (teórica, conceptual y metodológicamente) y la acción evaluadora desarrollada sobre campos específicos de
intervención, han generado diversos tipos de evaluación cada uno de ellos con sus propósitos, categorías, criterios y
métodos.
15
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 15
15
Subdirección Académica
3
Enfoque de Metodología predominante Fines A quién va dirigido
evaluación
UNIDAD Cuantificación de variables.
DIDÁCTICA
Programación lineal.
Enfoque de análi- Variación del plan. Mayor eficiencia Directivos y economistas
sis de sistemas
Análisis de costo / producto.
Métodos cuantitativos.
Tema 2. Objetivos: formulados /logrados.
Enfoques, Evaluación de obje- Identifica a quién va dirigido. Mayor productividad
Directivos psicólogos
tivos conductuales Identifica responsables y responsabilidades. Responsabilidad.
metodos y diseños Métodos cualitativos y cuantitativos.
de evaluación Identificación de efectos colaterales. Elección de clien- Clientes
Evaluación sin Identificar imprevistos. tes-usuarios.
Ciudadanías
objetivos Métodos de elección pública. Utilidad social.
Responsables
Métodos cualitativos y cuantitativos. Valor público.
Construye lista de chequeo para contabilizar y registrar varia-
ciones. Realizar inventarios
de los efectos de la Directivos
Evaluación Construye datos.
intervención pública. Ciudadanías
descriptiva No juzga, solamente muestra los datos.
Construye datos para Responsables
El objetivo del programa no es su problema. la toma de decisiones.
Métodos cuantitativos y cualitativos.
Realización de diagnósticos.
Cuantificación de variables. Diagnosticar e Directivos
Análisis del plan. identificar los fallos
Evaluación clínica Ciudadanías
Cumplimiento de metas. en el proceso para la
toma de decisiones. Responsables
Análisis de objetivos logrados por fuera del plan.
Métodos cuantitativos.
Métodos comparativos.
Directivos
Evaluación Remplaza los valores de la política por valores del deber ser. Aportar en el debate Ciudadanías
normativa Se asume el riesgo de una posición más externa. político y normativo.
Responsables
Métodos cualitativos y cuantitativos.
16
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 16
16
Subdirección Académica
3
evaluación
Directivos
Utiliza criterios científicos que son establecidos por el evalua- Decidir de manera
UNIDAD Evaluación ex-
perimental dor. directa en las deci-
siones de la política.
Ciudadanías
Responsables
DIDÁCTICA
Directivos
Evaluación desde Niega la realidad objetiva. Técnicos
Tema 2. el constructi- Construcción de
La realidad es una construcción conjunta de individuos y gru- consensos. Clientes
vismo radical
Enfoques, pos. Ciudadanías
Responsables
metodos y diseños
de evaluación Fuente: Cuadro elaborado por Rubín A. Huffington R.
El cuadro N.1 muestra una diversidad de enfoques y posturas frente a la evaluación, que no son los únicos, que se
mueven de acuerdo con escuelas e intereses. Por ejemplo, si el equipo evaluador está conformado por economistas,
tendrá un enfoque distinto al que puede diseñar un grupo liderado por sociólogos. Aún en un grupo de economistas
puede variar la investigación de acuerdo con si pertenecen a una u otra escuela económica, o dependiendo de la de-
limitación que ponga el programa a estudiar o la necesidad de estudiarlo; además, del interés de quienes contratan la
evaluación.
2.4. Campos de investigación en evaluación.
Se observa el concepto de campos como los centros de acción de la evaluación, sobre estos centros construimos el
diseño de la investigación, que implica estructurar la metodología más adecuada para ser aplicada, según los objetivos
de la evaluación.
17
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 17
17
Subdirección Académica
3
PRODUCTOS
UNIDAD
DIDÁCTICA EVALUACIÓN
GESTIÓN DE
ORGANIZACIÓNES
GESTIÓN DE
ORGANIZACIÓNES
MÁS ORIENTADA
AL GOBIERNO
Y LA DECISIÓN
Tema 2. EVALUACIÓN
Enfoques, MÁS ORIENTADA
CONTEXTOS USUARIOS A LA DEMANDA
metodos y diseños COYUNTURAS CIUDADANÍAS
de evaluación
LEGITIMACIÓN
Fuente: Cuadro elaborado por Rubín A. Huffington R.
Se pueden definir cuatro grandes campos (Cuadro N. °2.), en los cuales opera la evaluación de políticas públicas y
sobre los cuales se diseña el proceso evaluativo.
· Evaluación sobre la gestión de las organizaciones: Evalúa su estructura, el modelo de gestión, la estructura de gasto y
las rutas críticas. Es posible decir que en este campo, las metodologías y mecanismos de control y seguimiento aportan
una importante base de datos e información que se puede trabajar bajo las metodologías cuantitativas y cualitativas que
van desde datos estadísticos, hasta entrevistas y auditorías.
· Evaluaciones sobre desempeño y responsabilidad: En este campo, es posible aplicar métodos cuantitativos, por ejem-
plo, en estudios de desempeño se trabajan condiciones laborales, las cuales se pueden cuantificar, o cuando se utilizan
metodologías para construir rutas críticas2 o trayectorias en el análisis de procesos. Sin embargo, la aplicación de méto-
dos cualitativos es más usual en este campo. En estos ejercicios se pueden combinar los métodos cuantitativos y cualita-
tivos.
· Evaluación sobre contextos y coyunturas: Las políticas públicas entran en las agendas de los gobiernos por demanda,
por el surgimiento de un fenómeno, o por una necesidad creada en el campo de operación de las políticas públicas, que
2 El método PERT (Project Evaluation and Review Techniques), es un algoritmo que trabaja con proyecciones probabilísticas, con base en la
teoría de redes y el método de la ruta crítica Critical Path Method (CPM por sus siglas en inglés) que se desarrolla mediante intervalos deter-
minísticos. Ambos métodos son utilizados en estos ejercicios.
18
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 18
18
Subdirección Académica
puede ser de origen organizacional o no. En este campo, dependiendo de las necesidades de la evaluación, se pueden
3
aplicar diferentes enfoques y tipos de evaluación.
· Evaluación desde los usuarios y ciudadanías: Se evalúa desde los grupos demandantes (en el sector privado común-
UNIDAD mente llamados clientes). Aquí existen métodos del positivismo objetivo como los propuestos por Michael Scriven, a
DIDÁCTICA partir del cliente, o desde el constructivismo radical de Guba y Lincoln, a partir de los interesados. El producto y el servicio
están relacionados con la satisfacción, así, construyen un campo de evaluación con este énfasis.
Las condiciones internas y externas, y el tipo de sistema político y régimen, nos llevan a priorizar uno o varios campos en la
Tema 2. acción evaluativa, razón por la cual el primer ejercicio de la evaluación es construir una ruta de acción para la evaluación como
Enfoques, primera preocupación del evaluador.
· Aclarar el objetivo de una evaluación de programa o curso de acción política; revisar el porqué y el para qué. Su posible
incidencia, el papel que ha de cumplir el evaluador.
· Construir la ruta o acción evaluativa: enfoques, métodos, criterios, datos, escenarios, actores, instrumentos, etc.
· Diseñar y editar la presentación de la información como una acción tan importante como el ejercicio de evaluación mis-
ma. Una pésima presentación de los datos ante la opinión pública puede llevar al traste todo el ejercicio evaluativo
19
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 19
19
Subdirección Académica
3
En América Latina podemos encontrar un variado campo de experiencias en evaluación que van desde la evalua-
UNIDAD ción de la gestión, el control y el seguimiento al gasto público, así como la modernización de la gestión pública. Países
como Colombia, Costa Rica y Uruguay, han trascendido en la construcción de un sistema nacional de evaluación, que
DIDÁCTICA opera desde la planeación. Se utiliza como herramienta del ejecutivo del gobierno nacional para la toma de decisiones
o para el seguimiento al cumplimiento de las metas de gobierno. Por los menos así se utiliza en México y Brasil3, supe-
rando las evaluaciones puntuales o de experiencias específicas.
Tema 3. Se pueden identificar tres grandes grupos de evaluadores: los organismos internacionales de cooperación al desarro-
Modelos y llo, los organismos de fondos multilaterales como el de la Unión Europea o como la Comisión Económica Para América La-
esquemas de tina y el Caribe (CEPAL) y, por último, los organismos gubernamentales que en cada país cumplen esta función de evaluar.
evaluación en En medio de toda la complejidad que podemos encontrar en la investigación evaluativa, se pueden identificar algu-
políticas públicas nos campos inexplorados que se salen de lo que se concibe como ciencia y que la comunidad académica no aborda,
algunos ejemplos son las epistemologías emergentes, que por no tener sentido en la expansión del capital global, la
comunidad económica tampoco desea incluirlas.
El reconocimiento que la investigación evaluativa ha obtenido en los últimos tiempos, ha estado ligado a la nece-
sidad de expansión y estabilización de la economía capitalista (globalización). Se han desplegado sistemas organiza-
cionales, técnicas administrativas y líneas de investigación que garanticen el control y la rentabilidad de los fondos de
inversión del capital global en las distintas regiones del mundo.
Esta necesidad ha privilegiado posturas epistemológicas, construido marcos teóricos, desarrollado enfoques y apli-
cado procesos investigativos que finalmente construyen, el o los modelos de evaluación que se trabajan comúnmente,
inclusive en el marco de los enfoques desarrollados se privilegia a unos tipos de evaluación, más que a otros.
Los anteriores comentarios se hacen, en virtud de aclarar, que todo el desarrollo metodológico del módulo se centra en la
evaluación mediante, y las evaluaciones ex – post que se encuentran consignadas en toda la cadena de valor de los or-
ganismos multilaterales. Algunos de ellos también son reconocidos por los Estados, lo que incluye al sistema aplicado
en Colombia, esto lleva a reconocer, de una parte, un campo por explorar, y de otra, problemas que surgen en el centro
mismo de las metodologías.
Una condición que precariza la investigación en evaluación en casi toda América Latina es la producción de datos y
la protección de las fuentes de información primaria, aun apoyándose de manera importante en sistemas tecnológicos,
3 Agencia Estatal de Evaluación de las Políticas Públicas y de la calidad de los servicios del Gobierno de España. Madrid, 2010.
20
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 20
20
Subdirección Académica
no se logra mantener fuentes confiables. Este es un punto importante, sobre todo, para aquellos evaluadores que
3
privilegian el enfoque de los métodos cuantitativos y de la objetividad científica.
En el mismo sentido del párrafo anterior, podemos decir que los registros, la referencia y contra referencia, adolecen
UNIDAD de sistematicidad y de personal especializado, así como, de permanencia en los cargos de estos funcionarios, lo cual
DIDÁCTICA ocasiona problemas que son comunes en los Estados latinoamericanos en el tratamiento de la información. Sin embar-
go, la implementación de los sistemas de calidad y la evaluación misma de programas han obligado a utilizar técnicas y
procedimientos como las plataformas tecnológicas, las oficinas de correspondencia, el sistema de archivo, entre otros.
Tema 3. Haciendo estas precisiones, se entra a presentar algunos conceptos o definiciones de evaluación utilizados para
Modelos y luego examinar los modelos de evaluación de la CEPAL y posteriormente exponer el Sistema Nacional de Evaluación
de Gestión y Resultados SINERGIA, utilizado por el Gobierno colombiano y liderado por el Departamento Nacional de
esquemas de Planeación (DNP).
evaluación en
políticas públicas Cuadro N.3. Qué se define como evaluación.
Organismo Definición de evaluación Bibliografía
21
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 21
21
Subdirección Académica
3
“Evaluar” (del lat. valere) significa “estimar”, apreciar, calcular el valor de al-
go”. El Diccionario de la RAE indica que “evaluación” consiste en “la acción y
UNIDAD efecto de señalar el valor de una cosa”. A su vez, en el Diccionario de María
Moliner encontramos que “evaluar” consiste en “atribuir cierto valor a algo”.
Gobierno de España. Ministerio
DIDÁCTICA
Gobierno de Es- La disciplina de evaluación proviene de los países anglosajones, donde apa-
paña rece bajo la rúbrica de dos acepciones sinónimas: assessment y evaluation de Política Territorial y Adminis-
Agencia Estatal de que en la literatura especializada tienen usos diferentes: assessment se utiliza tración Pública. Agencia Estatal de
Evaluación de las en general referido a personas y evaluation, referido a intervenciones, pro- Evaluación de las Políticas Públicas
Políticas Públicas gramas, proyectos. y la Calidad de los Servicios. Fun-
Tema 3. y la Calidad de los En líneas generales, se entiende por evaluación un proceso integral de damentos de evaluación de políti-
Servicios cas públicas
Modelos y observación, medida, análisis e interpretación, encaminado al cono-
cimiento de una intervención pública -norma, programa, plan o polí-
esquemas de tica, que permita alcanzar un juicio valorativo, basado en evidencias,
evaluación en respecto a su diseño, puesta en práctica, resultados e impactos.
22
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 22
22
Subdirección Académica
seguimiento, se rige por el Reglamento para la planificación de los programas de las Naciones Unidas. “En él se describen
3
las normas de toda la Secretaría de las Naciones Unidas relacionadas con la realización de evaluaciones, incluido el plazo
propuesto, la finalidad y los objetivos, y el uso que se dará a la evaluación para decidir sobre las directivas de política y el
UNIDAD diseño de programas futuros” (CEPAL, 2014).
DIDÁCTICA Las actividades que realizan la ONU y todos sus organismos facultativos están sometidas a un proceso de gestión
integrada mediante planes de mediano plazo, presupuestos por programas, informes sobre la ejecución de programas,
e informes de evaluación. Cada uno de estos instrumentos corresponde a una fase en el proceso de planificación y
sirve de marco para las fases siguientes.
Tema 3.
Modelos y La CEPAL define la evaluación como:
esquemas de Un proceso que trata de determinar de la forma más sistemática y objetiva posible la relevancia, efectividad e im-
evaluación en pacto de un programa, proyecto o política en curso o ya finalizado, a la luz de sus objetivos y logros. Engloba su diseño,
aplicación y resultados con miras a ofrecer información fiable y útil, que permita incorporar las enseñanzas aprendidas
políticas públicas en el proceso de toma de decisiones ejecutivas y legislativas. La evaluación se realiza a menudo de manera selectiva
para dar respuesta a preguntas concretas con la finalidad de orientar a los encargados de adoptar decisiones y a los
directores de programas, y de proporcionar información sobre la validez de las teorías e hipótesis básicas utilizadas en
la formulación del programa, así como sobre qué surtió efecto o no y por qué. (CEPAL, 2014)
La evaluación está orientada a resultados, productos e impactos y también tiene funciones de auditoría y segui-
miento, cuyos objetivos se enmarcan en rendición de cuentas, gestión por resultados e innovación, aprendizaje y cam-
bio institucional.
Las evaluaciones de la CEPAL recaen en dos categorías principales: las internas, que lleva a cabo la misma Comisión,
y las externas, realizadas por otras entidades. Dentro de cada categoría, algunas evaluaciones son encomendadas por
la Secretaría de las Naciones Unidas (las denominadas “evaluaciones obligatorias”) y otras se efectúan voluntariamente,
por iniciativa de la Comisión para sus propios fines internos (las denominadas “discrecionales”). La política y estrategia
de evaluación de la CEPAL se centra en la categoría de evaluaciones internas discrecionales, dado que estas son enco-
mendadas y gestionadas por la Comisión. (CEPAL, 2014)
Los alcances de la evaluación en la CEPAL tienen cinco niveles: Programas de trabajo bienal desarrollados interna-
mente, temáticas transversales y estratégicas, sedes subregionales y oficinas nacionales, evaluación de eficacia sobre
las divisiones sustantivas de sus catorce programas y sobre los programas y proyectos.
23
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 23
23
Subdirección Académica
Criterios de evaluación.
3
Cuadro N.4. Criterios de evaluación.
UNIDAD
Relevancia Eficiencia Eficacia Sostenibilidad
DIDÁCTICA Es el grado en que una
actividad, un logro espe- Es el grado en que un
rado o una estrategia son Representa la medida Corresponde a la duración del im-
proyecto o programa
pertinentes o significativos en que los insumos pacto del programa o proyecto
Criterios de eva- para alcanzar el objetivo (fondos, conocimien- alcanza sus objetivos
y logros previstos y una vez terminado este, es decir,
propuesto y el grado en tos, tiempo y otros) se la probabilidad de que se obten-
luación que este objetivo es im- convierten en resultados cumple con los resul- gan beneficios a largo plazo.
tados esperados
portante para solucionar
el problema abordado.
Fuente: Política y estrategias de evaluación. CEPAL, 2014.
Como se ha visto a lo largo de la unidad, existen y se aplican enfoques muy diversos en el campo de la evaluación,
sin embargo, los organismos multilaterales y facultados por la Organización de las Naciones Unidas definen la evalua-
ción en el campo especifico de la gestión de organizaciones, la responsabilidad de la operación y el resultado o produc-
to, a partir de la planeación por objetivos y la evaluación de resultados, utilizando el marco lógico como metodología,
la cual se estructura mediante la identificación de problemas y posibles soluciones4.
Estructura metodológica.
• Ciclo de vida del proyecto.
• Construcción del árbol de problemas.
• Construcción del árbol de objetivos.
• Identificación de los involucrados.
• Construcción del árbol de efectos.
• Construcción del árbol de causas.
4 Para profundizar, el estudiante debe recurrir a la “Metodología del marco lógico para la planificación, el seguimiento y la evaluación
de proyectos y programas”, que se encuentra en la dirección web repositorio de la Cepal: http://repositorio.cepal.org/bitstream/hand-
le/11362/5607/S057518_es.pdf
24
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 24
24
Subdirección Académica
3
• Construcción del árbol de acciones.
UNIDAD • Estructura analítica del proyecto.
DIDÁCTICA El momento de la aplicación de una evaluación está marcada por la necesidad de ajuste de la política, la necesidad
de sustentar su permanencia, o conocer los resultados de una acción de política o programa.
• Evaluación ex – ante. Se compara la situación con el programa o sin el programa para medir la relevancia.
Criterios de
• Evaluación media. Se utiliza para realizar mejoras o re direccionar el programa o acción.
evaluación
• Evaluaciones ex – post o de impacto. Se utiliza para evaluar los resultados a partir de su afectación. Es una evaluación
que nos permite realizar análisis de retorno o feedback.
Es claro ver en esta presentación del modelo de evaluación de la CEPAL, cómo se construye una cadena de valor
alrededor de la evaluación, que viene de una directriz de la Secretaría General de las Naciones Unidas, aplicada por un
organismo facultativo para América Latina. De manera seguida, vamos a encontrar en SINERGIA desarrollada y aplica-
da por el Gobierno de Colombia, los mismos valores en la búsqueda de estándares de desarrollo.
Sistema Nacional de Evaluación de Gestión y Resultados, SINERGIA.
Es el instrumento diseñado por el Departamento Nacional de Planeación DNP del Gobierno colombiano para reali-
zar seguimiento a programas y evaluar las políticas públicas y territoriales.
En materia de evaluación, el Documento Conpes 2688 de 1994 sienta las bases de Sinergia. Este es un primer paso en
una serie de cambios que habrían de marcar un hito en la concepción del seguimiento y la evaluación en el país. La misión
otorgada a Sinergia es apoyar al Gobierno colombiano para que mantenga el rumbo y mejore el desempeño con el fin de
alcanzar los objetivos definidos por las políticas públicas”. (DNP, 2004)
El propósito expresado en el Conpes 2688 orienta la evaluación al seguimiento de la gestión pública en la imple-
mentación de las políticas con criterios de eficiencia, eficacia y sostenibilidad, desde un sistema que permite abrir una
oferta de tiempo, alcance y de actores en el proceso de evaluación, manteniendo concordancia con los modelos plan-
teados por los organismos de las Naciones Unidas.
Una evaluación se debe entender como una investigación sistemática y objetiva aplicada en alguno de los diferen-
tes eslabones de la cadena de resultados o valor (insumos, procesos, productos, resultados e impactos) que tiene como
finalidad mejorar el diseño, la implementación, la ejecución y los efectos de un plan, política, programa o proyecto a
través de la toma de decisiones. (DNP, 2012) (DEPP, 2010)
25
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 25
25
Subdirección Académica
Los tipos de evaluación y sus características en el DNP nos dan un mapa de la actividad evaluadora que despliega
3
el sistema SINERGIA.
Criterios de Tiempo
Se realiza una vez se ha dado la intervención.
• Dinámica: Es permanente, sirve de mecanismo de ajuste al programa controlando su
evaluación Ex - post desarrollo.
• Intermedia: Análisis después de cierto nivel de avance del programa.
• Final: Análisis después del fin de la ejecución del programa.
Provee información sobre el progreso de un programa para comparar los avances lo-
Seguimiento grados frente a las metas.
Evalúa la dinámica interna de los organismos de ejecución y los vínculos que existen
Operaciones gestión entre sus componentes.
Institucional Mide la capacidad institucional que tiene un programa para cumplir con sus objetivos.
Alcance Hace un análisis rápido de la articulación y consistencia entre insumos, procesos, pro-
Ejecutiva ductos y resultados esperados.
Determina qué productos se entregaron y qué resultados se generaron frente a los
Productos y resultados insumos invertidos.
26
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 26
26
Subdirección Académica
3
Se recomienda utilizar el marco lógico para identificar la información necesaria de la política, el programa o el pro-
yecto, los objetivos y sus metas.
UNIDAD
Análisis de actores. Para definir el alcance de la evaluación es necesario entender la “cadena lógica del programa”
DIDÁCTICA mediante el análisis de actores, por lo cual, se recomienda diseñar acciones con el mayor número de interesados (Stake-
holders) con ello, se le da legitimidad al programa de evaluación.
La metodología SINERGIA se orienta a identificar los actores en cada una de las acciones de la evaluación. El mayor
Criterios de
número de expectativas e intereses permitirá una mejor formulación de la evaluación.
evaluación
Preguntas iniciales.
¿Hay otras alternativas para alcanzar este objetivo?
¿Estos recursos podrían usarse de mejor manera?
¿Está bien diseñado el programa?
¿Se encuentra bien implementado?
¿Cuáles fueron los efectos del programa?
¿El programa logra su objetivo?
Ruta de trabajo.
• Se identifica el programa de la evaluación.
• Se construye la cadena de resultados.
• Se construye la cadena de entrega del bien o servicio público.
• Se realiza el mapeo de la información.
• Se construye la hipótesis
• Se define el alcance de la evaluación.
27
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 27
27
Subdirección Académica
3
Según la metodología de evaluación, algunas de las razones para tomar la decisión de evaluar política están rela-
cionadas con el diseño de políticas, justificar el gasto, conocer la efectividad de un programa, mejorar la entrega de
UNIDAD servicios que provee el programa y la ampliación o replica de un programa en otros sitios. Una vez tomada la decisión
DIDÁCTICA se identifican los programas o la política a evaluar de acuerdo con el objetivo trazado y se construye un plan de eva-
luaciones.
Paso 2. Construcción de la cadena de resultados o cadena de valor.
Criterios de
La cadena de resultados es un método que se utiliza para entender la lógica de formulación e implementación del
evaluación programa, mediante la creación de mapas de proceso, estableciendo cómo se consiguen los resultados y cuál es la
complejidad de la interrelación de la política. Forma parte del cuadro metodológico del marco lógico y es utilizado
cuando se realizan ejercicios de cambio organizacional.
La construcción de la cadena de resultado ayuda a conocer el programa y debe lograr una base de entendimiento
entre los interesados (actores). Trabaja sobre insumos, procesos, productos, resultados e impactos, y establece la se-
cuencia causal de los procesos (fases o etapas) que componen la intervención, los recursos utilizados y los efectos del
programa.
Paso 3. La cadena de entrega.
Establece la interrelación entre actores instituciones y procesos, tratando de establecer los obstáculos que se pue-
dan suceder en la entrega, permitiendo con ello plantear procesos de mejoramiento. De acuerdo con Barber (2009), la
cadena de entrega se puede definir como el conjunto de actores (personas o instituciones), y las relaciones entre ellos,
por medio de las cuales una actividad o un proceso de un sistema dado será implementado5.
Paso 4. Mapeo de la información.
En esta etapa de formulación del proyecto de investigación el mapeo de la información todavía no es profunda, pero
debe responder unas preguntas básicas.
¿Qué nivel de detalle de información maneja el programa?
¿Cómo funciona el sector?
¿Cómo funcionan los programas con este tipo de objetivos en Colombia?
28
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 28
28
Subdirección Académica
3
¿Cuáles son las fuentes de información del programa (registros administrativos, información, línea de base, etc.)?
UNIDAD Este paso es importante porque identifica la justificación del programa y permite comprender su lógica interna; di-
cho de otra manera, permite conocer el andamiaje del programa para construir el andamiaje de la evaluación.
DIDÁCTICA Paso 5. Construcción de la hipótesis de evaluación
La hipótesis en la investigación evaluativa, que cumple el mismo papel que en cualquier investigación6, permite
Criterios de aclarar el objeto de la investigación, la formulación de variables a tratar y el campo de relación entre ellas. A partir de
evaluación allí, construimos indicadores de evaluación y construimos estrategias de evaluación que permitan dar respuesta a las
preguntas que se están formulando.
Paso 6. Definición de objetivos y alcances de la evaluación.
En este momento de la investigación se deben hacer las preguntas sobre los objetivos del programa de evaluación,
su centro de interés y los campos en los cuales se ha de trabajar:
¿Son preguntas de gestión del programa?
¿Son preguntas de política?
¿Son preguntas de operatividad?
¿Son preguntas del diseño del programa?
¿Son preguntas de implementación?
¿Son preguntas de capacidad institucional?
¿Son preguntas de costo-beneficio?
¿Son preguntas de los resultados del programa?
¿Son preguntas del impacto del programa?
6 El estudiante puede profundizar en esta parte de la investigación en el texto Metodología de la investigación. Hernández Sampieri. Fernán-
dez Collado Carlos. Mc Graw Hill. Madrid, 1998.
29
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 29
29
Subdirección Académica
3
Tipo de
Definición Características Acciones ¿Cuándo se usa? ¿Para qué sirve?
evaluación
UNIDAD Identificar el flujo
¿Qué se hace? – Actividades
DIDÁCTICA “La evaluación de pro-
cesos es la evaluación
Incluye el examen de
los aspectos adminis-
Identificar los encargados
¿Quién y cómo lo ha-
de la dinámica interna trativos y organizati- ce? – Responsables Sirve para saber qué
de los organismos de vos del programa. tan bien funcio-
Identificar los insumos – na internamente
ejecución, sus instru- • Cumple una función de
Criterios de De proceso
mentos de política, sus
mecanismos de pres-
supervisión de las opera-
ciones, métodos y activi-
¿Qué se necesita para ha-
cerlo? – Entradas
Tan pronto se inicia el programa.
Durante el funcionamien-
el programa.
Provee información
evaluación
tación de servicios, sus dades de un programa. Identificar los productos to del programa. al evaluador acerca
procedimientos de ges- • Permite determinar de si el programa
tión y los vínculos que ¿Qué se entrega? – Salidas
si el programa funcio- se implementa
existen entre todos estos na y posibilita realizar Identificar los beneficiarios como se diseñó.
componentes”(OECD, intervenciones que ¿A quién se entrega? – Clientes
2002; DNP, 2012). mejoren su calidad. Identificar el cronograma
¿Cuál es la duración y secuencia
de las actividades? – Tiempos
Definir los productos esperados
La evaluación de produc-
tos es una valoración Es el resultado de las acciones
del programa a evaluar.
Ex - post, de corto
La evaluación de Establecer metas y aso-
plazo, que se adelanta a
productos es un tipo ciar indicadores. Cuando se necesita explicar en
partir de la entrega de
de evaluación que se términos de la gestión del pro- Redireccionar
los productos y servi- Indicador de produc-
utiliza para analizar grama porqué se lograron o no el programa.
cios programados. to - gestión - efecto
De producto en qué medida se los productos planeados.
logró cumplir con las No es necesario obser- Analizar y reportar el estado de los Conseguir recursos.
metas de productos var los resultados ni el Cuando el programa tiene Ajustar procesos.
productos restricción de tiempo o dinero.
entregados frente a los impacto de los productos,
insumos invertidos. puesto que estos elemen- Análisis costo-eficiencia
tos deben ser abordados Uso de los resultados
mediante evaluaciones de
mediano y largo plazo. Depende del interés y del
público interesado.
“Beneficios o cambios
en los individuos o La evaluación de
poblaciones durante su Construcción de indicadores para resultados (outcome
participación o después medir el proceso de planeación: evaluation) es un tipo
La característica de esta Gestión
de su participación en de evaluación que se
evaluación se orienta a
las actividades del pro- Producto utiliza para estudiar
reconocer los cambios Se usa para hacer segui-
grama. Los resultados los cambios en las
efectuados por el progra- Resultado miento continuo.
se encuentran bajo la condiciones de los
ma sobre los individuos
Por resultados influencia de los produc- Impacto Realizar evaluación de impacto. beneficiarios como
o personas en virtud de
tos de un programa y se Construcción de indicadores Redireccionar o mejorar de acuerdo consecuencia (directa
los productos entrega-
pueden relacionar con para medir los resultados con los efectos del programa o indirecta, atribuible
dos o de los resultados
el comportamiento, ha- o no) de los produc-
esperados en la formu- Gestión
bilidades, conocimiento, tos entregados por
lación del programa
actitudes, valores, condi- Producto una intervención en
ciones u otros atributos”. Efecto un horizonte de corto
(United Way of America, y mediano plazo.
1996; DNP2016).
30
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 30
30
Subdirección Académica
Tipo de
Definición Características Acciones ¿Cuándo se usa? ¿Para qué sirve?
3
evaluación
Diseño de la investigación. Entre
UNIDAD La evaluación de
impacto permite
los métodos de origen cuantitativo
se encuentran los diseños expe-
Cuando un programa ha finalizado.
Para el diseño de nue-
La evaluación de
impacto tiene como
objetivo poder deter-
determinar si los rimentales, considerados como
DIDÁCTICA Es una evaluación que se la solución óptima, y los diseños vas intervenciones. minar cuál es el efecto
cambios identificados realiza tiempo después de cuasi-experimentales, que pueden Cuando no están claros los de la intervención a
en individuos o grupos
De impacto haberse ejecutado las ac- dar resultados confiables si se ha- efectos producidos por la apli- través de la identi-
sociales son el producto ciones del programa. Tam- cen de manera adecuada. Para los cación de un programa. ficación de lo que
de la intervención del bién es llamada ex - post métodos de origen cualitativo exis- le habría pasado
programa, u obedece Cuando la relación costo-bene-
ten los diseños no experimentales. a los beneficiarios
Criterios de
a factores externos de ficio de un programa no están si el programa no
manera total o parcial. Estudios de caso claros frente a los resultados. hubiese existido
evaluación Construcción de líneas de base.
Cuadro adaptado por Rubín A. Huffington R. Guía Para la Evaluación de Políticas Públicas (DNP, 2012).
31
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 31
31
Subdirección Académica
3
La evaluación ejecutiva E2, o evaluación corta es una de los instrumentos con mayor reconocimiento hoy día en el
sistema SINERGIA, y es tal vez, porque siendo una evaluación que comúnmente se realiza durante el proceso, es decir,
UNIDAD cuando el programa está en ejecución, su principal virtud es la robustez ya que incluye casi todos los tipos de evalua-
DIDÁCTICA ción.
Esta evaluación fue ajustada en el 20097 por el DNP y desde ese momento se viene trabajando con una estructura
de preguntas ajustada. Hoy este tipo de evaluación ha adquirido la denominación E2. La evaluación consta de tres
Criterios de secciones: en la descripción del programa el evaluador debe asumir un papel objetivo e imparcial; solamente consigna
evaluación lo encontrado. En la evaluación del programa desarrolla juicios valorativos que se apoyan en una matriz de calificación
que recoge toda la información procesada en la investigación.
En esta sección se debe realizar un juicio evaluativo fundado en cada uno de los temas que se analizan en los di-
ferentes ámbitos de la evaluación. Para cada una de las áreas de evaluación se ha definido un número limitado de
preguntas, las cuales se desagregan en temas y subtemas. Cada pregunta debe basar su análisis y valoración en la
respuesta de las subpreguntas incluidas en el informe final. El consultor debe llevar a cabo un análisis detallado de las
razones que justifican la respuesta elegida, basado en las subpreguntas aportadas. (DNP, 2012)
Adicionalmente, para cada uno de los temas abordados en las preguntas, se requiere que el consultor elabore una
propuesta de ajuste para solucionar eventuales fallas del programa o mejorar su desempeño. Los lineamientos para el
desarrollo de esta propuesta están resumidos en un campo denominado.
7 El DNP ajustó la metodología E2 mediante un equipo de consultores que revisó el sistema de preguntas y reformuló los cuadros de dialogo que traía la metodología original-
mente. En ello participaron los consultores Jenny Elisa López Rodríguez y Rubín Ariel Huffington Rodríguez. Bogotá, 2008-2009
32
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 32
32
Subdirección Académica
3
En la primera sección se requiere que el consultor realice una descripción general de las principales características
UNIDAD del programa, organice y reconstruya de manera sistemática toda la información disponible, aclarando las diferentes
fuentes de información utilizadas y evidenciando eventuales carencias de información. Esta sección se ha diseñado
DIDÁCTICA con base en la metodología de la Evaluación de Programas Gubernamentales (EPG) de la Dirección de Presupuesto de
Chile. (DNP, 2012)
Descripción del programa.
Sección I.
Descripición del Incorporar los principales elementos descriptivos incluidos en la Evaluación Ejecutiva (E2) (Sección I)
programa • Fin y propósitos.
• Población objetivo.
Se estructuran las preguntas alrededor de cada uno de los siguientes ítems de acuerdo con las necesidades de evaluación del
programa. Se estructuran matrices de marco lógico y se produce la información con las respuestas, además del contenido de las
matrices:
33
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 33
33
Subdirección Académica
3
Descripción de las actividades que se realizan en el marco del programa.
UNIDAD Estructura de la matriz del marco lógico.
Sección I. 2.Resultados.
Descripición del Cobertura efectiva.
programa
Nivel de producción de componentes.
Calidad y oportunidad de los componentes.
Uso efectivo de los componentes por parte de los beneficiarios.
Resultados de los fines y de los propósitos
3. Insumos.
Antecedentes presupuestarios y fuentes de financiamiento.
Ejecución de recursos financieros.
Uso y distribución de los recursos.
Estructura de costos.
4. Manejo operativo.
Análisis de actividades operativas.
Selección, priorización o focalización.
Proceso de diseño y mejora de la calidad de los componentes.
Proceso de producción de los componentes.
34
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 34
34
Subdirección Académica
3
Reformulaciones del programa (si aplica).
UNIDAD 5.Actividades de direccionamiento, evaluación y control.
DIDÁCTICA Direccionamiento – Planeación.
Seguimiento y control.
Sección I. 6. Estructura organizacional.
Descripición del
Principales elementos del diseño organizacional del programa.
programa
Esquema global de operación.
Estructura organizacional interna.
Mecanismos de coordinación externa.
Mecanismos de participación de usuarios.
7. Información del programa.
Calidad de la información del programa.
35
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 35
35
Subdirección Académica
3
En esta sección se debe realizar un juicio evaluativo fundado en cada uno de los temas que se analizan en los dife-
UNIDAD rentes ámbitos de la evaluación.
DIDÁCTICA La Evaluación del programa se articula en sietes partes estándar: diseño; manejo operativo; estructura organizacio-
nal; gestión financiera; actividades de direccionamiento, seguimiento y evaluación; eficiencia; y eficacia del programa.
Análogamente en cuanto a lo planteado para la sección de descripción, también en esta fase de evaluación, se añade
una batería de preguntas adicionales relacionadas con las necesidades específicas de evaluación del programa.
Sección II.
Evaluación del Para cada una de las áreas de evaluación se ha definido un número limitado de preguntas. A cada una de las pregun-
tas el consultor deberá contestar de manera puntual, positivamente o negativamente.
programa
En el campo referencia a sección I se indica a cuál parte de la sección de descripción del programa (Sección I) el
consultor debe hacer referencia para obtener la información que le permita responder a cada una de las preguntas. El
consultor deberá llevar a cabo un análisis detallado de las razones que justifican la respuesta elegida, abordando algu-
nos subtemas que se mencionan para cada pregunta en el campo justificación.
Adicionalmente, para cada uno de los temas abordados en las preguntas, se requiere que el consultor elabore una
propuesta de ajuste para solucionar eventuales fallas del programa o mejorar su desempeño. Los lineamientos para el
desarrollo de esta propuesta están resumidos en un campo denominado Propuesta Específica de Ajuste (DNP, 2012).
1. Diseño del programa.
1.1 Diseño estratégico (fines, propósitos y componentes).
• ¿El programa está dirigido a un problema, necesidad o interés importante, claro, específico y existente?
• ¿Los objetivos del programa son coherentes con los lineamientos de la política sectorial y de la entidad?
• ¿El programa tiene beneficiarios objetivos claramente definidos y afectados por el problema, necesidad o el interés?
• ¿El modelo de intervención del programa (componentes) se ajusta a los objetivos de la intervención?
• ¿El programa está diseñado de manera que no sea redundante o duplicativo de otros esfuerzos estatales, locales, comuni-
tarios o privados?
• ¿El programa ha sido diseñado reflejando las condiciones, las prioridades y las percepciones de los beneficiarios objetivos?
36
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 36
36
Subdirección Académica
3
1.2 Diseño de la implementación (Actividades y organización).
UNIDAD • ¿Se tienen identificadas a nivel de diseño las actividades necesarias para el logro de los propósitos?
Sección II. • ¿El diseño del programa refleja los aprendizajes logrados por medio de experiencias previas en el sector de intervención?
• ¿El programa cuenta con los insumos suficientes y adecuados para realizar las actividades planeadas?
2.2 Calidad de la gestión operativa
• ¿Hay coherencia entre los insumos del programa?
• ¿Existen cuellos de botella internos relevantes a lo largo del proceso de producción de los componentes?
• ¿Los mecanismos de priorización / focalización de los beneficiarios son eficientes a la hora de su implementación?
• ¿El programa ha dedicado y dedica esfuerzos suficientes al diseño de los componentes? (si aplica)
• ¿Se tienen determinadas las condiciones necesarias para las actividades de entrega de los componentes? (si aplica)
• ¿Las actividades de apoyo son suficientes y eficientes para el logro de los resultados?
3. Estructura organizacional.
Coherencia entre implementación y diseño.
Calidad de la estructura organizacional.
37
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 37
37
Subdirección Académica
4. Manejo financiero
3
Fuentes de financiación.
UNIDAD Uso de los Recursos financieros.
DIDÁCTICA Procedimientos de manejo financiero.
5. Actividades de direccionamiento, seguimiento, evaluación y control.
Sección II. Calidad de las actividades de direccionamiento.
Evaluación del
Calidad de las actividades de seguimiento y evaluación.
programa
6. Eficiencia del programa.
Análisis de eficiencia global del programa.
Análisis de eficiencia por componentes del programa.
7. Eficacia del programa.
Desempeño del programa a nivel de componentes y cobertura.
Desempeño de gestión del programa.
Desempeño del programa a nivel de fin y propósito.
38
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 38
38
Subdirección Académica
3
Las conclusiones deben ser precisas y fundamentarse en las revisiones y análisis evaluativos efectuados en cada una
UNIDAD de las secciones del informe (DNP, 2012).
DIDÁCTICA
Sección III.
Conclusiones
39
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 39
39
Subdirección Académica
Referencias bibliográficas
3
Bañón i Martínez R. (Comp.). (2003). La evaluación de la acción y de las políticas públicas. Madrid: Ediciones Días de Santos.
UNIDAD ------------------------- (Comp.). (2003). La evaluación de la acción y de las políticas públicas. Madrid: Ediciones Días de Santos.
DIDÁCTICA ________________ (Comp.). (2003). La evaluación de la acción y de las políticas públicas. Ruano José Manuel. La doble naturaleza técnica y
política de la evaluación del rendimiento. Madrid: Ediciones Días de Santos.
Brown R. D. (2001). Evaluación de políticas y programas en la región del Caribe de habla inglesa: problemas conceptuales y prácticos. Serie Gestión
Referencias pública 9. Santiago de Chile: Instituto Latinoamericano y del Caribe de Planificación Económica y Social – ILPES.
bibliográficas Cardoso Brum M. I. (2006). La evaluación de políticas y programas públicos. México: Editorial Miguel Ángel Purrúa.
Departamento Nacional de Planeación DNP. (2010). 15 años del Sistema Nacional de Evaluación de Gestión y Resultados – SINERGIA: una mira-
da desde la evaluación de las políticas públicas más relevantes. Bogotá: Serie 1. Evolución de SINERGIA y evaluaciones en administración
del Estado.
Departamento Nacional de Planeación DNP. (2012). Guía para la evaluación de políticas públicas. Bogotá: Serie de guías metodológicas SI-
NERGIA.
Gobierno de España. Ministerio de Política Territorial y Administración Pública. Agencia Estatal de Evaluación de las Políticas Públicas y la
Calidad de los Servicios Fundamentos de evaluación de políticas públicas. Disponible en: http://www.060.es
Guba G. E.; Lincoln S. Yvonna. (1989). Guidelines and checklist for constructivist (a.k.a. fourth generation) evaluation. Newbury Park, CA: Sage
Publications.
Hernández Sampieri; Fernández Collado C. (1998) Metodología de la investigación. Madrid: Mc Graw Hill.
House R, E. (1994). Evaluación ética y poder. España: Ediciones Morata.
House R, E.; Howe R. K. (2001). Valores en evaluación e investigación social. España: Ediciones Morata.
Izquierdo, A. (1999). Espacio-temporalidad y omnijetividad una aproximación epistemológica. Revista Nómadas (Col), núm. 11, octubre, 1999,
pp. 241-248. Bogotá, Colombia: Universidad Central.
Launay Gama C.; Pachón M. (Comp.). (2011). Políticas de evaluación de la Gobernanza en América Latina. Bogotá: Universidad de los Andes.
Luhmann, N.. (1998). Sistemas sociales. Lineamientos para una teoría general. Bogotá: Editorial Anthropos. Pontificia Universidad Javeriana.
Nohlen, D. (2008). Conceptos y contexto. En torno al desarrollo de la comparación en Ciencia Política. Universität Heidelberg. WP N.° 265. Barcelo-
na: Institut de Ciències Polítiques i Socials.
Norton, S.; Milat, A.; Edwards, B. & Giffin, M. Narrative review of strategies by organizations for building evaluation capacity. journal homepage:
40
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 40
40
Subdirección Académica
Organización de las Naciones Unidas. Reglamento y Reglamentación Detallada para la planificación de los programas, los aspectos de pro-
gramas del presupuesto, la supervisión de la ejecución y los métodos de evaluación. Boletín del Secretario General. Abril de 2000
3
Organización de las Naciones Unidas ONU. Comisión Económica Para América Latina y el Caribe CEPAL. Unidad de Planificación y Eva-
UNIDAD luación de Programas (UPEP), División de Planificación de Programas y Operaciones (DPPO). Política y estrategia de evaluación. Abril de
2014
DIDÁCTICA Organización de las Naciones Unidas ONU. Comisión Económica Para América Latina y el Caribe CEPAL. (2005). Instituto Latinoameri-
cano y del Caribe de Planificación Económica y Social (ILPES). Prieto Adriana, Pacheco Juan Francisco, Ortegón Edgar. Metodología del
marco lógico para la planificación, el seguimiento y la evaluación de proyectos y programas. Santiago de Chile
Referencias Osuna José Luis, Márquez, C. Guía para la evaluación de políticas públicas. Instituto de Desarrollo Regional. Fundación Universitaria. Sevilla.
Bibliográficas España. Publicada en medio magnético por el Centro Latinoamericano de Administración para el Desarrollo CLAD, en su página web,
visitada 21/04/2014.
Palumbo J, D. & Hallet A, M. Evaluation and Program Planning, Volume 16, Issue 1, January–March 1993, Pages 11-23
Pressman, L. J.; Aaron, W. (1984). Implementación, Cómo grandes expectativas concebidas en Washington se frustraron en Oakland. Capítulo IX
¿Qué debe significar la evaluación para la implementación? Browne Angela, Wildavsky Aaron. pp. 285 – 314. México.
Ragin C, C. (2007). La construcción de la investigación social. Introducción a los métodos y su diversidad. Biblioteca universitaria, ciencias sociales
y humanidades, colección derecho y sociedad. Bogotá: Universidad de los Andes.
Rein, M. & Rabinovits F, F. (2000). La implementación de las políticas públicas. Una perspectiva teórica. Luis F. Aguilar Villanueva Editor, tercera
edición. México.
Zamorano Farías, R. (2003). Diferenciación y desdiferenciación política en la modernidad y periferia de la sociedad moderna. Revista economía
sociedad y territorio, enero – junio vol. 4, número 13. México: Colegio Mexiquense. Toluca.
41
MAESTRÍA EN ADMINISTRACIÓN PÚBLICA 41
41