Tema 6
Aprendizaje Automático y Minería de Datos
Tema 6. Reglas de
clasificación
Índice
Esquema
Ideas clave
6.1. Introducción y objetivos
6.2. Medidas de evaluación de reglas
6.3. Introducción a la representación gráfica
6.4. Algoritmo de recubrimiento secuencial
6.5. Referencias bibliográficas
A fondo
PRISM: An algorithm
Prim’s Algorithm for MST
Test
Esquema
Aprendizaje Automático y Minería de Datos 3
Tema 6. Esquema
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
6.1. Introducción y objetivos
El principal objetivo de este tema es ser capaz de representar el conocimiento que
nos proporcionan los datos mediante un conjunto de reglas. Nos basaremos en los
resultados de un algoritmo para definir el conjunto de reglas, que serán
representadas a posteriori para una mejor comprensión de los resultados del
algoritmo utilizado.
Figura 1. Ejemplo de reglas de clasificación en Python. Fuente: https://es.stackoverflow.com/
Cuando hablamos de reglas de clasificación, debemos puntualizar a qué
corresponde exactamente el antecedente y el consecuente. El antecedente
corresponde a una serie de condiciones o comprobaciones de valores de atributos de
Aprendizaje Automático y Minería de Datos 4
Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
instancias, mientras que el consecuente nos proporciona el valor de la clase
predicho que se aplica cuando una instancia cumple todas las condiciones indicadas
en el antecedente.
A continuación, se presentan unos cuadros con posibles reglas para entender las
casuísticas más habituales.
S <antecedente>
Entonces <consecuente>
Notad que en muchos textos encontraréis el antecedente denominado
como la parte si o el lado izquierdo de la regla, mientras que el
consecuente se denomina frecuentemente parte no o lado derecho de la
regla.
Si ambiente es soleado
Entonces
jugar es verdadero
Si <antecedente 1>
y <antecedente 2>
y <antecedente 3>
Entonces <consecuente>
Se muestra a continuación otros ejemplos más concretos combinando diferentes
operadores.
Aprendizaje Automático y Minería de Datos 5
Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Si edad < 21
y ahorros < 2000
Entonces ‘riesgo de crédito’ es alto
También podemos determinar acciones (consecuentes) en función de las reglas que
se han definido previamente mediante un algoritmo.
Si atributo1=verdadero
y atributo2=falso
Entonces <consecuente 1>
Si atributo3=verdadero
y atributo4=verdadero
Entonces <consecuente 1>
Sino <consecuente2>
Las reglas son relativamente populares porque se puede añadir una nueva regla a un
conjunto de reglas sin afectar al resto de reglas. Por el contrario, una operación
similar en un árbol de decisión implicaría rehacer el árbol para recalibrar el algoritmo
en general. De cualquier manera, si el orden en que se ejecuta las reglas importa,
hay que incorporar las nuevas reglas de forma muy cuidadosa (Witten y Frank,
2005) ya que pueden desvirtuar el análisis.
Aprendizaje Automático y Minería de Datos 6
Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
6.2. Medidas de evaluación de reglas
Generalmente, se intenta buscar un conjunto de reglas de clasificación que
represente los datos lo mejor posible. Lo que buscamos es que, al aplicar las reglas
de clasificación en un nuevo conjunto de datos, estas reglas representen el resultado
correcto con la mayor frecuencia posible.
Por consenso, hay dos formas principales de evaluar las reglas:
▸ Confianza: es la probabilidad de que al existir un conjunto de eventos (A) suceda un
elemento (B). En general, pueden ser expresadas mediante reglas de probabilidad
condicional.
▸ Soporte: el cociente del número de ejemplos que cumplen un antecedente
(características) y consecuente de la regla entre el número total de ejemplos.
El siguiente ejemplo muestra un caso de aplicación práctica:
Aprendizaje Automático y Minería de Datos 7
Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Tabla 1.
Vamos a suponer que existe el siguiente conjunto de reglas:
▸ Regla 1: Si Ambiente=nublado; entonces jugar = sí.
▸ Regla 2: Si Humedad=normal y viento=falso; entonces jugar = sí.
▸ Regla 3: Si Ambiente=lluvioso y viento=verdadero; entonces jugar= no.
▸ Regla 4: S Temperatura=alta y viento=falso; entonces jugar= sí.
Habitualmente las técnicas de aprendizaje de reglas establecen valores mínimos de
confianza y soporte para considerar cuáles de las reglas aprendidas son relevantes.
Aprendizaje Automático y Minería de Datos 8
Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
6.3. Introducción a la representación gráfica
Cuando se genera un modelo predictivo o cualquier otra forma de representar la
información, uno de los factores más determinantes para el éxito de dicho método es
la posibilidad que los resultados sean representados de forma gráfica.
La representación gráfica simplemente es el resultado de plasmar las reglas de
clasificación, generalmente en un árbol, y que permite entender y extraer información
valiosa, ya que puede sintetizar un conjunto de reglas realmente complejas en un
simple diagrama.
Figura 2. Representación gráfica de las reglas de clasificación.
El ejemplo anterior representa los resultados del apartado previo y se observa que es
mucho más fácil entender los resultados en este caso.
En general, debemos usar la representación gráfica cuando tengamos que
«vender» o exponer los resultados, principalmente a una audiencia poco
especializada, que requiera entender en detalle los resultados para familiarizarse con
las reglas.
Aprendizaje Automático y Minería de Datos 9
Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
6.4. Algoritmo de recubrimiento secuencial
Los algoritmos de recubrimiento secuencial permiten crear un conjunto de reglas
de clasificación. Estos algoritmos presentan un conjunto de características muy
particulares:
▸ Aprenden una regla que cubre algunos ejemplos de una clase C.
▸ Eliminan los ejemplos cubiertos.
▸ Repiten los anteriores pasos hasta cubrir todos los ejemplos de la clase.
El algoritmo de recubrimiento secuencial se basa en el uso iterativo de un
procedimiento que seleccione una única regla de buena precisión, pero sin
necesidad de que cubra todos los ejemplos positivos.
Ejemplo 1.
PROCEDIMIENTO AprenderUnaRegla (Clase, Ejemplos, Atributos)
COMIENZO
Regla regla con antecedente A vacío y con consecuente Clase
MIENTRAS (regla cubre algún ejemplo negativo AND Atributos ≠
Ø)
COMIENZO
Restricciones {}
Para cada atributo A no utilizado en la regla
COMIENZO
Aprendizaje Automático y Minería de Datos 10
Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Para cada valor v de A
COMIENZO
Restricciones Restricciones + {A=v}
FIN
FIN
Restricción mejorRestriccion (Restricciones, regla)
Regla añadir restricción al antecedente
Atributos atributos – {atributo de Restricción}
FIN
Devolver Regla
FIN
La cobertura se define como el cociente entre el número de ejemplos
que cumplen el antecedente de la regla y el número de ejemplos total.
Se aprende una regla en cada iteración hasta alcanzar el conjunto final de reglas. Se
llaman algoritmos de recubrimiento secuencial porque, como su propio nombre
indica, en cada iteración generan una regla que cubre parte de los ejemplos de
una clase C y, en la siguiente iteración, generan otra regla que cubre a otra
partición de los ejemplos de la clase, que en la iteración anterior quedaron sin
cubrir. Por tanto, de una manera secuencial van generando las reglas con el fin de
cubrir a todos los ejemplos de una clase.
Aprendizaje Automático y Minería de Datos 11
Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
El algoritmo PRISM (Cendrowska, 1987) es uno de los algoritmos más simples de
recubrimiento secuencial. Utiliza los algoritmos básicos de recubrimiento secuencial y
de aprendizaje de una regla expuestos en las figuras 1 y 2, respectivamente.
Específicamente, el procedimiento mejorRestriccion utilizado en el algoritmo de
aprendizaje de una regla que emplea PRISM se basa en la medida de confianza,
también denominada precisión, tal y como se ha definido previamente, esto es, el
cociente entre el número de ejemplos que satisfacen antecedente y consecuente y el
número de ejemplos que satisfacen solo el antecedente.
En el apartado A fondo están disponibles los recursos titulados «PRISM: An
algorithm» y «Prim’s Algorithm for MST», donde puedes aprender más sobre
este tema.
Aprendizaje Automático y Minería de Datos 12
Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
Figura 3. Algoritmo de PRISM. Fuente: https://link.springer.com/article/10.1007/s41066-018-0097-2
Aprendizaje Automático y Minería de Datos 13
Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
Ideas clave
6.5. Referencias bibliográficas
Cendrowska, J. (1987). PRISM: An algorithm for inducing modular rules. International
Journal of Man-Machine Studies, 27 (4), 349-370.
Witten, I. H. y Frank, E. (2005). Data Mining. Morgan Kaufmann Publishers.
Aprendizaje Automático y Minería de Datos 14
Tema 6. Ideas clave
© Universidad Internacional de La Rioja (UNIR)
A fondo
PRISM: An algorithm
Cendrowska, J. (1987). PRISM: An algorithm for inducing modular rules. International
Journal of Man-Machine Studies, 27 (4), 349-370.
https://sci2s.ugr.es/keel/pdf/algorithm/articulo/1987-Cendrowska-IJMMS.pdf
Una lectura completa y detallada para entender el algoritmo de PRISM.
Aprendizaje Automático y Minería de Datos 15
Tema 6. A fondo
© Universidad Internacional de La Rioja (UNIR)
A fondo
Prim’s Algorithm for MST
Vídeo sobre el algoritmo de Prim con codificación. Especialmente indicado para tener
una visión general de cómo funciona este algoritmo.
Accede al vídeo:
https://www.youtube.com/embed/eB61LXLZVqs
Aprendizaje Automático y Minería de Datos 16
Tema 6. A fondo
© Universidad Internacional de La Rioja (UNIR)
Test
1. Si se desea generar un modelo tal que sirva para predecir si un paciente tiene
una enfermedad en función de unos determinados síntomas, las técnicas que se
pueden aplicar para resolver el problema son:
A. Árboles de decisión.
B. Algoritmo de recubrimiento secuencial.
C. Algoritmo PRISM.
D. Ninguna de las anteriores.
2. Indica cuáles de las siguientes afirmaciones son correctas:
A. No es posible mapear árboles de decisión a reglas de clasificación.
B. Los algoritmos de recubrimiento secuencial aprenden una regla en cada
iteración.
C. En cada iteración, el algoritmo de recubrimiento secuencial exige que la
regla cubra todos los ejemplos positivos.
D. ID3 es un algoritmo de recubrimiento secuencial.
3. Si se quiere conocer el porcentaje de ejemplos que cumplen el antecedente de
una regla respecto de los totales, se ha de aplicar la medida de:
A. Cobertura.
B. Soporte
C. Confianza.
D. Cubierta.
Aprendizaje Automático y Minería de Datos 17
Tema 6. Test
© Universidad Internacional de La Rioja (UNIR)
Test
4. Si se quiere conocer el porcentaje de ejemplos que cumplen antecedente y
consecuente de una regla respecto de todos los ejemplos que solo cumplen el
antecedente, se ha de aplicar la medida de:
A. Cobertura.
B. Soporte.
C. Confianza.
D. Cubierta.
5. Si se quiere conocer el porcentaje de ejemplos que una regla cubre respecto de
los totales, se ha de aplicar la medida de:
A. Cobertura.
B. Soporte.
C. Confianza.
D. Cubierta.
6. Si se quiere conocer el porcentaje de ejemplos que cumplen antecedente y
consecuente de una regla respecto del total de ejemplos, se ha de aplicar la medida
de:
A. Cobertura.
B. Soporte.
C. Confianza.
D. Cubierta.
Aprendizaje Automático y Minería de Datos 18
Tema 6. Test
© Universidad Internacional de La Rioja (UNIR)
Test
7. ¿Cuál de los siguientes algoritmos se puede emplear para el aprendizaje de
reglas de clasificación?
A. PRISM.
B. C4.5.
C. ID3.
D. Ninguno de los anteriores.
8. Indica cuáles de las siguientes afirmaciones son verdaderas:
A. Las reglas de clasificación predicen la clase.
B. El antecedente corresponde a la parte derecha de la regla.
C. Los árboles de clasificación son siempre más sencillos de interpretar que
las reglas.
D. Las reglas de clasificación se componen de dos partes: antecedente y
consecuente.
9. Indica cuál de las siguientes afirmaciones es correcta:
A. El procedimiento básico para aprender una regla utilizado en los algoritmos
de recubrimiento secuencial tiene como parámetro el conjunto de todas las
clases.
B. El procedimiento básico para aprender una regla utilizado en los algoritmos
de recubrimiento secuencial añade a la regla un único par atributo-valor en
cada iteración.
C. El procedimiento de recubrimiento secuencial devuelve una única regla.
D. El algoritmo de recubrimiento secuencial elimina los ejemplos cubiertos por
la regla generada en cada iteración.
Aprendizaje Automático y Minería de Datos 19
Tema 6. Test
© Universidad Internacional de La Rioja (UNIR)
Test
10. Indica si las siguientes afirmaciones son correctas respecto al algoritmo PRISM:
A. Es un algoritmo de recubrimiento secuencial.
B. Utiliza la medida de precisión o confianza para generar las reglas.
C. Parte de la regla más específica alcanzando la más general.
D. Es un algoritmo de generación de conjuntos de reglas.
Aprendizaje Automático y Minería de Datos 20
Tema 6. Test
© Universidad Internacional de La Rioja (UNIR)