Elo A Alano Damian: Curitiba Setembro 2011
Elo A Alano Damian: Curitiba Setembro 2011
CURITIBA
SETEMBRO 2011
ELOÁ ALANO DAMIAN
CURITIBA
SETEMBRO 2011
Termo de Aprovação
oJ
Prof. Dr. Volmir Eugênio Wilhelm
Universidade Federal do Paraná
ii
Agradecimentos
Aos meus pais, Airton e Enoê, por serem a razão de tudo o que sou hoje e por estarem
presentes com amor e paciência em todos os momentos da minha vida.
À minha irmã Alana, pelo carinho e força que me proporciona e por estar sempre
comigo em grandes momentos.
Ao meu namorado Ricardo, pelo companheirismo e amizade, por me ajudar nas horas
difı́ceis e por seu amor incondicional.
iii
Epı́grafe
iv
Sumário
Lista de Sı́mbolos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xv
Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .xviii
Abstract . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . xix
1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 Importância . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Limitações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
2 Conceitos Meteorológicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
v
2.3.3 Zmax - Refletividade Máxima . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.1.3 Dualidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.3.2 Dimensão VC . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
vi
3.4 O Hiperplano Ótimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4 K-means . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5 Metodologia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2.1 Normalização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.3 O software R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.3.1 SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.3.2 K-means . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6 Aplicação e Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.1 SVM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.2 K-means . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7 Conclusão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
Referências Bibliográficas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
vii
Lista de Figuras
Figura 2.1 (a) Ângulo de elevação da antena do radar (b) Ângulo azimute da antena do
radar (c) Distância do alvo em relação ao radar .......................... 6
viii
Figura 2.13 Produto Echo Top . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
Figura 2.16 Ilustração do raio convectivo e raio de fundo para um determinado pixel . . . 24
Figura 2.17 Relação entre a média de refletividade ao redor do ponto e o raio de alcance
convectivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
Figura 3.4 (a) Underfitting; (b) Hiperplano de separação mais adequado; (c) Overfitting 34
ix
Figura 3.10 Cálculo da distância d entre os hiperplanos H1 e H2 . . . . . . . . . . . . . . . . . . . . . . 43
Figura 6.9 Resultados obtidos pelo método SVM e comparação com a técnica de Steiner
et al., para conjunto de dados 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
x
Figura 6.10 Resultados obtidos pelo método SVM e comparação com a técnica de Steiner
et al., para conjunto de dados 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Figura 6.11 Resultados obtidos pelo método SVM e comparação com a técnica de Steiner
et al., para conjunto de dados 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
Figura 6.12 Resultados obtidos pelo método SVM e comparação com a técnica de Steiner
et al., para conjunto de dados 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Figura 6.13 Resultados obtidos pelo método SVM e comparação com a técnica de Steiner
et al., para conjunto de dados 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
Figura 6.14 Resultados obtidos pelo método SVM e comparação com a técnica de Steiner
et al., para conjunto de dados 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Figura 6.15 Resultados obtidos pelo método SVM e comparação com a técnica de Steiner
et al., para conjunto de dados 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Figura 6.16 Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Figura 6.17 Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Figura 6.18 Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Figura 6.19 Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Figura 6.20 Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
xi
et al. para conjunto de dados 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Figura 6.21 Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
Figura 6.22 Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
Figura 6.23 Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
Figura 6.24 Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
Figura 6.25 Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
Figura 6.26 Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
Figura 6.27 Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Figura 6.28 Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Figura 6.29 Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
xii
Lista de Tabelas
Tabela 6.2 Tempo de execução e número de vetores suporte para cada kernel estabele-
cido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Tabela 6.3 Índices de acerto do método SVM para cada conjunto de dados . . . . . . . . . . . 66
Tabela 6.4 Índices de acerto do método SVM para conjuntos de treinamento e de teste . 70
Tabela 6.5 Índices de melhoria para conjunto de treinamento, conjunto de teste e conjunto
total de dados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
Tabela 6.6 Índice de semelhança entre os dados classificados por especialista e métodos
Steiner et al., SVM e K-means . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
xiii
Lista de Siglas
AM Aprendizado de Máquina
IA Inteligência Artificial
KKT Karush-Kuhn-Tucker
V IL VIL Density
VS Vetores Suporte
xiv
Lista de Sı́mbolos
k. k Norma
b Bias
c Velocidade da luz
cr Constante do radar
Ci Cluster i
f Frequência
xv
indicest Índice de acerto do método de Steiner et al. (1995)
M+ Margem positiva
M− Margem negativa
R Taxa de precipitação
ℜn Espaço de dimensão n
Vr Velocidade radial
xi Vetor de caracterı́sticas
w Vetor de pesos
W Largura espectral
Z Refletividade
xvi
βj Multiplicador de Lagrange associado à restrição de igualdade
θ Ângulo de elevação
λ Comprimento de onda
ρ Margem de separação
φ Ângulo azimute
Ω Subespaço em ℜn
xvii
Resumo
A influência da chuva nas diversas áreas da atividade humana torna indispensável o seu moni-
toramento. A maioria das precipitações pode ser classificada em dois grupos: sistemas convec-
tivos e estratiformes. Os sistemas estratiformes são caracterizados por chuvas leves e moderadas
e grande área de cobertura. Já os convectivos estão associados com altas taxas de precipitação.
Devido às acentuadas diferenças que existem entre os dois sistemas, ser capaz de classificá-
los contribui para a melhora da estimativa de precipitação. Além disso, a classificação torna
possı́vel também a identificação, previsão e acompanhamento de tempestades severas (sistemas
convectivos), resultados que podem ainda ser utilizados nos alertas de temporais, enchentes e
inundações, com aplicações diretas em diversas áreas da atividade humana (energia, agricul-
tura, turismo, defesa civil, entre outros). Tudo isso justifica a necessidade de um critério para
separar e classificar os diferentes tipos de chuva que podem ocorrer na região de abrangência do
radar. O objetivo deste trabalho é classificar os sistemas meteorológicos em convectivo ou estra-
tiforme, de acordo com as caracterı́sticas peculiares a cada evento. Para tanto, duas técnicas são
aplicadas. A primeira é um método de reconhecimento de padrões, o chamado Support Vector
Machine (SVM), técnica que, a partir de dados previamente classificados, cria um hiperplano
separador entre as classes, através do qual novos dados podem ser classificados. Assumindo
como padrão imagens de radar classificadas por especialista, os resultados obtidos pelo método
apresentam um maior ı́ndice de acerto, quando comparados com as soluções obtidas por uma
técnica de separação da chuva já existente. O segundo método abordado é uma técnica de
análise de agrupamentos, o K-means, que classifica um conjunto de dados em um determinado
número de grupos, baseado na similaridade ou dissimilaridade entre os dados. Em relação à
classificação feita pelo especialista, o SVM apresenta melhores resultados. Porém, o K-means
mostra resultados melhores quando a comparação é feita com a técnica de classificação já exis-
tente na literatura. Além disso, o K-means mostrou-se mais eficiente com relação a tempo de
execução, e possui a vantagem de não necessitar de dados previamente classificados, já que a
classificação, neste caso, é muito subjetiva. Quando a comparação é feita entre as duas técnicas
propostas, observa-se que mais de 85% dos dados obtiveram a mesma classificação.
xviii
Abstract
The influence of rainfall in several areas of human activity makes indispensable its monitoring.
Most precipitation events can be classified in two groups: convective and stratiform systems.
Stratiform systems are characterized by light and moderate rain and a large coverage area.
Convective rain is associated to high rainfall rate. Due to differences which exist between the
two systems, being capable of classification contributes to the improvement on precipitation
estimation. Moreover, classification also allows for identification, forecasting and tracking of
severe storms (convective systems), results that can yet be used on alerts for thunderstorms,
increasing streamflow and flooding, with direct application to several areas of human activity
(energy, agriculture, tourism, civil defense, among others). All these justify the needs for a
criteria for classification and separation of different types of rain that may occur within weather
radar coverage area. The objective of this work is to classify convective and stratiform me-
teorological systems, in accordance with the peculiar characteristics to each event. For that,
two techniques were applied. The first one is a pattern recognition method called Support
Vector Machine (SVM), a technique that, from previously classified data, creates a hyperplane
separating between classes, through which new data can be recognized. Assuming radar images
classified by a specialist, the results obtained with this method presented a better hit index, when
compared with the results from a previous technique for rainfall separation. The second method
evaluated is a cluster analysis, K-means, which classifies a data set in a number of determined
groups or clusters, based on similarities or dissimilarities between the data. In relation to the
classification made by the specialist, SVM presents better results. However, K-means showed
better results when compared to a technique already existent in the literature. Moreover, K-
means revealed more efficient with regard to execution time, and had the advantage of no need
of data previously classified, since classification in this case is very subjective. When the com-
parison is made between the two proposed techniques, it was observed that more than 85% of
the data got the same classification.
Key-words: Pattern Recognition; Support Vector Machine; Cluster Analysis; K-means; Mete-
orology; Meteorological Classification; Weather Radar.
xix
1
1 Introdução
A influência da precipitação nas diversas áreas da atividade humana faz com que seu
monitoramento seja uma tarefa indispensável. Entretanto, devido à grande aleatoriedade e vari-
abilidade espacial e temporal dessa variável, torna-se difı́cil a sua identificação e quantificação.
Para monitorar a precipitação, os principais instrumentos são: os pluviômetros, os pluviógrafos,
os radares e os sensores que operam a bordo de satélites (MOL, 2005).
A maioria das precipitações pode ser classificada em dois grupos: sistemas convec-
tivos e estratiformes. Sistemas convectivos estão associados com fortes campos verticais de
vento e altas taxas pluviométricas; enquanto nos sistemas estratiformes predomina extensa
área de cobertura, baixas velocidades verticais de vento, homogeneidade horizontal e taxas
de precipitação menores (ANAGNOSTOU; KUMMEROW, 1997). Devido às diferenças exis-
tentes entre os dois sistemas, ser capaz de classificá-los contribui para a melhora da estimativa
de precipitação obtida através dos dados medidos por sensores remotos tanto em terra quanto
no espaço (SIMPSON; ADLER; NORTH, 1988).
Neste estudo, são apresentadas duas metodologias para classificação das precipitações
em dois grupos: estratiforme ou convectivo, com base em dados de radar.
1.1 Importância
1.2 Objetivos
• aplicar as duas metodologias propostas utilizando dados reais obtidos por radar meteo-
rológico;
• analisar os resultados obtidos por ambas as técnicas, comparando-os entre elas e também
com alguma técnica de classificação de chuva já existente.
1.3 Limitações
2 Conceitos Meteorológicos
Este capı́tulo apresenta alguns fundamentos básicos sobre o radar aplicado à Meteo-
rologia.
em bandas. A Tabela 2.1 lista as bandas do espectro eletromagnético que comumente são uti-
lizadas pelos radares, com suas respectivas frequências e comprimentos de onda (RINEHART,
2004).
Figura 2.1: (a) Ângulo de elevação da antena do radar (b) Ângulo azimute da antena do radar
(c) Distância do alvo em relação ao radar
Devido à abertura do feixe (beam width), o feixe apresenta uma forma cônica e quanto
maior a distância do radar, maior é o volume analisado, como pode ser observado na Figura 2.3.
200
elevações, seu volume será composto por 1008000 360 × 0,5 × 7 medições.
Formas de Coletas
As variáveis coletadas pelo radar meteorológico em estudo são: refletividade (Z), ve-
locidade radial (Vr ) e largura espectral (W ).
Refletividade (Z)
z = cr r2 pr , (2.3)
onde r é a distância do radar ao alvo, e cr é chamado de constante do radar, que agrupa uma série
de caracterı́sticas do radar, como comprimento de onda, forma e largura do feixe, comprimento
do pulso, potência transmitida, ganho da antena, entre outros.
vermelhas para representar valores elevados (regiões convectivas) e tonalidades azuis e verdes
para valores intermediários e baixos (estratiformes).
A Figura 2.6 mostra uma imagem da variável refletividade, com escala em dBz.
Para isso, é utilizado o efeito Doppler, deduzido por Christian J. Doppler em 1842, e
segundo o qual, a mudança na frequência causada por fontes móveis é diretamente proporcional
à velocidade da fonte.
Largura Espectral (W )
Uma outra variável medida pelo radar meteorológico é a largura espectral (W ), que é
o desvio padrão das medidas obtidas em cada bin e, meteorologicamente, indica a turbulência
nesse volume conforme a variância dos alvos presentes. A variável é expressa em m/s e pode
ser visualizada na Figura 2.8.
12
Devido às caracterı́sticas fı́sicas do radar, os dados por ele coletados encontram-se em
um sistema de coordenadas esféricas (r, φ , θ ), onde r é a distância do alvo em relação ao radar,
φ é o ângulo de azimute em relação ao Norte Geográfico e θ é o ângulo de elevação em relação
ao horizonte.
A técnica consiste em, primeiramente, criar uma grade cartesiana, que irá conter os
dados interpolados. Esse esquema simplesmente preenche as células da grade cartesiana de-
signando o valor do bin mais próximo a essa célula, sendo a distância avaliada usando-se a
localização do centro do bin (ZHANG; HOWARD; GOURLEY, 2005).
Vale lembrar que quanto maior a distância do bin ao radar, maior é o número de pontos
de grade “iluminados” pelo mesmo.
O cálculo do CAPPI é feito através da interpolação dos dados nos pontos superior e
inferior mais próximo do ponto selecionado, como mostrado na Figura 2.11.
15
Portanto, para gerar o CAPPI são necessárias ao menos duas varreduras com elevações
diferentes. Para pontos distantes do radar, o intervalo entre os feixes é grande e o valor interpo-
lado pode não representar adequadamente a variável no nı́vel escolhido.
A integração é feita desde o ângulo elevacional mais baixo até o mais alto de toda a
água lı́quida convertida a partir da refletividade Z pela relação Z-R para cada ponto de grade.
O VIL Density é simplesmente o VIL (Kg/m2 ) dividido pelo Echo Top (m). O quo-
ciente é multiplicado por 1000 fornecer a unidade g/m3 :
V IL
V ILD = × 1000. (2.7)
EchoTop
Quando o VIL é “normalizado” pelo Echo Top , o VILD resultante pode ser usado para
identificar tempestades com alta refletividade em relação à sua altura. As tempestades intensas
muitas vezes contêm núcleos de granizo. À medida que o valor do VILD aumenta, os núcleos
de granizo tendem a ser mais profundos, intensos e maiores (AMBURN; WOLF, 1997).
2.4 Definições
Quando uma camada de água no estado lı́quido se forma em uma partı́cula de gelo
em processo de derretimento, sua refletividade pode aumentar em até 6.5dBz. A refletividade
diminui abaixo do nı́vel de derretimento, porque quando o gelo converte-se em gotı́culas, o
número de partı́culas por unidade de volume diminui.
A parte indicada por flecha nos PVR’s estratiformes representam presença de banda
brilhante.
Da mesma forma que o radar não mede a velocidade radial diretamente, e sim a par-
tir da diferença de fase entre o sinal emitido e refletido, ele também não é capaz de medir
a precipitação (R). Esta é calculada a partir da intensidade do sinal que foi refletido pelos
hidrometeoros (Z) presentes na atmosfera utilizando-se da relação Z-R, que se encarrega de
transformar refletividade em precipitação. Uma relação empı́rica pode ser obtida plotando-se
gráficos de taxa de precipitação que chega no solo contra a refletividade calculada pelo radar
21
Z = a Rb , (2.8)
Estes coeficientes são próximos aos encontrados para as chuvas convectivas em outras
regiões da terra.
Como pode ser observado na seção anterior, para cada tipo (ou classe) de precipitação,
pode-se determinar uma relação Z-R. Este fato justifica a necessidade de um critério para sepa-
rar e classificar os diferentes eventos meteorológicos que podem ocorrer na região onde o radar
está instalado, em termos de precipitação convectiva ou estratiforme. Com a separação, crê-se
que é possı́vel alcançar resultados mais precisos na estimativa de precipitação com dados de
radar, resultados esses que poderiam ser utilizados pela Defesa Civil no alerta de enchentes e
em modelos hidrológicos, para citar algumas aplicações. Nesta seção, são apresentadas algu-
mas das principais tentativas já feitas para a classificação de eventos de precipitação a partir de
dados de radar e os resultados por elas alcançados.
Sistemas convectivos estão associados com fortes campos verticais de vento e altas
taxas pluviométricas, enquanto nos sistemas estratiformes predomina extensa área coberta,
22
Steiner et al. (STEINER; HOUZE; YUTER, 1995) fizeram uma revisão das principais
técnicas de separação desenvolvidas até então e uma nova proposta foi apresentada. Partindo
da técnica elaborada por Churchill e Houze (CHURCHILL; HOUZE, 1984), que consistia em
identificar um núcleo convectivo, a partir do qual todos os pontos dentro de uma distância fixa
receberiam a mesma classificação, foi argumentado que um raio fixo como o proposto não era
suficiente para uma correta identificação. A sugestão foi que um raio variável em função da
média da intensidade do núcleo fosse adotado. Suas principais conclusões foram:
Mais um aperfeiçoamento de Steiner et al. (1995) foi proposto, dessa vez por Big-
gerstaff e Listemaa (BIGGERSTAFF; LISTEMAA, 2000). Fazendo uma análise criteriosa do
algoritmo de Steiner et al. quando aplicado em três situações (linha de instabilidade, extensas
áreas estratiformes com centros convectivos e apenas precipitações convectivas espalhadas),
concluiu-se que existem duas causas principais de erros: áreas de intensa precipitação estrati-
forme sendo classificadas como convectiva e bordas de convectivas sendo classificadas como
estratiformes. Para corrigir o problema, um algoritmo que utiliza como entrada dados já clas-
sificados pela técnica de Steiner et al. foi desenvolvido. Além desses dados, o algoritmo
23
A metodologia proposta por Steiner et al. (1995), que serviu de base para outras
técnicas aperfeiçoadas, é descrita a seguir.
Para utilização da técnica, os dados de refletividade coletados pelo radar são trans-
formados em coordenadas cartesianas e, para cada ponto de grade, é feita a classificação em
estratiforme ou convectiva, da seguinte maneira:
z f undo
(
10 − 180 , se 0 ≤ z f undo < 42.43
∆z = (2.13)
0, se z f undo ≥ 42.43 ;
4. Para cada centro convectivo encontrado, pontos ao redor deste também são considerados
chuva convectiva. São os pontos limitados por uma circunferência de raio definido de
acordo com o z f undo encontrado anteriormente, da seguinte forma:
1km, se z f undo ≤ 25
2km, se 25 < z f undo ≤ 30
R= 3km, se 30 < z f undo ≤ 35 (2.14)
4km, se 35 < z f undo ≤ 40
5km, se z f undo > 40 .
24
Figura 2.16: Ilustração do raio convectivo e raio de fundo para um determinado pixel
Figura 2.17: Relação entre a média de refletividade ao redor do ponto e o raio de alcance
convectivo
Assim, através dos núcleos convectivos e raio de alcance da circunferência que classi-
fica os pontos ao redor desses núcleos, todos os pontos de chuva convectiva são encontrados.
Os demais pontos são identificados como estratiformes.
26
Minimizar f (x), x ∈ Ω ⊆ ℜn
Sujeito a: gi (x) ≤ 0, i = 1, . . . , k (3.1)
h j (x) = 0, j = 1, . . . , m
onde
f : Ω ⊆ ℜn → ℜ é a função objetivo;
gi : Ω ⊆ ℜn → ℜ, i = 1, . . . , k ; h j : Ω ⊆ ℜn → ℜ, j = 1, . . . , m são as restrições.
A solução do problema será o ponto x∗ ∈ F tal que f (x∗ ) < f (x) para todo ponto
x ∈ F. Este ponto é chamado de mı́nimo global. Se ∃ ε > 0 tal que f (x) ≥ f (x∗ ), ∀x ∈ Ω com
kx − x∗ k < ε, então o ponto x∗ é chamado de mı́nimo local.
(a) (b)
Fonte: A autora (2011)
∂ f (x∗ )
= 0. (3.2)
∂x
Essa condição, juntamente com a de convexidade de f , é também uma condição suficiente.
Definição 4 (Função Lagrangeana). Seja um problema de otimização com função objetivo f (x)
e restrições de igualdade h j (x) = 0, j = 1, . . . , m, define-se a função Lagrangeana como:
m
L(x, β ) = f (x) + ∑ β j h j (x), (3.3)
j=1
Teorema 3 (Lagrange). A condição necessária para o ponto x∗ ser um mı́nimo de f (x), sujeito
a h j (x) = 0, j = 1, . . . , m com f , h j ∈ C1 , j = 1, . . . , m é
∂L ∗ ∗
(x , β ) = 0; (3.4)
∂x
30
∂L ∗ ∗
(x , β ) = 0. (3.5)
∂β
3.1.3 Dualidade
Maximizar θ (α, β )
(3.7)
Sujeito a: α(x) ≥ 0
Teorema 4 (Teorema Fraco da Dualidade). Seja x ∈ Ω uma solução viável do problema primal
(Definição 1), e seja (α, β ) uma solução viável do problema dual (Definição 6). Então:
f (x) ≥ θ (α, β ).
Este teorema afirma que o valor da solução dual é limitada superiormente pelo valor
da solução primal.
31
∂L ∗ ∗ ∗
(x , α , β ) = 0;
∂x
∂L ∗ ∗ ∗
(x , α , β ) = 0;
∂β
αi ∗ gi (x∗ ) = 0, i = 1, . . . , k;
gi (x∗ ) ≤ 0, i = 1, . . . , k;
αi ∗ ≥ 0, i = 1, . . . , k.
Para classificar padrões existem vários métodos como: Redes Neurais Artificiais, Al-
goritmos Genéticos, Análise Multivariada, Support Vector Machine (SVM), entre outros.
Figura 3.4: (a) Underfitting; (b) Hiperplano de separação mais adequado; (c) Overfitting
Para tal, é necessário definir uma função de risco que meça o erro médio ou o risco
associado com o estimador e, então, encontrar o estimador com menor risco.
Uma relação entre a saı́da desejada yi com a previsão f (xi ) pode ser feita através da
função custo, ou função erro. Uma função custo comumente empregada em problemas de
classificação binária (onde a saı́da é ±1) é:
1
c( f (x), y) = | f (x) − y|. (3.8)
2
Uma escolha particular da função f resulta em uma máquina treinada. O risco espe-
rado para o erro de teste é, então:
Z
R( f ) = c( f (x), y) dP(x, y). (3.9)
1 N
Remp ( f ) = ∑ c( f (x), y). (3.10)
N i=1
Este princı́pio baseia-se na intuição de que, pela lei dos grandes números, o risco
36
3.3.2 Dimensão VC
Assim, pela Equação 3.12, tem-se que, para minimizar o risco esperado, é preciso
associar a minimização do risco empı́rico com a minimização do termo de capacidade. Este
último será pequeno quando a razão entre a dimensão VC e o número de amostras for pequeno.
A Figura 3.6 ilustra alguns conceitos da minimização do risco estrutural. Seja subcon-
juntos Fi de possı́veis funções para a escolha de um classificador, de maneira que F0 ⊂ F1 ⊂
. . . ⊂ Fq ⊂ F. Como cada conjunto Fi é maior com o crescimento do ı́ndice i, a capacidade
do conjunto de funções que ele representa também é maior, ou seja, h0 < h1 < ... < hq < h.
Para um subconjunto particular Fk , seja fk ⊂ Fk o classificador com menor risco empı́rico. A
39
medida que k cresce, o risco empı́rico de fk diminui, uma vez que a complexidade do conjunto
de classificadores é maior. Porém, o termo de capacidade aumenta com k. Como resultado,
deve haver um valor ótimo k∗ em que se obtém uma soma mı́nima do risco empı́rico e do termo
de capacidade, minimizando assim o limite sobre o risco esperado. A escolha da função fk∗
constitui o Princı́pio da Minimização do Risco Estrutural (LORENA; CARVALHO, 2007).
yi (wT xi + b) ≥ 1, ∀ i = 1, . . . , n. (3.15)
Assim, no caso representado na Figura 3.7, todas as amostras são classificadas corre-
tamente, pois não há nenhum padrão entre as duas margens de separação.
41
A Figura 3.8 ilustra alguns conceitos definidos para a técnica SVM. A distância en-
tre o hiperplano de separação f (x) e o padrão mais próximo a este é denominada margem de
separação, denominada por ρ. Sempre que for possı́vel obter um ρ > 0, existirão infinitos
hiperplanos (ilustrado na Figura 3.9), dentre os quais busca-se um hiperplano em particular, em
que a margem de separação ρ é maximizada. De acordo com esta condição, a superfı́cie de
decisão é dita ser o hiperplano ótimo e a técnica de aprendizado de máquina utilizada para a
obtenção deste hiperplano é denominada Support Vector Machine (SEMOLINI, 2002).
A Figura 3.10 ilustra dois conjuntos de padrões separados pelo hiperplano ótimo. As
margens deste hiperplano são H1 : wT x+b = +1 e H2 : wT x+b = −1. O vetor w é perpendicular
às margens. Sendo x1 ∈ H1 e x2 ∈ H2 , projetando x1 − x2 em w, pode-se obter a distância entre
as margens. Essa projeção é dada por:
w (x1 − x2 )
(x1 − x2 ) . (3.16)
kwk kx1 − x2 k
1
Minimizar kwk2
2 (3.19)
Sujeito a: yi (wT xi + b) ≥ 1, ∀i = 1, . . . , n
n
∂L
(w, b, α) = w − ∑ yi αi xi = 0;
∂w i=1
(3.21)
n
∂L
(w, b, α) = ∑ yiαi = 0.
∂b i=1
e
n
∑ yiαi = 0 (3.23)
i=1
na função Lagrangeana 3.20, obtém-se:
n n n
1
L(w, b, α) = ∑ yi y j αi α j (xi T x j ) − ∑ yi y j αi α j (xi T x j ) + ∑ αi
2 i, j=1 i, j=1 i=1
(3.24)
n n
1
= ∑ αi − ∑ yi y j αi α j (xi T x j ).
i=1 2 i, j=1
n (3.25)
Sujeito a: ∑ yiαi = 0
i=1
αi ≥ 0 ∀i = 1, . . . , n
onde αi são os multiplicadores de Lagrange.
45
Para o caso de classes não linearmente separáveis, não é possı́vel construir um hiper-
plano separador sem encontrar erros de classificação. Todavia, é possı́vel encontrar um hiper-
plano que minimiza a probabilidade de erro de classificação junto às amostras de treinamento
(SEMOLINI, 2002).
Para tal, são utilizadas variáveis de folga ξi ≥ 0 associadas a cada vetor de treinamento
xi . Assim, a restrição 3.15 fica da forma:
yi (wT xi + b) ≥ 1 + ξi , ∀ i = 1, . . . , n. (3.26)
Pontos classificados fora das margens de separação têm ξ = 0. Quando um ponto está
localizado entre a margem de separação de sua classe e o hiperplano separador, ou seja, ainda
do lado correto, tem-se que 0 < ξi ≤ 1. Caso o ponto esteja localizado no lado incorreto do
hiperplano separador, tem-se que ξi > 1.
Assim, para encontrar o hiperplano ótimo com margens flexı́veis formula-se o seguinte
46
n (3.28)
Sujeito a: ∑ yiαi = 0
i=1
0 ≤ αi ≤ C ∀i = 1, . . . , n
onde αi são os multiplicadores de Lagrange e C é o parâmetro que limita o valor dos multipli-
cadores de Lagrange no treinamento SVM.
Isso implica que os αi ∗ não zeros estão na margem funcional, chamados de vetores
suporte, e os demais são nulos (CRISTIANINI; SHAWE-TAYLOR, 2000).
hiperplano ótimo separador é construı́do (VAPNIK, 1995), como pode ser observado na Figura
3.12.
Na prática, este mapeamento é feito para um espaço de dimensão muito maior do que
a original (SEMOLINI, 2002).
Definição 8 (Função Kernel). Uma função kernel K é tal que, para todo xi , x j ∈ X tem-se:
onde φ : X 7−→ Z é uma função não linear do espaço original X no espaço final Z onde está
definido um produto interno.
Para que uma função K seja denominada kernel , esta deve satisfazer as seguintes
propriedades:
1. Ser simétrica:
ou seja,
n
1 n
∑ αi − 2 i,∑
αi α j yi y j K(xi , x j ). (3.32)
i=1 j=1
Assim, pela equação 3.32, pode-se observar que a função kernel pode ser utilizada
para construir o hiperplano ótimo no espaço caracterı́stico sem ter que considerar este espaço
de forma explı́cita.
Teorema 8 (Mercer). Seja K(x, x0 ) uma função kernel contı́nua e simétrica definida na região
fechada [a, b] × [a, b]. A função kernel K(x, x0 ) pode ser expandida em uma série:
∞
K(x, x0 ) = ∑ λi φi (x) · φi (x0 )
i=1
com coeficientes λi > 0. Para esta expansão ser válida e convergir absolutamente e uniforme-
49
4 K-means
A análise de agrupamentos tem como objetivo agrupar objetos de acordo com suas
caracterı́sticas. A técnica reúne os dados em grupos, de forma que objetos de um mesmo grupo
possuem maior similaridade uns com os outros do que com objetos de outros grupos. Em outras
palavras, busca-se obter uma grande homogeneidade interna (entre elementos do mesmo grupo)
e grande heterogeneidade externa (entre os grupos).
Ci ∩C j = Ø, para 1 ≤ i, j ≤ k e i 6= j. (4.3)
1. Medição de similaridade.
2. Formação de agrupamentos.
Com medidas de similaridade já calculadas, o próximo passo é a formação dos agrupa-
mentos com base na medida de similaridade de cada par de observações.
Ainda segundo Hair et al. (2009), os algoritmos de agrupamento podem ser classifica-
dos como hierárquico ou não-hierárquico:
52
O processo pode ser do tipo aglomerativo, no qual cada objeto ou observação começa
com seu próprio agrupamento, e reúne-se os dois agrupamentos mais parecidos até que
todas as observações estejam contidas em um único agrupamento; ou divisivo, no qual
todas as observações iniciam em um único agrupamento e são sucessivamente divididas
até que cada observação seja um agrupamento unitário.
2. Designação.
53
É importante salientar que todas as variáveis devem ter a mesma ordem de grandeza
para o cálculo da distância. Assim, é necessário normalizar os dados.
A Figura 4.2 ilustra a aplicação do algoritmo K-means para agrupamento dos dados
em dois grupos. O conjunto de dados está representado em (a) pelos pontos em verde, e os dois
centros iniciais, escolhidos aleatoriamente, são representados pelos pontos azul e vermelho,
marcados em x. Em (b) cada um dos dados é associado ao seu centro mais próximo, formando-
se assim dois grupos distintos, um em vermelho, e outro em azul. Os novos centros dos clusters
são recalculados em (c), através da média dos pontos pertencentes a cada grupo. O processo se
54
repete até que haja convergência do método, quando não há mais mudança (ou há mı́nima) nos
centros dos clusters.
5 Metodologia
O sistemas de aquisição dos dados está configurado de forma a permitir uma avaliação
de alta resolução espacial e temporal das informações de precipitação e vento (BENETI; NOZU;
SARAIVA, 1998).
A Tabela 5.1 mostra a data e hora de cada um dos conjuntos de dados (imagens de
radar) utilizados no trabalho.
logista, que fez a especificação do que representa chuva convectiva e o que representa chuva
estratiforme. Essa classificação foi feita através de análise de imagens de radar anteriores e
posteriores ao horário. Os dados classificados como chuva convectiva foram identificados na
própria imagem. Dessa forma, uma leitura posterior dessa imagem permitiu localizar os pixels
marcados, e estes receberam classificação convectiva. Os dados de chuva não marcados pelo
especialista, receberam, assim, classificação estratiforme.
As variáveis escolhidas para representar cada pixel de chuva estão associadas a carac-
terı́sticas do perfil vertical neste ponto. Assim, cada vetor xi é formado pelas seguintes variáveis,
detalhadas no Capı́tulo 2:
1. Z (refletividade):
Valor da variável refletividade no pixel analisado, em dBz. Quanto maior a refletividade,
maior a quantidade de gotas de chuva, ou maior o diâmetro das gotas, e, portanto, maior
a precipitação.
No entanto, o radar não detecta apenas chuva, o que pode interferir no processo.
7. IceSlope:
Representa a variação dos valores de refletividade acima da isoterma de zero grau. Como
pode ser observado nos perfis verticais representativos de chuva estratiforme e de chuva
convectiva (Seção 2.4.3), uma maior variação da refletividade no topo da nuvem é um
indicativo de chuva convectiva.
8. V IL:
Como esta variável representa a integração vertical de toda água lı́quida, valores maiores
estão relacionados a maior quantidade de precipitação, ou seja, precipitação convectiva.
9. EchoTop:
Indica a altura do topo da nuvem. Nuvens de chuva convectiva geralmente possuem maior
extensão vertical.
10. V ILD:
Como comentado anteriormente, o VILD pode ser usado para identificar tempestades com
alta refletividade em relação à sua altura (ou seja, chuva convectiva).
5.2.1 Normalização
5.3 O software R
5.3.1 SVM
As entradas para e função svm() são os dados de treinamento, definidos por uma ma-
triz de dados X e um correspondente vetor de respostas y, e uma função kernel , com seus
respectivos parâmetros. Assim, a chamada da função dá-se da forma:
onde:
• X é a matriz com os dados de treinamento já normalizados, na qual cada linha representa
uma amostra e cada coluna, uma variável definida na Seção 5.2.
• type determina se o svm será usado para classificação (C) ou regressão (R).
• kernel é a função kernel escolhida para realizar o mapeamento. Cada uma delas possui
parâmetros livres que precisam ser definidos pelo usuário. A Tabela 5.2 especifica as
possı́veis funções kernel e seus respectivos parâmetros de entrada:
60
A seguir, é exemplificada a chamada da função svm() para cada uma das possı́veis
funções kernel .
1. Linear:
svm(X, y, type =0 C0 , kernel =0 linear0 , cost = ).
2. Radial (Gaussiana):
3. Sigmoidal:
4. Polinomial:
degree = , cost = ).
A função retorna um objeto da classe SVM (SV Mclass ) que contém o modelo ajustado.
Novas amostras podem ser classificadas de acordo com esse modelo através da função predict().
A chamada dessa função é feita da seguinte forma:
onde SV Mclass é o objeto da classe SVM obtido pela função svm() e N é uma matriz com os
novos dados a serem classificados.
5.3.2 K-means
Esta função retorna um objeto da classe kmeans, que é uma lista com os seguintes
componentes:
• cluster: Um vetor de inteiros indicando o cluster para qual cada ponto é atribuı́do;
• withinss: A soma dos quadrados das distâncias internas para cada cluster;
6 Aplicação e Resultados
6.1 SVM
O número de vetores suporte (VS) não é definido, pois depende da dimensão do espaço
onde ocorre a separação linear dos dados, ou seja, o espaço caracterı́stico. Não se tem conhe-
cimento da dimensão que a função kernel gera neste espaço, sendo impossı́vel determinar o
número mı́nimo de vetores suporte para o reconhecimento de padrões. Caso a maioria das
amostras seja vetor suporte, os dados estão classificados exageradamente, ocorrendo overfitting.
Portanto, quanto menor o número de vetores suporte, melhor é a generalização na classificação
(ALES, 2008).
Dessa forma, diversos treinamentos foram realizados, com diferentes funções kernel
e variação em seus parâmetros, bem como na variável C, com o objetivo de encontrar uma
configuração que melhor se adapte ao problema. Algumas das configurações de parâmetros
testadas são apresentadas na Tabela 6.1, totalizando 25 configurações diferentes. Cada uma
delas é representada por uma sigla, para posterior análise dos resultados.
63
Tabela 6.2: Tempo de execução e número de vetores suporte para cada kernel estabelecido
Sigla Tempo (minutos) Número VS Porcentagem VS
L1 14 35881 35,50%
L2 11 35140 34,77%
L3 16 35009 34,64%
L4 48 34995 34,63%
L5 317 34996 34,63%
R1 39 34879 34,51%
R2 31 31150 30,82%
R3 30 29100 28,79%
R4 30 29100 28,79%
R5 35 34087 33,73%
R6 41 38296 37,89%
S1 40 27705 27,41%
S2 54 60116 59,48%
S3 45 27672 27,38%
S4 46 53708 53,14%
S5 39 27696 27,40%
S6 40 27672 27,38%
P1 29 29922 29,61%
P2 166 28950 28,65%
P3 18 30780 30,46%
P4 45 30276 29,96%
P5 128 29492 29,18%
P6 1139 27955 27,66%
P7 26 37371 36,98%
P8 21 39511 39,10%
Fonte: A autora (2011)
Tabela 6.3: Índices de acerto do método SVM para cada conjunto de dados
Sigla CJ1 CJ2 CJ3 CJ4 CJ5 CJ6 CJ7
Steiner 86,82% 85,41% 78,39% 75,28% 76,33% 77,58% 80,72%
L1 86,30% 89,00% 80,88% 76,57% 82,31% 76,09% 81,97%
L2 86,50% 88,94% 80,86% 76,60% 82,00% 77,22% 81,85%
L3 86,49% 88,98% 80,88% 76,62% 81,97% 77,39% 81,80%
L4 86,48% 88,98% 80,87% 76,62% 81,97% 77,43% 81,80%
L5 86,48% 88,98% 80,88% 76,62% 81,98% 77,43% 81,79%
R1 87,02% 89,20% 82,96% 77,19% 80,95% 78,81% 81,80%
R2 87,82% 89,14% 84,58% 77,69% 77,53% 80,43% 80,90%
R3 87,08% 88,41% 83,65% 77,13% 78,54% 79,51% 79,96%
R4 88,44% 89,71% 85,14% 77,68% 77,93% 80,00% 82,01%
R5 88,26% 89,66% 85,31% 77,15% 78,22% 76,49% 79,51%
R6 88,37% 89,65% 85,97% 76,68% 78,91% 73,49% 78,47%
S1 71,26% 76,61% 74,42% 71,72% 79,20% 61,19% 73,48%
S2 74,22% 71,79% 58,80% 62,54% 61,94% 91,40% 60,06%
S3 72,68% 71,75% 72,86% 72,64% 64,19% 59,83% 69,85%
S4 70,07% 24,10% 29,52% 40,44% 29,00% 66,93% 34,15%
S5 71,26% 76,59% 74,41% 71,72% 79,18% 61,18% 73,47%
S6 72,68% 71,75% 72,85% 72,63% 64,18% 59,82% 69,84%
P1 88,06% 88,82% 83,99% 77,15% 77,01% 82,73% 81,22%
P2 88,98% 88,98% 83,85% 76,57% 76,00% 84,64% 81,23%
P3 87,87% 88,55% 83,56% 76,87% 76,65% 83,60% 80,88%
P4 88,60% 88,46% 82,76% 76,00% 75,36% 86,52% 80,28%
P5 88,22% 88,93% 84,15% 77,36% 77,12% 82,49% 81,14%
P6 89,20% 89,43% 84,70% 77,06% 76,78% 83,65% 81,68%
P7 87,22% 87,19% 78,10% 73,86% 75,20% 88,69% 77,36%
P8 85,59% 87,15% 80,66% 74,36% 76,21% 87,65% 76,75%
Fonte: A autora (2011)
Os valores da Tabela 6.3 são ilustrados pelos gráficos abaixo, separados por função
kernel . A curva em preto representa os ı́ndices de acerto para o método de Steiner et al. (1995),
enquanto as coloridas representam as diferentes configurações de kernel .
67
A Tabela 6.4 apresenta uma média das taxas de acerto para dois conjunto distintos:
o conjunto de treinamento, formado pelos três primeiros conjuntos de dados (ou imagens), o
conjunto de teste, formado pelos dados restantes; e também a média geral de acerto para todo o
conjunto de dados (352557 pontos).
70
Tabela 6.4: Índices de acerto do método SVM para conjuntos de treinamento e de teste
Sigla Conjunto de Treinamento Conjunto de Teste Média Geral
L1 85,40% 79,24% 82,32%
L2 85,43% 79,42% 82,43%
L3 85,45% 79,45% 82,45%
L4 85,44% 79,46% 82,45%
L5 85,45% 79,46% 82,45%
R1 86,39% 79,69% 83,04%
R2 87,18% 79,14% 83,16%
R3 86,38% 78,79% 82,58%
R4 87,76% 79,41% 83,58%
R5 87,74% 77,84% 82,79%
R6 88,00% 76,89% 82,44%
S1 74,10% 71,40% 72,75%
S2 68,27% 68,99% 68,63%
S3 72,43% 66,63% 69,53%
S4 41,23% 42,63% 41,93%
S5 74,09% 71,39% 72,74%
S6 72,43% 66,62% 69,52%
P1 86,96% 79,53% 83,24%
P2 87,27% 79,61% 83,44%
P3 86,66% 79,50% 83,08%
P4 86,61% 79,54% 83,07%
P5 87,10% 79,53% 83,31%
P6 87,78% 79,79% 83,78%
P7 84,17% 78,78% 81,46%
P8 84,47% 78,74% 81,60%
Fonte: A autora (2011)
Pode-se observar que a configuração P6 apresenta os valores mais elevados tanto para
conjunto de treinamento como conjunto de teste e, consequentemente, possui maior média geral.
et al. (indicest ). Este ı́ndice, denominado Imelhoria , calcula a melhoria na taxa de amostras
classificadas corretamente pelo método SVM com relação ao método de Steiner et al. (1995), e
é calculado da seguinte forma:
indicesvm
Imelhoria = . (6.1)
indicest
Supondo indicesvm = 90%, por exemplo. Se indicest = 89%, então Imelhoria = 1, 011235,
ou seja, o método SVM apresentou um resultado 1, 12% melhor que o método de Steiner et al.
Porém, supondo indicest = 70%, então Imelhoria = 1, 285714. Ou seja, a performance do SVM
foi 28, 57% melhor. De forma análoga, valores abaixo de 1, indicam uma redução no ı́ndice de
acerto do método SVM em relação ao método de Steiner et al. (1995).
Tabela 6.5: Índices de melhoria para conjunto de treinamento, conjunto de teste e conjunto total
de dados
Sigla Conjunto de Treinamento Conjunto de Teste Média Geral
L1 1,022718 1,022689 1,022701
L2 1,023051 1,025043 1,024189
L3 1,023254 1,025404 1,024483
L4 1,023173 1,025533 1,024522
L5 1,023215 1,025535 1,024541
R1 1,034992 1,028532 1,031301
R2 1,044718 1,021427 1,031409
R3 1,035073 1,017002 1,024747
R4 1,051704 1,024753 1,036303
R5 1,051541 1,004897 1,024887
R6 1,054731 0,992710 1,019290
S1 0,889034 0,922112 0,907936
S2 0,815167 0,890924 0,858457
S3 0,868885 0,860392 0,864032
S4 0,488606 0,550624 0,524045
S5 0,888913 0,921984 0,907811
S6 0,868843 0,860263 0,863940
P1 1,041882 1,026333 1,032997
P2 1,045443 1,027284 1,035067
P3 1,038270 1,025975 1,031244
P4 1,037320 1,026414 1,031088
P5 1,043606 1,026369 1,033756
P6 1,051658 1,029668 1,039093
P7 1,007249 1,016471 1,012673
P8 1,011721 1,016471 1,014435
Fonte: A autora (2011)
Os valores da Tabela 6.5 são ilustrados nos gráficos abaixo. A curva em amarelo
representa os valores obtidos para o conjunto de treinamento, a vermelha para o conjunto de
teste, e a azul para a média geral de todo o conjunto de dados.
73
Observa-se que o kernel linear obteve ı́ndice de melhoria acima de 1 para todas as
configurações, tanto para conjunto de treinamento, quanto para conjunto de teste. Os valores
obtidos para conjunto de treinamento e de teste são muito semelhantes.
O kernel radial também obteve bons resultados, sendo o único valor abaixo de 1 obtido
74
O kernel sigmoidal apresentou resultados muito ruins, visto que os ı́ndices de melhoria
são todos abaixo de 1, ou seja, não houve resultados melhores que o método de Steiner et al.
(1995) em nenhum caso.
Assim, como P6 obteve os melhores resultados, tanto para ı́ndice de acerto, quanto
para ı́ndice de melhoria, os resultados obtidos por P6 são ilustrados a seguir.
As três primeiras figuras são referentes aos dados utilizados como conjunto de treina-
mento, enquanto as demais, contêm dados do conjunto de teste.
Figura 6.9: Resultados obtidos pelo método SVM e comparação com a técnica de Steiner et al.,
para conjunto de dados 1
Figura 6.10: Resultados obtidos pelo método SVM e comparação com a técnica de Steiner et
al., para conjunto de dados 2
Figura 6.11: Resultados obtidos pelo método SVM e comparação com a técnica de Steiner et
al., para conjunto de dados 3
Figura 6.12: Resultados obtidos pelo método SVM e comparação com a técnica de Steiner et
al., para conjunto de dados 4
Figura 6.13: Resultados obtidos pelo método SVM e comparação com a técnica de Steiner et
al., para conjunto de dados 5
Figura 6.14: Resultados obtidos pelo método SVM e comparação com a técnica de Steiner et
al., para conjunto de dados 6
Figura 6.15: Resultados obtidos pelo método SVM e comparação com a técnica de Steiner et
al., para conjunto de dados 7
6.2 K-means
O tempo de execução para esta técnica é menor do que 1 segundo. Os dois grupos obti-
dos representam bem o que se era esperado, ou seja, um com caracterı́sticas de chuva estrati-
forme, e outro com caracterı́sticas de precipitação convectiva. O cluster de dados estratiformes
agrupou 278057 amostras; enquanto o cluster de dados convectivos teve 74500 amostras.
Figura 6.16: Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 1
Figura 6.17: Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 2
Figura 6.18: Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 3
Figura 6.19: Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 4
Figura 6.20: Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 5
Figura 6.21: Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 6
Figura 6.22: Resultados obtidos pelo método K-means e comparação com a técnica de Steiner
et al. para conjunto de dados 7
Novos dados podem ser designados a cada um dos grupos sem que haja a necessidade
de rodar novamente o algoritmo. Basta designar cada um dos pontos ao grupo cujo centróide
seja mais próximo.
Na seção a seguir, é feita uma comparação entre as duas técnicas aplicadas no trabalho,
assim como entre as classificações obtidas pelo especialista e pelo método de Steiner et al.
(STEINER; HOUZE; YUTER, 1995).
Foram calculados também os ı́ndices de acerto com relação ao método de Steiner et al.
(STEINER; HOUZE; YUTER, 1995), bem como entre os dois métodos apresentados (SVM e
K-means). A Tabela 6.6 apresenta, assim, todos esses ı́ndices de acerto calculados. A coluna
Steiner - Especialista apresenta o ı́ndice de acerto do método Steiner et al. com relação ao
especialista; a coluna K-means - Steiner representa o ı́ndice de acerto do método K-means em
relação ao método Steiner et al.; e assim por diante.
Tabela 6.6: Índice de semelhança entre os dados classificados por especialista e métodos Steiner
et al., SVM e K-means
Conjunto Steiner - SVM - K-means - SVM - K-means - SVM -
de Dados Especialista Especialista Especialista Steiner Steiner K-means
CJ1 86.82% 89.20% 83.28% 80.64% 81.25% 87.17%
CJ2 85.41% 89.43% 83.35% 87.59% 90.14% 89.63%
CJ3 78.39% 84.70% 71.76% 83.47% 84.25% 81.39%
CJ4 75.28% 77.06% 73.61% 80.12% 82.33% 80.46%
CJ5 76.33% 76.78% 77.49% 80.01% 81.33% 88.35%
CJ6 77.58% 83.65% 82.19% 76.96% 80.81% 83.88%
CJ7 80.72% 81.68% 76.18% 84.20% 82.87% 87.59%
TOTAL 80.08% 83.21% 78.27% 81.86% 83.28% 85.50%
Fonte: A autora (2011)
Pode-se observar que, embora o K-means tenha obtido resultados inferiores ao SVM
quando comparados com o especialista, a técnica obtém resultados melhores que o SVM quando
comparados com Steiner et al.
Quando a comparação dos resultados é feita entre ambas as técnicas (última coluna da
Tabela 6.6), tem-se um ı́ndice de semelhança de 85.5% Ou seja, mais de 85% dos dados foram
classificados igualmente pelas duas metodologias.
Essa semelhança entre as duas classificações, e as suas diferenças podem ser obser-
vadas nas imagens a seguir.
Figura 6.23: Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 1
Figura 6.24: Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 2
Figura 6.25: Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 3
Figura 6.26: Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 4
Figura 6.27: Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 5
Figura 6.28: Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 6
Figura 6.29: Imagem comparativa entre a classificação feita por SVM e por K-means, para
conjunto de dados 7
7 Conclusão
Baseado nessa ideia, o presente trabalho apresenta duas metodologias para classificação
da chuva: o SVM e o K-means. Ambos foram aplicados e testados no software R.
O método SVM é uma técnica de reconhecimento de padrões, cuja teoria é bem fun-
damentada. Possui boa capacidade de generalização e é robusta diante de dados de grande
dimensão. Além disso, a convexidade do modelo garante a existência de uma solução global.
Dados não linearmente separáveis podem ser mapeados em um espaço de maior dimensão,
onde, então, podem ser separados linearmente. Isso é feito através da função kernel . Porém, a
escolha dessa função, bem como de seus parâmetros, não é uma tarefa trivial, o que pode tornar
difı́cil a escolha de um kernel adequado à aplicação.
Outra caracterı́stica do método SVM é que dados previamente classificados são utiliza-
dos para treinamento da máquina. Como as técnicas de Inteligência Artificial (na qual inclui-se
o SVM) visam automatizar tarefas realizadas pela ação humana, optou-se por usar como padrão
imagens classificadas por um especialista na área, ou seja, um meteorologista. Deve-se, entre-
tanto, salientar que essa classificação manual é muito subjetiva. E, portanto, isso acaba sendo,
para o problema apresentado, uma desvantagem do método.
Mesmo com essas limitações, o método SVM atendeu bem aos objetivos do trabalho,
ao conseguir identificar padrões meteorológicos em imagens de radar, e assim, classificar a
chuva representada nestas imagens em estratiforme ou convectiva de forma satisfatória, de
acordo com o padrão a ser alcançado (classificação do especialista).
Para observar se a técnica sugerida apresentou bons resultados, estes foram compara-
dos com os obtidos por uma técnica de classificação de chuva já existente na literatura, o método
de Steiner et al. (STEINER; HOUZE; YUTER, 1995). Comparando-se a porcentagem de
90
Para o problema apresentado, o K-means foi aplicado para agrupar os dados em dois
grupos, esperando-se obter um grupo de dados com caracterı́sticas de chuva estratiforme, e
outro, com caracterı́sticas de precipitação convectiva.
O método atendeu bem esse objetivo, e, apesar de ter apresentado ı́ndices menores que
os resultados obtidos com o SVM, nota-se que as imagens obtidas são muito parecidas com a
técnica de Steiner et al. Vale lembrar que esse ı́ndice de acerto é em relação à classificação
do especialista e, como o SVM foi treinado com esses dados, é de se esperar que apresente
resultados mais semelhantes à esta classificação do que o K-means.
Uma terceira etapa do trabalho mostra uma comparação entre as duas metodologias.
As possibilidades apresentadas são quatro:
As duas técnicas apresentaram a mesma classificação para mais de 85% dos dados.
• Levar em conta a classificação feita por diversos especialistas na área (e não apenas um),
e encontrar assim, uma classificação “média”, talvez mais ideal, já que essa classificação
é muito subjetiva;
• Aplicar as relações Z-R para as novas classificações, e verificar se os resultados são com-
patı́veis com a taxa de precipitação medida.
• Utilizar outras técnicas para classificar os dados, como por exemplo, uma Rede Neural.
92
Referências Bibliográficas
AMBURN, S. A.; WOLF, P. L. VIL Density as a Hail Indicator. Weather and Forecasting,
v. 12, p. 473 – 478, 1997.
BEAN, B. R.; DUTTON, E. J. Radio Meteorology. [S.l.]: Dover Publications, 1966. 424 p.
BELTRAMI, M. Precificação de Opções Sobre Ações por Modelos de Support Vector Vector
Regression. Dissertação (Mestrado) — Universidade Federal do Paraná, Curitiba - PR, 2009.
BURGES, C. J. A Tutorial on Support Vector Machines for Pattern Recognition. Data Mining
and Knowledge Discovery, 1998.
CHANG, C. C.; LIN, C. L. LIBSVM: a Library for Support Vector Machines. Software
available at http://www.csie.ntu.edu.tw/ cjlin/libsvm. 2001.
93
HAIR, J. F. et al. Análise Multivariada dos Dados. 6a . ed. [S.l.]: Bookman, 2009.
HERBRICH, R. Learning Kernel Classifiers: Theory and Algorithms. MIT Press, 2002.
LORENA, A. C.; CARVALHO, A. C. P. L. F. de. Uma Introdução às Support Vector Machines.
Revista de Informática Teórica e Aplicada, v. 14, p. 43, 2007.
MEYER, D. Support Vector Machines - The Interface to libsvm in package e1071. Technische
Universität Wien, Austria, 2011.
RINEHART, R. E. Radar For Meteorologists. 4th. ed. [S.l.]: Rinehart Publishing, 2004.
SEKHON, R. S.; SRIVASTAVA, R. C. Snow Size Spectra and Radar Reflectivity. Journal of
Atmospheric Science, 27, p. 299–307, 1970.
SIMPSON, J.; ADLER, R. F.; NORTH, G. R. A Proposed Tropical Rainfall Measuring Mission
(TRMM) Satellite. Bulletin of the American Meteorological Society, v. 69, p. 278–295, 1988.
SMOLA, A. J.; SCHöLKOPF, B. Learning with Kernels. The MIT Press, Cambridge-MA,
2002.
VAPNIK, V. The Nature of Statistical Learning Theory. Springer-Verlag, New York, 1995.
VAPNIK, V. Statistical Learning Theory. New York: John Wiley and Sons, 1998.