UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco...
Transcript of UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco...
PPGMNEPrograma de Pós-Graduação emMétodos Numéricos em Engenharia
UFPR
i
Sandro Rodrigues
Vania Gryczak
Marina Vargas
Josué Musial
Danilo Leonel
Tiago Noronha
Thais Biembengut
Nayane Krespi
Mariana Kleina
Diana Cancelli
LIVRO DE RESUMOS O livro de resumos contém os resumos expandidos e resumos dos posterês apresentados durante o III Simpósio de Métodos
Numéricos Computacionais da UFPR 2013
Programa de Pós-Graduação em Métodos Numéricos em Engenharia (PPGMNE)
Universidade Federal do Paraná (UFPR)
2013
ii
Informações Básicas
O objetivo principal do Simpósio de Métodos Numéricos Computacionais da UFPR é propor um espaço para divulgação e
debate dos trabalhos acadêmicos, bem como a apresentação de trabalhos desenvolvidos pelos professores, alunos e demais
participantes.
A proposta do simpósio é disseminar a pesquisa em métodos numéricos em engenharia e viabilizar um local para a discussão
das pesquisas e trabalhos desenvolvidos na área
O livro de resumos contém os resumos expandidos, posterês e as palestras apresentadas durante o evento.
Direitos Autorais
Os conceitos emitidos em artigos são de exclusiva responsabilidade de seus autores, não refletindo, necessariamente, a opinião
da redação. Não se permite a reprodução total ou parcial dos trabalhos, apenas utilizar como fonte de dados desde que seja
indicada, na forma de citação, explicitamente a sua fonte.
Corpo Editorial
Editora responsável
Editora UFPR
Coordenação Editorial
Marina Vargas Reis de Paula Gonçalves
Organização
Sandro Rodrigues
Vania Gryczak
Marina Vargas
Josué Musial
Danilo Leonel
Tiago Noronha
Thais Biembengut
Nayane Krespi
Mariana Kleina
Diana Cancelli
Comitê Científico
Anselmo Chaves Neto
Arinei Carlos Lindbeck da Silva
Cassius Tadeu Scarpin
Cynara de Lourdes da Nóbrega Cunha
Deise Maria Bertholdi Costa
Eloy Kaviski
Elvidio Gavassoni Neto
Gustavo Valentim Loch
José Antonio Marques Carrer
José Carlos Coninck
Luiz Alkimin de Lacerda
Luciano Kiyoshi Araki
Liliana Madalena Gramani
Luzia Vidal de Souza
Marcio Villela
Marco André Argenta
Marcos Arndt
Marcelo H. F. Medeiros
Maurício Felga Gobbi
Nayara Klein
Neida Maria Patias Volpe
Nelson Dias
Paulo Justiniano Ribeiro Junior
Ricardo Almeida
Roberto Dalledone Machado
Volmir Eugênio Wilhelm
Concepção do projeto gráfico
Marco André Argenta
Web design
Marco André Argenta
Tiago Noronha
3
Sumário
Informações Básicas .................................................................................................................................................................... ii
Direitos Autorais ......................................................................................................................................................................... ii
Corpo Editorial ............................................................................................................................................................................ ii
Sumário ......................................................................................................................................................................................... 3
Apresentação ................................................................................................................................................................................ 5
RESUMOS EXPANDIDOS ......................................................................................................................................................... 6
MODELOS AUTORREGRESSIVOS PARA A DETECÇÃO DE DANOS EM MANCAIS DE GUIA DE HIDROGERADORES
.................................................................................................................................................................................................... 7
DISSIMILARIDADE ENTRE TEMPERATURA E UMIDADE NA CAMADA LIMITE SUPERFICIAL .................................... 9
UMA PROPOSTA DE MODELAGEM MATEMÁTICA DO PROBLEMA DE ROTEAMENTO EM ARCOS CAPACITADO E
PERIÓDICO ADAPTADO ....................................................................................................................................................... 11
ESTUDO PRELIMINAR DA INFLUÊNCIA DA ARMADURA NO DANO DE LAJE DE CONCRETO DE BARRAGEM DE
ENROCAMENTO ..................................................................................................................................................................... 13
TESTE DE CARREGAMENTO AXIAL EM UM ELEMENTO REPRESENTATIVO DO CONCRETO ................................... 15
ANÁLISE DA INTENSIDADE DO PICO DE CORRENTE DE DESCARGAS ELÉTRICAS ASSOCIADAS À TEMPESTADES
IDENTIFICADAS POR TÉCNICAS DE CLUSTERIZAÇÃO ................................................................................................... 17
USO DA REDE NEURAL SELF ORGANIZING MAPS NA CLUSTERIZAÇÃO DE DADOS METEOROLÓGICOS DE
REFLETIVIDADE .................................................................................................................................................................... 19
MODELO DE PREDAÇÃO SELETIVA: OCORRÊNCIA DE DOENÇA CONTAGIOSA NA POPULAÇÃO DE PRESAS .... 21
UMA ABORDAGEM PROBABILÍSTICA PARA A ESTABILIDADE DE TALUDES DE BARRAGENS DE ATERRO ........... 23
RECONHECIMENTO DE PADRÕES EM DADOS DE VAZÃO UTILIZANDO SELF-ORGANIZING MAPS ....................... 25
ANÁLISE E PREVISÃO DO DESLOCAMENTO HORIZONTAL DA BARRAGEM DA USINA HIDRELÉTRICA DE ITAIPU
COM BASE NAS SÉRIES TEMPORAIS DOS PÊNDULOS E MARCOS GEODÉSICO ......................................................... 27
ANÁLISE DE CORRELAÇÃO CANÔNICA DOS ACIDENTES DE TRÂNSITO DA BR-376, NO PERÍODO ENTRE
01/01/2009 E 30/04/2012 ......................................................................................................................................................... 29
MODELO DE MARKOWITZ PARAMETRIZADO POR INDICADORES TÉCNICOS ........................................................... 31
FORMULAÇÃO DO MÉTODO DOS ELEMENTOS DE CONTORNO PARA O PROBLEMA DE DIFUSÃO DO CALOR
BIDIMENSIONAL .................................................................................................................................................................... 33
USO DE ESCORES FATORIAIS NA CONSTRUÇÃO DE UM INDICADOR DA INTEGRIDADE ESTRUTURAL DE UMA
BARRAGEM DE CONCRETO ................................................................................................................................................. 35
COMPARAÇÃO ENTRE O LDM (LEITOR DIGITAL PARA MOLINETES HIDROMÉTRICOS) E O ADCP ....................... 37
IDENTIFICAÇÃO DA BANDA BRILHANTE EM DADOS DE RADAR METEOROLÓGICO ............................................... 39
REDE NEURAL DE BASE RADIAL APLICADA À ESTIMATIVA DE CHUVA ...................................................................... 41
MONITORAMENTO DA BARRAGEM DE ITAIPU VIA MÉTODOS ESTATÍSTICOS MULTIVARIADOS ........................... 43
USO DE REDES NEURAIS ARTIFICIAIS NA MINIMIZAÇÃO DOS TEORES DE SODA CÁUSTICA NO REJEITO DO
PROCESSO DE PRODUÇÃO DE ALUMINA ......................................................................................................................... 45
META-HEURÍSTICA GRASP ADAPTADA PARA EXTRAÇÃO DE REGRAS DE CLASSIFICAÇÃO ................................... 47
ABORDAGEM DA TEORIA DOS JOGOS EM PERIÓDICOS QUALIS CAPES B2 ............................................................... 49
OTIMIZAÇÃO NA GERAÇÃO DE GRADE HORÁRIA ESCOLAR ATRAVÉS DE UM MODELO MATEMÁTICO E DA
4
META-HEURÍSTICA BUSCA LOCAL ..................................................................................................................................... 51
ANÁLISE ISOGEOMÉTRICA APLICADA AO PROBLEMA DE BARRAS EM VIBRAÇÃO LIVRE ....................................... 53
RESUMO DOS POSTERS ........................................................................................................................................................ 55
COMPARAÇÃO ENTRE A RESOLUÇÃO DE PROBLEMAS DE TRANSPORTE NO IBM ILOG CPLEX® E EM UM
ALGORITMO PROGRAMADO em VISUAL BASIC® VB.NET............................................................................................... 56
COMPARAÇÃO DE DESEMPENHO E USABILIDADE ENTRE OS SOFTWARES COMERCIAIS DE OTIMIZAÇÃO E O
MÉTODO DUAL PARA O PROBLEMA CLÁSSICO DO TRANSPORTE ............................................................................... 57
Sumário por primeiro autor ...................................................................................................................................................... 58
5
Apresentação
O Programa de Pós-Graduação em Métodos Numéricos em Engenharia (PPGMNE), da Universidade Federal do
Paraná, criado pelo Departamento de Construção Civil (Setor de Tecnologia) e pelo Departamento de Matemática (Setor de
Ciências Exatas), tem por objetivo congregar as áreas de concentração de Mecânica Computacional e de Programação
Matemática num único curso, por perceber a inter-relação entre as mesmas e por acreditar que, num trabalho conjunto, multi e
interdisciplinar, é possível o desenvolvimento e aplicação dos métodos numérico-computacionais na busca de novas formas de
solução dos problemas de Engenharia e de problemas reais de uma forma geral. O PPGMNE iniciou atividades em 1994 com o
curso de mestrado e em 2003 passou a oferecer também o curso de doutorado. O Programa não tem a pretensão de cobrir todo
o conhecimento das áreas mencionadas, mas considera-se apto a desenvolver trabalhos em algumas das áreas mais
importantes, conforme a natureza de seu corpo docente, que envolve professores de diversos departamentos: Construção Civil,
Engenharia Mecânica, Engenharia Elétrica, Matemática, Estatística, Informática e Desenho.
A proposta do simpósio é disseminar a pesquisa em métodos numéricos em engenharia e viabilizar um local para a
discussão das pesquisas e trabalhos desenvolvidos na área.
O evento proporcionará:
Divulgar a produção científica desenvolvida pela comunidade acadêmica do Curso de Pós-Graduação de Métodos
Numéricos em Engenharia, e demais instituições de ensino participantes;
Promover o intercâmbio entre pesquisadores, alunos e professores, visando a troca de informações científicas;
Realizar a integração das pesquisas concluídas e/ou em andamento possibilitando uma complementação dos
resultados e direcionamento das propostas;
Construir um ambiente de discussão dos desafios enfrentados pelo desenvolvimento da pesquisa sob o ponto de vista
empresarial e acadêmico.
6
RESUMOS EXPANDIDOS Trabalhos apresentados na forma de resumos expandidos.
7
MODELOS AUTORREGRESSIVOS PARA A DETECÇÃO DE DANOS EM
MANCAIS DE GUIA DE HIDROGERADORES
Geraldo Carvalho Brito Jr., Anselmo Chaves Neto, Roberto Dalledone Machado.
Palavras-Chave: Mancais hidrodinâmicos; séries temporais; hidrogeradores; monitoramento.
1 INTRODUÇÃO
A avaliação dos coeficientes dinâmicos do filme
lubrificante de mancais de guia de hidrogeradores é parte
essencial no processo de monitoramento destas máquinas.
Estes coeficientes podem ser determinados a partir da
solução da equação de Reynolds do mancal (Dimond et.
al., 2011), utilizando-se métodos numéricos adequados.
Devido às incertezas envolvidas neste processo, bem como
devido às variações das condições de contorno e das
condições operativas do mancal, não é possível
determinar-se com exatidão os coeficientes dinâmicos de
máquinas verticais. Baseado na análise de vibrações
medidas em hidrogeradores verticais de grande porte, este
trabalho propõe a utilização de modelos autorregressivos
como alternativa à avaliação dos coeficientes dinâmicos no
monitoramento deste tipo de máquina.
2 MODELOS AUTORREGRESSIVOS
2.1 Modelo simplificado para mancais de guia
A Figura 1 mostra o modelo físico simplificado proposto
para representar o comportamento dinâmico de um mancal
de guia. Neste modelo )(tw e )(tv são os deslocamentos do
eixo e do mancal, k e c são os coeficientes de rigidez e
de amortecimento do filme lubrificante, enquanto ek , ec
e m respectivamente são os coeficientes de rigidez, de
amortecimento e a massa equivalente da estrutura.
No processo de monitoramento do mancal um
acelerômetro mede a vibração absoluta do mancal e o
deslocamento )()( tvty é determinado por integração
dupla. Um transdutor de proximidade sem contato mede a
vibração relativa entre eixo e mancal )()()( twtvtu . A
equação diferencial ordinária (EDO) mostrada em (1)
modela matematicamente este sistema dinâmico no
domínio do tempo contínuo, com mcen 2 e
mken 2 .
uk
ku
c
cyyy n
eennn 22 22 (1)
2.2 Primeiro modelo ARX para mancais de guia
A equação (2) mostra a estrutura típica de um modelo
ARX (Auto-Regressive model with eXogenous input), com
entrada ][nu e saída ][ny (Ljung, 1999). Nesta equação
][ne é um ruído branco, enquanto que na e nb são os
parâmetros do modelo. A equação (2) representa um
modelo AR (Auto-Regressive model) quando 0][ nu . A
ordem do modelo é dada pelo máximo valor de na e nb .
][][][][01
nejnubjnyanynb
jj
na
jj
(2)
Figura 1 Modelo simplificado de mancal
O modelo matemático do mancal do domínio do tempo
discreto pode ser obtido utilizando-se o Método da
Diferença Central na EDO mostrada na equação (1).
Utilizando-se um intervalo de amostragem T obtém-se:
2
0
2
1][][][
jj
jj jnubjnyany
(3)
onde:
T
T
c
cb
T
T
k
kb
T
T
c
cb
T
Ta
T
Ta
n
n
e
n
n
en
n
e
n
n
n
n
1
11
1
1
1
)2(
2
22
10
2
22
1
(4)
A equação (3) representa um modelo ARX de segunda
ordem cujos coeficientes dependem do intervalo de
amostragem e dos parâmetros de amortecimento, de massa
e de rigidez do mancal. O surgimento de danos no mancal
irá provocar mudanças nestes parâmetros e, portanto, nos
parâmetros do modelo. A intensidade destas mudanças irá
depender do dano e do parâmetro do modelo em análise.
Por exemplo, danos que provoquem redução da rigidez do
filme lubrificante ( k ) irão influenciar apenas o coeficiente
1b , como pode ser visto na equação (4).
Vários trabalhos têm empregado modelos AR/ARX no
monitoramento de estruturas (Sohn and Farrar, 2001). A
proposta do presente trabalho é simples: monitorar-se os
parâmetros dos modelos ajustados em cada mancal.
Variações anormais nos parâmetros indicarão a existência
de danos nos mancais.
Este modelo foi ajustado para mancais de hidrogeradores
de grande porte, utilizando-se vibrações medidas em
diversas condições operativas. O espaço disponível impede
a apresentação dos resultados obtidos, contudo, pode-se
afirmar que eles foram pouco satisfatórios. As causas
prováveis deste insucesso são as dificuldades na aquisição,
no condicionamento e no processamento das vibrações de
ek
k
c
)(tw)(tvy
ec
m
8
baixa frequência dos mancais. Deve-se observar que os
usos de filtros e de modelos de ordem mais elevada não
melhoraram a qualidade dos modelos obtidos.
2.3 Segundo modelo ARX para mancais de guia
O modelo ARX descrito na seção anterior tem conexão
direta com o modelo físico mostrado na Figura 1. Existem
outros modelos que podem ser utilizados para monitorar a
condição do mancal, mesmo não dispondo desta conexão
explícita. Um exemplo é o modelo ARX cuja entrada é a
vibração relativa do eixo numa direção e cuja saída é a
vibração numa direção defasada de 90.
Este modelo desperta interesse já que é comum monitorar-
se as vibrações relativas do eixo em duas direções
ortogonais. Estas vibrações são utilizadas para analisar-se
a órbita do eixo no mancal, como mostra a Figura 2.
Figura 2 Vibrações e órbita do eixo - U09A - 640 MW - 04.05.06
Este modelo foi ajustado para os mancais citados na seção
anterior e os resultados obtidos foram promissores. A
Figura 3 e a Figura 4 mostram os resultados obtidos para o
mancal guia superior da unidade 09A da Usina
Hidrelétrica de Itaipu, em 04.05.06, quando a unidade
operava com 640 MW. A qualidade do modelo de segunda
ordem pode ser avaliada pelos melhores ajustes (best fit)
obtidos, de 64% para a saída simulada (Figura 3) e de 91%
para a predição de 5 passos à frente (Figura 4). Os
resultados são mostrados também na Tabela 1. A elevação
da ordem do modelo e a filtragem das componentes de alta
frequência dos sinais melhoram os resultados.
Data
Best Fit (%) Parâmetros na
Saída
Simulada
5 Passos à
frente 1a 2a
04.05.06 64.0 97.0 -1.8580 0.8583
Parâmetros nb Função de
Perdas
(x10-3
)
FPE
(x10-3
) 0b 1b 2b
-0.0248 0.0534 0.0255 36.648 36.770 Tabela 1 Resultados do ajuste de modelo ARX
Figura 3 U09A - 640 MW - 02.03.10: Sinal real (preto) versus
saída simulada (cinza claro)
Figura 4 U09A - 640 MW - 02.03.10: Sinal real (preto) versus
saída com predição de 5 passos à frente (cinza claro)
3 CONCLUSÕES
Foi proposto um modelo simplificado para o
comportamento dinâmico de mancais de guia de
hidrogeradores verticais de grande porte. A rigidez do
filme lubrificante pode ser estimada utilizando a função de
resposta em frequência deste modelo. Entretanto, os
valores obtidos são muito menores do que os valores
obtidos por outros processos. Um primeiro modelo
autorregressivo foi examinado como alternativa ao
procedimento anterior. Contudo, os resultados obtidos
foram insatisfatórios, provavelmente devido a dificuldades
na aquisição, no condicionamento e no processamento de
sinais. Um segundo modelo autorregressivo foi proposto e
os primeiros resultados obtidos foram encorajadores.
Análises adicionais vêm sendo aplicadas neste processo.
REFERÊNCIAS
Dimond, T., Younan, A. and Allaire, P. (2011). A Review
of Tilting Pad Bearing Theory. International Journal of
Rotating Machinery, 2011, 23 pages.
Ljung, L. (1999). System Identification – Theory for the
User. Upper Saddle River: Prentice Hall, 2nd Edition.
Sohn, H. and Farrar, C. R. (2001). Damage diagnosis using
time series analysis of vibration signals. Smart
Materials and Structures, 446-451.
9
DISSIMILARIDADE ENTRE TEMPERATURA E UMIDADE NA CAMADA
LIMITE SUPERFICIAL
Diana M. Cancelli, Marcelo Chamecki, Nelson Luis Dias
Palavras-Chave: Similaridade entre escalares, Teoria de Similaridade de Monin-Obukhov, Large-Eddy Simulation.
1 INTRODUÇÃO
Uma suposição fundamental em estudos relacionados a
estimativas de evaporação é que as flutuações de
temperatura (θ) e umidade específica (q) tem
comportamento similar na camada atmosférica superficial;
como consequência, todas as funções de similaridade de
Monin-Obukhov são iguais (Cancelli et al., 2012). Sabe-se,
no entanto, que a similaridade entre os escalares nem
sempre existe, o que pode causar grandes divergências nas
estimativas de evaporação. As causas de não-similaridade
conjecturadas na literatura incluem: heterogeneidade da
superfície, advecção local, não-estacionariedade, papéis
ativo/passivo dos escalares e entranhamento dos fluxos no
topo da camada limite atmosférica (Cancelli et al., 2012).
Com o objetivo de identificar causas de não-similaridade
entre os escalares θ e q, na camada limite atmosférica
(CLA) neste trabalho são utilizados dados experimentais e
simulações de grande vórtices (Large-eddy simulations ou
LES); a análise de similaridade foi realizada em termos de
correlação escalar e espectral.
2 ANÁLISE DE DADOS EXPERIMENTAIS
Um conjunto de dados medidos através do MCT (Método
de Covariâncias Turbulentas) foi utilizado para analisar a
similaridade entre os escalares de interesse; as medições
foram realizadas sobre o Lago de Furnas (Minas Gerais)
entre 14 e 22 de julho de 2004 e incluem dados de
velocidade do vento, temperatura do ar e umidade
específica a 3,7m acima da superfície da água – maiores
detalhes sobre este experimento podem ser encontrados em
Cancelli et al. (2012), assim como outros resultados
relacionados com a similaridade entre θ e q.
Na Figura 1, são apresentadas as funções de correlação
espectral típicas para dois casos com características
semelhantes (Tabela 1) sendo um de alta similaridade (HS),
e outro de baixa similaridade (LS); para os casos HS, a
função de correlação espectral Rθq é menor que 1,0 apenas
nas baixas frequências implicando num rθq ligeiramente
menor que 1,0. Para os casos LS, Rθq é menor que 1,0 em
todo o intervalo de frequências resultando num baixo rθq.
3 SIMULAÇÕES NUMÉRICAS
Para as simulações numéricas um segundo escalar –
umidade específica q – foi incluído ao modelo de LES
descrito em Kumar et al. (2006). Uma camada de
convecção livre forçada por fluxos superficiais de calor e
vapor d'água foi simulada.
Figura 1: Funções de correlação espectral típicas entre θ e q para
os casos HS e LS – Lago de Furnas. As barras horizontais do
lado esquerdo representam os valores de rθq.
Dado HS LS
data 22/07/2004 18/07/2004
hora 00:00 19:00
α 86° 102° °
ζ -0,097 -0,097
rθq +0,87 +0,44 Tabela 1: Exemplos de runs com alta similaridade (HS) e baixa
similaridade (LS) – α é a direção do vento, e ζ é o parâmetro de
estabilidade de Monin-Obukhov
(de Cancelli et al., 2012).
A análise numérica foi baseada em quatro simulações que
diferem pela combinação de dois diferentes perfis iniciais
de umidade – um semelhante ao perfil inicial de θ, ou seja,
aumentando acima da altura da camada limite (zi), e outro
com q diminuindo acima de zi, representando uma situação
mais realista – com sua atuação passiva (P) ou ativa (A) –
q se torna ativo quando seu efeito é incluído no termo de
empuxo.
O tamanho do domínio, número de pontos de grade e
resolução são apresentados na Tabela 2. Saídas temporais
de 16x16x64 pontos de grade, totalizando 16384 séries
temporais de 4hs de simulação cada uma, foram utilizadas
nas análises.
Direção
Tamanho
do domínio
(m)
Pontos de
grade
Resolução
(m)
x 5120 128 20
y 5120 128 20
z 5120 128 16
Tabela 2: Tamanho do domínio e resolução da grade.
3.1 Análise de dados
Os resultados das simulações apresentados aqui são
baseados na última 1,5hs de simulação. Para eliminar a
não-estacionariedade devido ao crescimento da CLA um
linear detrending foi aplicado a cada uma das 16384 séries
temporais
10
3.2 Resultados numéricos
Na Figura 2 é possível observar que os casos IP e IA tem
rθq=1,0 indicando similaridade perfeita entre os dois
escalares; para os casos IIP e IIA rθq vai +1,0 (correlação
perfeita) próximo à superfície a –1,0 (perfeitamente
anticorrelacionado) no topo da CLA. Diferenças entre o
papel ativo/passivo de q não foram observadas (entre IP e
IA e entre IIP e IIA). Ainda na Figura 2, próximo à
superfície (z=24m), Rθq é menor que 1,0 apenas nas baixas
frequências, enquanto em uma região mais alta (328m)
ocorre decorrelação em todas as frequências.
Figura 2: Coeficiente de correlação escalar rθq para q passivo (P)
e ativo (A) (acima), e coeficiente de correlação espectral Rθq θ-
para as alturas z=24m e z=328m para q passivo.
Razões entre os perfis de variâncias e covariâncias entre os
casos IP e IIP são apresentadas na Figura 3; a razão entre
as variâncias de θ –σ
θ
2
– para os casos considerados aqui,
não tem influência sobre a similaridade pois permanece em
1,0 ao longo de todo o perfil (linha azul). Abaixo de
z/zi~0,5, a razão entre as covariâncias θ'q'
é
aproximadamente constante e igual a 1,0, e acima desse
valor ela decresce; isso indica que a covariância afeta a
correlação entre os escalares somente em z/zi>0,5. Já a
razão entre as variâncias da umidade –σ
q
2
– começa em
1,0 próximo da superfície, vai até um valor máximo em
z/zi~0,8 e depois diminui, o que indica que as mudanças na
variância da umidade afetam a correlação ao longo de toda
a CLA.
Figura 3: Razão entre os perfis de variâncias e covariância dos
escalares dos casos IIP e IP.
4 CONCLUSÕES
Ao longo de toda a CLA, a redução do coeficiente de
correlação escalar, rθq, está associada às mudanças da
variância da umidade; as variações em σ
q
2
são causadas
pelo aumento dos fluxo de umidade específica que entram
no topo da CLA. O entranhamento de ar seco no topo do
domínio reduz rθq em toda a CLA, até mesmo próximo à
superfície onde parece afetar as baixas frequências do
espectro. As observações realizadas a partir das simulações
numéricas estão de acordo com as observações
experimentais.
Em relação ao papel ativo/passico dos escalares, não foram
observadas diferenças nos perfis de correlação escalar.
AGRADECIMENTOS
Durante o desenvolvimento deste trabalho, a primeira
autora teve o apoio da Capes – através do PPGMNE/UFPR – e
do CNPq/MCT – doutorado-sanduíche desenvolvido junto ao
Departamento de Meteorologia da Pennsylvania State University
através do Programa Ciência sem Fronteiras (processo número
201974/2011–8).
REFERÊNCIAS
Cancelli, D. M., Dias, N. L., Chamecki, M., Dimensionless
criteria for the production-dissipation equilibrium of
scalar fluctuations and their implications for scalar
similarity, Water Resour. Res., 48, W10522,
doi:10.1029/2012WR012127, 2012.
Kumar, V., J. Kleissl, C. Meneveau, and M. B. Parlange,
Large-eddy simulation of a diurnal cycle of the
atmospheric boundary layer: Atmospheric stability
and scaling issues, Water Resour. Res., 42, W06D09,
doi:10.1029/2005WR004651, 2006
11
UMA PROPOSTA DE MODELAGEM MATEMÁTICA DO PROBLEMA DE
ROTEAMENTO EM ARCOS CAPACITADO E PERIÓDICO ADAPTADO
Guilherme Vinicyus Batista; Cassius Tadeu Scarpin.
Palavras-Chave: Problema de Roteamento em Arcos Capacitado e Periódico, Roteamento em Arcos, Modelagem.
1 INTRODUÇÃO
Muitos problemas logísticos como localização de
facilidades, gerenciamento de armazéns e roteamento de
veículos têm sido resolvidos por pesquisadores, os quais
têm tomado uma sequência de resolução desde das
decisões estratégicas até as operacionais (Hashemi Doulabi
& Seifi 2013). Um desses problemas é o problema de
roteamento em arcos, em inglês Arc Routing Problems
(ARP), o qual tem por objetivo determinar o menor custo
para atravessar um conjunto de arcos de um grafo, com ou
sem restrições. Essa classe de problemas pode ser aplicada
numa série de contextos práticos como coleta de lixo,
entrega de cartas, remoção de neve, inspeção em linhas de
energia elétrica, inspeção e manutenção de ferrovias e
rodovias. Ao contextualizar esses problemas obtêm-se
algumas variações, e uma delas é abordada nesse trabalho
que tem por objetivo propor uma modelagem matemática a
partir de um problema real, que leva em conta capacidade
dos veículos e o horizonte de tempo do trabalho.
2 REVISÃO DA LITERATURA
Segundo Ghiani et al. (2005), diferentemente dos
problemas de roteamento em nós que são mais estudados,
a literatura do problema de roteamento em arcos é mais
pobre e desorganizada. Porém, são problemas que vem
ganhando cada vez mais importância. De maneira geral,
são problemas definidos em um grafo G=(V,A), onde V é o
conjunto de vértices (ou nós) e A o conjunto de Arcos que
podem ser direcionados ou não, dependendo do problema.
Eiselt et al. (1995b, a) abordam diversos problemas de
ARP, e fazem uma revisão dos principais problemas
estudados até o ano de publicação. O primeiro problema
encontrado na literatura é o das pontes de Königsberg, no
qual é necessário determinar um caminho que atravesse
todas as 7 pontes que chegam a cidade exatamente uma
vez. O Problema do Carteiro Chinês (PCC) é muito
parecido com o problema das pontes, um carteiro deve
cobrir toda sua rota com possibilidade de atravessar um
arco mais de uma vez. Outro problema de grande
aplicabilidade é o Problema do Carteiro Rural (RPP), onde
é necessário atravessar apenas um subconjunto de arcos
R⊂A.
Um RPP pode ser tratado como um Problema de
Roteamento em Arcos Capacitado (CARP), o CARP é um
problema mais difícil que os já citados, visto que além de
simplesmente fazer o roteamento nos arcos, cada arco tem
uma certa demanda e a capacidade de cada veículo ao
atender esses arcos deve ser levada em conta. Grande parte
dos problemas reais são formulados dessa forma (Hashemi
Doulabi & Seifi 2013).
Monroy et al. (2013) apresenta uma extensão natural do
CARP, o Problema de Roteamento em Arcos Capacitado e
Periódico (PCARP), ao invés do problema ser resolvido
para apenas um dia ele é expandido para múltiplos
períodos. Em seu trabalho modela matematicamente e
propõe uma heurística para o problema de monitoramento
da malha rodoviária que é realizado periodicamente. As
ruas ou rodovias são divididas em classes de acordo com a
necessidade de vigilância e a hierarquia das vias. Cada
categoria tem sua demanda (número de passagens) durante
um horizonte de tempo já definido. O objetivo é designar
um conjunto de rotas satisfazendo as frequências de cada
classe de vias em cada sub período de tempo sem exceder
a capacidade do veículo.
Lacomme & Prins (2005) propõe uma definição básica
para o PCARP bem como alguns algoritmos para sua
resolução. Dado um grafo e um discreto horizonte de
tempo H com np períodos, cada arco tem uma frequência
f(a) que pode ser de no máximo uma vez por dia, ou ainda,
ser expressa com restrições baseadas no intervalo de
serviços no mesmo arco. E mesmo autor ainda afirma: “o
PCARP implica na determinação simultânea das decisões
no nível tático e operacional em todo horizonte de tempo”
(página 539).
3 O PROBLEMA
Um processo que ocorre nas empresas que trabalham com
ferrovias é a manutenção preventiva e inspeção dos trilhos.
Toda malha ferroviária deve ser avaliada para que sejam
prevenidos acidentes como tombamento de trens, para isso
existem sofisticados equipamentos capazes de fazer
medições específicas para prevenir acidentes. Esses
equipamentos costumam ter um custo elevado e são como
carros (daqui para frente chamaremos esse equipamento de
carro) que se deslocam pelos trilhos executando sua tarefa.
A malha ferroviária brasileira tem grande extensão e os
equipamentos disponíveis devem ser colocados em locais
estratégicos para fazer essas medições, porém, cada trecho
tem uma demanda conhecida a priori que diz de quanto em
quanto tempo ele deve ser analisado. O horizonte de tempo
se repete formando ciclos, desta forma faz-se necessário
tomar decisões operacionais de quais trechos devem ser
trabalhados diariamente e também decisões estratégicas
que abranjam todo o horizonte para evitar atrasos nas
periodicidades de cada trecho.
Uma particularidade desse problema, que o torna diferente
dos propostos na literatura, é que ao final de um dia de
trabalho, o carro não necessita voltar para um depósito, ele
permanece onde está ao final do dia e no próximo ele parte
do ponto onde parou no dia anterior.
4 MEDOLOGIA
A malha ferroviária tem diversos pontos que poderiam ser
tratados como vértices, a fim de simplificar o problema os
vértices foram definidos no grafo de forma que o
deslocamento entre um ponto e outro fosse baseado numa
decisão operacional que corresponde exatamente à
capacidade de execução de serviço de um carro em um dia.
A Figura 1 ilustra um exemplo do problema.
12
Figura 1: Exemplo do problema. Fonte: O autor.
Com essa simplificação, as restrições de capacidade
acabam implícitas em uma variável binária, cada carro só
pode trabalhar em uma aresta diariamente. Por exemplo,
na Figura 1, um carro só pode se deslocar entre os pontos 3
e 7 durante o dia.
4.1 Formulação Matemática
A formulação parte de um grafo não direcionado G=(V,A),
com n pontos, logo, V= {v1, v2, ... , vn}, e m arcos com A=
{a1, a2, ..., am} que devem ser percorridos por nk carros
definidos pelo conjunto K={1, 2, ..., k}. Cada arco é
formado por um par de nós e chamado de xij = (vi,vj), e
associado a um custo cij. A capacidade de cada carro é de
percorrer 1 arco por dia, e a demanda ou frequência de
cada arco é expressa na quantidade máxima de períodos
que o arco pode ficar sem ser atendido MP(xij). Tem-se
ainda o horizonte de tempo H, formado por np perídos,
onde cada período é simbolizado pela letra p.
Para a resolução do problema foram criadas três variáveis
binárias apresentadas abaixo:
xijkp
1, se o carro k se desloca do ponto i para o
ponto j no período p
0, caso contrário
pijp
1, se o arco xij não respeita a periodicidade
no período p
0, caso contrário
fikp
1, se o carro k fica parado no ponto i no dia p
0, caso contrário
Cada variável pijp tem associado um custo PUij, que é uma
punição caso a periodicidade de um arco não seja atendida,
o que permite a factibilidade do problema. E a variável fikp
permite que o carro folgue em um determinado dia, pois
algumas vezes é possível obter uma solução com menos
deslocamentos se o carro esperar para atravessar um arco.
A função objetivo é dada pela equação (1):
∑ ∑ ∑
∑ ∑
(1)
E os problemas estão sujeitos às seguintes restrições:
∑
∑
(2)
∑
∑
∑
(3)
∑ (
( ) ( )
)
( )
(4)
{ } ( ) (5)
A restrição (2) garante o fluxo diário dos carros permitindo
a folga, sendo que, como serão formados ciclos, ao fim do
período np o carro deve retornar para o mesmo local em
que estava no dia 1, ou seja, o período np + 1 é igual ao dia
1, e assim por diante; isso vale para todo o horizonte de
tempo e para todas as restrições. A restrição (3) garante
que todos os carros terão alguma designação para o dia p,
além disso garante que a capacidade de cada carro não seja
excedida. Já a restrição (4) é a mais complexa, ela se refere
a periodicidade em cada trecho e é quando podem ocorrer
punições, quando a necessidade é de apenas uma passagem
durante todo horizonte de tempo a restrição pode ser
simplificada para apenas um dia p e a variável pijp não é
necessária. E, finalmente, a equação (5) restringe todas as
variáveis a serem binárias.
5 CONSIDERAÇÕES FINAIS
Os problemas de roteamento em arcos têm grande
aplicabilidade e podem ser adaptados conforme as
necessidades. O PCARP é um problema NP-Hard e quanto
mais restrições tiver o problema, seja quanto à quantidade,
capacidade, ou tempo, mais difícil é encontrar uma
solução. O problema aqui proposto foi modelado e
executado no CPLEX 12.4 em um computador Core i5
com processamento de 3,1 GHz com 8 Gb de memória
RAM em um sistema operacional de 64 bits, instâncias
pequenas como Figura 1 com apenas 1 carro, 11 pontos, 12
arestas, 2 periodicidades obtiveram solução exata em 387
segundos. Problemas mais complexos com dois carros,
envolvendo um horizonte de tempo de 60 dias, 4
periodicidades, 21 pontos, 22 arcos são processados até a
memória do computador se esgotar e não obtêm-se uma
solução ótima, porém se limitar o programa a 24 horas de
iterações consegue-se bounds com boas soluções. Para
trabalhos futuros é interessante desenvolver heurísticas e
comparar soluções para escolher um método apropriado
para resolução do problema.
REFERÊNCIAS
Eiselt, H. A., Gendreau, M. & Laporte, G., Arc Routing
Problems , Part II : The Rural Postman Problem.
Operations Research, 43(3): 399–414, 1995a.
Eiselt, H. A., Gendreau, M. & Laporte, G., Arc Routing
Problems, Part I: The Chinese Postman Problem.
Operations Research, 43(2): 231–242, 1995b.
Ghiani, G., Musmanno, R., Paletta, G. & Triki, C., A
heuristic for the periodic rural postman problem.
Computers & Operations Research, 32(2): 219–228,
2005.
Hashemi Doulabi, S.H. & Seifi, A., Lower and upper
bounds for location-arc routing problems with
vehicle capacity constraints. European Journal of
Operational Research, 224(1): 189–208, 2013.
Lacomme, P. & Prins, C., Evolutionary algorithms for
periodic arc routing problems. European Journal of
Operational Research, 165: 535–553, 2005.
Monroy, I.M., Amaya, C.A. & Langevin, A., The periodic
capacitated arc routing problem with irregular
services. Discrete Applied Mathematics, 161: 691–
701, 2013.
13
ESTUDO PRELIMINAR DA INFLUÊNCIA DA ARMADURA NO DANO DE
LAJE DE CONCRETO DE BARRAGEM DE ENROCAMENTO
Liliane do Rocio Marconcin; Roberto Dalledone Machado; Luiz Alkimin de Lacerda.
Palavras-Chave: Barragem de Enrocamento, Mecânica do Dano Contínuo, Modelagem Numérica.
1 INTRODUÇÃO
As barragens de enrocamento com face de concreto
(BEFC) são constituídas por um corpo principal, composto
por blocos de rochas justapostas em camadas compactadas
e por uma laje de vedação na face de montante (ver Figura
1). Na fase de enchimento do reservatório, as deformações
induzidas devido aos esforços de pressão hidrostática
provocam movimentos diferenciais no enrocamento, que
podem contribuir para a formação de trincas e abertura das
juntas das lajes de concreto, produzindo novas
configurações de tensões e estabilidade. Nesse contexto,
este trabalho analisa a influência da armadura no dano
estrutural de lajes de concreto da face de barragens de
enrocamento, na fase de enchimento do reservatório. A
metodologia aplicada envolve os conceitos da Mecânica
do Dano Contínuo e leva em consideração o
comportamento não-linear do concreto. Para a
programação matemática utilizou-se o software Fortran,
cuja solução do problema adota técnicas do Método dos
Elementos Finitos (MEF).
Figura 1: BEFC.
2 LAJES DE BARRAGENS DE ENROCAMENTO
O empirismo dos critérios de projeto das lajes ainda
predomina, ver Loriggio e Senem (2003), tanto em relação
às espessuras quanto às taxas de armadura. Este fato se
justifica devido à consideração da laje como elemento de
vedação e não estrutural.
Segundo alguns pesquisadores, a laje funciona como uma
membrana e, portanto, não está sujeita aos esforços de
flexão. Com o enchimento do reservatório, o maciço de
enrocamento se deforma e a laje tende a se adaptar a esses
deslocamentos. Porém, especialmente para grandes
barragens, devido o aumento dos deslocamentos do corpo
da barragem, muitas fissuras surgem nas lajes, aumentando
consideravelmente o fluxo de água através do maciço,
gerando, com isso, preocupação com a estabilidade da
estrutura. Portanto, os critérios empíricos são ineficientes.
Assim, somente se a laje for bastante flexível, ou seja, de
pequena espessura, considera-se válida tal hipótese da
mesma funcionar como uma membrana (Loriggio e
Senem, 2003).
Segundo observações de Loriggio e Senem (2003), o
posicionamento da armadura no meio da altura da laje não
foi encontrado em normas, ou seja, não respeita os
critérios de dimensionamento e detalhamento estruturas de
concreto armado. Segundo as normas, o posicionamento
da armadura mínima, para peças fletidas, deve ser
determinado pela região tracionada das peças. Dessa
forma, maior desempenho estrutural se daria com a
colocação da armadura em ambas as faces da laje.
Dentro desse contexto, o presente estudo analisa
numericamente a influência da armadura no dano em lajes
de concreto da face de barragens de enrocamento, na fase
de enchimento do reservatório.
3 MODELO DE DANO DE MAZARS
O modelo para análise de dano de Mazars é isótropo,
considera o concreto como material elástico com dano
contínuo e está baseado em deformações (Saraiva e Creus,
1994).
A variável de dano é representada por escalar D (0 ≤ D ≤
1), cuja evolução ocorre quando se supera um certo valor
de referência para o alongamento equivalente.
A lei constitutiva é expressa por:
σ=(1-D)D0ε (1)
Onde σ é o tensor de tensões, ε é o tensor de deformações e
D0 é o tensor de rigidez elástico inicial.
O estado de extensão ou alongamento do material é
caracterizado pela deformação equivalente :
√
(2)
Onde é uma componente da deformação principal, com
sua parte positiva definida por:
[ | |] (3)
A variável de dano, D, é dada por uma combinação linear
das variáveis básicas de dano à tração e à compressão,
respectivamente, DT e DC, utilizando-se os coeficientes de
αT e αC:
(4)
As variáveis básicas de dano são dadas por:
[ ] (5)
[ ] (6)
Onde AT, BT, AC e BC são parâmetros característicos do
material e é a deformação equivalente abaixo da qual não
ocorre dano e εd0 é a deformação de referência, a
deformação elástica limite.
4 MODELO NUMÉRICO
A simulação numérica foi efetuada em linguagem de
14
programação Fortran, com o critério de controle de carga.
A laje (ver Figura 2) foi modelada pelo emprego de 1620
elementos finitos planos isoparamétricos (3 em relação à
altura e 540 em relação ao comprimento). Considerou-se o
modelo em duas dimensões, com espessura da laje igual a
0,3 m e o comprimento de 54 m. Na extremidade esquerda,
onde a laje se apóia no plinto, as restrições nas direções de
x e y foram aplicadas. Toda a borda inferior da laje foi
apoiada sob molas elásticas. Para o concreto utilizou o
mpodulo de elasticidade Ec=21,8 GPa e coeficiente de
Poisson de 0,2. O módulo de elasticidade utilizado para o o
aço foi Ea=210 GPa e coeficiente de Poisson 0,3. Tanto as
propriedades do concreto, quanto da armadura e dos
coeficientes de mola (ver Tabela ) foram extraídos de Silva
(2007). O carregamento foi aplicado de forma incremental,
considerando-se a resultante da pressão hidrostática da
água, que foi distribuída em dois elementos da laje
distantes 18 m do plinto. O erro máximo admitido no final
de cada incremento foi de 0,01%. Para a análise numérica
considerou-se o Estado Plano de Deformações. Dois
modelos foram processados. O primeiro modelo foi gerado
com uma taxa de armadura de 0,4% da seção de concreto,
inserida no centro da laje. O modelo número dois foi
gerado sem armadura.
Figura 2: Laje
Coeficiente Valor (kN/m)
K1 8406
K2 5632
K3 2675,6 Tabela 1: Coeficientes de Mola.
Os parâmetros de dano de Mazars são dados na Tabela 2:
Variável Valor
AT 0,9
BT 21000
AC 1,5
BC 1900
εd0 0,00001 Tabela 2: Parâmetros de Mazars.
5 RESULTADOS
Os elementos danificados, nos arredores do carregamento,
são mostrados para os modelos de laje com armadura (ver
Figura 2) e sem armadura (ver Figura ).
Figura 3: Elementos Danificados: laje com armadura.
Figura 4: Elementos Danificados: laje sem armadura.
6 CONCLUSÕES
Este trabalho analisou a influência da armadura no dano
estrutural de lajes de concreto da face de barragens de
enrocamento, na fase de enchimento do reservatório. Dois
modelos de laje foram estudados. No primeiro modelo
inseriu-se a armadura no centro da laje, como é habitual
neste tipo de estrutura. O segundo modelo não contou com
inclusão de armadura.
Como era esperado, os elementos que apresentaram maior
dano (0,995) foram os localizados embaixo do
carregamento, para ambos os modelos de laje.
Analisando o primeiro modelo verifica-se que os
elementos onde a armadura foi incluida não apresentaram
dano. Esse resultado procede, uma vez que a análise de
dano é feita nos elementos de concreto, segundo o modelo
de Mazars. Ainda, o maior número de elementos
danificados na face superior da laje pode ser indício de
concentração de tensões devido à inserção da armadura.
Apesar dos resultados indicarem que a armadura influencia
na danificação da laje, estes foram apenas testes iniciais,
portanto, para mensurar tal influência e generalizar os
resultados outros testes serão necessários.
REFERÊNCIAS
Loriggio, D. D.; Senem, P. R. Critérios de projeto da laje
de concreto em barragens de enrocamento com face
de concreto. In: V Simpósio Epusp sobre Estruturas
de Concreto. São Paulo: Brasil, 2003..
Saraiva, K. S.; Creus; G. J. Representação do
comportamento do concreto via mecânica do dano
contínuo. Mecánica Computacional, Vol. 14 pp.
190-199, 1994.
Silva, A. F. Análises tridimensionais de barragens de
enrocamento com face de concreto com o objetivo de
otimizar os critérios de projeto. Distrito Federal,
2007. 145 f. Tese (Doutorado) – Departamento de
Engenharia Civil e Ambiental, Faculdade de
Tecnologia, Universidade de Brasília.
15
TESTE DE CARREGAMENTO AXIAL EM UM ELEMENTO
REPRESENTATIVO DO CONCRETO
Guilherme Augusto Pianezzer, Fábio André Negri Balbo, Eloy Kaviski, Liliana Madalena Gramani, Marcelo Rassy Teixeira.
Palavras-Chave: Elemento representativo do concreto, intersecção de elipses, testes de colisão, carregamento axial.
1 INTRODUÇÃO
O concreto é um material poroso, heterogêneo, que pode
ser estudado em diferentes escalas (Tulio, 2001). Na escala
mesoscópica, ao analisar sua mesoestrutura, percebe-se a
presença de dois constituintes: A pasta de cimento
endurecida (Argamassa) e as partículas de agregado
graúdo, como pode ser observada na Figura 1.
Figura 1: Heterogeneidade do concreto (Mehta e Monteiro, 2008)
Para estudar o comportamento do concreto é preciso lidar
com esta heterogeneidade e para isso surge a necessidade
de criar um elemento representativo. Com ele é possível
estudar as tensões e deformações, resultantes dos efeitos
que o concreto está sujeito, como a retração, a fluencia e as
tensões de carregamento.
2 CURVA GRANULOMÉTRICA DO AGREGADO
GRAÚDO
As estruturas feitas de concreto são feitas com diversos
tamanhos de pedra britada, com o intuito de aproveitar,
principalmente, os materiais locais. Assim, cada uma delas
é única e a descrição de sua variabilidade é realizada pela
curva granulométrica. A curva granulométrica é o
resultado do teste de peneiramento, que pode ser realizado
em materiais formados por grãos. No peneiramento o
material estudado é classificado em grupos de acordo com
o tamanho geométrico de suas partículas.
Para fazer essa classificação utiliza-se uma série de
peneiras de aberturas diferetnes que barram as partículas
de acordo com seu tamanho. Assim, a curva
granulométrica apresenta uma distribuição do tamanho
geométrico dos agregados que formam o concreto e ao
analisá-la é possível aproveitar cada tipo de material para
utilidades diversas (Pinto, 2008).
Para este trabalho, os dados utilizados foram baseados no
resultado da Tabela 1 de análise de peneiramento.
Abertura da Peneira
(mm)
Porcentagem total
retida (%)
12,70 0
9,50 23
4,75 74
2,36 100 Tabela 1: Resultado da análise de peneiramento (Wriggers e
Moftah, 2006)
3 GERAÇÃO DO ELEMENTO
REPRESENTATIVO DO CONCRETO
Para a geração do elemento representativo do concreto, um
algoritmo foi desenvolvido para permitir gerar a posição
dos agregados graúdos no domínio do concreto. Para isso
algumas hipóteses foram consideradas:
1. Os agregados devem estar inteiramento contidos
no domínio do concreto.
2. Não deve existir intersecção entre os agregados.
3. Os agregados possuem formato elíptico.
Com estas aproximações, o problema de gerar um
elemento representativo do concreto se reduziu a
encontrar, computacionalmente, as intersecções entre
figuras elípticas.
Para este estudo, utilizou-se como referência (Choi, Y. K.
et al, 2005). O algoritmo para geração do elemento
representativo do concreto pode ser encontrado em
(Pianezzer, Et al, 2013).
O resultado obtido depende da área que os agregados
ocupam no total do concreto, o qual é representado pelo
parâmetro pa e um desses resultados pode ser visualizado
na Figura 2.
Figura 2: Agregados Elípticos ( pa =60%)
O tamanho do elemento representativo do concreto
utilizado foi fixado em 10,000 mm², de forma quadrada
com lados 100 mm.
4 TESTE DE CARREGAMENTO AXIAL
Após a geração do elemento representativo do concreto a
partir da curva granulométrica, submeteu-se o material a
um teste computacional de carregamento axial, onde as
propriedades dos componentes utilizadas foram aquelas
utilizadas em (Teixeira, 2011) e estão na Tabela 2.
Módulo de
Elasticidade
(E, MPa)
Coeficiente de
Poison
Argamassa 3x10^4 0,30
Agregado Graúdo 5x10^6 0,30 Tabela 2: Característica dos componentes (Teixeira, 2011)
16
Neste caso, foi realizado um ensaio de compressão axial
com deslocamento prescrito na fronteira essencial e
deslocamento nulo na fronteira natural. Assim, os mapas
das Figuras 3 (Deformação Vertical), Figura 4
(Deslocamento Vertical) e Figura 5 (Tensão Vertical)
foram gerados.
Figura 3: Deslocamento Vertical
Figura 4: Deslocamento Vertical
Figura 5: Tensão Vertical
5 CONCLUSÕES
O objetivo deste trabalho foi de gerar e discutir sobre um
algoritmo para geração dos agregados elípticos no domínio
do concreto. A partir da curva granulométrica foi possível
desenvolver um algoritmo que determina o tamanho de
cada agregado e a partir das duas hipóteses foi possível
posicionar os agregados de maneira que eles formassem o
elemento representativo do concreto. Com o elemento
representativo do concreto gerado, foi possível descrever o
mapa de tensões, deslocamentos e deformações.
Para obter mais detalhes de como cada processo foi
realizado, consultar (Pianezzer, et. al, 2013). E para obter
mais fundamentação teórica sobre o elemento
representativo do concreto, consultar (Bazant, et. al, 1990)
e (Wittman et al., 1984).
REFERÊNCIAS
Bazant, Z. P; Tabbara, M. R,Kazemi, M. T. Random
parcile model for fracture of aggregate of fiber
composites. J. Engng Mech, v. 116, n. , p. 1686-1705,
1990.
Choi, Y. K., Wang, W., and Liu, Y., Continuous collision
detection for elliptic disks. HKU CS Tech Report,
2005.
Mehta, P.K., Monteiro, P.J.M., Concreto – Microestrutura,
propriedades e materiais. IBRACON. São Paulo,
2008
Pianezzer, G.A., Balbo, F. A. N., Kaviski, E., Gramani, L.
M., Teixeira, M. R. Um algoritmo para geração do
elemento representativo do concreto com agregados
graúdos em formato elíptico. Revista SODEBRAS,.
V.8, p.1, 2013
Pinto, C. Curso Básico de Mecânica dos Solos. São Paulo:
Oficina de Textos, 2008.
Teixeira, M.R.., A contribution to the numerical modeling
of the heterogeneity of concrete with the elements
free Galerkin method, Tese, São Paulo, 2011.
Tulio, B. N. Experimental analysis of fracture processes in
concrete. Revista Brasileira de Ciências Mecânicas,
v. 23, p. 545-550, 2001.
Wittman, F. H., Roelfstra, P. E., Sadaouki, H. Simulation
and analysis of composite structures. Mater, Sci,
Engng, v. 68, p. 239-248, 1984.
Wriggers, P. Moftah, S. O. Mesoscale models for
concrete: Homogenization and damage behavior.
Elsevier. V. 42, p. 623-636, 2006. ISSN 1631-0721.
17
ANÁLISE DA INTENSIDADE DO PICO DE CORRENTE DE DESCARGAS
ELÉTRICAS ASSOCIADAS À TEMPESTADES IDENTIFICADAS POR
TÉCNICAS DE CLUSTERIZAÇÃO
Mariana Kleina; Luiz Carlos Matioli; Eduardo Alvim Leite.
Palavras-Chave: Descargas atmosféricas, Variabilidade do pico de corrente, Técnicas de Clusterização.
1 INTRODUÇÃO
Descargas elétricas merecem bastante atenção devido ao
seu potencial destrutivo, especialmente no Brasil que é o
líder mundial em ocorrências. Um setor fortemente
impactado por elas é o setor elétrico, podendo ocorrer
danos em equipamentos e desligamentos não programados.
Existem diversos tipos de descargas, sendo a de maior
interesse as que atingem o solo, denominadas “nuvem-
solo”. A característica da descarga responsável pelo seu
potencial de impacto e dano no sistema elétrico é o seu
pico de corrente. Existe grande variabilidade temporal e
espacial associada a esta variável, mas seu conhecimento é
limitado, sendo que a prática corrente na engenharia
elétrica é considerar a distribuição geral de probabilidade
desta variável, dita “climatológica”, estimada a partir de
medições em todo o planeta. Historicamente, a distribuição
lognormal tem sido usada para descrever a distribuição do
pico de corrente das descargas (Berger et al. 1975).
1.1 Objetivo
Analisar a variabilidade da intensidade do pico de corrente
de descargas à nível de cada evento de tempestade,
formadas por técnicas de clusterização, buscando
identificar se o comportamento desta variável apresenta
dissonância em relação ao comportamento climatológico.
2 MATERIAIS E MÉTODOS
2.1 Região de Estudo
Conhecer as características das tempestades que afetam o
setor elétrico é de grande valia, por isso a região piloto
para esta pesquisa é a região da Linha LT 765 kV,
conhecida como Linhão de Itaipu, responsável por um
sexto da energia consumida no Brasil. Esta linha se inicia
em Foz do Iguaçu (PR) e se estende até Tijuco Preto (SP).
2.2 Dados de Descargas Elétricas
Os dados de descargas utilizadas foram provenientes da
RINDAT, mantido pelo Instituto Tecnológico SIMEPAR
em cooperação com Furnas, CEMIG e INPE, com
informações de dia e horário, localização
(latitude/longitude) pico de corrente (em kA) de todas as
descargas incidentes em 2011 sobre a região do Linhão de
Itaipu, totalizando 1.448.466 descargas.
2.3 Agrupamentos de Descargas Elétricas
Para que uma tempestade elétrica seja caracterizada, fez-se
uso da metodologia de agrupamentos de descargas por
técnicas de clusterização. O conceito de clusterização é
basicamente unir dados similares no mesmo grupo,
também chamado de cluster, assim dados de um mesmo
cluster tem mais características em comum entre si do que
com dados de outros clusters (Rasmussen, 2013). São
necessárias técnicas de clusterização onde não se conheça
o número de clusters, pois esse número varia de acordo
com o número de descargas que incidiram no tempo
considerado, o qual depende dos períodos do dia, estações
do ano, entre outros. O software usado foi o “R” e os tipos
de clusterizações utilizados na pesquisa são descritos a
seguir:
Hierárquica pelo Centroide – inicia-se com todos os
pontos sendo clusters unitários. Os dois clusters cujos
centroides sejam mais próximos são unidos e seu centroide
é recalculado (Hair et al. 2009). O processo repete-se até
que todos os centroides dos clusters estejam uns dos outros
a uma distância estabelecida.
Densidade (DBSCAN) – considera grupos como sendo
regiões densas de pontos no espaço de dados que são
separados por regiões de baixa densidade. Para o
DBSCAN (Density-Based Spatial Clustering of
Applications with Noise) um grupo é definido como um
conjunto máximo de pontos conectados por densidade.
Este método requer que dois parâmetros iniciais sejam
informados: o raio (distância entre um ponto e seus
vizinhos) e o número mínimo de pontos (Ester et al. 1996).
Sharp – foi introduzida por Choi and Hall (1999) a fim de
reduzir viés movendo observações através de modos
locais. Este método ajusta os dados distantes da moda ou a
alguma distância das caldas e não altera os demais. Foi
utilizada como algoritmo de clusterização por Woolford
and Braun (2006) para agrupar relâmpagos e também será
utilizada nesta pesquisa. O parâmetro para este método é a
largura da banda no ajuste das distribuições.
3 ANÁLISE DOS RESULTADOS
Foram então clusterizados as descargas incidentes na
região de estudo no ano de 2011 considerando a janela de
tempo de uma hora, utilizando os três métodos de
agrupamentos descritos anteriormente, variando seus
parâmetros. Lembrando que os parâmetros são: distância
máxima entre centros dos grupos para o método
hierárquico, raio e o número mínimo de pontos para o
algoritmo DBSCAN e largura da banda para o Sharp.
A Figura 1 ilustra apenas uma das 8760 (365 dias de 2011
x 24 horas) clusterizações feitas por cada um dos três
métodos. A clusterização mostrada é a hierárquica com
parâmetro distância = 100 km, feita no dia 18/01/2011 das
20 às 21 horas, totalizando 2877 descargas. Os 11 clusters
formados são separados por cores.
18
Figura 1: Descargas clusterizadas pelo método hierárquico.
Para que se possa comparar o comportamento das
tempestades formadas pela clusterização com seu
comportamento climatológico em termos da intensidade do
pico de corrente, foram geradas tempestades aleatórias
através da simulação Monte Carlo.
Como admite-se que o pico de corrente segue uma
distribuição lognormal, então o logaritmo do valor
absoluto do pico de corrente (LAPC) é aproximadamente
normal. Assim pela normalidade desta variável, almeja-se
diferenciar tempestades clusterizadas de tempestades
aleatórias pela média e desvio padrão do LAPC dentro de
cada grupo formado no sentido de que pela primeira
técnica espera-se que haja grande variabilidade em relação
à média e pouca variabilidade para o desvio padrão desta
variável dentro de cada tempestade. Já para a segunda
técnica este comportamento pode não ser observado, não
conseguindo separar descargas com altos e baixos valores
para o seu pico de corrente. E para confirmar o
pressuposto, os seguintes índices foram calculados:
µσ = µ(σclusters)/µ(σaleatórios) (1)
e
σµ = σ(µclusters)/σ(µaleatórios) (2)
A Equação 1 mede a proporção de quanto a média dos
desvios padrões do LAPC de tempestades clusterizadas
varia em relação à média dos desvios das tempestades
geradas aleatoriamente. Como o LAPC segue a
distribuição normal, espera-se que os desvios dos clusters
sejam pequenos em média. Já a Equação 2 mede a
proporção de quanto o desvio padrão das médias do LAPC
dos clusters varia em relação ao desvio padrão das médias
das tempestades aleatórias. Resumidamente, espera-se que
os métodos de clusterização consigam separar descargas
que possuem picos de corrente altos das que possuem
baixos picos de corrente, e pela normalidade associada à
essa variável, estes índices irão evidenciar este fato.
Na Tabela 1, são mostrados os resultados da metodologia
proposta aplicada às três técnicas de clusterização
descritas, para alguns parâmetros. Analisando, por
exemplo, o resultado do algoritmo DBSCAN com
parâmetros raio = 100 km e número mínimo de pontos =
20, conclui-se que o desvio padrão das médias dos clusters
é 4.9 vezes maior do que o desvio padrão das médias das
tempestades aleatórias; e a média dos desvios padrões dos
clusters é 11.4% menor do que a média dos desvios
padrões das tempestades aleatórias.
Clusterização/parâmetro(s) σµ µσ
Hierárquica / 100 4.513 0.868
Hierárquica / 125 4.711 0.874
Hierárquica / 150 4.811 0.884
DBSCAN / 50 20 DBSCAN / 75 20
DBSCAN / 100 20
Sharp / 0.1
Sharp / 0.5
4.313 4.863
4.901
3.862
4.842
0.852 0.872
0.886
0.845
0.884
Tabela 1: Legenda da Tabela.
À vista disso, fica evidenciado que os métodos de
clusterização são capazes de reproduzir as características
das tempestades elétricas no que diz respeito a mais
importante variável da descarga: o pico de corrente.
4 CONCLUSÕES
Através do estudo realizado, pode-se comprovar o
pressuposto de que tempestades elétricas se caracterizam
como tipo específico de eventos meteorológicos, estão sob
influência de condições atmosféricas próprias, assim
apresentando comportamentos específicos de descargas em
relação ao seu pico de corrente, diferindo do
comportamento climatológico conhecido na literatura.
No contexto geral, independente da técnica de
clusterização e dos parâmetros, é possível afirmar que o
pico de corrente de descargas de tempestades agrupadas
por clusterização apresentam características próprias,
diferindo e muito das características do pico de corrente
das descargas como um todo.
Com o desenvolvimento destes métodos de clusterização
espera-se futuramente poder estudar e identificar as
características das tempestades elétricas capazes de
produzir descargas de alta intensidade de pico de corrente,
aumentando a capacidade de previsão e alerta antecipado
aos múltiplos setores impactados pela sua ocorrência, em
especial, o setor elétrico.
REFERÊNCIAS
Berger, K., Anderson, R. B., and Kroeninger, H.,
Parameters of lightning flashes. Electra, 41:23–37,
1975.
Choi, E., and Hall, P., Data sharpening as a prelude to
density estimation. Biometrika, 86:941–947, 1999.
Ester, M., Kriegel, H-P., Sander, J., and Xu, X., A
Density-Based Algorithm for Discovering Clusters in
Large Spatial Databases with Noise. International
Conference on Knowledge Discovery and Data
Mining (KDD-96), 226–231, 1996.
Hair, J. F., Black, W. C., Babin, B. J., and Anderson, R. E.,
Multivariate Data Analysis. 7th Edition, Hardcover,
2009.
Rasmussen, E. Clustering Algorithms. Acesso: 18/09/13, http://orion.lcg.ufrj.br/Dr.Dobbs/books/book5/chap16.ht
m
Woolford, D. G., and Braun, W. J., Convergent Data
Sharpening for the Identification and Tracking of
Spatial-Temporal Centers of Lightning Activity. John
Wiley & Sons, 2006.
19
USO DA REDE NEURAL SELF ORGANIZING MAPS NA CLUSTERIZAÇÃO DE
DADOS METEOROLÓGICOS DE REFLETIVIDADE
Jorge Vinicius Ruviaro Bonato; Paulo Henrique Siqueira; Cesar Augustus Assis Beneti.
Palavras-Chave: Rede Neural Artificial, Clusterização, Dados Meteorológicos, Refletividade.
1 INTRODUÇÃO
Os dados utilizados nesse trabalho são provenientes do
radar meteorológico do Instituto Tecnológico Simepar,
instalado na cidade de Teixeira Soares - Pr, com alcances
qualitativo de 200 km e quantitativo de 400 km.
Radares meteorológicos são formados por 4 componentes
principais: um transmissor, antena, receptor e display. O
transmissor emite um onda eletromagnética, que é então
direcionada à atmosfera pela antena. Na atmosfera, o sinal
viaja a velocidade da luz, até o momento em que atinge
algum objeto, meteorológico ou não. Ao atingir o alvo,
parte da onda eletromagnética é refletida em direção ao
radar, sendo detectada pelo receptor e mostrada através do
display.
A varredura da atmosfera, pelo radar, geralmente se dá a
partir da rotação da antena em torno de um eixo vertical,
varrendo o horizonte ao redor do radar. Dessa maneira,
para cada elevação e grau de rotação, emite-se um sinal
eletromagnético e com base no intervalo de tempo entre
emissão e retorno, pode-se determinar a distância alvo-
radar, e assim saber sua localização.
Uma das variáveis passíveis de medição através de um
radar, denominada refletividade, se relaciona à parcela do
sinal emitido pelo radar que retorna ao atingir algo
presente na atmosfera. Medida em dBZ, varia de acordo
com a composição do objeto refletor, sua concentração na
atmosfera e estado físico em que se encontra.
Antes de aplicar a rede neural aos dados de refletividade
foi necessária uma mudança de coordenadas, de polar para
cartesiana, usando resolução horizontal de 1km x 1km, e
vertical de 0.5km.
Após a mudança de coordenadas, a matriz com os dados
de refletividade gerada era da forma 200x200x10. Dessa
matriz, procurou-se em cada coluna, o máximo valor de
refletividade, reduzindo assim a matriz inicial à uma
matriz com dimensão 200x200.
2 METODOLOGIA
A tarefa de clusterização de dados requer a escolha das
características que melhor representam os grupos e , além
da definição de uma função para medir a semelhança dos
padrões.
Para clusterizar os dados utilizou-se SOM (Self Organizing
Maps – Mapas Auto organizáveis de Kohonen), uma rede
neural artificial de aprendizado não-supervisionado
desenvolvida por T Kohonen (1995).
A rede neural utilizada é formada por três camadas, sendo
uma de entrada, uma escondida e uma de saída. Os dados a
serem agrupados são introduzidos na camada de entrada,
na camada escondida estão os neurônios e na camada de
saída apresentam-se os resultados.
Trata-se de uma rede neural do tipo FEED-FORWARD, ou
seja, há um único caminho percorrido pelos dados,
iniciando na camada de entrada, passando apenas uma vez
pela camada escondida, e então seguindo para a camada de
saída.
Seu aprendizado se baseia nos processos de competição e
cooperação. Durante o processo de competição os dados
são apresentados a todos os neurônios presentes na camada
escondida, e então determina-se o neurônio mais
semelhante a cada padrão de entrada. Para cada neurônio
vencedor, determina-se uma vizinhança topológica, com
neurônios que também terão seus pesos sinápticos
atualizados.
Seu algoritmo pode ser descrito pela seguinte sequencia:
1. Inicialização dos neurônios e seus pesos sinápticos;
2. Definição de parâmetros;
3. Apresentação dos dados de entrada;
4. Cálculo de similaridade;
5. Determinação do neurônio vencedor;
6. Definição da vizinhança topológica do neurônio
vencedor;
7. Atualização dos pesos sinápticos dos neurônios.
3 RESULTADOS
A rede neural foi aplicada, entre outros, aos dados da
leitura de radar do dia 01/04/11, data essa escolhida por
apresentar chuva severa com presença de granizo.
Inicialmente fez-se uma filtragem nos dados, eliminando
da matriz os valores de refletividade fora do intervalo entre
30 e 60 dBZ. Escolheu-se esses valores por já serem
usados em algumas técnicas de Nowcasting, sendo essa
uma das aplicações do resultado da rede neural.
20
Figura 1: Clusterização dos dados de 01/04/11 às 20h
Figura 2: Clusterização dos dados de 01/04/11 às 21h
Nas figuras 1 e 2, cada elemento mostrado na imagem
representa uma nuvem. Cada elemento da legenda
representa um neurônio da rede, assim a rede teria bons
resultados se cada nuvem fosse representada por apenas
um neurônio.
4 CONCLUSÕES
Observando as imagens geradas nota-se que as variáveis
escolhidas não foram suficientes para gerar um bom
resultado, pois houve ocorrência de divisões em alguns
clusters gerados. Para melhora nos resultados pretende-se
acrescentar outras variáveis, entre elas a altura do máximo
valor de refletividade e altura de ocorrência de valores de
refletividade iguais a 30 e 45dBZ.
REFERÊNCIAS
Kohonen, T., “Self-Organizing Maps”, SPRINGER, New
York, 1995
21
MODELO DE PREDAÇÃO SELETIVA: OCORRÊNCIA DE DOENÇA
CONTAGIOSA NA POPULAÇÃO DE PRESAS
Danilo Francelino Fuckner Leonel; Carlos Henrique dos Santos; Liliana Madalena Gramani; Luiz Antonio Ribeiro de
Santana.
Palavras-Chave: Predação seletiva, Predador-Presa, Doença Infecciosa.
1 INTRODUÇÃO
Analisamos um modelo matemático de situação epidemio
ecológica de predação seletiva. Após adimensionalizar as
equações correspondentes, consideramos a análise, sob o
ponto de vista de estabilidade linear, dos modelos que
tratam da interação das populações de presas suscetíveis S,
presas infectadas I e predadores P, onde a população S é
infectada por contato com a população I. Optamos por
alterar num dos sistemas, proposto em Das et al. (2009) a
modelagem feita para o crescimento de predadores, tendo
em vista que o comportamento populacional mais
interessante para se estudar é o da população de presas,
devido a predação ocorrer na população que é suscetível à
doença.
2 FORMULAÇÃO DO MODELO MATEMÁTICO.
De acordo com o artigo de Das et al. (2009) foram
estabelecidas condições para uma situação de predação
seletiva. Considera-se um problema teórico em ecologia,
onde ocorre a predação de indivíduos não infectados por
uma determinada doença. Para representar essa situação,
foi levada em consideração que a população de presas está
dividida em duas classes quando na ocorrência da doença.
Seriam S os indivíduos suscetíveis à doença, ou seja, a
parcela saudável da população total; e I os indivíduos
infectados pela doença. Supondo que a população
contaminada pela doença não seja capaz de se reproduzir,
então a variação da densidade populacional de presas
ocorrerá apenas dentre os indivíduos suscetíveis. Também
se releva a capacidade ambiental para um determinado
número de indivíduos e, portanto o crescimento da
população suscetível é admitido como sendo logístico.
A constante r será a taxa de crescimento intrínseco da
população de presas suscetíveis e K a capacidade
ambiental de sustentação da espécie, mais comumente,
capacidade de suporte. É importante observar que a
limitação para o crescimento leva em consideração a
população total de presas, porque se supõe que os
indivíduos infectados também competem por alimento e
espaço com os saudáveis.
Considerando a predação seletiva, é proposto que os
predadores têm preferência pelos indivíduos suscetíveis,
pois por alguma razão conseguem detectar quais
indivíduos possuem ou não a doença. A diminuição que
ocorre na variação populacional de presas suscetíveis é
dada pela equação de Holling da resposta funcional do tipo
2 (Holling, 1959). Essa resposta leva em consideração um
tempo de manipulação de cada presa que o predador
consome e ocorrerá a uma taxa de eficiência da predação
ω e uma constante de saturação média m.
Em Das et al. (2009), se supõe que a variação da
população de predadores ocorre logisticamente e aumenta
com a resposta funcional da predação de indivíduos
suscetíveis vezes a constante de eficiência da predação.
Essa interpretação sugere que o tempo de vida médio dos
predadores é muito maior que o tempo de vida médio das
presas, o que para uma interpretação em curto prazo de
tempo leva a se desconsiderar a mortalidade nessa
população no modelo. Por essa razão resolvemos propor
outra situação de variação da densidade populacional dos
predadores ao problema.
Consideramos que o crescimento da população de
predadores depende da predação, onde ε é a constante de
eficiência da predação, ou seja, a conversão de biomassa;
vezes a equação da resposta funcional do tipo 2 como
falamos anteriormente. O tempo de vida médio dos
indivíduos da espécie não é tão grande quanto o tempo de
vida médio da população de presas, logo consideramos a
morte de indivíduos na população de predadores à uma
taxa e.
A presença da doença na população de presas terá como
resposta a diminuição de indivíduos suscetíveis, que por
sua vez passam à classe de infectados. Aqui é considerada
a forma de transmissão direta de parasitos, de um
hospedeiro para o outro, ou seja, não houve necessidade de
um vetor para a sua transmissão. Para a maioria das
infecções, a taxa de contato aumenta proporcionalmente à
densidade da população. Daí, a taxa de produção de novas
infecções é igual a ßSI, onde ß é o coeficiente de
transmissão. Isso é chamado de transmissão dependente da
densidade e também conhecido por lei da ação de massas.
Considera-se também que a doença leva à morte e de
forma mais rápida que a morte natural, por isso
desconsiderou-se a mortalidade das presas suscetíveis. Não
ocorre recuperação uma vez que infectado. Escrevemos a
mortalidade dos indivíduos infectados ocorrendo à taxa d.
A partir dos pressupostos acima podemos escrever o
modelo, dado pelas equações a seguir:
(
)
22
O sistema é analisado com as seguintes condições iniciais:
S(0) > 0; I(0) > 0; P(0) > 0.
Do ponto de vista biológico, nosso maior interesse é saber
o que ocorrerá no sistema em longo prazo (Ludwig et al.,
1978). Por isso, queremos obter informações sobre o
comportamento das soluções quando o tempo tende ao
infinito. Realizamos a análise qualitativa do sistema pelo
primeiro método de Lyapunov. Uma introdução ao estudo
de estabilidade de Lyapunov pode ser encontrada em
Bobko (2010).
3 CONCLUSÕES
O modelo de Lotka-Volterra da competição interespecífica
traz esclarecimento sobre os fatores determinantes da
interação competitiva, (Edelstein-Keshet, 2005 e
MURRAY, 2003). Das principais conclusões do modelo,
temos a possibilidade de interações fracas, onde podem as
espécies coexistir, e fortes, onde uma das espécies acaba
extinta. O princípio da exclusão competitiva (Holt, 1977) é
observado pelo modelo quando a interação entre as
espécies é agressiva, ou seja, forte.
Não havendo situação de pontos de equilíbrio na presença
das três populações consideradas no sistema, já fomos
levados à conclusão de não coexistência das três. Quando
analisamos a estabilidade dos pontos críticos, obtivemos
todas as possibilidades ecológicas para a situação
modelada. Com essas considerações, uma possível
interpretação é a de ocorrência de competição entre a
população de predadores e o parasito que gera a doença na
população de presas.
A influência de um parasito na dinâmica populacional do
hospedeiro ainda é uma questão não resolvida em ecologia
de populações, pois mesmo sabendo da influência que os
parasitos têm sobre taxas demográficas e que modelos
matemáticos apontam o potencial de um parasito sobre a
dinâmica do hospedeiro, ainda são incomuns dados reais
sobre esse tipo de interação afetar de forma significativa,
mas exemplos existem (Begon et al., 2007).
A aparente situação de competição é revelada pelo
comportamento das soluções. Pensamos na população de
presas suscetíveis na situação de recurso explorado pela
população de predadores e pelo parasito responsável pela
doença infecciosa, o que se configura como competição de
exploração, pela interação indireta mediada pelo recurso
compartilhado.
Sobre a predação com seleção e doença na presença de
uma alimentação alternativa, a sobrevivência de um
predador é dependente da dinâmica de uma comunidade de
presas suscetíveis e infectada. Como sempre, esse modo de
predação afeta a dinâmica da população de presas
infectadas por contato, de forma indireta. Nesse trabalho,
observamos a não coexistência da população de
predadores e da doença, ou seja, existem combinações de
parâmetros nas quais a população de presas infectadas
desaparece do meio. Esse é um dos casos, dentre todos os
mostrados na nossa análise de estabilidade e exemplos
numéricos, de fenômenos interessantes.
REFERÊNCIAS
Begon, Michael; Townsend, Colin R.; Harper, John L.,
Ecologia: de indivduos a ecossistemas (Tradução de
Adriano Sanches Melo - 4. ed.), Artmed, Porto
Alegre, 2007.
Bobko, Nara, Estabilidade de Lyapunov e Propriedades
Globais para Modelos de Dinâmica Viral,
Dissertação de Mestrado, PPGMA-UFPR, 2010.
Das, Krishna pada; Roy, Shovonlal; Chattopadhyay, J.,
Efect of disease-selective predation on prey infected
by contact and external sources, BioSystems, (2009)
188-199.
Edelstein-Keshet, Leah, Mathematical Models in Biology,
Society for Industrial and Applied Mathematics
Philadelphia, USA, 2005.
Holling, C. S., Some characteristics of simple types of
predation and parasitsm, Canadian Entomologist, 91,
(1959) 385-398.
Holt, R. D., Predation, apparent competition and the
structure of prey community, Theoretical Population
Biology, 12, (1977) 197-229.
Ludwig, D.; Jones, D.D.; Holling, C.S., Qualitative
Analysis of Insect Outbreak Systems: The Budworm
and Forest, Journal of Animal Ecology, 47, (1978)
315-332.
Murray, J. D., Mathematical Biology, Third Edition,
Springer, 2003.
23
UMA ABORDAGEM PROBABILÍSTICA PARA A ESTABILIDADE DE
TALUDES DE BARRAGENS DE ATERRO
Tereza Rachel Mafioleti; Anselmo Chaves Neto.
Palavras-Chave: Barragens de Aterro, Fator de Segurança, Índice de Confiabilidade, Estabilidade.
1 INTRODUÇÃO
Taludes podem ser definidos como superfícies inclinadas
de maciços terrosos, rochosos ou mistos (Caputo, 1987).
Um talude é dito natural quando originado de processos
geológicos, geomorfológicos e ações antrópicas, e é dito
artificial quando se trata de declive de aterros construídos
pelo homem com o uso de materiais diversos (Pimenta
2005). No caso de barragens pode-se observar a presença
de dois taludes: um à montante e outro à jusante.
Figura 1: Seção Transversal da barragem Lagoa da Grande
Quando o talude de uma barragem é instável há grande
chance de ocorrência de fenômenos, tais como, piping e
escorregamento da massa de solo, que podem levar a
ruptura da barragem, causando danos e perdas
imensuráveis.
É imprescindível a garantia da estabilidade das obras de
terra, tais como barragens. Caputo (1987) descreve que
preocupações com questões dessa natureza surgiram no
final do século XIX motivadas por numerosos acidentes
ocorridos em obras de engenharia. Dos encontros
internacionais que foram realizados no início do século
XX originou-se o estudo formalizado da Mecânica dos
Solos. Desde então estudiosos e pesquisadores têm se
engajado nas causas da Mecânica do Solo e têm
desenvolvido e aperfeiçoado técnicas relacionadas à
estabilidade de taludes.
2 FATOR DE SEGURANÇA
O Método do Equilíbrio Limite é um método
determinístico para o cálculo do fator de segurança (F).
Segundo Cruz (1973):
A
R
M
MF (1)
RM : momento resistente AM : momento atuante
É desejavel que a resistência do solo seja maior que as
forças atuantes no mesmo. Se F > 1 a obra é considerada
estável. Caso AR MM , então F = 1 e ocorre ruptura.
De acordo com Pimenta (2005) a superfície de ruptura
mais provável em solos homogêneos é a de forma circular
ou cilíndrica, uma vez que o círculo tem a menor área por
unidade de massa. Tal situação é contemplada por um
talude artificial, que pode ser uma barragem.
O momento resistente é dado em função da tensão de
cisalhamento s na superfície de ruptura descrita pelo
modelo constitutivo elastoplástico de Mohr-Coulomb
(Rodrigues, 2010).
tgcs ' (2)
c : coesão
' : pressão efetiva na superfície de escorregamento
: ângulo de atrito entre as partículas
A análise é feita num plano bidimensional e a superfície é
dividida em lamelas (Cruz, 2004).
Figura 2: Forças atuantes numa lamela vertical
As forças atuantes nas n lamelas têm as quantidades por
setor circular dadas entre parênteses:
'N : forças normais efetivas nas bases (n)
l : pontos de aplicação da força 'N (n)
T : forças de cisalhamento nas bases (n)
'E : pressões efetivas entre lamelas (n-1)
Z : pontos de aplicação da força 'E (n-1)
Adicionando (n-1) forças de cisalhamento entre as lamelas,
tem-se um total de (6n – 1) incógnitas. Em condições
estáveis, cada lamela deve satisfazer as equações do
equilíbrio estático:
0momentos (3)
0 verticaisforças (4)
0 shorizontaiforças (5)
O critério de Mohr-Coulomb fornece para cada lamela o
valor de T como uma função de 'N . Sendo assim, tem-se
um sistema indeterminado com 4n equações e 6n – 1
incógnitas. Para que o valor de F seja determinado, 2n – 1
hipóteses independentes devem ser formuladas.
No decorrer dos anos foram desenvolvidos os métodos que
consideram diferentes hipóteses: Fellenius (1936), Bishop
Simplificado (1950), Bishop (1955), Jambu, Kenney,
Morgenstern & Price (1965), Spencer (1967), Sarma (1973
e 1979). Tais métodos têm sido amplamente utilizados
inclusive com o auxílio de ábacos, porém possuem
limitações dadas pelas suposições do Equilíbrio Limite.
Rodrigues (2010) enfatiza que a abordagem determinística
para estudos de estabilidade de taludes tem sido criticada
pois os parâmetros para determinação de F sofrem
mudanças dadas por diversas condições. Ou seja, o fator F,
uma vez calculado, não representa um
24
valor definitivo. Cruz (1973) afirma que dentre as
condições mais desfavoráveis a estabilidade da barragem
estão aquelas que ocorrem à longo prazo, após o
enchimento do reservatório.
Tem-se sugerido uma abordagem probabilística como
complemento à determinística, a qual visa determinar a
probabilidade da ocorrência de rotura (Dell’Avanzi, 1995).
3 ÍNDICE DE CONFIABILIDADE.
As causas da variabilidade nos dados utilizados para o
cálculo do fator de segurança F podem estar nas condições
naturais. Além destas, Dell’Avanzi (1995) ressalta que
durante a caracterização geotécnica do solo nos diversos
procedimentos ocorrem erros sistemáticos e aleatórios que
são refletidos no valor de F. A análise probabilística visa
quantificar as incertezas desconsideradas nos métodos
determinísticos.
Na Confiabilidade Estrutural o índice de confiabilidade β é
definido pela razão entre a margem de segurança e o
desvio padrão dessa estatística, ou seja,
22QR
QR
M
M
(6)
onde R e Q referem-se à resistência e ao carregamento,
respectivamente. De modo que a probabilidade de falha do
sistema de engenharia é dado por pF = 1 - () e para um
valor de β = 4,75 tem-se para pF um valor de 10-6
.
R R ou Q
fQ(q)
fR(r)
Q
Figura 3: Margem de segurança e influência do desvio padrão
O índice expressa a confiabilidade do fator de
segurança e exerce influência direta na probabilidade de
ruptura pF. Quando as variáveis aleatórias que determinam
F possuem distribuição normal, a probabilidade de ruptura
pF do talude corresponde a área sob a curva da densidade
de probabilidade de F, quando 1F (Guedes 1997).
Figura 4: fator de segurança F x função densidade de
probabilidade de F
Um fator de segurança alto, porém com grande desvio
padrão, apresenta maior probabilidade de ruptura, e índice
de confiabilidade menor. Observa-se, então, que o valor do
desvio padrão é decisivo nesta questão. Um fator de
segurança não tão alto, porém com pequeno desvio padrão
mostra-se mais confiável, pois apresenta menor
probabilidade de ruptura.
Dadas as condições da barragem de aterro, para um estudo
em questão é necessário determinar uma probabilidade de
ruptura aceitável. É coerente definir valores distintos para
os taludes da barragem à montante e à jusante, visto que a
montante, existem mais forças atuantes do que a jusante.
4 CONCLUSÃO
O presente trabalho ainda encontra-se em fase inicial, de
revisão bibliográfica e de literatura. As próximas etapas
envolvem a decisão das melhores técnicas probabilísticas a
empregar de forma a acrescentar uma nova contribuição no
estudo da estabilidade de taludes de barragens de aterro.
Posteriormente, dar-se-á continuação ao trabalho, obtendo
resultados e validando-os.
REFERÊNCIAS
Caputo, H.P., Mecânica dos solos e suas aplicações –
Volume 2. 6.a Edição. Livros Técnicos e Científicos
Editora S.A., Rio de Janeiro e São Paulo: 1987.
Cruz, P.T., Estabilidade de Taludes. Escola Politécnica da
Universidade de São Paulo, 1973.
Cruz, P.T., 100 Barragens Brasileiras. 2.ed. Oficina de
Textos, São Paulo, 2004.
Dell’Avanzi, E., Confiabilidade e probabilidade em
análises de estabilidade de taludes. Dissertação de
Mestrado. Pontifícia Universidade Católica do Rio de
Janeiro, 1995.
DNOCS, Memória descritiva e justificativa do Projeto do
Sistema Pataxó – Lagoa da Grande. Departamento
Nacional de Obras Contra as Secas, Recife,
p.27,1949.
Guedes, M.C.S., Considerações sobre análise
probabilística da estabilidade de taludes. Dissertação
de Mestrado. Pontifícia Universidade Católica do Rio
de Janeiro, 1997.
Pimenta, I.J., Caracterização geotécnica e análise de
estabilidade de taludes de mineração em solos da
mina de Capão Xavier. Tese, Universidade Federal
de Viçosa, 2005.
Rodrigues, G.P., Efeito da penetração da chuva na
estabilidade de encostas argilosas – O caso da Linha
do Norte. Dissertação. Faculdade de Engenharia e
Universidade do Porto, 2010.
25
RECONHECIMENTO DE PADRÕES EM DADOS DE VAZÃO UTILIZANDO
SELF-ORGANIZING MAPS
Alana Renata Ribeiro; Deise Maria Bertholdi Costa; Eduardo Alvim Leite.
Palavras-Chave: Redes Neurais, Técnica SOM, Vazão, Dados Consistentes.
1 INTRODUÇÃO
A obtenção de dados hidrológicos altamente confiáveis,
acrescidos de informações sobre seu comportamento, pode
ajudar operadores e planejadores do sistema energético e
de diversos outros sistemas em suas funções,
proporcionando precisão às suas decisões e, eficiência em
suas operações. A coleta de informações como cota de rios
é realizada em postos de monitoramento e, além dos dados
coletados, existem os que são calculados como os dados de
vazão.
Contudo, neste monitoramento podem ocorrer falhas que
implicam na inclusão de dados inconsistentes às séries, ou
causam a ausência de informações. Assim, incertezas na
medição de cota podem resultar em valores inconsistentes
de vazões estimadas. Para suprimir estas falhas, o Instituto
Tecnológico SIMEPAR desenvolveu métodos de análise
de consistência para identificação de dados espúrios
através de um processo denominado de Controle de
Qualidade (CQ), porém, apenas erros grosseiros são
identificados. Com isso, posteriormente ao CQ, as séries
de dados são inspecionadas pelo corpo técnico através da
análise gráfica de curtos intervalos ao longo de todo o
período de dados, no intuito de identificar inconsistências
não reconhecidas pelo CQ. Entretanto, a análise gráfica
exige do profissional tempo, atenção e conhecimento
suficientes para que todos os erros sejam reconhecidos.
Para auxiliar no processo de consistência dos dados, este
trabalho abordará a aplicação da técnica Self-Organizing
Maps (SOM) das Redes Neurais Artificiais de Kohonen,
sobre dados de vazão do posto hidrológico de União da
Vitória do estado do Paraná, fornecidos pelo SIMEPAR,
com o objetivo específico de apontar possíveis
inconsistências nas séries de dados. Trata-se de um
procedimento para reconhecer padrões de comportamento
e, assim, identificar períodos com comportamentos
singulares, para que sejam alertados e posteriormente
verificados e modificados, se necessário, por técnicos
capacitados. A fim de constatar a eficiência desta técnica,
seus resultados são confrontados com uma série de dados
livre de erros previamente definida.
2 DADOS HIDROLÓGICOS, LOCALIZAÇÃO E
CONSISTÊNCIA
Neste trabalho utilizam-se séries de dados de vazão de rios
que são calculados através dos dados de cota coletados em
postos hidrológicos de monitoramento convencionais ou
automáticos. Através da série de dados de cota, é calculada
a série de vazão em m³/s.
Segundo Leite (2008, apud JICA, 1995a) a região de
União da Vitória, que corresponde aos municípios de
União da Vitória, Porto União e Porto Vitória, abrange as
cidades mais severamente afetadas por inundações no
estado, causadas diretamente pela vazão do leito principal
do rio Iguaçu, que compreende uma bacia de
aproximadamente 25.000 Km². Este mesmo autor cita que
“as inundações na região de União da Vitória são
extensivas, severas, envolvem prejuízos significativos para
a população e economia locais, são condicionadas pelas
regras operativas da usina hidrelétrica de Foz do Areia,
localizada à jusante das cidades afetadas, e devem requerer
medidas estruturais e não estruturais para sua mitigação.”
Os dados de vazão a serem analisados são provenientes do
posto hidrológico da sub-bacia de União da Vitória que
está sobre influência das demais sub-bacias à montante,
localizadas na bacia do rio Iguaçu no estado do Paraná.
O SIMEPAR aplica métodos específicos de análise de
consistência para identificação de dados espúrios com
inconsistências grosseiras através do CQ, e posteriormente
as séries de dados são inspecionadas pelo corpo técnico do
SIMEPAR através da análise gráfica de curtos intervalos
ao longo de todo o período de dados, no intuito de
identificar inconsistências não reconhecidas por métodos
anteriores. Os mais comuns tipos de inconsistências
encontrados nas séries de vazão, apontados por Breda e
Negrão (2012) são: mudanças de offsets, spikes, oscilações
diárias, ruídos, e falhas.
3 SELF-ORGANIZING MAPS – SOM
A técnica SOM é um tipo de rede neural artificial de
Kohonen treinada através de aprendizagem não
supervisionada, para produzir uma classificação própria
dos dados de entrada, que possuem características comuns
entre si. Seu objetivo é atribuir a cada objeto em um
conjunto de dados de entrada o codebook que retorna a
melhor aproximação a este objeto. Na terminologia de
redes neurais, existe um neurônio associado a cada
codebook que, na saída do SOM, está topologicamente
ordenado, ou seja, os neurônios vizinhos correspondem a
regiões similares no espaço de entrada. O SOM opera em
dois modos: treinamento (dos dados de entrada) e
mapeamento (classificação de novos dados). Sabendo que
a série de dados de vazão utilizada é extremamente
extensa, para processamento e análise da metodologia
proposta fez-se uso da linguagem e ambiente para
computação estatística “R” (R Core Team, 2012),
juntamente com um de seus pacotes kohonen.
3.1 Dados de Entrada
No treinamento da rede neural, selecionaram-se os dados
de vazão do posto hidrológico de União da Vitória
dispostos em intervalos de uma hora, pertencentes aos
anos de 1998 até 2007 que passaram previamente pela
consistência realizada pelos técnicos do SIMEPAR, ou
seja, o período de treinamento não possui intervalos de
falhas, tão quanto dados inconsistentes.
Freire (2009) propôs em seu trabalho um método que não
considera simplesmente os valores de vazão previstos, e
sim os valores de degraus de vazão, considerando um
26
intervalo de 6 horas, sem perdas significativas nos valores
de vazão informados, e com grande ganho na
simplificação do método. Com isso, dispõem-se os dados
de vazão de União da Vitória em degraus de vazão
subsequentes, de 6h em 6h, formando uma matriz de dados
de entrada, de dimensão m×p, onde m=87570, total de
dados distribuídos em p=13 colunas, em que cada uma de
suas linhas representa uma amostra da população dos
dados analisados, e a sétima coluna da matriz representa os
dados a serem investigados.
3.2 Parâmetros
Aplicou-se o SOM do software R com a utilização dos
seguintes parâmetros: o conjunto de dados foi apresentado
100 vezes à rede, em cada rodada. A taxa de aprendizagem
aplicada diminui linearmente de 0.05 até 0.01, a cada
iteração. O raio da vizinhança começa com um valor que
abrange 2/3 de todas as distâncias de unidade para
unidade. Os representantes iniciais apresentados à rede são
escolhidos aleatoriamente a partir dos dados de entrada.
Após um estudo sobre o número de codebooks definiu-se
225 como ideal para este problema. Utilizou-se uma grade
do tipo hexagonal 15×15.
3.3 Teste – Reconhecimento de Padrões
Posterior à fase de treinamento dos dados, iniciou-se a fase
de teste, ou seja, a busca por padrões em dados de vazão
não consistidos.
Desta forma, construiu-se uma matriz semelhante à matriz
dos dados de entrada, mas, com os degraus de vazão
construídos a partir de dados não consistidos, dos mesmos
anos de 1998 à 2007, do mesmo posto hidrológico.
Através de uma função do pacote kohonen do software R
chamada map, e do treinamento realizado anteriormente,
classificou-se os valores dos degraus subsequentes da
sétima coluna desta matriz como corretos ou possíveis
alertas, estimou-se os percentis críticos e um vetor binário
chamado de “vetor de previsão”, formado com tantas
coordenadas quanto o número de dados classificados como
corretos ou não. A estas coordenadas atribui-se valor zero
quando o dado é apontado como correto, e valor um
quando o dado é apontado como possível alerta. Contudo,
ainda é possível que dados corretos sejam apontados como
incorretos indevidamente, bem como dados incorretos não
sejam devidamente apontados pela técnica utilizada.
3.4 Avaliação do Método - Curva ROC
Com o intuito de avaliar e posteriormente refinar o método
aplicado, foi preciso comparar o vetor de previsão a outro
vetor denominado “vetor de observação” formado por
coordenadas nulas onde não existiram diferenças entre a
série consistida e a série não consistida, e valor um onde
foram detectadas inconsistências, apontadas pelas
diferenças. Para isso, fez-se uso de curvas ROC - Receiver
Operating Characteristic que permitem a visualização do
problema de avaliação, através do pacote ROCR do
software R. Para este modelo, ROC é um gráfico da taxa
de acerto (eixo y) contra a taxa de falso alerta (eixo x).
Porém, sozinhas, estas taxas são insuficientes para medir a
habilidade de um sistema de previsão que depende de
maximizar o número de acertos, minimizando o número de
falsos alertas simultaneamente. Para avaliar a acurácia e o
desempenho do modelo, calcula-se a área sob a curva
ROC, seu valor deve pertencer a um intervalo entre zero e
um, sendo que valores abaixo de 0.5 representam baixo
desempenho do modelo, e valores próximos de um
representam alto desempenho do modelo. Para este estudo
estimou-se a área da curva encontrada com um valor de
aproximadamente 0.79. Esta medida aponta um
desempenho relativamente aceitável para este modelo de
alerta de valores inconsistentes em dados de vazão para o
posto hidrológico de União da Vitória.
4 CONCLUSÕES
A busca por padrões de comportamentos em dados de
vazão torna-se uma ferramenta útil e muito necessária,
principalmente em operações de reservatórios
hidrológicos. Com isso, o objetivo principal deste trabalho
foi desenvolver um método que apontasse padrões
característicos de comportamento e principalmente as
falhas nas séries de dados. Em comparação com dados
previamente consistidos, em que se tem o conhecimento da
localização de dados incorretos na série, o método
retornou resultados satisfatórios, pois apontou possíveis
alertas exatamente em áreas nas quais dados foram
corrigidos quando passaram por uma consistência manual.
Além disso, falhas com todas as possíveis características,
spikes, mudanças de offset, ruídos, oscilações diárias, entre
outras foram apontadas pelo método. Através deste estudo
pode-se concluir que a técnica SOM pode ser utilizada a
fim de alertar possíveis dados inconsistentes na série, se
for devidamente calibrada.
REFERÊNCIAS
Breda, A., e Negrão, A. C., Relatório da Análise de
Consistência dos Dados Hidrológicos na Bacia do
Rio Iguaçu: Métodos e Resultados. Relatório
Técnico. SIMEPAR, 2012
Freire, L. A., Uso de Rede Neural na Obtenção de
Previsão Hidrológica Probabilística. Trabalho de
Conclusão de Curso, Curso de Engenharia
Ambiental, UFPR, Curitiba, PR, Brasil, 2009.
Leite, E. A., Gestão do Valor da Informação
Hidrometeorológica: O Caso dos Alertas de
Inundação para Proteção de Bens Móveis em
Edificações Residenciais de União da Vitória. Tese
de Doutorado, UFRJ, COPPE, Rio de Janeiro, RJ,
Brasil, 2008.
R Core Team, R: A language and Environment for
Statistical Computing. R Fundation for Statistical
Computing, Vienna, Austria. ISBN 3-900051-07-0,
URL http://www.R-project.org/, 2012.
27
ANÁLISE E PREVISÃO DO DESLOCAMENTO HORIZONTAL DA BARRAGEM
DA USINA HIDRELÉTRICA DE ITAIPU COM BASE NAS SÉRIES TEMPORAIS
DOS PÊNDULOS E MARCOS GEODÉSICO
Jairo Marlon Corrêa
Palavras-Chave: Séries Temporais, Previsão, Segurança de Barragens.
1 INTRODUÇÃO
A Itaipu Binacional, a maior usina hidrelétrica do mundo,
é instrumentada desde o início de sua operação, em 1984.
As informações obtidas por meio destes instrumentos
podem ser tratadas de forma mais eficiente que as já
existentes tais como cálculo de médias, valores máximos e
mínimos e análise de gráficos gerados pelos sistemas de
medições manuais e automatizados.
A barragem principal da Itaipu é de concreto, do tipo
gravidade aliviada cuja estrutura é composta por 20
blocos, cada um com uma unidade geradora. Alguns
blocos são designados blocos chave, os quais são dotados
de maior quantidade de instrumentos devido à maior força
que recebem da água no sentido montante-jusante, ou seja,
no sentido do leito do rio. Esse volume de água também
exerce, nas partes inferiores dos blocos, uma pressão que
cria um efeito contrário ao que a sua própria massa exerce
sobre a fundação. Somadas essas duas forças, o fato é que
a barragem é deslocada no sentido montante-jusante.
A implementação de um modelo por meio do qual seja
possível realizar a análise e a previsão do comportamento
da estrutura da barragem é de grande importância. Tais
informações permitirem medidas corretivas em planos de
execução e/ou tomada de decisões já existentes.
2 OBJETIVO GERAL
O objetivo de um modo geral será o de prever o
deslocamento horizontal da barragem principal da
Hidrelétrica de Itaipu por meio das séries temporais dos 27
pêndulos e dos 09 alvos controlados pelos marcos
geodésicos existentes nos blocos-chave da usina com as
leituras históricas. Portanto, será necessário descrever o
comportamento e investigar o processo gerador da série
temporal, determinar as características da série como
existência de variações sazonais, ciclos de tendências,
linearidade, volatilidade condicional e estacionariedade,
através da elaboração um sistema de previsão de séries
temporais multivariadas. Finalmente, realizar previsões e
simulações do comportamento dos blocos em estudo da
barragem por meio dos métodos utilizados e do método
desenvolvido e identificar às causas de variação entre os
marcos de referência.
3 REVISÃO DE LITERATURA
Os modelos ARIMA de Box & Jenkins têm mostrado sua
eficiência desde a sua criação e isto já foi comprovado em
diversos estudos. Na área de finanças, a previsão de taxas
de câmbio tem sido uma tarefa desafiadora. Maria (2011)
utilizou o modelo ARIMA para prever taxas de câmbio
com as principais moedas mundiais. Em longo prazo, a
literatura afirma que as taxas de câmbio convergem para
um nível equilibrado, e neste trabalho, os resultados
obtidos mostraram ótima eficiência do modelo para um
período de quatro meses.
Aplicação em Engenharia de Softwares como o trabalho de
Fonte (2010) mensurou a evolução do Software Eclipse
através da série temporal do número de defeitos ao longo
do tempo, sendo que o modelo ARIMA se mostrou mais
eficaz. Este trabalho tem permitido a previsão de como
ocorre a evolução e onde foi necessária maior intervenção
das operações de manutenção e aprimoramento. A
capacidade de prever permitiu redução de esforços e custo
em virtude de tomadas de decisões adequadas por parte da
equipe de desenvolvimento.
Previsões na área econômica e petrolífera como Souza
(2011), que seguiu os passos da metodologia Box &
Jenkins e mostrou a aplicabilidade dos modelos ARFIMA,
conhecido como modelo de memória longa, para a
previsão do preço semanal da gasolina do tipo "a" na
região sul do Brasil através de uma série temporal de
janeiro de 2002 a agosto de 2009. Os resultados do
trabalho forneceram informações gerenciais importantes às
empresas e órgãos governamentais e permitiram alocações
de recursos financeiros, humanos e materiais de forma
adequada nos setores petrolíferos.
Diante do que foi exposto, a precisão do modelo proposto
por Box & Jenkins sugerem e trazem inspiração para a
elaboração do futuro trabalho de tese.
4 MATERIAIS E MÉTODOS
Os modelos utilizados na descrição de séries temporais são
processos controlados por leis probabilísticas também
conhecidas por processos estocásticos. De acordo com
Moretin (2006) um processo estocástico é uma família de
variáveis aleatórias do tipo ,Z Z t t T tal que para
cada , ( )t T Z t é uma variável aleatória.
O modelo proposto de Box & Jenkins estima modelos de
séries temporais da forma:
0
1 0
p q
t i t i i t i
i i
Z z
(1)
Essa equação representa o modelo conhecido por
autorregressivo integrado de média móvel ou ARIMA, em
que 0 é uma constante no modelo estimado e os demais
, 1,...,i i p são parâmetros que fazem o ajuste nos
valores de 1 2, ,...,t t t py y y , os valores de são valores
formados por uma sequência se choques aleatórios
chamados de ruído branco (erros) os quais são
independentes entre si e não são controláveis.
Dados obtidos por meio dos pêndulos dos blocos da Usina,
que serão objetos de estudo, são compostos por uma série
temporal bivariada (deslocamento horizontal). Este modelo
ao ser aplicado, por exemplo, nos dados do pêndulo direto
do bloco F22 da Usina, que é considerado um bloco chave,
28
cujo deslocamento é descrito pela figura:
Figura 1: Gráfico do Deslocamento - Bloco F22
Para o conjunto de dados deste bloco, a série univariada
com 691 valores que medem apenas o deslocamento
perpendicular à linha montante-jusante (eixo X), por
exemplo, é descrita pelo gráfico:
Figura 2: Série Temporal - Bloco F22
E o periodograma mostra que os dados possuem parte
sistemática a ser modelada:
Figura 3: Periodograma da Série Temporal - Bloco F22
Ao analisar a Função de Autocorrelação (FAC) e a Função
Autocorrelação Parcial (FACP), um modelo sazonal
ARIMA (2,1,2) é melhor ajustado, já que possui o menor
valor para a raiz do erro quadrático. Os testes revelam que
o modelo é adequado, uma vez que os p-valores para os
coeficientes são todos iguais a zero, rejeita-se a hipótese de
que os coeficientes são nulos. Uma vez que há necessidade
de se diferenciar a série, tal procedimento implica na
obtenção do modelo:
1 2 1 11,727 0,975 1,566 0,846t t t t tZ Z Z a a , cuja
previsão pode ser plotada juntamente com os dados da
série e comparadas.
Figura 4: Previsão da Série Temporal – Bloco F22
Dessa forma, serão analisados os demais pêndulos, a partir
de um modelo multivariado a ser criado, em que os valores
de entrada serão ambas as séries (X e Y). A partir deste
modelo haverá a possibilidade de se fazer as previsões
para valores futuros.
5 RESULTADOS ESPERADOS
Dado que alguns aspectos ainda são desconhecidos, devido
ao grande porte da Usina e a imensa quantidade de leituras
efetuadas pelos instrumentos, a aplicação de métodos
mensurará o comportamento do deslocamento horizontal
dos blocos da barragem e os resultados obtidos permitirão
ao meio técnico da Itaipu, por meio de um processo mais
bem estruturado, a escolha de estratégias mais apropriadas
para alcançarem determinados objetivos no sentido de
obterem os melhores resultados.
Com a conclusão do trabalho proposto, se pretende efetuar
a realização da análise da série temporal, por meio de
aplicações dos métodos anteriormente descritos,
identificação dos fatores que melhor determinam a causa
do seu comportamento e a previsão da série a curto e
médio prazos.
É esperado, também, que haja adequação dos modelos
entre previsão e dados reais e, assim, possibilitem a análise
dos comportamentos cíclicos ou sazonais entre blocos
adjacentes da barragem e, que sirvam como base de auxílio
para estudos similares para com outros instrumentos que
necessitem de previsões. Consequentemente, possibilitar
melhor planejamento para engenheiros e técnicos da Itaipu
na tomada de decisão em relação a qualquer serviço
realizado como desde reparos até construções para
melhoria da saúde estrutural da barragem e minimização
de riscos potenciais.
REFERÊNCIAS
Fonte, Nelson Baptista. Análise da Evolução de Software
com Séries Temporais. Dissertação de Mestrado em
Engenharia Informática. Departamento de
Informática. Universidade Nova de Lisboa, 2010.
Maria, Fat Codruta. Exchange-Rates Forecasting:
Exponential Smoothing Techniques and ARIMA
Models. Annals of the University of Oradea :
Economic Science [1222-569X] Fat Ano:2011 Vol:1
Nr:1.
Morettin P. A.; TOLOI, C. M. C. Previsão de séries
temporais. 2a ed. São Paulo: Editora Edgard Blucher,
2006.
Souza, Francisca Mendonça. Previsão do Preço da
Gasolina para a Região Sul do Brasil. IJIE -
Iberoamerican Journal of Industrial Engineering. v. 3,
n. 1, p. 234-248, Julho, 2011.
-3
-2
-1
0
1
-10 0 10 20
De
slo
cam
en
to P
aral
elo
ao
Flu
xo d
a Á
gua
Deslocamento Perpendicular ao Fluxo da Água
Gráfico da Série Temporal
Co
efi
cie
nte
de D
eslo
cam
en
to X
Valor Aferido
0 200 400 600 800
-2
2
6
10
14
18
22
Periodograma
0 0,1 0,2 0,3 0,4 0,5
frequency
0
0,2
0,4
0,6
0,8
1
Ord
ina
te
Gráfico da Série Temporal
Co
efi
cie
nte
de D
eslo
cam
en
to X
0 200 400 600 800
-2
2
6
10
14
18
22AtualPrevistoLimite de 95%
29
ANÁLISE DE CORRELAÇÃO CANÔNICA DOS ACIDENTES DE TRÂNSITO
DA BR-376, NO PERÍODO ENTRE 01/01/2009 E 30/04/2012
Vanessa Ferreira Sehaber; Adriano Rodrigues de Melo; Jair Mendes Marques
Palavras-Chave: Análise de Correlação Canônica, BR-376, Estatística Multivariada, Acidentes de Trânsito.
1 INTRODUÇÃO
O objeto de estudo deste trabalho foi analisar as
ocorrências de acidentes de trânsito na BR-376, no período
de 01/01/2009 a 30/04/2012, a qual possui maior
quantidade e proporção de acidentes registrados pela
Polícia Rodoviária Federal do Paraná nas rodovias federais
paranaenses. Segundo o Ministério dos Transportes
(2012), a BR-376 tem, aproximadamente, 690 quilômetros
de malha rodoviária no estado do Paraná, ligando Mato
Grosso do Sul à Santa Catarina. Corta o estado de noroeste
à sudeste, passando por solo urbano e rural.
Segundo CesviBrasil (2012), alguns motivos podem
estar associados aos acidentes de trânsito como erro
humano, velocidade excessiva, distância insuficiente em
relação ao veículo dianteiro, desrespeito à sinalização,
condições da pista, condições meteorológicas, dirigir sob
efeito de drogas e/ou álcool, defeito mecânico em veículo,
dentre outros.
Em todo acidente ocorrido nas BRs, a Polícia
Rodoviária Federal do Paraná (PRF) registra em seus
boletins as informações e as características do acidente,
além disso, informações dos objetos, condições locais e
das pessoas envolvidas. Assim, estatísticas univariadas
podem ser levantadas com relação aos acidentes, mas não
dão ideia das relações existentes (ou não) entre o conjunto
dessas informações (Johnson and Wichern, 2007). Nesse
contexto, a utilização de técnicas da estatística
multivariada é conveniente.
A Análise de Correlação Canônica (ACC) procura
expressar e simplificar os dados por meio de duas
combinações lineares das variáveis originais - uma
combinação do primeiro conjunto de variáveis e uma
combinação do segundo (chamadas variáveis canônicas) -
que exibam a maior covariância (ou correlação) possível,
sendo que poucos pares de variáveis canônicas podem
explicar muito da interdependência entre dois conjuntos de
variáveis (Mardia and Kent and Bibby, 1979).
A presente pesquisa utilizou da ACC para estudar a
relação entre os conjuntos de dados: Acidentes-Rodovia ×
Veículos e Acidentes-Rodovia × Condutores, oriundos dos
boletins de ocorrência da PRF, assim como indicar os
quilômetros mais críticos de acordo com os principais
pares de correlação canônica. Dessa forma, esta técnica
vem a ser útil para explorar as causas desses acidentes na
BR-376.
2 ABORDAGEM TEÓRICA
Considere os vetores aleatórios)1(
1pxX e )2(
1qxX , onde
qp , os quais há o interesse de medir a associação entre
tais grupos. Será conveniente considerar )1(
1pxX e )2(
1qxX
conjuntamente, então
)2(
)1(
)1)((
X
X
X xqp
(1)
com vetor de médias
)2(
)1(
)2(
)1(
)1)((
XE
XE
XExqp
(2)
e matriz de covariância
)(22)(21
)(12)(11
)()( '
qxqqxp
pxqpxp
qpxqp XXE
(3
)
Combinações lineares fornecem medidas de síntese
simples de um conjunto de variáveis. Os conjuntos
)2(
)1(
'
'
XbV
XaU
(4)
para alguns pares de coeficientes de vetores a e b .
Assim, a correlação canônica é resultante da
maximização da correlação entre as combinações lineares
U e V , que são conhecidas por variáveis canônicas.
Assim, a correlação canônica da k-ésima variável
canônica U , kU , e da k-ésima variável canônica V , kV ,
é dada por
*),( kkk VUCorr
(5)
onde 2*2*
2
2*
1 p são os autovalores de
2/1
1121
2/1
2212
2/1
11
. As variáveis canônicas têm
as propriedades
lkVUCorrVUCov
lkVVCorrVVCov
lkUUCorrUUCov
VVarUVar
lklk
lklk
lklk
kk
,0),(),(
,0),(),(
,0),(),(
1
(6)
para .,,2,1, plk
3 MATERIAIS E MÉTODOS
Os dados utilizados foram fornecidos pela Polícia
Rodoviária Federal, dispostos em 40 meses compreendidos
no período entre 01/01/2009 e 31/04/2012. Foram
analisados cerca de 17.429 acidentes envolvendo 31.677
veículos e condutores nos, aproximadamente, 690
quilômetros da rodovia BR-376 em solo paranaense.
Ao organizar os dados, as categorias das variáveis
qualitativas foram consideradas como variáveis e as
frequências das categorias, a cada 1 quilômetro, foram
consideradas como observações. Já as variáveis
quantitativas foram organizadas em intervalos de
30
frequência, onde cada intervalo passou a ser considerado
como variável e as frequências nos intervalos foram
consideradas como observações.
A análise foi dividida em 2 grupos, devido a
distribuição das frequências dos acidentes observadas em
duas regiões da rodovia. O critério de separação foi o
quilômetro com menor incidência em torno da média dos
quilômetros da BR-376, ou seja, o quilômetro 363. Assim,
foram realizadas duas ACC para os dois grupos, uma
envolvendo os conjuntos Acidentes-Rodovia × Veículos e
a outra envolvendo Acidentes-Rodovia × Condutores.
A organização dos dados em contagens das
frequências dificultou algumas operações de cálculo de
matrizes. Utilizou-se a transformação de Hellinger nos
conjuntos de variáveis, pois, de acordo com Legendre
(2001), essa transformação consegue estabilizar grandes
variações na escala dos dados de contagens. A
transformação é dada pela raiz quadrada da razão de cada
elemento da variável pelo total de contagens da variável.
4 RESULTADOS
O cálculo das correlações das variáveis canônicas
com as variáveis originais (pesos canônicos) auxiliou na
interpretação das variáveis canônicas. Isto gerou resultados
extensos que não puderam ser apresentados neste resumo,
mas estão disponíveis em Sehaber (2013).
Neste estudo, analisou-se apenas os primeiros pares
de correlações canônicas, pois são os mais representativos.
No Grupo 1, conforme os grupos já mencionados, os pares
de correlações canônicas foram interpretados como
Perímetro Urbano, e Fluxo de Veículos e Condutor
Negligente e Perímetro Urbano. A correlação canônica
entre ambos os pares foi 0,99, e indicaram o intervalo de
quilômetros [174, 183] como os quilômetros mais críticos
relacionados aos pares de variáveis canônicas do Grupo 1,
em especial o quilômetro 176, que referem-se à Avenida
Colombo, ao trecho da BR-376 que passa pela cidade de
Maringá.
No Grupo 2, os pares de correlações canônicas foram
interpretados como Velocidade Inadequada e Fluxo de
Veículos, e Condutor Imprudente e Velocidade
Inadequada. A correlação canônica entre ambos os pares
foi 0,99, e indicaram o intervalo de quilômetros [664, 671]
como os quilômetros mais críticos relacionados aos pares
de variáveis canônicas do Grupo 2, em especial o
quilômetro 668, que referem-se à Serra de Guaratuba, ao
trecho da BR-376 que passa pela cidade de Tijucas do Sul.
5 CONCLUSÕES
Com este trabalho buscou-se encontrar variáveis latentes
que explicassem a relação entre as variáveis relacionadas
aos acidentes de trânsito na rodovia BR-376, no período de
01/01/2009 à 30/04/2012, por meio da análise de
correlação canônica, assim como medir o quanto essas
variáveis se relacionam e identificar os quilômetros mais
críticos, de acordo com a dispersão dos escores canônicos
de cada par de variáveis canônicas.
Identificou-se que a grande incidência de acidentes,
do Grupo 1, em meio ao fluxo de veículos, no intervalo de
quilômetros [174, 183], foi devido à negligência do
condutor no perímetro urbano, pois as principais causas de
acidentes foram pela falta de atenção e por não guardar
distância de segurança, ocasionando colisões traseiras e
laterais, durante o dia. Ainda, a condição da pista é boa,
traçado reto, com mais de uma via, com cruzamentos e
possui sinalização luminosa. Envolvem-se nos acidentes
veículos ocupados por 1 a 3 pessoas, de cores prata,
branca, preta e vermelha e azul. Envolvem-se mais nos
acidentes automóveis, motocicletas e veículos de carga,
entre os anos de 2001 a 2012, em sua maioria veículos
entre os anos de 2006 e 2012. Os condutores homens estão
mais envolvidos nos acidentes do que os condutores
mulheres, e estes condutores têm idade de 18 a 58 anos
(em especial 18-38) e, em sua maioria, saem ilesos ou com
lesões leves dos acidentes.
No Grupo 2, especificamente os quilômetros do
intervalo [664, 671], os acidentes ocorreram em meio ao
fluxo de veículos, tanto de dia como de noite, em
localidade rural, caracterizados em sua maioria por colisão
traseira, onde a pista era boa, com sinalização horizontal e
vertical, sem acostamento, com mais de uma via e perfil da
pista < 3 metros. A causa dos acidentes foi caracterizada
pela imprudência dos condutores, pois estes faltaram com
atenção e dirigiram com velocidade incompatível em meio
à condição meteorológica nublado e chuvoso. Os veículos
mais envolvidos eram automóveis e veículos de carga, de 1
a 3 ocupantes, sendo tais veículos de cores prata, branca,
preta, cinza e vermelha, e entre os anos de 1996 a 2012
(em especial 2006 a 2012). Envolveram-se mais
condutores homens do que mulheres, com idade de 18 a 58
anos (em especial de 18 a 58), os quais saíram ilesos ou
com lesões leves dos acidentes.
Assim, este trabalho conseguiu, por meio da ACC,
explorar causas e características dos acidentes de trânsito
da BR-376, vindo a subsidiar questões específicas da sua
engenharia de tráfego.
REFERÊNCIAS
BRASIL. Ministério dos Transportes. BR-376. Acesso em:
08/08/2012. Disponível em:
<http://www2.transportes.gov.br/bit/02-rodo/3-loc-
rodo/loc-rodo/br-376/gbr-376.htm>.
CESVIBRASIL. Prováveis causas dos acidentes. Acesso
em: 27/02/2012. Disponível em:
<http://www.cesvibrasil.com.br/seguranca/biblioteca
_dados.shtm>.
JOHNSON, R. A. and WICHERN, D. W. Applied
multivariate statistical analysis. New Jersey: Prentice
Hall, 2007.
LEGENDRE, P. and GALLAGHER, E. D. Ecologically
meaningful transformations for ordination of species
data. Oecologia, 129,:271–280, 2001.
MARDIA, K. V. and KENT, J. T. and BIBBY, J. M.
Multivariate analysis. New York: Academic Press,
1979.
Sehaber, V. F. 2013. Análise estatística multivariada dos
acidentes de trânsito da BR-376 no período entre os
anos de 2009 e 2012. Dissertação (Mestrado em
Métodos Numéricos em Engenharia), UFPR.
31
MODELO DE MARKOWITZ PARAMETRIZADO POR INDICADORES
TÉCNICOS
Romulo de Oliveira Leite; Anselmo Chaves Neto.
Palavras-chave: Modelo de Markowitz, Bovespa, Análise Técnica de Ações.
1 INTRODUÇÃO O modelo proposto por Markowitz (1952) é aplicado ao
problema de otimização de portfolios compostos por ativos
financeiros. Tal modelo consiste na maximização do trade-
off entre retorno e risco, baseado na média e na variância
histórica dos retornos. A solução do modelo depende do
nível de exposição ao risco a que o investidor aceita se
submeter; na versão apresentada por Kendrick et al (2006),
essa informação é inserida no modelo através do
Parâmetro de Aversão ao Risco (PAR).
Uma das limitações do modelo de Markowitz é a
insensibilidade ao momento de mercado e à formação de
tendências de preços (Leite, 2013). No intuito de
suplementá-lo com essas informações e de reduzir a
subjetividade na quantificação do apetite por risco, o
presente trabalho propõe a utilização de indicadores de
Análise Técnica, em particular o Moving Average
Convergence-Divergence (MACD) e o Índice de Força
Relativa (IFR), na determinação do valor do PAR.
A pesquisa empírica consiste na simulação de uma carteira
de ações negociadas na Bolsa de Valores de São Paulo
(Bovespa) gerenciada ativamente através da metodologia
proposta, tendo seu desempenho comparado ao do Índice
Bovespa (Ibovespa), da carteira de diversificação ingênua
(igualitária) e de carteiras com valor de PAR fixo. Os
resultados apontam superioridade do modelo proposto,
ainda que não seja possível descartar o fato de que o
desempenho superior seja devido ao acaso.
2 REFERENCIAL TEÓRICO
2.1 Modelo de Markowitz
A composição ótima do portfolio de ações é obtida através
da solução do seguinte modelo de programação quadrática:
11
Σ
x.a.s
xxλxμzmax
t
tt
(1)
em que μ
é o vetor de retornos esperados, Σ é a matriz de
covariância, x
é o vetor de proporções de cada ativo, 1
é o
vetor unitário e λ é o PAR. A solução é dada por:
1
1Σ1
2Σ1Σ
2
11
11
t
t λμμ
λx (2)
Para cada valor do PAR há um portfolio com ótima relação
entre retorno e risco; ao conjunto de todos os portfolios
eficientes dá-se o nome de “fronteira eficiente”. A figura 1
apresenta o exemplo de uma fronteira eficiente; portfolios
situados abaixo da fronteira são factíveis, porém
ineficientes, enquanto que acima da fronteira situa-se a
região infactível. Os portfolios ótimos encontram-se,
portanto, sobre a fronteira eficiente.
Figura1: exemplo do gráfico de uma fronteira eficiente
2.2 Análise Técnica de Ações
A Análise Técnica de Ações tem por objetivo encontrar
padrões de comportamento na formação das séries de
preços. Para isso dispõe de indicadores que fornecem
informações sobre a formação de tendências, sobre a
saturação de um movimento de alta ou baixa, entre outras.
Um dos mais importantes indicadores técnicos é o MACD.
Esse indicador consiste na determinação de duas médias
móveis exponenciais, calculadas conforme a descrição a
seguir (Vidotto et al, 2009):
1226 MMEMMEMACD (3)
9MACDMMESINAL (4)
em que MME(t) é a média móvel exponencial referente a t
dias. Quando a diferença entre MACD e SINAL passa de
positiva para negativa, configura-se um indicativo de
venda, visto que tal evento sinaliza uma inversão de
tendência para baixa. Analogamente, quando essa
diferença passa de negativa para positiva, é sinal de
reversão de tendência para alta.
Outro indicador importante é o IFR, calculado conforma a
seguinte expressão (Saffi, 2003):
tD
tUIFR
1
100100 (5)
em que U(t) e D(t) são as somas dos módulos dos retornos
em dias de alta e de baixa, respectivamente, referentes aos
últimos t fechamentos. O valor do IFR oscila entre 0 e 100;
quanto mais próximo de zero, mais recomendada a
compra, por é sinal de que o movimento de baixa
encontra-se saturado, enquanto que valores próximos de
100 sinalizam momento de venda.
3 MATERIAIS E MÉTODOS
A proposta apresentada neste trabalho é a determinação do
valor do PAR em função dos indicadores técnicos
referenciados. No caso do MACD, o valor do PAR é dado
por:
32
SINALMACD,
MACD eλ 00102 (6)
enquanto que para o IFR assume-se:
IFR
IFRλIFR
100
2 (7)
A carteira selecionada é composta por 35 ações integrantes
da carteira teórica do Ibovespa, por serem ações de alta
liquidez, garantindo, então, a execução das ordens
emitidas. O rebalanceamento da carteira é feito
trimestralmente e os custos das transações são os menores
oferecidos pelo mercado.
O algoritmo de execução das negociações é composto de:
um estimador, que calcula os parâmetros de médias e
covariâncias; um otimizador, que resolve o modelo de
Markowitz com base nos parâmetros de entrada; e um
negociador, que simula a execução de ordens de compra e
venda.
Os dados coletados são os valores de fechamento e os
retornos diários das ações analisadas no período de 2007 a
2010, sendo que os dados do primeiro ano servem como
base para as estimativas iniciais.
Os resultados obtidos são comparados aos das carteiras de
PAR fixo com valores 1, 3, 5, 7 e 9, além da carteira de
diversificação ingênua e da carteira teórica do Ibovespa.
4 RESULTADOS
Na comparação dos índices Sharpe, importante indicador
de desempenho da gestão de carteiras, os melhores
resultados foram obtidos pelas carteiras reguladas pelo
MACD e IFR, respectivamente. Isso sugere que a inserção
de informação sobre o momento do mercado e a tendência
dos preços confere sensibilidade ao modelo, de forma a
tornar a escolha do PAR automática e a valores adequados
à realidade do mercado.
Além disso, as carteiras gerenciadas sob a metodologia
proposta obtiveram os melhores valores para o alfa de
Jensen, o que significa que maiores excessos de retornos
sobre o mercado.
No entanto, a superioridade dos excessos de retornos não é
significativa segundo o teste t para o alfa de Jensen
(Grinold e Kahn, 1999). Esse resultado indica a hipótese
de que os retornos tenham sido superiores devido ao acaso
não é descartável.
5 CONCLUSÕES A gestão ativa de carteiras baseada no modelo de
Markowitz proporciona resultados superiores ao mercado
no que diz respeito à relação entre retorno e risco. A
inserção de informações oriundas de indicadores técnicos
proporciona uma busca automática eficaz na composição
de portfolios de acordo com o momento do mercado e a
tendência de formação dos preços, agregando informação
que o modelo original é incapaz de detectar.
Para trabalhos futuros, a sugestão é que sejam utilizadas
outras técnicas de identificação de tendências ou outros
indicadores técnicos ou fundamentalistas, além de métodos
de estimação de risco e retorno diferentes daqueles que
neste trabalho foram utilizados.
REFERÊNCIAS
Grinold, R. C., Kahn, R. N., Active portfolio management,
2nd ed. McGraw-Hill, 1999.
Kendrick, D. A., Mercado, P. R., Amman, H. M.,
Computational economics. Princeton University Press,
2006.
Leite, R., Modelo de markowitz e análise técnica:
determinando o parâmetro de aversão ao risco através
do macd. Artigo aceito para publicação no XXXIV
Congresso Ibero Latino Americano de Métodos
Computacionais em Engenharia. Pirenópolis, 2013.
Markowitz, H. M., Portfolio selection. The Journal of
Finance, 7: 77-91, 1952.
Saffi, P. A. C., Análise técnica: sorte ou realidade? Revista
Brasileira de Economia, 57: 953-974, 2003.
Vidotto, R. S., Migliato, A. L. T., Zambon, A. C., O
moving average convergence-divergence como
ferramenta para a decisão de investimentos no mercado
de ações. Revista de Administração Contemporânea,
13:291-309, 2009.
33
FORMULAÇÃO DO MÉTODO DOS ELEMENTOS DE CONTORNO PARA O
PROBLEMA DE DIFUSÃO DO CALOR BIDIMENSIONAL
Roberto Pettres; Luiz Alkimin de Lacerda.
Palavras-Chave: Elementos de Contorno, Equação da Difusão do Calor, Solução Fundamental.
1 INTRODUÇÃO
Os primeiros registros que tratam da origem do Método
dos Elementos de Contorno (MEC) datam do ano de 1823,
em uma publicação do matemático norueguês Niels Henrik
Abel sobre o problema da tautócrona (‘tempo igual’)
(Simmons, 1987). Nesse trabalho, Abel se retrata ao
método como técnica baseada em equações integrais para
resolução de problemas baseados em equações diferenciais
parciais. Tal método recebeu atenção de diversos
pesquisadores e foram necessárias mais oito décadas de
estudos para que o método recebesse a primeira teoria
clássica das equações integrais desenvolvida por Fredholm
em 1903 (Jacobs, 1979).
Ainda no século XX, diversos autores utilizaram a técnica
de equações integrais e oportunizaram importantes
contribuições para a evolução do método, sendo
denominado Método dos Elementos de Contorno a partir
dos trabalhos de Brebbia (1978), o qual apresentou uma
formulação baseada em equações integrais e em técnicas
de resíduos ponderados.
A vantagem da aplicação desse método está associada à
dimensão do sistema de equações, sendo menor do o
sistema obtido em outras formulações como no caso do
Método dos Elementos Finitos ou Método das Diferenças
Finitas, sendo reduzido por utilizar apenas valores do
contorno em sua formulação.
Neste trabalho é apresentada a formulação do MEC para
solução da Equação da Difusão do Calor em sua forma
bidimensional para análise de uma placa quadrada sob
condições de contorno específicas.
2 MODELO BIDIMENSIONAL
O modelo matemático neste estudo é a Equação da
Difusão do Calor:
),(,,),(1
),(2 yxXXt
tXutXu
(1)
O modelo geométrico é uma placa quadrada com aresta
igual a L (Figura ) e difusividade térmica sob a seguinte
condição de contorno:
XtXu ,10),( (2)
Onde u é o potencial e a derivada q (fluxo) em relação à
direção n normal ao contorno é dada por:
n
uq
(3)
Figura 1 - Modelo geométrico com a discretização do contorno
em 40 elementos lineares e o domínio em 200 células
triangulares constantes.
De acordo com Greenberg (1971), a solução fundamental
para o operador adjunto laplaciano denotada por u*,
resultante de uma fonte unitária e pontual é:
ru
1ln
2
1*
(4)
Onde Xr é a distância entre o ponto campo X e o
ponto de colocação da fonte unitária.
Conhecida a solução fundamental, a sua derivada em
relação à direção normal ao contorno é denotada por q* e
calculada como:
n
r
r
uq
** (5)
3 FORMULAÇÃO COM O MEC
A equação integral clássica do Método dos Elementos de
Contorno é:
dXut
tXu
dtXuXq
dtXqXutuC
),(*),(1
),(),(*
),(),(*),()(
(6)
O termo )(C é dado por:
34
se
suavecontornodepontoése
se
C
,1
,2
1
,0
)( (7)
Adotando-se diferenças finitas para aproximar a derivada
temporal do potencial presente na eq.(6), obtém-se:
dXutXut
dXuttXut
dttXuXq
dttXqXuttuC
),(*),(1
),(*),(1
),(),(*
),(),(*),()(
(8)
4 RESULTADOS
Resolvendo-se a equação integral (8) para uma condição
inicial de potencial nulo no tempo t0, eq.(9), e aplicando-se
igual a 0,05, 0,5 1,0, tem-se os resultados apresentados
na Figura 2:
XXu ,0)0,( (9)
Figura 2 – Comparação entre a solução analítica e o MEC no
ponto central da placa quadrada.
Na mesma figura são apresentados os resultados analíticos
para o problema apresentado, cuja expressão é dada por
(Carrer et al., 2011):
L
yn
L
xm
nm
eu
utyxu
m n
tnmL
sinsin16
),,(
1 12
_
_
22
2
2 (10)
para m e n ímpares.
Observa-se que a solução numérica do MEC corresponde à
solução analítica, comprovando a eficácia do MEC.
Na Figura é ilustrado o processo de difusão do calor ao
longo do tempo para o domínio do problema em instantes
de tempo específicos para o caso em que a difusividade
térmica ( ) é igual a 1,0.
Figura 3 – Solução no domínio para diferentes tempos e =1,0.
A partir da Figura 3 é possível verificar a gradual elevação
da temperatura do domínio até o equilíbrio final com a
temperatura prescrita no contorno. Resultados similares
foram verificados para os casos em = 0,05 e = 0,5.
5 CONCLUSÃO
A partir dos resultados obtidos com a aplicação do MEC
foi possível verificar que o uso de elementos lineares de
contorno associado ao uso de células triangulares
constantes traz resultados satisfatórios em relação à
solução analítica. Esses resultados comprovam a eficácia
do MEC e motiva o emprego da solução fundamental
independente do tempo para análise de problemas
potenciais bidimensionais transientes.
REFERÊNCIAS
Brebbia, C. A. Dominguez, J. Boundary Elements An
Introduction Course. Bath Press, Great Britain, 1989.
Carrer, J. A. M. Oliveira, M. F. Vanzuit, R. J. MANSUR,
W. J. Transiente heat conduction by the boundary
element method D-BEM approaches. International
Journal for Numerical Methods in Engineering,
V.89, N. 7 , pp 897-913, 2011.
Greenberg, M. D. Application of Green’s Functions in
Science and Engineering. Prentice-Hall, New Jersey,
1971.
Jacobs, D. The State of the Art in Numerical Analysis,
Academic Press, New York, USA, 1979.
Simmons, G. F. Cálculo com Geometria Analítica –
Volume 2. McGraw Hill, 1987.
35
USO DE ESCORES FATORIAIS NA CONSTRUÇÃO DE UM INDICADOR DA
INTEGRIDADE ESTRUTURAL DE UMA BARRAGEM DE CONCRETO
Sheila Regina Oro; Anselmo Chaves Neto.
Palavras-Chave: Análise Fatorial, Séries Temporais, Integridade Estrutural, Barragem.
1 INTRODUÇÃO
As estruturas de concreto de barragens são suscetíveis a
uma gama de alterações provocadas pela incidência de
diversos fenômenos. Os dados das medições periódicas,
provenientes das leituras dos instrumentos instalados em
pontos estratégicos da barragem, abastecem um banco de
dados, desde a época da sua construção.
Este trabalho pretende realizar uma análise cruzada das
informações instrumentais, desenvolvendo uma
metodologia para a construção de um indicador (índice
sintético) da integridade estrutural de uma barragem de
concreto, mediante a aplicação de análise de séries
temporais e análise fatorial, objetivando conhecer o
desempenho global do sistema.
2 MONITORAMENTO DA ESTRUTURA DAS
BARRAGENS DE CONCRETO
A integridade estrutural de barragens é monitorada por
meio de um sistema de instrumentação que avalia o
comportamento destas estruturas, tanto no período de
construção, quanto no período de operação. Acidentes,
como o da Usina Hidrelétrica Sayano-Shushenskaya,
ocorrido em 2009 na Rússia, comprovam a importância do
desenvolvimento de metodologias confiáveis de detecção
de falhas, como forma de evitar as consequências
provocadas por desastres.
A análise das medições instrumentais tomadas em pontos
críticos da barragem objetiva verificar se o comportamento
do sistema corresponde às expectativas do projeto. Além
disso, a automatização das medições instrumentais
assegura a análise praticamente em tempo real e reduz os
custos de operação.
Fenômeno monitorado Instrumento
Deslocamento horizontal Pêndulos
Deslocamento angular Extensômetros
Deslocamento diferencial
entre blocos
Bases de alongâmetro e
medidores triortogonais
Tensão no concreto Rosetas de deformímetro
Tensão na armadura Tensômetros
Temperatura Termômetros
Vazão de infiltração Drenos
Quadro 1: Instrumentos e suas respectivas finalidades. (Autoria
própria)
Os principais instrumentos instalados em barragens e suas
fundações, com suas respectivas finalidades, são
apresentados no Quadro 1.
Estudos de casos aplicados ao monitoramento da
integridade estrutural foram realizados por Carvalho
(2007), Kuperman (2005), Kazemi (2004), Pimenta
(2009), Silva (2005) e Villwock (2013).
3 SÉRIES TEMPORAIS
Uma sequência de observações periódicas, com a
característica especial de dependência serial entre elas,
determina uma série temporal.
Figura 1: Periodograma integrado das medições do pêndulo
direto. (Autoria própria)
O estudo de uma série temporal envolve a análise do
periodograma integrado, para saber se há parte sistemática
a ser modelada, e as subsequentes etapas de identificação,
estimação e adequação do modelo de previsão.
O modelo ajustado pode ser do tipo Autorregressivo (AR),
Médias Móveis (MA) ou uma combinação destes dois
tipos (ARMA ou ARIMA). Por exemplo, para os dados do
pêndulo direto cujo periodograma é apresentado na Figura
1, o modelo mais adequado, conforme apresentado na
Equação 1, segundo o critério AIC, é o AR(2) com
constante.
tttt a+Z+Z+=Z 21 0,250,690,02 (1)
Caso haja lacunas na sequência de dados, estas podem ser
preenchidas através do método Forecasting-
Backforecasting, que consiste no ajuste de dois modelos:
um para os dados anteriores à lacuna e outro para os
posteriores, seguidos das respectivas previsões de valores.
Depois, calcula-se a média entre esses dois valores,
obtendo-se a estimativa para os dados faltantes.
4 ESCORES FATORIAIS
A realização da análise fatorial possibilita identificar e/ou
confirmar as fontes subjacentes de variação comuns a duas
ou mais variáveis (fatores comuns). Nesse modelo, a
variação observada em cada variável é atribuível aos
fatores comuns e a um fator específico (erro de medida).
Em geral, espera-se encontrar poucos fatores comuns que
explicam a maior parte dessa variação.
A suposição de que as p variáveis originais (Xi), de uma
amostra de tamanho n, são correlacionadas entre si, é
36
verificada através do Teste de Esfericidade de Bartlett,
cuja estatística é calculada conforme a Equação 2, onde i
é o i-ésimo autovalor da matriz de correlação amostral R.
^
1
ln112p6
1i
p
=i
+n=T
(2)
O uso da rotação Varimax facilita a interpretação de uma
solução analítica do fator, de tal forma que cada variável
tenha um peso elevado em um só fator.
Nesse contexto, os escores fatoriais j
f estimam os
valores dos fatores comuns jF , que não são observáveis,
sendo úteis na identificação de modelos adequados para
descrever os dados. Pelo Método dos Mínimos Quadrados
Ordinários, como apresentado na Equação 3, é possível
obter as estimativas dos escores fatoriais.
n,,=jxx'LL'L=f jj...1,2,3ˆˆˆˆ 1
(3)
Onde L é a matriz dos carregamentos estimada por meio
da técnica das Componentes Principais.
5 INDICADORES DE ESTABILIDADE
De modo geral, o uso de indicadores é usado para avaliar,
mostrar a situação e as tendências das condições de um
dado ambiente.
A construção de indicadores de estabilidade de estruturas
deve levar em consideração os fatores que a influenciam.
Assim, após a análise fatorial, segue-se ao ajuste do
modelo, cujas variáveis de entrada são os fatores de maior
significância e a variável de saída representa o índice de
estabilidade estrutural.
Este índice é denominado sintético porque utiliza variáveis
artificiais independentes não observáveis (fatores). Estas,
por sua vez, são compostas a partir da combinação linear
das variáveis originais observáveis.
Sendo assim, no caso de uma barragem de concreto, as
variáveis originais correspondem aos instrumentos –
pêndulos, extensômetros, bases de alongâmetro, medidores
triortogonais, rosetas de deformímetro, tensômetros,
termômetros, drenos, entre outros -, os fatores gerados pela
combinação linear entre essas, carregam a totalidade dos
dados observados. Para cada fator, é identificada a variável
mais importante (maior peso) e, também, são obtidos os
escores fatoriais. Estes, por sua vez, correspondem aos
coeficientes do modelo de ajuste dos dados. Por fim, a
saída do modelo é o índice de estabilidade estrutural da
barragem de concreto.
6 CONCLUSÕES
O trabalho apresentado encontra-se em fase inicial de
obtenção de dados e definição da metodologia, de modo
que foram apresentados apenas alguns aspectos
norteadores do projeto de pesquisa, sem qualquer resultado
ou conclusão. Desta forma, neste texto foram apresentados
alguns aspectos norteadores do projeto de pesquisa. Ao
final deste projeto, será determinado um índice sintético da
integridade estrutural de uma barragem, com base nos
dados da instrumentação. Espera-se que o mesmo seja de
grande utilidade para uso na prática, por ser construído a
partir das séries temporais de dados reais e por sua
simplicidade de interpretação, assim como pretende-se
publicar em periódicos os resultados obtidos para que
sejam aproveitados em outros estudos.
REFERÊNCIAS
Jardini, J.A.; Magrini, L.C.; Lima, B.L.S.; Torikai, D.;
Ibrahim, R.C.; Oliveira, A.L.; Pinfari, J.C.; Carneiro,
E.F.; Rossetto, S.L.G.; Cestari Júnior, E.
Sensoriamento para Segurança de Barragens de
Usina Hidrelétricas. Revista IEEE, América Latina,
v. 7, p. 1-8, 2010.
Krüger, C. M. Análise de confiabilidade estrutural
aplicada às barragens de concreto. Tese de
Doutorado – Setor de Ciências Exatas, Universidade
Federal do Paraná, Curitiba, 2008.
Kuperman, S. C.; Moretti, M. R.; RE, G.; Cifu, S.;
Celestino, T.B.; Zoellner, K.; Pínfari, J. C.; Carneiro,
E. F.; Rossetto, S. L. G.; Reigada, R. P. Establishing
Limit of Instumentation Readings for Old Emabkment
and Concrete Dams, Journal of Dam Safety,
Kentucky, EUA, v. Summer, p. 18-26, 2005.
Silva, S. da; Lopes Junior, V.; Dias Junior, M. Detecção de
Falhas Estruturais Utilizando Controle Estatístico de
Processos, IV Congresso Temático de Dinâmica,
Controle e Aplicações, Bauru, IV DINCON, 2005.
Sohn, H.; Farrar, C. R.; Hemez, F. M.; Shunk, D. D.;
Stinemates, D. W.; Nadler, B. R. A review of
structural health monitoring literature: 1996 - 2001,
Los Alamos National Laboratory Report , LA-13976-
MS, 2003.
Villwock, R.; Steiner, M. T. A.; Dyminski, A. S. e Chaves
Neto, A. Itaipu Hydroelectric Power Plant Structural
Geotechnical Instrumentation Temporal Data Under
the Application on Multivariate Analysis - Grouping
and Ranking Techiques, in: Multivariate Analysis in
Management, Engineering and the Sciences. Rijeka,
Croácia, InTech, 2013
37
COMPARAÇÃO ENTRE O LDM (LEITOR DIGITAL PARA MOLINETES
HIDROMÉTRICOS) E O ADCP
Marcos Freitas de Moraes; Liliana Madalena Gramani.
Palavras-chaves: LDM, ADCP, Medição de Vazão.
1 INTRODUÇÃO
O LDM – Leitor Digital para Molinetes Hidrométricos –
foi desenvolvido para substituir o Contador de Pulsos ou
Contador de Giros, instrumento que acompanha o molinete
em medições das velocidades do fluxo da vazão de rios,
lagos, córregos, entre outros. A ideia do desenvolvimento
do LDM surgiu da necessidade de um instrumento mais
moderno, preciso, rápido e que automaticamente
determinasse a vazão total do rio. Para comprovar a
eficiência do LDM, foram efetuados vários testes em
diversos rios e córregos comparando seus dados com o
contador de pulsos. Para uma comprovação mais precisa
de sua qualidade na medição do fluxo, foi efetuada uma
comparação com o ADCP (Acoustic Doppler Current
Profiler) modelos RS-M9 e S5 no canal da piracema da
Itaipu Binacional.
2 MATERIAIS E MÉTODOS
O LDM foi desenvolvido usando a tecnologia do
microcontrolador PIC18F452, que possui 32Kb de
memória Flash, velocidade de DC 40Mhz e velocidade da
CPU de 10MIPS (execução de instruções em 100
nanosegundos), 1536 bytes memória RAM, 16384 bytes
de
memória de programa (Instruções), 256 bytes de memória
de dados EEPROM (Microchip, 2006) e programado em
linguagem PICBasic. A função do LDM é coletar as
velocidades pontuais instantâneas em cada ponto das
verticais do rio (Santos et al, 2001) ao mesmo tempo em
que calcula a área da seção transversal e sua área de vazão,
gravando os dados em um cartão de memória SD/MMC.
Ao final de todas as verticais, automaticamente totaliza as
vazões das seções determinando a vazão total do rio.
Comparar um equipamento ADCP e o molinete
hidrométrico é imaginar um conjunto infinito de molinetes
colocados em uma vertical da seção de medição (ANA,
2009), mas a necessidade deste ensaio se deu pelo fato de
que o LDM também apresenta a velocidade pontual
instantânea, com isto, se pode verificar a real leitura que o
LDM faz em cada ponto na vertical e na média das
verticais.
2.1 Medição no Canal da Piracema
Foi utilizado o equipamento RS-M9 com método “ScbSc –
Section by Section” para a comparação da velocidade
média em cada vertical. O LDM fez três (03) medições de
profundidade em cada vertical (20% = 0,38m; 60% =
1,15m e 80% = 1,52m). A Tabela 1 mostra as velocidades
médias calculadas pelo LDM e pelo RS-M9:
Velocidade Média (m/s)
Vertical LDM RS-M9
1 0,16 0,17
2 0,17 0,17
3 0,17 0,17
4 0,21 0,18
5 0,21 0,17
6 0,20 0,18
Tabela 1: Comparação entre LDM e RS-M9 Fonte RS-M9: Divisão de Estudos Hidrológicos e Energéticos – Itaipu Binacional
A Tabela 2 apresenta o resumo estatístico:
LDM RS-M9
Amostra 6 6
Média 0,18667 0,17333
DP 0,0005 0,00002
Variância 12,06% 2,98%
Mínimo 0,16 0,17
Máximo 0,21 0,18
Tabela 2: Resumo Estatístico Fonte: Autor
A tabela 3 apresenta o resumo geral da vazão calculada no
canal. A tabela mostra os métodos utilizados pelos
equipamentos ADCP (Travessia e ScbSc):
Equipamento Método Vazão
Total Área
Veloc.
Média
M9 Travessia 2,41 14,36 0,17
M9 Scbsc 2,47 14,33 0,17
S5 Travessia 2,27 14,24 0,16
Médias 2,38 14,31 0,17
LDM À Vau 2,12 13,29 0,16
Tabela 3: Comparação entre LDM e RS-M9 Fonte ADCP: Divisão de Estudos Hidrológicos e Energéticos – Itaipu Binacional
3 RESULTADOS E DISCUSSÕES
Aplicando o test-t para verificar a hipótese das médias
serem iguais ao nível de 5% de significância, significa
testar as hipóteses:
Hipótese nula - H0 : (LDM) = (RS-M9).
Hipótese alternativa - H1 : (LDM) (RS-M9).
Não rejeitar a hipótese nula para = 0,05.
Onde x ~ N(; 2). Assumindo variâncias iguais: t =
1,41421 e p-valor = 0,18767. Como p-valor > 0,05, então
não se rejeita a hipótese H0, isto é, não há diferença
estatisticamente significativa entre as médias das duas
amostras ao nível de confiança de 95,0%.
4 CONCLUSÃO
Apesar dos estudos indicarem que medições entre os
equipamentos ADCP e o molinete são completamente
diferentes, o objetivo dessa pesquisa não foi verificar a
eficiência do molinete ou do ADCP e sim, o
comportamento do LDM na medição do fluxo. Com as
velocidade seriam apresentadas, como seria a gravação dos
38
dados, se seus cálculos via microcontrolador estariam
corretos entre outros. Como o resultado do test-t
determinou que não diferença significativas nas médias
das velocidades e como a velocidade média é obtida pela
razão entre a vazão total pela área total da seção, logo, o
comportamento do LDM foi o mesmo comparado com os
equipamentos ADCP.
REFERÊNCIAS
ANA. Agência Nacional de Águas, Medição de descarga
líquida em grandes rios: manual técnico.Brasília -
DF: Superintendência de Gestão da Rede
Hidrometeorológica, 2009. 88
SANTOS, I., Fill, H. D., Sugai, M. R., Buba, H., Kishi, R.
T., Marone, E., Lautert, L. F. C., Hidrometria
Aplicada. Curitiba - Pr: Instituto de Tecnologia para
o Desenvolvimento, 2001. 371 p.
MICROCHIP. Datasheet - Especificações Técnicas.
Microchip Tecnology Inc., 2006. Disponível em:
www.microchip.com.
39
IDENTIFICAÇÃO DA BANDA BRILHANTE EM DADOS DE RADAR
METEOROLÓGICO
Camila Oliveira, Sérgio Scheer, César Beneti.
Palavras-Chave: Banda Brilhante, Perfil Vertical de Refletividade, Support Vector Machine.
1 INTRODUÇÃO
O termo banda brilhante (BB) é usada na meteorologia
para se referir a uma camada de alta refletividade
associada com o derretimento de gelo (Zhang et al, 2008).
Ou seja, acima da isoterma de 0°C está presente
basicamente gelo, que ao cair e atingir essa isoterma entra
em processo de derretimento, formando-se assim em sua
volta uma camada de água no estado líquido, fazendo com
que o valor da refletividade aumente consideravelmente.
Essa região com alta refletividade pode causar
superestimação na previsão de precipitação se uma
correção não for aplicada (Zhang e Qi, 2010). O objetivo
desse trabalho é identificar as áreas afetadas pela banda
brilhante nos dados do radar meteorológico do SIMEPAR,
para que uma correção possa ser feita evitando erros na
previsão de precipitação.
2 RADAR METEOROLÓGICO
O instituto tecnológico SIMEPAR possui um Radar
Meteorológico Banda-S Doppler, instalado em Teixeira
Soares – PR. Sua antena rotaciona sobre o eixo vertical
(varredura azimutal), com diferentes elevações da antena.
Uma sequência completa de várias varreduras azimutais
com diferentes elevações é chamada de volume de
varredura.
Os dados que são enviados pelo radar estão em formato
numérico e depois são transformados em informações tais
como: data, hora, localização, volume de chuva e a altura
(em graus) da elevação da antena e uma matriz de dados,
onde estão armazenados os valores obtidos pelo radar
(Neto, 2008).
Esses valores possuem coordenadas esféricas com três
graus de liberdade r,θ, onde r é o range (distância do
alvo até radar), θ é o azimute (ângulo em relação ao
Norte), e é a elevação da antena.
Uma das variáveis medidas pelo radar é a refletividade (z),
que é o fator entre as ondas eletromagnéticas emitidas e as
que voltam para o radar, depois de passarem por uma
nuvem e serem irradiadas em todas as direções pelas gotas
de chuva. Devido ao grande domínio que os valores de
refletividade possuem, é conveniente utilizar sua
representação em uma escala logarítmica.
A partir dos dados de refletividade (em coordenadas
esféricas) de um volume de varredura obtidos pelo radar,
será aplicado o método para a detecção da banda brilhante,
que é descrito na seção 4.
3 SUPPORT VECTOR MACHINE
Fundamentada na Teoria da Aprendizagem Estatística, o
Support Vector Machine (SVM) foi desenvolvido com o
intuito de resolver problemas de classificação de padrões,
ou seja, classificar informações (padrões) baseando-se em
um conjunto de treinamento, o qual possui dados
previamente classificados. O SVM pode classificar tanto
padrões linearmente separáveis como os não linearmente
separáveis.
Para padrões linearmente separáveis, o SVM busca
construir um hiperplano que divida os padrões, de tal
forma que essa separação seja máxima. Já para o caso não
linear, onde não é possível separar os dados com um
hiperplano, o SVM utiliza uma função kernel, que mapeia
o conjunto de treinamento para um espaço linear de alta
dimensão, e então para esse novo espaço cria o hiperplano
ótimo separando as classes.
A metodologia SVM será utilizada no controle de
qualidade dos dados de refletividade, para eliminar dados
indesejáveis que não representam precipitação. O kernel e
os parâmetros utilizados pelo SVM são descritos em 4.1.
4 METODOLOGIA
O método para a identificação da Banda Brilhante baseia-
se no apresentado em Zhang et al (2008), o qual está
dividido em três passos:
1) classificação dos dados em precipitação convectiva e
estratiforme;
2) cálculo do perfil vertical de refletividade (PVR) médio
para os diferentes grupos de precipitação;
3) identificação da banda brilhante através do PVR da
precipitação estratiforme.
Deve-se inicialmente fazer um controle de qualidade nos
dados, eliminando ecos que não representam precipitação.
Em Zhang et al (2008) este controle de qualidade usa uma
rede neural que se baseia na estrutura horizontal e vertical
de refletividade, além de pré e pós processamento que
removem ecos específicos como speckles, propagação
anômala das ondas eletromagnéticas, entre outros.
Para este trabalho, o controle de qualidade foi realizado
utilizado a técnica de classificações de padrões SVM.
O controle de qualidade e os passos 1, 2 e 3 são descritos a
seguir.
4.1 Controle de qualidade dos dados
Para filtrar os dados foi utilizado Support Vector Machine
(SVM), que cria um modelo de classificação de dados que
identifica e elimina esses ecos de terrenos, resultando
apenas em dados de precipitação.
Para gerar o modelo para a classificação foi utilizada a
linguagem de programação python que possui uma função
chamada svm.SVC() da biblioteca sklearn, e seu download
pode ser feito em http://scikit-learn.org/stable/.
Foram realizados alguns testes, usando para o treinamento,
dados que apresentam apenas ecos de terreno, e os
parâmetros de entrada da função que apresentaram
melhores resultados na identificação e eliminação dos
dados foram: C= 1, kernel= 'sigmoid', degree= 3,
gamma= 0.25 e coef0: 0.0.
40
4.2 Separação em precipitação convectiva e
estratiforme
Os sistemas convectivos estão associados com fortes
campos verticais de vento e altas taxas pluviométricas,
enquanto nos sistemas estratiformes predomina extensa
área coberta, e baixas velocidades verticais de vento,
homogeneidade horizontal (gradiente suave) e taxas de
precipitação menores (Damian, 2011).
Devido a essas grandes diferenças, deve-se inicialmente
fazer a separação dos dados entre esses dois tipos de
precipitação, tendo em vista que a ocorrência de banda
brilhante está associada à precipitação estratiforme.
Para essa classificação foi utilizado um método baseado no
conteúdo de água líquida integrada verticalmente (VIL),
que mapeia as características tridimensionais das
tempestades em um sistema bidimensional.
Após o cálculo do VIL são feitos dois testes para
classificar os ecos em convectivo ou estratiforme: i) é
considerada como convectiva os ecos que possuem VIL
acima de 1.0 kg/m² e Zmax > 30 dBZ, onde Zmax é o
maior valor de refletividade encontrado na coluna e ii)
utiliza-se uma técnica de agrupamento por dilatação,
marcando a região com até 4 km de raio de um eco
convectivo também como convectivo.
Após os dois testes os ecos não marcados como
convectivo, recebem classificação estratiforme.
4.3 Cálculo do PVR médio
Devido ao fato da ocorrência da banda brilhante estar
associada à precipitação estratiforme, neste trabalho
utilizam-se apenas os dados com esta classificação para o
cálculo do perfil vertical de refletividade.
Para este cálculo os dados de refletividade são agrupados
em camadas verticais a cada 200 m, e em cada camada é
calculado a média dos valores de refletividade.
Duas regras são aplicadas para garantir a qualidade do
PVR: (i) somente valores de refletividade acima de um
limiar 0Z são incluídos no PVR, e (ii) um número mínimo
0M de dados de refletividade, com0ZZ i , é necessário
em cada camada para se obter um valor de refletividade
médio kZmed válido (Zhang et al, 2008).
Neste trabalho são utilizados 0Z = 15 dBZ e 0M = 10.
4.4 Identificação da Banda Brilhante
Para identificar se existe alguma região afetada pela banda
brilhante no volume de dados analisado, deve-se
inicialmente encontrar o valor máximo do PVR associado
à precipitação estratiforme desses dados.
Uma vez obtido a altitude correspondente ao valor máximo
do VPR ( mH ), deve-se encontrar a altitude acima ( aH )
e abaixo ( bH ) de mH que corresponde ao valor onde a
refletividade decresce 10% do valor máximo.
A banda brilhante existe se aH , bH e mH satisfazem as
seguintes condições:
0DHbHa
1DHmHa (1)
1DHbHm
onde 0D e 1D são parâmetros adaptáveis (Zhang et al,
2008). Neste trabalho 0D e 1D foram considerados 1.5km
e 2.0km, respectivamente.
5 CONCLUSÕES
Neste trabalho foi utilizado um método para a detecção da
banda brilhante baseado no utilizado em Zhang et al
(2008).
Para se obter um resultado mais preciso na identificação da
banda brilhante foi necessária a filtragem dos dados para
eliminar ecos que não representavam precipitação. Para
isso foi utilizado a metodologia support vector machine
que eliminou grande parte dos dados de ecos de terreno
encontrados próximos ao radar meteorológico.
As imagens que mostram as áreas afetadas pela banda
brilhante detectadas pelo método foram analisadas por
especialistas que constataram que realmente se tratavam de
áreas contaminadas. Para trabalhos futuros deseja-se fazer
uma correção desses valores de refletividade nas áreas
afetadas, para que se possa fazer uma melhor estimativa da
precipitação.
REFERÊNCIAS
Damian, E. A., 2011. Duas Metodologias Aplicadas à
Classificação de Precipitação Convectiva e
Estratiforme com Radar Meteorológico: SVM e K-
Means. Dissertação de Mestrado em Métodos
Numéricos em Engenharia, Universidade Federal do
Paraná.
Neto, M. A. S., 2008. Mineração Visual de Dados:
Extração do Conhecimento a Partir das Técnicas de
Visualização da Informação e Mineração de Dados,
Dissertação de Mestrado em Métodos Numéricos em
Engenharia, Universidade Federal do Paraná.
Zhang, J., Langston, C. and Howard, K., 2008. Brightband
Identification Based on Vertical Profiles of
Reflectivity from the WSR-88D. Journal of
Atmospheric and Oceanic Technology, vol. 25, pp
1859.
Zhang, J. and Qi, Y., 2010. A Real-Time Algorithm for
the Correction of Brightband Effects
in Radar-Derived QPE. Journal of
Hydrometeorology, vol. 11, pp 1158.
41
REDE NEURAL DE BASE RADIAL APLICADA À ESTIMATIVA DE CHUVA
Tiago Noronha dos Santos; Paulo Henrique Siqueira; Leonardo Calvetti.
Palavras-Chave: Redes Neurais Artificiais, Rede Neural de Base Radial, Relação ZR, Estimativa de Chuva.
1 INTRODUÇÃO
Estimar a quantidade de chuva que deve chegar à
superfície da Terra é uma tarefa que requer muitos estudos
e novas metodologias. Essa é a ideia proposta no presente
trabalho, que envolve os dados captados pelo radar
meteorológico do SIMEPAR e uma rede de 18
pluviômetros localizados a um raio de 200 km do radar. A
função da nova técnica é converter os dados de radar em
precipitação de chuva de forma que os valores se
aproximem ao máximo dos valores medidos pelos
pluviômetros.
2 INSTRUMENTOS DE MEDIÇÃO
2.1 Radar Meteorológico
Quando pulsos eletromagnéticos emitidos pelo radar
encontram algum objeto parte da energia é espalhada e
retorna para o radar recebendo o nome de refletividade. O
funcionamento do radar pode ser simplificado da seguinte
maneira: a antena é apontada em um ângulo baixo e emite
um pulso eletromagnético por uma fração de segundo, e
depois recebe o retorno da energia, em seguida o radar gira
a quantidade aproximada de 1° e repete o processo. Uma
vez que o radar completa uma revolução o ângulo de
elevação da antena é aumentado e repete-se o
procedimento (Beneti, 1999). O Instituto Tecnológico
SIMEPAR possui um radar meteorológico tipo Banda-S
Doppler, localizado na cidade de Teixeira Soares-PR, o
qual é utilizado na pesquisa. O radar pode cobrir tanto uma
área de 480 km de raio partindo do radar, quanto uma área
de 200 km. Os dados aqui utilizados são de 200 km.
2.2 Pluviômetro
Pluviômetros são instrumentos para medir a precipitação
de chuva. Existem vários modelos e formas de
pluviômetros e dentre esses utilizaremos os chamados de
tipping bucket (tipo báscula ou caçamba) que são os
utilizados pelo SIMEPAR. Este tipo de pluviômetro envia
um sinal elétrico (pulso) para cada unidade de precipitação
coletada. Os tipping buckets consistem em duas caçambas
triangulares ligadas à esquerda e à direita de um eixo de
rotação, cada uma com a capacidade equivalente para uma
determinada quantidade de precipitação. O interruptor é
conectado a essas caçambas para gerar um sinal elétrico a
cada vez que a caçamba enche, para este tipo de
pluviômetro essa quantidade é de 0,2 mm.
3 REFLETIVIDADE
O parâmetro definido por Rinehart (2004) foi nomeado
como Refletividade do Radar e pode ser representado pela
letra z, onde
∑
sendo, o diâmetro da gota , e o somatório é feito sobre
o total número de gotas de tamanhos variados dentro de
uma unidade de volume de feixe. Considerando uma seção
de 1 metro cúbico do feixe de radar que contém uma
distribuição de gotas de chuva de tamanhos diferentes
(Mueller, 2013), por exemplo, 19 gotas, cada uma
identificada com o número de 1 a 19:
Figura 1: Exemplo de 1 metro cúbico de feixe de radar.
O somatório para o fator de refletividade do radar pode
ser expandido assim:
(2)
Nota-se que é proporcional à sexta potência dos
tamanhos de gota, logo, gotas maiores causam grandes
valores de refletividade quando comparadas com gotas
pequenas. Como o fator de refletividade do radar abrange
um grande intervalo de magnitudes, de
para nevoeiro, até para granizo do
tamanho de uma bola de tênis, é geralmente expresso em
decibéis de refletividade ou em da seguinte forma:
, (3)
aqui é importante distinguir de .
4 RELAÇÃO ZR
Existe uma relação entre a taxa de precipitação de chuva e
a refletividade do radar. Distribuições de tamanhos de
gotas medidos experimentalmente foram extensivamente
utilizados para calcular ambos. Traçando a taxa de
precipitação de chuva contra a refletividade ou
correlacionando ambas estatisticamente, pode-se
determinar a relação entre esses dois parâmetros. A relação
matemática mais usada é a empírica exponencial
onde é a taxa de precipitação , é o fator de
refletividade do radar , e e são constantes
empíricas. A Relação ZR mais comumente usada foi
desenvolvida por Marshall e Palmer (Rinehart, 2004),
.
5 FUNÇÕES DE BASE RADIAL
Uma Função de Base Radial (RBF - Radial Basis
Function) é definida como qualquer função que satisfaz a
seguinte condição (Haykin, 2001)
(|| ||) ou seja, quando seus valores funcionais são iguais às
normas de seus argumentos. Em outras palavras, uma
função é de base radial quando seu valor funcional
depende apenas da distância de seu argumento à origem.
Há várias RBFs, neste trabalho utiliza-se a função
gaussiana.
42
(
)
6 REDES NEURAIS DE BASE RADIAL
Uma RBFNN (Radial Basis Function Neural Network)
utiliza funções de base radial como função de ativação dos
neurônios da camada escondida (da Mota, 2011). Na
arquitetura de uma RBFNN há apenas a camada com os
nós de entrada, a camada oculta com as funções de base
radial e uma camada de saída que possui funções lineares.
Cada neurônio da camada oculta possui um vetor
associado, chamado de centro do neurônio, o qual define o
centro do campo receptivo daquele neurônio. Estes
neurônios exercem forte influência sobre o desempenho da
rede. Seja a matriz de observações contendo
observações e variáveis, temos,
(
)
O valor de ativação do -ésimo neurônio da camada
escondida depende da distância euclidiana quadrática entre
a entrada e o centro , onde é o centro do -
ésimo neurônio. Então, de acordo com a abordagem
clássica, treinar uma RBFNN é calcular a matriz de pesos,
(
)
de maneira a ajustar aos alvos cada , como podemos ver
na equação:
∑ (‖ ‖)
7 APLICAÇÃO E CONCLUSÕES
A RBFNN foi desenvolvida utilizando os dados da estação
meteorológica de Curitiba-PR observados no período de
01 de dezembro de 2008 até 04 de setembro de 2010. Os
dados dos pluviômetros são medidos em um intervalo de
15 minutos e à cada hora, já os dados do radar são obtidos
em aproximadamente 10 minutos, então fez-se a média
horária para a comparação.
Escolheu-se os dados de refletividade do radar do dia 01
de abril de 2011 para aplicar a rede neural, neste dia
ocorreu uma forte tempestade na região de Curitiba, o que
torna interessante a visualização.
Figura 2: Relação ZR – Imagem de Estimativa de Chuva.
Figura
3: Rede Neural – Imagem de Estimativa de Chuva.
Com as Figuras 2 e 3 é fácil notar a similaridade da
Relação ZR com a RBFNN, o padrão do evento
meteorológico foi mantido.
8 PRÓXIMAS ETAPAS
Sabendo da necessidade de se realizar testes mais
consistentes para a comparação dos resultados, pretende-se
analisar o tempo computacional para as diferentes
configurações da rede neural além de utilizar o valor
máximo da refletividade do radar em cada hora ao invés da
média dos valores.
REFERÊNCIAS
Beneti, C., Nozu, I., e Saraiva, E.A., Monitoramento da
precipitação e de eventos de tempo severo no estado
do Paraná. Relatório técnico, SIMEPAR, 1999.
da Mota, J.F., Siqueira, P.H., de Souza, L.V., e Vitor, A.,
Uma rede neural de base radial baseada em
computação evolucionária. XXXII CILAMCE, 2011.
Haykin, S., Redes Neurais: princípios e prática (Tradução
de Paulo Martins Engel). Bookman, Porto Alegre,
Brasil, 2001.
Mueller, B., Radar Equation. Disponível em:
<http://wx.db.erau.edu/faculty/mullerb/Wx365/Radar
_equation/radar_equation.pdf>. Acesso em 20 de jul.
2013.
Rinehart, R.E., Radar for meteorologists. Rinehart
Publications, Nevada, USA, 2004.
43
MONITORAMENTO DA BARRAGEM DE ITAIPU VIA MÉTODOS
ESTATÍSTICOS MULTIVARIADOS
Suellen Ribeiro Pardo Garcia; Anselmo Chaves Neto.
Palavras-Chave: regressão linear multivariada, componentes principais, deslocamentos, variáveis ambientais.
1 INTRODUÇÃO
O monitoramento da estrutura de uma barragem é uma
atividade permanente dos engenheiros e profissionais
envolvidos com a segurança da obra.
No monitoramento, as inspeções visuais e instrumentadas
geram uma enorme massa de dados que quando tratada por
método estatístico adequado fornece informações sobre o
comportamento da estrutura mediante variações
ambientais, variações no nível do reservatório, efeitos do
tempo, entre outros. Este banco de dados deve ser
analisado e as relações existentes entre as variáveis devem
ser interpretadas de modo a permitir ações corretivas a
qualquer indicativo de anormalidade.
Modelos estatísticos têm sido utilizados para analisar e
interpretar os dados da instrumentação. Geralmente são
baseados em correlações existentes entre fatores como o
nível de água do reservatório, a temperatura ambiente,
entre outros e os efeitos causados na barragem como
tensões, deformações e deslocamentos.
Neste contexto, pretende-se desenvolver um modelo
estatístico de regressão multivariada, onde as medidas em
vários instrumentos dos deslocamentos da barragem
compõem o vetor de respostas e as variáveis independentes
(preditoras) são o nível do reservatório, temperatura
ambiente e efeitos do tempo.
2 BARRAGEM DE ITAIPU
O objeto deste estudo é a barragem da usina hidrelétrica de
ITAIPU, que é a maior usina hidrelétrica do mundo em
geração de energia. Essa barragem é composta por dois
trechos de barragens de terra, um trecho de barragem de
enrocamento e um trecho de concreto.
A barragem principal (F) (ver Figura 1) é a do trecho de
concreto, por ela passa a água que movimenta as turbinas
para a geração de energia. Trata-se do trecho com maior
altura de coluna de água da barragem e, portanto,
corresponde ao trecho mais crítico, logo é o mais
instrumentado. O trecho F foi escolhido, neste trabalho,
para análise dos dados de instrumentação.
O vetor de respostas na regressão multivariada é composto
pelas medidas dos deslocamentos. Os instrumentos que
captam essas medidas são:
1) Pêndulo direto: que mede os deslocamentos horizontais
de pontos dos blocos instrumentados da barragem em
determinadas cotas, em relação à fundação da estrutura.
2) Pêndulo invertido: que mede os deslocamentos da
fundação da barragem em relação a um ponto da fundação
suficientemente profundo para ser considerado fixo.
3) Medidor elétrico de junta: que mede os deslocamentos
de abertura e fechamento de determinadas juntas de
contração de estruturas de concreto.
4) Base de alongâmetro: que mede abertura, fechamento,
recalque e deslizamento entre blocos.
3 ANÁLISE MULTIVARIADA DE DADOS.
Na análise multivariada tem-se procedimentos que são
usados para descrever como as medições sobre variáveis
preditoras z1, z2, ... , zr estão relacionadas com algumas
variáveis resposta y1, y2, ... , ym. Neste caso, multivariado,
cada resposta é um modelo de regressão. Assim tem-se:
mrrmmmm
rr
rr
zzy
zzy
zzy
...
...
...
110
22112022
11111011
(1)
O vetor de erros ε’=[ε1, ε2, ... , εm] tem E(ε) = 0 e V(ε)=Σ.
Os erros associados com diferentes respostas podem estar
correlacionados (Johnson e Wichern, 2007). E, ainda, seja
[zj0, zj1, ..., zjr] os valores das variáveis preditoras para a j-
ésima prova, y’j=[yj1, yj2, ... , yjm] as respostas e ε’j=[εj1, εj2,
... , εjm] os erros. O modelo de regressão linear
multivariado, em notação matricial, fica definido por:
)())1(())1(()( nxmxmrrnxnxm
ZY
(2)
com E(ε(i)) = 0 e cov(ε(i), ε(k)) = σikI, i, k = 1, 2,..., m.
As m observações da j-ésima prova tem matriz de
covariância Σ={σik}, mas observações de diferentes provas
são não correlacionadas (Johnson e Wichern, 2007). Os
parâmetros desconhecidos são β e σik e a matriz Z tem
linha j [zj0, zj1, ..., zjr]. Simplificando, a i-ésima resposta em
Y segue o modelo de regressão linear
, ..., m, iZY iii 21 ,)()()( (3)
com ii(i)V(ε )=σ I . No entanto, os erros de diferentes
respostas na mesma prova podem estar correlacionados.
Então, dadas as respostas Y e os valores das variáveis
preditoras Z com posto coluna completo, determinam-se os
estimadores de β(i) por mínimos quadrados, assim,
YZZZ ')'(ˆ 1 (4)
Nesse contexto, as variáveis respostas correspondem às
medidas dos instrumentos quanto aos deslocamentos da
estrutura de concreto da barragem. Já as variáveis
preditoras correspondem à temperatura do ar, o nível do
reservatório e efeitos do tempo. A regressão multivariada
será aplicada ao conjunto de observações simultâneas de
forma a modelar a relação entre o conjunto de variáveis
Figura 1: Trecho F destacado em vermelho.
44
dependentes e o conjunto de variáveis independentes.
Previsões poderão ser feitas com o modelo ajustado.
3.1 Análise de Componentes Principais (PCA)
A PCA é amplamente utilizada para diminuir a
redundância dos dados e reduzir a dimensionalidade do
espaço das variáveis com uma perda mínima de
informação, melhorando a eficiência da análise (Yu,
2010).
Nos dados de monitoramento de uma barragem, o número
de variáveis preditoras é geralmente limitado e menor do
que o número de variáveis de resposta (instrumentos
diferentes). Assim, a principal aplicação da PCA, é quando
aplicada às variáveis de resposta. Entretanto, como o
método PCA não leva em conta a relação entre variáveis
preditoras e variáveis de resposta durante o processo de
decomposição, pode ser aplicado tanto para variáveis
preditoras ou respostas, ou ambas. Neste último caso, as
componentes principais para as variáveis preditoras e
variáveis de resposta são obtidas em operações separadas e
por fim, as componentes principais da variável resposta
são então regredidas em relação às componentes principais
das variáveis preditoras (Jackson, 1991).
Neste contexto, a PCA, será utilizada nos dados de entrada
do modelo de regressão multivariada.
A PCA procura explicar a estrutura de variância-
covariância da matriz de dados através de combinações
lineares não correlacionadas das variáveis originais. Seja o
vetor aleatório X’= [X1, X2, ..., Xp] que tem vetor de
médias µ = E(X) e matriz de covariância Σ = V(X).
Considere as combinações lineares:
ppppppp
pp
pp
xcxcxcXcy
xcxcxcXcy
xcxcxcXcy
2211
222211222
122111111
'
'
'
(5)
Na forma matricial, segue que:
XCYpxp)(
(6)
As PC´s são as combinações lineares não correlacionadas
Y1, Y2, ... , Yp tal que:
1) a 1ª componente principal é a combinação linear com
variância máxima, isto é, a combinação linear que
maximiza V(c1’X) sujeito a restrição c1’c1=1;
2) a 2ª componente principal é a combinação linear que
maximiza V(c2’X) sujeito a restrição c2’c2=1 e assim por
diante.
O resultado matemático abaixo determina quem são os
coeficientes das combinações lineares.
Resultado: Seja Σ a matriz de covariância associada ao
vetor aleatório X’= [X1, X2, ..., Xp] e que tem os pares de
autovalor-autovetor (λ1, e1), (λ2, e2), ... , (λp, ep) onde λ1≥
λ2≥ ... ≥ λp≥ 0. A i-ésima componente principal é dada por
Yi = ei’X, que tem V(Yi) = V(ei’X) = ei’Σei = λi e cov(Yi,
Yk) = 0 i≠k (Johnson e Wichern, 2007).
A porcentagem de variância dos dados originais explicada
pelas primeiras k componentes principais é:
mk
j
m
j
j
k
j
%,100x
1
1
(7)
que é denominada de taxa de contribuição acumulada.
Este é um dos critérios para a determinação do número de
componentes principais. O valor esperado para esta taxa
depende da exigência do pesquisador. Acima de 90% seria
um valor muito satisfatório em qualquer situação.
Se a maior parte da variância populacional pode ser
atribuída a k componentes, então estas k componentes
substituem as p variáveis originais com mínima perda de
informação.
4 CONCLUSÕES
Com a aplicação de métodos multivariados pretende-se
modelar as respostas de deslocamento da barragem de
Itaipu diante da variação do nível do reservatório,
temperatura ambiente e efeitos do tempo. Assim, um
procedimento para análise e diagnóstico baseado nos
métodos estatísticos multivariados pode ser efetivamente
usado para monitorar a barragem, em vez de monitorar os
instrumentos individualmente.
Os intervalos de confiança podem ser utilizados para
prever os limites mínimos e máximos previstos no modelo
e se uma alteração estatisticamente significativa é
detectada os instrumentos individuais altamente
correlacionados do componente principal podem ser
revistos. Isto pode reduzir significativamente o custo de
vigilância barragem e diminuir falsos alarmes.
REFERÊNCIAS
Bonelli S, Royet P. Delayed response analysis of dam
monitoring data. Dams in a European Context, Swets
and Zeitlinger, Lisse, 91–99, 2001.
Chouinard, L. and Roy, V., Performance of Statistical
Models for dam Monitoring Data, Joint International
Conference on Computing and Decision Making in
Civil and Building Engineering, Montreal, 14-16,
2006.
ITAIPU: Usina Hidrelétrica-projeto: aspectos da
engenharia, Foz do Iguaçu, 2009.
Jackson, J. E., A User's Guide to Principal Components,
(Wiley Series in Probability and Statistics), 2003.
Johnson, R. and Wichern, D. W., Applied Multivariate
Statistical Analysis, 6th Edition, Prentice Hall, New
Jersey, 2007.
Yu, H., Wu, Z., Bao T., and Zhang L., Multivariate
analysis in dam monitoring data with PCA, Science
China Technological Sciences,1088–1097, 2010.
45
USO DE REDES NEURAIS ARTIFICIAIS NA MINIMIZAÇÃO DOS TEORES DE
SODA CÁUSTICA NO REJEITO DO PROCESSO DE PRODUÇÃO DE
ALUMINA
Ruy Gomes da Silva; Anderson Roges Teixeira Góes; Maria Teresinha Arns Steiner.
Palavras-Chave: Redes Neurais Artificiais. Alumina. Processo Bayer.
1 INTRODUÇÃO
O processo mais utilizado industrialmente para a produção
de alumina é denominado Processo Bayer, que consiste em
misturar a bauxita moída a uma solução de soda cáustica,
com a qual a mesma reage sob pressão e temperatura (LUZ
e LINS, 2005).
O Processo Bayer, desenvolvido pelo químico austríaco
Karl Joseph Bayer, em 1889, é, atualmente, o único
processo economicamente viável para a produção de
alumina (HIND et al., 1999; SILVA FILHO et al., 2007).
Dentro do complexo processo de extração da alumina
destaca-se a “lavagem e filtração da lama vermelha”, que
tem como principal finalidade, a retirada de soda cáustica
contida no rejeito (lama vermelha) antes de seu descarte.
Os filtros rotativos que compõem o processo de lavagem
da lama vermelha operam com a utilização de uma grande
quantidade de variáveis, que combinadas promovem a
retirada de soda cáustica desta lama que, em seguida, é
transferida para uma bacia de contenção exposta no meio
ambiente preparada para tal fim.
Para a lavagem da lama vermelha, uma série de variáveis
são combinadas visando o melhor desempenho possível da
atividade.
A lama vermelha é descartada em bacias planejadas de tal
forma que não tenham contato direto com o solo. Porém
gera um grande desmatamento.
Este desmatamento poderia ser amenizado, caso esta lama
vermelha fosse reaproveitada em outro processo de
fabricação, uma vez que tal rejeito não pode ser
reaproveitado devido ao elevado volume de soda cáustica
contida na lama.
Assim, este trabalho tem por objetivo utilizar,
inicialmente, uma Rede Neural Artificial (RNA) para
reconhecer no rejeito de um processo de produção de
alumina, a Lama Vermelha, os diferentes teores de soda
cáustica gerados pelas diferentes entradas.
Após o Reconhecimento de Padrão (RP), pretende-se
construir, então, um modelo matemático capaz de
minimizar o teor cáustico contido no rejeito, através da
melhor combinação entre variáveis de entrada do processo
minimizando, desta forma, o teor de soda cáustica contida
na lama vermelha.
2 REDES NEURAIS ARTIFICIAIS
Realizar a otimização de um processo não é uma tarefa
simples, uma vez que se pode deparar com variáveis
qualitativas e quantitativas, correlacionadas, ou não. No
entanto, existem inúmeras técnicas que podem nos auxiliar
neste processo.
No caso de processos com sistemas de controle
complexos, é possível a utilização de técnicas de
Reconhecimento de Padrões (RP) como, por exemplo, as
Redes Neurais Artificiais (RNA), pelo fato de possuírem
capacidade de modelar sistemas complexos lineares e não
lineares e também por possuírem mecanismos de
aprendizagem. Por este motivo, as RNA foram idealizadas
como uma técnica adequada a ser utilizada em controles de
processos adaptativos sujeita a incertezas nos controles das
variáveis de processos (CAMPOS e SAITO, 2004).
Uma RNA funciona inspirada na estrutura do cérebro
humano que é responsável pela execução das funções
sensoras, motoras e autônomas do corpo, além das
emoções, pensamento e percepção. O cérebro tem ainda,
dentre inúmeras outras funções, a capacidade de
reconhecer padrões, armazenar conhecimento através de
experiências e interpretar observações (BRAGA et al.,
2000).
Haykin (2005) afirma que uma RNA pode ser vista como
uma máquina adaptativa com capacidade de aprendizagem,
graças à interligação maciça de células computacionais
denominadas neurônios. Ela pode ser definida ainda como
“um processador paralelamente distribuído constituído de
unidades de processamento simples, que tem a propensão
natural para armazenar conhecimento experimental e
torná-lo disponível para uso”.
Uma RNA é composta por várias unidades de
processamento, cujo funcionamento é bastante simples.
Essas unidades são geralmente conectadas por canais de
comunicação que estão associados a determinados pesos.
As unidades fazem operações apenas sobre seus dados
locais, que são entradas recebidas pelas suas conexões. O
comportamento inteligente de uma RNA vem das
interações entre as unidades de processamento da rede.
São muitos os algoritmos de aprendizagem de RNA:
backpropagation; Levenberg-Marquardt (LM); dentre
outros (HAGAN & MENHAJ, 1994; FAUSSET, 1994;
HAYKIN, 2005).
Arquiteturas neurais são tipicamente organizadas em
camadas, com unidades que podem estar conectadas às
unidades da camada posterior, como ilustrado na Figura 1
a seguir.
Figura 1 – Arquitetura típica de um neurônio artificial.
Fonte: Haykin (2005).
3 OBTENÇÃO DOS RESULTADOS
46
Uma série de registros (amostras) foi coletada pelo
especialista de processo da área de produção da lama
vermelha, que os identificou como sendo os atributos de
entrada e a variável de saída. A Tabela 1, a seguir, mostra
alguns destes registros, onde a vairável x1 representa a
densidade, x2 a pressão de vácuo, x3 o nível da bacia, x4 a
rotação do filtro, x5 o condensado de lavagem, x6 o teor
total de soda, e como variável de saída, a concentração de
soda na lama (y).
Tabela 1 – Dados do processo de lavagem de lama.
Fonte - Autores (2013).
Tais registros serviram de base para o treinamento e teste
da RNA e foram coletadas diariamente (duas vezes por
dia), por 100 dias, sempre em horários pré-estabelecidos,
perfazendo um total de 200 amostras. A RNA de
multicamadas desenvolvida têm seis neurônios na camada
de entrada correspondentes a cada uma das entradas
apresentadas na Tabela 1; um número variável de
neurônios na camada oculta/intermediária, variando de um
a 20 neurônios, e um neurônio na camada de saída
correspondente a concentração de soda cáustica na lama.
Para cada uma das tipologías, aqui denotada por (6-
variável-1), o treinamento da rede se deu através do
procedimento holdout, ou seja, 70% do total de registros
foi utilizado para o treinamento da RNA e 30% dos
registros foram utilizados para os testes; tal procedimento
foi realizado 10 vezes, com os pesos iniciais aleatórios,
variando no intervalo (-1, 1). As taxas de aprendizagem e
de momento, ambas variando no intervalo de (0, 1),
ficaram definidas em 0,8 no início do treinamento e foram
sendo ajustadas de acordo com o aprendizado da rede.
A análise gráfica obtida pela resposta da rede treinada
permite inferir que os valores previstos pela RNA em sua
grande maioria conseguem retratar os valores reais do
processo, conforme podemos visualizado na Figura 2, a
seguir.
Figura 2 – Gráfico resultados da rede neural
Fonte: Autores (2013)
A RNA usada conseguiu gerar valores aproximados aos
dados reais com um bom desempenho. Comparando as
saídas dos dados reais com os dados simulados obteve-se
um erro médio quadrático calculado de 0,015192 dentro do
intervalo de especificação do processo para os limites de
segurança verificados previamente.
4 CONSIDERAÇÕES FINAIS
Os resultados apresentados na seção 3 anterior,
demonstram que a RNA é uma ferramenta bastante
adequada para o tratamento do problema aqui abordado.
Pretende-se ainda utilizar outras técnicas para o RP para o
problema aqui abordado, verificando qual delas conseguirá
obter o mínimo erro. Realizado o RP, pretende-se
construir, na sequência, um modelo matemático capaz de
minimizar o teor cáustico contido no rejeito, através da
melhor combinação entre variáveis de entrada do processo,
fazendo com que o rejeito da produção de alumina possa
ter a possibilidade de ser utilizada em outros processos
produtivos como, por exemplo, da construção civil.
REFERÊNCIAS
BRAGA, A, P; LUDEMIR, T.B; CARVALHO, A.C.P.L.
Redes Neurais Artificiais: Teoria e Aplicações. LTC –
Livros Técnicos e Científicos / Editora S.A. – Rio de
Janeiro, 2000.
CAMPOS, M.M; SAITO, K. Sistemas inteligentes em
controle e automação de processos. Rio de Janeiro:
Editora Ciência Moderna Ltda, 2004.
FAUSSET, L. V. Fundamentals of Neural Networks:
architecture, algorithms, and applications. New Jersey:
Prentice Hall International, 1994.
HAYKIN, S. Redes Neurais: Princípios e Práticas; trad.
Paulo Martins Engel. – 2. ed. – Porto Alegre:
Bookman, 2005.
HAGAN, M. T. e MENHAJ, M. B. Training feedforward
networks with Marquardt algorithm. IEEE
Transactions on Neural Networks, v.5, n.6, p.989-993,
1994.
HIND, R. A.; BHARGAVA, S. K. e GROCOTT, S. C.
The surface chemistry of Bayer process solids: a
review. Colloids and surfaces A. Physicochemical and
engineering aspects, n.146, p.359-374, 1999.
LUZ, A.B; LINS, F.A.F. Rochas & Minerais Industriais:
usos e especificações. 2. ed. Rio de Janeiro:
CETEM/MCT, 2005.
SILVA FILHO, E. B.; ALVES, M. C. M. e MOTA, M.
Lama vermelha da indústria de beneficiamento de
alumina: produção, características, disposição e
aplicações alternativas. Revista Matéria, v.12, n.2,
p.322-338, 2007.
So
da
na
La
ma
(g/l
)
Nº de Amostras
Valores Reais X
Estimados Real
Estima
do
n x1 x2 x3 x4 x5 x6 y
1 1,42 0,45 20 2,1 26 39,1 8,9
2 1,42 0,52 25 2,2 22 79,9 17,9
3 1,43 0,35 20 2,0 22 60,4 13,0
. . . . . . . .
. . . . . . . .
199 1,47 0,33 21 1,7 22 48,9 16,6
200 1,49 0,33 18 2,2 23 56,3 18,6
47
META-HEURÍSTICA GRASP ADAPTADA PARA EXTRAÇÃO DE REGRAS DE
CLASSIFICAÇÃO
Genival Pavanelli; Maria Teresinha Arns Steiner; Anderson Roges Teixeira Góes; Alessandra Memari Pavanelli.
Palavras-Chave: Procedimento de Busca Guloso, Aleatório e Adaptativo, Data Mining, Extração de regras.
1 INTRODUÇÃO
Este artigo propõe a aplicação de um procedimento de
Busca Guloso, Aleatório e Adaptativo (Greedy
Randomized Adaptive Search Procedure – GRASP) (Feo;
Resende, 1995), (Pitsoulis; Resende, 2002), (Resende;
Ribeiro, 2002) e (Resende; Silva, 2013) como ferramenta
de Data Mining (DM) para a tarefa de extração de regras
de classificação em bases de dados.
2 REVISÃO DE LITERATURA
2.1 Descoberta de Conhecimento em Base de Dados
O termo descoberta de conhecimento em bases de dados,
vem do inglês Knowledge Discovery in Databases (KDD),
é um processo não trivial de descoberta de padrões válidos,
novos, úteis e acessíveis (Fayyad et al., 1996).
2.2 Procedimento de Busca Gulosos, Aleatórios e
Adaptativos O procedimento de Busca Guloso, Aleatório e Adaptativo
é uma meta-heurística iterativa de multi-partidas para
problemas de otimização combinatória (Resende; Silva,
2013). Cada iteração é composta de duas fases: uma de
construção e a outra de busca local (Feo; Resende, 1995),
(Pitsoulis; Resende, 2002) e (Resende; Ribeiro, 2002). A
fase de construção consiste na elaboração de uma solução
factível aleatória, a qual sofrerá um processo de busca
local na próxima fase. Esse processo é repetido várias
vezes e a melhor solução dentre todas as iterações é
selecionada como resultado final do GRASP.
3 HEURÍSTICA BASEADA EM GRASP PARA
EXTRAÇÃO DE REGRAS
O objetivo da heurística proposta não é extrair uma única
regra que apresente melhor precisão preditiva, mas sim,
um conjunto de regras com grande precisão preditiva que
classifique corretamente os padrões que compõem o banco
de dados, assim ao final de cada iteração da heurística
proposta, o algoritmo apresenta como saída um conjunto
de regras que posteriormente serão utilizadas na confecção
do classificador.
O primeiro passo para iniciar a construção do conjunto de
regras é definir o parâmetro k que indica quantos
elementos irão compor o conjunto de antecedentes da regra
de classificação. A primeira fase da heurística proposta, ou
seja, a fase de construção da regra é iterativa, de maneira
que a cada iteração desta fase, um elemento é acrescido à
regra parcial até obter-se a regra completa. Os candidatos a
comporem a regra são obtidos a partir do conjunto de
elementos que não comprometem a viabilidade da regra,
ou seja, elementos que quando inseridos à regra
classifiquem pelo menos um padrão da base de dados. O
próximo elemento a compor a regra é sorteado
aleatoriamente de uma Lista Restrita de Candidatos (LRC),
que é construída com base em uma função de avaliação
aleatória e gulosa. Para compor a LRC o candidato deve
apresentar, quando inserido a regra, um suporte maior ou
igual a um valor (Δ) pré-definido com base no parâmetro α
conforme a equação (1) a seguir:
)( minmaxmin sss (1)
onde smax é o maior suporte, smin o menor suporte das
regras e α um parâmetro.
Como se pode observar na equação (1), o parâmetro α
determina o quão guloso ou aleatório será a inserção de um
novo elemento à regra durante a sua construção. Neste
caso, para α = 0, o algoritmo é puramente aleatório,
enquanto que para α = 1, o algoritmo é puramente guloso.
No final da fase de construção aleatória e gulosa do
GRASP, a regra apresentada possui k elementos. Na
próxima fase do procedimento GRASP para extração de
regras de classificação, o objetivo é realizar uma busca
local nas vizinhanças da regra apresentada na fase anterior
a fim de buscar outras regras de boa qualidade. O
algoritmo proposto para esta fase estabelece todas as
combinações possíveis, gerando regras com (k-1)
elementos no antecessor, em seguida, (k-2) elementos, e
assim sucessivamente até obter as regras com apenas um
elemento no antecessor da regra.
4 IMPLEMENTAÇÃO DAS TÉCNICAS PARA A
RESOLUÇÃO DO PROBLEMA
A heurística apresentada na seção anterior foi aplicada em
uma base de dados extraída da 1ª Vara da Justiça do
Trabalho de São José dos Pinhais-PR. Esta base de dados é
composta de 100 processos (instâncias) distribuídos em
três classes distintas de acordo com o tempo de duração do
processo: tempo longo, tempo médio e tempo curto. Cada
instância conta com 10 atributos previsores, listados a
seguir: Objeto do Processo, Salário do Reclamante, Rito
do Proceso, Perícia, Tempo de Serviço, Acordo,
Profissão, Recurso Ordinário, Recurso de Revista e
Número de Audiências.
48
A fim de que a heurística apresentasse consistência no seu
desempenho, com relação à extração de regras que
classificassem corretamente cada processo de acordo com
o seu tempo de duração, cada um dos atributos acima
citados foi "tratado" de maneira a corresponder a uma ou
mais coordenadas binárias (Lu et al., 1996), (Baesens et
al., 2003), vetor de entrada da heurística.
Para a implementação da heurística proposta foi
desenvolvido um programa computacional utilizando a
linguagem de programação Visual Studio 2012.
No teste aplicado estabeleceu-se como critério de parada o
número de iterações igual a 100, e o parâmetro (α) foi
definido com valor de 0,5 (α = 0,5). A partir deste teste
foram extraídas 71 regras com confiança média é de 93%.
A partir destas regras foi construído um classificador que
apresentou uma precisão de 82% para a base de dados
conforme pode ser observado na matriz de confusão a
apresentada na Tabela 1 a seguir.
Classe Tp
Curto
Tp
Médio
Tp
Longo
Precisão
Classe
Precisão
Classificador
Tp
Curto 22 2 3 22/27
82/100 Tp
Médio 0 36 1 36/37
Tp
Longo 0 12 34 24/36
Tabela 1: Matriz de Confusão do Classificador.
A partir da matriz de confusão apresentada na Tabela 1
pode-se observar que o classificador apresentou a maior
precisão (97,3%) para a classe “Tp Médio”. Por outro lado,
a menor precisão foi estabelecidada para a Classe “Tp
Longo”, apresentando valor de 66,7%. A precisão do
classificador foi igual a 82% neste teste, o que caracteriza
uma boa capacidade de generalização.
5 COMPARAÇÃO DOS RESULTADOS OBTIDOS
PELA META-HEURÍSTICA PROPOSTA COM A
TÉCNICA DE ÁRVORES DE DECISÃO
Buscando estabelecer comparações foram realizados
quatro testes com a técnica de árvores de decisão a partir
do software WEKA (Waikato Environment for Knowledge
Analysis). Os testes foram aplicados utilizando os
seguintes algoritmos: BFTree, Id3, REPTree e J4.8. Cabe
ressaltar que todos os testes, tanto o da meta-heurística
proposta neste trabalho quanto aqueles realizados a partir
do software WEKA utilizaram-se dos mesmos conjuntos
de dados. Este fato justifica a comparação entre os
métodos.
A Tabela 2 a seguir apresenta o número de instâncias
classificadas correta e incorretamente em todos os
algoritmos aplicados de árvores de decisão (BFTree, Id3,
REPTree e J4.8), bem como da heurística proposta neste
trabalho. BFTree Id3 RepTee J48 Heurísitca
Instâncias
classificadas
corretamente
70 72 66 68 82
Instâncias
classificadas
incorretamente 30 28 34 26 18
Tabela 2: Comparação dos Testes.
Como se pode observar a partir da Tabela 2, a meta-
heurística baseada em GRASP, proposta neste trabalho,
apresentou melhores resultados quando comparados aos
algoritmos de árvore de decisão.
6 CONCLUSÕES
Este trabalho teve como objetivo principal apresentar uma
meta-heurística inédita baseada no procedimento GRASP a
fim de extrair regras de classificação de bases de dados. O
objetivo proposto foi atendido uma vez que o algoritmo
apresentou eficácia ao extrair 71 regras de classificação
distintas com confiança média das regras igual a 93%,
possibilitando a confecção de um classifcador cuja
acurácia foi de 82%.
Ao comparar os resultados obtidos pela meta-heurística
proposta com a técnica de árvores de decisão, constata-se
que a qualidade do classificador baseado na meta-
heurística GRASP apresenta resultados superiores às
demais técnicas.
Diante dos resultados obtidos a partir dos testes
executados, nota-se que a heurística inédita proposta
apresenta os requisitos básicos para executar a tarefa de
Data Mining, mais especificamente, a tarefa de extração de
regras de classificação utilizando como método uma
heurística baseada no procedimento GRASP.
REFERÊNCIAS
Baesens, B.; Setiono, R.; Mues, C. & Vanthienen, J.
(2003). Using Neural Network Rule Extraction and
Decision Tables for Credit-Risk Evalution.
Management Science Informs, vol. 49, n° 3, p. 312-
329.
Fayyad, U. M.; Piatetsky-Shapiro, G.; Smyth, P. &
Uthrusamy, R. Advances in knowledge Discovery&
Data Mining.California: AAAI/MIT, 1996.
Feo, T. & Resende, M. Greedy Randomized Adaptive
Search Procedures. Journal of Global Optimization,
v. 6, n. 2, p. 109133, 1995.
Lu, H.; Setiono, R. & Liu, H. (1996). Effective Data
Mining Using Neural Networks. IEE Transactions on
Knowledge an Data Engineering, vol. 8, n° 6, p.957-
961.
Pitsoulis, L. & Resende, M. Greedy Randomized Adaptive
Search Procedures. In: P.M.PARDALOS;
M.G.C.RESENDE (Ed.). Handbook of Applied
Optimization. [S.l.]: Oxford University Press, 2002.
p. 168181.
Resende, M. & Ribeiro, C. Greedy Randomized Adaptive
Search Procedures. In: GLOVER, F.;
KOCHENBERGER, G. (Ed.). Handbook of
Metaheuristics. [S.l.]: Kluwer Academic Publishers,
2002. p. 219249.
Resende, M. G. C. & Silva, R. M. A., Meta-Heurísticas em
Pesquisa Operacional. (Ed) Omnipax, 2013
49
ABORDAGEM DA TEORIA DOS JOGOS EM PERIÓDICOS QUALIS CAPES B2
Adriana Kroenke; Vania Gryczak; Volmir Eugênio Wilhelm.
Palavras-chave: Teoria dos Jogos, Periódicos, Qualis CAPES.
1 INTRODUÇÃO
A Teoria dos Jogos tem como objeto de análise situações
nas quais as ações de indivíduos dependem
substancialmente das ações de outros indivíduos
envolvidos. Desta forma, entende-se que nenhum
indivíduo pode tomar decisões sem considerar as possíveis
decisões dos outros. Estes indivíduos são ditos jogadores.
A demonstração do Teorema Minimax feito por Von
Neumann, em 1928, foi o primeiro passo para o
desenvolvimento da Teoria dos Jogos. Em 1944, em
parceria com Morgenstern, propôs a análise do
comportamento econômico via perspectiva do “jogo de
estratégia” criando a expectativa de reformulação da teoria
econômica numa base totalmente nova na qual o conceito
de “processo competitivo” seria reestruturado em termos
de mecanismos em que os agentes econômicos atuam
estrategicamente (Von NEUMANN; MORGENSTERN,
1972).
O Teorema Minimax foi demonstrado por Jonh F. Nash,
em 1950, para grande número de agentes. Enquanto a
análise do problema do equilíbrio geral, conduzida
principalmente por Anow, Debreu e McKenzie, era
estritamente paramétrica, ao considerar os agentes
econômicos como “tomadores de preços”, a Teoria dos
Jogos, de posse de novos recursos técnicos, permitia
analisar a questão da formação de preços como resultado
de um amplo processo de barganha multilateral.
Nos anos de 1960 a Teoria dos Jogos ficou restrita a
pequenos grupos. Somente a partir da segunda metade dos
anos sessenta os engenheiros e economistas começaram a
perceber a teoria dos Jogos como instrumento de
considerável alcance para a questão da análise, projeto e
implementação de mecanismos de alocação de recursos.
Para tal propósito, envolveu-se na construção de
mecanismos de alocação ou de planejamento que
obtivessem resultados “satisfatórios”. Como cada
mecanismo de alocação de recursos contém implicitamente
definido um jogo, abre-se assim um novo campo de
pesquisa: a análise e projeto de mecanismos de alocação
de recursos por meio das técnicas da Teoria dos Jogos.
Diante do exposto elaborou-se a seguinte questão de
pesquisa: Quais são os temas referentes a Teoria dos Jogos
abordados nos artigos publicados em periódicos Qualis
CAPES classificadas como B2 em Engenharias III no
período de 1998 a 2012? Destaca-se que o Qualis CAPES
é a lista resultante da avaliação da qualidade da produção
científica dos programas de pós-graduação realizada pela
CAPES a cada triênio.
Visando responder a esta questão, o presente estudo tem
como objetivo identificar os temas referentes à Teoria dos
Jogos abordados nos artigos publicados em periódicos
Qualis CAPES classificadas como B2 em Engenharias III.
Os periódicos Qualis A1, A2 e B1 são internacionais, para
tanto, analisou-se a produção acadêmica, utilizando os
principais periódicos nacionais (Qualis CAPES B2), na
área de Engenharias III, no período de 1998 à 2012.
A justificativa para a realização deste estudo é possibilitar
uma avaliação do atual grau de desenvolvimento da Teoria
dos Jogos. Além disso, o processo de interação estratégica,
em razão de sua multidisciplinariedade, permite à área de
Engenharias III, uma oportunidade de reflexão.
2 METODOLOGIA
No que se refere à metodologia, esta pesquisa se
caracteriza como descritiva, realizada por meio de um
estudo bibliométrico com abordagem quali-quantitativa.
Andrade (2005, p. 124), cita que nas pesquisas descritivas
“os fatos são observados, analisados, classificados e
interpretados, sem que o pesquisador interfira neles”. Este
estudo classifica-se como descritivo por apresentar os
artigos com tema em Teoria dos Jogos abordados nos
periódicos nacionais do Qualis CAPES B2 na área de
Engenharias III.
A seleção dos artigos foi realizada em apenas uma etapa,
na qual foram localizadas terminologias no título, resumo
e palavras-chave. Foi utilizada a terminologia Teoria dos
Jogos, totalizando oito artigos, publicados em quatro
periódicos classificados no Qualis CAPES B2.
Após a etapa de mapeamento, os oito artigos que
compõem a amostra foram submetidos à análise de
conteúdo. No decorrer do processo de leitura e
interpretação dos artigos científicos, foram criados alguns
critérios de análise que serviram de base para uma ficha
padronizada. A ficha padronizada contemplou os seguintes
tópicos: Nome do periódico e ISNN, Localização da
palavra pesquisada: Título, resumo ou palavras-chave, Ano
de publicação, Quantidade de autores, Autores e Vínculo
Institucional dos autores, Departamento dos autores, Título
do artigo, Tipo metodológico do estudo (Teórico ou
empírico), Enfoque do artigo e segmento empresarial
empregado. Os dados levantados foram submetidos à
análise de conteúdo, que, segundo Bardin (1979), é uma
técnica de análise que permite o mapeamento dos artigos
com o objetivo de obter indicadores que possibilitem a
geração de conhecimentos referentes às condições de
produção/recepção das mensagens.
3 ANÁLISE DOS RESULTADOS
Neste estudo evidencia-se a identificação dos autores mais
prolíferos, por meio de suas afiliações institucionais;
examinam-se as similaridades entre as instituições quanto
à produção científica.
Segundo os dados apresentados, o autor que ficou em
primeiro lugar no ranking geral, Luciano Menezes Bezerra
Sampaio, é do Departamento de Economia. Os autores que
ficaram em segundo lugar, Fernando B. Meneguin, Renata
Couto Moreira e Henrique Pacca L. Luna (Departamento
de Ciência da Computação); Paulo G.S. Guedes
(Prodabel); Luciana Torrezan Silveira (Copersucar);
Rodrigo M. Zeidamn, Marcelo Resende, Mauricio S.
Bugarin, Celia de Andrade Lessa, Sinézio Fernandes Maia
e Heloisa Lee Burnquist (Departamento de Economia).
Ressalta-se que os seis últimos autores pertencem a
50
instituições diferentes, com exceção de Luciano Menezes
Bezerra Sampaio e Sinézio Fernades Maia que são da
Universidade Federal da Paraíba e Rodrigo M. Zeidamn e
Marcelo Resende que pertencem ao IBMEC.
No que se refere à quantidade de autores por artigo,
constatou-se que, do total de oito artigos pesquisados, 2
artigos foram elaborados por um único autor; 4 artigos
com dois autores; 2 artigos com três autores.
A Universidade Federal de Paraíba e o IBMEC são as
instituições que estão no centro apresentando dois artigos,
seguidas do Instituto de Economia, Universidade Federal
de Lavras, Universidade Federal de Minas Gerais,
Universidade Federal Fluminense, Cesumar e Esalq, que
apresentam apenas um artigo em periódico.
4 CONCLUSÕES
O objetivo deste trabalho foi verificar como os conceitos
da Teoria dos Jogos são aplicados na pesquisa em
Engenharias III. Para atender tal objetivo, foi analisada e
descrita a produção acadêmica, nos principais periódicos
nacionais (Qualis B), no período de 1998 até 2012, na área
de Engenharias III, que abordaram a Teoria dos Jogos e
que apresentaram no título ou resumo ou palavras-chave a
terminologia Teoria dos Jogos.
A hipótese de que os pesquisadores em Engenharias III
utilizam a Teoria dos Jogos nas pesquisas foi confirmada.
Foram analisados todos os periódicos Qualis B2, mas
apenas 8 artigos empregaram a Teoria dos Jogos.
Quanto à natureza dos artigos selecionados verificou-se
que dois artigos são teóricos e seis artigos são práticos,
totalizando os oito estudos analisados, sendo sete na área
de economia e um da área de Ciências da Computação.
Nesse sentido, foi possível constatar que dos oito artigos,
seis estão publicados em Revistas de Economia.
Em decorrência deste resultado, o mapeamento
bibliométrico indica a ausência de uma rede de pesquisa
em torno do tema. Por isso, ressalta-se a importância da
pesquisa bibliométrica, pois, através dela se evita esforços
repetitivos, identifica as principais pesquisas, autores e
rede de conhecimento, ou indica escassez de estudos em
determinada área do saber.
Contudo, a existência de publicações com abordagem da
Teoria dos Jogos na pesquisa em Engenharias III indica a
possibilidade de utilização desse conhecimento. O caráter
quantitativo dessa teoria pode ser um limitador para sua
utilização.
Frente às limitações deste estudo, decorrente das
estratégias de pesquisa adotada recomenda-se para futuras
pesquisas: investigar outras áreas do conhecimento, a fim
de comparar os resultados com os achados no presente
estudo; realizar pesquisas com termos relacionados à
Teoria dos Jogos, como Equilíbrio de Nash, Teorema do
Minimax, Dominância; Reaplicar o estudo em periódicos
internacionais, a fim de acompanhar a evolução da Teoria
dos Jogos no cenário mundial.
Portanto, esta pesquisa se torna relevante por detectar a
escassez de estudos que utilizem a Teoria dos Jogos,
sinalizando para o surgimento de uma nova agenda de
pesquisas.
REFERÊNCIAS
Andrade E, M. M. Introdução à metodologia do trabalho
científico. 7 ed. São Paulo: Atlas, 2005.
Bardin, L. Análise de conteúdo. Tradução de Luis Antero
Reto e Augusto Pinheiro. Lisboa: Edições 70, 1979.
Costa, C.K.F.; Maia, S.F.; Sampaio, L.M.B. Exportações
brasileiras de suco de laranja e subsídios americanos:
uma análise empírica de estratégias comerciais (1991-
2006), RESR, Piracicaba-SP, Vol. 50, Nº 1, p. 083-106,
Jan/Mar 2012.
Fiani, R. Teoria dos jogos: para cursos de administração e
economia. 2 ed. Rio de Janeiro, Elsevier, 2006.
Lessa, C.A. Racionalidade estratégica e instituições, Rev.
bras. Ci. Soc. v. 13 n. 37 São Paulo Jun. 1998. Meneguin, F.B.; Bugarin, M.S. A informalidade no
mercado de trabalho e o impacto das instituições: uma
análise sob a ótica da Teoria dos Jogos, Econ. aplic.,
São Paulo, v. 12, n. 3, p. 341-363, JUL HO-
SETEMBRO 2008.
Meneguin, F.B.; Bugarin, M.S. Pacto de estabilidade e
crescimento na União Européia: há incentivos ao seu
cumprimento? Econ. Apl. v.10 n.3 Ribeirão Preto
jul./set. 2006.
Moreira, R.C.; Luna A, H.P.L.; Guedes, P.G.S. Um estudo
comparativo entre entre Teoria dos Jogos cooperativos
e uma heurística aplicados em um problema real de
alocação de custos, Pesquisa Operacional, v.22, n.1,
p.73-85, janeiro a junho de 2002.
Sartini, B.A. Uma introdução à Teoria dos Jogos. II Bienal
da SBM. Universidade Estadual da Bahia, 2004.
Disponível em:
http://www.mat.puc-rio.br/~hjbortol/bienal/M45.pdf
Acesso em: 13 de julho de 2012.
Sampaio, L.M.S.; Modelo Principal-agente para contratos
entre pequenos produtores e empresa exportadora de
manga no Rio Grande do Norte, RER, Rio de Janeiro,
vol. 45, nº 04, p. 879-898, out/dez 2007.
Silva, V.A. Análise Crítica da produção científica em
contabilidade, utilizando a Teoria dos Jogos, no suporte
à tomada de decisões. Disponível em:
http://www.contabeis.ufba.br/Site/arquivos/Editor/file/Mes
trado/Artigos/2010
Acesso em 25 de julho de 2012.
Silveira, L.T.; Burnquist, H.L. Procedimento para análise
de decisão quanto à prevenção de doenças em animais:
uma aplicação da Teoria dos Jogos, RESR, Piracicaba,
SP, vol. 47, nº 02, p. 435-464, abr/jun 2009.
von Neumann, J.; Morgenstern, O. (1972): Theory of
games and economic behavior. Princeton University
Press - Princeton.
Zeidan, R.M.; RE, M. Colusão ótima com monitoramento
imperfeito: teste do modelo de Abreu-Pearce-Stachetti
para os mercados brasileiros regionais de cimento,
Econ. Apl. vol.14 no.1 Ribeirão Preto jan./mar. 2010.
51
OTIMIZAÇÃO NA GERAÇÃO DE GRADE HORÁRIA ESCOLAR ATRAVÉS DE
UM MODELO MATEMÁTICO E DA META-HEURÍSTICA BUSCA LOCAL
Pedro Rochavetz de Lara Andrade, Anderson Roges Teixeira Góes, Maria Teresinha Arns Steiner
Palavras-Chave: Grade Horária Escolar, Meta-Heurísticas, Modelo Matemático, Ensino Fundamental, Escolas Públicas.
1 INTRODUÇÃO
Para sustentar o atual crescimento das instituições de
ensino, mantendo a qualidade, esses estabelecimentos
precisam otimizar a utilização de seus recursos. Dentre
esses recursos estão o tempo disponível de professores e
de salas de aula, que podem ser otimizados através de uma
melhor definição do horário de seus compromissos (grade
horária).
Assim, o objetivo deste trabalho é desenvolver uma
ferramenta capaz de gerar a grade horária otimizada para
instituições de Ensino Fundamental e Médio, utilizando
técnicas meta-heurísticas.
Ainda, pretende-se comparar o resultado gerado pela
ferramenta com o obtido atráves da solução do problema
pelo Método Exato.
2 DESCRIÇÃO DO PROBLEMA
O problema de alocação de professores é considerado um
problema do tipo NP-completo (Cooper e Kingston, 2006).
Neste tipo de problema, os professores, em geral, não
possuem as 25 aulas na semana (5 horários de aula em 5
dias), pois além da carga horária assumida em disciplinas,
no caso das escolas públicas, também deve ser considerado
o tempo para preparação das aulas (hora atividade). Em
função disso, existe a possibilidade de os horários de aula
dos professores serem alocados ao longo da semana.
Assim, o principal objetivo do problema é minimizar o
número de dias de aula de cada professor, sendo esse o
principal fator para análise da qualidade do quadro de
horários. Como neste tipo de problema cada professor
leciona apenas uma disciplina, as suas turmas são
previamente definidas e procura-se maximizar suas
preferencias pelos dias em que lecionará.
Na rede pública de ensino que é estudo para este problema,
existe a definição de um dia chamado de ‘não-vínculo’, em
que o professor não deve ter aulas alocadas e, com isso, a
carga horária máxima que pode ser assumida por um
professor é de 15 aulas por semana, deixando assim dois
dias livres, para a hora-atividade e não-vínculo.
Foram realizados estudos de 4 grades horárias, de 3
escolas da rede municipal de ensino do municipio de
Araucária/Pr.
3 METODOLOGIA
A técnica escolhida para resolução do problema, dentre as
numerosas alternativas, foi a meta-heurística Busca Local
(BL) por apresentar, de uma forma geral, resultados baste
satisfatórios. Os resultados assim obtidos serão
comparados com os obtidos através da modelagem
matemática (método exato).
A resolução deste tipo de problema através do método
exato pode exigir um tempo computacional elevado não
sendo viável sua execução para problemas mais complexos
(Góes, Costa e Steiner, 2010).
Assim, justifica-se a utilização de métodos meta-
heurísticos que, em geral, alcançam uma solução factível
de forma mais rápida, principalmente em problemas de
maior porte.
Algumas das restrições que influenciam no problema de
alocação de professores na construção da carga horária
são:
Garantir que todos os horários de todas as turmas
sejam preenchidos por aulas, e que em cada
horário da semana, apenas um professor lecione
para cada turma;
Impedir que um professor lecione em mais de
uma turma no mesmo horário;
Garantir que um professor ministre toda a carga
horária da disciplina a que foi alocado em cada
turma;
Impedir que as turmas recebam mais de duas
aulas diárias de uma disciplina;
Na modelagem matemática realizada ao problema, que
também é suporte para a implementação das técnicas meta-
heurísticas, o diferencial em relação a alguns trabalhos
apresentados na literatura (Souza, Maculan e Ochi, 2001;
Moura et al. 2004; Kingston, 2006; Santos, 2007; Góes,
Costa e Steiner, 2010; Andrade, Scarpin e Steiner, 2012;
Fonseca et al., 2012), está no fato das restrições de
preferência dos professores por aulas geminadas, ou não,
serem consideradas fracas, influenciando a função
objetivo, mas não tendo necessidade que as mesmas sejam
atendidas por completo.
4 RESULTADOS
Os resultados preliminares, mostrados parcialmente nas
Tabelas 1 e 2, a seguir, referem-se à grade horária gerada
pela aplicação da BL e pelo método exato, aplicados a um
dos exemplos estudados. Este exemplo possui 23
professores que ministram 8 disciplinas, e devem ser
alocados em 12 turmas.
52
Tabela 1 – Horário dos professores – Busca Local.
Tabela 2 - Horário dos professores – Método Exato.
Pode-se notar que o horário gerado pelo método exato é
consideravelmente melhor do que o gerado pela BL. Nota-
se também que o método exato alocou aulas geminadas em
vários casos, mesmo para professores que não possuem
essa preferência.
A Tabela 3 ilustra a comparação entre os resultados da BL
e método exato, após a aplicação nos quatro exemplos.
Nesta Tabela 3, a solução inicial diz respeito apenas a BL.
Tabela 3 – Comparação entre os métodos.
São mostrados os valores da Função Objetivo (FO) (Z(x)),
e do número de dias alocados a mais do que o mínimo
necessário para os professores (D/500). Como esses
valores podem distorcer a realidade, visto que um
problema grande naturalmente terá a FO maior do que um
problema pequeno, mesmo que tenha uma solução pior, foi
criada também uma coluna em que esses valores são
divididos pelo número de professores do problema.
Da análise destes exemplos, observa-se que de maneira
geral, a complexidade dos problemas não tem relação
direta com o seu tamanho, mas sim com a relação entre o
número de professores e de turmas do problema (P/T). Por
mais que outros fatores interfiram nessa questão, de uma
forma geral, a complexidade dos problemas é
inversamente proporcional à relação de professores e
turmas. Outro fator que também influencia a complexidade
dos problemas é o número de professores com carga
horária maior do que 20 horas semanais. Esses professores
tem pouca flexibilidade em seu horário e, por isso, uma
chance maior de inviabilizar a geração da solução inicial.
Além disso, mesmo quando uma solução inicial é gerada, a
pouca flexibilidade de seu horário dificulta também a
melhoria da solução pela BL.
De acordo com o que foi exposto, pode-se notar que os
dois problemas com a maior relação de professores e
turmas (problemas 1 e 3) foram os dois problemas que
tiveram a maior melhora a partir da solução inicial.
Pretende-se futuramente aprimorar a ferramenta inserindo
a lógica do Iterated Local Search (ILS) como um
diferencial à BL.
REFERÊNCIAS
Andrade, P. R. L.; Scarpin, C. T.; Steiner, M. T. A.
Geração da Grade Horária do Curso de Engenharia de
Produção da UFPR Através de Programação Linear
Binária. In: XVI CLAIO / XLIV SBPO, Rio de Janeiro
- RJ, Brasil, 24 a 28 de Setembro de 2012.
Cooper, T. B.; Kingston, J. H. The Complexity of
Timetabling Construction Problems. Basser
Department of Computer Science. University of
Sydney, Sydney, 2006. Relatório Técnico 495.
Fonseca, G. H. G.; Toffolo, T. A. M.; Brito, S. S.; Santos,
H. G. Técnicas de Busca Local para o Problema da
Programação de Horários Escolares. In: XVI CLAIO /
XLIV SBPO, Rio de Janeiro - RJ, Brasil, 24 a 28 de
Setembro de 2012.
Góes, A. R. T.; Costa, D. M. B.; Steiner, M. T. A.
Otimização na Programação de Horários de
Professores/Turmas: Modelo Matemático,
Abordagem Heurística e Método Misto. Revista
Eletrônica Sistemas & Gestão. v. 5, n. 1, p. 50-66,
Janeiro a Abril de 2010.
Kingston, J. H. Hierarchical Timetable Construction. In:
The 6TH International Conference on the Pratice and
Theory of Automated Timetabling (PATAT), Brno,
Czech Republic. ISBN 80-210-3726-1, 30 de Agosto
a 1° de Setembro, 2006.
Moura, A.; Scaraficci, F.; Silveira, R.; Santos, V. Técnicas
Meta-Heurísticas Aplicadas à Construção de Grades
Horárias Escolares. In: XXXVI SBPO, São João Del
Rei – MG, Brasil, 23 a 26 de Novembro de 2004.
SANTOS, H. G. Formulações e Algoritmos para o
Problema de Programação de Horários em Escolas.
Tese de Doutorado - Programa de Pós-Graduação em
Computação, Universidade Federal Fluminense, Rio
de Janeiro, 2007.
Souza, M. J. F.; Maculan, N.; Ochi, L. S. Uma Heurística
para o Problema de Programação de Horários em
Escolas. Revista TEMA, v. 2, p. 213-222, ISSN 1677-
1966, 2001.
Z(x) Z(x)/P D/500 D/(500*P) Z(x) Z(x)/P D/500 D/(500*P) Z(x) Z(x)/P D/500 D/(500*P)
1 1,92 43987 1912 33 1,43 49070 2133 26 1,13 60803 2644 4 0,17
2 1,75 24513 1751 14 1 26681 1906 12 0,86 29382 2099 2 0,14
3 1,83 41691 1895 31 1,41 46142 2097 26 1,18 59570 2707,7 0 0,00
4 1,69 45526 2069 27 1,23 48722 2215 23 1,05 60172 2735 0 0,00
NºSolução Inicial Busca Local Método Exato
P/T
53
ANÁLISE ISOGEOMÉTRICA APLICADA AO PROBLEMA DE BARRAS EM
VIBRAÇÃO LIVRE
Mateus Rauen, Roberto Dalledone Machado, Marcos Arndt
Palavras-Chave: Análise Isogeométrica, Vibração Livre, Método dos Elementos Finitos.
1 INTRODUÇÃO
O problema de vibração livre de estruturas consiste em um
problema de autovalores generalizados: encontrar um par
(λ,µ) tal que:
Kµ = λMµ (1)
Onde K e M são respectivamente a matriz de rigidez e a
matriz de massa da estrutura.
O autovalor λ está relacionado com a frequência natural de
vibração da estrutura e o autovetor µ correspondente
representa os modos naturais de vibração para um sistema
com múltiplos graus de liberdade. A frequência natural de
vibração ω está relacionada com autovalor pela relação:
(2)
À medida que o número de elementos estruturais aumenta
o desenvolvimento de soluções analíticas para o problema
de vibração livre de estruturas torna-se mais complexo.
Desta forma a aproximação numérica por um método
aproximado torna-se uma alternativa viável.
Através de exemplos numéricos o presente trabalho
investiga a eficiência numérica da Análise Isogeométrica
(Hughes et al. 2005) e compara com os resultados obtidos
para o Método dos Elementos Finitos (MEF).
2 ANÁLISE ISOGEOMÉTRICA
A Analise Isogeométrica introduzida por Hughes et al.
(2005) consiste em um método numérico de resolução de
equações diferenciais parciais com similaridades ao
Método dos Elementos Finitos. As funções de
aproximação deste método, denominadas NURBS (Non
Uniform Rational B-Splines), são utilizadas como funções
de ponderação da equação e como funções de aproximação
para a geometria do elemento. O uso destas funções como
aproximação geométrica permite utilizar modelagens em
CAD (Computer Aided Design) para o modelo de
elementos finitos, dispensa a necessidade de acessar
informações sobre o modelo durante um refino de malha
além de descrever a geometria do objeto de maneira exata.
A construção das funções NURBS é realizada de maneira
recursiva. Dado um número n de funções de forma, a
ordem p do polinômio e um vetor de pontos de controle Ξ
= {ξ1, ξ2,..., ξn+p+1 } as funções NURBS são dadas por:
{
(3)
(4)
A figura 1 apresenta as funções de forma do tipo NURBS
criadas a partir das equações 2 e 3 para polinômio de
ordem 2 e vetor de pontos de controle Ξ =
{0,0,0,0.5,1,1,1}.
Figura 1: Exemplo de Funções NURBS
2.1 Refinamento
Os procedimentos de refinamento da Análise
Isogeométrica (Cotrell et al. 2007) consistem em alterar os
parâmetros de entrada para a construção das funções
NURBS e reconstruir o modelo.
O refino h isogeométrico consiste em aumentar o número
de pontos de controle distintos. Dado um vetor inicial de
pontos de controle Ξ = {ξ1,ξ2,...,ξn+p+1} são inseridos m
novos pontos e a partir de um novo vetor Ξ =
{ξ1,ξ2,...,ξn+m+p+1} as funções são reconstruídas.
O refino relacionado com o aumento do grau polinomial
das funções de forma pode ser construído de duas
maneiras: inserção de pontos seguida de elevação de
ordem (refino p) e elevação de ordem seguida de inserção
de pontos (refino k). O refino k apresenta vantagem sobre
o refino do tipo p por aumentar a suavidade das funções de
forma com um pequeno acréscimo no número total de
funções (Cotrell et al. 2007).
3 EXPERIMENTOS NUMÉRICOS
3.1 Barra Fixa-Fixa
Para elemento de barra as formulações variacionais das
matrizes de rigidez e massa são dadas por:
∫
(5)
∫
(6)
Onde E é o módulo de young, A a área da seção
transversal da barra, ρ a massa específica do material, µ
o deslocamento axial e w a função de ponderação do
método.
Considerando os parâmetros E,A e ρ unitários, a
solução analítica do problema de barra Fixa-Fixa é
definida por:
(7)
Onde ω é a frequência natural de vibração
correspondente ao modo n.
A figura 2 mostra os resultados do desenvolvimento da
barra fixa-fixa pelo Método Isogeométrico de grau p = 2
e pelo Método dos Elementos Finitos utilizando
54
polinômios de Lagrange de grau 2 onde a razão da
frequência aproximada pela frequência analítica é
plotada em função da razão do n-ésimo grau de
liberdade pela quantidade total de graus de liberdade.
Para ambas modelagens foram utlizados 100 graus de
liberdade, porém os comportamento das curvas
independem da quantidade de graus de liberdade
(Cotrell et al. 2006).
Figura 2: Resultados para Barra Fixa-Fixa
A figura 2 mostra uma descontinuidade na curva de erro
do MEF Polinomial em n/N = ½ onde os erros aumentam
enquanto o comportamento do Método Isogeométrico
permanece com erros menores que 1.05. O Método
Isogeométrico mostra-se superior em toda a amostragem
de frequências.
3.2 Barra Fixa-Livre
Para o problema de barra fixa em uma extremidade foram
testadas as taxas de convergência dos autovalores λ do
método comparando o refinamento com os resultados
obtidos por Arndt et al. (2011) para o MEF.
A solução analítica para o problema de barra fixa-livre
com os parâmetros E,A e ρ unitários é definida por:
[
]
(8)
A figura 3 mostra o erro percentual em função do numero
de graus de liberdade para o Método Isogeométrico com
refino k, Isogeométrico com refino p, MEF linear com
refino h, MEF cúbico com refino h e MEF com refino p
para os dois primeiros autovalores.
A figura 3 mostra que as taxas de convergência do MEF p,
e do Isogeométrico p e k são maiores se comparadas aos
refinos h do MEF. O refino k do Isogeométrico apresentou
as melhores convergências.
Figura 3: Taxas de Convergência para Barra Fixa-Livre
4 CONCLUSÕES
A Análise Isogeométrica apresentou resultados superiores
ao Método dos Elementos Finitos em ambos os casos
analisados. Para o problema da barra fixa-fixa o
comportamento em toda a sua amostragem foi superior e
para a barra fixa-livre a taxa de convergência do
refinamento k foi superior a todos os modelos analisados.
A taxa de convergência do refinamento k foi superior ao
refino p do isogeométrico, confirmando a hipótese de
Cotrell et al. (2007) a respeito da suavidade das curvas do
tipo NURBS.
A razão do comportamento descontinuo da curva de erros
do MEF Polinomial não é discutida na literatura e constitui
uma possibilidade para pesquisas futuras.
REFERÊNCIAS
Arndt, M., Machado, R.D. and Scremin, A., 2011.
Enriched Methods for Vibration Analysis of
Framed Structures. In proceedings of the 21st
international congress of mechanical engineering
- cobem2011. Natal, Brazil.
Cottrell, J.A., Hughes, T.J.R. and Reali, A., 2007. Studies
of Refinement and Continuity in Isogeometric
Structural analysis. Computer Methods in Applied
Mechanics and Engineering, vol. 196, pp. 4160–4183.
Cottrell, J.A., Reali, A., Bazilevs, Y. And Hughes, T.J.R.,
2006. Isogeometric Analysis of Structural Vibrations.
Computer Methods in Applied Mechanics and
Engineering, vol. 195, pp. 5257–5196.
Hughes, T.J.R., Cottrell, J.A. and Bazilevs, Y., 2005.
Isogeometric Analysis: CAD, Finite Elements, NURBS,
Exact Geometry and Mesh Refinement. Computer
Methods in Applied Mechanics and Engineering, vol.
194, pp. 4135–4195.
55
RESUMO DOS POSTERS Resumo dos trabalhos apresentados na forma de posters.
56
COMPARAÇÃO ENTRE A RESOLUÇÃO DE PROBLEMAS DE TRANSPORTE
NO IBM ILOG CPLEX® E EM UM ALGORITMO PROGRAMADO EM VISUAL
BASIC® VB.NET
Alessandra Heloise de Quadros
Palavras-Chave: CPLEX, Problema de Transporte, Métodos Meta-heurísticos, Otimização por Colônia de Formigas.
RESUMO:
A pesquisa operacional é uma ciência voltada ao desenvolvimento de modelos matemáticos e algoritmos para resolução de
problemas de diversas naturezas, visando o encontro da melhor solução possível (Lopes et al. 2013). Entre os assuntos dos
problemas que podem ser modelados, existem os que tratam de transportes e consistem em, tendo disponíveis as capacidades
de ofertas de cada unidade fornecedora, as necessidades demandadas de cada unidade receptora e os custos de transportar de
uma para outra, encontrar a melhor designação de transportes possível, isto é, quando os custos forem minimizados (Arenales
et al. 2006). Diversos métodos, exatos ou não, podem ser utilizados para buscar a resposta ótima dos problemas ou, quando
esta não é possível, a solução mais próxima do ótimo. Os métodos meta-heurísticos são exemplos que não garantem a
otimização global de um problema, mas proporcionam uma solução próxima (solução ótima local), que pode ser testada quanto
a sua eficácia. Para trabalhar com tais métodos, a maneira mais eficiente é através da utilização de programas computacionais,
pois estes tornam o processo muito mais ágil e simples (Batalha, 2011). O principal objetivo foi a realização de uma
comparação entre a solução obtida através do IBM ILOG CPLEX®, um programa computacional para solução através do
método exato de programação linear, e o resultado adquirido com a utilização de um método meta-heurístico. Para isso, foi
programado na linguagem Visual Basic® (VB.NET) um algoritmo capaz de solucionar problemas de transportes por meio do
método meta-heurístico da otimização por colônia de formigas (Ant Colony Optimization – ACO), que é uma analogia ao
proceso natural que acontece com as formigas (Dorigo and Gambardella, 1997). Ao executar o mesmo problema nos dois
programas (programado e pacote comercial), foram criados parâmetros para comparação entre a obtenção dos resultados e o
tempo de execução, de forma a verificar se o IBM ILOG CPLEX® possui um diferencial competitivo em relação ao algoritmo
programado. Os problemas processados foram classificados em faixas, baseadas no tamanho da matriz Mmxn, considerando m
as ofertas e n as demandas de unidades transportadas, para facilitar o confronto das informações e diminuir a chance de erros
(Silva, 2009). Além disso, o problema foi solucionado através da meta-heurística com limite de cem iterações e quinhentas
iterações. Ao término da pesquisa, concluiu-se que, em todos os problemas procesados, o IBM ILOG CPLEX® se mostrou
mais rápido. Também constatou-se que quanto menor o número de origens e destinos do problema, maior a chance do
resultado obtido pelo método de otimização por colônia de formigas se aproximar ou alcançar a solução obtida pelo IBM
ILOG CPLEX® (ótimo global). Somado a isso, quanto maior o número de iterações que o algoritmo da otimização por colônia
de formigas realizar, maior a chance de ele convergir para o ótimo global ou para ótimos locais mais próximos dele.
REFERÊNCIAS
Arenales, M., Armentano, V., Morabito, R., and Yanasse, H. Pesquisa operacional . São Paulo: Elsevier, 2006.
Batalha, M. O. Introdução à Engenharia de Produção. Rio de Janeiro: Elsevier, 2011.
Dorigo, M., and Gambardella, L. Ant colony system: a cooperative learning approach to the travelling salesman problem. IEEE
Transactions on Evolutionary Computation, 1997.
Lopes, H. S., Rodrigues, L. C. A., and Steiner, M. T. A. Meta-heurísticas em Pesquisa Operacional. Curitiba: Omniplax, 2013.
SILVA, A. L. C. Introdução à Análise de Dados. Rio de Janeiro: E-papers, 2009.
57
COMPARAÇÃO DE DESEMPENHO E USABILIDADE ENTRE OS SOFTWARES
COMERCIAIS DE OTIMIZAÇÃO E O MÉTODO DUAL PARA O PROBLEMA
CLÁSSICO DO TRANSPORTE
Carolina Meduna Baziewicz; Alexandre de Jesus Fante; Cassius Tadeu Scarpin; Arinei Carlos Lindbeck da Silva; Gustavo
Valentin Lock.
Palavras-chave: Problema Clássico de Transporte, CPLEX 12.4®, LINGO12®, Método Stepping-Stone
RESUMO:
O Problema Clássico de Transporte, formulado por Hitchcock em 1941 (PIZZOLATO, GANDOLPHO, 2009), está dentre os
modelos determinísticos da Pesquisa Operacional, e é resolvido através de algoritmos lineares. Segundo Hillier (2010),
programação linear envolve o planejamento de atividades para alcançar um resultado ótimo, de forma a atender os objetivos
especificados entre todas as alternativas viáveis. O Problema Clássico de Transporte pode ser entendido como o transporte de
determinadas mercadorias de pontos de origens (por exemplo, centro de distribuição) para destinos (por exemplo, mercados
consumidores), no qual se deve obter a quantidade ótima a ser transportada de cada origem para cada destino. O principal
intuito deste trabalho é comparar o desempenho e eficácia entre os softwares de otimização IBM ILOG CPLEX 12.4®, LINGO
12® e da programação do Método Dual, o qual é baseado no Método Stepping-Stone, em linguagem Visual Basic® (VB.NET),
evidenciando-se para tanto algumas das diferentes formas de uso dos solvers. Dessa forma, a análise consiste em relação ao
desempenho, avaliar o tempo computacional gasto em cada forma de solução, em relação à eficácia, obter ou não a solução
ótima (caso não seja ótima, quanto é o desvio da função objetivo), e finalmente em relação à usabilidade, avaliar-se a interface
com o usuário, a dificuldade de aprendizagem e a linguagem de programação necessária. O projeto ao qual este trabalho esteve
vinculado objetivava a construção de um software que fizesse uso de ferramentas de Pesquisa Operacional para solucionar
problemas. Dessa maneira, um software foi desenvolvido em linguagem Visual Basic.Net e através dele a comparação entre as
três maneiras de obtenção de soluções citadas anteriormente foi tornada possível. O software criado fez interação com o IBM
ILOG CPLEX, com LINGO e recebeu os módulos da otimização pelo Método Dual. A usabilidade de softwares programados
se justifica por uma série de fatores: O alto custo de investimento em softwares de otimização, a complexidade de utilização
dos softwares atuais do mercado e o desconhecimento geral da programação de modelos lineares da linguagem computacional.
Nesse sentido, a interface em VB.NET facilitou a interação do usuário com o problema de transporte. Além disso, a construção
dessa ferramenta também buscar difundira prática de desenvolver métodos programados por profissionais que detém
conhecimento em linguagem computacional e Pesquisa Operacional. Para efeito de avaliação, dezesseis instâncias aleatórias
foram geradas, variando-se quantidade de pontos de origens, pontos de destinos, demandas e ofertas. No término do trabalho,
verificou-se que para problemas de maiores dimensões, o software CPLEX apresentou os melhores índices de desempenho. A
programação do Método Dual também obteve resultados válidos e bastante satisfatórios principalmente para problemas
pequenos, mas também seu uso se justifica para problemas maiores. Assim, verificou-se que a escolha da melhor forma de
resolução depende das necessidades do usuário, do conhecimento técnico de programação e das características do problema.
REFERÊNCIAS
HILLIER, F. S., LIEBERMAN, G. J.; Introdução à Pesquisa Operacional. 9ª edição. Porto Alegre: McGraw-Hill, 2010.
PIZZOLATO, N.D., GANDOLPHO A.A. Técnicas de Otimização. Rio de Janeiro. 2009
58
Sumário por primeiro autor
Adriana Kroenke; Vania Gryczak; Volmir Eugênio Wilhelm. 49
Alana Renata Ribeiro; Deise Maria Bertholdi Costa; Eduardo Alvim Leite. 25
Alessandra Heloise de Quadros 56
Camila Oliveira, Sérgio Scheer, César Beneti. 39
Carolina Meduna Baziewicz; Alexandre de Jesus Fante; Cassius Tadeu Scarpin; Arinei Carlos Lindbeck da Silva;
Gustavo Valentin Lock. 57
Danilo Francelino Fuckner Leonel; Carlos Henrique dos Santos; Liliana Madalena Gramani; Luiz Antonio
Ribeiro de Santana. 21
Diana M. Cancelli, Marcelo Chamecki, Nelson Luis Dias. 9
Genival Pavanelli; Maria Teresinha Arns Steiner; Anderson Roges Teixeira Góes; Alessandra Memari Pavanelli. 47
Geraldo Carvalho Brito Jr., Anselmo Chaves Neto, Roberto Dalledone Machado. 7
Guilherme Augusto Pianezzer, Fábio André Negri Balbo, Eloy Kaviski, Liliana Madalena Gramani, Marcelo
Rassy Teixeira. 15
Guilherme Vinicyus Batista; Cassius Tadeu Scarpin. 11
Jairo Marlon Corrêa 27
Jorge Vinicius Ruviaro Bonato; Paulo Henrique Siqueira; Cesar Augustus Assis Beneti. 19
Liliane do Rocio Marconcin; Roberto Dalledone Machado; Luiz Alkimin de Lacerda. 13
Marcos Freitas de Moraes; Liliana Madalena Gramani. 37
Mariana Kleina; Luiz Carlos Matioli; Eduardo Alvim Leite. 17
Mateus Rauen, Roberto Dalledone Machado, Marcos Arndt 53
Pedro Rochavetz de Lara Andrade, Anderson Roges Teixeira Góes, Maria Teresinha Arns Steiner. 51
Roberto Pettres; Luiz Alkimin de Lacerda. 33
Romulo de Oliveira Leite; Anselmo Chaves Neto 31
Ruy Gomes da Silva; Anderson Roges Teixeira Góes; Maria Teresinha Arns Steiner. 45
Sheila Regina Oro; Anselmo Chaves Neto 35
Suellen Ribeiro Pardo Garcia; Anselmo Chaves Neto. 43
Tereza Rachel Mafioleti; Anselmo Chaves Neto. 23
Tiago Noronha dos Santos; Paulo Henrique Siqueira; Leonardo Calvetti. 41
Vanessa Ferreira Sehaber; Adriano Rodrigues de Melo; Jair Mendes Marques. 29
PPGMNEPrograma de Pós-Graduação emMétodos Numéricos em Engenharia
ISSN: 2236-8108