UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco...

60
PPGMNE Programa de Pós-Graduação em Métodos Numéricos em Engenharia UFPR

Transcript of UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco...

Page 1: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

PPGMNEPrograma de Pós-Graduação emMétodos Numéricos em Engenharia

UFPR

Page 2: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

i

Sandro Rodrigues

Vania Gryczak

Marina Vargas

Josué Musial

Danilo Leonel

Tiago Noronha

Thais Biembengut

Nayane Krespi

Mariana Kleina

Diana Cancelli

LIVRO DE RESUMOS O livro de resumos contém os resumos expandidos e resumos dos posterês apresentados durante o III Simpósio de Métodos

Numéricos Computacionais da UFPR 2013

Programa de Pós-Graduação em Métodos Numéricos em Engenharia (PPGMNE)

Universidade Federal do Paraná (UFPR)

2013

Page 3: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

ii

Informações Básicas

O objetivo principal do Simpósio de Métodos Numéricos Computacionais da UFPR é propor um espaço para divulgação e

debate dos trabalhos acadêmicos, bem como a apresentação de trabalhos desenvolvidos pelos professores, alunos e demais

participantes.

A proposta do simpósio é disseminar a pesquisa em métodos numéricos em engenharia e viabilizar um local para a discussão

das pesquisas e trabalhos desenvolvidos na área

O livro de resumos contém os resumos expandidos, posterês e as palestras apresentadas durante o evento.

Direitos Autorais

Os conceitos emitidos em artigos são de exclusiva responsabilidade de seus autores, não refletindo, necessariamente, a opinião

da redação. Não se permite a reprodução total ou parcial dos trabalhos, apenas utilizar como fonte de dados desde que seja

indicada, na forma de citação, explicitamente a sua fonte.

Corpo Editorial

Editora responsável

Editora UFPR

Coordenação Editorial

Marina Vargas Reis de Paula Gonçalves

Organização

Sandro Rodrigues

Vania Gryczak

Marina Vargas

Josué Musial

Danilo Leonel

Tiago Noronha

Thais Biembengut

Nayane Krespi

Mariana Kleina

Diana Cancelli

Comitê Científico

Anselmo Chaves Neto

Arinei Carlos Lindbeck da Silva

Cassius Tadeu Scarpin

Cynara de Lourdes da Nóbrega Cunha

Deise Maria Bertholdi Costa

Eloy Kaviski

Elvidio Gavassoni Neto

Gustavo Valentim Loch

José Antonio Marques Carrer

José Carlos Coninck

Luiz Alkimin de Lacerda

Luciano Kiyoshi Araki

Liliana Madalena Gramani

Luzia Vidal de Souza

Marcio Villela

Marco André Argenta

Marcos Arndt

Marcelo H. F. Medeiros

Maurício Felga Gobbi

Nayara Klein

Neida Maria Patias Volpe

Nelson Dias

Paulo Justiniano Ribeiro Junior

Ricardo Almeida

Roberto Dalledone Machado

Volmir Eugênio Wilhelm

Concepção do projeto gráfico

Marco André Argenta

Web design

Marco André Argenta

Tiago Noronha

Page 4: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

3

Sumário

Informações Básicas .................................................................................................................................................................... ii

Direitos Autorais ......................................................................................................................................................................... ii

Corpo Editorial ............................................................................................................................................................................ ii

Sumário ......................................................................................................................................................................................... 3

Apresentação ................................................................................................................................................................................ 5

RESUMOS EXPANDIDOS ......................................................................................................................................................... 6

MODELOS AUTORREGRESSIVOS PARA A DETECÇÃO DE DANOS EM MANCAIS DE GUIA DE HIDROGERADORES

.................................................................................................................................................................................................... 7

DISSIMILARIDADE ENTRE TEMPERATURA E UMIDADE NA CAMADA LIMITE SUPERFICIAL .................................... 9

UMA PROPOSTA DE MODELAGEM MATEMÁTICA DO PROBLEMA DE ROTEAMENTO EM ARCOS CAPACITADO E

PERIÓDICO ADAPTADO ....................................................................................................................................................... 11

ESTUDO PRELIMINAR DA INFLUÊNCIA DA ARMADURA NO DANO DE LAJE DE CONCRETO DE BARRAGEM DE

ENROCAMENTO ..................................................................................................................................................................... 13

TESTE DE CARREGAMENTO AXIAL EM UM ELEMENTO REPRESENTATIVO DO CONCRETO ................................... 15

ANÁLISE DA INTENSIDADE DO PICO DE CORRENTE DE DESCARGAS ELÉTRICAS ASSOCIADAS À TEMPESTADES

IDENTIFICADAS POR TÉCNICAS DE CLUSTERIZAÇÃO ................................................................................................... 17

USO DA REDE NEURAL SELF ORGANIZING MAPS NA CLUSTERIZAÇÃO DE DADOS METEOROLÓGICOS DE

REFLETIVIDADE .................................................................................................................................................................... 19

MODELO DE PREDAÇÃO SELETIVA: OCORRÊNCIA DE DOENÇA CONTAGIOSA NA POPULAÇÃO DE PRESAS .... 21

UMA ABORDAGEM PROBABILÍSTICA PARA A ESTABILIDADE DE TALUDES DE BARRAGENS DE ATERRO ........... 23

RECONHECIMENTO DE PADRÕES EM DADOS DE VAZÃO UTILIZANDO SELF-ORGANIZING MAPS ....................... 25

ANÁLISE E PREVISÃO DO DESLOCAMENTO HORIZONTAL DA BARRAGEM DA USINA HIDRELÉTRICA DE ITAIPU

COM BASE NAS SÉRIES TEMPORAIS DOS PÊNDULOS E MARCOS GEODÉSICO ......................................................... 27

ANÁLISE DE CORRELAÇÃO CANÔNICA DOS ACIDENTES DE TRÂNSITO DA BR-376, NO PERÍODO ENTRE

01/01/2009 E 30/04/2012 ......................................................................................................................................................... 29

MODELO DE MARKOWITZ PARAMETRIZADO POR INDICADORES TÉCNICOS ........................................................... 31

FORMULAÇÃO DO MÉTODO DOS ELEMENTOS DE CONTORNO PARA O PROBLEMA DE DIFUSÃO DO CALOR

BIDIMENSIONAL .................................................................................................................................................................... 33

USO DE ESCORES FATORIAIS NA CONSTRUÇÃO DE UM INDICADOR DA INTEGRIDADE ESTRUTURAL DE UMA

BARRAGEM DE CONCRETO ................................................................................................................................................. 35

COMPARAÇÃO ENTRE O LDM (LEITOR DIGITAL PARA MOLINETES HIDROMÉTRICOS) E O ADCP ....................... 37

IDENTIFICAÇÃO DA BANDA BRILHANTE EM DADOS DE RADAR METEOROLÓGICO ............................................... 39

REDE NEURAL DE BASE RADIAL APLICADA À ESTIMATIVA DE CHUVA ...................................................................... 41

MONITORAMENTO DA BARRAGEM DE ITAIPU VIA MÉTODOS ESTATÍSTICOS MULTIVARIADOS ........................... 43

USO DE REDES NEURAIS ARTIFICIAIS NA MINIMIZAÇÃO DOS TEORES DE SODA CÁUSTICA NO REJEITO DO

PROCESSO DE PRODUÇÃO DE ALUMINA ......................................................................................................................... 45

META-HEURÍSTICA GRASP ADAPTADA PARA EXTRAÇÃO DE REGRAS DE CLASSIFICAÇÃO ................................... 47

ABORDAGEM DA TEORIA DOS JOGOS EM PERIÓDICOS QUALIS CAPES B2 ............................................................... 49

OTIMIZAÇÃO NA GERAÇÃO DE GRADE HORÁRIA ESCOLAR ATRAVÉS DE UM MODELO MATEMÁTICO E DA

Page 5: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

4

META-HEURÍSTICA BUSCA LOCAL ..................................................................................................................................... 51

ANÁLISE ISOGEOMÉTRICA APLICADA AO PROBLEMA DE BARRAS EM VIBRAÇÃO LIVRE ....................................... 53

RESUMO DOS POSTERS ........................................................................................................................................................ 55

COMPARAÇÃO ENTRE A RESOLUÇÃO DE PROBLEMAS DE TRANSPORTE NO IBM ILOG CPLEX® E EM UM

ALGORITMO PROGRAMADO em VISUAL BASIC® VB.NET............................................................................................... 56

COMPARAÇÃO DE DESEMPENHO E USABILIDADE ENTRE OS SOFTWARES COMERCIAIS DE OTIMIZAÇÃO E O

MÉTODO DUAL PARA O PROBLEMA CLÁSSICO DO TRANSPORTE ............................................................................... 57

Sumário por primeiro autor ...................................................................................................................................................... 58

Page 6: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

5

Apresentação

O Programa de Pós-Graduação em Métodos Numéricos em Engenharia (PPGMNE), da Universidade Federal do

Paraná, criado pelo Departamento de Construção Civil (Setor de Tecnologia) e pelo Departamento de Matemática (Setor de

Ciências Exatas), tem por objetivo congregar as áreas de concentração de Mecânica Computacional e de Programação

Matemática num único curso, por perceber a inter-relação entre as mesmas e por acreditar que, num trabalho conjunto, multi e

interdisciplinar, é possível o desenvolvimento e aplicação dos métodos numérico-computacionais na busca de novas formas de

solução dos problemas de Engenharia e de problemas reais de uma forma geral. O PPGMNE iniciou atividades em 1994 com o

curso de mestrado e em 2003 passou a oferecer também o curso de doutorado. O Programa não tem a pretensão de cobrir todo

o conhecimento das áreas mencionadas, mas considera-se apto a desenvolver trabalhos em algumas das áreas mais

importantes, conforme a natureza de seu corpo docente, que envolve professores de diversos departamentos: Construção Civil,

Engenharia Mecânica, Engenharia Elétrica, Matemática, Estatística, Informática e Desenho.

A proposta do simpósio é disseminar a pesquisa em métodos numéricos em engenharia e viabilizar um local para a

discussão das pesquisas e trabalhos desenvolvidos na área.

O evento proporcionará:

Divulgar a produção científica desenvolvida pela comunidade acadêmica do Curso de Pós-Graduação de Métodos

Numéricos em Engenharia, e demais instituições de ensino participantes;

Promover o intercâmbio entre pesquisadores, alunos e professores, visando a troca de informações científicas;

Realizar a integração das pesquisas concluídas e/ou em andamento possibilitando uma complementação dos

resultados e direcionamento das propostas;

Construir um ambiente de discussão dos desafios enfrentados pelo desenvolvimento da pesquisa sob o ponto de vista

empresarial e acadêmico.

Page 7: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

6

RESUMOS EXPANDIDOS Trabalhos apresentados na forma de resumos expandidos.

Page 8: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

7

MODELOS AUTORREGRESSIVOS PARA A DETECÇÃO DE DANOS EM

MANCAIS DE GUIA DE HIDROGERADORES

Geraldo Carvalho Brito Jr., Anselmo Chaves Neto, Roberto Dalledone Machado.

Palavras-Chave: Mancais hidrodinâmicos; séries temporais; hidrogeradores; monitoramento.

1 INTRODUÇÃO

A avaliação dos coeficientes dinâmicos do filme

lubrificante de mancais de guia de hidrogeradores é parte

essencial no processo de monitoramento destas máquinas.

Estes coeficientes podem ser determinados a partir da

solução da equação de Reynolds do mancal (Dimond et.

al., 2011), utilizando-se métodos numéricos adequados.

Devido às incertezas envolvidas neste processo, bem como

devido às variações das condições de contorno e das

condições operativas do mancal, não é possível

determinar-se com exatidão os coeficientes dinâmicos de

máquinas verticais. Baseado na análise de vibrações

medidas em hidrogeradores verticais de grande porte, este

trabalho propõe a utilização de modelos autorregressivos

como alternativa à avaliação dos coeficientes dinâmicos no

monitoramento deste tipo de máquina.

2 MODELOS AUTORREGRESSIVOS

2.1 Modelo simplificado para mancais de guia

A Figura 1 mostra o modelo físico simplificado proposto

para representar o comportamento dinâmico de um mancal

de guia. Neste modelo )(tw e )(tv são os deslocamentos do

eixo e do mancal, k e c são os coeficientes de rigidez e

de amortecimento do filme lubrificante, enquanto ek , ec

e m respectivamente são os coeficientes de rigidez, de

amortecimento e a massa equivalente da estrutura.

No processo de monitoramento do mancal um

acelerômetro mede a vibração absoluta do mancal e o

deslocamento )()( tvty é determinado por integração

dupla. Um transdutor de proximidade sem contato mede a

vibração relativa entre eixo e mancal )()()( twtvtu . A

equação diferencial ordinária (EDO) mostrada em (1)

modela matematicamente este sistema dinâmico no

domínio do tempo contínuo, com mcen 2 e

mken 2 .

uk

ku

c

cyyy n

eennn 22 22 (1)

2.2 Primeiro modelo ARX para mancais de guia

A equação (2) mostra a estrutura típica de um modelo

ARX (Auto-Regressive model with eXogenous input), com

entrada ][nu e saída ][ny (Ljung, 1999). Nesta equação

][ne é um ruído branco, enquanto que na e nb são os

parâmetros do modelo. A equação (2) representa um

modelo AR (Auto-Regressive model) quando 0][ nu . A

ordem do modelo é dada pelo máximo valor de na e nb .

][][][][01

nejnubjnyanynb

jj

na

jj

(2)

Figura 1 Modelo simplificado de mancal

O modelo matemático do mancal do domínio do tempo

discreto pode ser obtido utilizando-se o Método da

Diferença Central na EDO mostrada na equação (1).

Utilizando-se um intervalo de amostragem T obtém-se:

2

0

2

1][][][

jj

jj jnubjnyany

(3)

onde:

T

T

c

cb

T

T

k

kb

T

T

c

cb

T

Ta

T

Ta

n

n

e

n

n

en

n

e

n

n

n

n

1

11

1

1

1

)2(

2

22

10

2

22

1

(4)

A equação (3) representa um modelo ARX de segunda

ordem cujos coeficientes dependem do intervalo de

amostragem e dos parâmetros de amortecimento, de massa

e de rigidez do mancal. O surgimento de danos no mancal

irá provocar mudanças nestes parâmetros e, portanto, nos

parâmetros do modelo. A intensidade destas mudanças irá

depender do dano e do parâmetro do modelo em análise.

Por exemplo, danos que provoquem redução da rigidez do

filme lubrificante ( k ) irão influenciar apenas o coeficiente

1b , como pode ser visto na equação (4).

Vários trabalhos têm empregado modelos AR/ARX no

monitoramento de estruturas (Sohn and Farrar, 2001). A

proposta do presente trabalho é simples: monitorar-se os

parâmetros dos modelos ajustados em cada mancal.

Variações anormais nos parâmetros indicarão a existência

de danos nos mancais.

Este modelo foi ajustado para mancais de hidrogeradores

de grande porte, utilizando-se vibrações medidas em

diversas condições operativas. O espaço disponível impede

a apresentação dos resultados obtidos, contudo, pode-se

afirmar que eles foram pouco satisfatórios. As causas

prováveis deste insucesso são as dificuldades na aquisição,

no condicionamento e no processamento das vibrações de

ek

k

c

)(tw)(tvy

ec

m

Page 9: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

8

baixa frequência dos mancais. Deve-se observar que os

usos de filtros e de modelos de ordem mais elevada não

melhoraram a qualidade dos modelos obtidos.

2.3 Segundo modelo ARX para mancais de guia

O modelo ARX descrito na seção anterior tem conexão

direta com o modelo físico mostrado na Figura 1. Existem

outros modelos que podem ser utilizados para monitorar a

condição do mancal, mesmo não dispondo desta conexão

explícita. Um exemplo é o modelo ARX cuja entrada é a

vibração relativa do eixo numa direção e cuja saída é a

vibração numa direção defasada de 90.

Este modelo desperta interesse já que é comum monitorar-

se as vibrações relativas do eixo em duas direções

ortogonais. Estas vibrações são utilizadas para analisar-se

a órbita do eixo no mancal, como mostra a Figura 2.

Figura 2 Vibrações e órbita do eixo - U09A - 640 MW - 04.05.06

Este modelo foi ajustado para os mancais citados na seção

anterior e os resultados obtidos foram promissores. A

Figura 3 e a Figura 4 mostram os resultados obtidos para o

mancal guia superior da unidade 09A da Usina

Hidrelétrica de Itaipu, em 04.05.06, quando a unidade

operava com 640 MW. A qualidade do modelo de segunda

ordem pode ser avaliada pelos melhores ajustes (best fit)

obtidos, de 64% para a saída simulada (Figura 3) e de 91%

para a predição de 5 passos à frente (Figura 4). Os

resultados são mostrados também na Tabela 1. A elevação

da ordem do modelo e a filtragem das componentes de alta

frequência dos sinais melhoram os resultados.

Data

Best Fit (%) Parâmetros na

Saída

Simulada

5 Passos à

frente 1a 2a

04.05.06 64.0 97.0 -1.8580 0.8583

Parâmetros nb Função de

Perdas

(x10-3

)

FPE

(x10-3

) 0b 1b 2b

-0.0248 0.0534 0.0255 36.648 36.770 Tabela 1 Resultados do ajuste de modelo ARX

Figura 3 U09A - 640 MW - 02.03.10: Sinal real (preto) versus

saída simulada (cinza claro)

Figura 4 U09A - 640 MW - 02.03.10: Sinal real (preto) versus

saída com predição de 5 passos à frente (cinza claro)

3 CONCLUSÕES

Foi proposto um modelo simplificado para o

comportamento dinâmico de mancais de guia de

hidrogeradores verticais de grande porte. A rigidez do

filme lubrificante pode ser estimada utilizando a função de

resposta em frequência deste modelo. Entretanto, os

valores obtidos são muito menores do que os valores

obtidos por outros processos. Um primeiro modelo

autorregressivo foi examinado como alternativa ao

procedimento anterior. Contudo, os resultados obtidos

foram insatisfatórios, provavelmente devido a dificuldades

na aquisição, no condicionamento e no processamento de

sinais. Um segundo modelo autorregressivo foi proposto e

os primeiros resultados obtidos foram encorajadores.

Análises adicionais vêm sendo aplicadas neste processo.

REFERÊNCIAS

Dimond, T., Younan, A. and Allaire, P. (2011). A Review

of Tilting Pad Bearing Theory. International Journal of

Rotating Machinery, 2011, 23 pages.

Ljung, L. (1999). System Identification – Theory for the

User. Upper Saddle River: Prentice Hall, 2nd Edition.

Sohn, H. and Farrar, C. R. (2001). Damage diagnosis using

time series analysis of vibration signals. Smart

Materials and Structures, 446-451.

Page 10: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

9

DISSIMILARIDADE ENTRE TEMPERATURA E UMIDADE NA CAMADA

LIMITE SUPERFICIAL

Diana M. Cancelli, Marcelo Chamecki, Nelson Luis Dias

Palavras-Chave: Similaridade entre escalares, Teoria de Similaridade de Monin-Obukhov, Large-Eddy Simulation.

1 INTRODUÇÃO

Uma suposição fundamental em estudos relacionados a

estimativas de evaporação é que as flutuações de

temperatura (θ) e umidade específica (q) tem

comportamento similar na camada atmosférica superficial;

como consequência, todas as funções de similaridade de

Monin-Obukhov são iguais (Cancelli et al., 2012). Sabe-se,

no entanto, que a similaridade entre os escalares nem

sempre existe, o que pode causar grandes divergências nas

estimativas de evaporação. As causas de não-similaridade

conjecturadas na literatura incluem: heterogeneidade da

superfície, advecção local, não-estacionariedade, papéis

ativo/passivo dos escalares e entranhamento dos fluxos no

topo da camada limite atmosférica (Cancelli et al., 2012).

Com o objetivo de identificar causas de não-similaridade

entre os escalares θ e q, na camada limite atmosférica

(CLA) neste trabalho são utilizados dados experimentais e

simulações de grande vórtices (Large-eddy simulations ou

LES); a análise de similaridade foi realizada em termos de

correlação escalar e espectral.

2 ANÁLISE DE DADOS EXPERIMENTAIS

Um conjunto de dados medidos através do MCT (Método

de Covariâncias Turbulentas) foi utilizado para analisar a

similaridade entre os escalares de interesse; as medições

foram realizadas sobre o Lago de Furnas (Minas Gerais)

entre 14 e 22 de julho de 2004 e incluem dados de

velocidade do vento, temperatura do ar e umidade

específica a 3,7m acima da superfície da água – maiores

detalhes sobre este experimento podem ser encontrados em

Cancelli et al. (2012), assim como outros resultados

relacionados com a similaridade entre θ e q.

Na Figura 1, são apresentadas as funções de correlação

espectral típicas para dois casos com características

semelhantes (Tabela 1) sendo um de alta similaridade (HS),

e outro de baixa similaridade (LS); para os casos HS, a

função de correlação espectral Rθq é menor que 1,0 apenas

nas baixas frequências implicando num rθq ligeiramente

menor que 1,0. Para os casos LS, Rθq é menor que 1,0 em

todo o intervalo de frequências resultando num baixo rθq.

3 SIMULAÇÕES NUMÉRICAS

Para as simulações numéricas um segundo escalar –

umidade específica q – foi incluído ao modelo de LES

descrito em Kumar et al. (2006). Uma camada de

convecção livre forçada por fluxos superficiais de calor e

vapor d'água foi simulada.

Figura 1: Funções de correlação espectral típicas entre θ e q para

os casos HS e LS – Lago de Furnas. As barras horizontais do

lado esquerdo representam os valores de rθq.

Dado HS LS

data 22/07/2004 18/07/2004

hora 00:00 19:00

α 86° 102° °

ζ -0,097 -0,097

rθq +0,87 +0,44 Tabela 1: Exemplos de runs com alta similaridade (HS) e baixa

similaridade (LS) – α é a direção do vento, e ζ é o parâmetro de

estabilidade de Monin-Obukhov

(de Cancelli et al., 2012).

A análise numérica foi baseada em quatro simulações que

diferem pela combinação de dois diferentes perfis iniciais

de umidade – um semelhante ao perfil inicial de θ, ou seja,

aumentando acima da altura da camada limite (zi), e outro

com q diminuindo acima de zi, representando uma situação

mais realista – com sua atuação passiva (P) ou ativa (A) –

q se torna ativo quando seu efeito é incluído no termo de

empuxo.

O tamanho do domínio, número de pontos de grade e

resolução são apresentados na Tabela 2. Saídas temporais

de 16x16x64 pontos de grade, totalizando 16384 séries

temporais de 4hs de simulação cada uma, foram utilizadas

nas análises.

Direção

Tamanho

do domínio

(m)

Pontos de

grade

Resolução

(m)

x 5120 128 20

y 5120 128 20

z 5120 128 16

Tabela 2: Tamanho do domínio e resolução da grade.

3.1 Análise de dados

Os resultados das simulações apresentados aqui são

baseados na última 1,5hs de simulação. Para eliminar a

não-estacionariedade devido ao crescimento da CLA um

linear detrending foi aplicado a cada uma das 16384 séries

temporais

Page 11: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

10

3.2 Resultados numéricos

Na Figura 2 é possível observar que os casos IP e IA tem

rθq=1,0 indicando similaridade perfeita entre os dois

escalares; para os casos IIP e IIA rθq vai +1,0 (correlação

perfeita) próximo à superfície a –1,0 (perfeitamente

anticorrelacionado) no topo da CLA. Diferenças entre o

papel ativo/passivo de q não foram observadas (entre IP e

IA e entre IIP e IIA). Ainda na Figura 2, próximo à

superfície (z=24m), Rθq é menor que 1,0 apenas nas baixas

frequências, enquanto em uma região mais alta (328m)

ocorre decorrelação em todas as frequências.

Figura 2: Coeficiente de correlação escalar rθq para q passivo (P)

e ativo (A) (acima), e coeficiente de correlação espectral Rθq θ-

para as alturas z=24m e z=328m para q passivo.

Razões entre os perfis de variâncias e covariâncias entre os

casos IP e IIP são apresentadas na Figura 3; a razão entre

as variâncias de θ –σ

θ

2

– para os casos considerados aqui,

não tem influência sobre a similaridade pois permanece em

1,0 ao longo de todo o perfil (linha azul). Abaixo de

z/zi~0,5, a razão entre as covariâncias θ'q'

é

aproximadamente constante e igual a 1,0, e acima desse

valor ela decresce; isso indica que a covariância afeta a

correlação entre os escalares somente em z/zi>0,5. Já a

razão entre as variâncias da umidade –σ

q

2

– começa em

1,0 próximo da superfície, vai até um valor máximo em

z/zi~0,8 e depois diminui, o que indica que as mudanças na

variância da umidade afetam a correlação ao longo de toda

a CLA.

Figura 3: Razão entre os perfis de variâncias e covariância dos

escalares dos casos IIP e IP.

4 CONCLUSÕES

Ao longo de toda a CLA, a redução do coeficiente de

correlação escalar, rθq, está associada às mudanças da

variância da umidade; as variações em σ

q

2

são causadas

pelo aumento dos fluxo de umidade específica que entram

no topo da CLA. O entranhamento de ar seco no topo do

domínio reduz rθq em toda a CLA, até mesmo próximo à

superfície onde parece afetar as baixas frequências do

espectro. As observações realizadas a partir das simulações

numéricas estão de acordo com as observações

experimentais.

Em relação ao papel ativo/passico dos escalares, não foram

observadas diferenças nos perfis de correlação escalar.

AGRADECIMENTOS

Durante o desenvolvimento deste trabalho, a primeira

autora teve o apoio da Capes – através do PPGMNE/UFPR – e

do CNPq/MCT – doutorado-sanduíche desenvolvido junto ao

Departamento de Meteorologia da Pennsylvania State University

através do Programa Ciência sem Fronteiras (processo número

201974/2011–8).

REFERÊNCIAS

Cancelli, D. M., Dias, N. L., Chamecki, M., Dimensionless

criteria for the production-dissipation equilibrium of

scalar fluctuations and their implications for scalar

similarity, Water Resour. Res., 48, W10522,

doi:10.1029/2012WR012127, 2012.

Kumar, V., J. Kleissl, C. Meneveau, and M. B. Parlange,

Large-eddy simulation of a diurnal cycle of the

atmospheric boundary layer: Atmospheric stability

and scaling issues, Water Resour. Res., 42, W06D09,

doi:10.1029/2005WR004651, 2006

Page 12: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

11

UMA PROPOSTA DE MODELAGEM MATEMÁTICA DO PROBLEMA DE

ROTEAMENTO EM ARCOS CAPACITADO E PERIÓDICO ADAPTADO

Guilherme Vinicyus Batista; Cassius Tadeu Scarpin.

Palavras-Chave: Problema de Roteamento em Arcos Capacitado e Periódico, Roteamento em Arcos, Modelagem.

1 INTRODUÇÃO

Muitos problemas logísticos como localização de

facilidades, gerenciamento de armazéns e roteamento de

veículos têm sido resolvidos por pesquisadores, os quais

têm tomado uma sequência de resolução desde das

decisões estratégicas até as operacionais (Hashemi Doulabi

& Seifi 2013). Um desses problemas é o problema de

roteamento em arcos, em inglês Arc Routing Problems

(ARP), o qual tem por objetivo determinar o menor custo

para atravessar um conjunto de arcos de um grafo, com ou

sem restrições. Essa classe de problemas pode ser aplicada

numa série de contextos práticos como coleta de lixo,

entrega de cartas, remoção de neve, inspeção em linhas de

energia elétrica, inspeção e manutenção de ferrovias e

rodovias. Ao contextualizar esses problemas obtêm-se

algumas variações, e uma delas é abordada nesse trabalho

que tem por objetivo propor uma modelagem matemática a

partir de um problema real, que leva em conta capacidade

dos veículos e o horizonte de tempo do trabalho.

2 REVISÃO DA LITERATURA

Segundo Ghiani et al. (2005), diferentemente dos

problemas de roteamento em nós que são mais estudados,

a literatura do problema de roteamento em arcos é mais

pobre e desorganizada. Porém, são problemas que vem

ganhando cada vez mais importância. De maneira geral,

são problemas definidos em um grafo G=(V,A), onde V é o

conjunto de vértices (ou nós) e A o conjunto de Arcos que

podem ser direcionados ou não, dependendo do problema.

Eiselt et al. (1995b, a) abordam diversos problemas de

ARP, e fazem uma revisão dos principais problemas

estudados até o ano de publicação. O primeiro problema

encontrado na literatura é o das pontes de Königsberg, no

qual é necessário determinar um caminho que atravesse

todas as 7 pontes que chegam a cidade exatamente uma

vez. O Problema do Carteiro Chinês (PCC) é muito

parecido com o problema das pontes, um carteiro deve

cobrir toda sua rota com possibilidade de atravessar um

arco mais de uma vez. Outro problema de grande

aplicabilidade é o Problema do Carteiro Rural (RPP), onde

é necessário atravessar apenas um subconjunto de arcos

R⊂A.

Um RPP pode ser tratado como um Problema de

Roteamento em Arcos Capacitado (CARP), o CARP é um

problema mais difícil que os já citados, visto que além de

simplesmente fazer o roteamento nos arcos, cada arco tem

uma certa demanda e a capacidade de cada veículo ao

atender esses arcos deve ser levada em conta. Grande parte

dos problemas reais são formulados dessa forma (Hashemi

Doulabi & Seifi 2013).

Monroy et al. (2013) apresenta uma extensão natural do

CARP, o Problema de Roteamento em Arcos Capacitado e

Periódico (PCARP), ao invés do problema ser resolvido

para apenas um dia ele é expandido para múltiplos

períodos. Em seu trabalho modela matematicamente e

propõe uma heurística para o problema de monitoramento

da malha rodoviária que é realizado periodicamente. As

ruas ou rodovias são divididas em classes de acordo com a

necessidade de vigilância e a hierarquia das vias. Cada

categoria tem sua demanda (número de passagens) durante

um horizonte de tempo já definido. O objetivo é designar

um conjunto de rotas satisfazendo as frequências de cada

classe de vias em cada sub período de tempo sem exceder

a capacidade do veículo.

Lacomme & Prins (2005) propõe uma definição básica

para o PCARP bem como alguns algoritmos para sua

resolução. Dado um grafo e um discreto horizonte de

tempo H com np períodos, cada arco tem uma frequência

f(a) que pode ser de no máximo uma vez por dia, ou ainda,

ser expressa com restrições baseadas no intervalo de

serviços no mesmo arco. E mesmo autor ainda afirma: “o

PCARP implica na determinação simultânea das decisões

no nível tático e operacional em todo horizonte de tempo”

(página 539).

3 O PROBLEMA

Um processo que ocorre nas empresas que trabalham com

ferrovias é a manutenção preventiva e inspeção dos trilhos.

Toda malha ferroviária deve ser avaliada para que sejam

prevenidos acidentes como tombamento de trens, para isso

existem sofisticados equipamentos capazes de fazer

medições específicas para prevenir acidentes. Esses

equipamentos costumam ter um custo elevado e são como

carros (daqui para frente chamaremos esse equipamento de

carro) que se deslocam pelos trilhos executando sua tarefa.

A malha ferroviária brasileira tem grande extensão e os

equipamentos disponíveis devem ser colocados em locais

estratégicos para fazer essas medições, porém, cada trecho

tem uma demanda conhecida a priori que diz de quanto em

quanto tempo ele deve ser analisado. O horizonte de tempo

se repete formando ciclos, desta forma faz-se necessário

tomar decisões operacionais de quais trechos devem ser

trabalhados diariamente e também decisões estratégicas

que abranjam todo o horizonte para evitar atrasos nas

periodicidades de cada trecho.

Uma particularidade desse problema, que o torna diferente

dos propostos na literatura, é que ao final de um dia de

trabalho, o carro não necessita voltar para um depósito, ele

permanece onde está ao final do dia e no próximo ele parte

do ponto onde parou no dia anterior.

4 MEDOLOGIA

A malha ferroviária tem diversos pontos que poderiam ser

tratados como vértices, a fim de simplificar o problema os

vértices foram definidos no grafo de forma que o

deslocamento entre um ponto e outro fosse baseado numa

decisão operacional que corresponde exatamente à

capacidade de execução de serviço de um carro em um dia.

A Figura 1 ilustra um exemplo do problema.

Page 13: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

12

Figura 1: Exemplo do problema. Fonte: O autor.

Com essa simplificação, as restrições de capacidade

acabam implícitas em uma variável binária, cada carro só

pode trabalhar em uma aresta diariamente. Por exemplo,

na Figura 1, um carro só pode se deslocar entre os pontos 3

e 7 durante o dia.

4.1 Formulação Matemática

A formulação parte de um grafo não direcionado G=(V,A),

com n pontos, logo, V= {v1, v2, ... , vn}, e m arcos com A=

{a1, a2, ..., am} que devem ser percorridos por nk carros

definidos pelo conjunto K={1, 2, ..., k}. Cada arco é

formado por um par de nós e chamado de xij = (vi,vj), e

associado a um custo cij. A capacidade de cada carro é de

percorrer 1 arco por dia, e a demanda ou frequência de

cada arco é expressa na quantidade máxima de períodos

que o arco pode ficar sem ser atendido MP(xij). Tem-se

ainda o horizonte de tempo H, formado por np perídos,

onde cada período é simbolizado pela letra p.

Para a resolução do problema foram criadas três variáveis

binárias apresentadas abaixo:

xijkp

1, se o carro k se desloca do ponto i para o

ponto j no período p

0, caso contrário

pijp

1, se o arco xij não respeita a periodicidade

no período p

0, caso contrário

fikp

1, se o carro k fica parado no ponto i no dia p

0, caso contrário

Cada variável pijp tem associado um custo PUij, que é uma

punição caso a periodicidade de um arco não seja atendida,

o que permite a factibilidade do problema. E a variável fikp

permite que o carro folgue em um determinado dia, pois

algumas vezes é possível obter uma solução com menos

deslocamentos se o carro esperar para atravessar um arco.

A função objetivo é dada pela equação (1):

∑ ∑ ∑

∑ ∑

(1)

E os problemas estão sujeitos às seguintes restrições:

(2)

(3)

∑ (

( ) ( )

)

( )

(4)

{ } ( ) (5)

A restrição (2) garante o fluxo diário dos carros permitindo

a folga, sendo que, como serão formados ciclos, ao fim do

período np o carro deve retornar para o mesmo local em

que estava no dia 1, ou seja, o período np + 1 é igual ao dia

1, e assim por diante; isso vale para todo o horizonte de

tempo e para todas as restrições. A restrição (3) garante

que todos os carros terão alguma designação para o dia p,

além disso garante que a capacidade de cada carro não seja

excedida. Já a restrição (4) é a mais complexa, ela se refere

a periodicidade em cada trecho e é quando podem ocorrer

punições, quando a necessidade é de apenas uma passagem

durante todo horizonte de tempo a restrição pode ser

simplificada para apenas um dia p e a variável pijp não é

necessária. E, finalmente, a equação (5) restringe todas as

variáveis a serem binárias.

5 CONSIDERAÇÕES FINAIS

Os problemas de roteamento em arcos têm grande

aplicabilidade e podem ser adaptados conforme as

necessidades. O PCARP é um problema NP-Hard e quanto

mais restrições tiver o problema, seja quanto à quantidade,

capacidade, ou tempo, mais difícil é encontrar uma

solução. O problema aqui proposto foi modelado e

executado no CPLEX 12.4 em um computador Core i5

com processamento de 3,1 GHz com 8 Gb de memória

RAM em um sistema operacional de 64 bits, instâncias

pequenas como Figura 1 com apenas 1 carro, 11 pontos, 12

arestas, 2 periodicidades obtiveram solução exata em 387

segundos. Problemas mais complexos com dois carros,

envolvendo um horizonte de tempo de 60 dias, 4

periodicidades, 21 pontos, 22 arcos são processados até a

memória do computador se esgotar e não obtêm-se uma

solução ótima, porém se limitar o programa a 24 horas de

iterações consegue-se bounds com boas soluções. Para

trabalhos futuros é interessante desenvolver heurísticas e

comparar soluções para escolher um método apropriado

para resolução do problema.

REFERÊNCIAS

Eiselt, H. A., Gendreau, M. & Laporte, G., Arc Routing

Problems , Part II : The Rural Postman Problem.

Operations Research, 43(3): 399–414, 1995a.

Eiselt, H. A., Gendreau, M. & Laporte, G., Arc Routing

Problems, Part I: The Chinese Postman Problem.

Operations Research, 43(2): 231–242, 1995b.

Ghiani, G., Musmanno, R., Paletta, G. & Triki, C., A

heuristic for the periodic rural postman problem.

Computers & Operations Research, 32(2): 219–228,

2005.

Hashemi Doulabi, S.H. & Seifi, A., Lower and upper

bounds for location-arc routing problems with

vehicle capacity constraints. European Journal of

Operational Research, 224(1): 189–208, 2013.

Lacomme, P. & Prins, C., Evolutionary algorithms for

periodic arc routing problems. European Journal of

Operational Research, 165: 535–553, 2005.

Monroy, I.M., Amaya, C.A. & Langevin, A., The periodic

capacitated arc routing problem with irregular

services. Discrete Applied Mathematics, 161: 691–

701, 2013.

Page 14: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

13

ESTUDO PRELIMINAR DA INFLUÊNCIA DA ARMADURA NO DANO DE

LAJE DE CONCRETO DE BARRAGEM DE ENROCAMENTO

Liliane do Rocio Marconcin; Roberto Dalledone Machado; Luiz Alkimin de Lacerda.

Palavras-Chave: Barragem de Enrocamento, Mecânica do Dano Contínuo, Modelagem Numérica.

1 INTRODUÇÃO

As barragens de enrocamento com face de concreto

(BEFC) são constituídas por um corpo principal, composto

por blocos de rochas justapostas em camadas compactadas

e por uma laje de vedação na face de montante (ver Figura

1). Na fase de enchimento do reservatório, as deformações

induzidas devido aos esforços de pressão hidrostática

provocam movimentos diferenciais no enrocamento, que

podem contribuir para a formação de trincas e abertura das

juntas das lajes de concreto, produzindo novas

configurações de tensões e estabilidade. Nesse contexto,

este trabalho analisa a influência da armadura no dano

estrutural de lajes de concreto da face de barragens de

enrocamento, na fase de enchimento do reservatório. A

metodologia aplicada envolve os conceitos da Mecânica

do Dano Contínuo e leva em consideração o

comportamento não-linear do concreto. Para a

programação matemática utilizou-se o software Fortran,

cuja solução do problema adota técnicas do Método dos

Elementos Finitos (MEF).

Figura 1: BEFC.

2 LAJES DE BARRAGENS DE ENROCAMENTO

O empirismo dos critérios de projeto das lajes ainda

predomina, ver Loriggio e Senem (2003), tanto em relação

às espessuras quanto às taxas de armadura. Este fato se

justifica devido à consideração da laje como elemento de

vedação e não estrutural.

Segundo alguns pesquisadores, a laje funciona como uma

membrana e, portanto, não está sujeita aos esforços de

flexão. Com o enchimento do reservatório, o maciço de

enrocamento se deforma e a laje tende a se adaptar a esses

deslocamentos. Porém, especialmente para grandes

barragens, devido o aumento dos deslocamentos do corpo

da barragem, muitas fissuras surgem nas lajes, aumentando

consideravelmente o fluxo de água através do maciço,

gerando, com isso, preocupação com a estabilidade da

estrutura. Portanto, os critérios empíricos são ineficientes.

Assim, somente se a laje for bastante flexível, ou seja, de

pequena espessura, considera-se válida tal hipótese da

mesma funcionar como uma membrana (Loriggio e

Senem, 2003).

Segundo observações de Loriggio e Senem (2003), o

posicionamento da armadura no meio da altura da laje não

foi encontrado em normas, ou seja, não respeita os

critérios de dimensionamento e detalhamento estruturas de

concreto armado. Segundo as normas, o posicionamento

da armadura mínima, para peças fletidas, deve ser

determinado pela região tracionada das peças. Dessa

forma, maior desempenho estrutural se daria com a

colocação da armadura em ambas as faces da laje.

Dentro desse contexto, o presente estudo analisa

numericamente a influência da armadura no dano em lajes

de concreto da face de barragens de enrocamento, na fase

de enchimento do reservatório.

3 MODELO DE DANO DE MAZARS

O modelo para análise de dano de Mazars é isótropo,

considera o concreto como material elástico com dano

contínuo e está baseado em deformações (Saraiva e Creus,

1994).

A variável de dano é representada por escalar D (0 ≤ D ≤

1), cuja evolução ocorre quando se supera um certo valor

de referência para o alongamento equivalente.

A lei constitutiva é expressa por:

σ=(1-D)D0ε (1)

Onde σ é o tensor de tensões, ε é o tensor de deformações e

D0 é o tensor de rigidez elástico inicial.

O estado de extensão ou alongamento do material é

caracterizado pela deformação equivalente :

(2)

Onde é uma componente da deformação principal, com

sua parte positiva definida por:

[ | |] (3)

A variável de dano, D, é dada por uma combinação linear

das variáveis básicas de dano à tração e à compressão,

respectivamente, DT e DC, utilizando-se os coeficientes de

αT e αC:

(4)

As variáveis básicas de dano são dadas por:

[ ] (5)

[ ] (6)

Onde AT, BT, AC e BC são parâmetros característicos do

material e é a deformação equivalente abaixo da qual não

ocorre dano e εd0 é a deformação de referência, a

deformação elástica limite.

4 MODELO NUMÉRICO

A simulação numérica foi efetuada em linguagem de

Page 15: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

14

programação Fortran, com o critério de controle de carga.

A laje (ver Figura 2) foi modelada pelo emprego de 1620

elementos finitos planos isoparamétricos (3 em relação à

altura e 540 em relação ao comprimento). Considerou-se o

modelo em duas dimensões, com espessura da laje igual a

0,3 m e o comprimento de 54 m. Na extremidade esquerda,

onde a laje se apóia no plinto, as restrições nas direções de

x e y foram aplicadas. Toda a borda inferior da laje foi

apoiada sob molas elásticas. Para o concreto utilizou o

mpodulo de elasticidade Ec=21,8 GPa e coeficiente de

Poisson de 0,2. O módulo de elasticidade utilizado para o o

aço foi Ea=210 GPa e coeficiente de Poisson 0,3. Tanto as

propriedades do concreto, quanto da armadura e dos

coeficientes de mola (ver Tabela ) foram extraídos de Silva

(2007). O carregamento foi aplicado de forma incremental,

considerando-se a resultante da pressão hidrostática da

água, que foi distribuída em dois elementos da laje

distantes 18 m do plinto. O erro máximo admitido no final

de cada incremento foi de 0,01%. Para a análise numérica

considerou-se o Estado Plano de Deformações. Dois

modelos foram processados. O primeiro modelo foi gerado

com uma taxa de armadura de 0,4% da seção de concreto,

inserida no centro da laje. O modelo número dois foi

gerado sem armadura.

Figura 2: Laje

Coeficiente Valor (kN/m)

K1 8406

K2 5632

K3 2675,6 Tabela 1: Coeficientes de Mola.

Os parâmetros de dano de Mazars são dados na Tabela 2:

Variável Valor

AT 0,9

BT 21000

AC 1,5

BC 1900

εd0 0,00001 Tabela 2: Parâmetros de Mazars.

5 RESULTADOS

Os elementos danificados, nos arredores do carregamento,

são mostrados para os modelos de laje com armadura (ver

Figura 2) e sem armadura (ver Figura ).

Figura 3: Elementos Danificados: laje com armadura.

Figura 4: Elementos Danificados: laje sem armadura.

6 CONCLUSÕES

Este trabalho analisou a influência da armadura no dano

estrutural de lajes de concreto da face de barragens de

enrocamento, na fase de enchimento do reservatório. Dois

modelos de laje foram estudados. No primeiro modelo

inseriu-se a armadura no centro da laje, como é habitual

neste tipo de estrutura. O segundo modelo não contou com

inclusão de armadura.

Como era esperado, os elementos que apresentaram maior

dano (0,995) foram os localizados embaixo do

carregamento, para ambos os modelos de laje.

Analisando o primeiro modelo verifica-se que os

elementos onde a armadura foi incluida não apresentaram

dano. Esse resultado procede, uma vez que a análise de

dano é feita nos elementos de concreto, segundo o modelo

de Mazars. Ainda, o maior número de elementos

danificados na face superior da laje pode ser indício de

concentração de tensões devido à inserção da armadura.

Apesar dos resultados indicarem que a armadura influencia

na danificação da laje, estes foram apenas testes iniciais,

portanto, para mensurar tal influência e generalizar os

resultados outros testes serão necessários.

REFERÊNCIAS

Loriggio, D. D.; Senem, P. R. Critérios de projeto da laje

de concreto em barragens de enrocamento com face

de concreto. In: V Simpósio Epusp sobre Estruturas

de Concreto. São Paulo: Brasil, 2003..

Saraiva, K. S.; Creus; G. J. Representação do

comportamento do concreto via mecânica do dano

contínuo. Mecánica Computacional, Vol. 14 pp.

190-199, 1994.

Silva, A. F. Análises tridimensionais de barragens de

enrocamento com face de concreto com o objetivo de

otimizar os critérios de projeto. Distrito Federal,

2007. 145 f. Tese (Doutorado) – Departamento de

Engenharia Civil e Ambiental, Faculdade de

Tecnologia, Universidade de Brasília.

Page 16: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

15

TESTE DE CARREGAMENTO AXIAL EM UM ELEMENTO

REPRESENTATIVO DO CONCRETO

Guilherme Augusto Pianezzer, Fábio André Negri Balbo, Eloy Kaviski, Liliana Madalena Gramani, Marcelo Rassy Teixeira.

Palavras-Chave: Elemento representativo do concreto, intersecção de elipses, testes de colisão, carregamento axial.

1 INTRODUÇÃO

O concreto é um material poroso, heterogêneo, que pode

ser estudado em diferentes escalas (Tulio, 2001). Na escala

mesoscópica, ao analisar sua mesoestrutura, percebe-se a

presença de dois constituintes: A pasta de cimento

endurecida (Argamassa) e as partículas de agregado

graúdo, como pode ser observada na Figura 1.

Figura 1: Heterogeneidade do concreto (Mehta e Monteiro, 2008)

Para estudar o comportamento do concreto é preciso lidar

com esta heterogeneidade e para isso surge a necessidade

de criar um elemento representativo. Com ele é possível

estudar as tensões e deformações, resultantes dos efeitos

que o concreto está sujeito, como a retração, a fluencia e as

tensões de carregamento.

2 CURVA GRANULOMÉTRICA DO AGREGADO

GRAÚDO

As estruturas feitas de concreto são feitas com diversos

tamanhos de pedra britada, com o intuito de aproveitar,

principalmente, os materiais locais. Assim, cada uma delas

é única e a descrição de sua variabilidade é realizada pela

curva granulométrica. A curva granulométrica é o

resultado do teste de peneiramento, que pode ser realizado

em materiais formados por grãos. No peneiramento o

material estudado é classificado em grupos de acordo com

o tamanho geométrico de suas partículas.

Para fazer essa classificação utiliza-se uma série de

peneiras de aberturas diferetnes que barram as partículas

de acordo com seu tamanho. Assim, a curva

granulométrica apresenta uma distribuição do tamanho

geométrico dos agregados que formam o concreto e ao

analisá-la é possível aproveitar cada tipo de material para

utilidades diversas (Pinto, 2008).

Para este trabalho, os dados utilizados foram baseados no

resultado da Tabela 1 de análise de peneiramento.

Abertura da Peneira

(mm)

Porcentagem total

retida (%)

12,70 0

9,50 23

4,75 74

2,36 100 Tabela 1: Resultado da análise de peneiramento (Wriggers e

Moftah, 2006)

3 GERAÇÃO DO ELEMENTO

REPRESENTATIVO DO CONCRETO

Para a geração do elemento representativo do concreto, um

algoritmo foi desenvolvido para permitir gerar a posição

dos agregados graúdos no domínio do concreto. Para isso

algumas hipóteses foram consideradas:

1. Os agregados devem estar inteiramento contidos

no domínio do concreto.

2. Não deve existir intersecção entre os agregados.

3. Os agregados possuem formato elíptico.

Com estas aproximações, o problema de gerar um

elemento representativo do concreto se reduziu a

encontrar, computacionalmente, as intersecções entre

figuras elípticas.

Para este estudo, utilizou-se como referência (Choi, Y. K.

et al, 2005). O algoritmo para geração do elemento

representativo do concreto pode ser encontrado em

(Pianezzer, Et al, 2013).

O resultado obtido depende da área que os agregados

ocupam no total do concreto, o qual é representado pelo

parâmetro pa e um desses resultados pode ser visualizado

na Figura 2.

Figura 2: Agregados Elípticos ( pa =60%)

O tamanho do elemento representativo do concreto

utilizado foi fixado em 10,000 mm², de forma quadrada

com lados 100 mm.

4 TESTE DE CARREGAMENTO AXIAL

Após a geração do elemento representativo do concreto a

partir da curva granulométrica, submeteu-se o material a

um teste computacional de carregamento axial, onde as

propriedades dos componentes utilizadas foram aquelas

utilizadas em (Teixeira, 2011) e estão na Tabela 2.

Módulo de

Elasticidade

(E, MPa)

Coeficiente de

Poison

Argamassa 3x10^4 0,30

Agregado Graúdo 5x10^6 0,30 Tabela 2: Característica dos componentes (Teixeira, 2011)

Page 17: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

16

Neste caso, foi realizado um ensaio de compressão axial

com deslocamento prescrito na fronteira essencial e

deslocamento nulo na fronteira natural. Assim, os mapas

das Figuras 3 (Deformação Vertical), Figura 4

(Deslocamento Vertical) e Figura 5 (Tensão Vertical)

foram gerados.

Figura 3: Deslocamento Vertical

Figura 4: Deslocamento Vertical

Figura 5: Tensão Vertical

5 CONCLUSÕES

O objetivo deste trabalho foi de gerar e discutir sobre um

algoritmo para geração dos agregados elípticos no domínio

do concreto. A partir da curva granulométrica foi possível

desenvolver um algoritmo que determina o tamanho de

cada agregado e a partir das duas hipóteses foi possível

posicionar os agregados de maneira que eles formassem o

elemento representativo do concreto. Com o elemento

representativo do concreto gerado, foi possível descrever o

mapa de tensões, deslocamentos e deformações.

Para obter mais detalhes de como cada processo foi

realizado, consultar (Pianezzer, et. al, 2013). E para obter

mais fundamentação teórica sobre o elemento

representativo do concreto, consultar (Bazant, et. al, 1990)

e (Wittman et al., 1984).

REFERÊNCIAS

Bazant, Z. P; Tabbara, M. R,Kazemi, M. T. Random

parcile model for fracture of aggregate of fiber

composites. J. Engng Mech, v. 116, n. , p. 1686-1705,

1990.

Choi, Y. K., Wang, W., and Liu, Y., Continuous collision

detection for elliptic disks. HKU CS Tech Report,

2005.

Mehta, P.K., Monteiro, P.J.M., Concreto – Microestrutura,

propriedades e materiais. IBRACON. São Paulo,

2008

Pianezzer, G.A., Balbo, F. A. N., Kaviski, E., Gramani, L.

M., Teixeira, M. R. Um algoritmo para geração do

elemento representativo do concreto com agregados

graúdos em formato elíptico. Revista SODEBRAS,.

V.8, p.1, 2013

Pinto, C. Curso Básico de Mecânica dos Solos. São Paulo:

Oficina de Textos, 2008.

Teixeira, M.R.., A contribution to the numerical modeling

of the heterogeneity of concrete with the elements

free Galerkin method, Tese, São Paulo, 2011.

Tulio, B. N. Experimental analysis of fracture processes in

concrete. Revista Brasileira de Ciências Mecânicas,

v. 23, p. 545-550, 2001.

Wittman, F. H., Roelfstra, P. E., Sadaouki, H. Simulation

and analysis of composite structures. Mater, Sci,

Engng, v. 68, p. 239-248, 1984.

Wriggers, P. Moftah, S. O. Mesoscale models for

concrete: Homogenization and damage behavior.

Elsevier. V. 42, p. 623-636, 2006. ISSN 1631-0721.

Page 18: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

17

ANÁLISE DA INTENSIDADE DO PICO DE CORRENTE DE DESCARGAS

ELÉTRICAS ASSOCIADAS À TEMPESTADES IDENTIFICADAS POR

TÉCNICAS DE CLUSTERIZAÇÃO

Mariana Kleina; Luiz Carlos Matioli; Eduardo Alvim Leite.

Palavras-Chave: Descargas atmosféricas, Variabilidade do pico de corrente, Técnicas de Clusterização.

1 INTRODUÇÃO

Descargas elétricas merecem bastante atenção devido ao

seu potencial destrutivo, especialmente no Brasil que é o

líder mundial em ocorrências. Um setor fortemente

impactado por elas é o setor elétrico, podendo ocorrer

danos em equipamentos e desligamentos não programados.

Existem diversos tipos de descargas, sendo a de maior

interesse as que atingem o solo, denominadas “nuvem-

solo”. A característica da descarga responsável pelo seu

potencial de impacto e dano no sistema elétrico é o seu

pico de corrente. Existe grande variabilidade temporal e

espacial associada a esta variável, mas seu conhecimento é

limitado, sendo que a prática corrente na engenharia

elétrica é considerar a distribuição geral de probabilidade

desta variável, dita “climatológica”, estimada a partir de

medições em todo o planeta. Historicamente, a distribuição

lognormal tem sido usada para descrever a distribuição do

pico de corrente das descargas (Berger et al. 1975).

1.1 Objetivo

Analisar a variabilidade da intensidade do pico de corrente

de descargas à nível de cada evento de tempestade,

formadas por técnicas de clusterização, buscando

identificar se o comportamento desta variável apresenta

dissonância em relação ao comportamento climatológico.

2 MATERIAIS E MÉTODOS

2.1 Região de Estudo

Conhecer as características das tempestades que afetam o

setor elétrico é de grande valia, por isso a região piloto

para esta pesquisa é a região da Linha LT 765 kV,

conhecida como Linhão de Itaipu, responsável por um

sexto da energia consumida no Brasil. Esta linha se inicia

em Foz do Iguaçu (PR) e se estende até Tijuco Preto (SP).

2.2 Dados de Descargas Elétricas

Os dados de descargas utilizadas foram provenientes da

RINDAT, mantido pelo Instituto Tecnológico SIMEPAR

em cooperação com Furnas, CEMIG e INPE, com

informações de dia e horário, localização

(latitude/longitude) pico de corrente (em kA) de todas as

descargas incidentes em 2011 sobre a região do Linhão de

Itaipu, totalizando 1.448.466 descargas.

2.3 Agrupamentos de Descargas Elétricas

Para que uma tempestade elétrica seja caracterizada, fez-se

uso da metodologia de agrupamentos de descargas por

técnicas de clusterização. O conceito de clusterização é

basicamente unir dados similares no mesmo grupo,

também chamado de cluster, assim dados de um mesmo

cluster tem mais características em comum entre si do que

com dados de outros clusters (Rasmussen, 2013). São

necessárias técnicas de clusterização onde não se conheça

o número de clusters, pois esse número varia de acordo

com o número de descargas que incidiram no tempo

considerado, o qual depende dos períodos do dia, estações

do ano, entre outros. O software usado foi o “R” e os tipos

de clusterizações utilizados na pesquisa são descritos a

seguir:

Hierárquica pelo Centroide – inicia-se com todos os

pontos sendo clusters unitários. Os dois clusters cujos

centroides sejam mais próximos são unidos e seu centroide

é recalculado (Hair et al. 2009). O processo repete-se até

que todos os centroides dos clusters estejam uns dos outros

a uma distância estabelecida.

Densidade (DBSCAN) – considera grupos como sendo

regiões densas de pontos no espaço de dados que são

separados por regiões de baixa densidade. Para o

DBSCAN (Density-Based Spatial Clustering of

Applications with Noise) um grupo é definido como um

conjunto máximo de pontos conectados por densidade.

Este método requer que dois parâmetros iniciais sejam

informados: o raio (distância entre um ponto e seus

vizinhos) e o número mínimo de pontos (Ester et al. 1996).

Sharp – foi introduzida por Choi and Hall (1999) a fim de

reduzir viés movendo observações através de modos

locais. Este método ajusta os dados distantes da moda ou a

alguma distância das caldas e não altera os demais. Foi

utilizada como algoritmo de clusterização por Woolford

and Braun (2006) para agrupar relâmpagos e também será

utilizada nesta pesquisa. O parâmetro para este método é a

largura da banda no ajuste das distribuições.

3 ANÁLISE DOS RESULTADOS

Foram então clusterizados as descargas incidentes na

região de estudo no ano de 2011 considerando a janela de

tempo de uma hora, utilizando os três métodos de

agrupamentos descritos anteriormente, variando seus

parâmetros. Lembrando que os parâmetros são: distância

máxima entre centros dos grupos para o método

hierárquico, raio e o número mínimo de pontos para o

algoritmo DBSCAN e largura da banda para o Sharp.

A Figura 1 ilustra apenas uma das 8760 (365 dias de 2011

x 24 horas) clusterizações feitas por cada um dos três

métodos. A clusterização mostrada é a hierárquica com

parâmetro distância = 100 km, feita no dia 18/01/2011 das

20 às 21 horas, totalizando 2877 descargas. Os 11 clusters

formados são separados por cores.

Page 19: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

18

Figura 1: Descargas clusterizadas pelo método hierárquico.

Para que se possa comparar o comportamento das

tempestades formadas pela clusterização com seu

comportamento climatológico em termos da intensidade do

pico de corrente, foram geradas tempestades aleatórias

através da simulação Monte Carlo.

Como admite-se que o pico de corrente segue uma

distribuição lognormal, então o logaritmo do valor

absoluto do pico de corrente (LAPC) é aproximadamente

normal. Assim pela normalidade desta variável, almeja-se

diferenciar tempestades clusterizadas de tempestades

aleatórias pela média e desvio padrão do LAPC dentro de

cada grupo formado no sentido de que pela primeira

técnica espera-se que haja grande variabilidade em relação

à média e pouca variabilidade para o desvio padrão desta

variável dentro de cada tempestade. Já para a segunda

técnica este comportamento pode não ser observado, não

conseguindo separar descargas com altos e baixos valores

para o seu pico de corrente. E para confirmar o

pressuposto, os seguintes índices foram calculados:

µσ = µ(σclusters)/µ(σaleatórios) (1)

e

σµ = σ(µclusters)/σ(µaleatórios) (2)

A Equação 1 mede a proporção de quanto a média dos

desvios padrões do LAPC de tempestades clusterizadas

varia em relação à média dos desvios das tempestades

geradas aleatoriamente. Como o LAPC segue a

distribuição normal, espera-se que os desvios dos clusters

sejam pequenos em média. Já a Equação 2 mede a

proporção de quanto o desvio padrão das médias do LAPC

dos clusters varia em relação ao desvio padrão das médias

das tempestades aleatórias. Resumidamente, espera-se que

os métodos de clusterização consigam separar descargas

que possuem picos de corrente altos das que possuem

baixos picos de corrente, e pela normalidade associada à

essa variável, estes índices irão evidenciar este fato.

Na Tabela 1, são mostrados os resultados da metodologia

proposta aplicada às três técnicas de clusterização

descritas, para alguns parâmetros. Analisando, por

exemplo, o resultado do algoritmo DBSCAN com

parâmetros raio = 100 km e número mínimo de pontos =

20, conclui-se que o desvio padrão das médias dos clusters

é 4.9 vezes maior do que o desvio padrão das médias das

tempestades aleatórias; e a média dos desvios padrões dos

clusters é 11.4% menor do que a média dos desvios

padrões das tempestades aleatórias.

Clusterização/parâmetro(s) σµ µσ

Hierárquica / 100 4.513 0.868

Hierárquica / 125 4.711 0.874

Hierárquica / 150 4.811 0.884

DBSCAN / 50 20 DBSCAN / 75 20

DBSCAN / 100 20

Sharp / 0.1

Sharp / 0.5

4.313 4.863

4.901

3.862

4.842

0.852 0.872

0.886

0.845

0.884

Tabela 1: Legenda da Tabela.

À vista disso, fica evidenciado que os métodos de

clusterização são capazes de reproduzir as características

das tempestades elétricas no que diz respeito a mais

importante variável da descarga: o pico de corrente.

4 CONCLUSÕES

Através do estudo realizado, pode-se comprovar o

pressuposto de que tempestades elétricas se caracterizam

como tipo específico de eventos meteorológicos, estão sob

influência de condições atmosféricas próprias, assim

apresentando comportamentos específicos de descargas em

relação ao seu pico de corrente, diferindo do

comportamento climatológico conhecido na literatura.

No contexto geral, independente da técnica de

clusterização e dos parâmetros, é possível afirmar que o

pico de corrente de descargas de tempestades agrupadas

por clusterização apresentam características próprias,

diferindo e muito das características do pico de corrente

das descargas como um todo.

Com o desenvolvimento destes métodos de clusterização

espera-se futuramente poder estudar e identificar as

características das tempestades elétricas capazes de

produzir descargas de alta intensidade de pico de corrente,

aumentando a capacidade de previsão e alerta antecipado

aos múltiplos setores impactados pela sua ocorrência, em

especial, o setor elétrico.

REFERÊNCIAS

Berger, K., Anderson, R. B., and Kroeninger, H.,

Parameters of lightning flashes. Electra, 41:23–37,

1975.

Choi, E., and Hall, P., Data sharpening as a prelude to

density estimation. Biometrika, 86:941–947, 1999.

Ester, M., Kriegel, H-P., Sander, J., and Xu, X., A

Density-Based Algorithm for Discovering Clusters in

Large Spatial Databases with Noise. International

Conference on Knowledge Discovery and Data

Mining (KDD-96), 226–231, 1996.

Hair, J. F., Black, W. C., Babin, B. J., and Anderson, R. E.,

Multivariate Data Analysis. 7th Edition, Hardcover,

2009.

Rasmussen, E. Clustering Algorithms. Acesso: 18/09/13, http://orion.lcg.ufrj.br/Dr.Dobbs/books/book5/chap16.ht

m

Woolford, D. G., and Braun, W. J., Convergent Data

Sharpening for the Identification and Tracking of

Spatial-Temporal Centers of Lightning Activity. John

Wiley & Sons, 2006.

Page 20: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

19

USO DA REDE NEURAL SELF ORGANIZING MAPS NA CLUSTERIZAÇÃO DE

DADOS METEOROLÓGICOS DE REFLETIVIDADE

Jorge Vinicius Ruviaro Bonato; Paulo Henrique Siqueira; Cesar Augustus Assis Beneti.

Palavras-Chave: Rede Neural Artificial, Clusterização, Dados Meteorológicos, Refletividade.

1 INTRODUÇÃO

Os dados utilizados nesse trabalho são provenientes do

radar meteorológico do Instituto Tecnológico Simepar,

instalado na cidade de Teixeira Soares - Pr, com alcances

qualitativo de 200 km e quantitativo de 400 km.

Radares meteorológicos são formados por 4 componentes

principais: um transmissor, antena, receptor e display. O

transmissor emite um onda eletromagnética, que é então

direcionada à atmosfera pela antena. Na atmosfera, o sinal

viaja a velocidade da luz, até o momento em que atinge

algum objeto, meteorológico ou não. Ao atingir o alvo,

parte da onda eletromagnética é refletida em direção ao

radar, sendo detectada pelo receptor e mostrada através do

display.

A varredura da atmosfera, pelo radar, geralmente se dá a

partir da rotação da antena em torno de um eixo vertical,

varrendo o horizonte ao redor do radar. Dessa maneira,

para cada elevação e grau de rotação, emite-se um sinal

eletromagnético e com base no intervalo de tempo entre

emissão e retorno, pode-se determinar a distância alvo-

radar, e assim saber sua localização.

Uma das variáveis passíveis de medição através de um

radar, denominada refletividade, se relaciona à parcela do

sinal emitido pelo radar que retorna ao atingir algo

presente na atmosfera. Medida em dBZ, varia de acordo

com a composição do objeto refletor, sua concentração na

atmosfera e estado físico em que se encontra.

Antes de aplicar a rede neural aos dados de refletividade

foi necessária uma mudança de coordenadas, de polar para

cartesiana, usando resolução horizontal de 1km x 1km, e

vertical de 0.5km.

Após a mudança de coordenadas, a matriz com os dados

de refletividade gerada era da forma 200x200x10. Dessa

matriz, procurou-se em cada coluna, o máximo valor de

refletividade, reduzindo assim a matriz inicial à uma

matriz com dimensão 200x200.

2 METODOLOGIA

A tarefa de clusterização de dados requer a escolha das

características que melhor representam os grupos e , além

da definição de uma função para medir a semelhança dos

padrões.

Para clusterizar os dados utilizou-se SOM (Self Organizing

Maps – Mapas Auto organizáveis de Kohonen), uma rede

neural artificial de aprendizado não-supervisionado

desenvolvida por T Kohonen (1995).

A rede neural utilizada é formada por três camadas, sendo

uma de entrada, uma escondida e uma de saída. Os dados a

serem agrupados são introduzidos na camada de entrada,

na camada escondida estão os neurônios e na camada de

saída apresentam-se os resultados.

Trata-se de uma rede neural do tipo FEED-FORWARD, ou

seja, há um único caminho percorrido pelos dados,

iniciando na camada de entrada, passando apenas uma vez

pela camada escondida, e então seguindo para a camada de

saída.

Seu aprendizado se baseia nos processos de competição e

cooperação. Durante o processo de competição os dados

são apresentados a todos os neurônios presentes na camada

escondida, e então determina-se o neurônio mais

semelhante a cada padrão de entrada. Para cada neurônio

vencedor, determina-se uma vizinhança topológica, com

neurônios que também terão seus pesos sinápticos

atualizados.

Seu algoritmo pode ser descrito pela seguinte sequencia:

1. Inicialização dos neurônios e seus pesos sinápticos;

2. Definição de parâmetros;

3. Apresentação dos dados de entrada;

4. Cálculo de similaridade;

5. Determinação do neurônio vencedor;

6. Definição da vizinhança topológica do neurônio

vencedor;

7. Atualização dos pesos sinápticos dos neurônios.

3 RESULTADOS

A rede neural foi aplicada, entre outros, aos dados da

leitura de radar do dia 01/04/11, data essa escolhida por

apresentar chuva severa com presença de granizo.

Inicialmente fez-se uma filtragem nos dados, eliminando

da matriz os valores de refletividade fora do intervalo entre

30 e 60 dBZ. Escolheu-se esses valores por já serem

usados em algumas técnicas de Nowcasting, sendo essa

uma das aplicações do resultado da rede neural.

Page 21: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

20

Figura 1: Clusterização dos dados de 01/04/11 às 20h

Figura 2: Clusterização dos dados de 01/04/11 às 21h

Nas figuras 1 e 2, cada elemento mostrado na imagem

representa uma nuvem. Cada elemento da legenda

representa um neurônio da rede, assim a rede teria bons

resultados se cada nuvem fosse representada por apenas

um neurônio.

4 CONCLUSÕES

Observando as imagens geradas nota-se que as variáveis

escolhidas não foram suficientes para gerar um bom

resultado, pois houve ocorrência de divisões em alguns

clusters gerados. Para melhora nos resultados pretende-se

acrescentar outras variáveis, entre elas a altura do máximo

valor de refletividade e altura de ocorrência de valores de

refletividade iguais a 30 e 45dBZ.

REFERÊNCIAS

Kohonen, T., “Self-Organizing Maps”, SPRINGER, New

York, 1995

Page 22: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

21

MODELO DE PREDAÇÃO SELETIVA: OCORRÊNCIA DE DOENÇA

CONTAGIOSA NA POPULAÇÃO DE PRESAS

Danilo Francelino Fuckner Leonel; Carlos Henrique dos Santos; Liliana Madalena Gramani; Luiz Antonio Ribeiro de

Santana.

Palavras-Chave: Predação seletiva, Predador-Presa, Doença Infecciosa.

1 INTRODUÇÃO

Analisamos um modelo matemático de situação epidemio

ecológica de predação seletiva. Após adimensionalizar as

equações correspondentes, consideramos a análise, sob o

ponto de vista de estabilidade linear, dos modelos que

tratam da interação das populações de presas suscetíveis S,

presas infectadas I e predadores P, onde a população S é

infectada por contato com a população I. Optamos por

alterar num dos sistemas, proposto em Das et al. (2009) a

modelagem feita para o crescimento de predadores, tendo

em vista que o comportamento populacional mais

interessante para se estudar é o da população de presas,

devido a predação ocorrer na população que é suscetível à

doença.

2 FORMULAÇÃO DO MODELO MATEMÁTICO.

De acordo com o artigo de Das et al. (2009) foram

estabelecidas condições para uma situação de predação

seletiva. Considera-se um problema teórico em ecologia,

onde ocorre a predação de indivíduos não infectados por

uma determinada doença. Para representar essa situação,

foi levada em consideração que a população de presas está

dividida em duas classes quando na ocorrência da doença.

Seriam S os indivíduos suscetíveis à doença, ou seja, a

parcela saudável da população total; e I os indivíduos

infectados pela doença. Supondo que a população

contaminada pela doença não seja capaz de se reproduzir,

então a variação da densidade populacional de presas

ocorrerá apenas dentre os indivíduos suscetíveis. Também

se releva a capacidade ambiental para um determinado

número de indivíduos e, portanto o crescimento da

população suscetível é admitido como sendo logístico.

A constante r será a taxa de crescimento intrínseco da

população de presas suscetíveis e K a capacidade

ambiental de sustentação da espécie, mais comumente,

capacidade de suporte. É importante observar que a

limitação para o crescimento leva em consideração a

população total de presas, porque se supõe que os

indivíduos infectados também competem por alimento e

espaço com os saudáveis.

Considerando a predação seletiva, é proposto que os

predadores têm preferência pelos indivíduos suscetíveis,

pois por alguma razão conseguem detectar quais

indivíduos possuem ou não a doença. A diminuição que

ocorre na variação populacional de presas suscetíveis é

dada pela equação de Holling da resposta funcional do tipo

2 (Holling, 1959). Essa resposta leva em consideração um

tempo de manipulação de cada presa que o predador

consome e ocorrerá a uma taxa de eficiência da predação

ω e uma constante de saturação média m.

Em Das et al. (2009), se supõe que a variação da

população de predadores ocorre logisticamente e aumenta

com a resposta funcional da predação de indivíduos

suscetíveis vezes a constante de eficiência da predação.

Essa interpretação sugere que o tempo de vida médio dos

predadores é muito maior que o tempo de vida médio das

presas, o que para uma interpretação em curto prazo de

tempo leva a se desconsiderar a mortalidade nessa

população no modelo. Por essa razão resolvemos propor

outra situação de variação da densidade populacional dos

predadores ao problema.

Consideramos que o crescimento da população de

predadores depende da predação, onde ε é a constante de

eficiência da predação, ou seja, a conversão de biomassa;

vezes a equação da resposta funcional do tipo 2 como

falamos anteriormente. O tempo de vida médio dos

indivíduos da espécie não é tão grande quanto o tempo de

vida médio da população de presas, logo consideramos a

morte de indivíduos na população de predadores à uma

taxa e.

A presença da doença na população de presas terá como

resposta a diminuição de indivíduos suscetíveis, que por

sua vez passam à classe de infectados. Aqui é considerada

a forma de transmissão direta de parasitos, de um

hospedeiro para o outro, ou seja, não houve necessidade de

um vetor para a sua transmissão. Para a maioria das

infecções, a taxa de contato aumenta proporcionalmente à

densidade da população. Daí, a taxa de produção de novas

infecções é igual a ßSI, onde ß é o coeficiente de

transmissão. Isso é chamado de transmissão dependente da

densidade e também conhecido por lei da ação de massas.

Considera-se também que a doença leva à morte e de

forma mais rápida que a morte natural, por isso

desconsiderou-se a mortalidade das presas suscetíveis. Não

ocorre recuperação uma vez que infectado. Escrevemos a

mortalidade dos indivíduos infectados ocorrendo à taxa d.

A partir dos pressupostos acima podemos escrever o

modelo, dado pelas equações a seguir:

(

)

Page 23: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

22

O sistema é analisado com as seguintes condições iniciais:

S(0) > 0; I(0) > 0; P(0) > 0.

Do ponto de vista biológico, nosso maior interesse é saber

o que ocorrerá no sistema em longo prazo (Ludwig et al.,

1978). Por isso, queremos obter informações sobre o

comportamento das soluções quando o tempo tende ao

infinito. Realizamos a análise qualitativa do sistema pelo

primeiro método de Lyapunov. Uma introdução ao estudo

de estabilidade de Lyapunov pode ser encontrada em

Bobko (2010).

3 CONCLUSÕES

O modelo de Lotka-Volterra da competição interespecífica

traz esclarecimento sobre os fatores determinantes da

interação competitiva, (Edelstein-Keshet, 2005 e

MURRAY, 2003). Das principais conclusões do modelo,

temos a possibilidade de interações fracas, onde podem as

espécies coexistir, e fortes, onde uma das espécies acaba

extinta. O princípio da exclusão competitiva (Holt, 1977) é

observado pelo modelo quando a interação entre as

espécies é agressiva, ou seja, forte.

Não havendo situação de pontos de equilíbrio na presença

das três populações consideradas no sistema, já fomos

levados à conclusão de não coexistência das três. Quando

analisamos a estabilidade dos pontos críticos, obtivemos

todas as possibilidades ecológicas para a situação

modelada. Com essas considerações, uma possível

interpretação é a de ocorrência de competição entre a

população de predadores e o parasito que gera a doença na

população de presas.

A influência de um parasito na dinâmica populacional do

hospedeiro ainda é uma questão não resolvida em ecologia

de populações, pois mesmo sabendo da influência que os

parasitos têm sobre taxas demográficas e que modelos

matemáticos apontam o potencial de um parasito sobre a

dinâmica do hospedeiro, ainda são incomuns dados reais

sobre esse tipo de interação afetar de forma significativa,

mas exemplos existem (Begon et al., 2007).

A aparente situação de competição é revelada pelo

comportamento das soluções. Pensamos na população de

presas suscetíveis na situação de recurso explorado pela

população de predadores e pelo parasito responsável pela

doença infecciosa, o que se configura como competição de

exploração, pela interação indireta mediada pelo recurso

compartilhado.

Sobre a predação com seleção e doença na presença de

uma alimentação alternativa, a sobrevivência de um

predador é dependente da dinâmica de uma comunidade de

presas suscetíveis e infectada. Como sempre, esse modo de

predação afeta a dinâmica da população de presas

infectadas por contato, de forma indireta. Nesse trabalho,

observamos a não coexistência da população de

predadores e da doença, ou seja, existem combinações de

parâmetros nas quais a população de presas infectadas

desaparece do meio. Esse é um dos casos, dentre todos os

mostrados na nossa análise de estabilidade e exemplos

numéricos, de fenômenos interessantes.

REFERÊNCIAS

Begon, Michael; Townsend, Colin R.; Harper, John L.,

Ecologia: de indivduos a ecossistemas (Tradução de

Adriano Sanches Melo - 4. ed.), Artmed, Porto

Alegre, 2007.

Bobko, Nara, Estabilidade de Lyapunov e Propriedades

Globais para Modelos de Dinâmica Viral,

Dissertação de Mestrado, PPGMA-UFPR, 2010.

Das, Krishna pada; Roy, Shovonlal; Chattopadhyay, J.,

Efect of disease-selective predation on prey infected

by contact and external sources, BioSystems, (2009)

188-199.

Edelstein-Keshet, Leah, Mathematical Models in Biology,

Society for Industrial and Applied Mathematics

Philadelphia, USA, 2005.

Holling, C. S., Some characteristics of simple types of

predation and parasitsm, Canadian Entomologist, 91,

(1959) 385-398.

Holt, R. D., Predation, apparent competition and the

structure of prey community, Theoretical Population

Biology, 12, (1977) 197-229.

Ludwig, D.; Jones, D.D.; Holling, C.S., Qualitative

Analysis of Insect Outbreak Systems: The Budworm

and Forest, Journal of Animal Ecology, 47, (1978)

315-332.

Murray, J. D., Mathematical Biology, Third Edition,

Springer, 2003.

Page 24: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

23

UMA ABORDAGEM PROBABILÍSTICA PARA A ESTABILIDADE DE

TALUDES DE BARRAGENS DE ATERRO

Tereza Rachel Mafioleti; Anselmo Chaves Neto.

Palavras-Chave: Barragens de Aterro, Fator de Segurança, Índice de Confiabilidade, Estabilidade.

1 INTRODUÇÃO

Taludes podem ser definidos como superfícies inclinadas

de maciços terrosos, rochosos ou mistos (Caputo, 1987).

Um talude é dito natural quando originado de processos

geológicos, geomorfológicos e ações antrópicas, e é dito

artificial quando se trata de declive de aterros construídos

pelo homem com o uso de materiais diversos (Pimenta

2005). No caso de barragens pode-se observar a presença

de dois taludes: um à montante e outro à jusante.

Figura 1: Seção Transversal da barragem Lagoa da Grande

Quando o talude de uma barragem é instável há grande

chance de ocorrência de fenômenos, tais como, piping e

escorregamento da massa de solo, que podem levar a

ruptura da barragem, causando danos e perdas

imensuráveis.

É imprescindível a garantia da estabilidade das obras de

terra, tais como barragens. Caputo (1987) descreve que

preocupações com questões dessa natureza surgiram no

final do século XIX motivadas por numerosos acidentes

ocorridos em obras de engenharia. Dos encontros

internacionais que foram realizados no início do século

XX originou-se o estudo formalizado da Mecânica dos

Solos. Desde então estudiosos e pesquisadores têm se

engajado nas causas da Mecânica do Solo e têm

desenvolvido e aperfeiçoado técnicas relacionadas à

estabilidade de taludes.

2 FATOR DE SEGURANÇA

O Método do Equilíbrio Limite é um método

determinístico para o cálculo do fator de segurança (F).

Segundo Cruz (1973):

A

R

M

MF (1)

RM : momento resistente AM : momento atuante

É desejavel que a resistência do solo seja maior que as

forças atuantes no mesmo. Se F > 1 a obra é considerada

estável. Caso AR MM , então F = 1 e ocorre ruptura.

De acordo com Pimenta (2005) a superfície de ruptura

mais provável em solos homogêneos é a de forma circular

ou cilíndrica, uma vez que o círculo tem a menor área por

unidade de massa. Tal situação é contemplada por um

talude artificial, que pode ser uma barragem.

O momento resistente é dado em função da tensão de

cisalhamento s na superfície de ruptura descrita pelo

modelo constitutivo elastoplástico de Mohr-Coulomb

(Rodrigues, 2010).

tgcs ' (2)

c : coesão

' : pressão efetiva na superfície de escorregamento

: ângulo de atrito entre as partículas

A análise é feita num plano bidimensional e a superfície é

dividida em lamelas (Cruz, 2004).

Figura 2: Forças atuantes numa lamela vertical

As forças atuantes nas n lamelas têm as quantidades por

setor circular dadas entre parênteses:

'N : forças normais efetivas nas bases (n)

l : pontos de aplicação da força 'N (n)

T : forças de cisalhamento nas bases (n)

'E : pressões efetivas entre lamelas (n-1)

Z : pontos de aplicação da força 'E (n-1)

Adicionando (n-1) forças de cisalhamento entre as lamelas,

tem-se um total de (6n – 1) incógnitas. Em condições

estáveis, cada lamela deve satisfazer as equações do

equilíbrio estático:

0momentos (3)

0 verticaisforças (4)

0 shorizontaiforças (5)

O critério de Mohr-Coulomb fornece para cada lamela o

valor de T como uma função de 'N . Sendo assim, tem-se

um sistema indeterminado com 4n equações e 6n – 1

incógnitas. Para que o valor de F seja determinado, 2n – 1

hipóteses independentes devem ser formuladas.

No decorrer dos anos foram desenvolvidos os métodos que

consideram diferentes hipóteses: Fellenius (1936), Bishop

Simplificado (1950), Bishop (1955), Jambu, Kenney,

Morgenstern & Price (1965), Spencer (1967), Sarma (1973

e 1979). Tais métodos têm sido amplamente utilizados

inclusive com o auxílio de ábacos, porém possuem

limitações dadas pelas suposições do Equilíbrio Limite.

Rodrigues (2010) enfatiza que a abordagem determinística

para estudos de estabilidade de taludes tem sido criticada

pois os parâmetros para determinação de F sofrem

mudanças dadas por diversas condições. Ou seja, o fator F,

uma vez calculado, não representa um

Page 25: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

24

valor definitivo. Cruz (1973) afirma que dentre as

condições mais desfavoráveis a estabilidade da barragem

estão aquelas que ocorrem à longo prazo, após o

enchimento do reservatório.

Tem-se sugerido uma abordagem probabilística como

complemento à determinística, a qual visa determinar a

probabilidade da ocorrência de rotura (Dell’Avanzi, 1995).

3 ÍNDICE DE CONFIABILIDADE.

As causas da variabilidade nos dados utilizados para o

cálculo do fator de segurança F podem estar nas condições

naturais. Além destas, Dell’Avanzi (1995) ressalta que

durante a caracterização geotécnica do solo nos diversos

procedimentos ocorrem erros sistemáticos e aleatórios que

são refletidos no valor de F. A análise probabilística visa

quantificar as incertezas desconsideradas nos métodos

determinísticos.

Na Confiabilidade Estrutural o índice de confiabilidade β é

definido pela razão entre a margem de segurança e o

desvio padrão dessa estatística, ou seja,

22QR

QR

M

M

(6)

onde R e Q referem-se à resistência e ao carregamento,

respectivamente. De modo que a probabilidade de falha do

sistema de engenharia é dado por pF = 1 - () e para um

valor de β = 4,75 tem-se para pF um valor de 10-6

.

R R ou Q

fQ(q)

fR(r)

Q

Figura 3: Margem de segurança e influência do desvio padrão

O índice expressa a confiabilidade do fator de

segurança e exerce influência direta na probabilidade de

ruptura pF. Quando as variáveis aleatórias que determinam

F possuem distribuição normal, a probabilidade de ruptura

pF do talude corresponde a área sob a curva da densidade

de probabilidade de F, quando 1F (Guedes 1997).

Figura 4: fator de segurança F x função densidade de

probabilidade de F

Um fator de segurança alto, porém com grande desvio

padrão, apresenta maior probabilidade de ruptura, e índice

de confiabilidade menor. Observa-se, então, que o valor do

desvio padrão é decisivo nesta questão. Um fator de

segurança não tão alto, porém com pequeno desvio padrão

mostra-se mais confiável, pois apresenta menor

probabilidade de ruptura.

Dadas as condições da barragem de aterro, para um estudo

em questão é necessário determinar uma probabilidade de

ruptura aceitável. É coerente definir valores distintos para

os taludes da barragem à montante e à jusante, visto que a

montante, existem mais forças atuantes do que a jusante.

4 CONCLUSÃO

O presente trabalho ainda encontra-se em fase inicial, de

revisão bibliográfica e de literatura. As próximas etapas

envolvem a decisão das melhores técnicas probabilísticas a

empregar de forma a acrescentar uma nova contribuição no

estudo da estabilidade de taludes de barragens de aterro.

Posteriormente, dar-se-á continuação ao trabalho, obtendo

resultados e validando-os.

REFERÊNCIAS

Caputo, H.P., Mecânica dos solos e suas aplicações –

Volume 2. 6.a Edição. Livros Técnicos e Científicos

Editora S.A., Rio de Janeiro e São Paulo: 1987.

Cruz, P.T., Estabilidade de Taludes. Escola Politécnica da

Universidade de São Paulo, 1973.

Cruz, P.T., 100 Barragens Brasileiras. 2.ed. Oficina de

Textos, São Paulo, 2004.

Dell’Avanzi, E., Confiabilidade e probabilidade em

análises de estabilidade de taludes. Dissertação de

Mestrado. Pontifícia Universidade Católica do Rio de

Janeiro, 1995.

DNOCS, Memória descritiva e justificativa do Projeto do

Sistema Pataxó – Lagoa da Grande. Departamento

Nacional de Obras Contra as Secas, Recife,

p.27,1949.

Guedes, M.C.S., Considerações sobre análise

probabilística da estabilidade de taludes. Dissertação

de Mestrado. Pontifícia Universidade Católica do Rio

de Janeiro, 1997.

Pimenta, I.J., Caracterização geotécnica e análise de

estabilidade de taludes de mineração em solos da

mina de Capão Xavier. Tese, Universidade Federal

de Viçosa, 2005.

Rodrigues, G.P., Efeito da penetração da chuva na

estabilidade de encostas argilosas – O caso da Linha

do Norte. Dissertação. Faculdade de Engenharia e

Universidade do Porto, 2010.

Page 26: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

25

RECONHECIMENTO DE PADRÕES EM DADOS DE VAZÃO UTILIZANDO

SELF-ORGANIZING MAPS

Alana Renata Ribeiro; Deise Maria Bertholdi Costa; Eduardo Alvim Leite.

Palavras-Chave: Redes Neurais, Técnica SOM, Vazão, Dados Consistentes.

1 INTRODUÇÃO

A obtenção de dados hidrológicos altamente confiáveis,

acrescidos de informações sobre seu comportamento, pode

ajudar operadores e planejadores do sistema energético e

de diversos outros sistemas em suas funções,

proporcionando precisão às suas decisões e, eficiência em

suas operações. A coleta de informações como cota de rios

é realizada em postos de monitoramento e, além dos dados

coletados, existem os que são calculados como os dados de

vazão.

Contudo, neste monitoramento podem ocorrer falhas que

implicam na inclusão de dados inconsistentes às séries, ou

causam a ausência de informações. Assim, incertezas na

medição de cota podem resultar em valores inconsistentes

de vazões estimadas. Para suprimir estas falhas, o Instituto

Tecnológico SIMEPAR desenvolveu métodos de análise

de consistência para identificação de dados espúrios

através de um processo denominado de Controle de

Qualidade (CQ), porém, apenas erros grosseiros são

identificados. Com isso, posteriormente ao CQ, as séries

de dados são inspecionadas pelo corpo técnico através da

análise gráfica de curtos intervalos ao longo de todo o

período de dados, no intuito de identificar inconsistências

não reconhecidas pelo CQ. Entretanto, a análise gráfica

exige do profissional tempo, atenção e conhecimento

suficientes para que todos os erros sejam reconhecidos.

Para auxiliar no processo de consistência dos dados, este

trabalho abordará a aplicação da técnica Self-Organizing

Maps (SOM) das Redes Neurais Artificiais de Kohonen,

sobre dados de vazão do posto hidrológico de União da

Vitória do estado do Paraná, fornecidos pelo SIMEPAR,

com o objetivo específico de apontar possíveis

inconsistências nas séries de dados. Trata-se de um

procedimento para reconhecer padrões de comportamento

e, assim, identificar períodos com comportamentos

singulares, para que sejam alertados e posteriormente

verificados e modificados, se necessário, por técnicos

capacitados. A fim de constatar a eficiência desta técnica,

seus resultados são confrontados com uma série de dados

livre de erros previamente definida.

2 DADOS HIDROLÓGICOS, LOCALIZAÇÃO E

CONSISTÊNCIA

Neste trabalho utilizam-se séries de dados de vazão de rios

que são calculados através dos dados de cota coletados em

postos hidrológicos de monitoramento convencionais ou

automáticos. Através da série de dados de cota, é calculada

a série de vazão em m³/s.

Segundo Leite (2008, apud JICA, 1995a) a região de

União da Vitória, que corresponde aos municípios de

União da Vitória, Porto União e Porto Vitória, abrange as

cidades mais severamente afetadas por inundações no

estado, causadas diretamente pela vazão do leito principal

do rio Iguaçu, que compreende uma bacia de

aproximadamente 25.000 Km². Este mesmo autor cita que

“as inundações na região de União da Vitória são

extensivas, severas, envolvem prejuízos significativos para

a população e economia locais, são condicionadas pelas

regras operativas da usina hidrelétrica de Foz do Areia,

localizada à jusante das cidades afetadas, e devem requerer

medidas estruturais e não estruturais para sua mitigação.”

Os dados de vazão a serem analisados são provenientes do

posto hidrológico da sub-bacia de União da Vitória que

está sobre influência das demais sub-bacias à montante,

localizadas na bacia do rio Iguaçu no estado do Paraná.

O SIMEPAR aplica métodos específicos de análise de

consistência para identificação de dados espúrios com

inconsistências grosseiras através do CQ, e posteriormente

as séries de dados são inspecionadas pelo corpo técnico do

SIMEPAR através da análise gráfica de curtos intervalos

ao longo de todo o período de dados, no intuito de

identificar inconsistências não reconhecidas por métodos

anteriores. Os mais comuns tipos de inconsistências

encontrados nas séries de vazão, apontados por Breda e

Negrão (2012) são: mudanças de offsets, spikes, oscilações

diárias, ruídos, e falhas.

3 SELF-ORGANIZING MAPS – SOM

A técnica SOM é um tipo de rede neural artificial de

Kohonen treinada através de aprendizagem não

supervisionada, para produzir uma classificação própria

dos dados de entrada, que possuem características comuns

entre si. Seu objetivo é atribuir a cada objeto em um

conjunto de dados de entrada o codebook que retorna a

melhor aproximação a este objeto. Na terminologia de

redes neurais, existe um neurônio associado a cada

codebook que, na saída do SOM, está topologicamente

ordenado, ou seja, os neurônios vizinhos correspondem a

regiões similares no espaço de entrada. O SOM opera em

dois modos: treinamento (dos dados de entrada) e

mapeamento (classificação de novos dados). Sabendo que

a série de dados de vazão utilizada é extremamente

extensa, para processamento e análise da metodologia

proposta fez-se uso da linguagem e ambiente para

computação estatística “R” (R Core Team, 2012),

juntamente com um de seus pacotes kohonen.

3.1 Dados de Entrada

No treinamento da rede neural, selecionaram-se os dados

de vazão do posto hidrológico de União da Vitória

dispostos em intervalos de uma hora, pertencentes aos

anos de 1998 até 2007 que passaram previamente pela

consistência realizada pelos técnicos do SIMEPAR, ou

seja, o período de treinamento não possui intervalos de

falhas, tão quanto dados inconsistentes.

Freire (2009) propôs em seu trabalho um método que não

considera simplesmente os valores de vazão previstos, e

sim os valores de degraus de vazão, considerando um

Page 27: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

26

intervalo de 6 horas, sem perdas significativas nos valores

de vazão informados, e com grande ganho na

simplificação do método. Com isso, dispõem-se os dados

de vazão de União da Vitória em degraus de vazão

subsequentes, de 6h em 6h, formando uma matriz de dados

de entrada, de dimensão m×p, onde m=87570, total de

dados distribuídos em p=13 colunas, em que cada uma de

suas linhas representa uma amostra da população dos

dados analisados, e a sétima coluna da matriz representa os

dados a serem investigados.

3.2 Parâmetros

Aplicou-se o SOM do software R com a utilização dos

seguintes parâmetros: o conjunto de dados foi apresentado

100 vezes à rede, em cada rodada. A taxa de aprendizagem

aplicada diminui linearmente de 0.05 até 0.01, a cada

iteração. O raio da vizinhança começa com um valor que

abrange 2/3 de todas as distâncias de unidade para

unidade. Os representantes iniciais apresentados à rede são

escolhidos aleatoriamente a partir dos dados de entrada.

Após um estudo sobre o número de codebooks definiu-se

225 como ideal para este problema. Utilizou-se uma grade

do tipo hexagonal 15×15.

3.3 Teste – Reconhecimento de Padrões

Posterior à fase de treinamento dos dados, iniciou-se a fase

de teste, ou seja, a busca por padrões em dados de vazão

não consistidos.

Desta forma, construiu-se uma matriz semelhante à matriz

dos dados de entrada, mas, com os degraus de vazão

construídos a partir de dados não consistidos, dos mesmos

anos de 1998 à 2007, do mesmo posto hidrológico.

Através de uma função do pacote kohonen do software R

chamada map, e do treinamento realizado anteriormente,

classificou-se os valores dos degraus subsequentes da

sétima coluna desta matriz como corretos ou possíveis

alertas, estimou-se os percentis críticos e um vetor binário

chamado de “vetor de previsão”, formado com tantas

coordenadas quanto o número de dados classificados como

corretos ou não. A estas coordenadas atribui-se valor zero

quando o dado é apontado como correto, e valor um

quando o dado é apontado como possível alerta. Contudo,

ainda é possível que dados corretos sejam apontados como

incorretos indevidamente, bem como dados incorretos não

sejam devidamente apontados pela técnica utilizada.

3.4 Avaliação do Método - Curva ROC

Com o intuito de avaliar e posteriormente refinar o método

aplicado, foi preciso comparar o vetor de previsão a outro

vetor denominado “vetor de observação” formado por

coordenadas nulas onde não existiram diferenças entre a

série consistida e a série não consistida, e valor um onde

foram detectadas inconsistências, apontadas pelas

diferenças. Para isso, fez-se uso de curvas ROC - Receiver

Operating Characteristic que permitem a visualização do

problema de avaliação, através do pacote ROCR do

software R. Para este modelo, ROC é um gráfico da taxa

de acerto (eixo y) contra a taxa de falso alerta (eixo x).

Porém, sozinhas, estas taxas são insuficientes para medir a

habilidade de um sistema de previsão que depende de

maximizar o número de acertos, minimizando o número de

falsos alertas simultaneamente. Para avaliar a acurácia e o

desempenho do modelo, calcula-se a área sob a curva

ROC, seu valor deve pertencer a um intervalo entre zero e

um, sendo que valores abaixo de 0.5 representam baixo

desempenho do modelo, e valores próximos de um

representam alto desempenho do modelo. Para este estudo

estimou-se a área da curva encontrada com um valor de

aproximadamente 0.79. Esta medida aponta um

desempenho relativamente aceitável para este modelo de

alerta de valores inconsistentes em dados de vazão para o

posto hidrológico de União da Vitória.

4 CONCLUSÕES

A busca por padrões de comportamentos em dados de

vazão torna-se uma ferramenta útil e muito necessária,

principalmente em operações de reservatórios

hidrológicos. Com isso, o objetivo principal deste trabalho

foi desenvolver um método que apontasse padrões

característicos de comportamento e principalmente as

falhas nas séries de dados. Em comparação com dados

previamente consistidos, em que se tem o conhecimento da

localização de dados incorretos na série, o método

retornou resultados satisfatórios, pois apontou possíveis

alertas exatamente em áreas nas quais dados foram

corrigidos quando passaram por uma consistência manual.

Além disso, falhas com todas as possíveis características,

spikes, mudanças de offset, ruídos, oscilações diárias, entre

outras foram apontadas pelo método. Através deste estudo

pode-se concluir que a técnica SOM pode ser utilizada a

fim de alertar possíveis dados inconsistentes na série, se

for devidamente calibrada.

REFERÊNCIAS

Breda, A., e Negrão, A. C., Relatório da Análise de

Consistência dos Dados Hidrológicos na Bacia do

Rio Iguaçu: Métodos e Resultados. Relatório

Técnico. SIMEPAR, 2012

Freire, L. A., Uso de Rede Neural na Obtenção de

Previsão Hidrológica Probabilística. Trabalho de

Conclusão de Curso, Curso de Engenharia

Ambiental, UFPR, Curitiba, PR, Brasil, 2009.

Leite, E. A., Gestão do Valor da Informação

Hidrometeorológica: O Caso dos Alertas de

Inundação para Proteção de Bens Móveis em

Edificações Residenciais de União da Vitória. Tese

de Doutorado, UFRJ, COPPE, Rio de Janeiro, RJ,

Brasil, 2008.

R Core Team, R: A language and Environment for

Statistical Computing. R Fundation for Statistical

Computing, Vienna, Austria. ISBN 3-900051-07-0,

URL http://www.R-project.org/, 2012.

Page 28: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

27

ANÁLISE E PREVISÃO DO DESLOCAMENTO HORIZONTAL DA BARRAGEM

DA USINA HIDRELÉTRICA DE ITAIPU COM BASE NAS SÉRIES TEMPORAIS

DOS PÊNDULOS E MARCOS GEODÉSICO

Jairo Marlon Corrêa

Palavras-Chave: Séries Temporais, Previsão, Segurança de Barragens.

1 INTRODUÇÃO

A Itaipu Binacional, a maior usina hidrelétrica do mundo,

é instrumentada desde o início de sua operação, em 1984.

As informações obtidas por meio destes instrumentos

podem ser tratadas de forma mais eficiente que as já

existentes tais como cálculo de médias, valores máximos e

mínimos e análise de gráficos gerados pelos sistemas de

medições manuais e automatizados.

A barragem principal da Itaipu é de concreto, do tipo

gravidade aliviada cuja estrutura é composta por 20

blocos, cada um com uma unidade geradora. Alguns

blocos são designados blocos chave, os quais são dotados

de maior quantidade de instrumentos devido à maior força

que recebem da água no sentido montante-jusante, ou seja,

no sentido do leito do rio. Esse volume de água também

exerce, nas partes inferiores dos blocos, uma pressão que

cria um efeito contrário ao que a sua própria massa exerce

sobre a fundação. Somadas essas duas forças, o fato é que

a barragem é deslocada no sentido montante-jusante.

A implementação de um modelo por meio do qual seja

possível realizar a análise e a previsão do comportamento

da estrutura da barragem é de grande importância. Tais

informações permitirem medidas corretivas em planos de

execução e/ou tomada de decisões já existentes.

2 OBJETIVO GERAL

O objetivo de um modo geral será o de prever o

deslocamento horizontal da barragem principal da

Hidrelétrica de Itaipu por meio das séries temporais dos 27

pêndulos e dos 09 alvos controlados pelos marcos

geodésicos existentes nos blocos-chave da usina com as

leituras históricas. Portanto, será necessário descrever o

comportamento e investigar o processo gerador da série

temporal, determinar as características da série como

existência de variações sazonais, ciclos de tendências,

linearidade, volatilidade condicional e estacionariedade,

através da elaboração um sistema de previsão de séries

temporais multivariadas. Finalmente, realizar previsões e

simulações do comportamento dos blocos em estudo da

barragem por meio dos métodos utilizados e do método

desenvolvido e identificar às causas de variação entre os

marcos de referência.

3 REVISÃO DE LITERATURA

Os modelos ARIMA de Box & Jenkins têm mostrado sua

eficiência desde a sua criação e isto já foi comprovado em

diversos estudos. Na área de finanças, a previsão de taxas

de câmbio tem sido uma tarefa desafiadora. Maria (2011)

utilizou o modelo ARIMA para prever taxas de câmbio

com as principais moedas mundiais. Em longo prazo, a

literatura afirma que as taxas de câmbio convergem para

um nível equilibrado, e neste trabalho, os resultados

obtidos mostraram ótima eficiência do modelo para um

período de quatro meses.

Aplicação em Engenharia de Softwares como o trabalho de

Fonte (2010) mensurou a evolução do Software Eclipse

através da série temporal do número de defeitos ao longo

do tempo, sendo que o modelo ARIMA se mostrou mais

eficaz. Este trabalho tem permitido a previsão de como

ocorre a evolução e onde foi necessária maior intervenção

das operações de manutenção e aprimoramento. A

capacidade de prever permitiu redução de esforços e custo

em virtude de tomadas de decisões adequadas por parte da

equipe de desenvolvimento.

Previsões na área econômica e petrolífera como Souza

(2011), que seguiu os passos da metodologia Box &

Jenkins e mostrou a aplicabilidade dos modelos ARFIMA,

conhecido como modelo de memória longa, para a

previsão do preço semanal da gasolina do tipo "a" na

região sul do Brasil através de uma série temporal de

janeiro de 2002 a agosto de 2009. Os resultados do

trabalho forneceram informações gerenciais importantes às

empresas e órgãos governamentais e permitiram alocações

de recursos financeiros, humanos e materiais de forma

adequada nos setores petrolíferos.

Diante do que foi exposto, a precisão do modelo proposto

por Box & Jenkins sugerem e trazem inspiração para a

elaboração do futuro trabalho de tese.

4 MATERIAIS E MÉTODOS

Os modelos utilizados na descrição de séries temporais são

processos controlados por leis probabilísticas também

conhecidas por processos estocásticos. De acordo com

Moretin (2006) um processo estocástico é uma família de

variáveis aleatórias do tipo ,Z Z t t T tal que para

cada , ( )t T Z t é uma variável aleatória.

O modelo proposto de Box & Jenkins estima modelos de

séries temporais da forma:

0

1 0

p q

t i t i i t i

i i

Z z

(1)

Essa equação representa o modelo conhecido por

autorregressivo integrado de média móvel ou ARIMA, em

que 0 é uma constante no modelo estimado e os demais

, 1,...,i i p são parâmetros que fazem o ajuste nos

valores de 1 2, ,...,t t t py y y , os valores de são valores

formados por uma sequência se choques aleatórios

chamados de ruído branco (erros) os quais são

independentes entre si e não são controláveis.

Dados obtidos por meio dos pêndulos dos blocos da Usina,

que serão objetos de estudo, são compostos por uma série

temporal bivariada (deslocamento horizontal). Este modelo

ao ser aplicado, por exemplo, nos dados do pêndulo direto

do bloco F22 da Usina, que é considerado um bloco chave,

Page 29: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

28

cujo deslocamento é descrito pela figura:

Figura 1: Gráfico do Deslocamento - Bloco F22

Para o conjunto de dados deste bloco, a série univariada

com 691 valores que medem apenas o deslocamento

perpendicular à linha montante-jusante (eixo X), por

exemplo, é descrita pelo gráfico:

Figura 2: Série Temporal - Bloco F22

E o periodograma mostra que os dados possuem parte

sistemática a ser modelada:

Figura 3: Periodograma da Série Temporal - Bloco F22

Ao analisar a Função de Autocorrelação (FAC) e a Função

Autocorrelação Parcial (FACP), um modelo sazonal

ARIMA (2,1,2) é melhor ajustado, já que possui o menor

valor para a raiz do erro quadrático. Os testes revelam que

o modelo é adequado, uma vez que os p-valores para os

coeficientes são todos iguais a zero, rejeita-se a hipótese de

que os coeficientes são nulos. Uma vez que há necessidade

de se diferenciar a série, tal procedimento implica na

obtenção do modelo:

1 2 1 11,727 0,975 1,566 0,846t t t t tZ Z Z a a , cuja

previsão pode ser plotada juntamente com os dados da

série e comparadas.

Figura 4: Previsão da Série Temporal – Bloco F22

Dessa forma, serão analisados os demais pêndulos, a partir

de um modelo multivariado a ser criado, em que os valores

de entrada serão ambas as séries (X e Y). A partir deste

modelo haverá a possibilidade de se fazer as previsões

para valores futuros.

5 RESULTADOS ESPERADOS

Dado que alguns aspectos ainda são desconhecidos, devido

ao grande porte da Usina e a imensa quantidade de leituras

efetuadas pelos instrumentos, a aplicação de métodos

mensurará o comportamento do deslocamento horizontal

dos blocos da barragem e os resultados obtidos permitirão

ao meio técnico da Itaipu, por meio de um processo mais

bem estruturado, a escolha de estratégias mais apropriadas

para alcançarem determinados objetivos no sentido de

obterem os melhores resultados.

Com a conclusão do trabalho proposto, se pretende efetuar

a realização da análise da série temporal, por meio de

aplicações dos métodos anteriormente descritos,

identificação dos fatores que melhor determinam a causa

do seu comportamento e a previsão da série a curto e

médio prazos.

É esperado, também, que haja adequação dos modelos

entre previsão e dados reais e, assim, possibilitem a análise

dos comportamentos cíclicos ou sazonais entre blocos

adjacentes da barragem e, que sirvam como base de auxílio

para estudos similares para com outros instrumentos que

necessitem de previsões. Consequentemente, possibilitar

melhor planejamento para engenheiros e técnicos da Itaipu

na tomada de decisão em relação a qualquer serviço

realizado como desde reparos até construções para

melhoria da saúde estrutural da barragem e minimização

de riscos potenciais.

REFERÊNCIAS

Fonte, Nelson Baptista. Análise da Evolução de Software

com Séries Temporais. Dissertação de Mestrado em

Engenharia Informática. Departamento de

Informática. Universidade Nova de Lisboa, 2010.

Maria, Fat Codruta. Exchange-Rates Forecasting:

Exponential Smoothing Techniques and ARIMA

Models. Annals of the University of Oradea :

Economic Science [1222-569X] Fat Ano:2011 Vol:1

Nr:1.

Morettin P. A.; TOLOI, C. M. C. Previsão de séries

temporais. 2a ed. São Paulo: Editora Edgard Blucher,

2006.

Souza, Francisca Mendonça. Previsão do Preço da

Gasolina para a Região Sul do Brasil. IJIE -

Iberoamerican Journal of Industrial Engineering. v. 3,

n. 1, p. 234-248, Julho, 2011.

-3

-2

-1

0

1

-10 0 10 20

De

slo

cam

en

to P

aral

elo

ao

Flu

xo d

a Á

gua

Deslocamento Perpendicular ao Fluxo da Água

Gráfico da Série Temporal

Co

efi

cie

nte

de D

eslo

cam

en

to X

Valor Aferido

0 200 400 600 800

-2

2

6

10

14

18

22

Periodograma

0 0,1 0,2 0,3 0,4 0,5

frequency

0

0,2

0,4

0,6

0,8

1

Ord

ina

te

Gráfico da Série Temporal

Co

efi

cie

nte

de D

eslo

cam

en

to X

0 200 400 600 800

-2

2

6

10

14

18

22AtualPrevistoLimite de 95%

Page 30: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

29

ANÁLISE DE CORRELAÇÃO CANÔNICA DOS ACIDENTES DE TRÂNSITO

DA BR-376, NO PERÍODO ENTRE 01/01/2009 E 30/04/2012

Vanessa Ferreira Sehaber; Adriano Rodrigues de Melo; Jair Mendes Marques

Palavras-Chave: Análise de Correlação Canônica, BR-376, Estatística Multivariada, Acidentes de Trânsito.

1 INTRODUÇÃO

O objeto de estudo deste trabalho foi analisar as

ocorrências de acidentes de trânsito na BR-376, no período

de 01/01/2009 a 30/04/2012, a qual possui maior

quantidade e proporção de acidentes registrados pela

Polícia Rodoviária Federal do Paraná nas rodovias federais

paranaenses. Segundo o Ministério dos Transportes

(2012), a BR-376 tem, aproximadamente, 690 quilômetros

de malha rodoviária no estado do Paraná, ligando Mato

Grosso do Sul à Santa Catarina. Corta o estado de noroeste

à sudeste, passando por solo urbano e rural.

Segundo CesviBrasil (2012), alguns motivos podem

estar associados aos acidentes de trânsito como erro

humano, velocidade excessiva, distância insuficiente em

relação ao veículo dianteiro, desrespeito à sinalização,

condições da pista, condições meteorológicas, dirigir sob

efeito de drogas e/ou álcool, defeito mecânico em veículo,

dentre outros.

Em todo acidente ocorrido nas BRs, a Polícia

Rodoviária Federal do Paraná (PRF) registra em seus

boletins as informações e as características do acidente,

além disso, informações dos objetos, condições locais e

das pessoas envolvidas. Assim, estatísticas univariadas

podem ser levantadas com relação aos acidentes, mas não

dão ideia das relações existentes (ou não) entre o conjunto

dessas informações (Johnson and Wichern, 2007). Nesse

contexto, a utilização de técnicas da estatística

multivariada é conveniente.

A Análise de Correlação Canônica (ACC) procura

expressar e simplificar os dados por meio de duas

combinações lineares das variáveis originais - uma

combinação do primeiro conjunto de variáveis e uma

combinação do segundo (chamadas variáveis canônicas) -

que exibam a maior covariância (ou correlação) possível,

sendo que poucos pares de variáveis canônicas podem

explicar muito da interdependência entre dois conjuntos de

variáveis (Mardia and Kent and Bibby, 1979).

A presente pesquisa utilizou da ACC para estudar a

relação entre os conjuntos de dados: Acidentes-Rodovia ×

Veículos e Acidentes-Rodovia × Condutores, oriundos dos

boletins de ocorrência da PRF, assim como indicar os

quilômetros mais críticos de acordo com os principais

pares de correlação canônica. Dessa forma, esta técnica

vem a ser útil para explorar as causas desses acidentes na

BR-376.

2 ABORDAGEM TEÓRICA

Considere os vetores aleatórios)1(

1pxX e )2(

1qxX , onde

qp , os quais há o interesse de medir a associação entre

tais grupos. Será conveniente considerar )1(

1pxX e )2(

1qxX

conjuntamente, então

)2(

)1(

)1)((

X

X

X xqp

(1)

com vetor de médias

)2(

)1(

)2(

)1(

)1)((

XE

XE

XExqp

(2)

e matriz de covariância

)(22)(21

)(12)(11

)()( '

qxqqxp

pxqpxp

qpxqp XXE

(3

)

Combinações lineares fornecem medidas de síntese

simples de um conjunto de variáveis. Os conjuntos

)2(

)1(

'

'

XbV

XaU

(4)

para alguns pares de coeficientes de vetores a e b .

Assim, a correlação canônica é resultante da

maximização da correlação entre as combinações lineares

U e V , que são conhecidas por variáveis canônicas.

Assim, a correlação canônica da k-ésima variável

canônica U , kU , e da k-ésima variável canônica V , kV ,

é dada por

*),( kkk VUCorr

(5)

onde 2*2*

2

2*

1 p são os autovalores de

2/1

1121

2/1

2212

2/1

11

. As variáveis canônicas têm

as propriedades

lkVUCorrVUCov

lkVVCorrVVCov

lkUUCorrUUCov

VVarUVar

lklk

lklk

lklk

kk

,0),(),(

,0),(),(

,0),(),(

1

(6)

para .,,2,1, plk

3 MATERIAIS E MÉTODOS

Os dados utilizados foram fornecidos pela Polícia

Rodoviária Federal, dispostos em 40 meses compreendidos

no período entre 01/01/2009 e 31/04/2012. Foram

analisados cerca de 17.429 acidentes envolvendo 31.677

veículos e condutores nos, aproximadamente, 690

quilômetros da rodovia BR-376 em solo paranaense.

Ao organizar os dados, as categorias das variáveis

qualitativas foram consideradas como variáveis e as

frequências das categorias, a cada 1 quilômetro, foram

consideradas como observações. Já as variáveis

quantitativas foram organizadas em intervalos de

Page 31: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

30

frequência, onde cada intervalo passou a ser considerado

como variável e as frequências nos intervalos foram

consideradas como observações.

A análise foi dividida em 2 grupos, devido a

distribuição das frequências dos acidentes observadas em

duas regiões da rodovia. O critério de separação foi o

quilômetro com menor incidência em torno da média dos

quilômetros da BR-376, ou seja, o quilômetro 363. Assim,

foram realizadas duas ACC para os dois grupos, uma

envolvendo os conjuntos Acidentes-Rodovia × Veículos e

a outra envolvendo Acidentes-Rodovia × Condutores.

A organização dos dados em contagens das

frequências dificultou algumas operações de cálculo de

matrizes. Utilizou-se a transformação de Hellinger nos

conjuntos de variáveis, pois, de acordo com Legendre

(2001), essa transformação consegue estabilizar grandes

variações na escala dos dados de contagens. A

transformação é dada pela raiz quadrada da razão de cada

elemento da variável pelo total de contagens da variável.

4 RESULTADOS

O cálculo das correlações das variáveis canônicas

com as variáveis originais (pesos canônicos) auxiliou na

interpretação das variáveis canônicas. Isto gerou resultados

extensos que não puderam ser apresentados neste resumo,

mas estão disponíveis em Sehaber (2013).

Neste estudo, analisou-se apenas os primeiros pares

de correlações canônicas, pois são os mais representativos.

No Grupo 1, conforme os grupos já mencionados, os pares

de correlações canônicas foram interpretados como

Perímetro Urbano, e Fluxo de Veículos e Condutor

Negligente e Perímetro Urbano. A correlação canônica

entre ambos os pares foi 0,99, e indicaram o intervalo de

quilômetros [174, 183] como os quilômetros mais críticos

relacionados aos pares de variáveis canônicas do Grupo 1,

em especial o quilômetro 176, que referem-se à Avenida

Colombo, ao trecho da BR-376 que passa pela cidade de

Maringá.

No Grupo 2, os pares de correlações canônicas foram

interpretados como Velocidade Inadequada e Fluxo de

Veículos, e Condutor Imprudente e Velocidade

Inadequada. A correlação canônica entre ambos os pares

foi 0,99, e indicaram o intervalo de quilômetros [664, 671]

como os quilômetros mais críticos relacionados aos pares

de variáveis canônicas do Grupo 2, em especial o

quilômetro 668, que referem-se à Serra de Guaratuba, ao

trecho da BR-376 que passa pela cidade de Tijucas do Sul.

5 CONCLUSÕES

Com este trabalho buscou-se encontrar variáveis latentes

que explicassem a relação entre as variáveis relacionadas

aos acidentes de trânsito na rodovia BR-376, no período de

01/01/2009 à 30/04/2012, por meio da análise de

correlação canônica, assim como medir o quanto essas

variáveis se relacionam e identificar os quilômetros mais

críticos, de acordo com a dispersão dos escores canônicos

de cada par de variáveis canônicas.

Identificou-se que a grande incidência de acidentes,

do Grupo 1, em meio ao fluxo de veículos, no intervalo de

quilômetros [174, 183], foi devido à negligência do

condutor no perímetro urbano, pois as principais causas de

acidentes foram pela falta de atenção e por não guardar

distância de segurança, ocasionando colisões traseiras e

laterais, durante o dia. Ainda, a condição da pista é boa,

traçado reto, com mais de uma via, com cruzamentos e

possui sinalização luminosa. Envolvem-se nos acidentes

veículos ocupados por 1 a 3 pessoas, de cores prata,

branca, preta e vermelha e azul. Envolvem-se mais nos

acidentes automóveis, motocicletas e veículos de carga,

entre os anos de 2001 a 2012, em sua maioria veículos

entre os anos de 2006 e 2012. Os condutores homens estão

mais envolvidos nos acidentes do que os condutores

mulheres, e estes condutores têm idade de 18 a 58 anos

(em especial 18-38) e, em sua maioria, saem ilesos ou com

lesões leves dos acidentes.

No Grupo 2, especificamente os quilômetros do

intervalo [664, 671], os acidentes ocorreram em meio ao

fluxo de veículos, tanto de dia como de noite, em

localidade rural, caracterizados em sua maioria por colisão

traseira, onde a pista era boa, com sinalização horizontal e

vertical, sem acostamento, com mais de uma via e perfil da

pista < 3 metros. A causa dos acidentes foi caracterizada

pela imprudência dos condutores, pois estes faltaram com

atenção e dirigiram com velocidade incompatível em meio

à condição meteorológica nublado e chuvoso. Os veículos

mais envolvidos eram automóveis e veículos de carga, de 1

a 3 ocupantes, sendo tais veículos de cores prata, branca,

preta, cinza e vermelha, e entre os anos de 1996 a 2012

(em especial 2006 a 2012). Envolveram-se mais

condutores homens do que mulheres, com idade de 18 a 58

anos (em especial de 18 a 58), os quais saíram ilesos ou

com lesões leves dos acidentes.

Assim, este trabalho conseguiu, por meio da ACC,

explorar causas e características dos acidentes de trânsito

da BR-376, vindo a subsidiar questões específicas da sua

engenharia de tráfego.

REFERÊNCIAS

BRASIL. Ministério dos Transportes. BR-376. Acesso em:

08/08/2012. Disponível em:

<http://www2.transportes.gov.br/bit/02-rodo/3-loc-

rodo/loc-rodo/br-376/gbr-376.htm>.

CESVIBRASIL. Prováveis causas dos acidentes. Acesso

em: 27/02/2012. Disponível em:

<http://www.cesvibrasil.com.br/seguranca/biblioteca

_dados.shtm>.

JOHNSON, R. A. and WICHERN, D. W. Applied

multivariate statistical analysis. New Jersey: Prentice

Hall, 2007.

LEGENDRE, P. and GALLAGHER, E. D. Ecologically

meaningful transformations for ordination of species

data. Oecologia, 129,:271–280, 2001.

MARDIA, K. V. and KENT, J. T. and BIBBY, J. M.

Multivariate analysis. New York: Academic Press,

1979.

Sehaber, V. F. 2013. Análise estatística multivariada dos

acidentes de trânsito da BR-376 no período entre os

anos de 2009 e 2012. Dissertação (Mestrado em

Métodos Numéricos em Engenharia), UFPR.

Page 32: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

31

MODELO DE MARKOWITZ PARAMETRIZADO POR INDICADORES

TÉCNICOS

Romulo de Oliveira Leite; Anselmo Chaves Neto.

Palavras-chave: Modelo de Markowitz, Bovespa, Análise Técnica de Ações.

1 INTRODUÇÃO O modelo proposto por Markowitz (1952) é aplicado ao

problema de otimização de portfolios compostos por ativos

financeiros. Tal modelo consiste na maximização do trade-

off entre retorno e risco, baseado na média e na variância

histórica dos retornos. A solução do modelo depende do

nível de exposição ao risco a que o investidor aceita se

submeter; na versão apresentada por Kendrick et al (2006),

essa informação é inserida no modelo através do

Parâmetro de Aversão ao Risco (PAR).

Uma das limitações do modelo de Markowitz é a

insensibilidade ao momento de mercado e à formação de

tendências de preços (Leite, 2013). No intuito de

suplementá-lo com essas informações e de reduzir a

subjetividade na quantificação do apetite por risco, o

presente trabalho propõe a utilização de indicadores de

Análise Técnica, em particular o Moving Average

Convergence-Divergence (MACD) e o Índice de Força

Relativa (IFR), na determinação do valor do PAR.

A pesquisa empírica consiste na simulação de uma carteira

de ações negociadas na Bolsa de Valores de São Paulo

(Bovespa) gerenciada ativamente através da metodologia

proposta, tendo seu desempenho comparado ao do Índice

Bovespa (Ibovespa), da carteira de diversificação ingênua

(igualitária) e de carteiras com valor de PAR fixo. Os

resultados apontam superioridade do modelo proposto,

ainda que não seja possível descartar o fato de que o

desempenho superior seja devido ao acaso.

2 REFERENCIAL TEÓRICO

2.1 Modelo de Markowitz

A composição ótima do portfolio de ações é obtida através

da solução do seguinte modelo de programação quadrática:

11

Σ

x.a.s

xxλxμzmax

t

tt

(1)

em que μ

é o vetor de retornos esperados, Σ é a matriz de

covariância, x

é o vetor de proporções de cada ativo, 1

é o

vetor unitário e λ é o PAR. A solução é dada por:

1

1Σ1

2Σ1Σ

2

11

11

t

t λμμ

λx (2)

Para cada valor do PAR há um portfolio com ótima relação

entre retorno e risco; ao conjunto de todos os portfolios

eficientes dá-se o nome de “fronteira eficiente”. A figura 1

apresenta o exemplo de uma fronteira eficiente; portfolios

situados abaixo da fronteira são factíveis, porém

ineficientes, enquanto que acima da fronteira situa-se a

região infactível. Os portfolios ótimos encontram-se,

portanto, sobre a fronteira eficiente.

Figura1: exemplo do gráfico de uma fronteira eficiente

2.2 Análise Técnica de Ações

A Análise Técnica de Ações tem por objetivo encontrar

padrões de comportamento na formação das séries de

preços. Para isso dispõe de indicadores que fornecem

informações sobre a formação de tendências, sobre a

saturação de um movimento de alta ou baixa, entre outras.

Um dos mais importantes indicadores técnicos é o MACD.

Esse indicador consiste na determinação de duas médias

móveis exponenciais, calculadas conforme a descrição a

seguir (Vidotto et al, 2009):

1226 MMEMMEMACD (3)

9MACDMMESINAL (4)

em que MME(t) é a média móvel exponencial referente a t

dias. Quando a diferença entre MACD e SINAL passa de

positiva para negativa, configura-se um indicativo de

venda, visto que tal evento sinaliza uma inversão de

tendência para baixa. Analogamente, quando essa

diferença passa de negativa para positiva, é sinal de

reversão de tendência para alta.

Outro indicador importante é o IFR, calculado conforma a

seguinte expressão (Saffi, 2003):

tD

tUIFR

1

100100 (5)

em que U(t) e D(t) são as somas dos módulos dos retornos

em dias de alta e de baixa, respectivamente, referentes aos

últimos t fechamentos. O valor do IFR oscila entre 0 e 100;

quanto mais próximo de zero, mais recomendada a

compra, por é sinal de que o movimento de baixa

encontra-se saturado, enquanto que valores próximos de

100 sinalizam momento de venda.

3 MATERIAIS E MÉTODOS

A proposta apresentada neste trabalho é a determinação do

valor do PAR em função dos indicadores técnicos

referenciados. No caso do MACD, o valor do PAR é dado

por:

Page 33: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

32

SINALMACD,

MACD eλ 00102 (6)

enquanto que para o IFR assume-se:

IFR

IFRλIFR

100

2 (7)

A carteira selecionada é composta por 35 ações integrantes

da carteira teórica do Ibovespa, por serem ações de alta

liquidez, garantindo, então, a execução das ordens

emitidas. O rebalanceamento da carteira é feito

trimestralmente e os custos das transações são os menores

oferecidos pelo mercado.

O algoritmo de execução das negociações é composto de:

um estimador, que calcula os parâmetros de médias e

covariâncias; um otimizador, que resolve o modelo de

Markowitz com base nos parâmetros de entrada; e um

negociador, que simula a execução de ordens de compra e

venda.

Os dados coletados são os valores de fechamento e os

retornos diários das ações analisadas no período de 2007 a

2010, sendo que os dados do primeiro ano servem como

base para as estimativas iniciais.

Os resultados obtidos são comparados aos das carteiras de

PAR fixo com valores 1, 3, 5, 7 e 9, além da carteira de

diversificação ingênua e da carteira teórica do Ibovespa.

4 RESULTADOS

Na comparação dos índices Sharpe, importante indicador

de desempenho da gestão de carteiras, os melhores

resultados foram obtidos pelas carteiras reguladas pelo

MACD e IFR, respectivamente. Isso sugere que a inserção

de informação sobre o momento do mercado e a tendência

dos preços confere sensibilidade ao modelo, de forma a

tornar a escolha do PAR automática e a valores adequados

à realidade do mercado.

Além disso, as carteiras gerenciadas sob a metodologia

proposta obtiveram os melhores valores para o alfa de

Jensen, o que significa que maiores excessos de retornos

sobre o mercado.

No entanto, a superioridade dos excessos de retornos não é

significativa segundo o teste t para o alfa de Jensen

(Grinold e Kahn, 1999). Esse resultado indica a hipótese

de que os retornos tenham sido superiores devido ao acaso

não é descartável.

5 CONCLUSÕES A gestão ativa de carteiras baseada no modelo de

Markowitz proporciona resultados superiores ao mercado

no que diz respeito à relação entre retorno e risco. A

inserção de informações oriundas de indicadores técnicos

proporciona uma busca automática eficaz na composição

de portfolios de acordo com o momento do mercado e a

tendência de formação dos preços, agregando informação

que o modelo original é incapaz de detectar.

Para trabalhos futuros, a sugestão é que sejam utilizadas

outras técnicas de identificação de tendências ou outros

indicadores técnicos ou fundamentalistas, além de métodos

de estimação de risco e retorno diferentes daqueles que

neste trabalho foram utilizados.

REFERÊNCIAS

Grinold, R. C., Kahn, R. N., Active portfolio management,

2nd ed. McGraw-Hill, 1999.

Kendrick, D. A., Mercado, P. R., Amman, H. M.,

Computational economics. Princeton University Press,

2006.

Leite, R., Modelo de markowitz e análise técnica:

determinando o parâmetro de aversão ao risco através

do macd. Artigo aceito para publicação no XXXIV

Congresso Ibero Latino Americano de Métodos

Computacionais em Engenharia. Pirenópolis, 2013.

Markowitz, H. M., Portfolio selection. The Journal of

Finance, 7: 77-91, 1952.

Saffi, P. A. C., Análise técnica: sorte ou realidade? Revista

Brasileira de Economia, 57: 953-974, 2003.

Vidotto, R. S., Migliato, A. L. T., Zambon, A. C., O

moving average convergence-divergence como

ferramenta para a decisão de investimentos no mercado

de ações. Revista de Administração Contemporânea,

13:291-309, 2009.

Page 34: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

33

FORMULAÇÃO DO MÉTODO DOS ELEMENTOS DE CONTORNO PARA O

PROBLEMA DE DIFUSÃO DO CALOR BIDIMENSIONAL

Roberto Pettres; Luiz Alkimin de Lacerda.

Palavras-Chave: Elementos de Contorno, Equação da Difusão do Calor, Solução Fundamental.

1 INTRODUÇÃO

Os primeiros registros que tratam da origem do Método

dos Elementos de Contorno (MEC) datam do ano de 1823,

em uma publicação do matemático norueguês Niels Henrik

Abel sobre o problema da tautócrona (‘tempo igual’)

(Simmons, 1987). Nesse trabalho, Abel se retrata ao

método como técnica baseada em equações integrais para

resolução de problemas baseados em equações diferenciais

parciais. Tal método recebeu atenção de diversos

pesquisadores e foram necessárias mais oito décadas de

estudos para que o método recebesse a primeira teoria

clássica das equações integrais desenvolvida por Fredholm

em 1903 (Jacobs, 1979).

Ainda no século XX, diversos autores utilizaram a técnica

de equações integrais e oportunizaram importantes

contribuições para a evolução do método, sendo

denominado Método dos Elementos de Contorno a partir

dos trabalhos de Brebbia (1978), o qual apresentou uma

formulação baseada em equações integrais e em técnicas

de resíduos ponderados.

A vantagem da aplicação desse método está associada à

dimensão do sistema de equações, sendo menor do o

sistema obtido em outras formulações como no caso do

Método dos Elementos Finitos ou Método das Diferenças

Finitas, sendo reduzido por utilizar apenas valores do

contorno em sua formulação.

Neste trabalho é apresentada a formulação do MEC para

solução da Equação da Difusão do Calor em sua forma

bidimensional para análise de uma placa quadrada sob

condições de contorno específicas.

2 MODELO BIDIMENSIONAL

O modelo matemático neste estudo é a Equação da

Difusão do Calor:

),(,,),(1

),(2 yxXXt

tXutXu

(1)

O modelo geométrico é uma placa quadrada com aresta

igual a L (Figura ) e difusividade térmica sob a seguinte

condição de contorno:

XtXu ,10),( (2)

Onde u é o potencial e a derivada q (fluxo) em relação à

direção n normal ao contorno é dada por:

n

uq

(3)

Figura 1 - Modelo geométrico com a discretização do contorno

em 40 elementos lineares e o domínio em 200 células

triangulares constantes.

De acordo com Greenberg (1971), a solução fundamental

para o operador adjunto laplaciano denotada por u*,

resultante de uma fonte unitária e pontual é:

ru

1ln

2

1*

(4)

Onde Xr é a distância entre o ponto campo X e o

ponto de colocação da fonte unitária.

Conhecida a solução fundamental, a sua derivada em

relação à direção normal ao contorno é denotada por q* e

calculada como:

n

r

r

uq

** (5)

3 FORMULAÇÃO COM O MEC

A equação integral clássica do Método dos Elementos de

Contorno é:

dXut

tXu

dtXuXq

dtXqXutuC

),(*),(1

),(),(*

),(),(*),()(

(6)

O termo )(C é dado por:

Page 35: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

34

se

suavecontornodepontoése

se

C

,1

,2

1

,0

)( (7)

Adotando-se diferenças finitas para aproximar a derivada

temporal do potencial presente na eq.(6), obtém-se:

dXutXut

dXuttXut

dttXuXq

dttXqXuttuC

),(*),(1

),(*),(1

),(),(*

),(),(*),()(

(8)

4 RESULTADOS

Resolvendo-se a equação integral (8) para uma condição

inicial de potencial nulo no tempo t0, eq.(9), e aplicando-se

igual a 0,05, 0,5 1,0, tem-se os resultados apresentados

na Figura 2:

XXu ,0)0,( (9)

Figura 2 – Comparação entre a solução analítica e o MEC no

ponto central da placa quadrada.

Na mesma figura são apresentados os resultados analíticos

para o problema apresentado, cuja expressão é dada por

(Carrer et al., 2011):

L

yn

L

xm

nm

eu

utyxu

m n

tnmL

sinsin16

),,(

1 12

_

_

22

2

2 (10)

para m e n ímpares.

Observa-se que a solução numérica do MEC corresponde à

solução analítica, comprovando a eficácia do MEC.

Na Figura é ilustrado o processo de difusão do calor ao

longo do tempo para o domínio do problema em instantes

de tempo específicos para o caso em que a difusividade

térmica ( ) é igual a 1,0.

Figura 3 – Solução no domínio para diferentes tempos e =1,0.

A partir da Figura 3 é possível verificar a gradual elevação

da temperatura do domínio até o equilíbrio final com a

temperatura prescrita no contorno. Resultados similares

foram verificados para os casos em = 0,05 e = 0,5.

5 CONCLUSÃO

A partir dos resultados obtidos com a aplicação do MEC

foi possível verificar que o uso de elementos lineares de

contorno associado ao uso de células triangulares

constantes traz resultados satisfatórios em relação à

solução analítica. Esses resultados comprovam a eficácia

do MEC e motiva o emprego da solução fundamental

independente do tempo para análise de problemas

potenciais bidimensionais transientes.

REFERÊNCIAS

Brebbia, C. A. Dominguez, J. Boundary Elements An

Introduction Course. Bath Press, Great Britain, 1989.

Carrer, J. A. M. Oliveira, M. F. Vanzuit, R. J. MANSUR,

W. J. Transiente heat conduction by the boundary

element method D-BEM approaches. International

Journal for Numerical Methods in Engineering,

V.89, N. 7 , pp 897-913, 2011.

Greenberg, M. D. Application of Green’s Functions in

Science and Engineering. Prentice-Hall, New Jersey,

1971.

Jacobs, D. The State of the Art in Numerical Analysis,

Academic Press, New York, USA, 1979.

Simmons, G. F. Cálculo com Geometria Analítica –

Volume 2. McGraw Hill, 1987.

Page 36: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

35

USO DE ESCORES FATORIAIS NA CONSTRUÇÃO DE UM INDICADOR DA

INTEGRIDADE ESTRUTURAL DE UMA BARRAGEM DE CONCRETO

Sheila Regina Oro; Anselmo Chaves Neto.

Palavras-Chave: Análise Fatorial, Séries Temporais, Integridade Estrutural, Barragem.

1 INTRODUÇÃO

As estruturas de concreto de barragens são suscetíveis a

uma gama de alterações provocadas pela incidência de

diversos fenômenos. Os dados das medições periódicas,

provenientes das leituras dos instrumentos instalados em

pontos estratégicos da barragem, abastecem um banco de

dados, desde a época da sua construção.

Este trabalho pretende realizar uma análise cruzada das

informações instrumentais, desenvolvendo uma

metodologia para a construção de um indicador (índice

sintético) da integridade estrutural de uma barragem de

concreto, mediante a aplicação de análise de séries

temporais e análise fatorial, objetivando conhecer o

desempenho global do sistema.

2 MONITORAMENTO DA ESTRUTURA DAS

BARRAGENS DE CONCRETO

A integridade estrutural de barragens é monitorada por

meio de um sistema de instrumentação que avalia o

comportamento destas estruturas, tanto no período de

construção, quanto no período de operação. Acidentes,

como o da Usina Hidrelétrica Sayano-Shushenskaya,

ocorrido em 2009 na Rússia, comprovam a importância do

desenvolvimento de metodologias confiáveis de detecção

de falhas, como forma de evitar as consequências

provocadas por desastres.

A análise das medições instrumentais tomadas em pontos

críticos da barragem objetiva verificar se o comportamento

do sistema corresponde às expectativas do projeto. Além

disso, a automatização das medições instrumentais

assegura a análise praticamente em tempo real e reduz os

custos de operação.

Fenômeno monitorado Instrumento

Deslocamento horizontal Pêndulos

Deslocamento angular Extensômetros

Deslocamento diferencial

entre blocos

Bases de alongâmetro e

medidores triortogonais

Tensão no concreto Rosetas de deformímetro

Tensão na armadura Tensômetros

Temperatura Termômetros

Vazão de infiltração Drenos

Quadro 1: Instrumentos e suas respectivas finalidades. (Autoria

própria)

Os principais instrumentos instalados em barragens e suas

fundações, com suas respectivas finalidades, são

apresentados no Quadro 1.

Estudos de casos aplicados ao monitoramento da

integridade estrutural foram realizados por Carvalho

(2007), Kuperman (2005), Kazemi (2004), Pimenta

(2009), Silva (2005) e Villwock (2013).

3 SÉRIES TEMPORAIS

Uma sequência de observações periódicas, com a

característica especial de dependência serial entre elas,

determina uma série temporal.

Figura 1: Periodograma integrado das medições do pêndulo

direto. (Autoria própria)

O estudo de uma série temporal envolve a análise do

periodograma integrado, para saber se há parte sistemática

a ser modelada, e as subsequentes etapas de identificação,

estimação e adequação do modelo de previsão.

O modelo ajustado pode ser do tipo Autorregressivo (AR),

Médias Móveis (MA) ou uma combinação destes dois

tipos (ARMA ou ARIMA). Por exemplo, para os dados do

pêndulo direto cujo periodograma é apresentado na Figura

1, o modelo mais adequado, conforme apresentado na

Equação 1, segundo o critério AIC, é o AR(2) com

constante.

tttt a+Z+Z+=Z 21 0,250,690,02 (1)

Caso haja lacunas na sequência de dados, estas podem ser

preenchidas através do método Forecasting-

Backforecasting, que consiste no ajuste de dois modelos:

um para os dados anteriores à lacuna e outro para os

posteriores, seguidos das respectivas previsões de valores.

Depois, calcula-se a média entre esses dois valores,

obtendo-se a estimativa para os dados faltantes.

4 ESCORES FATORIAIS

A realização da análise fatorial possibilita identificar e/ou

confirmar as fontes subjacentes de variação comuns a duas

ou mais variáveis (fatores comuns). Nesse modelo, a

variação observada em cada variável é atribuível aos

fatores comuns e a um fator específico (erro de medida).

Em geral, espera-se encontrar poucos fatores comuns que

explicam a maior parte dessa variação.

A suposição de que as p variáveis originais (Xi), de uma

amostra de tamanho n, são correlacionadas entre si, é

Page 37: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

36

verificada através do Teste de Esfericidade de Bartlett,

cuja estatística é calculada conforme a Equação 2, onde i

é o i-ésimo autovalor da matriz de correlação amostral R.

^

1

ln112p6

1i

p

=i

+n=T

(2)

O uso da rotação Varimax facilita a interpretação de uma

solução analítica do fator, de tal forma que cada variável

tenha um peso elevado em um só fator.

Nesse contexto, os escores fatoriais j

f estimam os

valores dos fatores comuns jF , que não são observáveis,

sendo úteis na identificação de modelos adequados para

descrever os dados. Pelo Método dos Mínimos Quadrados

Ordinários, como apresentado na Equação 3, é possível

obter as estimativas dos escores fatoriais.

n,,=jxx'LL'L=f jj...1,2,3ˆˆˆˆ 1

(3)

Onde L é a matriz dos carregamentos estimada por meio

da técnica das Componentes Principais.

5 INDICADORES DE ESTABILIDADE

De modo geral, o uso de indicadores é usado para avaliar,

mostrar a situação e as tendências das condições de um

dado ambiente.

A construção de indicadores de estabilidade de estruturas

deve levar em consideração os fatores que a influenciam.

Assim, após a análise fatorial, segue-se ao ajuste do

modelo, cujas variáveis de entrada são os fatores de maior

significância e a variável de saída representa o índice de

estabilidade estrutural.

Este índice é denominado sintético porque utiliza variáveis

artificiais independentes não observáveis (fatores). Estas,

por sua vez, são compostas a partir da combinação linear

das variáveis originais observáveis.

Sendo assim, no caso de uma barragem de concreto, as

variáveis originais correspondem aos instrumentos –

pêndulos, extensômetros, bases de alongâmetro, medidores

triortogonais, rosetas de deformímetro, tensômetros,

termômetros, drenos, entre outros -, os fatores gerados pela

combinação linear entre essas, carregam a totalidade dos

dados observados. Para cada fator, é identificada a variável

mais importante (maior peso) e, também, são obtidos os

escores fatoriais. Estes, por sua vez, correspondem aos

coeficientes do modelo de ajuste dos dados. Por fim, a

saída do modelo é o índice de estabilidade estrutural da

barragem de concreto.

6 CONCLUSÕES

O trabalho apresentado encontra-se em fase inicial de

obtenção de dados e definição da metodologia, de modo

que foram apresentados apenas alguns aspectos

norteadores do projeto de pesquisa, sem qualquer resultado

ou conclusão. Desta forma, neste texto foram apresentados

alguns aspectos norteadores do projeto de pesquisa. Ao

final deste projeto, será determinado um índice sintético da

integridade estrutural de uma barragem, com base nos

dados da instrumentação. Espera-se que o mesmo seja de

grande utilidade para uso na prática, por ser construído a

partir das séries temporais de dados reais e por sua

simplicidade de interpretação, assim como pretende-se

publicar em periódicos os resultados obtidos para que

sejam aproveitados em outros estudos.

REFERÊNCIAS

Jardini, J.A.; Magrini, L.C.; Lima, B.L.S.; Torikai, D.;

Ibrahim, R.C.; Oliveira, A.L.; Pinfari, J.C.; Carneiro,

E.F.; Rossetto, S.L.G.; Cestari Júnior, E.

Sensoriamento para Segurança de Barragens de

Usina Hidrelétricas. Revista IEEE, América Latina,

v. 7, p. 1-8, 2010.

Krüger, C. M. Análise de confiabilidade estrutural

aplicada às barragens de concreto. Tese de

Doutorado – Setor de Ciências Exatas, Universidade

Federal do Paraná, Curitiba, 2008.

Kuperman, S. C.; Moretti, M. R.; RE, G.; Cifu, S.;

Celestino, T.B.; Zoellner, K.; Pínfari, J. C.; Carneiro,

E. F.; Rossetto, S. L. G.; Reigada, R. P. Establishing

Limit of Instumentation Readings for Old Emabkment

and Concrete Dams, Journal of Dam Safety,

Kentucky, EUA, v. Summer, p. 18-26, 2005.

Silva, S. da; Lopes Junior, V.; Dias Junior, M. Detecção de

Falhas Estruturais Utilizando Controle Estatístico de

Processos, IV Congresso Temático de Dinâmica,

Controle e Aplicações, Bauru, IV DINCON, 2005.

Sohn, H.; Farrar, C. R.; Hemez, F. M.; Shunk, D. D.;

Stinemates, D. W.; Nadler, B. R. A review of

structural health monitoring literature: 1996 - 2001,

Los Alamos National Laboratory Report , LA-13976-

MS, 2003.

Villwock, R.; Steiner, M. T. A.; Dyminski, A. S. e Chaves

Neto, A. Itaipu Hydroelectric Power Plant Structural

Geotechnical Instrumentation Temporal Data Under

the Application on Multivariate Analysis - Grouping

and Ranking Techiques, in: Multivariate Analysis in

Management, Engineering and the Sciences. Rijeka,

Croácia, InTech, 2013

Page 38: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

37

COMPARAÇÃO ENTRE O LDM (LEITOR DIGITAL PARA MOLINETES

HIDROMÉTRICOS) E O ADCP

Marcos Freitas de Moraes; Liliana Madalena Gramani.

Palavras-chaves: LDM, ADCP, Medição de Vazão.

1 INTRODUÇÃO

O LDM – Leitor Digital para Molinetes Hidrométricos –

foi desenvolvido para substituir o Contador de Pulsos ou

Contador de Giros, instrumento que acompanha o molinete

em medições das velocidades do fluxo da vazão de rios,

lagos, córregos, entre outros. A ideia do desenvolvimento

do LDM surgiu da necessidade de um instrumento mais

moderno, preciso, rápido e que automaticamente

determinasse a vazão total do rio. Para comprovar a

eficiência do LDM, foram efetuados vários testes em

diversos rios e córregos comparando seus dados com o

contador de pulsos. Para uma comprovação mais precisa

de sua qualidade na medição do fluxo, foi efetuada uma

comparação com o ADCP (Acoustic Doppler Current

Profiler) modelos RS-M9 e S5 no canal da piracema da

Itaipu Binacional.

2 MATERIAIS E MÉTODOS

O LDM foi desenvolvido usando a tecnologia do

microcontrolador PIC18F452, que possui 32Kb de

memória Flash, velocidade de DC 40Mhz e velocidade da

CPU de 10MIPS (execução de instruções em 100

nanosegundos), 1536 bytes memória RAM, 16384 bytes

de

memória de programa (Instruções), 256 bytes de memória

de dados EEPROM (Microchip, 2006) e programado em

linguagem PICBasic. A função do LDM é coletar as

velocidades pontuais instantâneas em cada ponto das

verticais do rio (Santos et al, 2001) ao mesmo tempo em

que calcula a área da seção transversal e sua área de vazão,

gravando os dados em um cartão de memória SD/MMC.

Ao final de todas as verticais, automaticamente totaliza as

vazões das seções determinando a vazão total do rio.

Comparar um equipamento ADCP e o molinete

hidrométrico é imaginar um conjunto infinito de molinetes

colocados em uma vertical da seção de medição (ANA,

2009), mas a necessidade deste ensaio se deu pelo fato de

que o LDM também apresenta a velocidade pontual

instantânea, com isto, se pode verificar a real leitura que o

LDM faz em cada ponto na vertical e na média das

verticais.

2.1 Medição no Canal da Piracema

Foi utilizado o equipamento RS-M9 com método “ScbSc –

Section by Section” para a comparação da velocidade

média em cada vertical. O LDM fez três (03) medições de

profundidade em cada vertical (20% = 0,38m; 60% =

1,15m e 80% = 1,52m). A Tabela 1 mostra as velocidades

médias calculadas pelo LDM e pelo RS-M9:

Velocidade Média (m/s)

Vertical LDM RS-M9

1 0,16 0,17

2 0,17 0,17

3 0,17 0,17

4 0,21 0,18

5 0,21 0,17

6 0,20 0,18

Tabela 1: Comparação entre LDM e RS-M9 Fonte RS-M9: Divisão de Estudos Hidrológicos e Energéticos – Itaipu Binacional

A Tabela 2 apresenta o resumo estatístico:

LDM RS-M9

Amostra 6 6

Média 0,18667 0,17333

DP 0,0005 0,00002

Variância 12,06% 2,98%

Mínimo 0,16 0,17

Máximo 0,21 0,18

Tabela 2: Resumo Estatístico Fonte: Autor

A tabela 3 apresenta o resumo geral da vazão calculada no

canal. A tabela mostra os métodos utilizados pelos

equipamentos ADCP (Travessia e ScbSc):

Equipamento Método Vazão

Total Área

Veloc.

Média

M9 Travessia 2,41 14,36 0,17

M9 Scbsc 2,47 14,33 0,17

S5 Travessia 2,27 14,24 0,16

Médias 2,38 14,31 0,17

LDM À Vau 2,12 13,29 0,16

Tabela 3: Comparação entre LDM e RS-M9 Fonte ADCP: Divisão de Estudos Hidrológicos e Energéticos – Itaipu Binacional

3 RESULTADOS E DISCUSSÕES

Aplicando o test-t para verificar a hipótese das médias

serem iguais ao nível de 5% de significância, significa

testar as hipóteses:

Hipótese nula - H0 : (LDM) = (RS-M9).

Hipótese alternativa - H1 : (LDM) (RS-M9).

Não rejeitar a hipótese nula para = 0,05.

Onde x ~ N(; 2). Assumindo variâncias iguais: t =

1,41421 e p-valor = 0,18767. Como p-valor > 0,05, então

não se rejeita a hipótese H0, isto é, não há diferença

estatisticamente significativa entre as médias das duas

amostras ao nível de confiança de 95,0%.

4 CONCLUSÃO

Apesar dos estudos indicarem que medições entre os

equipamentos ADCP e o molinete são completamente

diferentes, o objetivo dessa pesquisa não foi verificar a

eficiência do molinete ou do ADCP e sim, o

comportamento do LDM na medição do fluxo. Com as

velocidade seriam apresentadas, como seria a gravação dos

Page 39: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

38

dados, se seus cálculos via microcontrolador estariam

corretos entre outros. Como o resultado do test-t

determinou que não diferença significativas nas médias

das velocidades e como a velocidade média é obtida pela

razão entre a vazão total pela área total da seção, logo, o

comportamento do LDM foi o mesmo comparado com os

equipamentos ADCP.

REFERÊNCIAS

ANA. Agência Nacional de Águas, Medição de descarga

líquida em grandes rios: manual técnico.Brasília -

DF: Superintendência de Gestão da Rede

Hidrometeorológica, 2009. 88

SANTOS, I., Fill, H. D., Sugai, M. R., Buba, H., Kishi, R.

T., Marone, E., Lautert, L. F. C., Hidrometria

Aplicada. Curitiba - Pr: Instituto de Tecnologia para

o Desenvolvimento, 2001. 371 p.

MICROCHIP. Datasheet - Especificações Técnicas.

Microchip Tecnology Inc., 2006. Disponível em:

www.microchip.com.

Page 40: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

39

IDENTIFICAÇÃO DA BANDA BRILHANTE EM DADOS DE RADAR

METEOROLÓGICO

Camila Oliveira, Sérgio Scheer, César Beneti.

Palavras-Chave: Banda Brilhante, Perfil Vertical de Refletividade, Support Vector Machine.

1 INTRODUÇÃO

O termo banda brilhante (BB) é usada na meteorologia

para se referir a uma camada de alta refletividade

associada com o derretimento de gelo (Zhang et al, 2008).

Ou seja, acima da isoterma de 0°C está presente

basicamente gelo, que ao cair e atingir essa isoterma entra

em processo de derretimento, formando-se assim em sua

volta uma camada de água no estado líquido, fazendo com

que o valor da refletividade aumente consideravelmente.

Essa região com alta refletividade pode causar

superestimação na previsão de precipitação se uma

correção não for aplicada (Zhang e Qi, 2010). O objetivo

desse trabalho é identificar as áreas afetadas pela banda

brilhante nos dados do radar meteorológico do SIMEPAR,

para que uma correção possa ser feita evitando erros na

previsão de precipitação.

2 RADAR METEOROLÓGICO

O instituto tecnológico SIMEPAR possui um Radar

Meteorológico Banda-S Doppler, instalado em Teixeira

Soares – PR. Sua antena rotaciona sobre o eixo vertical

(varredura azimutal), com diferentes elevações da antena.

Uma sequência completa de várias varreduras azimutais

com diferentes elevações é chamada de volume de

varredura.

Os dados que são enviados pelo radar estão em formato

numérico e depois são transformados em informações tais

como: data, hora, localização, volume de chuva e a altura

(em graus) da elevação da antena e uma matriz de dados,

onde estão armazenados os valores obtidos pelo radar

(Neto, 2008).

Esses valores possuem coordenadas esféricas com três

graus de liberdade r,θ, onde r é o range (distância do

alvo até radar), θ é o azimute (ângulo em relação ao

Norte), e é a elevação da antena.

Uma das variáveis medidas pelo radar é a refletividade (z),

que é o fator entre as ondas eletromagnéticas emitidas e as

que voltam para o radar, depois de passarem por uma

nuvem e serem irradiadas em todas as direções pelas gotas

de chuva. Devido ao grande domínio que os valores de

refletividade possuem, é conveniente utilizar sua

representação em uma escala logarítmica.

A partir dos dados de refletividade (em coordenadas

esféricas) de um volume de varredura obtidos pelo radar,

será aplicado o método para a detecção da banda brilhante,

que é descrito na seção 4.

3 SUPPORT VECTOR MACHINE

Fundamentada na Teoria da Aprendizagem Estatística, o

Support Vector Machine (SVM) foi desenvolvido com o

intuito de resolver problemas de classificação de padrões,

ou seja, classificar informações (padrões) baseando-se em

um conjunto de treinamento, o qual possui dados

previamente classificados. O SVM pode classificar tanto

padrões linearmente separáveis como os não linearmente

separáveis.

Para padrões linearmente separáveis, o SVM busca

construir um hiperplano que divida os padrões, de tal

forma que essa separação seja máxima. Já para o caso não

linear, onde não é possível separar os dados com um

hiperplano, o SVM utiliza uma função kernel, que mapeia

o conjunto de treinamento para um espaço linear de alta

dimensão, e então para esse novo espaço cria o hiperplano

ótimo separando as classes.

A metodologia SVM será utilizada no controle de

qualidade dos dados de refletividade, para eliminar dados

indesejáveis que não representam precipitação. O kernel e

os parâmetros utilizados pelo SVM são descritos em 4.1.

4 METODOLOGIA

O método para a identificação da Banda Brilhante baseia-

se no apresentado em Zhang et al (2008), o qual está

dividido em três passos:

1) classificação dos dados em precipitação convectiva e

estratiforme;

2) cálculo do perfil vertical de refletividade (PVR) médio

para os diferentes grupos de precipitação;

3) identificação da banda brilhante através do PVR da

precipitação estratiforme.

Deve-se inicialmente fazer um controle de qualidade nos

dados, eliminando ecos que não representam precipitação.

Em Zhang et al (2008) este controle de qualidade usa uma

rede neural que se baseia na estrutura horizontal e vertical

de refletividade, além de pré e pós processamento que

removem ecos específicos como speckles, propagação

anômala das ondas eletromagnéticas, entre outros.

Para este trabalho, o controle de qualidade foi realizado

utilizado a técnica de classificações de padrões SVM.

O controle de qualidade e os passos 1, 2 e 3 são descritos a

seguir.

4.1 Controle de qualidade dos dados

Para filtrar os dados foi utilizado Support Vector Machine

(SVM), que cria um modelo de classificação de dados que

identifica e elimina esses ecos de terrenos, resultando

apenas em dados de precipitação.

Para gerar o modelo para a classificação foi utilizada a

linguagem de programação python que possui uma função

chamada svm.SVC() da biblioteca sklearn, e seu download

pode ser feito em http://scikit-learn.org/stable/.

Foram realizados alguns testes, usando para o treinamento,

dados que apresentam apenas ecos de terreno, e os

parâmetros de entrada da função que apresentaram

melhores resultados na identificação e eliminação dos

dados foram: C= 1, kernel= 'sigmoid', degree= 3,

gamma= 0.25 e coef0: 0.0.

Page 41: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

40

4.2 Separação em precipitação convectiva e

estratiforme

Os sistemas convectivos estão associados com fortes

campos verticais de vento e altas taxas pluviométricas,

enquanto nos sistemas estratiformes predomina extensa

área coberta, e baixas velocidades verticais de vento,

homogeneidade horizontal (gradiente suave) e taxas de

precipitação menores (Damian, 2011).

Devido a essas grandes diferenças, deve-se inicialmente

fazer a separação dos dados entre esses dois tipos de

precipitação, tendo em vista que a ocorrência de banda

brilhante está associada à precipitação estratiforme.

Para essa classificação foi utilizado um método baseado no

conteúdo de água líquida integrada verticalmente (VIL),

que mapeia as características tridimensionais das

tempestades em um sistema bidimensional.

Após o cálculo do VIL são feitos dois testes para

classificar os ecos em convectivo ou estratiforme: i) é

considerada como convectiva os ecos que possuem VIL

acima de 1.0 kg/m² e Zmax > 30 dBZ, onde Zmax é o

maior valor de refletividade encontrado na coluna e ii)

utiliza-se uma técnica de agrupamento por dilatação,

marcando a região com até 4 km de raio de um eco

convectivo também como convectivo.

Após os dois testes os ecos não marcados como

convectivo, recebem classificação estratiforme.

4.3 Cálculo do PVR médio

Devido ao fato da ocorrência da banda brilhante estar

associada à precipitação estratiforme, neste trabalho

utilizam-se apenas os dados com esta classificação para o

cálculo do perfil vertical de refletividade.

Para este cálculo os dados de refletividade são agrupados

em camadas verticais a cada 200 m, e em cada camada é

calculado a média dos valores de refletividade.

Duas regras são aplicadas para garantir a qualidade do

PVR: (i) somente valores de refletividade acima de um

limiar 0Z são incluídos no PVR, e (ii) um número mínimo

0M de dados de refletividade, com0ZZ i , é necessário

em cada camada para se obter um valor de refletividade

médio kZmed válido (Zhang et al, 2008).

Neste trabalho são utilizados 0Z = 15 dBZ e 0M = 10.

4.4 Identificação da Banda Brilhante

Para identificar se existe alguma região afetada pela banda

brilhante no volume de dados analisado, deve-se

inicialmente encontrar o valor máximo do PVR associado

à precipitação estratiforme desses dados.

Uma vez obtido a altitude correspondente ao valor máximo

do VPR ( mH ), deve-se encontrar a altitude acima ( aH )

e abaixo ( bH ) de mH que corresponde ao valor onde a

refletividade decresce 10% do valor máximo.

A banda brilhante existe se aH , bH e mH satisfazem as

seguintes condições:

0DHbHa

1DHmHa (1)

1DHbHm

onde 0D e 1D são parâmetros adaptáveis (Zhang et al,

2008). Neste trabalho 0D e 1D foram considerados 1.5km

e 2.0km, respectivamente.

5 CONCLUSÕES

Neste trabalho foi utilizado um método para a detecção da

banda brilhante baseado no utilizado em Zhang et al

(2008).

Para se obter um resultado mais preciso na identificação da

banda brilhante foi necessária a filtragem dos dados para

eliminar ecos que não representavam precipitação. Para

isso foi utilizado a metodologia support vector machine

que eliminou grande parte dos dados de ecos de terreno

encontrados próximos ao radar meteorológico.

As imagens que mostram as áreas afetadas pela banda

brilhante detectadas pelo método foram analisadas por

especialistas que constataram que realmente se tratavam de

áreas contaminadas. Para trabalhos futuros deseja-se fazer

uma correção desses valores de refletividade nas áreas

afetadas, para que se possa fazer uma melhor estimativa da

precipitação.

REFERÊNCIAS

Damian, E. A., 2011. Duas Metodologias Aplicadas à

Classificação de Precipitação Convectiva e

Estratiforme com Radar Meteorológico: SVM e K-

Means. Dissertação de Mestrado em Métodos

Numéricos em Engenharia, Universidade Federal do

Paraná.

Neto, M. A. S., 2008. Mineração Visual de Dados:

Extração do Conhecimento a Partir das Técnicas de

Visualização da Informação e Mineração de Dados,

Dissertação de Mestrado em Métodos Numéricos em

Engenharia, Universidade Federal do Paraná.

Zhang, J., Langston, C. and Howard, K., 2008. Brightband

Identification Based on Vertical Profiles of

Reflectivity from the WSR-88D. Journal of

Atmospheric and Oceanic Technology, vol. 25, pp

1859.

Zhang, J. and Qi, Y., 2010. A Real-Time Algorithm for

the Correction of Brightband Effects

in Radar-Derived QPE. Journal of

Hydrometeorology, vol. 11, pp 1158.

Page 42: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

41

REDE NEURAL DE BASE RADIAL APLICADA À ESTIMATIVA DE CHUVA

Tiago Noronha dos Santos; Paulo Henrique Siqueira; Leonardo Calvetti.

Palavras-Chave: Redes Neurais Artificiais, Rede Neural de Base Radial, Relação ZR, Estimativa de Chuva.

1 INTRODUÇÃO

Estimar a quantidade de chuva que deve chegar à

superfície da Terra é uma tarefa que requer muitos estudos

e novas metodologias. Essa é a ideia proposta no presente

trabalho, que envolve os dados captados pelo radar

meteorológico do SIMEPAR e uma rede de 18

pluviômetros localizados a um raio de 200 km do radar. A

função da nova técnica é converter os dados de radar em

precipitação de chuva de forma que os valores se

aproximem ao máximo dos valores medidos pelos

pluviômetros.

2 INSTRUMENTOS DE MEDIÇÃO

2.1 Radar Meteorológico

Quando pulsos eletromagnéticos emitidos pelo radar

encontram algum objeto parte da energia é espalhada e

retorna para o radar recebendo o nome de refletividade. O

funcionamento do radar pode ser simplificado da seguinte

maneira: a antena é apontada em um ângulo baixo e emite

um pulso eletromagnético por uma fração de segundo, e

depois recebe o retorno da energia, em seguida o radar gira

a quantidade aproximada de 1° e repete o processo. Uma

vez que o radar completa uma revolução o ângulo de

elevação da antena é aumentado e repete-se o

procedimento (Beneti, 1999). O Instituto Tecnológico

SIMEPAR possui um radar meteorológico tipo Banda-S

Doppler, localizado na cidade de Teixeira Soares-PR, o

qual é utilizado na pesquisa. O radar pode cobrir tanto uma

área de 480 km de raio partindo do radar, quanto uma área

de 200 km. Os dados aqui utilizados são de 200 km.

2.2 Pluviômetro

Pluviômetros são instrumentos para medir a precipitação

de chuva. Existem vários modelos e formas de

pluviômetros e dentre esses utilizaremos os chamados de

tipping bucket (tipo báscula ou caçamba) que são os

utilizados pelo SIMEPAR. Este tipo de pluviômetro envia

um sinal elétrico (pulso) para cada unidade de precipitação

coletada. Os tipping buckets consistem em duas caçambas

triangulares ligadas à esquerda e à direita de um eixo de

rotação, cada uma com a capacidade equivalente para uma

determinada quantidade de precipitação. O interruptor é

conectado a essas caçambas para gerar um sinal elétrico a

cada vez que a caçamba enche, para este tipo de

pluviômetro essa quantidade é de 0,2 mm.

3 REFLETIVIDADE

O parâmetro definido por Rinehart (2004) foi nomeado

como Refletividade do Radar e pode ser representado pela

letra z, onde

sendo, o diâmetro da gota , e o somatório é feito sobre

o total número de gotas de tamanhos variados dentro de

uma unidade de volume de feixe. Considerando uma seção

de 1 metro cúbico do feixe de radar que contém uma

distribuição de gotas de chuva de tamanhos diferentes

(Mueller, 2013), por exemplo, 19 gotas, cada uma

identificada com o número de 1 a 19:

Figura 1: Exemplo de 1 metro cúbico de feixe de radar.

O somatório para o fator de refletividade do radar pode

ser expandido assim:

(2)

Nota-se que é proporcional à sexta potência dos

tamanhos de gota, logo, gotas maiores causam grandes

valores de refletividade quando comparadas com gotas

pequenas. Como o fator de refletividade do radar abrange

um grande intervalo de magnitudes, de

para nevoeiro, até para granizo do

tamanho de uma bola de tênis, é geralmente expresso em

decibéis de refletividade ou em da seguinte forma:

, (3)

aqui é importante distinguir de .

4 RELAÇÃO ZR

Existe uma relação entre a taxa de precipitação de chuva e

a refletividade do radar. Distribuições de tamanhos de

gotas medidos experimentalmente foram extensivamente

utilizados para calcular ambos. Traçando a taxa de

precipitação de chuva contra a refletividade ou

correlacionando ambas estatisticamente, pode-se

determinar a relação entre esses dois parâmetros. A relação

matemática mais usada é a empírica exponencial

onde é a taxa de precipitação , é o fator de

refletividade do radar , e e são constantes

empíricas. A Relação ZR mais comumente usada foi

desenvolvida por Marshall e Palmer (Rinehart, 2004),

.

5 FUNÇÕES DE BASE RADIAL

Uma Função de Base Radial (RBF - Radial Basis

Function) é definida como qualquer função que satisfaz a

seguinte condição (Haykin, 2001)

(|| ||) ou seja, quando seus valores funcionais são iguais às

normas de seus argumentos. Em outras palavras, uma

função é de base radial quando seu valor funcional

depende apenas da distância de seu argumento à origem.

Há várias RBFs, neste trabalho utiliza-se a função

gaussiana.

Page 43: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

42

(

)

6 REDES NEURAIS DE BASE RADIAL

Uma RBFNN (Radial Basis Function Neural Network)

utiliza funções de base radial como função de ativação dos

neurônios da camada escondida (da Mota, 2011). Na

arquitetura de uma RBFNN há apenas a camada com os

nós de entrada, a camada oculta com as funções de base

radial e uma camada de saída que possui funções lineares.

Cada neurônio da camada oculta possui um vetor

associado, chamado de centro do neurônio, o qual define o

centro do campo receptivo daquele neurônio. Estes

neurônios exercem forte influência sobre o desempenho da

rede. Seja a matriz de observações contendo

observações e variáveis, temos,

(

)

O valor de ativação do -ésimo neurônio da camada

escondida depende da distância euclidiana quadrática entre

a entrada e o centro , onde é o centro do -

ésimo neurônio. Então, de acordo com a abordagem

clássica, treinar uma RBFNN é calcular a matriz de pesos,

(

)

de maneira a ajustar aos alvos cada , como podemos ver

na equação:

∑ (‖ ‖)

7 APLICAÇÃO E CONCLUSÕES

A RBFNN foi desenvolvida utilizando os dados da estação

meteorológica de Curitiba-PR observados no período de

01 de dezembro de 2008 até 04 de setembro de 2010. Os

dados dos pluviômetros são medidos em um intervalo de

15 minutos e à cada hora, já os dados do radar são obtidos

em aproximadamente 10 minutos, então fez-se a média

horária para a comparação.

Escolheu-se os dados de refletividade do radar do dia 01

de abril de 2011 para aplicar a rede neural, neste dia

ocorreu uma forte tempestade na região de Curitiba, o que

torna interessante a visualização.

Figura 2: Relação ZR – Imagem de Estimativa de Chuva.

Figura

3: Rede Neural – Imagem de Estimativa de Chuva.

Com as Figuras 2 e 3 é fácil notar a similaridade da

Relação ZR com a RBFNN, o padrão do evento

meteorológico foi mantido.

8 PRÓXIMAS ETAPAS

Sabendo da necessidade de se realizar testes mais

consistentes para a comparação dos resultados, pretende-se

analisar o tempo computacional para as diferentes

configurações da rede neural além de utilizar o valor

máximo da refletividade do radar em cada hora ao invés da

média dos valores.

REFERÊNCIAS

Beneti, C., Nozu, I., e Saraiva, E.A., Monitoramento da

precipitação e de eventos de tempo severo no estado

do Paraná. Relatório técnico, SIMEPAR, 1999.

da Mota, J.F., Siqueira, P.H., de Souza, L.V., e Vitor, A.,

Uma rede neural de base radial baseada em

computação evolucionária. XXXII CILAMCE, 2011.

Haykin, S., Redes Neurais: princípios e prática (Tradução

de Paulo Martins Engel). Bookman, Porto Alegre,

Brasil, 2001.

Mueller, B., Radar Equation. Disponível em:

<http://wx.db.erau.edu/faculty/mullerb/Wx365/Radar

_equation/radar_equation.pdf>. Acesso em 20 de jul.

2013.

Rinehart, R.E., Radar for meteorologists. Rinehart

Publications, Nevada, USA, 2004.

Page 44: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

43

MONITORAMENTO DA BARRAGEM DE ITAIPU VIA MÉTODOS

ESTATÍSTICOS MULTIVARIADOS

Suellen Ribeiro Pardo Garcia; Anselmo Chaves Neto.

Palavras-Chave: regressão linear multivariada, componentes principais, deslocamentos, variáveis ambientais.

1 INTRODUÇÃO

O monitoramento da estrutura de uma barragem é uma

atividade permanente dos engenheiros e profissionais

envolvidos com a segurança da obra.

No monitoramento, as inspeções visuais e instrumentadas

geram uma enorme massa de dados que quando tratada por

método estatístico adequado fornece informações sobre o

comportamento da estrutura mediante variações

ambientais, variações no nível do reservatório, efeitos do

tempo, entre outros. Este banco de dados deve ser

analisado e as relações existentes entre as variáveis devem

ser interpretadas de modo a permitir ações corretivas a

qualquer indicativo de anormalidade.

Modelos estatísticos têm sido utilizados para analisar e

interpretar os dados da instrumentação. Geralmente são

baseados em correlações existentes entre fatores como o

nível de água do reservatório, a temperatura ambiente,

entre outros e os efeitos causados na barragem como

tensões, deformações e deslocamentos.

Neste contexto, pretende-se desenvolver um modelo

estatístico de regressão multivariada, onde as medidas em

vários instrumentos dos deslocamentos da barragem

compõem o vetor de respostas e as variáveis independentes

(preditoras) são o nível do reservatório, temperatura

ambiente e efeitos do tempo.

2 BARRAGEM DE ITAIPU

O objeto deste estudo é a barragem da usina hidrelétrica de

ITAIPU, que é a maior usina hidrelétrica do mundo em

geração de energia. Essa barragem é composta por dois

trechos de barragens de terra, um trecho de barragem de

enrocamento e um trecho de concreto.

A barragem principal (F) (ver Figura 1) é a do trecho de

concreto, por ela passa a água que movimenta as turbinas

para a geração de energia. Trata-se do trecho com maior

altura de coluna de água da barragem e, portanto,

corresponde ao trecho mais crítico, logo é o mais

instrumentado. O trecho F foi escolhido, neste trabalho,

para análise dos dados de instrumentação.

O vetor de respostas na regressão multivariada é composto

pelas medidas dos deslocamentos. Os instrumentos que

captam essas medidas são:

1) Pêndulo direto: que mede os deslocamentos horizontais

de pontos dos blocos instrumentados da barragem em

determinadas cotas, em relação à fundação da estrutura.

2) Pêndulo invertido: que mede os deslocamentos da

fundação da barragem em relação a um ponto da fundação

suficientemente profundo para ser considerado fixo.

3) Medidor elétrico de junta: que mede os deslocamentos

de abertura e fechamento de determinadas juntas de

contração de estruturas de concreto.

4) Base de alongâmetro: que mede abertura, fechamento,

recalque e deslizamento entre blocos.

3 ANÁLISE MULTIVARIADA DE DADOS.

Na análise multivariada tem-se procedimentos que são

usados para descrever como as medições sobre variáveis

preditoras z1, z2, ... , zr estão relacionadas com algumas

variáveis resposta y1, y2, ... , ym. Neste caso, multivariado,

cada resposta é um modelo de regressão. Assim tem-se:

mrrmmmm

rr

rr

zzy

zzy

zzy

...

...

...

110

22112022

11111011

(1)

O vetor de erros ε’=[ε1, ε2, ... , εm] tem E(ε) = 0 e V(ε)=Σ.

Os erros associados com diferentes respostas podem estar

correlacionados (Johnson e Wichern, 2007). E, ainda, seja

[zj0, zj1, ..., zjr] os valores das variáveis preditoras para a j-

ésima prova, y’j=[yj1, yj2, ... , yjm] as respostas e ε’j=[εj1, εj2,

... , εjm] os erros. O modelo de regressão linear

multivariado, em notação matricial, fica definido por:

)())1(())1(()( nxmxmrrnxnxm

ZY

(2)

com E(ε(i)) = 0 e cov(ε(i), ε(k)) = σikI, i, k = 1, 2,..., m.

As m observações da j-ésima prova tem matriz de

covariância Σ={σik}, mas observações de diferentes provas

são não correlacionadas (Johnson e Wichern, 2007). Os

parâmetros desconhecidos são β e σik e a matriz Z tem

linha j [zj0, zj1, ..., zjr]. Simplificando, a i-ésima resposta em

Y segue o modelo de regressão linear

, ..., m, iZY iii 21 ,)()()( (3)

com ii(i)V(ε )=σ I . No entanto, os erros de diferentes

respostas na mesma prova podem estar correlacionados.

Então, dadas as respostas Y e os valores das variáveis

preditoras Z com posto coluna completo, determinam-se os

estimadores de β(i) por mínimos quadrados, assim,

YZZZ ')'(ˆ 1 (4)

Nesse contexto, as variáveis respostas correspondem às

medidas dos instrumentos quanto aos deslocamentos da

estrutura de concreto da barragem. Já as variáveis

preditoras correspondem à temperatura do ar, o nível do

reservatório e efeitos do tempo. A regressão multivariada

será aplicada ao conjunto de observações simultâneas de

forma a modelar a relação entre o conjunto de variáveis

Figura 1: Trecho F destacado em vermelho.

Page 45: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

44

dependentes e o conjunto de variáveis independentes.

Previsões poderão ser feitas com o modelo ajustado.

3.1 Análise de Componentes Principais (PCA)

A PCA é amplamente utilizada para diminuir a

redundância dos dados e reduzir a dimensionalidade do

espaço das variáveis com uma perda mínima de

informação, melhorando a eficiência da análise (Yu,

2010).

Nos dados de monitoramento de uma barragem, o número

de variáveis preditoras é geralmente limitado e menor do

que o número de variáveis de resposta (instrumentos

diferentes). Assim, a principal aplicação da PCA, é quando

aplicada às variáveis de resposta. Entretanto, como o

método PCA não leva em conta a relação entre variáveis

preditoras e variáveis de resposta durante o processo de

decomposição, pode ser aplicado tanto para variáveis

preditoras ou respostas, ou ambas. Neste último caso, as

componentes principais para as variáveis preditoras e

variáveis de resposta são obtidas em operações separadas e

por fim, as componentes principais da variável resposta

são então regredidas em relação às componentes principais

das variáveis preditoras (Jackson, 1991).

Neste contexto, a PCA, será utilizada nos dados de entrada

do modelo de regressão multivariada.

A PCA procura explicar a estrutura de variância-

covariância da matriz de dados através de combinações

lineares não correlacionadas das variáveis originais. Seja o

vetor aleatório X’= [X1, X2, ..., Xp] que tem vetor de

médias µ = E(X) e matriz de covariância Σ = V(X).

Considere as combinações lineares:

ppppppp

pp

pp

xcxcxcXcy

xcxcxcXcy

xcxcxcXcy

2211

222211222

122111111

'

'

'

(5)

Na forma matricial, segue que:

XCYpxp)(

(6)

As PC´s são as combinações lineares não correlacionadas

Y1, Y2, ... , Yp tal que:

1) a 1ª componente principal é a combinação linear com

variância máxima, isto é, a combinação linear que

maximiza V(c1’X) sujeito a restrição c1’c1=1;

2) a 2ª componente principal é a combinação linear que

maximiza V(c2’X) sujeito a restrição c2’c2=1 e assim por

diante.

O resultado matemático abaixo determina quem são os

coeficientes das combinações lineares.

Resultado: Seja Σ a matriz de covariância associada ao

vetor aleatório X’= [X1, X2, ..., Xp] e que tem os pares de

autovalor-autovetor (λ1, e1), (λ2, e2), ... , (λp, ep) onde λ1≥

λ2≥ ... ≥ λp≥ 0. A i-ésima componente principal é dada por

Yi = ei’X, que tem V(Yi) = V(ei’X) = ei’Σei = λi e cov(Yi,

Yk) = 0 i≠k (Johnson e Wichern, 2007).

A porcentagem de variância dos dados originais explicada

pelas primeiras k componentes principais é:

mk

j

m

j

j

k

j

%,100x

1

1

(7)

que é denominada de taxa de contribuição acumulada.

Este é um dos critérios para a determinação do número de

componentes principais. O valor esperado para esta taxa

depende da exigência do pesquisador. Acima de 90% seria

um valor muito satisfatório em qualquer situação.

Se a maior parte da variância populacional pode ser

atribuída a k componentes, então estas k componentes

substituem as p variáveis originais com mínima perda de

informação.

4 CONCLUSÕES

Com a aplicação de métodos multivariados pretende-se

modelar as respostas de deslocamento da barragem de

Itaipu diante da variação do nível do reservatório,

temperatura ambiente e efeitos do tempo. Assim, um

procedimento para análise e diagnóstico baseado nos

métodos estatísticos multivariados pode ser efetivamente

usado para monitorar a barragem, em vez de monitorar os

instrumentos individualmente.

Os intervalos de confiança podem ser utilizados para

prever os limites mínimos e máximos previstos no modelo

e se uma alteração estatisticamente significativa é

detectada os instrumentos individuais altamente

correlacionados do componente principal podem ser

revistos. Isto pode reduzir significativamente o custo de

vigilância barragem e diminuir falsos alarmes.

REFERÊNCIAS

Bonelli S, Royet P. Delayed response analysis of dam

monitoring data. Dams in a European Context, Swets

and Zeitlinger, Lisse, 91–99, 2001.

Chouinard, L. and Roy, V., Performance of Statistical

Models for dam Monitoring Data, Joint International

Conference on Computing and Decision Making in

Civil and Building Engineering, Montreal, 14-16,

2006.

ITAIPU: Usina Hidrelétrica-projeto: aspectos da

engenharia, Foz do Iguaçu, 2009.

Jackson, J. E., A User's Guide to Principal Components,

(Wiley Series in Probability and Statistics), 2003.

Johnson, R. and Wichern, D. W., Applied Multivariate

Statistical Analysis, 6th Edition, Prentice Hall, New

Jersey, 2007.

Yu, H., Wu, Z., Bao T., and Zhang L., Multivariate

analysis in dam monitoring data with PCA, Science

China Technological Sciences,1088–1097, 2010.

Page 46: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

45

USO DE REDES NEURAIS ARTIFICIAIS NA MINIMIZAÇÃO DOS TEORES DE

SODA CÁUSTICA NO REJEITO DO PROCESSO DE PRODUÇÃO DE

ALUMINA

Ruy Gomes da Silva; Anderson Roges Teixeira Góes; Maria Teresinha Arns Steiner.

Palavras-Chave: Redes Neurais Artificiais. Alumina. Processo Bayer.

1 INTRODUÇÃO

O processo mais utilizado industrialmente para a produção

de alumina é denominado Processo Bayer, que consiste em

misturar a bauxita moída a uma solução de soda cáustica,

com a qual a mesma reage sob pressão e temperatura (LUZ

e LINS, 2005).

O Processo Bayer, desenvolvido pelo químico austríaco

Karl Joseph Bayer, em 1889, é, atualmente, o único

processo economicamente viável para a produção de

alumina (HIND et al., 1999; SILVA FILHO et al., 2007).

Dentro do complexo processo de extração da alumina

destaca-se a “lavagem e filtração da lama vermelha”, que

tem como principal finalidade, a retirada de soda cáustica

contida no rejeito (lama vermelha) antes de seu descarte.

Os filtros rotativos que compõem o processo de lavagem

da lama vermelha operam com a utilização de uma grande

quantidade de variáveis, que combinadas promovem a

retirada de soda cáustica desta lama que, em seguida, é

transferida para uma bacia de contenção exposta no meio

ambiente preparada para tal fim.

Para a lavagem da lama vermelha, uma série de variáveis

são combinadas visando o melhor desempenho possível da

atividade.

A lama vermelha é descartada em bacias planejadas de tal

forma que não tenham contato direto com o solo. Porém

gera um grande desmatamento.

Este desmatamento poderia ser amenizado, caso esta lama

vermelha fosse reaproveitada em outro processo de

fabricação, uma vez que tal rejeito não pode ser

reaproveitado devido ao elevado volume de soda cáustica

contida na lama.

Assim, este trabalho tem por objetivo utilizar,

inicialmente, uma Rede Neural Artificial (RNA) para

reconhecer no rejeito de um processo de produção de

alumina, a Lama Vermelha, os diferentes teores de soda

cáustica gerados pelas diferentes entradas.

Após o Reconhecimento de Padrão (RP), pretende-se

construir, então, um modelo matemático capaz de

minimizar o teor cáustico contido no rejeito, através da

melhor combinação entre variáveis de entrada do processo

minimizando, desta forma, o teor de soda cáustica contida

na lama vermelha.

2 REDES NEURAIS ARTIFICIAIS

Realizar a otimização de um processo não é uma tarefa

simples, uma vez que se pode deparar com variáveis

qualitativas e quantitativas, correlacionadas, ou não. No

entanto, existem inúmeras técnicas que podem nos auxiliar

neste processo.

No caso de processos com sistemas de controle

complexos, é possível a utilização de técnicas de

Reconhecimento de Padrões (RP) como, por exemplo, as

Redes Neurais Artificiais (RNA), pelo fato de possuírem

capacidade de modelar sistemas complexos lineares e não

lineares e também por possuírem mecanismos de

aprendizagem. Por este motivo, as RNA foram idealizadas

como uma técnica adequada a ser utilizada em controles de

processos adaptativos sujeita a incertezas nos controles das

variáveis de processos (CAMPOS e SAITO, 2004).

Uma RNA funciona inspirada na estrutura do cérebro

humano que é responsável pela execução das funções

sensoras, motoras e autônomas do corpo, além das

emoções, pensamento e percepção. O cérebro tem ainda,

dentre inúmeras outras funções, a capacidade de

reconhecer padrões, armazenar conhecimento através de

experiências e interpretar observações (BRAGA et al.,

2000).

Haykin (2005) afirma que uma RNA pode ser vista como

uma máquina adaptativa com capacidade de aprendizagem,

graças à interligação maciça de células computacionais

denominadas neurônios. Ela pode ser definida ainda como

“um processador paralelamente distribuído constituído de

unidades de processamento simples, que tem a propensão

natural para armazenar conhecimento experimental e

torná-lo disponível para uso”.

Uma RNA é composta por várias unidades de

processamento, cujo funcionamento é bastante simples.

Essas unidades são geralmente conectadas por canais de

comunicação que estão associados a determinados pesos.

As unidades fazem operações apenas sobre seus dados

locais, que são entradas recebidas pelas suas conexões. O

comportamento inteligente de uma RNA vem das

interações entre as unidades de processamento da rede.

São muitos os algoritmos de aprendizagem de RNA:

backpropagation; Levenberg-Marquardt (LM); dentre

outros (HAGAN & MENHAJ, 1994; FAUSSET, 1994;

HAYKIN, 2005).

Arquiteturas neurais são tipicamente organizadas em

camadas, com unidades que podem estar conectadas às

unidades da camada posterior, como ilustrado na Figura 1

a seguir.

Figura 1 – Arquitetura típica de um neurônio artificial.

Fonte: Haykin (2005).

3 OBTENÇÃO DOS RESULTADOS

Page 47: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

46

Uma série de registros (amostras) foi coletada pelo

especialista de processo da área de produção da lama

vermelha, que os identificou como sendo os atributos de

entrada e a variável de saída. A Tabela 1, a seguir, mostra

alguns destes registros, onde a vairável x1 representa a

densidade, x2 a pressão de vácuo, x3 o nível da bacia, x4 a

rotação do filtro, x5 o condensado de lavagem, x6 o teor

total de soda, e como variável de saída, a concentração de

soda na lama (y).

Tabela 1 – Dados do processo de lavagem de lama.

Fonte - Autores (2013).

Tais registros serviram de base para o treinamento e teste

da RNA e foram coletadas diariamente (duas vezes por

dia), por 100 dias, sempre em horários pré-estabelecidos,

perfazendo um total de 200 amostras. A RNA de

multicamadas desenvolvida têm seis neurônios na camada

de entrada correspondentes a cada uma das entradas

apresentadas na Tabela 1; um número variável de

neurônios na camada oculta/intermediária, variando de um

a 20 neurônios, e um neurônio na camada de saída

correspondente a concentração de soda cáustica na lama.

Para cada uma das tipologías, aqui denotada por (6-

variável-1), o treinamento da rede se deu através do

procedimento holdout, ou seja, 70% do total de registros

foi utilizado para o treinamento da RNA e 30% dos

registros foram utilizados para os testes; tal procedimento

foi realizado 10 vezes, com os pesos iniciais aleatórios,

variando no intervalo (-1, 1). As taxas de aprendizagem e

de momento, ambas variando no intervalo de (0, 1),

ficaram definidas em 0,8 no início do treinamento e foram

sendo ajustadas de acordo com o aprendizado da rede.

A análise gráfica obtida pela resposta da rede treinada

permite inferir que os valores previstos pela RNA em sua

grande maioria conseguem retratar os valores reais do

processo, conforme podemos visualizado na Figura 2, a

seguir.

Figura 2 – Gráfico resultados da rede neural

Fonte: Autores (2013)

A RNA usada conseguiu gerar valores aproximados aos

dados reais com um bom desempenho. Comparando as

saídas dos dados reais com os dados simulados obteve-se

um erro médio quadrático calculado de 0,015192 dentro do

intervalo de especificação do processo para os limites de

segurança verificados previamente.

4 CONSIDERAÇÕES FINAIS

Os resultados apresentados na seção 3 anterior,

demonstram que a RNA é uma ferramenta bastante

adequada para o tratamento do problema aqui abordado.

Pretende-se ainda utilizar outras técnicas para o RP para o

problema aqui abordado, verificando qual delas conseguirá

obter o mínimo erro. Realizado o RP, pretende-se

construir, na sequência, um modelo matemático capaz de

minimizar o teor cáustico contido no rejeito, através da

melhor combinação entre variáveis de entrada do processo,

fazendo com que o rejeito da produção de alumina possa

ter a possibilidade de ser utilizada em outros processos

produtivos como, por exemplo, da construção civil.

REFERÊNCIAS

BRAGA, A, P; LUDEMIR, T.B; CARVALHO, A.C.P.L.

Redes Neurais Artificiais: Teoria e Aplicações. LTC –

Livros Técnicos e Científicos / Editora S.A. – Rio de

Janeiro, 2000.

CAMPOS, M.M; SAITO, K. Sistemas inteligentes em

controle e automação de processos. Rio de Janeiro:

Editora Ciência Moderna Ltda, 2004.

FAUSSET, L. V. Fundamentals of Neural Networks:

architecture, algorithms, and applications. New Jersey:

Prentice Hall International, 1994.

HAYKIN, S. Redes Neurais: Princípios e Práticas; trad.

Paulo Martins Engel. – 2. ed. – Porto Alegre:

Bookman, 2005.

HAGAN, M. T. e MENHAJ, M. B. Training feedforward

networks with Marquardt algorithm. IEEE

Transactions on Neural Networks, v.5, n.6, p.989-993,

1994.

HIND, R. A.; BHARGAVA, S. K. e GROCOTT, S. C.

The surface chemistry of Bayer process solids: a

review. Colloids and surfaces A. Physicochemical and

engineering aspects, n.146, p.359-374, 1999.

LUZ, A.B; LINS, F.A.F. Rochas & Minerais Industriais:

usos e especificações. 2. ed. Rio de Janeiro:

CETEM/MCT, 2005.

SILVA FILHO, E. B.; ALVES, M. C. M. e MOTA, M.

Lama vermelha da indústria de beneficiamento de

alumina: produção, características, disposição e

aplicações alternativas. Revista Matéria, v.12, n.2,

p.322-338, 2007.

So

da

na

La

ma

(g/l

)

Nº de Amostras

Valores Reais X

Estimados Real

Estima

do

n x1 x2 x3 x4 x5 x6 y

1 1,42 0,45 20 2,1 26 39,1 8,9

2 1,42 0,52 25 2,2 22 79,9 17,9

3 1,43 0,35 20 2,0 22 60,4 13,0

. . . . . . . .

. . . . . . . .

199 1,47 0,33 21 1,7 22 48,9 16,6

200 1,49 0,33 18 2,2 23 56,3 18,6

Page 48: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

47

META-HEURÍSTICA GRASP ADAPTADA PARA EXTRAÇÃO DE REGRAS DE

CLASSIFICAÇÃO

Genival Pavanelli; Maria Teresinha Arns Steiner; Anderson Roges Teixeira Góes; Alessandra Memari Pavanelli.

Palavras-Chave: Procedimento de Busca Guloso, Aleatório e Adaptativo, Data Mining, Extração de regras.

1 INTRODUÇÃO

Este artigo propõe a aplicação de um procedimento de

Busca Guloso, Aleatório e Adaptativo (Greedy

Randomized Adaptive Search Procedure – GRASP) (Feo;

Resende, 1995), (Pitsoulis; Resende, 2002), (Resende;

Ribeiro, 2002) e (Resende; Silva, 2013) como ferramenta

de Data Mining (DM) para a tarefa de extração de regras

de classificação em bases de dados.

2 REVISÃO DE LITERATURA

2.1 Descoberta de Conhecimento em Base de Dados

O termo descoberta de conhecimento em bases de dados,

vem do inglês Knowledge Discovery in Databases (KDD),

é um processo não trivial de descoberta de padrões válidos,

novos, úteis e acessíveis (Fayyad et al., 1996).

2.2 Procedimento de Busca Gulosos, Aleatórios e

Adaptativos O procedimento de Busca Guloso, Aleatório e Adaptativo

é uma meta-heurística iterativa de multi-partidas para

problemas de otimização combinatória (Resende; Silva,

2013). Cada iteração é composta de duas fases: uma de

construção e a outra de busca local (Feo; Resende, 1995),

(Pitsoulis; Resende, 2002) e (Resende; Ribeiro, 2002). A

fase de construção consiste na elaboração de uma solução

factível aleatória, a qual sofrerá um processo de busca

local na próxima fase. Esse processo é repetido várias

vezes e a melhor solução dentre todas as iterações é

selecionada como resultado final do GRASP.

3 HEURÍSTICA BASEADA EM GRASP PARA

EXTRAÇÃO DE REGRAS

O objetivo da heurística proposta não é extrair uma única

regra que apresente melhor precisão preditiva, mas sim,

um conjunto de regras com grande precisão preditiva que

classifique corretamente os padrões que compõem o banco

de dados, assim ao final de cada iteração da heurística

proposta, o algoritmo apresenta como saída um conjunto

de regras que posteriormente serão utilizadas na confecção

do classificador.

O primeiro passo para iniciar a construção do conjunto de

regras é definir o parâmetro k que indica quantos

elementos irão compor o conjunto de antecedentes da regra

de classificação. A primeira fase da heurística proposta, ou

seja, a fase de construção da regra é iterativa, de maneira

que a cada iteração desta fase, um elemento é acrescido à

regra parcial até obter-se a regra completa. Os candidatos a

comporem a regra são obtidos a partir do conjunto de

elementos que não comprometem a viabilidade da regra,

ou seja, elementos que quando inseridos à regra

classifiquem pelo menos um padrão da base de dados. O

próximo elemento a compor a regra é sorteado

aleatoriamente de uma Lista Restrita de Candidatos (LRC),

que é construída com base em uma função de avaliação

aleatória e gulosa. Para compor a LRC o candidato deve

apresentar, quando inserido a regra, um suporte maior ou

igual a um valor (Δ) pré-definido com base no parâmetro α

conforme a equação (1) a seguir:

)( minmaxmin sss (1)

onde smax é o maior suporte, smin o menor suporte das

regras e α um parâmetro.

Como se pode observar na equação (1), o parâmetro α

determina o quão guloso ou aleatório será a inserção de um

novo elemento à regra durante a sua construção. Neste

caso, para α = 0, o algoritmo é puramente aleatório,

enquanto que para α = 1, o algoritmo é puramente guloso.

No final da fase de construção aleatória e gulosa do

GRASP, a regra apresentada possui k elementos. Na

próxima fase do procedimento GRASP para extração de

regras de classificação, o objetivo é realizar uma busca

local nas vizinhanças da regra apresentada na fase anterior

a fim de buscar outras regras de boa qualidade. O

algoritmo proposto para esta fase estabelece todas as

combinações possíveis, gerando regras com (k-1)

elementos no antecessor, em seguida, (k-2) elementos, e

assim sucessivamente até obter as regras com apenas um

elemento no antecessor da regra.

4 IMPLEMENTAÇÃO DAS TÉCNICAS PARA A

RESOLUÇÃO DO PROBLEMA

A heurística apresentada na seção anterior foi aplicada em

uma base de dados extraída da 1ª Vara da Justiça do

Trabalho de São José dos Pinhais-PR. Esta base de dados é

composta de 100 processos (instâncias) distribuídos em

três classes distintas de acordo com o tempo de duração do

processo: tempo longo, tempo médio e tempo curto. Cada

instância conta com 10 atributos previsores, listados a

seguir: Objeto do Processo, Salário do Reclamante, Rito

do Proceso, Perícia, Tempo de Serviço, Acordo,

Profissão, Recurso Ordinário, Recurso de Revista e

Número de Audiências.

Page 49: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

48

A fim de que a heurística apresentasse consistência no seu

desempenho, com relação à extração de regras que

classificassem corretamente cada processo de acordo com

o seu tempo de duração, cada um dos atributos acima

citados foi "tratado" de maneira a corresponder a uma ou

mais coordenadas binárias (Lu et al., 1996), (Baesens et

al., 2003), vetor de entrada da heurística.

Para a implementação da heurística proposta foi

desenvolvido um programa computacional utilizando a

linguagem de programação Visual Studio 2012.

No teste aplicado estabeleceu-se como critério de parada o

número de iterações igual a 100, e o parâmetro (α) foi

definido com valor de 0,5 (α = 0,5). A partir deste teste

foram extraídas 71 regras com confiança média é de 93%.

A partir destas regras foi construído um classificador que

apresentou uma precisão de 82% para a base de dados

conforme pode ser observado na matriz de confusão a

apresentada na Tabela 1 a seguir.

Classe Tp

Curto

Tp

Médio

Tp

Longo

Precisão

Classe

Precisão

Classificador

Tp

Curto 22 2 3 22/27

82/100 Tp

Médio 0 36 1 36/37

Tp

Longo 0 12 34 24/36

Tabela 1: Matriz de Confusão do Classificador.

A partir da matriz de confusão apresentada na Tabela 1

pode-se observar que o classificador apresentou a maior

precisão (97,3%) para a classe “Tp Médio”. Por outro lado,

a menor precisão foi estabelecidada para a Classe “Tp

Longo”, apresentando valor de 66,7%. A precisão do

classificador foi igual a 82% neste teste, o que caracteriza

uma boa capacidade de generalização.

5 COMPARAÇÃO DOS RESULTADOS OBTIDOS

PELA META-HEURÍSTICA PROPOSTA COM A

TÉCNICA DE ÁRVORES DE DECISÃO

Buscando estabelecer comparações foram realizados

quatro testes com a técnica de árvores de decisão a partir

do software WEKA (Waikato Environment for Knowledge

Analysis). Os testes foram aplicados utilizando os

seguintes algoritmos: BFTree, Id3, REPTree e J4.8. Cabe

ressaltar que todos os testes, tanto o da meta-heurística

proposta neste trabalho quanto aqueles realizados a partir

do software WEKA utilizaram-se dos mesmos conjuntos

de dados. Este fato justifica a comparação entre os

métodos.

A Tabela 2 a seguir apresenta o número de instâncias

classificadas correta e incorretamente em todos os

algoritmos aplicados de árvores de decisão (BFTree, Id3,

REPTree e J4.8), bem como da heurística proposta neste

trabalho. BFTree Id3 RepTee J48 Heurísitca

Instâncias

classificadas

corretamente

70 72 66 68 82

Instâncias

classificadas

incorretamente 30 28 34 26 18

Tabela 2: Comparação dos Testes.

Como se pode observar a partir da Tabela 2, a meta-

heurística baseada em GRASP, proposta neste trabalho,

apresentou melhores resultados quando comparados aos

algoritmos de árvore de decisão.

6 CONCLUSÕES

Este trabalho teve como objetivo principal apresentar uma

meta-heurística inédita baseada no procedimento GRASP a

fim de extrair regras de classificação de bases de dados. O

objetivo proposto foi atendido uma vez que o algoritmo

apresentou eficácia ao extrair 71 regras de classificação

distintas com confiança média das regras igual a 93%,

possibilitando a confecção de um classifcador cuja

acurácia foi de 82%.

Ao comparar os resultados obtidos pela meta-heurística

proposta com a técnica de árvores de decisão, constata-se

que a qualidade do classificador baseado na meta-

heurística GRASP apresenta resultados superiores às

demais técnicas.

Diante dos resultados obtidos a partir dos testes

executados, nota-se que a heurística inédita proposta

apresenta os requisitos básicos para executar a tarefa de

Data Mining, mais especificamente, a tarefa de extração de

regras de classificação utilizando como método uma

heurística baseada no procedimento GRASP.

REFERÊNCIAS

Baesens, B.; Setiono, R.; Mues, C. & Vanthienen, J.

(2003). Using Neural Network Rule Extraction and

Decision Tables for Credit-Risk Evalution.

Management Science Informs, vol. 49, n° 3, p. 312-

329.

Fayyad, U. M.; Piatetsky-Shapiro, G.; Smyth, P. &

Uthrusamy, R. Advances in knowledge Discovery&

Data Mining.California: AAAI/MIT, 1996.

Feo, T. & Resende, M. Greedy Randomized Adaptive

Search Procedures. Journal of Global Optimization,

v. 6, n. 2, p. 109133, 1995.

Lu, H.; Setiono, R. & Liu, H. (1996). Effective Data

Mining Using Neural Networks. IEE Transactions on

Knowledge an Data Engineering, vol. 8, n° 6, p.957-

961.

Pitsoulis, L. & Resende, M. Greedy Randomized Adaptive

Search Procedures. In: P.M.PARDALOS;

M.G.C.RESENDE (Ed.). Handbook of Applied

Optimization. [S.l.]: Oxford University Press, 2002.

p. 168181.

Resende, M. & Ribeiro, C. Greedy Randomized Adaptive

Search Procedures. In: GLOVER, F.;

KOCHENBERGER, G. (Ed.). Handbook of

Metaheuristics. [S.l.]: Kluwer Academic Publishers,

2002. p. 219249.

Resende, M. G. C. & Silva, R. M. A., Meta-Heurísticas em

Pesquisa Operacional. (Ed) Omnipax, 2013

Page 50: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

49

ABORDAGEM DA TEORIA DOS JOGOS EM PERIÓDICOS QUALIS CAPES B2

Adriana Kroenke; Vania Gryczak; Volmir Eugênio Wilhelm.

Palavras-chave: Teoria dos Jogos, Periódicos, Qualis CAPES.

1 INTRODUÇÃO

A Teoria dos Jogos tem como objeto de análise situações

nas quais as ações de indivíduos dependem

substancialmente das ações de outros indivíduos

envolvidos. Desta forma, entende-se que nenhum

indivíduo pode tomar decisões sem considerar as possíveis

decisões dos outros. Estes indivíduos são ditos jogadores.

A demonstração do Teorema Minimax feito por Von

Neumann, em 1928, foi o primeiro passo para o

desenvolvimento da Teoria dos Jogos. Em 1944, em

parceria com Morgenstern, propôs a análise do

comportamento econômico via perspectiva do “jogo de

estratégia” criando a expectativa de reformulação da teoria

econômica numa base totalmente nova na qual o conceito

de “processo competitivo” seria reestruturado em termos

de mecanismos em que os agentes econômicos atuam

estrategicamente (Von NEUMANN; MORGENSTERN,

1972).

O Teorema Minimax foi demonstrado por Jonh F. Nash,

em 1950, para grande número de agentes. Enquanto a

análise do problema do equilíbrio geral, conduzida

principalmente por Anow, Debreu e McKenzie, era

estritamente paramétrica, ao considerar os agentes

econômicos como “tomadores de preços”, a Teoria dos

Jogos, de posse de novos recursos técnicos, permitia

analisar a questão da formação de preços como resultado

de um amplo processo de barganha multilateral.

Nos anos de 1960 a Teoria dos Jogos ficou restrita a

pequenos grupos. Somente a partir da segunda metade dos

anos sessenta os engenheiros e economistas começaram a

perceber a teoria dos Jogos como instrumento de

considerável alcance para a questão da análise, projeto e

implementação de mecanismos de alocação de recursos.

Para tal propósito, envolveu-se na construção de

mecanismos de alocação ou de planejamento que

obtivessem resultados “satisfatórios”. Como cada

mecanismo de alocação de recursos contém implicitamente

definido um jogo, abre-se assim um novo campo de

pesquisa: a análise e projeto de mecanismos de alocação

de recursos por meio das técnicas da Teoria dos Jogos.

Diante do exposto elaborou-se a seguinte questão de

pesquisa: Quais são os temas referentes a Teoria dos Jogos

abordados nos artigos publicados em periódicos Qualis

CAPES classificadas como B2 em Engenharias III no

período de 1998 a 2012? Destaca-se que o Qualis CAPES

é a lista resultante da avaliação da qualidade da produção

científica dos programas de pós-graduação realizada pela

CAPES a cada triênio.

Visando responder a esta questão, o presente estudo tem

como objetivo identificar os temas referentes à Teoria dos

Jogos abordados nos artigos publicados em periódicos

Qualis CAPES classificadas como B2 em Engenharias III.

Os periódicos Qualis A1, A2 e B1 são internacionais, para

tanto, analisou-se a produção acadêmica, utilizando os

principais periódicos nacionais (Qualis CAPES B2), na

área de Engenharias III, no período de 1998 à 2012.

A justificativa para a realização deste estudo é possibilitar

uma avaliação do atual grau de desenvolvimento da Teoria

dos Jogos. Além disso, o processo de interação estratégica,

em razão de sua multidisciplinariedade, permite à área de

Engenharias III, uma oportunidade de reflexão.

2 METODOLOGIA

No que se refere à metodologia, esta pesquisa se

caracteriza como descritiva, realizada por meio de um

estudo bibliométrico com abordagem quali-quantitativa.

Andrade (2005, p. 124), cita que nas pesquisas descritivas

“os fatos são observados, analisados, classificados e

interpretados, sem que o pesquisador interfira neles”. Este

estudo classifica-se como descritivo por apresentar os

artigos com tema em Teoria dos Jogos abordados nos

periódicos nacionais do Qualis CAPES B2 na área de

Engenharias III.

A seleção dos artigos foi realizada em apenas uma etapa,

na qual foram localizadas terminologias no título, resumo

e palavras-chave. Foi utilizada a terminologia Teoria dos

Jogos, totalizando oito artigos, publicados em quatro

periódicos classificados no Qualis CAPES B2.

Após a etapa de mapeamento, os oito artigos que

compõem a amostra foram submetidos à análise de

conteúdo. No decorrer do processo de leitura e

interpretação dos artigos científicos, foram criados alguns

critérios de análise que serviram de base para uma ficha

padronizada. A ficha padronizada contemplou os seguintes

tópicos: Nome do periódico e ISNN, Localização da

palavra pesquisada: Título, resumo ou palavras-chave, Ano

de publicação, Quantidade de autores, Autores e Vínculo

Institucional dos autores, Departamento dos autores, Título

do artigo, Tipo metodológico do estudo (Teórico ou

empírico), Enfoque do artigo e segmento empresarial

empregado. Os dados levantados foram submetidos à

análise de conteúdo, que, segundo Bardin (1979), é uma

técnica de análise que permite o mapeamento dos artigos

com o objetivo de obter indicadores que possibilitem a

geração de conhecimentos referentes às condições de

produção/recepção das mensagens.

3 ANÁLISE DOS RESULTADOS

Neste estudo evidencia-se a identificação dos autores mais

prolíferos, por meio de suas afiliações institucionais;

examinam-se as similaridades entre as instituições quanto

à produção científica.

Segundo os dados apresentados, o autor que ficou em

primeiro lugar no ranking geral, Luciano Menezes Bezerra

Sampaio, é do Departamento de Economia. Os autores que

ficaram em segundo lugar, Fernando B. Meneguin, Renata

Couto Moreira e Henrique Pacca L. Luna (Departamento

de Ciência da Computação); Paulo G.S. Guedes

(Prodabel); Luciana Torrezan Silveira (Copersucar);

Rodrigo M. Zeidamn, Marcelo Resende, Mauricio S.

Bugarin, Celia de Andrade Lessa, Sinézio Fernandes Maia

e Heloisa Lee Burnquist (Departamento de Economia).

Ressalta-se que os seis últimos autores pertencem a

Page 51: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

50

instituições diferentes, com exceção de Luciano Menezes

Bezerra Sampaio e Sinézio Fernades Maia que são da

Universidade Federal da Paraíba e Rodrigo M. Zeidamn e

Marcelo Resende que pertencem ao IBMEC.

No que se refere à quantidade de autores por artigo,

constatou-se que, do total de oito artigos pesquisados, 2

artigos foram elaborados por um único autor; 4 artigos

com dois autores; 2 artigos com três autores.

A Universidade Federal de Paraíba e o IBMEC são as

instituições que estão no centro apresentando dois artigos,

seguidas do Instituto de Economia, Universidade Federal

de Lavras, Universidade Federal de Minas Gerais,

Universidade Federal Fluminense, Cesumar e Esalq, que

apresentam apenas um artigo em periódico.

4 CONCLUSÕES

O objetivo deste trabalho foi verificar como os conceitos

da Teoria dos Jogos são aplicados na pesquisa em

Engenharias III. Para atender tal objetivo, foi analisada e

descrita a produção acadêmica, nos principais periódicos

nacionais (Qualis B), no período de 1998 até 2012, na área

de Engenharias III, que abordaram a Teoria dos Jogos e

que apresentaram no título ou resumo ou palavras-chave a

terminologia Teoria dos Jogos.

A hipótese de que os pesquisadores em Engenharias III

utilizam a Teoria dos Jogos nas pesquisas foi confirmada.

Foram analisados todos os periódicos Qualis B2, mas

apenas 8 artigos empregaram a Teoria dos Jogos.

Quanto à natureza dos artigos selecionados verificou-se

que dois artigos são teóricos e seis artigos são práticos,

totalizando os oito estudos analisados, sendo sete na área

de economia e um da área de Ciências da Computação.

Nesse sentido, foi possível constatar que dos oito artigos,

seis estão publicados em Revistas de Economia.

Em decorrência deste resultado, o mapeamento

bibliométrico indica a ausência de uma rede de pesquisa

em torno do tema. Por isso, ressalta-se a importância da

pesquisa bibliométrica, pois, através dela se evita esforços

repetitivos, identifica as principais pesquisas, autores e

rede de conhecimento, ou indica escassez de estudos em

determinada área do saber.

Contudo, a existência de publicações com abordagem da

Teoria dos Jogos na pesquisa em Engenharias III indica a

possibilidade de utilização desse conhecimento. O caráter

quantitativo dessa teoria pode ser um limitador para sua

utilização.

Frente às limitações deste estudo, decorrente das

estratégias de pesquisa adotada recomenda-se para futuras

pesquisas: investigar outras áreas do conhecimento, a fim

de comparar os resultados com os achados no presente

estudo; realizar pesquisas com termos relacionados à

Teoria dos Jogos, como Equilíbrio de Nash, Teorema do

Minimax, Dominância; Reaplicar o estudo em periódicos

internacionais, a fim de acompanhar a evolução da Teoria

dos Jogos no cenário mundial.

Portanto, esta pesquisa se torna relevante por detectar a

escassez de estudos que utilizem a Teoria dos Jogos,

sinalizando para o surgimento de uma nova agenda de

pesquisas.

REFERÊNCIAS

Andrade E, M. M. Introdução à metodologia do trabalho

científico. 7 ed. São Paulo: Atlas, 2005.

Bardin, L. Análise de conteúdo. Tradução de Luis Antero

Reto e Augusto Pinheiro. Lisboa: Edições 70, 1979.

Costa, C.K.F.; Maia, S.F.; Sampaio, L.M.B. Exportações

brasileiras de suco de laranja e subsídios americanos:

uma análise empírica de estratégias comerciais (1991-

2006), RESR, Piracicaba-SP, Vol. 50, Nº 1, p. 083-106,

Jan/Mar 2012.

Fiani, R. Teoria dos jogos: para cursos de administração e

economia. 2 ed. Rio de Janeiro, Elsevier, 2006.

Lessa, C.A. Racionalidade estratégica e instituições, Rev.

bras. Ci. Soc. v. 13 n. 37 São Paulo Jun. 1998. Meneguin, F.B.; Bugarin, M.S. A informalidade no

mercado de trabalho e o impacto das instituições: uma

análise sob a ótica da Teoria dos Jogos, Econ. aplic.,

São Paulo, v. 12, n. 3, p. 341-363, JUL HO-

SETEMBRO 2008.

Meneguin, F.B.; Bugarin, M.S. Pacto de estabilidade e

crescimento na União Européia: há incentivos ao seu

cumprimento? Econ. Apl. v.10 n.3 Ribeirão Preto

jul./set. 2006.

Moreira, R.C.; Luna A, H.P.L.; Guedes, P.G.S. Um estudo

comparativo entre entre Teoria dos Jogos cooperativos

e uma heurística aplicados em um problema real de

alocação de custos, Pesquisa Operacional, v.22, n.1,

p.73-85, janeiro a junho de 2002.

Sartini, B.A. Uma introdução à Teoria dos Jogos. II Bienal

da SBM. Universidade Estadual da Bahia, 2004.

Disponível em:

http://www.mat.puc-rio.br/~hjbortol/bienal/M45.pdf

Acesso em: 13 de julho de 2012.

Sampaio, L.M.S.; Modelo Principal-agente para contratos

entre pequenos produtores e empresa exportadora de

manga no Rio Grande do Norte, RER, Rio de Janeiro,

vol. 45, nº 04, p. 879-898, out/dez 2007.

Silva, V.A. Análise Crítica da produção científica em

contabilidade, utilizando a Teoria dos Jogos, no suporte

à tomada de decisões. Disponível em:

http://www.contabeis.ufba.br/Site/arquivos/Editor/file/Mes

trado/Artigos/2010

Acesso em 25 de julho de 2012.

Silveira, L.T.; Burnquist, H.L. Procedimento para análise

de decisão quanto à prevenção de doenças em animais:

uma aplicação da Teoria dos Jogos, RESR, Piracicaba,

SP, vol. 47, nº 02, p. 435-464, abr/jun 2009.

von Neumann, J.; Morgenstern, O. (1972): Theory of

games and economic behavior. Princeton University

Press - Princeton.

Zeidan, R.M.; RE, M. Colusão ótima com monitoramento

imperfeito: teste do modelo de Abreu-Pearce-Stachetti

para os mercados brasileiros regionais de cimento,

Econ. Apl. vol.14 no.1 Ribeirão Preto jan./mar. 2010.

Page 52: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

51

OTIMIZAÇÃO NA GERAÇÃO DE GRADE HORÁRIA ESCOLAR ATRAVÉS DE

UM MODELO MATEMÁTICO E DA META-HEURÍSTICA BUSCA LOCAL

Pedro Rochavetz de Lara Andrade, Anderson Roges Teixeira Góes, Maria Teresinha Arns Steiner

Palavras-Chave: Grade Horária Escolar, Meta-Heurísticas, Modelo Matemático, Ensino Fundamental, Escolas Públicas.

1 INTRODUÇÃO

Para sustentar o atual crescimento das instituições de

ensino, mantendo a qualidade, esses estabelecimentos

precisam otimizar a utilização de seus recursos. Dentre

esses recursos estão o tempo disponível de professores e

de salas de aula, que podem ser otimizados através de uma

melhor definição do horário de seus compromissos (grade

horária).

Assim, o objetivo deste trabalho é desenvolver uma

ferramenta capaz de gerar a grade horária otimizada para

instituições de Ensino Fundamental e Médio, utilizando

técnicas meta-heurísticas.

Ainda, pretende-se comparar o resultado gerado pela

ferramenta com o obtido atráves da solução do problema

pelo Método Exato.

2 DESCRIÇÃO DO PROBLEMA

O problema de alocação de professores é considerado um

problema do tipo NP-completo (Cooper e Kingston, 2006).

Neste tipo de problema, os professores, em geral, não

possuem as 25 aulas na semana (5 horários de aula em 5

dias), pois além da carga horária assumida em disciplinas,

no caso das escolas públicas, também deve ser considerado

o tempo para preparação das aulas (hora atividade). Em

função disso, existe a possibilidade de os horários de aula

dos professores serem alocados ao longo da semana.

Assim, o principal objetivo do problema é minimizar o

número de dias de aula de cada professor, sendo esse o

principal fator para análise da qualidade do quadro de

horários. Como neste tipo de problema cada professor

leciona apenas uma disciplina, as suas turmas são

previamente definidas e procura-se maximizar suas

preferencias pelos dias em que lecionará.

Na rede pública de ensino que é estudo para este problema,

existe a definição de um dia chamado de ‘não-vínculo’, em

que o professor não deve ter aulas alocadas e, com isso, a

carga horária máxima que pode ser assumida por um

professor é de 15 aulas por semana, deixando assim dois

dias livres, para a hora-atividade e não-vínculo.

Foram realizados estudos de 4 grades horárias, de 3

escolas da rede municipal de ensino do municipio de

Araucária/Pr.

3 METODOLOGIA

A técnica escolhida para resolução do problema, dentre as

numerosas alternativas, foi a meta-heurística Busca Local

(BL) por apresentar, de uma forma geral, resultados baste

satisfatórios. Os resultados assim obtidos serão

comparados com os obtidos através da modelagem

matemática (método exato).

A resolução deste tipo de problema através do método

exato pode exigir um tempo computacional elevado não

sendo viável sua execução para problemas mais complexos

(Góes, Costa e Steiner, 2010).

Assim, justifica-se a utilização de métodos meta-

heurísticos que, em geral, alcançam uma solução factível

de forma mais rápida, principalmente em problemas de

maior porte.

Algumas das restrições que influenciam no problema de

alocação de professores na construção da carga horária

são:

Garantir que todos os horários de todas as turmas

sejam preenchidos por aulas, e que em cada

horário da semana, apenas um professor lecione

para cada turma;

Impedir que um professor lecione em mais de

uma turma no mesmo horário;

Garantir que um professor ministre toda a carga

horária da disciplina a que foi alocado em cada

turma;

Impedir que as turmas recebam mais de duas

aulas diárias de uma disciplina;

Na modelagem matemática realizada ao problema, que

também é suporte para a implementação das técnicas meta-

heurísticas, o diferencial em relação a alguns trabalhos

apresentados na literatura (Souza, Maculan e Ochi, 2001;

Moura et al. 2004; Kingston, 2006; Santos, 2007; Góes,

Costa e Steiner, 2010; Andrade, Scarpin e Steiner, 2012;

Fonseca et al., 2012), está no fato das restrições de

preferência dos professores por aulas geminadas, ou não,

serem consideradas fracas, influenciando a função

objetivo, mas não tendo necessidade que as mesmas sejam

atendidas por completo.

4 RESULTADOS

Os resultados preliminares, mostrados parcialmente nas

Tabelas 1 e 2, a seguir, referem-se à grade horária gerada

pela aplicação da BL e pelo método exato, aplicados a um

dos exemplos estudados. Este exemplo possui 23

professores que ministram 8 disciplinas, e devem ser

alocados em 12 turmas.

Page 53: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

52

Tabela 1 – Horário dos professores – Busca Local.

Tabela 2 - Horário dos professores – Método Exato.

Pode-se notar que o horário gerado pelo método exato é

consideravelmente melhor do que o gerado pela BL. Nota-

se também que o método exato alocou aulas geminadas em

vários casos, mesmo para professores que não possuem

essa preferência.

A Tabela 3 ilustra a comparação entre os resultados da BL

e método exato, após a aplicação nos quatro exemplos.

Nesta Tabela 3, a solução inicial diz respeito apenas a BL.

Tabela 3 – Comparação entre os métodos.

São mostrados os valores da Função Objetivo (FO) (Z(x)),

e do número de dias alocados a mais do que o mínimo

necessário para os professores (D/500). Como esses

valores podem distorcer a realidade, visto que um

problema grande naturalmente terá a FO maior do que um

problema pequeno, mesmo que tenha uma solução pior, foi

criada também uma coluna em que esses valores são

divididos pelo número de professores do problema.

Da análise destes exemplos, observa-se que de maneira

geral, a complexidade dos problemas não tem relação

direta com o seu tamanho, mas sim com a relação entre o

número de professores e de turmas do problema (P/T). Por

mais que outros fatores interfiram nessa questão, de uma

forma geral, a complexidade dos problemas é

inversamente proporcional à relação de professores e

turmas. Outro fator que também influencia a complexidade

dos problemas é o número de professores com carga

horária maior do que 20 horas semanais. Esses professores

tem pouca flexibilidade em seu horário e, por isso, uma

chance maior de inviabilizar a geração da solução inicial.

Além disso, mesmo quando uma solução inicial é gerada, a

pouca flexibilidade de seu horário dificulta também a

melhoria da solução pela BL.

De acordo com o que foi exposto, pode-se notar que os

dois problemas com a maior relação de professores e

turmas (problemas 1 e 3) foram os dois problemas que

tiveram a maior melhora a partir da solução inicial.

Pretende-se futuramente aprimorar a ferramenta inserindo

a lógica do Iterated Local Search (ILS) como um

diferencial à BL.

REFERÊNCIAS

Andrade, P. R. L.; Scarpin, C. T.; Steiner, M. T. A.

Geração da Grade Horária do Curso de Engenharia de

Produção da UFPR Através de Programação Linear

Binária. In: XVI CLAIO / XLIV SBPO, Rio de Janeiro

- RJ, Brasil, 24 a 28 de Setembro de 2012.

Cooper, T. B.; Kingston, J. H. The Complexity of

Timetabling Construction Problems. Basser

Department of Computer Science. University of

Sydney, Sydney, 2006. Relatório Técnico 495.

Fonseca, G. H. G.; Toffolo, T. A. M.; Brito, S. S.; Santos,

H. G. Técnicas de Busca Local para o Problema da

Programação de Horários Escolares. In: XVI CLAIO /

XLIV SBPO, Rio de Janeiro - RJ, Brasil, 24 a 28 de

Setembro de 2012.

Góes, A. R. T.; Costa, D. M. B.; Steiner, M. T. A.

Otimização na Programação de Horários de

Professores/Turmas: Modelo Matemático,

Abordagem Heurística e Método Misto. Revista

Eletrônica Sistemas & Gestão. v. 5, n. 1, p. 50-66,

Janeiro a Abril de 2010.

Kingston, J. H. Hierarchical Timetable Construction. In:

The 6TH International Conference on the Pratice and

Theory of Automated Timetabling (PATAT), Brno,

Czech Republic. ISBN 80-210-3726-1, 30 de Agosto

a 1° de Setembro, 2006.

Moura, A.; Scaraficci, F.; Silveira, R.; Santos, V. Técnicas

Meta-Heurísticas Aplicadas à Construção de Grades

Horárias Escolares. In: XXXVI SBPO, São João Del

Rei – MG, Brasil, 23 a 26 de Novembro de 2004.

SANTOS, H. G. Formulações e Algoritmos para o

Problema de Programação de Horários em Escolas.

Tese de Doutorado - Programa de Pós-Graduação em

Computação, Universidade Federal Fluminense, Rio

de Janeiro, 2007.

Souza, M. J. F.; Maculan, N.; Ochi, L. S. Uma Heurística

para o Problema de Programação de Horários em

Escolas. Revista TEMA, v. 2, p. 213-222, ISSN 1677-

1966, 2001.

Z(x) Z(x)/P D/500 D/(500*P) Z(x) Z(x)/P D/500 D/(500*P) Z(x) Z(x)/P D/500 D/(500*P)

1 1,92 43987 1912 33 1,43 49070 2133 26 1,13 60803 2644 4 0,17

2 1,75 24513 1751 14 1 26681 1906 12 0,86 29382 2099 2 0,14

3 1,83 41691 1895 31 1,41 46142 2097 26 1,18 59570 2707,7 0 0,00

4 1,69 45526 2069 27 1,23 48722 2215 23 1,05 60172 2735 0 0,00

NºSolução Inicial Busca Local Método Exato

P/T

Page 54: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

53

ANÁLISE ISOGEOMÉTRICA APLICADA AO PROBLEMA DE BARRAS EM

VIBRAÇÃO LIVRE

Mateus Rauen, Roberto Dalledone Machado, Marcos Arndt

Palavras-Chave: Análise Isogeométrica, Vibração Livre, Método dos Elementos Finitos.

1 INTRODUÇÃO

O problema de vibração livre de estruturas consiste em um

problema de autovalores generalizados: encontrar um par

(λ,µ) tal que:

Kµ = λMµ (1)

Onde K e M são respectivamente a matriz de rigidez e a

matriz de massa da estrutura.

O autovalor λ está relacionado com a frequência natural de

vibração da estrutura e o autovetor µ correspondente

representa os modos naturais de vibração para um sistema

com múltiplos graus de liberdade. A frequência natural de

vibração ω está relacionada com autovalor pela relação:

(2)

À medida que o número de elementos estruturais aumenta

o desenvolvimento de soluções analíticas para o problema

de vibração livre de estruturas torna-se mais complexo.

Desta forma a aproximação numérica por um método

aproximado torna-se uma alternativa viável.

Através de exemplos numéricos o presente trabalho

investiga a eficiência numérica da Análise Isogeométrica

(Hughes et al. 2005) e compara com os resultados obtidos

para o Método dos Elementos Finitos (MEF).

2 ANÁLISE ISOGEOMÉTRICA

A Analise Isogeométrica introduzida por Hughes et al.

(2005) consiste em um método numérico de resolução de

equações diferenciais parciais com similaridades ao

Método dos Elementos Finitos. As funções de

aproximação deste método, denominadas NURBS (Non

Uniform Rational B-Splines), são utilizadas como funções

de ponderação da equação e como funções de aproximação

para a geometria do elemento. O uso destas funções como

aproximação geométrica permite utilizar modelagens em

CAD (Computer Aided Design) para o modelo de

elementos finitos, dispensa a necessidade de acessar

informações sobre o modelo durante um refino de malha

além de descrever a geometria do objeto de maneira exata.

A construção das funções NURBS é realizada de maneira

recursiva. Dado um número n de funções de forma, a

ordem p do polinômio e um vetor de pontos de controle Ξ

= {ξ1, ξ2,..., ξn+p+1 } as funções NURBS são dadas por:

{

(3)

(4)

A figura 1 apresenta as funções de forma do tipo NURBS

criadas a partir das equações 2 e 3 para polinômio de

ordem 2 e vetor de pontos de controle Ξ =

{0,0,0,0.5,1,1,1}.

Figura 1: Exemplo de Funções NURBS

2.1 Refinamento

Os procedimentos de refinamento da Análise

Isogeométrica (Cotrell et al. 2007) consistem em alterar os

parâmetros de entrada para a construção das funções

NURBS e reconstruir o modelo.

O refino h isogeométrico consiste em aumentar o número

de pontos de controle distintos. Dado um vetor inicial de

pontos de controle Ξ = {ξ1,ξ2,...,ξn+p+1} são inseridos m

novos pontos e a partir de um novo vetor Ξ =

{ξ1,ξ2,...,ξn+m+p+1} as funções são reconstruídas.

O refino relacionado com o aumento do grau polinomial

das funções de forma pode ser construído de duas

maneiras: inserção de pontos seguida de elevação de

ordem (refino p) e elevação de ordem seguida de inserção

de pontos (refino k). O refino k apresenta vantagem sobre

o refino do tipo p por aumentar a suavidade das funções de

forma com um pequeno acréscimo no número total de

funções (Cotrell et al. 2007).

3 EXPERIMENTOS NUMÉRICOS

3.1 Barra Fixa-Fixa

Para elemento de barra as formulações variacionais das

matrizes de rigidez e massa são dadas por:

(5)

(6)

Onde E é o módulo de young, A a área da seção

transversal da barra, ρ a massa específica do material, µ

o deslocamento axial e w a função de ponderação do

método.

Considerando os parâmetros E,A e ρ unitários, a

solução analítica do problema de barra Fixa-Fixa é

definida por:

(7)

Onde ω é a frequência natural de vibração

correspondente ao modo n.

A figura 2 mostra os resultados do desenvolvimento da

barra fixa-fixa pelo Método Isogeométrico de grau p = 2

e pelo Método dos Elementos Finitos utilizando

Page 55: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

54

polinômios de Lagrange de grau 2 onde a razão da

frequência aproximada pela frequência analítica é

plotada em função da razão do n-ésimo grau de

liberdade pela quantidade total de graus de liberdade.

Para ambas modelagens foram utlizados 100 graus de

liberdade, porém os comportamento das curvas

independem da quantidade de graus de liberdade

(Cotrell et al. 2006).

Figura 2: Resultados para Barra Fixa-Fixa

A figura 2 mostra uma descontinuidade na curva de erro

do MEF Polinomial em n/N = ½ onde os erros aumentam

enquanto o comportamento do Método Isogeométrico

permanece com erros menores que 1.05. O Método

Isogeométrico mostra-se superior em toda a amostragem

de frequências.

3.2 Barra Fixa-Livre

Para o problema de barra fixa em uma extremidade foram

testadas as taxas de convergência dos autovalores λ do

método comparando o refinamento com os resultados

obtidos por Arndt et al. (2011) para o MEF.

A solução analítica para o problema de barra fixa-livre

com os parâmetros E,A e ρ unitários é definida por:

[

]

(8)

A figura 3 mostra o erro percentual em função do numero

de graus de liberdade para o Método Isogeométrico com

refino k, Isogeométrico com refino p, MEF linear com

refino h, MEF cúbico com refino h e MEF com refino p

para os dois primeiros autovalores.

A figura 3 mostra que as taxas de convergência do MEF p,

e do Isogeométrico p e k são maiores se comparadas aos

refinos h do MEF. O refino k do Isogeométrico apresentou

as melhores convergências.

Figura 3: Taxas de Convergência para Barra Fixa-Livre

4 CONCLUSÕES

A Análise Isogeométrica apresentou resultados superiores

ao Método dos Elementos Finitos em ambos os casos

analisados. Para o problema da barra fixa-fixa o

comportamento em toda a sua amostragem foi superior e

para a barra fixa-livre a taxa de convergência do

refinamento k foi superior a todos os modelos analisados.

A taxa de convergência do refinamento k foi superior ao

refino p do isogeométrico, confirmando a hipótese de

Cotrell et al. (2007) a respeito da suavidade das curvas do

tipo NURBS.

A razão do comportamento descontinuo da curva de erros

do MEF Polinomial não é discutida na literatura e constitui

uma possibilidade para pesquisas futuras.

REFERÊNCIAS

Arndt, M., Machado, R.D. and Scremin, A., 2011.

Enriched Methods for Vibration Analysis of

Framed Structures. In proceedings of the 21st

international congress of mechanical engineering

- cobem2011. Natal, Brazil.

Cottrell, J.A., Hughes, T.J.R. and Reali, A., 2007. Studies

of Refinement and Continuity in Isogeometric

Structural analysis. Computer Methods in Applied

Mechanics and Engineering, vol. 196, pp. 4160–4183.

Cottrell, J.A., Reali, A., Bazilevs, Y. And Hughes, T.J.R.,

2006. Isogeometric Analysis of Structural Vibrations.

Computer Methods in Applied Mechanics and

Engineering, vol. 195, pp. 5257–5196.

Hughes, T.J.R., Cottrell, J.A. and Bazilevs, Y., 2005.

Isogeometric Analysis: CAD, Finite Elements, NURBS,

Exact Geometry and Mesh Refinement. Computer

Methods in Applied Mechanics and Engineering, vol.

194, pp. 4135–4195.

Page 56: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

55

RESUMO DOS POSTERS Resumo dos trabalhos apresentados na forma de posters.

Page 57: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

56

COMPARAÇÃO ENTRE A RESOLUÇÃO DE PROBLEMAS DE TRANSPORTE

NO IBM ILOG CPLEX® E EM UM ALGORITMO PROGRAMADO EM VISUAL

BASIC® VB.NET

Alessandra Heloise de Quadros

Palavras-Chave: CPLEX, Problema de Transporte, Métodos Meta-heurísticos, Otimização por Colônia de Formigas.

RESUMO:

A pesquisa operacional é uma ciência voltada ao desenvolvimento de modelos matemáticos e algoritmos para resolução de

problemas de diversas naturezas, visando o encontro da melhor solução possível (Lopes et al. 2013). Entre os assuntos dos

problemas que podem ser modelados, existem os que tratam de transportes e consistem em, tendo disponíveis as capacidades

de ofertas de cada unidade fornecedora, as necessidades demandadas de cada unidade receptora e os custos de transportar de

uma para outra, encontrar a melhor designação de transportes possível, isto é, quando os custos forem minimizados (Arenales

et al. 2006). Diversos métodos, exatos ou não, podem ser utilizados para buscar a resposta ótima dos problemas ou, quando

esta não é possível, a solução mais próxima do ótimo. Os métodos meta-heurísticos são exemplos que não garantem a

otimização global de um problema, mas proporcionam uma solução próxima (solução ótima local), que pode ser testada quanto

a sua eficácia. Para trabalhar com tais métodos, a maneira mais eficiente é através da utilização de programas computacionais,

pois estes tornam o processo muito mais ágil e simples (Batalha, 2011). O principal objetivo foi a realização de uma

comparação entre a solução obtida através do IBM ILOG CPLEX®, um programa computacional para solução através do

método exato de programação linear, e o resultado adquirido com a utilização de um método meta-heurístico. Para isso, foi

programado na linguagem Visual Basic® (VB.NET) um algoritmo capaz de solucionar problemas de transportes por meio do

método meta-heurístico da otimização por colônia de formigas (Ant Colony Optimization – ACO), que é uma analogia ao

proceso natural que acontece com as formigas (Dorigo and Gambardella, 1997). Ao executar o mesmo problema nos dois

programas (programado e pacote comercial), foram criados parâmetros para comparação entre a obtenção dos resultados e o

tempo de execução, de forma a verificar se o IBM ILOG CPLEX® possui um diferencial competitivo em relação ao algoritmo

programado. Os problemas processados foram classificados em faixas, baseadas no tamanho da matriz Mmxn, considerando m

as ofertas e n as demandas de unidades transportadas, para facilitar o confronto das informações e diminuir a chance de erros

(Silva, 2009). Além disso, o problema foi solucionado através da meta-heurística com limite de cem iterações e quinhentas

iterações. Ao término da pesquisa, concluiu-se que, em todos os problemas procesados, o IBM ILOG CPLEX® se mostrou

mais rápido. Também constatou-se que quanto menor o número de origens e destinos do problema, maior a chance do

resultado obtido pelo método de otimização por colônia de formigas se aproximar ou alcançar a solução obtida pelo IBM

ILOG CPLEX® (ótimo global). Somado a isso, quanto maior o número de iterações que o algoritmo da otimização por colônia

de formigas realizar, maior a chance de ele convergir para o ótimo global ou para ótimos locais mais próximos dele.

REFERÊNCIAS

Arenales, M., Armentano, V., Morabito, R., and Yanasse, H. Pesquisa operacional . São Paulo: Elsevier, 2006.

Batalha, M. O. Introdução à Engenharia de Produção. Rio de Janeiro: Elsevier, 2011.

Dorigo, M., and Gambardella, L. Ant colony system: a cooperative learning approach to the travelling salesman problem. IEEE

Transactions on Evolutionary Computation, 1997.

Lopes, H. S., Rodrigues, L. C. A., and Steiner, M. T. A. Meta-heurísticas em Pesquisa Operacional. Curitiba: Omniplax, 2013.

SILVA, A. L. C. Introdução à Análise de Dados. Rio de Janeiro: E-papers, 2009.

Page 58: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

57

COMPARAÇÃO DE DESEMPENHO E USABILIDADE ENTRE OS SOFTWARES

COMERCIAIS DE OTIMIZAÇÃO E O MÉTODO DUAL PARA O PROBLEMA

CLÁSSICO DO TRANSPORTE

Carolina Meduna Baziewicz; Alexandre de Jesus Fante; Cassius Tadeu Scarpin; Arinei Carlos Lindbeck da Silva; Gustavo

Valentin Lock.

Palavras-chave: Problema Clássico de Transporte, CPLEX 12.4®, LINGO12®, Método Stepping-Stone

RESUMO:

O Problema Clássico de Transporte, formulado por Hitchcock em 1941 (PIZZOLATO, GANDOLPHO, 2009), está dentre os

modelos determinísticos da Pesquisa Operacional, e é resolvido através de algoritmos lineares. Segundo Hillier (2010),

programação linear envolve o planejamento de atividades para alcançar um resultado ótimo, de forma a atender os objetivos

especificados entre todas as alternativas viáveis. O Problema Clássico de Transporte pode ser entendido como o transporte de

determinadas mercadorias de pontos de origens (por exemplo, centro de distribuição) para destinos (por exemplo, mercados

consumidores), no qual se deve obter a quantidade ótima a ser transportada de cada origem para cada destino. O principal

intuito deste trabalho é comparar o desempenho e eficácia entre os softwares de otimização IBM ILOG CPLEX 12.4®, LINGO

12® e da programação do Método Dual, o qual é baseado no Método Stepping-Stone, em linguagem Visual Basic® (VB.NET),

evidenciando-se para tanto algumas das diferentes formas de uso dos solvers. Dessa forma, a análise consiste em relação ao

desempenho, avaliar o tempo computacional gasto em cada forma de solução, em relação à eficácia, obter ou não a solução

ótima (caso não seja ótima, quanto é o desvio da função objetivo), e finalmente em relação à usabilidade, avaliar-se a interface

com o usuário, a dificuldade de aprendizagem e a linguagem de programação necessária. O projeto ao qual este trabalho esteve

vinculado objetivava a construção de um software que fizesse uso de ferramentas de Pesquisa Operacional para solucionar

problemas. Dessa maneira, um software foi desenvolvido em linguagem Visual Basic.Net e através dele a comparação entre as

três maneiras de obtenção de soluções citadas anteriormente foi tornada possível. O software criado fez interação com o IBM

ILOG CPLEX, com LINGO e recebeu os módulos da otimização pelo Método Dual. A usabilidade de softwares programados

se justifica por uma série de fatores: O alto custo de investimento em softwares de otimização, a complexidade de utilização

dos softwares atuais do mercado e o desconhecimento geral da programação de modelos lineares da linguagem computacional.

Nesse sentido, a interface em VB.NET facilitou a interação do usuário com o problema de transporte. Além disso, a construção

dessa ferramenta também buscar difundira prática de desenvolver métodos programados por profissionais que detém

conhecimento em linguagem computacional e Pesquisa Operacional. Para efeito de avaliação, dezesseis instâncias aleatórias

foram geradas, variando-se quantidade de pontos de origens, pontos de destinos, demandas e ofertas. No término do trabalho,

verificou-se que para problemas de maiores dimensões, o software CPLEX apresentou os melhores índices de desempenho. A

programação do Método Dual também obteve resultados válidos e bastante satisfatórios principalmente para problemas

pequenos, mas também seu uso se justifica para problemas maiores. Assim, verificou-se que a escolha da melhor forma de

resolução depende das necessidades do usuário, do conhecimento técnico de programação e das características do problema.

REFERÊNCIAS

HILLIER, F. S., LIEBERMAN, G. J.; Introdução à Pesquisa Operacional. 9ª edição. Porto Alegre: McGraw-Hill, 2010.

PIZZOLATO, N.D., GANDOLPHO A.A. Técnicas de Otimização. Rio de Janeiro. 2009

Page 59: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

58

Sumário por primeiro autor

Adriana Kroenke; Vania Gryczak; Volmir Eugênio Wilhelm. 49

Alana Renata Ribeiro; Deise Maria Bertholdi Costa; Eduardo Alvim Leite. 25

Alessandra Heloise de Quadros 56

Camila Oliveira, Sérgio Scheer, César Beneti. 39

Carolina Meduna Baziewicz; Alexandre de Jesus Fante; Cassius Tadeu Scarpin; Arinei Carlos Lindbeck da Silva;

Gustavo Valentin Lock. 57

Danilo Francelino Fuckner Leonel; Carlos Henrique dos Santos; Liliana Madalena Gramani; Luiz Antonio

Ribeiro de Santana. 21

Diana M. Cancelli, Marcelo Chamecki, Nelson Luis Dias. 9

Genival Pavanelli; Maria Teresinha Arns Steiner; Anderson Roges Teixeira Góes; Alessandra Memari Pavanelli. 47

Geraldo Carvalho Brito Jr., Anselmo Chaves Neto, Roberto Dalledone Machado. 7

Guilherme Augusto Pianezzer, Fábio André Negri Balbo, Eloy Kaviski, Liliana Madalena Gramani, Marcelo

Rassy Teixeira. 15

Guilherme Vinicyus Batista; Cassius Tadeu Scarpin. 11

Jairo Marlon Corrêa 27

Jorge Vinicius Ruviaro Bonato; Paulo Henrique Siqueira; Cesar Augustus Assis Beneti. 19

Liliane do Rocio Marconcin; Roberto Dalledone Machado; Luiz Alkimin de Lacerda. 13

Marcos Freitas de Moraes; Liliana Madalena Gramani. 37

Mariana Kleina; Luiz Carlos Matioli; Eduardo Alvim Leite. 17

Mateus Rauen, Roberto Dalledone Machado, Marcos Arndt 53

Pedro Rochavetz de Lara Andrade, Anderson Roges Teixeira Góes, Maria Teresinha Arns Steiner. 51

Roberto Pettres; Luiz Alkimin de Lacerda. 33

Romulo de Oliveira Leite; Anselmo Chaves Neto 31

Ruy Gomes da Silva; Anderson Roges Teixeira Góes; Maria Teresinha Arns Steiner. 45

Sheila Regina Oro; Anselmo Chaves Neto 35

Suellen Ribeiro Pardo Garcia; Anselmo Chaves Neto. 43

Tereza Rachel Mafioleti; Anselmo Chaves Neto. 23

Tiago Noronha dos Santos; Paulo Henrique Siqueira; Leonardo Calvetti. 41

Vanessa Ferreira Sehaber; Adriano Rodrigues de Melo; Jair Mendes Marques. 29

Page 60: UFPR · a apresentação dos resultados obtidos, contudo, pode-se afirmar que eles foram pouco satisfatórios. As causas prováveis deste insucesso são as dificuldades na aquisição,

PPGMNEPrograma de Pós-Graduação emMétodos Numéricos em Engenharia

ISSN: 2236-8108