UNIVERSIDADE FEDERAL DE MINAS GERAIS Escola de Engenharia
Programa de Pós-Graduação em Engenharia Elétrica
Análise de Disponibilidade Utilizando
Abordagem Nebulosa
Alessandra Lopes Carvalho
Tese de Doutorado submetida à Banca Examinadora designada
pelo Programa de Pós-Graduação em Engenharia Elétrica da
Escola de Engenharia da Universidade Federal de Minas Gerais,
como requisito para obtenção do Título de Doutor em Engenharia
Elétrica
Orientador: Benjamim Rodrigues de Menezes
Co-Orientador: Walmir Matos Caminhas
Belo Horizonte
Julho de 2008
2
RESUMO
O objetivo principal deste trabalho é contribuir na análise de disponibilidade de sistemas reparáveis utilizando abordagem nebulosa. A principal justificativa para utilização da abordagem nebulosa em análise RAM (Reliability, Availability and Maintainability) é a inexistência de bancos de dados consistentes contendo informações sobre datas de ocorrências de falhas e tempos de reparo. Embora grande parte das indústrias não possua um banco de dados adequado à análise de falhas convencional, existem especialistas que detêm o conhecimento acerca da operação de seus processos. A abordagem nebulosa é útil para modelar o conhecimento armazenado em forma tácita pelos especialistas, auxiliando, desta forma, o processo de tomada de decisão no planejamento das atividades de manutenção. Os resultados obtidos pelo método proposto são validados através de comparações com o método convencional utilizando-se como exemplo um sistema de laminação.
Palavras Chave: disponibilidade, mantenabilidade, confiabilidade, sistemas nebulosos, sistemas reparáveis.
- i -
3
ABSTRACT
This work focuses on an alternative approach, using the fuzzy set theory for availability evaluation of repairable systems. The main reason to use fuzzy approach in RAM analysis (Reliability, Availability and Maintainability) is the lack of consistent data bases that relate dates of failure occurrences with repair time. Although many industrial data base are not adequate for the conventional RAM analysis of a particular plant, there are specialists who withhold the knowledge concerning the operation of its processes. Fuzzy set theory is useful for modeling human knowledge that is held in tacit form by the specialists, assisting the process of decision making and planning of maintenance activities. The results of the approach developed are compared against the conventional RAM analysis using a rolling mill system.
Key-words: availability, maintainability, reliability, fuzzy systems, repairable systems.
- II -
4
LISTA DE SIGLAS
pdf (probability density function) - função densidade de probabilidade
cdf (cumulative distribution function) - função distribuição acumulada
FMEA (Failure Mode and Effect Analysis ) - análise de modos e efeitos de falhas
FTA (Faut Tree Analysis) - árvore de falhas
HPP ( homogeneous Poisson process) - processo de Poisson homogêneo
MTBF (mean time between failure) - tempo médio entre falhas
MTTF (mean time to failure) - tempo médio para falha
MTTR (mean time to repair) - tempo médio para o reparo
NHPP (non homogeneous Poisson process) processo de Poisson não homogêneo
POSBIST (POSsibility Assumption and BInary-STate)
POSFUST (POSsibility Assumption and FUzzy-STate)
PROBIST (PRObability Assumption and BInary-STate)
PROFUST (PRObability Assumption and FUzzy-STate)
RAM (Reliability, Availability and Maintainability)
RBD (reliability block diagram) - diagrama em blocos de confiabilidade
RCM (reliability centered maintenance) - manutenção centrada em confiabilidade
TTF ( time to failure) – tempo até a falha
TBF (time between failure) - tempo entre falhas
TTR ( time to repair) - tempo para o reparo
- iii –
5
LISTA DE SÍMBOLOS
A(t) disponibilidade instantânea
Ao disponibilidade operacional
AN disponibilidade nebulosa
Ad disponibilidade desejada
ANi disponibilidade nebulosa inicial
ANA disponibilidade nebulosa adaptativa
β parâmetro de forma da distribuição Weibull
E(T) valor esperado da variável aleatória T
fT(t) função densidade de probabilidade
f(t) função densidade de probabilidade de falhas
FT(t) função densidade de probabilidade acumulada
F(t) função densidade de probabilidade acumulada de falhas
γ parâmetro de vida mínima da distribuição Weibull
g(t) função densidade de probabilidade de reparo
G(t) função mantenabilidade
η parâmetro de vida característica da distribuição Weibull
h(t) função taxa de falhas
i(t) função intensidade de falhas
λ taxa de falhas
λs taxa de falhas sistema série
λp taxa de falhas sistema paralelo
L função verossimilhança
µ média (parâmetro da distribuição lognormal)
µr taxa de reparo
µTR média dos tempos de reparo (banco de dados)
QF quantidade de falhas
R(t) função confiabilidade
σ desvio padrão (parâmetro da distribuição lognormal)
τ DC tempo para detectar a falha
τ DE tempo para desmontar o equipamento
- iv -
6
τ DF tempo para disponibilizar ferramentas
τ EF tempo entre falhas médio nebuloso
τ l ; τ lA tempo logístico; tempo logístico adaptativo
τ m ; τ mA tempo efetivo de manutenção; tempo efetivo de manutenção adaptativo
τ MO tempo para montar o equipamento
τ MP tempo para mobilizar pessoas
τ p taxa de reparo sistema paralelo
τ R ; τRA tempo de reparo médio nebuloso; tempo de reparo médio adaptativo
τRd tempo de reparo médio desejado
τ RE tempo para reparar o equipamento
τRi tempo de reparo médio inicial
τ RM tempo de reparo médio nebuloso calculado por Mamdani
τ RS tempo para repor sobressalentes
τ RSU tempo de reparo médio nebuloso calculado por Sugeno
τs taxa de reparo sistema série
τT tempo total de observação considerado
τ TE tempo para testar a efetividade do reparo
T variável aleatória
U(t) indisponibilidade instantânea
xm matriz de entrada genérica do sistema nebuloso tempo de manutenção
xl matriz de entrada genérica do sistema nebuloso tempo logístico
xd matriz de entrada genérica do sistema nebuloso disponibilidade
xCX entrada complexidade do modo de falha
xLO entrada localização do modo de falha dentro do equipamento
xDF entrada dimensão física do sobressalente
xCS entrada custo do sobressalente
xFO entrada freqüência de ocorrência de falhas
X(t) estado de um sistema genérico
Y matriz transição de estados
- v –
7
SUMÁRIO
1 INTRODUÇÃO ........................................................................................................
01
1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais.. 01
1.2 Objetivos e Justificativas .................................................................................. 02
1.3 Organização do trabalho ................................................................................... 05
2 ANÁLISE CONVENCIONAL DE FALHAS.............................................................. 06
2.1 Definições Preliminares...................................................................................... 06
2.2 Função Confiabilidade........................................................................................ 08
2.3 Função Mantenabilidade e Conceito de Manutenção...................................... 13
2.4 Função Disponibilidade................................................................................... 14
2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes............. 17
2.5.1 Modelos não Paramétricos.............................................................................. 18
2.5.2 Modelos Paramétricos..................................................................................... 18
2.5.3 Estimação de Parâmetros................................................................................ 26
2.5.4 Validação de Modelos...................................................................................... 27
3 MODELAGEM DE SISTEMAS ............................................................................... 29
3.1 Modelagem de Sistemas não Reparáveis......................................................... 29
3.1.1 Análise de Modos e Efeitos de Falhas........................................................... 30
3.1.2 Análise por Árvore de Falhas ........................................................................ 22
3.1.3 Diagrama de Blocos de Confiabilidade ........................................................ 23
3.1.4 Simulação de Monte Carlo............................................................................... 37
3.2 Modelagem de Sistemas Reparáveis................................................................. 37
3.2.1 Abordagem por componentes........................................................................ 38
3.2.2 Abordagem por sistemas................................................................................ 44
4 ANÁLISE NEBULOSA DE FALHAS....................................................................... 46
4.1 Análise de Falhas Considerando Inexistência de dados................................. 46
4.2 Metodologias Nebulosas para Cálculo da Confiabilidade de Sistemas ........ 48
- VI -
8
4.3 Modelo Nebuloso para Análise de Falhas......................................................... 52
4.4 Modelo Nebuloso Adaptativo para Análise de Falhas..................................... 54
5 AVALIAÇÃO E VALIDAÇÃO DOS MODELOS NEBULOSOS PROPOSTOS....... 58
5.1 Descrição do Processo Produtivo..................................................................... 58
5.2 Implementação dos Modelos Nebulosos Propostos....................................... 60
5.2.1 Cálculo do Tempo de Reparo Nebuloso........................................................ 63
5.2.2 Cálculo de Disponibilidade Nebulosa ........................................................... 70
5.2.3 Cálculo do Tempo entre Falhas Nebuloso .................................................... 72
5.3 Resultados Obtidos através da Análise Nebulosa de Falhas........................ 73
5.4 Cálculo Convencional e Validação de Resultados........................................... 76
6 CONCLUSÕES........................................................................................................ 83
6.1 Contribuições e Relevância do Trabalho.......................................................... 83
6.2 Sugestões para Trabalhos Futuros................................................................... 85
REFERÊNCIAS BIBLIOGRÁFICAS........................................................................... 86
APÊNDICE A–EXEMPLOS DE ANÁLISES NEBULOSAS DE FALHA.................... 94
APÊNDICE B – CONDIÇÃO INICIAL DO MODELO ADAPTATIVO........................ 102
APÊNDICE C – TREINAMENTO NO MODELO ADAPTATIVO................................ 106
ANEXO A – MODOS DE FALHA LAMINADOR PRIMÁRIO..................................... 109
- VII -
1
1
SUMÁRIO
1 INTRODUÇÃO ........................................................................................................
01
1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais.. 01
1.2 Objetivos e Justificativas .................................................................................. 02
1.3 Organização do trabalho ................................................................................... 05
2 ANÁLISE CONVENCIONAL DE FALHAS.............................................................. 06
2.1 Definições Preliminares...................................................................................... 06
2.2 Função Confiabilidade........................................................................................ 08
2.3 Função Mantenabilidade e Conceito de Manutenção...................................... 13
2.4 Função Disponibilidade................................................................................... 14
2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes............. 17
2.5.1 Modelos não Paramétricos.............................................................................. 18
2.5.2 Modelos Paramétricos..................................................................................... 18
2.5.3 Estimação de Parâmetros................................................................................ 26
2.5.4 Validação de Modelos...................................................................................... 27
3 MODELAGEM DE SISTEMAS ............................................................................... 29
3.1 Modelagem de Sistemas não Reparáveis......................................................... 29
3.1.1 Análise de Modos e Efeitos de Falhas........................................................... 30
3.1.2 Análise por Árvore de Falhas ........................................................................ 22
3.1.3 Diagrama de Blocos de Confiabilidade ........................................................ 23
3.1.4 Simulação de Monte Carlo............................................................................... 37
3.2 Modelagem de Sistemas Reparáveis................................................................. 37
3.2.1 Abordagem por componentes........................................................................ 38
3.2.2 Abordagem por sistemas................................................................................ 44
4 ANÁLISE NEBULOSA DE FALHAS....................................................................... 46
4.1 Análise de Falhas Considerando Inexistência de dados................................. 46
4.2 Metodologias Nebulosas para Cálculo da Confiabilidade de Sistemas ........ 48
- VI -
2
4.3 Modelo Nebuloso para Análise de Falhas......................................................... 52
4.4 Modelo Nebuloso Adaptativo para Análise de Falhas..................................... 54
5 AVALIAÇÃO E VALIDAÇÃO DOS MODELOS NEBULOSOS PROPOSTOS....... 58
5.1 Descrição do Processo Produtivo..................................................................... 58
5.2 Implementação dos Modelos Nebulosos Propostos....................................... 60
5.2.1 Cálculo do Tempo de Reparo Nebuloso........................................................ 63
5.2.2 Cálculo de Disponibilidade Nebulosa ........................................................... 70
5.2.3 Cálculo do Tempo entre Falhas Nebuloso .................................................... 72
5.3 Resultados Obtidos através da Análise Nebulosa de Falhas........................ 73
5.4 Cálculo Convencional e Validação de Resultados........................................... 76
6 CONCLUSÕES........................................................................................................ 83
6.1 Contribuições e Relevância do Trabalho.......................................................... 83
6.2 Sugestões para Trabalhos Futuros................................................................... 85
REFERÊNCIAS BIBLIOGRÁFICAS........................................................................... 86
APÊNDICE A–EXEMPLOS DE ANÁLISES NEBULOSAS DE FALHA.................... 94
APÊNDICE B – CONDIÇÃO INICIAL DO MODELO ADAPTATIVO........................ 102
APÊNDICE C – TREINAMENTO NO MODELO ADAPTATIVO................................ 106
ANEXO A – MODOS DE FALHA LAMINADOR PRIMÁRIO..................................... 109
- VII -
1
1
1 INTRODUÇÃO 1.1 Contextualização Histórica da Análise de Falhas em Sistemas Industriais
A importância da análise de falhas tem aumentado nas últimas décadas
devido à complexidade crescente dos sistemas e as severas implicações
decorrentes de eventuais falhas.
A história da confiabilidade remonta a meados de 1930 quando os conceitos
da teoria da probabilidade foram aplicados a problemas relacionados à geração de
energia elétrica. O conceito de confiabilidade surgiu na indústria aeronáutica após a
Primeira Guerra mundial. Nesta época iniciaram-se os estudos sobre causas e
efeitos de falhas bem como a utilização de redundâncias em virtude do aumento dos
transportes aéreos. Durante a Segunda Guerra os alemães aplicaram os conceitos
básicos de confiabilidade para melhorar o desempenho de seus foguetes (DHILLON,
1999) e muitos outros avanços ocorreram nesta época devido ao aumento do
tamanho e da diversidade dos sistemas. Em 1950 o Departamento de Defesa dos Estados Unidos estabeleceu um
comitê para estudo de confiabilidade que em 1952 foi transformado em uma
subdivisão permanente. Em 1954 foi organizado o primeiro Simpósio Nacional sobre
Confiabilidade e Controle de Qualidade e no ano seguinte o Instituto de Engenheiros
Eletricistas e Eletrônicos (Institute of Electrical and Electronic Engineers-IEEE)
fundou a Sociedade de Confiabilidade e Controle de Qualidade (DHILLON, 1999).
Todo o arcabouço relacionado à teoria de Controle de Qualidade estabelece
procedimentos através dos quais um determinado produto é confrontado com uma
especificação ou um conjunto de atributos a serem alcançados. Assim, a verificação
da qualidade é feita no momento da avaliação. Por outro lado, a confiabilidade é
centrada no estudo de falhas no decorrer do tempo. Portanto, a confiabilidade pode
ser interpretada como o estudo da qualidade ao longo do tempo sendo esta a
principal diferença entre as duas abordagens (O’CONNOR, 2002).
2
É intuitivo perceber a relação entre confiabilidade e custo. Normalmente a
confiabilidade de um sistema cresce de maneira proporcional aos recursos
financeiros investidos para este propósito. Este custo pode estar relacionado à
utilização de matéria prima de melhor qualidade, acréscimo de algum tipo de
redundância ou mesmo à introdução de políticas de manutenção mais adequadas.
A necessidade por sistemas mais confiáveis está inserida em um contexto de
interesses conflitantes que envolvem a minimização de gastos e maximização de
lucros. Existe, portanto, um delicado ponto de equilíbrio a ser alcançado uma vez
que baixa confiabilidade pode acarretar perda de vidas humanas e prejuízos
materiais. Desde a criação do conceito de confiabilidade, ocorreu ao longo dos anos o
desmembramento em vários ramos de aplicação como confiabilidade de
equipamentos mecânicos, confiabilidade de software, confiabilidade humana,
otimização da confiabilidade, crescimento da função confiabilidade (reliability
growth), entre muitos outros. O trabalhos de Vouk (2005), Fragola(2005) e Mettas
(2000) apresentam amplas revisões bibliográficas sobre confiabilidade de software,
confiabilidade humana e otimização respectivamente. Quanto ao estudo de
sistemas reparáveis, pode ser citado o livro de Ascher e Feingold (1984).
Especificamente com relação ao crescimento da função confiabilidade os trabalhos
de Larry Crow (CROW, 1990; CROW, 2005 a; CROW, 2005 b) são referências
importantes.
1.2 Objetivos e Justificativas
A análise de Confiabilidade, Disponibilidade e Mantenabilidade (RAM -
Reliability, Availability and Maintainability) convencional é baseada na abordagem
probabilística e pressupõe a existência de uma grande quantidade de dados. Existe,
portanto, uma forte correlação entre a precisão de uma estimativa probabilística e o
tamanho da amostra onde os dados foram obtidos.
O principio da intratabilidade de Zadeh (1973) estabelece que à medida que a
complexidade de um sistema aumenta, a capacidade de se realizar inferências
precisas e significativas sobre seu comportamento diminui até que seja atingido um
3
limite a partir do qual relevância e precisão sejam atributos mutuamente exclusivos.
Este princípio traduz a constatação de que em sistemas complexos não é fácil obter
ao mesmo tempo precisão e relevância em patamares aceitáveis. Esta afirmativa
aplica-se claramente à análise de confiabilidade. Considerando-se que os sistemas
em geral tornam-se cada vez mais complexos, os fatores de precisão são
determinantes na metodologia de aquisição de dados capazes de representar sua
operação de forma abrangente.
Em uma avaliação convencional de confiabilidade os valores coletados dos
sistemas, componentes, etc. são tratados como valores precisos. A análise clássica
de confiabilidade normalmente não aborda a suscetibilidade a eventos externos ou
ao erro humano em operação e manutenção. Sendo desejável considerar a
contribuição relativa da incerteza para o risco total, mesmo os modelos mais
sofisticados, precisos e bem construídos podem fornecer resultados incorretos se
esta incerteza não é tratada de alguma forma (BOWLES; PELÁEZ, 1995)
Nachtmann e Chimka (2003) definem a incerteza como uma condição onde a
possibilidade de erro existe devido à falta de informação a respeito de um
determinado ambiente. A incerteza pode manifestar-se como resultado da
aleatoriedade ou como resultado da imprecisão.
A incerteza devido à imprecisão tem origem na própria natureza do
pensamento, raciocínio, cognição e percepção humanos. A incerteza devido à
aleatoriedade é conseqüência da dependência de um grande número de fatores que
podem ser classificados em inerentes, ambientais ou operacionais. Podem ser
citados como exemplos de fatores de imprecisão a composição da matéria prima,
tolerâncias dimensionais ou fatores aos quais o sistema é vulnerável como
temperatura, unidade, vibração entre outras condições estressantes.
A incerteza com relação aos dados pode ocorrer em qualquer fase do ciclo de
vida de um componente ou sistema. Nas fases iniciais de desenvolvimento ocorre
escassez de dados considerando-se que em um novo projeto a probabilidade de
falha usualmente é desconhecida. Nestes casos são utilizadas estimativas baseadas
no julgamento de engenharia ou na experiência adquirida ao longo do tempo. No
caso de um componente ou sistema que já se encontra em funcionamento, pode
ocorrer a incerteza devido ao fato que as falhas são eventos relativamente raros
(tipicamente poucas falhas por milhões de horas de operação). Outro aspecto a ser
considerado é que uma coleta de dados que forneça subsídios suficientes a uma
4
análise de confiabilidade consistente é uma tarefa árdua e demorada. Podem
acontecer ainda problemas devido à falta de uma documentação clara e precisa na
qual conste data, local, origem e causa da falha (BOWLES; PELÁEZ, 1995).
Devido à todos os fatores expostos considera-se que os tempo até a falha e
os tempos de reparo de um sistema possam ser interpretados de uma maneira
ampla como função de fatores inerentes, ambientais e operacionais. Assim, é
razoável supor que a abordagem probabilística possa ser insuficiente para modelar a
confiabilidade e mantenabilidade de sistemas complexos onde exista falta de dados
devido à imprecisão ou incertezas de naturezas diversas.
Numerosas ferramentas estatísticas têm sido desenvolvidas para auxiliar a
análise de confiabilidade de sistemas. Entretanto, as metodologias existentes
dependem de dados e parâmetros que, em muitas situações, são ora suficientes
mas imprecisos, ora insuficientes ou em muitos casos inexistentes. Como
conseqüência, a escassez e ou a imprecisão de dados pode originar análises e
informações errôneas, mesmo sendo obtidas a partir de metodologias corretas
(BOWLES; PELÁEZ, 1995, UTKIN; GUROV, 1995). Este fato motivou a criação de
técnicas alternativas baseadas em inteligência computacional para a análise de
falhas em geral. O cálculo de confiabilidade baseado em técnicas de inteligência computacional
(LEVITIN, 2006) pode abranger o uso de sistemas nebulosos, redes neurais,
algoritmos genéticos ou técnicas híbridas. Aplicações de confiabilidade nebulosa
(fuzzy) têm sido desenvolvidas por diversos autores como, por exemplo, Cai (1991);
Nachtmann e Chimka (2003); Guimarães e Lapa (2004).
O objetivo principal deste trabalho é contribuir na análise de disponibilidade de
sistemas reparáveis utilizando uma abordagem nebulosa e tendo como base a
experiência de especialistas em operação destes sistemas. A principal justificativa
para utilização da abordagem nebulosa em análise RAM (Reliability, Availability and
Maintainability) é a inexistência de bancos de dados consistentes contendo
informações sobre datas de ocorrências de falhas e tempos de reparo. Embora
grande parte das indústrias não possua um banco de dados adequado à análise
RAM convencional, existem especialistas que detêm o conhecimento acerca da
operação de seus processos. A abordagem nebulosa pode ser útil para modelar o
conhecimento armazenado em forma tácita pelos especialistas, auxiliando, desta
5
forma, o processo de tomada de decisão no planejamento das atividades de
manutenção.
1.3 Organização do trabalho
Este texto está organizado em seis capítulos. Considerando-se a característica
multidisciplinar do trabalho, os capítulos de 2 e 3 referem-se a conceitos
elementares. Estes capítulos têm a função de facilitar a compreensão dos capítulos
subseqüentes e estabelecer a padronização da notação a ser utilizada. O capítulo 2
descreve conceitos básicos e aborda os métodos estatísticos utilizados para
quantificar a disponibilidade, confiabilidade e mantenabilidade de componentes. O
capítulo 3 descreve as técnicas mais utilizadas para cálculo da confiabilidade de
sistemas reparáveis e não reparáveis. O capítulo 4 apresenta as principais
metodologias encontradas na literatura para análise de falhas a partir da abordagem
nebulosa e detalha o modelo proposto.
A descrição do processo utilizado como exemplo de aplicação do modelo
proposto e todos os resultados obtidos são detalhados no capítulo 5. Neste capítulo
é apresentado ainda o cálculo convencional para fins de validação do trabalho.
Finalmente, no capítulo 6 são apresentadas as conclusões e propostas de
continuidade.
6
2 ANÁLISE CONVENCIONAL DE FALHAS 2.1 Definições Preliminares
A análise convencional de falhas de sistemas reparáveis estabelece o estudo
de duas variáveis aleatórias de interesse: tempo entre falhas (TBF) e o tempo de
reparo (TR). Será considerado neste trabalho que após a ocorrência de uma falha
será realizado um reparo imediatamente. Será considerado ainda que o reparo é
capaz de levar o item falho (componente ou sistema) novamente a sua condição
original. A literatura refere-se a este conjunto de considerações através do termo
“tão bom quanto novo” (as-good-as-new). Como conseqüência, a distribuição da
variável aleatória tempo até a falha (TTF) será considerada igual a distribuição da
variável aleatória tempo entre falhas (TBF).
Objetiva-se apresentar genericamente os conceitos de variável aleatória e
distribuição de probabilidade. Posteriormente estes conceitos serão utilizados para
definir as funções confiabilidade e mantenabilidade a partir das variáveis aleatórias
tempo entre falhas e tempo de reparo, respectivamente.
Seja um espaço amostral S. Uma variável aleatória T é uma função que
associa um número real a cada resultado de um experimento aleatório
(MONTGOMERY; RUNGER, 2003).
A função distribuição acumulada fda ( cumulative distribution function -cdf), de
uma variável aleatória qualquer T, é definida como a probabilidade do evento (T ≤ t )
(LEON GARCIA, 1994). Este conceito é expresso através de (2.1) e representa a
probabilidade da variável aleatória T assumir valores no intervalo (-∞ , t].
)()( tTPtFT ≤= (2.1)
Onde: t é a variável tempo;
7
T é a variável aleatória;
FT(t) é a função distribuição acumulada da variável aleatória T.
A probabilidade que a variável aleatória T pertença ao intervalo limitado por t
e t+ ∆t quando ∆t torna-se infinitamente pequeno (∆t→0 ) é representada por (2.2)
(LEWIS, 1987).
)()( ttTtPttfT ∆+≤≤=∆ (2.2 )
Onde fT(t) : função densidade de probabilidade.
O termo fT(t) em (2.3) é a função densidade de probabilidade fdp( probability
density function- pdf) da variável aleatória T. Este conceito é apresentado em (2.3),
sendo definido como a derivada da função distribuição acumulada ou cdf.
Obviamente, a função distribuição acumulada F(t) pode ser apresentada como em
(2.4).
dttdFtf T
T)()( = (2.3)
∫∞−
=t
TT dttftF )()( (2.4)
Considerando-se a função densidade de probabilidade continua representada
na figura 2.1, a área sob a curva tem valor unitário pois descreve a probabilidade de
todos os valores da variável T (O’ CONNOR, 2002; PEEBLES, 1993). Este conceito
pode ser descrito através de (2.5).
8
Figura 2.1: Função densidade de probabilidade contínua
1)()()( ==∞+<<−∞= ∫+∞
∞−
dttfTPtF TT (2.5 )
De maneira análoga, a probabilidade de um valor ocorrer entre t1 e t2 é dada
por (2.6).
dttftTtPt
t∫=≤≤2
121 )()(
(2.6 )
A média ou valor esperado da variável aleatória T, modelada através da
função densidade de probabilidade continua fT(t), é dada por (2.7).
dttftTE ∫+∞
∞−
= )()( (2.7 )
Para fins de simplificação a função fT(t) será representada como f(t) em todo o
texto subseqüente. Idem para as demais funções onde o sub-índice que representa
a variável aleatória T será omitido.
2.2 Função Confiabilidade
A confiabilidade de um componente, equipamento ou sistema pode ser
definida como a probabilidade de funcionamento isento de falhas durante um
9
período de tempo pré-determinado, sob condições de operação estabelecidas.
Define-se como falha o término da capacidade de um item desempenhar uma função
requerida.
A teoria clássica de confiabilidade considera a condição de operação de um
sistema como um experimento aleatório, no qual podem ser identificados
qualitativamente dois estados: “falha” ou “operação normal”. Estes estados podem
ser expressos numericamente utilizando-se o conceito de variável aleatória.
Seja um item qualquer em operação em um instante de tempo especificado
(t = 0). Se este item for observado até que falhe, a duração do tempo até falhar T,
pode ser considerada uma variável aleatória contínua com alguma função densidade
de probabilidade. O valor de T não pode ser previsto a partir de um modelo
determinístico. Isto implica que componentes idênticos sujeitos aos mesmos
esforços falharão em instantes diferentes (MEYER,1983).
Analisando-se a definição de confiabilidade percebe-se claramente sua
dependência em relação ao tempo. Portanto, pode-se criar uma variável aleatória
“tempo até a falha” – T para quantificar a probabilidade de ocorrência de uma falha
(2.8).
)()( tTPtF ≤= (2.8)
Onde: F(t) é a função distribuição acumulada de falhas.
Considerando que um item que não falhou para um tempo T≤ t possa falhar
em um tempo T>t, pode-se definir o conceito de confiabilidade utilizando-se a
expressão (2.9) (LEWIS, 1987).
∫−=−=>=t
dttftFtTPtR0
)(1)(1)()( (2.9 )
Onde: T é a variável aleatória tempo até a falha (TTF);
R(t) é a função confiabilidade;
f(t) é a função densidade de probabilidade de falhas;
F(t) é a função distribuição acumulada de falhas.
10
∫−=t
dttftR0
)(1)(
(2.10)
Onde: f(t) é a função densidade de probabilidade de falhas;
A expressão (2.10) pode ser reescrita como em (2.11) que fornece a pdf do
tempo até a falha em termos da função confiabilidade R(t).
dt
tdRtf
)()( −=
(2.11 )
O parâmetro MTTF (mean time to failure) é definido como o valor esperado da
variável aleatória T:
[ ] dttftTEMTTF ∫+∞
==0
)( (2.12)
O MTTF pode ser escrito diretamente em termos da função confiabilidade (LEWIS,
1987). Sustituindo-se (2.11) em (2.12) e integrando-se por partes obtem-se (2.13).
∫∫+∞
∞+∞
+−=−=0
00
)()()( | dttRttRdtdt
tdRtMTTF (2.13)
Considerando-se que 0)(lim =∞→
tRtt
, então:
∫+∞
=0
)( dttRMTTF (2.14)
Cabe ressaltar que uma análise de confiabilidade deve ser realizada a partir
do maior número possível de informações e que somente o valor do MTTF (ou
MTBF) não é suficiente para traduzir o comportamento de falhas de um determinado
item.
A velocidade de ocorrência de falhas pode ser expressa através do parâmetro
taxa de falhas sendo a análise de falhas um processo interativo cujo sucesso
depende de se determinar relações implícitas entre causa e efeito. A taxa de falhas
instantânea h(t) pode ser definida em termos da confibilidade R(t) e da função
11
densidade de probabilidade f(t), como expresso em (2.15). Maiores detalhes podem
ser obtidos em Lewis (1987)
)()()(
tRtfth = (2.15)
As falhas podem ser classificadas em relação ao tempo de acordo com o
mecanismo que as originaram. O comportamento da taxa de falhas pode ser
representado graficamente através da curva conhecida como curva da banheira
(figura 2.2) e que apresenta três fases distintas: falhas prematuras, vida útil e
velhice. A região de falhas prematuras (ou mortalidade infantil) é caracterizada por
taxa de falhas alta e rapidamente decrescente com o tempo. A região de vida útil
apresenta taxa de falha aproximadamente constante e a região de velhice é
caracterizada por taxas de falha crescente (LEWIS, 1987; FILHO,1997; FREITAS;
COLOSIMO, 1997).
Figura 2.2: Curva da banheira
Fonte: MOUBRAY, 1999
Cabe ressaltar que existem classes particulares de sistemas nos quais podem
prevalecer uma das três fases descritas. Por exemplo, no estudo do comportamento
da taxa de falhas de softwares, não existe o período de envelhecimento
prevalecendo a fase de falhas prematuras (LEWIS, 1987). Neste caso, não se deve
confundir o término da vida útil, em termos de confiabilidade, com a obsolescência
do ponto mercadológico (LAFRAIA, 2001).
12
Embora a curva da banheira ainda seja muito utilizada, ela foi considerada
um padrão de representação somente até o início da década de 70 (LUCATELLI,
2002). Posteriormente, devido à própria evolução dos equipamentos, verificou-se a
existência de outros tipos de comportamento conforme ilustra a figura 2.3
(MOUBRAY, 1999).
Figura 2.3: Padrões de falha
Fonte: MOUBRAY, 1999
O padrão de falha A representado na figura 2.3 é conhecido como curva da
banheira conforme figura 2.2. O padrão B apresenta uma taxa de falhas
aproximadamente constante, ou com um aumento lento, seguido por um período de
desgaste. O padrão C mostra uma taxa de falhas com crescimento lento sem
apresentar desgaste ao final da vida útil. O padrão D apresenta baixa taxa de falhas
no início da vida seguido por um patamar constante (MOUBRAY, 1999).
O padrão de falha E é representativo para computadores e outros tipos de
hardware formados essencialmente por componentes eletrônicos (LEWIS, 1987).
Observa-se que este tipo de componente normalmente apresenta falhas aleatórias.
O padrão F começa com uma alta taxa de falhas no periodo de falhas prematuras
(mortalidade infantil) que tende a estabilizar-se rapidamente em torno de um valor
aproximadamente constante.
13
Estudos realizados na aviação civil demonstram que 68% das falhas
obedecem ao padrão F e 14% ao padrão E. Os outros padrões apresentam índices
muito menores. Não é possível afirmar que estes mesmos percentuais se repitam na
indústria porém sabe-se que, quanto maior a complexidade do equipamento em
estudo, maiores as chances de predominância dos padrões E e F (MOUBRAY,
1999; LAFRAIA, 2001; LUCATELLI, 2002).
2.3 Função Mantenabilidade e Conceito de Manutenção
O desenvolvimento matemático apresentado para a função confiabilidade R(t)
é válido para a função mantenabilidade G(t). Esta função relaciona-se à capacidade
de reparo e quantifica a probabilidade de que uma falha seja reparada até um tempo
t previamente estabelecido. A mantenabilidade depende do tipo de componente,
sua localização no sistema ou equipamento, ferramentas existentes, conhecimento
técnico, dentre outros fatores. Portanto, o tempo necessário para se realizar um
reparo em um sistema pode ser definido como uma variável aleatória da mesma
forma que o tempo entre falhas. As funções distribuição acumulada de reparo ou
função mantenabilidade G(t) e densidade de probabilidade de reparo g(t) são assim
definidas:
dt
tdGtg )()( = ( 2.16)
O tempo médio para o reparo (mean time to repair) MTTR é definido de
maneira análoga ao MTTF:
[ ] dttgtTEMTTR ∫+∞
==0
)( ( 2.17)
Onde T é a variável aleatória tempo de reparo (TR).
14
Concluindo, todas as expressões apresentadas anteriormente para
modelagem de confiabilidade também são válidas para a modelagem de
mantenabilidade. Apresenta-se a seguir o conceito de manutenção.
Define-se como manutenção o conjunto de ações destinadas a manter ou
recolocar um item em um estado no qual possa executar sua função requerida. O
propósito da manutenção é estender a vida de um equipamento ou, no mínimo,
aumentar o tempo médio até a próxima falha. A ação de não realização de um
procedimento de manutenção pode ter como conseqüência um alto custo em caso
de uma falha. Paradoxalmente, pode não ser viável, do ponto de vista econômico, a
realização de ações de manutenção com uma freqüência muito alta. Assim, o custo
devido a uma provável falha e o custo de manutenção devem ser balanceados de
forma a se obter um ponto ótimo (ENDRENYI et al., 1998)
A manutenção é apenas uma das ferramentas utilizadas para garantir que a
confiabilidade de um componente ou sistema seja satisfatória. Outras opções podem
incluir o aumento da capacidade do sistema, utilização de redundâncias ou o
emprego de componentes intrinsecamente mais robustos (IEEE,2001). Maiores
detalhes sobre manutenção podem ser obtidos em Moubray (1999).
2.4 Função Disponibilidade
Qualitativamente a disponibilidade A (availability) mede a proporção de
tempo que um produto ou processo encontra-se em estado operativo. Define-se por
estado operativo o somatório dos tempos de uso ativo e o tempo de espera (tempo
do qual o equipamento não está em operação mas está disponível para utilização
imediata). Considerando-se um sistema constituído somente de componentes não
reparáveis, o tempo de reparo deixa de existir porque o componente é substituído.
Assim, o conceito de disponibilidade torna-se o mesmo de confiabilidade sendo a
probabilidade que o sistema funcione continuamente do tempo 0 até um tempo t
(DUTUIT; RAUZY, 2005). Como esta situação não corresponde à realidade na
grande maioria das vezes, torna-se necessário o estudo dos estados que um
15
sistema pode assumir e consequentemente, a sua disponibilidade. É possível
representar o estado de um sistema genericamente através da função X(t) (2.18)
=ttemponoofuncionandestánãosistemaose
ttemponoofuncionandestásistemaosetX
01
)( (2.18)
A partir da função X(t) define-se a função disponibilidade instantânea A(t)
como a probabilidade que o sistema esteja em condição operacional no instante t
(2.19)
[ ]1)()( == tXPtA (2.19)
A probabilidade que um sistema esteja indisponível no instante de tempo t é
definida como U(t). É obvio concluir que a soma de A(t) e U(t) deve ser unitária. A
variação da disponibilidade do instante t para o instante (t+ ∆t) é expressa por (2.20)
(CASSADY, 2005). Um procedimento análogo pode ser realizado com relação à
indisponibilidade.
)()()()( tUttAttAttA r∆+∆−=∆+ µλ (2.20)
Onde A(t): disponibilidade;
U(t) : indisponibilidade;
λ: taxa de falha ;
µr : taxa de reparo;
(λ ∆t) : probabilidade do sistema falhar em um tempo finito ∆t;
(µr ∆t) : probabilidade do sistema ser reparado em um tempo finito ∆t.
Considerando-se o caso limite onde a variação ∆t tende a zero, a expressão
(2.21) pode ser reescrita através da equação diferencial:
)()()( tUtAtdtdA
rµλ +−= (2.21)
Considerando-se condições iniciais nulas e solucionando (2.21) tem-se que:
16
[ ]ttA rrr
r )(exp)( µλµλ
λµλ
µ+−
++
+=
(2.22)
Quando a disponibilidade assume um valor constante no tempo define-se o
conceito de disponibilidade estacionária, que pode ser ilustrado na figura 2.4 e
deduzido através de (2.22) Neste caso o valor do tempo tende a infinito resultando
em (2.23)
r
r
ttAA
µλµ+
==∞→
)(lim (2.23)
Figura 2.4: Disponibilidade dinâmica
Sabe-se que no período de vida útil de um equipamento as taxas de falha λ e reparo
µr são aproximadamente constantes. Nestas condições, o tempo médio para reparo
MTTR (mean time to repair) é o inverso da taxa de reparo e o tempo médio entre
falhas MTBF (mean time between failures) é o inverso da taxa de falhas. Assim, é
possível definir a disponibilidade em função do MTBF e do MTTR (2.24)
Procedimento análogo pode ser realizado em relação à indisponibilidade U(t)
obtendo-se (2.25)
MTTRMTBFMTBFA
r
r
+=
+=
µλµ
(2.24)
A(t)
1
t
µr λ+µr
17
r
Uµλ
λ+
= (2.25)
A expressão (2.24) considera que o MTTR (mean time to repair) deve-se
somente ao tempo efetivo de manutenção e não leva em consideração aspectos
administrativos ou logísticos. Quando estes aspectos são considerados define-se o
termo disponibilidade operacional Ao (PALLEROSI, 2004) conforme expressão (2.26)
)()()(
ineficazelindisponívtempoeficazdisponíveltempoeficazdisponíveltempoAo +
= (2.26)
2.5 Modelagem da Confiabilidade e Mantenabilidade de Componentes
Neste tipo de análise podem ser utilizadas técnicas não paramétricas (nas
quais não é necessário especificar nenhuma distribuição de probabilidade) ou
técnicas paramétricas onde é realizada a modelagem dos dados segundo uma
distribuição de probabilidade. Como exemplo de técnicas não paramétricas podem
ser citados os estimadores da Tabela de Vida e Kaplan-Meier (FREITAS E
COLOSIMO,1997)
As técnicas não paramétricas são muito simples em termos matemáticos e
possibilitam obter distribuições de probabilidades empíricas. Estas técnicas podem
ser úteis como testes preliminares principalmente quando não se sabe a priori qual
distribuição de probabilidade poderia ser utilizada para a modelagem dos dados em
estudo (O’ CONNOR, 2002). As técnicas paramétricas permitem realizar uma
análise mais detalhada dos dados e, após a obtenção do modelo, é possível avaliá-
lo para qualquer tempo que seja de interesse.
As funções confiabilidade e mantenabilidade podem ser estimadas
considerando-se a ausência ou presença de dados censurados. Dados censurados
ocorrem quando os testes são terminados antes que todos os itens falhem ou
quando ocorre a presença de dados incompletos e ou parciais.
18
2.5.1 Modelos não Paramétricos
A estimação da Função Confiabilidade na ausência de censura é feita
empiricamente a partir do histograma da distribuição aproximada do tempo de falha.
Neste caso divide-se o número de itens que falharam em um determinado intervalo
pelo número de itens em operação até o tempo que corresponde ao início do
intervalo. O mesmo procedimento pode ser realizado com relação à mantenabilidade
considerando-se o histograma da distribuição aproximada do tempo de reparo.
A estimação da Função Confiabilidade na presença de censura pode ser feita
através da Tabela de Vida (Método Atuarial) ou Estimador de Kaplan-Meier (Limite-
Produto). O Estimador de Kaplan-Meier é uma adaptação da função confiabilidade
empírica definida em (2.27). A expressão (2.28) apresenta sua definição matemática
(FREITAS; COLOSIMO, 1997).
testesobitensdenttempooatéoperaçãoemitensdentR o
o
=∧
)( (2.27)
−
−
−=
∧
0
00)(
...)()()(2
22
1
11
t
tt
ndn
ndn
ndntR
(2.28)
Onde di : número de falhas no tempo ti ;
ni : número de itens sob risco (não falhou e não foi censurado) em ti exclusive;
to : maior tempo de falha menor que t.
2.5.2 Modelos Paramétricos
A modelagem de confiabilidade e mantenabilidade através de técnicas
paramétricas pode ser realizada utilizando-se modelos de distribuição de variável
discreta ou contínua. Dentre as distribuições discretas, são mais utilizadas as
19
distribuições binomial e Poisson. Entretanto, ressalta-se a importância das
distribuições continuas (LEWIS, 1987, DHILLON, 1999), detalhas a seguir. O quadro
2.1 apresenta uma síntese com as principais distribuições de probabilidade utilizadas
nos estudos de confiabilidade e mantenabilidade e suas respectivas equações.
0
Quadro 2.1- Principais distribuições de probabilidade continuas utilizadas em análise de confiabilidade e mantenabilidade
Distribuição f(t) F(t) R(t) h(t)
Exponencial
tetf λλ −=)( 0≥tpara
tetF λ−−= 1)(
MTBFtt eetR
−− == λ)(
λ=)(th
Lognormal
−−
=2ln
21
21)(
σµ
πσtetf
0≥tpara
dttetF ∫∞+
∞−
−−
=2ln
21
21)(
σµ
πσ
)(1)( tFtR −=
)()()(
tRtfth =
Weibull
( )
−−
−−=
β
ηγ
ββ γ
ηβ
t
ettf 1)(
0≥tpara
−−
−=
β
ηγt
etF 1)(
−−
=
β
ηγt
etR )(
( ) 1)( −−= ββ γ
ηβ tth
Onde λ: taxa de falhas
MTBF: tempo médio entre falhas
µ: média (parâmetro de localização)
σ :desvio padrão (parâmetro de dispersão)
β : parâmetro de forma ou inclinação; γ: parâmetro de localização ou vida mínima;
η: parâmetro de escala ou vida característica.
19
20
A distribuição exponencial é uma das mais simples em termos matemáticos e
caracteriza-se por apresentar uma taxa de falhas constante (FREITAS; COLOSIMO,
1997). Esta distribuição é aplicada em situações nas quais as falhas ocorrem de
forma aleatória com uma taxa fixa. Nestes casos não ocorre um mecanismo de
desgaste ou degradação expressivo (propriedade de falta de memória). Nesta
situação específica, na qual a função taxa de falhas h(t) é constante, o parâmetro λ
é o inverso do MTBF.
A distribuição normal é utilizada para modelar a confiabilidade em situações
nas quais existe um tempo de desgaste definido µ (LEWIS, 1987). Apesar de ser
muito utilizada e conhecida, o uso da distribuição normal em engenharia de
confiabilidade é restrito (MEYER,1983 ; DHILLON, 1999).
Tomando-se como referência a distribuição normal, a distribuição Log-Normal
é obtida substituindo-se a variável independente t por ln(t) (FREITAS; COLOSIMO,
1997). Esta distribuição descreve adequadamente tempos de vida de componentes
cujos mecanismos de falha envolvem processos de degradação, fadiga e desgastes
de uma maneira geral (LEWIS, 1987).
A distribuição Log-Normal apresenta uma grande variedade de formas devido
ao efeito da interação da escala logarítmica do tempo com os parâmetros média µ e
dispersão σ. A função densidade de probabilidade f(t) existe somente para valores
positivos de t. Este fato representa uma vantagem com relação à distribuição normal
em termos de representatividade uma vez que o mesmo ocorre com a variável de
interesse (tempo até a falha), em estudos de confiabilidade (O’ CONNOR, 2002).
A distribuição Weibull foi proposta por W.Weibull em 1954 a partir de estudos
relacionados ao tempo de fadiga de metais (FREITAS; COLOSIMO, 1997). Esta
distribuição apresenta grande variedade de formas tendo como propriedade básica
uma função taxa de falhas h(t) monótona que, portanto, pode ser crescente,
decrescente ou constante. A figura 2.5 apresenta a função densidade de
probabilidade da distribuição Weibull considerando β=0.5, β=1 e β=3,4. Observa-se
que quando β tem valor unitário a distribuição de Weibull aproxima-se da distribuição
exponencial. Quando este parâmetro assume um valor no intervalo 3≤ β ≤ 4 a
distribuição de Weibull aproxima-se da distribuição normal (NELSON, 1982). A figura
2.6 apresenta a função taxa de falha h(t) correspondente às distribuições de
probabilidade da figura 2.5. Observa-se que quando β=1 a taxa de falhas é
constante, para valores menores que 1 é decrescente e para valores maiores que 1
21
é crescente (O’ CONNOR, 2002). As figuras 2.7 e 2.8 mostram as funções
distribuição acumulada F(t) e as funções confiabilidade R(t) correspondentes. Todas
as figuras foram geradas utilizando o software Weibull++7™ (RELIASOFT, 2007).
Figura 2.5: Função densidade de probabilidade
Variação de β considerando η = 2 e γ= 0 Figura 2.6:Função taxa de falhas
Variação de β considerando η = 2 e γ= 0
Figura 2.7:Função densidade de falhas acumulada
Variação de β considerando η = 2 e γ= 0 Figura 2.8:Função confiabilidade
Variação de β considerando η = 2 e γ= 0
22
Além das distribuições citadas anteriormente, existem muitas outras que
podem ser utilizadas em estudos de confiabilidade e mantenabilidade. A figura 2.9
(PALLEROSI, 2007) apresenta uma visão geral destas distribuições. Observa-se
que, dependendo da variação de seus parâmetros, a distribuição gama generalizada
pode dar origem às distribuições gama, Weibull triparamétrica, lognormal ou
exponencial. O mesmo ocorre com a distribuição Weibull triparamétrica, que pode
originar as distribuições Weibull biparamétrica, normal, lognormal e exponencial.
Figura 2.9:Relação entre as Distribuições de Probabilidade Fonte: PALLEROSI, 2007
23
2.5.3 Estimação de Parâmetros
Uma vez que a distribuição de probabilidade que supostamente se ajusta aos
dados foi escolhida é necessário estimar seus parâmetros. Dentre os métodos mais
utilizados para esta finalidade podem ser citados os papeis de probabilidade,
mínimos quadrados e máxima verossimilhança. A escolha do método de estimação
a ser utilizado é dependente da quantidade de dados disponíveis e principalmente
da forma como os mesmos são apresentados.
Para a criação de um papel de probabilidade no contexto da engenharia de
confiabilidade, o primeiro passo é promover a linearização da função densidade
acumulada F(t). Assim, será gerado um gráfico cujo eixo das ordenadas representa
F(t) e o eixo das abscissas representa o tempo de vida (ou variável de interesse) em
escala logarítmica. Cabe ressaltar que o termo “papel de probabilidade” neste texto
refere-se à gráficos gerados através de ferramentas computacionais.
Tomando-se como exemplo uma distribuição de Weibull, a equação
linearizada (2.29) pode ser interpretada como a equação de uma reta na forma
Y=AX+B.
)(ln)(ln)(1
1lnln 0 ηββ −−=
−
= tttF
(2.29 )
O parâmetro de forma β corresponde ao coeficiente de inclinação da reta. O
parâmetro de escala η pode ser calculado como o tempo no qual a função F(t)
corresponde a 63,2% (O’ CONNOR, 2002) conforme (2.30). Observa-se que, neste
caso, o parâmetro de vida mínima γ foi considerado igual a zero. Considerando
situações nas quais este parâmetro apresentar outro valor qualquer poderá ser
utilizada a mesma metodologia proposta considerando-se que todos os resultados
encontrados serão deslocados.
−=
ABexpη
(2.30)
24
Existe a necessidade de se ordenar os dados e calcular o percentual
acumulado de falhas F(t). Este cálculo é normalmente realizado pela aproximação
de Bernard (O’ CONNOR, 2002) conforme (2.31).
4,0)3,0(100
+−
=N
iri (2.31)
Onde i : número de ordem.
N : tamanho da amostra;
A figura 2.9 apresentada, como exemplo, um Papel de Probabilidade para a
distribuição Weibull.
Figura 2.9: Estimativa de β e η utilizando-se o papel de probabilidade Weibull
Quando não é possível ou desejável estimar os parâmetros da distribuição de
probabilidade de interesse de forma gráfica, tem-se a opção de utilizar o método dos
mínimos quadrados. Partindo-se do modelo de uma reta como, por exemplo,
apresentado em (2.29) o método de Mínimos Quadrados objetiva minimizar a soma
dos quadrados do erro. Formalmente, as estimativas de mínimos quadrados dos
parâmetros A e B são os valores que tornam mínima a expressão 2.32. O símbolo
“^” indica o valor estimado (MEYER, 1983).
10000 100000
5,00
10,00
50,00
90,00
99,00 6,0 2,0 1,0
β
η
F(t)%
63,2
β≈2
t = η ≈ 28000 ln(t)
25
∑=
∧∧
+−=n
iii BXAYBA
1
2)]([),(ε (2.32)
Onde n : número de observações
A fim de obter as estimativas desejadas dos parâmetros A e B deve-se
resolver (2.33) e (2.34) condição necessária para que o erro ε (A,B) seja mínimo.
0=∂∂Aε (2.33)
0=∂∂Bε (2.34)
A soma do quadrado do erro pode ser calculado com relação ao eixo das
abscissas (eixo y) conforme descrito por (2.32). Como uma outra opção, o mesmo
cálculo pode ser feito com relação ao eixo das ordenadas (eixo x) conforme (2.35)
∑=
+−=n
iii BAYXBA
1
2)]([),(ε (2.35)
Onde n : número de observações.
O método regressão linear apresenta restrições quando aplicado a estudos
que envolvam tempos de vida devido a sua incapacidade de lidar com dados que
são fornecidos em intervalos ou que apresentem censuras (FREITAS; COLOSIMO,
1997). Em geral, é recomendado usar esta técnica somente quando se tem uma
amostra pequena e sem censuras.
Uma outra opção para estimação de parâmetros no contexto da engenharia
de confiabilidade é o método de Máxima Verossimilhança. Este método estima os
valores dos parâmetros de uma dada distribuição de probabilidade tal que a função
de verossimilhança L seja maximizada. A expressão 2.36 apresenta uma pdf
genérica.
( 2.36)
Onde t : tempo até a falha; )...,,;( 21 ktf θθθ
26
θk : parâmetros a serem estimados.
Sejam t1,...,tn os valores amostrais da variável aleatória “tempo até a falha” e θ
o vetor de parâmetros que se deseja estimar. A função de verossimilhança L é
definida por (2.37) (MEYER, 1983; DHILLON, 1999). Considera-se que não
ocorreram censuras.
(2.37)
Onde L : função de verossimilhança;
tn : tempos até a falha;
θ : vetor de parâmetros a serem estimados.
Portanto, considerando-se conjuntos de dados não censurados, a função de
verossimilhança é o produto das funções pdf resultantes de cada observação do
conjunto de dados. Este conceito é expresso por (2.38)
(2.38)
Onde L : função de verossimilhança;
tn : tempos até a falha;
θk : parâmetros a serem estimados;
k : quantidade de parâmetros da distribuição;
n : número de observações.
Para se maximizar a função de verossimilhança L, é usual utilizar sua versão
em forma logarítmica, conforme (2.39)
(2.39)
A partir de 2.39 deve-se encontrar o conjunto de parâmetros que a maximiza.
Este cálculo é realizado determinando-se as derivadas parciais em relação a cada
parâmetro e igualando o resultado a zero. Assim, a maximização de ln L resulta da
)...,,;()...,,;...,( 211
212,1 ki
n
ikn tftttL θθθθθθ ∏
=
=
);(...);();();...,( 212,1 θθθθ nn tftftftttL =
)...,,;(ln)...,,;...,(ln 211
212,1 ki
n
ikn tftttL θθθθθθ ∑
=
=
27
solução simultânea de k equações , conforme expresso em (2.40)
kjL
j
,...,2,1,0ln==
∂∂θ
(2.40)
Considerando-se dados censurados, a contribuição de cada observação é
apenas informar que o tempo de falha é maior que o tempo de censura observado.
Portanto, a contribuição de um dado censurado para a Função Verossimilhança L é
expresso pela sua função confiabilidade R(t). As observações podem ser divididas
em dois conjuntos conforme (2.41) (FREITAS; COLOSIMO, 1997).
(2.41)
Onde L : função de verossimilhança;
R : função confiabilidade;
tn : tempos até a falha;
θk : parâmetros a serem estimados ;
k : quantidade de parâmetros da distribuição;
n : número total de observações;
r : observações que não apresentam censura.
Conforme mencionado anteriormente, é recomendado usar a técnica de
regressão quando se tem uma amostra pequena e sem censuras. Quando existem
grandes quantidades de dados ou muitas censuras estejam presentes, o estimador
de máxima verossimilhança pode ser indicado como a melhor opção.
2.5.4 Validação de Modelos
A validação de modelos é uma etapa posterior à estimação de parâmetros na
qual pretende-se verificar se o modelo escolhido é adequado para representar os
dados observados. Esta análise pode ser realizada a partir de técnicas gráficas ou
testes de adequação.
)...,,;()...,,;()...,,;...,( 211
211
212,1 ki
n
riki
r
ikn tRtftttL θθθθθθθθθ ∏∏
+==
=
28
O gráfico conhecido como Papel de Probabilidade (detalhado anteriormente) apresenta eixos calculados de tal forma que, se os dados puderem ser ajustados por
uma reta, a distribuição de probabilidade escolhida é adequada para modelar os
dados em estudo. Portanto, um método gráfico simples e intuitivo para a validação
consiste em traçar os dados em diferentes papeis de probabilidade e verificar qual
deles é mais adequado.
Uma outra opção gráfica consiste em comparar os valores da função
confiabilidade (ou da função probabilidade de falha) obtidos através de um modelo
paramétrico candidato e um estimador não paramétrico (FREITAS; COLOSIMO,
1997). A validação de modelos pode ainda ser realizada a partir de técnicas
numéricas ou testes de adequação. Um teste de adequação tem por finalidade
verificar a hipótese de que uma determinada distribuição de probabilidade possa
modelar satisfatoriamente um conjunto de dados amostrais.
O teste do Qui-Qradrado é muito versátil uma vez que pode ser aplicável a
qualquer distribuição de probabilidade. Os dados são inicialmente divididos em
classes (ou células), sendo que, para que se tenha precisão, é desejável ter no
mínimo três classes com no mínimo cinco valores em cada uma. (O’ CONNOR,
2002). Embora o teste estatístico do Qui-Quadrado seja muito utilizado para verificar
a adequação de modelos probabilísticos, este teste não é muito indicado para
estudos de confiabilidade. Esta afirmação deve-se à eventual presença de dados
censurados e à exigência de uma grande quantidade de dados, nem sempre
disponíveis (FREITAS; COLOSIMO, 1997).
O teste Kolmogorov-Smirnov é um pouco mais simples do que o teste Qui-
Qradrado e pode oferecer melhores resultados quando a quantidade de dados
disponíveis é pequena. Este teste pode ser utilizado em conjunto com a técnica
gráfica papel de probabilidade uma vez que também é baseado na pdf (função
distribuição acumulada) dos dados (O’ CONNOR, 2002). Dhillon (1999) cita os testes
Bartlet e Geral Exponencial, porém ambos são aplicáveis somente quando a
distribuição a ser testada é exponencial.
Concluindo, não existe na literatura pesquisada um consenso sobre um teste
de aderência com aplicação universal. Ressalta-se, portanto a importância do
conhecimento de engenharia a ser utilizado no processo de escolha de um modelo
adequado para representar os dados em estudo.
29
3 MODELAGEM DE SISTEMAS Entende-se por sistema um conjunto de itens integrados de forma a atender um
determinado objetivo. A confiabilidade de um sistema é dependente da
confiabilidade de seus componentes e da forma como os mesmos estão interligados.
Considerando-se um sistema não reparável, a variável aleatória de interesse é o
tempo até a falha. Neste caso não é possível (ou viável economicamente) realizar
ações de reparo de forma a reconduzir o sistema ao estado operativo após uma
falha.
Define-se como sistema reparável aquele que, após uma falha, pode ter sua
condição normal de operação restabelecida através de alguma ação de
manutenção. Tratando-se um sistema reparável, as variáveis aleatórias de interesse
são os tempo entre falhas e os tempos de reparo. Assim, deve ser realizado não
somente o cálculo de confiabilidade mas também os cálculos de mantenabilidade e
disponibilidade.
O cálculo da confiabilidade e demais variáveis de interesse (mantenabilidade e
disponibilidade) pode ser realizado de forma analítica ou através de simulação,
conforme detalhado nos itens subseqüentes. Uma outra classificação possível é a
subdivisão em métodos qualitativos e quantitativos.
3.1 Modelagem de Sistemas não Reparáveis Existe um amplo espectro de técnicas disponíveis para a modelagem da
confiabilidade de sistemas não reparáveis. Uma das classificações usualmente
utilizada é agrupá-las em técnicas quantitativas e qualitativas (ROUVROYE; VAN
DEN BLIEK, 2002). Dentre as técnicas qualitativas mais importantes para a modelagem de
sistemas podem ser citadas a análise de modo e efeito de falhas (FMEA - Failure
Mode and Effect Analysis) e a Árvore de Falhas (FTA- Faut Tree Analysis)
(HELMAN; ANDERY, 1995).
30
Observa-se que a FTA pode ser desenvolvida segundo uma abordagem
qualitativa ou quantitativa. Apesar de não ser um procedimento intrínseco à
metodologia original, a FMEA também pode assumir uma abordagem quantitativa
se a análise for baseada em dados históricos.
O Diagrama de Blocos de Confiabilidade (RBD - Reliability Block Diagram)
(MURPHY; CARTER, 2003) é citado na literatura como uma das técnicas
quantitativas mais utilizadas.
Outra classificação possível seria a subdivisão em métodos analíticos e
numéricos (METTAS; SAVVA, 2001). O enfoque analítico envolve a determinação
de uma expressão matemática que descreve a confiabilidade do sistema em estudo
através da confiabilidade de seus componentes. O valor da confiabilidade de cada
componente Ri(t) pode ser estimado através de uma distribuição de probabilidade
pelo método de Análise de Tempo de Falha. Logo, o principal desafio é encontrar a
relação entre os componentes do sistema e expressá-la matematicamente. Embora os métodos analíticos para cálculo de confiabilidade forneçam valores
exatos, a complexidade de suas expressões matemáticas faz com que estes sejam,
às vezes, intratáveis. Neste caso, podem ser empregados métodos numéricos
também definidos como métodos de simulação. O termo simulação refere-se a uma
família de técnicas baseadas em cálculos computacionais que objetivam reproduzir o
comportamento de um dado sistema.
A modelagem através de simulação tem se tornado uma poderosa ferramenta
que possibilita o estudo de sistemas complexos e facilita o processo de tomada de
decisão (BARZAGAN; MCGRATH, 2003). Existe uma tendência em considerar que
as técnicas baseadas em simulação apresentam um capacidade de representação
da realidade superior às técnicas analíticas (MARSEGUERRA; ZIO, 2005). Esta
suposição deve-se à incerteza intrínseca com relação aos tempos de reparo e
atrasos logísticos, bem como a disponibilidade de recursos.
3.1.1 Análise de Modos e Efeitos de Falhas
A Análise de Modos e Efeitos de Falhas FMEA (Failure Mode and Effect
Analysis) é um método padronizado de análise que visa identificar todos os
31
possíveis modos potenciais de falha e determinar o efeito de cada um sobre o
desempenho do sistema (produto ou processo). A aplicação da metodologia FMEA
requer uma equipe multidisciplinar e multi-hierárquica de forma a ser o mais
abrangente possível (HELMAN; ANDERY, 1995). Define-se como modo de falha um evento que provoca uma diminuição parcial
ou total da função do produto e de suas metas de desempenho. As causas são
eventos que geram, provocam ou induzem o aparecimento do tipo (modo) de falha e,
finalmente, os efeitos são formas como os modos de falha afetam o desempenho do
sistema (PALADY, 1950).
O resultado da análise é consolidado através de um formulário (figura 3.1),
constando uma identificação inicial que especifica se a análise refere-se a um
produto ou processo e dados de registro particulares. Em seqüência, são
introduzidos o nome do item, componente ou etapa do processo e sua função.
Posteriormente, são registradas as falhas e respectivos modo, efeito, causa e a
possível existência de alguma ação de controle para que a falha analisada não
ocorra. Finalmente, são computados os índices de gravidade (G), detecção (D),
ocorrência (O) e risco (R). A última etapa consiste na sugestão de uma ação
corretiva para evitar a falha. A seta indicada na figura 3.1 representa a necessidade
de atualização contínua da análise.
Figura 3.1: Exemplo de um formulário utilizado para FMEA
32
3.1.2 Análise por árvore de falhas
A análise por árvore de falhas (FTA - Faut Tree Analysis) é um método
sistemático que correlaciona um determinado efeito com suas possíveis causas,
estabelecendo relações operacionais entre as mesmas (HELMAN; ANDERY, 1995).
O processo de construção da árvore de falha de um sistema começa com a
escolha de evento específico (evento de topo) e trabalha no sentido de obter todas
as falhas básicas que podem causar o evento analisado. Os eventos são
relacionados através de portas lógicas sendo que a seqüência de eventos conduzem
a causas básicas para as quais a taxa de falha é conhecida (DHILLON,1999).
A figura 3.2 apresenta um exemplo de uma árvore de falhas. As causas
básicas são denotadas por círculos e representam os limites de resolução da árvore
de falha. Eventos que possuem mais de uma causa básica (denotados por
retângulos) podem ser desdobrados. Esta técnica permite a visualização do
problema a ser analisado através de uma representação gráfica simples e objetiva,
além de direcionar a análise. Conhecendo-se as taxas de falhas dos eventos
básicos e a relação de causa e efeito entre elas (representada pelas portas lógicas)
é possível calcular a confiabilidade do evento de topo.
Figura 3.2: Exemplo de uma Árvore de Falhas
E3 A
E1
B C
F E4
E2
H G
Evento de Topo
33
3.1.3 Diagrama de Blocos de Confiabilidade
A lógica de falha de um sistema pode ser representada como um Diagrama de
Blocos de Confiabilidade também conhecido através da abreviação RBD (Reliability
Block Diagram). Este diagrama é um modelo que mostra as conexões lógicas entre
os elementos de um sistema e permite visualizar a relação existente entre a
confiabilidade geral do sistema em estudo R(t) e a confiabilidade parcial de cada um
de seus componentes Ri (t).
Um RBD apresenta três elementos básicos: componentes, ligações (links) e
nós. Os componentes são tradicionalmente representados como blocos e possuem
numerosos atributos como por exemplo a função distribuição probabilidade de falha.
Um link é simplesmente uma linha que conecta dois blocos e os nós promovem a
ligação entre os links. Os links e nós são construções lógicas que definem os
caminhos (paths) de um sistema. Um caminho é definido como um percurso
contínuo e sem sobreposições da entrada a saída de um RBD (MURPHY; CARTER,
2003).
Uma análise de confiabilidade em um sistema qualquer deve ser precedida da
definição inequívoca do que constitui uma falha. Dependendo da complexidade do
sistema pode ser possível definir diferentes possibilidades para a ocorrência de falha
e nestes casos é necessária a construção de um RBD diferente para cada situação.
Portanto, uma restrição significativa quanto à utilização de RBD’s é a necessidade
da existência de somente uma entrada e uma saída. Um RBD mostra as conexões lógicas entre os elementos de um sistema e não
necessariamente tem a mesma formatação do diagrama esquemático de
funcionamento. Assim, em sistemas cujos componentes apresentam formas
complexas de interações, a construção de um RDB pode tornar-se uma tarefa com
grande grau de dificuldade (O’ CONNOR, 2002).
A figura 3.3 apresenta um exemplo de RBD formado pelos subsistemas 1
(configuração série), 2 (configuração paralelo), 3 (configuração k de n) e 4
(configuração stand-by).
A confiabilidade R(t) de um sistema em série é dada por (3.1) e a
probabilidade de que ambos falhem F(t) é dada por (3.2). Este procedimento pode
34
ser generalizado para n componentes ligados em série (3.3) quando os
componentes tiverem a mesma confiabilidade Rm (LAFRAIA, 2001).
Figura 3.3: Exemplo de um diagrama de blocos de confiabilidade
)()()( tRtRtR bA= (3.1 )
)()()()()( tFtFtFtFtF bAbA −+= (3.2 )
n
ms tRtR )()( = ( 3.3)
Onde n : número total de componentes;
Rm(t) : confiabilidade de cada um dos componentes.
A confiabilidade de um sistema em paralelo é dada por (3.4) e a probabilidade
de que ambos falhem F(t) é dada por (3.5).
−+= )()()( tRtRtR bA )()( tRtR bA (3.4 )
)()()( tFtFtF bA= (3.5 )
2 1
F
D E
3
B
B
k/n
B
A
4
C
C
C
j
35
Este procedimento pode ser generalizado para n componentes ligados em
paralelo (3.6) quando os componentes tiverem a mesma confiabilidade Rm.
[ ] nms tRtR )(11)( −−= (3.6 )
Onde n : número total de componentes;
Rm(t) : confiabilidade de cada um dos componentes.
Um sistema com redundância em stand-by apresenta unidades adicionais que
são acionadas caso ocorra uma falha na unidade em operação (figura 3.3,
subsistema 4). Neste caso as falhas de cada bloco são estatisticamente
independentes e supõe-se que a unidade de chaveamento é isenta de falhas
(LAFRAIA, 2001). A expressão (3.7) apresenta o valor da função confiabilidade R(t)
para este sistema considerando-se que todas as unidades são idênticas e com a
mesma taxa de falha.
∑=
−
=n
i
ti
iettR
0 !)()(
λλ ( 3.7 )
Onde n: N-1 ( número de unidades em stand by – não ativas).
A figura 3.3 (subsistema 3) apresenta um exemplo de redundância “k” de “n”.
Nesta configuração um número “k” de unidades deve estar operando para o sucesso
do sistema . A função confiabilidade R(t) neste caso é dada por (3.8)
(LAFRAIA,2001)
inin
ki
ni RRCtR −
=
−= ∑ )1()( (3.8 )
Onde n : número de unidades total do sistema;
k :número de unidades requerida;
R : confiabilidade de cada unidade;
niC : combinação “n”, “i” a “i”.
A maneira mais intuitiva de se calcular a confiabilidade de um RBD é reduzir o
diagrama global em agrupamentos de componentes ligados em série ou em
36
paralelo. Nesta metodologia considera-se que os eventos são independentes e os
cálculos de confiabilidade podem ser facilmente executados. Quando é inviável realizar a redução do diagrama global em ligações série
paralelo podem ser utilizadas técnicas alternativas que fornecerão resultados
aproximados como o método dos cortes (cut set) ou o método dos caminhos (path
set). Outra possibilidade é a utilização de métodos numéricos como a simulação de
Monte Carlo detalhada no item 3.2.4.
Um conjunto de corte mínimo é uma combinação da menor quantidade de
falhas primárias tal que, se todas ocorrerem simultaneamente o evento de topo
também ocorrerá (FREITAS; COLOSIMO, 1997). Por definição cada conjunto de
corte mínimo é a intersecção das falhas primárias que o constitui. A confiabilidade de
um sistema Rsist calculada através do método dos cortes mínimos é expressa por
(3.9) (O’ CONNOR, 2002).
( )∑ ∏= =
−−>N
i
n
jisist RR
1 1
11 (3.9)
Onde Ri: confiabilidade de cada unidade;
n : número blocos;
N : número total de conjuntos de corte .
Os caminhos (paths) de um sistema podem ser definidos como um percursos
contínuos e sem sobreposições do início ao final de um RDB (MURPHY; CARTER
2003). A análise através de caminhos objetiva encontrar conjuntos de blocos tais
que se todos estiverem funcionando o sistema estará em funcionamento. Esta
metodologia é formalizada através de (3.10) (O’ CONNOR, 2002).
∑∏= =
<T
i
n
jisist RR
1 1
(3.10 )
Onde Rsist : confiabilidade do sistema;
Ri : confiabilidade de cada unidade;
n : número blocos;
T: número total de conjuntos de caminhos.
37
3.1.4 Simulação de Monte Carlo
Esta metodologia é baseada na simulação de variáveis aleatórias para
resolução de problemas e por ser considerada muito simples e flexível pode ser
aplicada à problemas de qualquer nível de complexidade (MARSEGUERRA; ZIO,
2005).
É importante ressaltar que a simulação de Monte Carlo pode ser aplicada a
sistemas não reparáveis e também a sistemas reparáveis. Considerando-se um
sistema não reparável, a variável aleatória de interesse é o tempo até a falha.
Tratando-se um sistema reparável, as variáveis aleatórias de interesse são os
tempos entre falhas e os tempos de reparo.
A simulação de Monte Carlo pode ter uma abordagem seqüencial ou não
seqüencial. Na primeira possibilidade os estados do sistema são sequencialmente
amostrados por vários períodos de tempo simulando uma realização do processo
estocástico de operação do sistema. Considerando a abordagem não seqüencial o
espaço de estados é amostrado aleatoriamente sem levar em consideração a
cronologia do processo de operação do sistema.
A simulação pode ser utilizada tendo como base a maioria das diversas
topologias utilizadas para modelar a confiabilidade de um sistema. Uma grande
vantagem é que as probabilidades de transição entre os estados do sistema podem
assumir qualquer valor e não necessariamente devem permanecer constantes.
Como conseqüência deste fato, a simulação de Monte Carlo permite efetuar o
cálculo de sistemas cujos componentes são modelados por qualquer distribuição de
probabilidade (Weibull, normal, lognormal, etc.) o que permite maior flexibilidade e
maior compromisso com a realidade.
3.2 Modelagem de Sistemas Reparáveis
Tratando-se de um sistema reparável, as variáveis aleatórias de interesse são
tempo entre falhas e tempo de reparo. Assim, conforme citado anteriormente, deve
ser realizado não somente o cálculo de confiabilidade mas também os cálculos de
mantenabilidade e disponibilidade.
38
Os métodos para análise de sistemas reparáveis podem ser divididos em duas
grandes vertentes. A primeira vertente, chamada abordagem por componentes,
considera os componentes individualmente (lowest replaceable unit). Neste caso é
necessário se conhecer as funções densidade de probabilidade de falha e de reparo
relativas a cada componente e a forma como os mesmos estão conectados
(METTAS, 2006).
A outra forma de análise, chamada abordagem por sistema, consiste em
considerar os dados de falhas como realizações de um processo estocástico de
contagem (COIT, 2005). Neste caso, todas as falhas do sistema são consideradas
em conjunto sendo muito utilizados os processos de Poisson homogêneo (HPP) e
não homogêneo (NHPP) (RIGDON, BASU, 2000).
Um modelo de confiabilidade de um sistema reparável inclui usualmente a
confiabilidade dos componentes, a arquitetura do sistema, o esquema físico de
operação, bem como aspectos relacionados à disponibilidade, mantenabilidade e
práticas de manutenção utilizadas. É desejável ainda que, na medida do possível,
também inclua fatores subjetivos como erro humano e atrasos logísticos, dentre
outros (LOGMAN; WANG, 2002).
A modelagem de sistemas reparáveis a partir da abordagem por componentes
é detalhada no item 3.3.1 no qual são deduzidas expressões analíticas que
permitem calcular a confiabilidade e a disponibilidade do sistema a partir das taxa de
falha e o tempo de reparo (CARVALHO; MENEZES; CAMINHAS, 2006).
A abordagem por sistema é apresentada no item 3.3.2 no qual são
apresentados os processos de Poisson homogêneo (HPP) e não homogêneo
(NHPP) segundo Ascher e Feingold (1984).
3.2.1 Abordagem por componentes
A abordagem por componentes para análise de um sistema reparável
considera os componentes individualmente (lowest replaceable unit) conforme
Cassady e Pohl (2005) e Mettas (2006). A figura 3.4 representa as funções
densidade de probabilidade de falha f(t) e de reparo g(t) relativas a um componente
hipotético. Em um nível de detalhamento maior é possível ainda considerar as
39
funções f(t) e g(t) para cada modo de falha de cada componente. O tempo em que o
sistema encontra-se em estado operativo to é determinado por f(t) e o tempo
indisponível ti é determinado por g(t). Sendo conhecidas estas distribuições e a
forma como os componentes estão interligados é possível calcular a disponibilidade
do sistema a partir de métodos analíticos ou numéricos.
Figura 3.4: Distribuições de probabilidade para um componente reparável genérico
Fonte: Adaptado a partir do trabalho de METTAS, 2006.
Considera-se neste trabalho que após a ocorrência de uma falha é realizado
um reparo imediatamente e que o reparo é capaz de levar o item falho novamente a
sua condição original. Esta condição pode ser observada na figura 3.4, pois as
distribuições de probabilidade de falha antes e após o reparo são idênticas. Neste
caso as ações de reparo conduzem o sistema à condição “tão bom quanto novo”
(METTAS; ZHAO, 2005). Ao admitir esta premissa como válida, supõe-se que os
dados de falha não exibem nenhuma tendência de comportamento (intensidade de
falhas aproximadamente constante) e que o sistema pode ser modelado através de
processo de renovação.
Uma vez realizada a modelagem das variáveis aleatórias tempos entre falhas e
tempos de reparo, se for constatada a adequação da distribuição exponencial para
ambas as variáveis, o sistema pode ser modelado utilizando-se Diagramas de
Markov. A análise de Markov é aplicável desde que as seguintes restrições sejam
respeitadas:
40
1-As probabilidades de transição entre os estados permanecem constantes ao
longo do tempo.
2- A probabilidade de um estado futuro independe dos estados anteriores
excetuando-se o estado imediatamente precedente (propriedade de falta de
memória).
A figura 3.5 apresenta um Diagrama de Markov para um único componente X
que pode assumir os estados O em funcionamento e o estado F falho. A
probabilidade de transição do estado de funcionamento para o estado falho é P0→F e
a probabilidade de transição no sentido contrário é PF→0. Este é um exemplo de
processo discreto (O’ CONNOR, 2002).
Figura 3.5 - Diagrama de Markov para um componente
O somatório das probabilidades de transição incluindo a auto-transição deve
ser unitário. Considerando um estado inicial é possível construir o diagrama em
árvore onde são representadas todas as possibilidades de transição para n
intervalos de tempo.
A partir do diagrama em árvore pode-se calcular a probabilidade de o item
estar em qualquer estado após um determinado número de intervalos de tempo
(MAILLART; POHL, 2005). Os mesmos resultados podem ser obtidos através da
matriz de transição de estados (3.11). Esta matriz elevada a n- ésima potência
corresponde ao n- ésimo intervalo de tempo.
1101
1000
SSSS
SSSS
PP
PPY
→→
→→
=
(3.11 )
O F
PF 0
P0 F
1 - P0 F 1 - PF 0
41
Onde Elemento (1,1): probabilidade do item estar disponível;
Elemento (1,2): probabilidade do item estar indisponível;
Elemento (2,1): probabilidade do item ser reparado;
Elemento (2,2): probabilidade do item não ser reparado.
Portanto, um diagrama de Markov representa eventos dependentes e permite o
cálculo da evolução temporal dos estados de um sistema desde que as
probabilidades de transição entre estes estados permaneçam constantes. Esta
imposição é uma limitação significativa e implica no uso de distribuições de
probabilidade exponenciais para a modelagem das taxas de falha e de reparo.
Embora o diagrama de Markov seja capaz de descrever intricadas relações
dinâmicas entre modos de falhas, existe uma falta de flexibilidade considerável.
Pode ser observado ainda que, dependendo do tamanho do sistema modelado,
pode existir um número demasiadamente grande de estados possíveis, o que
inviabiliza a análise do comportamento do sistema. Desta forma, conclui-se que este
método é mais adequado para análise da confiabilidade de sistemas de pequeno
porte (VOLOVOI, 2004) (MAILLART; POHL, 2005)
Um segundo método para calcular a confiabilidade e a disponibilidade de um
sistema reparável de forma analítica é a Metodologia Lambda-Tau. A proposta desta
metodologia é calcular a confiabilidade de um sistema reparável a partir da taxas de
falha λ (lambda) e tempo de reparo τ (tau) de seus componentes. O método baseia-
se no fato de que o sistema pode ser representado através de uma árvore de
falhas livre de eventos redundantes (KENEZEVIC; ODOOM, 2001)
A partir do modelo em árvore de falhas podem ser deduzidas expressões
analíticas para o cálculo da taxa de falha λ e do tempo de reparo τ associadas aos
operadores lógicos OR (componentes em série) e AND (componentes em paralelo),
a partir dos conceitos de disponibilidade e análise em espaço de estados.
A metodologia Lambda-Tau é baseada na análise em espaço de estados
(detalhada anteriormente). Considerando-se dois componentes atuando em conjunto
é possível reconhecer quatro estados conforme representado na figura 3.6. A
condição de operação é indicada pelo sub-índice “ O” e a condição de falha pelo sub-
índice “F”. No estado P1 os dois componentes estão em funcionamento
simultaneamente, nos estados P2 e P3 um dos dois componentes está em condição
42
de falha e no estado P4 ambos os componentes encontram-se em falha
(BILLINTON, 1978).
Figura 3.6: Possíveis estados para 2 componentes
Fonte: BILLINTON, 1978
Os estados P1 e P2 podem ser expressos matematicamente através das
expressões 3.12 e 3.13 respectivamente. Os estados P3 e P4 podem ser definidos
de forma análoga.
+
+
=22
2
11
11
r
r
r
rPµλ
µµλ
µ
(3.12)
+
+
=22
2
11
12
r
r
r
Pµλ
µµλ
λ
(3.13)
A disponibilidade de um sistema reparável composto por n componentes em
série é condicionada ao funcionamento simultâneo de todos os componentes.
Considerando-se um sistema reparável composto por n componentes em paralelo,
uma falha ocorrerá somente se todos os componentes falharem. A partir destas
hipóteses, as expressões para o cálculo de dois componentes podem ser deduzidas
e posteriormente generalizadas para n componentes conforme quadro 3.1
(CARVALHO; MENEZES; CAMINHAS, 2006).
λ2
Estado P1 1O 2O
Estado P2 1F 2O
λ1
Estado P3 1O 2F
Estado P4 1F 2F
λ1
λ2
1rµ
2rµ2rµ
1rµ
λ1µ1
43
Expressão
Sistema série
(porta OR)
Sistema paralelo
( porta AND)
λ para 2 componentes
21 λλλ +=S
( )2121 ττλλλ +=P
τ para 2 componentes
SS λ
τλτλττλλτ 22112121 ++
=
21
21
τττττ+
=P
λ genérica completa
i
n
iS λλ ∑
=
=1
( ) ( )∏ ∏
∑∏∏
= =
=≠==
−+
= n
i
n
iiiii
n
j
n
jii
i
n
ii
P
1 1
1 11
1 τλτλ
τλ
λ
λ genérica simplificada
-
= ∑∏∏
=≠==
n
j
n
jii
i
n
iiP
1 11
τλλ
τ genérico completo ( )
∑
∏
=
=
−
+
= n
ii
n
iii
s
1
1
11
λ
τλτ
∑∏
∏
=≠=
== n
j
n
jii
i
n
ii
P
1 1
1
τ
ττ
τ genérico simplificado
∑
∑
=
== n
ii
ii
n
is
1
1
λ
τλτ
-
Quadro 3.1: Expressões metodologia Lambda-Tau
Outra opção para análise de um sistema reparável considerando os
componentes individualmente é a utilização de simulação de Monte Carlo. Conforme
mencionado anteriormente, a maior vantagem desta técnica é possibilidade de
utilização de qualquer distribuição de probabilidade para modelagem das variáveis
aleatórias tempos entre falhas e tempos de reparo. Este fato permite grande
flexibilidade.
44
3.3.2 Abordagem por sistemas
Os modelos aplicáveis a sistemas reparáveis podem ser divididos em
processos estocásticos pontuais (stochastic point processes) e modelos que
envolvem equações diferenciais (ASCHER; FEINGOLD, 1984). O segundo tipo tem
tido aplicação restrita a estudos de crescimento da função confiabilidade (Reliability
Growth) (CROW, 2005).
Um processo estocástico pontual (stochastic point process) modela
adequadamente um fenômeno físico caracterizado por eventos altamente
localizados e distribuídos randomicamente. Neste caso os tempos de reparo são
desprezados e considera-se que as falhas ocorreram em uma seqüência específica.
Quando são considerados o número de falhas e os respectivos instantes de
ocorrência é caracterizado um processo estocástico de contagem (counting
process).
Um sistema reparável pode ser modelado como um processo de contagem de
falhas sendo considerados os efeitos de sucessivas ações de reparo. A função
intensidade de falha um processo estocástico i(t) é definida (ASCHER; FEINGOLD,
1984; SANTOS, 2003) por:
ttttfalhadeocorrênciaPti ot ∆
∆+= →∆
)},({lim)( (3.14)
{ }t
tNttNPti ot ∆−∆+
= →∆)()(lim)( (3.15)
Onde N(t) : número de falhas
Quando os dados de falha não exibem nenhuma tendência de comportamento
(intensidade de falhas aproximadamente constante) o sistema pode ser modelado
através de processo de renovação. Neste caso as ações de reparo conduzem o
sistema à condição “tão bom quanto novo” (METTAS; ZHAO, 2005). Quando a
intensidade de falhas i(t) apresenta característica decrescente caracteriza-se o
crescimento da confiabilidade (Reliability Growth) e quando exibe tendência
45
crescente são caracterizados processos de degradação e/ou deterioração (COIT,
2005).
Um processo de Poisson homogêneo (HPP) é um caso especial de processo
de renovação que apresenta tempos entre falhas independentes e
exponencialmente distribuídos. Portanto, a função intensidade para um HPP é
constante.
O processo de Poisson não homogêneo (NHPP) modela o comportamento não
estacionário (variante no tempo) descrevendo adequadamente intensidades de falha
crescentes e decrescentes.
46
4 ANÁLISE NEBULOSA DE FALHAS
Inicialmente será apresentada uma rápida discussão sobre técnicas para
análise de falhas quando não existem dados. No item 4.2 será realizada uma breve
revisão bibliográfica sobre metodologias nebulosas para cálculo de confiabilidade.
Considera-se que todas as metodologias apresentadas possam ser adaptadas para
o cálculo de mantenabilidade. No item 4.3 será detalhado o modelo nebuloso
proposto para análise de falhas. No item 4.4 será introduzida a característica de
adaptação à estrutura apresentada no item anterior.
4.1 Alternativas para Análise de Falhas Considerando Inexistência de Dados Apresenta-se a seguir uma visão geral das alternativas para análise de falhas
quando não existem dados. Objetiva-se introduzir a proposta apresentada em uma
contexto amplo que englobe técnicas convencionais e técnicas baseadas em
inteligência computacional (figura 4.1). Cabe ressaltar que as duas abordagens,
convencional e baseada em inteligência computacional não são conflitantes e sim
complementares.
A abordagem convencional apresenta as opções de utilização de testes
acelerados, modelagem não paramétrica, modelagem paramétrica com
conhecimento a priori e casos particulares da estatística Bayesiana. Os testes
acelerados normalmente são utilizados nas fases iniciais de desenvolvimento de um
produto e, portanto, teriam pouco ou nenhuma utilidade para auxiliar o processo de
tomada de decisão em atividades de manutenção. Além disso, o projeto de um teste
acelerado envolve uma grande complexidade devendo levar em consideração
inúmeros fatores.
47
Figura 4.1: Alternativas para cálculo de confiabilidade quando não existem dados
A utilização de modelos não paramétricos, como por exemplo, o estimador de
Kaplan-Meier, apresenta muitas limitações. Apesar destes modelos serem
excelentes como ferramentas exploratórias, existem, por exemplo, dificuldades de
se realizar predições fora da escala de observação.
Quando o comportamento da taxa de falha é aproximadamente aleatório e
existem poucos dados é possível supor a adequação de uma distribuição de
probabilidade contínua exponencial. Nesta situação utiliza-se conhecimento a priori
para auxiliar a modelagem. Entretanto, a suposição de um comportamento de falha
puramente aleatório, normalmente não é verdadeira.
Testes Acelerados
Modelos não paramétricos
Modelos paramétricos com
conhecimento a priori
Abordagem tradicional
Redes Neurais
Sistemas Nebulosos
Algoritmos Genéticos
Abordagem Neuro Nebulosa
Números Nebulosos
Processo de Inferência Nebulosa
Inteligência
computacional
Inexistência de
dados
48
A abordagem Bayesiana (PAULINO et al,2003) oferece uma metodologia que
possibilita a incorporação de conhecimento tácito aos modelos convencionais. Estas
informações são traduzidas na forma de uma distribuição de probabilidade a priori.
Um caso particular desta abordagem é a modelagem estatística quando não existem
dados. No trabalho de Carvalho et.al. (2007) são explorados alguns exemplos desta
situação específica porém observa-se ser necessário um profundo conhecimento
sobre o componente modelado.
Concluindo, quando não existem dados, o conhecimento de engenharia e o
bom senso desempenham um papel fundamental no processo de tomada de
decisão. Enfim, neste caso, as decisões cabem exclusivamente aos especialistas
humanos. As técnicas de inteligência computacional apresentam uma opção natural
uma vez que valorizam a experiência humana.
O cálculo de confiabilidade baseado em técnicas de inteligência
computacional pode abranger o uso de sistemas nebulosos, redes neurais,
algoritmos genéticos ou técnicas híbridas. A abordagem nebulosa, ferramenta
principal utilizada neste trabalho, oferece uma metodologia formal para modelar o
conhecimento humano. Esta é sua principal vantagem. 4.2 Metodologias Nebulosas para Cálculo da Confiabilidade de Sistemas
O conceito de confiabilidade nebulosa foi introduzido e desenvolvido por vários
autores. CAI (1991) apresenta abordagens distintas considerando a combinação de
hipóteses válidas para a entrada e saída do sistema a ser estudado. As medidas
realizadas podem estar no âmbito da probabilidade ou da possibilidade e os estados
de saída podem ser binários ou nebulosos (figura 4.2). A combinação destas
hipóteses gera a classificação dos sistemas em PROBIST (PRObability Assumption
and BInary-STate), PROFUST (PRObability Assumption and FUzzy-STate)
POSBIST (POSsibility Assumption and BInary-STate) e POSFUST (POSsibility
Assumption and FUzzy-STate). A aplicação da metodologia nebulosa (fuzzy) a estes
sistemas é detalhada a seguir. Conceitos elementares sobre teoria de conjuntos
nebulosos podem ser encontrados em JANG et al. (1997) e Pedrycz e Gomide
(1998).
49
A teoria PROBIST (PRObability Assumption and BInary-STate) equivale à
teoria convencional de confiabilidade (CAI,1991) e é baseada em duas suposições
fundamentais. A primeira delas estabelece que o comportamento de um item ou
sistema em estudo pode ser completamente caracterizado em um contexto de
medidas de probabilidades. A segunda suposição estabelece que o sistema
comporta-se através de estados binários. Ou seja, só é possível a ocorrência dos
estados sucesso (funcionamento normal) ou falha.
Figura 4.2: Metodologias nebulosas (fuzzy) para cálculo da confiabilidade de sistemas
O termo probabilidade pressupõe a disponibilidade de uma grande quantidade
de dados coletados. Os sistemas classificados como PROBIST satisfazem as
hipóteses de probabilidade e estados binários, porém estão sujeitos a vários tipos de
incertezas. Para muitos destes sistemas é difícil avaliar a probabilidade de falha a
partir de experiências anteriores porque o ambiente sofre mudanças com o tempo.
Esta característica dinâmica faz com que os dados disponíveis sejam insuficientes
para a estimação estatística de probabilidades (MISRA; WEBER, 1990). Pode
ocorrer ainda uma situação onde exista a necessidade de considerar componentes
que nunca falharam antes (TANAKA et al., 1983). Nestes casos pode ser difícil
determinar a probabilidade de uma maneira objetiva e pode ser necessária a
introdução do julgamento humano. Percebe-se claramente a necessidade de uma
técnica que permita a incorporação da subjetividade e da imprecisão e a abordagem
nebulosos
Medidas realizadas Estados de saída
PROBIST
probabilidade binários
POSFUST
possibilidade
PROFUST POSBIST
50
nebulosa surge como uma alternativa natural.
A teoria de confiabilidade PROFUST (PRObability Assumption and FUzzy-
STate) considera que o comportamento de um item ou sistema em estudo pode ser
caracterizado em um contexto de medidas de probabilidades, exatamente como nos
sistemas PROBIST. Uma segunda hipótese estabelece que a falha ou o sucesso do
sistema é caracterizado através de estados nebulosos. Assim, o significado de uma
falha não é definido de uma maneira precisa mas de forma nebulosa (CAI,1991).
(CAI et al.,1993).
Normalmente o sistema típico nos estudos sobre confiabilidade PROFUST é
formado por elementos independentes cuja falha individual diminui parcialmente o
desempenho do sistema como um todo. Esta situação caracteriza um modo
degradado de funcionamento situado entre os estados de falha e sucesso.
Sabe-se que o comportamento de falha difere em sistemas mecânicos,
eletrônicos, softwares, etc. Os sistemas mecânicos, em geral, estão sujeitos à
degradação e ao envelhecimento e apresentam tempo de desenvolvimento de falha.
Normalmente estes tipos de sistemas estão sujeitos a falhas incipientes e que,
portanto, podem ser detectadas previamente.
Outros tipos de sistemas, como por exemplo os eletrônicos, apresentam falhas
de natureza aleatória e de difícil previsão (falhas abruptas). Devido à estas
características acredita-se que políticas de manutenção que envolvam estudos de
confiabilidade baseados em estados nebulosos (PROFUST) possam ser de grande
valia.
Os sistemas POSBIST (POSsibility Assumption and BInary-STate) assumem
que o comportamento de falhas é caracterizado como uma medida de possibilidade.
A falha ou o sucesso do sistema é caracterizado através de estados binários (CAI et
al., 1991). Na abordagem POSBIST é possível definir uma distribuição de
possibilidade π (x) tal que esta distribuição seja igual a função de pertinência µA(x)
conforme definido por Zadeh (1978).
A teoria de confiabilidade POSFUST (POSsibility Assumption and FUzzy-STate)
considera que o comportamento de um item ou sistema em estudo pode ser
caracterizado em um contexto de medidas de possibilidades, como nos sistemas
POSBIST. A falha ou o sucesso do sistema é caracterizado através de estados
nebulosos. Portanto, da mesma forma que nos sistemas PROFUST o significado
preciso do que exatamente constitui uma falha não é definido (CAI, 1996).
51
A confiabilidade POSFUST de um sistema é interpretada como a possibilidade
que uma falha não ocorra em um intervalo de tempo especificado, sob condições
ambientais pré-estabelecidas. A ocorrência de uma falha neste contexto é um evento
nebuloso e, portanto é necessário utilizar ferramentas matemáticas que sejam
capazes de calcular a possibilidade de conjuntos nebulosos.
Concluindo, considerando-se os inúmeros trabalhos encontrados na literatura,
inclusive anteriores à classificação de Cai (1991), observou-se que existem duas
grandes vertentes de aplicação de conjuntos nebulosos para análise de falhas. A
primeira delas utiliza números nebulosos (TANAKA et al., 1983, MISRA; WEBER,
1990, WEBER, 1994, BOWLES; PELÁEZ, 1995, CAI,1996, EL-IRAKI; ODOOM,
1998, NACHTMANN; CHIMKA, 2003).para modelagem da imprecisão dos dados de
falha como, por exemplo, taxas de falha, tempos de reparo, etc. Uma segunda
vertente consiste na utilização de um processo de inferência nebulosa baseado em
regras (BOWLES; PELÁEZ, 1995, CAI,1996). Algumas aplicações desta abordagem
podem ser encontradas em Weber (1994), Knezevic; Odoom (2001) e Guimarães;
Lapa (2004).
Os principais métodos convencionais de análise de confiabilidade de sistemas
utilizados atualmente como árvore de falhas (FTA) (KRASICH, 2005), diagramas de
blocos de confiabilidade (RBD) (MURPHY; CARTER, 2003) e análise de modos e
efeitos de falhas (FMEA) (BOWLES, 2003) podem ser interpretados sob a ótica da
teoria dos conjuntos nebulosos. São apresentados exemplos de análise nebulosa de
falhas no APÊNDICE A. O objetivo deste trabalho é contribuir na análise de disponibilidade de sistemas
reparáveis utilizando uma abordagem nebulosa e tendo como base a experiência de
especialistas em operação destes sistemas. Embora grande parte das indústrias não
possua um banco de dados adequado à análise convencional de falhas, existem
especialistas que detêm o conhecimento acerca da operação de seus processos. A
abordagem nebulosa é útil para modelar o conhecimento armazenado em forma
tácita pelos especialistas, auxiliando, desta forma, o processo de tomada de decisão
no planejamento das atividades de manutenção.
52
4.3 Modelo Nebuloso para Análise de Falhas
A análise de falhas convencional, cujos conceitos foram apresentados nos
capítulos 2 e 3, pode ser realizada utilizando-se a abordagem nebulosa. Neste item
é proposta uma estrutura para cálculo de tempo médio de reparo e a disponibilidade.
O tempo de reparo depende do tempo gasto efetivamente com a manutenção e
também do tempo logístico. Considera-se este tempo relacionado a procedimentos
administrativos como, por exemplo, localizar pessoas, peças sobressalentes e
ferramentas adequadas. A figura 4.3 apresenta, de forma simplificada, o modelo
proposto. Considerando-se um equipamento sujeito a ação de vários modos de
falha, o processamento do modelo proposto é realizado com relação a cada um
deles, utilizando-se a teoria de modos de falha competitivos (NELSON, 1982;
MIJAILOVIC, 2003).
As matrizes de entradas xm, xl e xd dependem do processo modelado e serão
definidas pelos especialistas consultados. Podem ser citados como exemplos de
possíveis entradas a complexidade do modo de falha, a freqüência de ocorrência de
falha, etc. Informações sobre sistemas nebulosos podem ser encontradas em
Pedrycz e Gomide (1998).
Figura 4.3: Modelo nebuloso proposto para análise nebulosa de falhas
AN
Sistema Nebuloso: Tempo Manutenção
Sistema Nebuloso: Tempo Logístico
Sistema Nebuloso: Disponibilidade
∑
mx
lx
dx
mτ
lτ
Rτ
53
O tempo de reparo médio nebuloso Rτ é calculado a partir da soma das
variáveis tempo efetivo de manutenção mτ e tempo logístico lτ conforme (4.1).
lmR τττ += (4.1)
O tempo efetivo de manutenção mτ será calculado como função dos tempos
equivalentes às várias atividades realizadas para eliminar a falha e restabelecer o
funcionamento normal do processo ou equipamento:
∑=
=km
imim
1
ττ (4.2)
Onde miτ : tempo equivalente a cada atividade;
km : número de atividades consideradas relevantes para o cálculo do tempo
efetivo de manutenção.
O cálculo do tempo logístico lτ é realizado de maneira análoga ao apresentado
anteriormente para o cálculo do tempo efetivo de manutenção mτ conforme (4.3)
∑=
=kl
ilil
1
ττ (4.3)
Onde liτ : tempo equivalente a cada atividade,
kl: número de atividades consideradas relevantes para o cálculo do tempo
logístico.
Os tempos miτ e liτ , equivalentes à cada uma das variáveis que compõe o
cálculo de mτ e lτ respectivamente são calculados através de um processo de
inferência nebulosa (fuzzy inference system - FIS) baseado em um conjunto de
54
regras do tipo IF-THEN. As variáveis que compõem as matrizes de entrada ( mx e lx ), bem como a base de regras a ser utilizada, serão obtidas através de entrevistas
com os especialistas.
A disponibilidade é calculada através de um processo de inferência nebulosa
tendo como matriz de entrada dx . Esta matriz é composta por vetores contendo
como componentes o tempo de reparo médio nebuloso Rτ e a freqüência de
ocorrência de falhas xFO em um período pré-determinado.
O tempo entre falhas médio nebuloso EFτ é calculado de forma indireta.
considerando a relação entre o tempo de reparo nebuloso e o tempo total de
observação (tempo de missão).
A validação dos modelos nebulosos propostos, detalhada no capítulo 5, será
realizada através da comparação com os resultados obtidos pelos métodos
convencionais.
4.4 Modelo Nebuloso Adaptativo para Análise de Falhas
A utilização de modelos nebulosos para análise de falhas é plenamente
justificada quando não existe um banco histórico de dados que possibilite a
utilização de modelos probabilísticos. O desenvolvimento do modelo, entretanto, é
totalmente dependente do conhecimento que o pessoal técnico (experiência do
especialista) tem a respeito do funcionamento do processo a ser modelado. Uma
forma de se tornar estes modelos mais robustos em relação às interferências
externas é incorporar a ele a capacidade de se adaptar em função de novos dados e
informações. Será utilizada para este fim uma classe de redes adaptativas
funcionalmente equivalentes aos sistemas de inferência nebulosa. Estas arquiteturas
são denominadas na literatura, de maneira geral, como sistemas adaptativos de
inferência neuro-nebulosa (adaptative neuro-fuzzy inference system- ANFIS) (JANG
et al.,1997).
55
A condição inicial do modelo adaptativo é determinada pelo modelo estático de
forma a utilizar o conhecimento dos especialistas como ponto de partida para o
modelo adaptativo. Maiores detalhes são fornecidos no APÊNDICE B. O modelo nebuloso adaptativo proposto para o cálculo do tempo de reparo é
apresentado genericamente pelo diagrama de blocos da figura 4.4. Este diagrama é
análogo ao modelo não adaptativo apresentado anteriormente, na secção 4.3.
Figura 4.4: Modelo nebuloso adaptativo para cálculo do tempo de reparo
O tempo de reparo médio adaptativo RAτ é calculado através da soma das
variáveis tempo efetivo de manutenção adaptativo mAτ e tempo logístico adaptativo
lAτ conforme (4.4).
lAmARA τττ += (4.4)
Cada uma das variáveis li
mi yy , cujo somatório compõe o tempo efetivo de
manutenção adaptativo mAτ e o tempo logístico adaptativo lAτ é calculada através
de uma rede neurofuzzy com propriedade de aproximação universal de funções
(figura 4.5). O treinamento destas redes será realizado utilizando-se o método de
lAτ
mAτ
RAτ
∑
ly1lx1
Mlpyl
px
∑mky
Mmkx
my1mx1
∑
56
minimização do erro quadrático conforme detalhado no APÊNDICE C. O erro a ser
minimizado é dado por (4.5) onde −−
Rτ será obtido através do banco de dados.
2
.21
−=
−
RRe ττ (4.5)
O modelo nebuloso adaptativo para o cálculo da disponibilidade utiliza apenas
uma rede adaptativa, cujo desenvolvimento é análogo ao apresentado
anteriormente. Este modelo é representado na figura 4.5 através da variável
genérica diy .
Figura 4.5: Módulo adaptativo da rede neurofuzzy
Os vetores de entrada li
mi xx , para o cálculo dos tempos de manutenção e
logísticos são específicos para cada módulo adaptativo componente do modelo. O
número de variáveis utilizadas nos cálculos dos tempos efetivos de manutenção e
logístico estão diretamente relacionados com o sistema ou componente analisado e
com o conhecimento do especialista.
Na sub-rede adaptativa representada na figura 4.5 para o caso do cálculo do
tempo efetivo de manutenção (ou do tempo logístico), a entrada é uma matriz dada
por:
dj
lj
mj xxx ,, ix
rx
1x1w
jw
rw
1y
jy
ry
∑
∑
∏d
il
imi yyy ,,
57
[ ] [ ]lp
lllmk
mmm xxxxexxxx LL 2121 == (4.6)
Onde k (p) é o número de vetores de dimensão r (número de linhas), sendo que
cada vetor representa a entrada dos k (p) módulos desta sub-rede rede e m é o
número de regras a ser utilizado.
58
5 AVALIAÇÃO E VALIDAÇÃO DO MODELO NEBULOSO PROPOSTO
Para validar o modelo nebuloso proposto será utilizado um equipamento de
uma cadeia de laminação de uma indústria siderúrgica. Este processo industrial
possui um banco de dados suficientemente adequado para análise de falhas
convencional.
A metodologia de obtenção e análise dos resultados utilizada é constituída de
três etapas:
i) Obtenção dos resultados a partir da abordagem nebulosa de falhas proposta;
ii) Obtenção dos resultados a partir da modelagem convencional (probabilística);
iii) Validação dos resultados através de uma análise crítica tendo como bases os
resultados obtidos utilizando as duas abordagens.
5.1 Descrição do Processo Produtivo
O nome da indústria na qual foi realizado o trabalho de campo será omitido
devido à imposição contratual, por motivo de sigilo industrial. Pelo mesmo motivo
informações que eventualmente pudessem identificá-la foram omitidas ou
modificadas.
Este trabalho é focado em um equipamento de uma cadeia de laminação
considerado crítico para o processo produtivo e que apresenta falhas com índice de
severidade mais alto e também em maior quantidade. O banco de dados foi
delimitado a um período de 13 meses.
O processo de laminação consiste na redução de espessura e mudança da
forma geométrica de uma determinada quantidade de metal. A matéria prima a ser
laminada alimenta uma série de estágios constituídos basicamente de cilindros que
giram com a mesma velocidade em direções opostas. A prensagem dos cilindros
produz altas pressões até que o material laminado atinja a espessura e o formato
desejados. O produto final é então conduzido a uma etapa de resfriamento para
posteriormente ser cortado em tamanhos especificados comercialmente. A figura
5.1 apresenta uma representação esquemática do processo em estudo. O
59
equipamento utilizado para validar o modelo nebuloso proposto é identificado na
referida figura como laminador primário.
Figura 5.1: Representação esquemática do processo de laminação em estudo
O processo produtivo estudado apresenta a característica de fluxo contínuo,
ou seja, encontra-se em funcionamento 24 horas por dia durante os sete dias da
semana. Considerou-se que o turno de trabalho exerce forte influência sobre os
modelos de análise de falhas desde que os operadores e as condições ambientais
são diferentes. Durante o turno diurno as equipes de manutenção contam com o
apoio do corpo administrativo para resolver quaisquer problemas logísticos que
venham a surgir. Durante o turno noturno e o turno que compreende o final da tarde
e o inicio da noite não existe o apoio do corpo administrativo, pelo menos de forma
direta. Decidiu-se, portanto, considerar modelos distintos para o turno diurno e para
os outros turnos. Este trabalho apresenta o modelo nebuloso desenvolvido para o
turno diurno. A mesma metodologia é facilmente aplicável aos demais turnos.
Os dias da semana foram subdivididos em dias úteis e feriados. Foram
considerados dias úteis inclusive sábados e domingos uma vez que, pelo histórico
da empresa, a probabilidade dos funcionários se locomoverem grandes distâncias
em apenas dois dias é pequena. Portanto, tendo ocorrido algum problema, é
possível localizar pessoas qualificadas para resolvê-lo com relativa facilidade.
Laminador Primário
Grupo LaminadorSecundário
Serras
Serras
Leito de Resfriamento
Forno de Reaquecimento
60
Quando ocorre um feriado de duração maior que três dias esta dinâmica pode ser
alterada porque as pessoas podem se locomover a locais mais distantes. O Quadro
5.1 apresenta a classificação das variáveis determinísticas turno e dia da semana. A
proporção de feriados prolongados durante o ano é pequena em relação aos dias
úteis. Portanto, a variável dia da semana foi considerada insignificante.
Variável Estratificação
Turno
1- N (noturno) 00:00 as 8:00h
2- D (diurno) 08:00 as 16:00h
3- PN (parcialmente noturno) 16:00 as 00:00h
Dia da semana U - (útil- segunda a segunda)
F - (feriados prolongados)
Quadro 5.1: Classificação das variáveis determinísticas
Os cálculos para análise de falhas (tanto nebulosos quanto convencionais)
foram realizados somente com relação às paradas não planejadas (interrupções).
Estas interrupções são classificadas como tempo de manutenção não programada
(TMNP) e tempo de parada operacional (TPO). Não foram feitas distinções com
relação aos modos de falha provenientes dos dois tipos de interrupções.
5.2 Implementação dos Modelos Nebulosos Propostos
Nesta etapa, o banco de dados do equipamento escolhido para estudo foi
considerado indisponível para não influenciar na avaliação da capacidade de
estimação do modelo proposto.
Conforme apresentado anteriormente, o processamento do modelo proposto foi
realizado utilizando-se a teoria de modos de falha competitivos. A primeira parte do
trabalho consistiu, portanto, na identificação de todos os modos de falha atuantes
no equipamento escolhido como foco do trabalho. O ANEXO A apresenta todos os
modos de falha analisados. Foram escolhidos os modos de falha com no mínimo 3
61
ocorrências de forma a possibilitar a posterior comparação com o modelo
convencional.
A escolha e a quantidade de termos lingüísticos para representar cada variável
de entrada do modelo nebuloso foi feita através de entrevistas com os especialistas
conforme Quadro 5.2. Foram consideradas como entradas do modelo a
complexidade do modo de falha CXx , localização do modo de falha dentro do
equipamento LOx , dimensão física do sobressalente DFx , custo do sobressalente
CSx e freqüência de ocorrência de falhas FOx . Todos os conjuntos foram igualmente
distribuídos em um universo de discurso entre 0 e 1.
Variável Granularização
CXx
P (pequeno)
M (médio)
G (grande)
LOx
F (fácil)
M (médio)
D (difícil)
DFx
P (pequeno)
M (médio)
G (grande)
CSx
P (pequeno)
M (médio)
G (grande)
FOx
P (pequeno)
M (médio)
G (grande)
Quadro 5.2: Variáveis de entrada
A figura 5.2 mostra a granularização da variável complexidade do modo de
falha CXx através dos subconjuntos nebulosos “pequeno”, “médio” e “grande”.
Foram utilizadas funções de pertinência triangulares para representar todos os
subconjuntos. Procedimento análogo foi utilizado para todas as outras variáveis de
62
entrada. Após esta etapa os especialistas atribuíram notas variando de 0 a 1 para
todas as variáveis de entrada, em relação a cada modo de falha.
Figura 5.2: Granularização do conjunto nebuloso complexidade CXx
5.2.1 Cálculo do Tempo de Reparo Nebuloso
O tempo de reparo médio nebuloso Rτ é calculado a partir da soma das
variáveis tempo efetivo de manutenção mτ e tempo logístico lτ conforme (4.1). O
tempo efetivo de manutenção será calculado pela expressão (5.1)
TEMOREDEDC
km
imim τττττττ ++++==∑
=1
(5.1)
Onde DCτ é o tempo para detectar a falha;
DEτ é o tempo para desmontar o equipamento;
REτ é o tempo para reparar o equipamento;
MOτ é o tempo para montar novamente o equipamento; TEτ é o tempo para testar a efetividade do reparo.
A matriz de entrada mx possui dimensão (2 x 5), cujos vetores são todos iguais e de
dimensão 2, composto das componentes complexidade do modo de falha CXx e a
localização da falha dentro do equipamento LOx , ou seja:
63
=
LO
CX
LO
CX
LO
CX
LO
CX
LO
CXm
xx
xx
xx
xx
xx
x (5.2)
A figura 5.3 ilustra graficamente o modelo proposto para o cálculo do tempo
efetivo de manutenção para o equipamento analisado.
Figura 5.3 - Modelo nebuloso para cálculo do tempo efetivo de manutenção
Procedimento análogo é realizado com relação ao tempo logístico lτ conforme
expressão (5.3).
RSDFMP
kl
ilil τττττ ++== ∑
=1
(5.3)
Onde: τMP é o tempo para mobilizar pessoas;
τDF é o tempo para disponibilizar ferramentas;
τRS é o tempo para repor sobressalentes.
FIS ∑
Tempo p/ detectar afalha
Tempo p/ desmontar
Tempo p/ reparar
Tempo p/ montar
Tempo p/ testar
Complexidade
Localizaçäo
Tempo efetivo de manuntenção
64
A figura 5.4 ilustra graficamente o modelo proposto para o cálculo do tempo
logístico.
Figura 5.4 - Modelo nebuloso para cálculo do tempo logístico
A matriz de entrada lx possui dimensão (3 x 3), cujas componentes são a
complexidade do modo de falha CXx , o custo do sobressalente CSx e dimensão física
do sobressalente a ser substituído DFx sendo, portanto, dada por:
=
DF
CS
CXCXCXl
xxxxx
x0000
(5.4)
Observou-se, através de resultados preliminares, que as variáveis custo do
sobressalente xCS e complexidade do modo de falha xCX não exercem influência
significativa no cálculo nebuloso da variável tempo para repor sobressalentes τRS.
Assim, o modelo proposto para cálculo do tempo logístico (figura 5.4) foi substituído
pelo modelo simplificado (figura 5.5).
FIS ∑
Custo
Dimensão Física
Complexidade
Tempo logístico
Tempo p/ mobilizarpessoas
Tempo p/ repor sobressalentes
Tempo p/ disponibilizar ferramentas
65
Figura 5.5: Modelo nebuloso simplificado para cálculo do tempo logístico
Devido a simplificação do modelo, a dimensão da matriz de entrada lx mudou
para (1x 3). Suas componentes são a complexidade do modo de falha xCX e
dimensão física do sobressalente a ser substituído xDF.
[ ]DFCXCXl xxxx = (5.5)
O universo de discurso (faixa de variação) de cada uma destas variáveis foi
determinada pelos especialistas conforme quadro 5.3. Os valores adotados como
universo de discurso (em minutos) para cada variável foram diferentes considerando
os dois cenários de modelagem identificados. Este trabalho apresenta o modelo
nebuloso desenvolvido para o turno diurno, conforme mencionado anteriormente.
Observa-se que as variáveis DCτ , MOτ , TEτ , DFτ e RSτ não sofreram alterações
devido à mudança do cenário de modelagem (turno diurno ou turnos noturnos). Uma
vez determinado o universo de discurso relativo a cada variável foi necessário
realizar a estratificação dos subconjuntos nebulosos. Foram utilizadas funções de
pertinência triangulares igualmente espaçadas para representar todas as variáveis
com exceção do tempo de reparo. Os especialistas informaram que, neste caso,
qualquer valor de tempo maior que 60 minutos pode ser considerado grande. Por
este motivo foram adotadas funções de pertinência trapezoidais ( figura 5.6).
FIS
Complexidade
Tempo p/ disponibilizar ferramentas
Dimensão Física
Tempo p/ mobilizarpessoas
Tempo p/ repor sobressalentes
Tempo logístico
∑
66
Variável
Sigla
Variação
turno
diurno (min)
Variação
turnos
noturnos(min)
Tempo para detectar a falha DCτ 0-30 0-30
Tempo para desmontar o equipamento DEτ 0-30 0-90
Tempo para reparar o equipamento REτ 0-300 0-390
Tempo para montar o equipamento MOτ 0-30 0-30
Tempo para testar a efetividade do reparo. TEτ 0-30 0-30
Tempo efetivo de manutenção mτ 0-420 0-690
Tempo para mobilizar pessoas MPτ 0-15 0-90
Tempo para disponibilizar ferramentas DFτ 0-30 0-30
Tempo para repor sobressalentes RSτ 0-15 0-15
Tempo logístico lτ 0-60 0-135
Tempo de reparo médio nebuloso Rτ 0-480 0-825
Quadro 5.3: Universo de discurso (em minutos) para as variáveis de saída
Figura 5.6 : Granularização da variável tempo para reparar REτ
Uma vez determinados os valores adotados como universo de discurso para
todas as variáveis e realizada a estratificação dos subconjuntos nebulosos foi
realizada a combinação dos atributos das variáveis de entrada e saída do modelo de
forma a gerar a base de regras a ser utilizada.
67
Foram utilizadas neste trabalho regras IF-THEN com a estrutura genérica:
Se E1 é X1 e E2 é X2 ...e En é Xn então S é Y ξ Onde En : entradas; Xn : valor nebuloso da entrada; S: saída; Y: valor nebuloso da saída; ξ: grau de certeza.
O conseqüente das regras geradas foi determinado pelos especialistas
consultados. Os quadros 5.4 a 5.8 apresentam as regras relativas ao cálculo
nebuloso do tempo efetivo de manutenção.
Se xCX é P e xLO é F então τDC é P Se xCX é P e xLO é M então τDC é P Se xCX é P e xLO é D então τDC é M Se xCX é M e xLO é F então τDC é M (0.8)Se xCX é M e xLO é M então τDC é M Se xCX é M e xLO é D então τDC é G Se xCX é G e xLO é F então τDC é M Se xCX é G e xLO é M então τDC é G (0.8)Se xCX é G e xLO é D então τDC é G
Quadro 5.4: Regras para determinar o tempo para detectar a falha
Se xCX é P e xLO é F então τDE é P Se xCX é P e xLO é M então τDE é P Se xCX é P e xLO é D então τDE é M Se xCX é M e xLO é F então τDE é P Se xCX é M e xLO é M então τDE é M Se xCX é M e xLO é D então τDE é G Se xCX é G e xLO é F então τDE é M Se xCX é G e xLO é M então τDE é G Se xCX é G e xLO é D então τDE é G
Quadro 5.5: Regras para determinar o tempo para desmontar o equipamento
68
Se xCX é P e xLO é F então τRE é P Se xCX é P e xLO é M então τRE é P Se xCX é P e xLO é D então τRE é M Se xCX é M e xLO é F então τRE é P Se xCX é M e xLO é M então τRE é M Se xCX é M e xLO é D então τRE é G Se xCX é G e xLO é F então τRE é M Se xCX é G e xLO é M então τRE é G Se xCX é G e xLO é D então τRE é G
Quadro 5.6: Regras para determinar o tempo para reparar o equipamento
Se xCX é P e xLO é F então τMO é P Se xCX é P e xLO é M então τMO é P Se xCX é P e xLO é D então τMO é M Se xCX é M e xLO é F então τMO é P Se xCX é M e xLO é M então τMO é M Se xCX é M e xLO é D então τMO é G Se xCX é G e xLO é F então τMO é M Se xCX é G e xLO é M então τMO é G Se xCX é G e xLO é D então τMO é G
Quadro 5.7: Regras para determinar o tempo para montar o equipamento
Se xCX é P e xLO é F então τTE é P Se xCX é P e xLO é M então τTE é P Se xCX é P e xLO é D então τTE é M Se xCX é M e xLO é F então τTE é P Se xCX é M e xLO é M então τTE é M Se xCX é M e xLO é D então τTE é G Se xCX é G e xLO é F então τTE é M Se xCX é G e xLO é M então τTE é G (0.8) Se xCX é G e xLO é D então τTE é G
Quadro 5.8: Regras para determinar o tempo para testar o equipamento
69
Os quadros 5.9 a 5.11 apresentam as regras relativas ao cálculo nebuloso do
tempo logístico..
Se xCX é P e xCS é P e xDF é P então τRS é P Se xCX é P e xCS é P e xDF é M então τRS é P Se xCX é P e xCS é P e xDF é G então τRS é M Se xCX é P e xCS é M e xDF é P então τRS é P Se xCX é P e xCS é M e xDF é M então τRS é M (0.8)Se xCX é P e xCS é M e xDF é G então τRS é G Se xCX é P e xCS é G e xDF é P então τRS é P Se xCX é P e xCS é G e xDF é M então τRS é ---- Se xCX é P e xCS é G e xDF é G então τRS é G Se xCX é M e xCS é P e xDF é P então τRS é P (0.8)Se xCX é M e xCS é P e xDF é M então τRS é P Se xCX é M e xCS é P e xDF é G então τRS é G Se xCX é M e xCS é M e xDF é P então τRS é P Se xCX é M e xCS é M e xDF é M então τRS é M Se xCX é M e xCS é M e xDF é G então τRS é G Se xCX é M e xCS é G e xDF é P então τRS é ---- Se xCX é M e xCS é G e xDF é M então τRS é M Se xCX é M e xCS é G e xDF é G então τRS é G Se xCX é G e xCS é P e xDF é P então τRS é P Se xCX é G e xCS é P e xDF é M então τRS é M Se xCX é G e xCS é P e xDF é G então τRS é G Se xCX é G e xCS é M e xDF é P então τRS é P Se xCX é G e xCS é M e xDF é M então τRS é M Se xCX é G e xCS é M e xDF é G então τRS é G Se xCX é G e xCS é G e xDF é P então τRS é P Se xCX é G e xCS é G e xDF é M então τRS é M Se xCX é G e xCS é G e xDF é G então τRS é G
Quadro 5.9: Regras para determinar o tempo para repor sobressalentes
70
Se xCX é P então τMP é P Se xCX é M então τMP é M Se xCX é G então τMP é G
Quadro 5.10: Regras para determinar o tempo para mobilizar pessoas
Se xCX é P então τDF é P Se xCX é M então τDF é M Se xCX é G então τDF é G
Quadro 5.11: Regras para determinar o tempo para disponibilizar ferramentas
Devido a simplificação do modelo para cálculo do tempo logístico (apresentado
na figura 5.5), a base de regras para cálculo nebuloso da variável tempo para repor
sobressalentes τRS foi reduzida. Observa-se uma diminuição do número de regras
de 27 para apenas 3, conforme quadro 5.12.
Se xDF é P então τRS é P Se xDF é M então τRS é M Se xDF é G então τRS é G
Quadro 5.12: Regras para determinar o tempo para repor sobressalentes (modelo simplificado)
5.2.2 Cálculo da Disponibilidade Nebulosa
Conforme detalhado no capítulo 4, o cálculo da disponibilidade é realizado
através de um sistema nebuloso em cascata. A saída do modelo nebuloso para
cálculo do tempo de reparo médio nebuloso Rτ é utilizada como entrada do modelo
para cálculo de disponibilidade. O processamento do modelo é realizado em relação
71
a cada modo de falha e os valores resultantes são convertidos em uma escala com
variação entre 0 e 1. A figura 5.5 apresenta os subconjuntos nebulosos utilizados
(pequeno, médio e grande) representados por funções de pertinência gaussianas.
Figura 5.7: Granularização da variável tempo de reparo médio nebuloso Rτ
A variável de entrada freqüência de ocorrência FOx cuja estratificação em conjuntos
nebulosos foi apresentada no quadro 5.2, é apresentada na figura 5.8.
Figura 5.8: Granularização da variável freqüência de ocorrência FOx
A figura 5.9 apresenta a variável de saída disponibilidade nebulosa AN. Considerou-
se o universo de discurso com variação entre 0 e 1 subdividido através de quatro
conjuntos nebulosos. Observa-se que todas as variáveis para cálculo de
disponibilidade foram representadas por funções de pertinência gaussianas. Esta
escolha foi realizada através de experimentação prática e entrevistas com os
especialistas.
Figura 5.9: Granularização da variável disponibilidade nebulosa AN
72
Os quadro 5.13 apresenta as regras relativas ao cálculo nebuloso da
disponibilidade.
Se τR é P e xFO é P então AN é MG Se τR é G e xFO é P então AN é G Se τR é P e xFO é M então AN é MG Se τR é M e xFO é M então AN é G Se τR é G e xFO é M então AN é P Se τR é M e xFO é G então AN é P Se τR é G e xFO é G então AN é P
Quadro 5.13: Regras para determinar a disponibilidade nebulosa AN
5.2.3 Cálculo do Tempo entre Falhas Nebuloso
O tempo entre falhas médio nebuloso EFτ é calculado de forma indireta. A
expressão (5.6) apresenta o método empírico proposto considerando a relação entre
o tempo de reparo nebuloso e o tempo total de observação. O tempo de reparo
nebuloso pode ser calculado através do mecanismo de inferência Mamdani
(PEDRYCZ; GOMIDE, 1988) ou Sugeno (JANG et al.,1997).
1−−
=F
RFTEF Q
Q τττ (5.6)
Onde τ t : tempo total de observação do banco de dados;
FQ : quantidade de falhas;
Rτ : tempo de reparo médio nebuloso.
73
5.3 Resultados Obtidos através da Análise Nebulosa de Falhas
Foram implementados os processos de inferência Mamdani e Sugeno
utilizando-se o Toolbox Fuzzy do MATLAB™ (MATHWORKS, 2006). A tabela 5.1
apresenta a síntese dos resultados obtidos a partir do modelo nebuloso não
adaptativo para cálculo do tempo de reparo médio com relação a cada modo de
falha considerado. As saídas dos modelos nebulosos Mamdani e Sugeno foram
identificadas por RMτ e RSUτ respectivamente.
A quantidade de falhas QF (ou número de ocorrências de cada modo de falha)
tem influência direta no cálculo convencional uma vez que a abordagem
probabilística pressupõe uma grande quantidade de dados. Observa-se que no
modelo nebuloso esta influência é menos significativa, sendo os resultados
dependentes exclusivamente da experiência dos especialistas.
Tabela 5.1: Resultados modelos nebulosos não adaptativos para cálculo do τR
A tabela 5.2 apresenta o resultado do modelo nebuloso adaptativo para cálculo
do tempo médio de reparo. Para avaliação dos resultados serão utilizados como
referência os valores desejados para cada modo de falha, calculados pela média
dos tempos de reparo obtidos no banco de dados. O melhor resultado foi obtido
Modos de Falha QF τ RM τRSU
Falha de automação
Geração de sucatas
Inspeção no laminador
Material agarrado
Ajuste axial
Ajuste na escala de passe
Perda de estabilidade
Ajuste “s”
Troca “s”
12
17
14
6
6
5
4
4
3
19,65
19,28
44,93
11,03
44,93
11,03
11,03
49,28
45,68
41,04
27,95
49,46
19,59
49,46
19,40
19,40
43,24
52,24
74
considerando-se 1000 iterações e taxa de aprendizado (α) igual a 0,01. Os
parâmetros do modelo Sugeno estático foram utilizados para gerar a condição inicial
τRi do modelo adaptativo conforme detalhado no APENDICE B. Observa-se que os
resultados do modelo adaptativo τRA foram satisfatórios e atingiram valores próximos
aos valores desejados τRd .
Foram utilizados como valores desejados a média dos tempos de reparo µTR
para cada modo de falha. De modo geral o modelo adaptativo apresentou
resultados melhores que o modelo não adaptativo partindo da condição inicial τRi.
Tabela 5.2: Resultados modelo nebuloso adaptativo para cálculo do tempo médio de reparo
Modos de Falha QF τRd τRi τRA
Falha de automação
Geração de sucatas
Inspeção no laminador
Material agarrado
Ajuste axial
Ajuste na escala de passe
Perda de estabilidade
Ajuste “s”
Troca “s”
12
17
14
6
6
5
4
4
3
16,42
24,00
30,29
12,83
48,67
15,60
15,75
32,25
42,33
41,24
28,12
49,49
19,67
49,49
19,48
19,48
43,36
52,37
16,75
21,95
40,45
14,72
40,45
15,87
15,87
34,98
43,07
A tabela 5.3 apresenta os resultados de disponibilidade obtidos a partir do
modelo nebuloso adaptativo ANA. De forma análoga ao modelo descrito
anteriormente, os parâmetros do modelo Sugeno estático foram utilizados para gerar
a condição inicial, ANi , do modelo adaptativo.
O valor desejado de disponibilidade Ad foi calculado a partir do conceito de
disponibilidade em estado estacionário. Segundo este conceito, a disponibilidade
pode ser interpretada como a proporção de tempo em que um sistema encontra-se
em estado operativo. Assim é possível calcular a disponibilidade para cada modo de
falha a partir da média dos seus tempos de reparo µTR segundo a expressão (5.7).
Devido à estreita faixa de variação, todos os valores resultantes foram normalizados
75
dentro considerando-se uma faixa entre 0 e 1 para a fase de treinamento do
modelo.
t
TRFtd
QA
τµτ )(−
= (5.7)
Onde τ t : tempo total de observação do banco de dados;
QF : quantidade de falhas;
µTR: média dos tempos de reparo (banco de dados)
Tabela 5.3: Resultados modelo nebuloso adaptativo para cálculo da disponibilidade
Modos de Falha QF Ad ANi ANA
Falha de automação
Geração de sucatas
Inspeção no laminador
Material agarrado
Ajuste axial
Ajuste escala de passe
Perda de estabilidade
Ajuste “s”
Troca “s”
12
17
14
6
6
5
4
4
3
0,9996
0,9993
0,9992
0,9999
0,9995
0,9999
0,9999
0,9998
0,9998
0,9008
0,5888
0,9992
1,0000
0,9995
1,0000
0,9999
1,0000
0,6076
0,9731
1,0000
0,9992
1,0000
1,0000
1,0000
0,9725
1,0000
0,7602
Observa-se que, de um modo geral, o modelo adaptativo conseguiu obter
valores mais próximos do desejado. Cabe ressaltar que os valores iniciais foram
obtidos sem nenhuma influência do banco de dados, o que enfatiza a utilidade do
modelo proposto.
76
5.4 Cálculo Convencional e Validação de Resultados Os benefícios da aplicação de análise de falhas convencional são conhecidos
na literatura uma vez que análises de confiabilidade têm sido aplicadas em
processos industriais diversos, inclusive em processos de laminação, com o
propósito de aumentar a sua disponibilidade (DESHANDE; MODAK, 2003).
A condição necessária para a realização da análise de falhas convencional é
que o processo industrial possua um banco de dados com informações de
manutenção suficientemente adequadas, como é o caso do processo sob análise.
Após realizada a estratificação dos dados em modos de falha foram
calculados os tempos entre falhas (TEF) e os tempos de reparo (TR) para cada um
deles.
O mesmo procedimento de cálculo dos tempos entre falhas e tempo de reparo
foi realizado para todos os modos de falha identificados na tabela 5.1. A partir dos
valores de tempo entre falhas e de reparos realizou-se um teste de aderência para
escolha da melhor distribuição de probabilidade para modelagem da confiabilidade e
da mantenabilidade. Em todas as análises foi utilizado o software Weibull++7™
(RELIASOFT CORPORATION, 2007a).
Considerando-se tratar de um equipamento reparável é necessário modelar a
probabilidade de falha e a probabilidade de reparo. Os testes de aderência
realizados individualmente para confiabilidade e mantenabilidade, não levam em
consideração a iteração entre os dois modelos. Portanto, nem sempre a melhor
distribuição de probabilidade indicada pelo teste de aderência é a mais adequada.
A adequação dos modelos de confiabilidade e mantenabilidade de cada
equipamento em relação a cada modo de falha foi realizado através da simulação de
Monte Carlo utilizando-se o software BlockSim™ (RELIASOFT CORPORATION,
2007b). As duas distribuições de probabilidade encontradas foram utilizadas como
variáveis de entrada para a simulação, que oferece como saída a quantidade de
falhas esperada e o tempo total indisponível. Estes valores foram confrontados com
o histórico de dados de maneira recursiva até a obtenção do menor erro percentual
possível. Considerando-se todos os modos de falha (de todos os turnos) foram
derivados 34 modelos para o turno diurno e 48 modelos para o turno noturno.
77
A tabela 5.4 apresenta a validação dos modelos de confiabilidade e
mantenabilidade para o turno diurno, em relação aos modos de falha em estudo
(tabela 5.1)
Tabela 5.4: Validação dos modelos de confiabilidade e mantenabilidade turno diurno
Simulação Histórico
Modos de Falha
No Oc.
∑ Ti
No Oc.
∑ Ti
Erro%
No Oc.
Erro%
∑ Ti
Falha de automação 11,67 242,09 12,00 257,00 2,75 5,80
Geração de sucatas 18,92 434,83 17,00 408,00 11,29 6,58
Inspeção no laminador 12,64 430,09 14,00 424,00 9,71 1,44
Material agarrado 6,93 89,07 6,00 77,00 15,50 15,68
Ajuste axial 6,31 300,47 6,00 292,00 5,17 2,90
Ajuste escala de passe 4,97 88,24 5,00 78,00 0,60 13,13
Perda de estabilidade 3,92 67,73 4,00 63,00 2,00 7,51
Ajuste “s” 4,02 136,55 4,00 129,00 0,50 5,85
Troca “s” 2,92 122,85 3,00 127,00 2,67 3,27
As tabelas 5.5 e 5.6 apresentam os modelos derivados para confiabilidade e
mantenabilidade e seus respectivos parâmetros. As principais distribuições de
probabilidade utilizadas para análise RAM convencional foram apresentadas no
capítulo 2.
78
Tabela 5.5: Distribuições de probabilidade para modelagem da mantenabilidade
Modos de Falha f(t) Parâmetros
Falha de automação
Geração de sucatas
Inspeção no laminador
Material agarrado
Ajuste axial
Ajuste escala de passe
Perda de estabilidade
Ajuste “s”
Troca “s”
Weibull
Weibull
lognormal
gama gen*.
Weibull
lognormal
Weibull
Weibull
Weibull
β=1,9400
β =0,7187
µ= 2,9670
µ = 2,8193
β =1,7931
µ=2,5503
β =1,4603
β =1,0627
β =4,0039
η=23,4200
η =15,6580
σ = 61,0340
σ = 0,2613
η =53,1166
σ=0,8036
η =19,6139
η =34,5865
η =46,3104
γ=33,8200
λ= 2,1320
γ=-0,7600
*gama generalizada
Tabela 5.6: Distribuições de probabilidade para modelagem da confiabilidade
Modos de Falha f(t) Parâmetros
Falha de automação
Geração de sucatas
Inspeção no laminador
Material agarrado
Ajuste axial
Ajuste escala de passe
Perda de estabilidade
Ajuste “s”
Troca “s”
Weibull
gama gen.
Weibull
Weibull
Weibull
expon.
expon.
expon.
expon.
β=0,5100
µ=10,4211
β=0,4476
β=0,7242
β=0,9243
λ=8,9030e-6
λ=7,1220e-6
λ=7,1220e-6
λ= 5,3410e-6
η=29530
σ= 0,7063
η=21755
η=71213
η=86386
λ=1,0933
Dentre as distribuições de probabilidade citadas nas tabelas 5.5 e 5.6 a única
não detalhada anteriormente foi a distribuição gama. Maiores informações sobre
distribuições de probabilidade utilizadas em análise RAM convencional podem ser
obtidos em Nelson (1982), Lewis (1987) e O’ Connor ( 2002).
Finalmente, após a obtenção de todos os modelos, foi possível calcular o
MTTR e o MTBF relativo a cada modo de falha de forma a comparar posteriormente
79
com os valores obtidos pelo modelo nebuloso. A tabela 5.7 apresenta os valores de
MTTR em minutos, obtidos para todos os modos de falha do turno diurno.
A tabela 5.8 apresenta os valores de MTBF, também em minutos, obtidos para
todos os modos de falha do turno diurno. Observa-se que, em ambos os casos,
foram calculados intervalos de confiança bilaterais de 90% para os modos de falha
que apresentaram quantidade suficiente de dados. Este valor foi escolhido a partir
da observação dos valores comumente utilizados na indústria de uma maneira geral.
Tabela 5.7: Comparação de valores MTTR (min)
Modos de Falha - 90% MTTR + 90% τ RM τ RSU τ RA
Falha de automação
Geração de sucatas
Inspeção no laminador
Material agarrado
Ajuste axial
Ajuste escala de passe
Perda de estabilidade
Ajuste “s”
Troca “s”
15,53
14,64
21,06
9,90
30,60
9,80
8,51
14,66
31,89
20,77
23,16
33,19
12,85
47,24
17,69
17,01
33,77
41,97
27,79
38,39
52,28
16,70
72,94
31,96
33,28
77,79
55,25
19,65
19,28
44,93
11,03
44,93
11,03
11,03
49,28
45,68
41,04
27,95
49,46
19,59
49,46
19,40
19,40
43,24
52,24
16,75
21,95
40,45
14,72
40,45
15,87
15,87
34,98
43,07
Tabela 5.8: Comparação de valores MTBF (min)
Modos de Falha - 90% MTBF + 90% τ EF
Falha de automação
Geração de sucatas
Inspeção no laminador
Material agarrado
Ajuste axial
Ajuste escala de passe
Perda de estabilidade
Ajuste “s”
Troca “s”
16.855,00
21.002,00
15.714,00
26.166,00
36.839,00
56.627,00
29.639,00
54.570,00
87.370,00
89.619,00
112.320,00
140.400,00
140.400,00
187.200,00
90.250,00
41.830,00
189.510,00
291.730,00
218.020,00
51.030,00
35.080,00
37.040,00
112.310,00
112.270,00
140.390,00
187.190,00
187.130,00
280.730,00
80
A tabela 5.9 apresenta os valores de disponibilidade calculados a partir do
MTTR e do MTBF obtidos através de métodos convencionais Ao (disponibilidade
operacional) e obtidos pelo modelo nebuloso adaptativo ANA. Estes resultados
comprovam claramente a viabilidade do modelo nebuloso proposto. Observa-se que
os resultados obtidos foram promissores apesar da quantidade de modos de falha
disponível ser pequena.
Tabela 5.9: Comparação de valores de disponibilidade Modos de Falha QF MTTR MTBF Ao ANA
Falha de automação
Geração de sucatas
Inspeção no laminador
Material agarrado
Ajuste axial
Ajuste escala de passe
Perda de estabilidade
Ajuste “s”
Troca “s”
12
17
14
6
6
5
4
4
3
20,77
23,16
33,19
12,85
47,24
17,69
17,01
33,77
41,97
56.627,00
29.639,00
54.570,00
87.370,00
89.619,00
112.320,00
140.400,00
140.400,00
187.200,00
0,9996
0,9992
0,9994
0,9999
0,9995
0,9998
0,9999
0,9998
0,9998
0,9731
1,0000
0,9992
1,0000
1,0000
1,0000
0,9725
1,0000
0,7602
Uma segunda abordagem de utilização do modelo proposto para cálculo do
tempo de reparo consiste em seu detalhamento conforme tabela 5.10 (refere-se ao
modelo estático). A estratificação do tempo de reparo permite quantificar a
relevância de cada um dos tempos citados para composição do tempo de reparo.
Uma vez identificada a parcela mais crítica (tempo efetivo de manutenção ou tempo
logístico) é possível direcionar o esforço de manutenção no sentido de direcionar e
otimizar recursos.
81
Tabela 5.10: Tempo de reparo estratificado
Modos de Falha
mτ
lτ
Rτ
Falha de automação
Geração de sucatas
Inspeção no laminador
Material agarrado
Ajuste axial
Ajuste escala de passe
Perda de estabilidade
Ajuste “s”
Troca “s”
14,78
14,78
22,43
8,78
22,43
8,78
8,78
26,78
22,43
4,88
4,50
22,50
2,25
22,50
2,25
2,25
22,50
23,25
19,65
19,28
44,93
11,03
44,93
11,03
11,03
49,28
45,68
Observa-se na Tabela 5.10 que, na maior parte dos modos de falha
analisados, o tempo efetivo de manutenção foi maior que o tempo logístico. Este
resultado seria esperado uma vez que os dados referem-se ao turno diurno, que
conta com todo o apoio a nível administrativo.
A tabela 5.11 apresenta um segundo nível de estratificação para a variável
tempo logístico lτ . O mesmo procedimento poderia ser adotado para a variável
tempo efetivo de manutenção mτ . Observa-se que todos os modos de falha de
“Geração de sucatas” a “Ajuste s” correspondem a procedimentos operacionais.
Portanto, o tempo para repor sobressalentes RSτ é nulo para todos eles. Observa-
se ainda que a maior parcela de contribuição para o tempo logístico é devida ao
tempo para disponibilizar ferramentas DFτ .
82
Tabela 5.11: Tempo logístico estratificado
MPτ
DFτ
RSτ
lτ
Falha de automação
Geração de sucatas
Inspeção no laminador
Material agarrado
Ajuste axial
Ajuste escala de passe
Perda de estabilidade
Ajuste “s”
Troca “s”
1,50
1,50
7,50
0,75
7,50
0,75
0,75
7,50
7,50
3,00
3,00
15,00
1,50
15,00
1,50
1,50
15,00
15,00
0,38
0
0
0
0
0
0
0
0,76
4,88
4,50
22,50
2,25
22,50
2,25
2,25
22,50
23,25
Os tempos que compõem o tempo de reparo normalmente não são
registrados em bancos de dados convencionais. Por este motivo o detalhamento
apresentado nas tabelas 5.10 e 5.11 foi validado indiretamente, através de
entrevistas com os especialistas.
Modos de Falha
83
6 CONCLUSÕES
Este trabalho apresentou a proposta de um modelo nebuloso para o cálculo do
tempo de reparo médio, tempo entre falhas médio e disponibilidade de sistemas
reparáveis a partir do conhecimento de especialistas. Embora grande parte das
indústrias não possua um banco de dados adequado à análise RAM (Reliability,
Availability and Maintainability) convencional, existem especialistas que detêm o
conhecimento acerca de seus processos. A abordagem nebulosa mostrou-se útil
para modelar o conhecimento armazenado em forma tácita pelos especialistas, como
pode ser comprovado pelos resultados apresentados.
6.1 Contribuições e Relevância do Trabalho
O processo de derivação dos modelos teve a duração de aproximadamente um
ano. Neste período a contribuição dos especialistas consultados foi de vital
importância e o ritmo de desenvolvimento foi muitas vezes determinado pela
disponibilidade das pessoas envolvidas.
A principal contribuição deste trabalho é apresentar uma metodologia sistêmica
para análise de falhas que pode ser aplicada quando não existem dados disponíveis
de forma a possibilitar a modelagem convencional. A confrontação dos valores
obtidos a partir das abordagens probabilística e nebulosa indica que esta
metodologia pode conduzir a resultados muito próximos da realidade. Portanto, o
modelo proposto pode ser utilizado para auxiliar o processo de tomada de decisão
em um ambiente totalmente desprovido de informações quantitativas confiáveis.
Uma segunda contribuição deste trabalho, não menos relevante que a primeira,
é possibilitar o cálculo do tempo de reparo de forma detalhada. Através do modelo
proposto é possível calcular separadamente o tempo efetivo de manutenção e o
tempo gasto com questões logísticas ou administrativas. O tempo efetivo de
84
manutenção foi subdividido em tempo para detectar a falha, tempo para desmontar,
reparar, montar novamente o equipamento e posteriormente testá-lo. O tempo
logístico foi subdividido em tempo para mobilizar pessoas, tempo para disponibilizar
ferramentas e tempo para repor sobressalentes. A estratificação do tempo de reparo
permite quantificar a relevância de cada um dos tempos citados para composição do
tempo de reparo. Uma vez identificado o componente mais crítico é possível
direcionar o esforço de manutenção no sentido de otimizar recursos.
Conforme exposto anteriormente, o desenvolvimento do modelo nebuloso é
totalmente dependente da experiência de especialistas no processo a ser modelado.
Uma forma de se tornar este modelo mais robusto em relação à interferências
externas é introduzir a ele capacidade de adaptação. Foram utilizadas para este fim
uma classe de redes adaptativas funcionalmente equivalentes aos sistemas de
inferência nebulosa.
Este trabalho encontrou inúmeros obstáculos durante seu desenvolvimento e
acredita-se que um breve relato possa auxiliar futuras pesquisas. A primeira grande
dificuldade foi encontrar uma indústria que possuísse um banco de dados adequado
a análise RAM convencional de forma a possibilitar posteriormente a validação dos
modelos obtidos. Uma vez que a referida indústria foi encontrada, uma segunda
dificuldade foi relativa a imposições contratuais relativas a sigilo industrial.
Considera-se, de modo geral, que dados relativos à falhas representam informações
estratégicas e, portanto, de divulgação indesejável.
Finalmente conclui-se que os resultados obtidos foram muito promissores
apesar da quantidade de modos de falha disponível ser pequena. Considera-se que
a eficácia da metodologia utilizada foi plenamente comprovada justificando
investimentos futuros para modelagem de outros processos produtivos de
complexidade similar ou superior.
85
6.3 Sugestões para Trabalhos Futuros
O desenvolvimento do modelo apresentado foi focado em um equipamento
específico. Considerando-se que a metodologia utilizada foi exaustivamente testada
e validada a mesma pode ser aplicada, com as devidas adaptações, a outros
equipamentos ou processos.
Espera-se que, nos próximos anos, que a engenharia de confiabilidade ostente
um papel de destaque no cenário nacional. Espera-se ainda que este trabalho tenha
oferecido uma parcela de contribuição para a realização deste fato.
86
REFERÊNCIAS BIBLIOGRÁFICAS:
ASCHER, H.; FEINGOLD, H. Repairable Systems Reliability. Modeling, Inference, Misconceptions and Their Causes. New York: Marcel Dekker, 1984,
223p.
BAZARGAN. M.; MCGRATH, R. N. Discrete Event Simulation to Improve Aircraft
Availability and Maintainability. In: Annual Reliability and Maintainability Symposium.
49o, 2003, Tampa. Proceedings of the … Tampa: IEEE, 2003., p. 63-67.
BILLINTON, R. Power System Reliability Evaluation. 5a ed. United States of
America: Gordon and Breach Science Publishers, 1978. 299 p.
BOWLES, J. B.; PELÁEZ, C. E. Application of Fuzzy Logic to Reliability Engineering.
IEEE, Proceedings …v. 83, n.3, March 1995, p. 435- 449.
BOWLES, J. B. Fundamentals of Failure Modes and Effects Analysis. In: Annual
Reliability and Maintainability Symposium, 49o, 2003, Tampa. Conference Tutorials …, Tampa: IEEE, 2003.
CAI, K. Y ; WEN, C. Y.; ZHANG, M. L. Fuzzy Variables as a Basis for a Theory of
Fuzzy Reliability in the possibility context. Fuzzy Sets and Systems, v.42, p.145-
172, 1991.
CAI, K. Y ; WEN, C. Y.; ZHANG, M. L. Fuzzy States as a Basis for a Theory of
Fuzzy Reliability. Microeletronics Reliability. v. 33, n. 15, p. 2253-2263, 1993.
CAI, K. Y. System failure engineering and fuzzy methodology. An introductory
overview. Elsevier Science Publishers. Fuzzy Sets and Systems, v. 83, p.113-133,
1996.
CARVALHO, A.L.; MENEZES, B. R. M.; CAMINHAS, W. M. Comparação de
Metodologias para Cálculo de Confiabilidade em Sistemas Reparáveis. In: Simpósio
87
Internacional de Confiabilidade, IV , 2006, Salvador. Anais… São Paulo: Reliasoft
Brasil, 2006.
CARVALHO, A. L. Métodos Alternativos para Cálculo de Confiabilidade:
Abordagem Bayesiana e Inteligência Computacional. In: Simpósio Internacional de
Confiabilidade, V, 2007, Belo Horizonte. Conference Tutorials …, Belo Horizonte:
Reliasoft Brasil, 2007.
CASSADY, C. R.; POHL, E. A. Introduction to Repairable Systems Modeling. In:
Annual Reliability and Maintainability Symposium, 49o, 2003, Tampa. Conference Tutorials …, Tampa: IEEE, 2005.
COIT, D.W. Probabilistic Methods and Statistical Methods in Reliability. In: Annual
Reliability and Maintainability Symposium, 51o, 2005, Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005.
CROW, L. Reliability Growth Testing and Data Analysis. In: Annual Reliability and
Maintainability Symposium, 51o,, 2005 a. , Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005.
.
.CROW, L. Reliability Growth Management, Analysis and Case Studies. In: Simpósio
Internacional de Confiabilidade, III , 2005 b.,Rio de Janeiro. Anais… São Paulo:
Reliasoft Brasil, 2005.
DESHANDE, V.S, MODAK, J.P. Maintenance strategy for tilting table of rolling mill
based on reliability considerations. Reliability Engineering and System Safety;
v.80, p.1-18., 2003
DHILLON, B.S. Design Reliability. Fundamentals and Applications. United
States of America: CRC Press LLC, 1999. 382p
DUTUIT, Y; RAUZY, A. Approximate Estimation of System Reliability via Fault Trees. Elsevier Science Publishers. Reliability Engineering and System Safety, v.87, p.
163-172, 2005.
88
EL-IRAKI A, ODOOM ER. Fuzzy Probist Reliability Assessment of Repairable
Systems. In: NAFIPS Conference of the North American, 1998, Pensacola Beach.
Anais… , Pensacola Beach: IEEE Fuzzy Information Processing Society, 1998;
p.96-100.
ENDRENYI, J.;ANDERS, G. J.; LEITE DA SILVA, A. M. Probabilistic Evaluation of
the Effect of Maintenance on Reliability – an application. IEEE Transactions on Power Systems, v.13, n.2, p.576-583, may 1998.
FILHO, V. B. Confiabilidade Básica e Prática. 1a ed. São Paulo: Editora Edgar
Blucher. 1997 108p.
FRAGOLA, J.R. Human Reliability Analysis. In: Annual Reliability and Maintainability
Symposium, 51o, 2005, Alexandria. Conference Tutorials …, Alexandria: IEEE,
2005.
FREITAS, M. A. e COLOSIMO, E. A. Confiabilidade: Análise do tempo de falha e Testes de Vida Acelerados. Belo Horizonte : Fundação Cristiano Ottoni, 1997. 308p
(Série Ferramentas da Qualidade, v. 12)
GUIMARÃES, A. C. F; LAPA, C. M. F. Fuzzy FMEA Applied to PWR Chemical and
Volume Control System. Elsevier Science Publishers. Progress in Nuclear Energy,
v. 44, n.3, p.191-213, 2004.
HELMAN, H.; ANDERY, P. R. P. Análise de Falhas (Aplicação dos Métodos de FMEA-FTA). 1a ed. Belo Horizonte: Fundação Cristiano Ottoni, 1995, 156 p. (Série
Ferramentas da Qualidade, v.11)
JANG, J.-S.R; SUN,C.-T.; MIZUTANI, E. Neuro-Fuzzy and Soft Computing. A Computacional Approach to Learning and Machine Intelligence. United States of
America: Prentice Hall, 1997.614p.
IEEE The Present Status of Maintenance Strategies and the Impact of Maintenance
on Reliability. IEEE Transactions on Power Systems v.16, n.4, p.638-646,
89
November 2001.
KNEZEVIC J, ODOOM E R. Reliability modelling of repairable systems using Petri
nets and fuzzy Lambda-Tau methodology. Reliability Engineering and System Safety, v.17, p.1-17, 2001.
KRASICH, M. Fault tree Analysis for Failure Modes Identification and Product
Reliability Improvement. In: Annual Reliability and Maintainability Symposium, 51o,
2005, Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005.
LAFRAIA, J. R. B. Manual de Confiabilidade, Mantenabilidade e Disponibilidade. 1a ed. Rio de Janeiro: Qualitymark: Petrobrás, 2001. 388p.
LEON GARCIA, A. Probability and Random Processes for Electrical Engineering. Addison-Wesley Publishing Company. 1994
LEVITIN, G. (Ed). Computational Intelligence in Reliability Engineering. 1aed.
Israel: Springer, 2006. 413p
LEWIS, E. Introcduction to Reliability Engineering 4a ed. Canada: John Wiley &
Sons, 1987. 400 p.
LOGMAN J, WANG W. On Reliability Modeling and Analysis of Highly-Reliable Large
Systems. In: Annual Reliability and Maintainability Symposium, 48o, 2002, Seattle.
Proceedings …, Seattle: IEEE, 2002, p. 456-459.
LUCATELLI, M.V. Proposta de Aplicação da Manutenção Centrada em Confiabilidade em Equipamentos Médico- Hospitalares. 2002. 285f. Tese
(Doutorado) - Universidade de Santa Catarina, Programa de Pós-Graduação em
Engenharia Elétrica,Florianópolis.
MAILLART L.M, POHL AE. Introduction to Markov-Chain Modeling and Analysis. In:
Annual Reliability and Maintainability Symposium, 51o, 2005, Alexandria.
Conference Tutorials …, Alexandria: IEEE, 2005.
90
MARSEGUERRA, M.; ZIO, E. Monte Carlo Sampling and Simulation for Application
to RAMS. In: Annual Reliability and Maintainability Symposium, 51o, 2005,
Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005.
MATHWORKS. MATLAB 7.2 Software Training Guide, 2006.
METTAS, A. Reliability Allocation and Optimization for Complex Systems In: Annual
Reliability and Maintainability Symposium, 46o, 2000, Los Angeles. Proceedings …, Los Angeles: IEEE, 2000, p. 216-221
METTAS, A.; SAVVA, M. System Reliability Analysis: The Advantages of Using
Analytical Methods to Analyze Non-Repairable Systems. In: Annual Reliability and
Maintainability Symposium, 47o, 2001, Alabama. Proceedings …, Alabama: IEEE,
2001, p. 80-85.
METTAS A, ZHAO W. Modeling and Analysis of Repairable Systems with General
Repair. In:Annual Reliability and Maintainability Symposium, 51o, 2005, Alexandria.
Proceedings …, Alexandria: IEEE, 2005, p. 176-182.
METTAS, A. Repairable Systems: Data Analysis and Modeling. In: Simpósio
Internacional de Confiabilidade, IV, 2006, Salvador. Conference Tutorials …, Salvador: Reliasoft Brasil, 2006.
MEYER, P. L. Probabilidade. Aplicações à Estatística. 2a ed. Rio de Janeiro:
Livros Técnicos e Científicos Editora (LTC). 1983. 426 p.
MIJAILOVIC, V. Probabilistic method for planning of maintenance activities of
substation components. Electric Power System Research, v. 64, p.53-58, 2003.
MISRA, K. B.; WEBER, G.G. Use of Fuzzy Set Theory for Level I Studies in
Probabilistic Risk Assessment. Elsevier Science Publishers. Fuzzy Sets and Systems, v.37, p. 139-160, 1990.
91
MOUBRAY, J. Reliability Centred Maintenance – An Introduction. Aladon,
Inglaterra, 1999. Disponível em: <http:// www.aladon.com> Acesso em 18/08/2006.
MURPHY KE, CARTE CM. Reliability Block Diagram Construction Techniques:
Secrets to Real-life Diagramming Woes. In: Annual Reliability and Maintainability
Symposium, 49o, 2003, Tampa. Conference Tutorials …, Tampa: IEEE, 2003.
NACHTMANN, H.; CHIMKA, J. R. Fuzzy Reliability in Conceptual Design. In: Annual
Reliability and Maintainability Symposium, 49o, 2003, Tampa. Proceedings …
Tampa: IEEE, 2003. p.360-364.
NELSON W. Applied Life Data Analysis. United States of America: John Willey &
Sons, 1982; 634p.
O’ CONNOR, P. D. T. Practical Reliability Engineering. 4a ed. England: John
Wiley & Sons, 2002. 513p
PALADY, P. FMEA, Análise dos Modos de Falha e Efeitos. Prevendo e Prevenindo Problemas Antes que Ocorram 3a ed. São Paulo: Instituto IMAM,
2004. 270p.
PALLEROSI, C.A. Os 10 passos para melhorar a Qualidade pela Confiabilidade e
Mantenabilidade. In: Simpósio Internacional de Confiabilidade, II, 2004, São Paulo.
Anais… São Paulo: Reliasoft Brasil, 2004.
PALLEROSI, C.A. Principais Aplicações, Vantagens, Desvantagens e Limitações
das Atuais Distribuições Estatísticas em Confiabilidade. In: Simpósio Internacional de
Confiabilidade, V, 2007, Belo Horizonte. Anais… Belo Horizonte: Reliasoft Brasil,
2007.
PAULINO, C. D.; TURKMAN, A. A; MURTEIRA, B. Estatística Bayesiana.
Lisboa: Fundação Calouste Gulbenkian. 2003. 446 p.
92
PEEBLES, P. Z. Probability, Random Variables and Random Signal Principles. 3a ed. Singapore: McGraw-Hill. 1993. 401p.
PEDRYCZ, W.; GOMIDE, F. An Introduction to Fuzzy Sets. Analysis and Design.
England: Massachusetts Institute of Technology, 1998. 465p.
RELIASOFT CORPORATION a, Weibull++ 7.0 Software Package, Tucson, AZ,
2007.
RELIASOFT CORPORATION b, BlokSim 7 Software Package, Tucson, AZ, 2007.
RIGDON, S.E.; BASU, A.P. Statistical Methods for the Reliability of Repairable Systems. New York: Jonh Wiley &Sons, 2000. 281p.
ROUVROYE, J.L.; VAN DEN BLIEK, E.G. Comparing safety analysis techniques. Elsevier Science Publishers. Reliability Engineering and System Safety. v.75, p.
289-294, 2002
SANTOS, W.B. Determinação da Periodicidade da Manutenção Preventiva em Sistemas Reparáveis. 2003. 54f. Dissertação (Mestrado em Estatística) –
Universidade Federal de Minas Gerais, Departamento de Estatística, Belo Horizonte
TANAKA, H.; FAN, L.T.; LAI, F.S.; TOGUCHI, K. Fault Tree Analysis by Fuzzy
Probability. IEEE Transactions on Reliability, v.32, n.5, p. 453-457, December,
1983.
UTKIN, L. V.; GUROV, S.V. A general approach for fuzzy reliability analysis in the
possibility context. Elsevier Science Publishers. Fuzzy Sets and Systems, v. 83,
p.203-213, 1996.
VOLOVOI, V. Modeling of System Reliability Petri Nets with Aging Tokens. Elsevier
Science Publishers. Reliability Engineering and System Safety, v.84, p. 149-161,
2004.
93
VOUK, M. A. Software Reliability Engineering. In: Annual Reliability and
Maintainability Symposium, 51o, 2005, Alexandria. Conference Tutorials …, Alexandria: IEEE, 2005.
WEBER, D.P. Fuzzy Weibull for Risk Analysis. In: Annual Reliability and
Maintainability Symposium, 40o, 1994, Anaheim. Proceedings … Anaheim: IEEE,
1994, p.456-461.
ZADEH, L. Outline of a New Approach to the Analysis of Complex Systems and
Decision Process. IEEE Transactions on Systems, Man, and Cybernetics, v.3, p.
28-44, 1973.
ZADEH, L. Fuzzy Sets as a Basis for a thery of Possibility. Fuzzy Sets and Systems
v.1, p. 3-28, 1978.
94
APÊNDICE A - EXEMPLOS DE ANÁLISES NEBULOSAS DE FALHA
A1 - FTA PROBIST Nebulosa
Os eventos básicos em um modelo FTA são conectados através de portas
lógicas cuja forma de interligação representa a seqüência de eventos que causam o
evento de topo. Maiores detalhes sobre este modelo podem ser encontrados no
Capítulo 3, item 3.1.2.
Aproximações numéricas que expressam imprecisão tais como “a
probabilidade é aproximadamente m”, sendo m um número real, podem ser
modeladas por números nebulosos. Formalmente um número nebuloso é definido no
universo de números reais como um conjunto nebuloso cuja função de pertinência
satisfaz as propriedades de normalidade e convexidade (PEDRYCZ;
GOMIDE,1998).
Números nebulosos podem ser representados por de funções de pertinência
triangulares, trapezoidais, gaussianas, dentre outras. A largura da função determina
a variação dos valores possíveis sendo que, nos estudos de confiabilidade são mais
comuns números triangulares devido a sua simplicidade.
As operações aritméticas envolvendo números nebulosos representam uma
aplicação direta do princípio da extensão. Particularmente, para o cálculo de
confiabilidade são necessárias as operações de multiplicação e complemento.
Tanaka et al (1983) é citado na literatura como o primeiro a utilizar números
nebulosos para cálculo de confiabilidade. Este autor propôs uma forma simplificada
de cálculo cujos resultados são parcialmente apresentados a seguir.
Seja o número nebuloso trapezoidal A definido no universo X=[0,1] e cuja
função de pertinência µA(x) é função de x e dos pontos a1, b1, c1 e d1 conforme (1).
),,,;()( 1111 dcbaxfxA =µ (1)
De maneira análoga, pode ser definido um outro número nebuloso trapezoidal
B, com função de pertinência µB(x) conforme (2).
95
),,,;()( 2222 dcbaxfxB =µ (2)
A multiplicação dos dois números nebulosos trapezoidais A e B com funções
de pertinência µA(x) e µB(x), respectivamente, resulta no número trapezoidal R com
função de pertinência µR(x). Esta operação pode ser aproximada por (3).
),,,;()( 21212121 ddccbbaaxxR =µ (3)
O complemento do número nebuloso A é representado por Ā cuja função de
pertinência µĀ(x) é aproximada pela expressão 4. Procedimento análogo de
aproximação pode ser realizado com relação a números nebulosos definidos por
outras funções de pertinência.
)1,1,1,1;()( 1111 dcbaxxA −−−−=µ
(4 )
Considerando-se um modelo FTA PROBIST nebuloso a probabilidade dos
eventos básicos é modelada como um número nebuloso. Assim, aplicando-se o
princípio da extensão, é possível calcular a probabilidade do evento de topo. Esta
metodologia permite especificar um universo de discurso de valores (uma
distribuição de possibilidades) para a probabilidade de falha (BOWLES;PELÁEZ,
1995). O resultado encontrado poderá ser expresso através do número nebuloso
resultante ou ser “defuzzificado” posteriormente se for necessário obter um único
valor.
Um sistema representado por uma porta lógica AND convencional apresentará
falha se os componentes A e B falharem simultaneamente. A probabilidade de que
ambos falhem FAND e a confiabilidade RAND são dadas por (5) e (6) respectivamente.
Maiores detalhes sobre as equações confiabilidade e probabilidade de falha podem
ser encontrados no capítulo 3 item 3.1.3.
BAAND FFF = (5 )
96
)]1()1[(1][1 BABAAND RRFFR −−−=−= (6)
A confiabilidade ROR de uma porta OR formada pelos componentes A e B é
dada por (7) e a probabilidade de que ambos falhem FOR é dada por (8).
BAOR RRR =
(7)
)]1()1[(1][1 BABAOR FFRRF −−−=−=
(8)
Apresenta-se, a seguir a reprodução de um exemplo numérico proposto por
Tanaka et al. (1983) no qual a probabilidade de falha dos eventos básicos é
representada por números nebulosos trapezoidais. (Figura 1). A probabilidade de
falha do evento de topo, FT, deduzida para esta FTA conforme (5) e (8) é
apresentada por (9). A probabilidade de falha de cada evento básico xi é
apresentada no Quadro1.
Figura 1: Exemplo FTA nebulosa
Fonte: TANAKA et al. (1983)
)]1()1()1[(1 54321 xxxxxT FFFFFF −−−−= (9)
97
Probabilidade Fuzzy )( 1111 dcba
Fx1
Fx2
Fx3
Fx4
Fx5
(0,1 0,15 0,2 0,25)
(0,02 0,03 0,05 0,08)
(0,01 0,02 0,03 0,04)
(0,2 0,25 0,35 0,5)
(0,006 0,008 0,01 0,012)
Quadro1: Dados exemplo Fuzzy FTA
Fonte: (TANAKA et al., 1983)
A partir dos dados fornecidos na Quadro.1 a probabilidade de falha do evento
de topo FT pode ser calculada conforme expressões ( 3) e (4).
)980,0990,0996,0998,0()1( 21=− xx FF
)960,0970,0980,0990,0()1( 3 =− xF
)994,0997,0998,0999,0()1( 54 =− xx FF
)065,0043,0026,0013,0(=TF
O procedimento proposto por Tanaka et al.(1983) e reproduzido neste trabalho
pode ser generalizado para números nebulosos com outras funções de pertinência.
Observa-se que grande parte dos trabalhos pesquisados adota números nebulosos
triangulares (BOWLE1S; PELÁEZ, 1995; EL-IRAKI ;ODOOM ,1998). Como já foi
mencionado anteriormente, para cálculo dos valores de interesse em confiabilidade
são necessárias somente as operações multiplicação e complemento.
A metodologia PROBIST nebulosa a partir da utilização de números nebulosos
propõe uma maneira de tratar a incerteza intrínseca à modelagem de confiabilidade.
Números nebulosos são representados por funções de pertinência triangulares,
trapezoidais, gaussianas, dentre outras, sendo que, a dispersão da função
determina a variação dos valores possíveis. Esta abordagem pode ser comparada à
utilização de intervalos de confiança na teoria clássica de confiabilidade segundo a
98
qual a largura do intervalo depende do tamanho da amostra de dados disponíveis.
Portanto, quando não existem dados, o intervalo tende a ser grande. Além disso,
em um intervalo de confiança todos os valores são igualmente prováveis. Um
número nebuloso apresenta valores com diferentes graus de pertinência obtidos a
partir da experiência de um especialista.
A representação gráfica de um número nebuloso A com função de pertinência
µA(x) e um intervalo de confiança delimitado pelos pontos a e b com probabilidade
P(x) é dada pela Figura 2.
Figura 2: Comparação de um número nebuloso triangular e um intervalo de confiança
Cabe ressaltar que os valores obtidos segundo a abordagem nebulosa podem
permanecer como uma faixa de valores prováveis ou podem ser “defuzzificados”
com o objetivo de encontrar o valor mais provável. Esta metodologia pode ser
aplicada em sistemas não reparáveis ou reparáveis.
A2- POSBIST FMEA Utilizando Processo de Inferência
Um processo de inferência nebuloso utiliza um conjunto de regras IF-THEN
para realizar um mapeamento do universo de discurso de entrada no universo de
discurso de saída a partir do procedimento proposto por Mamdani (JANG et
al.,1997).
A análise de modos e efeitos de falhas (FMEA) visa identificar todos os
possíveis modos potenciais de falha sobre o desempenho de um sistema (produto
ou processo). O resultado da análise é consolidado através de um formulário no qual
são registrados os efeitos e as causas correspondentes à cada modo de falha
µ(x) 1 0
a m b x
P(x)
a b x
99
observado. Posteriormente é calculado um índice de risco que corresponde à
ponderação de índices de gravidade, detecção e ocorrência. Maiores detalhes sobre
FMEA podem ser encontrados no Capítulo 3, item 3.1.1.
Considerando-se a abordagem nebulosa, os índices de gravidade, ocorrência,
detecção e risco podem ser modelados como conjuntos nebulosos. Guimarães e
Lapa (2004) desenvolveram uma FMEA POSBIST para modelar um sistema de
controle de um reator nuclear. O modelo proposto no referido artigo foi reproduzido
utilizando-se o MATLAB™ conforme mostra a Figura 3.
Índice de Gravidade
Índice de Ocorrência
Índice de Não-Detecção
Índice de Risco
Figura 3: Representação gráfica FMEA nebulosa
Segundo a proposta de Guimarães e Lapa (2004) os índices de gravidade,
ocorrência e não-detecção são representados pelos mesmos conjuntos. Esta
escolha foi feita por um especialista bem como o tipo de função de pertinência e os
termos lingüísticos a serem utilizados. O “R” significa remoto, “B” baixo, “M”
moderado, “A” alto e “MA” muito alto. A Figura 4 reproduz o resultado apresentado
no artigo original.
Fuzzy FMEA
100
Figura 4: Índice de gravidade
O conjunto nebuloso índice de risco (escolhido pelo mesmo especialista) é
reproduzido pela Figura 4.6 na qual “MB” significa muito baixo, “B” baixo, “AB”
aproximadamente baixo, “M” moderado, “AA” aproximadamente alto e “A” alto.
Figura 5: Índice de risco
Considerando a existência de três índices (ocorrência, gravidade e não-
detecção) e cinco termos lingüísticos para descrever cada um deles, existe a
possibilidade de geração de 125 regras. Entretanto foi definido como significativo um
conjunto de 14 regras (GUIMARÃES; LAPA, 2004), de acordo com a experiência dos
especialistas.
A partir de um conjunto de regras nebulosas é possível calcular
qualitativamente o índice de risco a partir dos índices de gravidade, ocorrência e
não detecção. Posteriormente o resultado é “defuzzificado” utilizando-se método
centro de área.
Considerando que a FMEA é um método de análise qualitativo por natureza, a
abordagem nebulosa apresenta uma alternativa natural para modelagem do
raciocínio e inferência humanos. Tanto na abordagem clássica quanto na
101
abordagem nebulosa existe grande dependência do especialista humano. Esta
dependência pode ser observada na escolha dos termos lingüísticos utilizados para
definição de variáveis e também na escolha das regras que serão consideradas
válidas.
Referências Bibliográficas:
BOWLES, J. B.; PELÁEZ, C. E. Application of Fuzzy Logic to Reliability Engineering.
IEEE, Proceedings …v. 83, n.3, March 1995, p. 435- 449.
EL-IRAKI A, ODOOM ER. Fuzzy Probist Reliability Assessment of Repairable
Systems. In: NAFIPS Conference of the North American, 1998, Pensacola Beach.
Anais… , Pensacola Beach: IEEE Fuzzy Information Processing Society, 1998;
p.96-100.
GUIMARÃES, A. C. F; LAPA, C. M. F. Fuzzy FMEA Applied to PWR Chemical and
Volume Control System. Elsevier Science Publishers. Progress in Nuclear Energy,
v. 44, n.3, p.191-213, 2004.
JANG, J.-S.R; SUN,C.-T.; MIZUTANI, E. Neuro-Fuzzy and Soft Computing. A Computacional Approach to Learning and Machine Intelligence. United States of
America: Prentice Hall, 1997.614p.
PEDRYCZ, W.; GOMIDE, F. An Introduction to Fuzzy Sets. Analysis and Design.
England: Massachusetts Institute of Technology, 1998. 465p.
TANAKA, H.; FAN, L.T.; LAI, F.S.; TOGUCHI, K. Fault Tree Analysis by Fuzzy
Probability. IEEE Transactions on Reliability, v.32, n.5, p. 453-457, December,
1983.
102
APÊNDICE B – CONDIÇÃO INICIAL PARA O MODELO ADAPTATIVO
Conforme apresentado anteriormente, a condição inicial do modelo adaptativo é
determinada pelo modelo estático de forma a utilizar o conhecimento dos
especialistas como ponto de partida para o modelo adaptativo. Utilizou-se nesta
etapa o processo de inferência Sugeno com função de pertinência gaussiana (1)
devido à facilidade de implementação.
−−
=
2
21
)(σ
µ
cx
ex
(1)
Onde c : centro;
σ : dispersão.
Foram consideradas como entradas do modelo a complexidade do modo de
falha ( CXx ), localização do modo de falha dentro do equipamento ( LOx ), dimensão
física do sobressalente ( DFx ), custo do sobressalente ( CSx ) e freqüência de
ocorrência de falhas ( FOx ). Todos os conjuntos foram igualmente distribuídos em
um universo de discurso entre 0 e 1. O parâmetro centro c relativo à cada conjunto
nebuloso pode ser obtido diretamente da figura 1. O parâmetro desvio padrão σ foi
considerado igual para todas as funções de pertinência de todas as entradas no
valor de 0,17.
Figura 1: Exemplo variável de entrada
103
A faixa de variação de todas as variáveis de saída foi determinada através de
entrevistas com os especialistas conforme quadro 1.
Variável
Sigla
Variação turno
diurno (min)
Tempo para detectar a falha DCτ 0-30
Tempo para desmontar o equipamento DEτ 0-30
Tempo para reparar o equipamento REτ 0-300
Tempo para montar o equipamento MOτ 0-30
Tempo para testar TEτ 0-30
Tempo para mobilizar pessoas MPτ 0-15
Tempo para disponibilizar ferramentas DFτ 0-30
Tempo para repor sobressalentes RSτ 0-15
Quadro 1: Universo de discurso (em minutos) para as variáveis de saída
Uma regra típica de um modelo Sugeno tem a forma (JANG et al.,1997):
if x é B então y = f (x)
Foram utilizados neste trabalho modelos Sugeno de ordem 0 com parâmetro q.
Este valor foi obtido a partir das funções de pertinência do modelo Mamdani
conforme ilustrado na figura 2. Utilizou-se como exemplo a variável τDC (tempo para
detecção da falha) cuja base de regras é apresentada:
104
Se xCX é P e xLO é F então τDC é P Se xCX é P e xLO é M então τDC é P Se xCX é P e xLO é D então τDC é M Se xCX é M e xLO é F então τDC é M Se xCX é M e xLO é M então τDC é M Se xCX é M e xLO é D então τDC é G Se xCX é G e xLO é F então τDC é M Se xCX é G e xLO é M então τDC é G Se xCX é G e xLO é D então τDC é G
Quadro 2: Regras para determinar o tempo para detectar a falha
Figura 2: Exemplo variável de saída
Parâmetros de entrada Parâmetros de saída Regras xCX q c σ τMP τDF
1 0 0,17 1 2 2 0,5 0,17 7,5 15 3 1 0,17 15 30
Quadro 3: Síntese parâmetros de entrada e saída do modelo adaptativo para cálculo do tempo logístico lτ (entrada xCX )
105
Parâmetros de entrada Parâmetros de saída Regras xDF q c σ τRS
1 0 0,17 1 2 0,5 0,17 7,5 3 1 0,17 15
Quadro 4: Síntese parâmetros de entrada e saída do modelo adaptativo
para cálculo do tempo logístico lτ (entrada DFx )
Parâmetros de entrada Parâmetros de saída Regras xCX xLO q c σ c σ τDC τDE τRE τMO τTE
1 0 0,17 0 0,17 5 2 5 2 2 2 0 0,17 0,5 0,17 5 2 5 2 2 3 0 0,17 1 0,17 15 15 35 15 15 4 0,5 0,17 0 0,17 15 2 5 2 2 5 0,5 0,17 0,5 0,17 15 15 35 15 15 6 0,5 0,17 1 0,17 30 30 150 30 30 7 1 0,17 0 0,17 15 15 35 15 15 8 1 0,17 0,5 0,17 30 30 150 30 30 9 1 0,17 1 0,17 30 30 150 30 30
Quadro 5: Síntese parâmetros de entrada e saída do modelo adaptativo
para cálculo do tempo efetivo de manutenção mτ
106
APÊNDICE C - TREINAMENTO DOS MODELOS ADAPTATIVOS
A condição inicial do modelo adaptativo é determinada pelo modelo estático de
forma a introduzir o conhecimento dos especialistas como ponto de partida para o
modelo adaptativo. Assim, o modelo adaptativo poderá calcular ajustar seus
parâmetros à medida que existirem disponibilidade de dados. Utilizou-se nesta etapa
o processo de inferência Sugeno com função de pertinência gaussiana (1) devido a
facilidade de implementação.
−−
=
2
21
)(σ
µ
cx
ex
(1)
Onde c : centro;
σ : dispersão.
Uma regra típica de um modelo Sugeno tem a forma (JANG et al.,1997):
if x é B então y = f (x)
A variável B no antecedente da regra é um conjunto nebuloso e o conseqüente
da regra y é uma função crisp (não nebulosa). Usualmente f (x) é um polinômio
dependente da entrada x no formato y=px+q. A ordem do polinômio determina o
nome do modelo. Por exemplo, quando f é um polinômio de primeira ordem tem-se
um modelo Sugeno de primeira ordem e assim sucessivamente.
Para cada rede adaptativa representada no capítulo 4 (figura 4.5), a entrada é
uma matriz de pontos do tipo Xk x n, onde k (número de linhas) representa o número
de pontos de cada uma das entradas individuais. A variável n representa o número
de entradas da rede e m é o número de regras a ser utilizado. Para uma regra j
qualquer, tem-se que:
jnnjijjjnjnijjj qxpxpxpyentãoBéxeBéxeBéxse +++= ......),()...(...)( 11111 (2)
107
jin
i ijjnjnijjj qxpyentãoBéxeBéxeBéxse += ∑ =111 ),()...(...)( (3)
Os pesos wj são determinados por:
( )∏=
==n
iiBijnBnjjBijjBjBj xxxxxw
12211 )()()...()( µµµµµ
(4)
O cálculo da saída ys de cada rede adaptativa é dado por (5) e o erro quadrático a
ser minimizado é dado por (6).
ba
w
ywys m
jj
m
jjj
==
∑
∑
=
=
1
1.
(5)
( )2.21 ydyse −= (6)
Assim, conclui-se que o erro e é função dos parâmetros c (centro) e σ
(dispersão) das funções de pertinência e dos parâmetros p e q do polinômio de
saída de cada modelo Sugeno. O método de minimização do erro pelo gradiente
descendente resulta em:
( )
−
−−=
∂
∂
∂∂
∂∂
=∂∂
2*ij
ijij
j
ij
j
jij
cxw
bysy
zdzcw
wys
ze
ce
σ
(7)
( ) ( )
−
−−=
∂
∂
∂
∂
∂∂
=∂∂
3
2
*ij
ijij
j
ij
j
jij
cxw
bysy
zdzw
wys
zee
σσσ
(8)
108
( ) ( )ij
ij
j
jij
xbw
zdzPy
yys
ze
Pe
−=
∂
∂
∂∂
∂∂
=∂∂
(9)
( ) ( )11
1
−=
∂
∂
∂∂
∂∂
∂∂
∂∂
=∂∂
bw
zdzqy
yys
ysz
zz
ze
qe j
j
j
jj
(10)
Após o cálculo das derivadas para cada época de treinamento os parâmetros
de cada rede são ajustados. Dado um ponto k qualquer da entrada, considerando
uma taxa de aprendizado α, tem-se que:
kceccij
kij
kij ∂
∂−=+ α1 (11)
ke
ij
kij
kij σ
ασσ∂∂
−=+1 (12)
kpeppij
kij
kij ∂
∂−=+ α1 (13)
kqeqq
j
kj
kj ∂
∂−=+ α1 (14)
109
ANEXO A – MODOS DE FALHA LAMINADOR PRIMARIO
Natureza da Falha Modo de Falha Quantidade
de Falhas Falha de automação 12
Falha no motor 2 Inspeção no equipamento 2 Falha “p” 1 Falha no Posicionamento 1
TMNP Desalinhamento 1 Agarramento de batente 1 Falha de lubrificação 1 Quebra de estrutura. 1 Falha no Funcionamento 1 Curto-Circuito 1 Inspeção no Laminador 14 Geração de sucatas 17 Material agarrado 6 Ajuste axial 6 Ajuste na escala de passe 5 Perda de estabilidade 4 Lixamento de cilindros 1 Ajuste “s” 4 Troca “s” 3 Atolamento de cilindros 2 Aperto “s” 2
TPO Má formação do bean blank 2 Material preso 2 Falha operacional 1 Material atravessado 1 Inspeção de lâminas 1 C. equipamento 1 Sobrecarga operacional 1 Atraso no desenfornamento 1 B. empenado 1 Troca de lâminas 1 Troca de caçamba 1 Aferição de Bitola 1 Quebra de cilindros 1 Quebra “s” 1 Ajuste manual 1
Quadro 1: Modos de falha turno diurno
110
Natureza da Falha Modo de Falha Quantidade
de Falhas Falha de refrigeração. 6 Falha de automação 4 Falha no Funcionamento 3 Falha H 3 DPE 3 TMNP Falha no Motor 2 Defeito empurrador 2 Falha de lubrificação 2 Falha de Acoplamento 2 Limite de Quebra de Eixo 1 Falha de freio. 1
Sobrecarga 1 Inspeção no equipamento 1 Fusível 1 Rompimento de cabo 1 Falha no Sensor 1 Falha no Limite 1 Falha “T” 1 Quebra de estrutura. 1 Desarme do Disjuntor 1 Mau Contato 1 Geração de sucatas 38 Ajuste na escala de passe 27 Inspeção no laminador 19 Material agarrado 16 Ajuste “s” 13 Ajuste Axial 9 Perda de estabilidade do material 8 Material atravessado 5 Consignação de Equipamentos 4 Lixamento de cilindros 4 Quebra de cilindros 4
TPO Troca “s” 4 Defeito matéria prima 2 Lixamento “s” 2 Limpeza de qualquer natureza 2 Troca de caçamba 2 Erro de Informação 2 Aferição de Bitola 1 Atraso na montagem dos laminadores 1 B. empenado 1 Sobrecarga operacional 1 Troca de lâminas 1 Troca de cilindros 1 Atraso no desenfornamento 1 Falha no posicionamento 1 Material preso na rampa de sucata da serra 1
Quadro 2 : Modos de falha turnos noturnos
Top Related