Sei sulla pagina 1di 92

Pontifícia Universidade Católica de Minas Gerais

Engenharia de Produção

Confiabilidade de Produtos e Processos

Profa. Alessandra Lopes Carvalho

Belo Horizonte
Agosto de 2017
1

Prezado aluno:

Apresento as notas de aula da disciplina Confiabilidade de Produtos e Processos.


Este material é fruto de longos anos de trabalho e está em constante
desenvolvimento. Agradeço sugestões.

É importante ressaltar que não se pretende que este material substitua qualquer
obra recomnedada como referência bibliográfica.

Profa. Alessandra Lopes Carvalho, Dra


2

Lista de Abreviaturas
fdp (probability density function) - função densidade de probabilidade

cdf (cumulative distribution function) - função distribuição acumulada

FMEA (Failure Mode and Effect Analysis ) - análise de modos e efeitos de falhas

FTA (Faut Tree Analysis) - árvore de falhas

MTBF (Mean Time Between Failure) - tempo médio entre falhas

MTTF - (Mean Time To Failure) - tempo médio até a falhas

RBD (Reliability Block Diagram) - diagrama em blocos de confiabilidade

RCM (Reliability Centered Maintenance) - manutenção centrada em confiabilidade


3

Sumário

1-Definições Elementares
1.1-Fundamentos
1.1.1 Teoria de Probabilidade ------------------------------------------------------------------ 05
1.1.2 Conceito de variável aleatória------------------------------------------------------------ 08
1.2-Definição Quantitativa de Confiabilidade ----------------------------------------------------- 08
1.3-Conceito de Falha---------------------------------------------------------------------------------- 10
1.3.1- Introdução ---------------------------------------------------------------------------------- 10
1.3.1- Função Taxa de Falha--------------------------------------------------------------------- 11
1.3.2- Evolução da Função Taxa de Falhas em Relação ao Tempo------------------------ 12

2-Análise de Tempo de Falha - Técnicas Não-Paramétricas


2.1- Introdução Geral---------------------------------------------------------------------------------- 16
2.2-Estimação da Função Confiabilidade na Ausência de Censura----------------------------- 17
2.3-Estimação da Função Confiabilidade na Presença de Censura------------------------------ 18
2.3.1- Tabela de Vida (método atuarial)------------------------------------------------------- 18
2.3.2 -Estimador de Kaplan-Meier (limite-produto)------------------------------------------ 19

3-Análise de Tempo de Falha – Técnicas Paramétricas


3.1- Modelos de Distribuição de Variável Discreta----------------------------------------------- 21
3.1.1-Distribuição Binomial--------------------------------------------------------------------- 21
3.1.2-Distribuição de Poisson ------------------------------------------------------------------- 21
3.2- Modelos de Distribuição de Variável Continua
3.2.1- Distribuição Exponencial ---------------------------------------------------------------- 22
3.2.2- Distribuição Normal---------------------------------------------------------------------- 24
3.2.3- Distribuição Log Normal ---------------------------------------------------------------- 27
3.2.4- Distribuição Weibull---------------------------------------------------------------------- 29
3.3-Estimação de Parâmetros
3.3.1-Introdução---------------------------------------------------------------------------------- 31
3.3.2-Plotagem de Probabilidades-------------------------------------------------------------- 32
3.3.3- Mínimos Quadrados ( Regressão Linear) --------------------------------------------- 36
3.3.4- Método de Máxima Verossimilhança (Maximum Likelihood)--------------------- 40
3.3.5-Conclusões--------------------------------------------------------------------------------- 42
3.4-Validação de Modelos---------------------------------------------------------------------------- 42

4-Testes Acelerados
4.1-Conceitos ------------------------------------------------------------------------------------------- 46
4.2-Projeto de Testes Acelerados--------------------------------------------------------------------- 47

5- Função Mantenabilidade
5.1-Introdução------------------------------------------------------------------------------------------ 49
5.2-Distribuições de Probabilidade Utilizadas para Modelar o Tempo de Reparo
5.2.1 Distribuição Exponencial----------------------------------------------------------------- 50
5.2.2 Distribuição Log-normal------------------------------------------------------------------ 50
4

6- Função Disponibilidade
6.1 Definição Qualitativa------------------------------------------------------------------------------ 51
6.2 Definição Quantitativa---------------------------------------------------------------------------- 51

7- Análise da Confiabilidade de Sistemas


7.1- Introdução Geral---------------------------------------------------------------------------------- 54

7.2- Diagrama de Blocos de Confiabilidade


7.2.1- Introdução--------------------------------------------------------------------------------- 57
7.2.2- Modelos Utilizando RDBs
a)-Conexão série-------------------------------------------------------------------------- 58
b)-Redundância Ativa (Ligação paralelo)--------------------------------------------- 58
c)-Redundância Stand-by--------------------------------------------------------------- 59
d)-Redundância “k de “n”--------------------------------------------------------------- 59

7.2.3-Técnicas de Análise de RDBs


a)-Redução Série-Paralelo------------------------------------------------------------- 61
b)-Conjuntos de Corte------------------------------------------------------------------ 62

7.3- FTA (Faut Tree Analysis) ---------------------------------------------------------------------- 63

7.4- FMEA (Failure Mode and Effect Analysis )-------------------------------------------------- 66

7.5- Simulação de Monte Carlo---------------------------------------------------------------------- 78

7.6- Análise de Markov


7.6.1- Conceitos Elementares ----------------------------------------------------------------- 79
7.6.2 Análise de Markov Aplicada a Estudos de Disponibilidade de Sistemas--------- 80

8- Técnicas de Manutenção --------------------------------------------------------- 82

Referências Bibliográficas--------------------------------------------------------------------- 87

Bibliografia----------------------------------------------------------------------------- 90
ANEXO A - Sistema de Avaliação / Roteiro para elaboração do Trabalho Prático---------- 91

ANEXO B - Exercícios Propostos------------------------------------------------------------------ 94


5

1- Definições Elementares

1.1-Fundamentos

1.1.1 Teoria de Probabilidade

O espaço amostral é definido como o conjunto de todos os possíveis resultados de um


experimento. Um evento é qualquer subconjunto deste espaço. Considerando-se um
experimento com N possíveis resultados, o termo probabilidade pode ser definido como a
razão entre o número de ocorrências favoráveis a um evento qualquer e o número total de
possibilidades. Tomando-se como exemplo o evento A chega-se a definição clássica de
probabilidade representada pela Equação 1.1 e definida como P(A)

nk ( 1.1 )
P( A) =
N
Onde : nk= número de ocorrências favoráveis
N =número total de possibilidades

A união de dois eventos A e B é definida por A∪B e representa o conjunto dos resultados do
evento A somados aos resultados do evento B. A interseção de dois eventos A e B é
representada por A∩ B e significa que os resultados dos eventos acontecem simultaneamente.
Supondo dois eventos A e B estatisticamente independentes a probabilidade de que ocorra o
evento A∩B é dada pela Equação 1.2 e a probabilidade de que ocorra o evento A∪B é dada
pela Equação 1.3.

P ( A ∩ B ) = P( A) P( B) (1.2 )
P ( A ∪ B ) = P( A) + P( B) − P( A ∩ B) (1. 3 )

Supondo-se que a ocorrência de um evento A está condicionada a ocorrência de um evento B


é possível definir o termo probabilidade condicional representado na Equação 1.4. O termo
P(AІB) significa a probabilidade de ocorrer o evento A dado que o evento B tenha ocorrido.

P( A ∩ B) (1.4 )
P ( A | B) =
P( B)

Considerando-se como exemplo o experimento relativo ao lançamento de dois dados, o


universo amostral neste caso é estabelecido como 36 possibilidades. O conjunto formado pela
probabilidade de ocorrência de todos os eventos (obter-se o número 1, número 2 , etc) está
calculado na Tabela 1.1 e representado graficamente na Figura 1.1.

Tabela1.1- Probabilidades de ocorrência para o evento lançamento de dois dados.

x 1 2 3 4 5 6 7 8 9 10 11 12 13
f (x) 0 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 0
6

f(x)

6/36

1/36

1 2 3 4 5 6 7 8 9 10 11 12 13 x

Figura 1.1- Função Densidade de Probabilidade

A função f(x) representada na Figura 1.1 é conhecida como função densidade de


probabilidade (probability density function) ou fdp. O somatorio desta função (caso discreto)
ou a integral (caso continuo) é definida como função distribuição acumulada (cumulative
distribution function) ou cdf .

Considerando-se a função densidade de probabilidade continua representada na Figura 1.2, a


área sobre a curva tem valor unitário pois descreve a probabilidade de todos os valores da
variável x. Este conceito pode ser descrito através da Equação 1.5. De maneira análoga, a
probabilidade de um valor ocorrer entre x1 e x2 corresponde à área deste intervalo (Equação
1.6)

f(x)

x1 x2 x

Figura 1.2 - Função Densidade de Probabilidade (continua)

+∞ (1.5 )
F ( x) = P(−∞ < x < + ∞) =
−∞
∫ f ( x)dx =1
x2
P( x1 〈 x 〈 x 2 ) = ∫ f ( x) dx
x1
(1.6 )

Assim, conhecendo-se a fdp é possível calcular a cdf como a probabilidade acumulada de


todos os valores possíveis de x no intervalo considerado (Equação 1.7). Obviamente a
derivada da função cdf resulta na função fdp (Equação1.8).
x (1.7 )
F ( x) = ∫ f ( x)dx
−∞
7

dF ( x) (1.8 )
f ( x) =
dx

Conhecida a função densidade de probabilidade é possível definir alguns parâmetros de


interesse. A Figura 1.3 apresenta uma fdp (função densidade de probabilidade) qualquer e
ilustra a diferença entre moda, mediana e média.

f (x)

moda

mediana

média

Figura 1.3 – Relação entre a moda, mediana e media para uma fdp assimétrica

A média é a esperança matemática E(x) da função densidade de probabilidade f(x). Este


conceito é representado na Equação1. 9.
+∞
E ( x) =
−∞
∫x f ( x ) dx (1.9 )

A mediana é valor para o qual a fdp (função densidade de probabilidade) vale 50%, ou seja é
o valor que divide os dados ao meio. Assim, metade dos dados será maior que a mediana e
metade será menor. A definição matématica da mediana envolve a resolução da Equação 1.10
x
Me( x) =
−∞
∫ f ( x) dx = 0.5 (1.10)

A moda é o valor que apresenta maior probabilidade de ocorrência (caso discreto) ou a maior
densidade de probabilidade (caso continuo). Portanto a moda é o valor de x que resulta em um
f(x) máximo. É importante ressaltar que tratando-se de uma distribuição de probabilidade
simétrica os três parâmetros apresentam o mesmo valor. Apresenta-se a seguir um exemplo
numérico simples.

Seja o conjunto de dados V=[ 2 3 5 6 7 4 1 6 9 ]


a) Cálculo da mediana (Considerando os dados ordenados)
V=[ 1 2 3 4 5 6 6 7 9] ; Me = 5
b) Cálculo da moda
Mo=6
c) Cálculo da media
M= (43/9) = 4,77
8

1.1.2 Conceito de Variável Aleatória

O resultado de um experimento aleatório não necessariamente é representado em termos


numéricos. Considerando-se a necessidade de se expressar resultados probabilísticos através
de valores quantificáveis surgiu o conceito de variável aleatória. Define-se uma variável
aleatória T como uma função que associa um número real T(ς ) para cada resultado ς em um
espaço amostral S de um experimento aleatório (LEON GARCIA, 1994). Este conceito pode
ser facilmente visualizado na Figura 1.4.

S T (ς) =t
ς

t ℜ
Figura 1.4- Conceito de Variável Aleatória

Os conceitos de fdp (função densidade de probabilidade) e cdf (função densidade


acumulada) apresentados anteriormente podem ser aplicáveis a variável aleatória T.A função
densidade acumulada (cumulative distribution function) ou cdf de uma variável aleatória T é
definida como a probabilidade do evento {T ≤ t } para -∞ <t <+∞ [LEON GARCIA, 1994].
Este conceito é expresso através da Equação 1.11 e representa a probabilidade da variável
aleatória T assumir valores pertencentes ao conjunto (-∞ t].

FT (t ) = P[T ≤ t ] (1.11 )

O conceito de função densidade de probabilidade (probability density function) ou fdp de uma


variável aleatória T está representado na Equação 1.12 sendo definido como a derivada de
FT(t).

dFT (t ) (1.12 )
f T (t ) =
dt

1.2- Definição Quantitativa de Confiabilidade

A confiabilidade de um componente equipamento ou sistema pode ser definida como a


probabilidade de funcionamento isento de falhas durante um período de tempo pré-
determinado, sob condições de operação estabelecidas (NBR 5462, 1994).

É possível considerar a condição de operação de um sistema como um experimento aleatório


no qual podem ser identificados qualitativamente dois estados: “falha” ou “operação normal”.
Estes estados podem ser expressos numericamente utilizando-se o conceito de variável
aleatória (Figura 1.4)
9

Analisando-se a definição de confiabilidade percebe-se claramente sua dependência em


relação ao tempo. Portanto, pode-se criar uma variável aleatória tempo até a falha ttf (time to
failure) para quantificar a probabilidade de ocorrência de uma falha.

A função probabilidade acumulada de uma variável aleatória T qualquer foi apresentada


através da Equação 1.11. Esta equação pode ser reescrita em termos da variável aleatória ttf
considerando-se um instante de tempo t, dando origem a Equação 1.13. Para fins de
simplificação a função Fttf(t) será representada como F(t) em todo o texto subseqüente.

Fttf (t ) = P[ttf ≤ t ] (1.13 )

Considerando-se a função confiabilidade (reliability) R(t) como a probabilidade acumulada de


não falha, os axiomas fundamentais da teoria de probabilidade definem que a probabilidade
acumulada de falhas F(t) somada a R(t) deve ser igual a um (Equação 1.14).

R (t ) = 1 − F (t ) (1.14 )

A função densidade de probabilidade fdp de uma variável aleatória (Equação 1.12) em


estudos de confiabilidade é definida por f(t). Esta funcão representa a freqüência relativa de
ocorrência para cada valor da variável aleatória ttf (tempo até a falha).

O conceito de confiabilidade pode ser expresso quantitativamente de outras formas além da


Função R(t). Podem ser citados como exemplo os parâmetros MTBF (Mean Time Between
Failure), MTTF (Mean Time To Failure) e a função taxa de falhas (FREITAS; COLOSIMO,
1997) detalhada posteriormente A confiabilidade de itens reparáveis pode ser quantificada
através do parâmetro MTBF e de itens não reparáveis pelo MTTF.

O tempo médio entre falhas (Mean Time Between Failures) MTBF pode ser expresso pela
Equação 1.15 sendo definido como a esperança matemática da função densidade de
probabilidade de falha definida através da Equação 1.12.

+∞ (1.15)
MTBF = ∫ t f (t ) dt
−∞

A Figura 1.5 apresenta o gráfico da função confiabilidade R(t) referentes a três conjuntos de
dados A, B e C (RELIASOFT™, 2005). Em todas as situações o cálculo do MTBF resultou
no valor de 100000h. Observa-se, portanto, que somente este parâmentro não é suficiente para
traduzir o comportamento de falhas de um determinado componente ou sistema. Os dados
utilizados encontram-se no Apêndice D.
10

R(t) 1.00

A
0.83

0.67

B
0.50

0.33

C
0.17

0
0 25000 50000 75000 100000 125000 150000
t(h)
Figura 1.5- Função Confiabilidade
(Referente a três conjuntos de dados com mesmo MTBF)

1.3- Conceito de Falha

1.3.1- Introdução

Define-se falha como o término da capacidade de um item desempenhar uma função


requerida (NBR 5462, 1994). A velocidade de ocorrência de falhas pode ser expressa através
do parâmetro taxa de falhas sendo a análise de falhas um processo interativo cujo sucesso
depende de se determinar relações implícitas entre causa e efeito.

É importante ressaltar que o conceito de falha deve ser contextualizado de acordo com a
criticidade (ou outros parâmetros de interesse) do sistema em estudo. Por exemplo, uma
pequena trinca pode representar apenas um inconveniente estético ou um problema de
grandes proporções.

Entende-se por falha primária aquela que não é causada direta ou indiretamente pela falha em
outro item e estando um sistema sob sua atuação este é recuperável pela introdução de uma
medida corretiva. Uma falha catastrófica resulta da incapacidade completa de um item
desempenhar todas as funções requeridas. Com relação às falhas de modo comum, estas
podem ser definidas como falha em um elemento comum do sistema capaz de produzir falhas
múltiplas podendo ser minimizadas através da utilização de equipamentos redundantes
segregados de maneira física e funcional.

Torna-se necessário esclarecer que os conceitos de falha em hardware e em software são


essencialmente distintos uma vez que, em se tratando de um software, não estão presentes os
principais mecanismos responsáveis por falhas em sistemas mecânicos como fadiga,
degradação e deterioração.
11

1.3.2- Função Taxa de Falha

A taxa de falhas instantânea h(t) pod ser definida em termos da confibilidade ou da pdf do
tempo de falha como demonstrado a seguir (LEWIS, 1987).

Seja h(t) ∆t a probabilidade que o sistema falhará em algum tempo T < t+∆t dado que não
ocorreu falha no tempo T = t. Esta afirmação pode ser escrita matematicamente conforme a
Equação 1.16.

h(t ) ∆t = P (T < t + ∆t |T > t ) (1.16)

Utilizando o conceito de probabilidade condicional (ANEXO A) a Equação 1.16 pode ser


reescrita:

P ( (T > t ) ∩ (T < t + ∆t ) ) (1.17)


P ( T < t + ∆t | T > t ) =
P (T > t )

O numerador da equação 1.17 é uma maneira alternativa de se expressar a pdf (conforme


Equação 2.3). O denominador da equação 1.17 é a própria definição de confiabilidade.

P ((T > t ) ∩ (T < t + ∆t ) ) ≡ P ( t < T < t + ∆t ) = f (t ) ∆t (1.18)

P (T > t ) = R (t ) (1.19)

Substituindo-se as Equações 1.16 , 1.18 e 1.19 na Equação 1.17 obtem-se a Equação 1.20.

f (t )∆t (1.20)
h(t )∆t = P ( T < t + ∆t | T > t ) =
R (t )

A taxa de falhas instantânea h(t) é definida através da simplificação da Equação 1.20, como
apresentado na Equação 1.21.

f (t ) (1.21)
h(t ) =
R(t )

A taxa média de falhas é representada através da Equação 1.22 que pode ser simplificada
dando origem à Equação 1.23.

td (1.22 )
∫ h(t )dt
0
hmedio (t ) = td


0
N (t )dt

Onde: N(t )= número de unidades sobreviventes


dt = tempo de duração do ensaio
12

f (1.23 )
hmedio (t ) =
N∆ t
Onde: ∆t = intervalo de tempo considerado
f = número de falhas no intervalo ∆t
N = número de unidades em teste no intervalo ∆t

É importante salientar que o número de unidades em teste no intervalo ∆t para cálculo da taxa
média de falhas é variável considerando-se somente os itens que sobreviveram até o instante
de tempo considerado. A função densidade de probabilidade de falha é calculada
incondicionalmente, ou seja, considerando todas as unidades em teste.

1.3.3- Evolução da Funçao Taxa de Falhas em Relação ao Tempo

As falhas podem ser classificadas em relação ao tempo de acordo com o mecanismo que as
originaram (Figura 1.6). Normalmente uma taxa de taxa de falhas decrescente tem por origem
um mecanismo de depuração, por exemplo, resultante de um processo de aprendizado. Uma
taxa de taxa de falhas crescente tem por origem um mecanismo de deterioração a partir do
efeito gradual do envelhecimento. Considerando-se uma taxa de falhas constante, o tempo
não tem influência sobre a probabilidade de ocorrência de falhas.

h(t)

crescente

constante

decrescente

t(h)

Figura 1.6 – Funções Taxa de Falha

O comportamento da taxa de falhas pode ser representado graficamente através da curva


conhecida como Curva da Banheira (Figura 1.7) e apresenta três fases distintas: falhas
prematuras, vida útil e velhice. A região de falhas prematuras (ou mortalidade infantil) é
caracterizada por taxa de falhas alta e rapidamente decrescente com o tempo. A região de vida
útil apresenta taxa de falhas aproximadamente constante e a região de velhice é caracterizada
por taxas de falhas crescentes (LEWIS, 1987; FILHO,1997; FREITAS; COLOSIMO, 1997)
13

Figura 1.7 – Curva da banheira Genérica

A Equação da taxa de falhas instantânea h(t) que representa a curva da banheira é apresentada
( DHILLON, 1999) a seguir:

h(t ) = γ λ b t b −1 + (1 − γ ) c t c −1θ eθ t
c
(1.24)

Para: λ e θ >0 ; 0 ≤ γ ≤ 1; b=0,5; c=1; t ≥0


Onde: b e c = parâmetros de forma
λ e θ = parâmetros de escala
t = tempo

São apresentadas a seguir possíveis causas de falhas relacionadas a cada uma das regiões da
curva da banheira (FILHO,1997).

Fase de falhas prematuras ou mortalidade infantil


- Inspeções inadequadas
- Processos impróprios de manufatura
- Manuseio e transporte ou instalação inadequados
- Materiais ou peças de baixo padrão
- Procedimentos impróprios de estoque, embalagem ou transporte
- Erros de projeto

Fase de vida útil


- Fator de segurança insuficiente
- Manutenção inadequada
- Ocorrência aleatória de cargas acima do esperado
14

- Erros humanos no uso do produto


- Condições ambientais
- Falhas que não podem ser eliminadas através de testes de vida acelerados ou
manutenção preventiva
- Falhas inexplicáveis

Fase de desgaste ou envelhecimento


- Deterioração
- Degradação
- Fadiga
- Deficiências na manutenção preventiva e/ou corretiva

A Figura 1.8 apresenta a Curva da Banheira genérica cujo modelo pode ser adequado para
descrever o comportamento a taxa de falhas de muitos tipos de dispositivos. Embora esta
curva seja muito utilizada, uma das três fases descritas pode prevalecer para uma classe
particular de sistema. A Figura 2.6, por exemplo, é representativa para computadores e outros
tipos de hardware formados essencialmente por componentes eletrônicos (LEWIS,
1987).Observa-se que este tipo de componente normalmente apresenta falhas aleatórias. Nesta
situação a manutenção preventiva tem pouca utilidade (LAFRAIA, 2001).

Figura 1.8 – Curva da banheira para componentes eletrônicos (LEWIS, 1987)

A Curva da Banheira apresentada na Figura 1.9 descreve adequadamente o comportamento


da taxa de falhas de softwares. Observa-se que, neste caso não existe o período de
envelhecimento, prevalecendo a fase de infância ou falhas prematuras (LEWIS, 1987). Cabe
ressaltar que não se deve confundir o término da vida útil, em termos de confiabilidade com a
obsolescência do ponto mercadológico (LAFRAIA, 2001).

Finalmente a Figura 1.10 apresenta a Curva da Banheira típica de componentes mecânicos.


Neste caso existem as três fases (falhas prematuras, vida útil e velhice) porém ocorre a
predominância da fase de envelhecimento.
15

Figura 1.10 – Curva da banheira para softwares (LEWIS, 1987)

Figura 1.11 – Curva da banheira para equipamentos mecânicos (LEWIS, 1987)


16

2- Análise de Tempo de Falha - Técnicas Não Paramétricas

2.1- Introdução Geral

Intitula-se Análise de Tempo de Falha um conjunto de técnicas estatísticas para a análise de


dados provenientes do campo ou de testes de vida com o objetivo de estimar variáveis como o
tempo médio até a falha, fração esperada de falhas no período de garantia, etc.

Os dados de campo são originários de assistências técnicas, dados de retorno em garantia e


ordens de serviço. Além destes dados podem estar disponíveis valores obtidos durante as
etapas iniciais de desenvolvimento de um produto, testes de qualificação e testes de vida.
Entende-se por testes de vida aqueles nos quais as condições reais de utilização são simuladas
e os itens de uma amostra são submetidos ás mesmas condições a que estão expostos em
campo para observação dos tempos até a ocorrência da falha.

Neste tipo de análise podem ser utilizadas técnicas não paramétricas (nas quais não é
necessário especificar nenhuma distribuição de probabilidade) ou técnicas paramétricas onde
é realizada a modelagem os dados segundo uma distribuição de probabilidade. Como exemplo
de técnicas não paramétricas podem ser citados os estimadores da Tabela de Vida e o Kaplan-
Meier.

A função confiabilidade pode ser estimada considerando-se a ausência ou presença de dados


censurados. Dados censurados ocorrem quando os testes são terminados antes que todos os
itens falhem ou quando ocorre a presença de dados incompletos e ou parciais.

A Figura 2.1 representa os tipos de censura sendo utilizados por convenção o símbolo “x”
para representar falha e “o” para representar os dados censurados (FREITAS; COLOSIMO,
1997). Na censura por tempo ou Tipo I , o teste será terminado após um período pré
estabelecido de tempo.

unidade unidade unidade

x x x
x o x
x o o
x x x
tempo to tempo tempo
(a) Ausência decensura (b) Censura Tipo I (c) Censura Tipo II

Figura 2.1 – Tipos de censura

Considerando-se a censura por falha ou Tipo II , o teste será terminado após ter ocorrido a
falha em um número pré estabelecido de itens sob teste. A vantagem neste caso é a garantia
de um número mínimo de falhas. A censura tipo aleatória (não representada na Figura 2.1)
ocorre quando um item é retirado do teste sem que seja atingida a falha. Um exemplo para
esta situação pode ser quando o item falha por uma razão diferente da estudada.
17

É importante salientar a importância da escolha da distribuição de probabilidade que melhor


descreve o comportamento do tempo de falha do produto sob teste e a necessidade de se
considerar funções de probabilidade distintas para analisar a confiabilidade em cada caso
particular.

Considerando-se a natureza cíclica de um processo de modelagem, os valores estimados e


observados devem ser comparados buscando a diminuição do erro. Nestes casos a existência
de conhecimento a priori, como por exemplo o comportamento da função taxa de falha, é de
grande valia.

2.2-Estimação da Função Confiabilidade na Ausência de Censura


Apresenta-se a seguir um exemplo de estimação da função confiabilidade na ausência de
censura (FREITAS; COLOSIMO, 1997). A Figura 2.2 mostra um histograma da distribuição
aproximada do tempo de falha para 54 produtos em teste (todos falharam).

16
amplitude

10
9
7
5
4
2
1

0 10 20 30 40 50 60 70 80 tempo (x 10 horas)

Figura 2.2 – Histograma da distribuição do tempo de falha

Subtraindo-se o número de produtos que falharam até o tempo 400 (33) do número de
produtos em operação (54) chega-se ao número de produtos em operação até t=400 (21). A
partir destes dados é possível calcular a estimativa da confiabilidade (Equações 2.1 e 2.2).
Usando-se o mesmo cálculo para os outros intervalos de tempo obtem-se os resultados
apresentados na Tabela 2.1

(2.1 )
o
n de produtos em operação até t = t x
R (t x ) =
no de produtos sob teste

n o de produtos em operação até t = 400 21 (2.2)


R (400) = = = 0,389
n o de produtos sob teste 54
18

Tabela 2.1

Intervalo (x 100) R(t) (%)


0-1 100,0
1-2 96,3
2-3 87,0
3-4 68,5
4-5 38,9
5-6 22,2
6-7 09,3
7-8 01,9

2.3-Estimação da Função Confiabilidade na Presença de Censura

2.3.1 Tabela de Vida (Método Atuarial)

A construção de uma Tabela de vida consiste em dividir o eixo do tempo em um número


arbitrário de intervalos, supondo K+1 intervalos definidos pelos pontos de corte t1, t2,..., tk e
t0 =0. Para cada intervalo é possível definir a probabilidade qi de um item falhar no intervalo
[ t i-1, t i ) sabendo-se que ele não falhou até t i-1 (definição de probabilidade condicional).
Vide Equação 1.4.

qi = P (T ∈ [ti −1) , ti )ΙT ≥ ti −1 ) (2.3)

A Figura 2.3 apresenta um exemplo genérico de um gráfico da confiabilidade estimada


utilizando-se o método atuarial. Observa-se que, como consequência da escolha arbitrária do
número e da amplitude dos intervalos pode-se chegar a uma aproximação pouco exata.

^
R (t) %

100
80
60
40
20

10 20 30 40 tempo

Figura 2.3– Exemplo Estimador Tabela de Vida


19

2.3.2 Estimador de Kaplan-Meier (Limite-Produto)

Neste estimador considera-se tantos intervalos de tempo quanto for o número de falhas
distintas. Os limites de intervalo de tempo são os tempos de falha da amostra. A Equação 2.4
apresenta sua definição matemática.

∧  (n − d 1 )   (n 2 − d 2 )   (nto − d to )  (2.4)
R (t ) =  1  ... 
 n1   n 2   nto 
Onde: di = número de falhas no tempo ti
ni = número de itens sob risco (não falhou e não foi censurado) em ti inclusive
to = maior tempo de falha menor que t

Exemplo 2.1 (FREITAS, 2004)

Os dados apresentados abaixo representam o tempo até a ruptura de um tipo de isolante


térmico sujeito a uma tensão de estresse de 35kV. Originalmente o teste consistiu em colocar
25 destes isolantes em funcionamento até que 15 deles falhassem. Entretanto, após uma
análise de falha conduzida constatou-se que, para dois deles a falha havia sido provocada por
problemas no equipamento de teste (indicados por *). Dados obtidos para os 15 itens
incluindo os dois censurados (em minutos)
0,19 0,78 0,96* 1,31 2,78 3,16 4,67 4,85 6,50 7,35 8,27 12,07 32,52* 33,19 36,71
ATabela 2.2 apresenta os cálculos obtidos através do Estimador de Kaplan-Meier para a
confiabilidade R(t). Pode-se citar como exemplo de utilização destes resultados a estimativa
do tempo mediano de vida, que corresponde a uma confiabilidade de 50% (Figura 2.4 e
Equação 2.5).

Tabela 2.2
ti ni di R
x1=[(n1-d1)/n1] =24/25
0,19 25 1 0,9600
Consideração 0,78 24 1 0,9200 x2=[(n2- d2)/n2]* x1
da ocorrência 1,31 22 1 0,8782 x2=23/24* 0,9600
de censura
2,78 21 1 0,8364
3,16 20 1 0,7946
4,67 19 1 0,7528
4,85 18 1 0,7110
6,50 17 1 0,6692
7,35 16 1 0,6274
8,27 15 1 0,5856
12,07 14 1 0,5438
33,91 12 1 0,4985
36,71 11 1 0,4532
20

^
R (t) %

0,5438

50,0000

0,4985

12,07 33,91
Figura 2.4- Cálculo do tempo mediano de vida

( 33 , 91 − 12 , 07 ) 0 , 5438 − 0 , 4985 ( 2.5)


t med = = = 33 ,19 min
33 , 91 − x 0 , 50 − 0 , 4985
21

3-Análise de Tempo de Falha- Técnicas Paramétricas

3.1- Modelos de Distribuição de Variável Discreta

Se um variável t pode assumir um conjunto de valores t1, t2, ...txk com probabilidades p1,
p2, ...pk sendo p1 + p2, ...+pk =1 define-se uma distribuição de probabilidade discreta de t.
(LAFRAIA, 2001).

3.1.1 - Distribuição Binomial

Descreve a situação em que só há dois resultados possíveis, como falha ou não falha, e a
probabilidade se mantém a mesma para todas as tentativas. A fdp (probability density
function) é definida pela Equação 3.1.

n! ( 3.1)
f (t ) = pt q(n−t )
t!(n − t )!
Onde: n= quantidade de itens da amostra
t= itens bons
n-x =itens defeituosos
p= probabilidade de se obter um item bom
q= probabilidade de se obter um item defeituoso

A média e o desvio padrão desta distribuição são fornecidos pelas Equações 3.2 e 3.3
respectivamente.
(3.2)
µ = n. p
(3.3)
ϑ = (n. p.q)1 / 2

3.1.2 – Distribuição de Poisson

Descreve eventos que ocorrem a taxa média constante com somente dois resultados possíveis.
Pode ser considerada uma variação da distribuição de binomial quando n tende a infinito. A
fdp é fornecida pela Equação 3.4.

µt (3.4)
f (t ) = exp(− µ )
t!
Onde: µ= taxa de ocorrência
x= itens bons

A média e o desvio padrão desta distribuição são fornecidos pelas Equações 3.5 e 3.6
respectivamente.

(3.5)
µ = n. p
(3.6)
ϑ = (n. p )1/ 2 = µ 1/ 2
22

3.2- Modelos de Distribuição de Variável Contínua

3.2.1- Distribuição Exponencial

A Distribuição Exponencial é uma das mais simples em termos matemáticos e caracteriza- se


por apresentar uma taxa de falhas constante(FREITAS; COLOSIMO, 1997). Esta distribuição
é aplicada em situações nas quais as falhas ocorrem de forma aleatória com uma taxa fixa.
Nestes casos não ocorre um mecanismo de desgaste ou degradação expressivo (propriedade
de falta de memória). A fdp é fornecida pela Equação 3.7. A Função Taxa de Falhas h(t) é
constante (Equação 3.8).

f (t ) = λ e − λt (3.7)

Onde: λ= taxa de falhas

h(t ) = λ (3.8)

A integral da função f(t) resulta na função densidade acumulada expressa pela Equação 3.9. A
função confiabilidade R(t) é fornecida pela Equação 3.10. Nesta situação específica na qual a
função taxa de falhas h(t) é constante o parâmetro λ é o inverso do MTBF.

F (t ) = 1 − e − λt ( 3.9)

−t (3.10)
R (t ) = e − λt = e MTBF

Onde: λ= taxa de falhas


MTBF= tempo médio entre falhas

Considerando-se como exemplo uma taxa de falhas λ= 0,0007, as Figuras 3.1, 3.2
representam a função densidade de falhas f(t) e função taxa de falhas h(t).
23

f(t) h(t)
1,00E-3 1,00E-3

7,50E-4
7,50E-4

5,00E-4 5,00E-4

2,50E-4 2,50E-4

0 0
0 1750 3500 5250 7000 0 1750 3500 5250 7000
t(h) t(h)

Figura 3.1- Função Densidade de Probabilidade Figura 3.2- Função Taxa de Falhas

As Figuras 3.3 e 3.4 representam a função densidade de falhas acumulada F(t) e a função
confiabilidade R(t) respectivamente. Todas as Figuras foram geradas utilizando o software
Weibull++6 (RELIASOFT™,2004) e os dados encontram-se no Apêndice D.

F(t) 1,00 R(t) 1,00

0,75 0,75

0,50 0,50

0,25 0,25

0 0
0 1750 3500 5250 7000 0 1750 3500 5250 7000
t(h) t(h)
Figura 3.3- Função Densidade de Falhas Acumulada Figura 3.4- Função Confiabilidade

A Figura 3.5 apresenta o efeito da variação da taxa de falhas na função densidade de


probabilidade f(t).
24

f(t) 1,00E-3

7,50E-4 λ =0,0009

5,00E-4

2,50E-4
λ =0,0004

0 2000 4000 6000 8000


t(h)

Figura 3.5- Função Densidade de Probabilidade- efeito da variação da taxa de falhas

3.2.2- Distribuição Normal

Uma importante razão para a larga aplicabilidade da distribuição normal é que, quando um
valor está sujeito a muitas variações, independentemente de como estas variações estão
distribuídas, a distribuição resultante da composição de todas as outras é normal. Esta
afirmação é demonstrada pela teorema do valor central (O’ CONNOR, 2002). Apesar de ser
muito utilizada e conhecida, o uso da distribuição normal em engenharia de confiabilidade é
restrito (MEYER,1983; DHILLON, 1999).

Um conjunto de dados que possa ser modelado por uma distribuição normal apresenta
variações simétricas em relação a sua média. A fdp é fornecida pela Equação 3.11.

 −1  t − µ 2 
1 (3.11)
f (t ) = e   
σ 2π  2  σ  
Onde: µ= média (parâmetro de localização)
σ = desvio padrão (parâmetro de dispersão)

A função densidade acumulada F(t) pode ser calculada integrando-se a função f(t) conforme
Equação 3.12.

1  −1  t − µ 2 
t
(3.12)
σ 2π ∫−t  2  σ  
F (t ) = e     dt

É possível reescrever a Equação 3.12 em função da variável z (Equação 3.13) dando origem a
Equação 3.14.
25

t −µ  (3.13)
z= 
 σ 

(t − µ ) (3.14)
1 σ
 z2 
F (t ) =
2∏ −∞
∫ e −  dz
 2

Uma distribuição normal com parâmetros µ =0 e σ=1 escrita em termos da variável z é


apresentada na Equação 3.15.
t
1  z2  (3.15)
Φ (t ) =
2∏ ∫
−∞
e −  dz
 2

Considerando que qualquer distribuição normal possa ser expressa a partir da distribuição ф(t)
a Equação 3.14 pode ser reescrita como a Equação 3.16.

t −µ  (3.16)
F (t ) = Φ 
 σ 

Considerando-se como exemplo os parâmetros média µ= 996,52 e desvio padrão σ =350,97


as Figuras 3.6 e 3.7 representam a função densidade de falhas f(t) e função taxa de falhas h(t).
Todas as Figuras foram geradas utilizando o software Weibull++6 [RELIASOFT™,2004] e
os dados encontram-se no Apêndice D.

f(t) 1,20E-3 h(t)


0,01

9,00E-4 7,50E-3

6,00E-4
5,00E-3

3,00E-4 2,50E-3

0 0
0 500 1000 1500 2000 0 750 1500 2250 3000
t(h) t(h)

Figura 3.6- Função Densidade de Probabilidade Figura 3.7- Função Taxa de Falhas
26

Como indicado pela Figura 3.7 a distribuição normal é utilizada para descrever a
confiabilidade de equipamentos que não apresentam taxa de falhas constante. Esta
distribuição pode ser útil para modelar a confiabilidade em situações nas quais existe um
tempo de desgate definido μ, como por exemplo a vida útil de um pneu ou a durabilidade de
um lâmina de uma ferramenta cortante (LEWIS, 1987).

Sendo conhecida a função densidade de probabilidade acumulada de falhas F(t) a função


confiabilidade R(t) pode ser calculada subtranindo-se de um o valor de F(t), conforme
Equação 1.14. As funções F(t) e R(t) são apresentadas nas Figuras 3.8 e 3.9 respectivamente.

R(t)
F(t) 1,00 1,00

0,75 0,75

0,50 0,50

0,25 0,25

0 0
0 500 1000 1500 2000 0 500 1000 1500 2000
t(h) t(h)
Figura 3.8-Função Densidade de Falhas Acumulada Figura 3.9- Função Confiabilidade

A Figura 3.10 apresenta o efeito da variação dos parametros média e desvio padrão na função
densidade de probabilidade f(t).
27

f(t 0,09

0,07 σ =5

0,05

0,04

0,02 σ =15

0
40 64 88 112 136 160
t(h)

Figura 3.10- Função Densidade de Probabilidade


Efeito da Variação σ considerando µ=100

3.2.3- Distribuição Log-Normal

Tomando-se como referência a distribuição normal, a distribuição Log-Normal é obtida


substiuindo-se a variável independente t por ln(t) (FREITAS; COLOSIMO, 1997). A função
densidade de probabilidade é fornecida pela Equação 3.17 Procedimento análogo pode ser
realizado para as outras funções de interesse. Esta distribuição descreve adequadamente
tempos de vida de componentes cujos mecanismos de falha envolvem processos de
degradação, fadiga e desgastes de uma maneira geral (LEWIS, 1987).

1  − 1  ln(t ) − µ  2  (3.17)
f (t ) = e    para t ≥ 0
σ 2 ∏  2  σ  
Onde: µ= média (parâmetro de localização)
σ = desvio padrão (parâmetro de dispersão)

A distribuição Log-Normal apresenta uma grande variedade de formas devido ao efeito da


interação da escala logaritmica do tempo com os parâmetros de localização e dispersão.

Observa-se na Figura 3.11 que f(t) existe somente para valores positivos de t. Este fato
representa uma vantagem com relação a distribuição normal em termos de representatividade
uma vez que o mesmo ocorre com a variável de interesse (tempo até a falha) em estudos de
confiabilidade (O’ CONNOR, 2002).
28

As Figuras 3.12, 3.13 e 3.14 apresentam as funções h(t), F(t) e R(t) respectivamente.
Apresenta-se em todas elas o efeito da variação de σ considerando µ=1. Os dados utilizados
para gerar as figuras encontram-se no Apêndice D.

f(t) h(t)
0,75
0,65
σ =0,5

σ =2 0,56
0,49

0,38
0,33
σ =0,5

0,19 σ =1
0,16

σ =1
σ=2
0
0
0 7,50 15,00 22,50 30,00
0 2,50 5,00 7,50 10,00
t(h)
t(h)

Figura 3.11- Função Densidade de Probabilidade Figura 3.12- Taxa de Falha


Efeito da Variação σ considerando µ=1 Efeito da Variação σ considerando µ=1

F(t) R(t)
1,00 1,00
σ = 0,5 σ =1

0,75 0,75
σ=2

0,50 0,50

0,25 0,25 σ=2

σ =1
σ = 0,5
0 0
0 6,25 12,50 18,75 25,00 0 6,25 12,50 18,75 25,00
t(h) t(h)

Figura 3.13- Função Densidade de Falhas Acumulada Figura 3.14- Função Confiabilidade
Efeito da Variação de σ considerando µ=1 Efeito da Variação de σ considerando µ=1
29

3.2.4- Distribuição Weibull

A Distribuição Weibull foi proposta por W. Weibull em 1954 em estudos relacionados ao


tempo de fadiga de metais (FREITAS; COLOSIMO, 1997). A função densidade
probabilidade de falhas f(t) é fornecida na Equação 3.18.

  t −γ  
β
 −   
β 
 
η   (3.18)
f (t ) = β
(t − γ )β −1 e
η
Onde: β = parâmetro de forma ou inclinação
γ = parâmetro de localização ou vida mínima
η = parâmetro de escala ou vida característica

Esta distribuição apresenta grande variedade de formas tendo como propriedade básica uma
função de taxa h(t) monótona que portanto pode ser crescente, decrescente ou constante
(Equação 3.19).

β
h(t ) = (t − γ )β −1 (3.19)
ηβ

A função densidade acumulada de falhas F(t) é dada pela Equação 3.20 e a função
confiabilidade R(t) é fornecida pela Equação 3.21.

  t −γ  β 
 −  
(3.20)
  η  
 
F (t ) = 1 − e

  t −γ
 − 


β 

(3.21)
  η  
 
R(t ) = e

A Figura 3.15 apresentam uma função densidade de probabilidade qualquer na qual é possível
observar o efeito da variação do parâmetro de localização γ . Na Figura 3.16 pode ser
observado o efeito da variação do parâmetro escala η . O parâmetro de localização provoca
um deslocamento com relação ao eixo das abcissas e o parâmetro de escala com relação ao
eixo das ordenadas.
30

f(t) 1,00 f(t) 0,50

γ=5
0,40
0,75

η=2
0,30

0,50
γ=0
0,20

0,25
0,10
η=6

0 0
0 5 10 15 20 0 4 8 12 16 20
t(h) t(h)
Figura 3.15- Função Densidade de Probabilidade Figura 3.16- Função Densidade de Probabilidade
Efeito da Variação de γ considerando β ≈ 1 e η ≈ 2 Efeito da Variação de η considerando β ≈ 1 e γ≈ 0

As Figuras 3.17, 3.18, 3.19 e 3.20 mostram o efeito da variação do parâmetro de forma β. A
Figura 3.17 apresenta a função densidade de probabilidade considerando β=0.5, β=1 e β=3.
Observa-se que quando β tem valor unitário a distribuição de Weibull é reduzida a
distribuição exponencial. Quando β é aproximadamente 3 a distribuição de Weibull torna-se a
distribuição normal (O’ CONNOR, 2002).

f(t) h(t)
1,00 1,00

β=0,5
β=3
0,75 0,75

β=3 β=1
0,50 0,50

0,25 0,25
β=1 β=0,5

0 0
0 1,25 2,50 3,75 5,00 0 1,25 2,50 3,75 5,00
t(h) t(h)

Figura 3.17- Função Densidade de Probabilidade Figura 3.18- Função Taxa de Falhas
Efeito da Variação de β considerando η ≈ 2 e γ≈ 0 Efeito da Variação de β considerando η ≈ 2 e γ≈ 0

A Figura 3.18 apresenta as funções taxa de falha h(t) corespondentes às distribuições de


probabilidade da Figura 3.17. Observa-se que quando β=1 a taxa de falhas é constante, para
31

valores menores que 1 é decrescente e para valores maiores que 1 é crescente(O’ CONNOR,
2002).

As Figuras 3.19 e 3.20 mostram a função distribuição acumulada F(t) e função confiabilidade
R(t) correspondentes. Todas as Figuras foram geradas utilizando o software Weibull++6
(RELIASOFT™,2004) e os dados encontram-se no Apêndice D.

F(t) R(t)
1,00 1,00

β=1 β=3
β=0,5
0,75 0,75

0,50 0,50

0,25 0,25
β=0,5
β=3 β=1

0 0
0 2,50 5,00 7,50 10,00 0 2,50 5,00 7,50 10,00
t(h) t(h)

Figura 3.19- Função Densidade de Falhas Acumulada Figura 3.20- Função Confiabilidade
Efeito da Variação de β considerando η ≈ 2 e γ≈ 0 Efeito da Variação de β considerando η ≈ 2 e γ≈ 0

3.3 Estimação de Parâmetros

3.3.1- Introdução

Uma vez que a distribuição de probabilidade que supostamente se ajusta aos dados foi
escolhida é necessário estimar os parâmetros do modelo. Dentre os métodos mais utilizados
para esta finalidade podem ser citados a Plotagem de Probabilidades, Mínimos Quadrados
(também conhecido como Análise de regressão) e Máxima Verossimilhança.

A escolha do método de estimação a ser utilizado é dependente da quantidade de dados


disponíveis e principalmente da forma como os mesmos são apresentados. Outro fator a ser
considerado é a existência de recursos computacionas uma vez que, na maioria das vezes, os
métodos de Mínimos Quadrados e Máxima Verossimilhança são implementados
numericamente. O Método de Plotagem de Probabilidades apesar de ser manual apresenta
uma aproximação razoável dependendo da forma como os dados são apresentados.

3.3.2-Plotagem de Probabilidades (Gráfico de Probabilidade)


32

O Método de Plotagem de Probabilidades consiste em desenvolver um gráfico da variável de


interesse (tempo de falha, ciclos, etc) versus a Função Densidade Acumulada de Falha F(t)
em escala logarítmica. Portanto, existe a necessidade de se ordenar os dados e calcular a F(t).

Tomando-se como exemplo uma distribuição de Weibull (Equações 3.22 e 3.23) será
apresentada uma metodologia para sua linearização. É razoável supor que, se o modelo
proposto for adequado, os dados modelados poderão ser ajustados por uma reta. O mesmo
procedimento pode ser adotada para outras distribuições de probabilidade de interesse como a
Normal, Logmal e Exponencial.

  t −γ β 
R(t) = e −   ( 3.22)
  η  

  t −γ β 
1− F(t) = e −   (3.23 )
  η  
Calculando o ln em ambos os lados da Equação 3.23 obtem-se a Equação 3.24.

β
 t −γ 
ln[1− F(t)]= −  (3.24 )
 η 
Considerando a manipulação algébrica apresentada pela expressão 3.25 a Equação 3.24 pode
ser reescrita como a Equação 3.26.

 1 
−ln  = −[ ln1−ln(1− F(t))] = ln[1− F(t)] (3.25 )
1− F(t)

β
 1   t −γ 
ln   =   (3.26 )
1− F(t)  η 

Utilizando as Equações 3.27 e 3.28 (considerando-se a, b e x variávies quaisquer) e aplicando


novamente ln em ambos os lados da Equação 3.26 obtém-se a Equação 3.29.

log a b x= x loga b (3.27 )

x  (3.28)
log a  1  = loga x1 −loga x2
 x2 

 1  (3.29 )
ln ln  = β ln( t −γ )−β ln(η)
1− F(t)

A Equação 3.29 pode ser reescrita como a Equação 3.34 através das substituições expressas
nas Equações de 3.30 a 3.33.
33

 1  (3.30 )
Y = ln ln  
1− F(t)

X = ln( t −γ ) (3.31 )

A=β (3.32 )

B = −β ln(η) (3.33)

Y = AX+ B (3.34)

Portanto, a partir da Equação 3.34, o Papel de Probabilidade Weibull pode ser construído. O
eixo das ordenadas representa a Função Densidade Acumulada de Falha F(t) e o eixo das
abscissas representa o tempo de vida (ou variável de interesse) em escala logarítmica.

A posição dos dados com relação ao eixo das ordenadas pode ser calculada utilizando-se a
posição média (mean rank) expressa pela Equação 3.35 ou a posição mediana (median rank),
expressa pela Equação 3.36.
j (3.35)
MR =
N +1

Onde: MR = posição media (mean rank)

A categoria Mediana é utilizada para se obter uma estimação da função F(t). Este valor pode
ser calculado igualando-se a distribuição acumulada binomial ao valor 0.5 e resolvendo-se em
relação a Z (Equação 3.36)

N
 N (3.36 )
0,5 = ∑   Z k (1− Z ) N−k
k= j  k 

Onde: j= número de ordem


N = tamanho da amostra
Z= categoria da j-enésima falha

A resolução da Equação 3.36 envolve a utilização de métodos numéricos. Uma método


alternativo muito difundido na literatura é a Aproximação de Benard expressa na Equação
3.37

j − 0,3 (3.37)
MR =
N + 0,4

Onde: MR = posição mediana (median rank)

Após a plotagem de todos os pontos objetiva-se encontrar a melhor reta que possa interligá-
los. Uma vez encontrada esta reta é possível estimar os parâmetros da distribuição Weibull. O
parâmetro de forma β corresponde ao coeficiente de inclinação da reta conforme apresentado
34

na Equação 3.32. Os papeis de Weibull comercialmente disponíveis normalmente apresentam


retas correspondentes a alguns valores padronizados de β. Neste caso, para estimativa de basta
localizar uma reta que seja paralela à reta formada pelos pontos da amostra em estudo.

O parâmetro de escala η pode ser calculado como o tempo no qual a função F(t) corresponde
a 63,2% de F(t). Esta afirmação é demonstrada nas Equações de 3.38 a 19, considerando o
ponto onde t= η, partindo-se da função probabilidade de falha da distribuição Weibull
(Equação 3.20)
  t −γ  β 
 −  
(3.20)
  η  
F (t ) = 1 − e  

Considerando que a Equação 3.38 independe do valor que β possa assumir, a mesma pode ser
rescrita como a Equação 3.39. O resultado é apresentado na Equação 3.40.

[
F(t =η) =1−e −(1)
β
] (3.38)

[ ]
F(t =η) =1−e −( 1) (3.39)

F(t =η) = 1− 0,3678 = 0,6321 (3.40)

Observa-se que, neste caso, o parâmetro de vida mínima γ foi considerado igual a zero. Nas
situações nas quais este parâmetro apresentar outro valor qualquer poderá ser utilizada a
mesma metodologia proposta considerando-se que todos os resultados encontrados serão
deslocados.

Apresenta-se a seguir um procedimento para a estimação de parâmetros através do método de


Plotagem de Probabilidades (utilizando-se um papel em escala logaritmica)

1- Calcular as posições referentes ao eixo vertical


j − 0.3
MR =
N + 0,4
Onde j = posição
N= número total de amostras
2-Plotar tempo(escala logaritmica) x posição
3- Traçar a reta que melhor interligue os pontos
4-Traçar uma reta paralela à reta encontrada
5-O parâmetro β será obtido na escala previamente especificada no Papel de Weibull

A Figura 3.21 sintetiza toda a metodologia apresentada indicando os valores de β e η para um


conjunto qualquer de dados.
35

6.0 3.0 2.0 1


F(t) 99.00
β
90.00 β≈1

63,2 η
50.00

10.00

5.00

1.00
10000.00 η≈38000 100000.00

Figura 3.21- Estimativa de β e η utilizando-se o Papel de Probabilidade Weibull

Exemplo (RELIASOFT™): Um item foi submetido a um ensaio e apresentou os seguintes


resultados de tempo até a falha: 10,263 ; 12,187; 16,908 ; 18,042 ; 23,271

A Tabela 3.1 apresenta o cálculo da posição mediana utilizando-se a a Aproximação de


Benard (expressa na Equação 16). A Figura 3.22 apresenta os resultados da estimativa dos
parâmetros utilizando-se o Software Weibull++ (RELIASOFT™). Os resultados encontrados
foram: β=3,2452, η=1,7997Ε+4, ρ=0,9815

Tabela 3.1 - Cálculo da posição mediana

Variável de Interesse MR
(ciclos)
10236 12,96
12187 31,4
16908 50
18042 68,52
23271 87,04
36

6.0 3.0 2.0 1.6 1.0


F(t)
99.00

90.00 β

η
50.00

10.00

5.0

1.0
10000.00 100000.00

Figura 3.22- Exemplo Papel de Probabilidade Weibull

3.3.2- Mínimos Quadrados

A origem do método dos Mínimos Quadrados remonta ao trabalho do matemático francês


Adrien Legendre desenvolvido na primeira metade do século XIX [FREUND; SIMON,
2000]

Considerando-se uma massa de dados e o modelo para o qual deseja-se estimar os parâmetros,
o erro é definido como a diferença entre os valores reais e os valores fornecidos pelo modelo.

O Método de Mínimos Quadrados objetiva minimizar o somatório do erro ao quadrado de


maneira a encontrar o conjunto de parâmetros que melhor descreve o comportamento dos
dados.

Seja o modelo de uma reta do tipo y=ax+b (Equação 3.41)

yˆ = a + bx (3.41)

É possível estimar os parâmetros a e b de tal forma que a soma dos quadrados dos erros seja
mínima. O símbolo ^ indica o valor estimado.

(3.42)
∑ ( y − yˆ ) 2 = ∑ [ y − (a + bx )]
2
37

A Figura 3.23 apresenta um exemplo constituído por apenas três pontos. O erro pode ser
calculado com relação ao eixo das abscissas (eixo y) ou com relação ao eixo das ordenadas
(eixo x).

Figura 3.23a - Regressão com relação a y Figura 3.23b - - Regressão com relação a x

Apresenta-se a seguir um exemplo numérico muito simples com o objetivo ilustrar o método
em um contexto genérico.

Exemplo : Seja o conjunto de dados apresentados na Tabela 3.2 e representados através da


Figura 3.24

y
12
x y
4 6 10
9 10 8
1 2
6
6 2
Tabela 3.2 4

0
0 2 4 6 8 10
x
Figura 3.24
38

Podem ser traçadas infinitas retas interligando os pontos represetnados na Figura 3.24. Por
exemplo foram escolhidas as retas y=5 e y=1+x é mostradas nas Figuras 3.25 e 3.26
respectivamente.

y
12

10

8
5
6
1
4
-3 -3
2

0
0 2 4 6 8 10

Figura 3.25

y
12

10

6
1
4
5
2

0
0 2 4 6 8 10

Figura 3.26

A Tabela 3.3 compara os resultados do cálculo do erro e do erro médio quadrático para as
duas retas escolhidas. Observa-se que, para a segunda reta (y=1+x), apesar do erro de
predição ser maior que na primeira reta (y=5 ), o erro quadático foi menor. Este cálculo
condiz com a escolha visual pela melhor reta, o que justifica o uso do método.
39

Tabela 3.3

y y
12 12

10 10
5
8 8
1
6 6 1
5
4 4
-3 -3
2 2

0 0
0 2 4 6 8 10 0 2 4 6 8 10
x x

x y Valores obtidos Erro de x y Valores obtidos Erro de


através da reta y=5 predição através da reta y=1+x predição
4 6 5 1 4 6 1+4=5 1
9 10 5 5 9 10 1+9=10 0
1 2 5 -3 1 2 1+1=2 0
6 2 5 -3 6 2 1+6=7 -5

A soma dos erros de predição é: A soma dos erros de predição é:

∑ e = 1 + 5 + (−3) + (−3) = 0 ∑ e = 1 + 0 + 0 + (−5) = −4

A soma dos erros ao quadrado é: A soma dos erros ao quadrado é:

∑ e 2 = 12 + 5 2 + (−3) 2 + (−3) 2 = 44 ∑ e 2 = 12 + 0 2 + 0 2 + (−5) 2 = 26

Para a aplicação do Método dos mínimos quadrados no contexto da engenharia de


confiabilidade, o primeiro passo é promover a linearização dos dados conforme proposto no
método de Plotagem de Probabilidades (item 3.3.1). Assim, será gerado um gráfico cujo eixo
das ordenadas representa a Função Densidade Acumulada de Falha F(t) e o eixo das abscissas
representa o tempo de vida (ou variável de interesse) em escala logarítmica.
40

3.3.3- Método de Máxima Verossimilhança (Maximum Likelihood)

O método de máxima verossimilhança busca responder a seguinte pergunta: a partir de dados


amostrais, qual a distribuição de probabilidade que apresenta maior possibilidade de ter
gerado tais resultados? (FREITAS; COLOSIMO, 1997).

Definindo formalmente, o método de máxima verossimilhança estima os valores dos


parâmetros de uma dada distribuição de probabilidade tal que a função de verossimilhança L
seja maximizada. A Equação 3.43 apresenta uma f.d.p. genérica.

( 3.43)
f (t; θ1, θ2,...θk)
Onde: t = tempo até a falha
θk = parâmetros a serem estimados

Sejam t1,...,tn os valores amostrais da variável aleatória “tempo até a falha”e θ o parâmetro
que se deseja estimar. A função de verossimilhança L é definida pela Equação 3.44 (MEYER,
1983); (DHILLON, 1999). Considera-se que não ocorreram censuras.

L (t1,t2,...tn; θ) = f (t1; θ) f (t2;θ)...f (tn; θ) (3.44)

Onde: L = função de verossimilhança


tn = tempos até a falha
θ = parâmetro a ser estimado

Portanto, considerando-se conjuntos de dados não censurados, a função de verossimilhança é


o produto das funções f.d.p resultantes de cada observação do conjunto de dados. Este
conceito é expresso na Equação 3.45
n (3.45)
L ( t1,t2,...tn;θ1, θ2,...θk ) = ∏ f (ti ; θ1, θ2,...θk )
i=1

Onde: L = função de verossimilhança


tn = tempos até a falha
θk = parâmetros a serem estimados
k = quantidade de parâmetros da distribuição
n = número de observações

Objetivando-se maximizar a função de verossimilhança L, é usual utilizar sua versão em


forma logarítmica, conforme definido pela Equação 3.46.
n (3.46)
ln L ( t1,t2,...tn;θ1, θ2,...θk ) = ∑ ln f (ti ; θ1, θ2,...θk )
i =1

A partir da Equação 3.46 deve-se encontrar o conjunto de parâmetros que a maximiza. Este
cálculo é realizado numericamente calculando-se as derivadas parciais em relação a cada
parâmetro e igualando o resultado a zero. Assim, a maximização de ln L resulta da solução
simultânea de k equações , conforme expresso na Equação 3.47.
41

∂ ln L (3.47)
= 0 , j = 1,2, ... , k
∂θ j

Considerando-se dados censurados, a contribuição de cada observação é apenas informar que


o tempo de falha é maior que o tempo de censura observado. Portanto, a contribuição de um
dado censurado para a Função Verossimilhança L é expresso pela sua função confiabilidade
R(t). As observações podem ser divididas em dois conjuntos conforme Equação 3.48
(FREITAS; COLOSIMO, 1997).

r n
L ( t1,t2,...tn;θ1, θ2,...θk ) = ∏ f (ti ; θ1, θ2,...θk ) (3.48)
i=1
∏R(t ; θ , θ ,...θ
i=r+1
i 1 2 k )

Onde: L = função de verossimilhança


R = função confiabilidade
tn = tempos até a falha
θk = parâmetros a serem estimados
k = quantidade de parâmetros da distribuição
n = número total de observações
r = observações que não apresentam censura

A função de verossimilhança com dados censurados também é usualmente expressa em sua


versão em forma logarítmica (Equação 3.46) e a maximização de ln L é realizada conforme
Equação 3.47.

É possível gerar uma representação gráfica tridimensional da função Log-verossimilhança


(RELIASOFT ™, 2004) . Considerando-se distribuições com dois parâmetros, os valores dos
parâmetros são representados pelos eixos x e y e os valores da função log-verossimilhança
pelo eixo z (normalizado para o valor de 100%). A Figura 3.27 apresenta a superfície da
função de verossimilhança plotada para uma distribuição Weibull dois parâmetros. O "pico"
da superfície da função de verossimilhança corresponde os valores dos parâmetros que
maximizam a função de verossimilhança, isto é, os os parâmetros da distribuição estimados
pelo método MLE (Maximum likelihood).

Figura 3.27- Superfície de Verossimilhança


42

3.3.5-Conclusões

O Método dos Mínimos Quadrados (Regressão) apresenta restrições quando aplicado a


estudos que envolvam tempos de vida devido a sua incapacidade de incorporar censuras ou
dados que são fornecidos em intervalos.

Em geral, é recomendado usar a técnica Regressão quando se tem uma amostra pequena e
sem censuras. Quando existem grandes quantidades de dados ou muitas censuras estejam
presentes o estimador de máxima verossimilhança pode ser indicado como a melhor opção

3.4 - Validação de Modelos

A Validação de modelos é uma etapa posterior à estimação de parâmetros na qual


pretende-se verificar se o modelo escolhido é adequado para representar os dados
observados. Esta análise pode ser realizada a partir de técnicas gráficas ou testes de
adequação.

3.4.1- Técnicas Gráficas

O gráfico conhecido como Papel de Probabilidade (detalhado anteriormente) apresenta eixos


calculados de tal forma que, se os dados plotados puderem ser ajustados por uma reta, a
distribuição de probabilidade escolhida é adequada para modelar os dados em estudo.
Portanto, um método gráfico simples e intuitivo para avalidação consiste em plotar os dados
em diferentes papeis de probabilidade e verificar qual deles é mais adequado.

Uma outra opção consiste em comparar os valores da função confiabilidade (ou da função
probabilidade de falha) obtidos através de um modelo paramétrico candidato e um estimador
não paramétrico (FREITAS ;COLOSIMO, 1997).

Tomando-se como exemplo uma massa de dados qualquer de tempos de falha é apresentado a
seguir o procedimento gráfico de validação:

a) Obter a estimativa de Kaplan-Meier da função probabilidade de falha FKM(t) ;


b) Estimar os parâmetros das n distribuições de probabilidade que se pretende testar;
c) Calcular a função probabilidade de falha FX(t) para cada distribuição considerando todos os
pontos da massa da dados. O subindice x representa cada uma das n distribuições que se
pretende testar;
d) Construir os gráficos FKM(t) versus FX(t) para todas as n distribuições
e) Verificar em que gráfico (ou gráficos) os pontos estão mais próximos da reta a=b onde b =
FKM(t) e a= FX(t).

É apresentado a seguir um exemplo deste procedimento. Foram gerados dados (ANEXO B)


considerando uma Distribuição de Probabilidade Weibull com parâmetros β=2, η=100 e
43

γ=0. A Figura 3.28 apresenta a Função Probabilidade de Falha F(t) obtida através do
Estimador Kaplan-Meier e das Distribuições de Probabilidade Exponencial, Normal e Weibull

Legenda:

o o Kaplan Meier
- . - Exponencial
---- Normal
Weibull

Figura 3.28– Comparação Função Probabilidade de Falha F(t)

A Figura 3.29 apresenta os gráficos FKM(t) versus FX(t) considerando as Distribuições de


Probabilidade Exponencial, Normal e Weibull. Através da inspeção visual dos resultados
observa-se que a pior Distribuição neste caso é a Exponencial e que a Distribuição Weibull é
ligeiramente melhor que a Distribuição Normal. Este resultado seria esperado uma vez que os
dados foram gerados a partir de uma distribuição de Weibull.

Figura 3.29 a- Comparação do Estimador Kaplan Meier com a Distribuição de Probabilidade Exponencial
44

Figura 3.29 b- Comparação do Estimador Kaplan Meier com a Distribuição de Probabilidade Normal

Figura 3.29 c- Comparação do Estimador Kaplan Meier com a Distribuição de Probabilidade Weibull

3.5.2- Testes de Adequação

Um teste de adequação tem por finalidade verificar a hipótese de que uma determinada
distribuição de probabilidade possa modelar satisfatoriamente um conjunto de dados
amostrais.

O teste do Qui-Qradrado é muito versátil uma vez que pode ser aplicável a qualquer
distribuição de probabilidade. Os dados são inicialmente divididos em classes (ou células).
Para que se tenha precisão é desejável que se tenha no mínimo três classes com no mínimo
cinco valores em cada uma. (O’ CONNOR, 2002).

Resumindo, embora o teste estatístico do Qui-Quadrado seja muito utilizado para verificar a
adequação de modelos probabilísticos, este teste não é muito indicado para estudos de
confiabilidade. Esta afirmação deve-se à eventual presença de dados censurados e à exigência
de uma grande quantidade de dados, nem sempre disponíveis (FREITAS; COLOSIMO,
1997).
45

O teste Kolmogorov-Smirnov é um pouco mais simples do que o teste Qui-Qradrado e pode


oferecer melhores resultados quando a quantidade de dados disponíveis é pequena. Este teste
pode ser utilizado em conjunto com a técnica gráfica papel de probabilidade uma vez que
também é baseado na pdf (função distribuição acumulada) dos dados (O’ CONNOR, 2002).

Dhillon (1999) cita os testes Bartlet e Geral Exponencial porém ambos são aplicáveis somente
quando a distribuição a ser testada é exponencial.

O Método dos Mínimos Quadrados pode ser utilizado em estudos de confiabilidade desde que
as funções envolvidas sejam linearizadas. Assim, a compararação os valores da função
confiabilidade (ou da função probabilidade de falha) obtidos através de um modelo
paramétrico candidato e um estimador não paramétrico (FREITAS ;COLOSIMO, 1997)
pode ser feita graficamente e confirmada através do cálculo do erro médio quadrático.

A Tabela 3.4 apresenta o cálculo do somatório do erro ao quadrado calculado para o exemplo
fornecido anteriormente (item 3.5.2). Os valores de probabilidade de falha obtidos pela
distribuição Weibull são obviamente mais próximos dos valores calculados pelo método de
Kaplan-Meier se comparados aos valores calculados via distribuição Exponencial e distribuição
Normal.

Tabela 3.4 - Cálculo do somatório do erro ao quadrado

Expon Normal Weibull


encial
0.3307 0.0553 0.0154
46

4- Testes Acelerados

4.1 Conceitos Elementares

São denominados testes acelerados aqueles nos quais as informações de tempo até a falha são
obtidas sob altos níveis de estresse e depois extrapolada através de um modelo estatístico-
físico para as condições normais de operação (FREITAS; COLOSIMO, 1997)

Considerando-se testes de vida acelerados, a resposta de interesse é o tempo até a ocorrência


da falha. O objetivo, neste caso é estimar a função confiabilidade R(t) e grandezas como por
exemplo o tempo médio entre falhas (MTBF). Nos testes de degradação acelerados a resposta
de interesse é alguma medida de performance do produto ao longo do tempo e o objetivo é
estimar a distribuição do tempo de vida do produto.

A variável de estresse é escolhida de forma a encurtar o tempo de falha. Quanto mais intenso
for o nível de estresse mais rápido ocorrerá o surgimento de falhas. Este efeito pode ser
visualizado na Figura 4.1 que relaciona a fdp ( probability density function) a três diferentes
níveis de estresse X, Y e Z sendo Z > Y >X.

f(t) 4.00E-4
Z
3.20E-4
Y

2.40E-4
X

1.60E-4

8.00E-5

0 2400 4800 720 9600 12000


t(h)
Figura 4.1 Relação entre a Função Densidade de Probabilidade e o nível de estresse aplicado

A Figura 4.2 é similar à figura 4.1, apresentando o mesmo efeito de variação pdf versus
estresse,em um gráfico de 3 dimensões ( a terceira dimensão representa a variável tempo).
47

Figura 4.2 - Relação pdf x estresse x tempo

4.2 Projeto de Testes Acelerados


O projeto de um teste acelerado deve levar em consideração quantas e quais as variáveis de
estresse serão utilizadas, a que nível e de que forma estes serão aplicados. A Figura 4.3
apresenta diferentes formas de aplicação de estresse sendo a situação representada pela letra A
independente do tempo e as demais situações (letras B, C e D) função do tempo.
Estresse

Estresse

(A) (B)

Tempo Tempo
Estresse
Estresse

(C) (D)

Tempo Tempo

Figura 4.3 -Formas de aplicação de carga


48

O nível de aplicação do estresse depende dos objetivos e pode variar conforme apresentado na
Figura 4.4 (VASSILOU, 2003).

Limites Destrutivos

Limites de Projeto

Limites de Especificação

Limites de Projeto

Limites Destrutivos

Figura 4.4 –Níveis de estresse (VASSILOU, 2003).

Após a realização do teste acelerado é necessário extrapolar os resultados para as condições


normais de utilização. Podem ser citados como exemplo os Modelo de Arrhenius e Potência
Inversa para representação da relação estresse-resposta. Maiores detalhes podem ser obtidos
em Freitas e Colosimo (1997). Apresenta-se a seguir um exemplo de um Modelo Weibull-
Arrhenius (VASSILOU, 2003). A Equação 4.1 é a pdf de uma distribuição Weibull de dois
parâmetros. A Equação 4.2 apresenta o modelo de Arrhenius e a Equação 4.3 o modelo
resultante.

  t β 
β −1  −  
β t  η   (4.1)
f (t ) =   e  
η η 

β
η = L(V ) = C × e V
(4.2)

  
β 
β −1   t  
   −
  β




(4.3)
β  t    C ×e
V  
f (t ) = β  β  e

C × eV  C × eV 
49

5-Função Mantenabilidade

5.1 Introdução

A combinação de todas as ações destinadas a manter ou a recolocar um item em estado


operativo pode ser definida como manutenção e em termos probabilísticos como
mantenabilidade.

A mantenabilidade relaciona-se a facilidade de reparo e quantifica a probabilidade de que


uma falha seja reparada até um tempo t previamente estabelecido Este parâmetro depende do
tipo de componente, localização no sistema ou equipamento, ferramentas existentes,
conhecimento técnico, dentre outros fatores. Portanto, o tempo necessário para se realizar um
reparo em sistema τ pode ser definido como uma variável aleatória da mesma forma que o
tempo até a falha ttf.

A função probabilidade acumulada de uma variável aleatória T qualquer foi apresentada


através da Equação 1.11. Esta equação pode ser reescrita em termos da variável aleatória τ
considerando-se um instante de tempo t dando origem a Equação 5.1.

Gτ (t ) = P[τ ≤ t ] ( 5.1)

Para fins de simplificação a função Gτ(t) será representada como G(t) em todo o texto
subseqüente. O mesmo procedimento será aplicado a função densidade de probabilidade de
reparo gτ(t) definida pela equação 5.2. Consequentemente a função densidade de probabilidade
acumulada de reparo G(t) pode ser reescrita como a Equação 5.3.

dG (t ) ( 5.2)
g (t ) =
dt
t ( 5.3)
G (t ) = ∫ g (t ) dt
−∞

O tempo médio para o reparo (mean time to repair) MTTR é a esperança matemática da
função densidade de probabilidade de reparo dada pela Equação 5.4. Este tempo também
pode ser estimado através da média ponderada dos tempos de reparo t de cada modo de falha
n pela respectiva taxa de falha λ, conforme Equação 5.5.

+∞
MTTR = ∫t
−∞
g (t ) dt ( 5.4 )

∑ λ tr
n
n n
MTTR =
0
( 5.5 )
∑λ
n
0 n

Onde: n = quantidade de modos de falha


tr = tempo de reparo
λ = taxa de falha

A função taxa de reparo instantânea m(t) (Equação 5.6) é baseada na definição de


probabilidade condicional (Equação 1.4) da mesma forma que a função taxa de falhas
instantânea h(t) (Equação 1.22 ). A Equação 5.6, taxa de reparo instantânea m(t).
50

g (t ) (5.6)
m(t ) =
1 − G (t )

5.2-Distribuições de Probabilidade Utilizadas para Modelar os Tempos de


Reparo

5.2.1 Distibuição Exponencial

A distribuição exponencial pode ser utilizada quando a função taxa de reparo m(t) for
constante. Nesta situação m(t) é igual a µ (Equação 5.7). A função densidade de
probabilidade (fdp) de reparo é fornecida pela Equação 5.8.

m(t ) = µ (5.7)

g (t ) = µ e
−µ t (5.8)

Onde: µ= taxa de reparo

5.2.2 Distribuição Log-normal

Dados experimentais tem demonstrado que, em muitas situações práticas, os tempos de


manutenção são modelados adequadamente por uma distribuição de probabilidade log-normal
[LAFRAIA, 2001]. Existem vários indícios que sugerem que a probabilidade da taxa de
reparo apresentar valores constantes seja pequena. Dentre eles podem se citados a grande
probabilidade de ocorrência de problemas que causem atrasos no trabalho e a variabilidade
introduzida no tempo de reparo por fatores externos como treinamento de pessoal.
51

6- Função Disponibilidade

6.1 Definição Qualitativa

Qualitativamente a disponibilidade A (availability) mede a proporção de tempo que um


produto ou processo encontra-se em estado operativo. Define-se por estado operativo o
somatório dos tempos de uso ativo e o tempo de espera (tempo do qual o equipamento não
está em operação mas está disponível para utilização imediata). Este conceito é expresso pela
Equação 6.1.

estado operativo (6.1)


A=
estado operativo + estado não operativo

Considerando-se um sistema constituído somente de componentes não reparáveis, o estado


não operativo deixa de existir. Assim, o conceito de disponibilidade torna-se o mesmo de
confiabilidade sendo a probabilidade que o sistema funcione continuamente do tempo 0 até
um tempo t (DUTUIT; RAUZY, 2005). Como esta situação não corresponde a realidade na
grande maioria das vezes torna-se necessário o estudo dos estados que um sistema pode
assumir e consequentemente, a sua disponiilidade.

A teoria de confiabilidade estabelece que seja possível representar o estado de um sistema


genericamente através da função X(t) (Equação 6.2).

1 se o sistema está funcionando no tempo t  (6.2)


X (t ) =  
0 se o sistema não está funcionando no tempo t 

A partir da função X(t) define-se a função disponibilidade instantânea A(t) como a


probabilidade que o sistema esteja em condição operacional no instante t (Equação 6.3)

A(t ) = P[X (t ) = 1] (6.3)

6.2 Definição Quantitativa


A disponibilidade média Amed(T) considerando o intervalo de tempo T é dada pela Equação
6.4 ( CASSADY, 2005).

T
1
T ∫0
Amed (T ) = A(t ) dt ( 6.4)

A probabilidade que um sistema esteja indisponível no instante de tempo t é definida como


U(t). É obvio concluir que a soma de A(t) e U(t) deve ser unitária (Equação 6.5)

A(t ) + U (t ) = 1 ( 6.5)
52

Com relação aos componentes passíveis de reparo é possível calcular a disponibilidade A(t)
(ou a indisponibilidade U(t) ) em um intervalo de tempo finito utilizando o método de
Markov. Considera-se neste método um diagrama de estados contendo os estados “em
operação” e “em falha”. A falha é a transição do estado “em operação” para o estado “em
falha” e o reparo é transição no sentido inverso.

Para a utilização do método de Markov são feitas as seguintes considerações:


- as taxas de falha λ e reparo µ são constantes;
- os componentes do sistema são independentes.

A variação da disponibilidade do instante t para o instante (t+ Δt) é expressa pela Equação
6.6 (LAFRAIA, 2001)

A(t + ∆t ) = A(t ) − λ ∆t A(t ) + µ ∆t U (t ) ( 6.6)


Onde:
A(t)= disponibilidade dependente do tempo
U(t) = indisponibilidade dependente do tempo
A(t + Δt)= probabilidade do sistema estar no estado em operação em um intervalo de tempo
finito (t+Δt)
(λ Δt)= probabilidade do sistema falhar em um tempo finito Δt
(µ Δt)= probabilidade do sistema ser reparado em um tempo finito Δt

Um procedimento análogo pode ser realizado com relação à indisponibilidade e apresentado


na Equação 6.7.

U (t + ∆t ) = U (t ) − µ ∆t U (t ) + λ ∆t A(t ) ( 6.7)
Onde:
U(t + Δt)= probabilidade do sistema estar no estado de falha em um intervalo de tempo finito
(t+Δt)

Considerando-se o caso limite onde a variação Δt tende a zero, as Equações 6.6 e 6.7 podem
ser reescritas através das equações diferenciais seguintes:

dA(t ) ( 6.8)
= −λ A(t ) + µ U (t )
dt
dU (t ) ( 6.9)
= − µ U (t ) + λ A(t )
dt

Considerando condições iniciais nulas, ou seja A(0) =1 e U(0) =0, e solucionando as Equações
6.8 e 6.9 tem-se que:

µ λ ( 6.10)
A(t ) =
λ +µ
+
λ +µ
[
exp − (λ + µ )t ]

λ λ (6.11)
U (t ) =
λ +µ

λ +µ
[
exp − (λ + µ )t ]
53

Quando a disponibilidade assume um valor constante no tempo define-se o conceito de


disponibilidade estacionária, que pode ser ilustrado na Figura 6.1 e deduzido através da
Equação 6.10. Neste caso o valor do tempo tende a infinito resultando na Equação 6.12.

µ ( 6.12)
A(∞) = lim A(t )t →∞ =
λ +µ

Procedimento análogo pode ser realizado em relação a indisponibilidade U(t) conforme


Equação 6.13.
λ (6.13)
U (∞) = lim U (t )t → ∞ =
λ +µ

A(t)

µ
λ+µ

t
Figura 6.1 - Disponibilidade Estacionária

Sabe-se que no período de vida útil de um equipamento as taxas de falha λ e reparo µ são
aproximadamente constantes. Nestas condições, o tempo médio para reparo MTTR (mean time
to repair) é o inverso da taxa de reparo e o tempo médio entre falhas MTBF(mean time
between failures) é o inverso da taxa de falhas (Equações 6.14 e 6.15).

1 (6.14)
µ=
MTTR

1 ( 6.15)
λ=
MTTB

Aplicando-se os conceitos expressos nas Equações 13 e 14 às Equações 6.14 e 6.15 é possível


definir a disponibilidade em função do MTBF e do MTTR (Equações 6.16 e 6.17).

µ MTBF (6.16)
A(∞) = =
λ +µ MTBF + MTTR

λ MTTR (6.17)
U (∞ ) = =
λ +µ MTBF + MTTR
54

7-Análise da Confiabilidade de Sistemas

7.1- Introdução Geral

Existe um amplo espectro de técnicas disponíveis para a modelagem da confiabilidade de


sistemas. Uma das classificações usualmente utilizada é agrupá-las em técnicas quantitativas e
qualitativas (ROUVROYE; VAN DEN BLIEK, 2002). A Figura 7.1 foi adaptada do mesmo
trabalho e apresenta graficamente esta subdivisão. Considerando a rápida evolução
tecnológica no cenário mundial, cabe ressaltar que esta representação não tem a pretensão de
ser absoluta. Portanto, a existência de um símbolo em branco em ambas as partes da figura
(técnicas quantitativas e qualitativas) significa a existência de métodos não citados.

Técnicas de
Avaliação

Qualitativas Quantitativas

Análise por FTA Técnicas Redes ...


Especialista Híbridas de Petri
s

... FMEA Análise de


RBD’s Contagem
de Partes Markov
Figura 7.1 - Técnicas para avaliação de Confiabilidade [ROUVROYE; VAN DEN BLIEK, 2002]

Dentre as técnicas qualitativas mais importantes para a modelagem de sistemas podem ser
citadas a análise de modo e efeito de falhas (FMEA - (Failure Mode and Effect Analysis) e a
Árvore de Falhas (FTA- Faut Tree Analysis) (HELMAN e ANDERY, 1995). A Análise por
Especialistas é baseada em conhecimentos e experiências prévias para a formulação de uma
hipótese sendo extremamente subjetiva.

A FMEA é método padronizado de análise que visa identificar todos os possíveis modos
potenciais de falha e determinar o efeito de cada um sobre o desempenho do sistema. A
Árvore de Falhas (FTA- Faut Tree Analysis) é um método sistemático para a análise de falhas
que correlaciona um determinado efeito com suas possíveis causas através de símbolos
lógicos. Observa-se que a FTA pode ser desenvolvida segundo uma abordagem qualitativa ou
quantitativa. Apesar de não ser um procedimento intínseco à metodologia original, a FMEA
também pode assumir uma abordagem quantitativa se a análise for baseada em dados
históricos.
55

O método de Contagem de Partes é utilizado para predição de confiabilidade e pressupõe que


a taxa de falhas de um equipamento pode ser aproximada através de informações sobre a a
taxa de falhas de seus componentes (US MIL-HDBK-217F, 1991).

Dentre as técnicas quantitativas mais utilizadas podem ser citadas o Diagrama de Blocos de
Confiabilidade (Reliability Block Diagram - RBD) (MURPHY; CARTER, 2003) e a análise
no espaço de estados (MAILLART; POHL, 2005)

Um Diagrama de Blocos de Confiabilidade (Reliability Block Diagram- RBD) representa a


lógica de falha de um sistema através das conexões lógicas entre os seus elementos. Apesar de
ser largamente utilizado e difundido apresenta a limitação de não incorporar características
dinâmicas e depêndencia entre eventos.

A análise no espaço de estados pode ser realizada utilizando-se Diagramas de Markov ou


Redes de Petri. Um Diagrama de Markov representa eventos dependentes e permite a cálculo
da evolução temporal dos estados de um sistema desde que as probabilidades de transição
entre estes estados permaneçam constantes. Esta imposição é uma limitação significativa e
implica no uso de distribuições de probabilidade exponenciais para a modelagem das taxas de
falha e de reparo.

Portanto, embora o Diagrama de Markov seja capaz de descrever intricadas relações


dinâmicas entre modos de falhas, existe uma falta de flexibilidade considerável. Pode ser
observado ainda que, dependendo do tamanho do sistema modelado, pode existir um número
demasiadamente grande de estados possíveis, o que inviabiliza a análise do comportamento
do sistema. Desta forma, conclui-se que este método é mais adequado para análise da
confiabilidade de sistemas de pequeno porte (VOLOVOI, 2004)

Uma Rede de Petri é uma ferramenta gráfica que consiste em elementos conectados por
segmentos orientados. Esta técnica é utilizada para descrever relações existentes entre
eventos e também condições. Portanto, através desta metodologia é possível modelar
depêndencia entre eventos, a probabilidade de transição entre estados e ainda o tempo no qual
uma determinada transição ocorre.

A Figura. 7.2 apresenta uma análise comparativa entre as técnicas quantitativas mostrando
que a capacidade de representação da realidade aumenta proporcionalmente com a
complexidade de análise (ROUVROYE; VAN DEN BLIEK, 2002). Portanto, a escolha de
uma metodologia é condiciona à determinação de objetivos bem como a um estudo da relação
custo-benefício.

Por exemplo, as Redes Petri (não representadas na Figura 7.2) apresentam uma capacidade de
modelagem superior ao Diagrama de Markov. Entretanto, devido a sua complexidade, são
restritas ao meio acadêmico com poucas excessões (VOLOVOI, 2004).
56

Análise de
Markov

FTA
Capacidade de Complexidade
Modelagem da Análise
RBD’s

Contagem
de Partes

Figura 7.2 - Comparação entre técnicas qualitativas (ROUVROYE; VAN DEN BLIEK, 2002)

Outra classificação possível seria a subdivisão em métodos analíticos e numéricos (METTAS;


SAVVA, 2001) O enfoque analítico envolve a determinação de uma expressão matemática
que descreve a confiabilidade do sistema em estudo expressa através da confiabilidade de
seus componentes. Por exemplo no caso de três unidades estatisticamente independentes em
série a confiabilidade do sistema Rsist(t) é fornecida pela Equação 7.1.

Rsist (t ) = R1 (t ) × R2 (t ) × R3 (t ) ( 7.1)

O valor da de cada componente Ri(t) pode ser estimada através de uma distribuição de
probabilidade pelo método de Análise de Tempo de Falha. Logo, o principal desafio é
encontrar a relação entre os componentes do sistema e expressá-la matematicamente.

Embora os métodos analíticos para cálculo de confiabilidade forneçam valores exatos, a


complexidade de suas expressões matemáticas faz com que estes sejam, as vezes, intratáveis.
Neste caso, podem ser empregados métodos numéricos também definidos como métodos de
simulação. O termo simulação refere-se a uma família de técnicas baseadas em cálculos
computacionais que objetivam reproduzir o comportamento de um dado sistema.

A modelagem através de simulação tem se tornado uma poderosa ferramenta que possibilita o
estudo de sistemas complexos e facilita o processo de tomada de decisão. (BAZARGAN;
MCGRATH, 2003). Existe uma tendência em considerar que as técnicas baseadas em
simulação apresentam uma capacidade de representação da realidade superior ás técnicas
analíticas (MARSEGUERRA; ZIO, 2005). Esta suposição deve-se à incerteza intrínseca com
relação aos tempos de reparo e atrasos logísticos bem como a disponibilidade de recursos.

Concluindo o Diagrama de blocos de Confiabilidade (RBD) e Árvores de Falhas (FTA) são


as duas estruturas mais largamente utilizadas para análise quantitativa de confiabilidade
(LOGMAN;WANG, 2002). Recentes ampliações (através de técnicas de simulação) destas
ferramentas incluem a introdução de características dinâmicas como dependência entre
eventos e modelagem de atividades de substituição de peças em sistemas reparáveis. Estas
modificações diminuem a necessidade de utilização de modleos intrinsecamente dinâmicos
(VOLOVOI, 2004) e conferem simplicidade à análise.
57

7.2- Diagrama de Blocos de Confiabilidade (Reliability Block Diagram)

7.2.1- Introdução

A lógica de falha de um sistema pode ser representada como um Diagrama de Blocos de


Confiabilidade também conhecido através da abreviação RBD (Reliability Block Diagram).
Este diagrama é um modelo que mostra as conexões lógicas entre os elementos de um sistema
e permite visualizar a relação existente entre a confiabilidade geral do sistema em estudo R(t)
e a confiabilidade parcial de cada um de seus componentes Ri (t).

Um RBD apresenta três elementos básicos: componentes, ligações (links) e nodos. Os


componentes são tradicionalmente representados como blocos e possuem numerosos atributos
como por exemplo a função distribuição probabilidade de falha. Um link é simplesmente uma
linha que conecta dois blocos e os nodos promovem a interseção entre os links. Os links e
nodos são construções lógicas que definem os caminhos (paths) de um sistema. Um caminho
pode ser definido como um percurso contínuo e sem sobreposições do início ao final de um
RBD (MURPHY; CARTER, 2003).

Uma análise de confiabilidade em um sistema qualquer deve ser precedida da definição


inequívoca do que constitui uma falha. Dependendo da complexidade do sistema pode ser
possível definir diferentes possibilidades para a ocorrência de falha e nestes casos é necessária
a construção de um RBD diferente para cada situação. Portanto, uma restrição significativa
quanto a utilização de RBD’s é a necessidade da existência de somente uma entrada e uma
saída.

Um RBD mostra as conexões lógicas entre os elementos de um sistema e não necessariamente


tem a mesma formatação do diagrama esquemático de funcionamento. Assim, em sistemas
cujos componentes apresentam formas complexas de interações a construção de um RDB
pode tornar-se uma tarefa com grande grau de dificuldade (O’ CONNOR, 2002).

Os componentes de um diagrama podem se combinados em diferentes configurações de


maneira a formar subsistemas. A análise de um RBD consiste na redução do diagrama global
em agrupamentos de componentes ligados em série ou em paralelo. Nesta metodologia
considera-se que os eventos a que os componentes modelados através dos blocos estão
sujeitos são independentes.

Quando é inviável realizar a redução do diagrama global em ligações série-paralelo podem


ser utilizadas técnicas alternativas que fornecerão resultados aproximados como o método dos
cortes (cut set) ou o método dos caminhos (path set). Outra possibilidade é a utilização de
métodos numéricos como a simulação de Monte Carlo detalhada no 7.8.

A Figura 7.3 apresenta um exemplo de RBD formado pelos elementos A e C em série com os
subsistemas 1, 2 e 3. Os tipos de modelos utilizando RBD’s serão detalhados na sessão
subsequente.
58

3
1 2
B
D E
A B 2/3 C

F
B

Figura 7.3 - Exemplo de um diagrama de blocos de confiabilidade

É importante ressaltar que a construção de um RBD é uma tarefa que normalmente envolve
mais de uma pessoa a menos que se trate de um sistema pequeno e pouco complexo.
Desenvolver um RBD que realmente reflita a realidade depende do trabalho conjunto e dos
insights das equipes que operam e realizam manutenção no sistema em estudo. Cabe ainda
infatizar a necessidade de que todo o processo seja rigorosamente documentado uma vez que
as informações geradas poderão ser utilizadas para validar o modelo encontrado (MURPHY;
CARTER, 2003)

7.2.2 Modelos utilizando Diagrama de Blocos de Confiabilidade – RBD’s

a)-Conexão Série

Supondo dois eventos A e B estatisticamente independentes tem-se que a probabilidade de que


ocorra o evento A e B é dada pela Equação 1.2 e a probabilidade de que ocorra o evento A ou
B é dada pela Equação 1.3.

A Figura 7.4 apresenta um sistema ligado em série. Em uma ligação série é necessário que os
dois componentes funcionem simultaneamente.

Figura 7.4– Representação de um sistema série

A confiabilidade R(t) de um sistema em série é dada pela Equação 7.2 e a probabilidade de


que ambos falhem F(t) é dada pela Equação 7.3.

R (t ) = R A (t ) × Rb (t ) (7.2 )

F (t ) = FA (t ) + Fb (t ) − FA (t ) × Fb (t ) (7.3 )

Este procedimento pode ser generalizado para n componentes ligados em série (Equação 7.4)
quando os componentes tiverem a mesma confiabilidade Rm (LAFRAIA, 2001).
59

Rs (t ) = Rm (t ) n ( 7.4)
Onde: n = número total de componentes
Rm(t)= confiabilidade de cada um dos componentes

b)-Redundância Ativa (Ligação em paralelo)

A Figura 7.5 apresenta um sistema ligado em paralelo e formado por dois componentes. Pode-
se deduzir que o sistema estará em funcionamento se o componente A ou o componente B
estiverem funcionando.

Figura 7.5 – Representação de um sistema paralelo

A confiabilidade (a probabilidade de não falhar) de um sistema em paralelo é dada pela


Equação 7.5 e a probabilidade de que ambos falhem F(t) é dada pela Equação 7.6.

R(t ) = RA (t ) + Rb (t ) − RA (t ) × Rb (t ) (7.5 )

F (t ) = FA (t ) × Fb (t ) (7.6 )

Este procedimento pode ser generalizado para n componentes ligados em paralelo (Equação
7.7) quando os componentes tiverem a mesma confiabilidade Rm.

Rs (t ) = 1 − [1 − Rm (t )] n (7.7 )
Onde: n = número total de componentes
Rm(t)= confiabilidade de cada um dos componentes
60

c)-Redundância Stand-by

Um sistema com redundância em stand-by apresenta unidades adicionais que são acionadas
caso ocorra uma falha na unidade em operação (Figura 7.6). Neste caso as falhas de cada
bloco são estatisticamente independentes e supõe-se que a unidade de chaveamento é perfeita
(isenta de falhas).
1

Figura 7.6– Sistema em stand-by

A Equação 7.8 apresenta o valor da função confiabilidade R(t) para este sistema
considerando-se que todas as unidades são idênticas e com a mesma taxa de falha.

n
(λ t ) i e − λt
R (t ) = ∑i=0 i!
( 7.8 )

Onde n=N-1 ( número de unidades em standby – não ativas)

d)-Redundância “k” de “n”

Utilizada onde um número “k” de unidades deve estar operando para o sucesso do sistema
(Figura 7.7). A função confiabilidade R(t) é dada pela Equação 7.9.

2
k/n
3

Figura 7.7 – Sistema em stand-by

n (7.9 )
R (t ) = ∑ C R (1 − R )
i
n i n −i

i=k
61

Onde: n = número de unidades total do sistema


k = número de unidades requerida
R =confiabilidade de cada unidade
Cin = combinação “n”, “i” a “i”

n!
C in = i !( n − i )!

7.2.3.Técnicas de Análise de Diagrama de Blocos

a)-Redução Série-Paralelo

Esta metodologia de análise consiste na divisão do sistema em estudo em vários subsistemas


formados por arranjos de componentes em série ou em paralelo cujos cálculos de
confiabilidade podem ser facilmente executados. A Figura 7.8 apresenta um exemplo
númerico.
R1
A B
G
D E

R2
Figura 7.8- Exemplo da técnica de análise redução série-paralelo

Seja a confiabilidade Ri(t) de cada componente i apresentada na Tabela 7.1. A notação Ri(t)
foi escrita de forma abreviada como Ri.

Tabela 7.1- Exemplo numérico

Componente Confibilidade (Ri)


RA 0,9
RB 0,7
RD 0,9
RE 0,8
RG 0,9

A confiabilidade do subsistema R1 é o produto das confiabilidades dos elementos A e B


conforme Equação 7.10. De maneira análoga a confiabilidade do subsistema R2 é o produto
das confiabilidades dos elementos D e E. Finalmente a confiabilidade do sistema Rsist é o
produto de RF pelo resultado de R1 em paralelo com R2 (Equação 7.12).

R1 = RA × RB = 0,9 × 0,7 = 0,63 (7.10)


R2 = RD × RE = 0,9 × 0,8 = 0,72 (7.11)
Rsist = ( R1 + R2 − R1 × R2 ) × RG = (0,63 + 0,72 − 0,45) × 0,9 = 0,81 (7.12)
62

b)-Conjuntos de cortes (Cut Set)

Dado um sistema qualquer, uma sequência de eventos que conduzem a uma falha pode ser
representado por um diagrama de blocos ou uma árvore de falhas conforme explicado
anteriormente e ilustrado na Figura 7.10. Tratando-se de sistemas muito complexos pode ser
desejável a utilização de alguma técnica de simplificação de forma a encontrar uma expressão
lógica que descreva o evento de topo ET. Um procedimento adequado nestas situações
consiste em escrever uma expressão lógica para o evento de topo em função de conjuntos de
corte mínimo.

Um conjunto de corte mínimo é uma combinação da menor quantidade de falhas primárias tal
que, se todas ocorrerem simultaneamente o evento de topo também ocorrerá
(FREITAS;COLOSIMO, 1997). Por definição cada conjunto de corte mínimo é a intersecção
das falhas primárias que o constitui.

O estudo de sistemas através de cortes mínimos simplifica os procedimentos de avaliação uma


vez que eles são incompatíveis. Assim, a probabilidade que um conjunto de corte mínimo C1
ocorra ao mesmo tempo que um conjunto de corte mínimo C2 é nula. O mesmo ocorre com os
demais conjuntos. A confiabilidade de um sistema Rsist calculada através do método dos cortes
mínimos é expressa pela Equação 7.13 (O’ CONNOR, 2002).

N n (7.13)
R sist > 1 − ∑ ∏ (1 − R )
i =1 j =1
i

Onde: Ri=confiabilidade de cada unidade


n = número blocos
N= número total de conjuntos de corte

A Figura 7.9 apresenta um sistema qualquer (FREITAS;COLOSIMO, 1997). Conforme as


definições fornecidas anteriormente podem ser observados os seguintes conjuntos de corte
mínimo: C1, C2 , C3 , C4 e C5. Por exemplo, o conjunto C1 é a intersecção do evento A com o
evento D.

Utilizando os dados fornececidos pela Tabela 7.1 é possível calcular a probabilidade de falha
de cada componente (conforme Equação 14) e disponibilizar os resultados na Tabela. 7.2. A
partir destes dados e do conceito expresso através da Equação 7.15 é possível calcular a
confiabilidade deste sistema utilizando o método dos cortes mínimos.

A B
G
D E
C5

C1 C2 C3 C4
Figura 7.9 – Exemplo Conjuntos de Cortes Mínimos
63

Tabela 7.2- Exemplo numérico

Componente Confibilidade (Ri) Falha (Fi)


RA 0,9 0,1
RB 0,7 0,3
RD 0,9 0,1
RE 0,8 0,2
RG 0,9 0,1

C1 = FA ∩ FD = 0,1 × 0,1 = 0,01


C2 = FB ∩ FD = 0,3 × 0,1 = 0,03
C3 = FA ∩ FE = 0,1 × 0,2 = 0,02
C4 = FB ∩ FE = 0,3 × 0,2 = 0,06
C5 = FG = 0,1

A confiabilidade do sistema pode ser escrita em função de conjuntos de corte mínimo


(Equação 7.14)

Rsist > 1 − ( C1 ∪C 2 ∪ C 3 ∪C 4 ∪ C 5 )
Rsist >1 − ( 0,22)
Rsist > 0,78 (7.14)

Observa-se que o valor encontrado utilizando-se conjuntos de cortes mínimos é coerente com
o valor calculado através da redução série-paralelo (Rsist = 0,81). Portanto, em sistemas muito
complexos nos quais não seja viável um cálculo exato, o método dos cortes mínimos fornece
uma aproximação razoável.

7.3- FTA (Faut Tree Analysis)


A Árvore de Falhas é um método sistemático para a análise de falhas que correlaciona um
determinado efeito com suas possíveis causas, estabelecendo relações operacionais entre as
mesmas (HELMAN; ANDERY, 1995). A Figura 7.10 apresenta os principais símbolos
utilizados para o desenvolvimento de uma Árvore de Falhas.

O processo de construção da árvore de falha de um sistema começa com a escolha de evento


específico (evento de topo) e trabalha no sentido de obter todas as falhas básicas que podem
causar o evento analisado. Os eventos são relacionados através de portas lógicas sendo que a
seqüência de eventos conduzem a causas básicas para a quais a taxa de falha é conhecida.
64

Símbolo Significado
Evento básico, é independente de
outros eventos

Evento resultante de uma combinação

Eventos não realizado (omitido)

Evento de tranferência, indica conexão


com outro símbolo

O evento da saída ocorre se todos os


eventos da entrada ocorrerem

O evento da saída ocorre se todos os


eventos das entradas ocorrerem em
uma seqüência específica
evento da saída ocorre se pelo menos
um evento da entrada ocorrer

k
O evento da saída ocorre se k de n
eventos da entrada ocorrerem
n
O evento de entrada conduz ao evento
de saída se uma condição acontecer

Figura 7.10 – Símbolos utilizados em uma FTA ( Helman e Andery, 1995)

A Figura 7.11 apresenta um exemplo de uma árvore de falhas. As causas básicas são
denotadas por círculos e representam o limite de resolução da árvore de falha. Eventos que
possuem mais de uma causa básica, e portanto, podem ser desdobrados, são denotados por
retângulos.
Esta técnica permite a visualização do problema a ser analisado através de uma
representação gráfica simples e objetiva além de direcionar a análise. Conhecendo-se as
taxas de falhas dos eventos básicos e a relação de causa e efeito entre elas (representada pelas
portas lógicas) é possível calcular a confiabilidade do evento de topo.

É importante ressaltar que uma FTA diferente deve ser elaborada para cada evento de topo o
qual pode ser causado por diferentes modos de falha e diferentes conexões lógicas entre
eventos de falha. Concluiu-se que a FTA permite a análise de falhas específicas porém, por
ser um procedimento detalhado, requer um grande número de informações.
65

Evento de
Topo

E1 E2

A E3 E4
C

C B A B

Figura 7.11 – Exemplo de uma Árvore de Falhas

A Figura 7.12 apresenta um sistema ligado em série. Em uma ligação série é necessário que
os dois componentes funcionem simultaneamente. Portanto em uma árvore de falhas uma
ligação em série é representada por um porta lógica OU considerando que o sistema falha se o
componente A falhar ou o componente B.

A B B
A
Figura 7.12– Analogia entre porta OU e sistema série

A Figura 7.13 apresenta um sistema ligado em paralelo e formado por dois componentes.
Pode-se deduzir que o sistema estará em funcionamento se o componente A ou o componente
B estiverem funcionando. A falha neste sistema ocorrerá se o componente A e componente B
falharem simultaneamente, portando um sistema paralelo é representado por uma porta lógica
E em uma árvore de falhas.

A
A B
B

Figura 7.13 – Analogia entre porta E e sistema paralelo


66

7.4- FMEA (Failure Mode and Effect Analysis )


A Análise de Modos e Efeitos de Falhas visa identificar todos os possíveis modos potenciais
de falha e determinar o efeito de cada uma sobre o desempenho do sistema (produto ou
processo).

Define-se como modo de falha um evento que provoca uma diminuição parcial ou total da
função do produto e de suas metas de desempenho. As causas são eventos que geram,
provocam ou induzem o aparecimento do tipo (modo) de falha e finalmente os efeitos são
formas como os modos de falha afetam o desempenho do sistema.

A metodologia FMEA é desenvolvida por uma equipe multidisciplinar e multi-hierárquica de


forma a ser o mais abrangente possível. A análise é direcionada através de perguntas como:
- De que maneiras um componente pode falhar?
-Que tipos de falhas são observadas?
-Que partes do sistema são afetadas?
-Quais são os efeitos da falha sobre o sistema?
-Qual a importância da falha?
-Como prever a ocorrência das falhas?

A Figura 7.3 apresenta uma sugestão de Fluxograma para Elaboração da FMEA. O resultado
da análise é consolidado através de um formulário (Figura 7.4). No formulário FMEA consta
uma identificação inicial que especifica se a análise refere-se a um produto ou processo e
dados de registro particulares. A seguir são introduzidos o nome do item, componente ou
etapa do processo e sua função. Posteriormente são registradas as falhas e rescpectivos modo,
efeito, causa e a possível existência de alguma ação de controle para que a falha analisada não
ocorra. Finalmente são computados os índices de gravidade, detecção, ocorrência e risco. A
última etapa consiste na sugestão de uma ação corretiva para evitar a falha.

Observa-se que, após o término da análise, é possível identificar a falha mais crítica como
aquela que apresenta maior índice de risco. Este índice é calculado pela multiplicação do
índices de gravidade, detecção e ocorrência. Portanto, para diminição do risco total é
necessário a diminuição de pelo menos um dos índices citados.

O índice de detecção pode ser reduzido através do aumento das atividades de verificação e
validação. O índice de ocorrência pode ser diminuído pela remoção ou controle de causas e
alteração do projeto e o ídice de gravidade somente através da alteração do projeto.

A FMEA pode ser realizada através de uma abordagem qualitativa ou quantitativa e deve ser
visto como um documento vivo e que, portanto, deve sempre estar atualizado. É importante
ressaltar que a formação de uma equipe multidisciplinar e multi-hierárquica é condição
imprensidível para uma análise bem sucedida (HELMAN e ANDERY, 1995).

Conclui-se que a FMEA permite melhor conhecimento dos produtos e processos;


padronização de procedimentos, registro histórico das falhas, planejamento das atividades de
manutenção, seleção e priorização de melhorias e diminuição de custos.
67

Definir Funções

Identificar Modos de Falha

Identificar Efeitos dos Modos de


Falha

Determinar Gravidade

Identificar Possíveis Causas

Determinar Ocorrência

Calcular Criticidade
(Gravidade x Ocorrência)

Identificar os Controles de
Projeto ou Processo

Determinar a Detecção

Avaliação do Risco Final

Tomar Ações para Reduzir o


Risco

Figura 7.14 – Fluxograma para Elaboração da FMEA


68

Figura 7.15 – Formulário FMEA (FREITAS; COLOSIMO, 1997)

Exemplo: Critério para seleção de índices do FMEA

Índice Gravidade Critério


1 Mínima Pouco perceptível
2,3 Pequena Ligeira deterioração no desempenho
4,5,6 Moderada Deterioração significativa no desempenho do sistema
7,8 Alta Sistema deixa de funcionar
9,10 Muito Alta Idem ao anterior porém afeta a segurança

Índice Ocorrência Proporção


1 Remota 1:1.000.000
2,3 Pequena 1:20.000 / 1:4.000
4,5,6 Moderada 1:1000 / 1:400 / 1:80
7,8 Alta 1:40 /1:20
9,10 Muito Alta 1:8 /1:2

Índice Detecção Critério


1 Muito Alta Certamente será detectado
2,3 Alta Grande probabilidade de ser detectado
4,5,6 Moderada Provavelmente será detectado
7,8 Pequena Provavelmente não será detectado
9,10 Muito Remota Certamente não será detectado
69

7.5 - Análise de Markov

7.5.1 –Conceitos Elementares

Entende-se como estado de um item o conjunto de possíveis valores apresentados por suas
características. Estas características ou parâmetros são chamadas variáveis de estado e
descrevem a situação do item. O espaço de estados é um conjunto que engloba todos os
estados que um item pode apresentar (AZEVEDO, 2002)

Por exemplo a condição de operação de um determinado equipamento E por descrita pela


Equação 7.15

E = (Tamb ,U rel , Fop ) ( 7.15)


Onde: Tamb = temperatura ambiente
Urel = umidade relativa
Fop = frequência de operação

Neste caso as grandezas temperatura ambiente, umidade relativa e frequência de operação são
variáveis de estado e descrevem todos os possíveis estados a que o equipamento estará sujeito.
A Tabela 7.3 apresenta alguns valores numéricos como exemplo de uma situação prática.
Podem ser citados como possíveis estados e1=(1,4,2), e2=(2,3,2), e3=(3,4,1), etc.

Tabela 7.3

Condição Tamb (oC) Urel (%) Fop (MHz)


1 0-20 0-25 0-10
2 21-40 25-50 10-45
3 41-60 50-75 45-90
4 60-80 75-100 90-100

É viável associar a cada par de estados uma probabilidade de transição entre eles em função
do tempo. O estudo do comportamento das mudanças de estado ao longo do tempo é
conhecido como análise de espaço estado sendo muito difundida a técnica de Markov.

A análise de Markov é aplicável desde que as seguintes restrições sejam respeitadas:

1-As probabilidades de transição entre os estados permanecem constantes ao longo do tempo.


Portanto, a propriedade de estacionaridade ou homogeneidade deve ser válida.

2- A probabilidade de um estado futuro independe dos estados anteriores excetuando-se o


estado imediatamente precedente (propriedade de falta de memória).

A Figura 7.16 apresenta um Diagrama de Markov para um único componente X que pode
assumir o estados S0 em funcionamento e e estado S1 falho. A probabilidade de transição do
estado de funcionamento para o estado falho é PS0→S1 e a probabilidade de transição no
sentido contrário é PS1→S0. Este é um exemplo de processo discreto (O’ CONNOR, 2002).
70

PS0 S1

S0 S1

1- PS0 S1 PS1 S0 1- PS1 S0

Figura 7.16 - Diagrama de Markov para um componente

O somatório das probabilidades de transição incluindo a auto-transição deve ser uintário.


Considerando que o componente X citado anteriormente encontra-se no estado operacional
(disponível) é possível construir o Diagrama em Árvore da Figura 7.17 onde são
representadas todas as possibilidades de transição para 2 intervalos de tempo.
Tempo
S0
0

PS0 S1 1- PS0 S1

S1 S0 1

PS1 S0 1-PS1 S0 1- PS0 S1 PS0 S1

S0
2
S1 S0 S1

Figura 7.17- Diagrama em árvore

A partir do diagrama em árvore pode-se calcular a probabilidade de o ítem estar em qualquer


estado após um determinado número de intervalos de tempo. O cálculo da probabilidade do
estado final é executado percorrendo-se todos os trajetos da árvore. Escolhido um trajeto
obtem-se o produto das probabilidades de transição envolvidas no trajeto e posteriormente são
somados todos os produtos obtidos.

Os mesmos resultados podem ser obtidos através da matriz de transição de estados (Equação
7.16). Esta matriz elevada a segunda potência corresponde ao segundo intervalo de tempo e
assim sucessivamente.

PS 0→ S 0 PS 0→ S1
T = (7.16 )
PS 1→ S 0 PS1→ S 1
71

Onde: Elemento (1,1) prob do ítem estar disponível


Elemento (1,2) prob do ítem estar indisponível
Elemento (2,1) prob do ítem ser reparado
Elemento (2,2) prob do ítem não ser reparado

7.5.2- Análise de Markov Aplicada a Disponibilidade de Sistemas

Nos estudos de confiabilidade e disponibilidade existe o interesse em determinar se um


sistema encontra-se em estado operacional ou em estado de pane. Existem situações nas quais
se deseja estudar a situação de pane parcial dando origem a um terceiro estado. Entretanto,
geralmente o número de estados possíveis é reduzido a dois.

Apresenta-se a seguir um exemplo no qual pretende-se calcular a probabilidade do


componente representado na Figura 7.16 estar disponível após 4 intervalos de tempo Δt
considerando uma situação inicial de disponibilidade 1. A probabilidade PS0→S1 será
considerada igual a 0,1 e a probabilidade PS1→S0 igual a 0,6 (O’ CONNOR, 2002).

O cálculo da probabilidade do evento S0 (componente disponível) a partir do diagrama em


árvore da Figura 7.17 é apresentados na Tabela 7.4 e graficamente na Figura 7.16. O cálculo
da probabilidade do estado final é executado percorrendo-se todos os trajetos da árvore.
Escolhido um trajeto obtem-se o produto das probabilidades de transição envolvidas no trajeto
e posteriormente são somados todos os produtos obtidos.

Tabela 7.4

T Somatório dos percursos Disponibilidade


t1 0,9 0,9
t2 0,06+0,81 0,87
t3 0,054+0,024+0,729+0,054 0,861
t4 0,0486+0,0036+0,0216+0,0096+0,6561+0,0486+0,0486+0,0216 0,8583

Os mesmos resultados podem ser obtidos através da matriz de transição de estados (Equação
7.16). A matriz de transição de estados para o exemplo proposto considerando o primeiro
intervalo de tempo é apresentada na Equação 7.17. Esta matriz elevada a segunda potência
corresponde ao segundo intervalo de tempo conforme valores apresentados na Equação 7.18.
Procedimento análogo pode ser realizado para obtenção dos demais intervalos de tempo.
Observa-se que todos os resultados encontrados através da matriz de transição coincidem com
os valores obtidos através do diagrama em árvore (Vide Tabela 7.4)
(7.16)
0,9 0,1
T =
0,6 0,4

2 (7.17)
0,9 0,1 0,87 0,13
T = =
0,6 0,4 0,78 0,22
0

Tempo

S0 0
0.1 0.9

S1 1
S0

0.6 0.4 0.9 0.1

S0 S1 S0 S1 2

0.9 0.1 0.6 0.4 0.9 0.1 0.6 0.4

S0 S1 S0 S1 S0 S1 S0 S1 3

0.9 0.1 0.6 0.4 0.9 0.1 0.6 0.4 0.9 0.1 0.6 0.4 0.9 0.1 0.6 0.4

S0 S1 S0 S1 S0 S1 S0 S1 S0 S1 S0 S1 S0 S1 S0 S1
4

Figura 7.18- Diagrama em árvore (O’ CONNOR, 2002)


78

A(t)

0.9
0.87 0.861 0.86

1 2 3 4 t
Figura 7.19- Disponibilidade A(t)

7.6 Simulação de Monte Carlo


O progresso de um componente em seu ciclo de vida é caracterizado por sucessivas falhas e
reparos. Quando o ciclo de operação ou reparo de um componente é interrompido por outros
componentes existe dependência entre os blocos. Nesta situação não é possível analisar o
diagrama através de equações analíticas sendo necessária a utilização de técnicas de simulação
(MURPHY; CARTER 2003)

A origem do método de Simulação de Monte Carlo se deu durante a Segunda Guerra Mundial, ao
longo das pesquisas no Laboratório de Los Alamos, que resultaram na construção da primeira
bomba atômica. O método foi proposto por Von Neumann e Ulam para solução de problemas
matemáticos cujo tratamento analítico não se mostrava viável. O nome Monte Carlo, famoso
cassino de Mônaco fundado em 1862, foi adotado por razões de sigilo das pesquisas e pelo fato
da presença da aleatoriedade lembrar os jogos de azar.

Esta metodologia é baseada na simulação de variáveis aleatórias para resolução de problemas e


por ser considerado muito simples e flexível pode ser aplicado em problemas de qualquer nível
de complexidade (MARSEGUERRA; ZIO, 2005). A maior inconveniência do método, é o
número de simulações necessário para se reduzir o erro da estimativa da solução procurada, o que
tende, na prática, a tornar o método muito lento.

A Simulação de Monte Carlo pode ter uma abordagem sequencial ou não sequencial. Na primeira
possibilidade os estados do sistema são sequencialmente amostrados por vários periodos de
tempo simulando uma realização do processo estocástico de operação do sistema. Considerando a
abordagem não sequencial o espaço de estados é amostrado aleatoriamente sem levar em
consideração a cronologia do processo de operação do sistema.
79

A Simulação pode ser utilizada tendo como base a maioria das diversas topologias utilizadas
para modelar a confiabilidade de um sistema. Uma grnade vantagem é que as probabilidades de
transição entre os estados do sistema podem assumir qualquer valor e não necessariamente
devem permanecer constante como no Diagrama de Markov. Estas características proporcionam
grande flexibilidade.

Estima-se que em breve a simulação torne-se o principal método para resolução de RBDs
complexos uma vez que os recursos computacionais tornam–se cada vez mais disponíveis e
viáveis economicamente (MURPHY; CARTER, 2003).

8-Técnicas de Manutenção

Define-se como manutenção o conjunto de ações destinadas a manter ou recolocar um item em


um estado no qual possa executar sua função requerida. O propósito da manutenção é extender a
vida de um equipamento ou, no mínimo, aumentar o tempo médio até a próxima falha. A ação de
não realização de um procedimento de manutenção pode ter como consequência um alto custo
em caso de uma falha. Paradoxalmente, pode não ser viável do ponto de vista econômico a
realização de ações de manutenção com uma frequência muito alta. Assim, o custo devido a uma
provável falha e o custo de manutenção devem ser balanceados de forma a se obter um ponto
ótimo (ENDRENYI et al., 1998)

A manutenção é apenas uma das ferramentas utilizadas para garantir que a confiabilidade de um
componente ou sistema seja satisfatória. Outras opções podem incluir o aumento da capacidade
do sistema, utilização de redundâncias ou o emprego de componentes intrinsecamente mais
robustos (IEEE,2001). Entretanto, devido à restrições econômicas é cada vez mais necessário a
otimização da taxa de utilização de equipamentos incluindo, inclusive, a melhoria dos programas
de manutenção. De fato a manutenção tem assumido um papel cada vez mais importante no
contexto mais amplo do gerenciamento de recursos.

Moubray (1995) divide a evolução das técnicas de manutenção em três gerações conforme
representado na Figura 8.1. A primeira geração compreende o início de era industrial até a
Segunda Guerra Mundial no qual as indústrias eram pouco mecanizadas e os equipamentos, de
uma maneira geral, simples e superdimensionados. Neste contexto a prevenção de falhas não
tinha alta prioridade e a manutenção (chamada corretiva) era realizada de maneira reativa e sem
nenhum planejamento.

A manuteção corretiva prevê uma intervenção somente após o aparecimento de uma falha. Este
tipo de manutenção apresenta como vantagem o fato de não requerer planejamento e como
desvantagens a diminuição da vida útil do equipamento bem como a possibilidade de provocar
grandes perdas de produção. Além disso, devido a imprevisibilidade, pode a ocorrer a
inexistência de peças de reposição e pessoal qualificado disponível para efetuar os reparos
necessários.
80

Após a Segunda Guerra Mundial teve início a segunda geração segundo Moubray (1995). Nesta
época surgiu uma maior demanda por produtos industrializados e como consequência ocorreu
um aumento de mecanização. A partir da crescente complexidade dos sistemas e da necessidade
de se evitar falhas teve origem o conceito de manutenção preventiva.

A manutenção preventiva tradicional usualmente consiste de atividades pré-definidas, que


ocorrem em intervalos de tempo regulares. O planejamento exigido é muito simples e existe a
possibilidade de alocar recursos físicos e humanos com antecedência. Esta política de
manutenção exige que os modos de falha mais freqüentes, a taxa de falhas e, principalmente, a
periodicidade com que suas falhas ocorrem sejam conhecidas (SOUZA, 2004). Caso estes
parâmetros não sejam determinados a manutenção preventiva pode ser ineficiente e muito
dispendiosa uma vez que não existe uma garantia de que a vida do componente será extendida o
máximo possível (ENDRENYI et al., 1998).
3a Geração

-Monitoração das condições


a
2 Geração
-Projetos visando confiabilidade e
facilidade de manutenção
-Sistemas de planejamento
a e controle do trabalho
1 Geração -Análise de Modos e Efeitos de Falhas
-Maior disponibilidade -Menores danos humanos e ambientais
-Conserto após avaria e vida útil dos equipamentos

1940 1950 1960 1970 1980 1990 2000


Figura 8.1- Evolução das Técnicas de Manutenção (Moubray 1995)

A grande evolução tecnológica impulsionada pelo programa espacial norte-americano fez com
que as técnicas de manutenção baseadas no tempo passassem a não corresponder às necessidades
dos novos projetos. Kardec e Lafraia (2002) citam como exemplo o projeto dos primeiros aviões
do tipo Jumbo 747 da Boeing que englobavam mais de quatro milhões de componentes. Neste
caso a manutenção preventiva seria inviável devido aos custos altíssimos. Por outro lado, o risco
de acidente demandava uma prática de manutenção que proporcionasse segurança incontestável.

Assim, a terceira geração classificada por Moubray (1995) teve ínicio durante a década de 70.
Nesta época surgiram novos procedimentos de manutenção mais flexíveis baseados no
monitoramento periódico (ou mesmo contínuo) da condição do equipamento.

A manutenção preditiva é um processo no qual os reparos são executados somente quando


evidências específicas e objetivas indicam a necessidade por tais ações. Este conceito surgiu
devido à necessidades de aumento de produtividade, redução de estoques e custos operacionais.
Inicialmente foram realizados análise de vibração em equipamentos rotativos, termografia e
análises de óleos lubrificantes e isolantes de transformadores elétricos (NAGAO, 1998)
.
As rotinas de manutenção preditiva incluem um grupo de programas chamado RCM (Reliability
Centered Maintenance) que surgiu a partir da constatação que a manutenção impacta diretamente
na confiabilidade e performance de componentes e sistemas.
81

A RCM é baseada na premissa que a confiabilidade inerente ou a segurança de um sistema não


pode ser melhorada através da manutenção e que uma boa política de manutenção pode apenas
preservar estas características (DHILLON, 1999). De acordo com esta filosofia várias políticas de
manutenção são comparadas sendo escolhida aquela que oferece melhor relação custo beneficio
para um dado equipamento.

De acordo com a RCM a prática de manutenção mais recomendada para um dado componente é
dependente dos modos de falha do mesmo. Cada modo de falha passa por um processo de
priorização baseado nas consequências que pode provocar sendo considerados prioritários para a
atividade de manutenção aqueles que, em caso de falha, causam a parada do sistema. Os modos
de falha podem ser ainda analisados quanto a presença ou não de um tempo de desenvolvimento
(TDF) e quanto a frequência de ocorrência ao longo do tempo.

O comportamento da taxa de falha versus tempo é tradicionalmente representado através da


Curva da Banheira (Figura 8.2 ). A fase de falhas prematuras é conhecida como mortalidade
infantil sendo que a taxa de falhas decresce com o tempo segundo um mecanismo de depuração.
Na região da vida útil a taxa de falha é aproximadamente constante e independe do tempo.
Finalmente na região de velhice a taxa de falhas aumenta com o tempo segundo um mecanismo
de degradação.

h(t)

Fase de Fase de Fase de


falhas vida útil envelhecimento
prematuras

Figura 8.2– Curva da banheira (FREITAS; COLOSIMO, 1997 )

Como citado anteriormente, a RCM sugere a utilização de uma determinada técnica de


manutenção de acordo com o comportamento da taxa de falhas. Por exemplo, a prática de
manutenção preventiva (com intervalos fixos) somente é recomendada quando existe um
processo de degradação em andamento. Nestas circunstâncias o componente encontra-se na fase
de velhice em seu ciclo de vida e apresenta taxa de falhas crescente (DHILLON, 1999). A
matriz de decisão apresentada na Tabela 1 (SOUZA, 2004) sintetiza o procedimento exposto.
82

Taxa de falha Taxa de falha


independente do tempo dependente do tempo

Modo de falha apresenta Manutenção Preditiva ManutençãoPreditiva ou


tempo de desenvolvimento Manutenção Preventiva

Modo de falha não apresenta Manutenção Corretiva Manutenção Preventiva


tempo de desenvolvimento

Tabela 8.1- Matriz de decisão do RCM (SOUZA 2004)

Tradicionalmente, a priorização dos modos de falha na RCM é baseado na FMEA (Failure Mode
and Effect Analysis ) (HELMAN; ANDERY, 1995) Um outro enfoque estabelece que esta
priorização possa ser feita também através do monitoramento da condição do equipamento
(IEEE, 2001). A Figura 8.3 ilustra o surgimento da RCM dentro do contexto das técnicas de
manutenção (KARDEC; LAFRAIA, 2002). Cabe ressaltar que todas as técnicas apresentadas
estão em uso atualmente e o objetivo da RCM é nortear a escolha da técnica mais adequada para
cada situação.

1940 1950 1960 1970 1980 1990 2000

Manutenção Corretiva

Manutenção Corretiva e Preventiva

Figura 3- Introdução do RCM no contexto da manutenção


Manutenção Preditiva[Kardec e Lafraia, 2002]

RCM
Manutenção baseada no tempo

Manutenção baseada na condição

Figura 8.3– Surgimento da RCM (KARDEC; LAFRAIA, 2002)

A implementação de um programa RCM representa um passo importante no sentido de otimizar a


produtividade dos equipamentos instalados. Entretanto, esta metodologia é ainda fortemente
baseada em heurística e julgamento devido a experiências passadas. O julgamento de prioridades
pode também ser realizado a partir de bancos históricos de dados. Neste caso é necessário que as
informações tenham sido coletadas de maneira adequada e durante tempo suficiente.
83

Existe uma outra classificação possível para as intervenções de manutenção na qual são
consideradas apenas a corretiva e a preventiva. Neste enfoque a preditiva é chamada preventiva
baseada na condição. Embora possam ser observadas pequenas divergências entre diversos
autores com relação a terminologia os conceitos básicos são mantidos.

Referências Bibliográficas

AGGARWAL, K.K. Reliability Engineering. Topics in Safety, Reliability and Quality, v.3.
Netherlands: Klumer Academic Publishers, 1993. 384p.

BAZARGAN. M.; MCGRATH, R. N. Discrete Event Simulation to Improve Aircraft


Availability and Maintainability. In: Annual Reliability and Maintainability Symposium. IEEE,
Proceedings of the …2003, p. 63-67.

BONO, R.; ALEXANDER, R.; DORMAN, A.; KIM, Y; REISDORF, J. Analyzing Reliability –
A simple Yet Rigorous Approach. IEEE Transactions on Industry Applications, v. 40, No 4,
July/August 2004.

BROTHERTON, T.; CHADDERDON, G; GRABILL,P. Automation Rule Extraction for Engine


Vibration Analysis. In: Aeroespace Conference. IEEE, Proceedings of the…, v.3, March, 1999
p. 29-38.

BROTHERTON, T.; JAHNS, G; JACOBS, J; WROBLEWSKI, D. (2000). Prognosis of Faults


in Gas Turbine Engines. In:Aeroespace Conference. Proceedings of the IEEE, v..6, March,
p 163-171.

CASSADY, C. R. Introduction to Repairable Systems Modeling. In: Annual Reliability and


Maintainability Symposium, 2005, IEEE Tutorial Notes.

DHILLON, B.S. Design Reliability. Fundamentals and Applications. United States of


America: CRC Press LLC, 1999. 382p.

DONG JIANG, SHI-TAO HUANG, WEN-PING LEI, JIN-YAN SHI. Study of Data Mining
Based Machinery Fault Diagnosis. In: First International Conference on Machine Learning and
Cybernetics, IEEE, Proceedings of the… November 2002.

DUTUIT, Y; RAUZY, A. Approximate Estimation of System Reliability via Fault Trees.


Elsevier Science Publishers. Reliability Engineering and System Safety, v.87, p. 163-172,
2005.

ENDRENYI, J.;ANDERS, G. J.; LEITE DA SILVA, A. M. Probabilistic Evaluation of the Effect


of Maintenance on Reliability – an application. IEEE Transactions on Power Systems, v.13,
n.2, p.576-583, may 1998.
84

FILHO, V. B. Confiabilidade Básica e Prática. 1a ed. São Paulo: Editora Edgar Blucher. 1997
108p.

FREITAS, M. A. e COLOSIMO, E. A. Confiabilidade: Análise do tempo de falha e Testes de


Vida Acelerados. Belo Horizonte : Fundação Cristiano Ottoni, 1997. 308p (Série Ferramentas da
Qualidade, v. 12)

FREITAS, M. A. Tópicos Especias-Confiabilidade. UFMG. Depto de Engenharia de Produção.


Notas de aula, 2004

FREUND, J.E. E SIMON, G.A. Estatística Aplicada. Economia, Administração e


Contabilidade. 9a ed. Porto Alegre : Bookman, 2000. 404p

GUSTIN, G. D. B. Aplicação de Redes de Petri Interpretadas na Modelagem de Sistemas de


Elevadores em Edifícios Inteligentes. 1999. 164 f. Dissertação (Mestrado em Engenharia
Mecânica). Escola Politécnica da Universidade de São Paulo.

HELMAN, H.; ANDERY, P. R. P. Análise de Falhas (Aplicação dos Métodos de FMEA-


FTA). 1a ed. Belo Horizonte: Fundação Cristiano Ottoni, 1995, 156 p. (Série Ferramentas da
Qualidade, v.11)

KARDEC, A.; LAFRAIA, J.R. Gestão Estratégica e Confiabilidade. 1a ed. Rio de Janeiro.
Qualitymark, 2002. 90 p. (Coleção Manutenção)

LAFRAIA, J. R. B. Manual de Confiabilidade, Mantenabilidade e Disponibilidade. 1a ed.


Rio de Janeiro: Qualitymark: Petrobrás, 2001. 388p.

LEON GARCIA, A. Probability and Random Processes for Electrical Engineering. Addison-
Wesley Publishing Company. 1994

LEWIS, E.E. Introcduction to Reliability Engineering 4a ed. Canada: John Wiley & Sons,
1987. 400 p.

MAILLART, L. M.; POHL, A .E. Introduction to Markov-Chain Modeling and Analysis. In:
Annual Reliability and Maintainability Symposium, 2005. IEEE, Tutorial Notes.

MARSEGUERRA, M.; ZIO, E. Monte Carlo Sampling and Simulation for Application to
RAMS. In: Annual Reliability and Maintainability Symposium, 2005, IEEE, Tutorial Notes.

MEYER, P. L. Probabilidade. Aplicações à Estatística. 2a ed. Rio de Janeiro: Livros Técnicos e


Científicos Editora (LTC). 1983. 426 p.

MOUBRAY, J. Maintenance Management – A New Paradigm. Aladon, Inglaterra, 1995.

METTAS, A.; SAVVA, M. System Reliability Analysis: The Advantages of Using Analytical
Methods to Analyze Non-Repairable Systems. In: Annual Reliability and Maintainability
Symposium. IEEE, Proceedings of the… 2001, p. 80-85.
85

MURPHY, K. E.; CARTER, C. Reliability Block Diagram Construction Techniques. Secrets to


Real-life Diagramming Woes. In: Annual Reliability and Maintainability Symposium, 2003.
IEEE, Tutorial Notes.

NAGAO, S.K. Manutenção Industrial. Análise, Diagnóstico e Propostas de Melhoria de


Performance em Indústrias de Processo. 1998. 212f. Dissertação (Mestrado em Engenharia) -
Escola Politécnica da Universidade de São Paulo. Departamento de Engenharia de Produção, São
Paulo.

NEPOMUCENO, L.X. Técnicas da manutenção preditivas. v. 1 e 2. São Paulo: Edgard


Bliicher, 1989.

NORMAS BRASILEIRAS REGULAMENTADAS (NBR) – N. 5462, Confiabilidade e


Mantenabilidade. Terminologia, ABNT, SP 1994

O’ CONNOR, P. D. T. Practical Reliability Engineering. 4a ed. England: John Wiley & Sons,
2002. 513p

PALADY, P. FMEA, Análise dos Modos de Falha e Efeitos. Prevendo e Prevenindo


Problemas Antes que Ocorram 3a ed. São Paulo: Instituto IMAM, 2004. 270p.

QUALYTEK Engenharia de Confiabilidade Aplicada na Manutenção. Qualidade, Tecnologia


e Sistemas LTDA. Agosto de 2000.

RELIASOFT. BlockSim 6 Software Training Guide 2004

RELIASOFT. Weibull++6 Software Training Guide 2004

ROUVROYE, J.L.; VAN DEN BLIEK, E.G. Comparing safety analysis techniques. Elsevier
Science Publishers. Reliability Engineering and System Safety. v.75, p. 289-294, 2002

SANTOS, R; FUCHTER, I.; RAZONI, F E REIS, M Os Conceitos de RCM aplicados na


Indústria automotiva com base numa nova metodologia de implantalção. In:19º Congresso
Brasileiro de Manutenção. Curitiba, PR. 2004

SCAPIN, C. A. Análise sistêmica de falhas. Belo Horizonte: Editora de Desenvolvimento


Gerencial, 1999. 131p.

SCHNEEWEISS, W.G. Tutorial: Petri Nets as a Graphical Description Medium for Many
Reliability Scenarios. IEEE Transactions on Reliability, v. 50, n.2, June 2001.

SKORMIN , V.A.; POYACK, L.J ; GORODETKI, V.L.; ARAIZA, M.L. e MICHEL, J.D.
Applications of Cluster Analysis in Diagnostics-Related Problems. IEEE, Proceedings of …
Aeroespace Conference, v.3, p. 161-165, March 1999.
86

SKORMIN, V.A.; GORODETKI, V.L.; POPYACK, L.J. (2002). Data Mining Technology for
Failure Prognostic of Avionics. IEEE Transactions on Aeroespace and Electronic Systems,
v.38, n.2, April 2002.

SOUZA, G. Manutenção Centrada em Confiabilidade: Ciência e Prática. In: II Simpósio


Internacional de Confiabilidade, 2004, São Paulo. Anais… São Paulo: Reliasoft Brasil,
2004, p. 2-14

US MIL-HDBK-217F Military Handbook Reliability Prediction of Electronic Equipment.


Department of Defense. December, 1991.

VASSILOU, P. Understanding Accelerated Life-Testing Analysis. In: I Simpósio Internacional


de Confiabilidade. Reliasoft Corporation. Rio de Janeiro, RJ. 2003 Tutorial Notes.

VOLOVOI, V. Modeling of System Reliability Petri Nets with Aging Tokens. Elsevier Science
Publishers. Reliability Engineering and System Safety, v.84, p. 149-161, 2004.

Bibliografia

ASCHER, H.; FEINGOLD, H. Repairable Systems Reliability .Modeling, Inference,


Misconceptions and Their Causes. New York: Marcel Dekker, 1984, 223p.

BILLINTON, R. Power System Reliability Evaluation. 5a ed. United States of America:


Gordon and Breach Science Publishers, 1978. 299 p.

LOGMAN, J.;WANG,W. On Reliability Modeling and Analysis of Highly-Reliable Large


Systems. In: Annual Reliability and Maintainability Symposium. IEEE , Proceedings of the…,
2002, p. 456-459.

METTAS, A. Repairable Systems: Data Analysis and Modeling. In: IV Simpósio Internacional
de Confiabilidade, 2006, Salvador. Reliasoft Brasil, Tutorial Notes.

PEEBLES JR., P. Z. Probability, Random Variables and Random Signal Principles. 3a ed.
Singapore: McGraw-Hill, 1993. 401p.

SCAPIN, C. A. Análise sistêmica de falhas. Belo Horizonte: Editora de Desenvolvimento


Gerencial, 1999. 131p.
87

ANEXO A- Sistema de Avaliação/ Roteiro para elaboração do Trabalho Prático

Sistema de Avaliação

Forma de Avaliação Valor Data


o
1 Prova 40pontos
2o Prova 40 pontos
Trabalho Prático 20 pontos

Observações:

1)- O sistema de avaliação está de acordo com o Plano de Ensino aprovado pela coordenação do
curso e disponível no SGA.

2)- Quanto a realização das avaliações:


- As avaliações são individuais e sem consulta
- Cada aluno deverá trazer calculadora e caneta, lapis, borracha, etc.
- Não serão permitidos empréstimos de material durante as provas
88

Roteiro para Elaboração do Trabalho Prático


1- Tema
O tema será escolhido pelo grupo de trabalho e deverá preferencialmente abordar a aplicação
prática dos itens estudados na disciplina. Esse tema deverá ser apresentado previamente ao
professor para verificação da pertinência ou não do mesmo no dia da Primeira Avaliação (a ser
agendado).
Sugestões:
Modelagem de Confiabilidade
Análise de Modos e Efeitos de Falhas (FMEA)
Arvore de Falhas (FTA)
Análise em Espaço de Estados
Cálculo da Confiabilidade de Sistemas
Cálculo de Mantenabilidade e Disponibilidade
Técnicas de Manutenção
Manutenção Centrada em Confiabilidade
Confiabilidade de Softwares
Softwares para cálculo de Confiabilidade e Gerenciamento de Manutenção

2-Número de alunos por grupo de trabalho


Serão formados ------ grupos de trabalho de ------- alunos.

3-Tempo disponível para apresentação do trabalho


O trabalho deverá ser apresentado no tempo máximo de ----- minutos ( ---- grupos por dia)

4- Distribuição de pontos

4.1- Definição do tema (2 pontos )


Resumo de 10 linhas a ser entregue no dia da Primeira Avaliação contendo objetivos principais,
local de obtenção dos dados (ou indústria objeto da pesquisa) e nome de todos os integrantes do
grupo.

4.2- Apresentação oral (8 pontos)

Titulo do Trabalho
-Nome do Autores
-Local de obtenção dos dados ou indústria objeto da pesquisa
Introdução
- Defina o objetivo principal.
- Explique o que seus colegas irão aprender com seu trabalho.
- Explique qualquer histórico relevante e/ou interessante que motivou o trabalho em questão.
Organização da Apresentação
-Liste os tópicos que serão tratados.
Definição
-Caso necessário defina termos que serão utilizados durante a apresentação.
89

Desenvolvimento
-Explique os detalhes.
-Dê exemplos.
Conclusão
-Conclua o trabalho.
-Apresente as lições aprendidas com o trabalho.
-Faça uma análise crítica do tema estudado e apresente sugestões para trabalhos futuros
Referências Bibliográficas

4.3- Trabalho Escrito (10 pontos)

-Os trabalhos deverão estar baseados em pesquisa bibliográfica suficiente para uma apresentação
objetiva e de qualidade.

-Deverá ser entregue um resumo no modelo CIPUC ( Congresso do IPUC)

5- Material a ser entregue no dia da apresentação oral (definido através de sorteio)


-Trabalho Escrito impresso
-Cópia digital do texto e da apresentação
-Cópia de todo o material consultado sendo que o mesmo poderá ser devolvido posteriormente se
necessário.

- Apresentação Oral
- A não apresentação do trabalho implicará em perda total dos pontos destinados a esta
parte do trabalho (8 pontos)
-Qualquer negociação envolvendo troca horários para apresentação deve ocorrer com no
mínimo uma semana de antecedência. Comunicações fora deste prazo não serão
consideradas.

7-Informações complementares:
- A escala de apresentação de cada grupo de trabalho será feita usando o critério de sorteio.
- O grupo deve se responsabilizar por providenciar os recursos necessários à apresentação
- Todos os elementos do grupo de trabalho deverão participar da apresentação oral.
- No caso de uso de vídeos, esse recurso servirá apenas de suporte e ilustração do tema escolhido.
90

ANEXO B- Exercícios Propostos

Exercício 1 (FILHO, 1997)

Foram coletados os valores de tempo até a falha de um equipamento instalado em campo (vide
Tabela 1). Posteriormente estes dados foram agrupados segundo um intervalo de tempo de 1000h
e separados em 3 grupos. Calcule a taxa média de falhas e desenhe o gráfico taxa de falhas x
tempo(horas)
Tabela 1 - Tempo até falhar (h)

Grupo A

100- 120- 130- 200- 240- 290- 300- 310- 330- 350-380-430- 460- 470- 480 520 - 540 -590 -
640- 680- 690- 720-830-870-920-980-1020-1040-1190-1380-1440-1560-1620-1700-1750 -1920

Grupo B

2810- 2820- 2900- 3060- 3240-3300-3530- 3610- 4010- 4280- 4370- 4450- 5040- 5120- 5200-
5330- 5420 -5560- 5640- 5830- 6020- 6370- 6460- 6530 6620- 7010 -7100- 7510-7560- 7840-
7920-8410-8600-8790-8840-8990-9080-9110-9150-9210-9790

Grupo C

10080-10260- 10320- 10400- 10430-10500-10580- 10650-11070- 11260- 11350- 11480- 11510-


11740-11830-11970-12006- 12100- 12290- 12330- 12450-12580-12660-12770-12840-12920

Exercício 2 (FILHO, 1997) Considere distribuição de probabilidade Exponencial.

a- Qual a probabilidade de um componente funcionar sem apresentar falhas durante período


igual ou superior ao seu MTBF?

b- Um componente tem um MTBF de 1000h. Calcule a confiabilidade para missões de 200,


400, 600...até 2800h. Faça o gráfico da Confiabilidade.

c- Considere um componente com MTBF de 28700h. Qual a probabilidade de falha nas


primeiras 8000h de funcionamento?

Exercício 3 (RELIASOFT™) Um item foi submetido a um ensaio e apresentou os seguintes


resultados de tempo até a falha: 10.263 , 12.187, 16.908 , 18.042 , 23.271.

a) Calcule a posição mediana utilizando-se a a Aproximação de Benard (Equação 16).


b) Estime os parâmetros β e η utilizando o papel de probabilidade Weibull
91
Papel de Weibull
92

Exercício 4 (Qualytek,2005)

O tempo médio requerido para reparo de um determinado sistema é de 1,10h. A partir dos dados
apresentados na Tabela 1 estime o tempo médio para reparo e verifique se as especificações são
atendidas.

Item λ( x 10-3 h) Qtde λ( x 10-3 h) L D R C tr λ x tr


por item total
A 0,30 4 0,20 0,50 0,35 0,10
B 0,80 8 0,15 0,20 0,10 0,20
C 3,00 3 0,30 0,10 0,10 0,10
D 2,50 2 0,40 0,45 0,20 0,08
E 1,50 8 0,10 0,60 0,50 0,10
F 0,072 10 0,15 0,40 0,30 0,20

Obs: L- localizar D-desmontar


R- Remontar C- checar

Exercício 5 (HELMAN; ANDERY, 1995)

A figura abaixo representa um sistema de aquecimento


a) Elabore uma FMEA
b) Construa uma FTA considerando como evento de topo “ água fria”

resistência R1
fonte +

resistência R2

diafragma chave seletora


74

Exemplo simplificado de um formulário FMEA

FMEA nº-------- Data : ___/___/___ Rev.: ------- Equipe :-------------------------------------------------------------------------------------

Produto Processo

ítem Nome Função Modo Efeito Causa Controles O G D R


Atuais
98

Exercício 6 (HELMAN; ANDERY, 1995)

Considerando as figuras abaixo, elabore uma FTA para o evento de topo apresentado.

a)- Superaquecimento do motor b)- Forno não aquece

controlador de
disjuntor fusível disjuntor temperatura

Fonte Motor Fonte Forno


+ +

Fiação

Exercício 7 (HELMAN; ANDERY, 1995)

a) Encontre o diagrama de blocos correspondente à FTA apresentada


b) Calcule a confiabilidade do sistema considerando:
RC=0.8, RD=0.9, RF=0.6, RG=0.8, RH=0.7, RI=0.9, RK=0.8 e RL=0.9

Evento de
Topo

A B

E J
C D H I

F G K L
99

Exercício8 (HELMAN; ANDERY, 1995)

Elabore a FTA corresponde ao diagrama de blocos:

B D
A E
C

G
F I J
H

Exercício 9

Considere o sistema apresentado na Figura abaixo


a)-Encontre os conjuntos de corte mínimo
b)-Represente o sistema como um árvore de falhas
c)- Escreva a equação da probabilidade de ocorrência do evento de topo

A B

E F

C D
100

Exercício 10

Calcular a probabilidade do componente representado na Figura 1 estar disponível após 3


intervalos de tempo considerando uma situação inicial de disponibilidade 1. Supor os estados S0
em funcionamento e S1 em falha. A probabilidade PS0→S1 é igual a 0.2 e a probabilidade PS1→S0 é
igual a 0.7

PS0 S1

S0 S1

1- PS0 S1 PS1 S0 1- PS1 S0

Figura 1- Diagrama de Markov para um componente

Exercício 11 (Qualytek™- Qualidade, Tecnologia e Sistemas LTDA, 2000)

a) Suponha um sistema que contem 3 unidades idênticas onde uma está operando e as outras duas
estão em standby. Determine a confiabilidade do sistema para 400h de operação, sabendo que a
taxa de falhas das unidades é 0,003 falhas/h.

b) Calcule a confiabilidade de um sistema com unidades independentes e idênticas numa


configuração de 2 de 4 para 100 horas de operação. As taxas de falha são constantes e iguais a
0,005 falhas/h.

Potrebbero piacerti anche