Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
6 de Junho de 2018
Conteúdo
Abstract vi
i
CONTEÚDO ii
iv
Lista de Tabelas
v
Abstract
vi
Capítulo 1
min f(x), x ∈ Rn
tal que:
hi (x) = 0, i = 1, l (1.1)
e
gj (x) ≤ 0, j = 1, s̄
Observação:
(i) O número de restrições de igualdade deve ser menor ou igual ao número de variáveis de
projeto, i.e., l ≤ n. Caso contrário tem-se um sistema de equações inconsistente ou tem-se
restrições redundantes (expressa como combinação lineares de outras restrições).
(ii) Caso as funções f (x), hi (x) - i = 1, l e gj (x) - j = 1, s̄ sejam lineares o problema é dito ser
de programação linear.
Considere o problema
(P1) ≡ minf(x)
x∈S
em que (1.2)
S = { x ∈ Rn | hi (x) = 0, i = 1, l e gj (x) ≤ 0, j = 1, s̄}.
1
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 2
−f(x∗ ) ≥ −f(x), ∀x ∈ S
i.e. (1.4)
∗ ∗
{f(x ) ≤ f(x), ∀x ∈ S} ⇔ {−f(x ) ≥ −f(x), ∀x ∈ S}.
˘ ∗ ) ≥ f(x),
f(x ˘ ∀x ∈ S,
o que é equivalente à
˘
x∗ = arg max f(x), ∀x ∈ S, (1.6)
∗
i.e., x é solução de
˘
(P2) ≡ minf(x)
x∈S
o que implica em
(P1) ⇔ (P2)
i.e. (1.8)
minf(x) ⇔ max ( −f(x) ) .
x∈S x∈S
S = { x ∈ Rn | gi (x) ≥ 0, i = 1, s̄}
(1.11)
= { x ∈ Rn | − gi (x) ≤ 0, i = 1, s̄}.
min f(x)
tal que
hi (x) = 0, i = 1, l (1.12)
e
gj (x) ≤ 0, j = 1, s̄.
Observação: Note que todas as restrições de igualdade são por definição ativas para todo
x ∈ S.
Uma forma gráfica para a determinação do ponto ótimo x∗ é através do gráfico das curvas de
nível da função, i.e., da representação da representação gráfica, paramétricamente, das curvas
Neste ponto pode-se verificar alguns resultados os quais serão úteis posteriormente na definição
de uma estratégia para a solução de problemas de otimização.
Considere a curva C0 ⊂ R2 , definida paramétricamente como
C0 = {(x1 (t), x2 (t))| t ∈ [a, b], f (x1 (t), x2 (t)) = c̄0 }, (1.14)
denominada por curva de nível da função f (x) associada à c̄0 , e ilustrada abaixo
x(t0 +dt)−x(t0 )
et = limdt→0 dt
i.e. (1.16)
d dx1 (t) dx2 (t)
et = dt {x(t)} t0
= dt ex + dt ey .
t0 t0
Veja que,
x(t) ∈ C0 ⇔ f (x(t)) = c̄0 , para t ∈ [a, b]. (1.17)
Esta relação mostra que os vetores ∇x f (x(t)) e et (x(t)), vetor tangente, são ortogonais para
todo t ∈ [a, b].
No caso de f : Rn → R tem-se:
Note que a superfície de nível, dada pelo conjunto C0 = { x ∈ Rn | f(x) = c̄0 } tem dimensão
(n − 1), i.e., dim (C0 ) = n − 1. Como resultado, a superfície de nível C0 pode ser parametrizada
por (n − 1) coordenadas curvilíneas independentes. Isto significa que um ponto arbitrário em
C0 pode ser expresso por
n
x(ξ 1 , ξ 2 , ..ξ n−1 ) = xi (ξ 1 , ξ 2 , ..ξ n−1 )ei
i=1
(1.21)
em que ei são as bases ortonormais naturais
do sistema de coordenadas naturais utilizado.
Seja x(t) ∈ C0 uma curva coordenada genérica, obtida considerando livre uma única coordenada
curvilínea e mantendo as (n − 2) demais fixas. Por exemplo,
n
o o
x(t) = xi (t, ξ̄ 2 , ..ξ̄ n−1 )ei
i=1
(1.22)
em que
o
ξ̄ j = cte.
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 6
Este resultado significa que o vetor gradiente é ortogonal a todas as tangentes às linhas
coordenadas no ponto em questão. Consequentemente, o vetor gradiente é ortogonal ao plano
tangente à superfície de nível para qualquer x(ξ 1 , ξ 2 , ..ξ n−1 ) ∈ C0 , o que está ilustrado na figura
abaixo.
Teorema:
−
→ −
→
Seja f : Rn → R diferenciável em x̄ . Seja d um vetor tal que: ∇f( x̄ ), d < 0. Então
existe um δ > 0, tal que
−
→ −
→
f( x̄ + λ d) < f ( x̄ ), para todo λ ∈ (0, δ). (1.26)
−
→
O vetor d é denominado uma direção de descida de f(x) no ponto x̄ . Como resultado, temos o
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 7
seguinte cone,
minf(x)
x∈S
em que (1.27)
S = { x ∈ Rn | hi (x) = 0, i = 1, l e gj (x) ≤ 0, j = 1, s̄}.
−
→
D= d ∈ Rn d = 0 e x̄ + λd ∈ S, ∀λ ∈ (0, δ) e
(1.28)
para algum δ > 0}.
−
→ −
→
f( x̄ + λd) < f( x̄ ), λ ∈ (0, δ), para algum δ > 0. (1.29)
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 8
Observação:
−
→
Note que se em um dado ponto x̄ obtivermos H = {∅}, então não tem-se uma direção de
descida factível d que nos permita reduzir a função objetivo.
3. Determinação aproximada da curva de nível f(x) = c̄, com o menor valor da constante c̄,
que tangência a região factível S.
• Etapa 1:
Definina um ponto inicial x0 ;
• Etapa 2:
Determine uma direção factível d ∈ D tal que d ∈ W , i.e., d, ∇f(x0 ) < 0, d = 0,
definindo uma direção de descida da função objetivo.
• Etapa 3:
Resolva o problema 1D de mínimo (busca linear):
Determine α∗ ∈ R, α∗ > 0
tal que (1.32)
α∗ = arg minf(x0 + α d)
α>0
• Etapa 4:
Determine o próximo ponto x1 tal que f(x1 ) < f(x0 ), sendo x1 = x0 + α∗ d. Volte para a
etapa 2 até satisfazer, em geral, a condição necessária de otimalidade do problema.
sendo S a região factível do problema. Se a desigualdade é estrita, isto é, se f (x∗ ) < f(x) então
x∗ é denominado um mínimo global estrito de f(x).
O conjunto Bǫ (x∗ ) representa uma bola centrada em x∗ de raio ǫ. Se vale a desigualdade estrita,
isto é, f (x∗ ) < f(x), então x∗ é um mínimo local estrito de f(x).
Observação: A função f(x) não possui mínimo global nem máximo global. Porém, A e C
são máximos locais e B e D são mínimo locais.
Note que a função não tem mínimo em (1, 2). Porém, a função tem um ínfimo em x∗ = 1,
x∗ ∈
/ (1, 2).
f(1) = inf {f(x)}. (1.36)
x∈(1,2)
f(x∗ +h)−f(x∗ )
h ≤ 0. (1.38)
df (x∗ )
Entretanto, se a derivada dx existe então:
df(x∗ ) ∗ +h)−f(x∗ )
dx = limh→0 f(x h
∗ +h)−f (x∗ )
= limh→0+ f(x h
(1.39)
∗ +h)−f (x∗ )
= limh→0− f (x h .
df (x∗ ) df (x∗ )
dx ≥0e dx ≤ 0. (1.40)
df (x∗ )
dx = 0. (1.41)
Observação:
Entretanto,
∗ ∗
limh→0− f(x +h)−f(x
h
)
= −1
e
∗ (x∗ )
limh→0+ f (x +h)−f
h = +1 (1.42)
i.e.
∗ ∗) ∗ (x∗ )
limh→0− f(x +h)−f(x
h = limh→0+ f (x +h)−f
h .
(iii) O teorema não pode ser aplicado em pontos pertencentes à fronteira de S. Pode ser
aplicável apenas em x ∈ int(S), i.e., em pontos no interior de S. Exemplo: Considere o
exemplo
min f (x), f (x) = x
x∈[1,2]
sendo o domínio factível (1.43)
S = [1, 2].
O gráfico da função, definida em S, está ilustrado na Figura a seguinte.
Note que
df(x)
dx = 1, ∀x ∈ S, (1.44)
df(x∗ )
e o mínimo absoluto ocorre em x∗ = 1, no qual temos dx = 1 = 0.
(iv) O teorema é apenas uma condição necessária de otimalidade para x∗ , isto é, se x∗ é mínimo
(x∗ )
relativo então dfdx = 0. Porém, nada é dito a respeito da condição de suficiência, ou seja,
df (x∗ )
se dx = 0 não se pode afirmar que x∗ é ponto de mínimo ou máximo relativo de (x) em
S.
Em suma, temos que:
df (x∗ )
{se x∗ é mínimo relativo} ⇒ dx =0
o qual pode ser representado por
P ⇒Q
em que se identifica as relações (1.45)
P ⇔ {se x∗ é mínimo relativo}
e
df(x∗ )
Q⇔ dx =0 .
?
P ⇐ Q.
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 13
df(x∗ )
se dx = 0 ⇒ {x∗ não é mínimo relativo de f(x) em S}. (1.47)
dn f(x∗ )
(i) Ponto de mínimo local, se n for par e dxn > 0;
dn f (x∗ )
(ii) Ponto de máximo local, se n for par e dxn < 0;
(iii) Ponto de inflexão, se n for ímpar, o que pode ser verificado no exemplo, em que f(x) = x3 ,
ilustrado a seguir.
Demontração:
Supondo que f(·) seja suficientemente regular em x∗ podemos expandir f(x∗ + h) em uma
série de Taylor em x∗ ,
df (x∗ ) 1 d2 f (x∗ ) 2
f (x∗ + h) = f(x∗ ) + dx h + 2! dx2 h + ...+
d(n−1) f (x∗ ) n−1 1 d(n) f(x∗ +θh) n
1
+ (n−1)! dxn−1
h + n! dxn h (1.48)
para algum θ ∈ (0, 1).
Como
df (x∗ ) d2 f (x∗ ) d(n−1) f (x∗ )
dx = dx2
.... = dxn−1
=0 (1.49)
temos
(n) ∗
1 d f (x +θh) n (1.50)
f(x∗ + h) − f(x∗ ) = n! dxn h .
(n) d(n) f(x∗ )
Se d dxfn(·) é contínua em uma vizinhança de x∗ e dxn > 0 então existe um δ > 0, tal que
(n)
|x − x∗ | < δ ⇒ d dxfn(x) > 0.
Consequentemente,
1 d(n) f(x∗ +θh) n
f(x∗ + h) − f(x∗ ) = n! dxn h >0
para todo (1.51)
n - par e h ∈ Bδ (0).
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 14
Logo,
f(x∗ ) ≤ f(x∗ + h), ∀h ∈ Bδ (0)
o que implica em (1.52)
x∗ ser um mínimo local.
Observação:
O resultado para máximo local pode ser obtido por analogia.
i.e.
∂ 2f ∂ 2f
∂x1 ∂x1 ... ∂x1 ∂xn
∂ 2 f(x)
.. ..
[H(x)] = = . . . (1.56)
∂x∂x
∂ 2f ∂ 2f
∂xn ∂x1 ... ∂xn ∂xn
Observação: Consideramos ainda que f(x) ∈ C 2 (Rn ), i.e., que f(x) é duas vezes continua-
mente diferenciável em Rn . Como resultado,
∂ 2 f (x) ∂ 2 f (x)
∂xi ∂xj = ∂xj ∂xi ,
(1.57)
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 15
o que implica em
[H(x)] = [H(x)]T ,
isto é, que (1.58)
[H(x)] é simétrica.
∂f (x∗ ) ∂f (x∗ )
f(x1 , x2 ) = f(x∗1 , x∗2 ) + ∗
∂x1 (x1 − x1 ) + ∂x2 (x2 − x2 )
∗
2 f(x )∗ 2 ∗ )
+ 2!1 ∂ ∂x 2 (x1 − x∗1 )2 + 2 ∂∂xf(x1 ∂x2
(x1 − x∗1 )(x2 − x∗2 )
1
2 f(x∗ ) (1.59)
+ ∂ ∂x 2 (x2 − x∗2 )2 + R(x1 , x2 ),
2i
na qual R(x1 , x2 ) representa a parte remanescente da série.
na qual R(x1 , x2 ) representa o resíduo, i.e., a parte remanescente da série. Esta expressão
pode ser representada como:
n n m
∂f (x∗ ) 1 ∂ 2 f (x∗ )
f (x1 , x2 ) = f(x∗1 , x∗2 ) + ∂xi (xi − x∗i ) + 2! ∂x2i ∂x2j
(xi − x∗i )(xj − x∗j )
i=1 i=1 j=1 (1.60)
+R(x1 , x2 ).
O que pode ser generalizado para f(x) : x ∈ Rn → R e expresso em forma matricial como:
Fazendo uso do Teorema do Valor Médio, pode-se ainda escrever a expansão de Taylor de f(x)
em x∗ como
1
f(x) = f(x∗ ) + ∇x f(x∗ ).(x − x∗ ) + [H (x∗ + ρ(x − x∗ ))] (x − x∗ ).(x − x∗ )
2! (1.62)
para algum ρ ∈ (0, 1).
Notação utilizada
Definindo
p(x) = f(x) − f(x∗ )
f(x) = 1
2 [P] x.x (1.66)
Seja
[A] = 21 ([P] + [P]T ) (1.67)
f(x) = 1
2 [P] x.x = 1
2 [A] x.x. (1.68)
Observação:
A relação acima mostra que toda forma quadrática pode ser expressa por meio de uma matriz
simétrica.
Demonstração:
Seja f(x) = 12 [A] x.x em que [A] = 12 ([P] + [P]T ). Temos
Definição:
(i) [A] é matriz positiva definida ⇐⇒ [A] x.x 0, ∀x ∈ Rn . Adicionalmente, [A] x.x = 0 ⇐⇒
x = 0.
(ii) [A] é matriz positiva semi-definida ⇐⇒ [A] x.x 0, ∀x ∈ Rn . Logo podemos ter um x0 = 0
tal que [A] x0 .x0 = 0.
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 17
(iii) [A] é matriz negativa definida ⇐⇒ [A] x.x ≤ 0, ∀x ∈ Rn . Adicionalmente, [A] x.x = 0 ⇐⇒
x = 0.
1.5.6 Teorema:
Seja [A]n× n , Aij ∈ R e sejam λi , i = 1, ..., n os valores próprios de [A], [A] = [A]T (simétrica).
Tem-se, então que:
Como resultado,
n
∂f(x)
∂xk = Aki xi
i=1
resultando em (1.74)
∇x f(x) = [A] x.
em que
n n
∂ 2 f (x) ∂
∂xs ∂xk = ∂xs Aki xi = Aki δ is = Aks = Ask
i=1 i=1
i.e. (1.76)
∂ 2 f (x)
∂xi ∂xj = Aij
Consequentemente,
∂ 2 f (x)
[H(x)] = ∂x∂x = [∇2x f(x)]
(1.77)
= [A].
1 2
f(x) = f(x∗ ) + df(x∗ ) + ∗
2! d f (x ) + ...
1
+ (n−1)! dn−1 f(x∗ ) + Rn x∗ , h
em que
x = x∗ + h
Rn x∗ , h = 1 n
n! d f(x
∗ + θh), para algum θ ∈ (0, 1) (1.78)
e
n n n
2 ∗
r
d f(x ) = ∗
... (hi1 hi2 ...hir ) ∂xi ∂∂xfi(x...∂x
)
i
1 2 r
i1 =1 i2 =1 ir =1
sendo
hi1 = xi1 − x∗i1 - i1 -ésima componente de h = x − x∗ .
Demonstração:
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 19
Seja
x = x∗ + h ei , (1.81)
∂f (x∗ )
f(x∗ + h ei ) = f(x∗ ) + ∂xi h + θ(h2 )
(1.82)
para i = 1, n.
Logo,
o que acarreta
∂f (x∗ ) θ(h2 )
∂xi + h ≥ 0. (1.85)
o que acarreta
∂f (x∗ ) θ(h2 )
∂xi + h ≤ 0. (1.89)
∂f(x∗ )
∂xi = 0, i = 1, n. (1.91)
Demonstração:
1
f(x∗ + h) = f(x) + ∇x f(x).h + 2! [H(x
∗
+ θ h)]h.h,
(1.92)
para algum θ ∈ (0, 1).
f(x∗ + h) − f(x∗ ) = 1
2! [H(x
∗
+ θ h)]h.h. (1.93)
Por outro lado, como H = HT , i.e., é uma transformação linear auto adjunta, existe uma base
ortonormal vi , i = 1, n, formada por vetores próprios de H, tal que a representação de H nesta
base é diagonal. Definindo
[R] = v1 v2 ... vn
tal que (1.94)
[R]T [R] = [R] [R]T = [I]
como sendo a matriz ortogonal, cujas colunas são compostas pelos cossenos diretores dos vetores
próprios vi , temos
[Λ] = [R]T [H] [R]
em que
λ1 0 ... 0
0 λ2 ... 0
[Λ] =
(1.95)
... ... ... ...
0 0 ... λn
sendo
λi , i = 1, n os valores próprios de [H]
O problema de valor/vetor próprio da Hessiana pode ser formulado como: Determinar v = 0 tal
que:
Considerando agora que [H(x∗ )] é positiva definida, seus valores próprios serão estritamente
positivos, i.e., λi (x∗ ) > 0, i = 1, n.
Suponto que os valores próprios λi (x) são contínuos em uma vizinhança de x∗ , teremos para
cada i = 1, n um δ i > 0 tal que
h < δi
1
f(x∗ + h) = f(x∗ ) + ∇f(x∗ )h + [H(x∗ + θh)]h2 , θ ∈ (0, 1)
2!
Como x∗ é estacionário tem-se que:
∇f (x∗ ) = 0
Consequentemente:
1
f (x∗ + h) − f(x∗ ) = [H(x∗ + θh)]h2
2!
O problema de valor/vetor próprio da Hessiana é:
determinar v = 0 tal que:
[H]v = λv para algum λ ∈ ℜ
Considerando agora que:
[H(x∗ )] seja postiva definida então, os valores próprios de H(x∗ ), λi (x) sejam contínuos em
x∗ , para i=1,...,m tem-se:
*****
∃δ i > 0 tal que ||h|| < δ i ⇒ λi (x + h) > 0 (para cada i=1,...,m)
Seja então δ = min{δ i /i = 1, ..., m}. Neste caso, ∀h, ||h|| < δ implica λi (x∗ + h) > 0 para
i=1,...,m.
Desta forma o termo acima fica:
1 1 1
= [H(x∗ + θh)]h ∗ h = [R][λ][R]T h ∗ h = [λ][R]T h[R]T h
2! 2! 2!
denominando y = [R]T h, isto é, h = [R]y determina-se então que:
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 22
m
1 1
= [λ]y ∗ y = λi yi2
2! 2!
i=1
Logo, x∗ é mínimo relativo. O mesmo procedimento pode ser utilizado para mostrar o item
(ii) [H(x∗ )] negativa definida ⇒ x∗ é máximo local;
1.5.11 Exemplo:
Determine o mínimo local da função quadrática
f(x) = f(x, y)
∇x f(x∗ ) = 0.
Porém
∂f
∂x = 2x1 + 2x2 − 2
e
∂f
∂y = 2x1 + 4x2 + 1
o que implica em
2 2 x∗1 2
=
2 4 x∗2 −1
i.e.
−1
x∗1 2 2 2
=
x∗2 2 4 −1
i.e.
x∗1 1 − 12 2 2.5
= = .
x∗2 − 21 1
2 −1 −1.5
Observação:
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 23
Note que a condição ∇x f(x∗ ) = 0 é apenas uma condição necessária de mínimo. Pontos de
sela e pontos de máximo também satisfazem esta condição. Para assegurar que o ponto x∗ é de
fato ponto de mínimo local, aplica-se a condição de suficiência. No caso de minimização sem
restrições, é suficiente verificar se a matriz Hessiana é positiva definida. Caso seja, então x∗ será
um mínimo local de f(x).
Neste caso, a matriz Hessiana em x∗ é dada por
∂ 2f ∂ 2f
∂x2 ∂x∂y 2 2
[H(x∗ )] = ∂ 2f ∂ 2f = .
∂y∂x ∂y2
2 4
Uma forma de verificar se [H] é positiva definida, consiste em verificar se todos os valores próprios
são estritamente positivos, i.e., se λi > 0, i = 1, n.
o que nos permite concluir que x∗ = (2.5, −1.5) é um mínimo local de f(x).
Capítulo 2
2.1 Introdução
2.1.1 Definição: Ponto regular
Considere o problema de otimização:
min f(x)
tal que
hi (x) = 0, i = 1, l (2.1)
e
gj (x) ≤ 0, j = 1, s̄
24
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 25
abaixo ilustrado:
h(x1 , x2 ) = x1 + x2 − 2 = 0
implica
x2 = 2 − x1 (2.4)
i.e.
x2 = φ (x1 ), φ (x1 ) = 2 − x1 .
Note que
d2 f (x∗1 )
dx21
=4>0 (2.7)
o que assegura, pela condição de suficiência, que x∗1 é mínimo local do problema.
Neste caso, a condição necessária de otimalidade estabelece que: Se x∗1 é ponto de mínimo
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 27
de (2.8) então
dfˇ (x1 )
dx1 = 0. (2.9)
x∗1
dfˇ (x1 )
dx1 = df (x1dx
,x2 (x1 ))
1
= ∂f (x 1 ,x2 )
+ ∂f (x1 ,x2 ) dφ(x1 )
∂x1 ∂x2 dx1 (2.10)
em que
x2 = φ (x1 ).
sendo (2.11)
x∗2 = φ (x∗1 ).
Observação:
Como a função φ não é conhecida explicitamente é interessante removê-la desta expressão.
Isto pode ser feito utilizando a restrição de igualdade, isto é, como
obtem-se
∂h(x∗1 ,x∗2 ) ∂h(x∗1 ,x∗2 ) dφ(x∗ )
∂x1 + ∂x2 dx1 =0
i.e.
∂h(x∗ ∗ (2.13)
1 ,x2 )
dφ(x∗ )
dx1 =− ∂x1
∂h(x∗ ∗ .
1 ,x2 )
∂x2
∂h(x∗ ∗
1 ,x2 )
∂f (x1 ,x2 ) ∂f (x1 ,x2 )
∂x1 − ∂x2
∂x1
∂h(x∗ ∗ = 0. (2.14)
(x∗1 ,x∗2 ) (x∗1 ,x∗2 ) 1 ,x2 )
∂x2
Definindo
∂f (x∗ ∗
1 ,x2 )
v∗ =− ∂x2
∂h(x∗ ∗ (2.15)
1 ,x2 )
∂x2
deriva-se
∂f (x∗1 ,x∗2 ) ∂h(x∗1 ,x∗2 )
+ v∗ = 0. (2.16)
∂x1 ∂x1
De (2.15) tem-se
∂f (x∗1 ,x∗2 ) ∂h(x∗1 ,x∗2 )
+ v∗ = 0. (2.17)
∂x2 ∂x2
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 28
Note que: as duas últimas equações acima juntamente com a equação de igualdade h(x∗1 , x∗2 ) =
0 nos dá a condição necessária de otimalidade em um ponto regular x∗ . O campo escalar v ∗ é
denominado de multiplicador de Lagrange, associado à restrição h(x) = 0. Retornando ao
exemplo anterior derivamos o seguinte sistema de equações
o qual pode ser resolvido de modo a obter-se (x∗1 , x∗2 ) e v ∗ . De fato, o sistema de equações
2 (x∗1 − 1.5) + v ∗ = 0
min f(x)
tal que: (2.20)
h(x) = 0.
Note que se (x∗ , v ∗ ) é solução de (2.3) então (x∗ , v∗ ) é ponto de estacionaridade de L(x, v).
Consequentemente,
∂L(x∗ ,v∗ ) (x∗ ) ∗)
∂x = ∂f∂x + v ∗ ∂h(x
∂x =0
e (2.22)
∂L(x∗ ,v∗ )
∂v = h(x∗ ) = 0
i.e.
∇x f (x∗ ) + v ∗ ∇x h(x∗ ) = 0
e (2.23)
h(x∗ ) = 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 29
Interpretação geométrica
Considere o problema
A condição necessária de otimalidade para que (x∗1 , x∗2 ) seja mínimo local de (2.23) é que existe
v ∗ ∈ R tal que
−∇x f(x∗ ) = v ∗ ∇xh(x∗ ),
i.e., que os vetore
(2.25)
∇x f(x∗ ) e ∇xh(x∗ )
são colineares.
Esta condição de otimalidade, em (x∗1 , x∗2 ) = (1, 1), está ilustrada na seguinte Figura
, o vetor −∇x f(x∗ ) não é colinear com o vetor ∇x h(x∗ ). Podemos verificar graficamente, neste
caso, que xa não satisfaz a condição necessaria de otimalidade. Logo, xa não é mínimo local de
(2.24).
Observação:
(i) Em problemas estruturais, o multiplicador de Lagrange para uma restrição pode ser inter-
pretado como sendo a força necessária exercida pelo suporte para a imposição da restrição.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 30
{h(x) = 0} ⇔ h̃(x) = 0
na qual (2.26)
h̃(x) = −h(x)
min f(x)
tal que (2.29)
hi (x) = 0, i = 1, l.
l
∇x f(x∗ ) + vi∗ ∇x hi (x∗ ) = 0
i=1 (2.30)
e
hi (x∗ ) = 0, i = 1, l.
Note que:
l
L(x, v) = f (x) + vi hi (x) = f (x) + v, h(x) (2.31)
i=1
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 31
(ii) Se (x∗ , v ∗ ) é solução de (2.29) então (x∗ , v∗ ) é ponto de estacionariedade de L(x, v), i.e.,
∂L(x,v)
∂xi = 0 para i = 1, n
(x∗ ,v∗ )
e (2.32)
∂L(x,v)
∂ν j = 0 para j = 1, l.
(x∗ ,v∗ )
i.e.
l
∗
∇x f(x ) + vi∗ ∇x hi (x∗ ) = 0
i=1 (2.33)
e
hi (x∗ ) = 0, i = 1, l.
l
∗
(iii) A condição ∇x f(x ) + vi∗ ∇x hi (x∗ ) = 0 pode ser expressa como:
i=1
l
∗
−∇x f(x ) = vi∗ ∇xhi (x∗ ),
i=1
i.e., que o vetor
−∇x f(x∗ )
pertence ao subespaço linear
span {∇x hi (x∗ ), i = 1, l}
(2.34)
Como x∗ é ponto regular, o conjunto
{∇x hi (x∗ ), i = 1, l} é linearmente independente.
Logo
−∇x f(x∗ ) ∈ span {∇x hi (x∗ ), i = 1, l}
e
dim{∇x hi (x∗ ), i = 1, l} = l.
2.2.2 Exemplo
Minimização do custo de fabricação de um reservatório cilíndrico em que a função objetivo é o
custo associado ao volume do material (chapa metálica) utilizado na sua fabricação. considere
que o reservatório tem como função o aramzenamento de um volume de líquido V̄0 . Considere
como variáveis de projeto o raio do reservatório R e o seu comprimento L. A chapa metálica
tem espessura to . Definindo
(x1 , x2 ) = (R, L)
∇x f (x∗ ) + v ∗ ∇x h(x∗ ) = 0
e (2.37)
h(x∗ ) = 0, i = 1, l
ou, de forma alternativa, se (x∗ , v ∗ ) é solução de (2.35), então (x∗ , v ∗ ) é ponto de estacionaridade
de L(x, v), i.e.,
∂L(x,v)
∂x1 =0
(x ,v )
∗ ∗
∂L(x,v)
∂x2 =0 (2.38)
(x∗ ,v∗ )
e
∂L(x,v)
∂ν = 0.
(x∗ ,v∗ )
o que implica em
4πto x∗1 + 2πto x∗2 + 2πv ∗ x∗1 x∗2 = 0
e (2.40)
x∗2 V̄0
x∗1 = 2 = 2
2π (x∗1 )
i.e.
(x∗1 )3 = V̄0
2π
Consequentemente
V̄0
x∗1 = 3
2π
V̄0
L∗ = 2 3 2π (2.41)
e
2t0
v∗ = − 3 V̄0
.
2π
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 33
min f(x)
x∈S
em que (2.42)
n
S = { x ∈ R | hi (x) = 0, i = 1, l}.
l
L(x, v) = f(x) + vi hi (x) = f(x) + v, h(x) . (2.43)
i=1
• Da desigualdade
L (x∗ , ν ∗ ) ≤ L (x, ν ∗ ), ∀x ∈ Rn (2.45)
Determinar x∗ ∈ Rn solução de
(2.47)
minn L (x, ν ∗ ).
∀x∈R
l
∇x L (x, ν ∗ )|x∗ = ∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) = 0. (2.48)
i=1
• Da desigualdade
L (x∗ , ν) ≤ L (x∗ , ν ∗ ), ν ∈ Rl (2.49)
Determinar ν ∗ ∈ Rl solução de
(2.51)
max L (x, ν ∗ ).
∀ν∈Rl
∂L(x,ν ∗ )
∂ν j = hj (x∗ ) = 0, para j = 1, ..l. (2.52)
ν∗
Dos resultados de (2.48) e (2.52), pode-se concluir que (x∗ , ν ∗ ) satisfaz as condições
necessárias de otimalidade de (2.42), dadas por
l
∇x f(x∗ ) + vi∗ ∇x hi (x∗ ) = 0
i=1 (2.53)
e
hi (x∗ ) = 0, i = 1, l.
L (x∗ , ν ∗ ) ≤ L (x, ν ∗ ), ∀x ∈ Rn
sendo
L(x∗ , ν ∗ ) = f(x∗ ) + ν ∗ , h(x∗ ) (2.54)
e
L(x, ν ∗ ) = f(x) + ν ∗ , h(x) .
o que acarreta em
f(x∗ ) ≤ f(x), ∀x ∈ S
em que (2.57)
S = { x ∈ Rn | hi (x) = 0, i = 1, l}
min f (x)
x∈S
em que (2.59)
S = {x ∈ Rn | gj (x) ≤ 0, j = 1, s̄}.
min f (x)
x∈S
em que (2.61)
S= x ∈ Rn | gj (x) + (sj )2 = 0, j = 1, s̄ ,
Por conveniência, reformularemos o problema (2.61) com a introdução de uma nova variável,
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 36
min F (y)
sujeito às restrições
Hj (y) = 0, j = 1, s̄
em que
y = (x, s) ∈ Rn+s̄ (2.64)
F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.
s̄
L̆ (y, µ) = F (y) + µj Hj (y) (2.65)
j=1
L̆ (y ∗ , µ) ≤ L̆ (y ∗ , µ∗ ) ≤ L̆ (y, µ∗ ),
∀y ∈ Rn+s̄
(2.66)
e
µ ∈ Rl , µ ≥ 0, i.e. µj ≥ 0, j = 1, s̄.
• Da desigualdade
L̆ (y ∗ , µ∗ ) ≤ L̆ (y, µ∗ ), ∀y ∈ Rn+s̄ (2.67)
∇y L̆ (y, µ∗ ) = 0, i.e.,
y∗
∂ L̆(y,µ∗ )
∂yi = 0, i = 1, n + s̄ e y = (x, s)
y∗
a qual é equivalente às condições
∂ L̆(y,µ∗ )
∂xi = 0, i = 1, n (2.70)
y∗
e
∂ L̆(y,µ∗ )
∂sr = 0, r = 1, s̄.
y∗
Porém,
s̄
∂ L̆(y,µ∗ ) ∂f (x) ∂gj (x)
∂xi = ∂xi + µ∗j ∂xi =0
j=1
e
s̄
∂ L̆(y,µ∗ ) ∂s
∂si = µ∗j 2sj ∂sji
y∗
j=1
s̄
= µ∗j 2sj δ ij = 2µ∗i si = 0
(2.71)
j=1
sendo
y = (x, s) ∈ Rn+s̄
F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.
Como resultado,
∂ L̆(y,µ∗ )
∂yi = 0, i = 1, n + s̄
y∗
implica em
s̄
∇x f (x∗ ) + µj ∇x gj (x∗ ) = 0 (2.72)
j=1
e
µ∗i si = 0, i = 1, s̄.
i.e.
s̄ s̄
2 2
f (x∗ ) + µj gj (x∗ ) + s∗j ≤ f (x∗ ) + µ∗j gj (x∗ ) + s∗j ,
j=1 j=1 (2.74)
∀µ ∈ Rs̄ , µ ≥ 0,
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 38
i.e.
s̄
2
µj − µ∗j gj (x∗ ) + s∗j ≤ 0, ∀µ ∈ Rs̄ , µj ≥ 0. (2.75)
j=1
µ∗
3. Caso µ∗i > 0 em que consideramos µi = µ∗i ± wo sendo wo = 2i > 0 e as outras
componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso, (2.75) reduz-se à
expressão
Para µ∗i > 0,
±wo gi (x∗ ) + (s∗i )2 ≤ 0
i.e.
wo gi (x∗ ) + (s∗i )2 ≤ 0 e wo gi (x∗ ) + (s∗i )2 ≥ 0
(2.79)
o que acarreta em
µ∗i
wo gi (x∗ ) + (s∗i )2 = 0. Como wo = 2 >0
obtemos
gi (x∗ ) + (s∗i )2 = 0.
Para µ∗i = 0,
wo gi (x∗ ) + (s∗i )2 ≤ 0, ∀wo ≥ 0.
Como resultado, para que o produto acima (2.80)
seja negativo,
gi (x∗ ) + (s∗i )2 ≤ 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 39
o que resulta em
gi (x∗ ) ≤ − (s∗i )2 ⇒ {gi (x∗ ) ≤ 0}
i.e. (2.82)
gi (x∗ ) ≤ 0, i = 1, s̄.
gi (x∗ ) + (s∗i )2 = 0
i.e. (2.83)
(s∗i )2 = −gi (x∗ ).
Dos resultados em (2.72) e levando em conta que o índice i é arbitrário, temos de (2.82
e 2.87) acrescida da condição µ∗i ≥ 0, i = 1, s̄, a condição necessária de Kuhn-Tucker
de (2.59), dada por
s̄
∇x f (x∗ ) + µj ∇x gj (x∗ ) = 0
j=1
(2.88)
e
µ∗i ≥ 0, gi (x∗ ) ≤ 0 e µ∗i gi (x∗ ) = 0, i = 1, s̄.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 40
L̆ (y ∗ , µ∗ ) ≤ L̆ (y, µ∗ ), ∀y ∈ Rn+s̄
sendo
s̄
L̆ (y, µ) = F (y) + µj Hj (y)
j=1
em que
(2.89)
y = (x, s) ∈ Rn+s̄
F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.
Porém,
s̄
2
L̆ (y ∗ , µ∗ ) = f (x∗ ) + µ∗j gj (x∗ ) + s∗j
j=1
= f (x∗ ) (2.90)
já que, de (2.78),
µ∗i gi (x∗ ) + (s∗i )2 = 0.
f(x∗ ) ≤ f(x), ∀x ∈ S
em que (2.94)
S = { x ∈ Rn | gj (x) ≤ 0, j = 1, s̄}.
min f (x)
x∈S
em que (2.95)
S = { x ∈ Rn | hi (x) = 0, i = 1, l, e gj (x) ≤ 0, j = 1, s̄}.
l s̄
∗
∇x f (x ) + ν ∗i ∇x hi ∗
(x ) + µ∗j ∇xgj (x∗ ) = 0;
i=1 j=1
(2.96)
hi (x∗ ) = 0, i = 1, l;
e
gj (x∗ ) ≤ 0, µ∗j ≥ 0, µ∗j gj (x∗ ) = 0, j = 1, s̄.
l
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇x gj (x∗ ) = 0;
i=1 j∈J(x∗ )
(2.98)
hi (x∗ ) = 0, i = 1, l;
e
gj (x∗ ) ≤ 0, µ∗j ≥ 0, µ∗j gj (x∗ ) = 0, j = 1, s̄.
min f (x)
x∈S
em que (2.99)
S = { x ∈ Rn | gj (x) ≤ 0, j = 1, 4}
i.e.
−∇x f (x∗ ) = µ∗j ∇x gj (x∗ )
j∈J (x∗ )
e
g1 (x∗ ) ≤ 0, µ∗1 g1 (x∗ ) = 0 e µ∗1 ≥ 0
(2.101)
g2 (x∗ ) ≤ 0, µ∗2 g2 (x∗ ) = 0 e µ∗2 ≥ 0
A figura acima ilustra o fato do vetor −∇x f (x∗ ) pertencer ao cone formado pelos vetores
∇x g1 (x∗ ) e ∇xg4 (x∗ ), i.e.,
2.6 Exemplos
2.6.1 Problema (1)
Considere o problema 1D ilustrado a seguir
min f (x)
x∈S
em que
f (x) = 31 x3 − 12 (b + c) x2 + bcx + f
(2.105)
sendo 0 < a < b < c < d
e
S = [a, d] ⊂ R.
min f (x)
tal que
g1 (x) = a − x ≤ 0
(2.106)
g2 (x) = x − d ≤ 0
e
f (x) = 31 x3 − 12 (b + c) x2 + bcx + f .
df (x∗ ) (x ∗) (x ∗)
dx + µ∗1 dg1dx + µ∗2 dg2dx =0
Procedimento:
df(x∗ )
dx =0 (2.109)
o que implica em
df (x∗ )
dx = (x∗ )2 − (b + c) x∗ + bc = 0
i.e. (2.110)
(x∗ − b) (x∗ − c) = 0.
As raízes, representando os pontos extremos, são
x∗ = b
e (2.111)
x∗ = c.
d2 f(x∗ )
A condição de suficiência requer a verificação de dx2
o qual é dado por
d2 f (x∗ )
dx2
= 2x∗ − (b + c) = (x∗ − b) + (x∗ − c)
(2.112)
com 0 < a < b < c < d.
Logo,
f(x ) 2 ∗
em x∗ = b temos d dx 2 = (b − c) < 0
∗
logo x = b é um mínimo local
e (2.113)
d2 f(x∗ )
em x∗= c temos = (c − b) > 0
dx2
logo x = c é um máximo local.
∗
(i) Caso x∗ = a
Neste caso temos
g1 (x∗ ) = 0 ⇒ µ∗1 ≥ 0
e (2.114)
g2 (x∗ ) < 0 ⇒ µ∗2 = 0.
df (x∗ ) (x ∗)
dx + µ∗1 dg1dx =0
(2.115)
g1 (x∗ ) = 0, µ∗1 ≥ 0.
i.e.
(x∗ )2 − (b + c) x∗ + bc − µ∗1 = 0
e
a − x∗ = 0 (2.116)
sendo
dg1 (x∗ )
dx = −1
Logo,
x∗ = a
e
µ∗1 = a2 − (b + c) a + bc
(2.117)
= (a − b) (a − c) > 0
já que
0 < a < b < c < d.
Como resultado, verifica-se que x∗ = a satisfaz a condição necessária de Kuhn-Tucker
para mínimo local. Note que para assegurar que x∗ = a é um mínimo local, é
imprescindível verificar a condição de suficiência.
(ii) Caso Caso x∗ = d
Neste caso temos
g1 (x∗ ) < 0 ⇒ µ∗1 = 0
e (2.118)
g2 (x∗ ) = 0 ⇒ µ∗2 ≥ 0.
Consequentemente, (2.107) reduz-se à expressão
df (x∗ ) (x ∗)
dx + µ∗2 dg2dx =0
e (2.119)
g2 (x∗ ) = 0, µ∗2 ≥ 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 47
i.e.
(x∗ )2 − (b + c) x∗ + bc + µ∗2 = 0
e
x∗ − d = 0 (2.120)
sendo
dg2 (x∗ )
dx =1
Logo,
x∗ = d
e
!
µ∗2 = − d2 − (b + c) d + bc
(2.121)
= − (d − b) (d − c) < 0
já que
0 < a < b < c < d.
Como resultado, verifica-se que x∗ = d não satisfaz a condição necessária de Kuhn-
Tucker para mínimo local.
∇x f (x∗ ) + µ∗ ∇x g (x∗ ) = 0;
e (2.124)
g (x∗ ) ≤ 0, µ∗ ≥ 0, µ∗ g (x∗ ) = 0.
Procedimento:
• Verificação de pontos interiores extremos, i.e., x∗ ∈ int (S), int (S) = { x ∈ Rn | g (x) < 0}.
Neste caso, como os pontos são interiores,
∇x f (x∗ ) = 0 (2.126)
o que implica em
2x∗1 − 3x∗2 = 0
e (2.127)
2x∗2 − 3x∗1 = 0
cujos pontos extremos satisfazem
2 −3 x∗1 0
=
−3 2 x∗2 0
i.e., como a matriz é invertível, (2.128)
−1
x∗1 2 −3 0 0
= = .
x∗2 −3 2 0 0
(2.129)
" 2 # 2 −3
∇x f (x) = = cte.
−3 2
Os valores próprios de
" 2 # 2 −3
∇x f (x) =
−3 2
(2.130)
são
λH
1 (x) = 5 e λH
2 (x) = −1.
mínimo de (2.122).
∇x f (x∗ ) + µ∗ ∇x g (x∗ ) = 0;
e
g (x∗ ) = 0, µ∗ ≥ 0
sendo
(2.132)
g (x1 , x2 ) = x21 + x22 − 6
e
∂g
2x1
∇x g (x∗ ) = ∂x1
∂g =
∂x2 2x2
o que implica em
2x∗1 (1 + µ∗ ) − 3x∗2 = 0
e (2.133)
2x∗2 (1 + µ∗ ) − 3x∗1 = 0
i.e.
2 (1 + µ∗ ) −3 x∗1 0
∗
= . (2.134)
−3 2 (1 + µ ) x∗2 0
Veja que para termos solução não nula, i.e. x∗ ∈ ∂S, é imprescindível que
2 (1 + µ∗ ) −3
p (µ∗ ) = det =0
−3 2 (1 + µ∗ )
(2.135)
i.e.
p (µ∗ ) = 4 (1 + µ∗ )2 − 9 = 0
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 50
Como resultado
(1 + µ∗ )2 = 94
i.e
(1 + µ∗ ) = ± 23
(2.136)
i.e.
− 52
µ∗ = − 22 ± 3
2 = 1
.
2
1
Desta forma, substituindo µ∗ = 2 em
2x∗1 (1 + µ∗ ) − 3x∗2 = 0
i.e.
2x∗1 32 = 3x∗2 (2.137)
i.e.
x∗1 = x∗2
e substituindo na equação
Note que para assegurar que são mínimos locais é novamente imprescindível a verificação
da condição de suficiência.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 51
g2 (x) = −x2 ≤ 0
e
g3 (x) = 2x1 + 5x2 − 1 ≤ 0
i.e.
min f (x1 , x2 ) = (x1 − 3)2 + (x2 − 1)2
tal que
g1 (x1 , x2 ) = −x1 ≤ 0
(2.141)
g2 (x1 , x2 ) = −x2 ≤ 0
e
g3 (x1 , x2 ) = 2x1 + 5x2 − 1 ≤ 0
ilustrado abaixo.
Procedimento:
• Verificação de pontos interiores extremos, i.e., x∗ ∈ int (S), int (S) = {x ∈ Rn | gj (x) < 0, j = 1, 3}.
Neste caso, como os pontos são interiores,
∇x f (x∗ ) = 0 (2.144)
que implica em
f (x) = (x1 − 3)2 + (x2 − 1)2
e
∂f (x∗ )
∗ ∂x1 2 (x∗1 − 3)
∇x f (x ) = ∂f (x∗ ) = =0
∂x2 2 (x∗2 − 1) (2.145)
i.e.
x∗1 3
x∗ = = ∈
/ int (S).
x∗2 1
Logo, podemos concluir que não existe x∗ ∈ int (S) que satisfaz a condição necessária de
otimalidade.
g1 (x∗ ) = 0, e µ∗1 ≥ 0
(2.146)
∗
g2 (x ) = 0, e µ∗2 ≥0
e consequentemente
g3 (x∗ ) < 0 ⇒ µ∗3 = 0. (2.147)
g2 (x∗ ) = 0, e µ∗2 ≥ 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 53
Porém,
∂g1 (x∗ )
−1
∇x g1 (x∗ ) = ∂x1
∂g1 (x∗ ) =
∂x2 0
e (2.149)
∂g2 (x∗ )
0
∇x g2 (x∗ ) = ∂x1
∂g2 (x∗ ) =
∂x2 −1
o que acarreta em
2 (x∗1 − 3) −1 0 0
+ µ∗1 + µ∗2 =
2 (x∗2 − 1) 0 −1 0
i.e.
−1 0 µ∗1 6
=
0 −1 µ∗2 2 (2.150)
g1 (x∗ ) = 0 ⇒ x∗1 = 0
e
g2 (x∗ ) = 0 ⇒ x∗2 = 0.
µ∗1 = −6
e (2.151)
µ∗2 = −2.
O que nos permite concluir que o vértice x∗ = 0 não satisfaz a condição necessária de
−1 0
Kuhn-Tucker. Note que os vetores {∇x g1 (x∗ ) , ∇x g2 (x∗ )} = ,
0 −1
0
são linearmente independentes, o que mostra que o ponto x∗ = é regular.
0
1
(ii) Considere o vértice x∗ = 2
. Neste caso, as restrições ativas são:
0
g2 (x∗ ) = 0, e µ∗2 ≥ 0
(2.152)
g3 (x∗ ) = 0, e µ∗3 ≥0
e consequentemente
g1 (x∗ ) < 0 ⇒ µ∗1 = 0. (2.153)
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 54
g3 (x∗ ) = 0, e µ∗3 ≥ 0.
Porém,
∂g2 (x∗ )
∗ ∂x1 0
∇x g2 (x ) = ∂g2 (x∗ ) =
∂x2 −1
e
∂g2 (x∗ )
2 (2.155)
∇x g3 (x∗ ) = ∂x1
∂g2 (x∗ ) =
∂x2 5
sendo
g3 (x1 , x2 ) = 2x1 + 5x2 − 1
o que acarreta em
2 (x∗1 − 3) 0 2 0
∗
+ µ∗2 + µ∗3 =
2 (x2 − 1) −1 5 0
i.e.
0 2 µ∗2 5
=
−1 5 µ3∗ 2 (2.156)
g2 (x∗ ) = 0 ⇒ x∗2 = 0
e
g3 (x∗ ) = 2x∗1 + 5x∗2 − 1 = 0 ⇒ x∗1 = 21 .
1
O que nos permite concluir que o vértice x∗ = 2 satisfaz a condição necessária
0
0 2
de Kuhn-Tucker. Note que os vetores {∇x g2 (x∗ ) , ∇x g3 (x∗ )} = ,
−1 5
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 55
1
são linearmente independentes, o que mostra que o ponto x∗ = 2 é regular.
0
0
(iii) Considere o vértice x∗ = 1
. Neste caso, as restrições ativas são:
5
g1 (x∗ ) = 0, e µ∗1 ≥ 0
(2.158)
∗
g3 (x ) = 0, e µ∗3 ≥0
e consequentemente
g2 (x∗ ) < 0 ⇒ µ∗2 = 0. (2.159)
g3 (x∗ ) = 0, e µ∗3 ≥ 0.
Porém,
∂g1 (x∗ )
−1
∇x g1 (x∗ ) = ∂x1
∂g1 (x∗ ) =
∂x2 0
e
∂g2 (x∗ )
2 (2.161)
∇x g3 (x∗ ) = ∂x1
∂g2 (x∗ ) =
∂x2 5
sendo
g3 (x1 , x2 ) = 2x1 + 5x2 − 1
o que acarreta em
2 (x∗1 − 3) −1 2 0
∗
+ µ∗1 + µ∗3 =
2 (x2 − 1) 0 5 0
i.e.
−1 2 µ∗1 6
=
0 5 µ3∗ 8
5
(2.162)
g1 (x∗ ) = 0 ⇒ x∗1 = 0
e
g3 (x∗ ) = 2x∗1 + 5x∗2 − 1 = 0 ⇒ x∗2 = 15 .
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 56
0
O que nos permite concluir que o vértice x∗ = 1
não satisfaz a condição
5
−1 2
necessária de Kuhn-Tucker. Note que os vetores {∇x g1 (x∗ ) , ∇x g3 (x∗ )} = ,
0 5
0
são linearmente independentes, o que mostra que o ponto x∗ = 1
é regular.
5
e consequentemente
g1 (x∗ ) < 0 ⇒ µ∗1 = 0
(2.165)
g3 (x∗ ) <0⇒ µ∗3 = 0.
A condição necessária de otimalidade (2.142) reduz-se à
Porém,
∂g2 (x∗ )
0
∇x g2 (x∗ ) = ∂x1
∂g2 (x∗ ) = (2.167)
∂x2 −1
o que acarreta em
2 (x∗1 − 3) 0 0
+ µ∗2 =
−2 −1 0
i.e.
2 (x∗1 − 3) = 0 ⇒ x∗1 = 3
(2.168)
e
−2 − µ∗2 = 0 ⇒ µ∗2 = −2
sendo
g2 (x∗ ) = 0 ⇒ x∗2 = 0
Como x∗ = (3, 0) ∈ / ∂S[1] , i.e., x∗ não pertence à aresta [1], podemos concluir que não
existe x∗ ∈ ∂S[1] que satisfaz a condição necessária de otimalidade de Kuhn-Tucker.
(ii) Aresta [2] ≡ ∂S[2]
Neste caso, a restrição ativa é:
e consequentemente
g1 (x∗ ) < 0 ⇒ µ∗1 = 0
(2.170)
g2 (x∗ ) <0⇒ µ∗2 = 0.
Porém,
∂g3 (x∗ )
∗ 2
∇x g3 (x ) = ∂x1
∂g3 (x∗ ) = (2.172)
∂x2 5
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 58
o que acarreta em
2 (x∗1 − 3) 2 0
∗
+ µ∗3 =
2 (x2 − 1) 5 0
i.e.
{2 (x∗1 − 3) + 2µ∗3 = 0} ⇒ {µ∗3 = − (x∗1 − 3)} (2.173)
!
{2 (x∗2 − 1) + 5µ∗3 = 0} ⇒ µ∗3 = − 52 (x∗2 − 1)
e
g3 (x∗ ) = 0 ⇒ x∗1 = 12 (1 − 5x∗2 ).
5x∗1 − 15 = 2x∗2 − 2
i.e. (2.174)
x∗1 = 15 (2x∗2 + 13)
e
5 (1 − 5x∗2 ) = 2 (2x∗2 + 13)
i.e.
5 − 25x∗2 = 3x∗2 + 26
28x∗2 = −21
(2.175)
i.e.
x∗2 = −21
28
e
x∗1 = 51 2 × −21
28 + 13 = 10
23
23 −21
Como x∗ = 10 , 28 ∈ / ∂S[2], i.e., x∗ não pertence à aresta [2], podemos concluir
que não existe x∗ ∈ ∂S[2] que satisfaz a condição necessária de otimalidade de Kuhn-
Tucker.
(iii) Aresta [3] ≡ ∂S[3]
Neste caso, a restrição ativa é:
e consequentemente
g2 (x∗ ) < 0 ⇒ µ∗2 = 0
(2.177)
g3 (x∗ ) <0⇒ µ∗3 = 0.
A condição necessária de otimalidade (2.142) reduz-se à
Porém,
∂g1 (x∗ )
−1
∇x g1 (x∗ ) = ∂x1
∂g1 (x∗ ) = (2.179)
∂x2 0
o que acarreta em
−6 −1 0
+ µ∗1 =
2 (x∗2 − 1) 0 0
−6 − µ∗1 = 0 ⇒ µ∗1 = −6
e (2.180)
2 (x∗2 − 1) = 0 ⇒ x∗2 = 1
sendo
g1 (x∗ ) = 0 ⇒ x∗1 = 0.
Como x∗ = (0, 1) ∈ / ∂S[3] , i.e., x∗ não pertence à aresta [3], podemos concluir que não
existe x∗ ∈ ∂S[3] que satisfaz a condição necessária de otimalidade de Kuhn-Tucker.
x (λ) ∈ S, ∀λ ∈ (0, 1)
em que (2.181)
x (λ) = (1 − λ) x1 + λ x2 .
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 60
Note que x (λ), λ ∈ (0, 1), descreve o segmento de reta unindo os pontos x1 e x2 .
Se
f ((1 − λ) x1 + λ x2 ) < (1 − λ) f (x1 ) + λ f (x2 ), ∀λ ∈ (0, 1) (2.183)
Note que:
• H(x) é Positiva semi-definida se e somente se os valores próprios de H(x) são não negativos,
i.e.,
λi (x) ≥ 0, i = 1, n, valores próprios de H(x).
Logo, para i = 1, n, λi (x) são as raízes do
(2.185)
polinômio característico
p (λ(x)) = det [H(x) − λ(x)I] = 0;
i.e.
f (x (λ)) ≤ (1 − λ) f (x∗ ) + λ f (xa ) =
= f (x∗ ) + λ [f (xa ) − f (x∗ )] < f (x∗ ), ∀λ ∈ (0, 1)
já que
[f (xa ) − f (x∗ )] < 0.
Esta relação mostra que x∗ não é um mínimo local, (2.192)
consequencia da desigualdade estrita
f (x (λ)) < f (x∗ ), ∀λ ∈ (0, 1)
e o fato de
lim x (λ) = x∗ e a continuidade de f (x).
λ→1
De (2.188) e (2.192) obtemos uma contradição. Isto implica que a hipótese suposta acima não é
válida. Como resultado, podemos concluir que não existe xa ∈ S tal que f (xa ) < f (x∗ ). Logo,
x∗ ∈ S é mínimo absoluto. Note que x∗ ∈ S pode não ser único.
2.7.5 Definições
Um problema de otimização
min f (x) (2.193)
x∈S
• O conjunto das variáveis de projeto factíveis (ou domínio factível), S, for convexo;
(ii) Se todas as restrições de desigualdade forem convexas, então o conjunto S será convexo.
Note que:
Se as restrições de igualdade não forem lineares então S não será convexo.
l s̄
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇xgj (x∗ ) = 0;
i=1 j=1
(2.196)
hi (x∗ ) = 0, i = 1, l;
e
gj (x∗ ) ≤ 0, µ∗j ≥ 0, µ∗j gj (x∗ ) = 0, j = 1, s̄.
l
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇x gj (x∗ ) = 0;
i=1 j∈J(x∗ )
(2.198)
hi (x∗ ) = 0, i = 1, l;
e
gj (x∗ ) ≤ 0, µ∗j ≥ 0, µ∗j gj (x∗ ) = 0, j = 1, s̄.
gj (x) ≤ 0, j = 1, s̄
substituída por (2.199)
gj (x) + s2j = 0, j = 1, s̄.
l s̄
L (x, ν, µ, s) = f (x) + ν i hi (x) + µj gj (x) + s2j . (2.200)
i=1 j=1
∂L(x,ν,µ,s)
∂xk = 0, k = 1, n;
(x∗ ,ν ∗ ,µ∗ ,s∗ )
∂L(x,ν,µ,s)
∂ν p = 0, p = 1, l;
(x∗ ,ν ∗ ,µ∗ ,s∗ )
(2.201)
∂L(x,ν,µ,s)
∂sr = 0, r = 1, s̄;
(x∗ ,ν ∗ ,µ∗ ,s∗ )
e
∂L(x,ν,µ,s)
∂µr = 0, r = 1, s̄.
(x∗ ,ν ∗ ,µ∗ ,s∗ )
• Como
l s
∂L (x, ν, µ, s) ∂f (x) ∂hi (x) ∂gj (x)
= + νi + µj (2.202)
∂xk ∂xk ∂xk ∂xk
i=1 j=1
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 64
temos que
∂L(x,ν,µ,s)
∂xk = 0, k = 1, n (2.203)
(x∗ ,ν ∗ ,µ∗ ,s∗ )
o que implica em
l
∗
∇x f (x ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇x gj (x∗ ) = 0. (2.204)
i=1 j∈J (x∗ )
• Como
l
∂L (x, ν, µ, s) ∂ν i
= hi (x) (2.205)
∂ν p ∂ν p
i=1
l
= δip hi (x)
i=1
= hp (x)
temos que
hi (x∗ ) = 0, i = 1, l. (2.206)
• Como,
s̄
∂L (x, ν, µ, s) ∂sj
= µj 2sj (2.207)
∂sr ∂sr
j=1
s̄
= 2 µj sj δ jr
j=1
= 2µr sr
temos que
∂L(x,ν,µ,s)
∂sr =0
(x∗ ,ν ∗ ,µ∗ ,s∗ )
o que implica em (2.208)
µ∗r s∗r = 0, r = 1, s̄.
• Como,
s̄
∂L (x, ν, µ, s) ∂µj
= gj (x) + s2j (2.209)
∂µr ∂µr
j=1
s̄
= δ jr c
j=1
= gr (x) + s2r
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 65
temos que
∂L(x,ν,µ,s)
∂µr =0
(x∗ ,ν ∗ ,µ∗ ,s∗ )
o que implica em (2.210)
gr (x∗ ) + (s∗r )2 = 0, r = 1, s̄.
Note que, as variáveis de folga em (2.208) e (2.210) podem ser removidas observando-se
que
gr (x∗ ) + (s∗r )2 = 0, r = 1, s̄ (2.211)
acarreta em
gr (x∗ ) = − (s∗r )2 ≤ 0, r = 1, s̄ (2.212)
i.e.
gr (x∗ ) ≤ 0, r = 1, s̄. (2.213)
Observando-se que
{µ∗r s∗r = 0} ⇔ µ∗r (s∗r )2 = 0 (2.214)
l
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇x gj (x∗ ) = 0
i=1 j∈J(x∗ )
(2.216)
hi (x∗ ) = 0, i = 1, l
e
gj (x∗ ) ≤ 0, µ∗j gj (x∗ ) = 0, r = 1, s̄.
l
∗
∇x f (x ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇x gj (x∗ ) = 0
i=1 j∈J (x∗ )
(2.217)
hi (x∗ ) = 0, i = 1, l
e
gj (x∗ ) ≤ 0, µ∗j gj (x∗ ) = 0, µ∗j ≥ 0, r = 1, s̄.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 66
Este resultado demonstra que o artifício da introdução da variável de folga s não nos leva
à determinação da condição necessária de otimalidade de Kuhn-Tucker. Porém, ao se adicionar
a condição extra µ∗ ≥ 0, i.e., µ∗j ≥ 0, r = 1, s̄, obtemos finalmente a condição necessária de
otimalidade de Kuhn-Tucker associada ao problema (P1). Isto significa que a prova matemática
da condição necessária de Kuhn-Tucker associada ao problema (P1) é mais elaborada.
Note que NT (x∗ ) é uma variedade linear. O subespaço linear associado à NT (x∗ ), dito espaço
tangente associado às restrições ativas em x∗ , é dado por
Desta forma, as direções d ∈ Rn a serem utilizadas na condição necessária de segunda ordem são
elementos de N (x∗ ), definido como sendo o espaço linear associado ao plano tangente formado
pelo conjunto das restrições ativas em x∗ .
Teorema:
Seja x∗ ∈ S, ponto regular, o qual x∗ satisfaz a condição necessária de otimalidade de
Kuhn-Tucker (primeira ordem). Seja ∇2x L (x, ν, µ) a Hessiana da função Lagrangeana,
l s̄
L (x, ν, µ) = f (x) + ν i hi (x) + µj gj (x), (2.220)
i=1 j=1
determinada em x∗ , i.e.,
l
∇2x L (x∗ , ν ∗ , µ∗ ) = ∇2x f ∗
(x ) + ν ∗i ∇2x hi (x∗ ) + µ∗j ∇2x gj (x∗ ). (2.221)
i=1 j∈J(x∗ )
Considere o conjunto das direções factíveis d ∈ N (x∗ ), definido como sendo o espaço linear
associado ao plano tangente formado pelo conjunto das restrições ativas em x∗ e suponha que
N (x∗ ) seja não vazio, i.e., N (x∗ ) = ∅. O teorema estabelece que: se x∗ é mínimo local de (P1),
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 67
então " #
Q = d, ∇2x L (x∗ , ν ∗ , µ∗ ) d ≥ 0, ∀d ∈ N (x∗ )
i.e.
" 2 # (2.222)
∇x L (x∗ , ν ∗ , µ∗ ) é positivo semi-definido quando
restrito ao subespaço N (x∗ ), N (x∗ ) ⊂ Rn .
l
L (x, ν, µ) = f (x) + ν i hi (x) + µj gj (x), (2.225)
i=1 j∈J(x∗ )
determinada em x∗ , i.e.,
l
∇2x L (x∗ , ν ∗ , µ∗ ) = ∇2x f (x∗ ) + ν ∗i ∇2x hi (x∗ ) + µ∗j ∇2x gj (x∗ ). (2.226)
i=1 j∈J(x∗ )
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 68
e suponha que C (x∗ ) seja não vazio, i.e., C (x∗ ) = ∅. O teorema estabelece que: Se
" #
Q̌ = d, ∇2x L (x∗ , ν ∗ , µ∗ ) d > 0, ∀d = 0, d ∈ C (x∗ )
i.e.
" 2 # (2.228)
∇x L (x∗ , ν ∗ , µ∗ ) é positiva definida quando
restrita ao conjunto (cone) C (x∗ ), C (x∗ ) ⊂ Rn
l
L (x, ν, µ) = f (x) + ν i hi (x) + µj gj (x), (2.230)
i=1 j∈J(x∗ )
determinada em x∗ , i.e.,
l
∇2x L (x∗ , ν ∗ , µ∗ ) = ∇2x f (x∗ ) + ν ∗i ∇2x hi (x∗ ) + µ∗j ∇2x gj (x∗ ). (2.231)
i=1 j∈J(x∗ )
" #
O teorema estabelece que: Se ∇2x L (x∗ , ν ∗ , µ∗ ) for positiva definida, então x∗ será mínimo local
isolado de (P1).
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 69
2.9.4 Observação
Um caso particular que pode ocorrer é termos x∗ ∈ S ⊂ Rn , ponto regular, o qual possue n
restrições ativas em x∗ , i.e.,
hi (x∗ ) = 0, i = 1, l
e
(2.232)
gj (x∗ ) = 0, j ∈ J (x∗ ), com µ∗j > 0,
em que J (x∗ ) têm (n − l) elementos.
Como resultado, o conjunto C (x∗ ) = 0 , já que, como µ∗j > 0 para j ∈ J (x∗ ), implica em
Veja que o vetor d têm que ser ortogonal a todo o Rn , logo só pode ser o elemento zero.
Adicionalmente,
como µ∗j > 0, j ∈ J (x∗ ),
temos (2.235)
C (x∗ ) = N (x∗ ).
Isto significa que no espaço linear associado ao plano tangente em x∗ , não existe nenhum vetor
não nulo d ∈ N (x∗ ) na direção do qual a função objetivo possa ser reduzida. Como resultado,
o ponto x∗ é um ponto de mínimo local do problema (P1).
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 70
2.9.5 Exemplos
Problema (1)
min f (x)
x∈S
em que
S = { x ∈ Rn | g (x) ≤ 0}
em que (2.236)
f (x) = x21 + x22 − 3x1 x2
e
g (x) = x21 + x22 − 6 ≤ 0
i.e.
min f (x1 , x2 ) = x21 + x22 − 3x1 x2
tal que (2.237)
g (x1 , x2 ) = x21 + x22 − 6 ≤ 0
Verifique a condição de suficiência dos pontos extremos x∗ ∈ ∂S que satisfazem a condição
necessária de Kuhn-Tucker, para mínimo local isolado.
√ √
x∗1 = 3, 3 associado à µ∗ = 12
e (2.238)
√ √
x∗2 = − 3, − 3 associado à µ∗ = 12 .
Procedimento:
Step (1) Vamos inicialmente verificar se o problema de otimização é convexo. Caso seja, usamos
(2.223), o que permite inferir que x∗ é mínimo local isolado. Para tal, é necessário verificar:
∂ 2 g(x∗ ) ∂ 2 g(x∗ )
" 2 # ∂x1 ∂x1 ∂x1 ∂x2 2 0
∇x g (x) = ∂ 2 g(x∗ ) ∂ 2 g(x∗ ) = = cte
0 2
∂x2 ∂x1 ∂x2 ∂x2 (2.239)
e seus valores próprios são
λg1 (x) = 2 > 0 e λg2 (x) = 2 > 0.
Como os valores próprios são maiores do que zero, pode-se, por (1.70), inferir que S
é convexo. Caso S for convexo, verifica-se o próximo ítem.
2. Se f (x) é convexo.
Como f (x) é uma função quadrática, sua Hessiana será constante. Como resultado,
pode-se utilizar (2.184) de modo a verificar se f (x) é convexo. Caso seja, de (2.194),
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 71
∂ 2 f(x∗ ) ∂ 2 f (x∗ )
" 2 # ∂x1 ∂x1 ∂x1 ∂x2 2 −3
∇x f (x) = ∂ 2 f(x∗ ) ∂ 2 f (x∗ )
= = cte
−3 2
∂x2 ∂x1 ∂x2 ∂x2 (2.240)
e seus valores próprios são
λf1 (x) = 5 > 0 e λf2 (x) = −1 < 0.
Como existe um valor próprio negativo, pode-se, por (1.70), inferir que f (x) não
é convexo. Consequentemente, pode-se concluir que (2.236) não é um problema de
otimização convexo.
(2.242)
2 −3 2 0
= +µ .
−3 2 0 2
" 2 # 2 −3 1 2 0
∇x L(x∗ , µ∗ ) = + 2
−3 2 0 2
(2.243)
3 −3
= .
−3 3
" #
Como existe um valor próprio nulo, pode-se, por (1.70), inferir que ∇2x L(x∗ , µ∗ ) não é
positivo definido, e portanto não satisfaz a condição de suficiência forte (x∗ , µ∗ ). Veja que
" 2 #
∇x L(x∗ , µ∗ ) é apenas positivo semidefinido.
sendo
1
com µ∗ = 2 > 0 temos
Desta forma, o conjunto dos vetores d ∈ N (x∗ ) pertencem ao subespaço linear associado
ao plano tangente à curva de nível g (x) = 0 em x∗ . O vetor
d, ∇x g (x∗ ) = 0
i.e.
√ √
2 3d1 + 2 3d2 = 0 (2.250)
i.e.
d1 = −d2 .
Logo,
C (x∗ ) = N (x∗ ) = d ∈ Rn (d1 , d2 ) = α (1, −1) , α ∈ R . (2.251)
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 73
A função quadrática
" # 3 −3 1 1
Q̌ = d, ∇2x L (x∗ , ν ∗ , µ∗ ) d = α2 .
−3 3 −1 −1
(2.252)
6 1
= α2 . = 12α2 > 0, para α = 0.
−6 −1
Consequentemente, de (2.228), pode-se concluir que ambos os pontos extremos são mínimos
locais isolados.
Problema (2)
min f (x)
x∈S
em que
S = { x ∈ Rn | g1 (x) ≤ 0 e g2 (x) ≤ 0}
em que
f (x) = x21 + x22 − 2x1 − 2x2 + 2 (2.253)
g1 (x) = −2x1 − x2 + 4 ≤ 0
e
g2 (x) = −x1 − 2x2 + 4 ≤ 0
i.e.
min f (x1 , x2 ) = x21 + x22 − 2x1 − 2x2 + 2
tal que
g1 (x1 , x2 ) = −2x1 − x2 + 4 ≤ 0 (2.254)
e
g2 (x1 , x2 ) = −x1 − 2x2 + 4 ≤ 0.
O objetivo inicial é determinar os pontos regulares que satisfazem a condição necessária de
otimalidade. Posteriormente, é então verificada a condição de suficiência nestes extremos.
O objetivo consiste em determinar os pontos extremos x∗ que satisfazem a condição necessária
de otimalidade de Kuhn-Tucker.
Seja x∗ ∈ S, ponto regular de S, o qual é mínimo local de (2.253). Sejam f (x), gj (x)
diferenciáveis em x∗ . Então existe um multiplicador de Lagrange µ∗ ∈ R2 tal que
Procedimento:
• Verificação de pontos interiores extremos, i.e., x∗ ∈ int (S), int (S) = {x ∈ Rn | gj (x) < 0, j = 1, 2}.
Neste caso, como os pontos são interiores,
∇x f (x∗ ) = 0 (2.257)
que implica em
f (x) = x21 + x22 − 2x1 − 2x2 + 2
e
∂f(x∗ )
∗ ∂x1 2x∗1 − 2
∇xf (x ) = ∗
∂f(x ) = =0
∂x2 2x∗2 − 2 (2.258)
i.e.
x∗1 1
x∗ = ∗
= ∈/ int (S).
x2 1
Logo, podemos concluir que não existe x∗ ∈ int (S) que satisfaz a condição necessária de
otimalidade.
g1 (x∗ ) = 0, e µ∗1 ≥ 0
(2.259)
g2 (x∗ ) = 0, e µ∗2 ≥ 0
g2 (x∗ ) = 0, e µ∗2 ≥ 0.
Porém,
∂g1 (x∗ )
∗ ∂x1 −2
∇x g1 (x ) = ∂g1 (x∗ ) =
∂x2 −1
e (2.261)
∂g2 (x∗ )
−1
∇x g2 (x∗ ) = ∂x1
∂g2 (x∗ ) =
∂x2 −2
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 75
o que acarreta em
2x∗1 − 2 −2 −1 0
+ µ∗1 + µ∗2 =
2x∗2 − 2 −1 −2 0
i.e.
−2 −1 µ∗1 − 23
=
−1 −2 µ∗2 − 23 (2.262)
g1 (x∗ ) = 0
e
4 4
g2 (x∗ ) = 0 ⇒ x∗ = 3, 3 .
i.e.
2
µ∗1 = 9 >0
e (2.264)
2
µ∗2 = 9 > 0.
O que nos permite concluir que o vértice x∗ = 0 satisfaz a condição necessária de Kuhn-
−2 −1
Tucker. Note que os vetores {∇x g1 (x∗ ) , ∇x g2 (x∗ )} = , são linear-
−1 −2
4
mente independentes, o que mostra que o ponto x∗ = 3
4
é regular.
3
e consequentemente
g1 (x∗ ) < 0 ⇒ µ∗1 = 0 (2.266)
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 76
Porém,
∂g2 (x∗ )
∗ −1
∇x g2 (x ) = ∂x1
∂g2 (x∗ ) = (2.268)
∂x2 −2
o que acarreta em
2x∗1 − 2 −1 0
∗
+ µ∗2 =
2x2 − 2 −2 0
i.e.
{2x∗1 − 2 − µ∗2 = 0} ⇒ {2x∗1 − µ∗2 = 2}
e
{2x∗2 − 2 − 2µ∗2 = 0} ⇒ {x∗1 + 2µ∗2 = 2}
i.e.
2 −1 x∗1 2
∗
= (2.269)
1 2 µ2 2
i.e.
−1
2 1
x∗1 2 −1 2
= , inverse: 5 5 ,
µ∗2 1 2 2 − 15 2
5
2 1 6
5 5 2 5
= =
− 15 2
5 2 2
5
sendo
1 1 6 7
g2 (x∗ ) = 0 ⇒ x∗1 + 2x∗2 = 4 ⇒ x∗2 = 2 (4 − x∗1 ) = 2 4− 5 = 5
e consequentemente
g2 (x∗ ) < 0 ⇒ µ∗2 = 0. (2.271)
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 77
Porém,
∂g1 (x∗ )
∗ −2
∇x g1 (x ) = ∂x1
∂g1 (x∗ ) = (2.273)
∂x2 −1
o que acarreta em
2x∗1 − 2 ∗ −2 0
+ µ1 =
2x∗2 − 2 −1 0
i.e.
{2x∗1 − 2 − 2µ∗1 = 0} ⇒ {x∗2 + 2µ∗1 = 2}
{2x∗2 − 2 − µ∗1 = 0} ⇒ {2x∗2 − µ∗1 = 2}
i.e.
1 2 x∗2 2
∗
=
2 −1 µ1 2 (2.274)
i.e.
−1
1 2
x∗2 1 2 2 5 5
= , inverse: 2
µ∗1 2 −1 2 5 − 15
1 2 6
x∗2 5 5 2 5
= 2
=
µ∗1 5 − 15 2 2
5
e
1 1 6 7
g1 (x∗ ) = 0 ⇒ x∗1 = 2 (4 − x∗2 ) = 2 4− 5 = 5
7 6 2
Como x∗ = 5, 5 ∈ ∂S[2] , i.e., x∗ pertence à aresta [2] e µ∗1 = 5 > 0, podemos
∗ 6 7
concluir que x = 5, 5 ∈ ∂S[2] que satisfaz a condição necessária de otimalidade de
Kuhn-Tucker.
4 2
µ∗1 = >0
x∗1 = 3
4
e 9
2
3 µ∗2 = 9 > 0.
(2.275)
6 7
x∗2 = 5, 5 ∈ ∂S[1] , e µ∗2 = 52 > 0
7 6
x∗3 = 5, 5 ∈ ∂S[2] e µ∗ = 25 > 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 78
Procedimento:
Step (1) Vamos inicialmente verificar se o problema de otimização é convexo. Caso seja, usamos
(2.223), o que permite inferir que x∗i são mínimos locais isolados. Para tal, é necessário
verificar:
∂ 2 g1 (x∗ ) ∂ 2 g1 (x∗ )
" 2 # ∂x1 ∂x1 ∂x1 ∂x2 0 0
∇x g1 (x) = ∂ 2 g1 (x∗ ) ∂ 2 g1 (x∗ ) = = cte
∂x2 ∂x1 ∂x2 ∂x2
0 0
e
∂ 2 g2 (x∗ ) ∂ 2 g2 (x∗ )
" 2 # ∂x1 ∂x1 ∂x1 ∂x2 0 0
∇x g2 (x) = ∂ 2 g2 (x∗ ) ∂ 2 g2 (x∗ ) = = cte
∂x2 ∂x1 ∂x2 ∂x2
0 0 (2.276)
e seus valores próprios são
λg11 (x) = 0 e λg21 (x) = 0
e
λg12 (x) = 0 e λg22 (x) = 0.
Como os valores próprios são maiores ou iguais a zero, pode-se, por (1.70), inferir que
S é convexo. Caso S for convexo, verifica-se o próximo ítem.
2. Se f (x) é convexo.
Como f (x) é uma função quadrática, sua Hessiana será constante. Como resultado,
pode-se utilizar (2.184) de modo a verificar se f (x) é convexo. Caso seja, de (2.194),
pode-se concluir que f (x) : S ⊂ Rn → R é convexo. Note que,
∂ 2 f(x∗ ) ∂ 2 f(x∗ )
" 2 # ∂x1 ∂x1 ∂x1 ∂x2 2 0
∇x f (x) = ∂ 2 f(x∗ ) ∂ 2 f(x∗ ) = = cte
0 2
∂x2 ∂x1 ∂x2 ∂x2 (2.277)
e seus valores próprios são
λf1 (x) = 2 > 0 e λf2 (x) = 2 > 0.
" #
Como ∇2x f (x) é positiva definida, pode-se, por (1.70), inferir que f (x) é con-
vexo. Consequentemente, pode-se concluir que (2.236) é um problema de otimização
convexo. Como resultado, as condições necessárias deKuhn-Tucker são também sufi-
cientes. Logo os pontos extremos
4 2
µ∗1 = >0
x∗1 = 3
4
e 9
2
3 µ∗2 = 9 > 0.
(2.278)
6 7
x∗2 = 5, 5 ∈ ∂S[1] , e µ∗2 = 52 > 0
7 6
x∗3 = 5, 5 ∈ ∂S[2] e µ ∗
= 25 > 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 79
80
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 81
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 82
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 83
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 84
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 85
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 86
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 87
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 88
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 89
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 90
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 91
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 92
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 93
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 94
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 95
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 96
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 97
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 98
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 99
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 100
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 101
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 102
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 103
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 104
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 105
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 106
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 107
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 108
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 109
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 110
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 111
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 112
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 113
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 114
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 115
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 116
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 117
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 118
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 119
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 120
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 121
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 122
Capítulo 4
Seja
x, se x ∈ S
IS (x) = . (4.2)
∞, se x ∈
/S
123
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 124
É importante enfatizar que o problema de otimização (P2) é sem restrição, i.e., é definido em
todo espaço linear Rn . O problema consiste porém na determinação do mínimo local x∗ , já que
a função modificada, fˆ (x), não é contínua. Desta forma, não podemos utilizar algoritmos já
consagrados na literatura para a determinação de um mínimo local de (P1) ≡ (P2). Estes algo-
ritmos clássicos requerem que a função objetivo seja contínua e, na maioria das vezes, requerem
que a função seja diferenciável.
Uma forma de contornar este problema é aplicar um processo de regularização em fˆ (x), ou,
mais precisamente, em IS (x). Um destes métodos de regularização é o método da penalidade
exterior.
O método da penalidade exterior consiste em propor uma função suave ISǫ (x), tal que, no
limite, para ǫ → 0, ISǫ (x) → IS (x). Logo, a função suave ISǫ (x), é tal que
(P3) ≡ min
n
fˆǫ (x)
x∈R
sendo (4.7)
fˆǫ (x) = f (x) + ISǫ (x).
Construção da função suave ISǫ (x) O método da penalidade exterior propôe que
(ii) P (x) = 0, ∀x ∈ S;
/ S e lim P (x) = ∞.
(iii) P (x) > 0, ∀x ∈
x →∞
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 125
x∗ = limx∗ǫ (4.10)
ǫ→0
(P3) ≡ min
n
fˆǫ (x)
x∈R
em que (4.11)
l s̄
fˆǫ (x) = f (x) + 1
ǫ |hi (x)| + gj (x) +
.
i=1 j=1
Note que neste caso a função objetivo modificada é apenas contínua, supondo que f (x), hi (x)
e gj (x) o sejam. Este método de penalidade exterior é normalmente empregado quando na
solução de problemas de otimização (P1) fazendo uso de algoritmos genéticos, por exemplo.
Método da penalidade exterior geral No caso geral, em que se deseja utilizar algorit-
mos de programação matemática, é requerida a diferenciabilidade das funções envolvidas. Desta
forma, é utilizada uma aproximação para IS (x) que seja diferenciável. Neste caso, a função
P (x) proposta na literatura é dada por
l s̄
1 2 1 + 2
P (x) = 2 (hi (x)) + 2 gj (x)
i=1 j=1
na qual (4.12)
gj (x) + = max {0, gj (x)}, é denominada
por parte positiva da função gj (x).
x∗ = limx∗ǫ (4.13)
ǫ→0
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 126
(P3) ≡ min
n
fˆǫ (x)
x∈R
sendo (4.14)
l s̄
+ 2
fˆǫ (x) = f (x) + 1
2ǫ
2
(hi (x)) + gj (x) .
i=1 j=1
Neste caso, a função objetivo modificada é contínua e diferenciável, supondo que f (x) ∈ C 1 (Rn ),
hi (x) ∈ C 1 (Rn ) e gj (x) ∈ C 1 (Rn ).
A condição necessária de otimalidade para x∗ǫ ser ponto extremo de (P3) é dada por
∇x fˆǫ (x∗ǫ ) = 0
em que
l s̄ (4.15)
∇x fˆǫ (x) = ∇x f (x) + 1
ǫ hi (x) ∇x hi (x) + gj (x) + ∇x gj (x) .
i=1 j=1
Neste algoritmo
r = ǫ1r
e
ǫr+1 = ρǫr
(4.16)
para ρ ∈ (0, 1)
i.e.
γ = 1ρ > 1.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 127
O problema com este algoritmo é que para ǫr < ǫcrit é observado problemas de mal condiciona-
mento numérico.
x∗(k) ← x∗(k+1)
e (4.21)
ǫ(k) ← ǫ(k+1)
• Fim de enquanto
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 128
x∗ = limx∗ǫ (4.24)
ǫ→0
Note que
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 129
o que leva a função objetivo, fˆǫ (x), a ser representada pelo gráfico abaixo.
A solução analítica de (P3) pode ser obtida pela imposição da condição necessária de otimali-
dade, i.e.,
dfˆǫ (x∗ǫ )
dx =0
i.e. (4.26)
df(x∗ǫ ) 1 + dg1 (x∗ǫ ) 1 + dg2 (x∗ǫ )
dx + ǫ g1 (x∗ǫ ) dx + ǫ g2 (x∗ǫ ) dx = 0.
Porém,
+ 2 (g1 (x))2 , se g1 (x) ≥ 0
g1 (x) =
0, se g1 (x) < 0
e (4.27)
2
+ 2 (g2 (x)) , se g2 (x) ≥ 0
g2 (x) =
0, se g2 (x) < 0
logo
1 (x)
d + 2 2g1 (x) dgdx , se g1 (x) ≥ 0
dx g1 (x) =
0, se g1 (x) < 0
e (4.28)
dg2 (x)
d
g2 (x) + 2
=
2g2 (x) dx ,
se g2 (x) ≥ 0
dx
0, se g2 (x) < 0
i.e.
d + 2 −2 (1 − x) , se (1 − x) ≥ 0
dx g1 (x) =
0, se (1 − x) < 0
e (4.29)
d + 2 2 (x − 2) , se (x − 2) ≥ 0
dx g2 (x) =
0, se (x − 2) < 0
Logo, temos as seguintes condições:
• Para x ≤ 1 temos
d + 2
dx g1 (x) = −2 (1 − x)
e (4.30)
d + 2
dx g2 (x) =0
o que implica
df(x∗ǫ )
dx =1− 2
2ǫ (1 − x∗ǫ ) = 0 (4.31)
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 130
i.e.
x∗ǫ = 1 − ǫ < 1; (4.32)
logo
df(x∗ǫ )
dx = 1 = 0. (4.34)
df(x∗ǫ )
o que nos permite concluir que não existe x∗ǫ ∈ (1, 2) tal que dx = 0. Consequentemente,
não existe x∗ǫ ∈ (1, 2) que seja mínimo local de (P3);
• Para x ≥ 2 temos
d + 2
dx g1 (x) =0
e (4.35)
d + 2
dx g2 (x) = 2 (x − 2)
logo
df(x∗ǫ )
dx =1+ 2
2ǫ (x∗ǫ − 2) = 0 (4.36)
i.e.
x∗ǫ = (2 − ǫ) < 2
i.e. (4.37)
x∗ǫ ∈/ [2, ∞).
df (x∗ǫ )
Logo não existe x∗ǫ ≥ 2 tal que dx = 0. Consequentemente, não existe mínimo local de
(P3) tal que x∗ǫ ≥ 2.
De todas as possibilidades acima analizadas podemos concluir que o mínimo local de (P3) é
dado por
x∗ǫ = (1 − ǫ). (4.38)
x∗ = limx∗ǫ
ǫ→0
= lim (1 − ǫ) (4.39)
ǫ→0
= 1,
Seja x∗ ∈ S, ponto regular, o qual é mínimo local de (P1). Sejam f (x), hi (x), i = 1, l,
diferenciáveis em x∗ . Então, existe um multiplicador de Lagrange ν ∗ ∈ Rl tal que
l
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) = 0;
i=1 (4.41)
e
hi (x∗ ) = 0, i = 1, l.
l
L (x, ν) = f (x) + ν i hi (x). (4.42)
i=1
Seja x∗ ∈ S, ponto regular, o qual é mínimo local de (P1). Então, existe um multiplicador de
Lagrange ν ∗ ∈ Rl tal que (x∗ , ν ∗ ) é ponto de estacionaridade de L (x, ν), i.e.,
∂L(x,ν)
∂xk = 0, k = 1, n;
(x∗ ,ν ∗ )
(4.43)
∂L(x,ν)
∂ν p = 0, p = 1, l;
(x∗ ,ν ∗ )
• Como
l
∂L (x, ν) ∂f (x) ∂hi (x)
= + νi (4.44)
∂xk ∂xk ∂xk
i=1
temos que
l
∗
∇x f (x ) + ν ∗i ∇x hi (x∗ ) = 0. (4.45)
i=1
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 132
• Em adição, como
l
∂L (x, ν) ∂ν i
= hi (x) (4.46)
∂ν p ∂ν p
i=1
l
= δ ip hi (x)
i=1
= hp (x)
temos que
hi (x∗ ) = 0, i = 1, l. (4.47)
Seja x∗ ∈ S, ponto regular, o qual é mínimo local de (P1). Então, existe um multiplicador de
Lagrange ν ∗ ∈ Rl tal que (x∗ , ν ∗ ) é solução do seguinte problema de ponto de sela, i.e.,
Note que:
• Da desigualdade
L (x∗ , ν ∗ ) ≤ L (x, ν ∗ ), ∀x ∈ Rn (4.49)
Determinar x∗ ∈ Rn solução de
(4.51)
minn L (x, ν ∗ ).
∀x∈R
Neste caso, a condição necessária de otimalidade para x∗ ser mínimo local de (P2) é que
l
∇x L (x, ν ∗ )|x∗ = ∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) = 0. (4.52)
i=1
• Da desigualdade
L (x∗ , ν) ≤ L (x∗ , ν ∗ ), ν ∈ Rl (4.53)
Determinar ν ∗ ∈ Rl solução de
(4.55)
max L (x, ν ∗ ).
∀ν∈Rl
Neste caso, a condição necessária de otimalidade para ν ∗ ser máximo local de (P3) é que
∂L(x,ν ∗ )
∂ν j = hj (x∗ ) = 0, para j = 1, ..l. (4.56)
ν∗
pode ser reformulado como um problema de otimização sem restrição, formulado como:
Determine x∗ ∈ Rn solução de
minn L (x, ν ∗ )
∀x∈R
na qual (4.59)
l
L (x, ν ∗ ) = f (x) + ν ∗i hi (x).
i=1
Determine x∗ ∈ Rn solução de
min L x, ν (k)
sujeito às restrições
hi (x) = 0, i = 1, ...l (4.60)
em que
l
(k) (k)
L x, ν = f (x) + νi hi (x).
i=1
Note que, sem perda de generalidade, podemos definir a função Lagrangeana Aumentada, através
da aplicação do método de penalidade exterior. Neste caso, o problema pode ser expresso como
sendo um problema de otimização sem restrição, formulado como:
Determine x∗ ∈ Rn
(4.61)
minn χ x, ν (k) , ǫ(k)
∀x∈R
em que
x∗(k) = x∗ ν (k), ǫ(k)
e
l l
(k)
χ x, ν (k)
,ǫ (k)
= f (x) + ν i hi (x) + 1
2ǫ(k)
(hi (x))2 .
i=1 i=1
O objetivo consiste em resolver o problem (P1) de forma iterativa, através da solução de uma
sequência de problemas de otimização sem restrição. Para tal objetivo, é necessário definir-
mos regras para a atualização das variáveis ν (k) , ǫ(k) de modo que, no limite, para k → ∞,
tenhamos um algoritmo convergente, i.e., x∗(k) → x∗ .
No caso do multiplicador de Lagrange, é adotada uma estratégia distinta. Neste caso, determi-
namos inicialmente a condição necessária de otimalidade do problema formulado em (4.61).
A condição necessária de otimalidade para x∗(k) ∈ Rn ser mínimo local é que
∇x χ x, ν (k), ǫ(k) =0
x∗(k)
i.e.
l
(4.63)
(k) 1
∇x f x∗(k) + νi + h
ǫ(k) i
x∗(k) ∇x hi x∗(k) = 0.
i=1
l
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) = 0. (4.64)
i=1
(k) 1
lim νi + h
ǫ(k) i
x∗(k) = ν ∗i (4.65)
k→∞
(k+1) (k)
νi = νi + 1
h
ǫ(k) i
x∗(k) . (4.66)
(k+1) (k) 1
νi = νi + h
ǫ(k) i
x∗(k)
e
ρǫ(k) , se ρǫ(k) ≤ ǫcrit
ǫ(k+1) = (4.69)
ǫcrit , se ρǫ(k) > ǫcrit
em que
ρ ∈ (0, 1), exemplo, ρ = 0.2.
ou (4.70)
(k+1) (k)
ν −ν
erro =
max{1, ν (k) }
ν (k) ← ν (k+1)
e (4.71)
ǫ(k) ← ǫ(k+1)
• Fim de enquanto
Seja x∗ ∈ S, ponto regular, o qual é mínimo local de (P1). Sejam f (x), gj (x), j = 1, s̄,
diferenciáveis em x∗ . Então, existe um multiplicador de Lagrange µ∗ ∈ Rs̄ , µ∗ ≥ 0, i.e., µ∗j ≥ 0,
j = 1, s̄, tal que
s̄
∗
∇x f (x ) + µ∗j ∇x gj (x∗ ) = 0;
j=1
(4.73)
e
gj (x) ≤ 0, µ∗j ≥ 0 e µ∗j gj (x) = 0, j = 1, s̄.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 137
s̄
L (x, µ) = f (x) + µj gj (x). (4.74)
j=1
Seja x∗ ∈ S, ponto regular, o qual é mínimo local de (P1). Sejam f (x), gj (x), j = 1, s̄,
diferenciáveis em x∗ . Então, existe um multiplicador de Lagrange µ∗ ∈ Rs̄ , µ∗ ≥ 0, i.e., µ∗j ≥ 0,
j = 1, s̄, tal que (x∗ , µ∗ ), µ∗ ≥ 0, é solução do problema de ponto de sela:
Problema (P2):
L (x∗ , µ) ≤ L (x∗ , µ∗ ) ≤ L (x, µ∗ ), ∀x ∈ Rn e (4.75)
∀µ ∈ Rs̄ , µ ≥ 0, i.e., µj ≥ 0, j = 1, s̄.
Note que:
• Da inequação
L (x∗ , µ∗ ) ≤ L (x, µ∗ ), ∀x ∈ Rn (4.76)
temos
x∗ = arg minn L (x, µ∗ )
∀x∈R
i.e.
(4.77)
x∗ é solução do problema sem restrição:
minn L (x, µ∗ ).
∀x∈R
• Da inequação, para µ∗ ≥ 0,
temos
Para µ∗ ≥ 0,
s̄ s̄
f (x∗ ) + µj gj (x∗ ) ≤ f (x∗ ) + µ∗j gj (x∗ ) (4.80)
j=1 j=1
∀µj ≥ 0, j = 1, s̄.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 138
i.e.
Para µ∗ ≥ 0,
s̄
µj − µ∗j gj (x∗ ) ≤ 0 (4.81)
j=1
∀µj ≥ 0, j = 1, s̄.
Como (4.81) vale para todo ∀µj ≥ 0, j = 1, s̄, vale para:
µ∗
3. Caso µ∗i > 0 em que consideramos µi = µ∗i ± wo sendo wo = 2i > 0 e as outras
componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso, (4.81) reduz-se à
expressão
Para µ∗i > 0,
±wo gi (x∗ ) ≤ 0
i.e.
wo gi (x∗ ) ≤ 0 e wo gi (x∗ ) ≥ 0
(4.85)
o que acarreta em
µ∗
wo gi (x∗ ) = 0. Como wo = 2i > 0
obtemos que
gi (x∗ ) = 0.
Para µ∗i = 0,
wo gi (x∗ ) ≤ 0, ∀wo ≥ 0.
Como resultado, para que o produto acima (4.86)
seja negativo,
gi (x∗ ) ≤ 0.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 139
gi (x∗ ) ≤ 0. (4.87)
Dos resultados em (4.78) e levando em conta que o índice i é arbitrário, temos de (4.84 e
4.87) acrescida da condição µ∗i ≥ 0, i = 1, s̄, a condição necessária de Kuhn-Tucker, dada por
s̄
∇x f (x∗ ) + µ∗j ∇x gj (x∗ ) = 0
j=1
(4.88)
e
µ∗i ≥ 0, gi (x∗ ) ≤ 0 e µ∗i gi (x∗ ) = 0, i = 1, s̄.
i.e.
Problema (P3)
min f (x)
(4.91)
tal que
gj (x) + (sj )2 = 0, j = 1, s̄;
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 140
Problema (P3)
min F (y)
sujeito às restrições
Hj (y) = 0, j = 1, s̄
em que
(4.92)
y = (x, s) ∈ Rn+s̄
F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.
o problema de ponto de sela (P4) pode ser formulado como: Determine (y ∗ , µ∗ ) ∈ Rn+s̄ ×
Rs̄ , em que impomos a restrição, µ∗ ≥ 0, solução de
Problema (P4):
χ (y ∗ , µ) ≤ χ (y ∗ , µ∗ ) ≤ χ (y, µ∗ ), ∀y ∈ Rn+s̄ e (4.94)
∀µ ∈ Rs̄ , µ ≥ 0, i.e., µj ≥ 0, j = 1, s̄,
é solução do Problema (P1). O objetivo nesta etapa é mostrar que o problema de otimiza-
ção sem restrição, obtido do Problema (P4), é solução do problema (P1).
Note que
s̄
(k)
min χ y, µ(k) = min F (y) + µj Hj (y)
j=1 (4.97)
sujeito às restrições
Hj (y) = 0, j = 1, s̄.
Logo, a solução de (P5) é igual à solução de (P4) a qual, por sua vez, é igual à solução de
(P1).
Determine y ∗ ∈ Rn+s̄
(4.98)
min ℑ y, µ(k) , ǫ(k)
∀y∈Rn+s̄
em que
y ∗(k) = y ∗ µ(k) , ǫ(k)
e
s̄ s̄
(k)
ℑ y, µ (k)
, ǫ(k) = F (y) + µj Hj (y) + 1
2ǫ(k)
(Hj (y))2 .
j=1 j=1
Problema (P4):
χ (y ∗ , µ) ≤ χ (y ∗ , µ∗ ) ≤ χ (y, µ∗ ), ∀y ∈ Rn+s̄ e
∀µ ∈ Rs̄ , µ ≥ 0, i.e., µj ≥ 0, j = 1, s̄,
(4.99)
em que
s̄
χ (y, µ) = F (y) + µj Hj (y).
j=1
χ (y ∗ , µ∗ ) ≤ χ (y, µ∗ ), ∀y ∈ Rn+s̄
em que
s̄ (4.100)
χ (y, µ) = F (y) + µj Hj (y)
j=1
i.e.
y ∗ = arg min χ (y, µ∗ ). (4.101)
∀y∈Rn+s̄
∂χ(y,µ∗ )
∂yi = 0, i = 1, n + s̄ e y = (x, s)
y∗
a qual é equivalente às condições
∂χ(y,µ∗ )
∂xi = 0, i = 1, n (4.102)
y∗
e
∂χ(y,µ∗ )
∂sr = 0, r = 1, s̄.
y∗
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 143
Porém,
s̄
∂χ(y,µ∗ ) ∂f (x) ∂gj (x)
∂xi = ∂xi + µ∗j ∂xi =0
j=1
e
s̄
∂χ(y,µ∗ ) ∂s
∂si = µ∗j 2sj ∂sji
y∗
j=1
s̄
= µ∗j 2sj δ ij = 2µ∗i si = 0
(4.103)
j=1
em que
y = (x, s) ∈ Rn+s̄
F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.
Como resultado, temos
∂χ(y,µ∗ )
∂yi = 0, i = 1, n + s̄
y∗
implica em
s̄
∇x f (x∗ ) + µj ∇x gj (x∗ ) = 0 (4.104)
j=1
e
µ∗i si = 0, i = 1, s̄
χ (y ∗ , µ) ≤ χ (y ∗ , µ∗ ), ∀µ ∈ Rs̄ , µ ≥ 0, (4.105)
i.e.
s̄ s̄
2 2
∗ ∗
f (x ) + µj gj (x ) + s∗j ≤ f (x ) + ∗
µ∗j gj (x∗ ) + s∗j ,
j=1 j=1
(4.106)
∀µ ∈ Rs̄ , µ ≥ 0,
i.e.
s̄
2
µj − µ∗j gj (x∗ ) + s∗j ≤ 0, ∀µ ∈ Rs̄ , µj ≥ 0. (4.107)
j=1
µ∗
3. Caso µ∗i > 0 em que consideramos µi = µ∗i ± wo sendo wo = 2i > 0 e as outras
componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso, (4.107) reduz-se à
expressão
Para µ∗i > 0,
±wo gi (x∗ ) + (s∗i )2 ≤ 0
i.e.
wo gi (x∗ ) + (s∗i )2 ≤ 0 e wo gi (x∗ ) + (s∗i )2 ≥ 0
(4.111)
o que acarreta em
µ∗i
wo gi (x∗ ) + (s∗i )2 = 0. Como wo = 2 >0
obtemos
gi (x∗ ) + (s∗i )2 = 0.
Para µ∗i = 0,
wo gi (x∗ ) + (s∗i )2 ≤ 0, ∀wo ≥ 0.
Como resultado, para que o produto acima (4.112)
seja negativo,
gi (x∗ ) + (s∗i )2 ≤ 0.
o que resulta em
gi (x∗ ) ≤ − (s∗i )2 ⇒ {gi (x∗ ) ≤ 0}
i.e. (4.114)
gi (x∗ ) ≤ 0, i = 1, s̄.
gi (x∗ ) + (s∗i )2 = 0
i.e. (4.115)
(s∗i )2 = −gi (x∗ ).
Dos resultados em (4.104) e levando em conta que o índice i é arbitrário, temos de (4.114 e
4.119) acrescida da condição µ∗i ≥ 0, i = 1, s̄, a condição necessária de Kuhn-Tucker de (P1),
dada por
s̄
∇x f (x∗ ) + µj ∇x gj (x∗ ) = 0
j=1
(4.120)
e
µ∗i ≥ 0, gi (x∗ ) ≤ 0 e µ∗i gi (x∗ ) = 0, i = 1, s̄.
F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.
Determine y ∗ ∈ Rn+s̄
(4.122)
min ℑ y, µ(k) , ǫ(k)
∀y∈Rn+s̄
em que
y ∗(k) = y ∗ µ(k) , ǫ(k)
e
s̄ s̄
(k)
ℑ y, µ(k) , ǫ(k) = F (y) + µj Hj (y) + 1
2ǫ(k)
(Hj (y))2 .
j=1 j=1
Para tal objetivo, é necessário definirmos regras para a atualização das variáveis µ(k) , ǫ(k) de
modo que, no limite, para k → ∞, tenhamos um algoritmo convergente, i.e., y ∗(k) → y ∗ .
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 147
No caso do multiplicador de Lagrange, é adotada uma estratégia distinta. Neste caso, deter-
minamos inicialmente a condição necessária de otimalidade do problema formulado em (4.122),
com relação ao problema de minimização da função Lagrangeana Aumentada.
A condição necessária de otimalidade para y ∗(k) ∈ Rn+s̄ ser mínimo local é que
∇y ℑ y, µ(k), ǫ(k) =0
y ∗(k)
em que
s̄ s̄
(k)
ℑ y, µ(k) , ǫ(k) = F (y) + µj Hj (y) + 1
2ǫ(k)
(Hj (y))2
j=1 j=1
sendo (4.124)
y = (x, s) ∈ Rn+s̄
F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.
s̄ s̄
∂ℑ(y,µ(k) ,ǫ(k) ) ∂f (x) (k) ∂gj (x) ∂gj (x)
∂xi = ∂xi + µj ∂x i
+ 1
ǫ(k)
gj (x) + (sj )2 ∂xi
j=1 j=1
e
s̄ s̄ (4.125)
∂ℑ(y,µ(k) ,ǫ(k) ) (k)
∂si = 2µj sj δij + 1
ǫ(k)
gj (x) + (sj )2 2sj δij
j=1 j=1
(k)
=2 µi + 1
ǫ(k)
gi (x) + (si )2 si = 0
o que acarreta em
s̄
(k)
∇x f (x∗ ) + µj + 1
ǫ(k)
gj (x∗ ) + (sj )2 ∇x gj (x∗ ) = 0
j=1
(4.126)
e
(k)
µi + 1
ǫ(k)
gi (x∗ ) + (s∗i )2 s∗i = 0, i = 1, s̄.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 148
{s∗i = 0} ⇔ (s∗i )2 = 0
ou (4.127)
(k) (k)
µi + 1
ǫ(k)
gi (x∗ ) + (s∗i )2 = 0 ⇔ (s∗i )2 = − ǫ(k) µi + gi (x∗ )
(k)
(s∗i )2 = max 0, − ǫ(k) µi + gi (x∗ )
i.e. (4.128)
(k)
gi (x∗ ) + (s∗i )2 = max gi (x∗ ) , −ǫ(k) µi ,
s̄
∗ (k) 1 (k)
∇x f (x ) + µj + ǫ(k)
max gj (x∗ ) , −ǫ(k) µj ∇x gj (x∗ ) = 0
j=1
i.e. (4.129)
s̄
(k) 1
∇x f (x∗ ) + max µj + g
ǫ(k) j
(x∗ ) , 0 ∇x gj (x∗ ) = 0.
j=1
s̄ * +
(k) 2 2
∗ ∗ (k) (k) ∗ 1 ∗ ∗
ℑ x ,s ,µ ,ǫ = f (x ) + 2ǫ(k)
2ǫ(k)µj + gj x + s∗j gj x + s∗j
j=1
em que
(k)
gi (x∗ ) + (s∗i )2 = max gi (x∗ ) , −ǫ(k)µi ,
(4.130)
(k)
podemos eliminar a variável de folga também de ℑ x∗ , s∗ , µ , ǫ(k) .
Veja que,
para gi (x∗ ) ≥ −ǫ(k) µ(k)
i
gi (x∗ ) + (s∗i )2 = gi (x∗ )
(4.131)
(k)
para gi (x∗ ) < −ǫ(k) µi
(k)
gi (x∗ ) + (s∗i )2 = −ǫ(k) µi
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 149
sendo:
(k)
para gi (x∗ ) ≥ −ǫ(k) µi
(k)
Ψj (x∗ , µ∗ ) = 2ǫ(k) µj + gi (x∗ ) gi (x∗ ) (4.132)
e
(k)
para gi (x∗ ) < −ǫ(k) µi
(k) 2
Ψj (x∗ , µ∗ ) = − ǫ(k)µi
i.e.
2ǫ(k) µ(k) ∗ ∗ ∗ (k) (k)
j + gi (x ) gi (x ) , se gi (x ) ≥ −ǫ µi
Ψj (x∗ , µ∗ ) = (k) 2 (k)
. (4.133)
− ǫ(k) µi , se gi (x∗ ) < −ǫ(k)µi
s̄
ℑ x∗ , µ(k) , ǫ(k) = f (x∗ ) + 1
2ǫ(k)
Ψj (x∗ , µ∗ )
j=1
na qual (4.134)
2ǫ(k) µ(k) ∗ ∗ ∗ (k) (k)
j + gi (x ) gi (x ) , se gi (x ) ≥ −ǫ µi
Ψj (x∗ , µ∗ ) = (k) 2 (k)
.
− ǫ(k) µi , se gi (x∗ ) < −ǫ(k)µi
s̄
∇x f (x∗ ) + µ∗j ∇x gj (x∗ ) = 0
j=1
e (4.136)
s̄
(k) 1
∇x f (x∗ ) + max 0, µj + g
ǫ(k) j
(x∗ ) ∇x gj (x∗ ) = 0
j=1
(k+1) (k) 1
µj = max 0, µj + g
ǫ(k) j
(x∗ ) . (4.138)
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 150
(k+1) (k) 1
µj = max 0, µj + g
ǫ(k) j
(x∗ )
e
ρǫ(k), se ρǫ(k) ≤ ǫcrit
ǫ(k+1) = (4.141)
ǫcrit , se ρǫ(k) > ǫcrit
em que
ρ ∈ (0, 1), exemplo, ρ = 0.2.
ou (4.142)
(k+1) (k)
µ −µ
erro =
max{1, µ(k) }
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 151
µ(k) ← µ(k+1)
e (4.143)
ǫ(k) ← ǫ(k+1)
• Fim de enquanto
min f (x)
x∈S
em que
(4.144)
S = { x ∈ Rn | hi (x) = 0, i = 1, l
gj (x) ≤ 0, j = 1, s̄}
Descrição do algoritmo
O algoritmo pode ser descrito como:
(k+1) (k) 1
νi = νi + h
ǫ(k) i
x∗(k)
(k+1) (k) 1
µj = max 0, µj + g
ǫ(k) j
(x∗ )
e
(4.147)
(k+1) ρǫ(k), ρǫ(k) ≤ ǫcrit
ǫ =
ǫcrit , ρǫ(k) > ǫcrit
em que
ρ ∈ (0, 1), exemplo, ρ = 0.2.
e
(k+1) (k)
νi −ν i
erroν = max (k)
i max 1, ν i
(4.148)
ou
µ(k+1) −µ(k)
erroµ =
max{1, µ(k) }
e
ν (k+1) −ν (k)
erroν =
max{1, ν (k) }
sendo
erro = max {erroµ , erroν } (4.149)
ν (k) ← ν (k+1)
• Fim de enquanto
Capítulo 5
5.1 Introdução
Chelouah et al. (2000) define os algoritmos genéticos como técnicas de busca estocásticas basea-
dos em operadores aleatórios, tais como: seleção, cruzamento e mutação sendo estes operadores
inspirados pela reprodução e evolução natural das criaturas vivas.
De modo geral o método dos algoritmos genéticos tem sido desenvolvido desde 1975 com
os trabalhos iniciais de John Holland e posteriormente de David Goldberg entre muitos out-
ros pesquisadores, dando prosseguimento à evolução e disseminação do método dos algoritmos
genéticos.
A utilização de métodos de otimização sempre vem acompanhada da questão de qual método
utilizar. Fazendo-se uma pesquisa não é complicado chegar à conclusão de que é necessário
conhecer bem o problema que se deseja otimizar, pois todo método tem sua eficácia maior
quando utilizado em problemas com algumas características específicas.
As principais características dos algoritmos genéticos são:
• Prover uma lista de soluções ótimas, i.e., não se restringe a uma única solução;
153
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 154
• A limitação da precisão das variáveis de projeto são as da máquina que está sendo utilizada,
o que não ocorre quando utiliza-se representação binária;
4. Verifica-se então se o critério de parada foi atingido. Caso o critério de parada não tenha
sido atingido, proceda a seguir;
(i) Seleção;
(ii) Cruzamento;
(iii) Mutação.
min f (x)
sujeito às seguintes restrições:
(i) Restrições laterais (ou de caixa)
sup
i ≤ xi ≤ x̄i , para i = 1, ..n.
x̄inf
(ii) Restrições de igualdade
hk (x) = 0, para k = 1, ..l.
(iii) Restrições de desigualdade (gerais)
gj (x) ≤ 0, para j = 1, ..s.
Este problema de otimização pode ser reformulado, através da utilização do método da penali-
dade exterior exata, como: Determinar x∗ ∈ Rn solução de:
k=1 j=1
sendo
hk (x) , se hk (x) ≥ 0
|hk (x)| =
−hk (x) , se hk (x) < 0
e
gj (x) + = max {0, gj (x)},
denominado parte positiva de gj (x).
x = {x1 , x2 , ......xn }
em que
xi - é a i-ésima variável de projeto (ou gene)
n - é o número total de variáveis de projeto
x - é o vetor das variáveis de projeto (ou indivíduo).
Note que cada indivíduo tem n genes.
Portanto, pode-se definir a população como sendo uma matriz de tamanho m × n da forma:
(1) (1) (1) (1)
x1 x2 x3 .. .. xn
(2) (2) (2) (2)
x1 x2 x3 .. .. xn
.. .. .. .. .. ..
(m) (m) (m) (m)
x1 x2 x3 .. .. xn
em que
(j) (j) (j)
x(j) = x1 , x2 , ......xn , j = 1, ..m
são os indivíduos na população gerada
Uma vez definida a população avalia-se cada indivíduo pela determinação da função objetivo,
ou mérito. !
fˇǫ x(1) , fˇǫ x(2) , ..., fˇǫ x(m)
representa o vetor contendo o valor da função objetivo,
calculado para cada elemento da polpulação.
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 158
Este vetor é então ordenado de forma crescente de modo que o primeiro elemento será o elemento
cujo valor da função objetivo é o menor de todos (caso em que queremos determinar o mínimo
global).
Esta reordenação também é efetuada na matriz acima, a qual contém todos os elementos da
população. Esta reordenação é feita pela troca de linhas seguindo a mesma sequência obtida
como resultado da ordenação do vetor cujas componentes são os valores da função objetivo,
colocados em ordem crescente.
(j)
(i) Geração de números aleatórios λi ∈ [0, 1]
" sup #
(ii) Normalização dos pontos gerados dentro do intervalo x̄inf
i , x̄i
pré estabelecido para cada variável de projeto, segundo a equação:
(j) (j)
xi = x̄inf
i + λi x̄sup
i − x̄inf
i
Note que a estratégia acima assegura que os genes de cada indivíduo satisfaçam as restrições
laterais, ou de caixa automaticamente, i.e.,
(j) sup
i ≤ xi ≤ x̄i , para cada componente (gene), i = 1, ..n,
x̄inf
e para todo indivíduo, j = 1, ..m.
1. Determina-se a probabilidade para cada indivíduo de acordo com a sua posição de classi-
ficação na lista ordenada, com relação à função objetivo, da seguinte forma:
Pk = α−k+1
α
k
k=1
em que
α= m 2 (caso da taxa de seleção de 50%)
m - sendo o tamanho da população
k - a posição do indivíduo na lista ordenada, sendo o primeiro
elemento da lista o mais apto, i.e. o indivíduo com o menor valor
da função objetivo e o último o de maior valor da função
Pk - a probabilidade de seleção de cada indivíduo.
Por exemplo, para uma população de oito indivíduos, i.e., m = 8, e uma taxa de seleção
de 50%, i.e., α = m
2 = 4, temos
4
P1 = 1+2+3+4
3
P2 = 1+2+3+4
2
P3 = 1+2+3+4
1
P4 = 1+2+3+4
satisfazendo a propriedade
4
Pk = 1.
k=1
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 160
π 1 = [0, P1 ]
π 2 = [P1 , P1 + P2 ]
π 3 = [P1 + P2 , P1 + P2 + P3 ]
..
α−1
πα = Pk , 1
k=1
tal que
α= m 2 (caso da taxa de seleção de 50%)
em que a união dos intervalos satisfaz a propriedade:
∪ {πk } = [0, 1].
(pai)
β (j) ∈ [0, 1]
e
(mãe)
β (j) ∈ [0, 1]
(pai) (pai)
se β (j) ∈ π k1 então x(j) = x(k1 )
e
(mãe) (mãe)
se β (j) ∈ πk2 então x(j) = x(k2 )
em que (j) - representa o (j)-ésimo casal,
sendo j = 1, .., α2 , i.e., j = 1, .., m
4.
Neste caso, o (j)-ésimo casal é tal que o pai e a mãe são dados pelos indivíduos (k1 )
e (k2 ) respectivamente. Note que, neste algoritmo, existe a possibilidade de o pai e
a mãe serem formados pelo mesmo elemento. Uma forma de resolver este problema
(mãe)
é gerando um novo número randômico, β j , visando a determinação de uma mãe
que seja distinta do pai.
• Método da mistura;
• Método heurístico;
• Método da extrapolação.
Estes três métodos tem uma forma similar de execução. O procedimento adotado, neste
caso, consiste nas seguintes etapas:
(f1) (f2)
1. Fazem-se cópias x(j) e x(j) dos indivíduos de origem, i.e., dos pais. Portanto,
(f 1) (pai)
x(j) = x(j)
e
(f 2) (mãe)
x(j) = x(j) .
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 162
(f1) (f 1) (f 1) (f 1)
x(j) = x1 , x2 , ......xn
(pai) (pai) (pai)
= x1 , x2 , ......xn
= x(k1) (k1 ) (k1 )
1 , x2 , ......xn
e
(f2) (f 2) (f 2) (f 2)
x(j) = x1 , x2 , ......xn
(mãe) (mãe) (mãe)
= x1 , x2 , ......xn
(k2 ) (k2 ) (k )
= x1 , x2 , ......xn 2 .
I(j) = ceiling(ρ(j) n)
sendo
ρ(j) ∈ [0, 1] gerado aleatoriamente para cada cruzamento
do (j)-ésimo casal
e
n - o número total de variáveis de projeto (ou genes).
(f 1) (mãe) (pai)
xI(j) = β (j) xI(j) + 1 − β (j) xI(j)
e
(f 2) (mãe) (pai)
xI(j) = 1 − β (j) xI(j) + β (j) xI(j)
(f i)
No caso do indivíduo xI(j) não pertencer ao domínio admissível, novos números
randômicos β i(j) são gerados até obter-se um indivíduo factível.
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 163
(f 1) (f 2)
Neste caso, os filhos xI(j) e xI(j) são escolhidos como sendo os indivíduos mais ap-
(a) (b) (c)
tos. Qualquer indivíduo xI(j) , xI(j) ou xI(j) não pertencente ao domínio factível é
descartado neste procedimento.
Método utilizado
(pai) (mãe)
1. Determinam-se os vetores dos indivíduos geradores x(j) e x(j) , referente ao j-ésimo
(f1) (f 2)
casal, os quais dão origem aos vetores x(j) e x(j) .
2. Gerando um número aleatório ρ(j) ∈ [0, 1], estabelece-se o ponto de corte como segue:
I(j) = ceiling(ρ(j) n)
sendo
ρ(j) ∈ [0, 1] gerado aleatoriamente para cada cruzamento
do (j)-ésimo casal
e
n - o número total de variáveis de projeto (ou genes).
4. Dando origem aos vetores que farão parte da próxima geração, com o seguinte formato:
nT otal = m n
em que
m - é o número de indivíduos da população
e
n - é o número de variáveis de projeto (genes) de associado
a cada indivíduo.
3. Gera-se números aleatórios para a determinação dos vetores da colunas e linhas que serão
mudados;
C
I(s) = ceiling(γ C
(s) n)
e
L = ceiling(γ L m m
I(s) (s) 2) + 2
em que
(s) ∈ [0, 1] e γ (s) ∈ [0, 1]
γC L
Os índices I(s)
C
(índice da coluna) e I(s)
L
(índice da linha) define a posição do gene a ser
modificado na matriz abaixo.
(1) (1) (1) (1)
x1 x2 x3 .. .. xn
(2) (2) (2) (2)
x1 x2 x3 .. .. xn
.. .. .. .. .. ..
(m) (m) (m) (m)
x1 x2 x3 .. .. xn
em que
(j) (j) (j)
x(j) = x1 , x2 , ......xn , j = 1, ..m
são os indivíduos na população gerada.
4. Determina-se os valores que serão impostos pelo operador mutação, através da combinação
IL
convexa utilizando-se números λI(s)
C ∈ [0, 1] gerados aleatoriamente para cada variável a
(s)
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 166
L
I(s) IL
xI C = xinf
IC
+ λI(s)
C xsup
IC
− xinf
IC
(s) (s) (s) (s) (s)
L
I(s)
5. Substitui-se cada variável xI C nas devidas posições I(s)
L C
, I(s) da matriz
(s)
Condições de parada:
Para a realização das análises deste trabalho foram utilizados duas condições de parada que são:
(i) O número máximo de gerações obtidas, o qual garante que a rotina desenvolvida pare após
um determinado número de iterações, independentemente da convergência do problema
proposto.
min f (x, y)
sujeito às condições laterais
0 ≤ x ≤ 10
e
0 ≤ y ≤ 10.
f (x∗ ) = −18.554721077242384
em
x∗ = (9.038992462233191, 8.668186830037460).
Capítulo 6
Elementos Finitos
1. Comutatividade da adição
x + y = y + x, ∀x e y ∈ X . (6.1)
2. Associatividade da adição
4. Lei da distributividade
169
CAPÍTULO 6. ELEMENTOS FINITOS 170
5. Lei da associatividade
Examplo (1)
Considere o intervalo [a, b] na reta real. O conjunto X de todas as funções reais contínuas
definidas em [a, b], munido das operações definidas em (6.8) e (6.9), forma um espaço linear V.
Note que f = g se e somente se f(t) = g(t) para todo t ∈ [a, b]. O elemento nulo de X, i.e.,
θ é a função constante zero em [a, b], i.e., a função zero, θ(t), é definida por
• Adição de elementos de X
(f + g)(t) := f (t) + g(t) (6.8)
As funções resultantes destas operações são obviamente contínuas e definidas em [a, b]. Con-
sequentemente, são elementos de X. Este espaço linear, V, é referido como sendo o espaço linear
formado pelas funções reais contínuas em [a, b], também denominado por C 0 [a, b]. Note que
estas operações satisfazem os axiomas (1-6).
Definição.
e
α(x, y) := (αx, αy) . (6.11)
Esta definição pode ser facilmente generalizada para o produto cartesiano de n espaços
lineares X1 , X2 ,...Xn . Representamos por Xn o produto cartesiano de um espaço linear X por
ele mesmo n vezes como, Xn = X×X×.....X.
Examplo (2) Considere o intervalo (a, b) na reta real R. O conjunto X de todas as funções
reais com segunda derivada contínua neste intervalo, denotada por C 2 (a, b), munidas das oper-
ações de soma e produto por escalar de elementos de X, definidas no exemplo (1), tal que
x ⊕ y := xy (6.13)
α ⊙ x := xa (6.14)
e
∀x ∈ S e α ∈ R implica em (α ⊙ x) ∈ S . (6.16)
Proposição.
Sejam M e N subespaços de um espaço linear X. Então, a soma, M + N, é também um
subespaço de X.
Prova: Como θ ∈ M e θ ∈ N então θ + θ = θ ∈ (M + N). Suponha que x e y sejam
elementos de M + N. Então existem elementos m1 e m2 em M e elementos n1 e n2 em N tal
que
x = m1 + n1 com m1 ∈ M e n1 ∈ N
e
y = m2 + n2 com m2 ∈ M e n2 ∈ N .
(m1 + m2 ) ∈ M .
CAPÍTULO 6. ELEMENTOS FINITOS 173
(n1 + n2 ) ∈ N .
Consequentemente
((m1 + m2 ) + (n1 + n2 )) = (x + y) ∈ (M + N) .
α.x = α. (m1 + n1 )
= α.m1 + α.n1 .
Como M e N são subespaços, temos que α.m1 ∈ M e α.n1 ∈ N, o que implica em α.x ∈ M + N.
Desta forma, como M + N ⊂ X e satisfaz os axiomas do fecho então M + N é um subespaço de
X.
Definição.
Uma combinação linear de elementos x1 , x2 , ....., xn em um espaço linear X é uma soma da
forma
α1 .x1 + α2 .x2 ..... + αn .xn . (6.18)
Note novamente que, por abuso de linguagem, nos referimos a um espaço linear X, quando
o espaço linear é V, o qual consiste por sua vez no conjunto X munido pelas operações ⊕ e ⊙
definidas sobre os elementos de X e escalares em R.
Definição.
Seja S um conjunto não vazio de um espaço linear X. Diz-se que x ∈ X é uma combinação
linear finita de elementos de S se existe um número finito x1 , x2 , ....., xk de elementos de S e um
número correspondente de escalares α1 , α2 , ....., αk tal que
i.e.
k
x= i=1 αi .xi . (6.20)
implicar em
ci = 0, para i = 1, ...k . (6.24)
Um conjunto de W que não é linearmente independente (li ) diz-se ser linearmente dependente.
exemplo
O conjunto das funções uk (t) = tk , para k = 0, 1, 2, ... são linearmente independentes (li ) como
subconjunto do espaço linear das funções reais de R em R.
Note que
i=0,n ci .ui = θ ⇔ i=0,n ci .ui (t) = θ (t) , ∀t ∈ R .
CAPÍTULO 6. ELEMENTOS FINITOS 175
então teremos
ci = 0, para i = 1, ...n. (6.26)
De fato,
i=1,n ci .ui (t) = θ (t) (6.27)
implica em
i
i=1,n ci t = 0, ∀t ∈ R
i.e. (6.28)
c0 1 + c1 t + c2 t2 + ... + cn tn = 0, ∀t ∈ R.
Como a relação têm que ser satisfeita para todo t ∈ R, ela deve ser satisfeita para t = 0. Neste
caso, a única possibilidade é que
c0 = 0 . (6.29)
a qual deve também ser satisfeita para todo t. Porém, para t = 0, a única possibilidade é que
c1 = 0. (6.31)
Procedendo desta forma, podemos mostrar que ci = 0, para i = 1, ...n o que implica ser o
conjunto das funções polinomiais linearmente independentes em R.
6.1.4 Definição
Chama-se base de um espaço linear X a qualquer conjunto de elementos de S, S ⊂ X, linearmente
independentes que gera X, i.e., cuja expansão linear span(S) = X.
Diz-se que um espaço linear X tem dimensão finita se tem uma base que é um conjunto finito
de elementos, ou se X = {∅}. Caso contrário. diz-se que X tem dimensão infinita. Se X = {∅},
conjunto vazio, diz-se que X tem dimensão nula.
CAPÍTULO 6. ELEMENTOS FINITOS 176
Considere o problema, ilustrado abaixo, que consiste em uma barra com uma das extremidades
fixa, u(0) = 0, sujeita a um carregamento distribuído qx (x), devido ao pêso próprio, e uma carga
concentrada P , na outra extremidade.
qx (x) = ρgA = γ o .
em que
A - a área da seção transversal da barra (6.32)
ρ - a densidade do material
g - a aceleração da gravidade.
O problema da barra pode ser formulado como: Determine o campo de deslocamentos u(x),
solução de
d2 u
EA dx 2 + γo = 0
d2 u γo
. (6.34)
dx2
= − EA
Logo,
, d2 u
, γo
dx2
dx =− EA dx
i.e. (6.35)
du γ
dx = − EA x + B1
e , , !
du γo
dx dx = − EA x + B1 dx
i.e. (6.36)
γ o x2
u (x) = − EA 2 + B1 x + B2
temos
u (0) = B2 = 0 (6.38)
o que acarreta em
γo x 2
u (x) = − EA 2 + B1 x
(6.39)
N(L) = EA du(L)
dx = P
(6.40)
temos
du (L)
EA = −γ o L + EAB1 (6.41)
dx
= P
o que acarreta em
B1 = 1
EA [P + γ o L]. (6.42)
γo x 2
u (x) = − EA 2 +
1
EA [P + γ o L] x . (6.43)
du(x)
σxx (x) = E (6.44)
dx
γo 1
= − x + [P + γ o L]
A A
CAPÍTULO 6. ELEMENTOS FINITOS 178
i.e.
σ xx (x) = − γAo [x − L] + P
A.
(6.45)
Observação: Note que, no caso em que a condição de contorno essencial é não trivial, i.e.,
u (0) = ūp para algum ūp = 0, o conjunto Ku é uma variedade linear, sendo uma translação do
subespaço linear Varu . Como resultado, para o caso em que ūp = 0, temos
Ku = {ua } + Varu
para algum elemento ua ∈ Ku .
Por simplicidade, vamos considerar neste capítulo apenas condições de contorno essenciais nulas
(triviais). No caso de condições de contorno essenciais nulas temos Ku = Varu , o que significa
que Ku é um espaço linear neste caso.
Considerando agora a formulação forte temos,
2
d u
EA dx 2 + γo = 0 (6.48)
2
r(u (x)) = EA d dx
u(x)
2 + γo (6.49)
e impondo que
r(u (x)), û (x) = 0, ∀û ∈ Varu (6.50)
obtemos
,L 2
0 EA ddxu2 + γ o û (x) dx = 0, ∀û ∈ Varu . (6.51)
Porém,
d du d2 u
dx dx û = dx2
û + du dû
dx dx
i.e. (6.52)
d2 u d du du dû
dx2
û = dx dx û − dx dx .
CAPÍTULO 6. ELEMENTOS FINITOS 179
• Note que, como ūa = 0, Ku = Varu . Como resultado, Ku = Varu = {u (x)| u (x) suf. regular e u (0) =
é o conjunto de todas as funções suficientemente regulares tais que seu valor em x = 0 é
nulo, i.e., u (0) = 0. A regularidade que se requer de u (x) é que
,L du 2
0 dx + (u)2 dx < ∞, (6.56)
γo x 2
uo (x) = − EA 2 +
1
EA [P + γ o L] x (6.57)
Como as funções φi (x) = xi , i ∈ N são linearmente independentes e como φi (x) forma uma
base enumerável, cuja expansão linear é densa em Ku , podemos aproximar a solução da
equação linear da barra (neste caso determinar a solução exata) através de uma combinação
linear destas bases de função.
• Note que em casos mais gerais, por exemplo em situações em que a área transversal não
fosse constante, etc..., a solução exata não seria polinomial. Neste caso, fica evidente que
a utilização de uma base formada por funções φi (x) = xi aproximaria somente no limite
a solução exata do problema.
• É importante verificar que a dimensão do subespaço linear Varu do espaço linear H 1 (0, L)
tem dimensão infinita, i.e.,
dim (Varu ) = ∞. (6.59)
,L h ,L
0 EA du
dx
o dû
dx dx = 0 γ o û dx + P û (L), ∀û ∈ VarN
u . (6.61)
Note que, como VarN u = span {φi (x) , i = 1, ...N}, a solução aproximada do problema, uo (x),
h
De forma análoga, a variação do campo de deslocamentos, û (x), pode ser expressa por
N
û (x) = i=1 bi φi (x). (6.63)
!
Note que, se definirmos a base S = φj (x) , j = 1, ...N de modo que φj (x) = xj , a determinação
da solução aproximada dependerá apenas da determinação das componentes {aj , j = 1, ...N }.
Por outro lado, dizer que a expressão em (6.64) deve ser válida para todo û ∈ VarN u , equivale a
dizer que a expressão em (6.64) deve ser válida para todo {bi , i = 1, ...N }, já que a base φi (x) é
conhecida.
em que
N
uho (x) = j=1 aj φj (x)
e
û (x) = Ni=1 bi φi (x) . (6.66)
sendo
φj (x) = xj , j = 1, ...N.
CAPÍTULO 6. ELEMENTOS FINITOS 182
i.e.
,L dφj (x) ,L
i (x)
i=1,N j=1,N 0 EA dφdx dx dx aj bi = i=1,N 0 γ o φi (x)dx bi
(6.68)
+ i=1,N {P φi (L)} bi , ∀b ∈ RN .
Como resultado temos que o problema discreto pode ser formulado como: Determinar a ∈ RN
solução de
[K] a.b = F .b, ∀b ∈ RN , (6.71)
[K] a − F .b = 0, ∀b ∈ RN
i.e. (6.72)
[K] a − F , b = 0, ∀b ∈ RN
Note que (6.72) estabelece que estamos procurando o vetor a ∈ RN tal que o vetor w =
[K] a − F seja ortogonal a todo o espaço RN . Porém, o único vetor w de RN que é ortogonal
a todo o RN é o vetor nulo, i.e.
w = [K] a − F = 0
i.e. (6.73)
[K] a = F
o que nos fornece o sistema de equações lineares cuja solução é
a = [K]−1 F . (6.74)
CAPÍTULO 6. ELEMENTOS FINITOS 183
Note que, uma vez determinadas as componentes do vetor a, podemos obter o campo de deslo-
camentos aproximado como
uho (x) = Nj=1 aj φj (x)
em que a ∈ RN é dado por (6.75)
a = [K]−1 F .
O campo aproximado de tensões pode ser determinado como
h dφj (x)
o (x)
σ xx (x) = E dudx =E N
j=1 aj dx . (6.76)
φ1 (x) = x
(6.77)
φ2 (x) = x2 .
Note que, φi (x) ∈ Varu , já que φi (0) = 0 para i = 1, 2 e φi ∈ H 1 (0, L). Note novamente que
a função φ0 (x) = x0 = 1 não satisfaz a propriedade φ0 (0) = 0 o que implica φ0 (x) = 1 não
pertence ao espaço linear Varu . Como resultado, apenas funções do tipo φi (x) = xi , i = 1, ..N,
satisfazem esta propriedade.
Derivando (6.77) obtemos
dφ1 (x)
=1
dx
dφ2 (x) (6.78)
dx = 2x
o que implica
,L 1 2x L L2
[K] = 0 EA dx = EA 4 3
. (6.79)
2x 4x2 L2 3L
o que implica em
1 2
F = 2 L γo +P
L
. (6.82)
1 3
3 L γo L2
Desta forma, podemos determinar a solução do sistema de equações lineares como
a = [K]−1 F (6.83)
em que
4
− L32
[K]−1 = 1
EA
L . (6.84)
− L32 3
L3
CAPÍTULO 6. ELEMENTOS FINITOS 184
Logo,
4
1 − L32 1 2
2 L γo L
a= EA
L +P (6.85)
− L32 3
L3
1 3
3 L γo L2
i.e.
1 Lγ o + P
a= EA . (6.86)
− 12 γ o
Consequentemente,
i.e.
γo x 2
uho (x) = − EA 2 +
1
EA [Lγ o + P ] x (6.88)
γo x 2
uo (x) = − EA 2 +
1
EA [P + γ o L] x. (6.89)
obtida em (6.57).
Considere agora o novo exemplo, ilustrado abaixo,
qx (x) = sin πx
L
(6.90)
em que uma das extremidades é fixa, i.e. u(0) = 0, e a outra é livre, i.e. N(L) = EA du(L)
dx = 0.
Neste caso, a formulação forte (ou diferencial) do problema consiste em: Determinar o campo
CAPÍTULO 6. ELEMENTOS FINITOS 185
d2 u 1 πx
2
=− sin . (6.92)
dx EA L
Logo
, d2 u 1
, π
dx2
dx = − EA sin Lx dx
i.e. (6.93)
du 1 L π
dx = EA π cos Lx + B1
e , , ,
du 1 L π
dx dx = EA π cos Lx dx + B1 dx
i.e. (6.94)
1 L 2
u (x) = EA π sin Lπ x + B1 x + B2
sendo B1 e B2 constantes a serem determinadas pela imposição das condições de contorno.
Note que:
temos
u (0) = B2 = 0 (6.96)
o que acarreta em
1 L 2 π (6.97)
u (x) = EA π sin Lx + B1 x
N (L) = EA du(L)
dx = 0
(6.98)
temos
du(L)
dx = 1 L
EA π cos π
LL + B1 = 0 (6.99)
o que acarreta em
B1 = 1 L
EA π .
(6.100)
CAPÍTULO 6. ELEMENTOS FINITOS 186
1 L 2 1 L . (6.101)
uo (x) = EA π sin Lπ x + EA π x
duo (x)
σ xx (x) = E (6.102)
dx
L π
= 1 + cos x
πA L
i.e.
" #
σ xx (x) = L
πA 1 + cos Lπ x . (6.103)
Note que o campo de deslocamentos pode ser representado por uma série de Taylor em x = 0.
Como resultado,
como
uo (0) = 0
duo (0) 2L
dx = πEA
d2 uo (0)
dx2
=0
d3 uo (0)
dx3
π
= − ALE (6.105)
d4 uo (0)
dx4
=0
d5 uo (0) π3
dx5
= AL3 E
d6 uo (0)
dx6 = 0, etc...
podemos representar uo (x) como uma série infinita dada por
2L π 3 1 π3 5 1 dn uo (0) n (6.106)
uo (x) = πEA x − 6ALE x + 120 AL3 E x + .... + n! dxn x + ....
Logo, definindo
φi (x) = xi (6.107)
obtemos
uN
o (x) = i=1,N ci φi (x)
em que
2L π
(6.109)
c1 = πEA , c2 = 0, c3 = − 6ALE ,
1 π 3
c4 = 0, c5 = 120 AL3 E , etc....
Neste caso, pode-se determinar a solução analítica exata como
!
o (x) .
uo (x) = limN →∞ uN (6.110)
Com esta expressão podemos verificar que neste caso a solução analítica só é obtida no limite,
i.e., com a consideração de infinitas bases de funções φi (x) = xi . Este resultado mostra que de
fato, o espaço linear Varu tem dimensão infinita, já que as funções φi (x) = xi são linearmente
independentes e a expansão linear
!
span φi (x) = xi , i ∈ N ⊂ Varu
em que
N é o conjunto dos números naturais
(6.111)
e
!
span φi (x) = xi , i ∈ N é denso em Varu .
O espaço H 1 (0, L) é um espaço linear separável.
efetuamos:
• Uma partição no domínio do problema, aqui dado por Ω = [0, L], em Ne elementos,
Ne = (N − 1), Ωi = [xi , xi+1 ], em que x1 = 0 e xN = L. Desta forma, obtemos uma
partição do domínio [0, L] em Ne elementos Ωi , Ωi = [xi , xi+1 ], para i = 1, Ne .
• Construção das funções bases, linearmente independentes, as quais são dadas por
0, se x ∈ / [xi−1 , xi+1 ]
x−xi−1
φi (x) =
xi −xi−1 , se x ∈ [xi−1 , xi ] . (6.112)
− x−x i+1
xi+1 −xi, se x ∈ [xi , xi+1 ]
Note que no interior de cada elemento Ωi = [xi , xi+1 ], a função deslocamento axial é
representada por
uho (x) = uhoi φi (x) + uhoi+1 φi+1 (x), para x ∈ [xi , xi+1 ]
em que
uhoi = uho (xi )
(6.113)
e
uhoi+1 = uho (xi+1 )
são os deslocamentos nodais em xi e xi+1 respectivamente.
Note que no interior do elemento Ωi = [xi , xi+1 ] atuam apenas as bases φi (x) e φi+1 (x),
por construção, proposto pelo método dos elementos finitos (MEF), sendo elas ilustradas
abaixo,
CAPÍTULO 6. ELEMENTOS FINITOS 189
Note, também por construção do MEF, que as funções base possuem a seguinte propriedade
φi (xj ) = δ ij
em que
1, se i = j (6.114)
δij =
0, se i = j
é o delta de Kronecker.
O objetivo de se ter esta propriedade, por construção do MEF, é que no caso de consider-
armos uma aproximação da forma
obtemos, ao calcular uho (x) nos nós xj , que definem o elemento Ωi = [xi , xi+1 ],
= ci δ ij
i=1,N
= cj
o que nos permite interpretar os coeficientes ci da combinação linear (6.115) como sendo
os delocamentos nodais em xi , i.e. ci = uho (xi ). Como resultado, a combinação linear
(6.115) pode ser reescrita como
Como toda solução suave pode ser localmente aproximada por uma função linear (reta
tangente), pode-se concluir que no limite, para o número de partições Ne tendendo para
CAPÍTULO 6. ELEMENTOS FINITOS 190
hi = (xi+1 − xi )
com (6.118)
limN→∞ hi = 0
podemos obter, para Ne suficientemente grande, uma aproximação adequada, i.e., tal que
* + 1
,L 2 duo duh
2 2
uo − uho = uo − uho + − o
dx <ε
o dx dx . (6.119)
para algum ε > 0 especificado.
Visando aplicar o método dos elementos finitos, vamos considerar o problema da barra deformada
axialmente, sujeita ao peso próprio e a uma carga P , aplicada em uma das extremidades.
A formulação fraca associada à barra deformada axialmente consiste em: determinar uo (x) ∈
Varu solução de
,L ,L
0 EA du o dû
dx dx dx = 0 γ o û dx + P û (L), ∀û ∈ Varu . (6.120)
Para obtermos uma solução aproximada do problema vamos aplicar o método de galerkin,
!
que consiste na definição de um subespaço de aproximação VarN u = span φi (x) = x , i = 1, N
i
de
,L h ,L
0 EA du o dû
dx dx dx = 0 γ o û dx + P û (L), ∀û ∈ VarN
u
sendo
!
VarN u = span φi (x) = x , i = 1, N
i
0 EA du
dx
o dû
dx dx = xi EA du
dx
o dû
dx dx
i=1,Ne
e
,L , xi+1
0 γ o û dx + P û (L) = xi γ o ûdx + P ûN
i=1,Ne
em que, no interior do elemento, [xi , xi+1 ], temos
uho (x) = uhoi φi (x) + uhoi+1 φi+1 (x)
(6.122)
e
û (x) = ûi φi (x) + ûi+1 φi+1 (x)
sendo
0, se x ∈/ [xi−1 , xi+1 ]
x−xi−1
φi (x) =
xi −xi−1 , se x ∈ [xi−1 , xi ] .
− x−xi+1 , se x ∈ [xi , xi+1 ]
xi+1 −xi
Procedimento numérico
• Mudança de variável
Visando efetuar as integrações acima e construir as funções de interpolação dos campos
escalares uho (x) e û (x) no interior de cada elemento Ωe = [xe1 , xe2 ] do domínio Ω, efetua-se
uma mudança de variáveis, definida no interior de cada elemento finito como
e dada por
x (τ ) = xe1 ψ1 (τ ) + xe2 ψ2 (τ )
em que
ψ 1 (τ ) = φe1 (x (τ )) = 1−τ
2
(6.123)
e
ψ 2 (τ ) = φe2 (x (τ )) = 1+τ
2 .
dx(τ ) 1 (τ ) 2 (τ )
dτ = xe1 dψdτ + xe2 dψdτ
= 12 [xe2 − xe1 ]
= L2e (6.124)
em que
Le = [xe2 − xe1 ] - representa o tamanho do elemento.
• Interpolação dos campos escalares uho (x) e û (x) no interior de cada elemento Ωe , após
o mapeamento do elemento no intervalo padrão [−1, 1], obtido com a transformação de
variáveis proposta.
O campo de deslocamentos uho (x), aproximado linearmente no interior de Ωe , é dado por
û (x (τ )) = ûe1 ψ1 (τ ) + ûe2 ψ2 (τ )
em que
ûe1 = û (x (−1)) = û (xe1 )
ûe2 = û (x (1)) = û (xe2 )
representam as variações admissíveis de deslocamentos nodais (6.127)
do campo û (x) arbitrários, sendo
ψ 1 (τ ) = φe1 (x (τ )) = 1−τ 2
e
ψ 2 (τ ) = φe2 (x (τ )) = 1+τ 2 .
duh
o (x(τ )) dû(x(τ ))
Note que, para determinarmos as derivadas de uho (x) e û (x), i.e., dx e dx
procedemos como segue:
duh
o (x(τ )) duho (x(τ )) dτ 2 duh
o (x(τ ))
dx = dτ dx = Le dτ
2 dψ 1 (τ ) dψ 2 (τ )
= Le ue1 dτ + ue2 dτ
2 u e −u e
= 2 1
Le 2 (6.128)
1
= Le (ue2 − ue1 )
em que
dτ
" dx #−1 2
dx = dτ = Le
e, por analogia,
dû(x(τ )) )) dτ 2 dû(x(τ ))
dx = dû(x(τ
dτ dx = Le dτ
= L1e (ûe2 − ûe1 )
(6.129)
em que
dτ
" dx #−1 2
dx = dτ = Le
duh
o (x(τ ))
• Representação matricial dos campos escalares uho (x) e û (x) e suas derivadas dx e
dû(x(τ ))
dx
uho (x (τ )) = Nu (τ ) .qe
em que
T
Nu (τ ) = {ψ1 (τ ) , ψ2 (τ )} (6.130)
e
{qe }T = {ue1 , ue2 }.
a ser determinado.
Por analogia, temos
û (x (τ )) = Nu (τ ) .δqe
em que
T
Nu (τ ) = {ψ1 (τ ) , ψ2 (τ )} (6.131)
e
{δqe }T = {ûe1 , ûe2 }.
Os gradientes dos campos escalares podem ser expressos, no interior de Ωe , como
duh
o (x(τ ))
dx = Bu (τ ) .qe
= L1e (ue2 − ue1 )
em que
T
−1 1
Bu (τ ) = Le , Le (6.132)
e
{qe }T = {ue1 , ue2 }.
Note que
duh
o (x(τ ))
εxx (x (τ )) = dx - representa a deformação axial.
dû(x(τ ))
dx = Bu (τ ) .δqe
em que
T
Bu (τ ) = −1 1
Le , Le
(6.133)
e
{δqe }T = {ûe1 , ûe2 }.
0 EA du
dx
o dû
dx dx = xe1
2 EA du
dx
o dû
dx dx
e=1,Ne
, xe h
= xe1
2 EA du
dx
o dû
dx dx = [Ke ] qe .δqe
e=1,Ne e=1,Ne (6.136)
e
,L , xe
0 γ o û dx = xe1
2 γ o ûdx = Feγ .δqe
e=1,Ne e=1,Ne
CAPÍTULO 6. ELEMENTOS FINITOS 196
,L h ,L
0 EA du
dx
o dû
dx dx = 0 γ o û dx + P û (L) (6.137)
como
[Ke ] qe .δqe = Feγ .δqe + P ûN
e=1,Ne e=1,Ne
em que
EA 1 −1
[Ke ] = Le (6.138)
−1 1
e
1
Feγ = γ o Le
2 .
1
Solução de exemplo
Considere o problema da barra sujeita a deformação axial, submetida ao pêso próprio e a uma
carga P em uma das extremidades. Considere uma partição do domínio [0, L] em três elementos
finitos, de mesmo tamanho, como ilustrado na figura abaixo.
• Coordenadas dos nós dos elementos, para uma parti;áo uniforme, por simplicidade, é dada
por
x1 = 0
x2 = L3
(6.139)
x3 = 2L
3
x4 = L
o que nos permite determinar o tamanho dos elementos,
Le = L
3
. (6.140)
3EA 1 −1 u1 û1
[Ke ] qe .δqe = L .
e=1,Ne −1 1 u2 û2
1 −1 u2 û2
+ 3EA
L . (6.144)
−1 1 u3 û3
1 −1 u3 û3
+ 3EA
L . .
−1 1 u4 û4
Resta porém a imposição das condições de contorno. Contudo, u1 = û1 = 0 o que implica
na relação
Adicionalmente,
γ o Le 1 û1
Feγ .δqe = 2 .
e=1,Ne 1 û2
(6.147)
1 û2 1 û3
+ γ o2Le
γ o Le
. 2 . .
1 û3 1 û4
Consequentemente, definindo
u2
U= u3
u4 (6.151)
como sendo o vetor dos deslocamentos
nodais da estrutura
e
û2
δU = û3
û4 (6.152)
como sendo o vetor das variações dos
deslocamentos nodais da estrutura
e
2 −1 0
3EA
[KG ] = L −1 2 −1
(6.153)
0 −1 1
como sendo a matriz de rigidez global da estrutura
e
0
2
γoL
FG = 0 + 6 2
(6.154)
P 1
como sendo o vetor de forças nodais equivalente
i.e.,
[KG ] U = FG (6.156)
CAPÍTULO 6. ELEMENTOS FINITOS 199
em que
1 1 1
L
[KG ]−1 = 3EA 1 2 2 (6.158)
1 2 3
resultando em
γo L
1 1 1 3
L γo L
U = 3EA 1 2 2 3
γoL
1 2 3 P+ 6
i.e. (6.159)
u2
P + 56 Lγ o
L
U= u3 = 3EA 2P + 43 Lγ o
u4 3P + 32 Lγ o
Treliça 2D
Note que os deslocamentos nodais dos elementos {ue1 , ue2 } estão definidos na base local {x´, y´}
e estão na direção longitudinal x´. Estes deslocamentos nodais podem ser expressos em termos
! !
de suas componentes ue1x , ue1y e ue2x , ue2y como ilustrado
em que
ue1 = ue1x cos (θe ) + ue1y sin (θ e )
e (6.160)
ue2 = ue2x cos (θe ) + ue2y sin (θ e )
CAPÍTULO 6. ELEMENTOS FINITOS 200
qe = [Reθ ] qe2D
em que
{qe }T = {ue1 , ue2 }
e
!T ! (6.161)
qe2D = ue1x , ue1y , ue2x , ue2y
sendo
cos (θe ) sin (θ e ) 0 0
[Reθ ] =
0 0 cos (θ e ) sin (θe )
Para a determinação dos cossenos dos ângulos θe e αe determinamos inicialmente, como ilustrado
abaixo, o vetor unitário axial do elemento ne o qual pode ser determinado como
r2 −r1
ne = r2 −r1
em que (6.163)
r2 − r1 = (xe2 − xe1 ) ex + (ye2 − ye1 ) ey
(xe2 −xe1 )
cos (θ e ) = ne , ex = 2 2
(xe2 −xe1 ) +(ye2 −ye1 )
e (6.165)
(ye2 −ye1 )
cos (αe ) = cos( π2 − θe ) = sin (θ e ) = ne , ey = 2 2
.
(xe2 −xe1 ) +(ye2 −ye1 )
CAPÍTULO 6. ELEMENTOS FINITOS 201
• Termo (1)
A matriz de rigidez do elemento, expressa em termos da base global {x, y}, é dada por
" 2D #
Ke = [Reθ ]T [Ke ] [Reθ ] (6.168)
em que
EA cos θ e sin θ e − cos θ e − sin θ e
[Ke ] [Reθ ] = Le (6.169)
− cos θe − sin θ e cos θ e sin θe
CAPÍTULO 6. ELEMENTOS FINITOS 202
e
cos (θ e ) 0
" 2D # EA sin (θe ) 0 cos θ e sin θ e − cos θe − sin θ e
Ke = (6.170)
Le
0 cos (θe )
− cos θe − sin θe cos θ e sin θ e
0 sin (θ e )
cos2 θ e cos θ e sin θ e − cos2 θ e − cos θ e sin θ e
2
EA
cos θ e sin θ e sin θ e − cos θ e sin θ e − sin2 θe
=
Le
− cos2 θe − cos θe sin θe cos2 θe cos θ e sin θ e
− cos θe sin θe − sin2 θ e cos θ e sin θ e sin2 θ e
• Termo (2)
2D
P û2y = F P .δU 2D
em que
T
FP 2D = {0, −P, 0, 0} (6.171)
e
!T !
δU 2D = ûe2x , ûe2y , ûe3x , ûe3y
e
# nó ux uy
1 0 0
2 1 2 (6.173)
3 3 4
4 0 0
o que significa que temos quatro incógnitas, i.e., o vetor de incógnitas global U é composto pelas
seguintes componentes:
T
U = {u2x , u2y , u3x , u3y }
em que o ordenamento das variáveis é definido (6.174)
na tabela dos graus de liberdade (gdf.) dos nós.
A tabela seguinte contêm a tabela referente à incidência nodal de cada elemento. Note, que no
caso 1D, com interpolação linear, cada elemento tem apenas dois nós. Como resultado, temos
# Elem. e1 e2
1 1 2
2 1 3 (6.175)
3 4 3
4 3 2
Com a utilização das tabelas (6.173) e (6.175) podemos construir a tabela que define o ve-
tor de conectividade do elemento. Este vetor é fundamental para a automatização do pro-
cedimento computacional. Note que cada elemento possui 4 graus de liberdade, que são:
!
ue1x , ue1y , ue2x , ue2y
i.e.
cos2 θ 1 cos θ 1 sin θ 1 − cos2 θ 1 − cos θ 1 sin θ1
u1x
û1x
EA
cos θ 1 sin θ1 2
sin θ 1 − cos θ 1 sin θ 1 − sin2 θ 1 u1y û
1y
.
L1 − cos2 θ 1 − cos θ 1 sin θ1 cos2 θ 1 cos θ 1 sin θ 1 u2x
û2x
− cos θ 1 sin θ 1 2
− sin θ 1 cos θ 1 sin θ1 sin2 θ1 u2y û
2y
cos2 θ 2 cos θ 2 sin θ2 − cos2 θ2 − cos θ2 sin θ 2
u1x
û1x
cos θ2 sin θ 2 2
sin θ 2 − cos θ 2 sin θ2 − sin2 θ2 u1y û
1y
+ EA
L2
.
− cos2 θ2 − cos θ2 sin θ 2 cos2 θ 2 cos θ 2 sin θ2 u3x
û
3x
2
û
− cos θ 2 sin θ2 − sin θ2 cos θ2 sin θ 2 sin2 θ 2 u3y 3y
cos2 θ 3 cos θ 3 sin θ3 − cos2 θ3 − cos θ3 sin θ 3
u4x
û4x
cos θ3 sin θ 3 2
sin θ 3 − cos θ 3 sin θ3 − sin2 θ3 u4y û
4y
+ EA
L3
.
− cos2 θ3 − cos θ3 sin θ 3 cos2 θ 3 cos θ 3 sin θ3 u3x
û3x
2
û
− cos θ 3 sin θ3 − sin θ3 cos θ3 sin θ 3 sin2 θ 3 u3y 3y
cos2 θ 4 cos θ 4 sin θ4 − cos2 θ4 − cos θ4 sin θ 4
u3x
û3x
cos θ4 sin θ 4 2
sin θ 4 − cos θ 4 sin θ4 − sin2 θ4 u3y û
3y
+ EA
L4
.
− cos2 θ4 − cos θ4 sin θ 4 cos2 θ 4 cos θ 4 sin θ4 u2x
û
2x
û
− cos θ 4 sin θ4 − sin2 θ4 cos θ4 sin θ 4 sin2 θ 4 u2y 2y
= −P.u2y
(6.179)
CAPÍTULO 6. ELEMENTOS FINITOS 205
u1x 0 û1x 0
= =⇒ =
u1y 0 û1y 0
e (6.180)
u4x 0 û4x 0
= =⇒ =
u4y 0 û4y 0
o que acarreta em
= −P.u2y
(6.181)
CAPÍTULO 6. ELEMENTOS FINITOS 206
0 0 0 0
u2x
û2x
0 0 0 0 u2y û
2y
+ EA
L2
2
.
0 0 cos θ 2 cos θ 2 sin θ2 u3x
û3x
0 0 cos θ2 sin θ 2 sin2 θ 2 u3y û
3y
0 0 0 0
u2x
û2x
0 0 0 0 u2y û 2y
+ EA
0 0
.
L3
cos2 θ 3 cos θ 3 sin θ3
u3x
û3x
0 0 cos θ3 sin θ 3 2
sin θ 3 u 3y û 3y
cos2 θ 4 cos θ 4 sin θ4 − cos2 θ4 − cos θ4 sin θ 4
u3x
û3x
cos θ4 sin θ 4 2
sin θ 4 − cos θ 4 sin θ4 − sin2 θ4 u3y û
3y
+ EA
L4
.
− cos2 θ4 − cos θ4 sin θ 4 cos2 θ 4 cos θ 4 sin θ4 u2x
û2x
2
û
− cos θ 4 sin θ4 − sin θ4 cos θ4 sin θ 4 sin2 θ 4 u2y 2y
0
û2x
−P
û
2y
= .
0
û3x
0 û
3y
(6.182)
Definindo
T
U = {u2x , u2y , u3x , u3y }
o vetor de deslocamentos nodais (incógnitas)
e (6.183)
T
δU = {û2x , û2y , û3x , û3y }
o vetor de variações de deslocamentos nodais
CAPÍTULO 6. ELEMENTOS FINITOS 207
e
cos2 θ 1 cos θ 1 sin θ 1 0 0
" 2D # EA
cos θ1 sin θ1
sin2 θ 1 0 0
K =
L1
0 0 0 0
0 0 0 0
0 0 0 0
0 0 0 0
+ EA
L2
2
0 0 cos θ 2 cos θ 2 sin θ 2
0 0 cos θ2 sin θ 2 sin2 θ 2
(6.184)
0 0 0 0
+ EA 0 0 0 0
L3 2
0 0 cos θ 3 cos θ 3 sin θ 3
0 0 cos θ3 sin θ 3 sin2 θ 3
cos2 θ 4 cos θ 4 sin θ 4 − cos2 θ4 − cos θ4 sin θ4
2
cos θ4 sin θ 4 sin θ 4 − cos θ 4 sin θ 4 − sin2 θ4
+ EA
L4
− cos2 θ4 − cos θ4 sin θ 4 cos2 θ 4 cos θ 4 sin θ 4
2
− cos θ 4 sin θ 4 − sin θ4 cos θ4 sin θ 4 sin2 θ 4
como sendo a matriz de rigidez global da estrutura, a qual pode ser expressa através de um
operador de montagem local-global
" 2D # " #
K = Λ K2D
e , Ne = 4,
e=1,4
em que
" 2D #
K - é a matriz de rigidez global da estrutura (6.185)
e
" 2D #
Ke - a matriz de rigidez do e-ésimo elemento da estrutura
e
0
−P
FP 2D =
0
(6.186)
0
como sendo o vetor de forças global da estrutura
temos, após substituir (6.183), (6.184) e (6.186) em (6.182) a seguinte expressão
" 2D #
K U.δ U = F P 2D .δ U, ∀δ U ∈ R4 (6.187)
i.e.
" 2D #
K U − FP 2D , δ U = 0, ∀δ U ∈ R4 (6.188)
CAPÍTULO 6. ELEMENTOS FINITOS 208
o que implica em
" 2D #
K U = F P 2D
O qual correspondo à equação de equilíbrio (6.189)
discretizado.
Note que como solução temos o vetor de deslocamentos nodais
u2x
0
u " 2D #−1 −P
2y
U= = K (6.190)
u3x
0
u 0
3y
u1x 0 û1x 0
= =⇒ =
u1y 0 û1y 0
e (6.191)
u4x 0 û4x 0
= =⇒ = .
u4y 0 û4y 0
e a deformação axial é
du (x (τ )) du (x (τ )) dτ
εxx (x (τ )) = = (6.194)
dx dτ dx
2 dψ 1 (τ ) dψ2 (τ )
= ue1 + ue2
Le dτ dτ
2 dψ (τ ) dψ (τ )
= ue1 1 + ue2 2
Le dτ dτ
2 ue2 − ue1
=
Le 2
ue2 − ue1
=
Le
CAPÍTULO 6. ELEMENTOS FINITOS 209
i.e.
ue2 −ue1
εxx (x (τ )) = Le = Cte. (6.195)
σ xx (x (τ )) = E εxx (x (τ ))
i.e. (6.196)
ue2 −ue1
σ xx (x (τ )) = E Le = Cte.
r1 = xe1 ex + ye1 ey
r2 = xe2 ex + ye2 ey
(xe2 −xe1 )
cos (θ e ) = ne , ex = 2 2
(xe2 −xe1 ) +(ye2 −ye1 )
e (6.198)
(ye2 −ye1 )
cos (αe ) = cos( π2 − θe ) = sin (θ e ) = ne , ey = 2 2
.
(xe2 −xe1 ) +(ye2 −ye1 )
min f (x, u)
tal que
hi (x, u) = 0, i = 1, l
(6.202)
gj (x, u) ≤ 0, j = 1, s̄
e
l (x, u) = [K (x)] u − F (x) = 0.
Definindo
y = (x, u) (6.203)
CAPÍTULO 6. ELEMENTOS FINITOS 211
em que u e x são independentes, o problema (6.202) pode ser reformulado como: Seja
Determmine y ∈ Rn × Rm solução de
min F (y)
tal que
Hi (y) = 0, i = 1, l
(6.205)
Gj (y) ≤ 0, j = 1, s̄
e
Lk (y) = 0, k = 1, m.
l s̄ m
∇y F (y ∗ ) + ν ∗i ∇y Hi (y ∗ ) + µ∗j ∇y Gj (y ∗ ) + λ∗k ∇y Lk (y ∗ ) = 0
i=1 j=1 k=1
(6.206)
Hi (y ∗ ) = 0, i = 1, l, Lk (y ∗ ) = 0, k = 1, m
e
Gj (y ∗ ) ≤ 0, Gj (y ∗ ) µ∗j = 0 e µ∗j ≥ 0, j = 1, s̄.
CAPÍTULO 6. ELEMENTOS FINITOS 212
l s̄ m
∂f(x∗ ,u∗ ) ∗ ,u∗ ) ∂g (x∗ ,u∗ ) ∗ ∗)
ν ∗i ∂hi (x λ∗k ∂lk (x
,u
∂xr + ∂xr + µ∗j j ∂xr + ∂xr = 0, r = 1, n
i=1 j=1 k=1
l s̄ m
∂f(x∗ ,u∗ ) ∗ ,u∗ ) ∂g (x∗ ,u∗ ) ∗ ∗)
∂ur + ν ∗i ∂hi (x
∂ur + µ∗j j ∂ur + λ∗k ∂lk (x
∂ur
,u
= 0, r = 1, m
i=1 j=1 k=1
hi (x∗ , u∗ ) = 0, i = 1, l, lk (x∗ , u∗ ) = 0, k = 1, m
e
gj (x∗ , u∗ ) ≤ 0, gj (x∗ , u∗ ) µ∗j = 0 e µ∗j ≥ 0, j = 1, s̄.
(6.207)
• Procedimento (2)
Considere o problema: Determinar (x, u) ∈ Rn × Rm solução de
min f (x, u)
tal que
hi (x, u) = 0, i = 1, l
(6.208)
gj (x, u) ≤ 0, j = 1, s̄
e
l (x, u) = [K (x)] u − F (x) = 0.
Neste procedimento, é feita uma eliminação de variáveis, i.e., é considerado que a restrição
de igualdade
[K (x)] u − F (x) = 0 (6.209)
Note que, por este procedimento, u é dependente de x. Fazendo uso da relação (6.210)
podemos eliminar u não só da função objetivo, f (x, u), como também das restrições
hi (x, u), i = 1, l, e gj (x, u), j = 1, s̄.
Definindo
fˇ (x) = f (x, u (x)),
min fˇ (x)
tal que
ȟi (x) = 0, i = 1, l
(6.212)
ǧj (x) ≤ 0, j = 1, s̄
em que u (x) ∈ Rm é solução de:
[K (x)] u (x) = F (x).
l s̄
∇x fˇ (x∗ ) + ν ∗i ∇x ȟi (x∗ ) + µ∗j ∇x ǧj (x∗ ) = 0
i=1 j=1
(6.213)
ȟi (x∗ ) = 0, i = 1, l, Lk (y ∗ ) = 0, k = 1, m
e
ǧj (x∗ ) ≤ 0, ǧj (x∗ ) µ∗j = 0 e µ∗j ≥ 0, j = 1, s̄.
∇x fˇ (x∗ ) = ?
∇x ȟi (x∗ ) = ?
e
∇x ǧj (x∗ ) = ?
Define-se m
dfˇ(x) ∂f (x,u) ∂f(x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1
ou, de forma equivalente,
dfˇ(x) ∂f (x,u) ∂f (x,u) ∂u(x)
dxi = ∂xi + ∂u , ∂xi
(6.215)
em que
∂f(x,u) ∂f (x,u) ∂f (x,u) ∂f(x,u)
∂u = ∂u1 , ∂u2 , ... ∂um ∈ Rm
e
∂u(x) ∂u1 (x) ∂u2 (x) ∂um (x)
∂xi = ∂xi , ∂xi , ... ∂xi ∈ Rm .
∂u (x)
Note que, em (6.215), é requerida a determinação das derivadas parciais ∂x
j
i
. Estas
derivadas medem a sensitividade da variável de estado u (x) ∈ R , que satisfaz à
m
com relação à variação da i-ésima variável de projeto. Por isto, esta análise é de-
∂uj (x)
nominada por análise de sensibilidade. Seu objetivo é determinar as derivadas ∂x i
dfˇ(x)
de modo a podermos computar dxi ,
fazendo uso de (6.215). Uma vez finalizada a
análise de sensibilidade, podemos computar o gradiente da função objetivo ∇x fˇ (x∗ ),
ˇ dfˇ(x) dfˇ(x)
definito por ∇x fˇ (x∗ ) = ddx
f(x)
1
, dx 2
, ...., dxn ∈ Rn .
(ii) Análise de sensibilidade: método direto
∂u (x)
No método direto, determinamos ∂x j
i
através da derivação da equação de estado
(equilíbrio), definida em (6.216). Como resultado, temos
∂
∂xi {[K (x)] u (x)} = ∂
∂xi F (x) (6.217)
i.e.
∂K(x) ∂ F (x)
∂xi u (x) + [K (x)] ∂u(x)
∂xi = ∂xi
(6.218)
∂ F (x)
∂u(x)
∂xi = [K (x)]−1 ∂xi − ∂K(x)
∂xi u (x) . (6.219)
Veja que, uma vez efetuada a análise de sensibilidade, i.e., determinada a derivada
∂u(x)
∂xi , podemos determinar as componentes dos gradientes de ∇x ȟi (x ) e ∇x ǧj (x )
∗ ∗
CAPÍTULO 6. ELEMENTOS FINITOS 215
m
dȟk (x) ∂ ȟk (x,u) ∂ ȟk (x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1
m (6.220)
dǧk (x) ∂ǧk (x,u) ∂ ǧk (x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1
em que u (x) ∈ Rm , é solução de
[K (x)] u (x) = F (x)
e, para cada i = 1, n, ∂u(x)
∂xi é solução de
∂ F (x)
[K (x)] ∂u(x)
∂K(x)
∂xi = ∂xi − ∂xi u (x) .
(4.1) - Compute
∂ F (x) ∂K(x)
∂xi e {gi (x)} = ∂xi {u (x)}
∂u(x)
(4.2) - Determine, por back substitution, ∂xi
solução de
∂u(x) ∂ F (x)
[K (x)] ∂xi = ∂xi − {gi (x)}
∂f (x,u)
(4.3) - Determine o vetor ∂u , definido por
∂f (x,u) ∂f (x,u) ∂f (x,u) ∂f(x,u)
∂u = ∂u1 , ∂u2 , ... ∂um ∈ Rm
e as derivadas (6.223)
∂f (x,u) ∂ ȟk (x,u) ∂ ǧk (x,u)
∂xi , ∂xi e ∂xi
min fˇ (x)
tal que
ȟi (x) = 0, i = 1, l
ǧj (x) ≤ 0, j = 1, s̄
em que
fˇ (x) = f (x, u (x)) (6.224)
m
dȟk (x) ∂ ȟk (x,u) ∂ ȟk (x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1
(6.225)
m
dǧk (x) ∂ ǧk (x,u) ∂ǧk (x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1
em que u (x) é solução de
[K (x)] u (x) = F (x),
Utilizando a propriedade
obtem-se
∂u(x) ∂u(x)
∂xi , [K (x)]T λ = ∂xi , [K (x)]T λ
o que implica em (6.230)
∂u(x) T ∂ F (x) ∂K(x)
∂xi , [K (x)] λ = ∂xi − ∂xi {u (x)} , λ .
∂f (x,u)
[K (x)]T λf = ∂u . (6.231)
CAPÍTULO 6. ELEMENTOS FINITOS 218
Como resultado,
ˇ
df(x) ∂f(x,u) ∂K(x) ∂ F (x)
dxi = ∂xi − ∂xi {u (x)} − ∂xi , λf
em que λf ∈ Rm é solução de (6.235)
∂f (x,u)
[K (x)]T λf = ∂u .
∂f (x,u)
[K (x)]T λf = ∂u
∂gk (x,u)
[K (x)]T λgk = ∂u (6.239)
e
∂hr (x,u)
[K (x)]T λhr = ∂u
ˇ ȟi e ǧj
5. Determine as sensibilidades de f,
Observação:
O método adjunto é computacionalmente mais eficiente do que o método direto quando
temos muitas variáveis de projeto e poucas restrições. No caso de termos poucas variáveis
de projeto e muitas restrições, o método direto é mais eficiente. Esta análise está baseada
no números de sistemas de equações cujas soluções são requeridas.
No método direto temos os seguintes sistemas de equações:
∂f (x,u)
[K (x)]T λf = ∂u
(6.242)
∂gk (x,u)
[K (x)]T λgk = ∂u , k = 1, s̄
e
∂hr (x,u)
[K (x)]T λhr = ∂u , r = 1, l
que consiste em uma treliça apoiada nos nós (1) e (3) e sujeita a forças concentradas Fa e Fb
aplicadas nos nós (4) e (5) respectivamente.
Para determinar a solução do problema da treliça acima ilustrada, necessitamos dos dados
apresentados nas tabelas seguintes:
e
# nó ux uy
1 0 0
2 1 2
(6.244)
3 0 0
4 3 4
5 5 6
o que significa que temos quatro incógnitas, i.e., o vetor de incógnitas global U é composto pelas
seguintes componentes:
T
U = {u2x , u2y , u4x , u4y , u5x , u5y }
em que o ordenamento das variáveis é definido (6.245)
na tabela dos graus de liberdade (gdf.) dos nós.
A tabela seguinte contêm a tabela referente à incidência nodal de cada elemento. Note, que no
caso 1D, com interpolação linear, cada elemento tem apenas dois nós. Como resultado, temos
# Elem. e1 e2
1 1 2
2 2 3
3 1 4
(6.246)
4 4 2
5 2 5
6 5 3
7 4 5
Com a utilização das tabelas (6.173) e (6.175) podemos construir a tabela que define o ve-
tor de conectividade do elemento. Este vetor é fundamental para a automatização do pro-
cedimento computacional. Note que cada elemento possui 4 graus de liberdade, que são:
!
ue1x , ue1y , ue2x , ue2y
para determinar os ângulos de cada elemento, com relação ao sistema de coordenadas global,
utilizamos as seguintes relações:
Considere a incidência nodal do elemento abaixo ilustrado.
Uma vez definido quais são o primeiro e o segundo nós da incidência do elemento
determinamos
(xe2 −xe1 )
cos (θ e ) = ne , ex =
(xe2 −xe1 )2 +(ye2 −ye1 )2
e (6.248)
(ye2 −ye1 )
sin (θ e ) = ne , ey = 2 2
.
(xe2 −xe1 ) +(ye2 −ye1 )
Note que a matriz de rigidez do elemento é dada por
cos2 θ e cos θ e sin θ e − cos2 θe − cos θe sin θe
2
" 2D # Ee Ae
cos θ e sin θ e sin θe − cos θe sin θe − sin2 θ e
.
Ke = Le
(6.249)
− cos2 θe − cos θe sin θe cos2 θ e cos θ e sin θ e
2
− cos θ e sin θ e − sin θ e cos θ e sin θ e sin2 θe
Veja que consideramos, neste ponto, que tanto as áreas como o módulo de Young do material
que compõe os elementos estruturais barras possam variar de lemento para elemento. Desta
form, estas diferentes propriedades ou medidas geométricas podem ser vistas posteriormente
como possíveis variáveis de projeto, caso seja de interesse efetuar um processo de otimização da
CAPÍTULO 6. ELEMENTOS FINITOS 223
estrutura.
# Elem. θe
1 0◦
2 0◦
3 θ
4 −θ
(6.250)
5 θ
6 −θ
7 0◦
em que
θ = arctan 2H
L .
Note que
cos (−θ) = cos (θ)
e (6.251)
sin (−θ) = − sin (θ).
i.e.
1 0 −1 0 u1x
û1x
E1 A 1
0 0 0 0 u1y
û
1y
.
L1
−1 0 1 0
u2x
û2x
0 0 0 0 u2y û
2y
1 0 −1 0
u2x
û2x
0 0 0 0 u2y û
2y
+ EL2 A 2
−1 0
.
2
1 0
u3x
û3x
0 0 0 0 u3y
û
3y
cos2 θ cos θ sin θ − cos2 θ − cos θ sin θ
u1x
û1x
cos θ sin θ 2
sin θ − cos θ sin θ − sin2 θ u1y û
1y
+ EL3 A 3
.
3
− cos2 θ − cos θ sin θ cos2 θ cos θ sin θ u4x
û4x
2
û
− cos θ sin θ − sin θ cos θ sin θ sin2 θ u4y 4y
cos2 θ − cos θ sin θ − cos2 θ cos θ sin θ
u4x
û4x
− cos θ sin θ 2
sin θ cos θ sin θ − sin2 θ u4y û
4y
+ EL4 A 4
.
4
− cos2 θ cos θ sin θ cos2 θ − cos θ sin θ u2x
û2x
2
û
cos θ sin θ − sin θ − cos θ sin θ sin2 θ u2y 2y
cos2 θ cos θ sin θ − cos2 θ − cos θ sin θ
u2x
û2x
cos θ sin θ 2
sin θ − cos θ sin θ − sin2 θ u2y û
2y
+ EL5 A 5
.
5
− cos2 θ − cos θ sin θ cos2 θ cos θ sin θ u5x
û
5x
2
û
− cos θ sin θ − sin θ cos θ sin θ sin2 θ u5y 5y
cos2 θ − cos θ sin θ − cos2 θ cos θ sin θ
u5x
û5x
− cos θ sin θ 2
sin θ cos θ sin θ − sin2 θ u5y û
5y
+ EL6 A 6
.
6
− cos2 θ cos θ sin θ cos2 θ − cos θ sin θ u3x
û3x
2
û
cos θ sin θ − sin θ − cos θ sin θ sin2 θ u3y 3y
1 0 −1 0 u4x
û4x
u
û
0 0 0 0 4y 4y
+ EL7 A 7
.
7
−1 0 1 0
u5x
û
5x
0 0 0 0 u5y û
5y
= FP 2D .δU 2D
(6.254)
CAPÍTULO 6. ELEMENTOS FINITOS 226
u1x 0 û1x 0
= =⇒ =
u1y 0 û1y 0
e (6.255)
u3x 0 û3x 0
= =⇒ =
u3y 0 û3y 0
o que acarreta em
E1 A 1 1 0 u2x û2x
L1 .
0 0 u2y û2y
1 0 u2x û2x
+ EL2 A
2
2
.
0 0 u2y û2y
cos2 θ cos θ sin θ − cos2 θ − cos θ sin θ
u2x
û2x
cos θ sin θ 2
sin θ − cos θ sin θ − sin2 θ u2y û
2y
+ EL5 A 5
.
5
− cos2 θ − cos θ sin θ cos2 θ cos θ sin θ u5x
û5x
2
û
− cos θ sin θ − sin θ cos θ sin θ sin2 θ u5y 5y
= FP 2D .δU 2D
(6.256)
CAPÍTULO 6. ELEMENTOS FINITOS 227
Definindo
T
U = {u2x , u2y , u4x , u4y , u5x , u5y }
o vetor de deslocamentos nodais (incógnitas)
e (6.257)
T
δU = {û2x , û2y , û4x , û4y , û5x, û5y }
o vetor de variações de deslocamentos nodais
podemos determinar a matriz de rigidez global da estrutura como:
Linha 1
E1 A 1 E2 A2 E4 A4 2 E5 A5
K(1, 1) = L1 + L2 + L4 cos θ + L5 cos2 θ
K(1, 2) = − EL4 A4 4 cos θ sin θ + EL5 A5 5 cos θ sin θ
K(1, 3) = − EL4 A4 4 cos2 θ
E4 A 4
(6.258)
K(1, 4) = L4 cos θ sin θ
K(1, 5) = − EL5 A5 5 cos2 θ
K(1, 6) = − EL5 A5 5 cos θ sin θ
Linha 2
K(2, 1) = − EL4 A4 4 cos θ sin θ + EL5 A5 5 cos θ sin θ
K(2, 2) = EL4 A4 4 sin2 θ + EL5 A
5
5
sin2 θ
K(2, 3) = EL4 A4 4 cos θ sin θ
(6.259)
K(2, 4) = − EL4 A4 4 sin2 θ
K(2, 5) = − EL5 A5 5 cos θ sin θ
K(2, 6) = − EL5 A5 5 sin2 θ
Linha 3
K(3, 1) = − EL4 A 4
4
cos2 θ
K(3, 2) = EL4 A4 4 cos θ sin θ
K(3, 3) = EL3 A3 3 cos2 θ + EL7 A7 7 + EL4 A4 4 cos2 θ
(6.260)
K(3, 4) = EL3 A3 3 cos θ sin θ − EL4 A4 4 cos θ sin θ
K(3, 5) = − EL7 A 7
7
K(3, 6) = 0
Linha 4
K(4, 1) = EL4 A
4
4
cos θ sin θ
K(4, 2) = − L4 sin2 θ
E4 A4
K(4, 3) = EL3 A 3
cos θ sin θ − EL4 A4 4 cos θ sin θ
3 (6.261)
K(4, 4) = EL3 A
3
3
sin2 θ + EL4 A4 4 sin2 θ
K(4, 5) = 0
K(4, 6) = 0
CAPÍTULO 6. ELEMENTOS FINITOS 228
Linha 5
K(5, 1) = − EL5 A5 5 cos2 θ
K(5, 2) = − EL5 A5 5 cos θ sin θ
K(5, 3) = − EL7 A7 7
(6.262)
K(5, 4) = 0
K(5, 5) = EL6 A6 6 cos2 θ + EL7 A
7
7
+ EL5 A5 5 cos2 θ
K(5, 6) = − EL6 A6 6 cos θ sin θ + EL5 A5 5 cos θ sin θ
Linha 6
K(6, 1) = − EL5 A5 5 cos θ sin θ
K(6, 2) = − EL5 A5 5 sin2 θ
K(6, 3) = 0
(6.263)
K(6, 4) = 0
K(6, 5) = − EL6 A6 6 cos θ sin θ + EL5 A5 5 cos θ sin θ
K(6, 6) = EL6 A6 6 sin2 θ + EL5 A
5
5
sin2 θ.
Observação
Note que, a montagem da matriz de rigidez global é feita de forma automática através do
seguinte procedimento:
Consideramos neste problema que as variáveis de projeto são dadas pelas áreas das seções
transversais das barras que forma a treliça.
min fˇ A
tal que
ǧj A ≤ 0, j = 1, s̄
em que
fˇ A = f A, u A
e
ǧj A = gj A, u A , j = 1, s̄
sendo
u A ∈ Rm solução de:
K A u A =F A .
Note que, como a carga externa é prescrita, para que o trabalho das forças externas seja
mínimo, os deslocamentos dos nós, em que são aplicadas as cargas, devem ser mínimos.
Isto significa que, ao minimizarmos a "compliance"tendenmos a obter a estrutura com
CAPÍTULO 6. ELEMENTOS FINITOS 230
maior rigidez possível, de modo a apresentar os menores deslocamentos nodais. Por outro
" sup #
lado, como as áreas devem satisfazer limites inferiores e superiores, i.e., Ai ∈ Ainf
i , Ai ,
sup
ao minimizarmos a "compliance"as áreas tenderão para o valor máximo, Ai → Ai . Em
vista desta observação é que se coloca uma restrição adicional, que consiste em buscar
a estrutura mais resistente possível para um volume final, por exemplo, 20% do volume
inicial.
1. Restrições laterais
Consideramos que as variáveis de projeto satisfaçam
sup
Ainf
i ≤ Ai ≤ Ai , para i = 1, n
g(2i−1) A, u A = Ainf
i − Ai ≤ 0
e
g(2i) A, u A = Ai − Asup
i ≤0
para i = 1, n
2. Restrição de volume
Seja Ao o vetor das áreas iniciais das barras da trelição. Como resultado, o volume
inicial de material utilizado em toda a estrutura é dado por
n
Vo = Aoe Le
e=1
3. Restrição de deslocamento
Podemos considerar também, uma restrição ao deslocamento do nó 4, na direção y,
por exemplo. Como resultado, temos
|u3 | ≤ uadm ,
i.e.,
−uadm ≤ u3 ≤ uadm
g(2n+2) A, u A = −uadm − u3 ≤ 0
e
g(2n+3) A, u A = u3 − uadm ≤ 0
4. Restrição de tensões
Neste caso consideramos que, para cada elemento de barra da treliça,
|σe | ≤ σadm ,
i.e.,
−σ adm ≤ σe ≤ σ adm
para e = 1, n.
Para e = 1, n
g(2n+3+2e−1) A, u A = −σadm − σ e ≤ 0
e
g(2n+3+2e) A, u A = σ e − σadm ≤ 0.
CAPÍTULO 6. ELEMENTOS FINITOS 232
Note que, de um modo geral, a menos de nós em que são impostas as condições de
contorno,
x
u e1
uy
e1
= u (lm(:))
uxe2
uy
e2
em que
lm(:) - é o vetor conectividade
do e-ésimo elemento
Uma vez obtidas as componentes do campo de deslocamento, no sistema global, dos
nós do e-ésimo elemento, podemos determinar a componente do campo de desloca-
mento dos nós e1 e e2 , no sistema local, como
y
uloc x
e1 = ue1 cos θ e + ue1 sin θe
e
y
e2 = ue2 cos θ e + ue2 sin θe .
uloc x
Uma vez determinados os deslocamentos nodais na direção axial da barra, com relação
ao sistema local, determinamos a deformação axial da barra como
uloc loc
e2 −ue1
εe = Le
e com a aplicação da Lei de Hooke, a tensão axial atuando no elemento, dada por
uloc loc
e2 −ue1
σ e = Ee Le
na qual
Ee - representa o módulo de Yound da barra e.
CAPÍTULO 6. ELEMENTOS FINITOS 233
uloc
e4 = u3 cos θe + u4 sin θ e
e
uloc
e5 = u5 cos θe + u6 sin θ e
sendo
θ 7 = 0◦ .
ε7 = u5L−u
7
3
sendo
Le = L.
σ 7 = EL7 (u5 − u3 )
na qual
E7 - representa o módulo de Yound da barra e = 7.
Capítulo 7
Treliça tri-dimensional
7.1 Introdução
Considere o problema da treliça ilustrada abaixo, em que os nós (1), (2) e (3) estão no plano
{x, y}, do sistema de coordenadas global {x, y, z}, na cota em z = 0. O ponto (4) está na cota
z, não nula, e a força P está atuando na direção ez no sentido negativo.
A equação de equilíbrio da treliça, em que cada elemento estrutural barra está expresso em seu
sistema local, i.e., com relação à base local cartesiana {x´, y´, z´}, é dada por
234
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 235
Note que ue1 e ue2 são os deslocamento dos nós e1 e e2 do e-ésimo elemento na direção {x´}
respectivamente. Estes deslocamentos nodais podem ser expressos em termos de suas compo-
! !
nentes ue1x , ue1y , ue1z e ue2x , ue2y , ue2z , relativas ao sistema de coordenadas global {x, y, z},
da seguinte forma
Denominando os cossenos diretores (cos (αe ) , cos (β e ) , cos (γ e )) = (le , me , ne ), podemos expres-
sar (7.2) de forma matricial, como
qe = [Re ] qe3D
em que
{qe }T = {ue1 , ue2 }
e
!T ! (7.3)
qe3D = ue1x , ue1y , ue1z , ue2x , ue2y , ue2z
sendo
le me ne 0 0 0
[Re ] = .
0 0 0 le me ne
Para a determinação dos cossenos diretores (cos (αe ) , cos (β e ) , cos (γ e )) = (le , me , ne ), obtemos
inicialmente, como ilustrado abaixo, o vetor unitário axial do elemento ne , o qual pode ser é
dado por
−r1
ne = rr22 −r 1
em que (7.5)
r2 − r1 = (xe2 − xe1 ) ex + (ye2 − ye1 ) ey + (ze2 − ze1 ) ey .
Como resultado, temos
Consequentemente, os cossenos diretores (cos (αe ) , cos (β e ) , cos (γ e )) = (le , me , ne ) podem ser
determinados por
(xe2 −xe1 )
le = cos (αe ) = ne , ex = 2 2 2
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )
(ye2 −ye1 )
me = cos (β e ) = ne , ey = 2 2 2 (7.7)
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )
e
(ze2 −ze1 )
ne = cos (γ e ) = ne , ez = 2 2 2
.
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )
a qual pode ser expressa, com relação à base global {x, y, z}, como:
• Termo (1)
A matriz de rigidez do elemento, expressa em termos da base global {x, y, z}, é dada por
" 3D #
Ke = [Re ]T [Ke ] [Re ] (7.10)
em que
EA le me ne −le −me −ne
[Ke ] [Re ] = Le (7.11)
−le −me −ne le me ne
e
le 0
me 0
" 3D # EA
ne 0 le me ne −le −me −ne
Ke = (7.12)
Le 0 le −le −me −ne le me ne
0 me
0 ne
le2 le me le ne −le2 −le me −le ne
le me m2e me ne −le me −m2e −me ne
EA
le ne me ne n2e −le ne −me ne −n2e
=
Le
−le2 −le me −le ne le2 le me le ne
−l m −m2e −me ne le me m2e me ne
e e
−le ne −me ne −n2e le ne me ne n2e
• Termo (2)
3D
P û4z = F P .δU 3D
em que
T
FP 3D = {0, 0, −P } (7.13)
e
!T
δU 3D = {û4x , û4y , û4z }.
Para a determinação da matriz de rigidez global e do vetor de forças nodal de toda a estrutura,
são necessários os dados apresentados nas tabelas seguintes:
e
# nó ux uy uz
1 0 0 0
2 0 0 0 . (7.15)
3 0 0 0
4 1 2 3
A tabela (7.15) mostra que temos três incógnitas, i.e., que o vetor de incógnitas global U é
composto pelas seguintes componentes:
T
U = {u4x , u4y , u4z }
em que o ordenamento das variáveis é definido (7.16)
na tabela dos graus de liberdade (gdf.) dos nós.
A tabela seguinte contêm a tabela referente à incidência nodal de cada elemento. Note, que no
caso 1D, com interpolação linear, cada elemento tem apenas dois nós. Como resultado, temos
# Elem. e1 e2
1 1 4
. (7.17)
2 2 4
3 3 4
A utilização combinada das tabelas (7.15) e (7.17) permite a construção da tabela que define
o vetor de conectividade de cada elemento. Este vetor é fundamental para a automatização do
procedimento computacional referente à construção da matriz de rigidez de toda a estrutura
e do vetor de forças nodais aplicado na estrutura. Note que cada elemento possui 6 graus de
liberdade, representados pelas componentes {ux , uy , uz } dos nós {e1 , e2 }. Neste caso, os vetores
de conectividade de cada elemento são dados pela tabela
i.e.
l12 l1 m1 l1 n1 −l12 −l1 m1 −l1 n1
u1x
û1x
l1 m1 m1 2 m1 n1 −l1 m1 −m21 −m1 n1 u1y
û1y
n21 −n21
û
EA l1 n1 m1 n1 −l1 n1 −m1 n1 u1z 1z
L1 2
.
−l1 −l1 m1 −l1 n1 l12 l1 m1 l1 n1
u4x
û4x
−l m 2 2
1 1 −m1 −m1 n1 l1 m1 m1 m1 n1
u4y
û4y
2
û
−l1 n1 −m1 n1 −n1 l1 n1 m1 n1 n21 u4z 4z
l22 l2 m2 l2 n 2 −l22 −l2 m2 −l2 n2
u2x
û2x
l2 m2 m2 2
m2 n2 −l2 m2 −m22 −m2 n2 u2y
û2y
l2 n 2 m2 n2 n22 −l2 n2 −m2 n2 −n22 u2z
û
2z
+ EA
L2 .
−l22 −l2 m2 −l2 n2 l22 l2 m2 l2 n 2
u4x
û4x
2 2
(7.21)
−l2 m2 −m2 −m2 n2 l2 m2 m2 m2 n2
u4y
û4y
2
û
−l2 n2 −m2 n2 −n2 l2 n2 m2 n2 n22 u4z 4z
l32 l3 m3 l3 n 3 −l32 −l3 m3 −l3 n3
u3x
û3x
l3 m3 m3 2
m3 n3 −l3 m3 −m23 −m3 n3 u3y
û3y
l3 n 3 m3 n3 n23 −l3 n3 −m3 n3 −n23 u3z
û
EA 3z
+ L3 .
−l32 −l3 m3 −l3 n3 l32 l3 m3 l3 n 3
u4x
û4x
2 2
−l3 m3 −m3 −m3 n3 l3 m3 m3 m3 n3
u4y
û4y
2
û
−l3 n3 −m3 n3 −n3 l3 n3 m3 n3 n23 u4z 4z
= −P.u4z
u2x
0
û2x
0
u2y = 0 =⇒ û2y = 0 (7.22)
u2z 0 û2z 0
e
u3x
0
û3x
0
u3y = 0 =⇒ û3y = 0
u3z 0 û3z 0
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 241
o que acarreta em
l12 l1 m1 l1 n1 u4x
û4x
EA 2
L1 l1 m1 m1 m1 n1 u4y . û4y
l1 n1 m1 n1 n21 u4z û4z
l22 l2 m2 l2 n2 u4x
û4x
EA 2
+ L2 l2 m2 m2 m2 n2 u4y . û4y
l2 n2 m2 n2 n22 u4z û4z
(7.23)
l32 l3 m3 l3 n3 u4x
û4x
EA 2
+ L3 l3 m3 m3 m3 n3 u4y . û4y
l3 n3 m3 n3 2
n3 u4z û4z
0
û4x
= −P.u4Z = 0 . û4y .
−P û4z
Definindo
T
U = {u4x , u4y , u4z }
o vetor de deslocamentos nodais (incógnitas)
e (7.24)
T
δU = {û4x , û4y , û4z }
o vetor de variações de deslocamentos nodais
e
l12 l1 m1 l1 n1
" 3D # EA
K = l1 m1 m21 m1 n1 (7.25)
L1
l1 n1 m1 n1 n21
l22 l2 m2 l2 n2
EA
+ l2 m2 m22 m2 n2
L2
l2 n2 m2 n2 n22
2
l3 l3 m3 l3 n3
EA
+ l3 m3 m23 m3 n3
L3
l3 n3 m3 n3 n23
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 242
como sendo a matriz de rigidez global da estrutura, a qual pode ser expressa através de um
operador de montagem local global
" 3D # " #
K = Λ K3D
e , Ne = 3,
e=1,3
sendo
" 3D #
K - é a matriz de rigidez global da estrutura (7.26)
e
" 3D #
Ke - a matriz de rigidez do e-ésimo elemento da estrutura,
e
0
FP 3D = 0
(7.27)
−P
como sendo o vetor de forças global da estrutura
podemos, após substituir (7.25) e (7.27) em (7.20), reescrever equação discretizada da treliça
como segue
" 3D #
K U.δU = F P 3D .δ U, ∀δU ∈ R3 (7.28)
i.e.
" 3D # 3D
K U − FP , δ U = 0, ∀δ U ∈ R3 (7.29)
o que implica em
" 3D #
K U = F P 3D
O qual correspondo à equação de equilíbrio (7.30)
discretizado.
Note que, como solução, temos o vetor de deslocamentos nodais
u4x
0
" 3D #−1
U= u4y = K 0 (7.31)
u4z −P
u2x
0
û2x
0
u2y = 0 =⇒ û2y = 0 (7.32)
u2z 0 û2z 0
e
u3x
0
û3x
0
u3y = 0 =⇒ û3y = 0 .
u3z 0 û3z 0
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 243
du (x (τ )) du (x (τ )) dτ
εxx (x (τ )) = = (7.35)
dx dτ dx
2 dψ (τ ) dψ (τ )
= ue1 1 + ue2 2
Le dτ dτ
2 dψ (τ ) dψ (τ )
= ue1 1 + ue2 2
Le dτ dτ
2 ue2 − ue1
=
Le 2
ue2 − ue1
=
Le
i.e.
ue2 −ue1
εxx (x (τ )) = Le = Cte. (7.36)
A tensão, por sua vez, é obtida pela aplicação da lei de Hooke, a qual é dada por
σ xx (x (τ )) = E εxx (x (τ ))
i.e. (7.37)
ue2 −ue1
σ xx (x (τ )) = E Le = Cte.
(xe2 −xe1 )
le = cos (αe ) = ne , ex = 2 2 2
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )
(ye2 −ye1 )
me = cos (β e ) = ne , ey = 2 2 2 (7.39)
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )
e
(ze2 −ze1 )
ne = cos (γ e ) = ne , ez = 2 2 2
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )
if (ii.ne.0) then
for j = 1, ns
jj = lm(j)
if (jj.ne.0) then
K3D (ii, jj) = K3D (ii, jj) + K3D
e (i, j)
end if
end
F 3D (ii) = F 3D (ii) + Fe3D (i)
end if
end