Sei sulla pagina 1di 252

Notas de Otimização e Aplicações

6 de Junho de 2018
Conteúdo

Abstract vi

1 Formulação Matemática Geral 1


1.1 Tratamento de Problemas de Máximo . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Tratamento de restrições (≥) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Definições básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Soluções gráficas em Problemas em R2 . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.1 Problemas sem restrições . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3.2 Definição: Cone das direções factíveis . . . . . . . . . . . . . . . . . . . . 7
1.3.3 Solução gráfica: Problemas de Otimização . . . . . . . . . . . . . . . . . . 8
1.3.4 Descrição Gráfica dos Métodos Numéricos de Otimização . . . . . . . . . 8
1.4 Conceitos Básicos de Otimização . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 Definição de mínimo Global . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.3 Definição: Mínimo Local . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.4 Teorema Weierstran: Existência de mínimo global . . . . . . . . . . . . . 10
1.5 Otimização de funções reais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5.1 Teorema: Condições necessárias de otimalidade: . . . . . . . . . . . . . . . 11
1.5.2 Teorema: Condição de suficiência . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.3 Funções vetoriais: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.4 Expansão em série de Taylor: . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.5 Formas Quadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.6 Teorema: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.7 Diferenciação de uma Forma Quadrática . . . . . . . . . . . . . . . . . . . 17
1.5.8 Condições de Optimalidade: . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.9 Teorema: Condição Necessária de Otimalidade . . . . . . . . . . . . . . . 18
1.5.10 Condição de suficiência: . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5.11 Exemplo: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5.12 Determinação dos valores próprios . . . . . . . . . . . . . . . . . . . . . . 23

2 Otimização com Restrição 24


2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.1 Definição: Ponto regular . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

i
CONTEÚDO ii

2.1.2 Definição: Conjunto de vetores linearmente independentes . . . . . . . . . 24


2.1.3 Introdução aos multiplicadores de Lagrange . . . . . . . . . . . . . . . . . 25
2.1.4 Representação Geométrica dos Multiplicadores de Lagrange . . . . . . . . 28
2.2 Problemas de otimização com restrições de igualdade . . . . . . . . . . . . . . . . 30
2.2.1 Teorema: Condição necessária de otimalidade de Kuhn-Tucker . . . . . . 30
2.2.2 Exemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.3 Formulação do problema de ponto de sela: Restrições de igualdade . . . . 33
2.3 Problemas de otimização com restrições de desigualdade . . . . . . . . . . . . . . 35
2.3.1 Teorema: Condição necessária de otimalidade de Kuhn-Tucker . . . . . . 35
2.4 Problemas de otimização caso geral . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.5 Interpretação geométrica: Restrições de desigualdade . . . . . . . . . . . . . . . . 42
2.6 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.6.1 Problema (1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.6.2 Problema (2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.6.3 Problema (3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.7 Otimização Global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.7.1 Conjunto convexo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.7.2 Função convexa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.7.3 Teorema: verificação da convexidade de uma função . . . . . . . . . . . . 60
2.7.4 Teorema: Mínimo Global . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.7.5 Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.8 Condições necessárias de otimalidade . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.8.1 Condição necessária de otimalidade de primeira ordem . . . . . . . . . . . 62
2.8.2 Condição necessária de otimalidade de segunda ordem . . . . . . . . . . . 66
2.9 Condições de suficiência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.9.1 Condição de suficiência: Problemas convexos . . . . . . . . . . . . . . . . 67
2.9.2 Teorema: Condição de suficiência geral . . . . . . . . . . . . . . . . . . . . 67
2.9.3 Teorema: Condição de suficiência forte . . . . . . . . . . . . . . . . . . . . 68
2.9.4 Observação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.9.5 Exemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

3 Algoritmos: Problemas sem restrição 80


3.1 Métodos baseados em direção de descida . . . . . . . . . . . . . . . . . . . . . . . 80

4 Métodos Numéricos: Problemas com restrições 123


4.1 Métodos numéricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.1.1 Método da penalidade exterior . . . . . . . . . . . . . . . . . . . . . . . . 123
4.2 Método do Lagrangeano Aumentado . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.2.1 Restrições de igualdade . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
4.2.2 Restrições de desigualdade . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
4.2.3 Método do Lagrangeano Aumentado . . . . . . . . . . . . . . . . . . . . . 146
4.2.4 Problema de Otimização Geral: Método do Lagrangeano Aumentado . . . 151
CONTEÚDO iii

5 Algoritimos genéticos contínuos 153


5.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
5.1.1 Algoritmos Genéticos Contínuos . . . . . . . . . . . . . . . . . . . . . . . 154
5.2 Formulação de problemas de otimização . . . . . . . . . . . . . . . . . . . . . . . 154
5.2.1 Etapas de um algoritmo genético . . . . . . . . . . . . . . . . . . . . . . . 154
5.3 Componentes de um Algoritmo Genético Contínuo . . . . . . . . . . . . . . . . . 156
5.3.1 Formulação do problema de otimização . . . . . . . . . . . . . . . . . . . 156
5.3.2 Definições utilizadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
5.3.3 Geração da População Inicial . . . . . . . . . . . . . . . . . . . . . . . . . 158
5.3.4 Operador Seleção . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
5.3.5 Operador Seleção . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
5.3.6 Operador Mutação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
5.3.7 Critério de parada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166
5.4 Solução de Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167

6 Elementos Finitos 169


6.1 Elementos de algebra linear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
6.1.1 Espaço linear V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
6.1.2 Subespaços, Combinações lineares, e Variedades Lineares . . . . . . . . . 171
6.1.3 Independência linear, Base e dimensão . . . . . . . . . . . . . . . . . . . . 174
6.1.4 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175
6.1.5 Deformação axial - elemento estrutural barra . . . . . . . . . . . . . . . . 176
6.1.6 Formulação Fraca do problema - Barra sujeita à deformação axial . . . . 178
6.1.7 Método de Galerkin - Discretização do problema . . . . . . . . . . . . . . 180
6.2 Método dos elementos finitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
6.3 Analise de Sensibilidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
6.3.1 Problemas Lineares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
6.4 Aplicações em MEF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
6.4.1 Exemplo 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220

7 Treliça tri-dimensional 234


7.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
7.2 Determinação da equação de equilíbrio discretizada da treliça . . . . . . . . . . . 239
7.3 Determinação das deformações e tensões em cada elemento de barra . . . . . . . 243
Lista de Figuras

iv
Lista de Tabelas

v
Abstract

vi
Capítulo 1

Formulação Matemática Geral

O problema de otimização pode ser expresso de uma forma geral como:

min f(x), x ∈ Rn
tal que:
hi (x) = 0, i = 1, l (1.1)
e
gj (x) ≤ 0, j = 1, s̄
Observação:

(i) O número de restrições de igualdade deve ser menor ou igual ao número de variáveis de
projeto, i.e., l ≤ n. Caso contrário tem-se um sistema de equações inconsistente ou tem-se
restrições redundantes (expressa como combinação lineares de outras restrições).

(ii) Caso as funções f (x), hi (x) - i = 1, l e gj (x) - j = 1, s̄ sejam lineares o problema é dito ser
de programação linear.

1.1 Tratamento de Problemas de Máximo

Considere o problema

(P1) ≡ minf(x)
x∈S
em que (1.2)
S = { x ∈ Rn | hi (x) = 0, i = 1, l e gj (x) ≤ 0, j = 1, s̄}.

1
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 2

Seja x∗ solução de (P1). Então, por definição, temos

x∗ = arg min f(x), ∀x ∈ S


é equivalente à (1.3)
f(x∗ ) ≤ f(x), ∀x ∈ S.

Note que se multiplicarmos eq.(2.3) por (−1) teremos

−f(x∗ ) ≥ −f(x), ∀x ∈ S
i.e. (1.4)
∗ ∗
{f(x ) ≤ f(x), ∀x ∈ S} ⇔ {−f(x ) ≥ −f(x), ∀x ∈ S}.

Defina agora a função


f˘(x) = −f(x). (1.5)

Introduzindo (2.5) em (2.4) obtemos

˘ ∗ ) ≥ f(x),
f(x ˘ ∀x ∈ S,
o que é equivalente à
˘
x∗ = arg max f(x), ∀x ∈ S, (1.6)

i.e., x é solução de
˘
(P2) ≡ minf(x)
x∈S

Note que, de (2.3) e (2.6) podemos inferir

x∗ = arg min f(x), ∀x ∈ S


(1.7)
˘
= arg min f(x), ∀x ∈ S,

o que implica em
(P1) ⇔ (P2)
i.e. (1.8)
minf(x) ⇔ max ( −f(x) ) .
x∈S x∈S

1.2 Tratamento de restrições (≥)


Note que
min F (x)
tal que (1.9)
gi (x) ≥ 0, i = 1, s̄
é equivalente à
min F (x)
tal que (1.10)
−gi (x) ≤ 0, i = 1, s̄
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 3

já que o domínio factível, S, é o mesmo em ambos os casos, i.e.,

S = { x ∈ Rn | gi (x) ≥ 0, i = 1, s̄}
(1.11)
= { x ∈ Rn | − gi (x) ≤ 0, i = 1, s̄}.

1.2.1 Definições básicas


Considere o problema de otimização

min f(x)
tal que
hi (x) = 0, i = 1, l (1.12)
e
gj (x) ≤ 0, j = 1, s̄.

O conjunto S = { x ∈ Rn | hi (x) = 0, i = 1, l e gj (x) ≤ 0, j = 1, s̄} é dito conjunto ou domínio


factível do problema.
Considere a k-ésima restrição gk (x). Define-se que:

(a) gk (x) é uma restrição ativa em x∗ se gk (x∗ ) = 0;

(b) gk (x) é uma restrição inativa em x∗ se gk (x∗ ) < 0;

(c) gk (x) é uma restrição violada em x∗ se gk (x∗ ) > 0.

Observação: Note que todas as restrições de igualdade são por definição ativas para todo
x ∈ S.

1.3 Soluções gráficas em Problemas em R2


No caso de ter apenas 2 variáveis de projeto pode-se determinar a solução do problema de
mínimo graficamente.

1.3.1 Problemas sem restrições


Considere o problema
min f(x) (1.13)
x∈R2
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 4

Uma forma gráfica para a determinação do ponto ótimo x∗ é através do gráfico das curvas de
nível da função, i.e., da representação da representação gráfica, paramétricamente, das curvas

Neste ponto pode-se verificar alguns resultados os quais serão úteis posteriormente na definição
de uma estratégia para a solução de problemas de otimização.
Considere a curva C0 ⊂ R2 , definida paramétricamente como

C0 = {(x1 (t), x2 (t))| t ∈ [a, b], f (x1 (t), x2 (t)) = c̄0 }, (1.14)

denominada por curva de nível da função f (x) associada à c̄0 , e ilustrada abaixo

O vetor posição de um ponto em C0 ⊂ R2 pode ser expresso como

x(t) = x1 (t)ex + x2 (t)ey ,


(1.15)
x(t) ∈ C0 , definido para todo t ∈ [a, b].

O vetor tangente à curva C0 em x0 = x(t0 ) para algum t0 ∈ [a, b] é dado por:

x(t0 +dt)−x(t0 )
et = limdt→0 dt
i.e. (1.16)
d dx1 (t) dx2 (t)
et = dt {x(t)} t0
= dt ex + dt ey .
t0 t0

Veja que,
x(t) ∈ C0 ⇔ f (x(t)) = c̄0 , para t ∈ [a, b]. (1.17)

Diferenciando esta equação, obtemos

df (x(t)) ∂f (x(t)) dx1 (t) ∂f (x(t)) dx2 (t)


dt = ∂x1 dt + ∂x2 dt = 0, ∀t ∈ [a, b]. (1.18)
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 5

Note que o produto interno

(x(t)) dx1 (t) ∂f(x(t)) dx2 (t)


∇x f (x(t)) , et (x(t)) = ∂f∂x 1 dt + ∂x2 dt
logo, usando o resultado acima, inferimos
∇x f (x(t)) , et (x(t)) = 0, ∀t ∈ [a, b],
sendo (1.19)
∂f (x(t)) ∂f (x(t))
∇x f (x(t)) = ∂x1 , ∂x2
e
dx1 (t) dx2 (t)
et = dt , dt as devidas componentes.

Esta relação mostra que os vetores ∇x f (x(t)) e et (x(t)), vetor tangente, são ortogonais para
todo t ∈ [a, b].

No caso de f : Rn → R tem-se:

f(x(t)) = c̄0 , ∀t ∈ [a, b]. (1.20)

Note que a superfície de nível, dada pelo conjunto C0 = { x ∈ Rn | f(x) = c̄0 } tem dimensão
(n − 1), i.e., dim (C0 ) = n − 1. Como resultado, a superfície de nível C0 pode ser parametrizada
por (n − 1) coordenadas curvilíneas independentes. Isto significa que um ponto arbitrário em
C0 pode ser expresso por
n
x(ξ 1 , ξ 2 , ..ξ n−1 ) = xi (ξ 1 , ξ 2 , ..ξ n−1 )ei
i=1
(1.21)
em que ei são as bases ortonormais naturais
do sistema de coordenadas naturais utilizado.

Seja x(t) ∈ C0 uma curva coordenada genérica, obtida considerando livre uma única coordenada
curvilínea e mantendo as (n − 2) demais fixas. Por exemplo,
n
o o
x(t) = xi (t, ξ̄ 2 , ..ξ̄ n−1 )ei
i=1
(1.22)
em que
o
ξ̄ j = cte.
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 6

Note que, como


f(x(t)) = c̄0 , ∀t ∈ [a, b]
temos (1.23)
df (x(t))
dt = 00 , ∀t ∈ [a, b].
Porém, pela regra da cadeia da derivação,
n
df(x(t)) ∂f (x(t)) dxi (t)
dt = ∂xi dt = ∇x f (x(t)) , et (x(t))
i=1
sendo
∂f (x(t)) ∂f (x(t)) ∂f (x(t)) (1.24)
∇x f (x(t)) = ∂x1 , ∂x2 , ... ∂xn
e
dx1 (t) dx2 (t) dxn (t)
et = dt , dt , ... dt as devidas componentes.

o que implica, veja (), que

∇x f (x(t)) , et (x(t)) = 0, ∀t ∈ [a, b]


i.e.
(1.25)
∇x f (x(t)) é ortogonal ao vetor tangente et (x(t))
para todo t ∈ [a, b].

Este resultado significa que o vetor gradiente é ortogonal a todas as tangentes às linhas
coordenadas no ponto em questão. Consequentemente, o vetor gradiente é ortogonal ao plano
tangente à superfície de nível para qualquer x(ξ 1 , ξ 2 , ..ξ n−1 ) ∈ C0 , o que está ilustrado na figura
abaixo.

Teorema:

→ −

Seja f : Rn → R diferenciável em x̄ . Seja d um vetor tal que: ∇f( x̄ ), d < 0. Então
existe um δ > 0, tal que


→ −

f( x̄ + λ d) < f ( x̄ ), para todo λ ∈ (0, δ). (1.26)



O vetor d é denominado uma direção de descida de f(x) no ponto x̄ . Como resultado, temos o
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 7

seguinte cone,

No caso de um problema de minimização com restrições tem-se:

minf(x)
x∈S
em que (1.27)
S = { x ∈ Rn | hi (x) = 0, i = 1, l e gj (x) ≤ 0, j = 1, s̄}.

1.3.2 Definição: Cone das direções factíveis




Seja S ⊂ Rn um conjunto não vazio e seja x̄ ∈ cl(S), fecho de S. O cone das direções factíveis


de S em x̄ , denotado por D, é dado por:



D= d ∈ Rn d = 0 e x̄ + λd ∈ S, ∀λ ∈ (0, δ) e
(1.28)
para algum δ > 0}.

Cada vetor não nulo d ∈ D é denominado uma direção factível

Combinando agora os dois conceitos podemos determinar o cone H = W ∩ D, sendo H o


cone das direções factíveis que são direção de descida da função objetivo. Pelo Teorema, pode-se


caminhar nestas direções o suficiente para determinar um novo ponto x̄ + λd no qual


→ −

f( x̄ + λd) < f( x̄ ), λ ∈ (0, δ), para algum δ > 0. (1.29)
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 8

Observação:


Note que se em um dado ponto x̄ obtivermos H = {∅}, então não tem-se uma direção de
descida factível d que nos permita reduzir a função objetivo.

1.3.3 Solução gráfica: Problemas de Otimização


Para a determinação do ponto ótimo x∗ , referente ao problema:

min f(x) (1.30)


x∈S

são executados as seguintes etapas:

1. Representação gráfica da região ou domínio factível do projeto;

2. Representação das curvas de nível da função objetivo;

3. Determinação aproximada da curva de nível f(x) = c̄, com o menor valor da constante c̄,
que tangência a região factível S.

1.3.4 Descrição Gráfica dos Métodos Numéricos de Otimização


Considere o problema:
min f(x). (1.31)
x∈S
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 9

Vamos supor que a representação abaixo contemple o problema de otimização considerado:

O procedimento consiste em:

• Etapa 1:
Definina um ponto inicial x0 ;

• Etapa 2:
Determine uma direção factível d ∈ D tal que d ∈ W , i.e., d, ∇f(x0 ) < 0, d = 0,
definindo uma direção de descida da função objetivo.

• Etapa 3:
Resolva o problema 1D de mínimo (busca linear):

Determine α∗ ∈ R, α∗ > 0
tal que (1.32)
α∗ = arg minf(x0 + α d)
α>0

• Etapa 4:
Determine o próximo ponto x1 tal que f(x1 ) < f(x0 ), sendo x1 = x0 + α∗ d. Volte para a
etapa 2 até satisfazer, em geral, a condição necessária de otimalidade do problema.

1.4 Conceitos Básicos de Otimização


1.4.1 Introdução
Considere o problema genérico abaixo:

min f(x). (1.33)


x∈S

1.4.2 Definição de mínimo Global


A função f(x) tem um mínimo global (absoluto) em x∗ se:

f(x∗ ) ≤ f(x), ∀x ∈ S, (1.34)


CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 10

sendo S a região factível do problema. Se a desigualdade é estrita, isto é, se f (x∗ ) < f(x) então
x∗ é denominado um mínimo global estrito de f(x).

1.4.3 Definição: Mínimo Local


A função f (x) tem um mínimo local (relativo) em x∗ se ∃ǫ > 0 tal que f(x∗ ) ≤ f(x), ∀x ∈
S ∩ Bǫ (x∗ ), em que
Bǫ (x∗ ) = { x ∈ Rn | x − x∗ < ǫ}. (1.35)

O conjunto Bǫ (x∗ ) representa uma bola centrada em x∗ de raio ǫ. Se vale a desigualdade estrita,
isto é, f (x∗ ) < f(x), então x∗ é um mínimo local estrito de f(x).

Observação: A função f(x) não possui mínimo global nem máximo global. Porém, A e C
são máximos locais e B e D são mínimo locais.

1.4.4 Teorema Weierstran: Existência de mínimo global


Se f(x) é contínua no domínio factível S, o qual é fechado e limitado (compacto), então f(x)
tem um mínimo global e um máximo local em S.
Exemplo:
Seja f(x) = x e S{ x| x ∈ (1, 2)}, sendo (1, 2) um intervalo aberto em R.

Note que a função não tem mínimo em (1, 2). Porém, a função tem um ínfimo em x∗ = 1,
x∗ ∈
/ (1, 2).
f(1) = inf {f(x)}. (1.36)
x∈(1,2)

O ínfimo é maior cota inferior do conjunto, isto é,

(i) f(1) ≤ f(x), ∀x ∈ (1, 2);

(ii) ∀ǫ > 0, ∃ x0 ∈ (1, 2) tal que f(x0 ) < f(1) + ǫ.


CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 11

1.5 Otimização de funções reais


1.5.1 Teorema: Condições necessárias de otimalidade:
df
Se uma função f(x) é definida no intervalo [a, b], isto é, a ≤ x ≤ b, e a derivada dx x∗ existe eé
df (x∗ )
infinita, então dx = 0.
Demonstração:
Se x∗ é mínimo relativo então: f(x∗ ) ≤ f(x∗ + h), ∀h ∈ Bǫ (x∗ ), ǫ > 0. Logo, para h > 0,
h ∈ Bǫ (x∗ ), tem-se que:
f(x∗ +h)−f(x∗ )
h ≥ 0. (1.37)

Por outro lado, para h < 0, h ∈ Bǫ (x∗ ), tem-se:

f(x∗ +h)−f(x∗ )
h ≤ 0. (1.38)

df (x∗ )
Entretanto, se a derivada dx existe então:

df(x∗ ) ∗ +h)−f(x∗ )
dx = limh→0 f(x h

∗ +h)−f (x∗ )
= limh→0+ f(x h
(1.39)

∗ +h)−f (x∗ )
= limh→0− f (x h .

Consequentemente, tomando o limite para h → 0+ em (2.36) e h → 0− em (2.35), obtem-se

df (x∗ ) df (x∗ )
dx ≥0e dx ≤ 0. (1.40)

Porém, de (2.39), pode-se inferir que

df (x∗ )
dx = 0. (1.41)

Observação:

(i) Este teorema é válido se x∗ é máximo ou mínimo relativo (local);


∗ ∗
(ii) Não pode ser utilizado em um ponto x∗ no qual o limite limh→0 f (x +h)−f
(x )
h não existe.
Exemplo, considere a função f (x) = |x|. O mínimo absoluto ocorre em x = 0, o que pode

ser visualizado na figura abaixo.


CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 12

Entretanto,
∗ ∗
limh→0− f(x +h)−f(x
h
)
= −1
e
∗ (x∗ )
limh→0+ f (x +h)−f
h = +1 (1.42)
i.e.
∗ ∗) ∗ (x∗ )
limh→0− f(x +h)−f(x
h = limh→0+ f (x +h)−f
h .

(iii) O teorema não pode ser aplicado em pontos pertencentes à fronteira de S. Pode ser
aplicável apenas em x ∈ int(S), i.e., em pontos no interior de S. Exemplo: Considere o
exemplo
min f (x), f (x) = x
x∈[1,2]
sendo o domínio factível (1.43)
S = [1, 2].
O gráfico da função, definida em S, está ilustrado na Figura a seguinte.

Note que
df(x)
dx = 1, ∀x ∈ S, (1.44)
df(x∗ )
e o mínimo absoluto ocorre em x∗ = 1, no qual temos dx = 1 = 0.

(iv) O teorema é apenas uma condição necessária de otimalidade para x∗ , isto é, se x∗ é mínimo
(x∗ )
relativo então dfdx = 0. Porém, nada é dito a respeito da condição de suficiência, ou seja,
df (x∗ )
se dx = 0 não se pode afirmar que x∗ é ponto de mínimo ou máximo relativo de (x) em
S.
Em suma, temos que:

df (x∗ )
{se x∗ é mínimo relativo} ⇒ dx =0
o qual pode ser representado por
P ⇒Q
em que se identifica as relações (1.45)
P ⇔ {se x∗ é mínimo relativo}
e
df(x∗ )
Q⇔ dx =0 .

Nada é dito com relação à condição de suficiência, i.e.,

?
P ⇐ Q.
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 13

No entanto, da Lógica temos a contra-positiva, i.e.,

{P ⇒ Q} ⇔ {(¬Q) ⇒ (¬P )}. (1.46)

Isto significa que,

df(x∗ )
se dx = 0 ⇒ {x∗ não é mínimo relativo de f(x) em S}. (1.47)

1.5.2 Teorema: Condição de suficiência


df(x∗ ) d2 f(x∗ ) dn−1 f (x∗ ) dn f (x∗ )
Seja dx = dx2
= ... = dxn−1
= 0, e dxn = 0. Então, x∗ é:

dn f(x∗ )
(i) Ponto de mínimo local, se n for par e dxn > 0;
dn f (x∗ )
(ii) Ponto de máximo local, se n for par e dxn < 0;

(iii) Ponto de inflexão, se n for ímpar, o que pode ser verificado no exemplo, em que f(x) = x3 ,
ilustrado a seguir.

Demontração:
Supondo que f(·) seja suficientemente regular em x∗ podemos expandir f(x∗ + h) em uma
série de Taylor em x∗ ,

df (x∗ ) 1 d2 f (x∗ ) 2
f (x∗ + h) = f(x∗ ) + dx h + 2! dx2 h + ...+
d(n−1) f (x∗ ) n−1 1 d(n) f(x∗ +θh) n
1
+ (n−1)! dxn−1
h + n! dxn h (1.48)
para algum θ ∈ (0, 1).

Como
df (x∗ ) d2 f (x∗ ) d(n−1) f (x∗ )
dx = dx2
.... = dxn−1
=0 (1.49)

temos
(n) ∗
1 d f (x +θh) n (1.50)
f(x∗ + h) − f(x∗ ) = n! dxn h .
(n) d(n) f(x∗ )
Se d dxfn(·) é contínua em uma vizinhança de x∗ e dxn > 0 então existe um δ > 0, tal que
(n)
|x − x∗ | < δ ⇒ d dxfn(x) > 0.

Consequentemente,
1 d(n) f(x∗ +θh) n
f(x∗ + h) − f(x∗ ) = n! dxn h >0
para todo (1.51)
n - par e h ∈ Bδ (0).
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 14

Logo,
f(x∗ ) ≤ f(x∗ + h), ∀h ∈ Bδ (0)
o que implica em (1.52)
x∗ ser um mínimo local.
Observação:
O resultado para máximo local pode ser obtido por analogia.

1.5.3 Funções vetoriais:


Seja f(x) : x ∈ Rn → R, em que
n
x= xi ei .
i=1
(1.53)
Suas componentes são
(x)T = {x1 , ..., xn }.

O vetor gradiente é dado por


n
∂f (x)
∇x f(x) = ∂xi ei
i=1
sendo ei a i-ésima base cartesiana. (1.54)
Suas componentes são
∂f ∂f
∇x f(x)T = { ∂x 1
, ..., ∂x n
}.

A matriz Hessinana é definida por


n n
∂ 2 f (x)
[∇2x f(x)] = ∂xi ∂xj (ei ⊗ ej )
i=1 j=1
(1.55)
sendo ei a i-ésima base cartesiana.
Suas componentes são

i.e.
 
∂ 2f ∂ 2f
∂x1 ∂x1 ... ∂x1 ∂xn
∂ 2 f(x)
 .. .. 
[H(x)] = = . . . (1.56)
∂x∂x  
∂ 2f ∂ 2f
∂xn ∂x1 ... ∂xn ∂xn

Observação: Consideramos ainda que f(x) ∈ C 2 (Rn ), i.e., que f(x) é duas vezes continua-
mente diferenciável em Rn . Como resultado,

∂ 2 f (x) ∂ 2 f (x)
∂xi ∂xj = ∂xj ∂xi ,
(1.57)
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 15

o que implica em
[H(x)] = [H(x)]T ,
isto é, que (1.58)
[H(x)] é simétrica.

1.5.4 Expansão em série de Taylor:


Seja f(x) : x ∈ Rn → R. No caso particular em que f(x) : x ∈ R2 → R, temos, f(x1 , x2 ).
A expansão em série de Taylor de f(x1 , x2 ) em ponto (x∗1 , x∗2 ) é expressa como:

∂f (x∗ ) ∂f (x∗ )
f(x1 , x2 ) = f(x∗1 , x∗2 ) + ∗
∂x1 (x1 − x1 ) + ∂x2 (x2 − x2 )

2 f(x )∗ 2 ∗ )
+ 2!1 ∂ ∂x 2 (x1 − x∗1 )2 + 2 ∂∂xf(x1 ∂x2
(x1 − x∗1 )(x2 − x∗2 )
1
2 f(x∗ ) (1.59)
+ ∂ ∂x 2 (x2 − x∗2 )2 + R(x1 , x2 ),
2i
na qual R(x1 , x2 ) representa a parte remanescente da série.

na qual R(x1 , x2 ) representa o resíduo, i.e., a parte remanescente da série. Esta expressão
pode ser representada como:

n n m
∂f (x∗ ) 1 ∂ 2 f (x∗ )
f (x1 , x2 ) = f(x∗1 , x∗2 ) + ∂xi (xi − x∗i ) + 2! ∂x2i ∂x2j
(xi − x∗i )(xj − x∗j )
i=1 i=1 j=1 (1.60)
+R(x1 , x2 ).

O que pode ser generalizado para f(x) : x ∈ Rn → R e expresso em forma matricial como:

f(x) = f(x∗ ) + ∇xf (x∗ ).(x − x∗ ) + 2!1 [H (x∗ )] (x − x∗ ).(x − x∗ ) + R (x),


sendo
∇x f(x∗ ).(x − x∗ ) = ∇x f(x∗ ), (x − x∗ ) - produto interno
e
(1.61)
[H (x∗ )] (x − x∗ ).(x − x∗ ) = [H (x∗ )] (x − x∗ ), (x − x∗ )
= (x − x∗ ), [H (x∗ )] (x − x∗ )
já que
[H (x∗ )] = [H (x∗ )]T - Simétrica.

Fazendo uso do Teorema do Valor Médio, pode-se ainda escrever a expansão de Taylor de f(x)
em x∗ como
1
f(x) = f(x∗ ) + ∇x f(x∗ ).(x − x∗ ) + [H (x∗ + ρ(x − x∗ ))] (x − x∗ ).(x − x∗ )
2! (1.62)
para algum ρ ∈ (0, 1).

Notação utilizada

v.w = v, w - produto interno de v com w. (1.63)


CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 16

Definindo
p(x) = f(x) − f(x∗ )

q(x) = ∇x f(x) − ∇x f(x∗ ) (1.64)


e
d = (x − x∗ )
tem-se
1
p(x) = ∇x f(x∗ ), d + 2! [H (x∗ + θ(x − x∗ ))] d.d
(1.65)
para algum θ ∈ (0, 1).

1.5.5 Formas Quadráticas


A função f(x) : x ∈ Rn → R é uma forma quadrática se:

f(x) = 1
2 [P] x.x (1.66)

Seja
[A] = 21 ([P] + [P]T ) (1.67)

a parte simétrica de [P]. Temos que:

f(x) = 1
2 [P] x.x = 1
2 [A] x.x. (1.68)

Observação:
A relação acima mostra que toda forma quadrática pode ser expressa por meio de uma matriz
simétrica.
Demonstração:
Seja f(x) = 12 [A] x.x em que [A] = 12 ([P] + [P]T ). Temos

f(x) = 12 [A] x.x


= 14 ([P] + [P]T )x.x
= 1
4 [P] x, x + [P]T x, x (1.69)
1
= 4 { [P] x, x + x, [P] x }
1
= 2 [P] x, x .

Definição:

Seja [A]n× n , Aij ∈ R.

(i) [A] é matriz positiva definida ⇐⇒ [A] x.x 0, ∀x ∈ Rn . Adicionalmente, [A] x.x = 0 ⇐⇒
x = 0.

(ii) [A] é matriz positiva semi-definida ⇐⇒ [A] x.x 0, ∀x ∈ Rn . Logo podemos ter um x0 = 0
tal que [A] x0 .x0 = 0.
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 17

(iii) [A] é matriz negativa definida ⇐⇒ [A] x.x ≤ 0, ∀x ∈ Rn . Adicionalmente, [A] x.x = 0 ⇐⇒
x = 0.

(iv) [A] é matriz negativa semi-definida ⇐⇒ [A] x.x ≤ 0, ∀x ∈ Rn .

1.5.6 Teorema:
Seja [A]n× n , Aij ∈ R e sejam λi , i = 1, ..., n os valores próprios de [A], [A] = [A]T (simétrica).
Tem-se, então que:

(i) - [A] é positiva definida ⇐⇒ λi > 0, i = 1, ..., n;

(ii) - [A] é positiva semi-definida ⇐⇒ λi 0, i = 1, ..., n;

(iii) - [A] é negativa definida ⇐⇒ λi < 0, i = 1, ..., n; (1.70)

(iv) - [A] é negativa semi-definida ⇐⇒ λi ≤ 0, i = 1, ..., n;

(v) - [A] é indefinida se ∃λi e λj tal que λi > 0 e λj < 0.

1.5.7 Diferenciação de uma Forma Quadrática


Considere a função
n n
1 1
f(x) = 2 [A] x.x = 2 Aij xi xj
i=1 j=1
(1.71)
em que
[A] = [A]T , i.e, [A] é simétrica.
Logo,
n n
∂f(x) 1
∂xk = 2 Aij (δ ik xj + xi δ jk )
i=1 j=1
na qual
(1.72)
∂xj 0, j = k
δ jk = =∂xk
1, j = k
representa o delta de Kronecker.
Assim,
n n
∂f (x) 1
∂xk = 2 Aki xi + Akj xj
i=1 j=1
1
n n (1.73)
= 2 Aki xi + Aki xi
i=1 i=1
já que [A] = [A]T , i.e, [A] é simétrica.
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 18

Como resultado,
n
∂f(x)
∂xk = Aki xi
i=1
resultando em (1.74)
∇x f(x) = [A] x.

Determinação da Hessiana de f(x)


n n
∂ 2 f (x) ∂ 2 f(x)
[H(x)] = ∂x∂x = [∇2x f(x)] = ∂xi ∂xj (ei ⊗ ej ) (1.75)
i=1 j=1

em que
n n
∂ 2 f (x) ∂
∂xs ∂xk = ∂xs Aki xi = Aki δ is = Aks = Ask
i=1 i=1
i.e. (1.76)
∂ 2 f (x)
∂xi ∂xj = Aij

Consequentemente,
∂ 2 f (x)
[H(x)] = ∂x∂x = [∇2x f(x)]
(1.77)
= [A].

1.5.8 Condições de Optimalidade:


A generalização da série de Taylor pode ser expressa como:

1 2
f(x) = f(x∗ ) + df(x∗ ) + ∗
2! d f (x ) + ...
1
+ (n−1)! dn−1 f(x∗ ) + Rn x∗ , h
em que
x = x∗ + h

Rn x∗ , h = 1 n
n! d f(x
∗ + θh), para algum θ ∈ (0, 1) (1.78)
e
n n n
2 ∗
r
d f(x ) = ∗
... (hi1 hi2 ...hir ) ∂xi ∂∂xfi(x...∂x
)
i
1 2 r
i1 =1 i2 =1 ir =1
sendo
hi1 = xi1 − x∗i1 - i1 -ésima componente de h = x − x∗ .

1.5.9 Teorema: Condição Necessária de Otimalidade


Se f(x) tem um ponto extremo (máximo e mínimo) em x∗ e as derivadas parciais existem em
x∗ , então:
∂f(x∗ ) ∂f (x∗ )
∂x1 = ... = ∂xn = 0.
(1.79)

Demonstração:
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 19

Se x∗ é minimo local de f(x), então

f(x∗ ) ≤ f(x), ∀x ∈ Bǫ (x∗ ), para algum ǫ > 0


na qual (1.80)
Bǫ (x∗ ) = { x ∈ Rn | x − x∗ < ǫ}.

Seja
x = x∗ + h ei , (1.81)

para h suficientemente pequeno, i.e., x − x∗ = |h| < ǫ. Então

∂f (x∗ )
f(x∗ + h ei ) = f(x∗ ) + ∂xi h + θ(h2 )
(1.82)
para i = 1, n.

Logo,

(i) Dividindo (2.77) por h, h > 0,

f (x∗ +h ei )−f (x∗ ) ∂f (x∗ ) θ(h2 )


h = ∂xi + h .
(1.83)

Como x∗ é minimo local de f (x),

f(x∗ +h ei )−f (x∗ )


≥0
h
(1.84)
já que h > 0,

o que acarreta
∂f (x∗ ) θ(h2 )
∂xi + h ≥ 0. (1.85)

Tomando o limite para h → 0+ ,

∂f (x∗ ) θ(h2 ) ∂f (x∗ )


lim ∂xi + h = ∂xi ≥ 0. (1.86)
h→0+

(ii) Dividindo (2.77) por h, h < 0,

f (x∗ +h ei )−f (x∗ ) ∂f (x∗ ) θ(h2 )


h = ∂xi + h .
(1.87)

Como x∗ é minimo local de f (x),

f(x∗ +h ei )−f (x∗ )


≤0
h (1.88)
já que h < 0,

o que acarreta
∂f (x∗ ) θ(h2 )
∂xi + h ≤ 0. (1.89)

Tomando o limite para h → 0− ,

∂f (x∗ ) θ(h2 ) ∂f(x∗ )


lim− ∂xi + h = ∂xi ≤ 0. (1.90)
h→0
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 20

De (2.81) e (2.85) pode-se inferir que

∂f(x∗ )
∂xi = 0, i = 1, n. (1.91)

1.5.10 Condição de suficiência:


Uma condição de suficiência para um ponto estacionário x∗ , isto é, ∇x f(x∗ ) = 0, ser um ponto
extremo é que a Hessiana de f(x) em x∗ seja:

(i) [H(x∗ )] positiva definida ⇒ x∗ mínimo local;

(ii) [H(x∗ )] negativa definida ⇒ x∗ máximo local.

Demonstração:

1
f(x∗ + h) = f(x) + ∇x f(x).h + 2! [H(x

+ θ h)]h.h,
(1.92)
para algum θ ∈ (0, 1).

Como x∗ é um ponto de estacionaridade, ∇x f (x∗ ) = 0, o que implica:

f(x∗ + h) − f(x∗ ) = 1
2! [H(x

+ θ h)]h.h. (1.93)

Por outro lado, como H = HT , i.e., é uma transformação linear auto adjunta, existe uma base
ortonormal vi , i = 1, n, formada por vetores próprios de H, tal que a representação de H nesta
base é diagonal. Definindo
[R] = v1 v2 ... vn
tal que (1.94)
[R]T [R] = [R] [R]T = [I]
como sendo a matriz ortogonal, cujas colunas são compostas pelos cossenos diretores dos vetores
próprios vi , temos
[Λ] = [R]T [H] [R]
em que 
λ1 0 ... 0
 
 0 λ2 ... 0 
[Λ] =   
 (1.95)
 ... ... ... ... 
0 0 ... λn
sendo
λi , i = 1, n os valores próprios de [H]

O problema de valor/vetor próprio da Hessiana pode ser formulado como: Determinar v = 0 tal
que:

[H]v = λ v, para algum λ ∈ R


ou, equivalentemente,
[[H] − λ [I]] v = 0, para algum λ ∈ R.
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 21

Considerando agora que [H(x∗ )] é positiva definida, seus valores próprios serão estritamente
positivos, i.e., λi (x∗ ) > 0, i = 1, n.
Suponto que os valores próprios λi (x) são contínuos em uma vizinhança de x∗ , teremos para
cada i = 1, n um δ i > 0 tal que
h < δi

Se [H(x∗ )] for positiva definida então [H(x∗ )]h2 > 0 para h = 0.


n
Porém, [H]h2 = λi h2i com λi (x∗ ) > 0 i = 1, ..., n.
i=1
Se λi (x) for contínua numa vizinhança de x∗ então ∃δ i > 0 tal que:
λi (x + θh) > 0 para h ∈ Bδ i (0)
Seja δ = min{δ i }
Então, h ∈ Bδ i ⇒ λi (x + θh) > 0 para i=1,...,n. Como resultado:
f(x∗ + h) − f (x∗ ) > 0 ∀h ∈ Bδ i (0). Logo x∗ é mínimo local de f(x).
Demonstração:

1
f(x∗ + h) = f(x∗ ) + ∇f(x∗ )h + [H(x∗ + θh)]h2 , θ ∈ (0, 1)
2!
Como x∗ é estacionário tem-se que:

∇f (x∗ ) = 0

Consequentemente:

1
f (x∗ + h) − f(x∗ ) = [H(x∗ + θh)]h2
2!
O problema de valor/vetor próprio da Hessiana é:
determinar v = 0 tal que:
[H]v = λv para algum λ ∈ ℜ
Considerando agora que:
[H(x∗ )] seja postiva definida então, os valores próprios de H(x∗ ), λi (x) sejam contínuos em
x∗ , para i=1,...,m tem-se:
*****
∃δ i > 0 tal que ||h|| < δ i ⇒ λi (x + h) > 0 (para cada i=1,...,m)
Seja então δ = min{δ i /i = 1, ..., m}. Neste caso, ∀h, ||h|| < δ implica λi (x∗ + h) > 0 para
i=1,...,m.
Desta forma o termo acima fica:

1 1 1
= [H(x∗ + θh)]h ∗ h = [R][λ][R]T h ∗ h = [λ][R]T h[R]T h
2! 2! 2!
denominando y = [R]T h, isto é, h = [R]y determina-se então que:
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 22

m
1 1
= [λ]y ∗ y = λi yi2
2! 2!
i=1

Consequentemente, ∃δ > 0 tal que x = x∗ + h, ||x − x∗ || < δ.


f(x∗ ) − f(x) = 2!1 λi (x)yi2 > 0, isto é,

f(x) > f(x∗ ) ∀x ∈ Bδ (x∗ )

Logo, x∗ é mínimo relativo. O mesmo procedimento pode ser utilizado para mostrar o item
(ii) [H(x∗ )] negativa definida ⇒ x∗ é máximo local;

1.5.11 Exemplo:
Determine o mínimo local da função quadrática

f(x) = f(x, y)

= x21 + 2x1 x2 + 2x22 − 2x1 + x2 + 8,

utilizando a condição necessária de otimalidade. Verifique a condição de suficiência, dos pontos


que satisfazem a condição necessária de otimalidade.
Da condição necessária de otimalidade, se x∗ é mínimo local de f(x), então

∇x f(x∗ ) = 0.

Porém
∂f
∂x = 2x1 + 2x2 − 2
e
∂f
∂y = 2x1 + 4x2 + 1
o que implica em
2 2 x∗1 2
=
2 4 x∗2 −1
i.e.
−1
x∗1 2 2 2
=
x∗2 2 4 −1
i.e.
x∗1 1 − 12 2 2.5
= = .
x∗2 − 21 1
2 −1 −1.5
Observação:
CAPÍTULO 1. FORMULAÇÃO MATEMÁTICA GERAL 23

Note que a condição ∇x f(x∗ ) = 0 é apenas uma condição necessária de mínimo. Pontos de
sela e pontos de máximo também satisfazem esta condição. Para assegurar que o ponto x∗ é de
fato ponto de mínimo local, aplica-se a condição de suficiência. No caso de minimização sem
restrições, é suficiente verificar se a matriz Hessiana é positiva definida. Caso seja, então x∗ será
um mínimo local de f(x).
Neste caso, a matriz Hessiana em x∗ é dada por

∂ 2f ∂ 2f
∂x2 ∂x∂y 2 2
[H(x∗ )] = ∂ 2f ∂ 2f = .
∂y∂x ∂y2
2 4

Uma forma de verificar se [H] é positiva definida, consiste em verificar se todos os valores próprios
são estritamente positivos, i.e., se λi > 0, i = 1, n.

1.5.12 Determinação dos valores próprios


Para determinar os valores próprios de [H], determina-se as raízes do polinômio característico
p(λ), sendo

p(λ) = det([H] − λ[I]) = 0


i.e.
2−λ 2
p(λ) = det = 0.
2 4−λ
As raízes do polinômio são
λ1 = 5.236 > 0
e
λ2 = 0.764 > 0,

o que nos permite concluir que x∗ = (2.5, −1.5) é um mínimo local de f(x).
Capítulo 2

Otimização com Restrição

2.1 Introdução
2.1.1 Definição: Ponto regular
Considere o problema de otimização:

min f(x)
tal que
hi (x) = 0, i = 1, l (2.1)
e
gj (x) ≤ 0, j = 1, s̄

Um ponto x∗ ∈ S, S = { x ∈ Rn | hi (x) = 0, i = 1, l, e gj (x) ≤ 0, j = 1, s̄} é dito regular se


os vetores gradiente de todas as restrições hi (x) e gj (x) em x∗ forem linearmente independentes,
isto é, se o conjunto de vetores {∇hi (x∗ ), i = 1, l} ∪ {∇gjk (x∗ ), jk ∈ J (x∗ )} forem linearmente
independentes. Note que J (x∗ ) é o conjunto de todas as restrições de desigualdade ativas,
i.e., J (x∗ ) = { jk ∈ [1, ...s̄]| gjk (x∗ ) = 0}. Note que todas as restrições de igualdade são, por
definição, ativas. Ilustramos abaixo, exemplos de pontos regulares e não regulares.

2.1.2 Definição: Conjunto de vetores linearmente independentes


r
Um conjunto de vetores {w1 , ..., wr } é dito ser linearmente independente (LI) se ai wi = 0
i=1
implica que {ai = 0, i = 1, r}. Logo, se existe algum ai = 0 implica que o conjunto de vetores

24
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 25

não é linearmente independente.


Uma forma alternativa de dizer que um conjunto de vetores {w1 , ..., wr } é linearmente inde-
pendente se o sistema de equações lineares homogêneo tem solução única o vetor zero, i.e.,

[W] a = 0 tem solução única zero


em que
(2.2)
[W] = {w1 } {w2 } ... {wr } é a matriz cujas
colunas são formadas pelos vetors wi .

2.1.3 Introdução aos multiplicadores de Lagrange


Visando introduzir o conceito dos multiplicadores de Lagrange considera-se o problema abaixo:

min f(x1 , x2 ) = (x1 − 1.5)2 + (x2 − 1.5)2


tal que: (2.3)
h(x1 , x2 ) = x1 + x2 − 2 = 0

abaixo ilustrado:

O problema pode ser resolvido de duas formas alternativas, que são:

1. Solução: forma explícita


Nesta solução considera-se possível determinar uma relação explícita entre as variáveis
dependentes e independentes. Definindo x como sendo variável a independente, temos

h(x1 , x2 ) = x1 + x2 − 2 = 0
implica
x2 = 2 − x1 (2.4)
i.e.
x2 = φ (x1 ), φ (x1 ) = 2 − x1 .

Neste caso pode-se remover a variável dependente x2 do problema e obter um problema


CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 26

reduzido sem restrições, o qual é formulado por:

min fˇ (x1 ) = (x1 − 1.5)2 + ([2 − x1 ] − 1.5)2


x1 ∈R
em que
fˇ (x1 ) = f(x1 , φ (x1 )) (2.5)
e
φ (x1 ) = 2 − x1 .

A condição necessária de otimalidade estabelece que: se x∗1 é mínimo local do problema


df(x∗ )
sem restrição acima, então dx11 = 0. Assim tem-se que:

(x∗1 − 1.5) − (0.5 − x∗1 ) = 0


i.e.
x∗ = 1 o que acarreta (2.6)
em
x∗2 = φ (x∗ ) = 1.

Note que
d2 f (x∗1 )
dx21
=4>0 (2.7)

o que assegura, pela condição de suficiência, que x∗1 é mínimo local do problema.

2. Solução: forma implicíta


Neste caso, supõe-se que existe localmente, fazendo uso do teorema da função implícita,
da relação x2 = φ(x1 ). De um modo geral esta relação x2 = φ(x1 ) não é conhecida de
forma explicíta, i.e., sua determinação local pode ser complexa.
No problema em questão tem-se 2 variáveis x1 e x2 e uma restrição de igualdade a ser
satisfeita: h(x1 , x2 ) = 0. A imposição desta restrição faz com que uma das variáveis
seja livre e a outra dependente. Como resultado, pode-se considerar, genericamente, a
existência local de uma relação funcional entre a variável dependente, x2 , com a variável
independente, x1 , na forma x2 = φ(x1 ).
De forma análoga, pode-se remover a variável dependente x2 do problema e obter um
problema reduzido sem restrições, o qual é formulado por:

min fˇ (x1 ) = (x1 − 1.5)2 + (φ (x1 ) − 1.5)2


x1 ∈R
em que
fˇ (x1 ) = f(x1 , φ (x1 )) (2.8)
e
x2 = φ (x1 ).

Neste caso, a condição necessária de otimalidade estabelece que: Se x∗1 é ponto de mínimo
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 27

de (2.8) então
dfˇ (x1 )
dx1 = 0. (2.9)
x∗1

Pela regra da cadeia da diferenciação,

dfˇ (x1 )
dx1 = df (x1dx
,x2 (x1 ))
1
= ∂f (x 1 ,x2 )
+ ∂f (x1 ,x2 ) dφ(x1 )
∂x1 ∂x2 dx1 (2.10)
em que
x2 = φ (x1 ).

Logo, substituindo (2.10) em (2.9) implica em

∂f(x1 ,x2 ) ∂f (x1 ,x2 ) dφ(x1 )


∂x1 + ∂x2 dx1 x∗ =0
( x∗1 ,x∗2 ) ( x∗1 ,x∗2 ) 1

sendo (2.11)
x∗2 = φ (x∗1 ).

Observação:
Como a função φ não é conhecida explicitamente é interessante removê-la desta expressão.
Isto pode ser feito utilizando a restrição de igualdade, isto é, como

h(x1 , x2 (x1 )) = 0, ∀x1 ∈ R


sendo (2.12)
x2 = φ (x1 )

obtem-se
∂h(x∗1 ,x∗2 ) ∂h(x∗1 ,x∗2 ) dφ(x∗ )
∂x1 + ∂x2 dx1 =0
i.e.
∂h(x∗ ∗ (2.13)
1 ,x2 )
dφ(x∗ )
dx1 =− ∂x1
∂h(x∗ ∗ .
1 ,x2 )
∂x2

Substituindo (2.13) em (2.11)

∂h(x∗ ∗
1 ,x2 )
∂f (x1 ,x2 ) ∂f (x1 ,x2 )
∂x1 − ∂x2
∂x1
∂h(x∗ ∗ = 0. (2.14)
(x∗1 ,x∗2 ) (x∗1 ,x∗2 ) 1 ,x2 )
∂x2

Definindo
∂f (x∗ ∗
1 ,x2 )
v∗ =− ∂x2
∂h(x∗ ∗ (2.15)
1 ,x2 )
∂x2

deriva-se
∂f (x∗1 ,x∗2 ) ∂h(x∗1 ,x∗2 )
+ v∗ = 0. (2.16)
∂x1 ∂x1

De (2.15) tem-se
∂f (x∗1 ,x∗2 ) ∂h(x∗1 ,x∗2 )
+ v∗ = 0. (2.17)
∂x2 ∂x2
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 28

Note que: as duas últimas equações acima juntamente com a equação de igualdade h(x∗1 , x∗2 ) =
0 nos dá a condição necessária de otimalidade em um ponto regular x∗ . O campo escalar v ∗ é
denominado de multiplicador de Lagrange, associado à restrição h(x) = 0. Retornando ao
exemplo anterior derivamos o seguinte sistema de equações

∂f (x∗1 ,x∗2 ) ∂h(x∗1 ,x∗2 )


∂x1 + v∗ ∂x1 =0

∂f (x∗1 ,x∗2 ) ∂h(x∗1 ,x∗2 ) (2.18)


∂x2 + v∗ ∂x2 =0
e
h(x∗1 , x∗2 ) = 0.

o qual pode ser resolvido de modo a obter-se (x∗1 , x∗2 ) e v ∗ . De fato, o sistema de equações

2 (x∗1 − 1.5) + v ∗ = 0

2 (x∗2 − 1.5) + v ∗ = 0 (2.19)


e
x∗1 + x∗2 = 2

tem solução (x∗ , y ∗ ) = (1, 1) e v ∗ = 1.

2.1.4 Representação Geométrica dos Multiplicadores de Lagrange


Definição: Função Lagrangeana

Considere o problema de minimização:

min f(x)
tal que: (2.20)
h(x) = 0.

A função Lagrangeana associada ao problema é dada por:

L(x, v) = f(x) + v h(x). (2.21)

Note que se (x∗ , v ∗ ) é solução de (2.3) então (x∗ , v∗ ) é ponto de estacionaridade de L(x, v).
Consequentemente,
∂L(x∗ ,v∗ ) (x∗ ) ∗)
∂x = ∂f∂x + v ∗ ∂h(x
∂x =0
e (2.22)
∂L(x∗ ,v∗ )
∂v = h(x∗ ) = 0
i.e.
∇x f (x∗ ) + v ∗ ∇x h(x∗ ) = 0
e (2.23)
h(x∗ ) = 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 29

Interpretação geométrica

Considere o problema

min f(x1 , x2 ) = (x1 − 1.5)2 + (x2 − 1.5)2


tal que: (2.24)
h(x1 , x2 ) = x1 + x2 − 2 = 0.

A condição necessária de otimalidade para que (x∗1 , x∗2 ) seja mínimo local de (2.23) é que existe
v ∗ ∈ R tal que
−∇x f(x∗ ) = v ∗ ∇xh(x∗ ),
i.e., que os vetore
(2.25)
∇x f(x∗ ) e ∇xh(x∗ )
são colineares.
Esta condição de otimalidade, em (x∗1 , x∗2 ) = (1, 1), está ilustrada na seguinte Figura

Note que no ponto xa , na figura abaixo

, o vetor −∇x f(x∗ ) não é colinear com o vetor ∇x h(x∗ ). Podemos verificar graficamente, neste
caso, que xa não satisfaz a condição necessaria de otimalidade. Logo, xa não é mínimo local de
(2.24).
Observação:

(i) Em problemas estruturais, o multiplicador de Lagrange para uma restrição pode ser inter-
pretado como sendo a força necessária exercida pelo suporte para a imposição da restrição.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 30

(ii) Em um problema de restrição de igualdade, se trocarmos a restrição

{h(x) = 0} ⇔ h̃(x) = 0
na qual (2.26)
h̃(x) = −h(x)

a solução do problema de otimização, x∗ , será a mesma. Porém,


∂f (x∗ ∗
1 ,x2 ) ∂f (x∗ ∗
1 ,x2 )

ṽ = − ∂x2
∂ h̃(x∗ ,x∗ )
= ∂x2
∂h(x∗ ,x∗ ) = −v ∗ . (2.27)
1 2 1 2
∂x2 ∂x2

Esta observação mostra que v ∗ ∈ R. No caso de restrições de desigualdade, os multipli-


cadores de Lagrange serão positivos ou negativo, dependendo do sentido da desigualdade.
Por exemplo,
g(x) ≤ 0 ⇒ v ≥ 0
e (2.28)
g(x) ≥ 0 ⇒ v ≤ 0.

2.2 Problemas de otimização com restrições de igualdade


Considere o problema de otimização:

min f(x)
tal que (2.29)
hi (x) = 0, i = 1, l.

2.2.1 Teorema: Condição necessária de otimalidade de Kuhn-Tucker


Seja x∗ , ponto regular, o qual é mínimo local de (2.29). Sejam f(x) e hi (x), i = 1, l, diferenciáveis
em x∗ . Então existem vi∗ , i = 1, l tais que:

l
∇x f(x∗ ) + vi∗ ∇x hi (x∗ ) = 0
i=1 (2.30)
e
hi (x∗ ) = 0, i = 1, l.

Note que:

(i) É conviniente escrever estas condições em termos da funçào Lagrangeana,

l
L(x, v) = f (x) + vi hi (x) = f (x) + v, h(x) (2.31)
i=1
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 31

(ii) Se (x∗ , v ∗ ) é solução de (2.29) então (x∗ , v∗ ) é ponto de estacionariedade de L(x, v), i.e.,

∂L(x,v)
∂xi = 0 para i = 1, n
(x∗ ,v∗ )
e (2.32)
∂L(x,v)
∂ν j = 0 para j = 1, l.
(x∗ ,v∗ )

i.e.
l

∇x f(x ) + vi∗ ∇x hi (x∗ ) = 0
i=1 (2.33)
e
hi (x∗ ) = 0, i = 1, l.

l

(iii) A condição ∇x f(x ) + vi∗ ∇x hi (x∗ ) = 0 pode ser expressa como:
i=1

l

−∇x f(x ) = vi∗ ∇xhi (x∗ ),
i=1
i.e., que o vetor
−∇x f(x∗ )
pertence ao subespaço linear
span {∇x hi (x∗ ), i = 1, l}
(2.34)
Como x∗ é ponto regular, o conjunto
{∇x hi (x∗ ), i = 1, l} é linearmente independente.
Logo
−∇x f(x∗ ) ∈ span {∇x hi (x∗ ), i = 1, l}
e
dim{∇x hi (x∗ ), i = 1, l} = l.

2.2.2 Exemplo
Minimização do custo de fabricação de um reservatório cilíndrico em que a função objetivo é o
custo associado ao volume do material (chapa metálica) utilizado na sua fabricação. considere
que o reservatório tem como função o aramzenamento de um volume de líquido V̄0 . Considere
como variáveis de projeto o raio do reservatório R e o seu comprimento L. A chapa metálica
tem espessura to . Definindo
(x1 , x2 ) = (R, L)

O problema de otimização pode ser formulado como:

min f(x) = (2πx21 + 2πx1 x2 )to


tal que: (2.35)
h(x) = πx21 x2 − V̄0 = 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 32

A função Lagrangeana associada ao problema é

L(x, v) = f(x) + v h(x)


(2.36)
= (2πx21 + 2πx1 x2 )to + v πx21 x2 − V̄0 .

A condição necessária de otimalidade de Kuhn-Tucker estabelece que: se x∗ , ponto regular, é


mínimo local de (2.35) então existe v∗ ∈ R tal que

∇x f (x∗ ) + v ∗ ∇x h(x∗ ) = 0
e (2.37)
h(x∗ ) = 0, i = 1, l

ou, de forma alternativa, se (x∗ , v ∗ ) é solução de (2.35), então (x∗ , v ∗ ) é ponto de estacionaridade
de L(x, v), i.e.,
∂L(x,v)
∂x1 =0
(x ,v )
∗ ∗

∂L(x,v)
∂x2 =0 (2.38)
(x∗ ,v∗ )
e
∂L(x,v)
∂ν = 0.
(x∗ ,v∗ )

o que implica em
4πto x∗1 + 2πto x∗2 + 2πv ∗ x∗1 x∗2 = 0

2πx∗1 to + v ∗ π (x∗1 )2 = 0 (2.39)


e
π (x∗1 )2 x∗2 = V̄0 .
Das equações acima obtemos
V̄0
x∗2 = 2
π (x∗1 )
2πx∗1 to
v∗ = − 2 = − 2t
x∗
o
π (x∗1 ) 1

e (2.40)
x∗2 V̄0
x∗1 = 2 = 2
2π (x∗1 )
i.e.
(x∗1 )3 = V̄0

Consequentemente
V̄0
x∗1 = 3

V̄0
L∗ = 2 3 2π (2.41)
e
2t0
v∗ = − 3 V̄0
.

CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 33

2.2.3 Formulação do problema de ponto de sela: Restrições de igualdade


Considere o problema de otimização:

min f(x)
x∈S
em que (2.42)
n
S = { x ∈ R | hi (x) = 0, i = 1, l}.

Seja L(x, v) a função Lagrangeana associada a (2.42).

l
L(x, v) = f(x) + vi hi (x) = f(x) + v, h(x) . (2.43)
i=1

Seja (x∗ , v ∗ ) solução do problema de ponto de sela:

L (x∗ , ν) ≤ L (x∗ , ν ∗ ) ≤ L (x, ν ∗ ), ∀x ∈ Rn e ν ∈ Rl . (2.44)

Queremos mostrar que (x∗ , v∗ ) é solução de (2.42).


Demonstração:

• Da desigualdade
L (x∗ , ν ∗ ) ≤ L (x, ν ∗ ), ∀x ∈ Rn (2.45)

temos, para ν ∗ ∈ Rl conhecido, que

x∗ = arg minL (x, ν ∗ ) (2.46)


∀x∈Rn

i.e., x∗ é solução do problema sem restrição:

Determinar x∗ ∈ Rn solução de
(2.47)
minn L (x, ν ∗ ).
∀x∈R

A condição necessária de otimalidade estabelece que: se x∗ é mínimo local de (2.47) então


∇x L (x, ν ∗ )|x∗ = 0, i.e.,

l
∇x L (x, ν ∗ )|x∗ = ∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) = 0. (2.48)
i=1

• Da desigualdade
L (x∗ , ν) ≤ L (x∗ , ν ∗ ), ν ∈ Rl (2.49)

temos, para x∗ ∈ Rn conhecido, que

ν ∗ = arg maxL (x, ν ∗ ) (2.50)


∀ν∈Rl
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 34

i.e., ν ∗ é solução do problema sem restrição:

Determinar ν ∗ ∈ Rl solução de
(2.51)
max L (x, ν ∗ ).
∀ν∈Rl

A condição necessária de otimalidade estabelece que: se ν ∗ é máximo local de (2.51) então


∇ν L (x, ν ∗ )|ν ∗ = 0, i.e.,

∂L(x,ν ∗ )
∂ν j = hj (x∗ ) = 0, para j = 1, ..l. (2.52)
ν∗

Dos resultados de (2.48) e (2.52), pode-se concluir que (x∗ , ν ∗ ) satisfaz as condições
necessárias de otimalidade de (2.42), dadas por

l
∇x f(x∗ ) + vi∗ ∇x hi (x∗ ) = 0
i=1 (2.53)
e
hi (x∗ ) = 0, i = 1, l.

Adicionalmente, de (2.49) obtemos

L (x∗ , ν ∗ ) ≤ L (x, ν ∗ ), ∀x ∈ Rn
sendo
L(x∗ , ν ∗ ) = f(x∗ ) + ν ∗ , h(x∗ ) (2.54)
e
L(x, ν ∗ ) = f(x) + ν ∗ , h(x) .

Porém, usando a segunda relação em (2.53), derivamos

f(x∗ ) = f(x∗ ) + ν ∗ , h(x∗ ) = L (x∗ , ν ∗ ) (2.55)

o que acarreta em

f(x∗ ) ≤ f(x) + ν ∗ , h(x) = L (x, ν ∗ ), ∀x ∈ Rn . (2.56)

Consequentemente, impondo a restrição h(x) = 0, derivamos o seguinte resultado

f(x∗ ) ≤ f(x), ∀x ∈ S
em que (2.57)
S = { x ∈ Rn | hi (x) = 0, i = 1, l}

o que assegura que (x∗ , ν ∗ ), solução de (2.44), é solução de (2.42).

• Definição do problema infsup


CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 35

Combinando as expressões em (2.46) e (2.50) obtemos

(x∗ , ν ∗ ) = arg minn max L (x, ν)


∀x∈R ∀ν∈Rl
i.e.
(2.58)
(x∗ , ν ∗ ) é solução do problema
inf n sup L (x, ν).
∀x∈R ∀ν∈Rl

2.3 Problemas de otimização com restrições de desigualdade


Considere o problema de otimização definido por

min f (x)
x∈S
em que (2.59)
S = {x ∈ Rn | gj (x) ≤ 0, j = 1, s̄}.

2.3.1 Teorema: Condição necessária de otimalidade de Kuhn-Tucker


Seja x∗ ∈ S, ponto regular, o qual é mínimo local de (2.59). Sejam f (x), gj (x), j = 1, s̄,
diferenciáveis em x∗ . Então, existe um multiplicador de Lagrange µ∗ ∈ Rs̄ , µ∗ ≥ 0, i.e., µ∗j ≥ 0,
j = 1, s̄, tal que

∇x f (x∗ ) + µ∗j ∇x gj (x∗ ) = 0;
j=1
(2.60)
e
gj (x) ≤ 0, µ∗j ≥ 0 e µ∗j gj (x) = 0, j = 1, s̄.

Visando derivar as condições necessárias de Kuhn-Tucker associadas ao problema (2.59),


vamos utilizar um artifício que consiste na introdução de variáveis de folga, de modo a transfor-
mas as restrições de desigualdade, em restrições de igualdade. Como resultado, obteremos um
problema de otimização modificado, o qual não é equivalente ao problema (2.59). Para deter-
minarmos a condição necessária de otimalidade de (2.59) usando o problema de ponto de sela
associado a (2.62) será necessário a imposição de restrições aos multiplicadores de Lagrange.
Considere o problema de otimização modificado definido por

min f (x)
x∈S
em que (2.61)
S= x ∈ Rn | gj (x) + (sj )2 = 0, j = 1, s̄ ,

ou, de forma equivalente,


min f (x)
tal que (2.62)
gj (x) + (sj )2 = 0, j = 1, s̄.

Por conveniência, reformularemos o problema (2.61) com a introdução de uma nova variável,
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 36

y ∈ Rn+s̄ , definida como


y = (x, s) ∈ Rn+s̄ . (2.63)

A reformulação de (2.62) é dada por: Determinar y ∗ ∈ Rn+s̄ solução de

min F (y)
sujeito às restrições
Hj (y) = 0, j = 1, s̄
em que
y = (x, s) ∈ Rn+s̄ (2.64)

F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.

A Função Lagrangeana associada ao problema (2.64) é dada por


L̆ (y, µ) = F (y) + µj Hj (y) (2.65)
j=1

Seja (y ∗ , µ∗ ), µ∗ ≥ 0, i.e. µ∗j ≥ 0, j = 1, s̄, solução do problema de ponto de sela modificado:

L̆ (y ∗ , µ) ≤ L̆ (y ∗ , µ∗ ) ≤ L̆ (y, µ∗ ),
∀y ∈ Rn+s̄
(2.66)
e
µ ∈ Rl , µ ≥ 0, i.e. µj ≥ 0, j = 1, s̄.

Queremos mostrar que (y ∗ , µ∗ ), µ∗ ≥ 0, é solução de (2.59).


Observação: Note que no problema de ponto de sela foi imposta adicionalmente a restrição
de que as componentes do vetor multiplicador de Lagrange sejam todas maiores ou iguais a zero.
Demonstração:

• Da desigualdade
L̆ (y ∗ , µ∗ ) ≤ L̆ (y, µ∗ ), ∀y ∈ Rn+s̄ (2.67)

temos, para µ∗ ∈ Rs̄ conhecido, que

y ∗ = arg minL̆ (y, µ∗ ) (2.68)


∀y∈Rn+s̄

i.e., y ∗ é solução do problema sem restrição:

Determinar y ∗ ∈ Rn+s̄ solução de


(2.69)
min L̆ (y, µ∗ ).
∀y∈Rn+s̄

A condição necessária de otimalidade estabelece que: se y ∗ é mínimo local de (2.69) então


CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 37

∇y L̆ (y, µ∗ ) = 0, i.e.,
y∗

∂ L̆(y,µ∗ )
∂yi = 0, i = 1, n + s̄ e y = (x, s)
y∗
a qual é equivalente às condições
∂ L̆(y,µ∗ )
∂xi = 0, i = 1, n (2.70)
y∗
e
∂ L̆(y,µ∗ )
∂sr = 0, r = 1, s̄.
y∗

Porém,

∂ L̆(y,µ∗ ) ∂f (x) ∂gj (x)
∂xi = ∂xi + µ∗j ∂xi =0
j=1
e

∂ L̆(y,µ∗ ) ∂s
∂si = µ∗j 2sj ∂sji
y∗
j=1

= µ∗j 2sj δ ij = 2µ∗i si = 0
(2.71)
j=1
sendo
y = (x, s) ∈ Rn+s̄

F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.
Como resultado,
∂ L̆(y,µ∗ )
∂yi = 0, i = 1, n + s̄
y∗
implica em

∇x f (x∗ ) + µj ∇x gj (x∗ ) = 0 (2.72)
j=1
e
µ∗i si = 0, i = 1, s̄.

• Da inequação L̆ (y∗ , µ) ≤ L̆ (y ∗ , µ∗ ), para µ∗ ≥ 0, temos

L̆ (y ∗ , µ) ≤ L̆ (y∗ , µ∗ ), ∀µ ∈ Rs̄ , µ ≥ 0, (2.73)

i.e.
s̄ s̄
2 2
f (x∗ ) + µj gj (x∗ ) + s∗j ≤ f (x∗ ) + µ∗j gj (x∗ ) + s∗j ,
j=1 j=1 (2.74)
∀µ ∈ Rs̄ , µ ≥ 0,
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 38

i.e.

2
µj − µ∗j gj (x∗ ) + s∗j ≤ 0, ∀µ ∈ Rs̄ , µj ≥ 0. (2.75)
j=1

Como (2.75) vale para todo ∀µj ≥ 0, j = 1, s̄, vale para:

1. µi = 0 e as outras componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso,


(2.75) reduz-se à expressão

−µ∗i gi (x∗ ) + (s∗i )2 ≤ 0


i.e. (2.76)
µ∗i gi (x∗ ) + (s∗i )2 ≥ 0.

2. µi = 2µ∗i e as outras componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso,


(2.75) reduz-se à expressão

µ∗i gi (x∗ ) + (s∗i )2 ≤ 0. (2.77)

De (2.76) e (2.77) podemos concluir que

µ∗i gi (x∗ ) + (s∗i )2 = 0. (2.78)

µ∗
3. Caso µ∗i > 0 em que consideramos µi = µ∗i ± wo sendo wo = 2i > 0 e as outras
componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso, (2.75) reduz-se à
expressão
Para µ∗i > 0,
±wo gi (x∗ ) + (s∗i )2 ≤ 0
i.e.
wo gi (x∗ ) + (s∗i )2 ≤ 0 e wo gi (x∗ ) + (s∗i )2 ≥ 0
(2.79)
o que acarreta em
µ∗i
wo gi (x∗ ) + (s∗i )2 = 0. Como wo = 2 >0
obtemos
gi (x∗ ) + (s∗i )2 = 0.

4. Caso µ∗i = 0 em que consideramos µi = wo ≥ 0, arbitrário, as outras componentes


µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso, (cap3.75) reduz-se à expressão

Para µ∗i = 0,
wo gi (x∗ ) + (s∗i )2 ≤ 0, ∀wo ≥ 0.
Como resultado, para que o produto acima (2.80)
seja negativo,
gi (x∗ ) + (s∗i )2 ≤ 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 39

De (2.79) e (2.80) podemos concluir que

gi (x∗ ) + (s∗i )2 ≤ 0, (2.81)

o que resulta em
gi (x∗ ) ≤ − (s∗i )2 ⇒ {gi (x∗ ) ≤ 0}
i.e. (2.82)
gi (x∗ ) ≤ 0, i = 1, s̄.

Veja que (2.79), para µ∗i > 0, temos

gi (x∗ ) + (s∗i )2 = 0
i.e. (2.83)
(s∗i )2 = −gi (x∗ ).

Adicionalmente, de (2.72), obtemos

{µ∗i s∗i = 0} ⇒ µ∗i (s∗i )2 = 0 . (2.84)

Substituindo (2.83) em (2.84) derivamos

µ∗i gi (x∗ ) = 0. (2.85)

No caso de µ∗i = 0, temos


µ∗i gi (x∗ ) = 0. (2.86)

Logo, de (2.85) e (2.86) podemos concluir que, para µ∗i ≥ 0,

µ∗i gi (x∗ ) = 0. (2.87)

Dos resultados em (2.72) e levando em conta que o índice i é arbitrário, temos de (2.82
e 2.87) acrescida da condição µ∗i ≥ 0, i = 1, s̄, a condição necessária de Kuhn-Tucker
de (2.59), dada por


∇x f (x∗ ) + µj ∇x gj (x∗ ) = 0
j=1
(2.88)
e
µ∗i ≥ 0, gi (x∗ ) ≤ 0 e µ∗i gi (x∗ ) = 0, i = 1, s̄.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 40

Adicionalmente, de (2.67) obtemos

L̆ (y ∗ , µ∗ ) ≤ L̆ (y, µ∗ ), ∀y ∈ Rn+s̄
sendo

L̆ (y, µ) = F (y) + µj Hj (y)
j=1
em que
(2.89)
y = (x, s) ∈ Rn+s̄

F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.

Porém,

2
L̆ (y ∗ , µ∗ ) = f (x∗ ) + µ∗j gj (x∗ ) + s∗j
j=1
= f (x∗ ) (2.90)
já que, de (2.78),
µ∗i gi (x∗ ) + (s∗i )2 = 0.

Logo, da inequação em (2.89),

f (x∗ ) ≤ L̆ (y, µ∗ ), ∀y ∈ Rn+s̄


i.e.
s̄ (2.91)
2
f (x∗ ) ≤ f (x) + µ∗j gj (x) + (sj ) , ∀ (x, s) ∈ Rn+s̄
j=1

Consequentemente, impondo a restrição gj (x) + (sj )2 = 0, derivamos o seguinte


resultado
f(x∗ ) ≤ f(x), ∀x ∈ S
em que (2.92)
n 2
S = { x ∈ R | gj (x) + (sj ) = 0, j = 1, s̄}.
Como
gj (x) + (sj )2 = 0, ∀ (x, s) ∈ Rn+s̄
é equivalente a impor
gj (x) = − (sj )2 , ∀ (x, s) ∈ Rn+s̄ ,
i.e., para cada x ∈ Rn , (2.93)
gj (x) = − (sj )2 , ∀ (s) ∈ Rs̄
o que equivale a
gj (x) ≤ 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 41

Combinando (2.92) e (2.93) implica em

f(x∗ ) ≤ f(x), ∀x ∈ S
em que (2.94)
S = { x ∈ Rn | gj (x) ≤ 0, j = 1, s̄}.

o que assegura que (x∗ , µ∗ ), µ∗ ≥ 0, solução de (2.66), é solução de (2.59).

2.4 Problemas de otimização caso geral


Considere o problema

min f (x)
x∈S
em que (2.95)
S = { x ∈ Rn | hi (x) = 0, i = 1, l, e gj (x) ≤ 0, j = 1, s̄}.

A condição necessária de otimalidade de Kuhn-Tucker estabelece que: Seja x∗ ∈ S, ponto


regular de S, o qual é mínimo local de (2.95). Sejam f (x), hi (x), i = 1, l, e gj (x), j = 1, s̄,
diferenciáveis em x∗ . Então existem multiplicadore de Lagrange ν ∗ ∈ Rl e µ∗ ∈ Rs̄ tais que

l s̄

∇x f (x ) + ν ∗i ∇x hi ∗
(x ) + µ∗j ∇xgj (x∗ ) = 0;
i=1 j=1

(2.96)
hi (x∗ ) = 0, i = 1, l;
e
gj (x∗ ) ≤ 0, µ∗j ≥ 0, µ∗j gj (x∗ ) = 0, j = 1, s̄.

Definindo o conjunto das restrições de desigualdade ativas em x∗ ∈ S como

J (x∗ ) = { j ∈ (1, ..., s̄)| gj (x∗ ) = 0}


sendo (2.97)
J (x∗ ) - o conjunto dos índices das restrições de desigualdade ativas

podemos reformular a condição necessária de otimalidade de Kuhn-Tucker como: Seja x∗ ∈ S,


ponto regular de S, o qual é mínimo local de (2.95). Sejam f (x), hi (x), i = 1, l, e gj (x), j ∈
J (x∗ ), diferenciáveis em x∗ e gj (x), j ∈
/ J (x∗ ) contínuas em x∗ . Então existem multiplicadores
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 42

de Lagrange ν ∗ ∈ Rl e µ∗ ∈ Rs̄ tais que

l
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇x gj (x∗ ) = 0;
i=1 j∈J(x∗ )

(2.98)
hi (x∗ ) = 0, i = 1, l;
e
gj (x∗ ) ≤ 0, µ∗j ≥ 0, µ∗j gj (x∗ ) = 0, j = 1, s̄.

2.5 Interpretação geométrica: Restrições de desigualdade


Considere o problema de otimização

min f (x)
x∈S
em que (2.99)
S = { x ∈ Rn | gj (x) ≤ 0, j = 1, 4}

ilustrado na Figura abaixo.

Se x∗ ∈ S, ponto regular de S, o qual é mínimo local de (2.99), então existe um multiplicador


de Lagrange µ∗ ∈ Rs̄ , µ∗ ≥ 0, tal que

∇x f (x∗ ) + µ∗j ∇x gj (x∗ ) = 0


(2.100)
j∈J(x∗ )
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 43

i.e.
−∇x f (x∗ ) = µ∗j ∇x gj (x∗ )
j∈J (x∗ )
e
g1 (x∗ ) ≤ 0, µ∗1 g1 (x∗ ) = 0 e µ∗1 ≥ 0

(2.101)
g2 (x∗ ) ≤ 0, µ∗2 g2 (x∗ ) = 0 e µ∗2 ≥ 0

g3 (x∗ ) ≤ 0, µ∗3 g3 (x∗ ) = 0 e µ∗3 ≥ 0

g4 (x∗ ) ≤ 0, µ∗4 g4 (x∗ ) = 0 e µ∗4 ≥ 0.


Note que
g2 (x∗ ) < 0 ⇒ µ∗2 = 0
e (2.102)
g3 (x∗ ) < 0 ⇒ µ∗3 = 0.
Logo,
−∇x f (x∗ ) = µ∗1 ∇x g1 (x∗ ) + µ∗4 ∇x g4 (x∗ )
para (2.103)
µ∗1 ≥ 0 e µ∗4 ≥ 0
o que está ilustrado abaixo

A figura acima ilustra o fato do vetor −∇x f (x∗ ) pertencer ao cone formado pelos vetores
∇x g1 (x∗ ) e ∇xg4 (x∗ ), i.e.,

−∇x f (x∗ ) ∈ C (x∗ )


sendo C (x∗ ) o cone definido por
(2.104)
C (x∗ ) = { x ∈ Rn | x = µ∗1 ∇x g1 (x∗ ) + µ∗4 ∇x g4 (x∗ )
para algum µ∗1 ≥ 0 e µ∗4 ≥ 0}.

Note que nos outros vértices o vetor −∇x f (xI ) ∈


/ C (xI ), sendo xI a posição do I-ésimo vértice,
como ilustrado
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 44

Note que como gi (x∗ ) ≤ 0 temos

2.6 Exemplos
2.6.1 Problema (1)
Considere o problema 1D ilustrado a seguir

formulado como: Determinar x∗ ∈ R solução de

min f (x)
x∈S
em que
f (x) = 31 x3 − 12 (b + c) x2 + bcx + f
(2.105)
sendo 0 < a < b < c < d
e
S = [a, d] ⊂ R.

Este problema pode ser expresso como: Determinar x∗ ∈ R solução de

min f (x)
tal que
g1 (x) = a − x ≤ 0
(2.106)
g2 (x) = x − d ≤ 0
e
f (x) = 31 x3 − 12 (b + c) x2 + bcx + f .

A condição necessária de otimalidade de Kuhn-Tucker estabelece que: Seja x∗ ∈ S, ponto regular


de S, o qual é mínimo local de (2.106). Sejam f (x) e gj (x), j = 1, 2, diferenciáveis em x∗ . Então
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 45

existe um multiplicador de Lagrange µ∗ ∈ R2 tal que

df (x∗ ) (x ∗) (x ∗)
dx + µ∗1 dg1dx + µ∗2 dg2dx =0

g1 (x∗ ) ≤ 0, µ∗1 ≥ 0, µ∗1 g1 (x∗ ) = 0 (2.107)


e
g2 (x∗ ) ≤ 0, µ∗2 ≥ 0, µ∗2 g2 (x∗ ) = 0.

Procedimento:

• Verificação de pontos interiores extremos, i.e., x∗ ∈ int (S) = (a, d).


Neste caso, como os pontos são interiores,

g1 (x∗ ) < 0 ⇒ µ∗1 = 0


e (2.108)
g2 (x∗ ) < 0 ⇒ µ∗2 = 0.

A condição necessária de otimalidade reduz-se à

df(x∗ )
dx =0 (2.109)

o que implica em
df (x∗ )
dx = (x∗ )2 − (b + c) x∗ + bc = 0
i.e. (2.110)
(x∗ − b) (x∗ − c) = 0.
As raízes, representando os pontos extremos, são

x∗ = b
e (2.111)
x∗ = c.

d2 f(x∗ )
A condição de suficiência requer a verificação de dx2
o qual é dado por

d2 f (x∗ )
dx2
= 2x∗ − (b + c) = (x∗ − b) + (x∗ − c)
(2.112)
com 0 < a < b < c < d.

Logo,
f(x ) 2 ∗
em x∗ = b temos d dx 2 = (b − c) < 0

logo x = b é um mínimo local
e (2.113)
d2 f(x∗ )
em x∗= c temos = (c − b) > 0
dx2
logo x = c é um máximo local.

• Verificação de extremos na fronteira


CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 46

(i) Caso x∗ = a
Neste caso temos
g1 (x∗ ) = 0 ⇒ µ∗1 ≥ 0
e (2.114)
g2 (x∗ ) < 0 ⇒ µ∗2 = 0.

Consequentemente, (2.107) reduz-se à expressão

df (x∗ ) (x ∗)
dx + µ∗1 dg1dx =0
(2.115)
g1 (x∗ ) = 0, µ∗1 ≥ 0.

i.e.
(x∗ )2 − (b + c) x∗ + bc − µ∗1 = 0
e
a − x∗ = 0 (2.116)
sendo
dg1 (x∗ )
dx = −1
Logo,
x∗ = a
e
µ∗1 = a2 − (b + c) a + bc
(2.117)
= (a − b) (a − c) > 0
já que
0 < a < b < c < d.
Como resultado, verifica-se que x∗ = a satisfaz a condição necessária de Kuhn-Tucker
para mínimo local. Note que para assegurar que x∗ = a é um mínimo local, é
imprescindível verificar a condição de suficiência.
(ii) Caso Caso x∗ = d
Neste caso temos
g1 (x∗ ) < 0 ⇒ µ∗1 = 0
e (2.118)
g2 (x∗ ) = 0 ⇒ µ∗2 ≥ 0.
Consequentemente, (2.107) reduz-se à expressão

df (x∗ ) (x ∗)
dx + µ∗2 dg2dx =0
e (2.119)
g2 (x∗ ) = 0, µ∗2 ≥ 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 47

i.e.
(x∗ )2 − (b + c) x∗ + bc + µ∗2 = 0
e
x∗ − d = 0 (2.120)
sendo
dg2 (x∗ )
dx =1
Logo,
x∗ = d
e
!
µ∗2 = − d2 − (b + c) d + bc
(2.121)
= − (d − b) (d − c) < 0
já que
0 < a < b < c < d.
Como resultado, verifica-se que x∗ = d não satisfaz a condição necessária de Kuhn-
Tucker para mínimo local.

2.6.2 Problema (2)


Considere o problema
min f (x)
x∈S
em que
S = { x ∈ Rn | g (x) ≤ 0}
em que (2.122)
f (x) = x21 + x22 − 3x1 x2
e
g (x) = x21 + x22 − 6 ≤ 0
i.e.
min f (x1 , x2 ) = x21 + x22 − 3x1 x2
tal que (2.123)
g (x1 , x2 ) = x21 + x22 − 6 ≤ 0
ilustrado abaixo.

O objetivo consiste em determinar os pontos extremos x∗ que satisfazem a condição necessária


de otimalidade de Kuhn-Tucker.
Seja x∗ ∈ S, ponto regular de S, o qual é mínimo local de (2.122). Sejam f (x), g (x)
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 48

diferenciáveis em x∗ . Então existe um multiplicador de Lagrange µ∗ ∈ R tal que

∇x f (x∗ ) + µ∗ ∇x g (x∗ ) = 0;
e (2.124)
g (x∗ ) ≤ 0, µ∗ ≥ 0, µ∗ g (x∗ ) = 0.

Procedimento:

• Verificação de pontos interiores extremos, i.e., x∗ ∈ int (S), int (S) = { x ∈ Rn | g (x) < 0}.
Neste caso, como os pontos são interiores,

g (x∗ ) < 0 ⇒ µ∗ = 0. (2.125)

A condição necessária de otimalidade (2.124) reduz-se à

∇x f (x∗ ) = 0 (2.126)

o que implica em
2x∗1 − 3x∗2 = 0
e (2.127)
2x∗2 − 3x∗1 = 0
cujos pontos extremos satisfazem

2 −3 x∗1 0
=
−3 2 x∗2 0
i.e., como a matriz é invertível, (2.128)
−1
x∗1 2 −3 0 0
= = .
x∗2 −3 2 0 0

Logo, x∗ = 0, satisfaz a condição necessária de otimalidade. Para verificar se x∗ = 0 é um


mínimo local, é requerida a verificação da condição de suficiência. Neste caso, para pontos
" #
interiores, basta verificar se a Hessiana ∇2x f (x∗ ) é positiva definida.
Determinação da matriz Hessiana
" # ∂ 2 f(x)
[H (x)] ≡ ∇2x f (x) ij = ∂xi ∂xj

(2.129)
" 2 # 2 −3
∇x f (x) = = cte.
−3 2

Note que, uma matriz [H (x)]n×n é positiva definida ⇔ os lalores próprios λH


i (x) > 0,
i = 1, n.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 49

Os valores próprios de
" 2 # 2 −3
∇x f (x) =
−3 2
(2.130)
são
λH
1 (x) = 5 e λH
2 (x) = −1.

Como um dos valores próprios λH


2 (x) ≤ 0 podemos concluir que x = 0 não é ponto de

mínimo de (2.122).

• Verificação de pontos extremos na fronteira, i.e., x∗ ∈ ∂S, ∂S = {x ∈ Rn | g (x) = 0}.


Neste caso,
g (x∗ ) = 0 ⇒ µ∗ ≥ 0. (2.131)

A condição necessária de otimalidade (2.124) é dada por

∇x f (x∗ ) + µ∗ ∇x g (x∗ ) = 0;
e
g (x∗ ) = 0, µ∗ ≥ 0
sendo
(2.132)
g (x1 , x2 ) = x21 + x22 − 6
e
∂g
2x1
∇x g (x∗ ) = ∂x1
∂g =
∂x2 2x2

o que implica em
2x∗1 (1 + µ∗ ) − 3x∗2 = 0
e (2.133)
2x∗2 (1 + µ∗ ) − 3x∗1 = 0
i.e.
2 (1 + µ∗ ) −3 x∗1 0

= . (2.134)
−3 2 (1 + µ ) x∗2 0
Veja que para termos solução não nula, i.e. x∗ ∈ ∂S, é imprescindível que

2 (1 + µ∗ ) −3
p (µ∗ ) = det =0
−3 2 (1 + µ∗ )
(2.135)
i.e.
p (µ∗ ) = 4 (1 + µ∗ )2 − 9 = 0
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 50

Como resultado
(1 + µ∗ )2 = 94
i.e
(1 + µ∗ ) = ± 23
(2.136)
i.e.
− 52
µ∗ = − 22 ± 3
2 = 1
.
2
1
Desta forma, substituindo µ∗ = 2 em

2x∗1 (1 + µ∗ ) − 3x∗2 = 0
i.e.
2x∗1 32 = 3x∗2 (2.137)
i.e.
x∗1 = x∗2

e substituindo na equação

g (x∗1 , x2 ) = (x∗1 )2 + (x∗2 )2 − 6 = 0


i.e.
2 (x∗1 )2 = 6 (2.138)
i.e.

x∗1 = ± 3.

Logo os pontos x∗ ∈ ∂S que satisfazem a condição necessária de Kuhn-Tucker são


√ √ 1
x∗ = 3, 3 associado à µ∗ = 2
e (2.139)
√ √
x∗ = − 3, − 3 associado à µ∗ = 21 .

Note que para assegurar que são mínimos locais é novamente imprescindível a verificação
da condição de suficiência.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 51

2.6.3 Problema (3)


Considere o problema
min f (x)
x∈S
em que
S = { x ∈ Rn | gj (x) ≤ 0, j = 1, 3}
em que
f (x) = (x1 − 3)2 + (x2 − 1)2
(2.140)
g1 (x) = −x1 ≤ 0

g2 (x) = −x2 ≤ 0
e
g3 (x) = 2x1 + 5x2 − 1 ≤ 0
i.e.
min f (x1 , x2 ) = (x1 − 3)2 + (x2 − 1)2
tal que
g1 (x1 , x2 ) = −x1 ≤ 0
(2.141)
g2 (x1 , x2 ) = −x2 ≤ 0
e
g3 (x1 , x2 ) = 2x1 + 5x2 − 1 ≤ 0
ilustrado abaixo.

O objetivo consiste em determinar os pontos extremos x∗ que satisfazem a condição necessária


de otimalidade de Kuhn-Tucker.
Seja x∗ ∈ S, ponto regular de S, o qual é mínimo local de (2.139). Sejam f (x), gj (x)
diferenciáveis em x∗ . Então existe um multiplicador de Lagrange µ∗ ∈ R3 tal que

∇x f (x∗ ) + µ∗1 ∇x g1 (x∗ ) + µ∗2 ∇x g2 (x∗ ) + µ∗3 ∇x g3 (x∗ ) = 0;

g1 (x∗ ) ≤ 0, µ∗1 g1 (x∗ ) = 0 e µ∗1 ≥ 0


(2.142)
g2 (x∗ ) ≤ 0, µ∗2 g2 (x∗ ) = 0 e µ∗2 ≥ 0

g3 (x∗ ) ≤ 0, µ∗3 g3 (x∗ ) = 0 e µ∗3 ≥ 0.


CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 52

Procedimento:

• Verificação de pontos interiores extremos, i.e., x∗ ∈ int (S), int (S) = {x ∈ Rn | gj (x) < 0, j = 1, 3}.
Neste caso, como os pontos são interiores,

gj (x∗ ) < 0 ⇒ µ∗j = 0, j = 1, 3. (2.143)

A condição necessária de otimalidade (2.142) reduz-se à

∇x f (x∗ ) = 0 (2.144)

que implica em
f (x) = (x1 − 3)2 + (x2 − 1)2
e
∂f (x∗ )
∗ ∂x1 2 (x∗1 − 3)
∇x f (x ) = ∂f (x∗ ) = =0
∂x2 2 (x∗2 − 1) (2.145)
i.e.
x∗1 3
x∗ = = ∈
/ int (S).
x∗2 1
Logo, podemos concluir que não existe x∗ ∈ int (S) que satisfaz a condição necessária de
otimalidade.

• Verificação de pontos extremos nos vértices de ∂S

(i) Considere o vértice x∗ = 0. Neste caso, as restrições ativas são:

g1 (x∗ ) = 0, e µ∗1 ≥ 0
(2.146)

g2 (x ) = 0, e µ∗2 ≥0

e consequentemente
g3 (x∗ ) < 0 ⇒ µ∗3 = 0. (2.147)

A condição necessária de otimalidade (2.142) reduz-se à

∇x f (x∗ ) + µ∗1 ∇x g1 (x∗ ) + µ∗2 ∇x g2 (x∗ ) = 0;

g1 (x∗ ) = 0, e µ∗1 ≥ 0 (2.148)

g2 (x∗ ) = 0, e µ∗2 ≥ 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 53

Porém,
∂g1 (x∗ )
−1
∇x g1 (x∗ ) = ∂x1
∂g1 (x∗ ) =
∂x2 0
e (2.149)
∂g2 (x∗ )
0
∇x g2 (x∗ ) = ∂x1
∂g2 (x∗ ) =
∂x2 −1
o que acarreta em

2 (x∗1 − 3) −1 0 0
+ µ∗1 + µ∗2 =
2 (x∗2 − 1) 0 −1 0
i.e.
−1 0 µ∗1 6
=
0 −1 µ∗2 2 (2.150)

g1 (x∗ ) = 0 ⇒ x∗1 = 0
e
g2 (x∗ ) = 0 ⇒ x∗2 = 0.

Como resultado, os multiplicadores de Lagrange são então dados por

µ∗1 = −6
e (2.151)
µ∗2 = −2.

O que nos permite concluir que o vértice x∗ = 0 não satisfaz a condição necessária de
−1 0
Kuhn-Tucker. Note que os vetores {∇x g1 (x∗ ) , ∇x g2 (x∗ )} = ,
0 −1
0
são linearmente independentes, o que mostra que o ponto x∗ = é regular.
0
1
(ii) Considere o vértice x∗ = 2
. Neste caso, as restrições ativas são:
0

g2 (x∗ ) = 0, e µ∗2 ≥ 0
(2.152)
g3 (x∗ ) = 0, e µ∗3 ≥0

e consequentemente
g1 (x∗ ) < 0 ⇒ µ∗1 = 0. (2.153)
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 54

A condição necessária de otimalidade (2.142) reduz-se à

∇x f (x∗ ) + µ∗2 ∇x g2 (x∗ ) + µ∗3 ∇x g3 (x∗ ) = 0;

g2 (x∗ ) = 0, e µ∗2 ≥ 0 (2.154)

g3 (x∗ ) = 0, e µ∗3 ≥ 0.

Porém,
∂g2 (x∗ )
∗ ∂x1 0
∇x g2 (x ) = ∂g2 (x∗ ) =
∂x2 −1
e
∂g2 (x∗ )
2 (2.155)
∇x g3 (x∗ ) = ∂x1
∂g2 (x∗ ) =
∂x2 5
sendo
g3 (x1 , x2 ) = 2x1 + 5x2 − 1
o que acarreta em

2 (x∗1 − 3) 0 2 0

+ µ∗2 + µ∗3 =
2 (x2 − 1) −1 5 0
i.e.
0 2 µ∗2 5
=
−1 5 µ3∗ 2 (2.156)

g2 (x∗ ) = 0 ⇒ x∗2 = 0
e
g3 (x∗ ) = 2x∗1 + 5x∗2 − 1 = 0 ⇒ x∗1 = 21 .

Como resultado, os multiplicadores de Lagrange são então dados por


−1
µ∗2 0 2 5
=
µ∗3 −1 5 2
sendo
−1
5
0 2 −1
= 21 (2.157)
−1 5 2 0
implicando em
5 21
µ∗2 2 −1 5 2

= 1
= 5
.
µ3 2 0 2 2

1
O que nos permite concluir que o vértice x∗ = 2 satisfaz a condição necessária
0
0 2
de Kuhn-Tucker. Note que os vetores {∇x g2 (x∗ ) , ∇x g3 (x∗ )} = ,
−1 5
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 55

1
são linearmente independentes, o que mostra que o ponto x∗ = 2 é regular.
0
0
(iii) Considere o vértice x∗ = 1
. Neste caso, as restrições ativas são:
5

g1 (x∗ ) = 0, e µ∗1 ≥ 0
(2.158)

g3 (x ) = 0, e µ∗3 ≥0

e consequentemente
g2 (x∗ ) < 0 ⇒ µ∗2 = 0. (2.159)

A condição necessária de otimalidade (2.142) reduz-se à

∇x f (x∗ ) + µ∗1 ∇x g1 (x∗ ) + µ∗3 ∇x g3 (x∗ ) = 0;

g1 (x∗ ) = 0, e µ∗1 ≥ 0 (2.160)

g3 (x∗ ) = 0, e µ∗3 ≥ 0.

Porém,
∂g1 (x∗ )
−1
∇x g1 (x∗ ) = ∂x1
∂g1 (x∗ ) =
∂x2 0
e
∂g2 (x∗ )
2 (2.161)
∇x g3 (x∗ ) = ∂x1
∂g2 (x∗ ) =
∂x2 5
sendo
g3 (x1 , x2 ) = 2x1 + 5x2 − 1
o que acarreta em

2 (x∗1 − 3) −1 2 0

+ µ∗1 + µ∗3 =
2 (x2 − 1) 0 5 0
i.e.
−1 2 µ∗1 6
=
0 5 µ3∗ 8
5
(2.162)

g1 (x∗ ) = 0 ⇒ x∗1 = 0
e
g3 (x∗ ) = 2x∗1 + 5x∗2 − 1 = 0 ⇒ x∗2 = 15 .
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 56

Como resultado, os multiplicadores de Lagrange são então dados por


−1
µ∗1 −1 2 6
= 8
µ∗3 0 5 5
sendo
−1
−1 2 −1 2
=
0 5 0 5
(2.163)
implicando em
µ∗1 −1 2 6

= 8
µ3 0 5 5
− 14
= 5 .
8

0
O que nos permite concluir que o vértice x∗ = 1
não satisfaz a condição
5
−1 2
necessária de Kuhn-Tucker. Note que os vetores {∇x g1 (x∗ ) , ∇x g3 (x∗ )} = ,
0 5
0
são linearmente independentes, o que mostra que o ponto x∗ = 1
é regular.
5

• Verificação de pontos extremos nas arestas de ∂S

(i) Aresta [1] ≡ ∂S[1]


Neste caso, a restrição ativa é:

g2 (x∗ ) = 0, e µ∗2 ≥ 0 (2.164)

e consequentemente
g1 (x∗ ) < 0 ⇒ µ∗1 = 0
(2.165)
g3 (x∗ ) <0⇒ µ∗3 = 0.
A condição necessária de otimalidade (2.142) reduz-se à

∇x f (x∗ ) + µ∗2 ∇xg2 (x∗ ) = 0;


(2.166)
g2 (x∗ ) = x∗2 = 0, e µ∗2 ≥0
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 57

Porém,
∂g2 (x∗ )
0
∇x g2 (x∗ ) = ∂x1
∂g2 (x∗ ) = (2.167)
∂x2 −1
o que acarreta em

2 (x∗1 − 3) 0 0
+ µ∗2 =
−2 −1 0
i.e.
2 (x∗1 − 3) = 0 ⇒ x∗1 = 3
(2.168)
e
−2 − µ∗2 = 0 ⇒ µ∗2 = −2
sendo
g2 (x∗ ) = 0 ⇒ x∗2 = 0

Como x∗ = (3, 0) ∈ / ∂S[1] , i.e., x∗ não pertence à aresta [1], podemos concluir que não
existe x∗ ∈ ∂S[1] que satisfaz a condição necessária de otimalidade de Kuhn-Tucker.
(ii) Aresta [2] ≡ ∂S[2]
Neste caso, a restrição ativa é:

g3 (x∗ ) = 0, e µ∗3 ≥ 0 (2.169)

e consequentemente
g1 (x∗ ) < 0 ⇒ µ∗1 = 0
(2.170)
g2 (x∗ ) <0⇒ µ∗2 = 0.

A condição necessária de otimalidade (2.142) reduz-se à

∇x f (x∗ ) + µ∗3 ∇x g3 (x∗ ) = 0;

g3 (x∗ ) = 2x∗1 + 5x∗2 − 1 = 0, e µ∗3 ≥ 0 (2.171)


i.e.
x∗1 = 12 (1 − 5x∗2 ).

Porém,
∂g3 (x∗ )
∗ 2
∇x g3 (x ) = ∂x1
∂g3 (x∗ ) = (2.172)
∂x2 5
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 58

o que acarreta em

2 (x∗1 − 3) 2 0

+ µ∗3 =
2 (x2 − 1) 5 0
i.e.
{2 (x∗1 − 3) + 2µ∗3 = 0} ⇒ {µ∗3 = − (x∗1 − 3)} (2.173)
!
{2 (x∗2 − 1) + 5µ∗3 = 0} ⇒ µ∗3 = − 52 (x∗2 − 1)
e
g3 (x∗ ) = 0 ⇒ x∗1 = 12 (1 − 5x∗2 ).

Usando as relações acima obtemos

5x∗1 − 15 = 2x∗2 − 2
i.e. (2.174)
x∗1 = 15 (2x∗2 + 13)

e
5 (1 − 5x∗2 ) = 2 (2x∗2 + 13)
i.e.
5 − 25x∗2 = 3x∗2 + 26
28x∗2 = −21
(2.175)
i.e.
x∗2 = −21
28
e
x∗1 = 51 2 × −21
28 + 13 = 10
23

23 −21
Como x∗ = 10 , 28 ∈ / ∂S[2], i.e., x∗ não pertence à aresta [2], podemos concluir
que não existe x∗ ∈ ∂S[2] que satisfaz a condição necessária de otimalidade de Kuhn-
Tucker.
(iii) Aresta [3] ≡ ∂S[3]
Neste caso, a restrição ativa é:

g1 (x∗ ) = 0, e µ∗1 ≥ 0 (2.176)

e consequentemente
g2 (x∗ ) < 0 ⇒ µ∗2 = 0
(2.177)
g3 (x∗ ) <0⇒ µ∗3 = 0.
A condição necessária de otimalidade (2.142) reduz-se à

∇x f (x∗ ) + µ∗1 ∇xg1 (x∗ ) = 0;


(2.178)

g1 (x ) = x∗1 = 0, e µ∗1 ≥0
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 59

Porém,
∂g1 (x∗ )
−1
∇x g1 (x∗ ) = ∂x1
∂g1 (x∗ ) = (2.179)
∂x2 0
o que acarreta em

−6 −1 0
+ µ∗1 =
2 (x∗2 − 1) 0 0
−6 − µ∗1 = 0 ⇒ µ∗1 = −6
e (2.180)
2 (x∗2 − 1) = 0 ⇒ x∗2 = 1
sendo
g1 (x∗ ) = 0 ⇒ x∗1 = 0.

Como x∗ = (0, 1) ∈ / ∂S[3] , i.e., x∗ não pertence à aresta [3], podemos concluir que não
existe x∗ ∈ ∂S[3] que satisfaz a condição necessária de otimalidade de Kuhn-Tucker.

2.7 Otimização Global


Nos problemas de otimização a questão do ótimo global sempre surge. Esta questão pode ser
respondida de 2 formas:

1. Se f (x) é contínua e S - domínio factível - é fechado e limitado (compacto), então temos


pelo Teorema de Weierstrass que existem x∗a e x∗b ∈ S tais que

f (x∗a ) ≤ f (x) ≤ f (x∗b ), ∀x ∈ S


.i.e.
{f (x∗a ) ≤ f (x) , ∀x ∈ S} ⇔ {x∗a é mínimo absoluto}
e
{f (x) ≤ f (x∗b ) , ∀x ∈ S} ⇔ {x∗b é máximo absoluto}.

2. Se f (x) : S → R, S convexa, é convexa, então qualquer mínimo local é mínimo global.

2.7.1 Conjunto convexo


Um conjunto S é convexo se ∀x1 e x2 ∈ S

x (λ) ∈ S, ∀λ ∈ (0, 1)
em que (2.181)
x (λ) = (1 − λ) x1 + λ x2 .
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 60

Note que x (λ), λ ∈ (0, 1), descreve o segmento de reta unindo os pontos x1 e x2 .

2.7.2 Função convexa


Uma função f (x) : x ∈ S ⊂ Rn → R, S convexo, é convexa se

f ((1 − λ) x1 + λ x2 ) ≤ (1 − λ) f (x1 ) + λ f (x2 ), ∀λ ∈ (0, 1). (2.182)

Se
f ((1 − λ) x1 + λ x2 ) < (1 − λ) f (x1 ) + λ f (x2 ), ∀λ ∈ (0, 1) (2.183)

diz-se então que f (x) é estritamente convexo em S.

2.7.3 Teorema: verificação da convexidade de uma função


Uma função f (x) : x ∈ S ⊂ Rn → R, S convexo, f (x) ∈ C 2 (S), é convexa se e somente se a
hessiana, ∇2x f (x) ≡ H(x), é positiva semi-definida ∀x ∈ S. Se a hessiana for positiva definida
então f (x) será estritamente convexa, i.e.,

f (x) : x ∈ S ⊂ Rn → R, S convexo, f (x) ∈ C 2 (S), é convexa


se e somente se (2.184)
hessiana, ∇2x f (x) ≡ H(x), é positiva semi-definida ∀x ∈ S.

Note que:

• H(x) é Positiva semi-definida se e somente se os valores próprios de H(x) são não negativos,
i.e.,
λi (x) ≥ 0, i = 1, n, valores próprios de H(x).
Logo, para i = 1, n, λi (x) são as raízes do
(2.185)
polinômio característico
p (λ(x)) = det [H(x) − λ(x)I] = 0;

• H(x)n×n é Positiva definida, se e somente se, os valores próprios de H(x) satisfazem a


relação
λi (x) > 0, i = 1, n, valores próprios de H(x). (2.186)
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 61

2.7.4 Teorema: Mínimo Global


Consider o problema: Determine x∗ ∈ Rn solução de:

min f (x) (2.187)


x∈S

Se x∗ ∈ S é um mínimo local de (2.187) e a função f (x) : x ∈ S ⊂ Rn → R, S convexo, é


convexa, então x∗ é mínimo global de (2.187).
Demonstração: (prova por contradição)
Seja x∗ mínimo local de (2.187), i.e.,

∃ ǫ > 0, tal que f (x∗ ) ≤ f (x), ∀x ∈ (Bǫ (x∗ ) ∩ S). (2.188)

. Suponha, por absurdo, que

∃ xa ∈ S tal que f (xa ) < f (x∗ ), (hipótese por absurdo). (2.189)

Porém, se S é convexo, temos

x (λ) = (1 − λ) x∗ + λ xa ∈ S, ∀λ ∈ (0, 1). (2.190)

Como f (x) é convexo,

f ((1 − λ) x∗ + λ xa ) ≤ (1 − λ) f (x∗ ) + λ f (xa ), ∀λ ∈ (0, 1) (2.191)

i.e.
f (x (λ)) ≤ (1 − λ) f (x∗ ) + λ f (xa ) =
= f (x∗ ) + λ [f (xa ) − f (x∗ )] < f (x∗ ), ∀λ ∈ (0, 1)
já que
[f (xa ) − f (x∗ )] < 0.
Esta relação mostra que x∗ não é um mínimo local, (2.192)
consequencia da desigualdade estrita
f (x (λ)) < f (x∗ ), ∀λ ∈ (0, 1)
e o fato de
lim x (λ) = x∗ e a continuidade de f (x).
λ→1

De (2.188) e (2.192) obtemos uma contradição. Isto implica que a hipótese suposta acima não é
válida. Como resultado, podemos concluir que não existe xa ∈ S tal que f (xa ) < f (x∗ ). Logo,
x∗ ∈ S é mínimo absoluto. Note que x∗ ∈ S pode não ser único.

2.7.5 Definições
Um problema de otimização
min f (x) (2.193)
x∈S

é dito convexo se:


CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 62

• O conjunto das variáveis de projeto factíveis (ou domínio factível), S, for convexo;

• A função objetivo, f (x), for convexa.

Considere que o conjunto, S, das variáveis de projeto factíveis descrito por

S = { x ∈ Rn | hi (x) = 0, i = 1, l, e gj (x) ≤ 0, j = 1, s̄}. (2.194)

Neste caso temos que:

(i) Se todas as restrições de igualdade forem lineares e

(ii) Se todas as restrições de desigualdade forem convexas, então o conjunto S será convexo.

Note que:
Se as restrições de igualdade não forem lineares então S não será convexo.

2.8 Condições necessárias de otimalidade


2.8.1 Condição necessária de otimalidade de primeira ordem
Considere o problema

(P1) ≡ min f (x)


x∈S
em que (2.195)
S = { x ∈ Rn | hi (x) = 0, i = 1, l, e gj (x) ≤ 0, j = 1, s̄}.

A condição necessária de otimalidade de Kuhn-Tucker estabelece que: Seja x∗ ∈ S, ponto


regular de S, o qual é mínimo local de (P1). Sejam f (x), hi (x), i = 1, l, e gj (x), j = 1, s̄,
diferenciáveis em x∗ . Então existem multiplicadore de Lagrange ν ∗ ∈ Rl e µ∗ ∈ Rs̄ tais que

l s̄
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇xgj (x∗ ) = 0;
i=1 j=1

(2.196)
hi (x∗ ) = 0, i = 1, l;
e
gj (x∗ ) ≤ 0, µ∗j ≥ 0, µ∗j gj (x∗ ) = 0, j = 1, s̄.

Definindo o conjunto das restrições de desigualdade ativas em x∗ ∈ S como

J (x∗ ) = { j ∈ (1, ..., s̄)| gj (x∗ ) = 0}


sendo (2.197)
J (x∗ ) - o conjunto dos índices das restrições de desigualdade ativas

podemos reformular a condição necessária de otimalidade de Kuhn-Tucker como: Seja x∗ ∈ S,


ponto regular de S, o qual é mínimo local de (P1). Sejam f (x), hi (x), i = 1, l, e gj (x), j ∈
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 63

J (x∗ ), diferenciáveis em x∗ e gj (x), j ∈


/ J (x∗ ) contínuas em x∗ . Então existem multiplicadores
de Lagrange ν ∗ ∈ Rl e µ∗ ∈ Rs̄ tais que

l
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇x gj (x∗ ) = 0;
i=1 j∈J(x∗ )

(2.198)
hi (x∗ ) = 0, i = 1, l;
e
gj (x∗ ) ≤ 0, µ∗j ≥ 0, µ∗j gj (x∗ ) = 0, j = 1, s̄.

A condição necessária de otimalidade pode ser expressa de forma alternativa, utilizando-se


a função Lagrangeana. Para tal, é introduzida uma variável de folga s ∈ Rs̄ , de modo que a
restrição de desigualdade em (P1) é substituída pela restrição de igualdade, i.e.,

gj (x) ≤ 0, j = 1, s̄
substituída por (2.199)
gj (x) + s2j = 0, j = 1, s̄.

Neste caso, a condição necessária de otimalidade de Kuhn-Tucker estabelece que: Seja x∗ ∈ S,


ponto regular de S, o qual é mínimo local de (P1). Seja L (x, ν, µ, s) a função Lagrangeana
associada à (P1), definida por

l s̄
L (x, ν, µ, s) = f (x) + ν i hi (x) + µj gj (x) + s2j . (2.200)
i=1 j=1

Seja L (x, ν, µ, s) diferenciável em (x∗ , ν ∗ , µ∗ , s∗ ). Então existem multiplicadore de Lagrange


2
ν ∗ ∈ Rl e µ∗ ∈ Rs , µ∗j ≥ 0, j = 1, s̄, s∗j = −gj (x∗ ), tais que (x∗ , ν ∗ , µ∗ , s∗ ) é ponto de
estacionaridade de L (x, ν, µ, s), i.e.,

∂L(x,ν,µ,s)
∂xk = 0, k = 1, n;
(x∗ ,ν ∗ ,µ∗ ,s∗ )

∂L(x,ν,µ,s)
∂ν p = 0, p = 1, l;
(x∗ ,ν ∗ ,µ∗ ,s∗ )
(2.201)
∂L(x,ν,µ,s)
∂sr = 0, r = 1, s̄;
(x∗ ,ν ∗ ,µ∗ ,s∗ )
e
∂L(x,ν,µ,s)
∂µr = 0, r = 1, s̄.
(x∗ ,ν ∗ ,µ∗ ,s∗ )

Note que as condições em (2.201) implicam em:

• Como
l s
∂L (x, ν, µ, s) ∂f (x) ∂hi (x) ∂gj (x)
= + νi + µj (2.202)
∂xk ∂xk ∂xk ∂xk
i=1 j=1
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 64

temos que
∂L(x,ν,µ,s)
∂xk = 0, k = 1, n (2.203)
(x∗ ,ν ∗ ,µ∗ ,s∗ )

o que implica em

l

∇x f (x ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇x gj (x∗ ) = 0. (2.204)
i=1 j∈J (x∗ )

• Como
l
∂L (x, ν, µ, s) ∂ν i
= hi (x) (2.205)
∂ν p ∂ν p
i=1
l
= δip hi (x)
i=1
= hp (x)

temos que
hi (x∗ ) = 0, i = 1, l. (2.206)

• Como,

∂L (x, ν, µ, s) ∂sj
= µj 2sj (2.207)
∂sr ∂sr
j=1

= 2 µj sj δ jr
j=1
= 2µr sr

temos que
∂L(x,ν,µ,s)
∂sr =0
(x∗ ,ν ∗ ,µ∗ ,s∗ )
o que implica em (2.208)
µ∗r s∗r = 0, r = 1, s̄.

• Como,


∂L (x, ν, µ, s) ∂µj
= gj (x) + s2j (2.209)
∂µr ∂µr
j=1

= δ jr c
j=1

= gr (x) + s2r
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 65

temos que
∂L(x,ν,µ,s)
∂µr =0
(x∗ ,ν ∗ ,µ∗ ,s∗ )
o que implica em (2.210)
gr (x∗ ) + (s∗r )2 = 0, r = 1, s̄.
Note que, as variáveis de folga em (2.208) e (2.210) podem ser removidas observando-se
que
gr (x∗ ) + (s∗r )2 = 0, r = 1, s̄ (2.211)

acarreta em
gr (x∗ ) = − (s∗r )2 ≤ 0, r = 1, s̄ (2.212)

i.e.
gr (x∗ ) ≤ 0, r = 1, s̄. (2.213)

Observando-se que
{µ∗r s∗r = 0} ⇔ µ∗r (s∗r )2 = 0 (2.214)

e utilizando-se o resultado em (2.212), derivamos

µ∗r gr (x∗ ) = 0, r = 1, s̄. (2.215)

Consequentemente, obtemos como resultado da imposição da condição de estacionaridade


de L (x, ν, µ, s) em (x∗ , ν ∗ , µ∗ , s∗ ) as condições

l
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇x gj (x∗ ) = 0
i=1 j∈J(x∗ )

(2.216)
hi (x∗ ) = 0, i = 1, l
e
gj (x∗ ) ≤ 0, µ∗j gj (x∗ ) = 0, r = 1, s̄.

É importante resaltar que, para que esta condição de estacionaridade de L (x, ν, µ, s) em


(x∗ , ν ∗ , µ∗ , s∗ ), descrita em (2.216), forneça a condição necessária de otimalidade de Kuhn-
Tucker associada ao problema (P1), é imperativo a imposição adicional da condição µ∗ ≥ 0,
i.e., µ∗j ≥ 0, r = 1, s̄. Com adição da condição extra µ∗ ≥ 0 obtemos finalmente a condição
necessária de otimalidade de Kuhn-Tucker associada ao problema (P1), dada por

l

∇x f (x ) + ν ∗i ∇x hi (x∗ ) + µ∗j ∇x gj (x∗ ) = 0
i=1 j∈J (x∗ )

(2.217)
hi (x∗ ) = 0, i = 1, l
e
gj (x∗ ) ≤ 0, µ∗j gj (x∗ ) = 0, µ∗j ≥ 0, r = 1, s̄.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 66

Este resultado demonstra que o artifício da introdução da variável de folga s não nos leva
à determinação da condição necessária de otimalidade de Kuhn-Tucker. Porém, ao se adicionar
a condição extra µ∗ ≥ 0, i.e., µ∗j ≥ 0, r = 1, s̄, obtemos finalmente a condição necessária de
otimalidade de Kuhn-Tucker associada ao problema (P1). Isto significa que a prova matemática
da condição necessária de Kuhn-Tucker associada ao problema (P1) é mais elaborada.

2.8.2 Condição necessária de otimalidade de segunda ordem


Consideramos nesta seção a análise de pontos regulares, x∗ ∈ S, em que x∗ satisfaz a condição
necessária de otimalidade de primeira ordem, acima descrita. Neste caso, apenas as restrições
ativas são consideradas. Note que todas as restrições de igualdade são ativas. Porém, só as
restrições, j ∈ J (x∗ ), J (x∗ ) = { j ∈ (1, ..., s̄)| gj (x∗ ) = 0}, são ativas.
O plano tangente, em x∗ ∈ S formado pelas restrições ativas é dado por

NT (x∗ ) = x ∈ Rn | x = x∗ + d, em que d, ∇x hi (x∗ ) = 0, i = 1, l,


(2.218)
e d, ∇x gj (x∗ ) = 0, j ∈ J (x∗ ) .

Note que NT (x∗ ) é uma variedade linear. O subespaço linear associado à NT (x∗ ), dito espaço
tangente associado às restrições ativas em x∗ , é dado por

N (x∗ ) = d ∈ Rn em que d, ∇x hi (x∗ ) = 0, i = 1, l,


e d, ∇x gj (x∗ ) = 0, j ∈ J (x∗ )
(2.219)
em que verificamos
NT (x∗ ) = {x∗ } + N (x∗ ).

Desta forma, as direções d ∈ Rn a serem utilizadas na condição necessária de segunda ordem são
elementos de N (x∗ ), definido como sendo o espaço linear associado ao plano tangente formado
pelo conjunto das restrições ativas em x∗ .
Teorema:
Seja x∗ ∈ S, ponto regular, o qual x∗ satisfaz a condição necessária de otimalidade de
Kuhn-Tucker (primeira ordem). Seja ∇2x L (x, ν, µ) a Hessiana da função Lagrangeana,

l s̄
L (x, ν, µ) = f (x) + ν i hi (x) + µj gj (x), (2.220)
i=1 j=1

determinada em x∗ , i.e.,

l
∇2x L (x∗ , ν ∗ , µ∗ ) = ∇2x f ∗
(x ) + ν ∗i ∇2x hi (x∗ ) + µ∗j ∇2x gj (x∗ ). (2.221)
i=1 j∈J(x∗ )

Considere o conjunto das direções factíveis d ∈ N (x∗ ), definido como sendo o espaço linear
associado ao plano tangente formado pelo conjunto das restrições ativas em x∗ e suponha que
N (x∗ ) seja não vazio, i.e., N (x∗ ) = ∅. O teorema estabelece que: se x∗ é mínimo local de (P1),
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 67

então " #
Q = d, ∇2x L (x∗ , ν ∗ , µ∗ ) d ≥ 0, ∀d ∈ N (x∗ )
i.e.
" 2 # (2.222)
∇x L (x∗ , ν ∗ , µ∗ ) é positivo semi-definido quando
restrito ao subespaço N (x∗ ), N (x∗ ) ⊂ Rn .

2.9 Condições de suficiência


2.9.1 Condição de suficiência: Problemas convexos
Considere o problema de otimização definido por

(P1) ≡ min f (x)


x∈S
em que (2.223)
S = { x ∈ Rn | hi (x) = 0, i = 1, l, e gj (x) ≤ 0, j = 1, s̄}.

Se a função f (x) : x ∈ S ⊂ Rn → R, S convexo, é uma função convexa, então a condição


necessária de Kuhn-Tucker é também uma condição de suficiência para o mínimo global do
problema (P1).

2.9.2 Teorema: Condição de suficiência geral


Considere o problema de otimização definido por

(P1) ≡ min f (x)


x∈S
em que (2.224)
S = { x ∈ Rn | hi (x) = 0, i = 1, l, e gj (x) ≤ 0, j = 1, s̄}.

Seja x∗ ∈ S, ponto regular, o qual x∗ satisfaz a condição necessária de otimalidade de Kuhn-


Tucker (primeira ordem). Seja ∇2xL (x, ν, µ) a hessiana da função Lagrangeana,

l
L (x, ν, µ) = f (x) + ν i hi (x) + µj gj (x), (2.225)
i=1 j∈J(x∗ )

determinada em x∗ , i.e.,

l
∇2x L (x∗ , ν ∗ , µ∗ ) = ∇2x f (x∗ ) + ν ∗i ∇2x hi (x∗ ) + µ∗j ∇2x gj (x∗ ). (2.226)
i=1 j∈J(x∗ )
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 68

Considere o conjunto das direções factíveis d ∈ C (x∗ ),

C (x∗ ) = d ∈ Rn em que d, ∇x hi (x∗ ) = 0, i = 1, l,


d, ∇x gja (x∗ ) = 0, ja ∈ J (x∗ ) e µ∗ja > 0,
e d, ∇x gjb (x∗ ) ≤ 0, jb ∈ J (x∗ ) e µ∗jb = 0 (2.227)
sendo
J (x∗ ) = {j ∈ (1, ..., s̄)| gj (x∗ ) = 0} o conjunto das restrições
de desigualdade ativas,

e suponha que C (x∗ ) seja não vazio, i.e., C (x∗ ) = ∅. O teorema estabelece que: Se
" #
Q̌ = d, ∇2x L (x∗ , ν ∗ , µ∗ ) d > 0, ∀d = 0, d ∈ C (x∗ )
i.e.
" 2 # (2.228)
∇x L (x∗ , ν ∗ , µ∗ ) é positiva definida quando
restrita ao conjunto (cone) C (x∗ ), C (x∗ ) ⊂ Rn

então x∗ é mínimo local isolado de (P1).


" # " #
Veja que, se ∇2x L (x∗ , ν ∗ , µ∗ ) for positiva definida em todo Rn , então ∇2xL (x∗ , ν ∗ , µ∗ ) será
positiva definida em C (x∗ ), já que C (x∗ ) ⊂ Rn .

2.9.3 Teorema: Condição de suficiência forte


Considere o problema de otimização definido por

(P1) ≡ min f (x)


x∈S
em que (2.229)
S = { x ∈ Rn | hi (x) = 0, i = 1, l, e gj (x) ≤ 0, j = 1, s̄}.

Seja x∗ ∈ S, ponto regular, o qual x∗ satisfaz a condição necessária de otimalidade de Kuhn-


Tucker (primeira ordem). Seja ∇2xL (x, ν, µ) a hessiana da função Lagrangeana,

l
L (x, ν, µ) = f (x) + ν i hi (x) + µj gj (x), (2.230)
i=1 j∈J(x∗ )

determinada em x∗ , i.e.,

l
∇2x L (x∗ , ν ∗ , µ∗ ) = ∇2x f (x∗ ) + ν ∗i ∇2x hi (x∗ ) + µ∗j ∇2x gj (x∗ ). (2.231)
i=1 j∈J(x∗ )

" #
O teorema estabelece que: Se ∇2x L (x∗ , ν ∗ , µ∗ ) for positiva definida, então x∗ será mínimo local
isolado de (P1).
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 69

2.9.4 Observação
Um caso particular que pode ocorrer é termos x∗ ∈ S ⊂ Rn , ponto regular, o qual possue n
restrições ativas em x∗ , i.e.,

hi (x∗ ) = 0, i = 1, l
e
(2.232)
gj (x∗ ) = 0, j ∈ J (x∗ ), com µ∗j > 0,
em que J (x∗ ) têm (n − l) elementos.

Como x∗ é regular, o conjunto

∇x hi (x∗ ) , i = 1, l, ∇x gj (x∗ ) , j ∈ J (x∗ ) com µ∗j > 0


forma uma base para Rn
(2.233)
i.e.
span ∇x hi (x∗ ) , i = 1, l, ∇x gj (x∗ ) , j ∈ J (x∗ ) com µ∗j > 0 = Rn .

Como resultado, o conjunto C (x∗ ) = 0 , já que, como µ∗j > 0 para j ∈ J (x∗ ), implica em

C (x∗ ) = d ∈ Rn em que d, ∇x hi (x∗ ) = 0, i = 1, l,


(2.234)
e d, ∇x gj (x∗ ) = 0, j ∈ J (x∗ ) e µ∗j > 0 = 0 .

Veja que o vetor d têm que ser ortogonal a todo o Rn , logo só pode ser o elemento zero.
Adicionalmente,
como µ∗j > 0, j ∈ J (x∗ ),
temos (2.235)
C (x∗ ) = N (x∗ ).
Isto significa que no espaço linear associado ao plano tangente em x∗ , não existe nenhum vetor
não nulo d ∈ N (x∗ ) na direção do qual a função objetivo possa ser reduzida. Como resultado,
o ponto x∗ é um ponto de mínimo local do problema (P1).
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 70

2.9.5 Exemplos
Problema (1)

Considere o problema definido em (2.122), dado por:

min f (x)
x∈S
em que
S = { x ∈ Rn | g (x) ≤ 0}
em que (2.236)
f (x) = x21 + x22 − 3x1 x2
e
g (x) = x21 + x22 − 6 ≤ 0

i.e.
min f (x1 , x2 ) = x21 + x22 − 3x1 x2
tal que (2.237)
g (x1 , x2 ) = x21 + x22 − 6 ≤ 0
Verifique a condição de suficiência dos pontos extremos x∗ ∈ ∂S que satisfazem a condição
necessária de Kuhn-Tucker, para mínimo local isolado.
√ √
x∗1 = 3, 3 associado à µ∗ = 12
e (2.238)
√ √
x∗2 = − 3, − 3 associado à µ∗ = 12 .

Procedimento:

Step (1) Vamos inicialmente verificar se o problema de otimização é convexo. Caso seja, usamos
(2.223), o que permite inferir que x∗ é mínimo local isolado. Para tal, é necessário verificar:

1. Se o domínio factível S ⊂ Rn é convexo.


Como g (x) é uma função quadrática, sua Hessiana será constante. Como resultado,
pode-se utilizar (2.184) de modo a verificar se g (x) é convexo. Caso seja, de (2.194),
pode-se concluir que S ⊂ Rn será convexo. Note que,

∂ 2 g(x∗ ) ∂ 2 g(x∗ )
" 2 # ∂x1 ∂x1 ∂x1 ∂x2 2 0
∇x g (x) = ∂ 2 g(x∗ ) ∂ 2 g(x∗ ) = = cte
0 2
∂x2 ∂x1 ∂x2 ∂x2 (2.239)
e seus valores próprios são
λg1 (x) = 2 > 0 e λg2 (x) = 2 > 0.

Como os valores próprios são maiores do que zero, pode-se, por (1.70), inferir que S
é convexo. Caso S for convexo, verifica-se o próximo ítem.
2. Se f (x) é convexo.
Como f (x) é uma função quadrática, sua Hessiana será constante. Como resultado,
pode-se utilizar (2.184) de modo a verificar se f (x) é convexo. Caso seja, de (2.194),
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 71

pode-se concluir que f (x) : S ⊂ Rn → R é convexo. Note que,

∂ 2 f(x∗ ) ∂ 2 f (x∗ )
" 2 # ∂x1 ∂x1 ∂x1 ∂x2 2 −3
∇x f (x) = ∂ 2 f(x∗ ) ∂ 2 f (x∗ )
= = cte
−3 2
∂x2 ∂x1 ∂x2 ∂x2 (2.240)
e seus valores próprios são
λf1 (x) = 5 > 0 e λf2 (x) = −1 < 0.

Como existe um valor próprio negativo, pode-se, por (1.70), inferir que f (x) não
é convexo. Consequentemente, pode-se concluir que (2.236) não é um problema de
otimização convexo.

Step (2) Verificação da condição de suficiência forte, veja (2.229).


" #
Neste caso, é requerido mostrar que a Hessiana da função Lagrangeana, ∇2x L (x∗ , µ∗ ) ,
é for positiva definida. A função Lagrangeana associada ao problema (2.236) é definida
como
L(x, µ) = f (x) + µ g (x). (2.241)

Sua Hessiana é dada por


" 2 # " # " #
∇x L(x, µ) = ∇2xf (x) + µ ∇2x g (x)

(2.242)
2 −3 2 0
= +µ .
−3 2 0 2

Desta forma, para µ∗ = 12 , temos

" 2 # 2 −3 1 2 0
∇x L(x∗ , µ∗ ) = + 2
−3 2 0 2
(2.243)
3 −3
= .
−3 3

Note que os valores próprios da Hessiana da função Lagrangeana, em (x∗ , µ∗ ), são

λL1 (x) = 6 > 0


e (2.244)
λL2 (x) = 0.

" #
Como existe um valor próprio nulo, pode-se, por (1.70), inferir que ∇2x L(x∗ , µ∗ ) não é
positivo definido, e portanto não satisfaz a condição de suficiência forte (x∗ , µ∗ ). Veja que
" 2 #
∇x L(x∗ , µ∗ ) é apenas positivo semidefinido.

Step (3) Verificação da condição de suficiência geral, veja (2.228).


CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 72

Neste caso, é requerido mostrar que


" #
Q̌ = d, ∇2x L (x∗ , ν ∗ , µ∗ ) d > 0, ∀d = 0, d ∈ C (x∗ )
i.e.
" 2 # (2.245)
∇x L (x∗ , ν ∗ , µ∗ ) é positiva definida quando
restrita ao conjunto (cone) C (x∗ ), C (x∗ ) ⊂ Rn

sendo

C (x∗ ) = d ∈ Rn em que d, ∇x g (x∗ ) = 0, se µ∗ja > 0


(2.246)
e d, ∇x g (x∗ ) ≤ 0, se µ∗jb = 0 .

Como temos uma única restrição a qual é ativa em


√ √
x∗1 = 3, 3 associado à µ∗ = 12
e (2.247)
√ √ 1
x∗2 = − 3, − 3 associado à µ∗ = 2

1
com µ∗ = 2 > 0 temos

C (x∗ ) = N (x∗ ) = d ∈ Rn d, ∇x g (x∗ ) = 0 . (2.248)

Desta forma, o conjunto dos vetores d ∈ N (x∗ ) pertencem ao subespaço linear associado
ao plano tangente à curva de nível g (x) = 0 em x∗ . O vetor

∇x g (x∗ ) = (2x1 , 2x2 )


i.e.
√ √
∇x g (x∗1 ) = 2 3, 2 3 (2.249)
e
√ √
∇x g (x∗2 ) = − 2 3, 2 3

o que implica, para ambos os casos, em

d, ∇x g (x∗ ) = 0
i.e.
√ √
2 3d1 + 2 3d2 = 0 (2.250)
i.e.
d1 = −d2 .

Logo,
C (x∗ ) = N (x∗ ) = d ∈ Rn (d1 , d2 ) = α (1, −1) , α ∈ R . (2.251)
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 73

A função quadrática

" # 3 −3 1 1
Q̌ = d, ∇2x L (x∗ , ν ∗ , µ∗ ) d = α2 .
−3 3 −1 −1
(2.252)
6 1
= α2 . = 12α2 > 0, para α = 0.
−6 −1

Consequentemente, de (2.228), pode-se concluir que ambos os pontos extremos são mínimos
locais isolados.

Problema (2)

Considere o problema dado por:

min f (x)
x∈S
em que
S = { x ∈ Rn | g1 (x) ≤ 0 e g2 (x) ≤ 0}
em que
f (x) = x21 + x22 − 2x1 − 2x2 + 2 (2.253)

g1 (x) = −2x1 − x2 + 4 ≤ 0
e
g2 (x) = −x1 − 2x2 + 4 ≤ 0

i.e.
min f (x1 , x2 ) = x21 + x22 − 2x1 − 2x2 + 2
tal que
g1 (x1 , x2 ) = −2x1 − x2 + 4 ≤ 0 (2.254)
e
g2 (x1 , x2 ) = −x1 − 2x2 + 4 ≤ 0.
O objetivo inicial é determinar os pontos regulares que satisfazem a condição necessária de
otimalidade. Posteriormente, é então verificada a condição de suficiência nestes extremos.
O objetivo consiste em determinar os pontos extremos x∗ que satisfazem a condição necessária
de otimalidade de Kuhn-Tucker.
Seja x∗ ∈ S, ponto regular de S, o qual é mínimo local de (2.253). Sejam f (x), gj (x)
diferenciáveis em x∗ . Então existe um multiplicador de Lagrange µ∗ ∈ R2 tal que

∇x f (x∗ ) + µ∗1 ∇x g1 (x∗ ) + µ∗2 ∇x g2 (x∗ ) = 0;

g1 (x∗ ) ≤ 0, µ∗1 g1 (x∗ ) = 0 e µ∗1 ≥ 0 (2.255)

g2 (x∗ ) ≤ 0, µ∗2 g2 (x∗ ) = 0 e µ∗2 ≥ 0


CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 74

Procedimento:

• Verificação de pontos interiores extremos, i.e., x∗ ∈ int (S), int (S) = {x ∈ Rn | gj (x) < 0, j = 1, 2}.
Neste caso, como os pontos são interiores,

gj (x∗ ) < 0 ⇒ µ∗j = 0, j = 1, 2. (2.256)

A condição necessária de otimalidade (2.255) reduz-se à

∇x f (x∗ ) = 0 (2.257)

que implica em
f (x) = x21 + x22 − 2x1 − 2x2 + 2
e
∂f(x∗ )
∗ ∂x1 2x∗1 − 2
∇xf (x ) = ∗
∂f(x ) = =0
∂x2 2x∗2 − 2 (2.258)
i.e.
x∗1 1
x∗ = ∗
= ∈/ int (S).
x2 1
Logo, podemos concluir que não existe x∗ ∈ int (S) que satisfaz a condição necessária de
otimalidade.

• Verificação de ponto extremo no vértice de ∂S


4 4
Considere o vértice x∗ = 3, 3 . Neste caso, as restrições ativas são:

g1 (x∗ ) = 0, e µ∗1 ≥ 0
(2.259)
g2 (x∗ ) = 0, e µ∗2 ≥ 0

A condição necessária de otimalidade é dada por

∇x f (x∗ ) + µ∗1 ∇x g1 (x∗ ) + µ∗2 ∇x g2 (x∗ ) = 0;

g1 (x∗ ) = 0, e µ∗1 ≥ 0 (2.260)

g2 (x∗ ) = 0, e µ∗2 ≥ 0.

Porém,
∂g1 (x∗ )
∗ ∂x1 −2
∇x g1 (x ) = ∂g1 (x∗ ) =
∂x2 −1
e (2.261)
∂g2 (x∗ )
−1
∇x g2 (x∗ ) = ∂x1
∂g2 (x∗ ) =
∂x2 −2
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 75

o que acarreta em

2x∗1 − 2 −2 −1 0
+ µ∗1 + µ∗2 =
2x∗2 − 2 −1 −2 0
i.e.
−2 −1 µ∗1 − 23
=
−1 −2 µ∗2 − 23 (2.262)

g1 (x∗ ) = 0
e
4 4
g2 (x∗ ) = 0 ⇒ x∗ = 3, 3 .

Como resultado, os multiplicadores de Lagrange são então dados por


−1
µ∗1 −2 −1 − 23
=
µ∗2 −1 −2 − 23
(2.263)
− 23 1
3
2
3
2
9
= 1
=
3 − 23 2
3
2
9

i.e.
2
µ∗1 = 9 >0
e (2.264)
2
µ∗2 = 9 > 0.

O que nos permite concluir que o vértice x∗ = 0 satisfaz a condição necessária de Kuhn-
−2 −1
Tucker. Note que os vetores {∇x g1 (x∗ ) , ∇x g2 (x∗ )} = , são linear-
−1 −2
4
mente independentes, o que mostra que o ponto x∗ = 3
4
é regular.
3

• Verificação de pontos extremos nas arestas de ∂S

(i) Aresta [1] ≡ ∂S[1]


Neste caso, a restrição ativa é:

g2 (x∗ ) = 0, e µ∗2 ≥ 0 (2.265)

e consequentemente
g1 (x∗ ) < 0 ⇒ µ∗1 = 0 (2.266)
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 76

A condição necessária de otimalidade (2.260) reduz-se à

∇x f (x∗ ) + µ∗2 ∇xg2 (x∗ ) = 0;


(2.267)
g2 (x∗ ) = x∗2 = 0, e µ∗2 ≥ 0

Porém,
∂g2 (x∗ )
∗ −1
∇x g2 (x ) = ∂x1
∂g2 (x∗ ) = (2.268)
∂x2 −2
o que acarreta em

2x∗1 − 2 −1 0

+ µ∗2 =
2x2 − 2 −2 0
i.e.
{2x∗1 − 2 − µ∗2 = 0} ⇒ {2x∗1 − µ∗2 = 2}
e
{2x∗2 − 2 − 2µ∗2 = 0} ⇒ {x∗1 + 2µ∗2 = 2}
i.e.
2 −1 x∗1 2

= (2.269)
1 2 µ2 2
i.e.
−1
2 1
x∗1 2 −1 2
= , inverse: 5 5 ,
µ∗2 1 2 2 − 15 2
5
2 1 6
5 5 2 5
= =
− 15 2
5 2 2
5
sendo
1 1 6 7
g2 (x∗ ) = 0 ⇒ x∗1 + 2x∗2 = 4 ⇒ x∗2 = 2 (4 − x∗1 ) = 2 4− 5 = 5

Como x∗ = 56 , 57 ∈ ∂S[1] , i.e., x∗ pertence à aresta [1] e µ∗2 = 25 > 0, podemos


6 7
concluir que x∗ = 5 , 5 ∈ ∂S[1] que satisfaz a condição necessária de otimalidade de
Kuhn-Tucker.
(ii) Aresta [2] ≡ ∂S[2]
Neste caso, a restrição ativa é:

g1 (x∗ ) = 0, e µ∗1 ≥ 0 (2.270)

e consequentemente
g2 (x∗ ) < 0 ⇒ µ∗2 = 0. (2.271)
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 77

A condição necessária de otimalidade (2.142) reduz-se à

∇x f (x∗ ) + µ∗1 ∇x g1 (x∗ ) = 0;

g1 (x∗ ) = −2x∗1 − x∗2 + 4 = 0, e µ∗3 ≥ 0 (2.272)


i.e.
x∗1 = 21 (4 − x∗2 ).

Porém,
∂g1 (x∗ )
∗ −2
∇x g1 (x ) = ∂x1
∂g1 (x∗ ) = (2.273)
∂x2 −1
o que acarreta em

2x∗1 − 2 ∗ −2 0
+ µ1 =
2x∗2 − 2 −1 0
i.e.
{2x∗1 − 2 − 2µ∗1 = 0} ⇒ {x∗2 + 2µ∗1 = 2}
{2x∗2 − 2 − µ∗1 = 0} ⇒ {2x∗2 − µ∗1 = 2}
i.e.
1 2 x∗2 2

=
2 −1 µ1 2 (2.274)
i.e.
−1
1 2
x∗2 1 2 2 5 5
= , inverse: 2
µ∗1 2 −1 2 5 − 15
1 2 6
x∗2 5 5 2 5
= 2
=
µ∗1 5 − 15 2 2
5
e
1 1 6 7
g1 (x∗ ) = 0 ⇒ x∗1 = 2 (4 − x∗2 ) = 2 4− 5 = 5

7 6 2
Como x∗ = 5, 5 ∈ ∂S[2] , i.e., x∗ pertence à aresta [2] e µ∗1 = 5 > 0, podemos
∗ 6 7
concluir que x = 5, 5 ∈ ∂S[2] que satisfaz a condição necessária de otimalidade de
Kuhn-Tucker.

• Verifique a condição de suficiência dos pontos extremos x∗ ∈ ∂S que satisfazem a condição


necessária de Kuhn-Tucker, para mínimo local isolado.

4 2
µ∗1 = >0
x∗1 = 3
4
e 9
2
3 µ∗2 = 9 > 0.
(2.275)
6 7
x∗2 = 5, 5 ∈ ∂S[1] , e µ∗2 = 52 > 0
7 6
x∗3 = 5, 5 ∈ ∂S[2] e µ∗ = 25 > 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 78

Procedimento:

Step (1) Vamos inicialmente verificar se o problema de otimização é convexo. Caso seja, usamos
(2.223), o que permite inferir que x∗i são mínimos locais isolados. Para tal, é necessário
verificar:

1. Se o domínio factível S ⊂ Rn é convexo.


Como g1 (x) é uma função linear, sua Hessiana será nula, logo positiva semidefinida.
Como resultado, pode-se utilizar (2.184) de modo a verificar se g (x) é convexo. Caso
seja, de (2.194), pode-se concluir que S ⊂ Rn será convexo. Note que,

∂ 2 g1 (x∗ ) ∂ 2 g1 (x∗ )
" 2 # ∂x1 ∂x1 ∂x1 ∂x2 0 0
∇x g1 (x) = ∂ 2 g1 (x∗ ) ∂ 2 g1 (x∗ ) = = cte
∂x2 ∂x1 ∂x2 ∂x2
0 0
e
∂ 2 g2 (x∗ ) ∂ 2 g2 (x∗ )
" 2 # ∂x1 ∂x1 ∂x1 ∂x2 0 0
∇x g2 (x) = ∂ 2 g2 (x∗ ) ∂ 2 g2 (x∗ ) = = cte
∂x2 ∂x1 ∂x2 ∂x2
0 0 (2.276)
e seus valores próprios são
λg11 (x) = 0 e λg21 (x) = 0
e
λg12 (x) = 0 e λg22 (x) = 0.

Como os valores próprios são maiores ou iguais a zero, pode-se, por (1.70), inferir que
S é convexo. Caso S for convexo, verifica-se o próximo ítem.
2. Se f (x) é convexo.
Como f (x) é uma função quadrática, sua Hessiana será constante. Como resultado,
pode-se utilizar (2.184) de modo a verificar se f (x) é convexo. Caso seja, de (2.194),
pode-se concluir que f (x) : S ⊂ Rn → R é convexo. Note que,

∂ 2 f(x∗ ) ∂ 2 f(x∗ )
" 2 # ∂x1 ∂x1 ∂x1 ∂x2 2 0
∇x f (x) = ∂ 2 f(x∗ ) ∂ 2 f(x∗ ) = = cte
0 2
∂x2 ∂x1 ∂x2 ∂x2 (2.277)
e seus valores próprios são
λf1 (x) = 2 > 0 e λf2 (x) = 2 > 0.
" #
Como ∇2x f (x) é positiva definida, pode-se, por (1.70), inferir que f (x) é con-
vexo. Consequentemente, pode-se concluir que (2.236) é um problema de otimização
convexo. Como resultado, as condições necessárias deKuhn-Tucker são também sufi-
cientes. Logo os pontos extremos

4 2
µ∗1 = >0
x∗1 = 3
4
e 9
2
3 µ∗2 = 9 > 0.
(2.278)
6 7
x∗2 = 5, 5 ∈ ∂S[1] , e µ∗2 = 52 > 0
7 6
x∗3 = 5, 5 ∈ ∂S[2] e µ ∗
= 25 > 0.
CAPÍTULO 2. OTIMIZAÇÃO COM RESTRIÇÃO 79

são mínimos locais isolados.


Capítulo 3

Algoritmos: Problemas sem restrição

3.1 Métodos baseados em direção de descida

80
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 81
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 82
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 83
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 84
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 85
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 86
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 87
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 88
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 89
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 90
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 91
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 92
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 93
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 94
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 95
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 96
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 97
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 98
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 99
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 100
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 101
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 102
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 103
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 104
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 105
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 106
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 107
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 108
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 109
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 110
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 111
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 112
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 113
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 114
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 115
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 116
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 117
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 118
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 119
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 120
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 121
CAPÍTULO 3. ALGORITMOS: PROBLEMAS SEM RESTRIÇÃO 122
Capítulo 4

Métodos Numéricos: Problemas com


restrições

4.1 Métodos numéricos


4.1.1 Método da penalidade exterior
Considere o problema de otimização definido por

(P1) ≡ min f (x)


x∈S
em que (4.1)
S = { x ∈ Rn | hi (x) = 0, i = 1, l, e gj (x) ≤ 0, j = 1, s̄}.

O objetivo do método da penalidade exterior consiste em determinar uma solução aproximada de


(4.1) a qual é determinada através de uma sequência de problemas de otimização sem restrição.
Para atingir tal objetivo, introduzimos a função indicadora do conjunto S.

Função indicadora do conjunto S

Seja
x, se x ∈ S
IS (x) = . (4.2)
∞, se x ∈
/S

Em face da introdução da função indicadora, IS (x), podemos reformular o problema de otimiza-


ção (P1) como sendo um problema de otimização sem restrições, o qual é formulado como:
Determine x∗ ∈ Rn solução de
(P2) ≡ minn
fˆ (x)
x∈R
em que (4.3)
fˆ (x) = f (x) + IS (x).

123
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 124

Veja que, de fato


x∗ = arg min {f (x)} = arg min fˆ (x)
x∈S x∈Rn
i.e. (4.4)
(P1) ≡ (P2).

É importante enfatizar que o problema de otimização (P2) é sem restrição, i.e., é definido em
todo espaço linear Rn . O problema consiste porém na determinação do mínimo local x∗ , já que
a função modificada, fˆ (x), não é contínua. Desta forma, não podemos utilizar algoritmos já
consagrados na literatura para a determinação de um mínimo local de (P1) ≡ (P2). Estes algo-
ritmos clássicos requerem que a função objetivo seja contínua e, na maioria das vezes, requerem
que a função seja diferenciável.
Uma forma de contornar este problema é aplicar um processo de regularização em fˆ (x), ou,
mais precisamente, em IS (x). Um destes métodos de regularização é o método da penalidade
exterior.
O método da penalidade exterior consiste em propor uma função suave ISǫ (x), tal que, no
limite, para ǫ → 0, ISǫ (x) → IS (x). Logo, a função suave ISǫ (x), é tal que

limISǫ (x) = IS (x). (4.5)


ǫ→0

Formulação do processo de otimização regularizado

Como resultado do processo de regularização, o problema de otimização (P1) é formulado como:


Determine x∗ ∈ Rn
x∗ = limx∗ǫ (4.6)
ǫ→0

em que x∗ǫ é solução de: Dado ǫ > 0, determine x∗ǫ ∈ Rn solução de

(P3) ≡ min
n
fˆǫ (x)
x∈R
sendo (4.7)
fˆǫ (x) = f (x) + ISǫ (x).

Construção da função suave ISǫ (x) O método da penalidade exterior propôe que

ISǫ (x) = 1ǫ P (x) (4.8)

em que P (x) : x ∈ Rn → R satisfaz as seguintes condições:

(i) P (x) ∈ C 0 (Rn );

(ii) P (x) = 0, ∀x ∈ S;

/ S e lim P (x) = ∞.
(iii) P (x) > 0, ∀x ∈
x →∞
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 125

Método da penalidade exterior exata No método da penalidade exterior exata P (x)


é dado por
l s̄
+
P (x) = |hi (x)| + gj (x)
i=1 j=1
sendo
hi (x) , se hi (x) ≥ 0
|hi (x)| = (4.9)
−hi (x) , se hi (x) < 0
e
+
gj (x) = max {0, gj (x)}, denominada
por parte positiva da função gj (x).
Neste caso, o problema de otimização (P1) é resolvido como: Determine x∗ ∈ Rn

x∗ = limx∗ǫ (4.10)
ǫ→0

em que x∗ǫ é solução de: Dado ǫ > 0, determine x∗ǫ ∈ Rn solução de

(P3) ≡ min
n
fˆǫ (x)
x∈R
em que   (4.11)
 l s̄ 
fˆǫ (x) = f (x) + 1
ǫ |hi (x)| + gj (x) +
.
 
i=1 j=1

Note que neste caso a função objetivo modificada é apenas contínua, supondo que f (x), hi (x)
e gj (x) o sejam. Este método de penalidade exterior é normalmente empregado quando na
solução de problemas de otimização (P1) fazendo uso de algoritmos genéticos, por exemplo.

Método da penalidade exterior geral No caso geral, em que se deseja utilizar algorit-
mos de programação matemática, é requerida a diferenciabilidade das funções envolvidas. Desta
forma, é utilizada uma aproximação para IS (x) que seja diferenciável. Neste caso, a função
P (x) proposta na literatura é dada por

l s̄
1 2 1 + 2
P (x) = 2 (hi (x)) + 2 gj (x)
i=1 j=1
na qual (4.12)
gj (x) + = max {0, gj (x)}, é denominada
por parte positiva da função gj (x).

Como resultado, o problema de otimização (P1) é resolvido como: Determine x∗ ∈ Rn

x∗ = limx∗ǫ (4.13)
ǫ→0
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 126

em que x∗ǫ é solução de: Dado ǫ > 0, determine x∗ǫ ∈ Rn solução de

(P3) ≡ min
n
fˆǫ (x)
x∈R
sendo   (4.14)
 l s̄ 
+ 2
fˆǫ (x) = f (x) + 1

2
(hi (x)) + gj (x) .
 
i=1 j=1

Neste caso, a função objetivo modificada é contínua e diferenciável, supondo que f (x) ∈ C 1 (Rn ),
hi (x) ∈ C 1 (Rn ) e gj (x) ∈ C 1 (Rn ).
A condição necessária de otimalidade para x∗ǫ ser ponto extremo de (P3) é dada por

∇x fˆǫ (x∗ǫ ) = 0
em que  
 l s̄  (4.15)
∇x fˆǫ (x) = ∇x f (x) + 1
ǫ hi (x) ∇x hi (x) + gj (x) + ∇x gj (x) .
 
i=1 j=1

O algoritmo utilizado no método de penalidade exterior está ilustrado na Figura a seguir

Neste algoritmo
r = ǫ1r
e
ǫr+1 = ρǫr
(4.16)
para ρ ∈ (0, 1)
i.e.
γ = 1ρ > 1.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 127

O problema com este algoritmo é que para ǫr < ǫcrit é observado problemas de mal condiciona-
mento numérico.

Descrição do algoritmo: método da penalidade exterior O algoritmo pode ser descrito


como:

• Para (k) = 0, inicialize:


T ol = 10−4
erro = 1
x∗(k) = xo (4.17)
ǫ(k) = 10−8
ǫcrit = 10−12

• Enquanto (erro > T ol) faça

Dado ǫ(k) , determine x∗(k+1) solução de:


minn fˆ x, ǫ(k)
∀x∈R
em que   (4.18)
 l s̄ 
+ 2
fˆ x, ǫ(k) = f (x) + 1
2ǫ (hi (x))2 + gj (x)
 
i=1 j=1

• Determine a nova estimativa para ǫ(k+1) como

ρǫ(k) , se ρǫ(k) ≤ ǫcrit


ǫ(k+1) =
ǫcrit , se ρǫ(k) > ǫcrit
(4.19)
em que
ρ ∈ (0, 1), exemplo, ρ = 0.2.

• Determine o novo erro


x∗(k+1) −x∗(k)
erro = max{1, x∗(k)
(4.20)
}

• Efetue a atualização de ǫ(k) , x∗(k) de modo a reinicializar o ciclo

x∗(k) ← x∗(k+1)
e (4.21)
ǫ(k) ← ǫ(k+1)

• Fim de enquanto
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 128

Exemplo analítico Considere o problema

(P1) ≡ min f(x)


em que
f(x) = x (4.22)
e
S = [1, 2].

O problema pode ser reformulado como: Determine x∗ ∈ R solução de

(P1) ≡ min f(x), f(x) = x,


tal que
g1 (x) = 1 − x ≤ 0 (4.23)
e
g2 (x) = x − 2 ≤ 0.

Com a aplicação do método da penalidade exterior, podemos reformular o problema de


otimização como: Determine x∗ ∈ R

x∗ = limx∗ǫ (4.24)
ǫ→0

em que x∗ǫ é solução de: Dado ǫ > 0, determine x∗ǫ ∈ Rn solução de

(P3) ≡ min fˆǫ (x)


x∈R
sendo  
 2 
+ 2 (4.25)
fˆǫ (x) = f (x) + 1
2ǫ gj (x)
 
j=1
i.e.
fˆǫ (x) = f (x) + 1
2ǫ g1 (x) +2
+ 1
2ǫ g2 (x) +2
.

Note que
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 129

o que leva a função objetivo, fˆǫ (x), a ser representada pelo gráfico abaixo.

A solução analítica de (P3) pode ser obtida pela imposição da condição necessária de otimali-
dade, i.e.,
dfˆǫ (x∗ǫ )
dx =0
i.e. (4.26)
df(x∗ǫ ) 1 + dg1 (x∗ǫ ) 1 + dg2 (x∗ǫ )
dx + ǫ g1 (x∗ǫ ) dx + ǫ g2 (x∗ǫ ) dx = 0.
Porém,
+ 2 (g1 (x))2 , se g1 (x) ≥ 0
g1 (x) =
0, se g1 (x) < 0
e (4.27)
2
+ 2 (g2 (x)) , se g2 (x) ≥ 0
g2 (x) =
0, se g2 (x) < 0
logo
1 (x)
d + 2 2g1 (x) dgdx , se g1 (x) ≥ 0
dx g1 (x) =
0, se g1 (x) < 0
e (4.28)
dg2 (x)
d
g2 (x) + 2
=
2g2 (x) dx ,
se g2 (x) ≥ 0
dx
0, se g2 (x) < 0
i.e.
d + 2 −2 (1 − x) , se (1 − x) ≥ 0
dx g1 (x) =
0, se (1 − x) < 0
e (4.29)
d + 2 2 (x − 2) , se (x − 2) ≥ 0
dx g2 (x) =
0, se (x − 2) < 0
Logo, temos as seguintes condições:

• Para x ≤ 1 temos
d + 2
dx g1 (x) = −2 (1 − x)
e (4.30)
d + 2
dx g2 (x) =0

o que implica
df(x∗ǫ )
dx =1− 2
2ǫ (1 − x∗ǫ ) = 0 (4.31)
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 130

i.e.
x∗ǫ = 1 − ǫ < 1; (4.32)

• Para x ∈ (1, 2) temos


d + 2
dx g1 (x) =0
e (4.33)
d + 2
dx g2 (x) =0

logo
df(x∗ǫ )
dx = 1 = 0. (4.34)
df(x∗ǫ )
o que nos permite concluir que não existe x∗ǫ ∈ (1, 2) tal que dx = 0. Consequentemente,
não existe x∗ǫ ∈ (1, 2) que seja mínimo local de (P3);

• Para x ≥ 2 temos
d + 2
dx g1 (x) =0
e (4.35)
d + 2
dx g2 (x) = 2 (x − 2)

logo
df(x∗ǫ )
dx =1+ 2
2ǫ (x∗ǫ − 2) = 0 (4.36)

i.e.
x∗ǫ = (2 − ǫ) < 2
i.e. (4.37)
x∗ǫ ∈/ [2, ∞).
df (x∗ǫ )
Logo não existe x∗ǫ ≥ 2 tal que dx = 0. Consequentemente, não existe mínimo local de
(P3) tal que x∗ǫ ≥ 2.

De todas as possibilidades acima analizadas podemos concluir que o mínimo local de (P3) é
dado por
x∗ǫ = (1 − ǫ). (4.38)

Como resultado, podemos calcular a solução exata, tomando o seguinte limite

x∗ = limx∗ǫ
ǫ→0
= lim (1 − ǫ) (4.39)
ǫ→0
= 1,

que de fato fornece a solução exata x∗ = 1.


CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 131

4.2 Método do Lagrangeano Aumentado


4.2.1 Restrições de igualdade
Considere o problema de otimização definido por

(P1) ≡ min f (x)


x∈S
em que (4.40)
S = {x ∈ Rn | hi (x) = 0, i = 1, l}.

Condição necessária de otimalidade de Kuhn-Tucker

Seja x∗ ∈ S, ponto regular, o qual é mínimo local de (P1). Sejam f (x), hi (x), i = 1, l,
diferenciáveis em x∗ . Então, existe um multiplicador de Lagrange ν ∗ ∈ Rl tal que

l
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) = 0;
i=1 (4.41)
e
hi (x∗ ) = 0, i = 1, l.

A condição necessária de otimalidade pode ser expressa de forma alternativa, utilizando-se a


função Lagrangeana.
Seja L (x, ν) a função Lagrangeana associada à (P1), definida como

l
L (x, ν) = f (x) + ν i hi (x). (4.42)
i=1

Seja x∗ ∈ S, ponto regular, o qual é mínimo local de (P1). Então, existe um multiplicador de
Lagrange ν ∗ ∈ Rl tal que (x∗ , ν ∗ ) é ponto de estacionaridade de L (x, ν), i.e.,

∂L(x,ν)
∂xk = 0, k = 1, n;
(x∗ ,ν ∗ )
(4.43)
∂L(x,ν)
∂ν p = 0, p = 1, l;
(x∗ ,ν ∗ )

Note que as condições em (4.43) implicam em:

• Como
l
∂L (x, ν) ∂f (x) ∂hi (x)
= + νi (4.44)
∂xk ∂xk ∂xk
i=1

temos que
l

∇x f (x ) + ν ∗i ∇x hi (x∗ ) = 0. (4.45)
i=1
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 132

• Em adição, como

l
∂L (x, ν) ∂ν i
= hi (x) (4.46)
∂ν p ∂ν p
i=1
l
= δ ip hi (x)
i=1
= hp (x)

temos que
hi (x∗ ) = 0, i = 1, l. (4.47)

Formulação do problema de ponto de sela associado à (P1)

Seja x∗ ∈ S, ponto regular, o qual é mínimo local de (P1). Então, existe um multiplicador de
Lagrange ν ∗ ∈ Rl tal que (x∗ , ν ∗ ) é solução do seguinte problema de ponto de sela, i.e.,

L (x∗ , ν) ≤ L (x∗ , ν ∗ ) ≤ L (x, ν ∗ ), ∀x ∈ Rn e ν ∈ Rl . (4.48)

Note que:

• Da desigualdade
L (x∗ , ν ∗ ) ≤ L (x, ν ∗ ), ∀x ∈ Rn (4.49)

temos, para ν ∗ ∈ Rl conhecido, que

x∗ = arg minL (x, ν ∗ ) (4.50)


∀x∈Rn

i.e., x∗ é solução do problema sem restrição (P2)

Determinar x∗ ∈ Rn solução de
(4.51)
minn L (x, ν ∗ ).
∀x∈R

Neste caso, a condição necessária de otimalidade para x∗ ser mínimo local de (P2) é que

l
∇x L (x, ν ∗ )|x∗ = ∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) = 0. (4.52)
i=1

• Da desigualdade
L (x∗ , ν) ≤ L (x∗ , ν ∗ ), ν ∈ Rl (4.53)

temos, para x∗ ∈ Rn conhecido, que

ν ∗ = arg maxL (x, ν ∗ ) (4.54)


∀ν∈Rl
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 133

i.e., ν ∗ é solução do problema sem restrição (P3)

Determinar ν ∗ ∈ Rl solução de
(4.55)
max L (x, ν ∗ ).
∀ν∈Rl

Neste caso, a condição necessária de otimalidade para ν ∗ ser máximo local de (P3) é que

∂L(x,ν ∗ )
∂ν j = hj (x∗ ) = 0, para j = 1, ..l. (4.56)
ν∗

Combinando as expressões em (4.51) e (4.55) obtemos

(x∗ , ν ∗ ) = arg minn max L (x, ν)


∀x∈R ∀ν∈Rl
i.e.
(4.57)
(x∗ , ν ∗ ) é solução do problema
inf n sup L (x, ν).
∀x∈R ∀ν∈Rl

Formulação do problema de otimização

O problema de otimização definido por

(P1) ≡ min f (x)


x∈S
sendo (4.58)
S = { x ∈ Rn | hi (x) = 0, i = 1, l}

pode ser reformulado como um problema de otimização sem restrição, formulado como:

Determine x∗ ∈ Rn solução de
minn L (x, ν ∗ )
∀x∈R
na qual (4.59)
l
L (x, ν ∗ ) = f (x) + ν ∗i hi (x).
i=1

O problema consiste no fato de não conhecermos o multiplicador de Lagrange ν ∗ ∈ Rl . Por


outro lado, se aproximarmos o multiplicador de Lagrange ν ∗ por ν (k) em (4.59) não obteremos
a solução exata do problema de mínimo. Este problema pode ser contornado se introduzirmos
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 134

a restrição de igualdade, i.e., formularmos o problema como:

Determine x∗ ∈ Rn solução de
min L x, ν (k)
sujeito às restrições
hi (x) = 0, i = 1, ...l (4.60)
em que
l
(k) (k)
L x, ν = f (x) + νi hi (x).
i=1

Note que, sem perda de generalidade, podemos definir a função Lagrangeana Aumentada, através
da aplicação do método de penalidade exterior. Neste caso, o problema pode ser expresso como
sendo um problema de otimização sem restrição, formulado como:

Determine x∗ ∈ Rn

x∗ = lim x∗ ν (k) , ǫ(k)


k→∞

na qual x∗ ν (k) , ǫ(k) ∈ Rn é solução de: Dado ν (k), ǫ(k) ,


determine x∗(k) ∈ Rn solução de

(4.61)
minn χ x, ν (k) , ǫ(k)
∀x∈R

em que
x∗(k) = x∗ ν (k), ǫ(k)
e
l l
(k)
χ x, ν (k)
,ǫ (k)
= f (x) + ν i hi (x) + 1
2ǫ(k)
(hi (x))2 .
i=1 i=1

O objetivo consiste em resolver o problem (P1) de forma iterativa, através da solução de uma
sequência de problemas de otimização sem restrição. Para tal objetivo, é necessário definir-
mos regras para a atualização das variáveis ν (k) , ǫ(k) de modo que, no limite, para k → ∞,
tenhamos um algoritmo convergente, i.e., x∗(k) → x∗ .

Regra de atualização da penalidade exterior No caso do parâmetro da penalidade exte-


rior, buscando evitar o problema conhecido de mal condicionamento numérico para ǫ(k) < ǫcrit,
é proposto o seguinte procedimento:

ρǫ(k) , se ρǫ(k) ≤ ǫcrit


ǫ(k+1) =
ǫcrit , se ρǫ(k) > ǫcrit
(4.62)
na qual
ρ ∈ (0, 1), exemplo, ρ = 0.2.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 135

No caso do multiplicador de Lagrange, é adotada uma estratégia distinta. Neste caso, determi-
namos inicialmente a condição necessária de otimalidade do problema formulado em (4.61).
A condição necessária de otimalidade para x∗(k) ∈ Rn ser mínimo local é que

∇x χ x, ν (k), ǫ(k) =0
x∗(k)
i.e.
l
(4.63)
(k) 1
∇x f x∗(k) + νi + h
ǫ(k) i
x∗(k) ∇x hi x∗(k) = 0.
i=1

Por outro lado, temos de (4.41) que

l
∇x f (x∗ ) + ν ∗i ∇x hi (x∗ ) = 0. (4.64)
i=1

Consequentemente, para que x∗(k) → x∗ deveremos ter

(k) 1
lim νi + h
ǫ(k) i
x∗(k) = ν ∗i (4.65)
k→∞

o que sugere uma regra de atualização, dada por

(k+1) (k)
νi = νi + 1
h
ǫ(k) i
x∗(k) . (4.66)

Descrição do algoritmo: Método do Lagrangeano Aumentado - Restrições de Igual-


dade O algoritmo pode ser descrito como:

• Para (k) = 0, inicialize:


T ol = 10−4
erro = 1
ν (k) = 0 (4.67)
ǫ(k) = 10−8
ǫcrit = 10−12

• Enquanto (erro > T ol) faça

Dado ν (k) , ǫ(k) , determine x∗(k) solução de:


min χ x, ν (k), ǫ(k)
∀x∈Rn
em que (4.68)
l l
(k)
χ x, ν (k), ǫ(k) = f (x) + ν i hi (x) + 1
2ǫ(k)
(hi (x))2
i=1 i=1
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 136

• Determine as novas estimativas ν (k+1), ǫ(k+1) como

(k+1) (k) 1
νi = νi + h
ǫ(k) i
x∗(k)
e
ρǫ(k) , se ρǫ(k) ≤ ǫcrit
ǫ(k+1) = (4.69)
ǫcrit , se ρǫ(k) > ǫcrit
em que
ρ ∈ (0, 1), exemplo, ρ = 0.2.

• Determine o novo erro


(k+1) (k)
νi −ν i
erro = max (k)
i max 1, ν i

ou (4.70)
(k+1) (k)
ν −ν
erro =
max{1, ν (k) }

• Efetue a atualização de ν (k) , ǫ(k) de modo a reinicializar o ciclo

ν (k) ← ν (k+1)
e (4.71)
ǫ(k) ← ǫ(k+1)

• Fim de enquanto

4.2.2 Restrições de desigualdade


Considere o problema de otimização definido por

(P1) ≡ min f (x)


x∈S
em que (4.72)
S = {x ∈ Rn | gj (x) ≤ 0, j = 1, s̄}.

Condição necessária de otimalidade de Kuhn-Tucker

Seja x∗ ∈ S, ponto regular, o qual é mínimo local de (P1). Sejam f (x), gj (x), j = 1, s̄,
diferenciáveis em x∗ . Então, existe um multiplicador de Lagrange µ∗ ∈ Rs̄ , µ∗ ≥ 0, i.e., µ∗j ≥ 0,
j = 1, s̄, tal que


∇x f (x ) + µ∗j ∇x gj (x∗ ) = 0;
j=1
(4.73)
e
gj (x) ≤ 0, µ∗j ≥ 0 e µ∗j gj (x) = 0, j = 1, s̄.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 137

A condição necessária de otimalidade pode ser expressa de forma alternativa, utilizando-se a


função Lagrangeana. A função Lagrangeana, associada ao problema (P1), é


L (x, µ) = f (x) + µj gj (x). (4.74)
j=1

Condição necessária de otimalidade de Kuhn-Tucker

Seja x∗ ∈ S, ponto regular, o qual é mínimo local de (P1). Sejam f (x), gj (x), j = 1, s̄,
diferenciáveis em x∗ . Então, existe um multiplicador de Lagrange µ∗ ∈ Rs̄ , µ∗ ≥ 0, i.e., µ∗j ≥ 0,
j = 1, s̄, tal que (x∗ , µ∗ ), µ∗ ≥ 0, é solução do problema de ponto de sela:

Problema (P2):
L (x∗ , µ) ≤ L (x∗ , µ∗ ) ≤ L (x, µ∗ ), ∀x ∈ Rn e (4.75)
∀µ ∈ Rs̄ , µ ≥ 0, i.e., µj ≥ 0, j = 1, s̄.

Note que:

• Da inequação
L (x∗ , µ∗ ) ≤ L (x, µ∗ ), ∀x ∈ Rn (4.76)

temos
x∗ = arg minn L (x, µ∗ )
∀x∈R
i.e.
(4.77)
x∗ é solução do problema sem restrição:
minn L (x, µ∗ ).
∀x∈R

A condição necessária de otimalidade para x∗ ∈ S, ponto regular, ser um mínimo local de


(4.77) é que

∗ ∗
∇x L (x, µ )|x∗ = ∇x f (x ) + µj ∇x gj (x∗ ) = 0. (4.78)
j=1

• Da inequação, para µ∗ ≥ 0,

L (x∗ , µ) ≤ L (x∗ , µ∗ ), ∀µ ∈ Rs̄ , µ ≥ 0, i.e., µj ≥ 0, j = 1, s̄. (4.79)

temos
Para µ∗ ≥ 0,
s̄ s̄
f (x∗ ) + µj gj (x∗ ) ≤ f (x∗ ) + µ∗j gj (x∗ ) (4.80)
j=1 j=1
∀µj ≥ 0, j = 1, s̄.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 138

i.e.
Para µ∗ ≥ 0,

µj − µ∗j gj (x∗ ) ≤ 0 (4.81)
j=1
∀µj ≥ 0, j = 1, s̄.
Como (4.81) vale para todo ∀µj ≥ 0, j = 1, s̄, vale para:

1. µi = 0 e as outras componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso,


(4.81) reduz-se à expressão
−µ∗i gi (x∗ ) ≤ 0
i.e. (4.82)
µ∗i gi (x∗ ) ≥ 0.

2. µi = 2µ∗i e as outras componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso,


(4.81) reduz-se à expressão
µ∗i gi (x∗ ) ≤ 0. (4.83)

De (4.82) e (4.83) podemos concluir que

µ∗i gi (x∗ ) = 0. (4.84)

µ∗
3. Caso µ∗i > 0 em que consideramos µi = µ∗i ± wo sendo wo = 2i > 0 e as outras
componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso, (4.81) reduz-se à
expressão
Para µ∗i > 0,
±wo gi (x∗ ) ≤ 0
i.e.
wo gi (x∗ ) ≤ 0 e wo gi (x∗ ) ≥ 0
(4.85)
o que acarreta em
µ∗
wo gi (x∗ ) = 0. Como wo = 2i > 0
obtemos que
gi (x∗ ) = 0.

4. Caso µ∗i = 0 em que consideramos µi = wo ≥ 0, arbitrário, as outras componentes


µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso, (4.81) reduz-se à expressão

Para µ∗i = 0,
wo gi (x∗ ) ≤ 0, ∀wo ≥ 0.
Como resultado, para que o produto acima (4.86)
seja negativo,
gi (x∗ ) ≤ 0.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 139

De (4.85) e (4.86) podemos concluir que

gi (x∗ ) ≤ 0. (4.87)

Dos resultados em (4.78) e levando em conta que o índice i é arbitrário, temos de (4.84 e
4.87) acrescida da condição µ∗i ≥ 0, i = 1, s̄, a condição necessária de Kuhn-Tucker, dada por


∇x f (x∗ ) + µ∗j ∇x gj (x∗ ) = 0
j=1
(4.88)
e
µ∗i ≥ 0, gi (x∗ ) ≤ 0 e µ∗i gi (x∗ ) = 0, i = 1, s̄.

Em suma, podemos concluir que se (x∗ , µ∗ ), µ∗ ≥ 0, é solução do problema de ponto de sela


(P2), então x∗ é solução de (P1). Note também que x∗ pode ser determinado pela solução do
problema sem restrição, veja (4.77),

x∗ = arg minn L (x, µ∗ )


∀x∈R
i.e.
(4.89)
x∗ é solução do problema sem restrição:
minn L (x, µ∗ ).
∀x∈R

O problema consiste no fato de não conhecermos o multiplicador de Lagrange µ∗ ∈ Rs̄ , µ∗ ≥


0. Por outro lado, se aproximarmos o multiplicador de Lagrange µ∗ por µ(k) em (4.89) não
obteremos a solução exata do problema de mínimo (P1).
Este problema pode ser contornado através do seguinte procedimento:

1. Pela Introdução de uma variável de folga s ∈ Rs̄ de modo a transformarmos o problema


(P1) em um problema com restrições de igualdade,

(P3) ≡ min f (x)


x∈S
em que (4.90)
S= x ∈ Rn | gj (x) + (sj )2 = 0, j = 1, s̄ ,

i.e.
Problema (P3)
min f (x)
(4.91)
tal que
gj (x) + (sj )2 = 0, j = 1, s̄;
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 140

2. Reformulando este problema como:

Problema (P3)
min F (y)
sujeito às restrições
Hj (y) = 0, j = 1, s̄
em que
(4.92)
y = (x, s) ∈ Rn+s̄

F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.

3. Mostrando que, com a introdução da Função Lagrangeana associada ao problema (P3)


dada por

χ (y, µ) = F (y) + µj Hj (y), (4.93)
j=1

o problema de ponto de sela (P4) pode ser formulado como: Determine (y ∗ , µ∗ ) ∈ Rn+s̄ ×
Rs̄ , em que impomos a restrição, µ∗ ≥ 0, solução de

Problema (P4):
χ (y ∗ , µ) ≤ χ (y ∗ , µ∗ ) ≤ χ (y, µ∗ ), ∀y ∈ Rn+s̄ e (4.94)
∀µ ∈ Rs̄ , µ ≥ 0, i.e., µj ≥ 0, j = 1, s̄,

é solução do Problema (P1). O objetivo nesta etapa é mostrar que o problema de otimiza-
ção sem restrição, obtido do Problema (P4), é solução do problema (P1).

Problema (P4): Dado µ∗ ≥ 0, obtido em (P1),


y ∗ = arg min χ (y, µ∗ )
∀y∈Rn+s̄
i.e. (4.95)
y ∗ é solução do problema sem restrição:
min χ (y, µ∗ );
∀y∈Rn+s̄

4. Como µ∗ não é conhecido, podemos utilizar uma aproximação µ(k) de µ∗ se acrescentarmos


a restrição de igualdade Hj (y) = 0, j = 1, s̄. Neste caso temos

Problema (P5): Dado µ(k) ≥ 0, determinar y∗ ∈ Rn+s̄


solução de
min χ y, µ(k) (4.96)
tal que
Hj (y) = 0, j = 1, s̄.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 141

Note que  
 s̄ 
(k)
min χ y, µ(k) = min F (y) + µj Hj (y)
 
j=1 (4.97)
sujeito às restrições
Hj (y) = 0, j = 1, s̄.

Logo, a solução de (P5) é igual à solução de (P4) a qual, por sua vez, é igual à solução de
(P1).

5. Finalmente, remover a restrição do problema (P5) através da aplicação do método de


penalidade exterior.
Neste caso, introduzimos a função Lagrangeana Aumentada, através da aplicação do
método de penalidade exterior. A solução aproximada do problema (P1) pode ser deter-
minada através da solução de uma sequência de problemas de otimização sem restrição,
formulado como:

Determine y ∗ ∈ Rn+s̄

y ∗ = lim y ∗ µ(k) , ǫ(k)


k→∞

em que y ∗ µ(k) , ǫ(k) ∈ Rn+s̄ é solução de: Dado µ(k) , ǫ(k) ,


determine y ∗(k) ∈ Rn+s̄ solução de

(4.98)
min ℑ y, µ(k) , ǫ(k)
∀y∈Rn+s̄

em que
y ∗(k) = y ∗ µ(k) , ǫ(k)
e
s̄ s̄
(k)
ℑ y, µ (k)
, ǫ(k) = F (y) + µj Hj (y) + 1
2ǫ(k)
(Hj (y))2 .
j=1 j=1

Em suma, o objetivo consiste em determinar soluções aproximadas do problem (P1)


utilizando-se um método iterativo que consiste na solução de uma sequência de proble-
mas de otimização sem restrição.
Para tal objetivo, é necessário definirmos regras para a atualização das variáveis
(k)
µ , ǫ(k) de modo que, no limite, para k → ∞, tenhamos um algoritmo convergente,
i.e., y ∗(k) → y ∗ .
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 142

Problema (P4): Problema de ponto de sela ( Demonstração do ítem (3))

O objetivo é mostrar que se (y ∗ , µ∗ ), µ∗ ≥ 0, é solução do problema de ponto de sela

Problema (P4):
χ (y ∗ , µ) ≤ χ (y ∗ , µ∗ ) ≤ χ (y, µ∗ ), ∀y ∈ Rn+s̄ e
∀µ ∈ Rs̄ , µ ≥ 0, i.e., µj ≥ 0, j = 1, s̄,
(4.99)
em que

χ (y, µ) = F (y) + µj Hj (y).
j=1

Então, (y ∗ , µ∗ ) é solução de (P1).


Note que:

• Da inequação χ (y ∗ , µ∗ ) ≤ χ (y, µ∗ ), temos

χ (y ∗ , µ∗ ) ≤ χ (y, µ∗ ), ∀y ∈ Rn+s̄
em que
s̄ (4.100)
χ (y, µ) = F (y) + µj Hj (y)
j=1

i.e.
y ∗ = arg min χ (y, µ∗ ). (4.101)
∀y∈Rn+s̄

Como o problema é sem restrição, a condição necessária de otimalidade é

∂χ(y,µ∗ )
∂yi = 0, i = 1, n + s̄ e y = (x, s)
y∗
a qual é equivalente às condições
∂χ(y,µ∗ )
∂xi = 0, i = 1, n (4.102)
y∗
e
∂χ(y,µ∗ )
∂sr = 0, r = 1, s̄.
y∗
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 143

Porém,

∂χ(y,µ∗ ) ∂f (x) ∂gj (x)
∂xi = ∂xi + µ∗j ∂xi =0
j=1
e

∂χ(y,µ∗ ) ∂s
∂si = µ∗j 2sj ∂sji
y∗
j=1

= µ∗j 2sj δ ij = 2µ∗i si = 0
(4.103)
j=1
em que
y = (x, s) ∈ Rn+s̄

F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.
Como resultado, temos
∂χ(y,µ∗ )
∂yi = 0, i = 1, n + s̄
y∗
implica em

∇x f (x∗ ) + µj ∇x gj (x∗ ) = 0 (4.104)
j=1
e
µ∗i si = 0, i = 1, s̄

• Da inequação χ (y ∗ , µ) ≤ χ (y ∗ , µ∗ ), para µ∗ ≥ 0, temos

χ (y ∗ , µ) ≤ χ (y ∗ , µ∗ ), ∀µ ∈ Rs̄ , µ ≥ 0, (4.105)

i.e.
s̄ s̄
2 2
∗ ∗
f (x ) + µj gj (x ) + s∗j ≤ f (x ) + ∗
µ∗j gj (x∗ ) + s∗j ,
j=1 j=1
(4.106)
∀µ ∈ Rs̄ , µ ≥ 0,

i.e.

2
µj − µ∗j gj (x∗ ) + s∗j ≤ 0, ∀µ ∈ Rs̄ , µj ≥ 0. (4.107)
j=1

Como (4.107) vale para todo ∀µj ≥ 0, j = 1, s̄, vale para:

1. µi = 0 e as outras componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso,


CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 144

(4.107) reduz-se à expressão

−µ∗i gi (x∗ ) + (s∗i )2 ≤ 0


i.e. (4.108)
µ∗i gi (x∗ ) + (s∗i )2 ≥ 0.

2. µi = 2µ∗i e as outras componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso,


(4.107) reduz-se à expressão

µ∗i gi (x∗ ) + (s∗i )2 ≤ 0. (4.109)

De (4.108) e (4.109) podemos concluir que

µ∗i gi (x∗ ) + (s∗i )2 = 0. (4.110)

µ∗
3. Caso µ∗i > 0 em que consideramos µi = µ∗i ± wo sendo wo = 2i > 0 e as outras
componentes µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso, (4.107) reduz-se à
expressão
Para µ∗i > 0,
±wo gi (x∗ ) + (s∗i )2 ≤ 0
i.e.
wo gi (x∗ ) + (s∗i )2 ≤ 0 e wo gi (x∗ ) + (s∗i )2 ≥ 0
(4.111)
o que acarreta em
µ∗i
wo gi (x∗ ) + (s∗i )2 = 0. Como wo = 2 >0
obtemos
gi (x∗ ) + (s∗i )2 = 0.

4. Caso µ∗i = 0 em que consideramos µi = wo ≥ 0, arbitrário, as outras componentes


µk = µ∗k ≥ 0 para k = 1, s̄, com k = i. Neste caso, (4.107) reduz-se à expressão

Para µ∗i = 0,
wo gi (x∗ ) + (s∗i )2 ≤ 0, ∀wo ≥ 0.
Como resultado, para que o produto acima (4.112)
seja negativo,
gi (x∗ ) + (s∗i )2 ≤ 0.

De (4.111) e (4.112) podemos concluir que

gi (x∗ ) + (s∗i )2 ≤ 0, (4.113)


CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 145

o que resulta em
gi (x∗ ) ≤ − (s∗i )2 ⇒ {gi (x∗ ) ≤ 0}
i.e. (4.114)
gi (x∗ ) ≤ 0, i = 1, s̄.

Veja que (4.111), para µ∗i > 0, temos

gi (x∗ ) + (s∗i )2 = 0
i.e. (4.115)
(s∗i )2 = −gi (x∗ ).

Adicionalmente, de (4.104), obtemos

{µ∗i s∗i = 0} ⇒ µ∗i (s∗i )2 = 0 . (4.116)

Substituindo (4.115) em (4.116) derivamos

µ∗i gi (x∗ ) = 0. (4.117)

No caso de µ∗i = 0, temos


µ∗i gi (x∗ ) = 0. (4.118)

Logo, de (4.117) e (4.118) podemos concluir que, para µ∗i ≥ 0,

µ∗i gi (x∗ ) = 0. (4.119)

Dos resultados em (4.104) e levando em conta que o índice i é arbitrário, temos de (4.114 e
4.119) acrescida da condição µ∗i ≥ 0, i = 1, s̄, a condição necessária de Kuhn-Tucker de (P1),
dada por

∇x f (x∗ ) + µj ∇x gj (x∗ ) = 0
j=1
(4.120)
e
µ∗i ≥ 0, gi (x∗ ) ≤ 0 e µ∗i gi (x∗ ) = 0, i = 1, s̄.

Em suma, podemos concluir que se (x∗ , µ∗ ), µ∗ ≥ 0, é solução do problema de ponto de sela


(P4), então x∗ é solução de (P1). Note também que x∗ pode ser determinado pela solução do
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 146

problema sem restrição, para µ∗ ≥ 0, veja (4.77),

y ∗ = arg min χ (y, µ∗ )


∀y∈Rn+s̄
i.e.
y ∗ é solução do problema sem restrição:
min χ (y, µ∗ )
∀y∈Rn+s̄
na qual


χ (y, µ ) = F (y) + µ∗j Hj (y) (4.121)
j=1
sendo
y = (x, s) ∈ Rn+s̄

F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.

4.2.3 Método do Lagrangeano Aumentado


O método do Lagrangeano Aumentado visa determinar uma solução aproximada para o problema
(P1) através da solução de uma sequência de problemas de otimização sem restrição. O problema
pode ser formulado como:

Determine y ∗ ∈ Rn+s̄

y∗ = lim y ∗ µ(k) , ǫ(k)


k→∞

em que y ∗ µ(k) , ǫ(k) ∈ Rn+s̄ é solução de: Dado µ(k) , ǫ(k) ,


determine y ∗(k) ∈ Rn+s̄ solução de

(4.122)
min ℑ y, µ(k) , ǫ(k)
∀y∈Rn+s̄

em que
y ∗(k) = y ∗ µ(k) , ǫ(k)
e
s̄ s̄
(k)
ℑ y, µ(k) , ǫ(k) = F (y) + µj Hj (y) + 1
2ǫ(k)
(Hj (y))2 .
j=1 j=1

Para tal objetivo, é necessário definirmos regras para a atualização das variáveis µ(k) , ǫ(k) de
modo que, no limite, para k → ∞, tenhamos um algoritmo convergente, i.e., y ∗(k) → y ∗ .
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 147

Regra de atualização da penalidade exterior No caso do parâmetro da penalidade ex-


terior, ǫ(k) , buscando evitar o problema conhecido de mal condicionamento numérico para
ǫ(k) < ǫcrit , é proposto o seguinte procedimento:

ρǫ(k) , se ρǫ(k) ≤ ǫcrit


ǫ(k+1) =
ǫcrit , se ρǫ(k) > ǫcrit
(4.123)
em que
ρ ∈ (0, 1), exemplo, ρ = 0.2.

No caso do multiplicador de Lagrange, é adotada uma estratégia distinta. Neste caso, deter-
minamos inicialmente a condição necessária de otimalidade do problema formulado em (4.122),
com relação ao problema de minimização da função Lagrangeana Aumentada.
A condição necessária de otimalidade para y ∗(k) ∈ Rn+s̄ ser mínimo local é que

∇y ℑ y, µ(k), ǫ(k) =0
y ∗(k)
em que
s̄ s̄
(k)
ℑ y, µ(k) , ǫ(k) = F (y) + µj Hj (y) + 1
2ǫ(k)
(Hj (y))2
j=1 j=1
sendo (4.124)
y = (x, s) ∈ Rn+s̄

F (y) = f (x)
e
Hj (y) = gj (x) + (sj )2 = 0, j = 1, s̄.

Porém, de (4.124) temos

s̄ s̄
∂ℑ(y,µ(k) ,ǫ(k) ) ∂f (x) (k) ∂gj (x) ∂gj (x)
∂xi = ∂xi + µj ∂x i
+ 1
ǫ(k)
gj (x) + (sj )2 ∂xi
j=1 j=1
e
s̄ s̄ (4.125)
∂ℑ(y,µ(k) ,ǫ(k) ) (k)
∂si = 2µj sj δij + 1
ǫ(k)
gj (x) + (sj )2 2sj δij
j=1 j=1
(k)
=2 µi + 1
ǫ(k)
gi (x) + (si )2 si = 0

o que acarreta em

(k)
∇x f (x∗ ) + µj + 1
ǫ(k)
gj (x∗ ) + (sj )2 ∇x gj (x∗ ) = 0
j=1
(4.126)
e
(k)
µi + 1
ǫ(k)
gi (x∗ ) + (s∗i )2 s∗i = 0, i = 1, s̄.
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 148

Da segunda relação de (4.126), pode-se constatar que

{s∗i = 0} ⇔ (s∗i )2 = 0
ou (4.127)
(k) (k)
µi + 1
ǫ(k)
gi (x∗ ) + (s∗i )2 = 0 ⇔ (s∗i )2 = − ǫ(k) µi + gi (x∗ )

O algoritmo propõe utilizar

(k)
(s∗i )2 = max 0, − ǫ(k) µi + gi (x∗ )
i.e. (4.128)
(k)
gi (x∗ ) + (s∗i )2 = max gi (x∗ ) , −ǫ(k) µi ,

o que satisfaz a condição de otimalidade.


Substituindo (4.128) em (4.126), podemos eliminar a variável de folga e obter


∗ (k) 1 (k)
∇x f (x ) + µj + ǫ(k)
max gj (x∗ ) , −ǫ(k) µj ∇x gj (x∗ ) = 0
j=1
i.e. (4.129)

(k) 1
∇x f (x∗ ) + max µj + g
ǫ(k) j
(x∗ ) , 0 ∇x gj (x∗ ) = 0.
j=1

Por sua vez, substituindo (4.128) em (4.124), dada por

s̄ * +
(k) 2 2
∗ ∗ (k) (k) ∗ 1 ∗ ∗
ℑ x ,s ,µ ,ǫ = f (x ) + 2ǫ(k)
2ǫ(k)µj + gj x + s∗j gj x + s∗j
j=1
em que
(k)
gi (x∗ ) + (s∗i )2 = max gi (x∗ ) , −ǫ(k)µi ,
(4.130)
(k)
podemos eliminar a variável de folga também de ℑ x∗ , s∗ , µ , ǫ(k) .
Veja que,
para gi (x∗ ) ≥ −ǫ(k) µ(k)
i
gi (x∗ ) + (s∗i )2 = gi (x∗ )
(4.131)
(k)
para gi (x∗ ) < −ǫ(k) µi
(k)
gi (x∗ ) + (s∗i )2 = −ǫ(k) µi
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 149

o que permite a definição da função


* +
2 2
Ψj (x∗ , µ∗ ) = 2ǫ(k)µ(k)
∗ ∗
j + gj x + s∗j gj x + s∗j

sendo:
(k)
para gi (x∗ ) ≥ −ǫ(k) µi
(k)
Ψj (x∗ , µ∗ ) = 2ǫ(k) µj + gi (x∗ ) gi (x∗ ) (4.132)
e
(k)
para gi (x∗ ) < −ǫ(k) µi
(k) 2
Ψj (x∗ , µ∗ ) = − ǫ(k)µi

i.e. 
 2ǫ(k) µ(k) ∗ ∗ ∗ (k) (k)
j + gi (x ) gi (x ) , se gi (x ) ≥ −ǫ µi
Ψj (x∗ , µ∗ ) = (k) 2 (k)
. (4.133)
 − ǫ(k) µi , se gi (x∗ ) < −ǫ(k)µi

Como resultado, substituindo (4.133) em (4.130) derivamos


ℑ x∗ , µ(k) , ǫ(k) = f (x∗ ) + 1
2ǫ(k)
Ψj (x∗ , µ∗ )
j=1
na qual (4.134)

 2ǫ(k) µ(k) ∗ ∗ ∗ (k) (k)
j + gi (x ) gi (x ) , se gi (x ) ≥ −ǫ µi
Ψj (x∗ , µ∗ ) = (k) 2 (k)
.
 − ǫ(k) µi , se gi (x∗ ) < −ǫ(k)µi

Regra de atualização do multiplicador de Lagrange Como queremos que

lim x∗(k) = x∗ (4.135)


k→∞

as relações entre os multiplicadores


∇x f (x∗ ) + µ∗j ∇x gj (x∗ ) = 0
j=1
e (4.136)

(k) 1
∇x f (x∗ ) + max 0, µj + g
ǫ(k) j
(x∗ ) ∇x gj (x∗ ) = 0
j=1

devem ser tal que


(k) 1
lim max 0, µj + g
ǫ(k) j
(x∗ ) = µ∗j (4.137)
k→∞

o que sugere a seguinte regra de atualização

(k+1) (k) 1
µj = max 0, µj + g
ǫ(k) j
(x∗ ) . (4.138)
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 150

Descrição do algoritmo: Método do Lagrangeano Aumentado - Restrições de de-


sigualdade

O algoritmo pode ser descrito como:

• Para (k) = 0, inicialize:


T ol = 10−4
erro = 1
µ(k) = 0 (4.139)
ǫ(k) = 10−8
ǫcrit = 10−12

• Enquanto (erro > T ol) faça

Dado µ(k) , ǫ(k) , determine x∗(k) solução de:


min ℑ x, µ(k) , ǫ(k)
∀x∈Rn
na qual

(k)
ℑ x, µ , ǫ(k) = f (x) + 1
2ǫ(k)
Ψj (x, µ∗ ) (4.140)
j=1
em que

 2ǫ(k) µ(k) (k) (k)
j + gi (x) gi (x) , se gi (x) ≥ −ǫ µi
Ψj (x, µ∗ ) = (k) 2 (k)
 − ǫ(k)µi , se gi (x) < −ǫ(k) µi

• Determine as novas estimativas µ(k+1), ǫ(k+1) como

(k+1) (k) 1
µj = max 0, µj + g
ǫ(k) j
(x∗ )
e
ρǫ(k), se ρǫ(k) ≤ ǫcrit
ǫ(k+1) = (4.141)
ǫcrit , se ρǫ(k) > ǫcrit
em que
ρ ∈ (0, 1), exemplo, ρ = 0.2.

• Determine o novo erro


(k+1) (k)
µj −µj
erro = max (k)
j max 1,µj

ou (4.142)
(k+1) (k)
µ −µ
erro =
max{1, µ(k) }
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 151

• Efetue a atualização de µ(k), ǫ(k) de modo a reinicializar o ciclo

µ(k) ← µ(k+1)
e (4.143)
ǫ(k) ← ǫ(k+1)

• Fim de enquanto

4.2.4 Problema de Otimização Geral: Método do Lagrangeano Aumentado


Considere o problema de otimização definido por

min f (x)
x∈S
em que
(4.144)
S = { x ∈ Rn | hi (x) = 0, i = 1, l
gj (x) ≤ 0, j = 1, s̄}

Descrição do algoritmo
O algoritmo pode ser descrito como:

• Para (k) = 0, inicialize:


T ol = 10−4
erro = 1
ν (k) = 0
(4.145)
µ(k) = 0
ǫ(k) = 10−8
ǫcrit = 10−12

• Enquanto (erro > T ol) faça

Dado µ(k) , ν (k), ǫ(k) , determine x∗(k) solução de:


min ℑ x, ν (k) , µ(k), ǫ(k)
∀x∈Rn
na qual
s̄ l
(k) (k) (k)
ℑ x, ν ,µ (k)
,ǫ = f (x) + 1
2ǫ(k)
Ψj x, µ + 1
2ǫ(k)
Φi x, ν (k)
j=1 i=1
(4.146)
em que

 2ǫ(k) µ(k) (k) (k)
j + gi (x) gi (x) , se gi (x) ≥ −ǫ µi
Ψj x, µ(k) = (k) 2 (k)
 − ǫ(k) µi , se gi (x) < −ǫ(k) µi
e
(k)
Φi x, ν (k) = 2ǫ(k) ν i + hi (x) hi (x)
CAPÍTULO 4. MÉTODOS NUMÉRICOS: PROBLEMAS COM RESTRIÇÕES 152

• Determine as novas estimativas ν (k) , µ(k+1) , ǫ(k+1) como

(k+1) (k) 1
νi = νi + h
ǫ(k) i
x∗(k)

(k+1) (k) 1
µj = max 0, µj + g
ǫ(k) j
(x∗ )
e
(4.147)
(k+1) ρǫ(k), ρǫ(k) ≤ ǫcrit
ǫ =
ǫcrit , ρǫ(k) > ǫcrit
em que
ρ ∈ (0, 1), exemplo, ρ = 0.2.

• Determine o novo erro


(k+1) (k)
µj −µj
erroµ = max (k)
j max 1,µj

e
(k+1) (k)
νi −ν i
erroν = max (k)
i max 1, ν i
(4.148)
ou
µ(k+1) −µ(k)
erroµ =
max{1, µ(k) }
e
ν (k+1) −ν (k)
erroν =
max{1, ν (k) }
sendo
erro = max {erroµ , erroν } (4.149)

• Efetue a atualização de ν (k) , µ(k) , ǫ(k) de modo a reinicializar o ciclo

ν (k) ← ν (k+1)

µ(k) ← µ(k+1) (4.150)


e
ǫ(k) ← ǫ(k+1)

• Fim de enquanto
Capítulo 5

Algoritimos genéticos contínuos

5.1 Introdução
Chelouah et al. (2000) define os algoritmos genéticos como técnicas de busca estocásticas basea-
dos em operadores aleatórios, tais como: seleção, cruzamento e mutação sendo estes operadores
inspirados pela reprodução e evolução natural das criaturas vivas.
De modo geral o método dos algoritmos genéticos tem sido desenvolvido desde 1975 com
os trabalhos iniciais de John Holland e posteriormente de David Goldberg entre muitos out-
ros pesquisadores, dando prosseguimento à evolução e disseminação do método dos algoritmos
genéticos.
A utilização de métodos de otimização sempre vem acompanhada da questão de qual método
utilizar. Fazendo-se uma pesquisa não é complicado chegar à conclusão de que é necessário
conhecer bem o problema que se deseja otimizar, pois todo método tem sua eficácia maior
quando utilizado em problemas com algumas características específicas.
As principais características dos algoritmos genéticos são:

• Ser capaz de otimizar variáveis contínuas ou discretas;

• Não requerer informações das derivadas das funções;

• Possibilitar a análise simultânea de uma grande amostragem de indivíduos fazendo uso de


processamento em paralelo;

• Permiter determinação de uma aproximação do mínimo global mesmo em domínios de


projeto complexos envolvendo funções objetivo não suaves;

• Prover uma lista de soluções ótimas, i.e., não se restringe a uma única solução;

• Funciona com dados gerados numericamente, experimentais ou funções analíticas.

153
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 154

5.1.1 Algoritmos Genéticos Contínuos


Os algoritmos genéticos contínuos se assemelham aos algoritmos genéticos binários. Sua de-
scrição geral está sintetizada na Figura abaixo.

Porém, possuem as seguintes características que os diferenciam:

• Trabalham diretamente com números reais;

• Em suas estruturas não necessitam da codificação nem da decodificação dos indivíduos,


necessários em algoritmos genéticos binários;

• A limitação da precisão das variáveis de projeto são as da máquina que está sendo utilizada,
o que não ocorre quando utiliza-se representação binária;

• Requerem menor espaço para armazenamento das variáveis de projeto.

5.2 Formulação de problemas de otimização


Em um problema de otimização deve-se primeiramente definir a função objetivo e as variáveis de
projeto escolhidas. Posteriormente, deve-se definir as restrições de igualdade e desigualdade. As
restrições de desigualdade porém são separadas em restrições laterais (ou de caixa) das demais.
No caso dos algoritmos genéticos contínuos, as restrições de igualdade e de desigualdade (que
não sejam laterais) são incorporadas na formulação do problema através do uso do método de
penalidade exterior exata.

5.2.1 Etapas de um algoritmo genético


1. Define-se uma população inicial;
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 155

2. Determina-se para cada indivíduo da população o valor associado à função objetivo;

3. Ordena-se em ordem crescente os indivíduos, no caso de minimização, de modo que o


indivíduo mais apto da população fique em primeiro lugar;

4. Verifica-se então se o critério de parada foi atingido. Caso o critério de parada não tenha
sido atingido, proceda a seguir;

5. Gera-se uma nova população de indivíduos. A nova população de indivíduos é obtida a


partir da população anterior através da aplicação de operadores relativos aos processos de:

(i) Seleção;
(ii) Cruzamento;
(iii) Mutação.

6. Retorna-se ao segundo processo acima descrito e executa o ciclo novamente.


CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 156

5.3 Componentes de um Algoritmo Genético Contínuo


5.3.1 Formulação do problema de otimização
O problema de otimização pode ser formulado como: Determinar x∗ ∈ Rn solução de:

min f (x)
sujeito às seguintes restrições:
(i) Restrições laterais (ou de caixa)
sup
i ≤ xi ≤ x̄i , para i = 1, ..n.
x̄inf
(ii) Restrições de igualdade
hk (x) = 0, para k = 1, ..l.
(iii) Restrições de desigualdade (gerais)
gj (x) ≤ 0, para j = 1, ..s.

Este problema de otimização pode ser reformulado, através da utilização do método da penali-
dade exterior exata, como: Determinar x∗ ∈ Rn solução de:

min fˇǫ (x)


sujeito às seguintes restrições:
(i) Restrições laterais
sup
i ≤ xi ≤ x̄i , para i = 1, ..n,
x̄inf
em que:
l s
fˇǫ (x) = f (x) + 1
ǫ |hk (x)| + 1
ǫ gj (x) +

k=1 j=1
sendo
hk (x) , se hk (x) ≥ 0
|hk (x)| =
−hk (x) , se hk (x) < 0
e
gj (x) + = max {0, gj (x)},
denominado parte positiva de gj (x).

Como veremos a seguir, as restrições de caixa, ou laterais, serão satisfeitas automaticamente


devido ao processo utilizado para a geração da população e pela definição dos operadores de
seleção, cruzamento e mutação utilizados.
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 157

5.3.2 Definições utilizadas


Desta forma, para que se defina um problema de otimização através de um algoritmo genético
contínuo, primeiramente deve-se definir as variáveis de projeto, expressas como:

x = {x1 , x2 , ......xn }
em que
xi - é a i-ésima variável de projeto (ou gene)
n - é o número total de variáveis de projeto
x - é o vetor das variáveis de projeto (ou indivíduo).
Note que cada indivíduo tem n genes.

Haupt et al (2004) refere-se a esse indivíduo, i.e., elemento de x ∈ Rn como um cromossomo


e a cada componente do elemento um gene associado ao indivíduo.
Note que como queremos abordar populações, iremos utilizar a seguinte notação:

(j) (j) (j)


x(j) = x1 , x2 , ......xn , j = 1, ..m indivíduos na população gerada,
em que
(j)
xi - é a i-ésima variável de projeto (ou gene) do j-ésimo indivíduo
n - é o número total de variáveis de projeto ou genes de cada indivíduo
m - é o número total de indivíduos na população gerada (ou tamanho da população)
x - é o vetor das variáveis de projeto (ou indivíduo).
Note que cada indivíduo tem n genes.

Portanto, pode-se definir a população como sendo uma matriz de tamanho m × n da forma:
 (1) (1) (1) (1)

x1 x2 x3 .. .. xn
 (2) (2) (2) (2) 
 x1 x2 x3 .. .. xn 
 
 .. .. .. .. .. .. 
 
(m) (m) (m) (m)
x1 x2 x3 .. .. xn
em que
(j) (j) (j)
x(j) = x1 , x2 , ......xn , j = 1, ..m
são os indivíduos na população gerada

n - número de variáveis de projeto (ou genes)


e
m - número de indivíduos da população gerada.

Uma vez definida a população avalia-se cada indivíduo pela determinação da função objetivo,
ou mérito. !
fˇǫ x(1) , fˇǫ x(2) , ..., fˇǫ x(m)
representa o vetor contendo o valor da função objetivo,
calculado para cada elemento da polpulação.
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 158

Este vetor é então ordenado de forma crescente de modo que o primeiro elemento será o elemento
cujo valor da função objetivo é o menor de todos (caso em que queremos determinar o mínimo
global).
Esta reordenação também é efetuada na matriz acima, a qual contém todos os elementos da
população. Esta reordenação é feita pela troca de linhas seguindo a mesma sequência obtida
como resultado da ordenação do vetor cujas componentes são os valores da função objetivo,
colocados em ordem crescente.

5.3.3 Geração da População Inicial


O método utilizado, no software desenvolvido, foi o da geração da população inicial aleatoria-
mente distribuída, como sugerido por Michalewicz (1996). Para que se pudesse gerar a população
inicial foram realizadas as seguintes etapas:

(j)
(i) Geração de números aleatórios λi ∈ [0, 1]

" sup #
(ii) Normalização dos pontos gerados dentro do intervalo x̄inf
i , x̄i
pré estabelecido para cada variável de projeto, segundo a equação:
(j) (j)
xi = x̄inf
i + λi x̄sup
i − x̄inf
i

Note que a estratégia acima assegura que os genes de cada indivíduo satisfaçam as restrições
laterais, ou de caixa automaticamente, i.e.,

(j) sup
i ≤ xi ≤ x̄i , para cada componente (gene), i = 1, ..n,
x̄inf
e para todo indivíduo, j = 1, ..m.

5.3.4 Operador Seleção


O operador seleção tem a função de dar a preferência mais acentuada para os indivíduos que
obtiveram melhor performance, com relação à função objetivo, de acordo com Sivaraj et al
(2001).
A idéia é que sendo dada a preferência para os indivíduos mais aptos, existe uma maior
tendência de o algoritmo concentrar as buscas em uma menor região do domínio, acarretando
na aceleração da convergência final do algoritmo.
Os mecanismos de seleção são classificados por Sivaraj et al (2001) como tradicionais e
alternativos. Alguns dos métodos de seleção tradicionais, propostos na literatura, são:

• Métodos de seleção proporcionais

(i) Seleção por roleta;


(ii) Amostragem determinística;
(iii) Amostragem remanescente estocástica;
(iv) Seleção remanescente estocástica com substituição;
(v) Seleção remanescente estocástica sem substituição;
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 159

(vi) Seleção universal estocástica.

• Seleção através da classificação

(i) Seleção por classificação linear;


(ii) Seleção truncada.

• Seleção por torneio

(i) Seleção por torneio binário;


(ii) Seleção por torneio aumentado;
(iii) Seleção por torneio de Boltzmann;
(iv) Seleção por torneio correlativo.

No software desenvolvido, foi implementado um algoritmo utilizando o método da seleção


proporcional por roleta, cujas etapas são descritas, de acordo com Haupt et al (2004), a seguir:

1. Determina-se a probabilidade para cada indivíduo de acordo com a sua posição de classi-
ficação na lista ordenada, com relação à função objetivo, da seguinte forma:

Pk = α−k+1
α 
 k
k=1

em que
α= m 2 (caso da taxa de seleção de 50%)
m - sendo o tamanho da população
k - a posição do indivíduo na lista ordenada, sendo o primeiro
elemento da lista o mais apto, i.e. o indivíduo com o menor valor
da função objetivo e o último o de maior valor da função
Pk - a probabilidade de seleção de cada indivíduo.

Por exemplo, para uma população de oito indivíduos, i.e., m = 8, e uma taxa de seleção
de 50%, i.e., α = m
2 = 4, temos

4
P1 = 1+2+3+4
3
P2 = 1+2+3+4
2
P3 = 1+2+3+4
1
P4 = 1+2+3+4
satisfazendo a propriedade
4
Pk = 1.
k=1
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 160

2. Associa-se a cada indivíduo um intervalo

π 1 = [0, P1 ]
π 2 = [P1 , P1 + P2 ]
π 3 = [P1 + P2 , P1 + P2 + P3 ]
..
α−1
πα = Pk , 1
k=1
tal que
α= m 2 (caso da taxa de seleção de 50%)
em que a união dos intervalos satisfaz a propriedade:
∪ {πk } = [0, 1].

3. Geram-se dois números aleatoriamente dentro do intervalo [0, 1]

(pai)
β (j) ∈ [0, 1]
e
(mãe)
β (j) ∈ [0, 1]

(a) Avaliam-se quais intervalos os valores gerados pertencem;


(b) Conforme os intervalos, determinam-se os indivíduos que participarão do cruzamento.

(pai) (pai)
se β (j) ∈ π k1 então x(j) = x(k1 )
e
(mãe) (mãe)
se β (j) ∈ πk2 então x(j) = x(k2 )
em que (j) - representa o (j)-ésimo casal,
sendo j = 1, .., α2 , i.e., j = 1, .., m
4.

Neste caso, o (j)-ésimo casal é tal que o pai e a mãe são dados pelos indivíduos (k1 )
e (k2 ) respectivamente. Note que, neste algoritmo, existe a possibilidade de o pai e
a mãe serem formados pelo mesmo elemento. Uma forma de resolver este problema
(mãe)
é gerando um novo número randômico, β j , visando a determinação de uma mãe
que seja distinta do pai.

Fica evidente também a possibilidade de se propor diferentes estratégias de seleção, possibil-


itando melhorar a performance do algoritmo genético, principalmente com relação ao aumento
da taxa de convergência.
Note que o algoritmo assegura que quanto melhor for a classificação do indivíduo, com
relação à sua performance, maior será a probabilidade deste indivíduo ser selecionado para o
cruzamento.
Formas simples de seleção consideram os α = m2 (caso da taxa de seleção de 50%) indivíduos
mais aptos na seleção, sendo os demais 50% dos indivíduos da população descartados. Os
elementos descartados são então substituídos por filhos e sujeitos a mutações. As estratégias
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 161

definidas para os operadores de cruzamento e mutação são extremamente importantes já que


uma escolha inadequada destes operadores pode levar a uma maior taxa de convergência, porém
convergindo a um mínimo local. Desta forma, podemos ver que a escolha dos algoritmos de
seleção, cruzamento e mutação define uma relação de balanço entre o aumento da taxa de
convergência do algoritmo, para o critério de parada utilizado, e o risco de se obter aproximações
de mínimos locais. É sempre importante lembrar que o objetivo é sempre o de obter aproximações
para o mínimo global do problema.

5.3.5 Operador Seleção


O cruzamento pode ser definido como o processo de recombinar dois indivíduos, aqui chamados
pais, para originar dois novos indivíduos, denominados filhos, visando gerar uma nova população,
conforme Sivanandam et al (2008). O número de filhos a serem gerados será o suficiente para se
obter uma nova população, i.e., substituindo os elementos eliminados no processo de seleção.
Como houve um processo de seleção dos indivíduos formando novos casais, a tendência com
o cruzamento é obter um enriquecimento da nova população com o passar das gerações. No que
se refere ao operador cruzamento, existem diversas maneiras de implementá-lo. Contudo, cada
método possui vantagens e desvantagens, o que dificulta a definição do operador cruzamento a
ser utilizado.
Algumas das formas de cruzamento mais utilizadas são baseadas nos seguintes métodos:

• Método da mistura;

• Método heurístico;

• Método da extrapolação.

Estes três métodos tem uma forma similar de execução. O procedimento adotado, neste
caso, consiste nas seguintes etapas:

(f1) (f2)
1. Fazem-se cópias x(j) e x(j) dos indivíduos de origem, i.e., dos pais. Portanto,

(f 1) (pai)
x(j) = x(j)
e
(f 2) (mãe)
x(j) = x(j) .
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 162

Como resultado, temos, inicialmente, que

(f1) (f 1) (f 1) (f 1)
x(j) = x1 , x2 , ......xn
(pai) (pai) (pai)
= x1 , x2 , ......xn
= x(k1) (k1 ) (k1 )
1 , x2 , ......xn
e
(f2) (f 2) (f 2) (f 2)
x(j) = x1 , x2 , ......xn
(mãe) (mãe) (mãe)
= x1 , x2 , ......xn
(k2 ) (k2 ) (k )
= x1 , x2 , ......xn 2 .

Escolhe-se, para o (j)-ésimo casal, um ponto ou mais para o cruzamento;

I(j) = ceiling(ρ(j) n)
sendo
ρ(j) ∈ [0, 1] gerado aleatoriamente para cada cruzamento
do (j)-ésimo casal
e
n - o número total de variáveis de projeto (ou genes).

2. Utiliza-se as equações adequadas, conforme o método escolhido, para fazer combinações


entre as variáveis nas posições escolhidas;

(i) Método da mistura (combinação convexa)

(f 1) (mãe) (pai)
xI(j) = β (j) xI(j) + 1 − β (j) xI(j)
e
(f 2) (mãe) (pai)
xI(j) = 1 − β (j) xI(j) + β (j) xI(j)

(ii) Método heurístico

(f 1) (mãe) (pai) (mãe)


xI(j) = β 1(j) xI(j) − xI(j) + xI(j)
e
(f 2) (pai) (mãe) (pai)
xI(j) = β 2(j) xI(j) − xI(j) + xI(j)

(f i)
No caso do indivíduo xI(j) não pertencer ao domínio admissível, novos números
randômicos β i(j) são gerados até obter-se um indivíduo factível.
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 163

(iii) Método da extrapolação

(a) (mãe) (pai)


xI(j) = 0.5 xI(j) + 0.5 xI(j)

(b) (mãe) (pai)


xI(j) = 1.5 xI(j) − 0.5 xI(j)

(c) (mãe) (pai)


xI(j) = −0.5 xI(j) + 1.5 xI(j)

(f 1) (f 2)
Neste caso, os filhos xI(j) e xI(j) são escolhidos como sendo os indivíduos mais ap-
(a) (b) (c)
tos. Qualquer indivíduo xI(j) , xI(j) ou xI(j) não pertencente ao domínio factível é
descartado neste procedimento.

3. Substituem-se os valores obtidos nos indivíduos da nova geração, tal como

(f 1) (pai) (pai) (f 1) (mãe) (mãe)


x(j) = x1 , ..., xI(j) −1 , xI(j) , xI(j) +1 , ......xn
e
(f 2) (mãe) (mãe) (f 2) (pai) (pai)
x(j) = x1 , ..., xI(j) −1 , xI(j) , xI(j) +1 , ......xn

dando origem a dois novos indivíduos para a próxima geração.

Método utilizado

O método utilizado para o desenvolvimento do procedimento de otimização proposto foi um com


uma alteração simples ao demonstrado por Haupt et al (2004), o qual pode ser descrito como
um cruzamento com troca de variáveis, e a utilização do método da mistura no ponto de corte.
As etapas da rotina desenvolvida são descritas da forma que segue:

(pai) (mãe)
1. Determinam-se os vetores dos indivíduos geradores x(j) e x(j) , referente ao j-ésimo
(f1) (f 2)
casal, os quais dão origem aos vetores x(j) e x(j) .

(pai) (pai) (pai) (pai)


x(j) = x1 , x2 , ......xn
= x(k1) (k1 ) (k1 )
1 , x2 , ......xn
e
(mãe) (mãe) (mãe) (mãe)
x(j) = x1 , x2 , ......xn
(k2 ) (k2 ) (k )
= x1 , x2 , ......xn 2 .
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 164

2. Gerando um número aleatório ρ(j) ∈ [0, 1], estabelece-se o ponto de corte como segue:

I(j) = ceiling(ρ(j) n)
sendo
ρ(j) ∈ [0, 1] gerado aleatoriamente para cada cruzamento
do (j)-ésimo casal
e
n - o número total de variáveis de projeto (ou genes).

3. Aplica-se o método da mistura na variável selecionada

(f1) (f 1) (mãe) (f 1) (pai)


xI(j) = β (j) xI(j) + 1 − β (j) xI(j)
e
(f2) (f 2) (mãe) (f 2) (pai)
xI(j) = β (j) xI(j) + 1 − β (j) xI(j)
(f1) (f2)
em que β (j) ∈ [0, 1] e β (j) ∈ [0, 1] são determinados
aleatoriamente para cada indivíduo a ser gerado, o que
difere do método proposto por Haupt et al (2004).

4. Dando origem aos vetores que farão parte da próxima geração, com o seguinte formato:

(f 1) (pai) (pai) (f 1) (mãe) (mãe)


x(j) = x1 , ..., xI(j) −1 , xI(j) , xI(j) +1 , ......xn
e
x(f
(j)
2)
= x(mãe)
1 , ..., x(mãe) (f 2) (pai) (pai)
I(j) −1 , xI(j) , xI(j) +1 , ......xn

Os quatro métodos descritos anteriormente tem como característica positiva a inserção de


uma variável completamente nova através do operador cruzamento, no ponto de corte I(j) . Por
não se limitar a fazer apenas trocas simples de variáveis do indivíduo pai com o mãe, como é
efetuado nos algoritmos genéticos com codificação binária, espera-se um comportamento melhor
da rotina, uma vez que não depende apenas do operador mutação para a atribuição de novos
valores para as variáveis de projeto, segundo Haupt et al (2004).

5.3.6 Operador Mutação


Uma das formas de aumentar a probabilidade de se obter um mínimo global é pela introdução
do operador mutação. Com a aplicação do operador mutação podemos obter gerações mais
dispersas com relação ao domínio factível o que possibilita a busca por um mínimo global. Em
suma, este operador possibilita ao algoritmo analisar diferentes regiões do domínio de forma
mais aleatória e abrangente.
Para que seja realizada a mutação primeiramente deve-se definir um valor para a taxa de
mutação desejada, a qual determinará quantos indivíduos e variáveis de projeto da nova geração
serão alterados.
A forma desenvolvida para a aplicação do operador mutação no algoritmo proposto, pode
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 165

ser descrita como:

1. Determina-se o número total de variáveis de projeto existentes na população:

nT otal = m n
em que
m - é o número de indivíduos da população
e
n - é o número de variáveis de projeto (genes) de associado
a cada indivíduo.

2. Estabelece-se o número de variáveis que sofrerão mutação;

nmut = ceiling(µ nT otal )


em que
µ - é a taxa de mutação
e
ceiling( ) - é a função que arredonda o valor, (µ nT otal ),
para o próximo número inteiro mais alto.

3. Gera-se números aleatórios para a determinação dos vetores da colunas e linhas que serão
mudados;
C
I(s) = ceiling(γ C
(s) n)
e
L = ceiling(γ L m m
I(s) (s) 2) + 2
em que
(s) ∈ [0, 1] e γ (s) ∈ [0, 1]
γC L

são gerados aleatoriamente para


s = 1, ..., nmut .

Os índices I(s)
C
(índice da coluna) e I(s)
L
(índice da linha) define a posição do gene a ser
modificado na matriz abaixo.
 (1) (1) (1) (1)

x1 x2 x3 .. .. xn
 (2) (2) (2) (2) 
 x1 x2 x3 .. .. xn 
 
 .. .. .. .. .. .. 
 
(m) (m) (m) (m)
x1 x2 x3 .. .. xn
em que
(j) (j) (j)
x(j) = x1 , x2 , ......xn , j = 1, ..m
são os indivíduos na população gerada.

4. Determina-se os valores que serão impostos pelo operador mutação, através da combinação
IL
convexa utilizando-se números λI(s)
C ∈ [0, 1] gerados aleatoriamente para cada variável a
(s)
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 166

ser modificada, da seguinte forma:

L
I(s) IL
xI C = xinf
IC
+ λI(s)
C xsup
IC
− xinf
IC
(s) (s) (s) (s) (s)

L
I(s)
5. Substitui-se cada variável xI C nas devidas posições I(s)
L C
, I(s) da matriz
(s)

 (1) (1) (1) (1)



x1 x2 x3 .. .. xn
 (2) (2) (2) (2) 
 x1 x2 x3 .. .. xn 
 
 .. .. .. .. .. .. 
 
(m) (m) (m) (m)
x1 x2 x3 .. .. xn
em que
(j) (j) (j)
x(j) = x1 , x2 , ......xn , j = 1, ..m
são os indivíduos na população gerada.

5.3.7 Critério de parada


Os critérios de convergência, i.e. condições de parada, adotados em algoritmos genéticos podem
diferir de outras abordagens de otimização. Alguns desses critérios são apresentados a seguir,
conforme Sivanandam et al(2008).

Condições de parada:

• Número máximo de gerações;

• Tempo máximo de otimização;

• Valor da função objetivo inalterado durante um número de iterações pré-definido;

• Valor da função objetivo inalterado durante um tempo de otimização pré-definido;

Critérios de parada utilizados

Para a realização das análises deste trabalho foram utilizados duas condições de parada que são:

(i) O número máximo de gerações obtidas, o qual garante que a rotina desenvolvida pare após
um determinado número de iterações, independentemente da convergência do problema
proposto.

(ii) A verificação se o valor da função objetivo permanece inalterado durante um determinado


número de gerações, i.e. iterações, pré-definido.
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 167

5.4 Solução de Problemas


Considere a função dada por

f (x, y) = x sin(4x) + 1.1y sin(2y)

ilustrada na Figura abaixo

Determine x∗ ∈ R2 solução de:

min f (x, y)
sujeito às condições laterais
0 ≤ x ≤ 10
e
0 ≤ y ≤ 10.

O mínimo global é dado por


f (x∗ ) = −18.5547
em
x∗ = (0.9039, 0.8668).
CAPÍTULO 5. ALGORITIMOS GENÉTICOS CONTÍNUOS 168

A curva de nível da função está ilustrada na Figura a seguir

A solução aproximada obtida pelo algoritmo genético implementado é dada por

f (x∗ ) = −18.554721077242384
em
x∗ = (9.038992462233191, 8.668186830037460).
Capítulo 6

Elementos Finitos

6.1 Elementos de algebra linear


6.1.1 Espaço linear V
Um espaço linear V consiste em um conjunto de elementos X munido de duas operações. A
primeira operação é a adição a qual associa a cada par de elementos x e y ∈ X um elemento
x + y ∈ X, denominado soma de x com y. A segunda operação é o produto de um elemento de
X por um escalar, restrito aqui para escalares reais, o qual associa para cada elemento x ∈ X e
escalar α ∈ R o elemento αx ∈ X. O conjunto X e as operações de adição de elementos de X
e multiplicação de elementos de X por escalares satisfazem, em um espaço linear, os seguintes
axiomas:

1. Comutatividade da adição

x + y = y + x, ∀x e y ∈ X . (6.1)

2. Associatividade da adição

(x + y) + z = x + (y + z), ∀x, y e z ∈ X . (6.2)

3. Existência do elemento nulo (zero) de X

∃ θ ∈ X tal que x + θ = x, ∀x ∈ X . (6.3)

4. Lei da distributividade

α. (x + y) = α.x + α.y, ∀x e y ∈ X e escalar α


e (6.4)
(α + β) .x = α.x + β.x, ∀x ∈ X e escalares α e β.

169
CAPÍTULO 6. ELEMENTOS FINITOS 170

5. Lei da associatividade

(αβ) .x = α. (β.x) , ∀x ∈ X e scalares α e β . (6.5)

6. Existência de nulo e identidade para o conjunto dos escalares

∃ 0 escalar tal que 0.x = θ, ∀x ∈ X


e (6.6)
∃ 1 scalar such that 1.x = x, ∀x ∈ X.

Obs. Por conveniência o elemento (−1) x é representado por −x e é denominado o ele-


mento negativo ou simétrico de x. Temos que x + (−x) = (1 − 1).x = 0.x = θ ∈ X.

Examplo (1)

Considere o intervalo [a, b] na reta real. O conjunto X de todas as funções reais contínuas
definidas em [a, b], munido das operações definidas em (6.8) e (6.9), forma um espaço linear V.
Note que f = g se e somente se f(t) = g(t) para todo t ∈ [a, b]. O elemento nulo de X, i.e.,
θ é a função constante zero em [a, b], i.e., a função zero, θ(t), é definida por

θ (t) = 0 para todo t ∈ [a, b] . (6.7)

Se f e g são elementos de X e α é um escalar (Real), definimos:

• Adição de elementos de X
(f + g)(t) := f (t) + g(t) (6.8)

• Multiplicação de elementos de X por um escalar α:

(α f)(t) := α (f(t)) . (6.9)

As funções resultantes destas operações são obviamente contínuas e definidas em [a, b]. Con-
sequentemente, são elementos de X. Este espaço linear, V, é referido como sendo o espaço linear
formado pelas funções reais contínuas em [a, b], também denominado por C 0 [a, b]. Note que
estas operações satisfazem os axiomas (1-6).

Definição.

Sejam X e Y espaços lineares sobre os mesmos escalares. Então o produto cartesiano de X e


Y, denotado por X×Y, consiste da coleção dos pares ordenados (x, y) com x ∈ X e y ∈ Y. As
operações de soma de elementos e multiplicação por escalar são definidas em X × Y por

(x1 , y1 ) + (x2 , y2 ) := (x1 + x2 , y1 + y2 ) (6.10)


CAPÍTULO 6. ELEMENTOS FINITOS 171

e
α(x, y) := (αx, αy) . (6.11)

Esta definição pode ser facilmente generalizada para o produto cartesiano de n espaços
lineares X1 , X2 ,...Xn . Representamos por Xn o produto cartesiano de um espaço linear X por
ele mesmo n vezes como, Xn = X×X×.....X.

Examplo (2) Considere o intervalo (a, b) na reta real R. O conjunto X de todas as funções
reais com segunda derivada contínua neste intervalo, denotada por C 2 (a, b), munidas das oper-
ações de soma e produto por escalar de elementos de X, definidas no exemplo (1), tal que

y ′′ (t) + ay ′ (t) + by(t) = 0 (6.12)

forma um espaço linear V.

Examplo (3) Considere o conjunto X = {x | x ∈ R e x > 0} conjuntamente com as oper-


ações:

• Adição de elementos de X: Dado x ∈ X e y ∈ X, definimos

x ⊕ y := xy (6.13)

• Produto de elementos de X por escalares α ∈ R: Dado x ∈ X e α ∈ R, definimos

α ⊙ x := xa (6.14)

O conjunto X munido pelas operações acima definidas forma um espaço linear V. O


elemento zero de X neste caso é θ = 1.

6.1.2 Subespaços, Combinações lineares, e Variedades Lineares


Definição. Um subconjunto não vazio M ⊂ X de um espaço linear V é denominado um
subespaço de V, munido das operações definidas em V, se todos os elementos da forma (α.x+β.y),
ou usando a notação (α ⊙ x ⊕ β ⊙ y), estão em M para qualquer x e y em M e α e β escalares
em R.
Como um subespaço é suposto não vazio, deve conter pelo menos um elemento x. Por
definição, deve conter pelo menos o elemento 0.x = θ. Logo, todo subespaço contém o elemento
nulo. O subespaço linear mais simples é o que contém únicamente o elemento θ, i.e. M= {θ} ⊂
X.
Theorema
Um subconjunto não vazio S de um espaço linear X é um subespaço linear se e somente se
os elementos de S são fechados com relação às operações ⊕ e ⊙, i.e. se satisfazem aos axiomas
do fecho, dados por
∀x1 e x2 ∈ S implica em (x1 ⊕ x2 ) ∈ S (6.15)
CAPÍTULO 6. ELEMENTOS FINITOS 172

e
∀x ∈ S e α ∈ R implica em (α ⊙ x) ∈ S . (6.16)

Observação: Entende-se, no teorema acima, ao nos referir a um subconjunto não vazio S


de um espaço linear X, que efetivamente estamos considerando um subconjunto não vazio S do
conjunto X, que munido das operações ⊕ e ⊙, define um espaço linear V. O teorema assegura
que se o subconjunto S, munido das mesmas operações ⊕ e ⊙ definidas em X e dos mesmos
escalares, satisfaz os axiomas do fecho, então o subconjunto S, munido das mesmas operações
⊕ e ⊙, define um subespaço linear de V. Este abuso de linguagem será utilizado no decorrer do
texto, por simplicidade de redação, seguindo a redação utilizada em livros textos encontrados na
literatura,mas é fundamental o seu entendimento correto.
Definição. A soma de dois subconjuntos S e T em um espaço linear X, denotado por S +T,
consiste de todos os elementos da forma s + t em que s ∈ S e t ∈ T, i.e.
!
S + T = z | z = s + t para algum s ∈ S e t ∈ T . (6.17)

A soma de dois conjuntos é ilustrado na figura abaixo

Proposição.
Sejam M e N subespaços de um espaço linear X. Então, a soma, M + N, é também um
subespaço de X.
Prova: Como θ ∈ M e θ ∈ N então θ + θ = θ ∈ (M + N). Suponha que x e y sejam
elementos de M + N. Então existem elementos m1 e m2 em M e elementos n1 e n2 em N tal
que
x = m1 + n1 com m1 ∈ M e n1 ∈ N

e
y = m2 + n2 com m2 ∈ M e n2 ∈ N .

Porém, como M é um subespaço, M satisfaz os axiomas de fecho. Logo,

(m1 + m2 ) ∈ M .
CAPÍTULO 6. ELEMENTOS FINITOS 173

Adicionalmente, como N é um subespaço,

(n1 + n2 ) ∈ N .

Consequentemente

((m1 + m2 ) + (n1 + n2 )) = (x + y) ∈ (M + N) .

Suponha que x seja um elemento de M + N e α ∈ R um escalar. Queremos mostrar então que


α.x ∈ M + N. Porém, como x ∈ M + N, existem m1 em M e n1 em N tal que x = m1 + n1
com m1 ∈ M e n1 ∈ N. Logo, pela Lei da distributividade,

α.x = α. (m1 + n1 )
= α.m1 + α.n1 .

Como M e N são subespaços, temos que α.m1 ∈ M e α.n1 ∈ N, o que implica em α.x ∈ M + N.
Desta forma, como M + N ⊂ X e satisfaz os axiomas do fecho então M + N é um subespaço de
X.
Definição.
Uma combinação linear de elementos x1 , x2 , ....., xn em um espaço linear X é uma soma da
forma
α1 .x1 + α2 .x2 ..... + αn .xn . (6.18)

Note novamente que, por abuso de linguagem, nos referimos a um espaço linear X, quando
o espaço linear é V, o qual consiste por sua vez no conjunto X munido pelas operações ⊕ e ⊙
definidas sobre os elementos de X e escalares em R.
Definição.
Seja S um conjunto não vazio de um espaço linear X. Diz-se que x ∈ X é uma combinação
linear finita de elementos de S se existe um número finito x1 , x2 , ....., xk de elementos de S e um
número correspondente de escalares α1 , α2 , ....., αk tal que

x = α1 .x1 + α2 .x2 ..... + αk .xk (6.19)

i.e.
k
x= i=1 αi .xi . (6.20)

O conjunto de todas as combinações lineares finitas de elementos de S é denominado por


subespaço gerado por S, também denominado por expansão linear de S, representado aqui por
span (S). Se S = ∅ então span (S) := {θ}, i.e., o conjunto formado pelo único elemento nulo θ.
Definição.
A translação de um espaço linear é dito ser uma variedade linear. Logo, uma variedade linear
W pode ser expressa como
W = {xp } + M (6.21)
CAPÍTULO 6. ELEMENTOS FINITOS 174

em que M é um subespaço linear de V. Nesta representação, o subespaço M é único, porém,


qualquer elemento xp ∈ V é admissível.
Dado um subconjunto S, podemos construir a menor variedade linear contendo S. Seja
M = span {S}. A menor variedade linear contendo S é a variedade linear V, ilustrada abaixo,

em que V é a translação do subespaço M. Se M é o menor subespaço gerado pelo subconjunto


S temos
V = {xo } + M
para algum elemento xo de V
(6.22)
e
M = span (S).

6.1.3 Independência linear, Base e dimensão


Definição:

Diz-se que um subconjunto S de elementos de um espaço linear V é linearmente independente


(li) se ∀ x1 , x2 , x3 , ...xk de S tal que

i=1,k ci .xi =0 (6.23)

implicar em
ci = 0, para i = 1, ...k . (6.24)

Um conjunto de W que não é linearmente independente (li ) diz-se ser linearmente dependente.

exemplo

O conjunto das funções uk (t) = tk , para k = 0, 1, 2, ... são linearmente independentes (li ) como
subconjunto do espaço linear das funções reais de R em R.
Note que
i=0,n ci .ui = θ ⇔ i=0,n ci .ui (t) = θ (t) , ∀t ∈ R .
CAPÍTULO 6. ELEMENTOS FINITOS 175

Logo, queremos mostrar que se

i=0,n ci .ui (t) = θ (t), ∀t ∈ R


em que
θ (t) é o elemento nulo (zero) no espaço linear das funçoes reais de R em R (6.25)
o qual é definido como
θ (t) = 0, ∀t ∈ R.

então teremos
ci = 0, para i = 1, ...n. (6.26)

De fato,
i=1,n ci .ui (t) = θ (t) (6.27)

implica em
i
i=1,n ci t = 0, ∀t ∈ R
i.e. (6.28)
c0 1 + c1 t + c2 t2 + ... + cn tn = 0, ∀t ∈ R.
Como a relação têm que ser satisfeita para todo t ∈ R, ela deve ser satisfeita para t = 0. Neste
caso, a única possibilidade é que
c0 = 0 . (6.29)

Derivando a relação (6.28) com relação a t temos

c1 t + 2c2 t + ... + ncn tn−1 = 0, ∀t ∈ R (6.30)

a qual deve também ser satisfeita para todo t. Porém, para t = 0, a única possibilidade é que

c1 = 0. (6.31)

Procedendo desta forma, podemos mostrar que ci = 0, para i = 1, ...n o que implica ser o
conjunto das funções polinomiais linearmente independentes em R.

6.1.4 Definição
Chama-se base de um espaço linear X a qualquer conjunto de elementos de S, S ⊂ X, linearmente
independentes que gera X, i.e., cuja expansão linear span(S) = X.
Diz-se que um espaço linear X tem dimensão finita se tem uma base que é um conjunto finito
de elementos, ou se X = {∅}. Caso contrário. diz-se que X tem dimensão infinita. Se X = {∅},
conjunto vazio, diz-se que X tem dimensão nula.
CAPÍTULO 6. ELEMENTOS FINITOS 176

6.1.5 Deformação axial - elemento estrutural barra


Formulação forte do problema - Barra sujeita à deformação axial

Considere o problema, ilustrado abaixo, que consiste em uma barra com uma das extremidades
fixa, u(0) = 0, sujeita a um carregamento distribuído qx (x), devido ao pêso próprio, e uma carga
concentrada P , na outra extremidade.

Neste caso a carga distribuída qx (x) - [N/m] é dada por

qx (x) = ρgA = γ o .
em que
A - a área da seção transversal da barra (6.32)
ρ - a densidade do material
g - a aceleração da gravidade.

O problema da barra pode ser formulado como: Determine o campo de deslocamentos u(x),
solução de
d2 u
EA dx 2 + γo = 0

sujeito às condições de contorno


u(0) = 0
e
N(L) = P (6.33)
sendo
qx (x) = ρgA = γ o (Cte.)
e
N(x) = EA du(x)
dx .

As condições de contorno essenciais, no caso de deformações axiais de barras, são do tipo


CAPÍTULO 6. ELEMENTOS FINITOS 177

Para determinar a solução analítica do problema temos

d2 u γo
. (6.34)
dx2
= − EA

Logo,
, d2 u
, γo
dx2
dx =− EA dx
i.e. (6.35)
du γ
dx = − EA x + B1
e , , !
du γo
dx dx = − EA x + B1 dx
i.e. (6.36)
γ o x2
u (x) = − EA 2 + B1 x + B2

sendo B1 e B2 constantes a serem determinadas pela imposição das condições de contorno.


Note que:

1. Impondo a condição de contorno


u(0) = 0 (6.37)

temos
u (0) = B2 = 0 (6.38)

o que acarreta em
γo x 2
u (x) = − EA 2 + B1 x
(6.39)

2. Impondo a condição de contorno

N(L) = EA du(L)
dx = P
(6.40)

temos

du (L)
EA = −γ o L + EAB1 (6.41)
dx
= P

o que acarreta em
B1 = 1
EA [P + γ o L]. (6.42)

Consequentemente, substituindo (6.38) e (6.42) em (6.36) obtemos

γo x 2
u (x) = − EA 2 +
1
EA [P + γ o L] x . (6.43)

O campo de tensões é determinado por

du(x)
σxx (x) = E (6.44)
dx
γo 1
= − x + [P + γ o L]
A A
CAPÍTULO 6. ELEMENTOS FINITOS 178

i.e.
σ xx (x) = − γAo [x − L] + P
A.
(6.45)

6.1.6 Formulação Fraca do problema - Barra sujeita à deformação axial


Neste ponto introduzimos dois conjuntos que são:

1. O conjunto dos deslocamentos admissíveis, Ku ,

Ku = { u (x)| u (x) suf. regular e u (0) = ūp }.


No caso particular em que temos interesse consideramos (6.46)
ūp = 0.

2. O conjunto das variações de deslocamentos admissíveis, Varu ,

Varu = { û (x)| û (x) suf. regular e û (0) = 0}. (6.47)

Observação: Note que, no caso em que a condição de contorno essencial é não trivial, i.e.,
u (0) = ūp para algum ūp = 0, o conjunto Ku é uma variedade linear, sendo uma translação do
subespaço linear Varu . Como resultado, para o caso em que ūp = 0, temos

Ku = {ua } + Varu
para algum elemento ua ∈ Ku .

Por simplicidade, vamos considerar neste capítulo apenas condições de contorno essenciais nulas
(triviais). No caso de condições de contorno essenciais nulas temos Ku = Varu , o que significa
que Ku é um espaço linear neste caso.
Considerando agora a formulação forte temos,

2
d u
EA dx 2 + γo = 0 (6.48)

para todo x ∈ (0, L). Logo, definindo a função resíduo

2
r(u (x)) = EA d dx
u(x)
2 + γo (6.49)

e impondo que
r(u (x)), û (x) = 0, ∀û ∈ Varu (6.50)

obtemos
,L 2
0 EA ddxu2 + γ o û (x) dx = 0, ∀û ∈ Varu . (6.51)

Porém,
d du d2 u
dx dx û = dx2
û + du dû
dx dx
i.e. (6.52)
d2 u d du du dû
dx2
û = dx dx û − dx dx .
CAPÍTULO 6. ELEMENTOS FINITOS 179

Adicionalmente, pelo teorema fundamental do cálculo,


- L
d du du L
û dx = û (6.53)
0 dx dx dx 0
du (L) du (0)
= û (L) − û (0)
dx dx
du (L)
= û (L)
dx
P
= û (L) ,
EA

em que utilizamos as condições: û (0) = 0, já que û ∈ Varu , e N(L) = EA du(L)


dx = P .
Substituindo (6.52) e (6.53) em (6.51) derivamos
,L ,L
0
du dû
EA dx dx dx = 0 γ o û dx + P û (L), ∀û ∈ Varu . (6.54)

Formulação fraca da barra deformada axialmente

A formulação fraca consiste em determinar uo (x) ∈ Ku solução de


,L ,L
0 EA du o dû
dx dx dx = 0 γ o û dx + P û (L), ∀û ∈ Varu . (6.55)

• Note que, como ūa = 0, Ku = Varu . Como resultado, Ku = Varu = {u (x)| u (x) suf. regular e u (0) =
é o conjunto de todas as funções suficientemente regulares tais que seu valor em x = 0 é
nulo, i.e., u (0) = 0. A regularidade que se requer de u (x) é que
,L du 2
0 dx + (u)2 dx < ∞, (6.56)

em que a derivada é determinada no sentido da teoria das distribuições. O espaço linear


destas funções é denominado por H 1 (0, L). Desta forma, Ku pode ser expresso como:
!
Ku = Varu = u (x)| u (x) ∈ H 1 (0, L) com u (0) = 0 .

• Note também que a solução exata do problema é dada por

γo x 2
uo (x) = − EA 2 +
1
EA [P + γ o L] x (6.57)

a qual pode ser expressa como

uo (x) = 0=1,2 ci φi (x)


em que
φi (x) = xi , i = 0, 2
e
(6.58)
c0 = 0
1
c1 = EA [P + γ o L]
e
γo
c2 = − 2EA .
CAPÍTULO 6. ELEMENTOS FINITOS 180

Como as funções φi (x) = xi , i ∈ N são linearmente independentes e como φi (x) forma uma
base enumerável, cuja expansão linear é densa em Ku , podemos aproximar a solução da
equação linear da barra (neste caso determinar a solução exata) através de uma combinação
linear destas bases de função.

• Note que em casos mais gerais, por exemplo em situações em que a área transversal não
fosse constante, etc..., a solução exata não seria polinomial. Neste caso, fica evidente que
a utilização de uma base formada por funções φi (x) = xi aproximaria somente no limite
a solução exata do problema.

• É importante verificar que a dimensão do subespaço linear Varu do espaço linear H 1 (0, L)
tem dimensão infinita, i.e.,
dim (Varu ) = ∞. (6.59)

6.1.7 Método de Galerkin - Discretização do problema


A ideia do método de Galerkin consiste em definir um subespaço de aproximação VarN u , de
N
dimensão finita, tal que Varu ⊂ Varu . A ideia é definir o espaço de aproximação como
sendo o subespaço linear gerado por um conjunto de funções linearmente independentes S =
{φi (x) , i = 1, ...N} cujo espaço gerado, i.e., cuja expansão linear, define VarN
u .
Desta forma, definimos o subespaço de aproximação como sendo

VarN u = span {φi (x) , i = 1, ...N }


tais que (6.60)
φi (x) ∈ Varu , i = 1, ...N são linearmente independentes.

Inicialmente, por simplicidade, vamos considerar o conjunto de funções formadas pelos


monômios φi (x) = xi , i = 1, ...N . Note que como φ0 (x) = 1 = 0 em x = 0, φ0 ∈ / Varu .
Porém, φi (x) = x , i = 1, ...N satisfazem a condição de contorno essencial φi (0) = 0 para
i

i = 1, ...N . Logo, φi (x) = xi , i = 1, ...N são elementos de Varu .


Note que: Como a solução analítica do problema considerado é polinomial, dada por um
polinômio quadrático, a utilização aproximada, pelo método de Galerkin, fornecerá a solução
exata. Porém, em casos de carregamentos mais complexos, como o considerado posteriormente,
cuja solução analítica é não polinomial, a solução obtida pela aplicação do método de Galerkin
será aproximada, i.e, aproximará adequadamente a solução apenas no limite, quando fizermos
N → ∞. A relação do subespaço de aproximação, VarN u = span {φi (x) , i = 0, ...N }, com o
espaço de solução, Varu , está ilustrado abaixo.
CAPÍTULO 6. ELEMENTOS FINITOS 181

Discretização do problema - Método de Galerkin A ideia proposta por Galerkin consiste


em obter uma solução aproximada da barra deformada axialmente através da formulação do
problema no espaço de aproximação, VarN
u . Desta forma, o problema discretizado consiste em
determinar a solução aproximada uho (x) ∈ VarN
u tal que

,L h ,L
0 EA du
dx
o dû
dx dx = 0 γ o û dx + P û (L), ∀û ∈ VarN
u . (6.61)

Note que, como VarN u = span {φi (x) , i = 1, ...N}, a solução aproximada do problema, uo (x),
h

pode ser expressa por


uho (x) = N j=1 aj φj (x). (6.62)

De forma análoga, a variação do campo de deslocamentos, û (x), pode ser expressa por

N
û (x) = i=1 bi φi (x). (6.63)

Substituindo (6.62) e (6.63) em (6.61) temos


,L N dφj (x) N dφi (x) ,L N
0 EA j=1 aj dx i=1 bi dx dx = 0 γ o i=1 bi φi (x) dx
N
+P i=1 bi φi (L) , ∀û ∈ VarN
u (6.64)
em que
û = Ni=1 bi φi (x).

!
Note que, se definirmos a base S = φj (x) , j = 1, ...N de modo que φj (x) = xj , a determinação
da solução aproximada dependerá apenas da determinação das componentes {aj , j = 1, ...N }.
Por outro lado, dizer que a expressão em (6.64) deve ser válida para todo û ∈ VarN u , equivale a
dizer que a expressão em (6.64) deve ser válida para todo {bi , i = 1, ...N }, já que a base φi (x) é
conhecida.

Formulação discretizada - barra deformada axialmente Como resultado, podemos re-


formular o problema discreto como: Determinar a ∈ RN , em que a é o vetor das componentes
{aj , j = 1, ...N }, tal que
,L h ,L
0 EA du
dx
o dû
dx dx = 0 γ o û dx + P û (L), ∀b ∈ RN (6.65)

em que
N
uho (x) = j=1 aj φj (x)
e
û (x) = Ni=1 bi φi (x) . (6.66)
sendo
φj (x) = xj , j = 1, ...N.
CAPÍTULO 6. ELEMENTOS FINITOS 182

Substituindo (6.66) em (6.65) obtemos


,L dφj (x) dφi (x) ,L
0 EA j=1,N dx aj i=1,N dx bi dx = 0 γo i=1,N φi (x)bi dx
(6.67)
+P i=1,N φi (L)bi , ∀ b ∈ RN

i.e.
,L dφj (x) ,L
i (x)
i=1,N j=1,N 0 EA dφdx dx dx aj bi = i=1,N 0 γ o φi (x)dx bi
(6.68)
+ i=1,N {P φi (L)} bi , ∀b ∈ RN .

Definindo ,L dφi (x) dφj (x)


[K]ij = 0 EA dx dx dx
como sendo a matriz de rigidez da barra
e (6.69)
,
Fi = 0L γ o φi (x)dx + P φi (L)
como sendo a componente do vetor força equivalente
podemos reescrever (6.68) como

[K] a.b = F .b, ∀b ∈ RN


em que
, i (x)
dφj (x)
[K]ij = 0L EA dφdx dx dx
(6.70)
e
,L
Fi = 0 γ o φi (x)dx + P φi (L).

Como resultado temos que o problema discreto pode ser formulado como: Determinar a ∈ RN
solução de
[K] a.b = F .b, ∀b ∈ RN , (6.71)

o que pode ser reescrito como: Determinar a ∈ RN solução de

[K] a − F .b = 0, ∀b ∈ RN
i.e. (6.72)
[K] a − F , b = 0, ∀b ∈ RN

Note que (6.72) estabelece que estamos procurando o vetor a ∈ RN tal que o vetor w =
[K] a − F seja ortogonal a todo o espaço RN . Porém, o único vetor w de RN que é ortogonal
a todo o RN é o vetor nulo, i.e.
w = [K] a − F = 0
i.e. (6.73)
[K] a = F
o que nos fornece o sistema de equações lineares cuja solução é

a = [K]−1 F . (6.74)
CAPÍTULO 6. ELEMENTOS FINITOS 183

Note que, uma vez determinadas as componentes do vetor a, podemos obter o campo de deslo-
camentos aproximado como
uho (x) = Nj=1 aj φj (x)
em que a ∈ RN é dado por (6.75)
a = [K]−1 F .
O campo aproximado de tensões pode ser determinado como
h dφj (x)
o (x)
σ xx (x) = E dudx =E N
j=1 aj dx . (6.76)

Para quantificarmos o problema, vamos considerar que o espaço de aproximação Var2u =


span {φi (x) , i = 1, ...2}, dim(Var2u ) = 2, em que

φ1 (x) = x
(6.77)
φ2 (x) = x2 .

Note que, φi (x) ∈ Varu , já que φi (0) = 0 para i = 1, 2 e φi ∈ H 1 (0, L). Note novamente que
a função φ0 (x) = x0 = 1 não satisfaz a propriedade φ0 (0) = 0 o que implica φ0 (x) = 1 não
pertence ao espaço linear Varu . Como resultado, apenas funções do tipo φi (x) = xi , i = 1, ..N,
satisfazem esta propriedade.
Derivando (6.77) obtemos
dφ1 (x)
=1
dx
dφ2 (x) (6.78)
dx = 2x
o que implica
,L 1 2x L L2
[K] = 0 EA dx = EA 4 3
. (6.79)
2x 4x2 L2 3L

Por outro lado


,L x L
F = 0 γo dx + P (6.80)
x2 L2
em que
1 2
,L x 2 L γo
0 γo dx = 1 3
(6.81)
x2 3 L γo

o que implica em
1 2
F = 2 L γo +P
L
. (6.82)
1 3
3 L γo L2
Desta forma, podemos determinar a solução do sistema de equações lineares como

a = [K]−1 F (6.83)

em que
4
− L32
[K]−1 = 1
EA
L . (6.84)
− L32 3
L3
CAPÍTULO 6. ELEMENTOS FINITOS 184

Logo,
4
1 − L32 1 2
2 L γo L
a= EA
L +P (6.85)
− L32 3
L3
1 3
3 L γo L2
i.e.
1 Lγ o + P
a= EA . (6.86)
− 12 γ o
Consequentemente,

uho (x) = a1 φ1 (x) + a2 φ2 (x) (6.87)


1 γ
= [Lγ o + P ] x − o x2
EA 2EA

i.e.
γo x 2
uho (x) = − EA 2 +
1
EA [Lγ o + P ] x (6.88)

a qual é idêntica à solução analítica uo (x),

γo x 2
uo (x) = − EA 2 +
1
EA [P + γ o L] x. (6.89)

obtida em (6.57).
Considere agora o novo exemplo, ilustrado abaixo,

no qual a barra está sujeita a um carregamento distribuído axial dado por

qx (x) = sin πx
L
(6.90)

em que uma das extremidades é fixa, i.e. u(0) = 0, e a outra é livre, i.e. N(L) = EA du(L)
dx = 0.
Neste caso, a formulação forte (ou diferencial) do problema consiste em: Determinar o campo
CAPÍTULO 6. ELEMENTOS FINITOS 185

de deslocamentos uo (x), solução de


2
EA ddxu2 + qx (x) = 0
sujeito às condições de contorno
u(0) = 0
e
N(L) = 0 (6.91)
sendo
qx (x) = sin πxL
e
N(x) = EA du(x)dx .

Para determinar a solução analítica do problema temos

d2 u 1 πx
2
=− sin . (6.92)
dx EA L
Logo
, d2 u 1
, π
dx2
dx = − EA sin Lx dx
i.e. (6.93)
du 1 L π
dx = EA π cos Lx + B1
e , , ,
du 1 L π
dx dx = EA π cos Lx dx + B1 dx
i.e. (6.94)
1 L 2
u (x) = EA π sin Lπ x + B1 x + B2
sendo B1 e B2 constantes a serem determinadas pela imposição das condições de contorno.
Note que:

1. Impondo a condição de contorno


u(0) = 0 (6.95)

temos
u (0) = B2 = 0 (6.96)

o que acarreta em
1 L 2 π (6.97)
u (x) = EA π sin Lx + B1 x

2. Impondo a condição de contorno

N (L) = EA du(L)
dx = 0
(6.98)

temos
du(L)
dx = 1 L
EA π cos π
LL + B1 = 0 (6.99)

o que acarreta em
B1 = 1 L
EA π .
(6.100)
CAPÍTULO 6. ELEMENTOS FINITOS 186

Consequentemente, substituindo (6.100) em (6.97) derivamos

1 L 2 1 L . (6.101)
uo (x) = EA π sin Lπ x + EA π x

O campo de tensões é determinado por

duo (x)
σ xx (x) = E (6.102)
dx
L π
= 1 + cos x
πA L

i.e.
" #
σ xx (x) = L
πA 1 + cos Lπ x . (6.103)

Note que o campo de deslocamentos pode ser representado por uma série de Taylor em x = 0.
Como resultado,

1 duo (0) 1 d2 uo (0) 2 1 dn uo (0) n (6.104)


uo (x) = uo (0) + 1! dx x + 2! dx2 x + .... + n! dxn x + ....

como
uo (0) = 0
duo (0) 2L
dx = πEA
d2 uo (0)
dx2
=0
d3 uo (0)
dx3
π
= − ALE (6.105)
d4 uo (0)
dx4
=0
d5 uo (0) π3
dx5
= AL3 E
d6 uo (0)
dx6 = 0, etc...
podemos representar uo (x) como uma série infinita dada por

2L π 3 1 π3 5 1 dn uo (0) n (6.106)
uo (x) = πEA x − 6ALE x + 120 AL3 E x + .... + n! dxn x + ....

Logo, definindo
φi (x) = xi (6.107)

podemos representar uo (x) como

uo (x) = c1 φ1 (x) + c2 φ2 (x) + ..... + cn φn (x) + ....


em que
2L π
(6.108)
c1 = πEA , c2 = 0, c3 = − 6ALE ,
1 π 3
c4 = 0, c5 = 120 AL3 E , etc....

Note que, definindo uN


o (x) como sendo uma combinação linear finita de monômios φi (x) = x ,
i
CAPÍTULO 6. ELEMENTOS FINITOS 187

obtemos
uN
o (x) = i=1,N ci φi (x)
em que
2L π
(6.109)
c1 = πEA , c2 = 0, c3 = − 6ALE ,
1 π 3
c4 = 0, c5 = 120 AL3 E , etc....
Neste caso, pode-se determinar a solução analítica exata como
!
o (x) .
uo (x) = limN →∞ uN (6.110)

Com esta expressão podemos verificar que neste caso a solução analítica só é obtida no limite,
i.e., com a consideração de infinitas bases de funções φi (x) = xi . Este resultado mostra que de
fato, o espaço linear Varu tem dimensão infinita, já que as funções φi (x) = xi são linearmente
independentes e a expansão linear
!
span φi (x) = xi , i ∈ N ⊂ Varu
em que
N é o conjunto dos números naturais
(6.111)
e
!
span φi (x) = xi , i ∈ N é denso em Varu .
O espaço H 1 (0, L) é um espaço linear separável.

6.2 Método dos elementos finitos


O método dos elementos finitos consiste na combinação do método de Galerkin conjuntamente
com o método dos elementos finitos, propriamente dito. O método dos elementos finitos consiste
efetivamente em um método de construção de bases de função, φi (x), as quais definem o espaço
de aproximação VarN u = span {φi (x) , i = 1, N}.
Note que em (6.106) obtemos uma aproximação adequada para a solução analítica utilizando
um polinômio de alta ordem, i.e., com um número muito grande de monômios. Por este pro-
cedimento, quanto mais termos temos melhor é a aproximação. Por outro lado, quanto mais
termos temos, maior será a ordem do polinômio utilizado na aproximação e consequentemente
o tamanho da matriz de rigidez [K], a qual tem dimensão N × N .
A ideia proposta pelo método dos elementos finitos é distinta. A ideia utilizada pelo método
dos elementos finitos consiste na utilização de polinômios de baixa ordem, como ilustrado abaixo.
Porém, polinômios de baixa ordem têm um raio de convergência pequeno, i.e., são boas
aproximações apenas em uma pequena região. Desta forma, para se obter uma aproximação
adequada, o método dos elementos finitos efetua uma partição do domínio do problema em
subdomínios, denominados elementos, em cujo interior é utilizada uma aproximação polino-
mial de baixa ordem. As aproximações no interior dos elementos são, no caso unidimensional,
usualmente linear ou quadrática, sendo no caso de vigas até cúbicas.
No caso de barras é utilizado em geral uma aproximação linear. Para construir as funções lin-
earmente independentes utilizadas na definição do espaço de aproximação VarNu = span φi (x) = x , i = 1, N
i
CAPÍTULO 6. ELEMENTOS FINITOS 188

efetuamos:

• Uma partição no domínio do problema, aqui dado por Ω = [0, L], em Ne elementos,
Ne = (N − 1), Ωi = [xi , xi+1 ], em que x1 = 0 e xN = L. Desta forma, obtemos uma
partição do domínio [0, L] em Ne elementos Ωi , Ωi = [xi , xi+1 ], para i = 1, Ne .

• Construção das funções bases, linearmente independentes, as quais são dadas por



 0, se x ∈ / [xi−1 , xi+1 ]
x−xi−1
φi (x) =
 xi −xi−1 , se x ∈ [xi−1 , xi ] . (6.112)

 − x−x i+1
xi+1 −xi, se x ∈ [xi , xi+1 ]

Estas funções são ilustradas na figura abaixo.

Note que no interior de cada elemento Ωi = [xi , xi+1 ], a função deslocamento axial é
representada por

uho (x) = uhoi φi (x) + uhoi+1 φi+1 (x), para x ∈ [xi , xi+1 ]
em que
uhoi = uho (xi )
(6.113)
e
uhoi+1 = uho (xi+1 )
são os deslocamentos nodais em xi e xi+1 respectivamente.

Note que no interior do elemento Ωi = [xi , xi+1 ] atuam apenas as bases φi (x) e φi+1 (x),
por construção, proposto pelo método dos elementos finitos (MEF), sendo elas ilustradas
abaixo,
CAPÍTULO 6. ELEMENTOS FINITOS 189

Note, também por construção do MEF, que as funções base possuem a seguinte propriedade

φi (xj ) = δ ij
em que
1, se i = j (6.114)
δij =
0, se i = j
é o delta de Kronecker.

O objetivo de se ter esta propriedade, por construção do MEF, é que no caso de consider-
armos uma aproximação da forma

uho (x) = i=1,N ci φi (x) (6.115)

obtemos, ao calcular uho (x) nos nós xj , que definem o elemento Ωi = [xi , xi+1 ],

uho (xj ) = ci φi (xj ) (6.116)


i=1,N

= ci δ ij
i=1,N
= cj

o que nos permite interpretar os coeficientes ci da combinação linear (6.115) como sendo
os delocamentos nodais em xi , i.e. ci = uho (xi ). Como resultado, a combinação linear
(6.115) pode ser reescrita como

uho (x) = i=1,N uhoi φi (x)


em que (6.117)
uhoi = uho (xi ) representa o deslocamento axial em xi .

Uma solução aproximada do campo de deslocamentos típica, utilizando-se funções bases


definidas em (6.112), pode ser visualizada na figura abaixo, em que observamos ser a
solução aproximada, uma função linear por partes.

Como toda solução suave pode ser localmente aproximada por uma função linear (reta
tangente), pode-se concluir que no limite, para o número de partições Ne tendendo para
CAPÍTULO 6. ELEMENTOS FINITOS 190

∞, com tamanho do elemento Ωi = [xi , xi+1 ], dado por

hi = (xi+1 − xi )
com (6.118)
limN→∞ hi = 0

podemos obter, para Ne suficientemente grande, uma aproximação adequada, i.e., tal que
* + 1
,L 2 duo duh
2 2
uo − uho = uo − uho + − o
dx <ε
o dx dx . (6.119)
para algum ε > 0 especificado.

Solução pelo método dos Elementos Finitos

Visando aplicar o método dos elementos finitos, vamos considerar o problema da barra deformada
axialmente, sujeita ao peso próprio e a uma carga P , aplicada em uma das extremidades.
A formulação fraca associada à barra deformada axialmente consiste em: determinar uo (x) ∈
Varu solução de
,L ,L
0 EA du o dû
dx dx dx = 0 γ o û dx + P û (L), ∀û ∈ Varu . (6.120)

Para obtermos uma solução aproximada do problema vamos aplicar o método de galerkin,
!
que consiste na definição de um subespaço de aproximação VarN u = span φi (x) = x , i = 1, N
i

e na solução da forma fraca do problema da barra, restrita ao subespaço de aproximação VarN u.


N
Como resultado, o problema pode ser formulado como: determinar uo (x) ∈ Varu solução
h

de
,L h ,L
0 EA du o dû
dx dx dx = 0 γ o û dx + P û (L), ∀û ∈ VarN
u
sendo
!
VarN u = span φi (x) = x , i = 1, N
i

em que, após definida a partição do domínio Ω = [0, L], em Ne elementos


(6.121)
xi+1 ], com x1 = 0 e xN = L, obtemos, N = Ne + 1.
Ωi = [xi ,


 0, se x ∈ / [xi−1 , xi+1 ]
x−xi−1
φi (x) =
 xi −xi−1 , se x ∈ [xi−1 , xi ] .

 − x−xi+1 , se x ∈ [xi , xi+1 ]
xi+1 −xi
CAPÍTULO 6. ELEMENTOS FINITOS 191

Note que, devido à partição do domínio em elementos temos


,L h , xi+1 h

0 EA du
dx
o dû
dx dx = xi EA du
dx
o dû
dx dx
i=1,Ne
e
,L , xi+1
0 γ o û dx + P û (L) = xi γ o ûdx + P ûN
i=1,Ne
em que, no interior do elemento, [xi , xi+1 ], temos
uho (x) = uhoi φi (x) + uhoi+1 φi+1 (x)
(6.122)
e
û (x) = ûi φi (x) + ûi+1 φi+1 (x)
sendo 


 0, se x ∈/ [xi−1 , xi+1 ]
x−xi−1
φi (x) =
 xi −xi−1 , se x ∈ [xi−1 , xi ] .

 − x−xi+1 , se x ∈ [xi , xi+1 ]
xi+1 −xi

Procedimento numérico

• Mudança de variável
Visando efetuar as integrações acima e construir as funções de interpolação dos campos
escalares uho (x) e û (x) no interior de cada elemento Ωe = [xe1 , xe2 ] do domínio Ω, efetua-se
uma mudança de variáveis, definida no interior de cada elemento finito como

Elemento genrico Ωe = [xe1 , xe2 ]

e dada por
x (τ ) = xe1 ψ1 (τ ) + xe2 ψ2 (τ )
em que
ψ 1 (τ ) = φe1 (x (τ )) = 1−τ
2
(6.123)
e
ψ 2 (τ ) = φe2 (x (τ )) = 1+τ
2 .

As funções ψ1 (τ ) e ψ2 (τ ) estão ilustradas abaixo.


CAPÍTULO 6. ELEMENTOS FINITOS 192

Para efetuarmos a mudança de variáveis, no processo de integração, é necessário a deter-


minação do jacobiano da transformação de coordenadas,

dx(τ ) 1 (τ ) 2 (τ )
dτ = xe1 dψdτ + xe2 dψdτ
= 12 [xe2 − xe1 ]
= L2e (6.124)
em que
Le = [xe2 − xe1 ] - representa o tamanho do elemento.

Como resultado da transformação de variáveis temos, para o elemento Ωe = [xe1 , xe2 ],


, xe h ,1 duh
o (x(τ )) dû(x(τ )) Le
xe1
2 EA du
dx
o dû
dx dx = −1 EA dx dx 2 dτ
e (6.125)
, xe ,1
xe1
2 γ o û dx = −1 γ o û (x (τ )) L2e dτ .

• Interpolação dos campos escalares uho (x) e û (x) no interior de cada elemento Ωe , após
o mapeamento do elemento no intervalo padrão [−1, 1], obtido com a transformação de
variáveis proposta.
O campo de deslocamentos uho (x), aproximado linearmente no interior de Ωe , é dado por

uho (x (τ )) = ue1 ψ 1 (τ ) + ue2 ψ2 (τ )


em que
ue1 = uho (x (−1)) = uho (xe1 )
ue2 = uho (x (1)) = uho (xe2 )
representam os deslocamentos nodais de uho (x) a serem (6.126)
determinados, sendo
1−τ
ψ1 (τ ) = φe1 (x (τ )) = 2
e
1+τ
ψ2 (τ ) = φe2 (x (τ )) = 2 .

O campo aproximado de deslocamento uho (x) interpolado no interior do elemento finito é


ilustrado abaixo.

O campo da variação de deslocamentos admissíveis û (x), aproximado linearmente no in-


CAPÍTULO 6. ELEMENTOS FINITOS 193

terior de Ωe , é dado por

û (x (τ )) = ûe1 ψ1 (τ ) + ûe2 ψ2 (τ )
em que
ûe1 = û (x (−1)) = û (xe1 )
ûe2 = û (x (1)) = û (xe2 )
representam as variações admissíveis de deslocamentos nodais (6.127)
do campo û (x) arbitrários, sendo
ψ 1 (τ ) = φe1 (x (τ )) = 1−τ 2
e
ψ 2 (τ ) = φe2 (x (τ )) = 1+τ 2 .

duh
o (x(τ )) dû(x(τ ))
Note que, para determinarmos as derivadas de uho (x) e û (x), i.e., dx e dx
procedemos como segue:

duh
o (x(τ )) duho (x(τ )) dτ 2 duh
o (x(τ ))
dx = dτ dx = Le dτ
2 dψ 1 (τ ) dψ 2 (τ )
= Le ue1 dτ + ue2 dτ
2 u e −u e
= 2 1
Le 2 (6.128)
1
= Le (ue2 − ue1 )
em que

" dx #−1 2
dx = dτ = Le

e, por analogia,
dû(x(τ )) )) dτ 2 dû(x(τ ))
dx = dû(x(τ
dτ dx = Le dτ
= L1e (ûe2 − ûe1 )
(6.129)
em que

" dx #−1 2
dx = dτ = Le

duh
o (x(τ ))
• Representação matricial dos campos escalares uho (x) e û (x) e suas derivadas dx e
dû(x(τ ))
dx

Note que os campos escalares podem ser expressos, no interior de Ωe , como

uho (x (τ )) = Nu (τ ) .qe
em que
T
Nu (τ ) = {ψ1 (τ ) , ψ2 (τ )} (6.130)
e
{qe }T = {ue1 , ue2 }.

O vetor Nu (τ ) é o vetor cujas componentes são as funções de interpolação linear em [−1, 1]


e qe é o vetor de deslocamentos nodais do elemento. Note que as componentes de qe , ue1
e ue2 , representam os deslocamentos axiais que ocorrem nos nós xe1 e xe2 respectivamente
do elemento Ωe = [xe1 , xe2 ]. As componentes de qe são as incógnitas do problema discreto
CAPÍTULO 6. ELEMENTOS FINITOS 194

a ser determinado.
Por analogia, temos
û (x (τ )) = Nu (τ ) .δqe
em que
T
Nu (τ ) = {ψ1 (τ ) , ψ2 (τ )} (6.131)
e
{δqe }T = {ûe1 , ûe2 }.
Os gradientes dos campos escalares podem ser expressos, no interior de Ωe , como

duh
o (x(τ ))
dx = Bu (τ ) .qe
= L1e (ue2 − ue1 )
em que
T
−1 1
Bu (τ ) = Le , Le (6.132)
e
{qe }T = {ue1 , ue2 }.
Note que
duh
o (x(τ ))
εxx (x (τ )) = dx - representa a deformação axial.

O vetor Bu (τ ) relaciona os deslocamentos nodais à deformação axial e qe é o vetor de


deslocamentos nodais do elemento. Por analogia, temos

dû(x(τ ))
dx = Bu (τ ) .δqe
em que
T
Bu (τ ) = −1 1
Le , Le
(6.133)
e
{δqe }T = {ûe1 , ûe2 }.

• Determinação da contribuição de cada elemento finito na determinação das integrais.


CAPÍTULO 6. ELEMENTOS FINITOS 195

Note que, substituindo (6.132) e (6.133) em (6.125) derivamos


,1 duh
o (x(τ )) dû(x(τ )) Le
,1 Le
−1 EA dx dx 2 dτ = −1 EA Bu (τ ) , qe Bu (τ ) , δqe 2 dτ
,1 Le
= −1 EA Bu (τ ) ⊗ Bu (τ ) 2 dτ qe .δqe
1 −1
,1 L2e L2e Le
= −1 EA −1 1 2 dτ qe .δqe
L2e L2e
,1 1 −1
EA Le Le
= 2 −1 1dτ −1 1
qe .δqe
Le Le
1 −1 (6.134)
EA
= Le qe .δqe
−1 1
= [Ke ] qe .δqe
em que
EA 1 −1
[Ke ] = Le é a matriz de rigidez do elemento
−1 1
de barra.

e, substituindo (6.130) e (6.131) em (6.125) derivamos


,1 ,1
−1 γ o û (x (τ )) L2e dτ = −1 γ o Nu (τ ) , δqe Le
2 dτ
,1
= −1 γ o Nu (τ ) L2e dτ .δqe
,1 ψ1 (τ ) Le
= −1 γ o 2 dτ .δqe
ψ2 (τ )
γ o Le ,1 1−τ
= 4 −1 dτ .δqe
1+τ
2 (6.135)
γ o Le
= 4 .δqe
2
= Feγ .δqe
em que
γ o Le 1
Feγ = 2 representa o vetor de força nodal
1
equivalente devido ao pêso próprio.

• Determinação da formulação fraca discretizada

Note que, de (6.122) temos


,L h , xe h

0 EA du
dx
o dû
dx dx = xe1
2 EA du
dx
o dû
dx dx
e=1,Ne
, xe h
= xe1
2 EA du
dx
o dû
dx dx = [Ke ] qe .δqe
e=1,Ne e=1,Ne (6.136)
e
,L , xe
0 γ o û dx = xe1
2 γ o ûdx = Feγ .δqe
e=1,Ne e=1,Ne
CAPÍTULO 6. ELEMENTOS FINITOS 196

o que nos permite expressar

,L h ,L
0 EA du
dx
o dû
dx dx = 0 γ o û dx + P û (L) (6.137)

como
[Ke ] qe .δqe = Feγ .δqe + P ûN
e=1,Ne e=1,Ne
em que
EA 1 −1
[Ke ] = Le (6.138)
−1 1
e
1
Feγ = γ o Le
2 .
1

Solução de exemplo

Considere o problema da barra sujeita a deformação axial, submetida ao pêso próprio e a uma
carga P em uma das extremidades. Considere uma partição do domínio [0, L] em três elementos
finitos, de mesmo tamanho, como ilustrado na figura abaixo.

Da discretização do domínio do problema temos:

• Coordenadas dos nós dos elementos, para uma parti;áo uniforme, por simplicidade, é dada
por
x1 = 0
x2 = L3
(6.139)
x3 = 2L
3
x4 = L
o que nos permite determinar o tamanho dos elementos,

Le = L
3
. (6.140)

• Definição das incógnitas


As incógnitas do problema são os valores nodais do deslocamento axial uho (x) determinadas
em cada nó do domínio. Note porém que, pela condição de contorno essencial,

u1 = uho (x1 ) = 0 (6.141)


CAPÍTULO 6. ELEMENTOS FINITOS 197

o que significa que


û1 = û (x1 ) = 0 (6.142)

restando tão somente três incognitas a serem determinadas, que são:


T
U = {u2 , u3 , u4 }
em que (6.143)
ui = uho (xi ).

• Como resultado temos:

3EA 1 −1 u1 û1
[Ke ] qe .δqe = L .
e=1,Ne −1 1 u2 û2
1 −1 u2 û2
+ 3EA
L . (6.144)
−1 1 u3 û3
1 −1 u3 û3
+ 3EA
L . .
−1 1 u4 û4

Resta porém a imposição das condições de contorno. Contudo, u1 = û1 = 0 o que implica
na relação

3EA 3EA 1 −1 u2 û2


[Ke ] qe .δqe = L u2 .û2 + L .
e=1,Ne −1 1 u3 û3
(6.145)
1 −1 u3 û3
+ 3EA
L .
−1 1 u4 û4

a qual pode ser expressa de forma compacta como


   
2 −1 0  u2
 
   û2 

3EA  
[Ke ] qe .δqe = L  −1 2 −1  u3 . û3 . (6.146)
e=1,Ne 
 
   

0 −1 1 u4 û4

Adicionalmente,

γ o Le 1 û1
Feγ .δqe = 2 .
e=1,Ne 1 û2
(6.147)
1 û2 1 û3
+ γ o2Le
γ o Le
. 2 . .
1 û3 1 û4

Porém, como û1 = 0 obtemos a seguinte relação

Feγ .δqe = γoL


6 û2
e=1,N e
1 û2 1 û3 (6.148)
+ γ o6L . +
γo L
6 .
1 û3 1 û4
CAPÍTULO 6. ELEMENTOS FINITOS 198

a qual pode ser expressa de forma compacta como


   
2  û2
 

γ γo L  
Fe .δqe = 6  2  . û3 . (6.149)
e=1,Ne 
 

1 û4

O termo P ûN neste caso é dado por


   
 0 
   û2 

P û4 = 0 . û3 (6.150)

 
  

P û4

Consequentemente, definindo
 
 u2 
 
U= u3

 

u4 (6.151)
como sendo o vetor dos deslocamentos
nodais da estrutura

e  
 û2 
 
δU = û3

 

û4 (6.152)
como sendo o vetor das variações dos
deslocamentos nodais da estrutura
e  
2 −1 0
3EA  
[KG ] = L  −1 2 −1 
(6.153)
0 −1 1
como sendo a matriz de rigidez global da estrutura
e    

 0 
 2
γoL  
FG = 0 + 6  2 

 
 (6.154)
P 1
como sendo o vetor de forças nodais equivalente

podemos reescrever a formulação fraca discretizada como: Determinar U ∈ R3 solução de

[KG ] U.δ U = FG .δ U, ∀δ U ∈ R3 (6.155)

i.e.,
[KG ] U = FG (6.156)
CAPÍTULO 6. ELEMENTOS FINITOS 199

cuja solução é dada por


U = [KG ]−1 FG (6.157)

em que  
1 1 1
L  
[KG ]−1 = 3EA  1 2 2  (6.158)
1 2 3
resultando em   
γo L
1 1 1 3
L   γo L 
U = 3EA  1 2 2  3 
γoL
1 2 3 P+ 6
i.e. (6.159)
   
 u2 
  P + 56 Lγ o
L  
U= u3 = 3EA  2P + 43 Lγ o 

 

u4 3P + 32 Lγ o

Treliça 2D

No caso de uma treliça bi-dimensional, como ilustrado abaixo,

Note que os deslocamentos nodais dos elementos {ue1 , ue2 } estão definidos na base local {x´, y´}
e estão na direção longitudinal x´. Estes deslocamentos nodais podem ser expressos em termos
! !
de suas componentes ue1x , ue1y e ue2x , ue2y como ilustrado

em que
ue1 = ue1x cos (θe ) + ue1y sin (θ e )
e (6.160)
ue2 = ue2x cos (θe ) + ue2y sin (θ e )
CAPÍTULO 6. ELEMENTOS FINITOS 200

o que pode ser expresso de forma matricial como qe2D

qe = [Reθ ] qe2D
em que
{qe }T = {ue1 , ue2 }
e
!T ! (6.161)
qe2D = ue1x , ue1y , ue2x , ue2y
sendo
cos (θe ) sin (θ e ) 0 0
[Reθ ] =
0 0 cos (θ e ) sin (θe )

Por analogia, temos

δqe = [Reθ ] δqe2D


em que
{δqe }T = {ûe1 , ûe2 }
e
!T ! (6.162)
δqe2D = ûe1x , ûe1y , ûe2x , ûe2y
sendo
cos (θe ) sin (θ e ) 0 0
[Reθ ] =
0 0 cos (θ e ) sin (θe )

Para a determinação dos cossenos dos ângulos θe e αe determinamos inicialmente, como ilustrado
abaixo, o vetor unitário axial do elemento ne o qual pode ser determinado como

r2 −r1
ne = r2 −r1
em que (6.163)
r2 − r1 = (xe2 − xe1 ) ex + (ye2 − ye1 ) ey

como resultado temos


(xe2 −xe1 )ex +(ye2 −ye1 )ey
ne = 2 2
(xe2 −xe1 ) +(ye2 −ye1 )
(6.164)
em que
r2 − r1 = (xe2 − xe1 ) ex + (ye2 − ye1 ) ey
Para determinar os cossenos de θ e e αe efetuamos as seguintes operações

(xe2 −xe1 )
cos (θ e ) = ne , ex = 2 2
(xe2 −xe1 ) +(ye2 −ye1 )
e (6.165)
(ye2 −ye1 )
cos (αe ) = cos( π2 − θe ) = sin (θ e ) = ne , ey = 2 2
.
(xe2 −xe1 ) +(ye2 −ye1 )
CAPÍTULO 6. ELEMENTOS FINITOS 201

Como resultado a forma fraca discretizada, dada por

[Ke ] qe .δqe = P û2y


e=1,Ne
em que (6.166)
EA 1 −1
[Ke ] = Le
−1 1

pode ser expressa com relação à base global {x, y} como:

• Termo (1)

[Ke ] qe .δqe = [Ke ] [Reθ ] qe2D . [Reθ ] δqe2D


e=1,Ne e=1,Ne
= [Reθ ]T [Ke ] [Reθ ] qe2D .δqe2D
e=1,Ne
" 2D # 2D 2D
= Ke qe .δqe
e=1,Ne
em que (6.167)
" 2D #
Ke = [Reθ ]T [Ke ] [Reθ ] representa a matriz de rigidez do elemento
expressa em termos da base global {x, y}
e
!T !
qe2D = ue1x , ue1y , ue2x , ue2y representa o vetor cujos componentes são
os deslocamentos na direção x e y dos nós do elemento

A matriz de rigidez do elemento, expressa em termos da base global {x, y}, é dada por
" 2D #
Ke = [Reθ ]T [Ke ] [Reθ ] (6.168)

em que
EA cos θ e sin θ e − cos θ e − sin θ e
[Ke ] [Reθ ] = Le (6.169)
− cos θe − sin θ e cos θ e sin θe
CAPÍTULO 6. ELEMENTOS FINITOS 202

e
 
cos (θ e ) 0
 
" 2D # EA  sin (θe ) 0  cos θ e sin θ e − cos θe − sin θ e
Ke =   (6.170)
Le 
 0 cos (θe ) 
 − cos θe − sin θe cos θ e sin θ e
0 sin (θ e )
 
cos2 θ e cos θ e sin θ e − cos2 θ e − cos θ e sin θ e
 2

EA 
 cos θ e sin θ e sin θ e − cos θ e sin θ e − sin2 θe 

=
Le 
 − cos2 θe − cos θe sin θe cos2 θe cos θ e sin θ e 

− cos θe sin θe − sin2 θ e cos θ e sin θ e sin2 θ e

• Termo (2)
2D
P û2y = F P .δU 2D
em que
T
FP 2D = {0, −P, 0, 0} (6.171)
e
!T !
δU 2D = ûe2x , ûe2y , ûe3x , ûe3y

Determinação da solução da treliça bi-dimensional

Para determinar a solução do problema da treliça ilustrada abaixo

necessitamos dos dados apresentados nas tabelas seguintes:

# nó coord.x coord.y


1 x1 y1
2 x2 y2 (6.172)
3 x3 y3
4 x4 y4
CAPÍTULO 6. ELEMENTOS FINITOS 203

e
# nó ux uy
1 0 0
2 1 2 (6.173)
3 3 4
4 0 0

o que significa que temos quatro incógnitas, i.e., o vetor de incógnitas global U é composto pelas
seguintes componentes:
T
U = {u2x , u2y , u3x , u3y }
em que o ordenamento das variáveis é definido (6.174)
na tabela dos graus de liberdade (gdf.) dos nós.

A tabela seguinte contêm a tabela referente à incidência nodal de cada elemento. Note, que no
caso 1D, com interpolação linear, cada elemento tem apenas dois nós. Como resultado, temos

# Elem. e1 e2
1 1 2
2 1 3 (6.175)
3 4 3
4 3 2

Com a utilização das tabelas (6.173) e (6.175) podemos construir a tabela que define o ve-
tor de conectividade do elemento. Este vetor é fundamental para a automatização do pro-
cedimento computacional. Note que cada elemento possui 4 graus de liberdade, que são:
!
ue1x , ue1y , ue2x , ue2y

# Elem. lm(1) lm(2) lm(3) lm(4)


1 0 0 1 2
2 0 0 3 4 (6.176)
3 0 0 3 4
4 3 4 1 2

em que lm(i), i = 1, ns e ns = size {lm(:)}.


CAPÍTULO 6. ELEMENTOS FINITOS 204

Determinação da equação de equilíbrio discretizada da treliça

A equação discretizada da treliça satisfaz a seguinte relação:


" 2D # 2D 2D 2D .δU 2D
Ke qe .δqe = F P
e=1,N e
em que
 
cos2 θe cos θ e sin θ e − cos2 θ e − cos θ e sin θ e
 
" 2D #  cos θ e sin θ e sin2 θ e − cos θ e sin θ e − sin2 θe 
Ke = EA
Le

 − cos2 θ

 (6.177)
 e − cos θ e sin θ e cos2 θe cos θe sin θe 
− cos θ e sin θ e − sin2 θe cos θe sin θe sin2 θ e
e
T
2D
FP = {0, −P, 0, 0}.

Como resultado temos


" 2D # 2D 2D " 2D # 2D 2D
K1 q1 .δq1 + K2 q2 .δq2
" # 2D 2D " 2D # 2D 2D (6.178)
+ K2D
3 q3 .δq3 + K4 q4 .δq4 = F P 2D .δU 2D

i.e.
    
cos2 θ 1 cos θ 1 sin θ 1 − cos2 θ 1 − cos θ 1 sin θ1 
 u1x 
 
 û1x 

  
 
 

EA
 cos θ 1 sin θ1 2
sin θ 1 − cos θ 1 sin θ 1 − sin2 θ 1  u1y   û
1y

  .
L1  − cos2 θ 1 − cos θ 1 sin θ1 cos2 θ 1 cos θ 1 sin θ 1  u2x   
 



  û2x
 

− cos θ 1 sin θ 1 2
− sin θ 1 cos θ 1 sin θ1 sin2 θ1  u2y    û 

2y

    
cos2 θ 2 cos θ 2 sin θ2 − cos2 θ2 − cos θ2 sin θ 2 
 u1x 
 
 û1x 

  
 
 

 cos θ2 sin θ 2 2
sin θ 2 − cos θ 2 sin θ2 − sin2 θ2  u1y   û
1y

+ EA
L2



 .
 − cos2 θ2 − cos θ2 sin θ 2 cos2 θ 2 cos θ 2 sin θ2  u3x 

 
 û
 3x



2

 
   û 

− cos θ 2 sin θ2 − sin θ2 cos θ2 sin θ 2 sin2 θ 2 u3y 3y

    
cos2 θ 3 cos θ 3 sin θ3 − cos2 θ3 − cos θ3 sin θ 3 
 u4x 
 
 û4x 

  
 
 

 cos θ3 sin θ 3 2
sin θ 3 − cos θ 3 sin θ3 − sin2 θ3  u4y   û
4y

+ EA
L3



 .
 − cos2 θ3 − cos θ3 sin θ 3 cos2 θ 3 cos θ 3 sin θ3  u3x 



 û3x
 


2

 
   û 

− cos θ 3 sin θ3 − sin θ3 cos θ3 sin θ 3 sin2 θ 3 u3y 3y

    
cos2 θ 4 cos θ 4 sin θ4 − cos2 θ4 − cos θ4 sin θ 4 

 u3x 




 û3x 


    
 cos θ4 sin θ 4 2
sin θ 4 − cos θ 4 sin θ4 − sin2 θ4  u3y   û
3y

+ EA
L4



 .
 − cos2 θ4 − cos θ4 sin θ 4 cos2 θ 4 cos θ 4 sin θ4  u2x 



 û
 2x




 
   û 

− cos θ 4 sin θ4 − sin2 θ4 cos θ4 sin θ 4 sin2 θ 4 u2y 2y

= −P.u2y
(6.179)
CAPÍTULO 6. ELEMENTOS FINITOS 205

Note porém que, da condição de contorno essencial temos:

u1x 0 û1x 0
= =⇒ =
u1y 0 û1y 0
e (6.180)
u4x 0 û4x 0
= =⇒ =
u4y 0 û4y 0

o que acarreta em

EA cos2 θ1 cos θ1 sin θ 1 u2x û2x


L1 .
cos θ 1 sin θ1 sin2 θ1 u2y û2y

cos2 θ 2 cos θ 2 sin θ 2 u3x û3x


+ EA
L2 .
cos θ2 sin θ2 sin2 θ 2 u3y û3y

cos2 θ 3 cos θ 3 sin θ 3 u3x û3x


+ EA
L3 .
cos θ3 sin θ3 sin2 θ 3 u3y û3y
    
cos2 θ 4 cos θ 4 sin θ4 − cos2 θ4 − cos θ4 sin θ 4 
 u3x 
 
 û3x 

  
 
 

 cos θ4 sin θ 4 2
sin θ 4 − cos θ 4 sin θ4 − sin2 θ4  u3y   û
3y

+ EA
L4



 .
 − cos2 θ4 − cos θ4 sin θ 4 cos2 θ 4 cos θ 4 sin θ4  u2x 

 
 û
 2x




 
   û 

− cos θ 4 sin θ4 − sin2 θ4 cos θ4 sin θ 4 sin2 θ 4 u2y 2y

= −P.u2y
(6.181)
CAPÍTULO 6. ELEMENTOS FINITOS 206

que por sua vez, pode ser reescrita como


    
cos2 θ1 cos θ1 sin θ1 0 0   u2x 
 
 û2x 

 2

 u





 û



EA
 cos θ 1 sin θ 1 sin θ1 0 0  2y 2y
  .
L1  0 0 
0 0  u3x   
 



  û3x
 

0 0 0 0  u    û 

3y 3y

    
0 0 0 0 
 u2x 
 
 û2x 

  
 
 

 0 0 0 0  u2y   û
2y

+ EA
L2

 2

 .
 0 0 cos θ 2 cos θ 2 sin θ2  u3x 
  û3x
 


 
  
0 0 cos θ2 sin θ 2 sin2 θ 2  u3y    û 

3y

    
0 0 0 0 
 u2x 
 
 û2x 

  
 
 

 0 0 0 0   u2y   û  2y
+ EA 
 0 0
 .
L3
 cos2 θ 3 cos θ 3 sin θ3 

 u3x 




 û3x 



 
 
 
0 0 cos θ3 sin θ 3 2
sin θ 3 u 3y û  3y

    
cos2 θ 4 cos θ 4 sin θ4 − cos2 θ4 − cos θ4 sin θ 4 
 u3x 
 
 û3x 

  
 
 

 cos θ4 sin θ 4 2
sin θ 4 − cos θ 4 sin θ4 − sin2 θ4  u3y   û
3y

+ EA
L4



 .
 − cos2 θ4 − cos θ4 sin θ 4 cos2 θ 4 cos θ 4 sin θ4  u2x 



 û2x
 


2

 
   û 

− cos θ 4 sin θ4 − sin θ4 cos θ4 sin θ 4 sin2 θ 4 u2y 2y

   

 0 
  û2x 

    

 −P 
   û 

2y
= .
 
0   


    û3x 

 0    û 

3y
(6.182)
Definindo
T
U = {u2x , u2y , u3x , u3y }
o vetor de deslocamentos nodais (incógnitas)
e (6.183)
T
δU = {û2x , û2y , û3x , û3y }
o vetor de variações de deslocamentos nodais
CAPÍTULO 6. ELEMENTOS FINITOS 207

e  
cos2 θ 1 cos θ 1 sin θ 1 0 0
 
" 2D # EA
 cos θ1 sin θ1
 sin2 θ 1 0 0 

K = 
L1
 0 0 0 0 

0 0 0 0
 
0 0 0 0
 
 0 0 0 0 
+ EA
L2

 2


 0 0 cos θ 2 cos θ 2 sin θ 2 
0 0 cos θ2 sin θ 2 sin2 θ 2
(6.184)
 
0 0 0 0
 
 
+ EA  0 0 0 0 
L3  2 
 0 0 cos θ 3 cos θ 3 sin θ 3 
0 0 cos θ3 sin θ 3 sin2 θ 3
 
cos2 θ 4 cos θ 4 sin θ 4 − cos2 θ4 − cos θ4 sin θ4
 2

 cos θ4 sin θ 4 sin θ 4 − cos θ 4 sin θ 4 − sin2 θ4 
+ EA
L4




 − cos2 θ4 − cos θ4 sin θ 4 cos2 θ 4 cos θ 4 sin θ 4 
2
− cos θ 4 sin θ 4 − sin θ4 cos θ4 sin θ 4 sin2 θ 4
como sendo a matriz de rigidez global da estrutura, a qual pode ser expressa através de um
operador de montagem local-global
" 2D # " #
K = Λ K2D
e , Ne = 4,
e=1,4
em que
" 2D #
K - é a matriz de rigidez global da estrutura (6.185)
e
" 2D #
Ke - a matriz de rigidez do e-ésimo elemento da estrutura

e  

 0 


 
 −P 

FP 2D =


 0 

 (6.186)

 0 
como sendo o vetor de forças global da estrutura
temos, após substituir (6.183), (6.184) e (6.186) em (6.182) a seguinte expressão
" 2D #
K U.δ U = F P 2D .δ U, ∀δ U ∈ R4 (6.187)

i.e.
" 2D #
K U − FP 2D , δ U = 0, ∀δ U ∈ R4 (6.188)
CAPÍTULO 6. ELEMENTOS FINITOS 208

o que implica em
" 2D #
K U = F P 2D
O qual correspondo à equação de equilíbrio (6.189)
discretizado.
Note que como solução temos o vetor de deslocamentos nodais
   

 u2x 
 
 0 


 
 
 

 u  " 2D #−1  −P 
2y
U= = K (6.190)

 u3x 
 
 0 


 
 
 
 u   0 
3y

acrescido das condições de contorno essenciais, dadas por

u1x 0 û1x 0
= =⇒ =
u1y 0 û1y 0
e (6.191)
u4x 0 û4x 0
= =⇒ = .
u4y 0 û4y 0

Determinação das deformações e tensões em cada elemento de barra

Para determinar as deformações e tensões em cada elemento de barra, é necessário, em cada


elemento, retornar para o sistema de coordenadas loca, denominado por {x´, y´}, Logo, para o
elemento e-ésimo elemento temos

ue1 = ue1x cos (θ e ) + ue1y sin (θe )


e (6.192)
ue2 = ue2x cos (θ e ) + ue2y sin (θe ).

No sistema local, o campo de deslocamento axial é dado por

u (x (τ )) = ue1 ψ 1 (τ ) + ue2 ψ 2 (τ ) (6.193)

e a deformação axial é

du (x (τ )) du (x (τ )) dτ
εxx (x (τ )) = = (6.194)
dx dτ dx
2 dψ 1 (τ ) dψ2 (τ )
= ue1 + ue2
Le dτ dτ
2 dψ (τ ) dψ (τ )
= ue1 1 + ue2 2
Le dτ dτ
2 ue2 − ue1
=
Le 2
ue2 − ue1
=
Le
CAPÍTULO 6. ELEMENTOS FINITOS 209

i.e.
ue2 −ue1
εxx (x (τ )) = Le = Cte. (6.195)

e a tensão, obtida pela lei de Hooke, é dada por

σ xx (x (τ )) = E εxx (x (τ ))
i.e. (6.196)
ue2 −ue1
σ xx (x (τ )) = E Le = Cte.

Implementação do operador montagem de local - global


" #
Para a determinação da matriz de rigidez global da estrutura, K2D , supondo conhecidas as
" #
matrizes de rigidez de cada elemento K2D
e , e = 1, ..Ne , fazemos uso do seguinte algoritmo:

• Para cada elemento finito, faça:


for k = 1, Ne

(i) Determinação do comprimento do elemento

r1 = xe1 ex + ye1 ey

r2 = xe2 ex + ye2 ey

r2 − r1 = (xe2 − xe1 ) ex + (ye2 − ye1 ) ey


(6.197)
em que
Le = r2 − r1 = (xe2 − xe1 )2 + (ye2 − ye1 )2
e
(xe2 −xe1 ) (ye2 −ye1 )
ne = Le ex + Le ey .

(ii) Determinação dos cossenos diretores do elemento

(xe2 −xe1 )
cos (θ e ) = ne , ex = 2 2
(xe2 −xe1 ) +(ye2 −ye1 )
e (6.198)
(ye2 −ye1 )
cos (αe ) = cos( π2 − θe ) = sin (θ e ) = ne , ey = 2 2
.
(xe2 −xe1 ) +(ye2 −ye1 )

(iii) Determinação da matriz de rigidez do elemento


 
cos2 θ e cos θ e sin θ e − cos2 θ e − cos θ e sin θ e
 
" 2D # EA

 cos θ e sin θ e sin2 θ e − cos θe sin θe − sin2 θe 

Ke = 
Le
 − cos θe2
− cos θe sin θe 2
cos θ e cos θ e sin θ e 
− cos θe sin θe − sin2 θ e cos θ e sin θ e sin2 θ e
(6.199)
CAPÍTULO 6. ELEMENTOS FINITOS 210

(iv) Determinação do vetor de força nodal equivalente do elemento

Fe2D =(quando aplicável) (6.200)

(iv) Montagem da matriz de rigidez do elemento na matriz de rigidez global da estrutura


(utilização do vetor lm(k), k = 1, ns. Este vetor é denominado por vetor de conectivi-
dade, já que ele conecta a matriz de rigidez do elemento, e quando aplicável o vetor
de força nodal equivalente, à matriz de rigidez global da estrutura e ao vetor de força
nodal equivalente global aplicado na estrutura. (ns número de graus de liberdade do
elemento, i.e., número de deslocamentos nodais do elemento)

Algoritmo de montagem da matriz global


for i = 1, ns
ii = lm(i)
if (ii.ne.0) then
for j = 1, ns
jj = lm(j)
if (jj.ne.0) then (6.201)
K2D (ii, jj) = K2D (ii, jj) + K2D
e (i, j)
end if
end
F 2D (ii) = F 2D (ii) + Fe2D (i)
end if
end

6.3 Analise de Sensibilidade


6.3.1 Problemas Lineares
• Procedimento (1)
Considere o problema: Determinar (x∗ , u∗ ) ∈ Rn × Rm solução de

min f (x, u)
tal que
hi (x, u) = 0, i = 1, l
(6.202)
gj (x, u) ≤ 0, j = 1, s̄
e
l (x, u) = [K (x)] u − F (x) = 0.

Definindo
y = (x, u) (6.203)
CAPÍTULO 6. ELEMENTOS FINITOS 211

em que u e x são independentes, o problema (6.202) pode ser reformulado como: Seja

F (y) = f (x, u),

Hi (y) = hi (x, u),


(6.204)
Gj (y) = gj (x, u),
e
Lk (y) = lk (x, u).

Determmine y ∈ Rn × Rm solução de

min F (y)
tal que
Hi (y) = 0, i = 1, l
(6.205)
Gj (y) ≤ 0, j = 1, s̄
e
Lk (y) = 0, k = 1, m.

Este procedimento não é utilizado em geral, já que o vetor de variáveis de projeto y ∈


Rn × Rm , o que torna o procedimento numérico muito caro computacionalmente.

(i) Condição necessária de otimalidade


Seja y ∗ ∈ S, S = y ∈ Rn × Rm | Hi (y) = 0, i = 1, l, Gj (y) ≤ 0, j = 1, s̄ e Lk (y) = 0, k = 1, m ,
ponto regular, o qual é mínimo local de (6.205). Sejam F (y), Hi (y), i = 1, l, Gj (y),
j = 1, s̄, Lk (y), k = 1, m diferenciáveis em y ∗ . Então existem multiplicadores de

Lagrange, ν ∗ ∈ Rl , µ∗ ∈ Rs̄ , µ∗ ≥ 0 e λ ∈ Rm ,tais que

l s̄ m
∇y F (y ∗ ) + ν ∗i ∇y Hi (y ∗ ) + µ∗j ∇y Gj (y ∗ ) + λ∗k ∇y Lk (y ∗ ) = 0
i=1 j=1 k=1

(6.206)
Hi (y ∗ ) = 0, i = 1, l, Lk (y ∗ ) = 0, k = 1, m
e
Gj (y ∗ ) ≤ 0, Gj (y ∗ ) µ∗j = 0 e µ∗j ≥ 0, j = 1, s̄.
CAPÍTULO 6. ELEMENTOS FINITOS 212

Note que (6.206) é equivalente às condições de otimalidade, dadas por

l s̄ m
∂f(x∗ ,u∗ ) ∗ ,u∗ ) ∂g (x∗ ,u∗ ) ∗ ∗)
ν ∗i ∂hi (x λ∗k ∂lk (x
,u
∂xr + ∂xr + µ∗j j ∂xr + ∂xr = 0, r = 1, n
i=1 j=1 k=1

l s̄ m
∂f(x∗ ,u∗ ) ∗ ,u∗ ) ∂g (x∗ ,u∗ ) ∗ ∗)
∂ur + ν ∗i ∂hi (x
∂ur + µ∗j j ∂ur + λ∗k ∂lk (x
∂ur
,u
= 0, r = 1, m
i=1 j=1 k=1

hi (x∗ , u∗ ) = 0, i = 1, l, lk (x∗ , u∗ ) = 0, k = 1, m
e
gj (x∗ , u∗ ) ≤ 0, gj (x∗ , u∗ ) µ∗j = 0 e µ∗j ≥ 0, j = 1, s̄.
(6.207)

• Procedimento (2)
Considere o problema: Determinar (x, u) ∈ Rn × Rm solução de

min f (x, u)
tal que
hi (x, u) = 0, i = 1, l
(6.208)
gj (x, u) ≤ 0, j = 1, s̄
e
l (x, u) = [K (x)] u − F (x) = 0.

Neste procedimento, é feita uma eliminação de variáveis, i.e., é considerado que a restrição
de igualdade
[K (x)] u − F (x) = 0 (6.209)

permite a solução de u em função de x, como:

u (x) = [K (x)]−1 F (x). (6.210)

Note que, por este procedimento, u é dependente de x. Fazendo uso da relação (6.210)
podemos eliminar u não só da função objetivo, f (x, u), como também das restrições
hi (x, u), i = 1, l, e gj (x, u), j = 1, s̄.
Definindo
fˇ (x) = f (x, u (x)),

ȟi (x) = hi (x, u (x)), (6.211)


e
ǧj (x) = gj (x, u (x)),
CAPÍTULO 6. ELEMENTOS FINITOS 213

podemos reformular (6.202) como: Determinar x∗ ∈ Rn solução de

min fˇ (x)
tal que
ȟi (x) = 0, i = 1, l
(6.212)
ǧj (x) ≤ 0, j = 1, s̄
em que u (x) ∈ Rm é solução de:
[K (x)] u (x) = F (x).

(i) Condição necessária de otimalidade


!
Seja x∗ ∈ S, S = x ∈ Rn | ȟi (x) = 0, i = 1, l, ǧj (x) ≤ 0, j = 1, s̄ , ponto regular,
o qual é mínimo local de (6.212). Sejam fˇ (x), ȟi (x), i = 1, l, ǧj (x), j = 1, s̄,
diferenciáveis em x∗ . Então existem multiplicadores de Lagrange, ν ∗ ∈ Rl , µ∗ ∈ Rs̄ ,
µ∗ ≥ 0, tais que

l s̄
∇x fˇ (x∗ ) + ν ∗i ∇x ȟi (x∗ ) + µ∗j ∇x ǧj (x∗ ) = 0
i=1 j=1

(6.213)
ȟi (x∗ ) = 0, i = 1, l, Lk (y ∗ ) = 0, k = 1, m
e
ǧj (x∗ ) ≤ 0, ǧj (x∗ ) µ∗j = 0 e µ∗j ≥ 0, j = 1, s̄.

O problema, em (6.213), consiste na determinação dos gradientes

∇x fˇ (x∗ ) = ?
∇x ȟi (x∗ ) = ?
e
∇x ǧj (x∗ ) = ?

que farão uso da regra da cadeia, no processo de derivação. O procedimento adotado


para a determinação destas derivadas é denominado por análise de sensibilidade.
Notação utilizada: Aplicação da regra da cadeia
Seja
fˇ (x) = f (x, u (x)). (6.214)
CAPÍTULO 6. ELEMENTOS FINITOS 214

Define-se m
dfˇ(x) ∂f (x,u) ∂f(x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1
ou, de forma equivalente,
dfˇ(x) ∂f (x,u) ∂f (x,u) ∂u(x)
dxi = ∂xi + ∂u , ∂xi
(6.215)
em que
∂f(x,u) ∂f (x,u) ∂f (x,u) ∂f(x,u)
∂u = ∂u1 , ∂u2 , ... ∂um ∈ Rm
e
∂u(x) ∂u1 (x) ∂u2 (x) ∂um (x)
∂xi = ∂xi , ∂xi , ... ∂xi ∈ Rm .
∂u (x)
Note que, em (6.215), é requerida a determinação das derivadas parciais ∂x
j
i
. Estas
derivadas medem a sensitividade da variável de estado u (x) ∈ R , que satisfaz à
m

equação de equilíbrio (ou estado)

[K (x)] u (x) = F (x), (6.216)

com relação à variação da i-ésima variável de projeto. Por isto, esta análise é de-
∂uj (x)
nominada por análise de sensibilidade. Seu objetivo é determinar as derivadas ∂x i
dfˇ(x)
de modo a podermos computar dxi ,
fazendo uso de (6.215). Uma vez finalizada a
análise de sensibilidade, podemos computar o gradiente da função objetivo ∇x fˇ (x∗ ),
ˇ dfˇ(x) dfˇ(x)
definito por ∇x fˇ (x∗ ) = ddx
f(x)
1
, dx 2
, ...., dxn ∈ Rn .
(ii) Análise de sensibilidade: método direto
∂u (x)
No método direto, determinamos ∂x j
i
através da derivação da equação de estado
(equilíbrio), definida em (6.216). Como resultado, temos


∂xi {[K (x)] u (x)} = ∂
∂xi F (x) (6.217)

i.e.
∂K(x) ∂ F (x)
∂xi u (x) + [K (x)] ∂u(x)
∂xi = ∂xi
(6.218)

o que pode ser expresso por

∂ F (x)
∂u(x)
∂xi = [K (x)]−1 ∂xi − ∂K(x)
∂xi u (x) . (6.219)

Veja que, uma vez efetuada a análise de sensibilidade, i.e., determinada a derivada
∂u(x)
∂xi , podemos determinar as componentes dos gradientes de ∇x ȟi (x ) e ∇x ǧj (x )
∗ ∗
CAPÍTULO 6. ELEMENTOS FINITOS 215

de forma análoga ao utilizado em (6.215). Em resumo, temos


m
dfˇ(x) ∂f (x,u) ∂f (x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1

m
dȟk (x) ∂ ȟk (x,u) ∂ ȟk (x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1

m (6.220)
dǧk (x) ∂ǧk (x,u) ∂ ǧk (x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1
em que u (x) ∈ Rm , é solução de
[K (x)] u (x) = F (x)
e, para cada i = 1, n, ∂u(x)
∂xi é solução de
∂ F (x)
[K (x)] ∂u(x)
∂K(x)
∂xi = ∂xi − ∂xi u (x) .

Note que, dado x ∈ Rn , determina-se a matriz [K (x)] a qual é triangularizada uma


única vez. Desta forma, a solução dos (n + 1) sistemas lineares

[K (x)] u (x) = F (x)


e
(6.221)
para cada i = 1, n
∂ F (x)
[K (x)] ∂u(x)
∂xi = ∂xi − ∂K(x)
∂xi u (x)

é efetuado apenas com operações de backsubstitution. Este procedimento é bastante


eficiente computacionalmente.
O procedimento acima pode ser descrito pelo seguinte algoritmo: Dado x ∈ Rn ,
— 1. Determine a matriz de rigidez [K (x)] e o vetor de forças nodais equivalente
F (x) - (FEM);
2. Efetue a triangularização da matriz de rigidez [K (x)] - (decomposição [L (x)] [U (x)]
de [K (x)]);
3. Determine o vetor de deslocamentos nodais u (x) ∈ Rm é solução de:

[K (x)] u (x) = F (x); (6.222)


CAPÍTULO 6. ELEMENTOS FINITOS 216

4. Para cada i = 1, n, faça

(4.1) - Compute
∂ F (x) ∂K(x)
∂xi e {gi (x)} = ∂xi {u (x)}

∂u(x)
(4.2) - Determine, por back substitution, ∂xi
solução de
∂u(x) ∂ F (x)
[K (x)] ∂xi = ∂xi − {gi (x)}

∂f (x,u)
(4.3) - Determine o vetor ∂u , definido por
∂f (x,u) ∂f (x,u) ∂f (x,u) ∂f(x,u)
∂u = ∂u1 , ∂u2 , ... ∂um ∈ Rm
e as derivadas (6.223)
∂f (x,u) ∂ ȟk (x,u) ∂ ǧk (x,u)
∂xi , ∂xi e ∂xi

(4.4) - Determine as componentes dos gradientes


∇x fˇ (x∗ ), ∇x ȟi (x∗ ) e ∇x ǧj (x∗ ) como:

dfˇ(x) ∂f (x,u) ∂f (x,u) ∂u(x)


dxi = ∂xi + ∂u , ∂xi

dȟk (x) ∂ ȟk (x,u) ∂ ȟk (x,u) ∂u(x)


dxi = ∂xi + ∂u , ∂xi
e
dǧk (x) ∂ǧk (x,u) ∂ ǧk (x,u) ∂u(x)
dxi = ∂xi + ∂u , ∂xi

(iii) Análise de sensibilidade: método adjunto


Considere o problema: Determinar x∗ ∈ Rn solução de

min fˇ (x)
tal que
ȟi (x) = 0, i = 1, l

ǧj (x) ≤ 0, j = 1, s̄
em que
fˇ (x) = f (x, u (x)) (6.224)

ȟi (x) = hi (x, u (x))


e
ǧj (x) = gj (x, u (x))
sendo u (x) ∈ Rm solução de:
[K (x)] u (x) = F (x)
CAPÍTULO 6. ELEMENTOS FINITOS 217

No método adjunto, as derivadas anteriormente determinadas como


m
dfˇ(x) ∂f (x,u) ∂f(x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1

m
dȟk (x) ∂ ȟk (x,u) ∂ ȟk (x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1
(6.225)
m
dǧk (x) ∂ ǧk (x,u) ∂ǧk (x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1
em que u (x) é solução de
[K (x)] u (x) = F (x),

são determinadas de forma alternativa, pelo método adjunto.


Note que a equação de equilíbrio (ou estado) é dada por

[K (x)] {u (x)} = F (x) . (6.226)

Visando a determinação da análise de sensibilidade do campo de deslocamento com


relação às variáveis de projeto, deriva-se (6.226) com relação às variáveis de projeto

∂u(x) ∂ F (x) ∂K(x)


[K (x)] ∂xi = ∂xi − ∂xi {u (x)}. (6.227)

Introduz-se, neste ponto, um vetor auxiliar λ ∈ Rm , utilizado para se efetuar o


seguinte produto interno

∂u(x) ∂ F (x) ∂K(x)


[K (x)] , λ = − {u (x)} , λ ,
∂xi ∂xi ∂xi
(6.228)
relação esta, válida para ∀λ ∈ R . m

Utilizando a propriedade

[A] w, v = w, [A]T v , ∀w e v ∈ Rm (6.229)

obtem-se
∂u(x) ∂u(x)
∂xi , [K (x)]T λ = ∂xi , [K (x)]T λ
o que implica em (6.230)
∂u(x) T ∂ F (x) ∂K(x)
∂xi , [K (x)] λ = ∂xi − ∂xi {u (x)} , λ .

Neste ponto, especifica-se λf ∈ Rm como sendo a solução do problema auxiliar

∂f (x,u)
[K (x)]T λf = ∂u . (6.231)
CAPÍTULO 6. ELEMENTOS FINITOS 218

Como resultado,

∂u(x) ∂u(x) ∂f(x,u)


∂xi , [K (x)]T λf = ∂xi , ∂u . (6.232)

Substituindo (6.232) em (6.228) resulta em

∂u(x) ∂f(x,u) ∂ F (x) ∂K(x)


∂xi , ∂u = ∂xi − ∂xi {u (x)} , λf . (6.233)

Note que a relação


m
dfˇ(x) ∂f (x,u) ∂f(x,u) ∂uj (x)
dxi = ∂xi + ∂uj ∂xi
j=1
(6.234)
pode ser expressa de forma compacta como
dfˇ(x) ∂f (x,u) ∂f (x,u) ∂u(x)
dxi = ∂xi + ∂u , ∂xi .

Logo, substituindo (6.233) na forma compacta em (6.234), deriva-se

ˇ
df(x) ∂f(x,u) ∂K(x) ∂ F (x)
dxi = ∂xi − ∂xi {u (x)} − ∂xi , λf
em que λf ∈ Rm é solução de (6.235)
∂f (x,u)
[K (x)]T λf = ∂u .

O procedimento pode então ser sintetizado por: Dado x ∈ Rn


1. Determine:

(1) A matriz de rigidez [K (x)],


(6.236)
(2) O vetor de forção nodais equivalente F (x);

2. Determine o vetor dos deslocamentos nodais (variáveis de estado) u (x) ∈ Rm


solução de
[K (x)] {u (x)} = F (x) ; (6.237)

3. Determine a função objetiva e as restrições

fˇ (x) = f (x, u (x)),

ȟi (x) = hi (x, u (x)), (6.238)


e
ǧj (x) = gj (x, u (x)).
CAPÍTULO 6. ELEMENTOS FINITOS 219

4. Determine a solução dos (l + s̄ + 1) sistemas de equações lineares auxiliares

∂f (x,u)
[K (x)]T λf = ∂u

∂gk (x,u)
[K (x)]T λgk = ∂u (6.239)
e
∂hr (x,u)
[K (x)]T λhr = ∂u

ˇ ȟi e ǧj
5. Determine as sensibilidades de f,

dfˇ(x) ∂f (x,u) ∂K(x) ∂ F (x)


dxi = ∂xi − ∂xi u (x) − ∂xi , λf

dȟr (x) ∂ ȟr (x,u) ∂K(x) ∂ F (x)


dxi = ∂xi − ∂xi u (x) − ∂xi , λhr
(6.240)

dǧk (x) ∂ ǧk (x,u) ∂K(x) ∂ F (x)


dxi = ∂xi − ∂xi u (x) − ∂xi , λgk

Observação:
O método adjunto é computacionalmente mais eficiente do que o método direto quando
temos muitas variáveis de projeto e poucas restrições. No caso de termos poucas variáveis
de projeto e muitas restrições, o método direto é mais eficiente. Esta análise está baseada
no números de sistemas de equações cujas soluções são requeridas.
No método direto temos os seguintes sistemas de equações:

[K (x)] {u (x)} = F (x)


e
(6.241)
para cada i = 1, n
∂u(x) ∂ F (x) ∂K(x)
[K (x)] ∂xi = ∂xi − ∂xi {u (x)}

o que corresponde a (n + 1) soluções do sistema linear.


No caso do método adjunto, temos os seguintes sistemas de equações:

[K (x)] {u (x)} = F (x)

∂f (x,u)
[K (x)]T λf = ∂u
(6.242)
∂gk (x,u)
[K (x)]T λgk = ∂u , k = 1, s̄
e
∂hr (x,u)
[K (x)]T λhr = ∂u , r = 1, l

o que corresponde a (l + s̄ + 1) soluções do sistema linear associados a [K (x)]T e 1 solução


CAPÍTULO 6. ELEMENTOS FINITOS 220

do sistema linear associado a [K (x)].


Observação:
No caso da aplicação do método dos elementos finitos (MEF) na determinação aproximada
do campo de deslocamentos em problemas estruturais lineares, a matriz de rigidez [K (x)] =
[K (x)]T , i.e., é simétrica, e positiva definida. Neste caso também pode-se também efetuar
a triangularização da matriz de rigidez [K (x)] - (decomposição [L (x)] [U (x)] de [K (x)])
- e resolver os (l + s̄ + 2) sistemas de equações lineares associados a [K (x)], através de
procedimentos de back substitution.

6.4 Aplicações em MEF


6.4.1 Exemplo 1
Considere a estrutura ilustrada abaixo

que consiste em uma treliça apoiada nos nós (1) e (3) e sujeita a forças concentradas Fa e Fb
aplicadas nos nós (4) e (5) respectivamente.

Determinação da solução da treliça bi-dimensional

Para determinar a solução do problema da treliça acima ilustrada, necessitamos dos dados
apresentados nas tabelas seguintes:

# nó coord.x coord.y


1 0 0
2 L 0
(6.243)
3 2L 0
L
4 2 H
3L
5 2 H
CAPÍTULO 6. ELEMENTOS FINITOS 221

e
# nó ux uy
1 0 0
2 1 2
(6.244)
3 0 0
4 3 4
5 5 6

o que significa que temos quatro incógnitas, i.e., o vetor de incógnitas global U é composto pelas
seguintes componentes:
T
U = {u2x , u2y , u4x , u4y , u5x , u5y }
em que o ordenamento das variáveis é definido (6.245)
na tabela dos graus de liberdade (gdf.) dos nós.

A tabela seguinte contêm a tabela referente à incidência nodal de cada elemento. Note, que no
caso 1D, com interpolação linear, cada elemento tem apenas dois nós. Como resultado, temos

# Elem. e1 e2
1 1 2
2 2 3
3 1 4
(6.246)
4 4 2
5 2 5
6 5 3
7 4 5

Com a utilização das tabelas (6.173) e (6.175) podemos construir a tabela que define o ve-
tor de conectividade do elemento. Este vetor é fundamental para a automatização do pro-
cedimento computacional. Note que cada elemento possui 4 graus de liberdade, que são:
!
ue1x , ue1y , ue2x , ue2y

# Elem. lm(1) lm(2) lm(3) lm(4)


1 0 0 1 2
2 1 2 0 0
3 0 0 3 4
(6.247)
4 3 4 1 2
5 1 2 5 6
6 5 6 0 0
7 3 4 5 6

em que lm(i), i = 1, ns e ns = size {lm(:)}.


Necessitamos também uma tabela informando os ângulos de cada elemento. Note que,
CAPÍTULO 6. ELEMENTOS FINITOS 222

para determinar os ângulos de cada elemento, com relação ao sistema de coordenadas global,
utilizamos as seguintes relações:
Considere a incidência nodal do elemento abaixo ilustrado.

Uma vez definido quais são o primeiro e o segundo nós da incidência do elemento

determinamos
(xe2 −xe1 )
cos (θ e ) = ne , ex =
(xe2 −xe1 )2 +(ye2 −ye1 )2
e (6.248)
(ye2 −ye1 )
sin (θ e ) = ne , ey = 2 2
.
(xe2 −xe1 ) +(ye2 −ye1 )
Note que a matriz de rigidez do elemento é dada por
 
cos2 θ e cos θ e sin θ e − cos2 θe − cos θe sin θe
 2

" 2D # Ee Ae
 cos θ e sin θ e sin θe − cos θe sin θe − sin2 θ e 
.
Ke = Le

  (6.249)
 − cos2 θe − cos θe sin θe cos2 θ e cos θ e sin θ e 
2
− cos θ e sin θ e − sin θ e cos θ e sin θ e sin2 θe

Veja que consideramos, neste ponto, que tanto as áreas como o módulo de Young do material
que compõe os elementos estruturais barras possam variar de lemento para elemento. Desta
form, estas diferentes propriedades ou medidas geométricas podem ser vistas posteriormente
como possíveis variáveis de projeto, caso seja de interesse efetuar um processo de otimização da
CAPÍTULO 6. ELEMENTOS FINITOS 223

estrutura.

No problema em específico, temos a seguinte tabela de ângulos θe , identificando os ângulos


de cada elemento barra da estrutura treliçada.

# Elem. θe
1 0◦
2 0◦
3 θ
4 −θ
(6.250)
5 θ
6 −θ
7 0◦
em que
θ = arctan 2H
L .

Note que
cos (−θ) = cos (θ)
e (6.251)
sin (−θ) = − sin (θ).

Determinação da equação de equilíbrio discretizada da treliça

A equação discretizada da treliça satisfaz a seguinte relação:


" 2D # 2D 2D 2D .δU 2D
Ke qe .δqe = F P
e=1,N e
em que  
cos2 θe cos θ e sin θ e − cos2 θ e − cos θ e sin θ e
 2 
" 2D #  cos θ e sin θ e sin θ e − cos θ e sin θ e − sin2 θe 
Ke = EA
Le



 (6.252)
 − cos2 θ e − cos θ e sin θ e cos2 θe cos θe sin θe 
2
− cos θ e sin θ e − sin θe cos θe sin θe sin2 θ e
e
T !
FP 2D = 0, 0, Fxa , Fya , Fxb , Fyb .
CAPÍTULO 6. ELEMENTOS FINITOS 224

Como resultado temos


" 2D # 2D 2D " 2D # 2D 2D " 2D # 2D 2D
K1 q1 .δq1 + K2 q2 .δq2 + K3 q3 .δq3
" # 2D 2D " 2D # 2D 2D " 2D # 2D 2D
+ K2D q .δq + K5 q5 .δq5 + K6 q6 .δq6 (6.253)
" 2D # 42D 42D
4
+ K7 q7 .δq7 = F P 2D .δU 2D
CAPÍTULO 6. ELEMENTOS FINITOS 225

i.e.
    
1 0 −1 0  u1x 
 
 û1x 

  
 
 

E1 A 1

 0 0 0 0   u1y
   û
1y

 .
L1
 −1 0 1 0 
 u2x




 û2x





 
  
0 0 0 0  u2y  û
2y

    
1 0 −1 0 
 u2x 
 
 û2x 

  
 
 

 0 0 0 0   u2y   û 
2y
+ EL2 A 2 
 −1 0
 .
2
 1 0 

 u3x 




 û3x 


   
0 0 0 0  u3y
  û 
3y

    
cos2 θ cos θ sin θ − cos2 θ − cos θ sin θ 
 u1x 
 
 û1x 

  
 
 

 cos θ sin θ 2
sin θ − cos θ sin θ − sin2 θ  u1y   û
1y

+ EL3 A 3 


 .
3
 − cos2 θ − cos θ sin θ cos2 θ cos θ sin θ  u4x 


 û4x





2

 
   û 

− cos θ sin θ − sin θ cos θ sin θ sin2 θ u4y 4y

    
cos2 θ − cos θ sin θ − cos2 θ cos θ sin θ 

 u4x 




 û4x 


    
 − cos θ sin θ 2
sin θ cos θ sin θ − sin2 θ  u4y   û
4y

+ EL4 A 4 


 .
4
 − cos2 θ cos θ sin θ cos2 θ − cos θ sin θ  u2x 



 û2x
 


2

 
   û 

cos θ sin θ − sin θ − cos θ sin θ sin2 θ u2y 2y

    
cos2 θ cos θ sin θ − cos2 θ − cos θ sin θ 
 u2x 
 
 û2x 

  
 
 

 cos θ sin θ 2
sin θ − cos θ sin θ − sin2 θ  u2y   û
2y

+ EL5 A 5 


 .
5
 − cos2 θ − cos θ sin θ cos2 θ cos θ sin θ  u5x 



 û
 5x



2

 
   û 

− cos θ sin θ − sin θ cos θ sin θ sin2 θ u5y 5y

    
cos2 θ − cos θ sin θ − cos2 θ cos θ sin θ 
 u5x 
 
 û5x 

  
 
 

 − cos θ sin θ 2
sin θ cos θ sin θ − sin2 θ  u5y   û
5y

+ EL6 A 6 


 .
6
 − cos2 θ cos θ sin θ cos2 θ − cos θ sin θ  u3x 



 û3x
 


2

 
   û 

cos θ sin θ − sin θ − cos θ sin θ sin2 θ u3y 3y

    
1 0 −1 0  u4x 
 
 û4x 

 
 u





 û



 0 0 0 0  4y 4y
+ EL7 A 7 

 .
7
 −1 0 1 0 

 u5x 



 û
 5x



 
  
0 0 0 0  u5y  û
5y

= FP 2D .δU 2D

(6.254)
CAPÍTULO 6. ELEMENTOS FINITOS 226

Note porém que, da condição de contorno essencial temos:

u1x 0 û1x 0
= =⇒ =
u1y 0 û1y 0
e (6.255)
u3x 0 û3x 0
= =⇒ =
u3y 0 û3y 0

o que acarreta em

E1 A 1 1 0 u2x û2x
L1 .
0 0 u2y û2y

1 0 u2x û2x
+ EL2 A
2
2
.
0 0 u2y û2y

cos2 θ cos θ sin θ u4x û4x


+ EL3 A 3
.
3
cos θ sin θ sin2 θ u4y û4y
    
cos2 θ − cos θ sin θ − cos2 θ cos θ sin θ 
 u4x 
 
 û4x 

  
 
 

 − cos θ sin θ 2
sin θ cos θ sin θ − sin2 θ  u4y   û
4y

+ EL4 A 4 


 .
4
 − cos2 θ cos θ sin θ cos2 θ − cos θ sin θ  u2x 

 
 û
 2x




 
   û 

cos θ sin θ − sin2 θ − cos θ sin θ sin2 θ u2y 2y

    
cos2 θ cos θ sin θ − cos2 θ − cos θ sin θ 
 u2x 
 
 û2x 

  
 
 

 cos θ sin θ 2
sin θ − cos θ sin θ − sin2 θ  u2y   û
2y

+ EL5 A 5 


 .
5
 − cos2 θ − cos θ sin θ cos2 θ cos θ sin θ  u5x 


 û5x





2

 
   û 

− cos θ sin θ − sin θ cos θ sin θ sin2 θ u5y 5y

cos2 θ − cos θ sin θ u5x û5x


+ EL6 A 6
.
6
− cos θ sin θ sin2 θ u5y û5y
    
1 0 −1 0  u4x 
 
 û4x 

  
 
 

 0 0 0 0   u4y
   û
4y

+ EL7 A 7 
 .
7
 −1 0 1 0 

 u5x 



 û5x
 



 
   û 

0 0 0 0 u5y 5y

= FP 2D .δU 2D

(6.256)
CAPÍTULO 6. ELEMENTOS FINITOS 227

Definindo
T
U = {u2x , u2y , u4x , u4y , u5x , u5y }
o vetor de deslocamentos nodais (incógnitas)
e (6.257)
T
δU = {û2x , û2y , û4x , û4y , û5x, û5y }
o vetor de variações de deslocamentos nodais
podemos determinar a matriz de rigidez global da estrutura como:

Linha 1
E1 A 1 E2 A2 E4 A4 2 E5 A5
K(1, 1) = L1 + L2 + L4 cos θ + L5 cos2 θ
K(1, 2) = − EL4 A4 4 cos θ sin θ + EL5 A5 5 cos θ sin θ
K(1, 3) = − EL4 A4 4 cos2 θ
E4 A 4
(6.258)
K(1, 4) = L4 cos θ sin θ
K(1, 5) = − EL5 A5 5 cos2 θ
K(1, 6) = − EL5 A5 5 cos θ sin θ

Linha 2
K(2, 1) = − EL4 A4 4 cos θ sin θ + EL5 A5 5 cos θ sin θ
K(2, 2) = EL4 A4 4 sin2 θ + EL5 A
5
5
sin2 θ
K(2, 3) = EL4 A4 4 cos θ sin θ
(6.259)
K(2, 4) = − EL4 A4 4 sin2 θ
K(2, 5) = − EL5 A5 5 cos θ sin θ
K(2, 6) = − EL5 A5 5 sin2 θ

Linha 3
K(3, 1) = − EL4 A 4
4
cos2 θ
K(3, 2) = EL4 A4 4 cos θ sin θ
K(3, 3) = EL3 A3 3 cos2 θ + EL7 A7 7 + EL4 A4 4 cos2 θ
(6.260)
K(3, 4) = EL3 A3 3 cos θ sin θ − EL4 A4 4 cos θ sin θ
K(3, 5) = − EL7 A 7
7

K(3, 6) = 0

Linha 4
K(4, 1) = EL4 A
4
4
cos θ sin θ
K(4, 2) = − L4 sin2 θ
E4 A4

K(4, 3) = EL3 A 3
cos θ sin θ − EL4 A4 4 cos θ sin θ
3 (6.261)
K(4, 4) = EL3 A
3
3
sin2 θ + EL4 A4 4 sin2 θ
K(4, 5) = 0
K(4, 6) = 0
CAPÍTULO 6. ELEMENTOS FINITOS 228

Linha 5
K(5, 1) = − EL5 A5 5 cos2 θ
K(5, 2) = − EL5 A5 5 cos θ sin θ
K(5, 3) = − EL7 A7 7
(6.262)
K(5, 4) = 0
K(5, 5) = EL6 A6 6 cos2 θ + EL7 A
7
7
+ EL5 A5 5 cos2 θ
K(5, 6) = − EL6 A6 6 cos θ sin θ + EL5 A5 5 cos θ sin θ

Linha 6
K(6, 1) = − EL5 A5 5 cos θ sin θ
K(6, 2) = − EL5 A5 5 sin2 θ
K(6, 3) = 0
(6.263)
K(6, 4) = 0
K(6, 5) = − EL6 A6 6 cos θ sin θ + EL5 A5 5 cos θ sin θ
K(6, 6) = EL6 A6 6 sin2 θ + EL5 A
5
5
sin2 θ.

Observação
Note que, a montagem da matriz de rigidez global é feita de forma automática através do
seguinte procedimento:

1. Determinação do vetor de conectividade, dado em (6.247);

2. Determinação da matriz de rigidez, para cada elemento, dada por (6.252);

3. Montagem da matriz global, utilizando o algoritmo descrito em (6.201).

Formulação do problema de otimização

Considere o problema descrito abaixo.

O problema de otimização estrutural pode ser formulado como:

(i) Definição das variáveis de projeto


CAPÍTULO 6. ELEMENTOS FINITOS 229

Consideramos neste problema que as variáveis de projeto são dadas pelas áreas das seções
transversais das barras que forma a treliça.

Definição das variáveis de projeto


x=A
i.e.
xi = Ai , i = 1, n
sendo
n - o número de elementos de barra na treliça, n = 7.

(ii) Formulação do problema de otimização estrutural


O problema consiste em determinar A∗ ∈ Rn solução de

min fˇ A
tal que
ǧj A ≤ 0, j = 1, s̄
em que
fˇ A = f A, u A
e
ǧj A = gj A, u A , j = 1, s̄
sendo
u A ∈ Rm solução de:
K A u A =F A .

(iii) Definição da função objetivo


Vamos considerar a função objetivo como sendo a "compliance"da estrutura, representando
o trabalho das forças externas aplicadas na estrutura.

Definição da função objetivo


fˇ A = f A, u A
sendo
f A, u A = Fax u3 − Fay u4 − Fbx u5 − Fby u6
em que u A é solução de
K A u A = F A
e
u = {u2x , u2y , u4x , u4y , u5x , u5y }.

Note que, como a carga externa é prescrita, para que o trabalho das forças externas seja
mínimo, os deslocamentos dos nós, em que são aplicadas as cargas, devem ser mínimos.
Isto significa que, ao minimizarmos a "compliance"tendenmos a obter a estrutura com
CAPÍTULO 6. ELEMENTOS FINITOS 230

maior rigidez possível, de modo a apresentar os menores deslocamentos nodais. Por outro
" sup #
lado, como as áreas devem satisfazer limites inferiores e superiores, i.e., Ai ∈ Ainf
i , Ai ,
sup
ao minimizarmos a "compliance"as áreas tenderão para o valor máximo, Ai → Ai . Em
vista desta observação é que se coloca uma restrição adicional, que consiste em buscar
a estrutura mais resistente possível para um volume final, por exemplo, 20% do volume
inicial.

(iv) Definição das restrições de desigualdade


Neste problema, as seguintes restrições serão impostas:

1. Restrições laterais
Consideramos que as variáveis de projeto satisfaçam

sup
Ainf
i ≤ Ai ≤ Ai , para i = 1, n

o que corresponde às restrições

g(2i−1) A, u A = Ainf
i − Ai ≤ 0
e
g(2i) A, u A = Ai − Asup
i ≤0
para i = 1, n

2. Restrição de volume
Seja Ao o vetor das áreas iniciais das barras da trelição. Como resultado, o volume
inicial de material utilizado em toda a estrutura é dado por
n
Vo = Aoe Le
e=1

em que Le é o comprimento da e-ésimo elemento barra. Note que o e-ésimo elemento

tem um comprimento dado por

Le = (xe2 − xe1 )2 + (ye2 − ye1 )2 .


CAPÍTULO 6. ELEMENTOS FINITOS 231

Como resultado, a restrição de volume pode ser expressa por


n
g(2n+1) A, u A = Ai Li − αVo ≤ 0
i=1
sendo α a fração do volume inicial desejado, i.e.,
α = 0.2 - representando um volume final com 20%
do volume da estrutura inicial.

3. Restrição de deslocamento
Podemos considerar também, uma restrição ao deslocamento do nó 4, na direção y,
por exemplo. Como resultado, temos

|u3 | ≤ uadm ,
i.e.,
−uadm ≤ u3 ≤ uadm

o que acarreta na incorporação das restrições

g(2n+2) A, u A = −uadm − u3 ≤ 0
e
g(2n+3) A, u A = u3 − uadm ≤ 0

4. Restrição de tensões
Neste caso consideramos que, para cada elemento de barra da treliça,

|σe | ≤ σadm ,
i.e.,
−σ adm ≤ σe ≤ σ adm
para e = 1, n.

A incorporação destas restrições é feita como segue

Para e = 1, n
g(2n+3+2e−1) A, u A = −σadm − σ e ≤ 0
e
g(2n+3+2e) A, u A = σ e − σadm ≤ 0.
CAPÍTULO 6. ELEMENTOS FINITOS 232

Considere o e-ésimo elemento ilustrado na seguinte figura.

Note que, de um modo geral, a menos de nós em que são impostas as condições de
contorno,  
 x 

 u e1 


 uy  
e1
= u (lm(:))
 uxe2 

 


 uy  
e2
em que
lm(:) - é o vetor conectividade
do e-ésimo elemento
Uma vez obtidas as componentes do campo de deslocamento, no sistema global, dos
nós do e-ésimo elemento, podemos determinar a componente do campo de desloca-
mento dos nós e1 e e2 , no sistema local, como

y
uloc x
e1 = ue1 cos θ e + ue1 sin θe
e
y
e2 = ue2 cos θ e + ue2 sin θe .
uloc x

Uma vez determinados os deslocamentos nodais na direção axial da barra, com relação
ao sistema local, determinamos a deformação axial da barra como

uloc loc
e2 −ue1
εe = Le

e com a aplicação da Lei de Hooke, a tensão axial atuando no elemento, dada por

uloc loc
e2 −ue1
σ e = Ee Le

na qual
Ee - representa o módulo de Yound da barra e.
CAPÍTULO 6. ELEMENTOS FINITOS 233

No caso particular da barra e = 7 temos

uloc
e4 = u3 cos θe + u4 sin θ e
e
uloc
e5 = u5 cos θe + u6 sin θ e
sendo
θ 7 = 0◦ .

A deformação então é dada por

ε7 = u5L−u
7
3

sendo
Le = L.

A tensão no elemento e = 7 é então calculada como

σ 7 = EL7 (u5 − u3 )
na qual
E7 - representa o módulo de Yound da barra e = 7.
Capítulo 7

Treliça tri-dimensional

7.1 Introdução
Considere o problema da treliça ilustrada abaixo, em que os nós (1), (2) e (3) estão no plano
{x, y}, do sistema de coordenadas global {x, y, z}, na cota em z = 0. O ponto (4) está na cota
z, não nula, e a força P está atuando na direção ez no sentido negativo.

A equação de equilíbrio da treliça, em que cada elemento estrutural barra está expresso em seu
sistema local, i.e., com relação à base local cartesiana {x´, y´, z´}, é dada por

[Ke ] qe .δqe = −P ûz4


e=1,Ne
sendo
EA 1 −1
[Ke ] = Le
−1 1 (7.1)

{qe }T = {ue1 , ue2 }


e
{δqe }T = {ûe1 , ûe2 }.

234
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 235

Note que ue1 e ue2 são os deslocamento dos nós e1 e e2 do e-ésimo elemento na direção {x´}
respectivamente. Estes deslocamentos nodais podem ser expressos em termos de suas compo-
! !
nentes ue1x , ue1y , ue1z e ue2x , ue2y , ue2z , relativas ao sistema de coordenadas global {x, y, z},
da seguinte forma

ue1 = ue1x cos (αe ) + ue1y cos (β e ) + ue1z cos (γ e )


e (7.2)
ue2 = ue2x cos (αe ) + ue2y cos (β e ) + ue2z cos (γ e ).

Denominando os cossenos diretores (cos (αe ) , cos (β e ) , cos (γ e )) = (le , me , ne ), podemos expres-
sar (7.2) de forma matricial, como

qe = [Re ] qe3D
em que
{qe }T = {ue1 , ue2 }
e
!T ! (7.3)
qe3D = ue1x , ue1y , ue1z , ue2x , ue2y , ue2z
sendo
le me ne 0 0 0
[Re ] = .
0 0 0 le me ne

Por analogia, temos


δqe = [Re ] δqe3D
em que
{δqe }T = {ûe1 , ûe2 }
e
!T ! (7.4)
δqe2D = ûe1x , ûe1y , ûe1z , ûe2x , ûe2y , ûe2z
sendo
le me ne 0 0 0
[Re ] = .
0 0 0 le me ne

Para a determinação dos cossenos diretores (cos (αe ) , cos (β e ) , cos (γ e )) = (le , me , ne ), obtemos
inicialmente, como ilustrado abaixo, o vetor unitário axial do elemento ne , o qual pode ser é
dado por
−r1
ne = rr22 −r 1

em que (7.5)
r2 − r1 = (xe2 − xe1 ) ex + (ye2 − ye1 ) ey + (ze2 − ze1 ) ey .
Como resultado, temos

(xe2 −xe1 )ex +(ye2 −ye1 )ey +(ze2 −ze1 )ey


ne = 2 2 2
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )
(7.6)
em que
r2 − r1 = (xe2 − xe1 ) ex + (ye2 − ye1 ) ey + (ze2 − ze1 ) ey .
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 236

Consequentemente, os cossenos diretores (cos (αe ) , cos (β e ) , cos (γ e )) = (le , me , ne ) podem ser
determinados por

(xe2 −xe1 )
le = cos (αe ) = ne , ex = 2 2 2
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )

(ye2 −ye1 )
me = cos (β e ) = ne , ey = 2 2 2 (7.7)
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )
e
(ze2 −ze1 )
ne = cos (γ e ) = ne , ez = 2 2 2
.
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )

A forma fraca discretizada da equação de equilíbrio é dada por

[Ke ] qe .δqe = −P û4z


e=1,Ne
em que (7.8)
1 −1
[Ke ] = EA
Le ,
−1 1

a qual pode ser expressa, com relação à base global {x, y, z}, como:

• Termo (1)

[Ke ] qe .δqe = [Ke ] [Re ] qe3D . [Re ] δqe3D


e=1,Ne e=1,Ne
= [Re ]T [Ke ] [Re ] qe3D .δqe3D
e=1,Ne
" 3D # 3D 3D
= Ke qe .δqe
e=1,Ne
na qual
" 3D #
Ke = [Re ]T [Ke ] [Re ] representa a matriz de rigidez do elemento
expressa em termos da base global {x, y, z}
e
!T !
qe3D = ue1x , ue1y , ue1z , ue2x , ue2y , ue2z representa o vetor cujos componentes são
os deslocamentos na direção x, y e z dos nós do elemento.
(7.9)
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 237

A matriz de rigidez do elemento, expressa em termos da base global {x, y, z}, é dada por
" 3D #
Ke = [Re ]T [Ke ] [Re ] (7.10)

em que
EA le me ne −le −me −ne
[Ke ] [Re ] = Le (7.11)
−le −me −ne le me ne
e
 
le 0
 
 me 0 
 
" 3D # EA 
 ne 0  le me ne −le −me −ne
Ke =   (7.12)
Le  0 le  −le −me −ne le me ne
 
 0 me 
 
0 ne
 
le2 le me le ne −le2 −le me −le ne
 

 le me m2e me ne −le me −m2e −me ne 

EA 
 le ne me ne n2e −le ne −me ne −n2e 

=  
Le 
 −le2 −le me −le ne le2 le me le ne 

 −l m −m2e −me ne le me m2e me ne 
 e e 
−le ne −me ne −n2e le ne me ne n2e

• Termo (2)
3D
P û4z = F P .δU 3D
em que
T
FP 3D = {0, 0, −P } (7.13)
e
!T
δU 3D = {û4x , û4y , û4z }.

Para a determinação da matriz de rigidez global e do vetor de forças nodal de toda a estrutura,
são necessários os dados apresentados nas tabelas seguintes:

# nó coord.x coord.y coord.z


1 x1 y1 z1
2 x2 y2 z2 (7.14)
3 x3 y3 z3
4 x4 y4 z4
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 238

e
# nó ux uy uz
1 0 0 0
2 0 0 0 . (7.15)
3 0 0 0
4 1 2 3

A tabela (7.15) mostra que temos três incógnitas, i.e., que o vetor de incógnitas global U é
composto pelas seguintes componentes:
T
U = {u4x , u4y , u4z }
em que o ordenamento das variáveis é definido (7.16)
na tabela dos graus de liberdade (gdf.) dos nós.

A tabela seguinte contêm a tabela referente à incidência nodal de cada elemento. Note, que no
caso 1D, com interpolação linear, cada elemento tem apenas dois nós. Como resultado, temos

# Elem. e1 e2
1 1 4
. (7.17)
2 2 4
3 3 4

A utilização combinada das tabelas (7.15) e (7.17) permite a construção da tabela que define
o vetor de conectividade de cada elemento. Este vetor é fundamental para a automatização do
procedimento computacional referente à construção da matriz de rigidez de toda a estrutura
e do vetor de forças nodais aplicado na estrutura. Note que cada elemento possui 6 graus de
liberdade, representados pelas componentes {ux , uy , uz } dos nós {e1 , e2 }. Neste caso, os vetores
de conectividade de cada elemento são dados pela tabela

# Elem. lm(1) lm(2) lm(3) lm(4) lm(5) lm(5)


1 0 0 0 1 2 3
(7.18)
2 0 0 0 1 2 3
3 0 0 0 1 2 3

em que lm(k), k = 1, ns sendo ns = size {lm(:)}.


CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 239

7.2 Determinação da equação de equilíbrio discretizada da tre-


liça
A equação discretizada da treliça satisfaz a seguinte relação:
" 3D # 3D 3D 3D
Ke qe .δqe = F P .δU 3D
e=1,N
em que  
l2e le me le ne −le2 −le me −le ne
 2

 le me
 me me ne −le me −m2e −me ne 

" 3D # EA 
 le ne me ne n2e −le ne −me ne −n2e 

Ke = Le   (7.19)
 −le2 −le me −le ne le2 le me le n e 
 
 −l m 2
−me −me ne le me me 2
me ne 
 e e 
−le ne −me ne −ne 2 le n e me ne n2e
e
T
3D
FP = {0, 0, −P }.

Como resultado, temos


" 3D # 3D 3D " 3D # 3D 3D
K1 q1 .δq1 + K2 q2 .δq2
" # 3D 3D (7.20)
+ K3D
3 q3 .δq3 = F P 3D .δU 3D
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 240

i.e.
    
l12 l1 m1 l1 n1 −l12 −l1 m1 −l1 n1 
 u1x 
 
 û1x 

  
 
 

 l1 m1 m1 2 m1 n1 −l1 m1 −m21 −m1 n1  u1y 
 
 û1y 

  
 
 

 n21 −n21  
 
 û 

EA  l1 n1 m1 n1 −l1 n1 −m1 n1  u1z 1z

L1  2
 .
 −l1 −l1 m1 −l1 n1 l12 l1 m1 l1 n1 
 u4x 




 û4x 


 −l m 2 2  
 
 

 1 1 −m1 −m1 n1 l1 m1 m1 m1 n1 
 u4y 
 
  û4y




2

 
   û 

−l1 n1 −m1 n1 −n1 l1 n1 m1 n1 n21 u4z 4z

    
l22 l2 m2 l2 n 2 −l22 −l2 m2 −l2 n2 
 u2x 
 
 û2x 

  
 
 

 l2 m2 m2 2
m2 n2 −l2 m2 −m22 −m2 n2  u2y 
 
 û2y 

  
 
 

 l2 n 2 m2 n2 n22 −l2 n2 −m2 n2 −n22  u2z

 
 û 

  2z
+ EA
L2   .
 −l22 −l2 m2 −l2 n2 l22 l2 m2 l2 n 2 
 u4x 
 
 û4x 


 2 2 










 (7.21)
 −l2 m2 −m2 −m2 n2 l2 m2 m2 m2 n2 
 u4y  


 û4y




2

 
   û 

−l2 n2 −m2 n2 −n2 l2 n2 m2 n2 n22 u4z 4z

    
l32 l3 m3 l3 n 3 −l32 −l3 m3 −l3 n3 

 u3x 




 û3x 


    
 l3 m3 m3 2
m3 n3 −l3 m3 −m23 −m3 n3  u3y 
 
 û3y 

  
 
 

 l3 n 3 m3 n3 n23 −l3 n3 −m3 n3 −n23  u3z

 
 û 

EA   3z
+ L3   .

 −l32 −l3 m3 −l3 n3 l32 l3 m3 l3 n 3 
 u4x 




 û4x 


 2 2  
 
 

 −l3 m3 −m3 −m3 n3 l3 m3 m3 m3 n3 
 u4y 



 û4y
 


2

 
   û 

−l3 n3 −m3 n3 −n3 l3 n3 m3 n3 n23 u4z 4z

= −P.u4z

Note porém que, da condição de contorno essencial temos:


       
 u1x
 
  0
    û1x
 
  0 
 
u1y = 0 =⇒ û1y = 0

 
     
 
    
u1z 0 û1z 0

       
 u2x
 
  0 
   û2x
 
  0 
 
u2y = 0 =⇒ û2y = 0 (7.22)

 
     
 
    
u2z 0 û2z 0
e
       
 u3x
 
  0
 
  û3x
 
  0
 

u3y = 0 =⇒ û3y = 0

 
   
 
 
   

u3z 0 û3z 0
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 241

o que acarreta em
    
l12 l1 m1 l1 n1  u4x
 
  û4x 

EA  2 
L1  l1 m1 m1 m1 n1  u4y . û4y

 
  

l1 n1 m1 n1 n21 u4z û4z

    
l22 l2 m2 l2 n2  u4x
 
   û4x 

EA  2 
+ L2  l2 m2 m2 m2 n2  u4y . û4y

 
   

l2 n2 m2 n2 n22 u4z û4z
(7.23)
    
l32 l3 m3 l3 n3  u4x 
    û4x 

EA  2 
+ L3  l3 m3 m3 m3 n3  u4y . û4y

 
   

l3 n3 m3 n3 2
n3 u4z û4z
   
 0 
    û4x 
= −P.u4Z = 0 . û4y .

 
   

−P û4z

Definindo
T
U = {u4x , u4y , u4z }
o vetor de deslocamentos nodais (incógnitas)
e (7.24)
T
δU = {û4x , û4y , û4z }
o vetor de variações de deslocamentos nodais
e
 
l12 l1 m1 l1 n1
" 3D # EA  
K =  l1 m1 m21 m1 n1  (7.25)
L1
l1 n1 m1 n1 n21
 
l22 l2 m2 l2 n2
EA  
+  l2 m2 m22 m2 n2 
L2
l2 n2 m2 n2 n22
 2 
l3 l3 m3 l3 n3
EA  
+  l3 m3 m23 m3 n3 
L3
l3 n3 m3 n3 n23
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 242

como sendo a matriz de rigidez global da estrutura, a qual pode ser expressa através de um
operador de montagem local global
" 3D # " #
K = Λ K3D
e , Ne = 3,
e=1,3
sendo
" 3D #
K - é a matriz de rigidez global da estrutura (7.26)
e
" 3D #
Ke - a matriz de rigidez do e-ésimo elemento da estrutura,

e  
 0 
 
FP 3D = 0

 
 (7.27)
−P
como sendo o vetor de forças global da estrutura
podemos, após substituir (7.25) e (7.27) em (7.20), reescrever equação discretizada da treliça
como segue
" 3D #
K U.δU = F P 3D .δ U, ∀δU ∈ R3 (7.28)

i.e.
" 3D # 3D
K U − FP , δ U = 0, ∀δ U ∈ R3 (7.29)

o que implica em
" 3D #
K U = F P 3D
O qual correspondo à equação de equilíbrio (7.30)
discretizado.
Note que, como solução, temos o vetor de deslocamentos nodais
   
 u4x
 
  0
" 3D #−1 


U= u4y = K 0 (7.31)

 
 
 

u4z −P

acrescido das condições de contorno essenciais, dadas por


       
 u1x
 
  0
 
  û1x
 
  0
 

u1y = 0 =⇒ û1y = 0

 
   
 
 
   

u1z 0 û1z 0

       
 u2x
 
  0
    û2x
 
  0 
 
u2y = 0 =⇒ û2y = 0 (7.32)

 
     
 
    
u2z 0 û2z 0
e
       
 u3x
 
  0 
   û3x
 
  0 
 
u3y = 0 =⇒ û3y = 0 .

 
     
 
    
u3z 0 û3z 0
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 243

7.3 Determinação das deformações e tensões em cada elemento


de barra
Para determinar as deformações e tensões em cada elemento de barra, é necessário, em cada
elemento, retornar para o sistema de coordenadas local, denominado por {x´, y´, z´}. Logo, para o
e-ésimo elemento, temos

ue1 = ue1x cos (αe ) + ue1y cos (β e ) + ue1z cos (γ e )


e (7.33)
ue2 = ue2x cos (αe ) + ue2y cos (β e ) + ue2z cos (γ e ).

No sistema local, o campo de deslocamento axial é dado por

u (x (τ )) = ue1 ψ1 (τ ) + ue2 ψ2 (τ ) . (7.34)

A deformação axial é então determinada por

du (x (τ )) du (x (τ )) dτ
εxx (x (τ )) = = (7.35)
dx dτ dx
2 dψ (τ ) dψ (τ )
= ue1 1 + ue2 2
Le dτ dτ
2 dψ (τ ) dψ (τ )
= ue1 1 + ue2 2
Le dτ dτ
2 ue2 − ue1
=
Le 2
ue2 − ue1
=
Le

i.e.
ue2 −ue1
εxx (x (τ )) = Le = Cte. (7.36)

A tensão, por sua vez, é obtida pela aplicação da lei de Hooke, a qual é dada por

σ xx (x (τ )) = E εxx (x (τ ))
i.e. (7.37)
ue2 −ue1
σ xx (x (τ )) = E Le = Cte.

Implementação do operador montagem de local - global


" #
Para a determinação da matriz de rigidez global da estrutura, K3D , supondo conhecidas as
" #
matrizes de rigidez de cada elemento K3D
e , e = 1, ..Ne , fazemos uso do seguinte algoritmo:

• Para cada elemento finito, faça:


for k = 1, Ne
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 244

(i) Determine o comprimento do elemento

r1 = xe1 ex + ye1 ey + ze1 ez

r2 = xe2 ex + ye2 ey + ze2 ez

Le = r2 − r1 = (xe2 − xe1 )2 + (ye2 − ye1 )2 + (ze2 − ze1 )2 (7.38)


em que
r2 − r1 = (xe2 − xe1 ) ex + (ye2 − ye1 ) ey + (ze2 − ze1 ) ez
e
r2 −r1 (xe2 −xe1 ) (ye2 −ye1 ) (ze2 −ze1 )
ne = r2 −r1 = Le ex + Le ey + Le ez

(ii) Determine os cossenos diretores do elemento

(xe2 −xe1 )
le = cos (αe ) = ne , ex = 2 2 2
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )

(ye2 −ye1 )
me = cos (β e ) = ne , ey = 2 2 2 (7.39)
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )
e
(ze2 −ze1 )
ne = cos (γ e ) = ne , ez = 2 2 2
(xe2 −xe1 ) +(ye2 −ye1 ) +(ze2 −ze1 )

(iii) Determine a matriz de rigidez do elemento


 
le2 le me le ne −le2 −le me −le ne
 

 le me m2e me ne −le me −m2e −me ne 

" 3D # EA 
 le ne me ne n2e −le ne −me ne −n2e 

Ke = Le   (7.40)

 −le2 −le me −le ne le2 le me le ne 

 2
−le me −me −me ne le me me 2 me ne 
 
2
−le ne −me ne −ne le ne me ne n2e

(iv) Determinação do vetor de força nodal equivalente do elemento

Fe3D = ...(quando aplicável) (7.41)

(iv) Faça a montagem da matriz de rigidez do elemento na matriz de rigidez global da


estrutura (utilização do vetor lm(k), k = 1, ns). Este vetor é denominado por vetor
de conectividade, já que ele conecta a matriz de rigidez do elemento à matriz de
rigidez global da estrutura. O mesmo ocorre com relação ao vetor de forças nodal da
estrutura.
for i = 1, ns
ii = lm(i)
CAPÍTULO 7. TRELIÇA TRI-DIMENSIONAL 245

if (ii.ne.0) then
for j = 1, ns
jj = lm(j)
if (jj.ne.0) then
K3D (ii, jj) = K3D (ii, jj) + K3D
e (i, j)

end if
end
F 3D (ii) = F 3D (ii) + Fe3D (i)
end if
end

Potrebbero piacerti anche