Sei sulla pagina 1di 295

EVOLUÇÃO DAS IDÉIAS

MATEMÁTICAS
EM BREVE RELATO DAS
PRINCIPAIS CONTRIBUIÇÕES

+ m p(1 – p )

SAMI ELIAS ARBEX

1ª EDIÇÃO - 2012
PRÓLOGO
NOSSA GERAÇÃO DEVE SE SENTIR PRIVILEGIADA EM PRESENCIAR O ESTÁGIO ATUAL DO
DESENVOLVIMENTO CIENTÍFICO E TECNOLÓGICO, COM DESTAQUE PARA AS CONQUISTAS
NAS ÁREAS:

- DAS COMUNICAÇÕES, PROCESSAMENTO DIGITAL ELETRÔNICO DE DADOS, E


AUTOMAÇÃO DA PRODUÇÃO EM GERAL;

- DO ENTENDIMENTO DO UNIVERSO, DA NOSSA HERANÇA EM GERAL, E DO CÉREBRO


HUMANO;
- DAS QUESTÕES AMBIENTAIS, RELATIVAS À NOSSA SAÚDE, ETC.,

E JÁ FOI ENUNCIADO O ENTENDIMENTO DE QUE ESSE PERÍODO, DA REVOLUÇÃO


INDUSTRIAL À QUASE REALIZAÇÃO DAS CONQUISTAS MENCIONADAS (QUASE, UMA VEZ
QUE O PROCESSO TENDE À EVOLUÇÃO ASSINTÓTICA), FICARÁ GRAVADO COMO DOS
MAIS PRODUTIVOS DE NOSSA HISTÓRIA;

TAMBÉM PARECE CLARO, SER DE TODA A CONVENIÊNCIA, QUE O GRADUADO TENHA AO


MENOS UMA NOÇÃO DO PAPEL DESEMPENHADO PELA SUA ESPECIALIDADE NESSE
DESENVOLVIMENTO;

AS DISCIPLINAS DE “EVOLUÇÃO DAS IDÉIAS (OU CONCEITOS)” FORAM INSTITUÍDAS PARA


SUBSTITUIR O ENFOQUE BIBLIOGRÁFICO, QUE VINHA SENDO NORMALMENTE SEGUIDO
NAS DISCIPLINAS DE “HISTÓRIA”, EVITANDO O RISCO DE INFLUENCIAR O ALUNO COM
ENTENDIMENTOS QUE, EMBORA PROVINDOS DE ESTUDIOSOS QUE REGISTRARAM SEUS
NOMES NA HISTÓRIA, NÃO PREVALECERAM. ALÉM DISSO, INCLUI AS PERSPECTIVAS
(NOSSO PRINCIPAL INTERESSE), NEM SEMPRE TRATADAS NAS DISCIPLINAS DE HISTÓRIA.

AS PRESENTES NOTAS, QUE SÃO APENAS REFERENCIAIS, ESTÃO NO FORMATO DE


“BREVE RELATO DAS PRINCIPAIS CONTRIBUIÇÕES” (OU SEJA, RESUMO ACOMPANHADO
DE NOTAS EXPLICATIVAS E INTERPRETAÇÕES DE ESPECIALISTAS, DE MODO A TORNÁ-LO
AUTO-SUFICIENTE AOS NÃO ESPECIALISTAS), EM LINGUAGEM QUE, SEM SER TÉCNICA
NEM FORMAL, PRETENDEU FORNECER “UMA IDÉIA DA MOTIVAÇÃO QUE OS
PESQUISADORES QUE CONTRIBUÍRAM PARA A EVOLUÇÃO DA MATEMÁTICA TIVERAM, OU
PODERIAM TER TIDO, NA ORIENTAÇÃO DE SUAS PESQUISAS. ALÉM DISSO, PRETENDEU
FORNECER UMA VISÃO GERAL, COM O PONTO DE VISTA DE ‘OBSERVADOR CRÍTICO’
DESSA EVOLUÇÃO, QUE VEIO RELACIONADA À SOLUÇÃO DE PROBLEMAS PRÁTICOS E À
DESCRIÇÃO QUANTITATIVA DOS FENÔMENOS NATURAIS, COM ÊNFASE À SUA FORTE
LÓGICA”. INTERESSANTE NOTAR QUE, QUANDO UM ARGUMENTO CONSEGUE SER
EXPRESSO DE MODO SIMPLES E CLARO, CONSEGUE-SE TRANSMITIR AS IDEIAS SEM
EXPLICAÇÕES MAIS EXTENSAS. ALÉM DISSO, EM DIVERSAS PASSAGENS, A PRÓPRIA
SEQUÊNCIA DAS IDEIAS JÁ É ELUCIDATIVA.

A NOSSA EXPERIÊNCIA, E A DE VÁRIOS PROFISSIONAIS, QUE PRETENDEMOS POSITIVAR,


MOSTROU SER IMPORTANTE NA FORMAÇÃO DO GRADUADO, UMA NOÇÃO DE “QUAL A
UTILIDADE (INCLUINDO O ALCANCE E LIMITAÇÕES) DAS TEORIAS E TÉCNICAS
APRENDIDAS”. USANDO UMA FRASE SUGESTIVA, O GRADUADO QUE APRENDE, ALÉM DO
KNOW HOW (SABER COMO), O KNOW WHY (SABER POR QUE), E KNOW WHAT FOR ( SABER
PARA QUE), EM GERAL, APRESENTA MELHOR CRÍTICA EM RELAÇÃO AOS ASSUNTOS
ABORDADOS, E, EM CONSEQUÊNCIA, MELHOR APREDIZADO, DESEMPENHO
PROFISSIONAL E MELHORES CONDIÇÕES DE SE ADAPTAR A NOVAS SITUAÇÕES
(INCLUINDO POSSÍVEIS MUDANÇAS NO AMBIENTE E PESQUISAS). EM OUTRAS PALAVRAS,
OS EXEMPLOS APONTAM NA DIREÇÃO DE QUE A ELUCIDAÇÃO DO GRADUADO TEM
FORNECIDO CARREIRAS DE MELHOR ÊXITO (TANTO DOCENTES, QUANTO DE PESQUISA)
DO QUE A SIMPLES AQUISIÇÃO DE UM KNOW HOW (MAIS UTILIZADA NAS FORMAÇÕES
TÉCNICAS). ALÉM DISSO, MUITOS PROFISSIONAIS EXPERIENTES, QUANDO CONSULTADOS,
RESPONDEM QUE GOSTARIAM DE, NO INÍCIO SE SUAS CARREIRAS, CONTAR COM A VISÃO
GERAL E EXPERIÊNCIA QUE SÓ VIERAM A ADQUIRIR MUITO TEMPO DEPOIS (QUANDO NÃO,
AO SEU FINAL), QUESTÃO QUE, O PRESENTE BREVE RELATO, AJUDA A CONTEMPLAR.
INTERESSANTE NOTAR QUE PESQUISADORES LAUREADOS, QUE EXERCERAM FUNÇÕES

2
DE COORDENAÇÂO DE EQUIPES DE PESQUISA, SÂO OS QUE CONSEGUIRAM UMA
MELHOR VISÂO GERAL.

ESSES ENTENDIMENTOS SINTÉTICOS ACIMA REFERIDOS, NÃO PERTENCEM À TEORIA


PROPRIAMENTE DITA (TEORIA OBJETO OU FORMAL), MAS COMPÕEM UM DISCURSO
SOBRE A TEORIA (OU SEJA, PERTENCEM À METATEORIA), E NEM SEMPRE SÃO
MENCIONADOS NAS SALAS DE AULAS, OU ALCANÇADOS PELOS ALUNOS;

DE MODO ANÁLOGO, MUITAS IDÉIAS UTILIZADAS NA ELABORAÇÃO DAS TEORIAS E NAS


SUAS PROVAS, CONSEGUEM FICAR “ENVOLTAS NAS FORMALIDADES”, E TAMBÉM NEM
SEMPRE SEREM MENCIONADAS NAS SALAS DE AULAS, OU RECONHECIDAS PELOS
ALUNOS;

OUTRO ARGUMENTO RELEVANTE É QUE, COM O TEMPO NOS ESQUECEMOS DE MUITOS


DETALHES DAS TEORIAS, INCLUSIVE POR NÓS MESMOS DESENVOLVIDOS, ENQUANTO
QUE OS ENTENDIMENTOS MENCIONADOS , EM GERAL PERMANECEM CLAROS EM NOSSA
LEMBRANÇA POR MUITO MAIS TEMPO.

AS PRESENTES NOTAS FORAM ELABORADAS ATRAVÉS DA COMPILAÇÃO DE


INFORMAÇÕES OBTIDAS DE AULAS, CONFERÊNCIAS, ARTIGOS, TEXTOS E VÍDEOS,
DIDÁTICOS E DE DIVULGAÇÃO, E, PRINCIPALMENTE PELA INTERNET (WIKIPEDIA,
ENCYCLOPEDIA OF MATHEMATICS, ETC.), COM O APROVEITAMENTO DE EXPRESSÕES,
FRASES, ENTENDIMENTOS E INTERPRETAÇÕES, CONSIDERADOS ELUCIDATIVOS.

EM GERAL, NAS DISCIPLINAS DE EVOLUÇÃO DAS IDÉIAS, SÃO DESTACADAS AS


CONTRIBUIÇÕES: DOS QUE OBTIVERAM AS SÍNTESES DE SUCESSO (MESMO QUE
TEMPORÁRIO), E DOS QUE SUGERIRAM IDÉIAS, DIREÇÕES E PROCEDIMENTOS, QUE
FORAM APROVEITADOS NA OBTENÇÃO DESSAS SÍNTESES.

DESTACAMOS TAMBÉM, “O EFEITO DAS ACADEMIAS”, OU SEJA, QUE A GRANDE MAIORIA


DOS PESQUISADORES COM CONTRIBUIÇÕES SIGNIFICATIVAS, FORAM OU TIVERAM
ORIENTADOS, QUE TAMBÉM CONTRIBUÍRAM (Mathematics Genealogy Project): ESCOLA DE
MILETO, “ESCOLA PITAGÓRICA”, “GRUPO SOCRÁTICO”, ACADEMIA DE PLATÃO, ESCOLA
DOS SOFISTAS, LICEU DE ARISTÓTELES, ESCOLA DE ALEXANDRIA, CASA DA SABEDORIA
(ONDE SE TRADUZIRAM OS TEXTOS GREGOS PARA A LÍNGUA ÁRABE), AS FACULDADES,
UNIVERSIDADES E INSTITUTOS DE PESQUISAS CONCEITUADOS, ETC., ALÉM DE PROJETOS
DE REPERCUSSÃO, COMO A ENCYCLOPÉDIE, DE 28 VOLUMES, EDITADA POR J.LE R.
D’ALEMBERT E D.DIDEROT EM 1772, O PROJETO DE HILBERT, PROJETOS ESTRATÉGICOS,
RELACIONADOS AO DESENVOLVIMENTO DE ARMAS, OS PROGRAMAS ESPACIAIS, O
INCENTIVO ÀS UNIVERSIDADES NORTE AMERICANAS APÓS O LANÇAMENTO DO SPUTNIK
1 PELA UNIÃO SOVIÉTICA (URRS) EM 1957, QUE FOI O PRIMEIRO SATÉLITE ARTIFICIAL DA
TERRA, ETC., E QUE, DESDE A ANTIGUIDADE, OS GOVERNANTES REQUISITAVAM OS
ESPECIALISTAS PARA PRESTAR CONSULTORIA SOBRE OS PROBLEMAS PRÁTICOS
RELEVANTES DA ÉPOCA.

FIZEMOS A SUGESTÃO DE QUE, COM SEU CONTEÚDO E NO ESTILO DE BREVE RELATO,


FOSSEM INSTITUÍDAS DISCIPLINAS NECESSÁRIAS, PARA A GRADUAÇÃO (SEM OS
APÊNDICES) E PÓS-GRADUAÇÃO, QUE PODERIAM SUBSIDIAR CARREIRAS DOCENTES E DE
PESQUISA, ALÉM DA ADMINISTRAÇÃO TÉCNICA. ALÉM DISSO: 1) QUE A SUA
COMPLEMENTAÇÃO (TENDO EM VISTA AS SUBÁREAS, NÍVEL, OU DESTAQUES PARA
ELUCIDAÇÃO DE CONTROVÉRSIAS OU OPÇÕES ATUAIS DE ENTENDIMENTO), SEJAM
CONDUZIDAS ATRAVÉS DE APÊNDICES APROPRIADOS; E 2) QUE A IDENTIFICAÇÃO DE
POSSÍVEIS IMPRECISÕES OU MESMO ENGANOS, SEJA ENTENDIDA COMO UMA
OPORTUNIDADE DE CONTRIBUIÇÃO À SUA MELHORA. //

----------------xxx------------------

3
APRESENTAÇÃO..............................................................................6
I- CRONOLOGIA ANTIGA .....................................................................11
II- O SURGIMENTO DA CIÊNCIA GREGA...............................................12
III-CONTRIBUIÇÃO DOS PESQUISADORES
ÁRABES/ISLÂMICOS..........................................................................27
EVOLUÇÃO À PARTIR DO MÉTODO CIENTÍFICO
IV-PRINCÍPIOS DA ÓTICA GEOMÉTRICA, LEI DE HOOKE e
AS LEIS DA MECÂNICA CLÁSSICA.......................................................31
CÁLCULO DIFERENCIAL E INTEGRAL..................................................38
EQUAÇÕES DIFERENCIAIS ORDINÁRIAS.............................................41
EXEMPLOS DE FORÇAS: GRAVIDADE (37), ATRITOS (42), RESISTÊNCIA
DO AR (44), ELÉTRICA e MAGNÉTICA (45)

O CONCEITO DE ENERGIA MECÂNICA...............................................48


V- EQUAÇÕES DIFERENCIAIS PARCIAIS.............................................59
O TEOREMA DA DIVERGÊNCIA (63), E

O EQUACIONAMENTO DAS LEIS DE CONSERVAÇÃO.........................64

APÊNDICE III - RIEMANN/ LEBESGUE INTEGRATION


FUNDAMENTAL THEOREMS OF CALCULUS………..[72,86]

APÊNDICE IV – EQUAÇÕES PROVENIENTES DA FÍSICA .......


LEIS DA TERMODINÂMICA.......................................................87
ELETROMAGNETISMO, EQUAÇÕES DE MAXWELL.................88/9

DINÂMICA DOS FLUIDOS..........................................................92


EQUAÇÕES DE NAVIER-STOKES................................................95
MECÂNICA DO CONTÍNUO.......................................................97
DESIGUALDADE DE CLAUSIUS-DUHEM.....................................97
MECÂNICA QUÂNTICA................................................................99
THE PATH INTEGRAL FORMULATION.......................................103
TEORIA DA RELATIVIDADE......................................................104

APÊNDICE IV1_FÍSICA DAS PARTÍCULAS+GRAVIDADE QUÂNTICA..[107,119]

FÍSICA DAS PARTÍCULAS, O MODÊLO PADRÃO..................................107

MODELOS DE EXPLICAÇÃO DO UNIVERSO ........................................118

4
A EQUAÇÃO GERAL, EQUAÇÕES INTEGRAIS.................................120/1

TIPOS DE TEOREMAS GERAIS DE EXISTÊNCIA..................................123

APÊNDICE V - THEORY OF LINEAR PARTIAL DIFFERENTIAL


EQUATIONS...........................................................................[127,164]
FOURIER TRANSFORM............................................................131
ELLIPTIC OPERATOR .........……………………......................…….….140
PARABOLIC PDE......................................................................145
HYPERBOLIC PDE.....................................................................146
PSEUDO-DIFFERENTIAL OPERATORS.................................…....160
FOURIER INTEGRAL OPERATORS...............................................163

NONLINEAR PARTIAL DIFFERENTIAL EQUATIONS.............................165


VI- FUNDAMENTAÇÃO DA ANÁLISE, AS GENERALIZAÇÕES E AS
DECORRENTES QUESTÕES DE FUNDAMENTAÇÃO.............................176
AS LIMITAÇÕES DOS SISTEMAS FORMAIS.........................................178
AS ESTRUTURAS ABSTRATAS E SUAS LIMITAÇÕE..............................179
ENSINO/APRENDIZADO ............................................................. 186

TEORIA GERAL DOS SISTEMAS..........................................................189

O PROCESSO RACIONAL APLICADO COMPLETO................................197

MATHEMATICAL DYNAMICAL SYSTEMS...........................................197

EXEMPLES: POPULATION GROWTH (209); LOTKA-VOLTERRA EQUATIONS


(215); GENE PROPAGATION EQUATIONS (219); THE HODGKIN–HUXLEY
MODEL (219); PENDULUM (220); LORENZ SISTEM (240)

PROBABILIDADE e ESTATÍSTICA………………………….......................…...246

PROCESSAMENTO DIGITAL/ELETRÔNICO DE DADOS........................255

MATHEMATICAL OPTIMIZATION/LINEAR PROGRAMMING..............261

CONTROL THEORY...........................................................................271

PERSPECTIVES……………………………………………………………………………….291

OBSERVAÇÕES…………………………………………………………...................…294

5
APRESENTAÇÃO
- DESDE A FAMOSA FRASE DE SÓCRATES (SEC V AC): “O ARTÍFICE SABE MAIS DO SEU OFÍCIO DO
QUE O FILÓSOFO (DA ÉPOCA) DE SUA FILOSOFIA”, VEM SENDO CONSTATADO PELOS INTELECTUAIS
(E CONFIRMADO PELAS LIMITAÇÕES DE SEUS ENTENDIMENTOS E TEORIAS), E TAMBÉM PELOS
CIENTISTAS, QUE, EM GERAL, A CONTEMPLAÇÃO INTELECTUAL CRITERIOSA DE UMA ATIVIDADE SE
CONSTITUI EM TAREFA MAIS LABORIOSA DO QUE A SUA PRÁTICA.

- NO SÉCULO VI AC – PITÁGORAS, DE SAMOS TERIA ENUNCIADO O SEU PROJETO


MATEMÁTICO/FILOSÓFICO DE QUE:

“TODAS AS COISAS PODEM SER REDUZIDAS À SUA ESSÊNCIA NUMÉRICA (ATRAVÉS DOS NÚMEROS
RACIONAIS, OU SEJA, QUOCIENTES DE NÚMEROS INTEIROS)”;

MUITOS PESQUISADORES SE PERGUNTAM ATÉ HOJE, SOBRE AS RAZÕES DO SURGIMENTO DA


CIÊNCIA GREGA;

- PARECE NÃO HAVER MAIORES DÚVIDAS DE QUE A DEMONSTRAÇÃO, PELOS PITAGÓRICOS, DO


FATO ALTAMENTE NÃO INTUITIVO DE QUE: NÃO EXISTE UM SEGMENTO DE RETA, POR MENOR
QUE SEJA, QUE ‘CAIBA’ UM NÚMERO FINITO DE VEZES NO LADO E NA DIAGONAL DE UM
QUADRADO (OU SEJA, DE QUE ESSES SEGMENTOS SÃO INCOMENSURÁVEIS ENTRE SI) TERIA
PROVOCADO UMA “CRISE” NA MATEMÁTICA GREGA (POR TER SE CHEGADO A UMA CONCLUSÃO
NÃO INTUITIVA), E TERIA INDUZIDO, À PARTIR DE MEADOS DO SÉCULO V AC, COM HIPÓCRATES DE
QUIOS AO CAMINHO DA “MATEMÁTICA COM DEMONSTRAÇÃO”, E POSTERIORMENTE À
GEOMETRIA EUCLIDIANA, QUE REPRESENTOU A 1ª GRANDE SÍNTESE MATEMÁTICA, APRESENTADA
ATRAVÉS DO MÉTODO AXIOMÁTICO, ONDE A PARTIR DE CONCEITOS PRIMITIVOS E POSTULADOS
(QUE SÃO PROPRIEDADES ENVOLVENDO ESSES CONCEITOS), DEFINE-SE OUTROS CONCEITOS E
DERIVA-SE LOGICAMENTE AS PROPOSIÇÕES VÁLIDAS NA TEORIA.

- A ABORDAGEM DOS PROBLEMAS ASTRONÔMICOS;

- O SURGIMENTO DA ÁLGEBRA, A PARTIR DE AL-KHWARIZMI (SEC IX), e SUA UTILIZAÇÃO NA


ABORDAGEM DE PROBLEMAS GEOMÉTRICOS POR IBN AL-HAYTHAM (ALHAZEN) (SEC X/XI), POR
ISSO CONSIDERADO PRECURSOR DA CHAMADA GEOMETRIA ANALÍTICA, DESENVOLVIDA POR RENÉ
DESCARTES NO SÉC XVII;

- O SURGIMENTO DO CÁLCULO DIFERENCIAL e INTEGRAL (LEIBNIZ e NEWTON); e

- O DESENVOLVIMENTO DE MÉTODOS PARA A ABORDAGEM DAS CHAMADAS EQUAÇÕES


DIFERENCIAIS, TORNARAM POSSÍVEIS OS EQUACIONAMENTOS E A ABORDAGEM QUANTITATIVA
DOS (EM GERAL) CHAMADOS SISTEMAS DINÂMICOS (ENVOLVENDO MOVIMENTOS,
TRANSFERÊNCIA DE ENERGIA, CALOR, CORRENTE ELÉTRICA, ONDAS ELETROMAGNÉTICAS, ETC.).

- ENQUANTO ISSO, A EXPERIMENTAÇÃO CIENTÍFICA (INCLUSIVE COM A CONSTRUÇÃO DE


EQUIPAMENTOS APROPRIADOS), INICIADA POR ALHAZEN (SÉC. X), SEGUIDO POR IBN-SINA E ABU’L
BARAKÁT AL-BAGHDÁDI, DEFENDIDA POR ROGER BACON (1220/1292) e FORMALMENTE
ENUNCIADA POR FRANCIS BACON (1605/1620), NO SEU MÉTODO EXPERIMENTAL INDUTIVO, e
GALILEU GALILEI (1638) NO SEU MÉTODO CIENTÍFICO, PERMITIRAM, A PARTIR DA LEI DA
GRAVITAÇÃO UNIVERSAL DE ISAAC NEWTON (1687), E, POR ELE PRÓPRIO ENUNCIADO, O
ENTENDIMENTO OPERACIONAL (PROVISÓRIO) DE QUE:

EMBORA NÃO SE CONHECESSE A NATUREZA (OU O MECANISMO DE AÇÃO) DA FORÇA


GRAVITACIONAL À DISTÂNCIA, ERA POSSÍVEL MENSURAR OS SEUS EFEITOS E RECONHECER SUAS
REGULARIDADES (ATRAVÉS DE LEIS QUANTITATIVAS).

6
- A MECÂNICA DE NEWTON É CONSIDERADA A 2ª GRANDE SÍNTESE MATEMÁTICA, AO, NO ESPAÇO
DA GEOMETRIA EUCLIDIANA, OBTER LEIS DE MOVIMENTO, QUE DESCREVEM TANTO OS
MOVIMENTOS TERRESTRES, QUANTO OS CELESTES, QUE DESDE ARISTÓTELES ERAM TRATADOS
SEPARADAMENTE. ALÉM DISSO, CONSEGUIU PREVER A EXISTÊNCIA DE PLANETAS.

- O SUCESSO DA SÍNTESE DE NEWTON REFORÇOU: A EXPERIMENTAÇÃO CONTROLADA, COMO


CRITÉRIO DE OBJETIVAÇÃO E VALIDAÇÃO DAS DESCRIÇÕES CIENTÍFICAS EM GERAL, O MÉTODO
CIENTÍFICO DE ALHAZEN/GALILEU, E O MÉTODO AXIOMÁTICO COMO PADRÃO DE APRESENTAÇÃO
DAS TEORIAS DEDUTIVAS (MATEMÁTICAS E FÍSICO-MATEMÁTICAS), E MOTIVOU AS PESQUISAS
SUBSEQUENTES;

ENQUANTO A FÍSICA SEGUIU PELO MÉTODO CIENTÍFICO, REFERENCIADA NAS EXPERIMENTAÇÕES E


APRESENTADA ATRAVÉS DO MÉTODO AXIOMÁTICO, AS CHAMADAS CIÊNCIAS EXPERIMENTAIS
(QUÍMICA, BIOLOGIA, MEDICINA, ETC.), SEGUIRAM PELO MÉTODO EXPERIMENTAL INDUTIVO, COM
O AGRAVANTE DAS LIMITAÇÕES EXPERIMENTAIS PARA A FISIOLOGIA E MEDICINA HUMANAS. DO
MESMO MODO QUE OS FILÓSOFOS (TEÓRICOS), A QUASE TOTALIDADE DESSES PESQUISADORES
INCORRERAM EM ENGANOS, AO, DIANTE DAS LIMITAÇÕES EXPERIMENTAIS, EXTRAPOLAREM SUAS
CONCLUSÕES. SALIENTE-SE QUE: A ANTECIPAÇÃO DE CONCLUSÕES FEZ, E AINDA FAZ, PARTE DO
PROCESSO DE DESENVOLVIMENTO DESSES ASSUNTOS, EM GERAL, COM LAUREAÇÃO DOS
ACERTOS.

- O MÉTODO CIENTÍFICO PREVALECEU, E DE MODO GERAL, PARALELAMENTE À INTUIÇÃO DE


ALGUNS EXCEPCIONALMENTE VOCACIONADOS, PRATICAMENTE TODA A SUSTENTAÇÃO TÉCNICA
JÁ É REFERENCIADA EM ALGUM TIPO DE QUANTIFICAÇÃO E EXPERIMENTAÇÃO PRÁTICA (P.EX.
ATRAVÉS DE PROTÓTIPOS, SIMULAÇÕES, PESQUISAS DE MERCADO OU DE OPINIÃO, ETC).

- EM MEADOS DO SEC XVIII, d’ALEMBERT, EULER e D.BERNOULLI ABORDARAM O PROBLEMA DA


CORDA VIBRANTE, CHEGANDO À MESMA EQUAÇÃO DIFERENCIAL PARCIAL, MAS DIVERGINDO
SOBRE AS SOLUÇÕES ENCONTRADAS.

- NO INÍCIO DO SÉCULO XIX, NA SUA INVESTIGAÇÃO SOBRE A CONDUÇÃO DO CALOR, J. FOURIER


CHEGOU À EQUAÇÃO DO CALOR (EDP), E ÀS SÉRIES E TRANSFORMADAS DE FOURIER COMO
EXPRESSÃO PARA AS SOLUÇÕES. A FUNÇÃO DE GRENN (~1830) E OS OPERADORES PSEUDO-
DIFERENCIAIS E INTEGRAIS DE FOURIER, DESENVOVIDOS NA SEGUNDA METADE DO SÉCULO XX,
ENTRE OUTROS OBJETOS, TAMBÉM TIVERAM A MOTIVAÇÃO DE RESOLVER EQUAÇÕES ATRAVÉS DE
ALGUMA FORMA DE EXPRESSÃO PARA AS SOLUÇÕES.

- NA ESPERANÇA DE AMPLIAR O ALCANCE DO MÉTODO E DA INTEGRAÇÃO, RIEMANN LANÇOU


MÃO DE UMA DEFINIÇÃO OPERACIONAL, CHAMANDO DE “INTEGRÁVEIS, À CLASSE DE TODAS AS
FUNÇÕES LIMITADAS, PARA AS QUAIS O PROCESSO DE INTEGRAÇÃO PUDESSE SER EFETIVADO”
(PARA, EM SEGUIDA, SEREM CARACTERIZADAS EM TERMOS DE PROPRIEDADES MAIS SIMPLES DE
SEREM VERIFICADAS, NO CASO, CONTINUIDADE). DE MODO ANÁLOGO AO QUE OCORRERA COM A
DESCOBERTA DOS SEGMENTOS INCOMENSURÁVEIS, SURGIRAM FUNÇÕES E CONJUNTO DE PONTOS
ESTRANHOS ÀS INTUIÇÕES DOS PESQUISADORES DA ÉPOCA, FATO QUE MOTIVOU UM GRUPO DELES
A DEDICAR-SE À PESQUISA DE QUESTÕES RELACIONADAS À FUNDAMENTAÇÃO DA MATEMÁTICA.

NA INTENÇÃO DE FUNDAMENTAR A DEFINIÇÃO DE RIEMANN, G. FREGE SUGERIU UMA TEORIA DE


CONJUNTOS, NA QUAL “TODA PROPRIEDADE DEFINISSE UM CONJUNTO, DOS ELEMENTOS QUE A
SATISFIZESSEM”, TENDO A PRÓPRIA PUBLICAÇÃO, CONTADO COM A DEMONSTRAÇÃO DE B.
RUSSELL DE QUE: “A EXISTÊNCIA DE UM CONJUNTO UNIVERSO U , QUE CONTIVESSE TODOS OS
ELEMENTOS (INCLUSIVE O PRÓPRIO U) CONDUZIRIA A UMA CONTRADIÇÃO” , QUE ENUNCIOU O SEU
PRINCÍPIO DO CÍRCULO VICIOSO: “TUDO AQUILO QUE IMPLICA A TOTALIDADE DE UMA COLEÇÃO,

7
NÃO DEVE SER MEMBRO DA COLEÇÃO”, E LEVANTANDO O PROBLEMA DE QUAL SERIA A REGRA DE
FORMAÇÃO DOS CONJUNTOS......

- EM MEADOS DO SEC XIX, OBTEVE-SE AS LEIS DA TERMODINÂMICA , A MECÂNICA DOS FLUIDOS e


DO CONTÍNUO, e ATRAVÉS DAS EQUAÇÕES DE MAXWELL, A AXIOMATIZAÇÃO DO
ELETROMAGNETISMO, CONSIDERADA A 3ª GRANDE SÍNTESE MATEMÁTICA, AO UNIFICAR:
ELETRICIDADE, MAGNETISMO e LUZ, NUM SÓ TRATAMENTO MATEMÁTICO, ALÉM DE PREVER AS
OUTRAS RADIAÇÕES DO CHAMADO ESPÉCTRO ELETROMAGNÉTICO. TAIS ASSUNTOS GERARAM
EQUAÇÕES DIFERENCIAIS PARCIAIS. EM SEGUIDA, INICIOU-SE A TEORIA ABSTRATA, COM A
PESQUISA DA EXISTÊNCIA E OUTRAS PROPRIEDADES (P.EX. EXISTÊNCIA DE ÓRBITAS PERIÓDICAS E
ESTABILIDADE DO SISTEMA SOLAR-PROBLEMA DE TRÊS CORPOS, COM POINCARÉ e LIAPONOV) DAS
SOLUÇÕES, SEM A NECESSIDADE DE SUA EXIBIÇÃO ATRAVÉS DE UMA FÓRMULA EXPLICITA (OU
SEJA, COM A UTILIZAÇÃO DE EXISTÊNCIAS NÃO CONSTRUTÍVEIS). OUTRAS EQUAÇÕES FORAM
GERADAS PELA TEORIA DA RELATIVIDADE, MECÂNICA QUÂNTICA, BIOFÍSICA, BIOLOGIA, ETC. DE
MODO QUE O DESENVOLVIMENTO DA MATEMÁTICA TRANSCORREU INTIMAMENTE
RELACIONADO À ABORDAGEM DESSAS EQUAÇÕES.

NA MECÂNICA DE NEWTON, CONHECIDA A LEI DE MOVIMENTO DE UMA PARTÍCULA, E MAIS SUA


POSIÇÃO E VELOCIDADE INICIAIS, É POSSÍVEL DETERMINAR TODA A SUA TRAJETÓRIA, PASSADA E
FUTURA (DETERMINISMO NEWTONIANO); NA MECÂNICA QUÂNTICA, UTILIZAM-SE DESCRIÇÕES
PROBABILÍSTICAS PARA AS PARTÍCULAS ELEMENTARES; ENQUANTO QUE, A MECÂNICA ESTATÍSTICA
VISA, À PARTIR DO COMPORTAMENTO INCERTO DESSAS PARTÍCULAS ELEMENTARES, JUSTIFICAR AS
REGULARIDADES OBSERVADAS NOS CONJUNTOS DE PARTÍCULAS, NO NOSSO NÍVEL
MACROSCÓPICO.

- NO SEC XX , OS PESQUISADORES GENERALIZARAM AO MÁXIMO OS MÉTODOS DE ABORDAGEM


DAS EQUAÇÕES EM GERAL, TENDO DESENVOLVIDO TEORIAS FUNDAMENTAIS (ESPECIALMENTE
PARA AS LINEARES) PARA A PESQUISA DA EXISTÊNCIA E REGULARIDADE, UNICIDADE OU
MULTIPLICIDADE, E CONTINUIDADE EM RELAÇÃO AOS DADOS DAS SOLUÇÕES, ALÉM DE
MÉTODOS DE ANÁLISE NUMÉRICA PARA CADA CLASSE ESPECÍFICA DE EQUAÇÕES.

- EXEMPLOS E CONTRA-EXEMPLOS SERVEM COMO GUIA PARA A ELABORAÇÃO DAS TEORIAS. O


FATO DE NÃO SE TER TEOREMAS DE EXISTÊNCIA PARA EQUAÇÕES RELEVANTES (MAS APENAS
MÉTODOS NUMÉRICOS APROXIMADOS), E TEORIAS MAIS ABRANGENTES PARA AS NÃO LINEARES,
INDUZIU A UM RETORNO ÀS APLICAÇÕES PRÁTICAS, E À ABORDAGEM DAS EQUAÇÕES QUE, DE
FATO, TERIAM INTERESSE PARA ESSAS APLICAÇÕES. A ANÁLISE NUMÉRICA TEM REVELADO
COMPORTAMENTO CAÓTICO (TURBULÊNCIAS, MUDANÇA REPENTINA DE PADRÃO ESTRUTURAL,
ETC.) PARA SISTEMAS NÃO MUITO COMPLEXOS, COMO UMA CADEIA ALIMENTAR COM TRÊS
ELEMENTOS (EQUACIONADA ATRAVÉS DE SISTEMAS DE TRÊS EQUAÇÕES, COM TRÊS INCOGNITAS,
CONTENDO O PRODUTO DE DUAS DAS INCÓGNITAS, COMO TERMOS NÃO LINEARES). ALÉM
DISSO, NOÇÕES DO SISTEMA PRÁTICO ENVOLVIDO, AS VEZES SUGEREM OPÇÕES DE ABORDAGEM,
QUE NÃO CONVÉM (E NÃO HÁ MOTIVO PARA) DESCARTAR.

- ATUALMENTE, TEMOS TEORIAS MATEMÁTICAS PRONTAS PARA SEREM APLICADAS, E QUE TEM
APLICAÇÃO (COMO ALGUMAS DAS TEORIAS MENCIONADAS), E TEORIAS EM ELABORAÇÃO, A
MAIORIA INSPIRADA EM PROBLEMAS DA PRÁTICA, QUE, DEPENDENDO DOS RESULTADOS (A SEREM)
OBTIDOS, PODERÃO VIR A TER APLICAÇÃO, TAMBÉM A EXEMPLO DAS TEORIAS MENCIONADAS.

QUANTO AOS ENTENDIMENTOS (PONTOS DE VISTA), TIVEMOS:

EM 1637, O FRANCÊS RENÉ DESCARTES, EM SEU “DISCURSO SOBRE O MÉTODO”, TENTOU


DESCREVER DE FORMA GERAL, O QUE SERIA O “MÉTODO AXIOMÁTICO”, MAS NÃO ATENDEU ÀS
EXIGÊNCIAS CIENTÍFICAS DE OBJETIVAÇÃO, AO SUGERIR QUE OS AXIOMAS DAS TEORIAS PUDESSEM

8
SER “VALIDADOS APENAS PELO QUESTIONAMENTO TEÓRICO” , TENDO PREVALECIDO, O MÉTODO
CIENTÍFICO DE ALHAZEN/ GALILEU.

- EM 1781, EM SUA “CRITICA DA RAZÃO PURA”, IMMANUEL KANT, PRETENDEU UMA SÍNTESE
CONCILIATÓRIA, AO SUGERIR A EXISTÊNCIA DO QUE CHAMOU DE “JUÍZOS SINTÉTICOS A PRIORI”,
QUE NÃO DEPENDERIAM DA EXPERIÊNCIA, E DOS QUAIS, O TEMPO E AS FORMAS GEOMÉTRICAS DA
GEOMETRIA EUCLIDIANA SERIAM EXEMPLOS; COM A DESCRIÇÃO, À PARTIR DE LOBACHEVSKI, EM
1829, DE GEOMETRIAS NÃO EUCLIDIANAS, E O ADVENTO DA TEORIA DA RELATIVIDADE, ADMITINDO
A OPÇÃO DE O ESPAÇO-TEMPO FÍSICO SER DESCRITO DE FORMA ATÉ MAIS REALISTA, POR ALGUMA
DELAS, E O TEMPO DEPENDER DA VELOCIDADE DO OBSERVADOR, SUA TEORIA NÃO MANTEVE A
SUSTENTAÇÃO, A PONTO DO MATEMÁTICO FRANCÊS H. POINCARÉ, NO FINAL DO SÉCULO XIX,
TER AFIRMADO QUE: “AS LEIS MAIS GERAIS DA NATUREZA, COMO AS LEIS GERAIS DO ESPAÇO E
DO TEMPO, NÃO SÃO DERIVÁVEIS DA EXPERIÊNCIA E NEM VERDADES LÓGICAS, MAS
CONVENÇÕES USADAS NA SISTEMATIZAÇÃO DOS DADOS EMPÍRICOS”.

- COM A PUBLICAÇÃO, EM 1859, POR C. DARWIN, DA OBRA “A ORIGEM DAS ESPÉCIES”, TEVE INÍCIO
O PONTO DE VISTA EVOLUCIONISTA, SEGUNDO O QUAL, “SOMOS PRODUTOS DE UMA EVOLUÇÃO,
QUE ENVOLVEU UMA CONTÍNUA INTERAÇÃO COM O AMBIENTE”.

O PONTO DE VISTA EVOLUCIONISTA, VEIO A SER FORMALIZADO E GENERALIZADO, PELO AUSTRÍACO


LUDWIG VON BERTALANFY, NA DÉCADA DE 1920 E 1940, ATRAVÉS DA TEORIA GERAL DOS
SISTEMAS, QUE ENTENDE SISTEMA COMO “UM CONJUNTO DE PARTES (OU SUCESSÃO DE
EVENTOS) INTERRELACIONADOS ENTRE SI, E COM O AMBIENTE, COM OS QUAIS PODE TROCAR
ENERGIA, INFORMAÇÃO E MATÉRIA (INSUMOS MATERIAIS)”. TAL CONCEITUAÇÃO FORNECE
LINGUAGEM E CONCEITOS COMUNS A DIFERENTES ÁREAS DO CONHECIMENTO HUMANO (P.EX.
SISTEMAS NATUARIAS, BIOLÓGICOS, ECOSISTEMAS, SISTEMAS MECÂNICOS, ELETROMECÂNICOS,
MECATRÔNICOS, SOCIAIS, ECONÔMICOS, SOCIOECONÔMICOS, ECOSOCIOECONÔMICOS, ETC.),
SIMPLIFICANDO AS ABORDAGENS MULTICIPLINARES.

O AUTOR ENUNCIOU OS PROPÓSITOS DA TEORIA GERAL DOS SISTEMA:

1) HÁ UMA TENDÊNCIA GERAL NO SENTIDO DA INTEGRAÇÃO NAS VÁRIAS CIÊNCIAS, NATURAIS


E SOCIAIS.
2) ESTA INTEGRAÇÃO PARECE CENTRALIZAR-SE EM UMA TEORIA GERAL DOS SISTEMAS.
3) ESTA TEORIA PODE SER UM IMPORTANTE MEIO PARA ALCANÇAR UMA TEORIA EXATA NOS
CAMPOS NÃO FÍSICOS DA CIÊNCIA.
4) DESENVOLVENDO PRINCÍPIOS UNIFICADORES QUE ATRAVESSAM “VERTICALMENTE” O
UNIVERSO DAS CIÊNCIAS INDIVIDUAIS, ESTA TEORIA APROXIMA-NOS DA META DA UNIDADE
DA CIÊNCIA.
5) ISTO PODE CONDUZIR À INTEGRAÇÃO MUITO NECESSÁRIA NA EDUCAÇÃO CIENTÍFICA
(...CONTRIBUINDO PARA A FORMAÇÃO DE GENERALISTAS CIENTÍFICOS).

Em “The Education of a Scientific Generalist”, o Engenheiro H.Bode, Sociólogo F.Mosteller,


Matemático F.Tukey e Biologista C.Winsor, 1949, Science, 109, p. 553, enunciam:

“Muitas vezes ouvimos dizer que ‘um único homem não pode mais abranger um campo bastante
amplo’ e que ‘há demasiada especialização estreita’...Necessitamos de uma abordagem mais
simples, mais unificada dos problemas científicos, necessitamos de homens que pratiquem a ciência
e não de uma ciência particular, numa palavra, necessitamos de generalistas científicos” (Bode e
col. 1949). (...especialmente para integrar equipes multidisciplinares!).

QUANTO AOS MÉTODOS QUANTITATIVOS APLICADOS AOS SISTEMAS, UTILIZA-SE:


>MÉTODOS ANALÍTICOS: EQUAÇÕES DIFERENCIAIS ORDINÁRIAS E A DERIVADAS PARCIAIS, TEORIA
DO CONTROLE, OTIMIZAÇÃO, TEORIA DO JOGOS, ETC. .

9
>PROGRAMAÇÃO MATEMÁTICA: LINEAR, CONVEXA, INTEIRA, OTIMIZAÇÃO; .
>MÉTODOS COMPUTACIONAIS (OU NUMÉRICOS); .
>MÉTODOS ESTATÍSTICOS: PROBABILIDADES, PREDIÇÕES PROBABILÍSTICAS, ESTATÍSTICA, TEORIA
DA DECISÃO ESTATÍSTICA, ETC, E .

- APÓS A CONSTATAÇÃO DAS LIMITAÇÕES TANTO DAS EXPERIMENTAÇÕES (DESDE O NÍVEL DAS
PARTÍCULAS ELEMENTARES-PRINCÍPIO DA INCERTEZA-, ATÉ O DO ESPAÇO SIDERAL), QUANTO DAS
TEORIAS (CONSTATADAS INCLUSIVE PELOS TEOREMAS DE GÖDEL), APRESENTOU ADERÊNCIA
CRESCENTE, O ENTENDIMENTO OPERACIONAL PROVISÓRIO, DE QUE: NO ESTÁGIO ATUAL DE
INFORMAÇÃO E CONHECIMENTO, PODEMOS AFIRMAR, COM PRECISÃO CRESCENTE, ESTARMOS
LOCALMENTE (NO ESPAÇO E NO TEMPO), NUMA CONFIGURAÇÃO DE RELATIVA ESTABILIDADE
(INCLUSIVE AMBIENTAL, O QUE JUSTIFICARIA NÃO SÓ A EXISTÊNCIA DAS LEIS FÍSICAS, MAS
TAMBÉM DA NOSSA PRÓPRIA EXISTÊNCIA E EVOLUÇÃO), E QUE, AS TEORIAS DE QUE DISPOMOS
REPRESENTAM APROXIMAÇÕES ÚTEIS DESSA NATUREZA LOCAL. //

10
I- CRONOLOGIA ANTIGA
~ 3100 AC : É CRIADO NA SUMÉRIA, O CALENDÁRIO LUNAR DE DOZE MESES, E UM

SISTEMA DE PESOS E MEDIDAS;

~ 2500 AC: É CRIADO, NA MESOPOTÂMIA, O SISTEMA DE NUMERAÇÃO

SEXAGESIMAL, QUE DIVIDIU O TEMPO EM MINUTOS E SEGUNDOS, O CÍRCULO EM 360


GRAUS; PARA O NÚMERO π = RELAÇÃO ENTRE O RAIO E O COMPRIMENTO DE UMA
CIRCUNFERÊNCIA, É USADO O NÚMERO 3 ;

~ 1850 AC : PAPIRO DE MOSCOU: TRANSCRIÇÃO DE 25 PROBLEMAS (PROVÀVELMENTE


LISTA DE EXERCÍCIOS PARA OS FILHOS DE NOBRES E PROFISSIONAIS DA ÉPOCA): O VALOR
USADO PARA π É 3,14 ;

~ 1650 AC : PAPIRO DE AHMES: TRANSCRIÇÃO DE 85 PROBLEMAS (DE PROVÁVEL TEXTO


MAIS ANTIGO ); π ~ 3,16 ; QUADRATURA DO CÍRCULO;

~ 900 AC : É ESCRITO, NA CHINA, O PRIMEIRO MANUAL DE MATEMÁTICA CONHECIDO;

~ 700 AC : SURGEM, NA ÍNDIA, OS CÁLCULOS TRIGONOMÉTRICOS, E, NA GRÉCIA, A


MOEDA;

~ 600 AC : NO PUNJAB (ÍNDIA), O ASTRÔNOMO ARYBHATA CRIA OS NÚMEROS DE


1 a 9 ;

~ 400 AC : EM PÉRGAMO (ÁSIA MENOR), CRIA-SE UM NOVO SUPORTE PARA A ESCRITA


COM PELE DE OVELHA, O PERGAMINHO ;

~ 470 DC : O CHINÊS TSU CHUNG CHIH, CALCULA O VALOR DE π , ENTRE

3,1415926 E 3,1415927 ;

FONTE: Mathematical Chronology - MacTutor History of Mathematics


www-history.mcs.st-and.ac.uk/Chronology/full.html

APÊNDICE I_ Jöran Friberg:

-A Remarkable Collection of Babylonian Mathematical Texts and its


Review;
-Unexpected Links Between Egyptian and Babilonian Mathematics_
World Scientific (2005);
-Amazing Traces of a Babylonian Origin in Greek Mathematics_
World Scientific (2007).

11
II- O SURGIMENTO DA CIÊNCIA GREGA
1-SEGUNDO HISTORIADORES, À PARTIR DO SÉCULO XII AC, COMO RESULTADO DAS INVASÕES
DÓRICAS AOS REINOS MICÊNICOS OU AQUEANOS, CUJA CIVILIZAÇÃO SE DESENVOLVEU EM
ESTREITA LIGAÇÃO COM A CIVILIZAÇÃO CRETENCE E EM COMUNICAÇÃO COM OS POVOS
ORIENTAIS, MUITOS AQUEUS FORAM FORÇADOS A IMIGRAR PARA AS ILHAS E COSTAS DA ÁSIA
MENOR, ONDE FORAM FUNDADAS CIDADES GREGAS COMO MILETO, ÉFESO, ETC., QUE SE
TRANSFORMARAM EM GRANDES CENTROS ECONÔMICOS E CULTURAIS, FACILITADO PELA
COMUNICAÇÃO COM OS OUTROS POVOS, DECORRENTE DO DESENVOLVIMENTO DA NAVEGAÇÃO E
DA COMERCIALIZAÇÃO DA LÃ E PELE DE CARNEIRO, AZEITE DE OLIVA E OUTRAS MERCADORIAS;
DURANTE O SÉCULO VII AC, O ADVENTO DA MOEDA FACILITANDO AS TROCAS, ACELEROU O
DESENVOLVIMENTO DA REGIÃO;

2-COSTUMA-SE CONTRAPOR AO CONHECIMENTO PRÁTICO DOS ORIENTAIS (QUE


DISPUNHAM DE SOLUÇÕES NUMÉRICAS E GEOMÉTRICAS PARA ALGUNS DOS PROBLEMAS DA
ÉPOCA, RELACIONADOS A QUESTÕES COMERCIAIS; MEDIÇÃO, IRRIGAÇÃO E CULTIVO DE ÁREAS DE
TERRAS; PREVISÕES CLIMÁTICAS; CÁLCULOS ASTRONÔMICOS, DE MENSURAÇÃO DE TEMPO E DE
ROTAS DE NAVEGAÇÃO; CÁLCULOS RELACIONADOS A CONSTRUÇÕES DE TEMPLOS PALÁCIOS E
DEMAIS EDIFICAÇÕES; CÁLCULOS RELACIONADOS À DEFESA, GUERRA, ETC.), O INÍCIO DA
FILOSOFIA, UTOPIAS E TEORIAS ABSTRATAS, PELOS GREGOS, A PARTIR DO SÉCULO VI AC, E
MUITOS PESQUISADORES SE PERGUNTAM ATÉ HOJE SOBRE AS RAZÕES DESSA MUDANÇA DE
ENFOQUE;

- SÉCULO VI AC – ESCOLA DE MILETO:

3-SEGUNDO UMA TRADIÇÃO, QUE REMONTA AOS PRÓPRIOS GREGOS, O PRIMEIRO FILÓSOFO
GREGO, TERIA SIDO TALES DE MILETO (DE FAMÍLIA FENÍCIA), QUE TERIA VIVIDO ENTRE O FINAL DO
SÉCULO VII E MEADOS DO SÉCULO VI AC. SEGUNDO PAUL TANNERY, TALES INTRODUZIU NA
GRÉCIA, NOÇÕES DA MATEMÁTICA ORIENTAL, QUE ELE DESENVOLVEU E APERFEIÇOOU, E DE MITOS
EGÍPCIO: PARA ELE, A AGUA SERIA A FONTE PRIMÁRIA DE TUDO O QUE EXISTE;

4-COSTUMA SER ATRIBUÍDA A ANAXIMANDRO, SUCESSOR DE TALES NA DIREÇÃO DA ESCOLA DE


MILETO, NO SÉCULO VI AC, A NOÇÕES: DE “INFINITO OU ILIMITADO, COMO PRINCÍPIO E ELEMENTO
DE TUDO O QUE EXISTE E QUE CONTÉM TODA A CAUSA DO NASCIMENTO E DA DESTRUIÇÃO DO
MUNDO”, E A DE EVOLUÇÃO “O UNIVERSO É ANIMADO POR UMA TRANSFORMAÇÃO CONTÍNUA,
E HÁ FORÇAS OPOSTAS REGULANDO OS EXCESSOS”;

5-ANAXÍMENES: A DIVERSIDADE DE TUDO O QUE EXISTE, É PRODUZIDA ATRAVÉS DA RAREFAÇÃO E


CONDENSAÇÃO DO AR INFINITO (QUE SERIA O PRINCÍPIO OU UNIDADE PRIMORDIAL);

6- SÉCULO VI AC – HERÁCLITO, DE ÉFESO, A UNIDADE DOS OPOSTOS, OU SEJA:


“O TODO CONTÉM AS FORÇAS OPOSTAS COMO SUAS PARTES”, E
“O TODO É UMA UNIDADE COMPOSTA PELA MULTIPLICIDADE DE SUAS PARTES”.

7- SÉCULO VI AC – PITÁGORAS, DE SAMOS: “O AR INFINITO, DE NATUREZA DIVINA, PENETRARIA NO


MUNDO E SEPARARIA SUAS PARTES, CRIANDO OS SERES E AS COISAS, A MULTIPLICIDADE E OS
NÚMEROS”;

“TODAS AS COISAS PODEM SER REDUZIDAS À SUA ESSÊNCIA NUMÉRICA (ATRAVÉS DOS NÚMEROS
RACIONAIS, OU SEJA, QUOCIENTES DE NÚMEROS INTEIROS)”;
- FORAM ENCONTRADOS FRAGMENTOS ESCRITOS ATRIBUÍDOS A UM MEMBRO DA ESCOLA

12
PITAGÓRICA, RELATANDO EXPERIMENTOS QUE BUSCAVAM RELACIONAR OS SONS PRODUZIDOS
POR DISCOS METÁLICOS DE DIVERSOS DIÂMETROS E POR GARRAFAS CONTENDO MAIS OU MENOS
LÍQUIDO, A FRAÇÕES NUMÉRICAS, OU SEJA, A EXTENÇÃO PARA DUAS E TRÊS DIMENSÕES, DO QUE
“JÁ SE SABIA” PARA AS CORDAS: QUE “OS CHAMADOS SONS HARMÔNICOS CORRESPONDEM A
FRAÇÕES NUMÉRICAS DA CORDA”;

8-MUITOS PESQUISADORES SE PERGUNTAM ATÉ HOJE, SOBRE AS RAZÕES DO SURGIMENTO DA


MATEMÁTICA E CIÊNCIA GREGA; SEGUNDO UMA INTERPRETAÇÃO, A DESCOBERTA PELOS
PRÓPRIOS PITAGÓRICOS DE QUE EXISTEM SEGMENTOS (POR EXEMPLO, UM LADO E A DIAGONAL DE
UM QUADRADO) INCOMENSURÁVEIS ENTRE SI (QUE NÃO PODEM SER AMBOS, MEDIDOS COM
NÚMEROS RACIONAIS), OU SEJA, TAIS QUE “NÃO EXISTE UM SEGMENTO, POR MENOR QUE SEJA
(UNIDADE DE MEDIDA U), TAL QUE AS MEDIDAS DOS SEGMENTOS DADOS EM RELAÇÃO A U
(NÚMERO DE VEZES QUE U “CABE” NESSES SEGMENTOS) SEJAM NÚMEROS INTEIROS”, OU, EM
OUTRAS PALAVRAS, “EXISTEM MAIS SEGMENTOS DE RETA DO QUE NÚMEROS RACIONAIS”: NO
EXEMPLO, SE O LADO TEM MEDIDA 1 (UM), A DIAGONAL (QUE POSTERIORMENTE FOI CHAMADA DE
RAIZ QUADRADA DE 2, E INDICADA POR ), NÃO PERTENCE AO CONJUNTO DOS NÚMEROS
RACIONAIS, TERIA PROVOCADO UMA “CRISE” NA MATEMÁTICA GREGA, POR TER SE CHEGADO A
UMA CONCLUSÃO NÃO INTUITIVA, E TERIA INDUZIDO, À PARTIR DE MEADOS DO SÉCULO V AC,
COM HIPÓCRATES DE QUIOS AO CAMINHO DA “MATEMÁTICA COM DEMONSTRAÇÃO”; HÁ
REFERÊNCIAS DE QUE ALGUM TEMPO DEPOIS, JÁ SE MENCIONAVA GRANDEZAS CUJO “QUADRADO”
OU O “CUBO” PODIAM SE EXPRESSAR COMO QUOCIENTES DE NÚMEROS INTEIROS, OU SEJAM
RAÍZES QUADRADAS E CÚBICAS. DESSA LINHA TERIA SURGIDO O “TEOREMA DE PITÁGORAS”, QUE,
NO EXEMPLO PODE SER ENUNCIADO COMO : “A MEDIDA DA DIAGONAL ELEVADA AO QUADRADO
(NO CASO, x ) É IGUAL À SOMA DOS QUADRADOS DAS MEDIDAS DOS LADOS (NO
2 2
CASO 1 + 1 )”, OU SEJA, EXPRESSA A MEDIDA DA DIAGONAL ELEVADA AO QUADRADO,
COMO UM NÚMERO RACIONAL..

9-OBSERVAÇÃO: AS MÁQUINAS, EM SUA LINGUAGEM ELETRÔNICA, RECONHECEM SE “SE EXISTE


CERTA DIFERENÇA DE POTENCIAL ELÉTRICO ENTRE DOIS PONTOS”. A ESSAS SITUAÇÕES, PODE-SE
FAZER CORRESPONDER OS NÚMEROS UM E ZERO, RESPECTIVAMENTE; SABEMOS QUE NO “SISTEMA
BINÁRIO” TODO NÚMERO NATURAL PODE SER ESCRITO COMO SOMA DE POTÊNCIAS DE DOIS, COM
1 0
COEFICIENTES “ZERO OU UM” (POR EXEMPLO, 1 × 2³ + 0 × 2² + 1 × 2 + 1 × 2 = 11, OU SEJA, NO
SISTEMA BINÁRIO, PODEMOS REPRESENTAR O NÚMERO 11 PELA SEQUÊNCIA 1011 COMPOSTA
PELOS NÚMEROS ZERO E UM); PARA REPRESENTAR UM NÚMERO SUFICIENTE DE NÚMEROS,
OPERAÇÕES E FUNÇÕES NUMÉRICAS, LETRAS, PALAVRAS, SÍMBOLOS, ETC., TAMBÉM SE USAM
SEQUÊNCIAS COMPOSTAS PELOS NÚMEROS ZERO E UM (QUE COMPÕEM O “CÓDIGO DE
MÀQUINA”). ATUALMENTE, COM A CHAMADA TECNOLOGIA DIGITAL, CONSEGUE-SE REPRESENTAR
SONS E IMAGENS ATRAVÉS DE SEQUÊNCIAS NUMÉRICAS CONTENDO APENAS OS NÚMEROS ZERO E
UM, OBTENDO-SE ASSIM, MAIS DE 2500 ANOS DEPOIS, ÊXITO PARA ÊSSE ASPÉCTO DO PROJETO
PITAGÓRICO.
VALE NOTAR QUE, SEGUNDO O PONTO DE VISTA EVOLUCIONISTA, SOMOS PRODUTOS DE UMA
EVOLUÇÃO QUE ENVOLVEU UMA CONTÍNUA INTERAÇÃO COM O AMBIENTE NATURAL, O QUE
CONFERE AO NOSSO CÉREBRO, A CAPACIDADE DE PROCESSAR IMAGENS (GEOMÉTRICAS), SONS E
OUTRAS INFORMAÇÕES PROVENIENTES DOS SENTIDOS, INCLUINDO UMA CAPACIDADE LIMITADA DE

13
DISTINGUIR QUANTIDADES, O QUE NÃO REQUER ESPECÌFICAMENTE NÚMEROS, DE MODO QUE A
COMPOSIÇÃO DIGITAL DE SONS E IMAGENS, ORA CONQUISTADA, PODE NÃO SER A PRETENDIDA
POR PITÁGORAS.

NESSA DIREÇÃO, É INTERESSANTE OBSERVAR QUE O NEUROPSICÓLOGO RUSSO ALEXANDER LURIA,


NA DÉCADA DE 1940, A PARTIR DA CONSTATAÇÃO DE QUE PACIENTES COM LESÕES CEREBRAIS QUE
APRESENTAVAM DIFICULDADES COM O RACIOCÍNIO GEOMÉTRICO, TAMBÉM APRESENTAVAM
DIFICULDADES COM O RACIOCÍNIO ARITMÉTICO, LEVANTOU A SUSPEITA DE QUE O CÉREBRO
PUDESSE ESTAR PROCESSANDO A GEOMETRIA DAS FÓRMULAS ARITMÉTICAS. A PARTIR DE 1996,
COM A RESSONÂNCIA MAGNÉTICA FUNCIONAL, TORNOU-SE POSSÍVEL “FILMAR” O CÉREBRO
ENQUANTO PROCESSA IMAGENS, OU EXECUTA RACIOCÍNIOS GEOMÉTRICOS OU ARITMÉTICOS, E
IDENTIFICAR, PELO MENOS, AS REGIÕES ACIONADAS NESSES PROCESSAMENTOS. (? )

10-ACREDITA-SE QUE OS PITAGÓRICOS PODERIAM TER CONCLUÍDO A INCOMENSURABILIDADE


ENTRE O LADO E A DIAGONAL DO QUADRADO (RESP. DO PENTÁGONO REGULAR-5 LADOS),
SUPONDO POR ABSURDO, A EXISTÊNCIA DE UMA UNIDADE DE MEDIDA QUE “COUBESSE” UM
NÚMERO FINITO DE VEZES NO LADO E NA DIAGONAL EM QUESTÃO, E REBATENDO O LADO SOBRE A
DIAGONAL PARA CONSTRUIR TRIÂNGULOS CADA VEZ MENORES (OU PENTÁGONOS CADA VEZ
MENORES, PELO TRAÇADO DE SUAS DIAGONAIS), ATÉ CHEGAR A TRIÂNGULOS (OU PENTÁGONOS)
COM DIMENSÕES MENORES DO QUE A PRÓPRIA UNIDADE DE MEDIDA, UTILIZANDO AS NOÇÕES DE
LIMITE E INFINITAMENTE PEQUENO, POSTERIORMENTE DIVULGADAS POR ANAXÁGORAS: “SE, DE
UM SEGMENTO (RESP. QUANTIDADE) SUBTRAIRMOS OUTRO, MAIOR DO QUE SUA METADE, E, DO
QUE RESTOU, SUBTRAIRMOS NOVAMENTE OUTRO, MAIOR DO QUE SUA METADE, E,
CONTINUARMOS O PROCESSO, OBTEREMOS SEGMENTOS (RESP. QUANTIDADES) MENORES DO QUE
QUALQUER SEGMENTO (RESP. QUANTIDADE) PREVIAMENTE DADO”.

11- SÉCULO V AC- PARMÊNIDES, DE ELÉIA: “OS HOMENS TERIAM DOIS CAMINHOS:

- O DA VERDADE, CONDUZIDO PELA RAZÃO (“O QUE EXISTE, OU SEJA, O SER, É!”; “O SER E O
PENSAR SÃO A MESMA COISA”; “O QUE É, É!, E NÃO PODE DEIXAR DE SER”; “O SER É ETERNO,
IMÓVEL, FINITO, IMUTÁVEL, PLENO, CONTÍNUO, HOMOGÊNEO E INDIVISÍVEL”); E
- O DA OPINIÃO, INDUZIDA À PARTIR DA OBSERVAÇÃO SENSÍVEL, QUE PERCEBE UM MUNDO DE
COISAS DIVERSAS, MUTÁVEIS, E QUE NÃO CONDUZ À VERDADE”,

OU SEJA, ESTAVA SE CONSTRUINDO UM CAMINHO DA RAZÃO, COMO ALTERNATIVA AO DAS


OPINIÕES (BASEADAS NA OBS. SENSÍVEL), CONSIDERADAS EFÊMERAS E SUBJETIVAS!

12- SÉCULO V AC – ZENÃO, DE ELEIA: RADICALIZOU AS POSIÇÕES DE PARMÊNIDES E SISTEMATIZOU


A DEMONSTRAÇÃO POR ABSURDO, CHEGANDO A PARADÓXOS! POR EXEMPLO:
COMO SERIA POSSÍVEL, À PARTIR DE UM PONTO A, ALCANÇAR UM OUTRO PONTO B, SE, NO
TRAJETO TERÍAMOS PRIMEIRO, QUE ALCANÇAR O PONTO M, MÉDIO ENTRE A E B, E, PARA
ALCANÇAR M, TERÍAMOS PRIMEIRO QUE ALCANÇAR O PONTO M1, MÉDIO ENTRE A E
M, E ASSIM POR DIANTE ?
A|------M1------M--------------|B

AQUILES E A TARTARUGA:

14
13- SÉCULO V AC – ANAXÁGORAS, DE CLAZÔMENA: “NADA NASCE NEM MORRE, SENÃO QUE, A
PARTIR DAQUILO QUE EXISTE, CRIAM-SE COMBINAÇÕES E SEPARAÇÕES”; “TODAS AS COISAS
ESTAVAM JUNTAS, INFINITAS AO MESMO TEMPO EM NÚMERO E PEQUENEZ, E NENHUMA DELAS
PODIA SER DISTINGUIDA, PORQUE A PEQUENEZ ERA, TAMBÉM, INFINITA”.

14- COSTUMA SER ATRIBUÍDO A LEUCIPO (SÉCULO V AC) E DEMÓCRITO (SÉCULO IV AC),

A EXISTÊNCIA DE UM ESPAÇO VAZIO (QUE CORRESPONDERIA AO NÃO SER DE PARMÊNIDES), ONDE


INFINITOS ELEMENTOS INDIVISÍVEIS, QUE CHAMOU DE “ÁTOMOS”, CONSTITUIRIAM A REALIDADE
(QUE CORRESPONDERIA AO SER), E QUE ESTARIAM EM CONSTANTE REAGRUPAÇÃO;

15- SÉCULO V AC – EMPÉDOCLES: “TUDO O QUE EXISTE É RESULTADO DA SEPARAÇÃO E


RECOMBINAÇÃO DE QUATRO ELEMENTOS (RAÍZES) IMUTÁVEIS E INDESTRUTÍVEIS: TERRA, ÁGUA,
FOGO E AR”;

16-SÉCULO V AC: - ALCMÉON (ALKAMAION), DE CROTONA: CONSIDERADO PIONEIRO NO


ENTENDIMENTO DE QUE A SAÚDE DERIVARARIA DE UM EQUILÍBRIO (E PORTANTO, A DOENÇA DE
UM DESEQUILÍBRIO) DE QUALIDADES COMO QUENTE-FRIO, MOLHADO-SECO, AMARGO-DOCE, ETC.;
TAMBÉM CONSIDERADO PIONEIRO NA DISSECAÇÃO DE CADÁVERES, JÁ AFIRMAVA QUE O CÉREBRO
É O CENTRO DO SISTEMA NERVOSO, E QUE, PORTANTO, TODAS AS SENSAÇÕES ERAM RECEBIDAS,
ANALISADAS E REGULADAS PELO CÉREBRO; .

-HIPÓCRATES, DE COS: QUE FUNDOU A ESCOLA DE COS, ONDE SE LANÇARAM AS BASES DO ESTUDO
OBJETIVO DA MEDICINA, DENTRE AS QUAIS, A DE QUE A MEDICINA SE CONSTITUÍA EM DISCIPLINA
DISTINTA DA FILOSOFIA, E QUE NÃO PODIA SER ESTUDADA À PARTIR DE PRESSUPOSTOS, MAS
APENAS TER COMO BASE A OBSERVAÇÃO CRITERIOSA DOS FENÔMENOS, OU SEJA, A
EXPERIÊNCIA, GERANDO A LINHA DE ENTENDIMENTO DOS “EMPÍRICOS”;
JÁ OUTROS DOIS DESTACADOS MÉDICOS ERASÍSTRATO E HERÓFILO, QUE DISSECAVAM CADÁVERES

15
À BUSCA DA DESCRIÇÃO DA ANATOMIA E FISIOLOGIA HUMANAS, ERAM TRATADOS PELOS SEUS
RIVAIS COMO “RACIONALISTAS”;

- PARA HIPÓCRATES, O CORAÇÃO TERIA O PAPEL DE CENTRO DAS SENSAÇÕES; ELE ENTENDIA QUE
A SAÚDE DEPENDIA DO EQUILÍBRIO ENTRE OS QUATRO HUMORES: BÍLIS PRETA, BÍLIS AMARELA,
SANGUE E FLEUGMA; QUANDO OCORRESSE UM DESIQUILÍBRIO, O PRÓPRIO CALOR VITAL (ENERGIA)
DO CORPO, PROVOCARIA A EXPULSÃO DO HUMOR EM EXCESSO ATRAVÉS DAS VIAS EXCRETORAS
(URINA, FEZES, VÔMITO, SUOR E EXPECTORAÇÕES E EXCREÇÕES BUCAIS OU NASAIS), DE MODO
QUE, QUANDO A EXPULSÃO NÃO OCORRIA PELAS VIAS NATURAIS, PODERIA OCORRER
COMPLICAÇÕES, JUSTIFICANDO UMA LINHA DE TRATAMENTO BASEADO EM ERVAS FERVIDAS, COM
PROPRIEDADES LAXATIVAS, DIURÉTICAS OU EMETIZANTES (VOMITÓRIOS);

SEGUNDO UMA INTERPRETAÇÃO, COM BASE NESSA FISIO-PATOLOGIA INGÊNUA, HIPÓCRATES


CONSEGUIU VISLUMBRAR O PRINCÍPIO DA AUTO-REGULAÇÃO, AO AFIRMAR QUE: O ESTADO
NORMAL DE UM ORGANISMO, É DE EQUILÍBRIO, E QUE, EM CASO DE DESEQUILÍBRIO, A PRÓPRIA
NATUREZA REAGIRIA PARA RESTAURÁ-LO (COMBATENDO AS MOLÉSTIAS), E QUE O MÉDICO
DEVERIA APENAS COLABORAR COM O PROCESSO NATURAL, ADOTANDO AS PROVIDÊNCIAS QUE ATÉ
HOJE SÃO SEGUIDAS: DIAGNÓSTICO, PROGNÓSTICO E TRATAMENTO; HOJE SABEMOS QUE O
EQUILÍBRIO É DINÂMICO (OU SEJA, OS ESTADOS DE EQUILÍBRIO SE ALTERAM COM O TEMPO E
CONDIÇÕES AMBIENTAIS E DO INDIVÍDUO), E SITUADO DENTRO DE UMA FAIXA (OU INTERVALO)
DE NORMALIDADE;

17- 508 AC- UMA REVOLTA POPULAR LIDERADA POR CLÍSTENES, INSTAUROU, EM ATENAS, O
GOVERNO DE UMA “ASSEMBLÉIA DE CIDADÃOS” , QUE NÃO INCLUIA ESTRANGEIROS, ESCRAVOS E
MULHERES, QUE SE CONSTITUÍAM NA MAIORIA DA POPULAÇÃO, E QUE PASSOU A DECIDIR OS
DESTINOS DA POLIS (CIDADE-ESTADO);

18- OS CHAMADOS SOFISTAS, SE BASEAVAM NUMA DESENVOLVIDA FORMAÇÃO LINGUÍSTICA, NA


REFUTAÇÃO AOS ARGUMENTOS E CONCLUSÕES DE SEUS INTERLOCUTORES, E NO CONVENCIMENTO
BASEADO NA ARTE RETÓRICA E PODER DA ARGUMENTAÇÃO TEÓRICA;

19- SÉCULO V AC- O FILÓSOFO SÓCRATES, QUE ATRAVÉS DE PERGUNTAS A SEUS INTERLOCUTORES,
DESENVOLVEU O “QUESTIONAMENTO SOCRÁTICO” (QUE, SEGUNDO UMA INTERPRETAÇÃO, TERIA
SIDO INSPIRADO NO MÉTODO DO SOFISTA GÓRGIAS, QUE NEGAVA TODO TIPO DE VERDADE
OBJETIVA), CRITICAVA A FILOSOFIA E O CONHECIMENTO DA ÉPOCA, ESPECIALMENTE “OS DOGMAS
E CRENÇAS A PRIORI”, INCLUSIVE COM FRASES FAMOSAS COMO “TUDO O QUE SEI É QUE NADA
SEI”, E “O ARTÍFICE SABE MAIS DO SEU OFÍCIO DO QUE O FILÓSOFO DA SUA FILOSOFIA”, ACHAVA,
CONFORME MENCIONADO NUM DOS DIÁLOGOS DE PLATÃO, QUE HAVIAM DADO POUCA
IMPORTÂNCIA AO DESCOBRIMENTO DOS NÚMEROS IRRACIONAIS; SEU QUESTIONAMENTO TERIA
INSPIRADO A OBRA, OU REFORÇADO A MOTIVAÇÃO DE PLATÃO;

16
A MORTE DE SÓCRATES, POR JAQUES-LOUIS DAVID/1787

20- OBSERVAÇÃO: DE MODO ANÁLOGO AO QUE HAVIA OCORRIDO COM ANAXÁGORAS, QUE
APESAR DA AMIZADE DO GOVERNANTE PÉRICLES, FOI CONDENADO A DEIXAR ATENAS PELAS SUAS
IDÉIAS CONTRÁRIAS A RELIGIOSIDADE POPULAR E OFICIAL, SÓCRATES FOI CONDENADO A MORTE
EM 399 AC (SEGUNDO UMA INTERPRETAÇÃO, POR HAVER APENAS CRITICADO), O QUE TERIA
REFORÇADO O DESENCANTO DE PLATÃO (QUE TINHA PARENTES POLÍTICOS), PARA COM A POLÍTICA
E DEMOCRACIA DA ÉPOCA, E, AO MESMO TEMPO, MOTIVADO SUAS PESQUISAS (CIENTÍFICAS E
POLÍTICAS);

APÓS A MORTE DE SÓCRATES, PLATÃO VISITOU, ENTRE OUTROS, OS PESQUISADORES


EUCLIDES (DE MEGARA), ARQUITAS (DE TARENTO-SUL DA ITÁLIA), TEODORO (EM CIRENE), E
ALEXANDRIA (NO EGITO), TENDO SE INTEIRADO DAS PESQUISAS (EM ESPECIAL, MATEMÁTICAS) DA
ÉPOCA;

21- SÉCULO IV AC- ACADEMIA DE PLATÃO: EM 387 AC, PLATÃO FUNDOU EM ATENAS, “A
ACADEMIA”, ONDE HAVIA A INSCRIÇÃO “AQUI NÃO ENTRE QUEM NÃO SOUBER GEOMETRIA” COM
A INTENÇÃO PRECÍPUA DE PRODUZIR CONHECIMENTO SEGURO; A PRIMEIRA ETAPA DESSE
PROJETO, TERIA SIDO ENCAMINHADA POR PLATÃO E EUDOXO (A QUEM SE ATRIBUI A TEORIA DAS
PROPORÇÕES, E TAMBÉM A DIVISÃO DO ANO EM 365 DIAS + ¼ ) E RESULTADO NA CHAMADA
“GEOMETRIA EUCLIDIANA” , EM HOMENAGEM AO MATEMÁTICO FENÍCIO EUCLIDES (DE
ALEXANDRIA), NASCIDO EM TIRO (HOJE, LÍBANO), EM ~ 330 AC;
A PRINCIPAL CONTRIBUIÇÃO DA ACADEMIA TERIA SIDO: A APRESENTAÇÃO SINTÉTICA DA TEORIA,
PELO QUE É CONHECIDO COMO MÉTODO AXIOMÁTICO, NO QUAL: OS CONCEITOS PRIMITIVOS
SÃO ENUNCIADOS, AS PROPRIEDADES BÁSICAS QUE OS REGEM (PRINCÍPIOS) SÃO POSTULADAS, E A
PARTIR DELES, OS CONCEITOS SEGUINTES SÃO DEFINIDOS E AS OUTRAS PROPRIEDADES,
DEDUZIDAS. ASSIM, A PARTIR DOS CONCEITOS PRIMITIVOS DE PONTO, RETA, PLANO, ETC. ,
FORAM POSTULADAS AS SEGUINTES PROPRIEDADES (POSTULADOS DE CONSTRUÇÃO): PODE-SE:
1- DESENHAR UMA LINHA (SEGMENTO DE ) RETA DE UM PONTO A OUTRO;

17
2- PROLONGAR (INDEFINIDAMENTE) UM SEGMENTO DE RETA PARA ‘CONSTRUIR’ UMA RETA;
3- DESCREVER UM CÍRCULO, COM CENTRO E RAIOS DETERMINADOS;
4- TODOS OS ÃNGULOS RETOS SÃO IGUAIS; .

5- SE UMA RETA CORTA DUAS OUTRAS RETAS; DE MODO QUE A SOMA DOS ÂNGULOS INTERNOS DO
MESMO LADO, É MENOR DO QUE DOIS ÂNGULOS RETOS, AS DUAS RETAS, SE PROLONGADAS
INDEFINIDAMENTE, SE ENCONTRAM DO LADO EM QUE OS ÂNGULOS SÃO MENORES DO QUE DOIS
ÂNGULOS RETOS;

MANTENDO OS OUTROS, O QUINTO POSTULADO É EQUIVALENTE AO POSTULADO DAS PARALELAS:


POR UM DADO PONTO P, NÃO PERTENCENTE A UMA RETA DADA r , PASSA UMA E UMA SÓ RETA
PARALELA À RETA DADA;

22 -ATRIBUI-SE A PLATÃO, O RECONHECIMENTO DE QUE OS CONCEITOS ENVOLVIDOS NA TEORIA


(PONTO, RETA GEOMÉTRICA CONTÍNUA, CIRCUNFERÊNCIA, PLANO, NÚMEROS IRRACIONAIS, ETC.)
SÃO IDEAIS, NÃO TENDO EXISTÊNCIA FÍSICA, E PODENDO, NAS SITUAÇÕES PRÁTICAS, SER APENAS
APROXIMADOS. ALÉM DISSO, NUM DOS DIÁLOGOS, PLATÃO DECLARA:

“...EIS O CAMINHO QUE SEGUI. COLOCO EM CADA CASO UM PRINCÍPIO, AQUELE QUE JULGO O
MAIS SÓLIDO, E TUDO O QUE PARECE ESTAR EM CONCORDÂNCIA COM ELE, ADMITO COMO
VERDADEIRO, ADMITINDO COMO FALSO, O QUE COM ELE NÃO CONCORDA” (PRINCÍPIO DA
DEDUÇÃO).

A GEOMETRIA EUCLIDIANA REPRESENTOU A 1ª GRANDE SÍNTESE MATEMÁTICA APÓS, SEGUNDO


OS REGISTROS, A 1ª GRANDE SÍNTESE JURÍDICO-SOCIAL REPRESENTADA PELO CÓDIGO DE
HAMURABI, EM ~ 1750 AC;

Escola de Atenas, de Rafael Sanzio – Turma da Pesada!

18
DETALHE DA PINTURA “A ESCOLA DE ATENAS”

DE RAFAEL SOBRE PLATÃO Parte de P.Oxy. LII 3679, com trecho da

República, de Platão

23- OBSERVAÇÃO: EMBORA RESTRITO AOS ESTUDIOSOS, SEMPRE HOUVE QUESTIONAMENTO


SOBRE A COMPROVAÇÃO DOS PRINCÍPIOS, EM ESPECIAL, QUANTO AO 5º POSTULADO, QUE NUMA
VERSÃO EQUIVALENTE, PODE SER ENUNCIADO COMO SEGUE: “POSTULADO DAS PARALELAS: POR
UM PONTO NÃO PERTENCENTE A UMA RETA DADA, PASSA UMA, E SOMENTE UMA, RETA PARALELA
À RETA DADA (OU SEJA, CONTIDA NO PLANO DETERMINADO PELO PONTO E RETA DADA, E QUE NÃO

19
A INTERCEPTA)”, PRINCIPALMENTE POR IMPLICAR NUM “ESPAÇO INFINITO”, O QUE TAMBÉM NÃO É
INTUITIVO! , MAS À ÉPOCA, NÃO HAVIAM SIDO DESENVOLVIDAS TEORIAS ALTERNATIVAS, VISTO
QUE AS “GEOMETRIAS NÃO EUCLIDIANAS” FORAM FORMULADAS SOMENTE À PARTIR DO SÉCULO
XIX, E AS TEORIAS DE ESPAÇO FÍSICO (ESPAÇO-TEMPO) NÃO EUCLIDIANO, SOMENTE À PARTIR DO
INÍCIO DO SÉCULO XX, COM A TEORIA DA RELATIVIDADE;

24- OS SUCESSORES DA ACADEMIA PROCURARAM EXTENDER O MÉTODO DA GEOMETRIA A OUTROS


RAMOS DO CONHECIMENTO, BUSCANDO, EM PRIMEIRO LUGAR, OS SEUS PRINCÍPIOS OU LEIS:
- 340 AC – ARISTÓTELES, DE SIRACUSA-SICÍLIA, FOI DISCÍPULO DE PLATÃO, ESTUDOU EM
ALEXANDRIA, FUNDOU, EM ATENAS, UMA ESCOLA, O LICEU, QUE SE TRANSFORMOU NUM CENTRO
DE ESTUDOS DEDICADOS PRINCIPALMENTE ÀS CIÊNCIAS NATURAIS, BIOLOGIA E FÍSICA; TENTOU
DESTACAR O RACIOCÍNIO EMPREGADO NA GEOMETRIA, PARA SER UTILIZADO EM OUTRAS
DISCIPLINAS, O QUE RESULTOU NA “LÓGICA ARISTOTÉLICA”; EM SUA FÍSICA, O CONJUNTO DO
UNIVERSO FÍSICO (PHYSIS=NATUREZA) ESTARIA DIVIDIDO EM DOIS TIPOS DE CORPOS:
OS CORPOS TERRESTRES, CONSTITUÍDOS PELOS QUATRO ELEMENTOS HERDADOS DA COSMOLOGIA
DE EMPÉDOCLES, PARA OS QUAIS OS MOVIMENTOS NATURAIS SÃO RETILÍNEOS, PASSANDO PELO
CENTRO DA TERRA (OS CORPOS PESADOS DESCEM E OS LEVES SOBEM), E:

OS CORPOS CELESTES, COMPOSTOS EXCLUSIVAMENTE DE UM ELEMENTO (O ETER), QUE SERIAM


HOMOGÊNEOS E PERFEITOS, E DESCREVERIAM ÓRBITAS CIRCULARES E UNIFORMES (COM
VELOCIDADE ANGULAR CONSTANTE) EM TORNO DA TERRA, QUE SERIA REDONDA, ESTÁTICA E
ESTARIA NO CENTRO DO UNIVERSO (QUE SERIA FINITO E ETERNO);
OBSERVAÇÃO: EMBORA A FÍSICA ARISTOTÉLICA TENHA PREVALECIDO POR MUITOS SÉCULOS, A
DESCRIÇÃO DO SISTEMA SOLAR SOMENTE CONSEGUIU UMA FORMULAÇÃO REALISTA, EM 1609,
QUANDO JOHANES KEPLER ENUNCIOU AS LEIS DOS MOVIMENTOS DOS PLANETAS;
ALÉM DISSO, ARISTÓTELES TAMBÉM É CONSIDERADO O PRECURSOR DA APRESENTAÇÃO DA
“EVOLUÇÃO DAS IDÉIAS”, QUANDO, AO EXAMINAR UM PROBLEMA, PARTIA DAS SOLUÇÕES
PROPOSTAS POR SEUS ANTECESSORES;

OBSERVAÇÃO: PARA SALIENTAR O ESPÍRITO TEÓRICO DE ARISTÓTELES, UM COMENTARISTA


PUBLICOU QUE ELE TERIA AFIRMADO QUE “AS MULHERES TERIAM MENOS DENTES QUE OS
HOMENS”, E QUE PARA REFUTAR ESSA TESE BASTARIA SOLICITAR À SENHORA ARISTÓTELES QUE
ABRISSE A BOCA, NÃO LEVANTANDO A OPÇÃO DE QUE É PROVÁVEL QUE TENHA SIDO EXATAMENTE
DESSE MODO, QUE ELE TERIA CHAGADO À SUA CONCLUSÃO;

- SÉCULO III AC – ARISTARCO, DE SAMOS: PRIMEIRO REGISTRO DO HELIOCENTRISMO (OU SEJA, DE


QUE A TERRA GIRA EM TORNO DO SOL; CÁLCULOS GEOMÉTRICOS DAS DISTÂNCIAS ENTRE A TERRA
E O SOL, E À LUA, ALÉM DE SUAS DIMENSÕES;

-SÉCULO III AC – ARQUIMEDES, DE SIRACUSA: É CONSIDERADO UM PIONEIRO DA FÍSICA-


MATEMÁTICA, POR TER SIDO O PRIMEIRO A OBTER FORMULAÇÕES QUANTIFICADAS DE LEIS FÍSICAS.
DENTRE OUTRAS CONTRIBUIÇÕES, FORMULOU O PRINCÍPIO DA ALAVANCA (QUE JÁ ERA UTILIZADO
NA PRÁTICA, DESDE A MAIS REMOTA ANTIGUIDADE):

“A CAPACIDADE DE ROTAÇÃO DE UMA HASTE, NA QUAL É APLICADA UMA FORÇA, EM TORNO DE


UM EIXO PERPENDICULAR AO PLANO DE ROTAÇÃO DA HASTE, É PROPORCIONAL À INTENSIDADE DA
FORÇA E AO SEU BRAÇO (DISTÂNCIA ENTRE O PONTO DE APLICAÇÃO DA FORÇA E O EIXO DE

20
ROTAÇÃO)”; A ÊLE É ATRIBUÍDA A FRASE: “DAI-ME UMA ALAVANCA E UM PONTO DE APOIO, E
MOVEREI A TERRA”

A equação fundamental das alavancas é: , onde:

 Fp é a força potente;
 Fr é a força resistente;
 BP é o braço potente; e
 BR é o braço resistente.

OBTEVE TAMBÉM O FAMOSO PRINCÍPIO DE ARQUIMEDES: “UM CORPO, INTEIRA OU


PARCIALMENTE MERGULHADO NUM FLUIDO, RECEBE UMA FORÇA (IMPULSÃO OU EMPUXO), DE
BAIXO PARA CIMA, E DE INTENSIDADE IGUAL AO PESO DO VOLUME DE FLUIDO DESLOCADO”.

DIZ-SE, NÃO SE SABE AO CERTO, SE VERÍDICA OU SUGESTIVAMENTE, QUE TAL PRINCÍPIO TERIA SIDO
INSPIRADO DURANTE UM BANHO DE BANHEIRA!

Se denotarmos por:

21
m a massa do corpo imerso,
V o volume do corpo imerso,

ρ a densidade ou massa específica do fluido,

g a aceleração da gravidade,
I a força de impulsão.

O princípio de Arquimedes se resume a:

FONTE: WIKIPÉDIA

DENTRE OUTRAS CONTRIBUIÇÕES MATEMÁTICAS, CALCULOU O VALOR APROXIMADO DE π E


ÁREAS PELO “MÉTODO DA EXAUSTÃO” (APROXIMAÇÕES SUCESSIVAS POR QUANTIDADES
COMPUTÁVEIS);

EM “A QUADRATURA DA PARÁBOLA”, CALCULOU A ÁREA DELIMITADA POR UMA PARÁBOLA E UMA


RETA POR APROXIMAÇÃO E LIMITE POR QUANTIDADES COMPUTÁVEIS, O QUE CORRESPONDE AO
PROCESSO DE INTEGRAÇÃO;

22
Como mostrado por Arquimedes, a área do segmento parabólico na figura de cima é igual a
4/3 da do triângulo inscrito na figura de baixo.

Esta prova utiliza uma variação da série 1/4 + 1/16 + 1/64 + 1/256 + · · · cujo resultado é1/3.

25- CONTRIBUIÇÕES DA ESCOLA DE ALEXANDRIA (EGITO):


- SÉCULO III AC- EUCLÍDES, DE ALEXANDRIA: COMPILAÇÃO DA MATEMÁTICA DA ÉPOCA, NOS
ELEMENTOS, EM 13 LIVROS; -
SÉCULO III AC- APOLÔNIO DE PÉRGAMO: TRATADO SOBRE AS SECÇÕES CÔNICAS:

-SÉC.III/II AC –ERATÓSTENES, DE CIRENE: SUSTENTOU QUE A TERRA TINHA FORMATO ESFÉRICO, E


À PARTIR DAS SOMBRAS PRODUZIDAS PELOS RAIOS SOLARES,AO INCIDIR SOBRE VARETAS
FINCADAS VERTICALMENTE SOBRE O SOLO, CONCLUIU QUE A SUA CIRCUNFERÊNCIA TERIA A
MEDIDA DE 40.000 Km (HOJE SABEMOS QUE A LINHA DO EQUADOR TEM A MEDIDA DE 40.072 Km);

23
-SÉC.II AC –HIPARCO, DE NICÉIA: APRIMOROU DADOS E MÉTODOS BABILÔNICOS COMO A
TRIGONOMETRIA, PARA A ABORDAGEM DE PROBLEMAS ASTRONÔMICOS; TAMBÉM SUSTENTOU
O HELIOCENTRISMO; À PARTIR DE UM ECLIPSE LUNAR, DESENVOLVEU UM MÉTODO GEOMÉTRICO
PARA CALCULAR A DISTÂNCIA ENTRE A TERRA E A LUA;

-SÉC. II AC -PTOLOMEU: MODÊLO DAS ESFERAS CONCÊNTRICAS, PARA A PARTIR DA TEORIA DE


ARISTÓTELES, JUSTIFICAR O COMPLEXO (POR SER VISTO DA TERRA) MOVIMENTO OBSERVADO NO
ESPAÇO; O SEU SISTEMA É EQUIVALENTE A TENTAR JUSTIFICAR O MOVIMENTO OBSERVADO NO
ESPAÇO, ATRAVÉS DE COMPOSIÇÕES DE MOVIMENTOS CIRCULARES E UNIFORMES;

- VÁRIOS MATEMÁTICOS ABORDARAM OS QUE VIERAM A SER CHAMADOS “PROBLEMAS CLÁSSICOS


DA MATEMÁTICA GREGA”, QUAIS SEJAM:

A DUPLICAÇÃO DO CUBO (CONSTRUIR UM CUBO EQUIVALENTE A DUAS VEZES UM CUBO DADO);


A QUADRATURA DO CÍRCULO (CONSTRUIR UM QUADRADO EQUIVALENTE A UM CÍRCULO
DADO), e
A TRISSECÇÃO DO ÂNGULO (DIVIDIR UM ÂNGULO DADO, EM TRÊS ÂNGULOS EQUIVALENTES),
USANDO SOMENTE RÉGUA SEM GRADUAÇÃO E COMPASSO (CONSTRUÇÃO GEOMÉTRICA QUE
PODERIA ALCANÇAR SEGMENTOS INCOMENSURÁVEIS), QUE, NO SÉCULO XIX, FOI DEMONSTRADO
POR GALOIS, SEREM IMPOSSÍVEIS;

26- A LITERATURA MENCIONA AINDA, DENTRE OUTROS, OS SEGUINTES LEGADOS GREGOS:

1) SEGUNDO INTERPRETAÇÕES, O QUESTIONAMENTO SOCRÁTICO TERIA INSPIRADO, OU


REFORÇADO A MOTIVAÇÃO PARA:

- AS CONTRIBUIÇÕES DE PLATÃO (JÁ MENCIONADO ACIMA);

- O QUESTIONAMENTO TEÓRICO PROPOSTO POR RENÉ DESCARTES NO SÉCULO XVII, PARA VALIDAR
OS PRINCÍPIOS DO MÉTODO AXIOMÁTICO (QUE, POR SINAL, NÃO PREVALECEU);
- AS PERGUNTAS DO MÉTODO PSICANALÍTICO DE SIGMUND FREUD, NO INÍCIO DO SÉC.XX ;
- UMA NOVA NOÇÃO DE ALMA (PSIQUÊ), COMO SEDE DA CONSCIÊNCIA E DO CARÁTER;
- A IDÉIA DE QUE A CONSCIENTIZAÇÃO DAS PESSOAS (“CONHECE-TE A TI MESMO”) E DAS SUAS
ATIVIDADES PRÁTICAS, PODE COMPOR UMA MELHORIA SOCIAL (DE TODA ATENAS);
- A IRONIA, E ENFATIZADO AS DEMONSTRAÇÕES POR ABSURDO (AO TENTAR CONDUZIR SEUS
INTERLOCUTORES À CONTRADIÇÃO);

2) O SUCESSO DA GEOMETRIA EUCLIDIANA À ÉPOCA, OU SEJA, A CRENÇA DE QUE ESSA TEORIA


DESCREVESSE O ESPAÇO FÍSICO, SUA APRESENTAÇÃO AXIOMÁTICA E SUA OPERACIONALIDADE
PRÁTICA, TERIA REFORÇADO O CAMINHO DA RAZÃO E DA QUANTIFICAÇÃO MATEMÁTICA, E
INDUZIDO ÀS INVESTIGAÇÕES SUBSEQUÊNTES, DENTRE AS QUAIS, COSTUMA-SE DESTACAR AS
CONTRIBUIÇÕES DE ARISTÓTELES, EUCLIDES (DE ALEXANDRIA), ARQUIMEDES, E PTOLOMEU:
MAIS EXPLICITAMENTE:

A) PROMOVEU A GEOMETRIA COMO A NOVA BASE DA MATEMÁTICA (AO INVÉS DOS NÚMEROS
RACIONAIS DE PITÁGORAS); TAL MUDANÇA TERIA SIDO ESSENCIALMENTE CONCEITUAL, VISTO QUE,
NOS PRÓPRIOS ELEMENTOS, PASSOU-SE A TRABALHAR COM NÚMEROS REAIS, NAS QUESTÕES
MÉTRICAS;

24
B) ELEIÇÃO DO MÉTODO DA GEOMETRIA (MÉTODO AXIOMÁTICO) COMO PADRÃO DE
APRESENTAÇÃO DE TEORIAS (QUE VEIO A TER SUCESSO NA APRESENTAÇÃO DE TEORIA DEDUTIVAS
COM LEIS QUANTITATIVAS- MATEMÁTICAS E FÍSICAS ASSENTADAS- APRESENTANDO RESTRIÇÕES
PARA OUTRAS TEORIAS;

C) SUSTENTOU “O MUNDO DAS FORMAS E IDÉIAS, PERFEITO E ETERNO” DE PLATÃO, DO QUAL “O


MUNDO REAL SERIA APENAS UMA RÉPLICA IMPERFEITA”, QUE, POR SUA VEZ, SUSTENTOU O
PENSAMENTO DE INSTITUIÇÕES SOCIAIS (POLÍTICAS E RELIGIOSAS), UTILIZADO QUE FOI PARA
JUSTIFICAR PODER, LEGISLAÇÕES, COMPORTAMENTO, ETC.;

- OBSERVAÇÃO: QUANTO AOS CONCEITOS DE PERFEIÇÃO, FELICIDADE, ETERNIDADE, IGUALDADE


TEÓRICA DAS PESSOAS, DEMOCRACIA TEÓRICA, SOCIEDADE PERFEITA, ETC. , À PARTIR DO
ENTENDIMENTO DE QUE SÃO UTOPIAS (SEM EXISTÊNCIA REAL, À SUA BUSCA, MUITOS PREFEREM O
ENTENDIMENTO EVOLUCIONISTA DE QUE: “TANTO A EVOLUÇÃO DA ESPÉCIE, QUANTO A VIDA DOS
INDIVÍDUOS (EMBORA EM ESCALAS DE TEMPO DISTINTAS), OCORREM EM CONTÍNUA INTERAÇÃO
COM O AMBIENTE, COM POSSÍVEIS PROCESSOS DE ADAPTAÇÃO, ADEQUAÇÃO E
APRIMORAMENTO”, TAMBÉM PROJETADO NO DITO POPULAR, DE QUE: “TANTO A EXISTÊNCIA DE
PROBLEMAS, QUANTO A TENTATIVA DE ENCAMINHÁ-LOS (QUE PODE DEPENDER DA REPERCUÇÃO
DA INSATISFAÇÃO PROVOCADA OU DOS MÉRITOS DO ENCAMINHAMENTO), FAZEM PARTE
INTEGRANTE DA NOSSA VIDA”

3- A “LEGISLAÇÃO” DE PLATÃO, COMO UM PROJETO NÃO CONCLUÍDO, ONDE PRETENDIA UMA


“CONCILIAÇÃO ENTRE MONARQUIA CONSTITUCIONAL E DEMOCRACIA”;

4- ENQUANTO NA ACADEMIA SE ENSINAVA QUE “A ATIVIDADE HUMANA DEVESSE ESTAR


BASEADA NA CIÊNCIA (CONHECIMENTO) DOS FUNDAMENTOS DA REALIDADE NA QUAL AQUELA
AÇÃO ESTIVESSE INSERIDA E ULTRAPASSAR O PLANO INSTÁVEL DAS OPINIÕES”, ISÓCRATES E OS
SOFISTAS TAMBÉM HAVIAM FUNDADO UMA ESCOLA EM ATENAS, DESTINADA A “DESENVOLVER
NOS JOVENS A CAPACITAÇÃO PARA TRATAR COM OS ASSUNTOS RELATIVOS À POLIS (POLÍTICA),
BASEADOS NA ARTE DA RETÓRICA E NO PODER DA ARGUMENTAÇÃO TEÓRICA”;

OBSERVAÇÃO: NO DIREITO ATUAL, PODEMOS RECONHECER A INFLUÊNCIA DE AMBAS AS


CORRENTES:
DA ARTE RETÓRICA, QUANDO O JUIZ, EVENTUALMENTE, ACATA UM PLEITO OU AFIRMAÇÃO
(PROVÁVEL OU PLAUSÍVEL), QUE NÃO TENHA SIDO CONTESTADO PELA PARTE CONTRÁRIA, MESMO
SEM COMPROVAÇÃO, E,

DA CIÊNCIA JURÍDICA, COM O COMPARECIMENTO DAS PROVAS (DOCUMENTAIS, PERICIAIS E/OU


TESTEMUNHAIS) NOS PROCESSOS;

5- A PREPARAÇÃO FÍSICA E AS COMPETIÇÕES, INSPIRADAS NAS PREPARAÇÕES PARA AS LUTAS E


GUERRAS, QUE ERAM ENSAIADAS EM QUATRO COMPETIÇÕES ATLÉTICAS, DENTRE AS QUAIS, A
MAIS FAMOSA ERAM “OS JOGOS OLÍMPICOS”;

6- A POESIA E A DRAMATURGIA, COM TEMAS DA MITOLOGIA, CONTOS, HISTÓRIA, GUERRAS,


TRAGÉDIAS, COMÉDIAS E VIDA COTIDIANA, QUE FORAM INSPIRADORES OU PRECURSORES DE
ENTENDIMENTOS MAIS RECENTES, COMO:

- A IMPORTÂNCIA DO HUMOR E DOS PONTOS DE VISTA BEM HUMORADOS, NO EQUILÍBRIO


PESSOAL, E MESMO SOCIAL;

25
- O PSICODRAMA (DE J.MORENO, À PARTIR DE 1921)

- O ENTENDIMENTO DE QUE “A VIDA SERIA UM GRANDE TEATRO, NO QUAL REPRESENTAMOS


DIFERENTES PAPÉIS, MAIS OU MENOS AUTÊNTICOS, E NEM SEMPRE COERENTES ENTRE SI”
- OBSERVAÇÃO: NA ATUALIDADE, MUITOS PREFEREM ENTENDIMENTOS MAIS REALISTAS DOS QUE
OS DOIS ÚLTIMOS, POR EXEMPLO, O DE QUE DURANTE A NOSSA VIDA, PARTICIPAMOS DE DIVERSOS
PROJETOS (NATURAIS, AMBIENTAIS, SOCIAIS, FAMILIARES, PESSOAIS, ETC.) , COM DIFERENTES
PARTICIPAÇÕES, NEM SEMPRE COERENTES ENTRE SI ;

7- SÉCULO II – ANATOMISTA GALENO: COMPILOU OS RESULTADOS DE CINCO SÉCULOS DE


PESQUISA MÉDICA, AOS QUAIS JUNTOU SUAS EXPERIÊNCIAS COM A DISSECAÇÃO DE ANIMAIS, NUM
TRATADO DE MEDICINA; PARA GALENO, A FORMAÇÃO PROFISSIONAL DO MÉDICO, SÓ PODERIA
RESULTAR DE PROFUNDOS CONHECIMENTOS TEÓRICOS, OBSERVAÇÕES EXPERIMENTAIS E VIVÊNCIA
CLÍNICA;

-----------------------xxx-------------------

26
III-SÉC. VIII/XII: CONTRIBUIÇÃO DOS CIENTISTAS ÁRABES/ISLÂMICOS:
27- A PARTIR DE 751, O PAPEL, OBTIDO DOS CHINESES, SUBSTITUIU O PERGAMINHO E O PAPIRO,
FACILITANDO A DIVULGAÇÃO EM GERAL;

- A LÍNGUA ÁRABE REPRESENTOU PARA OS MULÇUMANOS, PAPEL SEMELHANTE AO QUE O LATIM


REPRESENTOU PARA OS CATÓLICOS: FOI UMA DAS LÍNGUAS OFICIAIS, NA QUAL SE PUBLICOU O ALCORÃO E
DIVERSAS OUTRAS OBRAS E TEXTOS OFICIAIS;

- DURANTE A DINASTIA TURCA DOS ABÁCIDAS, NA SEGUNDA METADE DO SÉCULO VIII, MAMUM, FILHO DO
CALIFA HARUM AL-RACHID, FUNDOU EM BAGDAD, A “CASA DA SABEDORIA (BAIT AL-HIKMÁT)”, ONDE FORAM
TRADUZIDAS PARA O ÁRABE, AS OBRAS DE PLATÃO, EUCLIDES, GALENO, ARISTÓTELES, ARQUIMEDES E
PTOLOMEU, QUE FORAM AMPLIADAS PELOS ESTUDIOSOS SUBSEQUENTES; QUANDO, NO FINAL DO SÉCULO
XI, AS CIDADES ÁRABES DO SUL DA ESPANHA (QUE HAVIAM SIDO OCUPADAS À PARTIR DE 711) COMEÇARAM
A CAIR, AS OBRAS DE SUAS GRANDES BIBLIOTECAS FORAM TRADUZIDAS PARA O LATIM (ESPECIALMENTE EM
TOLEDO, ONDE FUNDARAM UM CENTRO DE TRADUÇÃO) E INVADIRAM A EUROPA CRISTÃ, CONTRIBUINDO
DECISIVAMENTE PARA O RENASCIMENTO EUROPEU; VÁRIOS DELES FORAM GENERALISTAS, TENDO SE
DEDICADO À QUÍMICA, ASTRONOMIA, MATEMÁTICA, FÍSICA, MEDICINA, ETC; DESTACAMOS AS
CONTRIBUIÇÕES DE:

- NAZIF IBN YUMN QASS: TRADUTOR DOS 10 LIVROS DE EUCLIDES;

28- JABIR (YABIR) IBN HAYYAN, ABU MUSSA DJAFAR AL KUHI (CONHECIDO NO OCIDENTE POR DJEBER, OU
GEBER): “SUMMA PERFECTIONIS”: TRATADO DE QUÍMICA MAIS ANTIGO CONHECIDO; SÍNTESE DE DIVERSAS
SUBSTÂNCIAS COMO OS ÁCIDOS SULFÚRICO, NÍTRICO, CLORÍDRICO, CÍTRICO, ACÉTICO, TARTÁRICO, ETC.;
PROCESSOS DE EVAPORAÇÃO, CONDENSAÇÃO, DESTILAÇÃO E CRISTALIZAÇÃO;

29- AL-KHWARIZMI, (FOI DIRETOR DA CASA DA SABEDORIA, E DEU O NOME A ALGARISMO): CONSIDERADO O
INICIADOR DA ÁLGEBRA, POR SUA OBRA “COMPÊNDIO DE CÁLCULO DE AL-JABR”, ADOTOU O SISTEMA HINDU
DE NUMERAÇÃO, COM DÍGITOS DE 0 A 9, E, POR ISSO CHAMADO SISTEMA DECIMAL DE NUMERAÇÃO, QUE
SIMPLIFICOU OS CÁLCULOS ARITMÉTICOS; .

- ABÚ KAMIL, COM O “TRATADO DE ÁLGEBRA”, SOBRE AS EQUAÇÕES DO 2º GRAU; .

- EM 976, MUHAMMAD BIN AHMAD INTRODUZIU UM SÍMBOLO PARA O NÚMERO ZERO; .

- ABU’L WAFÃ: INTUIU A NOÇÃO DE NÚMERO NEGATIVO; .

- AL-KASHI (~1400) NA OBRA “CHAVES DA ARITMÉTICA”, ESCREVEU SOBRE AS EQUAÇÕES DE 4º GRAU E


ESTUDOU NÚMEROS DECIMAIS;

-> OBSERVAÇÃO: CONSIDEREMOS O PROBLEMA DE “DETERMINAR UMA (RESP/ A MAIOR OU MENOR)


QUANTIDADE (NUMÉRICA), AINDA INCÓGNITA, SABENDO-SE QUE SATISFAZ A ALGUMAS PROPRIEDADES
(RELAÇÕES NUMÉRICAS) EM GERAL CHAMADAS EQUAÇÕES (RELAÇÕES =) (RESP/ INEQUAÇÕES (RELAÇÕES
(LIMITAÇÕES) ”; A ABORDAGEM DAS EQUAÇÕES PELO MÉTODO ALGÉBRICO, CONSISTE
ESSENCIALMENTE EM:

-ADMITINDO-SE O PROBLEMA RESOLVIDO; e .

- APÓS IBN AL-HAITHAM, CHAMANDO-SE A QUANTIDADE INCÓGNITA, POR UMA LETRA (POR EXEMPLO x); e

- ESCREVENDO-SE AS PROPRIEDADES CONHECIDAS, QUE DEVAM SER SATISFEITAS POR x (QUE SÃO
CHAMADAS EQUAÇÕES);

- TENTAR, ATRAVÉS DE CÁLCULOS ARITMÉTICAS VÁLIDOS, EXPRESSAR x EM FUNÇÃO DAS QUANTIDADES


INICIALMENTE CONHECIDAS (OU DADOS INICIAIS) DO PROBLEMA (OU SEJA, RESOLVER AS EQUAÇÕES PARA
x )!

27
EXEMPLO, EM SÍMBOLOS, SE A EQUAÇÃO SE ESCREVER (1) a . x = b , com a,b números reais e a ≠ 0 ;
dividindo ambos os membros por a (ou, de modo equivalente, multiplicando por a -1 = 1/a , obtem-se a-1 ( a.x)
= a-1 .b , ou seja , x = a-1 . b

OBS: na abordagem da equação geral f(x) = y , no teorema da função inversa, a condição a≠0
se generaliza para f’(x0) ≠ 0 (derivada de f não nula no ponto x0 em consideração).

30- À ÉPOCA, FORAM CONSTRUÍDOS OS OBSERVATÓRIOS ASTRONÔMICOS DE BAGDÁ, CAIRO, CÓRDOBA E


TOLEDO, COM AS CONTRIBUIÇÕES DE:

- AL-BATTANI: DESCOBRIU O MOVIMENTO DO APOGEU DO SOL, COLETOU DADOS SOBRE OS MOVIMENTOS


DO SOL, DA LUA E DOS ECLIPSES, E, PROVAVELMENTE INDEPENDENTE DE ARYABHATA, UTILIZOU MÉTODOS
TRIGONOMÉTRICOS PARA, DENTRE OUTROS CÁLCULOS PRECISOS, OBTER A DURAÇÃO DO ANO EM 365 DIAS,
5 HORAS, 46 MINUTOS E 24 SEGUNDOS, E A OBLIQUIDADE DA ECLÍPTICA EM 23º35’ ;

- ABD AL-RAHMAN AL-SUFI: ESCREVEU “O LIVRO DAS ESTRELAS FIXAS” ;

- AL-BIRUNI: DEFENDEU O MOVIMENTO DA TERRA EM TORNO DO SOL, E ENUNCIOU QUE: “O UNIVERSO


TODO ESTÁ SUJEITO ÀS MESMAS LEIS NATURAIS”;

- AL-KHÁZIMI: RECOMPILOU OS FUNDAMENTOS DA MECÂNICA E DA FÍSICA, EM SEU “LIVRO DO EQUILÍBRIO


DA SABEDORIA” ;

31- IBN AL-HAYTHAM (ALHAZEN): PARTINDO DA CONSTATAÇÃO DE QUE NOSSOS SENTIDOS NÃO SÃO
IMUNES AOS ERROS, E QUE TAMBÉM O CAMINHO DA RAZÃO NÃO ESTAVA CONDUZINDO À VERDADE, UMA
VEZ QUE MESMO OS MAIS SÁBIOS DIVERGIAM SOBRE DIVERSAS QUESTÕES (POR EXEMPLO OS PONTOS DE
VISTA OPOSTOS NA TEORIA DA VISÃO, DEFENDIDOS POR ARISTÓTELES E SEUS SEGUIDORES DE UM LADO, E
EUCLIDES E PTOLOMEU DO OUTRO), E QUE NÃO HAVIA DIVERGÊNCIAS SOBRE AS EQUAÇÕES MATEMÁTICAS
E PROVAS GEOMÉTRICAS, É CONSIDERADO O 1º CIENTISTA NA ACEPÇÃO MODERNA, AO SE UTILIZAR DA
“EXPERIMENTAÇÃO CONTROLADA” PARA VALIDAR AS PROPOSIÇÕES CIENTÍFICAS, ALÉM DE PREGAR A SUA
DESCRIÇÃO MATEMÁTICA, SEMPRE QUE POSSÍVEL, O QUÊ, REENUNCIADO POR GALILEU GALILEI, FICOU
CONHECIDO COMO “MÉTODO CIENTÍFICO”;

FOI O 1º A USAR LETRAS PARA DESIGNAR QUANTIDADES INCOGNITAS OU VARIÁVEIS NAS EXPRESSÕES
MATEMÁTICAS PARA ABORDAR PROBLEMAS GEOMÉTRICOS, E, POR ISSO, É CONSIDERADO O PRECURSOR DA
CHAMADA “GEOMETRIA ANALÍTICA” DESENVOVIDA NO SÉCOLO XVII POR RENÉ DESCARTES;

É CONSIDERADO O INICIADOR DA “ÓTICA GEOMÉTRICA”, PROPONDO A DIREÇÃO ACERTADA, QUE APÓS AS


CONTRIBUIÇÕES DE KEPPLER, SNELL E DESCARTES NA OBTENÇÃO DA LEI QUANTITATIVA DA REFRAÇÃO,
CONDUZIU À SUA SÍNTESE AXIOMÁTICA, AO ENUNCIAR QUE: “A LUZ PRIMÁRIA EMANA DE TODOS OS
PONTOS DOS CORPOS IRRADIANTES (SOL, ESTRELAS E FOGO), EM RAIOS QUE SEGUEM EM LINHA RETA, EM
TODAS AS DIREÇÕES DO ESPAÇO, ATÉ SER REFLETIDA (LUZ SECUNDÁRIA) PELA SUPERFÍCIE DE OUTROS
CORPOS (QUE, SE NÃO IRRADIANTES DE LUZ PRIMÁRIA, SÃO CHAMADOS “CORPOS OPACOS” (LUA, TERRA,
PLANETAS, OBJETOS TERRESTRES, ETC.)”, E, TENDO PROVADO SUAS AFIRMAÇÕES ATRAVÉS DE EXPERIMENTOS
(INCLUSIVE COM O USO DE EQUIPAMENTOS COMO A “CÂMARA ESCURA”). SUSTENTOU, AINDA QUE A
ATMOSFERA TAMBÉM REFLETE A LUZ, UMA VEZ QUE “O CÉU SE ILUMINA, MESMO ANTES DO SOL NASCER!”.
ALÉM DISSO, FOI O PRIMEIRO A APRESENTAR UMA DESCRIÇÃO REALISTA DO OLHO HUMANO (AO EXPLICAR
COMO O CRISTALINO REFLETE A LUZ INCIDENTE), E A SUSTENTAR QUE A VISÃO (COGNIÇÃO), OCORRE NO
CÉREBRO, ALCANÇADO ATRAVÉS DO NERVO ÓTICO;

SEUS ESTUDOS SOBRE LENTES E REFRAÇÃO PERMITIRAM, POSTERIORMENTE, A CONSTRUÇÃO DO


MICROSCÓPIO E TELESCÓPIO;

28
TAMBÉM LHE É ATRIBUÍDO O PRIMEIRO ENUNCIADO DO PRINCÍPIO DA INÉRCIA: “OS CORPOS CELESTES, NA
CONDIÇÃO DE OBJETOS REAIS, MOVEM-SE EM SUA COMBINAÇÃO, DE MODO CONTÍNUO E PERMANENTE,
VISTO NÃO HAVER NENHUM OBSTÁCULO, REPULSÃO OU IMPEDIMENTO”;

32- IBN SINA: DEU O NOME A “MEDICINA”, POR SUA OBRA “CANON” (AL-KANÚN), QUE FOI USADA COMO
TEXTO NAS ESCOLAS DE MEDICINA DA EUROPA POR MAIS DE QUATRO SÉCULOS, E CONSIDERADO O MAIOR
FILÓSOFO DA ÉPOCA, FORMULOU O CONCEITO DE QUANTIDADE DE MOVIMENTO LINEAR;

33- ABU’L BARAKÁT AL-BAGHDÁDI: DEFENDEU A EXISTÊNCIA DO VÁCUO E CONCEBEU O CONCEITO DE


ACELERAÇÃO, AO PROPOR UMA EXPLICAÇÃO PARA A ACELERAÇÃO DOS CORPOS EM QUEDA LIVRE, “PELA
ACUMULAÇÃO DE SUCESSIVOS INCREMENTOS DE FORÇA, COM CONSEQUENTES SUCESSIVOS INCREMENTOS
DE VELOCIDADE”; TAMBÉM ENUNCIOU QUE: “CADA TIPO DE CORPO TEM UMA VELOCIDADE CARACTERÍSTICA,
QUE ALCANÇA SEU MÁXIMO, QUANDO O SEU MOVIMENTO NÃO ENCONTRA RESISTÊNCIA”; ALÉM DISSO,
DEFENDEU A EXPERIMENTAÇÃO PARA A VALIDAÇÃO DAS PROPOSIÇÕES CIENTÍFICAS, COM ENUNCIADO
PRECURSOR AO “MÉTODO EXPERIMENTAL INDUTIVO” DE FRANCIS BACON:

Al-Baghdaadi's theory of motion distinguished between velocity and acceleration


and showed that force is proportional to acceleration rather than velocity.[4][13
Al-Baghdaadi described an early scientific method emphasizing
[10]
repeated experimentation, influenced by Ibn Sina, as follows:
"Because of the frequency of the experience, these judgements may be regarded as
certain, even without our knowing the reason [for the phenomenon]. For there is
certain knowledge that the effect in question is not due to chance. It must
accordingly be supposed that it is due to nature or to some modality thereof. Thus
the cause qua cause, though not its species or mode of operation, is known. For
experimental science is also constituted by a knowledge of the cause and by an
induction based on all the data of sensation; whereby a general science is reached.
... But in the cases in which an experiment has not been completed, because of its
not having been repeated in such a way that the persons, the time and the
circumstances varied in everything that did not cause the determining cause,
whereas this cause [remained invariable], the experiment does not prove certain
knowledge, but only probably opinion."
PENSADOR ALGAZALI (1058-1111), DA PÉRSIA: “NÃO RECONHEÇAS A VERDADE NA BOCA DAS
PESSOAS. ANTES, RECONHEÇA (BUSQUE) A VERDADE, E ASSIM, PODERÁS RECONHECER QUEM DIZ
A VERDADE!
34- IBN KHALDÚN (1332-1406), COM A OBRA MUKADDAMA: TRATADO DE FILOSOFIA SOCIAL.

APENDIX II- IBN AL-HAYTHAM (ALHAZEN)_Best Idea

29
EXEMPLO: O conjunto dos pontos P = (x,y) para os quais a x + b y = c , representa, em
geral, uma reta no plano (x,y). As equações simultâneas

ax + by = e

cx + dy = f

representam os possíveis pontos de intersecção, entre as retas representadas pelas


equações individuais. Dessa forma, o problema geométrico (de determinar a intersecção de
duas retas no plano) fica transportado para o problema algébrico (de resolver o sistema de
equações simultâneas) .

Em 200 AC, os chineses já conheciam um método para resolver sistemas com duas equações
lineares com duas incógnitas. Hewitt menciona que as culturas antigas avançadas (Iraq, Egito, India
e Maia) também o conheciam.

Na tentativa de imitar o método de solução formal adotado para uma equação com uma
incógnita, pode-se reescrever o sistema na forma matricial (2) A X = B , onde A=
é a matriz dos coeficientes , X = , é a matriz incógnita, e B= é a matriz
dos segundos membros, com o produto de matrizes sendo definido a propósito.

A matriz inversa de A , quando existe (caso em que A é dita ser inversível), é denotada por A -1 , e
tem a propriedade de A-1 . A = Id = Matriz identidade = , tal que Id .X = X , de modo a, ao
multiplicar ambos os membros da equação (1) por A , obtermos A-1 . (A X) = A-1. B , ou seja X =
-1

A-1. B , e o sistema admite solução única. Ocorre que nem sempre o sistema admite solução (ou
seja, é possível), e, nesse caso, pode apresentar uma única solução (sistema determinado), ou
mesmo, infinitas soluções (sistema possível indeterminado). .

A teoria moderna dos SISTEMAS DE EQUAÇÕES LINEARES teve início em 1683, num trabalho do
japonês Seki Kowa , trazendo a idéia de determinante ,, e contou com as contribuições do alemão
Leibniz (1693), do escocês C. Maclaurin (~1729/48) , do suíço G. Cramer (1750), (regra de
Cramer), dos franceses E. Bézout, Laplace e Cauchy (1812), Gauss (~1800), Jordan (1887)
(método de eliminação de Gauss-Jordan), e do alemãoJacobi.
O Teorema de Rouché-Capelli, Fontené, Kronecker , Frobenius, fornece uma condição necessária
e suficiente para a existência, unicidade e multiplicidade de solução para o sistema linear

O sistema é possível, sse (se e somente se), o posto p


da matriz dos coeficientes das incógnitas (ordem do
maior (sub)determinante diferente de zero) for igual
ao posto q da matriz completa (obtida com a adição
.
da coluna dos bj).
O sistema é determinado, sse, p = q = n

OBS: Sabemos que uma matriz quadrada 2x2, A é inversível, se e somente se, det A ≠ 0 ,sse, ‘uma
linha(ou coluna) não é múltipla da outra’ , condição que para sistemas se traduz como ‘uma
linha(ou coluna) não é combinação linear das outras’, e que na abordagem da equação geral
f(x)=y , x, y no teorema da função inversa, se generaliza para ‘determinante da
matriz das derivadas parciais (Jacobiana) no ponto em consideração ‘.

30
EVOLUÇÃO À PARTIR DO MÉTODO CIENTÍFICO:
IV- PRINCÍPIOS DA ÓTICA GEOMÉTRICA, LEI DE HOOKE E AS
LEIS DA MECÂNICA
COMO FOI MENCIONADO, NO SÉC. IX/X, IBN AL-HAYTHAM (ALHAZEN) LANÇOU AS BASES
DO MÉTODO CIENTÍFICO;

35- À PARTIR DO SÉCULO XI, COMEÇARAM A SER FUNDADAS AS UNIVERSIDADES EUROPÉIAS,


QUE GRADATIVAMENTE, FORAM SE EXPANDINDO ;

36- 1450, O ALEMÃO J.GUTENBERG INVENTOU A IMPRENSA (TIPOS MÓVEIS DE CHUMBO


FUNDIDO, REUTILIZÁVEIS), FACILITANDO A COMUNICAÇÃO EM GERAL;

36a- Leonardo di Ser Piero da Vinci (1452-1519), foi um polímata italiano,


uma das figuras mais importantes do Alto Renascimento, que se destacou
como pesquisador, matemático, engenheiro, inventor, anatomista, pintor,
escultor, arquiteto, botânico, poeta e músico. Como cientista, foi responsável
por grande avanço do conhecimento nos campos da anatomia, da engenharia
civil, da óptica e da hidrodinâmica.

37- 1510/43 – O POLONÊS NICOLAU COPÉRNICO: NA SUA CONCEPÇÃO, “TENTOU


RESTABELECER A HARMONIA DO UNIVERSO”, CRIANDO UM MODELO MAIS SIMPLES QUE O DE
PTOLOMEU, ONDE O SOL ERA O CENTRO ESTÁTICO DO UNIVERSO, EM TORNO DO QUAL, A
TERRA E OS PLANETAS GIRARIAM EM ÓRBITAS CIRCULARES; SEU MÔDELO NÃO ESTAVA DE
ACORDO COM OS DADOS EXPERIMENTAIS, VISTO QUE, DE FATO, AS ÓRBITAS NÃO SÃO
CIRCULARES.

38-1604/11- O ALEMÃO J.KEPLER CONTRIBUI COM A ÓTICA (PRATICAMENTE A DE IBN AL-


HAYTHAM), COM LEIS QUANTITATIVAS (EMBORA APROXIMADAS) PARA A REFRAÇÃO: EM
DIOPTRICA, DE 1611, “O ÂNGULO DE REFRAÇÃO É PROPORCIONAL AO ÂNGULO DE
INCIDÊNCIA” ( QUE REPRESENTA UMA APROXIMAÇÃO PARA ÂNGULOS PEQUENOS),
REFORMULADA, DE MODO EXATO, EXPERIMENTALMENTE PELO HOLANDÊS W.R. SNELL;

PRINCÍPIOS DA ÓTIMA GEOMÉTRICA:

 Propagação Retilínea da Luz: Em um meio homogêneo e transparente a luz se propaga


em linha reta. Cada uma dessas "retas de luz" é chamada de raio de luz.
 Independência dos Raios de Luz: Quando dois raios de luz se cruzam, um não interfere
na trajetória do outro, cada um se comportando como se o outro não existisse.
 Reversibilidade dos Raios de Luz: Se revertermos o sentido de propagação de um raio
de luz ele continua a percorrer a mesma trajetória, em sentido contrário.
 Leis de Reflexão:
 O raio incidente, a reta normal e o raio refletido são coplanares, ou seja estão no
mesmo plano.
 O ângulo de incidência i é igual ao ângulo de reflexão r ;

Onde:

31
A normal é a semi-reta perpendicular a superfície refletora.

Ângulo de incidência é o ângulo formado entre o feixe de luz que incide sobre o objeto e a
normal.

Ângulo de reflexão é o ângulo que a direção de um feixe de luz refletida faz com a normal.

Leis de Refração:

1ª Lei : O raio incidente, o raio refratado e a reta normal são coplanares.

2ª Lei - Lei de Snell :

Sendo V1 E V2 , as velocidadesdos meios 1 E 2 , respectivamente, tem-se :


V1 . sen i = V2 . sen r

Para ângulos pequenos, sen i ~ i e sen r ~ r ;

O PRINCÍPIO DE FERMAT, do qual se pode deduzir princípios da ótica geométrica, enuncia


que dentre as possíveis trajetórias que partem de um ponto dado A e chegam a outro ponto

32
dado B, e que apresentam refração ou reflexão na superfície S de separação entre os meios, a
trajetória do raio de luz, é a que apresenta o TEMPO DE PERCURSO MÍNIMO entre A e B ;

39- ENTRE 1563 E 1601, O DINAMARQUÊS TYCHO BRAHE FEZ OBSERVAÇÕES DO SISTEMA
SOLAR, E OBTEVE OS DADOS MAIS PRECISOS DA ÉPOCA, E À BEIRA DA MORTE, TERIA DITO A
SEU ASSISTENTE, J. KEPLER: “NÃO ME DEIXE TER PARECIDO VIVER EM VÃO”;

40- 1582/1609 – O ITALIANO GALILEU GALILEI: DESCREVEU O MOVIMENTO DO PÊNDULO


SIMPLES; CONSTRUIU UM TELESCÓPIO (BASEADO NO INSTRUMENTO ÓPTICO PARA
OBSERVAÇÕES MILITARES À DISTÂNCIA, CONSTRUÍDO POR H.LIPPERSHEY), E DESCOBRIU AS
MONTANHAS LUNARES, A ROTAÇÃO DO SOL SOBRE SEU EIXO, OS SATÉLITES DE JÚPITER E AS
FASES DE VÊNUS;

TAMBÉM ENUNCIOU O PRINCÍPIO DA INÉRCIA: “UM CORPO ISOLADO (SEM A INFLUÊNCIA DE


OUTROS CORPOS), PERMANECE EM REPOUSO OU EM MOVIMENTO RETILÍNEO E UNIFORME,
OU SEJA, EM LINHA RETA E À VELOCIDADE CONSTANTE”, e
A “LEI DA QUEDA LIVRE DOS CORPOS: A VELOCIDADE (v) ADQUIRIDA POR UM CORPO QUE
CAI LIVREMENTE (desprezando a resistência do ar), A PARTIR DO REPOUSO, É PROPORCIONAL
AO TEMPO (t), E QUE, O ESPAÇO PERCORRIDO (d) É PROPORCIONAL AO QUADRADO DO
TEMPO EM PERCORRÊ-LO (t2)”;

onde g ~ 9,8 m/seg 2 , é uma constante;


independentes da massa do corpo;

41- 1609/19 – JOHANES KEPLER: BASEADO NOS DADOS DE TYCHO BRAHE, FORMULOU AS LEIS
DO MOVIMENTO DOS PLANETAS:

I. “CADA PLANETA DESCREVE UMA ÓRBITA ELÍPTICA (OVAL) EM TORNO DO SOL, QUE
OCUPA UM DOS FOCOS” :

ELIPSE

F1 , F2 : FOCOS

II. “O RAIO VETOR QUE VAI DO SOL AO PLANETA, VARRE ÁREAS IGUAIS EM INTERVALOS
DE TEMPO IGUAIS” :

33
A1=A2

III. “O PERÍODO DA ÓRBITA DE UM PLANETA (TEMPO NECESSÁRIO PARA UMA


REVOLUÇÃO COMPLETA) ELEVADO AO QUADRADO, É PROPORCIONAL AO CUBO DO
SEMI-EIXO MAIOR DESSA ÓRBITA” :

a T
T2 ~ a3 , onde T é o período
e

a o semi-eixo maior

- EM 1611, JOHN NAPIER DESCOBRIU OS LOGARITMOS COM O OJETIVO DE SIMPLIFICAR OS


CÁLCULOS, POIS TRANSFORMA PRODUTO EM SOMA

E POTÊNCIA EM PRODUTO,
E NO SÉCULO XVIII, EULER O RELACIONOU COM A EXPONENCIAL;

42- 1605/20 – O INGLÊS FRANCIS BACON: DESCREVEU O SEU MÉTODO EXPERIMENTAL


INDUTIVO: “PARTINDO-SE DOS FATOS CONCRETOS, TAIS COMO SE DÃO NA EXPERIÊNCIA
CONTROLADA, ASCENDE-SE ÀS FORMAS GERAIS, QUE CONSTITUEM SUAS LEIS E CAUSAS”;
Segundo Bacon, a ciência deveria valorizar a pesquisa experimental, tendo em vista
proporcionar resultados objetivos para o homem. O método indutivo de investigação se
basea nas seguintes etapas:
>Observação da natureza para a coleta de informações (dados);
>Organização racional dos dados recolhidos empiricamente;
>Formulação de explicações gerais [hipóteses] destinadas à compreensão do fenômeno em
análise;
>Comprovação da hipótese formulada mediante experimentações repetidas em novas
circunstâncias.

43- 1637, O FRANCÊS RENÉ DESCARTES, EM SEU “DISCURSO SOBRE O MÉTODO”, TENTOU DESCREVER
DE FORMA GERAL, O QUE SERIA O “MÉTODO AXIOMÁTICO”, MAS NÃO ATENDEU ÀS EXIGÊNCIAS

34
CIENTÍFICAS DE OBJETIVAÇÃO, AO SUGERIR QUE OS AXIOMAS DAS TEORIAS PUDESSEM SER
“VALIDADOS APENAS PELO QUESTIONAMENTO TEÓRICO, OU SEJA, QUANDO NÃO HOUVESSE MAIS
RESSALVAS, O QUE SERIA EQUIVALENTE A OBTER UNANIMIDADE” (O QUE, INCLUSIVE, O TERIA
CONDUZIDO A ALGUMAS CONCLUSÕES PRECIPITADAS E ENGANOS). Talvez tenha se baseado na
parte que segue, dos ensinamentos de Ibn al-Haitham: “The duty of the man who
investigates the writings of scientists, if learning the truth is his goal, is to make himself
an enemy of all that he reads, and,.. attack it from every side. He should also suspect
himself as he performs his critical examination of it, so that he may avoid falling into
either prejudice or leniency.” Descartes tentou uma descrição do mecanismo de ação
da força gravitacional, que não foi constatado pelas experiências. No seu método,
preconizou a divisão do todo em partes, para a análise em separado, para, em etapa
seguinte, promover a síntese (regra descartada pela abordagem sistêmica). Em sua
análise da circulação sanguínea, contribuiu com a afirmação que as artérias e veias
seriam tubos que carregavam nutrientes pelo corpo.

44- 1638 – GALILEU GALILEI: ENUNCIOU OS TRÊS PRINCÍPIOS DO SEU MÉTODO CIENTÍFICO:

1) OBSERVAÇÃO DOS FENÔMENOS, TAIS COMO ELES OCORREM, SEM QUE O CIENTISTA SE
DEIXE PERTURBAR POR PRECONCEITOS EXTRACIENTÍFICOS, DE NATUREZA RELIGIOSA OU
FILOSÓFICA;
2) PRINCÍPIO DA EXPERIMENTAÇÃO CONTROLADA: NENHUMA AFIRMAÇÃO SOBRE
FENÔMENOS NATURAIS, QUE SE PRETENDA CIENTÍFICA, PODE PRESCINDIR DA VERIFICAÇÃO
DE SUA LEGITIMIDADE, ATRAVÉS DA PRODUÇÃO DO FENÔMENO EM “DETERMINADAS
CIRCUNSTÂNCIAS” (DE OBJETIVIDADE);
3) AS LEIS NATURAIS DEVEM SER QUANTIFICADAS POR EXPRESSÕES MATEMÁTICAS;

45- 1671- O INGLÊS R. HOOKE ENUNCIOU A “ LEI DA ELASTICIDADE DOS CORPOS, OU LEI DE HOOKE”:
“ATÉ O CHAMADO LIMITE DE ELASTICIDADE, O ALONGAMENTO Δx SOFRIDO POR UMA MOLA
ELÁSTICA, É PROPORCIONAL À FORÇA F QUE O CAUSOU, OU SEJA,
Δx = C. F , ONDE C É UMA CONSTANTE DE PROPORCIONALIDADE, QUE DEPENDE DA MOLA, DE MODO
QUE “QUANTO MAIOR A FORÇA, MAIOR O ALONGAMENTO, E, CESSADA A FORÇA, CESSA TAMBÉM A
DEFORMAÇÃO, E A MOLA VOLTA À SUA POSIÇÃO INICIAL”; NESSE INTERVALO DIZEMOS QUE O
ALONGAMENTO VARIA LINEARMENTE COM A FORÇA, UMA VEZ QUE O SEU GRÁFICO É UM SEGMENTO
DE RETA; ENTRE O LIMITE DE ELASTICIDADE E O CHAMADO “LIMITE DE PLASTICIDADE” OU “PONTO DE
RUPTURA”, TEMOS AS DEFORMAÇÕES INELÁSTICAS, PARA AS QUAIS “CESSADA A FORÇA, A MOLA
AINDA PERMANECE COM ALGUMA DEFORMAÇÃO (DEFORMAÇÃO PERMANENTE), E À PARTIR DESSE
PONTO, A MENOR FORÇA PROVOCARIA A RUPTURA DA MOLA, GERANDO UMA DESCONTINUIDADE”;

Hooke's law: the force is proportional to


the extension, until the elastic limit is
reached.

35
Δx

F
F

Plot of applied force F vs. elongation X for a helical spring according to Hooke's law (red
line) and what the actual plot might look like (dashed line)

46- 1687 – O INGLÊS ISAAC NEWTON: EM SEU “PRINCÍPIOS MATEMÁTICOS DA FILOSOFIA


NATURAL”, ENUNCIA OS PRINCÍPIOS DA MECÂNICA, ALÉM DA TEORIA DA GRAVITAÇÃO
UNIVERSAL, OU SEJAM:

- O ESPAÇO É O DA GEOMETRIA EUCLIDIANA, E O TEMPO, UMA VARIÁVEL REAL


INDEPENDENTE;

- 1ª LEI - PRINCÍPIO DA INÉRCIA: JÁ ENUNCIADO POR GALILEU GALILEI;

- 2ª LEI - “PARA MUDAR A VELOCIDADE OU A DIREÇÃO DO MOVIMENTO DE UM CORPO, É


NECESSÁRIA A APLICAÇÃO DE UMA FORÇA, QUE PODE SER REPRESENTADA POR UMA FLECHA
( ), OU SEJA, CARACTERIZADA POR DIREÇÃO, SENTIDO E INTENSIDADE;
ALÉM DISSO, = m. , ONDE É A RESULTANTE DAS FORÇAS QUE ATUAM NO CORPO, m
É A MASSA (INERCIAL), ISTO É, UMA MEDIDA DA INÉRCIA AO MOVIMENTO DO CORPO, E , A
SUA ACELERAÇÃO (OU, EM PALAVRAS, QUANTO MAIOR A INTENSIDADE DA FORÇA APLICADA
NUM CORPO EM DETERMINADA DIREÇÃO, MAIOR A SUA ACELERAÇÃO NESSA DIREÇÃO,
DEPENDENDO DA SUA MASSA)”, ONDE:

ESPAÇO PERCORRIDO POR UM PONTO EM MOVIMENTO EM


DETERMINADA DIREÇÃO E SENTIDO, ENTRE DOIS INSTANTES
VELOCIDADE =
TEMPO GASTO NO PERCURSO

VARIAÇÃO DA VELOCIDADE DE UM PONTO EM MOVIMENTO,EM


DETERMINADA DIREÇÃO E SENTIDO, ENTRE DOIS INSTANTES
ACELERAÇÃO =
. TEMPO DECORRIDO ENTRE OS DOIS INSTANTES

36
A INTENSIDADE DA FORÇA PODE SER REPRESENTADA PELO TAMANHO DA FLECHA.

- 3ª LEI- LEI DE AÇÃO E REAÇÃO: “A TODA AÇÃO (FORÇA) DE UM CORPO SOBRE OUTRO,
CORRESPONDE UMA REAÇÃO DO SEGUNDO SOBRE O PRIMEIRO, NA MESMA DIREÇÃO DA
AÇÃO, IGUAL EM INTENSIDADE E DE SENTIDO CONTRÁRIO”.
( FIGURA):

Assim |FA-B| = |FB-A|

- LEI DA GRAVITAÇÃO UNIVERSAL: “MATÉRIA ATRAI MATÉRIA NA RAZÃO DIRETA DAS MASSAS
(ISTO É, QUANTO MAIORES AS MASSAS, MAIOR A ATRAÇÃO) E NA RAZÃO INVERSA DO
QUADRADO DA DISTÂNCIA ENTRE ELAS (OU SEJA, QUANTO MAIOR O QUADRADO DA
DISTÂNCIA, MENOR A ATRAÇÃO)”.

ONDE G É UMA CONSTANTE (DE GRAVITAÇÃO UNIVERSAL), CALCULADA POR CAVENDISH


(usando uma balança de torção):

OBSERVAÇÃO: ENQUANTO AS LEIS DE KEPPLER SÃO DESCRITIVAS DO MOVIMENTO DOS


PLANETAS, AS TRÊS LEIS DE NEWTON PRETENDEM ENUNCIAR OS PRINCÍPIOS GERAIS AOS
QUAIS ESTARIAM SUJEITOS TODOS OS MOVIMENTOS TERRESTRES E CELESTES, OU SEJA,
COMPÕEM UMA TEORIA, QUE JUNTAMENTE COM A LEI DA GRAVITAÇÃO UNIVERSAL, SE
CONSTITUIRAM, APÓS A SÍNTESE DA GEOMETRIA EUCLIDEANA, NA 2ª GRANDE SÍNTESE
MATEMÁTICA, CONSEGUINDO, INCLUSIVE, PREDIZER A EXISTÊNCIA DE PLANETAS, E DE
UTILIDADE INCONTESTÁVEL PARA MOVIMENTOS COM VELOCIDADES REDUZIDAS EM RELAÇÃO
À VELOCIDADE DA LUZ (POR EXEMPLO, NO CÁLCULO DE ESTRUTURAS, PROGRAMA ESPACIAL-
AVIAÇÃO,BALÍSTICA,SATÉLITES,ETC.); HÁ CÁLCULOS SUGERINDO COMO NEWTON PODERIA
TER CHEGADO À 2ª LEI, ENQUANTO A LEI DO INVERSO DO QUADRADO DA DISTÂNCIA PARA A
GRAVITAÇÃO EXPRESSA UMA “LEI DE ESTABILIDADE”: CONSULTADO SOBRE A NÃO EXPLICADA
NATUREZA DA “FORÇA GRAVITACIONAL”, NEWTON RESPONDEU: “VAMOS AFIRMAR
SOMENTE O QUE PUDERMOS JUSTIFICAR COM CERTEZA E DELEGAR O QUE NÃO

37
SOUBERMOS (OU SEJA, MANTER OS “PROBLEMAS ABERTOS”) PARA A ABORDAGEM DAS
GERAÇÕES FUTURAS”

47- A DESCRIÇÃO DO MOVIMENTO DE UM CORPO MATERIAL REQUER O CONHECIMENTO DA


SUA TRAJETÓRIA, E DA SUA CELERIDADE (OU SEJA, QUÃO RAPIDAMENTE O PONTO A
DESCREVE); OBTEVE-SE A QUANTIFICAÇÃO DA CELERIDADE ATRAVÉS DO CONCEITO DE
VELOCIDADE, QUE É UMA RELAÇÃO ENTRE A MEDIDA DA VARIAÇÃO DA POSIÇÃO DO PONTO
MATERIAL, E O TEMPO GASTO NO PERCURSO: SUPONDO QUE NO INSTANTE t0 O PONTO
MATERIAL OCUPA A POSIÇÃO P(t0) , E NO INSTANTE t, A POSIÇÃO P(t) ; A VARIAÇÃO DA
POSIÇÃO ENTRE OS INSTANTES t0 E t , É P(t) – P(t0) ; A VARIAÇÃO DA POSIÇÃO
[ P(t) – P(t ) ]
0 RELATIVA AO TEMPO, NO INTERVALO ( Δt
= t - t0 ) , TAMBÉM CHAMADA
DE TAXA DE VARIAÇÃO DA POSIÇÃO EM RELAÇÃO AO TEMPO, É [ P(t) - P(t0) ] / [t - t0 ]
E A VELOCIDADE (INSTANTÂNEA) DO PONTO MATERIAL NO INSTANTE t0 (OU NO PONTO
P(t0) ) , QUE É UMA MEDIDA DA TAXA DE VARIAÇÃO DO PONTO MATERIAL “LOCALIZADA” NO
INSTANTE t0 (OU NO PONTO P(t0))
É DADA PELO LIMITE DO QUOCIENTE [ P(t) - P(t0) ] / [t - t0 ] QUANDO t TENDE A t0 ,
OU EM SÍMBOLOS:

V (t0) = limΔt→0 [ P(t) - P(t0) ] / [t - t0 ] ;

POR EXEMPLO, DIZER QUE A VELOCIDADE (INSTANTÂNEA) DE UM PONTO MATERIAL NO


INSTANTE t0 É 8 metros por segundo = 8 metros/segundo = 8 m/s , EQUIVALE A DIZER
QUE SE A PARTIR DE t0 , O PONTO NÃO ALTERAR A SUA VELOCIDADE (OU SEJA, CONTINUAR
O SEU MOVIMENTO RETILÍNEO E UNIFORME), PERCORRERÁ 8 METROS, A CADA SEGUNDO DE
MOVIMENTO;
- A GENERALIZAÇÃO DESSE CONCEITO PARA OUTRAS FUNÇÕES GEROU O CONCEITO DE
DERIVADA, QUE, JUNTAMENTE COM O CONCEITO DE INTEGRAL, SE CONSTITUEM NOS
CONCEITOS FUNDAMENTAIS DO CÁLCULO DIFERENCIAL E INTEGRAL;
- O CONCEITO DE DERIVADA TEVE SUCESSO NA DESCRIÇÃO DE QUANTIDADES VARIÁVEIS,
TENDO PROPRIEDADES OPERACIONAIS [POR EXEMPLO, A DERIVADA DE UMA FUNÇÃO
ELEMENTAR É UMA FUNÇÃO ELEMENTAR (funções polinomiais, logarítmicas, exponenciais,
trigonométricas, e as obtidas à partir de funções elementares através das quatro operações,
inversão e composição; pode ser definida formalmente como a intersecção de todas as classes
de funções que contém as funções citadas acima), E EXISTEM REGRAS OPERACIONAIS DE
DERIVAÇÃO], ENQUANTO QUE PARA A INTEGRAÇÃO, QUE NUM CERTO SENTIDO É UMA
OPERAÇÃO INVERSA DA DERIVAÇÃO, TAMBÉM EXISTEM REGRAS OPERACIONAIS, EMBORA A
INTEGRAL DE UMA FUNÇÃO ELEMENTAR, NÃO SEJA SEMPRE UMA FUNÇÃO ELEMENTAR (POR
EXEMPLO e-(x²/2) , que fornece a densidade de probabilidade normal);

Regras gerais de derivação:

38
, , ,

Funções trigonométricas

Linearidade

Regra do produto

Regra do quociente

ou,

Regra da Cadeia

onde (f g)(x) definida por f(g(x)), representa a composição de funções, etc.

Integral indefinida, Primitiva ou Antiderivada de uma função f :

, ou

39
Propriedade: Se F é uma primitiva de uma função contínua f, toda outra primitiva
de f tem a forma G(x) = F(x) + C, onde C é uma constante.
Integral Indefinida: Se f é uma função contínua, então a sua integral indefinida
existe, e é dada por

∫ f (x) dx F(x) C ,


Regras algébricas para Integração Indefinida:

1) ∫ k f (x) dx k ∫ f (x) dx , k uma constante qualquer.


2) ∫f (x) g(x)dx ∫ f (x) dx ∫ g(x)dx

∫ k dx kx C, k constante , ∫x+n dx = x+(n+1)/n+1 + C

∫ 1/x dx = lnx C ∫ e dx e C ,∫ cos(x) dx sen(x) C , etc.

A PARTIR DAS REGRAS BÁSICAS DESENVOLVERAM-SE “MÉTODOS DE INTEGRAÇÃO”


(INTEGRAÇÃO POR QUADRATURA, QUE NÃO ENVOLVEM OPERAÇÕES INFINITAS, COMO
LIMITES OU SÉRIES), PARA AS DIVERSAS CLASSES DE FUNÇÕES; ASSIM A EXISTÊNCIA É
ESTABELECIDA NA FORMA MAIS GERAL POSSÍVEL, MAS, PARA O CÁLCULO EFETIVO,
DESENVOLVERAM-SE MÉTODOS ADEQUADOS A CADA CLASSE DE FUNÇÕES;

48- PARA OS CÁLCULOS ENVOLVIDOS NA TEORIA, O PRÓPRIO NEWTON CRIOU O “CÁLCULO


DIFERENCIAL E INTEGRAL”, QUE NA MESMA ÉPOCA, TAMBÉM FOI PUBLICADO PELO ALEMÃO
W. LEIBNIZ, E EM 1748, EULER, USANDO A NOTAÇÃO MAIS OPERACIONAL DOS MONADAS ( dx,
dy, dy/dx, etc.) DE LEIBNIZ, DESENVOLVEU MÉTODOS PARA A ABORDAGEM DOS PROBLEMAS;

- PARA OS EQUACIONAMENTOS RESULTANTES DA 2ª LEI, FORAM DESENVOLVIDAS AS


EQUAÇÕES DIFERENCIAIS ORDINÁRIAS (PARA AS QUAIS A FUNÇÃO INCÓGNITA APRESENTA
UMA SÓ VARIÁVEL, E É CONHECIDA UMA RELAÇÃO ENVOLVENDO SUAS DERIVADAS);
-O ENTENDIMENTO HABITUAL PARA A 2ª LEI DE NEWTON, É QUE: “CONHECENDO-SE AS
FORÇAS EXTERNAS À PARTÍCULA (SISTEMA MECÂNICO OU CORPO CONSIDERADO) E
RESOLVENDO A EQUAÇÃO RESULTANTE DA LEI (UMA VEZ QUE, EM GERAL, AS FORÇAS
PODEM DEPENDER DA SUA POSIÇÃO E VELOCIDADE), OBTEM-SE AS POSSÍVEIS TRAJETÓRIAS
PARA O MOVIMENTO, E, COM MAIS ALGUMA INFORMAÇÃO (P.EX., POSIÇÃO E VELOCIDADE
EM ALGUM INSTANTE), A SUA TRAJETÓRIA COMPLETA, OU SEJA, SUA POSIÇÃO E VELOCIDADE
EM CADA INSTANTE- PASSADO OU FUTURO”;

SE UM PONTO MATERIAL SE DESLOCA NO EIXO DOS x , A 2ª LEI PODE SER EXPRESSA POR:

m. x’’(t) = f(t, x(t), x’(t) ) , ONDE m É A MASSA , x(t) , x’(t) E x’’(t) , A POSIÇÃO,
VELOCIDADE E ACELERAÇÃO DO PONTO, E f , A RESULTANTE DAS FORÇAS EXTERNAS NA
DIREÇÃO DO EIXO DOS x , QUE, EM GERAL PODE DEPENDER DE t , x(t) E x’(t) ;

40
49- Em geral uma EQUAÇÃO DIFERENCIAL ORDINÁRIA DE 1ª ORDEM (maior
ordem de derivação que comparece na relação dada), fornece como SOLUÇÃO GERAL
(fórmula que expressa as soluções), uma família de curvas a um parâmetro ( que não se
intersectam, se valer a unicidade de solução passando por cada ponto considerado), e,
para eleger uma, entre as soluções, pede-se que satisfaça alguma condição adicional, por
exemplo, que passe por determinado ponto:

Por exemplo:

a solução geral da equação y’ (t) = 0 , obtida através de uma integração, representa a


família de curvas paralelas ao eixo dos t, y’ (t) = c = constante;

a solução geral da equação y’ (t) = c = constante dada , representa a família de


curvas paralelas, com coeficiente angular c , ou seja, inclinação θc , tal que tg (θc )
=c ;

a solução geral da equação y’ = y , representa a família de curvas que não se


intersectam y (x) = c. ex , onde c é uma constante real, e x=t é a variável independente:

gráfico da função y (x) = ex

Através da função exponencial, pode-se obter soluções de outras equações diferenciais;

- Em geral, a SOLUÇÃO GERAL de uma EQUAÇÃO DIFERENCIAL ORDINÁRIA DE


2ª ORDEM, fornece uma família de curvas a dois parâmetros, e, para eleger uma, entre
as soluções, pede-se que satisfaça duas condições adicionais, por exemplo, que passe
por determinado ponto com determinada velocidade:

Por exemplo:

A solução geral da equação y’’ (t) = 0 , obtida através de duas integrações, representa a
família de curvas

y (t) = c1. t + c2 , que para cada c1 , representa uma família de retas paralelas com
coeficiente angular c1 , e, para cada c2 , o feixe de retas, no plano (t , y (t)) , que
intersectam o eixo y (t=0 na equação) no ponto de ordenada c2 ;

50- AO SUBSTITUIR O SÍMBOLO DE UMA FORÇA GENÉRICA POR UMA SÉRIE DE POTÊNCIAS,
NEWTON REVELA QUAL A AMPLITUDE QUE TINHA PARA O CONCEITO DE FUNÇÃO; EULER,

41
ADIANTANDO-SE ÀS PROVAS (QUE SÓ VIRIAM NO SÉCULO XIX), JÁ MANTEVE AS FUNÇÕES
β e γ NA FORMA INTEGRAL; FOURIER, EM 1811, ENUNCIOU QUE TODA FUNÇÃO PODERIA
SER EXPRESSA PELO SEU DESENVOLVIMENTO EM SÉRIES TRIGONOMÉTRICAS (SÉRIES DE
FOURIER), REVELANDO TAMBÉM QUAL A AMPLITUDE QUE TINHA PARA O CONCEITO DE
FUNÇÃO, CUJA DEFINIÇÃO SÓ VIRIA EM MEADOS DO SÉCULO; E CAUCHY, EM 1823, JÁ
CARACTERIZAVA FUNÇÃO CONTÍNUA EM TERMOS DE EPSLONS E DELTAS;

51-CONSEGUIU-SE TRATAR O PROBLEMA DE “DOIS CORPOS, SUJEITOS À ATRAÇÃO


GRAVITACIONAL MÚTUA”, ALÉM DE OUTROS PROBLEMAS SIMPLES PARA OS QUAIS LEIS
EMPÍRICAS FORNECIAM AS FÔRÇAS EXTERNAS ENVOLVIDAS NA 2ª LEI (P.EX., A LEI DE
HOOKE, AS FORÇAS DE ATRITO, FORÇA DE RESISTÊNCIA DO AR A UM CORPO EM MOVIMENTO
(PROPORCIONAL AO QUADRADO DA VELOCIDADE), AS DE NATUREZA ELÉTRICA E MAGNÉTICA,
ETC.):

Forças de Atrito:

O atrito resulta

da interação
entre dois
corpos;
Num
automóvel, o
motor aciona as
rodas, que ao tentar girar, empurram o solo (fixo) para
traz, cuja reação, é uma força sobre as rodas, para
frente, que o faz andar; quanto maior a aderência dos
pneus no solo, menor o escorregamento, maior o
atrito, e maior é a força de reação propulsora sobre as
rodas;

Fonte internet: Por Thyago Ribeiro

Considere um corpo apoiado sobre uma superfície horizontal e rígida. Se o corpo receber a
ação de uma força f, devido às rugosidades surge a força de atrito.

As forças de atrito são contrarias ao movimento. Existem dois tipos de atrito estático e
cinético. Quando existe força atuando em um corpo mas ele não se move, o atrito é
denominado estático, quando existe força atuando num corpo e ele se move, o atrito é
denominado cinético.

42
Força de Atrito Estático

Vamos considerar o corpo representado na figura abaixo:

Se o corpo é puxado, porém não consegue escorregar na superfície, significa que ele recebeu a
ação de uma força de atrito que impede seu movimento. Essa força é denominada atrito
estático. Nesse caso:

F = FAE

A força de atrito estático tem um limite máximo, denominado tem um limite máximo,
denominado de força de atrito estático máximo.

FAEmax = μe . N

N é a força normal que o corpo troca com a superfície do apoio;


μe é o coeficiente de atrito estático.

O coeficiente é um numero adimensional que depende das rugosidades da face do corpo que
está apoiada e da superfície de contato. Quanto mais áspero for o corpo ou a superfície maior
será o coeficiente.

A força de atrito estático pode variar de zero ate seu limite máximo, em função da intensidade
da força aplicada. Então o corpo so deslizará na superfície quando a força F vencer o atrito
estático.

Força de Atrito Cinético

Vamos considerar o corpo representado na figura abaixo:

Se o corpo está escorregando na superfície de apoio, significa que a força de atrito que age
nele é cinético ou dinâmico. A força de atrito cinético é dado por:

43
FAC = μc . N

N é a fora normal que o corpo troca com a superfície do apoio;


μc é o coeficiente de atrito estático.

O coeficiente é um numero adimensional que depende das rugosidades da face do corpo que
está apoiada e da superfície de contato. A força de atrito cinético é constante e não depende
da velocidade de escorregamento do corpo.

Comparação entre os Atritos Cinético e Estático

Na prática, verifica-se que é mais difícil tirar um corpo do repouso do que mantê-lo em
movimento:

μe ≥ μc

Força de Resistência do Ar

Paraquedista planando em razão da força de resistência do ar

Se um corpo se movimenta através de um fluido (um gás, um líquido ou um vapor) surge uma força que
se opõe a esse movimento. Em se tratando do ar, essa força é chamada de força de resistência do ar.
Graças a essa resistência é que o paraquedas existe.
Quando um corpo está em movimento, ele sofre a ação de forças dissipativas, entre as quais podemos
citar o atrito e a resistência do ar.
Para o movimento de um corpo em contato com o ar (como a queda livre, o movimento de uma
motocicleta ou de um avião) com uma velocidade qualquer, a força da resistência do ar é dada por:

Fr = K . v 2
Onde k é uma constante que depende da forma do corpo e da área da secção transversal do corpo,
perpendicular à direção do movimento.

44
Em carros de fórmula 1, por exemplo, as formas aerodinâmicas diminuem o valor de K, o que ajuda a
diminuir a resistência do ar nesses veículos, fazendo com que ganhem mais velocidade.
Já nos paraquedas, por exemplo, sua aerodinâmica aumenta o valor de K, consequentemente a
resistência do ar aumenta.

Podemos dizer que o ar no paraquedas funciona como um vento forte, empurrando-o para cima, aliviando
a queda.

Por Kleber G Cavalcante

FORÇAS ELÉTRICAS E MAGNÉTICAS (Wikipedia):

- EM 1783, o francês C.A.COULOMB, desenvolveu a relação entre força e cargas


conhecida como LEI DE COULOMB:

As diferentes inclinações das esferas ocorrem pela força elétrica de repulsão;

Pelo princípio de atração e repulsão, cargas elétricas de sinais contrários exercem


forças de repulsão entre si, e cargas elétricas do mesmo sinal, forças de atração;
A Lei de Coulomb enuncia que a intensidade da força elétrica de interação entre
cargas puntiformes é diretamente proporcional ao produto dos módulos de cada carga
e inversamente proporcional ao quadrado da distância que as separa. Ou seja:

ou

45
onde:

F : força de atração ou repulsão mútua nas cargas;


Q1 e Q2 : são as valores das cargas;

k : constante eletrostática (no vácuo , no sistema SI );

d : distância entre as cargas;

A FORÇA DE LORENTZ representa a força eletromagnética total que atua em um portador


de carga elétrica q quando este se move com velocidade em uma região do espaço sobre
influência simultânea de um campo magnético e um campo elétrico .

, ou

Onde

é a força exercida pelo campo eletromagnético na carga puntiforme

é o vetor Campo elétrico

é o vetor Campo magnético

q é a carga elétrica (valor negativo para cargas negativas)

é a velocidade da carga

Essa equação é na verdade uma sintese das seguintes equações:

O sentido da força magnética pode ser obtido pela regra da mão esquerda:

46
De modo equivalente, para o produto vetorial , é bastante usada a regra da mão
direita ou do saca-rolhas;

Exemplo: Railguns (UOL-como tudo funciona)

47
52-OCORRE QUE A 2ª LEI APRESENTOU OS SEGUINTES PROBLEMAS DE
APLICABILIDADE:

a) JÁ PARA O PROBLEMA DE TRÊS CORPOS SUJEITOS À GRAVITAÇÃO MÚTUA, A 2ª LEI,


NEM SEMPRE FORNECE SOLUÇÃO EXPLÍCITA ATRAVÉS DE UMA FÓRMULA MATEMÁTICA;

b) HÁ CASOS EM QUE NÃO SE CONHECE AS FORÇAS EXTERNAS QUE ATUAM NO CORPO


MATERIAL, TEMOS INFORMAÇÕES APENAS SOBRE AS LIMITAÇÕES ÀS SUAS TRAJETÓRIAS,
CHAMADAS “VÍNCULOS” (P.EX. SABENDO QUE OS PONTOS MATERIAIS ESTÃO LIMITADOS A SE
MOVIMENTAR SOBRE DETERMINADAS CURVAS, SUPERFÍCIES OU REGIÕES DO ESPAÇO);

53-COM AS CONTRIBUIÇÕES DE G.W.LEIBNIZ, YOUNG (1807), CORIOLIS (1829), e W.RANKINE (1853),


CONSEGUIU-SE IDENTIFICAR DUAS QUANTIDADES, PARA UM PONTO MATERIAL EM MOVIMENTO, OU
EM POSIÇÃO DE MOVIMENTO EMINENTE:

A ENERGIA POTENCIAL (simbolizada por U ou Ep), QUE É UMA “MEDIDA DO POTENCIAL


DE MOVIMENTO, QUE A POSIÇÃO DA PARTÍCULA LHE CONFERE”, E

A ENERGIA CINÉTICA ( ), QUE É UMA “MEDIDA DO


POTENCIAL DE CONTINUAR O SEU MOVIMENTO, QUE A SUA VELOCIDADE V LHE CONFERE”,
COM A PROPRIEDADE DE QUE SUA SOMA Emec = Ep + Ec ,

CHAMADA DE ENERGIA MECÂNICA , NÃO SE ALTERA DURANTE MOVIMENTO


CONSERVATIVO , OU SEJA, É UMA QUANTIDADE QUE PERMANECE CONSTANTE DURANTE O
MOVIMENTO. COM O AUXÍLIO DESSA PROPRIEDADE, CHAMADA “CONSERVAÇÃO DA
ENERGIA MECÂNICA”, E COM O CONCEITO DE TRABALHO DE FORÇAS CONSERVATIVAS E
DISSIPATIVAS (QUE SÃO MEDIDAS DA TRANFERÊNCIA DE ENERGIA), TEOREMA DA ENERGIA
MECÂNICA, CONSERVAÇÃO DA QUANTIDADE DE MOVIMENTO (OU MOMENTO LINEAR
p=m.v ), CONSERVAÇÃO DO MOMENTO ANGULAR E REFORMULAÇÕES DOS PRINCÍPIOS DA
MECÂNICA (DEVIDAS A LAGRANGE E HAMILTON), CONSEGUIU-SE ABORDAGENS
ALTERNATIVAS, DENTRE OUTROS, DOS PROBLEMAS CITADOS:

- Em 1788, o matemático francês J.L.LAGRANGE apresentou a chamada


Mecânica Lagrangeana, que reformula a Mecânica de Newton, num
tratamento escalar, sem mencionar as forças, considerando o sistema físico
determinado pelas coordenadas generalizadas escalares (em particular, os
módulos ri dos vetores de posição, as coordenadas cartesianas, etc.) e pelas
velocidades generalizadas

As equações de Euler-Lagrange

48
que representa um sistema de equações diferenciais parciais de 2ª ordem em t,
e L = T – V é a função lagrangeana , definida como a diferença entre a
energia cinética T e energia potencial V;

- Das equações de Euler-Lagrange, nota-se que se a derivada de L em relação


a qi é zero (ou seja, L é simétrica em relação a qi), a quantidade entre
parênteses permanece invariante em relação ao tempo, ou seja, é
conservada, enunciado conhecido como Teorema de Noether (Emmy
Noether, 1915), e que se generaliza a: toda simetria do lagrangeano,
corresponde a uma quantidade que se conserva (invariante). For example,
the idea that the fundamental laws of physics are the same today as tomorrow (time
symmetry) implies that energy is conserved. The idea that the laws of physics are the
same here as they are in outer space implies that momentum is conserved.

Obs. A análise das simetrias se constituiu na principal motivação do


matemático francês Sophus Lie, na abordagem dos chamados grupos de Lie
(estruturas abstratas).

- Em 1834, o irlandês W.HAMILTON formulou o Princípio da Mínima Ação,


ou da Ação Estacionária de Hamilton: dentre as possíveis trajetórias, unindo
dois pontos dados num campo físico, uma partícula seguirá a que fornecer a
Ação S Mínima entre as trajetórias próximas:

ou

Onde é a função lagrangeana (generalizada) do sistema.

Observação: conseguiu-se assim uma formulação mais geral (com aplicações


a diversos ramos da física: eletromagnetismo, relatividade e mecânica
quântica) da qual decorrem as equações de Euler-Lagrange;

- Em 1834/5, W.HAMILTON apresentou uma abordagem alternativa à


mecânica lagrangeana, ao considerar:

= é a função hamiltoniana, que representa a energia total


(cinética + potencial) do sistema, expressa em termos das
coordenadas generalizadas q = q(t) (em particular coordenadas cartesianas
de todos os pontos materiais), e dos momentos generalizados p=p(t) (em
particular p = m.v , para cada ponto); Por exemplo:

, quando q=x

49
e as equações de Hamilton:

Obs: The Hamiltonian approach to dynamics was generalized by the Russian


mathematician Lev Pontryagin in terms of Optimal Control Theory and the Maximum
Principle (1956).

Hamilton–Jacobi equation (Wikipedia) .


In physics, the Hamilton–Jacobi equation (HJE, named for William Rowan Hamilton and Carl
Gustav Jacob Jacobi) is a formulation of classical mechanics, equivalent to other formulations
such as Newton's laws of motion, Lagrangian mechanics and Hamiltonian mechanics. The HJE
is particularly useful in identifying conserved quantities for mechanical systems, which may be
possible even when the mechanical problem itself cannot be solved completely. In general, the
Hamilton–Jacobi equation is a necessary condition describing extremal geometry in
generalizations of problems from the calculus of variations, and is a special case of the
Hamilton-Jacobi-Bellman equation.

The HJE is also the only formulation of mechanics in which the motion of a particle can
be represented as a wave. In this sense, the HJE fulfilled a long-held goal of theoretical
physics (dating at least to Johann Bernoulli in the 18th century) of finding an analogy
between the propagation of light and the motion of a particle. The wave equation
followed by mechanical systems is similar to, but not identical with, Schrödinger's
equation, as described below; for this reason, the HJE is considered the "closest
approach" of classical mechanics to quantum mechanics. [1][2]

Notation. Let represent a list of generalized coordinates

A dot over a variable or list signifies the time derivative, e.g., .

The dot (or inner) product notation between two lists of the same number of coordinates
is a shorthand for the sum of the products of corresponding components, e.g.

The dot product maps the two coordinate lists into one variable representing a single
numerical value.

The Hamilton–Jacobi equation is a first-order, non-linear partial differential


equation[3]

50
where

is the classical Hamiltonian function,

is called Hamilton's principal function (also the action), qi are the N generalized
coordinates (i = 1,2...N) which define the configuration of the system, and t is time.

The Action is most commonly used for a functional which takes a


function of time and (for fields) space as input and returns a scalar.[6][7] In
classical mechanics, the input function is the evolution q(t) of the system
between two times t1 and t2, where q represent the generalized
coordinates. The action is defined as the integral of the
Lagrangian L for an input evolution between the two times

where the endpoints of the evolution are fixed and defined as and
. According to Hamilton's principle, the true evolution qtrue(t) is an
evolution for which the action is stationary. This principle results in the
equations of motion in Lagrangian mechanics.

The Hamilton's principal function S is related to the functional by fixing the initial
time t1 and endpoint q1 and allowing the upper limits t2 and the second endpoint q2 to
vary; these variables are the arguments of the function S. In other words, the action
function is the indefinite integral of the Lagrangian with respect to time.

This equation may be derived from Hamiltonian mechanics by treating S as the


generating function for a canonical transformation of the classical Hamiltonian

The conjugate momenta correspond to the first derivatives of S with respect to the
generalized coordinates

51
As a solution to the Hamilton–Jacobi equation, the principal function contains N + 1
undetermined constants, the first N of them denoted as α1, α2 ... αN, and the last one
coming from the integration of .

The relationship between p and q then describes the orbit in phase space in terms of
these constants of motion. Furthermore, the quantities

are also constants of motion, and these equations can be inverted to find q as a function
of all the α and β constants and time.[4]

54- A PROPRIEDADE DE A PARTIR DE INFORMAÇÕES DO ESTADO PRESENTE (OU, TAMBÉM DO


PASSADO), SE PODER PREDIZER TODAS AS POSIÇÕES E VELOCIDADES FUTURAS DOS PONTOS
MATERIAIS (E, PORTANTO, DE TODOS OS CORPOS DO UNIVERSO, COMO PRETENDIA O
MATEMÁTICO FRANCÊS LAPLACE, NO INÍCIO DO SÉCULO XIX), FOI CHAMADA DETERMINISMO
NEWTONIANO, OU SIMPLESMENTE, DETERMINISMO;

55-O FATO DE, NA PRÁTICA, SÓ TERMOS ACESSO A APROXIMAÇÕES (INTERVALOS DE


PRECISÃO) PARA AS QUANTIDADES ENVOLVIDAS, FARIA, POR SI SÓ, COM ESSE DETERMINISMO
FOSSE TAMBÉM APENAS APROXIMADO, E INDUZ AO QUESTIONAMENTO QUANTO À
“CONTINUIDADE DO PROCESSO” (EM PARTICULAR, DOS PROBLEMAS ENVOLVENDO A 2ª LEI
DE NEWTON), OU SEJA, SE “A DADOS RELATIVAMENTE PRÓXIMOS, CORRESPONDEM
RESULTADOS TAMBÉM RELATIVAMENTE PRÓXIMOS”, OU, EM OUTRAS PALAVRAS, “SE
PODEMOS CONTROLAR AS DIFERENÇAS NOS DADOS DO PROBLEMA, PARA QUE SEUS
RESULTADOS FIQUEM DENTRO DE INTERVALOS DE PRECISÃO, CONSIDERADOS
PRÈVIAMENTE ADMISSÍVEIS AO PROCESSO EM QUESTÃO”, OU AINDA, SE “A TODO NÚMERO
ε>0 DADO (ERRO PERMITIDO PARA OS RESULTADOS), EXISTIR, EM CORRESPONDÊNCIA, UM
NÚMERO σ>0 (ERRO CONTROLADO PARA OS DADOS), TAL QUE: SE CONSIDERARMOS
DADOS COM DIFERENÇA MENOR DO QUE O ERRO CONTROLADO σ , OS RESULTADOS
FICAREM COM DIFERENÇA MENOR DO QUE O ERRO PERMITIDO ε” E, ATENTAR PARA SEUS
POSSÍVEIS PONTOS DE DESCONTINUIDADE (COMO NO EXEMPLO DO “PONTO DE RUPTURA”
DE UMA MOLA ESTIRADA);

- TAMBÉM PODEM OCORRER COMPORTAMENTOS CAÓTICOS, COMO AS TURBULÊNCIAS


FLUIDODINÂMICAS, DESCRITOS NA TEORIA DO CAOS;

56 -OCORRE QUE, MESMO ESTANDO EM PROCESSO CONTÍNUO, A ANÁLISE DA PROPAGAÇÃO


DE ERROS, REVELA QUE, PARA A 2ª LEI DE NEWTON, DIFERENÇAS NOS DADOS DO PROBLEMA,
CRESCEM INDEFINIDAMENTE (LOGARITMICAMENTE) COM O TEMPO, LIMITANDO ASSIM,
NOSSA CAPACIDADE DE PREDIÇÃO!

57-ALÉM DISSO, O PRINCÍPIO DA INCERTEZA (ENUNCIADO PELO ALEMÃO W. HEISENBERG,


EM 1926) DA MECÂNICA QUÂNTICA (DESENVOLVIDA PARA PARTÍCULAS ELEMENTARES),
ENUNCIA QUE:

52
“NÃO É POSSÍVEL DETERMINAR PRATICAMENTE, AO MESMO TEMPO E COM PRECISÃO, A
POSIÇÃO E VELOCIDADE DE UMA PARTÍCULA ELEMENTAR: QUANTO MELHOR A PRECISÃO DE
UMA, MENOR A PRECISÃO DA OUTRA”;
A LIMITAÇÃO DO PROCESSO DE OBSERVAÇÃO É RELATIVAMENTE SIMPLES DE ENTENDER:
POR EXEMPLO, PARA OBSERVAR UMA MESA, FOTONS DE LUZ INCIDEM SOBRE A MESA, QUE
OS REFLETE AOS NOSSOS OLHOS; ESSE PROCESSO DE OBSERVAÇÃO PODE DESLOCAR
ALGUMAS PARTÍCULAS ELEMENTARES DA MESA, O QUE NÃO A ALTERA SIGNIFICATIVAMENTE;
PARA DETERMINAR A POSIÇÃO DE UMA PARTÍCULA ELEMENTAR COM PRECISÃO, DEVEMOS
INCIDIR SOBRE ELA UMA RADIAÇÃO COM COMPRIMENTO DE ONDA REDUZIDO (VISTO QUE,
QUANTO MENOR O COMPRIMENTO DE ONDA DA RADIAÇÃO INCIDENTE, MENOR A DISTÂNCIA
ENTRE DOIS PONTOS QUE PODEM SER DISTINGUIDOS E MAIOR A PRECISÃO NAS MEDIÇÕES DE
POSIÇÕES). OCORRE QUE, QUANTO MENOR O COMPRIMENTO DE ONDA DE UMA RADIAÇÃO,
MAIOR A SUA FREQUÊNCIA v E MAIOR A SUA ENERGIA E (EM VIRTUDE DA RELAÇÃO DE
PLANCK , ONDE h É A CONSTANTE DE PLANCK), E NA INCIDÊNCIA DESSA
RADIAÇÃO, HÁ A TRANSFERÊNCIA DE UMA MAIOR ENERGIA À PARTÍCULA OBSERVADA, O QUE
ALTERA SIGNIFICATIVAMENTE SUA VELOCIDADE v , E SEU MOMENTO LINEAR p= m.v (ONDE
m É SUA MASSA). COM RACIOCÍNIO ANÁLOGO, JUSTIFICA-SE QUE A MEDIÇÃO DA
VELOCIDADE DE UMA PARTÍCULA ELEMENTAR COM PRECISÃO, ALTERARIA
SIGNIFICATIVAMENTE A SUA POSIÇÃO;
DE ACORDO COM A MECÂNICA QUÂNTICA, ESSA INCERTEZA NÃO É UMA SIMPLES
LIMITAÇÃO DA NOSSA CAPACIDADE DE MEDIÇÃO, MAS FAZ PARTE DA “NATUREZA FÍSICA”;
DEPENDENDO DA FORMALIZAÇÃO, TRABALHA COM REGIÕES DE PROBABILIDADE DE CONTER
AS PARTÍCULAS ELEMENTARES;
MESMO QUE ESSE PRINCÍPIO PREVALEÇA AO NÍVEL DAS PARTÍCULAS ELEMENTARES, NADA
IMPEDE QUE HAJA ALGUMA PREDISIBILIDADE (PELO MENOS EM MÉDIA), AO NÍVEL DE
CONJUNTO DE PARTÍCULAS (MECÂNICA ESTATÍSTICA), COMO É O CASO DOS OBJETOS E
CORPOS DO NOSSO MUNDO REAL MACROSCÓPICO, OU DO SISTEMA SOLAR, QUE
APRESENTAM RELATIVA ESTABILIDADE;
- A MECÂNICA QUÂNTICA CONSEGUE JUSTIFICAR A ESTABILIDADE DOS ÁTOMOS, E, EM
PRINCÍPIO, PREVER A LIGAÇÃO ENTRE ÁTOMOS E AS REAÇÕES QUÍMICAS, REDUZINDO ASSIM,
A QUÍMICA À FÍSICA;

58- NA TENTATIVA DE AMPLIAR O ALCANCE DA TEORIA PARA OS CASOS NOS QUAIS NÃO SE
CONTAVA COM UMA FÓRMULA EXPLICITA PARA AS SOLUÇÕES DOS PROBLEMAS DA
MECÂNICA (P.EX. PROBLEMA DE n CORPOS SUJEITOS À ATRAÇÃO GRAVITACIONAL
MÚTUA, COMO PARA O SISTEMA SOLAR COM VARIOS PLANETAS), À PARTIR DA SEGUNDA
METADE DO SÉCULO XIX, TEVE INÍCIO A TEORIA ABSTRATA DAS EQUAÇÕES, COM
DEMONSTRAÇÕES DE EXISTÊNCIA E OUTRAS PROPRIEDADES DAS SOLUÇÕES, SEM A
NECESSIDADE DA EXPLICITAÇÃO DE SUAS FÓRMULAS ;

EXEMPLO: :
Picard–Lindelöf theorem, Picard's existence theorem or Cauchy–Lipschitz theorem is an
important theorem on existence and uniqueness of solutions to first-order equations with
given initial conditions, named after Charles Émile Picard, Ernst Lindelöf, Rudolf Lipschitz and
Augustin-Louis Cauchy:

Theorem: Let us consider the initial value problem

53
Suppose is Lipschitz continuous in , |f(t,y1) - f(t,y2)| L | y1 -y2| , and continuous in
. Then, for some value , there exists a unique solution to the initial value

problem within the range ;

A passagem principal da prova é , que iterada, produz

, para n suficientemente grande.

Peano existence theorem, Peano theorem (1890), named after Giuseppe Peano, is a
fundamental theorem which guarantees the existence of solutions to certain initial value
problems:

Theorem: Let D be an open subset of R × R with a continuous function


and

a continuous, explicit first-order differential equation defined on D, then every initial


value problem

for f with has a local solution where is a


neighbourhood of x0, such that for all .

Observation: The Picard–Lindelöf theorem shows that the solution exists and that it is
unique. The Peano existence theorem shows only existence, not uniqueness, but it
assumes only that ƒ is continuous in y, instead of Lipschitz continuous. For example, the
right-hand side of the equation y′ = y1/3 with initial condition y(0) = 0 is continuous but
not Lipschitz continuous. Indeed, the solution of this equation is not unique; two

different solutions are given besides the trivial one ,

For another example, let us consider the equation on the domain

This also happens for the equation

The solution corresponding to the initial condition can be either or

One can note that the function has an


infinite slope at and therefore is not Lipschitz continuous.

54
In the Observations, Peano wrote: “Consideróns en effet l’équation où

est continue et jamais nulle pour les valeurs de x dans l’intervalle (a,b). Alors, si est

une valeur dans cet intervalle, et que lón pose .


et

il existe une seule function x de t, définie dans l’intervalle (a’, b’) qui satisfait à l’equation
donnée, et qui pour t=t0 a la valeur x0 ; comme cela résulte de líntégration de cette equation.
Et sur la derive de , on ná pas fait d’hypothèses.” (O resultado enunciado segue

por separação de variáveis).

According to V. I. Arnold, Ordinary Differential Equations, The MIT Press (1978), the idea behind the
theorem is that: beginning with an initial condition , . If the stationary
solution ,is reached after an infinite time the unicity of solution is guaranteed. However, if the
stationary solution is reached after a finite time, the unicity is violated

Carathéodory's existence theorem, named after Constantin Carathéodory. shows the


existence of solutions of an ordinary differential equation (in a more general sense) for
some discontinuous equations: Let us consider the differential equation

, with initial condition

where the function ƒ is defined on a rectangular domain of the form

A function y is called a solution in the extended sense of the differential equation


with initial condition if y is absolutely continuous, y
satisfies the differential equation almost everywhere and y satisfies the initial condition.
The absolute continuity of y implies that its derivative exists almost everywhere;

Theorem: Let us consider the differential equation

with ƒ on the rectangular domain R. If ƒ satisfies the three conditions

 the function ƒ( ·, y) is measurable for every y with |y − y0| ≤ b


 the function ƒ(t, ·) is continuous for every t with |t − t0| ≤ a,

there is a Lebesgue-integrable function m on [t0 − a, t0 + a] such that |ƒ(t, x)| ≤ m(t)


for all (t, x) ∈ R, then the differential equation has a solution in the extended sense in a
neighbourhood of the initial condition;

55
OBSERVAÇÃO: FORAM OBTIDAS ALGUMAS GENERALIZAÇÕES DOS RESULTADOS ACIMA, MAS
POR SEREM ELABORADAS E NÃO ALCANÇAREM SITUAÇÕES CONSIDERADAS RELEVANTES
(TENDO EM VISTA QUE “A LIMITAÇÃO DO ALCANCE JÁ ESTÁ INDICADA POR CONTRAEXEMPLOS”,
NÃO SÃO APRESENTADAS NOS TEXTOS OU RELEGADAS A “EXERCÍCIOS COM SUGESTÕES” (EX.
Theory of Ordinary Differential Equations, E.A. Coddington, N. Levinson);

A TEORIA ABSTRATA DAS EQUAÇÕES DIFERENCIAIS ORDINÁRIAS PROSSEGUIU, COM A ANÁLISE


DA ESTABILIDADE DO SISTEMA SOLAR, COM OS TRABALHOS DE LIAPUNOV E POINCARÉ SOBRE
EXISTÊNCIA DE ÓRBITAS PERIÓDICAS E ESTABILIDADE DAS SOLUÇÕES, QUE SE DESENVOLVEU
NO SÉCULO XX, COM OS CHAMADOS SISTEMAS DINÂMICOS ;

59- O DEBATE TEÓRICO/FILOSÓFICO, BUSCANDO DISTINGUIR (NAS CONCEPÇÕES HUMANAS


EM GERAL), O QUE FARIA PARTE DA NATUREZA FÍSICA, E QUAL SERIA A CONTRIBUIÇÃO DO
NOSSO CÉREBRO, SE EXTENDEU, DESDE OS GREGOS, ATÉ PRINCIPALMENTE KANT E SEUS
SEGUIDORES:

-NA MECÂNICA DE NEWTON, O ESPAÇO É O DA GEOMETRIA EUCLIDIANA, E O TEMPO, UMA


VARIÁVEL NO CONJUNTO DOS NÚMEROS REAIS;

-EM 1781, EM SUA “CRITICA DA RAZÃO PURA”, IMMANUEL KANT, PRETENDEU UMA SÍNTESE
CONCILIATÓRIA, AO SUGERIR A EXISTÊNCIA DO QUE CHAMOU DE “JUÍZOS SINTÉTICOS A
PRIORI”, QUE NÃO DEPENDERIAM DA EXPERIÊNCIA, E DOS QUAIS, O TEMPO E AS FORMAS
GEOMÉTRICAS DA GEOMETRIA EUCLIDIANA SERIAM EXEMPLOS; COM A DESCRIÇÃO, À PARTIR
DE LOBACHEVSKI EM 1829, DE GEOMETRIAS NÃO EUCLIDIANAS, E O ADVENTO DA TEORIA DA
RELATIVIDADE, ADMITINDO A OPÇÃO DE O ESPAÇO-TEMPO FÍSICO SER DESCRITO DE FORMA
ATÉ MAIS REALISTA, POR ALGUMA DELAS, E O TEMPO DEPENDER DA VELOCIDADE DO
OBSERVADOR, SUA TEORIA PERDEU A SUSTENTAÇÃO;

- COM A PUBLICAÇÃO, EM 1859, POR C. DARWIN, DA OBRA “A ORIGEM DAS ESPÉCIES”, TEVE
INÍCIO O PONTO DE VISTA EVOLUCIONISTA, SEGUNDO O QUAL, SOMOS PRODUTOS DE UMA
EVOLUÇÃO, QUE ENVOLVEU UMA CONTÍNUA INTEIRAÇÃO COM O AMBIENTE,
A PONTO DO MATEMÁTICO FRANCÊS H. POINCARÉ, NO FINAL DO SÉCULO XIX, TER
AFIRMADO QUE: “AS LEIS MAIS GERAIS DA NATUREZA, COMO AS LEIS GERAIS DO ESPAÇO E
DO TEMPO, NÃO SÃO DERAVÁVEIS DA EXPERIÊNCIA E NEM VERDADES LÓGICAS, MAS
CONVENÇÕES USADAS NA SISTEMATIZAÇÃO DOS DADOS EMPÍRICOS”.

60- NA GEOMETRIA EUCLIDIANA, A SOMA DOS ÂNGULOS INTERNOS DE UM TRIÂNGULO,


MEDE 180 GRAUS, ENQUANTO QUE NAS GEOMETRIAS NÃO EUCLIDIANAS, QUE DESCREVEM
“ESPAÇOS CURVOS”, TAL SOMA PODE NÃO SER 180 GRAUS; POR EXEMPLO, SE NUMA
SUPREFÍCIE ESFÉRICA, ELEGERMOS UM TRIÂNGULO CUJOS LADOS SÃO SEMICÍRCULOS,
OBTIDOS PELA INTERSECÇÃO DE PLANOS QUE PASSAM PELO CENTRO COM A SUPERFÍCIE, A
SOMA DOS ÂNGULOS INTERNOS SERÁ MAIOR DO QUE 180 GRAUS;

56
Em uma esfera, a soma dos
ângulos dum triângulo não é igual
a 180°. Uma esfera não é um
espaço euclidiano, mas
localmente as leis da geometria
euclidiana são boas aproximções.
Num pequeno triângulo na face da
Terra, a soma dos ângulos é muito
próximo de 180°. Uma esfera
pode ser representada por uma
colecção de mapas de duas
dimensões, portanto uma esfera é
uma variedade.

OCORRE QUE, PASSADOS DUZENTOS ANOS, COM A MELHORA DA PRECISÃO DOS


EQUIPAMENTOS DE OBSERVAÇÃO, CONSTATOU-SE QUE:
1-A ÓRBITA DE MERCÚRIO E, HOJE SABEMOS, A DOS OUTROS PLANETAS TAMBÉM,
MAS, EM MENOR ESCALA, APRESENTAM CERTA DISCREPÂNCIA EM RELAÇÃO À LEI;
2-AO PASSAR PERTO DO SOL, A LUZ DAS ESTRELAS TAMBÉM APRESENTAM DEFLEXÃO,
E PELA LEI DA GRAVITAÇÃO DE NEWTON, A FORÇA DEVERIA SER ZERO, JÁ QUE OS
RAIOS DE LUZ TÊM MASSA (GRAVITACIONAL) IGUAL A ZERO;
3-A FORÇA A DISTÃNCIA DA LEI DA GRAVITAÇÃO, CONTINUA SENDO “MISTERIOSA”, POIS, ATÉ
AGORA NÃO FOI DETECTADA “UMA PARTÍCULA GRAVITACIONAL (QUE SERIA CHAMADA DE
GRÁVITON)”, CAPAZ DE FORNECER O MECANISMO DE ATUAÇÃO DESSA ATRAÇÃO (ALGUNS
PROJETOS, COMO O LIGO E VIRGO, QUE BUSCAM CAPTAR ONDAS GRAVITACIONAIS). ALÉM
DISSO, SUA ATUAÇÃO SE DÁ A UMA VELOCIDADE INFINITA, O QUE CONTRARIA A TEORIA DE
EINSTEIN, SEGUNDO A QUAL, A MAIOR VELOCIDADE É A LUZ, QUE É UMA CONSTANTE,
DEPENDENDO DO MEIO.

61-EM 1915, O FÍSICO TEÓRICO ALEMÃO ALBERT EINSTEIN PUBLICOU A SUA TEORIA GERAL DA
RELATIVIDADE: UMA MASSA ACARRETA UMA “CURVATURA NO ESPAÇO A SUA VOLTA” (ASSIM COMO
UM PESO, COLOCADO SOBRE UMA MESA, TENDE A DEFLETÍ-LA, E O MOVIMENTO NATURAL (LIVRE DE
FORÇAS), DESCREVE AS CHAMADAS “GEODÉSICAS” (QUE SÃO AS CURVAS QUE GENERALIZAM AS RETAS
NOS ESPAÇOS CURVOS, OU QUE FORNECEM A DISTÂNCIA MÍNIMA ENTRE DOIS PONTOS PRÓXIMOS).
NO EXEMPLO DA SUPERFÍCIE ESFÉRICA, AS GEODÉSICAS SERIAM INTERSECÇÕES DE PLANOS QUE
PASSAM PELO CENTRO, COM A SUPERFÍCIE. ASSIM, OS PLANETAS DESCREVERIAM ÓRBITAS ELÍPTICAS
EM TORNO DO SOL, NÃO PORQUE SÃO “PUXADOS POR FORÇAS” EM SUA DIREÇÃO, MAS SIM, PORQUE
O SOL TORNARIA O ESPAÇO CURVO, E OS MOVIMENTOS NATURAIS NESSE ESPAÇO, SERIAM ELIPSES.
UTILIZANDO UMA ANALOGIA, SE COLOCÁSSEMOS UMA BOLA DE FUTEBOL DE SALÃO S (SOL) SOBRE
UMA MEMBRANA ELÁSTICA, ELA DEFORMARIA A MEMBRANA; SE ABANDONÁSSEMOS UMA BOLA DE
BILHAR T (TERRA) NAS PROXIMIDADES DE S, ELA SE MOVIMENTARIA NA DIREÇÃO DE S PELA
DEFORMAÇÃO DO ESPAÇO, E NÃO PELA ATRAÇÃO DE UMA FORÇA VEICULADA POR OUTRA PARTÍCULA
(UMA VEZ QUE SE COLOCÁSSEMOS AS DUAS BOLAS À MESMA DISTÂNCIA SOBRE UMA SUPERFÍCIE
PLANA RÍGIDA, ELAS NÃO SE MOVIMENTAM). POR ISSO, COSTUMA-SE DIZER QUE A RELATIVIDADE
GERAL “GEOMETRIZA A GRAVIDADE” :

57
Analogia, em 2 dimensões, para a curvatura do espaço-tempo causada por uma massa

Massa encurvando o espaço

G
Geodésicas num espaço curvo

O FATO DE QUE TODOS OS TRIÂNGULOS CONSTRUÍDOS, INCLUSIVE COM PONTOS DO


ESPAÇO, APRESENTAREM A SOMA DOS ÂNGULOS INTERNOS APROXIMADAMENTE IGUAL A
180º, NÃO CONTRARIA A TEORIA DA RELATIVIDADE, VISTO SER A PRECISÃO DAS MEDIDAS,
MENOR DO QUE A DIVERENÇA PREVISTA NA TEORIA, MAS, NOS PERMITE AFIRMAR QUE O
NOSSO ESPAÇO É LOCALMENTE, APROXIMADAMENTE EUCLIDEANO;
O FATO DE QUE TODOS OS TRIÂNGULOS CONSTRUÍDOS, INCLUSIVE COM PONTOS DO
ESPAÇO, APRESENTAREM A SOMA DOS ÂNGULOS INTERNOS APROXIMADAMENTE IGUAL A
180º, NÃO CONTRARIA A TEORIA DA RELATIVIDADE, VISTO SER A PRECISÃO DAS MEDIDAS,
MENOR DO QUE A DIVERENÇA PREVISTA NA TEORIA, MAS, NOS PERMITE AFIRMAR QUE O
NOSSO ESPAÇO É LOCALMENTE, APROXIMADAMENTE EUCLIDEANO;

OUTRA IMPLICAÇÃO (COMPROVADA) DA TEORIA GERAL DA RELATIVIDADE É QUE O TEMPO


PARECE ANDAR MAIS LENTAMENTE QUANTO MAIS PERTO ESTIVERMOS DE UMA MASSA,
COMO POR EXEMPLO, A DA TERRA.

62-O SUCESSO DA SÍNTESE DE NEWTON REFORÇOU: A EXPERIMENTAÇÃO CONTROLADA,


COMO CRITÉRIO DE OBJETIVAÇÃO E VALIDAÇÃO DAS DESCRIÇÕES CIENTÍFICAS EM GERAL, O

58
MÉTODO CIENTÍFICO DE ALHAZEN/GALILEU, E O MÉTODO AXIOMÁTICO PARA A
APRESENTAÇÃO DAS TEORIAS DEDUTIVAS, E MOTIVOU AS PESQUISAS SUBSEQUENTES;

-COSTUMA-SE DIZER, SUGESTIVAMENTE, QUE A “EXPERIMENTAÇÃO CONTROLADA EQUIVALE


A UMA CONSULTA À NATUREZA PARA NOS CERTIFICARMOS DE COMO ELA SE COMPORTA, E
QUAIS SÃO SUAS POSSÍVEIS LEIS”, E MESMO COM A CONSCIÊNCIA DE QUE O MÁXIMO QUE
PODEMOS CONCLUIR NO MOMENTO É QUE ESSAS LEIS SEJAM LOCALMENTE E
APROXIMADAMENTE VERIFICADAS, CONSIDERA-SE SURPREENDENTE O FATO DESSAS LEIS
EXISTIREM E DE TEREM SIDO ALCANÇADAS PELOS PESQUISADORES;

63- EM SÍNTESE, PARALELAMENTE À INTUIÇÃO DE ALGUNS, EXCEPCIONALMENTE


VOCACIONADOS, PRATICAMENTE TODA A SUSTENTAÇÃO TÉCNICA JÁ É REFERENCIADA EM
ALGUM TIPO DE QUANTIFICAÇÃO E EXPERIMENTAÇÃO PRÁTICA ;
- APÓS A CONSTATAÇÃO DAS LIMITAÇÕES, TANTO DAS EXPERIMENTAÇÕES (DESDE O NÍVEL DE
PARTÍCULAS ELEMENTARES ATÉ O ESPAÇO SIDERAL), QUANTO DAS TEORIAS (CONSTATADAS
INCLUSIVE PELOS TEOREMAS DE GODEL), APRESENTA ADERÊNCIA CRESCENTE, O
ENTENDIMENTO OPERACIONAL PROVISÓRIO DE QUE: NO ESTÁGIO ATUAL DE INFORMAÇÃO
E CONHECIMENTO, PODEMOS AFIRMAR COM PRECISÃO CRESCENTE, ESTARMOS
LOCALMENTE (NO ESPAÇO E NO TEMPO), NUMA CONFIGURAÇÃO DE RELATIVA
ESTABILIDADE (INCLUSIVE AMBIENTAL, O QUE JUSTIFICARIA NÃO SÓ A EXISTÊNCIA DAS LEIS
FÍSICAS, MAS TAMBÉM NOSSA PRÓPRIA EXISTÊNCIA E EVOLUÇÃO), E QUE, AS TEORIAS DE
QUE DISPOMOS REPRESENTAM APROXIMAÇÕES ÚTEIS DESSA NATUREZA LOCAL.

V - EQUAÇÕES DIFERENCIAIS PARCIAIS


64 - A ABORDAGEM DE PROBLEMAS CADA VEZ MAIS COMPLEXOS, EXIGIU O
DESENVOLVIMENTO DO RESPECTIVO INSTRUMENTAL MATEMÁTICO, CADA VEZ MAIS
ELABORADO; ASSIM:

a) PARA ABORDAR PROBLEMAS MÉTRICOS (MEDIDAS DE SEGMENTOS, PERÍMETROS, ÁREAS,


VOLUMES, ETC.), FORAM CRIADOS OS NÚMEROS REAIS (QUE ALÉM DOS NÚMEROS
RACIONAIS, INCLUEM AS RAÍZES, OS NÚMEROS π , e , ETC.), E O PROCESSO DE INTEGRAÇÃO
( LIMITES DE SOMAS DE UM GRANDE NÚMERO DE QUANTIDADES PEQUENAS, QUE
CORRESPONDEM ÁS MEDIDAS DAS SUBDIVISÕES DO ELEMENTO CURVO A SER MEDIDO);

b) PARA ABORDAR OS PROBLEMAS GEOMÉTRICOS ATRAVÉS DA ÁLGEBRA, FOI


DESENVOLVIDA A CHAMADA “GEOMETRIA ANALÍTICA”;

c) PARA O TRATAMENTO MATEMÁTICO DO MOVIMENTO (DO PONTO MATERIAL, SISTEMAS


MECÂNICOS DE PONTOS, CORPOS RÍGIDOS, ETC., INCLUINDO O SISTEMA SOLAR, TENDO
RESULTADO NA “MECÂNICA DE NEWTON”) EM PARTICULAR, E DE FORMA MAIS GERAL, DA
VARIAÇÃO DE QUANTIDADES, FORAM DESENVOLVIDOS: O “CÁLCULO DIFERENCIAL E
INTEGRAL” , E AS “EQUAÇÕES DIFERENCIAIS ORDINÁRIAS”;

d) COM O SUCESSO DA MECÂNICA DE NEWTON, INICIOU-SE A ABORDAGEM DE OUTROS


PROBLEMAS:
-PARA A ABORDAGEM DE PROBLEMAS COMO O DA CORDA VIBRANTE, VIBRAÇÕES DE UMA
MEMBRANA ELÁSTICA (POR EXEMPLO, MEMBRANA DE TAMBOR), PROPAGAÇÃO DE ONDAS

59
SONORAS, TRANSFERÊNCIA DE CALOR, DIFUSÃO TÉRMICA, SITUAÇÕES DE EQUILÍBRIO,
ESTADOS ESTACIONÁRIOS, E OUTROS, FORAM DESENVOLVIDAS AS “EQUAÇÕES
DIFERENCIAIS PARCIAIS”:

A EDP (Equação Diferencial Parcial) mais simples pode ser escrita, ,


que apresenta a solução geral u(x,y) = , que representa uma família de
superfícies no espaço (x, y, z= u(x,y)), cada uma gerada por uma função . Para se
obter unicidade, considera-se problemas diferenciais, quando além da EDP, pede-se
que a solução satisfaça alguma condição adicional, que puderam ser sugeridas pelos
problemas de origem. Por exemplo, nos problemas de valor de contorno ou fronteira,
pede-se que a solução tenha um valor pré-determinado na fronteira ∂ da região
do espaço , em consideração. No Problema de Cauchy ou Problema de Valor inicial,
de modo análogo às EDO, pede-se que a solução tenha um valor pré-fixado quando
t=0; O Problema de Dirichlet é um problema de valor de contorno para a equação de
Laplace ou Poisson, e no Problema de Neumann, pede-se que a derivada normal à
função na fronteira do domínio (valor este que representa um fluxo ) seja pré-determinada.
Hadamard definiu Problema diferencial bem posto, quando apresentar solução única, que
depende continuamente dos dados envolvidos. Tem havido interesse na abordagem de
problemas que não são bem postos (por exemplo problemas inversos, comportamento caótico,
etc..).

Exemplos:

Equação da onda (d’Alembert 1747, Euler 1748, D.Bernoulli 1753 e Lagrange 1759 ):

A equação da onda modela a propagação de ondas (sonoras, eletromagnéticas, etc.) em


um meio homogêneo e isotrópico e não-dissipativo :

, ou c2(uxx + uyy + uzz) − utt = 0 , é a velocidade de propagação

Onde é o Laplaciano e u = u (t , x , y , z )

Equação do calor ( Fourier 1811 ):

A equação do calor que modela a condução (difusão) térmica em um sólido homogêneo


e isotrópico tem a forma:

, ou c2(uxx + uyy + uzz) − ut = 0


Equação de Laplace uxx + uyy + uzz = 0
Pode ser obtida das equações anteriores, quando u = u ( x , y , z ) não depende do
tempo, e descreve estados de equilíbrio (térmico, elétrico, hidrostático, etc.) ou estados
estacionários (configurações que, mesmo trocando energia com o ambiente, não se alteram
com o tempo);

60
A Equação de Poisson, também independente do tempo t , descreve o potencial
elétrico em eletrostática:

, OU uxx + uyy + uzz = c


Equação de Helmholtz

, com incógnita ψ
que aparece, por exemplo, na busca de soluções das equações das ondas por
variáveis separadas;

Exemplo: em eletrostática, o campo elétrico deriva do potencial


eletrostático,

(1) , ou seja, em cada ponto, tem a direção e sentido do maior

decrescimento do potencial, onde simboliza o vetor gradiente de f,

ou seja , que fornece a direção no domínio, na


qual f apresenta o maior crescimento ; calculando o divergente de ambos os membros da
equação (1), e utilizando a Lei de Gauss (The net electric flux through any closed surface is
equal to 1⁄ε times the net electric charge enclosed within that closed surface) obtem-se a

equação de Poisson para a eletrostática onde é a densidade


de carga elétrica; numa região isenta de cargas, e obtem-se a equação de Laplace
para a eletrostática:

As soluções da equação de Laplace são chamadas Funções Harmônicas; Em geral, as


propriedades das funções harmônicas são estudadas na chamada Teoria do Potencial;

O Problema de Dirichlet consiste em analisar a existência, unicidade e continuidade em


relação aos dados, de funções que satisfaçam: a equação de Poisson

, numa região do espaço , e que tenham o valor pré-definido


pela função g na fronteira ∂ , ou seja, chamada condição de
fronteira.

O princípio de Dirichlet enuncia que, em condições suficientes de regularidade, dentre as


funções que satisfazem a condição de fronteira , as soluções do problema de Dirichlet
minimizam a chamada energia de Dirichlet

61
que no caso eletrostático em que f = 0 , é a energia potencial;

Com as contribuições de Dirichlet, Riemann, Weierstrass , Kneser e Hilbert em 1900, provou-


se que, em condições suficientes de regularidade, existe solução única para o problema de
Dirichlet , e para a minimização da integral de energia;

Uma interpretação análoga pode ser obtida para a temperatura de um corpo: dada a
distribuição de temperatura na fronteira de um corpo, determinar a distribuição da
temperatura do corpo, em equilíbrio térmico, entendendo que o calor flui no sentido oposto
ao do gradiente de temperatura.

No Problema de Neumann, é especificado o valor da derivada normal da função sobre


o contorno (utilizada para descrever fluxos):

Uma condição de existência pode ser encontrada integrando a equação em todo o domínio D e
aplicando a primeira identidade de Green:

As identidades de Green formam um conjunto de três igualdades vetoriais envolvendo


integrais: Seja um conjunto aberto limitado de com fronteira . Se
, então:

1.

2.

3.
onde é o vetor unitário exterior normal.

-CONSEGUIU-SE GENERALIZAR O CONCEITO DE ENERGIA (PARA INCLUIR AS SUAS DIVERSAS FORMAS:


GRAVITACIONAL, ELÁSTICA, LUMINOSA, ELETROMAGNÉTICA, SONORA, QUÍMICA, NUCLEAR, ETC), OU
SEJA, DEFINIR QUANTIDADES, COM AS RESPECTIVAS INTERPRETAÇÕES FÍSICAS, COM O
ENTENDIMENTO DE QUE: “ENERGIA NÃO SE CRIA E NEM SE DESTRÓI, MAS SOMENTE SE TRANSFORMA
DE UMA FORMA A OUTRA”, E OBTER O CHAMADO PRINCÍPIO DA CONSERVAÇÃO DA ENERGIA TOTAL:
“A ENERGIA TOTAL (SOMA DAS PARCELAS CORRESPONDENTES ÀS DIVERSAS FORMAS DE ENERGIA), DE
UM SISTEMA ISOLADO (QUE NÃO TROCA ENERGIA, MATÉRIA OU CARGA COM O AMBIENTE),
PERMANECE CONSTANTE AO LONGO DO TEMPO”;

62
- OBSERVAÇÃO: O TEOREMA DA DIVERGÊNCIA DE OSTROGRADSKY-GAUSS , PERMITIU O
EQUACIONAMENTO DO BALANÇO DE QUANTIDADES QUE FLUEM ATRAVÉS DE REGIÕES DO ESPAÇO, E
SUA EVENTUAL CONSERVAÇÃO (INCLUINDO ENERGIA, MASSA, MOMENTO LINEAR E ANGULAR, CARGA
ELÉTRICA, ETC.), ATRAVÉS DA QUANTIFICAÇÃO DOS FLUXOS DESSAS QUANTIDADES ATRAVÉS DAS SUAS
SUPERFÍCIES LIMÍTROFES, E DA CONSIDERAÇÃO DAS FONTES E SORVEDOUROS INTERNOS À REGIÃO;

TEOREMA DA DIVERGÊNCIA: O FLUXO de uma grandeza através de uma superfície S , pode ser
definido como a quantidade dessa grandeza que atravessa a superfície por unidade de tempo;
esse conceito é estendido para campos de vetores (campos de força, elétrico, magnético, etc.)
como a quantidade de linhas de campo que atravessa a superfície por unidade de tempo, que
também pode ser expresso como uma integral de superfície (soma dos fluxos elementares
através dos elementos de superfície); O divergente de um campo de vetores num ponto pode ser
interpretado como o fluxo através de superfícies próximas que o envolvem por unidade de
volume (pontualizado, ou seja, limite quando o volume tende ao ponto), e sua integral de
volume fornece o fluxo total nesse volume:

Simbolizando o operador nabla por , temos

63
Forma geral das Leis de Conservação:

onde:

representa uma propriedade contínua do fluido, definida em toda a região de


controle Ω U ∂Ω ;
v a velocidade vetorial do fluido, n o vetor normal exterior à superfície ∂Ω , e
Q representa as fontes e sorvedouros de fluido por unidade de volume, em Ω ;

Usando o Teorema da divergência de Ostrogradski-Gauss,

Derivando sob o sinal de integração ( Ω é fixada ), e fazendo Q = 0 ,

onde é a derivada material;

64
Dessa forma geral podemos obter as equações para a conservação da massa
(equação da continuidade), do momento linear, momento angular e energia:

Equação da continuidade ( conservação da massa (ou carga) - = )


:

Onde é a densidade de massa (ou carga), ou seja, massa (ou carga) por unidade de
volume, e v é a velocidade do fluido. No caso de um fluido incompressível, =
constante, não é uma função do tempo ou espaço, e a equação se reduz a:

Conservação do momento linear ( = v ):

é a i-ésima componente da força atuando no fluido (sempre força por unidade de


volume. As forças comumente encontradas incluem a gravidade e gradientes de pressão
(tendo em consideração que o fluido tende a escoar no sentido das pressões mais altas
para as mais baixas); isto também pode ser expresso como:

onde é um tensor, o representa o produto tensorial.

Podemos simplificar mais, usando a equação de continuidade, para obter:

, a qual é frequentemente escrita como:

Na qual reconhecemos a fórmula da 2ª Lei de Newton F=ma.

Charge conservation. Vector calculus can be used to express the law in terms of
charge density ρ (in coulombs per cubic meter) and electric current density J (in
amperes per square meter):

65
The term on the left is the rate of change of the charge density ρ at a point. The term on
the right is the divergence of the current density J. The equation equates these two
factors, which says that the only way for the charge density at a point to change is for a
current of charge to flow into or out of the point. This statement is equivalent to a
conservation of four-current.

Usual mathematical derivation. The net current into a volume is

where S = ∂V is the boundary of V oriented by outward-pointing normals, and dS is


shorthand for NdS, the outward pointing normal of the boundary ∂V. Here J is the
current density (charge per unit area per unit time) at the surface of the volume. The
vector points in the direction of the current.

From the Divergence theorem this can be written

Charge conservation requires that the net current into a volume must necessarily equal the net
change in charge within the volume.

Charge is related to charge density by the relation

This yields

Since this is true for every volume, we have in general

 Heat Conduction. As a consequence of the law of heat conduction, also known as


Fourier's (Edward Kenway's) law, stating that the time rate of heat transfer
through a material is proportional to the negative gradient in the temperature and

66
to the area, at right angles to that gradient, through which the heat flows, it is
possible to obtain the heat equation. Let u be the density of some quantity such as
heat, chemical concentration, etc. If V contained in U is any smooth
subregion, the rate of change of the total quantity within V equal the negative of
the flux through V:

, where is the flux density

Thus ut = - div , as V was arbitrary. In many situation is proporcional


to the gradiente of u, but points in the opposite direction (since the flow is from
regions of higher to lower concentration):

, and ut = a div (grad u) = a Δ u

which for a = 1 is the heat equation. (L. Evans).

Para propagações independentes do tempo, utilizando o fato de que o campo elétrico


(gravitacional, magnético, etc). deriva de uma função potencial escalar (ou seja,
), ou, de modo equivalente, tem rotacional igual a zero, obtem-se a equação
de Poisson.

e) EM MEADOS DO SÉCULO XIX OBTEVE-SE AS LEIS DA TERMODINÂMICA, E, ATRAVÉS DAS


EQUAÇÕES DE MAXWELL, A AXIOMATIZAÇÃO DO ELETROMAGNETISMO, CONSIDERADA A
3ª GRANDE SÍNTESE MATEMÁTICA, AO CONSEGUIR UNIFICAR: A ELETRICIDADE,
MAGNETISMO E LUZ, ALÉM DE PREVER AS OUTRAS RADIAÇÕES DO CHAMADO ESPÉCTRO
ELETROMAGNÉTICO, NUM ÚNICO TRATAMENTO MATEMÁTICO;

f) CÁLCULO VETORIAL E TENSORIAL:


-ENTRE 1843/66, W.R.HAMILTON DESENVOLVEU A ANÁLISE DOS QUATÉRNIOS, UTILIZADA
POR MAXWELL EM SEU “TREATISE ON ELETRICITY AND MAGNETISM” DE 1873, NA
ABORDAGEM DO ELETROMAGNETISMO;

- EM 1844, O ALEMÃO H.GRASSMANN PUBLICOU “THE CALCULUS OF EXTENTION”,


DESENVOLVIDO, NO FINAL DO SÉCULO XIX, POR J.W.GIBBS e O.HEAVISIDE, RESULTANDO NO
CÁLCULO VETORIAL, COMO UMA OPÇÃO MAIS SIMPLES AOS QUATÉRNIOS DE HAMILTON;
-EM ESSÊNCIA, O CÁLCULO VETORIAL EXTENDE O CÁLCULO DIFERENCIAL E INTEGRAL A
FUNÇÕES COM VÁRIAS VARIÁVEIS E A VALORES VETORIAIS, ATRAVÉS DAS NOÇÕES DE
DERIVADA PARCIAL, INTEGRAL MÚLTIPLA, DE LINHA E DE SUPERFÍCIE, E DOS TEOREMAS DE
GREEN, DA DIVERGÊNCIA DE OSTROGRADSKY-GAUSS, E DO ROTACIONAL, OU DE STOKES, E
CONSEGUE SIMPLIFICAR A ABORDAGEM DOS CAMPOS VETORIAIS, TANTO EM GEOMETRIA
DIFERENCIAL QUANTO EM FÍSICA (POR EXEMPLO, NAS QUESTÕES ENVOLVENDO CAMPOS
ELETROMAGNÉTICOS, GRAVITACIONAL, E O FLUXO DE UM FLUIDO DA FLUIDODINÂMICA);

67
- APÓS A ÁLGEBRA EXTERIOR DE GRASSMANN (QUE É UMA TEORIA DE TENSORES), O CÁLCULO
TENSORIAL FOI APRESENTADO EM 1892 POR G.RICCI-CURBASTRO, COM O TÍTULO “ABSOLUTE
DIFERENTIAL CALCULUS” E DIVULGADO POR RICCI e T.LEVI-CIVITA, ATRAVÉS DO TEXTO
CLÁSSICO “MÉTHODES DE CALCUL DIFFERENTIEL ABSOLUT ET LEURS APPLICATIONS” E
REPRESENTAM TRANSFORMAÇÕES LINEARES ENTRE ESCALARES, VETORES, OU OUTROS
TENSORES (POR EXEMPLO, O PRODUTO ESCALAR, O PRODUTO VETORIAL, AS
TRANSFORMAÇÕES LINEARES, ETC.), E DEVEM SER INDEPENDENTES DO PARTICULAR SISTEMA
DE COORDENADAS USADO PARA SUA REPRESENTAÇÃO; APRESENTA AMPLAS APLICAÇÕES EM
GEOMETRIA DIFERENCIAL (ESPECIALMENTE COM AS FORMAS DIFERENCIAS INTRODUZIDAS
POR E.CARTAN, E FORMAS QUADRÁTICAS COMO O TENSOR MÉTRICO, TENSOR DE
CURVATURA DE RIEMANN,ETC.), ELASTICIDADE (TENSOR DAS TENSÕES , DAS DEFORMAÇÕES,
ETC.), FLUIDODINÂMICA, RELATIVIDADE GERAL (TENSORES MÉTRICO, DE CURVATURA, DE
TENSÃO-ENERGIA), ETC.;

Definition. There are several approaches to defining tensors. Although seemingly different,
the approaches just describe the same geometric concept using different languages and at
different levels of abstraction.

As multidimensional arrays
Just as a scalar is described by a single number, and a vector with respect to a given basis is
described by an array of one dimension, any tensor with respect to a basis is described by a
multidimensional array. The numbers in the array are known as the scalar components of the
tensor or simply its components. They are denoted by indices giving their position in the array,
in subscript and superscript, after the symbolic name of the tensor. The total number of indices
required to uniquely select each component is equal to the dimension of the array, and is called
the order or the rank of the tensor.[Note 2] For example, the entries of an order 2 tensor T would
be denoted Tij, where i and j are indices running from 1 to the dimension of the related vector
space.[Note 3]
Just as the components of a vector change when we change the basis of the vector space, the
entries of a tensor also change under such a transformation. Each tensor comes equipped with
a transformation law that details how the components of the tensor respond to a change of
basis. The components of a vector can respond in two distinct ways to achange of
basis (see covariance and contravariance of vectors), where the new basis vectors are
expressed in terms of the old basis vectors as,

where Ri j is a matrix and in the second expression the summation sign was suppressed (a
notational convenience introduced by Einstein that will be used throughout this article). The
components, vi, of a regular (or column) vector, v, transform with the inverse of the matrix R,

where the hat denotes the components in the new basis. While the components, wi, of a
covector (or row vector), w transform with the matrix R itself,

The components of a tensor transform in a similar manner with a transformation matrix for each
index. If an index transforms like a vector with the inverse of the basis transformation, it is
called contravariant and is traditionally denoted with an upper index, while an index that
transforms with the basis transformation itself is called covariant and is denoted with a lower
index. The transformation law for an order-m tensor with n contravariant indices
and m−n covariant indices is thus given as,

68
Such a tensor is said to be of order or type (n,m−n).[Note 4]
This discussion motivates the
following formal definition:[9]
Definition. A tensor of type (n, m−n) is an assignment of a multidimensional array

to each basis f = (e1,...,eN) such that, if we apply the change of basis

then the multidimensional array obeys the transformation law

The definition of a tensor as a multidimensional array satisfying a transformation law traces


back to the work of Ricci.[1] Nowadays, this definition is still used in some physics and
[10][11]
engineering text books.

As multilinear maps
A downside to the definition of a tensor using the multidimensional array approach is that it is
not apparent from the definition that the defined object is indeed basis independent, as is
expected from an intrinsically geometric object. Although it is possible to show that
transformation laws indeed ensure independence from the basis, sometimes a more intrinsic
definition is preferred. One approach is to define a tensor as a multilinear map. In that approach
a type (n,m) tensor T is defined as a map,

where V is a vector space and V* is the corresponding dual space of covectors, which is linear
in each of its arguments.
By applying a multilinear map T of type (n,m) to a basis {ej} for V and a canonical cobasis {εi}
for V*,

an n+m dimensional array of components can be obtained. A different choice of basis will yield
different components. But, because T is linear in all of its arguments, the components satisfy
the tensor transformation law used in the multilinear array definition. The multidimensional array
of components of T thus form a tensor according to that definition. Moreover, such an array can
be realised as the components of some multilinear map T. This motivates viewing multilinear
maps as the intrinsic objects underlying tensors.
Using tensor products
Main article: Tensor (intrinsic definition)
For some mathematical applications, a more abstract approach is sometimes useful. This can
be achieved by defining tensors in terms of elements of tensor products of vector spaces, which
in turn are defined through a universal property. A type (n,m) tensor is defined in this context as
an element of the tensor product of vector spaces, [12]

If vi is a basis of V and wj is a basis of W, then the tensor product has a natural


basis . The components of a tensor T are the coefficients of the tensor with respect
to the basis obtained from a basis {ei} for V and its dual {εj}, i.e.

69
Using the properties of the tensor product, it can be shown that these components satisfy the
transformation law for a type (m,n) tensor. Moreover, the universal property of the tensor
product gives a 1-to-1 correspondence between tensors defined in this way and tensors defined
as multilinear maps.

The vector Laplacian of a vector field is defined as

In Cartesian coordinates, this reduces to the much simpler form (This can be seen a
special case of Lagrange's formula, see Vector triple product.)

where , , and are the components of .

For expressions of the vector Laplacian in other coordinate systems see Nabla in
cylindrical and spherical coordinates.

The vector Laplacian of a vector field is defined as

In Cartesian coordinates, this reduces to the much simpler form (This can be seen a
special case of Lagrange's formula, see Vector triple product.)

where , , and are the components of .

For expressions of the vector Laplacian in other coordinate systems see Nabla in
cylindrical and spherical coordinates.

Generalization

The Laplacian of any tensor field ("tensor" includes scalar and vector) is defined as
the divergence of the gradient of the tensor:

For the special case where is a scalar (a tensor of rank zero), the Laplacian takes on
the familiar form.

If is a vector (a tensor of first rank), the gradient is a covariant derivative which


results in a tensor of second rank, and the divergence of this is again a vector. The
formula for the vector Laplacian above may be used to avoid tensor math and may be

70
shown to be equivalent to the divergence of the expression shown below for the
gradient of a vector:

And, in the same manner, a dot product, which evaluates to a vector, of a vector by the
gradient of another vector (a tensor of 2nd rank) can be seen as a product of matrices:

An example of the usage of the vector Laplacian is the Navier-Stokes equations for a
Newtonian incompressible flow:

where the term with the vector Laplacian of the velocity field represents
the viscous stresses in the fluid.

Another example is the wave equation for the electric field that can be derived from the
Maxwell equations in the absence of charges and currents:

The previous equation can also be written as:

where

is the D'Alembertian, used in the Klein–Gordon equation.

71
APÊNDICE III - RIEMANN/ LEBESGUE INTEGRATION
FUNDAMENTAL THEOREMS OF CALCULUS……………………………..[72,86]

The Lebesgue integral plays an important role in the branch of mathematics


called mathematical analysis, and is used in many other fields in the
mathematical sciences, and is named after Henri Lebesgue who introduced the
integral in 1904. It is also a pivotal portion of the axiomatic theory of probability.
The integral of a non-negative function can be regarded in the simplest
case as the area between the graph of that function and the x-
axis. Lebesgue integration is a mathematical construction that extends the
integral to a larger class of functions; it also extends the domains on which
these functions can be defined. It had long been understood that for non-
negative functions with a smooth enough graph (such as continuous functions
on closed bounded intervals) the area under the curve could be defined as the
integral and computed using techniques of approximation of the region
by polygons. However, as the need to consider more irregular functions arose
(for example, as a result of the limiting processes of mathematical
analysis and the mathematical theory of probability) it became clear that
more careful approximation techniques would be needed to define a suitable
integral. Also, we might wish to integrate on spaces more general than the real
line; the Lebesgue integral provides the right abstractions needed to do this job.
The term "Lebesgue integration" may refer either to the general theory of
integration of a function with respect to a general measure, as introduced by
Lebesgue, or to the specific case of integration of a function defined on a sub-
domain of the real line with respect to Lebesgue measure.
As part of a general movement toward rigour in mathematics in the nineteenth
century, attempts were made to put the integral calculus on a firm foundation.
The Riemann integral, proposed by Bernhard Riemann (1854), is a broadly
successful attempt to provide such a foundation. Riemann's definition starts with
the construction of a sequence of easily-calculated areas which converge to the
integral of a given function. This definition is successful in the sense that it gives
the expected answer for many already-solved problems, and gives useful
results for many other problems.
However, Riemann integration does not interact well with taking limits of
sequences of functions, making such limiting processes difficult to analyze. This
is of prime importance, for instance, in the study of Fourier series, Fourier
transforms and other topics. The Lebesgue integral is better able to describe
how and when it is possible to take limits under the integral sign. The Lebesgue
definition considers a different class of easily-calculated areas than the
Riemann definition. The Lebesgue definition also makes it possible to calculate
integrals for a broader class of functions. For example, the Dirichlet function,
which is 0 where its argument is irrational and 1 otherwise, has a Lebesgue
integral, but it does not have a Riemann integral.
Difference between the Riemann and Lebesgue approaches : "to compute
the Riemann integral of f, one partitions the domain [a, b] into

72
subintervals", while in the Lebesgue integral, "one is in effect partitioning
the range of f".

The Riemann integral is the definite integral normally encountered


in calculus texts. The Riemann integral is based on the Jordan measure, and
defined by taking a limit of a Riemann sum,

where and , , and are arbitrary points in the intervals , ,


and , respectively. The value is called the mesh size of a partition of
the interval into subintervals .

Fundamental theorem of calculus

Geometric intuition. For a continuous function y = f(x) whose graph is plotted


as a curve, each value of x has a corresponding area function A(x),
representing the area beneath the curve between 0 and x. The area under the
curve between x and x + h could be computed by finding the area between 0
and x + h, then subtracting the area between 0 and x. In other words, the area
of this “sliver” would be A(x + h) − A(x). At this point, it is true A(x + h) − A(x) is
approximately equal to f(x)·h, with this approximation becoming an equality
as h approaches 0 in the limit.

As h approaches 0, it can be seen that the right hand side of this equation is
simply the derivative A′(x) of the area function A(x). The left-hand side of the
equation simply remains f(x). It can thus be shown, in an informal way, that f(x)
= A′(x)

73
The area shaded in red stripes can be estimated as h times f(x). Alternatively, if
the function A(x) were known, it could be computed as A(x + h) − A(x). These
two values are approximately equal, particularly for small h.

Formal statements
There are two parts to the theorem. Loosely put, the first part deals with the
derivative of an antiderivative, while the second part deals with the relationship
between antiderivatives and definite integrals.

First part

This part is sometimes referred to as the first fundamental theorem of calculus.


Let f be a continuous real-valued function defined on a closed interval [a, b].
Let F be the function defined, for all x in [a, b], by

Then, F is continuous on [a, b], differentiable on the open interval (a, b), and

for all x in (a, b).

Corollary

The fundamental theorem is often employed to compute the definite integral of


a function f for which an antiderivative F is known. Specifically, if f is a real-
valued continuous function on [a, b], and F is an antiderivative of f in [a, b], then

The corollary assumes continuity on the whole interval. This result is


strengthened slightly in the following part of the theorem.

74
Second part

This part is sometimes referred to as the second fundamental theorem of


calculus or the Newton–Leibniz axiom.
Let f and F be real-valued functions defined on a closed interval [a, b] such that
the derivative of F is f. That is, f and F are functions such that for all x in [a, b],

If f is Riemann integrable on [a, b] then

The Second part is somewhat stronger than the Corollary because it does not
assume that f is continuous.
When an antiderivative F exists, then there are infinitely many antiderivatives
for f, obtained by adding to F an arbitrary constant. Also, by the first part of the
theorem, antiderivatives of f always exist when f is continuous.
The fundamental theorem can be generalized to curve and surface integrals in
higher dimensions and on manifolds. The most familiar extensions of the
Fundamental theorem of calculus in higher dimensions are the Divergence
theorem, the Gradient theorem, and the Stokes' theorem.
The gradient theorem
The gradient theorem states that if the vector field F is the gradient of some
scalar-valued function, then F is a conservative (i.e. path-independent) vector
field. This theorem has a powerful converse; namely, if F is a conservative
vector field, then F is the gradient of some scalar-valued function.[2] It is quite
straightforward to show that a vector field is path-independent if and only if the
integral of the vector field over every closed loop in its domain is zero. Thus the
converse can alternatively be stated as follows: If the integral of F over every
closed loop in the domain of F is zero, then F is the gradient of some scalar-
valued function.
Definitions. For some scalar field f : U ⊆ Rn → R, the line integral along a piecewise smooth
curve C ⊂ U is defined as

where r: [a, b] → C is an arbitrary bijective parametrization of the curve C such that r(a) and
r(b) give the endpoints of C and .

Line integral of a vector field. For a vector field F : U ⊆ Rn → Rn, the line
integral along a piecewise smooth curve C ⊂ U, in the direction of r, is
defined as

75
where · is the dot product and r: [a, b] → C is a bijective parametrization of the curve C
such that r(a) and r(b) give the endpoints of C. .
For example, the work done on an object moving through an electric or gravitational
field (W=F·s) have natural continuous analogs in terms of line integrals (W=∫CF·ds).
Nesse caso, é intuitivo que: o trabalho, num campo dissipativo de forças, dependa
do caminho.

The divergence theorem


In vector calculus, the divergence theorem, also known as Gauss's theorem
or Ostrogradsky's theorem, is a result that relates the flow (that is, flux) of
a vector field through a surface to the behavior of the vector field inside the
surface.More precisely, the divergence theorem states that the outward flux of a
vector field through a closed surface is equal to the volume integral of
the divergence over the region inside the surface. Intuitively, it states that the
sum of all sources minus the sum of all sinks gives the net flow out of a region.
Intuition. If a fluid is flowing in some area, and we wish to know how much fluid
flows out of a certain region within that area, then we need to add up the
sources inside the region and subtract the sinks. The fluid flow is represented
by a vector field, and the vector field's divergence at a given point describes the
strength of the source or sink there. So, integrating the field's divergence over
the interior of the region should equal the integral of the vector field over the
region's boundary. The divergence theorem says that this is true.
The divergence theorem is thus a conservation law which states that the
volume total of all sinks and sources, that is the volume integral of the
divergence, is equal to the net flow across the volume's boundary.
Mathematical statement
Suppose V is a subset of Rn (in the case of n = 3, V represents a volume in 3D
space) which is compact and has a piecewisesmooth boundary S (also
indicated with ∂V=S). If F is a continuously differentiable vector field defined on
a neighborhood of V, then we have

The left side is a volume integral over the volume V, the right side is the surface
integral over the boundary of the volume V. The closed manifold ∂V is quite
generally the boundary of V oriented by outward-pointing normals, and n is the
outward pointing unit normal field of the boundary ∂V. (dS may be used as a
shorthand for n dS.) By the symbol within the two integrals it is stressed once
more that ∂V is a closed surface. In terms of the intuitive description above, the
left-hand side of the equation represents the total of the sources in the
volume V, and the right-hand side represents the total flow across the boundary
∂V.

76
Note that vectors may point into
or out of the
sphere.

A region V bounded by the surface


S=∂V with the surface normal n

Corollaries

By applying the divergence theorem in various contexts, other useful identities


can be derived

-Applying the divergence theorem to the product of a scalar function g and a


vector field F, the result is

A special case of this is , in which case the theorem is the basis


for Green's identities.

-Applying the divergence theorem to the cross-product of two vector fields ,


the result is

-Applying the divergence theorem to the product of a scalar function, f, and a


non-zero constant vector, the following theorem can be proven:

-Applying the divergence theorem to the cross-product of a vector field F and a


non-zero constant vector, the following theorem can be proven:

77
KELVIN–STOKES THEOREM

This is the classical result first discovered by Lord Kelvin, who communicated
it to George Stokes in a letter dated July 2, 1850. Stokes set the theorem as a
question on the 1854 Smith's Prize exam, which led to the result bearing his
name. This special case is often just referred to as the Stokes' theorem in many
introductory university vector calculus courses and as used in physics and
engineering. It is also sometimes known as the curl theorem.

which relates the surface integral of the curl of a vector field over a surface Σ in
Euclidean three-space to the line integral of the vector field over its boundary.
The curve of the line integral, ∂Σ, must have positive orientation, meaning that
dr points counterclockwise when the surface normal, dΣ, points toward the
viewer, following the right-hand rule.
One consequence of the formula is that the field lines of a vector field with zero
curl cannot be closed contours.

An illustration of the Kelvin–Stokes theorem, with surface Σ, its boundary ∂Σ


and the "normal" vector n.
Modern form of Stokes' theorem
One of the most powerful statements in this direction is Stokes' theorem:
Let M be an oriented piecewise smooth manifold of dimension n and let be
an n−1 form that is a compactly supported differential form on M of class C1. If
∂M denotes the boundary
of M with its induced orientation, then

Here d is the exterior derivative, which is defined using the manifold structure
only. The theorem is often used in situations where M is an embedded oriented
submanifold of some bigger manifold on which the form is defined.
-------------------------------------------------xxx-----------------------------------------------

78
THE LEBESGUE INTEGRAL (named after Henri Lebesgue who introduced
the integral in 1904).
O Projeto de Lebesgue

In Lebesgue’s words: “it is our purpose to associate with every bounded function which is
defined in a finite interval (a,b) – positive negative or equal to zero- a certain finite number
which we will call the integral of f on (a,b)

and which satisfies the following conditions:

(1) For any a, b, and h, we have

(2) For any a, b, c we have

(3)

(4) If f ≥ 0 and b ˃ a , then also

(5)

(6) If fn tends increasingly to f , then integral of fn tends to the integral of f.

The significance, necessity, and corollaries of the first five conditions of this problem of
integration are more or less evident...”

In 1905, under the assumption of the axiom of choice, the Italian mathematician
Giuseppe Vitali gave the first example of a subset of real numbers (the Vitali set) that
is not Lebesgue measurable, and in 1970, the American mathematician Robert M.
Solovay constructed Solovay's model, which shows that it is consistent with standard
set theory, excluding uncountable choice, that all subsets of the reals are measurable.

Recall the difference between the Riemann and Lebesgue approaches :


"to compute the Riemann integral of f, one partitions the domain [a, b] into
subintervals", while in the Lebesgue integral, "one is in effect partitioning
the range of f, and taking (the mesure of the inverse image under f, of the
range-subinterval) x (any point of the range-subinterval), as an
approximation of the small area”.

79
The Lebesgue integral of a positive function is defined by using the Lebesgue
measure of a set. It uses a Lebesgue sum where is the value of
the function in subinterval , and is the Lebesgue measure of the set
of points for which values are approximately .

For this, one take f to be a measurable function ( if the preimage of


each measurable set (including intervals) is measurable).

To handle signed functions, we need a few more definitions. If f is a measurable


function of the set E to the reals (including ±∞), then we can write

where

Note that both f+ and f− are non-negative measurable functions. Also note that

We say that the Lebesgue integral of the measurable function f exists, or is

defined if at least one of and is finite, we define

If

we say that f is Lebesgue integrable, and write

or sometimes

to emphasize that the integral is taken with respect to the measure


Basic properties of the Lebesgue integral

The Lebesgue integral does not distinguish between functions which differ only
on a set of μ-measure zero. To make this precise, functions f and g are said to
be equal almost everywhere (a.e.) if

 If f, g are non-negative measurable functions (possibly assuming the


value +∞) such that f = g almost everywhere, then

80
To wit, the integral respects the equivalence relation of almost-everywhere
equality.

 If f, g are functions such that f = g almost everywhere, then f is


Lebesgue integrable if and only if g is Lebesgue integrable, and the
integrals of f and g are the same if they exist.
The Lebesgue integral has the following properties:
Linearity: If f and g are Lebesgue integrable functions and a and b are real
numbers, then af + bg is Lebesgue integrable and

Monotonicity: If f ≤ g, then

Monotone convergence theorem: Suppose {fk}k ∈ N is a sequence of non-


negative measurable functions such that

Then, the pointwise limit f of fk is Lebesgue integrable and

Note: The value of any of the integrals is allowed to be infinite.


Fatou's lemma: If {fk}k ∈ N is a sequence of non-negative measurable functions,
then

If, in addition, fk → f almost everywhere, then


Again, the value of any of the integrals may be infinite.

Dominated convergence theorem: Suppose {fk}k ∈ N is a sequence of complex


measurable functions with pointwise limit f, and there is a Lebesgue integrable
function g (i.e., g belongs to the space L1) such that |fk| ≤ g for all k.
Then, f is Lebesgue integrable and

Mostramos, em disciplina de pós-graduação de ‘Funções de Variáveis Reais’ que as


propriedades de convergências acima são equivalentes num contexto mais geral.

Fundamental theorem of Lebesgue integral calculus

81
Let I be an interval in the real line R. A function f: I → R is absolutely
continuous on I if for every positive number , there is a positive
number such that whenever a finite sequence of pairwise disjoint sub-intervals
(xk, yk) of I satisfies

then

The collection of all absolutely continuous functions on I is denoted AC(I).

Equivalent definitions

The following conditions on a real-valued function f on a compact interval [a,b]


are equivalent:
(1) f is absolutely continuous;
(2) f has a derivative f ′ almost everywhere, the derivative is Lebesgue
integrable, and

for all x on [a,b];


(3) there exists a Lebesgue integrable function g on [a,b] such that

for all x on [a,b].


If these equivalent conditions are satisfied then necessarily g = f ′ almost
everywhere.
Equivalence between (1) and (3) is known as the fundamental theorem of
Lebesgue integral calculus, due to Lebesgue.
The p-norm in finite dimensions

The length of a vector x = (x1, x2, …, xn) in the n-dimensional real vector
space Rn is usually given by the Euclidean norm:

The Euclidean distance between two points x and y is the length of the
straight line between the two points.
For a real number p ≥ 1, the p-norm or Lp-norm of x is defined by

The L∞-norm or maximum norm (or uniform norm) is the limit of the Lp-norms
for . It turns out that this limit is equivalent to the following definition:

82
For all p ≥ 1, the p-norms and maximum norm as defined above indeed
satisfy the properties of a "length function" (or norm), which are that:

. > only the zero vector has zero length, ( . )

>the length of the vector is positive homogeneous with respect to


multiplication by a scalar, ( ), and

. > the length of the sum of two vectors is no larger than the sum of lengths of
the vectors (triangle inequality).( )
Abstractly speaking, this means that Rn together with the p-norm is
a Banach space. This Banach space is the Lp-space over Rn.

Unit circle (superellipse) in p = 3⁄2 norm

Astroid, unit circle in p = 2⁄3 metric

Unit circle (superellipse) in p = 3⁄2 norm

Illustrations of unit circles in different p-norms (every vector from the origin to
the unit circle has a length of one, the length being calculated with length-
formula of the corresponding p).
Relations between p-norms
It is intuitively clear that straight-line distances in Manhattan are generally
shorter than taxi distances. Formally, this means that the Euclidean norm of any
vector is bounded by its 1-norm:

83
For the opposite direction, the following relation between the 1-norm and the 2-
norm is known:

This inequality depends on the dimension n of the underlying vector space and
follows directly from the Cauchy–Schwarz inequality
In general, for vectors in where p > r > 0:

Most of the applications work with p=1 , p=2 and p= ∞

The p-norm in countably infinite dimensions

The p-norm can be extended to vectors that have an infinite number of


components, which yields the space . This contains as special cases:

 , the space of sequences whose series is absolutely convergent,


 , the space of square-summable sequences, which is a Hilbert space,
and
 , the space of bounded sequences.
The space of sequences has a natural vector space structure by applying
addition and scalar multiplication coordinate by coordinate.
Explicitly, for an infinite sequence of real (or complex)
numbers, define the vector sum to be

while the scalar action is given by

Define the p-norm

Here, a complication arises, namely that the series on the right is not always
convergent, so for example, the sequence made up of only ones, (1, 1, 1, …),
will have an infinite p-norm (length) for every finite p ≥ 1. The space ℓp is then
defined as the set of all infinite sequences of real (or complex) numbers such
that the p-norm is finite.
One can check that as p increases, the set ℓp grows larger. For example, the
sequence

is not in ℓ1, but it is in ℓp for p > 1, as the series

84
diverges for p = 1 (the harmonic series), but is convergent for p > 1.
One also defines the ∞-norm using the supremum:

and the corresponding space ℓ∞ of all bounded sequences. It turns out that [2]

if the right-hand side is finite, or the left-hand side is infinite. Thus, we will
consider ℓp spaces for 1 ≤ p ≤ ∞.
The p-norm thus defined on ℓp is indeed a norm, and ℓp together with this norm
is a Banach space.

Lp spaces
Let 1 ≤ p < ∞ and (S, Σ, μ) be a measure space. Consider the set of
all measurable functions from S to C (or R) whose absolute value raised to
the p-th power has finite integral, or equivalently, that

The set of such functions forms a vector space, with the following natural
operations:

, for every scalar λ.


That the sum of two p power integrable functions is again pth power integrable
th

follows from the inequality |f + g|p ≤ 2p-1 (|f|p + |g|p). In fact, more is
true. Minkowski's inequalitysays the triangle inequality holds for || · ||p. Thus the
set of pth power integrable functions, together with the function || · ||p, is
a seminormed vector space, which is denoted by .
This can be made into a normed vector space in a standard way; one simply
takes the quotient space with respect to the kernel of || · ||p. Since for any
measurable function f, we have that ||f||p = 0 if and only if f = 0 almost
everywhere, the kernel of || · ||p does not depend upon p,

In the quotient space, two functions f and g are identified if f = g almost


everywhere. The resulting normed vector space is, by definition,

For p = ∞, the space L∞(S, μ) is defined as follows. We start with the set of all
measurable functions from S to C (or R) which are essentially bounded, i.e.
bounded up to a set of measure zero. Again two such functions are identified if

85
they are equal almost everywhere. Denote this set by L∞(S, μ). For f in L∞(S, μ),
its essential supremum serves as an appropriate norm:

As before, we have

if f ∈ L∞(S, μ) ∩ Lq(S, μ) for some q < ∞.


For 1 ≤ p ≤ ∞, Lp(S, μ) is a Banach space (a complete normed vector space
over the field K, which may be the field R of real numbers, or over the field C of
complex numbers). The fact that Lp is complete is often referred to as the Riesz-
Fischer theorem. Completeness can be checked using the convergence
theorems for Lebesgue integrals.
When the underlying measure space S is understood, Lp(S, μ) is often
abbreviated Lp(μ), or just Lp.

Special cases: space L2

When p = 2; like the ℓ2 space, the space L2 is the only Hilbert space of this
class. In the complex case, the inner product on L2 is defined by

The additional inner product structure allows concepts involving orthogonality,


orthogonal projection, orthonormal bases, etc., in a richer theory, with
applications to, for instance, Fourier series and quantum mechanics. Functions
in L2 are generally called square-integrable functions.

------------------------------------------
Obs. A version of the fundamental theorem of calculus holds for the Gâteaux
derivative of F, provided F is assumed to be sufficiently continuously
differentiable (Appendix VI) . Specifically:

 Suppose that F : X → Y is C1 in the sense that the Gâteaux derivative is


a continuous function dF : U×X→Y. Then for any u∈U and h∈X,

where the integral is the Gelfand-Pettis integral (the weak integral).

------------------------x-------------------------

86
APÊNDICE IV – EQUAÇÕES PROVENIENTES DA FÍSICA .......[87,107]
LEIS DA TERMODINÂMICA:

- Após as contribuições de O.GUERICKE em 1650 (que construiu a 1ª bomba de vácuo), de


R.BOYLE e R.HOOKE em 1656 (bomba de ar, com a qual concluíram a Lei de Boyle, que
enuncia que a pressão é inversamente proporcional ao volume), e de D.PAPIN em 1697 (forno
de pressão), o engenheiro inglês T.SAVERY, que descobriu modos de utilizar o vapor e sua
energia para bombear água de um poço, patenteou em 1698, o que é considerada a primeira
máquina a vapor;

- Em 1765, o engenheiro e matemático escocês J.WATT construiu um motor a vapor, e na


década de 1780, a inovação de ter a velocidade dos motores rotativos controlada, trabalho
considerado como uma das primeiras aplicações da realimentação, um elemento essencial
para a automação; seu trabalho é considerado um marco para a chamada “REVOLUÇÃO
INDUSTRIAL”;

- Em 1824, o engenheiro francês S.CARNOT, publicou um trabalho sobre calor, potência e


eficiência das máquinas, que marcou o início da ciência termodinâmica (ciência experimental,
que se desenvolveu a partir da necessidade de aumentar a eficiência das primeiras máquinas a
vapor e que estuda mudanças em escala macroscópica nas variáveis termodinâmicas:
temperatura, pressão, volume, energia e outras);

Lei Zero da Termodinâmica determina que, “quando dois sistemas em equilíbrio


termodinâmico têm igualdade de temperatura com um terceiro sistema também em
equilíbrio, eles têm igualdade de temperatura entre si” (possibilita a definição macroscópica
de temperatura e também a construção de termômetros).

Primeira lei da termodinâmica: Lei da conservação da energia: “Num sistema isolado a energia
interna permanece constante”, ou " a variação da energia interna de um sistema é igual à
diferença entre o calor e o trabalho (que são formas de transferência de energia) trocados pelo
sistema com o meio exterior."

Q > 0: calor é recebido pelo sistema oriundo de sua vizinhança.

Q < 0: calor cedido pelo sistema à vizinhança.

W > 0: volume do sistema aumenta; o sistema realiza trabalho sobre a vizinhança (cujo
volume diminui).

W < 0: volume do sistema diminui; o sistema recebe energia na forma de trabalho


oriunda de sua vizinhança (cujo volume aumenta).

>0: a energia interna do sistema aumenta.

< 0: a energia interna do sistema diminui;

87
Segunda Lei da Termodinâmica:

A entropia é uma grandeza termodinâmica que aparece geralmente associada à quantidade de


estados possíveis de um sistema termodinâmico. Aumentar a entropia de um sistema
termodinâmico significa dar-lhe condições para que haja um maior número de microestados
acessíveis às partículas que o compõem. Em acordo com a segunda lei da termodinâmica,
trabalho pode ser completamente convertido em calor, e por tal em energia térmica, mas
energia térmica não pode ser completamente convertida em trabalho. Com a entropia
procura-se mensurar a parcela de energia que não pode mais ser transformada em trabalho
em transformações termodinâmicas:

“A entropia do Universo aumenta numa transformação espontânea e mantém-se constante


numa situação de equilíbrio.” (expressa a relação entre a entropia e a espontaneidade de uma
transformação);

Terceira Lei da Termodinâmica: “A entropia de todos os cristais perfeitos é igual (e nula) no


zero absoluto de temperatura” (permite construir uma escala absoluta de valores para a
entropia);

Na física e engenharia, define-se eficiência como sendo a relação entre a energia fornecida a
um sistema (seja em termos de calor ou de trabalho) e a energia produzida pelo sistema
(normalmente na forma de trabalho).. A eficiência de um processo é definida como:

onde

W é a quantidade de trabalho útil produzido no processo; energia é a quantidade de energia


oferecida ao sistema.

Num sistema termodinâmico fechado, a eficiência não pode exceder 100%.

ELETROMAGNETISMO:

- No início do SÉC. XIX, H.C.OERSTED obteve evidência empírica da relação entre fenômenos
elétricos e magnéticos;

- Em 1821, M.FARADAY, no trabalho “Rotação Eletromagnética” estabeleceu o princípio base


do funcionamento dos motores elétricos: comprovou a teoria de W.H.Wollaston mostrando
que uma barra de imã girava em torno de um fio eletrizado e que um fio suspenso eletrizado
girava em torno de um imã fixo;

- Em 1826, A.M.AMPÈRE enunciou a Lei de Ampère, que com a complementação de


Maxwell, afirma que campos magnéticos podem ser gerados em duas formas: através de
correntes elétricas, que é a lei de Ampère original, e por campos elétricos que variam no
tempo, que é a complementação proposta por Maxwell.
Por exemplo, Um fio ao conduzir uma corrente elétrica, gera um campo magnético, de linhas
de força perpendiculares a ele:

88
- Em 1831, M.FARADAY descobriu a indução eletromagnética mostrando que era possível
transformar energia mecânica em energia elétrica, na primeira demonstração de um dínamo
que veio a ser a principal forma de obtenção de energia elétrica: fez um disco de cobre (ligado
a um galvanômetro) girar entre os polos de um imã em forma de ferradura e constatou que a
agulha do galvanômetro se movia com o girar do disco.
A Lei de indução eletromagnética de Faraday, enuncia que: a corrente elétrica induzida em
um circuito fechado por um campo magnético, é proporcional ao número de linhas de
campo que atravessa a área envolvida pelo circuito, na unidade de tempo;
A lei de Faraday-Lenz enuncia que a força eletromotriz que é induzida em um circuito
elétrico é igual à variação do fluxo magnético no circuito.
A lei de indução eletromagnética de Faraday-Neumann-Lenz fornece o princípio base do
funcionamento dos alternadores, dínamos e transformadores.

EQUAÇÕES DE MAXWELL:

- Em 1865, J.C.MAXWELL formulou 20 equações com 20 variáveis, que em 1884, O.HEAVISIDE


e W.GIBBS reduziram a apenas 4, que junto com a Lei da força de Lorentz, formalizam o
eletromagnetismo clássico;

1) Lei de Gauss: descreve a relação entre um campo elétrico e as cargas elétricas geradoras do
campo:

Lei de Gauss ou,

Onde:

campo elétrico

Densidade de carga total (incluindo cargas livres e ligadas)

89
O fluxo elétrico (integral de superfície do campo elétrico) por meio da

superfície fechada (a fronteira do volume V)

Rede de cargas elétricas ligadas a um volume tridimensional V (incluindo cargas


livres e ligadas)
Permissividade do vácuo, constante elétrica, uma constante universal;

2) Lei de Gauss para o magnetismo:

ou

Onde B é o campo magnético

3) Lei de Indução de Faraday

Integral de linha ao longo da fronteira ∂S de uma superfície S (∂S é sempre

uma curva fechada - sem início nem fim).

Fluxo magnético através de qualquer superfície S, não sendo


necessariamente uma superfície fechada

4) Lei de Ampère (com a complementação de Maxwell)

ou

Densidade de corrente total (incluindo correntes livres e


ligadas)

90
, Rede de corrente elétrica passando através da
superfície S (incluindo correntes livres e ligadas)

Fluxo elétrico através de uma superfície


S, não sendo necessariamente fechada.

denomina-se o rotacional do campo vetorial , e é, também


ele, um campo vetorial;

Do Teorema de Stokes:
Se C ( uma curva fechada no R3 ) é a fronteira de uma superfície S então para cada campo vetorial F
= [ F1 , F2 , F3 ], temos que

 F . dS =  rot (F ) . dA
C S

(que justifica o nome circulação)


A região R fique na esquerda quando percorremos C no sentido de integração.

Resulta a interpretação física do rotacional em um ponto P, como um vetor cuja componente normal

a uma superfície S, fornece a circulação do campo em torno de P , por unidade de área;

- DAS LEIS DE FARADAY e DA COMPLEMENTAÇÃO DE MAXWELL PARA A LEI DE AMPÈRE, RESULTA


QUE: UM CAMPO ELÉTRICO VARIÁVEL (E), GERA UM CAMPO MAGNÉTICO TAMBÉM VARIÁVEL (B),
PERPENDICULAR AO CAMPO ELÉTRICO, QUE POR SUA VEZ GERA UM CAMPO ELÉTRICO
PERPENDICULAR VARIÁVEL, E ASSIM POR DIANTE, GERANDO A PROPAGAÇÃO DE UMA ONDA
ELETROMAGNÉTICA, TRANSVERSAL A AMBOS OS CAMPOS E DE VELOCIDADE, NO VÁCUO,

91
IGUAL A ou

DINÂMICA DOS FLUIDOS:

- Em 1738, D.Bernoulli publicou em seu livro Hydrodynamica, o chamado Princípio de


Bernoulli, que enuncia que: para um fluxo sem viscosidade, um aumento na velocidade do
fluido ocorre simultaneamente com uma diminuição na pressão ou uma diminuição na
energia potencial do fluido;

- A chamada Equação de Bernoulli (ou Equação de Baroni, apresentada por Euler):

-A forma original, que é para um fluxo incompressível ( = constante; principalmente líquidos)


sob um campo gravitacional uniforme (como o encontrado na Terra em pequenas altitudes), é:

ou

onde:

= velocidade do fluido ao longo do conduto

= aceleração da gravidade

= altura com relação a um referencial

= pressão ao longo do recipiente

= massa específica do fluido

92
As seguintes convenções precisam ser satisfeitas para que a equação se aplique:

 Escoamento sem viscosidade ("fricção" interna = 0)


 Escoamento em estado estacionário
 Escoamento incompressível ( constante em todo o escoamento)
 Geralmente, a equação vale a um conduto como um todo. Para fluxos de potencial de
densidade constante, ela se aplica a todo o campo de fluxo.

O princípio pode ser reenunciado de modo a traduzir para os fluidos o princípio da


conservação da energia: num fluido ideal (sem viscosidade nem atrito) em regime de
circulação por um conduto fechado, a energia que possui o fluido permanece constante
ao longo de seu percurso. A energia de um fluido em qualquer momento consta de três
componentes:

1. Cinética: é a energia devida à velocidade que possua o fluido.


2. Potencial gravitacional: é a energia devida à altitude que um fluido possua.
3. Energia de fluxo: é a energia que um fluido contém devido à pressão que possui.

Equação de Bernoulli:

onde:

 = velocidade do fluido na seção considerada.


 = aceleração gravitacional
 = altura na direção da gravidade desde uma cota de referência.
 = pressão ao longo da linha de corrente.
 = densidade do fluido.

Para aplicar a equação se deve realizar as seguintes suposições:

 Viscosidade (atrito interno) = 0 Ou seja, se considera que a linha de corrente sobre a


qual se aplica se encontra em uma zona 'não viscosa' do fluido.
 Caudal constante
 Fluxo incompressível, onde ρ é constante.
 A equação se aplica ao longo de uma linha de corrente ou em um fluxo irrotacional.

A equação para fluidos compressíveis:

Uma segunda forma, mais geral, pode ser escrita para fluidos compressíveis:

onde:

93
é a energia potencial gravitacional por unidade de massa, que vale apenas
no caso de um campo gravitacional uniforme,

é a energia termodinâmica do fluido por unidade de massa, também conhecida como


energia interna específica ou sie.

A constante no lado direito da equação é frequentemente chamada de constante de Bernoulli


e indicada pela letra "b". Para o escoamento adiabático sem viscosidade e sem nenhuma fonte
adicional de energia, "b" é constante ao longo de todo o escoamento;

Aplicação da equação de Bernoulli

Aviões: A asa de um avião é mais curva na parte de cima. Isto faz com que o ar passe mais
rápido na parte de cima do que na de baixo. De acordo com a equação de Bernoulli, a pressão
do ar em cima da asa será menor do que na parte de baixo, criando uma força de empuxo que
sustenta o avião no ar:

94
Condensation visible over the upper surface of a wing caused by the fall in temperature
accompanying the fall in pressure, both due to acceleration of the air.

Fonte: Wikipedia

Equações de Navier-Stokes:

-Após as Equações de D.Bernoulli e L.Euler em 1755, as Equações de Navier-Stokes da


fluidodinâmica, foram obtidas por C.L.Navier em 1826, S.D. Poisson em 1831, B.de St.
Venant em 1843 e G.G.Stokes em 1845;

Forma Geral: com a notação do ítem 54, a forma das equações para a conservação do
momento é:

onde

onde:
a 2ª parcela representa o tensor das tensões;
os são a tensão normal;
tensão tangencial (tensão de cisalhamento);
p é a pressão estática, associada como a parte isotrópica do tensor de tensões sem
considerar se o fluido está ou não em equilíbrio; e
ρf outras forças externas, por unidade de volume, sobre o fluido (por exemplo: força
gravitacional ρg , forçacentrífuga, etc. ), uma vez que o gradiente de pressão já se
encontra explicitado;

Finalmente, temos:

Onde é a somatória da diagonal principal de ;

Esta equação descreve a conservação do momento (que pode ser derivada a partir da 2ª
lei de Newton) para um fluido, mas se aplica a todo contínuo não relativista, e é
conhecida como Equação do momento de Cauchy;

As equações de Navier-Stokes, que incluem as três equações de conservação do


momento, e, dependendo do problema, mais a conservação da massa (equação de
continuidade –item 54):
95
conservação da energia, além da equação de estado, e do conhecimento da lei
empírica (ou hipótese) da viscosidade, formam um sistema de equações diferenciais
parciais para as variáveis:componentes da velocidade, pressão, densidade,
temperatura e viscosidade, com as quais pode-se formular problemas com
condições iniciais e de contorno;

substituindo ρf por f , a equação fica:

com o termo sendo o responsável por sua não linearidade;

Para um fluido Newtoniano incompressível,

Onde μ é o coeficiente de viscosidade dinâmica;

Observação: não há prova de existência geral para o contexto tridimensional das Equações de
Navier-Stokes, ou existindo, se possuem singularidades. O “Clay Mathematics Institute”
considerou este, um dos sete problemas abertos mais importantes em matemática, e ofereceu
um prêmio de US$ 1.000.000 por uma solução ou contraexemplo;
Dependendo do caso particular, pode haver teoremas de existência, e/ou soluções
numéricas aproximadas;
Fonte: Navier-Stokes Equations – Wikipedia;

96
MECÂNICA DO CONTÍNUO ( iniciada por A.L.Cauchy no Séc. XIX ):

Embora saibamos que a matéria é formada por átomos e moléculas, para muitos propósitos a
aproximação contínua, mais simples, se mostra útil e conveniente;

Elasticity
Describes materials that return to their rest shape
Solid mechanics after an applied stress.
The study of the physics of
Continuum continuous materials with a Plasticity
mechanics defined rest shape. Describes materials that Rheology
The study of the permanently deform after The study of materials
physics of a sufficient applied stress. with both solid and fluid
continuous characteristics.
materials Fluid mechanics Non-Newtonian fluids
The study of the physics of
continuous materials which
take the shape of their Newtonian fluids
container.

As leis de balanceamento podem ser escritas na seguinte forma geral:

onde:

∪ ⊂ ℝ³ , é a região ocupada pelo corpo material , a sua fronteira ,


a quantidade física que flui através do corpo, por unidade de volume;
fonte líquida (fontes - sorvedouros) da quantidade, dentro do corpo;
fonte líquida da quantidade, na superfície do corpo;
o vetor normal unitário, exterior à região, na superfície ;
a velocidade dos pontos materiais que fluem através de ;e
(x,t ) a velocidade na qual a fronteira se movimenta, na direção ;

as funções , ,e podendo assumir valores escalares, vetoriais ou


tensores, dependendo da quantidade física balanceada;
Com hipóteses adequadas a cada caso, pode-se inferir as equações de balanço de massa,
energia, momento linear e momento angular, na forma diferencial;

Desigualdade de Clausius–Duhem:

A desigualdade de Clausius–Duhem pode ser usada para expressar a 2ª lei da termodinâmica


para materiais elásticos/plásticos; seu enunciado se refere à irreversibilidade dos processos
espontâneos, especialmente quando há dissipação de energia;

97
A quantidade de interesse, no caso, é a entropia; supondo que há uma densidade de entropia
por unidade de massa ( ) interna à região , um fluxo e uma fonte de entropia, a 2ª Lei da
termodinâmica enuncia que: a taxa de aumento de na região , é maior ou igual à soma
das entropias acrescentadas à , por meio do fluxo de entropia, fontes internas, ou da
densidade de entropia devido ao fluxo de matéria ( que entre ou sai ) na região:

Sendo:
a densidade de matéria na região;
o fluxo de entropia na superfície; e
a fonte de entropia por unidade de massa;

A desigualdade entrópica pode ser escrita:

O fluxo escalar de entropia pode ser relacionado com o fluxo vetorial na superfície, pela
relação:

Na hipótese de incrementos isotérmicos:

Onde:

representa o fluxo vetorial de calor;


representa a fonte de energia por unidade de massa;
representa a temperatura absoluta de um ponto do material, no instante .

Donde deriva a inequação de Clausius–Duhem na forma integral:

Na forma diferencial, a desigualdade entrópica pode ser escrita:

Fonte: Continuum Mechanics / wikipedia;

98
MAGNETO FLUID DYNAMICS or MAGNETOHYDRODYNAMICS (MHD), is an academic
discipline which studies the dynamics of electrically conducting fluids. Examples of
such fluids include plasmas, liquid metals, and salt water or electrolytes. The word
magnetohydrodynamics (MHD) is derived from magneto- meaning magnetic field,
hydro- meaning liquid, and -dynamics meaning movement. The field of MHD was
initiated by Hannes Alfvén in 1942, for which he received the Nobel Prize in Physics in
1970: "At last some remarks are made about the transfer of momentum from the Sun to
the planets, which is fundamental to the theory (§11). The importance of the
magnetohydrodynamic waves in this respect are pointed out."
The ebbing salty water flowing past London's Waterloo Bridge interacts with the Earth's
magnetic field to produce a potential difference between the two river-banks. Michael
Faraday tried this experiment in 1832 but the current was too small to measure with the
equipment at the time, and the river bed contributed to short-circuit the signal.
However, by the same process, Dr. William Hyde Wollaston was able to measure the
voltage induced by the tide in the English Channel in 1851.

The fundamental concept behind MHD is that magnetic fields can induce currents in a
moving conductive fluid, which in turn creates forces on the fluid and also changes the
magnetic field itself. The set of equations which describe MHD are a combination of the
Navier-Stokes equations of fluid dynamics and Maxwell's equations of
electromagnetism. These differential equations have to be solved simultaneously, either
analytically or numerically.

MECÂNICA QUÂNTICA:

- Após os modelos atômicos de J.Dalton, de 1808, e o do “pudim de passas” de J.J.Thompson,


de 1897, surgiu,

- Em 1900, o alemão M.E.Planck, das seus estudos sobre a emissão de radiação dos corpos
negros, sugeriu que a energia dos osciladores não é emitida em forma contínua, mas em
quantidades múltiplas inteiras de h. ν , onde h é a constante de Planck e ν a frequência (cor)
da radiação emitida, ou seja E = n.h. ν , onde n = 1, 2, 3, ....

- Em 1911, surgiu o modelo planetário de E.Rutherford que com base na experiência da “folha
de ouro”, sustentou que os átomos têm sua carga positiva concentrada em um pequeno
núcleo, com os elétrons orbitando o núcleo atômico, o que não estava de acordo com o
eletromagnetismo clássico, que prediz que os elétrons, ao orbitar os núcleos dos átomos,
como cargas elétricas em movimento, deveriam emitir energia, e quase imediatamente caírem
no núcleo, o que não se constata;

- Em 1913, o físico dinamarquês N.Bohr, aproveitando a sugestão de Planck, sugeriu os


seguintes postulados para o modelo planetário do átomo, conhecido como modelo atômico
de Rutherford-Bohr:

1. Os elétrons nos átomos descrevem sempre órbitas circulares ao redor do núcleo,


chamadas de camadas ou níveis de energia.
2. Cada um desses níveis possui um valor determinado de energia (estados estacionários).
3. Os elétrons só podem ocupar os níveis que tenham uma determinada quantidade de
energia.

99
4. Os elétrons podem saltar de um nível para outro mais externo, desde que absorvam uma
quantidade bem definida de energia (quantum de energia).

5. Ao voltar ao nível mais interno, o elétron emite um quantum de energia, na forma de luz
de cor bem definida ou outra radiação eletromagnética (fóton).

6. Cada órbita é denominada de estado estacionário e pode ser designada por letras K, L,
M, N, O, P, Q. As camadas podem apresentar:

K = 2 elétrons
L = 8 elétrons
M = 18 elétrons
N = 32 elétrons
O = 32 elétrons
P = 18 elétrons
Q = 2 elétrons
7. Cada nível de energia é caracterizado por um número quântico (n), que pode assumir
valores inteiros: 1, 2, 3, etc.

- Em 1919, Rutherford sugeriu que a carga positiva de um átomo está concentrada no


centro, num minúsculo e denso núcleo, identificando o próton. Em 1919, realizou a primeira
transmutação induzida, também conhecida como reação nuclear: converteu um núcleo de
azoto em oxigênio, por bombardeamento com partículas alfa[5]. As suas experiências
conduziram à descoberta dos meios de obtenção de energia nuclear. Tais fatos levaram a que
Rutherford fosse considerado como o fundador da Física Nuclear.

- Em 1920, o físico alemão A. SOMMERFELD, a partir da constatação de que elétrons, numa


mesma camada, apresentavam energias diferentes, sugeriu que em cada nível de energia,
além da órbita circular houvesse subníveis energéticos, com órbitas elípticas;

- Com o auxílio da mecânica quântica identificou-se 4 números quânticos (principal, de


momento angular, magnético e de spin) que descrevem as energias dos elétrons nos átomos;

100
-Em 1924, o físico francês L.de Broglie conseguiu associar uma vibração às partículas
elementares, que lhes atribuiria características ondulatórias, conseguindo explicar a condição
de quantização dos átomos de Bohr e Sommerfeld (as ondas associadas aos elétrons eram
estacionárias no átomo, e as órbitas compreendiam um número inteiro de comprimentos de
onda), e obedeciam às equações de Einstein e de Planck: E = h. ν = m. c²

-Em 1925, o físico austríaco E.Schrödinger, sugeriu que a dinâmica da física das partículas
quânticas resultasse da chamada equação de onda ou equação de Schrödinger;

-Em 1925/6, os alemães W.Heisenberg, M.Born e P.Jordan publicaram uma versão da


“mecânica matricial”;

-Em 1926, Schrödinger apresentou uma demonstração de que os dois formalismos eram
equivalentes;

-Em 1926, o físico teórico inglês P.Dirac usou o formalismo dos colchetes de Poisson,
inspirando a unificação dos formalismos anteriores, através da teoria dos operadores;

- Em 1926, M.Born sugeriu a interpretação probabilística da função de onda, ao enunciar que


o quadrado do módulo da função de onda é a densidade de probabilidade de se encontrar
uma partícula numa região do espaço num dado instante, ou seja:

p = | Ψ |² = Ψ* . Ψ

de modo que a probabilidade de encontrar a partícula num volume V , é dada pela integral

∫ p(x,y,z) dx dy dz , ou ∫ p(x,y,z) dV , sobre V;


-Em 1927, N.Bohr e W.Heisenberg enunciaram a interpretação de copenhagem (não aceita
por Schrödinger, Einstein e outros), aderindo à interpretação de M.Born, e defendendo que
em Mecânica Quântica, alguns resultados são indeterminísticos, reforçada pela divulgação,
no mesmo ano, do princípio da incerteza de Heisenberg (item 58);

-Em 1927, N.Bohr enuncia o princípio da complementaridade, segundo o qual, nos


fenômenos quânticos, a natureza da matéria e energia é dual, e que os aspéctos corpuscular
e ondulatório das partículas elementares não são contraditórios, mas sim complementares;

-Em 1928, P.Dirac desenvolveu uma teoria quântica relativística para o elétron, que permitiu
compreender o spin, identificado por W.Pauli ; também conseguiu prever a existência do
pósitron, antipartícula do elétron, identificada por C.Anderson, em 1932. No mesmo ano, o
físico inglês J. Chadwick identificou o Neutron.

Equação de onda de Schrödinger:


Equação geral:

101
onde:

Ψ é a função de onda da mecânica quântica, que fornece uma descrição (máxima possível)
de um estado de um sistema, e, portanto, o caracteriza

i a unidade imaginária ,

é a constante reduzida de Planck

o operador hamiltoniano, que caracteriza a energia total de cada função de onda;

que expressa a taxa de variação da função de onda em relação ao tempo, como função da
energia do estado;

Equação não-relativistica para uma única partícula que se move num campo elétrico (mas
não magnético):

onde:

m é a massa da partícula, V é a sua energia potencial, ∇2 o operador laplaciano

ou, substituindo r = (x , y , z) ,

que na mecânica quântica desempenha papel semelhante à 2ª Lei de Newton, ou equações de


Euler-Lagrange, ou ainda, equações de Hamilton, na mecânica clássica;

E as equações de Schrödinger independentes do tempo:

Equação geral:

, onde E é um número real,

cujas soluções são chamadas, em matemática autovetores do operador hamiltoniano , ou


ondas estacionárias da equação das ondas, em física, estados estacionários e, em química,
orbitais atômicos ou moleculares, que somente são consideradas quando o hamiltoniano
também é independente do tempo, e fornecem estados Ψ para os quais, o operador

102
hamiltoniano é proporcional à própria função Ψ , e a constante de proporcionalidade
(autovalor de correspondente ao autovetor Ψ ) é a energia E do estado Ψ ;

e a equação não-relativística, para uma única partícula que se move num campo elétrico
(mas não magnético):

que pode ser interpretada como a versão quântica da conservação da energia:

Energia Total = Energia Cinética + Energia Potencial

Fonte Wikipedia/ Schrödinger equation

THE PATH INTEGRAL FORMULATION of quantum mechanics is a description of


quantum theory which generalizes the action principle of classical mechanics. It
replaces the classical notion of a single, unique trajectory for a system with a sum, or
functional integral, over an infinity of possible trajectories to compute a quantum
amplitude.

The basic idea of the path integral formulation can be traced back to Norbert Wiener,
who introduced the Wiener integral for solving problems in diffusion and Brownian
motion. This idea was extended to the use of the Lagrangian in quantum mechanics by
P. A. M. Dirac in his 1933 paper. The complete method was developed in 1948 by
Richard Feynman. Some preliminaries were worked out earlier, in the course of his
doctoral thesis work with John Archibald Wheeler. The original motivation stemmed
from the desire to obtain a quantum-mechanical formulation for the Wheeler-Feynman
absorber theory using a Lagrangian (rather than a Hamiltonian) as a starting point.

This formulation has proved crucial to the subsequent development of theoretical


physics, because it is manifestly symmetric between time and space. Unlike previous
methods, the path-integral allows a physicist to easily change coordinates between very
different canonical descriptions of the same quantum system.

The path integral also relates quantum and stochastic processes, and this provided the
basis for the grand synthesis of the 1970s which unified quantum field theory with
the statistical field theory of a fluctuating field near a second-order phase
transition. The Schrödinger equation is a diffusion equation with an imaginary
diffusion constant, and the path integral is an analytic continuation of a method for
summing up all possible random walks. For this reason path integrals were used in the
study of Brownian motion and diffusion a while before they were introduced in
quantum mechanics.

Recently, path integrals have been expanded from Brownian paths to Lévy flights. The
Lévy path integral formulation leads to fractional quantum mechanics and a fractional
Schrödinger equation.

103
TEORIA DA RELATIVIDADE:

TEORIA RESTRITA DA RELATIVIDADE, 1905 (precursores: H.Poincaré e H.Lorentz)

O princípio da relatividade de Galileu (nas palavras de Einstein):

"...existem sistemas cartesianos de coordenadas - os chamados sistemas de inércia -


relativamente aos quais as leis da mecânica (mais geralmente as leis da física) se
apresentam com a forma mais simples. Podemos assim admitir a validade da seguinte
proposição: se K é um sistema de inércia, qualquer outro sistema K' em movimento de
translação uniforme relativamente a K, é também um sistema de inércia."

Esse enunciado pode derivar da constatação de que: estando um astronauta numa nave
espacial, não há experimento (ou observação) que possa realizar, dentro da nave e sem olhar
para fora, de modo a concluir sobre seu estado de movimento retilíneo e uniforme em relação
a outro sistema de referência, por exemplo, à terra, e pode ser enunciada como:

1.As leis que governam as mudanças de estado em quaisquer sistemas físicos tomam a
mesma forma em todo sistema inercial de coordenadas.

2. (invariância da velocidade da luz )

A luz tem velocidade invariante igual a c em relação a qualquer sistema de


coordenadas inercial. Além disso, nenhuma parícula, onda ou objeto pode alcançar
velocidade maior do que a velocidade da luz no vácuo;

A velocidade da luz no vácuo é a mesma para todos os observadores em referenciais


inerciais e não depende da velocidade da fonte que está emitindo a luz nem tampouco
do observador que a está medindo.

Obsservação: O fato da velocidade da luz no vácuo ser a maior velocidade que uma partícula,
onda ou corpo poder atingir é coerente com o princípio do tempo mínimo de Fermat;

TEORIA GERAL DA RELATIVIDADE: nessa teoria, o intento de Einstein foi generalizar a


Relatividade Restrita, de modo a englobar a gravitação, e de fato ela geometriza a gravidade;

1.O PRINCÍPIO DA EQUIVALÊNCIA da relatividade geral:

" Eu estava sentado em uma cadeira no escritório de patentes, em Berna, quando de repente
ocorreu-me um pensamento: se uma pessoa cair livremente, ela não sentirá seu próprio peso.
Eu estava atônito. Este simples pensamento impressionou-me profundamente. Ele me impeliu
para uma teoria da gravitação." (Albert Einstein)

O Princípio da equivalência de Einstein afirma que não há experimento que permita


ao seu observador discernir entre o caso no qual este experimento é realizado em um
local onde há um campo de gravidade g conhecido, constituindo o observador
(referencial) neste caso, apesar de imerso neste mesmo campo, um referencial inercial -
não acelerado, portanto - e o caso onde o experimento é realizado em uma região
completamente isenta de campos gravitacionais, mas com o observador, neste caso,

104
acelerado por uma força F adequada, que imponha ao mesmo uma aceleração de
módulo igual mas de sentido contrário ao da aceleração gerada no primeiro caso pelo
campo de gravidade.

O princípio da equivalência permite, ainda atendo-se à ideia de Referencial inercial


proposta por Newton, a "conversão" de um referencial não inercial em um referencial
inercial, bastando para tal a introdução de um campo de gravidade adequado.

O princípio da equivalência é um passo fundamental para se estabelecer, na teoria da


gravitação de Einstein, a covariância geral das leis físicas, visto que, segundo este
princípio, um observador (referencial), dada a impossibilidade deste discernir entre ser
ou não ser inercial, torna-se equivalente a todos os outros, e não só aos ditos
"referenciais inerciais", ou aos ditos "não inerciais", como ocorre na mecânica clássica.
É a pedra fundamental que levou Albert Einsten ao desenvolvimento da Relatividade
Geral.

Nas palavras de Einstein, 1915:

“Nós iremos portanto assumir a completa equivalência física entre um campo


gravitacional e a correspondente aceleração de um sistema de referência. Esta hipótese
estende o princípio da relatividade especial para sistemas de referência uniformemente
acelerados.”

“Um campo gravitacional rigorosamente uniforme é inteiramente equivalente a um sistema


uniformemente acelerado”

O Princípio da Equivalência de Eintein mostra-se intimamente relacionado ao Princípio


da Equivalência entre as Massas Inercial e Gravitacional (a ponto de se confundir com
ele).

" dentro do âmbito da mecânica clássica, onde a priori são definidos de formas distintas, os
conceitos de massa inercial e massa gravitacional são equivalentes. "

2. invariância da velocidade da luz;

EQUAÇÃO DE CAMPO DE EINSTEIN

onde é o tensor de curvatura de Einstein, uma equação diferencial de segunda ordem


em termos do tensor métrico ,e é o tensor de energia-momento, = 3 × 1010 [cm s-1]
é a velocidade da luz e = 6,67 × 10 [cm³ s-2 g-1] é a constante gravitacional, a mesma da
-8

mecânica de Newton;

O tensor da curvatura de Einstein se pode escrever como

105
onde além disso é o tensor de curvatura de Ricci, é o escalar de curvatura de
Ricci e é a constante cosmológica.

A equação do campo, portanto, também pode apresentar-se como segue:

a equação de campo de Einstein descreve como a matéria gera gravidade e, inversamente,


como a gravidade afeta a matéria, ou como o espaço-tempo se curva pela matéria e,
reciprocamente, como a matéria é influenciada pela curvatura do espaço-tempo, ou digamos,
como a curvatura dá lugar à gravidade. Pode ser utilizada de várias formas: se conhecermos a
estrutura do espaço-tempo (isto é, a forma das geodésicas, a métrica ou o próprio tensor de
Einstein), podemos utilizá-la para deduzir qual o tipo de matéria e energia (isto é, o seu tensor
impulsão-energia) presente. Inversamente, se conhecermos a matéria e energia, podemos
calcular qual a deformação correspondente no espaço-tempo.

AS EQUAÇÕES DE MOVIMENTO: corpos celestes, fótons, etc., descrevem as geodésicas (a


generalization of the notion of a "straight line" to "curved spaces"), as quais são as trajetórias
de tempo próprio máximo. Observação: Os intervalos espaço-temporais são propriedades
intrínsecas, que independem do observador e são totalmente descritas pela geometria desse
espaço-tempo, que é completamente caracterizada pela sua métrica.
........................................... xxx...........................................................

The equation above was formulated by Einstein as part of his groundbreaking general theory of
relativity in 1915. The theory revolutionized how scientists understood gravity by describing the
force as a warping of the fabric of space and time.

"It is still amazing that one such mathematical equation can describe what space-time is all
about," said Space Telescope Science Institute astrophysicist Mario Livio, who nominated the
equation as his favorite. "All of Einstein's true genius is embodied in this equation."

"The right-hand side of this equation describes the energy contents of our universe (including
the 'dark energy' that propels the current cosmic acceleration)," Livio explained. "The left-hand

106
side describes the geometry of space-time. The equality reflects the fact that in Einstein's
general relativity, mass and energy determine the geometry, and concomitantly the curvature,
which is a manifestation of what we call gravity."

"It's a very elegant equation," said Kyle Cranmer, a physicist at New York University, adding
that the equation reveals the relationship between space-time and matter and energy. "This
equation tells you how they are related — how the presence of the sun warps space-time so
that the Earth moves around it in orbit, etc. It also tells you how the universe evolved since the
Big Bang and predicts that there should be black holes."

----------------- xxx-------------------

APÊNDICE IV1_ O MODELO PADRÃO + GRAVIDADE QUÂNTICA [107,119] ...

77- FÍSICA DAS PARTÍCULAS- O MODELO PADRÃO.

OVERVIEW. At present, matter and energy are best understood in terms of the
kinematics and interactions of elementary particles. To date, physics has reduced the
laws governing the behavior and interaction of all known forms of matter and energy to
a small set of fundamental laws and theories. A major goal of physics is to find the
"common ground" that would unite all of these theories into one integrated theory of
everything, of which all the other known laws would be special cases, and from which
the behavior of all matter and energy could be derived (at least in principle).

A QUARK is an elementary particle and a fundamental constituent of matter. Quarks


combine to form composite particles called hadrons, the most stable of which are
protons and neutrons, the components of atomic nuclei. Due to a phenomenon known
as color confinement, quarks are never directly observed or found in isolation; they can
be found only within baryons or mesons. The quark model was independently
proposed by physicists Murray Gell-Mann and George Zweig in 1964. Quarks were
introduced as parts of an ordering scheme for hadrons, and there was little evidence
for their physical existence until deep inelastic scattering experiments at the Stanford
Linear Accelerator Center in 1968. All six flavors of quark have since been observed
in accelerator experiments; the top quark, first observed at Fermilab in 1995, was the
last to be discovered.

O próton é composto de O nêutron é composto de um


dois quarks u e um quark d. quark u e dois quarks d.

107
In the standard model of particle physics, there are six quarks — fundamental
particles that are the building-blocks of many others. Each quark also has an anti-
matter partner, an anti-quark. Pairings of quarks and anti-quarks form 'mesons',
such as the K+; three quarks form 'baryons', such as the proton. The picture builds
up further: a three-quark proton and a three-quark neutron together form a
deuteron; adding more protons and neutrons — more three-quark combinations —
builds up atomic nuclei. The discoveries of what seem to be a new meson2, 3 and a
new baryon4 don't easily fit the established picture. The new meson may in fact be
a 'molecule' of two mesons, and the baryon might be a 'pentaquark' state.

The Standard Model of particle physics is a theory concerning the electromagnetic, weak, and
strong nuclear interactions, which mediate the dynamics of the known subatomic particles.
Developed throughout the mid to late 20th century, The Standard Model is truly “a tapestry
woven by many hands”, sometimes driven forward by new experimental discoveries, sometimes
by theoretical advances. It was a collaborative effort in the largest sense, spanning continents
and decades. The current formulation was finalized in the mid 1970s upon experimental
confirmation of the existence of quarks. Since then, discoveries of the bottom quark (1977), the
top quark (1995), and the tau neutrino (2000) have given further credence to the Standard
Model. More recently, (2011–2012) the apparent detection of the Higgs boson completes the set
of predicted particles.

The Standard Model falls short of being a complete theory of fundamental interactions
because it does not incorporate the full theory of gravitation as described by general
relativity, or predict the accelerating expansion of the universe (as possibly described by
dark energy). The theory does not contain any viable dark matter particle that possesses

108
all of the required properties deduced from observational cosmology. It also does not
correctly account for neutrino oscillations (and their non-zero masses). Although the
Standard Model is believed to be theoretically self-consistent, it has several apparently
unnatural properties giving rise to puzzles like the strong CP problem and the hierarchy
problem.

Nevertheless, the Standard Model is important to theoretical and experimental particle


physicists alike. For theorists, the Standard Model is a paradigm of a quantum field theory,
which exhibits a wide range of physics including spontaneous symmetry breaking,
anomalies, non-perturbative behavior, etc. It is used as a basis for building more exotic
models that incorporate hypothetical particles, extra dimensions, and elaborate
symmetries (such as supersymmetry) in an attempt to explain experimental results at
variance with the Standard Model, such as the existence of dark matter and neutrino
oscillations. In turn, experimenters have incorporated the Standard Model into simulators
to help search for new physics beyond the Standard Model

The Standard Model has 61 elementary particles:

Elementary Particles
Types Generations Antiparticle Colors Total
Quarks 2 3 Pair 3 36
Leptons 2 3 Pair None 12
Gluons 1 1 Own 8 8
W 1 1 Pair None 2
Z 1 1 Own None 1
Photon 1 1 Own None 1
Higgs 1 1 Own None 1
Total 61

Particle classification: Fermions and Bosons (Note that mesons are bosons and hadrons; and
baryons are hadrons and fermions).

109
110
Summary of interactions between particles described by the Standard Model.

111
O MODELO PADRÃO

O modelo padrão da física de partículas é uma teoria que descreve as forças


fundamentais forte, fraca e eletromagnética, bem como as partículas fundamentais que
constituem toda a matéria. Desenvolvida entre 1970 e 1973, é uma teoria quântica de
campos, consistente com a mecânica quântica e a relatividade especial. Para demonstrar
sua importância, quase todos os testes experimentais das três forças descritas pelo
modelo padrão concordaram com as suas predições. Entretanto, o modelo padrão não
é uma teoria completa das interações fundamentais, primeiramente porque não
descreve a gravidade.

De acordo com o Modelo Padrão, léptons e quarks são


partículas verdadeiramente elementares, no sentido de não
possuírem estrutura interna. Partículas que têm estrutura
interna são chamadas de hádrons; são constituídas de
quarks: bárions quando formadas por três quarks ou três
antiquarks, ou mésons quando constituídas por um quark e
um antiquark.2

Há seis léptons (elétron, múon, tau, neutrino do elétron,


neutrino do múon e neutrino do tau) e seis quarks [quark up
(u) quark down (d), quark charme (c), quark estranho (s),
quark bottom (b) e quark top (t)]. Porém, os quarks têm uma
propriedade chamada cor3 e podem, cada um, apresentar
três cores (vermelho, verde e azul). Há, portanto, 18 quarks.
Contudo, como a cada partícula corresponde uma
antipartícula,4 existiriam no total 12 léptons e 36 quarks.

O elétron é o lépton mais conhecido e o próton e o nêutron os


hádrons mais familiares. A estrutura interna do próton é uud,
ou seja, dois quarks u e um d; a do nêutron é udd, isto é,
dois quarks d e um u. O méson π+ é formado por um
antiquark d e um quark u, o méson π-é constituído por um
antiquark u e um quark d. E assim por diante, ou seja, a
grande maio- ria das chamadas partículas elementares são
hádrons e estes são formados por três quarks ou três
antiquarks (bárions) ou por um quark e um antiquark
(mésons).

O modelo padrão descreve dois tipos de partículas fundamentais: férmions e bósons.

 Os férmions são as partículas que possuem o spin semi-inteiro e obedecem o


princípio de exclusão de Pauli, que diz que férmions idênticos não podem
compartilhar o mesmo estado quântico.
 Os bósons possuem o spin inteiro e não obedecem o princípio de exclusão de
Pauli.

112
DE MODO INFORMAL, OS FÉRMIONS (ELÉTRONS, PÓSITRONS, NEUTRINOS, QUARKS,
PRÓTONS, NEUTRONS, ETC.) SÃO AS PARTÍCULAS QUE CONSTITUEM A MATÉRIA , OS BÓSONS
(FÓTONS, que mediam a interação eletromagnética, BÓSONS W e Z, que mediam a
interação fraca, ambas diminuindo com a distância entre as partículas, os GLÚONS,
que mediam a interação forte, responsáveis pela coesão dos núcleos atômicos e que
aumenta com a distância entre as partículas) SÃO AS PARTÍCULAS QUE TRANSMITEM AS
FORÇAS, E O BÓSON DE HIGGS SERIA RESPONSÁVEL PELA MASSA INERCIAL DAS OUTRAS
PARTÍCULAS.

No modelo padrão, a teoria da interação eletrofraca (que descreve as interações fracas e


eletromagnéticas) é combinada com a teoria da cromodinâmica quântica. Todas estas
teorias são teorias de calibre, significando que modelam as forças entre férmions
acoplando aos bósons que "carregam" as forças. A Lagrangiana de cada conjunto de
bósons mediadores é invariante sob uma transformação chamada de transformação de
calibre, assim estes bósons mediadores são referidos como bósons de calibre. Os
bósons no modelo padrão são:

 Fótons, que mediam a interação eletromagnética.


 Bósons W e Z, que mediam a interação fraca.
 Oito espécies dos glúons, que mediam a interação forte. Seis destes glúons são
rotulados como pares de "cores" e de "anti-cores" (por exemplo, um glúon pode
carregar o "vermelho" e "anti-verde".) Outras duas espécies são uma mistura
mais complexa das cores e anti-cores.
 Os bósons de Higgs, que induzem a quebra espontânea de simetria dos grupos
de calibre e são responsáveis pela existência da massa inercial.

O bóson de Higgs é o único bóson na teoria que não é um bóson de calibre; tem um status
especial na teoria, o que foi assunto de algumas controvérsias. Grávitons, os bósons que
acredita-se mediar a interação gravitacional, não é explicado no modelo padrão.

Testes e predições

 O modelo padrão predisse a existência dos bósons W e Z, dos glúons, do quark


top e do quark charm antes que estas partículas fossem observadas. Suas
propriedades preditas foram confirmadas experimentalmente com uma boa
precisão.
 O grande colisor de Elétron-Pósitron no CERN (European Organization for
Nuclear Research) testou várias predições sobre a decaimento dos bósons Z, e
foram confirmados.
 Para ter uma idéia do sucesso do modelo padrão, uma comparação entre os
valores medidos e preditos de algumas quantidades são mostrados na seguinte
tabela:

Quantidade Valores medidos(GeV) Modelo Padrão (GeV)


Massa do bóson W
Massa do bóson Z

113
Os fermions podem ser agrupados em três gerações, a primeira consiste do elétron,
quark para cima e para baixo e o neutrino elétron. Toda a matéria ordinária é
feita desta primeira geração de partículas; as gerações mais altas de partículas
decaem rapidamente para a primeira geração e somente podem ser gerados por um curto
tempo em experimentos de alta-energia. A razão para este arranjo em gerações é que os
quatro fermions em cada geração comportam-se sempre exatamente como seus
contrapontos na outra geração; a única diferença e suas massas. Por exemplo, o elétron e
o muon têm sempre meio spin e carga elétrica unitária, mas o muon e cerca de 200
vezes mais massivo.

Os elétrons e os neutrinho-eletron, e seus contrapontos em outras gerações, são


chamados de "leptons", "partículas de interação fraca". Diferentes dos quarks, eles não
possuem uma qualidade chamada "cor", e suas interações são somente eletromagnética
e fraca, e diminuem com a distância. Por outro lado, a força forte ou cor entre os quarks
se torna mais forte com a distância, tal que os quarks são sempre encontrado em
combinações neutras chamadas de hadrons, num fenômeno conhecido como
confinamento quark. Existem os fermionic baryons compostos de três quark (o proton e
o neutro para começar são os exemplos mais familiares) e os mesons bosonico
compostos de um par quark-antiquark (tais como os pions). A massa de cada
agrupamento excede a massa de seus componentes devido a energia de ligação.

Historical background. The first step towards the Standard Model was Sheldon Glashow's
discovery in 1960 of a way to combine the electromagnetic and weak interactions. In 1967
Steven Weinberg and Abdus Salam incorporated the Higgs mechanism into Glashow's
electroweak theory, giving it its modern form.

The Higgs mechanism is believed to give rise to the masses of all the elementary particles in the
Standard Model. This includes the masses of the W and Z bosons, and the masses of the
fermions, i.e. the quarks and leptons.

The Higgs particle is a massive scalar elementary particle theorized by Robert Brout, François
Englert, Peter Higgs, Gerald Guralnik, C. R. Hagen, and Tom Kibble in 1964 (see 1964 PRL
symmetry breaking papers) and is a key building block in the Standard Model. It has no
intrinsic spin, and for that reason is classified as a boson (like the gauge bosons, which have
integer spin).

The Higgs boson plays a unique role in the Standard Model, by explaining why the other
elementary particles, except the photon and gluon, are massive. In particular, the Higgs
boson would explain why the photon has no mass, while the W and Z bosons are very
heavy. Elementary particle masses, and the differences between electromagnetism (mediated by
the photon) and the weak force (mediated by the W and Z bosons), are critical to many aspects
of the structure of microscopic (and hence macroscopic) matter. In electroweak theory, the
Higgs boson generates the masses of the leptons (electron, muon, and tau) and quarks. As the
Higgs boson is massive, it must interact with itself.

After the neutral weak currents caused by Z boson boson exchange were discovered at CERN in
1973, the electroweak theory became widely accepted and Glashow, Salam, and Weinberg
shared the 1979 Nobel Prize in Physics for discovering it. The W and Z bosons were discovered
experimentally in 1981, and their masses were found to be as the Standard Model predicted.

114
The theory of the strong interaction, to which many contributed, acquired its modern form
around 1973–74, when experiments confirmed that the hadrons were composed of fractionally
charged quarks.

Higgs boson. Because the Higgs boson is a very massive particle and also decays almost
immediately when created, only a very high energy particle accelerator can observe and record
it. Experiments to confirm and determine the nature of the Higgs boson using the Large Hadron
Collider (LHC) at CERN began in early 2010, and were performed at Fermilab's Tevatron until
its closure in late 2011. Mathematical consistency of the Standard Model requires that any
mechanism capable of generating the masses of elementary particles become visible at energies
above 1.4 TeV; therefore, the LHC (designed to collide two 7 to 8 TeV proton beams) was built
to answer the question of whether the Higgs boson actually exists.

On 4 July 2012, the two main experiments at the LHC (ATLAS and CMS) both reported
independently that they found a new particle with a mass of about 125 GeV/c2 (about 133
proton masses, on the order of 10 −25 kg), which is "consistent with the Higgs boson." Although
it has several properties similar to the predicted "simplest" Higgs, they acknowledged that
further work would be needed to conclude that it is indeed the Higgs boson, and exactly which
version of the Standard Model Higgs it best supported if confirmed.

115
An example of simulated data modeled for the CMS particle detector on the Large Hadron
Collider (LHC) at CERN. Here, following a collision of two protons, a Higgs boson is produced
which decays into two jets of hadrons and two electrons. The lines represent the possible
paths of particles produced by the proton-proton collision in the detector while the energy
these particles deposit is shown in blue.

SCATTERING is a general physical process where some forms of radiation, such as light,
sound, or moving particles, are forced to deviate from a straight trajectory by one or
more localized non-uniformities in the medium through which they pass. In
conventional use, this also includes deviation of reflected radiation from the angle
predicted by the law of reflection. Reflections that undergo scattering are often called
diffuse reflections and unscattered reflections are called specular (mirror-like)
reflections.

The types of non-uniformities which can cause scattering, sometimes known as


scatterers or scattering centers, are too numerous to list, but a small sample includes
particles, bubbles, droplets, density fluctuations in fluids, crystallites in polycrystalline
solids, defects in monocrystalline solids, surface roughness, cells in organisms, and
textile fibers in clothing. The effects of such features on the path of almost any type of
propagating wave or moving particle can be described in the framework of scattering
theory.

Some areas where scattering and scattering theory are significant include radar sensing,
medical ultrasound, semiconductor wafer inspection, polymerization process
monitoring, acoustic tiling, free-space communications, and computer-generated
imagery.

Scattering theory is a framework for studying and understanding the scattering of waves and
particles. Prosaically, wave scattering corresponds to the collision and scattering of a wave
with some material object, for instance sunlight scattered by rain drops to form a rainbow.
Scattering also includes the interaction of billiard balls on a table, the Rutherford scattering (or
angle change) of alpha particles by gold nuclei, the Bragg scattering (or diffraction) of electrons
and X-rays by a cluster of atoms, and the inelastic scattering of a fission fragment as it
traverses a thin foil. More precisely, scattering consists of the study of how solutions of
partial differential equations, propagating freely "in the distant past", come together and
interact with one another or with a boundary condition, and then propagate away "to the
distant future".

Electromagnetic waves are one of the best known and most commonly encountered forms of
radiation that undergo scattering. Scattering of light and radio waves (especially in radar) is
particularly important. Several different aspects of electromagnetic scattering are distinct
enough to have conventional names. Major forms of elastic light scattering (involving
negligible energy transfer) are Rayleigh scattering and Mie scattering. Inelastic scattering
includes Brillouin scattering, Raman scattering, inelastic X-ray scattering and Compton
scattering.

116
Rayleigh and Mie Scattering

For modeling of scattering in cases where the Rayleigh and Mie models do not apply such as
irregularly shaped particles, there are many numerical methods that can be used. The most
common are finite-element methods which solve Maxwell's equations to find the distribution
of the scattered electromagnetic field. Sophisticated software packages exist which allow the
user to specify the refractive index or indices of the scattering feature in space, creating a 2- or
sometimes 3-dimensional model of the structure. For relatively large and complex structures,
these models usually require substantial execution times on a computer….

Image: R.T. Wohlstadter/Shutterstock

117
Standard model

Another of physics' reigning theories, the standard model describes the collection of
fundamental particles currently thought to make up our universe.

The theory can be encapsulated in a main equation called the standard model
Lagrangian (named after the 18th-century French mathematician and astronomer Joseph
Louis Lagrange), which was chosen by theoretical physicist Lance Dixon of the SLAC
National Accelerator Laboratory in California as his favorite formula.

"It has successfully described all elementary particles and forces that we've observed in
the laboratory to date — except gravity," Dixon told LiveScience. "That includes, of
course, the recently discovered Higgs (like) boson, phi in the formula. It is fully self-
consistent with quantum mechanics and special relativity."

The dynamics of the quantum state and the fundamental fields are determined by the
Lagrangian density (usually for short just called the Lagrangian). This plays a role similar to
that of the Schrödinger equation in non-relativistic quantum mechanics, but a Lagrangian is
not an equation – rather, it is a polynomial function of the fields and their derivatives. While it
would be possible to derive a system of differential equations governing the fields from the
Langrangian, it is more common to use other techniques to compute with quantum field
theories.

The standard model theory has not yet, however, been united with general
relativity, which is why it cannot describe gravity.

O UNIVERSO EM EXPANSÃO. AS OBSERVAÇÕES FEITAS EM 1929, POR EDWIN HUBBLE E


REPETIDAS DESDE ENTÃO, MOSTRAM QUE O UNIVERSO ESTÁ EM EXPANSÃO, COM AS
GALÁXIAS SE AFASTANDO UMA DAS OUTRAS, COM VELOCIDADE PROPORCIONAL À
DISTÂNCIA ENTRE ELAS, EXCETO PELAS NOSSAS VIZINHAS MAIS PRÓXIMAS. ESSE FATO
SUGERIU A TEORIA DO BIG BANG, EM 1948, POR ALPHER, BETHE E GAMOW, SEGUNDO A
QUAL, TERIA HAVIDO, A 13,7 BILHÕES DE ANOS ATRÁS, UMA GRANDE EXPLOSÃO, A PARTIR
DE UM UNIVERSO COM DIMENSÕES EXTREMAMENTE REDUZIDAS, EXTREMAMENTE DENSO E
QUENTE. ELA EXPLICA TODAS AS EVIDÊNCIAS OBSERVADAS ATUALMENTE.

OCORRE QUE A EXPANSÃO ESTÁ SE ACELERANDO, E A CAUSA DESSA ACELERAÇÃO NÃO É,


AINDA, ESCLARECIDA; OUTRA QUESTÃO NÃO INTUITIVA, É REPRESENTADA PELAS
SINGULARIDADES DA DESCRIÇÃO, POR EXEMPLO, A PRÓPRIA GRANDE EXPLOSÃO (QUE
PREVILEGIA UM PONTO DO ESPAÇO-TEMPO), E A DO INTERIOR DOS BURACOS NEGROS (QUE
SERIA CAPAZ DE ABSORVER UMA QUANTIDADE INFINITA DE ENERGIA); ALÉM DISSO BUSCA-SE
A UNIFICAÇÃO DA MECÂNICA QUÂNTICA (ATUALMENTE ACEITA PARA O NÍVEL MICROSCÓPICO
DAS PARTÍCULAS ELEMENTARES), E A TEORIA COSMOLÓGICA (PARA O NÍVEL MACROSCÓPICO
DO ESPAÇO SIDERAL); ENCONTRAM-SE EM ELABORAÇÃO, QUATRO TEORIAS PROPOSTAS:

TEORIA DAS CORDAS, OU SUPERCORDAS, (que pretende a unificação da Mecânica Quântica,


Gravitação e Física das Partículas, com o pressuposto de que todas as partículas são cordas

118
vibrantes, o que exige um aumento das dimensões do Espaço-Tempo); SITE OFICIAL DA
TEORIA DAS CORDAS: www.superstringtheory.com,

GRAVIDADE QUÂNTICA EUCLIDIANA, elaborada pelo físico britânico Stephen Hawking: numa
abordagem que postula que o espaço-tempo emerge de uma grande média quântica de todas
as possíveis formas;

GRAVITAÇÃO QUÂNTICA DE LAÇOS (Loop Quantum Gravity), que pretende a unificação da


Mecânica Quântica com a Relatividade Geral, com o pressuposto de que o espaço surge em
volumes discretos não menores do que o volume de Planck, ou seja, de 4,22419 x 10-105 m3
, e o tempo, em intervalos discretos de Planck, de 5,39106 x 10-44 seg , e apresenta uma
capacidade finita de armazenar matéria e energia, e, com isso, prevendo um universo visível
finito de 10 + 79 m3 , oscilante e sem singularidades; sua formalização utiliza equações
de diferença que apresentam somente soluções numéricas aproximadas;

Carlo Rovelli, Quantum Gravity, Cambridge University Press-2008- Lee Smolin, A Vida do
Cosmos, Editora Unisinos, São Leopoldo, 2004; Martin Bojowald- Living Reviews in Relativity,
vol.11,nº4 (July 2, 2008)- http:// www.livinggreviews.org/Articles/lrr-2008-4

MODÊLO DO UNIVERSO AUTO-ORGANIZADO QUÂNTICO, OBTIDO POR TRIANGULAÇÕES


DINÂMICAS CAUSAIS, com a concepção de que, em pequena escala, o Espaço-Tempo
tetradimensional, se compara a um mosaico (fractal) de 4-Simplex (que corresponde ao
tetraedro em 4 dimensões, e da mesma forma que um tetraedro contém 4 faces triangulares,
um 4-simplex contém 5 tetraedros cada um), com capacidade intrínseca de distinguir entre
causa e efeito, que se reorganizam constantemente em novas configurações ; - Por exemplo:
no plano, os pontos (0,0), (1,0) e (0,1) são vértices de um triângulo; no espaço tridimensional,
os pontos (0,0,0), (1,0,0), (0,1,0) e (0,0,1) são vértices de um tetraedro, com quatro faces
triangulares definidas por cada três vértices; e no espaço quadridimensional, os pontos
(0,0,0,0), (1,0,0,0), (0,1,0,0), (0,0,1,0) e (0,0,0,1) são vértices de um 4-simplex, com 5 “faces”
quadridimensionais, que são tetraedros definidos por cada 4 vértices;

Jan Ambjorn, Jerzy Jurkiewicz e Renate Loll- www.phys.uu.nl/~loll


-----------------------------------xxx---------------------------------------

ARTIGO_ ÁTOMOS DE ESPAÇO E TEMPO, Lee Smolin, ScAmBr- Fev/2004


ARTIGO_UNIVERSO QUÂNTICO Auto-organizado (Triangulaações Dinâmicas Causais), Jan
Ambjorn, Jerzy Jukiewicz e Renate Loll, ScAmBr-Ag/2008
ARTIGO_CORDAS, DIMENSÕES E TEORIA M, Elcio Abdalla e Adenauer Casali,
ScAmBr(Scientific American Brasil, mar/2003; .

ARTIGO_TEORIA QUÂNTICA DA GRAVITAÇÃO: CORDAS e TEORIA M, Elcio Abdalla,


Revista Brasileira de Ensino de Física, v. 27, n. 1, p. 147 - 155, (2005), www.sbfisica.org.br

119
g) OS MATEMÁTICOS BUSCARAM GENERALIZAR AO MÁXIMO, OS MÉTODOS UTILIZADOS
NA ABORDAGEM DESSAS EQUAÇÕES, SENDO OS MAIS UTILIZADOS, O DAS SÉRIES
(TRIGONOMÉTRICAS) DE FOURIER E O DA TRANSFORMADA DE FOURIER, COM OS PASSOS DE
TRANSFORMAR A EQUAÇÃO DIFERENCIAL NUMA EQUAÇÃO ALGÉBRICA, RESOLVÊ-LA, E, EM
SEGUIDA, USANDO A TRANSFORMAÇÃO INVERSA, OBTER UMA (FUNÇÃO OU DISTRIBUIÇÃO)
“CANDIDATA A SOLUÇÃO”;

SOMENTE PARA OS PROBLEMAS MAIS SIMPLES, CONSEGUIU-SE EQUAÇÕES PASSÍVEIS DE


SOLUÇÕES ATRAVÉS DE UMA FÓRMULA MATEMÁTICA EXPLÍCITA (MESMO ENVOLVENDO
SÉRIES INFINITAS E INTEGRAIS); A PARTIR DE MEADOS DO SÉCULO XIX, TEVE INÍCIO A TEORIA
ABSTRATA DAS EQUAÇÕES (POR EXEMPLO, CONCLUINDO A EXISTÊNCIA DE SOLUÇÃO DOS
PROBLEMAS E EQUAÇÕES, ATRAVÉS DE HIPÓTESES QUE, DE ALGUMA FORMA IMPLICAVAM
NESSA EXISTÊNCIA, OU POR REDUÇÃO AO ABSURDO, CONCLUINDO QUE A NÃO EXISTÊNCIA
CONDUZIRIA A UMA CONTRADIÇÃO); ASSIM, PARA OS DIVERSOS TIPOS DE EQUAÇÕES, VEM
SENDO BUSCADA, A TEORIA FUNADAMENTAL COMPOSTA POR: EXISTÊNCIA E
REGULARIDADE, UNICIDADE OU MULTIPLICIDADE, E A CONTINUIDADE DAS SOLUÇÕES EM
RELAÇÃO A TODOS OS DADOS DO PROBLEMA (CONDIÇÕES INICIAIS, PARÂMETROS E À
PRÓPRIA EQUAÇÃO). ALÉM DISSO BUSCAM-SE MÉTODOS PARA A OBTENÇÃO DE SOLUÇÕES
NUMÉRICAS APROXIMADAS, QUE PRESSUPÕE A CONTINUIDADE DAS SOLUÇÕES EM
RELAÇÃO AOS DADOS DO PROBLEMA. PARA A TEORIA FUNDAMENTAL, BUSCA-SE OS
RESULTADOS MAIS GERAIS E SIMPLES POSSÍVEIS (AS VEZES SACRIFICANDO A GENERALIDADE
NÃO RECONHECIDAMENTE ÚTIL, PELA SIMPLICIDADE), EMBORA PARA AS SOLUÇÕES
NUMÉRICAS APROXIMADAS, À SEMELHANÇA DA INTEGRAÇÃO POR QUADRATURA, SEJA
COMUM A OBTENÇÃO DE VÁRIOS MÉTODOS CORRESPONDENTEMENTE ADEQUADOS ÀS
DIVERSAS CLASSES DE FUNÇÕES;

h) DESENVOLVERAM-SE TEORIAS PARA AS EQUAÇÕES E SISTEMAS DIFERENCIAIS,


ORDINÁRIAS E A DERIVADAS PARCIAIS, LINEARES E NÃO LINEARES: EQUAÇÕES DIFERENCIAIS
COM RETARDAMENTO, DO TIPO NEUTRO, DE EVOLUÇÃO; EQUAÇÕES INTEGRAIS DE
FREDHOLM, VOLTERRA, EQUAÇÕES INTEGRO-DIFERENCIAIS, ETC.; TEORIA DE OPERADORES
(COMPACTOS, DE HILBERT-SCHMIDT, NUCLEARES, TEORIA ESPECTRAL DE OPERADORES:
COMPACTOS, AUTOADJUNTOS), TEORIA DE OPERADORES DIFERENCIAIS (ELÍTICOS,
UNIFORMEMENTE ELÍTICOS, HIPOELÍTICOS, DE TIPO PRINCIPAL, ETC.), PSEUDO-DIFERENCIAIS,
INTEGRAIS DE FOURIER, ETC. E AS EQUAÇÕES CORRESPONDENTES.

NO CASO EM QUE AS INCÓGNITAS SÃO FUNÇÕES, PODE-SE, A EXEMPLO DOS SISTEMAS DE


EQUAÇÕES LINEARES, CONSIDERAR

A EQUAÇÃO GERAL (1) F (u) = f

onde f é uma função dada, e u a função incógnita, pertencentes a espaços de


funções definidas em domínios, em variedades de dimensão finita, e F: u I---------->
F (u) é uma função diferenciável, ou um sistema de operadores integrais ou
diferenciais parciais (lineares ou não), que a cada função u associa a função F
(u) , e busca-se inverter o operador F , ou seja, demonstrar a existência e
estabelecer a teoria fundamental, de um operador F -1 , tal que F-1 ( F (u) )

120
= Id ( u) = u , onde Id representa o operador identidade , para, aplicando F -1 a
ambos os membros de (1) , obter u = F-1 (f).

No exemplo mais simples, quando F é o operador de derivação, a equação pode ser


escrita u’= f , que, quando f é contínua, admite a família de suas primitivas como
soluções, ou seja u = . Em outras palavras, o operador F-1, inverso
de F , é o operador de integração, e espera-se que o inverso de um operador
diferencial, quando existir e tiver uma expressão, possa ser expresso através de
um operador integral.

O TEOREMA DA FUNÇÃO INVERSA fornece condições suficientes para que uma função
diferenciável seja inversível numa vizinhança de pontos do seu domínio. Há versões para o IR n ,
variedades, espaços de Banach , variedades de Banach e até mais gerais. In November 2010,
Ivar Ekeland presented “An Inverse Function Theorem in Frechet Spaces
ABSTRACT I present an inverse function theorem for differentiable maps between Frechet
spaces which contains the classical theorem of Nash and Moser as a particular case. In
contrast to the latter, the proof does not rely on the Newton iteration procedure, but on
Lebesgue's dominated convergence theorem and Ekeland's variational principle. As a
consequence, the assumptions are substantially weakened: the map F to be inverted is not
required to be C2, or even C1, or even Frechet-differentiable. Comment: to appear, Annales de
l'Institut Henri Poincare, Analyse Non Lineaire.”

À PARTIR DOS TEOREMAS ACIMA, PODE-SE DERIVAR TEOREMAS DAS FUNÇÕES IMPLÍCITAS
CORRESPONDENTES.

- DA MESMA FORMA QUE O PERÍMETRO DE UMA CIRCUNFERÊNCIA ( 2 π R), ONDE R É O RAIO,


EXISTE NO CONJUNTO DOS NÚMEROS REAIS, QUE É O “COMPLETADO” DO CONJUNTO
DOS NÚMEROS RACIONAIS, EM GERAL, AS EXISTÊNCIAS SÃO BUSCADAS EM ESPAÇOS
“COMPLETOS OU COMPLETADOS”(OU MESMO AUMENTADOS, COMO NO CASO DAS
FUNÇÕES GENERALIZADAS , DISTRIBUIÇÕES, OU NO “BIDUAL”), EMBORA PARA OS CÁLCULOS
NUMÉRICOS, SÓ TEMOS ACESSO A NÚMEROS RACIONAIS, E, PORTANTO A APROXIMAÇÕES
(DAÍ A IMPORTÂNCIA DA CONTINUIDADE DAS SOLUÇÕES EM RELAÇÃO AOS DADOS). COM AS
PROPOSTAS RECENTES DE ESPAÇOS FÍSICOS DISCRETOS, A PRÓPRIA CIRCUNFERÊNCIA SÓ
“EXISTIRIA” NUM ESPAÇO COMPLETADO;

- CONVÉM NOTAR QUE, NO ESQUEMA ACIMA, A CONTINUIDADE DA SOLUÇÃO u , EM


RELAÇÃO AO DADO f , É A CONTINUIDADE DO OPERADOR F-1 , UMA VEZ QUE u = F-1 (f) ;
PODE-SE PERGUNTAR TAMBÉM SOBRE A CONTINUIDADE DA SOLUÇÃO EM RELAÇÃO À
PRÓPRIA EQUAÇÃO OU OPERADOR F OU F-1 , QUE, POR SUA VEZ PODE VARIAR INCLUSIVE
COM O TEMPO;

- QUANDO O OPERADOR F ADMITE UMA REPRESENTAÇÃO INTEGRAL, OBTEMOS UMA


EQUAÇÃO INTEGRAL:

An INTEGRAL EQUATION is an equation in which an unknown function appears under an


integral sign. There is a close connection between differential and integral equations, and
some problems may be formulated either way. See, for example, Maxwell's equations.
Integral equations are important in many applications. Problems in which integral equations

121
are encountered include radiative energy transfer and the oscillation of a string, membrane, or
axle. Oscillation problems may also be solved as differential equations.

Overview

The most basic type of integral equation is a Fredholm equation of the first type:

Here φ; is an unknown function, f is a known function, and K is another known


function of two variables, often called the kernel function. Note that the limits of
integration are constant; this is what characterizes a Fredholm equation.

If the unknown function occurs both inside and outside of the integral, it is known as a
Fredholm equation of the second type:

The parameter λ is an unknown factor, which plays the same role as the eigenvalue in
linear algebra.

If one limit of integration is variable, it is called a Volterra equation. Thus Volterra


equations of the first and second types, respectively, would appear as:

In all of the above, if the known function f is identically zero, it is called a homogeneous
integral equation. If f is nonzero, it is called an inhomogeneous integral equation.

Both Fredholm and Volterra equations are linear integral equations, due to the linear
behaviour of φ(x) under the integral. A nonlinear Volterra integral equation has the
general form:

where F is a known function.

122
OBSERVAÇÃO: USANDO A ADITIVIDADE DA INTEGRAL EM RELAÇÃO AOS LIMITES DE
INTEGRAÇÃO (EXTREMOS DO INTERVALO), É SIMPLES CONSTATAR QUE, SOB HIPÓTESES
SUFICIENTES, “SOLUÇÕES LOCAIS (EM SUBINTERVALOS) PODEM SER LIGADAS PARA SE
OBTER UMA SOLUÇÃO EM TODO O INTERVALO” :

CONSIDERANDO A EQUAÇÃO DE VOLTERRA DE 2ª ESPÉCIE

(6) φ(x) φ(t) ) dt , a ≤ t ≤ x≤ b

e admitindo hipóteses suficientes para que, exista uma divisão do intervalo


dado, de modo que a equação (6) admita soluçòes locais (em cada subintervalo da divisão), é
possível obter uma solução da equação (6) no intervalo [ a , b ] , “ligando as soluções locais”:

Chamando de ₁ a solução de (6) no intervalo [a=a1 , a2] , e considerando a2  x a3 ,

Podemos reescrever a equação (6) , obtendo

(7)  (x) = f (x) + ₁ (t )) dt +

a primeira integral, de a₁ a a₂ , e a segunda, de a₂ a x , ou

(7)  (x) = g (x) +

que é a equação (6) , com a substituição de f (x) por g(x), com

g(x) = f (x) + ₁ (t )) dt

Chamando de  ₂ a solução de (7) no intervalo [a2 , a3 ] , e fazendo x = a1 em (6) e

(7) obtemos 1 (a2) = ₂ (a2) , ou seja as funções têm o mesmo valor no ponto comum
aos intervalos.

É PROVÁVEL QUE A PARTIR DA PROPRIEDADE ACIMA SEJA POSSÍVEL OBTER UM MÉTODO


DE SOLUÇÃO NUMÉRICA PARA AS EQUAÇÕES INTEGRAIS NO INTERVALO [a,b],
COMPLEMENTANDO O MÉTODO UTILIZADO PARA A OBTENÇÃO DA SOLUÇÃO NOS
SUBINTERVALOS, COM A VANTAGEM DE LIMITAR A PROPAGAÇÃO DE ERROS COM A
MUDANÇA DE INTERVALO.

i) TIPOS DE TEOREMAS DE EXISTÊNCIA

EM TERMOS GERAIS, PODEMOS DIZER QUE OBTEVE-SE SEIS TIPOS BÁSICOS DE TEOREMAS EXISTÊNCIA,
AS VEZES UTILIZADOS EM COMBINAÇÃO, QUE ENVOLVEM HIPÓTESES MAIS OPERACIONAIS ou MAIS
SIMPLES DE SEREM VERIFICADAS, OU SUGERIDAS PELAS APLICAÇÕES:

I) TEOREMAS DA FUNÇÃO INVERSA E IMPLÍCITA, A EXEMPLO DOS CITADOS ACIMA;

II) TEOREMAS DE PONTO FIXO, NOS QUAIS, UTILIZANDO-SE O OPERADOR k DEFINIDO POR

123
k (u) = u + F (u) - f , REESCREVE-SE A EQUAÇÃO (1) , OBTENDO-SE:

(2) k(u) = u , E BUSCA-SE A SOLUÇÃO DA NOVA EQUAÇÃO, COMO UM PONTO FIXO DO OPERADOR k !

III) TEOREMAS BASEADOS EM HIPÓTESES DE COMPACIDADE: A PRÓPRIA HIPÓTESE DE CONJUNTO


COMPACTO (EM Rn, FECHADO E LIMITADO), É EQUIVALENTE A DIZER QUE: “PARA TODO CONJUNTO
INFINITO, EXISTE UM PONTO ADERENTE (OU PONTO LIMITE)”, O QUE JÁ ENVOLVE UMA EXISTÊNCIA;

IV) TEOREMAS DO TIPO VARIACIONAIS, QUE GARANTEM A EXISTÊNCIA DE PONTOS EXTREMANTES (DE
MÁXIMO OU MÍNIMO) DE FUNÇÕES E OPERADORES (P. EX., BUSCANDO EQULÍBRIO EM
CONFIGURAÇÕES DE ENERGIA MÍNIMA, TRAJETÓRIAS DE TEMPO OU AÇÃO MÍNIMOS, ETC. P.EX.,
QUANDO F É UMA DERIVADA, F=A’, AS SOLUÇÕES DA EQUAÇÃO HOMOGÊNEA, F(u)=0, SÃO OS PONTOS
CRÍTICOS DE A);

V) MÉTODOS BASEADOS NA EXISTÊNCIA DE QUANTIDADES INVARIANTES DURANTE O PROCESSO


(INSPIRADOS NA CONSERVAÇÃO DA ENERGIA E DOS MOMENTOS, INVARIANÇAS EM RELAÇÃO A
MUDANÇAS DO SISTEMA DE COORDENADAS, INVARIANÇA DO DETERMINANTE,ETC.);

VI) OS CHAMADOS MÉTODOS TOPOLÓGICOS (BASEADOS EM CONCEITOS DE GRAU OU ÍNDICE


TOPOLÓGICO, QUE CONTAM O NÚMERO DE VEZES QUE UMA FUNÇÃO ENVOLVE (RODEIA) ALGUM
PONTO , ETC. ;

j) CONVÉM NOTAR QUE APESAR DESSE ELABORADO APARATO TEÓRICO, MESMO QUANDO
UTILIZADO, A ABORDAGEM E ANÁLISE DE EQUAÇÕES ESPECÍFICAS, EM GERAL FORNECE
RESULTDOS ADICIONAIS;

ALÉM DISSO, O SURGIMENTO DE EQUAÇÕES E SISTEMAS PARA OS QUAIS NÃO SE DISPUNHA


DE TEORIA FUNDAMENTAL, E COM A MAIOR DISPONIBILIDADE OFERECIDA PELO
PROCESSAMENTO DIGITAL/ELETRÔNICO DAS MÁQUINAS MODERNAS PARA OS MÉTODOS
NUMÉRICOS, DESENVOLVEU-SE ESSA LINHA, E A TEORIA FUNADAMENTAL É ANTECIPADA OU
SUBSTITUÍDA PELA BUSCA DIRETA DE SOLUÇÕES NUMÉRICAS APROXIMADAS, SUPORTADA
PELA CONTINUIDADE DAS SOLUÇÕES EM RELAÇÃO AOS DADOS; ALÉM DISSO, O FATO DE
NÃO SE CONTAR COM TEORIA FUNDAMENTAL PARA EQUAÇÕES IMPORTANTES, E NEM
TEORIAS MAIS ABRANGENTES PARA AS NÃO LINEARES, INDUZIU A UM RETORNO ÀS
APLICAÇÕES PRÁTICAS E À ABORDAGEM DAS EQUAÇÕES QUE DE FATO TERIAM INTERESSE
PARA ESSAS APLICAÇÕES;

EXEMPLOS:

CONSIDEREMOS O PROBLEMA DE VALOR INICIAL:

(3) y’(t) = f (t, y(t) ) , equação diferencial ordinária de 1ª ordem , e

(4) y(0) = y0 , condição inicial

onde f: (t,y) I-------> f(t,y) e y0 , são dados;

Quando f é uma função contínua, o problema é equivalente à equação integral:


t
(5) y(t) = y0 + f (s, y(s)) ds , que pode ser escrita como em
0

(2) y = k y , e buscar a solução y como um ponto fixo do operador k

124
Ocorre que para a aplicação do teorema do ponto fixo de Banach, que enuncia que:
“todo operador num espaço de Banach (espaço vetorial normado e completo), para
o qual existe uma potência que é uma contração, admite um único ponto fixo nesse
espaço”, se faz necessária alguma hipótese adicional para f , por exemplo, a condição
de Lipschitz na 2ª variável

|f(t,y1) - f(t,y2)| L | y1 -y2|

(que também é satisfeita quando f apresenta derivada limitada na 2ª variável), e com a


qual já se obtem existência, unicidade e continuidade da solução em relação aos dados;

A simple proof of existence of the solution is obtained by successive approximations. In this


context, the method is known as Picard iteration.

No entanto, a abordagem direta da equação (3) , permite conclusões adicionais, por


exemplo QUE É SUFICIENTE A CONTINUIDADE DE f PARA SE DEMONSTRAR A
EXISTÊNCIA DE SOLUÇÃO (Peano), ou até em condições mais gerais (Caratheodory);

k) o TEOREMA DE PONTO FIXO DE BROWER, CONTOU COM AS CONTRIBUIÇÕES DE


POINCARÉ (1886), P.BOHL (1904), J.HADAMARD (1904), L.E.J.BROWER (1912), COM O
ENUNCIADO: “TODA FUNÇÃO CONTÍNUA, DEFINIDA E COM VALORES NUMA MESMA BOLA
DO n , ADMITE UM PONTO FIXO”;

O resultado é intuitivo para n=1


e intervalo [0,1] , quando afirma
que para toda função contínua f
: [0,1] -------> [0,1], existe pelo
menos um x em [0,1] , t.q. f(x)=x
, ou seja, tal que o gráfico de f
intersecta a diagonal

Para n=2, embora intuitivo


para a rotação, que mantém
o centro fixo, em geral, o
resultado não parece
intuitivo

125
O resultado não é válido
para regiões “com
buracos” ou não limitadas,
como mostram os
exemplos ao lado;

-COM AS CONTRIBUIÇÕES DE LERAY-SCHAUDER e J.SCHAUDER (1930), TYCHONOFF, EM


1934, PUBLICOU O TEOREMA DO PONTO FIXO DE SCHAUDER-TYCHONOFF, COM O
ENUNCIADO: “TODA FUNÇÃO CONTÍNUA, DEFINIDA E COM VALORES, NUM SUBCONJUNTO
COMPACTO E CONVEXO DE UM ESPAÇO LOCALMENTE CONVEXO, ADMITE UM PONTO
FIXO EM ;

-Após as contribuições de Mazur (1938) e Hukuhara (1950), ROBERT CAUTY EM 2001, EM


“SOLUTION DU PROBLÈME DE POINT FIXE DE SCHAUDER”, Fund.Math.170 (2001), 231-246 ,
parece ter “levantado” a hipótese do espaço ser localmente convexo;

Theorem (Cauty) For an arbitrary convex subset C of a topological vector


space, every map f : C → C such that f (C) is contained in a compact
subset of C (i.e., every relatively compact map f : C →C) has the fixed-
point property.

Obsrvação: Segundo um especialista, existem mais de cem teoremas de ponto fixo !

126
APÊNDICE V - THEORY OF LINEAR PARTIAL DIFFERENTIAL EQUATIONS [127, 164]

MOTIVATION: To solve the partial differential equation

we (formally) apply the Fourier transform on both sides and obtain the algebraic
equation

If the symbol P(ξ) is never zero when ξ ∈ Rn, then it is possible to divide by P(ξ):

By Fourier's inversion formula, a solution is

Here it is assumed that:

1. P(D) is a linear differential operator with constant coefficients,


2. its symbol P(ξ) is never zero,
3. both u and ƒ have a well defined Fourier transform.

The last assumption can be weakened by using the theory of distributions. The first two
assumptions can be weakened as follows.

In the last formula, write out the Fourier transform of ƒ to obtain

This is similar to formula (1), except that 1/P(ξ) is not a polynomial function, but a
function of a more general kind.

A SOBOLEV SPACE is a vector space of functions equipped with a norm that is a


combination of Lp-norms of the function itself as well as its derivatives up to a given
order. The derivatives are understood in a suitable weak sense to make the space
complete, thus a Banach space. Intuitively, a Sobolev space is a space of functions with
sufficiently many derivatives for some application domain, such as partial differential
equations, and equipped with a norm that measures both the size and regularity of a
function. Sobolev spaces are named after the Russian mathematician Sergei Sobolev.
Their importance comes from the fact that solutions of partial differential equations are

127
naturally found in Sobolev spaces, rather than in spaces of continuous functions and
with the derivatives understood in the classical sense.

Motivation: There are many criteria for smoothness of mathematical functions. The
most basic criterion may be that of continuity. A stronger notion of smoothness is that
of differentiability (because functions that are differentiable are also continuous) and a
yet stronger notion of smoothness is that the derivative also be continuous (these
functions are said to be of class C1 — see smooth function). Differentiable functions are
important in many areas, and in particular for differential equations. On the other hand,
quantities or properties of the underlying model of the differential equation are usually
expressed in terms of integral norms, rather than the uniform norm. A typical example
is measuring the energy of a temperature or velocity distribution by an L2-norm. It is
therefore important to develop a tool for differentiating Lebesgue functions.

The integration by parts formula yields that for every u ∈ Ck(Ω), where k is a natural
number and for all infinitely differentiable functions with compact support φ ∈ Cc∞(Ω),

where α a multi-index of order |α| = k and Ω is an open subset in ℝn. Here, the notation

is used.

The left-hand side of this equation still makes sense if we only assume u to be locally
integrable. If there exists a locally integrable function v, such that

we call v the weak α-th partial derivative of u. If there exists a weak α-th partial
derivative of u, then it is uniquely defined almost everywhere. On the other hand, if u ∈
Ck(Ω), then the classical and the weak derivative coincide. Thus, if v is a weak α-th
partial derivative of u, we may denote it by Dαu := v.

The Sobolev spaces Wk,p(Ω) combine the concepts of weak differentiability and
Lebesgue norms.

Sobolev spaces with integer k

Definition:

The Sobolev space Wk,p(Ω) is defined to be the set of all functions u ∈ Lp(Ω) such that
for every multi-index α with |α| ≤ k, the weak partial derivative belongs to Lp(Ω),
i.e.

128
Here, Ω is an open set in ℝn and 1 ≤ p ≤ +∞. The natural number k is called the order of
the Sobolev space Wk,p(Ω).

There are several choices for a norm for Wk,p(Ω). The following two are common and
are equivalent in the sense of equivalence of norms:

and

With respect to either of these norms, Wk,p(Ω) is a Banach space. For finite p, Wk,p(Ω)
is also a separable space. It is conventional to denote Wk,2(Ω) by Hk(Ω) for it is a
Hilbert space with the norm .

DISTRIBUTIONS (or generalized functions) are objects that generalize functions.


Distributions make it possible to differentiate functions whose derivatives do not exist
in the classical sense. In particular, any locally integrable function has a distributional
derivative. Distributions are widely used to formulate generalized solutions of partial
differential equations. Where a classical solution may not exist or be very difficult to
establish, a distribution solution to a differential equation is often much easier.
Distributions are also important in physics and engineering where many problems
naturally lead to differential equations whose solutions or initial conditions are
distributions, such as the Dirac delta distribution.

Generalized functions were introduced by Sergei Sobolev in 1935. They were re-
introduced in the late 1940s by Laurent Schwartz, who developed a comprehensive
theory of distributions.
A typical test function, the bump
Basic idea
function Ψ(x). It is smooth
(infinitely differentiable) and has
compact support (is zero outside
an interval, in this case the
interval [-1, 1]).

Distributions are a class of linear functionals that map a set of test functions
(conventional and well-behaved functions) onto the set of real numbers. In the simplest
case, the set of test functions considered is D(R), which is the set of functions from R to
R having two properties:

129
 The function is smooth (infinitely differentiable);
 The function has compact support (is identically zero outside some bounded interval).

Then, a distribution d is a linear mapping from D(R) to R. Instead of writing d(φ),


where φ is a test function in D(R), it is conventional to write . A simple example
of a distribution is the Dirac delta δ, defined by

There are straightforward mappings from both locally integrable functions and
probability distributions to corresponding distributions, as discussed below. However,
not all distributions can be formed in this manner.

Suppose that

is a locally integrable function, and let

be a test function in D(R). We can then define a corresponding distribution T f by:

This integral is a real number which linearly and continuously depends on . This
suggests the requirement that a distribution should be linear and continuous over the
space of test functions D(R), which completes the definition. In a conventional abuse of
notation, f may be used to represent both the original function f and the distribution Tf
derived from it.

Similarly, if P is a probability distribution on the reals and φ is a test function, then a


corresponding distribution TP may be defined by:

Again, this integral continuously and linearly depends on φ, so that TP is in fact a


distribution.

Such distributions may be multiplied with real numbers and can be added together, so
they form a real vector space. In general it is not possible to define a multiplication for
distributions, but distributions may be multiplied with infinitely differentiable functions.

It's desirable to choose a definition for the derivative of a distribution which, at least for
distributions derived from locally integrable functions, has the property that (T f)' = Tf '.
If is a test function, we can show that

130
using integration by parts and noting that , since φ is zero
outside of a bounded set. This suggests that if S is a distribution, we should define its
derivative S' by

It turns out that this is the proper definition; it extends the ordinary definition of
derivative, every distribution becomes infinitely differentiable and the usual properties
of derivatives hold.

Example: Recall that the Dirac delta (so-called Dirac delta function) is the distribution
defined by

It is the derivative of the distribution corresponding to the Heaviside step function H:


For any test function φ,

so . Note, because of compact support. Similarly, the


derivative of the Dirac delta is the distribution

This latter distribution is our first example of a distribution which is derived from
neither a function nor a probability distribution.

FOURIER TRANSFORM: The Fourier transform is a mathematical operation that expresses a


mathematical function of time as a function of frequency. It has many applications in physics,
engineering and differential equations.

There are several common conventions for defining the Fourier transform = F(f) of
an integrable function ƒ : R → C (Kaiser 1994). This article will use the definition

, for every real number ξ.

131
When the independent variable x represents time (with SI unit of seconds), the transform
variable ξ represents frequency (in hertz).
Under suitable conditions, ƒ can be reconstructed from by the inverse transform:

for every real number x.

In many cases it is desirable to use Euler's formula, which states that


e2πiθ = cos 2πθ + i sin 2πθ , to write Fourier series in terms of the basic waves sen and cos ,
or e2πiθ ;

History

Joseph Fourier presented what is now called the Fourier integral theorem in his treatise
Théorie analytique de la chaleur in the form:[8]

which is tantamount to the introduction of the δ-function in the form:[9]

Later, Augustin Cauchy expressed the theorem using exponentials:[10][11]

Cauchy pointed out that in some circumstances the order of integration in this result
was significant.[12][13]

As justified using the theory of distributions, the Cauchy equation can be rearranged to
resemble Fourier's original formulation and expose the δ-function as:

132
where the δ-function is expressed as:

The Dirac delta function, or δ function, is (informally) a generalized function on the


real number line that is zero everywhere except at zero, with an integral of one over the
entire real line.[1][2][3] The delta function is sometimes thought of as an infinitely high,
infinitely thin spike at the origin, with total area one under the spike, and physically
represents an idealized point mass or point charge.[4] It was introduced by theoretical
physicist Paul Dirac. Dirac explicitly spoke of infinitely great values of his integrand. [5]
In the context of signal processing it is often referred to as the unit impulse symbol (or
function).[6] Its discrete analog is the Kronecker delta function which is usually defined
on a finite domain and takes values 0 and 1.

From a purely mathematical viewpoint, the Dirac delta is not strictly a function, because
any extended-real function that is equal to zero everywhere but a single point must have
total integral zero.[7] The delta function only makes sense as a mathematical object when
it appears inside an integral. While from this perspective the Dirac delta can usually be
manipulated as though it were a function, formally it must be defined as a distribution
that is also a measure. In many applications, the Dirac delta is regarded as a kind of
limit (a weak limit) of a sequence of functions having a tall spike at the origin. The
approximating functions of the sequence are thus "approximate" or "nascent" delta
functions.

Definition: The Fourier transform can be in any arbitrary number of dimensions n. As


with the one-dimensional case, there are many conventions. For an integrable function
ƒ(x), this article takes the definition:

where x and ξ are n-dimensional vectors, and x · ξ is the dot product of the vectors.
The dot product is sometimes written as .

Properties of the Fourier transform

Here we assume f(x), g(x), and h(x) are integrable functions, are Lebesgue-measurable
on the real line, and satisfy:

We denote the Fourier transforms of these functions by , , and


respectively.

133
Basic properties

The Fourier transform has the following basic properties: (Pinsky 2002).

Linearity

For any complex numbers a and b, if h(x) = aƒ(x) + bg(x), then 

Translation

For any real number x0, if h(x) = ƒ(x − x0), then  

Modulation

For any real number ξ0, if h(x) = e2πixξ0 ƒ(x), then   .

Scaling

For a non-zero real number a, if h(x) = ƒ(ax), then   .

The case a = −1 leads to the time-reversal property, which states: if h(x) = ƒ(−x),

Then   .

Conjugation

If , then  

In particular, if ƒ is real, then one has the reality condition 

And if ƒ is purely imaginary, then  

Duality

If then 

Convolution

If , then 

The convolution of ƒ and g is written ƒ∗g, using an asterisk or star. It is defined as the
integral of the product of the two functions after one is reversed and shifted. As such, it
is a particular kind of integral transform:

134
(commutativity)

While the symbol t is used above, it need not represent the time domain. But in that
context, the convolution formula can be described as a weighted average of the function
ƒ(τ) at the moment t where the weighting is given by g(−τ) simply shifted by amount t.
As t changes, the weighting function emphasizes different parts of the input function.

More generally, if f and g are complex-valued functions on Rd, then their convolution
may be defined as the integral:

Operational properties: under appropriate hypothesis,

Commutativity

Associativity

Distributivity

Associativity with scalar multiplication

for any real (or complex) number .

Multiplicative identity

No algebra of functions possesses an identity for the convolution. The lack of identity is
typically not a major inconvenience, since most collections of functions on which the
convolution is performed can be convolved with a delta distribution or, at the very least
(as is the case of L1) admit approximations to the identity. The linear space of
compactly supported distributions does, however, admit an identity under the
convolution. Specifically,

135
where δ is the delta distribution.

Inverse element

Some distributions have an inverse element for the convolution, S(−1), which is defined
by

The set of invertible distributions forms an abelian group under the convolution.

Complex conjugation

Integration

If ƒ and g are integrable functions, then the integral of their convolution on the whole
space is simply obtained as the product of their integrals:

This follows from Fubini's theorem. The same result holds if ƒ and g are only assumed
to be nonnegative measurable functions, by Tonelli's theorem.

Differentiation

In the one-variable case,

where d/dx is the derivative. More generally, in the case of functions of several
variables, an analogous formula holds with the partial derivative:

A particular consequence of this is that the convolution can be viewed as a "smoothing"


operation: the convolution of ƒ and g is differentiable as many times as ƒ and g are
together.

These identities hold under the precise condition that ƒ and g are absolutely integrable
and at least one of them has an absolutely integrable (L1) weak derivative, as a
consequence of Young's inequality. For instance, when ƒ is continuously differentiable
with compact support, and g is an arbitrary locally integrable function,

136
These identities also hold much more broadly in the sense of tempered distributions if
one of ƒ or g is a compactly supported distribution or a Schwartz function and the other
is a tempered distribution. On the other hand, two positive integrable and infinitely
differentiable functions may have a nowhere continuous convolution.

In the discrete case, the difference operator D ƒ(n) = ƒ(n + 1) − ƒ(n) satisfies an
analogous relationship:

Translation invariance

The convolution commutes with translations, meaning that

where τxƒ is the translation of the function ƒ by x defined by

If ƒ is a Schwartz function, then τxƒ is the convolution with a translated Dirac delta
function τxƒ = ƒ∗τx δ. So translation invariance of the convolution of Schwartz functions
is a consequence of the associativity of convolution.

Convolution theorem

The Fourier transform translates between convolution and multiplication of functions. If


ƒ(x) and g(x) are integrable functions with Fourier transforms and
respectively, then the Fourier transform of the convolution is given by the product
of the Fourier transforms and (under other conventions for the definition
of the Fourier transform a constant factor may appear).

This means that if:

where ∗ denotes the convolution operation, then:

137
In linear time invariant (LTI) system theory, it is common to interpret g(x) as the
impulse response of an LTI system with input ƒ(x) and output h(x), since substituting
the unit impulse for ƒ(x) yields h(x) = g(x). In this case,    represents the frequency
response of the system.

Conversely, if ƒ(x) can be decomposed as the product of two square integrable functions
p(x) and q(x), then the Fourier transform of ƒ(x) is given by the convolution of the
respective Fourier transforms and .

Versions of this theorem also hold for the Laplace transform, two-sided Laplace
transform, Z-transform and Mellin transform.(reference: Titchmarsh convolution
theorem).

DIFFERENTIAL OPERATOR is an operator defined as a function of the differentiation


operator. It is helpful, as a matter of notation first, to consider differentiation as an
abstract operation, accepting a function and returning another

The most common differential operator is the action of taking the derivative itself.
Common notations for taking the first derivative with respect to a variable x include:

and .

When taking higher, nth order derivatives, the operator may also be written:

or

The derivative of a function f of an argument x is sometimes given as either of the


following:

The D notation's use and creation is credited to Oliver Heaviside, who considered
differential operators of the form

in his study of differential equations.

One of the most frequently seen differential operators is the Laplacian operator, defined
by

138
Another differential operator is the Θ operator, or theta operator, defined by

This is sometimes also called the homogeneity operator, because its eigenfunctions are
the monomials in z:

The differential operator del is an important vector differential operator. It appears


frequently in physics in places like the differential form of Maxwell's Equations. In
three dimensional Cartesian coordinates, del is defined:

Del is used to calculate the gradient, curl, divergence, and laplacian of various objects.

Adjoint of an operator
See also: Hermitian adjoint

Given a linear differential operator T

the adjoint of this operator is defined as the operator such that

where the notation is used for the scalar product or inner product. This
definition therefore depends on the definition of the scalar product.

Formal adjoint in one variable

In the functional space of square integrable functions, the scalar product is defined by

If one moreover adds the condition that f or g vanishes for and , one
can also define the adjoint of T by

139
This formula does not explicitly depend on the definition of the scalar product. It is
therefore sometimes chosen as a definition of the adjoint operator. When is defined
according to this formula, it is called the formal adjoint of T.

A (formally) self-adjoint operator is an operator equal to its own (formal) adjoint.

Elliptic operator
From Wikipedia, the free encyclopedia

In the theory of partial differential equations, elliptic operators are differential


operators that generalize the Laplace operator. They are defined by the condition that
the coefficients of the highest-order derivatives be positive, which implies the key
property that the principal symbol is invertible, or equivalently that there are no real
characteristic directions.

Elliptic operators are typical of potential theory, and they appear frequently in
electrostatics and continuum mechanics. Elliptic regularity implies that their solutions
tend to be smooth functions (if the coefficients in the operator are smooth). Steady-state
solutions to hyperbolic and parabolic equations generally solve elliptic equations.

Formal definitions:

A linear differential operator L of order m on a domain in Rd given by

is called ELLIPTIC if for every x in and every non-zero in Rd,

In many applications, this condition is not strong enough, and instead a UNIFORM
ELLIPTICITY CONDITION may be imposed for operators of degree m = 2k:

where C is a positive constant. Note that ellipticity only depends on the highest-order
terms.

A nonlinear operator

140
is elliptic if its first-order Taylor expansion with respect to u and its derivatives about
any point is a linear elliptic operator.

-Example:

The negative of the Laplacian in Rd given by

is a uniformly elliptic operator. The Laplace operator occurs frequently in electrostatics. If ρ is


the charge density within some region Ω, the potential Φ must satisfy the equation

-Another example:

Given a matrix-valued function A(x) which is symmetric and positive definite for every x, having
components aij , the operator

is elliptic. This is the most general form of a second-order divergence form linear elliptic
differential operator. The Laplace operator is obtained by taking A = I. These operators also
occur in electrostatics in polarized media.

-Yet another example:

For p a non-negative number, the p-Laplacian is a nonlinear elliptic operator defined by

A similar nonlinear operator occurs in glacier mechanics. The stress tensor of ice, according to
Glen's flow law, is given by

for some constant B. The velocity of an ice sheet in steady state will then solve the nonlinear
elliptic system

141
where ρ is the ice density, g is the gravitational acceleration vector, p is the pressure and Q is a
forcing term.

Elliptic regularity theorem

Let L be an elliptic operator of order 2k with coefficients having 2k continuous


derivatives. The Dirichlet problem for L is to find a function u, given a function f and
some appropriate boundary values, such that Lu = f and such that u has the appropriate
boundary values and normal derivatives. The existence theory for elliptic operators,
using Gårding's inequality and the Lax–Milgram lemma, only guarantees that a weak
solution u exists in the Sobolev space Hk.

This situation is ultimately unsatisfactory, as the weak solution u might not have enough
derivatives for the expression Lu to even make sense.

The elliptic regularity theorem guarantees that, provided f is square-integrable, u will in


fact have 2k square-integrable weak derivatives. In particular, if f is infinitely-often
differentiable, then so is u.

Any differential operator exhibiting this property is called a hypoelliptic operator; thus,
every elliptic operator is hypoelliptic. The property also means that every fundamental
solution of an elliptic operator is infinitely differentiable in any neighborhood not
containing 0.

As an application, suppose a function satisfies the Cauchy-Riemann equations. Since


the Cauchy-Riemann equations form an elliptic operator, it follows that is smooth.

General definition

Let be a (possibly nonlinear) differential operator between vector bundles of any


rank. Take its principal symbol with respect to a one-form . (Basically, what
we are doing is replacing the highest order covariant derivatives by vector fields .)

We say is weakly elliptic if is a linear isomorphism for every non-zero .

We say is (uniformly) strongly elliptic if for some constant ,

for all and all . It is important to note that the definition of ellipticity in the
previous part of the article is strong ellipticity. Here is an inner product. Notice
that the are covector fields or one-forms, but the are elements of the vector bundle
upon which acts.

The quintessential example of a (strongly) elliptic operator is the Laplacian (or its
negative, depending upon convention). It is not hard to see that needs to be of even
order for strong ellipticity to even be an option. Otherwise, just consider plugging in

142
both and its negative. On the other hand, a weakly elliptic first-order operator, such as
the Dirac operator can square to become a strongly elliptic operator, such as the
Laplacian. The composition of weakly elliptic operators is weakly elliptic.

Weak ellipticity is nevertheless strong enough for the Fredholm alternative, Schauder
estimates, and the Atiyah–Singer index theorem. On the other hand, we need strong
ellipticity for the maximum principle, and to guarantee that the eigenvalues are discrete,
and their only limit point is infinity.

143
144
A PARABOLIC PARTIAL DIFFERENTIAL EQUATION is a type of second-order partial
differential equation (PDE), describing a wide family of problems in science including
heat diffusion, ocean acoustic propagation, in physical or mathematical systems with a
time variable, and which behave essentially like heat diffusing through a solid.

A partial differential equation of the form

is parabolic if it satisfies the condition

This definition is analogous to the definition of a planar parabola.

A simple example of a parabolic PDE is the one-dimensional heat equation,

Where is the temperature at time and at position , and is a constant.


The symbol signifies the partial derivative with respect to the time variable , and
similarly is the second partial derivative with respect to .

This equation says roughly that the temperature at a given time and point will rise or fall
at a rate proportional to the difference between the temperature at that point and the
average temperature near that point. The quantity measures how far off the
temperature is from satisfying the mean value property of harmonic functions.

A generalization of the heat equation is

where is a second order elliptic operator (implying must be positive also). Such a
system can be hidden in an equation of the form

if the matrix-valued function has a kernel of dimension 1.

Under broad assumptions, parabolic PDEs as given above have solutions for all x,y and
t>0. An equation of the form is considered to be parabolic if L is a
(possibly nonlinear) function of u and its first and second derivatives, with some further
conditions on L. With such a nonlinear parabolic differential equation, solutions exist
for a short time but may explode in a singularity in a finite amount of time. Hence, the
difficulty is in determining solutions for all time, or more generally studying the
singularities that arise. This is in general quite difficult, as in the solution of the
Poincaré conjecture via Ricci flow.

145
A HYPERBOLIC PARTIAL DIFFERENTIAL EQUATION of order n is a partial differential
equation (PDE) that, roughly speaking, has a well-posed initial value problem for the
first n−1 derivatives. More precisely, the Cauchy problem can be locally solved for
arbitrary initial data along any non-characteristic hypersurface. Many of the equations
of mechanics are hyperbolic, and so the study of hyperbolic equations is of substantial
contemporary interest. The model hyperbolic equation is the wave equation. In one
spatial dimension, this is

The equation has the property that, if u and its first time derivative are arbitrarily
specified initial data on the initial line t = 0 (with sufficient smoothness properties), then
there exists a solution for all time.

The solutions of hyperbolic equations are "wave-like." If a disturbance is made in the


initial data of a hyperbolic differential equation, then not every point of space feels the
disturbance at once. Relative to a fixed time coordinate, disturbances have a finite
propagation speed. They travel along the characteristics of the equation. This feature
qualitatively distinguishes hyperbolic equations from elliptic partial differential
equations and parabolic partial differential equations. A perturbation of the initial (or
boundary) data of an elliptic or parabolic equation is felt at once by essentially all points
in the domain.

Although the definition of hyperbolicity is fundamentally a qualitative one, there are


precise criteria that depend on the particular kind of differential equation under
consideration. There is a well-developed theory for linear differential operators, due to
Lars Gårding, in the context of microlocal analysis. Nonlinear differential equations are
hyperbolic if their linearizations are hyperbolic in the sense of Gårding..

Definition:

A partial differential equation is hyperbolic at a point P provided that the Cauchy


problem is uniquely solvable in a neighborhood of P for any initial data given on a non-
characteristic hypersurface passing through P. Here the prescribed initial data consists
of all (transverse) derivatives of the function on the surface up to one less than the order
of the differential equation.

Examples:

By a linear change of variables, any equation of the form

with

146
can be transformed to the wave equation, apart from lower order terms which are
inessential for the qualitative understanding of the equation.[2] This definition is
analogous to the definition of a planar hyperbola.

The one-dimensional wave equation:

is an example of a hyperbolic equation. The two-dimensional and three-dimensional


wave equations also fall into the category of hyperbolic PDE.

This type of second-order hyperbolic partial differential equation may be transformed


to a hyperbolic system of first-order differential equations.

Hyperbolic system of partial differential equations

Consider the following system of first order partial differential equations for
unknown functions , , where

are once continuously differentiable functions,


nonlinear in general.

Now define for each a matrix

We say that the system is hyperbolic if for all the matrix


has only real eigenvalues and is diagonalizable.

If the matrix has distinct real eigenvalues, it follows that it's diagonalizable. In this
case the system is called strictly hyperbolic.

147
A GREEN'S FUNCTION, named after the British mathematician George Green, who first
developed the concept in the 1830s is a type of function used to solve inhomogeneous
differential equations subject to specific initial conditions or boundary conditions. In the
modern study of linear partial differential equations, Green's functions are studied largely
from the point of view of fundamental solutions instead.

Definition and uses

A Green's function, G(x, s), of a linear differential operator L = L(x) acting on


distributions over a subset of the Euclidean space Rn, at a point s, is any solution of

(1)

where is the Dirac delta function. This property of a Green's function can be exploited
to solve differential equations of the form

(2)

If the kernel of L is non-trivial, then the Green's function is not unique. However, in
practice, some combination of symmetry, boundary conditions and/or other externally
imposed criteria will give a unique Green's function. Also, Green's functions in general
are distributions, not necessarily proper functions.

Green's functions are also a useful tool in solving wave equations, diffusion equations,
and in quantum mechanics, where the Green's function of the Hamiltonian is a key
concept, with important links to the concept of density of states. As a side note, the
Green's function as used in physics is usually defined with the opposite sign; that is,

This definition does not significantly change any of the properties of the Green's
function.

If the operator is translation invariant, that is when L has constant coefficients with
respect to x, then the Green's function can be taken to be a convolution operator, that is,

In this case, the Green's function is the same as the impulse response of linear time-
invariant system theory.

Motivation
Loosely speaking, if such a function G can be found for the operator L, then if we
multiply the equation (1) for the Green's function by f(s), and then perform an
integration in the s variable, we obtain;

148
The right hand side is now given by the equation (2) to be equal to L u(x), thus:

Because the operator L = L(x) is linear and acts on the variable x alone (not on the
variable of integration s), we can take the operator L outside of the integration on the
right hand side, obtaining;

And this suggests;

(3)

Thus, we can obtain the function u(x) through knowledge of the Green's function in
equation (1), and the source term on the right hand side in equation (2). This process
relies upon the linearity of the operator L.

In other words, the solution of equation (2), u(x), can be determined by the integration
given in equation (3). Although f(x) is known, this integration cannot be performed
unless G is also known. The problem now lies in finding the Green's function G that
satisfies equation (1). For this reason, the Green's function is also sometimes called the
fundamental solution associated to the operator L.

Not every operator L admits a Green's function. A Green's function can also be thought
of as a right inverse of L. Aside from the difficulties of finding a Green's function for a
particular operator, the integral in equation (3), may be quite difficult to evaluate.
However the method gives a theoretically exact result.

This can be thought of as an expansion of f according to a Dirac delta function basis


(projecting f over δ(x − s)) and a superposition of the solution on each projection. Such
an integral equation is known as a Fredholm integral equation, the study of which
constitutes Fredholm theory.

Green's functions for solving inhomogeneous boundary value


problems

The primary use of Green's functions in mathematics is to solve non-homogeneous


boundary value problems. In modern theoretical physics, Green's functions are also
149
usually used as propagators in Feynman diagrams (and the phrase Green's function is
often used for any correlation function).

Framework

Let L be the Sturm–Liouville operator, a linear differential operator of the form

and let D be the boundary conditions operator

Let f(x) be a continuous function in [0,l]. We shall also suppose that the problem

is regular (i.e., only the trivial solution exists for the homogeneous problem).

Theorem

There is one and only one solution u(x) which satisfies

and it is given by

where G(x,s) is a Green's function satisfying the following conditions:

1. G(x,s) is continuous in x and s


2. For ,
3. For ,
4. Derivative "jump":
5. Symmetry: G(x, s) = G(s, x)

Finding Green's functions

Eigenvalue expansions
150
If a differential operator L admits a set of eigenvectors (i.e., a set of functions
and scalars such that ) that is complete, then it is possible to
construct a Green's function from these eigenvectors and eigenvalues.

Complete means that the set of functions satisfies the following completeness
relation:

Then the following holds:

where represents complex conjugation.

Applying the operator L to each side of this equation results in the completeness
relation, which was assumed true.

The general study of the Green's function written in the above form, and its relationship
to the function spaces formed by the eigenvectors, is known as Fredholm theory.

Green's functions for the Laplacian

Green's functions for linear differential operators involving the Laplacian may be
readily put to use using the second of Green's identities.

To derive Green's theorem, begin with the divergence theorem (otherwise known as
Gauss's theorem):

Let and substitute into Gauss' law. Compute and apply


the chain rule for the operator:

Plugging this into the divergence theorem produces Green's theorem:

151
Suppose that the linear differential operator L is the Laplacian, , and that there is a
Green's function G for the Laplacian. The defining property of the Green's function still
holds:

Let in Green's theorem. Then:

Using this expression, it is possible to solve Laplace's equation or


Poisson's equation , subject to either Neumann or Dirichlet
boundary conditions. In other words, we can solve for everywhere inside a
volume where either (1) the value of is specified on the bounding surface of the
volume (Dirichlet boundary conditions), or (2) the normal derivative of is
specified on the bounding surface (Neumann boundary conditions).

Suppose the problem is to solve for inside the region. Then the integral

reduces to simply due to the defining property of the Dirac delta function and
we have:

This form expresses the well-known property of harmonic functions that if the value or
normal derivative is known on a bounding surface, then the value of the function inside
the volume is known everywhere.

In electrostatics, is interpreted as the electric potential, as electric charge


density, and the normal derivative as the normal component of the
electric field.

152
If the problem is to solve a Dirichlet boundary value problem, the Green's function
should be chosen such that vanishes when either x or x' is on the bounding
surface.Thus only one of the two terms in the surface integral remains. If the problem is
to solve a Neumann boundary value problem, the Green's function is chosen such that
its normal derivative vanishes on the bounding surface, as it would seems to be the most
logical choice. (See Jackson J.D. classical electrodynamics, page 39). However,
application of Gauss's theorem to the differential equation defining the Green's function
yields

meaning the normal derivative of cannot vanish on the surface, because it


must integrate to 1 on the surface. (Again, see Jackson J.D. classical electrodynamics,
page 39 for this and the following argument). The simplest form the normal derivative
can take is that of a constant, namely , where S is the surface area of the surface.
The surface term in the solution becomes

where is the average value of the potential on the surface. This number is not
known in general, but is often unimportant, as the goal is often to obtain the electric
field given by the gradient of the potential, rather than the potential itself.

With no boundary conditions, the Green's function for the Laplacian (Green's function
for the three-variable Laplace equation) is:

Supposing that the bounding surface goes out to infinity, and plugging in this
expression for the Green's function, this gives the familiar expression for electric
potential in terms of electric charge density (in the CGS unit system) as

Example

Given the problem,

153
find the Green's function.

First step: The Green's function for the linear operator at hand is defined as the solution
to

If , then the delta function gives zero, and the general solution is

For , the boundary condition at implies

The equation of is skipped because if and

For , the boundary condition at implies

The equation of is skipped for similar reasons.

To summarize the results thus far:

Second step: The next task is to determine and .

Ensuring continuity in the Green's function at implies

One can also ensure proper discontinuity in the first derivative by integrating the

defining differential equation from to and taking the limit as


goes to zero:

The two (dis)continuity equations can be solved for and to obtain

154
So the Green's function for this problem is:

EIGENVALUES and EIGENVECTORS have many applications in both pure and applied
mathematics. They are used in matrix factorization, in quantum mechanics, and in many other
areas.

History

Eigenvalues are often introduced in the context of linear algebra or matrix theory.
Historically, however, they arose in the study of quadratic forms and differential
equations.

Euler studied the rotational motion of a rigid body and discovered the importance of the
principal axes. Lagrange realized that the principal axes are the eigenvectors of the
inertia matrix.[11] In the early 19th century, Cauchy saw how their work could be used to
classify the quadric surfaces, and generalized it to arbitrary dimensions. [12] Cauchy also
coined the term racine caractéristique (characteristic root) for what is now called
eigenvalue; his term survives in characteristic equation.[13]

Fourier used the work of Laplace and Lagrange to solve the heat equation by separation
of variables in his famous 1822 book Théorie analytique de la chaleur. Sturm
developed Fourier's ideas further and brought them to the attention of Cauchy, who
combined them with his own ideas and arrived at the fact that real symmetric matrices
have real eigenvalues. This was extended by Hermite in 1855 to what are now called
Hermitian matrices. Around the same time, Brioschi proved that the eigenvalues of
orthogonal matrices lie on the unit circle, and Clebsch found the corresponding result
for skew-symmetric matrices. Finally, Weierstrass clarified an important aspect in the
stability theory started by Laplace by realizing that defective matrices can cause
instability.

In the meantime, Liouville studied eigenvalue problems similar to those of Sturm; the
discipline that grew out of their work is now called Sturm–Liouville theory. Schwarz
studied the first eigenvalue of Laplace's equation on general domains towards the end of
the 19th century, while Poincaré studied Poisson's equation a few years later.

At the start of the 20th century, Hilbert studied the eigenvalues of integral operators by
viewing the operators as infinite matrices. He was the first to use the German word
eigen to denote eigenvalues and eigenvectors in 1904, though he may have been
following a related usage by Helmholtz. For some time, the standard term in English
was "proper value", but the more distinctive term "eigenvalue" is standard today. [18]

155
The first numerical algorithm for computing eigenvalues and eigenvectors appeared in
1929, when Von Mises published the power method. One of the most popular methods
today, the QR algorithm, was proposed independently by John G.F. Francis and Vera
Kublanovskaya in 1961.

The EIGENVECTORS of a square matrix are the non-zero vectors that, after being
multiplied by the matrix, remain parallel to the original vector. For each eigenvector, the
corresponding eigenvalue is the factor by which the eigenvector is scaled when
multiplied by the matrix. The prefix eigen- is adopted from the German word "eigen"
for "own" in the sense of a characteristic description. The eigenvectors are sometimes
also called characteristic vectors. Similarly, the eigenvalues are also known as
characteristic values.

These ideas are often extended to more general situations, where scalars are elements of
any field, vectors are elements of any vector space, and linear transformations may or
may not be represented by matrix multiplication. For example, instead of real numbers,
scalars may be complex numbers; instead of arrows, vectors may be functions or
frequencies; instead of matrix multiplication, linear transformations may be operators
such as the derivative from calculus. These are only a few of countless examples where
eigenvectors and eigenvalues are important.

In such cases, the concept of direction loses its ordinary meaning, and is given an
abstract definition. Even so, if that abstract direction is unchanged by a given linear
transformation, the prefix "eigen" is used, as in eigenfunction, eigenmode, eigenface,
eigenstate, and eigenfrequency.

Eigenvalues and eigenvectors have many applications in both pure and applied
mathematics. They are used in matrix factorization, in quantum mechanics, and in many
other areas.

The mathematical expression of this idea is as follows: if A is a square matrix, a non-


zero vector v is an eigenvector of A if there is a scalar λ (lambda) such that

The scalar λ (lambda) is said to be the eigenvalue of A corresponding to v. An


eigenspace of A is the set of all eigenvectors with the same eigenvalue together with the
zero vector. However, the zero vector is not an eigenvector.

The eigenvalue equation for linear differential operators is then a set of one or more
differential equations. The eigenvectors are commonly called eigenfunctions. The
simplest case is the eigenvalue equation for differentiation of a real valued function by a
single real variable. We seek a function (equivalent to an infinite-dimensional vector)
that, when differentiated, yields a constant times the original function. In this case, the
eigenvalue equation becomes the linear differential equation

156
Here λ is the eigenvalue associated with the function, f(x). This eigenvalue equation has
a solution for any value of λ. If λ is zero, the solution is

where A is any constant; if λ is non-zero, the solution is the exponential function

If we expand our horizons to complex valued functions, the value of λ can be any
complex number. The spectrum of d/dt is therefore the whole complex plane. This is an
example of a continuous spectrum.

Waves on a string: The shape of a standing wave in a string fixed at its boundaries is an
example of an eigenfunction of a differential operator. The admittable eigenvalues are
governed by the length of the string and determine the frequency of oscillation.

The displacement, , of a stressed rope fixed at both ends, like the vibrating
strings of a string instrument, satisfies the wave equation

which is a linear partial differential equation, where c is the constant wave speed. The
normal method of solving such an equation is separation of variables. If we assume that
h can be written as the product of the form X(x)T(t), we can form a pair of ordinary
differential equations:

and

Each of these is an eigenvalue equation (the unfamiliar form of the eigenvalue is chosen
merely for convenience). For any values of the eigenvalues, the eigenfunctions are
given by

and

If we impose boundary conditions (that the ends of the string are fixed with X(x) = 0 at x
= 0 and x = L, for example) we can constrain the eigenvalues. For those boundary
conditions, we find

, and so the phase angle

and

157
Thus, the constant is constrained to take one of the values , where n is
any integer. Thus the clamped string supports a family of standing waves of the form

From the point of view of our musical instrument, the frequency is the frequency
of the nth harmonic, which is called the (n-1)st overtone.

Applications

Schrödinger equation

The wavefunctions associated with the bound states of an electron in a hydrogen atom can be
seen as the eigenvectors of the hydrogen atom Hamiltonian as well as of the angular
momentum operator. They are associated with eigenvalues interpreted as their energies
(increasing downward: n=1,2,3,...) and angular momentum (increasing across: s, p, d,...). The
illustration shows the square of the absolute value of the wavefunctions. Brighter areas
correspond to higher probability density for a position measurement. The center of each figure
is the atomic nucleus, a proton.

An example of an eigenvalue equation where the transformation T is represented in


terms of a differential operator is the time-independent Schrödinger equation in
quantum mechanics:

where H, the Hamiltonian, is a second-order differential operator and , the


wavefunction, is one of its eigenfunctions corresponding to the eigenvalue E,
interpreted as its energy.

However, in the case where one is interested only in the bound state solutions of the
Schrödinger equation, one looks for within the space of square integrable functions.
Since this space is a Hilbert space with a well-defined scalar product, one can introduce
a basis set in which and H can be represented as a one-dimensional array and a
matrix respectively. This allows one to represent the Schrödinger equation in a matrix
form.

Bra-ket notation is often used in this context. A vector, which represents a state of the
system, in the Hilbert space of square integrable functions is represented by . In
this notation, the Schrödinger equation is:

158
where is an eigenstate of H. It is a self adjoint operator, the infinite dimensional
analog of Hermitian matrices (see Observable). As in the matrix case, in the equation
above is understood to be the vector obtained by application of the
transformation H to .

Vibration analysis: (Main article: Vibration)

Eigenvalue problems occur naturally in the vibration analysis of mechanical structures


with many degrees of freedom. The eigenvalues are used to determine the natural
frequencies (or eigenfrequencies) of vibration, and the eigenvectors determine the
shapes of these vibrational modes. In particular, undamped vibration is governed by

or

that is, acceleration is proportional to position (i.e., we expect x to be sinusoidal in


time). In n dimensions, m becomes a mass matrix and k a stiffness matrix. Admissible
solutions are then a linear combination of solutions to the generalized eigenvalue
problem

where is the eigenvalue and is the angular frequency. Note that the principal
vibration modes are different from the principal compliance modes, which are the
eigenvectors of k alone. Furthermore, damped vibration, governed by

leads to what is called a so-called quadratic eigenvalue problem,

This can be reduced to a generalized eigenvalue problem by clever algebra at the cost of
solving a larger system.

The orthogonality properties of the eigenvectors allows decoupling of the differential


equations so that the system can be represented as linear summation of the eigenvectors.
The eigenvalue problem of complex structures is often solved using finite element
analysis, but neatly generalize the solution to scalar-valued vibration problems.

OBSERVAÇÃO: SE, COMO ACIMA, G(x, s) REPRESENTA UMA FUNÇÃO DE GREEN DE UM


OPERADOR DIFFERENCIAL L = L(x) , TAL QUE A SOLUÇÃO DA EQUAÇÃO

(2)

159
PODE SER EXPRESSA POR

(3)

O PROBLEMA DE AUTOVALOR PARA L , QUE SE OBTEM SUBSTITUINDO-SE O 2º MEMBRO

DA EQUAÇÃO (2) POR λ u , ou f + λ u , CONDUZ (3) A UMA EQUAÇÃO INTEGRAL


COM NÚCLEO G ;

A PSEUDO-DIFFERENTIAL OPERATOR is simultaneously an extension of the concept of


differential operator and of that of a singular integral operator. Pseudo-differential
operators are used extensively in the theory of partial differential equations and
quantum field theory.

Consider a linear differential operator with constant coefficients,

which acts on smooth functions with compact support in Rn.

Here, α = (α1, … ,αn) is a multi-index, are complex numbers, and

is an iterated partial derivative, where ∂ j means differentiation with respect to the j-th

variable. We introduce the constants to facilitate the calculation of Fourier


transforms.

The Fourier transform of a smooth function u, compactly supported in Rn, is

and Fourier's inversion formula gives

By applying P(D) to this representation of u and using

, where

Is called the symbol,

160
one obtains the operator written as a composition of a Fourier transform, a simple
multiplication by the polynomial function and an inverse Fourier transform:

(1)

Representation of Solutions to Partial Differential Equations

Repeating motivation, to solve the partial differential equation

we (formally) apply the Fourier transform on both sides and obtain the algebraic
equation

If the symbol P(ξ) is never zero when ξ ∈ Rn, then it is possible to divide by P(ξ):

By Fourier's inversion formula, a solution is

Here it is assumed that:

4. P(D) is a linear differential operator with constant coefficients,


5. its symbol P(ξ) is never zero,
6. both u and ƒ have a well defined Fourier transform.

The last assumption can be weakened by using the theory of distributions. The first two
assumptions can be weakened as follows.

In the last formula, write out the Fourier transform of ƒ to obtain

This is similar to formula (1), except that 1/P(ξ) is not a polynomial function, but a
function of a more general kind.

161
Formal Definition of Pseudo-Differential Operators

Here we view pseudo-differential operators as a generalization of differential operators.


We extend formula (1) as follows. A pseudo-differential operator P(x,D) on Rn is an
operator whose value on the function u(x) is the function of x:

(2)

where the symbol P(x,ξ) in the integrand belongs to a certain symbol class. For instance,
if P(x,ξ) is an infinitely differentiable function on Rn × Rn with the property

for all x,ξ ∈Rn, all multiindices α,β. some constants Cα, β and some real number m, then
P belongs to the symbol class of Hörmander. The corresponding operator P(x,D)
is called a pseudo-differential operator of order m and belongs to the class

Properties

Linear differential operators of order m with smooth bounded coefficients are pseudo-
differential operators of order m. The composition PQ of two pseudo-differential
operators P, Q is again a pseudo-differential operator and the symbol of PQ can be
calculated by using the symbols of P and Q. The adjoint and transpose of a pseudo-
differential operator is a pseudo-differential operator.

If a differential operator of order m is (uniformly) elliptic (of order m) and invertible,


then its inverse is a pseudo-differential operator of order −m, and its symbol can be
calculated. This means that one can solve linear elliptic differential equations more or
less explicitly by using the theory of pseudo-differential operators.

Differential operators are local in the sense that one only needs the value of a function
in a neighbourhood of a point to determine the effect of the operator. Pseudo-differential
operators are pseudo-local, which means informally that when applied to a distribution
they do not create a singularity at points where the distribution was already smooth.

Just as a differential operator can be expressed in terms of D = −id/dx in the form

for a polynomial p in D (which is called the symbol), a pseudo-differential operator has


a symbol in a more general class of functions. Often one can reduce a problem in
analysis of pseudo-differential operators to a sequence of algebraic problems involving
their symbols, and this is the essence of microlocal analysis.

162
FOURIER INTEGRAL OPERATORS have become an important tool in the theory of partial
differential equations. This class of operators contains differential operators as well as
classical integral operators as special cases.

One motivation for the study of Fourier integral operators is the solution operator for
the initial value problem for the wave operator. Indeed, consider the following problem:

and

The solution to this problem is given by

These need to be interpreted as oscillatory integrals since they do not in general


converge. This formally looks like a sum of two Fourier integral operators, however the
coefficients in each of the integrals are not smooth at the origin, and so not standard
symbols. If we cut out this singularity with a cutoff function, then the so obtained
operators still provide solutions to the initial value problem modulo smooth functions.
Thus, if we are only interested in the propagation of singularities of the initial data, it is
sufficient to consider such operators. In fact, if we allow the sound speed c in the wave
equation to vary with position we can still find a Fourier integral operator that provides
a solution modulo smooth functions, and Fourier integral operators thus provide a useful
tool for studying the propagation of singularities of solutions to variable speed wave
equations, and more generally for other hyperbolic equations. .

Formal definition: A Fourier integral operator T is given by:

where denotes the Fourier transform of f, a(x,ξ) is a standard symbol which is

compactly supported in x and Φ is real valued and homogeneous of degree 1 in ξ. It is

also necessary to require that on the support of a.

Under these conditions, if a is of order zero, it is possible to show that T defines a

bounded operator from L2 to L2.[

L. Hörmander Fourier integral operators, Acta Math. 127 (1971), 79–183. doi
10.1007/BF02392052, http://www.springerlink.com/content/t202410l4v37r13m/fulltext.pdf

163
OBSERVAÇÃO: NA DÉCADA DE 1970, O PROFESSOR ANTONIO GILIOLI CONSULTOU SEU
ORIENTADOR, FRANÇOIS TREVES, SOBRE COMO INTERPRETAVA AS GENERALIZAÇÕES
MATEMÁTICAS QUE VINHAM SENDO PUBLICADAS, E OBTEVE COMO RESPOSTA QUE ELE
ABORDAVA EQUAÇÕES DIFERENCIAIS E ERA RECEPTIVO A TODA A MATEMÁTICA
PERTINENTE. POSTERIORMENTE, FOMOS INFORMADOS POR SEU OUTRO ORIENTADO,
PROFESSOR PAULO DOMINGOS CORDARO DE QUE, APÓS A ABORDAGEM DOS OPERADORES
DE TIPO PRINCIPAL, ELE ESTARIA PROPENSO A SE DEDICAR AOS SISTEMAS DE EQUAÇÕES
DIFERENCIAIS.
SEGUNDO ALGUNS ESPECIALISTAS, NA DÉCADA DE 1970, A TEORIA DAS EDP LINEARES JÁ
TERIA ALCANÇADO UM NÍVEL DE ELABORAÇÃO ELEVADO, NO QUAL OS GANHOS EM
GENERALIDADE, LIMITADOS PELOS CONTRA-EXEMPLOS EXISTENTES, NEM SEMPRE ERAM
INSPIRADOS EM APLICAÇÕES RELEVANTES, E VINHAM, AINDA, ACOMPANHADOS DE MAIOR
COMPLEXIDADE. AO MESMO TEMPO SURGIRAM PUBLICAÇÕES QUE PODEM SER
CLASSIFICADAS COMO TEOREMAS DE REGULARIDADE DAS SOLUÇÕES (PROPRIEDADES DAS
SOLUÇÕES DE CLASSES ESPECIAIS DE EQUAÇÕES). OS PROFESSORES DJAIRO GUEDES DE
FIGUEIREDO E LOUIS NIRENBERG FORAM CONSULTADOS E EXPRESSARAM O
ENTENDIMENTO DE QUE A ABORDAGEM DAS EDP NÃO LINEARES SE CONSTITUIA NUM
RAMO MAIS PROMISSOR OU COM MELHORES PERSPECTIVAS PARA O NOSSO AMBIENTE, DO
QUE O DAS EDP LINEARES, JÁ ELABORADO.

---------------- xxx -----------------

164
NONLINEAR PARTIAL DIFFERENTIAL EQUATIONS describe many different physical
systems, ranging from gravitation to fluid dynamics, and have been used in mathematics
to solve problems such as the Poincaré conjecture and the Calabi conjecture. They are
difficult to study: there are almost no general techniques that work for all such
equations, and usually each individual equation has to be studied as a separate problem
A fundamental question for any PDE is the existence and uniqueness of a solution for
given boundary conditions. For nonlinear equations these questions are in general very
hard: for example, the hardest part of Yau's solution of the Calabi conjecture was the
proof of existence for a Monge–Ampere equation.

The basic questions about singularities (their formation, propagation, and removal, and
regularity of solutions) are the same as for linear PDE, but as usual much harder to
study. In the linear case one can just use spaces of distributions, but nonlinear PDEs are
not usually defined on arbitrary distributions, so one replaces spaces of distributions by
refinements such as Sobolev spaces.

An example of singularity formation is given by the Ricci flow: Hamilton showed that
while short time solutions exist, singularities will usually form after a finite time.
Perelman's solution of the Poincaré conjecture depended on a deep study of these
singularities, where he showed how to continue the solution past the singularities.

Linear approximation

The solutions in a neighborhood of a known solution can sometimes be studied by


linearizing the PDE around the solution.

List of nonlinear partial differential equations


From Wikipedia

A–F

Name Dim Equation Applications

Benjamin– Fluid
1+1
Bona–Mahony mechanics

internal
Benjamin-Ono 1+1 waves in
deep water

Boomeron 1+1 Solitons

Born-Infeld 1+1

165
Fluid
Boussinesq 1+1
mechanics

Thin viscous
Buckmaster 1+1 fluid sheet
flow

Fluid
Burgers 1+1
mechanics

Cahn–Hilliard Phase
Any
equation separation

Calabi–Yau
Calabi flow Any
manifolds

Camassa–
1+1 Peakons
Holm

Carleman 1+1

Cauchy Momentum
any
momentum transport

Caudrey–
Dodd–
Gibbon– 1+1 Same as (rescaled) Sawada–Kotera
Sawada–
Kotera

Chiral field 1+1

Clairaut Differential
any
equation geometry

Complex
Calabi
Monge– Any lower order terms conjecture
Ampère

Davey– Finite depth


1+2
Stewartson waves

Degasperis–
1+1 Peakons
Procesi

166
Dispersive
1+1 ,
long wave

Drinfel'd–
Sokolov– 1+1
Wilson

Dym equation 1+1 Solitons

Eckhaus Integrable
1+1
equation systems

Eikonal
any optics
equation

Einstein field General


Any
equations relativity

Ernst
2
equation

Euler non-viscous
1+3
equations fluids

Fisher's Gene
1+1
equation propagation

Fitzhugh-
1+1
Nagumo

G–K

Di
Name Equation Applications
m

Gardner
1+1
equation

167
Garnier isomonodromic
equation deformations

Gauss–
surfaces
Codazzi

Ginzburg– Superconductivit
1+3
Landau y

Gross–
1+1
Neveu

Gross– Bose–Einstein
1+n
Pitaevskii condensate

Hartree
Any
equation
where .

Hasegawa– Turbulence in
1+3
Mima plasma

Heisenberg
ferromagne 1+1 Magnetism
t

Hirota
1+1
equation

Hirota– ,
1+1
Satsuma

Hunter–
1+1 Liquid crystals
Saxton

Ishimori Integrable
1+2
equation systems

Kadomtsev 1+2 Shallow water

168
–Petviashvili waves

,
von Karman 2

Kaup 1+1

Kaup–
Integrable
Kupershmid 1+1
systems
t

Klein–
Gordon– any ,
Maxwell

Klein–
Gordon any
(nonlinear)

Klein–
Gordon–
Zakharov

Khokhlov–
Zabolotskay 1+2
a

Korteweg– Shallow waves,


de Vries 1+1 Integrable
(KdV) systems

KdV
(generalized 1+1
)

KdV
1+1
(modified)

,
KdV (super) 1+1

There are more minor variations listed in the article on KdV equations.

Kuramoto–
1+n
Sivashinsky

169
L–R

Di Applicati
Name Equation
m ons

Landau– Magnetic
1+
Lifshitz field in
n
model solids

Lin-Tsien 1+
equation 2

an
Liouville
y

Minimal minimal
3
surface surfaces

Molenbro
2
eck

Monge– an
Ampère y lower order terms

Navier–
Stokes
1+
(and its Fluid flow
3
derivation + mass conservation:
) + an equation of state to relate p and ρ, e.g. for an

incompressible flow:
Nonlinear optics,
1+
Schröding water
1
er (cubic) waves

Nonlinear
Schröding optics,
1+
er water
1
(derivativ waves
e)

170
Novikov–
1+
Veselov see Veselov–Novikov equation below
2
equation

atmosph
Omega 1+
eric
equation 3
physics

Plateau 2

Pohlmeye
r–Lund– 2
Regge

Porous 1+
diffusion
medium n

1+ boundary
Prandtl
2 , layer

Atmosph
Primitive 1+
eric
equations 3
models

S–Z, α–ω

Di
Name Equation Applications
m

Rayleigh 2

An Poincaré
Ricci flow
y conjecture

Variably-
saturated
Richards 1+
flow in
equation 3
porous
media

Sawada– 1+

171
Kotera 1

isomonodro
Schlesing An mic
er y deformation
s

Seiberg–
Seiberg– 1+ Witten
Witten 3 invariants,
QFT

Shallow 1+ shallow
water 2 water waves

Sine– 1+
Solitons, QFT
Gordon 1

Sinh– 1+
Solitons, QFT
Gordon 1

Sinh– 1+
Poisson n

Swift–
an pattern
Hohenbe
y forming
rg

Three-
1+ Integrable
wave
n systems
equation

Thomas
2
equation

Thirring 1+ Dirac field,


model 1 , QFT

172
Toda an
lattice y

Veselov–
1+ , shallow
Novikov
2 , water waves
equation

Wadati–
Konno–
1+
Ichikawa
1

Schimizu

WDVV Topological
An
equation field theory,
y
s QFT

WZW 1+
QFT
model 1

Witham phase
equation averaging

Differential
Yamabe n
geometry

Yang–
Mills
An Gauge
equation
y theory, QFT
(source-
free)

Yang–
Mills
Instantons,
(self-
4 Donaldson
dual/anti
theory, QFT
-self-
dual)

Meson-
Yukawa 1+ nucleon
equation n interactions,
QFT

173
Zakharov 1+ Langmuir
system 3 waves

Zakharov
– 1+ Acoustic
Schulma 3 waves
n

Zoomero 1+
Solitons
n 1

φ4 1+
QFT
equation 1

Harmonic
1+ maps,
σ-model
1 integrable
systems, QFT

The HANDBOOK OF NONLINEAR PARTIAL DIFFERENTIAL EQUATIONS,


by Russian Mathematicians Andrei D. Polyanin and Valentin F. Zaitsev,
2004 by Chapman & Hall/CRC, 803 pp. contains more than 1600 nonlinear
mathematical physics equations and nonlinear partial differential equations and
their solutions. A large number of new exact solutions to nonlinear equations
are described. Equations of parabolic, hyperbolic, elliptic, mixed, and general
types are discussed. Second-, third-, fourth-, and higher-order nonlinear
equations are considered. The book presents exact solutions to equations of
heat and mass transfer, wave theory, nonlinear mechanics, hydrodynamics, gas
dynamics, plasticity theory, nonlinear acoustics, combustion theory, nonlinear
optics, theoretical physics, differential geometry, control theory, chemical
engineering sciences, biology, and other fields. (available on the Internet).

VARIATIONAL AND TOPOLOGICAL METHODS IN NONLINEAR PROBLEMS:


BY L. NIRENBERG

INTERNET/GOOGLE , and BULLETIN (New Series) OF THE AMERICAN


MATHEMATICAL SOCIETY Volume 4, Number 3, May 1981

These lectures are meant as an informal introduction to some of the techniques used in
proving existence of solutions of nonlinear problems of the form
F(u) = y. (1)
Here F is a continuous (and usually smooth) mapping from one topological space X to
another Y, and the spaces are usually infinite dimensional. The model to keep in mind is
one in which these spaces are function spaces defined in domains on finite-dimensional
manifolds, and F is a system of nonlinear partial differential operators-or integral
operators.
A number of special topics will be presented-in three parts:

174
I. Global methods: homotopy, in particular topological degree theory, and extensions.
Applications to nonlinear boundary value problems.
II. Variational methods, in which a solution is a stationary point of some functional.
Applications.
III.Local study, perturbation about a solution.

An important analytic aspect of all these problems is that of finding a priori estimates
for the solutions. How one does that varies from problem to problem and I will barely
touch on these technical aspects. I will try, rather, to avoid technicalities and stress the
topological and variational ideas.
The lectures are not addressed to the experts in these fields-for them there will be little
new. They are given with the hope of attracting others to the subject. Up to now, the
topological and abstract ideas used are rather primitive, and I am confident that there
will be enormous further development-
involving more and more sophisticated topology. Here is a more specific list of the
topics treated.

1.1 Some classical things. Continuity method. Degree theory.


1.2 Some recent extensions of Leray-Schauder degree theory.
1.3 Extension of degree theory to Fredholm maps by Elworthy and Tromba.
1.4 Fredholm maps with positive index.
1.5 Modifications of degree associated to invariant orbits of ordinary differential
equations.

II. 1 The Palais-Smale condition (PS) and an elliptic boundary Value problem.
11.2 The mountain pass lemma. Solution of the boundary value problem.
11.3 Generalizations and variants of the mountain pass lemma.
11.4 A theorem of P. Rabinowitz on periodic solutions for a Hamiltonian system.
11.5 Periodic solutions of a nonlinear string equation.

111.1 Remarks on bifurcation theory for Fredholm operators.


111.2 The Nash-Moser Implicit Function technique.
111.3 Klainerman's result on the existence of smooth solutions for all time of a
nonlinear hyperbolic initial value problem.

…..

175
VI-A FUNDAMENTAÇÃO DA ANÁLISE, AS GENERALIZAÇÕES E
AS DECORRENTES QUESTÕES DE FUNDAMENTAÇÃO
65- EM MEADOS DO SÉCULO XVIII, HOUVE DIVERGÊNCIA ENTRE d’ALEMBERT, EULER E
BERNOULLI, SOBRE A SOLUÇÃO DA EQUAÇÃO DAS ONDAS , EM VIRTUDE DO USO DE
DISTINTAS CONCEPÇÕES PARA O CONCEITO DE FUNÇÃO, À ÉPOCA, AINDA NÃO ASSENTADO
(NOTAS HISTÓRICAS-DJAIRO GUEDES DE FIGUEIREDO/ CARSLAW);

-EM 1811, FOURIER ENUNCIOU QUE TODA FUNÇÃO PODERIA SER EXPRESSA POR UMA SÉRIE
TRIGONOMÉTRICA, COM OS CHAMADOS COEFICIENTES DE FOURIER, OU SEJA, POR SUA SÉRIE
DE FOURIER, O QUE INDUZIU UMA REVISÃO DOS CONCEITOS DA ANÁLISE, INICIADA POR
CAUCHY (CUJAS NOTAS DO CURSO DE CÁLCULO DE 1823, SE ENCONTRAM NA BIBLIOTECA DO
IME), BOLZANO (QUE APRESENTOU EM 1834, O 1º EXEMPLO DE UMA FUNÇÃO CONTÍNUA,
QUE NÃO É DERIVÁVEL EM NENHUM PONTO), RIEMANN E OUTROS;
PARA A INVESTIGAÇÃO DA CONVERGÊNCIA DA SÉRIE DE FOURIER DE UMA FUNÇÃO f PARA f ,
E NA TENTATIVA DE AMPLIAR A CLASSE DE FUNÇÕES INTEGRÁVEIS, RIEMANN LANÇOU MÃO
DE UMA “DEFINIÇÃO OPERACIONAL”, CHAMANDO DE INTEGRÁVEIS, À CLASSE DE TODAS AS
FUNÇÕES LIMITADAS PARA AS QUAIS O PROCESSO DE INTEGRAÇÃO PUDESSE SER
EFETIVADO, OU SEJA, PARA AS QUAIS, A INTEGRAL SUPERIOR FOSSE IGUAL À INTEGRAL
INFERIOR, PARA, EM SEGUIDA, CARACTERIZÁ-LAS ATRAVÉS DE ALGUMA PROPRIEDADE MAIS
OPERACIONALMENTE VERIFICÁVEL, OBTENDO QUE: “UMA FUNÇÃO LIMITADA, DEFINIDA
NUM INTERVALO, É INTEGRÁVEL, SE, E SOMENTE SE, O CONJUNTO DOS PONTOS DE
DESCONTINUIDADE MEDIDA (DE LEBESGUE) NULA” ;

66- DE MODO ANÁLOGO AO QUE OCORRERA COM A DESCOBERTA DOS SEGMENTOS


INCOMENSURÁVEIS ENTRE SI, O SURGIMENTO DE FUNÇÕES E COLEÇÕES (CONJUNTOS) DE
PONTOS, QUE EMBORA SATISFAZENDO AS DEFINIÇÕES FORMAIS, ERAM ESTRANHOS À
INTUIÇÃO DOS PESQUISADORES, REFORÇOU A PESQUISA DE QUESTÕES RELACIONADAS À
FORMALIZAÇÃO E FUNDAMENTAÇÃO DA MATEMÁTICA; ASSIM:

- EM 1860, O MATEMÁTICO ALEMÃO, K. WEIERSTRASS, EXPRESSOU UMA FUNÇÃO CONTÍNUA


SEM DERIVADA EM NENHUM PONTO ATRAVÉS DE UMA FÓRMULA; PODE-SE INTUIR TAIS
CURVAS, QUE, EMBORA CONTÍNUAS, APRESENTAM UMA BRUSCA MUDANÇA DE INCLINAÇÃO
(DO TIPO DA LETRA “V”) EM CADA UM DE SEUS PONTOS (QUE POSTERIORMENTE FORAM
UTILIZADAS PARA REPRESENTAR UMA “CONFIGURAÇÃO LIMITE DO CHAMADO MOVIMENTO
BROWNIANO DE PEQUENAS PARTÍCULAS EM SUSPENSÃO NUM LÍQUIDO, CUJAS CONSTANTES
COLISÕES ACARRETAM CORRESPONDENTES MUDANÇAS DE DIREÇÃO”

- EM 1872, O MATEMÁTICO ALEMÃO, R. DEDEKIND, APRESENTOU A CONSTRUÇÃO DOS


NÚMEROS REAIS (RETA REAL), À PARTIR DOS NÚMEROS RACIONAIS, ATRAVÉS DOS CORTES
DE DEDEKIND, E POSTULOU A SUA CONTINUIDADE (COMPLETUDE);

- EM 1883, O MATEMÁTICO RUSSO DE ORIGEM ALEMÃ, G. CANTOR, APRESENTOU O


“CONJUNTO DE CANTOR: UM SUBCONJUNTO DO INTERVALO [0,1], COM MEDIDA NULA,
QUE PODE SER POSTO EM CORRESPONDÊNCIA UM A UM, COM TODO O INTERVALO [0,1];
POSTERIORMENTE SURGIRAM OS “CONJUNTOS DE CANTOR COM MEDIDA POSITIVA” , QUE

176
EMBORA SEM INTERIOR (NÃO CONTENDO NENHUM INTERVALO), TEM MEDIDA POSITIVA;
(COUNTEREXAMPLES IN ANALYSIS- B.GELBAUM/J.OLMSTED);

- EM 1890, O MATEMÁTICO ITALIANO, G.PEANO, APRESENTOU A “CURVA DE PEANO”, UMA


CURVA CONTÍNUA ( FUNÇÃO DEFINIDA NUM INTERVALO DA RETA, CUJA IMAGEM NO PLANO
NÃO APRESENTA RUPTURAS), QUE CONSEGUE PREENCHER TODO UM QUADRADO DESSE
PLANO;

67- EM 1903, O MATEMÁTICO ALEMÃO G.FREGE, NA INTENÇÃO DE FUNDAMENTAR A


DEFINIÇÃO DE RIEMANN, SUGERIU UMA TEORIA DOS CONJUNTOS, NA QUAL “TODA A
PROPRIEDADE, DEFINISSE UM CONJUNTO (DOS ELEMENTOS QUE A SATISFIZESSEM)”, TENDO
A PRÓPRIA PUBLICAÇÃO, CONTADO COM A DEMONSTRAÇÃO DE B. RUSSELL, DE QUE: “A
EXISTÊNCIA DE UM CONJUNTO UNIVERSO U, QUE CONTIVESSE TODOS OS ELEMENTOS
(INCLUSIVE O PRÓPRIO U), CONDUZIRIA A UMA CONTRADIÇÃO” ; RUSSELL ENUNCIOU O SEU
PRINCÍPIO DO CÍRCULO VICIOSO, DE QUE: “TUDO AQUILO QUE IMPLICA A TOTALIDADE DE
UMA COLEÇÃO, NÃO DEVE SER MEMBRO DA COLEÇÃO”, E, LEVANTANDO O PROBLEMA DE
QUAL SERIA A REGRA DE FORMAÇÃO DE CONJUNTOS!

- CRIOU-SE UMA TEORIA DE CONJUNTOS INFINITOS, COM PROPRIEDADES DE “TOTALIDADES


COMPLETADAS” (OU QUE POSSAM SER CONSIDERADAS “UNIDADES ELEMENTARES OU
ELEMENTOS DE OUTRAS CLASSES”), QUE JUNTAMENTE COM A REGRA DE FORMAÇÃO DE
CONJUNTOS CHAMADA “AXIOMA DA ESCOLHA”, SUGERIDA POR ZERMELO, EM 1904 (QUE
DIZ QUE: “EXISTE O CONJUNTO, FORMADO PELA ESCOLHA DE UM ELEMENTO, EM CADA UM
DE (INFINITOS) CONJUNTOS NÃO VAZIOS DADOS”), QUE POSTULA UMA EXIXTÊNCIA NÃO
CONSTRUTIVA , TERIA NOVAMENTE GERADO PROPRIEDADES INESPERADAS E NÃO INTUITIVAS,
E REFORÇADO A REAÇÃO DOS CHAMADOS “CONSTRUTIVISTAS”, QUE DESDE O FINAL DO
SÉCULO XIX PREFERIAM ENTENDER AS CLASSES INFINITAS COMO “COLEÇÕES INESGOTÁVEIS
DE ELEMENTOS” (DE MODO ANÁLOGO AO CONJUNTO DOS NÚMEROS NATURAIS, QUE COM A
REGRA DE “SOMAR UM” AOS NÚMEROS OBTIDOS, PERMITE OBTER TANTOS NÚMEROS
QUANTOS NECESSÁRIOS, SEM ESGOTÁ-LOS), MAS QUE, TODAVIA, NÃO PREVALECERAM;
-A CONSTRUTIVIDADE FINITA MOSTROU-SE LIMITADA PARA A ANÁLISE;
- NA ANÁLISE CONSTRUTIVA DE ERRETT BISHOP, SÃO DESCARTADOS: O AXIOMA DA ESCOLHA
E O PRINCÍPIO DO TERCEIRO EXCLUÍDO (UMA PROPOSIÇÃO É VERDADEIRA OU SUA NEGAÇÃO
É VERDADEIRA) IMPEDINDO AS DEMONSTRAÇÕES POR ABSURDO, E A EXISTÊNCIA DE UM
ELEMENTO É LIMITADA À EXIBIÇÃO DE UMA SEQUÊNCIA DE ELEMENTOS CONSTRUTÍVEIS QUE
CONVERGEM PARA ESSE ELEMENTO (O QUE TORNA A TEORIA LABORIOSA), MAS OS
ANALISTAS EM GERAL, TÊM PREFERIDO CONTEXTOS QUE PERMITEM EXISTÊNCIAS MAIS
GERAIS (MESMO NÃO CONSTRUTÍVEIS), PARA EM SEGUIDA, BUSCAREM MÉTODOS
NUMÉRICOS APROXIMADOS DAS SOLUÇÕES;

177
AS LIMITAÇÕES DOS SISTEMAS FORMAIS
68- NA INTENÇÃO DE ESCLARECER AS DIVERSAS QUESTÕES ENVOLVIDAS, TENTOU-SE
APRESENTAR, PELO MÉTODO AXIOMÁTICO, (PRIMEIRO SEPARADAMENTE PARA DEPOIS
SEREM COMPOSTAS), TEORIAS (CONTENDO PRINCÍPIOS E SUAS CONSEQUÊNCIAS), PARA CADA
UM DOS COMPONENTES FUNDAMENTAIS DAS TEORIAS MATEMÁTICAS: METALINGUAGEM,
LÓGICA SUBJACENTE, LINGUAGEM FORMAL, TEORIAS DE FUNDAMENTAÇÃO, TEORIAS
MATEMÁTICAS (PROPRIAMENTE DITAS), E ESTRUTURAS ABSTRATAS, ALÉM DE TEORIA DE
MODELOS E INTERPRETAÇÕES DAS TEORIAS FORMAIS, TENDO A FORMALIDADE COMO
CRITÉRIO DE VALIDAÇÃO:

- EM 1920, D.HILBERT SUGERIU UM PROGRAMA DE PESQUISAS MATEMÁTICAS CONHECIDO


COMO “PROGRAMA DE HILBERT”, NUMA LINHA CONHECIDA COMO FORMALISMO; DE
ACORDO COM SEU PROGRAMA, ENUNCIADO NO 2º PROBLEMA, HILBERT SUGERIU REDUZIR
TODA A MATEMÁTICA A UM CONJUNTO FINITO, COMPLETO (PODE-SE DEMONSTRAR NA
TEORIA QUE TODA PROPOSIÇÃO VÁLIDA, É VERDADEIRA OU FALSA) E CONSISTENTE (NÃO
HÁ, NA TEORIA, PROPOSIÇÕES VERDADEIRAS E FALSAS AO MESMO TEMPO) DE AXIOMAS;

-EM 1932, O MATEMÁTICO ALEMÃO K.GÖDEL, DEMONSTROU DOIS TEOREMAS (DE


INCOMPLETUDE OU INDECIBILIDADE): 1) EM TODA TEORIA AXIOMÁTICA, SUFICIENTEMENTE
AMPLA PARA CONTER A ARITMÉTICA (OS NÚMEROS NATURAIS E SUAS OPERAÇÕES E
CONSTRUÇÕES), PODEM SER FORMULADAS PROPOSIÇÕES, QUE SÃO INDECIDÍVEIS NA
TEORIA (OU SEJA, A DECISÃO DE QUE SÃO VERDADEIRAS OU FALSAS “DENTRO DA TEORIA”,
CONDUZ A UMA CONTRADIÇÃO);
2) NAS MESMAS HIPÓTESES ACIMA, A DECISÃO DA CONSISTÊNCIA DA TEORIA, CONDUZ A
UMA CONTRADIÇÃO (MESMO QUE A TEORIA SEJA CONSISTENTE, CASO EM QUE, TERIA QUE
SER PROVADA EM OUTRO SISTEMA DE AXIOMAS);
GÖDEL CONSEGUIU ARITMETIZAR A CONSISTÊNCIA, E TRANSCREVÊ-LA DENTRO DA TEORIA
(OU SEJA, OBTER UMA FÓRMULA NA TEORIA, QUE CORRESPONDE À SUA CONSISTÊNCIA,
PARA, EM SEGUIDA, DEMONSTRAR QUE TAL FÓRMULA É INDECIDÍVEL DENTRO DA TEORIA);(O
QUE IMPOSSIBILITA O PROGRAMA DE HILBERT); (A PROVA DE GÖDEL-E.NAGEL E J.NEWMAN-
EDITORA PERSPECTIVA-COLEÇÃO DEBATES);
POR EXEMPLO, A CONSISTÊNCIA DOS AXIOMAS DE PEANO, PODE SER PROVADA NO SISTEMA
ZFC (ZERMELO-FRAENKEL, COM O AXIOMA DA ESCOLHA);
- G. CANTOR APRESENTOU A TEORIA DOS CONJUNTOS, E MOSTROU QUE CONJUNTOS
INFINITOS NÃO TEM A MESMA POTÊNCIA (TAMANHO); POR EXEMPLO, O CONJUNTO DOS
NÚMEROS RACIONAIS É ENUMERÁVEL (OU SEJA, PODE SER POSTO EM CORRESPONDÊNCIA
UM A UM (BIJETORA) COM O CONJUNTO DOS NÚMEROS NATURAIS, ENQUANTO QUE PARA O
CONJUNTO DOS NÚMEROS REAIS, TAL CORRESPONDÊNCIA NÃO EXISTE); DESCOBRIU VÁRIOS
PARADOXOS, E TENTOU PROVAR A “HIPÓTESE DO CONTÍNUO” (OU SEJA, QUE NÃO EXISTEM
CONJUNTOS DE POTÊNCIA INTERMEDIÁRIA ENTRE OS CONJUNTOS ENUMERÁVEIS E OS
CONTÍNUOS); EM 1963, P.COHEN DEMONSTROU A INDEMONSTRABILIDADE DESTA
HIPÓTESE NO SISTEMA ZFC DE AXIOMAS;

- SEGUNDO UM ENTENDIMENTO, OS TEOREMAS DE GÖDEL, NÃO DEIXAM DE SER


INTUITIVOS, VISTO QUE, À SEMELHANÇA DA PROVA DE RUSSELL: PROPOSIÇÕES QUE

178
ENVOLVEM TODA A TEORIA (COMO A SUA CONSISTÊNCIA), QUE SÃO ENUNCIADOS DA
METATEORIA, PODEM SER TRANSCRITAS NA TEORIA, MAS A DECISÃO DE QUE SÃO
VERDADEIRAS OU FALSAS (COM RECURSOS SOMENTE DA TEORIA), PODE GERAR
CONTRADIÇÃO;

- OBSERVAÇÃO: EM SÍNTESE, A QUASE TOTALIDADE DOS MATEMÁTICOS CONCORDA QUE:


-AS TEORIAS MATEMÁTICAS POSSUEM UM CONTEÚDO, QUE PODERIA SER JUSTIFICADO PELA
SUA UTILIDADE (VISTO QUE, ALTERAÇÕES NA FORMALIDADE DE TEORIAS, PODEM PRODUZIR
OUTRAS TEORIAS QUE NÃO SÃO OBJETO DE ESTUDOS);
- O DISCURSO MATEMÁTICO É HÍBRIDO , ENVOLVENDO A LÍNGUA FALADA E MAIOR OU
MENOR FORMALIDADE, E SERVE PARA ORGANIZAR (INCLUINDO ESCLARECER), TRANSMITIR E
GUARDAR O SEU CONHECIMENTO;
- A GRANDE MAIORIA DOS MATEMÁTICOS DE RENOME POSSUEM CONHECIMENTO DO
ALCANCE E LIMITAÇÕES DAS TEORIAS E SEUS MÉTODOS, INTUIÇÕES DAS PROPRIEDADES COM
POSSIBILIDADE DE SEREM VERIFICADAS (OU NÃO) E DOS MÉTODOS PARA SUA ABORDAGEM,
ALÉM DE EXEMPLOS E CONTRA-EXEMPLOS;

AS ESTRUTURAS ABSTRATAS E SUAS LIMITAÇÕES

69- JÁ À PARTIR DO SÉCULO XVIII, E PRINCIPALMENTE NO SÉCULO XIX E INÍCIO DO SÉCULO


XX, AS ESTRUTURAS SUBJACENTES (CONCEITOS E PROPRIEDADES ESSENCIAIS) À RESOLUÇÃO
DOS PROBLEMAS ABORDADOS FORAM SENDO GRADATIVAMENTE RECONHECIDAS, O QUE
RESULTOU NA ABORDAGEM DAS “ESTRUTURAS ABSTRATAS”, ONDE SE TRABALHA COM
CONJUNTOS CUJA NATUREZA DOS ELEMENTOS NÃO É ESPECIFICADA, PELO MÉTODO
AXIOMÁTICO ( ONDE À PARTIR DE PROPRIEDADES RECONHECIDAS COMO BÁSICAS, INFERE-SE
OUTRAS, QUE DELAS DERIVAM LOGICAMENTE); ASSIM:

70- NA ABORDAGEM DE UM DOS DESAFIOS DA ÉPOCA, A RESOLUÇÃO DAS EQUAÇÕES DE 5º


GRAU POR RADICAIS (QUATRO OPERAÇÕES + RADICIAÇÃO), E.GALOIS, EM 1832, LANÇOU AS
BASES DO QUE VEIO A SER A TEORIA DE GALOIS, QUE ESCLARECE PORQUE AS EQUAÇÕES
ALGÉBRICAS (POLINÔMIOS IGUALADOS A ZERO) DE GRAU ≤ 4 PODEM SER RESOLVIDAS
ATRAVÉS DE UMA FÓRMULA EXPLÍCITA POR RADICAIS, E AS DE GRAU ≥ 5, NÃO; ELUCIDA
TAMBÉM, PORQUE OS PROBLEMAS CLÁSSICOS GREGOS DE CONSTRUÇÃO COM RÉGUA E
COMPASSO (TRISSECÇÃO DE UM ÂNGULO, QUADRATURA DO CÍRCULO E DUPLICAÇÃO DO
CUBO) SÃO IMPOSSÍVEIS;
- OBSERVAÇÃO: COMO FOI MENCIONADO, OS MATEMÁTICOS, ADIANTANDO-SE ÀS PROVAS,
JÁ VINHAM TRABALHANDO COM NÚMEROS REAIS, PARA AS QUESTÕES MÉTRICAS, DESDE
EUCLIDES, E COM SÉRIES INFINITAS E INTEGRAIS (ÍTEM 50);
-OS GRUPOS (QUE SÃO CONJUNTOS COM UMA OPERAÇÃO, SATISFAZENDO PROPRIEDADES
PARA PERMITIR ALGUNS CÁLCULOS ARITMÉTICOS: ASSOCIATIVIDADE, ELEMENTO NEUTRO E
ELEMENTO SIMÉTRICO), FORAM RECONHECIDOS E ABORDADOS POR EULER, GAUSS,
LAGRANGE, RUFFINI, ABEL, GALOIS E OUTROS, EM CONEXÃO COM PROBLEMAS DA TEORIA
DOS NÚMEROS, EQUAÇÕES ALGÉBRICAS E GEOMETRIA, O TRATAMENTO UNIFICADO TEVE
INÍCIO POR VOLTA DE 1880, E A TEORIA ABSTRATA, NO INÍCIO DO SÉCULO XX;

179
NOS ESPAÇOS VETORIAIS ( V ), ALÉM DA ESTRUTURA DE GRUPO COMUTATIVO (NO QUAL,
ALÉM DAS PROPRIEDADES CITADAS, A OPERAÇÃO TAMBÉM É COMUTATIVA), HÁ A OPERAÇÃO
DE PRODUTO POR ESCALAR (EM ANÁLISE, OU ) , QUE A CADA ESCALAR λ , E
VETOR x V, ASSOCIA O VETOR λx V , DE MODO QUE: FIXANDO x V,E
VARIANDO λ EM , OBTEMOS UMA “CÓPIA DE EM V” , NA DIREÇÃO DO VETOR x ,
ALÉM DE OUTRAS PROPRIEDADES OPERACIONAIS;

- EM ÁLGEBRA CONSIDERA-SE O CORPO DOS NÚMEROS ALGÉBRICOS (FORMADO PELAS RAÍZES


DE POLINÔMIOS A COEFICIENTES RACIONAIS), E PROVA-SE QUE É UM CONJUNTO

ENUMERÁVEL; OCORRE QUE NÚMEROS IMPORTANTES COMO e , π,


, , SÃO TRANSCENDENTES ( NÂO ALGÉBRICOS),
MOSTRANDO QUE OPERAÇÕES INFINITAS (COMO AS SÉRIES) À PARTIR DE NÚMEROS
ALGÉBRICOS, PODEM CONDUZIR A NÚMEROS TRANSCENDENTES; ALÉM DISSO AO
COMPLETARMOS O CORPO DOS NÚMEROS RACIONAIS JÁ SE OBTEM O DOS NÚMEROS
REAIS ;

71- OS GEÔMETRAS (PRINCIPALMENTE RIEMANN, PEANO, J.DARBOUX E OUTROS)


BUSCARAM APLICAR O CÁLCULO DIFERENCIAL E INTEGRAL E ÁLGEBRA LINEAR, AOS
PROBLEMAS GEOMÉTRICOS, DESENVOLVENDO A GEOMETRIA DIFERENCIAL:
-AS GEOMETRIAS NÃO EUCLIDIANAS SURGIRAM NA DÉCADA DE 1820, COM OS TRABALHOS
DE J.BOLYAI, N.LOBACHEVSKII E C. GAUSS (HIPERBÓLICA), QUANDO DESCONFIARAM QUE NÃO
ERA POSSÍVEL DEMONSTRAR O 5º POSTULADO (DAS PARALELAS), À PARTIR DOS OUTROS 4,
COMO PRETENDERAM VÁRIOS MATEMÁTICOS DESDE A ÉPOCA DOS GREGOS; PODEM SER
OBTIDAS DA GEOMETRIA EUCLIDIANA, SUBSTITUINDO-SE O POSTULADO DAS PARALELAS, DE
MODO QUE, PARA A ELÍPTICA (POR UM PONTO NÃO PERTENCENTE A UMA RETA DADA, NÃO
PASSA NENHUMA PARALELA À RETA DADA, COMO POR EXEMPLO UMA SUPERFÍCIE ESFÉRICA,
SENDO A SOMA DOS ÂNGULOS INTERNOS DOS TRIÂNGULOS MAIOR DO QUE 180 GRAUS), E
PARA A HIPERBÓLICA (PASSAM INFINITAS PARALELAS, SENDO A SOMA DOS ÂNGULOS
INTERNOS DOS TRIÂNGULOS MENOR DO QUE 180 GRAUS);

180
-EM 1854, G.RIEMANN APRESENTOU UM TRATAMENTO UNIFICADO PARA AS GEOMETRIAS
EUCLIDIANA E NÃO EUCLIDIANAS, NA CHAMADA GEOMETRIA RIEMANNIANA, NA QUAL, EM
TODO PONTO, O ESPAÇO TANGENTE POSSUI UMA MÉTRICA POSITIVA-DEFINIDA (MÉTRICA
RIEMANNIANA), QUE POSTERIORMENTE FOI GENERALIZADA À GEOMETRIA PSEUDO-
RIEMANNIANA, NA QUAL A MÉTRICA NÃO PRECISA SER POSITIVA-DEFINIDA, E ENGLOBA A
GEOMETRIA DO ESPAÇO-TEMPO DA RELATIVIDADE GERAL (ONDE O TRANSPORTE PARALELO
DE VETORES TANGENTES PERMITE A DERIVAÇÃO);
- EM 1913, H. WEYL APRESENTOU A DEFINIÇÃO MODERNA, PARA UMA VARIEDADE
DIFERENCIÁVEL DE DIMENSÃO 2 ; E,
- EM 1936, H.WHITNEY DEFINIU AS VARIEDADES DIFERENCIÁVEIS EM TERMOS DE CARTAS
LOCAIS, OU SEJA: UM ESPAÇO TOPOLÓGICO DE HAUSDORFF, NO QUAL TODO PONTO POSSUI
UMA VIZINHANÇA HOMEOMORFA A UM ABERTO DO Rn , PARA ALGUM n FIXO; PARA
TRANSPORTAR A ESTRUTURA DIFERENCIÁVEL DO Rn PARA A VARIEDADE, PEDE-SE QUE:
QUANDO DUAS CARTAS SE INTERCEPTAM, A COMPOSIÇÃO DE UMA DELAS COM A INVERSA
DA OUTRA (QUE É UMA APLICAÇÃO DE UM ABERTO DO Rn NO Rn ) SEJA DIFERENCIÁVEL;

72- OS ESPAÇOS DE SEQUÊNCIAS E FUNÇÕES FORAM CONSIDERADOS EM CONEXÃO COM A


ABORDAGEM DE PROBLEMAS EQUACIONADOS POR EQUAÇÕES DIFERENCIAIS E INTEGRAIS,
PRINCIPALMENTE POR VOLTERRA, ARZELA, HADAMARD, CANTOR, LEBESGUE E OUTROS, E
FORAM SENDO GRADATIVAMENTE GENERALIZADOS:

-EM 1888, PEANO DEFINIU OS ESPAÇOS VETORIAIS;


- EM 1906, M. FRECHÉT INTRODUZIU OS “ESPAÇOS MÉTRICOS”, E É CONSIDERADO O
INICIADOR DO ESTUDO DOS ESPAÇOS ABSTRATOS, QUE, SEGUNDO UMA INTERPRETAÇÃO,
SURGIRAM COM A INTENSÃO DE SIMPLIFICAR E REORGANIZAR OS RESULTADOS DA ANÁLISE,
QUE NO FINAL DO SÉCULO XIX SE ENCONTRAVA UM TANTO ELABORADA (HARD ANALYSIS);
- EM 1909, D. HILBERT INTRODUZIU O CONCEITO DE “ESPAÇO EUCLIDIANO DE DIMENSÃO
INFINITA”, POSTERIORMENTE CHAMADOS DE “ESPAÇOS DE HILBERT”;
- EM 1914, F.HAUSDORFF INTRODUZIU A NOÇÃO DE “ESPAÇO TOPOLÓGICO DE
HAUSDORFF”;
- EM 1922, K.KURATOWSKI INTRODUZIU A NOÇÃO DE “ESPAÇO TOPOLÓGICO”;
- EM 1928, FRECHÉT CHAMOU OS ESPAÇOS DE SEQUÊNCIAS , DE “ESPAÇOS DE BANACH”,
E POR VOLTA DE 1932, S.BANACH INTRODUZIU OS ESPAÇOS VETORIAIS NORMADOS, QUE

181
FORAM CHAMADOS “ESPAÇOS DE BANACH” , PARA POSTERIORMENTE SEREM INTRODUZIDOS
OS ESPAÇOS VETORIAIS TOPOLÓGICOS;

OBSERVAÇÃO: PARA VETORES REPRESENTADOS POR FLEXAS ( ), COSTUMA-SE


DEFINIR O CONCEITO DE PRODUTO ESCALAR DOS VETORES A e B , POR
QUE ENGLOBA OS CONCEITOS GEOMÉTRICOS DE
MÓDULO E ÂNGULO ( ORTOGONALIDADE, PROJEÇÃO, ETC.), E APRESENTA PROPRIEDADES
OPERACIONAIS (ALGÉBRICAS, SENDO UMA FORMA BILINEAR, POSITIVA E DEFINIDA):

Produto escalar de vetores. Percebe-se que ||A||•cos(θ) é a projeção de A em B.

PARA SE OBTER CONCEITOS E PROPRIEDADES TOPOLÓGICAS (CONTINUIDADE,


COMPACIDADE, ETC.) E GEOMÉTRICAS (DISTÂNCIA, ORTOGONALIDADE, ETC.) NOS ESPAÇOS
VETORIAS EM GERAL, INVERTE-SE O PROCESSO, E PEDE-SE QUE ELE TENHA UM PRODUTO

INTERNO, OU SEJA: UMA FORMA ( , = ou )


SESQUILINEAR (LINEAR NA 1ª VARIÁVEL, E

para todos

para todos e ).
POSITIVA DEFINIDA ( e igual a zero se e somente se v = 0 );
NUM ESPAÇO VETORIAL COM PRODUTO INTERNO, PODE-SE DEFINIR A NORMA DE UM
VETOR v POR

182
E, EM PREFERÊNCIA À NOÇÃO DE ÂNGULO, OS CONCEITOS DE ORTOGONALIDADE

( Dizemos que dois vetores u e v de V são ortogonais se, e somente se, )


E PROJEÇÃO ORTOGONAL (QUE É O PRODUTO INTERNO, SE ESCOLHERMOS O VETOR DE
DIREÇÃO COM NORMA IGUAL A 1 );

DIZEMOS QUE UMA FAMÍLIA OU SISTEMA DE VETORES B= (v ) i I B DE V É

ORTONORMAL, SE , em que

δij = 1, se i = j
δij = 0, se i ≠ j

OU SEJA, SE OS VETORES TEM TODOS NORMA IGUAL A 1 , E SÃO DOIS A DOIS ORTOGONAIS;
E, QUE É UMA BASE DE V , SE TODO VETOR DE V , SE EXPRESSA DE UM ÚNICO MODO
COMO COMBINAÇÃO LINEAR FINITA DE ELEMENTOS DE B

COM A VANTAGEM DE: UMA VEZ FIXADA UMA BASE, PODERMOS, AO INVÉS DE TRABALHAR
COM OS VETORES, TRABALHAR COM OS SEUS COEFICIENTES, QUE SÃO ESCALARES;

AO ABORDARMOS ESPAÇOS DE DIMENSÃO INFINITA, PODERÍAMOS LEMBRAR QUE UMA,


DENTRE AS DIVERSAS FORMAS EQUIVALENTES DO AXIOMA DA ESCOLHA, QUE PODE SER
DERIVADA DO LEMA DE ZORN, ENUNCIA QUE TODO ESPAÇO VETORIAL POSSUI UMA BASE
( ALGÉBRICA), MAS QUE, TODAVIA, NÃO É OPERACIONAL, VISTO QUE AS BASES ALGÉBRICAS
DESSES ESPAÇOS TÊM SEMPRE CARDINALIDADE MAIOR DO QUE ENUMERÁVEL (POR
EXEMPLO, DADO UM SISTEMA ORTONORMAL ENUMERÁVEL B DE VETORES EM V, O VETOR
OBTIDO POR COMBINAÇÃO LINEAR ENUMERÁVEL DE B , COM COEFICIENTES QUE SÃO OS
INVERSOS DOS QUADRADOS DOS NÚMEROS NATURAIS (OU SEJA, DA SÉRIE HARMÔNICA DE
ORDEM 2), CONVERGE EM V, E NÃO PODE SER OBTIDO COMO COMBINAÇÃO LINEAR FINITA
DOS VETORES DE B, SOB PENA DE DUPLA REPRESENTAÇÃO); OCORRE QUE A EXTENSÃO
CONCEITOS E RESULTADOS PARA ESSES ESPAÇOS, MOTIVOU O CONCEITO DE “SISTEMA
ORTONORMAL COMPLETO, OU BASE HILBERTIANA”, NA QUAL A COMBINAÇÃO LINEAR
MENCIONADA ACIMA, PODE SER INFINITA;

OBSERVAÇÃO: O LEMA DE ZORN PODE SER UTILIZADO, PARA A DEMONSTRAÇÃO DE QUE


TODO SISTEMA ORTONORMAL PODE SER COMPLETADO A UM SISTEMA ORTONORMAL
MAXIMAL;
POR EXEMPLO (com notação a uniformizar), AS FUNÇÕES OU, USANDO A

FÓRMULA DE EULER ,

183
SUAS EQUIVALENTES FORMAS TRIGONOMÉTRICAS, FORMAM UM SISTEMA ORTOGONAL
COMPLETO DO ESPAÇO L2[0; 2 π] , DAS FUNÇÕES PERIÓDICAS, COM PERÍODO 2 π ,
DEFINIDAS NO INTERVALO [0 , 2 π ] , A VALORES COMPLEXOS (OU REAIS), REDUZINDO O
SEU ESTUDO À SEQUÊNCIA DOS SEUS COEFICIENTES NA EXPANSÃO (SÉRIE DE FOURIER), NA
NORMA DO ESPAÇO L2[0; 2 π], QUE SÃO OS COEFICIENTES DE FOURIER, E PERTENCEM AO

ESPAÇO DAS SEQUÊNCIAS NUMÉRICAS DE QUADRADO SOMÁVEL ;

Sendo:

Forma Complexa:

onde:

Forma Trigonométrica:

onde:

CONVÉM NOTAR QUE OS COEFICIENTES NA FORMA COMPLEXA, SÃO AS TRANSFORMADAS DE


FOURIER

QUANDO f(t) SE ANULA FORA DO INTERVALO [ c , c + 2L ] ;

184
73- OBSERVAÇÕES: 1) OS ESPAÇOS TOPOLÓGICOS (NOS QUAIS TODO PONTO ADMITE UM
SISTEMA DE VIZINHANÇAS, QUE FORNECEM AS PROXIMIDADES DO PONTO, POR EXEMPLO, AS
BOLAS ABERTAS DE CENTRO x E RAIO DELTA
DOS ESPAÇOS MÉTRICOS) SÃO ENTENDIDOS COMO O CONTEXTO MAIS GERAL, ONDE SE PODE
DEFINIR A NOÇÃO DE CONTINUIDADE, CONVERGÊNCIA, COMPACIDADE, ETC.;
A TÍTULO DE EXEMPLO, OS MATEMÁTICOS VINHAM TRABALHANDO COM ESPAÇOS
TOPOLÓGICOS DE HAUSDORFFF (ONDE CADA DOIS PONTOS PODEM SER “SEPARADOS” POR
VIZINHANÇAS QUE NÃO SE INTERCEPTAM), QUANDO, EM MEADOS DA DÉCADA DE 1960,
SURGIU UM EXEMPLO SIGNIFICATIVO, PROVENIENTE DA TOPOLOGIA ALGÉBRICA, DE UM
ESPAÇO TOPOLÓGICO QUE NÃO É DE HAUSDORFF, APÓS O QUE, SURGIRAM VÁRIOS
“AXIOMAS DE SEPARAÇÃO”, TOTALIZANDO MAIS DE VINTE;
2) NA CONSIDERAÇÃO DE ESPAÇOS ABSTRATOS COM DUAS ESTRUTURAS, PEDE-SE A
COMPATIBILIDADE DESSAS ESTRUTURAS, POR EXEMPLO, NOS ESPAÇOS VETORIAIS
TOPOLÓGICOS, PEDE-SE QUE AS OPERAÇÕES DE SOMA E PRODUTO POR ESCALAR SEJAM
CONTÍNUAS; TAMBÉM, COMO PROPRIEDADES BÁSICAS, É REQUERIDO QUE AS QUATRO
OPERAÇÕES E A COMPOSIÇÃO COM FUNÇÕES CONTÍNUAS, SEJAM CONTÍNUAS;
3) EM GERAL, EQUAÇÕES RELEVANTES APRESENTAM RESULTADOS ESPECÍFICOS, QUE NÃO
DERIVAM DOS RESULTADOS GERAIS VÁLIDOS NAS ESTRUTURAS ABSTRATAS (64 g);

74- O PROGRAMA DE HILBERT, INDUZIU À FORMALIZAÇÃO DE DIVERSOS RAMOS DA


MATEMÁTICA, CONSEGUINDO, MESMO APÓS OS TEOREMAS DE GÖDEL, A ADESÃO DO
CHAMADO “GRUPO BOURBAKI”, FORMADO EM 1934, À LINHA FORMALISTA;
-OCORRE QUE, O ÂNIMO INICIAL, MOTIVADO PELO FATO DE SE TER CONSEGUIDO:
>ORGANIZAR CONCEITOS, PRINCÍPIOS E PROPRIEDADES FUNDAMENTAIS RELACIONADAS, E
OBTER ALGUMA PADRONIZAÇÃO DE NOMENCLATURA E NOTAÇÃO;
> GENERALIZAR PARA AS ESTRUTURAS ABSTRATAS, OS RESULTADOS CONQUISTADOS NOS
NÍVEIS PARTICULARES DE ORIGEM, COM A ELUCIDAÇÃO DE SUAS HIPÓTESES, EM SUAS
FORMAS EQUIVALENTES; E
>UM MELHOR ESCLARECIMENTO, PARA OS SEUS INICIADOS, DAS PROPRIEDADES ENVOLVIDAS
NA ENUNCIAÇÃO DOS PROBLEMAS ABERTOS; ,
SUSTENTOU O PENSAMENTO DE ALGUNS PESQUISADORES (QUE ALCANÇOU ATÉ O INÍCIO DA
DÉCADA DE 70), DE QUE: “TAIS TEORIAS ABSTRATAS FOSSEM OS REAIS OBJETOS DA
MATEMÁTICA, GERANDO SEUS PRÓPRIOS PROBLEMAS ABERTOS, COM AUTONOMIA EM
RELAÇÃO ÀS MOTIVAÇÕES DE ORIGEM (QUE SERIAM RELEGADAS A MEROS EXEMPLOS DE
APLICAÇÃO)”, OU SEJA, O PONTO DE VISTA DA “MATEMÁTICA PELA MATEMÁTICA”, EM
OPOSIÇÃO AO ENTENDIMENTO TRADICIONAL DE QUE: “OS OBJETOS DA MATEMÁTICA,
FORAM OS PROBLEMAS ABORDADOS, QUE, COM OS RESPECTIVOS INSTRUMENTAIS
MATEMÁTICOS DESENVOLVIDOS, CONSEGUIRAM SER FORMALIZADOS OU EQUACIONADOS
(PRINCIPALMENTE ATRAVÉS DAS EQUAÇÕES DIFERENCIAIS, QUE ESSAS TEORIAS É QUE SE
CONSTITUEM EM INSTRUMENTAL AUXILIAR PARA A SUA ABORDAGEM)” , PONTO DE VISTA
ESSE, REFORÇADO PELA CONSTATAÇÃO DE QUE:
-EM SUA GRANDE MAIORIA, OS PROBLEMAS MAIS RELEVANTES, PROVENIENTES DAS
APLICAÇÕES, APRESENTAM RESULTADOS ESPECÍFICOS QUE NÃO DERIVAM OU DECORREM
DA TEORIA ABSTRATA,;
-DE FATO, A AMPLIAÇÃO DE CONTEXTO NÃO RESOLVEU AS QUESTÕES PENDENTES MAIS

185
RELEVANTES; E QUE
-MUITAS GENERALIZAÇÕES, AO AMPLIAREM O CONTEXTO, MODIFICAM DE MODO
ESSENCIAL OS PROBLEMAS ORIGINAIS. Por exemplo, embora a derivação para funções com
variáveis e valores complexos seja formalmente a mesma, apresenta propriedades
essencialmente distintas das satisfeitas para funções com variável real.

75-ENSINO/APRENDIZADO

Russian/American mathematician SOLOMON LEFSCHETZ (whose book L'analysis situs


et la géométrie algébrique from 1924, though opaque foundationally given the current
technical state of homology theory) came out of retirement in 1958, because of the
launch of Sputnik, to augment the mathematical component of Glenn L. Martin
Company’s Research Institute for Advanced Studies (RIAS) in Baltimore,
Maryland. His team became the world's largest group of mathematicians devoted to
research in nonlinear ordinary differential equations.[2] It left RIAS in 1964 to form
the Lefschetz Center for Dynamical Systems at Brown University. In accordance
with Professor Jack Hale, Lefschetz was one of the few people in the US who
was somewhat familiar with the contributions of the Russian community to
differential equations and dynamical systems. He was responsible for bringing
much of the Russian literature to the attention of the `Western' countries.
In physics, also as a result of the launch of Sputnik, came out:
. The Feynman Lectures on Physics, a 1964 physics textbook by Richard P.
Feynman, Robert B. Leighton and Matthew Sands, based upon the lectures given by
Feynman (recipient of the 1965 Nobel Prize in physics) to undergraduate students at
the California Institute of Technology during 1961–1963. .
Berkeley Physics Course, a lecture course in physics of UC Berkeley professors, first
published by Mcgraw-Hill College in 1965 (Vol. I and II).

and several other works…


MORRIS KLINE (author of Mathematical Thought From Ancient to Modern Times, Oxford
University Press, 1972 and protagonist in the curriculum reform in mathematics
education that occurred in the second half of the twentieth century), repeatedly
stressed the need to teach the applications and usefulness of mathematics rather
than expecting students to enjoy it for its own sake. Similarly, he urged that
mathematical research concentrate on solving problems posed in other fields
rather than building structures of interest only to other mathematicians.

Outro entendimento complementa o do Prof. Kline, incluindo a DIVULGAÇÃO EM BREVE


RELATO , cronológico ou não, A EXEMPLO DO PRESENTE TEXTO, que foram sugeridos
especialmente aos centros menos desenvolvidos!

Outro texto publicado à época foi o de George Simmons, Differential


Equations with Applications and Histórical Notes, Mc GrawHill, 1972.
No início da década de 70, o professor Leo Borges Vieira, consultado sobre os
caminhos do seu sucesso profissional, na sua sábia modéstia, atribui a
afirmação à bondade dos que a enunciaram, e que se considerava um aprendiz
dos ensinamentos dos mestres (em especial, Abel), que, com suas
contribuições, registraram seus nomes na história da matemática. Diante de um
mestrando, que a ele recorreu, em busca de alguma aplicação prática, de modo bem
humorado, lecionou: “Normalmente, as pessoas partem de problemas e buscam

186
soluções, mas o Sr, invertendo o processo, está trazendo uma solução, em busca de
um problema!” Dizia também que diante de certas questões, era necessário
“alisar o gato” (com o significado de refletir mais detidamente).

O BRASILEIRO DJAIRO GUEDES DE FIGUEIREDO (AWARD WINNER OF THE (INTERNATIONAL) TELESIO-


GALLILEI ACADEMY OF SCIENCE FOR 2011) PUBLICOU EM 1977, O TEXTO 'ANÁLISE DE FOURIER E
EQUAÇÕES DIFERENCIAIS PARCIAIS', COM MOTIVAÇÕES DA FÍSICA E NOTAS HISTÓRICAS DE AUTORIA
DE CARSLAW, COM AS POLÊMICAS A RESPEITO DA SOLUÇÃO DA EQUAÇÃO DA CORDA VIBRANTE, QUE
JUSTIFICARAM A PRIMEIRA FASE DO ESFORÇO DE FORMALIZAÇÃO DA ANÁLISE, NO SÉCULO XIX. O
PREFÁCIO, TRAZ: "...O espírito que nos guiou na ordenação da matéria do texto foi o de
desenvolver o instrumental matemático à proporção em que ele se fazia necessário.
Assim, decidimos iniciar o presente trabalho apresentando um problema da Física
Matemática. A seguir, durante a resolução do mesmo, fomos motivando a introdução
de certos conceitos e justificando certos teoremas. Pareceu-nos que esse ponto de
vista é particularmente instrutivo para o estudante. Um tal procedimento
responde por si mesmo, àquela preocupação do aluno sobre a utilidade das
teorias matemáticas que estuda, mostrando como e por que elas foram
criadas...."

Interview with AMS President Felix Browder (honorary degree by the


University of Paris in 1990 and the recipient of the 1999 National Medal of Science)
AMS president Felix Browder 346 NOTICES OF THE AMS VOLUME 46, NUMBER 3
(Ccom ênfases minhas).

….Notices: What can the AMS do in the area of graduate education?

Browder: Mathematics over the last fifty years has become highly specialized,
and unfortunately the specialties are so divorced from each other that
sometimes they don’t have the appropriate degree of mutual understanding and
interaction. This is a very serious question that concerns graduate education.
Everybody is conscious of it, but nobody knows what to do about it. We are
training people following the principle enunciated by Carl Becker, who said that a
specialist is one who knows more and more about less and less until he knows
everything about nothing. Unfortunately, this is a principle which, in order to
survive, people have to practice.

Nobody besides the AMS is going to be concerned with graduate education in


mathematics, and certainly the AMS should pay attention to it. And it does, to some
degree. But it’s very difficult, because everybody is a self-proclaimed expert on
graduate education. Different departments have different styles, different ways of doing
things, and you can’t prescribe to them. But you can say that they ought to make an
effort to make sure that everybody has a broad background of knowledge of both
pure and applied mathematics. And—this is perhaps the most utopian
prescription, and I don’t know a single department in the country that is doing
this—they ought to make some effort to have their students learn something on
an informal basis about the history of mathematics. Without a sense of where
you come from, you have no sense of where you’re going. The question of
perspective depends on one’s sense of the past. I think there is a growing
realization in the mathematical community that specialization and insularity are
big problems. For example, I am on the Task Force on Membership for the Society, a
group commissioned by Arthur Jaffe. One thing to come out of some surveys done
for the Task Force is the need to emphasize the perspectives of mathematical
research in the future and try to focus attention on certain major areas of
activity, major problems. This is something I and others are trying to do through, for

187
example, the AMS meeting in the summer of the year 2000. I was rather surprised to
see this coming out so strongly in the surveys and in people’s comments, which were
not, as far as I know, related to the year 2000 meeting. We have to bring the attention
of both the mathematical community and the external publics—other scientific
disciplines, as well as the intellectual public and the general public—to the fact that
mathematics is an enterprise with enormous perspectives, in terms of its own
objectives and its impact on other forms of knowledge. There has been an enormous
growth in the practical importance of mathematics in the world, as represented by the
computer revolution and the necessity of analysis of complex systems, which
are everywhere around us. We see this in the genome project, in the mathematics
of finance, in the enormous growth in mathematical sophistication and interaction in
all the realms of theoretical physics, or even practical physics for that matter.
What we have to emphasize is that these are not just applications of known
mathematics. They are enormous growing points for mathematics. Mathematics
does no good by trying to pretend it is insulated from these things, because
these are where the vital areas of activity are. And this is not surprising. It’s a
reversion to what has been true in the past. It was just a short period of about
twenty or thirty years in which mathematicians had the delusion that
mathematics could be totally separated from other fields of human knowledge
and activity.

QUANTO À DIDÁTICA, CONSTATOU-SE QUE NAS APRESENTAÇÕES EXCESSIVAMENTE FORMAIS, AS


IDÉIAS, E MESMO OS CONTEÚDOS, FICAM “ENVOLTOS PELA FORMALIDADE”, E MUITAS VEZES NÃO SÃO
ALCANÇADOS PELOS ALUNOS; NESSA DIREÇÃO, L.L.LANGLEY e E.CHERASKIN SUGEREM QUE AS
EXPOSIÇÕES DIDÁTICAS CONTENHAM: .
“- UMA APRESENTAÇÃO DO QUE SERÁ EXPOSTO; .
- A EXPOSIÇÃO DO ASSUNTO; .
- UM RESUMO DO QUE FOI APRESENTADO; .
- ILUSTRAÇÕES (CAPAZES DE ECONOMIZAR MILHARES DE PALAVRAS); e .
- REPETIÇÃO (SEM DÚVIDA, ESSENCIAL AO APRENDIZADO).”

AO QUE FOI ACRESCENTADO: .


- QUE A APRESENTAÇÃO SE INICÍE PELOS EXEMPLOS REPRESENTATIVOS, SEJA MAIS EXTENSA,
MOTIVADORA, EM LINGUAGEM DE DIVULGAÇÃO (OU DIVULGAÇÃO CIENTÍFICA, CONFORME O CASO),
O MAIS AUTOSSUFICIENTE POSSÍVEL, e FORNEÇA “VISÃO GERAL”(OU SEJA, LOCALIZE O ASSUNTO EM
CONTEXTO MAIS GERAL, OU MAPA); e
- QUE, PARALELAMENTE À EXPOSIÇÃO, SEJA ELABORADO UM “BREVE RELATO” (RESUMO
AUTOSSUFICIENTE), QUE JÁ SERIA UM RESUMO (PROPORCIONANDO ASSIM, TRÊS MENÇÕES DOS
ITENS PRINCIPAIS).

76- OS USUÁRIOS DA MATEMÁTICA, PARA OS QUAIS A MATEMÁTICA É VISTA COMO


FERRAMENTA, PREFERIRIAM, POR RAZÕES PRÁTICAS E DE EFICIÊNCIA, QUE OS MATEMÁTICOS
LHES FORNECESSEM CONTEXTOS PADRONIZADOS ACESSÍVEIS, MESMO QUE SIMPLIFICADOS,
NOS QUAIS PUDESSEM DESENVOLVER SEUS CÁLCULOS E ANÁLISES, SEM A NECESSIDADE DE
INTERRUPÇÕES FREQUENTES EM SUAS ATIVIDADES PARA ABORDAR QUESTÕES TEÓRICAS
CONCERNENTES APENAS A ELES (MATEMÁTICOS);
NESSA DIREÇÃO, POR EXEMPLO, NÃO SERIA MAIS INTERESSANTE A ESSES USUÁRIOS,
INCLUSIVE AOS ALUNOS DE LICENCIATURA, CONSTRUIR ESPAÇOS SEQUÊNCIAS ( , ,e
PARA p=1 ),FUNÇÕES, PARTINDO DAS FUNÇÕES ELEMENTARES, FUNÇÕES QUE SE
EXPRESSAM POR SÉRIES DE POTÊNCIAS, SÉRIES TRIGONOMÉTRICAS (COM NORMAS QUE
APARECEM NAS APLICAÇÕES: L2 , L1 e SUP) NAS DISCIPLINAS BÁSICAS , E APRENDER A REGRA
SIMPLIFICADA DE FORMAÇÃO DE CONJUNTOS, DE QUE: “TODA PROPRIEDADE DEFINE O
SUBCONJUNTO DE UM CONJUNTO DADO, FORMADO PELOS ELEMENTOS QUE A

188
SATISFAZEM?”, EM VEZ DE SE GASTAR TANTA ENERGIA TENTANDO LECIONAR AS TEORIAS
DOS CONJUNTOS E FUNÇÕES ABSTRATAS ?

79- DESDE A DÉCADA DE 1950, É PRATICAMENTE UNANIMEMENTE ACEITO PELOS CIENTISTAS


QUE, OS SISTEMAS BIOLÓGICOS SÃO FORMADOS POR ÁTOMOS E MOLÉCULAS REGIDOS PELAS
LEIS DA FÍSICA, MAS COM REGULARIDADES ESPECÍFICAS;

- A TEORIA GERAL DOS SISTEMAS, INICIALMENTE FORMULADA EM 1928, PELO AUSTRÍACO


LUDWIG VON BERTALANFFY, E POR ELE MESMO AMPLIADA NA DÉCADA DE 1940 PARA
INCLUIR OS SISTEMAS BIOLÓGICOS E OUTROS, EM SUAS FORMULAÇÕES EQUIVALENTES,
CONSEGUIU UMA LINGUAGEM E CONCEITOS COMUNS A DIVERSAS ÁREAS DO
CONHECIMENTO HUMANO, POR EXEMPLO: FÍSICA, BIOLOGIA, ECOSISTEMAS, ECONOMIA,
PSICOLOGIA, CIÊNCIAS SOCIAIS, ETC.; COM PONTO DE VISTA ALTERNATIVO A ALGUMAS
TEORIAS CLÁSSICAS E COMPATÍVEL COM OUTRAS DESENVOLVIDAS À PARTIR DE MEADOS DO
SÉCULO XX, SIMPLIFICA A ABORDAGEM DE PROBLEMAS MULTIDISCIPLINARES
E, SEGUNDO O AUTOR, “NOS APROXIMA DA META DA UNIDADE DA CIÊNCIA” (TEORIA GERAL
DOS SISTEMAS-L. VON BERTALANFFY – EDITORA VOZES-2008-PG.63);

FONTE: INTERNET-PESQUISA GOOGLE- GENERAL SYSTEMS THEORY/SYSTEMS THEORY

L. VON BERTALANFFY: “Aims of a General System Theory

(1) There is a general tendency towards integration in the various sciences,


natural and social.

(2) Such integration seems to be centred in a general theory of systems.

(3) Such theory may be an important means of aiming at exact theory in the
nonphysical fields of science.

(4) Developing unifying principles running 'vertically' through the universe of


the individual sciences, this theory brings us nearer to the goal of the unity of
science.

(5) This can lead to a much-needed integration in scientific education.”

Subjects like complexity, self-organization, connectionism and adaptive systems had already
been studied in the 1940s and 1950s. In fields like cybernetics, researchers like Norbert
Wiener, William Ross Ashby, John von Neumann and Heinz von Foerster examined complex
systems using mathematics. John von Neumann discovered cellular automata and self-
reproducing systems, again with only pencil and paper. Aleksandr Lyapunov and Jules Henri
Poincaré worked on the foundations of mathematical dynamical systems (stability, periodic

189
orbits of the solutions of ordinary differential equations, and chaos theory without knowing
its expression formula ) without any computer at all. At the same time Howard T. Odum, the
radiation ecologist, recognised that the study of general systems required a language that
could depict energetics, thermodynamic and kinetics at any system scale. Odum developed a
general systems, or Universal language, based on the circuit language of electronics to fulfill
this role, known as the Energy Systems Language. Between 1929-1951, Robert Maynard
Hutchins at the University of Chicago had undertaken efforts to encourage innovation and
interdisciplinary research in the social sciences, aided by the Ford Foundation with the
interdisciplinary Division of the Social Sciences established in 1931. [13] Numerous scholars had
been actively engaged in ideas before (Tectology of Alexander Bogdanov published in 1912-
1917 is a remarkable example), but in 1937 von Bertalanffy presented the general theory of
systems for a conference at the University of Chicago.

Pioneers

 1946-1953 Macy conferences


 1948 Norbert Wiener publishes Cybernetics or Control and Communication in the
Animal and the Machine
 1954 Ludwig von Bertalanffy, Anatol Rapoport, Ralph W. Gerard, Kenneth Boulding
establish Society for the Advancement of General Systems Theory, in 1956 renamed to
Society for General Systems Research.
 1955 W. Ross Ashby publishes Introduction to Cybernetics
 1968 Ludwig von Bertalanffy publishes General System theory: Foundations,
Development, Applications

SYSTEM DYNAMICS was founded in the late 1950s by Jay W. Forrester of the MIT Sloan School
of Management with the establishment of the MIT System Dynamics Group. Jay W. Forrester
joined the faculty of the Sloan School at MIT in 1956, where he then developed what is now
System Dynamics. The first published article by Jay W. Forrester in the Harvard Business
Review on "Industrial Dynamics", was published in 1958. The members of the System
Dynamics Society have chosen 1957 to mark the occasion as it is the year in which the work
leading to that article, which described the dynamics of a manufacturing supply chain, was
done.

Developments

 1970-1980s Second-order cybernetics developed by Heinz von Foerster, Gregory


Bateson, Humberto Maturana and others
 1971-1973 Cybersyn, rudimentary internet and cybernetic system for democratic
economic planning developed in Chile under Allende government by Stafford Beer
 1970s Catastrophe theory (René Thom, E.C. Zeeman) Dynamical systems in
mathematics.
 1977 Ilya Prigogine received the Nobel Prize for his works on self-organization,
conciliating important systems theory concepts with system thermodynamics.
 1980s Chaos theory David Ruelle, Edward Lorenz, Mitchell Feigenbaum, Stephen
Smale, James A. Yorke
 1986 Context theory, Anthony Wilden
 1988 International Society for Systems Science

190
 1990 Complex adaptive systems (CAS), John H. Holland, Murray Gell-Mann, W. Brian
Arthur

The systems view is a world-view that is based on the discipline of SYSTEM


INQUIRY. Central to systems inquiry is the concept of SYSTEM. In the most general
sense, system means a configuration of parts connected and joined together by a web of
relationships. The Primer group defines system as a family of relationships among the
members acting as a whole. Von Bertalanffy defined system as "elements in standing
relationship".
EM PSICOLOGIA SOCIAL DAS ORGANIZAÇÕES, 1966, R.L.KANH e D.KATZ DEFINEM
SISTEMA ABERTO COMO UMA SUCESSÃO DE EVENTOS;

- SEGUNDO UMA FORMULAÇÃO, UM SISTEMA ABERTO É UMA SUCESSÃO DE EVENTOS


INTERRELACIONADOS, EM CONTÍNUA INTERAÇÃO COM O AMBIENTE, COM O QUAL, PODE
TROCAR: ENERGIA , INFORMAÇÕES E MATÉRIA, COM O ÍTEM ENERGIA , PODENDO INCLUIR:
A ENERGIA FÍSICA DOS SISTEMAS FÍSICOS, O CAPITAL (INVESTIMENTO, PESSOAL=CAPITAL
HUMANO, ETC.) DOS SISTEMAS ECONÔMICOS, A “ENERGIA POSITIVA” DOS SISTEMAS
PSICOLÓGICOS HUMANOS (POR EXEMPLO, QUANDO A CRENÇA DE QUE UMA TAREFA
APRESENTA PROBABILIDADE SIGNIFICATIVA DE SER BEM SUCEDIDA, AUMENTA O EMPENHO
DAS PESSOAS, DE MODO A CONTRIBUIR PARA QUE A TAREFA SEJA, DE FATO, BEM SUCEDIDA),
ETC., ALÉM DE ALGUMAS OUTRAS CONDIÇÕES; CASO CONTRÁRIO, SE O SISTEMA NÃO
INTERAGE COM O AMBIENTE, ELE É DITO SER ISOLADO OU FECHADO;
- OUTRA APRESENTAÇÃO, EMPREGA ENERGIA NUM SENTIDO GENERALIZADO, PARA
INCLUIR OS TRÊS ÍTENS ACIMA, ALÉM DE OUTRAS CONDIÇÕES;
PARA UM SISTEMA EM GERAL, DEFINE-SE OS CONCEITOS DE INPUT e OUTPUT, SISTEMAS
ESPONTÂNEOS ou CONTROLADOS (POR CONTROLES INTERNOS OU EXTERNOS), FEEDBACK
(POSITIVOS e NEGATIVOS), ETC. .

-EM GERAL OS SISTEMAS POSSUEM DUAS DINÂMICAS: A DO FUNCIONAMENTO DO SISTEMA


NO SEU AMBIENTE (QUE ENFATIZA AS INTERAÇÕES INTERNAS), E A DA SUA EVOLUÇÃO DO
SISTEMA COMO UM TODO COM O TEMPO (QUE ENFATIZA AS INTERAÇÕES COM OUTROS
SISTEMAS);

General Systems Theory - StatPac Survey Research Library 1993, David S. Walonick, Ph.D.

A system's input is defined as the movement of information or matter-energy from the


environment into the system. Output is the movement of information or matter-energy from the
system to the environment.

Negative equilibrating feedback operates within a system to restore a variable to an initial


value. It is also known as deviation-correcting feedback. Positive equilibrating feedback
operates within a system to drive a variable future from its initial value. It is also known as
deviation-amplifying feedback. Equilibrium in a system can be achieved either through negative
or positive feedback. In negative feedback, the system operates to maintain its present state. In
positive feedback, equilibrium is achieved when the variable being amplified reaches a
maximum asymtoptic limit.

-Segundo Alfred Kuhn, 1974. The Logic of Social Systems. San Francisco: Jossey-Bass,
uma propriedade comum a todos os sistemas, é que o conhecimento de uma característica de
alguma sua parte, estando ela relacionada com outras partes ou com o sistema como um todo,
permite por inferência, algum conhecimento dessas partes ou do sistema;
-For a mathematical dynamical system, S.Smale, proposed the concept of phase space, where
if the system changed, a trajectory could be drawn on paper to represent the changing state of
the system. Phase space contains the complete knowledge of a system. Each point in phase

191
space represents the state of a dynamic system at an instant in time.
– De forma análoga, em estatística,, quando do conhecimento de uma propriedade de
uma amostra (convenientemente escolhida), infere-se o resultado para toda a população;

UMA CARACTERÍSTICA IMPORTANTE DOS SISTEMAS EM GERAL, É QUE PODE NÃO


VALER A ADITIVIDADE DOS EFEITOS DAS ATUAÇÕES ISOLADAS DE SUAS PARTES;
POR EXEMPLO, UM BENEFÍCIO APARENTE, PODE NUM MOMENTO POSTERIOR,, NÃO
SE EFETIVAR, EM VIRTUDE DA REAÇÃO DE OUTRAS PARTES (P.EX. A APROVAÇÃO DE
UM ALUNO SEM O DEVIDO MÉRITO, PODE NÃO AJUDÁ-LO; OU, UM AUMENTO NOMINAL
DE SALÁRIOS PODE, NUM SEGUNDO MOMENTO, NÃO SER NECESSARIAMENTE
SEGUIDO POR UM AUMENTO DO SEU PODER DE COMPRA);

Alfred Kuhn: “Since Descartes, the "scientific method" had progressed under two related
assumptions. A system could be broken down into its individual components so that each
component could be analyzed as an independent entity, and the components could be added in
a linear fashion to describe the totality of the system. Von Bertalanffy proposed that both
assumptions were wrong (not generally valid). On the contrary, a system is characterized by the
interactions of its components and the nonlinearity of those interactions.”

DEPENDENDO DO SISTEMA, PODE-SE ANALISAR O BALANÇO ENERGÉTICO, PRODUÇÃO,


EFICIÊNCIA, EVOLUÇÃO, CARACTERÍSTICAS AUTORREGULÁVEIS (AUTOMÁTICAS, PARA
SISTEMAS MECÂNICOS), ESTADOS DE EQUILÍBRIO (ESTÁTICO, DINÂMICO OU ESTADO
ESTACIONÁRIO), PREDIÇÃO, CONTROLE DE CARACTERÍSTICAS, ESTABILIDADE OU
SUSTENTABILIDADE, ETC.
-POR EXEMPLO, EM GERAL, SE TODA A ENERGIA - OBTIDA E FORNECIDA AO SISTEMA- FOR
QUANTIFICADA, PODE-SE DEFINIR A EFICIÊNCIA DO MESMO MODO COMO EM
TERMODINÂMICA, PELO SEU QUOCIENTE;
EVOLUÇÃO DE SISTEMAS: EM GERAL, OS SISTEMAS PODEM SER ESPONTÂNEOS OU CONTER
REGULAÇÃO (CONTROLE) EXTERNO, SENDO QUE MESMO OS SISTEMAS ESPONTÂNEOS PODEM
CONTER CARACTERÍSTICAS AUTO-REGULÁVEIS, E PODEM EVOLUIR PARA UMA MAIOR
COMPLEXIDADE, SIMPLICIDADE OU EQUILÍBRIO, TANTO NAS SUAS INTER-RELAÇÕES
INTERNAS, QUANTO NAS EXTERNAS, O QUE DEPENDENDO DO CASO PODE RESULTAR EM
CRESCIMENTO, EQUILÍBRIO OU FALÊNCIA, DE SUSBSISTEMAS OU DO SISTEMA COMO UM
TODO; OS EQUILÍBRIOS PODEM SER ESTÁTICOS OU ESTADOS ESTACIONÁRIOS (QUANDO PODE
HAVER TROCA DE ENERGIA COM O AMBIENTE, MAS SEM ALTERAR O ESTADO DO SISTEMA), E
PODE-SE PERGUNTAR SOBRE A “ESTABILIDADE DOS EQUILÍBRIOS”; O CHAMADO “EQUILÍBRIO
DINÂMICO” PODE SER ENTENDIDIDO COMO UM MODO DE EVOLUÇÃO, ONDE EM CADA
INSTANTE HÁ EQUILÍBRIO, MAS QUE SE ALTERA COM O TEMPO;
-EXEMPLOS DE CARACTERÍSTICAS AUTO-REGULÁVEIS: O MOTOR DE UMA GELADEIRA É
LIGADO E DESLIGADO DE MODO AUTOMÁTICO, POR UM RELÉ DE TEMPERATURA; OS PILOTOS
AUTOMÁTICOS DOS AUTOMÓVEIS E AVIÕES; QUANDO UM FIO SE ROMPE NOS TEARES, ELES
AUTOMATICAMENTE PARAM DE FUNCIONAR, UM BRAÇO MECÂNICO PROMOVE A EMENDA, E
A MÁQUINA VOLTA AO FUNCIONAMENTO NORMAL; A PRODUÇÃO SE ENCONTRA EM
PROCESSO CRESCENTE DE AUTOMATIZAÇÃO; APÓS O ATO “ VOLUNTÁRIO” DE SE
ALIMENTAR(QUE PODE SER INDUZIDO EM MAIOR OU MENOR GRAU PELA FOME), TODO O
PROCESSO DE DIGESTÃO E ABSORÇÃO DOS ALIMENTOS, É REALIZADO POR AÇÕES
INVOLUNTÁRIAS; O AUTOCONTRÔLE DAS PESSOAS, ATRAVÉS DO QUAL, OS ENTENDIMENTOS
“MODULAM” OS SENTIMENTOS E EMOÇÕES; O CONTROLE DE QUALIDADE DOS PRODUTOS
INDUSTRIALIZADOS; A AUTOCENSURA DAS EMPRESAS DE INFORMAÇÃO; QUANDO, À PARTIR

192
DAS AVALIAÇÕES (DE ALUNOS, PROFESSORES E INSTITUIÇÃO) E DA INFORMAÇÃO SOBRE O
DESEMPENHO PROFISSIONAL DOS EX-ALUNOS, OCORRE O APRIMORAMENTO DO ENSINO
NUM SISTEMA EDUCACIONAL, ETC.;
LEARNING THEORY: Similar ideas are found in learning theories that developed from the
same fundamental concepts, emphasizing how understanding results from knowing concepts
both in part and as a whole. Interdisciplinary perspectives are critical in breaking away from
industrial age models and thinking where history is history and math is math, the arts and
sciences specialized and separate, and where teaching is treated as behaviorist conditioning.
The influential contemporary work of Peter Senge[1] provides detailed discussion of the
commonplace critique of educational systems grounded in conventional assumptions about
learning, including the problems with fragmented knowledge and lack of holistic learning from
the "machine-age thinking" that became a "model of school separated from daily life."

[1]Senge, P., Ed. (2000). Schools That Learn: A Fifth Discipline Fieldbook for Educators, Parents,
and Everyone Who Cares About Education. New York: Doubleday Dell Publishing Group.

OBSERVAÇÃO: DE MODO GERAL, ANÁLISE DE CARACTERÍSTICAS QUANTIFICÁVEIS DOS


SISTEMAS PODE SER CONDUZIDA ATRAVÉS DOS MÉTODOS QUANTITATIVOS, POR EXEMPLO:
- PROGRAMAÇÃO MATEMÁTICA (LINEAR E NÃO LINEAR)
- MÉTODOS ESTATÍSTICOS (INCLUINDO TEORIA DA DECISÃO ESTATÍSTICA) -
MÉTODOS NUMÉRICOS (COMPUTACIONAIS) -
EQUAÇÕES E SISTEMAS DIFERENCIAIS, E SUAS GENERALIZAÇÕES, EM PATICULAR:
- EQUAÇÕES DE EVOLUÇÃO; -
TEORIA DO CONTROLE, ETC.

-Systems analysis is the study of sets of interacting entities, including computer systems
analysis. This field is closely related to requirements analysis or operations research. It is also
"an explicit formal inquiry carried out to help someone (referred to as the decision maker)
identify a better course of action and make a better decision than he might otherwise have
made.
System development can generally be thought of having two major components: systems
analysis and systems design. In System Analysis more emphasis is given to understanding the
details of an existing system or a proposed one and then deciding whether the proposed
system is desirable or not and whether the existing system needs improvements. Thus, system
analysis is the process of investigating a system, identifying problems, and using the
information to recommend improvements to the system.

-System analysis in the field of electrical engineering characterizes electrical systems and
their properties. System Analysis can be used to represent almost anything from population
growth to audio speakers, electrical engineers often use it because of its direct relevance to
many areas of their discipline, most notably signal processing and communication systems.

193
Characterization of systems

A system is characterized by how it responds to input signals. In general, a system has


one or more input signals and one or more output signals. Therefore, one natural
characterization of systems is by how many inputs and outputs they have:

 SISO (Single Input, Single Output)


 SIMO (Single Input, Multiple Outputs)
 MISO (Multiple Inputs, Single Output)
 MIMO (Multiple Inputs, Multiple Outputs)

It is often useful (or necessary) to break up a system into smaller pieces for analysis.
Therefore, we can regard a SIMO system as multiple SISO systems (one for each
output), and similarly for a MIMO system. By far, the greatest amount of work in
system analysis has been with SISO systems, although many parts inside SISO systems
have multiple inputs (such as adders).

Signals can be continuous or discrete in time, as well as continuous or discrete in the


values they take at any given time:

 Signals that are continuous in time and continuous in value are known as analog
signals.
 Signals that are discrete in time and discrete in value are known as digital signals.
 Signals that are discrete in time and continuous in value are called discrete-time
signals. While important mathematically, systems that process discrete time signals
are difficult to physically realize. The methods developed for analyzing discrete time
signals and systems are usually applied to digital and analog signals and systems.
 Signals that are continuous in time and discrete in value are sometimes seen in the
timing analysis of logic circuits, but have little to no use in system analysis.

With this categorization of signals, a system can then be characterized as to which type
of signals it deals with:

 A system that has analog input and analog output is known as an analog system.
 A system that has digital input and digital output is known as a digital system.
 Systems with analog input and digital output or digital input and analog output are
possible. However, it is usually easiest to break these systems up for analysis into their
analog and digital parts, as well as the necessary analog to digital or digital to analog
converter.

Another way to characterize systems is by whether their output at any given time
depends only on the input at that time or perhaps on the input at some time in the past
(or in the future!).

 Memoryless systems do not depend on any past input.


 Systems with memory do depend on past input.
 Causal systems do not depend on any future input.
 Non-causal or anticipatory systems do depend on future input.

194
Note: It is not possible to physically realize a non-causal system operating in "real
time". However, from the standpoint of analysis, they are important for two reasons.
First, the ideal system for a given application is often a noncausal system, which
although not physically possible can give insight into the design of a derivated causal
system to accomplish a similar purpose. Second, there are instances when a system
does not operate in "real time" but is rather simulated "off-line" by a computer, such
as post-processing an audio or video recording.
Further, some non-causal systems can operate in pseudo-real time by introducing lag:
if a system depends on input for 1 second in future, it can process in real time with 1
second lag.

Analog systems with memory may be further classified as lumped or distributed. The
difference can be explained by considering the meaning of memory in a system. Future
output of a system with memory depends on future input and a number of state
variables, such as values of the input or output at various times in the past. If the
number of state variables necessary to describe future output is finite, the system is
lumped; if it is infinite, the system is distributed.

Finally, systems may be characterized by certain properties which facilitate their


analysis:

 A system is linear if it has the superposition and scaling properties. A system that is not
linear is non-linear.
 If the output of a system does not depend explicitly on time, the system is said to be
time-invariant; otherwise it is time-variant
 A system that will always produce the same output for a given input is said to be
deterministic.
 A system that will produce different outputs for a given input is said to be non-
deterministic (including stochastic).

There are many methods of analysis developed specifically for linear time-invariant
(LTI) deterministic systems. Unfortunately, in the case of analog systems, none of these
properties are ever perfectly achieved. Linearity implies that operation of a system can
be scaled to arbitrarily large magnitudes, which is not possible. Time-invariance is
violated by aging effects that can change the outputs of analog systems over time
(usually years or even decades). Thermal noise and other random phenomena ensure
that the operation of any analog system will have some degree of stochastic behavior.
Despite these limitations, however, it is usually reasonable to assume that deviations
from these ideals will be small.

LTI Systems
Main article: LTI system theory

As mentioned above, there are many methods of analysis developed specifically for LTI
systems. This is due to their simplicity of specification. An LTI system is completely
specified by its transfer function (which is a rational function for digital and lumped
analog LTI systems). Alternatively, we can think of an LTI system being completely
specified by its frequency response. A third way to specify an LTI system is by its
characteristic linear differential equation (for analog systems) or linear difference

195
equation (for digital systems). Which description is most useful depends on the
application.

The distinction between lumped and distributed LTI systems is important. A lumped
LTI system is specified by a finite number of parameters, be it the zeros and poles of its
transfer function, or the coefficients of its differential equation, whereas specification of
a distributed LTI system requires a complete function

EXEMPLOS:

a) PARA UMA VARIÁVEL, COMO DISSEMOS, O PROBLEMA DIFERENCIAL COMPOSTO PELA 2ª


LEI DE NEWTON + CONDIÇÕES INICIAIS, QUANDO ADMITE SOLUÇÃO, FORNECE A TRAJETÓRIA
COMPLETA (PASSADO E FUTURO) DE UM PONTO MATERIAL EM MOVIMENTO, OU SEJA,
CONHECENDO-SE O ESTADO DO SISTEMA (x(to ), x’(to)) NUM DETERMINADO INSTANTE to (QUE
SÓ DEPENDE DA POSIÇÃO x(t0) DO PONTO NO INSTANTE to , E DE SUA VELOCIDADE NESSE
INSTANTE (QUE DEPENDE DE SUA POSIÇÃO NUMA VIZINHANÇA DESSE INSTANTE), E A LEI DE
VARIAÇÃO DESSES ESTADOS x’’(t)= f(t, x(t), x’(t)), PODE-SE DETERMINAR OS ESTADOS DO
SISTEMA EM TODOS OS OUTROS INSTANTES;

b) PARA EQUAÇÕES DIFERENCIAIS COM RETARDAMENTO,

ONDE

A TAXA DE VARIAÇÃO DA FUNÇÃO INCÓGNITA x’(t) NUM INSTANTE t, PODE DEPENDER DE


TODO O PASSADO xt DE x ; DE MODO DUAL, PODE-SE TRATAR AS EQUAÇÕES
ANTECIPATIVAS;

Time delays of one type or another have been incorporated into biological model to represent
resource regeneration times, maturation periods, feeding times, reaction times, etc. by many
researchers.

Delay-differential equations (DDEs) are a large and important class of dynamical systems. They
often arise in either natural or technological control problems. In these systems, a controller
monitors the state of the system, and makes adjustments to the system based on its
observations. Since these adjustments can never be made instantaneously, a delay arises
between the observation and the control action.
Delay differential equations (DDEs) have been used for many years in control theory and only
recently have been applied to biological models. Most biological systems have time delays
inherent in them (for example, epidemiology ), yet few scientists apply these equations due to
the complexity they introduce.

c) EQUAÇÕES COM RETARDAMENTO DISCRETO, OU EQUAÇÕES DE DIFERENÇA,

196
para .

d) NAS EQUAÇÕES DIFERENCIAIS DO TIPO NEUTRO, NÃO SÓ A FUNÇÃO, MAS TAMBÉM A


DERIVADA NUM INSTANTE t PODE DEPENDER DAS DERIVADAS EM INSTANTES ANTERIORES, E
PODEM NÃO APRESENTAR A FORMA NORMAL, OU SEJA, NÃO ESTAREM RESOLVIDAS PARA A
DERIVADA COMO NO PRIMEIRO MEMBRO DAS EQUAÇÕES COM RETARDAMENTO:

d/dt D(t, xt) = f(t, xt)

e) EM GERAL, OS SISTEMAS BIOLÓGICOS, ECONÔMICOS E SOCIAIS ENVOLVEM DUAS


DINÂMICAS: O FUNCIONAMENTO DO SISTEMA, QUE DEPENDENDO DO CASO PODERIA SER
DESCRITO POR UMA EQUAÇÃO (por exemplo: x’(t)= F (t, x(t)) , x’(t) = F (t, x(t), x t ), etc.), E A
EVOLUÇÃO DO SISTEMA COM O TEMPO, QUE PODERIA SER DESCRITO ATRAVÉS DA VARIAÇÃO
DA PRÓPRIA EQUAÇÃO COM O TEMPO, OU SEJA F = Ft’ ,COM t’ , POR EXEMPLO , ASSUMINDO
VALORES DISCRETOS.

f) O PROCESSO RACIONAL APLICADO COMPLETO


DO MESMO MODO QUE NA VIDA PRÁTICA, PODEMOS:

1) SIMPLESMENTE AGIR; OU,

2) REFERENCIAR NOSSA AÇÃO NA: -


2.1- OBSERVÂNCIA DAS EXPERIÊNCIAS PREGRESSAS (NOSSAS OU NÃO);
2.2- ANÁLISE DA SITUAÇÃO PRESENTE; OU EM
2.3- ANTECIPAÇÕES A PREDIÇÕES OU PROJEÇÕES FUTURAS (QUE POR SUA VEZ, PODEM
DEPENDER DO PASSADO E PRESENTE), COM POSSÍVEL
2.4- COMPARAÇÃO DE OPÇÕES, RESULTANTES DAS ANÁLISES NOS ITENS 2.1, 2.2 e 2.3;

OBSERVAÇÃO: O PROCESSO RACIONAL APLICADO COMPLETO ENVOLVERIA TODAS AS


ETAPAS ENUNCIADAS NO ÍTEM 2 (QUE NÃO SÃO NECESSÁRIAS NUM PROCESSO NÃO
COMPLETO, OU SEJA, OS ITENS 2.1, 2.2, 2.3 e 2.4 SÃO INDEPENDENTES ENTRE SI).

g) O PONTO DE VISTA DOS CHAMADOS SISTEMAS DINÂMICOS (MATEMÁTICOS), TEVE


ORIGEM NO FINAL DO SÉCULO XIX , NA ANÁLISE DA ESTABILIDADE DO SISTEMA SOLAR, COM
OS CONTRIBUIÇÕES DE LIAPUNOV e POINCARÉ, QUE ABORDARAM OS PROBLEMAS DE
ESTABILIDADE E EXISTÊNCIA DE SOLUÇÕES PERIÓDICAS PARA AS EQUAÇÕES DIFERENCIAIS
ORDINÁRIAS, SEM A SUA EXPLICITAÇÃO (DESSAS SOLUÇÕES) ATRAVÉS DE UMA FÓRMULA
(QUE HOJE SABEMOS NÃO EXISTIR EM GERAL, PARA O PROBLEMA DE TRÊS OU MAIS CORPOS,
SUJEITOS À ATRAÇÃO GRAVITACIONAL MÚTUA); POINCARÉ TAMBÉM INICIOU A TEORIA DO
CAOS;

S. Smale, Differentiable dynamical systems, Bulletin of the American Mathematical Society, 73


(1967), 747 – 817 ,and

Smale, S. 1980. "How I got started in dynamical systems." In The Mathematics of Time:
Essays on Dynamical Systems, Economic Processes, and Related Topics. Smale, Yorke,
Guckenheimer, Abraham, May, Feigenbaum. New York: Springer-Verlag. p. 147-151.,

197
proposed the concept of phase space, where if the system changed, a trajectory could be
drawn on paper to represent the changing state of the system. Phase space contains the
complete knowledge of a system. Each point in phase space represents the state of a dynamic
system at an instant;

MATHEMATICAL DYNAMICAL SYSTEMS – OVERVIEW (WIKIPEDIA):

A dynamical system is a concept in mathematics where a fixed rule describes the time
dependence of a point in a geometrical space. Examples include the mathematical
models that describe the swinging of a clock pendulum, the flow of water in a pipe, and
the number of fish each springtime in a lake.

At any given time a dynamical system has a state given by a set of real numbers (a
vector) that can be represented by a point in an appropriate state space (a geometrical
manifold). Small changes in the state of the system create small changes in the numbers.
The evolution rule of the dynamical system is a fixed rule that describes what future
states follow from the current state. The rule is deterministic; in other words, for a given
time interval only one future state follows from the current state.

The concept of a dynamical system has its origins in Newtonian mechanics. There, as in
other natural sciences and engineering disciplines, the evolution rule of dynamical
systems is given implicitly by a relation that gives the state of the system only a short
time into the future. (The relation is either a differential equation, difference equation or
other time scale.) To determine the state for all future times requires iterating the
relation many times—each advancing time a small step. The iteration procedure is
referred to as solving the system or integrating the system. Once the system can be
solved, given an initial point it is possible to determine all its future positions, a
collection of points known as a trajectory or orbit.

Before the advent of fast computing machines, solving a dynamical system required
sophisticated mathematical techniques and could be accomplished only for a small class
of dynamical systems. Numerical methods implemented on electronic computing
machines have simplified the task of determining the orbits of a dynamical system.

For simple dynamical systems, knowing the trajectory is often sufficient, but most
dynamical systems are too complicated to be understood in terms of individual
trajectories. The difficulties arise because:

 The systems studied may only be known approximately—the parameters of the


system may not be known precisely or terms may be missing from the equations. The
approximations used bring into question the validity or relevance of numerical
solutions. To address these questions several notions of stability have been introduced
in the study of dynamical systems, such as Lyapunov stability or structural stability.
The stability of the dynamical system implies that there is a class of models or initial
conditions for which the trajectories would be equivalent. The operation for
comparing orbits to establish their equivalence changes with the different notions of
stability.
 The type of trajectory may be more important than one particular trajectory. Some
trajectories may be periodic, whereas others may wander through many different
states of the system. Applications often require enumerating these classes or
maintaining the system within one class. Classifying all possible trajectories has led to

198
the qualitative study of dynamical systems, that is, properties that do not change
under coordinate changes. Linear dynamical systems and systems that have two
numbers describing a state are examples of dynamical systems where the possible
classes of orbits are understood.
 The behavior of trajectories as a function of a parameter may be what is needed for an
application. As a parameter is varied, the dynamical systems may have bifurcation
points where the qualitative behavior of the dynamical system changes. For example,
it may go from having only periodic motions to apparently erratic behavior, as in the
transition to turbulence of a fluid.
 The trajectories of the system may appear erratic, as if random. In these cases it may
be necessary to compute averages using one very long trajectory or many different
trajectories. The averages are well defined for ergodic systems and a more detailed
understanding has been worked out for hyperbolic systems. Understanding the
probabilistic aspects of dynamical systems has helped establish the foundations of
statistical mechanics and of chaos.

It was in the work of Poincaré that these dynamical systems themes developed.
Generic properties:
From Wikipedia, the free encyclopedia

In mathematics, properties that hold for "typical" examples are called generic
properties. For instance, a generic property of a class of functions is one that is true of
"almost all" of those functions, as in the statements, "A generic polynomial does not
have a root at zero," or "A generic matrix is invertible." As another example, a generic
property of a space is a property that holds at "almost all" points of the space, as in the
statement, "If f : M → N is a smooth function between smooth manifolds, then a generic
point of N is not a critical value of f." (This is by Sard's theorem.)

There are many different notions of "generic" (what is meant by "almost all") in
mathematics, with corresponding dual notions of "almost none" (negligible set); the two
main classes are:

 In measure theory, a generic property is one that holds almost everywhere, meaning
"with probability 1", with the dual concept being null set, meaning "with probability
0".
 In topology and algebraic geometry, a generic property is one that holds on a dense
open set, or more generally on a residual set, with the dual concept being a nowhere
dense set, or more generally a meagre set

LINEARIZATION (from Wikipedia): In mathematics and its applications, linearization refers to


finding the linear approximation to a function at a given point. In the study of dynamical
systems, linearization is a method for assessing the local stability of an equilibrium point of a
system of nonlinear differential equations or discrete dynamical systems. This method is used
in fields such as engineering, physics, economics, and ecology.

199
The final equation for the linearization of a function at is:

The equation for the linearization of a function at a point is:

The general equation for the linearization of a multivariable function at a

point is:

where is the vector of variables, and is the linearization point of interest .

Linearization makes it possible to use tools for studying linear systems to analyze the
behavior of a nonlinear function near a given point. The linearization of a function is the
first order term of its Taylor expansion around the point of interest. For a system
defined by the equation

the linearized system can be written as

Where is the point of interest and is the Jacobian of evaluated

at .

Stability analysis

200
In stability analysis, one can use the eigenvalues of the Jacobian matrix evaluated at an
equilibrium point to determine the nature of that equilibrium. If all of the eigenvalues
are positive, the equilibrium is unstable; if they are all negative the equilibrium is stable;
and if the values are of mixed signs, the equilibrium is possibly a saddle point. Any
complex eigenvalues will appear in complex conjugate pairs and indicate a spiral.

Microeconomics

In microeconomics, decision rules may be approximated under the state-space approach


to linearization. Under this approach, the Euler equations of the utility maximization
problem are linearized around the stationary steady state. A unique solution to the
resulting system of dynamic equations then is found

STABILITY

 Stability theory, the study of the stability of solutions to differential equations and
dynamical systems
o Lyapunov stability
o Structural stability
 Stability (probability), a property of probability distributions
 Stability (learning theory), a property of machine learning algorithms
 Numerical stability, a property of numerical algorithms which describes how errors in
the input data propagate through the algorithm
 Stability radius, a property of continuous polynomial functions
 Stable theory, concerned with the notion of stability in model theory
 Stability, a property of points in geometric invariant theory

Overview in dynamical systems:

Many parts of the qualitative theory of differential equations and dynamical systems
deal with asymptotic properties of solutions and the trajectories—what happens with the
system after a long period of time. The simplest kind of behavior is exhibited by
equilibrium points, or fixed points, and by periodic orbits. If a particular orbit is well
understood, it is natural to ask next whether a small change in the initial condition will
lead to similar behavior. Stability theory addresses the following questions: will a
nearby orbit indefinitely stay close to a given orbit? will it converge to the given orbit
(this is a stronger property)? In the former case, the orbit is called stable and in the
latter case, asymptotically stable, or attracting. Stability means that the trajectories do
not change too much under small perturbations. The opposite situation, where a nearby
orbit is getting repelled from the given orbit, is also of interest. In general, perturbing
the initial state in some directions results in the trajectory asymptotically approaching
the given one and in other directions to the trajectory getting away from it. There may
also be directions for which the behavior of the perturbed orbit is more complicated
(neither converging nor escaping completely), and then stability theory does not give
sufficient information about the dynamics.

One of the key ideas in stability theory is that the qualitative behavior of an orbit under
perturbations can be analyzed using the linearization of the system near the orbit. In
particular, at each equilibrium of a smooth dynamical system with an n-dimensional
phase space, there is a certain n×n matrix A whose eigenvalues characterize the

201
behavior of the nearby points (Hartman-Grobman theorem). More precisely, if all
eigenvalues are negative real numbers or complex numbers with negative real parts then
the point is a stable attracting fixed point, and the nearby points converge to it at an
exponential rate, cf Lyapunov stability and exponential stability. If none of the
eigenvalues is purely imaginary (or zero) then the attracting and repelling directions are
related to the eigenspaces of the matrix A with eigenvalues whose real part is negative
and, respectively, positive. Analogous statements are known for perturbations of more
complicated orbits.

STABILITY THEORY addresses the stability of solutions of differential equations and of


trajectories of dynamical systems under small perturbations of initial conditions. The heat
equation, for example, is a stable partial differential equation because small perturbations of
initial data lead to small variations in temperature at a later time as a result of the maximum
principle. More generally, a theorem is stable if small changes in the hypothesis lead to small
variations in the conclusion. One must specify the metric used to measure the perturbations
when claiming a theorem is stable. In partial differential equations one may measure the
distances between functions using Lp norms or the sup norm, while in differential geometry
one may measure the distance between spaces using the Gromov-Hausdorff distance.

Various types of stability may be discussed for the solutions of differential equations
describing dynamical systems. The most important type is that concerning the stability of
solutions near to a point of equilibrium. This may be discussed by the theory of Lyapunov. In
simple terms, if all solutions of the dynamical system that start out near an equilibrium point
stay near forever, then is Lyapunov stable. More strongly, if is Lyapunov stable
and all solutions that start out near converge to , then is asymptotically stable.
The notion of exponential stability guarantees a minimal rate of decay, i.e., an estimate of
how quickly the solutions converge. The idea of Lyapunov stability can be extended to infinite-
dimensional manifolds, where it is known as structural stability, which concerns the behavior
of different but "nearby" solutions to differential equations. Input-to-state stability (ISS)
applies Lyapunov notions to systems with inputs.

LYAPUNOV STABILITY is named after Aleksandr Lyapunov, a Russian mathematician who


published his book "The General Problem of Stability of Motion" in 1892. Lyapunov was the
first to consider the modifications necessary in nonlinear systems to the linear theory of
stability based on linearizing near a point of equilibrium. His work, initially published in Russian
and then translated to French, received little attention for many years. Interest in it started
suddenly during the Cold War (1953-1962) period when the so-called "Second Method of
Lyapunov" was found to be applicable to the stability of aerospace guidance systems which
typically contain strong nonlinearities not treatable by other methods. A large number of
publications appeared then and since in the control and systems literature. More recently the
concept of Lyapunov exponent (related to Lyapunov's First Method of discussing stability) has
received wide interest in connection with chaos theory. Lyapunov stability methods have also
been applied to finding equilibrium solutions in traffic assignment problems following work by
MJ Smith and MB Wisten.

STABILITY OF FIXED POINTS:

The simplest kind of an orbit is a fixed point, or an equilibrium. If a mechanical system


is in a stable equilibrium state then a small push will result in a localized motion, for
example, small oscillations as in the case of a pendulum. In a system with damping, a
stable equilibrium state is moreover asymptotically stable. On the other hand, for an

202
unstable equilibrium, such as a ball resting on a top of a hill, certain small pushes will
result in a motion with a large amplitude that may or may not converge to the original
state.

There are useful tests of stability for the case of a linear system. Stability of a nonlinear
system can often be inferred from the stability of its linearization.

STRUCTURAL STABILITY is a fundamental property of a dynamical system which means


that the qualitative behavior of the trajectories is unaffected by C1-small perturbations.
Examples of such qualitative properties are numbers of fixed points and periodic orbits
(but not their periods). Unlike Lyapunov stability, which considers perturbations of
initial conditions for a fixed system, structural stability deals with perturbations of the
system itself. Variants of this notion apply to systems of ordinary differential equations,
vector fields on smooth manifolds and flows generated by them, and diffeomorphisms.

Structurally stable systems were introduced by Aleksandr Andronov and Lev


Pontryagin in 1937 under the name "systèmes grossières", or rough systems. They
announced a characterization of rough systems in the plane, the Andronov–Pontryagin
criterion. In this case, structurally stable systems are typical, they form an open dense
set in the space of all systems endowed with appropriate topology. In higher
dimensions, this is no longer true, indicating that typical dynamics can be very complex
(cf strange attractor). An important class of structurally stable systems in arbitrary
dimensions is given by Anosov diffeomorphisms and flows.

Definition for continuous-time systems

Consider an autonomous nonlinear dynamical system

where denotes the system state vector, an open set containing the
origin, and continuous on . Suppose has an equilibrium .

1. The equilibrium of the above system is said to be Lyapunov stable, if, for every
, there exists a such that, if , then
, for every .
2. The equilibrium of the above system is said to be asymptotically stable if it is
Lyapunov stable and if there exists such that if , then

.
3. The equilibrium of the above system is said to be exponentially stable if it is
asymptotically stable and if there exist such that if
, then , for .

Conceptually, the meanings of the above terms are the following:

203
1. Lyapunov stability of an equilibrium means that solutions starting "close enough" to
the equilibrium (within a distance from it) remain "close enough" forever (within a
distance from it). Note that this must be true for any that one may want to choose.
2. Asymptotic stability means that solutions that start close enough not only remain close
enough but also eventually converge to the equilibrium.
3. Exponential stability means that solutions not only converge, but in fact converge
faster than or at least as fast as a particular known rate .

The trajectory x is (locally) attractive if

for for all trajectories that start close enough, and globally attractive if this
property holds for all trajectories.

That is, if x belongs to the interior of its stable manifold. It is asymptotically stable if it
is both attractive and stable. (There are counterexamples showing that attractivity does
not imply asymptotic stability. Such examples are easy to create using homoclinic
connections.)

Lyapunov's second method for stability

Lyapunov, in his original 1892 work, proposed two methods for demonstrating stability.
The first method developed the solution in a series which was then proved convergent
within limits. The second method, which is almost universally used nowadays, makes
use of a Lyapunov function V(x) which has an analogy to the potential function of
classical dynamics. It is introduced as follows for a system having a point of
equilibrium at x=0. Consider a function such that

 with equality if and only if (positive definite).

 with equality if and only if (negative definite).

Then V(x) is called a Lyapunov function candidate and the system is asymptotically
stable in the sense of Lyapunov (i.s.L.). (Note that is required; otherwise
for example would "prove" that is locally stable.
An additional condition called "properness" or "radial unboundedness" is required in
order to conclude global asymptotic stability.)

It is easier to visualize this method of analysis by thinking of a physical system (e.g.


vibrating spring and mass) and considering the energy of such a system. If the system
loses energy over time and the energy is never restored then eventually the system must
grind to a stop and reach some final resting state. This final state is called the attractor.
However, finding a function that gives the precise energy of a physical system can be
difficult, and for abstract mathematical systems, economic systems or biological
systems, the concept of energy may not be applicable.

204
Lyapunov's realization was that stability can be proven without requiring knowledge of
the true physical energy, provided a Lyapunov function can be found to satisfy the
above constraints.

Definition for discrete-time systems:

The definition for discrete-time systems is almost identical to that for continuous-time
systems. The definition below provides this, using an alternate language commonly
used in more mathematical texts.

Let be a metric space and a continuous function. A point


is said to be Lyapunov stable, if, for each , there is a such that
for all , if

then

for all .

We say that is asymptotically stable if it belongs to the interior of its stable set, i.e. if
there is a such that

Whenever .

Stability for linear state space models

A linear state space model

is asymptotically stable (in fact, exponentially stable) if all real parts of the eigenvalues

of are negative. This condition is equivalent to the following one:

has a solution where and (positive definite

matrices). (The relevant Lyapunov function is .)

205
Correspondingly, a time-discrete linear state space model

is asymptotically stable (in fact, exponentially stable) if all the eigenvalues of have a
modulus smaller than one.

This latter condition has been generalized to switched systems: a linear switched
discrete time system (ruled by a set of matrices )

is asymptotically stable (in fact, exponentially stable) if the joint spectral radius of the
set is smaller than one.

Stability for systems with inputs

A system with inputs (or controls) has the form

where the (generally time-dependent) input u(t) may be viewed as a control, external
input, stimulus, disturbance, or forcing function. The study of such systems is the
subject of control theory and applied in control engineering. For systems with inputs,
one must quantify the effect of inputs on the stability of the system. The main two
approaches to this analysis are BIBO stability (for linear systems) and input-to-state
(ISS) stability (for nonlinear systems).

-PERTURBATION THEORY comprises mathematical methods that are used to find an


approximate solution to a problem which cannot be solved exactly, by starting from the
exact solution of a related problem. Perturbation theory is applicable if the problem at
hand can be formulated by adding a "small" term to the mathematical description of
the exactly solvable problem. Perturbation theory is closely related to methods used in
numerical analysis. The earliest use of what would now be called perturbation theory
was to deal with the otherwise unsolvable mathematical problems of celestial
mechanics: Newton's solution for the orbit of the Moon, which moves noticeably
differently from a simple Keplerian ellipse because of the competing gravitation of the
Earth and the Sun. Perturbation methods start with a simplified form of
the original problem, which is simple enough to be solved exactly. In celestial
mechanics, this is usually a Keplerian ellipse. Under non relativistic gravity, an ellipse
is exactly correct when there are only two gravitating bodies (say, the Earth and the
Moon) but not quite correct when there are three or more objects (say, the Earth, Moon,
Sun, and the rest of the solar system). The solved, but simplified problem is then
"perturbed" to make the conditions that the perturbed solution actually satisfies closer
to the real problem, such as including the gravitational attraction of a third body (the
Sun). Perturbation theory leads to an expression for
the desired solution in terms of a formal power series in some "small" parameter –
known as a perturbation series – that quantifies the deviation from the exactly solvable

206
problem. The leading term in this power series is the solution of the exactly solvable
problem, while further terms describe the deviation in the solution, due to the deviation
from the initial problem. Formally, we have for the approximation to the full solution A,
a series in the small parameter (here called ), like the following:

In this example, would be the known solution to the exactly solvable initial problem
and , ... represent the higher-order terms which may be found iteratively by
some systematic procedure. For small these higher-order terms in the series become
successively smaller. An approximate "perturbation solution" is obtained by truncating
the series, usually by keeping only the first two terms, the initial solution and the "first-
order" perturbation correction:

h) CHAOS THEORY studies the behavior of dynamical systems that are highly sensitive
to initial conditions; For chaotic systems, small differences in initial conditions may
yield widely diverging outcomes, rendering long-term prediction impossible in general.
This happens even though these systems are deterministic, meaning that their future
behavior is fully determined by their initial conditions, with no random elements
involved. In other words, the deterministic nature of these systems does not make them
predictable. Some researchers say that chaotic behavior has an apparently random
outcome.

Distinguishing random from chaotic data

It can be difficult to tell from data whether a physical or other observed process is
random or chaotic, because in practice no time series consists of pure 'signal.' There will
always be some form of corrupting noise, even if it is present as round-off or truncation
error. Thus any real time series, even if mostly deterministic, will contain some
randomness.

All methods for distinguishing deterministic and stochastic processes rely on the fact
that a deterministic system always evolves in the same way from a given starting point.
Thus, given a time series to test for determinism, one can:

1. pick a test state;


2. search the time series for a similar or 'nearby' state; and
3. compare their respective time evolutions.

Define the error as the difference between the time evolution of the 'test' state and the
time evolution of the nearby state. A deterministic system will have an error that either
remains small (stable, regular solution) or increases exponentially with time (chaos). A
stochastic system will have a randomly distributed error.

Essentially all measures of determinism taken from time series rely upon finding the
closest states to a given 'test' state (e.g., correlation dimension, Lyapunov exponents,
etc.). To define the state of a system one typically relies on phase space embedding

207
methods. Typically one chooses an embedding dimension, and investigates the
propagation of the error between two nearby states. If the error looks random, one
increases the dimension. If you can increase the dimension to obtain a deterministic
looking error, then you are done. Though it may sound simple it is not really. One
complication is that as the dimension increases the search for a nearby state requires a
lot more computation time and a lot of data (the amount of data required increases
exponentially with embedding dimension) to find a suitably close candidate. If the
embedding dimension (number of measures per state) is chosen too small (less than the
'true' value) deterministic data can appear to be random but in theory there is no
problem choosing the dimension too large – the method will work.

When a non-linear deterministic system is attended by external fluctuations, its


trajectories present serious and permanent distortions. Furthermore, the noise is
amplified due to the inherent non-linearity and reveals totally new dynamical properties.
Statistical tests attempting to separate noise from the deterministic skeleton or inversely
isolate the deterministic part risk failure. Things become worse when the deterministic
component is a non-linear feedback system. In presence of interactions between
nonlinear deterministic components and noise, the resulting nonlinear series can display
dynamics that traditional tests for nonlinearity are sometimes not able to capture.
Turbulence in the tip vortex from an
airplane wing. Studies of the critical point
beyond which a system creates
turbulence were important for Chaos
theory, analyzed for example by the
Soviet physicist Lev Landau who
developed the Landau-Hopf theory of
turbulence. David Ruelle and Floris
Takens later predicted, against Landau,
that fluid turbulence could develop
through a strange attractor, a main
concept of chaos theory.

-BIFURCATION THEORY studies and classifies phenomena characterized by sudden shifts in


behavior arising from small changes in circumstances, analysing how the qualitative nature of
equation solutions depends on the parameters that appear in the equation. This may lead to
sudden and dramatic changes, for example the unpredictable timing and magnitude of a
landslide.

- CATASTROPHE THEORY is a branch of bifurcation theory in the study of dynamical


systems; it is also a particular special case of more general singularity theory in
geometry. It was originated with the work of the French mathematician René Thom in
the 1960s, and became very popular due to the efforts of Christopher Zeeman in the
1970s, considers the special case where the long-run stable equilibrium can be
identified with the minimum of a smooth, well-defined potential function (Lyapunov
function).
- Small changes in certain parameters of a nonlinear system can cause equilibria to
appear or disappear, or to change from attracting to repelling and vice versa, leading
to large and sudden changes of the behaviour of the system. However, examined in a

208
larger parameter space, catastrophe theory reveals that such bifurcation points tend
to occur as part of well-defined qualitative geometrical structures.

Elementary catastrophes

Catastrophe theory analyses degenerate critical points of the potential function — points
where not just the first derivative, but one or more higher derivatives of the potential function
are also zero. These are called the germs of the catastrophe geometries. The degeneracy of
these critical points can be unfolded by expanding the potential function as a Taylor series in
small perturbations of the parameters.

When the degenerate points are not merely accidental, but are structurally stable, the
degenerate points exist as organising centres for particular geometric structures of lower
degeneracy, with critical features in the parameter space around them. If the potential
function depends on two or fewer active variables, and four (resp. five) or fewer active
parameters, then there are only seven (resp. eleven) generic structures for these bifurcation
geometries, with corresponding standard forms into which the Taylor series around the
catastrophe germs can be transformed by diffeomorphism (a smooth transformation whose
inverse is also smooth).

i) POPULATION GROWTH

Simple models of population growth include the Malthusian Growth Model (named after the
Reverend Thomas Malthus, who authored An Essay on the Principle of Population, one of the
earliest and most influential books on population and exponetial growth, 1798 ) and the
logistic model (named after Pierre François Verhulst, 1838/45 );

-The differential equation describing exponential growth is

, where N denote a population and r a parameter.

This can be integrated directly

to give

Where . Exponentiating,

209
This equation is called the law of growth, and the quantity in this equation is sometimes known as the
Malthusian parameter.

The Problem with Malthus's Model


Malthus's population model predicts either population growth without bound or inevitable
extinction. The difference is based on whether the growth rate r is postive or negative.

Neither case is typically observed in genuine biological communities. What is often


observed instead is that small populations often (though not always) increase in number
while very large populations tend to decline in number. In both cases a steady state is
often reached after which significant changes in population are not observed unless a
significant environmental change is encountered. A good population model must
therefore reproduce this behavior.

From a biological point of view the missing feature of Malthus's model is the idea of
carrying capacity. As a population increases in size the environment's ability to support
the population decreases. As the population increases per capita food availability
decreases, waste products may accumulate and birth rates tend to decline while death
rates tend to increase. It seems reasonable to consider a mathematical model which
explicitly incorporates the idea of carrying capacity.

-Let us consider a more complex growth law:

where is a constant. This can also be integrated directly

Note that this expression blows up at t=0 . We are given the initial condition that

N (t=1) = N0 er , so C = N0 , and.

The in the denominator greatly suppresses the growth in the long run compared to the simple growth law.

210
The Logistic Population Model
The logistic model, a slight modification of Malthus's model, is just such a model. As with
Malthus's model the logistic model includes a growth rate r. This parameter represents the
rate at which the population would grow if it were unencumbered by environmental
degradation.

A second parameter, K, represents the carrying capacity of the system being studied.
Carrying capacity is the population level at which the birth and death rates of a species
precisely match, resulting in a stable population over time.

Descrete model: letting X(i) represent the population at the beginning of time period i
the logistic model is:

X(i+1) - X(i) = r*X(i)*(1 - X(i)/K)

where * represents multiplication.

The first term of this formula, r*X(i), can be interpreted as the birth rate in this model,
while the second term, r*X(i)*X(i)/K can be interpreted as the death rate. Noting that the
birth rate only depends on r while the death rate depends on both r and K, the
appropriate connectors can be created and erased in order to place the required formula
in each flow.

This approach of explicitly determining the birth and death rates in a population model
is routinely implemented because it gives the modeler a chance to look at the model
components to see if the birth and death formulas are reasonable. It also provides
experimentalists with a way to break the larger problem of population dynamics into
two simpler pieces. Instead of having to derive one experiment to measure population
changes as a function of population size, an experimentalist (or theorist for that matter)
can consider the birth process and death process separately.

The analysis which can be performed by separating out the birth and death processes is
well illustrated by the logistic model. The birth rate seems quite reasonable. It depends
only on the per capita birth rate r. It may strike some as odd that the per capita birth rate
does not decline as population increases. This is a weakness in the logistic model, and
various attempts at correcting this problem have given rise to many variations on the
logistic model.

A more serious weakness in the logistic model becomes clear when the death rate
formula is considered. The number of deaths, given by

r*X(i)*X(i)/K,

does increase as the population increases. This represents the effects of congestion. The
carrying capacity K plays a significant role in this formula, as it should. However, it
seems odd that r, the per capita birth rate appears in this formula. It does not seem
reasonable that the birth rate should directly affect the number of deaths experienced in
a population. This is regarded by many as an indication that the logistic model is
probably not a good representation of biological reality.

211
Despite the weaknesses illustrated above, the logistic model is frequently used in
biological modeling, either a basis for more complicated modeling, or as an
approximate model when the details of a population dynamics are not known.

The (continuous) logistic equation (Verhulst 1836 model) , defined by

is another growth law which frequently arises in biology. Solving the equation by separating the variables,
one obtains

Hutchinson (1948) assumed egg formation to occur 0 units of time before hatching
and proposed the following more realistic logistic equation

dN/dt = r N(t) { 1 - [ N ( t - n τ ) ] / K }

where r and K have the same meaning as in the logistic equation ,   0 is a


constant. This equation is often referred to as the Hutchinson's equation or delayed
logistic equation.

VOLTERRA INTEGRODIFFERENTIAL EQUATIONS

The Hutchinson's equation means that the regulatory efect depends on the population at a fixed earlier
time t -  , rather than at the present time t. In a more realistic model the delay efect should be an average
over past populations. This results in an equation with a distributed delay or an infnite delay. The first
work using a logistic equation with distributed delay was by Volterra (1934) with extensions by Kostitzin
(1939). In the 1930's, many experiments were performed with laboratory populations of some species of
small organisms with short generation time. Attempts to apply logistic models to these experiments were
often unsuccessful because populations died out. One of the causes was the pollution of the closed
environment by waste products and dead organisms. Volterra (1934) used an integral term or a distributed
delay term to examine a cumulative efect in the death rate of a species, depending on the population at all
times from the start of the experiment. The model is an integro-diferential equation:

dN/dt = r N [ 1/k ]

This
is an integro-diferential equation where G(t), called the delay kernel, is a weighting
factor which indicates how much emphasis should be given to the size of the population
at earlier times to determine the present efect on resource availability.

212
A generalized logistic function can model the "S-shaped" behaviour (abbreviated S-
curve) of growth of some population P. The initial stage of growth is approximately
exponential; then, as saturation begins, the growth slows, and at maturity, growth stops.
A simple logistic function may be defined by the formula

where the variable P might be considered to denote a population

Standard logistic sigmoid function

OBSERVAÇÃO: O PONTO DE VISTA DOS SISTEMAS PERMITE CONSIDERAR O EFEITO DAS TAXAS
DE MORTALIDADE E MIGRAÇÕES, SOBRE A TAXA DE NASCIMENTOS;

Population growth (From Wikipedia, the free encyclopedia)


In demography, population growth is used to the growth of the human population of the
world.

Population growth 1800-2011: from 1 billion to 7 billion estimated in 31.10.2011.


During the year 2011 according to estimates:[1]

 135 million people will be born


 57 million people will die and
 78 million people will increase the world population

Population[1]

Year Billion

1800 1

1927 2

213
1960 3

1974 4

1987 5

1999 6

2011* 7

UNFPA United Nations Population Fund estimate 31.10.2011

Determinants of population growth

Population growth is determined by four factors, births(B), deaths(D), immigrants(I),


and emigrants(E). Using a formula expressed as

∆P≡(B-D)+(I-E)

In demographics and ecology, population growth rate (PGR) is the rate at which the
number of individuals in a population increases in a given time period as a fraction of
the initial population. Specifically, PGR ordinarily refers to the change in population
over a unit time period, often expressed as a percentage of the number of individuals in
the population at the beginning of that period. This can be written as the formula:[2]

The most common way to express population growth is as a percentage, not as a rate.
The change in population over a unit time period is expressed as a percentage of the
population at the beginning of the time period. That is:

If the length of the time is taken smaller and smaller, the PGR approaches the
logarithmic derivative of the population function P. If the population as a function of
time is exponential, say P(t) = Ceat, the logarithmic derivative is a. Thus, the PGR
approximates the exponent a for populations with exponential growth.

Globally, the growth rate of the human population has been declining since peaking in
1962 and 1963 at 2.20% per annum. In 2009, the estimated annual growth rate was
1.1%. The CIA World Factbook gives the world annual birthrate, mortality rate, and
growth rate as 1.915%, 0.812%, and 1.092% respectively. The last one hundred years
have seen a rapid increase in population due to medical advances and massive increase
in agricultural productivity made possible by the Green Revolution.

The actual annual growth in the number of humans fell from its peak of 88.0 million in
1989, to a low of 73.9 million in 2003, after which it rose again to 75.2 million in 2006.

214
Since then, annual growth has declined. In 2009, the human population increased by
74.6 million, which is projected to fall steadily to about 41 million per annum in 2050,
at which time the population will have increased to about 9.2 billion. [11] Each region of
the globe has seen great reductions in growth rate in recent decades, though growth
rates remain above 2% in some countries of the Middle East and Sub-Saharan Africa,
and also in South Asia, Southeast Asia, and Latin America.[12]

Some countries experience negative population growth, especially in Eastern Europe


mainly due to low fertility rates, high death rates and emigration. In Southern Africa,
growth is slowing due to the high number of HIV-related deaths. Some Western Europe
countries might also encounter negative population growth.[13] Japan's population began
decreasing in 2005.

Growth rate of world population (1950-2050)

j) EQUAÇÃO DE LOTKA-VOLTERRA/ PREDATOR–PREY EQUATIONS


Fonte: Wikipédia, a enciclopédia livre.

As equações de Lotka-Volterra são um par equações diferenciais, não lineares e de


primeira ordem, frequentemente utilizadas para descrever dinâmicas nos sistemas
biológicos, especialmente quando duas espécies interagem: uma como presa o outra
como predadora. Estas equações foram propostas independentemente por Alfred J.
Lotka em 1925 e Vito Volterra em 1926.

Um modelo clássico onde se pode utilizar esta fórmula é aquele que envolve as relações
entre o lince e lebre, ou lobo e coelho;

215
A forma usual da equação é :

onde

 y é o número de individuos de algum predador;


 x é o número da individuos da sua presa;
 t representa o crescimento das duas populações no tempo; e
 α, β, γ e δ são parâmetros (positivos) representando a interação entre as duas espécies

Physical meanings of the equations

The Lotka-Volterra model makes a number of assumptions about the environment and
evolution of the predator and prey populations:

1. The prey population finds ample food at all times.


2. The food supply of the predator population depends entirely on the prey populations.
3. The rate of change of population is proportional to its size.
4. During the process, the environment does not change in favour of one species and the
genetic adaptation is sufficiently slow.

As differential equations are used, the solution is deterministic and continuous. This, in
turn, implies that the generations of both the predator and prey are continually
overlapping.[20]

 x is the number of its prey (for example, rabbits);


 y is the number of some predator (for example, foxes);

Prey

When multiplied out, the prey equation becomes:

The prey are assumed to have an unlimited food supply, and to reproduce exponentially
unless subject to predation; this exponential growth is represented in the equation above
by the term αx. The rate of predation upon the prey is assumed to be proportional
to the rate at which the predators and the prey meet; this is represented above by
βxy. If either x or y is zero then there can be no predation.

216
With these two terms the equation above can be interpreted as: the change in the prey's
numbers is given by its own growth minus the rate at which it is preyed upon.

Predators

The predator equation becomes:

In this equation, δxy represents the growth of the predator population. (Note the
similarity to the predation rate; however, a different constant is used as the rate at which
the predator population grows is not necessarily equal to the rate at which it consumes
the prey). γy represents the loss rate of the predators due to either natural death or
emigration; it leads to an exponential decay in the absence of prey.

Hence the equation expresses the change in the predator population as growth fueled by
the food supply, minus natural death.

Espaço de fase da equação de


Lotka-Volterra com os
parâmetros
e
diferentes condições iniciais,
mostrando que a variação do
número de presas e predadores é
periódica.

As populações de presas e
predadores em função do tempo
obtida utilizando o modelo de
Lotka-Volterra. Os parâmetros
utilizados são

The equations have periodic solutions and do not have a simple expression in terms of
the usual trigonometric functions. However, a linearization of the equations yields a
solution similar to simple harmonic motion[21] with the population of predators
following that of prey by 90°.

217
A SOLUÇÃO DO SISTEMA ACIMA PODE SER INTERPRETADA DO SEGUINTE MODO:

O AUMENTO DO NÚMERO DE PREDADORES FAZ DIMINUIR O NÚMERO DE PRESAS, O QUE,


POR ESCASSEZ DE ALIMENTAÇÃO, AUMENTO NO NÚMERO DE MORTES E EMIGRAÇÃO, FAZ
DIMUNUIR O NÚMERO DE PREDADORES, O QUE FAZ AUMENTAR O NÚMERO DE PRESAS, O
QUE FAZ, PELA ABUNDÂNCIA DE ALIMENTAÇÃO, AUMENTAR NOVAMENTE O NÚMERO DE
PREDADORES, E ASSIM POR DIANTE;

The Lotka–Volterra predator–prey model was initially proposed by Alfred J. Lotka “in
the theory of autocatalytic chemical reactions” in 1910. This was effectively the logistic
equation, which was originally derived by Pierre François Verhulst. In 1920 Lotka
extended, via Kolmogorov (see above), the model to "organic systems" using a plant
species and a herbivorous animal species as an example and in 1925 he utilised the
equations to analyse predator-prey interactions in his book on biomathematics arriving
at the equations that we know today. Vito Volterra, who made a statistical analysis of
fish catches in the Adriatic independently investigated the equations in 1926.

C.S. Holling extended this model yet again, in two 1959 papers, in which he proposed
the idea of functional response. Both the Lotka-Volterra model and Holling's
extensions have been used to model the moose and wolf populations in Isle Royale
National Park, which with over 50 published papers is one of the best studied predator-
prey relationships.

In economics

The Lotka–Volterra equations have a long history of use in economic theory; their
initial application is commonly credited to Richard Goodwin in 1965 or 1967. In
economics, links are between many if not all industries; a proposed way to model the
dynamics of various industries has been by introducing trophic functions between
various sectors, and ignoring smaller sectors by considering the interactions of only two
industrial sectors.

The Lotka–Volterra system of equations is an example of a Kolmogorov model, which is a more


general framework that can model the dynamics of ecological systems with predator-prey
interactions, competition, disease, and mutualism.

218
k) GENE PROPAGATION: Fisher’s equation (or gene transport equation.) appeared in his
seminal paper R. A. Fisher, “The wave of advance of advantageous genes”, Ann. Eugenics
7 (1937) 335–369:

+ m p (1 – p )

where p is the “frequency of the mutant gene” and m is “intensity of selection in


favour of the mutant gene”.
Fisher considered a population “distributed in a linear habitat : : : which it occupies with
uniform density”. It represents the spread of an advantaged mutant strain within
an asexual species.
The case of two possible preexisting,alleles occupying the locus of themutant gene was
simplified to that of a “ : : : parent allelomorph, which we shall suppose to be the only
allelomorph present”. The physiological or anatomical characteristic governed by the
mutant gene was assumed to be recessive, in keeping with the “common recessiveness
of observed mutations.”
Fisher’s assumptions for a sexually reproducing species lead to a Hodgkin-Huxley
reaction-diffusion equation, with cubic logistic source term for the gene frequency
of a mutant advantageous recessive gene. When the total population density is not
uniform, these equations take on an additional non uniform convection term. Cubic
source terms of the Hodgkin-Huxley or Fitzhugh-Nagumo type allow special
nonclassical symmetries.

Thus, Fisher’s assumptions on a spatially homogeneous population with discrete


breeding cycles does not lead to the simple logistic reproduction rate mp.(1− p) but to
another nonlinear growth rate for which the leading term is of the form kp2(1 – p), with
k constant. The cubic production term leads to a much delayed spread of the new gene
after the mutation occurs. However for a species reproducing asexually, we do indeed
recover the quadratic logistic reproduction law.
(ANZIAM J. 44(2002), 11–20 HUXLEY AND FISHER EQUATIONS FOR GENE PROPAGATION: AN
EXACT SOLUTION P. BROADBRIDGE, B. H. BRADSHAW, G. R. FULFORD and G. K. ALDIS).

The HODGKIN–HUXLEY MODEL is a mathematical model (a type of scientific model)


that describes how action potentials in neurons are initiated and propagated. It is a set of
nonlinear ordinary differential equations that approximates the electrical characteristics
of excitable cells such as neurons and cardiac myocytes.

Alan Lloyd Hodgkin and Andrew Huxley described the model in 1952 to explain the ionic
mechanisms underlying the initiation and propagation of action potentials in the squid giant
axon. Hodgkin, A., and Huxley, A. (1952): A quantitative description of membrane current and
its application to conduction and excitation in nerve. J. Physiol. 117:500–544

219
They received the 1963 Nobel Prize in Physiology or Medicine for this work.

Basic components of Hodgkin–Huxley-type models. Hodgkin–Huxley type models


represent the biophysical characteristic of cell membranes. The lipid bilayer is
represented as a capacitance (Cm). Voltage-gated and leak ion channels are represented
by nonlinear (gn) and linear (gL) conductances, respectively. The electrochemical
gradients driving the flow of ions are represented by batteries (E), and ion pumps and
exchangers are represented by current sources (Ip).

Huxley equation is a nonlinear partial diferential equation of second order of the form

ut = uxx + u ( -  u) (u – 1)

This is an evolution equation that describes the nerve propagation in biology from
which molecular CB properties can be calculated. It also givees a phenomenological
description of the behavior of the myosin heads II. This equation has many fascinating
phenomena such a bursting oscilation, interspike, bifurcation and chaos. There are
many methods to solve the equation, but each of them can only lead to a special
solution. (Mathamatical Problems in Engineering 2008, Exp-Function Method for
Solving Huxley Equation, Xin-Wei Zhou ).

l) Pendulum
The mathematics of pendulums are in general very complex. Simplifying assumptions
can be made, which in the case of a simple pendulum allows the equations of motion
to be solved analytically for small-angle oscillations.

Simple gravity pendulum


A so called "simple pendulum" is an idealization of a "real pendulum" but in an isolated
system using the following assumptions:

 The rod or cord on which the bob swings is massless, inextensible and always
remains taut;

220
 Motion occurs only in two dimensions, i.e. the bob does not trace an ellipse but
an arc.
 The motion does not lose energy to friction or air resistance.
The differential equation which represents the motion of a simple pendulum is

(Eq1)

where is acceleration due to gravity, is the length of the pendulum, and is the
angular displacement.
"Force" derivation of (Eq. 1)

Figure 1. Force diagram of a simple gravity pendulum

One can note that the path of the pendulum sweeps out an arc of a circle. The
angle is measured in radians, and this is crucial for this formula. The blue arrow is
the gravitational force acting on the bob, and the violet arrows are that same force
resolved into components parallel and perpendicular to the bob's instantaneous
motion. The direction of the bob's instantaneous velocity always points along the red
axis, which is considered the tangential axis because its direction is always tangent to
the circle. Consider Newton's second law,

where : F is the sum of forces on the object, m is mass, and a is the acceleration.
Because we are only concerned with changes in speed, and because the bob is forced
to stay in a circular path, we apply Newton's equation to the tangential axis only. The

221
short violet arrow represents the component of the gravitational force in the tangential
axis, and trigonometry can be used to determine its magnitude. Thus,

Where: is the acceleration due to gravity near the surface of the earth. The negative
sign on the right hand side implies that and always point in opposite directions. This
makes sense because when a pendulum swings further to the left, we would expect it
to accelerate back toward the right.

This linear acceleration along the red axis can be related to the change in angle by
the arc length formulas; is arc length:

thus:

"Torque" derivation of (Eq. 1)

Equation (1) can be obtained using two definitions for torque.

First start by defining the torque on the pendulum bob using the force due to gravity.

where is the length vector of the pendulum and is the force due to gravity.

For now just consider the magnitude of the torque on the pendulum.

where is the mass of the pendulum, is the acceleration due to gravity, is the
length of the pendulum and is the angle between the length vector and the force due
to gravity.

Next rewrite the angular momentum.

Again just consider the magnitude of the angular momentum.

222
.

and is time derivative

According to , we can get by comparing the magnitudes

thus:

which is the same result as obtained through force analysis.

"Energy" derivation of (Eq. 1)

Figure 2. Trigonometry of a simple gravity pendulum

It can also be obtained via the conservation of mechanical energy principle: any object
falling a vertical distance would acquire kinetic energy equal to that which it lost to
the fall. In other words, gravitational potential energy is converted into kinetic energy.
Change in potential energy is given by

change in kinetic energy (body started from rest) is given by

Since no energy is lost, those two must be equal

223
Using the arc length formula above, this equation can be rewritten in favor of

is the vertical distance the pendulum fell. Look at Figure 2, which presents the
trigonometry of a simple pendulum. If the pendulum starts its swing from some initial
angle , then , the vertical distance from the screw, is given by

similarly, for , we have

then is the difference of the two

in terms of gives

(Eq. 2)

This equation is known as the first integral of motion, it gives the velocity in terms of the
location and includes an integration constant related to the initial displacement ( ).
We can differentiate, by applying the chain rule, with respect to time to get the
acceleration

which is the same result as obtained through force analysis.

224
Small-angle approximation
The differential equation given above is not easily solved, and there is no solution that
can be written in terms of elementary functions. However adding a restriction to the
size of the oscillation's amplitude gives a form whose solution can be easily obtained. If
it is assumed that the angle is much less than 1 radian, or

,
then substituting for sin θ into Eq. 1 using the small-angle approximation,

,
yields the equation for a harmonic oscillator,

The error due to the approximation is of order θ 3 (from the Maclaurin series for sin θ).
Given the initial conditions θ(0) = θ0 and dθ/dt(0) = 0, the solution becomes,

The motion is simple harmonic motion where θ0 is the semi-amplitude of the oscillation
(that is, the maximum angle between the rod of the pendulum and the vertical). The
period of the motion, the time for a complete oscillation (outward and return) is

which is known as Christian Huygens's law for the period. Note that under the small-
angle approximation, the period is independent of the amplitude θ0; this is the property
of isochronism that Galileo discovered.

Rule of thumb for pendulum length

can be expressed as
If SI units are used (i.e. measure in metres and seconds), and assuming the
measurement is taking place on the Earth's surface, then m/s2,
and (0.994 is the approximation to 3 decimal places).
Therefore a relatively reasonable approximation for the length and period are,

225
Arbitrary-amplitude period
For amplitudes beyond the small angle approximation, one can compute the exact
period by first inverting the equation for the angular velocity obtained from the energy
method (Eq. 2),
and then integrating over one complete cycle,

or twice the half-cycle

or 4 times the quarter-cycle

which leads to

This integral can be re-written in terms of elliptic integrals as

where is the incomplete elliptic integral of the first kind defined by

Or more concisely by the substitution expressing in terms of ,

(Eq. 3)

where is the complete elliptic integral of the first kind defined by

For comparison of the approximation to the full solution, consider the period of a pendulum of
length 1 m on Earth (g = 9.80665 m/s2) at initial angle 10 degrees

is .

The linear approximation gives .

The difference between the two values, less than 0.2%, is much less than that caused by
the variation of g with geographical location.

226
Legendre polynomial solution for the elliptic integral
Given Eq. 3 and the Legendre polynomial solution for the elliptic integral:

where n!! denotes the double factorial, an exact solution to the period of a
pedulum is:

Figure 4 shows the relative errors using the power series. T0 is the linear
approximation, and T2 to T10 include respectively the terms up to the 2nd to the
10th powers.

Figure 3. Deviation of the "true"


period of a pendulum from the
small-angle approximation of the
period. "True" value was obtained
using Matlab to numerically
evaluate the elliptic integral.

Figure 4. Relative errors


using the power series.

227
Power series solution for the elliptic integral
Another formulation of the above solution can be found if the following
Maclaurin series:

is used in the Legendre polynomial solution above. The resulting power series
is:[1]

Arithmetic-geometric mean solution for elliptic integral

Given Eq. 3 and the Arithmetic-geometric mean solution of the elliptic integral:

where is the arithmetic-geometric mean of and .


This yields an alternative and faster-converging formula for the period:

where is the arithmetic-geometric mean of 1 and .[2]

Figure 5. Potential energy and phase portrait of a simple pendulum. Note that the x-
axis, being angle, wraps onto itself after every 2π radians.

228
References
1.^ Nelson, Robert; M. G. Olsson (February 1986). "The pendulum — Rich physics
from a simple system". American Journal of Physics 54 (2): pp. 112–
121. doi:10.1119/1.14703. Retrieved 2012-04-30.

2.^ Carvalhaes, Claudio; Suppes, Patrick (2008). "Approximations for the period of the
simple pendulum based on the arithmetic-geometric mean". American Journal of
Physics 76 (12).

3.^ Physical Pendulum

4.^ Paul Appell, "Sur une interprétation des valeurs imaginaires du temps en
Mécanique", Comptes Rendus Hebdomadaires des Scéances de l'Académie des Sciences,
volume 87, number 1, July, 1878

5.^ Adlaj, S. Mechanical interpretation of negative and imaginary tension of a tether in a


linear parallel force field , Selected papers of the International Scientific Conference on
Mechanics "SIXTH POLYAKHOV READINGS", January 31 - February 3, 2012, Saint-
Petersburg, Russia, pp. 13-18.
------------------------------

Sistemas autônomos no plano (Wikipédia em português)

Um sistema dinâmico autônomo, com duas variáveis de estado e , é


caraterizado por duas equações de evolução:

onde e são duas funções quaisquer, que dependem das variáveis e . Não
existem técnicas analíticas gerais para resolver esse tipo de equações; unicamente
existem técnicas analíticas gerais para o caso dos sistemas lineares, em
que e são combinações lineares das variáveis e .1
Os sistemas não lineares geralmente só podem ser resolvidos por métodos numéricos.
No entanto, a análise gráfica no espaço de fase pode fornecer muita informação sobre
o comportamento do sistema.1 Em geral, começa-se por identificar os pontos fixos.
Pontos de equilíbrio

Consideremos o sistema 1:
Existem quatro pontos de equilíbrio. Os pontos onde o lado direito da primeira

equação é nulo, são todos os pontos da elipse e os pontos onde o lado


direito da segunda equação é nulo são os pontos da hipérbole .

Os pontos de equilíbrio são os pontos de interseção entre as curvas onde cada uma
das funções é nula.

229
Os pontos de equilíbrio do sistema são os quatro pontos de interseção entre a elipse e
a hipérbole. Os gráficos dessas duas curvas desenham-se mais facilmente usando a
forma paramétrica dessas equações:

O resultado é apresentado na figura 10.1. Dentro da elipse, é positiva: o campo de


direções aponta para a direita, e fora da elipse o campo aponta para a esquerda. Na
região à esquerda da hipérbole, o campo de direções aponta para baixo, entre os dois
ramos da hipérbole o campo aponta para cima, e à direita da hipérbole o campo
aponta para baixo.
Aproximação linear
Cada uma das funções e podem ser escritas na forma de uma série de Taylor,
na vizinhança de um ponto qualquer do espaço de fase:1

Se o ponto for um ponto de equilíbrio, é nula e, portanto, o primeiro


termo da série é nulo.1

Mudando a origem de coordenadas para o ponto fixo , isto é, num novo sistema
de coordenadas: , , as funções são, aproximadamente,

Os índices indicam que e deverão ser substituídos pelas


coordenadas do respetivo ponto de equilíbrio. Substituindo essas aproximações
no sistema anterior, obtém-se um sistema linear (repare-se que , porque é
uma constante, e , porque também é constante.)

esta aproximação linear só será válida numa vizinhança da origem ,


nomeadamente, perto do ponto fixo.1
A matriz do sistema linear (aproximação linear) designa-se por matriz jacobiana,

Substituindo as coordenadas do ponto de equilíbrio na matriz jacobiana, obtém-


se uma matriz constante. Por cada ponto de equilíbrio existe uma matriz de
coeficientes constantes, que corresponde à aproximação linear perto desse ponto de
equilíbrio. Os valores e vetores próprios de cada uma dessas matrizes permitem
analisar a estabilidade do sistema, na vizinhança do respetivo ponto de equilíbrio, da
mesma forma que é feito para os sistemas lineares.1

230
Sistemas Não Lineares Físicos

Pêndulo

O tipo de pêndulo a seguir está formado por um disco de massa e raio , ligado a
uma barra rígida de massa desprezável em comparação com . No outro extremo da
barra passa um eixo horizontal que permite que o pêndulo rode num plano vertical,
descrevendo trajetórias circulares com raio , onde é a distância desde o centro do
disco até o eixo de rotação. (figura abaixo).

Pêndulo formado por um disco e uma barra que pode rodar à volta de um eixo
horizontal.

O pêndulo tem unicamente um grau de liberdade, que pode ser definido como o
ângulo que faz com a vertical. Portanto, existem duas variáveis de estado, , e a
velocidade angular . A primeira equação de evolução é a relação entre o ângulo e a
velocidade angular: . A segunda equação de evolução é a expressão da
aceleração angular em função de e de . Para encontrar essa expressão, é
preciso resolver as leis do movimento do corpo rígido.1

Sobre o pêndulo atuam duas forças externas: o peso, , vertical, e uma força de
contato do eixo sobre a barra, , que por conveniência será decomposta numa
componente tangencial e outra componente normal , na direção da barra.1
Como o eixo de rotação do pêndulo está fixo, pode aplicar-se a lei do movimento de
rotação com eixo fixo:

Neste caso, o peso é a única força que produz momento em relação ao eixo e esse
momento é . Assim, a expressão para em função do ângulo é:

Onde é o momento de inércia do disco, já que o momento de inércia da barra é


desprezado. O momento de inércia do disco em relação ao seu centro é:

231
e usando o teorema dos eixos paralelos para deslocar o eixo
uma distância , desde o centro do disco até o eixo do pêndulo, obtemos:

O chamado pêndulo simples corresponde ao caso em que o raio do disco, , for muito
menor que o comprimento da barra, ; nesse caso, o momento de inércia será,
aproximadamente, , e as equações de evolução obtidas para o pêndulo
simples são as seguintes (num pêndulo que não seja simples, deverá ser
substituída por

Aproximação linear do pêndulo


Os pontos de equilíbrio do pêndulo são todos os pontos onde os lados direitos das
equações do pêndulo simples sejam nulos; consequentemente, existem pontos de
equilíbrio em
Os pontos em , são realmente o mesmo ponto físico, na
posição mais baixa do pêndulo, correspondentes à passagem do pêndulo por essa
posição, após um número qualquer de voltas. Os pontos em são
também um mesmo ponto físico, na parte mais alta do pêndulo.
A matriz jacobiana do sistema é:

No ponto de equilíbrio em , a matriz é:

com valores próprios iguais a . Consequentemente, o ponto de equilíbrio


é um centro (equilíbrio estável). De fato, a matriz jacobiana do pêndulo é
semelhante à matriz de um oscilador harmônico simples, com em vez e .

Assim, nos pontos próximos de , o sistema é parecido a um


oscilador harmônico simples, com órbitas elípticas no espaço de fase, que
correspondem a oscilações harmônicas com frequência angular:

232
Perto do ponto de equilíbrio em , a matriz jacobiana é igual a:

com dois valores próprios reais e de sinais opostos. Trata-se de um ponto


de sela (equilíbrio instável).
Para esboçar o campo de direções usando, consideremos um pêndulo com igual
50cm. Assim, no sistema internacional de unidades, as equações do pêndulo são:

Retrato de fase do pêndulo.

A figura acima mostra o retrato de fase do pêndulo. No eixo horizontal está


representado o ângulo e no eixo vertical a velocidade angular .
As curvas identificadas com as letras A e B na figura acima, que começam desde um
ponto de sela e terminam noutro, fazem parte de uma 'órbita heteroclínica.
Uma órbita heteroclínica é uma curva no espaço de fase formada por vários
segmentos, cada um começando num ponto de sela e terminando em outro ponto de
sela diferente. O último segmento termina no mesmo ponto de sela onde começou o
primeiro.1
As órbitas heteroclínicas do pêndulo correspondem ao caso em que a energia
mecânica do pêndulo é exatamente igual à energia potencial gravítica no ponto de
altura máxima. Usando como referência no ponto mais baixo do pêndulo, a
energia potencial no ponto mais alto é .1
Essas órbitas heteroclínicas também são separatrizes, porque delimitam a região
onde existe movimento oscilatório: região sombreada na figura anterior. Se o estado
inicial estiver dentro dessa região, o pêndulo oscila; caso contrário, o pêndulo
descreve movimento circular não uniforme.
A figura anterior mostra a evolução em função do tempo de dois ciclos à volta do ponto
de equilíbrio estável. No primeiro caso, o pêndulo foi largado, do repouso, com um
233
ângulo inicial de 0.5 radianos (aproximadamente ); No retrato de fase, essa
solução é bastante aproximada a uma elipse. Uma elipse no retrato de fase
corresponde à solução de um oscilador harmônico simples. O pêndulo oscila de forma
harmônica e o seu período de oscilação é aproximadamente 1.44s.1
Usando a aproximação do pêndulo como oscilador harmônico simples, é possível
calcular o seu período de oscilação (equação do pêndulo simples). No caso que
consideramos o período do pêndulo seria aproximadamente 1.42s. Os
valores mais realistas, que obtivemos de forma numérica, são um pouco superiores.
Quanto menor for o ângulo máximo de oscilação, mais perto estará o período do valor
obtido com a aproximação linear.1

Referência
1. [ Introdução aos sistemas dinâmicos. Porto: Jaime E. Villate, 27 de fevereiro de 2007. 204 págs].

- Creative Commons Atribuição-Partilha (versão 3.0)ISBN972-99396-0-8. Acesso em 12 julho. 2013.


-------------------------------------
References
1.^ Nelson, Robert; M. G. Olsson (February 1986). "The pendulum — Rich physics
from a simple system". American Journal of Physics 54 (2): pp. 112–
121. doi:10.1119/1.14703. Retrieved 2012-04-30.

2.^ Carvalhaes, Claudio; Suppes, Patrick (2008). "Approximations for the period of the
simple pendulum based on the arithmetic-geometric mean". American Journal of
Physics 76 (12).

3.^ Physical Pendulum

4.^ Paul Appell, "Sur une interprétation des valeurs imaginaires du temps en
Mécanique", Comptes Rendus Hebdomadaires des Scéances de l'Académie des Sciences,
volume 87, number 1, July, 1878

5.^ Adlaj, S. Mechanical interpretation of negative and imaginary tension of a tether in a


linear parallel force field , Selected papers of the International Scientific Conference on
Mechanics "SIXTH POLYAKHOV READINGS", January 31 - February 3, 2012, Saint-
Petersburg, Russia, pp. 13-18.

234
COMPOUND PENDULUM
A compound pendulum (or physical pendulum) is one where the rod is not
massless, and may have extended size; that is, an arbitrarily shaped rigid
body swinging by a pivot. In this case the pendulum's period depends on
its moment of inertia I around the pivot point.
The equation of torque gives:

where:
is the angular acceleration.
is the torque
The torque is generated by gravity so:

where:
L is the distance from the pivot to the center of mass of the pendulum
θ is the angle from the vertical
Hence, under the small-angle approximation ,

This is of the same form as the conventional simple pendulum and this gives a
period of:

[3]

and a frequency of:

Physical interpretation of the imaginary period

The Jacobian elliptic function that expresses the position of a pendulum as a


function of time is a doubly periodic function with a real period and
an imaginary period. The real period is of course the time it takes the pendulum
to go through one full cycle. Paul Appell pointed out a physical interpretation of
the imaginary period:[4] if θ0 is the maximum angle of one pendulum and
180° − θ0 is the maximum angle of another, then the real period of each is the
magnitude of the imaginary period of the other. This interpretation, involving
dual forces in opposite directions, might be further clarified and generalized to
other classical problems in mechanics with dual solutions.[5]

235
Double pendulum

A double pendulum consists of


Double compound pendulum
two
pendulums attached end to end.

A double pendulum is a pendulum with another pendulum attached to its end, and is
a simple physical system that exhibits rich dynamic behavior with a strong sensitivity to
initial conditions.[1] The motion of a double pendulum is governed by a set of
coupled ordinary differential equations. For certain energies its motion is chaotic.

Analysis and interpretation


Several variants of the double pendulum may be considered; the two limbs may be of
equal or unequal lengths and masses, they may be simple pendulums or compound
pendulums
(also called complex pendulums) and the motion may be in three dimensions or
restricted to the vertical plane. In the following analysis, the limbs are taken to be
identical compound pendulums of length and mass , and the motion is restricted to
two dimensions.
In a compound pendulum, the mass is distributed along its length. If the mass is evenly
distributed, then the center of mass of each limb is at its mid point, and the limb has
a moment of inertia of about that point.
It is convenient to use the angles between each limb and the vertical as
the generalized coordinates defining the configuration of the system. These angles are
denoted θ1 and θ2. The position of the center of mass of each rod may be written in
terms of these two coordinates. If the origin of the Cartesian coordinate system is taken
to be at the point of suspension of the first pendulum, then the center of mass of this
pendulum is at:

236
and the center of mass of the second pendulum is at

This is enough information to write out the Lagrangian.

Lagrangian
The Lagrangian is

The first term is the linear kinetic energy of the center of mass of the bodies and the
second term is the rotational kinetic energy around the center of mass of each rod. The
last term is the potential energy of the bodies in a uniform gravitational field. The dot-
notation indicates the time derivative of the variable in question.
Substituting the coordinates above and rearranging the equation gives

There is only one conserved quantity (the energy), and no conserved momenta. The
two momenta may be written as

and

These expressions may be inverted to get

and

The remaining equations of motion are written as

237
and

These last four equations are explicit formulae for the time evolution of the system
given its current state. It is not possible to go further and integrate these equations
analytically, to get formulae for θ1 and θ2 as functions of time. It is however possible to
perform this integration numerically using the Runge Kutta method or similar
techniques.

Chaotic motion

The double pendulum undergoes chaotic motion, and shows a sensitive dependence
on initial conditions. The image to the right shows the amount of elapsed time before
the pendulum "flips over," as a function of initial conditions. Here, the initial value of
θ1 ranges along the x-direction, from −3 to 3. The initial value θ2 ranges along the y-
direction, from −3 to 3. The colour of each pixel indicates whether either pendulum flips

within (green), within (red), (purple)

or (blue). Initial conditions that don't lead to a flip

within are plotted white.


The boundary of the central white region is defined in part by energy conservation with
the following curve:

Within the region defined by this curve, that is if

then it is energetically impossible for either pendulum to flip. Outside this region, the
pendulum can flip, but it is a complex question to determine when it will flip.
The lack of a natural excitation frequency has led to the use of double pendulum
systems in seismic resistance designs in buildings, where the building itself is the
primary inverted pendulum, and a secondary mass is connected to complete the
double pendulum.

238
Motion of the double compound pendulum (from numerical integration of the equations
of motion) exhibiting chaotic motion (tracked with an LED).

Notes

1. ^ Levien RB and Tan SM. Double Pendulum: An experiment in chaos.American


Journal of Physics 1993; 61 (11): 1038
References

 Meirovitch, Leonard (1986). Elements of Vibration Analysis (2nd edition ed.). McGraw-Hill
Science/Engineering/Math. ISBN 0-07-041342-8.
 Eric W. Weisstein, Double pendulum (2005), Science World (contains details of the complicated
equations involved) and "Double Pendulum" by Rob Morris, Wolfram Demonstrations Project, 2007
(animations of those equations).
 Peter Lynch, Double Pendulum, (2001). (Java applet simulation.)
 Northwestern University, Double Pendulum, (Java applet simulation.)
 Theoretical High-Energy Astrophysics Group at UBC, Double pendulum, (2005).
External links

 Animations and explanations of a double pendulum and a physical double pendulum (two square
plates) by Mike Wheatland (Univ. Sydney)
 Video of a double square pendulum with three (almost) identical starting conditions.
 Double pendulum physics simulation from www.myphysicslab.com

239
m) LORENZ SYSTEM

The Lorenz system is a system of ordinary differential equations (the Lorenz


equations) first studied by Edward Lorenz. It is notable for having chaotic solutions for
certain parameter values and initial conditions. In particular, the Lorenz attractor is a
set of chaotic solutions of the Lorenz system which, when plotted, resemble a butterfly
or figure eight.

Overview
In 1963, Edward Lorenz developed a simplified mathematical model for atmospheric
convection.[1]
The model is a system of three ordinary differential equations now known as the
Lorenz equations:

Here , , and make up the system state, is time, and , , are the system
parameters. The Lorenz equations also arise in simplified models
[2] [3] [4] [5]
for lasers, dynamos, thermosyphons, brushless DC motors, electric
circuits,[6] and chemical reactions.[7]
From a technical standpoint, the Lorenz system is nonlinear, three-dimensional
and deterministic. The Lorenz equations have been the subject of at least one book
length study.[8]

Derivation of the Lorenz equations as a model of atmospheric


convection
The Lorenz equations are derived from the Oberbeck-Boussinesq approximation to the
equations describing fluid circulation in a shallow layer of fluid, heated uniformly from
below and cooled uniformly from above.[1] This fluid circulation is known as Rayleigh-
Bénard convection. The fluid is assumed to circulate in two dimensions (vertical and
horizontal) with periodic rectangular boundary conditions. The partial differential
equations modeling the system's stream function and temperature are subjected to a
spectral Galerkin approximation: the hydrodynamic fields are expanded in Fourier
series, which are then severely truncated to a single term for the stream function and
two terms for the temperature. This reduces the model equations to a set of three
coupled, nonlinear ordinary differential equations. A detailed derivation may be found,
for example, in nonlinear dynamics texts.[14] The Lorenz system is a reduced version of
a larger system studied earlier by Barry Saltzman.[15]

240
A plot of a solution when ρ = 28,
σ = 10, and β = 8/3 (i.e. a
solution in the Lorenz attractor)

A trajectory of Lorenz's
equations, rendered as a
metal wire to show
direction and 3D structure

Analysis
One normally assumes that the parameters , , and are positive. Lorenz used the
values , and . The system exhibits chaotic behavior for these
values.[9]

If then there is only one equilibrium point, which is at the origin. This point corresponds
to no convection. All orbits converge to the origin when .[10]

A saddle-node bifurcation occurs at , and for two additional critical points appear
at

241
These correspond to steady convection. This pair of equilibrium points is stable only if

which can hold only for positive if . At the critical value, both equilibrium points
lose stability through a Hopf bifurcation.[11]

When , , and , the Lorenz system has chaotic solutions (but not
all solutions are chaotic). The set of chaotic solutions make up the Lorenz attractor, a strange
attractor and a fractal with a Hausdorff dimension which is estimated to be 2.06 ± 0.01 and the

correlation dimension estimated to be 2.05 ± 0.01.[12]

The Lorenz attractor is difficult to analyze, but the action of the differential equation on the
attractor is described by a fairly simple geometric model, proving that this is indeed the case is
the fourteenth problem on the list of Smale's problems. This problem was the first one to be
resolved, by Warwick Tucker in 2002.[13]

For other values of , the system displays knotted periodic orbits. For example,
with it becomes a T(3,2) torus knot.

Example solutions of the Lorenz system for different values of ρ

ρ=14, σ=10, β=8/3 ρ=13, σ=10, β=8/3

242
ρ=15, σ=10, β=8/3 ρ=28, σ=10, β=8/3

For small values of ρ, the system is stable and evolves to one of two fixed point attractors. When ρ is
larger than 24.74, the fixed points become repulsors and the trajectory is repelled by them in a very
complex way.

Sensitive dependence on the initial condition

Time t=1 Time t=2 Time t=3

These figures — made using ρ=28, σ = 10 and β = 8/3 — show three time segments of the 3-D evolution
of 2 trajectories (one in blue, the other in yellow) in the Lorenz attractor starting at two initial points that
differ only by 10-5 in the x-coordinate. Initially, the two trajectories seem coincident (only the yellow one
can be seen, as it is drawn over the blue one) but, after some time, the divergence is obvious.

Notes
1. ^ Lorenz (1963)
2. ^ Haken (1975)

243
3. ^ Knobloch (1981)
4. ^ Gorman, Widmann & Robbins (1986)
5. ^ Hemati (1994)
6. ^ Cuomo & Oppenheim (1993)
7. ^ Poland (1993)
8. ^ Sparrow (1982)
9. ^ Hirsch, Smale & Devaney (2003), pp. 303–305
10. ^ Hirsch, Smale & Devaney (2003), pp. 306+307
11. ^ Hirsch, Smale & Devaney (2003), pp. 307+308
12. ^ Grassberger & Procaccia (1983)
13. ^ Tucker (2002)
14. ^ Hilborn (2000), Appendix C; Bergé, Pomeau & Vidal (1984), Appendix D
15. ^ Saltzman (1962)

References

 Bergé, Pierre; Pomeau, Yves; Vidal, Christian (1984). Order within Chaos: Towards a
Deterministic Approach to Turbulence. New York: John Wiley & Sons. ISBN 978-0-471-84967-4.
 Cuomo, Kevin M.; Oppenheim, Alan V. (1993). "Circuit implementation of synchronized chaos
with applications to communications". Physical Review Letters 71 (1): 65–
68.doi:10.1103/PhysRevLett.71.65. ISSN 0031-9007.
 Gorman, M.; Widmann, P.J.; Robbins, K.A. (1986). "Nonlinear dynamics of a convection loop: A
quantitative comparison of experiment with theory". Physica D 19 (2): 255–267.doi:10.1016/0167-
2789(86)90022-9.
 Grassberger, P.; Procaccia, I. (1983). "Measuring the strangeness of strange attractors". Physica
D 9 (1–2): 189–208. Bibcode:1983PhyD....9..189G. doi:10.1016/0167-2789(83)90298-1.
 Haken, H. (1975). "Analogy between higher instabilities in fluids and lasers". Physics Letters
A 53 (1): 77–78. doi:10.1016/0375-9601(75)90353-9.
 Hemati, N. (1994). "Strange attractors in brushless DC motors". IEEE Transactions on Circuits
and Systems I: Fundamental Theory and Applications 41 (1): 40–
45.doi:10.1109/81.260218. ISSN 1057-7122.
 Hilborn, Robert C. (2000). Chaos and Nonlinear Dynamics: An Introduction for Scientists and
Engineers (second ed.). Oxford University Press. ISBN 978-0-19-850723-9.
 Hirsch, Morris W.; Smale, Stephen; Devaney, Robert (2003). Differential Equations, Dynamical
Systems, & An Introduction to Chaos (Second ed.). Boston, MA: Academic Press. ISBN 978-0-12-
349703-1.
 Lorenz, Edward Norton (1963). "Deterministic nonperiodic flow". Journal of the Atmospheric
Sciences 20 (2): 130–141. Bibcode:1963JAtS...20..130L. doi:10.1175/1520-
0469(1963)020<0130:DNF>2.0.CO;2.
 Knobloch, Edgar (1981). "Chaos in the segmented disc dynamo". Physics Letters A 82 (9): 439–
440. doi:10.1016/0375-9601(81)90274-7.
 Poland, Douglas (1993). "Cooperative catalysis and chemical chaos: a chemical model for the
Lorenz equations". Physica D 65 (1): 86–99. doi:10.1016/0167-2789(93)90006-M.
 Saltzman, Barry (1962). "Finite Amplitude Free Convection as an Initial Value Problem—
I". Journal of the Atmospheric Sciences 19 (4): 329–341.
 Sparrow, Colin (1982). The Lorenz Equations: Bifurcations, Chaos, and Strange Attractors.
Springer.
 Tucker, Warwick (2002). "A Rigorous ODE Solver and Smale's 14th Problem". Foundations of
Computational Mathematics 2 (1): 53–117. doi:10.1007/s002080010018.

244
This is a ranking list of chaotic maps. Only top dozen Best Chaotic Maps, according to
different criteria, are presented. The ranking is in particular based on the number of occurences
of each chaotic map in web pages, news, pictures and people votes in corresponding context.

Rank Score Item

1. 123 Logistic map

2. 79 Cellular automata

3. 75 Mandelbrot set

4. 60 Standard map

5. 57 Lorenz attractor

6. 39 Area-preserving maps

7. 38 Van der Pol oscillator

8. 38 Quadratic map

9. 37 Cantor set

10. 36 Sierpinski triangle

11. 36 Piecewise linear map

12. 35 Duffing equation

245
78- CÁLCULO DE PROBABILIDADES. QUANDO HÁ VARIÁVEIS QUE NÃO SÃO, NÃO
CONSEGUEM OU NÃO PODEM SER CONTROLADAS, OS EXPERIMENTOS SÃO MENOS
CONCLUSIVOS, DEPENDENDO DE VÁRIAS REPETIÇÕES, SENDO MUITAS VEZES UTILIZADAS AS
CONCLUSÕES PROBABILÍSTICAS, QUE PERMITEM, AS CORRESPONDENTES PREDIÇÕES
PROBABILÍSTICAS, E CONFORME O CASO, AS ANTECIPAÇÕES, ADAPTAÇÕES, OU AJUSTES,
CONVENIENTES.

- O CHAMADO “CÁLCULO DE PROBABILIDADES” FOI CRIADO POR B. PASCAL (QUE TAMBÉM


INVENTOU A MÁQUINA DE CALCULAR), À PARTIR DE 1652, QUANDO PASSOU A SE INTERESSAR
PELOS PROBLEMAS MATEMÁTICOS RELACIONADOS AOS JOGOS DE DADOS, E CONTOU,
DENTRE OUTROS, COM AS CONTRIBUIÇÕES DE FERMAT, HUYGENS (1657), BERNOULLI (1783),
DE MOIVRE (1718), GAUSS (1794), LAPLACE (1812); E .

- EM 1931, K.KOLMOGOROV APRESENTOU A TEORIA DAS PROBABILIDADES BASEADA NA


TEORIA DA MEDIDA;

- AS ESTATÍSTICAS, SURGIRAM À PARTIR DE 1662, COM J.GRAUNT, RELACIONADAS A


CÁLCULOS DEMOGRÁFICOS E ECONÔMICOS; E,
- EM 1772, “A TEORIA DO ERRO”, COM R.COTES;

- CONCEITOS DE ESPERANÇA ESTATÍSTICA, VALOR ESPERADO OU VALOR MÉDIO:

Em probabilidade e estatística, o espaço amostral é o conjunto dos possíveis resultados


de um experimento (p.ex. cara, coroa), e uma variável aleatória, uma função que a
cada resultado, associa um valor numérico, que, de modo distinto ao de uma variável
matemática comum, está sujeito a uma chance ou probabilidade de ocorrer. Um
evento é um subconjunto do espaço amostral, que pode ser caracterizado através de uma
propriedade.

Se uma variável aleatória assumi os valores , calcula-se a média de ,

, através de:

A variância da população yi onde i = 1, 2, ...., N é dada por

onde μ = E(X) é a média da população: “é a média dos quadrados das distâncias de


cada ponto à média μ”, e representa uma medida da dispersão dos pontos yi em
relação à média;

- Para uma variável aleatória discreta com valores possíveis e com as


suas probabilidades representadas pela função p(xi), o valor esperado calcula-se pela
série:

246
OU SEJA, É A MÉDIA DOS VALORES, PONDERADA PELAS RESPECTIVAS PROBABILIDADES DE
OCORRÊNCIA;

A VARIÂNCIA DE UMA VARIÁVEL ALEATÓRIA X , .

.= , onde μ = E(X)

E O DESVIO PADRÃO de uma variável aleatória X é definido por:

Para uma distribuição normal unimodal, gaussiana, simétrica, de afunilamento médio


(ou mesocúrtica) podemos dizer que:

 68% dos valores encontram-se a uma distância da média inferior a um desvio padrão.
 95% dos valores encontram-se a uma distância da média inferior a duas vezes o desvio
padrão.
 99,7% dos valores encontram-se a uma distância da média inferior a três vezes o
desvio padrão.

Esta informação é conhecida como a regra dos "68-95-99,7".

- EM 1952, H.MARKOWITZ, DEFINIU RISCO COMO DESVIO EM RELAÇÃO A UMA MÉDIA, E


ANALISOU UMA CARTEIRA DE INVESTIMENTOS EM TERMOS DOS CONCEITOS DE
RISCO/RETORNO ESPERADO; EXEMPLOS:
. a) EM ESTUDO INICIADO EM 1948, COORDENADO PELO DR. WILLIAM
CASTELLI, NA CIDADE DE FRAMINGHAM, EM MASSACHUSETTS-USA, CARDIOLOGISTAS
ACOMPANHARAM CERCA DE 5.000 HABITANTES (CORRESPONDENTE A METADE DA
POPULAÇÃO ADULTA) DURANTE QUATRO DÉCADAS, QUANDO FORAM COMPARADAS
PESSOAS QUE SOFRERAM ATAQUES CARDÍACOS, COM PESSOAS DO MESMO SEXO E IDADE
QUE NÃO SOFRERAM, E FORAM OS PRIMEIROS A FORMALIZAR O CONCEITO DE FATOR DE
RISCO PARA AS DOENÇAS CARDIOVASCULARES, QUE SÃO VARIÁVEIS (COMO NÍVEL DE

247
COLESTEROL, PRESSÃO SANGUÍNEA, FUMO, EXCESSO DE PESO, EXCESSO DE AÇÚCAR NO
SANGUE, VIDA SEDENTÁRIA, ALÉM DE POSSÍVEIS OUTRAS COMO CONSUMO DE FIBRAS, DE
BEBIDAS ALCOÓLICAS, ETC.), QUE, UMA VEZ CONTROLADAS, DIMINUEM O RISCO DE SOFRER
ATAQUES; CONSTATOU-SE AINDA, QUE HÁ PESSOAS QUE PARECERAM IMUNES AOS FATORES
DE RISCO, O QUE SÓ PODE SER CONSTATADO DEPOIS DOS 80 ANOS DE IDADE, QUANDO O
INDIVÍDUO JÁ TERIA CORRIDO O RISCO DE ATAQUE; OBS: A QUANTIDADE E INTENSIDADE DOS
EXERCÍCIOS SÃO AINDA PROBLEMAS ABERTOS (HARVARD ALUMNI HEALTH STUDY);
.

b) O EXAME VESTIBULAR É OUTRO EXEMPLO: PARA EVITAR O EXCESSO DE EXPECTATIVA


DIANTE DO EXAME VESTIBULAR, COM POSSÍVEL PREJUÍZO AO DESEMPENHO DO ALUNO, OS
PRÉ-VESTIBULARES REALIZAM SIMULADOS; SE O ALUNO NÃO ATINGIR A NOTA MÍNIMA
NESSE EXAME, PARA NÃO CORRER O RISCO DE SER REPROVADO, DEVE SE EMPENHAR MAIS
NOS SEUS ESTUDOS, OU MELHORAR A SUA EFICIÊNCIA; OS POSSÍVEIS ARGUMENTOS DE QUE
A PROVA NÃO FOI SIMPLES, OU FOI TRABALHOSA; DE QUE O ALUNO ESTAVA COM EXCESSO
DE EXPECTATIVA, CANSADO, ETC. NÃO DEVEM SER USADOS PARA NÃO AGIR (VISTO QUE NO
EXAME, ESSES FATORES PODERÃO SE REPETIR), MAS SIM PARA REAGIR E CONTROLAR ESSES
FATORES DE RISCO;

c) NUM EXPERIMENTO ELUCIDATIVO, UMA MOEDA ESPECIALMENTE CONSTRUÍDA (DO


MODO MAIS PERFEITO POSSÍVEL, PARA QUE NÃO HOUVESSE PRÉVIA TENDÊNCIA POR ALGUM
DOS LADOS), FOI LANÇADA POR UMA MÁQUINA (PARA QUE O LANÇAMENTO FOSSE SEMPRE
DA MESMA FORMA): CONSTATOU-SE QUE: APÓS UM GRANDE NÚMERO DE LANÇAMENTOS,
O NÚMERO DE RESULTADOS “CARA” FOI DE APROXIMADAMENTE 50 %, CAUSANDO
ESTRANHEZA A VÁRIOS PESQUISADORES, TENDO EM VISTA AS LEIS DA MECÂNICA DE
NEWTON;

d) Num exemplo divulgado, diz-se que uma consultoria contratada por um empresário,
na pesquisa de dados sobre o mercado, para reconhecer produtos nos quais pudesse
investir, constatou, inesperadamente, que a melhor correlação numérica
(aproximadamente igual a 1), se verificou entre o aumento de salário dos professores
universitários e o consumo de uísque, induzindo a um investindo na marca
Teacher's.

e) EXPECTATIVA DE VIDA

248
The most commonly used measure of life expectancy is life expectancy at age
zero, that is, at birth (LEB), which can be defined as the mean length of life (or
the average number of years) a hypothetical birth cohort (all individuals born a
given year) in a given country would live if mortality rates at each age were to
remain constant in the future; LEB can be computed only for cohorts that were
born many decades ago, so that all their members died. It was estimated that in
the Bronze and Iron Age LEB was 26 years; the 2010 world LEB was 67.2, and
for recent years in Swaziland LEB is about 49 years while in Japan is about 83
years. Worldwide, the average life expectancy at birth was 71.0 years (68.5
years for males and 73.5 years for females) over the period 2010–2013
according to United Nations World Population Prospects 2012 Revision. Os
dados de 2012 da Organização mundial da Saúde da ONU, confirmam que, em
cada país, a expectativa de vida das mulheres e maior do que a dos homens,
ou seja, elas vivem mais e ainda reclamam! O Brasil comparece na 58ª
posição do ranking mundial. The combination of high infant mortality and deaths
in young adulthood from accidents, epidemics, plagues, wars, and childbirth,
particularly before modern medicine was widely available, significantly lowers
LEB. Segundo o IBGE (Instituto Brasileiro de Geografia e Estatística) a
expectativa de vida ao nascer no Brasil (para todas as idades até 80 anos)
subiu de 74,6 anos em 2012, para 74,9 anos em 2013, apresentando um
aumento de 3 meses e 25 dias. Mas, se comparada com a de dez anos atrás, a
expectativa de vida do brasileiro aumentou mais de três anos. Em 2003, era de
71,3 anos.

A propósito, um teste escolar, solicitava ao aluno, indicar a alternativa mais


precisa: Conforme estimativa (aproximada) divulgada: na Grécia antiga, a
média de vida das pessoas era de 25 anos de idade; na idade média, 35; nos

249
países desenvolvidos, a expectativa de vida (em média), em 1970 era de 68
anos, e hoje já alcança mais de 82 anos. Tentar identificar as alternativas
verdadeiras:

a) As pessoas estão vivendo mais tempo, e isso é desejável!

b) Em média, as pessoas estão vivendo mais tempo, e isso é desejável!

c) As pessoas estão vivendo mais tempo, e isso, em média, é desejável!

d) Em média, as pessoas estão vivendo mais tempo, e, em média, isso é desejável!


f) Mathematician A. De Morgan wrote in 1866: "…The first experiment already
illustrates a truth of the theory, well confirmed by practice, what- ever can happen will
happen if we make trials enough.", ou, em outras palavras, numa experimentação
repetitiva, um evento que apresentar probabilidade positiva de ocorrer, ocorrerá,
mais cedo ou mais tarde. Complementando o enunciado de De Morgan, há ainda, os
exemplos representativos do enunciado (pelo engenheiro Norte Americano Ed Murphy,
em 1949) conhecido por Lei de Murphy (dos necessariamente incompetentes,
definitiva e irremediavelmente errados, ou constantemente azarentos (pé frios)),
para os quais “se houver algum modo de uma tarefa ‘não dar certo’, eles o
empreenderão”. Essa lei conta com diversos corolários, por exemplo: “Os
necessariamente incompetentes, quando não erram na entrada, erram na saída”; “O
pão dos azarentos sempre cai com a manteiga para baixo!”, etc.... A propósito, um
crítico da teoria, costumava perguntar, em tom jocoso, se seria possível ‘esquentar a
cabeça de um indivíduo, que tivesse o pé frio (no gelo), para que ele
sobrevivesse em média!’

-À PARTIR DE 1870, COM AS CONTRIBUIÇÕES DE L.BOLTZMANN, J.MAXWELL E J.GIBBS, TEVE


INÍCIO A MECÂNICA ESTATÍSTICA, VISANDO, À PARTIR DO “COMPORTAMENTO INCERTO” DE
MOLÉCULAS, ÁTOMOS E PARTÍCULAS ELEMENTARES, JUSTIFICAR O “COMPORTAMENTO
MÉDIO” (DO CONJUNTO DE PARTÍCULAS), OU EFEITOS, OBSERVADOS NO NÍVEL
MACROSCÓPICO;
- COMO FOI MENCIONADO NO ÍTEM 58, A MECÂNICA QUÂNTICA SE UTILIZA DE UMA
DESCRIÇÃO PROBABILÍSTICA DA NATUREZA;

-À PARTIR DA DÉCADA DE 1960, COM A MAIOR DISPONIBILIDADE DE PROCESSAMENTO


DIGITAL/ELETRÔNICO DE DADOS OFERECIDA PELAS MÁQUINAS MODERNAS,
DESENVOVERAM-SE NOVOS MÉTODOS NUMÉRICOS E DE INFERÊNCIA ( ALÉM DA
RECUPERAÇÃO DE MÉTODOS MAIS ANTIGOS QUE NÃO ERAM EFICIENTES), SENDO QUE,
ATUALMENTE, OS MÉTODOS ESTATÍSTICOS SÃO AMPLAMENTE UTILIZADOS, ESPECIALMENTE
NAS PREDIÇÕES PROBABILÍSTICAS, QUE POR SUA VEZ, SUBSIDIAM DECISÕES;

-STOCHASTIC PROCESSES: In probability theory, a stochastic process (pronunciation:


/stoʊˈkæstɪk/), or sometimes random process (widely used) is a collection of random
variables; this is often used to represent the evolution of some random value, or system, over
time. This is the probabilistic counterpart to a deterministic process (or deterministic system).

250
Instead of describing a process which can only evolve in one way (as in the case, for example,
of solutions of an ordinary differential equation), in a stochastic or random process there is
some indeterminacy: even if the initial condition (or starting point) is known, there are several
(often infinitely many) directions in which the process may evolve.

In the simple case of discrete time, a stochastic process amounts to a sequence of random
variables known as a time series (for example, see Markov chain). Another basic type of a
stochastic process is a random field, whose domain is a region of space, in other words, a
random function whose arguments are drawn from a range of continuously changing values.
One approach to stochastic processes treats them as functions of one or several deterministic
arguments (inputs, in most cases regarded as time) whose values (outputs) are random variables:
non-deterministic (single) quantities which have certain probability distributions. Random
variables corresponding to various times (or points, in the case of random fields) may be
completely different. The main requirement is that these different random quantities all have the
same type. Type refers to the codomain of the function. Although the random values of a
stochastic process at different times may be independent random variables, in most commonly
considered situations they exhibit complicated statistical correlations.

Familiar examples of processes modeled as stochastic time series include stock market and
exchange rate fluctuations, signals such as speech, audio and video, medical data such as a
patient's EKG, EEG, blood pressure or temperature, and random movement such as Brownian
motion or random walks. Examples of random fields include static images, random terrain
(landscapes), wind waves or composition variations of a heterogeneous material.

Formal definition: given a probability space and a measurable space ,


an S-valued stochastic process is a collection of S-valued random variables on , indexed
by a totally ordered set T ("time"). That is, a stochastic process X is a collection

where each is an S-valued random variable on . The space S is


then called the state space of the process.

A STOCHASTIC DIFFERENTIAL EQUATION (SDE) is a differential equation in which one or more


of the terms is a stochastic process, resulting in a solution which is itself a stochastic process.
SDE are used to model diverse phenomena such as fluctuating stock prices or physical system
subject to thermal fluctuations. Typically, SDEs incorporate white noise which can be thought
of as the derivative of Brownian motion (or the Wiener process); however, it should be
mentioned that other types of random fluctuations are possible, such as jump processes.

A MARKOV CHAIN, named after Andrey Markov, is a mathematical system that undergoes
transitions from one state to another, between a finite or countable number of possible states. It
is a random process characterized as memoryless: the next state depends only on the current
state and not on the sequence of events that preceded it. This specific kind of "memorylessness"
is called the Markov property. Markov chains have many applications as statistical models of
real-world processes.

Formal definition: A Markov chain is a sequence of random variables X1, X2, X3, ... with the
Markov property, namely that, given the present state, the future and past states are independent.
Formally,

251
The possible values of Xi form a countable set S called the state space of the chain.

Markov chains are often described by a directed graph, where the edges are labeled by the
probabilities of going from one state to the other states.

Example:

A simple example is shown in the figure on the right, using a directed graph to picture the state
transitions. The states represent whether the economy is in a bull market, a bear market, or a
recession, during a given week. According to the figure, a bull week is followed by another bull
week 90% of the time, a bear market 7.5% of the time, and a recession the other 2.5%. From
this figure it is possible to calculate, for example, the long-term fraction of time during which
the economy is in a recession, or on average how long it will take to go from a recession to a
bull market. Using the transition probabilities, the steady-state probabilities indicate that 62.5%
of weeks will be in a bull market, 31.25% of weeks will be in a bear market and 6.25% of weeks
will be in a recession.

A thorough development and many examples can be found in the on-line monograph Meyn &
Tweedie 2005.The appendix of Meyn 2007, also available on-line, contains an abridged Meyn
& Tweedie.

DECISION THEORY in economics, psychology, philosophy, mathematics, and statistics is


concerned with identifying the values, uncertainties and other issues relevant in a given
decision, its rationality, and the resulting optimal decision. It is closely related to the field of
game theory as to interactions of agents with at least partially conflicting interests whose
decisions affect each other.

Most of decision theory is normative or prescriptive, i.e., it is concerned with identifying the
best decision to take (in practice, there are situations in which "best" is not necessarily the
maximal (optimum may also include values in addition to maximum), but within a specific or
approximative range), assuming an ideal decision maker who is fully informed, able to compute
with perfect accuracy, and fully rational. The practical application of this prescriptive approach
(how people ought to make decisions) is called decision analysis, and aimed at finding tools,
methodologies and software to help people make better decisions. The most systematic and
comprehensive software tools developed in this way are called decision support systems.

Since people usually do not behave in ways consistent with axiomatic rules, often their own,
leading to violations of optimality, there is a related area of study, called a positive or
descriptive discipline, attempting to describe what people will actually do. Since the normative,

252
optimal decision often creates hypotheses for testing against actual behaviour, the two fields are
closely linked. Furthermore it is possible to relax the assumptions of perfect information,
rationality and so forth in various ways, and produce a series of different prescriptions or
predictions about behaviour, allowing for further tests of the kind of decision-making that
occurs in practice.

In recent decades, there has been increasing interest in what is sometimes called 'behavioral
decision theory' and this has contributed to a re-evaluation of what rational decision-making
requires (for instance Anand, 1993).

Choice under uncertainty


This area represents the heart of decision theory. The procedure now referred to as expected
value was known from the 17th century. Blaise Pascal invoked it in his famous wager (see
below), which is contained in his Pensées, published in 1670. The idea of expected value is that,
when faced with a number of actions, each of which could give rise to more than one possible
outcome with different probabilities, the rational procedure is to identify all possible outcomes,
determine their values (positive or negative) and the probabilities that will result from each
course of action, and multiply the two to give an expected value. The action to be chosen should
be the one that gives rise to the highest total expected value. In 1738, Daniel Bernoulli
published an influential paper entitled Exposition of a New Theory on the Measurement of Risk,
in which he uses the St. Petersburg paradox to show that expected value theory must be
normatively wrong. He also gives an example in which a Dutch merchant is trying to decide
whether to insure a cargo being sent from Amsterdam to St Petersburg in winter, when it is
known that there is a 5% chance that the ship and cargo will be lost. In his solution, he defines a
utility function and computes expected utility rather than expected financial value.

The revival of subjective probability theory, from the work of Frank Ramsey, Bruno de Finetti,
Leonard Savage and others, extended the scope of expected utility theory to situations where
subjective probabilities can be used. At this time, von Neumann's theory of expected utility
proved that expected utility maximization followed from basic postulates about rational
behavior.

The work of Maurice Allais and Daniel Ellsberg showed that human behavior has systematic
and sometimes important departures from expected-utility maximization. The prospect theory of
Daniel Kahneman and Amos Tversky renewed the empirical study of economic behavior with
less emphasis on rationality presuppositions. Kahneman and Tversky found three regularities —
in actual human decision-making, "losses loom larger than gains"; persons focus more on
changes in their utility–states than they focus on absolute utilities; and the estimation of
subjective probabilities is severely biased by anchoring.

General criticism

A general criticism of decision theory based on a fixed universe of possibilities is that it


considers the "known unknowns", not the "unknown unknowns": it focuses on expected
variations, not on unforeseen events, which some argue (as in black swan theory) have outsized
impact and must be considered – significant events may be "outside model". This line of
argument, called the ludic fallacy, is that there are inevitable imperfections in modeling the real
world by particular models, and that unquestioning reliance on models blinds one to their limits.

-Obs. The discussion above induces to consider the following class of systems: A system is
said to be PROBABILISTICALLY PREVISIBLE if it's possible to know all its outcomes, as well as
the correspondent probabilities;

253
Alternatives to decision theory

A highly controversial issue is whether one can replace the use of probability in decision theory
by other alternatives.

Probability theory

The Advocates of probability theory point to:

 the work of Richard Threlkeld Cox for justification of the probability axioms,

 the Dutch book paradoxes of Bruno de Finetti as illustrative of the theoretical


difficulties that can arise from departures from the probability axioms, and

 the complete class theorems, which show that all admissible decision rules are
equivalent to the Bayesian decision rule for some utility function and some prior
distribution (or for the limit of a sequence of prior distributions). Thus, for every
decision rule, either the rule may be reformulated as a Bayesian procedure, or there is
a (perhaps limiting) Bayesian rule that is sometimes better and never worse.

Alternatives to probability theory

The proponents of fuzzy logic, possibility theory, Dempster–Shafer theory and info-gap
decision theory maintain that probability is only one of many alternatives and point to many
examples where non-standard alternatives have been implemented with apparent success;
notably, probabilistic decision theory is sensitive to assumptions about the probabilities of
various events, while non-probabilistic rules such as minimax are robust, in that they do not
make such assumptions.

254
80- NO SÉCULO III AC, O MATEMÁTICO ITALIANO PINGALA, INVENTOU O “SISTEMA
BINÁRIO” DE NUMERAÇÃO; NELE, TODO NÚMERO NATURAL PODE SER ESCRITO COMO SOMA
DE POTÊNCIAS DE DOIS, MULTIPLICADAS PELOS COEFICIENTES “ZERO OU UM” (POR
EXEMPLO, 1 × 2³ + 0 × 2² + 1 × 21 + 1 × 20 = 11, OU SEJA, PODEMOS REPRESENTAR O
NÚMERO 11 PELA SEQUÊNCIA 1011 COMPOSTA PELOS NÚMEROS ZERO E UM); PARA
REPRESENTAR UM NÚMERO SUFICIENTE DE NÚMEROS, OPERAÇÕES E FUNÇÕES NUMÉRICAS,
LETRAS, PALAVRAS, SÍMBOLOS, ETC., USAM-SE SEQUÊNCIAS COMPOSTAS PELOS NÚMEROS
ZERO E UM (QUE COMPÕEM A CÓDIGO DE MÁQUINA).
EM COMPUTAÇÃO, UM DÍGITO BINÁRIO ( 0 OU 1 ) É CHAMADO DE bit (binary digit), E UM
AGRUPAMENTO DE 8 bits, CORRESPONDE A UM byte (binary term);
- SÉC. XVII, J.NAPIER (CUJO PRINCÍPIO DE ATRAVÉS DOS LOGARITMOS, TRANSFORMAR
PRODUTOS EM SOMAS, FOI APROVEITADO NAS RÉGUAS DE CÁLCULO), W. SCHICKARD
(EDIIN ?) (1623), B.PASCAL (1642) e LEIBNIZ (1670), PROJETARAM MÁQUINAS DE CALCULAR;
- EM 1703, G.LEIBNIZ DESENVOLVEU A LÓGICA, NUMA LINHA FORMAL E MATEMÁTICA,
USANDO O SISTEMA BINÁRIO (POR EXEMPLO: VERDADEIRO, 1 , e FALSO, 0 );
- EM 1765, O ENGENHEIRO E MATEMÁTICO ESCOCÊS JAMES WATT, INVENTOU UMA
MÁQUINA A VAPOR, CONSIDERADA UM MARCO PARA A REVOLUÇÃO INDUSTRIAL;
- EM 1801, O MECÂNICO FRANCÊS J.M.JAQUARD, INVENTOU UM TEAR MECÂNICO COM UMA
LEITORA AUTOMÁTICA DE CARTÕES PARA PRODUZIR DIFERENTES PADRÕES DE CORES;
- EM 1837, O ENGENHEIRO MECÂNICO E CIENTISTA INGLÊS, C. BABBAGE IDEALIZOU O
COMPUTADOR (CALCULADOR ANALÍTICO) COMO UM DISPOSITIVO PROGRAMÁVEL (ATRAVÉS
DE CARTÕES PERFURADOS) DE CÁLCULO, QUE NÃO CHEGOU A CONSTRUIR; COMO UM
COMPUTADOR MODERNO, TERIA UM PROCESSADOR PARA OS CÁLCULOS ARITMÉTICOS NO
SISTEMA DECIMAL, MEMÓRIA PARA REGISTRAR OS NÚMEROS, E A CAPACIDADE DE ALTERAR
SUA FUNÇÃO ATRAVÉS DE COMANDOS DO USUÁRIO, NO CASO, CARTÕES PERFURADOS;
- ADA LOVELACE, A PRIMEIRA PROGRAMADORA, INVENTOU A PRIMEIRA LINGUAGEM DE
COMPUTADOR E PUBLICOU OS PRIMEIROS PROGRAMAS, A PEDIDO DE BABBAGE;
- EM 1854, G.BOOLE PUBLICOU A SUA ÁLGEBRA BOOLEANA (REGRA ALGÉBRICAS QUE
TRADUZEM O ESSENCIAL DAS OPERAÇÕES LÓGICAS E , OU E NÃO , E DAS OPERAÇÕES DE
SOMA, PRODUTO E COMPLEMENTO DE CONJUNTOS;
- NO FINAL DO SÉC. XVIII, O NORTE-AMERICANO H.HOLLERITH, INVENTOU UMA MÁQUINA
CAPAZ DE PROCESSAR DADOS BASEADA NA SEPARAÇÃO ELETRÔNICA, PELOS FUROS DE
CARTÕES MAGNÉTICOS PERFURADOS;
- EM 1936/41, O ENGENHEIRO ALEMÃO K.ZUSE, CONSTRUIU O PRIMEIRO COMPUTADOR
PROGRAMÁVEL (ATRAVÉS DE FITAS PERFURADAS), COM MEMÓRIA, ELETRO-MECÂNICO
(UTILIZANDO RELÊS), E O SISTEMA BINÁRIO;
- EM 1945, K.ZUSE PROJETOU A 1ª LINGUAGEM DE ALTO NÍVEL, O PLANKALKÜL;
- EM 1936, A.TURING INVENTOU A “MÁQUINA DE TURING”: UMA MÁQUINA IDEAL, CAPAZ
DE REALIZAR TODO CÁLCULO (OU PROGRAMA) QUE UM COMPUTADOR DIGITAL PODE
REALIZAR;
- EM 1937, C.E.SHANNON APLICOU A ÁLGEBRA BOOLEANA EM CIRCUITOS
ELETRO-MECÂNICOS, PARA RESOLVER PROBLEMAS;
- DURANTE A 2ª GRANDE GUERRA, EM PROJETOS MILITARES:
- DE 1939/44, H. AIKEN, PROFESSOR DE HARVARD, PROJETOU O HARVARD MARK I,
COMPUTADOR ELETRO-MECÂNICO DE PROPÓSITO GERAL, BASEADO NO CALCULADOR
ANALÍTICO DE BABBAGE, COM VÁLVULAS NO LUGAR DOS DISPOSITIVOS MECÂNICOS DAS
CALCULADORAS, UTILIZANDO O SISTEMA DECIMAL, E CONSEGUINDO MULTIPLICAR DOIS
NÚMEROS DE 10 DÍGITOS EM 3 SEGUNDOS;
- DE 1941/46, OS ENGENHEIROS J.P.ECKERT e J. MAUCHY COORDENARAM O PROJETO DO
ENIAC, COMPUTADOR ELETRÔNICO DE PROPÓSITO GERAL, COM VÁLVULAS, UTILIZANDO O
SISTEMA DECIMAL, CAPAZ DE REALIZAR 100.000 CÁLCULOS SIMPLES OU QUINHENTAS
MULTIPLICAÇÕES, POR SEGUNDO, MAS QUE SÓ DEPOIS DE ALGUNS ANOS, SE TORNOU

255
PRATICAMENTE PROGRAMÁVEL; DE MODO DIFERENTE DO ENIAC, QUE UTILIZAVA
PROCESSAMENTO PARALELO, SEU SUCESSOR EDVAC, POSSUIA UMA ÚNICA UNIDADE DE
PROCESSAMENTO;
-JOHN VON NEWMANN, MATEMÁTICO HÚNGARO/ESTADUNIDENSE, SUGERIU O QUE VEIO A
SER CHAMADA DE ARQUITETURA DE VON NEWMANN,
1.Codificar as instruções de uma forma possível de ser armazenada na memória do
computador. Von Neumann sugeriu que fossem usados uns e zeros,
2.Armazenar as instruções na memória, bem como toda e qualquer informação necessária a
execução da tarefa, e
3.Quando processar o programa, buscar as instruções diretamente na memória, ao invés de
lerem um novo cartão perfurado a cada passo.
UTILIZADA NOS PROJETOS:
-EDVAC, DESENVOLVIDO PELA BALLISTIC RESEARCH LABORATORY U.S.,UNIVERSIDADE DA
PENSILVÂNIA, UTILIZANDO O SISTEMA BINÁRIO, E CONSIDERADO UM PROJETO DE SUCESSO;
MANCHESTER MARK I/ EDSAC (INSPIRADO NOS PLANOS DO EDVAC), BRITÂNICOS DE 1949:

- EM 1947, J.BARDEEN e W.BRATTAIN, NOS LABS. DA BELL TELEPHONE, INVENTARAM O


TRANSISTOR DE SILÍCIO E GERMÂNIO, COM A INTENSÃO DE SUBSTITUIR AS VÁLVULAS
TERMOIÔNICAS (MAS OBSERVARAM TAMBÉM UM EFEITO DE AMPLIFICAÇÃO DE CORRENTE,
UTILIZADO PARA AMPLIFICAÇÃO DE SINAIS);
- EM 1958, J.KILBY, DA TEXAS INSTRUMENTS, DESENVOLVEU O PRIMEIRO CIRCUITO
INTEGRADO (1 TRANSISTOR, 3 RESISTORES E UM CAPACITOR) EQUIVALENTE A UM OSCILADOR
SIMPLES, EFEITO DESENVOLVIDO NA DÉCADA DE 60, QUANDO OS CIRCUITOS INTEGRADOS
ERAM COMPOSTOS POR CENTENAS, E DEPOIS MILHARES DE TRANSISTORES EM UM CHIP DE
SILÍCIO;
- EM 1971, A INTEL LANÇOU O PRIMEIRO MICROPROCESSADOR, O 4004, CONTENDO UMA
UNIDADE COMPLETA DE PROCESSAMENTO (HOJE COM ATÉ MILHÕES DE TRANSISTORES) EM

256
UM ÚNICO CHIP; .

- AS LINGUAGENS AVANÇADAS DE PROGRAMAÇÃO FORAM CRIADAS PARA SIMPLIFICAR A


TAREFA DOS PROGRAMADORES, DE MODO QUE, AS DIFERENTES MÁQUINAS JÁ CONTERIAM
PROGRAMAS INSTALADOS EM CÓDIGO DE MÁQUINA, CAPAZES DE TRANSCREVER OS
PROGRAMAS PARA O CÓDIGO DA MÁQUINA; O PRIMEIRO COMPILADOR FOI ESCRITO POR
G.HOPPER, EM 1952, PARA A LINGUAGEM A-0; A PRIMEIRA LINGUAGEM DE ALTO NÍVEL
AMPLAMENTE UTILIZADA, FOI FORTRAN, CRIADA EM 1954; O BASIC FOI CRIADA EM 1964;
Interpretação e compilação: .
Uma linguagem de programação pode ser convertida, ou traduzida, em código de
máquina por compilação ou interpretada por um processo denominado interpretação.
Em ambas ocorre a tradução do código fonte para código de máquina.

Se o método utilizado traduz todo o texto do programa (também chamado de código),


para só depois executar o programa, então diz-se que o programa foi compilado e que
o mecanismo utilizado para a tradução é um compilador (que por sua vez nada mais é
do que um programa). Isso acontece com linguagens como Pascal e C.

Se o texto do programa é traduzido à medida que vai sendo executado, como em


JavaScript, BASIC, Python ou Perl, num processo de tradução de trechos seguidos de
sua execução imediata, então diz-se que o programa foi interpretado e que o
mecanismo utilizado para a tradução é um interpretador.

- O PRIMEIRO ROBOT INDUSTRIAL FOI O UNIMATES, DESENVOLVIDO POR G. DEVOL e


J. ENGLEBERGER, NO FINAL DA DÉCADA DE 1950/1961:

- A INTERNET FOI CRIADA NO INÍCIO DA DÉCADA DE 1960, COMO UMA REDE DE


COMUNICAÇÃO INTERUNIVERSITÁRIA:

- EM 1961, L.KLEINROCK DO MIT (MASSACHUSSETS INSTITUTE OF TECHNOLOGY), PUBLICOU


O PRIMEIRO TRABALHO SOBRE A TEORIA DE TROCA DE PACOTES; EM 1965 HOUVE UMA
CONEXÃO DE UM COMPUTADOR NO MIT, COM OUTRO NA UCLA (UNIVERSIDADE DA
CALIFÓRNIA); EM 1969, O QUE FOI CONSIDERADO O 1º E-mail; E
- EM 1992, TIM BERNERS-LEE, CIENTISTA DO CERN, CRIOU A WORLD WIDE WEB;

257
Frm Wikipedia. An INDUSTRIAL ROBOT is defined by ISO as an automatically
controlled, reprogrammable, multipurpose manipulator programmable in three or more
axes. The field of robotics may be more practically defined as the study, design and use
of robot systems for manufacturing (a top-level definition relying on the prior definition
of robot). Typical applications of robots include welding, painting, assembly, pick and
place (such as packaging, palletizing and SMT), product inspection, and testing; all
accomplished with high endurance, speed, and precision.

Robot types, features

The most commonly used robot configurations are articulated robots, SCARA robots,
Delta robots and Cartesian coordinate robots, (aka gantry robots or x-y-z robots). In the
context of general robotics, most types of robots would fall into the category of robotic
arms (inherent in the use of the word manipulator in the above-mentioned ISO
standard). Robots exhibit varying degrees of autonomy:

 Some robots are programmed to faithfully carry out specific actions over and over
again (repetitive actions) without variation and with a high degree of accuracy. These
actions are determined by programmed routines that specify the direction,
acceleration, velocity, deceleration, and distance of a series of coordinated motions.
 Other robots are much more flexible as to the orientation of the object on which they
are operating or even the task that has to be performed on the object itself, which the
robot may even need to identify. For example, for more precise guidance, robots often
contain machine vision sub-systems acting as their "eyes", linked to powerful
computers or controllers. Artificial intelligence, or what passes for it, is becoming an
increasingly important factor in the modern industrial robot.

 Articulated industrial robot operating in a foundry.

258
 A set of six-axis robots used for welding.

 Factory Automation with industrial robots for palletizing food products like bread and
toast at a bakery in Germany

History of industrial robotics

George Devol applied for the first robotics patents in 1954 (granted in 1961). The first company to
produce a robot was Unimation, founded by Devol and Joseph F. Engelberger in 1956, and was based on
Devol's original patents. Unimation robots were also called programmable transfer machines since their
main use at first was to transfer objects from one point to another, less than a dozen feet or so apart. They
used hydraulic actuators and were programmed in joint coordinates, i.e. the angles of the various joints
were stored during a teaching phase and replayed in operation. They were accurate to within 1/10,000 of
an inch[citation needed] (note: although accuracy is not an appropriate measure for robots, usually evaluated in
terms of repeatability - see later). Unimation later licensed their technology to Kawasaki Heavy Industries
and GKN, manufacturing Unimates in Japan and England respectively. For some time Unimation's only
competitor was Cincinnati Milacron Inc. of Ohio. This changed radically in the late 1970s when several
big Japanese conglomerates began producing similar industrial robots.

In 1969 Victor Scheinman at Stanford University invented the Stanford arm, an all-electric, 6-axis
articulated robot designed to permit an arm solution. This allowed it accurately to follow arbitrary paths
in space and widened the potential use of the robot to more sophisticated applications such as assembly
and welding. Scheinman then designed a second arm for the MIT AI Lab, called the "MIT arm."
Scheinman, after receiving a fellowship from Unimation to develop his designs, sold those designs to
Unimation who further developed them with support from General Motors and later marketed it as the
Programmable Universal Machine for Assembly (PUMA).

Industrial robotics took off quite quickly in Europe, with both ABB Robotics and KUKA Robotics
bringing robots to the market in 1973. ABB Robotics (formerly ASEA) introduced IRB 6, among the
world's first commercially available all electric micro-processor controlled robot. The first two IRB 6
robots were sold to Magnusson in Sweden for grinding and polishing pipe bends and were installed in
production in January 1974. Also in 1973 KUKA Robotics built its first robot, known as FAMULUS,[2]
also one of the first articulated robot to have six electromechanically driven axes.

259
Interest in robotics increased in the late 1970s and many US companies entered the field, including large
firms like General Electric, and General Motors (which formed joint venture FANUC Robotics with
FANUC LTD of Japan). U.S. startup companies included Automatix and Adept Technology, Inc. At the
height of the robot boom in 1984, Unimation was acquired by Westinghouse Electric Corporation for 107
million U.S. dollars. Westinghouse sold Unimation to Stäubli Faverges SCA of France in 1988, which is
still making articulated robots for general industrial and cleanroom applications and even bought the
robotic division of Bosch in late 2004.

Only a few non-Japanese companies ultimately managed to survive in this market, the major ones being
Adept Technology, Stäubli-Unimation, the Swedish-Swiss company ABB Asea Brown Boveri and the
German company KUKA Robotics.

Recent and future developments


Main article: Future of robotics

As of 2005, the robotic arm business is approaching a mature state, where they can provide enough speed,
accuracy and ease of use for most of the applications. Vision guidance (aka machine vision) is bringing a
lot of flexibility to robotic cells. However, the end effector attached to a robot is often a simple
pneumatic, 2-position chuck. This does not allow the robotic cell to easily handle different parts, in
different orientations.

Hand-in-hand with increasing off-line programmed applications, robot calibration is becoming more and
more important in order to guarantee a good positioning accuracy.

Other developments include downsizing industrial arms for light industrial use such as production of
small products, sealing and dispensing, quality control, handling samples in the laboratory. Such robots
are usually classified as "bench top" robots. Robots are used in pharmaceutical research in a technique
called High-throughput screening. Bench top robots are also used in consumer applications (micro-robotic
arms). Industrial arms may be used in combination with or even mounted on automated guided vehicles
(AGVs) to make the automation chain more flexible between pick-up and drop-off.

The INTERNATIONAL FEDERATION OF ROBOTICS is to promote research, development, use and


international co-operation in the entire field of robotics, industrial robots as well as service robots. The
IFR's statistical department publishes the study World Robotics every year. This publication contains
detailed statistical data for some 50 countries, broken down by application areas, industrial branches,
types of robots and by other technical and economic variables.

Market structure

According to the World Industrial Robotics 2011 report, there were 1,035,000 operational industrial
robots by the end of 2010. This number is estimated to reach 1,308,000 by the end of 2014.

The Japanese government estimates the industry could surge from about $5.2 billion in 2006 to $26
billion in 2010 and nearly $70 billion by 2025. In 2005, there were over 370,000 operational industrial
robots in Japan. A 2007 national technology roadmap by the Trade Ministry calls for 1 million industrial
robots to be installed throughout the country by 2025.

In August 2011, China Business News quoted Foxconn Chairman Terry Gou as saying the company
planned to use 1 million robots within three years, up from about 10,000 robots in use now and an
expected 300,000 next year.

Pricing Ranges: Typical stand-alone robot arms with welding packages cost between $28,000 and
$40,000. A pre-engineered workcell with safety equipment starts at $50,000 (in May 2012);

260
The Reconditioned Option: Our top-quality refurbished robots offer the most cost-effective option. Used
robots cost 50% less than new models. Plus, you can rely on our exclusive reconditioning process to
produce reliable products.

Estimated worldwide annual supply of industrial robots:

Year Supply
1998 69,000
1999 79,000
2000 99,000
2001 78,000
2002 69,000
2003 81,000
2004 97,000
2005 120,000
2006 112,000
2007 114,000
2008 113,000
2009 60,000
2010 118,000
2011 150,000

De acordo com dados estatísticos publicados, o Japão possui 306 robôs/ 10 mil trabalhadores e
o Brasil 10 robôs/10 mil trabalhadores, contra uma média de 51 robôs/ 10 mil trabalhadores.
Um robô faz o serviço repetitivo de, no mínimo 3 trabalhadores/turno = 9 trabalhadores/dia.

-MATHEMATICAL OPTIMIZATION (alternatively, OPTIMIZATION OR MATHEMATICAL


PROGRAMMING) refers to the selection of a best element from some set of available
alternatives. Optimization includes finding "best available" values of some objective
function given a defined domain, including a variety of different types of objective
functions and different types of domains. An optimization problem can be
represented in the following way:

Given: a function f : A R from some set A to the real numbers

Sought: an element x0 in A such that f(x0) ≤ f(x) for all x in A ("minimization") or such that
f(x0) ≥ f(x) for all x in A ("maximization").

Many real-world and theoretical problems may be modeled in this general framework.
Problems formulated using this technique in the fields of physics and computer vision may
refer to the technique as ENERGY MINIMIZATION, speaking of the value of the function f as
representing the ENERGY OF THE SYSTEM BEING MODELED.
The function f is called, variously, an objective function, cost function (minimization), utility
function (maximization), or, in certain fields, energy function, or energy functional. A feasible
solution that minimizes (or maximizes, if that is the goal) the objective function is called an
optimal solution.

261
Fermat and Lagrange found calculus-based formulas for identifying optima, while Newton and
Gauss proposed iterative methods for moving towards an optimum;

Graph of a paraboloid given by f(x,y) = -(x²+y²)+4. The global maximum at (0,0,4) is indicated by
a red dot.

the method of LAGRANGE MULTIPLIERS (named after Joseph Louis Lagrange) provides a
strategy for finding the local maxima and minima of a function subject to equality constraints.
It is a powerful tool for solving this class of problems without the need to explicitly solve the
conditions and use them to eliminate extra variables.

Let us consider the two-dimensional problem introduced above:

Maximize

subject to

Figure 2: Contour map of Figure 1.


The red line shows the constraint
. The blue lines are
contours of . The point
where the red line tangentially
touches a blue contour is our
solution.Since , the
solution is a maximization of

We can visualize contours of f given by

for various values of , and the contour of given by .

262
Suppose we walk along the contour line with . In general the contour lines of
and may be distinct, so following the contour line for one could intersect
with or cross the contour lines of . This is equivalent to saying that while moving
along the contour line for the value of can vary. Only when the contour line
for meets contour lines of tangentially, do we not increase or decrease the
value of — that is, when the contour lines touch but do not cross.

The contour lines of f and g touch when the tangent vectors of the contour lines are
parallel. Since the gradient of a function is perpendicular to the contour lines, this is the
same as saying that the gradients of f and g are parallel. Thus we want points
where and

where

and

are the respective gradients. The constant is required because although the two
gradient vectors are parallel, the magnitudes of the gradient vectors are generally not
equal.

To incorporate these conditions into one equation, we introduce an auxiliary function

and solve

This is the method of Lagrange multipliers. Note that implies

Not necessarily extrema

The constrained extrema of are critical points of the Lagrangian , but they are not
local extrema of (see Example 2 below).

263
One may reformulate the Lagrangian as a Hamiltonian, in which case the solutions are
local minima for the Hamiltonian. This is done in optimal control theory, in the form of
Pontryagin's minimum principle.

The fact that solutions of the Lagrangian are not necessarily extrema also poses
difficulties for numerical optimization. This can be addressed by computing the
magnitude of the gradient, as the zeros of the magnitude are necessarily local minima,
as illustrated in the numerical optimization example.

CONVEX FUNCTIONS: a real-valued function defined on an interval is called convex (or


convex downward or concave upward) if the graph of the function lies below the line segment
joining any two points of the graph. Equivalently, a function is convex if its epigraph (the set of
points on or above the graph of the function) is a convex set. More generally, this definition of
convex functions makes sense for functions defined on a convex subset of any vector space.

Convex functions play an important role in many areas of mathematics. They are
especially important in the study of optimization problems where they are distinguished
by a number of convenient properties. For instance, a (strictly) convex function on an
open set has no more than one minimum. Even in infinite-dimensional spaces, under
suitable additional hypotheses, convex functions continue to satisfy such properties and,
as a result, they are the most well-understood functionals in the calculus of variations.
In probability theory, a convex function applied to the expected value of a random
variable is always less or equal to the expected value of the convex function of the
random variable. This result, known as Jensen's inequality underlies many important
inequalities (including, for instance, the arithmetic-geometric mean inequality and
Hölder's inequality).

Convex function on an interval.

A function (in black) is convex if


and only if the region above its
graph (in green) is a convex set.

264
Formal definition: A real valued function f : X → R defined on a convex set X in a vector space
is called convex if, for any two points and in X and any ,

The function is called strictly convex if

for every , , and .

A function f is said to be (strictly) concave if −f is (strictly) convex. Properties

Suppose f is a function of one real variable defined on an interval, and let

(note that is the slope of the purple line in the above drawing; note also

that the function R is symmetric in ). f is convex if and only if is


monotonically non-decreasing in , for fixed (or viceversa). This characterization
of convexity is quite useful to prove the following results.

A convex function f defined on some open interval C is continuous on C and Lipschitz


continuous on any closed subinterval. f admits left and right derivatives, and these are
monotonically non-decreasing. As a consequence, f is differentiable at all but at most
countably many points. If C is closed, then f may fail to be continuous at the endpoints
of C (an example is shown in the examples' section).

A function is midpoint convex on an interval C if

for all and in C. This condition is only slightly weaker than convexity. For
example, a real valued Lebesgue measurable function that is midpoint convex will be
convex. In particular, a continuous function that is midpoint convex will be convex.

A differentiable function of one variable is convex on an interval if and only if its


derivative is monotonically non-decreasing on that interval. If a function is
differentiable and convex then it is also continuously differentiable.

A continuously differentiable function of one variable is convex on an interval if and


only if the function lies above all of its tangents:

265
for all x and y in the interval. In particular, if f '(c) = 0, then c is a global minimum of
f(x).

A twice differentiable function of one variable is convex on an interval if and only if its
second derivative is non-negative there; this gives a practical test for convexity. If its
second derivative is positive then it is strictly convex, but the converse does not hold.
For example, the second derivative of f(x) = x4 is f "(x) = 12 x2, which is zero for x = 0,
but x4 is strictly convex.

More generally, a continuous, twice differentiable function of several variables is


convex on a convex set if and only if its Hessian matrix is positive semidefinite on the
interior of the convex set.

Any local minimum of a convex function is also a global minimum. A strictly convex
function will have at most one global minimum.

For a convex function f, the sublevel sets {x | f(x) < a} and {x | f(x) ≤ a} with a ∈ R are
convex sets. However, a function whose sublevel sets are convex sets may fail to be a
convex function. A function whose sublevel sets are convex is called a quasiconvex
function.

Jensen's inequality applies to every convex function f. If X is a random variable taking


values in the domain of f, then (Here denotes the
mathematical expectation.)

If a function f is convex, and f(0) ≤ 0, then f is superadditive on the positive half-axis.


Proof:

since f is convex, let y = 0,

for every

CONVEX MINIMIZATION, a subfield of optimization, studies the problem of minimizing


convex functions over convex sets. The convexity property can make optimization in
some sense "easier" than the general case - for example, any local minimum must be a
global minimum.

Given a real vector space together with a convex, real-valued function

266
defined on a convex subset of , the problem is to find any point in for
which the number is smallest, i.e., a point such that

for all .

The convexity of makes the powerful tools of convex analysis applicable. In finite-
dimensional normed spaces, the Hahn–Banach theorem and the existence of
subgradients lead to a particularly satisfying theory of necessary and sufficient
conditions for optimality, a duality theory generalizing that for linear programming, and
effective computational methods.

A convex minimization problem (also referred to as mathematical programming


program or minimization problem) of finding some such that

where is the feasible set and is the objective, is called


convex if is a closed convex set and is convex on . Alternatively, an
optimization problem on the form

is called convex if the functions are convex.

Standard form is the usual and most intuitive form of describing a convex minimization
problem. It consists of the following three parts:

 A convex function to be minimized over the variable


 Inequality constraints of the form , where the functions are convex
 Equality constraints of the form , where the functions are affine. In
practice, the terms "linear" and "affine" are often used interchangeably. Such
constraints can be expressed in the form , where and
are column-vectors..

A convex minimization problem is thus written as

Note that every equality constraint can be equivalently replaced by a pair


of inequality constraints and . Therefore, for theoretical

267
purposes, equality constraints are redundant; however, it can be beneficial to treat them
specially in practice.

The following statements are true about the convex minimization problem:

 if a local minimum exists, then it is a global minimum.


 the set of all (global) minima is convex.
 for each strictly convex function, if the function has a minimum, then the minimum is
unique.

These results are used by the theory of convex minimization along with geometric
notions from functional analysis (in Hilbert spaces) such as the Hilbert projection
theorem, the separating hyperplane theorem, and Farkas' lemma.

Convex minimization has applications in a wide range of disciplines, such as automatic


control systems, estimation and signal processing, communications and networks,
electronic circuit design, data analysis and modeling, statistics (optimal design), and
finance. With recent improvements in computing and in optimization theory, convex
minimization is nearly as straightforward as linear programming. Many optimization
problems can be reformulated as convex minimization problems. For example, the
problem of maximizing a concave function f can be re-formulated equivalently as a
problem of minimizing the function -f, which is convex.

Lagrange multipliers

Consider a convex minimization problem given in standard form by a cost function


and inequality constraints , where . Then the domain
is:

The Lagrangian function for the problem is

L(x,λ0,...,λm) = λ0f(x) + λ1g1(x) + ... + λmgm(x).

For each point x in X that minimizes f over X, there exist real numbers λ0, ..., λm, called
Lagrange multipliers, that satisfy these conditions simultaneously:

1. x minimizes L(y, λ0, λ1, ..., λm) over all y in X,


2. λ0 ≥ 0, λ1 ≥ 0, ..., λm ≥ 0, with at least one λk>0,
3. λ1g1(x) = 0, ..., λmgm(x) = 0 (complementary slackness).

If there exists a "strictly feasible point", i.e., a point z satisfying

g1(z) < 0,...,gm(z) < 0,

then the statement above can be upgraded to assert that λ 0=1.

268
Conversely, if some x in X satisfies 1-3 for scalars λ0, ..., λm with λ0 = 1, then x is certain
to minimize f over X.

Methods

Convex minimization problems can be solved by the following contemporary methods:

 "Bundle methods" (Wolfe, Lemaréchal), and


 Subgradient projection methods (Polyak),
 Interior-point methods (Nemirovskii and Nesterov).

Other methods of interest:

 Cutting-plane methods
 Ellipsoid method
 Subgradient method

Subgradient methods can be implemented simply and so are widely used.

LINEAR PROGRAMMING (LP, or linear optimization) is a mathematical method for


determining a way to achieve the best outcome (such as maximum profit or lowest cost)
in a given mathematical model for some list of requirements represented as linear
relationships. Linear programming is a specific case of mathematical programming
(mathematical optimization).

More formally, linear programming is a technique for the optimization of a linear


objective function, subject to linear equality and linear inequality constraints. Its
feasible region is a convex polyhedron, which is a set defined as the intersection of
finitely many half spaces, each of which is defined by a linear inequality. Its objective
function is a real-valued affine function defined on this polyhedron. A linear
programming algorithm finds a point in the polyhedron where this function has the
smallest (or largest) value if such point exists.

Linear programs are problems that can be expressed in canonical form:

where x represents the vector of variables (to be determined), c and b are vectors of

(known) coefficients, A is a (known) matrix of coefficients, and is the matrix


transpose. The expression to be maximized or minimized is called the objective function
(cTx in this case). The inequalities Ax ≤ b are the constraints which specify a convex
polytope over which the objective function is to be optimized. In this context, two

269
vectors are comparable when they have the same dimensions. If every entry in the first
is less-than or equal-to the corresponding entry in the second then we can say the first
vector is less-than or equal-to the second vector.

The problem of solving a system of linear inequalities dates back at least as far as
Fourier, after whom the method of Fourier-Motzkin elimination is named. The earliest
linear programming was first developed by Leonid Kantorovich in 1939: Kantorovich
developed the earliest linear programming problems in 1939 for use during World War
II to plan expenditures and returns in order to reduce costs to the army and increase
losses to the enemy. The method was kept secret until 1947 when George B. Dantzig
published the simplex method and John von Neumann developed the theory of duality
as a linear optimization solution, and applied it in the field of game theory. Postwar,
many industries found its use in their daily planning.

The linear-programming problem was first shown to be solvable in polynomial time by


Leonid Khachiyan in 1979, but a larger theoretical and practical breakthrough in the
field came in 1984 when Narendra Karmarkar introduced a new interior-point method
for solving linear-programming problems.

Dantzig's original example was to find the best assignment of 70 people to 70 jobs. The
computing power required to test all the permutations to select the best assignment is
vast; the number of possible configurations exceeds the number of particles in the
universe. However, it takes only a moment to find the optimum solution by posing the
problem as a linear program and applying the Simplex algorithm. The theory behind
linear programming drastically reduces the number of possible optimal solutions that
must be checked.

Linear programming can be applied to various fields of study. It is used in business and
economics, but can also be utilized for some engineering problems. Industries that use
linear programming models include transportation, energy, telecommunications, and
manufacturing. It has proved useful in modeling diverse types of problems in planning,
routing, scheduling, assignment, and design.

Interior point methods (also referred to as barrier methods) are a certain class of
algorithms to solve linear and nonlinear convex optimization problems.

Example solution

The interior point method was invented by John von Neumann. Von Neumann
suggested a new method of linear programming, using the homogeneous linear system

270
of Gordan (1873) which was later popularized by Karmarkar's algorithm, developed by
Narendra Karmarkar in 1984 for linear programming. The method consists of a self-
concordant barrier function used to encode the convex set. Contrary to the simplex
method, it reaches an optimal solution by traversing the interior of the feasible region.

Any convex optimization problem can be transformed into minimizing (or maximizing)
a linear function over a convex set. The idea of encoding the feasible set using a barrier
and designing barrier methods was studied in the early 1960s by, amongst others,
Anthony V. Fiacco and Garth P. McCormick. These ideas were mainly developed for
general nonlinear programming, but they were later abandoned due to the presence of
more competitive methods for this class of problems (e.g. sequential quadratic
programming).

Yurii Nesterov and Arkadii Nemirovskii came up with a special class of such barriers
that can be used to encode any convex set. They guarantee that the number of iterations
of the algorithm is bounded by a polynomial in the dimension and accuracy of the
solution.

Karmarkar's breakthrough revitalized the study of interior point methods and barrier
problems, showing that it was possible to create an algorithm for linear programming
characterized by polynomial complexity and, moreover, that was competitive with the
simplex method. Already Khachiyan's ellipsoid method was a polynomial time
algorithm; however, in practice it was too slow to be of practical interest.

The class of primal-dual path-following interior point methods is considered the most
successful. Mehrotra's predictor-corrector algorithm provides the basis for most
implementations of this class of methods.

-CONTROL THEORY is an interdisciplinary branch of engineering and mathematics that deals


with the behavior of dynamical systems. The external input of a system is called the reference.
When one or more output variables of a system need to follow a certain reference over time, a
controller manipulates the inputs to a system to obtain the desired effect on the output of the
system.

The usual objective of control theory is to calculate solutions for the proper corrective action
from the controller that result in system stability, that is, the system will hold the set point and
not oscillate around it.

The inputs and outputs of a continuous control system are generally related by nonlinear
differential equations. A transfer function can sometimes be obtained by:

(1) Finding a solution of the nonlinear differential equations,


(2) Linearizing the nonlinear differential equations at the resulting solution (i.e. trim point),
(3) Finding the Laplace Transform of the resulting linear differential equations, and
(4) Solving for the outputs in terms of the inputs in the Laplace domain.

The transfer function is also known as the system function or network function. The transfer
function is a mathematical representation, in terms of spatial or temporal frequency, of the
relation between the input and output of a linear time-invariant solution of the nonlinear
differential equations describing the system.

271
Extensive use is usually made of a diagrammatic style known as the block diagram.

The concept of the feedback loop to control the dynamic behavior of the system: this is negative
feedback, because the sensed value is subtracted from the desired value to create the error
signal, which is amplified by the controller.

Overview: control theory is

 a theory that deals with influencing the behavior of dynamical systems


 an interdisciplinary subfield of science, which originated in engineering and
mathematics, and evolved into use by the social sciences, like psychology, sociology,
criminology and in the financial system.

Control systems can be thought of as having four functions; Measure, Compare, Compute, and
Correct. These four functions are completed by five elements; Detector, Transducer,
Transmitter, Controller, and Final Control Element. The measuring function is completed by the
detector, transducer and transmitter. In practical applications these three elements are typically
contained in one unit. A standard example is a Resistance thermometer. The compare and
compute functions are completed within the controller which may be completed electronically
through a Proportional Control, PI Controller, PID Controller, Bistable, Hysteretic control or
Programmable logic controller. The correct function is completed with a final control element.
The final control element changes an input or output in the control system which affect the
manipulated or controlled variable.

- An example: Consider a car's cruise control, which is a device designed to maintain vehicle
speed at a constant desired or reference speed provided by the driver. The controller is the
cruise control, the plant is the car, and the system is the car and the cruise control. The system
output is the car's speed, and the control itself is the engine's throttle position which determines
how much power the engine generates.

A primitive way to implement cruise control is simply to lock the throttle position when the
driver engages cruise control. However, if the cruise control is engaged on a stretch of flat road,
then the car will travel slower going uphill and faster when going downhill. This type of
controller is called an open-loop controller because no measurement of the system output (the
car's speed) is used to alter the control (the throttle position.) As a result, the controller can not
compensate for changes acting on the car, like a change in the slope of the road.

In a closed-loop control system, a sensor monitors the system output (the car's speed) and feeds
the data to a controller which adjusts the control (the throttle position) as necessary to maintain
the desired system output (match the car's speed to the reference speed.) Now when the car goes
uphill the decrease in speed is measured, and the throttle position changed to increase engine
power, speeding the vehicle. Feedback from measuring the car's speed has allowed the
controller to dynamically compensate for changes to the car's speed. It is from this feedback that

272
the paradigm of the control loop arises: the control affects the system output, which in turn is
measured and looped back to alter the control.

History

Centrifugal governor in a Boulton


& Watt engine of 1788

Although control systems of various types date back to antiquity, a more formal analysis of the
field began with a dynamics analysis of the centrifugal governor, conducted by the physicist
James Clerk Maxwell in 1868 entitled On Governors. This described and analyzed the
phenomenon of "hunting", in which lags in the system can lead to overcompensation and
unstable behavior. This generated a flurry of interest in the topic, during which Maxwell's
classmate Edward John Routh generalized Maxwell's results for the general class of linear
systems. Independently, Adolf Hurwitz analyzed system stability using differential equations in
1877, resulting in what is now known as the Routh–Hurwitz theorem.

A notable application of dynamic control was in the area of manned flight. The Wright brothers
made their first successful test flights on December 17, 1903 and were distinguished by their
ability to control their flights for substantial periods (more so than the ability to produce lift
from an airfoil, which was known). Continuous, reliable control of the airplane was necessary
for flights lasting longer than a few seconds.

By World War II, control theory was an important part of fire-control systems, guidance
systems and electronics.

Sometimes mechanical methods are used to improve the stability of systems. For example, ship
stabilizers are fins mounted beneath the waterline and emerging laterally. In contemporary
vessels, they may be gyroscopically controlled active fins, which have the capacity to change
their angle of attack to counteract roll caused by wind or waves acting on the ship.

The Sidewinder missile uses small control surfaces placed at the rear of the missile with
spinning disks on their outer surface; these are known as rollerons. Airflow over the disk spins
them to a high speed. If the missile starts to roll, the gyroscopic force of the disk drives the

273
control surface into the airflow, cancelling the motion. Thus the Sidewinder team replaced a
potentially complex control system with a simple mechanical solution.

The Space Race also depended on accurate spacecraft control. However, control theory also saw
an increasing use in fields such as economics.

Many active and historical figures made significant contribution to control theory, including, for
example:

 Alexander Lyapunov (1857–1918) in the 1890s marks the beginning of stability theory.
 Harold S. Black (1898–1983), invented the concept of negative feedback amplifiers in
1927. He managed to develop stable negative feedback amplifiers in the 1930s.
 Harry Nyquist (1889–1976), developed the Nyquist stability criterion for feedback
systems in the 1930s.
 Richard Bellman (1920–1984), developed dynamic programming since the 1940s.
 Andrey Kolmogorov (1903–1987) co-developed the Wiener–Kolmogorov filter (1941).
 Norbert Wiener (1894–1964) co-developed the Wiener–Kolmogorov filter and coined
the term cybernetics in the 1940s.
 John R. Ragazzini (1912–1988) introduced digital control and the z-transform in the
1950s.
 Lev Pontryagin (1908–1988) introduced the maximum principle and the bang-bang
principle.

Classical control theory

To avoid the problems of the open-loop controller, control theory introduces feedback. A
closed-loop controller uses feedback to control states or outputs of a dynamical system. Its name
comes from the information path in the system: process inputs (e.g., voltage applied to an
electric motor) have an effect on the process outputs (e.g., speed or torque of the motor), which
is measured with sensors and processed by the controller; the result (the control signal) is used
as input to the process, closing the loop.

Closed-loop controllers have the following advantages over open-loop controllers:

 disturbance rejection (such as unmeasured friction in a motor)


 guaranteed performance even with model uncertainties, when the model structure
does not match perfectly the real process and the model parameters are not exact
 unstable processes can be stabilized
 reduced sensitivity to parameter variations
 improved reference tracking performance

In some systems, closed-loop and open-loop control are used simultaneously. In such systems,
the open-loop control is termed feedforward and serves to further improve reference tracking
performance.

A common closed-loop controller architecture is the PID controller.

Closed-loop transfer function

For more details on this topic, see Closed-loop transfer function.

274
The output of the system y(t) is fed back through a sensor measurement F to the reference value
r(t). The controller C then takes the error e (difference) between the reference and the output to
change the inputs u to the system under control P. This is shown in the figure. This kind of
controller is a closed-loop controller or feedback controller.

This is called a single-input-single-output (SISO) control system; MIMO (i.e., Multi-Input-


Multi-Output) systems, with more than one input/output, are common. In such cases variables
are represented through vectors instead of simple scalar values. For some distributed parameter
systems the vectors may be infinite-dimensional (typically functions).

If we assume the controller C, the plant P, and the sensor F are linear and time-invariant (i.e.,
elements of their transfer function C(s), P(s), and F(s) do not depend on time), the systems
above can be analysed using the Laplace transform on the variables. This gives the following
relations:

Solving for Y(s) in terms of R(s) gives:

The expression is referred to as the closed-loop


transfer function of the system. The numerator is the forward (open-loop) gain from r to y, and
the denominator is one plus the gain in going around the feedback loop, the so-called loop gain.
If , i.e., it has a large norm with each value of s, and if ,
then Y(s) is approximately equal to R(s) and the output closely tracks the reference input.

PID controller

For more details on this topic, see PID controller.

The PID controller is probably the most-used feedback control design. PID is an acronym for
Proportional-Integral-Derivative, referring to the three terms operating on the error signal to
produce a control signal. If u(t) is the control signal sent to the system, y(t) is the measured
output and r(t) is the desired output, and tracking error , a PID
controller has the general form

275
The desired closed loop dynamics is obtained by adjusting the three parameters , and
, often iteratively by "tuning" and without specific knowledge of a plant model. Stability
can often be ensured using only the proportional term. The integral term permits the rejection of
a step disturbance (often a striking specification in process control). The derivative term is used
to provide damping or shaping of the response. PID controllers are the most well established
class of control systems: however, they cannot be used in several more complicated cases,
especially if MIMO systems are considered.

Applying Laplace transformation results in the transformed PID controller equation

with the PID controller transfer function

Modern control theory

In contrast to the frequency domain analysis of the classical control theory, modern control
theory utilizes the time-domain state space representation, a mathematical model of a physical
system as a set of input, output and state variables related by first-order differential equations.
To abstract from the number of inputs, outputs and states, the variables are expressed as vectors
and the differential and algebraic equations are written in matrix form (the latter only being
possible when the dynamical system is linear). The state space representation (also known as the
"time-domain approach") provides a convenient and compact way to model and analyze systems
with multiple inputs and outputs. With inputs and outputs, we would otherwise have to write
down Laplace transforms to encode all the information about a system. Unlike the frequency
domain approach, the use of the state space representation is not limited to systems with linear
components and zero initial conditions. "State space" refers to the space whose axes are the state
variables. The state of the system can be represented as a vector within that space.

Topics in control theory

Stability

The stability of a general dynamical system with no input can be described with Lyapunov
stability criteria. A linear system that takes an input is called bounded-input bounded-output
(BIBO) stable if its output will stay bounded for any bounded input. Stability for nonlinear
systems that take an input is input-to-state stability (ISS), which combines Lyapunov stability
and a notion similar to BIBO stability. For simplicity, the following descriptions focus on
continuous-time and discrete-time linear systems.

276
Mathematically, this means that for a causal linear system to be stable all of the poles of its
transfer function must have negative-real values, i.e. the real part of all the poles are less than
zero. Practically speaking, stability requires that the transfer function complex poles reside

 in the open left half of the complex plane for continuous time, when the Laplace
transform is used to obtain the transfer function.
 inside the unit circle for discrete time, when the Z-transform is used.

The difference between the two cases is simply due to the traditional method of plotting
continuous time versus discrete time transfer functions. The continuous Laplace transform is in
Cartesian coordinates where the axis is the real axis and the discrete Z-transform is in
circular coordinates where the axis is the real axis.

When the appropriate conditions above are satisfied a system is said to be asymptotically stable:
the variables of an asymptotically stable control system always decrease from their initial value
and do not show permanent oscillations. Permanent oscillations occur when a pole has a real
part exactly equal to zero (in the continuous time case) or a modulus equal to one (in the
discrete time case). If a simply stable system response neither decays nor grows over time, and
has no oscillations, it is marginally stable: in this case the system transfer function has non-
repeated poles at complex plane origin (i.e. their real and complex component is zero in the
continuous time case). Oscillations are present when poles with real part equal to zero have an
imaginary part not equal to zero.

If a system in question has an impulse response of

then the Z-transform (see this example), is given by

which has a pole in (zero imaginary part). This system is BIBO (asymptotically)
stable since the pole is inside the unit circle.

However, if the impulse response was

then the Z-transform is

which has a pole at and is not BIBO stable since the pole has a modulus strictly
greater than one.

Numerous tools exist for the analysis of the poles of a system. These include graphical systems
like the root locus, Bode plots or the Nyquist plots.

277
Mechanical changes can make equipment (and control systems) more stable. Sailors add ballast
to improve the stability of ships. Cruise ships use antiroll fins that extend transversely from the
side of the ship for perhaps 30 feet (10 m) and are continuously rotated about their axes to
develop forces that oppose the roll.

Controllability and observability

Main articles: Controllability and Observability

Controllability and observability are main issues in the analysis of a system before deciding the
best control strategy to be applied, or whether it is even possible to control or stabilize the
system. Controllability is related to the possibility of forcing the system into a particular state by
using an appropriate control signal. If a state is not controllable, then no signal will ever be able
to control the state. If a state is not controllable, but its dynamics are stable, then the state is
termed Stabilizable. Observability instead is related to the possibility of "observing", through
output measurements, the state of a system. If a state is not observable, the controller will never
be able to determine the behaviour of an unobservable state and hence cannot use it to stabilize
the system. However, similar to the stabilizability condition above, if a state cannot be observed
it might still be detectable.

From a geometrical point of view, looking at the states of each variable of the system to be
controlled, every "bad" state of these variables must be controllable and observable to ensure a
good behaviour in the closed-loop system. That is, if one of the eigenvalues of the system is not
both controllable and observable, this part of the dynamics will remain untouched in the closed-
loop system. If such an eigenvalue is not stable, the dynamics of this eigenvalue will be present
in the closed-loop system which therefore will be unstable. Unobservable poles are not present
in the transfer function realization of a state-space representation, which is why sometimes the
latter is preferred in dynamical systems analysis.

Solutions to problems of uncontrollable or unobservable system include adding actuators and


sensors.

Control specification

Several different control strategies have been devised in the past years. These vary from
extremely general ones (PID controller), to others devoted to very particular classes of systems
(especially robotics or aircraft cruise control).

A control problem can have several specifications. Stability, of course, is always present: the
controller must ensure that the closed-loop system is stable, regardless of the open-loop
stability. A poor choice of controller can even worsen the stability of the open-loop system,
which must normally be avoided. Sometimes it would be desired to obtain particular dynamics
in the closed loop: i.e. that the poles have , where is a fixed value
strictly greater than zero, instead of simply asking that .

Another typical specification is the rejection of a step disturbance; including an integrator in the
open-loop chain (i.e. directly before the system under control) easily achieves this. Other classes
of disturbances need different types of sub-systems to be included.

Other "classical" control theory specifications regard the time-response of the closed-loop
system: these include the rise time (the time needed by the control system to reach the desired

278
value after a perturbation), peak overshoot (the highest value reached by the response before
reaching the desired value) and others (settling time, quarter-decay). Frequency domain
specifications are usually related to robustness (see after).

Modern performance assessments use some variation of integrated tracking error


(IAE,ISA,CQI).

Model identification and robustness

A control system must always have some robustness property. A robust controller is such that
its properties do not change much if applied to a system slightly different from the mathematical
one used for its synthesis. This specification is important: no real physical system truly behaves
like the series of differential equations used to represent it mathematically. Typically a simpler
mathematical model is chosen in order to simplify calculations, otherwise the true system
dynamics can be so complicated that a complete model is impossible.

System identification

For more details on this topic, see System identification.

The process of determining the equations that govern the model's dynamics is called system
identification. This can be done off-line: for example, executing a series of measures from
which to calculate an approximated mathematical model, typically its transfer function or
matrix. Such identification from the output, however, cannot take account of unobservable
dynamics. Sometimes the model is built directly starting from known physical equations: for
example, in the case of a mass-spring-damper system we know that
. Even assuming that a "complete" model is used in
designing the controller, all the parameters included in these equations (called "nominal
parameters") are never known with absolute precision; the control system will have to behave
correctly even when connected to physical system with true parameter values away from
nominal.

Some advanced control techniques include an "on-line" identification process (see later). The
parameters of the model are calculated ("identified") while the controller itself is running: in this
way, if a drastic variation of the parameters ensues (for example, if the robot's arm releases a
weight), the controller will adjust itself consequently in order to ensure the correct performance.

Analysis

Analysis of the robustness of a SISO (single input single output) control system can be
performed in the frequency domain, considering the system's transfer function and using
Nyquist and Bode diagrams. Topics include gain and phase margin and amplitude margin. For
MIMO (multi input multi output) and, in general, more complicated control systems one must
consider the theoretical results devised for each control technique (see next section): i.e., if
particular robustness qualities are needed, the engineer must shift his attention to a control
technique by including them in its properties.

Constraints

A particular robustness issue is the requirement for a control system to perform properly in the
presence of input and state constraints. In the physical world every signal is limited. It could

279
happen that a controller will send control signals that cannot be followed by the physical
system: for example, trying to rotate a valve at excessive speed. This can produce undesired
behavior of the closed-loop system, or even damage or break actuators or other subsystems.
Specific control techniques are available to solve the problem: model predictive control (see
later), and anti-wind up systems. The latter consists of an additional control block that ensures
that the control signal never exceeds a given threshold.

System classifications

Linear systems control

Main article: State space (controls)

For MIMO systems, pole placement can be performed mathematically using a state space
representation of the open-loop system and calculating a feedback matrix assigning poles in the
desired positions. In complicated systems this can require computer-assisted calculation
capabilities, and cannot always ensure robustness. Furthermore, all system states are not in
general measured and so observers must be included and incorporated in pole placement design.

Nonlinear systems control

Main article: Nonlinear control

Processes in industries like robotics and the aerospace industry typically have strong nonlinear
dynamics. In control theory it is sometimes possible to linearize such classes of systems and
apply linear techniques, but in many cases it can be necessary to devise from scratch theories
permitting control of nonlinear systems. These, e.g., feedback linearization, backstepping,
sliding mode control, trajectory linearization control normally take advantage of results based
on Lyapunov's theory. Differential geometry has been widely used as a tool for generalizing
well-known linear control concepts to the non-linear case, as well as showing the subtleties that
make it a more challenging problem.

Decentralized systems

Main article: Decentralized/distributed control

When the system is controlled by multiple controllers, the problem is one of decentralized
control. Decentralization is helpful in many ways, for instance, it helps control systems operate
over a larger geographical area. The agents in decentralized control systems can interact using
communication channels and coordinate their actions.

Main control strategies

Every control system must guarantee first the stability of the closed-loop behavior. For linear
systems, this can be obtained by directly placing the poles. Non-linear control systems use
specific theories (normally based on Aleksandr Lyapunov's Theory) to ensure stability without
regard to the inner dynamics of the system. The possibility to fulfill different specifications
varies from the model considered and the control strategy chosen. Here a summary list of the
main control techniques is shown:

280
Adaptive control

Adaptive control uses on-line identification of the process parameters, or modification


of controller gains, thereby obtaining strong robustness properties. Adaptive controls
were applied for the first time in the aerospace industry in the 1950s, and have found
particular success in that field.

Hierarchical control

A Hierarchical control system is a type of Control System in which a set of devices and
governing software is arranged in a hierarchical tree. When the links in the tree are
implemented by a computer network, then that hierarchical control system is also a
form of Networked control system.

Intelligent control

Intelligent control uses various AI computing approaches like neural networks,


Bayesian probability, fuzzy logic, machine learning, evolutionary computation and
genetic algorithms to control a dynamic system.

Optimal control

Optimal control is a particular control technique in which the control signal optimizes a
certain "cost index": for example, in the case of a satellite, the jet thrusts needed to
bring it to desired trajectory that consume the least amount of fuel. Two optimal
control design methods have been widely used in industrial applications, as it has been
shown they can guarantee closed-loop stability. These are Model Predictive Control
(MPC) and linear-quadratic-Gaussian control (LQG). The first can more explicitly take
into account constraints on the signals in the system, which is an important feature in
many industrial processes. However, the "optimal control" structure in MPC is only a
means to achieve such a result, as it does not optimize a true performance index of the
closed-loop control system. Together with PID controllers, MPC systems are the most
widely used control technique in process control.

Robust control

Robust control deals explicitly with uncertainty in its approach to controller design.
Controllers designed using robust control methods tend to be able to cope with small
differences between the true system and the nominal model used for design. The early
methods of Bode and others were fairly robust; the state-space methods invented in
the 1960s and 1970s were sometimes found to lack robustness. A modern example of
a robust control technique is H-infinity loop-shaping developed by Duncan McFarlane
and Keith Glover of Cambridge University, United Kingdom. Robust methods aim to
achieve robust performance and/or stability in the presence of small modeling errors.

281
Stochastic control

Stochastic control deals with control design with uncertainty in the model. In typical
stochastic control problems, it is assumed that there exist random noise and
disturbances in the model and the controller, and the control design must take into
account these random deviations.

From Mathematical Control Theory


Eduardo D. Sontag- Springer- 1998.
What Is Mathematical Control Theory?

Mathematical control theory is the area of application-oriented mathematics that deals with
the basic principles underlying the analysis and design of control systems. To control an object
means to influence its behavior so as to achieve a desired goal. In order to implement this
influence, engineers build devices that incorporate various mathematical techniques. These
devices range from Watt’s steam engine governor, designed during the English Industrial
Revolution, to the sophisticated microprocessor controllers found in consumer items —such as
CD players and automobiles— or in industrial robots and airplane autopilots.
The study of these devices and their interaction with the object being controlled is the subject
of this book. While on the one hand one wants to understand the fundamental limitations
that mathematics imposes on what is achievable, irrespective of the precise technology
being used, it is also true that technology may well influence the type of question to be
asked and the choice of mathematical model. An example of this is the use of difference
rather than differential equations when one is interested in digital control. Roughly speaking,
there have been two main lines of work in control theory, which sometimes have seemed to
proceed in very different directions but which are in fact complementary. One of these is
based on the idea that a good model of the object to be controlled is available and that one
wants to somehow optimize its behavior. For instance, physical principles and engineering
specifications can be —and are— used in order to calculate that trajectory of a spacecraft
which minimizes total travel time or fuel consumption. The techniques here are closely
related to the classical calculus of variations and to other areas of optimization theory; the
end result is typically a preprogrammed flight plan. The other main line of work is that based
on the constraints imposed by uncertainty about the model or about the environment in
which the object operates. The central tool here is the use of feedback in order to correct for
deviations from the desired behavior. For instance, various feedback control systems are used
during actual space flight in order to compensate for errors from the precomputed trajectory.
Mathematically, stability theory, dynamical systems, and especially the theory of functions of a
complex variable, have had a strong influence on this approach. It is widely recognized today
that these two broad lines of work deal just with different aspects of the same problems,
and we do not make an artificial distinction between them in this book. Later on we shall give
an axiomatic definition of what we mean by a “system” or “machine.” Its role will be
somewhat analogous to that played in mathematics by the definition of “function” as a set
of ordered pairs: not itself the object of study, but a necessary foundation upon which the
entire theoretical development will rest.

A Brief Historical Background


Control mechanisms are widespread in nature and are used by living organisms in order to
maintain essential variables such as body temperature and blood sugar levels at desired
setpoints. In engineering too, feedback control has a long history: As far back as the early

282
Romans, one finds water levels in aqueducts being kept constant through the use of various
combinations of valves. Modern developments started during the seventeenth century. The
Dutch mathematician and astronomer Christiaan Huygens designed pendulum clocks and in
doing so analyzed the problem of speed control; in this work he competed with his
contemporary Robert Hooke. The needs of navigation had a strong influence on scientific and
technological research at that time, and accurate clocks —to allow determinations of solar
time— were in great demand. The attention turned to windmills during the eighteenth
century, and speed controls based on Hooke’s and Huygens’ ideas were built. A central idea
here is the use of flyballs: Two balls attached to an axis turn together with the windmill, in
such a manner that centrifugal force due to angular velocity causes them to rise; in turn this
upward movement is made to affect the positions of the mill’s sails. Thus, feedback was
implemented by the linkages from the flyballs to the sails. But it was the Industrial Revolution,
and the adaptation by James Watt in 1769 of flyball governors to steam engines, that made
control mechanisms very popular; the problem there was to regulate engine speed despite a
variable load. Steady-state error could appear, and various inventors introduced variations of
the integral feedback idea in order to deal with this problem.
The mathematician and astronomer George Airy was the first to attempt, around 1840, an
analysis of the governor and similar devices. By 1868, there were about 75,000 Watt
governors in use; that year, the Scottish physicist James,Clerk Maxwell published the first
complete mathematical treatment of their properties and was able to explain the sometimes
erratic behavior that had been observed as well as the effect of integral control. His work gave
rise to the first wave of theoretical research in control, and characterizations of stability were
independently obtained for linear systems by the mathematicians A. Hurwitz and E.J. Routh.
This theory was applied in a variety of different areas, such as
the study of ship steering systems.
During the 1930s, researchers at Bell Telephone Laboratories developed the theory of
feedback amplifiers, based on assuring stability and appropriate response for electrical circuits.
This work, by H. Nyquist, H.W. Bode, and others, constitutes even today the foundation of
much of frequency design. Analog computers appeared also around that time and formed the
basis for implementing controllers in the chemical and petroleum industries. During the
Second World War, these techniques were used in the design of anti-aircraft batteries and fire-
control systems, applications that continue to be developed today. The mathematician
Norbert Wiener, who developed a theory of estimation for random processes used in these
applications, coined at the end of the war the term “cybernetics” to refer to control theory and
related areas. These so-called classical approaches were for the most part limited by their
restriction to linear time-invariant systems with scalar inputs and outputs. Only during the
1950s did control theory begin to develop powerful general techniques that allowed treating
multivariable, time-varying systems, as well as many nonlinear problems. Contributions by
Richard Bellman (dynamic programming) and Rudolf Kalman (filtering, linear/quadratic optimal
control, and algebraic analysis) in the United States, and by L. Pontryagin (nonlinear optimal
control) in the Soviet Union, formed the basis for a very large research effort during the
1960s, which continues to this day. Present day theoretical research in control theory involves
a variety of areas of pure mathematics. Concepts and results from these areas find applications
in control theory; conversely, questions about control systems give rise to new open problems
in mathematics.

Some Topics Not Covered


In an area as wide as control theory, it is impossible to cover all topics in a single text, even
briefly. For instance, we concentrate exclusively on deterministic systems. Incorporating
models for uncertainty leads to stochastic models, which are the subject of much research

283
activity, when this uncertainty is expressed in probabilistic or statistical terms. Mathematically
different but closely related is the area of robust control, which deals with the design of
control laws that are guaranteed to perform even if the assumed model of the system to be
controlled is incorrect —with the allowed deviations quantified in appropriate norms— or
under the possibility of imperfect controller design. The area of adaptive control deals also
with the control of partially unknown systems, but differs from robust control in the
mathematics employed. Adaptive controllers typically make use of identification techniques,
which produce estimates of the system parameters for use by controllers ;
When using computers one should consider the effect of quantization errors on the
implementation of control laws, which arise due to limited precision when real-valued signals
are translated into fixed-point representations (A/D or analog to digital conversion); see e.g.
[304]. Other questions relate to the interface between higher-level controllers implemented in
software and lowerlevel servos of an analog and physical character; this gives rise to the area
of hybrid systems.

Bang–bang control

From Wikipedia, the free encyclopedy

A water heater that maintains desired


temperature by turning the applied power on
and off (as opposed to continuously varying
electrical voltage or current) based on
temperature feedback is an example
application of bang–bang control. Although
the applied power switches from one discrete
state to another, the water temperature will
remain relatively constant due to the slow
nature of temperature changes in materials.
Hence, the regulated temperature is like a
sliding mode of the variable structure system
setup by the bang–bang controller.

In control theory, a bang–bang controller (on–off controller), also known as a hysteresis


controller, is a feedback controller that switches abruptly between two states. These
controllers may be realized in terms of any element that provides hysteresis. They are often
used to control a plant that accepts a binary input, for example a furnace that is either
completely on or completely off. Most common residential thermostats are bang–bang
controllers. The Heaviside step function in its discrete form is an example of a bang–bang
control signal. Due to the discontinuous control signal, systems that include bang–bang
controllers are variable structure systems, and bang–bang controllers are thus variable
structure controllers.

284
Bang–bang solutions in optimal control

In optimal control problems, it is sometimes the case that a control is restricted to be between a
lower and an upper bound. If the optimal control switches from one extreme to the other at
certain times (i.e., is never strictly in between the bounds) then that control is referred to as a
bang-bang solution. Bang–bang controls frequently arise in minimum-time problems. For
example, if it is desired to stop a car in the shortest possible time at a certain position
sufficiently far ahead of the car, the solution is to apply maximum acceleration until the unique
switching point, and then apply maximum braking to come to rest exactly at the desired
position. This solution, which can be "uncomfortable" for the passengers, is a bang–bang
solution: maximum engine throttle followed by maximum braking.

A familiar everyday example is bringing water to a boil in the shortest time, which is achieved
by applying full heat, then turning it off when the water reaches a boil.
Bang–bang solutions also arise when the Hamiltonian is linear in the control variable;
application of Pontryagin's minimum principle will then lead to pushing the control to its upper
or lower bound depending on the sign of the coefficient of u in the Hamiltonian.
In summary, bang–bang controls are actually optimal controls in some cases, although they are
also often implemented because of simplicity or convenience.

Pontryagin's minimum principle


From Wikipedia, the free encyclopedia

Pontryagin's maximum (or minimum) principle is used in optimal control theory to find the
best possible control for taking a dynamical system from one state to another, especially in the
presence of constraints for the state or input controls. It was formulated in 1956 by the Russian
mathematician Lev Semenovich Pontryagin and his students. It has as a special case the Euler–
Lagrange equation of the calculus of variations.

The principle states informally that the Hamiltonian must be minimized over , the set of all
permissible controls. If is the optimal control for the problem, then the principle states
that:

where is the optimal state trajectory and is the optimal


costate trajectory.

The result was first successfully applied into minimum time problems where the input control is
constrained, but it can also be useful in studying state-constrained problems.

Special conditions for the Hamiltonian can also be derived. When the final time is fixed and
the Hamiltonian does not depend explicitly on time , then:

and if the final time is free, then:

285
More general conditions on the optimal control are given below.

When satisfied along a trajectory, Pontryagin's minimum principle is a necessary condition for
an optimum. The Hamilton–Jacobi–Bellman equation provides sufficient conditions for an
optimum, but this condition must be satisfied over the whole of the state space.

The principle was first known as Pontryagin's maximum principle and its proof is historically
based on maximizing the Hamiltonian. The initial application of this principle was to the
maximization of the terminal velocity of a rocket. However as it was subsequently mostly used
for minimization of a performance index it has here been referred to as the minimum principle.
Pontryagin's book solved the problem of minimizing a performance index

OPTIMAL CONTROL THEORY: The Hamilton–Jacobi–Bellman (HJB) equation is a


partial differential equation which is central to optimal control theory. The solution of
the HJB equation is the 'value function', which gives the optimal cost-to-go for a given
dynamical system with an associated cost function.

When solved locally, the HJB is a necessary condition, but when solved over the whole
of state space, the HJB equation is a necessary and sufficient condition for an optimum.
The solution is open loop, but it also permits the solution of the closed loop problem.
The HJB method can be generalized to stochastic systems as well.

Classical variational problems, for example the brachistochrone problem, can be solved
using this method.

The equation is a result of the theory of dynamic programming which was pioneered in
the 1950s by Richard Bellman and coworkers.[1] The corresponding discrete-time
equation is usually referred to as the Bellman equation. In continuous time, the result
can be seen as an extension of earlier work in classical physics on the Hamilton-Jacobi
equation by William Rowan Hamilton and Carl Gustav Jacob Jacobi.

Optimal control problems

Consider the following problem in deterministic optimal control over the time period
:

where C[] is the scalar cost rate function and D[] is a function that gives the economic
value or utility at the final state, x(t) is the system state vector, x(0) is assumed given,
and u(t) for 0 ≤ t ≤ T is the control vector that we are trying to find.

The system must also be subject to

286
where F[] gives the vector determining physical evolution of the state vector over time.

The partial differential equation

For this simple system, the Hamilton Jacobi Bellman partial differential equation is

subject to the terminal condition

where the means the dot product of the vectors a and b and is the gradient
operator.

The unknown scalar in the above PDE is the Bellman 'value function', which
represents the cost incurred from starting in state at time and controlling the system
optimally from then until time .

Deriving the equation

Intuitively HJB can be "derived" as follows. If is the optimal cost-to-go


function (also called the 'value function'), then by Richard Bellman's principle of
optimality, going from time t to t + dt, we have

Note that the Taylor expansion of the last term is

where o(dt2) denotes the terms in the Taylor expansion of higher order than one. Then if
we cancel V(x(t), t) on both sides, divide by dt, and take the limit as dt approaches zero,
we obtain the HJB equation defined above.

Solving the equation

The HJB equation is usually solved backwards in time, starting from and ending
at .

When solved over the whole of state space, the HJB equation is a necessary and
sufficient condition for an optimum. If we can solve for then we can find from it a
control that achieves the minimum cost.

In general case, the HJB equation does not have a classical (smooth) solution. Several
notions of generalized solutions have been developed to cover such situations, including

287
viscosity solution (Pierre-Louis Lions and Michael Crandall), minimax solution (Andrei
Izmailovich Subbotin), and others.

Extension to stochastic problems

The idea of solving a control problem by applying Bellman's principle of optimality and
then working out backwards in time an optimizing strategy can be generalized to
stochastic control problems. Consider similar as above

now with the stochastic process to optimize and the steering. By

first using Bellman and then expanding with Itô's rule, one finds the
deterministic HJB equation

where represents the stochastic differentiation operator, and subject to the terminal
condition

Note, that the randomness has disappeared. In this case a solution of the latter does
not necessarily solve the primal problem, it is a candidate only and a further verifying
argument is required. This technique is widely used in Financial Mathematics to
determine optimal investment strategies in the market (see for example Merton's
portfolio problem).

Optimal control problems

Consider the following problem in deterministic optimal control over the time period
:

where C[] is the scalar cost rate function and D[] is a function that gives the economic
value or utility at the final state, x(t) is the system state vector, x(0) is assumed given,
and u(t) for 0 ≤ t ≤ T is the control vector that we are trying to find.

The system must also be subject to

288
where F[] gives the vector determining physical evolution of the state vector over time.

The partial differential equation

For this simple system, the Hamilton Jacobi Bellman partial differential equation is

subject to the terminal condition

Where the means the dot product of the vectors a and b and is the gradient
operator.

The unknown scalar in the above PDE is the Bellman 'value function', which
represents the cost incurred from starting in state at time and controlling the system
optimally from then until time .

Deriving the equation

Intuitively HJB can be "derived" as follows. If is the optimal cost-to-go


function (also called the 'value function'), then by Richard Bellman's principle of
optimality, going from time t to t + dt, we have

Note that the Taylor expansion of the last term is

where o(dt2) denotes the terms in the Taylor expansion of higher order than one. Then if
we cancel V(x(t), t) on both sides, divide by dt, and take the limit as dt approaches zero,
we obtain the HJB equation defined above.

Solving the equation

The HJB equation is usually solved backwards in time, starting from and ending
at .

When solved over the whole of state space, the HJB equation is a necessary and
sufficient condition for an optimum. [2] If we can solve for then we can find from it a
control that achieves the minimum cost.

In general case, the HJB equation does not have a classical (smooth) solution. Several
notions of generalized solutions have been developed to cover such situations, including

289
viscosity solution (Pierre-Louis Lions and Michael Crandall), minimax solution (Andrei
Izmailovich Subbotin), and others.

Extension to stochastic problems

The idea of solving a control problem by applying Bellman's principle of optimality and
then working out backwards in time an optimizing strategy can be generalized to
stochastic control problems. Consider similar as above

now with the stochastic process to optimize and the steering. By

first using Bellman and then expanding with Itô's rule, one finds the
deterministic HJB equation

where represents the stochastic differentiation operator, and subject to the terminal
condition

Note, that the randomness has disappeared. In this case a solution of the latter does
not necessarily solve the primal problem, it is a candidate only and a further verifying
argument is required. This technique is widely used in Financial Mathematics to
determine optimal investment strategies in the market (see for example Merton's
portfolio problem).

Bellman equation, discrete-time counterpart of the Hamilton-Jacobi-Bellman equation

Pontryagin's minimum principle, necessary but not sufficient condition for optimum, by
minimizing a Hamiltonian, but this has the advantage over HJB of only needing to be
satisfied over the single trajectory being considered.

PERSPECTIVES
From Google: Mathematical Control Theory/
Unsolved Problems in Mathematical Systems and Control Theory
Edited by Vincent D. Blondel and Alexandre Megretski
Copyright c 2004 by Princeton University Press Published, PRINCETON AND
OXFORD.

“Five years ago, a first volume of open problems in Mathematical Systems


and Control Theory appeared (Vincent D. Blondel, Eduardo D. Sontag, M.
Vidyasagar, and Jan C. Willems, Open Problems in Mathematical Systems
and Control Theory, Springer Verlag, 1998). Some of the 53 problems that

290
were published in this volume attracted considerable attention in the
research community. Early versions of some of the problems in this book
have been presented at the Open Problem sessions of the Oberwolfach
Tagung on Regelungstheorie, on February 27, 2002, and of the Conference
on Mathematical Theory of Networks and Systems (MTNS) in Notre Dame,
Indiana, on August 12, 2002.
The editors thank the organizers of these meetings for their willingness to
provide the problems this welcome exposure.”

The present book contains a new collection of 63 open problems.


“Undoubtedly, the most spectacular event in this arena was the
announcement by the Clay Mathematics Institute of the Millennium Prize
Problems whose solution will be rewarded by one million U.S. dollars each.
Modesty and modesty of means have prevented the editors of the present
volume from offering similar rewards toward the solution of the problems in
this book. However, we trust that, notwithstanding this absence of a financial
incentive, the intellectual challenge will stimulate many readers to attack the
problems.”

-SMALE’S PROBLEMS. In 1998, S.Smale compiled a list of 18 problems in


mathematics to be solved in the 21st century, known as Smale's problems. This list
was compiled in the spirit of Hilbert's famous list of problems produced in 1900. In
fact, Smale's list contains some of the original Hilbert problems, including the
Riemann hypothesis and the second half of Hilbert's sixteenth problem, both of
which are still unsolved. Other famous problems on his list include the Poincaré
conjecture, the P = NP problem, and the Navier-Stokes equations, all of which have
been designated Millennium Prize Problems by the Clay Mathematics Institute.

Recalling what Terence Tao said: M&


P: What fields of mathematics do you foresee will grow in importance, and
maybe less positively, fade away? .
Tao:…I think the next few decades of mathematics will be characterized by
interdisciplinary synthesis of disparate fields of mathematics; the emphasis will
be less on developing each field as deeply as possible (though this is of course
still very important), but rather on uniting their tools and insights to attack
problems previously considered beyond reach. I also see a restoration of balance
between formalism and intuition, as the former has been developed far more
heavily than the latter in the last century or so, though intuition has seen a
resurgence in more recent decades.

Notices of the American Mathematical Society


From the President of the AMS f the American Mathematical Society
Mathematical Challenges of the 21st Century
On August 6–12, 2000, the American Mathematical Society will hold an extraordinary
meeting
on the UCLA campus under the title “Mathematical Challenges of the 21st Century”. As the
principal organizer of this meeting, I feel compelled to tell the members of the AMS about

291
the purposes of this meeting and the principles on which it has been organized. (For a
detailed listing of the 31 plenary speakers and their topics, see the “Meetings” section of the
present issue of the Notices or the Web site http://www.ams.org/meetings/; for a discursive
description of the meeting, see Allyn Jackson’s article “Stellar Lineup for UCLA Meeting” in
the February 2000 Notices.)

The purposes of the meeting are twofold:


1. To exhibit the vitality of mathematical research and to indicate some of its
potential major
growing points: these include some of the major classical problems (the Riemann
Hypothesis, the Poincaré Conjecture*, the regularity of three-dimensional fluid flows)
as well as some of the recently developed major research programs like those
associated with the names of Langlands and Thurston.
2. To point up the growing connections between the frontiers of research in the
mathematical
sciences and cutting-edge developments in such areas as physics, biology,
computational
science, computer science, and finance.
The meeting will aim to raise consciousness within the mathematical community itself, the
scientific community more generally, and beyond these (one hopes) policy and opinion
makers and society at large. We hope to raise awareness of the amazing growth in the past
several decades of interactions between sophisticated mathematical research and major
problems arising in science and society. As I write these lines, I have just been looking at a
note in the Proceedings of the National Academy of Sciences that describes the application
of contemporary knot theory to the function and structure of DNA. The other day I wrote
down a list of such topics, many of which might be covered in our meeting. I found the
following eighteen (the reader is invited to add to this list):

1. Wavelet theory and harmonic analysis in data compression and statistical


inference
2. Knot theory in quantum physics and molecular biology
3. Stochastic analysis and mathematics of finance
4. Dynamical systems, chaos theory, and fractals
5. Mathematical models of pattern perception
6. Complex systems in biology
7. Quantum computing and quantum information theory
8. Mathematical probes of reliability in computational science
9. Algebraic methods in combinatorial problems
10. Quantum field theory and string theory in relation to geometry
11. Noncommutative geometry and models of space and time
12. Mathematical analysis of algorithms
13. Computational molecular biology
14. Mathematical models of turbulence
15. Nonlinear partial differential equations of general relativity theory
16. Calculus of variations and nonlinear PDEs in materials science
17. Prime number theory and cryptology
18. Algebraic number theory in coding theory

The program for “Mathematical Challenges” reflects the way in which mathematics is
reaching out to other disciplines, solving problems, and opening new pathways for research,
while at the same time drawing in ideas that bring new vitality and richness to the field. The
speakers have been asked to give a broad picture of the prospects and challenges in the
areas they cover and to do so in terms that are comprehensible to a general mathematical
audience. This will be an important event, and I urge and welcome you to attend.
—Felix E. Browder

292
Stellar Lineup for AMS Meeting in August 2000
The AMS meeting in August 2000 is shaping up to be a landmark event. Entitled
Mathematical Challenges of the 21st Century, the meeting will feature about
thirty speakers chosen from the world’s top mathematicians. These mathematical
leaders will share their ideas about the most important questions in
mathematics today and what the future might bring. The meeting will be held
August 7–12, 2000, on the campus of the University of California, Los Angeles.
“Mathematical Challenges” rivals the International Congresses of
Mathematicians (ICMs) in the number and prominence of the invited speakers.
The elite group of speakers chosen for “Mathematical Challenges” includes eight
Fields Medalists and a number of others who are generally considered to have
been top contenders for this distinction. Within the group one also finds a
Nevanlinna prizewinner, a King Faisal prizewinner, recipients of the Wolf
Prize, a Turing Award winner, and several AMS prizewinners. But more
impressive than the prizes is the way this group of speakers exemplifies the depth
and range of modern mathematics. Several will address aspects of number
theory, particularly the “Langlands Program”, a web of conjectures linking
disparate parts of the subject. Other speakers will discuss progress on another
great theme in number theory, the Riemann Hypothesis. The program’s emphasis
on geometry and topology reflects the importance of these areas in mathematics
today. Some of the most exciting developments in mathematics in recent years
have involved connections between geometry and topology on the one hand and
theoretical physics on the other, and several speakers will address this theme.
Another theme in the program is the impact of mathematics in biology, where
the problems require highly sophisticated mathematical models and present
formidable computational challenges. Indeed, the problem of creating more
powerful computational methods in all areas of science and technology is a
major motivation in mathematics today. The program for “Mathematical
Challenges” will demonstrate the impact of mathematics across many areas of
human endeavor, from science to commerce to communications to medicine. The
speakers for “Mathematical Challenges” are being urged to make their talks
accessible to a broad mathematical audience. In addition, because the meeting is
designed to provide a look toward the future of mathematics, the speakers are
being encouraged to speculate on their ideas about where the field is headed and
what kinds of problems, themes, and ideas will come to the fore in the next century.
“Mathematical Challenges of the 21st Century” promises to be a meeting of
historical significance. Allyn Jackson

293
OBSERVAÇÕES:

1) PARA SEREM POSTOS EM PRÁTICA, OS CONCEITOS E PRINCÍPIOS DEPENDEM DE


OPERACIONALIDADE E TECNOLOGIA, QUE PODEM PRIVILEGIAR MÉTODOS E PROCESSOS;

2) AS ABORDAGENS TEÓRICAS PODEM ENVOLVER A ANÁLISE DE TOTALIDADES DE ELEMENTOS


COM DETERMINADA PROPRIEDADE, ENQUANTO QUE, OS ALGORITMOS COMPUTACIONAIS
UTILIZAM PROCEDIMENTOS SEQUENCIAIS (AS VEZES OBTIDOS À PARTIR DA ANÁLISE DE
TOTALIDADES).

3) OS MÉTODOS CONTÍNUOS, QUE FORAM CRIADOS PARA SIMPLIFICAR OS CÁLCULOS E HOJE


SÃO UTILIZADOS PARA ORIENTÁ-LOS, E SE UTILIZAM PRINCIPALMENTE DAS DERIVADAS PARA
REPRESENTAR VARIAÇÕES (E POR ISSO MAIS FORTES), ESTÃO SENDO ACOMPANHADOS PELOS
CORRESPONDENTES MÉTODOS DISCRETOS, FINITOS OU ENUMERÁVEIS, QUE SE UTILIZAM
PRINCIPALMENTE DAS DIFERENÇAS PARA REPRESENTAR VARIAÇÕES, AS VEZES OBTIDOS E
JUSTIFICADOS ATRAVÉS DE MÉTODOS CONTÍNUOS, SEGUIDOS POR ALGORITMOS
COMPUTACIONAIS, QUE, DEPENDENDO DA COMPLEXIDADE DO PROBLEMA, PODEM SE
ANTECIPAR, OU MESMO PRESCINDIR DOS MÉTODOS CONTÍNUOS;

4) O EXEMPLO DA PG. 320 FOI OBTIDO ATRAVÉS DO SITE mathoverflow, que parece
responder a professores universitários. Parece que o Mathematics Stack Exchanges é
extenso a alunos.

5) NO EXEMPLO ÀS PG.461/2 SÃO MENCIONADOS OS PROGRAMAS GNU Octave/MATLAB.


TAMBÉM HOUVE MENÇÃO AO MIZAR SYSTEM e MIZAR PROJECT.

6) O retorno à linha que parte dos problemas de matemática inspirados nas


aplicações (que, na década de setenta passou de reorientação para ser mais
intensamente aplicada), é, hoje, uma direção seguida e que vem apresentando
resultados! “…Indeed, the problem of creating more powerful
computational methods in all areas of science and technology is a major
motivation in mathematics today...”

Além disso, tendo em conta que o aprendizado melhor se realiza com o


reconhecimento das estruturas matemáticas em casos concretos de aplicação, a
linha

L1) EXEMPLOS REPRESENTATIVOS TEORIA ABSTRATA, se mostrou mais eficiente do


que a pretendida por algumas escolas, em certo período

L2) TEORIA ABSTRATA EXEMPLOS DE APLICAÇÃO, uma vez que esta última
pressupõe

294
OBSERVAÇÕES:

295

Potrebbero piacerti anche