Uma Introdução a Soluções de Viscosidade para Equações de ... · • Introdução à Teoria...

107
Uma Introdução a Soluções de Viscosidade para Equações de Hamilton-Jacobi

Transcript of Uma Introdução a Soluções de Viscosidade para Equações de ... · • Introdução à Teoria...

Uma Introdução a Soluçõesde Viscosidade para Equações

de Hamilton-Jacobi

Publicações Matemáticas

Uma Introdução a Soluçõesde Viscosidade para Equações

de Hamilton-Jacobi

Helena J. Nussenzveig LopesUNICAMP

Milton C. Lopes FilhoUNICAMP

impa

Copyright 2006 by Helena J. Nussenzveig Lopes e Milton C. Lopes FilhoDireitos reservados, 2006 pela Associação InstitutoNacional de Matemática Pura e Aplicada - IMPAEstrada Dona Castorina, 11022460-320 Rio de Janeiro, RJ

Impresso no Brasil / Printed in Brazil

Capa: Noni Geiger / Sérgio R. Vaz

Publicações Matemáticas

• Introdução à Análise Funcional – César R. de Oliveira• Introdução à Topologia Diferencial – Elon Lages Lima• Les Équations Différentielles Algébriques et les Singularités Mobiles –

Ivan Pan e Marcos Sebastiani• Criptografia, Números Primos e Algoritmos – Manoel Lemos• Introdução à Economia Dinâmica e Mercados Incompletos – Aloísio Araújo• Conjuntos de Cantor, Dinâmica e Aritmética – Carlos Gustavo Moreira• Geometria Hiperbólica – João Lucas Marques Barbosa• Introdução à Economia Matemática – Aloísio Araújo• Superfícies Mínimas – Manfredo Perdigão do Carmo• The Index Formula for Dirac Operators: an Introduction –

Levi Lopes de Lima• Introduction to Symplectic and Hamiltonian Geometry –

Ana Cannas da Silva• Primos de Mersenne (e outros primos muito grandes) –

Carlos Gustavo T. A. Moreira e Nicolau Saldanha• The Contact Process on Graphs – Márcia Salzano• Canonical Metrics on Compact almost Complex Manifolds – Santiago R. Simanca• Introduction to Toric Varieties – Jean-Paul Brasselet• Birational Geometry of Foliations – Marco Brunella• Introduction to Nonlinear Dispersive Equations – Felipe Linares e Gustavo Ponce• Introdução à Teoria das Probabilidades – Pedro J. Fernandez• Teoria dos Corpos – Otto Endler• Introdução à Dinâmica de Aplicações do Tipo Twist – Clodoaldo G. Ragazzo, Mário J.

Dias Carneiro e Salvador Addas Zanata• Elementos de Estatística Computacional usando Plataformas de Software Livre/Gratuito -

Alejandro C. Frery e Francisco Cribari-Neto• Uma Introdução a Soluções de Viscosidade para Equações de Hamilton-Jacobi - Helena J.

Nussenzveig Lopes, Milton C. Lopes Filho

Distribuição: IMPA Estrada Dona Castorina, 110 22460-320 Rio de Janeiro, RJ E-mail: [email protected] - http://www.impa.br ISBN: 85-244-0123-0

Contents

Introducao 3

1 Teoria de controle otimo 7

1.1 Controle otimo . . . . . . . . . . . . . . . . . . . . . . . . . . 81.2 Programacao dinamica . . . . . . . . . . . . . . . . . . . . . . 121.3 O metodo de caracterısticas . . . . . . . . . . . . . . . . . . . 16

2 Hamiltoniana autonoma e convexa 22

2.1 Sistemas controlados pela velocidade . . . . . . . . . . . . . . 222.2 Dualidade convexa . . . . . . . . . . . . . . . . . . . . . . . . 252.3 Solucao de Hopf-Lax . . . . . . . . . . . . . . . . . . . . . . . 292.4 Solucoes fracas e unicidade . . . . . . . . . . . . . . . . . . . . 35

3 Solucoes de viscosidade 44

3.1 Metodo de viscosidade . . . . . . . . . . . . . . . . . . . . . . 443.2 Definicoes alternativas de solucao de viscosidade . . . . . . . . 50

4 Princıpios de comparacao e unicidade 57

4.1 Problemas estacionarios . . . . . . . . . . . . . . . . . . . . . 574.2 Equacoes de Hamilton-Jacobi . . . . . . . . . . . . . . . . . . 65

5 Causalidade e existencia 74

5.1 Causalidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . 745.2 Equacao de Hamilton-Jacobi-Bellman . . . . . . . . . . . . . . 835.3 Metodo de Perron . . . . . . . . . . . . . . . . . . . . . . . . . 90

Exercıcios 98

1

Bibliografia 102

Introducao

Esta monografia consiste de uma introducao a nocao de solucao de viscosi-dade, no contexto de equacoes de Hamilton-Jacobi. A definicao de solucao deviscosidade que vamos tratar e uma elaboracao da definicao introduzida porM. Crandall e P.-L. Lions, [5], em 1983 para equacoes de Hamilton-Jacobi eposteriormente estendida a uma vasta classe de equacoes diferenciais parciaisfortemente nao-lineares, particularmente de natureza elıptica ou parabolica.Esta e uma area de pesquisa ativa e de importancia crescente em equacoesdiferenciais parciais.

As equacoes de Hamilton-Jacobi sao equacoes de primeira ordem do tipoF (x, u,∇u) = 0, que aparecem naturalmente em mecanica classica, em teo-ria de controle otimo determinıstica e em teoria dos jogos. A aplicacao emteoria de controle desempenhou um papel importante no desenvolvimento dateoria, dando origem a algumas das ideias centrais e fornecendo uma classeinteressante de problemas modelo, veja [19]. Alem de fornecer o ponto departida historico para o desenvolvimento da teoria de solucoes de viscosi-dade, as equacoes de Hamilton-Jacobi sao um contexto natural para uma in-troducao a esta teoria. As ideias basicas estao presentes de forma nao-trivial.Alem disso, em contraposicao a teoria geral de solucoes de viscosidade paraequacoes de segunda ordem, os aspectos tecnicos ficam consideravelmentesimplificados.

Sob um ponto de vista mais amplo, esta monografia tem a intencao deintroduzir alguns dos temas, preocupacoes e dificuldades fundamentais noestudo de solucoes fracas de equacoes diferenciais parciais nao-lineares. Umdos desenvolvimentos centrais em equacoes diferenciais parciais neste seculofoi a teoria de distribuicoes de L. Schwartz, que possibilitou o tratamento rig-oroso de solucoes de equacoes diferenciais parciais com pouca regularidade,ampliando o proprio conceito de derivada. Existem dificuldades quase in-

3

4

transponıveis em se estender para equacoes nao-lineares o sucesso alcancadopela teoria de distribuicoes em equacoes lineares. O interesse pratico dedefinir e trabalhar com solucoes “irregulares” de equacoes diferenciais par-ciais nao-lineares (ondas de choque, fenomenos turbulentos, meios materiaisde natureza irregular ou fractal, ruıdo aleatorio, condicoes iniciais singulares,entre outros) tem motivado um esforco continuado por desenvolver tecnicascapazes de dar sentido e de estudar propriedades destas solucoes. Entretanto,a pesquisa nesta area necessita em geral de ferramentas analıticas bastantesofisticadas, utilizando ideias de teoria da medida, espacos de Sobolev, analiseharmonica, operadores pseudo-diferenciais, entre outros.

A teoria de solucoes de viscosidade para equacoes de Hamilton-Jacobi euma excecao notavel precisamente neste aspecto. Veremos que e possıvel de-senvolver uma teoria completa e poderosa fazendo uso de tecnicas elementaresde analise real. Neste contexto especıfico e possıvel desenvolver uma teoriasofisticada do ponto de vista de equacoes diferenciais parciais nao-linearessem depender de um pesado arcabouco analıtico desenvolvido previamenteou concorrentemente. Este texto pretende, em princıpio, ser acessıvel a umaluno de mestrado que tenha feito cursos de analise em varias variaveis,de equacoes diferenciais ordinarias e que tenha sido exposto a integral deLebesgue em IRn. Um curso basico de equacoes diferenciais parciais, a nıvelde graduacao ou mestrado, torna as questoes tratadas aqui mais naturais.O principal pre-requisito que este assunto exige e a maturidade matematica,possibilitando a apreensao de alguns conceitos pouco familiares e razoavel-mente sofisticados. Nosso publico alvo sao alunos de pos-graduacao com in-teresse em equacoes diferenciais parciais e especialistas na area que desejemuma introducao rapida as solucoes de viscosidade.

O material coberto nestas notas, no que diz respeito as solucoes de vis-cosidade, apareceu entre os anos de 1983 e 1986. Os pioneiros desta teoriaforam M. Crandall, P.-L. Lions, L. C. Evans e H. Ishii. Os resultados so-bre solucoes de viscosidade que apresentamos aqui sao devidos a estes au-tores e as referencias basicas que utilizamos na elaboracao deste materialsao: [3, 5, 6, 8, 12, 15, 19]. Para uma introducao ao estado da arte posterior,veja [4]. Os autores tambem recomendam que o leitor interessado assistao videotape de uma palestra de 80 minutos, proferida por M. Crandall em1991, e editada pela A.M.S. [2]. Um assunto que teria lugar natural nestetexto sao as tecnicas de aproximacao numerica de solucoes de viscosidade.A decisao de omitir este material foi arbitraria; referimos contudo as leitoras

5

interessadas ao artigo [7] para uma introducao ao tema.Vamos fazer uma observacao sobre notacao. No decorrer desta mono-

grafia, utilizamos diversas notacoes para derivadas. Derivadas parciais saodenotadas alternativamente ∂/∂s ou (·)s e derivadas em uma variavel por

d/ds ou (). Um abuso de notacao que cometeremos com alguma frequenciae denotar o gradiente de uma funcao H = H(p, x), com p, x ∈ IRn, por(∂H/∂p, ∂H/∂x).

O conteudo desta monografia encontra-se dividido da seguinte maneira:No Capıtulo 1 fazemos uma introducao a teoria de controle otimo, que servede motivacao e fonte de exemplos para a teoria que se segue. No Capıtulo2, desenvolvemos a teoria de solucoes fracas para o caso de Hamiltonianaautonoma e convexa. No Capıtulo 3, introduzimos a nocao de solucao deviscosidade e provamos algumas de suas propriedadas basicas. No Capıtulo4, demonstramos unicidade e dependencia contınua nos dados iniciais. NoCapıtulo 5, demonstramos velocidade finita de propagacao de informacao,estabelecemos a conexao da teoria desenvolvida com o problema de cont-role otimo e ampliamos a discussao sobre a questao de existencia. Por fim,incluımos alguns exercıcios, que sao citados frequentemente no texto.

Esta monografia e uma ampliacao das notas de um minicurso ministradopelos autores na UFPb - Joao Pessoa em junho de 1995 e no 42o. SeminarioBrasileiro de Analise. Esta versao das notas se encontra publicada nas atas do42o. SBA. A presente redacao corresponde, aproximadamente, ao conteudode um minicurso, em seis palestras de 90 minutos, ministrado no programade verao do Instituto de Matematica Pura e Aplicada, em fevereiro de 1996.

Os autores agradecem a L. Craig Evans, pela sua generosa permissaopara reelaborar, e em algumas instancias, traduzir material contido em [8].Mais ainda, os autores tem uma profunda dıvida intelectual para com Prof.Evans, pelo seu ponto de vista sobre solucoes de viscosidade e sobre equacoesdiferenciais parciais nao-lineares em geral, que absorveram tanto por convıviopessoal como por estudar e ensinar equacoes diferenciais atraves de [8]. Deve-mos tambem agradecer a Hitoshi Ishii, por ter gentilmente atendido a nossasduvidas. A exposicao sobre o metodo de Perron contida na Secao 5.3 foibaseada de perto em suas sugestoes.

Os autores tambem agradecem a Marcelo M. Santos e Rafael Iorio Jr.pelas oportunidades de apresentar este material em minicursos, ao Departa-mento de Matematica da UFPb-J.Pessoa e ao IMPA pela acolhedora hospital-

6

idade, a datilografia tecnica do IMECC-UNICAMP, pelo excelente trabalhoem transcrever a versao anterior desta monografia a partir de um originalmanuscrito e ao CNPq, pelos diversos financiamentos envolvidos na elab-oracao desta monografia.

Chapter 1

Teoria de controle otimo

Este capıtulo e uma introducao sumaria a teoria de controle otimo, dire-cionada ao papel que equacoes de Hamilton-Jacobi desempenham nesta teo-ria. Os objetivos centrais sao de introduzir um contexto de aplicacoes para ateoria de solucoes fracas que desenvolveremos nestas notas e ilustrar a origemde algumas das ideias no desenvolvimento desta teoria.

As equacoes de Hamilton-Jacobi sao equacoes diferenciais parciais deprimeira ordem cuja caracterıstica predominante e encontrar-se derivadasespaciais da funcao incognita inseridas na nao-linearidade. Vamos nos con-centrar em um tipo especıfico de problema de valor inicial, para equacoesde Hamilton-Jacobi, com uma estrutura de equacao de evolucao, como de-screvemos abaixo.

Sejam x = (x1, . . . , xn) ∈ IRn, H : IRn × IRn → IR contınua. O problemade valor inicial para a equacao de Hamilton-Jacobi no nosso contexto e:

ut +H(∇u, x) = 0, em IRn × (0,∞)u(x, 0) = g(x) em IRn × t = 0, (1.1)

onde o dado inicial g : IRn → IR e uma funcao contınua. Chamamos a funcaoH de Hamiltoniana da equacao. Uma solucao classica de (1.1) e uma funcaou : IRn × [0,∞) → IR, de classe C1(IRn × (0,∞)) ∩ C0(IRn × [0,∞)) quesatisfaz o problema (1.1).

Antes de mais nada, vamos introduzir os conceitos basicos de controleotimo e determinar em que sentido a solucao do problema acima e relevanteem teoria do controle otimo.

7

CHAPTER 1. TEORIA DE CONTROLE OTIMO 8

1.1 Controle otimo

O problema de controle otimo, formulado de maneira vaga, consiste de de-terminar uma estrategia para guiar um sistema, de maneira a otimizar umdado funcional custo ou valor. Este tipo de problema aparece naturalmentequando se deseja gerenciar um sistema de forma eficiente, por exemplo, na ex-ploracao economica de recursos renovaveis, no gerenciamento de uma unidadede producao industrial ou na administracao de uma economia. Do ponto devista matematico, problemas de controle otimo podem tomar diversas formase incorporar diversos nıveis de complexidade, dependendo de quao realısticoseja o modelo em questao. Vamos nos utilizar de um problema modelo ide-alizado, para introduzir as ideias que nos interessam da forma mais simplespossıvel.

Vamos considerar o seguinte problema especıfico de controle otimo.Seja A ⊂ IRm compacto e f : IRn × A→ IRn uma funcao contınua, Lips-

chitz na primeira variavel, uniformemente na segunda. Considere a equacaodiferencial ordinaria com fluxo f :

x(s) = f(x(s), a)x(t) = x.

Esta equacao e entendida como a equacao que descreve a evolucao do sis-tema que se deseja controlar, atraves de um programa que varie o parametroa de forma conveniente no tempo. A variavel x representa um conjunto devalores descrevendo o estado do sistema, de modo que esta equacao diferen-cial ordinaria e chamada de equacao de estado do problema de controle.

Para formular o nosso problema de controle otimo primeiramente especi-ficamos uma classe de controles admissıveis, que e interessante tomar a maisabrangente possıvel. Defina o conjunto de controle admissıveis:

A = α : [0, T ] → A tal que α(·) e Lebesgue mensuravel.A equacao de estado passa a ter a forma:

x(s) = f(x(s), α(s)) qtp para s ∈ (t, T );α ∈ Ax(t) = x.

(1.2)

Para cada controle admissıvel α ∈ A o sistema possui uma unica solucaox(·), absolutamente contınua, definida no intervalo [t, T ] (Exercıcio 2). Va-mos chamar x(·) de resposta do sistema ao controle α.

CHAPTER 1. TEORIA DE CONTROLE OTIMO 9

O objetivo do problema de controle otimo e determinar um controle α∗ ∈A que guie o estado x(·) de modo a minimizar um dado funcional custo.Introduzimos um funcional custo da forma:

Cx,t[α] =∫ T

th(x(s), α(s))ds+ g(x(T )).

Este e chamado um problema com horizonte de planejamento finito.A funcao h : IRn × A → IR e chamada de custo operacional e a funcao

g : IRn → IR e chamada de custo terminal. Por razoes tecnicas, vamosassumir que elas satisfazem as seguintes propriedades:

h ∈ C0(IRn × A), g ∈ C0(IRn)

|h(x, a)|, |g(x)| ≤ C

|h(x, a) − h(y, a)|, |g(x) − g(y)| ≤ C|x− y|, x, y ∈ IRn, a ∈ A.

As constantes acima sao independentes de a.Dados um estado x0 ∈ IRn e tempo de partida t0 ≤ T queremos, se

possıvel, encontrar o controle α∗ que minimize o funcional custo entre todosos controles admissıveis. Formulamos isto da seguinte maneira.

Problema:Ache α∗ ∈ A tal que:Cx0,t0 [α

∗] = infα∈A Cx0,t0[α].(1.3)

Nosso ponto de partida para o estudo deste problema e uma analise in-formal do ponto de vista do calculo de variacoes. Vamos tratar a equacaode estado como um vınculo do problema, por uma tecnica analoga a dosmultiplicadores de Lagrange. Introduzimos uma funcao incognita adicionalp = p(s) no problema, que desempenhara o papel de multiplicador de La-grange. A funcao p e chamada variavel de co-estado em teoria do controle.O funcional estendido tem a forma:

I(x, α, p) =∫ T

t0h(x, α) − p · (x− f(x, α)) ds+ g(x(T )).

A analise e informal porque vamos assumir suficiente suavidade das funcoesf , h e g, e das incognitas x, α e p de modo que o funcional I esteja bemdefinido e que a derivacao das equacoes de Euler-Lagrange abaixo possa serrealizada. Assume-se tambem que x(t0) = x0.

CHAPTER 1. TEORIA DE CONTROLE OTIMO 10

Considere x∗, α∗ e p∗ um mınimo de I e tome variacoes φi = φi(s), comi = 1, 2, 3, suaves, definidas no intervalo [t0, T ], com φ1(t0) = 0. Defina xε =x∗ + εφ1, α

ε = α∗ + εφ2, e pε = p∗ + εφ3. Defina tambem i(ε) ≡ I(xε, αε, pε).Portanto,

di

dε=∫ T

t0

∂h

∂xφ1+

∂h

∂aφ2−(xε−f)φ3−pε(φ1−

∂f

∂xφ1−

∂f

∂aφ2)ds+

∂g

∂x(xε(T ))φ1(T ).

Integramos por partes o termo −pεφ1. O termo de fronteira correspon-dente a s = t0 se anula pois assumimos que φ1(t0) = 0. O termo de fronteiracorrespondente a s = T e incorporado ao termo do custo final, fora da inte-gral. Coletamos os termos envolvendo cada uma das funcoes teste na integrale fazemos ε = 0. Como x∗, α∗ e p∗ sao um mınimo, a expressao resultante seanula, isto e:

0 =di

ε=0

=

∫ T

t0φ1

(

∂h

∂x(x∗, α∗) + p∗

∂f

∂x(x∗, α∗) + p∗

)

+φ2

(

∂h

∂a(x∗, α∗) + p∗

∂f

∂a(x∗, α∗)

)

+

+φ3 (−x∗ + f(x∗, α∗)) ds+ φ1(T )

(

∂g

∂x(x∗(T )) − p∗(T )

)

.

Tomando-se φ1 = φ2 = 0 e φ3 arbitrario, recupera-se a equacao de estado:

x∗ = f(x∗, α∗).

Fazendo-se agora φ1 = 0 e tomando-se φ2 arbitrario, obtem-se umarelacao entre x∗, α∗ e p∗ que e chamada condicao de otimalidade:

∂h

∂a(x∗, α∗) + p∗

∂f

∂a(x∗, α∗) = 0.

Agora, com φ1 com φ1(T ) = 0 arbitrario, obtem-se a equacao de co-estado:

p∗ = −∂h∂x

(x∗, α∗) − p∗∂f

∂x(x∗, α∗).

Finalmente, tomando-se φ1 com φ1(T ) 6= 0 obtem-se uma instancia dacondicao de transversalidade:

∂g

∂x(x∗(T )) − p∗(T ) = 0.

CHAPTER 1. TEORIA DE CONTROLE OTIMO 11

Se a condicao de otimalidade puder ser utilizada para exprimir α∗ =α∗(x∗, p∗), poderemos reorganizar estas relacoes em um sistema de equacoesdiferenciais ordinarias, que assumira a forma:

x∗ = f(x∗, α∗(x∗, p∗))

p∗ = −∂h∂x

(x∗, α∗(x∗, p∗)) − p∗∂f

∂x(x∗, α∗(x∗, p∗))

x∗(t0) = x0; p∗(T ) =∂g

∂x(x∗(T ))

(1.4)

Defina a funcao H por:

H(p, x) = mina∈A

h(x, a) + p · f(x, a). (1.5)

Se supusermos que o mınimo acima e atingido em um unico ponto a =a(x, p), que depende suavemente de x e p, entao o sistema (1.4) e Hamilto-niano, com Hamiltoniana H. De fato, se a = a(x, p) e o ponto de mınimo nadefinicao de H, derivamos a expressao h+p ·f com respeito a a e concluimosque:

∂h

∂a(x, a) = −p · ∂f

∂a(x, a).

Isto e precisamente a condicao de otimalidade, de modo que podemos concluirque, para qualquer s ∈ [t0, T ], a(x∗, p∗) = α∗(x∗, p∗).

Temos que:

∂H

∂x=∂h

∂x+∂h

∂a

∂a

∂x+ p · ∂f

∂x+ p · ∂f

∂a

∂a

∂x=

=∂h

∂x+ p · ∂f

∂x.

Temos tambem que:

∂H

∂p=∂h

∂a

∂a

∂p+ f(x, a) + p · ∂f

∂a

∂a

∂p= f(x, a).

Portanto, avaliando estas identidades em x∗, p∗ segue-se que o sistema (1.4)assume a forma:

CHAPTER 1. TEORIA DE CONTROLE OTIMO 12

x∗ =∂H

∂p(p∗, x∗)

p∗ = −∂H∂x

(p∗, x∗).

(1.6)

Observamos que as situacoes onde esta analise informal pode ser tornadarigorosa sao, de certa forma, as situacoes onde o problema de controle otimo etrivial. A solucao do problema depende apenas de resolver o sistema (1.4), oque em certas situacoes de interesse pode ser feito de maneira explıcita. Sobo ponto de vista de teoria do controle, nosso interesse e de obter resultadosem situacoes onde esta analise nao e valida. Neste sentido, esta discussaoinformal servira tambem para motivar o tratamento rigoroso que se segue.

1.2 Programacao dinamica

O metodo de programacao dinamica consiste de estudar o problema de con-trole otimo atraves da funcao valor:

u(x, t) = infα(·)∈A

Cx,t[α].

Primeiramente recordemos as hipoteses que fizemos na secao 1.1 sobre oproblema (1.3):

1. O conjunto A ⊂ IRm e compacto, e consequentemente, os controles saoL∞([t, T ];A).

2. O fluxo f ∈ C0(IRn × A) e Lipschitz na primeira variavel, uniforme-mente na segunda variavel.

3. As funcoes h e g sao contınuas, uniformemente limitadas e Lipschitzna variavel de estado, uniformemente no controle.

Com estas hipoteses, segue-se que a funcao valor e limitada inferiormente.De fato, basta observar que a trajetoria x(·) nao sai de um compacto, inde-pendente do controle α, pelo Lema de Gronwall (Exercıcio 4).

Uma propriedade fundamental da funcao valor e chamada princıpio deprogramacao dinamica, que se traduz na ideia de que, para otimizar, e

CHAPTER 1. TEORIA DE CONTROLE OTIMO 13

necessario otimizar a cada instante. Rigorosamente isto e expresso no Teo-rema abaixo, devido a R. Bellman [1].

Teorema 1.1 Seja δ > 0 tal que δ ≤ T − t. Temos:

u(x, t) = infα∈A

∫ t+δ

th(x(s), α(s))ds+ u(x(t+ δ), t+ δ)

, (1.7)

onde x(s) e a resposta do sistema (1.2) ao controle α(s).

Demonstracao: Escolha um controle α1 ∈ A e resolva a equacao diferencialordinaria:

x1 = f(x1(s), α1(s)) qtp para t < s < t+ δx1(t) = x.

Escolha um outro controle α2 ∈ A tal que, dado ε > 0,

u(x1(t+ δ), t+ δ) + ε ≥∫ T

t+δh(x2(s), α2(s))ds+ g(x2(T )),

onde

x2 = f(x2, α2) qtp para t+ δ < s < Tx2(t + δ) = x1(t+ δ).

Defina o controle

α3(s) =

α1(s), t ≤ s ≤ t+ δα2(s), t+ δ ≤ s ≤ T.

Seja

x3 = f(x3, α3) t < s < Tx3(t) = x.

Por unicidade,

x3(s) =

x1(s), t ≤ s ≤ t + δx2(s), t+ δ ≤ s ≤ T.

Portanto, temos:

u(x, t) ≤ Cx,t[α3] =∫ T

th(x3(s), α3(s))ds+ g(x3(T )) =

CHAPTER 1. TEORIA DE CONTROLE OTIMO 14

=∫ t+δ

th(x1(s), α1(s))ds+

∫ T

t+δh(x2(s), α2(s))ds+ g(x2(T )) ≤

≤∫ t+δ

th(x1(s), α1(s))ds+ u(x1(t + δ), t+ δ) + ε.

Logo, ja que α1 e arbitrario,

u(x, t) ≤ infα∈A

∫ t+δ

th(x(s), α(s))ds+ u(x(t+ δ), t+ δ)

+ ε.

Fixando ε novamente positivo, escolha α4 ∈ A tal que

u(x, t) + ε ≥∫ T

th(x4(s), α4(s))ds+ g(x4(T )), onde

x4 = f(x4(s), α4(s)) t < s < Tx4(t) = x.

Portanto, u(x4(t+ δ), t+ δ) ≤ ∫ Tt+δ h(x4(s), α4(s))ds+ g(x4(T )).

Consequentemente,

u(x, t) + ε ≥ infα∈A

∫ t+δ

th(x(s), α(s))ds+ u(x(t + δ), t+ δ)

.

Da arbitrariedade de ε, concluımos a demonstracao.

Vamos utilizar este resultado para deduzir a equacao de programacaodinamica de modo informal. Esta equacao tambem e conhecida como equacaode Hamilton-Jacobi-Bellman.

Este e um caso particular de equacao de Hamilton-Jacobi, que e satisfeitapela funcao valor.

Fixe δ > 0. Da relacao (1.7) segue-se que:

1

δ

(

infα∈A

∫ t+δ

th(x, α)ds+ u(x(t+ δ), t+ δ) − u(x, t)

)

+

+u(x, t+ δ) − u(x, t+ δ)

δ= 0.

CHAPTER 1. TEORIA DE CONTROLE OTIMO 15

Reescrevemos a relacao acima da seguinte maneira:

u(x, t+ δ) − u(x, t)

δ+

+ infα∈A

1

δ

∫ t+δ

th(x, α)ds+

u(x(t + δ), t+ δ) − u(x, t+ δ)

δ

= 0.

Se u for suave, tomamos o limite quando δ → 0 e obtemos:

ut + infa∈A

h(x, a) + ∇u · f(x, a) = 0.

Portanto, tomando precisamente a funcao H = H(p, x), definida em (1.5)e que apareceu naturalmente na formulacao variacional do problema de con-trole otimo, obtemos o seguinte problema de valor terminal para a funcaovalor:

ut +H(∇u, x) = 0 em IRn × (t, T )u(x, T ) = g(x) em IRn × t = T, (1.8)

A funcao valor incorpora uma parte importante da solucao do problemade controle otimo: o menor custo possıvel para guiar o sistema. De posseda funcao valor, resta apenas determinar uma estrategia que guie o sistemade modo a atingir este custo mınimo, exata ou aproximadamente. Esta se-gunda etapa chama-se a sıntese do controle otimo. O estudo das propriedadesbasicas da funcao valor se presta a um tratamento analıtico no contexto deuma teoria geral. Por contrapartida, o problema de sintetizar um controleotimo e mais delicado, necessitando de uma analise detalhada do problemade controle especıfico sob consideracao. Contudo, conhecimento previo daestrutura da funcao valor tambem e util na resolucao deste problema. Ilus-tramos isto com a construcao de controles por “feedback”, que apresentamosinformalmente a seguir. Para mais detalhes, veja [12].

Dados 0 ≤ t ≤ T e um estado inicial x ∈ IRn considere a equacao deestado:

x∗(s) = f(x∗(s), a∗(s)) qtp t < s < Tx∗(t) = x,

construıda de forma que, a cada tempo s, o controle α∗(s) e selecionado demodo que:

f(x∗(s), α∗(s)) · ∇u(x∗(s), s) + h(x∗(s), s) = H(∇u(x∗(s), s), x∗(s)).

CHAPTER 1. TEORIA DE CONTROLE OTIMO 16

Em outras palavras, ajustamos α∗(s) de modo a atingir o mınimo nadefinicao da Hamiltoniana H, sabendo que o sistema esta em x∗(s) no tempos. Chama-se o controle α∗ construıdo desta maneira de controle por feedback.

E facil provar que o controle por feedback gera uma trajetoria de customınimo, pelo menos em regioes onde a funcao valor u for suave (Exercıcio 5).E claro que havera problemas em interpretar a condicao de feedback onde unao for suave.

1.3 O metodo de caracterısticas

Nesta secao vamos estudar existencia local para (1.1), o problema de valorinicial para a equacao de Hamilton-Jacobi. Vamos assumir que a Hamiltoni-ana H e o dado inicial g sejam suaves (pelo menos duas vezes diferenciaveis).

Apesar de tratarmos apenas o problema de valor inicial para a equacaode Hamilton-Jacobi, nossa analise tambem se aplica a problemas de valorterminal, tais como (1.8). De fato, se u = u(x, t) e solucao de ut+H(∇u, x) =0, com u(x, T ) = g(x), entao v(x, t) = u(x, T − t) satisfaz vt +G(∇v, x) = 0,v(x, 0) = g(x), com G = −H.

O metodo de caracterısticas, quando aplicado a equacoes diferenciais par-ciais de primeira ordem, consiste de encontrar uma solucao resolvendo-se umafamılia de equacoes diferenciais ordinarias. Seja u(x, t) uma solucao classicade (1.1) que, por um momento, suporemos ser duas vezes diferenciavel.

Considere q(s) solucao do sistema de equacoes diferenciais ordinarias:

q(s) =∂H

∂p(∇u(q(s), s), q(s))

q(0) = x0 ∈ IRn.

A curva (q(s), s) em IRn × (0,∞) e chamada caracterıstica projetada de(1.1). Vamos verificar que (1.1) escreve-se como uma famılia de equacoesdiferenciais ordinarias sobre essas curvas. Defina p(s) = ∇u(q(s), s). Entao:

d

ds(u(q(s), s) = ∇u(q(s), s) · q(s) + us(q(s), s)

= p(s) · ∂H∂p

(p(s), q(s)) −H(p(s), q(s)),

(1.9)

CHAPTER 1. TEORIA DE CONTROLE OTIMO 17

pois u e solucao de (1.1).Diferenciando (1.1) em relacao a xi vem:

(uxi)t =

n∑

j=1

−∂H∂pj

(∇u, x) ∂2u

∂xi∂xj

− ∂H

∂qi(∇u, x).

Logo,

d

ds(pi(s)) =

d

ds(uxi

(q(s), s)) =n∑

j=1

∂2u

∂xi∂xj

(q(s), s)qj(s) + (uxi)s =

=

n∑

j=1

uxixjqj −

∂H

∂pj(∇u, x) uxixj

− ∂H

∂qi(∇u, x) = −∂H

∂qi(p(s), q(s)).

Concluimos que as funcoes q(·) e p(·) definidas acima satisfazem o sistemafechado de 2n equacoes diferenciais ordinarias dado por:

q =∂H

∂p(p, q)

p = −∂H∂q

(p, q)

q(0) = x0, p(0) = ∇g(x0).

(1.10)

O sistema (1.10) e chamado de sistema de equacoes caracterısticas para(1.1); suas solucoes sao as caracterısticas de (1.1). Denotaremos por q(x0; t)e p(x0; t) as solucoes do problema (1.10). Mais ainda, integrando a equacaopara u(q(s), s), podemos determinar os valores da solucao ao longo da car-acterıstica projetada fazendo:

u(q(s), s) = u(x0) +∫ t

0p(s) · ∂H

∂p(p(s), q(s)) −H(p(s), q(s))ds. (1.11)

Gostarıamos de utilizar (1.10) e (1.11) para resolver o problema (1.1).Precisamos para isto demonstrar tres fatos:

1. Para t suficientemente pequeno a aplicacao x0 7→ q(x0; t) e um difeo-morfismo.

CHAPTER 1. TEORIA DE CONTROLE OTIMO 18

2. Com u(x, t) e p(x, t) definidos a partir de (1.10) e (1.11) e o difeomor-fismo acima, temos que p(x, t) = ∇u(x, t).

3. A funcao u(x, t) e solucao da equacao diferencial parcial.

A demonstracao destes fatos esta codificada na demonstracao do seguinteresultado.

Teorema 1.2 Dado x0 ∈ IRn × t = 0 existe uma vizinhanca U de x0

em IRn × (−∞,+∞) e uma solucao classica u(x, t) de (1.1) satisfazendou(x, 0) = g(x) em U ∩ t = 0.

Demonstracao: Seguiremos o esquema proposto acima.

1. Veja que a equacao (1.10) define um fluxo suave, que em tempo t =0 e a identidade. Como o fluxo e contınuo, temos que a aplicacaox0 7→ q(x0; t) tem derivada inversıvel para t suficientemente pequeno.Pelo Teorema da Aplicacao Inversa, x 7→ q(x; t) e um difeomorfismo,definido numa vizinhanca de x0. Dado t suficientemente pequeno, sejaΦt = Φt(x) definido numa vizinhanca de q(x0; t) de modo que x =q(Φt(x); t).

2. Denote y ≡ Φt(x). Defina p(x, t) = p(y; t) e

u(x, t) = g(y) +∫ t

0p(y; s) · ∂H

∂p(p(y; s), q(y; s)) −H(p(y; s), q(y; s))ds.

Vamos mostrar que p(x, t) = ∇u(x, t). Seja

r(s) =∂

∂yi(u(q(y; s), s))−

n∑

j=1

pj(y; s)∂

∂yi(qj(y; s)).

Primeiro observe que:

r(0) =∂

∂yi(u(y, 0))−

n∑

j=1

pj(y; 0)∂yj

∂yi=

∂g

∂yi(y) −

n∑

j=1

∂g

∂yjδij = 0.

Em seguida, observe que:

CHAPTER 1. TEORIA DE CONTROLE OTIMO 19

r(s) =∂

∂yi

(

p(y; s) · ∂H∂p

(p, q) −H(p, q)

)

+

+n∑

j=1

[

∂H

∂qj(p, q)

∂yi

(qj) − pj(y; s)∂

∂yi

(

∂H

∂pj

(p, q)

)]

=

=n∑

j=1

[

∂yi(pj)

∂H

∂pj(p, q)

]

− ∂

∂yi(H(p, q)) +

n∑

j=1

∂H

∂qj(p, q)

∂yi(qj) = 0,

usando a regra da cadeia no segundo termo da ultima expressao.

Logo, r = 0. Por outro lado,

n∑

j=1

pj(y; s)∂

∂yi

(qj) =∂

∂yi

(u(q(y; s), s)) =n∑

j=1

uxj(q(y; s), s)

∂yi

(qj).

Como esta igualdade vale para todo i e a transformacao Φs e um difeo-

morfismo, a matriz

[

∂yi(qj)

]

ij

e inversıvel, e portanto concluimos que

pj(y; s) = uxj(q(y; s), s) para qualquer j e s, como desejavamos.

3. Finalmente, precisamos mostrar que u(x, t) satisfaz a equacao. Aformula (1.11) nos diz que, ao longo de uma caracterıstica temos:

d

ds(u(q(y; s), s)) = p · ∂H

∂p(p, q) −H(p, q) = p · qs −H.

Por outro lado,d

ds(u(q(y, s), s)) = ∇u(q(y; s), s) · qs +

∂u

∂t(q(y; s), s).

Contudo, no ıtem 2 acima, provamos que ∇u(q(y; s), s) = p(y; s).

Concluimos que (1.1) e identicamente satisfeita ao longo das carac-terısticas, isto e:

∂u

∂t(q(y; s), s) = −H(p(y; s), q(y; s)).

CHAPTER 1. TEORIA DE CONTROLE OTIMO 20

Portanto demonstramos que o metodo de caracterısticas nos fornece umasolucao de (1.1) numa vizinhanca do hiperplano t = 0. O argumento usadono Teorema 1.2 deixa claro que o metodo funciona enquanto o difeomorfismoΦt for localmente inversıvel; a perda da inversibilidade local pode ser in-terpretada como cruzamento das caracterısticas projetadas. Em princıpio ometodo de caracterısticas nao nos diz nada sobre a solucao local para alemdeste cruzamento. Vejamos um exemplo ilustrando este colapso do metodo.

Exemplo 1: Considere para n = 1, o problema

ut + (ux)2/2 = 0

u(x, 0) = g(x).

Seja u(x, t) uma solucao classica, em C2(IR× (0, T )).Defina v(x, t) = ux(x, t). Vamos obter uma equacao para a evolucao de

v(·). Diferenciamos a equacao com respeito a x e obtemos a equacao deBurgers:

vt + (v2/2)x = 0v(x, 0) = g′(x).

Esta equacao e quaselinear, e portanto o sistema caracterıstico se reduza uma unica equacao diferencial ordinaria, que e:

x = v(x, t)x(0) = x0.

Entao,d

dt(v(x(t), t)) = vxxt + vt = vxv + vt = (v2/2)x + vt = 0.

Donde, v e constante ao longo das caraterısticas, portanto as carac-terısticas sao linhas retas. A mudanca de coordenadas que resolve o problema(analoga ao difeomorfismo Φ do teorema anterior) neste caso pode ser escritaexplicitamente:

x = y + g′(y)t,

onde y e o pe da caracterıstica que passa por x em tempo t. Portanto:

v(x, t) = v(y, 0),

e esta transformacao deixa de ser inversıvel quando

d

dy(y + g′(y)t) = 0, o que ocorre em t = −1/g′′(y).

CHAPTER 1. TEORIA DE CONTROLE OTIMO 21

Portanto se existir um y0 ∈ IR onde g′′(y) < 0 entao existira um tempopositivo em que duas caracterısticas “se encontram”. Observe que |vx(x, t)| →∞ quando t → −1/g′′(y) e portanto v(·) tende a ficar descontınua. Conse-quentemente a solucao u(x, t) da equacao de Hamilton-Jacobi esta perdendosuavidade e ficando, na melhor hipotese, Lipschitz contınua. Evidentementecria-se uma dificuldade seria em interpretar em que sentido uma funcao Lip-schitz contınua satisfaria a equacao. Nesta monografia vamos repensar anocao de solucao de modo a resolver esta dificuldade.

Chapter 2

Hamiltoniana autonoma e

convexa

Neste capıtulo vamos estudar um caso especial de problema de valor inicialpara a equacao de Hamilton-Jacobi, em que a Hamiltoniana e autonoma, istoe, so depende de p, e e convexa. Veremos que isto corresponde a uma classede sistemas de controle em que a equacao de estado se reduz a x = α, quesao os sistemas controlados pela velocidade.

O resultado principal deste capıtulo e um teorema de unicidade, devidoa E. Hopf [14], que diz que a funcao valor, neste caso, e a unica solucao fracaglobal da equacao de Hamilton-Jacobi correspondente. O sentido de solucaofraca tera que ser cuidadosamente especificado. O conteudo deste capıtuloesta intimamente relacionado com a teoria de solucao fraca de P. Lax e O.Oleinik para leis de conservacao com funcao de fluxo convexa, veja [8].

2.1 Sistemas controlados pela velocidade

Considere o problema de controle com equacao de estado:

x(s) = α(s) t < s < Tx(t) = x.

(2.1)

O funcional custo e dado por uma funcao de custo operacional L(α)contınua e convexa e uma funcao de custo terminal contınua g = g(x), de

22

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 23

modo que:

Cx,t[α] =∫ T

tL(x)ds+ g(x(T )). (2.2)

Esta e a formulacao como problema de controle otimo de um problemade calculo de variacoes classico. No contexto de calculo de variacoes a funcaoL que introduzimos como custo operacional costuma ser chamada de La-grangiano do problema. Esta e a terminologia que vamos utilizar no restantedeste capıtulo.

No caso do problema (2.1,2.2) acima, o conjunto de controles admissıveisque consideraremos sera A ≡ C0([t, T ], IRn). Podemos eliminar o controleα, simplesmente introduzindo um conjunto de trajetorias admissıveis A =z ∈ C1([t, T ]) : z(t) = x e z(T ) = y. Assim, a funcao valor u = u(x, t) seescreve da seguinte maneira:

u(x, t) = infy∈IRn

infz∈A

∫ T

tL(z)ds+ g(y)

. (2.3)

Proposicao 2.1 Para x ∈ IRn, t < T temos:

u(x, t) = infy∈IRn

(T − t)L(

y − x

T − t

)

+ g(y)

.

Demonstracao: Para demonstrar isto, basta verificar que:

I ≡ infz∈A

∫ T

tL(z)ds = (T − t)L

(

y − x

T − t

)

,

e utilizar esta informacao em (2.3).Primeiramente tome

z(s) =y − x

T − t(s− t) + x,

e observe que z(·) ∈ A. Portanto,

I ≤∫ T

tL(z)ds = (T − t)L

(

y − x

T − t

)

.

A desigualdade no sentido oposto segue da convexidade do LagrangianoL. De fato, seja z ∈ A. Pela desigualdade de Jensen (veja [20]) temos:

1

T − t

∫ T

tL(z)ds ≥ L

(

1

T − t

∫ T

tzds

)

= L(

y − x

T − t

)

.

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 24

Multiplicando por T − t de ambos os lados e tomando o ınfimo sobre A,temos o que querıamos.

Com esta formula explıcita para a funcao valor, o problema de controleotimo esta, em prıncipio, resolvido. Nosso objetivo agora e estudar o prob-lema de valor inicial para a equacao de Hamilton-Jacobi (1.1), no caso deHamiltoniana autonoma e convexa.

Vimos no capıtulo anterior que espera-se que a funcao valor satisfaca, emalgum sentido, o problema de valor terminal para a equacao de Hamilton-Jacobi-Bellman com Hamiltoniana definida em (1.5). No caso dos sistemascontrolados pela velocidade estudados acima (2.1,2.2) a expressao para aHamiltoniana fica:

H(p) = minq∈IRn

L(q) + p · q. (2.4)

Como queremos estudar um problema de valor inicial definimos: u(x, t) =u(x, T − t) e L(q) = L(−q) e observamos que u satisfaz, informalmente,o problema de valor inicial para a equacao de Hamilton-Jacobi (1.1) comHamiltoniana

H(p) = maxq∈IRn

p · q − L(q), (2.5)

e dado inicial u(x, 0) = g(x). A partir deste momento abandonaremos anotacao com “til”.

A formula dada pela Proposicao 2.1 nos fornece o seguinte para a solucaocom o tempo revertido:

u(x, t) = infy∈IRn

tL(

x− y

t

)

+ g(y)

. (2.6)

Esta formula, no contexto de equacoes de Hamiton-Jacobi, e conhecidacomo formula de Hopf-Lax.

Se interpretarmos o princıpio de programacao dinamica, Teorema 1.1,neste contexto, revertendo o tempo como acima, obtemos o resultado ex-presso no corolario abaixo.

Corolario 2.1 Para x ∈ IRn, 0 ≤ s < t temos:

u(x, t) = miny∈IRn

(t− s)L(

x− y

t− s

)

+ u(y, s)

.

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 25

A demonstracao e deixada como exercıcio (Exercıcio 6).Pode parecer que tenhamos encontrado um candidato natural para solucao

do problema de valor inicial para a equacao (1.1), possivelmente valida paratodo o tempo. Entretanto, a situacao e bastante insatisfatoria. De fato, arelacao entre o Lagrangiano L e a Hamiltoniana H nao esta estabelecidarigorosamente. Mais ainda, esta relacao esta nos fornecendo a equacao difer-encial parcial a partir da solucao, dada em termos de L. A pergunta natural,e que ainda nao foi nem sequer informalmente respondida, e como encontrara solucao dada a equacao diferencial parcial e os dados iniciais. Para respon-der esta pergunta teremos que compreender a conexao entre o Lagrangianoe a Hamiltoniana; este e o objetivo da proxima secao.

2.2 Dualidade convexa

Nesta secao vamos estabelecer a relacao precisa entre a Hamiltoniana H e oLagrangiano L, atraves da nocao de dualidade convexa.

Seja L : IRn → IR, contınua, convexa i.e. tal que, para quaisquer x, y ∈IRn e 0 ≤ t ≤ 1, L(tx+ (1− t)y) ≤ tL(x) + (1− t)L(y), e superlinear, isto e:

lim|q|→+∞

L(q)

|q| = +∞.

Definicao 2.1 Seja p ∈ IRn. A transformada de Legendre de L em p e:

L∗(p) ≡ supq∈IRn

p · q − L(q).

Observe que este supremo acima e de fato assumido, devido a superlin-earidade de L (Exercıcio 7).

Exemplo: Seja α > 1. Se L(q) = |q|α, para q ∈ IR, entao

L∗(p) = (α− 1)∣

p

α

αα−1

.

O proximo resultado estabelece a conexao precisa entre Lagrangianose suas transformadas de Legendre, mostrando que existe uma relacao dedualidade entre eles.

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 26

Teorema 2.1 Suponha que L : IRn → IR seja C1, convexa e superlinear.Considere sua transformada de Legendre L∗. Entao:

1. L∗ e contınua, convexa e superlinear.

2. L∗∗ = L.

Demonstracao:Comecamos por demonstrar a convexidade de L∗. Sejam p1, p2 ∈ IRn,

t ∈ [0, 1]. Temos:

L∗(tp1 + (1 − t)p2) = supq∈IRn

t(p1 · q − L(q)) + (1 − t)(p2 · q − L(q)) ≤

≤ supq∈IRn

t(p1 · q − L(q)) + supq∈IRn

(1 − t) (p2 · q − L(q)) =

= tL∗(p1) + (1 − t)L∗(p2).

Continuidade e uma questao mais tecnica. Primeiro observe que L∗ elocalmente limitada. De fato, por um lado, −L(0) ≤ L∗(p), para qualquerp. Por outro lado, da superlinearidade de L, segue-se que p · q − L(q) tendea −∞ quando |q| → ∞, uniformemente para p em um compacto. Logo,para qualquer p em um compacto, existe K suficientemente grande tal quep · q − L(q) ≤ 1, se |q| ≤ K. Portanto, da continuidade de L:

L∗(p) ≤ max

max|q|≤K

p · q − L(q), 1

≤ C,

para alguma constante C.Fixemos p0 ∈ IRn e ε > 0. Observemos agora que L∗ e semicontınua

inferiormente, pois e um supremo de funcoes contınuas (veja [20]). Portanto,existe δ > 0 tal que se |p− p0| ≤ δ entao:

L∗(p) ≥ L∗(p0) − ε.

Para mostrar a desigualdade que falta na demonstracao de continuidade,utilizaremos a convexidade de L∗.

Seja M ≡ max|θ−p0|=1 L∗(θ) − L∗(p0). Seja p tal que |p − p0| ≤ δ0 < 1.

Defina

p =p− (1 − |p− p0|)p0

|p− p0|.

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 27

Observe que, fazendo s = |p− p0| temos p = sp+ (1− s)p0 e p esta na esferade centro p0 e raio 1. Da convexidade de L∗ vem:

L∗(p) ≤ |p− p0|L∗(p) + (1 − |p− p0|)L∗(p0).

Disto segue-se que:

L∗(p) ≤ L∗(p0) + |p− p0|(L∗(p) − L∗(p0)) ≤ L∗(p0) + δ0M ≡ L∗(p0) + ε,

tomando-se δ0 = ε/M . Isto prova a continuidade de L∗.Para demonstrar a superlinearidade, fixe R > 0. Entao, dado p,

L∗(p) ≥ p · Rp|p| − L

(

Rp

|p|

)

≥ R|p| − max|q|≤R

L(q). Logo,L∗(p)

|p| ≥ R− 1

|p| max|q|≤R

L(q) e

lim inf|p|→∞

L∗(p)

|p| ≥ R. Como R e arbitrario, temos o que querıamos.

Para ver que L(q) = supp∈IRnp · q − L∗(p) observe primeiro que:

L(q) ≥ p · q − L∗(p) ∀p, q ∈ IRn, pela definicao de L∗.

Tomando o supremo em relacao a p, temos que L(q) ≥ L∗∗(q).Por outro lado temos:

L∗∗(q) = supp∈IRn

p · q − supr∈IRn

p · r − L(r)

= supp∈IRn

infr∈IRn

p · (q − r) + L(r).

Da hipotese que L e convexa e C1 vem:

L(r) ≥ L(q) + ∇L(q) · (r − q).

Logo, L∗∗(q) ≥ infr∈IRn ∇L(q) · (q − r) + L(r) ≥ L(q).

Observe que a definicao da Hamiltoniana H, dado o Lagrangiano L, em(2.5), diz que H e precisamente a transformada de Legendre de L. Pas-saremos a denotar a transformada de Legendre L∗ por H e a chamaremosde Hamiltoniana associada a L. O Teorema 2.1 da condicoes precisas para

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 28

que, dada a Hamiltoniana, possamos determinar o Lagrangiano associadoutilizando a transformada de Legendre (para ver isto aplique o Teorema 2.1a H). Com isso, resolvemos a questao levantada no fim da secao anterior.Dada a Hamiltoniana H, ou equivalentemente, a equacao de Hamilton-Jacobi(com Hamiltoniana autonoma, C1, superlinear e convexa), encontramos umcandidato natural a solucao fornecido pela formula de Hopf-Lax (2.6), comLagrangiano L = H∗.

Veremos a seguir que, com hipoteses adicionais sobre a Hamiltoniana H,podemos obter informacoes mais detalhadas sobre a relacao entre L e H.

Definicao 2.2 Suponha que H seja uma funcao C2. Dizemos que H e es-tritamente convexa se, para qualquer p ∈ IRn existe θ(p) > 0 tal que:

n∑

i,j=1

∂2H

∂pi∂pj(p)ζiζj ≥ θ(p)|ζ|2, ∀ζ ∈ IRn, p ∈ IRn.

Dizemos tambem que H e uniformemente estritamente convexa se θ acimapuder ser escolhido independente de p.

Proposicao 2.2 Seja H ∈ Ck(IRn), k ≥ 2, estritamente convexa e super-linear. Entao:

1. ∇H : IRn → IRn e um difeomorfismo global.

2. Se L = H∗ entao L(∇H(p)) = p · ∇H(p) − H(p) e ∇L e a aplicacaoinversa de ∇H (logo L e Ck).

Demonstracao: Primeiro mostramos que ∇H e injetiva. Considere r(t) =tp+(1− t)q, com p, q ∈ IRn fixos e t ∈ [0, 1]. Suponha que ∇H(p) = ∇H(q).Vamos mostrar que p = q. Seja

h(t) ≡ d

dt(H(r(t))) = ∇H(r(t)) · (p− q).

Observe que h(0) = h(1), e portanto, pelo Teorema do Valor Medio, existeum s ∈ [0, 1] tal que:

0 = h(s) =n∑

i,j=1

∂2H

∂pi∂pj

(r(s))(pi − qi) (pj − qj) ≥

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 29

≥ θ(r(s))|p− q|2.Portanto, p = q.

Mostremos agora que ∇H e sobrejetiva. Seja L = H∗. Entao temos que:

L(q) = supp∈IRn

p · q −H(p).

Da superlinearidade, sabemos que este supremo e de fato um maximo, econsequentemente, a derivada de p · q − H(p) com respeito a p se anula noponto de maximo p. Isto e:

q = ∇H(p).

Portanto, todo q ∈ IRn e imagem por ∇H do ponto onde o maximo nadefinicao de L e assumido. Pela hipotese de convexidade estrita, a Hessianade H, interpretada como a derivada de ∇H e inversıvel. Pelo Teorema daAplicacao Inversa, ∇H e um difeomorfismo Ck−1 global e podemos escreverp = p(q).

Para demonstrar o segundo item, temos L(∇H(p)) = p · ∇H(p) −H(p).Da analise acima, fazendo q = ∇H(p), vem que ∇H(p) = ∇H(p). Pelainjetividade de ∇H, p = p. Em resumo, L(∇H(p)) = p · ∇H(p) −H(p).

Finalmente, veja que se diferenciarmos a expressao L(q) = p(q) · q −H(p(q)) em relacao a qi obtemos:

∂L

∂qi= pi +

n∑

j=1

qj∂pj

∂qi−

n∑

j=1

∂H

∂pj

∂pj

∂qi= pi,

pois p e tal que ∇H(p) = q. Logo, aplicando ∇H em ∇L(q), e usando arelacao entre p e q obtemos que ∇H(∇L(q)) = q. Como ∇H e inversıvel,temos tambem que ∇L(∇H(p)) = p.

2.3 Solucao de Hopf-Lax

Nesta secao, vamos comecar a estabelecer em que sentido a formula de Hopf-Lax (2.6) nos fornece uma solucao da equacao de Hamilton-Jacobi:

ut +H(∇u) = 0u(x, 0) = g(x).

(2.7)

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 30

Passaremos a nos referir a funcao u determinada pela formula de Hopf-Laxcomo solucao de Hopf-Lax do problema (2.7).

Primeiro vamos mostrar que este candidato a solucao estende a solucaoobtida no Teorema 1.2 atraves do metodo de caracterısticas. Em seguida,estudaremos algumas de suas propriedades. Concluiremos a secao demon-strando que onde a funcao dada pela formula de Hopf for diferenciavel elasatisfaz (2.7), e, mais ainda, que ela e diferenciavel em quase toda parte.

Seja H = H(p) uma Hamiltoniana C2, superlinear, estritamente convexae L = H∗ o Lagrangiano associado. Suponha que o dado inicial g e C1,com derivada globalmente limitada. Vamos assumir que o Teorema 1.2 nosfornece uma solucao v ∈ C1 e definida em IRn × [0, T ). Em particular, naoha cruzamento de caracterısticas projetadas para t < T . Seja u = u(x, t) afuncao dada pela formula de Hopf-Lax.

Proposicao 2.3 As funcoes u e v coincidem em IRn × [0, T ).

Demonstracao: Fixe x ∈ IRn e 0 < t < T . Como L e superlinear e g eglobalmente Lipschitz, temos que o ınfimo na formula de Hopf e assumido.Portanto, existe y∗ tal que

u(x, t) = tL(

x− y∗

t

)

+ g(y∗).

No ponto de mınimo temos que:

∇L(

x− y∗

t

)

= ∇g(y∗).

Logo, pela Proposicao 2.2,

∇H(∇g(y∗)) =x− y∗

t.

Defina as curvas:

q(s) = sx− y∗

t+ y∗, p(s) = p0 ≡ ∇g(y∗).

Temos que:

q =x− y∗

t= ∇H(∇g(y∗)) ≡ ∂H

∂p(p(s)),

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 31

p = 0 ≡ −∂H∂q

.

Portanto, o par (q(·), p(·)) e a caracterıstica emanando de (y∗,∇g(y∗)).Observe que para s ≤ t,

u(q(s), s) = miny∈IRn

sL((q(s) − y)/s) + g(y)

e o mınimo tem que ser assumido exatamente em y∗. De fato, caso o mınimofosse atingido em y∗∗ 6= y∗, entao q(s) estaria ao mesmo tempo na carac-terıstica projetada emanando de y∗ e de y∗∗, o que nao pode ocorrer. Por-tanto, para s ≤ t temos:

u(q(s), s) = sL

(

q(s) − y∗

s

)

+ g(y∗) = sL(

x− y∗

t

)

+ g(y∗) =

= sL(∇H(∇g(y∗))) + g(y∗).

Logo, pela Proposicao 2.2 temos:

u(q(s), s) = s [∇g(y∗) · ∇H(∇g(y∗)) −H(∇g(y∗))] + g(y∗).

Consequentemente, dds

(u(q(s), s)) = p · q − H(p) = p · ∇H(p) − H(p)e u(q(0), 0) = u(y∗, 0) = g(y∗). Portanto, u satisfaz a relacao (1.9), logo,u = v.

Mostramos acima que a solucao de Hopf-Lax, coincide com a solucaoobtida pelo metodo de caracterısticas, enquanto nao houver cruzamento decaracterısticas projetadas. Por outro lado, a formula de Hopf-Lax esta pon-tualmente definida para todo t > 0 e para g globalmente Lipschitz. Ela nosda um candidato “natural” para estender a solucao obtida pelo metodo decaraterısticas. A formula de Hopf-Lax generaliza o metodo de caracterısticas,tanto do ponto de vista de permitir estender a solucao para alem do instantede cruzamento de caracterısticas, quanto pelo fato de permitir o tratamentode dados iniciais e Hamiltonianas menos regulares. Nosso objetivo a partirde agora, ate o fim deste capıtulo e de mostrar que a solucao de Hopf-Lax ea solucao correta da equacao de Hamilton-Jacobi (2.7), em um sentido a serespecificado.

O proximo resultado trata da regularidade de u e tem como consequenciao fato de que o colapso do metodo de caracterısticas nao se deve a formacao

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 32

de “choques” (aparecimento espontaneo de descontinuidades na solucao),mas sim a formacao de descontinuidade na derivada, conforme indicado noexemplo 1 da secao 1.3.

Lema 2.1 Suponha que g : IRn → IRn e globalmente Lipschitz contınua, i.e.

supx,y∈IRn,x6=y

|g(x) − g(y)||x− y|

= C <∞.

Denotamos a constante de Lipschitz C por Lip(g). Entao u e Lipschitzcontınua em IRn × [0,∞) e u(x, 0) = g(x).

Demonstracao: Para mostrar que u e Lipschitz, basta mostrar que e Lips-chitz no espaco para tempo fixo e no tempo para posicao fixa. Primeiro fixet ∈ (0,∞), x, x ∈ IRn. Entao:

u(x, t) − u(x, t) = minz∈IRn

tL(

x− z

t

)

+ g(z)

−(

tL(

x− z∗

t

)

+ g(z∗))

,

onde z∗ e escolhido de modo que o mınimo na definicao de u(x, t) e assumidoem z∗. Logo,

u(x, t) − u(x, t) ≤

≤ tL

(

x− (x− x + z∗)

t

)

+ g(x− x + z∗) −(

tL(

x− z∗

t

)

+ g(z∗))

= g(x− x + z∗) − g(z∗) ≤ Lip(g)|x− x|.Trocando-se x e x ganha-se a estimativa desejada. Para mostrar a de-

pendencia Lipschitz no tempo e a convergencia de u(x, t) para g(x) quandot→ 0 utiliza-se a estimativa a seguir. Sejam x ∈ IRn, 0 ≤ s < t fixos. Entao,pelo Corolario 2.1, para s 6= 0 temos:

u(x, t) = miny

(t− s)L(

x− y

t− s

)

+ u(y, s)

.

A mesma igualdade e satisfeita, com g(y) no lugar de u(y, s), quando s = 0.Primeiramente temos:

u(x, t) ≤ (t− s)L(0) + u(x, s), fazendo x = y. Logo:

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 33

u(x, t) − u(x, s) ≤ (t− s)L(0). Por outro lado,

u(x, t) ≥ miny

(t− s)L(

x− y

t− s

)

− Lip(g)|x− y|

+ u(x, s),

pois u e Lipschitz contınua no espaco. Tomando z =x− y

t− stemos:

u(x, t) ≥ minz

(t− s)L(z) − Lip(g)(t− s)|z| + u(x, s) =

= −(t− s) maxz

−L(z) + Lip(g)|z| + u(x, s) =

= −(t− s) max|w|≤Lip(g)

maxz∈IRn

−L(z) + w · z + u(x, s) =

= −(t− s) max|w|≤Lip(g)

H(w) + u(x, s). Seja C = maxL(0), max|w|≤Lip(g)

H(w).

Entao mostramos que, para s 6= 0:

|u(x, t) − u(x, s)| ≤ C|t− s|.

Uma demonstracao analoga para s = 0 funciona substituindo-se u(x, s)por g(x).

Observe que demonstramos que u ∈ C0(IRn × [0,∞)), e que portanto odado inicial e assumido continuamente. O teorema a seguir e um resultado deconsistencia, que diz que a solucao de Hopf-Lax e pontualmente compatıvelcom a nocao de solucao classica.

Teorema 2.2 Sejam x ∈ IRn, t > 0 fixos. Se u e diferenciavel em (x, t)entao:

ut(x, t) +H(∇u(x, t)) = 0.

Demonstracao: Fixe q ∈ IRn, h > 0. Entao:

u(x+ hq, t + h) − u(x, t)

h→ ∇u(x, t) · q + ut(x, t), quando h→ 0+.

Por outro lado, pelo Corolario 2.1,

u(x+ hq, t+ h) = miny∈IRn

hL

(

x + hq − y

h

)

+ u(y, t)

≤ hL(q) + u(x, t),

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 34

fazendo x = y. Logo,

u(x+ hq, t+ h) − u(x, t)

h≤ L(q) e portanto

ut(x, t) + ∇u(x, t) · q ≤ L(q).

Segue-se que ut(x, t) +H(∇u(x, t)) = ut + maxq∈IRn

q · ∇u(x, t)− L(q) ≤ 0.

Portanto u e uma subsolucao em (x, t).Agora, escolha z∗ tal que:

u(x, t) = tL(

x− z∗

t

)

+ g(z∗).

Fixe h > 0 e tome s = t − h. Escolhemos y como a posicao em tempo s dareta que liga x a z∗:

y =s

tx + (1 − s

t)z∗, ou seja,

x− z∗

t=y − z∗

s.

Usando a formula de Hopf-Lax obtemos:

u(x, t) − u(y, s) ≥ tL(

x− z∗

t

)

+ g(z∗) −[

sL(

y − z∗

s

)

+ g(z∗)]

= (t− s)L(

x− z∗

t

)

.

Logo,

1

h

(

u(x, t) − u

(

t− h

tx+

(

1 − t− h

t

)

z∗, t− h

))

≥ L(

x− z∗

t

)

.

O lado esquerdo desta desigualdade converge, quando h→ 0+, para:

ut(x, t) + ∇u(x, t) · x− z∗

t.

Temos entao, que u tambem e uma supersolucao em (x, t) pois:

ut(x, t) +H(∇u(x, t)) = ut(x, t) + maxq∈IRn

q · ∇u(x, t) − L(q) ≥

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 35

≥ ut(x, t) +x− z∗

t· ∇u(x, t) − L

(

x− z∗

t

)

≥ 0.

Chamamos atencao do seguinte resultado de analise real classica: Todafuncao Lipschitz contınua em IRn e diferenciavel em quase toda parte. Estefato e conhecido como Teorema de Rademacher. A demonstracao deste re-sultado e razoavelmente elementar em dimensao 1, porem e mais delicadaem dimensoes mais altas. Omitiremos esta demonstracao, porem referimos oleitor interessado ao Cap. 5 de [8], onde este resultado e provado utilizandoa desigualdade de Poincare para espacos de Sobolev.

Nesta secao demonstramos que a solucao de Hopf-Lax u e Lipschitzcontınua em IRn × (0,∞), com extensao contınua a t = 0. Mais ainda, doTeorema 2.2 e do Teorema de Rademacher, concluimos que ut +H(∇u) = 0,qtp-IRn × (0,∞), ou seja, u satisfaz (2.7) em quase toda parte.

Poderıamos pensar em definir solucao fraca para (2.7) da seguinte maneira:

“Dizemos que u e solucao fraca de (2.7) se u e Lipschitz em IRn × (0,∞),contınua em IRn × [0,∞), u(x, 0) = g(x) e u satisfaz a equacao de Hamilton-Jacobi em quase toda parte”.

Se utilizassemos isto como definicao de solucao fraca ja terıamos umteorema de existencia global nas maos. Veremos na proxima secao queesta definicao permite um sutil tipo de nao-unicidade, que contornaremosrestringindo-a um pouco mais.

2.4 Solucoes fracas e unicidade

Vamos formular uma nocao de solucao fraca que nos permitira provar que asolucao de Hopf-Lax e a unica solucao fraca do problema (2.7).

Nao se espera, em geral, que um problema de evolucao nao-linear possuauma solucao classica global. Existem mecanismos, bem compreendidos, quelevam a perda de suavidade espontanea de solucoes em tempo finito. Vimosuma instancia disso no exemplo 1 da secao 1.3, em que a perda espontaneade suavidade se deve a cruzamento de caracterısticas. Este e apenas um dosdiversos mecanismos possıveis que levam a perda de regularidade, e e o maiselementar.

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 36

Um desafio tıpico no estudo de solucoes fracas de equacoes diferenciaisparciais nao-lineares consiste de escolher uma nocao de solucao fraca que seja,ao mesmo tempo, ampla o bastante para permitir a inclusao, como solucaovalida, de todo o comportamento irregular que surja espontaneamente (istoe, de obter existencia global de solucao fraca) e restritiva o suficiente paragarantir unicidade. Uma nocao de solucao fraca adequada no sentido de-scrito acima em geral incorpora um entendimento profundo do problema emquestao.

Esta secao completa um exemplo classico do tipo de estudo descritoacima. Antes de mais nada, veremos que a nocao de “solucao fraca” sugeridano fim da secao anterior nao e adequada por conduzir a nao-unicidade. Ilus-traremos isso no exemplo a seguir. Veremos que o conceito chave necessariopara completar nossa definicao de solucao fraca e a nocao de semiconcavidade.

Exemplo: Considere o problema:

ut + (ux)2/2 = 0 em IR× (0,∞)

u(x, 0) = 0, em IR× t = 0.

Claramente, a funcao u1(x, t) ≡ 0 e solucao (classica!). Contudo o leitorpode facilmente verificar que a funcao:

u2(x, t) =

0, |x| ≥ t/2x− t/2, 0 ≤ x ≤ t/2−x− t/2, −t/2 ≤ x ≤ 0

e Lipschitz contınua e satisfaz a equacao fora das retas x = 0 e x = ±t/2.Portanto, u2 tambem e “solucao fraca”. De fato, infinitas solucoes destanatureza podem ser obtidas (Exercıcio 8).

Definicao 2.3 Seja g : IRn → IR contınua. Diremos que g e semiconcavase para todo x, z ∈ IRn e para algum C independente de x e z vale:

g(x+ z) − 2g(x) + g(x− z) ≤ C|z|2.

Semiconcavidade e um tipo de estimativa unilateral de segunda derivada.E possıvel mostrar que, se u : IR → IR e C2, semiconcavidade e equivalentea exigir uma cota superior para a segunda derivada de u. Para funcoescontınuas, semiconcavidade e equivalente a existencia de C ∈ IR tal que

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 37

u(x) − C|x|2 seja concava. Para funcoes Lipschitz, semiconcavidade evita aocorrencia de bicos convexos; |x| nao e semiconcava, enquanto que −|x| e.(Verifique estas propriedades - Exercıcio 9.)

Em seguida veremos que a solucao de Hopf-Lax e semiconcava, em duassituacoes.

Lema 2.2 Suponhamos que g e Lipschitz contınua e semiconcava. Entaou(·, t) e semiconcava para todo t ∈ [0,∞). A constante de semiconcavidadede u(·, t) pode ser tomada igual a de g.

Demonstracao: Fixe x, t e seja y∗ tal que:

u(x, t) = tL(

x− y∗

t

)

+ g(y∗).

Entao temos:u(x+ z, t) − 2u(x, t) + u(x− z, t) ≤

≤ tL(

x− y∗

t

)

+g(y∗+z)−2tL(

x− y∗

t

)

−2g(y∗)+tL(

x− y∗

t

)

+g(y∗−z) ≤

≤ C|z|2.

Lema 2.3 Suponha que H seja uniformemente estritamente convexa (vejaa Definicao 2.2) e considere u a solucao de Hopf-Lax. Entao, para todox, z ∈ IRn, t > 0, temos:

u(x+ z, t) − 2u(x, t) + u(x− z, t) ≤ 1

θt|z|2.

Demonstracao: Seja θ a constante na definicao de convexidade uniformeestrita de H. Primeiramente observemos que:

H(

p1 + p2

2

)

≤ 1

2H(p1) +

1

2H(p2) −

θ

8|p1 − p2|2. (2.8)

Isto se deduz expandindo H(p1) e H(p2) em serie de Taylor ate segunda

ordem com resto de Lagrange em torno dep1 + p2

2e estimando o resto usando

a convexidade uniforme de H (Exercıcio 10).

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 38

Pela Proposicao 2.2, para qualquer p, ∇L(∇H(p)) = p. Portanto, amatriz Hessiana de L avaliada em ∇H(p) e igual a inversa da matriz Hessianade H em p. Como, novamente pela Proposicao 2.2, L e C2, vale:

n∑

i,j=1

∂2L

∂q; ∂qj(q)ζ1ζj ≤

1

θ|ζ|2.

A razao disso e que θ e uma cota inferior para o menor autovalor da matrizHessiana de H, o que acarreta que 1/θ e uma cota superior para o maiorautovalor da matriz Hessiana de L.

Portanto, por um argumento analogo ao utilizado para H na deducao de(2.8) temos que:

1

2L(q1) +

1

2L(q2) ≤ L

(

q1 + q22

)

+1

8θ|q1 − q2|2.

Agora fixe x e t e escolha y∗ de modo que:

u(x, t) = tL(

x− y∗

t

)

+ g(y∗).

Estimemos:u(x+ z, t) − 2u(x, t) + u(x− z, t) ≤

≤[

tL(

x + z − y∗

t

)

+ g(y∗)]

−[

2tL(

x− y∗

t

)

+ 2g(y∗)]

+

+[

tL(

x− z − y∗

t

)

+ g(y∗)]

= 2t[

1

2L(

x+ z − y∗

t

)

+

+1

2L(

x− z − y∗

t

)

− L(

x− y∗

t

)]

≤ 2t1

2z

t

≤ 1

θt|z|2.

O que esta sendo observado acima e um sutil efeito regularizante daevolucao induzida pela equacao de Hamilton-Jacobi, desde que a Hamilto-niana seja uniformemente estritamente convexa. Note que a constante desemiconcavidade de u(·, t) explode quando t→ 0.

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 39

Definicao 2.4 Seja u : IRn × [0,∞) → IR uma funcao Lipschitz contınua.Dizemos que u e uma solucao fraca de (2.7) se:

1. u(x, 0) = g(x) e u satisfaz a equacao (2.7) qtp em IRn × (0,∞),

2. u(x+z, t)−2u(x, t)+u(x−z, t) ≤ C(1+1/t)|z|2 para alguma constanteC ≥ 0, para todo x, z ∈ IRn, t > 0.

Ja demonstramos existencia de solucao fraca (pela formula de Hopf-Lax)em dois casos: Se H e uniformemente convexa ou se g(x) e Lipschitz esemiconcava. Finalmente, vamos demonstrar a unicidade de solucao fraca.

Teorema 2.3 Suponha que H seja uma funcao convexa, autonoma e C2 eque g seja Lipschitz contınua. Entao existe no maximo uma solucao fraca de(2.7).

Demonstracao: Sejam u e u duas solucoes fracas de (2.7) com o mesmodado inicial. Seja w(x, t) ≡ u(x, t) − u(x, t). Observe que se (y, s) e umponto onde ambas u e u sao diferenciaveis (e portanto satisfazem a equacaodiferencial parcial) temos:

wt(y, s) = −H(∇u(y, s)) +H(∇u(y, s)) =

= −∫ 1

0

d

dr[H(r∇u(y, s) + (1 − r)∇u(y, s))]dr =

=(

−∫ 1

0∇H(r∇u(y, s) + (1 − r)∇u(y, s))dr

)

· (∇(u− u)(y, s)) ≡

≡ −b(y, s) · ∇w(y, s).

Portanto w satisfaz uma equacao diferencial parcial (tipo equacao de trans-porte) dada por:

wt + b · ∇w = 0 qtp. (2.9)

Espera-se que o fluxo b da equacao acima seja pouco regular.Seja φ : IR → [0,∞) uma funcao C∞ e v = φ(w) ≥ 0. Multiplicando

(2.9) por φ′(w) temos:vt + b · ∇v = 0 qtp .

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 40

Agora defina o suavisador ηε : IRm → IR, ηε(x) = 1/εmη(x/ε), (m = n+1)onde η e uma funcao C∞, de suporte compacto, positiva e de integral 1. Fixeε > 0 e defina:

uε = ηε ∗ u ≡∫

IRn+1

+

ηε(x− y, t− s)u(y, s)dyds, uε = ηε ∗ u.

As funcoes regularizadas uε, uε satisfazem algumas propriedades: uε, uε

sao C∞, uε → u uniformemente quando ε → 0 em compactos e |∇uε| ≤Lip(u); |∇uε| ≤ Lip(u); ∇uε qtp−→ ∇u, quando ε → 0. Estas propriedadessao simples de serem demonstradas; a leitora pode verifica-las ou consultaro Apendice C.4 de [8].

A hipotese de semiconcavidade implica que as matrizes Hessianas de uε

e uε, que denotaremos por D2uε e D2uε, sao ambas limitadas por C(1 + 1s)I

no sentido de formas quadraticas. Isto decorre do fato que, para cada ε > 0fixo, se z ∈ IRn, |z| = 1 entao temos:

(

D2uε(x, t))

(z, z) = limh→0

uε(x+ hz, s) − 2u(x, s) + u(x− hz, s)

h2,

e o mesmo vale para uε.Considere a regularizacao do fluxo b, dada por

bε(y, s) =∫ 1

0∇H(r∇uε(y, s) + (1 − r)∇uε(y, s))dr.

Reescrevemos a equacao para v da seguinte maneira:

vt + bε · ∇v = (bε − b) · ∇v ou

vt + div(vbε) = (div bε)v + (bε − b) · ∇v.Observe que:

div(bε) =∫ 1

0

n∑

k,l=1

∂2H

∂pk∂pl

(r∇uε + (1 − r)∇uε)(ruεxlxk

+ (1 − r)uεxlxk

)dr

≤ C(

1 +1

s

)

,

devido as estimativas sobre D2uε e D2uε.

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 41

Fixe x0 ∈ IRn, t0 > 0 e tome:

R ≡ max|∇H(p)| : |p| ≤ maxLip(u), Lip(u).

Defina tambem o cone

C ≡ (x, t) : 0 ≤ t ≤ t0, |x− x0| ≤ R(t0 − t).

Seja e(t) definida por:

e(t) ≡∫

B(x0,R(t0−t))v(x, t)dx.

Decomponha esta integral, na bola original, como integrais em esferasconcentricas e use a regra de Leibnitz para obter, para quase todo t > 0:

e′(t) =∫

B(x0,R(t0−t))vtdx− R

∂B(x0,R(t0−t))vdS =

=∫

B(x0,R(t0−t))(−div(vbε) + div(bε)v + (bε − b) · ∇v) dx−R

∂B(x0,R(t0−t))vdS

= −∫

∂B(x0,R(t0−t))v(bε · n+R)dS +

B(x0 ,R(t0−t))(div(bε)v + (bε − b) · ∇v) dx,

pelo Teorema da Divergencia,

≤ +∫

B(x0,R(t0−t))(div(bε)v + (bε − b) · ∇v) dx.

Isto foi obtido usando a definicao de R, de bε, as estimativas de ∇uε,∇uε

pelas normas Lip(u), Lip(u) e a desigualdade de Cauchy-Schwarz. Conse-quentemente,

e′(t) ≤ C(

1 +1

t

)

e(t) +∫

B(x0,R(t0−t))(bε − b) · ∇vdx.

A integral acima tende a zero quando ε → 0, pelo Teorema da Con-vergencia Dominada e pelas estimativas mencionadas. Portanto obtemos adesigualdade diferencial:

e′(t) ≤ C(

1 +1

t

)

e(t),

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 42

para 0 < t < t0.Esta estimativa ainda nao e suficiente para conseguir o que queremos pois

ela e singular em t = 0. Escolheremos agora uma φ(·) conveniente que nospossibilite usar esta estimativa para tempos longe de zero.

Fixe δ, r e t de modo que 0 < δ < r < t < t0 e tome φ(z) tal que φ(z) = 0se |z| ≤ δ(Lip(u) + Lip(u)) e φ(z) > 0 caso contrario. Em tempo t = δtemos:

|u(x, δ)−u(x, 0)−(u(x, δ)−u(x, 0))| = |u(x, δ)−u(x, δ)| pois u(x, 0) = u(x, 0),

≤ δLip(u) + δLip(u).

Portanto, v = φ(w) = φ(u − u) = 0 em t = δ. Consequentemente,e(δ) = 0.

Por outro lado, aplicando o lema de Gronwall a desigualdade diferencialpara e(t), obtemos:

0 ≤ e(r) ≤ e(δ) exp∫ r

δC(

1 +1

s

)

ds

= 0.

Portanto, e(r) ≡ 0 para δ < r < t.Disto concluımos que v(x, t) ≡ 0 na bola B(x0, R(t0−r)). Como v = φ(w)

e φ so se anula na bola B(0, δ(Lip(u) + Lip(u))) temos que:

w(B(x0, R(t0 − r)), r) ⊆ B(0, δ(Lip(u) + Lip(u))),

isto e:

|w| = |u− u| ≤ δ(Lip(u) + Lip(u)) em B(x0, R(t0 − r)).

Como δ e arbitrario, obtemos que u ≡ u nesta bola, e em particularu(x0, t0) = u(x0, t0).

Observacao: No exemplo dado no inıcio desta secao H e uniformementeconvexa e a solucao u2 nao e solucao fraca por nao satisfazer semiconcavidadena reta x = 0.

Resumindo os resultados obtidos neste capıtulo para o problema de valorinicial (2.7) temos:

CHAPTER 2. HAMILTONIANA AUTONOMA E CONVEXA 43

Corolario 2.2 Seja H ∈ C2(IRn), autonoma, convexa e superlinear e seja gLipschitz. Se g for semiconcava ou H for uniformemente convexa, entao asolucao de Hopf-Lax e a unica solucao fraca do problema (2.7).

Consideremos agora o problema de controle dado por (2.1, 2.2) comfuncao valor u = u(x, t). Considere a Hamiltoniana H definida em (2.4). Ob-serve que se L for convexa, C1 e superlinear, entao H sera concava, contınuae superlinear. De fato, H = −L∗, com L(q) = L(−q) e as conclusoes sobreH seguem do Teorema 2.1.

Considere agora o problema de valor terminal:

ut +H(∇u) = 0u(x, T ) = g(x).

(2.10)

Adaptaremos a Definicao 2.4 para problemas de valor terminal. Observeque a definicao essencialmente nao muda.

Definicao 2.5 Seja u : IRn× (−∞, T ] → IR uma funcao Lipschitz contınua.Dizemos que u e uma solucao fraca de (2.10) se:

1. u(x, T ) = g(x) e u satisfaz a equacao (2.10) qtp em IRn × (−∞, T )

2. u(x + z, t) − 2u(x, t) + u(x − z, t) ≤ C(

1 +1

T − t

)

|z|2 para alguma

constante C ≥ 0, para todo x, z ∈ IRn, t < T .

A teoria desenvolvida neste capıtulo nos fornece o seguinte resultado parao problema de controle otimo para sistemas controlados pela velocidade.

Corolario 2.3 Suponha que L seja C2, uniformemente estritamente convexae superlinear e que g seja Lipschitz contınua. Entao a funcao valor e a unicasolucao fraca do problema de valor terminal (2.10).

A verificacao deste resultado fica como exercıcio (Exercıcio 11).

Chapter 3

Solucoes de viscosidade

O objetivo deste capıtulo e introduzir a nocao de solucao de viscosidade de M.Crandall e P.-L. Lions para equacoes de Hamilton-Jacobi nao necessariamenteautonomas.

3.1 Metodo de viscosidade

A principal dificuldade em definir solucao fraca de equacoes de Hamilton-Jacobi e a ausencia de estrutura divergente. O procedimento usual paradefinir solucao fraca de equacoes nao-lineares em forma divergente consistede multiplicar a equacao por uma funcao teste suave e integrar por partes(esta e a ideia de solucao distribucional). Veremos que, na definicao desolucao de viscosidade, tambem faremos uso de funcoes teste suaves e de umprocedimento para fazer as derivadas que aparecem na equacao incidiremsobre as funcoes teste. Entretanto, este procedimento sera nao-linear, emcontraste com o procedimento linear de integracao por partes. A definicaode solucao de viscosidade e inspirada no princıpio do maximo para equacoeselıpticas e parabolicas (veja [17]).

Antes de definir solucao de viscosidade vamos apresentar, a tıtulo demotivacao, uma situacao em que a definicao surge de forma natural.

Uma estrategia comum para obter solucoes de (1.1) consiste de regularizara equacao pela adicao de um pequeno termo difusivo:

uεt +H(∇uε, x) = ε∆uε em IRn × (0,∞)uε = g em IRn × t = 0,

44

CHAPTER 3. SOLUCOES DE VISCOSIDADE 45

e procurar solucoes de (1.1) que sejam limites das solucoes do problemaregularizado quando ε→ 0.

A equacao regularizada e uma equacao semilinear de natureza parabolica.A dissipacao introduzida pelo termo difusivo torna este problema muito maistratavel do ponto de vista analıtico. A estrategia descrita acima e comum emequacoes diferenciais parciais e se chama metodo de viscosidade evanescente.

Espera-se que uε convirja a uma solucao da equacao original quando ε→0. No limite, contudo, perde-se controle sobre as derivadas da sequenciade solucoes aproximadas. Nao se espera obter uma solucao classica desteprocesso de aproximacao. O que seria plausıvel esperar para a famılia desolucoes aproximadas uε seria limitacao uniforme e equicontinuidade, o queimplicaria a existencia de uma sequencia uεj convergindo uniformementeem compactos de IRn×[0,∞) a um limite u ∈ C0(IRn×[0,∞)), pelo Teoremade Arzela-Ascoli.

Para motivar a nocao de solucao fraca, considere uma sequencia uεj,j = 1, 2, . . . de solucoes aproximadas, obtida pelo metodo de viscosidadeevanescente, convergindo a uma funcao contınua u, uniformemente em com-pactos de IRn × [0,∞). Vamos inicialmente demonstrar um lema que, apesarde ser uma observacao elementar de analise real, desempenha um papel im-portante na teoria que vamos desenvolver.

Lema 3.1 Sejam ϕ e ψ funcoes contınuas definidas em B(x0, R), a bolafechada de centro x0 ∈ IRn e raio R. Suponha que ϕ possua um maximo(mınimo) estrito em x0. Seja:

m = ϕ(x0) − max|x−x0|=R

ϕ

(

m = min|x−x0|=R

ϕ− ϕ(x0)

)

.

Se ψ satisfaz a condicao: max|x−x0|≤R |ψ−ϕ| < m/2 entao ψ tem um maximo(mınimo) em B(x0, R).

Demonstracao: Comecamos por observar que, para todo x ∈ B(x0, R),temos:

−m2< ψ(x) − ϕ(x) <

m

2.

Portanto:

ψ(x0) > ϕ(x0) −m

2= max

|x−x0|=Rϕ+

m

2≥ max

|x−x0|=Rψ.

CHAPTER 3. SOLUCOES DE VISCOSIDADE 46

A conclusao segue imediatamente para pontos de maximo e a demonstracaopara mınimos e inteiramente equivalente.

Em outras palavras, se ϕ possui um extremo estrito em x0, entao todafuncao contınua, suficientemente proxima de ϕ na norma da convergenciauniforme, tambem possui um extremo local proximo a x0.

Seja v = v(x, t) uma funcao teste C∞(IRn × (0,∞)). Suponha que z0 ≡(x0, t0) ∈ IRn×(0,∞) seja um ponto de maximo local estrito de u−v. Vamosmostrar que nestas condicoes, v e uma subsolucao da equacao de Hamilton-Jacobi em z0. Seja R0 tal que (u− v)(z) < (u− v)(z0) para todo z ≡ (x, t)

na bola B(z0, R0), z 6= z0. Sejam Rk =R0

k + 1, k = 1, 2, . . . e

mk = (u− v)(z0) − max|z−z0|=Rk

(u− v).

Defina jk uma sequencia crescente de numeros naturais tal que, seuk ≡ uεjk , entao

max|z−z0|≤R0

|uk − u| < mk/2.

Pelo Lema 3.1 existe uma sequencia zk ≡ (xk, tk) tal que |zk − z0| < Rk, istoe, zk → z0 quando k → ∞, e uk − v, tem maximo local em zk.

Observe que uk − v e uma funcao suave, com maximo local em zk, o queacarreta ∇uk(zk) = ∇v(zk) e uk

t (zk) = vt(zk).Alem disso, −∆uk(zk) ≥ −∆v(zk).Portanto, temos que:

vt(xk, tk) +H(∇v(xk, tk), xk) =

ukt (xk, tk) +H(∇uk(xk, tk), xk) = εjk

∆uk(xk, tk)

≤ εjk∆v(xk, tk).

Mandando k → ∞ vemos que: vt(x0, t0) +H(∇v(x0, t0), x0) ≤ 0.Se (u− v) tiver apenas um maximo local (ao inves de um maximo local

estrito), substituimos v por v = v + δ(|x− x0)2 + (t− t0)

2), que agora e talque (u− v) tem um maximo estrito, e obtemos:

vt(x0, t0) +H(∇v(x0, t0), x0) ≤ 0.

CHAPTER 3. SOLUCOES DE VISCOSIDADE 47

Contudo, vt(x0, t0) = vt(x0, t0) e ∇v(x0, t0) = ∇v(x0, t0), ja que a funcaoquadratica que foi adicionada nao afeta as derivadas de primeira ordem de vem (x0, t0). Desse modo, obtemos que v ainda e uma subsolucao da equacaode Hamilton-Jacobi em (x0, t0).

A mesma analise pode ser efetuada tomando-se funcoes teste v tais queu − v tenha um mınimo local em (x0, t0); estas v serao supersolucoes dasequacoes de Hamilton-Jacobi em (x0, t0).

O que observamos e que limites uniformes de solucoes das aproximacoesparabolicas da equacao de Hamilton-Jacobi tem uma propriedade especialcom respeito a funcoes teste. A definicao de solucao de viscosidade incorpo-rara precisamente esta propriedade.

Definicao 3.1 Seja u uma funcao limitada, uniformemente contınua.

1. Diz-se que u e uma subsolucao de viscosidade da equacao de Hamilton-Jacobi (1.1) se:

(a) u ≤ g em IRn × t = 0 e

(b) para todo (x0, t0) ∈ IRn × (0,∞) e cada v ∈ C∞(IRn × (0,∞)) talque (u− v) tem maximo local em (x0, t0) vale:

vt(x0, t0) +H(∇v(x0, t0), x0) ≤ 0.

2. Diz-se que u e uma supersolucao de viscosidade da equacao de Hamilton-Jacobi (1.1) se:

(a) u ≥ g em IRn × t = 0 e

(b) para todo (x0, t0) ∈ IRn × (0,∞) e cada v ∈ C∞(IRn × (0,∞)) talque (u− v) tem mınimo local em (x0, t0) vale:

vt(x0, t0) +H(∇v(x0, t0), x0) ≥ 0.

3. Diz-se que u e uma solucao de viscosidade se u for ao mesmo temposubsolucao e supersolucao de viscosidade.

Nos referiremos a subsolucoes e supersolucoes de viscosidade conjunta-mente como semisolucoes de viscosidade.

CHAPTER 3. SOLUCOES DE VISCOSIDADE 48

E imediato estender esta definicao para um problema de valor de fronteirageral de primeira ordem, da forma F (x, u,∇u) = 0. Vamos adiar isto para aproxima secao.

A nocao de solucao de viscosidade foi introduzida por M. Crandall e P.-L. Lions em 1983 [5], tendo sido reformulada e colocada na forma acima porM. Crandall, L. C. Evans e P.-L. Lions em 1984 [3]. Posteriormente estanocao foi estendida a problemas fortemente nao-lineares de segunda ordempor R. Jensen [16] em 1988. Desde entao esta ideia de solucao de viscosidadeteve impacto marcante na literatura recente em equacoes diferenciais parciaisnao-lineares, especialmente no que tange a problemas fortemente nao-linearesde natureza elıptica ou parabolica. Referimos o leitor interessado a [4], quecontem uma descricao do desenvolvimento recente desta teoria.

Vamos iniciar o estudo de solucoes de viscosidade verificando que estanova nocao de solucao e compatıvel com o conceito de solucao classica. Istoe chamado um resultado de consistencia. E facil ver que uma solucao u =u(x, t) em C1(IRn × [0,∞)), limitada, e solucao de viscosidade. De fato, se ve suave e u−v possui maximo local em (x0, t0), entao ∇u(x0, t0) = ∇v(x0, t0)e ut(x0, t0) = vt(x0, t0) e portanto

vt(x0, t0) +H(∇v(x0, t0), x0) = ut(x0, t0) +H(∇u(x0, t0), x0) = 0.

Logo v e, em particular, uma subsolucao de viscosidade. Similarmente, seu− v possui mınimo local, v e supersolucao de viscosidade.

Podemos mostrar uma forma muito mais forte de consistencia. Umasolucao de viscosidade diferenciavel em um ponto (x0, t0) satisfaz a equacaono sentido classico no ponto (x0, t0). Para demonstrar isto, precisamosprimeiro de um lema de analise real, que nos fornecera a funcao teste queprecisaremos para demonstrar consistencia.

Lema 3.2 Seja u : IRm → IR contınua e diferenciavel em y0 ∈ IRm. Entaoexiste v ∈ C1(IRm) tal que v(y0) = u(y0) e u−v tem um maximo local estritoem y0.

Demonstracao: Vamos assumir, sem perda de generalidade, que y0 = 0,∇u(y0) = 0 e u(y0) = 0. De fato, dados u e y0, defina:

u(y) = u(y + y0) − u(y0) −∇u(y0) · y.

CHAPTER 3. SOLUCOES DE VISCOSIDADE 49

Esta funcao u satisfaz as condicoes acima, e se encontrarmos a funcao vcorrespondente, obteremos a funcao v desejada fazendo:

v(y) = v(y − y0) + u(y0) + ∇u(y0) · (y − y0).

Da diferenciabilidade de u, temos que existe ρ1(y) contınua, ρ1(0) = 0 talque u(y) = |y|ρ1(y). Defina:

ρ2(r) = maxz∈B(0;r)

|ρ1(z)|.

Entao ρ2 : [0,∞) → [0,∞) e contınua, ρ2(0) = 0 e ρ2 e nao-decrescente.Seja

v(y) =∫ 2|y|

|y|ρ2(r)dr + |y|2.

Temos:|v(y)| ≤ |y|ρ2(2|y|) + |y|2,

logo v(0) = 0. Temos tambem que:

∇v(y) =2y

|y|ρ2(2|y|)−y

|y|ρ2(|y|) + 2y

para y 6= 0, e portanto, se definirmos ∇v(0) = 0, segue-se que v ∈ C1.Contudo, se y 6= 0 temos:

u(y) − v(y) = |y|ρ1(y) −∫ 2|y|

|y|ρ2(r)dr − |y|2

≤ |y|ρ2(|y|) −∫ 2|y|

|y|ρ2(r)dr − |y|2 ≤ −|y|2 < 0 = u(0) − v(0).

Logo, u− v tem um maximo local estrito em 0.

Podemos tambem obter uma funcao C1, v tal que u(y0) = v(y0) e u− vtem mınimo local estrito em y0. Basta aplicar o Lema 3.2 em −u.

Teorema 3.1 Seja u uma funcao diferenciavel em (x0, t0) ∈ IRn × (0,∞).Suponha que u e solucao de viscosidade da equacao de Hamilton-Jacobi (1.1).Entao

ut(x0, t0) +H(∇u(x0, t0), x0) = 0.

CHAPTER 3. SOLUCOES DE VISCOSIDADE 50

Demonstracao: Seja v = v(x, t) ∈ C1(IRn × (0,∞)) tal que u − v temum maximo local estrito em (x0, t0). Defina o suavisador ηε : IRm → IR,ηε(x) = 1/εmη(x/ε), (m = n + 1) onde η(x) e uma funcao C∞, de suportecompacto, positiva e de integral 1.

Seja vε(x, t) = ηε ∗ v, uma funcao C∞. Entao, quando ε→ 0:

1. vε → v uniformemente em compactos,

2. ∇vε → ∇v uniformemente em compactos,

3. vεt → vt uniformemente em compactos.

Estas propriedades da regularizacao por convolucao sao bem conhecidas.Suas demonstracoes ficam como exercıcios para a leitora (veja Exercıcio 12).

Do mesmo modo que fizemos no inıcio desta secao, usa-se o Lema 3.1para obter uma sequencia de pontos (xk, tk) → (x0, t0) e numeros εk → 0,quando k → ∞, tais que u− vεk tem um maximo local em (xk, tk).

Portanto vεk e uma funcao teste legıtima. Pela definicao de solucao deviscosidade temos que:

vεkt (xk, tk) +H(∇vεk(xk, tk), xk) ≤ 0.

Passando ao limite quando k → ∞ concluımos que

vt(x0, t0) +H(∇v(x0, t0), x0) ≤ 0.

Por outro lado, da diferenciabilidade de u em (x0, t0), temos que u e sub-solucao no sentido classico em (x0, t0), posto que u e suas primeiras derivadascoincidem com v em (x0, t0).

Por outro lado, como observado apos o Lema 3.2, existe v ∈ C1 tal queu− v tem mınimo local estrito em (x0, t0). O argumento analogo demonstraque u sera tambem supersolucao no sentido classico em (x0, t0), o que concluia demonstracao.

3.2 Definicoes alternativas de solucao de vis-

cosidade

Do ponto de vista pratico, de estudar solucoes de viscosidade, veremos quee util estar de posse de uma definicao alternativa, porem equivalente, de

CHAPTER 3. SOLUCOES DE VISCOSIDADE 51

solucao de viscosidade que prescinde do uso de funcoes teste. Contudo essadefinicao alternativa se apoia no conceito de semidiferencial de uma funcaocontınua, que nao faz parte do conteudo usual de um curso de analise real.Comecaremos esta secao com a definicao de semidiferenciais e algumas desuas propriedades basicas.

Seja u uma funcao contınua em um domınio Ω ⊆ IRm e x0 ∈ Ω.

Definicao 3.2 A superdiferencial de u em x0 e definida por:

D+u(x0) ≡

p ∈ IRm

lim supx→x0

u(x) − u(x0) − p · (x− x0)

|x− x0|≤ 0

.

A subdiferencial de u em x0 e definida por:

D−u(x0) ≡

p ∈ IRm

lim infx→x0

u(x) − u(x0) − p · (x− x0)

|x− x0|≥ 0

.

As semidiferenciais D+u(x0) e D−u(x0) sao subconjuntos fechados e con-vexos de IRm (Exercıcio 13).

Exemplos:

1. A funcao u e diferenciavel em x0 se e somente se D+u(x0) = D−u(x0) =∇u(x0) se e somente se D+u(x0) ∩D−u(x0) 6= ∅.

2. Se m = 1 e u(x) = −|x| entao D+u(0) = [−1, 1] e D−u(0) = ∅.

3. Se m = 1 e u(x) = x sin(1/x) entao D+u(0) = D−u(0) = ∅.

Estes fatos sao uma consequencia do Lema abaixo. Sua demonstracao edeixada como exercıcio (Exercıcio 14).

Lema 3.3 Seja u uma funcao contınua e x0 ∈ Ω. Entao p0 ∈ D+u(x0) se esomente se existe uma funcao C1, ϕ, tal que:

(i) u− ϕ tem um maximo local em x0;

(ii) (u− ϕ)(x0) = 0;

(iii) ∇ϕ(x0) = p0;

CHAPTER 3. SOLUCOES DE VISCOSIDADE 52

Mais ainda, podemos escolher ϕ de modo que (u− ϕ)(x) ≤ −|x− x0|2.Similarmente, q0 ∈ D−u(x0) se e somente se existe uma funcao C1,

ψ, satisfazendo as tres condicoes acima com mınimo no lugar de maximo.Tambem podemos escolher ψ de modo que (u− ψ)(x) ≥ |x− x0|2.

Demonstracao: Primeiro, vamos supor que p0 ∈ D+u(x0). Da mesmamaneira que na demonstracao do Lema 3.2, vamos assumir, sem perda degeneralidade, que x0 = 0, u(x0) = 0 e p0 = 0.

Defina ρ1 = ρ1(x) ≡ u(x)/|x|. Como 0 ∈ D+u(0), temos que

lim supx→0

ρ1(x) ≤ 0.

Defina ρ+1 ≡ maxρ1, 0, a parte nao-negativa de ρ1 e considere:

ρ2(r) ≡ max|x|≤r

ρ+1 (x).

Como 0 ∈ D+u(0), temos que ρ+1 e contınua. Portanto a definicao de ρ2

acima e um maximo genuıno, e nao um supremo, e ρ2 e contınua.A demonstracao agora segue precisamente como a do Lema 3.2, tomando:

ϕ(x) =∫ 2|x|

|x|ρ2(r)dr + |x|2.

Neste caso, ϕ(0) = 0 = u(0), ϕ e C1 e

∇ϕ(0) = limx→0

1

|x|

[

∫ 2|x|

|x|ρ2(r)dr + |x|2

]

= 0.

Temos tambem que:

u(x) − ϕ(x) = |x|ρ1(x) −∫ 2|x|

|x|ρ2(r)dr − |x|2 ≤

≤ |x|ρ2(|x|) − |x|ρ2(|x|) − |x|2 = −|x|2 < 0,

se x 6= 0.Suponha agora a existencia de ϕ satisfazendo (i)-(iii). Para x suficiente-

mente proximo de x0 temos:

u(x) − ϕ(x) ≤ u(x0) − ϕ(x0).

CHAPTER 3. SOLUCOES DE VISCOSIDADE 53

Portanto temos a seguinte estimativa para o quociente de diferencas:

u(x) − u(x0) − p0 · (x− x0)

|x− x0|≤ ϕ(x) − ϕ(x0) − p0 · (x− x0)

|x− x0|.

Tomando lim supx→x0de ambos os lados e usando o fato que ∇ϕ(x0) = p0,

vem que p0 ∈ D+u(x0).A demonstracao do resultado no caso de subdiferenciais e inteiramente

analoga.

Observe que, na demonstracao acima, dado p0 ∈ D+u(x0), constroi-se afuncao ϕ de modo que o maximo de u− ϕ em x0 seja global e estrito.

Vamos agora formular a definicao de solucao de viscosidade em termosde semidiferenciais. Na pratica e, em geral, bastante simples traduzir umademonstracao que utiliza a definicao baseada em funcoes teste em uma demon-stracao expressa em termos de semidiferenciais. A vantagem das semidiferen-ciais e estritamente notacional: os calculos ficam mais compactos, e portantomais faceis de visualizar.

Para efeitos da teoria a ser desenvolvida nos proximos capıtulos, e conve-niente tratar equacoes diferenciais parciais mais gerais do que a equacao deHamilton-Jacobi. Seja Ω ⊆ IRm e F : Ω × IR × IRm → IR contınua. Vamosdefinir solucao de viscosidade para o problema de valor de fronteira:

F (y, u,Du) = 0, em Ωu = g, em ∂Ω.

(3.1)

Estaremos interessados em tres contextos distintos para este problema:Ω ⊂ IRn um domınio aberto e limitado, Ω = IRn, sem condicao no infinito,e Ω = IRn × (0,∞) com a estrutura especıfica do problema de valor inicial(1.1). Nos dois primeiros casos Du ≡ ∇u e no terceiro caso, y = (x, t) eDu ≡ (∇u, ut).

Definicao 3.3 Seja u : Ω → IR uma funcao limitada e uniformementecontınua.

1. Diz-se que u e uma subsolucao de viscosidade da equacao (3.1) se:

(a) u ≤ g em ∂Ω e

CHAPTER 3. SOLUCOES DE VISCOSIDADE 54

(b) para todo y0 ∈ Ω e cada v ∈ C∞(Ω) tal que (u− v) tem maximolocal em y0 vale:

F (y0, u(y0), Dv(y0)) ≤ 0.

2. Diz-se que u e uma supersolucao de viscosidade da equacao (3.1) se:

(a) u ≥ g em ∂Ω e

(b) para todo y0 ∈ Ω e cada v ∈ C∞(Ω) tal que (u − v) tem mınimolocal em y0 vale:

F (y0, u(y0), Dv(y0)) ≥ 0.

3. Diz-se que u e uma solucao de viscosidade se u for ao mesmo temposubsolucao e supersolucao de viscosidade.

Gostarıamos de chamar atencao para o fato de que o mesmo argumentoque motivou a definicao de solucao de viscosidade para a equacao de Hamilton-Jacobi no inıcio deste capıtulo, atraves de regularizacao parabolica, funcionase aplicado ao problema geral (3.1) e permite “obter” a definicao acima demodo natural. Entretanto, em contraste com o problema de valor inicialpara a equacao de Hamilton-Jacobi, nao ha razao a priori para que a regu-larizacao com ε∆uε no lado direito seja a “natural”. Mais ainda, veremosuma instancia nesta monografia em que a regularizacao “natural” consiste deusar −ε∆uε no lado direito. Consequentemente as desigualdades na definicaode solucao de viscosidade correspondente ficam invertidas. Este e o caso doproblema de valor terminal para a equacao de Hamilton-Jacobi-Bellman geralque discutiremos no ultimo capıtulo. Em resumo, a definicao de solucao deviscosidade para o problema formulado na generalidade acima incorpora umacerta arbitrariedade. A teoria que sera desenvolvida e consistente, poremexiste uma outra teoria, igualmente consistente, que trata solucoes de vis-cosidade definidas com os sinais invertidos. Finalmente, observamos que adecisao de qual definicao e adequada so pode ser tomada de acordo com oproblema especıfico em questao.

Observemos que a Definicao 3.3 permite uma certa flexibilidade na escolhado conjunto de funcoes teste que deve ser considerado.

Lema 3.4 Seja u = u(y) uniformemente contınua e limitada em Ω, u ≤ g(u ≥ g) em ∂Ω. Sao equivalentes:

CHAPTER 3. SOLUCOES DE VISCOSIDADE 55

(i) u e subsolucao (supersolucao) de viscosidade de (3.1).

(ii) Para todo y0 ∈ Ω e para toda v ∈ C1(Ω) tal que u− v tem um maximo(mınimo) local em y0 temos: F (y0, u(y0), Dv(y0)) ≤ (≥) 0.

(iii) Para todo y0 ∈ Ω e para toda v ∈ C∞(Ω) tal que u− v tem um maximo(mınimo) local em y0 com u(y0) = v(y0) temos: F (y0, u(y0), Dv(y0)) ≤(≥) 0.

Demonstracao: Quanto menor o conjunto de funcoes teste, menos restritivae a definicao. Portanto e imediato que (ii) implica (i) e que (i) implica (iii).

Primeiro, vejamos que (iii) implica (i). Seja y0 ∈ Ω e v ∈ C∞(Ω), tal queu− v tem um maximo local em y0. Seja v(y) = v(y) + u(y0) − v(y0). Entaov(y0) = u(y0), Dv = Dv e u− v tem um maximo local em y0. Consequente-mente,

F (y0, u(y0), Dv(y0)) = F (y0, u(y0), Dv(y0)) ≤ 0.

Para mostrar que (i) implica (ii) usamos o argumento de regularizacaopor convolucao com um suavizador da demonstracao do Teorema 3.1.

A demonstracao para supersolucoes e inteiramente analoga.

O proximo resultado diz respeito a como formular a Definicao 3.3 emtermos de semidiferenciais.

Proposicao 3.1 Seja u uma funcao limitada e uniformemente contınua emΩ tal que u ≤ (≥)g em ∂Ω. Entao u e subsolucao (supersolucao) de vis-cosidade de (3.1) se e somente se para todo y0 ∈ Ω e p0 ∈ D+u(y0) (p0 ∈D−u(y0)) temos F (y0, u(y0), p0) ≤ (≥)0.

Demonstracao: Vamos primeiro mostrar que u e uma subsolucao de vis-cosidade. Pelo Lema 3.4, podemos considerar v ∈ C1(Ω) tal que u − vtem um maximo local em y0 e u(y0) = v(y0). Entao, pelo Lema 3.3, p0 ≡Dv(y0) ∈ D+u(y0) e portanto F (y0, u(y0), Dv(y0)) ≤ 0. Logo u e subsolucaode viscosidade.

Reciprocamente, seja y0 ∈ Ω e p0 ∈ D+u(y0). Entao, usando novamenteo Lema 3.3, existe uma funcao v ∈ C1(Ω) tal que u − v tem um maximolocal em y0, u(y0) = v(y0) e Dv(y0) = p0. Usando agora o Lema 3.4, pode-mos utilizar a funcao v ∈ C1 como funcao teste. Assim, F (y0, u(y0), p0) =F (y0, u(y0), Dv(y0)) ≤ 0.

CHAPTER 3. SOLUCOES DE VISCOSIDADE 56

A demonstracao do resultado para supersolucoes de viscosidade e inteira-mente analoga.

Concluimos este capıtulo com a definicao alternativa de solucao de viscosi-dade, expressa em termos de semidiferenciais, que e equivalente a Definicao3.3 pela proposicao acima.

Definicao 3.4 Seja u : Ω → IR uma funcao limitada e uniformementecontınua.

1. Diz-se que u e uma subsolucao de viscosidade da equacao (3.1) se:

(a) u ≤ g em ∂Ω e

(b) para cada y ∈ Ω e p ∈ D+u(y) temos F (y, u(y), p) ≤ 0.

2. Diz-se que u e uma supersolucao de viscosidade da equacao (3.1) se:

(a) u ≥ g em ∂Ω e

(b) para cada y ∈ Ω e q ∈ D−u(y) temos F (y, u(y), q) ≥ 0.

3. Diz-se que u e uma solucao de viscosidade se u for ao mesmo temposubsolucao e supersolucao de viscosidade.

Chapter 4

Princıpios de comparacao e

unicidade

O objetivo deste capıtulo e estudar o problema de unicidade de solucoes deviscosidade. Isto sera feito atraves de princıpios de comparacao. Os resulta-dos de unicidade tem um papel central na teoria, e as demonstracoes, comoapresentadas na literatura, tendem a parecer artificiais. Nossa intencao ede torna-las o mais natural possıvel, reconstruindo as ideias originais, tra-balhando a partir das situacoes mais simples e refinando progressivamenteos resultados ate chegarmos a um teorema de unicidade de solucoes de vis-cosidade para equacoes de Hamilton-Jacobi. Apresentaremos neste capıtuloquatro demonstracoes de princıpios de comparacao em contextos distintos ede sofisticacao crescente.

4.1 Problemas estacionarios

Para dar uma ideia de como a definicao de solucao de viscosidade fun-ciona como um criterio de exclusao, selecionando uma entre varias possıveissolucoes, consideremos o seguinte exemplo.

Exemplo: Seja Ω = (−1, 1) ⊂ IR. Considere o problema de valor defronteira:

(u′)2 = 1, em Ωu(−1) = 0 = u(1).

(4.1)

Um candidato Lipschitz contınuo para solucao deste problema pode ser

57

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 58

obtido escolhendo um conjunto mensuravel E ⊂ [−1, 1] arbitrario, tal que amedida de Lebesgue de E seja igual a 1. Considere as funcoes:

χE = χE(x) =

1, se x ∈ E0, se x 6∈ E,

euE = uE(x) ≡

∫ x

−1(2χE(t) − 1) dt.

A funcao u e Lipschitz contınua, satisfaz a equacao (4.1) em quase toda parte,e ainda u(−1) = 0. A condicao sobre a medida de E forca u(1) = 0. Istoproduz uma vasta classe de possıveis solucoes.

Fixe x0 ∈ (−1, 1). Suponha, por simplicidade, que x0 seja uma descon-tinuidade isolada da derivada de u. Portanto, proximo a x0, a funcao ueidentica a: σ|x− x0| + u(x0), com σ = 1 ou σ = −1.

Vejamos primeiro o caso σ = −1 (bico concavo). E facil de ver, usandoo Lema 3.3, que D+u(x0) = [−1, 1] e D−u(x0) = ∅. Utilizando a Definicao3.4, vemos que u e uma subsolucao de viscosidade em x0 pois, para todop ∈ [−1, 1], p2 − 1 ≤ 0. Ao mesmo tempo, u e uma supersolucao em x0 porvacuidade.

Por outro lado, se σ = 1, D+u(x0) = ∅ e D−u(x0) = [−1, 1]. Portanto, ue uma subsolucao em x0 por vacuidade, mas u nao e uma supersolucao poispara que fosse, terıamos que ter, para todo q ∈ D−u(x0) = [−1, 1], q2−1 ≥ 0,uma impossibilidade. Portanto a definicao de solucao de viscosidade selecionafuncoes que apresentam apenas bicos concavos. A unica funcao da forma uE

que possui apenas bicos concavos e u(x) = 1 − |x| (Exercıcio 16).Sejam Ω ⊆ IRn, e H : IRm × Ω → IR contınua. O problema estacionario

que utilizaremos como ponto de partida tem a forma especıfica:

u+H(∇u, x) = 0, em Ωu = g, em ∂Ω.

(4.2)

No caso em que Ω = IRn, nao se impoe condicao no infinito para alem dalimitacao global ja presente na definicao de solucao de viscosidade.

Vamos comecar tratando o caso em que Ω e um aberto limitado. Primeirovamos dar uma deducao heurıstica do princıpio de comparacao para sub-solucoes e supersolucoes de viscosidade. Este argumento heurıstico contemo argumento chave da demonstracao rigorosa que apresentaremos posterior-mente.

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 59

Sejam u1 subsolucao e u2 supersolucao de viscosidade para o problema(4.2). Em particular, estamos assumindo que u1 ≤ g ≤ u2 em ∂Ω. Vamossupor que u1 e u2 sejam diferenciaveis em Ω. Queremos mostrar que u1 ≤ u2

em Ω (isto e o que chamamos de princıpio de comparacao).Suponhamos, por contradicao, que u1 6≤ u2. Seja x0 ∈ Ω um ponto

de maximo positivo de u1 − u2. Claramente, x0 nao esta em ∂Ω, pois lau1 − u2 ≤ 0. Em x0 temos:

∇u1(x0) = ∇u2(x0),

u1(x0) > u2(x0) e

u1(x0) +H(∇u1(x0), x0) ≤ 0 ≤ u2(x0) +H(∇u2(x0), x0).

A ultima desigualdade foi obtida observando-se que ∇u1(x0) ∈ D+u1(x0) eque ∇u2(x0) ∈ D−u2(x0).

Disso concluımos que, de fato, u1(x0) ≤ u2(x0), uma contradicao.Como estender esta ideia para semisolucoes de viscosidade nao necessari-

amente diferenciaveis? Vamos enunciar explicitamente uma consequenciaimediata do Lema 3.3 que sera necessaria para tornar rigoroso o argumentoacima.

Lema 4.1 Sejam u, v ∈ C0(Ω) e ϕ ∈ C1(Ω).

(i) Se u+ ϕ tem maximo local em x0 ∈ Ω entao −∇ϕ(x0) ∈ D+u(x0).

(ii) Se −v + ζ tem maximo local em x0 ∈ Ω entao ∇ζ(x0) ∈ D−u(x0).

Demonstracao: Se u− ϕ tem maximo local em x0 entao:

u(x) ≤ −ϕ(x) + ϕ(x0) + u(x0).

Portanto, pelo Lema 3.3,

∇(−ϕ(x) + ϕ(x0) + u(x0)) = −∇ϕ(x0) ∈ D+u(x0).

Similarmente, se −v + ζ tem um maximo local em x0 entao:

v(x) ≥ ζ(x) − ζ(x0) + v(x0).

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 60

Portanto, pelo Lema 3.3,

∇(ζ(x) − ζ(x0) + v(x0)) = ∇ζ(x0) ∈ D−v(x0).

Agora vamos tornar rigoroso o argumento heurıstico apresentado antes.Suponha que Ω ⊂ IRn e um domınio limitado e H : IRn × Ω → IR e umafuncao Lipschitz contınua na variavel x, uniformemente em p, i.e. existeK > 0 tal que

|H(p, x) −H(p, y)| ≤ K|x− y|.

Teorema 4.1 Seja u uma subsolucao e v uma supersolucao de viscosidadedo problema (4.2) com as hipoteses acima. Entao u ≤ v em Ω.

Demonstracao: Vamos supor, por contradicao, que u 6≤ v em Ω. Seja x0 oponto de maximo global positivo de u− v em Ω. Como u ≤ v em ∂Ω temosque x0 ∈ Ω. Definimos:

L ≡ u(x0) − v(x0) > 0 e M ≡ maxmaxΩ

|u|,maxΩ

|v|.

Note que, se encontrassemos um vetor p na intersecao de D+u(x0) eD−v(x0), a demonstracao estaria trivialmente concluıda nas linhas do ar-gumento heurıstico. Infelizmente, o fato de u− v possuir um maximo em x0

nao garante a existencia de um tal p (Exercıcio 18). A observacao tecnicacrucial nesta demonstracao (de fato, na teoria de solucoes de viscosidadecomo um todo) e que podemos encontrar este p de forma aproximada e queisto e o suficiente para obter a contradicao que estamos buscando. Agora,como formular esta busca por um p que aproximadamente esteja em D+u(x0)e D−v(x0) ao mesmo tempo? Procuraremos em Ω × Ω!

Afirmamos que, para todo ε > 0, existem pontos xε, yε ∈ Ω e um vetorrε ∈ IRn tal que rε ∈ D+u(xε)∩D−v(yε). Para verificar esta afirmacao definaa funcao ψε : Ω × Ω → IR por:

ψε(x, y) ≡ u(x) − v(y) − C

ε2|x− y|2,

com C = 2M−L+1. Adiciona-se o paraboloide concavo acima para forcar osmaximos de ψε a estarem proximos a diagonal de Ω×Ω. Entao, se |x−y| ≥ ε,

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 61

temos: ψε(x, y) ≤ 2M −C = L− 1 < L. Consequentemente, existem pontosxε, yε tais que ψε tem um maximo em (xε, yε) e |xε − yε| < ε.

Vamos argumentar que, se ε e suficientemente pequeno, podemos assumirque (xε, yε) ficam longe da fronteira de Ω × Ω. Primeiro, ja observamos que(xε, yε) esta em uma faixa de largura 2ε em torno da diagonal. Em cada pontode ∂Ω× ∂Ω, ψε e nao-positivo. Portanto, como u(x)− v(y) e uniformementecontınua, existe uma vizinhanca Γ (independente de ε), digamos, formadapela uniao das bolas de raio γ > 0 centradas nos pontos de ∂Ω × ∂Ω tal queψε ≤ L/2 nesta vizinhanca, e portanto o maximo de ψε nao esta em Γ. Seε < γ, o fecho da intersecao da faixa de largura 2ε em torno da diagonalcom o complementar de Γ esta a uma distancia maior que zero do bordo deΩ × Ω.

Temos portanto que x 7→ ψε(x, yε) tem um maximo local em xε, e tambemque y 7→ ψε(xε, y) tem um maximo local em yε. Em outras palavras, a funcao

u+ ϕ ≡ u(x) +[

−v(yε) −C

ε2|x− yε|2

]

tem um maximo em xε, e a funcao

−v + ζ ≡ −v(y) +[

u(xε) −C

ε2|xε − y|2

]

tem um maximo em yε.Pelo Lema 4.1 temos:

−∇x

[

−v(yε) −C

ε2|x− yε|2

]

=2C

ε2(xε − yε) ∈ D+u(xε)

∇y

[

u(xε) −C

ε2|xε − y|2

]

=2C

ε2(xε − yε) ∈ D−v(xε).

Assim, a afirmacao esta demonstrada, com rε = (2C/ε2)(xε − yε).Pela definicao de subsolucao e supersolucao de viscosidade obtemos:

u(xε) +H(rε, xε) ≤ 0 ≤ v(yε) +H(rε, yε).

Consequentemente, temos:

u(xε) − v(yε) ≤ H(rε, yε) −H(rε, xε) ≤ K|xε − yε| < Kε. (4.3)

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 62

Agora, se soubessemos que (xε, yε) converge a (x0, x0) quando ε→ 0, bas-taria passar ao limite na desigualdade acima que terıamos nossa contradicao.Contudo, nao temos nenhum controle sobre a distancia de (xε, yε) a (x0, x0).Temos que concluir a demonstracao de outra maneira.

Sabemos que ψε(xε, yε) ≥ L > 0. Temos tambem, para todo x ∈ Ω:ψε(xε, yε) ≥ ψε(x, x) = u(x) − v(x). Logo: ψε(xε, yε) ≥ maxu(x) − v(x), 0.

Finalmente:

maxu(x) − v(x), 0 ≤ u(xε) − v(yε) −C

ε2|xε − yε|2 ≤ u(xε) − v(yε) < Kε.

Assim, como ε e arbitrario, maxu(x) − v(x), 0 = 0. Isto conclui a demon-stracao.

Este princıpio de comparacao da unicidade de solucao de viscosidade comocorolario imediato. De fato, se u e v sao duas solucoes de viscosidade doproblema (4.2), sob as hipoteses do Teorema 4.1, entao u ≤ v porque u esubsolucao e v e supersolucao. Por outro lado, v ≤ u porque u e supersolucaoe v e subsolucao. Portanto, u = v.

Esta e a demonstracao mais simples. Um primeiro refinamento seriana direcao de enfraquecer as hipoteses sobre H. Suponha que, ao inves deassumir que H e Lipschitz, uniformemente na variavel p, temos que H satisfaza estimativa:

|H(p, x) −H(p, y)| ≤ K|x− y|(1 + |p|).A demonstracao do Teorema 4.1 segue sem modificacoes ate obtermos

a desigualdade (4.3). Para concluir o argumento neste caso, precisamos dauma estimativa adicional, determinando de maneira mais precisa quao longe(xε, yε) esta da diagonal. Observe que:

ψε(xε, xε) ≤ ψε(xε, yε),

e portanto,

u(xε) − v(xε) ≤ u(xε) − v(yε) −C

ε2|xε − yε|2.

Logo,C

ε2|xε − yε|2 ≤ v(xε) − v(yε) = o(1).

Portanto, |xε − yε| = o(ε).

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 63

Assim, temos que:

u(xε) − v(yε) ≤ H(rε, yε) −H(rε, xε) ≤

≤ K|xε − yε|(1 + |rε|) ≡ k|xε − yε|[

1 +2C|xε − yε|

ε2

]

= o(1).

Portanto, como no Teorema 4.1, temos que maxu(x) − v(x), 0 = o(1)quando ε→ 0, o que leva a contradicao requerida.

O proximo passo e modificar a demonstracao do princıpio de comparacaopara lidar com domınios nao compactos. Isto ira demandar uma estrategiapara localizar a sequencia (xε, yε) nas partes compactas do domınio.

Considere o problema:

u+H(∇u, x) = 0, em IRn, (4.4)

com as seguintes hipoteses sobre H:

(a) |H(p, x) −H(p, y)| ≤ K1|x− y|,

(b) |H(p, x) −H(q, x)| ≤ K2|p− q|.

Teorema 4.2 Se u e subsolucao de viscosidade e v e supersolucao de vis-cosidade de (4.4), entao u ≤ v em todo o IRn.

Demonstracao: Suponha, por contradicao, que existe x0 ∈ IRn tal queu(x0) − v(x0) ≡ L > 0 e defina M ≡ maxmaxIRn |u|,maxIRn |v|. TomeC = 2M − L + 1 e ε > 0 e introduza:

ϕε(x, y) = u(x) − v(y) − C

ε2|x− y|2.

Considere δ tal que 0 < δ < 1/2 e seja (x1, y1) tal que ϕε(x1, y1) >supIRn ϕε − δ. Seja tambem ζ : IR2n → IR, suave, tal que ζ(x1, y1) = 1,ζ(x, y) = 0 se |x− x1|2 + |y − y1|2 ≥ 1 e |∇ζ| ≤ 2. Defina:

ψε,δ(x, y) ≡ ϕε(x, y) + 2δζ(x, y).

Observe que ψε,δ(x1, y1) > supIRn ϕε + δ e que, se |x−x1|2 + |y− y1|2 ≥ 1,entao ψε,δ(x, y) < supIRn ϕε. Portanto, se |x− y| ≥ ε, temos que:

ψε,δ(x, y) ≤ u(x)− v(y)−C + 2δζ(x, y) ≤ 2M −C + 2δ = L− 1 + 2δ < L =

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 64

= ϕε(x0, x0) ≤ supIRn

ϕε.

Logo, existe um ponto (xδε, y

δε) ∈ IR2n onde ψε,δ assume seu maximo.

Como antes, temos que:

2C

ε2(xδ

ε − yδε) − 2δ∇xζ(x

δε, y

δε) ∈ D+u(xδ

ε)

e2C

ε2(xδ

ε − yδε) − 2δ∇yζ(x

δε, y

δε) ∈ D−v(yδ

ε).

Usando a definicao de solucao de viscosidade temos a seguinte estimativa:

u(xδε) − v(yδ

ε) ≤ H(

2C

ε2(xδ

ε − yδε) + 2δ∇yζ, y

δε

)

−H(

2C

ε2(xδ

ε − yδε) + 2δ∇xζ, x

δε

)

.

Utilizando as hipoteses sobre H, concluımos que:

u(xδε) − v(yδ

ε) ≤ K1|xδε − yδ

ε| +K28δ ≤ K1ε+ 8K2δ.

Por outro lado, temos que

ψε,δ(xδε, y

δε) ≥ sup

IRn

ϕε ≥ L > 0,

e, para qualquer x ∈ IRn,

ψε,δ(xδε, y

δε) ≥ u(x) − v(x) + 2δζ(x, x) ≥ u(x) − v(x).

Portanto, para qualquer x ∈ IRn,

maxu(x) − v(x), 0 ≤ ψε,δ(xδε, y

δε) =

= u(xδε) − v(yδ

ε) −2C

ε2|xδ

ε − yδε|2 + 2δζ(xδ

ε, yδε) ≤ K1ε+ 8K2δ + 2δ.

Logo, maxu(x) − v(x), 0 ≡ 0, concluindo a demonstracao.

Com este ultimo resultado, concluımos o estudo de unicidade no casoestacionario. Nosso objetivo e ir progressivamente introduzindo os elementosnecessarios para uma demonstracao completa do princıpio de comparacaopara o problema de evolucao. Para alem das ideias ja introduzidas, a unicadificuldade remanescente e de dar conta do que acontece quando substituimoso termo u, que aparece em (4.2,4.4) por ut. Este e o assunto da proxima secao.

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 65

4.2 Equacoes de Hamilton-Jacobi

Nesta secao vamos estabelecer o princıpio de comparacao para o problemade evolucao. Vamos comecar com o problema de valor inicial e de fronteiraem um domınio limitado com condicoes restritivas sobre a Hamiltoniana.Em seguida, demonstraremos o princıpio de comparacao para o problema deevolucao no IRn todo, (1.1), que e o resultado principal deste capıtulo.

Seja Ω ⊂ IRn um aberto limitado e H : IRn × Ω → IR contınua. Vamostratar primeiro o problema:

ut +H(∇u, x) = 0, em Ω × (0, T ) ≡ ΩT

u = u, em ∂Ω × (0, T )u = g, em Ω × t = 0.

(4.5)

Na definicao de solucao de viscosidade, aplicada ao problema acima, deve-se entender que a fronteira de ΩT e ∂Ω × (0, T ) ∪ Ω × t = 0 ≡ ∂∗ΩT , istoe, a fronteira no sentido de equacoes parabolicas.

Como na secao anterior, faremos uma ilustracao heurıstica da demon-stracao do princıpio de comparacao neste caso. Sejam u1 subsolucao e u2

supersolucao de viscosidade diferenciaveis. Seja β > 0 e φ(x, t) ≡ u1(x, t) −u2(x, t) − βt. Seja (x0, t0) ∈ Ω × [0, T ] um ponto de maximo de φ.

Se x0 ∈ Ω e 0 < t0 ≤ T entao temos:

∇φ(x0, t0) = 0 = ∇u1(x0, t0) −∇u2(x0, t0) e

φt(x0, t0) ≥ 0, logo (u1)t(x0, t0) ≥ (u2)t(x0, t0) + β.

Da definicao de semisolucao de viscosidade, vem:

(u1)t(x0, t0) +H(∇u1(x0, t0), x0) ≤ 0 ≤ (u2)t(x0, t0) +H(∇u2(x0, t0), x0).

Portanto, β ≤ 0, uma contradicao.Concluımos que (x0, t0) ∈ ∂∗ΩT . Lembramos que u1 ≤ u2 em ∂∗ΩT , em

virtude da definicao de semisolucao de viscosidade. Logo, concluımos que

φ(x, t) ≤ φ(x0, t0) ≤ 0.

Portanto, u1(x, t) − u2(x, t) ≤ βt, para todo (x, t) em Ω × [0, T ] e para todoβ > 0. Consequentemente, u1 ≤ u2.

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 66

Este argumento e uma adaptacao de um argumento comum para demon-strar o princıpio de comparacao para a equacao do calor. Vamos agora trans-formar este argumento em uma demonstracao rigorosa. Como no Teorema4.1, vamos supor que a Hamiltoniana H e Lipschitz na segunda variavel,uniformemente na primeira, isto e:

|H(p, x) −H(p, y)| ≤ K|x− y|.

Teorema 4.3 Seja u uma subsolucao e v uma supersolucao de viscosidadedo problema (4.5) com a hipotese acima. Entao u ≤ v em ΩT .

Demonstracao: Suponha, por contradicao, que existe (x0, t0) ∈ Ω×[0, T ] =ΩT , um ponto de maximo positivo de u− v. Sejam

M ≡ maxmaxΩT

|u|,maxΩT

|v| e L ≡ u(x0, t0) − v(x0, t0).

Fixe ε > 0 e β > 0 e considere:

ψε(x, y, t, s) ≡ u(x, t) − v(y, s) − C

ε2

(

|x− y|2 + (t− s)2)

− β

2(s+ t),

onde C ≡ 2M−L+1 > 0. Como no Teorema 4.1, se |x−y| ≥ ε ou |t−s| ≥ εentao:

ψε(x, y, t, s) ≤ 2M − C = L− 1.

Note que ψε(x0, x0, t0, t0) = L − βt0. Assumindo que β foi escolhido deforma que β < 1/T temos que L− βt0 > L− 1. Portanto, o maximo de ψε eassumido em algum ponto (xε, yε, tε, sε) tal que |xε − yε| < ε e |tε − sε| < ε.

Consequentemente, a funcao:

(x, t) 7→ ψε(x, yε, t, sε)

tem um maximo em (xε, tε) e

(y, s) 7→ ψε(xε, y, tε, s)

tem um maximo em (yε, sε).Se (xε, tε) e (yε, sε) estao ambos em ΩT , entao, pelo Lema 4.1, temos que:

(

2C

ε2(xε − yε),

2C

ε2(tε − sε) +

β

2

)

∈ D+u(xε, tε),

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 67

e(

2C

ε2(xε − yε),

2C

ε2(tε − sε) −

β

2

)

∈ D−v(yε, sε).

Portanto, pela definicao de semisolucao de viscosidade, obtemos:

2C

ε2(tε − sε) +

β

2+H

(

2C

ε2(xε − yε), xε

)

≤ 0 (4.6)

e

0 ≤ 2C

ε2(tε − sε) −

β

2+H

(

2C

ε2(xε − yε), yε

)

. (4.7)

Usando a hipotese sobre H vem que β ≤ Kε. Como ε e arbitrario, β ≤ 0,o que e uma contradicao.

Suponha agora que xε ∈ Ω e tε = T . Vamos mostrar que a estimativa(4.6) e valida, mesmo que nada se possa dizer sobre D+u(xε, T ). Fixe δ > 0e considere a funcao:

ϕε,δ(x, t) ≡ ψε(x, yε, t, sε) −δ

T − t.

Vamos assumir, por um instante, que o maximo local de ψε em (xε, T )e estrito. Uma adaptacao do Lema 3.1, juntamente com a observacao queϕε,δ(x, t) → −∞ quando t → T , nos permite concluir que ϕε,δ possui ummaximo local (xδ

ε, tδε) (Exercıcio 19). Mais ainda, quando δ → 0, (xδ

ε, tδε) →

(xε, T ) e, se δ for suficientemente pequeno, (xδε, t

δε) ∈ ΩT .

Portanto, pelo Lema 4.1,(

2C

ε2(xδ

ε − yε),2C

ε2(tδε − sε) +

β

2+

δ

(T − tδε)2

)

∈ D+u(xδε, t

δε).

Logo, pela definicao de subsolucao de viscosidade,

2C

ε2(tδε − sε) +

β

2+

δ

(T − tδε)2

+H(

2C

ε2(xδ

ε − yε), xδε

)

≤ 0.

Mandando δ → 0, chega-se a:

2C

ε2(T − sε) +

β

2+H

(

2C

ε2(xε − yε), xε

)

≤ 0, (4.8)

que e (4.6) em tε = T , como querıamos.

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 68

Se (xε, T ) nao for ponto de maximo local estrito de ψε, entao substituimosψε pela funcao

ψ(x, t) ≡ ψε − |x− xε|2 − (t− T )2

na analise acima. Podemos deduzir, usando a funcao ψ, a desigualdade (4.8),pois a derivada em (xε, T ) da funcao quadratica adicionada a ψε se anula.

Se, por outro lado, yε ∈ Ω e sε = T , o argumento analogo nos permitededuzir (4.7) em sε = T .

Portanto, mostramos que, se (xε, tε) ∈ Ω×t = T ou (yε, sε) ∈ Ω×t =T, entao tanto (4.6) quanto (4.7) valem (pelo menos uma delas avaliadaem tε = T ou sε = T ). Mandando ε → 0, da mesma maneira que antes,conclui-se que β ≤ 0, uma contradicao.

O que mostramos, de fato, e que nao existe nenhuma subsequencia dosmaximos (xε, yε, tε, sε) tal que ambos (xε, tε) e (yε, sε) pertencam a Ω×(0, T ].A conclusao e que, para todo ε suficientemente pequeno, (xε, tε) ou (yε, sε)estao em ∂∗ΩT .

Resta apenas analisar esta alternativa. Para todo (x, t) ∈ ∂∗Ω, temosque ψε(x, x, t, t) = u(x, t) − v(x, t) − βt ≤ 0, e tambem que |xε − yε| < ε,|tε − sε| < ε. Segue-se que:

lim supε→0

ψε(xε, yε, tε, sε) ≤ 0.

Por outro lado, para todo (x, t) ∈ ΩT , temos ψε(x, x, t, t) ≤ ψε(xε, yε, tε, sε).Portanto, mandando ε→ 0:

u(x, t) − v(x, t) − βt ≤ 0.

Lembrando que β e arbitrario vem que u(x, t) − v(x, t) ≤ 0, o que contradiza hipotese de que ha um maximo positivo de u− v em ΩT .

Finalmente, temos todos os elementos necessarios para demonstrar umprincıpio de comparacao, e consequentemente unicidade, para o problemaoriginal (1.1). A demonstracao inclui todas as ideias trabalhadas nestecapıtulo.

Vamos considerar o problema:

ut +H(∇u, x) = 0, em IRn × (0, T )u(x, 0) = g(x) em IRn × t = 0, (4.9)

com as seguintes hipoteses sobre H:

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 69

(a) |H(p, x) −H(p, y)| ≤ K1|x− y|(1 + |p|),

(b) |H(p, x) −H(q, x)| ≤ K2|p− q|.

Teorema 4.4 Se u e subsolucao de viscosidade e v e supersolucao de vis-cosidade de (4.9) entao u ≤ v em IRn × [0, T ].

Demonstracao: A demonstracao segue, em linhas gerais, a estrutura uti-lizada nos Teoremas 4.1, 4.2 e 4.3. Vamos supor, por contradicao, que:

supIRn×[0,T ]

(u− v) ≡ L > 0.

Seja M ≡ maxsupIRn×[0,T ] |u|, supIRn×[0,T ] |v|. Fixe ε > 0 e escolha β talque:

0 < β < min

1

T,L

2T

.

Defina:

ψε(x, y, t, s) = u(x, t) − v(y, s)− β

2(t+ s) − C

ε2(|x− y|2 + |t− s|2),

para x e y em IRn, t e s e [0, T ]. Como antes, C = 2M − L + 1.Como em todas as outras demonstracoes, primeiramente demonstramos

que o maximo tem que ocorrer em uma pequena faixa em torno da diagonal.Se |x− y| ≥ ε ou |t− s| ≥ ε, temos que ψε(x, y, t, s) < L − 1. Escolha δ

de modo que:

0 < δ < min

1 − βT,L

2− βT

.

Tome (xε, yε, tε, sε) ∈ IR2n × [0, T ]2 tal que

ψε(xε, yε, tε, sε) ≥ supIR2n×[0,T ]2

ψε(x, y, t, s) − δ.

Note que, como t < T ,

L ≤ supIRn×[0,T ]

ψε(x, x, t, t) + βT.

Portanto,ψε(xε, yε, tε, sε) ≥ L− βT − δ.

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 70

Donde, pela escolha de δ, concluimos que |xε − yε| < ε e |tε − sε| < ε.Nosso proximo passo e provar que o ponto de maximo nao ocorre proximo

ao hiperplano t = 0. Isto e feito por uma versao mais elegante do argu-mento usado no Teorema 4.3 para o caso de pontos de maximo em ∂∗ΩT .Para isto, introduzimos a nocao de modulo de continuidade.

Dada uma funcao f = f(z) em IRm definimos o modulo de continuidadede f por:

wf(r) ≡ sup|z1−z2|≤r

|f(z1) − f(z2)|.

Se f e uniformemente contınua, entao wf(r) <∞ e wf(r) → 0 quando r → 0.Observe que |f(z1) − f(z2)| ≤ wf(|z1 − z2|) para quaisquer z1, z2 ∈ IRm.

Da escolha de δ vem que ψε(xε, yε, tε, sε) ≥ L/2. Portanto:

L

2≤ u(xε, tε) − v(yε, sε) = (u(xε, tε) − u(xε, 0)) + (u(xε, 0) − v(xε, 0))+

+(v(xε, 0) − v(xε, tε)) + (v(xε, tε) − v(yε, sε)) ≤ wu(tε) + wv(tε) + wv(2ε).

Na ultima desigualdade usamos que u ≤ v em t = 0.Escolha ε suficientemente pequeno de modo que

L/4 ≤ wu(tε) + wv(tε).

Isto implica que existe µ > 0 tal que tε ≥ µ e, analogamente, sε ≥ µ.Vamos agora introduzir uma funcao corte para dar conta da falta de

compacidade do domınio, da mesma maneira que foi feito no Teorema 4.2.Escolha uma funcao ξ = ξ(x, y, t, s) ∈ C∞(IR2n × (0, T + µ)2) tal que:

1. ξ(xε, yε, tε, sε) = 1,

2. 0 ≤ ξ ≤ 1,

3. |∇xξ|, |∇yξ|, |∂tξ| e |∂sξ| sao globalmente limitados por uma constanteC1 > 0 e

4. ξ(x, y, t, s) = 0 se |x− xε|2 + |y − yε|2 + |t− tε|2 + |s− sε|2 > µ2/4.

Defina:φ(x, y, t, s) = ψε(x, y, t, s) + 2δξ(x, y, t, s).

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 71

Como φ ≡ ψε fora do suporte de ξ e

φ(xε, yε, tε, sε) = ψε(xε, yε, tε, sε) + 2δ > supIRn×[0,T ]2

ψε + δ,

temos que φ atinge seu maximo sobre IR2n×[0, T ]2 em um ponto (xδε, y

δε, t

δε, s

δε)

no suporte de ξ. Em particular tδε e sδε sao ambos maiores do que µ/2.

Observe que a aplicacao (x, t) 7→ φ(x, yδε, t, s

δε) tem um maximo em (xδ

ε, tδε)

e (y, s) 7→ φ(xδε, y, t

δε, s) tem um maximo em (yδ

ε, sδε).

Como na demonstracao do Teorema 4.3, precisamos dividir a demon-stracao em dois casos:

(i) tδε < T e sδε < T ,

(ii) tδε = T ou sδε = T .

No caso (i), usando o Lema 4.1, temos que o vetor:

(

2C

ε2(xδ

ε − yδε) − 2δ∇xξ(x

δε, y

δε, t

δε, s

δε),

2C

ε2(tδε − sδ

ε) − 2δ∂tξ(xδε, y

δε, t

δε, s

δε) +

β

2

)

esta em D+u(xδε, t

δε).

Usando novamente o Lema 4.1, temos que o vetor:(

2C

ε2(xδ

ε − yδε) + 2δ∇yξ(x

δε, y

δε, t

δε, s

δε),

2C

ε2(tδε − sδ

ε) + 2δ∂sξ(xδε, y

δε, t

δε, s

δε) −

β

2

)

esta em D−v(yδε, s

δε).

Como u e subsolucao e v e supersolucao de viscosidade, obtemos o seguintepar de desigualdades:

β

2+

2C

ε2(tδε − sδ

ε) − 2δξt(xδε, y

δε, t

δε, s

δε)+

+H(

2C

ε2(xδ

ε − yδε) − 2δ∇xξ(x

δε, y

δε, t

δε, s

δε), x

δε

)

≤ 0 (4.10)

e

0 ≤ −β2

+2C

ε2(tδε − sδ

ε) + 2δξs(xδε, y

δε, t

δε, s

δε)+

+H(

2C

ε2(xδ

ε − yδε) + 2δ∇yξ(x

δε, y

δε, t

δε, s

δε), y

δε

)

. (4.11)

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 72

No caso (ii) tambem e possıvel obter as estimativas (4.10,4.11). De fato, setδε = T , usa-se um argumento inteiramente analogo ao utilizado no Teorema4.3, subtraindo γ/(T − t) de φ(x, yδ

ε, t, sδε) e a mesma adaptacao do Lema 3.1

para obter (4.10). Caso sδε = T , obtem-se (4.11).

Das desigualdades (4.10) e (4.11) vem:

β ≤ 2δ(ξt + ξs)+

+1

2

[

H(

2C

ε2(xδ

ε − yδε) + 2δ∇yξ, y

δε

)

−H(

2C

ε2(xδ

ε − yδε) − 2δ∇xξ, x

δε

)]

.

Usando as hipoteses sobre a Hamiltoniana e o fato de que as derivadasde ξ sao globalmente limitadas temos que:

β ≤ C1δ +K1|xδε − yδ

ε|(

C2 +2C|xδ

ε − yδε|

ε2

)

+ 4K2C1δ. (4.12)

Procuraremos agora o refinamento na estimativa da distancia entre xδε e

yδε (e entre tδε e sδ

ε) de maneira analoga a que foi feita apos a demonstracao doTeorema 4.1. Isto e feito para podermos obter a demonstracao sem assumirque H e Lipschitz em x uniformemente em p.

Temos que:φ(xδ

ε, xδε, t

δε, t

δε) ≤ φ(xδ

ε, yδε, t

δε, s

δε),

logo,u(xδ

ε, tδε) − v(xδ

ε, tδε) − βtδε + 2δξ(xδ

ε, xδε, t

δε, t

δε) ≤

≤ u(xδε, t

δε)−v(yδ

ε, sδε)−

β

2(tδε+s

δε)−

2C

ε2(|xδ

ε−yδε |2+(tδε−sδ

ε)2)+2δξ(xδ

ε, yδε, t

δε, s

δε).

Consequentemente,

2C

ε2(|xδ

ε − yδε|2 + (tδε − sδ

ε)2) ≤

≤ v(xδε, t

δε) − v(yδ

ε, sδε) +

β

2(tδε − sδ

ε) + 2δ(ξ(xδε, y

δε, t

δε, s

δε) − ξ(xδ

ε, xδε, t

δε, t

δε)) ≤

≤ wv(|xδε − yδ

ε| + |tδε − sδε|) +

β

2|tδε − sδ

ε| + 2δwξ(|xδε − yδ

ε| + |tδε − sδε|).

Portanto, |xδε − yδ

ε| e |tδε − sδε| sao o(ε) quando ε→ 0.

CHAPTER 4. PRINCIPIOS DE COMPARACAO E UNICIDADE 73

Combinando este fato com a estimativa (4.12) e mandando ε, δ → 0 temosque β ≤ 0, uma contradicao.

Ja vimos que o resultado acima fornece unicidade de solucao de viscosi-dade imediatamente. Uma consequencia adicional, que nao mencionamosantes, e estabilidade da solucao de viscosidade com respeito a perturbacoesdo dado inicial. Tornaremos isto preciso no corolario abaixo.

Corolario 4.1 Seja H uma Hamiltoniana satisfazendo as hipoteses usadasno Teorema 4.4. Sejam u e v solucoes de viscosidade do problema (4.9) comHamiltoniana H e dados iniciais u(·, 0) = g1 e v(·, 0) = g2. Seja ε > 0 esuponha que, para qualquer x ∈ IRn, |g1(x) − g2(x)| ≤ ε. Entao |u(x, t) −v(x, t)| ≤ ε, para todo (x, t) ∈ IRn × [0, T ].

Demonstracao: A demonstracao e bastante simples. Comece observandoque, se w = w(x, t) e uma solucao de viscosidade de (4.9), entao, para qual-quer constante C, w+C e a solucao de viscosidade de (4.9) com dado inicialw(·, 0)+C. De fato, basta notar que as semidiferenciais de w e de w+C emqualquer ponto coincidem.

Portanto, da hipotese, temos que g1 ≤ g2 + ε, e portanto, pelo Teorema4.4, u ≤ v + ε. Analogamente, obtemos que u ≥ v − ε.

Chapter 5

Causalidade e existencia

Neste capıtulo vamos dar continuidade ao estudo de princıpios de com-paracao, demonstrando um resultado de propagacao de informacao parasolucoes de viscosidade de um problema de valor inicial. Vamos tambemdiscutir o problema de existencia de solucao de viscosidade, primeiro no casoparticular de equacoes de Hamilton-Jacobi-Bellman, demonstrando que afuncao valor introduzida e estudada no Capıtulo 1 e solucao de viscosidade,num sentido apropriado. Concluiremos o capıtulo com uma discussao maisampla do problema de existencia, e com uma introducao ao metodo de Perronpara equacoes de Hamilton-Jacobi.

5.1 Causalidade

Nesta secao vamos estudar um refinamento do princıpio de comparacao paraa equacao de Hamilton-Jacobi (4.9), obtendo um resultado de natureza local.Isto ira implicar velocidade finita de propagacao de informacao, confirmandoa natureza hiperbolica das equacoes de Hamilton-Jacobi, mesmo no contextode solucoes de viscosidade.

Vamos comecar com uma derivacao heurıstica da causalidade. Suponhaque a Hamiltoniana H satisfaca, para algum K > 0 independente de x:

|H(p, x) −H(q, x)| ≤ K|p− q| eH e uniformemente contınua em x, uniformemente em p.

(5.1)

Vamos supor que exista uma funcao Λ ∈ C1(IRn × (0, T )), contınua emIRn × [0, T ], tal que:

74

CHAPTER 5. CAUSALIDADE E EXISTENCIA 75

1. Λ e nao-negativa,

2. Λ ≡ 0 para |x| suficientemente grande,

3. Λt +K|∇Λ| < 0 no interior do suporte de Λ, ou para x no interior dosuporte de Λ(·, T ).

Denotaremos o interior do suporte de Λ por S ⊂ IRn × (0, T ).A construcao de funcoes Λ satisfazendo as condicoes acima sera feita no

fim desta secao.Suponha que u e uma subsolucao de viscosidade da equacao de Hamilton-

Jacobi com dado inicial g1 e que v e supersolucao da equacao de Hamilton-Jacobi, com dado inicial g2. Nosso objetivo e mostrar que, se g1 ≤ g2 nosuporte de Λ(·, 0) entao u ≤ v no suporte de Λ.

Vamos assumir por um instante que u e v sao diferenciaveis. Neste caso,temos que:

ut(x, t) +H(∇u(x, t), x) ≤ 0

−vt(x, t) −H(∇v(x, t), x) ≤ 0.

Consequentemente, somando estas desigualdades e usando a hipotese (5.1)segue-se que:

(u− v)t ≤ K|∇(u− v)|. (5.2)

Suponha, por contradicao, que exista um ponto em S em que u− v > 0.Entao existe (x0, t0) um ponto de maximo positivo de Λ2(u − v), ja queΛ2(u− v) e contınua no suporte de Λ, que e compacto. Temos tambem quet0 > 0, pois u ≤ g1 ≤ g2 ≤ v no suporte de Λ(·, 0). Portanto, (x0, t0) ∈ S

ou t0 = T . Temos entao que, em (x0, t0):

0 ≤ (Λ2(u− v))t −K|∇(Λ2(u− v))| =

= 2ΛΛt(u− v) + Λ2(u− v)t −K∣

∣Λ2∇(u− v) + 2Λ(u− v)∇Λ∣

∣ ≤≤ 2Λ ((u− v)Λt + |u− v|K|∇Λ|) + Λ2 ((u− v)t −K|∇(u− v)|) ≤

≤ 2Λ(u− v) (Λt +K|∇Λ|) < 0,

o que e uma contradicao. A penultima desigualdade segue de (5.2) e a ultima,das hipoteses feitas sobre Λ, e da localizacao de (x0, t0).

O objetivo agora e tornar o argumento acima rigoroso. Para isto, precis-aremos da regra de Leibniz para semidiferenciais.

CHAPTER 5. CAUSALIDADE E EXISTENCIA 76

Lema 5.1 Seja Ω um aberto de IRm e sejam φ ∈ C1(Ω) e u contınua em Ω.Seja x0 ∈ Ω tal que φ(x0) > 0. Se q ∈ D±(φu)(x0) entao

q − u(x0)∇φ(x0)

φ(x0)∈ D±u(x0).

Demonstracao: Faremos a demonstracao apenas no caso de superdiferen-ciais; o caso de subdiferenciais e analogo.

Seja q ∈ D+(φu)(x0). Pela definicao temos:

lim supx→x0

φ(x)u(x) − φ(x0)u(x0) − q · (x− x0)

|x− x0|≤ 0.

Observamos entao que:

φ(x)u(x) − φ(x0)u(x0) − q · (x− x0)

|x− x0|=

=φ(x)u(x) − φ(x0)u(x) + φ(x0)u(x) − φ(x0)u(x0) − q · (x− x0)

|x− x0|=

=φ(x0)

|x− x0|

[

u(x) − u(x0) + φ(x)u(x)

φ(x0)− φ(x0)

u(x)

φ(x0)− q

φ(x0)· (x− x0)

]

=

=φ(x0)

|x− x0|

[

u(x) − u(x0) + (φ(x) − φ(x0))u(x)

φ(x0)− q

φ(x0)· (x− x0)

]

=

=φ(x0)

|x− x0|

[

u(x) − u(x0) + (∇φ(x0) · (x− x0) + o(|x− x0|))u(x)

φ(x0)−

+q

φ(x0)· (x− x0)

]

=

=φ(x0)

|x− x0|

[

u(x) − u(x0) −(

q

φ(x0)− u(x)

φ(x0)∇φ(x0)

)

· (x− x0)

]

+

CHAPTER 5. CAUSALIDADE E EXISTENCIA 77

+u(x)o(|x− x0|)

|x− x0|.

Dos fatos que φ(x0) > 0, que u(x)o(|x−x0|)/|x−x0| → 0 quando x → x0,e que u e contınua, podemos concluir que:

lim supx→x0

1

|x− x0|

[

u(x) − u(x0) −(

q

φ(x0)− u(x0)

φ(x0)∇φ(x0)

)

· (x− x0)

]

≤ 0.

Isto e o que querıamos demonstrar no caso de superdiferencial.

O proximo passo e demonstrar uma variante do princıpio de comparacao,que torna rigoroso o argumento heurıstico.

Seja H uma Hamiltoniana satisfazendo (5.1) e seja Λ uma funcao satis-fazendo precisamente as condicoes impostas no inıcio desta secao.

Teorema 5.1 Suponha que u e uma subsolucao de viscosidade da equacaode Hamilton-Jacobi com Hamiltoniana H e dado inicial g1 e que v e super-solucao da mesma equacao, com dado inicial g2. Se g1 ≤ g2 no suporte deΛ(·, 0) entao u ≤ v no suporte de Λ.

Demonstracao: Como estamos demonstrando um outro princıpio de com-paracao nao e de se surpreender que esta demonstracao tenha muitos ele-mentos em comum com as que a precederam.

Suponha, por contradicao, que existe um ponto (x0, t0) no suporte de Λtal que:

L ≡ Λ2(x0, t0)[u(x0, t0) − v(x0, t0)] > 0.

Sejam:

M ≡ max

supIRn×[0,T ]

|u|, supIRn×[0,T ]

|v|

e N ≡ max

supIRn×[0,T ]

Λ2, 1

.

Fixe ε > 0 e considere:

ψε(x, y, t, s) ≡ Λ(x, t)Λ(y, s)[

u(x, t) − v(y, s)− C

ε2(|x− y|2 + |t− s|2)

]

,

onde C = 2M − (L− 1)/N > 0.

CHAPTER 5. CAUSALIDADE E EXISTENCIA 78

Fica claro, agora que dobramos a dimensao, o motivo porque estivemostrabalhando com Λ2 ao inves de Λ, pois estarıamos calculando as semidifer-enciais de

√Λ caso contrario. O argumento heurıstico funciona igualmente

bem com Λ no lugar de Λ2.Como e usual, verifica-se facilmente que, se |x − y| ≥ ε ou |t − s| ≥ ε,

entao ψε(x, y, t, s) ≤ L − 1 < L. Por outro lado, como Λ tem suportecompacto, ψε assume seu maximo. Seja (xε, yε, tε, sε) um ponto de maximode ψε. Denotaremos ψε(xε, yε, tε, sε) por ψ∗

ε . Temos que: |xε − yε| < ε e|tε − sε| < ε. Vamos assumir, inicialmente, que (xε, tε) ∈ S e (yε, sε) ∈ S

(lembre que S e o interior do suporte de Λ, entendido como um subconjuntode IRn × (0, T )).

Sejam:

ϕε(x, t) ≡ Λ(yε, sε)Λ(x, t)[

−v(yε, sε) −C

ε2(|x− yε|2 + |t− sε|2)

]

e

ζε(y, s) ≡ Λ(xε, tε)Λ(y, s)[

u(xε, tε) −C

ε2(|xε − y|2 + |tε − s|2)

]

.

Temos que:

(x, t) 7→ Λ(x, t)Λ(yε, sε)u(x, t) + ϕε(x, t) tem um maximo em (xε, tε),

e tambem que:

(y, s) 7→ −Λ(xε, tε)Λ(y, s)v(y, s) + ζε(y, s) tem um maximo em (yε, sε).

Usando o que sabemos sobre o calculo de semidiferenciais, especificamenteos Lemas 4.1 e 5.1, vem que:

−∇(x,t)ϕε(xε, tε) − u(xε, tε)Λ(yε, sε)∇(x,t)Λ(xε, tε)

Λ(xε, tε)Λ(yε, sε)∈ D+u(xε, tε), e

∇(y,s)ζε(yε, sε) − v(yε, sε)Λ(xε, tε)∇(x,t)Λ(yε, sε)

Λ(xε, tε)Λ(yε, sε)∈ D−v(yε, sε).

Calculando as derivadas de ϕε e ζε e usando a definicao de semisolucaode viscosidade chegamos a:

CHAPTER 5. CAUSALIDADE E EXISTENCIA 79

−Λt(xε, tε)

Λ2(xε, tε)Λ(yε, sε)ψ∗

ε +2C

ε2(tε − sε)+

+H

(

−∇xΛ(xε, tε)

Λ2(xε, tε)Λ(yε, sε)ψ∗

ε +2C

ε2(xε − yε), xε

)

≤ 0, e

0 ≤ Λt(yε, sε)

Λ(xε, tε)Λ2(yε, sε)ψ∗

ε +2C

ε2(tε − sε)+

+H

(

∇xΛ(yε, sε)

Λ(xε, tε)Λ2(yε, sε)ψ∗

ε +2C

ε2(xε − yε), yε

)

.

Logo, usando (5.1), vem que:

0 ≤ Λt(xε, tε)

Λ2(xε, tε)Λ(yε, sε)ψ∗

ε +Λt(yε, sε)

Λ(xε, tε)Λ2(yε, sε)ψ∗

ε+

+K

∇xΛ(xε, tε)

Λ2(xε, tε)Λ(yε, sε)ψ∗

ε +∇xΛ(yε, sε)

Λ(xε, tε)Λ2(yε, sε)ψ∗

ε

+ o(1).

Observamos agora que ambos tε e sε ficam longe de 0 devido a hipotesesobre os dados iniciais g1 ≤ g2. Temos tambem que, se tε ou sε for igual aT , ainda e possıvel deduzir as desigualdades acima. Para verificar estas duasafirmacoes e necessario utilizar adaptacoes simples dos argumentos analogosutilizados nas demonstracoes dos Teoremas 4.3 e 4.4.

Por compacidade do suporte de Λ concluımos que xε, yε → x e tε, sε → tquando ε→ 0, passando a uma subsequencia se necessario. Como ψ∗

ε ≥ L >0, da continuidade de u e v vem que Λ(x, t) > 0. Feitas essas consideracoes,passamos ao limite, quando ε → 0 na ultima desigualdade obtida acima eobtemos:

0 ≤ 2Λt(x, t)

Λ3(x, t)+ 2K

|∇xΛ(x, t)|Λ3(x, t)

< 0,

uma contradicao.

CHAPTER 5. CAUSALIDADE E EXISTENCIA 80

Finalmente, vamos discutir a construcao da funcao Λ satisfazendo ashipoteses requeridas no inıcio desta secao. De fato, vamos construir umafamılia de funcoes Λα com as propriedades que queremos. Fixe R0 > 0. Paracada α > 0 defina:

Rα = (1 + 2α)−1R0 e λα = (1 + 2α)−1R−α0 . (5.3)

Lema 5.2 Para cada α > 0 existe uma funcao Λα ∈ C1(IRn × (0, T )),contınua no fecho, nao-negativa, satisfazendo as seguintes condicoes:

1. supp Λα =

(x, t)∣

∣ |x| ≤ (λ−1α (Rα −Kt))1/(1+α), 0 ≤ t ≤ Rα/K

≡ Cα,que e compacto.

2. Λαt +K|∇Λα| < 0 no interior do suporte de Λα.

Demonstracao: Seja g ∈ C∞(IR) tal que g(r) ≡ 0 se r ≤ 0 e g′(r) > 0 parar > 0. Definimos:

Λα(x, t) ≡ g(Rα −Kt− λα|x|1+α),

onde os numeros Rα e λα serao selecionados convenientemente.Observe que Λα e C1(IRn × (−∞,∞)) e nao-negativa para todo α > 0.

O suporte de Λα e precisamente o conjunto no enunciado deste lema.Temos:

∂Λα

∂t= −Kg′(Rα −Kt− λα|x|1+α)

eK∇Λα = λαKg

′(Rα −Kt− λα|x|1+α)(1 + α)|x|α−1x.

Desse modo, vem que:

∂Λα

∂t+K|∇Λα| = Kg′(Rα −Kt− λα|x|1+α)[λα(1 + α)|x|α − 1].

Verificamos agora que, para qualquer 0 ≤ t < Rα/K,

se |x| <(

Rα −Kt

λα

)

1

1+α

entao∂Λα

∂t(x, t) +K|∇Λα(x, t)| < 0.

Basta observar que:

λα(1 + α)|x|α − 1 ≤ λα(1 + α)(

λα

)

α1+α

− 1 =

CHAPTER 5. CAUSALIDADE E EXISTENCIA 81

= (1 + 2α)−1R−α0 (1 + α)Rα

0 − 1 = (1 + α)(1 + 2α)−1 − 1 < 0.

Seja H uma Hamiltoniana satisfazendo (5.1). Vamos agora utilizar oLema acima para localizar mais precisamente os cones de causalidade parasolucoes de viscosidade de (4.9).

Proposicao 5.1 Suponha que u e uma subsolucao de viscosidade da equacaode Hamilton-Jacobi com Hamiltoniana H e dado inicial g1 e que v e super-solucao da mesma equacao, com dado inicial g2. Seja R > 0, x0 ∈ IRn,e suponha que g1 ≤ g2 na bola B(x0, R). Entao u(x, t) ≤ v(x, t) no coneC ≡ x | |x− x0| ≤ R−Kt.

Demonstracao: Vamos assumir primeiro que x0 = 0. Tomando R0 = R em(5.3) observamos que Rα e λα sao tais que Rα → R e λα → 1 quando α → 0.

Sejam Λα as funcoes construidas no Lema 5.2. Notemos que, das hipotesesdesta proposicao, g1 ≤ g2 no suporte de Λα(·, 0) para qualquer α > 0, pois(Rα/λα)1/(1+α) = R.

Usando o Lema 5.2 e o Teorema 5.1 temos que u(x, t) ≤ v(x, t) se (x, t) ∈Cα para algum α.

E facil ver que C esta contido na uniao dos Cα, para α > 0. Isto concluia demonstracao quando x0 = 0.

Se x0 6= 0 considere a mesma funcao Λα acima e use a translacao Λα(x, t) ≡Λα(x−x0, t). E facil ver que o suporte de Λα e a translacao por x0 do suportede Λα e que Λα satisfaz a desigualdade diferencial apropriada no interior deseu suporte. Portanto concluımos a demonstracao repetindo o argumentoacima.

Uma consequencia deste resultado e uma versao localizada do resultadode estabilidade demonstrado no fim do capıtulo anterior, Corolario 4.1 (Ex-ercıcio 21).

O resultado acima tambem implica um tipo mais robusto de unicidade,comumente chamada de unicidade local. Vamos formular precisamente estecorolario utilizando as nocoes de domınios de dependencia e de influencia,que tomamos emprestadas da teoria de equacoes hiperbolicas.

Definicao 5.1 Seja u uma solucao de viscosidade do problema (1.1), definidaem IRn× (0,∞). Se (x0, t0) e um ponto em IRn× (0,∞) definimos o domınio

CHAPTER 5. CAUSALIDADE E EXISTENCIA 82

de dependencia associado a (x0, t0) como o conjunto dos x ∈ IRn tais que,para toda vizinhanca U de x, existe uma solucao de viscosidade v de (1.1)tal que u(y, 0) = v(y, 0) para y no complementar de U e u(x0, t0) 6= v(x0, t0).Para x0 ∈ IRn, definimos o domınio de influencia associado a x0 como oconjunto dos pontos (x, t) ∈ IRn × (0,∞) tais que x0 esta no domınio dedependencia de (x, t).

Os resultados deste capıtulo estao longe de fornecer uma caracterizacaoprecisa dos domınios de influencia e de dependencia para solucoes de vis-cosidade de (1.1). O que dispomos e de uma estimativa a priori sobre alocalizacao destes conjuntos. Como antes, seja H uma Hamiltoniana para(1.1) satisfazendo (5.1).

Corolario 5.1 Seja u a solucao de viscosidade do problema (1.1) definidaem IRn×(0,∞). Para cada (x0, t0) ∈ IRn×(0,∞), o domınio de dependenciaassociado a (x0, t0) esta contido na bola de centro x0 e raio Kt0. Se x0 e umponto de IRn, o dominio de influencia associado a x0 esta contido no cone:(x, t) ∈ IRn × (0,∞) | |x− x0| ≤ Kt.

Demonstracao: Vamos primeiro demonstrar o resultado relativo a domıniosde dependencia. Basta mostrar que, se |x − x0| > Kt0, entao x nao esta nodomınio de dependencia associado a (x0, t0), isto e, existe uma vizinhanca dex tal que, para qualquer solucao v com v(·, 0), identica a u(·, 0) fora destavizinhanca, u(x0, t0) = v(x0, t0).

Tome r = |x − x0| − Kt0 e a vizinhanca U = B(x, r) de x. Considere vuma solucao de viscosidade de (4.9) tal que v(y, 0) = u(y, 0) para |y−x| ≥ r.Temos que a bola B(x, r) e disjunta de B(x0, Kt0). Tomando R = Kt0 naProposicao 5.1 temos que v(·, 0) = u(·, 0) em B(x0, R) e portanto u(y, s) =v(y, s) no cone C = (y, s) | |y − x0| ≤ K(t0 − s) e 0 ≤ s ≤ t0. Como(x0, t0) ∈ C, temos que v(x0, t0) = u(x0, t0), como querıamos.

Para domınios de influencia, basta verificar que, se (x, t) satisfaz |x−x0| >Kt, entao x0 nao esta no domınio de dependencia associado a (x, t). Isto,contudo, e obvio a partir do que foi demonstrado acima.

Este resultado encerra nossa discussao sobre princıpios de comparacao.No restante deste capıtulo discutiremos questoes relativas a existencia desolucoes de viscosidade.

CHAPTER 5. CAUSALIDADE E EXISTENCIA 83

5.2 Equacao de Hamilton-Jacobi-Bellman

Nesta secao retomamos o problema de controle otimo discutido no Capıtulo1. Nosso objetivo principal e de estabelecer que a funcao valor e (a unica)solucao de viscosidade da equacao de Hamilton-Jacobi-Bellman. Isto forneceum primeiro resultado de existencia, valido para Hamiltonianas com umaforma particular.

Comecamos lembrando as definicoes e hipoteses feitas no Capıtulo 1.Seja A ⊆ IRm compacto e considere o conjunto de controles admissıveis:

A = α : [0, T ] → A tal que α(·) e Lebesgue mensuravel.

A equacao de estado (1.2) tem a forma x(s) = f(x(s), α(s)), para α ∈ A,t < s < T , e x(t) = x. O funcional custo e dado por:

Cx,t[α] =∫ T

th(x(s), α(s))ds+ g(x(T )).

A funcao h : IRn × A→ IR e o custo operacional e a funcao g : IRn → IRe o custo terminal. Assumimos que existe uma constante positiva K tal queas funcoes f , g e h satisfazem as seguintes hipoteses:

1. f, h ∈ C0(IRn × A), g ∈ C0(IRn).

2. |h(x, a)| ≤ K e |g(x)| ≤ K.

3. |f(x, a) − f(y, a)| ≤ K|x− y| para todo x, y ∈ IRn, a ∈ A.

4. |h(x, a) − h(y, a)| ≤ K|x− y| para todo x, y ∈ IRn, a ∈ A.

5. |g(x) − g(y)| ≤ K|x− y|, para todo x, y ∈ IRn.

A funcao valor e dada por:

u(x, t) = infα∈A

Cx,t[α].

Vamos comecar verificando que a funcao valor e um candidato adequado asolucao de viscosidade, pois e uma funcao limitada e uniformemente contınua.

Lema 5.3 Existe uma constante C > 0 tal que a funcao valor u(x, t) satisfaz:

CHAPTER 5. CAUSALIDADE E EXISTENCIA 84

(i) |u(x, t)| ≤ C

(ii) |u(x, t) − u(x, t)| ≤ C(|x − x| + |t − t|) para quaisquer x, x ∈ IRn,0 ≤ t, t ≤ T .

Demonstracao: Primeiramente, observemos que as hipoteses de limitacaosobre as funcoes custo h e g implicam (i) trivialmente.

Verifiquemos entao (ii). Fixe x e x em IRn e 0 ≤ t < T . Seja ε > 0 eescolha α ∈ A tal que

u(x, t) ≥∫ T

th(x(s), α(s))ds+ g(x(T )) − ε,

onde x(·) e a resposta ao controle α, x(t) = x. Considere x(·) a resposta aocontrole α tal que x(t) = x. Entao:

u(x, t) − u(x, t) ≤

≤∫ T

th(x(s), α(s))ds+ g(x(T )) −

∫ T

th(x(s), α(s))ds− g(x(T )) + ε.

Como h e g sao Lipschitz contınuas temos:

u(x, t) − u(x, t) ≤∫ T

tK|x(s) − x(s)|ds+K|x(T ) − x(T )| + ε.

Por outro lado, como f e Lipschitz contınua na primeira variavel, apli-camos o lema de Gronwall e obtemos que: |x(s)−x(s)| ≤ K|x−x|, t ≤ s ≤ T .Portanto, u(x, t) − u(x, t) ≤ K|x − x| + ε. Revertendo os papeis de x e x elembrando que ε e arbitrario segue-se que:

|u(x, t) − u(x, t)| ≤ K|x− x|.

Observe que esta mesma desigualdade e imediata para t = T , ja que g eLipschitz.

Seja agora x ∈ IRn, 0 ≤ t < t ≤ T . Fixe ε > 0 e escolha α ∈ A de modoque:

u(x, t) ≥∫ T

th(x(s), α(s))ds+ g(x(T )) − ε,

onde x(·) e a resposta ao controle α com x(t) = x. Defina o controle α ∈ Apor α(s) ≡ α(s + t − t), para t ≤ s ≤ T . Seja x(·) a resposta ao controle αtal que x(t) = x. Entao, por unicidade, x(s) = x(s + t− t).

CHAPTER 5. CAUSALIDADE E EXISTENCIA 85

Logo,

u(x, t) − u(x, t) ≤∫ T

th(x, α)ds+ g(x(T )) −

∫ T

th(x, α)ds− g(x(T )) + ε =

= −∫ T

T+t−th(x(s), α(s))ds+ g(x(T + t− t)) − g(x(T )) + ε ≤ 2K|t− t| + ε.

Agora tome α ∈ A tal que

u(x, t) ≥∫ T

th(x(s), α(s))ds+ g(x(T )) − ε,

onde x(·) e a resposta ao controle α tal que x(t) = x. Defina outro controleα ∈ A por:

α(s) =

α(s+ t− t) t ≤ s ≤ T + t− tα(T ) T + t− t ≤ s ≤ T.

Seja x(·) a respectiva resposta, com x(t) = x. Entao, como antes, α(s) =α(s + t − t), x(s) = x(s + t − t), para t ≤ s ≤ T + t − t, por unicidade.Portanto,

u(x, t) − u(x, t) ≤

≤∫ T

th(x(s), α(s))ds+ g(x(T )) −

∫ T

th(x(s), α(s))ds− g(x(T )) + ε =

=∫ T

T+t−th(x(s), α(s))ds+ g(x(T )) − g(x(T + t− t)) + ε ≤ 2K|t− t| + ε.

Logo, |u(x, t) − u(x, t)| ≤ 2K|t− t|, para todo 0 ≤ t ≤ t ≤ T e x ∈ IRn.

Recordemos o princıpio de programacao dinamica (1.7), demonstrado noTeorema 1.1:

u(x, t) = infα∈A

∫ t+δ

th(x(s), α(s))ds+ u(x(t+ δ), t+ δ)

.

No Capıtulo 1 utilizamos a relacao acima para derivar informalmente aequacao de Hamilton-Jacobi-Bellman:

ut + mina∈Af(x, a) · ∇u+ h(x, a) = 0u(x, T ) = g(x).

(5.4)

CHAPTER 5. CAUSALIDADE E EXISTENCIA 86

Este e um problema de valor terminal para a equacao de Hamilton-Jacobicom Hamiltoniana dada por:

H(p, x) ≡ mina∈A

f(x, a) · p+ h(x, a).

Nosso proximo passo sera de demonstrar que a funcao valor sera umasolucao de viscosidade para este problema de valor terminal. Precisaremosprimeiro redefinir solucao de viscosidade neste caso, pois as definicoes apre-sentadas no Capıtulo 3 nao sao adequadas para o problema de valor terminalacima. Remetemos a leitora ao comentario feito apos a Definicao 3.3.

Definicao 5.2 Seja u = u(x, t) limitada e uniformemente contınua em IRn×[0, T ]. Diremos que u e solucao de viscosidade do problema de valor terminalacima se:

1. u = g em IRn × t = T.

2. Para qualquer v ∈ C∞(IRn × (0, T )) tivermos:

(a) Se u− v tem maximo local em (x0, t0) ∈ IRn × (0, T ) entao:

vt(x0, t0) +H(∇v(x0, t0), x0) ≥ 0.

(b) Se u− v tem mınimo local em (x0, t0) ∈ IRn × (0, T ) entao:

vt(x0, t0) +H(∇v(x0, t0), x0) ≤ 0.

As desigualdades em (2a) e (2b) estao invertidas em relacao a definicaousada em problemas de valor inicial. Isto e natural devido a irreversibilidadeda regularizacao parabolica utilizada para justificar a definicao de solucaode viscosidade. Resolvendo o problema aproximado com tempo correndopara tras e necessario introduzir a viscosidade com o sinal oposto ao que foiintroduzido na Secao 3.1.

Teorema 5.2 A funcao valor u = u(x, t) e uma solucao de viscosidade doproblema de valor terminal para a equacao de Hamilton-Jacobi-Bellman.

CHAPTER 5. CAUSALIDADE E EXISTENCIA 87

Demonstracao: No Lema 5.3 vimos que u e Lipschitz (e portanto uniforme-mente) contınua e limitada. Alem disso, pela definicao da funcao valor, e facilver que u(x, T ) = g(x).

Seja agora v ∈ C∞(IRn × (0, T )) e suponha que u− v tenha um maximolocal em algum (x0, t0) ∈ IRn × (0, T ). Queremos demonstrar que v e super-solucao em (x0, t0), isto e:

vt(x0, t0) + mina∈A

f(x0, a) · ∇v(x0, t0) + h(x0, a) ≥ 0.

Vamos supor, por contradicao, que isto nao seja verdade. Entao existea ∈ A e um θ > 0 tal que:

vt(x, t) + f(x, a) · ∇v(x, t) + h(x, a) ≤ −θ < 0,

para todo (x, t) suficientemente proximo de (x0, t0), digamos, numa bola|x−x0|+|t−t0| < ζ. Podemos supor tambem que (u−v)(x, t) ≤ (u−v)(x0, t0)nesta mesma bola, tomando ζ um pouco menor caso necessario.

Considere o controle α(s) ≡ a, 0 ≤ s ≤ T e x(·) a resposta correspondentecom x(t0) = x0.

Escolha δ ∈ (0, ζ) de modo que:

|x(s) − x0| < ζ para t0 ≤ s ≤ t0 + δ.

Entao:

vt(x(s), s) + f(x(s), a) · ∇v(x(s), s) + h(x(s), a) ≤ −θ.

Portanto,

u(x(t0 + δ), t0 + δ) − u(x0, t0) ≤ v(x(t0 + δ), t0 + δ) − v(x0, t0) =

=∫ t0+δ

t0

d

dsv(x(s), s)ds =

∫ t0+δ

t0(vt(x(s), s) + ∇v(x(s), s) · x(s)) ds =

=∫ t0+δ

t0(vt(x(s), s) + f(x(s), a) · ∇v(x(s)) ds.

Usando o princıpio de programacao dinamica com o controle α ≡ a temos:

u(x0, t0) ≤∫ t0+δ

t0h(x(s), a)ds+ u(x(t0 + δ), t0 + δ).

CHAPTER 5. CAUSALIDADE E EXISTENCIA 88

Logo, destas duas desigualdades vem:

0 ≤∫ t0+δ

t0(vt(x(s), s) + f(x(s), a) · ∇v(x(s), s) + h(x(s), a)) ds ≤ −θδ,

uma contradicao.A outra desigualdade nao pode ser demonstrada de maneira analoga por

causa do mınimo na definicao da Hamiltoniana.Suponha agora que u − v tenha um mınimo local em (x0, t0) ∈ IRn ×

(0, T ). Precisamos mostrar que v agora e uma subsolucao. Vamos supor porcontradicao que v nao seja subsolucao, e portanto, analogamente ao casoanterior, existe θ > 0, tal que:

vt(x, t) + f(x, a) · ∇v(x, t) + h(x, a) ≥ θ > 0,

para todo a ∈ A e (x, t) suficientemente proximo de (x0, t0).Suponha que isto seja verdade para (x, t) tal que |x− x0|+ |t− t0| < ζ e

suponha tambem que (u − v)(x, t) ≥ (u− v)(x0, t0) para todo (x, t) tal que|x− x0| + |t− t0| < ζ.

Escolha 0 < δ < ζ tal que

|x(s) − x0| < ζ para t0 ≤ s ≤ t0 + δ,

onde x(·) e a resposta associada a algum controle α ∈ A com x(t0) = x0. Aescolha de δ, independente do controle α pode ser feita, pois o fluxo f daequacao de estado e Lipschitz contınuo na primeira variavel, uniformementena segunda.

Para qualquer controle α temos:

u(x(t0 + δ), t0 + δ) − u(x0, t0) ≥ v(x(t0 + δ), t0 + δ) − v(x0, t0) =

=∫ t0+δ

t0

d

dsv(x(s), s)ds =

∫ t0+δ

t0(vt(x(s), s) + f(x(s), α(s)) · ∇v(x(s), s)) ds.

Por outro lado, usando novamente o princıpio de programacao dinamica,e possıvel selecionar um controle α(·) ∈ A tal que:

u(x0, t0) ≥∫ t0+δ

t0h(x(s), α(s))ds+ u(x(t0 + δ), t0 + δ) − θδ

2.

CHAPTER 5. CAUSALIDADE E EXISTENCIA 89

Combinando estas desigualdades em α = α temos que:

0 ≥∫ t0+δ

t0(vt(x(s), s) + f(x(s), α(s)) · ∇v(x(s), s) + h(x(s), α(s))) ds− θδ

2≥

≥ θδ

2,

uma contradicao, o que conclui a demonstracao.

Para podermos aplicar toda a teoria de solucoes de viscosidade que de-senvolvemos anteriormente a funcao valor precisamos de uma maneira detraduzir para problemas de valor terminal os resultados obtidos para solucoesde viscosidade de problemas de valor inicial. Isto e realizado atraves doseguinte lema:

Lema 5.4 A funcao u e solucao de viscosidade do problema (5.4) de acordocom a Definicao 5.2 se e somente se a funcao w = w(x, t) ≡ u(x, T − t) esolucao de viscosidade, no sentido da Definicao 3.1 da equacao:

wt + H(∇w, x) = 0w(x, 0) = g(x),

onde H ≡ −H.

Demonstracao: Suponha que u e uma solucao de viscosidade de (5.4).Claramente w e limitada, uniformemente contınua e assume o dado inicial g.

Seja v uma funcao teste tal que w − v tem um maximo local em (x0, t0).Entao u − v tem maximo local em (x0, T − t0), onde v(x, t) ≡ v(x, T − t).Pela Definicao 5.2 temos que:

vt(x0, T − t0) +H(∇v(x0, T − t0), x0) ≥ 0.

Como vt(x0, T − t0) = −vt(x0, t0) e ∇v(x0, T − t0) = ∇v(x0, t0) segue-se que:

−vt(x0, t0) +H(∇v(x0, t0), x0) ≥ 0,

isto e:vt(x0, t0) + H(∇v(x0, t0), x0) ≤ 0.

CHAPTER 5. CAUSALIDADE E EXISTENCIA 90

Se w− v tiver um mınimo local em (x0, t0), o argumento analogo mostraque:

vt(x0, t0) + H(∇v(x0, t0), x0) ≥ 0.

Portanto, w e solucao de viscosidade da equacao de Hamilton-Jacobi comHamiltoniana H, no sentido da Definicao 3.1.

A recıproca e demonstrada da mesma maneira.

Como consequencia dos resultados demonstrados, temos que a funcaovalor e a unica solucao de viscosidade do problema de valor terminal (5.4).Mais ainda, pode-se traduzir os outros resultados obtidos para o problemade valor inicial, isto e, existencia do cone de dependencia e estabilidade emrelacao a perturbacoes de g, para a funcao valor.

5.3 Metodo de Perron

Esta secao tem como objetivo ampliar a discussao sobre a questao de ex-istencia de solucoes de viscosidade para alem do contexto da equacao deHamilton-Jacobi-Bellman. Existem tres maneiras, utilizadas na literatura, deobter resultados de existencia para equacoes de Hamilton-Jacobi. A primeiraconsiste de extensoes da analise feita na secao anterior, no sentido de acharuma formulacao variacional analoga a definicao de funcao valor. Veja, porexemplo, os trabalhos [10, 11].

A segunda maneira e o metodo de viscosidade evanescente, como foi ap-resentado informalmente na Secao 3.1. Vamos ilustrar isto com o enunciadode um teorema especıfico, devido a A. Friedman [13].

Considere o problema de valor inicial:

uεt +H(∇uε, x) = ε∆uε, em IRn × (0, T )uε(x, 0) = g(x), em IRn × t = 0. (5.5)

Teorema 5.3 Suponha que H e g satisfazem as seguintes hipoteses, paraalgum γ, γ > 0:

1. H(0, x) ≥ −γ,

2. existe C > 0 tal que |H(p, x) −H(p, y)| ≤ C(1 + |p|)|x− y|,

CHAPTER 5. CAUSALIDADE E EXISTENCIA 91

3. |H(p, x) −H(q, x)| ≤ C(1 + |x|)|p− q| e

4. |g(x)| ≤ γ e |g(x) − g(y)| ≤ γ|x− y|.

Entao existe uma unica solucao classica uε de (5.5) e existem constantesK1, K2 > 0 tais que:

|uε(x, t)| ≤ K1 e |∇uε(x, t)| ≤ K2,

para todo (x, t) ∈ IRn× (0, T ] e para todo ε > 0. Se, mais ainda, g ∈ C2(IRn)com |D2g(x)| ≤ γ entao tambem temos que |uε

t(x, t)| ≤ K2.

A demonstracao deste teorema envolve ferramentas que estao para alemdo escopo desta monografia. Ela e baseada no metodo de Galerkin, trunca-mento e estimativas de Schauder. Este resultado e o suficiente para justificarrigorosamente os argumentos usados na Secao 3.1, desde que a Hamiltonianae o dado inicial satisfacam as condicoes do teorema acima (nao e necessariorequerer g ∈ C2, pois a estimativa sobre as derivadas espaciais ja e suficientepara garantir equicontinuidade). Resultados mais recentes baseados nessemetodo podem ser encontrados em [21].

A terceira maneira e o objeto desta secao. O metodo de Perron consiste deencontrar solucoes de viscosidade como supremos de famılias de subsolucoes.A ideia e baseada no metodo de Perron classico para obter existencia desolucao para a equacao de Laplace (veja [17]). A formulacao deste metodopara equacoes de Hamilton-Jacobi e devida a H. Ishii [15]. Vamos ilustra-loatraves de um exemplo concreto, para o qual demonstraremos existencia desolucao de viscosidade em detalhe.

Seja h = h(x) uma funcao contınua e limitada de IRn em IR. Considereo problema estacionario abaixo:

u+ |∇u| = h, em IRn. (5.6)

O argumento de existencia que vamos apresentar pode ser descrito comoum processo em quatro etapas, que enumeramos abaixo.

1. Encontrar uma subsolucao e uma supersolucao de viscosidade, f e grespectivamente. Nosso candidato a solucao de viscosidade, u, sera osupremo pontual de todas as subsolucoes v tais que f ≤ v ≤ g.

CHAPTER 5. CAUSALIDADE E EXISTENCIA 92

2. Demonstrar que nosso candidato u e Lipschitz contınuo.

3. Demonstrar que u e subsolucao de viscosidade de (5.6).

4. Demonstrar que u e supersolucao de viscosidade de (5.6).

Os dois ultimos itens sao o que e usualmente descrito como metodo dePerron.

Seja M > 0 tal que |h(x)| ≤ M , para todo x ∈ IRn. E imediato verificarque f ≡ −M e g ≡ M sao subsolucao e supersolucao (classicas) de (5.6)respectivamente. Considere entao S o conjunto de todas as subsolucoes deviscosidade v de (5.6) tais que −M ≤ v ≤ M . Construimos pontualmenteuma funcao u dada por:

u(x) = supv∈S

v(x).

Isto conclui o ıtem 1 acima.Sejam v ∈ S e y ∈ IRn. Observe que, se p ∈ D+v(y), entao |p| ≤ 2M .

De fato, da definicao de subsolucao de viscosidade, temos que v(y) + |p| ≤h(y), donde segue-se a conclusao. Vamos comecar com mais um resultado decalculo de semidiferenciais.

Lema 5.5 Seja v uma funcao contınua e limitada em IRn e suponha que,para quaisquer y ∈ IRn e p ∈ D+v(y), temos |p| ≤ 2M . Entao v e Lipschitzcontınua com constante de Lipschitz 2M .

Demonstracao: Fixe x ∈ IRn e ε > 0. Considere as funcoes:

G(y) ≡ v(y) + ϕ(y) ≡ v(y) − (2M + ε)|y − x| − v(x).

Seja C > 0 tal que |v| ≤ C e R = C/M . Temos que G(x) = 0. Se |y−x| ≥ R,entao:

G(y) ≤ v(y) − (2M + ε)R− v(x) ≤ 2C − 2C − εR < 0.

Portanto, desta estimativa segue-se que o maximo de G na bola fechadade centro x e raio R e assumido (pois G e contınua) no interior desta bola.

Vamos mostrar que o maximo de G e zero. Suponha, por absurdo, quemaxG > 0 e seja y0 o ponto onde este maximo e atingido. Entao y0 6= x eportanto ϕ e uma funcao C1 proximo a y0. Pelo Lema 4.1,

−∇ϕ(y0) ∈ D+v(y0).

CHAPTER 5. CAUSALIDADE E EXISTENCIA 93

Entretanto, | − ∇ϕ(y0)| = 2M + ε > 2M , contradizendo a hipotese sobre v.Portanto, mostramos que, para todo y ∈ IRn, G(y) ≤ 0, isto e:

v(y) ≤ (2M + ε)|y − x| + v(x).

Trocando os papeis de x e de y na desigualdade acima segue-se que:

|v(x) − v(y)| ≤ (2M + ε)|x− y|.

Como ε e arbitrario, temos o que querıamos.

Ha um resultado analogo com hipoteses sobre a subdiferencial; veja Ex-ercıcio 22.

Em seguida, observamos que a funcao u definida anteriormente tambem eLipschitz contınua, com constante 2M . De fato, as funcoes v ∈ S satisfazem,para quaisquer x, y em IRn:

v(x) ≤ v(y) + 2M |x− y|.

Tomando o supremo sobre todos os v em S de ambos os lados da desigualdadesegue-se que:

u(x) ≤ u(y) + 2M |x− y|.Trocando x com y, vem que u(x) ≥ u(y)−2M |x−y| e, com isso, concluimoso segundo ıtem no nosso programa.

Antes de enunciarmos e demonstrarmos o teorema de existencia, pre-cisamos de mais um lema sobre semidiferenciais.

Lema 5.6 Sejam v1 e v2 funcoes contınuas, definidas em um aberto Ω deIRn. Entao v = maxv1, v2 e contınua. Fixe i = 1, 2 e x0 ∈ Ω. Se v(x0) =vi(x0) entao

D+v(x0) ⊆ D+vi(x0).

Demonstracao: O fato de v ser contınua e imediato. Fixe x0 ∈ Ω, i = 1, 2e seja p ∈ D+v(x0). Se v(x0) = vi(x0), entao para qualquer x ∈ Ω, temos aseguinte desigualdade:

vi(x) − vi(x0) − p · (x− x0)

|x− x0|≤ v(x) − v(x0) − p · (x− x0)

|x− x0|.

CHAPTER 5. CAUSALIDADE E EXISTENCIA 94

Tomando o lim supx→x0de ambos os lados da desigualdade, e usando o fato

que p ∈ D+v(x0) segue-se que p ∈ D+vi(x0).

Os ıtens 3 e 4 do nosso programa estao contidos na demonstracao doteorema que se segue.

Teorema 5.4 A funcao u e solucao de viscosidade do problema (5.6).

Demonstracao: Vamos demonstrar primeiro que u e subsolucao de vis-cosidade. Para tal, fixe x0 ∈ IRn e p ∈ D+u(x0). Seja ϕ ∈ C1 a funcaoconstruida no Lema 3.3, de modo que (u − ϕ)(x0) = 0, ∇ϕ(x0) = p e(u − ϕ)(x) ≤ −|x − x0|2. Para cada numero natural n, seja vn ∈ S talque (vn − ϕ)(x0) > −1/n.

Como a funcao vn−ϕ e contınua, ela assume seu maximo na bola fechadade centro x0 e raio 1, em um ponto yn. Pelo Lema 4.1, ∇ϕ(yn) ∈ D+vn(yn).

Temos que:

−1/n < (vn − ϕ)(x0) ≤ (vn − ϕ)(yn) ≤ (u− ϕ)(yn) ≤ −|yn − x0|2.

Portanto, |yn − x0|2 < 1/n, logo yn → x0. Mais ainda, vn(yn) → u(x0) pois(vn − ϕ)(yn) → 0 e ϕ(yn) → ϕ(x0) = u(x0).

Da definicao de subsolucao de viscosidade, segue-se que

vn(yn) + |∇ϕ(yn)| ≤ h(yn).

Passando ao limite quando n→ ∞, vem que:

u(x0) + |p| = u(x0) + |∇ϕ(x0)| ≤ h(x0).

Como, pelo Lema 5.5, u e uniformemente contınua, trivialmente limitadae satisfaz a desigualdade provada acima, concluimos que u tambem e sub-solucao de viscosidade, e consequentemente, pertence a S.

Vamos mostrar agora que u e supersolucao de viscosidade. Faremos istopor contradicao, supondo que existe um ponto x0 ∈ IRn tal que u nao seja su-persolucao em x0. Com esta hipotese, vamos construir uma outra subsolucaow ∈ S, tal que w(x0) > u(x0). Isto contradiz o fato que u e o supremopontual das subsolucoes.

CHAPTER 5. CAUSALIDADE E EXISTENCIA 95

Seja entao x0 ∈ IRn tal que u nao seja supersolucao de viscosidade em x0.Entao existe q ∈ D−u(x0) tal que:

u(x0) + |q| < h(x0). (5.7)

Considere a funcao ψ ∈ C1 construida no Lema 3.3, de modo que:ψ(x0) = u(x0), ∇ψ(x0) = q e (u − ψ)(x) ≥ |x − x0|2. Pela estimativa(5.7), temos:

2ε0 ≡ h(x0) − ψ(x0) − |∇ψ(x0)| > 0.

Entao:ψ(x0) + ε0 + |∇ψ(x0)| < h(x0).

Como ψ, ∇ψ e h sao contınuas, existe uma vizinhanca U de x0 tal que, paraqualquer x ∈ U ,

ψ(x) + ε0 + |∇ψ(x)| ≤ h(x).

Observe que esta desigualdade implica que, para qualquer 0 < ε ≤ ε0, ψ + εe subsolucao classica de (5.6) em U .

Defina, para 0 < ε ≤ ε0,

wε ≡ maxu, ψ + ε. (5.8)

Suponha que x seja tal que wε(x) = ψ(x) + ε. Entao u(x) ≤ ψ(x) + ε,e, por outro lado, ψ(x) + |x− x0|2 ≤ u(x). Destas duas desigualdades segueque |x−x0|2 ≤ ε. Em outras palavras, se |x−x0| >

√ε, entao wε(x) = u(x).

Escolha 0 < ε1 ≤ ε0 tal que a bola fechada de centro x0 e raio√ε1 esteja

contida na vizinhanca U . Defina w = wε1; afirmamos que w ∈ S.

De fato, seja x ∈ IRn e p ∈ D+w(x). Se w(x) = u(x) entao, p ∈ D+u(x),pelo Lema 5.6. Como u e subsolucao de viscosidade em todo o IRn, temosque w(x) + |p| = u(x) + |p| ≤ h(x). Se, por outro lado, w(x) = ψ(x) + ε1

entao x ∈ U , e consequentemente, usando o Lema 5.6, p = ∇ψ(x). Comoψ + ε1 e subsolucao classica de (5.6) em U , temos que w(x) + |p| = ψ(x) +ε1 + |∇ψ(x)| ≤ h(x).

Como w ≥ u, segue-se que w ≥ −M . Por outro lado, o conjunto dosx onde w(x) = ψ(x) + ε1 esta contido em U , donde w(x) = ψ(x) + ε1 ≤ψ(x) + ε1 + |∇ψ(x)| ≤ h(x) ≤ M . Se w(x) = u(x) entao w(x) ≤ M .Concluimos portanto que −M ≤ w ≤M .

Para verificarmos que w ∈ S, basta mostrar que w e uniformementecontınua. Contudo, vimos acima que |w| ≤M e que, para quaisquer x ∈ IRn

CHAPTER 5. CAUSALIDADE E EXISTENCIA 96

e p ∈ D+w(x), temos: w(x) + |p| ≤ h(x). Consequentemente, |p| ≤ 2M .Pelo Lema 5.5, w e Lipschitz contınua e portanto uniformemente contınua.

Concluimos que w ∈ S. Por construcao temos que w(x0) = ψ(x0) + ε1 =u(x0)+ ε1 > u(x0). Isto contradiz a definicao de u como supremo pontual defuncoes em S. Portanto u e supersolucao de viscosidade.

O enunciado e a demonstracao deste resultado de existencia foram sug-eridos aos autores pelo Prof. Hitoshi Ishii.

Incluimos este exemplo de resultado de existencia a tıtulo de ilustracaodo metodo de Perron em um contexto simplificado. Mesmo se nos confinar-mos estritamente as tecnicas desenvolvidas e utilizadas acima podemos obterresultados de existencia para classes mais amplas de problemas (veja, por ex-emplo, o Exercıcio 23). Contudo, se nos restringirmos as tecnicas utilizadasaqui estaremos limitando muito o escopo de aplicabilidade do metodo dePerron. No artigo [15] H. Ishii adaptou o metodo de Perron para demonstrarexistencia para uma classe de problemas de generalidade comparavel a dosproblemas para os quais estudamos princıpios de comparacao.

Chamamos a atencao para o fato de que a aplicacao do metodo de Perronno exemplo acima tem um paralelo muito forte com aquela feita por Ishiiem [15], a excecao de um elemento. Nao e possıvel demonstrar apriori e emgeral que o supremo de subsolucoes seja contınuo. Consequentemente faz-se necessario introduzir uma nocao de solucao de viscosidade generalizadaque admite funcoes descontınuas. Demonstra-se aposteriori que a solucaode viscosidade generalizada obtida e, de fato, contınua. Isto nao e de seestranhar; e uma instancia de algo que acontece frequentemente no estudo deequacoes diferenciais parciais, isto e, que seja necessario primeiro demonstrarexistencia de solucao em uma classe mais ampla (e menos regular) de funcoes,para em seguida demonstrar regularidade adicional.

Finalmente, gostarıamos de chamar atencao de que o problema de valorde fronteira pode ser bem mais complicado. De fato, e facil exibir instanciasde problemas para os quais nao haja solucao de viscosidade. Por exemplo,considere o problema:

u+ |ux| = h(x), em (0, 1)u(0) = 0; u(1) = a,

(5.9)

onde h e uma funcao contınua e limitada definida no intervalo [0, 1]. SejaM > 0 tal que |h| ≤ M . Suponha que exista uma solucao de viscosidade u.

CHAPTER 5. CAUSALIDADE E EXISTENCIA 97

Entao |u| e limitada (por M) e, para todo x ∈ (0, 1), D+u(x) esta contidono intervalo [−2M, 2M ]. Pelo Lema 5.5 a funcao u e Lipschitz contınua comconstante 2M e consequentemente temos a estimativa: |u(1) − u(0)| ≤ 2M ,isto e: −2M ≤ a ≤ 2M. Assim, se |a| > 2M nao existe solucao de viscosidadepara (5.9).

Exercıcios

1. Ache um exemplo de uma funcao contınua do quadrado unitario fechado[0, 1] × [0, 1] na reta, Lipschitz contınua na primeira variavel, masque nao possua uma constante de Lipschitz (com respeito a primeiravariavel) uniforme na segunda variavel.

2. Seja A um compacto de IRm e f : IRn ×A → IRn uma funcao contınua,Lipschitz na primeira variavel, uniformemente na segunda. Verifiqueque o sistema de equacoes diferenciais ordinarias:

x(s) = f(x(s), α(s)), qtp 0 < s < T ,x(0) = x0,

possui uma unica solucao absolutamente contınua, se α : [0, T ] → A emensuravel.

3. Considere um lago particular com uma populacao de peixes x(t), ondet representa um instante de tempo. E realizada a colheita de peixesa uma taxa α = α(t) (variavel de controle). Suponha que o custooperacional da colheita de peixes seja dado por:

h(x, α) =K1α

2

x− ρα,

onde ρ e o preco (constante) a que os peixes colhidos sao vendidos.O valor do lago e assumido ser o valor de mercado dos peixes nelecontidos, isto e, o custo terminal e dado por g(x) = −ρx. A taxa decrescimento populacional e dada por: K2x−α. Determine o sistema deequacoes diferenciais ordinarias que deve ser resolvido para obter-se aestrategia otima de colheita, assumindo uma populacao inicial de peixes

98

EXERCICIOS 99

x0 > 0. Em seguida faca uma analise qualitativa do comportamentoassintotico da populacao e da estrategia otima quando T → ∞, paradiferentes valores dos parametros K1, K2, ρ e x0.

4. Mostre que a funcao valor definida no inıcio da Secao 1.2 e limitada eque a trajetoria x(·) nao sai de um compacto, independente do controleα.

5. Mostre que controles por feedback produzem uma trajetoria de customınimo nas regioes onde a funcao valor e suave.

6. Prove o Corolario 2.1.

7. Seja L : IRn → IR uma funcao contınua, convexa e superlinear. Mostreque o supremo na definicao da transformada de Legendre de L e ummaximo.

8. Ache uma famılia infinita de funcoes Lipschitz contınuas que sejamsolucoes qtp de

ut + (ux)2/2 = 0, em IR× (0,∞)

u(x, 0) = 0, em IR× t = 0.

9. Seja u : IR→ IR uma funcao de classe C2. Mostre que u e semiconcavase e somente se sua segunda derivada for limitada superiormente. Se ufor apenas contınua, mostre entao que u e semiconcava se e somente seexistir C > 0 tal que u− C|x|2 e concava.

10. Mostre que, se H e uniformemente estritamente convexa, entao

H(

p1 + p2

2

)

≤ H(p1) +H(p2) −θ

8|p1 − p2|2.

11. Demonstre existencia e unicidade para o problema de valor terminalpara a equacao de Hamilton-Jacobi-Bellman autonoma. (Corolario2.3).

12. Seja v ∈ C1(IRn) e η ∈ C∞, de suporte compacto, positiva e de integral1. Defina ηε(x) = (1/εn)η(x/ε) e

vε(x) = ηε ∗ v(x) ≡∫

IRnηε(x− y)v(y)dy.

EXERCICIOS 100

Mostre que vε ∈ C∞, que vε → v e ∇vε → ∇v, uniformemente emcompactos, quando ε→ 0.

13. Seja u : Ω → IR uma funcao contınua, onde Ω ⊆ IRn e um aberto.Mostre que, para todo x ∈ Ω, as semidiferenciais D+u(x) e D−u(x),sao subconjuntos fechados e convexos do IRn.

14. Calcule as semidiferenciais em x = 0 de u(x) = −|x| e de v(x) =x sin(1/x). Mostre que uma funcao contınua u e diferenciavel em x0 ∈IRn se e somente se D+u(x0)∩D−u(x0) 6= ∅ se e somente se D+u(x0) =D−u(x0) = ∇u(x0).

15. Mostre os seguintes fatos sobre o calculo de semidiferenciais:

(a) Sejam u e v funcoes contınuas tais que u− v tem um maximo emy ∈ Ω. Entao D+v(y) ⊆ D+u(y) e D−u(y) ⊆ D−v(y).

(b) Se Ω ⊂ IR e a < b entao existe a ≤ y0 ≤ b tal que

u(b) − u(a)

b− a∈ D+u(y0) ∪D−u(y0).

(c) Em um ponto de maximo (mınimo) local y0 de u temos que 0 ∈D+u(y0)(D

−u(y0)).

16. Mostre que a unica solucao de viscosidade de (4.1), da forma uE(x) =∫ x−1(2χE(t) − 1)dt e exatamente 1 − |x|, onde E e um subconjunto

mensuravel de [−1, 1] com medida de Lebesgue unitaria.

17. Determine solucoes de viscosidade para os seguintes problemas:

(a) u+ |u′| = 0, em (a, b), com u(a) = u0 e u(b) = u1.

(b) u+ |u′| = 0, em IR.

18. Ache um par de funcoes u e v contınuas em Ω ⊂ IRn tais que u−v temum maximo local em x0 mas D+u(x0) ∩D−v(x0) = ∅.

19. Suponha que ψ = ψ(x, t) e uma funcao contınua que tem um maximolocal estrito em Ω × [a, b], que e assumido em (x0, b), com x0 ∈ Ω.Entao para todo δ > 0, a funcao ψ− δ/(b− t) possui um maximo localproximo a (x0, b). (Adapte a demonstracao do Lema 3.1).

EXERCICIOS 101

20. Seja Ω ⊂ IRn um domınio limitado e considere u1 e u2 solucoes de vis-cosidade do problema (4.2), com Hamiltoniana satisfazendo as hipotesesdo Teorema 4.1 e dados de fronteira g1 e g2 respectivamente. Suponhaque

maxx∈∂Ω

|g1 − g2| ≤ ε.

Entao, para todo x ∈ Ω, |u1(x) − u2(x)| ≤ ε.

21. Enuncie e demonstre um resultado de estabilidade local, refinando oCorolario 4.1, levando em consideracao a Proposicao 5.1.

22. Sejam Ω ⊆ IRn aberto e f : Ω → IR uma funcao contınua. Se existeuma constante R > 0 tal que, para todo x ∈ Ω e p ∈ D−f(x) tivermos|p| ≤ R, entao f e Lipschitz contınua, com constante de Lipschitz R.

23. Demonstre existencia de solucao de viscosidade para u+ |∇u|2 = h, emtodo IRn, com h uma funcao contınua e limitada.

Bibliography

[1] R. Bellman, Dynamic programming, Princeton Univ. Press, Princeton,N.J. 1957.

[2] M. Crandall, Viscosity solutions of partial differential equations, A.M.S.,Progress in Mathematics Videotape Series, 90 min., palestra proferidaem Columbus, OH em 1991.

[3] M. Crandall, L. C. Evans e P.-L. Lions, Some Properties of Viscosity So-lutions of Hamilton-Jacobi Equations. Transactions of the A.M.S., 282,2 (1984), 487–502.

[4] M. Crandall, H. Ishii e P.-L. Lions, User’s guide to viscosity solutionsof second order partial differential equations, Bull. A.M.S., 27, 1 (1992),1–67.

[5] M. Crandall e P.-L. Lions, Viscosity Solutions of Hamilton-Jacobi Equa-tions, Trans. of the A.M.S., 277, 1 (1983), 1–42.

[6] M. Crandall e P.-L. Lions, On existence and uniqueness of solutions ofHamilton-Jacobi equations, Nonlin. Anal. TMA, 10, (1986), 353–370.

[7] M. Crandall e P.-L. Lions, Two approximations of solutions of Hamilton-Jacobi equations, Math. Comput., 43, 167 (1984), 1–19.

[8] L. C. Evans, Partial Differential Equations, vols A e B, Berkeley Math-ematics Lecture Notes Series v.3, 1993.

[9] L. C. Evans, On solving certain nonlinear partial differential equationsby accretive operator methods, Israel J. Math., 86 (1980), 225–247.

102

EXERCICIOS 103

[10] L. C. Evans e H. Ishii, Differential games and nonlinear first-order PDEon bounded domains, Manuscripta Math., 49 (1984), 109–139.

[11] L. C. Evans e P. E. Souganidis, Differential games and representa-tion formulas for solutions of Hamilton-Jacobi-Isaacs equations, IndianaUniv. Math. J., 33 (1984), 773–779.

[12] W. Fleming and J. Soner, Controlled Markov Processes and ViscositySolutions, Springer-Verlag 1993.

[13] A. Friedman, The Cauchy problem for first order partial differentialequations, Indiana Univ. Math. J., 23 (1973), 27–40.

[14] E. Hopf, On the right weak solution of the Cauchy problem for a quasi-linear equation of first order, J. Math. Mech., 19 (1969/70), 406–446.

[15] H. Ishii, Perron’s method for Hamilton-Jacobi equations, Duke Univ.Math. J., 55 2 (1987), 369–385.

[16] R. Jensen, Uniqueness Criteria for Viscosity Solutions of Fully Nonlin-ear Elliptic Partial Differential Equations, Indiana Univ. Math. J., 38,3 (1989), 629–667.

[17] F. John, Partial Differential Equations, 4th ed., Springer-Verlag 1984.

[18] S. N. Kruzkov, First order quasilinear equations with several space vari-ables, Math. USSR-Sb., 10 (1970), 217–243.

[19] P.-L. Lions, Generalized Solutions of Hamilton-Jacobi Equations, Re-search Notes in Mathematics v.69, Pitman (1982).

[20] H. L. Royden, Real Analysis, 2nd. edition, Collier MacMillan, London1968.

[21] P. E. Souganidis, Existence of viscosity solutions of Hamilton-Jacobiequations, J. Diff. Eq., 56 (1985), 345–390.