UNIVERSIDADE DO ESTADO DE SANTA CATARINA - UDESC
CENTRO DE CIÊNCIAS TECNOLÓGICAS - CCT
CURSO DE LICENCIATURA EM MATEMÁTICA
TRABALHO DE GRADUAÇO
MÉTODOS DE GALERKIN PARA
A EQUAÇO DE BURGERS
Juliana da Silva Buzzi
JOINVILLE, 2014
JULIANA DA SILVA BUZZI
MÉTODOS DE GALERKIN PARA A EQUAÇO
DE BURGERS
Trabalho de Graduação apresentado ao
Curso de Li en iatura em Matemáti a
do Centro de Ciên ias Te nológi as,
da Universidade do Estado de Santa
Catarina, omo requisito par ial para
a obtenção do grau de Li en iatura em
Matemáti a.
Orientador: Prof. Dr. Fernando
Deeke Sasse
JOINVILLE, SC
2014
JULIANA DA SILVA BUZZI
MÉTODOS DE GALERKIN PARA A EQUAÇO
DE BURGERS
Trabalho de Graduação apresentado ao Curso de Li en iatura emMate-
máti a do Centro de Ciên ias Te nológi as, da Universidade do Estado
de Santa Catarina, omo requisito par ial para a obtenção do grau de
Li en iatura em Matemáti a.
Ban a Examinadora
Orientador:
Prof. Dr. Fernando Deeke Sasse
Universidade do Estado de Santa Catarina
Membro:
Prof
a
. Ms. Eliane Bihuna de Azevedo
Universidade do Estado de Santa Catarina
Membro:
Prof. Ms. Rodrigo de Lima
Universidade do Estado de Santa Catarina
Joinville, 24/06/2014.
À Deus e a minha família.
AGRADECIMENTOS
Agradeço a Deus que me deu a vida, a apa idade, as oportu-
nidades, as ondições físi as e psi ológi as que permitiram a on lusão
desse trabalho.
Aos meus pais, que durante esses anos foram dedi ados, om-
preensivos, ompanheiros e sempre estiveram ao meu lado me apoiando
em todos os momentos difí ieis que superamos juntos.
Ao que foi meu namorado, noivo e hoje meu esposo Renato,
que pode viven iar ada momento de alegria e de angustia pelo qual
passei. Ele que sempre deu sua palavra de apoio e motivação. Obrigada
amor por sempre estar omigo sem vo ê não teria onseguido!
Aos meus olegas e amigos de urso que zeram parte de todo
esse pro esso.
Aos meus professores por todo o aprendizado.
E ao meu orientador Fernando, por toda sua dedi ação e ajuda
para elaboração deste trabalho.
O meu muito obrigada à todos vo ês!
Wir müssen wissen. Wir werden
wissen.
Nós pre isamos saber, e nós iremos
saber.
(David Hilbert)
RESUMO
BUZZI, Juliana da Silva. Métodos de Galerkin para a equação de
Burgers. 2014. 98 p.. Trabalho de Con lusão de Curso (Graduação
em Li en iatura em Matemáti a) - Universidade do Estado de Santa
Catarina, Joinville, 2014.
Neste trabalho o método de Galerkin tradi ional é apli ado para obten-
ção de uma solução aproximada da equação de Burgers. Tal equação
diferen ial par ial não-linear é uma aproximação da equação de Navier-
Stokes e é extensamente usada omo equação de teste de desempenho
para métodos de aproximação e métodos numéri os, pois sua solução é
onhe ida. A ênfase deste trabalho onsiste na apli ação da omputa-
ção algébri a para a onstrução de soluções aproximadas.
Palavras- have: Método de Galerkin tradi ional. Equações diferen-
iais. Computação algébri a.
ABSTRACT
BUZZI, Juliana da Silva. Método de Galerkin to the equation de
Burgers. 2014. 98 p.. Work of Course Con lusion (Graduate Degree
in Mathemati s) - Santa Catarina State University, 2014.
In this work the traditional Galerkin method is applied to obtain an
approximate solution of the Burgers equation. This nonlinear partial
dierential equation is an approximation of the Navier-Stokes equa-
tion and is widely used as a performan e for approximation methods
and numeri al methods test equation, be ause its solution is known.
The emphasis of this work is the appli ation of omputer algebra to
onstru t approximate solutions.
Key-words: Traditional Galerkin method. Dierential equations. Al-
gebrai omputation.
LISTA DE ILUSTRAÇÕES
2.1 Solução exata e aproximação. . . . . . . . . . . . . . . . . 25
2.2 Erro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Solução exata e aproximação. . . . . . . . . . . . . . . . . 27
2.4 Erro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5 Solução exata e aproximação. . . . . . . . . . . . . . . . . 30
2.6 Erro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.7 Solução exata e aproximação. . . . . . . . . . . . . . . . . 32
2.8 Erro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.9 Solução exata e aproximação . . . . . . . . . . . . . . . . . 35
2.10 Erro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.11 Solução exata e aproximação . . . . . . . . . . . . . . . . . 37
2.12 Erro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.13 Aproximação . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.14 Solução exata e aproximação . . . . . . . . . . . . . . . . . 43
2.15 Erro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.16 Solução exata e aproximação . . . . . . . . . . . . . . . . . 45
2.17 Erro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.1 Solução para N=3 e Re=10 . . . . . . . . . . . . . . . . . 57
3.2 Solução para N=7 e Re=10 . . . . . . . . . . . . . . . . . 58
3.3 Solução para N=9 e Re=10 . . . . . . . . . . . . . . . . . 59
3.4 Solução para N=11 e Re=10 . . . . . . . . . . . . . . . . . 60
3.5 Análise dos resultados . . . . . . . . . . . . . . . . . . . . 61
3.6 Solução para N=3 e Re=1 . . . . . . . . . . . . . . . . . . 62
3.7 Solução para N=9 e Re=1 . . . . . . . . . . . . . . . . . . 63
3.8 Solução para N=9 e Re=10 . . . . . . . . . . . . . . . . . 64
3.9 Solução para N=9 e Re=30 . . . . . . . . . . . . . . . . . 65
3.10 Análise dos resultados . . . . . . . . . . . . . . . . . . . . 66
LISTA DE ABREVIATURAS E SIGLAS
EDO Equação diferen ial ordinária
EDP Equação diferen ial par ial
MGT Método de Galerkin tradi ional
MRP Método de resíduo ponderado
PVC Problema de valor de ontorno
PVI Problema de valor ini ial
MGEF Método de elementos nitos
RK Runge-Kutta
LISTA DE SÍMBOLOS
L2(Ω) Conjunto das funções de quadrado integravel
〈a, b〉 Produto interno entre a e b
N Conjunto dos números naturais
Z Conjunto dos números inteiros
Q Conjunto dos números ra ionais
R Conjunto dos números reais
mkj Elemento da linha k e oluna j de uma matriz M qualquer
‖u‖ Norma de u
∇2Operador lapla iano
y′(x) Derivada primeira da função y em relação a variável x
y′′(x) Derivada segunda da função y em relação a variável x
11
SUMÁRIO
INTRODUÇO 14
1 INTRODUÇO 14
2 O MÉTODO DE GALERKIN TRADICIONAL 18
2.1 DESCRIÇO DO MÉTODO . . . . . . . . . . . . . . . 18
2.2 APLICAÇÕES ELEMENTARES . . . . . . . . . . . . . 20
2.2.1 PVI de 1
o
ordem . . . . . . . . . . . . . . . . . . 20
2.2.2 PVI de 2
o
ordem . . . . . . . . . . . . . . . . . . 28
2.2.3 PVC de 2
o
ordem . . . . . . . . . . . . . . . . . 33
2.2.4 PVC de 2
o
ordem sem solução exata . . . . . . . 38
2.2.5 PVC de 2
o
ordem om oe ientes variáveis . . . 41
2.3 O MÉTODO DE GALERKIN COMO UM CASO ES-
PECIAL DO MÉTODO DE RESÍDUOS PONDERADOS 46
2.3.1 MGT Como Método de Resíduos Ponderados . . 47
3 EQUAÇO DE BURGERS 49
CONCLUSO 67
REFERÊNCIAS 68
Capítulo 1
INTRODUÇO
Um dos maiores desaos no ampo dos sistemas omplexos é
entendimento do fenmeno de turbulên ia. Simulações numéri as di-
retas têm ontribuído substan ialmente para o entendimento dos fen-
menos de es oamento desordenados que o orrem quando o número de
Reynolds é muito alto.
No entanto ainda não existe uma teoria de su esso de turbu-
lên ia que permitiria a des rição de fenmenos si amente importantes
tais omo mistura turbulenta, onve ção turbulenta e ombustão tur-
bulenta, baseada nas equações fundamentais da dinâmi a de uidos.
Isso se deve ao fato de que mesmo no aso de uidos mais sim-
ples possível, que são os hamados uidos newtonianos in ompressíveis,
é ne essário levar em onta tanto propriedades não-lineares quanto não-
lo ais, através da equação de Navier-Stokes:
ρ
(
∂u(x, t)
∂t+ u(x, t) · ∇u(x, t)
)
= ∇p(x, t) + µ∇2u(x, t), (1.0.1)
sendo ρ a densidade do uido, u(x, t) o ampo de velo idades do uido,
p a pressão e µ a vis osidade. Com a hipótese de in ompressibilidade
14
a equação de ontinuidade impli a que
∇ · u(x, t) = 0. (1.0.2)
A não-linearidade é oriunda do termo onve tivo e do termo de
pressão, enquanto que a não-lo alidade é devida ao termo de pressão.
Em 1939 o físi o holandês J.M. Burgers (Burgers,1948) simpli ou a
equação de Navier-Stokes (1.0.1),desprezando o termo de pressão. Ao
ontrário da (1.0.1), a equação de Burgers resultante agora pode ser
estudada em uma dimensão espa ial:
∂u(x, t)
∂t+ u(x, t)
∂u(x, t)
∂x=
µ
ρ
∂2u(x, t)
∂x2. (1.0.3)
Esta equação é não-linear e a prin ípio, é esperado que ela apre-
sente omportamento similar ao turbulento. No entanto, foi mostrado
por Hopf (Hopf,1950) e Cole (Cole,1951) que a equação de Burgers a-
re e da mais importante propriedade atribuída à turbulên ia, ou seja,
as soluções não exibem ara terísti as aóti as, tais omo a sensibili-
dade relativa às ondições ini iais.
Isto pode ser mostrado expli itamente através da transforma-
ção de Hopf-Cole, que transforma a equação de Burgers em uma equa-
ção linear parabóli a. Do ponto de vista omputa ional a importân ia
de tal fato reside no fato de ser possível a omparação das soluções
obtidas numéri amente om a exata.
Tal omparação é importante para investigar a qualidade o
método numéri o ou assintóti o utilizado. Além disso, a equação por
si só tem apli ações interessantes em físi a. É interessante notar ainda
que a transformação de Hopf-Cole pode ser generalizada para diversas
outras equações não-lineares interessantes (Miskinis, 2013).
Neste trabalho serão usados métodos de Galerkin para estudar
a equação de Burgers (1.0.3), em parti ular o Método de Galerkin Tra-
di ional. Será apresentada a seguir uma breve des rição deste método.
OMétodo de Galerkin Tradi ional (MGT) é um aso parti ular
15
entre os diversos métodos de resíduos ponderados (Boyd, 2001). Neste
aso, as seguintes ondições devem ser satisfeitas:
1. As funções de teste (peso) wk são es olhidas a partir da mesma
família das funções tentativa φj .
2. As funções teste e tentativa são linearmente independentes.
3. As funções teste e tentativa devem ser os primeiros N membros
de um onjunto ompleto de funções.
4. As funções de teste devem satisfazer as ondições de ontorno (ou
ini iais) exatamente.
A ondição 1 dene o método de Galerkin e a ondição 2 é
ne essária para garantir que há equações independentes para obter os
oe iente des onhe idos aj. As ondições 3 e 4 estão rela ionadas à
e iên ia do método. A violação destas ondições reduz a e iên ia
omputa ional.
Como o MGT foi originalmente riado e usado omo um mé-
todo manual ou no máximo omo um método para al uladoras, sua
e iên ia era normalmente medida em termos da a urá ia da solução
por unidade de esforço manual. Isso laramente enfatiza o uso do menor
número possível de oe ientes aj , obtendo uma ainda uma a urá ia
a eitável.
Supondo que as ondiçes 1 a 4 são satisfeitas, o úni o aminho
restante para a melhoria da a urá ia da solução envolve a onveniente
es olha das funções-tentativa. É um fato onhe ido que o uso de po-
linmios puramente lo ais, lineares, omo funções-tentativa e funções
de teste, produzem resultados de menor a urá ia, em geral, do que
aquele obtido usando polinmios não-lo ais de grau superior (Flet her,
1984).
Para ilustrar e omparar o método de Galerkin tradi ional a
equação de Burgers (1.0.1) será estudada. Uma omparação do método
poderá ser observada omparando as soluções aproximadas om a so-
16
lução exata desta equação.
17
Capítulo 2
O MÉTODO DE
GALERKIN
TRADICIONAL
Neste apítulo o Método de Galerkin Tradi ional (MGT) é des-
rito e apli ado a problemas de valor in ial e de ontorno asso iado e
equações diferen iais ordinárias. Será mostrado além disso que o MTG
é um aso espe ial do método dos resíduos ponderados.
2.1 DESCRIÇO DO MÉTODO
A ideia de Galerkin pode ser des rita através de um problema
bidimensional onde por exemplo ela é governada por uma equação di-
feren ial linear:
B(s) = 0, em γ, (2.1.1)
s = 0, em ∂γ,
18
sendo γ ⊂ R2um domínio limitado, ∂γ a fronteira de γ e s : γ → R é
uma função a ser en ontrada, então assume-se u ∈ L2(γ), sendo L2(γ)
um espaço vetorial de funções denidas em γ, e que B é um operador
diferen ial linear denido em L2(γ). As ondições de ontorno para
este problema são
s|∂γ = 0. (2.1.2)
No Método de Galerkin Tradi ional é suposto que s pode ser
representado por uma solução aproximada s, des rita assim
s(x, y) = s0(x, y) +N∑
j=1
ajφj(x, y), (2.1.3)
sendo s0(x, y) uma função denida de modo a satisfazer as ondições de
ontorno, os aj são oe ientes a determinar, e os φj(x, y) são funções
analíti as onhe idas hamadas funções de base ou funções de teste
que devem satisfazer essas ondições: ser linearmente independentes;
satisfazer as ondições de ontorno homogêneas do problema B(s) = 0
e todas as soluções verdadeiras são limite de alguma sequên ia formada
por funções de base, ou seja, uma sequên ia de funções de base tende
para a solução verdadeira no espaço que ontêm as soluções verdadeiras.
Se houver falha em qualquer destas ondições reduz a e iên ia
do método. Substituindo a solução aproximada na equação obtém-se o
resíduo, R, dado por
R(a0, a1, . . . , aN , x, y) = B(s) (2.1.4)
= B(s0) +
N∑
j=1
ajB(φj). (2.1.5)
Denindo o produto interno 〈f, g〉 em L2(γ) da seguinte ma-
neira
〈f, g〉 =∫∫
γ
fg dxdy. (2.1.6)
Os oe ientes aj na equação (2.1.5) são obtidos resolvendo o
19
sistema de equações
〈R, φk〉 = 0, k = 1, 2, . . . , N. (2.1.7)
Aqui, os φk, são as mesmas funções analíti as que apare em na
equação, mas neste aso são hamadas de funções de peso ou funções de
ponderação (quando as funções de base e de peso são diferentes tem-se
outros métodos para tratar equações diferen iais. A última igualdade é
hamada de ondição de Galerkin e equivale a dizer que R deve ser orto-
gonal às funções de base φ1, φ2, . . . , φN usadas na aproximação s(x, y).
Como B é um operador diferen ial linear, a equação pode ser
es rita na forma
N∑
j=1
aj〈B(φj), φk〉 = −〈B(s0), φk〉. (2.1.8)
Os oe ientes aj são os autovalores desta equação. Uma vez
determinados estes oe ientes, a equação forne e a solução aproximada
s(x, y) que também pode ser hamada de solução teste ou função ten-
tativa.
2.2 APLICAÇÕES ELEMENTARES
Para um maior entendimento sobre os on eitos estabele idos,
esta seção apresenta alguns exemplos, ujas soluções exatas são onhe-
idas.
2.2.1 PVI de 1
o
ordem
O objetivo neste exemplo é testar a a urá ia do MGT apli ado
a um PVI de primeira ordem de uma EDO que é regido pela seguinte
equação:
dy(x)
dx− 2xy(x)− x = 0, (2.2.9)
20
sujeita à ondição ini ial y(0) = 0. A solução exata é dada por:
y(x) = −1
2+
1
2exp(x2). (2.2.10)
Vamos agora propor uma solução tentativa de funções de base
monomiais:
U =
N∑
i=1
cixi. (2.2.11)
Onde a parte dada pelo somatório deve satisfazer ondições de
ontorno homogêneas. Substituindo a solução tentativa (2.2.11) na eq.
(2.2.9), tem-se o resíduo
R =
(
d
dx
N∑
i=1
cixi
)
−(
2x
N∑
i=1
cixi
)
− x
=
(
N∑
i=1
ciixi−1
)
−(
2x
N∑
i=1
cixi
)
− x. (2.2.12)
O produto interno entre R e φk, que determina os oe ientes
cj é dado por
〈R, xk〉 =
⟨
N∑
i=1
ciixi−1 − 2x
N∑
i=1
cixi − x, xk
⟩
=
∫ 1
0
(
N∑
i=1
ciixi−1(xk)− 2x
N∑
i=1
cixi(xk)− x(xk)
)
dx
=
∫ 1
0
N∑
i=1
ciixi−1(xk)dx −
∫ 1
0
2x
N∑
i=1
cixi(xk)dx
−∫ 1
0
x(xk)dx. (2.2.13)
21
Resolvendo as integrais obtém-se
〈R, xk〉 =N∑
i=1
ciixi+k
i+ k
∣
∣
∣
∣
1
0
−N∑
i=1
ci2xi+k+2
i+ k + 2
∣
∣
∣
∣
1
0
− xk+2
k + 2
∣
∣
∣
∣
1
0
=
N∑
i=1
ci
(
i
i+ k− 2
i+ k + 2
)
− 1
k + 2. (2.2.14)
Usando a ondição de Galerkin (2.1.7)
N∑
i=1
ci
(
i
i+ k− 2
i+ k + 2
)
− 1
k + 2= 0, (2.2.15)
de modo que
N∑
i=1
ci
(
i
i+ k− 2
i+ k + 2
)
=1
k + 2. (2.2.16)
Esta equação pode ser representada na forma matri ial
Mc = T, (2.2.17)
sendo os elementos de M e T des ritos respe tivamente por
mki =i
i+ k− 2
i+ k + 2, (2.2.18)
tk =1
k + 2, (2.2.19)
e c o vetor dos oe ientes ci. De maneira explí ita:
m11 . . . m1N
.
.
.
.
.
.
.
.
.
mN1 · · · mNN
c1.
.
.
cN
=
1.
.
.
1
N
. (2.2.20)
A seguir, en ontra-se os oe ientes ci para diferentes valores de N .
22
N = 1
Para este valor de N , a eq. (2.2.20) torna-se uma representação
de matrizes unitárias da forma
[
m11
] [
c1
]
=[
1
3
]
. (2.2.21)
Mas, omo denido na eq. (2.2.18), sabe-se que
m11 =1
1 + 1− 2
1 + 1 + 2= 0, (2.2.22)
e imediatamente, obtém-se c1 = 0. Desta forma, a primeira aproxima-
ção é
y1(x) = 0. (2.2.23)
N = 2
Agora, a eq. (2.2.20) torna-se
[
m11 m12
m21 m22
][
c1
c2
]
=
[
1
3
1
4
]
. (2.2.24)
Cal ulando os elementos da matriz M onforme a eq. (2.2.22), obtém-
se
[
0 4
15
− 1
15
1
6
][
c1
c2
]
=
[
1
3
1
4
]
, (2.2.25)
de modo que
c1 =5
4e c2 =
19
10. (2.2.26)
Assim, a solução aproximada para este aso
y2(x) =5
4x+
19
10x2. (2.2.27)
N = 3
23
Neste aso, a onguração matri ial Mc = T
m11 m12 m13
m21 m22 m23
m31 m32 m33
c1
c2
c3
=
1
3
1
4
1
5
. (2.2.28)
Até este momento, fez-se os ál ulos dos elementos da matriz
M manualmente utilizando a eq. (2.2.20). Agora, será utilizada a om-
putação algébri a om o objetivo de fali itar este pro esso. A seguir,
está exposto o pro edimento iterativo para a obtenção dos elementos
matri iais pro urados.
Abaixo, é denida uma iteração para k e i:
>for k from 1 to 3 do
for i from 1 to 3 do
print(m[k,i=(i/(i+k))-(2/(k+i+2)));
od;
od;
As saídasmki, forne em todos os elementos da matrizM , que ompleta
a eq. (2.2.28), tornando-a
M =
0 4
15
5
12
− 1
15
1
6
11
35
− 1
12
4
35
1
4
, (2.2.29)
t =
1
3
1
4
1
5
. (2.2.30)
Resolvendo os oe ientes obtemos:
c1 =144
385, c2 = −15
22, c3 =
68
55. (2.2.31)
24
Portanto, a aproximação é dada por:
y3(x) =144
385x− 15
22x2 +
68
55x3. (2.2.32)
Comparemos esta aproximação om a solução exata:
Figura 2.1: Solução exata e aproximação.
Fonte: Produção do próprio autor
Visualmente as duas soluções são distinguíveis, porém om ur-
vatura idênti a e quase sobrepostas. Façamos o grá o do erro:
25
Figura 2.2: Erro
Fonte: Produção do próprio autor
Vemos que mesmo as urvas sendo próximas há um erro on-
siderável. Agora faremos uma aproximação para N=10, omparando
esta aproximação om a solução exata obtivemos:
26
Figura 2.3: Solução exata e aproximação.
Fonte: Produção do próprio autor
Visualmente as duas soluções são indistinguíveis, pois agora
obtivemos uma melhor aproximação da equação polinomial. Façamos
então o grá o do erro:
27
Figura 2.4: Erro
Fonte: Produção do próprio autor
A a urá ia do método é notável. No entanto, tal a urá ia on-
tinua a melhorar quando N res e ilimitadamente.
2.2.2 PVI de 2
o
ordem
O objetivo neste exemplo é testar a a urá ia do MGT apli ado
a um PVI de segunda ordem de uma EDO denido por:
d2y(x)
dx2+ x
dy(x)
dx+ y(x) = 0, y(0) = 1 e y′(0) = 2. (2.2.33)
A solução exata é dada por:
y(x) =−i
√π√2erf
(
1/2 i√2x)
exp(1/2 x2)+
1
exp(1/2 x2). (2.2.34)
28
Vamos agora propor uma solução tentativa de funções de base mono-
miais:
U = 1 + 2x+
N∑
i=2
cixi. (2.2.35)
Onde a parte dada pelo somatório deve satisfazer ondições de on-
torno homogêneas. Substituindo a solução tentativa (2.2.35) na equa-
ção (2.2.33), tem-se o resíduo
R =
(
d2
dx2
)
(
1 + 2x+
N∑
i=2
cixi
)
+ x
(
d
dx
)
(
1 + 2x+
(
N∑
i=2
cixi
))
+1+ 2x+
(
N∑
i=2
cixi
)
=
(
N∑
i=2
icixi−2(i− 1)
)
+ 4x+ x
(
N∑
i=2
icixi−1
)
+ 1 +
N∑
i=2
cixi.
(2.2.36)
O método de Galerkin exige que o produto interno entre o
resíduo e as funções de base seja zero, ou seja, usando o produto interno
onforme em (2.1.6) e en ontrando os respe tivos valores de ci onforme
(2.1.7), vamos utilizar os mesmos pro edimentos anteriores e supor que
N=3, então para este valor de N en ontramos uma representação de
matrizes da seguinte forma:
M =
[
0 33 108
0 279
4
1242
5
]
, (2.2.37)
t =
[
−21
− 81
2
]
. (2.2.38)
Resolvendo os oe ientes obtemos:
c2 = −52
41, c3 =
95
492. (2.2.39)
29
Portanto, a aproximação é dada por:
y1(x) = 1 + 2x− 52
41x2 +
95
492x3. (2.2.40)
Comparemos esta aproximação om a solução exata:
Figura 2.5: Solução exata e aproximação.
Fonte: Produção do próprio autor
Visualmente as duas soluções são distinguíveis. Façamos o grá-
o do erro:
30
Figura 2.6: Erro
Fonte: Produção do próprio autor
Para este valor de N o erro já pode ser onsiderado muito pe-
queno. Agora faremos uma aproximação para N=10, omparando esta
aproximação om a solução exata temos:
31
Figura 2.7: Solução exata e aproximação.
Fonte: Produção do próprio autor
Visualmente as duas soluções estão sobrepostas. Façamos o
grá o do erro:
32
Figura 2.8: Erro
Fonte: Produção do próprio autor
Para este valor de N nossa aproximação é satisfatória.
2.2.3 PVC de 2
o
ordem
Resolvamos agora o problema de valor de ontorno de segunda
ordem
d2y(x)
dx2− 2y(x)− 1 = 0, (2.2.41)
sujeita à ondição de ontorno y(0) = 0, y(1) = 0. A solução exata é
dada por
y(x) =1
2
e√2x
e√2 + 1
+1
2
e−√2xe
√2
e√2 + 1
− 1
2. (2.2.42)
Vamos agora propor uma solução tentativa usando N funções
de base monomiais que se ajuste às ondições ini iais:
U =
N∑
k=1
ck(xk − xk+1). (2.2.43)
33
O resíduo é dado por substituição da solução tentativa (2.2.43)
na equação (2.2.41), tem-se o resíduo
R =
(
d2
dx2
N∑
k=1
ck(xk − xk+1)
)
− 2
(
N∑
k=1
ck(xk − xk+1)
)
− 1
=
(
N∑
k=1
ckk(xk−2k − xk−2 − xk−1k − xk−1)
)
−2
(
N∑
k=1
ck(xk − xk+1)
)
− 1. (2.2.44)
O método de Galerkin exige que o produto interno entre o
resíduo e as funções de base seja zero, ou seja,usando o produto interno
onforme em (2.1.6) e en ontrando os respe tivos valores de ci onforme
(2.1.7), vamos utilizar os mesmos pro edimentos anteriores.
N = 3
Colo ando em forma matri ial:
M =
− 2
5− 1
5− 5
42
− 1
5− 16
105− 47
420
− 5
42− 47
420− 59
630
, (2.2.45)
t =
1
6
1
12
1
20
. (2.2.46)
Resolvendo para os oe ientes obtemos:
c1 = −133
309, c2 =
7
103, c3 = − 7
103. (2.2.47)
Portanto, a aproximação é dada por
y1(x) = −133
309x+
154
309x2 − 14
103x3 +
7
103x4. (2.2.48)
Comparemos esta aproximação om a solução exata.
34
Figura 2.9: Solução exata e aproximação
Fonte: Produção do próprio autor
Visualmente as duas soluções são indistinguíveis, iremos au-
mentar a a urá ia da nossa função aproximada. Façamos o grá o do
erro:
35
Figura 2.10: Erro
Fonte: Produção do próprio autor
Veri amos que o erro é da ordem 10−6. Então para N=10
teremos a seguinte aproximação, visualizando no grá o omparamos
esta aproximação om a solução exata:
36
Figura 2.11: Solução exata e aproximação
Fonte: Produção do próprio autor
Visualmente as duas soluções ontinuam indistinguíveis, pois
onseguimos om N=10 a a urá ia ainda maior. Façamos o grá o do
erro:
37
Figura 2.12: Erro
Fonte: Produção do próprio autor
Aqui obtemos um erro de 10−15. Vemos que quanto maior o
N, mais pre isa a nossa aproximação.
2.2.4 PVC de 2
o
ordem sem solução exata
Resolvamos agora o problema de valor de ontorno de segunda
ordem sem solução exata:
d2y(x)
dx2+ x
dy(x)
dx+ (x− 2)y(x)− sin(x)
x− 2= 0, (2.2.49)
A ondição de ontorno é
y(0) = 0, y(1) = 0. (2.2.50)
Determinaremos uma solução numéri a para equação om o omando
do Maple:
38
sol_num:=dsolve(eq, on,y(x),numeri ).
Vamos agora propor uma solução tentativa usando N funções
de base monomiais que se ajuste às ondições ini iais:
U =
N∑
k=1
ck(xk − xk+1). (2.2.51)
O resíduo é dado pela substituição da equação tentativa (2.2.51)
na equação dada (2.2.49), assim:
R =d2
dx2
N∑
k=1
ck(xk − xk+1) + x
d
dx
N∑
k=1
ck(xk − xk+1)
+(x− 2)
N∑
k=1
ck(xk − xk+1)− sin(x)
x− 2. (2.2.52)
O método de Galerkin exige que o produto interno entre o
resíduo e as funções de base seja zero, ou seja, usando o produto interno
onforme em (2.1.6) e en ontrando os respe tivos valores de ci onforme
(2.1.7), vamos utilizar os mesmos pro edimentos anteriores e supor que
N=3, então a aproximação é dada por
y1(x) = 0.0914 x+ 0.0055 x2 − 0.0835 x3 − 0.0134 x4. (2.2.53)
Comparemos esta aproximação om a solução numéri a:
39
Figura 2.13: Aproximação
Fonte: Produção do próprio autor
Visualmente as soluções são indistinguíveis. Determinaremos
uma estimativa para o máximo valor da diferença no intervalo para isso
deniremos um pro edimento:
maximo:=pro (U,sol_num)
lo al t,k,d,d1;
d1:=0;
for k from 10 to 1 by -1 do
t:=evalf(0+1/k);
d:=abs(evalf(subs(x=t,U)-op(2,op(2,sol_num(t)))));
if d > d1 then
d1:=d:
fi;
od:
return(d1);
end:
40
No presente aso o erro é: 0.0000230535, ou seja, da ordem 10−5.
2.2.5 PVC de 2
o
ordem om oe ientes variáveis
Resolvamos agora o problema de valor de ontorno de segunda
ordem om oe ientes variáveis:
d2y(x)
dx2+ x
dy(x)
dx+ y(x)− sin(x) = 0, (2.2.54)
sujeita à ondição de ontorno
y(0) = 0, y(1) = 0. (2.2.55)
A solução exata é dada por
y(x) = (−1.027609688 i)e−0.5x2
erf(√
2 ix)
+1.0332 i(
erf(√
2 ix−√2)
+ erf(√
2 ix+√2))
e−0.5x2
. (2.2.56)
Vamos agora propor uma solução tentativa usando N funções
de base monomiais que se ajuste às ondições de ontorno:
U =
N∑
k=1
ck(xk − xk+1). (2.2.57)
O resíduo é dado por substituição da equação (2.2.57) na equa-
41
ção (2.2.54), então
R =d2
dx2
N∑
k=1
ck(xk − xk+1) + x
d
dx
N∑
k=1
ck(xk − xk+1) +
N∑
k=1
ck(xk − xk+1)− sin(x)
= −N∑
k=1
ckk(
−xk−2k + xk−2 + xk−1k + xk−1)
+
x
N∑
k=1
ck(
xk−1k − xkk − xk)
+
N∑
k=1
ck(
xk − xk+1)
− sin (x) . (2.2.58)
O método de Galerkin exige que o produto interno entre o
resíduo e as funções de base seja zero, ou seja, usando o produto interno
onforme em (2.1.6) e en ontrando os respe tivos valores de ci onforme
(2.1.7), vamos utilizar os mesmos pro edimentos anteriores e supor que
N=3, então para este valor de N en ontramos uma representação de
matrizes da seguinte forma:
M =
− 19
60− 3
20− 3
35
− 1
6− 9
70− 79
840
− 11
105− 1
10− 211
2520
, (2.2.59)
t =
2− 2 cos(1)− sin(1)
−2 + 5 sin(1)− 4 cos(1)
−24 + 17 sin(1) + 18 cos(1)
. (2.2.60)
Resolvendo para os oe ientes obtemos a aproximação
y1(x) = −0.1784x− 0.0188x2 + 0.2923x3 − 0.0951x4. (2.2.61)
Comparemos om a solução exata.
42
Figura 2.14: Solução exata e aproximação
Fonte: Produção do próprio autor
Visualmente as duas soluções são indistinguíveis. Façamos o
grá o do erro:
43
Figura 2.15: Erro
Fonte: Produção do próprio autor
O erro aqui é da ordem de 10−5. Então para N=7 estaremos
aumentando a a urá ia da nossa função aproximada, veriquemos:
y2(x) = −0.2x+ 0.2x2 + 100x5 − 100x6. (2.2.62)
No grá o observamos uma melhor aproximação das funções:
44
Figura 2.16: Solução exata e aproximação
Fonte: Produção do próprio autor
Visualmente elas são indistinguíveis, pois onseguimos om N=7
uma a urá ia signi ativa. Façamos o grá o do erro:
45
Figura 2.17: Erro
Fonte: Produção do próprio autor
Aqui o erro atinge a ordem de 10−7.
2.3 O MÉTODO DE GALERKIN COMO
UM CASO ESPECIAL DO MÉTODO
DE RESÍDUOS PONDERADOS
Estudou-se até aqui aspe tos do MGT, porém, esta represen-
tação pode ser lassi ada omo um dos tratamentos dos métodos de
resíduos ponderados (MRPs). Neste apítulo, apresenta-se o método
de Galerkin omo um aso espe ial do método de resíduos ponderados
(MRP).
46
2.3.1 MGT Como Método de Resíduos Ponderados
As funções de ponderação são es olhidas a partir da mesma
família, omo as funções de teste então se as funções formarem um
onjunto ompleto, indi a que o resíduo deve ser ortogonal a todos os
membros do onjunto ompleto. Assim, para problemas não lineares,
onde um pro esso iterativo é ne essário o monitoramento vai indi ar o
progresso no sentido da onvergên ia e das regiões do domínio onde a
onvergên ia é pior.
Os vários métodos de resíduos ponderados foram omparados
por Flet her (1983). Além disso, Flet her faz a seguinte observação,
"O método de Galerkin produz resultados onsistentemente de alta
pre isão e tem uma amplitude de apli ação tão vasta omo qualquer
método de ponderação de resíduos ".
O MRP ini ialmente foi onsiderado omo uma ideia seme-
lhante ao prin ípio da distribuição de erro. Somente algum tempo de-
pois os MRPs puderam ser onsiderados omo uma lasse de métodos
numéri os. Para a sua des rição onsidera-se uma equação diferen ial
, om as ondições ini iais e as ondições de ontorno denidas.
Pode-se dizer então, que os MRPs onduzem a um sistema
de equações algébri as, desta forma a utilização da metodologia de
apli ação do MRP pode ser dividida em três etapas:
1. a es olha da função teste que é de grande importân ia para a e-
á ia dos MRPs, uma vez que tal es olha en ontra-se diretamente
rela ionada à pre isão e à velo idade om que a solução numéri a
é obtida;
2. es olha de um ritério de ponderação, pois através dela muitos
métodos que pare em independentes am orrela ionados;
3. obtenção da solução aproximada.
Para en ontrar a melhor aproximação possível, devemos es o-
lher os oe ientes de modo que o resíduo seja minimizado. Os diferen-
47
tes métodos espe trais e pseudo-espe trais diferem essen ialmente em
suas estratégias de minimização.
48
Capítulo 3
EQUAÇO DE
BURGERS
A apli ação do método tradi ional Galerkin para a equação
Burgers é mais ompli ada do que para a equação diferen ial ordinária
onsiderada nas outras seções. Em primeiro lugar a equação de Burgers
é uma equação diferen ial par ial de modo que a apli ação do método
tradi ional de Galerkin produz um sistema de equações diferen iais
ordinárias que têm que ser integrados no tempo.
Em prin ípio, seria possível introduzir uma função de teste
que era uma função de duas variáveis independentes e por onseguinte,
obter um sistema de equações algébri as. No entanto, dependendo do
ál ulo, isso exigiria um esforço maior para resolver.
A segunda ompli ação é que a equação de Burgers é não linear
e a di uldade está em reduzir a equação diferen ial par ial a um sis-
tema de equações algébri as. Em seguida, um método iterativo, omo
o método de Newton, será ne essária. Considere a equação Burgers na
forma
∂u
∂t+ u
∂u
∂x− 1
Re
∂2u
∂x2= 0. (3.0.1)
Aqui u é a velo idade e Re o número de Reynolds. Esta equação
49
é um bom modelo para as equações de Navier-Stokes.
Apesar da não-linearidade, esta equação possui uma solução
exata para muitas ombinações de ondições ini iais e ondições de
ontorno. Por esta razão a equação de Burgers é frequentemente usada
omo teste de efetividade. Por simpli idade serão usadas as ondições
de ontorno
u(−1, t) = 1, u(1, t) = 0, (3.0.2)
e as ondições ini iais:
u(x, 0) =
1, −1 ≤ x ≤ 0,
0, 0 < x ≤ 1.(3.0.3)
As equações (3.0.1) a (3.0.3) governam uma situação físi a,na
qual onda de hoque ini ialmente des ontínua se propaga para a direita.
Apesar de que seria possível introduzir uma solução de aproximação,
é preferível desenvolver a solução teste omo uma série as endente de
polinmios de Chebyshev.
A razão para isso é que ao interpolar a função om maior a u-
rá ia, parti ularmente próximo das fronteiras x = ±1 as equações re-
sultantes são mais bem ondi ionadas do que as funções de teste poli-
nomiais. Ao interpolar valores de funções, os problemas asso iados às
variações do polinmio podem ser amenizados se es olhermos os pontos
de interpolação.
Se, ao ontrário de es olhermos pontos igualmente distan ia-
dos, es olhermos pontos mais a umulados nas extremidades do inter-
valo, podemos en ontrar melhores resultados. Uma es olha usual são
os zeros dos polinmios de Chebyshev, dados no intervalo [-1, 1 pela
relação de re orrên ia:
T0(x) = 1, (3.0.4)
T1(x) = x, (3.0.5)
Tn+1(x) = 2xTn(x) − Tn−1(x). (3.0.6)
50
Outra razão para a es olha dos polinmios de Chebys hev omo
funções tentativa, é que eles são ortogonais no intervalo [-1, 1, om
relação ao peso, se
w =1√
1− x2, (3.0.7)
ou seja,
(f, g) =
∫ 1
−1
f(x)g(x)1√
1− x2dx, (3.0.8)
nessas ondições
Ti, Tj =
0, i 6= jπ2, i = j 6= 0
π, i = j = 0
(3.0.9)
Pode ser visto, a partir da natureza da função peso, que o uso de
polinmios de Chebyshev dá mais importân ia aos pontos adja entes
x = ±1.A importân ia de onsiderar as funções tentativa é que os
valores ini iais dos oe ientes aj da expansão
ua(x, t) =N∑
j=0
aj(t)Tj(x), (3.0.10)
são es olhidos apli ando o método de Galerkin nos dados ini iais e seus
resultados à solução exata:
(ua − u0, Tk) = 0, k = 0, ..., N. (3.0.11)
Substituindo a solução tentativa (3.0.10) na equação de Burgers
(3.0.1), obtemos o resíduo:
R =∑
j
dajdt
Tj +∑
j
aj∑
i
aiTj
dTi
dx− 1
Re
∑
j
ajd2Tj
dx2. (3.0.12)
51
Apli ando o método de Galerkin temos
∫ 1
−1
R Tk(x)dx = 0, k = 0, ..., N. (3.0.13)
Assim que apenas os primeiros derivados de Tj apare em torna-
se ne essário apli ar o teorema de Green para o termo vis oso. O
resultado global é:
M(Adot) + (B + C)A = 0, (3.0.14)
sendo A o vetor ujas omponentes são aj(t) e
d
dtaj(t), (3.0.15)
a matriz M é dada por
mk,j =
∫ 1
−1
Tj(x)Tk(x)dx, (3.0.16)
B é a matriz de omponentes
bk,j =∑
i
ai
∫ 1
−1
dTi(x)
dxTj(x)Tk(x)dx, (3.0.17)
e C é a matriz de omponentes
ck,j =1
Re
∫ 1
−1
dTj(x)
dx
dTk(x)
dxdx. (3.0.18)
O perl ini ial (3.0.3) forne e os valores ini iais para aj depois
de resolver o sistema de equações algébri as
MA = D, (3.0.19)
om
dk,j =
∫ 0
−1
Tk(x)dx. (3.0.20)
52
Vamos analisar esta apli ação num exemplo om estes polin-
mios ini iais:
T0(x) = 1, (3.0.21)
T1(x) = x. (3.0.22)
Os polinmios seguintes são gerados om o Maple:
for j to 4 do
T[j+1:=expand((2xT[j-T[j-1));
od;
T2 = 2x2 − 1; (3.0.23)
T3 = 4x3 − 3x; (3.0.24)
T4 = 8x4 − 8x2 + 1; (3.0.25)
T5 = 16x5 − 20x3 + 5x. (3.0.26)
Estes polinmios satisfazem as relações de produto interno:
∫ 1
−1
T0T0√1− x2
= π, (3.0.27)
∫ 1
−1
T1T1√1− x2
=π
2, (3.0.28)
∫ 1
−1
T2T2√1− x2
=π
2. (3.0.29)
Fazendo N = 1 e Re = 10 na função tentativa (3.0.10) torna-se
u1 = a0(t) + a1(t)x. (3.0.30)
A matriz M é gerada através do omando em Maple:
for i to N+1 do
for j to N+1 do
53
m[i,j:=int(T[i-1T[j-1, x=-1..1)
od;
od;
M =
2 0
0 2
3
(3.0.31)
Similarmente para a matriz B:
for k to N+1 do
for j to N+1 do
b[k,j:= add(a[i-1(t)*(int((diff(T[i-1,x))*T[j-1
*T[k-1,x=-1..1)),i=1..N+1)
end do
end
do;
B =
2 a1 (t) 0
0 2
3a1 (t)
. (3.0.32)
A matriz C é obtida do seguinte modo:
for m to N+1 do
for n to N+1 do
[m,n:=(1/RE)*int(diff(T[n-1,x)
*diff(T[m-1,x), x=-1..1);
od;
od;
C =
0 0
0 1
5
(3.0.33)
temos agora
A =
[
a0(t)
a1(t)
]
, (3.0.34)
e
Adot =
[
ddta0(t)
ddta1(t)
]
. (3.0.35)
54
Apli ando as ondições ini iais temos
for j from 0 to N do
d[j+1:=int(T[j,x=-1..0);
od;
d1 = 1, d2 = −1
2. (3.0.36)
ou seja,
DD =
[
1
− 1
2
]
. (3.0.37)
Portanto (3.0.19) torna-se:
2 0
0 2
3
·A =
1
− 1
2
. (3.0.38)
A matriz é então dada por
A =
[
1
2
− 3
4
]
, (3.0.39)
ou seja:
a0(0) = 0.5000,
a1(0) = −0.7500. (3.0.40)
Resolvendo o sistema de EDOs sujeita às ondições ini iais,
lembrando que o sistema de equações é integrado usando um esquema
de quarta ordem de Runge-Kutta, este sistema utiliza um tamanho
de passo variável no tempo, que é ajustado a ser tão grande quanto
possível sem ausar instabilidade. Assim, obtemos:
U = a0 (t) + a1 (t)x). (3.0.41)
Depois de um tempo xo, tipi amente t = 0, 92, a solução é
55
omparada om a solução exata.
a0 (t) = 1.25934348979188072,
a1 (t) = −1.43340914081269277. (3.0.42)
em Maple:
for j from 1 to N+1 do
A[j:=rhs(op(j+1,L1));
od;
A1 = 1.25934348979188072,
A2 = −1.43340914081269277. (3.0.43)
A solução é
U = 1.259343490− 1.43340914081269277x. (3.0.44)
Agora iremos testar para N = 3 e Re = 10. Apli ando os
mesmos ál ulos e omandos obtemos os seguintes valores:
56
Figura 3.1: Solução para N=3 e Re=10
Fonte: Produção do próprio autor
Agora para N = 7 e Re = 10, ou seja, vamos tornar nosso
Re=10 xo e variar o N. Apli ando os mesmos ál ulos e omandos
obtemos os seguintes valores:
U = 0.9390663811− 0.3096459438x− 1.222160170x2 −1.268983885x3 + 1.144408403x4 + 1.947701432x5 −0.3493896858x6 − 0.8252900461x7. (3.0.45)
Plotando o grá o obtemos:
57
Figura 3.2: Solução para N=7 e Re=10
Fonte: Produção do próprio autor
Conseguimos veri ar neste grá o que aumentando um pou o
o nosso N, já obtivemos menos os ilações que no primeiro grá o.
Agora analisaremos para N = 9 e Re = 10. Seguindo os mesmos
pro edimentos anteriores:
U = 0.9596117535− 0.3099882950x− 1.139706928x2 −1.800664497x3 + 0.7421560738x4+ 3.877555429x5 +
0.2679518703x6 − 3.274624275x7 − 0.3002931048x8 +
1.033784270x9. (3.0.46)
O grá o será:
58
Figura 3.3: Solução para N=9 e Re=10
Fonte: Produção do próprio autor
Continuamos a observar que as os ilações diminuiram. Agora
analisaremos para N = 11 e Re = 10. Seguindo os mesmos pro edi-
mentos anteriores temos:
U = 0.9520252292− 0.3076676006x− 1.002233449x2 −1.808715857x3 − 0.2749997391x4 + 4.083311918x5 +
3.018842484x6 − 3.987106747x7 − 3.352419824x8 +
1.902192358x9 + 1.186329585x10 −0.3539449106x11. (3.0.47)
O grá o obtido:
59
Figura 3.4: Solução para N=11 e Re=10
Fonte: Produção do próprio autor
Analisando de uma forma geral:
60
Figura 3.5: Análise dos resultados
Fonte: Produção do próprio autor
Visivelmente vemos que na Figura (3.5) indi a que o aumento
da pre isão na ordem res ente é essen ial.
Apartir de agora iremos testar para N = 3 e Re = 1, ou seja,
vamos tornar nosso N xo e variar o Re. Apli ando os mesmos ál ulos
e omandos obtemos os seguintes valores:
U = 0.5625138640− 0.5843957011x− 0.02935145568x2+
0.2109413555x3. (3.0.48)
Então:
61
Figura 3.6: Solução para N=3 e Re=1
Fonte: Produção do próprio autor
Para N = 9 e Re = 1, temos:
U = 0.5725763463− 0.6093575482x− 0.09167327643x2 +
0.3056011727x3+ 0.07280089544x4 − 0.09215602234x5−0.02489437250x6+ 0.02847815116x7+ 0.005210382083x8−0.005121514076x9. (3.0.49)
Sendo assim:
62
Figura 3.7: Solução para N=9 e Re=1
Fonte: Produção do próprio autor
As guras (3.6) e (3.7) apresentam a mesma semelhança. Então
faremos os ál ulos para N=9 e Re=10.
U = 0.9596117535+ 0.2679518703x6− 1.800664498x3
+0.7421560738x4+ 3.877555429x5 − 3.274624275x7
−0.3002931048x8+ 1.033784270x9 − 1.139706928x2
−0.3099882950x. (3.0.50)
Temos então:
63
Figura 3.8: Solução para N=9 e Re=10
Fonte: Produção do próprio autor
Cada solução foi obtida a um tempo diferente e o número de
Reynolds é para aumentar a nitidez de hoque, e isto pode ser visto,
mais fa ilmente, por meio da omparação das soluções. Isso demonstra
a sua in apa idade para a ompanhar o perl exato através do desen-
volvimento de os ilações onsideráveis no espaço adja ente ao lo al do
hoque.
Faremos para N=9 e Re=30.
U = 3.342721532− 2.150646994x− 18.48302069x2 −3.46928390x3 + 59.06216767x4 + 17.39155035x5 −86.06742486x6 − 11.8945881x7 + 45.77826833x8 −3.340036296x9. (3.0.51)
Visualizando:
64
Figura 3.9: Solução para N=9 e Re=30
Fonte: Produção do próprio autor
Comparado os resultados gra amente:
65
Figura 3.10: Análise dos resultados
Fonte: Produção do próprio autor
Tais resultados estão de a ordo om Flet her (Flet her, 1984).
66
CONCLUSO
Neste trabalho foi feita uma revisão do método de Galerkin
Tradi ional, de a ordo om Flet her (Flet her, 1984), usando o sis-
tema de omputação algébri a Maple. Estendendo o trabalho de Costa
(Costa, 2013) o método foi apli ado à equação de Burgers, que é uma
equação diferen ial par ial não-linear extensamente usada para teste de
métodos numéri os e de aproximação.
Um dos prin ipais objetivos deste trabalho foi mostrar omo
a omputação algébri a pode ser útil em métodos de aproximações
analíti as. Mesmo problemas asso iados ao mal- ondi ionamento de
sistemas asso iados à determinação dos oe ientes de expansão da
aproximação, quando as funções de base não são ortogonais, podem ser
evitados usando aritméti a ra ional.
Uma extensão natural deste trabalho onsiste na onstrução
em Maple do método de Galerkin de elementos nitos para apli ação à
equação de Burgers e outros problemas não-lineares.
67
REFERÊNCIAS
BARLETT, E. P.; KENDALL, R. M. An analysis of the oupled hemi-
ally rea ting boundary layer and harring ablator, Parte 2. National
Aeronauti s and Spa e Administration, 1968.
BICKLEY, W. G. Experiments in approximating to solutions of a par-
tial dierential equation. Phil. Mag. J. S i. London, v. 32, n. 7, p.
50-66, 1941.
BURDEN, R. L.; FAIRES, J. D. Análise Numéri a. 8
a
edição.
São Paulo: Cengage, 2011.
CATTON, et al. Natural Conve tion Flow in a Finite Re tangular
Slot. International Journal of Heat and Mass Transfer. v. 17,
p. 173-184, 1974.
COIMBRA, M. C., SERENO, C., RODRIGUES, A. Appli ation of
moving nite element method. Chemi al Engineering S ien e. v.
30, p. 587-596, 2001.
COLLATZ, L. The numeri al treatment of dierential equa-
tions. 3
a
edição. Universidade de Mi higan: Springer, 1960.
COSTA, T.C. Método de Galerkin Tradi ional om Computa-
ção Algébri a., 2013.
CRUZ, P., MENDES, A; MAGALHES, F. D. High-order approxi-
mations for intra-parti le mass transfer. Chemi al Engineering
S ien e. v. 59 , p. 4393-4399, 2004.
DUNCAN, W.J. Galerkin's method in me hani s and dierential equa-
68
tions Aeronauti al Resear h Committee. n. 1798, 1937.
FINLAYSON, B. A. Pa ked Bed Rea tor Analysis by Orthogonal Col-
lo ation. Chemi al Engineering S ien e v. 26, p. 1081-1091, 1971.
FINLAYSON, B. A., The Method of Weighted Residuals and
Variational Prin iples. 1
a
edição. USA: A ademi Press, 1972.
FINLAYSON, B. A., SCRIVEN, L.E. The Method of Weighted Re-
siduals A review. Applied Me hani s Review. n. 9, v. 19,
setembro, p. 735-748, 1966.
FLETCHER, C. A. J. Computational Galerkin methods. Edi-
ção ilustrada. Universidade da Califórnia: Springer-Verlag, 1984.
FLETCHER, C. A. J.; HOLT, M. An improvement to the method
of integral relations. Comput. J. Comp. Phys. v. 18, p.154-164,
1975.
FRAZER, R. A.; JONES, W.P.,SKAN, S. W. Approximations to fun -
tions and to the solutions of dieren e equations. Gt. Brit. Aero.
Res. Coun il Reut and Memo. v.. 1, p. 517-549, 1937.
GEAR, C. W. Numeri al Solution of Ordinary Dierential Equations:
Is There Anything Left to Do? So iety for Industrial and Applied
Mathemati s. v.23, p.10-24, 1981.
HARRINGTON, R. F. Field Computation by Moment Methods.
Edição reimpressa. IEEE Antennas and Propagation So iety: Oxford
University Press, 1968.
ISAACSON, E.; KELLER, H. B. Analysis of numeri al methods.
1
a
edição. New York: Wiley, 1966.
69
KANTOROVICH, L. V.; KRYLOV, A. N. Approximate methods
of higher analysis. 2
a
edição. Universidade de Mi higan: Inters i-
en e, 1958.
KRYLOV, A. N. et al.A ademi ian B. G. Galerkin: On the seventi-
eth anniversary of his birth. Vestnik Akademii nauk SSSR. v.4,
9194, 1941.
MCGOWIN, C. R., PERLMUTTER, J. A Comparison of Te hniques
for Lo al Stability Analysis of Tubular Rea tor Systems. The Che-
mi al Engineering Journal. v. 2 , p. 125-132, 1971.
MIKHLIN, S. G. Variational methods in mathemati al physi s.
Universidade de Mi higan: Pergamon Press; [distributed by Ma mil-
lan, New York, 1964.
MURPHY, J. D. Appli ation of the Generalised Galerkin Method to
the Computation of Fluid Flows. Pro eedings 1st AIAA ompu-
tational uid dynami s onferen e. p. 63-68, 1973.
O'CONNOR, J. J., ROBERTSON, E. F., Biography of B.G.Galerkin.
Di tionary pf s ienti biography. New York, 1990.
PALLONE, A. J. Nonsimilar Solutions of the Compressible-Laminar
Boundary-Layer Equations with Appli ations to the Upstream-Transpiration
Cooling Problem. Aeronauti al S ien e Department. v. 28, 449-
456. 1961.
SOLOLOVSKI, V. V. On the life and s ienti areer of a ademi ian
B. G. Galerkin. Izvestiya Akademii nauk SSR, Otdelenie tekh-
ni heskikh nauk. v.8, p. 1159-1164, 1951.
70
71
Top Related