Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na...

15
Caracterizac ¸˜ ao de Reservat´ orios utilizando Invers˜ ao S´ ısmica atrav´ es de Redes Neurais Artificiais arcio Val´ erio Weck Pereira 1 Departamento de Inform´ atica e Estat´ ıstica – Universidade Federal de Santa Catarina (UFSC) Florin´ opolis – SC – Brasil [email protected] Abstract. Currently, the biggest challenge in Reservoir Characterization is the integration of data obtained from different sources in order to obtain an accurate model the reservoir. In order to integrate this data is necessary to detect patterns between the seismic in the well region and rock properties in place, and try to fill the region “between-wells” by recognizing these patterns, or variations of it. Therefore, in this study, we propose two techniques of Artificial Neural Networks, as such methods are already used to solve problems of recognition patterns and nonlinear regression. We used synthetic data for testing, one of them, created based on existing literature about modeling geophysical and the other obtained through collaboration with Petrobras. Finally, we present the results obtained with both networks and a brief discussion regarding the changes necessary to work with real data. Resumo. Atualmente, o maior desafio na Caracterizac ¸˜ ao de Reservat´ orios ´ ea integrac ¸˜ ao de dados, obtidos atrav´ es de diferentes fontes, de forma a obter um modelo preciso do reservat´ orio. Para integrar esses dados ´ e preciso detectar padr˜ oes entre a s´ ısmica na regi˜ ao do poc ¸o e as propriedades das rochas no lo- cal, e tentar preencher a regi˜ ao “entre-poc ¸os” atrav´ es do reconhecimento des- ses padr˜ oes, ou de variac ¸˜ oes dos mesmo. Para tanto, neste trabalho, s˜ ao propos- tas duas t´ ecnicas de Redes Neurais Artificiais. Foram utilizados dados sint´ eticos para realizac ¸˜ ao dos testes, um deles, criado com base na literatura existente a cerca de modelagem geof´ ısica e o outro obtido atrav´ es de colaborac ¸˜ ao com a Petrobras. Por fim, s˜ ao apresentados os resultados obtidos com ambas as redes al´ em de uma breve discuss˜ ao relacionada as modificac ¸˜ oes necess´ arias para se trabalhar com dados reais. 1. Introduc ¸˜ ao O processo de caracterizac ¸˜ ao de reservat´ orios envolvem uma s´ erie de etapas, que tem como objetivo, determinar a estrutura tridimensional e quantitativa e as propriedades de um campo de petr ´ oleo. A Invers˜ ao S´ ısmica ´ e o foco neste trabalho, sendo ela a respos´ avel por obter as propriedades uma vez que um modelo de dados contendo a s´ ısmica e dados de poc ¸os ´ e fornecido. Segundo [Sen 2006] e [Sheriff and Geldart 1995], a s´ ısmica, por si s´ o, contˆ em pouca informac ¸˜ ao sobre as propriedades de rocha. Basicamente, o conte´ udo de uma ısmica s˜ ao os valores de amplitude das ondas que refletiram nas camadas do subsolo. Essas ondas s˜ ao geradas a partir de explos˜ oes na superf´ ıcie, geradas por dinamites ou

Transcript of Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na...

Page 1: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

Caracterizacao de Reservatorios utilizando Inversao Sısmicaatraves de Redes Neurais Artificiais

Marcio Valerio Weck Pereira

1Departamento de Informatica e Estatıstica – Universidade Federal de Santa Catarina (UFSC)Florinopolis – SC – Brasil

[email protected]

Abstract. Currently, the biggest challenge in Reservoir Characterization is theintegration of data obtained from different sources in order to obtain an accuratemodel the reservoir. In order to integrate this data is necessary to detect patternsbetween the seismic in the well region and rock properties in place, and tryto fill the region “between-wells” by recognizing these patterns, or variationsof it. Therefore, in this study, we propose two techniques of Artificial NeuralNetworks, as such methods are already used to solve problems of recognitionpatterns and nonlinear regression. We used synthetic data for testing, one ofthem, created based on existing literature about modeling geophysical and theother obtained through collaboration with Petrobras. Finally, we present theresults obtained with both networks and a brief discussion regarding the changesnecessary to work with real data.

Resumo. Atualmente, o maior desafio na Caracterizacao de Reservatorios e aintegracao de dados, obtidos atraves de diferentes fontes, de forma a obter ummodelo preciso do reservatorio. Para integrar esses dados e preciso detectarpadroes entre a sısmica na regiao do poco e as propriedades das rochas no lo-cal, e tentar preencher a regiao “entre-pocos” atraves do reconhecimento des-ses padroes, ou de variacoes dos mesmo. Para tanto, neste trabalho, sao propos-tas duas tecnicas de Redes Neurais Artificiais. Foram utilizados dados sinteticospara realizacao dos testes, um deles, criado com base na literatura existente acerca de modelagem geofısica e o outro obtido atraves de colaboracao com aPetrobras. Por fim, sao apresentados os resultados obtidos com ambas as redesalem de uma breve discussao relacionada as modificacoes necessarias para setrabalhar com dados reais.

1. IntroducaoO processo de caracterizacao de reservatorios envolvem uma serie de etapas, que temcomo objetivo, determinar a estrutura tridimensional e quantitativa e as propriedades deum campo de petroleo. A Inversao Sısmica e o foco neste trabalho, sendo ela a resposavelpor obter as propriedades uma vez que um modelo de dados contendo a sısmica e dadosde pocos e fornecido.

Segundo [Sen 2006] e [Sheriff and Geldart 1995], a sısmica, por si so, contempouca informacao sobre as propriedades de rocha. Basicamente, o conteudo de umasısmica sao os valores de amplitude das ondas que refletiram nas camadas do subsolo.Essas ondas sao geradas a partir de explosoes na superfıcie, geradas por dinamites ou

Page 2: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

por canhoes de ar comprimido quando ocorrem no mar. Para recuperar mais informacoesda sısmica e preciso associa-la a um poco, processo conhecido como amarracao sısmica-poco. Atraves desse processo e possıvel relacionar padroes existentes no poco com osefeitos gerados na sısmica, como os picos de amplitudes.

Neste trabalho, sao utilizadas Redes Neurais Artificiais para realizar o processode Inversao Sısmica. Dois modelos distintos de redes sao aplicados, o Perceptron comMulticamadas [Haykin 1999] e a Regressao Geral [Specht 1991]. Esses modelos foramescolhidos, por estarem bem estabelecidos, serem robustos e faceis de modificar.

2. Redes Neurais

2.1. Perceptron Multicamadas

Provavelmente uma das RNAs mais populares atualmente, foi desenvolvida por[Rumelhart et al. 1988]. Cada neuronio nessa rede realiza a soma ponderada de suas en-tradas (net) e passa esse nıvel de ativacao atraves de uma funcao de transferencia (Φ(x))para produzir uma saıda. Estao arranjados numa estrutura Direta multicamadas. Tais re-des podem possuir mais de uma camada escondida e quantos neuronios forem necessariospara modelar a complexidade de uma funcao. Pelo teorema da Aproximacao Universal[Cybenko 1989], apenas uma camada escondida e o suficiente para a maioria dos proble-mas.

y =M∑i=1

wiΦ(neti). (1)

neti =N∑k=1

wkixk. (2)

As Equacoes 1 e 2 representam uma rede MLP, com um neuronio na camada de saıda, Mneuronios na camada escondida e N entradas. A Figura 1, mostra essa arquitetura.

Figura 1. Arquitetura de uma rede MLP, proposta por [Rumelhart et al. 1988].

O numero de entradas e saıdas e definido pelo problema, porem nem sempre etrivial encontrar quais entradas sao realmente uteis para a rede. Escolher o numero de

Page 3: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

neuronios presentes na camada escondida tambem nao e uma tarefa bem definida e por-tanto requer um ajuste empırico, uma tentativa inicial pode ser utilizar a metade da somadas entradas e saıdas [Bishop 1996].

Como as redes neurais devem receber entradas numericas e produzir saıdasnumericas, elas possuem uma funcao de transferencia capaz de receber uma entrada emqualquer intervalo e responder num intervalo restrito (efeito achatamento). Isso significaque deve existir um efeito de saturacao, em que as unidades (neuronios) sao sensıveis asentradas somente dentro de um determinado intervalo.

A funcao mais comum, utilizada e a logıstica (ou sigmoidal), com intervalo desaıda (0, 1) e sensıvel a entrada em (-1,1), porem esse e so um exemplo, de funcoes emformato S. O importante e que a funcao deve ter uma derivada, simples e contınua, e naoser decrescente, para que possa ser aplicado a regra Delta generalizada para treinar a rede.Motivo pelo qual a funcao degrau do antigo Perceptron nao e utilizada.

Devido ao efeito de achatamento, os valores devem ser reamostrados numa es-cala igual a area sensıvel das funcoes de transferencia, caso forem a entrada ou igual aointervalo de saıda, se forem o valores exemplo de saıda da rede.

2.2. Regressao GeralAo utilizar RNAs, normalmente um algoritmo de treinamento e empregado para fazer arede aprender com os exemplos fornecidos. A maioria das redes envolve algoritmos pesa-dos de otimizacao que requerem diversas passagens pelos dados para conseguir convergire modelar o problema.

As redes de Regressao Geral (GRNN) [Specht 1991] surgem com uma proposta deaprendizado diferente. Baseadas nas redes Probabilısticas [Specht 1990], a GRNN utilizaum aprendizado de um passo e que pode ser implementado diretamente na arquitetura darede. A PNN e utilizada para tarefas de classificacao, enquanto a GRNN e aplicada atarefas de estimacao de variaveis contınuas.

A GRNN implementa uma regressao nao-parametrica, utilizando a Janela de Par-zen como estimador de densidade probabilidade. Assim como as outras redes, nao haconhecimento previo do formato da funcao, sendo assim, e necessario um determinadonumero de amostras para aproximar a funcao. Essa liberdade, faz com que o estimadorpossa prever um grande numero de funcoes.

Ainda assim, a GRNN esta mais proxima de um estimador parametrico que asredes MLP, e portanto, nao requer tantos exemplos de treinamento como essa ultima.

A formulacao matematica da GRNN e dada da seguinte forma. Assuma quef(X, Y ) representa uma funcao contınua de densidade probabilidade conhecida, de umvetor X e uma variavel escalar Y. Se x for uma medicao de X. A media ponderada de Ydado x, tambem conhecida como regressao de Y em x, e dada por,

E[Y |x] =

∫∞−∞ Y f(x, Y )dY∫∞−∞ f(x, Y )dY

. (3)

Porem a densidade f(X,Y) nao e conhecida, e portanto deve ser estimada a partirdas observacoes de x e y. O estimador de densidade utilizado pela GRNN e a Janela deParzen [Parzen 1962].

Page 4: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

O estimador de probabilidade f(X, Y ) e baseado nos exemplos de treino xi e yi

das variaveis x e y, em que n e o numero de amostras e p e a dimensao do vetor x:

f(X, Y ) =1

(2π)(p+1)/2σ(p+1)

1

n

N∑i=1

exp

[−(X −Xi)

T (X −Xi)

2σ2

]exp

[−(Y − Yi)2

2σ2

].

(4)

Substituindo a Equacao 4 na Equacao 3, definindo a distancia euclidiana, D2i ,

D2i = (X −X i)T (X −X i) (5)

e resolvendo as integrais, obtemos:

Y (X) =

∑Ni=1 Yi exp

(− D2

i

2σ2

)∑N

i=1 exp(− D2

i

2σ2

) . (6)

A interpretacao fısica da Equacao 7 pode ser vista como uma aproximacao dafuncao atraves de gaussianas, que tem seus centros definidos como cada amostra do con-junto de treinamento. A abertura das gaussianas σ define a probabilidade de cada amostra,e probabilidade estimada e a soma dessas probabilidades.

Dessa forma, quando um exemplo novo e apresentado a rede, cada neuronio dis-para uma ativacao proporcional a sua participacao relativa aquela entrada, dado pelaP (x|j). A Figura 2 e a representacao grafica da rede.

Figura 2. Arquitetura da rede de regressao generalizada. Observe que existe acamada escondida assim como na MLP, com neuronios que sao ativados pelasentradas, a diferenca e a camada de soma, aonde um neuronio realiza uma somaponderada e outro uma soma simples.

O treinamento dessa rede consiste em definir os pesos e a abertura das gaussianas.Esse aprendizado e feito, substituindo cada wi, pelo Yi correspondente ao centro Xi, dadopela amostra (Xi, Yi). A abertura pode ser definida atraves de diversos metodos, porpadrao e apenas um parametro a ser definido pelo usuario, porem podem ser aplicadosalgoritmos de otimizacao para decidir qual a melhor valor para o σ.

Page 5: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

2.2.1. Agrupamento

A desvantagem da GRNN e a geracao desnecessaria de diversos neuronios, ja que porpadrao, cada exemplo de treinamento e representado por um neuronio, sendo assim,quanto mais dados forem fornecidos a rede, maior ela fica e mais calculos sao realizados,em contrapartida, o resultado melhora. Esse crescimento se torna inviavel para problemascom um conjunto de exemplos grande disponıvel. Para resolver esse problema, sao utili-zadas tecnicas de agrupamento no conjunto de entradas, para entao definir neuronios querepresentem esses grupos, reduzindo o tamanho da rede [Specht 1991].

A proposta de [Specht 1991] para gerar os neuronios que representam os gruposgerados e a seguinte modificacao na Equacao 7:

Y (X) =

∑Ni=1Ai exp

(− D2

i

2σ2

)∑N

i=1Bi exp(− D2

i

2σ2

) , (7)

aonde Ai e Bi sao definidos por,

Anew = Aold + Yi, (8)

Bnew = Bold + 1.

e Yi sao os pesos anteriormente relacionados a cada neuronio. Dessa forma e possıvelagrupar durante a construcao da rede, aonde neuronios semelhantes podem ser fundidosde forma interativa.

3. Caracterizacao de Reservatorios

A observacao direta das rochas abaixo da superfıcie, e limitada a poucos caprichos danatureza como cavernas e falhas naturais. Mas estas formacoes representam uma fatiamuito pequena do interior da terra. Um forma de se obter grandes quantidades de dadosdiretamente das rochas e atraves da perfuracao de pocos, tecnica utilizada na exploracaode petroleo. Uma quantidade maior de dados e obtida utilizando metodos sısmicos, deri-vando a geologia do subsolo de forma indireta. Basicamente, o metodo sısmico consisteem estimar as formas e as propriedades fısicas das camadas do subsolo, atraves do eco dasondas sonoras que se propagam atraves das camadas. Sismografos, sao os instrumentoscapazes de gravar esses ecos. O conjunto de ecos gravados durante determinado tempo echamado de Sismograma ou Sısmica.

3.1. Reflexao

Quando uma dinamite e explodida ou um canhao de ar disparado na agua, o disturbiogerado se propaga atraves do meio como ondas. Quando essas ondas encontram uma su-perfıcie de contato entre duas camadas de rochas diferentes, como areia e folhelho1, parteda energia e refletida de volta e uma parte continua sendo transmitida atraves da camadaseguinte. A parte refletida retorna a superfıcie, aonde e registrada pelo sismografo.

1Tipo de rocha considerada selante por ser pouco porosa e formada por finas fatias, dando origem adenominacao.

Page 6: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

E importante ressaltar que a explicacao acima, e uma descricao didatica de comoas refletividades operam, ja que nos casos reais, a mesma reflexao ocorre diversas ve-zes, gerando o que chamam de Multiplas. Esse tipo de informacao e tratada por outrosmetodos que fogem do escopo do trabalho.

Reflexoes em camadas mais grossas sao mais faceis de serem separadas do queem camadas finas aonde ocorrem interferencias. A distancia entre a fonte de reflexaoe os receptores tambem deve ser tratada, ja que a mesma reflexao pode ser registradavarias vezes em tempos diferentes devido a distancia entre de cada receptor (geofone ouhidrofone).

3.2. Propriedades da RochaExistem diversos tipos de materiais que podem compor a estrutura subterranea de umaregiao, como o arenito, o folhelho e o granito. Cada rocha possui propriedades que afetamde alguma maneira a onda durante a passagem desta pela camada, fazendo com que certascaracterısticas possam ser posteriormente estimadas tendo como base os dados sısmicos.

A impedancia acustica de um meio esta relacionada com a resistencia ou dificul-dade do meio a passagem de som. Basicamente, pode-se imaginar o material como umamola, quanto mais resistente for essa mola, mais energia e necessario para empurra-la, eno caso quem empurra e a onda sonica que esta penetrando no material.

A impedancia acustica e uma propriedade de camada e nao de interface como aamplitude do dado sısmico [Sancevero et al. 2006]. Correspondendo ao produto da den-sidade do material pela velocidade de propagacao do som no mesmo. Esta caracterısticatorna a impedancia uma propriedade muito importante para o processo de caracterizacao,tornando possıvel a integracao de mais propriedades ao modelo [Sancevero et al. 2006].A impedancia acustica pode ser obtida atraves da perfuracao de pocos, sendo essa a fontedos dados usada para criar o mapeamento entre sısmica e impedancia acustica.

4. PropostaO nome dado a proposta foi Inversao Sısmica Cognitiva (ISC), relacionando o metodo astecnicas de IA cognitiva utilizadas. A ISC segue a mesma ideia que outros metodos deinversao. A diferenca e o uso de uma das RNAs no lugar de um metodo de otimizacao.

Quando esse metodo e substituıdo por uma RNA, passa a ser estritamente ne-cessario que exista pelo menos um poco, isto porque a RNA precisa ser treinada. Emvez de uma busca, o que a RNA faz e aprender as caracterısticas que existem entre opoco e a sısmica, detectando padroes, aprendendo com esses exemplos, de forma que sejapossıvel obter um grau de generalizacao suficientemente bom para detectar novos padroese conseguir estimar suas saıdas.

Primeiramente, foram observadas algumas caracterısticas importantes dentre asRNAs disponıveis, como o problema esta relacionado a regressao nao-linear, foram se-lecionadas as redes: MLP, GRNN e Recorrente. A rede MLP por ser a mais popu-lar e bem estabelecida, a GRNN por sido utilizada em outros trabalhos relacionados[Artun et al. 2005]. As redes MLP e GRNN possuem algoritmos de treinamento muitorapidos, e para imitar o comportamento das redes Recorrentes, a metafora temporal dejanela de dados foi aplicada, aqui chamada de janelak, aonde k e o numero de amostraslidas no instante τ .

Page 7: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

4.1. Determinando a Janelak

A Janelak e um operador que seleciona uma sequencia de k valores amostrados notempo. O que permite a rede, enxergar os k − 1 valores anteriores ao instante τ (cau-sal), ou entao, os k − 1 valores posteriores (anti-causal), ou ainda, os k

2anteriores e os k

2

posteriores a τ (simetrica), supondo que k seja ımpar neste ultimo caso. A Figura 3 ilustraa movimento da janela, para a ultima configuracao.

Figura 3. Janela deslizante (sliding window ) com k = 5.

Sabendo disso, nao basta apenas definir o valor de k, e tambem necessario definirqual configuracao da janela (causal, anti-causal, simetrica). Resolver esses problemasesta alem do escopo deste trabalho e portanto, os valores de k e a configuracao utilizadosforam definidos empıricamente. Esse parametro deve ser definido no inıcio do algoritmo,pois sera utilizado em todas as etapas.

4.2. Proposta utilizando MLPA rede MLP e extremamente robusta, rapida e nao e drasticamente afetada pelo problemada dimensionalidade, mas mesmo com essas caracterısticas, a sua Inversao Sısmica naoobteve bons resultados quando os dados utilizados para teste se aproximavam de situacoesreais.

Isto se deve a dificuldade maior de acertar os parametros para esse tipo de rede. Osalgoritmo de treinamento utilizados ja poupam o usuario de configurar a taxa de aprendi-zagem e o momentum, mas ainda sobram o numero de neuronios escondidos, inicializacaodos pesos e o conjunto de validacao.

O numero de neuronios escondidos foi definido como 10, pois uma boa tenta-tiva inicial e usar D − 1, aonde D e o numero de dimensoes da entrada. O conjunto devalidacao e 20% do conjunto de treino, escolhidos aleatoriamente. A inicializacao dospesos foi feita de forma randomica, que e o padrao para redes MLP, tornando-as nao de-terminısticas. Sendo assim, varias redes sao treinadas com os mesmos dados e aquela commelhor resultado e escolhida, considerando que o melhor resultado e aquele que mantemmaior relacao com as reflexoes observadas na sısmica e continuidade das camadas.

4.3. Proposta utilizando GRNNDa mesma forma que a MLP, a GRNN substitui o metodo de otimizacao, a diferenca eque nao ha necessidade de um controle tao rigoroso do treinamento, atraves de grupos devalidacao ou mesmo atraves do proprio usuario. Alias, nao ha treinamento, como visto naSubsecao 2.2, a GRNN “aprende” durante a sua propria construcao.

Optou-se por usar apenas a GRNN com algumas heurısticas de configuracao, re-alizando uma especie de treinamento simples. O objetivo era poupar o usuario de ter

Page 8: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

que se preocupar com diversos parametros. Outro ponto era reduzir o tamanho da rede,por exemplo, se um poco utilizado para treinamento possui 250 amostras, serao criados250 neuronios, se for adicionado mais um poco de 250 amostras ao conjunto de treino,a GRNN padrao adicionaria as 250 “novas” amostras, sem verificar se realmente saonovas. Nossa proposta segue a ideia de agrupamento indicada por [Specht 1991], masusando outro parametro para definir o grau de pertinencia, apresentado em mais detalhesna Subsecao 4.5.

4.4. Determinando o Parametro σ

O σ e quem controla a capacidade de interpolacao da GRNN, sendo muito importanteconfigura-lo corretamente para se obter bons resultados. Algumas funcoes sao faceis nahora de testar qual valor usar, principalmente quando ha uma boa distribuicao de valores.No caso dos dados sısmicos deve ser algum cuidado. Muitas vezes uma regiao com maisde um pico de reflexao e representada por uma larga ondulacao na sısmica, efeito geradopela convolucao com a wavelet. Se a rede possuir um valor de σ alto, essas reflexoesdificilmente serao aprendidas pela rede.

Ja valores de σ pequenos, geram pontos cegos para a rede, aonde nao ha nenhumagaussiana representando determinada regiao da funcao que queremos aproximar.

Para tentar amenizar esses problemas e diminuir a sensibilidade da rede em relacaoao parametro σ, este foi substituıdo por um δ, este novo parametro serve para manter ocontrole do usuario sobre a suavizacao do resultado, apenas expandindo as aberturas jadefinidas pelo algoritmo atraves da variancia local de cada amostra. Essa expansao e maisfacil do que definir diretamente a abertura de cada gaussiana. Pelo fato do usuario saberque, apos construıda a rede, o valor padrao das aberturas sera a maior variancia localencontrada (Algoritmo 1).

Algoritmo 1 Estimativa do Parametro de Suavizacao σEntrada: m = numeroDeNeuronios()Entrada: X = vetorDadosTreinoEntradas()Entrada: n = numeroDeV izinhosConsiderados()D = distanciaEuclidiana(X,X)para i = 1→ m facaV ← min(Di, n){min(P,n), recebe um vetor P e retorna os n menores valores}Si ← 1

3∗n∑n

i Vfim paraσ ← δmax(S)return σ

4.5. Agrupamento

Outra modificacao feita na GRNN, esta relacionada ao criterio para adicionar um exemploa um neuronio, fazendo com que os neuronios deixem de representar somente amostrase passem a representar grupos de amostras semelhantes. Essa ideia nao e original, ja foiproposta por [Specht 1991], mas o criterio utilizado e a distancia euclidiana. Define-se umlimiar que indica o quanto um padrao esta proximo do centro de um neuronio ja existentee decide se sera ou nao anexado ao neuronio, utilizando a Equacao 8.

Page 9: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

Porem essa tecnica nao leva em conta a abrangencia do neuronio ja criado.Neste trabalho, propoe-se usar o valor de ativacao do neuronio, dessa forma, a area deabrangencia daquele neuronio define o quanto uma amostra esta proxima. A ativacao doneuronio para o padrao em analise deve ser maior ou igual a 0.98, dessa forma, nao haperda de informacao, apenas neuronios que nao iriam surtir efeito sao eliminados.

O agrupamento e realizado durante a construcao da rede, dessa forma, quandoum padrao novo e apresentando para a rede aprender, antes ela verifica a ativacao dosneuronios ja presentes, utilizando o valor apresentado no paragrafo anterior, e assim de-cide se o novo padrao sera relevante para o aprendizado.

4.6. Avaliacao dos ResultadosA grande vantagem de utilizar dados sinteticos para testar algoritmos e a possibilidade decomparar os resultados obtidos com os desejados. Alem da avaliacao visual, e realizado ocalculo da correlacao entre o resultado obtido e o desejado, que da uma indicacao de comoos resultados estao correlacionados num intervalo entre -1 e 1. Esse calculo e chamadode Correlacao de Pearson(ρ) e e dado pela Equacao 9:

ρ =

∑ni=1 (xi − x) (yi − y)√∑n

i=1 (xi − x)2√∑n

i=1 (yi − y)2(9)

aonde x1, x2, . . . , xn e y1, y2, . . . , yn sao os valores medidos de ambas as variaveis. Osvalores x e y sao as medias aritmeticas de ambas as variaveis.

A interpretacao do resultado segue da seguinte forma:• -1, estao perfeitamente correlacionados negativamente (inverso).• 0, nao ha correlacao nenhuma entre os dados.• 1, perfeitamente correlacionados positivamente (direto).

5. ResultadosA Inversao Sısmica e apenas uma parte de uma serie de processos. Para automatiza-lose testar as redes, foram implementados alguns scripts2, demonstrando aspectos diferentedas redes ou do tratamento dos dados. No geral, a estrutura de cada script possui osseguintes itens:

1. Extracao dos dados.2. Pre-processamento dos dados.3. Treinamento da rede.4. Inversao utilizando a rede treinada.5. Pos-processamento dos dados.

5.1. ExtracaoO coeficiente de refletividade de uma interface e relativo a propriedade de IP das rochasque a formam, portanto a refletividade e extraıda a partir dos valores de IP, atraves daEquacao 10.

Rpp(n) =Zn − Zn−1Zn + Zn−1

. (10)

2Sequencia de comandos para serem executados por um interpretador.

Page 10: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

5.2. Pre-processamento

O pre-processamento e feito por tres motivos:

1. Preparar os dados para a rede, que envolve: mapear dados entre -1 e 1 (casoextrapolarem esse intervalo).

2. Remocao da media (DC offset), para corrigir o sinal.

5.3. Inversao

A rede e aplicada a todo o conjunto de entrada, deslizando com uma janela igual a usadano treinamento. Isso e feito traco a traco, ate que todo o conjunto seja visto pela rede.Cada janela e mapeada para um valor de coeficiente de refletividade, e assim vai cons-truindo interativamente o conjunto de saıda.

5.4. Pos-processamento

Como a rede foi treinada com os dados de refletividade na saıda, os resultados para todoo conjunto de entrada serao dados em coeficientes de refletividade. Nosso objetivo erecuperar IP, logo aplica-se a Equacao 11,

Zk+1 = Z1

k∏j=1

(1 +Rj

1−Rj

). (11)

utilizando como o primeiro valor de IP Z1 o primeiro valor do poco, e o resto e encontradorecursivamente, utilizando os k coeficientes de refletividadeRj . Esse metodo e conhecidocomo Inversao Recursiva [Sen 2006].

Caso os dados de poco nao tenham sido filtrados posteriormente, a rede ira geraruma serie de frequencias inexistentes no resultado real. Portanto deve-se usar um filtropassa-banda, para eliminar tanto as frequencias baixas(< 6 Hz) como as altas (> 40 Hz),que sao inexistentes na sısmica.

5.5. Reservatorio Sintetico

Os dados para esse experimento foram adquiridos atraves da cooperacao UFSC/Petrobrase serviu para testar a real aplicabilidade dos metodos. Ainda que sinteticos esses dadosse assemelham muito aos modelos obtidos com sısmicas reais, possuindo camadas nao-uniformes, com desnıveis e um reservatorio bem definido. Duas versoes desses dados saoapresentadas, uma delas nao possui ruıdo e outra possui 30% de ruıdo, sendo que essaquantidade de Sinal-Ruıdo e superior a de ambientes reais.

Como o conjunto de dados completo e um cubo, para fins de simplificacao evisualizacao dos resultados, foram usadas apenas fatias do cubo, a Figura 4 mostra o in-line3 103 do cubo utilizado. Cada fatia e representada por uma matriz de 250x199 tracos.A sısmica desse inline (Figura 5) sera utilizada para recuperar os dados de IP, apos a redeter sido treinada.

Como os dados de IP ja estao disponıveis para o cubo inteiro, pode-se utilizar ostracos, do inline escolhido do cubo de IP, como se fossem pocos. Nesse caso nao e ne-cessario realizar nenhum tratamento nos dados, pois os valores do “pseudo-poco” ja estao

3Nome dado a uma fatia do cubo sısmico, no eixo Y.

Page 11: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

Figura 4. Inline de impedancia acustica. Cada cor representa um valor de im-pedancia.

na mesma escala dos valores da sısmica. Esse modo nao corresponde a realidade do pro-cesso, ja que normalmente nao ha pocos que chegam na mesma profundidade alcancadapela sısmica, e tambem, nem sempre amostram desde o inıcio. Porem isto nao significaque mais dados irao ajudar a rede, pelo contrario, normalmente o que e feito, e selecionarapenas uma regiao e aplicar a inversao. Entao, na verdade, estamos dando mais traba-lho para a rede quando tentamos inverter o inline todo, pois esse excesso de informacoesnem sempre relacionadas (as camadas tendem a uma continuidade longitudinal porem naolatitudinal).

A grande vantagem de se aplicar os metodos em dados sinteticos e o fato de serpossıvel comparar o resultado obtido com o desejado, situacao que nao ocorre com dadosreais, ja que nao se conhece completamente a situacao real para todo o volume.

O treinamento consiste em associar o traco sısmico na posicao do poco, com osdados de IP fornecidos por este poco, essa associacao e feita com a variacao do IP, nestetrabalho, representada pelos coeficientes de refletividade. A Figura 6, mostra um graficodos valores usados para treinar a rede, supondo um poco no deslocamento 100. A Tabela1, apresenta a configuracao das redes, MLP e GRNN, que sera usada tanto no treinamentoquanto na execucao. Essa configuracao define alguns parametros basicos das redes, assimcomo os novos parametros que envolvem as propriedades do problema, que sao o tamanhoda janela, definido por k em Janelak e a populacao de redes gerada para se obter umaboa solucao.

Os resultados estao divididos em duas partes, o primeiro apresenta os resultados deambas as redes filtrados entre 6 Hz e 40 Hz, para ser possıvel observar se a rede recuperouos dados corretamente da sısmica. Isto e feito devido a sısmica nao possuir frequenciasfora desse intervalo. A Figura 7 apresenta esses resultados.

Page 12: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

Figura 5. Inline de sısmica. Os wiggle traces, representam aonde ocorreram asreflexoes, fornecendo o valor de amplitude lido.

Os altos valores de correlacao obtidos, indicam que a rede conseguiu realizara Inversao Sısmica com sucesso, alcancando um resultado muito proximo ao desejado,mesmo com muito ruıdo na sısmica, o que prova a robustez do metodo.

6. ConclusaoAs tecnicas apresentadas mostraram-se viaveis para resolver o problema, desde que ha-jam bons pocos e/ou uma quantidade consideravel de pocos bem distribuıdos. Em es-pecial, foram observadas algumas caracterısticas relacionadas a cada modelo, como nocaso da MLP que se mostrou mais rapida e com melhores resultados porem requer maisparametros de configuracao, enquanto a GRNN, que obteve resultados proximos exigesomente um parametro trivial para configuracao da rede, o fator de suavizacao da funcao(σ), sendo mais facil para o usuario final. Ocorre tambem o fato da MLP ser nao-determinıstica devido a inicializacao aleatoria dos pesos dos neuronios, algo que naoocorre durante a construcao da GRNN, tornando esta ultima, mais indicada para tarefasem que e necessario ter alta confianca nas respostas. Na tentativa de resolver o problemado nao-determinısmo da MLP, foi utilizado o metodo de inicializacao de Nguyen-Widrow[Nguyen and Widrow 1990], porem os resultados obtidos apos a aplicacao do algoritmonao compensaram, sendo descartada essa opcao.

E importante ressaltar que nao foram realizadas avaliacoes do tempo de execucaode cada Inversao Sısmica, devido a insignificancia do tempo de execucao, com duracoesmaximas de 1 minuto. Como outros metodos nao foram comparados, nao houve necessi-dade desse tipo de avaliacao.

Uma caracterıstica valiosa das RNAs e que a relacao dela com os dados e depen-dente somente das janelas, fazendo com que o algoritmo seja capaz de ser extramenteparalelizavel. Propiciando o uso de diversas redes executando em paralelo e tratando ja-nelas ou tracos ao mesmo tempo. Isso torna o metodo muito interessante para esse tipode problema, onde normalmente a quantidade de dados e muito grande e e normal utilizarambientes altamente distribuıdos para realizar computacao de dados.

Page 13: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

Figura 6. Dados utilizados para treinar a rede. (A) valores de amplitudes obti-dos da sısmica usados como entradas para a rede e (B) valores de refletividade,derivados da impedancia, que por sua vez e extraıda do poco.

Tabela 1. Configuracao da rede para a execucao utilizando traco 100 como pocopara treinamento.

Parametro/Rede GRNN MLPtaxa de aprendizado (δ) 0.2 adaptativanumero de neuronios 249 11Erro maximo - 0.001σ automatico -Ativacao (Camada Escondida) Estimador de Parzen Tangente HiperbolicaPopulacao 1 10Entradas Janela13 Janela13

Page 14: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

Figura 7. Resultados de ambas as redes em comparacao com os valores dese-jados filtrados para o poco localizado no deslocamento 100. (A) Resultado de-sejado; (B) Resultado obtido pela rede MLP (correlacao de 0.93) e (C) Resultadoobtido pela GRNN (correlacao de 0.91).

Page 15: Caracterizac¸ao de Reservat˜ orios utilizando Invers´ ao S ... · ... criado com base na literatura existente a ... numero de amostras para aproximar a func¸´ ao. ... (4) Substituindo

Em suma, este trabalho possibilitou encontrar dois modelos de redes neurais alta-mente capazes de recuperar e relacionar informacao entre o poco e a sısmica, conseguindoaproximar resultados com correlacao maior que 0.9.

ReferenciasArtun, E., Mohaghegh, S., Toro, J., Wilson, T., and Sanchez, A. (2005). Reservoir cha-

racterization using intelligent seismic inversion. In SPE Eastern Regional Meeting.

Bishop, C. M. (1996). Neural Networks for Pattern Recognition. Oxford University Press,USA, 1 edition.

Cybenko, G. (1989). Approximation by superpositions of a sigmoidal function. Mathe-matics of Control, Signals, and Systems (MCSS).

Haykin, S. (1999). Neural Networks: A Comprehensive Foundation. IEEE.

Nguyen, D. and Widrow, B. (1990). Improving the learning speed of 2-layer neuralnetworks by choosing initial values of the adaptive weights. In Neural Networks, 1990.,1990 IJCNN International Joint Conference on, pages 21 –26 vol.3.

Parzen, E. (1962). On estimation of a probability density function and mode. The Annalsof Mathematical Statistics, 33(3):1065–1076.

Rumelhart, D. E., Hinton, G. E., and Williams, R. J. (1988). Learning internal represen-tations by error propagation. MIT Press, Cambridge, MA, USA.

Sancevero, S. S., Remacre, A. Z., and Portugal, R. D. S. (2006). O papel da inversao paraa impedancia acustica no processo de caracterizacao sısmica de reservatorios. RevistaBrasileira de Geofısica, 24:495–512.

Sen, M. K. (2006). Seismic Inversion. Society of Petroleum Engineers, Richardson, TX,USA.

Sheriff, R. and Geldart, L. (1995). Exploration seismology. Cambridge University Press.

Specht, D. F. (1990). Probabilistic neural networks. Neural Netw., 3:109–118.

Specht, D. F. (1991). A general regression neural network. IEEE Transactions on NeuralNetworks, 2(6):568–576. cited By (since 1996) 947.