7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 1/60
2. PRINCÍPIOS BÁSICOS DE
FOTOGRAMETRIA
2.1 RADIAÇÃO ELETROMAGNÉTICA
A maioria dos sensores imageadores detecta e registra radiação
eletromagnética. Esta radiação caracteriza-se por viajar à velocidade da
luz (2 997 924 m/s ~ aproximadamente 3 x 108 m/s) e possuir dois campos
a ela associados: um campo elétrico e um campo magnético associados
(Figura 2.1), os quais são perpendiculares entre si e variam
senoidalmente. Vale dizer que, embora possa ser encarada como onda,
também pode ser considerada como pacotes de energia (partículas ou
quanta) chamados fótons, caracterizando-se a “dualidade onda-partícula”.
Figura 2.1 – Onda Eletromagnética
A radiação eletromagnética, vista como uma onda, possui um
espectro de comprimentos de onda e, conseqüentemente, de freqüência
2.1
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 2/60
distintos. Como exemplos, encontram-se a luz visível, a região do
infravermelho, do ultravioleta e as ondas de rádio, além dos raios X, raios
Gama e outros, de menor importância. Considerando a clássica fórmula
de propagação de ondas:
v = λ . f (2.1)
onde:
“v” é a velocidade da onda; neste caso v = c = 3 x 108 m/s;
“λ“ é o comprimento da onda;
“f” é a freqüência (número de ciclos por segundo passando por dado
ponto) com a qual a onda se apresenta;
Obviamente, a freqüência é inversamente proporcional ao
comprimento de onda. As diferentes variedades de ondas
eletromagnéticas podem ser, então, escalonadas da seguinte forma
(Figura 3.2):
Figura 2.2 – Espectro Eletromagnético
Voltando-se à natureza quântica da radiação eletromagnética, uma
consideração importante pode ser feita a partir da equação de Planck para
um pacote de energia. Sabe-se que esta fórmula equivale a:
Q = h . f (2.2)
onde:
2.2
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 3/60
“h” é a constante de Planck;
“f” é a freqüência da radiação;
“Q” é a energia do pacote.
Combinando-se as equações (2.1) com a (2.2) chega-se a:
Q = hc/ λ (2.3)
Donde se deduz que, a medida que é maior a freqüência, menor é
o comprimento de onda e maior é a energia transportada. Ou seja, é mais
fácil de se detectar a radiação, pelo menos teoricamente, já que a
quantidade de energia disponível é maior.
Nesse ponto, uma pergunta pode surgir: “Como é originada essa
energia”. Ou ainda... “Como os corpos interagem com essa energia?”
Primeiramente, pode-se dizer que todos os corpos (na verdade,
todos os corpos a mais de 0 Kelvin) emitem energia. A lei de Stefan-
Boltzmann expressa quantitativamente a quantidade de energia emitida
por um corpo, em função da sua temperatura:
M = σ T4 (2.4)
onde:
“M” é o fluxo de energia em W m -2;
“σ“ é a constante de Stefan-Boltzmann (5,6697 . 10-8 Wm-2K-4);
“T” é a temperatura do corpo, em K;
Mesmo sabendo que essa fórmula só se aplica numa situação ideal(absorção total da energia incidente e emissão total da energia que possui
– corpo negro), percebe-se que a quantidade de energia emitida aumenta
consideravelmente à medida que sobe a temperatura do corpo. A fórmula
de Wien relaciona a temperatura do corpo o comprimento de onda da
radiação dominante, ou seja, a radiação que será a mais emitida.
λd = A / T (2.5)
2.3
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 4/60
onde:
“λd ”, como já foi dito, é a radiação dominante em µm;
“A” é uma constante, e equivale a 2898 µm K;
“T” é a temperatura do corpo, em K;
Para a temperatura do sol (aproximadamente 6000 K), a radiação
mais emitida está na faixa do espectro visível. O espectro de luz chamado
“visível” recebe essa denominação, em especial, e é a única região do
espectro eletromagnético que sensibiliza os olhos dos seres humanos. O
olho humano, de acordo com as teorias mais recentes, é sensível à luz em
três colorações básicas: vermelho, verde e azul. Estas cores são as
chamadas cores primárias e, a partir de combinações luminosas das três,
pode-se gerar qualquer uma das outras (figura 2.3).
Figura 2.3 – Cores primárias da luz (processo aditivo – Sistema RGB) e cubo de cores,
com cor genérica “X” representada graficamente como uma combinação das outras três
Figura 2.4 – Cores complementares da luz, e primárias da
impressão (processo subtrativo – Sistema CMYK)
De fato, o sistema denominado RGB (de Red, Green, Blue –
2.4
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 5/60
vermelho, verde e azul em inglês) é utilizado nos televisores e monitores
de computador. As cores complementares são o amarelo, o magenta e o
ciano e são formadas pela subtração das cores primárias da cor branca.
Nos sistemas de impressão (figura 2.4), as cores complementares são
tomadas como básicas, ocorrendo fato inverso: as cores primárias passam
a ser formadas pela combinação das complementares, isto é, o sistema
denominado CMYK (Cyan, Magenta, Yellow and blacK ) neste caso, a cor
preta, que seria a subtração das três. Logo, atenção especial deve ser
tomada de modo a, em uma impressão, manter-se a fidedignidade das
cores exibidas.
O espaço RGB também pode ser visto como um espaço vetorial de
cores (cubo RGB), onde cada tonalidade pode ser obtida a partir de uma
combinação primária das cores promárias (figura 2.3).
Figura 2.5 – Intensidade de emissão de energia eletromagnética por um corpo negro (ideal)
a 6000 K, para diferentes comprimentos de onda.
Fonte: http://solarsystem.colorado.edu/applets/stellarOutput/
Para um corpo com uma temperatura de 300 K (temperatura da
maior parte dos corpos na superfície terrestre), o comprimento de onda da
2.5
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 6/60
radiação emitida encontra-se na região do infravermelho termal, nome que
decorre justamente do relacionamento direto com a temperatura dos
corpos que encontram-se ao nosso redor.
De modo a visualizar estes dados de um modo mais interativo, é
interessante utilizar um aplicativo que mostre as curvas para corpos de
diferentes temperaturas. Como exemplo, tem-se o “Black Body Applet”,
da Universidade de Colorado (Estados Unidos). As figuras 2.5 e 2.6
mostram as curvas para um corpo negro de 6000 K e 300 K.
Figura 2.6 – Intensidade de emissão de energia eletromagnética por um corpo negro (ideal)
a 300 K, para diferentes comprimentos de onda.
Fonte: http://solarsystem.colorado.edu/applets/stellarOutput/
2.1.1 INTERAÇÃO ENTRE DIFERENTES CORPOS E A
ENERGIA ELETROMAGNÉTICA
Os corpos respondem à energia eletromagnética sobre eles, que
incide de três maneiras: absorvendo-a, transmitindo-a ou refletindo-a
2.6
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 7/60
além, é claro, da emissão, que é natural de todos os corpos. Para o
Sensoriamento Remoto interessa principalmente a reflexão, pois é a partir
da energia refletida pelas feições da superfície terrestre que os filmes ou
dispositivos CCD das câmaras são sensibilizados.
Essa reflexão se dá de duas maneiras: especular e difusa. Na
reflexão especular, parte da luz incidente (que não é absorvida nem
transmitida) é refletida com um ângulo igual ao de incidência, equivalendo-
se a um espelho. Um exemplo é mostrado na figura 2.7.
Figura 2.7 – Reflexão especular
A reflexão difusa ou Lambertiana é a de maior interesse à aquisição
de imagens (Figura 2.8), pois, neste tipo, parte da luz incidente, que não é
absorvida nem transmitida, é refletida em diversos ângulos e em diversas
intensidades. Ora, cada corpo reage de maneira diferente à mesma
radiação, graças às idiossincrasias que naturalmente cada um deles
possui. Assim, para diferentes corpos e diferentes radiações e,
conseqüentemente, para diferentes comprimentos de onda, têm-se
diferentes intensidades refletidas e/ou emitidas. Graças a essapropriedade, pode-se ter o conceito de cores. Assim, vê-se um corpo
como “verde” porque, em verdade, este reflete e/ou emite (de forma
difusa) radiação na faixa do verde. Sabendo-se como determinado corpo
reage aos mais diversos tipos de radiação eletromagnética, pode-se traçar
um padrão de resposta espectral (ou assinatura espectral) para este
corpo.
2.7
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 8/60
Figura 2.8 – Reflexão difusa
Um caso interessante de diferentes respostas espectrais ocorreu
durante a segunda grande guerra, quando os aliados passaram a usar
filmes que detectam radiação na faixa do infravermelho. Embora, no
visível, a camuflagem de folhagem artificial tenha a mesma coloração que
a vegetação natural, no infravermelho, a vegetação viva reflete muito
melhor, graças à clorofila e à estrutura interna das folhas. Em
conseqüência disso, tornou-se fácil a identificação de abrigos e casamatas
inimigas camufladas.
Outro aspecto importante a ser considerado é a reação da
atmosfera à radiação que passa por ela. É notório o fato de que os raios
ultravioleta são filtrados na atmosfera, graças à camada de ozônio (que,
por sinal, está em processo de contínua destruição). Estes tipos de
mecanismos se aplicam na atmosfera, até porque servem como uma
proteção, que possibilita a existência de vida na superfície terrestre, uma
vez que muitas das radiações eletromagnéticas são nocivas aos seres
vivos.
Desse modo, diz-se que há “janelas atmosféricas”, ou seja, zonasdo espectro em que a atmosfera permite a passagem de energia. As
principais são o visível, o infravermelho e as microondas (radar). Pode-se
captar as duas primeiras diretamente a partir da energia gerada e refletida
pelos corpos, por intermédio de sensores passivos. Para captar energia
na faixa das microondas, deve-se gerá-la no próprio sensor (sensores
ativos), uma vez que a quantidade de energia naturalmente disponível
nessa faixa é muito baixa.
Além disso, a atmosfera é responsável pelo fenômeno do
2.8
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 9/60
espalhamento, que, como o nome diz, “espalha” de modo disperso
determinada radiação. O espalhamento de Rayleigh (o mais famoso)
decorre da interação de partículas muito menores que o comprimento de
onda da radiação. Graças a ele, vemos o céu azul, pois a radiação na
faixa do azul (a de menor comprimento de onda) é a mais espalhada por
esse tipo de partículas.
O espalhamento de Mie ocorre para partículas da mesma ordem de
grandeza que o comprimento de onda e afeta principalmente os
comprimentos de onda maiores.
O espalhamento não-seletivo é devido às partículas muito maiores
que os comprimentos de onda (poeira em suspensão), e que espalham
igualmente radiação de todos os comprimentos de onda. Por isso a
neblina e as nuvens se apresentam na cor branca.
O espalhamento pode empobrecer a imagem adquirida sobre
determinada área onde esse efeito se faz notável. Filtros podem ser
colocados nas câmaras para atenuar estes problemas. Técnicas de
processamento digital também podem ser executadas. Ambos os casos
serão estudados no decorrer do capítulo.
2.1.2 A CÂMARA FOTOGRÁFICA
O processo chamado de fotografia foi desenvolvido a partir de
1839, graças aos esforços dos pioneiros Nicephore Nièpce, William Talbot
e Louis Daguerre. O princípio da câmara escura é de tal simplicidade e
eficácia que até os dias de hoje é utilizado em sua essência. Tal princípio
está descrito esquematicamente na figura 2.9. Tem-se um objeto a ser
fotografado e uma câmara, que se constitui em um recipiente oco (com um
pequeno furo por onde passa a luz), com as paredes internas escuras,
exceto uma, onde se encontra um dispositivo que pode ser sensibilizado
pela luz (um filme ou matriz de CCD's, como exemplos). A imagem é
formada de maneira invertida, em uma distância que depende da distância
do objeto ao furo.
2.9
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 10/60
Figura 2.9 – Princípio da câmara escura
Tal aparato não se mostrou prático, pois eram necessárias horas de
exposição para sensibilizar suficientemente o filme. Para contornar esse
problema, instala-se um sistema de lentes na frente da câmara, o que
diminui sensivelmente o tempo de exposição, como exibido na figura 2.10.
Figura 2.10 – Princípio da câmara fotográfica
Quando o arranjo está devidamente posicionado, pode-se
relacionar a distância focal (f), a distância imagem (i) e a distância objeto
(o) do seguinte modo (Lei de Gauss):
1/f = 1/o + 1/i (2.6)
Embora a fórmula rigidamente especifique uma determinada
distância imagem e uma determinada distância objeto necessárias para
que o sistema esteja absolutamente focado, há um intervalo de tolerância
dentro do qual mudanças de posição do objeto não acarretam perda de
nitidez da imagem. Tal conceito chama-se profundidade de campo.No caso de fotografias aéreas (ou terrestres visando longas
2.10
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 11/60
distâncias), a distância-objeto assume valores muito grandes, reduzindo a
equação 2.6 a 1/f = 1/i, donde se conclui que, nestes casos, f = i.
Outro conceito importante para as câmaras fotográficas é a
exposição em qualquer ponto do plano focal. Esta, de acordo com
(Lillesand, Kiefer, 2000) é expressa pela fórmula:
Exp =sd2 t
4f 2 (2.7)
“Exp” é a exposição em si, expressa em J mm-2;
“s” expressa o “brilho” da cena, em J mm-2 s-1;
“d” é o diâmetro da abertura da lente em mm;
“t” é o tempo de exposição em s;
“f” é a distância focal da câmara, em mm.
Outro conceito igualmente importante é o de velocidade das lentes,
ou f-stop. Este é dado pela relação entre a distância focal da câmara e o
diâmetro da lente.
f-stop = f / d (2.8)
Com isso, pode-se reescrever a equação 2.7 da seguinte forma:
Exp =st
4¢f Bstop£2 (2.9)
Pode-se verificar que, à medida que o f-stop aumenta, a exposição
diminui. Em geral, o f-stop é representado em potências de 2.
Convenciona-se, para um valor “x” de f-stop, representá-lo como f/x.
Assim, alguns valores comuns seriam: f/4, f/2, f/1.4 e assim por diante.
Como na verdade, a velocidade das lentes é representada por uma
relação, quanto maior a abertura das lentes (pequenos f-stop) permitem
mais luz chegando ao filme, logo, sendo possível a diminuição da
exposição. Pequenas aberturas de lentes obrigam maiores tempos deexposição, porém aumentam a profundidade de campo. É interessante
2.11
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 12/60
ressaltar que não existe uma relação “ideal”, cabendo ao profissional
envolvido escolher o melhor filme e as melhores condições para cada
situação prática que se apresente.
As câmaras fotográficas podem ser classificadas quanto à
fabricação em analógicas (sensibilizam um filme, que, se revelado, leva a
uma imagem analógica) ou digitais (obtêm a imagem diretamente em
formato digital).
Outra chave de classificação das câmaras fotográficas permite
dividi-la em dois grandes grupos, a saber: câmara métrica e câmaras não-
métricas ou de fotógrafo amador. As câmaras métricas distinguem-se das
não-métricas pelo fato de possuirem características especiais, descritas no
tópico a seguir.
2.2 A CÂMARA FOTOGRAMÉTRICA
Convencionou-se chamar de “câmara fotogramétrica” a câmara que
possui certas características especiais. No caso, o que determina adissensão entre estas definições é o maior rigor métrico na definição dos
parâmetros que regem a câmara. Assim, pode-se extrair informação
métrica e precisa das imagens adquiridas por tal tipo de câmara.
As câmaras fotogramétricas em geral são aéreas, porém, podem
ser terrestres (para uso em fotogrametria arquitetônica ou mesmo na
aquisição de imagens oblíquas de determinadas feições bastante
irregulares). Deve-se, porém, considerar que, para câmaras terrestres, a
distância focal não é constante e os valores de profundidade de campo
devem ser respeitados. No decorrer desse texto, entretanto, dar-se-á uma
importância maior para as câmaras aéreas, pois são, de longe, as mais
utilizadas em mapeamento fotogramétrico (aerolevantamentos).
As partes principais de que se compõe uma câmara fotogramétrica
são o cone e o magazine (figura 2.11).
No cone, localiza-se o sistema de lentes da objetiva, o diafragma, o
obturador, o suporte de filtros e a esquadria de registros.
2.12
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 13/60
Figura 2.11 – Representação esquemática de uma câmara fotogramétrica
O sistema da objetiva é um conjunto de lentes que deve direcionar
os raios luminosos vindos do exterior em direção à imagem que será
formada no plano focal.
O obturador é responsável pela abertura necessária do diafragma
(um conjunto de cortinas circulares concêntricas), de modo a se obter uma
exposição desejada.Os filtros podem ser aplicados caso se queira aplicar determinados
efeitos em especial às imagens. Convém ressaltar que a existência de
filtros, caracterizados por sua transmitância (isto é, a percentagem de
energia luminosa que estes deixam passar de tudo o que chega até eles),
obriga maiores tempos de exposição dos filmes. Logo, estes devem ser
utilizados apenas em casos indispensáveis.
A esquadria de registros comporta várias informações marginais
que virão a ser impressas em cada uma das fotografias. As mais
importantes, de longe, são as marcas fiduciais (figura 2.12), que definem
um sistema rígido de coordenadas da imagem. Outros dados que podem
ser impressos são o número da foto, a empresa contratante, o vôo, dentre
outros.
O plano focal é onde se forma a imagem (f ~ i para câmaras
aéreas) e onde se posiciona o filme. Nas câmaras digitais, há uma matriz
de detectores nessa região da câmara, isto é, no lugar do filme.
2.13
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 14/60
Figura 2.12 – Alguns dados marginais de fotografias aéreas (cortesia
1a Divisão de Levantamento do Exército Brasileiro – Porto Alegre, Brasil)
Figura 2.13 – Exemplo de Certificado de Calibração (cortesia
1a Divisão de Levantamento do Exército Brasileiro – Porto Alegre, Brasil)
2.14
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 15/60
No magazine, localiza-se o sistema de aderência a vácuo e de troca
de filmes (câmaras analógicas apenas).
Toda câmara fotogramétrica vem acompanhada de um certificado
de calibração, ou seja: um documento que atesta os valores precisos de
determinados parâmetros fundamentais da câmara, que serão
devidamente utilizados nos processos fotogramétricos posteriores. Um
exemplo de certificado encontra-se na figura 2.13.
Os parâmetros principais da câmara são:
• Tipo de Câmara e Tipo de Lentes – Possui informações sobre o nome do
fabricante e modelo da câmara, bem como das lentes utilizadas;
• Distância Focal – Vem da lei de Gauss, exemplificada na equação (2.6).
No caso de uma imagem tomada a grandes distâncias, o valor de f é
constante e igual à distância-imagem. Em geral, f assume valores
nominais de 88 mm, 150 mm ou 300 mm;
Figura 2.14 – Representação da posição do filme na tomada da fotografia (neste caso, o
sistema de lentes está simplificado como se houvesse apenas uma)
• Ângulo de Abertura – Este parâmetro está exemplificado graficamente na
figura 2.15. Em geral, pode assumir três valores principais, a saber:
ângulo normal, grande angular e supergrande angular. A tabela 2.1
apresenta as principais características de cada tipo:
2.15
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 16/60
Tipo decâmara
Ângulode
abertura
Distânciafocal
Características (recomendação de uso)
Ângulo
normal
~ 75o ~ 300 mm Diminui bastante a distorção radial
(neste momento, basta saber que
esta é uma distorção que se
manifesta aproximadamente de modo
uniforme de acordo com a distância a
partir do centro da imagem), permite
maior altura de vôo, porém é
desaconselhável para trabalhos
estereoscópicos;
Grandeangular
~ 150o ~ 150 mm Geralmente utilizadas para a
confecção de cartas topográficas em
escalas médias e grandes.
Apresentam um bom rendimento;
Supergrande
angular
~ 88o ~ 88 mm Aumentam bastante a cobertura,
principalmente em baixas alturas devôo. Entretanto, as distorções radiais
tornam-se realmente incômodas em
alguns casos. É mais utilizada para
vôos em escalas pequenas.
Tabela 2.1 – Características dos diferentes tipos de câmaras fotogramétricas
A seguir serão listados pontos notáveis para o estudo das câmaras:• Ponto Nodal Anterior – Ponto de entrada de um raio de luz no sistema de
lentes com o mesmo.
• Ponto Nodal Posterior – Ponto de saída de um raio de luz do sistema de
lentes.
• Ponto Principal de Autocolimação – Ponto, no plano do filme, onde chega
um raio de luz que entra perpendicular ao sistema de lentes da câmara.
• Ponto Principal de Simetria – Ponto situado no plano focal, onde asdistorções são praticamente simétricas. A distância focal referente a este
2.16
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 17/60
ponto é chamada de distância focal calibrada.
Figura 2.15 – Relacionamento entre a distância focal e o ângulo de abertura
• Eixo Óptico – É o eixo que contém os centros de curvatura de
determinada lente. O sistema de lentes da câmara possui para si um eixo
óptico comum, a não ser que hava um desalinhamento dos eixos dos
diversos componentes do mesmo, o que na prática, sempre acontece. A
distância focal efetiva nas proximidades do eixo óptico é chamada dedistância focal equivalente (Andrade, 1997).
Alguns dos elementos anteriormente descritos encontram-se
destacados na figura 2.16, de modo a facilitar o entendimento dos
mesmos.
Constam dos certificados de calibração, em geral, as seguintes
informações: coordenadas do ponto principal, distância focal calibrada,
coordenadas das marcas fiduciais e coeficientes para correção das
distorções (a serem melhor estudadas posteriormente), acompanhados
2.17
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 18/60
dos respectivos desvios-padrão. Os métodos utilizados para a calibração
de câmaras fogem um pouco do escopo desta obra, sendo aconselhável
aos mais interessados a leitura de (Andrade, 1998).
Figura 2.16 – Alguns parâmetros da câmara fotogramétrica
2.2.1 AQUISIÇÃO DE IMAGENS FOTOGRAMÉTRICAS
ANALÓGICAS
Para a aquisição de imagens fotogramétricas analógicas, usam-se
as já consagradas câmaras fotogramétricas a filme, ou seja, câmaras
onde há um filme no plano focal que é sensibilizado pela luz que chega
até ele. Em geral, um sistema de aderência a vácuo, que possui sistemas
de enrolamento e descompressão, permitindo o avanço automático de
uma fotografia para outra, sem haver dobras ou amassos no filme.
Variam de filme para filme os aspectos referentes à absorção de luz
e sensibilização da emulsão; porém, em geral, o filme fotográfico
pancromático padrão é composto por diversos grãos de haleto de prata,
que são sensibilizados pela luz que chega até eles. Obviamente, em cada
parte do filme, chegará luz em comprimentos de onda e intensidades
diferentes (uma vez que cada objeto reflete e/ou emite energia de formas
2.18
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 19/60
diferentes), acarretando em distintas exposições. A redução dos grãos,
após a revelação, produz um depósito de prata no filme. À medida que
essa prata se deposita, mais escura fica a região onde se dá o acúmulo –
ou seja, objetos mais claros terão suas imagens mais escuras – a isso se
chama negativo.
Caso se queira gerar uma imagem em filme correspondente à
coloração dos objetos, deve-se sensibilizar um filme com um negativo à
frente. Esse filme, quando revelado, passa a se chamar diapositivo. Os
diapositivos são muito empregados em fotogrametria, devido à
translucidez característica deles, que permite melhor visualização contra
projetores de luz e scanners.
Obviamente, as fotografias em papel, opacas, são também geradas
do mesmo modo. Sua utilização é igualmente irrestrita, servindo para a
confecção de mosaicos analógicos e de apoio ao pessoal de campo,
quando da medição dos pontos de controle e coleta dos topônimos.
A medida chamada transmitância (T) expressa a razão entre a
quantidade de luz que pode passar pelo diapositivo (ou pelo negativo) e o
total de luz que incide sobre o filme. A opacidade (O) é igual ao inverso da
transmitância. Assim, quanto mais escura for a imagem, menor é aquantidade de luz que por ela passa, menor é a transmitância e maior é a
opacidade, e maior é a densidade (D). A densidade é o logaritmo decimal
da opacidade. O uso de unidades logaritmicas advém do fato de o olho
humano responder aos estímulos visuais de modo aproximadamente
logaritmico.
Colocando-se em um gráfico a densidade (D) pelo logaritmo da
exposição (log E), obtém-se uma curva denominada curva característica
do filme. Em geral, ela é representada para o filme em negativo, porém,
curvas para diapositivos também podem ser encontradas. A figura 2.17
expressa o formato aproximado de tais curvas.
Pode-se perceber que a curva característica possui uma parte
central que assemelha-se a uma reta. É esta a área de utilização do filme.
Se a exposição for curta demais, a densidade será baixa e a curva
característica cairá numa região não-linear (início da curva). Se a
exposição for longa demais, fato semelhante ocorrerá (final da curva).
2.19
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 20/60
Figura 2.17 – Perfil de curvas características para um negativo e um diapositivo
A tangente do ângulo α, representado na figura 2.18, é chamada γ
(gama). O γ varia de filme para filme, porém, está relacionado com o
conceito de contraste. Assim, quanto maior é o γ , maior é o contraste (e
vice-versa), ou seja, para menores diferenças na exposição do filme, há
maiores diferenças na densidade de grãos sensibilizados. Na prática, isso
quer dizer que, para pequenas diferenças de iluminação, há maiores
diferenças de coloração no negativo.
Figura 2.18 – Representação da parte reta de uma curva característica
Cada filme possui sua própria curva característica. Isso
determinará, de acordo com os objetivos do aerolevantamento, a escolha
da emulsão mais propícia. Para ajudar nesta escolha, vários parâmetros
2.20
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 21/60
foram estabelecidos – os mais importantes, denominados resoluções, são
demonstrados no tópico a seguir.
2.2.1.1. RESOLUÇÕES DAS IMAGENS FOTOGRAMÉTRICAS
ANALÓGICAS
Toda imagem possui quatro resoluções básicas, ou seja, quatro
parâmetros básicos de avaliação de suas capacidades de aquisição de
dados. Estas resoluções são denominadas: resolução espacial,
resolução radiométrica, resolução espectral e resolução temporal.
A resolução espacial está diretamente relacionada com a
capacidade de “enxergar” objetos tão pequenos quanto o filme permita.
Uma resolução, por exemplo, de 1m, quer dizer que os menores objetos
passíveis de serem distinguidos terão 1m de dimensões. Objetos
menores não serão visualizados. Esta resolução é determinada pelo
tamanho dos grãos de haleto de prata da emulsão. Maiores grãos recaem
em menor resolução espacial, porém, se sensibilizam mais rápido. Em
especial para câmaras aéreas, o tempo de exposição deve ser o menor
possível, de modo a evitar os efeitos danosos que a movimentação da
aeronave pode acarretar (seção 2.3). Isso causa ao responsável pelo
trabalho fotogramétrico um considerável problema: balancear resolução
espacial e velocidade do filme.
Para medir a resolução espacial, em laboratório, tiram-se fotos
contra um alvo composto de inúmeras linhas brancas sobrepostas a umfundo preto (Figura 2.19).
A resolução espacial é determinada pela quantidade de linhas que
podem ser identificadas em um milímetro (l/mm). Também é comum a
expressão “pares de linhas por milímetro” (lp/mm), que é exatamente igual
à primeira, apenas considerando que os espaços em preto entre as linhas
em branco são equivalentes a “linhas pretas” – daí a expressão “pares de
linhas”. Essa identificação pode ser visual (processo mais rudimentar), ou
realizada por aparelhos denominados densitômetros (mais informações na
2.21
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 22/60
seção 2.2.2), cuja tarefa é identificar até que ponto a imagem obtida
mantém os padrões regulares de transição “branco para preto”.
Figura 2.19 – Alvo para determinação deresolução espacial de uma câmara (fonte: USAF)
Convém ressaltar que estes valores (resolução espacial estática),
obtidos em laboratório, não correspondem ao real, uma vez que um vôo
incorre em inúmeros outros problemas que afetam a resolução espacial
final. Para obter uma medida mais realista, pode-se realizar um vôo
contra um grande alvo com os padrões semelhantes aos da Figura 2.19.
A resolução obtida por este método seria chamada resolução espacial
dinâmica, porém, raramente tais testes são realizados.
Figura 2.20 – Padrões ideais de transição “branco para preto”
(ondas quadradas) e padrões obtidos através de um densitômetro
(senóides). A tarefa de tal aparelho é identificar até onde há um
verdadeiro contraste entre as linhas claras e escuras, uma vez que,
à medida que as senóides se atenuam, a imagem perde sua
nitidez nas bordas (fonte: USAF).
2.22
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 23/60
Os filmes geralmente utilizados em aerofotogrametria possuem
uma resolução espacial em torno de 40 l/mm (ou 40 lp/mm). Para um vôo
na escala de 1:25000, a resolução espacial no terreno seria igual a: 25000
(denominador da escala) / 40 = 625 mm = 0,625 m.
A resolução radiométrica é um fator que está relacionado com a
capacidade de se detectar as menores variações possíveis de incidência
de energia sobre o filme. Por exemplo, um filme que seja capaz de
registrar apenas dois tons: preto e branco, tem uma resolução
radiométrica menor que um filme que seja capaz de registrar várias
nuances de cinza dentro da mesma faixa de exposição. Esse exemplo vale
muito mais para imagens digitais, porém, para imagens analógicas
também se aplica.
A resolução radiométrica pode ser melhor verificada através de um
gráfico comparativo entre duas emulsões, como atesta a Figura 2.21.
Obviamente, há um intervalo mínimo de variação de densidade que
acarreta em uma diferença de tonalidade na imagem final. Se, para esse
intervalo mínimo de variação, corresponder uma menor diferença de
exposição, logo, a resolução radiométrica é maior. Imagens com alta
resolução radiométrica apresentam alto γ .
Figura 2.21 – Duas amostras de curvas características de filmes. Nota-se a maior
resolução radiométrica da amostra da esquerda, uma vez que, dentro da mesma faixa de
exposição (entre linhas pontilhadas), pode-se perceber onze nuances diferentes de cinza
(relacionadas com as variações mínimas de densidade necessárias para acarretar uma
mudança de tonalidade na imagem final. Na imagem da direita, há menos de seis varia-
ções de tons de cinza no mesmo intervalo de exposição e mesmas variações de densidade.
2.23
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 24/60
A resolução espectral envolve o número de bandas e a espessura
de cada banda que o filme é capaz de cobrir. Um filme pancromático
cobre a faixa do visível, por exemplo. Um filme colorido cobre a mesma
faixa, porém em três bandas diferentes: vermelho, azul e verde. Como o
filme colorido tem três bandas, e cada banda é mais estreita que o
pancromático (obviamente, pois este equivale às três juntas), pode-se
dizer que o filme colorido tem uma maior resolução espectral que o
pancromático.
Existem praticamente apenas quatro variedades de filme:
pancromático (todo o visível, foto em tons de cinza), pancromático
incluindo a faixa do infravermelho, colorido e falsa-cor (associa a
coloração vermelha da foto à radiação infravermelha, a coloração verde àradiação vermelha e a coloração azul à radiação verde). O uso da cor se
justifica devido à maior facilidade do olho humano de discernir entre cores
diferentes, ao invés de tons de cinza. Entretanto, os filmes coloridos
geralmente são mais pobres em termos de rapidez de exposição e
resolução espacial – o que limita seu uso apenas a casos em que são
estritamente necessários.
O filme colorido funciona de modo semelhante ao pancromático,porém envolve três emulsões diferentes, e que possuem curvas
características semelhantes. Vale lembrar que, assim como no caso do
negativo preto-e-branco, cuja emulsão corresponde, em coloração,
contrariamente à radiação que o sensibiliza (exemplo: um objeto branco,
no negativo, é representado com coloração preta) as emulsões sensíveis a
determinada cor, são representadas, no negativo do filme colorido, pela
coloração contrária à da radiação. Um exemplo: se um objeto azul é
fotografado, sairá com a coloração amarela no negativo (basta ver no
diagrama de cores primárias, ou complementares, qual é a cor que se
encontra exatamente do lado oposto da cor desejada).
As emulsões do filme colorido são as seguintes: emulsão sensível à
luz azul – e que tinge o negativo de amarelo; emulsão sensível à luz verde
e à luz azul e emulsão sensível à luz vermelha e à azul. Como as duas
últimas emissões são sensíveis ao azul também, convenciona-se colocar
um filtro azul bastante fino entre a primeira camada de emulsão e as
2.24
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 25/60
outras duas. Com isso, chega às duas últimas apenas a luz vermelha e a
verde, e com isso elas passam a se tornar: emulsão sensível à luz verde –
que tinge o negativo de magenta e emulsão sensível à luz vermelha – que
tinge o negativo de ciano. Como qualquer radiação no visível é uma
composição de vermelho, verde e azul, pode-se representá-las através da
fotografia colorida.
Para os filmes falsa-cor, o princípio é o mesmo, apenas variando as
radiações que os sensibilizam (maiores detalhes sobre a composição
cromática do filme são encontrados em (Lillesand, Kiefer, 2000)).
A última das resoluções de uma imagem é a resolução temporal, e
que se relaciona com o tempo de revisita da plataforma na qual a câmara
está montada. Um satélite que, por exemplo, adquira imagens de uma
mesma região de 17 em 17 dias terá uma resolução temporal maior que
uma série de vôos para atualização cartográfica que cobrem a mesma
área, imageando-a apenas uma vez a cada ano. É um conceito que
interessa muito às aplicações temáticas, tais como: movimentação de
bacias, crescimento populacional, poluição urbana e estudos ambientais,
etc. Como, em geral, para vôos fotogramétricos, a área é coberta apenas
uma vez, este é um conceito que se aplica principalmente para imagensorbitais.
2.2.2 AQUISIÇÃO DE IMAGENS FOTOGRAMÉTRICAS
DIGITAIS
Para a fotogrametria digital, interessa bastante esse tópico, uma
vez que as imagens digitais são a fonte para a aquisição dos dados
tridimensionais das feições nela contidas.
Há, basicamente, dois tipos de imagem digital: vetorial e matricial.
A imagem vetorial é caracterizada pela delimitação de objetos pelos
pontos que os determinam. Ela será melhor explicada posteriormente, na
parte que abordará a restituição digital.
A imagem digital é uma matriz composta por células quadradas,
2.25
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 26/60
chamadas pixels (picture elements). Dentro de cada pixel , há somente
uma coloração sólida, definida por um número digital. Neste momento,
basta saber que cada número digital possui uma determinada coloração
associada a ele. Os pixels podem ser melhor evidenciados se a imagem
for sucessivamente ampliada (Figura 2.22).
Figura 2.22 – Note-se a estrutura de pixels existente na imagem e melhor evidenciada após
sucessivas ampliações da mesma
Pode-se, assim, definir qualquer imagem digital por uma matriz,
tendo por valor de cada um dos elementos o número digital equivalente.
Isso fica explicitado de maneira melhor na figura 2.23.
Figura 2.23 – Distribuição matricial (à direita) equivalente a
um conjunto de pixels (à esquerda)
2.26
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 27/60
2.2.2.1. RESOLUÇÕES DAS IMAGENS FOTOGRAMÉTRICAS
DIGITAIS
As quatro resoluções já delineadas para a imagem fotogramétrica
analógica também se aplicam à imagem fotogramétrica digital. Entretanto,
os conceitos variam razoavelmente entre elas, dada a natureza distinta
que elas possuem.
Na imagem digital, a resolução espacial está diretamente
relacionada com o “tamanho do pixel ”. Essa terminologia exprime o
quanto, no terreno, equivale ao lado de um pixel na imagem. Um exemplo
do cálculo desse valor: determinada imagem, de 32 X 32 pixels, equivale,no terreno, a uma área de 32 X 32 metros. Assim, cada pixel equivale a
um quadrado de 1m X 1m no terreno. Como dentro de um pixel só pode
haver uma coloração, pode-se dizer, a grosso modo, que esta equivale a
uma composição das tonalidades dos diferentes objetos existentes
naquela área. O tamanho do pixel, portanto, está diretamente relacionado
com a capacidade de se discernir objetos no terreno. Obviamente, quanto
menor o tamanho do pixel , maior é a resolução espacial da imagem digital.Hoje em dia, já há sensores por satélite com a capacidade de adquirir
imagens de pixels iguais ou menores que 1m X 1m. Imagens digitalizadas
a partir de fotografias analógicas ou adquiridas por câmaras aéreas
digitais apresentam resoluções ainda maiores, habilitando a utilização em
fotogrametria digital em escalas cada vez maiores.
Por fim, convém ainda citar que, no momento em que se arranja
uma área física da Terra em uma matriz de pixels de dimensões definidas,
executa-se um processo chamado discretização. O espaço contínuo e de
unidades de medida infinitamente complexas é reduzido a um conjunto
discreto de elementos arrumados em uma matriz. Obviamente, se houver
mais pixels cobrindo uma mesma área (Figura 2.24), a discretização dar-
se-á de modo mais realista, porém, isso aumenta proporcionalmente o
tamanho do arquivo final. Por exemplo, um trecho de 20 X 20 pixels é
quatro vezes menor que um de 40 X 40 pixels.
A resolução radiométrica, como exposto anteriormente, está ligada à
2.27
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 28/60
capacidade de discernir quantidades cada vez maiores de tons dentro
de uma determinada banda do espectro eletromagnético. Para as
imagens digitais, esse fator é mais facilmente quantificável, uma vez que,
por definição, a imagem digital deve possuir uma quantidade certa de
tons.
Figura 2.24 – Imagens da mesma região em resoluções geométricas diferentes (cortesia
1a Divisão de Levantamento do Exército Brasileiro – Porto Alegre, Brasil)
Uma vez que o sistema utilizado em informática é o binário, a
quantidade de tons de uma imagem digital está relacionada a uma
potência de 2. Como exemplo, pode-se citar uma imagem de 256 tons de
cinza. 256 = 28, ou seja, 8 bits (dígitos binários) por pixel . Na prática, isso
quer dizer que o número digital relacionado a cada pixel deve ser expressopor oito dígitos binários, de modo a permitir 256 variações numéricas
diferentes, podendo assim expressar a multiplicidade de tonalidades
desejada. Uma imagem de 1 bit por pixel, ou seja, que só pode exprimir 21
= 2 variações de tonalidade é chamada imagem binária, e somente vai
possuir tons de preto e branco. Intuitivamente, ela terá uma menor
resolução radiométrica que a imagem de 256 tons de cinza, podendo-se
formular que “quanto maior a quantidade de tonalidades em uma
determinada banda, maior é a resolução radiométrica”. O tamanho do
arquivo da imagem também é influenciado por esta resolução. Uma
imagem que tenha, por exemplo, 20 pixels ao todo, se for expressa em
formato tipo “mapa de bits (bitmap)” , sem compressão ou compactação,
possuirá o tamanho de 20 X 8 bits (1 byte) = 160 bits ou 20 bytes, se tiver
256 tons. Se tiver apenas dois, possuirá o tamanho de 20 X 1 bit = 20
bits.
Quando uma imagem é adquirida ou convertida para a forma digital
2.28
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 29/60
(tópico a seguir), faz-se necessário realizar um processo chamado
quantificação. Isso equivale a encaixar todas as respostas espectrais do
terreno imageado, na banda desejada, ao número de tonalidades pré
determinado.
Figura 2.25 – Imagens da mesma região em resoluções radiométricas diferentes - imagens
da esquerda para a direita de: 8 bits, 4 bits, 2 bits e 1 bit (cortesia – 1 a Divisão de
Levantamento do Exército Brasileiro – Porto Alegre, Brasil)
Um exemplo ilustrativo hipotético seria uma imagem que expresse,
em 16 (24 = imagem de 4 bits/pixel) tons de cinza, as variações de
quantidade de energia que chega ao sensor, na faixa de 0 a 16 unidades
de energia (u.e.). A distribuição final equivalerá a:
de 0 a 1 u.e. – número digital igual a zero (preto)
de 1 a 2 u.e. – número digital igual a 1 (preto)
de 2 a 3 u.e. – número digital igual a 2 (cinza)
de 3 a 4 u.e. – número digital igual a 3 (cinza)
de 4 a 5 u.e. – número digital igual a 4 (cinza)
de 5 a 6 u.e. – número digital igual a 5 (cinza)
de 6 a 7 u.e. – número digital igual a 6 (cinza)de 7 a 8 u.e. – número digital igual a 7 (cinza)
de 8 a 9 u.e. – número digital igual a 8 (cinza)
de 9 a 10 u.e. – número digital igual a 9 (cinza)
de 10 a 11 u.e. – número digital igual a 10 (cinza)
de 11 a 12 u.e. – número digital igual a 11 (cinza)
de 12 a 13 u.e. – número digital igual a 12 (cinza)
de 13 a 14 u.e. – número digital igual a 13 (cinza)
de 14 a 15 u.e. – número digital igual a 14 (cinza)
2.29
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 30/60
de 15 a 16 u.e. – número digital igual a 15 (branco)
As tonalidades mais claras sempre terão números maiores, pois
correspondem a uma quantidade maior de energia chegando ao sensor.
Para um número de tons igual a 2k, o tom mais escuro será igual a 0 e o
mais claro igual a 2k – 1.
É importante frisar que, embora, emissões de 13,1 u.e. e 13,9 u.e.
sejam diferentes, durante a quantificação, elas serão representadas do
mesmo modo, tornando-se indistinguíveis. Aumentar o número de tons
diminui esse tipo de problema, porém aumenta o tamanho do arquivo.
Uma discussão mais aprofundada sobre esse tema será apresentada no
tópico seguinte.
As outras duas resoluções (espectral e temporal) funcionam de
modo semelhante ao das imagens analógicas. Apenas cabe aqui falar um
pouco sobre as imagens digitais coloridas. Elas são compostas por três
imagens separadas, que serão representadas visualmente por vermelho,
verde e azul, mas que podem equivaler a quaisquer combinações de
bandas do espectro. Uma imagem colorida que é exibida na tela de um
computador é, na verdade, uma combinação de três imagens separadas. A grosso modo, pode-se compará-la a três diapositivos em tons de cinza
que expressam três bandas do espectro e que são projetados sobre uma
mesma superfície através dos filtros vermelho, azul e verde (um filtro para
cada imagem). Assim, uma imagem colorida de 16 milhões de cores
(16777216 cores, na verdade) é uma combinação de três imagens de 256
cada, ou ainda, uma imagem de 8 bits por banda, exibindo três bandas.
Embora ela tenha mais tons que uma imagem pancromática comum de
256 tons de cinza, diz-se que sua resolução radiométrica é igual, pois,
para cada banda, a quantidade de tons é a mesma que a da imagem
pancromática. Outro erro comum é dizer que essa imagem colorida é de
24 bits/pixel. Na prática, é isso que acontece, mas, formalmente ela
continuará sendo uma imagem de 8 bits, porém, com três bandas. Dentro
de cada banda, a capacidade de perceber variações de energia é a
mesma, daí a injustiça de classificá-la como de resolução radiométrica
maior. Ela terá, aí sim, uma resolução espectral maior, pois cobre bandas
2.30
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 31/60
menores e em maior quantidade.
2.2.2.2. MÉTODOS DE AQUISIÇÃO DE IMAGENS
FOTOGRAMÉTRICAS DIGITAIS
Para se obter a uma imagem fotogramétrica digital, há,
basicamente, dois modos. O primeiro é a digitalização matricial de
fotografias ou outro tipo de imagem analógica, por intermédio de
aparelhos chamados scanners. O segundo é a aquisição diretamente no
formato digital, a partir de câmaras fotogramétricas digitais.
A digitalização matricial envolve vários tipos de scanner . O mais
conhecido do usuário comum de informática é o scanner de mesa (Figura
2.26). A utilização do mesmo envolve a colocação da imagem analógica
sobre a mesa de vidro. Após isso, a matriz de CCD's (charge coupled
devices) percorrerá a imagem para a frente e para trás, gravando os
valores dos números digitais dos pixels que comporão o arquivo digital.
Figura 2.26 – Scanner de mesa Microtek (fonte: howstuffworks.com)
O CCD é, na verdade, um conjunto de pequenos diodos sensíveis a
determinada radiação (neste caso, à luz) que convertem fótons em
2.31
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 32/60
elétrons, gerando uma pequena corrente em cada um dos detectores.
Quanto maior a quantidade de energia que chega a um detector, maior é a
corrente gerada no mesmo.
Os scanners usados com fotogrametria digital são geralmente os
drum scanners, ou os scanners a vácuo. Estes usam a tecnologia PMT
( photo multiplier tube). O documento a ser digitalizado é posicionado em
um cilindro de vidro (caso dos drum scanners), ou colado a vácuo a uma
superfície lisa (caso dos scanners a vácuo). No centro do sistema, há um
sensor que separa a luz refletida pelo documento em três raios. Cada raio
é enviado a um filtro colorido onde a luz é transformada em um sinal
elétrico correspondente, de modo semelhante aos scanners de mesa.
Figura 2.27 – Drum Scanner (fonte: printingsystems.com)
Os scanners vêm, geralmente, com um programa de configuração,
onde serão definidos os parâmetros radiométricos, como: digitalização em
tons de cinza ou colorida, quantidade de bits por pixel e outros. A
gradação dos diferentes tons da imagem será feita do seguinte modo: otom mais claro equivalerá à corrente mais alta gerada para aquela imagem
e o tom mais escuro à corrente mais baixa gerada para aquela imagem.
Dentro deste intervalo, divide-se a variação entre a corrente mais alta e a
mais baixa pelo número de tons envolvidos.
Um fato importante que deve sempre ser ressaltado é a perda de
informação decorrente do processo de digitalização. Esta perda é
inevitável, uma vez que ainda não há dispositivos capazes de registrar em
sua integridade toda a complexidade radiométrica da imagem original. A
2.32
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 33/60
perda de resolução geométrica pode ser evitada, como será visto a seguir,
porém, freqüentemente é desejável, assim como a radiométrica, de modo
a diminuir o tamanho dos arquivos finais. O papel do profissional
envolvido na área de fotogrametria é fundamental no estabelecimento dos
limites de discretização e quantificação, de modo a permitir o tratamento
preciso dos dados, preservando a elegância das imagens originais. Um
erro nesta fase pode acarretar em dados obtidos sem precisão ou
imagens tão grandes que se tornam difíceis de manipular.
Em geral, para a resolução radiométrica, os valores mais utilizados
são os de 256 níveis de cinza (8 bits) ou 16 milhões de cores (8 bits em 3
bandas). Para a resolução geométrica (ou espacial), importantes
considerações são apresentadas a seguir.
Já foi previamente dito que a imagem analógica possui uma certa
resolução espacial, expressa em linhas/mm (ou lp/mm). O chamado
teorema da amostragem define que a resolução da imagem digital (RID)
deve ser o dobro da resolução da imagem analógica (RIA), ou seja:
RID=2
(2.10)
O valor de RIA é determinado calculando-se o quanto, em
unidades métricas, equivale a uma linha. Por exemplo, 40 linhas/mm
equivalem à RIA de 0,025 mm/linha, ou 25 µm/linha. Analogicamente, os
valores de RID devem ser expressos em (unidades métricas)/pixel.
Outro parâmetro definido empiricamente é o Fator Kell, que
considera a possibilidade de desalinhamento da imagem analógica. Pelo
fator Kell,
RID=RIA2 2
(2.11)
Por fim, tendo (2.10) e (2.11), pode-se estabelecer a seguinte
relação:
2.33
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 34/60
2 2 TRID T
2 (2.11)
Para o caso já citado anteriormente (RIA = 40µm), a resolução
ótima da imagem digital deve estar entre 14 e 20 µm/pixel. Tomando-se
uma média, pode-se fixar o valor para 17 µm/pixel. Ainda mais: se a
escala da foto é de, por exemplo, 1:20000, o valor, no terreno, do lado do
pixel será de 17 µm/pixel X 20000 = 0,34 m/pixel, que será o elemento de
resolução no terreno (ERT).
Hoje em dia, há scanners capazes de digitalizar pixels do tamanho
de 3,5 µm/pixel, a 16 bits por banda, com acurácia geométrica de menos
de 2 µm em cada eixo de digitalização.
Figura 2.28 – Três sistemas diferentes de obtenção de imagens a partir de câmaras aéreas:
o primeiro envolve uma matriz de pixels completa (sistema de quadro), que adquireimagens sobre todo um trecho do terreno; o segundo é o sistema por varredura eletrônica:
há somente uma linha de pixels, que adquirem uma linha imediatamente abaixo dela (a
imagem final é montada a partir da união das imagens parciais adquiridas); o terceiro é o
sistema por varredura mecânica: um conjunto de detectores é rotacionado até percorrer a
área desejada (notadamente, é o método que envolve o maior esforço computacional para
corrigir as distorções).
O segundo método de aquisição de imagens digitais (câmarasfotogramétricas digitais) ainda não se encontra tão difundido para
2.34
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 35/60
levantamentos aéreos devido, sobretudo, aos altos preços das câmaras
fotogramétricas digitais. Estas possuem um funcionamento semelhante
ao de uma câmara a filme, porém, ao invés de ter um filme no plano focal,
há uma matriz de CCD's. É vital perceber a diferença conceitual entre
esse tipo de câmara e as câmaras digitais de satélites de sensoriamento
remoto. Devido à maior distância entre estes e o terreno a ser imageado,
é mais fácil utilizar arranjos mais econômicos de CCD's, como os de
varredura (dois tipos: eletrônica e mecânica). A diferença entre os três
sistemas está explicada sob forma de ilustração (Figura 2.28).
2.3 PRINCIPAIS PROBLEMAS QUE AFETAM A AQUISIÇÃO DE
IMAGENS
2.3.1 ABERRAÇÕES GEOMÉTRICAS
Estas aberrações são devidas ao formato das lentes que compõem
o sistema de lentes da câmara. São as seguintes:
• Aberração de Esfericidade – É devida à curvatura da superfície da lente e
afeta as imagens de objetos situados no eixo óptico. Como conseqüência,
há uma falta de clareza e nitidez, reduzindo o contraste da imagem e
piorando a observação de detalhes. Para corrigi-la, utilizam-se
combinações de lentes no próprio sistema de lente da câmara.
• Coma – É devida à forma da lente e afeta as imagens de objetos situados
fora do eixo óptico (raios oblíquos). É eliminada através da alteração da
superfície dos elementos componentes do sistema óptico e limitando-se a
abertura do diafragma.
• Astigmatismo – Produz, a partir de um ponto objeto, imagens definidas
por linhas retas perpendiculares entre si, diminuindo a qualidade da
imagem. É reduzido quando o plano focal é colocado no círculo de
confusão mínima, onde o astigmatismo é minimizado.
2.35
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 36/60
• Curvatura de Campo – Objetos situados em um mesmo plano no objeto a
ser imageado não possuem seus círculos de confusão mínima situados no
mesmo plano, o que faz com que o plano-objeto não seja estritamente
plano, e sim parabolóide. É bastante controlado quando se diminui a
abertura do diafragma.
• Distorção – É a única que afeta a posição dos objetos imageados, e não
a qualidade da imagem. Há dois tipos de distorção: radial simétrica e
descentrada. A distorção radial simétrica é devida à refração sofrida por
um raio de luz ao atravessar uma lente e afeta regularmente os pontos da
imagem, a partir do ponto principal de simetria. A distorção descentrada é
causada pelo não-alinhamento dos eixos ópticos dos componentes da
objetiva de uma câmara. Ambas são modeladas por equações
matemáticas, cujos coeficientes são obtidos através do certificado de
calibração de câmara.
Para a distorção radial simétrica, as equações são do tipo
polinomial (Schenk, 1999):
δx = (k0 + k1 r 2 + k2 r 4 +k3 r 6) x'' (2.12)
δy = (k0 + k1 r 2 + k2 r 4 +k3 r 6) y'' (2.13)
x' = x'' - δx (2.14)
y' = y'' - δy (2.15)
δx e δy são as componentes da distorção radial simétrica;
r é o raio a partir do ponto principal de simetria;
k0, k1, k2 e k3 são os coeficientes que constam do certificado de
calibração de câmara;
x'' e y'' são as coordenadas do ponto sem correção, referidas ao ponto
principal de simetria;
x' e y' são as coordenadas corrigidas da distorção radial simétrica.
Para a distorção descentrada, o seguinte modelo foi estabelecido
(Schenk, 1999):
2.36
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 37/60
δx' = p1(r 2 + 2x''2) + 2 p2 x''y'' (2.16)
δy' = p2(r 2 + 2y''2) + 2 p1 x''y'' (2.17)
x = x' - δx (2.18)
y = y' - δy (2.19)
δx' e δy' são as componentes da distorção radial descentrada;
r é o raio a partir do ponto principal de simetria;
p1 e p2 são os coeficientes que constam do certificado de calibração de
câmara;
x'' e y'' são as coordenadas do ponto sem correção, referidas ao ponto
principal de simetria;
x' e y' são as coordenadas corrigidas da distorção radial simétrica;
x e y são as coordenadas corrigidas das duas distorções.
No passado, utilizavam-se princípios opto-mecânicos para corrigir
estas distorções. Atualmente, os métodos numéricos mostram-se
infinitamente mais práticos. Uma descrição mais detalhada da utilização
deles será efetuada no capítulo 3.
2.3.2 ABERRAÇÃO CROMÁTICA
Este tipo de efeito advém do fato de a luz se decompor em diversos
comprimentos de onda ao passar por um sistema de lentes, de modo
semelhante a um prisma. A distribuição de tal aberração independe daabertura do diafragma e é razoavelmente constante para todas as áreas
do plano-imagem. A correção para este problema se dá ao combinar duas
lentes de convergências opostas e índices de refração diferentes. Para
maiores detalhes, pode-se consultar (Andrade, 1997).
2.37
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 38/60
2.3.3 DISTRIBUIÇÃO DE LUZ NO PLANO FOCAL
A luz que chega ao plano focal para um ponto situado na periferia
do plano focal tem uma intensidade proporcional ao fator E0 cos4α (Figura2.29), onde E0 é a intensidade em um plano no eixo focal. A principal
conseqüência é o escurecimento dos cantos da imagem.
Hoje em dia, através de filtros especiais, tal efeito é quase que
completamente eliminado.
Figura 2.29 – Princípio do escurecimento dos cantos da imagem (extraído de Lillesand,
Kiefer, 2000)
2.38
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 39/60
2.3.4 ARRASTAMENTO DA IMAGEM
O movimento da plataforma (sensor), durante o tempo de
exposição, pode provocar este efeito, que se caracteriza por uma perda denitidez na imagem final. Ele equivale a:
a = V t E (2.20)
a é o valor do arrastamento;
V é a velocidade da plataforma, em m/s;
t é o tempo de exposição, em s;
E é a escala da foto.
O arrastamento pode ser corrigido através do uso de mecanismos
de compensação de movimento (Forward Motion Compensation), que
movem o filme durante a exposição, mantendo-o na mesma posição
relativa ao terreno. As melhores câmaras hoje em dia possuem sistemas
desse tipo.
2.3.5 EFEITOS ATMOSFÉRICOS
Variam de dia para dia. Alguns casos clássicos são:
• Dias ensolarados – Causam sombras muito compridas em determinadoshorários. A solução é realizar vôos quando o sol está alto. Valores para
ângulo de elevação do sol em função da época do ano e da atitude média
do lugar são encontrados em (Albertz, Kreiling, 1989)
• Umidade – Acentua a reflexão da luz solar nas camadas atmosféricas nas
regiões tropicais, principalmente. Causa o efeito chamado hot-spot , que
diminui o contraste da imagem final. Deve-se programar o vôo para que a
distância zenital do sol esteja superior à metade do campo de abertura da
objetiva da câmara usada.
2.39
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 40/60
• Névoa atmosférica – As partículas da névoa tendem a refletir o azul
(espalhamento de Rayleigh), deixando a foto azulada. Para diminuir esse
efeito, usa-se um filtro amarelo (chamado de minus blue) com boa
transmitância para as demais cores.
• Variação do índice de refração nas camadas atmosféricas – Em função dos
diferentes índices de refração, os raios ópticos não são exatamente retos,
sofrendo de curvaturas que levam, na imagem, ao deslocamento dos
pontos de sua verdadeira posição. (Schenk, 1999) indica uma fórmula
para a correção deste efeito:
dr =K r Ar
f 2 (2.21)
K=2410H
H2B6HA250
B2410h
¢h2B6hA250£H
10B6 (2.22)
r é a distância do ponto principal (i.e. centro da foto) a um determinado
ponto na imagem;
dr é a variação entre a posição verdadeira do ponto e a posição registrada
na foto (a distância eivada de refração é sempre maior, logo, dr deve ser subtraído de r original);
f é a distância focal da câmara;
H é a altura de vôo;
h é a altitude do plano médio do terreno.
2.4 PROCESSAMENTO DIGITAL DE IMAGENS
Após a obtenção das imagens, em geral, é necessário realizar
certas operações nas mesmas, de modo a melhorar a capacidade de
interpretação e utilização das mesmas. Embora fuja um pouco do escopo
desta obra, os principais métodos de processamento digital de imagens de
sensoriamento remoto são citados adiante.
• Aumento de contraste – Eventualmente, a imagem adquirida poderá
2.40
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 41/60
apresentar-se bastante clara ou escura. A função de aumento de
contraste trabalha com a imagem, alterando os números digitais dos pixels
de acordo com uma nova distribuição. Neste caso, objetos muito claros
ou muito escuros perderão sua fidedignidade. Um exemplo apresenta-se
na figura 2.30.
Figura 2.30 – Aumento de contraste (cortesia – 1a Divisão de Levantamento do Exército
Brasileiro – Porto Alegre, Brasil)
• Filtragem – O algoritmo de filtragem espacial funciona através do
deslocamento de uma máscara ou janela de dimensões ímpares (3X3,
5X5, etc.). Essas janelas possuem valores diferentes para cada
componente, os quais variam em função do filtro aplicado. O
procedimento de filtragem consiste em se passar esta janela sobre a
imagem, pixel a pixel, multiplicando os números digitais de todos os pixels
sob a janela pelos valores contidos na janela e substituindo o pixel central
da imagem original pelo resultado. Esse procedimento é melhor
exemplificado na figura 2.31.
Alguns tipos de filtros importantes são:
• Filtros “passa-baixa” – Recebem esta denominação os filtros que deixam
passar apenas as baixas freqüências, ou seja, eliminam grandescontrastes, como, por exemplo, bordas bem definidas. São chamados
filtros de suavização devido ao efeito que causam na imagem original,
depois de sua aplicação;
• Filtros “passa-alta” – Esses filtros deixam passar apenas as altas
freqüências espaciais. São chamados filtros de realce de bordas, pois
ressaltam mudanças bruscas nos níveis de cinza, que caracterizam
bordas;• Filtros direcionais – São filtros passa-alta que realçam determinada
2.41
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 42/60
direção;
• Filtros de convolução – São filtros destinados à eliminação de ruído nas
imagens digitais. Como exemplos, citam-se os filtros de stripping e o salt
& pepper (Albertz, Kreiling, 1989).
Figura 2.31 – Filtragem (Extraído de Crósta, 1993)
• Operações aritméticas – Consistem em, a partir de duas (ou mais)
imagens da mesma região, realizar uma operação aritmética elementar
nos valores dos números digitais dos pixels de mesmo índice das
imagens.
• Manipulação da imagem alterando o sistema de cores de RGB para HSI –
Uma maneira diferente de exprimir o sistema de coordenadas pelo qual se
representa uma imagem digital é o sistema HSI (Hue, Saturation and
Intensity – matiz, saturação e intensidade). Genericamente, pode-se
relacionar ao conceito de matiz a idéia de coloração, à saturação, a idéia
de tons mais puros ou mais pastéis e à intensidade a idéia de “claro e
escuro”.
Uma operação muito útil que se torna possível graças a esse
conceito é a fusão (merge) entre imagens de resoluções diferentes
cobrindo a mesma área. Nesta hipótese, o objetivo é aliar a maior
2.42
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 43/60
resolução geométrica de uma imagem pancromática (tons de cinza) à
maior resolução radiométrica de uma imagem em três bandas. Para fazer
isso, basta trocar a coordenada intensidade da imagem colorida pela da
imagem pancromática, preservando as proporções de tamanho dos pixels.
O produto final é uma imagem que alia as duas resoluções ótimas.
2.5 CARACTERÍSTICAS BÁSICAS DE OBTENÇÃO DAS
IMAGENS
Como já citado no capítulo 1, as imagens devem possuir áreas de
superposição de, no mínimo 50%, de modo a terem seu potencial
fotogramétrico plenamente aproveitado. Alia-se a isso a necessidade de
fixação de parâmetros rígidos de obtenção das mesmas, que implicarão
na melhor manipulação destas a partir dos modelos matemáticos já
desenvolvidos para a fotogrametria digital. Estes procedimentos serão
explicitados para os três casos mais freqüentes de obtenção de imagens
fotogramétricas: terrestre, aéreo e orbital.
No método terrestre, a aquisição de imagens fotogramétricas se dá
através de fototeodolitos ou de câmaras não-métricas montadas em tripés
bem fixados. A utilização da câmara métrica neste caso, visa uma maior
rigidez nas coordenadas de câmara, além de contar com seus parâmetros
já definidos em um certificado de calibração. Entretanto, dado o fato que,
em quase todos os casos, os levantamentos terrestres são realizados a
partir de estações estáticas (em relação à Terra), os efeitos danosos dodeslocamento da plataforma onde se instala a câmara são completamente
eliminados. Assim, a utilização de câmaras não-métricas passou a ganhar
grande importância, uma vez que estas são muito mais baratas e práticas.
Inúmeras pesquisas foram estabelecidas nesta área, levando a
procedimentos seguros de calibração. Este procedimento é realizado, em
geral, fotografando-se um determinado alvo. Maiores detalhes sobre o
assunto são fornecidas por (Ferreira, 2001).
Para a restituição e geração de produtos fotogramétricos, o objeto
2.43
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 44/60
deve ser imageado a partir de, pelo menos, dois pontos de vista diferentes
– obtendo-se, assim, um par estereoscópico da cena. Outros pontos de
vista colaboram como injunções a mais nos cálculos. Esse método
encontra especial importância na restituição de monumentos e acidentes
naturais de difícil acesso. O referencial utilizado é local e, em geral,
definido para cada projeto em separado. Os pontos de controle podem
ser pré-sinalizados (marcados no objeto) ou determinados posteriormente,
embora a primeira opção seja a mais utilizada neste caso. A Figura 2.32
mostra um caso de levantamento terrestre, desde sua obtenção até os
produtos finais gerados.
Figura 2.32 – Tomada de um par estereoscópico de um monumento (Solar da Imperatriz) e
produto final – restituição digital sobre ortoimagem (Prado et al 1999)
2.44
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 45/60
Os modelos matemáticos que se aplicam em um levantamento
fotogramétrico terrestre de curta distância são razoavelmente genéricos e
aplicáveis em todos os casos, desde que guardadas as analogias quanto
ao sistema de coordenadas global e aos pontos de controle.
O método aéreo foi, de longe, o mais empregado para obtenção de
dados cartográficos do terreno. Portanto, foi o que mais gozou dos
benefícios de uma organização padronizada de métodos e procedimentos.
Como resultado, foi possível, desde o início do século passado a criação
de aparelhos capazes de executar operações fotogramétricas a partir de
imagens aéreas tomadas sob determinadas condições – e que, até hoje,
já na era digital, são mantidas. São elas:
• Distância focal e abertura da câmara – Como já dito, obedecem a três
padrões: normal, grande angular e supergrande angular;
• Recobrimento lateral e longitudinal – as imagens adjacentes devem ter
um recobrimento (área de superposição) nominal de 60%. Duas faixas de
vôo devem possuir recobrimento de 30%. Isso garante maior
operacionalidade às imagens obtidas, em detrimento do maior número
necessário sobre determinada região. Esta condição é apresentada na
figura 2.33.
Figura 2.33 – Recobrimentos lateral e longitudinal
em uma imagem fotogramétrica
• Escala de vôo – Para imagens aéreas, a câmara encontra-se focalizada
para o infinito, devido à grande distância ao terreno. Isso possibilita que
relações simples de razão e proporção sejam estabelecidas, a fim de que
sejam determinadas variáveis dependentes da escala em um vôo
2.45
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 46/60
fotogramétrico. Assim, seja a Figura 2.34, que exibe melhor estes
parâmetros.
Figura 2.34 – Parâmetros de um vôo fotogramétrico
A escala da foto é definida pela relação entre uma distância na
imagem e sua homóloga no terreno:
E = d / D (2.23)
Tomando como base a figura 2.34, outras relações também podem
ser descritas:
E = f / H (2.24)
E = f / (hm – h) (2.25)
onde h é a altitude da câmara e hm é a altitude média do terreno
A escala da equação 2.25 é aproximada, e constante para toda a
2.46
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 47/60
foto.
Os métodos orbitais são mais recentes, já que a fraca resolução
espacial dos primeiros satélites impedia seu uso para a elaboração de
documentos cartográficos de precisão. Somente a partir do satélite SPOT
(Système Pour l'Observation de la Terre), majoritariamente francês, a
possibilidade de aplicação em restituição fotogramétrica tornou-se viável
(a própria França alega ter realizado diversas folhas de seu mapeamento
sistemático na escala 1:50000 utilizando tal satélite). Este sistema
introduziu a possibilidade de estereoscopia, pois a câmara poderia ser
rotacionada, permitindo o imageamento da mesma região em outra órbita
(Figura 2.35). Esse sistema também é utilizado pelos satélites CBERS I e
II (Satélite Sino-Brasileiro de Recursos Terrestres) e IKONOS II (que, por
ter resolução espacial de 1m, é considerado o primeiro satélite de
sensoriamento remoto realmente voltado para a cartografia precisa). Não
é um sistema ideal, pois entre uma órbita e outra, o terreno pode mudar
drasticamente, dificultando a estereoscopia e o reconhecimento
automático de pontos homólogos por correlação (Capítulo 4).
Figura 2.35 – Estereoscopia a partir do satélite CBERS – China Brazil
Earth Resources Satellite (cortesia – Projeto CBERS)
O satélite japonês ALOS-2 (Figura 2.36) possui um de seus
2.47
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 48/60
sistemas sensores equipado com três câmaras do mesmo tipo
posicionadas em inclinações diferentes, de modo a adquirir imagens com
recobrimento em um mesmo instante. A resolução desse sistema é de 2,5
m/ pixel .
Figura 2.36 – Sensor estereoscópico PRISM (Panchromatic Remote sensing Instrument for
Stereo Mapping ) do satélite japonês ALOS II ( Advanced Land-Observing Satellite)
(cortesia – NASDA – National Agency for Space Development of Japan)
As imagens de satélites fotogramétricos, devido às estruturas
diferentes de cada câmara e de cada sistema, exigem análise diferenciada
e criação de modelos matemáticos adequados a cada satélite, o que
acaba dificultando sua popularização. Nesse sentido, passam a ser
necessários módulos adicionais para permitir seu processamento
fotogramétrico), estimulando a subutilização das mesmas apenas em
georreferenciamentos (2.6.2). Espera-se que, para o futuro, esta total falta
de padronização possa ser contornada.
2.6 MÉTODOS FOTOGRAMÉTRICOS DE RESTITUIÇÃO
APROXIMADA
Neste tópico, são enfatizados alguns métodos de obtenção de
informação espacial a partir de imagens (o que os caracteriza como
fotogramétricos), embora sem grande rigor métrico. Tais métodos são de
grande valia nas fases de planejamento de levantamentos fotogramétricos
e ainda hoje são utilizados nas instituições produtoras de dados
2.48
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 49/60
cartográficos.
2.6.1 AQUISIÇÃO MONOSCÓPICA DA ALTURA DE OBJETOS
Seja a figura 2.37, onde está representada uma elevação sobre o
terreno (torre).
Figura 2.37 – Efeito do deslocamento devido ao relevo
a e a' são as imagens dos pontos A e A' da torre. Nota-se que o
objeto apresenta-se na imagem bidimensional com um deslocamento
relativo entre a e a'. Esse fato será explorado na formulação a seguir,
para determinar um relacionamento matemático que chegue a htorre.
dr é a diferença entre r e r' e expressa o deslocamento devido ao
relevo sofrido pelo objeto
Por semelhança de triângulos, tem-se:
2.49
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 50/60
OA'P' α Oa'p –f H=r'/P'A' (2.26)
OAP α Oap–
f
HBhtorre
=r /PA (2.27)
Dividindo-se membro a membro, e considerando que PA = P'A':
h=dr Er
(2.28)
(Andrade, 1997) enuncia que o valor calculado desta forma é
aproximado, uma vez que a altura de vôo sobre o plano médio não é
conhecida com grande exatidão e que estas fórmulas só valem em sua
amplitude para fotografias perfeitamente verticais.
2.6.2 GEORREFERENCIAMENTO
Antes de definir tal conceito, convém explicitar o conceito mais
genérico de registro. Registro é uma transformação geométrica que
relaciona as coordenadas planas de um determinado objeto com as
coordenadas de referência. Georreferenciamento é o registro executado
quando as coordenadas de referência modelam a superfície terrestre
(exemplo: latitude, longitude e altitude, coordenadas UTM, etc.).
Pode-se georreferenciar vários tipos de objetos. Um exemplo éuma carta que foi digitalizada matricialmente e apresenta-se em um
sistema de coordenadas plano definido pela linha e coluna dos pixels.
Outro caso é o de dados obtidos via mesa digitalizadora, que encontram-
se em determinado sistema de coordenadas da própria mesa.
Neste caso, interessa compreender o georreferenciamento de uma
imagem digital, que compreende determinada região do terreno. O tema
georreferenciamento está inserido no capítulo 7 – Retificação e
Normalização de Imagens, porém, como é de uso corrente em aplicações
2.50
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 51/60
de geociências, alguns pontos devem ser esclarecidos previamente, de
modo a condicioná-lo como método de restituição aproximada.
O georreferenciamento, como toda transformação, cria parâmetros
que permitem, a partir da leitura das coordenadas pixel da imagem, obter
as correspondentes coordenadas de terreno para aquele ponto. Vários
modelos podem ser utilizados, sendo a transformação afim com seis
parâmetros a mais comum (maiores informações sobre essa
transformação serão fornecidas no capítulo 3 – Orientação Interior).
Obviamente, as dificuldades naturais de se obter coordenadas
tridimensionais a partir de um sistema bidimensional são marcantes nesse
processo (no caso de um registro entre coordenadas planas com outro
tipo de coordenadas planas, como, por exemplo, entre mesa e carta, estes
problemas são menos visíveis). No mínimo três pontos de controle (isto é,
que têm coordenadas planas e espaciais conhecidas) devem ser
estabelecidos, porém, para que sejam obtidos parâmetros de precisão
adequados, recomenda-se a adoção de mais deles.
Freqüentemente, o georreferenciamento é associado a uma
reamostragem (maiores informações também no capítulo 7). Nesse
ponto, basta realizar uma analogia de reamostragem com um algoritmoque “estica” ou “encolhe” determinadas partes da imagem, a fim de tentar
representá-la no mesmo sistema de projeção da base cartográfica.
Terrenos movimentados tendem a apresentar resultados muito ruins no
georreferenciamento/reamostragem, o que sugere parcimônia na
utilização de tais rotinas, aumentando o uso de pontos de controle e/ou
separando a imagem por áreas homogêneas.
Finalmente, após o que foi exposto, deve-se dizer que
georreferenciamento não passa de uma adequação entre sistemas de
coordenadas, e, nem de longe chega aos níveis de precisão dos métodos
fotogramétricos que trabalham com a reconstrução dos feixes perspectivos
na tomada de cada uma das imagens. Nem por isso deixa de ter sua
utilidade, pois pode ser aplicado em imagens que não possuem
considerável deslocamento devido ao relevo, bem como para sistemas de
características de câmara desconhecidas. Além disso, é útil caso se
deseje maior rapidez no processo, em detrimento da precisão final. Suas
2.51
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 52/60
principais aplicações são na atualização cartográfica e em elaboração de
mapas temáticos.
2.6.3 PARALAXE ESTEREOSCÓPICA APROXIMADA
O termo paralaxe refere-se à mudança aparente das posições
relativas de imagens de objetos estacionários causada por uma mudança
do ponto de vista. Um exemplo simples é a observação de diferentes
objetos através da janela de um veículo. Aqueles que estão distantes,
como montanhas aparentam mover-se muito pouco em relação ao
referencial (janela). Objetos mais próximos da janela aparentam mover-se
em distâncias muito maiores.
Tomando agora como referencial o avião utilizado para
levantamentos fotogramétricos, percebe-se que tal fenômeno ocorre de
maneira semelhante, e que o mesmo pode ser utilizado em proveito do
usuário de fotogrametria. Assim, para elevações mais altas, o movimento
em relação à aeronave aparentará ser mais intenso que para elevaçõesmais baixas. Um exemplo interessante deste princípio está na Figura
2.38.
Figura 2.38 - Efeito da paralaxe em fotografias aéreas
A figura mostra duas tomadas de um mesmo monumento (obelisco)
em Washington D.C., EUA. Como tal obra é consideravelmente mais
2.52
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 53/60
elevada que o restante do terreno englobado pelas imagens, observa-se
uma distância bem menor entre os topos que entre as bases. Porém, não
é de grande interesse ao fotogrametrista estabelecer coordenadas e
alturas apenas de monumentos. Assim, tal fenômeno deve ser estudado
também para as feições naturais do relevo, tais como depressões e
elevações. A figura 2.39 descreve, para dois pontos de uma elevação no
terreno, o efeito posicional em duas fotos diferentes.
Figura 2.39 - Deslocamentos devido à paralaxe em fotografias verticais (extraído de
Lillesand, Kiefer, 2000)
Uma reconstrução geométrica mostra o porquê da natureza da
paralaxe e sua conseqüente mudança de posição dos pontos observados
2.53
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 54/60
em relação ao referencial (neste caso a estação de exposição). Medindo
as coordenadas dos pontos a e b nas duas imagens, paralelamente à
linha de vôo, pode-se estabelecer uma relação, definida pela primeira
equação da paralaxe:
pa = xa - x’a (2.29)
Uma primeira importante conclusão que pode ser tirada é que os
deslocamentos devidos à paralaxe ocorrem apenas paralelamente à linha
de vôo (no caso, eixo x).
Neste momento, uma consideração se faz necessária: para que
haja tal coordenada, deve haver um sistema de coordenadas pré-
-estabelecido. Naturalmente, surge à mente a idéia de utilizar o sistema
das marcas fiduciais, que, em condições ideais, tem seu eixo x coincidente
com a linha de vôo. Contudo, a linha de vôo, na prática, não é
exatamente reta, devido às constantes mudanças de orientação do avião.
A verdadeira linha de vôo pode ser achada localizando-se os pontos
principais e seus conjugados (aqueles que correspondem aos pontos
principais das outras imagens), unindo-se estes pontos, obtém-se umalinha de vôo mais aproximada da realidade, e que é usada como
referência para medições de paralaxe. Unindo-se todas as fotos de uma
faixa, a figura resultante da linha de vôo é uma polilinha, ou um conjunto
de linhas. Para um par estereoscópico, a figura será uma linha,
materializada por quatro vértices (dois pontos principais e dois
conjugados). A figura 2.40 mostra este efeito graficamente.
A formulação expressa a seguir foi extraída de (Lillesand, Kiefer,
2000), e resume os princípios básicos da medição de paralaxe.
A figura 2.41 mostra a utilidade da paralaxe para a determinação da
altitude em um ponto. Sabendo-se a altitude de vôo, ou a altitude da
estação H, a base aérea, ou B, que é a distância entre as estações no
sentido da linha de vôo, a distância focal da câmara utilizada e a paralaxe
do ponto a, pode-se facilmente calcular a altitude de A, h A.
A figura 2.41.b é resultante da superposição de dos triângulos L e L’
de modo a mostrar graficamente a paralaxe pa.
2.54
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 55/60
Figura 2.40 - Linhas de vôo verdadeiras e aproximadas (ao ligar-se os pontos principais aos
seus homólogos)
Figura 2.41 - Relacionamento entre as paralaxes de um ponto A, no terreno (extraído de
Lillesand, Kiefer, 2000)
Por semelhança de triângulos:
a
f =B
H-h A (2.30)
2.55
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 56/60
H-h A =Bf pa
(2.31)
E, consequentemente:
h A = H − Bf pa
(2.32)
Também por semelhança de triângulos:
A
H − h A=
xa
f (2.33)
X A = xaH − h A
f (2.34)
Substituindo-se de (2.31) a (2.34), tem-se:
X A = B apa
(2.35)
Analogamente,
Y A = Ba
pa (2.36)
As equações acima citadas são comumente conhecidas como as
equações da paralaxe. Sabendo-se suas incógnitas, pode-se levantar
coordenadas de toda a região de superposição do par estereoscópico.
Em algumas aplicações, entretanto, deseja-se apenas saber a
diferença de altura entre dois pontos. Para este caso, utiliza-se a fórmula:
∆h = ∆pH2/pa (2.37)
onde ∆h é a diferença em elevação entre dois pontos cuja diferença de
paralaxe é ∆p, H é a altura de vôo sobre o ponto de menor altitude e pa é a
paralaxe do ponto mais alto.
2.56
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 57/60
Até agora, não se discutiu sobre o modo pelo qual as paralaxes são
medidas. Inicialmente, assumiu-se que os valores de x e x’ fossem
medidos diretamente nas fotos esquerda e direita, respectivamente. As
paralaxes seriam, então, calculadas a partir das diferenças algébricas de x
e x’. É notável que tal processo torna-se extremamente enfadonho
quando muitos pontos são analisados.
A figura 2.42 demonstra um método de medição que requer apenas
uma simples medição para cada ponto de interesse. Se as duas
fotografias que constituem um estereopar tiverem seus pontos principais e
respectivos homólogos alinhados (reconstituindo assim,
aproximadamente, a linha de vôo), a distância D permanece constante
para o conjunto e a paralaxe pode ser obtida a partir da medida d, ou seja:
Figura 2.42 - Estereopar alinhado para medição de paralaxe (extraído de Lillesand, Kiefer,
2000)
p = x - x’ = D - d (2.38)
A distância “d” pode ser medida com uma simples régua, desde que
a e a’ sejam identificáveis. Em áreas uniformes, tal procedimento torna-se
muito difícil e outra abordagem faz-se necessária.
Pode-se utilizar o princípio descrito na figura 3.3.1, e para o mesmo,
numerosos instrumentos foram desenvolvidos. Estes utilizam o princípio
2.57
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 58/60
da marca flutuante, descrito a seguir.
Ao observar-se através de um estereoscópio, o analista utiliza um
aparelho que posiciona pequeninas marcas de referência sobre os pontos
desejados. Tais marcas podem ser cruzes, pontos ou x’s. A marca
esquerda é vista apenas pelo olho esquerdo, e a direita, apenas pelo olho
direito. Modificando a posição relativa entre as duas marcas na direção de
vôo, pode-se vê-las “fundir”, formando uma marca única que parece
“flutuar” em um nível específico sobre o modelo. A aparente elevação da
marca flutuante varia com o espaçamento entre as marcas esquerda e
direita.
Para visualizar estereoscopicamente, uma série de estereoscópios
foram desenvolvidos. O mais simples de todos é o estereoscópio debolso.
Este tipo de estereoscópio consiste de um par de lentes
convergentes, de distância focal igual ao comprimento de seu suporte.
Assim, os raios de luz emergenges dessas lentes e oriundas de um
mesmo ponto no plano focal onde são colocadas as fotos, serão paralelos,
como se o ponto estivesse situado sobre o infinito. Com isso, há a
focalização dos cristalinos para o infinito e conseqüentemente, oparalelismo entre os eixos ópticos dos olhos, permitindo que na retina de
cada um seja projetada a imagem que lhe corresponde.
Entre as desvantagens deste processo, a principal é o fato de que
para visualizar estereoscopicamente, as fotos devem ser colocadas uma
por cima da outra, limitando a área útil e obrigando o operador a
constantemente ficar reposicionando as mesmas.
Conseqüentemente, foi desenvolvido um estereoscópio que supera
tais limitações; trata-se do estereoscópio de espelhos, que permite uma
completa visualização de todo o modelo, sem necessidade de
superposição de fotos.
O estereoscópio de espelhos nada mais é do que um estereoscópio
de lentes que, com auxílio de espelhos, permite um afastamento maior
das imagens. Lembra-se que as imagens independem do nível em que
foram colhidas para fim de visão estereoscópica.
A distância focal das lentes do estereoscópio de espelho é igual ao
2.58
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 59/60
caminho óptico da luz desde cada fotografia até o centro de cada lente. Os
espelhos podem ser substituídos por prismas.
Um dos aparatos mais comuns que empregam o princípio da marca
flutuante para medir a paralaxe com estereoscópios de espelhos é a barra
de paralaxe, que consiste de duas placas de vidro providas de marcas.
Tais placas estão unidas por uma barra graduada provida de um parafuso
micrométrico de alta precisão, de modo a medir com grande exatidão as
distâncias (leituras da ordem de 0,01 mm). Mantém-se a marca esquerda
fixa em sua posição enquanto a direita é movida ao acionar-se o parafuso
micrométrico.
Os aparatos descritos podem ser vistos na Figura 2.43.
Figura 2.43 – Estereoscópio de bolso (à esquerda) e estereoscópio de espelhos com barra
de paralaxe montada sobre as fotos (à direita) (cortesia: Sokkia)
2.7 CONCLUSÃO
Este capítulo teve como principal objetivo, fornecer ao leitor os
dados auxiliares necessários para o entendimento das técnicas de
fotogrametria digital que serão posteriormente estudadas. Com estes
conhecimentos, estima-se que o leitor possa ter uma noção geral dos
processos de obtenção de imagens fotogramétricas.
A partir do próximo capítulo, os algoritmos que caracterizam a
fotogrametria digital começarão a ser estudados. Para estes, a imagem
será considerada já adquirida em formato digital, de acordo com os
princípios descritos neste capítulo.
2.59
7/26/2019 Fotogrametria Material 04
http://slidepdf.com/reader/full/fotogrametria-material-04 60/60
REFERÊNCIAS BIBLIOGRÁFICAS
Albertz, J; Kreiling, Walter. Photogrammetric Guide. Karlsruhe. Wichmann, Alemanha: 1989.
Altan, Orhan; Toz, Gönül; Seker, Dursun. Photogrammetry– LectureNotes. Istanbul TechnicalUniversity. 1a Ed. Turquia: 2002.
Andrade, Dinarte Francisco Pereira Nunes de. Fotogrametria Básica. Instituto Militar de
Engenharia. Rio de Janeiro, Brasil: 1997.
Andrade, J. Bittencourt de. Fotogrametria. Ed. SBEE. Curitiba, Brasil: 1998.
Brito, Jorge Luís Nunes e Silva; Prado, Walter da Silva; Augusto, Eduardo Gurgel Garcia.
Estágio de Fotogrametria Digital para Engenheiros Cartógrafos - Notas de Aula. Instituto
Militar de Engenharia. Rio de Janeiro, Brasil: 1999.
Crósta, Álvaro Penteado. Processamento Digital de Imagens de Sensoriamento Remoto.
Unicamp. Campinas, Brasil: 1993.Digital Photogrammetry - AnAddendumto theManualof Photogrammetry. The American Society
for Photogrammetry and Remote Sensing. Bethesda, MA, Estados Unidos: 1997.
Ferreira, Jaime Mauricio Cardoso. Geração deOrtomosaicoa Partir deCâmaraFotográfica Digital
Não-métrica Kodak DC 265. Dissertação (Mestrado em Engenharia Cartográfica) -
Instituto Militar de Engenharia. Rio de Janeiro, Brasil: 2001.
Introduction to Photogrammetry. Universidade de Viena. Viena, Áustria: 2000.
ISPRS Brochure. The International Society for Photogrammetry and Remote Sensing. Suíça:
2001.
Jones, Nicole. Photogrammetry – Lecture Notes. The University of Melbourne. Melbourne,
Austrália: 1998.
Kraus, Karl. Photogrammetry- Fundamentals andProcesses. Volume 1, 4a Ed. Ferg, Dummler
Verlag. Bonn, Alemanha: 1999.
Lillesand, Thomas M.; Kiefer, Ralph W. RemoteSensingandImage Interpretation. John Wiley &
Sons. 4a Ed. Estados Unidos: 2000.
Novo, Evlyn. Sensoriamento Remoto: Princípios e Aplicações. Editora Edgard Blücher. 2a Ed.
São Paulo, Brasil: 1992.
Prado, Walter da Silva; Gomes, Camillo José Martins; Erwes, Herbert; Koatz, Gilson
Dimenstein. Solar da Imperatriz – O Primeiro Projeto Fotogramétrico no Brasil Utilizando as
Regras 3X3. In: XIX Congresso Brasileiro de Cartografia. Recife, Brasil: 1999.
Robinson, Arthur H.; Morrison, Joel L.; Muercke, Phillip C. et al. ElementsofCartography. John
Wiley & Sons. 6a Ed. Estados Unidos: 1995.
Schenk, Toni. Digital Photogrammetry – Volume I. TerraScience. 1a Ed. Estados Unidos:
1999
Top Related