SlideShare ist ein Scribd-Unternehmen logo
1 von 65
Downloaden Sie, um offline zu lesen
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
14
SUMÁRIO
1- INTRODUÇÃO .............................................................................................................................................. 16
1.1- Sensoriamento Remoto............................................................................................................................ 16
1.2- ........................................................................................................................ Fotogrametria
.......................................................................................................................................................................... 17
2- PRINCÍPIOS................................................................................................................................................... 19
2.1- Espectro Eletromagnético...................................................................................................................... 19
2.3- Comportamento Espectral...................................................................................................................... 22
3- SENSORES ..................................................................................................................................................... 24
3.1- Tipos.......................................................................................................................................................... 24
3.2- Características das imagens.................................................................................................................... 27
3.3- Resoluções ................................................................................................................................................ 28
3.3- Formato .................................................................................................................................................... 30
4- SISTEMAS SENSORES ................................................................................................................................ 30
4.1- Sistema Imagens LANDSAT ................................................................................................................. 30
4.2- Sistema SPOT .......................................................................................................................................... 32
4.3- IKONOS ................................................................................................................................................... 33
4.4- Quickbird ................................................................................................................................................. 34
4.5 Outros sistemas ......................................................................................................................................... 36
4.6- Imagem de Radar .................................................................................................................................... 37
4.7- Principais Sensores Radar ...................................................................................................................... 39
4.8- Laser Scanner .......................................................................................................................................... 40
5- PRINCIPIOS DE PROCESSAMENTO DIGITAL DE IMAGEM NO CONTEXTO SIG..................... 43
5.1- Generalidades........................................................................................................................................... 43
5.2- Noções de Processamento........................................................................................................................ 44
5.3- Etapas do Processamento........................................................................................................................ 44
5.4- Processamento.......................................................................................................................................... 45
5.4.1- Realce ................................................................................................................................................. 45
5.4.2- Filtragem............................................................................................................................................. 48
5.4.3- Composição Colorida ......................................................................................................................... 52
5.4.4- Correção Geométrica.......................................................................................................................... 53
6- CLASSIFICAÇÃO......................................................................................................................................... 60
6.1- Interpretação de imagem ........................................................................................................................ 60
6.1.1- Tonalidade e cor ................................................................................................................................. 61
6.1.2- Forma.................................................................................................................................................. 61
6.1.3- Padrão................................................................................................................................................. 62
6.1.4- Textura................................................................................................................................................ 63
6.1.5- Associação (ou convergência de evidências)...................................................................................... 63
6.1.6- Sombra............................................................................................................................................... 63
6.1.5- Chave da interpretação de imagem..................................................................................................... 64
6.2- Classificação Digital ................................................................................................................................ 66
6.2.1- Classificação Supervisionada ............................................................................................................. 66
6.2.2- Classificação baseada em objetos: segmentação ................................................................................ 73
6.2.3- Acurácia.............................................................................................................................................. 74
6.2.4- Qualidade da Imagem Temática ......................................................................................................... 75
7- SENSORIAMENTO REMOTO E SIG........................................................................................................ 77
8- BIBLIOGRAFIA ............................................................................................................................................ 77
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
15
Apresentação
Este material didático visa única e exclusivamente atender a disciplina de Sensoriamento
Remoto em ambiente de Geoprocessamento referente ao Curso de Especialização em
Geoprocessamento. O conteúdo está de acordo com a ementa da disciplina. Aqueles que
necessitarem de um maior aprofundamento em um dos tópicos descritos recomenda-se
consultar a bibliografia citada. Roga-se aos alunos que apontem falhas e façam sugestões a
fim de melhorar as próximas edições.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
16
1- INTRODUÇÃO
1.1- Sensoriamento Remoto
Pode-se definir sensoriamento remoto ou teledetecção como a ciência que tem por
objetivo a captação de imagens da superfície terrestre. Segundo BARRETT & CURTIS
(1992) “é a ciência de observação à distância”. Isto contrasta com o sensoriamento in situ,
onde os objetos são medidos e observados no local onde ocorrem. Em outras palavras, o
sensoriamento remoto está relacionado à ausência de contacto físico entre o sensor (câmara
fotográfica, satélite) e o alvo (objeto). Desta forma, o sensoriamento remoto também pode
incluir o estudo das técnicas de aerofogrametria e fotointerpretação, uma vez que fotografias
aéreas são remotamente captadas. Contudo, o termo se refere a captação, processamento e
representação de imagens orbitais. As imagens de sensoriamento remoto disponíveis
atualmente, são a forma mais rápida de se obter informações espaciais em formato digital,
permitindo que estas fontes sejam combinadas a outras informações, de forma a constituir um
banco de dados geográfico sobre o espaço em questão. O processamento dessas
informações,espacialmente referenciadas em meio digital é a base dos sistemas de informação
geográfica. Dentro das geotecnologias hoje disponíveis (sistemas de posicionamento global,
aerofotogrametria digital) o sensoriamento remoto desponta como tecnologia imprescindível
em aplicações geoambientais.
Resumindo, o sensoriamento pode ser definido segundo alguns autores da seguinte forma:
• É a aquisição de informações sobre um objeto sem entrar em contato físico com ele
(Hutton).
• Sensoriamento Remoto: é a ciência e a arte de obter informações sobre um objeto, área ou
fenômenos através da análise de dados adquiridos sem entrar em contato enquanto estão sob
investigação (Lillesand & Kiefer).
• Sensoriamento remoto é a coleção de informações sobre os recursos naturais e meio
ambiente usando imagens adquiridas por sensores a bordo de avião ou satélites (Ryerson).
• Sensoriamento remoto é um termo restrito a métodos que aplicam a energia eletromagnética
como meio para a detecção e mensuração das características dos objetos (Sabins).
As imagens provenientes do sensoriamento remoto podem ser processadas
digitalmente por modernos softwares em potentes hardwares, a fim de se obter da imagem o
maior número de informações possíveis. JENSEN (1986) denomina o processamento digital
de imagens como “conjunto de procedimentos relativos à manipulação e análise de imagens
por meio do computador”. A Figura 1 mostra o processo de captação das imagens através de
sensores a bordo dos satélites.
O tratamento digital de imagens difere, muitas vezes, dos procedimentos de
restituição de fotografias aéreas afetas ao campo aerofotogrametria, visto que a geometria da
fotografia aérea difere da geometria da imagem.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
17
Figura 1: Captação da Imagem
Em geral uma imagem é um registro da energia solar refletida pelos objetos ou
feições da superfície física da terra e captada pelo sensor a bordo de um satélite.
As aplicações do sensoriamento remoto nas décadas de 70 e 80 estavam ligadas ao
mapeamento ambiental em escalas médias e pequenas (1:50.000 a 1.000.000). A partir de
1997, esta realidade começou a mudar com entrada da órbita de novos satélites de melhor
resolução, havendo um aumento do campo de aplicação. Assim sendo, as imagens orbitais
passaram a servir de base para mapeamento em grandes e médias escalas (1:5.000 à
1:25.000). Em 1999 as imagens passaram a reproduzir um maior nível de detalhes ampliando
ainda mais as aplicações desta geotecnologia. Num futuro próximo as imagens apresentarão
um nível de detalhamento similar a fotografia aérea, o que permitirá que o sensoriamento
remoto atinja um maior número de usuários, e conseqüentemente diminuição de custos.
1.2- Fotogrametria
A fotogrametria segundo alguns autores pode ser definida como: A ciência, a arte e a
tecnologia de se obter medidas confiáveis, mapas, modelos de elevação digital e outros
produtos a partir de fotografias”. A fotografia aérea tem sido usada desde os primórdios do
Século XX como provedor de dados espaciais em uma grande gama de aplicações. A maioria
das bases cartográficas são provenientes desta geotecnologia e difere geometricamente das
imagens captadas por satélite. A Figura 2 mostra a câmara aérea dentro da aeronave que
realiza a cobertura do fotográfica do terreno. A câmera fotogramétrica tem por finalidade
prover imagens fotográficas com estabilidade geométrica a fim de serem utilizadas
cartograficamente. As fotografias devem ser verticais e possuem uma escala variável de
acordo com a altura de vôo e o relevo do terreno.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
18
Figura 2: Câmara aérea 1 (Adaptado, WOLF, 1981)
A escala de uma fotografia aérea é dada por pela distância focal da câmara e a altitude de
vôo- altura da aeronave em relação ao terreno. A figura 3 apresenta a determinação da escala
de uma fotografia aérea.
Figura 3: Escala de uma fotografia (Adaptado, Wolf, 1981)
Como já foi citada a imagem de satélite e fotografias aéreas possuem diferenças na forma de
captação de maneira de os métodos de tratamento são também diversos, bem como de certa
maneira as aplicações. A Tabela 1 mostra as principais diferenças entre uma imagem e uma
Plano do negativo
Terreno
23 cm
H
c= constante
Escala da FotografiaCentro
Perspectivo
D
d
P
p
c
Espaço Imagem
Espaço Objeto
Centro Perspectivo
(CP)
Sistema
de lentes
Feixe óptico
terreno
Distância Focal
( c ou f )
23cm
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
19
fotografia aérea. A restituição fotogramétrica é ainda a maneira mais exata de se extrair
informações cartográficas em grandes escalas(Ex:.1: 1.000 a 1: 5.000).
Tabela 1: Características das imagens
Características de
Captação
Aplicações
FOTOGRAFIA • Projeção central;
• Imagem em quadro;
• Posição vertical;
• Mapeamento em
grandes escalas (1:
1.000 à 1: 50.000)
IMAGEM ( S. Remoto)
• Varredura ou
escanerização;
• Mapeamento de
escalas a partir de 1:
10.000
2- PRINCÍPIOS
2.1- Espectro Eletromagnético
O sensoriamento remoto e a fotogrametria baseiam-se na aquisição de informações
armazenadas pelos sensores e câmaras , que captam a energia eletromagnética irradiada por
um objeto. A energia emitida ou refletida por objetos da superfície física da terra é
transmitida aos sensores em forma de ondas eletromagnéticas (figura 1). A informação
recebida pelo sensor pode ser codificada em termos de freqüência, intensidade e polarização
da onda. O conjunto de comprimentos de onda que compõem a radiação eletromagnética é
denominado espectro eletromagnético. Todas as ondas propagam-se a uma mesma
velocidade de 3 x 108 m/s, conhecida como a velocidade da luz. A fonte energética, sol,
origina as perturbações periódicas em forma de campos elétricos e magnéticos. O espectro
eletromagnético é dividido em regiões onde o componente comprimento de onda possui
características similares (Figura 4). O espectro eletromagnético se estende da região dos raios
gama(γ) às microondas.
Figura 4: Espectro eletromagnético ( Adaptado: Erdas, 2004)
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
20
Azul Verde Verm.
Comprimento de onda
µm
Visível µm
γRaio RaioX Ultra-Violeta
Infra Termal Microondas Radio/TV
Vermelho
µm
Os instrumentos de sensoriamento remoto operam em todos os campos de energia
exceto nas regiões dos raios x e γ e ondas de rádio. A estreita faixa da região visível (0,4µm –
0,7µm) possui uma particular importância, não apenas por ser detectável ao olho humano,
mas também pela quantidade de energia disponível para detecção. Os sensores detectam e
armazenam a energia (fótons) em bandas ou faixas nas quais o sensor é sensível. O número de
fótons (intensidade de energia) que alcança o detector varia de acordo com a quantidade de
energia emitida pela fonte de iluminação(sol), com a quantidade de energia absorvida pela
atmosfera e pelo grau de energia emitida e refletida pelos objetos da superfície.
A luz visível ou luz branca é um conjunto de ondas com diferentes freqüências e
comprimentos de onda, que nosso cérebro traduz como cores. Portanto, cada cor corresponde
a uma determinada onda eletromagnética, com freqüência e comprimento de onda específico,
que se refere a uma pequena faixa do espectro (0,4µm – 0,7µm).
2.2- Janelas Atmosféricas
As porções do espectro eletromagnético apropriadas para captação pelos sensores
são bastante restritas devido à absorção da atmosfera. A atmosfera reduz a percentagem de
radiação solar transmitida a terra. No obstante existem zonas em que a absorção é baixa, ou
seja, alta percentagem de transmissão de energia solar. Estas regiões são denominadas janelas
atmosféricas. São nestas janelas que trabalham as maiorias dos sensores que captam a energia
refletida por objetos da superfície terrestre. Desta forma, apenas parte do espectro
eletromagnético é apropriada para a captação de imagens. A absorção de energia pela
atmosfera reduz a percentagem de energia transmitida do alvo até o sensor. Logo, somente as
zonas de baixa absorção (janelas) serão utilizadas na captação de energia.
O conhecimento da interação e dependência entre a janela espectral da atmosfera e a
energia utilizada pelo sensoriamento remoto é requisito pelos diversos métodos de
sensoriamento, iniciando pela construção de um sensor até a análise do comportamento
espectral e reconhecimento dos alvos. Neste caso devem ser considerados os seguintes
fatores:
1. sensibilidade espectral do sensor;
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
21
2. existência da janela atmosférica;
3. existência da fonte de energia, com intensidade de radiação e composição espectral;
4. conhecimento sobre as alterações da radiação recebida através do objeto analisado.
A Energia Incidente (I) sobre os alvos da superfície terrestre interage de formas
diferentes de acordo com as características de geometria e físico-químicas de cada um deles.
Esta interação é específica para cada alvo e pode ser mensurada através das seguintes
componentes (Figura 5):
• Energia Refletida – R
• Energia Absorvida – A
• Energia Transmitida – T
Figura 5: Interação da energia com o alvo : Folha (Adaptado: Lingnau, 2003)
As três porções de energia podem ser mensuradas pela seguinte equação:
I = R + A + T
onde cada componente é uma função do comprimento de onda. A igualdade é um balanço da
energia e explica de uma forma geral a reflexão, absorção e a transmissão.
Deve ser considerado que:
1. para cada objeto as proporções entre reflexão, absorção e a transmissão são diferentes, o
que possibilita que os objetos possam ser identificados ou diferenciados;
2. significa também que para um mesmo objeto as proporções entre reflexão, absorção e a
transmissão são diferentes em relação ao comprimento de onda, ou seja, um objeto pode ser
diferenciado do outro em um determinado comprimento de onda e em outro comprimento de
onda não.
Pode-se dizer que a energia emitida ou refletida por objetos da superfície da terra é
transmitida aos sensores em forma de ondas eletromagnéticas. Na natureza ocorre uma grande
variabilidade da energia refletida, sendo que o seu conhecimento é de grande importância no
reconhecimento e identificação dos alvos a partir de dados de sensores remotos. Assim sendo,
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
22
deve-se descrever e explicar o conceito das características da reflexão dos alvos, objetos ou
feições do terreno.
2.3- Comportamento Espectral
Os objetos da superfície terrestre refletem e absorvem seletivamente energia eletromagnética,
devido a sua diferente composição molecular. Esta característica, denominada resposta
espectral dos objetos permite identificá-los numa imagem de sensoriamento remoto. Esta
depende das diferenças na composição físico-química dos materiais que compõem os objetos,
e estes interagem de maneira diferente com as ondas eletromagnéticas.
Com base na complicada estrutura da geometria e da heterogeneidade, ou seja, da
composição variável da superfície natural, as características de reflectância não podem ser
explicadas através de uma simples teoria eletromagnética. A heterogeinidade se reflete no
grau de reflectância e seu comprimento de onda.
O gráfico que representa o comportamento espectral de determinado objeto dentro de
determinadas faixas espectrais (bandas) denomina-se assinatura espectral. Como exemplo,
na figura 6 observa-se a assinatura espectral para vegetação sadia, apresentando picos e
vales. A reflexão visível nas diferentes faixas espectrais é originada dos pigmentos das
plantas. A clorofila absorve energia nos comprimentos de onda de 0.45-0.67 µm. A reflexão
no infravermelho próximo é determinada pela estrutura celular da planta. No infravermelho
médio, a reflexão é devida ao conteúdo de água na planta. A reflexão espectral da planta varia
durante o seu ciclo de crescimento. A resposta espectral da cobertura vegetal depende de sua
profundidade, densidade, idade e diversidade.
A alta reflexão da vegetação ocorre na faixa de 0,7-1,3 µm (infravermelho próximo). Os
valores da reflexão da vegetação nessa faixa espectrais podem ser influenciados pela
refletância do solo.
Figura 6 – Reflexão das folhas, observando-se no plano do infravermelho (0.75-1.3 µm) a
baixa absorção da água (Fonte: Barret & Curtis 1992).
0
20
40
60
80
100
0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0 2.2 2.4 2.6
Mm
%
Reflexão da Folha
Absorção da Agua
µm
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
23
Maior Reflexão conseqüentemente menor absorção. Percebe-se no gráfico da figura
4 que a absorção eletromagnética é inversamente proporcional a reflexão. No caso em
questão, existe alta reflexão da vegetação na faixa do infravermelho (0.76-1,4 µm). Muitas
feições ou objetos do terreno possuem boa resposta espectral na faixa do infravermelho tais
como: solos, relevo e sedimentação. Cada objeto terá diferentes respostas espectrais em
diferentes faixas do espectro, logo o usuário de estar ciente de que faixas escolher para
melhor mapear os objetos de interesse.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
24
Tabela 3: refletância dos alvos (Adaptado: INPE, 2003)
ÁGUA VEGETAÇÃO
SOLO COMPARAÇÃO DAS REFLETANCIAS
3- SENSORES
3.1- Tipos
Os sistemas sensores são equipamentos que estão a bordo das aeronaves ou satélites e sua
função é captar e registrar a energia eletromagnética proveniente dos objetos na superfície
terrestre. Sem eles não seria possível para o satélite obter imagens, ele estaria literalmente
“cego”.
Os sensores podem ser classificados em apenas duas classes:
• ATIVOS E
• PASSIVOS.
Os sensores passivos, tal como a fotografia, detecta e armazena energia solar ou
terrestre refletida ou emitida pelos objetos da superfície (Ex: imagens de satélite Landsat e
Spot). As imagens deste tipo de sensor irão depender das condições atmosféricas, pois áreas
com nuvens ou bruma não serão imageadas adequadamente. As características físico-químico
Solo
% Veg.
Água
Visível IV próximo IV médio
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
25
dos alvos imageados permitirão que a energia refletida seja registrada diferentemente em cada
porção do espectro eletromagnético (Figura 7).
Os sensores ativos, tal como o radar, gera energia ou radiação que é refletida pelos
objetos do solo. A energia refletida pode ser armazenada em meio fotográfico ou na forma
digital. Os sensores de microondas são um exemplo, pois detectam energia de 0.1 a 25 cm,
onde a absorção atmosférica é mínima. A energia emitida para os objetos é refletida por esses
ao sensor ( Ex: Radarsat, ERS-1). O imageamento independe das condições atmosféricas
(Figura 7).
Figura 7: Tipos de sensores
Cada satélite possui então as suas características peculiares de obtenção de dados.
Esta característica refere-se ao percurso que ele realiza em torno da superfície terrestre. Esta
rota denominamos de órbita. Dependendo do objetivo do satélite para o qual foi projeto ele
terá uma órbita específica.
Por exemplo, satélites de comunicação possuem órbita geossíncrona. Um satélite em
órbita geossíncrona equatorial (GEO) localiza-se diretamente acima da linha do equador,
aproximadamente a 36.000 Km de altura. Nesta distância o satélite demora 24 horas para dar
uma volta completa no planeta. Sabendo que a Terra demora 24 horas para dar uma volta
sobre o seu eixo (Movimento de
rotação), podemos observar que o satélite e a Terra se movem juntos. Sendo assim o satélite
GEO sempre está parado em relação ao mesmo ponto na terra, e por isso é denominado de
órbita geossíncrona ou órbita geoestacionária.
Mesmo com muitos satélites de comunicação em órbitas Geoestacionárias , eles não cobrem
as regiões polares da Terra. Para isso, são necessários os satélites de órbitas elípticas, que
cobrem as áreas extremas dos dois hemisférios.
Órbitas polares são muito usadas para a observação da superfície de nosso planeta. Como a
órbita do satélite tem a direção Norte-Sul e a Terra gira na direção Leste-Oeste, isto resulta
que um satélite em órbita polar pode eventualmente "varrer" a superfície inteira da Terra. Por
essa razão, satélites de monitoramento global como satélites de sensoriamento remoto e
meteorológicos sempre efetuam uma órbita polar. Nenhum outro tipo de órbita consegue uma
melhor cobertura da terra, Figura 8.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
26
Figura 8: Satelite de órbita polar
Existe diferentes níveis de aquisição de dados e o sistema do sensor, em geral os sensores
podem ser • imageadores (varredura) ou• não-imageadores (não varredura). Os sensores são
criados de acordo com o objetivos e aplicações. O quadro 1 abaixo apresenta o grupo de
sensores de acordo com sua origem.
Quadro1: Classificação dos sensores
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
27
3.2- Características das imagens
A localização de pixels (picture element) na imagem é determinada através de um
sistema bidimensional de linhas e colunas, expressas em coordenadas X e Y. A imagem
organizada desta forma num reticulado de linhas e colunas é denominada dado raster ou
formato matricial. A imagem está relacionada a uma função bidimensional de intensidade da
luz f (x, y), onde x e y são coordenadas espaciais linhas e colunas. Existe ainda uma outra
variável z relacionada à variação tons de cinza da imagem. O valor de z é denominado, digital
number- DN, ou tom de cinza (Figura 9).
A imagem digital pode ser representada por uma matriz de linhas x, colunas y e z
para os DN. Desta forma, uma imagem digital é uma função discreta f (x, y), definida por uma
grade regular de m linhas e n colunas, representada por:
f (i,j), onde : 0<i<m-1 e 0<j< n-1;
para f variando de [0 ,k-1];
onde, k= níveis de cinza (DN).
Cada elemento dessa matriz (i, j) é determinado por elementos da imagem, pixel.
Este sistema poderá ser transformado para um sistema cartográfico de coordenadas através de
pontos de controle reconhecíeis na imagem. Desta forma, uma imagem devidamente tratada,
poderá servir de base para à concepção de carta imagem (uma fonte de dados para Sistema de
Informações Geográficas).
Figura 9: Captação da Imagem
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
28
3.3- Resoluções
Um dado orbital geralmente é descrito por sua resolução, ou seja, características da
imagem de acordo com a radiometria, tamanho do pixel e faixas espectrais. As resoluções
podem ser:
• Espacial
• Espectral
• Radiometrica
• Temporal
A resolução espacial corresponde à área do terreno representada por um pixel na
imagem. O tamanho do pixel esta diretamente relacionado à informação contida na imagem,
quanto menor o pixel mais detalhes podem ser extraídos da imagem, logo melhor a resolução,
figura 10.
O sistema sensor tem a capacidade de cobrir uma linha de largura especifica composta
por um conjunto de pixels. Cada pixel corresponde a uma unidade mínima de área, que se
muito grande os detalhes são perdidos, visto que os vários objetos ou feições são agrupados
em um mesmo pixel, denominado pixel mistura (figura 10). O tamanho do pixel depende das
características de cada sensor a resolucao espacial é função o ângulo de visada do sensor e a
altura da plataforma.
Figura 10: Resolução Espacial- Tamanho do Pixel
Resolução de 30 metros Resolução de 4 metros
Tabela 3: Classificação das imagens quanto a resolução espacial
Tamanho do Pixel (metros) Sensores Aplicações
0,67- 05: Alta Quickbird, Ikonos Mapeamento em escalas
grandes
10-30 : media Landsat, CBERS II Mapeamento em escalas
medias. Meio Ambiente.
40- 1000: Baixa NOAA, SPOT Veg, CBERS
WFI
Monitoramento Ambiental
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
29
A Resolução Espectral refere-se a um intervalo específico de comprimento de onda do
espectro-eletromagnético armazenado pelo sensor (ex: bandas do visível e infravermelho). A
resolução espectral dos sensores é inerente às imagens multiespectrais e hiperespectrais.
Neste caso, a resolução indica a quantidade de regiões do espectro eletromagnético e pelo
intervalo de comprimento de onda. Estas imagens denominam-se bandas espectrais e
representam a energia registrada pelos detectores do sensor numa determinada região do
espectro eletromagnético, figura 11.
Assim sendo, uma imagem pode possuir conjuntos de dados de uma mesma cena.
Cada banda refere-se à determinada porção do espectro eletromagnético de reflexão e emissão
de luz ou calor de uma parte da superfície terrestre, que compõe a cena. Cada porção do
espectro eletromagnético detectado pelo sensor irá gerar uma imagem, com características
especificas segundo a resposta espectral de cada objeto.
Figura 11: Resolução Espectral
A Resolução Radiométrica refere-se ao número possível de dados para cada banda, ou seja,
o número de bits. Por exemplo, em um dado de 8 bits os valores dos tons de cinza para cada
pixel variam de 0 a 255 (ex: uma imagem de 11bits possui 2048 tons de cinza, figura 12).
Figura 12: Níveis de Cinza
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
30
A Resolução Temporal é a periodicidade em que determinada área é registrada pelo satélite.
A resolução temporal é de fundamental importância quando se pretende monitorar processos
dinâmicos como, por exemplo: a ocorrência de incêndios ou queimadas em reservas florestais,
derramamento de óleo no oceano, maremotos, mudanças fenológicas de culturas e o
crescimento de uma cidade. Alguns satélites como Ikonos revista uma mesma região a cada 5
dias.
3.3- Formato
Em geral imagens de sensoriamento remoto apresentam-se como arquivo multi-
banda (conjuntos de várias imagens referentes às faixas espectrais) ou banda simples (ex.
imagem digitalizada), de formato contínuo. Para cada (linha , coluna) existe um z (nível de
cinza). Um dado contínuo é aquele que contém um conjunto valores contínuos para os DNs
(Ex. Landsat, Spot, MDT). Um outro tipo de formato muito comum é o temático, oriundo de
imagens processadas de uma banda, associada a uma tabela de atributo. Esta imagem está
vinculada a dados qualitativos e/ou categóricos (Ex: mapa de uso do solo, vegetação), este
tipo de dado é bastante comum ao SIG. A imagem temática pode ser descontínua, pois
determinado pixel pode não estar associado à determinada classe ou valor. Atualmente
existem vários formatos para as imagens dependendo do software disponível, contudo o
formato mais comumente utilizado é o tiff ou geotiff.
4- SISTEMAS SENSORES
4.1- Sistema Imagens LANDSAT
Talvez a mais importante fonte de dados digitais em forma de imagens sobre a superfície
terrestre pertence ao conjunto de satélites do projeto Landsat, programa lançado pela NASA a
partir de 1972 para aquisição contínua de dados digitais de sensoriamento remoto (NASA,
1988). Landsat 4 foi lançado em julho de 1982 e o Landsat 5 em março de 1984. O Landsat 6
caiu e nunca entrou em fase operacional. O Landsat 7 foi lançado em abril de 1999, tendo
funcionado normalmente até março de 2003 quando interrompeu-se a captação de imagens
por problemas técnicos. As imagens apresentam distorções o que inviabilizou o seu uso
comercial. A nova geração de satélite Landsat está prevista para 2007.
Apesar dos problemas é ainda hoje o sistema Landsat o maior provedor de imagens
sobre a superfície terrestre, figura 13.
Figura 12: Característica da captação da Imagem
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
31
TABELA 4- Bandas do sistema Landsat TM 7
Bandas
Resolução
Espacial
Comprimento de Onda
µm
Aplicações
1 30m 0.45-0.52 - Azul Mapeamento de corpos d’água; diferenciação de
água e solo
2 30m 0.52-0.60 – Verde Reflexão de vegetação sadia
3 30m 0.63-0.69 – Vermelho Absorção de clorofila; diferenciação de espécies
vegetais, solo úmido e solo seco.
4 30m 0.76-0.90-Infravermelho
próximo
Levantamentos de biomassa, copas das árvores,
rios.
5 30m 1.55-1.75-
Infravermelho Médio
Detecção de umidade da vegetação
6 60m 10.4-11.7 – Termal Umidade da vegetação; geologia.
7 30m 2.08-2.35-
Infravermelho Alto
Umidade da vegetação; solos e geologia.
PAN 15m 0,50 – 0,90 µm-
Pancromático.
Exclusivo TM7
Útil no reconhecimento de padrões que necessite
de uma maior resolução espacial. Ex: estradas,
avenidas, quadras. Atualização cartográfica.
O Landsat 7 Thematic Mapper Plus (ETM+), que apresentou como principal inovação à
banda pancromática com 15 metros de resolução espacial . A banda pancromática inclui a
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
32
faixa do visível 0,50 a 0,90 µm, sobrepondo a faixa do espectro visível. Apesar de senilidade
o satélite Landsat 5 continua a mandar imagem à terra pouco utilizáveis devido a ruídos e
distorções geometricas. A tabela 4 mostra a característica do Landsat 7.
4.2- Sistema SPOT
O programa SPOT (Systéme Probatoire de l’Observation de la Terre) foi planejado e
projetado como um sistema operacional e comercial. Estabelecido pelo governo francês em
1978, com a participação da Suécia e Bélgica, o programa é gerenciado pelo Centro Nacional
de Estudos Espaciais – CNES (Tolouse-França), que é o responsável pelo desenvolvimento
do programa e operação dos satélites. Já foram lançados os SPOT 1, 2 e 3 ,4 e o mais recente
Spot 5 em 2002. O SPOT 5 apresenta maior detalhamento,mantendo as mesmas faixas de
observação.
Dois novos instrumentos HRG (High-Resolution Geometric) imageiam com 5 m de
resolução em Pancromático e 2.5 metros em "supermode". Cada um dos dois instrumentos
recobre uma faixa de 60 Km no solo, dentro de um corredor potencial de visibilidade de ±420
km.
Da mesma forma que os sensores dos antecessores do SPOT 5, os instrumentos HRG podem
imagear igualmente em modo multiespectral em 4 bandas (faixa espectral da luz verde,
vermelho, infravermelho próximo e infravermelho médio) . Graças as bandas no
infravermelho o SPOT 5 permite uma maior aplicabilidade ao mapeamento temático.
Se comparado com seu antecessor (SPOT 4) ainda em funcionamento pode-se
resumir as inovações a partir dos seguintes aspectos:
5 m e 2.5 m de resolução em P&B no modo Pancromático, contra 10m
anteriormente;
10 m de resolução em cores contra 20 m anteriormente;
A área recoberta por cada cena será mantida 60 km x 60 km.
Resolução temporal de 3 a 5 dias.
Estas características permitem o uso das imagens SPOT 5 para aplicações nas escalas entre
1:10.000 e 1:50.000. Atualmente este tipo de imagem vem sendo utilizado com vistas a
atualização do mapeamento sistemático.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
33
Figura 14: Cobertura SPOT 5
4.3- IKONOS
O satélite IKONOS lançado em 1999, foi o primeiro de alta resolução espacial de
1m na banda pancromática e de 4 metros nas bandas multiespectral. A Tabela 5 mostra as
principais características das imagens e do satélite IKONOS.
Tabela 5- Características da Imagem Ikonos (Adaptado, Engesat, 2003)
Resolução no terreno de
cada banda
Pancromática: 1m (considerando posição nominal de 26º fora
do nadir)
Multiespectral: 4m (considerando posição nominal de 26º fora
do nadir)
Bandas espectrais 0.45 a 0.90µ (pan)
Azul 0.45 - 0.52µ
Verde 0.52 - 0.60µ
Vermelho 0.63 - 0.69µ
Infra vermelho próximo 0.76 - 0.90µ
Faixa de imageamento 13km no nadir (cena simples 13km x 13km)
Tamanho das cenas
sugeridos
Faixas de 11km x 100km até 11km x 1000km
Mosaicos de até 12.000km2
Até 20.000km2 de área continua imageada em uma única
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
34
passagem
Acurácia métrica Horizontal: 12m
Vertical: 10m
(correção de sistema, sem pontos de controle cartográficos)
Precisão relativa de pelo menos 90% da cena;
Horizontal: 2m
Vertical: 3m (com pontos de controle)
Precisão relativa em pelo menos 90% da cena;
Tempo de Revisita 2.9 dias (pan)
1.5 dias (multiespectral)
Esses valores referem-se a alvos ao longo da latitude de 40º. O
tempo de revisita para latitudes maiores será menor, enquanto
que para as latitudes próximas ao Equador, o tempo será mais
longo.
Dentre os principais avanços, podem ser citados os seguintes:
• A maior resolução espacial possível entre as imagens orbitais atualmente disponível no
mercado.
• Facilidade para interpretação visual.
• Radiometria de 11 bits (2048 níveis de cinza) aumenta o poder de contraste e de
discriminação das imagens.
• Bandas espectrais no visível são mais largas (quando comparadas com Landsat 5 e 7),
permitindo uma maior penetração na atmosfera e maior poder de discriminação dos alvos
terrestres, principalmente da cobertura vegetal, áreas sombreadas e de corpos d’água.
• Imagens com 4m de resolução espacial oferecem até 25 vezes mais informações que
imagens com 20m de resolução.
• Com imagens pancromáticas de 1m, é possível distinguir objetos do tamanho de 1m 2
.
4.4- Quickbird
O Satélite de alta resolução Quickbird , além de sua apurada precisão, conta ainda com
sensores pancromáticos e multiespectrais. A grande capacidade de armazenamento de dados a
bordo de si, aliado ao fato de que este satélite capta cenas de 2 a 10 vezes maiores que
qualquer outro satélite de alta resolução, fazem com que o Quickbird seja o melhor em sua
categoria, no que concerne a resolução espacial.
Tabela 6- Características do Quickbird (FONTE: Engesat)
QuickBird
Data de lançamento Outubro de 2001
Veículo de lançamento Boeing Delta II
Local de lançamento Vandenberg Air Force Base, California
Capacidade de armazenamento de 128 Gbytes, aproximadamente 57 áreas imagens
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
35
dados simples
Altitude da órbita 450 km
Inclinação da órbita 98 graus, em sincronismo com o Sol
Velocidade 7.1 km / segundo
Horário de passagem 10:30 h
Duração da órbita 98 minutos
Capacidade de envio de dados 320 Mbps em banda X
Peso, tamanho 953 kg, 3.04-metros de comprimento
Tempo de vida útil No mínimo de 7 anos
Tempo de revisita 1 a 3,5 dias, dependendo da latitude (30o
off-nadir)
Largura do imageamento 16.5 km x 16.5 km, no nadir
Precisão métrica
Horizontal: 23 metros (CE 90%)
Vertical : 17 metros (LE 90%)
Digitalização 11 bits
Resolução*
Pan: 61 cm (nadir) a 72 cm (25o
off-nadir)
Multiespectral: de 2.44 m (nadir) até 2.88 m (25o
off-
nadir)
Formatos disponíveis GeoTIFF 1.0, NITF 2.1 ou NITF 2.0
Máximo para aquisição simples 1x10, 1 par estéreo
Pancromática 450 - 900 nm
Azul: 450 - 520 nm
Verde: 520 - 600 nm
Vermelho: 630 - 690 nm
Bandas
Infravermelho próximo : 760 - 900 nm
A resolução dos satélites de alta resolução depende do ângulo visada nadiral e pós-
nadiral. Dependendo deste ângulo a área imageada é maior, porem a resolução do pixel é
deteriorada, Para o Quickbird a imagem Pan: 61 cm no nadir até 72 cm (ângulo de 25o
pós-
nadir), igualmente para imagem multiespectral de 2.44 m (nadir) até 2.88 m (25o
pos-nadir
ou off-nadir), Figura 13.
Figura 13: Imagem Nadiral e Pós-Nadiral
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
36
4.5 Outros sistemas
Hoje existe no mercado um grande numero de satélites dentre os quais podemos citar:
a) CBERS: China Brazil Earth Resources Satellite. Lançado em 1999 na China, o satélite
sino-brasileiro passou a gerar imagens comerciais a partir do segundo semestre de 2000;
b) IRS: Indian Remote Sensing Satellite, possui a pancromática de 5 m de resolução, cada
uma recobrindo 70 por 70 Km;
c) ASTER (Advanced Spacebone Thermal Emission and Reflection Radiometer) é um dos
Instrumentos a bordo do satélite EOS AM-1 e obtém imagens de alta resolução (15 a 90
m);
d) NOAA : são satélites originariamente concebidos para observação de dados
meteorológicos, no entanto estes dados tem sido utilizados em agronomia e oceanografia.
O primeiro satélite foi lançado em 1978. Abrange pequenas escalas visto que apresenta
um resolução espacial de 1.1 x 1.1 km e a varredura é de 2700 km.
Pixel 0,88 cm , nadirPixel 0,67 cm , nadir
Inclinação
maior área
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
37
Tabela 6: Sistemas Sensores
SENSOR RESOLUÇÃO
ESPACIAL
RESOLUÇÃO
ESPECTRAL
PAIS APLICAÇOES
CBERS II,
2002
CCD: 20m
WFI: 260m
IR-MSS
4 bandas + Pan
2 bandas IV
3 Bandas + Pan
Brasil/China, Monitoramento
Ambiental
IRS, 1997 Pan: 5 m
MSS: 20 m
1 bandas
3 bandas
Índia Atualização
Cartográfica
ASTER VNIR 15 m
SWIR 30 m
TIR 90m
3 bandas
6 bandas
3 bandas
EUA Monitoramento
Ambiental
NOAA, 1978 MSS: 1,1 km Visível + IV EUA Meteorologia
4.6- Imagem de Radar
O Radar é um sensor ativo da faixa da microonda. Uma imagem Radar é construída
digitalmente pela seqüência de uma quantidade de pontos ou pixels como os demais tipos de
imagens de satélites. Cada pixel na imagem Radar representa a intensidade da reflexão o
pulso de energia para a área correspondente no solo, onde:
• áreas mais escuras são superfícies de retorno ou reflexão de fraca intensidade do sinal
Radar, ou seja que uma proporção menor ou mínima da energia do pulso Radar foi
refletida pelo alvo de volta para a antena do Instrumento Radar;
• áreas mais brilhantes correspondem a alvos para os quais a reflexão de energia para a
antena do instrumento Radar foi maior e mais intensa.
A reflexão do sinal de Radar para uma alvo ou uma área de interesse num comprimento de
onda específico varia bastante em função de uma quantidade de condições físicas:
Tamanho e geometria do alvo ou reflector;
Umidade do alvo;
Polarização do sinal emitido;
Ângulos de incidência do sinal emitido.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
38
Figura 15: Comportamento dos alvos numa imagem radar
A pesar das imagens ópticas serem mais fáceis de ser interpretada pelo usuário a imagem de
Radar apresentam algumas vantagens:
o devido ao maior comprimento de onda da faixa de microondas este tipo de energia é
capaz de atravessar as nuvens;
o por possuírem fonte própria de energia, não necessitam do Sol como fonte de
iluminação;
o comparativamente às outras faixas do espectro eletromagnético, as microondas
penetram mais na vegetação, além de eventualmente poderem adentrar no solo.
Quando a radiação é refletida por uma superfície cuja rugosidade é da mesma ordem de
grandeza que o comprimento de onda, a interferência das ondas produz o ruído chamado
Speckle. É um ruído multiplicativo, proporcional à intensidade do sinal recebido. Visualmente
percebe-se o efeito deste ruído através de uma textura granulosa que dificulta a interpretação
das imagens, figura 16. Para amenizar este ruído existem dois métodos: multi-look e
filtragem. O multi-look pode ser utilizado quando se tem imagens obtidas por SAR, sendo que
a imagem corrigida é composta da média das imagens de cada look geradas separadamente.
As imagens de radar atualmente podem ser associadas à imagens de sensores passivos a
fim de compor novas faixas espectrais, o que permite extrair mais dados sobre os alvos de
interesse, a integração e fusão de imagens é um tema que vem sendo muito discutido pela
comunidade afeta.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
39
Figura 16: Imagem Radar
4.7- Principais Sensores Radar
Radarsat
O satélite canadense Radarsat lançado em 1995 é composto por um sensor ativo de
microondas, o que permite obtenção de dados independentemente das condições atmosféricas
e iluminação. O sistema possui as seguintes características:
a) observa a terra com um angulo obliquo variável, o que permite ampliar o leque de
aplicações (Figura 16);
b) possui resolução variável de 10 a 100 metros e periodicidade de 85 dias.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
40
Figura 16: Modo de operação (Fonte:www.radarsar.com)
A quantidade de energia espalhada pelo satélite é influenciada pela rugosidade da superfície.
Isto permite distinguir diferentes padrões de textura na imagem, os quais são úteis para
detectar áreas desmatadas, áreas de cultivos, florestas, corpos d’água e feições antrópicas
(RADARSAT,1997).
ERS-1: satélite de radar lançado pela Agência Européia em 1991, é uma das maiores fontes
de dados radar disponível. Possui uma resolução espacial de 30 x 30 metros e uma cena cobre
100 km2
(ERDAS, 1995).
JERS-1: imageador a radar janonês, lançado em fevereiro de 1992. Resolução espacial 18
metros
4.8- Laser Scanner
O sistema de escaneamento a laser embarcado (ALS), é um sistema de modelagem de
superfície que tem como principio a emissão e recepção de feixes de raios laser da plataforma
até a superfície da terra e transformar o intervalo de tempo envolvido em distância. Esta
técnica é um sistema que integra uma serie de sensores que juntos, permitem
determinar a posição tridimensional georeferenciada de pontos da superficie terrestre.
O sistema ALS é composto por: a) a unidade laser de medida: dispositivo
responsável pela medida das distancias entre o sensor e superfície; b) unidade de varredura:
dispositivo responsável pela deflexão dos pulsos laser emitidos transversalmente a linha de
vôo; c) unidade de posicionamento: constituído de um receptor GPS dupla freqüência que
permite o posicionamento geodésico dos pontos (Figura 17).
Oprincipio de funcionamento baseia-se na utilização de um feixe de laser (LASER:
Light Amplification by Stimulatied Emission of Radiance) que é emitido em direção aos
objetos. Ao atingir sua superfície, este feixe é refletido e uma parte dele retorna ao sistema. A
partir da intensidade do sinal de retorno é possível derivar informações a respeito da natureza
da superfície do objeto, mas o dado mais relevante é o tempo decorrido entre a emissão do
feixe e o registro do retorno, pois permite calcular a distância entre o sensor e o objeto. Este
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
41
tipo de sistema também é chamado de LIDAR - Light Detection And Ranging ou LADAR -
Laser Detection And Ranging (BRANDALIZE, 2004).
Figura 17- Esquema de funcionamento do sistema
A unidade de Varredura a Laser é composta de um dispositivo de medição laser, um
sistema de varredura óptico-mecânico e uma unidade de registro de medições de apoio. A
unidade de medição laser é responsável pela geração e emissão dos pulsos laser. Estes pulsos
são gerados pelo estímulo de um cristal sintético. O tipo de cristal geralmente utilizado é
Nd:YAG (Neodiminium: Yttrium Aluminum Garnet) e seu estímulo varia entre 10-15 ηs. A
maioria dos sistemas laser operam numa faixa do espectro eletromagnético variando entre 0,8
µm e 1,6 µm . Os pulsos emitidos pelo sistema são apontados a diferentes pontos na
superfície. Ao atingir a superfície, parte do pulso é refletido de volta ao sensor, onde é
transformado em digital e armazenado.
O produto gerado a partir do processamento dos dados coletados por um sistema ALS
é, basicamente, grades ou malhas regulares de pontos 3D georreferenciadas (E,N,H). O
processamento é totalmente automático, mesmo quando as etapas de classificação, filtragem e
interpolação não são realizadas pelo programas fornecidos pelos fabricantes de tais sistemas.
Em geral o produto é uma imagem resultante de uma grade regular de pontos. Estas grades
são resultantes da interpolação o que nada mais é que um método de geração de superfície,
que pode ser classificada em:
• Modelo Digital de Elevação: grade que exclui a vegetação e as feições artificiais (Ex:
prédios, postes etc.), é um modelo similar aquele gerado a partir de curvas de nível;
• Modelo Digital de Superfície: estes incorporam os valores da altitude para todas as
feições que se encontram acima da superfície do terreno, tais como arvores, prédios,
torres, etc.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
42
Para direcionar os pulsos, um sistema de varredura (scanner) é necessário. O sistema
de varredura pode ser uni ou bidirecional. Eles podem ser do tipo óptico-mecânico, mais
utilizado, como o espelho oscilante, a varredura Palmer e o polígono de rotação.
Para o cálculo da posição do feixe incidente na superfície do terreno são necessárias
duas unidades de apoio que são encarregadas da determinação da atitude e posição do sensor
na hora da emissão do feixe. A posição é determinada mediante um sistema de GPS
diferencial (DGPS), encarregado de calcular a posição da plataforma no espaço.
O feixe associado a um pulso Laser disparado desde um avião sofre uma pequena
divergência. Por este motivo, a área associada ao feixe depende da altura do vôo. O tamanho
dos objetos, em relação à projeção do feixe (footprint), bem como o material que compõe a
superfície, determinam a intensidade do pulso que retorna ao sensor. Assim sendo, o feixe
pode não atingir um único objeto e pode ser refletido por diferentes pontos localizados a
diferentes distâncias do sensor, como é mostrado na Figura 18. Sendo assim, o ponto mais
próximo ocasionará um pulso que retorna mais rapidamente e o ponto mais distante um
retorno mais demorado. Esta característica ganha relevância quando se leva em consideração
a diferença de penetração que pode existir em um único pulso, pois permite a distinção de
elevações. Alguns sistemas laser possuem como característica a medição de diferentes
retornos do sinal emitido, refletido por diferentes objetos dentro da projeção do feixe no
terreno (footprint). É possível medir o primeiro e o último retorno do pulso (first/last pulse),
ou até pode-se medir toda a variação do retorno, se for necessário. Na figura 19 é mostrado
um exemplo de duas grades altimétricas de uma mesma região, associadas ao primeiro e
último pulso. Pode-se verificar visualmente que alguns feixes conseguem atravessar a copa
das árvores, atingindo o terreno.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
43
Figura 18 – Demonstração do primeiro e último pulso (adaptado www.toposys.com, 2005)
Figura 19 – Diferentes retornos do pulso Laser. (a) Primeiro retorno. (b) Segundo retorno.
(a) (b)
Os resultados encontrados até o momento levam a uma acurácia horizontal de 0,5 a 1 m e
uma acurácia vertical pode chegar até 0,15 m, estes valores são obtidos para uma altura de
vôo de 1.000 m. Isto faz que os dados altimétricos extraídos do perfilamento a Laser sejam
adequados ao mapeamento em grandes escalas, podendo por vezes substituir a restituição
altimétrica.
5- PRINCIPIOS DE PROCESSAMENTO DIGITAL DE IMAGEM NO CONTEXTO
SIG
5.1- Generalidades
As imagens digitais tais como Landsat, Spot, Ikonos, Quickbird e Radar são uma
importante fonte de informação hoje disponível, em algumas partes do planeta a única. Em
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
44
algumas situações é a fonte mais barata de informação de dados geoambientais. Com
aquisição de imagens de alta resolução próxima a 1 metro houve uma ampliação dos
aplicativos de Sensoriamento Remoto à área do planejamento urbano.
A classificação de dados digitais pode gerar, atualizar e complementar um banco de
dados geográficos. A associação de dados vetoriais e matriciais, hoje viabilizada nos
principais softwares de sensoriamento remoto (Erdas, Emapper, Spring, PCI, Envi, Idrisi
dentre outros), permitem através de rotinas de álgebra matricial e análise estatística extrair
informações acuradas dos objetos imageados.
Na atualidade, os usos das técnicas de sensoriamento remotos já se tornaram
imprescindível para análise de alterações ambientais e onde a tecnologia de Sistemas de
Informações Geográficas tem um papel fundamental. A tendência é que as imagens de
satélite passem a minimizar a grande lacuna para a implementação do SIG: a aquisição de
dado. Com custo decrescente e disponibilidade crescente, o sensoriamento remoto será a
maior e mais barata fonte de dados para os sistemas de informação.
5.2- Noções de Processamento
O objetivo do uso do processamento digital de imagens, consiste em melhorar o
aspecto visual de certas feições estruturais para o analista humano e fornecer outros subsídios
para a sua interpretação, inclusive gerando produtos que possam ser posteriormente
submetidos a outros processamentos. Área de processamento digital de imagens tem atraído
grande interesse nas últimas duas décadas. A evolução da tecnologia de computação digital,
bem como o desenvolvimento de novos algoritmos para lidar com sinais bidimensionais está
permitindo uma gama de aplicações cada vez maior.
Como resultado dessa evolução, a tecnologia de processamento digital de imagens
vem ampliando seus domínios, que incluem as mais diversas áreas, como por exemplo:
análise de recursos naturais e meteorologia por meio de imagens de satélites; transmissão
digital de sinais de televisão ou facsímile; análise de imagens biomédicas, incluindo a
contagem automática de células e exame de cromossomos; análise de imagens metalográficas
e de fibras vegetais; obtenção de imagens médicas por ultrassom, radiação nuclear ou técnicas
de tomografia computadorizada; aplicações em automação industrial envolvendo o uso de
sensores visuais em robôs, etc.
GONZALEZ & WOODS (2000) descrevem o objetivo do processamento digital de
imagem como sendo um conjunto de procedimentos que melhoram a informação pictorial
para interpretação do olho humano, bem como, para o reconhecimento do dado imageado
pelo computador. O processamento de imagens orbitais envolve procedimentos que são
expressos em forma de algorítmica de aplicação específica. A concepção de programas
computacionais para eliminação de ruídos, melhora da nitidez da imagem e segmentação irá
depender do tipo e sensor que gerou a imagem (ex. radar, multiespectral).
5.3- Etapas do Processamento
Para o usuário de SIG, as imagens são úteis na geração e atualização da base
cartografia. O processamento deve de certa forma permitir a extração de informação da
imagem. As imagens de sensoriamento remoto são, em geral, multibandas ou de natureza
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
45
multiespectral, que em sua forma natural, muitas vezes são de difícil interpretação. O
esquema da figura 20 mostra os passos do processamento digital (PDI) onde a imagem é
submetida à uma análise dirigida denominada pré-processamento. Este permite obter
composições coloridas (pseudocores) por meio de combinação de bandas, salientar
determinadas feições através do aumento de contraste e eliminação de ruídos (filtragem). A
segmentação que divide uma imagem de entrada em partes ou objetos constituintes o que
facilita a obtenção de regiões homogêneas na imagem. O processo de descrição, também
chamado seleção de características, procura extrair caracteristicas que resultem em alguma
informação quantitativa de interesse ou que sejam básicas para discriminação entre classes de
objetos (em se tratando de reconhecimento de caracteres, descritores tais como vegetação,
solo, etc) . O último estágio envolve reconhecimento e interpretação. reconhecimento é o
processo que atribui um rótulo a um objeto, baseado na informação fornecida pelo seu
descritor. A interpretação envolve a atribuição de significado a um conjunto de objetos
reconhecidos.
Figura 20: Etapas do Processamento Digital PDI
5.4- Processamento
De acordo com o exposto no item acima será abordado alguns práticas de processamento com
vistas a extrair informações da imagem para formar a base de dados de um SIG. As
procedimentos mais conuns são:
a)- Realce de imagem;
b)- Correção geométrica;
c)- Segmentação;
d)- Classificação.
5.4.1- Realce
Uma imagem de sensoriamento remoto deve num primeiro momento ser avaliada
através do seu histograma. O usuário deve perceber as variações tonais e a relacionadas com
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
46
os dados estatísticos da imagem. O histograma de uma imagem fornece informação útil para
fazer realce e análise da imagem. O histograma de uma imagem revela a distribuição dos
níveis de cinza da imagem. É representado por um gráfico que dá o número de pixels na
imagem para cada nível de cinza.
Definição: Seja uma imagem digital g de M linhas e N colunas. O histograma da imagem
g, Hg, pode, analiticamente, ser definido por :
onde nk é o número de vezes que o nível de cinza K aparece na imagem.
O histograma permite obter informação sobre quantos pixels na imagem possuem
determinado valor de cinza (que numa imagem de 8 bits varia de 0, preto, a 255, branco). Os
dados discretos, representados nos histogramas de freqüências, são de fundamental
importância no que concerne manipulação de contraste e realce de uma imagem
(RICHARDS, 1997). Análise do histograma fornece informações a respeito de brilho e
contraste da imagem. Toda a imagem possui um histograma, que permite para cada banda
distribuir no eixo horizontal os valores de tons de cinza e no eixo vertical o número de pixels
para cada um desses valores.
A manipulação do histograma permite contrastar, melhorar a sua qualidade visual
sob critérios subjetivos ao olho humano. Esse processo não aumenta a quantidade de
informação contida na imagem, mas torna mais fácil a sua percepção. É normalmente
utilizada como uma etapa de pré-processamento. Tipicamente, os sensores são capazes de
discretizar os valores recebidos da cena em um intervalo máximo que vai de 0 até 255 (8 bits
= 256 possíveis valores). Devido à má iluminação, defeitos do sensor ou mesmo às
características da cena, o intervalo de valores de intensidade ocupados pelos pixels presentes
em uma imagem, pode ser muito menor que esse intervalo máximo. Diz-se então que a
imagem possui baixo contraste, o que torna difícil a sua visualização ou interpretação por um
intérprete humano ou um sistema de processamento digital, figura 21.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
47
Figura 21: Aumento de contraste baseado na manipulação do histograma
Imagem: efeito Histograma
O brilho e contraste da imagem podem ser modificados alterando os níveis de cinza. Uma
imagem pode se tornar adicionando um valor constante ao nível de cinza. Um dos métodos
mais comuns é o aumento linear de contraste onde:
g(x)= f(x). a + b ; seja
g(x)= novos valores
f(x)= distribuição original
b= constante
Se a>1 o contraste é aumentado e a<1 o contraste é reduzido, figura 22
Figura 22: Manipulação linear do contraste (equação da reta)
0 255
DN
N
0 255
DN
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
48
Quando muitos valores de intensidade na imagem original são mapeados para o valor mínimo
ou máximo na imagem original diz-se que, ocorreu uma saturação (overflow) e uma perda de
informação, pois os pixels que originalmente podiam ser diferenciados na imagem original
agora possuem o mesmo valor de intensidade. No entanto isto pode ser um efeito desejado,
por exemplo, quando as regiões escuras da imagem com pequenas variações radiométricas
correspondem a áreas com o mesmo tipo de cobertura as quais não se deseja diferenciar.
Um procedimento de modificação de contraste útil é o mapeamento linear por partes
ou pontos de quebra com a função de mapeamento caracterizada por um conjunto de pontos
de quebra, que pode ser escolhido pelo usuário, figura 23. Funções de mapeamento não-
lineares podem ser usadas para realçar detalhes específicos na imagem.
Figura 23: Pontos de quebra
Uma função linear também utilizada é a função negativa. Ela realiza o mapeamento inverso
dos níveis de cinza, revertendo a ordem do preto para o branco, de tal forma que pixels com
intensidade clara serão mapeados para escuro e vice-versa. A escolha do mapeamento direto
adequado é, em geral, essencialmente empírica, mas existe uma classe de métodos nos quais o
mapeamento tem por finalidade produzir uma imagem cujo histograma tenha um formato
desejado.
5.4.2- Filtragem
O grande número de diferentes freqüências de uma imagem dificulta muitas vezes a
interpretação das feições. Para minimizar este problema, utilizam-se técnicas de filtragem
espacial da freqüência. As operações matemáticas efetuadas na imagem com a finalidade de
realçar padrões, são realizadas por dois processos distintos: um que opera no domínio espacial
da imagem, convolução cúbica (janelas m x n), e outro que opera no domínio da freqüência
baseado nas transformadas de Fourrier.
g
a>1 e b≠0
Aumento de
Contraste
f
g
a<1 e b=0
Diminuição de
Contraste
f
g
Pontos de quebra
f
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
49
O termo domínio espacial refere-se ao agregado de pixels que compõem uma imagem, e o
métodos no domínio espacial são procedimentos que operam diretamente sobre estes pixels.
Funções de processamento em f (x,y) é uma imagem de entrada e g (x,y) é uma imagem de
saída, e T é um operador sobre f , definido sobre uma vizinhança de (x, y).
Os filtros são geralmente utilizados a fim de realçar algumas feições da imagem através da
alteração das freqüências espaciais. O processo de convolução ou filtragem espacial da
imagem consiste na alteração do valor de determinados conjuntos de pixels ao longo da
imagem. Uma matriz (m x n) é utilizada para modificar os valores dos pixels levando-se em
conta os valores dos pixels vizinhos.
Em geral, a matriz (m x m) é passada por toda a imagem alterando o valor dos pixels. Na
Figura 24 observa-se uma matriz (janela) 3 x 3 aplicada para um pixel na terceira coluna e
terceira linha, centro da convolução.
Figura 24- Convolução ou filtragem matriz 3 x 3 (Fonte: Erdas Field, 2002)
Figura 25- Exemplo de filtragem
Dado Filtro (kernel)
Janela 3x3
Movimento da janela
Imagem
Entrada: 9 valores dos pilxels da imagem
Saída : valor do pixel central baseado nos pesos da janela.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
50
De acordo com o esquema da figura 25, para computar novo valor deste pixel, cada valor do
filtro é multiplicado pelo valor do pixel correspondente no filtro. O somatório do produto é
dividido pelo total da soma dos valores do filtro, tal como se segue:
V=((-1 x 8) + (-1 x 6) + (-1 x 6) + (-1 x 2) + (16 x 8) + (-1 x 6) + (-1 x 2) + (-1 x 2) +
(-1 x 8) / (-1 + -1 + -1 + -1 + 16 + -1 + -1 + -1 + -1) = (88/8) = 11;
generalizando,
Os valores da nova imagem filtrados serão dados pela fórmula:






















=
∑ ∑= =
F
fijdij
V
q
i
q
j1 1
onde:
f ij = coeficiente referente ao filtro (m x n) na posição i,j ;
d ij = coeficiente referente ao valor do pixel correspondente fij;
q = dimensão da matriz, no exemplo 3 x 3;
F = soma dos coeficientes do filtro;
V = novo valor do pixel.
Este filtro é um exemplo de um filtro de alta freqüência, onde os valores mais baixos tornam-
se ainda mais baixos e valores mais altos tornam-se ainda maiores, aumentando a freqüência
espacial da imagem.
Vale a pena lembrar que as bordas da imagem original não podem ser calculadas por não
existir vizinhança. Em geral as bordas da imagem filtrada (linhas e colunas) possuem os
valores iguais o da imagem. Em outras palavras são se pode filtrar as linhas e colunas
limítrofes de uma imagem.
3.4.1- Tipos de Convolução
Os filtros de baixa freqüência, ditos de passa baixa ou suavização, eliminam as altas
freqüências da imagem deixando passar somente as baixas freqüências, suavizando assim a
imagem. A matriz abaixo exemplifica um filtro de baixa freqüência que de acordo com a
fórmula de convolução vista acima. A nova imagem terá pixels mais homogêneos, uma vez
que, os novos valores seriam uma média dos pixels vizinhos, resultando numa imagem mais
suavizada:
Os filtros de alta freqüência ou passa alta eliminam as feições de baixa freqüência, deixando
apenas as de alta freqüência. Os filtros de alta freqüência servem para realçar bordas ( limites
entre padrões na imagem). Os filtros de alta freqüência servem com filtros de realce de bordas
uma vez que estes salientam limites bordas entre grupos de pixels com DNs próximos. Os
valores das matrizes abaixo, mostram um filtro de alta freqüência aplicado numa janela 3 x 3.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
51
De acordo com os valores dos pixels vizinhos valores baixos ficam ainda mais baixos (ex:
100 para 009) e o valores altos mais altos (ex:125 para 187).
Existe um grande número de filtros que podem ser elaborados pelo próprio usuário a fim de
facilitar a interpretação da mesma. As janelas ou matrizes podem variar de dimensão, as mais
usuais são: (3 x 3), (5 x 5) e ( 7 x 7).
Os filtros de passa alta e baixa são filtro lineares pouco aplicáveis em imagens
temáticas e segmentadas. A aplicação das técnicas de convolução são por meio de filtros não
lineares de mediana, moda em imagens temáticas destina-se, geralmente, na eliminação de
ruídos, generalização de classes e análise espacial. No filtro de moda , a freqüência relativa
dos valores dos pixels na vizinhança é calculada para depois escolher o pixel mais freqüente, a
moda, que é utilizado para substituir ao valor do pixel central referente a máscara ou janela.
Figura 26- Exemplos de filtros passa alta e passa baixa
Imagem Original
Landsat Pan
Imagem Filtrada
Passa Alta
Efeito:
Detecção de Bordas
Janela 3x3
-1 - 1 - 1
-1 17 -1
-1 - 1 -1
Imagem Filtrada
Passa Baixa
Efeito:
Suavização
Janela 3x3
1 1 1
1 1 1
1 1 1
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
52
5.4.3- Composição Colorida
Imagens multiespectrais são aquelas que possuem diversas bandas que podem ser
combinadas entre si de maneira a melhorar a interpretação da imagem. Como foi citadas
anteriormente as características de refletância dos objetos podem ser representados por tons
de cinza ou dn. O sistema de cores geralmente utilizado é o RGB (vermelhor, verde, azul)
baseado nas cores primarias. Logo se pode visualizar neste sistema de cores somente três
bandas de cada vez. A cor pura é representada pelo valor Maximo de bits como na tabela 7
abaixo:
Tabela 7 – Cores sistema RGB, coordenadas para 8 bits
COR R- vermelho G- verde B- azul
Vermelho 255 0 0
Verde 0 255 0
Azul 0 0 255
As diferentes cores são formadas misturando os valores dos tons de cinza de três bandas
multiespectrais. Supondo que se deseje fazer uma composição colorida ou falsa cor de uma
imagem Landsat, escolheriam-se três bandas, e para cada uma delas se associaria uma cor
primaria do sistema RGB.
Supondo uma composição 4, 3, 2, pode-se dizer que os tons de cinza da banda quatro esta em
tons de vermelho, os tons da banda 3 estao em tons de verde e a banda 2 em tons de azul. As
sobreposições destes tons artificiais darão a composição colorida denominada falsa cor, como
pode ser observado na Figura 27.
Figura 27- Composição colorida de uma imagem Landsat 7 do município de Paranaguá-Pr
Composição: R= banda 4; G= banda 3, B= banda 2.
Observa-se solo exposto em tons de cor de rosa, vegetação em tons de verde, alterando a
disposição das bandas os objetos do terreno teriam diferentes cores. As composições coloridas
principalmente quando se misturam as bandas do infravermelho pode ser bastante útil para a
descriminação de diferentes objetos que dificilmente seriam inidentificáveis quando
observadas as bandas individualmente (preto e branco).
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
53
5.4.4- Correção Geométrica
5.4.4.1- Conceito
As imagens de sensoriamento remoto, por abrangerem uma grande área da superfície
terrestre, apresentam distorções devido à curvatura da terra e do sensor. O registro de uma
imagem compreende uma transformação geométrica que relaciona coordenadas de imagem
(linha, coluna) com coordenadas de um sistema de referência, em geral UTM ou coordenadas
geodésicas. O registro estabelece uma relação entre coordenadas de imagem e coordenadas
geodésicas. A este processo ainda denomina geocodificação e georreferenciamento. É
importante, contudo, fazer uma distinção clara entre registro e correção geométrica. O
processo de correção geométrica de imagens elimina as distorções geométricas sistemáticas
introduzidas na etapa de formação das imagens, enquanto o registro apenas usa
transformações geométricas simples (usualmente transformações polinomiais de 1o
. e 2o
.
graus) para estabelecer um mapeamento entre coordenadas de imagem e coordenadas
geodésicas.
O georreferenciamento ou registro é uma operação necessária para se fazer a
integração de uma imagem à base de dados existente num SIG. A sobreposição de informação
de dados matriciais e vetoriais só é possível se estiverem num mesmo sistema de
coordenadas.Alem disso, o georreferenciamento também é importante para se combinar
imagens de sensores diferentes sobre uma mesma área ou para se realizar estudos multi-
temporais, caso em que se usam imagens tomadas em épocas distintas.
A imagem captada pelo satélite após a correção geométrica , passa a ter um sistema
de coordenadas. As deformações da imagem podem ser reduzidas através de transformações,
entre o sistema matricial (n x m) da imagem e o sistema referencia cartográfica. A correção
geométrica permite corrigir a imagem geral estas distorções são minimizadas por meio de um
estabelecimento matemático que relaciona o endereço dos pontos na imagem com os
respectivos pontos no terreno. Alguns autores denominam o processo de correção geométrica
quando esta permite corrigir as distorções do relevo de ortorretificação.
Figura 28 - Transformação de diferente sistema de coordenadas
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
54
5.4.4.2- Distorções da Imagem
O objetivo primordial das transformações para a retificação de uma imagem é gerar uma
nova imagem vertical sem as distorções introduzidas pela atitude do sensor durante a tomada
da imagem. A imagem resultante poderá, inclusive, está isenta dos erros de deslocamento
devido ao relevo. As distorções geométricas verificadas são :
Distorções inerentes à plataforma: Efemérides (posição e velocidade) e atitude;
Distorções inerentes ao instrumento;
Distorções inerentes ao modelo da Terra: Rotação,esfericidade e relevo.
Em geral em imagens de alta resolução alguns erros oriundos a variação da altitude da
plataforma poderá acarretar uma alteração de escala na direção da plataforma. A figura 29
ilustra de forma conjunta as distorções devido as variações de altitude e velocidade da
plataforma(Figura 29).
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
55
Figura 29 : Distorções devido às variações de altitude e velocidade da plataforma.
As transformações matemáticas empregadas para corrigir as deformações geométricas
podem ser agrupadas em modelos matemáticos de sensores físicos rigorosos e modelo
generalizado.Os modelos generalizados independem da plataforma, ex: Transformação afim
no Plano e Polinomial; Transformação Linear Direta (DLT).
Já os modelos matemáticos físicos ou rigorosos dependem dos parâmetros da
plataforma (efemérides , altitude, ângulo de inclinação; freqüência de varredura; orientação
entre os sistema de referencia do instrumento e do sensor de altitude). As vantagens deste
modelo são :
Eliminar as distorções geométricas globalmente;
Permitir a representação da imagem corrigida em qualquer sistema de projeção
cartográfica;
Permite o refinamento dos dados de altitude ou dos dados de efemérides a partir de
alguns pontos de controle;
As desvantagens porem sao :
Complexidade
Dificuldade em se obter os parâmetros orbitais
Altitude
Velocidade
Rotação
Ondulação
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
56
Figura 30- Distorções de imageamento, ortoretificação
.
5.4.4.2- Modelos Matemáticos
Seja u= f (E,N) e v=g(E,N); onde E, N são coordenadas no ponto no terreno (UTM)
e u, v o local desses pontos na imagem. Geralmente, essas funções são desconhecidas, logo se
utilizam polinômios para impor este relacionamento. As funções são relacionadas através de
pontos de controle que estabelece a relação terreno e imagem. Existe influencia do número
de pontos de controle na estimação dos parâmetros de transformação e na eficiência do
modelo matemático. Com a introdução das imagens de alta resolução faz-se necessário à
revisão das técnicas de correção geométrica. Os modelos matemáticos polinomiais 2D (ex:.
transformação afim ) amplamente utilizados em imagens tipo Landsat 7, Spot 4 e Cbers,
possuem eficiência reduzida quando aplicados em imagem tipo Ikonos ou Quickbird, neste
caso vem-se testando modelos matemáticos 3D, ou ainda, modelos de ortorretifição
aplicados na fotogrametria.
A- Transformação afim
Para transformar um sistema de coordenadas em outro sistema devem-se conhecer os
parâmetros de transformação denominada afim (rotação, translação, escala). Estes parâmetros
podem ser determinados por meio de pontos de controle (ground control points, CGP), ou
seja, pontos que sejam reconhecíveis e conhecidos em ambos sistemas, de maneira a formar
um sistema de equações.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
57
Xo= a1xi + a2yi + Tx
Yo= a3xi + a4yi + Ty
onde: Xo, Yo: coordenadas a serem retificadas;
xi, yi : Coordenadas originais
a1 a2 Tx
a3 a4 Ty ; parâmetros de transformação.
Na verdade, com o mínimo de três pontos de controle este sistema teria solução (6
equações a 6 incógnitas), porém quanto maior o número de pontos de controle mais acurado
será a determinação dos parâmetros de transformação. Com vários pontos de controle, tem-se
um sistema superabundante de equações, o que permite avaliar o erro da transformação e
rejeitar os pontos de controle que acumulam maior erro. Este modelo é bastante utilizado em
imagens tipo Landsat, Spot 4, Cbers, onde a distorção causada pelo relevo possui uma
relevância secundária.
Determinação da Acurácia da Transformação
Uma vez que se possui vários pontos de controle pode-se verificar quais dos pontos
se ajustam melhor à transformação. O erro total cometido na transformação é dado pelo erro
quadrático médio EQM ou RMS, determinado pela fórmula:
EQM= 22
)()( mtmt yyxx −+−
onde: xt, yt, são as coordenadas transformadas e xm,ym são os pontos de controle(GCP), onde :
Ex= xt -xm e Ey=yt-ym, os resíduos.
O erro quadrático médio pode ser expresso pela diferença em distância entre os pontos de
controle e os transformados a partir destes (Figura 31)
Figura 31 -Erro (RMS)
Ec
Coordenada transformada
Coordenada do ponto de controle
Ex
Ey
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
58
Da mesma maneira, pode-se determinar os erros individuais para cada ponto de
forma que a erro será dado por:
Ec= Ex Ey
n
i
n
2
1 1
2
1= =
∑ ∑+ , onde EQMi erro por pontos, n número de pontos GCP, Ex
2
e Ey
2
, são
os resíduos para as coordenadas x e y (Figura 32).
Figura 32 - (A) pontos de controle distribuídos na imagem
Erro tolerável depende da resolução da imagem e da escala do mapeamento. Uma
transformação com um RMS de 1 pixel significa para uma imagem Ikonos cuja resolução é 1
x 1 metro, o erro é de um raio de um metro. Alguns autores aceitam para o Ikonos um erro de
até um pixel. Por esta razão, nem sempre o mapas servem para retificar imagens uma vez que
estes podem acumular um erro posicional superior à resolução da imagem. No entanto, muitos
destes mapas podem ser úteis quando a escala que se pretende trabalhar na imagem é menor
que a do mapa topográfico (Ex.: um mapa na escala 1:50.000 pode ser utilizado na retificação
se a escala da imagem for inferior 1:100.000).
Para se obter um erro mínimo na transformação deve-se levar em conta:
• A precisão dos pontos de controle deve ser melhor que a resolução do pixel;
• O erro total da transformação deverá ser compatível com a acurácia esperada para escala
da imagem;
• A localização dos pontos de controle deve ser em nível de pixel na imagem;
• As curvas de nível e/ou altitudes devem ser precisas oriundas de mapas em escala 1:5.000,
ou maior (ver item 4.1).
Imagem de Alta Resolução
Uma outro conceito vindo da fotogrametria é a ortoretifição que significa
transformar as imagens ou fotografias,adquiridas em perspectiva central para a projeção
ortogonal, ou corrigindo os erros advindos do relevo. No que se refere as imagens de alta
resolução, a transformação geométrica deve levar em conta a variação do relevo. Com a
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
59
disponibilidade de imagens de alta resolução espacial, o modelo de polinômios racionais (ou
razões polinomiais) está sendo amplamente utilizado para a correção geométrica. TAO &HU
(2001) consideram que os polinômios racionais são essencialmente uma forma genérica de
polinômios, e apresentam a descrição das soluções direta e iterativa dos polinômios racionais
pelo MMQ. A resolução dos polinômios racionais utilizados nos testes descritos a seguir foi
efetuada pela solução direta, sendo consideradas como observações (ou medições) apenas as
coordenadas de imagem; assim, o método adotado para o ajustamento pelo MMQ foi
oparamétrico (como na transformação afim). O modelo de polinômios racionais é utilizado
para modelar a superfície topográfica (representada pelo modelo digital de elevação) na
correção geométrica de imagens de alta resolução espacial. O modelo poder ser extraído
através das curvas de nível ou mais modernamente por laser scanning.
A equação geral para os polinômios racionais é:
Ln= P1(XN,YN,ZN)/ P2(XN,YN,ZN) (1)
Cn= P3(XN,YN,ZN)/ P4(XN,YN,ZN)
Onde:
Ln e Cn são, respectivamente, as coordenadas de imagem linha e coluna normalizados
correspondentes a um ponto objeto cujas coordenadas normalizadas são Xn, Yn, e Zn.
Para o caso de 3º grau, os polinômios são expressos como:
P1 = (1 Z Y X . . . Y3 X3 )* (a0 a1 . . . a19)T
P2 = (1 Z Y X . . . Y3 X3 )* (1 b1 . . . b19)T (2)
P3 = (1 Z Y X . . . Y3 X3 )* (c0 c1 . . . c19)T
P4 = (1 Z Y X . . . Y3 X3 )* (1 d1 . . . d19)T
Os termos ai e bi são os parâmetros a serem determinados por meio dos pontos de controle.
Um outro modelo que pode ser utilizado é o modelo APM , conhecido como equação
de projeção paralela que projeta o espaço 3D no plano 2D. Modelo é o que se segue:
Onde:
x, y, z : coordenadas do espaço imagem;
X,Y,Z: coordenadas no terreno
a1 ...a12: : parâmetros de transformação
Para o modelo Afim 3D se deve obter as coordendas Z, por meio do modelo digital
do terreno, Figura 33. O resultado da transformação é uma ortoimagem que não possui
distorções devido ao relevo. A ortoimagem por si só não é substituta para a carta, deve ser
apenas uma ferramenta para a produção ou atualização cartográfica e integração com o
geoprocessamento. A pesquisa de modelos matemáticos, métodos e técnicas para a geração de
ortoimagens ainda é um tema em discussão pela comunidade de S. Remoto.
Figura 33- Geração de uma ortoimagem
x
y
z
=
a1 a2 a3
a5 a6 a7
a9 a10 a11
X
Y
Z
+
a4
a8
a12
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
60
6- CLASSIFICAÇÃO
6.1- Interpretação de imagem
Um dos objetivos principais do sensoriamento remoto é a extração de
feições das imagens brutas por meio do processo de Classificação ou Categorização dos
Pixels, por meio de amostragem estatística. Define-se como classificação das imagens de
sensoriamento remoto, a associação a cada pixel uma informação qualitativa (atributo). Os
valores de cada nível de cinza (DN) para cada pixel pode ser associado à reflectância dos
materiais que o compõem no terreno. Desta forma, cada pixel ou um conjunto de pixels, estará
associado a uma classe ou tema.
A fotointerpretação ou interpretação da imagem é o primeiro passo para se
classificar uma imagem, pois o correto reconhecimento dos objetos da imagem é fundamental
para a aplicação de algoritmos de classificação digital. A interpretação visual da imagem faz
uso de elementos de reconhecimento, os quais servem de fatores-guia no processo de
reconhecimento e identificação dos alvos na superfície terrestre através de uma fotografia
aérea ou imagem de satélite. Estes elementos básicos de leitura de uma fotografia ou imagem
são os seguintes:
• Tonalidade e cor;
• Forma e tamanho;
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
61
• Padrão;
• Textura;
• Associação
• Sombra.
6.1.1- Tonalidade e cor
A tonalidade refere-se a intensidade de energia eletromagnética refletida por um tipo de
alvo na superfície terrestre, em uma determinada banda do espectro eletromagnético,
em outras palavras, a tonalidade está estreitamente relacionada com o comportamento
espectral das diferentes coberturas da superfície terrestre. Em fotografias aéreas a cor está
associada ao tipo de filme (preto e branco, colorido normal, infravermelho preto e branco e
infravermelho colorido). Em uma imagem de satélite, devido à reflexão seletiva dos alvos
existentes na superfície terrestre, nas distintas bandas do espectro eletromagnético,
analisamos os tons de cinza nas bandas individualmente ou as cores através das composições
coloridas. O olho humano é mais sensível a cores que a tons de cinza. Desta forma
associamos cores aos tons de cinza (Figura 34).
Figura 34- Exemplo de Tonalidade e cor- imagem LANDSAT /TM do encontro das águas dos
rios Solimões (azul claro) e Negro (preto) formando o rio Amazonas
6.1.2- Forma
A forma é definida através da geometria dos objetos e o tamanho é diretamente
proporcional à escala. A forma é um elemento importante, pois facilita o reconhecimento
de alguns alvos na superfície terrestre, tais como: estradas e linhas férreas (que apresentam
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
62
formato longitudinal), cultivos (que tem formas regulares e bem definidas pois as culturas são
plantadas em linha ou em curva de nível), reflorestamentos (que tem formas regulares)
(Figura 35), áreas irrigadas por pivô central (que apresentam formas arredondadas)
reservatórios, complexos industriais, aeroportos, estruturas geológicas e geomorfológias,
cidades (que apresentam formas reticulares devido aos cruzamentos de suas avenidas e ruas)
(Figura 3), rios (que apresentam forma sinuosa) etc. Paralelamente a forma deve-se
também levar em consideração o tamanho dos alvos, pois algumas vezes alvos diferentes
apresentam formas semelhantes, mas tamanhos diferentes, o que auxilia na sua caracterização.
Por exemplo, as áreas de horticultura têm forma semelhante às áreas de plantio de cana-de-
açúcar, porém elas têm tamanhos diferentes. O mesmo acontece com rios, os rios principais e
os tributários têm a mesma forma sinuosa, mas tamanhos diferentes (LINGNAU, 2003).
Figura 35- Imagem IKONOS de área agrícola com padrão quadriculado bem definido.
(Fonte: http://www.engesat.com.br).
6.1.3- Padrão
Este elemento é bastante utilizado em fotografias aéreas e em imagens de alta resolução.
O padrão é definido a partir da união e extensão das formas que podem se repetir
regularmente com variações tonais na imagem. O padrão pode ser representado por obras
feitas pelo homem ou feições naturais, p. ex. padrões de drenagem, padrão das plantações, de
construções, de minerações, etc. Em estudos de bacias de drenagem o padrão de drenagem é
um elemento importante, pois ele está associado ao tipo de solo, rocha e estrutura geológica
na área que está sendo estudada. O Padrão também nos permite identificar alguns tipos de
coberturas artificiais tais como plantações, áreas de reflorestamento, áreas urbanas, distritos
industriais, área urbana (Figura 36) e algumas áreas de lazer, etc
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
63
Figura 36: Padrão linear, típico em áreas de plantios agrícolas ou florestais.
6.1.4- Textura
A textura pode ser definida como a variação de tonalidade criada em função do
conjunto de objetos demasiadamente pequenos para ser percebidos individualmente. A textura
poderia também ser defina como a repetição tonal de alguns grupos de objetos não
identificáveis individualmente. A textura é o produto da forma, tamanho, sombra e tom de
cada objeto. A textura oferece a impressão visual de rugosidade ou lisura de determinada
superfície. Em geral a textura é uma ferramenta valiosa na interpretação de padrões florestais
e formas de relevo em imagens orbitais de alta resolução e fotografias aéreas. A textura varia
sempre com a escala.
Figura 37- Comparação entre a imagem LANDSAT e IKONOS de uma parte da Bacia
Paracatú na escala 1:25.000.
6.1.5- Associação (ou convergência de evidências)
Elementos ou objetos que estão comumente associados, nos quais um tende a ocorrer
em função do outro. Por exemplo, a ocorrência de mangue se dá por uma conjuntura de
fatores de influência fluvio-marinha.
6.1.6- Sombra
É outro elemento importante na interpretação de imagens de satélite,mas na maioria das
vezes dificulta a interpretação das imagens, porque esconde a informação onde ela está
sendo projetada. De um modo geral o relevo sempre provoca uma sombra do lado oposto a
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
64
incidência do sol, fazendo com que estas áreas apresentem tonalidades escuras na imagem,
dificultando assim a caracterização dos alvos na superfície terrestre.
6.1.5- Chave da interpretação de imagem
Com base nestes elementos elabora-se então uma chave de classificação, a qual serve de guia
ao fotointérprete para identificar rapidamente os alvos na fotografia ou na imagem. A chave
vem a ser descrição e ilustração típica dos alvos. Este tipo de interpretação visual pode ser
muito interessante quando não se quer ou não é viável realizar uma classificação digital da
imagem Este material também pode ser preparado um trabalho com finalidades de
interpretação preliminar em campo para posterior classificação automática. As chaves de
interpretação não têm aplicabilidade ampla, ou seja, ela deve ser desenvolvida para uma
determinada região e imagem.
A vantagem da utilização de chaves é que elas podem ser adaptadas para sensores de
diferentes satélites e permite que o fotointérprete iniciante organize as informações na
fotografia ou imagem, de modo a melhorar a eficiência do mapeamento.
A tabela 8 mostra o exemplo da chave da fotointerpretação para uma composição colorida
para a Imagem IKONOS no município de Nova Esperança – PR. Na imagem onde a
vegetação aparece em vermelho, a combinação de bandas foi feita da seguinte forma: a cor
azul foi associada à banda 2 (visível), a cor verde à banda 3 (visível) e a cor vermelha à banda
4 (infra-vermelho próximo). Esta combinação é chamada de falsa-cor, porque os alvos
aparecem na imagem em cores falsas, e não como são vistos na natureza. Este tipo de
combinação é muito usado para identificação de diferentes tipos de matas ou diferenciar
áreas de mata sadia das atacadas por enfermidades, ou para realçar sedimentos em
suspensão na água.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
65
Tabela 08 – Exemplo dos elementos de interpretação para a Imagem IKONOS, composição
B4, B3 e B2 em RGB. (Fonte: Adaptado, ANTUNES, 2003)
Descrição em Campo Imagem IKONOS Característica no Campo
Cor
azul mesclado c/ rosa e
rosa
Textura áspera
Padrão Linear
Áreas de agricultura que podem ser
facilmente subdivididas em função do
tipo de cultura e época de plantio.
Cor azul escuro
Textura Lisa
Áreas pequenas e com solo exposto
Cor Azul escuro
Textura Marmorizada
Área úmida ao redor do eixo do
córrego, a qual possui uma vegetação
típica de banhado.
Cor vermelha
Textura grosseira
Vegetação arbórea que ocorre ao
longo do curso d’água.
Cor Azul
Textura Lisa
Lago artificial com baixo índice de
sedimentação.
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
66
Cor Azul claro
Textura Fina
Solo exposto e arado pouco antes da
obtenção da imagem.
Cor azul e rosa
Textura Fina
Padrão Linear
Os diferentes tons indicam os
diferentes tipos de pasto.
6.2- Classificação Digital
O processo de se associar pixels a feições distintas pode ser realizado por diferentes
métodos, denominados classificação supervisionada e não supervisionada.
A método de classificação supervisionada consiste na classificação controlada pelo
usuário ou conhecedor da área (analista) a ser classificada. Baseado na chave da
fotointerpretação o analista seleciona na imagem amostras (pixels) de feições conhecidas
previamente. Estas amostras devem representar o melhor possível as feições a serem
classificadas. Este tipo de classificação é indicado quando o analista tem facilidade de
reconhecer todos os padrões da imagem e classes bem distintas entre si. O analista deve
primeiramente determinar as classes e posteriormente as assinaturas, ou seja, o conjunto de
dados estatísticos de cada amostra coletada na imagem. Através da análise estatística saber-
se-á a qualidade da amostra.
A classificação a não supervisionada requer do usuário apenas alguns parâmetros
tais como número de classes e interações. O algoritmo permite agrupar pixels com
características espectrais similares. É necessário posteriormente associar classes aos
agrupamentos, procedimento este que é feito de maneira totalmente automatizada. Este
processo também pode ser denominado de segmentação, que significa o agrupamento de
pixels dentro de determinados intervalos de variação. O método mais utilizado é o Self-
Organizing Data Analysis Technique ou Isodata (agrupamento). Este algoritmo permite
reunir pixels de maneira seqüencial, através de uma mínima distância espectral. Assim sendo,
cada pixel é associado a determinado agrupamento ou cluster. O resultado da classificação
não supervisionada é a segmentação da imagem dentro de intervalos pré-fixados de variação
espectral.
6.2.1- Classificação Supervisionada
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
67
O primeiro requisito para proceder à classificação supervisionada é o correto
reconhecimento e interpretação da imagem por parte do usuário. Uma vez que, as feições do
terreno são reconhecidas na imagem, inicia-se o processo de seleção das áreas de
treinamento ou amostras. Vários autores definem como áreas de treinamento ou
amostragem de imagem um conjunto de pixels que representam determinada feição, classe ou
categoria. Estas irão compor um arquivo de assinaturas que servirá de base à classificação
(JANSEN, 1986; SABINS, 1987; RICHARDS, 1997; McCLOY, 1995 ).
As amostras são selecionadas interativamente na imagem através do agrupamento de pixels
que possuam uma variação espectral pequena. Na Figura 39 observa-se a amostragem de um
conjunto de pixels a serem associados à classe de solo exposto.
Figura 39- Seleção de uma amostra, imagem Ikonos multiespectral.
As amostras devem representar o melhor possível as classes a que estão associadas. A
estatística da amostra é fundamental para que se obtenha amostras mais homogêneas
possíveis, com pouca variação espectral entre os pixels. Os parâmetros mais comuns de
avaliação estatística são os seguintes:
• Histograma da Amostra
• Desvio padrão, Variância
• Elipses
Observa-se na Figura 40 o histograma da amostra de reflorestamento da
figura 32, há um grande espalhamento dos valores dos DNs que variam de 51 à 243, porém a
maioria dos pixels encontra-se na faixa de 100 à 200. Supõe-se que no centro do histograma
estejam os valores mais prováveis da classe de solos expostos. Esta amostra possui um alto
desvio padrão 15,7 o que leva a crer que a amostra é homogênea, se tratando de uma
imagem de alta resolução. Entretanto, uma amostra pode ter diferentes desvios padrões para
diferentes bandas. Dessa forma deve-se levar em consideração todas as bandas da imagem.
Amostra
Ex: Reflorestamento
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
68
Figura 40- Histograma da amostra reflorestamento para banda 3
Na avaliação das amostras numa imagem multi-banda, as elipses são ferramentas
úteis. A partir das médias e desvios padrões do arquivo das amostras, pode-se construir numa
figura bidimensional onde no eixo vertical tem-se as variações dos níveis de cinza para uma
banda e, no eixo horizontal, as mesmas variações para uma outra banda. Geralmente, as
assinaturas possuem elipses que se sobrepõem , representando classes de difícil distinção
espectral (Figura 41). O seu efeito visual permite a melhor compreensão da distribuição
espectral dos dados amostrados em cada assinatura ou classe.
Observa-se na Figura 41: a) que as amostras das assinaturas 1 e 2 se sobrepõem,
significando uma confusão entre estas duas classes; b) a separação entre as elipses mostra
uma boa amostram para as assinaturas 1 e 2 neste par de bandas. As elipses devem ser
analisadas par a par de bandas a fim de se determinar em quais faixas se pode selecionar as
melhores amostras.
Figura 41- Elipses (Fonte: adaptação Erdas fieldguide, 2003)
Para realizar uma seleção adequada de amostras na imagem, deve-se levar em
consideração os seguintes requisitos:
• As amostras mais homogêneas possíveis - baixo desvio padrão;
• Amostras representativas das categorias a serem classificadas;
(a) (b)
nº Pixels
70 125 Nível de Cinza
FUNDAMENTOS DE SENSORIAMENTO REMOTO
EM AMBIENTE DE GEOPROCESSAMENTO
Prof. Alzir Felippe Buffara Antunes
69
• Serem constituídas por no mínimo 15 pixels;
• O histograma deverá ter uma distribuição próxima de uma curva normal.
Após a amostragem das diferentes feições do terreno pode-se proceder a classificação da
imagem por métodos paramétricos que levam em conta a estatística das amostras coletadas os
principais métodos são : mínima distância; máxima probabilidade. Existem ainda métodos
não paramétricos como o baseado em Lógica Fuzzy.
6.2.1.1- Mínima distância
A regra da mínima distância, também denominada distância espectral, determina a distância
espectral entre a medida do vetor do pixel candidato e do vetor médio para cada assinatura nas
diferentes bandas da imagem. O pixel candidato é classificado na assinatura mais próxima
espectralmente. A equação de classificação basea-se na distância Euclidiana (Figura 42).
Figura 42- Pixel candidato e a distancia espectral entre as classes
( )SD Xxyc ci xyii
n
= −=∑ µ1
2
Onde: n = numero de bandas
i = uma banda em particular
c = uma classe em particular
Xxyi = valor do pixel para uma banda i
µci = média do valor na banda i para a classe c
SDxyc = distância espectral do pixel x,y para a média da classes c
Por esta regra não existirão pixels sem classificação, não obstante, não se considera a
variabilidade da classe, ou seja, a variância, uma vez que os pixels longe da média com uma
grade variância poderiam pertencer a uma outra classe. O método de Mahalonobis é uma
regra de decisão, que associa a matriz covariância da amostra à mínima distância, melhorando
a precisão da classificação. Entretanto, tende a superclassificar amostras que possuam amplos
valores de covariância. Este método é bastante utilizado para se classificar imagens de media
resolução com diferentes bandas espectrais( Ex:. Landsat; Cbers)
Pixel Candidato
Apostilasr
Apostilasr
Apostilasr
Apostilasr
Apostilasr
Apostilasr
Apostilasr
Apostilasr
Apostilasr

Weitere ähnliche Inhalte

Was ist angesagt?

Was ist angesagt? (7)

Apresentação Sensoriamento Remoto - IFS
Apresentação Sensoriamento Remoto - IFSApresentação Sensoriamento Remoto - IFS
Apresentação Sensoriamento Remoto - IFS
 
Assunto9 - Sensoriamento remoto aplicado à pesca e aquicultura
Assunto9 - Sensoriamento remoto aplicado à pesca e aquiculturaAssunto9 - Sensoriamento remoto aplicado à pesca e aquicultura
Assunto9 - Sensoriamento remoto aplicado à pesca e aquicultura
 
Aula Sensoriamento Remoto
Aula Sensoriamento RemotoAula Sensoriamento Remoto
Aula Sensoriamento Remoto
 
Sensoriamento remoto aplicado à estudos florestais igor narvaes_iii_saef
Sensoriamento remoto aplicado à estudos florestais igor narvaes_iii_saefSensoriamento remoto aplicado à estudos florestais igor narvaes_iii_saef
Sensoriamento remoto aplicado à estudos florestais igor narvaes_iii_saef
 
Aula 1 Geoprocessamento e fotointerpretação
Aula 1 Geoprocessamento e fotointerpretaçãoAula 1 Geoprocessamento e fotointerpretação
Aula 1 Geoprocessamento e fotointerpretação
 
Aula07 geo pg_sens_remoto_pdi
Aula07 geo pg_sens_remoto_pdiAula07 geo pg_sens_remoto_pdi
Aula07 geo pg_sens_remoto_pdi
 
Modulo sensoriamento remoto
Modulo sensoriamento remotoModulo sensoriamento remoto
Modulo sensoriamento remoto
 

Apostilasr

  • 1. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 14 SUMÁRIO 1- INTRODUÇÃO .............................................................................................................................................. 16 1.1- Sensoriamento Remoto............................................................................................................................ 16 1.2- ........................................................................................................................ Fotogrametria .......................................................................................................................................................................... 17 2- PRINCÍPIOS................................................................................................................................................... 19 2.1- Espectro Eletromagnético...................................................................................................................... 19 2.3- Comportamento Espectral...................................................................................................................... 22 3- SENSORES ..................................................................................................................................................... 24 3.1- Tipos.......................................................................................................................................................... 24 3.2- Características das imagens.................................................................................................................... 27 3.3- Resoluções ................................................................................................................................................ 28 3.3- Formato .................................................................................................................................................... 30 4- SISTEMAS SENSORES ................................................................................................................................ 30 4.1- Sistema Imagens LANDSAT ................................................................................................................. 30 4.2- Sistema SPOT .......................................................................................................................................... 32 4.3- IKONOS ................................................................................................................................................... 33 4.4- Quickbird ................................................................................................................................................. 34 4.5 Outros sistemas ......................................................................................................................................... 36 4.6- Imagem de Radar .................................................................................................................................... 37 4.7- Principais Sensores Radar ...................................................................................................................... 39 4.8- Laser Scanner .......................................................................................................................................... 40 5- PRINCIPIOS DE PROCESSAMENTO DIGITAL DE IMAGEM NO CONTEXTO SIG..................... 43 5.1- Generalidades........................................................................................................................................... 43 5.2- Noções de Processamento........................................................................................................................ 44 5.3- Etapas do Processamento........................................................................................................................ 44 5.4- Processamento.......................................................................................................................................... 45 5.4.1- Realce ................................................................................................................................................. 45 5.4.2- Filtragem............................................................................................................................................. 48 5.4.3- Composição Colorida ......................................................................................................................... 52 5.4.4- Correção Geométrica.......................................................................................................................... 53 6- CLASSIFICAÇÃO......................................................................................................................................... 60 6.1- Interpretação de imagem ........................................................................................................................ 60 6.1.1- Tonalidade e cor ................................................................................................................................. 61 6.1.2- Forma.................................................................................................................................................. 61 6.1.3- Padrão................................................................................................................................................. 62 6.1.4- Textura................................................................................................................................................ 63 6.1.5- Associação (ou convergência de evidências)...................................................................................... 63 6.1.6- Sombra............................................................................................................................................... 63 6.1.5- Chave da interpretação de imagem..................................................................................................... 64 6.2- Classificação Digital ................................................................................................................................ 66 6.2.1- Classificação Supervisionada ............................................................................................................. 66 6.2.2- Classificação baseada em objetos: segmentação ................................................................................ 73 6.2.3- Acurácia.............................................................................................................................................. 74 6.2.4- Qualidade da Imagem Temática ......................................................................................................... 75 7- SENSORIAMENTO REMOTO E SIG........................................................................................................ 77 8- BIBLIOGRAFIA ............................................................................................................................................ 77
  • 2. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 15 Apresentação Este material didático visa única e exclusivamente atender a disciplina de Sensoriamento Remoto em ambiente de Geoprocessamento referente ao Curso de Especialização em Geoprocessamento. O conteúdo está de acordo com a ementa da disciplina. Aqueles que necessitarem de um maior aprofundamento em um dos tópicos descritos recomenda-se consultar a bibliografia citada. Roga-se aos alunos que apontem falhas e façam sugestões a fim de melhorar as próximas edições.
  • 3. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 16 1- INTRODUÇÃO 1.1- Sensoriamento Remoto Pode-se definir sensoriamento remoto ou teledetecção como a ciência que tem por objetivo a captação de imagens da superfície terrestre. Segundo BARRETT & CURTIS (1992) “é a ciência de observação à distância”. Isto contrasta com o sensoriamento in situ, onde os objetos são medidos e observados no local onde ocorrem. Em outras palavras, o sensoriamento remoto está relacionado à ausência de contacto físico entre o sensor (câmara fotográfica, satélite) e o alvo (objeto). Desta forma, o sensoriamento remoto também pode incluir o estudo das técnicas de aerofogrametria e fotointerpretação, uma vez que fotografias aéreas são remotamente captadas. Contudo, o termo se refere a captação, processamento e representação de imagens orbitais. As imagens de sensoriamento remoto disponíveis atualmente, são a forma mais rápida de se obter informações espaciais em formato digital, permitindo que estas fontes sejam combinadas a outras informações, de forma a constituir um banco de dados geográfico sobre o espaço em questão. O processamento dessas informações,espacialmente referenciadas em meio digital é a base dos sistemas de informação geográfica. Dentro das geotecnologias hoje disponíveis (sistemas de posicionamento global, aerofotogrametria digital) o sensoriamento remoto desponta como tecnologia imprescindível em aplicações geoambientais. Resumindo, o sensoriamento pode ser definido segundo alguns autores da seguinte forma: • É a aquisição de informações sobre um objeto sem entrar em contato físico com ele (Hutton). • Sensoriamento Remoto: é a ciência e a arte de obter informações sobre um objeto, área ou fenômenos através da análise de dados adquiridos sem entrar em contato enquanto estão sob investigação (Lillesand & Kiefer). • Sensoriamento remoto é a coleção de informações sobre os recursos naturais e meio ambiente usando imagens adquiridas por sensores a bordo de avião ou satélites (Ryerson). • Sensoriamento remoto é um termo restrito a métodos que aplicam a energia eletromagnética como meio para a detecção e mensuração das características dos objetos (Sabins). As imagens provenientes do sensoriamento remoto podem ser processadas digitalmente por modernos softwares em potentes hardwares, a fim de se obter da imagem o maior número de informações possíveis. JENSEN (1986) denomina o processamento digital de imagens como “conjunto de procedimentos relativos à manipulação e análise de imagens por meio do computador”. A Figura 1 mostra o processo de captação das imagens através de sensores a bordo dos satélites. O tratamento digital de imagens difere, muitas vezes, dos procedimentos de restituição de fotografias aéreas afetas ao campo aerofotogrametria, visto que a geometria da fotografia aérea difere da geometria da imagem.
  • 4. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 17 Figura 1: Captação da Imagem Em geral uma imagem é um registro da energia solar refletida pelos objetos ou feições da superfície física da terra e captada pelo sensor a bordo de um satélite. As aplicações do sensoriamento remoto nas décadas de 70 e 80 estavam ligadas ao mapeamento ambiental em escalas médias e pequenas (1:50.000 a 1.000.000). A partir de 1997, esta realidade começou a mudar com entrada da órbita de novos satélites de melhor resolução, havendo um aumento do campo de aplicação. Assim sendo, as imagens orbitais passaram a servir de base para mapeamento em grandes e médias escalas (1:5.000 à 1:25.000). Em 1999 as imagens passaram a reproduzir um maior nível de detalhes ampliando ainda mais as aplicações desta geotecnologia. Num futuro próximo as imagens apresentarão um nível de detalhamento similar a fotografia aérea, o que permitirá que o sensoriamento remoto atinja um maior número de usuários, e conseqüentemente diminuição de custos. 1.2- Fotogrametria A fotogrametria segundo alguns autores pode ser definida como: A ciência, a arte e a tecnologia de se obter medidas confiáveis, mapas, modelos de elevação digital e outros produtos a partir de fotografias”. A fotografia aérea tem sido usada desde os primórdios do Século XX como provedor de dados espaciais em uma grande gama de aplicações. A maioria das bases cartográficas são provenientes desta geotecnologia e difere geometricamente das imagens captadas por satélite. A Figura 2 mostra a câmara aérea dentro da aeronave que realiza a cobertura do fotográfica do terreno. A câmera fotogramétrica tem por finalidade prover imagens fotográficas com estabilidade geométrica a fim de serem utilizadas cartograficamente. As fotografias devem ser verticais e possuem uma escala variável de acordo com a altura de vôo e o relevo do terreno.
  • 5. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 18 Figura 2: Câmara aérea 1 (Adaptado, WOLF, 1981) A escala de uma fotografia aérea é dada por pela distância focal da câmara e a altitude de vôo- altura da aeronave em relação ao terreno. A figura 3 apresenta a determinação da escala de uma fotografia aérea. Figura 3: Escala de uma fotografia (Adaptado, Wolf, 1981) Como já foi citada a imagem de satélite e fotografias aéreas possuem diferenças na forma de captação de maneira de os métodos de tratamento são também diversos, bem como de certa maneira as aplicações. A Tabela 1 mostra as principais diferenças entre uma imagem e uma Plano do negativo Terreno 23 cm H c= constante Escala da FotografiaCentro Perspectivo D d P p c Espaço Imagem Espaço Objeto Centro Perspectivo (CP) Sistema de lentes Feixe óptico terreno Distância Focal ( c ou f ) 23cm
  • 6. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 19 fotografia aérea. A restituição fotogramétrica é ainda a maneira mais exata de se extrair informações cartográficas em grandes escalas(Ex:.1: 1.000 a 1: 5.000). Tabela 1: Características das imagens Características de Captação Aplicações FOTOGRAFIA • Projeção central; • Imagem em quadro; • Posição vertical; • Mapeamento em grandes escalas (1: 1.000 à 1: 50.000) IMAGEM ( S. Remoto) • Varredura ou escanerização; • Mapeamento de escalas a partir de 1: 10.000 2- PRINCÍPIOS 2.1- Espectro Eletromagnético O sensoriamento remoto e a fotogrametria baseiam-se na aquisição de informações armazenadas pelos sensores e câmaras , que captam a energia eletromagnética irradiada por um objeto. A energia emitida ou refletida por objetos da superfície física da terra é transmitida aos sensores em forma de ondas eletromagnéticas (figura 1). A informação recebida pelo sensor pode ser codificada em termos de freqüência, intensidade e polarização da onda. O conjunto de comprimentos de onda que compõem a radiação eletromagnética é denominado espectro eletromagnético. Todas as ondas propagam-se a uma mesma velocidade de 3 x 108 m/s, conhecida como a velocidade da luz. A fonte energética, sol, origina as perturbações periódicas em forma de campos elétricos e magnéticos. O espectro eletromagnético é dividido em regiões onde o componente comprimento de onda possui características similares (Figura 4). O espectro eletromagnético se estende da região dos raios gama(γ) às microondas. Figura 4: Espectro eletromagnético ( Adaptado: Erdas, 2004)
  • 7. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 20 Azul Verde Verm. Comprimento de onda µm Visível µm γRaio RaioX Ultra-Violeta Infra Termal Microondas Radio/TV Vermelho µm Os instrumentos de sensoriamento remoto operam em todos os campos de energia exceto nas regiões dos raios x e γ e ondas de rádio. A estreita faixa da região visível (0,4µm – 0,7µm) possui uma particular importância, não apenas por ser detectável ao olho humano, mas também pela quantidade de energia disponível para detecção. Os sensores detectam e armazenam a energia (fótons) em bandas ou faixas nas quais o sensor é sensível. O número de fótons (intensidade de energia) que alcança o detector varia de acordo com a quantidade de energia emitida pela fonte de iluminação(sol), com a quantidade de energia absorvida pela atmosfera e pelo grau de energia emitida e refletida pelos objetos da superfície. A luz visível ou luz branca é um conjunto de ondas com diferentes freqüências e comprimentos de onda, que nosso cérebro traduz como cores. Portanto, cada cor corresponde a uma determinada onda eletromagnética, com freqüência e comprimento de onda específico, que se refere a uma pequena faixa do espectro (0,4µm – 0,7µm). 2.2- Janelas Atmosféricas As porções do espectro eletromagnético apropriadas para captação pelos sensores são bastante restritas devido à absorção da atmosfera. A atmosfera reduz a percentagem de radiação solar transmitida a terra. No obstante existem zonas em que a absorção é baixa, ou seja, alta percentagem de transmissão de energia solar. Estas regiões são denominadas janelas atmosféricas. São nestas janelas que trabalham as maiorias dos sensores que captam a energia refletida por objetos da superfície terrestre. Desta forma, apenas parte do espectro eletromagnético é apropriada para a captação de imagens. A absorção de energia pela atmosfera reduz a percentagem de energia transmitida do alvo até o sensor. Logo, somente as zonas de baixa absorção (janelas) serão utilizadas na captação de energia. O conhecimento da interação e dependência entre a janela espectral da atmosfera e a energia utilizada pelo sensoriamento remoto é requisito pelos diversos métodos de sensoriamento, iniciando pela construção de um sensor até a análise do comportamento espectral e reconhecimento dos alvos. Neste caso devem ser considerados os seguintes fatores: 1. sensibilidade espectral do sensor;
  • 8. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 21 2. existência da janela atmosférica; 3. existência da fonte de energia, com intensidade de radiação e composição espectral; 4. conhecimento sobre as alterações da radiação recebida através do objeto analisado. A Energia Incidente (I) sobre os alvos da superfície terrestre interage de formas diferentes de acordo com as características de geometria e físico-químicas de cada um deles. Esta interação é específica para cada alvo e pode ser mensurada através das seguintes componentes (Figura 5): • Energia Refletida – R • Energia Absorvida – A • Energia Transmitida – T Figura 5: Interação da energia com o alvo : Folha (Adaptado: Lingnau, 2003) As três porções de energia podem ser mensuradas pela seguinte equação: I = R + A + T onde cada componente é uma função do comprimento de onda. A igualdade é um balanço da energia e explica de uma forma geral a reflexão, absorção e a transmissão. Deve ser considerado que: 1. para cada objeto as proporções entre reflexão, absorção e a transmissão são diferentes, o que possibilita que os objetos possam ser identificados ou diferenciados; 2. significa também que para um mesmo objeto as proporções entre reflexão, absorção e a transmissão são diferentes em relação ao comprimento de onda, ou seja, um objeto pode ser diferenciado do outro em um determinado comprimento de onda e em outro comprimento de onda não. Pode-se dizer que a energia emitida ou refletida por objetos da superfície da terra é transmitida aos sensores em forma de ondas eletromagnéticas. Na natureza ocorre uma grande variabilidade da energia refletida, sendo que o seu conhecimento é de grande importância no reconhecimento e identificação dos alvos a partir de dados de sensores remotos. Assim sendo,
  • 9. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 22 deve-se descrever e explicar o conceito das características da reflexão dos alvos, objetos ou feições do terreno. 2.3- Comportamento Espectral Os objetos da superfície terrestre refletem e absorvem seletivamente energia eletromagnética, devido a sua diferente composição molecular. Esta característica, denominada resposta espectral dos objetos permite identificá-los numa imagem de sensoriamento remoto. Esta depende das diferenças na composição físico-química dos materiais que compõem os objetos, e estes interagem de maneira diferente com as ondas eletromagnéticas. Com base na complicada estrutura da geometria e da heterogeneidade, ou seja, da composição variável da superfície natural, as características de reflectância não podem ser explicadas através de uma simples teoria eletromagnética. A heterogeinidade se reflete no grau de reflectância e seu comprimento de onda. O gráfico que representa o comportamento espectral de determinado objeto dentro de determinadas faixas espectrais (bandas) denomina-se assinatura espectral. Como exemplo, na figura 6 observa-se a assinatura espectral para vegetação sadia, apresentando picos e vales. A reflexão visível nas diferentes faixas espectrais é originada dos pigmentos das plantas. A clorofila absorve energia nos comprimentos de onda de 0.45-0.67 µm. A reflexão no infravermelho próximo é determinada pela estrutura celular da planta. No infravermelho médio, a reflexão é devida ao conteúdo de água na planta. A reflexão espectral da planta varia durante o seu ciclo de crescimento. A resposta espectral da cobertura vegetal depende de sua profundidade, densidade, idade e diversidade. A alta reflexão da vegetação ocorre na faixa de 0,7-1,3 µm (infravermelho próximo). Os valores da reflexão da vegetação nessa faixa espectrais podem ser influenciados pela refletância do solo. Figura 6 – Reflexão das folhas, observando-se no plano do infravermelho (0.75-1.3 µm) a baixa absorção da água (Fonte: Barret & Curtis 1992). 0 20 40 60 80 100 0.4 0.6 0.8 1.0 1.2 1.4 1.6 1.8 2.0 2.2 2.4 2.6 Mm % Reflexão da Folha Absorção da Agua µm
  • 10. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 23 Maior Reflexão conseqüentemente menor absorção. Percebe-se no gráfico da figura 4 que a absorção eletromagnética é inversamente proporcional a reflexão. No caso em questão, existe alta reflexão da vegetação na faixa do infravermelho (0.76-1,4 µm). Muitas feições ou objetos do terreno possuem boa resposta espectral na faixa do infravermelho tais como: solos, relevo e sedimentação. Cada objeto terá diferentes respostas espectrais em diferentes faixas do espectro, logo o usuário de estar ciente de que faixas escolher para melhor mapear os objetos de interesse.
  • 11. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 24 Tabela 3: refletância dos alvos (Adaptado: INPE, 2003) ÁGUA VEGETAÇÃO SOLO COMPARAÇÃO DAS REFLETANCIAS 3- SENSORES 3.1- Tipos Os sistemas sensores são equipamentos que estão a bordo das aeronaves ou satélites e sua função é captar e registrar a energia eletromagnética proveniente dos objetos na superfície terrestre. Sem eles não seria possível para o satélite obter imagens, ele estaria literalmente “cego”. Os sensores podem ser classificados em apenas duas classes: • ATIVOS E • PASSIVOS. Os sensores passivos, tal como a fotografia, detecta e armazena energia solar ou terrestre refletida ou emitida pelos objetos da superfície (Ex: imagens de satélite Landsat e Spot). As imagens deste tipo de sensor irão depender das condições atmosféricas, pois áreas com nuvens ou bruma não serão imageadas adequadamente. As características físico-químico Solo % Veg. Água Visível IV próximo IV médio
  • 12. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 25 dos alvos imageados permitirão que a energia refletida seja registrada diferentemente em cada porção do espectro eletromagnético (Figura 7). Os sensores ativos, tal como o radar, gera energia ou radiação que é refletida pelos objetos do solo. A energia refletida pode ser armazenada em meio fotográfico ou na forma digital. Os sensores de microondas são um exemplo, pois detectam energia de 0.1 a 25 cm, onde a absorção atmosférica é mínima. A energia emitida para os objetos é refletida por esses ao sensor ( Ex: Radarsat, ERS-1). O imageamento independe das condições atmosféricas (Figura 7). Figura 7: Tipos de sensores Cada satélite possui então as suas características peculiares de obtenção de dados. Esta característica refere-se ao percurso que ele realiza em torno da superfície terrestre. Esta rota denominamos de órbita. Dependendo do objetivo do satélite para o qual foi projeto ele terá uma órbita específica. Por exemplo, satélites de comunicação possuem órbita geossíncrona. Um satélite em órbita geossíncrona equatorial (GEO) localiza-se diretamente acima da linha do equador, aproximadamente a 36.000 Km de altura. Nesta distância o satélite demora 24 horas para dar uma volta completa no planeta. Sabendo que a Terra demora 24 horas para dar uma volta sobre o seu eixo (Movimento de rotação), podemos observar que o satélite e a Terra se movem juntos. Sendo assim o satélite GEO sempre está parado em relação ao mesmo ponto na terra, e por isso é denominado de órbita geossíncrona ou órbita geoestacionária. Mesmo com muitos satélites de comunicação em órbitas Geoestacionárias , eles não cobrem as regiões polares da Terra. Para isso, são necessários os satélites de órbitas elípticas, que cobrem as áreas extremas dos dois hemisférios. Órbitas polares são muito usadas para a observação da superfície de nosso planeta. Como a órbita do satélite tem a direção Norte-Sul e a Terra gira na direção Leste-Oeste, isto resulta que um satélite em órbita polar pode eventualmente "varrer" a superfície inteira da Terra. Por essa razão, satélites de monitoramento global como satélites de sensoriamento remoto e meteorológicos sempre efetuam uma órbita polar. Nenhum outro tipo de órbita consegue uma melhor cobertura da terra, Figura 8.
  • 13. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 26 Figura 8: Satelite de órbita polar Existe diferentes níveis de aquisição de dados e o sistema do sensor, em geral os sensores podem ser • imageadores (varredura) ou• não-imageadores (não varredura). Os sensores são criados de acordo com o objetivos e aplicações. O quadro 1 abaixo apresenta o grupo de sensores de acordo com sua origem. Quadro1: Classificação dos sensores
  • 14. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 27 3.2- Características das imagens A localização de pixels (picture element) na imagem é determinada através de um sistema bidimensional de linhas e colunas, expressas em coordenadas X e Y. A imagem organizada desta forma num reticulado de linhas e colunas é denominada dado raster ou formato matricial. A imagem está relacionada a uma função bidimensional de intensidade da luz f (x, y), onde x e y são coordenadas espaciais linhas e colunas. Existe ainda uma outra variável z relacionada à variação tons de cinza da imagem. O valor de z é denominado, digital number- DN, ou tom de cinza (Figura 9). A imagem digital pode ser representada por uma matriz de linhas x, colunas y e z para os DN. Desta forma, uma imagem digital é uma função discreta f (x, y), definida por uma grade regular de m linhas e n colunas, representada por: f (i,j), onde : 0<i<m-1 e 0<j< n-1; para f variando de [0 ,k-1]; onde, k= níveis de cinza (DN). Cada elemento dessa matriz (i, j) é determinado por elementos da imagem, pixel. Este sistema poderá ser transformado para um sistema cartográfico de coordenadas através de pontos de controle reconhecíeis na imagem. Desta forma, uma imagem devidamente tratada, poderá servir de base para à concepção de carta imagem (uma fonte de dados para Sistema de Informações Geográficas). Figura 9: Captação da Imagem
  • 15. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 28 3.3- Resoluções Um dado orbital geralmente é descrito por sua resolução, ou seja, características da imagem de acordo com a radiometria, tamanho do pixel e faixas espectrais. As resoluções podem ser: • Espacial • Espectral • Radiometrica • Temporal A resolução espacial corresponde à área do terreno representada por um pixel na imagem. O tamanho do pixel esta diretamente relacionado à informação contida na imagem, quanto menor o pixel mais detalhes podem ser extraídos da imagem, logo melhor a resolução, figura 10. O sistema sensor tem a capacidade de cobrir uma linha de largura especifica composta por um conjunto de pixels. Cada pixel corresponde a uma unidade mínima de área, que se muito grande os detalhes são perdidos, visto que os vários objetos ou feições são agrupados em um mesmo pixel, denominado pixel mistura (figura 10). O tamanho do pixel depende das características de cada sensor a resolucao espacial é função o ângulo de visada do sensor e a altura da plataforma. Figura 10: Resolução Espacial- Tamanho do Pixel Resolução de 30 metros Resolução de 4 metros Tabela 3: Classificação das imagens quanto a resolução espacial Tamanho do Pixel (metros) Sensores Aplicações 0,67- 05: Alta Quickbird, Ikonos Mapeamento em escalas grandes 10-30 : media Landsat, CBERS II Mapeamento em escalas medias. Meio Ambiente. 40- 1000: Baixa NOAA, SPOT Veg, CBERS WFI Monitoramento Ambiental
  • 16. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 29 A Resolução Espectral refere-se a um intervalo específico de comprimento de onda do espectro-eletromagnético armazenado pelo sensor (ex: bandas do visível e infravermelho). A resolução espectral dos sensores é inerente às imagens multiespectrais e hiperespectrais. Neste caso, a resolução indica a quantidade de regiões do espectro eletromagnético e pelo intervalo de comprimento de onda. Estas imagens denominam-se bandas espectrais e representam a energia registrada pelos detectores do sensor numa determinada região do espectro eletromagnético, figura 11. Assim sendo, uma imagem pode possuir conjuntos de dados de uma mesma cena. Cada banda refere-se à determinada porção do espectro eletromagnético de reflexão e emissão de luz ou calor de uma parte da superfície terrestre, que compõe a cena. Cada porção do espectro eletromagnético detectado pelo sensor irá gerar uma imagem, com características especificas segundo a resposta espectral de cada objeto. Figura 11: Resolução Espectral A Resolução Radiométrica refere-se ao número possível de dados para cada banda, ou seja, o número de bits. Por exemplo, em um dado de 8 bits os valores dos tons de cinza para cada pixel variam de 0 a 255 (ex: uma imagem de 11bits possui 2048 tons de cinza, figura 12). Figura 12: Níveis de Cinza
  • 17. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 30 A Resolução Temporal é a periodicidade em que determinada área é registrada pelo satélite. A resolução temporal é de fundamental importância quando se pretende monitorar processos dinâmicos como, por exemplo: a ocorrência de incêndios ou queimadas em reservas florestais, derramamento de óleo no oceano, maremotos, mudanças fenológicas de culturas e o crescimento de uma cidade. Alguns satélites como Ikonos revista uma mesma região a cada 5 dias. 3.3- Formato Em geral imagens de sensoriamento remoto apresentam-se como arquivo multi- banda (conjuntos de várias imagens referentes às faixas espectrais) ou banda simples (ex. imagem digitalizada), de formato contínuo. Para cada (linha , coluna) existe um z (nível de cinza). Um dado contínuo é aquele que contém um conjunto valores contínuos para os DNs (Ex. Landsat, Spot, MDT). Um outro tipo de formato muito comum é o temático, oriundo de imagens processadas de uma banda, associada a uma tabela de atributo. Esta imagem está vinculada a dados qualitativos e/ou categóricos (Ex: mapa de uso do solo, vegetação), este tipo de dado é bastante comum ao SIG. A imagem temática pode ser descontínua, pois determinado pixel pode não estar associado à determinada classe ou valor. Atualmente existem vários formatos para as imagens dependendo do software disponível, contudo o formato mais comumente utilizado é o tiff ou geotiff. 4- SISTEMAS SENSORES 4.1- Sistema Imagens LANDSAT Talvez a mais importante fonte de dados digitais em forma de imagens sobre a superfície terrestre pertence ao conjunto de satélites do projeto Landsat, programa lançado pela NASA a partir de 1972 para aquisição contínua de dados digitais de sensoriamento remoto (NASA, 1988). Landsat 4 foi lançado em julho de 1982 e o Landsat 5 em março de 1984. O Landsat 6 caiu e nunca entrou em fase operacional. O Landsat 7 foi lançado em abril de 1999, tendo funcionado normalmente até março de 2003 quando interrompeu-se a captação de imagens por problemas técnicos. As imagens apresentam distorções o que inviabilizou o seu uso comercial. A nova geração de satélite Landsat está prevista para 2007. Apesar dos problemas é ainda hoje o sistema Landsat o maior provedor de imagens sobre a superfície terrestre, figura 13. Figura 12: Característica da captação da Imagem
  • 18. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 31 TABELA 4- Bandas do sistema Landsat TM 7 Bandas Resolução Espacial Comprimento de Onda µm Aplicações 1 30m 0.45-0.52 - Azul Mapeamento de corpos d’água; diferenciação de água e solo 2 30m 0.52-0.60 – Verde Reflexão de vegetação sadia 3 30m 0.63-0.69 – Vermelho Absorção de clorofila; diferenciação de espécies vegetais, solo úmido e solo seco. 4 30m 0.76-0.90-Infravermelho próximo Levantamentos de biomassa, copas das árvores, rios. 5 30m 1.55-1.75- Infravermelho Médio Detecção de umidade da vegetação 6 60m 10.4-11.7 – Termal Umidade da vegetação; geologia. 7 30m 2.08-2.35- Infravermelho Alto Umidade da vegetação; solos e geologia. PAN 15m 0,50 – 0,90 µm- Pancromático. Exclusivo TM7 Útil no reconhecimento de padrões que necessite de uma maior resolução espacial. Ex: estradas, avenidas, quadras. Atualização cartográfica. O Landsat 7 Thematic Mapper Plus (ETM+), que apresentou como principal inovação à banda pancromática com 15 metros de resolução espacial . A banda pancromática inclui a
  • 19. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 32 faixa do visível 0,50 a 0,90 µm, sobrepondo a faixa do espectro visível. Apesar de senilidade o satélite Landsat 5 continua a mandar imagem à terra pouco utilizáveis devido a ruídos e distorções geometricas. A tabela 4 mostra a característica do Landsat 7. 4.2- Sistema SPOT O programa SPOT (Systéme Probatoire de l’Observation de la Terre) foi planejado e projetado como um sistema operacional e comercial. Estabelecido pelo governo francês em 1978, com a participação da Suécia e Bélgica, o programa é gerenciado pelo Centro Nacional de Estudos Espaciais – CNES (Tolouse-França), que é o responsável pelo desenvolvimento do programa e operação dos satélites. Já foram lançados os SPOT 1, 2 e 3 ,4 e o mais recente Spot 5 em 2002. O SPOT 5 apresenta maior detalhamento,mantendo as mesmas faixas de observação. Dois novos instrumentos HRG (High-Resolution Geometric) imageiam com 5 m de resolução em Pancromático e 2.5 metros em "supermode". Cada um dos dois instrumentos recobre uma faixa de 60 Km no solo, dentro de um corredor potencial de visibilidade de ±420 km. Da mesma forma que os sensores dos antecessores do SPOT 5, os instrumentos HRG podem imagear igualmente em modo multiespectral em 4 bandas (faixa espectral da luz verde, vermelho, infravermelho próximo e infravermelho médio) . Graças as bandas no infravermelho o SPOT 5 permite uma maior aplicabilidade ao mapeamento temático. Se comparado com seu antecessor (SPOT 4) ainda em funcionamento pode-se resumir as inovações a partir dos seguintes aspectos: 5 m e 2.5 m de resolução em P&B no modo Pancromático, contra 10m anteriormente; 10 m de resolução em cores contra 20 m anteriormente; A área recoberta por cada cena será mantida 60 km x 60 km. Resolução temporal de 3 a 5 dias. Estas características permitem o uso das imagens SPOT 5 para aplicações nas escalas entre 1:10.000 e 1:50.000. Atualmente este tipo de imagem vem sendo utilizado com vistas a atualização do mapeamento sistemático.
  • 20. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 33 Figura 14: Cobertura SPOT 5 4.3- IKONOS O satélite IKONOS lançado em 1999, foi o primeiro de alta resolução espacial de 1m na banda pancromática e de 4 metros nas bandas multiespectral. A Tabela 5 mostra as principais características das imagens e do satélite IKONOS. Tabela 5- Características da Imagem Ikonos (Adaptado, Engesat, 2003) Resolução no terreno de cada banda Pancromática: 1m (considerando posição nominal de 26º fora do nadir) Multiespectral: 4m (considerando posição nominal de 26º fora do nadir) Bandas espectrais 0.45 a 0.90µ (pan) Azul 0.45 - 0.52µ Verde 0.52 - 0.60µ Vermelho 0.63 - 0.69µ Infra vermelho próximo 0.76 - 0.90µ Faixa de imageamento 13km no nadir (cena simples 13km x 13km) Tamanho das cenas sugeridos Faixas de 11km x 100km até 11km x 1000km Mosaicos de até 12.000km2 Até 20.000km2 de área continua imageada em uma única
  • 21. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 34 passagem Acurácia métrica Horizontal: 12m Vertical: 10m (correção de sistema, sem pontos de controle cartográficos) Precisão relativa de pelo menos 90% da cena; Horizontal: 2m Vertical: 3m (com pontos de controle) Precisão relativa em pelo menos 90% da cena; Tempo de Revisita 2.9 dias (pan) 1.5 dias (multiespectral) Esses valores referem-se a alvos ao longo da latitude de 40º. O tempo de revisita para latitudes maiores será menor, enquanto que para as latitudes próximas ao Equador, o tempo será mais longo. Dentre os principais avanços, podem ser citados os seguintes: • A maior resolução espacial possível entre as imagens orbitais atualmente disponível no mercado. • Facilidade para interpretação visual. • Radiometria de 11 bits (2048 níveis de cinza) aumenta o poder de contraste e de discriminação das imagens. • Bandas espectrais no visível são mais largas (quando comparadas com Landsat 5 e 7), permitindo uma maior penetração na atmosfera e maior poder de discriminação dos alvos terrestres, principalmente da cobertura vegetal, áreas sombreadas e de corpos d’água. • Imagens com 4m de resolução espacial oferecem até 25 vezes mais informações que imagens com 20m de resolução. • Com imagens pancromáticas de 1m, é possível distinguir objetos do tamanho de 1m 2 . 4.4- Quickbird O Satélite de alta resolução Quickbird , além de sua apurada precisão, conta ainda com sensores pancromáticos e multiespectrais. A grande capacidade de armazenamento de dados a bordo de si, aliado ao fato de que este satélite capta cenas de 2 a 10 vezes maiores que qualquer outro satélite de alta resolução, fazem com que o Quickbird seja o melhor em sua categoria, no que concerne a resolução espacial. Tabela 6- Características do Quickbird (FONTE: Engesat) QuickBird Data de lançamento Outubro de 2001 Veículo de lançamento Boeing Delta II Local de lançamento Vandenberg Air Force Base, California Capacidade de armazenamento de 128 Gbytes, aproximadamente 57 áreas imagens
  • 22. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 35 dados simples Altitude da órbita 450 km Inclinação da órbita 98 graus, em sincronismo com o Sol Velocidade 7.1 km / segundo Horário de passagem 10:30 h Duração da órbita 98 minutos Capacidade de envio de dados 320 Mbps em banda X Peso, tamanho 953 kg, 3.04-metros de comprimento Tempo de vida útil No mínimo de 7 anos Tempo de revisita 1 a 3,5 dias, dependendo da latitude (30o off-nadir) Largura do imageamento 16.5 km x 16.5 km, no nadir Precisão métrica Horizontal: 23 metros (CE 90%) Vertical : 17 metros (LE 90%) Digitalização 11 bits Resolução* Pan: 61 cm (nadir) a 72 cm (25o off-nadir) Multiespectral: de 2.44 m (nadir) até 2.88 m (25o off- nadir) Formatos disponíveis GeoTIFF 1.0, NITF 2.1 ou NITF 2.0 Máximo para aquisição simples 1x10, 1 par estéreo Pancromática 450 - 900 nm Azul: 450 - 520 nm Verde: 520 - 600 nm Vermelho: 630 - 690 nm Bandas Infravermelho próximo : 760 - 900 nm A resolução dos satélites de alta resolução depende do ângulo visada nadiral e pós- nadiral. Dependendo deste ângulo a área imageada é maior, porem a resolução do pixel é deteriorada, Para o Quickbird a imagem Pan: 61 cm no nadir até 72 cm (ângulo de 25o pós- nadir), igualmente para imagem multiespectral de 2.44 m (nadir) até 2.88 m (25o pos-nadir ou off-nadir), Figura 13. Figura 13: Imagem Nadiral e Pós-Nadiral
  • 23. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 36 4.5 Outros sistemas Hoje existe no mercado um grande numero de satélites dentre os quais podemos citar: a) CBERS: China Brazil Earth Resources Satellite. Lançado em 1999 na China, o satélite sino-brasileiro passou a gerar imagens comerciais a partir do segundo semestre de 2000; b) IRS: Indian Remote Sensing Satellite, possui a pancromática de 5 m de resolução, cada uma recobrindo 70 por 70 Km; c) ASTER (Advanced Spacebone Thermal Emission and Reflection Radiometer) é um dos Instrumentos a bordo do satélite EOS AM-1 e obtém imagens de alta resolução (15 a 90 m); d) NOAA : são satélites originariamente concebidos para observação de dados meteorológicos, no entanto estes dados tem sido utilizados em agronomia e oceanografia. O primeiro satélite foi lançado em 1978. Abrange pequenas escalas visto que apresenta um resolução espacial de 1.1 x 1.1 km e a varredura é de 2700 km. Pixel 0,88 cm , nadirPixel 0,67 cm , nadir Inclinação maior área
  • 24. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 37 Tabela 6: Sistemas Sensores SENSOR RESOLUÇÃO ESPACIAL RESOLUÇÃO ESPECTRAL PAIS APLICAÇOES CBERS II, 2002 CCD: 20m WFI: 260m IR-MSS 4 bandas + Pan 2 bandas IV 3 Bandas + Pan Brasil/China, Monitoramento Ambiental IRS, 1997 Pan: 5 m MSS: 20 m 1 bandas 3 bandas Índia Atualização Cartográfica ASTER VNIR 15 m SWIR 30 m TIR 90m 3 bandas 6 bandas 3 bandas EUA Monitoramento Ambiental NOAA, 1978 MSS: 1,1 km Visível + IV EUA Meteorologia 4.6- Imagem de Radar O Radar é um sensor ativo da faixa da microonda. Uma imagem Radar é construída digitalmente pela seqüência de uma quantidade de pontos ou pixels como os demais tipos de imagens de satélites. Cada pixel na imagem Radar representa a intensidade da reflexão o pulso de energia para a área correspondente no solo, onde: • áreas mais escuras são superfícies de retorno ou reflexão de fraca intensidade do sinal Radar, ou seja que uma proporção menor ou mínima da energia do pulso Radar foi refletida pelo alvo de volta para a antena do Instrumento Radar; • áreas mais brilhantes correspondem a alvos para os quais a reflexão de energia para a antena do instrumento Radar foi maior e mais intensa. A reflexão do sinal de Radar para uma alvo ou uma área de interesse num comprimento de onda específico varia bastante em função de uma quantidade de condições físicas: Tamanho e geometria do alvo ou reflector; Umidade do alvo; Polarização do sinal emitido; Ângulos de incidência do sinal emitido.
  • 25. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 38 Figura 15: Comportamento dos alvos numa imagem radar A pesar das imagens ópticas serem mais fáceis de ser interpretada pelo usuário a imagem de Radar apresentam algumas vantagens: o devido ao maior comprimento de onda da faixa de microondas este tipo de energia é capaz de atravessar as nuvens; o por possuírem fonte própria de energia, não necessitam do Sol como fonte de iluminação; o comparativamente às outras faixas do espectro eletromagnético, as microondas penetram mais na vegetação, além de eventualmente poderem adentrar no solo. Quando a radiação é refletida por uma superfície cuja rugosidade é da mesma ordem de grandeza que o comprimento de onda, a interferência das ondas produz o ruído chamado Speckle. É um ruído multiplicativo, proporcional à intensidade do sinal recebido. Visualmente percebe-se o efeito deste ruído através de uma textura granulosa que dificulta a interpretação das imagens, figura 16. Para amenizar este ruído existem dois métodos: multi-look e filtragem. O multi-look pode ser utilizado quando se tem imagens obtidas por SAR, sendo que a imagem corrigida é composta da média das imagens de cada look geradas separadamente. As imagens de radar atualmente podem ser associadas à imagens de sensores passivos a fim de compor novas faixas espectrais, o que permite extrair mais dados sobre os alvos de interesse, a integração e fusão de imagens é um tema que vem sendo muito discutido pela comunidade afeta.
  • 26. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 39 Figura 16: Imagem Radar 4.7- Principais Sensores Radar Radarsat O satélite canadense Radarsat lançado em 1995 é composto por um sensor ativo de microondas, o que permite obtenção de dados independentemente das condições atmosféricas e iluminação. O sistema possui as seguintes características: a) observa a terra com um angulo obliquo variável, o que permite ampliar o leque de aplicações (Figura 16); b) possui resolução variável de 10 a 100 metros e periodicidade de 85 dias.
  • 27. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 40 Figura 16: Modo de operação (Fonte:www.radarsar.com) A quantidade de energia espalhada pelo satélite é influenciada pela rugosidade da superfície. Isto permite distinguir diferentes padrões de textura na imagem, os quais são úteis para detectar áreas desmatadas, áreas de cultivos, florestas, corpos d’água e feições antrópicas (RADARSAT,1997). ERS-1: satélite de radar lançado pela Agência Européia em 1991, é uma das maiores fontes de dados radar disponível. Possui uma resolução espacial de 30 x 30 metros e uma cena cobre 100 km2 (ERDAS, 1995). JERS-1: imageador a radar janonês, lançado em fevereiro de 1992. Resolução espacial 18 metros 4.8- Laser Scanner O sistema de escaneamento a laser embarcado (ALS), é um sistema de modelagem de superfície que tem como principio a emissão e recepção de feixes de raios laser da plataforma até a superfície da terra e transformar o intervalo de tempo envolvido em distância. Esta técnica é um sistema que integra uma serie de sensores que juntos, permitem determinar a posição tridimensional georeferenciada de pontos da superficie terrestre. O sistema ALS é composto por: a) a unidade laser de medida: dispositivo responsável pela medida das distancias entre o sensor e superfície; b) unidade de varredura: dispositivo responsável pela deflexão dos pulsos laser emitidos transversalmente a linha de vôo; c) unidade de posicionamento: constituído de um receptor GPS dupla freqüência que permite o posicionamento geodésico dos pontos (Figura 17). Oprincipio de funcionamento baseia-se na utilização de um feixe de laser (LASER: Light Amplification by Stimulatied Emission of Radiance) que é emitido em direção aos objetos. Ao atingir sua superfície, este feixe é refletido e uma parte dele retorna ao sistema. A partir da intensidade do sinal de retorno é possível derivar informações a respeito da natureza da superfície do objeto, mas o dado mais relevante é o tempo decorrido entre a emissão do feixe e o registro do retorno, pois permite calcular a distância entre o sensor e o objeto. Este
  • 28. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 41 tipo de sistema também é chamado de LIDAR - Light Detection And Ranging ou LADAR - Laser Detection And Ranging (BRANDALIZE, 2004). Figura 17- Esquema de funcionamento do sistema A unidade de Varredura a Laser é composta de um dispositivo de medição laser, um sistema de varredura óptico-mecânico e uma unidade de registro de medições de apoio. A unidade de medição laser é responsável pela geração e emissão dos pulsos laser. Estes pulsos são gerados pelo estímulo de um cristal sintético. O tipo de cristal geralmente utilizado é Nd:YAG (Neodiminium: Yttrium Aluminum Garnet) e seu estímulo varia entre 10-15 ηs. A maioria dos sistemas laser operam numa faixa do espectro eletromagnético variando entre 0,8 µm e 1,6 µm . Os pulsos emitidos pelo sistema são apontados a diferentes pontos na superfície. Ao atingir a superfície, parte do pulso é refletido de volta ao sensor, onde é transformado em digital e armazenado. O produto gerado a partir do processamento dos dados coletados por um sistema ALS é, basicamente, grades ou malhas regulares de pontos 3D georreferenciadas (E,N,H). O processamento é totalmente automático, mesmo quando as etapas de classificação, filtragem e interpolação não são realizadas pelo programas fornecidos pelos fabricantes de tais sistemas. Em geral o produto é uma imagem resultante de uma grade regular de pontos. Estas grades são resultantes da interpolação o que nada mais é que um método de geração de superfície, que pode ser classificada em: • Modelo Digital de Elevação: grade que exclui a vegetação e as feições artificiais (Ex: prédios, postes etc.), é um modelo similar aquele gerado a partir de curvas de nível; • Modelo Digital de Superfície: estes incorporam os valores da altitude para todas as feições que se encontram acima da superfície do terreno, tais como arvores, prédios, torres, etc.
  • 29. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 42 Para direcionar os pulsos, um sistema de varredura (scanner) é necessário. O sistema de varredura pode ser uni ou bidirecional. Eles podem ser do tipo óptico-mecânico, mais utilizado, como o espelho oscilante, a varredura Palmer e o polígono de rotação. Para o cálculo da posição do feixe incidente na superfície do terreno são necessárias duas unidades de apoio que são encarregadas da determinação da atitude e posição do sensor na hora da emissão do feixe. A posição é determinada mediante um sistema de GPS diferencial (DGPS), encarregado de calcular a posição da plataforma no espaço. O feixe associado a um pulso Laser disparado desde um avião sofre uma pequena divergência. Por este motivo, a área associada ao feixe depende da altura do vôo. O tamanho dos objetos, em relação à projeção do feixe (footprint), bem como o material que compõe a superfície, determinam a intensidade do pulso que retorna ao sensor. Assim sendo, o feixe pode não atingir um único objeto e pode ser refletido por diferentes pontos localizados a diferentes distâncias do sensor, como é mostrado na Figura 18. Sendo assim, o ponto mais próximo ocasionará um pulso que retorna mais rapidamente e o ponto mais distante um retorno mais demorado. Esta característica ganha relevância quando se leva em consideração a diferença de penetração que pode existir em um único pulso, pois permite a distinção de elevações. Alguns sistemas laser possuem como característica a medição de diferentes retornos do sinal emitido, refletido por diferentes objetos dentro da projeção do feixe no terreno (footprint). É possível medir o primeiro e o último retorno do pulso (first/last pulse), ou até pode-se medir toda a variação do retorno, se for necessário. Na figura 19 é mostrado um exemplo de duas grades altimétricas de uma mesma região, associadas ao primeiro e último pulso. Pode-se verificar visualmente que alguns feixes conseguem atravessar a copa das árvores, atingindo o terreno.
  • 30. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 43 Figura 18 – Demonstração do primeiro e último pulso (adaptado www.toposys.com, 2005) Figura 19 – Diferentes retornos do pulso Laser. (a) Primeiro retorno. (b) Segundo retorno. (a) (b) Os resultados encontrados até o momento levam a uma acurácia horizontal de 0,5 a 1 m e uma acurácia vertical pode chegar até 0,15 m, estes valores são obtidos para uma altura de vôo de 1.000 m. Isto faz que os dados altimétricos extraídos do perfilamento a Laser sejam adequados ao mapeamento em grandes escalas, podendo por vezes substituir a restituição altimétrica. 5- PRINCIPIOS DE PROCESSAMENTO DIGITAL DE IMAGEM NO CONTEXTO SIG 5.1- Generalidades As imagens digitais tais como Landsat, Spot, Ikonos, Quickbird e Radar são uma importante fonte de informação hoje disponível, em algumas partes do planeta a única. Em
  • 31. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 44 algumas situações é a fonte mais barata de informação de dados geoambientais. Com aquisição de imagens de alta resolução próxima a 1 metro houve uma ampliação dos aplicativos de Sensoriamento Remoto à área do planejamento urbano. A classificação de dados digitais pode gerar, atualizar e complementar um banco de dados geográficos. A associação de dados vetoriais e matriciais, hoje viabilizada nos principais softwares de sensoriamento remoto (Erdas, Emapper, Spring, PCI, Envi, Idrisi dentre outros), permitem através de rotinas de álgebra matricial e análise estatística extrair informações acuradas dos objetos imageados. Na atualidade, os usos das técnicas de sensoriamento remotos já se tornaram imprescindível para análise de alterações ambientais e onde a tecnologia de Sistemas de Informações Geográficas tem um papel fundamental. A tendência é que as imagens de satélite passem a minimizar a grande lacuna para a implementação do SIG: a aquisição de dado. Com custo decrescente e disponibilidade crescente, o sensoriamento remoto será a maior e mais barata fonte de dados para os sistemas de informação. 5.2- Noções de Processamento O objetivo do uso do processamento digital de imagens, consiste em melhorar o aspecto visual de certas feições estruturais para o analista humano e fornecer outros subsídios para a sua interpretação, inclusive gerando produtos que possam ser posteriormente submetidos a outros processamentos. Área de processamento digital de imagens tem atraído grande interesse nas últimas duas décadas. A evolução da tecnologia de computação digital, bem como o desenvolvimento de novos algoritmos para lidar com sinais bidimensionais está permitindo uma gama de aplicações cada vez maior. Como resultado dessa evolução, a tecnologia de processamento digital de imagens vem ampliando seus domínios, que incluem as mais diversas áreas, como por exemplo: análise de recursos naturais e meteorologia por meio de imagens de satélites; transmissão digital de sinais de televisão ou facsímile; análise de imagens biomédicas, incluindo a contagem automática de células e exame de cromossomos; análise de imagens metalográficas e de fibras vegetais; obtenção de imagens médicas por ultrassom, radiação nuclear ou técnicas de tomografia computadorizada; aplicações em automação industrial envolvendo o uso de sensores visuais em robôs, etc. GONZALEZ & WOODS (2000) descrevem o objetivo do processamento digital de imagem como sendo um conjunto de procedimentos que melhoram a informação pictorial para interpretação do olho humano, bem como, para o reconhecimento do dado imageado pelo computador. O processamento de imagens orbitais envolve procedimentos que são expressos em forma de algorítmica de aplicação específica. A concepção de programas computacionais para eliminação de ruídos, melhora da nitidez da imagem e segmentação irá depender do tipo e sensor que gerou a imagem (ex. radar, multiespectral). 5.3- Etapas do Processamento Para o usuário de SIG, as imagens são úteis na geração e atualização da base cartografia. O processamento deve de certa forma permitir a extração de informação da imagem. As imagens de sensoriamento remoto são, em geral, multibandas ou de natureza
  • 32. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 45 multiespectral, que em sua forma natural, muitas vezes são de difícil interpretação. O esquema da figura 20 mostra os passos do processamento digital (PDI) onde a imagem é submetida à uma análise dirigida denominada pré-processamento. Este permite obter composições coloridas (pseudocores) por meio de combinação de bandas, salientar determinadas feições através do aumento de contraste e eliminação de ruídos (filtragem). A segmentação que divide uma imagem de entrada em partes ou objetos constituintes o que facilita a obtenção de regiões homogêneas na imagem. O processo de descrição, também chamado seleção de características, procura extrair caracteristicas que resultem em alguma informação quantitativa de interesse ou que sejam básicas para discriminação entre classes de objetos (em se tratando de reconhecimento de caracteres, descritores tais como vegetação, solo, etc) . O último estágio envolve reconhecimento e interpretação. reconhecimento é o processo que atribui um rótulo a um objeto, baseado na informação fornecida pelo seu descritor. A interpretação envolve a atribuição de significado a um conjunto de objetos reconhecidos. Figura 20: Etapas do Processamento Digital PDI 5.4- Processamento De acordo com o exposto no item acima será abordado alguns práticas de processamento com vistas a extrair informações da imagem para formar a base de dados de um SIG. As procedimentos mais conuns são: a)- Realce de imagem; b)- Correção geométrica; c)- Segmentação; d)- Classificação. 5.4.1- Realce Uma imagem de sensoriamento remoto deve num primeiro momento ser avaliada através do seu histograma. O usuário deve perceber as variações tonais e a relacionadas com
  • 33. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 46 os dados estatísticos da imagem. O histograma de uma imagem fornece informação útil para fazer realce e análise da imagem. O histograma de uma imagem revela a distribuição dos níveis de cinza da imagem. É representado por um gráfico que dá o número de pixels na imagem para cada nível de cinza. Definição: Seja uma imagem digital g de M linhas e N colunas. O histograma da imagem g, Hg, pode, analiticamente, ser definido por : onde nk é o número de vezes que o nível de cinza K aparece na imagem. O histograma permite obter informação sobre quantos pixels na imagem possuem determinado valor de cinza (que numa imagem de 8 bits varia de 0, preto, a 255, branco). Os dados discretos, representados nos histogramas de freqüências, são de fundamental importância no que concerne manipulação de contraste e realce de uma imagem (RICHARDS, 1997). Análise do histograma fornece informações a respeito de brilho e contraste da imagem. Toda a imagem possui um histograma, que permite para cada banda distribuir no eixo horizontal os valores de tons de cinza e no eixo vertical o número de pixels para cada um desses valores. A manipulação do histograma permite contrastar, melhorar a sua qualidade visual sob critérios subjetivos ao olho humano. Esse processo não aumenta a quantidade de informação contida na imagem, mas torna mais fácil a sua percepção. É normalmente utilizada como uma etapa de pré-processamento. Tipicamente, os sensores são capazes de discretizar os valores recebidos da cena em um intervalo máximo que vai de 0 até 255 (8 bits = 256 possíveis valores). Devido à má iluminação, defeitos do sensor ou mesmo às características da cena, o intervalo de valores de intensidade ocupados pelos pixels presentes em uma imagem, pode ser muito menor que esse intervalo máximo. Diz-se então que a imagem possui baixo contraste, o que torna difícil a sua visualização ou interpretação por um intérprete humano ou um sistema de processamento digital, figura 21.
  • 34. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 47 Figura 21: Aumento de contraste baseado na manipulação do histograma Imagem: efeito Histograma O brilho e contraste da imagem podem ser modificados alterando os níveis de cinza. Uma imagem pode se tornar adicionando um valor constante ao nível de cinza. Um dos métodos mais comuns é o aumento linear de contraste onde: g(x)= f(x). a + b ; seja g(x)= novos valores f(x)= distribuição original b= constante Se a>1 o contraste é aumentado e a<1 o contraste é reduzido, figura 22 Figura 22: Manipulação linear do contraste (equação da reta) 0 255 DN N 0 255 DN
  • 35. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 48 Quando muitos valores de intensidade na imagem original são mapeados para o valor mínimo ou máximo na imagem original diz-se que, ocorreu uma saturação (overflow) e uma perda de informação, pois os pixels que originalmente podiam ser diferenciados na imagem original agora possuem o mesmo valor de intensidade. No entanto isto pode ser um efeito desejado, por exemplo, quando as regiões escuras da imagem com pequenas variações radiométricas correspondem a áreas com o mesmo tipo de cobertura as quais não se deseja diferenciar. Um procedimento de modificação de contraste útil é o mapeamento linear por partes ou pontos de quebra com a função de mapeamento caracterizada por um conjunto de pontos de quebra, que pode ser escolhido pelo usuário, figura 23. Funções de mapeamento não- lineares podem ser usadas para realçar detalhes específicos na imagem. Figura 23: Pontos de quebra Uma função linear também utilizada é a função negativa. Ela realiza o mapeamento inverso dos níveis de cinza, revertendo a ordem do preto para o branco, de tal forma que pixels com intensidade clara serão mapeados para escuro e vice-versa. A escolha do mapeamento direto adequado é, em geral, essencialmente empírica, mas existe uma classe de métodos nos quais o mapeamento tem por finalidade produzir uma imagem cujo histograma tenha um formato desejado. 5.4.2- Filtragem O grande número de diferentes freqüências de uma imagem dificulta muitas vezes a interpretação das feições. Para minimizar este problema, utilizam-se técnicas de filtragem espacial da freqüência. As operações matemáticas efetuadas na imagem com a finalidade de realçar padrões, são realizadas por dois processos distintos: um que opera no domínio espacial da imagem, convolução cúbica (janelas m x n), e outro que opera no domínio da freqüência baseado nas transformadas de Fourrier. g a>1 e b≠0 Aumento de Contraste f g a<1 e b=0 Diminuição de Contraste f g Pontos de quebra f
  • 36. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 49 O termo domínio espacial refere-se ao agregado de pixels que compõem uma imagem, e o métodos no domínio espacial são procedimentos que operam diretamente sobre estes pixels. Funções de processamento em f (x,y) é uma imagem de entrada e g (x,y) é uma imagem de saída, e T é um operador sobre f , definido sobre uma vizinhança de (x, y). Os filtros são geralmente utilizados a fim de realçar algumas feições da imagem através da alteração das freqüências espaciais. O processo de convolução ou filtragem espacial da imagem consiste na alteração do valor de determinados conjuntos de pixels ao longo da imagem. Uma matriz (m x n) é utilizada para modificar os valores dos pixels levando-se em conta os valores dos pixels vizinhos. Em geral, a matriz (m x m) é passada por toda a imagem alterando o valor dos pixels. Na Figura 24 observa-se uma matriz (janela) 3 x 3 aplicada para um pixel na terceira coluna e terceira linha, centro da convolução. Figura 24- Convolução ou filtragem matriz 3 x 3 (Fonte: Erdas Field, 2002) Figura 25- Exemplo de filtragem Dado Filtro (kernel) Janela 3x3 Movimento da janela Imagem Entrada: 9 valores dos pilxels da imagem Saída : valor do pixel central baseado nos pesos da janela.
  • 37. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 50 De acordo com o esquema da figura 25, para computar novo valor deste pixel, cada valor do filtro é multiplicado pelo valor do pixel correspondente no filtro. O somatório do produto é dividido pelo total da soma dos valores do filtro, tal como se segue: V=((-1 x 8) + (-1 x 6) + (-1 x 6) + (-1 x 2) + (16 x 8) + (-1 x 6) + (-1 x 2) + (-1 x 2) + (-1 x 8) / (-1 + -1 + -1 + -1 + 16 + -1 + -1 + -1 + -1) = (88/8) = 11; generalizando, Os valores da nova imagem filtrados serão dados pela fórmula:                       = ∑ ∑= = F fijdij V q i q j1 1 onde: f ij = coeficiente referente ao filtro (m x n) na posição i,j ; d ij = coeficiente referente ao valor do pixel correspondente fij; q = dimensão da matriz, no exemplo 3 x 3; F = soma dos coeficientes do filtro; V = novo valor do pixel. Este filtro é um exemplo de um filtro de alta freqüência, onde os valores mais baixos tornam- se ainda mais baixos e valores mais altos tornam-se ainda maiores, aumentando a freqüência espacial da imagem. Vale a pena lembrar que as bordas da imagem original não podem ser calculadas por não existir vizinhança. Em geral as bordas da imagem filtrada (linhas e colunas) possuem os valores iguais o da imagem. Em outras palavras são se pode filtrar as linhas e colunas limítrofes de uma imagem. 3.4.1- Tipos de Convolução Os filtros de baixa freqüência, ditos de passa baixa ou suavização, eliminam as altas freqüências da imagem deixando passar somente as baixas freqüências, suavizando assim a imagem. A matriz abaixo exemplifica um filtro de baixa freqüência que de acordo com a fórmula de convolução vista acima. A nova imagem terá pixels mais homogêneos, uma vez que, os novos valores seriam uma média dos pixels vizinhos, resultando numa imagem mais suavizada: Os filtros de alta freqüência ou passa alta eliminam as feições de baixa freqüência, deixando apenas as de alta freqüência. Os filtros de alta freqüência servem para realçar bordas ( limites entre padrões na imagem). Os filtros de alta freqüência servem com filtros de realce de bordas uma vez que estes salientam limites bordas entre grupos de pixels com DNs próximos. Os valores das matrizes abaixo, mostram um filtro de alta freqüência aplicado numa janela 3 x 3.
  • 38. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 51 De acordo com os valores dos pixels vizinhos valores baixos ficam ainda mais baixos (ex: 100 para 009) e o valores altos mais altos (ex:125 para 187). Existe um grande número de filtros que podem ser elaborados pelo próprio usuário a fim de facilitar a interpretação da mesma. As janelas ou matrizes podem variar de dimensão, as mais usuais são: (3 x 3), (5 x 5) e ( 7 x 7). Os filtros de passa alta e baixa são filtro lineares pouco aplicáveis em imagens temáticas e segmentadas. A aplicação das técnicas de convolução são por meio de filtros não lineares de mediana, moda em imagens temáticas destina-se, geralmente, na eliminação de ruídos, generalização de classes e análise espacial. No filtro de moda , a freqüência relativa dos valores dos pixels na vizinhança é calculada para depois escolher o pixel mais freqüente, a moda, que é utilizado para substituir ao valor do pixel central referente a máscara ou janela. Figura 26- Exemplos de filtros passa alta e passa baixa Imagem Original Landsat Pan Imagem Filtrada Passa Alta Efeito: Detecção de Bordas Janela 3x3 -1 - 1 - 1 -1 17 -1 -1 - 1 -1 Imagem Filtrada Passa Baixa Efeito: Suavização Janela 3x3 1 1 1 1 1 1 1 1 1
  • 39. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 52 5.4.3- Composição Colorida Imagens multiespectrais são aquelas que possuem diversas bandas que podem ser combinadas entre si de maneira a melhorar a interpretação da imagem. Como foi citadas anteriormente as características de refletância dos objetos podem ser representados por tons de cinza ou dn. O sistema de cores geralmente utilizado é o RGB (vermelhor, verde, azul) baseado nas cores primarias. Logo se pode visualizar neste sistema de cores somente três bandas de cada vez. A cor pura é representada pelo valor Maximo de bits como na tabela 7 abaixo: Tabela 7 – Cores sistema RGB, coordenadas para 8 bits COR R- vermelho G- verde B- azul Vermelho 255 0 0 Verde 0 255 0 Azul 0 0 255 As diferentes cores são formadas misturando os valores dos tons de cinza de três bandas multiespectrais. Supondo que se deseje fazer uma composição colorida ou falsa cor de uma imagem Landsat, escolheriam-se três bandas, e para cada uma delas se associaria uma cor primaria do sistema RGB. Supondo uma composição 4, 3, 2, pode-se dizer que os tons de cinza da banda quatro esta em tons de vermelho, os tons da banda 3 estao em tons de verde e a banda 2 em tons de azul. As sobreposições destes tons artificiais darão a composição colorida denominada falsa cor, como pode ser observado na Figura 27. Figura 27- Composição colorida de uma imagem Landsat 7 do município de Paranaguá-Pr Composição: R= banda 4; G= banda 3, B= banda 2. Observa-se solo exposto em tons de cor de rosa, vegetação em tons de verde, alterando a disposição das bandas os objetos do terreno teriam diferentes cores. As composições coloridas principalmente quando se misturam as bandas do infravermelho pode ser bastante útil para a descriminação de diferentes objetos que dificilmente seriam inidentificáveis quando observadas as bandas individualmente (preto e branco).
  • 40. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 53 5.4.4- Correção Geométrica 5.4.4.1- Conceito As imagens de sensoriamento remoto, por abrangerem uma grande área da superfície terrestre, apresentam distorções devido à curvatura da terra e do sensor. O registro de uma imagem compreende uma transformação geométrica que relaciona coordenadas de imagem (linha, coluna) com coordenadas de um sistema de referência, em geral UTM ou coordenadas geodésicas. O registro estabelece uma relação entre coordenadas de imagem e coordenadas geodésicas. A este processo ainda denomina geocodificação e georreferenciamento. É importante, contudo, fazer uma distinção clara entre registro e correção geométrica. O processo de correção geométrica de imagens elimina as distorções geométricas sistemáticas introduzidas na etapa de formação das imagens, enquanto o registro apenas usa transformações geométricas simples (usualmente transformações polinomiais de 1o . e 2o . graus) para estabelecer um mapeamento entre coordenadas de imagem e coordenadas geodésicas. O georreferenciamento ou registro é uma operação necessária para se fazer a integração de uma imagem à base de dados existente num SIG. A sobreposição de informação de dados matriciais e vetoriais só é possível se estiverem num mesmo sistema de coordenadas.Alem disso, o georreferenciamento também é importante para se combinar imagens de sensores diferentes sobre uma mesma área ou para se realizar estudos multi- temporais, caso em que se usam imagens tomadas em épocas distintas. A imagem captada pelo satélite após a correção geométrica , passa a ter um sistema de coordenadas. As deformações da imagem podem ser reduzidas através de transformações, entre o sistema matricial (n x m) da imagem e o sistema referencia cartográfica. A correção geométrica permite corrigir a imagem geral estas distorções são minimizadas por meio de um estabelecimento matemático que relaciona o endereço dos pontos na imagem com os respectivos pontos no terreno. Alguns autores denominam o processo de correção geométrica quando esta permite corrigir as distorções do relevo de ortorretificação. Figura 28 - Transformação de diferente sistema de coordenadas
  • 41. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 54 5.4.4.2- Distorções da Imagem O objetivo primordial das transformações para a retificação de uma imagem é gerar uma nova imagem vertical sem as distorções introduzidas pela atitude do sensor durante a tomada da imagem. A imagem resultante poderá, inclusive, está isenta dos erros de deslocamento devido ao relevo. As distorções geométricas verificadas são : Distorções inerentes à plataforma: Efemérides (posição e velocidade) e atitude; Distorções inerentes ao instrumento; Distorções inerentes ao modelo da Terra: Rotação,esfericidade e relevo. Em geral em imagens de alta resolução alguns erros oriundos a variação da altitude da plataforma poderá acarretar uma alteração de escala na direção da plataforma. A figura 29 ilustra de forma conjunta as distorções devido as variações de altitude e velocidade da plataforma(Figura 29).
  • 42. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 55 Figura 29 : Distorções devido às variações de altitude e velocidade da plataforma. As transformações matemáticas empregadas para corrigir as deformações geométricas podem ser agrupadas em modelos matemáticos de sensores físicos rigorosos e modelo generalizado.Os modelos generalizados independem da plataforma, ex: Transformação afim no Plano e Polinomial; Transformação Linear Direta (DLT). Já os modelos matemáticos físicos ou rigorosos dependem dos parâmetros da plataforma (efemérides , altitude, ângulo de inclinação; freqüência de varredura; orientação entre os sistema de referencia do instrumento e do sensor de altitude). As vantagens deste modelo são : Eliminar as distorções geométricas globalmente; Permitir a representação da imagem corrigida em qualquer sistema de projeção cartográfica; Permite o refinamento dos dados de altitude ou dos dados de efemérides a partir de alguns pontos de controle; As desvantagens porem sao : Complexidade Dificuldade em se obter os parâmetros orbitais Altitude Velocidade Rotação Ondulação
  • 43. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 56 Figura 30- Distorções de imageamento, ortoretificação . 5.4.4.2- Modelos Matemáticos Seja u= f (E,N) e v=g(E,N); onde E, N são coordenadas no ponto no terreno (UTM) e u, v o local desses pontos na imagem. Geralmente, essas funções são desconhecidas, logo se utilizam polinômios para impor este relacionamento. As funções são relacionadas através de pontos de controle que estabelece a relação terreno e imagem. Existe influencia do número de pontos de controle na estimação dos parâmetros de transformação e na eficiência do modelo matemático. Com a introdução das imagens de alta resolução faz-se necessário à revisão das técnicas de correção geométrica. Os modelos matemáticos polinomiais 2D (ex:. transformação afim ) amplamente utilizados em imagens tipo Landsat 7, Spot 4 e Cbers, possuem eficiência reduzida quando aplicados em imagem tipo Ikonos ou Quickbird, neste caso vem-se testando modelos matemáticos 3D, ou ainda, modelos de ortorretifição aplicados na fotogrametria. A- Transformação afim Para transformar um sistema de coordenadas em outro sistema devem-se conhecer os parâmetros de transformação denominada afim (rotação, translação, escala). Estes parâmetros podem ser determinados por meio de pontos de controle (ground control points, CGP), ou seja, pontos que sejam reconhecíveis e conhecidos em ambos sistemas, de maneira a formar um sistema de equações.
  • 44. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 57 Xo= a1xi + a2yi + Tx Yo= a3xi + a4yi + Ty onde: Xo, Yo: coordenadas a serem retificadas; xi, yi : Coordenadas originais a1 a2 Tx a3 a4 Ty ; parâmetros de transformação. Na verdade, com o mínimo de três pontos de controle este sistema teria solução (6 equações a 6 incógnitas), porém quanto maior o número de pontos de controle mais acurado será a determinação dos parâmetros de transformação. Com vários pontos de controle, tem-se um sistema superabundante de equações, o que permite avaliar o erro da transformação e rejeitar os pontos de controle que acumulam maior erro. Este modelo é bastante utilizado em imagens tipo Landsat, Spot 4, Cbers, onde a distorção causada pelo relevo possui uma relevância secundária. Determinação da Acurácia da Transformação Uma vez que se possui vários pontos de controle pode-se verificar quais dos pontos se ajustam melhor à transformação. O erro total cometido na transformação é dado pelo erro quadrático médio EQM ou RMS, determinado pela fórmula: EQM= 22 )()( mtmt yyxx −+− onde: xt, yt, são as coordenadas transformadas e xm,ym são os pontos de controle(GCP), onde : Ex= xt -xm e Ey=yt-ym, os resíduos. O erro quadrático médio pode ser expresso pela diferença em distância entre os pontos de controle e os transformados a partir destes (Figura 31) Figura 31 -Erro (RMS) Ec Coordenada transformada Coordenada do ponto de controle Ex Ey
  • 45. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 58 Da mesma maneira, pode-se determinar os erros individuais para cada ponto de forma que a erro será dado por: Ec= Ex Ey n i n 2 1 1 2 1= = ∑ ∑+ , onde EQMi erro por pontos, n número de pontos GCP, Ex 2 e Ey 2 , são os resíduos para as coordenadas x e y (Figura 32). Figura 32 - (A) pontos de controle distribuídos na imagem Erro tolerável depende da resolução da imagem e da escala do mapeamento. Uma transformação com um RMS de 1 pixel significa para uma imagem Ikonos cuja resolução é 1 x 1 metro, o erro é de um raio de um metro. Alguns autores aceitam para o Ikonos um erro de até um pixel. Por esta razão, nem sempre o mapas servem para retificar imagens uma vez que estes podem acumular um erro posicional superior à resolução da imagem. No entanto, muitos destes mapas podem ser úteis quando a escala que se pretende trabalhar na imagem é menor que a do mapa topográfico (Ex.: um mapa na escala 1:50.000 pode ser utilizado na retificação se a escala da imagem for inferior 1:100.000). Para se obter um erro mínimo na transformação deve-se levar em conta: • A precisão dos pontos de controle deve ser melhor que a resolução do pixel; • O erro total da transformação deverá ser compatível com a acurácia esperada para escala da imagem; • A localização dos pontos de controle deve ser em nível de pixel na imagem; • As curvas de nível e/ou altitudes devem ser precisas oriundas de mapas em escala 1:5.000, ou maior (ver item 4.1). Imagem de Alta Resolução Uma outro conceito vindo da fotogrametria é a ortoretifição que significa transformar as imagens ou fotografias,adquiridas em perspectiva central para a projeção ortogonal, ou corrigindo os erros advindos do relevo. No que se refere as imagens de alta resolução, a transformação geométrica deve levar em conta a variação do relevo. Com a
  • 46. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 59 disponibilidade de imagens de alta resolução espacial, o modelo de polinômios racionais (ou razões polinomiais) está sendo amplamente utilizado para a correção geométrica. TAO &HU (2001) consideram que os polinômios racionais são essencialmente uma forma genérica de polinômios, e apresentam a descrição das soluções direta e iterativa dos polinômios racionais pelo MMQ. A resolução dos polinômios racionais utilizados nos testes descritos a seguir foi efetuada pela solução direta, sendo consideradas como observações (ou medições) apenas as coordenadas de imagem; assim, o método adotado para o ajustamento pelo MMQ foi oparamétrico (como na transformação afim). O modelo de polinômios racionais é utilizado para modelar a superfície topográfica (representada pelo modelo digital de elevação) na correção geométrica de imagens de alta resolução espacial. O modelo poder ser extraído através das curvas de nível ou mais modernamente por laser scanning. A equação geral para os polinômios racionais é: Ln= P1(XN,YN,ZN)/ P2(XN,YN,ZN) (1) Cn= P3(XN,YN,ZN)/ P4(XN,YN,ZN) Onde: Ln e Cn são, respectivamente, as coordenadas de imagem linha e coluna normalizados correspondentes a um ponto objeto cujas coordenadas normalizadas são Xn, Yn, e Zn. Para o caso de 3º grau, os polinômios são expressos como: P1 = (1 Z Y X . . . Y3 X3 )* (a0 a1 . . . a19)T P2 = (1 Z Y X . . . Y3 X3 )* (1 b1 . . . b19)T (2) P3 = (1 Z Y X . . . Y3 X3 )* (c0 c1 . . . c19)T P4 = (1 Z Y X . . . Y3 X3 )* (1 d1 . . . d19)T Os termos ai e bi são os parâmetros a serem determinados por meio dos pontos de controle. Um outro modelo que pode ser utilizado é o modelo APM , conhecido como equação de projeção paralela que projeta o espaço 3D no plano 2D. Modelo é o que se segue: Onde: x, y, z : coordenadas do espaço imagem; X,Y,Z: coordenadas no terreno a1 ...a12: : parâmetros de transformação Para o modelo Afim 3D se deve obter as coordendas Z, por meio do modelo digital do terreno, Figura 33. O resultado da transformação é uma ortoimagem que não possui distorções devido ao relevo. A ortoimagem por si só não é substituta para a carta, deve ser apenas uma ferramenta para a produção ou atualização cartográfica e integração com o geoprocessamento. A pesquisa de modelos matemáticos, métodos e técnicas para a geração de ortoimagens ainda é um tema em discussão pela comunidade de S. Remoto. Figura 33- Geração de uma ortoimagem x y z = a1 a2 a3 a5 a6 a7 a9 a10 a11 X Y Z + a4 a8 a12
  • 47. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 60 6- CLASSIFICAÇÃO 6.1- Interpretação de imagem Um dos objetivos principais do sensoriamento remoto é a extração de feições das imagens brutas por meio do processo de Classificação ou Categorização dos Pixels, por meio de amostragem estatística. Define-se como classificação das imagens de sensoriamento remoto, a associação a cada pixel uma informação qualitativa (atributo). Os valores de cada nível de cinza (DN) para cada pixel pode ser associado à reflectância dos materiais que o compõem no terreno. Desta forma, cada pixel ou um conjunto de pixels, estará associado a uma classe ou tema. A fotointerpretação ou interpretação da imagem é o primeiro passo para se classificar uma imagem, pois o correto reconhecimento dos objetos da imagem é fundamental para a aplicação de algoritmos de classificação digital. A interpretação visual da imagem faz uso de elementos de reconhecimento, os quais servem de fatores-guia no processo de reconhecimento e identificação dos alvos na superfície terrestre através de uma fotografia aérea ou imagem de satélite. Estes elementos básicos de leitura de uma fotografia ou imagem são os seguintes: • Tonalidade e cor; • Forma e tamanho;
  • 48. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 61 • Padrão; • Textura; • Associação • Sombra. 6.1.1- Tonalidade e cor A tonalidade refere-se a intensidade de energia eletromagnética refletida por um tipo de alvo na superfície terrestre, em uma determinada banda do espectro eletromagnético, em outras palavras, a tonalidade está estreitamente relacionada com o comportamento espectral das diferentes coberturas da superfície terrestre. Em fotografias aéreas a cor está associada ao tipo de filme (preto e branco, colorido normal, infravermelho preto e branco e infravermelho colorido). Em uma imagem de satélite, devido à reflexão seletiva dos alvos existentes na superfície terrestre, nas distintas bandas do espectro eletromagnético, analisamos os tons de cinza nas bandas individualmente ou as cores através das composições coloridas. O olho humano é mais sensível a cores que a tons de cinza. Desta forma associamos cores aos tons de cinza (Figura 34). Figura 34- Exemplo de Tonalidade e cor- imagem LANDSAT /TM do encontro das águas dos rios Solimões (azul claro) e Negro (preto) formando o rio Amazonas 6.1.2- Forma A forma é definida através da geometria dos objetos e o tamanho é diretamente proporcional à escala. A forma é um elemento importante, pois facilita o reconhecimento de alguns alvos na superfície terrestre, tais como: estradas e linhas férreas (que apresentam
  • 49. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 62 formato longitudinal), cultivos (que tem formas regulares e bem definidas pois as culturas são plantadas em linha ou em curva de nível), reflorestamentos (que tem formas regulares) (Figura 35), áreas irrigadas por pivô central (que apresentam formas arredondadas) reservatórios, complexos industriais, aeroportos, estruturas geológicas e geomorfológias, cidades (que apresentam formas reticulares devido aos cruzamentos de suas avenidas e ruas) (Figura 3), rios (que apresentam forma sinuosa) etc. Paralelamente a forma deve-se também levar em consideração o tamanho dos alvos, pois algumas vezes alvos diferentes apresentam formas semelhantes, mas tamanhos diferentes, o que auxilia na sua caracterização. Por exemplo, as áreas de horticultura têm forma semelhante às áreas de plantio de cana-de- açúcar, porém elas têm tamanhos diferentes. O mesmo acontece com rios, os rios principais e os tributários têm a mesma forma sinuosa, mas tamanhos diferentes (LINGNAU, 2003). Figura 35- Imagem IKONOS de área agrícola com padrão quadriculado bem definido. (Fonte: http://www.engesat.com.br). 6.1.3- Padrão Este elemento é bastante utilizado em fotografias aéreas e em imagens de alta resolução. O padrão é definido a partir da união e extensão das formas que podem se repetir regularmente com variações tonais na imagem. O padrão pode ser representado por obras feitas pelo homem ou feições naturais, p. ex. padrões de drenagem, padrão das plantações, de construções, de minerações, etc. Em estudos de bacias de drenagem o padrão de drenagem é um elemento importante, pois ele está associado ao tipo de solo, rocha e estrutura geológica na área que está sendo estudada. O Padrão também nos permite identificar alguns tipos de coberturas artificiais tais como plantações, áreas de reflorestamento, áreas urbanas, distritos industriais, área urbana (Figura 36) e algumas áreas de lazer, etc
  • 50. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 63 Figura 36: Padrão linear, típico em áreas de plantios agrícolas ou florestais. 6.1.4- Textura A textura pode ser definida como a variação de tonalidade criada em função do conjunto de objetos demasiadamente pequenos para ser percebidos individualmente. A textura poderia também ser defina como a repetição tonal de alguns grupos de objetos não identificáveis individualmente. A textura é o produto da forma, tamanho, sombra e tom de cada objeto. A textura oferece a impressão visual de rugosidade ou lisura de determinada superfície. Em geral a textura é uma ferramenta valiosa na interpretação de padrões florestais e formas de relevo em imagens orbitais de alta resolução e fotografias aéreas. A textura varia sempre com a escala. Figura 37- Comparação entre a imagem LANDSAT e IKONOS de uma parte da Bacia Paracatú na escala 1:25.000. 6.1.5- Associação (ou convergência de evidências) Elementos ou objetos que estão comumente associados, nos quais um tende a ocorrer em função do outro. Por exemplo, a ocorrência de mangue se dá por uma conjuntura de fatores de influência fluvio-marinha. 6.1.6- Sombra É outro elemento importante na interpretação de imagens de satélite,mas na maioria das vezes dificulta a interpretação das imagens, porque esconde a informação onde ela está sendo projetada. De um modo geral o relevo sempre provoca uma sombra do lado oposto a
  • 51. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 64 incidência do sol, fazendo com que estas áreas apresentem tonalidades escuras na imagem, dificultando assim a caracterização dos alvos na superfície terrestre. 6.1.5- Chave da interpretação de imagem Com base nestes elementos elabora-se então uma chave de classificação, a qual serve de guia ao fotointérprete para identificar rapidamente os alvos na fotografia ou na imagem. A chave vem a ser descrição e ilustração típica dos alvos. Este tipo de interpretação visual pode ser muito interessante quando não se quer ou não é viável realizar uma classificação digital da imagem Este material também pode ser preparado um trabalho com finalidades de interpretação preliminar em campo para posterior classificação automática. As chaves de interpretação não têm aplicabilidade ampla, ou seja, ela deve ser desenvolvida para uma determinada região e imagem. A vantagem da utilização de chaves é que elas podem ser adaptadas para sensores de diferentes satélites e permite que o fotointérprete iniciante organize as informações na fotografia ou imagem, de modo a melhorar a eficiência do mapeamento. A tabela 8 mostra o exemplo da chave da fotointerpretação para uma composição colorida para a Imagem IKONOS no município de Nova Esperança – PR. Na imagem onde a vegetação aparece em vermelho, a combinação de bandas foi feita da seguinte forma: a cor azul foi associada à banda 2 (visível), a cor verde à banda 3 (visível) e a cor vermelha à banda 4 (infra-vermelho próximo). Esta combinação é chamada de falsa-cor, porque os alvos aparecem na imagem em cores falsas, e não como são vistos na natureza. Este tipo de combinação é muito usado para identificação de diferentes tipos de matas ou diferenciar áreas de mata sadia das atacadas por enfermidades, ou para realçar sedimentos em suspensão na água.
  • 52. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 65 Tabela 08 – Exemplo dos elementos de interpretação para a Imagem IKONOS, composição B4, B3 e B2 em RGB. (Fonte: Adaptado, ANTUNES, 2003) Descrição em Campo Imagem IKONOS Característica no Campo Cor azul mesclado c/ rosa e rosa Textura áspera Padrão Linear Áreas de agricultura que podem ser facilmente subdivididas em função do tipo de cultura e época de plantio. Cor azul escuro Textura Lisa Áreas pequenas e com solo exposto Cor Azul escuro Textura Marmorizada Área úmida ao redor do eixo do córrego, a qual possui uma vegetação típica de banhado. Cor vermelha Textura grosseira Vegetação arbórea que ocorre ao longo do curso d’água. Cor Azul Textura Lisa Lago artificial com baixo índice de sedimentação.
  • 53. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 66 Cor Azul claro Textura Fina Solo exposto e arado pouco antes da obtenção da imagem. Cor azul e rosa Textura Fina Padrão Linear Os diferentes tons indicam os diferentes tipos de pasto. 6.2- Classificação Digital O processo de se associar pixels a feições distintas pode ser realizado por diferentes métodos, denominados classificação supervisionada e não supervisionada. A método de classificação supervisionada consiste na classificação controlada pelo usuário ou conhecedor da área (analista) a ser classificada. Baseado na chave da fotointerpretação o analista seleciona na imagem amostras (pixels) de feições conhecidas previamente. Estas amostras devem representar o melhor possível as feições a serem classificadas. Este tipo de classificação é indicado quando o analista tem facilidade de reconhecer todos os padrões da imagem e classes bem distintas entre si. O analista deve primeiramente determinar as classes e posteriormente as assinaturas, ou seja, o conjunto de dados estatísticos de cada amostra coletada na imagem. Através da análise estatística saber- se-á a qualidade da amostra. A classificação a não supervisionada requer do usuário apenas alguns parâmetros tais como número de classes e interações. O algoritmo permite agrupar pixels com características espectrais similares. É necessário posteriormente associar classes aos agrupamentos, procedimento este que é feito de maneira totalmente automatizada. Este processo também pode ser denominado de segmentação, que significa o agrupamento de pixels dentro de determinados intervalos de variação. O método mais utilizado é o Self- Organizing Data Analysis Technique ou Isodata (agrupamento). Este algoritmo permite reunir pixels de maneira seqüencial, através de uma mínima distância espectral. Assim sendo, cada pixel é associado a determinado agrupamento ou cluster. O resultado da classificação não supervisionada é a segmentação da imagem dentro de intervalos pré-fixados de variação espectral. 6.2.1- Classificação Supervisionada
  • 54. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 67 O primeiro requisito para proceder à classificação supervisionada é o correto reconhecimento e interpretação da imagem por parte do usuário. Uma vez que, as feições do terreno são reconhecidas na imagem, inicia-se o processo de seleção das áreas de treinamento ou amostras. Vários autores definem como áreas de treinamento ou amostragem de imagem um conjunto de pixels que representam determinada feição, classe ou categoria. Estas irão compor um arquivo de assinaturas que servirá de base à classificação (JANSEN, 1986; SABINS, 1987; RICHARDS, 1997; McCLOY, 1995 ). As amostras são selecionadas interativamente na imagem através do agrupamento de pixels que possuam uma variação espectral pequena. Na Figura 39 observa-se a amostragem de um conjunto de pixels a serem associados à classe de solo exposto. Figura 39- Seleção de uma amostra, imagem Ikonos multiespectral. As amostras devem representar o melhor possível as classes a que estão associadas. A estatística da amostra é fundamental para que se obtenha amostras mais homogêneas possíveis, com pouca variação espectral entre os pixels. Os parâmetros mais comuns de avaliação estatística são os seguintes: • Histograma da Amostra • Desvio padrão, Variância • Elipses Observa-se na Figura 40 o histograma da amostra de reflorestamento da figura 32, há um grande espalhamento dos valores dos DNs que variam de 51 à 243, porém a maioria dos pixels encontra-se na faixa de 100 à 200. Supõe-se que no centro do histograma estejam os valores mais prováveis da classe de solos expostos. Esta amostra possui um alto desvio padrão 15,7 o que leva a crer que a amostra é homogênea, se tratando de uma imagem de alta resolução. Entretanto, uma amostra pode ter diferentes desvios padrões para diferentes bandas. Dessa forma deve-se levar em consideração todas as bandas da imagem. Amostra Ex: Reflorestamento
  • 55. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 68 Figura 40- Histograma da amostra reflorestamento para banda 3 Na avaliação das amostras numa imagem multi-banda, as elipses são ferramentas úteis. A partir das médias e desvios padrões do arquivo das amostras, pode-se construir numa figura bidimensional onde no eixo vertical tem-se as variações dos níveis de cinza para uma banda e, no eixo horizontal, as mesmas variações para uma outra banda. Geralmente, as assinaturas possuem elipses que se sobrepõem , representando classes de difícil distinção espectral (Figura 41). O seu efeito visual permite a melhor compreensão da distribuição espectral dos dados amostrados em cada assinatura ou classe. Observa-se na Figura 41: a) que as amostras das assinaturas 1 e 2 se sobrepõem, significando uma confusão entre estas duas classes; b) a separação entre as elipses mostra uma boa amostram para as assinaturas 1 e 2 neste par de bandas. As elipses devem ser analisadas par a par de bandas a fim de se determinar em quais faixas se pode selecionar as melhores amostras. Figura 41- Elipses (Fonte: adaptação Erdas fieldguide, 2003) Para realizar uma seleção adequada de amostras na imagem, deve-se levar em consideração os seguintes requisitos: • As amostras mais homogêneas possíveis - baixo desvio padrão; • Amostras representativas das categorias a serem classificadas; (a) (b) nº Pixels 70 125 Nível de Cinza
  • 56. FUNDAMENTOS DE SENSORIAMENTO REMOTO EM AMBIENTE DE GEOPROCESSAMENTO Prof. Alzir Felippe Buffara Antunes 69 • Serem constituídas por no mínimo 15 pixels; • O histograma deverá ter uma distribuição próxima de uma curva normal. Após a amostragem das diferentes feições do terreno pode-se proceder a classificação da imagem por métodos paramétricos que levam em conta a estatística das amostras coletadas os principais métodos são : mínima distância; máxima probabilidade. Existem ainda métodos não paramétricos como o baseado em Lógica Fuzzy. 6.2.1.1- Mínima distância A regra da mínima distância, também denominada distância espectral, determina a distância espectral entre a medida do vetor do pixel candidato e do vetor médio para cada assinatura nas diferentes bandas da imagem. O pixel candidato é classificado na assinatura mais próxima espectralmente. A equação de classificação basea-se na distância Euclidiana (Figura 42). Figura 42- Pixel candidato e a distancia espectral entre as classes ( )SD Xxyc ci xyii n = −=∑ µ1 2 Onde: n = numero de bandas i = uma banda em particular c = uma classe em particular Xxyi = valor do pixel para uma banda i µci = média do valor na banda i para a classe c SDxyc = distância espectral do pixel x,y para a média da classes c Por esta regra não existirão pixels sem classificação, não obstante, não se considera a variabilidade da classe, ou seja, a variância, uma vez que os pixels longe da média com uma grade variância poderiam pertencer a uma outra classe. O método de Mahalonobis é uma regra de decisão, que associa a matriz covariância da amostra à mínima distância, melhorando a precisão da classificação. Entretanto, tende a superclassificar amostras que possuam amplos valores de covariância. Este método é bastante utilizado para se classificar imagens de media resolução com diferentes bandas espectrais( Ex:. Landsat; Cbers) Pixel Candidato