Este documento discute conceitos fundamentais de sensoriamento remoto e geoprocessamento, incluindo definições, termos técnicos e aplicações. Aborda princípios físicos da radiação eletromagnética, o espectro eletromagnético e interações com a atmosfera e superfície terrestre. Também descreve sistemas de sensoriamento remoto como fotos aéreas e satélites, além de tópicos como avaliação e processamento digital de imagens.
2. Índice
1. Introdução ao Geoprocessamento e Sensoriamento Remoto 1
1.1 Definições 1
1.2 Dicas para leitura 1
2. Conceitos, termos técnicos e aplicações 2
3. Radiação eletromagnética 4
3.1 Princípios físicos 4
3.2 Espectro eletromagnético 5
3.3 Interações da radiação na atmosfera e superfície da terra 8
3.4 Assinaturas espectrais 9
4. Foto aéreas 10
5. Sistemas sensores orbitais 16
5.1 Sistemas orbitais passivos e ativos 16
5.2 Órbitas 16
5.3 Sistemas passivos mais usados 17
5.3.1 Landsat 18
5.3.2 Spot 19
5.3.3 Sistemas orbitais de alta resolução 19
5.4 Radares imageadores 20
6. Avaliação de imagens de satélite 23
6.1 Imagens digitais 23
6.2 Interpretação visual 25
6.3 Processamento digital de imagens 26
6.3.1 Introdução 26
6.3.2 Pré-processamento 26
6.3.2.1 Correções radiométricas 26
6.3.2.2 Correções geométricas 27
6.3.3 Realce 29
6.3.3.1 Realce de contraste 29
6.3.3.2 Filtragem 31
6.3.4 Operações aritméticas entre bandas 35
6.4 Classificação digital de imagens 35
6.4.1 Conceitos 35
6.4.2 Método de fatiamento 38
6.4.3 Método do paralelepípedo 38
6.4.4 Método da Distância Euclidiana 39
6.4.5 Método da Máxima Verossimilhança 39
7. Bibliografia selecionada 41
Anexo Curso prático do CCRS: Análise digital de dados de SR
A Utilização
B Formulários
_______________
Obs.: a maioria das figuras e parte dos textos explicativos desta apostila é baseada em FUNCATE (1997),
Tutorial of Remote Sensing (CCRS), e o Tutorial SPRING 3.3 (INPE) e não são separadamente citadas.
3. Introdução ao Geoprocessamento e Sensoriamento Remoto 1
________________________________________________________________________
1. Introdução ao Geoprocessamento e Sensoriamento Remoto
1.1 Definições
O Geoprocessamento pode ser definido como um conjunto de tecnologias voltadas a
coleta e tratamento de informações espaciais para um objetivo específico. Assim as
atividades que envolvem o Geoprocessamento são executadas por sistemas específicos
para cada aplicação. Estes sistemas são mais comunentes tratados como Sistemas de
Informação Geográfica (SIG).
Um sistema de Geoprocessamento pode ser tratado como tal, destinado ao
processamento de dados referenciados geograficamante (ou georeferenciados), desde a
sua coleta até a geração de saídas na forma de mapas convencionais, relatórios, arquivos
digitais, etc; devendo prever recursos para sua estocagem, gerenciamento, manipulação e
análise. Com a evolução da tecnologia de Geoprocessamento e de softwares gráficos
vários termos surgiram para as várias especialidades. O nome Sistemas de Informação
Geográfica - SIG (ou Geographic Information System - GIS) é muito utilizado e em
muitos casos é confundido com Geoprocessamento. O Geoprocessamento é o conceito
mais abrangente e representa qualquer tipo de processamento de dados georeferenciados,
enquanto um SIG processa dados gráficos e não gráficos (alfanuméricos) com ênfase a
análises espaciais e modelagens de superfícies.
Sensoriamento Remoto descreve técnicas e métodos para aquisição de informações sobre
objetos ou fenômenos sem que haja contato direto entre eles através de sensores. Estes
sensores remotos podem ser sistemas fotográficos (-> fotos aéreas) ou óptico-eletrônicos
(-> imagens de satélite). Basta ser observado que Sensoriamento Remoto não é sempre
considerado como parte do Geoprocessamento.
1.2 Dicas para leitura
Livros: ROSA (1996): Introdução ao Geoprocessamento; RICHARDS (1993): Remote
Sensing Digital Image Processing; BURROUGHS (1991): Geographical Information
Systems
Revistas: International Journal of Remote Sensing; Remote Sensing of Environment;
Photogrammetric Engeneering and Remote Sensing, GIS World, FatorGis;
Além das publicações tradicionais (livros, revistas, anais de congressos) a Internet é uma
fonte quase infinita de dados e informações sobre Sensoriamento Remoto. Confira por
exemplo:
Instituto Nacional de Pesquisas Espaciais – INPE: www.inpe.br
Revista FatorGis: www.fatorgis.com.br
Canadian Centre of Remote Sensing: www.ccrs.nrcan.gc.ca
National Centre: www.ncgia.ucsb.edu
NASA: rst.gsfc.nasa.gov
Sites com links: www.gislinx.com, www.geoplace.com
4. 2. Conceitos,termos técnicos e aplicações 2
________________________________________________________________________
2. Conceitos, termos técnicos e aplicações
Sensoriamento remoto consiste na utilização de sensores para a aquisição de informações
sobre objetos ou a medição de fenômenos relacionados a esse objeto, sem que haja
contato direto entre eles.
Os sensores são equipamentos capazes de coletar energia proveniente do objeto,
converte-la em sinal passível de ser registrado e apresenta-lo em forma adequada
extração de informações.
A história do sensoriamento remoto pode ser dividida em dois períodos: o primeiro entre
1860 e 1960, no qual este era baseado na utilização de fotografas aéreos, e o período de
1960 até hoje, caracterizado pela multiplicidade de sistemas sensores (Novo 1989).
Dois grandes eventos que marcaram o segundo período dessa hist6ria foram: a primeira
fotografia orbital, tirada a bordo da nave Mercury, em 1960; e o primeiro satélite de
recursos terrestres (ERTS-1) colocado em orbita, em 1972.
Em geral, Sensoriamento Remoto envolve os seguintes elementos (Figura 1):
1. Fonte de energia ou iluminação (A) – o primeiro requerimento de SR é a
disponibilidade de uma fonte de energia que ilumina o objeto de interesse.
2. Radiação e atmosfera (B) – como a energia se desloca da sua fonte para os
objetos monitorados, ela terá contato e interações com a atmosfera pela qual ela
passa. Esta interação se repete uma segunda vez na volta da radiação dos objetos
para o sensor.
3. Interação com o objeto monitorado (C) – após a passagem pela atmosfera, a
energia interage com o objeto. As interações dependem das caraterísticas do
objeto e da radiação.
4. Registro da energia pelo sensor (D) – após a reflexão da energia pelo objeto ou
após a emissão pelo objeto, é necessário um sensor para coletar e mensurar o
fluxo da radiação eletromagnética.
Figura 1: Elementos de
Sensoriamento Remoto.
5. 2. Conceitos,termos técnicos e aplicações 3
________________________________________________________________________
5. Transmissão, recepção, e processamento (E) – a energia registrada pelo sensor
deve ser transmitida, normalmente em forma eletrônica, para uma estação de
recepção e processamento, onde os dados são processados e gerada uma imagem
(hardcopy e/ou digital).
6. Interpretação e Análise (F) – a imagem processada é interpretada, visualmente
e/ou digitalmente, para extrair informação sobre os objetos que foram iluminados.
7. Aplicação (G) – o elemento final do processo de SR é alcançado, quando é
aplicada a informação extraída da imagem sobre os objetos para um entendimento
melhor, a criação de nova informação, ou para assistir na solução de um problema
específico.
A listagem em seguida é uma seleção aleatória e somente incompleta das possíveis
aplicações de Sensoriamento Remoto.
Uso da terra e vegetação
• estimativas sobre a produção agrícola (na Europa: controle anual)
• desmatamento
• monitoramento da desertificação
• monitoramento de queimadas
• cobertura e distribuição dos tipos de vegetação
• estimativas de biomassa
• estrutura da paisagem
Geologia e pedologia
• exploração/mineração
• características do solo
• mapeamento de litologia, estruturas geológicas
Meteorologia/Climatologia
• balanço de radiação
• análise da concentração de ozone
• previsão do tempo
• direção e velocidade do vento
Recursos hídricos
• monitoramento de inundações
• qualidade de água
• temperatura da superfície do mar
• umidade do solo
• delineação de bacias hidrográficas
• concentração de fitoplâncton
• evaporação
6. 3. Radiação eletromagnética 4
________________________________________________________________________
Em função do objetivo da aplicação, seleciona-se o tipo de imagem apropriado. Alguns
exemplos:
• Fotos aéreas para planejamento urbano: a grande escala é importante para delineação
de lotes ou prédios
• Imagens de LANDSAT TM para mapeamento vegetal em bacias hidrográficas: as
bandas do infravermelho são importantes para diferenciação dos tipos de vegetação
• Imagens GOES para previsão do tempo: repetição regular e cobertura de grandes
regiões são necessárias para a observação do movimento das nuvens
Leia mais sobre aplicações de Sensoriamento Remoto nas páginas:
http://www.ccrs.nrcan.gc.ca/ccrs/eduref/tutorial/indexe.html
http://rst.gsfc.nasa.gov/Front/tofc.html
3. Radiação eletromagnética
3.1 Princípios físicos
Um sensor registra a quantidade de energia radiante refletida ou emitida pelos objetos.
Esta radiação (ondas) eletromagnética é constituída por diversas características físicas
(intensidade, comprimento de onda, freqüência, energia, polarização, etc...).
Fig. 2.: Onda eletromagnética (E =
Campo elétrico; M = Campo
magnético)
Entretanto, independente dessas características, todas as ondas eletromagnéticas (Fig. 2)
são essencialmente idênticas, apresentando uma independência com relação à existência
ou não de um meio de propagação (propriedade importante deste processo de
transferência de energia). Esta independência é fácil de entender pela figura a seguir, o
campo elétrico e o campo magnético são perpendiculares entre si e ambos oscilam
perpendicularmente à direção de propagação da onda, assim o campo elétrico gera um
campo magnético e do campo magnético gera um campo elétrico. A velocidade de
propagação da onda eletromagnética no vácuo é a velocidade da luz C (3 x 108 m/s). O
número de ondas que passa por um ponto do espaço num determinado tempo define a
freqüência (f) da radiação. A freqüência de onda é diretamente proporcional à velocidade
de propagação da radiação.
7. 3. Radiação eletromagnética 5
________________________________________________________________________
Quanto maior a velocidade de propagação da onda, maior o número de ondas que
passarão por um ponto num dado tempo (t) e maior será sua freqüência. A velocidade de
propagação (v) num dado meio é constante.
A onda eletromagnética pode também ser caracterizada pelo comprimento de onda (λ)
que pode ser expresso pela equação:
λ = v / f
A faixa de comprimentos de onda ou freqüências em que se pode encontrar a radiação
eletromagnética é ilimitada. Com a tecnologia atualmente disponível, pode-se gerar ou
detectar a radiação eletromagnética numa extensa faixa de freqüência, que se estende de 1
a 1024 Hz, ou comprimentos de onda na faixa de 108 metros a 0.01A.
3.2 Espectro eletromagnético
A radiação eletromagnética é subdividida em faixas, representando regiões que possuem
características peculiares em termos dos processos físicos, geradores de energia em cada
faixa, ou dos mecanismos físicos de detecção desta energia.
Na figura 3 é apresentado este Espectro Eletromagnético, que mostra o conjunto dos
diferentes tipos de energia radiante conhecidos.
Figura 3. Espectro Eletromagnético (Steffen & Moraes 1993).
A radiação eletromagnética total (M) emitida por um corpo é uma função da temperatura
(T) deste corpo. Esta relação é expressa pela lei de Stefan-Boltzmann
8. 3. Radiação eletromagnética 6
________________________________________________________________________
M = σT4
σ = constante de Stefan-Boltzmann, 5.6697 * 10-8 W m2 oK-4
Segundo a lei de deslocamento de Wien, o comprimento de onda no qual o máximo de
energia é emitida (λm) também muda em função da temperatura (T).
λm = A / T
A = 2898 μm oK
A figura 4 mostra a distribuição espectral da radiação emitida por diferentes corpos, entre
outros do sol (máximo de energia emitida no comprimento de onda ~ 0.5 μm) e da
própria terra (máximo de energia no comprimento de onda ~ 10 μm).
Figura 4: Distribuição espectral da energia emitida por corpos pretos de diferentes
temperaturas (wavelength = comprimento de onda, spectral radiant exitance = exitância
espectral (razão entre o fluxo radiante que deixa uma amostra de superfície e a área dessa
amostra).
9. 3. Radiação eletromagnética 7
________________________________________________________________________
A figura 5 mostra mais detalhada as caraterísticas espectrais da radiação emitida pelo sol
e a terra, como a atmosfera interfere na radiação proveniente do sol e em quais faixas os
diferentes sistemas sensores trabalham. São diferenciadas as faixas espectrais do
Ultravioleta (UV), Visível e Infravermelho. Observa-se que a atmosfera absorve
diferenciadamente as faixas espectrais. Faixas nas quais a transmissão da atmosfera é
quase total (ex. luz visível, infravermelho entre 8 e 12 μm) se chamam “janelas
atmosféricas” nas quais a maioria dos sistemas sensores trabalham (Fotografia
convencional, Escaneadores multiespectrais e termais). Sistemas de radar (microondas)
são sensíveis a uma radiação de um comprimento de onda bem maior, uma faixa onde a
transmissão da atmosfera é quase total.
Figura 5: Caraterísticas espectrais de fontes de energia (a), efeitos atmosféricos (b) e
sistemas de sensoriamento remoto (c).
10. 3. Radiação eletromagnética 8
________________________________________________________________________
3.3 Interações da radiação na atmosfera e superfície da terra
A figura 6 mostra todas as interações da radiação eletromagnética na atmosfera e na
superfície de terra. Na atmosfera podem ser citados efeitos tais como a difusão, absorção
e reflexão (nas nuvens). A difusão pode prejudicar a qualidade/contraste de imagens de
sensores óticos-passivos em dias com alta concentração de aerossol. Tão mais curto o
comprimento de onda da radiação, tão mais intensa é a difusão pela atmosfera. No caso
do sistema sensor Landsat TM, são sobretudo as bandas (= faixa espectral na qual um
sensor registra a reflexão) #1, #2 e #3 que sofrem fortes alterações pela difusão. Em
função do comportamento dos alvos na superfície pode ser diferenciada a reflexão difusa
(em todas as direções) e a reflexão especular (direcionada).
Insolação
Difusão por
partículas do ar
Absorção por
vapor, poeira,
CO2 e O3
Difusão
Emissão por
vapor, CO2 e
outros gases
Radiação
do ceu
Reflexão
difusa Reflexão
especular
Sensor no
satélite
Absorção, emissão
e aquecimento
Emissão de calor
Reflexão
nas nuvens
Figura 6: Interações da radiação na atmosfera e superfície da terra (modificado conforme
KRONBERG)
11. 3. Radiação eletromagnética 9
________________________________________________________________________
A reflexão diferenciada dos diferentes alvos é a componente da radiação solar que
determina o contraste nas imagens de sistemas passivos. A qualidade das imagens de
sistemas passivos é evidentemente determinada pela quantidade de nuvens que refletem
também a radiação proveniente do sol. A parte não refletida da radiação é absorvida pela
superfície da terra o que causa o aquecimento da própria. Por sua vez a terra emite
radiação (calor) que é medida por sensores termais. Da mesma forma as partículas da
atmosfera e as nuvens emitem radiação.
3.4 Assinaturas espectrais
Como visto na figura 6, os sistemas sensores (passivos) medem a reflexão dos alvos na
superfície terrestre. Um conjunto destas informações de todos os alvos registrados produz
a imagem da região monitorada. Para poder interpretar uma imagem corretamente
precisa-se conhecer a reflexão dos alvos.
A figura 7 mostra a reflexão espectral (reflexão nos diferentes comprimentos de onda) de
solo seco aberto (dry bare soil), vegetação verde (vegetation, green) e água clara (water,
clear).
Figura 7: Curvas típicas de reflexão espectral de alguns alvos na superfície terrestre.
A reflexão do solo aberto aumenta gradativamente até o infravermelho intermediário.
Solo úmido tem uma curva semelhante, só com valores mais baixos em todas as faixas
espectrais. Vegetação verde tem baixa reflexão na luz azul e vermelho e um pico na luz
verde (em função disso ela aparece verde para nossos olhos). A vegetação utiliza a luz
vermelha para a fotosíntese.
12. 4. Fotos aéreas 10
________________________________________________________________________
É caraterístico um forte aumento da reflexão no infravermelho próximo. A água clara
geralmente reflete pouco. No infravermelho toda radiação do sol é absorvida. Portanto,
água com alta concentração de sedimentos tem uma reflexão expressiva nas faixas da luz
visível.
Por sua vez, os sistemas sensores não são capaz de registrar as curvas de reflexão
continuas como esquematizadas na figura anterior e também na Figura 2.8 B. Eles
trabalham em bandas, faixas espectrais tecnicamente definidas (Fig. 2.8 A). No exemplo
são quatro bandas situadas nas faixas espectrais da luz azul B (blue) entre ~0.4 e 0.5 μm),
da luz verde G (green) entre ~0.5-0.6 μm, da luz vermelho R (red) entre ~0.6-0.7 μm e do
Infravermelho próximo IR (~0.7-0.8 μm).
Figura 8: Assinatura espectral da uma folha verde e a reflexão determinada em quatro
bandas espectrais.
O sensor registra então a reflexão média (ou mais exatamente integra a reflexão) nestas
faixas espectrais e grava estas quatro informações sobre o alvo.
4. Fotos aéreas
Fotos aéreas e os métodos da sua interpretação não são sempre mencionados nos cursos
de Sensoriamento Remoto. Mas devido a sua escala normalmente grande (bom
detalhamento) e sua geometria específica, as fotos aéreas são uma fonte extremamente
importante para mapeamentos e para a calibragem e controle de classificações de
imagens de satélite.
A figura 9 mostra a trajetória típica de uma campanha de levantamento aéreo-fotogramétrico.
Na direção do vôo a sobreposição das fotos é cerca de 60%, entre duas
faixas de cerca de 35%.
13. 4. Fotos aéreas 11
________________________________________________________________________
Figura 9: Trajetórias de uma campanha aéreo-fotogramétrica.
As câmaras aéreas produzem fotografias com uma geometria central, diferente da
geometria paralela de mapas ou quase paralela das imagens de sistemas orbitais.
A figura 10 mostra que através da geometria central, um objeto é diferentemente
orientado e deslocado em função do relevo. Devido a baixa altura do vôo a escala de uma
foto aérea muda significativamente mesmo em terreno plano, com a maior escala no
ponto central da foto (principal point) diminuindo centripetamente.
14. 4. Fotos aéreas 12
________________________________________________________________________
Figura 10: Comparações da geometria de um mapa (ou com restrições imagem de
satélite) e uma fotografia aérea. Observe as diferenças no tamanho, orientação e
localização das duas árvores.
Através da utilização de um estereoscópio e um par de fotos da mesma região
(fotografada em diferentes ângulos), o avaliador forma uma visão tridimensional da área
sobreposta (Figura 11).
Figura 11: Estereoscópio.
15. 4. Fotos aéreas 13
________________________________________________________________________
Este efeito pode ser valorizado para a melhor interpretação dos objetos (ex. engenheiros
florestais podem diferenciar algumas espécies de árvores devido a sua altura) ou
diretamente para a mensuração do relevo. Para conseguir a impressão tridimensional são
necessários alguns passos preparativos (Figura 12).
Figura 12: Preparação das fotografias para interpretação num estereoscópio (Localização
e transferência dos pontos principais sobre e entre as fotografias).
Além da própria reprodução do terreno, as fotos contém várias informações importantes
para uma interpretação correta (Figura 13).
Desenhando linhas transversais entre as marcas fiduciais da foto pode ser determinado
seu ponto central (Fig. 12). Dados sobre a altitude do vôo ajudam estimar a escala da
foto. A altitude, tipo de lente e distância focal devem ser informadas para a orientação
correta das fotos na utilização em aparelhos fotogramétricos sofisticados (Stereoplotter).
O índice da foto e contador ajudam na localização das fotos na área de estudo. Data e
horário informam sobre as condições de insolação e ajudam na aquisição de informações
correlatas (dados climáticos, trabalho de campo etc.).
16. 4. Fotos aéreas 14
________________________________________________________________________
Figura 13: Informações registradas em fotografias aéreas (Câmera Wild)
Figura 14: Exemplo para uma chave de mapeamento geomorfológico.
17. 4. Fotos aéreas 15
________________________________________________________________________
Para a avaliação dos fotos já existem chaves de interpretação prontas para as diferentes
aplicações. A figura 14 mostra um exemplo de um manual de interpretação de unidades
geomorfológicas ( IBGE 1995).
Em diversos casos são predefinidos os símbolos para a representação das diferentes
classes no mapeamento resultante (p. ex. mapa geomorfológico).
Leia mais sobre fotos aéreas:
CARVER, A.J. (1988): Fotografia aérea para planejadores de uso da terra. Ministério de
Agricultura, Brasilia.
18. 5. Sistemas sensores orbitais 16
________________________________________________________________________
5. Sistemas sensores orbitais
5.1 Sistemas passivos e ativos
Os equipamentos capazes de transformar alguma forma de energia em um sinal passível
de ser convertido em informação são denominados sistemas sensores. Esses sistemas
podem ser divididos em (Figura 15):
Sensores passivos: detectam a radiação solar refletida ou a radiação emitida pelos
objetos;
Sensores ativos: produzem sua própria radiação, por exemplo, radares;
Passivo Ativo
Figura 15: Sistema sensores passivos e ativos
Sensores que operam na região óptica do espectro, sendo que esses dividem-se em:
+ sensores termais, que operam na faixa do espectro entre 7 e 15 μm, e
+ sensores de energia solar refletida, que operam entre 0,38 e 3 μm;
+ sensores de microondas (radar)
+ sistemas sensores não-imageadores: não fornecem uma imagem da superfície
sensoriada;
+ Sistemas sensores imageadores: fornecem como resultado uma imagem da superfície
sensoriada, podendo ser classificados em razão do processo utilizado na formação da
imagem:
- sistemas de quadro, que adquirem a linha da imagem num mesmo instante,
- sistemas de varredura, em que as linhas da imagem são formadas pela aquisição
seqüencial de elementos de resolução ('pixel', abreviação de picture element)
5.2 Órbitas
Os sistemas sensores instalados em satélites são chamados sistemas orbitais. Eles podem
ser classificados conforme suas órbitas (Figura 16). Sistemas sensores geoestacionários se
movimentam com a mesma velocidade do que a rotação da terra e eles monitoram
19. 5. Sistemas sensores orbitais 17
________________________________________________________________________
consequentemente sempre a mesma região da superfície. Eles circulam numa grande
distância da superfície (alguns mais do que 30.000 km), e são usados para aplicações
meteorológicas (ex. previsão de tempo), que exigem imagens repetitivas da mesma região
em curtos intervalos. O detalhamento das imagens é restrito.
Geoestacionário Héliosincrono
Figura 16: Órbitas de satélites de sensoriamento remoto.
Para aplicações que exigem um maior detalhamento (uso e ocupação do solo, cobertura
vegetal, mapeamento geológico etc.) são usados sistemas com órbitas muito mais baixas
(700-850 km). As órbitas destes sistemas sensores tem as seguintes caraterísticas:
• a órbita é síncrona com o Sol (heliosincrono), para que as condições de iluminação da
superfície terrestre se mantivessem constantes;
• a órbita é circular, para garantir que as imagens tomadas em diferentes regiões da
Terra tivessem a mesma resolução e escala;
• a órbita permite o imageamento cíclico da superfície, para garantir a observação
periódica e repetitiva dos mesmos lugares;
• o horário da passagem do satélite atende às solicitações de diferentes áreas de
aplicação (geologia, geomorfologia, agricultura, etc..).
5.3 Sistemas passivos mais usados
Trataremos neste item com maior profundidade do sistema Landsat e menos do sistemas
SPOT. Estes sistemas, no atual estado da arte, representa a maior fonte da dados de
sensoriamento remoto e com maior potencial de continuidade ao longo do tempo. Além
disso temos disponível no país, através do INPE - Instituto Nacional de Pesquisas
Espacias, toda uma infraestrutura para recepção, processamento e distribuição das
imagens enviadas por estes sistemas.
20. 5. Sistemas sensores orbitais 18
________________________________________________________________________
5.3.1 LANDSAT
O sistema LANDSAT compõe-se até o momento de 6 satélites, que foram desenvolvidos
pela NASA (National Aeronautics and Space Administration, recebendo inicialmente o
nome de Earth Resouces Technology Satellite-1 (ERST-1), que passou a ser chamado de
LANDSAT em janeiro de 1975.
O Landsat 1 e 2 carregaram a bordo dois sistemas sensores com a mesma resolução
espacial, mas com diferentes concepções de imageamento: o sistema RBV, com
imageamento instantâneo de toda a cena e o sistema MSS, com imageamento do terreno
por varredura de linhas (line-scanner).
Ambos os sistemas propunham-se à aquisição de dados multespectrais, mas o
desempenho do sistema MSS, em termos de fidelidade radiométrica, fez com que o 3º
satélite da série tivesse seu sistema RBV modificado, de modo a prover dados com
melhor resolução espacial em uma única faixa do espectro. Por outro lado, foi
acrescentada uma faixa espectral ao sistema MSS, para operar na região do infravermelho
termal.
A partir do Landsat 4, ao invés do sensor RBV, a carga útil do satélite passou a contar
com o sensor TM (Thematic Mapper), operando em 7 faixas espectrais. Esse sensor
conceitualmente é semelhante ao MSS pois é um sistema de varredura de linhas (line-scanner).
Incorprora, entretanto, uma série de aperfeiçoamentos, quer nos seus
componentes ópticos, quer nos seus componentes eletrônicos. O recém lançado Lansat 7
(o lançamento do Landsat 6 não tive sucesso) possua além das bandas multiespectrais um
canal pancromático com uma resolução espacial de 15 metros.
Os instrumentos mais usados são os imageadores MSS e TM:
IMAGEADOR MSS
MSS (Multispectral Scanner): é um sistema sensor que permite o imageamento de linhas
do terreno numa faixa de 185 km, perpendicularmente à órbita do satélite. A varredura do
terreno é realizada com auxílio de um espelho que oscila perpendicularmente ao
deslocamento do satélite. Durante a oscilação do espelho, a imagem do terreno, ao longo
da faixa, é focalizada sobre uma matriz de detectores. A dimensão de cada detector que
compõe a matriz de detectores, é responsável pelo seu campo de visada instantâneo (área
observada por cada detector na superfície da Terra). A energia registrada por cada
detector é transformada em um sinal elétrico e este transmitido para as estações em terra.
A cada oscilação do espelho, o satélite desloca-se ao longo da órbita, para proporcionar o
imageamento contínuo do terreno. Entretanto, o movimento de rotação da Terra provoca
um pequeno deslocamento do ponto inicial da varredura para oeste a cada oscilação do
espelho, ou seja, a cada seis linhas imageadas. Se considerarmos o deslocamento de 185
km ao longo da órbita do satélite, há um deslocamento de 12,5 cm entre a primeira e a
última coluna de pixels.
IMAGEADOR TM
TM (Thematic Mapper): é um sistema avançado de varredura multiespectral concebido
para proporcionar: resolução espacial mais fina, melhor discriminação espectral entre
objetos da superfície terrestre, maior fidelidade geométrica e melhor precisão
radiométrica em relação ao sensor MSS.
21. 5. Sistemas sensores orbitais 19
________________________________________________________________________
A energia proveniente da cena atinge o espelho de varredura que oscila
perpendicularmente à direção de deslocamento do satélite em sentido leste-oeste e oeste-leste.
O sinal atravessa um telescópio e um conjunto de espelhos, cuja função principal é
corrigir o sinal coletado pelo espelho de varredura. Dessa maneira, o sinal detectado em
cada matriz de detectores de cada canal é transferido para um amplificador e convertido
em sinal digital através de um sistema A/D (analógico/digital). A saída de dados é, então
transmitida via telemetria.
5.3.2 SPOT
O sistema SPOT é um programa espacial francês semelhante ao programa Landsat, que
foi concebido pelo Centre National d'Etudes Spatiales (CNES) e leva a bordo dois
sensores de alta resolução (HRV - HAUT Resolution Visible). Estes sensores foram
concebidos para operarem em dois diferentes modos.
O modo multiespectral permite a aquisição de dados em três faixas do espectro
eletromagnético com uma resolução espacial de 20 metros. E o modo pancromático com
uma banda de resolução espacial de 10 metros.
Uma das características marcantes dos instrumentos a bordo do SPOT é a possibilidade
de observação "off-nadir" (apontamento direcional). O sensor poderá ser direcionado de
modo a observar cenas laterais à órbita em que se encontra inserido o satélite em dado
momento. Esta possibilidade de observação "off-nadir" aumenta os meios de obter-se um
aumento no recobrimento repetitivo de determinadas áreas. Outra vantagem da visada
"off-nadir" é a possibilidade de serem obtidos pares estereoscópicos de determinadas
áreas.
A luz proveniente da cena atinge um espelho plano, que pode ser controlado a partir das
estações terrenas variando em ângulos de +/- 0,6 até 27o em relação ao eixo vertical.
A energia que atinge o espelho plano é focalizada sobre uma matriz linear de detectores
do tipo CCD (Charge-Coupled Device). Cada matriz consiste em 6000 detectores
arranjados linearmente, formando o que se convenciona chamar de “push-broom
scanner” ou sistema de varredura eletrônica. Este sistema permite o imageamento
instantâneo de uma linha completa no terreno, perpendicularmente à direção de
deslocamento do satélite em sua órbita.
5.3.3 Sistemas orbitais de alta resolução
Recentemente foram lançados ou estão sendo lançados num futuro próximo sistemas
orbitais comerciais de alta resolução geométrica (imagens com grande detalhamento).
Baseados na maioria em tecnologia militar, eles chegam a resoluções de 1 m. A figura 17
mostra uma imagem do IKONOS da cidade de Washington.
22. 5. Sistemas sensores orbitais 20
________________________________________________________________________
Figura 17: Cidade de Washington (EU) numa imagem do satélite IKONOS, banda
pancromática.
Estas imagens serão uma forte concorrência para as fotos aéreas em aplicações como
planejamento urbano. Devido a sua alta resolução (que resulta em arquivos extremamente
grandes) e o tamanho pequeno das cenas (ex. 8 * 8 km), imagens destes sistemas sensores
não são apropriadas para mapeamentos de escalas intermediárias.
Leia mais sobre sistemas sensores recentes:
www.geoplace.com/gw/current/1199stch.asp
5.4 Radares imageadores
A maioria dos sistemas ativos trabalham na faixa espectral de microondas (radar) e tem
características técnicas significativamente diferentes dos sistemas passivos.
Sensoriamento remoto de microondas deve ser então tratado num capítulo separado que
não se encaixa neste curso de introdução. Entretanto, como estão crescendo as aplicações
baseadas no Radar, seguem algumas observações básicas (Figura 18).
23. 5. Sistemas sensores orbitais 21
________________________________________________________________________
Figura 18: Sistema imageador de
microondas (radar)
Sistemas ativos de radar emitem radiação (B) em pulsos de uma seqüência definida (A)
através de uma própria fonte de energia. Os sinais emitidos são refletidos pelos alvos (C)
e recebidos por uma antena.
As características de imagens de radar são influenciadas pelo comprimento de onda
(banda) utilizado, sua polarização na emissão e recepção (Vertical ou Horizontal) e os
ângulos nos quais os sinais são emitidos. Cabe observar que são parâmetros bem
diferentes dos quais de SR passivo que determinam a aparência da imagem (Figura 19),
tais como rugosidade da superfície do alvo (A), o ângulo de incidência (B) e a umidade e
as propriedades elétricas do alvo.
(A) rugosidade (B) ângulo de incidência
Figura 19: Parâmetros influenciando o sinal de radar
A figura 20 mostra como alguns alvos refletem radar ativo. Superfícies lisas refletem
pouca radiação para a antena. Florestas com árvores de diferentes alturas e estruturas
refletem mais forte do que campo ou plantações homogêneas. Observa-se também uma
forte influência do relevo na claridade da imagem. A reflexão de objetos lineares (p. ex.
construções) varia extremamente em função da sua orientação.
24. 5. Sistemas sensores orbitais 22
________________________________________________________________________
Figura 20:
Reflexão de
alguns alvos
numa imagem
de radar.
Tabela 1 mostra os mais usados sistemas de radar e suas principais caraterísticas. As
bandas mais usadas são X, C e L. O look-angle descreve o ângulo com o qual as
microondas são emitidas (Fig. 19), uma caraterística de todos os sistemas ativos de radar.
Tabela 1: Sistemas de radar ativo
A resolução geométrica das imagens geradas pode variar em função do look-angle e do
método do processamento dos dados (ex. Radarsat com resolução geométrica entre 10 e
100 m).
Leia mais sobre SR com radar:
southport.jpl.nasa.gov/
25. 6. Avaliação de imagens de satélite 23
________________________________________________________________________
6. Avaliação de imagens de satélite
6.1 Imagens digitais
Toda imagem de satélite análoga (impressa) ou digital é o produto dos dados registrados
e transmitidos pelos sistemas sensores. A coloração de compostos coloridos dos dados
tem na grande maioria dos casos nenhuma relação com a coloração dos objetos
percebidos pelos nossos olhos. Para interpretar imagens visualmente (Cap. 6.2) devem ser
então consideradas o procedimento da composição de uma imagem, as bandas usadas
para a criação do composto colorido e o comportamento espectral dos objetos
monitorados nas faixas espectrais destas bandas. Para poder iniciar um processamento
digital das imagens (Cap. 6.3) devem ser em adição adquiridos conhecimentos sobre a
forma de gravação, processamento e visualização destes dados através de computadores.
A figura 21 mostra os passos na formação de uma imagem digital no exemplo do sistema
sensor Landsat MSS de quatro bandas.
Reflexão
Intensidade
Bandas MSS Bandas MSS Formato digital “banda
intercalada por pixel”
Figura 21: Formação de uma imagem digital
O(s) sensor(es) de cada banda medem o fluxo energético integral recebido através da
reflexão de um alvo na respectiva faixa espectral. O fluxo energético é transferido em
valores digitais por banda. No caso de um formato “banda intercalada por pixel” estão
gravados os valores das quatro bandas (4, 5, 6, 7) do primeiro pixel da imagem na
localização 1,1, depois os valores do segundo pixel etc.
A figura 22 mostra como os valores de uma destas bandas são organizados para formar
uma imagem. A imagem pode ser entendida como uma matriz de celas (= pixels). A
localização dos pixels é descrita por coordenadas e cada cela (pixel) tem um valor de
intensidade que também é chamado “tom (=nível) de cinza”.
26. 6. Avaliação de imagens de satélite 24
________________________________________________________________________
Figura 22: Estrutura raster de uma banda
de uma imagem digital. A imagem é
uma matriz com celas de tamanho igual,
cuja localização pode ser descrita por
coordenadas (1,1; 1,2 etc.). Cada cela
(pixel) tem um valor de cinza (33, 31).
A figura 23 mostra outras características fundamentais de dados digitais, as quatro
resoluções de imagens. A resolução espacial (=geométrica) é o tamanho de um pixel
(spatial resolution).
Figura 23: Resolução espacial, radiométrica, espectral e temporal de imagens de satélite.
A resolução radiométrica (radiometric resolution) descreve a sensibilidade do sensor. No
caso de Landsat TM a resolução é 8 bits (256 níveis de cinza). A resolução espectral
(spectral resolution) é a largura de uma banda normalmente descrita em μm. A resolução
temporal (temporal resolution) é a freqüência com qual o satélite monitora a mesma
região terrestre.
Para a interpretação visual os dados digitais podem ser impressos ou visualizados no
monitor do computador. Nos dois casos as intensidades das respectivas bandas são
codificadas com cores. Podem ser visualizadas simultaneamente 03 bandas, uma
codificada com vermelho, uma com verde e outra com azul. Uma área vermelha numa
imagem significa que na banda que foi codificada com a cor vermelha (p. ex. através do
27. 6. Avaliação de imagens de satélite 25
________________________________________________________________________
canal vermelho do monitor) foi registrada uma alta reflexão, enquanto nas outras bandas
havia uma reflexão relativamente baixa.
É importante lembrar que não somente uma banda representando a reflexão na luz
vermelha pode ser codificada com a cor vermelha. Codificando p. ex. a banda 4 do
Landsat TM do infravermelho próximo com vermelho, vegetação verde (para nossos
olhos) aparece vermelho na imagem.
6.2 Interpretação visual
Uma interpretação pode ser efetuada de modo analógico através de uma imagem
impressa e papel transparente sobreposto. A interpretação no monitor/computador tem a
vantagem que já está sendo criado um resultado digital que pode ser depois modificado
no computador e diretamente integrado num SIG. Nos dois casos, um intérprete
experiente intuitivamente valoriza seis caraterísticas das imagens (Figura 24).
Figura 24: Características de imagens valorizadas na interpretação
Além da coloração, forma e tamanho de um elemento podem ajudar na identificação de
um objeto. A textura da imagem é a freqüência na qual uma certa tonalidade se repete
(ex.: floresta e campo podem ter as mesmas tonalidades, mas a textura da floresta é
geralmente mais irregular). Certas culturas podem ser identificados pelo padrão no qual
eles estão plantadas. A localização de construções pode ajudar na sua identificação (p. ex.
ETA perto de um rio).
28. 6. Avaliação de imagens de satélite 26
________________________________________________________________________
6.3 Processamento digital de Imagens
6.3.1 Introdução
Por Processamento Digital de Imagens (PDI) entende-se a manipulação de uma imagem
por computador de modo que a entrada e a saída do processo sejam imagens. Por
comparação, na disciplina de reconhecimento de padrões, a entrada do processo é uma
imagem e a saída constitui-se numa classificação ou descrição da mesma.
O objetivo de se usar processamento digital de imagens, é melhorar o aspecto visual de
certas feições estruturais para o analista humano e fornecer outros subsídios para a sua
interpretação, inclusive gerando produtos que possam ser posteriormente submetidos a
outros processamentos.
O processamento digital de imagens pode ser dividido em três etapas independentes: pré-processamento,
realce e classificação. O pré-processamento refere-se ao processamento
inicial de dados brutos para calibração radiométrica da imagem, correção de distorções
geométricas e remoção de ruído. As técnicas de realce mais comuns em PDI são: realce
de contraste, filtragem, operação aritmética, transformação IHS e componentes
principais. Já as técnicas de classificação podem ser divididas em; classificação
supervisionada e classificação não supervisionada.
NOTA: O usuário pode escolher por não utilizar os algoritmos de classificação, uma vez
pode optar por fazer uma interpretação direta sobre uma imagem realçada (Cap. 6.2).
Como veremos a seguir as técnicas de PDI são realizadas sempre com os níveis de cinza
(NC) atribuídos aos pixels de uma imagem. Dependendo da técnica envolvida o usuário
trabalhará com uma única imagem (banda ou PI) ou com várias imagens, sendo está
última conhecida por técnicas multi-espectrais, por tratar de várias imagens da mesma
cena em regiões diferentes do espectro eletromagnético.
6.3.2 Pré-processamento
As técnicas de pré-processamento envolvem as correções radiométricas e geométricas das
imagens.
6.3.2.1 Correções radiométricas
As correções radiométricas visam eliminar ruídos e degradações, devidos aos efeitos
atmosféricos, e do sistema sensor.
A radiância detectada por um sensor é composta pela radiância dos alvos da superfície da
Terra somada com a radiância resultante do espalhamento que a radiação eletromagnética
sofre pela atmosfera (Fig. 6). Esse espalhamento é maior quanto menor for o
comprimento de onda da radiação.
Pode-se corrigir os efeitos atmosféricos das imagens utilizando modelos matemáticos que
consideram a temperatura, a umidade relativa e outros dados do local de interesse.
Porém, nem sempre esses dados estão disponíveis. Outra técnica utilizada consiste na
subtração de uma constante dos valores de nível de cinza de todos os pixels de uma
determinada banda. Essa constante corresponde ao menor valor de nível de cinza dos
pixels daquela banda.
29. 6. Avaliação de imagens de satélite 27
________________________________________________________________________
Os erros devidos ao sistema sensor causam ruídos nas imagens. Estes ruídos podem ser
pontuais ou apresentar-se em forma de linhas, e podem ser periódicos ou aleatórios. O
método de correção a ser aplicado dependerá do tipo de erro. Por exemplo, se houver
perda de uma linha inteira, pode-se atribuir aos pixels dessa linha a média dos valores dos
pixels das linhas vizinhas.
Correções atmosféricas precisam ser aplicadas no caso da comparação dos níveis de cinza
de imagens de diferentes datas (p. ex. análises de correlação – regressão da concentração
de sedimentos transportados em corpos de água)
6.3.2.2 Correções geométricas
Segundo Richards (1986), existem, potencialmente, mais fontes de distorções
geométricas que radiométricas e seus efeitos são mais severos. Elas podem estar
relacionadas a alguns fatores como:
• rotação da terra durante a aquisição dos dados,
• taxa de varredura finita de alguns sensores,
• extensão do campo de visada de alguns sensores
• curvatura da terra
• falta de linearidade de alguns sensores, variação de altitude e velocidade das
plataformas, e efeitos panorámicos relacionados a geometria da imagem.
O processo de correção geométrica envolve basicamente duas etapas. A primeira consiste
na determinação da função que relaciona o sistema de referencia ao da imagem a ser
corrigida. Erros sistemáticos relacionados aos orbitas dos sistemas sensores são
corrigidos desta forma, na maioria pelo fornecedor dos dados (p. ex. INPE)
A segunda consiste no cálculo por re-amostragem dos valores de nível de cinza dos pixels
na imagem corrigida. Esta segunda etapa precisa ser efetuada, em muitos casos, pelo
usuário, e será portanto mais detalhadamente explicada em seguida:
Utilizando um mapa como sistema de referencia, pode-se registrar uma imagem de forma
que seus pixels se tornem referenciados a esse sistema, ou seja, a valores de latitude e
longitude ou coordenadas UTM. Esse processo se chama Georeferenciamento.
A função aplicada para correção geométrica é determinada a partir das coordenadas de
pontos de controles na imagem a ser corrigida e no sistema de referência utilizado
(coordenadas geográficas ou planimétricas determinado através de mapas ou GPS).
Esses pontos de controle devem ser pequenos e bem definidos, podendo ser baseados em:
• confluência do sistema de drenagem,
• cruzamento ou bifurcações do sistema hídrico,
• cruzamento entre o sistema de drenagem e pontes rodoviárias,
• barragens e extremidades de aeroportos.
O processo de re-amostragem utilizado para a correção geométrica é esquematizado na
Figura 25. A grade geometricamente corrigida não coincide com a grade definida pelas
30. 6. Avaliação de imagens de satélite 28
________________________________________________________________________
coordenadas x, y dos pixels da cena em estudo. Podemos verificar que o pixel em
destaque (Z) da grade corrigida corresponde, no espaço, a porções dos pixels a, b, c e d da
imagem original. Isto cria o problema de determinar o valor do nível de cinza a ser
atribuído ao pixel na imagem geometricamente corrigida.
Figura 25: Correção geométrica de imagens.
Para se determinar os valores de nível de cinza do pixel da imagem corrigida, utiliza-se
métodos de interpolação dos pixels (da imagem não corrigida) mais próximos a ele. Os
métodos de interpolação mais comuns são: alocação de vizinho mais próximo,
interpolação bilinear e convolução cúbica.
Utilizando-se o método do vizinho mais próximo, o valor a ser atribuído ao pixel Z
(Figura 25) é igual ao valor do pixel b, pois este é o valor mais próximo de seu centro.
As vantagens desse método são a rapidez de processamento e a manutenção dos valores
originais dos níveis de cinza, porém, resulta em uma imagem de baixa qualidade visual.
Segundo o método de interpolação bilinear, o valor do nível de cinza a ser atribuído ao
pixel Z é determinado pela média ponderada dos valores dos quatro vizinhos mais
próximos (a, b, c e d). Essa ponderação é dada pela distancia do centro dos pixels
vizinhos ao centro do pixel Z. Nesse caso, o tempo de processamento é maior que o
anterior, porém resulta em uma imagem de melhor qualidade visual. Ocorre ainda uma
perda de contraste, suavizando feições de bordas da imagem original.
Pelo método de convolução cúbica, o nível de cinza a ser atribuído ao pixel Z é
determinado através de cálculos realizados em uma matriz com os níveis de cinza dos 16
vizinhos mais próximos. Esse método resulta em imagens de melhor qualidade visual,
embora seu processamento seja mais demorado que os anteriores. Também ocorre perda
de contraste.
31. 6. Avaliação de imagens de satélite 29
________________________________________________________________________
6.3.3 Realce
6.3.3.1 Realce de Contraste
A técnica de realce de contraste e tem por objetivo melhorar a qualidade das imagens sob
os critérios subjetivos do olho humano.
O contraste entre dois objetos pode ser definido como a razão entre os seus níveis de
cinza médios. A manipulação do contraste consiste numa transferência radiométrica em
cada "pixel", com o objetivo de aumentar a discriminação visual entre os objetos
presentes na imagem. Realiza-se a operação ponto a ponto, independentemente da
vizinhança.
Esta transferência radiométrica é realizada com ajuda de histogramas, que são
manipulados para obter o realce desejado. Veja mais sobre o que é um Histograma:
Histogramas
A escolha do mapeamento direto adequado é, em geral, essencialmente empírica.
Entretanto, um exame prévio do histograma da imagem pode ser útil. O histograma é
uma das formas mais comuns de se representar a distribuição dos níveis de cinza (NC) de
uma imagem, e a mais utilizada em PDI.
O histograma fornece a informação de quantos pixels na imagem possuem um
determinado NC, definido entre 0 (preto) a 255 (branco) para uma imagem quantificada
em 8 bits. Outra característica é que o histograma não apresenta nenhuma informação
espacial da imagem, e sim um função de probabilidade de encontrar um NC referente a
um objeto qualquer da imagem. Normalmente tem-se no eixo X a distribuição dos NC e
no eixo Y a freqüência em que ocorrem (veja figura 26).
Figura 26: Histograma de uma banda de
uma imagem. O maior pico do
histograma representa NC intermediárias
que dominam sobretudo nas partes
centrais da imagem. O máximo
secundário do histograma é resultado das
áreas escuras no canto esquerdo baixo da
imagem.
32. 6. Avaliação de imagens de satélite 30
________________________________________________________________________
Um histograma descreve a distribuição estatística dos níveis de cinza em termos do
número de amostras ("pixels") com cada nível, e esta distribuição pode também ser dada
em termos da percentagem do número total de "pixels" na imagem. Pode ser estabelecida
uma analogia entre o histograma de uma imagem e a função densidade de probabilidade,
que é um modelo matemático da distribuição de tons de cinza de uma classe de imagens.
Os histogramas pode ser uni-dimensionais (Fig. 26), isto é, para apenas uma banda, ou
multi-dimensionais quando representa a distribuição de duas ou mais bandas, sendo o de
duas dimensões o mais simples. Um histograma de duas bandas, ou scattergrama,
permite analisar visualmente o grau de correlação entre duas bandas e decidir sobre tipo
de técnica de aumento de contraste a ser aplicado a imagens multi-espectrais.
A forma do histograma fornece informações importantes como a intensidade média e
espalhamento dos valores de NC, sendo este último a medida de contraste da imagem.
Quanto maior o espalhamento ao longo do eixo dos NCs, maior o contraste da imagem. A
figura 27 ilustra esta distribuição dos NCs.
Figura 27: Histograma e imagem antes (A) e após a aplicação de uma realce de contraste.
33. 6. Avaliação de imagens de satélite 31
________________________________________________________________________
Para aumentar o contraste de uma imagem, deseja-se expandir o intervalo original de
níveis de cinza da imagem original, utilizando-se uma função de transferência que
consiste em mapear as variações dentro do intervalo original de tons de cinza, para um
outro intervalo desejado (Fig. 28).
Figura 28: Função de transferência para aumento de contraste. Os valores originais (eixo
X) entre +/- 20 a 80 são transferidos para os valores resultantes entre +/- 40-255.
NOTA: Pode-se usar como parâmetro de contraste a inclinação da função de
transferência, representada pela curva plotada em relação aos eixos XY. Como regra
geral um aumento na inclinação da curva, reflete um aumento de contraste. Se a
inclinação for maior do que 45 graus o contraste será expandido, e se for menor do que
45 graus o contraste será comprimido.
6.3.3.2 Filtragem
A aplicação de filtros é amplamente discutida na literatura. Portanto a importância prática
destas operações no trabalho com imagens de sistemas passivos é limitada. Com a
crescente utilização de imagens de Radar (que possuem um alto grau de ruído “speckle”),
as técnicas de filtragem ganharam nova importância.
As técnicas de filtragem são transformações da imagem "pixel" a "pixel", que não
dependem apenas do nível de cinza de um determinado "pixel", mas também do valor dos
níveis de cinza dos "pixels" vizinhos, na imagem original.
Os filtros funcionam como janelas ou máscaras móveis que se deslocam sobre a imagem.
Por exemplo, uma janela de três por três pixels (nove ao todo) que percorre a imagem
34. 6. Avaliação de imagens de satélite 32
________________________________________________________________________
(Figura 29). Inicialmente ela é colocada no canto superior esquerdo da imagem, sendo
que o valor do pixel central dessa janela na imagem é dado pela soma dos valores do 9
pixels da imagem multiplicados pelas 9 celas da janela. Essa janela se desloca, pixel a
pixel, e essa operação é repetida, atribuindo-se novos valores aos pixels.
Figura 29: Representação de uma janela de três por três pixels transposta sobre uma
imagem.
Alguns exemplos de filtros são apresentados a seguir.
Filtro passa-baixa
O efeito visual de um filtro passa-baixa (Fig. 30) é o de suavização da imagem e a
redução do número de níveis de cinza da cena. As altas freqüências, que
correspondem às transições abruptas são atenuadas. A suavização tende a minimizar
ruídos e apresenta o efeito de borramento da imagem.
* 1/9 * 1/25
(A) (B)
Figura 30: Filtros passa-baixo 3 x 3 e 5 x 5.
Algumas janelas que efetuam uma filtragem passa-baixa, numa vizinhança de dimensão
3x3, 5x5 ou 7x7 estão indicadas abaixo, estes filtros são conhecidos por filtros de média,
pois obtém a média entre pontos vizinhos.
35. 6. Avaliação de imagens de satélite 33
________________________________________________________________________
Filtro Passa-Alta
A filtragem passa-alta tende a realçar os detalhes, produzindo uma "agudização"
(“sharpering”) da imagem, isto é, as transições entre regiões diferentes tornam-se mais
nítidas (Figura 31).
Figura 31: Filtros passa-baixo 3 x 3 e 5 x 5.
Exemplos: limites de um campo de cultivo, lineamento geológico, etc. Estes filtros
podem ser usados para realçar certas características presentes na imagem, tais como
bordas, linhas curvas ou manchas. O efeito indesejado é o de enfatizar o ruído porventura
existente na imagem.
Os filtros de realce de bordas atribuem valores de nível de cinza para os "pixels" da cena
original, segundo a influência de seus "pixels" vizinhos. Esta maior ou menor influência
será função de valores (positivos, nulos ou negativos) fornecidos pelo usuário e atribuídos
aos elementos da máscara, considerados segundo a configuração do filtro utilizado. É
através da combinação destes valores de entrada ou pesos, que se obterá um realce maior
ou menor da cena, segundo direções preferenciais de interesse.
Para diminuir o ruído em imagens radar foram desenvolvidos filtros com um calculo mais
sofisticado. Entre outros podem ser citados os filtros Filtro de Frost (Frost 1982), Lee
(Lee 1981) ou Kuan/Nathan (Kuan et al. 1982). Figura 32 mostra os efeitos de vários
filtros aplicados a uma banda de radar.
36. 6. Avaliação de imagens de satélite 34
________________________________________________________________________
Imagem original Média 3 x 3
Frost Kuan
Figura 32: Filtros aplicados numa banda original do ERS-1
Leia mais sobre filtros:
Eric M. Eliason & Alfred S. McEwan (1990): Adaptive Box Filters for Removal of
Random Noise from Digital Images", Photogrammetric Engineering and Remote
Sensing, Vol. 56, No. 4, pp. 453-458.
INPE: Manual SPRING 3.3 (www.inpe.br)
37. 6. Avaliação de imagens de satélite 35
________________________________________________________________________
6.3.4 Operações aritméticas entre Bandas
Pode-se realizar operações matemáticas como adição, subtração, multiplicação e divisão
entre bandas ou imagens. Essas operações são feitas pixel a pixel. Em geral, a adição e
multiplicação são utilizadas para realçar similaridades espectrais entre bandas ou entre
diferentes imagens. A subtração e a divisão, por outro lado, são utilizadas para realçar
diferencias espectrais (Crosta, 1992).
A divisão de imagens é a operação aritmética mais utilizada em processamento digital de
imagens de sensoriamento remoto, sendo usada na determinação dos índices de vegetação
e na identificação de zonas de alteração hidrotermal relacionadas a concentrações de
minerais.
A operação entre bandas é utilizada na determinação de índices de vegetação, por
exemplo, o índice desenvolvido para o sensor MSS/LANDSAT e calculado pela seguinte
equação:
MSS7 - MSS5
VI = MSS7 + MSS5
A presença de oxidos de ferro e minerais de argila de alteração hidrotermal é realçada
pelas razões entre bandas do sensor Landsat TM:
TM3/TM 5 e TM1/TM7 respectivamente.
6.4 Classificação Digital de Imagens
6.4.1 Conceitos
A classificação digital de imagens compõe-se de um conjunto de procedimentos que
permitem associar objetos (pixels ou regiões) presentes em uma imagem a um conjunto
de classes.
O resultado final de um processo de classificação é uma imagem digital que constitue um
mapa de "pixels" classificados, representados por símbolos gráficos ou cores. O processo
de classificação digital transforma então um grande número de níveis de cinza em cada
banda espectral em um pequeno número de classes em uma única imagem. As técnicas de
classificação que podem ser aplicadas apenas a um canal espectral (banda da imagem)
são conhecidas como classificações unidimensionais. As técnicas em que o critério de
decisão depende da distribuição de níveis de cinza em vários canais espectrais são
definidas como técnicas de classificação multiespectral.
Podem ser diferenciados dois conceitos principais de classificação. O critério para a
diferenciação destes dois conceitos é o primeiro passo em um processo de classificação, o
treinamento. Treinamento é o reconhecimento da assinatura espectral das classes.
Existem basicamente duas formas de treinamento: supervisionado e não-supervisionado
(Figura 33).
38. 6. Avaliação de imagens de satélite 36
________________________________________________________________________
(A) (B)
Figura 33: Classificação não-supervisionada (A) e supervisionada (B).
Quando o usuário utiliza algoritmos para reconhecer as classes presentes na imagem, o
treinamento é dito não-supervisionado. Ao definir áreas para o treinamento não-supervisionado,
o usuário não deve se preocupar com a homogeneidade das classes. As
áreas escolhidas devem ser heterogêneas para assegurar que todas as possíveis classes e
suas variabilidades sejam incluídas. Os "pixels" dentro de uma área de treinamento são
submetidos a um algoritmo de agrupamento ("clustering") que determina o agrupamento
do dado, numa feição espacial de dimensão igual ao número de bandas presentes. Este
algorítmo assume que cada grupo ("cluster") representa a distribuição de probabilidade de
uma classe.
Quando existem regiões da imagem em que o usuário dispõe de informações que
permitem a identificação de uma classe de interesse, o treinamento é dito
supervisionado. Para um treinamento supervisionado o usuário deve identificar na
imagem uma área representativa de cada classe. É importante que a área de treinamento
seja uma amostra homogênea da classe respectiva, mas ao mesmo tempo deve-se incluir
toda a variabilidade dos níveis de cinza.
Recomenda-se que o usuário adquira mais de uma área de treinamento, utilizando o
maior número de informações disponíveis, como trabalhos de campo, mapas, etc.
Para a obtenção de classes estatisticamente confiáveis, são necessários de 10 a 100
"pixels" de treinamento por classe. O número de "pixels" de treinamento necessário para
a precisão do reconhecimento de uma classe aumenta com o aumento da variabilidade
entre as classes.
O conceito da classificação supervisionada é o mais utilizado. O usuário define as
classes a serem diferenciadas e classifica a imagem conforme as assinaturas
espectrais destas classes.
39. 6. Avaliação de imagens de satélite 37
________________________________________________________________________
Para a compreensão dos métodos de classificação digital de imagens é necessário o
conhecimento do conceito espaço de atributos.
A representação do espaço de atributos pode ser feita, como exemplo, pelo gráfico dos
valorem dos níveis de cinza de duas bandas de uma imagem multispectral. Os três pontos
do gráfico representam os valorem dos níveis de cinza de três diferentes materiais: A, B e
C. Pode-se observar que para separar os pixels pertencentes aos três materiais é
necessário se considerar o nível de cinza desses nas duas bandas. Tomando-se somente a
banda 1, não é possível separar B e C. No caso da banda 2, não é possível separar A e B
(Figura 34).
Figura 34: Espaço de atributos de duas bandas espectrais contendo as características
espectrais do pixel de três diferentes materiais.
A utilização do nível de cinza de apenas um pixel não é suficiente para a separação dos
materiais. Pode-se selecionar amostras de pixels das bandas utilizadas e determinar os
intervalos de níveis de cinza, ou ainda, a distribuição dos níveis de cinza de cada
material. A representação gráfica desses intervalos no espaço de atributos é mostrada na
Figura 35.
40. 6. Avaliação de imagens de satélite 38
________________________________________________________________________
Figura 35: Espaço de atributos de duas bandas espectrais contendo os intervalos de níveis
de cinza dos pixels de três diferentes materiais.
No processo de classificação digital, pixels ou regiões da imagem são associados a uma
classe previamente definida. A atribuição das classes pode estar baseada no valor do
nível de cinza do pixel, na informação sobre sua vizinhança e na distribuição dos níveis
de cinza da imagem.
A seguir são apresentados alguns métodos de classificação.
6.4.2 Método do Fatiamento
O método do fatiamento é aplicado em apenas uma banda e consiste em dividir o
histograma da imagem em faixas de níveis de cinza. As faixas podem ser escolhidas de
forma que elas apresentem o mesmo intervalo de níveis de cinza, ou que contenham o
mesmo número de pixels, ou ainda, podem apresentar intervalos vari6veis. Os pixels que
apresentam valores dos níveis de cinza dentro de uma mesma faixa têm atribuída uma
mesma classe.
6.4.3 Método do Paralelepípedo
Pelo método do paralelepípedo também se faz a divisão do histograma em faixas, porém
pode-se realizar essa divisão em uma ou mais bandas. Na figura 36 pode-se observar o
espaço de atributos de duas bandas espectrais e a representação da aplicação do método
41. 6. Avaliação de imagens de satélite 39
________________________________________________________________________
do paralelepípedo. Os pixels que se encontram dentro do retângulo formado pelos
intervalos de cinza selecionados nas duas bandas têm atribuída uma mesma classe.
Figura 36: Representação da partição do espaço de atributos de duas bandas espectrais a
partir da aplicação do método do paralelepípedo.
6.4.4 Método da Distância Euclidiana
O método da distância mínima baseia-se em medidas de distância no espaço de atributos
entre os valores de níveis de cinza de cada pixel da imagem e o valor médio dos níveis de
cinza das classes. Uma classe é atribuída a um pixel se a distância entre o valor médio de
seus níveis de cinza e o pixel analisado for menor que as distâncias tomadas para as
demais classes.
6.4.5 Método da Máxima Verossimilhança
O método de máxima verossimilhança é o método mais utilizado de classificação
supervisionada de imagens de sensoriamento remoto.
Para a aplicação do método supõe-se que os níveis de cinza dos pixels de cada classe
apresentam uma distribuição normal. A classificação é feita a partir da probabilidade de
cada pixel pertencer às classes previamente definidas, ou seja, será atribuída a classe A ao
pixel x se a probabilidade dele pertencer a A for maior que a probabilidade dele pertencer
a outra classe qualquer.
A figura 37 ilustra os princípios da classificação por máxima verossimilhança
apresentando as curvas de probabilidade para as classes A, B e C no espaço de atributos
de duas bandas espectrais. Os pontos 1, 2 e 3 representam os valorem de níveis de cinza
de três pixels da imagem. Tomando-se como exemplo o pixel 2, ele é classificado como
42. 6. Avaliação de imagens de satélite 40
________________________________________________________________________
A pois, embora encontra-se mais próximo do valor central (valor médio) da banda B,
situa-se em faixa de maior probabilidade de pertencer à banda A.
Figura 37: Representação das curvas de probabilidade de ocorrência de três classes: A, B
e C , no espaço de atributos de duas bandas espectrais; e dos valores dos níveis de cinza
de três pixels: 1, 2 e 3.
43. 7. Bibliografia selecionada
CÂMARA, G. et. al. (1996): Anatomia de Sistemas de Informação Geográfica.
Campinas, Instituto de Computação/ UNICAMP.
Canadian Centre of Remote Sensing (CCRS): Tutorial of Remote Sensing
(http://www.ccrs.nrcan.gc.ca/)
CARVER, A.J. (1988): Fotografia aérea para planejadores de uso da terra. Ministério de
Agricultura, Brasilia.
CROSTA, A., P. (1992): Processamento digital de imagens de Sensoriamento Remoto.
Campinas, SP, IG/UNICAMP.
FUNCATE (1997): Curso de Sensoriamento Remoto e Geoprocessamento.
INPE (1999): Manual SPRING 3.3 (www.inpe.br)
NOVO, E.,M.,L.,M. (1989): Sensoriamento Remoto: princípios e aplicações, São Paulo,
Edgar Blucher.
RICHARDS, J.A. (1993): Remote Sensing Digital Image Analysis – An Introduction,
Springer, Berlin.
ROSA, R. (1995): Introdução ao Sensoriamento Remoto, Universidade Federal de
Uberlândia, Edufu, Uberlândia.
ROSA, R. & BRITO, J., L., S. (1996): Introdução ao Geoprocessamento, Universidade
Federal de Uberlândia, Edufu, Uberlândia.
STEFFEN, C.A. & MORAES, E.C. (1993): Introdução à radiometria. In simpósio
Brasileiro de Sensoriamento Remoto, 6., Curitiba, 10 a 14 de maio.
Bibliografia adicional é citada no fim dos diferentes capítulos
44. INTRODUÇÃOÀS IMAGENS DIGITAIS
E ÀS TECNICAS DE ANÁLISE DIGITAL:
Curso de Iniciação a Análise Digital
de Dados de Sensoriamento Remoto
Utilização
(Formulário dos exercícios)
(Respostas dos exercícios)
T. T. Alföldi
Applications Division
Nota Técnica 78-1
Impressão Marco 1978
Re-impressão Outubro 1986
Versão Digital Agosto 1996
Canada Centre for Remote Sensing
Natural Resources Canada
(antepassado: Energy, Mines and Resources Canada)
Ottawa, Canada
45. 1. Introdução
O Centro Canadense de Sensoriamento Remoto criou um exercício que simula o tratamento digital de
imagens, afim de familiarizar o novato à manipulação de dados digitais. No início, este exercício tinha
como objetivo principal permitir ao usuário sua iniciação aos princípios de funcionamento do sistema
IMAGE - 100 do Canada Centre for Remote Sensing (Centro Canadense de Sensoriamento Remoto).
Porém, as noções expostas no presente documento vão além deste objetivo, podendo aplicar-se à maioria
dos sistemas de tratamento digital de imagens. Se os estudantes se beneficiam com os serviços de um
instrutor, o exercício prático deveria ser precedido de uma breve descrição das características espaciais,
temporais, espectrais e radiométricas das imagens digitais.
Para permitir ao leitor imaginar uma simulação manual, unicamente com a ajuda de papel e lápis, as
imagens sofreram as seguintes simplificações:
a) As dimensões da imagem proposta ao leitor foram reduzidas a 49 elementos (pixels), enquanto
que as imagens digitais contém habitualmente vários milhões.
b) Uma imagem de ou canais de multiespectral, concentra, muitas vezes, entre 4 e 24 bandas
espectrais. Para este exercício, as pseudo-imagens foram constituidas de apenas 2 bandas espectrais
(ou dimensões no espaço espectral).
c) O número de intensidade que pode ser registrado por um detector se situa, habitualmente, entre 64
e 256. Como este número é grande de mais para um tratamento manual, nós o reduzimos a 10 na
imagem proposta ao leitor.
As técnicas manuais que vamos descrever assemelham-se muito às operações executadas por um
computador. No entanto, dada sua grande velocidade de execução, o computador é capaz de tratar imagens
cobrindo superfícies bem maiores, bandas espectrais mais numerosas e numa escala radiométrica mais
larga.
2. Disposição e apresentação dos dados
A figura 1 nos mostra os dados de um pequeno segmento de uma cena captada por um satélite em 2 bandas.
Em cada banda temos a intensidade luminosa subdividida em 10 níveis: de 0 a 9. Uma das bandas (A) é
sensível ao vermelho e a outra (B) cobre uma parte de infravermelho refletido. Nesta figura, os dados (de
cada banda) são intercalados por linha. No caso das imagens 7x7, representadas sobre fita magnética, os
sete primeiros números correspondem à intensidade dos pixels da primeira linha da Banda A, a partir do
lado esquerdo da imagem. Os sete números seguintes se aplicam igualmente à primeira linha, mas, desta
vez, da banda B. Os sete números seguintes representam a segunda linha da banda A, e assim
sucessivamente. Portanto, para a superfície da imagem 7x7, temos 2 bandas compostas de 7 linhas cada
uma e estas linhas constituidas de sete pixels cada uma, o que nos dá 98 números. Vamos agora dispor
estes números sobre uma forma geométrica útil.
Etapa nº 1
De início, separe os grupos de 7 valores no sentido da seta, indicando ‘banda A’ por cima dos 7
primeiros algarismos, a ‘banda B’ por cima dos 7 seguintes, a banda A por cima dos 7 seguintes e
assim por diante.
A figura 2 representa de uma forma mais prática a imagem digital. As bandas A e B representam a mesma
região da superfície terrestre, mas elas são codificadas separadamente porque correspondem a faixas
distintas no espectro eletromagnético (ou cores de luz).
46. Etapa nº 2
Coloque cada um dos valores da banda magnética no quadrado apropriado no interior das grades.
Assim, os 7 primeiros valores da banda A ocuparão os pixels de 1 a 7 da primeira linha da matriz da
banda A, na figura 2. Os 7 valores seguintes correspondem aos pixels de 1 a 7 da primeira linha da
matriz da banda B. Continue assim até que todos os espaços sejam preenchidos.
As cartas digitais da figura 2 podem, agora, receber uma outra forma que torna possível uma nova
apreciação visual da imagem. Produz-se uma "carta de níveis de cinza" afim de se visualizar os valores os
quais se dispõem.
As cartas de níveis de cinza produzidas por computador apresentam, normalmente, um problema: o número
de intensidade (entre 64 e 256) ultrapassa largamente o número de tons de cinza disponíveis que a
impressora é capaz de produzir e o olho humano de distinguir. Cada pixel contido na imagem 7x7 recebe
um código que vai de 0 a 9 e que corresponde a um dos 10 graus de intensidade. Convém, portanto, no
nosso exemplo, representar os 10 graus de intensidade por três tons de cinza.
Etapa nº 3
Para cada uma das imagens digitais das bandas A e B (figura 2), transforme o valor numérico de
cada pixel em um tom de cinza, baseando-se na seguinte escala de conversão:
Valor numérico 0 1 2 3 4 5 6 7 8 9
Tons de cinza
Em seguida, transporte os pixels assim transformados até as grades da figura 3. Você notará que
quanto menor as intensidades, mais escuros serão os tons.
Podemos observar semelhanças e diferenças nos desenhos das bandas A e B. Certas formas no meio da
imagem aparecam, mas é claro que as cartas de cinza concentram muito menos informações que as cartas
numéricas. Abordaremos agora um certo número de técnicas que nos permitaram aprofundar nosso
conhecimento sobre os dados tratados.
Um "perfil de intensidade" nos dá uma visão unidimensional de apenas uma parte dos dados. Este é
análogo ao "perfil de densidade" ou à densitometria, muito empregado em análise fotográfica.
Etapa nº 4
Construiremos aqui um perfil de intensidade para a linha nº 6 de cada imagem representada pelas
bandas A e B. Para isto, utilizaremos as grades da figura nº 4. Para a linha nº 6 da banda A,
determine a intensidade de cada pixel da carta digital e marque com um ponto cada posição
correspondente a um pixel e à sua intensidade. Após ter posto todos os pontos em sua posição, una-os,
através de uma linha, a partir do pixel nº 1 até o pixel nº 7. Faça o mesmo para a banda B.
Os gráficos da figura 4 representam, agora, as intensidades da luz refletida pelo terreno que corresponde à
linha nº 6 da imagem. Podemos construir os perfis de intensidade para qualquer linha da imagem (qualquer
que seja o ângulo). Esta técnica tem sempre limites que reduzem sua utilidade; existe outras formas de se
estruturar dados contendo muito mais informações.
Por exemplo, um histograma unidimensional nos permite obter uma representação gráfica da distribuição
de dados de uma única banda. A curva (ver figura 5) indica o número de pixels que um dado nível de
intensidade possui. Esta é uma noção abstrata, mas importante. Inversamente, poderíamos nos perguntar:
‘Qual zona da imagem corresponde a um dado nível de intensidade ?’.
47. Etapa nº 5
Na banda A, calcule o número de pixels que tem uma intensidade nula (zero) utilizando a imagem
digital da figura 2. Escreva o número total no espaço apropriado abaixo do gráfico da Banda A da
figura 5. Agora, calcule o número de vezes que aparece o nível de intensidade 1 e escreva o número
total obtido no espaço apropriado abaixo da Banda A da figura 5. Repita o processo para todos os
níveis de intensidade. Assegure-se de que a soma destes valores seja igual a 49 (7 x 7). Transporte
estes valores para o gráfico e una os pontos através de uma linha da esquerda para a direita.
Construa o histograma da banda B da mesma forma.
Várias observações podem ser feitas em relação a estes dois histogramas. Primeiro, os dois histogramas
obtidos se diferem sensivelmente. Isto significa que as 2 bandas nos fornecem informações diferentes (e
que podem ser igualmente úteis) em relação ao mesmo pixel (ou detalhe do terreno). Segundo, observe os
diversos picos dos histogramas; chamamos "moda" do histograma cada crista separada de seus vizinhos
pelas concavidades ou vales. Constatamos muitas vezes que uma "moda" corresponde a um tipo particular
de cobertura do solo. A presença de várias modas (histograma multimodal) indica que vários elementos
diferentes são representados na mesma imagem.
Veremos agora o histograma da Banda B. Este histograma contém duas modas maiores separadas por uma
concavidade que se acha ao nível de intensidade 2. Como a banda B representa o infravermelho refletido,
um conhecimento das propriedades de reflectância da terra e da água no domínio do infravermelho pode ser
útil à identificação destas duas modas. A água absorve muito o infravermelho e, consequentemente, tem
uma fraca reflectância. Em compensação, os solos cobertos de vegetação têm uma reflectância muito mais
forte durante os meses do verão. Podemos supor, portanto, que a moda da esquerda representa a água e a
moda maior da direita, o solo coberto de vegetação. Contando o numero de pixels em cada moda, ja temos
uma ideia do tamahno relativo da zona de terra e agua na imagen.
A "assinatura espectral" de um pixel é a combinação dos níveis de intensidade deste pixel representam nas
duas bandas. Esta característica pode ser representada através de um histograma bidimencional. No
histograma de 2 dimensões, os 2 eixos representam os níveis de intensidade registrados nas duas bandas
(ver figura 6). Isto consiste na representação, através de uma curva, da frequência de ocorrência de uma
dada combinação de intensidades nas Banda A e B. Em outras palavras, um histograma bidimencional
indica o número de pixels na imagem que corresponde a uma dada combinação de intensidades das duas
bandas, isto é, a uma assinatura espectral. Tomemos como exemplo o pixel nº6 da linha nº 2 (figura 2). Na
banda A este pixel tem a intensidade 4, e na banda B, a intensidade 6. Portanto, no gráfico da figura 6 ele
será representado pelas coordenadas 4,6 (4 para o eixo da banda A e 6 para o eixo da banda B). Uma vez
construido, o histograma mostrará simultaneamente a distribuição dos dados das duas bandas.
Etapa nº 6
Neste exercício você deverá transportar as coordenadas espectrais da imagem da figura 2 para o
histograma bidimencional. Para cada coordenada espectral de cada pixel, faça um traço na célula
apropriada da figura 6. Estes traços serão, em seguida, somados de maneira a nos dar o número total
em cada célula. Você deve considerar somente os pixels que ocupam as 3 primeiras linhas da figura
2. Como podemos constatar na figura 6, as 4 últimas linhas já foram feitas.
Etapa nº 7
Remova os dados da figura 6 para a figura 7, adicionando os traços presentes em cada umas das
células e escrevendo o número na célula correspondente da figura 7.
Chamamos "célula" ou "vetor" cada um dos quadrados componentes do histograma bidimensional. O
algarismo que aparece em uma dada célula da figura 7 representa a frequência de ocorrência das
coordenadas de intensidade correspondente a esta célula na imagem original. O histograma bidimensional
representa igualmente o domínio da assinatura espectral; as células que estão na mesma vizinhança têm
características espectrais mais ou menos semelhantes. Assim, utilizando-se simultaneamente os 2 eixos
48. espectrais (histograma bidimensional) temos recursos para uma análise muito mais apurada que se
utilizarmos separadamente os eixos (histograma unidimensional), como nos mostra os exemplos seguintes.
3. Classificação utilisando uma única banda
A figura 8 representa um mapa de controle no campo de um elemento particular : a floresta. Três lugares
foram reconhecidos no campo como sendo terrenos florestais e os especialistas, tendo recolhido dados
sobre esta região, têm certeza que o conjunto é representativo de todos os tipos de florestas podendo ser
encontrados na área da imagem de sensoriamento remoto. O mapa de controle foi geometricamente
sobreposto à imagem de maneira que um ponto no mapa possa ter uma coordenada linha-pixel que
corresponda à imagem. Usando a assinatura espectral destas zonas florestais conhecidas, torna-se possível
de encontrar todos os outros pixels da imagem associados à floresta ou seja, nós iremos procurar todos os
outros pixels que têm a mesma assinatura espectral. A primeira etapa consiste, então, na definição das
características espectrais das ‘zonas de treinamento’ (assim chamadas a partir de agora).
Etapa nº 8
Ache as intensidades correspondentes a cada zona de treinamento na banda A. Para conseguir, você
deve anotar as coordenadas dos pixels das zonas de treinamento e achar as intensidades
correspondentes na figura 2 (banda A). Escreva estes valores na parte de baixo da figura 8. Podemos
então supor que a categoria ‘floresta’ está caracterizada pelo intervalo de intensidade registrado na
banda A da figura 2. Este intervalo é definido pelo valor mínimo e máximo destas três amostras
(zona de treinamento). Escreva estes valores no espaço previsto na figura 8. Faça o mesmo para a
banda B.
A classificação consiste na procura de todos os pixels cuja a intensidade se situa dentro do intervalo de
intensidade registrado nas zonas de treinamento. Faremos tal processo separadamente para cada banda.
Etapa nº 9
Utilizando a imagem digital da banda A na figura 2, anote todos os pixels que têm uma intensidade
dentro do intervalo definido para a banda A (etapa 8). Na figura 9A, escureça cada pixel
correspondendo a um pixel da banda A que tem uma intensidade dentro deste intervalo (inclusive o
mínimo e o máximo). Faça o mesmo para a imagem digital da banda B utilisando o intervalo
definido para esta banda e o diagrama da figura 9B.
Os dois mapas florestais das figuras 9A e 9B representam o mesmo objeto no terreno, isto é, a floresta.
Porém, eles são difirentes por serem construidos a partir de dados de duas bandas diferentes. O método para
produzir estes mapas poderia ser comparado a uma forma rudimentar da densitometria. Um intervalo de
intensidades foi ‘extraido’ da dinâmica completa da imagem. Podemos conseguir uma classificação melhor,
ou mais ‘correta’ considerando, simutaneamente, as intensidades das duas bandas.
4. Classificação multiespectrais por paralelepípedos
Para classificar uma imagem de modo multibandas (ou multiespectral), todas as bandas precisam ser
consideradas simultaneamente. Na figura 10A, a floresta está representada por uma zona sombreada, ou
seja, pelas intensidades 2 a 5 da banda A e 3 a 7 da banda B. A superposição destes dois intervalos de
intensidade está ilustrada por hachuras cruzadas ("crosshatch" em inglês) e representa a assinatura
multibandas da classe ‘floresta’. Para fazer uma classificação multibandas da floresta, basta anotar todos os
pixels cujas coordenadas espectrais entram dentro da área retangular de hachuras cruzadas ilustrada na
figura 10A.
49. Etapa nº 10
Usando as imagens digitais da figura 2, anotar todos os pixels da banda A que têm uma intensidade
de 2, 3, 4 ou 5. Para cada pixel encontrado, verificar se a sua intensidade na banda B é de 3, 4, 5, 6
ou 7. Se um pixel satisfaz estas duas condições escureça o pixel correspondente na figura 10B. Basta
fazer apenas as últimas quatro linhas; as três primeiras já foram feitas.
No total, 21 pixels devem ter sido classificados como ‘floresta’; verificar se o número está certo. Verificar
também se a figura 10B representa o cruzamento lógico (união) das figuras 9A e 9B.
Enfim, uma classificação multibandas, como foi executada aqui, precisa de amostras representativas do
terreno para ser confiável. As intensidades dos pixels representativos são ‘mapeadas’ para cada banda. Os
intervalos de intensidades das duas bandas são representados num gráfico bidimensional onde cada eixo
representa uma banda (espaço objeto). O retângulo assim delimitado neste espaço representa a assinatura
espectral do objeto considerado. Quando utiliza duas dimensões (centenas de bandas multiespectral
aerotransportados não é fora do comun) n bandas podem produzir uma assinatura espectral de n dimensões
representadas por um ‘paralelepípedo retangular’ similar ao retângulo bidimensional que produzimos aqui
(sendo que mais que três dimensões não podem ser representadas no papel).
5. Classificação multibandas (vetorial)
A assinatura espectral definida pela classificação multibandas retangular pode ser ainda melhorada. Para
isto, basta demonstrar a limitação mais fundamental da técnica de classificação retangular (ou por
paralelepípedos).
Etapa nº 11
O mapa florestal da figura 10B foi verificado por inspecção visual e populações homogênias de
coníferas e de caducifólias foram identificadas. A figura 11A ilustra a distribuição espacial destes
dois tipos de florestas. Nosso trabalho consiste em delimitar as partes do espaço espectral
correspondente a cada um destes tipos. Para cada pixel que identifica um tipo de floresta na figura
11A, você deve achar as intensidades em banda A e B (figura 2). Registre estas coordenadas
espectrais na figura 11B usando o símbolo ‘C’ para coníferas e ‘D’ para caducifólias. Depois, trace
um retângulo definindo a assinatura espectral da floresta de coníferas. Os dois lados verticais deste
retângulo correspondem aos limites inferiores e superiores do intervalo de intensidades na banda A e
as linhas horizontais, aos limites do intervalo em banda B. Trace um retângulo similar para a
assinatura espectral das caducifólias. Observe que os dois retângulos se sobrepõem parcialmente.
Esta superposição das assinaturas espectrais reduz bastante a eficiência do método dos paralelepípedos. Se
um pixel qualquer tiver coordenadas espectrais que caem na área de superposição, fica difícil saber se ele
pertencia à classe ‘coníferas’ ou ‘caducifólias’.
A classificação multibandas vetorial permite scanear um retângulo do espaço espectral e registrar cada
coordenada espectral (também chamada de ‘célula’ ou de ‘vetor’) e o número de pixels associados a cada
uma. Ela define a distribuição das densidades no espaço espectral.
O próximo exercício consiste em utilizar um método de classificação multibanda vetorial para mapear as
florestas de coníferas e de caducifólias numa outra cena (imagem). A primeira cena foi utilizada nas figuras
11A e 11B para definir as assinaturas espectrais; esta primeira cena possui as zonas (ou áreas) de
treinamento dos dois tipos de florestas que foram definidas. Entretanto, é possível extrapolar essas
assinaturas espectrais no outro meio (cena nº 2) onde estamos procurando detalhes do terreno ou objetos
similares. É óbvio que um algoritmo e um computador vão apenas procurar objetos possuindo
características espectrais iguais. É tarefa do pesquisador postular que assinaturas iguais refletem o mesmo
objeto, mesmo se a cena for outra. Neste nível, é preciso ser muito cuidadoso porque erros graves de
classificação podem ser induzidos com este método se algumas das características-imagem mudam
50. (declinação do sol, condição atmosférica, etc.) O pesquisador deverá verificar se as assinaturas
correspondem a objetos idênticos. Se for preciso, ele deverá aplicar uma correção radiométrica à imagem.
Etapa nº 12
As figuras 12A e 12B ilustram as imagens digitais da banda A e da banda B da nova cena (nº 2). A
figura 12C mostra a representação, no espaço espectral, das assinaturas espectrais das florestas de
coníferas (C) e de caducifólias (D), assim como fizemos anteriormente. Procure nas quatro primeiras
linhas da figura 12D (as últimas três já foram classificadas) os pixels que têm coordenadas
espectrais (nas figuras 12A e 12B) correspondendo a uma das classes (‘C’ ou ‘D’) da figura 12C e
coloque o símbolo apropriado na figura 12D. As coordenadas espectrais não devem apenas ser
incluidas no retângulo da assinatura mas devem coincidir também com um dos símbolos ‘C’ ou ‘D’.
É a única maneira de evitar a ambiguidade da área de superposição das duas assinaturas.
Este tipo de método de treinamento e de classificação é chamado de ‘não-paramétrico’ porque, para
classificar um pixel da imagem, nós utilizamos a posição absoluta das coordenadas espectrais no espaço
espectral e NÃO parâmetros estatísticos como a média e o desvio-padrão.
6. Interpretação (usando as assinaturas espectrais)
Um controle no campo é essencial se queremos ter certeza da natureza dos elementos detectados na
imagem. Porém, é possível fazer deduções a respeito de elementos não verificados na base de
características espaciais e espectrais.
Etapa nº 13
Assim que o vimos anteriormente, um histograma unidimencional da banda infravermelha (B)
mostra uma diferença marcante entre uma moda de baixa intensidade correspondendo à água e uma
moda de alta intensidade representando as feições do terreno. Esta diferença pode ser observada
facilmente no histograma da banda B da cena 2 (figura 13A). A moda à esquerda do histograma,
com valores inferiores a 2 na banda B, representa com certeza pixels de água (ou, no caso extremo,
poderiam ser áreas de sombra de nuvens ou de relevo também caracterizados por valores baixos).
Identifique os pixels da figura 12B tendo intensidade inferiores a 2 e marque um ‘E’ nos pixels
correspondentes da figura 12D.
A figura 13B mostra os níveis de ocupação (população de pixels) para os objetos da cena 2.
Identifique as 3 células de baixa intensidade correspondendo à água. Some o número de pixels
representativos destas 3 células e certifique-se de que o total corresponde ao número de pixels
identificados por um ‘E’ na figura 12D.
As partes do espaço espectral, estabelecidas como representativas das florestas de coníferas e de
caducifólias estão ilustradas na figura 13B. Podemos supor que a parte do espaço localizada entre
as duas assinaturas espectrais corresponde a um objeto misto. Assim, as células localizadas entre as
áreas (espectrais) de coníferas e de caducifólias podem ser consideradas como a representação
espectral de uma mistura destes dois tipos de floresta. Procure os pixels possuindo esta mesma
característica espectral e os identifique com um ‘M’ na figura 12D. Certifique-se de que o número
de pixels marcados como floresta mista (‘M’) é o mesmo que a soma das populações de pixels das 3
células do espaço espectral da figura 13B.
7. Classificação não supervisionada
Os métodos de classificação vistos até agora utilizam áreas de treinamento para definir a assinatura
espectral, das quais o pesquisador já conhece suas características. Depois, extrapolamos esta assinatura à
51. outras partes da imagem ou a uma outra imagem afim de se identificar outros elementos possuindo a
mesma característica espectral. É uma variação da ‘classificação supervisionada’.
Um pesquisador pode querer inverter o processo. De fato, é frequentemente desejável distinguir áreas da
imagem possuindo características espectrais diferentes, mesmo sem saber nada sobre a natureza das
subdivisões ou das classes resultantes. Estabelecemos cartas das classes resultantes e as levamos para o
campo afim de definir a natureza das subdivisões criadas. Este método é conhecido como ‘classificação
não-supervisionada’, pois não se usa área de treinamento. Sua principal vantagem é de ser baseada nos
parâmetros estatísticos das classes que cobrem geralmente grandes áreas geográficas no lugar de pequenas
amostras (áreas de treinamento) que podem se revelar pouco representativas da variabilidade real da cena a
ser mapeada.
Existem vários algoritmos matemáticos, baseados em diversos métodos, que permitem achar e distinguir
grupos estatisticamente ‘representativos’ no espaço espectral e que podem representar objetos importantes
da cena. A maioria destes algoritmos são baseados na procura de zonas de alta população de pixels (no
espaço espectral) separadas por áreas de baixa população. O exercício seguinte ilustra este método usando
um algoritmo menos complexo que aqueles que são usados na prática.
Etapa nº 14
A representação espectral da cena nº 2 está representada na figura 14A. Copie na figura 14B as
células da figura 14A que têm uma população de pixels igual ou superior a 3.
Podemos agora observar, na figura 14B, três grupos de células de população alta. Cada um deles
representa na realidade o núcleo de um grupo maior ainda. A próxima etapa consiste em delimitá-los.
O núcleo de duas células será chamado de ‘grupo A’ no espaço espectral e de ‘classe A’ uma
vez que ele será representado no espaço imagem (espacial). Marque com um ‘A’ na figura 14B
todas as células contíguas ao grupo ‘A’ inclusive aquelas encostadas apenas por uma quina (deve
haver 10).
Faça o mesmo para o grupo ‘B’ (grupo de três células) marcando um ‘B’ e para o grupo ‘C’ (grupo
de uma célula só) marcando um ‘C’. Se houver conflito, resolva pela atração mais forte (dar à célula
a etiqueta do grupo de população maior).
Na figura 14B, delimite os três grupos por um traço em negrito (cercando as células de mesma
etiqueta). O grupo ‘A’ deverá ter 11 células, 15 no ‘B’ e 6 no ‘C’. Reproduzir estes limites na figura
14A também.
Vamos agora fazer a representação final do espaço espectral dividido em grupos. Transfira para a
figura 14C as células da figura 14A que têm uma densidade igual ou superior a 1 dentro do grupo
‘A’ e marque-as com um ‘A’. Faça o mesmo com os grupos ‘B’ e ‘C’.
Agora que o espaço espectral foi subdividido em grupos uniformes usando um critério pseudo-estatístico,
só falta trazer os grupos de volta às suas posições geográficas. Para cada pixel da figura
14D, você deverá anotar as coordenadas espectrais nas duas bandas ilustradas nas figuras 12A e
12B, reporte estas coordenadas na figura 14C, e associe a etiqueta apropriada, ou seja, o símbolo
representativo (‘A’, ‘B’ ou ‘C’). Só as últimas três linhas precisam ser ‘classificadas’, as quatro
primeiras já o foram.
A próxima etapa da classificação não supervisionada, ilustrada na figura 14D, consiste em identificar cada
uma das classes (A, B e C) em relação ao seu ambiente próprio. Para isto, podemos utilisar várias técnicas
como a interpretação de fotos aéreas ou, quando for possível, a verificação com trabalhos de campo. Porém,
não será necessário cobrir a cena inteira mas apenas uma amostra de cada categoria. Uma outra vantagem
da classificação não supervisionada é que ela permite a orientação do trabalho de campo (ou outra forma de
verificação) através da procura de lugares pequenos, práticos e representativos das classes estabelecidas.
Por exemplo, o lugar marcado por um asterisco na figura 14D é ótimo por nos dar uma amostra de cada
52. classe. Geralmente, bastam alguns destes lugares para conferir a classificação e adquirir um nível de
confiança para a cena inteira. Este método pode ser usado também para estabelecer a precisão da
classificação.
Esta verificação pode também servir para a identificação de pixels que não foram classificados (como o
pixel nº 4 da linha nº 6 na figura 14D). A não-classificação de uma área pode ser causada por uma falha da
técnica ou por ‘ruido’ na imagem; mas se esta área for representativa, ela poderá corresponder a um objeto
particular no terreno.
8. Otros Estudios
Grabau, W.E., "Pixel Problems", Miscellaneous Paper M-76-9 Mobility and Environmental Systems
Laboratory, U.S. Army Engineering Waterways Experiment Station, P.o. Box 631, Vicksburg,
Miss. 39180. May, 1976.
Landgrebe, D.A.. "Machine Processing for Remotely Acquired Data", LARS Information Note 031573,
Purdue University, West Lafayette, Indiana. 1973.
Lindenlaub, J. and J. Russell, "An Introduction to Quantitative Remote Sensing", LARS Information Note
ll0474, Purdue University, West Lafayette, Indiana, 1974.
Orhaug, T. and 1. Akersten, "A Workshop Introduction to Digital Image Processing, FOA Report
D-30053-El. Research Institute of Sweden National Defense, S-l04 50 Stockholm 80, Sweden.
September 1976.
Smith, J.A., L.D. Miller, and T. Ells, "Pattern Recognition Routines for Graduate Training in the Automatic
Analysis of Remote Sensing Imagery -- RECOGIl, Science Series No. 3A, Colorado State
University, Fort Collins, Colorado. February, 1972.
Temos que lembrar que esta lista foi compilada em 1978. Depois, um grande numero de documentos foram
publicados sobre o assunto. Podem se achar referencias nos jornais e livros de sensoriamento remoto, atas
de symposio e tamben no WWW.
53. INTRODUÇÃOÀS IMAGENS DIGITAIS
E ÀS TECNICAS DE ANÁLISE DIGITAL:
Courso de Iniciação a Análise Digital
de Dados de Sensoriamento Remoto
(Utilização)
Formulário dos exercícios
(Respostas dos exercícios)
T. T. Alföldi
Applications Division
Nota Técnica 78-1
Impressão Marcio 1978
Re-impressão Outubro 1986
Versão Digital Agosto 1996
Canada Centre for Remote Sensing
Natural Resources Canada
(antepassado: Energy, Mines and Resources Canada)
Ottawa, Canada
55. FIGURA 2
Imagem digital na forma geométrica apropriada.
PIXELS PIXELS
1 2 3 4 5 6 7 1 2 3 4 5 6 7
L 1 L 1
I 2 I 2
N 3 N 3
H 4 H 4
A 5 A 5
S 6 S 6
7 7
BANDA ‘A’ BANDA ‘B’
FIGURA 3
Mapas de níveis de cinza.
PIXELS PIXELS
1 2 3 4 5 6 7 1 2 3 4 5 6 7
L 1 L 1
I 2 I 2
N 3 N 3
H 4 H 4
A 5 A 5
S 6 S 6
7 7
BANDA ‘A’ BANDA ‘B’
56. FIGURA 4
Perfil de intensidade
I BANDA ‘A’ I BANDA ‘B’
N 9 N 9
T 8 T 8
E 7 E 7
N 6 N 6
S 5 S 5
I 4 I 4
D 3 D 3
A 2 A 2
D 1 D 1
E 0 E 0
1 2 3 4 5 6 7 1 2 3 4 5 6 7
No do PIXELS No do PIXELS
FIGURA 5
Histograma unidimensional
BANDA ‘A’ BANDA ‘B’
No
1
1
No 1
1
1
0
1
0
d 9 d 9
e 8 e 8
7 7
P 6 P 6
i 5 i 5
x 4 x 4
e 3 e 3
l 2 l 2
s 1 s 1
0 0
0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9
Nível de intensidade Nível de intensidade
Número de pixels: Número de pixels:
Soma = Soma =
58. FIGURA 8
Mapa de controle no campo: ‘Mata’
PIXELS
1 2 3 4 5 6 7
L 1 F
I 2 F
N 3
H 4 F
A 5
S 6
7
Níveis de intensidade da banda‘A’: __ , __ , __
Intervalo de intensidade da banda‘A’:
Mínimo: __
Máximo: __
Níveis de intensidade da banda‘B’: __ , __ , __
Intervalo de intensidade da banda ‘B’:
Mínimo: __
Máximo: __
59. FIGURA 9A
Mapa forestal em Banda ‘A’
PIXELS
1 2 3 4 5 6 7
L 1
I 2
N 3
H 4
A 5
S 6
7
FIGURA 9B
Mapa florestal em Banda ‘B’
PIXELS
1 2 3 4 5 6 7
L 1
I 2
N 3
H 4
A 5
S 6
7
60. FIGURA 10A
Parte do espaço espectral representando a ‘mata’
BandA ‘B’
Intensidade
9
8
7
6
5
4
3
2
1
0
0 1 2 3 4 5 6 7 8 9
Banda ‘A’ Intensidade
FIGURA 10B
Representação da Mata em banda ‘A’ e ‘B’
PIXELS
1 2 3 4 5 6 7
L 1
I 2
N 3
H 4
A 5
S 6
7
61. FIGURA 11A
Mapa de controle no campo: tipo de mata
PIXELS
1 2 3 4 5 6 7
L 1 D D D D D
I 2 C D
N 3 C C D
H 4 C C
A 5 C
S 6 C
7 C
‘C’ = coníferas
‘D’ = caducifólias
FIGURA 11B
Identificação dos tipos de mata no espaço espectral
Banda ‘B’
Intensidade
9
8
7
6
5
4
3
2
1
0
0 1 2 3 4 5 6 7 8 9
Banda ‘A’ Intensidade
62. FIGURA 12A
Cena #2, Banda ‘A’
PIXELS
1 2 3 4 5 6 7
L 1 3 4 1 1 2 2 2
I 2 4 4 4 2 1 2 2
N 3 3 3 5 2 2 2 2
H 4 5 5 2 2 2 2 2
A 5 4 5 5 2 2 2 2
S 6 4 3 3 4 4 5 5
7 5 5 3 4 4 5 4
FIGURA 12B
Cena #2, Banda ‘B’
PIXELS
1 2 3 4 5 6 7
L 1 7 7 0 0 0 3 3
I 2 7 7 6 0 0 3 4
N 3 4 4 7 1 1 3 4
H 4 7 7 4 4 3 4 4
A 5 6 7 7 4 5 5 5
S 6 7 5 5 5 7 7 6
7 7 6 6 7 7 7 7