SlideShare ist ein Scribd-Unternehmen logo
1 von 19
Downloaden Sie, um offline zu lesen
Visão geral de Token Ring e suas variantes
A IBM desenvolveu a primeira rede Token Ring nos anos 70. Ela ainda é a principal tecnologia
LAN da IBM e apenas perde para a Ethernet (IEEE 802.3) em termos de implementação da
LAN. A especificação IEEE 802.5 é quase idêntica e completamente compatível com a rede
Token Ring da IBM. A especificação IEEE 802.5 foi desenvolvida depois da Token Ring da IBM
e continua a ofuscar o seu contínuo desenvolvimento. O termo Token Ring se refere à Token
Ring da IBM e à especificação do IEEE 802.5
Tokens
Os tokens têm 3 bytes de comprimento e consistem em um delimitador de início, um byte de
controle de acesso e um delimitador de fim. O delimitador de início avisa a chegada de um
token ou de um quadro de dados/comandos, a cada estação. Esse campo inclui também sinais
que distinguem o byte do resto do quadro, violando o esquema de codificação usado em outro
lugar do quadro.
Byte de controle de acesso
O byte de controle de acesso contém o campo prioridade e reserva e um bit de token e
monitor. O bit de token distingue um token de um quadro de dados/comandos e um bit de
monitor determina se um quadro está circulando continuamente no anel. O delimitador de fim
indica o final do token ou do quadro de dados/comandos. Ele contém bits que indicam um
quadro danificado e um quadro que seja o último de uma seqüência lógica.
Quadros de dados/comandos
Os quadros de dados/comandos variam no tamanho, dependendo do tamanho do campo de
informações. Os quadros de dados transportam informações dos protocolos da camada
superior; os quadros de comando contêm informações de controle e não têm dados dos
protocolos da camada superior.
Nos quadros de dados/comandos, um byte de controle de quadro segue o byte de controle de
acesso. O byte de controle de quadro indica se o quadro contém dados ou informações de
controle. Nos quadros de controle, esse byte especifica o tipo das informações de controle.
Seguindo o byte de controle de quadro estão dois campos de endereços que identificam as
estações de origem e de destino. Como acontece com a IEEE 802.5, seus endereços têm 6
bytes de comprimento. O campo de dados segue o campo de endereços. O tamanho desse
campo é limitado pelo token do anel que limita o tempo, assim definindo o tempo máximo que
uma estação pode manter o token.
Seguindo o campo de dados está o campo seqüência de verificação de quadros (FCS) . A
estação de origem preenche esse campo com um valor calculado que depende do conteúdo do
quadro. A estação de destino calcula novamente o valor para determinar se o quadro foi
danificado em trânsito. O quadro é descartado se tiver sido danificado. Como acontece com o
token, o delimitador de fim conclui o quadro de dados/comando.
Passagem de token
Token Ring e IEEE 802.5 são os principais exemplos de redes com passagem de token. As
redes com passagem de token movem um pequeno quadro, chamado token, pela rede. A
posse do token garante o direito de transmitir dados. Se um nó receber um token, mas não
tiver informações para enviar, então passará o token à próxima estação final. Cada estação
pode manter o token por um período máximo de tempo, dependendo da tecnologia específica
que foi implementada.
Quando uma estação passa um token que tem informações a transmitir, ela pega o token e
altera 1 bit dele. O token torna-se uma seqüência de início do quadro. Depois, a estação anexa
ao token as informações a serem transmitidas e envia esses dados para a próxima estação no
anel. Não existe nenhum token na rede enquanto o quadro de informações está circulando no
anel, a não ser que o anel suporte liberações de token anteriores. Outras estações no anel não
podem transmitir nesse momento. Elas devem aguardar que o token se torne disponível. As
redes Token Ring não têm colisões. Se a liberação de token anterior for suportada, um novo
token pode ser liberado quando a transmissão do quadro estiver concluída.
O quadro de informações circula no anel até alcançar a estação de destino pretendida, que,
então, copia as informações para o processamento. O quadro de informações circula no anel
até alcançar a estação de envio e então é removido. A estação emissora pode verificar se o
quadro foi recebido e copiado pelo destino.
Ao contrário das redes CSMA/CD, como a Ethernet, as redes com passagem de token são
deterministas. Isso significa que você pode calcular o tempo máximo que transcorrerá antes
que qualquer estação final possa transmitir. Esse recurso e muitos recursos de confiança
tornam as redes Token Ring ideais para os aplicativos onde qualquer atraso deva ser previsível
e a operação de rede robusta seja importante. Ambientes de automação industrial são
exemplos de operações de rede robustas previsíveis.
Sistema de prioridades
As redes Token Ring usam um sofisticado sistema de prioridades que permite que certas
estações designadas pelo usuário e de alta prioridade usem a rede com maior freqüência. Os
quadros Token Ring têm dois campos que controlam a prioridade - os campos prioridade e
reserva .
Apenas estações com prioridade igual ou maior que o valor de prioridade contido em um token
podem pegar aquele token. Depois do token ter sido pego e transformado em um quadro de
informações, apenas as estações com um valor de prioridade maior que o valor da estação
transmissora podem reservar o token para o próximo passo da rede. O próximo token gerado
inclui a prioridade mais alta da estação de reserva. As estações que aumentam o nível de
prioridade de um token devem reaplicar a prioridade anterior quando a transmissão tiver sido
concluída.
Mecanismos de gerenciamento
As redes Token Ring usam vários mecanismos para detectar e compensar as falhas da rede.
Um deles é selecionar uma estação na rede Token Ring para ser o monitor ativo. Essa estação
age como uma origem centralizada de informações de temporização para outras estações do
anel e executa uma variedade de funções de manutenção do anel. A estação monitora ativa
pode ser qualquer estação na rede. Uma das funções dessa estação é remover do anel
quadros que estão circulando continuamente. Quando um dispositivo emissor falha, seu quadro
pode continuar a circular no anel e impedir que outras estações transmitam seus próprios
quadros; isso pode bloquear a rede. O monitor ativo pode detectar esses quadros, removê-los
do anel e gerar um novo token.
A topologia em estrela da rede Token Ring da IBM também contribui para a confiabilidade geral
da rede. MSAUs ativas (multi-station access units) podem detectar todas as informações em
uma rede Token Ring, permitindo que elas verifiquem os problemas e removam seletivamente
estações do anel, sempre que necessário. Advertência de uma situação de erro de rede - uma
fórmula Token Ring - detecta e tenta corrigir erros de rede. Quando uma estação detecta um
problema sério com a rede (ex. um cabo que se parte), envia um quadro beacon. O quadro
beacon define um domínio de falha. Um domínio de falha inclui a estação que está relatando a
falha, sua nearest active upstream neighbor (NAUN) e tudo o que está entre elas. A
advertência de uma situação de erro na rede inicia um processo chamado auto-reconfiguração,
onde os nós no domínio da falha executam o diagnóstico automaticamente. Essa é uma
tentativa de reconfigurar a rede ao redor das áreas com falhas. Fisicamente, as MSAUs podem
alcançar isso através de reconfiguração elétrica.
A codificação de sinal é uma forma de combinar as informações de dados e de relógio em um
fluxo de sinais que é enviado por um meio. A codificação Manchester combina os dados e o
relógio em símbolos de bits, que são divididos em duas metades, a polaridade da segunda
metade sendo sempre oposta a da primeira metade. Lembre-se de que a codificação
Manchester resulta no 0 sendo codificado como transição de baixa para alta e 1 sendo
codificado como transição de alta para baixa. Em decorrência de 0s e 1s resultarem em
transição para o sinal, o relógio pode ser eficazmente recuperado no receptor.
As redes Token Ring de 4/16 Mbps usam codificação Manchester diferencial (uma variação na
codificação Manchester). A Token Ring usa o método codificação Manchester diferencial para
codificar informações de bits de dados e de relógio em símbolos de bit. Um bit 1 é
representado por nenhuma alteração na polaridade no início do tempo de bit e um bit 0 é
representado por uma alteração na polaridade no início do tempo de bit.
As estações de rede Token Ring da IBM (freqüentemente usando STP e UTP como meios)
estão diretamente conectadas às MSAUs e podem ser ligadas para formar um grande anel. Os
patch cables conectam MSAUs a outras MSAUs que são adjacentes a elas. Cabos lobe
conectam MSAUs às estações. As MSAUs incluem comutações de bypass para remover as
estações do anel.
Visão geral de FDDI e suas variantes
Na metade dos anos 80, as estações de trabalho de engenharia de alta velocidade
impulsionaram as capacidades da Ethernet e da Token Ring existentes aos seus limites. Os
engenheiros precisavam de uma LAN que pudesse suportar as suas estações de trabalho e
seus novos aplicativos. Ao mesmo tempo, os gerenciadores de sistema ficaram preocupados
com os problemas de confiabilidade da rede à medida que os aplicativos críticos para a missão
eram implementados nas redes de alta velocidade.
O comitê de padrões ANSI X3T9.5, para resolver essas questões, produziu o padrão Fiber
Distributed Data Interface (FDDI). Depois de concluir as especificações, o ANSI submeteu a
FDDI à International Organization for Standardization (ISO), que criou uma versão internacional
da FDDI que é totalmente compatível com a versão padrão ANSI.
Embora as implementações da FDDI não sejam tão comuns, hoje, quanto a Ethernet ou a
Token Ring, a FDDI tem um grande número de adeptos e continua a crescer à medida que os
seus custos diminuem. A FDDI é freqüentemente usada como tecnologia de backbone e para
conectar computadores de alta velocidade a uma LAN.
A FDDI tem quatro especificações:
1. Media Access Control (MAC) - define como o meio é acessado, incluindo:
• Formato de quadro
• Tratamento de token
• Endereçamento
• Algoritmo para calcular uma verificação de redundância cíclica e mecanismos
de recuperação de erros
2. Physical Layer Protocol (PHY) - define procedimentos de codificação/decodificação de
dados, incluindo:
• Requisitos de clocking
• Enquadramento
• Outras funções
3. Physical Layer Medium (PMD) - define as características do meio de transmissão,
incluindo:
• Link de fibra óptica
• Níveis de energia
• Taxas de erro de bit
• Componentes ópticos
• Conectores
4. Station Management (SMT) - define a configuração de estação FDDI, incluindo:
• Configuração do anel
• Recursos de controle de anel
• Remoção e inserção de estação
• Inicialização
• Recuperação e isolamento de falha
• Agendamento
• Coleção de estatísticas
Os campos de um quadro FDDI são os seguintes:
• Preâmbulo - prepara cada estação para o próximo quadro
• Delimitador de início - indica o início do quadro e consiste nos padrões de sinalização
que o diferenciam do resto do quadro
• Controle de quadro - indica o tamanho dos campos de endereço, independentemente
do quadro conter dados síncronos ou assíncronos e outras informações de controle
• Endereço de destino - contém um endereço unicast (singular), multicast (grupo) ou
broadcast (cada estação), os endereços de destino são de 6 bytes (como Ethernet e
Token Ring)
• Endereço de origem - identifica a única estação que enviou o quadro, os endereços de
origem são de 6 bytes (como Ethernet e Token Ring)
• Dados - controla a informação ou as informações destinadas a um protocolo da
camada superior
• Frame check sequence (FCS) - preenchida pela estação de origem com um cyclic
redundancy check (CRC) calculado, valor dependente do conteúdo do quadro (como
Token Ring e Ethernet). A estação de destino calcula novamente o valor para
determinar se o quadro pode ter sido danificado em trânsito. Se tiver sido, o quadro é
descartado.
• Delimitador de fim - contém símbolos que não são dados e que indicam o final do
quadro
• Status do quadro - permite à estação de origem determinar se ocorreu um erro e se o
quadro foi reconhecido e copiado por uma estação receptora
A FDDI usa uma estratégia de passagem de token parecida com a da Token Ring. As redes
com passagem de token movem um pequeno quadro, chamado token, pela rede. A posse do
token garante o direito de transmitir dados. Se um nó que está recebendo o token não tiver
informações para enviar, passará o token à próxima estação final. Cada estação pode manter o
token por um período máximo de tempo, dependendo da implementação da tecnologia
específica.
Quando uma estação que está com a posse do token tiver informações a transmitir, ela vai
redimensionar o token e alterar um dos seus bits. O token torna-se uma seqüência de início do
quadro. Depois, a estação anexa as informações que transmite ao token e envia esses dados à
próxima estação no anel.
Não há nenhum token na rede enquanto o quadro de informações estiver circulando no anel, a
não ser que o anel suporte a liberação do token anterior. Outras estações no anel devem
aguardar que o token se torne disponível. As redes FDDI não têm colisões. Se a liberação de
token anterior for suportada, um novo token pode ser liberado quando a transmissão do
quadro estiver concluída.
O quadro de informações circula no anel até alcançar a estação de destino pretendida, que
copia as informações para o processamento. O quadro de informações circula no anel até
alcançar a estação de envio e então é removido. A estação emissora pode verificar o quadro
de retorno para ver se foi recebido e, em seguida, copiado pelo destino.
Ao contrário das redes CSMA/CD, como a Ethernet, as redes com passagem de token são
deterministas. Isso significa que você pode calcular o tempo máximo que transcorrerá antes
que qualquer estação final possa transmitir. O anel duplo da FDDI garante não apenas que as
estações se revezem para transmitir, mas que se uma parte de um anel for danificada ou
desativada por qualquer razão, o segundo anel possa ser usado. Isso torna a FDDI muito
confiável.
A FDDI suporta a alocação em tempo real da largura de banda da rede, o que a torna ideal
para uma variedade de tipos de aplicativos diferentes. A FDDI fornece esse suporte definindo
dois tipos de tráfego - síncrono e assíncrono.
Síncrono
• O tráfego síncrono pode consumir uma parte da largura de banda total de 100 Mbps de
uma rede FDDI, enquanto o tráfego assíncrono pode consumir o restante.
• A largura de banda síncrona é alocada às estações que exigem capacidade de
transmissão contínua. Isso é útil para a transmissão de informações por voz e vídeo. A
largura de banda restante é usada para as transmissões assíncronas.
• A especificação SMT FDDI define um esquema de disputa distribuído para alocar a
largura de banda da FDDI.
Assíncrono
• A largura de banda assíncrona é alocada usando um esquema de prioridade de oito
níveis. A cada estação é atribuído um nível de prioridade assíncrono.
• A FDDI também permite diálogos estendidos, onde as estações podem usar todas as
larguras de banda assíncronas temporariamente.
• O mecanismo de prioridade da FDDI pode bloquear as estações que não possam usar
largura de banda síncrona e que tenham uma prioridade assíncrona baixa demais.
A FDDI usa um esquema de codificação chamado 4B/5B. Cada 4 bits de dados são enviados
como um código de 5 bits. As origens do sinal nos transceivers FDDI são LEDs ou lasers.
A FDDI especifica uma LAN de dois anéis de 100 Mbps, que permite a passagem de tokens e
usa um meio de transmissão de fibra óptica. Ela define a camada física e a parte de acesso
aos meios da camada de enlace, que é similar à IEEE 802.3 e à IEEE 802.5 em sua relação
com o modelo OSI. Embora opere em velocidades mais altas, a FDDI é similar à Token Ring.
As duas redes compartilham alguns recursos, como topologia (anel) e a técnica de acesso a
meios (passagem de token). Uma característica da FDDI é o seu uso de fibra óptica como
meio de transmissão. A fibra óptica oferece várias vantagens sobre o cabeamento de cobre
tradicional, incluindo vantagens como:
• segurança - A fibra não emite sinais elétricos que possam ser captados.
• confiança - A fibra é imune à interferência elétrica.
• rapidez - A fibra óptica tem um potencial de troughput muito maior que o cabo de
cobre.
A FDDI define os dois tipos de fibra especificados: modo único (também monomodo) e
multimodo. Os modos podem ser imaginados como feixes de raios de luz entrando na fibra em
determinado ângulo. A fibra monomodo permite apenas um modo de propagação da luz
através da fibra, enquanto a fibra multimodo permite vários modos de propagação da luz
através da fibra. Modos múltiplos de propagação de luz através de fibra podem trafegar em
distâncias diferentes, dependendo dos ângulos de entrada. Isso faz com que cheguem ao
destino em horas diferentes, um fenômeno chamado dispersão modal. A fibra de modo único
tem capacidade de largura de banda mais alta e maiores distâncias de lance de cabo do que a
fibra multimodo. Por causa dessas características, a fibra de modo único é freqüentemente
usada para conectividade entre prédios, ao passo que a fibra multimodo é usada para
conectividade dentro do prédio. A fibra multimodo usa LEDs como dispositivos geradores de
luz, enquanto a fibra monomodo normalmente usa lasers.
A FDDI especifica o uso de dois anéis para as conexões físicas. O tráfego em cada anel viaja
em direções opostas. Fisicamente, os anéis consistem em duas ou mais conexões ponto a
ponto entre estações adjacentes. Um dos dois anéis da FDDI é chamado de anel principal; o
outro é chamado de anel secundário. O anel principal é usado para transmissão de dados,
enquanto o anel secundário é normalmente usado como sobressalente.
Estações da classe B ou single-attachment stations (SAS), conectam-se a um anel; as
estações da classe A ou dual attachment stations (DAS), conectam-se a dois anéis. As SASs
se conectam ao anel principal através de um concentrador, que fornece conexões para várias
SASs. O concentrador garante que uma falha, ou queda de energia, de qualquer SAS
fornecida, não interrompa o anel. Isso é particularmente útil quando PCs, ou dispositivos
similares que são ligados e desligados freqüentemente, conectam-se ao anel.
Comparando Ethernet e IEEE 802.3
A Ethernet é a tecnologia de rede local (LAN) mais amplamente usada. A Ethernet foi projetada
para ocupar o espaço entre as redes de longa distância, com baixa velocidade e as redes
especializadas de sala de computação que transportam dados em alta velocidade por
distâncias muito limitadas. A Ethernet é bem adequada a aplicativos em que um meio de
comunicação local deva transportar tráfego esporádico, ocasionalmente intenso, a altas taxas
de dados.
A arquitetura de rede Ethernet tem suas origens nos anos 60, na Universidade do Havaí, onde
o método de acesso que é usado pela Ethernet, carrier sense multiple access/collision
detection (CSMA/CD), foi desenvolvido. O Palo Alto Research Center (PARC) , da Xerox
Corporation, desenvolveu o primeiro sistema Ethernet experimental no início dos anos 70. Isso
foi usado como base para a especificação 802.3 do Institute of Electrical and Electronic
Engineers (IEEE), lançada em 1980.
Logo após a especificação 802.3 de 1980 da IEEE, a Digital Equipment Corporation, a Intel
Corporation e a Xerox Corporation desenvolveram conjuntamente e lançaram uma
especificação Ethernet, versão 2.0, que foi substancialmente compatível com a IEEE 802.3.
Juntas, a Ethernet e a IEEE 802.3 detêm atualmente a maior fatia de mercado de todos os
protocolos LAN. Hoje, o termo Ethernet é freqüentemente usado para se referir a todas as
LANs baseadas em CSMA/CD (Carrier sense multiple access/collision detect) que
normalmente estão em conformidade com as especificações Ethernet, incluindo a
especificação IEEE 802.3.
A Ethernet e a IEEE 802.3 especificam tecnologias similares: ambas são LANs baseadas em
CSMA/CD. Estações em uma LAN CSMA/CD podem acessar a rede a qualquer momento.
Antes de enviar dados, as estações CSMA/CD escutam a rede para determinar se ela já está
em uso. Se estiver, então elas aguardam. Se a rede não estiver em uso, as estações
transmitem. Uma colisão ocorre quando duas estações escutam o tráfego da rede, não ouvem
nada e transmitem simultaneamente. Neste caso, ambas as transmissões são prejudicadas e
as estações devem retransmitir mais tarde. Algoritmos de recuo determinam quando as
estações que colidiram podem retransmitir. As estações CSMA/CD podem detectar colisões,
assim, elas sabem quando devem retransmitir.
Ambas as LANs Ethernet e IEEE 802.3 são redes de broadcast. Isso significa que todas as
estações podem ver todos os quadros, independentemente de serem ou não o destino
daqueles dados. Cada estação deve examinar os quadros recebidos para determinar se ela é o
destino. Se for, o quadro é passado a um protocolo de camada mais alto dentro da estação
para processamento apropriado.
As diferenças entre as LANs Ethernet e IEEE 802.3 são sutis. A Ethernet fornece serviços
correspondentes às camadas 1 e 2 do modelo de referência OSI, enquanto a IEEE 802.3
especifica a camada física, a camada 1 e a parte de acesso a canais da camada de enlace, a
camada 2, mas não define um protocolo de controle de enlace lógico. Ambas as LANs Ethernet
e IEEE 802.3 são implementadas através de hardware. Normalmente, a parte física desses
protocolos é uma placa de interface em um computador host ou um conjunto de circuitos em
um placa de circuitos principal no computador host.
Formato de quadro da Ethernet
Os campos de quadros Ethernet e IEEE 802.3 estão descritos nos resumos a seguir:
• Preâmbulo - O padrão alternado de 1s e 0s informa às estações receptoras se um
quadro é Ethernet ou IEEE 802.3. O quadro Ethernet inclui um byte adicional, que é o
equivalente ao campo Start of Frame (SOF) especificado no quadro IEEE 802.3.
• Início do quadro (SOF, start-of-frame) - O byte delimitador IEEE 802.3 termina com
dois bits 1 consecutivos, o que serve para sincronizar as partes de recepção de quadro
de todas as estações na LAN. O SOF é explicitamente especificado na Ethernet.
• Endereços de origem e de destino - Os 3 primeiros bytes dos endereços são
especificados pelo IEEE, dependendo do fabricante. Os 3 últimos bytes são
especificados pelo fabricante da Ethernet ou IEEE 802.3. O endereço de origem é
sempre um endereço unicast (nó único). O endereço de destino pode ser unicast,
multicast (grupo), ou broadcast (todos os nós).
• Tipo (Ethernet) - O tipo especifica o protocolo da camada superior para receber os
dados depois que o processamento da Ethernet estiver concluído.
• Tamanho (IEEE 802.3) - O tamanho indica o número de bytes de dados que vêm
depois desse campo.
• Dados (Ethernet) - Depois que o processamento da camada física e da camada de
enlace estiver concluído, os dados contidos no quadro serão enviados a um protocolo
da camada superior, que é identificado no campo de tipos. Embora a Ethernet versão 2
não especifique qualquer enchimento, ao contrário da IEEE 802.3, a Ethernet espera
receber, pelo menos, 46 bytes de dados.
• Dados (IEEE 802.3) - Depois que o processamento das camadas física e de enlace
estiver concluído, os dados serão enviados a um protocolo da camada superior, que
deve estar definido na parte de dados do quadro. Se os dados no quadro forem
insuficientes para preencher o quadro no seu tamanho mínimo de 64 bytes, bytes de
enchimento serão inseridos para garantir um quadro de, pelo menos, 64 bytes.
• Frame check sequence (FCS) - Essa seqüência contém um verificador de redundância
cíclica de 4 bytes (CRC), criado pelo dispositivo emissor e recalculado pelo dispositivo
de recepção para verificar se há quadros danificados.
A Ethernet é uma tecnologia de broadcast de meios compartilhados. O método de acesso
CSMA/CD usado na Ethernet executa três funções:
1. Transmitir e receber pacotes de dados
2. Decodificar pacotes de dados e verificar se os endereços são válidos, antes de passá-
los às camadas superiores do modelo OSI
3. Detectar erros dentro dos pacotes de dados ou na rede
No método de acesso CSMA/CD, os dispositivos de rede com dados para transmissão pelos
meios da rede funcionam em um modo "escutar antes de transmitir". Isso significa que, quando
um dispositivo desejar enviar dados, ele deverá, primeiramente, verificar se os meios da rede
estão ocupados. O dispositivo deverá verificar se existem sinais nos meios da rede. O
dispositivo começará a transmitir os dados depois de determinar se os meios de rede não
estão ocupados. Enquanto estiver transmitindo os dados na forma de sinais, o dispositivo
também estará escutando. Ele faz isso para garantir que nenhuma outra estação esteja
transmitindo dados para os meios de rede ao mesmo tempo. Quando terminar de transmitir os
dados, o dispositivo retornará ao modo de escuta.
Os dispositivos de rede poderão informar quando uma colisão ocorrer porque a amplitude do
sinal nos meios da rede aumentará. Quando uma colisão ocorrer, cada dispositivo que estiver
transmitindo continuará a transmitir os dados por um pequeno espaço de tempo. Isso acontece
para garantir que todos os dispositivos vejam a colisão. Quando todos os dispositivos na rede
tiverem visto que uma colisão aconteceu, cada um chamará um algoritmo. Depois que todos os
dispositivos na rede tiverem recuado por um certo período de tempo (diferente para cada
dispositivo), qualquer dispositivo poderá tentar acessar os meios da rede novamente. Quando
a transmissão de dados for retomada na rede, os dispositivos envolvidos na colisão não terão
prioridade para transmitir dados.
A Ethernet é um meio de transmissão de broadcast. Isso significa que todos os dispositivos de
uma rede podem ver todos os dados que passam pelos meios da rede. Entretanto, nem todos
os dispositivos da rede processarão os dados. Apenas os dispositivos cujos endereços MAC e
IP coincidam com os endereços MAC e IP de destino, carregados pelos dados, copiarão os
dados.
Depois que um dispositivo tiver verificado os endereços MAC e IP de destino carregados pelos
dados, ele verificará se o pacote de dados tem erros. Se o dispositivo detectar erros, o pacote
de dados será descartado. O dispositivo de destino não notifica o dispositivo de origem, quer
tenha o pacote chegado ou não com êxito. A Ethernet é uma arquitetura de rede sem
conexões, sendo conhecida como um sistema de entrega dos melhores esforços.
Os prós e contras da segmentação de LAN com switches
O switching LAN ameniza a escassez de largura de banda e os gargalos de rede, como os que
ocorrem entre um grupo de PCs e um servidor de arquivos remoto. Um switch pode segmentar
uma LAN em microssegmentos, que são segmentos únicos de host. Isso cria domínios sem
colisão a partir de um domínio de colisão maior. Mesmo que o switch LAN elimine os domínios
de colisão, todos os hosts conectados ao switch ainda estarão no mesmo domínio de
broadcast. Logo, todos os nós conectados através do switch LAN podem ver um broadcast a
partir de apenas um nó.
A Ethernet com comutação é baseada na Ethernet. Cada nó está diretamente conectado a uma
de suas portas ou a um segmento que está conectado a uma das portas do switch. Isso cria
uma conexão de largura de banda de 100 Mbps entre cada nó e cada segmento no switch. Um
computador conectado diretamente a um switch Ethernet é o seu próprio domínio de colisão e
acessa todos os 100 Mbps.
Uma LAN que usa um topologia Ethernet com comutação cria uma rede que funciona como se
tivesse apenas dois nós, o nó emissor e o nó receptor. Esses dois nós compartilham uma
largura de banda de 100 Mbps, significando que quase toda a largura de banda está disponível
para a transmissão dos dados. Como a LAN Ethernet com comutação usa a largura de banda
de forma tão eficiente, ela pode fornecer uma topologia de LAN mais rápida que as LANs
Ethernet. Em uma implementação da Ethernet com comutação, a largura de banda disponível
pode chegar perto de 100%.
O switching Ethernet aumenta a largura de banda disponível em uma rede criando segmentos
de rede dedicados (ou conexões ponto a ponto) e conectando esses segmentos a uma rede
virtual no switch. Esse circuito de rede virtual existirá apenas quando dois nós precisarem se
comunicar. Isso é chamado circuito virtual, porque existe apenas quando for necessário e
estará estabelecido no switch.
Switching é uma tecnologia que diminui o congestionamento, nas LANs Ethernet, Token Ring e
FDDI, reduzindo o tráfego e aumentando a largura de banda. Switches LAN são
freqüentemente usados para substituir hubs compartilhados. Eles são projetados para trabalhar
com infra-estruturas de cabos que já existam para que possam ser instalados sem afetar o
tráfego existente na rede.
Hoje, nas comunicações de dados, todos os equipamentos de switching executam duas
operações básicas:
• Switching de quadro de dados - isso acontece quando um quadro chegar a um meio de
entrada e for transmitido para um meio de saída.
• Manutenção das operações de switching - um switch cria e mantém tabelas de
switching.
O termo bridging se refere a uma tecnologia na qual um dispositivo conhecido como uma
bridge conecta dois ou mais segmentos de LAN. Uma bridge transmite datagramas de um
segmento aos destinos em outros segmentos. Quando uma bridge for ativada e começar a
operar, ela examinará o endereço MAC dos datagramas de chegada e criará uma tabela dos
destinos conhecidos. Se a bridge souber que o destino de um datagrama está no mesmo
segmento da origem do datagrama, ela irá abandonar o datagrama porque não haverá
necessidade de transmiti-lo. Se a bridge souber que o destino está em outro segmento, ela
transmitirá o datagrama apenas naquele segmento. Se ela não souber o segmento de destino,
transmitirá o datagrama em todos os segmentos exceto no segmento de origem (uma técnica
conhecida como sobrecarga). A principal vantagem do bridging é limitar o tráfego para
determinados segmentos da rede.
Como as bridges, os switches conectam os segmentos LAN, usam uma tabela de endereços
MAC para determinar o segmento para onde um datagrama precisa ser transmitido e reduzem
o tráfego. Os switches são mais funcionais que as bridges nas redes atuais porque operam em
velocidades muito mais altas que as bridges e podem suportar novas funcionalidades, como as
LANs virtuais (VLANs).
As bridges normalmente fazem switch usando o software; os switches normalmente fazem
switch usando o hardware.
Cada switch usado em uma LAN Ethernet de 10 Mbps adiciona latência à rede. No entanto, o
tipo de switching usado pode ajudar a superar o problema de latência inerente a alguns
switches. Um switch entre uma estação de trabalho e um servidor adiciona 21 microssegundos
ao processo de transmissão. Um pacote de 1000 bytes tem um tempo de transmissão de 800
microssegundos. Um pacote enviado de uma estação de trabalho para um servidor tem um
tempo total de transmissão de 821 microssegundos (800 + 21 = 821). Devido ao switching
usado, conhecido como cut-through, o endereço MAC do dispositivo de destino é lido e o
switch começa a transmitir o pacote antes dele ser completamente recebido pelo switch. Isso
compensa a latência inerente ao switch.
Switching da camada 2 e switching da camada 3
Existem dois métodos de fazer o switching de quadros de dados: switching da camada 2 e
switching da camada 3. Switching é o processo de receber um quadro através de uma interface
e distribuí-lo através de outra interface. Os roteadores usam o switching da camada 3 para
rotear um pacote; os switches (switches da camada 2) usam o switching da camada 2 para
encaminhar quadros.
A diferença entre o switching da camada 2 e o switching da camada 3 é o tipo de informação
contida no quadro usada para determinar a interface de saída correta. Com o switching da
camada 2, os quadros são comutados com base nas informações de endereço MAC. Com o
switching da camada 3, os quadros são comutados com base nas informações da camada de
rede.
O switching da camada 2 não procura as informações da camada de rede dentro de um pacote
como faz o switching da camada 3. O switching da camada 2 procura o endereço MAC de
destino dentro de um quadro. Ele enviará as informações para a interface apropriada se souber
a localização do endereço de destino. O switching da camada 2 cria e mantém uma tabela de
switching que mantém o registro dos endereços MAC que pertencem a todas as portas ou
interfaces.
Se o switch da camada 2 não souber para onde enviar o quadro, ele irá fazer o broadcast do
quadro através de todas as suas portas para que a rede aprenda o destino correto. Quando a
resposta do quadro for devolvida, o switch aprenderá a localização do novo endereço e
adicionará as informações à tabela do switching. O fabricante do equipamento de
comunicações de dados determina os endereços da camada 2. Eles são endereços exclusivos
que são divididos em duas partes, o código de fabricação (MFG) e o identificador exclusivo. O
Institute of Electrical and Electronic Engineers (IEEE) atribui o código MFG a cada fornecedor.
O fornecedor atribui um identificador exclusivo. Exceto nas redes Systems Network Architecture
(SNA), os usuários têm pouco ou nenhum controle sobre o endereçamento da camada 2
porque os endereços da camada 2 são fixos em um dispositivo, enquanto os endereços da
camada 3 podem ser alterados. Além disso, os endereços da camada 2 assumem um espaço
de endereço contínuo com endereços universalmente exclusivos. O switching da camada 3
opera na camada de rede. Ele examina as informações do pacote e encaminha os pacotes
com base nos endereços de destino da camada de rede. O switching da camada 3 também
suporta a funcionalidade do roteador.
Na maioria dos casos, o administrador da rede determina os endereços da camada 3.
Protocolos como IP, IPX e AppleTalk usam o endereçamento da camada 3. Ao criar endereços
da camada 3, um administrador de rede cria áreas locais que atuam como unidades de
endereçamento únicas (similar a ruas, cidades, estados e países) e atribui um número a cada
entidade local. Se os usuários se mudarem para outro prédio, suas estações terminais vão
obter novos endereços da camada 3, mas os endereços da camada 2 permanecerão os
mesmos.
Como os roteadores operam na camada 3 do modelo de referência OSI, eles podem criar e
obedecer uma estrutura de endereçamento hierárquica. Portanto, uma rede roteada pode unir
uma estrutura de endereçamento lógica a uma estrutura física, por exemplo, através das sub-
redes TCP/IP ou das redes IPX em cada segmento. O fluxo do tráfego em uma rede com
comutação (simples) é, portanto, inerentemente diferente do fluxo do tráfego em uma rede
roteada (hierárquica). As redes hierárquicas oferecem fluxo de tráfego mais flexível do que as
redes simples, pois elas podem usar a hierarquia da rede para determinar melhores caminhos
e contêm domínios de broadcast.
Os switches têm muitas vantagens. Um switch LAN permite que vários usuários se
comuniquem paralelamente através do uso de circuitos virtuais e de segmentos de rede
dedicados em um ambiente livre de colisões. Isso maximiza a largura de banda disponível em
um meio compartilhado. Além disso, mudar para um ambiente de LAN com comutação é muito
econômico porque o cabeamento e o hardware existentes podem ser usados novamente. Por
último, os administradores da rede têm grande flexibilidade em gerenciar a rede através da
eficácia do switch e do software para configurar a LAN.
Switching simétrico e switching assimétrico
O switching simétrico é uma forma de se caracterizar um switch LAN de acordo com a largura
de banda alocada em cada porta no switch. Um switch simétrico fornece conexões com
comutações entre portas com a mesma largura de banda, como todas as portas de 10 Mbps ou
todas as portas de 100 Mbps. Um switch LAN assimétrico fornece conexões com comutação
entre portas de largura de banda diferente, como uma combinação das portas de 10 Mbps e de
100 Mbps.
O switching assimétrico faz com que a maior parte do tráfego de rede cliente/servidor flua onde
vários clientes estejam se comunicando com um servidor ao mesmo tempo, exigindo mais
largura de banda dedicada para a porta do switch a qual o servidor está conectado para
impedir um gargalo naquela porta. Como você aprenderá na próxima seção, o buffer de
memória em um switch assimétrico é necessário para permitir que o tráfego da porta de 100
Mbps seja enviado à porta de 10 Mbps sem causar muito congestionamento na porta de 10
Mbps.
Buffer de memória
Um switch Ethernet pode usar uma técnica de buffer para armazenar e encaminhar pacotes
para a(s) porta(s) correta(s). A área de memória onde o switch armazena os dados de
transmissão e de destino é chamada de buffer de memória. Esse buffer de memória pode usar
dois métodos para encaminhar pacotes: o buffer de memória baseado na porta e o buffer de
memória compartilhado.
Em um buffer de memória baseado na porta, os pacotes são armazenados em filas vinculadas
às portas de chegada específicas. Um pacote só é transmitido para a porta de saída quando
todos os pacotes à frente dele na fila tiverem sido transmitidos com êxito. É possível que um
único pacote atrase a transmissão de todos os pacotes na memória devido a uma porta de
destino que esteja sendo usada. Esse atraso ocorrerá mesmo se os outros pacotes puderem
ser transmitidos para abrir as portas de destino.
O buffer de memória compartilhado deposita todos os pacotes em um buffer de memória
comum que é compartilhado por todas as portas no switch. A quantidade de memória alocada
em uma porta é determinada pela quantidade exigida por cada porta. Isso é chamado de
alocação dinâmica de memória de buffer. Os pacotes no buffer são dinamicamente vinculados
à porta de transmissão, o pacote é vinculado à alocação da memória dessa porta de
transmissão. Isso permite que o pacote seja recebido por uma porta e transmitido através de
outra, sem movê-lo para uma fila diferente.
O switch mantém um mapa das portas para onde o pacote precisa ser transmitido. O switch só
limpará esse mapa das portas de destino depois que o pacote tiver sido transmitido com êxito.
Como o buffer de memória é compartilhado, o pacote estará restrito ao tamanho de todo o
buffer de memória e não apenas à alocação a uma porta. Isso significa que pacotes maiores
podem ser transmitidos com menos pacotes descartados. Isso é importante para o switching
10/100, onde uma porta de 100 Mbps pode encaminhar um pacote a uma porta de 10 Mbps.
Dois modos de switching podem ser usados para encaminhar um quadro através de um switch:
• Armazenar e encaminhar - Todo o quadro é recebido antes de ocorrer qualquer
encaminhamento. O endereço de destino e/ou o endereço de origem é lido e os filtros
serão aplicados antes do quadro ser encaminhado. A latência ocorrerá enquanto o
quadro estiver sendo recebido; a latência será maior nos quadros maiores pois todo o
quadro levará mais tempo para ser lido. A detecção de erros será maior devido ao
tempo disponível para o switch verificar os erros enquanto estiver esperando que todo
o quadro seja recebido.
• Cut-through - O switch lê o endereço de destino antes de receber todo o quadro. O
quadro é encaminhado antes que todo o quadro chegue. Esse modo diminui a latência
da transmissão e tem uma detecção de erros de switching LAN ruim. Fast-forward e
fragment-free são duas formas do switching cut-through:
o Switching fast-forward - O switching fast-forward oferece o nível mais baixo de
latência encaminhando imediatamente um pacote após ter recebido o
endereço de destino. Como o switching fast-forward começa a encaminhar
antes que todo o pacote seja recebido, pode haver vezes em que os pacotes
sejam retransmitidos com erros. Embora isso não ocorra com freqüência e a
placa de rede de destino descarte o pacote com defeito ao recebê-lo, o tráfego
supérfluo pode ser considerado inaceitável em alguns ambientes. Use a opção
fragment-free para reduzir o número de pacotes encaminhados com erros. No
modo fast-forward, a latência é medida a partir do primeiro bit recebido até o
primeiro bit transmitido, ou primeiro a entrar, primeiro a sair (FIFO, first in, first
out).
o Switching fragment-free - O switching fragment-free filtra os fragmentos da
colisão, que são a maioria dos erros do pacote, antes do encaminhamento
começar. Em uma rede funcionando apropriadamente, os fragmentos de
colisão devem ser menores que 64 bytes. Qualquer coisa maior que 64 bytes é
um pacote válido e é normalmente recebido sem erro. O switching fragment-
free aguarda até que o pacote recebido seja reconhecido como não sendo um
fragmento de colisão antes de encaminhá-lo. No modo fragment-free, a
latência é medida como FIFO.
A latência de cada modo de switching depende de como o switch encaminha os quadros.
Quanto mais rápido for o modo de switching, menor será latência no switch. Para realizar um
encaminhamento de quadro mais rápido, o switch leva menos tempo para verificar os erros. A
compensação será menos verificação de erros, o que poderá levar a um número maior de
retransmissões.
O que é VLAN
Um switch Ethernet segmenta fisicamente uma LAN em domínios de colisão individuais. No
entanto, cada segmento ainda faz parte de um domínio de broadcast. O número total de
segmentos em um switch é igual a um domínio de broadcast. Isso significa que todos os nós
em todos os segmentos podem ver um broadcast a partir de um nó em um segmento.
A principal função do Spanning-Tree Protocol é permitir os caminhos com bridges/switches
duplicados sem os efeitos de latência dos loops na rede. As bridges e os switches tomam as
decisões de encaminhamento para os quadros unicast com base no endereço MAC no quadro.
Se o endereço MAC for desconhecido, o dispositivo transmitirá o quadro através de todas as
portas na tentativa de alcançar o destino desejado. Ele também faz isso em todos os quadros
de broadcast.
O algoritmo Spanning Tree, implementado pelo Spanning-Tree Protocol, impede os loops
calculando uma topologia de rede spanning-tree estável. Ao criar redes tolerantes a falhas, um
caminho sem loops deverá existir entre todos os nós Ethernet na rede. O algoritmo Spanning
Tree é usado para calcular um caminho sem loops. Quadros Spanning Tree, chamados de
bridge protocol data units (BPDUs), são enviados e recebidos por todos os switches na rede
em intervalos regulares e são usados para determinar a topologia spanning-tree.
Um switch usa o Spanning-Tree Protocol em todas as Ethernets e Fast Ethernets baseadas em
VLANs. O Spanning-Tree Protocol detecta e interrompe os loops colocando algumas conexões
no modo de espera, que serão ativadas caso haja uma falha na conexão ativa. Uma instância
separada do Spanning-Tree Protocol é executada em cada VLAN configurada, garantindo as
topologias Ethernet que estão de acordo com os padrões da indústria através da rede.
Os estados do Spanning-Tree Protocol são os seguintes:
• Bloqueando - Nenhum quadro encaminhado, BPDUs detectadas
• Prestando atenção - Nenhum quadro encaminhado, prestando atenção nos quadros
• Aprendendo - Nenhum quadro encaminhado, aprendendo os endereços
• Encaminhando - Quadros encaminhados, aprendendo os endereços
• Desativado - Nenhum quadro encaminhado, nenhuma BPDU detectada
O estado de cada VLAN é inicialmente definido pela configuração e modificado depois pelo
processo Spanning-Tree Protocol. Você pode determinar o status, o custo e a prioridade das
portas e das VLANs usando o comando show spantree . Depois que esse estado de porta
para VLAN for definido, o Spanning-Tree Protocol determinará se a porta irá encaminhar ou
bloquear os quadros. As portas poderão ser configuradas para entrar imediatamente no modo
de encaminhamento Spanning-Tree Protocol quando for feita uma conexão, em vez de seguir a
seqüência usual de bloquear, aprender e encaminhar. A capacidade de comutar rapidamente
os estados de bloquear para encaminhar em vez de passar pelos estados da porta
transacionais será útil em situações onde o acesso imediato a um servidor for necessário.

Weitere ähnliche Inhalte

Was ist angesagt?

T2 meios de transmissao metalicos
T2  meios de transmissao metalicosT2  meios de transmissao metalicos
T2 meios de transmissao metalicosPaula Lopes
 
Tecnicas de conversão e compressão; Redes de comunicação 1º Módulo
Tecnicas de conversão e compressão; Redes de comunicação 1º MóduloTecnicas de conversão e compressão; Redes de comunicação 1º Módulo
Tecnicas de conversão e compressão; Redes de comunicação 1º MóduloIgor Santos
 
Ccna -modulo1 conceitos basicos de redes
Ccna  -modulo1 conceitos basicos  de redesCcna  -modulo1 conceitos basicos  de redes
Ccna -modulo1 conceitos basicos de redesDiego Rodrigues
 
Trabalho fddi
Trabalho fddiTrabalho fddi
Trabalho fddiKeynom
 
Meios de transmissão metálicos
Meios de transmissão metálicosMeios de transmissão metálicos
Meios de transmissão metálicosSuguha
 
Aula03 camada física - meios de transmissão
Aula03  camada física - meios de transmissãoAula03  camada física - meios de transmissão
Aula03 camada física - meios de transmissãoCarlos Veiga
 
Modelo OSI - Camada Física
Modelo OSI - Camada FísicaModelo OSI - Camada Física
Modelo OSI - Camada FísicaWalyson Vëras
 
Projeto final instalação e configuração de redes locais
Projeto final  instalação e configuração de redes locaisProjeto final  instalação e configuração de redes locais
Projeto final instalação e configuração de redes locaisMarcoSoaresGI
 
Protocolo ipx spx-francisco
Protocolo ipx spx-franciscoProtocolo ipx spx-francisco
Protocolo ipx spx-franciscoFrancisco Sousa
 
Ethernet regras de segmentação-miguel ferreira
Ethernet regras de segmentação-miguel ferreiraEthernet regras de segmentação-miguel ferreira
Ethernet regras de segmentação-miguel ferreiraMiguel Ferreira
 
Simplex, Half-Duplex e Full-Duplex
Simplex, Half-Duplex e Full-DuplexSimplex, Half-Duplex e Full-Duplex
Simplex, Half-Duplex e Full-DuplexYohana Alves
 
Redes - Camada Fisica
Redes - Camada FisicaRedes - Camada Fisica
Redes - Camada FisicaLuiz Arthur
 
Tipos de cabos
Tipos de cabosTipos de cabos
Tipos de cabosGonçalo
 
Meios de transmissão metálicos
Meios de transmissão metálicosMeios de transmissão metálicos
Meios de transmissão metálicosH P
 

Was ist angesagt? (20)

padrão ieee 802.2
padrão ieee 802.2padrão ieee 802.2
padrão ieee 802.2
 
T2 meios de transmissao metalicos
T2  meios de transmissao metalicosT2  meios de transmissao metalicos
T2 meios de transmissao metalicos
 
Modulo 5 Redes
Modulo 5   RedesModulo 5   Redes
Modulo 5 Redes
 
Tecnicas de conversão e compressão; Redes de comunicação 1º Módulo
Tecnicas de conversão e compressão; Redes de comunicação 1º MóduloTecnicas de conversão e compressão; Redes de comunicação 1º Módulo
Tecnicas de conversão e compressão; Redes de comunicação 1º Módulo
 
Ccna -modulo1 conceitos basicos de redes
Ccna  -modulo1 conceitos basicos  de redesCcna  -modulo1 conceitos basicos  de redes
Ccna -modulo1 conceitos basicos de redes
 
Trabalho fddi
Trabalho fddiTrabalho fddi
Trabalho fddi
 
Cisco ccna modulo 01
Cisco ccna modulo 01Cisco ccna modulo 01
Cisco ccna modulo 01
 
Meios de transmissão metálicos
Meios de transmissão metálicosMeios de transmissão metálicos
Meios de transmissão metálicos
 
Aula03 camada física - meios de transmissão
Aula03  camada física - meios de transmissãoAula03  camada física - meios de transmissão
Aula03 camada física - meios de transmissão
 
Modelo OSI - Camada Física
Modelo OSI - Camada FísicaModelo OSI - Camada Física
Modelo OSI - Camada Física
 
Projeto final instalação e configuração de redes locais
Projeto final  instalação e configuração de redes locaisProjeto final  instalação e configuração de redes locais
Projeto final instalação e configuração de redes locais
 
Protocolo ipx spx-francisco
Protocolo ipx spx-franciscoProtocolo ipx spx-francisco
Protocolo ipx spx-francisco
 
Ethernet regras de segmentação-miguel ferreira
Ethernet regras de segmentação-miguel ferreiraEthernet regras de segmentação-miguel ferreira
Ethernet regras de segmentação-miguel ferreira
 
Simplex, Half-Duplex e Full-Duplex
Simplex, Half-Duplex e Full-DuplexSimplex, Half-Duplex e Full-Duplex
Simplex, Half-Duplex e Full-Duplex
 
Tecnologias Atuais de Redes - Aula 4 - Comutação
Tecnologias Atuais de Redes - Aula 4 - ComutaçãoTecnologias Atuais de Redes - Aula 4 - Comutação
Tecnologias Atuais de Redes - Aula 4 - Comutação
 
Topologia de Redes
Topologia de RedesTopologia de Redes
Topologia de Redes
 
Padrão ethernet
Padrão ethernetPadrão ethernet
Padrão ethernet
 
Redes - Camada Fisica
Redes - Camada FisicaRedes - Camada Fisica
Redes - Camada Fisica
 
Tipos de cabos
Tipos de cabosTipos de cabos
Tipos de cabos
 
Meios de transmissão metálicos
Meios de transmissão metálicosMeios de transmissão metálicos
Meios de transmissão metálicos
 

Ähnlich wie Visão Geral da Token Ring e suas Variantes

Capítulo 15 conexões de lans, redes backbone e lans virtuais
Capítulo 15   conexões de lans, redes backbone e lans virtuaisCapítulo 15   conexões de lans, redes backbone e lans virtuais
Capítulo 15 conexões de lans, redes backbone e lans virtuaisFaculdade Mater Christi
 
Redes I - 5.1 Tecnologias de Redes LAN
Redes I - 5.1 Tecnologias de Redes LANRedes I - 5.1 Tecnologias de Redes LAN
Redes I - 5.1 Tecnologias de Redes LANMauro Tapajós
 
Tecnologias de transmissão e topologias de rede
Tecnologias de transmissão e topologias de redeTecnologias de transmissão e topologias de rede
Tecnologias de transmissão e topologias de redeJessicaDuarteAgostinho
 
Redes I - 6.Interconexão de LANs
Redes I - 6.Interconexão de LANsRedes I - 6.Interconexão de LANs
Redes I - 6.Interconexão de LANsMauro Tapajós
 
Redes redes locais
Redes   redes locaisRedes   redes locais
Redes redes locaisrobinhoct
 
Glossario ethernet baumier v1
Glossario ethernet baumier   v1Glossario ethernet baumier   v1
Glossario ethernet baumier v1Mersao52
 
Aula08 tecnologia atm
Aula08   tecnologia atmAula08   tecnologia atm
Aula08 tecnologia atmCarlos Veiga
 
Dia 12 04_2010
Dia 12 04_2010Dia 12 04_2010
Dia 12 04_2010scorpio3
 
Capitulo i equipamento de rede como funcionam os switches lan
Capitulo i equipamento de rede como funcionam os switches lanCapitulo i equipamento de rede como funcionam os switches lan
Capitulo i equipamento de rede como funcionam os switches lanPortal_do_Estudante_Redes
 
Ethernet interconectividadeem redeset
Ethernet interconectividadeem redesetEthernet interconectividadeem redeset
Ethernet interconectividadeem redesetredesinforma
 

Ähnlich wie Visão Geral da Token Ring e suas Variantes (20)

Capítulo 15 conexões de lans, redes backbone e lans virtuais
Capítulo 15   conexões de lans, redes backbone e lans virtuaisCapítulo 15   conexões de lans, redes backbone e lans virtuais
Capítulo 15 conexões de lans, redes backbone e lans virtuais
 
Redes I - 5.1 Tecnologias de Redes LAN
Redes I - 5.1 Tecnologias de Redes LANRedes I - 5.1 Tecnologias de Redes LAN
Redes I - 5.1 Tecnologias de Redes LAN
 
Tecnologias de transmissão e topologias de rede
Tecnologias de transmissão e topologias de redeTecnologias de transmissão e topologias de rede
Tecnologias de transmissão e topologias de rede
 
Aula6.pdf
Aula6.pdfAula6.pdf
Aula6.pdf
 
Redes I - 6.Interconexão de LANs
Redes I - 6.Interconexão de LANsRedes I - 6.Interconexão de LANs
Redes I - 6.Interconexão de LANs
 
Redes redes locais
Redes   redes locaisRedes   redes locais
Redes redes locais
 
Lista01
Lista01Lista01
Lista01
 
As redes
As redesAs redes
As redes
 
Glossario ethernet baumier v1
Glossario ethernet baumier   v1Glossario ethernet baumier   v1
Glossario ethernet baumier v1
 
Exercícios
ExercíciosExercícios
Exercícios
 
Cap6 smds
Cap6 smdsCap6 smds
Cap6 smds
 
Redes - Camada de Enlace de Dados
Redes - Camada de Enlace de DadosRedes - Camada de Enlace de Dados
Redes - Camada de Enlace de Dados
 
Tbr de redes
Tbr de redesTbr de redes
Tbr de redes
 
Aula08 tecnologia atm
Aula08   tecnologia atmAula08   tecnologia atm
Aula08 tecnologia atm
 
Dia 12 04_2010
Dia 12 04_2010Dia 12 04_2010
Dia 12 04_2010
 
Capitulo i equipamento de rede como funcionam os switches lan
Capitulo i equipamento de rede como funcionam os switches lanCapitulo i equipamento de rede como funcionam os switches lan
Capitulo i equipamento de rede como funcionam os switches lan
 
Introdução a Redes de Computadores
Introdução a Redes de ComputadoresIntrodução a Redes de Computadores
Introdução a Redes de Computadores
 
Tecnologia ethernet
Tecnologia ethernetTecnologia ethernet
Tecnologia ethernet
 
Redes
RedesRedes
Redes
 
Ethernet interconectividadeem redeset
Ethernet interconectividadeem redesetEthernet interconectividadeem redeset
Ethernet interconectividadeem redeset
 

Visão Geral da Token Ring e suas Variantes

  • 1. Visão geral de Token Ring e suas variantes A IBM desenvolveu a primeira rede Token Ring nos anos 70. Ela ainda é a principal tecnologia LAN da IBM e apenas perde para a Ethernet (IEEE 802.3) em termos de implementação da LAN. A especificação IEEE 802.5 é quase idêntica e completamente compatível com a rede Token Ring da IBM. A especificação IEEE 802.5 foi desenvolvida depois da Token Ring da IBM e continua a ofuscar o seu contínuo desenvolvimento. O termo Token Ring se refere à Token Ring da IBM e à especificação do IEEE 802.5 Tokens Os tokens têm 3 bytes de comprimento e consistem em um delimitador de início, um byte de controle de acesso e um delimitador de fim. O delimitador de início avisa a chegada de um token ou de um quadro de dados/comandos, a cada estação. Esse campo inclui também sinais que distinguem o byte do resto do quadro, violando o esquema de codificação usado em outro lugar do quadro. Byte de controle de acesso O byte de controle de acesso contém o campo prioridade e reserva e um bit de token e monitor. O bit de token distingue um token de um quadro de dados/comandos e um bit de monitor determina se um quadro está circulando continuamente no anel. O delimitador de fim indica o final do token ou do quadro de dados/comandos. Ele contém bits que indicam um quadro danificado e um quadro que seja o último de uma seqüência lógica. Quadros de dados/comandos
  • 2. Os quadros de dados/comandos variam no tamanho, dependendo do tamanho do campo de informações. Os quadros de dados transportam informações dos protocolos da camada superior; os quadros de comando contêm informações de controle e não têm dados dos protocolos da camada superior. Nos quadros de dados/comandos, um byte de controle de quadro segue o byte de controle de acesso. O byte de controle de quadro indica se o quadro contém dados ou informações de controle. Nos quadros de controle, esse byte especifica o tipo das informações de controle. Seguindo o byte de controle de quadro estão dois campos de endereços que identificam as estações de origem e de destino. Como acontece com a IEEE 802.5, seus endereços têm 6 bytes de comprimento. O campo de dados segue o campo de endereços. O tamanho desse campo é limitado pelo token do anel que limita o tempo, assim definindo o tempo máximo que uma estação pode manter o token. Seguindo o campo de dados está o campo seqüência de verificação de quadros (FCS) . A estação de origem preenche esse campo com um valor calculado que depende do conteúdo do quadro. A estação de destino calcula novamente o valor para determinar se o quadro foi danificado em trânsito. O quadro é descartado se tiver sido danificado. Como acontece com o token, o delimitador de fim conclui o quadro de dados/comando. Passagem de token Token Ring e IEEE 802.5 são os principais exemplos de redes com passagem de token. As redes com passagem de token movem um pequeno quadro, chamado token, pela rede. A posse do token garante o direito de transmitir dados. Se um nó receber um token, mas não tiver informações para enviar, então passará o token à próxima estação final. Cada estação pode manter o token por um período máximo de tempo, dependendo da tecnologia específica que foi implementada.
  • 3. Quando uma estação passa um token que tem informações a transmitir, ela pega o token e altera 1 bit dele. O token torna-se uma seqüência de início do quadro. Depois, a estação anexa ao token as informações a serem transmitidas e envia esses dados para a próxima estação no anel. Não existe nenhum token na rede enquanto o quadro de informações está circulando no anel, a não ser que o anel suporte liberações de token anteriores. Outras estações no anel não podem transmitir nesse momento. Elas devem aguardar que o token se torne disponível. As redes Token Ring não têm colisões. Se a liberação de token anterior for suportada, um novo token pode ser liberado quando a transmissão do quadro estiver concluída. O quadro de informações circula no anel até alcançar a estação de destino pretendida, que, então, copia as informações para o processamento. O quadro de informações circula no anel até alcançar a estação de envio e então é removido. A estação emissora pode verificar se o quadro foi recebido e copiado pelo destino. Ao contrário das redes CSMA/CD, como a Ethernet, as redes com passagem de token são deterministas. Isso significa que você pode calcular o tempo máximo que transcorrerá antes que qualquer estação final possa transmitir. Esse recurso e muitos recursos de confiança tornam as redes Token Ring ideais para os aplicativos onde qualquer atraso deva ser previsível e a operação de rede robusta seja importante. Ambientes de automação industrial são exemplos de operações de rede robustas previsíveis. Sistema de prioridades As redes Token Ring usam um sofisticado sistema de prioridades que permite que certas estações designadas pelo usuário e de alta prioridade usem a rede com maior freqüência. Os quadros Token Ring têm dois campos que controlam a prioridade - os campos prioridade e reserva . Apenas estações com prioridade igual ou maior que o valor de prioridade contido em um token podem pegar aquele token. Depois do token ter sido pego e transformado em um quadro de informações, apenas as estações com um valor de prioridade maior que o valor da estação transmissora podem reservar o token para o próximo passo da rede. O próximo token gerado inclui a prioridade mais alta da estação de reserva. As estações que aumentam o nível de prioridade de um token devem reaplicar a prioridade anterior quando a transmissão tiver sido concluída. Mecanismos de gerenciamento As redes Token Ring usam vários mecanismos para detectar e compensar as falhas da rede. Um deles é selecionar uma estação na rede Token Ring para ser o monitor ativo. Essa estação age como uma origem centralizada de informações de temporização para outras estações do anel e executa uma variedade de funções de manutenção do anel. A estação monitora ativa pode ser qualquer estação na rede. Uma das funções dessa estação é remover do anel quadros que estão circulando continuamente. Quando um dispositivo emissor falha, seu quadro pode continuar a circular no anel e impedir que outras estações transmitam seus próprios quadros; isso pode bloquear a rede. O monitor ativo pode detectar esses quadros, removê-los do anel e gerar um novo token. A topologia em estrela da rede Token Ring da IBM também contribui para a confiabilidade geral da rede. MSAUs ativas (multi-station access units) podem detectar todas as informações em uma rede Token Ring, permitindo que elas verifiquem os problemas e removam seletivamente estações do anel, sempre que necessário. Advertência de uma situação de erro de rede - uma fórmula Token Ring - detecta e tenta corrigir erros de rede. Quando uma estação detecta um problema sério com a rede (ex. um cabo que se parte), envia um quadro beacon. O quadro beacon define um domínio de falha. Um domínio de falha inclui a estação que está relatando a falha, sua nearest active upstream neighbor (NAUN) e tudo o que está entre elas. A advertência de uma situação de erro na rede inicia um processo chamado auto-reconfiguração, onde os nós no domínio da falha executam o diagnóstico automaticamente. Essa é uma
  • 4. tentativa de reconfigurar a rede ao redor das áreas com falhas. Fisicamente, as MSAUs podem alcançar isso através de reconfiguração elétrica. A codificação de sinal é uma forma de combinar as informações de dados e de relógio em um fluxo de sinais que é enviado por um meio. A codificação Manchester combina os dados e o relógio em símbolos de bits, que são divididos em duas metades, a polaridade da segunda metade sendo sempre oposta a da primeira metade. Lembre-se de que a codificação Manchester resulta no 0 sendo codificado como transição de baixa para alta e 1 sendo codificado como transição de alta para baixa. Em decorrência de 0s e 1s resultarem em transição para o sinal, o relógio pode ser eficazmente recuperado no receptor. As redes Token Ring de 4/16 Mbps usam codificação Manchester diferencial (uma variação na codificação Manchester). A Token Ring usa o método codificação Manchester diferencial para codificar informações de bits de dados e de relógio em símbolos de bit. Um bit 1 é representado por nenhuma alteração na polaridade no início do tempo de bit e um bit 0 é representado por uma alteração na polaridade no início do tempo de bit. As estações de rede Token Ring da IBM (freqüentemente usando STP e UTP como meios) estão diretamente conectadas às MSAUs e podem ser ligadas para formar um grande anel. Os patch cables conectam MSAUs a outras MSAUs que são adjacentes a elas. Cabos lobe conectam MSAUs às estações. As MSAUs incluem comutações de bypass para remover as estações do anel. Visão geral de FDDI e suas variantes Na metade dos anos 80, as estações de trabalho de engenharia de alta velocidade impulsionaram as capacidades da Ethernet e da Token Ring existentes aos seus limites. Os engenheiros precisavam de uma LAN que pudesse suportar as suas estações de trabalho e seus novos aplicativos. Ao mesmo tempo, os gerenciadores de sistema ficaram preocupados com os problemas de confiabilidade da rede à medida que os aplicativos críticos para a missão eram implementados nas redes de alta velocidade. O comitê de padrões ANSI X3T9.5, para resolver essas questões, produziu o padrão Fiber Distributed Data Interface (FDDI). Depois de concluir as especificações, o ANSI submeteu a FDDI à International Organization for Standardization (ISO), que criou uma versão internacional da FDDI que é totalmente compatível com a versão padrão ANSI.
  • 5. Embora as implementações da FDDI não sejam tão comuns, hoje, quanto a Ethernet ou a Token Ring, a FDDI tem um grande número de adeptos e continua a crescer à medida que os seus custos diminuem. A FDDI é freqüentemente usada como tecnologia de backbone e para conectar computadores de alta velocidade a uma LAN. A FDDI tem quatro especificações: 1. Media Access Control (MAC) - define como o meio é acessado, incluindo: • Formato de quadro • Tratamento de token • Endereçamento • Algoritmo para calcular uma verificação de redundância cíclica e mecanismos de recuperação de erros 2. Physical Layer Protocol (PHY) - define procedimentos de codificação/decodificação de dados, incluindo: • Requisitos de clocking • Enquadramento • Outras funções 3. Physical Layer Medium (PMD) - define as características do meio de transmissão, incluindo: • Link de fibra óptica • Níveis de energia • Taxas de erro de bit • Componentes ópticos • Conectores 4. Station Management (SMT) - define a configuração de estação FDDI, incluindo: • Configuração do anel • Recursos de controle de anel • Remoção e inserção de estação • Inicialização • Recuperação e isolamento de falha • Agendamento • Coleção de estatísticas
  • 6. Os campos de um quadro FDDI são os seguintes: • Preâmbulo - prepara cada estação para o próximo quadro • Delimitador de início - indica o início do quadro e consiste nos padrões de sinalização que o diferenciam do resto do quadro • Controle de quadro - indica o tamanho dos campos de endereço, independentemente do quadro conter dados síncronos ou assíncronos e outras informações de controle • Endereço de destino - contém um endereço unicast (singular), multicast (grupo) ou broadcast (cada estação), os endereços de destino são de 6 bytes (como Ethernet e Token Ring) • Endereço de origem - identifica a única estação que enviou o quadro, os endereços de origem são de 6 bytes (como Ethernet e Token Ring) • Dados - controla a informação ou as informações destinadas a um protocolo da camada superior • Frame check sequence (FCS) - preenchida pela estação de origem com um cyclic redundancy check (CRC) calculado, valor dependente do conteúdo do quadro (como Token Ring e Ethernet). A estação de destino calcula novamente o valor para determinar se o quadro pode ter sido danificado em trânsito. Se tiver sido, o quadro é descartado. • Delimitador de fim - contém símbolos que não são dados e que indicam o final do quadro • Status do quadro - permite à estação de origem determinar se ocorreu um erro e se o quadro foi reconhecido e copiado por uma estação receptora
  • 7. A FDDI usa uma estratégia de passagem de token parecida com a da Token Ring. As redes com passagem de token movem um pequeno quadro, chamado token, pela rede. A posse do token garante o direito de transmitir dados. Se um nó que está recebendo o token não tiver informações para enviar, passará o token à próxima estação final. Cada estação pode manter o token por um período máximo de tempo, dependendo da implementação da tecnologia específica. Quando uma estação que está com a posse do token tiver informações a transmitir, ela vai redimensionar o token e alterar um dos seus bits. O token torna-se uma seqüência de início do quadro. Depois, a estação anexa as informações que transmite ao token e envia esses dados à próxima estação no anel. Não há nenhum token na rede enquanto o quadro de informações estiver circulando no anel, a não ser que o anel suporte a liberação do token anterior. Outras estações no anel devem aguardar que o token se torne disponível. As redes FDDI não têm colisões. Se a liberação de token anterior for suportada, um novo token pode ser liberado quando a transmissão do quadro estiver concluída. O quadro de informações circula no anel até alcançar a estação de destino pretendida, que copia as informações para o processamento. O quadro de informações circula no anel até alcançar a estação de envio e então é removido. A estação emissora pode verificar o quadro de retorno para ver se foi recebido e, em seguida, copiado pelo destino. Ao contrário das redes CSMA/CD, como a Ethernet, as redes com passagem de token são deterministas. Isso significa que você pode calcular o tempo máximo que transcorrerá antes que qualquer estação final possa transmitir. O anel duplo da FDDI garante não apenas que as estações se revezem para transmitir, mas que se uma parte de um anel for danificada ou desativada por qualquer razão, o segundo anel possa ser usado. Isso torna a FDDI muito confiável.
  • 8. A FDDI suporta a alocação em tempo real da largura de banda da rede, o que a torna ideal para uma variedade de tipos de aplicativos diferentes. A FDDI fornece esse suporte definindo dois tipos de tráfego - síncrono e assíncrono. Síncrono • O tráfego síncrono pode consumir uma parte da largura de banda total de 100 Mbps de uma rede FDDI, enquanto o tráfego assíncrono pode consumir o restante. • A largura de banda síncrona é alocada às estações que exigem capacidade de transmissão contínua. Isso é útil para a transmissão de informações por voz e vídeo. A largura de banda restante é usada para as transmissões assíncronas. • A especificação SMT FDDI define um esquema de disputa distribuído para alocar a largura de banda da FDDI. Assíncrono • A largura de banda assíncrona é alocada usando um esquema de prioridade de oito níveis. A cada estação é atribuído um nível de prioridade assíncrono. • A FDDI também permite diálogos estendidos, onde as estações podem usar todas as larguras de banda assíncronas temporariamente. • O mecanismo de prioridade da FDDI pode bloquear as estações que não possam usar largura de banda síncrona e que tenham uma prioridade assíncrona baixa demais. A FDDI usa um esquema de codificação chamado 4B/5B. Cada 4 bits de dados são enviados como um código de 5 bits. As origens do sinal nos transceivers FDDI são LEDs ou lasers.
  • 9. A FDDI especifica uma LAN de dois anéis de 100 Mbps, que permite a passagem de tokens e usa um meio de transmissão de fibra óptica. Ela define a camada física e a parte de acesso aos meios da camada de enlace, que é similar à IEEE 802.3 e à IEEE 802.5 em sua relação com o modelo OSI. Embora opere em velocidades mais altas, a FDDI é similar à Token Ring. As duas redes compartilham alguns recursos, como topologia (anel) e a técnica de acesso a meios (passagem de token). Uma característica da FDDI é o seu uso de fibra óptica como meio de transmissão. A fibra óptica oferece várias vantagens sobre o cabeamento de cobre tradicional, incluindo vantagens como: • segurança - A fibra não emite sinais elétricos que possam ser captados. • confiança - A fibra é imune à interferência elétrica. • rapidez - A fibra óptica tem um potencial de troughput muito maior que o cabo de cobre. A FDDI define os dois tipos de fibra especificados: modo único (também monomodo) e multimodo. Os modos podem ser imaginados como feixes de raios de luz entrando na fibra em determinado ângulo. A fibra monomodo permite apenas um modo de propagação da luz através da fibra, enquanto a fibra multimodo permite vários modos de propagação da luz através da fibra. Modos múltiplos de propagação de luz através de fibra podem trafegar em distâncias diferentes, dependendo dos ângulos de entrada. Isso faz com que cheguem ao destino em horas diferentes, um fenômeno chamado dispersão modal. A fibra de modo único tem capacidade de largura de banda mais alta e maiores distâncias de lance de cabo do que a fibra multimodo. Por causa dessas características, a fibra de modo único é freqüentemente usada para conectividade entre prédios, ao passo que a fibra multimodo é usada para conectividade dentro do prédio. A fibra multimodo usa LEDs como dispositivos geradores de luz, enquanto a fibra monomodo normalmente usa lasers. A FDDI especifica o uso de dois anéis para as conexões físicas. O tráfego em cada anel viaja em direções opostas. Fisicamente, os anéis consistem em duas ou mais conexões ponto a ponto entre estações adjacentes. Um dos dois anéis da FDDI é chamado de anel principal; o outro é chamado de anel secundário. O anel principal é usado para transmissão de dados, enquanto o anel secundário é normalmente usado como sobressalente. Estações da classe B ou single-attachment stations (SAS), conectam-se a um anel; as estações da classe A ou dual attachment stations (DAS), conectam-se a dois anéis. As SASs se conectam ao anel principal através de um concentrador, que fornece conexões para várias SASs. O concentrador garante que uma falha, ou queda de energia, de qualquer SAS fornecida, não interrompa o anel. Isso é particularmente útil quando PCs, ou dispositivos similares que são ligados e desligados freqüentemente, conectam-se ao anel.
  • 10. Comparando Ethernet e IEEE 802.3 A Ethernet é a tecnologia de rede local (LAN) mais amplamente usada. A Ethernet foi projetada para ocupar o espaço entre as redes de longa distância, com baixa velocidade e as redes especializadas de sala de computação que transportam dados em alta velocidade por distâncias muito limitadas. A Ethernet é bem adequada a aplicativos em que um meio de comunicação local deva transportar tráfego esporádico, ocasionalmente intenso, a altas taxas de dados. A arquitetura de rede Ethernet tem suas origens nos anos 60, na Universidade do Havaí, onde o método de acesso que é usado pela Ethernet, carrier sense multiple access/collision
  • 11. detection (CSMA/CD), foi desenvolvido. O Palo Alto Research Center (PARC) , da Xerox Corporation, desenvolveu o primeiro sistema Ethernet experimental no início dos anos 70. Isso foi usado como base para a especificação 802.3 do Institute of Electrical and Electronic Engineers (IEEE), lançada em 1980. Logo após a especificação 802.3 de 1980 da IEEE, a Digital Equipment Corporation, a Intel Corporation e a Xerox Corporation desenvolveram conjuntamente e lançaram uma especificação Ethernet, versão 2.0, que foi substancialmente compatível com a IEEE 802.3. Juntas, a Ethernet e a IEEE 802.3 detêm atualmente a maior fatia de mercado de todos os protocolos LAN. Hoje, o termo Ethernet é freqüentemente usado para se referir a todas as LANs baseadas em CSMA/CD (Carrier sense multiple access/collision detect) que normalmente estão em conformidade com as especificações Ethernet, incluindo a especificação IEEE 802.3. A Ethernet e a IEEE 802.3 especificam tecnologias similares: ambas são LANs baseadas em CSMA/CD. Estações em uma LAN CSMA/CD podem acessar a rede a qualquer momento. Antes de enviar dados, as estações CSMA/CD escutam a rede para determinar se ela já está em uso. Se estiver, então elas aguardam. Se a rede não estiver em uso, as estações transmitem. Uma colisão ocorre quando duas estações escutam o tráfego da rede, não ouvem nada e transmitem simultaneamente. Neste caso, ambas as transmissões são prejudicadas e as estações devem retransmitir mais tarde. Algoritmos de recuo determinam quando as estações que colidiram podem retransmitir. As estações CSMA/CD podem detectar colisões, assim, elas sabem quando devem retransmitir. Ambas as LANs Ethernet e IEEE 802.3 são redes de broadcast. Isso significa que todas as estações podem ver todos os quadros, independentemente de serem ou não o destino daqueles dados. Cada estação deve examinar os quadros recebidos para determinar se ela é o destino. Se for, o quadro é passado a um protocolo de camada mais alto dentro da estação para processamento apropriado. As diferenças entre as LANs Ethernet e IEEE 802.3 são sutis. A Ethernet fornece serviços correspondentes às camadas 1 e 2 do modelo de referência OSI, enquanto a IEEE 802.3 especifica a camada física, a camada 1 e a parte de acesso a canais da camada de enlace, a camada 2, mas não define um protocolo de controle de enlace lógico. Ambas as LANs Ethernet e IEEE 802.3 são implementadas através de hardware. Normalmente, a parte física desses protocolos é uma placa de interface em um computador host ou um conjunto de circuitos em um placa de circuitos principal no computador host.
  • 12. Formato de quadro da Ethernet Os campos de quadros Ethernet e IEEE 802.3 estão descritos nos resumos a seguir: • Preâmbulo - O padrão alternado de 1s e 0s informa às estações receptoras se um quadro é Ethernet ou IEEE 802.3. O quadro Ethernet inclui um byte adicional, que é o equivalente ao campo Start of Frame (SOF) especificado no quadro IEEE 802.3. • Início do quadro (SOF, start-of-frame) - O byte delimitador IEEE 802.3 termina com dois bits 1 consecutivos, o que serve para sincronizar as partes de recepção de quadro de todas as estações na LAN. O SOF é explicitamente especificado na Ethernet. • Endereços de origem e de destino - Os 3 primeiros bytes dos endereços são especificados pelo IEEE, dependendo do fabricante. Os 3 últimos bytes são especificados pelo fabricante da Ethernet ou IEEE 802.3. O endereço de origem é sempre um endereço unicast (nó único). O endereço de destino pode ser unicast, multicast (grupo), ou broadcast (todos os nós). • Tipo (Ethernet) - O tipo especifica o protocolo da camada superior para receber os dados depois que o processamento da Ethernet estiver concluído. • Tamanho (IEEE 802.3) - O tamanho indica o número de bytes de dados que vêm depois desse campo. • Dados (Ethernet) - Depois que o processamento da camada física e da camada de enlace estiver concluído, os dados contidos no quadro serão enviados a um protocolo da camada superior, que é identificado no campo de tipos. Embora a Ethernet versão 2 não especifique qualquer enchimento, ao contrário da IEEE 802.3, a Ethernet espera receber, pelo menos, 46 bytes de dados. • Dados (IEEE 802.3) - Depois que o processamento das camadas física e de enlace estiver concluído, os dados serão enviados a um protocolo da camada superior, que deve estar definido na parte de dados do quadro. Se os dados no quadro forem insuficientes para preencher o quadro no seu tamanho mínimo de 64 bytes, bytes de enchimento serão inseridos para garantir um quadro de, pelo menos, 64 bytes. • Frame check sequence (FCS) - Essa seqüência contém um verificador de redundância cíclica de 4 bytes (CRC), criado pelo dispositivo emissor e recalculado pelo dispositivo de recepção para verificar se há quadros danificados.
  • 13. A Ethernet é uma tecnologia de broadcast de meios compartilhados. O método de acesso CSMA/CD usado na Ethernet executa três funções: 1. Transmitir e receber pacotes de dados 2. Decodificar pacotes de dados e verificar se os endereços são válidos, antes de passá- los às camadas superiores do modelo OSI 3. Detectar erros dentro dos pacotes de dados ou na rede No método de acesso CSMA/CD, os dispositivos de rede com dados para transmissão pelos meios da rede funcionam em um modo "escutar antes de transmitir". Isso significa que, quando um dispositivo desejar enviar dados, ele deverá, primeiramente, verificar se os meios da rede estão ocupados. O dispositivo deverá verificar se existem sinais nos meios da rede. O dispositivo começará a transmitir os dados depois de determinar se os meios de rede não estão ocupados. Enquanto estiver transmitindo os dados na forma de sinais, o dispositivo também estará escutando. Ele faz isso para garantir que nenhuma outra estação esteja transmitindo dados para os meios de rede ao mesmo tempo. Quando terminar de transmitir os dados, o dispositivo retornará ao modo de escuta. Os dispositivos de rede poderão informar quando uma colisão ocorrer porque a amplitude do sinal nos meios da rede aumentará. Quando uma colisão ocorrer, cada dispositivo que estiver transmitindo continuará a transmitir os dados por um pequeno espaço de tempo. Isso acontece para garantir que todos os dispositivos vejam a colisão. Quando todos os dispositivos na rede tiverem visto que uma colisão aconteceu, cada um chamará um algoritmo. Depois que todos os dispositivos na rede tiverem recuado por um certo período de tempo (diferente para cada dispositivo), qualquer dispositivo poderá tentar acessar os meios da rede novamente. Quando a transmissão de dados for retomada na rede, os dispositivos envolvidos na colisão não terão prioridade para transmitir dados. A Ethernet é um meio de transmissão de broadcast. Isso significa que todos os dispositivos de uma rede podem ver todos os dados que passam pelos meios da rede. Entretanto, nem todos
  • 14. os dispositivos da rede processarão os dados. Apenas os dispositivos cujos endereços MAC e IP coincidam com os endereços MAC e IP de destino, carregados pelos dados, copiarão os dados. Depois que um dispositivo tiver verificado os endereços MAC e IP de destino carregados pelos dados, ele verificará se o pacote de dados tem erros. Se o dispositivo detectar erros, o pacote de dados será descartado. O dispositivo de destino não notifica o dispositivo de origem, quer tenha o pacote chegado ou não com êxito. A Ethernet é uma arquitetura de rede sem conexões, sendo conhecida como um sistema de entrega dos melhores esforços. Os prós e contras da segmentação de LAN com switches O switching LAN ameniza a escassez de largura de banda e os gargalos de rede, como os que ocorrem entre um grupo de PCs e um servidor de arquivos remoto. Um switch pode segmentar uma LAN em microssegmentos, que são segmentos únicos de host. Isso cria domínios sem colisão a partir de um domínio de colisão maior. Mesmo que o switch LAN elimine os domínios de colisão, todos os hosts conectados ao switch ainda estarão no mesmo domínio de broadcast. Logo, todos os nós conectados através do switch LAN podem ver um broadcast a partir de apenas um nó. A Ethernet com comutação é baseada na Ethernet. Cada nó está diretamente conectado a uma de suas portas ou a um segmento que está conectado a uma das portas do switch. Isso cria uma conexão de largura de banda de 100 Mbps entre cada nó e cada segmento no switch. Um computador conectado diretamente a um switch Ethernet é o seu próprio domínio de colisão e acessa todos os 100 Mbps. Uma LAN que usa um topologia Ethernet com comutação cria uma rede que funciona como se tivesse apenas dois nós, o nó emissor e o nó receptor. Esses dois nós compartilham uma largura de banda de 100 Mbps, significando que quase toda a largura de banda está disponível para a transmissão dos dados. Como a LAN Ethernet com comutação usa a largura de banda de forma tão eficiente, ela pode fornecer uma topologia de LAN mais rápida que as LANs Ethernet. Em uma implementação da Ethernet com comutação, a largura de banda disponível pode chegar perto de 100%. O switching Ethernet aumenta a largura de banda disponível em uma rede criando segmentos de rede dedicados (ou conexões ponto a ponto) e conectando esses segmentos a uma rede virtual no switch. Esse circuito de rede virtual existirá apenas quando dois nós precisarem se comunicar. Isso é chamado circuito virtual, porque existe apenas quando for necessário e estará estabelecido no switch. Switching é uma tecnologia que diminui o congestionamento, nas LANs Ethernet, Token Ring e FDDI, reduzindo o tráfego e aumentando a largura de banda. Switches LAN são freqüentemente usados para substituir hubs compartilhados. Eles são projetados para trabalhar com infra-estruturas de cabos que já existam para que possam ser instalados sem afetar o tráfego existente na rede. Hoje, nas comunicações de dados, todos os equipamentos de switching executam duas operações básicas: • Switching de quadro de dados - isso acontece quando um quadro chegar a um meio de entrada e for transmitido para um meio de saída. • Manutenção das operações de switching - um switch cria e mantém tabelas de switching. O termo bridging se refere a uma tecnologia na qual um dispositivo conhecido como uma bridge conecta dois ou mais segmentos de LAN. Uma bridge transmite datagramas de um segmento aos destinos em outros segmentos. Quando uma bridge for ativada e começar a operar, ela examinará o endereço MAC dos datagramas de chegada e criará uma tabela dos destinos conhecidos. Se a bridge souber que o destino de um datagrama está no mesmo
  • 15. segmento da origem do datagrama, ela irá abandonar o datagrama porque não haverá necessidade de transmiti-lo. Se a bridge souber que o destino está em outro segmento, ela transmitirá o datagrama apenas naquele segmento. Se ela não souber o segmento de destino, transmitirá o datagrama em todos os segmentos exceto no segmento de origem (uma técnica conhecida como sobrecarga). A principal vantagem do bridging é limitar o tráfego para determinados segmentos da rede. Como as bridges, os switches conectam os segmentos LAN, usam uma tabela de endereços MAC para determinar o segmento para onde um datagrama precisa ser transmitido e reduzem o tráfego. Os switches são mais funcionais que as bridges nas redes atuais porque operam em velocidades muito mais altas que as bridges e podem suportar novas funcionalidades, como as LANs virtuais (VLANs). As bridges normalmente fazem switch usando o software; os switches normalmente fazem switch usando o hardware. Cada switch usado em uma LAN Ethernet de 10 Mbps adiciona latência à rede. No entanto, o tipo de switching usado pode ajudar a superar o problema de latência inerente a alguns switches. Um switch entre uma estação de trabalho e um servidor adiciona 21 microssegundos ao processo de transmissão. Um pacote de 1000 bytes tem um tempo de transmissão de 800 microssegundos. Um pacote enviado de uma estação de trabalho para um servidor tem um tempo total de transmissão de 821 microssegundos (800 + 21 = 821). Devido ao switching usado, conhecido como cut-through, o endereço MAC do dispositivo de destino é lido e o switch começa a transmitir o pacote antes dele ser completamente recebido pelo switch. Isso compensa a latência inerente ao switch. Switching da camada 2 e switching da camada 3 Existem dois métodos de fazer o switching de quadros de dados: switching da camada 2 e switching da camada 3. Switching é o processo de receber um quadro através de uma interface e distribuí-lo através de outra interface. Os roteadores usam o switching da camada 3 para rotear um pacote; os switches (switches da camada 2) usam o switching da camada 2 para encaminhar quadros. A diferença entre o switching da camada 2 e o switching da camada 3 é o tipo de informação contida no quadro usada para determinar a interface de saída correta. Com o switching da camada 2, os quadros são comutados com base nas informações de endereço MAC. Com o switching da camada 3, os quadros são comutados com base nas informações da camada de rede. O switching da camada 2 não procura as informações da camada de rede dentro de um pacote como faz o switching da camada 3. O switching da camada 2 procura o endereço MAC de destino dentro de um quadro. Ele enviará as informações para a interface apropriada se souber a localização do endereço de destino. O switching da camada 2 cria e mantém uma tabela de switching que mantém o registro dos endereços MAC que pertencem a todas as portas ou interfaces. Se o switch da camada 2 não souber para onde enviar o quadro, ele irá fazer o broadcast do quadro através de todas as suas portas para que a rede aprenda o destino correto. Quando a resposta do quadro for devolvida, o switch aprenderá a localização do novo endereço e adicionará as informações à tabela do switching. O fabricante do equipamento de comunicações de dados determina os endereços da camada 2. Eles são endereços exclusivos que são divididos em duas partes, o código de fabricação (MFG) e o identificador exclusivo. O Institute of Electrical and Electronic Engineers (IEEE) atribui o código MFG a cada fornecedor. O fornecedor atribui um identificador exclusivo. Exceto nas redes Systems Network Architecture (SNA), os usuários têm pouco ou nenhum controle sobre o endereçamento da camada 2 porque os endereços da camada 2 são fixos em um dispositivo, enquanto os endereços da camada 3 podem ser alterados. Além disso, os endereços da camada 2 assumem um espaço de endereço contínuo com endereços universalmente exclusivos. O switching da camada 3
  • 16. opera na camada de rede. Ele examina as informações do pacote e encaminha os pacotes com base nos endereços de destino da camada de rede. O switching da camada 3 também suporta a funcionalidade do roteador. Na maioria dos casos, o administrador da rede determina os endereços da camada 3. Protocolos como IP, IPX e AppleTalk usam o endereçamento da camada 3. Ao criar endereços da camada 3, um administrador de rede cria áreas locais que atuam como unidades de endereçamento únicas (similar a ruas, cidades, estados e países) e atribui um número a cada entidade local. Se os usuários se mudarem para outro prédio, suas estações terminais vão obter novos endereços da camada 3, mas os endereços da camada 2 permanecerão os mesmos. Como os roteadores operam na camada 3 do modelo de referência OSI, eles podem criar e obedecer uma estrutura de endereçamento hierárquica. Portanto, uma rede roteada pode unir uma estrutura de endereçamento lógica a uma estrutura física, por exemplo, através das sub- redes TCP/IP ou das redes IPX em cada segmento. O fluxo do tráfego em uma rede com comutação (simples) é, portanto, inerentemente diferente do fluxo do tráfego em uma rede roteada (hierárquica). As redes hierárquicas oferecem fluxo de tráfego mais flexível do que as redes simples, pois elas podem usar a hierarquia da rede para determinar melhores caminhos e contêm domínios de broadcast. Os switches têm muitas vantagens. Um switch LAN permite que vários usuários se comuniquem paralelamente através do uso de circuitos virtuais e de segmentos de rede dedicados em um ambiente livre de colisões. Isso maximiza a largura de banda disponível em um meio compartilhado. Além disso, mudar para um ambiente de LAN com comutação é muito econômico porque o cabeamento e o hardware existentes podem ser usados novamente. Por último, os administradores da rede têm grande flexibilidade em gerenciar a rede através da eficácia do switch e do software para configurar a LAN. Switching simétrico e switching assimétrico O switching simétrico é uma forma de se caracterizar um switch LAN de acordo com a largura de banda alocada em cada porta no switch. Um switch simétrico fornece conexões com comutações entre portas com a mesma largura de banda, como todas as portas de 10 Mbps ou todas as portas de 100 Mbps. Um switch LAN assimétrico fornece conexões com comutação entre portas de largura de banda diferente, como uma combinação das portas de 10 Mbps e de 100 Mbps. O switching assimétrico faz com que a maior parte do tráfego de rede cliente/servidor flua onde vários clientes estejam se comunicando com um servidor ao mesmo tempo, exigindo mais largura de banda dedicada para a porta do switch a qual o servidor está conectado para impedir um gargalo naquela porta. Como você aprenderá na próxima seção, o buffer de memória em um switch assimétrico é necessário para permitir que o tráfego da porta de 100 Mbps seja enviado à porta de 10 Mbps sem causar muito congestionamento na porta de 10 Mbps.
  • 17. Buffer de memória Um switch Ethernet pode usar uma técnica de buffer para armazenar e encaminhar pacotes para a(s) porta(s) correta(s). A área de memória onde o switch armazena os dados de transmissão e de destino é chamada de buffer de memória. Esse buffer de memória pode usar dois métodos para encaminhar pacotes: o buffer de memória baseado na porta e o buffer de memória compartilhado. Em um buffer de memória baseado na porta, os pacotes são armazenados em filas vinculadas às portas de chegada específicas. Um pacote só é transmitido para a porta de saída quando todos os pacotes à frente dele na fila tiverem sido transmitidos com êxito. É possível que um único pacote atrase a transmissão de todos os pacotes na memória devido a uma porta de
  • 18. destino que esteja sendo usada. Esse atraso ocorrerá mesmo se os outros pacotes puderem ser transmitidos para abrir as portas de destino. O buffer de memória compartilhado deposita todos os pacotes em um buffer de memória comum que é compartilhado por todas as portas no switch. A quantidade de memória alocada em uma porta é determinada pela quantidade exigida por cada porta. Isso é chamado de alocação dinâmica de memória de buffer. Os pacotes no buffer são dinamicamente vinculados à porta de transmissão, o pacote é vinculado à alocação da memória dessa porta de transmissão. Isso permite que o pacote seja recebido por uma porta e transmitido através de outra, sem movê-lo para uma fila diferente. O switch mantém um mapa das portas para onde o pacote precisa ser transmitido. O switch só limpará esse mapa das portas de destino depois que o pacote tiver sido transmitido com êxito. Como o buffer de memória é compartilhado, o pacote estará restrito ao tamanho de todo o buffer de memória e não apenas à alocação a uma porta. Isso significa que pacotes maiores podem ser transmitidos com menos pacotes descartados. Isso é importante para o switching 10/100, onde uma porta de 100 Mbps pode encaminhar um pacote a uma porta de 10 Mbps. Dois modos de switching podem ser usados para encaminhar um quadro através de um switch: • Armazenar e encaminhar - Todo o quadro é recebido antes de ocorrer qualquer encaminhamento. O endereço de destino e/ou o endereço de origem é lido e os filtros serão aplicados antes do quadro ser encaminhado. A latência ocorrerá enquanto o quadro estiver sendo recebido; a latência será maior nos quadros maiores pois todo o quadro levará mais tempo para ser lido. A detecção de erros será maior devido ao tempo disponível para o switch verificar os erros enquanto estiver esperando que todo o quadro seja recebido. • Cut-through - O switch lê o endereço de destino antes de receber todo o quadro. O quadro é encaminhado antes que todo o quadro chegue. Esse modo diminui a latência da transmissão e tem uma detecção de erros de switching LAN ruim. Fast-forward e fragment-free são duas formas do switching cut-through: o Switching fast-forward - O switching fast-forward oferece o nível mais baixo de latência encaminhando imediatamente um pacote após ter recebido o endereço de destino. Como o switching fast-forward começa a encaminhar antes que todo o pacote seja recebido, pode haver vezes em que os pacotes sejam retransmitidos com erros. Embora isso não ocorra com freqüência e a placa de rede de destino descarte o pacote com defeito ao recebê-lo, o tráfego supérfluo pode ser considerado inaceitável em alguns ambientes. Use a opção fragment-free para reduzir o número de pacotes encaminhados com erros. No modo fast-forward, a latência é medida a partir do primeiro bit recebido até o primeiro bit transmitido, ou primeiro a entrar, primeiro a sair (FIFO, first in, first out). o Switching fragment-free - O switching fragment-free filtra os fragmentos da colisão, que são a maioria dos erros do pacote, antes do encaminhamento começar. Em uma rede funcionando apropriadamente, os fragmentos de colisão devem ser menores que 64 bytes. Qualquer coisa maior que 64 bytes é um pacote válido e é normalmente recebido sem erro. O switching fragment- free aguarda até que o pacote recebido seja reconhecido como não sendo um fragmento de colisão antes de encaminhá-lo. No modo fragment-free, a latência é medida como FIFO.
  • 19. A latência de cada modo de switching depende de como o switch encaminha os quadros. Quanto mais rápido for o modo de switching, menor será latência no switch. Para realizar um encaminhamento de quadro mais rápido, o switch leva menos tempo para verificar os erros. A compensação será menos verificação de erros, o que poderá levar a um número maior de retransmissões. O que é VLAN Um switch Ethernet segmenta fisicamente uma LAN em domínios de colisão individuais. No entanto, cada segmento ainda faz parte de um domínio de broadcast. O número total de segmentos em um switch é igual a um domínio de broadcast. Isso significa que todos os nós em todos os segmentos podem ver um broadcast a partir de um nó em um segmento. A principal função do Spanning-Tree Protocol é permitir os caminhos com bridges/switches duplicados sem os efeitos de latência dos loops na rede. As bridges e os switches tomam as decisões de encaminhamento para os quadros unicast com base no endereço MAC no quadro. Se o endereço MAC for desconhecido, o dispositivo transmitirá o quadro através de todas as portas na tentativa de alcançar o destino desejado. Ele também faz isso em todos os quadros de broadcast. O algoritmo Spanning Tree, implementado pelo Spanning-Tree Protocol, impede os loops calculando uma topologia de rede spanning-tree estável. Ao criar redes tolerantes a falhas, um caminho sem loops deverá existir entre todos os nós Ethernet na rede. O algoritmo Spanning Tree é usado para calcular um caminho sem loops. Quadros Spanning Tree, chamados de bridge protocol data units (BPDUs), são enviados e recebidos por todos os switches na rede em intervalos regulares e são usados para determinar a topologia spanning-tree. Um switch usa o Spanning-Tree Protocol em todas as Ethernets e Fast Ethernets baseadas em VLANs. O Spanning-Tree Protocol detecta e interrompe os loops colocando algumas conexões no modo de espera, que serão ativadas caso haja uma falha na conexão ativa. Uma instância separada do Spanning-Tree Protocol é executada em cada VLAN configurada, garantindo as topologias Ethernet que estão de acordo com os padrões da indústria através da rede. Os estados do Spanning-Tree Protocol são os seguintes: • Bloqueando - Nenhum quadro encaminhado, BPDUs detectadas • Prestando atenção - Nenhum quadro encaminhado, prestando atenção nos quadros • Aprendendo - Nenhum quadro encaminhado, aprendendo os endereços • Encaminhando - Quadros encaminhados, aprendendo os endereços • Desativado - Nenhum quadro encaminhado, nenhuma BPDU detectada O estado de cada VLAN é inicialmente definido pela configuração e modificado depois pelo processo Spanning-Tree Protocol. Você pode determinar o status, o custo e a prioridade das portas e das VLANs usando o comando show spantree . Depois que esse estado de porta para VLAN for definido, o Spanning-Tree Protocol determinará se a porta irá encaminhar ou bloquear os quadros. As portas poderão ser configuradas para entrar imediatamente no modo de encaminhamento Spanning-Tree Protocol quando for feita uma conexão, em vez de seguir a seqüência usual de bloquear, aprender e encaminhar. A capacidade de comutar rapidamente os estados de bloquear para encaminhar em vez de passar pelos estados da porta transacionais será útil em situações onde o acesso imediato a um servidor for necessário.